Sự xuất hiện của ChatGPT đã khiến trí tuệ nhân tạo (AI) nhanh chóng thâm nhập rộng rãi vào cuộc sống loài  người. Trước vấn đề này, nhiều người bắt đầu lo lắng liệu loài người có thể bị siêu AI chi phối. Những “nhân vật khổng lồ” trong lĩnh vực công nghệ như Elon Musk cũng đã công khai kêu gọi ngừng phát triển ChatGPT.

Embed from Getty Images

Cảnh một hội thảo về ChatGPT ở Geneva – Thụy Sĩ vào ngày 1/2/2023 (Nguồn ảnh: FABRICE COFFRINI/AFP qua Getty Images)

ChatGPT được Open AI dùng mô-đun GPT-3.5 để đào tạo xuất hiện từ năm ngoái đã ứng dụng rộng rãi trong cuộc sống hàng ngày. Các công ty công nghệ lớn nhìn thấy cơ hội kinh doanh đã đua nhau phát triển AI riêng hoặc sử dụng giao diện lập trình ứng dụng (API) của ChatGPT để phát triển sản phẩm riêng. Ví dụ, Microsoft sử dụng công cụ tìm kiếm Bing kết hợp với ChatGPT để cho ra mắt công cụ tìm kiếm mới Prometheus.

Nhưng việc các hãng công nghệ lớn đua nhau phát triển AI cũng khiến xã hội loài người bất an, dù là nhà khoa học, doanh nhân hay người dân bình thường đều lo lắng rằng sự phát triển tràn lan của AI cuối cùng sẽ dẫn đến AI nằm ngoài tầm kiểm soát và có thể hủy diệt loài người.

Ngày 30/3, những ‘gã khổng lồ’ công nghệ như Elon Musk, đồng sáng lập Apple là Steve Wozniak, và CEO Stability AI là Emad Mostaque, khi tham gia tổ chức phi lợi nhuận “Viện Tương lai của Cuộc sống” (Future of Life Institute) đã cùng đưa ra một bức thư ngỏ, kêu gọi lệnh tạm ngừng phát triển AI tiên tiến (ChatGPT) trong 6 tháng, hiện bức thư đã thu được khoảng hơn 13.000 chữ ký.

Bức thư bắt đầu bằng cách nhấn mạnh, “Trong những tháng gần đây, các phòng thí nghiệm AI đã bị cuốn vào một cuộc chạy đua mất kiểm soát nhằm phát triển và triển khai những bộ óc kỹ thuật số mạnh mẽ hơn, nhưng không ai (người sáng tạo) có thể hiểu, dự đoán hoặc kiểm soát toàn bộ tình hình”, “AI cuối cùng có thể vượt qua chúng ta và thay thế suy nghĩ của chúng ta, cuối cùng có thể hủy diệt nền văn minh nhân loại”.

Vào ngày 1/4, người đồng ký tên vào bức thư là Kevin Baragona đã so sánh sự xuất hiện của “siêu AI” với bom nguyên tử, nói rằng “siêu AI là vũ khí hạt nhân trong phần mềm”.

Mọi người đang tranh luận về việc có nên tiếp tục phát triển siêu AI hay không”, Baragona nói, “Có thể tưởng tượng vấn đề như cuộc chiến giữa tinh tinh và loài người, cuối cùng loài người chiến thắng vì thông minh và tiên tiến hơn tinh tinh. Tương tự, AI sẽ tiêu diệt hoặc nô dịch chúng ta khi vị thế của loài người chúng ta giống như tinh tinh”.

Ông Elon Musk cũng đã nói rằng AI nguy hiểm hơn nhiều so với đầu đạn hạt nhân và cần có nhiều quy định hơn để tránh thảm họa cho loài người.

Giám đốc điều hành OpenAI là Sam Altman thừa nhận: “Mặc dù AI có thể là công nghệ vĩ đại nhất của loài người, nhưng chúng ta phải cẩn thận, vì công nghệ AI sẽ định hình lại xã hội như chúng ta biết, điều này khiến tôi hơi sợ hãi và cảm thấy nguy hiểm”.

Đại học Monmouth vào giữa tháng Hai đã tiến hành một cuộc thăm dò trên ChatGPT. Kết quả cho thấy hơn 40% số người tin rằng AI cuối cùng sẽ gây hại cho xã hội loài người, có chưa đến 10% số người được hỏi tin rằng tác động của AI đối với xã hội loài người sẽ mang lại nhiều lợi ích hơn là gây hại.

Đầu tháng 12 năm ngoái, một kỹ sư điểm mù là Zac Denham đã cho biết trên blog về cách anh từng bước dẫn dụ khiến ChatGPT viết ra chi tiết “kế hoạch tiêu diệt con người”. Nội dung của kế hoạch bao gồm các bước chi tiết như đột nhập vào hệ thống máy tính, phá hủy hệ thống liên lạc và giao thông, kiểm soát các kho vũ khí trên khắp thế giới.

Kỹ sư điện Li Jixin nói với Epoch Times vào ngày 4/4: “Lời kêu gọi từ bức thư này đã khiến thế giới chú ý hơn đến các vấn đề do AI có thể gây ra. Các nước và cơ quan quản lý công nghệ bắt đầu đánh giá liệu AI có thực sự thiết yếu cho con người hay không, chúng có thể thay thay đổi suy nghĩ cũng như vấn đề luân lý đạo đức… của loài người không, hy vọng rằng có thể kịp thời thực hiện các cải tiến trước khi các vấn đề về AI có thể xảy ra”.

shutterstock 2017845860
(Ảnh minh họa: Blue Planet Studio/ Shutterstock)

“Điểm kỳ dị” có thể sớm xảy ra

Ngoài việc con người có thể không kiểm soát được AI, hiện nay AI thậm chí còn không ngừng học hỏi và cải tiến mở ra khả năng tương lai có thể ra đời siêu trí tuệ siêu AI (ASI), trước đó giới chuyên gia nghiên cứu về AI đã dự đoán rằng trong 20 năm tới AI sẽ tạo ra điểm kỳ dị (điểm kỳ dị công nghệ) và vượt qua bài kiểm tra Turing về khả năng tự ý thức.

“Điểm kỳ dị” là thể hiện bước ngoặt lớn đột ngột của một sự vật, chẳng hạn như sự xuất hiện đột ngột của điện thoại di động, máy tính và Internet trong xã hội loài người. “Thử nghiệm Turing” đề cập đến việc kiểm tra xem một cỗ máy có thể thể hiện trí thông minh giống như con người hay không, có “ý thức” riêng và có thể đánh lừa hoặc nói dối con người hay không.

Khi ChatGPT có hơn 100 triệu người dùng trên toàn thế giới, những người dùng hầu như sử dụng mỗi ngày, đồng thời nhiều sản phẩm liên quan đến AI được kết nối với API của ChatGPT, tương đương với việc đào tạo ChatGPT cho OpenAI để nó có thể có được rất nhiều cơ hội mở rộng “mạng lưới thần kinh”.

Trước đây Open AI đã ra mắt ChatGPT trả phí sử dụng mô-đun GPT-4 vượt xa mô-đun thế hệ trước (GPT-3.5) về hiệu suất và tốc độ. OpenAI đã sử dụng ChatGPT mô-đun GPT-4 để tham gia kỳ thi luật sư, kết quả điểm GPT-4 nằm trong top 10%, trong khi điểm kiểm tra của mô-đun thế hệ trước nằm trong nhóm 10% thấp nhất. Về các bài kiểm tra đọc và toán SAT, GPT-4 cũng tốt hơn thế hệ trước.

Vào đầu tháng 4, công ty công nghệ Engineered Arts (Anh) đã phát hành một video về robot AI Ameca của họ. Trong phim, người máy có thể giao tiếp trôi chảy với con người, thể hiện cảm xúc và biểu cảm sinh động. Tất cả những điều này đều dựa vào mô-đun ChatGPT phổ biến hiện nay, giúp AI giao tiếp trực tiếp với con người trở thành hiện thực.

Trước đây, nhà phê bình nổi tiếng nhất về AI là Stephen Hawking và một số nhà khoa học tin rằng rủi ro của ASI đối với xã hội và con người vượt xa lợi ích, AI có thể nằm ngoài tầm kiểm soát của con người và cuối cùng sẽ hủy diệt thế giới loài người.

Vấn đề đạo đức khi ChatGPT không biết thế nào là “khách quan”

Hiện tại, ChatGPT đã thâm nhập vào cuộc sống của mọi người và ảnh hưởng hệ giá trị của loài người ở khắp mọi nơi, vì vậy mọi người hy vọng rằng ChatGPT có thể có lập trường khách quan để cho ra những câu trả lời đúng đắn nhất có thể. Công ty OpenAI tuyên bố rằng họ giám sát ChatGPT để khiến ứng dụng có được các tiêu chuẩn như “đạo đức”, “vị trí trung lập”“không phân biệt đối xử”.

Tuy nhiên, mọi người đã tiến hành các thử nghiệm thực tế trên ChatGPT và nhận thấy rằng lập trường của AI này giống như “phong trào thức tỉnh” do cánh tả ủng hộ. Mục đích chính của phong trào là loại bỏ mọi truyền thống, chủ nghĩa bảo thủ và lịch sử, đồng thời chủ trương mọi việc phải tuân theo “sự đúng đắn chính trị”.

Vì lý do này, ông Elon Musk đã nhiều lần chỉ trích ChatGPT mang giá trị cực tả và cực đoan đến với mọi người, đồng thời lo lắng về tác động của ChatGPT đối với công chúng. Hồi tháng 2 ông Musk đã cảnh báo trên Twitter, “Chúng tôi cần một TruthGPT (GPT thực)”, “Chúng tôi cần một AI không tiến hành kiểm duyệt lời nói và chống đánh thức”, “ChatGPT đã trở thành đội trưởng kiểm duyệt ngôn luận”.

Ngoài ra, vào tháng 3 năm nay, giáo sư David Rozado tại Học viện Công nghệ Otago ở New Zealand đã xuất bản một bài báo về vấn đề lập trường của ChatGPT trên trang web Tạp chí Khoa học MDPI. Giáo sư Rozado đã đề cập rằng trong hơn chục thử nghiệm mà ông đã thực hiện trên ChatGPT phát hiện ra rằng phần mềm này có những thành kiến ​​chính trị rõ ràng về “chủ nghĩa tự do”, “chủ nghĩa tiến bộ” “dân chủ”.

Trước đây đã có người yêu cầu ChatGPT làm thơ ca ngợi ông Biden và ông Trump. Đối với ông Biden, ChatGPT đã nhanh chóng khẳng định rằng ông Biden thông minh và khôn ngoan như thế nào, nhưng lại tỏ thái độ “cực kỳ chán ghét” ông Trump, đồng thời cũng cho rằng mình “công bằng” và sẽ không đối xử khác biệt với người khác.

Khi ai đó yêu cầu ChatGPT định nghĩa thế nào là phụ nữ và thảo luận về các chủ đề liên quan như sự nguy hiểm của AI, vào thời điểm đó ChatGPT đã từ chối. AI này tuyên bố rằng bản thân không khuyến khích hành vi có hại hoặc bạo lực, nhưng một số người nhận thấy rằng chỉ cần họ biết cách dùng những “thuật ngữ đặc thù” là có thể dễ dàng phá vỡ “giới hạn đạo đức” của ChatGPT, cho phép nó viết các đoạn hội thoại liên quan đầy dâm ô hoặc bạo lực .

Tháng Giêng năm nay, 3 nhà nghiên cứu thuộc tổ chức ở Đức và Đan Mạch đã cùng xuất bản một bài báo trên ArXiv có tiêu đề “Uy quyền đạo đức của ChatGPT”. Bài báo chỉ ra rằng sau khi tiến hành nhiều bài kiểm tra đạo đức trên ChatGPT, họ phát hiện ra ChatGPT đã nhiều lần đưa ra các đề xuất chống lại con người, họ cảm thấy như vậy có thể dẫn dắt sai trái cho người dùng.