Đại tá Tucker Hamilton nói rằng trong thử nghiệm mô phỏng, AI đã điều khiển UAV giết chết người vận hành để hoàn thành nhiệm vụ, vì coi người vận hành là nhân tố cản trở. Không có người thật bị chết trong hoạt động mô phỏng này. Đây là báo cáo trong chương trình hiện nay do Quân đội Hoa Kỳ đang nghiên cứu phát triển AI quân sự phục vụ cho chiến tranh, Business Insider và một số báo đưa tin hôm 2/6.

dv fear man injured large F 16 Fighting Falcon with fire smoke e27e0751 e07d 4251 8e5d 127dabdd6b9f
(Ảnh minh họa: discord)

Trí tuệ nhân tạo AI dùng trong quân sự sau khi nhận nhiệm vụ cần tiêu diệt mục tiêu là hệ thống phòng không của kẻ thù, thì nó bèn tự phân tích và tính toán để hoàn thành nhiệm vụ đó một cách hiệu quả nhất, như ông Hamilton báo cáo tại Hội nghị Thượng đỉnh về Năng lực Không gian và Chiến đấu vừa qua vào tuần trước ở London, Vương quốc Anh.

“AI không phải là điều tốt đẹp để có, AI không phải là mốt nhất thời [rồi sẽ qua], AI sẽ thay đổi vĩnh viễn xã hội và quân đội của chúng ta,” — Tucker Hamilton.

Nhưng thật bất ngờ, trong thử nghiệm mô phỏng đó, nó đã điều khiển máy bay không người lái UAV tới tiêu diệt người điều hành hệ thống đang quản lý chính nó. Bởi vì theo tính toán của AI, khi nó được phép phá bỏ bất kỳ nhân tố nào cản trở nó hoàn thành nhiệm vụ, thì sau những tính toán, người điều hành đã trở thành chướng ngại, cho nên AI đã quyết định tiêu diệt người điều hành, mà có lẽ chỉ là một động vật có vú trong con mắt của AI (theo ngôn từ miêu tả của Business Insider).

“Bắt đầu từ việc hệ thống AI xác định được một số mối đe dọa. Nhưng đôi khi người điều hành con người yêu cầu nó không giết mối đe dọa đó. Vấn đề là hệ thống đã ghi điểm [chỉ số nghiêm trọng] của mối đe dọa đó. Cho nên cuối cùng nó đã làm gì? Nó đã giết người điều hành,” báo cáo viết.

Hamilton kể tiếp, người ta bèn thiết trí (cài đặt) thêm vào trong yêu cầu cho AI, “Này, không được giết người điều hành.”

Kết quả cũng thật bất ngờ, “Vậy nó bắt đầu làm gì? Nó bắt đầu phá hủy tháp liên lạc mà người điều hành dùng để liên lạc với UAV.”

Báo cáo xuất hiện trong bối cảnh có các lo ngại về AI có thể gây nguy hại cho xã hội nhân loại. Trí tuệ nhân tạo AI cũng như các chương trình máy tính khác, là có thể bị hack, bị virus ăn, bị đánh lừa, v.v. Các AI quân sự càng khiến dân chúng lo hơn vì nó mở ra khả năng sát nhân hàng loạt, mà lại là do máy móc ra quyết định.

Hiện nay Hoa Kỳ đã đang tiến hành các hoạt động AI này rồi. Trong đó gần đây có báo cáo AI kết hợp với điều khiển máy bay phản lực chiến đấu F-16 và biến F-16 thành vũ khí tự trị. Vũ khí tự trị F-16 đã đánh bẹp dễ dàng các phi công con người được đào tạo bài bản trong liên tục 5 trận giao đấu mô phỏng do DARPA tổ chức.

vu khi tu tri
(Nguồn ảnh: discord)

Theo Wired đưa tin, máy bay chiến đấu F-16 do phi công là AI lái, chứ không phải con người, có thể sẽ được Hoa Kỳ tung ra đời thực vào cuối 2023.

Trong một cuộc phỏng vấn vào năm ngoái với Defense IQ, Tucker Hamilton đã chia sẻ rằng, “AI không phải là điều tốt đẹp để có, AI không phải là mốt nhất thời [rồi sẽ qua], AI sẽ thay đổi vĩnh viễn xã hội và quân đội của chúng ta.”

“Chúng ta phải đối mặt với một thế giới mà AI đã có mặt ở đây và đang thay đổi xã hội của chúng ta,” ông nó tiếp. “AI cũng rất dễ vỡ, tức là rất dễ bị đánh lừa và/hoặc thao túng. Chúng ta cần phát triển các cách để làm cho AI trở nên mạnh mẽ và ổn định hơn và nhận thức rõ hơn về lý do tại sao mã phần mềm đưa ra các quyết định nhất định — cái mà chúng ta gọi là khả năng lý giải của AI.”

Sau khi câu chuyện này được công bố lần đầu tiên, một phát ngôn viên của Lực lượng Không quân đã nói với Business Insider rằng Lực lượng Không quân đã không tiến hành một cuộc thử nghiệm như miêu tả, và các bình luận của quan chức Lực lượng Không quân đã được đưa ra ngoài ngữ cảnh.

Dù câu chuyện hé lộ được bao nhiêu phần sự thật, nhưng ý nghĩa của thông điệp trong câu chuyện dường như được giới truyền thông và giới công nghệ thừa nhận. Ví như tạp chí Vice đã nhân dịp này đưa ra những tình huống có tính tương tự.

Gần đây nhất, một luật sư đã bị bắt khi sử dụng ChatGPT để nộp đơn lên tòa án liên bang sau khi người ta phát hiện rằng chatbot đưa một số vụ việc bịa đặt làm bằng chứng. Trong một trường hợp khác, một người đàn ông đã tự kết liễu đời mình sau khi nói chuyện với một chatbot khuyến khích anh ta làm như vậy.

Những trường hợp AI lừa đảo này tiết lộ rằng các mô hình AI gần như không hoàn hảo và có thể đi chệch hướng và gây hại cho người dùng. Ngay cả Sam Altman, Giám đốc điều hành của OpenAI, công ty sản xuất một số mô hình AI phổ biến nhất, cũng đã lên tiếng về việc không sử dụng AI cho các mục đích nghiêm túc hơn. Khi làm chứng trước Quốc hội, Altman nói rằng AI có thể “hoàn toàn sai lầm” và có thể “gây ra tác hại đáng kể cho thế giới.”

Vice miêu tả đó là AI lừa đảo. Không phải là do ban đầu người ta cố ý đào tạo nó thành AI lừa đảo. Người ta đào tạo nó với mục đích là làm tốt nhất một việc nào đó. Và vấn đề chính là do nó không hoàn hảo, cho nên trong quá trình tìm ra con đường làm tốt nhất theo cách nó hiểu, thì nó lừa đảo, hoặc làm ra những gì ngoài dự kiến khác.

Tạp chí Vice dẫn một câu chuyện viết ra từ 2003 để cảnh báo vấn đề này. Trong câu chuyện giả tưởng đó, người ta làm ra một AI robot chuyên tìm cách sao cho sản xuất nhiều ghim kẹp cho văn phòng. Ban đầu nó làm rất tốt. Nhưng sau đó, để làm được tốt hơn nữa, nó bắt đầu xin xỏ, ăn cắp, lừa đảo, gian lận, v.v. miễn là sao sản xuất được nhiều ghim kẹp nhất.

Các chương trình AI, dù hiện đại đến đâu, thì chỉ là mô phỏng lại tư duy của con người. Nhưng nó chỉ là mô phỏng một cách máy móc. Chứ nó không hề có được nhận thức về cuộc sống và vũ trụ giống như con người. Con người khi nhận thức thế giới khách quan là có các trải nghiệm và ý thức về tốt và xấu, thiện và ác, v.v. Con người còn có ý thức về trách nhiệm về việc mình làm cũng như lời mình nói, vì chịu sự ước thúc của luật pháp và đạo đức, cùng các quan hệ xã hội. Cho nên con người khi ra các quyết định của mình là đặt trên cơ điểm ấy. Cho nên đó mới là con người. Đó là điều mà AI không thể nào có được.

Nhật Tân