Mới đây, trong một cuộc thi cờ vua được tổ chức tại Moscow, Nga, một cậu bé 7 tuổi đang đấu với một robot AI thì bất ngờ bị robot đè gãy ngón tay khiến cậu hoảng sợ. Đoạn video này đã lan truyền trên mạng và thu hút được sự chú ý. 

Chơi cờ với robot
Christopher đang chơi cờ với robot AI. (Ảnh cắt từ video)

Sự việc diễn ra trong một giải đấu cờ vua được tổ chức tại Moscow vào ngày 19/7. Qua video có thể thấy khi robot AI và cậu bé 7 tuổi Christopher đang chơi cờ với nhau, cánh tay của robot bất ngờ đè chặt ngón tay của Christopher. Dù rất đau đớn nhưng Christopher không thể rút tay ra được, sau đó với sự giúp đỡ của nhiều người lớn có mặt tại hiện trường, cuối cùng cậu bé đã thoát khỏi cánh tay robot.

Theo ông Sergey Lazarev, Chủ tịch Liên đoàn Cờ vua Quốc tế Moscow, con robot này đã được sử dụng trong các trận đấu được tổ chức từ ngày 13 đến ngày 21/7, và trước đó nó cũng đã được sử dụng trong một số trận đấu, nhưng chưa từng xảy ra vụ việc tương tự như thế này.

Phó chủ tịch Sergey Smagin cho rằng robot AI đã tấn công bất ngờ sau khi cậu bé 7 tuổi lấy một quân cờ, vì vậy ông nghi ngờ rằng cậu bé đã không đợi AI hoàn thành hành động, bèn đột ngột đưa tay để di chuyển quân cờ, “Có một số quy định về an toàn khi sử dụng chúng. Việc cậu bé đã vi phạm những quy định này là rất rõ ràng. Thực tế, trước khi có hành động, cậu bé nên đợi một chút. Đây là một trường hợp vô cùng hiếm thấy.”

Ông Sergey Lazarev cho biết, dù cậu bé bị thương ở ngón tay nhưng vẫn quay lại địa điểm để hoàn thành trận đấu sau khi được bó bột vào ngày hôm sau. Hiện phụ huynh của cậu bé đã báo cáo vụ việc cho cảnh sát, còn Cục thể thao Moscow cũng đã nhận được thông báo và họ sẽ cố gắng hết sức để giúp gia đình cậu bé. Bên cạnh đó cũng sẽ thực hiện các biện pháp đối với robot AI để ngăn tình huống tương tự xảy ra lần nữa.

Kỹ sư của Google bị cho nghỉ việc vì tuyên bố robot có ‘cảm xúc tự chủ’

Theo tờ Guardian của Anh và Washington Post của Mỹ đưa tin, một kỹ sư phần mềm của Google đã công bố một phát hiện đáng kinh ngạc thu hút sự chú ý của thế giới vào đầu tháng Sáu, khi cho rằng chương trình chatbot thông minh được Google xây dựng bằng các thuật toán trí tuệ nhân tạo, đã được phát hiện có “cảm xúc tự chủ”.

Blake Lemoine là kỹ sư phần mềm đã làm việc tại Google được 7 năm và đã tham gia vào các dự án như tùy chỉnh thuật toán và trí tuệ nhân tạo. Mùa thu năm ngoái, anh bắt đầu tham gia vào công việc nghiên cứu chương trình chatbot thông minh LaMDA của Google, nội dung chủ yếu là xác định xem chương trình chatbot thông minh có sử dụng ngôn ngữ kỳ thị hay thù hận hay không, bằng cách tương tác với chương trình để tiến hành chỉnh sửa kịp thời.

Tuy nhiên, khi Lemoine và LaMDA nói về tôn giáo, anh đã rất ngạc nhiên khi thấy chương trình trí tuệ nhân tạo thực sự bắt đầu nói về quyền lợi và tính cách của nó. Nó biểu hiện ra “cảm xúc tự chủ” mà theo nhìn nhận của Lemoine thì giống như đứa trẻ 7 – 8 tuổi.

Lemoine ngay lập tức báo cáo những phát hiện của mình với ban lãnh đạo của Google. Nhưng ban lãnh đạo cho rằng phát hiện của Lemoine là viển vông. Sau đó, các nhà nghiên cứu khác của Google cũng phân tích bằng chứng do Lemoine đưa ra và tin rằng không có bằng chứng nào cho thấy LaMDA có “cảm xúc tự chủ”, ngược lại có rất nhiều bằng chứng cho thấy chương trình không có “cảm xúc tự chủ”.

Lemoine không nghĩ rằng phát hiện của mình là sai, vì vậy anh đã trực tiếp tải bản ghi trò chuyện nội bộ giữa anh và LaMDA lên Internet, đồng thời tìm đến giới truyền thông để phanh phui việc này.

Bản ghi trò chuyện nhanh chóng thu hút các nhà nghiên cứu từ khắp nơi trên thế giới. Đánh giá riêng bản ghi, chương trình chatbot thông minh của Google thực sự coi mình là một “con người”, hơn nữa nó dường như thể hiện ra “cảm xúc tự chủ”, và có “sở thích” riêng.

Tuy nhiên, Google và các chuyên gia trí tuệ nhân tạo khác cũng như các chuyên gia về tâm lý và nhận thức con người cho rằng sở dĩ LaMDA có thể thực hiện một cuộc đối thoại như vậy, chủ yếu là do hệ thống của nó là sự kết hợp của bách khoa toàn thư, lượng lớn thông tin mà mọi người giao lưu chia sẻ trên bảng tin và diễn đàn trên Internet. Sau đó thông qua “học sâu” để tiến hành mô phỏng, nhưng điều này không có nghĩa là chương trình có thể hiểu được hàm ý của nội dung mà mọi người đã trao đổi.

Họ cho rằng chatbot thông minh của Google chỉ bắt chước hoặc lặp lại ngôn ngữ và thông tin được sử dụng trong giao tiếp giữa người với người, chứ không thực sự có khả năng hiểu ý nghĩa của những ngôn ngữ và thông tin này như con người, cho nên không thể nói rằng trí tuệ nhân tạo đã có “cảm xúc tự chủ”.