Google bị ép phải giải tán Ban đạo đức trí tuệ nhân tạo (AI) của mình chỉ vài ngày sau khi thành lập. Một số nhân viên của hãng cùng các nhóm hoạt động đã than phiền rằng một trong những thành viên của ban quá ủng hộ các giá trị truyền thống.

dao duc tri tue nhan tao
(Ảnh: Shutterstock)

Cuộc tranh cãi

Hội đồng tư vấn công nghệ tiên tiến ngoại vi (ATEAC) do Google thành lập ban đầu gồm 8 thành viên là các chuyên gia trong nhiều lĩnh vực khác nhau như toán học, khoa học máy tính, AI, triết học, tâm lý học, rôbốt học, chính sách cộng đồng v.v. Sự có mặt của bà Kay Coles James, chủ tịch của viện chiến lược bảo thủ Heritage Foundation, chính là nguồn cơn của tranh cãi.

Những người chỉ trích lập luận rằng bà Kay đã từng có những phát biểu chống lại cộng đồng LGBT trong quá khứ. Bà cũng là một người ủng hộ mạnh mẽ chủ trương tường biên giới của Tống thống Trump và đã từng lên tiếng phản đối quyền phá thai. Tất cả những điều này được phe cánh tả xem là tiêu cực.

Rất nhanh chóng, 2.300 nhân viên của Google đã ký một lá thư yêu cầu loại bà Kay ra khỏi danh sách. Các học giả tên tuổi bên ngoài công ty cũng ký vào lá thư này. Một số cho rằng những “niềm tin mù quáng” của bà sẽ thẩm thấu vào trong dự án AI của Google nếu những lời khuyên của bà được sử dụng để xây dựng bộ khung đạo đức cho trí tuệ nhân tạo.

>> 3 dấu hiệu cho thấy Google đang trở nên đen tối

Sau nhiều thị phi xuất hiện trên truyền thông, Google quyết định giải tán ban này thay vì phải nhận lấy chê trách của báo giới. Rõ ràng là trong tình hình hiện nay, ATEAC không thể hoạt động như chúng tôi mong muốn…Vậy nên chúng tôi đã kết thúc sứ mệnh của hội đồng này và bắt đầu lên kế hoạch lại từ đầu,” Google cho biết.

Việc giải tán hội đồng đạo đức này là một ví dụ tiêu biểu về cách truyền thông cánh tả sử dụng chiến thuật gây áp lực để bịt miệng những quan điểm trái chiều. Thái độ này có thể đem tới thảm hoạ cho sự phát triển của AI. Vì nếu người ta muốn gây dựng một khuôn phép đạo đức cho Trí tuệ Nhân tạo, thì điều quan trọng là cần xem xét biện chứng cả hai mặt của vấn đề.

Đơn cử, người ta có thể nhìn nhận rằng phá thai là tội lỗi đứng từ lập trường bảo vệ sinh mạng đứa trẻ, cũng có người sẽ cho rằng phá thai là hợp lẽ đứng từ lập trường bảo vệ cơ thể người mẹ. Nếu những tiếng nói phản đối phá thai bị trù dập trong khuôn phép đạo đức của AI và chỉ những ý kiến ủng hộ giết trẻ mới được hoan nghênh, thì làm sao chúng ta có thể tạo ra một AI có đạo đức đây?

Nếu muốn là một AI thật sự có đạo đức, nó cần phải đánh giá cả hai mặt của một vấn đề. Khi những tiếng nói bảo thủ bị gạt ra rìa và chỉ một mực chấp nhận các ý kiến tự do, thì thứ AI được tạo ra ấy sẽ chỉ chạy theo một hệ tư tưởng đơn nhất mà thôi.

Những hướng dẫn về đạo đức AI của Liên minh Châu Âu

Trong khi truyền thông cùng các doanh nghiệp Mỹ quốc vẫn đang bàn đi tính lại, thì giới chức bên bờ Đại Tây Dương đã đi trước một bước, Uỷ ban Châu Âu đã phát đi một bộ những hướng dẫn mà các công ty cần tuân thủ khi xây dựng khuôn khổ đạo đức cho các chương trình AI của họ. “Đạo đức của AI không phải là một tính năng cao cấp hay phụ thêm. Nó là một thành tố quan trọng với niềm tin duy nhất rằng xã hội chúng ta sẽ được hưởng lợi đầy đủ từ các công nghệ,” Andrus Ansip, phó chủ tịch Liên minh Châu Âu về thị trường đơn nhất số cho biết.

tri tue nhan tao chau au
(Ảnh chụp/Youtube)

Theo bộ hướng dẫn này, các cỗ máy AI không bao giờ được phép giới hạn quyền quản trị của con người và nên luôn luôn tạo điều kiện cho công bằng xã hội bằng cách ủng hộ những quyền cơ bản. Công dân phải có toàn quyền kiểm soát các dữ liệu của mình và AI không được phép sử dụng các dữ liệu này để làm hại các công dân dưới bất kỳ hình thức nào.

Tất cả các AI đều phải theo dõi được và các cơ chế phải được thiết lập để đảm bảo rằng chúng sẽ phải chịu trách nhiệm cho những hậu quả từ quyết định của mình. Khi đánh giá con người, các hệ thống AI không được phân biệt đối xử và phải xem xét năng lực và kỹ năng của người đó.

>> Trí tuệ nhân tạo: Chiếc hộp Pandora thời hiện đại?

Trí tuệ nhân tạo đang ngày càng trở nên mạnh hơn, nhưng chuẩn mực đạo đức trong các quyết định của AI rất có thể sẽ không dựa trên những giá trị truyền thống đã níu giữ đạo đức và duy trì ổn định xã hội nhân loại trong suốt 5000 năm qua.

Theo Vision Times
Hạ Chi biên dịch