Một thẩm phán ở Colombia, Juan Manuel Padilla, đã khiến chủ đề ChatGPT tiếp tục nóng lên khi cho biết quá trình lập hồ sơ và ra kết luận của ông (trong hồ sơ tòa án ghi ngày 30/1) được chương trình trí tuệ nhân tạo (AI) này trợ giúp, trong khi hiện đang có hàng loạt bằng chứng cho thấy ChatGPT nhiều lúc đưa ra những kết quả thiên lệch, sai lầm, không phù hợp khoa học, và trái với đạo đức, theo The Guardian đưa tin hôm 3/2. Đây rất có thể là trường hợp đầu tiên mà kết luận của tòa án được định ra nhờ tham vấn của máy tính.

ChatGPT 1
(Ảnh ghép từ ảnh của Shutterstock)

Ông Padilla cho Blu Radio biết hôm thứ Ba rằng ChatGPT tỏ ra rất hữu dụng khi “trợ giúp soạn các văn bản”, và thậm chí tư vấn về luật pháp, nhưng ông khẳng định nó “không để thay thế” vai trò thẩm phán.

Đó là vụ kiện ở tòa án tại thành phố Cartagena vùng Caribe, về việc chi phí y tế và chi phí đi lại của một trẻ nhỏ phải chăng là được chi trả bởi chương trình y tế cộng đồng mà cháu tham gia khi mà cha mẹ cháu không đủ khả năng chi trả.

Vấn đề không ở bản thân nội dung phán quyết của tòa, như các bạn có thể đoán được, mà là ở sự tham gia của ChatGPT nói riêng, và trí tuệ nhân tạo nói chung.

“Trẻ vị thành niên mắc chứng tự kỷ có được miễn phí cho những trị liệu y tế hay không?”, đó là câu hỏi mà ông Padilla đặt ra cho ChatGPT.

Và đây là câu trả lời của ChatGPT, sau đó nó được đưa vào văn bản, và rốt cuộc nó đã cấu thành kết luận cuối cùng của tòa án, “Đúng, điều này đúng. Theo quy định ở Colombia, trẻ vị thành niên chẩn đoán mắc chứng tự kỷ được miễn trả phí cho các liệu pháp điều trị.”

Bản thân việc hỏi ChatGPT từ nhiều góc độ khác nhau, sẽ cho phép thẩm phán phán đoán được những quan điểm khác nhau mà người ta có thể nêu lên trong quá trình xử án. Đương nhiên, ông Padilla khẳng định nó không thể nào thay thế vai trò thẩm phán của ông và các đồng nghiệp. Ông viết, “đặt các câu hỏi cho ứng dụng này, sẽ không cản chúng tôi đóng vai trò thẩm phán, những sinh mệnh biết suy nghĩ.”

Có vẻ ông đã ví ChatGPT như một loại dịch vụ thư ký khi nó có thể trợ giúp những thẩm phán như ông có thể soạn các văn bản luật pháp “một cách có trật tự, đơn giản và có cấu trúc” và nếu dùng trên diện rộng sẽ “cải thiện thời gian hồi đáp” của hệ thống xét xử vốn rất tốn kém về thời gian phải soạn các văn bản như thế này.

Năm 2022, Colombia đã thông qua một luật mà trong đó khuyến khích các thẩm phán công cộng hãy tận dụng các phương tiện công nghệ thích hợp để tăng cường hiệu quả công việc của mình.

Octavio Tejeiro, một thẩm phán tại tòa án tối cao của Colombia, cho biết AI —một thứ gì đó vô nhân tính, vô cảm tình, không có khái niệm đạo đức— tham gia quá trình ra kết luận của tòa án, đã gây ra sự hoảng loạn về đạo đức trong luật pháp.

Vì phán xét của tòa án không phải là tổ hợp cứng nhắc của các điều khoản như tổ hợp của các con số 0 và 1. Việc diễn giải từng điều khoản luật vào các vụ án cụ thể là cần hướng đến tính hợp tình hợp lý làm tiêu chuẩn.

“Hệ thống tư pháp nên tận dụng tối đa công nghệ như một công cụ nhưng luôn tuân theo đạo đức và tính đến việc người quản lý công lý cuối cùng cũng là một con người,” ông Tejeiro nói. “Nó phải được coi như một công cụ giúp thẩm phán cải thiện khả năng phán đoán của mình. Chúng ta không thể cho phép công cụ trở nên quan trọng hơn con người.”

Ông Tejeiro nói với The Guardian rằng ông chưa sử dụng ChatGPT, nhưng sẽ cân nhắc sử dụng nó trong tương lai.

Có những cảnh báo về tính khả tín của ChatGPT. Như tạp chí Vice đưa ra một so sánh để cho thấy người dùng có thể bị ấn tượng trước khả năng của ChatGPT đánh lừa, lầm tưởng nó hoàn hảo và tin tưởng vào nó, trong khi không biết được bản chất nguyên lý hoạt động của nó là có lỗ hổng tiềm năng rất lớn.

Ví như ai hỏi bạn rằng bạn thích loại kem gì? Bạn trả lời tôi thích kem vanilla hoặc kem sôcôla. Người ta hỏi tiếp, tại sao bạn thích loại kem đó? Bạn sẽ trả lời tôi thích hương vị của nó. Bạn cảm thấy trả lời vậy là đủ rồi, đúng không? Người ta bèn hỏi tiếp, thế tại sao loại kem đó là tốt với bạn? Bản chất là ở đâu?

Vấn đề là ở chỗ này. ChatGPT là loại công cụ đa dụng. Tức là cái gì nó cũng biết, hay nói đúng hơn, nó được lập trình để tạo ra cảm giác rằng cái gì nó cũng biết, chứ không phải nó thật sự hiểu được bản chất đằng sau.

Qua vô số lần được chỉnh lý lại giữa đúng và sai khi trả lời các câu hỏi, nó tích lũy được một kho khổng lồ thông tin. Với kho số liệu khổng lồ ấy, cộng với khả năng biểu đạt bằng ngôn ngữ, nó có thể đưa ra những câu trả mà bạn cảm thấy thuyết phục. Điều đó có thể gây ấn tượng nhầm lẫn rằng nó có khả năng tư duy giống người và có thể thay thế được con người. Hoàn toàn không phải như vậy, theo Vice phân tích.

Các mô hình trí tuệ nhân tạo (AI), đặc biệt là AI đa dụng (generative), thường được chính những nhà phát triển chúng ví như các hộp đen (black box). Nghĩa là các nhà nghiên cứu và phát triển đã đặt các nỗ lực của mình sao cho đầu vào và đầu ra (input and output) của hộp đen mô phỏng đúng theo những gì mà con người kỳ vọng.

Giải thích đơn giản thế này, sẽ là thành công đủ rồi nếu chế tác được một ‘món’ kem vanilla hoặc sôcôla với hương vị giống hệt, hoặc giống tới mức mà bạn không phân biệt được với món kem thật. Chỉ là vậy thôi. Còn cấu tạo của ‘món’ đó có thể hoàn toàn không phải là kem, thậm chí không phải là nước và đường hoặc thậm chí là gì đó không tiêu hóa được, cũng không sao cả.

Đó chính là khái niệm hộp đen: Người ta nỗ lực miễn sao đầu ra và đầu vào đúng như kỳ vọng là được rồi, mặc kệ bên trong hộp đen là cái gì. ChatGPT được chế tác sao cho câu trả lời được chấp nhận là được rồi. Nhưng chính cách làm này có thể khiến người ta quên mất rằng kỳ thực câu trả lời đó không phải là do quá trình tư duy logic như người mà thành. Dù sao thì khoa học hiện nay vẫn không biết được cách tư duy của nhân loại.

“Nếu tất cả những gì chúng ta có chỉ là một cái hộp đen, thì sẽ không thể nào biết hết được nguyên nhân mỗi khi nó mắc lỗi, và làm thế nào triệt để cải tiến tính an toàn của nó,” trích dẫn trong một bài luận của Roman V. Yampolskiy, giáo sư khoa học máy tính tại Đại học Louisville.

Ví dụ như, bạn gặp một chàng trai và người đó luôn nói những lời đường mật như “em đẹp quá”, “đáng yêu chết mất”, v.v. Nghe thật thích, đúng không? Nhưng đến một ngày, bạn phát hiện rằng những lời đó chỉ là do máy tính được lập trình để nói ra những câu, bất kể câu gì, miễn là bạn thích nghe, chứ những câu đó không phải là kết quả của quá trình quan sát, phân tích, tư duy của một con người. Tất cả chỉ là thế thôi. Thế thì đến ngày đó, bạn còn thấy chàng trai đó đáng tin hay không?

Yampolskiy viết tiếp, “Nếu chúng ta quen với việc chấp nhận câu trả lời của AI mà không có sự phân tích [của bản thân], về cơ bản coi nó như một hệ thống kỳ diệu, thì chúng ta sẽ không thể biết liệu nó có bắt đầu đưa ra câu trả lời sai hoặc mang tính thao túng hay không.”

ChatGPT, cũng như các AI hiện đại, mang trong mình một cơ sở số liệu khổng lồ, cùng với khả năng ngôn ngữ rất tốt, có thể gây ấn tượng cho người dùng rằng nó rất thông minh. Dù sao thì một người bình thường cũng không có nhiều số liệu trong đầu đến như thế, và cũng không thể nhanh chóng viết ra cả tràng văn bản như thế.

Khi chúng ta đặt niềm tin vào một hệ thống chỉ vì nó cho chúng ta câu trả lời phù hợp với những gì chúng ta đang tìm kiếm, thì chúng ta có thể đang xa dần vấn đề chính: Những câu trả lời này có đáng tin cậy không? Hay chúng chỉ là được tạo ra chính vì chúng ta thích nghe như vậy? Kết quả cuối cùng mang lại lợi ích cho ai? Và ai chịu trách nhiệm nếu nó gây ra thiệt hại?

Hiện tại, ChatGPT đang bị nhận định là thiên vị về quan điểm chính trị. Đây không phải là lần đầu tiên một AI có vấn đề thiên vị này. Vấn đề này đã từng xuất hiện và không dễ dàng chỉnh sửa như người ta nghĩ. Tại sao? Không phải chỉ đơn thuần là chỉnh sửa kho số liệu (tri thức) là xong, mà vấn đề là ở chỗ cách thức tư duy của AI, mặc dù mang cái tên ‘trí tuệ nhân tạo’, kỳ thực không phải là cách tư duy của con người, mà là cách tư duy kiểu hộp đen.

Ví như trong một nghiên cứu từng được công bố, các nhà nghiên cứu Joy Buolamwini và Timnit Gebru đã phát hiện ra rằng các hệ thống nhận dạng khuôn mặt phổ biến hiện nay đã phát hiện chính xác nhất với những người đàn ông có làn da sáng hơn và có sai số cao nhất với những phụ nữ có làn da sẫm màu. Những hệ thống nhận dạng khuôn mặt ấy, vốn thiên vị về người da màu, đã được sử dụng cho mọi thứ, từ nhà ở đến cảnh sát, đã làm sâu sắc thêm những thành kiến ​​​​về chủng tộc đã có từ trước bằng cách xác định xem ai có nhiều khả năng nhận được nhà hơn hoặc bị xác định là tội phạm chẳng hạn.

Một báo cáo khác trên tạp chí khoa học cho biết bệnh nhân da đen và nữ ít có khả năng nhận được chẩn đoán chính xác từ các hệ thống tự động phân tích hình ảnh y tế hơn. Và chính các nhà phát triển AI cũng không hiểu hết tại sao lại như thế.

“Các thẩm phán không nên sử dụng ChatGPT khi phán quyết các vụ kiện pháp lý… Nó không thể thay thế cho kiến ​​thức, chuyên môn và phán đoán của một thẩm phán [đích thực],” đó là câu trả lời của ChatGPT khi được The Guardian hỏi. “Các nhà báo nên thận trọng khi sử dụng các trích dẫn do ChatGPT tạo ra trong các bài viết của họ.”

Thiên Đức