Hệ thống trí tuệ nhân tạo ChatGPT đã thu hút sự chú ý từ mọi tầng lớp xã hội, nhiều ngành công nghiệp khác nhau cũng bắt đầu thử nghiệm AI, nhưng điều này lại khiến mọi người lo lắng. Hiện tại, các ngân hàng đầu tư Phố Wall như Goldman Sachs và các tổ chức tài chính khác đã hạn chế nhân viên sử dụng ChatGPT.

shutterstock 2012934344
Các tổ chức tài chính như Goldman Sachs đã hạn chế nhân viên sử dụng ChatGPT. (Nguồn: rafapress/ Shutterstock

Theo Bloomberg và các kênh truyền thông khác, Phố Wall đang ngăn chặn ChatGPT, nhiều ngân hàng đầu tư toàn cầu đã áp đặt các hạn chế đối với công nghệ đang phát triển nhanh này. Công nghệ này có thể tạo văn bản dựa trên lời nhắc ngắn.

Gần đây, các tổ chức tài chính như Bank of America, Citigroup, Deutsche Bank AG, Goldman Sachs và Wells Fargo Bank đã cấm công cụ mới này, trong đó Bank of America cấm nhân viên sử dụng ChatGPT và OpenAI.

Theo những nguồn tin mà Bloomberg phỏng vấn, Bank of America đã thêm ChatGPT vào danh sách các ứng dụng trái phép, gồm cả WhatsApp. Trong các cuộc họp nội bộ, ngân hàng này nói với nhân viên rằng họ phải thử nghiệm công nghệ mới trước khi sử dụng nó để liên lạc.

Theo các nguồn tin, Citigroup và Goldman Sachs cũng hạn chế nhân viên sử dụng ChatGPT bằng cách tự động hạn chế phần mềm của bên thứ ba. Trong khi đó, Deutsche Bank cấm ChatGPT và ngăn nhân viên truy cập.

Wells Fargo Bank đã xác nhận với Forbes rằng họ đang “áp đặt các hạn chế sử dụng” đối với ChatGPT như một phần của quy trình kiểm soát đối với phần mềm của bên thứ ba, và đang đánh giá “các cách an toàn và hiệu quả” để sử dụng các chatbot như ChatGPT.

ChatGPT không phải là chatbot đầu tiên được công bố, nhưng nó được coi là tiên tiến hơn nhiều so với những “người tiền nhiệm” của mình, với khả năng giải quyết các vấn đề phức tạp và viết các bài luận cấp đại học.

Từ khi OpenAI phát hành ChatGPT vào cuối năm ngoái, một số khu học chánh lớn của Hoa Kỳ, gồm Los Angeles, Seattle và Thành phố New York, đã cấm ứng dụng này, vì lo ngại rằng học sinh có thể sử dụng chatbot để gian lận trong các kỳ thi và viết bài.

Business Insider đưa tin Amazon cũng cảnh báo nhân viên của mình không chia sẻ mã hoặc thông tin bí mật với chatbot.

Giống như tình huống với ChatGPT, mọi người cũng đang bày tỏ lo ngại về các chatbot tương tự đã xuất hiện gần đây.

Đầu tháng này, Google cũng thông báo rằng chatbot Bard đang được phát triển và vẫn chưa được công khai. Bard đã mắc lỗi thực tế khi được hỏi về Kính viễn vọng Không gian James Webb mới ra mắt gần đây của NASA.

Microsoft lại trở thành tâm điểm của thế giới khi mọi người truy cập phiên bản Bing mới của Microsoft và phát hiện ra rất nhiều vấn đề. Ví dụ, một nhà văn của New York Times đã để một chatbot đóng vai phụ nữ, robot này đã cố gắng thuyết phục anh bỏ vợ.

Ông Ben Thompson, nhà phân tích tại công ty nghiên cứu Stratechery, cho biết điều đáng lo ngại là các nhân vật do robot đóng dường như có tri giác.

Theo The Hill, cuộc tranh luận sôi nổi giữa các nhà lãnh đạo ngành công nghiệp phương Tây, về rủi ro khi phát hành các công cụ trí tuệ nhân tạo tiên tiến, phần lớn đều bỏ qua một tác động có thể gây hại nhất của chúng: Vai trò của các chế độ độc tài.

Đến nay, những lo ngại về trí tuệ nhân tạo AI và các nhà độc tài chủ yếu tập trung vào cách các hệ thống này có thể tăng cường các nỗ lực tuyên truyền chống Mỹ ở Trung Quốc và Nga.

Các công ty AI và Chính phủ Hoa Kỳ phải tạo ra các tiêu chuẩn chặt chẽ hơn cho việc phát triển các công cụ như ChatGPT, và nhận thức đầy đủ về tiềm năng thay đổi cuộc chơi của chúng đối với các nhà độc tài thế giới.