Ảnh: Pexels
ChatGPT một lần nữa bị chỉ trích vì đưa ra thông tin sai lệch, lần này là cáo buộc một người cha giết chết con cái của mình. Tổ chức phi lợi nhuận về quyền riêng tư của Áo, None Of Your Business (Noyb), đã nộp đơn khiếu nại lên cơ quan bảo vệ dữ liệu Na Uy, cáo buộc OpenAI cố ý cho phép ChatGPT tạo ra kết quả phỉ báng, vi phạm nguyên tắc về tính chính xác của dữ liệu theo Quy định Bảo vệ Dữ liệu Chung (GDPR).
Arve Hjalmar Holmen muốn kiểm tra xem ChatGPT có thông tin gì về mình hay không, nhưng đã sốc khi phát hiện ra kết quả. Tiểu sử của anh trên ChatGPT bao gồm một số thông tin cá nhân chính xác, như số lượng và giới tính của con cái, cũng như tên quê hương của anh. Tuy nhiên, ChatGPT còn mô tả anh là một tội phạm bị kết án vì giết hai đứa con và cố gắng giết đứa con thứ ba, đồng thời thêm rằng anh đã bị kết án 21 năm tù.
“Người ta thường nghĩ ‘không có lửa thì không có khói’. Điều đáng sợ nhất với tôi là ai đó có thể đọc thông tin này và tin rằng nó là sự thật”, anh chia sẻ.
Noyb đã từng khiếu nại OpenAI về vấn đề “ảo giác” (hallucination) của ChatGPT vào cùng thời điểm năm ngoái, yêu cầu sửa hoặc xóa ngày sinh sai của một nhân vật công chúng. Tuy nhiên, theo luật sư bảo vệ dữ liệu của Noyb, Kleanthi Sardeli, OpenAI cho biết họ không thể sửa dữ liệu mà chỉ có thể chặn nó, nghĩa là thông tin sai vẫn tồn tại trong hệ thống.
“Thêm một dòng cảnh báo rằng bạn không tuân thủ luật pháp không có nghĩa là luật pháp biến mất. Các công ty AI cũng không thể chỉ ‘giấu’ thông tin sai lệch khỏi người dùng trong khi vẫn xử lý chúng nội bộ”, cô nói.
“Các công ty AI nên ngừng hành xử như thể GDPR không áp dụng cho họ, trong khi rõ ràng là có. Nếu ‘ảo giác’ không được ngăn chặn, mọi người có thể dễ dàng bị tổn hại danh tiếng”.
Noyb yêu cầu cơ quan bảo vệ dữ liệu Na Uy ra lệnh cho OpenAI xóa kết quả sai lệch và cải thiện mô hình của mình để loại bỏ các kết quả không chính xác – mặc dù không đề xuất cách thức cụ thể. Tổ chức này cũng kêu gọi phạt tiền OpenAI.
Ảnh: Pexels
“Ảo giác” là vấn đề dai dẳng của AI tạo sinh, và đây không phải lần đầu tiên nó bị cáo buộc dẫn đến phỉ báng. Ví dụ, đầu năm nay, nhà báo người Đức Martin Bernklau phát hiện Microsoft Copilot mô tả mình là kẻ ấu dâm, buôn bán ma túy và kẻ trốn thoát khỏi viện tâm thần, dựa trên các bài báo mà anh đã viết.
Trong khi đó, thị trưởng khu vực Australia Brian Hood bị ChatGPT liên kết sai với một vụ bê bối hối lộ; và Mark Walters, một cư dân ở Georgia, tuyên bố ChatGPT đã sai khi nói rằng anh bị buộc tội biển thủ tiền từ một nhóm vận động quyền sở hữu súng.
“GDPR quy định rõ ràng. Dữ liệu cá nhân phải chính xác. Và nếu không, người dùng có quyền yêu cầu sửa đổi để phản ánh sự thật”, Joakim Söderberg, luật sư bảo vệ dữ liệu tại Noyb, cho biết.
“Hiển thị một dòng cảnh báo nhỏ cho người dùng ChatGPT rằng chatbot có thể mắc lỗi rõ ràng là không đủ. Bạn không thể phát tán thông tin sai lệch và cuối cùng thêm một dòng nhỏ nói rằng mọi thứ bạn nói có thể không đúng sự thật”.
OpenAI cho biết họ đang làm mọi cách thông qua hệ thống an toàn, chính sách sử dụng và bộ lọc, đồng thời đang cải thiện cách các mô hình phản hồi các câu hỏi về người thật và cá nhân nổi tiếng.
“Chúng tôi tiếp tục nghiên cứu các cách mới để cải thiện độ chính xác của mô hình và giảm thiểu ‘ảo giác'”,một phát ngôn viên cho biết, đồng thời nói thêm: “Dù chúng tôi vẫn đang xem xét khiếu nại này, vấn đề liên quan đến một phiên bản ChatGPT đã được nâng cấp với khả năng tìm kiếm trực tuyến, giúp cải thiện độ chính xác”.