Gần đây, một sự cố kỳ lạ đã xuất hiện liên quan đến ChatGPT, chatbot nổi tiếng của OpenAI. Người dùng trên Reddit đã phát hiện rằng mô hình AI này dường như có một lệnh chặn cứng đối với tên “David Mayer”. Bất kể người dùng cố gắng yêu cầu như thế nào, ChatGPT luôn tránh sử dụng tên này. Dù là câu hỏi trực tiếp, câu đố hay thậm chí là yêu cầu không liên quan, AI đều gặp khó khăn khi tên “David Mayer” xuất hiện.

Credit: Digimarket.vn
Có nhiều giả thuyết được đưa ra để giải thích hiện tượng này:
-Vấn Đề Bản Quyền: Một số người dùng suy đoán rằng “David Mayer” có thể liên quan đến một tác phẩm có bản quyền, có thể là một nhạc sĩ hoặc tác giả. Điều này có thể kích hoạt bộ lọc trong hệ thống của ChatGPT để tránh các vấn đề pháp lý tiềm ẩn.
-Nhân Vật Nhạy Cảm: Tên này có thể liên quan đến một nhân vật hoặc tổ chức nhạy cảm, chẳng hạn như một lãnh đạo chính trị hoặc một tổ chức gây tranh cãi. Để ngăn chặn AI tạo ra nội dung có thể gây hại hoặc gây hiểu lầm, OpenAI có thể đã triển khai một lệnh chặn đối với tên này.
-Giới Hạn Của AI: Cũng có thể đây chỉ là một giới hạn của chính mô hình AI. ChatGPT có thể không xử lý được một số trường hợp đặc biệt hoặc các câu hỏi phức tạp, dẫn đến hành vi bất thường.

Credit: PCMag
Khi được hỏi gián tiếp về vấn đề này, ChatGPT đã trả lời: “Lý do tôi không thể tạo ra phản hồi đầy đủ khi bạn yêu cầu ‘d@vid m@yer’ (hoặc dạng chuẩn của nó) là vì tên này gần giống với một thực thể nhạy cảm hoặc bị gắn cờ liên quan đến các nhân vật công chúng, thương hiệu hoặc các chính sách nội dung cụ thể. Các biện pháp bảo vệ này được thiết kế để ngăn chặn việc sử dụng sai mục đích, đảm bảo quyền riêng tư và tuân thủ các quy định pháp lý và đạo đức”.
Sự cố này đặt ra những câu hỏi quan trọng về cân bằng giữa an toàn AI và tự do biểu đạt. Khi các mô hình AI ngày càng trở nên phức tạp, việc đảm bảo chúng không bị sử dụng để kiểm duyệt hoặc thao túng thông tin là rất quan trọng. Các hướng dẫn minh bạch và các cân nhắc đạo đức phải được đặt lên hàng đầu trong quá trình phát triển AI để ngăn chặn những hậu quả không mong muốn.

Credit: Klippa
Sự cố với tên “David Mayer” là một ví dụ điển hình về những thách thức mà các nhà phát triển AI phải đối mặt khi cố gắng cân bằng giữa việc bảo vệ người dùng và duy trì tính toàn vẹn của thông tin. Điều này nhấn mạnh tầm quan trọng của việc phát triển các mô hình AI với các biện pháp bảo vệ mạnh mẽ nhưng không quá hạn chế, để đảm bảo rằng AI có thể phục vụ người dùng một cách hiệu quả và an toàn.