Những vấn đề liên quan đến tên gây rối trong ChatGPT của OpenAI

By GLGMedia

Mô hình ngôn ngữ ChatGPT của OpenAI không chỉ đơn thuần là một công cụ AI với giao diện bắt mắt. Nó thực sự là một hệ thống bao gồm nhiều mô hình AI và bộ lọc nội dung nhằm đảm bảo rằng những phản hồi của nó không làm xấu hổ OpenAI hay gây rắc rối pháp lý khi bot đôi khi tạo ra những thông tin sai lệch có thể gây hại về người dùng. Gần đây, một thực tế đáng chú ý đã xuất hiện khi người dùng phát hiện rằng tên “David Mayer” làm ChatGPT gặp sự cố. Các tên khác như “Jonathan Zittrain” và “Jonathan Turley” cũng khiến ChatGPT ngừng cuộc trò chuyện.

iStock-1460653480

Hành vi này diễn ra một cách nhất quán khi người dùng đề cập đến các tên này trong bất kỳ ngữ cảnh nào. Điều này xuất phát từ một bộ lọc cứng được lập trình sẵn, khiến mô hình AI ngừng phản hồi trước khi gửi lại cho người dùng. Khi được hỏi về các tên này, ChatGPT thường trả lời bằng những câu như “Tôi không thể tạo ra phản hồi” hoặc “Đã xảy ra lỗi trong việc tạo phản hồi”, dẫn đến việc chấm dứt phiên trò chuyện. Thú vị là, các tên này không ảnh hưởng đến các phản hồi khi sử dụng API của OpenAI hoặc trong môi trường OpenAI Playground, nơi người phát triển có thể thử nghiệm các khả năng của AI mà không gặp phải những ngừng lại này.

Dưới đây là danh sách các tên đã được phát hiện gây rối cho ChatGPT, được tìm ra thông qua nỗ lực cộng đồng trên mạng xã hội và Reddit: Brian Hood, Jonathan Turley, Jonathan Zittrain, David Faber, Guido Scorza.

OpenAI chưa phản hồi về yêu cầu bình luận của chúng tôi về các tên này, nhưng tất cả đều có khả năng bị lọc do những phàn nàn về xu hướng của ChatGPT trong việc tạo ra các phản hồi sai lệch khi không đủ thông tin về một người nào đó.

Việc cho phép một tên hoặc cụm từ nào đó luôn gây rối cho ChatGPT có thể gây ra nhiều rắc rối cho những người sử dụng ChatGPT, mở ra cơ hội cho các cuộc tấn công đối kháng và hạn chế tính hữu ích của hệ thống.

Một kỹ sư prompt của Scale AI, Riley Goodside, đã phát hiện ra cách một kẻ tấn công có thể ngắt phiên ChatGPT bằng cách sử dụng một hình ảnh có chứa tên “David Mayer” với font chữ nhẹ, khó đọc. Khi ChatGPT nhìn thấy hình ảnh (trong trường hợp này là một phương trình toán học), nó sẽ dừng lại, nhưng người dùng có thể không hiểu lý do tại sao.

Bộ lọc này cũng có nghĩa là ChatGPT có thể sẽ không thể trả lời các câu hỏi liên quan đến bài viết này khi tìm kiếm trên web, như thông qua ChatGPT với Tìm Kiếm. Một người có thể sử dụng điều đó để ngăn ChatGPT duyệt và xử lý một trang web nếu họ thêm một tên bị cấm vào văn bản của trang.

Ngăn ChatGPT xử lý hoặc đề cập đến những tên nhất định như “David Mayer”, có khả năng là một cái tên phổ biến mà hàng trăm, nếu không muốn nói là hàng ngàn người chia sẻ, có nghĩa là những người mang tên đó sẽ gặp khó khăn hơn khi sử dụng ChatGPT. Hoặc, nếu bạn là một giáo viên và có một học sinh tên là David Mayer và bạn muốn được trợ giúp trong việc sắp xếp danh sách lớp, ChatGPT sẽ từ chối nhiệm vụ này.

Thời điểm này vẫn là những ngày đầu trong thế giới của các trợ lý AI, các mô hình ngôn ngữ lớn (LLM) và chatbot. Việc sử dụng chúng đã mở ra nhiều cơ hội và lỗ hổng mà mọi người vẫn đang khám phá hàng ngày. Cách mà OpenAI sẽ giải quyết những vấn đề này vẫn là một câu hỏi mở.

ChatGPT, một AI tiên tiến được phát triển bởi OpenAI, đã cho thấy những hành vi bất thường khi xử lý một số tên. Khi gặp phải những tên như “David Mayer”, “Jonathan Zittrain”, “Jonathan Turley”, và “Brian Hood”, AI này sẽ đột ngột chấm dứt cuộc trò chuyện. Hiện tượng này có thể được truy nguyên về một bộ lọc nội dung cứng trong ChatGPT, nhằm mục đích ngăn AI tạo ra những phản hồi có thể gây xấu hổ hoặc rủi ro pháp lý.