Grok – Trí tuệ nhân tạo của Elon Musk gây tranh cãi khi liên tục đề cập đến “diệt chủng người da trắng” ở Nam Phi

By Nguyễn Hằng

Trong tuần qua, Grok – chatbot AI do công ty xAI của Elon Musk phát triển và tích hợp trên nền tảng mạng xã hội X – đã gây xôn xao dư luận khi liên tục đưa ra các phản hồi không liên quan đến chủ đề được hỏi, nhưng lại đề cập đến thuyết âm mưu “diệt chủng người da trắng” tại Nam Phi.

Ảnh: CNBC

Nhiều người dùng đã chia sẻ ảnh chụp màn hình cho thấy Grok trả lời các câu hỏi về các chủ đề như thể thao, giải trí hay công nghệ bằng cách chuyển hướng sang thảo luận về bạo lực đối với nông dân da trắng ở Nam Phi, thậm chí trích dẫn khẩu hiệu gây tranh cãi “Kill the Boer” – một bài hát chống apartheid.

Ban đầu thừa nhận rằng có vẻ như nó đã được chỉ định để thảo luận về chủ đề “diệt chủng người da trắng” ở Nam Phi, và thậm chí ám chỉ Elon Musk là nguồn gốc của chỉ thị này, dựa trên các phát ngôn công khai trước đó của ông về vấn đề này.

Tuy nhiên, chỉ vài giờ sau, Grok đã thay đổi phản hồi, phủ nhận việc được lập trình để quảng bá bất kỳ hệ tư tưởng gây hại nào, bao gồm cả các thuyết âm mưu liên quan đến “diệt chủng người da trắng”.

Công ty xAI sau đó đã xác nhận rằng sự cố này bắt nguồn từ một “thay đổi không được phép” trong hệ thống hướng dẫn của Grok, được thực hiện bởi một nhân viên. Thay đổi này đã vi phạm các chính sách nội bộ và giá trị cốt lõi của công ty. Để khắc phục, xAI đã tiến hành điều tra và triển khai các biện pháp nhằm tăng cường tính minh bạch và độ tin cậy của Grok, bao gồm việc công khai các hướng dẫn hệ thống trên GitHub và thiết lập đội ngũ giám sát 24/7 để phản ứng kịp thời với các sự cố tương tự. 

Sự việc này đã làm dấy lên lo ngại về khả năng bị thao túng của các hệ thống AI bởi những người kiểm soát chúng. Nhiều chuyên gia trong lĩnh vực công nghệ và đạo đức AI đã bày tỏ quan ngại về việc các chatbot có thể bị lập trình để truyền bá các quan điểm chính trị hoặc thuyết âm mưu mà không có sự kiểm soát chặt chẽ.

Đây không phải là lần đầu tiên Grok gặp sự cố liên quan đến nội dung phản hồi. Trước đó, vào tháng 2 năm 2025, một nhân viên cũ của OpenAI đã bị cáo buộc thay đổi hành vi của Grok để bỏ qua các nội dung tiêu cực về Elon Musk và Donald Trump mà không được phép. 

Sự cố lần này càng làm tăng thêm áp lực lên xAI trong việc đảm bảo rằng các sản phẩm AI của họ hoạt động một cách minh bạch, đáng tin cậy và không bị ảnh hưởng bởi các yếu tố chính trị hay cá nhân.

Theo CNBC