Ảo giác AI xảy ra khi hệ thống trí tuệ nhân tạo tạo ra thông tin nghe có vẻ hợp lý nhưng thực tế lại sai lệch hoặc gây hiểu lầm. Hiện tượng này xuất hiện trong nhiều công nghệ như chatbot (ChatGPT), công cụ tạo hình ảnh (Dall-E) và xe tự lái. Với các mô hình ngôn ngữ lớn (LLM), AI có thể bịa đặt sự kiện hoặc nghiên cứu khoa học không tồn tại khiến người dùng tin vào thông tin sai.
Nguyên nhân chính của ảo giác AI là do hệ thống học từ dữ liệu sẵn có và cố gắng đưa ra câu trả lời ngay cả khi không đủ thông tin. Khi gặp dữ liệu chưa từng thấy, AI có thể tự “điền vào chỗ trống”, dẫn đến dự đoán sai. Ví dụ, AI nhận dạng hình ảnh có thể nhầm một chiếc bánh muffin việt quất với chó chihuahua do đặc điểm thị giác tương đồng.
Ảnh: LinkedIn
Hậu quả của ảo giác AI rất nghiêm trọng, đặc biệt trong các lĩnh vực yêu cầu độ chính xác cao như pháp lý, y tế và an ninh. Một luật sư từng vô tình sử dụng dữ liệu sai do AI tạo ra trong tài liệu pháp lý hay xe tự lái không xác định đúng chướng ngại vật có thể gây tai nạn nguy hiểm. Tương tự, AI nhận dạng giọng nói có thể tạo ra bản ghi chép không chính xác, ảnh hưởng đến các quyết định quan trọng.
Dù các công ty công nghệ đang tìm cách giảm thiểu ảo giác AI bằng cách cải thiện dữ liệu huấn luyện và giới hạn phản hồi, hiện tượng này vẫn chưa thể loại bỏ hoàn toàn. Người dùng cần kiểm tra lại thông tin từ AI với nguồn đáng tin cậy và đặt câu hỏi về những nội dung có khả năng sai lệch để tránh hậu quả đáng tiếc.