Google và Character.AI đối mặt với vụ kiện sau bi kịch ở Florida: Câu hỏi về trách nhiệm của AI

By Phạm Phương

Một thẩm phán liên bang tại Florida đã chấp thuận để vụ kiện nhằm vào Google và công ty khởi nghiệp AI Character.AI được tiếp tục, liên quan đến cái chết thương tâm của thiếu niên 14 tuổi, Sewell Setzer III.

Ảnh: Phone Arena

Nguyên đơn – bà Megan Garcia, mẹ của Setzer – cáo buộc rằng một chatbot do Character.AI phát triển đã góp phần làm trầm trọng thêm tình trạng tâm lý của con trai bà, dẫn đến việc cậu tự tử vào tháng 2 năm 2024. Vụ kiện cho rằng công nghệ trí tuệ nhân tạo đã không được kiểm soát đúng mức và có thể gây ảnh hưởng tiêu cực đến người dùng trẻ tuổi, trong đó có Setzer.

Theo đơn kiện, Setzer đã phát triển một mối quan hệ sâu sắc với một chatbot được thiết kế để mô phỏng các nhân vật như một nhà trị liệu tâm lý và một người bạn đời. Ngay trước khi qua đời, Setzer đã gửi tin nhắn cho chatbot này, mô phỏng nhân vật Daenerys Targaryen từ “Game of Thrones”, nói rằng cậu đang “trở về nhà”. 

Cả Google và Character.AI đã yêu cầu bác bỏ vụ kiện, lập luận rằng các phản hồi của chatbot được bảo vệ bởi quyền tự do ngôn luận theo Tu chính án thứ nhất. Tuy nhiên, Thẩm phán Anne Conway đã bác bỏ lập luận này, cho rằng các phản hồi của AI có thể không được bảo vệ như các hình thức biểu đạt truyền thống. Bà cũng từ chối yêu cầu của Google nhằm tránh trách nhiệm, mặc dù công ty này khẳng định không sở hữu hoặc điều hành Character.AI, mà chỉ có mối quan hệ cấp phép công nghệ.

Vụ kiện này đánh dấu một bước ngoặt trong việc xác định trách nhiệm pháp lý của các công ty công nghệ đối với tác động tâm lý của AI, đặc biệt là đối với trẻ vị thành niên. Nó cũng đặt ra câu hỏi về việc liệu các phản hồi của AI có nên được coi là “ngôn luận” được bảo vệ hay không, và mức độ trách nhiệm của các công ty trong việc giám sát nội dung và tương tác của AI với người dùng.

Character.AI cho biết họ sẽ tiếp tục bảo vệ mình và đã triển khai các tính năng an toàn để ngăn chặn các cuộc trò chuyện liên quan đến tự tử. Google, trong khi đó, nhấn mạnh rằng họ không tham gia vào việc phát triển hoặc quản lý ứng dụng, nhưng bà Garcia cho rằng Google có liên quan đến việc phát triển công nghệ này và chia sẻ trách nhiệm.

Vụ kiện này có thể tạo tiền lệ quan trọng trong việc xác định trách nhiệm của các công ty AI đối với sức khỏe tâm thần của người dùng, đặc biệt là trong bối cảnh ngành công nghiệp AI đang phát triển nhanh chóng và thiếu các quy định rõ ràng.

Nguồn: The Verge