Anthropic – một công ty nổi bật trong ngành trí tuệ nhân tạo (AI) với trọng tâm là an toàn, đã cảnh báo về nguy cơ thảm hoạ AI nếu các chính phủ không thực hiện quy định trong vòng 18 tháng tới. Công ty đã đưa ra các hướng dẫn khuyến nghị cho chính phủ nhằm triển khai “quy định có mục tiêu” cùng với dữ liệu đáng lo ngại về sự gia tăng của rủi ro AI “thảm khốc”.
Trong một bài đnawg trên blog, Anthropic đã nêu bật sự tiến bộ vượt bậc của các mô hình AI trong việc lập trình và tấn công mạng chỉ trong một năm. Ví dụ, trên bài kiểm tra SWE-bench về kỹ thuật phần mềm, các mô hình đã cải thiện từ việc giải quyết 1.96% bộ đề kiểm tra thực tế (Claude 2, tháng 10/2023) lên 49% (Claude 3.5 Sonnet, tháng 10/2024). Ngoài ra, các hệ thống AI đã cải thiện hiểu biết khoa học của mình gần 18% từ tháng 6 đến tháng 9 năm nay, theo bài kiểm tra GPQA.

Anthropic đề xuất rằng quy định cần phải minh bạch, khuyến khích an ninh và đơn giản. Công ty nhấn mạnh rằng các chính phủ nên yêu cầu các công ty AI có và công bố các chính sách tương tự như Chính sách Mở rộng Trách nhiệm (RSP) của Anthropic, xác định các biện pháp bảo vệ sẽ được kích hoạt khi nào và công bố các đánh giá rủi ro cho từng thế hệ hệ thống của họ.
Anthropic cũng khuyến nghị rằng các chính phủ nên khuyến khích các thực hành an ninh chất lượng cao hơn và giữ cho các quy trình quy định linh hoạt để học hỏi từ các thực tiễn tốt nhất khi chúng phát triển.

Anthropic kêu gọi các nhà hoạch định chính sách, ngành công nghiệp AI, các nhà hoạt động an toàn, xã hội dân sự và các nhà lập pháp hợp tác để phát triển một khung quy định hiệu quả trong năm tới. Công ty nhấn mạnh rằng việc này cần được thực hiện ở cấp liên bang tại Mỹ, mặc dù sự cấp bách có thể yêu cầu nó được phát triển bởi các bang riêng lẻ.