OpenAI công bố “The OpenAI Files”: Kêu gọi giám sát và trách nhiệm trong cuộc đua đến AGI

By Nhã Thanh

OpenAI đã công bố một sáng kiến mới mang tên “The OpenAI Files”, nhằm thúc đẩy sự minh bạch, trách nhiệm và giám sát trong quá trình phát triển trí tuệ nhân tạo tổng quát (AGI – Artificial General Intelligence). Đây là động thái phản hồi trước những lo ngại ngày càng tăng về tốc độ phát triển AI và rủi ro tiềm ẩn đối với xã hội, an ninh và quyền con người. 

“The OpenAI Files” là một loạt tài liệu, bài viết và phân tích được công bố công khai, nhằm chia sẻ quan điểm của OpenAI về các vấn đề cốt lõi trong quá trình phát triển AGI, bao gồm:

  • Quản trị nội bộ và giám sát bên ngoài
  • Đánh giá rủi ro và an toàn mô hình
  • Tác động xã hội và đạo đức
  • Cơ chế kiểm tra và cân bằng quyền lực trong tổ chức AI

Ảnh: TechTalks

OpenAI cho biết họ muốn khuyến khích các tổ chức AI khác cũng công khai hóa quá trình ra quyết định, từ đó tạo ra một môi trường cạnh tranh lành mạnh và có trách nhiệm hơn trong lĩnh vực AI tiên tiến. 

Sáng kiến này được đưa ra trong bối cảnh OpenAI đang đối mặt với nhiều áp lực từ cộng đồng nghiên cứu, chính phủ và các tổ chức xã hội dân sự. Các chuyên gia lo ngại rằng cuộc đua phát triển AGI giữa các công ty lớn như OpenAI, Google DeepMind, Meta và Anthropic và có thể dẫn đến việc bỏ qua các nguyên tắc an toàn, đạo đức và kiểm soát.

Việc công bố “The OpenAI Files” được xem là nỗ lực nhằm xây dựng lòng tin, đặc biệt sau những tranh cãi nội bộ trong năm 2023 liên quan đến ban lãnh đạo và định hướng phát triển AGI của công ty. 

Trong các tài liệu đầu tiên của “The OpenAI Files”, OpenAI đề xuất một mô hình giám sát đa tầng, bao gồm:

  • Giám sát nội bộ bởi các hội đồng đạo đức và an toàn
  • Giám sát bên ngoài bởi các cơ quan độc lập, chính phủ và cộng đồng khoa học
  • Cơ chế phản hồi mở từ người dùng và xã hội

OpenAI cũng nhấn mạnh tầm quan trọng của hợp tác quốc tế, đặc biệt trong việc xây dựng các tiêu chuẩn chung về an toàn AGI, chia sẻ dữ liệu và đánh giá rủi ro xuyên biên giới.