Một nghiên cứu mới từ Apple đã đưa ra cảnh báo rằng trí tuệ nhân tạo tổng quát (AGI) – mục tiêu tối thượng của ngành AI vẫn còn là một chặng đường dài phía trước. Dù các mô hình ngôn ngữ lớn (LLMs) như ChatGPT của OpenAI hay Claude của Anthropic đã có những bước tiến đáng kể, nhưng chúng vẫn chưa thể đạt đến khả năng suy luận như con người – yếu tố cốt lõi để được xem là AGI.
Trong báo cáo có tiêu đề “Ảo tưởng về tư duy”, các nhà nghiên cứu của Apple đã tiến hành thử nghiệm nhiều mô hình AI tiên tiến, bao gồm Claude Sonnet, OpenAI o3-mini và o1, cũng như DeepSeek-R1 và V3. Họ thiết kế các trò chơi giải đố để kiểm tra khả năng suy luận của các mô hình “biết suy nghĩ” và “không biết suy nghĩ”, vượt ra ngoài các bài kiểm tra toán học và lập trình thông thường.
Ảnh: Cointelegraph
Kết quả cho thấy, các mô hình AI hiện tại thường suy luận không nhất quán, nông cạn và dễ bị “quá tải tư duy” – tức là chúng có thể đưa ra câu trả lời đúng ban đầu nhưng sau đó lại tự làm rối mình bằng các bước suy luận sai lầm. Đặc biệt, khi độ phức tạp của bài toán tăng lên, độ chính xác của các mô hình giảm mạnh, trái ngược với kỳ vọng rằng AI sẽ càng mạnh hơn khi được “huấn luyện lớn hơn”.
Các nhà nghiên cứu kết luận rằng các mô hình hiện tại chỉ đang bắt chước cách suy nghĩ, chứ chưa thực sự hiểu hay tổng quát hóa được các quy tắc suy luận. Điều này đặt ra nghi vấn lớn về khả năng tiến tới AGI trong tương lai gần, bất chấp những tuyên bố lạc quan từ các công ty công nghệ lớn.
AGI được xem là “chén thánh” của ngành AI – nơi máy móc có thể suy nghĩ, học hỏi và thích nghi như con người. Tuy nhiên, nghiên cứu của Apple cho thấy rằng chúng ta có thể đang đánh giá quá cao khả năng hiện tại của AI, và cần có những cách tiếp cận mới để vượt qua các rào cản về suy luận tổng quát.