Các nhà khoa học tại Đức vừa phát triển một phương pháp đào tạo trí tuệ nhân tạo (AI) mới giúp quá trình học của AI nhanh gấp 100 lần so với phương pháp truyền thống mà vẫn duy trì độ chính xác cao. Hiện nay, các mô hình AI, đặc biệt là những mô hình ngôn ngữ lớn (LLM) ngày càng phổ biến trong đời sống nhưng đi kèm với đó là mức tiêu thụ năng lượng khổng lồ. Riêng tại Đức, các trung tâm dữ liệu đã dùng tới 16 tỷ kWh điện trong năm 2020 và dự kiến sẽ tăng lên 22 tỷ kWh vào năm 2025.
Phương pháp đào tạo mạng thần kinh nhân tạo hiện nay chủ yếu dựa vào việc lặp đi lặp lại để điều chỉnh các tham số kết nối giữa các nút (neuron). Quá trình này đòi hỏi hàng triệu lần tính toán và tiêu tốn nhiều thời gian, năng lượng. Để khắc phục vấn đề đó, giáo sư Felix Dietrich và nhóm nghiên cứu tại Đại học Kỹ thuật Munchen đã tìm ra cách tiếp cận mới, thay vì lặp lại nhiều lần, họ sử dụng phương pháp xác suất, tập trung vào các điểm dữ liệu quan trọng nhất — nơi các giá trị biến đổi mạnh để rút ngắn quá trình đào tạo.
Quá trình đào tạo AI thường đòi hỏi mức năng lượng khổng lồ. Ảnh: SciTechDaily
Theo giáo sư Dietrich, phương pháp này cho phép xác định nhanh chóng và chính xác các tham số cần thiết với mức năng lượng tính toán tối thiểu. Nhờ đó, mạng thần kinh có thể được đào tạo nhanh hơn rất nhiều mà không cần đánh đổi về độ chính xác. Đây là bước đột phá quan trọng giúp tiết kiệm năng lượng trong đào tạo AI, đồng thời mở ra cơ hội để AI được ứng dụng rộng rãi hơn mà không gây quá tải cho hệ thống điện.
Bên cạnh việc phục vụ cho AI, phương pháp mới còn có thể áp dụng vào các hệ thống phức tạp khác như mô hình dự báo khí hậu, thị trường tài chính, nơi dữ liệu biến đổi theo các quy luật phức tạp. Với tiềm năng to lớn, phát minh này hứa hẹn giúp AI phát triển theo hướng bền vững, tiết kiệm năng lượng và thân thiện hơn với môi trường.