"Tôi rất vui mừng chia sẻ với mọi người thành quả của đội ngũ đã làm thời gian qua trong việc tạo ra mô hình AI có khả năng lập luận thực sự", OpenAI viết trên blog ngày 12/9. "o1 là mô hình ngôn ngữ lớn được đào tạo bằng phương pháp học tăng cường để thực hiện các suy luận phức tạp. OpenAI o1 suy nghĩ trước khi trả lời, đồng thời có thể tạo ra một chuỗi suy nghĩ nội bộ dài trước khi phản hồi tới người dùng".
Trước đó, theo Reuters, OpenAI đã phát triển một mô hình ngôn ngữ lớn (LLM) mang tên Q*, sau đó được biết đến với tên mã Strawberry (Dâu tây) và có khả năng lập luận thông qua các nhiệm vụ phức tạp, có thể giải quyết những vấn đề, thách thức tốt hơn so với các mô hình trước đó ở lĩnh vực khoa học, mã hóa và toán học. Trên X, Noam Brown, nhà nghiên cứu tập trung vào cải thiện khả năng lập luận trong các mô hình LLM của OpenAI, đã xác nhận Strawberry chính là o1.
OpenAI cho biết LLM mới có hai mô hình, được đặt tên là o1 và o1-mini. Trong đó, o1 đã bắt đầu được tích hợp vào ChatGPT và API.
Cũng trong bài viết trên blog, OpenAI cho biết mô hình o1 vượt qua 83% bài thi tuyển chọn cho Olympic Toán quốc tế, đứng trong 500 thí sinh giỏi nhất. Con số này cao hơn nhiều so với mức 13% của GPT-4o. Mô hình AI mới cũng xếp hạng đạt 89% với các câu hỏi lập trình cạnh tranh (Codeforces), cũng như vượt qua độ chính xác ở cấp độ tiến sĩ về điểm chuẩn của các bài vật lý, sinh học, hóa học (GPQA).
Các nhà nghiên cứu OpenAI lưu ý hiệu suất của o1 đối với các vấn đề phức tạp sẽ được cải thiện thông qua việc gợi ý, gọi là "chuỗi suy nghĩ". Công ty hiện tự động hóa khả năng này để mô hình có thể tự chia nhỏ vấn đề mà không cần sự gợi ý của người dùng.
"Chúng tôi đã huấn luyện LLM mới dành nhiều thời gian hơn để suy nghĩ về các vấn đề trước khi trả lời, tương tự cách làm của một người bình thường. Thông qua quá trình huấn luyện, chúng học cách tinh chỉnh suy nghĩ, thử nhiều câu trả lời khác nhau và nhận ra lỗi của mình", OpenAI cho biết.
Theo Business Insider, sự xuất hiện của o1 đang khiến "ranh giới phân chia trí thông minh con người với trí thông minh nhân tạo ngày càng trở nên hẹp hơn". Gary Marcus, giáo sư tại Đại học New York, đánh giá mô hình mới là "kỹ thuật ấn tượng" nhưng không phải bước tiến lớn. "Tôi nghĩ nó được thổi phồng như thường lệ, nhưng chắc chắn chưa gần với AGI", ông nói.
Ý kiến ()