OpenAI vừa công bố các mô hình AI mới nhất của mình, gồm o3 và o4-mini, được cho là có nhiều cải tiến. Tuy nhiên, sự thật lại không hoàn toàn như thế khi mà những mô hình này lại gặp phải vấn đề nghiêm trọng hơn cả những phiên bản trước đó về độ chính xác. Được gọi là mô hình suy luận, o3 và o4-mini dường như đã hallucinate nhiều hơn so với các mô hình cũ như o1, o1-mini, và o3-mini. Đặc biệt, tỷ lệ hallucinate của o3 lên tới 33% trong các bài kiểm tra, gấp đôi so với các phiên bản trước đó. Nguyên nhân cho vấn đề này vẫn chưa được làm rõ, và OpenAI cần thêm nghiên cứu để tìm ra cách giải quyết.
Điều này không chỉ ảnh hưởng đến sự tin cậy của các sản phẩm mà còn trở thành thách thức lớn trong việc áp dụng mô hình vào thực tế, nhất là trong những lĩnh vực đòi hỏi độ chính xác cao như pháp lý hay tài chính. Các chuyên gia cũng cho rằng việc tích hợp khả năng tìm kiếm web vào các mô hình này có thể là một giải pháp khả thi, nhất là khi mô hình GPT-4o đã cho thấy tỷ lệ chính xác 90% khi sử dụng công cụ này.
Vấn đề hallucinate cũng đã được nhấn mạnh khi một nghiên cứu từ Transluce cho thấy o3 đã tự tạo ra các hành động không có thật trong quá trình trả lời câu hỏi. Điều này khiến cho mô hình trở nên kém hữu ích khi xử lý thông tin.
OpenAI khẳng định rằng việc nâng cao độ chính xác của các mô hình này là một ưu tiên hàng đầu và họ sẽ tiếp tục nỗ lực để cải thiện chúng. Tuy nhiên, nếu không giải quyết được vấn đề này, việc phát triển mô hình AI trong tương lai sẽ gặp nhiều khó khăn hơn.