Vào ngày thứ chín trong chuỗi sự kiện báo chí giáng sinh, OpenAI đã công bố mở quyền truy cập phiên bản đầy đủ của mô hình lý luận o1 cho một số nhà phát triển qua API của công ty. Trước thông báo này, các nhà phát triển chỉ có thể sử dụng phiên bản o1-preview, không mạnh mẽ bằng phiên bản mới.
Mô hình o1 đầy đủ sẽ sớm được cung cấp cho các nhà phát triển thuộc hạng “Tier 5” của OpenAI. Đây là những người dùng đã có tài khoản hơn một tháng và đã chi tiêu ít nhất 1,000 USD với công ty. Với mức giá này, dịch vụ mới đặc biệt đắt vì yêu cầu tài nguyên máy tính cao, với mức phí 15 USD cho mỗi khoảng 750,000 từ được phân tích và 60 USD cho mỗi 750,000 từ được tạo ra bởi mô hình.
Bên cạnh giá cả, OpenAI đã cải thiện đáng kể khả năng của o1 so với phiên bản preview. Mô hình mới không chỉ linh hoạt hơn nhờ tham số “reasoning_effort” giúp ai kéo dài thời gian suy nghĩ khi gặp câu hỏi phức tạp, mà còn hỗ trợ gọi hàm, tin nhắn nhà phát triển và phân tích hình ảnh, tất cả đều thiếu ở phiên bản o1-preview trước đây.
Ngoài ra, OpenAI đã tích hợp các mô hình GPT-4o và 4o-mini vào API Realtime, được thiết kế cho các ứng dụng AI giọng nói với độ trễ thấp. API này hiện hỗ trợ WebRTC, tiêu chuẩn mở cho phát triển ứng dụng AI giọng nói trên trình duyệt, báo hiệu một sự bùng nổ các website tương tác giọng nói vào năm 2025.
“Việc tích hợp WebRTC nhằm đảm bảo các tương tác mượt mà và phản hồi trong điều kiện thực tế, ngay cả khi chất lượng mạng dao động,” OpenAI viết trong thông báo của mình, đề cập đến khả năng mã hóa âm thanh, phát trực tuyến, và kiểm soát tắc nghẽn của mô hình.
Trong sự kiện phát trực tiếp, OpenAI cũng công bố phiên bản hoàn chỉnh của mô hình video Sora mới. Mặc dù được công chúng mong đợi trong thời gian dài, nhưng các phản hồi từ người dùng sớm có phần không mấy khả quan. Tuy nhiên, với chỉ còn ba ngày trước khi sự kiện kết thúc, có lẽ OpenAI sẽ vẫn còn nhiều bất ngờ cho người dùng.