Cựu nhà nghiên cứu chính sách hàng đầu của OpenAI, Miles Brundage, đã chỉ trích công ty này qua mạng xã hội, cho rằng họ đang “viết lại lịch sử” trong cách tiếp cận triển khai những hệ thống AI rủi ro. Vào đầu tuần này, OpenAI đã công bố tài liệu mô tả triết lý hiện tại về an toàn AI và cách định hình hệ thống AI hoạt động theo cách mong muốn và dễ hiểu. Theo đó, OpenAI cho rằng phát triển AGI, được định nghĩa là hệ thống AI có thể thực hiện mọi nhiệm vụ mà con người có thể, là một “con đường liên tục” cần “triển khai và học hỏi từ các công nghệ AI”.
OpenAI đã tuyên bố “Trong một thế giới không liên tục, các bài học an toàn đến từ việc xử lý các hệ thống hiện tại với sự cẩn trọng quá đáng so với sức mạnh của chúng. Chúng tôi hiện nay xem AGI đầu tiên chỉ là một điểm trong chuỗi các hệ thống ngày càng hữu ích”. Tuy nhiên, Brundage tranh luận rằng việc phát hành GPT-2 đã thực sự cần cẩn trọng, và điều này hoàn toàn nhất quán với chiến lược triển khai theo từng bước của OpenAI hiện tại.
“Việc phát hành GPT-2, mà tôi đã tham gia, hoàn toàn nhất quán với triết lý triển khai theo từng bước của OpenAI hiện tại,” Brundage viết trên X. Anh ngắt lời, cho biết mô hình được phát hành từng phần, với các bài học được chia sẻ ở mỗi bước. Nhiều chuyên gia an ninh thời điểm đó đã cảm ơn chúng tôi vì sự cẩn trọng này.
Brundage gia nhập OpenAI vào năm 2018 và từng là trưởng nhóm nghiên cứu chính sách tại công ty này. Anh chịu trách nhiệm cho việc triển khai một cách có trách nhiệm các hệ thống sinh ngữ như nền tảng chatbot AI của OpenAI, ChatGPT.
GPT-2, được công bố vào năm 2019, đã trở thành nền tảng cho các hệ thống AI hiện đại, bao gồm cả ChatGPT. Tại thời điểm đó, ngôn ngữ mà GPT-2 sản sinh rất tinh vi và có khả năng trả lời câu hỏi, tóm tắt bài viết, và sinh văn tự mà đôi khi rất khó để phân biệt với người. Dù rằng những đầu ra từ GPT-2 có vẻ đơn giản ngày nay, thì chúng đã rất tiên tiến vào thời điểm đó. Do lo ngại về việc lạm dụng, OpenAI ban đầu từ chối phát hành mã nguồn của GPT-2, thay vào đó chỉ cung cấp cho một số cơ quan báo chí quyền truy cập giới hạn vào phiên bản thử nghiệm.
Quyền quyết định này đã gặp phải sự phản đối trái chiều từ ngành AI. Nhiều chuyên gia cho rằng mối đe dọa từ GPT-2 đã bị phex phóng đại và không có bằng chứng nào cho thấy mô hình có thể bị lạm dụng như OpenAI đã mô tả. Đến cuối cùng, OpenAI đã phát hành một phiên bản từng phần của GPT-2 sau sáu tháng, và phiên bản đầy đủ sau đó vài tháng. Brundage cho rằng đây là cách tiếp cận đúng đắn.
Brundage nghi ngờ rằng mục tiêu của OpenAI với tài liệu này là thiết lập một gánh nặng bằng chứng, nơi các “mối lo ngại được cho là hoang tưởng”, và bạn cần có bằng chứng rõ ràng về những mối nguy sắp xảy ra để hành động. Điều này, theo anh, là một tư duy “rất nguy hiểm” cho các hệ thống AI tiên tiến.
Historically, OpenAI đã bị cáo buộc ưu tiên “những sản phẩm bắt mắt” mà bỏ qua an toàn, và đã thúc đẩy phát hành sản phẩm để đánh bại các đối thủ cạnh tranh. Năm ngoái, OpenAI đã giải thể nhóm chuẩn bị cho AGI của mình, dẫn đến một loạt các nhà nghiên cứu về an toàn AI và chính sách rời công ty để sang các đối thủ khác. Thế áp lực cạnh tranh càng gia tăng. Mới đây, phòng thí nghiệm AI Trung Quốc DeepSeek đã thu hút sự chú ý với mô hình mở của họ, R1, xuất sắc trong một số tiêu chí đánh giá mà so sánh với mô hình “lý luận” của OpenAI, O1. Giám đốc điều hành OpenAI, Sam Altman, đã thừa nhận rằng DeepSeek đã làm giảm lợi thế công nghệ của OpenAI, và nói rằng công ty sẽ “cải thiện một số phát hành” để cạnh tranh tốt hơn.
OpenAI đang đối mặt với những thách thức tài chính lớn. Công ty này vuột mất hàng tỷ USD hàng năm, với dự đoán lỗ có thể gấp ba lần lên tới 14 tỷ USD vào năm 2026. Tốc độ phát hành sản phẩm nhanh có thể mang lại lợi ích cho OpenAI trong thời gian tới, nhưng có thể hy sinh an toàn trong dài hạn. Các chuyên gia như Brundage đặt câu hỏi liệu việc thỏa hiệp này có thực sự đáng giá hay không.