Các kỹ sư phần mềm, nhà phát triển và nhà nghiên cứu học thuật đang bày tỏ lo ngại về khả năng sao chép của công cụ Whisper từ OpenAI, theo một báo cáo của Associated Press. Trọng tâm của vấn đề là hiện tượng “ảo giác” trong trí tuệ nhân tạo, vốn đã không còn xa lạ trong ngành, song việc xuất hiện sai lệch trong các bản sao chép âm thanh là một điều khá đáng ngạc nhiên.
Không ngờ rằng, Whisper lại biến các đoạn hội thoại âm thanh thành những bản ghi có chứa các nội dung không liên quan, từ những bình luận về chủng tộc đến các phương pháp điều trị y tế tưởng tượng. Điều này đặc biệt gây quan ngại khi công cụ này được áp dụng trong các bệnh viện và bối cảnh y tế khác, nơi mà độ chính xác là điều tối cần thiết.
Một nhà nghiên cứu tại Đại học Michigan đã nhận thấy hiện tượng “ảo giác” trong tám trên mười lần kiểm tra sao chép âm thanh công cộng thông qua Whisper. Một kỹ sư học máy cũng phát hiện ra vấn đề tương tự khi kiểm tra hơn 100 giờ sao chép, với hơn một nửa số bản sao chứa “ảo giác”. Thậm chí, một nhà phát triển đã ghi nhận được gần như tất cả 26,000 bản sao chép của mình với Whisper đều xuất hiện hiện tượng này.
Phát ngôn viên của OpenAI cho biết công ty đang “liên tục cải thiện độ chính xác của các mô hình, bao gồm việc giảm thiểu hiện tượng ảo giác” và ghi nhớ rằng chính sách sử dụng của công ty cấm sử dụng Whisper “trong các tình huống quyết định có độ rủi ro cao”. “Chúng tôi cảm ơn các nhà nghiên cứu đã chia sẻ những phát hiện của họ,” họ nói thêm.
Những thông tin như vậy không chỉ cảnh báo cho cộng đồng kỹ sư và nhà phát triển mà còn thúc đẩy OpenAI trong quá trình tinh chỉnh nhằm tăng tính chính xác và độ tin cậy của Whisper. Với sự phát triển không ngừng của công nghệ AI, việc liên tục đánh giá và nâng cấp là điều tất yếu để đảm bảo sự an toàn và hiệu quả trong mọi ứng dụng.
Cùng chờ xem OpenAI sẽ thực hiện những cải tiến nào tiếp theo cho Whisper và làm thế nào để tránh những sai sót có thể ảnh hưởng lớn đến những quyết định quan trọng như trong ngành y tế.