Meta đã chính thức công bố mô hình AI mới nhất của họ, Llama 4, với tuyên bố rằng nó ít thiên lệch chính trị hơn so với các phiên bản trước đây. Điều này đồng nghĩa với việc Llama 4 có khả năng trả lời nhiều câu hỏi tranh cãi và cho phép người dùng tiếp cận nhiều góc nhìn khác nhau. Hãng này khẳng định rằng mục tiêu của họ là xóa bỏ những định kiến trong các mô hình AI và đảm bảo rằng Llama 4 có thể hiểu và làm rõ cả hai khía cạnh của một vấn đề gây tranh cãi. Họ liên tục cải tiến khả năng phản hồi của Llama 4 để mô hình có thể cung cấp câu trả lời mà không thiên vị ý kiến nào.
Một trong những lo ngại được nêu ra bởi những người hoài nghi về các mô hình lớn do một số công ty phát triển là sự kiểm soát thông tin mà nó tạo ra. Những ai kiểm soát các mô hình AI sẽ có thể chi phối thông tin mà người dùng nhận được. Mặc dù Meta thường xuyên bị chỉ trích bởi những người bảo thủ nói rằng công ty này đã hạn chế các quan điểm thiên về hữu, tuy nhiên, nội dung bảo thủ vẫn thường được ưa chuộng hơn trên Facebook. Giám đốc điều hành Mark Zuckerberg đang cố gắng tìm kiếm sự ủng hộ từ chính phủ nhằm tránh các khó khăn liên quan đến quy định.
Trong bài viết trên blog của mình, Meta nhấn mạnh rằng họ đã thực hiện nhiều thay đổi trong Llama 4 nhằm làm giảm thiên kiến về chính trị. Họ nhận định rằng hầu hết các mô hình ngôn ngữ lớn đều gặp phải vấn đề thiên lệch nghiêng về cánh tả trong các chủ đề xã hội và chính trị. Nguyên nhân chủ yếu đến từ các dữ liệu đào tạo có sẵn trên internet. Mặc dù công ty chưa công bố cụ thể dữ liệu mà họ đã sử dụng để đào tạo Llama 4, nhưng việc dựa vào các tài liệu chưa được phép và việc thu thập thông tin từ các website không được cấp phép là một thực tế chung của các công ty trong lĩnh vực này.
Việc tối ưu hóa để đạt được sự ‘cân bằng’ đôi khi có thể dẫn đến sự tương đồng sai lệch và cho phép những luận điệu không đứng trên thực tế được làm nổi bật. Một khái niệm được gọi là “bothsidesism” gây ra nhiều tranh cãi trong lĩnh vực truyền thông, khi mà cả hai quan điểm trái ngược thường được đưa ra với trọng số mực đích, mặc dù một bên công bố thông tin dựa trên sự thật và bên còn lại chỉ là những lý thuyết âm mưu không có cơ sở.
Mặc dù AI có nhiều ứng dụng hữu ích, nhưng các mô hình này vẫn gặp vấn đề nghiêm trọng về độ chính xác thông tin. Llama 4 và các mô hình ngôn ngữ lớn khác vẫn thường xuyên cung cấp thông tin sai lệch với sự tự tin cao, làm cho việc phân định thông tin hợp lệ trở nên khó khăn hơn. Điều này thể hiện rằng các mô hình AI có vấn đề lớn với hai khía cạnh khác nhau, đó là phương thức thu thập dữ liệu và cách trình bày thông tin. Thậm chí, các mô hình phân tích hình ảnh cũng có hiện tượng thiếu sót trong việc nhận diện con người thuộc các nhóm sắc tộc khác nhau.
Giám đốc điều hành Zuckerberg đang tìm kiếm sự ủng hộ từ những chính trị gia và đang thể hiện rõ rằng mô hình AI mới này sẽ không thiên lệch về chính trị. Do đó, lần tới khi bạn sử dụng các sản phẩm AI của Meta, có thể nó sẽ cung cấp cho bạn nhiều quan điểm mà trước đó chưa từng có.