Mô hình ngôn ngữ AI riêng của Meta, LLaMA, đã bị rò rỉ trực tuyến bởi một thành viên 4chan và công ty vẫn chưa có hành động nào.
Mô hình ngôn ngữ mạnh mẽ được cho là cạnh tranh với LaMDA của Google Bard, nhưng nó không đơn giản như các chatbot có sẵn công khai như ChatGPT của OpenAI và Bing Chat của Microsoft. Nhiều người lo ngại về các hành động nguy hiểm có thể xảy ra khi sử dụng mô hình ngôn ngữ và Meta đã bị chỉ trích vì không thực hiện đầy đủ các biện pháp phòng ngừa.
Finally finished the LLaMA torrent and managed to load 7B in about 22GB VRAM. Running some fun prompts to test it out. Really not sure about that first answer here 🧐 pic.twitter.com/MOI93bNCBS
— David Rose (@drose101) March 4, 2023
Bất chấp ý định “dân chủ hóa hơn nữa quyền truy cập” vào AI của Meta, một số chuyên gia trong ngành đã chỉ trích quyết định sử dụng LLaMA nguồn mở, viện dẫn khả năng xảy ra các nỗ lực lừa đảo và thư rác được cá nhân hóa. The Verge lưu ý rằng LLaMA không được tinh chỉnh như các chatbot khác và yêu cầu chuyên môn, phần cứng phù hợp và thời gian.
Vụ rò rỉ này có thể gây ra những tác động nghiêm trọng đối với mọi người sử dụng internet và điều quan trọng là phải cảnh giác trước các nỗ lực lừa đảo. Tệp tải xuống bao gồm mô hình nhỏ nhất có tham số 7B và điều quan trọng là người dùng phải thận trọng khi tương tác với mô hình ngôn ngữ.
Tóm lại, việc rò rỉ mô hình ngôn ngữ AI riêng của Meta, LLaMA, là một vấn đề nghiêm trọng đối với cộng đồng AI cũng như người dùng internet. Khả năng xảy ra các hành động nguy hiểm khi sử dụng mô hình ngôn ngữ là rất lớn và các cá nhân cũng như tổ chức cần phải thực hiện các biện pháp phòng ngừa thích hợp. Khi bối cảnh AI tiếp tục phát triển, điều quan trọng là các công ty phải xem xét cẩn thận các tác động của các quyết định của họ.