Luật sư Minnesota đối mặt vụ kiện liên quan deepfake và AI

Đăng ngày 22/11/2024

Một vụ kiện liên bang về luật “Sử dụng Công Nghệ Deepfake để Ảnh Hưởng Bầu Cử” của Minnesota đang ngày càng bị ảnh hưởng bởi công nghệ AI. Trong một hồ sơ mới nhất, các luật sư phản đối luật này cho rằng một bản khai chứng minh đã bộc lộ dấu hiệu văn bản được tạo ra bởi AI. Theo báo cáo từ Minnesota Reformer, Tổng chưởng lý Keith Ellison đã yêu cầu Giám đốc sáng lập Phòng thí nghiệm Truyền thông Xã hội Stanford, Jeff Hancock, để đưa ra bản ghi. Tuy nhiên, tài liệu này lại bao gồm các nguồn không tồn tại, dường như đã bị “ảo tưởng” bởi ChatGPT hoặc một mô hình ngôn ngữ lớn khác (LLM).

Bản khai của Hancock trích dẫn một nghiên cứu năm 2023 được công bố trên Tạp chí Công nghệ Thông tin và chính trị với tiêu đề “Ảnh Hưởng của Video Deepfake đối với Thái Độ và Hành Vi Chính Trị”. Tuy nhiên, theo Reformer, không có bất kỳ hồ sơ nào về nghiên cứu này trong tạp chí hoặc bất kỳ ấn phẩm nào khác. Một nguồn khác được Hancock dẫn chứng, “Deepfakes và Ảo Tưởng Tính Xác Thực: Quy Trình Nhận Thức Phía Sau Việc Chấp Nhận Thông Tin Sai Lệch,” cũng không hề tồn tại.

Hancock không trả lời yêu cầu bình luận của The Verge. Trong hồ sơ pháp lý, các luật sư của Nghị sĩ bang Minnesota Mary Franson và Youtuber bảo thủ Christopher Khols — người hoạt động dưới tên Mr. Reagan — viết rằng: “Sự trích dẫn này mang các đặc trưng của ‘ảo giác’ trí tuệ nhân tạo (AI), cho thấy ít nhất là phần trích dẫn được tạo ra bởi một mô hình ngôn ngữ lớn như ChatGPT.” Các nguyên đơn không rõ tại sao sự ‘ảo giác’ này lại xuất hiện trong tuyên bố của Hancock, nhưng điều này đặt dấu hỏi lớn lên toàn bộ tài liệu, đặc biệt khi phần lớn bình luận không có phương pháp luận hay phân tích logic rõ ràng nào.\n\nSự việc này đưa ra ánh sáng về những thách thức và rủi ro liên quan đến việc sử dụng AI trong các lĩnh vực phức tạp như pháp lý, đặt ra câu hỏi nghiêm túc về độ tin cậy của các thông tin khi được hỗ trợ bởi AI, nhất là trong bối cảnh nhạy cảm như các quy định bầu cử.