Tag: prompt injection

Phương pháp “Bad Likert Judge” mới có thể phá vỡ bảo mật AI

Phương pháp “Bad Likert Judge” mới có thể phá vỡ bảo mật AI

Các nhà nghiên cứu an ninh mạng vừa tiết lộ một kỹ thuật jailbreak mới có khả năng phá vỡ hàng rào an toàn của các mô hình ngôn ngữ lớn (LLM), tạo ra

Đăng ngày 04/01/2025