Mối nguy hiểm đến từ AI: Tạo ra 10,000 mã độc mới không thể phát hiện

Đăng ngày 29/12/2024

Các nhà nghiên cứu an ninh mạng vừa phát hiện rằng có thể sử dụng các mô hình ngôn ngữ lớn (LLM) để tạo ra các phiên bản mã độc JavaScript mới với quy mô lớn nhằm tránh bị phát hiện.

Theo báo cáo từ nhóm Unit 42 của Palo Alto Networks, mặc dù LLM không thể tự tạo ra mã độc hoàn toàn từ đầu, tội phạm mạng vẫn có thể sử dụng chúng để viết lại hoặc mã hóa các mã độc hiện có, khiến việc phát hiện trở nên khó khăn hơn. Thủ đoạn này khiến cho các hệ thống phân loại mã độc dễ bị lừa rằng một đoạn mã nguy hiểm thực chất là vô hại.

Các nhà cung cấp LLM đã nỗ lực thiết lập các rào chắn bảo mật để ngăn chặn việc sản sinh ra những sản phẩm không mong muốn. Tuy nhiên, các tác nhân xấu vẫn có thể sử dụng các công cụ như WormGPT để tự động hóa quá trình tạo ra các email lừa đảo hoặc phát triển mã độc mới. Vào tháng 10/2024, OpenAI đã tiết lộ chặn đứng hơn 20 hoạt động và mạng lưới đánh lừa cố gắng khai thác nền tảng của mình cho các mục đích như trinh sát, nghiên cứu lỗ hổng và viết kịch bản hỗ trợ.

Bằng cách sử dụng sức mạnh của LLM, Unit 42 đã thử nghiệm và viết lại từng mẫu mã độc sao cho có thể vượt qua các mô hình học máy (ML) như Innocent Until Proven Guilty (IUPG) hoặc PhishingJS, tạo ra đến 10,000 biến thể JavaScript mới mà không làm thay đổi chức năng ban đầu. Hệ thuật toán này thực hiện qua việc đổi tên biến, chia nhỏ chuỗi, thêm mã rác, loại bỏ khoảng trắng không cần thiết, và thậm chí viết lại hoàn toàn mã nguồn.

Hiệu quả đến kinh ngạc khi 88% thời gian, các mô hình phân loại mã độc đã bị đổi ngược từ “độc hại” thành “vô hại”. Đáng lo ngại hơn là các mã JavaScript được viết lại này có thể qua mặt cả những công cụ phân tích mã độc khi tải lên nền tảng VirusTotal.

Điều này càng trầm trọng hơn khi các biến thể mới trông tự nhiên hơn so với những biến thể sử dụng bằng thư viện như obfuscator.io, vốn dễ bị phát hiện hơn. Mặc dù AI có thể tạo ra mã độc theo cách này, nhưng các chuyên gia gợi ý rằng cùng một kỹ thuật này cũng có thể được sử dụng để cải thiện dữ liệu huấn luyện nhằm củng cố các mô hình ML.

Trong khi đó, một nhóm nghiên cứu từ Đại học North Carolina State đã phát triển một cuộc tấn công kênh phụ, gọi là TPUXtract, để thực hiện các cuộc tấn công đánh cắp mô hình trên Google Edge Tensor Processing Units (TPUs) với độ chính xác lên đến 99,91%. Điều này có thể bị khai thác để trộm cắp sở hữu trí tuệ hoặc thực hiện các cuộc tấn công mạng lớn hơn.

Cuộc tấn công “hộp đen” này chủ yếu khai thác các tín hiệu điện từ phát ra từ TPU khi thực hiện suy diễn mạng nơ-ron, tận dụng cường độ tính toán để suy ra các siêu tham số mô hình. Dù vậy, điều này yêu cầu kẻ tấn công phải có quyền truy cập vật lý vào thiết bị đích và có thiết bị đắt tiền để điều tra và thu thập dấu vết.

Khám phá các chiến lược phòng ngừa mối đe dọa, ngăn chặn mã độc mã hóa, và ngăn chặn mã độc tống tiền khỏi xâm nhập vào hệ thống của bạn. Hãy cùng khám phá các công cụ tiên tiến của DigiCert ONE để tự động hóa tuân thủ và bảo mật quy trình DevOps.