in

OpenAI ngừng hợp tác với nhà phát triển chế tạo vũ khí tự động điều khiển bằng AI

OpenAI gần đây đã quyết định ngừng hợp tác với một nhà phát triển sau khi người này chế tạo một thiết bị có khả năng phản hồi các truy vấn từ ChatGPT để nhằm vào và bắn một khẩu súng tự động. Thiết bị này đã trở nên nổi tiếng trên mạng xã hội Reddit qua một video cho thấy nhà phát triển đọc một lệnh bắn, và ngay lập tức, một khẩu súng bên cạnh đã nhanh chóng nhắm và bắn vào các bức tường gần đó. Trong video, nhà phát triển nói với ChatGPT: “Chúng tôi bị tấn công từ phía trái và phía phải”, và yêu cầu hệ thống phản hồi phù hợp. Tốc độ và độ chính xác mà khẩu súng này phản ứng thật sự ấn tượng nhờ vào API Realtime của OpenAI, cho phép hệ thống diễn giải các lệnh và trả về chỉ dẫn mà thiết bị có thể hiểu. Chỉ cần đào tạo cơ bản, ChatGPT có thể nhận lệnh như “quay trái” và dịch nó thành ngôn ngữ mà máy móc có thể hiểu.

Trong một tuyên bố với Futurism, OpenAI cho biết họ đã xem video này và quyết định ngừng hoạt động của nhà phát triển. “Chúng tôi đã chủ động xác định hành vi vi phạm chính sách của chúng tôi và thông báo cho nhà phát triển dừng hoạt động này trước khi nhận được yêu cầu từ bạn”, công ty cho biết.

Việc tự động hóa vũ khí chết chóc là một mối lo ngại đã được nhiều người chỉ trích về công nghệ AI mà OpenAI phát triển. Các mô hình đa phương thức của công ty có khả năng diễn giải các đầu vào âm thanh và hình ảnh để hiểu về môi trường xung quanh và đáp ứng các yêu cầu về những gì chúng thấy. Hiện nay, các máy bay không người lái (drone) tự động đang được phát triển và có thể được sử dụng trên chiến trường để xác định và tấn công mục tiêu mà không cần sự can thiệp của con người. Điều này, tất nhiên, có thể trở thành tội ác chiến tranh và rủi ro khiến con người trở nên thờ ơ, khi để AI đưa ra quyết định mà khó lòng quy trách nhiệm cho bất kỳ ai.

Mối quan ngại về việc này không chỉ là lý thuyết. Một báo cáo gần đây từ Washington Post cho thấy Israel đã sử dụng AI để chọn lựa mục tiêu bom, đôi khi một cách tùy tiện. “Những người lính được đào tạo kém trong việc sử dụng công nghệ đã tấn công mục tiêu con người mà không xác nhận các dự đoán của Lavender”, câu chuyện cho hay, đề cập đến một phần mềm AI. “Đôi khi, sự xác nhận duy nhất cần có chỉ là mục tiêu là một người đàn ông.”

Người ủng hộ việc sử dụng AI trên chiến trường cho rằng nó sẽ giúp bảo vệ binh lính, cho phép họ tránh xa các chiến tuyến và trung lập hóa mục tiêu, như kho tên lửa, hoặc thực hiện công tác trinh sát từ xa. Tuy nhiên, việc sử dụng AI sẽ phụ thuộc vào cách mà chúng được sử dụng ra sao. Các nhà phê bình cho rằng Hoa Kỳ nên cải thiện khả năng gây nhiễu hệ thống truyền thông của kẻ thù thay vì phụ thuộc vào máy bay không người lái hay vũ khí hạt nhân của họ.

OpenAI cấm việc sử dụng sản phẩm của mình để phát triển hoặc sử dụng vũ khí, hoặc để “tự động hóa một số hệ thống có thể ảnh hưởng đến sự an toàn cá nhân.” Nhưng năm ngoái, công ty đã công bố một quan hệ đối tác với công ty công nghệ quốc phòng Anduril, nhà sản xuất máy bay không người lái và tên lửa sử dụng AI, để tạo ra các hệ thống có thể phòng vệ trước các cuộc tấn công từ máy bay không người lái. Công ty cho biết họ sẽ “nhanh chóng tổng hợp dữ liệu nhạy cảm về thời gian, giảm gánh nặng cho các điều hành viên con người, và cải thiện khả năng nhận biết tình hình.”

Không khó để hiểu lý do tại sao các công ty công nghệ muốn tham gia vào lĩnh vực chiến tranh. Hoa Kỳ chi gần một nghìn tỷ đô la mỗi năm cho quốc phòng và ít ai muốn cắt giảm khoản chi này. Với việc Tổng thống đắc cử Trump bổ nhiệm các nhân vật công nghệ nghiêng về bảo thủ như Elon Musk và David Sacks vào nội các của mình, một loạt các công ty công nghệ quốc phòng dự kiến sẽ hưởng lợi rất lớn và có khả năng thay thế các công ty quốc phòng hiện có như Lockheed Martin.

Mặc dù OpenAI đã ngăn cấm khách hàng của mình sử dụng AI để chế tạo vũ khí, vẫn còn một loạt các mô hình mã nguồn mở có thể được sử dụng cho mục đích tương tự. Thêm vào đó, với khả năng in 3D các bộ phận của vũ khí—điều mà cơ quan thực thi pháp luật tin rằng đã được thực hiện bởi nghi phạm bắn người ở UnitedHealthcare Luigi Mangione—việc chế tạo các cỗ máy giết người tự động từ sự tiện nghi của ngôi nhà của mình trở nên dễ dàng đến bất ngờ.

Written by Linh Nguyễn

Leave a Reply

Exit mobile version