Monday, May 6, 2024

Máy bay không người lái do trí tuệ nhân tạo AI điều khiển sắp thành hiện thực

NEW YORK (NV) – Cảnh tượng trông có vẻ giống như một thứ gì bước ra từ khoa học viễn tưởng: một bầy robot sát thủ tự săn lùng và có khả năng xộc tới để tiêu diệt mục tiêu mà không cần bất kỳ sự đồng ý nào từ con người.

Nhưng những thứ này đang ngày càng thực tế khi Hoa Kỳ, Trung Quốc và một số quốc gia khác đạt được tiến bộ nhanh chóng trong phát triển và khai triển kỹ nghệ mới có khả năng định hình lại bản chất của chiến tranh bằng cách chuyển quyền sinh sát sang máy bay không người lái “drone” tự động có trí tuệ nhân tạo AI.

Viễn cảnh đó làm cho nhiều chính phủ khác lo ngại tới nỗi họ đang cố gắng tập trung sự chú ý vào nó bằng các đề nghị tại Liên Hiệp Quốc nhằm áp đặt các quy tắc ràng buộc pháp lý đối với việc sử dụng cái mà quân đội gọi là vũ khí tự động có khả năng sát thương.

Máy bay không người lái Kratos XQ‑58A Valkyrie đang được thí nghiệm ở căn cứ Không Quân Eglin, Florida (Hình: US Air Force)

“Đây thực sự là một trong những bước ngoặt quan trọng nhất cho nhân loại,” Alexander Kmentt, nhà đàm phán đứng đầu của Áo về khía cạnh này, cho biết trong một cuộc phỏng vấn. “Vai trò của con người trong việc sử dụng võ lực là gì – đó là vấn đề an ninh căn bản, một vấn đề pháp lý và cũng là vấn đề đạo đức.”

Nhưng trong khi Liên Hiệp Quốc đang đưa ra nền tảng để các chính phủ bày tỏ lo ngại, thì tiến trình này dường như không thể mang lại những hạn chế ràng buộc pháp lý mới. Những người ủng hộ kiểm soát võ khí cho biết, Hoa Kỳ, Nga, Úc, Israel và các nước khác đều lập luận rằng hiện tại không cần luật quốc tế mới, trong khi Trung Quốc muốn phân định giới hạn pháp lý thu hẹp tới mức sẽ có ít tác động thực tế.

Kết quả là cuộc tranh luận buộc phải đi vào nút thắt thủ tục và có rất ít cơ hội đạt được tiến bộ về nhiệm vụ ràng buộc pháp lý trong thời gian sớm.

“Chúng tôi thực sự thấy rằng đây không phải là thời điểm phù hợp,” Konstantin Vorontsov, phó trưởng phái đoàn Nga tại Liên Hiệp Quốc, nói với các nhà ngoại giao đang ngồi chật cứng trong phòng họp dưới tầng hầm tại trụ sở Liên Hiệp Quốc ở New York.

Cuộc tranh luận về rủi ro của trí tuệ nhân tạo hướng sự chú ý mới trong những ngày gần đây với cuộc chiến giành quyền kiểm soát OpenAI, có lẽ là công ty AI hàng đầu thế giới, mà các nhà lãnh đạo công ty tỏ ra bất đồng về việc liệu công ty có tính tới những mầm họa của kỹ nghệ AI hay không. Và tuần trước, các viên chức từ Trung Quốc và Hoa Kỳ tiến tới thảo luận về một vấn đề liên quan: những giới hạn tiềm ẩn của việc sử dụng AI trong các quyết định khai triển võ khí nguyên tử.

Trong bối cảnh đó, câu hỏi đặt ra về giới hạn nào nên được đề ra cho việc sử dụng võ khí tự động gây chết người trở nên cấp bách hơn và hiện tại vấn đề là liệu việc có đủ cho Liên Hiệp Quốc khi chỉ áp dụng các hướng dẫn không ràng buộc hay không, quan điểm được ủng hộ bởi Hoa Kỳ.

Nhưng quan điểm của các cường quốc chỉ làm tăng thêm sự lo lắng ở các quốc gia nhỏ hơn, họ lo ngại rằng võ khí tự động sát thương có thể trở nên phổ biến trên chiến trường trước khi có bất kỳ thỏa thuận nào về quy tắc vận hành.

Những tiến bộ nhanh chóng về trí tuệ nhân tạo và việc sử dụng rộng rãi máy bay không người lái trong các cuộc xung đột ở Ukraine và Trung Đông làm cho vấn đề trở nên cấp bách hơn nhiều. Cho tới nay, máy bay không người lái thường dựa vào người điều khiển để thực hiện các nhiệm vụ thủ tiêu, nhưng nhu liệu đang được phát triển sẽ sớm cho phép chúng tự tìm và chọn mục tiêu nhiều hơn.

Giới chức Ngũ Giác Đài nói rõ họ đang chuẩn bị khai triển võ khí tự động có quy mô.

Hoa Kỳ áp dụng các chính sách tự nguyện đặt ra các giới hạn về cách thức sử dụng trí tuệ nhân tạo và võ khí tự động gây chết người, gồm có chính sách của Ngũ Giác Đài được sửa đổi trong năm nay mang tên “Quyền Tự Chủ trong Hệ Thống Võ Khí” và “Tuyên Bố Chính Trị có liên quan của Bộ Ngoại Giao về việc Sử Dụng Trí Tuệ Nhân Tạo và Võ Khí Tự Động Có Trách Nhiệm,” điều mà Hoa Kỳ kêu gọi các quốc gia khác nắm lấy.

Chính sách của Ngũ Giác Đài cấm sử dụng bất kỳ loại võ khí tự động mới nào hoặc thậm chí cấm phát triển chúng trừ khi được các viên chức hàng đầu của Bộ Quốc Phòng chuẩn thuận. Những loại võ khí tương tự phải được vận hành trong một khu vực địa lý xác định và trong thời gian giới hạn. Và nếu võ khí được điều khiển bởi AI., quân nhân phải duy trì “khả năng giải phóng hoặc tắt các hệ thống đã khai triển thể hiện hành vi ngoài ý muốn.” (TTHN)

MỚI CẬP NHẬT