Chính phủ Hoa Kỳ đã công bố các hướng dẫn bảo mật mới nhằm củng cố cơ sở hạ tầng quan trọng chống lại các mối đe dọa liên quan đến trí tuệ nhân tạo (AI).
"Những hướng dẫn này được thông báo bởi nỗ lực của toàn chính phủ để đánh giá rủi ro AI trên tất cả mười sáu lĩnh vực cơ sở hạ tầng quan trọng và giải quyết các mối đe dọa cả đến và đi và liên quan đến các hệ thống AI", Bộ An ninh Nội địa (DHS) cho biết hôm thứ Hai.
Ngoài ra, cơ quan này cho biết họ đang làm việc để tạo điều kiện sử dụng công nghệ an toàn, có trách nhiệm và đáng tin cậy theo cách không vi phạm quyền riêng tư, quyền công dân và quyền tự do dân sự của cá nhân.
Hướng dẫn mới liên quan đến việc sử dụng AI để tăng cường và mở rộng các cuộc tấn công vào cơ sở hạ tầng quan trọng, thao túng đối nghịch các hệ thống AI và những thiếu sót trong các công cụ như vậy có thể dẫn đến hậu quả không lường trước được, đòi hỏi sự cần thiết phải minh bạch và bảo mật bằng các thực tiễn thiết kế để đánh giá và giảm thiểu rủi ro AI.
Cụ thể, điều này kéo dài bốn chức năng khác nhau như quản trị, lập bản đồ, đo lường và quản lý tất cả thông qua vòng đời AI -
- Thiết lập văn hóa tổ chức quản lý rủi ro AI
- Hiểu bối cảnh sử dụng AI cá nhân và hồ sơ rủi ro của bạn
- Phát triển các hệ thống để đánh giá, phân tích và theo dõi rủi ro AI
- Ưu tiên và hành động đối với các rủi ro AI đối với an toàn và bảo mật
"Các chủ sở hữu và nhà khai thác cơ sở hạ tầng quan trọng nên tính đến việc sử dụng AI theo lĩnh vực cụ thể và theo ngữ cảnh cụ thể của riêng họ khi đánh giá rủi ro AI và lựa chọn các biện pháp giảm thiểu thích hợp", cơ quan này cho biết.
"Các chủ sở hữu và nhà khai thác cơ sở hạ tầng quan trọng nên hiểu những phụ thuộc này vào các nhà cung cấp AI tồn tại ở đâu và làm việc để chia sẻ và phân định trách nhiệm giảm thiểu cho phù hợp."
Sự phát triển này diễn ra vài tuần sau khi liên minh tình báo Five Eyes (FVEY) bao gồm Úc, Canada, New Zealand, Anh và Mỹ phát hành một bảng thông tin an ninh mạng lưu ý thiết lập và cấu hình cẩn thận cần thiết để triển khai các hệ thống AI.
"Việc nhanh chóng áp dụng, triển khai và sử dụng các khả năng AI có thể khiến chúng trở thành mục tiêu có giá trị cao cho các tác nhân mạng độc hại", các chính phủ cho biết.
"Các tác nhân, những người trong lịch sử đã sử dụng hành vi trộm cắp dữ liệu thông tin nhạy cảm và sở hữu trí tuệ để thúc đẩy lợi ích của họ, có thể tìm cách hợp tác với các hệ thống AI được triển khai và áp dụng chúng cho các mục đích độc hại."
Đầu tháng này, Trung tâm điều phối CERT (CERT / CC) đã nêu chi tiết một thiếu sót trong thư viện mạng thần kinh Keras 2 có thể bị kẻ tấn công khai thác để trojan hóa một mô hình AI phổ biến và phân phối lại nó, đầu độc hiệu quả chuỗi cung ứng của các ứng dụng phụ thuộc.
Nghiên cứu gần đây đã phát hiện ra các hệ thống AI dễ bị tổn thương trước một loạt các cuộc tấn công tiêm nhanh chóng khiến mô hình AI phá vỡ các cơ chế an toàn và tạo ra các đầu ra có hại.