Mã nguồn mở của Google Magika: Công cụ nhận dạng tệp được hỗ trợ bởi AI


 Google đã thông báo rằng họ là mã nguồn mở Magika, một công cụ hỗ trợ trí tuệ nhân tạo (AI) để xác định các loại tệp, để giúp người bảo vệ phát hiện chính xác các loại tệp nhị phân và văn bản.

"Magika vượt trội hơn các phương pháp nhận dạng tệp thông thường cung cấp độ chính xác tổng thể 30% và độ chính xác cao hơn tới 95% đối với nội dung truyền thống khó xác định, nhưng có khả năng có vấn đề như VBA, JavaScript và Powershell", công ty cho biết.

Phần mềm sử dụng "mô hình học sâu tùy chỉnh, được tối ưu hóa cao" cho phép xác định chính xác các loại tệp trong vòng mili giây. Magika thực hiện các hàm suy luận bằng cách sử dụng Open Neural Network Exchange (ONNX).

Google cho biết họ sử dụng nội bộ Magika ở quy mô lớn để giúp cải thiện sự an toàn của người dùng bằng cách định tuyến các tệp Gmail, Drive và Duyệt web an toàn đến các trình quét chính sách nội dung và bảo mật thích hợp.

Vào tháng 11/2023, gã khổng lồ công nghệ đã tiết lộ RETVec (viết tắt của Resilient and Efficient Text Vectorizer), một mô hình xử lý văn bản đa ngôn ngữ để phát hiện nội dung có khả năng gây hại như spam và email độc hại trong Gmail.

Trong bối cảnh cuộc tranh luận đang diễn ra về rủi ro của công nghệ đang phát triển nhanh chóng và sự lạm dụng của nó bởi các tác nhân quốc gia liên quan đến Nga, Trung Quốc, Iran và Triều Tiên để tăng cường nỗ lực hack của họ, Google cho biết việc triển khai AI ở quy mô lớn có thể tăng cường bảo mật kỹ thuật số và "nghiêng cán cân an ninh mạng từ kẻ tấn công sang người bảo vệ".

Nó cũng nhấn mạnh sự cần thiết của một cách tiếp cận quy định cân bằng đối với việc sử dụng và áp dụng AI để tránh một tương lai nơi những kẻ tấn công có thể đổi mới, nhưng những người bảo vệ bị hạn chế do các lựa chọn quản trị AI.

"AI cho phép các chuyên gia bảo mật và người bảo vệ mở rộng quy mô công việc của họ trong việc phát hiện mối đe dọa, phân tích phần mềm độc hại, phát hiện lỗ hổng, sửa lỗ hổng và ứng phó sự cố", Phil Venables và Royal Hansen của gã khổng lồ công nghệ lưu ý. "AI tạo cơ hội tốt nhất để đảo ngược tình thế tiến thoái lưỡng nan của Defender, và nghiêng quy mô của không gian mạng để mang lại cho người bảo vệ một lợi thế quyết định trước những kẻ tấn công."

Những lo ngại cũng đã được nêu ra về việc các mô hình AI tạo ra việc sử dụng dữ liệu được quét web cho mục đích đào tạo, cũng có thể bao gồm dữ liệu cá nhân.

"Nếu bạn không biết mô hình của mình sẽ được sử dụng để làm gì, làm thế nào bạn có thể đảm bảo việc sử dụng hạ nguồn của nó sẽ tôn trọng bảo vệ dữ liệu và quyền và tự do của mọi người?", Văn phòng Ủy viên Thông tin Vương quốc Anh (ICO) đã chỉ ra vào tháng trước.

Hơn nữa, nghiên cứu mới đã chỉ ra rằng các mô hình ngôn ngữ lớn có thể hoạt động như "tác nhân ngủ" có vẻ vô hại nhưng có thể được lập trình để tham gia vào hành vi lừa đảo hoặc độc hại khi các tiêu chí cụ thể được đáp ứng hoặc hướng dẫn đặc biệt được cung cấp.

"Hành vi cửa hậu như vậy có thể được thực hiện dai dẳng để nó không bị loại bỏ bởi các kỹ thuật đào tạo an toàn tiêu chuẩn, bao gồm tinh chỉnh có giám sát, học tăng cường và đào tạo đối nghịch (gợi ra hành vi không an toàn và sau đó đào tạo để loại bỏ nó), các nhà nghiên cứu từ công ty khởi nghiệp AI Anthropic cho biết trong nghiên cứu.

Mới hơn Cũ hơn