Ахіллесова п’ята штучного інтелекту: дослідники виявили серйозну помилку безпеки моделі

10:21, 05.01.2025
Ахіллесова п’ята штучного інтелекту: дослідники виявили серйозну помилку безпеки моделі

Вчені знайшли ключову вразливість у безпеці штучного інтелекту.

Серйозну вразливість у безпеці нейромереж виявили дослідники: вони показали, що моделі штучного інтелекту можна красти, аналізуючи електромагнітні сигнали пристроїв, на яких вони працюють.

 

Техніка, продемонстрована на Google Edge TPU, дозволяє з точністю 99,91% відтворити архітектуру та функціональність ШІ-моделі, навіть не маючи попередніх знань про її характеристики.

 

Як інформує УМ, про це пише видання SciTechDaily.

 

Метод базується на моніторингу змін в електромагнітному полі під час роботи моделі. Зібрані сигнали порівнюються з базою даних, що містить підписи інших моделей. Таким чином, дослідники покроково відтворюють шари ШІ, використовуючи електромагнітні «підписи» кожного з них. Це дозволяє створити копію моделі без прямого доступу до неї.

 

Техніка працює на багатьох пристроях за умови, що зловмисник має доступ до пристрою під час роботи ШІ-моделі та до іншого пристрою з аналогічними характеристиками. У демонстрації використовували комерційний чіп Google Edge TPU, який широко застосовується в пристроях кінцевих користувачів.

 

Вразливість не лише ставить під загрозу інтелектуальну власність, а й може відкрити доступ до вразливостей моделей, що дозволить стороннім особам проводити атаки. Автори закликають розробників до впровадження захисних заходів, щоб убезпечити моделі від такого роду атак.

 

 

Робота, яка підтримувалася Національним науковим фондом США, була представлена на конференції з криптографічного обладнання та вбудованих систем. Дослідники також повідомили компанію Google про виявлену вразливість.

 

Як повідомляла УМ, Сучасні можливості штучного інтелекту.