DOBERMANN
Гай Ричи
MrLoot
Frank Vinci
atmservice
probiv

СМИ Найден способ защитить искусственный интеллект от атак

GLOV

Авторитет
Проверенный продавец

GLOV

Авторитет
Проверенный продавец
Статус
Offline
Регистрация
22 Июн 2018
Сообщения
1,506
Реакции
13
Покупки через Гарант
0
Продажи через Гарант
0
Специалисты из Массачусетского технологического института (MIT) и Иллинойсского университета в Урбане-Шампейне нашли способ защитить искусственный интеллект (ИИ) от атак.
Одной из наиболее сложных и нерешённых проблем в глубоком обучении является уязвимость систем к состязательным атакам. Они могут заставить систему выполнять задачи совершенно неправильно. То есть, по сути, состязательная атака — это способ обмануть нейросеть. Можно, например, добавить какой-нибудь стикер на знак «Стоп», и автопилот на машине воспримет его как другой знак.

Большинство таких атак фокусируются на системах распознавания изображений, но могут затрагивать и системы восстановления изображений, основанные на глубоком обучении.
Специалисты предложили новый метод обучения таких систем. Метод позволяет как бы «натравливать» друг на друга нейронные сети, ответственные за восстановление изображения, и те, что ответственны за генерацию состязательных примеров (намеренно изменённых версий исходных входных данных). Вторые нейросети пытаются обмануть первые, благодаря этому система восстановления изображений становится более гибкой и устойчивой к ошибкам.
 
Сверху