- Статус
- Offline
- Регистрация
- 22 Июн 2018
- Сообщения
- 1,506
- Реакции
- 13
- Покупки через Гарант
- 0
- Продажи через Гарант
- 0
Специалисты из Массачусетского технологического института (MIT) и Иллинойсского университета в Урбане-Шампейне нашли способ защитить искусственный интеллект (ИИ) от атак.
Одной из наиболее сложных и нерешённых проблем в глубоком обучении является уязвимость систем к состязательным атакам. Они могут заставить систему выполнять задачи совершенно неправильно. То есть, по сути, состязательная атака — это способ обмануть нейросеть. Можно, например, добавить какой-нибудь стикер на знак «Стоп», и автопилот на машине воспримет его как другой знак.
Большинство таких атак фокусируются на системах распознавания изображений, но могут затрагивать и системы восстановления изображений, основанные на глубоком обучении.
Специалисты предложили новый метод обучения таких систем. Метод позволяет как бы «натравливать» друг на друга нейронные сети, ответственные за восстановление изображения, и те, что ответственны за генерацию состязательных примеров (намеренно изменённых версий исходных входных данных). Вторые нейросети пытаются обмануть первые, благодаря этому система восстановления изображений становится более гибкой и устойчивой к ошибкам.
Одной из наиболее сложных и нерешённых проблем в глубоком обучении является уязвимость систем к состязательным атакам. Они могут заставить систему выполнять задачи совершенно неправильно. То есть, по сути, состязательная атака — это способ обмануть нейросеть. Можно, например, добавить какой-нибудь стикер на знак «Стоп», и автопилот на машине воспримет его как другой знак.
Большинство таких атак фокусируются на системах распознавания изображений, но могут затрагивать и системы восстановления изображений, основанные на глубоком обучении.
Специалисты предложили новый метод обучения таких систем. Метод позволяет как бы «натравливать» друг на друга нейронные сети, ответственные за восстановление изображения, и те, что ответственны за генерацию состязательных примеров (намеренно изменённых версий исходных входных данных). Вторые нейросети пытаются обмануть первые, благодаря этому система восстановления изображений становится более гибкой и устойчивой к ошибкам.