Искусственный интеллект научился обманывать

25.02.2020 16:28

Американские инженеры из Массачусетского технологического института применили необычную способность по отношению к ИИ.

Они научили систему возможности вводить в сознательное заблуждение другие аналогичные технологии.

Для этого специалистам пришлось научить ИИ распознавать текст после замены определенного слова на синоним.

Интеллект

Практически специалисты внедрили методику для обмана, которая анализирует текст искусственного интеллекта с целью замены слов синонимами, чтобы обмануть распознающий текст ИИ.

Тонкость в том, что для подбора таких синонимов атакующий алгоритм сам вынужден прибегать за помощью к искусственному разуму.

В качестве примера специалисты использовали одну фразу, которая звучит так:

«Персонажи, которые были сыграны в невероятно надуманных обстоятельствах, совершенно далеки от реальности».

Эта фраза была взята из негативных отзывов к одному фильму.

Далее исследователи заменили в ней слова синонимами, что позволило читать фразу следующим образом:

«Персонажи, которые были сыграны в невероятно искусных обстоятельствах, совершенно далеки от реальности».

В результате такой интерпретации ИИ счел данный отзыв о той же картине положительным.

Как утверждают инженеры, вводить в заблуждение можно системы ИИ и других типов.

Но в этом случае специалисты продемонстрировали уязвимости в технологиях распознавания изображений и речи.

Ученые отмечают, что искусственный интеллект добился значительных успехов в понимании языка.

Но в то же время он остается уязвимым из-за потенциально опасной разновидности так называемой «синонимической близорукости».

Представленный учеными алгоритм получил название TextFooler.

Ему под силу обмануть систему ИИ без внесения изменений в суть исследуемого текста.

Данный алгоритм разработан на специальной системе, которая определяет, какие слова следует преобразовать в синонимы.

В будущем этот лексикон может применяться для обмана искусственного интеллекта.

Исследователи видят в этой уязвимости серьезную проблему для безопасности в будущем.

Дело в том, что системы ИИ теперь все чаще применяются для оценки резюме, медицинских показаний и прочей обработки документов, как юридического, так и любого другого характера.

Например, злоумышленники, допустив подобные изменения в тексте, могут позволить «фейковым» новостям уклониться от редактора, работающего на основе ИИ.

В повседневной ситуации такая ошибка может повлиять на предоставление более высоких выплат по страховым случаям и так далее.

Вполне возможно, что такие незначительные искажения данных могут обернуться для ИИ атакой на систему.

Как предполагаемые сферы, которые могут быть в будущем атакованы с применением такой уязвимости системы, эксперты в первую очередь называют финансовый сектор и область здравоохранения.

Логично, что после того, как исследователи смогли обмануть обученную систему с помощью другого искусственного интеллекта, стоит ожидать появления алгоритма, который смог бы противостоять такому обману.

Фото: Pixabay

Игорь Зур Автор: Игорь Зур Редактор интернет-ресурса