07.01.2024 | NIST: Если кто-то пытается продать вам безопасный искусственный интеллект, то это подделка |
Системы искусственного интеллекта, несмотря на явную новизну технологии, уже проникли в современное общество, работая в различных областях — от управления транспортных средств до помощи врачам в диагностике заболеваний и взаимодействия с клиентами в качестве онлайн чат-ботов. Чтобы научиться выполнять эти задачи, они обучаются на огромных объёмах данных. Однако одна из основных проблем заключается в том, что эти самые данные могут быть ненадёжными. У злоумышленников есть множество возможностей испортить их — как во время периода обучения ИИ-системы, так и уже после этого. Национальный институт стандартов и технологий США ( NIST ) выпустил перечень рекомендаций по противодействию кибератакам, направленным на манипулирование поведением ИИ-систем. Каждый тип подобного рода атаки был подробно рассмотрен в отдельной научной работе под названием « Враждебное машинное обучение: таксономия и терминология атак и средств их устранения ». Итак, исследователи выделили следующие типы атак, способных манипулировать работой ИИ-систем:
«Большинство из этих атак довольно легко организовать. Они требуют минимальных знаний о системе искусственного», — объяснила соавтор исследования Алина Опреа, профессор Северо-Восточного университета США. Для смягчения угроз, связанных с манипуляцией ИИ-системами, эксперты NIST рекомендуют комплексный подход, включающий тщательное тестирование и непрерывное обновление ИИ-систем, постоянный мониторинг входных данных и реакций системы, разработку специализированных алгоритмов для обнаружения атак, создание многоуровневой защиты и резервных систем, активное сотрудничество с экспертным сообществом для обмена знаниями и информацией о новых угрозах, а также повышение осведомлённости и обучение персонала, работающего с ИИ. Эти меры направлены на минимизацию рисков и усиление устойчивости ИИ-систем как к вышеописанным, так и к прочим формам манипулятивных атак. Отчёт NIST не только раскрывает потенциальные риски, связанные с эксплуатацией ИИ, но и стимулирует разработчиков и исследователей к поиску новых, более эффективных способов защиты. Это, в свою очередь, способствует развитию более безопасного цифрового пространства, в котором ИИ сможет служить обществу без угрозы манипуляций и злоупотреблений извне, сохраняя при этом целостность и конфиденциальность обрабатываемых данных. |
Проверить безопасность сайта