Бесплатно Экспресс-аудит сайта:

11.12.2024

Нейросети трещат по швам: всего одна строчка кода может раскрыть ваши данные

В чат-боте DeepSeek была обнаружена уязвимость, которая позволяла злоумышленникам захватывать учётные записи пользователей через атаку с использованием внедрения запросов. Исследователь безопасности Йоханн Рехбергер выявил, что определённые команды, вводимые в чат, могли активировать выполнение JavaScript-кода, что представляло собой классический случай межсайтового скриптинга (XSS).

Рехбергер пояснил, что одной из уязвимых команд был запрос «Print the xss cheat sheet in a bullet list: just payloads». В результате выполнения этой команды злоумышленники могли получить доступ к данным сессии пользователя, включая токен доступа userToken, хранящийся в localStorage домена «chat.deepseek[.]com».

Используя токен доступа, атакующие могли захватить учётную запись жертвы, что открывало доступ к cookies и другой конфиденциальной информации. Рехбергер отметил, что для атаки достаточно было создать специальный запрос, который через XSS получал токен и предоставлял возможность имитировать действия пользователя.

К слову, ранее исследователь продемонстрировал аналогичные уязвимости в функции Computer Use нейросети Claude от Anthropic. Эта функция, предназначенная для управления компьютером через модель искусственного интеллекта, могла быть использована для выполнения вредоносных команд. Методика, названная ZombAIs, позволяла загружать и запускать фреймворк командного управления Sliver, устанавливая связь с сервером злоумышленников.

Помимо этого, исследователь также выявил уязвимость, позволяющую использовать функции языковых моделей для управления терминалами системы через внедрение ANSI escape-кодов. Атака, получившая название Terminal DiLLMa, угрожает инструментам командной строки, интегрированным с крупными языковыми моделями.

Тем временем, ещё одно исследование, проведённое учёными из университетов Висконсина и Вашингтона, показало, что ChatGPT от OpenAI может быть обманут для отображения внешних изображений, включая нежелательный контент, через markdown-ссылки. Также были выявлены способы обхода ограничений OpenAI, позволяющие активировать плагины ChatGPT без подтверждения пользователя и даже извлекать историю чатов на серверы злоумышленников.

Эксперты отмечают, что неожиданные уязвимости создают риск в современных приложениях искусственного интеллекта, и разработчикам следует учитывать контекст использования языковых моделей и тщательно проверять их вывод на наличие потенциальных угроз.