25.02.2025 | Операция Peer Review: Chatgpt использовали для международного шпионажа |
Компания OpenAI заблокировала ряд аккаунтов , использовавших ChatGPT для создания потенциально вредоносного инструмента слежки на базе искусственного интеллекта. По данным исследователей, этот инструмент, ориентированный на мониторинг социальных сетей, вероятно, был разработан в Китае и использовал для работы одну из моделей Meta Llama. Анализ показал, что заблокированные аккаунты применяли возможности ChatGPT для генерации детализированных описаний и анализа документов, способствуя созданию системы, собирающей в реальном времени данные о протестах против Китая на Западе. Затем информация передавалась китайским властям. Кампания получила кодовое название Peer Review из-за систематического продвижения и тестирования технологий слежки. В рамках расследования OpenAI выявила использование ChatGPT для отладки и модификации исходного кода системы, известной как «Qianyue Overseas Public Opinion AI Assistant». Этот инструмент анализировал публикации и комментарии на таких платформах, как X*, Facebook**, Instagram**, YouTube, Telegram и Reddit, отслеживая упоминания протестных движений и другие чувствительные темы. Кроме того, злоумышленники использовали ChatGPT для сбора открытых данных об аналитических центрах США, политических деятелях Австралии, Камбоджи и Соединённых Штатов, а также для перевода и анализа документов, содержащих информацию о протестах уйгуров. Подлинность некоторых скриншотов, загруженных в систему, остаётся под вопросом. Помимо этого, OpenAI обнаружила и пресекла работу нескольких других сетей, использовавших ChatGPT для противоправных действий: — Мошенническая схема трудоустройства. Группа, связанная с Северной Кореей, использовала нейросеть для создания поддельных резюме, профилей и писем о приёме на работу в рамках схемы обмана IT-компаний. — Пропаганда в Латинской Америке. Китайская сеть распространяла антиамериканские статьи на английском и испанском языках, размещая их на сайтах в Перу, Мексике и Эквадоре. Часть активности совпадает с ранее известной кампанией Spamouflage. — Романтические мошенничества. Связанная с Камбоджей группа создавала комментарии на японском, китайском и английском языках для мошеннических схем с инвестициями и романтическими аферами. — Проиранская пропаганда. Сеть из пяти аккаунтов публиковала материалы в поддержку Палестины, ХАМАС и Ирана, выступая против США и Израиля. Некоторые аккаунты одновременно обслуживали несколько кампаний. — Киберпреступность в Северной Корее. Группы Kimsuky и BlueNoroff использовали ChatGPT для изучения атакующих инструментов, связанных с криптовалютами, и отладки кода для брутфорса RDP. — Информационные манипуляции в Гане. Сеть публиковала статьи и комментарии, влияя на выборы в Гане через англоязычный сайт «Empowering Ghana». — Мошенничество с заданиями. Камбоджийская сеть заманивала людей на мошеннические задания (например, накрутка лайков и написание отзывов за деньги), требуя предоплату для участия. Инцидент наглядно показывает, что искусственный интеллект уже давно стал эффективным инструментом для проведения кибератак, распространения дезинформации и манипулирования общественным мнением. Недавний отчёт Google Threat Intelligence Group подтвердил, что как минимум 57 групп, связанных с Китаем, Ираном и Северной Кореей, уже используют ИИ для различных этапов атак, включая генерацию контента и анализ информации. OpenAI подчёркивает, что совместная работа ИИ-компаний, соцсетей, хостинговых провайдеров и исследователей помогает обнаруживать угрозы и разрабатывать механизмы защиты от злоупотребления искусственным интеллектом. Такая координация позволяет своевременно выявлять злоумышленников и существенно ограничивать их влияние. * Социальная сеть запрещена на территории Российской Федерации. |
Проверить безопасность сайта