21.12.2024 | Тёмная сторона ИИ: как хакеры обходят любую защиту |
Согласно новому отчёту компании Malwarebytes , киберпреступники активно используют возможности искусственного интеллекта (ИИ) и крупных языковых моделей ( LLM ) для создания новых схем обмана, которые способны обходить большинство систем кибербезопасности. Примером такой активности стала фишинговая кампания, направленная на пользователей Securitas OneID. Злоумышленники запускают рекламу в Google, маскируя её под легитимные объявления. Когда пользователь кликает на такую рекламу, он перенаправляется на так называемую «белую страницу» — специально созданный сайт, не содержащий видимого вредоносного контента. Эти страницы выступают в роли отвлекающего манёвра, предназначенного для обхода автоматических систем защиты Google и других платформ. Суть атаки заключается в том, что реальные цели фишинга остаются скрытыми, пока пользователь не выполняет определённые действия или пока система безопасности не завершает проверку. «Белые страницы», созданные с помощью ИИ, содержат текст и изображения, которые выглядят правдоподобно, включая сгенерированные лица якобы «сотрудников компании». Это делает их ещё более убедительными и сложными для обнаружения. Ранее преступники использовали украденные изображения из соцсетей или стоковые фото, но теперь автоматическая генерация контента позволяет быстрее адаптировать такие атаки и создавать уникальные страницы для каждой кампании. Другой случай связан с программой удалённого доступа Parsec, популярной среди геймеров. Злоумышленники создали «белую страницу» с отсылками к вселенной Star Wars, включая оригинальные постеры и дизайн. Этот контент не только вводит в заблуждение системы защиты, но и выглядит интересно для потенциальных жертв. Использование ИИ позволяет преступникам с лёгкостью обходить проверки. Например, при валидации рекламы Google видит только невинные «белые страницы», не вызывающие подозрений. Однако для реальных пользователей, знакомых с контекстом, такие страницы нередко выглядят несерьёзно и могут быть легко разоблачены. В ответ на растущее применение ИИ в преступных схемах некоторые компании уже создают инструменты, способные анализировать и выявлять сгенерированный контент. Однако проблема остаётся острой: универсальность и доступность ИИ делают его привлекательным инструментом в руках злоумышленников. Ситуация подчёркивает важность человеческого вмешательства в процессы анализа данных. То, что для машинного алгоритма может казаться нормальным, часто сразу бросается в глаза человеку как подозрительное или просто нелепое. Такой баланс между технологиями и человеческим опытом остаётся ключевым элементом в борьбе с цифровыми угрозами. |
Проверить безопасность сайта