09.08.2024 | ИИ-компании проваливают обещания защитить выборы |
В феврале на Мюнхенской конференции по безопасности ведущие компании в области искусственного интеллекта взяли на себя обязательства по защите выборов от вредных воздействий ИИ. Событие было воспринято как значительная победа в деле защиты демократических систем. Однако спустя полгода политики и эксперты утверждают, что, несмотря на выполнение некоторых из обязательств, компании не смогли полностью реализовать свои обещания и недостаточно прозрачно освещают предпринимаемые шаги. Сенатор Марк Уорнер, председатель сенатского комитета по разведке, получил письма от OpenAI , Microsoft, Google, Amazon, TikTok , Meta* и X**, в которых компании описывают свой прогресс в создании систем для идентификации и маркировки синтетического контента, а также в ограничении использования их технологий в контексте выборов. Письма демонстрируют некоторые достижения, но Уорнер считает, что этого недостаточно. Сенатор выразил разочарование по поводу того, что лишь немногие компании предоставили пользователям четкие механизмы отчетности и восстановления в случаях злоупотребления технологиями для имитации личности. В письмах компаний не хватает детализированных планов, ресурсов для обеспечения соблюдения правил и измеримых воздействий на распространение политической дезинформации, созданной ИИ. Также подчеркивается отсутствие количественных данных, подтверждающих эффективность принятых мер. По мнению экспертов, компании только создают видимость действий без реального воздействия на избирателей и пользователей. Несмотря на усилия компаний по предотвращению использования их технологий для подрыва выборов, ИИ-контент, предназначенный для введения избирателей в заблуждение, наводнил интернет и соцсети. Тем не менее, компании продолжают работать над совершенствованием алгоритмов обнаружения и маркировки контента, сотрудничая с организациями по проверке фактов, местными и государственными органами власти, а также с такими инициативами, как Coalition for Content Provenance and Authenticity (C2PA) и AI Safety Institute . OpenAI, например, сообщила о внедрении стандарта C2PA для отслеживания происхождения синтетического медиаконтента. TikTok планирует внедрить «учетные данные контента», чтобы идентифицировать измененные видео и автоматически маркировать такой контент. Кроме того, TikTok запрещает платную политическую рекламу и не позволяет политикам или партиям монетизировать свои аккаунты. Компания также запрещает использование генеративного ИИ для введения людей в заблуждение относительно одобрений. Аналогичным образом Meta увеличивает обнаружение и маркировку ИИ-контента. Компания также работает над Stable Signature, своей технологией водяных знаков. Рекламодателям, использующим такую технологию, возможно, придется раскрывать ее использование в политической рекламе. Однако водяные знаки и метаданные пока не в полной мере защищают от ИИ-подделок, что подчеркивает необходимость более широкого обмена информацией в отрасли для точного выявления ИИ-контента. Многие компании также отмечают проблемы с идентификацией ИИ-контента. Технологический прогресс не способен полностью решить более крупные проблемы, такие как сокращение команд по обеспечению доверия и безопасности, слабое выполнение политик против дезинформации и импульсивные действия ключевых лиц. Пока компании разрабатывают или внедряют технологии обнаружения и водяные знаки, проблема заключается в том, что эти методы еще не достигли высокой эффективности. Даже лучшие технологии обнаружения подделок и все более строгие правила модерации контента могут оказаться бессмысленными, если руководство компании или владелец будут распространять подделки среди миллионов пользователей без должного контекста. Полный список компаний, которые предоставили свои ответы: Adobe , Amazon , Anthropic , Arm , Google , IBM , Intuit , LG , McAfee , Microsoft , Meta , OpenAI , Snap , Stability AI , TikTok , Trend Micro , True Media , Truepic , и X . * Компания Meta и её продукты признаны экстремистскими, их деятельность запрещена на территории РФ. |
Проверить безопасность сайта