09.05.2023 | Голосовое мошенничество с помощью искусственного интеллекта набирает обороты |
Компания McAfee провела исследование , в котором выяснила, что технологии искусственного интеллекта всё чаще используются для клонирования голосов людей и обмана их близких. В прошлом месяце мы подробно рассказывали об одном из таких случаев, рассмотрим же теперь общую статистику. Исследователи McAfee опросили чуть более 7 тысяч человек из разных стран, около 25% из которых заявили, что уже сталкивались с голосовым мошенничеством . Из них 77% потеряли деньги в результате хитроумного обмана. Кроме того, специалисты проанализировали доступность и эффективность инструментов для клонирования голоса с помощью ИИ. В Интернете было обнаружено свыше десятка бесплатных программ, абсолютно не требующих большого опыта или знаний для использования. А в одном из протестированных инструментов было достаточно аудиосемпла длительностью всего в три секунды для копирования голоса с точностью в 85%. Голос является уникальным идентифицирующим признаком каждого человека. В телефонных звонках доверие между знакомыми собеседниками моментально устанавливается, если они слышат и узнают голос друг друга. Однако с ростом популярности ИИ, такой фундаментальной вещью, как доверие, стало куда проще манипулировать. Мошенники используют ИИ для клонирования голоса и затем отправляют поддельные голосовые сообщения или звонят контактам жертвы, в реальном времени притворяясь, что им нужна помощь. При этом 70% респондентов, принявших участие в исследовании McAfee, не уверены, что они смогли бы отличить подделку от настоящего голоса, особенно если звонящий мошенник притворяется не самым близким знакомым жертвы. 45% опрошенных сказали, что ответили бы на сообщение от друга или родственника, нуждающегося в деньгах, особенно если бы они подумали, что это их вторая половинка (40%), родитель (31%) или ребёнок (20%). А самые вероятные причины для запроса помощи, которые назвали респонденты, — авария (48%), ограбление (47%), потеря телефона или кошелька (43%), проблемы за границей (41%). Так или иначе, цена ошибки может быть высокой: более трети пострадавших от голосового мошенничества респондентов потеряли более 1000 долларов, а 7% — от 5000 до 15000 долларов. Опрос также показал, что из-за распространения дипфейков и прочего рода дезинформации, люди стали более осторожны в отношении того, что они видят в интернете. 32% опрошенных заявили, что теперь они гораздо меньше доверяют социальным сетям. «Искусственный интеллект открывает невероятные возможности, но у любой технологии есть потенциал злоупотребления в неправильных руках. Это то, что мы видим сегодня: доступность и простота использования ИИ помогают киберпреступникам масштабировать свои действия всё более убедительными способами», — сказал Стив Гробман, технический директор McAfee. Гробман также дал несколько простых советов по защите от голосовых мошенничеств, которые явно пригодятся каждому. Это лишь дело времени, когда данный вид мошенничества полноценно доберётся и до нашей страны.
|
Проверить безопасность сайта