23.06.2023 | Норвежский совет по защите прав потребителей призвал к регулировке генеративных нейросетей |
Норвежский совет по защите прав потребителей ( Forbrukerradet ), являющийся государственным органом, на днях опубликовал отчёт , в котором предупреждает о рисках генеративного искусственного интеллекта и призывает политиков и регуляторов не доверять технологическим гигантам в обеспечении должного уровня безопасности и надёжности этой технологии. «Мы должны гарантировать, что разработка и использование генеративного ИИ будет безопасным, надёжным и справедливым. К сожалению, история показала, что мы не можем полагаться на то, что крупные технологические компании сами решат эту проблему», — заявил Финд Мирстад, директор по цифровой политике Норвежского совета по защите прав потребителей. К призыву присоединились 14 других организаций по защите прав потребителей из Европы и США на фоне сообщений о том, что OpenAI , компания, стоящая за чат-ботом ChatGPT , активно лоббирует европейских чиновников с целью ослабить законодательный акт ЕС об ИИ. «Очень важно, что Евросоюз сделает законодательный акт об искусственном интеллекте максимально непроницаемым для защиты потребителей от вредных применений этой технологии», — сказала Урсула Пахль, заместитель генерального директора Европейской организации потребителей. Она также добавила: «Мы призываем институты ЕС противостоять мощному лоббированию крупных технологических компаний, которые пытаются подорвать безопасность в будущем законе». Пока законодательный акт ЕС об ИИ не вступит в силу и не будет создана международная рамка регулирования ИИ, национальные органы должны действовать и применять существующее законодательство в области защиты данных, безопасности и прав потребителей, заявили представители потребительских групп. «Компании не могут быть освобождены от существующих регулирований ЕС, а потребители не должны вводиться в заблуждение только потому, что эта технология новая», — подчеркнула Пахль. В вышеупомянутом отчёте подчёркиваются риски генеративного ИИ, которые, по мнению Норвежского совета, не должны быть проигнорированы. Среди них — манипуляция, предвзятость, проблемы с конфиденциальностью, влияние на труд и т.п. Отчёт также предупреждает, что технологии искусственного интеллекта сконцентрированы в руках нескольких крупных технологических компаний, которые работаю непрозрачно и не несут должной ответственности. Норвежская организация также призывает к усилению защиты прав потребителей и разработке «всеобъемлющей» стратегии ИИ, основанной на жёстких принципах для использования генеративного ИИ в публичном секторе. «Данная технология не является абсолютно неконтролируемой силой. Она должна быть адаптирована и структурирована в соответствии с основными правами и ценностями общества», — подытожил Финд Мирстад. Технологические компании постоянно соревнуются в интеграции ИИ в свои сервисы. Тем не менее, они часто высказывают свои собственные опасения по поводу работы ИИ. Так, OpenAI в своё время рекомендовала Microsoft повременить с интеграцией языковой модели GPT-4 в Bing, а Google советует своим сотрудникам не раскрывать конфиденциальную информацию чат-боту Bard , а также не использовать во внутренних проектах компании код, сгенерированный этой нейросетью. |
Проверить безопасность сайта