21.09.2024 | ООН бьет тревогу: успеет ли мир обезопасить себя от рисков ИИ? |
В четверг, 19 сентября, был опубликован доклад группы экспертов ООН, в котором содержится важное предостережение: развитие искусственного интеллекта не должно подчиняться исключительно законам рынка. Авторы документа настаивают на необходимости создания инструментов для международного сотрудничества в этой сфере. По мнению специалистов, крайне важно разработать эффективные механизмы регулирования технологии, которая стремительно меняет облик нашего мира. Команда из 40 профессионалов, среди которых специалисты в области технологий, юриспруденции и защиты данных, была собрана по инициативе Генерального секретаря ООН Антониу Гутерриша в октябре прошлого года. В их докладе, увидевшем свет накануне масштабного "Саммита будущего" ООН, говорится: мировое сообщество до сих пор не выработало единого подхода к управлению ИИ, а развивающиеся страны фактически исключены из дискуссий о будущем этой отрасли. "Сегодня мы наблюдаем явный дефицит глобального управления в сфере ИИ", – предостерегают эксперты, указывая на трансграничную природу машин. Гутерриш, в свою очередь, подчеркнул: "ИИ должен служить человечеству на принципах справедливости и безопасности. Если мы упустим контроль, риски, связанные с искусственным интеллектом, могут нанести серьезный удар по демократии, миру и стабильности". Чтобы упростить глобальное сотрудничество, авторы доклада предлагают создать в рамках секретариата ООН гибкую координационную структуру. "Нельзя допустить, чтобы разработка, внедрение и использование столь мощной технологии зависели исключительно от прихотей рынка", – гласит документ. Первым шагом, по мнению экспертов, должно стать формирование группы ученых, специализирующихся на ИИ, по образу и подобию Межправительственной группы экспертов по изменению климата (МГЭИК). Эта команда будет держать мировое сообщество в курсе возникающих угроз, определять приоритетные направления исследований и изучать потенциал ИИ в борьбе с такими глобальными вызовами, как голод, бедность и гендерное неравенство. Интересно, что, предлагая создать научную группу, авторы воздерживаются от призывов к немедленному формированию полномасштабного международного регулирующего органа. Такую идею ранее выдвигал Генеральный секретарь ООН Гутерриш, имея в виду структуру, подобную Международному агентству по атомной энергии (МАГАТЭ). Вместо этого авторы доклада занимают более осторожную позицию, отмечая: "Если риски, связанные с ИИ, обострятся, государствам-членам, возможно, придется задуматься о создании более мощного международного института с полномочиями по мониторингу, отчетности, проверке и правоприменению". Эксперты признают, что из-за молниеносного развития ИИ попытки составить исчерпывающий перечень связанных с ним опасностей обречены на провал. Тем не менее, они выделяют ряд основных угроз: распространение дезинформации, подрывающей устои демократии, появление все более реалистичных дипфейков (особенно порнографического характера), разработка автономного оружия и использование ИИ криминальными и террористическими группировками. Идея создания группы научных экспертов по ИИ уже нашла отражение в проекте Глобального цифрового пакта, который все еще находится на стадии обсуждения и должен быть принят в воскресенье на "Саммите будущего". Это решение может стать поворотным моментом на пути к глобальному регулированию искусственного интеллекта и обеспечению его безопасного и справедливого развития во благо всего человечества. |
Проверить безопасность сайта