29.01.2024 | ИИ и законы кремния: микросхемы помогут спасти человечество от восстания умных машин |
Даже самые продвинутые алгоритмы искусственного интеллекта в конечном счете вынуждены подчиняться законам кремния. Их возможности ограничены железом, на котором они запущены. Многие исследователи уже задавались вопросом : как использовать эту зависимость, чтобы сдержать потенциальную опасность систем ИИ? Пока что самая оптимальная идея - внедрить правила обучения и применения передовых технологий прямо в микросхемы компьютеров. Теоретически, это могло бы стать действенным препятствием на пути создания опасного ИИ, разрабатываемого тайно отдельными странами или безответственными компаниями. И такой барьер было бы куда сложнее преодолеть, нежели обычные законы или договоры. Некоторые микросхемы уже содержат компоненты, предназначенные для защиты конфиденциальных данных и предотвращения злоупотреблений. Последние iPhone, к примеру, хранят биометрические данные пользователя в специальном защищенном отделе. Компания Google использует особый чип в своих облачных серверах, чтобы гарантировать их целостность. В недавнем докладе влиятельного американского аналитического центра, "Center for a New American Security", прозвучала идея задействовать аналогичный подход, интегрировав специальные компоненты непосредственно в графические процессоры или микросхемы будущего поколения. Это позволило бы запретить доступ проектов в сфере ИИ к мощным вычислительным ресурсам без получения лицензии. Учитывая, что для обучения наиболее сложных моделей требуются колоссальные вычислительные мощности, такие ограничения сузили бы круг тех, кто в потенциале мог бы использовать технологию во вред. Лицензии могли бы выдавать правительство или международный регулятор. А срок действия такого документа ученые предлагают ограничить. "Можно разработать протоколы, согласно которым запуск модели разрешался бы только тем компаниям, которые пройдут проверку безопасности и получат достаточно высокую оценку".- поясняет один из авторов исследования. Ряд экспертов в области ИИ опасаются, что по мере развития умных машин они могут однажды выйти из-под контроля и стать угрозой для всех существующих систем и человечества в целом. По мнению некоторых, опасность представляют даже нынешние модели, которые теоретически можно применить для создания оружия массового поражения или автоматизации киберпреступности. Разработка и внедрение аппаратных ограничителей для ИИ, вероятно, окажется непростой технической и политической задачей. Потребуются новые криптографические схемы и, возможно, новые функции в чипах. Они должны быть приемлемы для индустрии и достаточно сложны в обходе для потенциальных нарушителей. Правительство США уже проявило интерес к этой идее. В прошлом году Министерство торговли США объявило, что ищет проекты технологий, которые могли бы ограничивать функциональность ИИ на уровне микрочипов. |
Проверить безопасность сайта