Бесплатно Экспресс-аудит сайта:

01.11.2024

Прогресс или катастрофа: доверят ли ИИ ядерную кнопку США?

Генерал ВВС США Энтони Дж. Коттон рассказал о важной роли искусственного интеллекта (ИИ) в управлении ядерным арсеналом страны. Коттон объяснил, что разрабатываются системы поддержки принятия решений, основанные на ИИ, которые помогут лидерам США быстрее реагировать на критические ситуации. Генерал подчеркнул, что технологии ИИ помогут лучше справляться со сложными задачами и усилят национальную безопасность.

Внедрение ИИ в военные системы США идёт быстро, так же, как и в коммерческих отраслях, например, в Кремниевой долине. Однако конкретные детали использования ИИ в армии остаются секретными, что вызывает много вопросов. Генерал Коттон, возглавляющий STRATCOM, подтвердил, что модернизация ядерных систем станет одним из главных приоритетов. В ближайшие десятилетия на обновление инфраструктуры будет потрачено $1,7 трлн, причём важную роль в этом процессе сыграет ИИ, который поможет автоматизировать управление ядерным арсеналом.

По словам генерала, ИИ и современные методы обработки данных значительно повысят эффективность работы ядерных систем и уровень сдерживания потенциальных угроз. Он также подчеркнул, что, несмотря на новые технологии, окончательное решение всегда останется за человеком. ИИ станет «множителем силы» — машина ускорит анализ информации, но критические решения будут приниматься людьми.

Отраслевые эксперты считают, что ИИ предназначен для анализа данных, а не для непосредственного запуска ракет. По мнению специалистов, ИИ будет, например, собирать и анализировать данные со спутников, чтобы определять возможные угрозы. Однако и тут есть риски, так как в истории уже были случаи, когда автоматические системы ошибались, и только благодаря человеку удавалось избежать катастрофы.

Например, в 1956 году система ошибочно приняла стаю птиц за вражеский самолёт, а в 1960 году восход луны был воспринят как ракетный удар. Такие инциденты показывают, насколько важно, чтобы человек понимал, как функционируют системы и мог своевременно отличить сбой от реальной угрозы.

ИИ в ядерных системах также имеет свою тёмную сторону. Модель обучения ИИ зачастую является своеобразным «чёрным ящиком», и трудно предсказать все возможные ошибки, которые могут возникнуть в критических ситуациях. Специалисты отмечают, что для использования ИИ на таком уровне требуется серьёзная подготовка персонала, способного выявлять ошибки и понимать, как они могут влиять на выводы, сделанные системой. Недостаточная квалификация в работе с ИИ может привести к фатальным последствиям, если автоматическая система выдаст ошибочные данные.

Генерал Коттон отметил, что Пентагон испытывает дефицит специалистов, которые смогут правильно внедрить и управлять ИИ в ядерных системах. Привлечь таких сотрудников в условиях конкуренции с коммерческими компаниями, предлагающими более высокие зарплаты, крайне сложно, но сама работа с уникальными технологиями является сильным стимулом для таких специалистов.