Бесплатно Экспресс-аудит сайта:

01.02.2025

Эффект DeepSeek: как Китай взломал код успеха американского ИИ

Китайские компании активно развивают крупные языковые модели (LLM), конкурируя с западными лидерами, несмотря на санкции и ограничения на доступ к мощным чипам Nvidia. Недавний релиз модели DeepSeek R1 стал значимым событием для индустрии, продемонстрировав способность Китая создавать мощные ИИ-решения при значительно меньших затратах.

Разработчики DeepSeek утверждают, что обучение их модели обошлось всего в 5,6 миллиона долларов, что в разы меньше, чем суммы, которые тратят на разработку OpenAI , Google и Anthropic. Хотя некоторые эксперты поставили под сомнение эту сумму, утверждая, что реальные затраты были выше, эффект от выхода модели R1 оказался потрясающим — ведущие западные компании в сфере ИИ потеряли миллиарды долларов в капитализации .

Но DeepSeek — не единственный игрок на китайском рынке, и успех R1 запустил череду анонсов от других местных разработчиков. Компании Alibaba, ByteDance, Baidu и Tencent представили обновления своих LLM-моделей, заявляя об их превосходстве по ряду ключевых показателей.

Alibaba: Qwen2.5 — ставка на визуальные способности

Alibaba представила Qwen2.5-VL и Qwen2.5-Max, которые, по заявлениям компании , превосходят DeepSeek V3 в тестах Arena-Hard, LiveBench, LiveCodeBench и GPQA-Diamond. Модель Qwen2.5-VL получила усовершенствованные способности в области распознавания изображений, интеллектуальной собственности и анализа сложных диаграмм.

Интересной особенностью Qwen2.5-VL стала интеграция агентных функций, позволяющих взаимодействовать с компьютерами и смартфонами напрямую.

ByteDance: Doubao-1.5-pro и новый подход к обучению

ByteDance, владелец TikTok, запустил Doubao-1.5-pro , который демонстрирует успех в математике и программировании. Компания утверждает, что модель превосходит OpenAI o1 по тесту AIME, который оценивает способность моделей к многошаговому математическому рассуждению.

Для оптимизации работы Doubao-1.5-pro использует архитектуру Mixture of Experts (MoE). Такой подход позволяет задействовать лишь часть параметров при каждом обращении, что делает модель значительно более экономичной в работе. ByteDance утверждает, что их модель в 5 раз дешевле DeepSeek и в 200 раз дешевле OpenAI o1, что делает её одной из самых эффективных по соотношению затрат и мощности.

Tencent: крупнейшая открытая модель и генерация 3D-объектов

Tencent в ноябре представила три новых модели семейства Hunyuan , среди которых Hunyuan-MoE-A52B — крупнейшая открытая MoE-модель с 389 миллиардами параметров. Компания заявляла о превосходстве над DeepSeek и Meta LLama 3.1-405B в области понимания естественного языка, логических рассуждений и решения вопросов на основе знаний.

Недавно Tencent анонсировала Hunyuan3D 2.0 — обновлённую систему 3D-генерации, позволяющую создавать трёхмерные объекты из 2D-изображений. Компания заявила, что её модель превосходит предыдущие решения по точности геометрии, качеству текстур и соответствию оригиналу.

Baidu: 300 миллионов пользователей и планы на развитие

Baidu, один из первых китайских разработчиков LLM, в 2024 году представил Ernie 4.0, который возглавил рейтинг китайских моделей по версии университета Цинхуа. Однако эксперты отметили, что по таким критериям, как программирование и логическое рассуждение, модели OpenAI и Anthropic остаются лидерами.

В июне Baidu выпустила Ernie 4.0 Turbo — версию с ускоренным откликом и улучшенными аналитическими возможностями. Компания также продолжает развивать свою платформу PaddlePaddle 3.0, но пока не представила новых LLM в 2024 году. Тем не менее, у компании уже более 300 миллионов пользователей, что делает её одной из самых популярных китайских платформ ИИ.

Запад больше не лидер?

До недавнего времени китайские компании считались отстающими в разработке ИИ из-за ограничений на импорт передовых процессоров Nvidia, необходимых для обучения LLM. Однако новые подходы, такие как MoE, позволяют оптимизировать процесс обучения, снижая затраты без значительного ухудшения качества.

Факт, что китайский стартап смог создать мощную LLM всего за 5,6 млн долларов , поставил под сомнение необходимость миллиардных вложений, которые делают западные компании. Вопрос теперь не в том, сможет ли Китай догнать OpenAI, а в том, насколько быстро он сможет обойти западных конкурентов.