Lead: Компания DeepSeek из Ханчжоу 1 декабря выпустила две новые открытые модели для рассуждений — DeepSeek-V3.2 и высокопроизводительную DeepSeek-V3.2-Speciale, которые, по заявлению компании, обеспечивают повседневную производительность уровня GPT-5 и «золотые» результаты на крупных математических и информационных олимпиадах.
Что выпустила DeepSeek и почему это важно
DeepSeek представила V3.2 как сбалансированную и эффективную модель для повседневного использования, а Speciale — как вариант, настроенный для максимальных возможностей рассуждений. Компания сообщает, что V3.2 теперь используется в её приложении, на сайте и в API, в то время как V3.2-Speciale временно доступна через отдельную API-точку.
Предыстория основания: DeepSeek была основана в 2023 году Лян Вэнфэном и финансируется квантовым хедж-фондом High-Flyer — происхождение, которое определяет ориентированный на эффективность и производительность подход компании.
Результаты бенчмарков и сравнение
DeepSeek опубликовала набор результатов бенчмарков по математическим и программным задачам. Вариант Speciale, по сообщениям, набрал 96,0% на AIME 2025, опередив GPT-5 High (94,6%) и немного превысив Gemini 3 Pro (≈95,0%). Компания заявляет о «золотом» уровне на множестве олимпиадных соревнований (IMO, IOI, ICPC World Finals, CMO). В тестах по программированию (SWE Verified) Speciale получил 73,1%, уступив показателю Gemini 3 Pro в 76,2%.
Краткая сравнительная таблица (выборочные бенчмарки)
| Бенчмарк / Соревнование | DeepSeek V3.2-Speciale | GPT-5 High | Gemini 3 Pro |
|---|---|---|---|
| AIME 2025 (процент прохождения) | 96.0% | 94.6% | 95.0% |
| HMMT 2025 | 99.2% | – | 97.5% |
| IMO 2025 (математическая олимпиада) | Gold (35/42) | – | – |
| IOI 2025 (информатика) | Gold (492/600) | – | – |
| ICPC World Finals 2025 | 2 место (10/12) | – | – |
| SWE-Verified (ошибки в коде) | 73.1% | 74.9% | 76.2% |
(Бенчмарки опубликованы DeepSeek и сторонними источниками; точные параметры входных данных и методологии оценки различаются.)
Технические новшества: эффективность + «мышление» при использовании инструментов
DeepSeek выделяет три технических улучшения в V3.2: механизм DeepSeek Sparse Attention (DSA) для удешевления обработки длинных контекстов, масштабируемую RL-систему и крупномасштабный пайплайн генерации агентных задач. Компания утверждает, что DSA может значительно снизить стоимость обработки длинных последовательностей при сохранении качества. V3.2 также включает режим «мышления», предназначенный для улучшения рассуждений при работе с инструментами (Speciale поддерживает только режим мышления и не допускает вызовов инструментов).
Доступ Speciale носит намеренно временный характер (через специальный базовый URL до 15 декабря 2025 года), позволяя исследователям протестировать высокопроизводительный вариант до его возможной интеграции в основную линейку.
Рыночный контекст: рост open-source в Китае и геостратегия
Релиз V3.2 выходит на фоне заметного роста активности в области открытых моделей в Китае. Последние исследования показывают, что доля загрузок китайских open-source моделей растёт (≈17% против ≈15,8% у американских), что объясняется быстрыми циклами релизов и спросом на модели, эффективно работающие на менее мощном железе. Эта тенденция рассматривается как сочетание технологического импульса и стратегической реакции на экспортный контроль США на передовые чипы.
Крупные китайские компании (например, серия Qwen от Alibaba) и небольшие исследовательские команды повышают планку в математических и логических бенчмарках; публикация DeepSeek усиливает конкуренцию, предлагая открытые веса и технические отчёты, на основе которых могут работать другие.
👉 Аналитика рынка AI-чатботов 2025: тренды, лучшие приложения и будущее отрасли
FAQ
В1: Открыта ли V3.2 и где её найти?
Да — код, карточки модели и технический отчёт опубликованы на Hugging Face и связанных репозиториях; DeepSeek также предоставляет API и документацию по V3.2 и точке Speciale.
В2: Означает ли «превосходство» над GPT-5, что DeepSeek сильнее во всём?
Нет — достижения сосредоточены на бенчмарках для рассуждений/математики/программирования. Другие области (мультимодальные инструменты, веб-поиск, устойчивость в открытых задачах) могут оставаться преимуществом у крупных проприетарных систем; ситуация зависит от конкретного бенчмарка и быстро меняется.
В3: Останется ли Speciale доступной?
Speciale временно доступна через выделенный API до 15 декабря 2025 года; компания заявляет, что её возможности позже будут интегрированы в стандартные модели.
Комментарий редакции
Анонс DeepSeek V3.2 важен по трём причинам: во-первых, он показывает, что точечная инженерия (DSA + генерация агентных задач) может дать значительные преимущества в задачах рассуждений при низкой стоимости; во-вторых, публикация открытых весов ускоряет эксперименты и сокращает разрыв между проприетарными и сообществом моделями; в-третьих, момент и масштаб анонса подчёркивают изменение ландшафта — китайские open-source модели теперь являются заметной силой в глобальных исследованиях и применении ИИ.
Что важно дальше: проверяемость и воспроизводимость. Заявления о бенчмарках значимы только при подтверждении независимыми командами по тем же правилам и наборам данных. Ожидается быстрый цикл внешних оценок. В стратегическом плане западные компании могут ускорить открытые релизы или усилить контроль экосистем; геополитически рост мощных открытых моделей в Китае меняет вопросы о цепочках поставок, доступе к вычислительным ресурсам и стандартах безопасных релизов моделей.




