DeepSeek представила модель V3.2: новая линейка больших языковых моделей
ПЕКИН, 2 декабря. /ТАСС/. Китайская компания DeepSeek представила новую линейку больших языковых моделей DeepSeek-V3.2.
Модель использует архитектуру разреженного внимания для повышения производительности и демонстрирует исключительные способности к рассуждению.
В бенчмарках модель V3.2-Speciale показывает результаты, сопоставимые с системой Gemini-3.0-Pro от Google.
Разработчики утверждают, что внедрение механизма DSA (DeepSeek Sparse Attention) позволило существенно снизить вычислительные затраты при сохранении точности в длинных контекстах.
Китайская DeepSeek делает ставку на открытый исходный код, веса моделей V3.2 уже опубликованы для исследовательского сообщества.
Ниже представлена таблица с ключевыми данными:
| Модель | Точность | Время выполнения |
|---|---|---|
| DeepSeek-V3.2-Speciale | 92% | 0,5 секунды |
| GPT-5 | 90% | 1 секунда |
| DeepSeek-V3.2 | 88% | 0,2 секунды |
Опубликовано: 2 декабря 2025