Экономика и бизнес

DeepSeek представила модель V3.2: новая линейка больших языковых моделей

ПЕКИН, 2 декабря. /ТАСС/. Китайская компания DeepSeek представила новую линейку больших языковых моделей DeepSeek-V3.2.

Модель использует архитектуру разреженного внимания для повышения производительности и демонстрирует исключительные способности к рассуждению.

В бенчмарках модель V3.2-Speciale показывает результаты, сопоставимые с системой Gemini-3.0-Pro от Google.

Разработчики утверждают, что внедрение механизма DSA (DeepSeek Sparse Attention) позволило существенно снизить вычислительные затраты при сохранении точности в длинных контекстах.

Китайская DeepSeek делает ставку на открытый исходный код, веса моделей V3.2 уже опубликованы для исследовательского сообщества.

Ниже представлена таблица с ключевыми данными:

Модель Точность Время выполнения
DeepSeek-V3.2-Speciale 92% 0,5 секунды
GPT-5 90% 1 секунда
DeepSeek-V3.2 88% 0,2 секунды

Добавить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *