# DeepSeek випускає нову модель штучного інтелекту v3.1
Китайський ІІ-стартап DeepSeek оновив свою флагманську ІІ-модель V3 та видалив згадку про розумову нейромережу R1 у чат-боті. Про це пише SCMP.
Компанія оголосила про випуск V3.1 у WeChat. Оновлення розширює контекстне вікно моделі до 128 000 токенів, дозволяючи їй зберігати більше інформації під час взаємодії з користувачем. Такий обсяг відповідає книзі приблизно на 300 сторінок.
Також відзначається висока ефективність використання токенів.
Дані: X. У бенчмарку Aider Polyglot, що оцінює LLM у вирішенні складних завдань програмування одразу на кількох мовах, DeepSeek V3.1 перевершує Claude 4 Opus.
DeepSeek V3.1 переміг Claude 4 Opus на Aider Polyglot
Це робить його найкращою не-TTC кодовою моделлю, і все це за ~$1 pic.twitter.com/QyJZnVRdVK
— Lisan al Gaib (@scaling01) 19 серпня 2025 року
V3.1 зберігає баланс між швидкістю та якістю генерації. Вона містить 685 мільярдів параметрів і базується на гібридній архітектурі, що забезпечує високу продуктивність у завданнях діалогу, міркування та програмування.
DeepSeek видалила згадку R1 з функції глибокого мислення. У SCMP припустили, що це може вказувати на труднощі при розробці очікуваної версії R2.
Інформаційний стартап DeepSeek привернув увагу в січні випуском моделі R1, орієнтованої на міркування. Вона продемонструвала високу ефективність при низьких капіталовкладеннях, через що серед експертів виникли сумніви щодо необхідності мільярдних вливань у сектор ШІ та роздутості індустрії.
Нагадаємо, у червні китайський стартап розпочав набір стажерів для маркування медичних даних з метою покращення застосування штучного інтелекту в лікарнях.
Ця сторінка може містити контент третіх осіб, який надається виключно в інформаційних цілях (не в якості запевнень/гарантій) і не повинен розглядатися як схвалення його поглядів компанією Gate, а також як фінансова або професійна консультація. Див. Застереження для отримання детальної інформації.
DeepSeek випустив нову ІІ-модель V3.1
Китайський ІІ-стартап DeepSeek оновив свою флагманську ІІ-модель V3 та видалив згадку про розумову нейромережу R1 у чат-боті. Про це пише SCMP.
Компанія оголосила про випуск V3.1 у WeChat. Оновлення розширює контекстне вікно моделі до 128 000 токенів, дозволяючи їй зберігати більше інформації під час взаємодії з користувачем. Такий обсяг відповідає книзі приблизно на 300 сторінок.
Також відзначається висока ефективність використання токенів.
V3.1 зберігає баланс між швидкістю та якістю генерації. Вона містить 685 мільярдів параметрів і базується на гібридній архітектурі, що забезпечує високу продуктивність у завданнях діалогу, міркування та програмування.
DeepSeek видалила згадку R1 з функції глибокого мислення. У SCMP припустили, що це може вказувати на труднощі при розробці очікуваної версії R2.
Інформаційний стартап DeepSeek привернув увагу в січні випуском моделі R1, орієнтованої на міркування. Вона продемонструвала високу ефективність при низьких капіталовкладеннях, через що серед експертів виникли сумніви щодо необхідності мільярдних вливань у сектор ШІ та роздутості індустрії.
Нагадаємо, у червні китайський стартап розпочав набір стажерів для маркування медичних даних з метою покращення застосування штучного інтелекту в лікарнях.