Китайский стартап DeepSeek привлёк к себе пристальное внимание в начале 2025 года — 20 января компания представила модель DeepSeek R1. По заявлению разработчиков, эта система способна соперничать с продуктами таких корпораций, как OpenAI и Google, но при этом обучение требует в десять раз меньших вычислительных ресурсов.
Основатель проекта Лян Вэньфэнь объяснил, что за их подходом стоит научное любопытство и стремление сделать передовые технологии более доступными.
С момента анонса DeepSeek R1 вокруг неё развернулись жаркие дискуссии в IT-сообществе. Некоторые комментаторы сравнивали это событие с «моментом спутника» — аллюзией на запуск первого советского спутника, который открыл новую эпоху космической гонки.
Специалисты обращают внимание, что успех DeepSeek может поколебать устоявшееся мнение о том, что для создания качественных ИИ-моделей нужны огромные вложения и ресурсы. Для примера: только прошлой осенью OpenAI привлекла $6,6 миллиарда инвестиций, а в январе 2025 года стало известно о планах Microsoft вложить около $80 миллиардов в дата‑центры для обучения ИИ-моделей.
Запуск DeepSeek R1 мгновенно отразился на рынках — акции крупных западных игроков, таких как NVIDIA и Microsoft, резко упали, что обернулось потерей более $1 триллиона суммарной капитализации (существенную долю убытков понёс ведущий производитель графических процессоров).
Обвал акций стал результатом тревог инвесторов по поводу того, сможет ли DeepSeek всерьёз конкурировать с лидерами индустрии. Спустя примерно неделю котировки вернулись к росту, а некоторые аналитики с Уолл‑Стрит назвали китайский проект «большим фейком», но даже при этом DeepSeek уже оказал заметное влияние на правила игры в секторе.
Разберёмся, как устроена DeepSeek R1, насколько её возможности позволяют ставить её в один ряд с ChatGPT и какие потенциальные риски связаны с применением данной модели.
Как работает DeepSeek
DeepSeek R1 представляет собой семейство ИИ-моделей, созданных на основе методов обучения с подкреплением (RL) и ориентированных на решение логических и аналитических задач. Модель распространяется с открытым исходным кодом и оснащена чат‑интерфейсом, что делает её похожей по удобству использования на другие популярные ИИ‑инструменты.
Обучение с подкреплением, лежащее в основе DeepSeek R1, предполагает, что модель совершенствует своё поведение через взаимодействие с окружением: за корректные действия она получает вознаграждение, за ошибки — наказание, что помогает выработать наиболее эффективные стратегии.
В отличие от многих аналогов, DeepSeek R1 не нуждается в предварительной настройке через контролируемое обучение (SFT).
Помимо этого, упор на небольшой объём высококачественных данных ускоряет процесс обучения и способствует формированию более ясных цепочек рассуждений (CoT), а переход от гигантских моделей к компактным, но оптимизированным архитектурам позволяет сохранить высокий уровень производительности.
Архитектура DeepSeek R1 строится на фреймворке Mixture of Experts (MoE), что даёт возможность эффективно распределять параметры при обработке запросов.
Вместо обращения ко всем 671 миллиарду параметров модель активирует лишь 37 миллиардов — те, которые наиболее релевантны для конкретного запроса. Такой механизм обеспечивает высокую скорость отклика, хорошую производительность и экономию вычислительных ресурсов.
ChatGPT против DeepSeek
DeepSeek позиционируют прежде всего как прямого соперника ChatGPT. Технически обе системы опираются на похожие архитектурные принципы, однако DeepSeek использует более компактные языковые модели, адаптированные под конкретные типы задач. Это снижает потребность в вычислениях и делает платформу более доступной для разработчиков.
ChatGPT обучается на огромных датасетах, детали которых OpenAI не раскрывает, что иногда вызывает критику. У DeepSeek, напротив, заявлен более прозрачный подход: используются наборы данных с открытым доступом, но это может ограничивать универсальность модели.
По скорости и качеству выполнения задач картина неоднозначна. ChatGPT демонстрирует высокую универсальность и способность справляться с запросами в самых разных областях, тогда как DeepSeek показывает лучшие результаты при оптимизации узкоспециализированных задач и обычно требует меньше времени на выдачу ответа.
Сравним конкретные бенчмарки. В математическом тесте Math-500 DeepSeek R1 набрал 90,2%, тогда как ChatGPT-o1 показал 96,4%, а o1-mini — 90%. В задании на программирование один из участников получил 96,3% баллов, второй — 96,6%.
В тесте общего уровня знаний MMLU разрыв стал более заметен: ChatGPT-o1 — 91,8%, DeepSeek R1 — 90,8%.
В то же время по другим отчётам DeepSeek R1 может выполнять сложные задачи примерно вдвое быстрее ChatGPT, что особенно заметно в задачах по кодированию и математических расчётах.
В общем и целом, эффективность каждой модели зависит от сценария применения. ChatGPT остаётся несомненным лидером в области conversational ИИ и служит универсальным инструментом, в то время как DeepSeek чаще оказывается более эффективным помощником в специализированных задачах.
Фокус внимания — на фактор безопасности
DeepSeek и другие похожие разработки открывают новые горизонты применения искусственного интеллекта, но одновременно несут в себе определённые риски. Главный из них связан с безопасностью.
Сравним два подхода. OpenAI внедрила строгие меры защиты пользовательских данных, однако централизованная обработка информации остаётся уязвимой: в случае успешной кибератаки данные могут быть утрачены или скомпрометированы.
У DeepSeek ситуация иная. Как проект с открытым исходным кодом он даёт возможность развёртывать модели в собственной инфраструктуре, что предоставляет больше контроля над данными. Но децентрализация также увеличивает риск ошибок в реализации безопасности, если разработчики недостаточно тщательно подступятся к защите.
Почему же при этом Италия, Тайвань и Австралия уже запретили использование этого ИИ-приложения?
В первую очередь — из‑за условий предоставления услуг DeepSeek. В политике указано, что пользовательские данные хранятся на серверах в Китае и подпадают под действие китайского законодательства, которое требует от местных компаний сотрудничества с силовыми структурами.
Напомним, что китайские власти уже не раз обвинялись в проведении шпионских операций — чаще всего с целью похищения интеллектуальной собственности западных компаний или сбора разведывательной информации.
Специалисты из Netskope и Lasso Security отмечают, что риски при использовании DeepSeek во многом совпадают с рисками от других популярных языковых моделей. Вместе с тем наблюдается и более подозрительное поведение у китайской разработки, что может представлять особую угрозу для государственных структур; при этом, по данным Cisco, атаки на неё были успешны в 100% случаев.
Что советует Никита Веселков, руководитель команды SOC ESET в Украине:
«Модель искусственного интеллекта DeepSeek вызвала интерес у пользователей по всему миру. Однако к любым инновациям в области искусственного интеллекта нужно относиться с осторожностью, чтобы не пришлось за новые возможности платить своей конфиденциальностью.»
Согласно политике конфиденциальности DeepSeek, данные программы хранятся на серверах в Китае, в том числе история чата, включая текст, аудио, подсказки и любые загруженные файлы. Поэтому важно не загружать и не обрабатывать с помощью DeepSeek конфиденциальную информацию — как личную, так и корпоративную. Этот совет актуален и для других подобных платформ, в частности ChatGPT от OpenAI.
Модель DeepSeek сочетает доступность и расширенный функционал, поэтому ещё одной опасностью является использование приложения для манипуляций. В частности, злоумышленники могут использовать его как инструмент для улучшения вредоносного кода и создания поддельного контента с применением технологий deepfake. Такой контент затем можно использовать для манипуляции общественным мнением, как и в случае с социальными сетями, которые в руках злоумышленников могут стать инструментом для достижения разрушительных целей».
Не только DeepSeek: другие китайские ИИ-проекты набирают популярность
Успех DeepSeek отражает амбиции Китая в области искусственного интеллекта. Но это не единственный проект, который вызывает беспокойство у мировых технологических лидеров, опасающихся серьёзной конкуренции.
На ум сразу приходят такие игроки, как Alibaba, Baidu и ByteDance, уже привлекшие значительные инвестиции в развитие ИИ. Кроме них, выделяют ещё как минимум шесть компаний, представляющих интерес своими достижениями в сфере искусственного интеллекта.
Эту группу иногда называют Six Tigers: в неё входят Stepfun, Zhipu, Minimax, Moonshot, 01.AI и Baichuan. Хотя многие из них появились относительно недавно, у них есть серьёзные аргументы для привлечения внимания инвесторов и пользователей.
Например, Stepfun делает ставку на создание искусственного интеллекта общего назначения (AGI) — довольно узкая ниша для китайского сектора. Её крупнейшая языковая модель Step-2 насчитывает более 1 триллиона параметров, в то время как у GPT-4 их всего 1,8 миллиона.
ModelBest специализируется на разработке компактных языковых моделей, предназначенных для работы непосредственно на устройствах с ограниченными ресурсами — от смартфонов и «умных» часов до бортовых автомобильных систем и элементов «умного дома».
Говорят, что её модель MiniCPM 3.0 сопоставима по возможностям с GPT-3.5. Zhipu AI выделяется тем, что создаёт разговорную систему в духе Sora от OpenAI. А Moonshot AI представила Kimi — чат-бот, завоевавший популярность в Китае и насчитывающий около 13 миллионов пользователей.
Появление таких компаний, как DeepSeek, говорит о том, что правила игры в области разработки ИИ меняются. Есть большая вероятность, что бизнес станет отходить от использования дорогостоящих централизованных сервисов в пользу более дешёвых, альтернативных решений.
С одной стороны, это может подтолкнуть крупных игроков — например, OpenAI — к поиску путей снижения затрат на вычисления; с другой — создаёт риск усиления зависимости от китайских технологий, чего западные страны стремятся избежать.
Инициатива Robust Open Online Safety Tools (ROOST) ставит целью расширить доступ к базовым средствам обеспечения безопасности, а также предоставить компаниям бесплатные и открытые инструменты на базе ИИ для обнаружения, проверки и сообщения о материалах, связанных с сексуальным насилием над детьми (CSAM).



