Главная
Отрасли новости
последние новости

Anthropic обвиняет DeepSeek в использовании Claude для обучения конкурирующих систем ИИ

Американская компания в сфере ИИ заявляет о масштабной дистилляции моделей китайскими разработчиками, что вызывает обеспокоенность в области безопасности и политики.
Дата выхода: Today
Дата обновления: Today
Anthropic обвиняет DeepSeek в использовании Claude для обучения конкурирующих систем ИИ

Американская компания в сфере искусственного интеллекта Anthropic публично обвинила китайский ИИ-стартап DeepSeek и ещё две компании в ненадлежащем использовании её флагманской модели Claude для улучшения собственных ИИ-систем. Обвинения сосредоточены вокруг масштабной “дистилляции” — технического метода, позволяющего воспроизводить возможности продвинутых моделей путём систематического обращения к другой системе и обучения на её ответах.

 

Эти заявления подчёркивают усиливающуюся глобальную конкуренцию в разработке передовых ИИ-систем и растущие опасения по поводу интеллектуальной собственности, экспортного контроля и управления моделями.

 

Как возможности Claude предположительно были извлечены

 

Масштабные кампании запросов и создание аккаунтов

 

По данным Anthropic, DeepSeek вместе с Moonshot AI и MiniMax создали десятки тысяч аккаунтов для масштабного взаимодействия с Claude. Компания утверждает, что эти аккаунты сгенерировали миллионы запросов, направленных на получение качественного логического рассуждения, программной логики и структурированных ответов.

 

По словам Anthropic, это было не обычное использование, а систематический сбор данных с целью воспроизведения продвинутых возможностей Claude внутри конкурирующих моделей.

 

Понимание дистилляции в данном контексте

 

Дистилляция — это легитимная техника обучения ИИ, при которой меньшая модель обучается на выходных данных более продвинутой системы. В академической среде она повышает эффективность и сжимает знания.

 

Однако Anthropic утверждает, что при проведении без разрешения или с нарушением условий платформы масштабная дистилляция фактически превращается в форму извлечения возможностей. Различие заключается не в самом методе, а в намерениях, правах доступа и масштабе.

 

Стратегические и вопросы безопасности

 

Передовой ИИ как геополитический актив

 

Anthropic рассматривает этот вопрос как нечто большее, чем коммерческий спор. Компания предупредила, что дистиллированные модели без встроенных уровней безопасности могут быть использованы для наблюдения, дезинформации или киберопераций. В условиях, когда передовые ИИ-системы всё чаще рассматриваются как стратегические активы, целостность механизмов защиты моделей становится вопросом национальной политики.

 

Обвинения прозвучали на фоне ужесточения экспортных ограничений США на передовые ИИ-чипы и усиленного контроля трансграничных технологических потоков.

 

Отраслевые опасения

 

Этот спор отражает более широкие тревоги в секторе ИИ. Ранее OpenAI также выражала обеспокоенность возможным воспроизведением моделей с помощью техник дистилляции. Хотя универсальная нормативная база, регулирующая подобные практики, отсутствует, ведущие разработчики всё активнее говорят о необходимости более чётких правил.

Критики, однако, отмечают, что многие крупные ИИ-модели сами были обучены на огромных объёмах общедоступных интернет-данных, что усложняет дискуссии об оригинальности и производном обучении.

 

Конкурентная среда китайских ИИ-лабораторий

 

Быстрое развитие в условиях ограничений

 

Китайские ИИ-компании ускорили развитие несмотря на ограничения доступа к высокопроизводительным полупроводникам. Такие компании, как DeepSeek, продемонстрировали конкурентоспособные результаты в области логического рассуждения при сравнительно ограниченных вычислительных ресурсах, что породило предположения о ключевой роли эффективных методов дистилляции в их стратегии.

 

Если обвинения Anthropic подтвердятся, это будет означать, что разрыв в возможностях между передовыми моделями может сокращаться не только за счёт инвестиций в оборудование, но и благодаря интеллектуальному формированию запросов и структурированному извлечению данных.

 

Регуляторная и этическая неопределённость

 

В настоящее время не существует международно согласованного стандарта, определяющего, когда дистилляция переходит в нарушение прав. Применение норм в значительной степени зависит от договорных условий, мониторинга API и режимов экспортного контроля. По мере роста возможностей ИИ-моделей различать добросовестное использование, конкурентное обучение и незаконное копирование становится всё сложнее.

 

Комментарии

 

Этот спор подчёркивает ключевое напряжение в развитии ИИ: инновации процветают благодаря передаче знаний, однако передовые системы зависят от проприетарных механизмов защиты. По мере того как модели приобретают стратегическое значение, конфликты вокруг доступа и воспроизведения, вероятно, будут усиливаться. Приведёт ли это к более строгому глобальному контролю или к фрагментации экосистем ИИ, будет зависеть от реакции регуляторов и лидеров отрасли в ближайшие годы.

 

ASO World
ASO World
Поставщик услуг по оптимизации App Store (ASO)
Увеличьте популярность вашего приложения с помощью установок, ключевых установок, отзывов и рейтингов, а также гарантированного повышения позиций в рейтинге!
ASO World
ASO World
ASO World
ASO World