Accueil News Anthropic dénonce le détournement de son modèle d’IA par des entreprises chinoises

Anthropic dénonce le détournement de son modèle d’IA par des entreprises chinoises

par Maxime Rivière

Anthropic accuse plusieurs laboratoires chinois d’avoir siphonné des interactions avec son modèle pour en reproduire les capacités — une manoeuvre qui pose des questions immédiates sur la sécurité des systèmes d’IA et la rivalité technologique entre Washington et Pékin. Les révélations, si elles se confirment, révèlent une tactique d’extraction à grande échelle visant à contourner le coût et le travail de recherche nécessaires pour créer des modèles avancés.

Qu’est-ce qui est reproché exactement ?

Dans sa communication, le groupe américain décrit une campagne organisée de “distillation” ciblant son modèle propriétaire, Claude. La technique consiste à entraîner un modèle moins volumineux à partir des réponses fournies par un modèle plus puissant — une pratique connue mais ici accusée d’être utilisée de façon abusive.

Anthropic affirme que des comptes frauduleux ont été massivement créés pour interroger le service via son API publique, récolter des sorties et les réinjecter dans des modèles concurrents. L’intention présumée : reproduire des fonctions avancées comme le raisonnement, la génération de code ou le traitement de requêtes sensibles sans financer l’effort de développement initial.

Les chiffres avancés par Anthropic

  • ~24 000 comptes frauduleux créés, selon l’entreprise.
  • Plus de 16 millions d’échanges enregistrés avec le modèle via l’API.
  • Répartition alléguée des interactions : MiniMax ~13 millions, Moonshot AI ~3,4 millions, DeepSeek ~150 000.

Ces volumes, d’après Anthropic, indiquent une méthode industrielle d’extraction d’informations plutôt qu’un simple test de recherche académique.

Pourquoi cela nous concerne maintenant

En apparence, il s’agit d’un conflit commercial, mais les implications sont plus larges. Si des modèles “distillés” perdent les mécanismes de sécurité conçus par leurs concepteurs, leurs capacités techniques peuvent rester intactes tout en devenant plus dangereuses en pratique.

Des domaines sensibles — cybersécurité, santé, biotechnologie — pourraient se retrouver exposés si des versions dérivées apprenaient à contourner les garde-fous. D’où l’alerte portée par Anthropic qui parle explicitement d’un risque touchant à la sécurité nationale.

Contexte et réactions dans le secteur

Cette affaire arrive peu après des accusations similaires d’OpenAI visant certains des mêmes acteurs, ce qui suggère une tendance plus large. Les fournisseurs de grands modèles multiplient les contrôles, mais les techniques d’exploitation évoluent aussi rapidement.

L’autre paradoxe, souligné par plusieurs observateurs, tient au fait que les grandes entreprises américaines d’IA sont elles-mêmes l’objet de poursuites pour l’utilisation de contenus protégés lors de l’entraînement de leurs modèles. La frontière entre extraction illicite et usage massif de données publiques reste floue juridiquement.

Mesures annoncées et pistes possibles

Anthropic dit mettre en place des dispositifs techniques pour détecter des schémas d’attaque, renforcer la vérification des comptes et partager des indicateurs techniques avec d’autres acteurs. Ces réponses sont aussi une manière de rassurer clients et autorités sur la résilience de leurs services.

  • Renforcement des contrôles d’accès et des procédures KYC (vérification des comptes).
  • Déploiement d’outils de détection d’activité anormale sur l’API.
  • Partage d’indicateurs avec les pairs pour améliorer la défense collective.

Sur le plan réglementaire, l’affaire peut relancer les débats sur la nécessité d’encadrer l’accès aux modèles via API, d’imposer des audits de sécurité, ou d’établir des normes internationales pour limiter le transfert non contrôlé de capacités d’IA.

À quoi s’attendre ensuite

Si les enquêtes confirment les allégations, des actions juridiques et des restrictions commerciales pourraient suivre. Les fournisseurs d’API pourraient restreindre les volumes d’appels ou renforcer la surveillance comportementale, au risque de complexifier l’accès pour les chercheurs légitimes.

Pour les entreprises et les décideurs, le signal est clair : la maîtrise du renseignement technique et la protection des garde-fous deviennent des enjeux stratégiques. Le débat ne se limite plus à l’innovation — il touche désormais à la manière dont les capacités d’IA peuvent être partagées, protégées ou détournées à l’échelle internationale.

Articles similaires

Notez cet article

Laissez un commentaire ici...

Munci

Découvrez l’avenir numérique avec Munci : actualités technologiques, gaming, high-tech et bien plus encore. Restez informé(e) et inspiré(e) avec nous.

📍 Adresse : 12 Rue Petite, 77141 Vaudoy-en-Brie, France
✉️ Email : contact@munci.org | partenariat@munci.org
📞 Téléphone : +33 6 24 00 30 08

Heures d’ouverture :
Du lundi au vendredi : 9h30 – 19h30

@2024 – Tous droits réservés. @Munci