OpenAI au Pentagone, Claude d’Anthropic séduit ses utilisateurs : deux IA, deux chemins

Un smartphone affiche Claude premier sur le classement de l’App Store

Claude, le chatbot d’Anthropic, a fini par passer devant tout le monde sur l’App Store. Pas grâce à une feature magique sortie de nulle part, mais parce qu’une partie des utilisateurs de ChatGPT a décidé de claquer la porte. Le déclencheur: l’accord annoncé par OpenAI avec le Département de la Défense américain pour déployer ses modèles sur un réseau classifié.

Le truc, c’est que cette bascule ressemble à un petit référendum sauvage sur l’éthique de l’IA. Anthropic a posé des lignes rouges sur l’usage militaire, notamment sur les armes autonomes et la surveillance de masse. Et pendant que Washington met la pression, une frange du public a transformé ça en geste de soutien: on désinstalle, on s’abonne ailleurs, on poste des captures d’écran, et on fait grimper un classement.

Le week-end où Claude a doublé ChatGPT

Le signal le plus simple, c’est le classement. À un instant précis documenté publiquement, Claude s’est retrouvé numéro 1 des apps de productivité les plus téléchargées sur l’App Store, devant ChatGPT. Sur une autre photo du même feuilleton, Claude était encore numéro 2 pendant que ChatGPT tenait la première place. Ça te donne la vitesse du truc: en quelques heures, la hiérarchie peut bouger, surtout quand un sujet politique s’invite dans un produit grand public.

Ce n’est pas juste une histoire de geeks qui comparent des benchmarks. Là, on parle de téléchargements “de masse” au sens App Store: une vague assez forte pour dépasser des applis installées partout. Et au passage, Claude s’est retrouvé devant d’autres gros noms du moment, pendant que Google Gemini apparaissait plus loin dans le classement. Résultat: la bataille des chatbots s’est jouée, au moins temporairement, sur un terrain inattendu: la perception morale.

Tu le vois aussi dans la mise en scène sociale. Des utilisateurs ont publié des captures d’écran de leur switch, comme on le fait quand on quitte un réseau social. Même des personnalités s’en sont mêlées: Katy Perry a posté qu’elle était “done” et a partagé une capture de la page tarifaire de Claude, avec un cur autour de l’offre Pro à 20 dollars par mois. Ce genre de post, c’est du carburant pour les classements, parce que ça pousse les curieux à aller voir tout de suite.

Faut quand même garder la tête froide. Un rang App Store, c’est une photo à un moment T, pas un bilan annuel. Ça mesure des téléchargements, pas forcément la rétention, ni l’usage réel au bout de deux semaines. Mais comme indicateur de colère ou de soutien, c’est redoutable. Quand une partie du public veut “voter”, elle le fait avec son pouce. Installer Claude, c’était une manière simple de dire: sur ce dossier-là, on préfère la ligne d’Anthropic.

Anthropic et le Pentagone: les lignes rouges qui ont mis le feu

À l’origine, Anthropic explique avoir demandé des garanties étroites: pas de surveillance de masse d’Américains, et pas d’utilisation pour des armes totalement autonomes. Sur le papier, ça sonne raisonnable. Mais la boîte a aussi dit qu’une proposition de langage contractuel, présentée comme un compromis, était accompagnée d’un juridique qui permettait de mettre ces garde-fous de côté “à volonté”. Et c’est ce point-là qui a fait exploser la discussion au grand jour.

Lire aussi :  Gemini for Home arrive au compte-gouttes : pays, accès anticipé, caméras Nest, ce qui coince

Le Pentagone, lui, a monté le ton. Son porte-parole, Sean Parnell, a expliqué qu’ils ne laisseraient “aucune entreprise dicter les termes” des décisions opérationnelles, avec une forme d’ultimatum sur l’horloge. Dans la foulée, la tension est montée d’un cran avec des attaques personnelles: Emil Michael, haut responsable au département de la Défense sur la R&D, a accusé Dario Amodei d’avoir un “God-complex” et de vouloir contrôler l’armée américaine. On est loin d’un débat feutré sur des clauses.

Et puis il y a eu la sanction politique. D’après les informations rapportées, le président Donald Trump a ordonné aux agences fédérales de sortir la technologie Anthropic de leurs usages, dans le prolongement du conflit. D’un autre côté, le secrétaire à la Défense Pete Hegseth aurait demandé qu’Anthropic soit considéré comme un risque pour la sécurité nationale côté chaîne d’approvisionnement, ce qui empêcherait des contractants de défense d’utiliser ses outils. Dit autrement: tu poses des limites, tu te retrouves potentiellement blacklisté.

Anthropic a répondu sans se coucher. Amodei a rappelé que le Département de la Défense choisit ses contractants, mais a plaidé la valeur de la techno pour les forces armées et a dit espérer qu’ils reconsidèrent. Dans la Silicon Valley, le geste a été lu comme un marqueur identitaire: une entreprise qui refuse de “plier”. Et du coup, côté consommateurs, ça devient simple à raconter: Claude, c’est le chatbot qui dit non. Même si la réalité contractuelle est forcément plus complexe, le récit est limpide.

L’accord OpenAI-DoD: les garde-fous suffisent-ils?

Au même moment, OpenAI a annoncé avoir trouvé un accord avec le Département de la Défense pour déployer ses modèles sur un réseau classifié. Sam Altman l’a annoncé sur X, un vendredi soir, ce qui a aussi contribué à l’effet de surprise. Là où Anthropic se retrouvait “sur la touche” à Washington, OpenAI gagnait du terrain. Et c’est précisément ce contraste qui a mis certains utilisateurs de ChatGPT mal à l’aise.

OpenAI a insisté sur des garde-fous. Sur les armes autonomes, l’entreprise a écrit que le système d’IA ne sera pas utilisé pour diriger de manière indépendante des armes autonomes quand la loi, la régulation ou la politique du Département exige un contrôle humain, et qu’il ne doit pas prendre d’autres décisions à haut risque qui nécessitent l’approbation d’un décideur humain. Sur la surveillance de masse, OpenAI affirme aussi que le système ne sera pas utilisé pour une surveillance “sans contrainte” des informations privées de personnes aux États-Unis.

Le souci, c’est que ce langage rassure certains, mais pas tout le monde. “Contrôle humain” peut vouloir dire beaucoup de choses selon la définition opérationnelle. Et “surveillance sans contrainte” laisse une marge d’interprétation: quelles contraintes, décidées par qui, et avec quel contrôle externe? Quand tu es un utilisateur grand public, tu ne lis pas des annexes contractuelles. Tu vois juste: OpenAI travaille avec le Pentagone, Anthropic se dispute avec le Pentagone. Et tu réagis à ça.

Il faut aussi rappeler un point que des observateurs ont martelé: les grands modèles de langage ne sont pas “prêts” pour des usages de sécurité nationale, surtout pas pour du pleinement autonome. Cette idée a circulé dans le débat, avec l’argument que les lignes rouges d’Anthropic sont “raisonnables”. Donc OpenAI peut bien parler de garde-fous, l’inquiétude reste: si la techno n’est pas mûre, le risque n’est pas théorique. Et c’est ce doute-là qui a nourri les annulations d’abonnement annoncées en ligne.

Lire aussi :  Cette entreprise française a eu une idée géniale qui a déjà séduit 190 pays pour atteindre un revenu de 2,2 millions d’euros en 2025 : le photomaton numérique

Sur X et Reddit, la défection s’organise en captures d’écran

Ce qui est frappant, c’est la mécanique sociale. Des utilisateurs ont expliqué publiquement qu’ils annulaient ChatGPT, et qu’ils passaient chez Claude. Ils ont posté des captures d’écran, comme preuve, et comme invitation. Ce n’est pas un boycott silencieux, c’est un boycott performatif. Dans l’économie des applis, ça compte double: tu perds un abonné, et tu offres une pub gratuite au concurrent.

Le cas Katy Perry est révélateur parce qu’il condense tout. Elle ne fait pas un thread de 30 tweets sur la doctrine militaire. Elle poste “done”, et une capture de la page de prix de Claude, avec un cur autour du plan Pro à 20 dollars par mois. Message reçu: soutenir Anthropic, c’est payer Claude. Même si la majorité des utilisateurs n’a pas le budget ou l’envie de s’abonner, l’image imprime une idée simple: le geste de soutien est concret.

Tu retrouves aussi un phénomène décrit par plusieurs observateurs: une segmentation des utilisateurs. Avant, on choisissait un assistant sur la qualité des réponses, la vitesse, l’intégration, le prix. Maintenant, une partie du public ajoute une couche: “où est déployée cette IA, et avec quelles limites?” Ce n’est pas la majorité silencieuse, mais c’est un groupe assez motivé pour faire bouger un classement. Et quand tu as un App Store qui réagit vite aux volumes, ça se voit tout de suite.

La nuance, c’est que cette mobilisation peut être instable. Les gens peuvent installer Claude “pour voir”, puis revenir à ChatGPT si leurs habitudes sont déjà ancrées, ou si des fonctions leur manquent. Et puis il y a le biais de visibilité: tu vois surtout ceux qui crient fort. Mais même si ce n’est qu’une fraction, elle a réussi à imposer un sujet: l’éthique n’est plus un débat de conférences, c’est un argument de téléchargement. Pour les équipes produit, c’est un avertissement très concret.

Ce que ce basculement change pour la guerre des chatbots

Ce petit séisme raconte un truc plus large: le marché grand public peut récompenser une posture de principe, même quand elle coûte cher en contrats publics. La “sagesse” dans les milieux business, c’est que les contrats gouvernementaux sont gros, stables, prestigieux. Là, l’histoire a montré l’inverse possible: refuser de bouger ses garde-fous peut créer une vague médiatique, donc de la notoriété, donc des téléchargements. Claude a bénéficié de cette fenêtre à plein.

Le revers de la médaille, c’est que la politique peut aussi te tomber dessus comme un parpaing. Entre l’ordre de retrait des agences fédérales et les accusations de “risque supply-chain”, Anthropic se retrouve face à un risque commercial évident côté Washington. Et ça peut refroidir des partenaires. Donc la question n’est pas “morale contre business”, c’est “quel business, et quel public?” Anthropic semble miser sur la confiance des utilisateurs et des talents, même si ça fâche des décideurs.

Pour OpenAI, l’enjeu est différent: convaincre que l’accord avec le DoD est cadré, contrôlé, et compatible avec une promesse de sécurité. Le problème, c’est que la confiance se perd vite. Quand des utilisateurs associent ton produit à des usages militaires, tu peux te retrouver à faire de la pédagogie en permanence, et à expliquer tes clauses. Et pendant ce temps, un concurrent peut se positionner comme “l’alternative propre”, même si, dans les faits, les frontières entre usages civils et usages de défense sont souvent poreuses.

Lire aussi :  Comment utiliser l'intelligence artificielle ?

Et pour le reste du secteur, c’est un test grandeur nature. Google, avec Gemini, est dans le décor des classements, mais la bataille se joue aussi sur la narration. Le public commence à comprendre que ces outils ne sont pas neutres, parce qu’ils finissent dans des organisations puissantes. Si ce type de controverse se répète, tu peux voir apparaître des “moments App Store” réguliers: une annonce politique, une vague de téléchargements, puis un retour à la normale. On verra si les plateformes et les entreprises vont devoir traiter l’éthique comme une vraie feature produit, au même niveau que la qualité des réponses.

À retenir

  • Claude a atteint la première place sur l’App Store pendant une vague de départs depuis ChatGPT.
  • La polémique est liée au refus d’Anthropic d’assouplir ses garde-fous pour le Pentagone.
  • OpenAI met en avant des limites sur armes autonomes et surveillance, mais une partie du public reste méfiante.

Questions fréquentes

Pourquoi des utilisateurs quittent ChatGPT pour Claude?

Le mouvement est parti d’inquiétudes éthiques après l’annonce d’un accord entre OpenAI et le Département de la Défense pour déployer des modèles sur un réseau classifié. En face, Anthropic a mis en avant des lignes rouges sur la surveillance de masse et les armes totalement autonomes, ce qui a été perçu par certains comme une posture de principe à soutenir.

Claude est-il vraiment devenu numéro 1 sur l’App Store?

Oui, à un moment précis relevé publiquement, Claude a été classé numéro 1 des apps de productivité les plus téléchargées sur l’App Store. D’autres instantanés l’ont aussi montré juste derrière ChatGPT avant de passer devant, ce qui illustre une progression rapide pendant la controverse.

Qu’est-ce qu’OpenAI promet sur les armes autonomes et la surveillance?

OpenAI affirme que son système ne sera pas utilisé pour diriger de manière indépendante des armes autonomes quand les règles exigent un contrôle humain, et qu’il ne doit pas prendre des décisions à haut risque sans validation humaine. L’entreprise indique aussi que son IA ne sera pas utilisée pour une surveillance sans contrainte des informations privées de personnes aux États-Unis.

Pourquoi Anthropic s’est-il retrouvé en conflit avec le Pentagone?

Anthropic dit avoir demandé des assurances étroites sur l’usage de ses modèles, notamment contre la surveillance de masse et l’emploi dans des armes pleinement autonomes. La société a expliqué qu’un langage contractuel présenté comme un compromis contenait du juridique permettant de contourner ces garde-fous, ce qui a conduit à une confrontation publique avec des responsables du Département de la Défense.

Passionné par l’économie, la science et les technologies émergentes, je m’intéresse tout particulièrement aux innovations liées à l’énergie et au dynamisme des entreprises françaises qui façonnent notre avenir industriel. À travers mes publications, je vous invite à découvrir, comprendre et suivre les dernières actualités de ces domaines fascinants, là où la recherche, l’industrie et la transition énergétique se rencontrent pour inventer le monde de demain.