L'IA ne vise pas seulement votre travail, mais aussi votre existence

L'approfondissement des tensions entre entreprises technologiques et gouvernements révèle que l'intelligence artificielle n’est pas un outil neutre pour le progrès, mais une arme stratégique qui refaçonne la guerre, le pouvoir et la responsabilité.

By
Les tensions entre le Pentagone et Anthropic révèlent la fragilité de la rhétorique du secteur technologique autour de l'IA sûre et éthique. / Reuters

Le débat public sur l'intelligence artificielle se structure de plus en plus autour de deux récits principaux.

D'un côté, la crainte que l'intelligence artificielle remplace le travail humain, entraînant un chômage massif. De l'autre, une vision techno‑utopiste qui présente l'IA comme la solution à tout, de la stagnation économique aux changements climatiques.

Cependant, dans ce débat, on peut négliger une mutation plus discrète.

L'affaire Pentagone–Anthropic offre une occasion importante de réexaminer la manière dont cette technologie est perçue. L'intelligence artificielle n'est pas seulement un outil civil, mais un instrument de pouvoir militaire et stratégique.

Pour comprendre l'orientation militaire de l'IA, il est utile d'examiner l'origine des technologies de communication modernes.

Contrairement à une croyance répandue, beaucoup de ces technologies n'ont pas d'abord été conçues comme des projets civils.

Le prédécesseur d'Internet, ARPANET, a été développé par le Pentagone comme un réseau de défense destiné à maintenir les communications en cas d'attaque nucléaire.

Les systèmes d'IA d'aujourd'hui portent la marque de cette même lignée technologique.

Sous cet angle, l'intérêt du Pentagone pour l'IA n'est pas nouveau. Il reflète les racines historiques de la technologie.

L'histoire de la recherche en intelligence artificielle renforce ce point.

Pendant les prétendus « hivers de l'IA », lorsque les investissements privés ont ralenti et que de nombreux universitaires ont remis en question l'avenir du domaine, le financement militaire a continué de soutenir la recherche.

Par exemple, en 1980, l'Initiative de calcul stratégique lancée par la DARPA sous l'égide du département de la Défense des États‑Unis a joué un rôle clé dans l'augmentation de la puissance informatique de l'IA et dans les capacités de ciblage.

Les tensions entre le Pentagone et Anthropic

Ce lien de longue date entre l'intelligence artificielle et les institutions de défense est récemment réapparu.

Les tensions entre le Pentagone et Anthropic montrent à quel point la rhétorique du secteur technologique autour d'une « IA sûre et éthique » peut être fragilisée.

Les critiques virulentes de l'administration Trump et du secrétaire à la guerre Pete Hegseth ont rouvert le débat sur la prétendue neutralité de la technologie.

La description de l'entreprise par Trump comme appartenant à « l'aile radicale de gauche », suivie d'attaques supplémentaires, ne doit pas être écartée comme une simple rhétorique politique.

Ces déclarations peuvent également être interprétées comme un signal de Washington que l'État reste l'autorité suprême sur les technologies stratégiques.

La qualification d'Anthropic de « risque pour la chaîne d'approvisionnement » et sa réponse juridique ont révélé l'équilibre délicat du pouvoir entre la Silicon Valley et Washington.

Le soutien des grandes entreprises technologiques comme Google, Amazon, Microsoft et Apple a reflété non seulement une solidarité corporative, mais aussi la crainte qu'une pression politique similaire ne finisse par les viser elles aussi.

À ce moment critique, OpenAI de Sam Altman a agi rapidement pour combler le vide stratégique créé par la crise.

Alors qu'Anthropic s'éloignait des institutions gouvernementales en raison de désaccords sur les « lignes rouges » éthiques, OpenAI a entamé un nouveau partenariat avec le Pentagone.

Fondée en 2015 avec une vision à but non lucratif et idéaliste, OpenAI se trouve désormais au cœur de l'architecture de la sécurité nationale, avec une valorisation excédant les 700 milliards de dollars.

Pourtant, la réaction la plus significative à cette décision est venue des utilisateurs des plateformes d'IA elles‑mêmes.

Après l'annonce de l'accord, la campagne « QuitGPT » (#QuitGPT) s'est répandue sur les réseaux sociaux, provoquant selon certains un pic record atteignant jusqu'à 300 % d'augmentation du taux de désinstallation de l'application ChatGPT.

En réponse à ces réactions, OpenAI a été contraint de souligner que l'accord comprenait des mesures de protection supplémentaires, telles que des limitations empêchant la surveillance des citoyens américains et des exigences de responsabilité humaine dans les systèmes d'armes autonomes.

Malgré cela, le modèle Claude d'Anthropic a rapidement grimpé dans les classements des boutiques d'applications.

De nombreux utilisateurs ont commencé à voir Claude comme une alternative éthique à la connexion perçue d'OpenAI avec l'armée.

L'éthique comme bouclier d'image

Cependant, ce tableau est moins simple qu'il n'y paraît. Bien qu'Anthropic mette fortement en avant son discours éthique, elle a été l'une des premières entreprises d'IA autorisées à opérer au sein des réseaux classifiés du Pentagone.

L'utilisation active de Claude dans les analyses de ciblage qui auraient conduit à l'arrestation de l'ancien président Maduro lors d'une opération au Venezuela en janvier, ainsi que dans des frappes menées en Iran, repousse nettement les limites de cette rhétorique d'« IA sûre ».

Le fait que le fondateur et directeur général d'Anthropic, Dario Amodei, s'oppose à la surveillance des citoyens américains tout en laissant la porte ouverte à une surveillance de masse et à des analyses opérationnelles à l'étranger montre comment les frontières éthiques peuvent se déplacer selon les territoires et les passeports.

Cette situation révèle que les identités éthiques et centrées sur l'humain des marques d'entreprises d'IA se sont transformées en outils de gestion de réputation.

Les géants de l'IA s'efforcent de gérer la réaction mondiale négative qui pourrait découler d'un lien direct avec des domaines comme les armes autonomes.

Cet effort peut s'expliquer non pas par une posture morale, mais par la volonté de créer un « bouclier de réputation » pour protéger la marque et la part de marché.

Pour les géants de l'IA, l'éthique n'est souvent rien de plus qu'un « blanchiment éthique » qui orne la vitrine corporate, plutôt qu'une véritable responsabilité. À mesure que la prétention d'Anthropic à se tourner vers l'humain est écrasée par le poids commercial de sa valorisation de 380 milliards de dollars, le fossé entre le discours et la réalité se creuse.

L'architecture des assassinats de masse

L'intégration de l'IA dans les systèmes militaires fait plus que procurer un avantage stratégique. Elle transforme la nature de la guerre et crée ce que les juristes appellent un « déficit de responsabilité ».

Aujourd'hui, les zones de conflit sont devenues de vastes laboratoires pour les géants technologiques et les armées.

Quelques‑uns des exemples les plus inquiétants se retrouvent dans des systèmes pilotés par l'IA, tels que Habsora et Lavender, qui auraient été utilisés lors des attaques israéliennes contre Gaza.

Ces systèmes traitent les victimes civiles comme une marge statistique d'erreur. Comme le soutient le journaliste Yuval Abraham, de telles technologies risquent de se transformer en « usines de meurtres de masse ».

La supervision humaine dans la boucle est souvent présentée comme une protection éthique. Cependant, dans la pratique, elle se réduit souvent à un agrément symbolique.

Quand les algorithmes génèrent des milliers de cibles en quelques minutes, il devient matériellement impossible pour l'opérateur sur le terrain d'examiner en détail toutes les données produites.

Confrontés à des délais restreints et à une masse d'informations, les soldats s'appuient de plus en plus sur les recommandations de l'IA. La supervision humaine se transforme alors d'une prise de décision réelle en un processus qui se contente de légitimer des résultats automatisés.

L'évaporation de la responsabilité

Cette situation transforme l'IA en un outil d'attaque où la responsabilité s'évapore. Les systèmes utilisés par Israël ciblent les domiciles de personnes soupçonnées, mettant directement en danger les civils, les enfants et les personnes âgées qui s'y trouvent.

L'IA ne se contente plus de traiter des données ; elle réduit des individus à des écarts statistiques dans la « banque de cibles ».

Ce problème ne se limite pas à une seule zone de conflit, comme le montrent d'autres événements récents.

Les premiers rapports suggèrent que l'attaque américaine contre une école en Iran le 28 février, qui a fait 168 morts, dont plus de 100 enfants, aurait résulté de renseignements erronés.

À mesure que les enquêtes se poursuivent, il est possible que des renseignements obsolètes ou un outil d'IA ayant signalé une cible incorrecte soient responsables de la mort de ces civils.

Lorsque des données erronées ou un biais algorithmique entraînent des pertes de vies, se pose une question inquiétante : qui est responsable ?

L'ingénieur qui a conçu l'algorithme, l'entreprise qui a déployé le système ou le soldat qui a appuyé sur le bouton d'autorisation ?

Cette incertitude est devenue l'un des aspects les plus sombres de la guerre moderne.

Les travaux du professeur Kenneth Payne du King's College de Londres mettent en lumière une autre dimension du danger.

Ses recherches suggèrent que les modèles d'IA sont 95 % plus susceptibles que les humains d'utiliser des armes nucléaires en période de crise.

Jusqu'à présent, l'humanité s'est abstenue d'appuyer sur le bouton nucléaire, tirant les leçons des douloureux souvenirs d'Hiroshima et de Nagasaki.

Cependant, on ne peut affirmer que les algorithmes possèdent cette mémoire historique ou une conscience morale.

À ce stade, le cauchemar de Skynet des films Terminator n'est plus seulement une dystopie de science‑fiction ; c'est une nouvelle realpolitik issue d'un déterminisme technologique incontrôlé.

Le siège algorithmique

L'IA a évolué d'un outil d'efficacité à un élément central de l'architecture mondiale de sécurité. Le nombre restreint d'entreprises qui contrôlent cette infrastructure n'écrit pas seulement du code.

Elles construisent aussi des frontières numériques qui définissent le champ de mouvement des individus et de la société.

Pour les langues et les cultures sous‑représentées dans les jeux de données d'entraînement, le risque dépasse la simple dépendance technologique.

Il menace une forme plus profonde d'impérialisme culturel.

Les modèles d'IA véhiculent les codes culturels, les jugements de valeur et les biais idéologiques présents dans les jeux de données sur lesquels ils sont entraînés, et les présentent comme des vérités universelles.

Sans jeux de données diversifiés, les sociétés risquent de sacrifier leur mémoire collective et leur identité culturelle unique au profit de la logique homogénéisante des géants technologiques mondiaux.

Dans ce contexte, le problème n'est pas seulement une course technologique ; il s'agit de protéger la société et l'individu de l'être codés comme des coordonnées anonymes sur des listes algorithmiques de terrorisme ou comme « marges statistiques d'erreur » dans la banque de cibles d'un logiciel.

Pour les utilisateurs, la réalité la plus inquiétante peut être à quel point leurs choix sont en réalité limités. Le passage d'un modèle à un autre se réduit souvent à choisir entre différentes branches d'un arbre massif enraciné dans le même sol.

Les noms des branches changent, mais les racines restent les mêmes : contrôle stratégique, réseaux militaires et infrastructure mondiale de surveillance.

En fin de compte, l'IA n'est plus un assistant de bureau promettant de l'efficacité ; elle devient une arme numérique qui encercle l'existence humaine et les frontières sociales de toutes parts.

L’auteur Emre Yilanzik est un professionnel des médias basé en Turquie ; ses recherches portent sur les médias numériques, la société de surveillance et les implications sociologiques de l'intelligence artificielle.

Remarque : Les opinions exprimées dans cet article sont celles de l'auteur et ne reflètent pas nécessairement la ligne éditoriale de TRT .