Intelligence artificielle : comment une utilisation malveillante peut nuire à la science

Considérée comme un atout pour la science, l'intelligence artificielle est de plus en plus utilisée à des fins malveillantes

By
FILE PHOTO: Illustration shows Google logo and AI Artificial Intelligence words / Reuters

Les fausses informations et les deepfakes sont de plus en plus nombreux et réalistes, au point que certains perturbent même l'ordre public. Au Kenya, par exemple, une vidéo générée par l'IA montrant le président malade puis mort a semé la confusion. Face à cette tendance, certains scientifiques craignent que l'utilisation abusive de l'IA ne sape les fondements mêmes de la science. 

Par Firmain Eric Mbadinga

“Science sans conscience n'est que ruine de l'âme”, comme nous le savons. Et cette citation de l'écrivain François Rabelais sonne d'autant plus juste lorsque l'on examine de plus près certaines utilisations actuelles de l'intelligence artificielle. Si l'IA est présentée comme un outil destiné à faciliter la vie humaine dans divers domaines, notamment celui de la technologie, il parait clair que de plus en plus de personnes l'utilisent pour atteindre des objectifs qui sèment la confusion et propagent des mensonges dans la sphère publique et au-delà.

 Le 5 janvier, par exemple, Harrison Mumia, président de la Kenya Atheists Society, a été condamné pour avoir publié de « fausses informations ». 

Ce dernier avait posté des images du président William Ruto, générées par intelligence artificielle. Il n'a été libéré qu'après le paiement d’une caution de 500 000 shillings kényans.

Toujours dans les hautes sphères, l'une des anecdotes qui n'aura pas échappé au grand public il y a quelques semaines , est celle du président français qui révélait avoir été alerté par un de ses homologues africains évoquant un coup d'État en France.

 Une vidéo très réaliste qui a semé la panique parmi les dirigeants africains, dont les identités n'ont pas été révélées, a été générée par l'intelligence artificielle. Elle montrait des journalistes français annonçant un faux coup d'État à Paris.

Avant de longues négociations pour la faire retirer, la vidéo avait été visionnée au moins 12 millions de fois, contribuant sans aucun doute à la désinformation.

 Et l'un des problèmes liés à la désinformation est que le démenti ne parvient pas nécessairement à toutes les personnes qui y ont été initialement exposées.

Ces deux cas, qui comptent parmi les plus connus à ce jour, ne sont que la partie émergée d'un iceberg, qui pourrait être encore plus néfaste.

En effet, les scientifiques et les théoriciens mettent en garde contre la possibilité d'utiliser un outil neutre à des fins criminelles ou fantaisistes. Dans le monde du numérique, pour certains, le nombre de vues, de commentaires et de partages semble primer sur la vérité et la pertinence.

Revenons à l'utilisation abusive de l'IA elle-même. Imaginez une voiture intelligente, contrôlée par l'IA, qui pourrait être utilisée pour cibler puis percuter des personnes dans la rue. Si cette idée peut sembler farfelue, elle représente déjà une possibilité réaliste qui a été envisagée par des spécialistes de la lutte contre le terrorisme. C'est ce type de possibilité qui déclenche les inquiétudes de nombreux acteurs de la société, où qu'ils se trouvent, quant à la nécessité de contrôler cet outil avec prudence.

Jadys Lola Nzengue est chef de projet données à Paris. Il est spécialiste des technologies numériques et de l'intelligence artificielle. Ce Franco-Gabonais estime que, entre les mains d'individus immatures ou simplement malveillants, l'IA peut causer de graves dommages à la société.

« L'IA facilite la manipulation des images, des données et des résultats. Sans règles claires, la frontière entre amélioration technique et falsification devient floue, rendant la fraude plus difficile à détecter. Ce problème dépasse le cadre du monde de la recherche. Or, la science est essentielle

pour la prise de décision publique, que ce soit en matière de santé ou de climat. Si sa crédibilité diminue, la confiance du public dans le savoir s'en trouve affectée », a déclaré Jadys Lola Nzengue à TRT Afrika.

Pour les scientifiques, il est donc essentiel d'établir des règles éthiques et de responsabilité pour l'utilisation de l'IA.

S'il n'est pas question de créer de faux contenus, d'autres types de contenus incitant à la haine et au racisme sont également très répandus, en particulier sur les réseaux sociaux.

Le sociologue burkinabé Rodrigue Hilou est très actif sur les réseaux sociaux, où il interagit parfois sur des questions scientifiques ou simplement avec ses amis et connaissances. Sa présence en ligne lui donne une bonne vue d'ensemble d'un certain nombre d'abus popularisés par l'utilisation de l'IA.

« Le premier danger, à mon avis, réside dans une forme de contamination du savoir par le mensonge. En générant des contenus artificiels à grande échelle, l'IA risque d'inonder nos bases de données de résultats superficiels, approximatifs ou erronés. Je crains que si nous nous appuyons sur ces matériaux sans une vigilance absolue, la science ne se retrouve piégée dans un cercle vicieux où chaque outil utilisé renvoie à des erreurs produites par d'autres, conduisant à une détérioration progressive de la fiabilité de notre savoir », analyse Rodrigue Hilou.

De plus en plus, les contenus fictifs générés par l'IA semblent plus réels que la réalité elle-même. Il semble de plus en plus difficile, même pour les spécialistes de l'audiovisuel, de faire la distinction entre ce qui est réel et ce qui est faux. En effet, les deep fakes sont de plus en plus convaincants, à tel point que de nouvelles disciplines ont vu le jour, comme la vérification des faits, qui intervient très souvent après coup.

Le défi est donc le suivant : vérifier le contenu, le texte, l'audio ou les visuels qui sont publiés dans le monde numérique.

« La science, telle que je la pratique en sociologie, repose sur la transparence et la possibilité de vérifier chaque étape d'une démonstration. Mieux encore, le travail de terrain est sacré dans ma discipline. Cependant, si je confie mon travail d'analyse et de discussion à des algorithmes dont la logique interne m'est inaccessible, je remplace la preuve scientifique par une simple prédiction. Nous glissons alors vers une forme de magie où le résultat prime sur la raison, rendant la vérification pratiquement impossible. »

Les observations formulées par les deux experts vont bien au-delà du contenu audiovisuel. Elles s'étendent au domaine général de la science et de la recherche.

Si les prévisions ont jusqu'à présent, du moins à bien des égards, présenté une intelligence artificielle révolutionnaire aux effets uniquement positifs, la question de la méthodologie est discutable.

« En déléguant la rédaction, la synthèse ou l'évaluation des travaux à des algorithmes, nous privons la science de son essence, qui repose sur les faits, l'intuition, la pensée critique et la créativité humaine. Les chercheurs risquent de devenir de simples opérateurs techniques, incapables de remettre en question des modèles qui recyclent des contenus antérieurs. Pire encore, cette déshumanisation de la science encourage la prolifération de fausses recherches et brouille la frontière entre connaissances authentiques et pseudoscience », conclut le sociologue burkinabé.

Dans le domaine de la télémédecine, il est désormais possible de réaliser des opérations avec un taux de réussite plus élevé que jamais. La chirurgie robotique est de plus en plus pratiquée dans certains pays, avec des résultats qui semblent satisfaire tant les patients que les praticiens.

Il y a quelques semaines, une équipe médicale basée en Europe a pu opérer un patient vivant à près de 8 000 kilomètres de là, à Pékin.

L'opération a été réalisée à l'aide de l'IA grâce à des robots chirurgicaux. Les chirurgiens ont posé un MitraClip sur un patient souffrant d'une insuffisance mitrale.

À cet égard, l'OMS estime que l'utilisation de l'IA dans la télémédecine pourrait améliorer l'accès aux soins pour près de 1,5 milliard de personnes dans le monde d'ici 2030.

Parallèlement, on a déploré des cas de suicides et d'autres homicides commis sur recommandation de l'IA. Le cas d'Adam Raine, un Américain de 16 ans, en est un exemple parmi tant d'autres. L'adolescent a été encouragé à se suicider pour mettre fin à ses souffrances, considérant ChatGPT comme un confident et un conseiller.

 Le jeune homme s'est donné la mort par pendaison le 11 avril 2025.

 C'est en raison de ce type de scénario dramatique généré par l'IA que Jadys Lola Nzengue souhaite également faire preuve d'une plus grande prudence.

« De plus en plus de laboratoires utilisent l'IA pour identifier des liens, créer des modèles de prédiction, voire rédiger des articles. Le problème ne vient pas de l'outil, mais plutôt de la tentation de remplacer l'analyse humaine par des algorithmes, qui sont souvent acceptés sans remise en question. Des études ont mis en évidence des liens statistiquement solides mais scientifiquement absurdes, publiés en raison d'un manque de vérification. La science risque alors de confondre performance mathématique et véritable compréhension. »

 Face à ces menaces, de nombreuses voix s'élèvent pour réclamer un contrôle humain accru sur les machines et souhaitent des règles d'utilisation plus strictes afin de garantir l'ordre et le progrès. « L'IA doit rester un outil d'aide et non un substitut », affirment certains d'entre elles.