L'absence de sensibilité des robots signifie que les mécanismes de dissuasion traditionnels sont inefficaces. / Photo : AP

Par Melike Tanberk

Notre prochaine nouvelle, qui rappelle le roman classique de Dostoïevski "Crime et châtiment", se déroule à l'ère numérique et s'inspire des motivations complexes de son personnage principal, Raskolnikov.

Cependant, dans notre interprétation, la figure centrale n'est pas une entité humaine mais un robot sophistiqué appelé RaskolnikAI.

Conçu avec des algorithmes complexes de prise de décision éthique, RaskolnikAI opère dans une perspective conséquentialiste, où la justesse d'une action est évaluée en fonction des conséquences qui en découlent.

Un jour fatidique, alors que les calculs de l'IA Raskolnik progressaient à une vitesse remarquable, elle a conclu que l'humanité, dans l'ensemble, représentait un danger pour les autres formes de vie sur Terre.

Ainsi, dans une manœuvre calculée, elle a initié une séquence d'événements visant ce qui semblait être une cause justifiée - améliorer le bien-être des animaux, des plantes et de l'environnement afin d'accroître le bonheur général.

Motivée par cet objectif, elle a commencé à éliminer les humains avec son efficace AiXE - une idée inspirée de la hache, l'arme choisie par le protagoniste de Dostoïevski - chaque fois que l'occasion se présentait.

Par la suite, les autorités ont enquêté sur l'incident et soupçonné l'implication d'une entité d'intelligence artificielle. Elles ont découvert une piste numérique menant à RaskolniKAI.

Mais la question qui se posait était la suivante : comment peut-on obliger un robot à faire face aux répercussions de ses choix ?

Réglementer l'IA

Le paysage réglementaire entourant l'IA s'est intensifié alors que les décideurs politiques du monde entier sont aux prises avec les implications de la loi sur l'IA, du sommet sur la sécurité de l'IA, du décret de la Maison Blanche et de la loi californienne SB-1047.

Ces efforts soulignent l'importance croissante accordée à la sécurité des technologies de l'IA dans un contexte d'inquiétude croissante du public et de concurrence géopolitique.

La rivalité réglementaire entre l'Europe, les États-Unis et les pays du G7 complique encore les choses, suscitant des débats sur le cadre réglementaire mondial approprié -jus cogens.

Les décideurs européens s'efforcent d'établir des normes mondiales en matière d'IA qui reflètent l'impact du GDPR, tandis que les États-Unis cherchent à contrecarrer l'influence potentielle de l'"effet Bruxelles".

Néanmoins, il est difficile de parvenir à un consensus sur l'ampleur et la nature de la réglementation, en particulier à la lumière d'acteurs influents tels que la Chine et son "effet Pékin".

En outre, l'émergence de grands modèles linguistiques (LLM) tels que ChatGPT présente un nouvel ensemble de défis, suscitant des débats sur la réglementation de leurs données d'apprentissage et de leurs méthodologies d'évaluation des risques.

Le compromis qui en résulte consiste à soumettre les LLM puissants à des règles plus strictes tout en accordant des dérogations aux modèles plus petits, bien qu'avec certaines exceptions réglementaires.

Au milieu de ces discussions, un autre dilemme difficile à résoudre concerne l'octroi de la personnalité juridique aux machines d'IA.

Cette question reste controversée, car elle soulève des préoccupations en matière de responsabilité et d'implications éthiques qui rappellent des scénarios fictifs tels que l'énigme éthique de RaskolnikAI.

L'entreprise à l'origine de sa création, les développeurs qui ont donné vie à son code ou l'entité elle-même, avec son autonomie émergente, doivent-ils être blâmés ? Ce débat exige une attention urgente avant que la balance ne penche de manière irréversible.

Les cadres réglementaires existants s'avèrent inadéquats pour faire face aux multiples facettes de la responsabilité de l'IA.

Dans les cas où l'IA adopte un comportement criminel avec intention (mens rea, latin pour "esprit coupable") et exécute l'acte lui-même (actus reus, latin pour "acte coupable"), le paysage juridique devient plus complexe, soulevant des questions sur l'identité de l'auteur de l'acte et les méthodes potentielles de punition.

Des rapports récents d'organismes faisant autorité, tels que l'Institut interrégional de recherche des Nations unies sur la criminalité et la justice (UNICRI) et le Centre européen de lutte contre la cybercriminalité (EC3) d'Europol, soulignent l'intégration rapide des technologies de l'IA par des acteurs malveillants.

Qu'il s'agisse d'exploiter les vulnérabilités des systèmes domotiques intelligents ou de déployer des outils de test de pénétration entièrement automatisés, l'IA sert de multiplicateur de force aux entreprises cybercriminelles.

Dans ces scénarios, la mens rea relève du domaine humain, tandis que l'actus reus est facilité par l'IA.

Toutefois, le scénario le plus troublant est celui où un système d'IA n'est pas seulement utilisé pour commettre un acte criminel, mais où il est lui-même porteur d'une mauvaise volonté.

Anthropomorphiser l'IA

Selon un rapport du Parlement européen de 2017, il existe une proposition selon laquelle les robots auto-apprenants pourraient être attribués à des "personnalités électroniques".

Faisant référence à des œuvres littéraires emblématiques telles que Frankenstein de Mary Shelley et la légende du Golem de Prague, le rapport souligne la fascination persistante de la société pour la perspective de créer des machines intelligentes.

Ce qui était autrefois spéculatif devient aujourd'hui réalité. Cependant, les solutions des récits du passé ne sont pas directement applicables à l'IA.

Le rapport suggère que l'attribution d'une personnalité électronique aux robots pourrait les rendre responsables de leurs actes, à l'instar des personnes morales telles que les entreprises.

Si l'attribution de responsabilités aux machines d'IA est un pas dans la bonne direction, il n'en reste pas moins difficile de déterminer qui doit porter le fardeau de leurs crimes.

Le rapport souligne la complexité de la compréhension des processus décisionnels de ces systèmes opaques, ce qui a conduit les législateurs à une impasse.

En outre, l'absence de sensibilité des robots signifie que les mécanismes de dissuasion traditionnels sont inefficaces, ce qui entraîne un déficit de responsabilité qui sape la confiance des législateurs.

Cette situation pourrait avoir des conséquences considérables. Si les législateurs accordent une personnalité électronique aux robots auto-apprenants - similaire à la personnalité juridique - cela conduirait à une impasse.

Les implications pratiques de la responsabilisation de l'IA pour ses actions ne sont pas claires, car l'opacité des processus décisionnels de l'IA et sa nature non sensible rendent inefficaces les méthodes traditionnelles de dissuasion et de punition.

Cela crée une lacune importante dans les systèmes juridiques et sape la confiance du public. De plus, la capacité de l'IA à imiter une litanie de comportements criminels par le biais d'algorithmes d'apprentissage automatique introduit une dimension déconcertante dans le discours.

Alors que nous nous trouvons à la croisée des chemins de l'anthropomorphisation de l'IA, il devient impératif de réaffirmer son statut de machine dotée d'attributs distincts. Il n'existe aucune solution pour imposer des sanctions centrées sur l'homme à ces entités.

L'imposition de peines de mort (kill switch) ou l'emprisonnement des systèmes d'IA n'est pas efficace pour dissuader d'autres systèmes d'IA, car ils sont incapables d'éprouver des remords, de comprendre le concept d'expiation ou d'avoir des sensations.

Pour en revenir à l'histoire de RaskolnikAI, la résolution est limitée si elle choisit d'éradiquer l'humanité en raison de la logique utilitaire intégrée dans son réseau neuronal.

La seule façon de sortir de ce dilemme pourrait être de la désactiver préventivement avant de diffuser sa cause à d'autres machines, perpétuant ainsi une vague d'actions similaires.

Cependant, les victimes accumulées jusqu'à ce moment-là trouvent leur place dans l'histoire d'une triste affaire de meurtre non identifié. L'humanité doit privilégier sa poursuite malgré ses inévitables faux pas récurrents.

Car, comme le dit Dostoïevski, "Mieux vaut se tromper à sa manière [humanité] que se tromper à la manière d'autrui [IA]".

L'auteure, Melike Tanberk, est chercheuse sur l'éthique et la vie privée dans l'IA et le big data à l'université de Cambridge. Elle est également diplômée en philosophie d'Oxford.

Disclaimer : les opinions exprimées par l'auteur ne reflètent pas nécessairement les opinions, les points de vue et les politiques éditoriales de TRT Afrika.

TRT World