Des membres du Parlement européen participent à une session de vote sur la loi sur l'intelligence artificielle lors d'une session plénière au Parlement européen à Strasbourg, dans l'est de la France, le 14 juin 2023 / Photo : AFP

Par Dr Basak Ozan Özparlak

Bien que nous comparions généralement l'ère du big data et de l'IA à la révolution de la machine à vapeur, les découvertes géographiques pourraient également fournir une référence différente à cet égard.

Tout en poussant l'humanité à créer de nouvelles structures commerciales, économiques et politiques, ces découvertes n'ont cependant pas pu créer des opportunités égales pour tous.

Même dans l'écriture de l'histoire, le terme "découverte" de l'Amérique manque d'empathie. Des civilisations vivaient en Amérique avant 1493.

Cette compréhension unilatérale de l'histoire nécessite davantage d'empathie et constitue une approche inadéquate et dangereuse de l'éducation des enfants de demain.

Aujourd'hui, pour que les systèmes d'IA aident les humains à découvrir les mystères de l'univers, à améliorer l'agriculture pour garantir l'accès de tous à la nourriture et à développer des services de santé préventifs, nous devons être capables de réaliser ce que nous, en tant qu'humanité, n'avons pas été capables d'accomplir auparavant : un développement technologique équitable.

Pour cela, nous avons besoin d'un matériel juridique intégrant l'éthique.

C'est pourquoi il est essentiel que le développement et l'utilisation des systèmes d'IA, qui sont beaucoup plus complets et pratiques que d'autres technologies, soient réglementés par la loi.

C'est dans cette optique qu'un accord provisoire sur la réglementation la plus complète au monde en matière de développement et d'utilisation de l'IA a été conclu dans l'Union européenne en décembre 2023.

Mais revenons sur l'odyssée de la réglementation de l'IA. À la fin des années 2010, les législateurs, les juristes et les universitaires travaillant dans le domaine du droit, les ingénieurs et les spécialistes des sciences sociales engagés dans le domaine de l'IA avaient une question en tête : Que faire ?

Les réponses à cette question se sont transformées en cadres éthiques sur l'IA, dont la plupart ont été publiés par de nombreuses institutions dans le monde entier à la fin des années 2010.

Certains de ces cadres éthiques sur l'IA, comme les lignes directrices de l'UE en matière d'éthique de l'IA pour une intelligence artificielle digne de confiance (2019), ont servi de base à des réglementations à venir.

Au cours de la même décennie, des stratégies nationales en matière d'IA, comprenant une analyse SWOT, ont également été publiées par de nombreux pays dans le monde.

L'une des stratégies les plus complètes, le premier rapport sur la stratégie nationale en matière d'IA de la Turquie, a été publié en 2021 par le ministère de l'industrie et de la technologie et le bureau de la transformation numérique de la présidence de la Turquie, dont les travaux soutiennent la feuille de route numérique du pays.

L'année 2021 a également été cruciale pour la stratégie de l'UE en matière d'IA, puisque le groupe des 27 a décidé de former un cadre réglementaire commun.

À la lumière de ses lignes directrices sur l'éthique de l'IA de 2019, un règlement sur les systèmes d'IA a été proposé par la Commission européenne en 2021 et a presque atteint sa forme finale.

Il devrait être publié au Journal officiel de l'UE avant la fin de l'année 2024.

Des routes rocailleuses

Cependant, le voyage a été ardu, et parfois, les routes ont été rocailleuses.

En novembre 2023, juste après un sommet sur la sécurité de l'IA organisé par le Royaume-Uni et un décret sur l'IA pris par les États-Unis, les trois grands de l'UE - la France, l'Allemagne et l'Italie - ont publié un texte non officiel visant à préserver l'approche technologiquement neutre et fondée sur les risques de la loi sur l'IA de l'UE, affirmant que les risques associés aux systèmes d'apprentissage automatique sont liés à la mise en œuvre, et non à la technologie en tant que telle.

Ils ont soutenu que des codes de conduite devraient être mis en œuvre au lieu de réglementations légales concernant les modèles de base de l'IA générative, ce qui a rendu le travail sur la loi de l'UE sur l'IA complexe.

Heureusement, un texte de compromis a finalement été trouvé, et les efforts déployés pendant de nombreuses années ont été récompensés : l'Acte sur l'IA de l'UE. En outre, tout récemment, un conseil de l'IA a été créé pour assurer une mise en œuvre efficace de l'acte.

Comme le souligne le premier article du texte de compromis de la loi sur l'IA, cette réglementation vise à garantir un niveau élevé de protection de la santé, de la sécurité, des droits fondamentaux, de la démocratie, de l'État de droit et de la protection de l'environnement. Le champ d'application de la loi sur l'IA est extra-territorial, comme celui du GDPR.

Qu'ils soient établis sur le territoire de l'UE ou non, la loi sur l'IA s'applique aux fournisseurs de systèmes d'IA s'ils doivent être mis sur le marché de l'UE ou mis en service dans l'UE.

Par conséquent, si une entreprise turque ou américaine souhaite vendre son produit ou le mettre en service, elle doit se conformer aux règles de la loi sur l'IA. Dans le texte de la loi européenne sur l'IA, une approche neutre sur le plan technologique a été privilégiée.

En effet, la loi sur l'IA se veut à l'épreuve du temps face à l'évolution constante des technologies.

Ainsi, les systèmes d'IA qui seront utilisés dans le cadre de technologies relativement nouvelles telles que la réalité augmentée (RA) et les interfaces cerveau-machine (la technologie dont dépend Neuralink d'Elon Musk), qui feront bientôt partie de nos vies grâce aux technologies de communication sans fil de nouvelle génération, peuvent également être évalués dans le cadre de la loi sur l'IA.

Une approche axée sur les risques

En outre, la loi européenne sur l'IA adopte une approche axée sur les risques. Par risque, on entend les risques pour la santé, la sécurité et les droits fondamentaux. Cette approche fondée sur le risque renvoie à un système de conformité juridique directement proportionnel aux dangers que les systèmes d'intelligence artificielle peuvent présenter.

Les systèmes d'IA qui comportent des risques inacceptables sont interdits. Par exemple, les systèmes de reconnaissance des émotions utilisés sur le lieu de travail ou dans les établissements d'enseignement sont considérés comme présentant des risques inacceptables.

Ainsi, selon la loi européenne sur l'IA, un système d'IA utilisé pour évaluer l'humeur des travailleurs, pour savoir s'ils sont tristes ou heureux, ou l'attention ou l'humeur des élèves, serait interdit. Tout fournisseur de programme de technologie éducative basé sur l'IA doit en tenir compte lorsqu'il pénètre sur le marché de l'UE.

Par ailleurs, si un système d'IA présente un risque élevé tel que défini dans le règlement de l'UE, les fournisseurs de ces systèmes sont tenus de remplir les conditions d'audit et autres spécifiées dans le règlement.

Selon la loi sur l'IA, les outils de sélection des candidats à l'embauche constituent un exemple de système d'IA à haut risque.

Depuis que ces outils ont commencé à être utilisés pour les annonces d'emploi ou les entretiens d'embauche, de nombreux problèmes juridiques liés aux préjugés et à la discrimination ont tendance à apparaître.

Par conséquent, comme tout fournisseur d'un système d'IA à haut risque, les fournisseurs de technologies de ressources humaines doivent garder à l'esprit la conformité réglementaire et ses charges.

Toutefois, dans le but de soutenir l'innovation, les systèmes et modèles d'IA spécifiquement développés et mis en service dans le seul but de recherche scientifique et de développement sont exclus du champ d'application de la loi sur l'IA.

Jusqu'à la publication de ChatGPT en 2022 par OpenAI, certains ont soutenu que les principes éthiques et/ou les codes de conduite étaient suffisants pour prévenir les risques liés aux systèmes d'IA.

Principalement aux États-Unis, il y avait une croyance commune selon laquelle toute tentative de réglementation entraverait l'innovation. C'est la raison pour laquelle les États-Unis ont pris leur temps avant de se lancer dans un effort de réglementation.

Au lieu de cela, à partir de la présidence Obama, des feuilles de route relatives à l'IA ont été élaborées.

Cependant, une approche de réglementation minimale et d'innovation maximale s'est avérée insuffisante, car les grands modèles de langage posent de nombreux risques qui ne peuvent être résolus uniquement par des cadres éthiques.

Ainsi, un décret présidentiel américain sur l'IA a été découvert juste avant le sommet britannique sur la sécurité de l'IA qui s'est tenu en novembre 2023 à Londres.

Si l'on considère les États-Unis, on peut dire que la réglementation n'est plus une possibilité lointaine.

Les développements rapides et les effets possibles du modèle ChatGPT de l'entreprise Open AI, annoncé au public en 2022, ont commencé à se refléter aux États-Unis.

Les risques pour la vie privée et la sécurité des modèles d'intelligence artificielle générative sont beaucoup plus élevés que ceux des technologies précédentes, de sorte qu'il est possible de minimiser ces risques grâce à des mesures technologiques et à des réglementations juridiques efficaces.

Sur cette base, des règles juridiques concernant l'intelligence artificielle ont été inscrites à l'ordre du jour des États-Unis. Le 30 octobre, le cadre réglementaire le plus complet des États-Unis en matière d'intelligence artificielle a été dévoilé dans le cadre de ce décret.

L'ordonnance exige une plus grande transparence de la part des entreprises d'intelligence artificielle sur le fonctionnement des modèles d'intelligence artificielle qu'elles développent. En conséquence, il créera plusieurs nouvelles normes, telles que l'étiquetage des contenus créés par l'intelligence artificielle.

Selon la Maison Blanche, l'objectif de ce décret est d'accroître "la sûreté et la sécurité de l'IA". Cependant, des doutes subsistent quant à l'efficacité du décret, car il est "trop mou", et son caractère contraignant est controversé.

Le texte prévoit notamment l'obligation pour les développeurs de partager les résultats des tests de sécurité pour les nouveaux modèles d'intelligence artificielle avec le gouvernement américain si les tests de sécurité montrent que la technologie peut présenter un risque pour la sécurité nationale.

L'année 2024 promet d'être une étape importante dans les efforts de réglementation du développement et du déploiement de l'IA, qui s'avéreront être des lois de la vie réelle accompagnant les lois promulguées dans le cadre des stratégies sur les données.

Étant donné que les données et le contrôle des données définissent la révolution de l'IA, la réglementation sur la gouvernance des données, la protection des données et les cadres juridiques pour les espaces de données ouvertes constitueront le corpus de la loi sur l'IA, ainsi que les règles spécifiques à cette technologie.

Pour un avenir radieux, il est important de trouver une formule pour un cadre juridique de l'IA qui permette à chacun de bénéficier de ces technologies.

Dans son livre Le Hobbit, JRR Tolkien disait que les choses parfaites et sans problème ne font pas des histoires ; toutes les histoires valent la peine d'être racontées dans des périodes complexes et troublées.

Aujourd'hui, comme c'est souvent le cas, nous vivons une période de défis et d'incertitudes. Il est également plus accessible et plus significatif d'être déterministe plutôt que simplement optimiste.

Et la citation de Tolkien sera la force qui nous guidera dans la création de nouvelles histoires dans nos vies au 21e siècle.

L'auteur, Dr Basak Ozan Özparlak, est professeur assistant et chercheur en droit des technologies de l'information à la faculté de droit de l'université d'Özyegin, spécialisé dans les systèmes intelligents, l'IA, la 5G/6G, la protection des données et la cybersécurité.

Clause de non-responsabilité : Les opinions exprimées par l'auteur ne reflètent pas nécessairement les opinions, les points de vue et les politiques éditoriales de TRT Afrika.

TRT Afrika