Le 5 décembre 2023, la Cité de l’Économie et des Métiers de Demain portée par la Région Occitanie se penchait sur notre rapport aux émotions de peur et de confiance, percutées par l’émergence d’une technologie qui fait beaucoup parler : l’intelligence artificielle. Comment dépasser la peur pour dessiner un futur technologique dans lequel nous pouvons avoir confiance ? Éléments de réponse.
« Il vaut mieux appréhender ces mutations difficiles que les subir », estime à la tribune Jalil Benabdillah, vice-président en charge de l'économie, l'emploi, l'innovation et la réindustrialisation de la Région Occitanie. Pour prendre le sujet à bras le corps et faire se croiser les mondes encore et toujours, la Cité de l’Économie et des Métiers de Demain (CEMD) / Région Occitanie a invité, en introduction, une experte du secteur spatial : Laura André Boyet, formatrice d’astronautes à l’Agence spatiale européenne et instructrice chez Novespace pour des vols commerciaux. Le spatial, empreint d’imaginaires riches, représente un milieu extrême. Être apte à l’explorer implique une préparation des plus minutieuses. Quel parallèle peut-on envisager entre l’instruction des astronautes pour voyager en milieu extrême et notre préparation à faire face à un monde désormais incertain ?
Trois maîtres-mots guident la préparation dispensée par Laura André Boyet aux spationautes pour qu’ils évoluent le plus sereinement du monde dans l’environnement qu’ils vont découvrir là-haut… qui sont autant de clés pour nous aider à relever les défis qui se dressent ici-bas : compétences d’abord, en les développant de façon transversale afin de maîtriser les sujets dans leur globalité ; empathie ensuite, pour montrer que l’on n’impose pas à l’autre quelque chose qu’on ne s’infligerait pas à soi-même ; intégrité, enfin, pour maintenir un lien dont la sincérité pourra résister à toutes les épreuves.
Les échanges se poursuivent avec trois expertes 100 % Occitanie : Anna Choury, mathématicienne, entrepreneure et conférencière, experte IA et société, Fabienne Amadori, coprésidente du Groupe Isia et cofondatrice de Kalya Santé et Anne Laurent, professeure en informatique et vice-présidente de l’Université de Montpellier.
Assurer la confiance par la régulation européenne
D’abord, la définition. « L’intelligence artificielle est l’automatisation des tâches qui relève de la cognition humaine voire animale », pose Anne Laurent. « Percevoir, distinguer, reconnaître, catégoriser, interagir, planifier, décider… on souhaite faire maîtriser ces choses-là à la machine. » Un domaine qui après avoir connu plusieurs hivers est aujourd’hui en pleine floraison, sous l’impulsion d’une puissance de calcul en continuelle expansion, d’une ressource en données gigantesque et d’avancées rapides dans les sciences algorithmiques.
À mesure que le grand public prend connaissance de cette technologie – et notamment depuis l’ouverture au grand public de ChatGPT et des possibilités de l’IA générative il y a un an – il prend également conscience de ses dangers inhérents : les biais algorithmiques qui tendent à renforcer les stéréotypes, la diffusion massive de fausses nouvelles, l’empreinte carbone et sociale du développement de ces technologies. Aussi, comment donner ou redonner confiance en cette technologie qui fait déjà partie de notre futur commun ?
Pour Anna Choury, mathématicienne, entrepreneure et conférencière, experte IA et société, la régulation européenne via l’European AI Act est un élément de réponse majeur. L’experte rappelle également le fonctionnement de l’approche par risque de ce texte, toujours en discussion entre les États européens. L’Union Européenne reconnaît trois niveaux de risques concernant l’intelligence artificielle.
D’abord, le risque inacceptable. Il concerne les systèmes d’intelligence artificielle considérés comme une menace pour les personnes et qui seront interdits. Le texte vise entre autres la manipulation cognitivo-comportementale, le score social ou encore les systèmes d’identification biométrique en temps réel et à distance, comme la reconnaissance faciale.
Ensuite, le risque élevé s’applique aux systèmes capables d’avoir un impact négatif sur la sécurité ou les droits fondamentaux des personnes (santé, éducation, droit au logement, etc.). Ces dispositifs seront soumis à une évaluation avant leur mise sur le marché et tout au long de leur cycle de vie.
Enfin, « et c’est la part de marché la plus importante », rappelle Anna Choury, les IA à risques limités. Ici, les législateurs imposent une obligation de transparence pour que les utilisateurs soient informés qu’ils interagissent avec une IA.
En plus de cette approche par risque, l’UE a mis en place en 2019 sept principes pour une IA éthique, que rappelle la mathématicienne :
- Facteur humain et contrôle humain
- Robustesse et sécurité
- Respect de la vie privée et gouvernance des données
- Transparence
- Diversité, non-discrimination et équité
- Bien-être sociétal et environnemental
- Responsabilisation
« Lorsqu’on regarde les règles mises en place par l’UE, on se rend compte que c’est 70% de bon sens, 20% de vision de société et seulement 10% de contrôle technologique »
- Anna Choury -
Une IA verte, éthique et utile
Pour Fabienne Amadori, coprésidente du Groupe Isia et cofondatrice de Kalya Santé, pour construire un lien de confiance avec l’IA, il faut s’assurer que celle-ci soit utile. Avec Kalya Santé, l’entrepreneuse et ses équipes ont développé une solution d’IA pour aider le grand public et les professionnels de santé à trouver une information fiable sur les thérapies dont les effets ont été prouvés dans des essais cliniques. Un travail de recherche titanesque assuré par une IA, que Kayla a mis à l’épreuve en comparant les résultats de ses recherches à celles menées entièrement par un humain : l’IA a rapporté 100 % de l’information, annonce l’entrepreneuse, tandis que l’humain n’en a rapporté que 75 %.
L’IA doit être fiable, mais également verte, insiste Fabienne Amadori. Selon les calculs du co-fondateur des infrastructures numériques QScale, une commande à ChatGPT consommerait 4 à 5 fois plus d’énergie qu’une requête Google. Selon l’Université de Californie, l'entraînement du modèle de GPT-3 a nécessité 1 287 MWh qui ont émis 552 tonnes de CO2, soit plus de 205 vols aller-retour entre Paris et New-York. « Il vaut mieux utiliser le stockage, l’usage, la fin de vie, et surtout se demander si l’IA est utile ou futile », plaide l’entrepreneuse. Pour elle cependant, nous sommes sur la bonne voie vers une IA éthique et digne de confiance : « Des groupes d’experts se sont emparés de ces questions et publient des guides de bonnes pratiques pour que les personnes qui développent des IA se posent les bonnes questions pour éviter les impacts sociaux et environnementaux négatifs. » Ajoutez à cela : une éducation à l’esprit critique des publics et la dynamique de la Région Occitanie pour se saisir de ces enjeux, et nous voilà sur les rails pour se préparer à accueillir les nouveaux défis que posent l’IA !