fermer

Synthèse Grande conférence #BM2050 du 8 février 2019 : L’intelligence artificielle

8 février 2019 - Conférence Intelligence Artificielle au Rocher de Palmer, Cenon
Le cycle des grandes conférences, deuxième mouvement de la démarche #BM2050, se poursuit. Pour cette 4e soirée, le panel d’experts réunis sur la scène du Rocher de Palmer à Cenon et accueillis par Jean-François Egron Maire de la commune, était particulièrement brillant ; forcément quand il s’agit de parler d’intelligence artificielle : Cédric Villani, mathématicien et député de l’Essonne, auteur du récent rapport au Gouvernement sur l’élaboration d’une stratégie française et européenne pour l’intelligence artificielle ; Laurence Devillers professeur d’informatique à l’Université Paris-Sorbonne, chercheur au CNRS, spécialiste des interactions hommes-machines ; Camille Morvan, fondatrice et PDG de l’entreprise Goshaba, technologie de recrutement testant les aptitudes cognitives des candidats à travers les jeux vidéo, et Alain Juppé, Président de Bordeaux Métropole qui, fortement intéressé par le sujet, a interrogé les « sachants ».

Et d’emblée les intervenants expriment une satisfaction : parler de l’intelligence artificielle sur la place publique – et ce soir-là devant un public une fois encore très nombreux – est une initiative importante car l’IA peut nourrir des peurs. Décodage de la soirée.

L’IA…oui mais c’est quoi ?

Camille Morvan pose les bases. L’intelligence artificielle (IA) comprend deux choses :  les algorithmes et les données (le « big data »). L’algorithme est une série de règles, une sorte de recette de cuisine ; les données en entrée (information sur les gouts, ingrédients disponibles…) vont permettre de cuisiner un repas et d’atteindre un objectif, « un succès » (par exemple faire manger des légumes à ses enfants).

Attention met-elle très rapidement en garde : « Un algorithme, c’est des opinions qui ont été codées de manière mathématique ». L’algorithme n’est donc pas neutre ; les données qui le nourrissent ne le sont pas davantage. C. Morvan évoque l’exemple du logiciel américain qui mesure le risque de récidive criminelle avec un biais de taille : le risque est calculé comme étant plus élevé pour une personne venant d’un milieu défavorisé

La chef d’entreprise soulève un autre problème : l’utilisation des données sur notre vie privée collectées à chaque instant. Et de rappeler que 98% du revenu de Facebook l’an dernier provient de la vente, par le géant américain, des informations sur ses utilisateurs à des entreprises qui font de la publicité ciblée, L’intervenante illustre son propos en montrant le livre de Cathy O’Neil : Algorithmes, la bombe à retardement.

Cédric Villani se veut plus rassurant, tout en prévenant qu’il n’y a pas de vraie définition de l’IA : « C’est de l’algorithmique suffisamment sophistiquée pour faire une tâche que l’on aurait cru réservée à l’intelligence humaine ». Et, précise-t-il, quand cela devient courant, comme par exemple la recherche d’information automatique ou la traduction automatique, on oublie qu’il s’agit d’IA.

L’IA : opportunité ou menace pour l’emploi ?

Alain Juppé, très attentif aux conséquences de l’IA sur l’emploi – création/destruction d’emplois, évolution des compétences ou encore égalité hommes-femmes -, sollicite l’avis des experts.

Pour C. Villani, la très grande incertitude n’est pas tant liée à la technologie qu’à l’humain, plus précisément à la façon dont l’humain s’approprie la technologie. Nous avons peur car nous pensons que la chose intelligente va nous copier dans ce que nous avons de plus précieux. « Cependant le but actuel de l’IA ce n’est pas d’être intelligent c’est d’accomplir des tâches ; pas de remplacer des humains mais de faire une partie de leur travail ». Une partie seulement insiste-t-il, même si c’est difficile de savoir, a priori, ce qui sera automatisé ou pas. Sur ce sujet, tout a été prédit, et son contraire.

Des conclusions sont partagées tout de même : les métiers artisanaux devraient être plutôt protégés, les métiers manuels recherchés. Le premier enjeu, souligne C. Villani, est de rendre, grâce à l’IA, ces métiers particulièrement attractifs pour les jeunes. Le deuxième enjeu est d’installer l’IA dans chaque domaine avec les compétences et la participation des personnes. Les entreprises et les institutions doivent être prêtes à expérimenter, en confiance. Et C. Villani d’insister : si nous ne mettons pas en œuvre l’expérimentation, elle se fera dans d’autres institutions, dans d’autres pays, ce qui conduira à une perte de compétitivité et d’implication. « L’expérimentation est fondamentale, cela permet d’arrêter les peurs », complète Laurence Devillers.

En outre, les besoins en formation sont énormes : informatique, numérique, programmation, développement, bien sûr. Mais aussi des compétences en sciences humaines et sociales, ergonomie, interface homme-machine. Sans oublier les compétences métiers car l’IA se construit avec les usages.

Intelligence humaine, intelligence artificielle

Les algorithmes sont aujourd’hui incapables d’avoir le niveau de conversation d’un enfant, mais sont bien plus forts que le plus fort joueur de go de toute l’histoire1, précise C. Villani. L’IA repose sur des masses de données « inhumaines », sur une puissance de calcul et une dépense d’énergie incomparable avec la nôtre. Puisqu’il y a dissymétrie entre l’homme et la machine, la comparaison n’est donc pas du tout pertinente. La bonne question est de savoir comment nous interagissons avec l’IA.

L. Devillers nous incite à ne pas avoir peur de la machine : « C’est de l’imitation artificielle plutôt que de l’intelligence artificielle (…) Ça n’a pas d’émotion, pas d’intention, pas de vie. Dans toutes ces machines, il n’y a que des choses qu’on leur donne à faire »2. Mais, précise la chercheuse, cela ne veut pas dire que nous n’avons pas à apprendre des machines. Ces nouveaux systèmes, robots, chatbot (logiciels programmés pour simuler une conversation en langage naturel) … peuvent permettre d’aller au-delà de ce que nous savons faire, de mieux utiliser notre temps, de nous redonner une certaine créativité, d’avoir un avis plus performant, d’apprendre à mieux se connaître. Ces machines peuvent notamment éviter les biais cognitifs et aider les humains, tout particulièrement dans les décisions difficiles, chargées d’affect, en matière de recrutement ou de médecine par exemple.

Science, science-fiction : indispensables frontières

Les propos et les exemples des experts permettent de discerner ce qui relève du fantasme ou de l’état des connaissances et des technologies. Si nous sommes encore très loin du cyborg ou de l’humain augmenté, nous devons rester vigilants car ces objets ont la capacité de nous faire croire des choses. Certes les hommes ont leur part de responsabilité avec leur tendance à l’anthropomorphisme, leur propension à développer une relation d’attachement, surtout lorsque les machines nous ressemblent à l’image du robot Sophia3. Aux USA, une loi vient de sortir : tout concepteur de chatbot doit explicitement dire qu’il s’agit d’une machine. Une manière de délimiter des frontières entre ce qui est humain et ce qui ne l’est pas.

C. Villani l’exprime sans détour : pour les quelques décennies à venir, les ennemis que nous devons craindre dans l’intelligence artificielle sont la bêtise humaine et la méchanceté humaine. Ce qui n’est pas forcément rassurant.

Les trois experts convergent vers l’importance de l’éthique. La RGPD4 ? Une bonne réforme pour la protection des données personnelles et le respect de la vie privée ; mais qui ne répond pas à tous les besoins. Il est en effet nécessaire de vérifier que les données ne sont pas biaisées ou discriminantes ; de définir ce qu’est le succès de l’algorithme ; de pouvoir vérifier l’opinion codée dans l’algorithme ; de disposer de guides pratiques pour comprendre. Une volonté de transparence, certes. Mais qui est en capacité de comprendre l’algorithme rendu public ? Précisément, poursuit C. Morvan, l’éthique relève aussi de la responsabilité de chaque entreprise qui conçoit ces systèmes (« l’éthique by design » qui suppose d’anticiper usages et questions). Il est aussi nécessaire, à l’échelle mondiale, d’avoir des temps de réflexion collective sur ces questions d’éthique, des lieux de gouvernance de l’IA.

La technique, la ville et le politique

Tout devient intelligent : les réseaux, les villes, relève A. Juppé. C. Villani évoque la mobilité intelligente organisée sous forme de services (MAAS : mobilité as a service) avec des véhicules autonomes répondant à la demande des usagers. En précisant, comme un écho à la précédente conférence #BM2050, que les véhicules autonomes ne fluidifieront pas le trafic, mais vont au contraire le densifier s’ils restent individuels. L’approche « sur mesure » se développe, avec son corollaire : une vision globale assurée par le « bon » tiers de confiance.

L’IA ouvre le champ des possibles : collecter, analyser, alerter, organiser le service, surveiller… Les outils seront les intermédiaires entre le politique et le citoyen.  A. Juppé évoque les candélabres intelligents équipés de caméras et capteurs. Mais il faut tenir compte de l’ambigüité des citoyens qui souhaitent la sécurité sans être surveillés. Et prendre garde aux dérives : aura-t-on notre portrait affiché parce que l’on n’aura pas rentré sa poubelle ? interroge le Maire en référence à la reconnaissance faciale utilisée comme outil de surveillance de masse en Chine.  Et qui va être le patron, l’autorité de tout cela ? évoquant les réflexions du sociologue bordelais Jacques Ellul autour de la domination de la technique.

La question éthique, centrale, se définit et se calibre en fonction de chaque société et de sa culture. Et aussi au regard de la compréhension fine de ce qui se passe au niveau mondial afin d’éviter les écueils.

Dans la salle, les mains se lèvent, le public est passionné par le sujet. Les experts répondent, à tout, relancent par de nouvelles questions ou invitent à lire des ouvrages. Ils insistent aussi sur l’importance de faire rentrer l’IA à l’école, très tôt : les principes fondateurs, un peu d’algorithme en classe de CP, un petit robot à manipuler.

Le mot de la fin revient à Alain Juppé : « L’IA c’est bien, l’intelligence humaine c’est encore mieux », saluant ainsi la très grande qualité des interventions des experts.

 

Synthèse a’urba

 


1 Référence à AlphaG, programme informatique développé par l’entreprise Google DeepMind.

2 L. Devillers cite notamment le récent ouvrage « l’intelligence artificielle n’existe pas » de Luc Julia, l’un des deux créateurs de l’assistant vocal Siri.

3 Créé par Hanson Robotics

4 Règlement Général sur la Protection des Données, texte de référence depuis mai 2018 en matière de protection des données à caractère personnel au sein de l’Union européenne

 

Photos ©

8 février 2019 - Conférence Intelligence Artificielle au Rocher de Palmer, Cenon
8 février 2019 - Conférence Intelligence Artificielle au Rocher de Palmer, Cenon

Voir aussi

Facebook Twitter Youtube Newsletter