« l’Intelligence Artificielle ne résoudra pas les problèmes de la société à la place des humains »
- Club Digital
- Blog
- 0 Comments

D’après une nterview d’Isabelle Ryl, Directrice du centre de Recherche Inria de Paris. Propos recueills par Gaëlle Brunetaud-Zaïd
Reconnaissance vocale, recommandation personnalisée, l’intelligence artificielle (IA) développe tous les jours des capacités toujours plus grandes. Quelles sont les limites de sa puissance, dans les conditions d’utilisation qui sont connues actuellement ?
Une idée ancienne, un champ des possibles grandissant
L’intelligence artificielle n’est pas tout à fait un sujet nouveau. Cette discipline est née il y a 60 ans, en 1956, quand vingt chercheurs se sont réunis sur le campus de l’université américaine de Dartmouth. Elle a suscité beaucoup d’engouement dans les années 1980, mais les résultats n’ont pas été à la hauteur des attentes. Les politiques, les journalistes et le grand public s’en sont alors désintéressés, mais la discipline n’a pas disparu, elle a continué de progresser, analyse Isabelle Ryl.
L’intelligence artificielle est liée à de nombreuses disciplines : la robotique, l’informatique, les mathématiques, le traitement de la parole et de la vision, … « Depuis les années 1980, l’augmentation énorme de la puissance de calcul informatique et de la recherche statistique a permis des avancées gigantesques. La détection des objets a fait de gros progrès : avant, on peinait à faire détecter un animal, aujourd’hui l’intelligence artificielle est capable d’identifier un troupeau de moutons et de les dénombrer », explique Isabelle Ryl. Pensons aussi à la traduction automatique : il y a 10 ans, il s’agissait d’une traduction mot à mot élémentaire, aujourd’hui, elle donne des résultats pertinents dans un grand nombre de situations courantes.
Pour autant, l’intelligence ne résout pas tout
Cela dit, « l’intelligence artificielle qu’on maîtrise aujourd’hui, c’est quelque chose qui fait le travail qu’on lui a demandé », poursuit Isabelle Ryl. La progression des capacités de l’IA n’engendre donc pas une impartialité ni une supériorité de son raisonnement sur celui de l’humain, puisque celle-ci ne fait que s’inspirer de celui-là. Vous avez sans doute entendu parler de Tay[1], le chatbot de Microsoft devenu raciste et misogyne en moins de 24h. Comment expliquer qu’il en soit arrivé là ? « Les tchatbots observent et reproduisent ce qu’ils voient, c’est ainsi qu’ils apprennent », explique Isabelle Ryl. Plus précisément, les algorithmes « apprennent » à partir d’énormes bases de données créées par des humains, dont ils s’inspirent pour émettre des conclusions. Or, ces lots de données sont toujours imparfaits. Si vous prenez le meilleur algorithme du monde et que vous lui demandez d’apprendre à conduire en observant les conducteurs parisiens, il ne va pas apprendre le code de la route, il va faire comme les autres : il ne mettra pas toujours son clignotant avant de tourner et il fera des queues de poisson ». C’est la raison pour laquelle le machine learning[2], et les algorithmes en général, reproduisent les biais de la société. Ils ne résoudront donc aucun des problèmes de la société, qui restent aux mains des humains.
[1] http://www.liberation.fr/futurs/2016/03/25/microsoft-muselle-son-robot-tay-devenu-nazi-en-24-heures_1441963
[2] Le machine learning permet de remplir des tâches impossibles à résoudre avec des algorithmes classiques. Cet apprentissage automatique par l’expérience cherche à établir des corrélations (ou des relations statistiques) entre des événements plutôt qu’un lien de causalité certain.
Articles récents
- « On n’a pas changé un marché, on en a ouvert un nouveau »
- La data ne prive pas de continuer à faire du marketing, au contraire !
- L’intelligence artificielle n’existe pas, Luc Julia nous dit pourquoi
- « Customer Data : the gold rush » ? 8 points de repère pour tirer le meilleur des data
- Maurice Levy – La transformation digitale de Publicis
Leave A Comment