New to site?


Login

Lost password? (X)

Already have an account?


Signup

(X)

« l’Intelligence Artificielle ne résoudra pas les problèmes de la société à la place des humains »

« l’Intelligence Artificielle ne résoudra pas les problèmes de la société à la place des humains »

24
Nov 2017


D’après une nterview d’Isabelle Ryl,
Directrice du centre de Recherche Inria de Paris. Propos recueills par Gaëlle Brunetaud-Zaïd

Reconnaissance vocale, recommandation personnalisée, l’intelligence artificielle (IA) développe tous les jours des capacités toujours plus grandes. Quelles sont les limites de sa puissance, dans les conditions d’utilisation qui sont connues actuellement ?

Une idée ancienne, un champ des possibles grandissant

L’intelligence artificielle n’est pas tout à fait un sujet nouveau. Cette discipline est née il y a 60 ans, en 1956, quand vingt chercheurs se sont réunis sur le campus de l’université américaine de Dartmouth. Elle a suscité beaucoup d’engouement dans les années 1980, mais les résultats n’ont pas été à la hauteur des attentes. Les politiques, les journalistes et le grand public s’en sont alors désintéressés, mais la discipline n’a pas disparu, elle a continué de progresser, analyse Isabelle Ryl.

L’intelligence artificielle est liée à de nombreuses disciplines : la robotique, l’informatique, les mathématiques, le traitement de la parole et de la vision, … « Depuis les années 1980, l’augmentation énorme de la puissance de calcul informatique et de la recherche statistique a permis des avancées gigantesques. La détection des objets a fait de gros progrès : avant, on peinait à faire détecter un animal, aujourd’hui l’intelligence artificielle est capable d’identifier un troupeau de moutons et de les dénombrer », explique Isabelle Ryl. Pensons aussi à la traduction automatique : il y a 10 ans, il s’agissait d’une traduction mot à mot élémentaire, aujourd’hui, elle donne des résultats pertinents dans un grand nombre de situations courantes.

Pour autant, l’intelligence ne résout pas tout

Cela dit, « l’intelligence artificielle qu’on maîtrise aujourd’hui, c’est quelque chose qui fait le travail qu’on lui a demandé », poursuit Isabelle Ryl. La progression des capacités de l’IA n’engendre donc pas une impartialité ni une supériorité de son raisonnement sur celui de l’humain, puisque celle-ci ne fait que s’inspirer de celui-là. Vous avez sans doute entendu parler de Tay[1], le chatbot de Microsoft devenu raciste et misogyne en moins de 24h. Comment expliquer qu’il en soit arrivé là ? « Les tchatbots observent et reproduisent ce qu’ils voient, c’est ainsi qu’ils apprennent », explique Isabelle Ryl. Plus précisément, les algorithmes « apprennent » à partir d’énormes bases de données créées par des humains, dont ils s’inspirent pour émettre des conclusions. Or, ces lots de données sont toujours imparfaits. Si vous prenez le meilleur algorithme du monde et que vous lui demandez d’apprendre à conduire en observant les conducteurs parisiens, il ne va pas apprendre le code de la route, il va faire comme les autres : il ne mettra pas toujours son clignotant avant de tourner et il fera des queues de poisson ». C’est la raison pour laquelle le machine learning[2], et les algorithmes en général, reproduisent les biais de la société. Ils ne résoudront donc aucun des problèmes de la société, qui restent aux mains des humains.

[1] http://www.liberation.fr/futurs/2016/03/25/microsoft-muselle-son-robot-tay-devenu-nazi-en-24-heures_1441963

[2] Le machine learning permet de remplir des tâches impossibles à résoudre avec des algorithmes classiques. Cet apprentissage automatique par l’expérience cherche à établir des corrélations (ou des relations statistiques) entre des événements plutôt qu’un lien de causalité certain.


Related Posts
Leave A Comment

Leave A Comment