Recrutement : l’IA sera-t-elle aussi raciste et sexiste que nous ?

Temps de lecture : 3 minutes

En 2016, à peine lancée, le chatbot Tay de Microsoft dérapait sur Twitter : propos négationnistes, apologie d’ Hitler…ses créateurs l’ont débranché après seulement 24h. En 2017, un an plus tard, ce fut le tour d’une autre intelligence artificielle, nommée Glove, de reproduire des stéréotypes grossiers : les femmes associées aux arts, les hommes aux professions scientifiques…

Pourquoi certaines Intelligences Artificielles, que l’on nous présente comme le progrès absolu, finissent par reproduire les discours de Tonton Fernand après 3 verres de vin rouge ? Pour comprendre il faut se pencher sur le mode de fonctionnement  de ce que la plupart des scientifiques refusent d’appeler « Intelligence » Artificielle. Beaucoup lui refusent cet honneur, et préfère utiliser le terme “Apprentissage Récursif”. Explication.

Lorsque les machines gagnent aux échecs ou au jeu de go, créent de la musique classique ou des vidéos criantes de vérité, elles ne font appel à aucun type de réflexion. Elles réalisent simplement un nombre considérable de “tests/erreurs” qui leur permet finalement de proposer un comportement adapté.

À titre de comparaison : si vous mettez une grenouille face à un piano minuscule, et que vous lui envoyez une décharge chaque fois qu’elle fait une fausse note, elle finira par savoir jouer du Chopin. Problème : à raison de 100 fausses notes par jours il lui faudra sans doute quelques centaines d’années. Une IA, elle, peut réaliser plusieurs millions de tests/erreurs par seconde. Elle battra donc la grenouille à plate couture dans l’apprentissage du piano, mais n’aura pas une réflexion bien supérieure.

Pour apprendre les machines ont donc besoin de distinguer ce qu’est une erreur (une fausse note) de ce qui n’en est pas (une note juste). Les algorithmes des chatbots, pour réaliser leur apprentissage tests/erreurs, ont donc besoin d’une base de données gigantesques de « réponses » qui sonnent justes. Pour certaines, notamment Tay de Microsoft, ce fut Twitter. Elle a donc exploré les réponses données à des milliards de questions sur ce réseau social, et en a déduit une trame de discussion la plus humaine possible.

Tout l’apprentissage des machines et donc basé sur la reproduction du comportement qu’elle a appris, sans réflexion ni analyse de ce dernier. Il est donc normal que ces « Intelligences » reproduisent les biais et stéréotypes véhiculés sur ces derniers. Y compris pour les théories les plus violentes : ces théories sont en général plus activement défendue par leurs partisans que la recette de la courge à la tomate.

Ce genre d’incidents nous interroge sur l’utilisation de l’IA, à l’heure où nous lui confions de plus en plus d’éléments de décisions. Quelle est la limite éthique de la démarche ? Si on peut pardonner Tonton Fernand, voire se dire qu’il changera, qu’en est-il d’une machine ?

Valérie Touraine, CEO du chatbot RH JAI récemment acquis par JobiJoba, nuance : “Un chatbot peut reposer sur une véritable IA ou de simples arbres de discussions. Chez JAI, pour une expérience candidat unique, nous utilisons les deux. D’une part, notre brique d’Intelligence Artificielle (aussi appelé NLU) est entraînée sur l’ensemble des discussions avec les candidats par une équipe de datascientists qui maîtrise son apprentissage. Ainsi on évite l’effet boîte noire. Cela nous permet de comprendre les questions des candidats afin d’y répondre au mieux. D’autre part, nous avons des scénarios guidés pour accompagner le candidat dans sa découverte de l’entreprise et de ses offres. »

Et surtout, précise-t-elle, “toute la qualité d’une IA vient du choix de la base d’entraînement, sélectionnée et optimisée par les data scientists”. Quand on voit l’agressivité bien connue des échanges sur Twitter, on peut se demander comment ceux de Microsoft ont pu espérer un résultat différent ?

Une certitude : ces notions de “qualité d’IA” vont se poser de plus en plus, et un peu plus de transparence sera de mise. Dans notre article « L’effet pôle emploi» , nous pointions déjà du doigt les limitations d’une qualification trop rigide la base. Algorithmes de matching, recherche sémantique…tous ces outils doivent être au service de l’utilisateur et non pas entériner des biais contre lesquels il faut lutter. Chez Tool4staffing nous sélectionnons avec soin nos outils d’Intelligence Artificielle. Ils sont en outre pensés pour proposer une puissante aide à la décision, mais en aucun cas s’y substituer. Le temps gagné est notable, la base candidats infiniment mieux qualifiée, et le dernier regard lui, reste humain. C’est pour nous un engagement fort, dans un domaine où la discrimination est, on le sait, encore très présente.

>> DEMANDEZ UNE DÉMO GRATUITE <<