Les biais cognitifs sont présents à chaque fois qu’une décision humaine est prise. À ce jour, plus de 200 biais sont publiés dans des travaux de recherche. J’ai pris la peine de les recenser dans une encyclopédie plutôt exhaustive. Dans le recrutement, un domaine où chaque étape est une succession de décisions prises par des humains, ils sont même omniprésents (voir le livre à paraître de Marie-Sophie Zambeaux qui traite du sujet [1]).
À l’heure de l’intelligence artificielle (IA) où les algorithmes s’occupent de plus en plus de tâches humaines, même les plus complexes, la question des biais cognitifs est plus que jamais posée.
Ces algorithmes peuvent-ils servir à réduire les biais ? Sont-ils finalement la solution pour corriger les erreurs de jugement en remplaçant l’homme à chaque fois que c’est possible comme c’est plaidé par un certain courant de pensée, incarné par exemple par le psychologue clinicien Paul Everett Meel, depuis les années 1950 ? Ou est-ce dangereux, comme le redoutent d’autres, de recourir à la décision mécanique pour une question profondément humaine telle que le recrutement ?
La machine marque indéniablement des points quant aux biais cognitifs et la réduction des erreurs en général : elle va vite et ne fatigue pas, n’est pas corruptible, et n’a jamais faim ou soif. Elle peut être multitâche et n’a aucun problème de perte d’attention. Elle dispose d’une mémoire quasi illimitée, retient tout, ne souffre pas de biais mnésiques (mémoire). Il n’est dès lors pas étonnant de constater que même des modèles linéaires simples peuvent surpasser l’homme dans nombre de domaines comme il a été démontré dans de nombreuses études publiées il y a plusieurs années déjà [2].
Avec tous les avantages susmentionnés, on est tenté de vite clore le débat et demander l’introduction de machines boostées à l’IA partout où une décision RH est prise. Mais la réalité est plus complexe, aussi complexe que l’homme lui-même.
Et l’homme créa la machine à son image…
Il faut d’abord souligner que même les modèles d’IA les plus élaborés ne sont pas parfaits et font des erreurs contrairement à ce qu’on peut entendre ici et là. Certains modèles sont même assez médiocres et lèvent beaucoup de fausses alarmes, ce qui les rend inutilisables en pratique. Quand Facebook a introduit une IA de modération des contenus relatifs à la nudité, son outil a banni la célèbre œuvre d’art « l’Origine du Monde » ! Aussi, les modèles d’IA à base d’apprentissage automatique sont vulnérables à certains types d’attaques – moi qui travaille sur la sécurité de l’IA, j’en sais quelque chose –, donc corruptibles d’une certaine manière.
Et les biais, concernent-ils les algorithmes d’IA ? La réponse est clairement oui et peut tenir en une phrase : « l’homme crée la machine à son image. » Paradoxalement, plus la machine devient intelligente, se rapproche d’une certaine manière de l’homme, plus elle intègre les défauts de son créateur. L’IA qui a bouleversé la technologie ces dernières années est basée sur ce qu’on appelle apprentissage automatique. Autrement dit, elle apprend à partir de grosses masses de données (big data). Or, ces données-là sont annotées par des humains ou reflètent des décisions prises par des humains. Que se passe-t-il alors si des biais existent dans les décisions et donc dans ces données ? Et que se passe-t-il par exemple si les données concernent un groupe ethnique et qu’on essaie d’utiliser l’IA pour des décisions concernant des personnes d’un autre groupe ethnique ? Mettez un enfant qui n’a jamais vu un autre enfant de couleur différente à la sienne devant un enfant différent et vous verrez son étonnement et peut-être même une certaine frayeur s’afficher sur son visage. Non, il n’a rien d’un raciste. C’est juste un innocent qui a été élevé dans un environnement où il avait l’habitude de voir des gens qui lui ressemblent. Avec la machine, c’est un peu la même chose. Elle reflète les données ou les règles qui ont été utilisées pour l’entraîner. C’est ainsi qu’un service de reconnaissance faciale de chez Amazon n’a pas su détecter le visage d’une étudiante noire [3]. Le recrutement n’échappe pas à cette règle.
Retour sur un exemple mythique parmi d’autres …
En 2014, la firme de Jeff Bezos [Amazon] a développé un programme de recrutement basé sur l’IA pour automatiser l'évaluation des CV en attribuant des notes de 1 à 5 étoiles. Cependant, l'entreprise a abandonné le projet quelques années plus tard après y avoir découvert un biais sexiste : l’IA défavorisait les candidatures féminines. Explication ? Elle a été entraînée sur des CV majoritairement masculins reçus sur dix ans, reflétant la prédominance des hommes aux postes de développeur de logiciel et aux autres postes techniques. Malgré des ajustements pour éliminer les références discriminatoires, Amazon a conclu que le programme pouvait encore trouver d'autres façons de discriminer. Finalement, l'équipe en charge du programme d’IA a été dissoute [4].
Mais les biais dans les machines peuvent se manifester d’une manière encore plus pernicieuse, souci lié cette fois à la manière d’entraîner les modèles d’IA.
Exemple : Un acteur comme Facebook cherche à maximiser le temps que les gens passent sur le réseau social, une plateforme dont le business model repose de façon écrasante sur la publicité. La plateforme utilise une IA pour décider quoi montrer et quand dans le fil d’actualité du mur de chaque utilisateur. Cette IA a été entraînée pour maximiser ce qu’on appelle « engagement », l’interaction entre l’internaute et la plateforme quand il publie des commentaires, likes, photos, etc. Or, les messages qu’on peut considérer comme problématiques (haineux, racistes, provocateurs…) sont ceux qui excitent les internautes et les poussent à plus d’engagement, car il faut répondre à chaque fois qu’on se sent agressé, soit directement soi-même soit quand cela concerne une personne ou un groupe proche qu’on identifie comme cible. C’est comme cela que des gens passent parfois des heures, au grand bonheur des réseaux sociaux, à jouer au coq sur la Toile ! De ce fait, l’IA va encourager les contenus polémiques alors qu’à aucun moment on ne lui a donné explicitement la consigne de le faire. On ne peut donc l’accuser de racisme par exemple même si elle encourage implicitement le phénomène.
De la même manière, un algorithme pourrait discriminer à l’embauche en utilisant implicitement un attribut présent directement dans les données (taille, couleur de peau, groupe ethnique, origine sociale, maladie…) ou en déduire à partir d’autres moins problématiques de prime abord (quartier d’habitation, âge, salaire précédent(*), type de contrat de travail…), qui peuvent en réalité être bien corrélées avec une donnée problématique (ex. : groupe ethnique). La source du problème réside en fait dans les critères d’optimisation de l’algorithme. Si on lui demande de maximiser une rentabilité ou une performance quelconque, il tirera le « meilleur » des données pour y arriver, tout le reste ne serait que dommage collatéral.
Ou comment l’IA peut aggraver les biais avec le ciblage discriminatoire…
Selon un audit récent mené par l'Université de Californie du Sud (USC) [5], le système de diffusion d'annonces d’offres d’emploi de Facebook continue de présenter des biais de genre, en violation des lois américaines sur l'égalité des opportunités d'emploi. Malgré les promesses de la plateforme et les modifications apportées après des poursuites judiciaires antérieures, la nouvelle étude a montré que les annonces sont toujours diffusées à des audiences biaisées selon le genre. Par exemple, les annonces pour des postes de livreurs chez Domino’s ont été montrées principalement aux hommes, tandis que celles pour Instacart (poste de caissier) ont été montrées principalement aux femmes, reflétant la répartition actuelle des genres dans ces emplois. Dans la même veine, les annonces pour les sociétés de taxis sont montrées la plupart du temps à des personnes afro-américaines.
Bien entendu, si la plupart des postes de caisse sont actuellement occupés par des femmes, la diffusion des nouveaux postes aux seules femmes ne fera que perpétuer le phénomène dans le futur, voire même l’aggraver.
Et à la fin, c’est toujours la machine qui gagne…
Selon Gartner, 75 % des entreprises dans le monde utilisent aujourd'hui une forme d'IA pour leur processus de recrutement, y compris chez des mastodontes tels que Unilever, Nestlé, Pfizer, et General Motors. Selon une récente étude du même cabinet [6], pas moins de 76 % des responsables RH pensent qu’ils seront à la traîne en matière de réussite organisationnelle s’ils n’adoptent pas et ne mettent pas en œuvre l’IA au cours des 12 à 24 prochains mois.
En effet, les gains de productivité sont indéniables : alors qu’un recruteur qui traite 100 CV manuellement mettrait environ 24 heures (jour et nuit non-stop !) pour effectuer une première sélection, il faudrait seulement quelques minutes pour un algorithme. Et l’analyse ne s’arrête pas aux CV des candidats. Des outils d’IA spécialisés dans l’analyse comportementale (ex : HireVue) – attention, ce type d’outils sera non conforme à l’AI Act qui interdira les outils d’inférence d’émotions dans les entreprises et dans les établissements éducatifs [7] –, captent les expressions faciales et la voix des candidats lors d’entretiens vidéo pour en tirer des prédictions sur leur future performance. Par exemple, un candidat pour un poste dans le domaine de la communication se montrant hésitant ou nerveux durant l’entrevue serait ainsi facilement repéré et probablement recalé ! D’autres IA a priori moins intrusives permettent de prendre des notes ou de retranscrire le contenu de toute une entrevue (attention à la manipulation des données résultant de la captation de la voix qui est elle aussi une donnée personnelle !). Étant donné le caractère chronophage et lourd des entretiens, ces outils permettent de gagner un temps non négligeable.
L’IA c’est donc bien, avec moins de biais ce sera encore mieux…
L’IA pour l’aide au recrutement est porteuse de réelles promesses et pourrait s’imposer par la simple logique économique, mais présente des biais et mêmes des risques d’aggravation des préjugés. De ce qui a été dit précédemment, on peut tirer plusieurs pistes d’amélioration des modèles d’IA utilisés pour le recrutement :
1. Données diversifiées : Former les algorithmes avec des données représentatives de la diversité sociétale pour éviter des biais hérités de décisions passées. Cela pourrait se faire aussi en complétant l’IA avec des outils annexes pour une meilleure inclusion.
2. Transparence : Rendre clairs les critères des algorithmes pour expliquer les décisions, réduisant ainsi l’effet de "boîte noire" qui ne fait que susciter de la méfiance (aversion algorithmique). La transparence passe aussi par une information éclairée des candidats quant aux outils d’IA utilisés pour leur sélection.
3. Collaboration humain-IA
- Intervention humaine : Impliquer des recruteurs humains pour revoir et valider les décisions prises par l'IA, en particulier dans les cas ambigus.
- Formations sur l’équité : Former les équipes de recrutement sur les questions de biais inconscients et sur la manière de reconnaître et de corriger les biais dans les outils qu’elles utilisent.
4. Feedback continu et amélioration
- Collecte de feedback : Permettre aux candidats de fournir des retours sur leur expérience, et utiliser ces retours pour affiner et améliorer les modèles d’IA.
- Mesure des résultats / Audit : Analyser les résultats des recrutements, en faisant éventuellement appel à des experts, pour voir si des biais systémiques persistent et ajuster les algorithmes en conséquence.
5. Mise en place de garde-fous réglementaires
- Réglementations et normes : S'assurer que l'outil respecte les réglementations locales et internationales sur la non-discrimination.
- Certification éthique : Opter pour des labels ou des certifications d’éthique qui garantissent l'utilisation équitable des technologies d'IA.
Mais encore une fois, toutes les pistes susmentionnées impliquent la décision humaine et cela nous renvoie à une conclusion triviale : toute amélioration des IA pour les rendre moins biaisées passe d’abord par un travail sur l’humain lui-même. Il y a tout un tas de techniques pour dompter nos biais [8] et cela passe par exemple par la sensibilisation et le travail collaboratif. Tachons donc d’être plus rationnels et nos outils d’IA suivront !
-------
(*) La demande d’information concernant le salaire précédent sera bientôt interdite - transposée en droit français au plus tard en juin 2026 - suivant les nouvelles exigences de transparence salariale imposées par une directive européenne adoptée en mai 2023.
[1] Marie-Sophie Zambeaux, Recrutement sous influence : Libérez-vous des biais cognitifs, Dunod, (ouvrage à paraître en février 2025).
[2] Dawes, R. M., Faust, D., & Meehl, P. E. (1989). Clinical versus actuarial Judgment. Science, 243(4899), 1668-1674.
[3] Voir le documentaire « Coded bias », Shalini Kantayya, 2020.
[4] Ouest-France avec Reuters, Amazon a automatisé des recrutements, mais le logiciel excluait les femmes de certains postes, 10/10/2018.
[5] MIT Technology Review, Facebook’s ad algorithms are still excluding women from seeing jobs, 2021.
[6] Gartner, Top 5 Priorities for HR Leaders in 2024.
[7] Call for input, AI systems for emotion recognition in the areas of workplace or education institutions Prohibition in EU Regulation 2024/1689 (AI Act).
[8] Boussad Addad, Encyclopédie des biais cognitifs, le guide ultime pour bien décider et arrêter de se planter, publication indépendante, (voir le dernier chapitre qui donne une longue liste de techniques pour prendre des décisions plus rationnelles et moins biaisées).