Le scoring CV par IA : l'illusion de l'objectivité

Le scoring CV par IA, comment ça marche vraiment ? Comprendre les technologies derrière les scores pour recruter avec discernement et transparence.

Virgile F.
Virgile F.
Recops, Talent Acquisition, Sourcing Specialist
Publié le 28/04/26
Le scoring CV par IA : l'illusion de l'objectivité
Image générée par IA
Note de la rédaction :

Le scoring CV au banc d'essai.

Le tri de CV est sans doute la « galère historique » du recrutement. Comme le rappelle Oriane dans ses analyses sur la charge mentale des recruteurs, c'est l'étape la plus chronophage, celle où l'erreur humaine est la plus fréquente face au volume. Alors, quand l'IA promet d'automatiser cette sélection via un « scoring intelligent », la tentation de déléguer est immense.

Mais que se passe-t-il quand on active vraiment ces fonctionnalités ?

Pourquoi ce sujet est crucial aujourd'hui.

L'arrivée de l'IA dans les outils de recrutement ne change pas seulement nos clics, elle transforme nos processus :

- Sur la prise de décision : le risque est de passer d'un jugement humain (biaisé, certes) à une validation aveugle d'un score machine dont on ne maîtrise pas la logique.
- Sur le métier : comment rester garant de la diversité et de l'équité si l'outil de tri reproduit les schémas du passé en toute invisibilité ?

L'objectif de ce partage n'est pas de rejeter la technologie, mais de sortir de la fascination pour exiger de la transparence. À l'image de ce que Sylvain a récemment proposé sur la préqualification par IA, nous souhaitons engager le dialogue avec vous.
Ou encore comme quand j’avais discuté avec Mehdi Moussaid sur les tests de personnalité en recrutement.

Utilisez-vous déjà le scoring dans votre quotidien ? Si c’est le cas, voici les questionnements que cette contribution vise à déclencher : quelles sont vos déceptions, vos craintes, mais aussi vos réussites et vos attentes face à ces solutions ?

Bonne lecture !

Silvia

J'ai activé pour la première fois la fonctionnalité de suggestion IA de mon ATS il y a quelques semaines pour tester.
Poste à pourvoir : consultant e-commerce. L'outil m'a proposé une shortlist de candidats "qui pourraient correspondre", directement depuis mon vivier.

Premier profil : CTO
Deuxième : architecte logiciel
Troisième : encore un profil tech senior

Rien à voir avec ce que je cherche.

J'ai refait le test sur d’autres postes, même résultat. Sur trois essais, je n'ai pas trouvé un seul profil pertinent.
Pourtant, l'outil me dit qu'il a "analysé" mon vivier et "identifié" les meilleurs candidats. Avec quels critères ? Sur quelle logique ? Impossible de savoir.

Ce que je comprends, c’est que personne ne sait vraiment ce qu'un score de CV mesure. Ni les recruteurs qui l'utilisent, ni les candidats qui subissent le tri, ni même parfois les éditeurs qui le vendent.

Pourtant, ces chiffres peuvent éliminer des candidats tous les jours.

De quoi on parle vraiment quand on dit « scoring CV » ?

Quand un éditeur te parle de « scoring CV », il ne parle pas toujours de la même chose.

En pratique, il y a quatre briques différentes :

Le parsing : l'outil extrait les infos du CV (Nom, compétences, dates, diplômes)
Le matching : il rapproche le CV et l'offre.
Le ranking : il classe les candidatures par ordre de pertinence.
Le rating : il sort une note ou un pourcentage.

Le problème pour moi commence déjà là. Parce que derrière le mot « matching », il y a au moins trois technologies complètement différentes.

Le matching lexical (la base de la plupart des ATS)

C'est du matching par mots-clés. L'outil cherche si le CV contient les termes exacts de l'offre.

Python ? Adobe commerce ? Gestion de projet ? Si c'est dans le CV, ça matche, sinon, non.
Si tu écris "analyse de données" et que l'offre dit "data analysis", tu perds des points.

Le système lit le CV, extrait les infos (diplômes, expériences, compétences), compare avec l'offre par correspondance exacte, pondère selon des règles fixes, et sort un score (85/100, 3 étoiles ou un classement).

Il n'y a aucune intelligence là-dedans, juste des opérateurs booléens qui appliquent des pondérations prédéfinies.

C'est ce que font la plupart des ATS classiques.

Mais certains éditeurs sont allés plus loin.

Le matching sémantique (l'étape d'après)

Là, on passe au traitement du langage naturel. L'outil ne cherche plus des mots exacts, il cherche du sens.
Il sait que "analyse de données" et "data analysis", c'est la même chose. Il utilise des modèles de représentation vectorielle (BERT, Word2Vec, Sentence-Transformers) pour comprendre les proximités sémantiques.

Beaucoup plus puissant que le matching lexical, mais aussi beaucoup plus opaque.

L'outil lit le CV, compare avec l'offre en détectant les synonymes et proximités de sens, pondère selon des règles configurables, et sort un score.

Mais il n'apprend pas de tes choix de recrutement.
Les modèles sont entraînés sur des corpus linguistiques généraux (millions de CV et d'offres d'emploi en plusieurs langues).
Ils appliquent les mêmes règles sémantiques pour tout le monde.

Le matching statistique / machine learning (le plus opaque)

On bascule dans le machine learning supervisé. Le système apprend à partir des données historiques souvent définies en amont par l’éditeur, puis parfois ajustées avec les données du client.

Si ce modèle est techniquement stable et théoriquement explicable (via l’XAI : Explainable Artificial Intelligence), le problème réside souvent dans la gouvernance : les éditeurs ne donnent pas toujours les clés pour comprendre la logique de calcul. Le risque majeur devient alors l’usage métier : un tri automatique déguisé. Si l’IA classe 200 CV et que l’humain n’en regarde que les 10 premiers, c’est l’algorithme qui a éliminé les 190 autres, peu importe la technologie utilisée.

Il arrive donc avec une certaine “vision” de ce qu’est un bon profil… et a tendance à reproduire ces schémas. L'objectif : prédire quels candidats vont passer les étapes du processus de recrutement. Le problème : il reproduit les biais (conscients ou non) présents dans les données d’entraînement historiques. Concrètement, le CV est analysé et transformé en données (compétences, expériences, rôles…). L’offre suit la même logique.

Le système compare ensuite les deux, puis calcule un score en fonction de ce qui a marché dans les recrutements passés :

  • École ou diplôme : souvent très valorisés parce que corrélé avec les recrutements passés.
  • Entreprise précédente : si tu viens de Google, Amazon ou McKinsey, ton score monte.
  • Durée d'expérience, certifications, outils maîtrisés.

Si les recruteurs de l'entreprise sélectionnent souvent des candidats venant de Polytechnique, l'IA apprend que "Polytechnique = bon". Le poids de ce signal augmente automatiquement. Si dans ton historique, 90 % des "top performers" viennent de 5 écoles précises, l'algorithme va apprendre que seules ces 5 écoles produisent de bons candidats. Il va scorer plus haut les diplômés de ces écoles, sans que tu lui aies jamais demandé. C'est ce qu'on appelle un proxy : une variable cachée que l'algorithme utilise sans que tu lui aies demandé.

Le problème, c’est que tous les éditeurs ne te disent pas vraiment comment ça fonctionne. Ils parlent de “scoring intelligent”, mais sans expliquer ce qu’il y a derrière. Tu obtiens un score… sans comprendre pourquoi un candidat ressort plutôt qu’un autre.
Alors qu’aujourd’hui l’enjeu n’est plus juste d’avoir un score, mais de pouvoir comprendre et challenger ce qui le justifie. Et selon le système, le résultat peut être radicalement différent. Deux outils peuvent donner des scores radicalement différents pour le même candidat. L'un va scorer à 85 %, l'autre à 62 %.

Double échec (ChatGPT + ATS)

J'ai pris des CV (anonymisés) que je connaissais bien, des profils que j'avais déjà évalués, avec qui j'avais échangé.

Je savais ce qu'ils valaient, donc j'ai tout donné à ChatGPT : l'annonce, le brief manager, les critères de sélection. Je lui ai demandé de me faire des Go ou no-Go et d’argumenter.

Il a dégagé des profils excellents par logique stricte.
Un CV dit "4 ans d'expérience", la règle dit "minimum 8 ans", c'est non. Même si le candidat a fait en 4 ans ce que d'autres font en 8, même si son parcours est exactement ce qu'on cherche, c'est éliminé.

Il ne comprend pas les signaux implicites non plus.
Un profil qui liste des termes comme Fastify, Express, NestJS mais ne mentionne pas explicitement "Node.js" ? Un recruteur tech sait immédiatement de quoi on parle. Un LLM non. Il faut tout expliciter dans le prompt, sinon il passe à côté.
Il ne capte pas le potentiel d'un parcours, seulement l'écart à la règle qu'on lui a donnée.

Ensuite, j’ai voulu activer les fonctionnalités de scoring de mon ATS.

L'une suggère automatiquement des candidats depuis ma base ATS, l'autre évalue les candidatures entrantes selon des critères prédéfinis pour le poste.

Ma DPO m'a challengé avant même de commencer.

"Tu peux m'expliquer comment le score est calculé ?"
”Qu'est-ce qui fait concrètement qu'un candidat est suggéré ou non ?”
”Quelles données pèsent le plus dans le calcul ? École ? Entreprise précédente ? Mots-clés ? Score passé ?”

Ma DPO a raison d'être frileuse, parce que si un candidat me demande pourquoi son CV n'a pas été retenu, je dois pouvoir expliquer.
Si ma réponse est "l'algorithme t’a scoré à 62 % mais je ne sais pas pourquoi", je suis en infraction RGPD.
Si l'IA trie automatiquement les candidatures et que les profils en bas de pile ne sont jamais vus par un humain, c'est une décision automatisée, et le RGPD encadre strictement ce cas.
Si l'IA apprend à partir de données historiques et qu'elle infère des corrélations entre des proxys cachés et la performance, elle peut reconstituer des données sensibles sans jamais les avoir traitées explicitement.

Je n'ai pas activé ces fonctionnalités parce que personne ne peut me dire ce qu'elles mesurent vraiment.
Sans transparence, sans explicabilité, sans possibilité de recours pour les candidats, c'est une bombe juridique qui attend juste le bon timing pour péter.

Un scoring donne l'impression d'être objectif, ça sonne rationnel.
Mais c'est une approximation produite par un algorithme. Pour moi, le danger n'est pas tant l'erreur ponctuelle que la confiance qu'on place dans un outil.

Les biais ne sont pas une hypothèse (ils sont documentés)

On pourrait croire que le problème du scoring CV par IA, c'est un risque théorique, mais dans certains cas, ils ont fait l'objet de procès.

En 2018, Amazon développe un outil IA interne pour trier les CV d'ingénieurs logiciels.
L'algorithme, entraîné sur 10 ans de données historiques majoritairement masculines, downgrade systématiquement les CV féminins. L'IA a appris que les "bons candidats" ressemblent aux employés actuels, et les employés actuels étaient majoritairement des hommes.
Amazon abandonne le projet source Reuters, 2018.

HireVue analyse les expressions faciales, les intonations vocales, le vocabulaire des candidats lors d'entretiens vidéo.
L'ACLU et des chercheurs dénoncent des biais contre les personnes sourdes, autochtones, non-natives en anglais.
Le problème : l'analyse des émotions est culturellement située.
Ce qu'un algorithme lit comme de la confiance chez un candidat peut être lu comme de l'agressivité chez un autre.
HireVue retire l'analyse faciale en 2021, sous pression.

Derek Mobley, homme noir de plus de 40 ans souffrant de troubles anxieux, dépose une class action contre Workday.
Il postule à plus de 100 offres via des entreprises utilisant Workday, rejeté systématiquement, sans jamais qu'un humain lise son CV.
Accusation : discrimination algorithmique basée sur race, âge, handicap.
C'est le premier procès qui vise l'éditeur du logiciel, pas seulement l'employeur.

Les recherches académiques récentes le confirment.
Le MIT teste ChatGPT sur 2 800 CV en février 2025 : il sélectionne le premier CV de la liste 86 à 100 % du temps, même quand on lui demande explicitement de ne pas le faire.
Les candidats issus d'universités prestigieuses voient leur taux de sélection passer de 10 % à 26 %, les autres ne sont jamais sélectionnés.

Ces systèmes répliquent et amplifient les biais humains parce qu'ils apprennent à partir de données historiques qui reflètent des décisions humaines imparfaites et biaisées.

Ce que vivent les candidats

Un candidat postule à une offre. Il ne reçoit jamais de réponse. Ou alors un mail automatique deux semaines plus tard : "Votre profil ne correspond pas aux critères recherchés."

Il ne sait pas pourquoi. Il ne sait pas ce qui n'a pas marché dans son CV. Il ne sait même pas si quelqu'un l'a lu.

Alors il imagine que c'est l'IA qui a décidé.
Qu'une machine a scanné son parcours, calculé un score, et l'a éliminé.
C'est d'ailleurs ce que tout le monde lui dit : les articles parlent de "tri automatique", les recruteurs eux-mêmes évoquent des "présélections par IA", les éditeurs vendent du "matching intelligent".

Comme si la décision était prise par l'algorithme. Sauf que c'est faux.

L'IA ne décide rien. Elle trie, elle classe, elle suggère des profils, mais la décision, elle reste toujours humaine.
C'est un recruteur qui consulte les 30 premiers CV scorés et qui ignore les 90 autres.

Mais ça, personne ne veut l'assumer. Les recruteurs disent "l'outil m'a suggéré ces candidats", les candidats croient que "l'IA m'a rejeté", et tout le monde se cache derrière l'algorithme.

La plupart des candidats pensent que le système les défavorise et qu'ils ne seront jamais vus.
Et ils ont raison. Non pas à cause de l'IA, mais parce que les recruteurs s'en servent comme d'un filtre définitif.

Le mythe de "l'IA qui décide" arrange tout le monde.

Les éditeurs peuvent vendre leur produit sans assumer les biais. Les recruteurs peuvent justifier leurs choix sans expliquer leurs critères. Les candidats peuvent se dire que ce n'est pas eux, c'est l'algorithme.

Le cadre légal : entre RGPD et l'arrivée de l'IA Act

Le cadre juridique a franchi une étape majeure. Si le RGPD encadre déjà les décisions automatisées (Article 22), lIA Act, entré en vigueur en 2024 mais pleinement applicable en août 2026, change radicalement la donne pour le recrutement.

1. Le recrutement : une zone "à haut risque"

Selon la classification de l'IA Act, les systèmes d'IA utilisés pour le recrutement, la sélection (tri de CV) et la gestion des travailleurs sont classés comme "à haut risque". Cela signifie que l'outil ne peut pas être une "boîte noire". L'éditeur et l'entreprise utilisatrice ont désormais des obligations strictes de gestion des risques et de qualité des données.

2. L'exigence de transparence et de contrôle humain

La CNIL est formelle : l'utilisation de ces outils impose une gouvernance de l'IA.

  • Explicabilité : Vous devez être en mesure d'expliquer au candidat la logique de l'algorithme. "Le score est de 62 %" n'est pas une explication légale.
  • Contrôle humain effectif : L'IA Act impose que le système soit conçu pour être supervisé par des humains. Un recruteur qui ne consulte que les 50 premiers profils suggérés sans jamais regarder les 150 autres pratique une "décision automatisée déguisée". En cas de refus, le candidat doit pouvoir contester et obtenir une intervention humaine réelle.

3. La conformité dès la conception

Désormais, avant d'activer une fonctionnalité de scoring, vous devez vérifier si l'éditeur a réalisé une analyse d'impact et s'il respecte les normes de l'IA Act (journalisation des événements, cybersécurité, limitation des biais). La CNIL rappelle que même si l'outil est fourni par un tiers, la responsabilité de l'employeur reste engagée en cas de discrimination ou de manque de transparence.

NB : Utiliser un scoring sans comprendre ses critères de pondération n'est plus seulement un risque éthique, c'est une infraction caractérisée au nouveau règlement européen. Sans documentation technique précise fournie par l'éditeur, vous naviguez à vue dans une zone de fortes sanctions financières. Source : la CNIL

Pour moi, le danger, c'est la confiance aveugle dans l'outil.

Parce qu'un recruteur qui regarde un score à 92 % et un score à 73 % ne va pas forcément creuser le 73 %. Il va supposer que l'algorithme a raison. Il va optimiser son temps et déléguer le jugement.

On est sur un problème de gouvernance.

Si tu ne sais pas ce que mesure ton outil, si tu ne peux pas l'expliquer, si tu ne peux pas l'auditer, ne l'utilise pas.
Parce que tu es en train de sous-traiter une décision stratégique à un système que tu ne comprends pas.

De mon côté, je suis en pleine étude d'impact avec mon équipe SMSI. On regarde si on peut activer ces fonctionnalités sans se mettre en risque juridique. Pour l'instant, on n'a pas les réponses.

Tu utilises du scoring CV avec l’IA ? Partage ton RETEX. Qu'est-ce qui a marché, qu'est-ce qui a planté ?

Nos articles similaires

3 prompts pour sécuriser le lancement d’un recrutement
3 prompts pour sécuriser le lancement d’un recrutement
Découvrez 3 prompts IA pour structurer vos recrutements. Du brief manager à la scorecard, sécurisez chaque étape pour éviter les erreurs et engager vos équipes.
L'IA & RH : Au-delà du mythe et de la hype. Démystifions le sujet
L'IA & RH : Au-delà du mythe et de la hype. Démystifions le sujet
Entre mythes et réalités, la websérie RH de l'année démystifie l'IA. Découvrez dans cette épisode les applications concrètes, les enjeux éthiques et la place essentielle de l'humain dans le monde du travail de demain.
Pourquoi les RH ne peuvent plus se permettre d’ignorer l’IA
Pourquoi les RH ne peuvent plus se permettre d’ignorer l’IA
Shadow IA, transformation des compétences et gouvernance : découvrez pourquoi les RH doivent impérativement piloter l'intelligence artificielle. Passez de spectateur à stratège pour sécuriser les données et réinventer le travail.

Prêts à transformer vos recrutements ?

Faites comme des milliers de recruteurs : gagnez du temps pour vous consacrer enfin à l'humain.

*C'est gratuit, sans engagement.