Replay
Cet article est une synthèse du live. Rien ne vaut le visionnage complet. ☕ Un grand merci à Anaïs, Vanessa, Boussad et Olivier.
L’intelligence artificielle s’est rapidement imposée comme un compagnon incontournable dans le quotidien des recruteurs. Mais au-delà de l’enthousiasme et des possibilités nouvelles, il devient essentiel de prendre un temps d’arrêt pour interroger les usages, les impacts, et surtout… l’éthique.
Lors de cette deuxième Caméra Café du Recrutement spéciale IA, animée par Anaïs et enrichie des regards croisés de Vanessa, Olivier et Boussad, trois voix complémentaires du monde de l’IA et du recrutement, nous avons exploré sans détour les zones grises de l’intelligence artificielle : consommation énergétique, confidentialité, biais, IA Act, esprit critique…
Voici ce qu’il fallait en retenir.
D’un live à l’autre : la suite logique
Après un précédent live centré sur les cas d’usage concrets de l’IA en recrutement, cette nouvelle édition s’est donnée une mission plus ambitieuse : secouer le cocotier éthique.
Oui, l’IA est puissante.
Oui, elle est utile.
Mais qu’en est-il de ses effets cachés, de ses externalités négatives ?
Une heure de discussion passionnée pour mettre les pieds dans le plat.
Consommation énergétique : le prix caché de la performance
La discussion démarre sur un sujet souvent ignoré : l’impact environnemental de l’IA.Olivier rappelle que faire une requête sur ChatGPT consomme jusqu’à 10 fois plus d’énergie qu’une recherche Google. Si cette pratique se généralise, la consommation mondiale pourrait exploser. Microsoft anticipe d’ailleurs déjà cette tendance, en s’alliant à des centrales nucléaires par exemple.
Vanessa a partagé sa propre prise de conscience : son entreprise mesurant l'empreinte carbone, elle se questionne désormais sur la pertinence de chaque utilisation de l'IA. Faut-il générer une image via IA si une photo est déjà disponible ? Les tendances virales de l'IA générative (starter packs, Ghibli) ont, selon elle, amorcé une conscience collective sur cet impact environnemental.
Boussad a apporté une perspective historique rassurante. Il a comparé l'IA actuelle à l'ENIAC, le premier ordinateur des années 1940-50, qui occupait un garage entier et qui aurait même fait sauter l'électricité d'une ville aux Etats-Unis.
Les technologies évoluent et s'optimisent. ChatGPT, par exemple, consomme déjà moins que ses versions précédentes, et des projets comme DeepSeek affichent des réductions énergétiques allant jusqu'à 98 % par rapport à GPT-4.
Les GPU, ces fameuses unités de calcul qui sont utilisées pour entraîner, ou bien tout simplement faire des calculs pour les IA, consomment beaucoup, mais cela diminue aussi très rapidement. Les processeurs sont plus optimisés et sont beaucoup plus performants.
Optimisation et bonnes pratiques pour réduire son impact
Boussad appelle toutefois à des bonnes pratiques individuelles simples qui peuvent réduire considérablement l'empreinte carbone de l'IA :
- choisir le bon modèle : Préférer des modèles plus légers pour des tâches simples.
- gérer les sessions : Chaque requête dans une session prolongée conserve l'historique complet, augmentant la consommation de manière exponentielle. Une nouvelle session pour chaque question indépendante est recommandée pour de meilleures performances et une consommation réduite.
- désactiver les fonctionnalités énergivores : Des options comme "Deep Search" ou la mémoire conversationnelle de ChatGPT, bien que pratiques, alourdissent le traitement et consomment plus d'énergie.
- éviter d’utiliser ChatGPT pour des tâches simples comme des calculs (dans ce cas privilégiez Excel par exemple, ou votre calculette tout simplement ^^).

💡 Exemple marquant :
Si vous effectuez 5 requêtes successivement sur la même session chatGPT, vous multipliez par 15 la consommation de chatGPT.
Si vous effectuez 10 questions, écoutez bien, c'est fois 50.
20 requêtes successives dans une même session peuvent multiplier par 200 la consommation énergétique.
La solution ? Ouvrir une nouvelle session dès qu’un changement de sujet s’impose.
Le Cloud Act et l’IA Act : quel avenir pour la souveraineté numérique ?
L'IA Act européen vise à encadrer l'usage de l'intelligence artificielle. Olivier a souligné la différence d'approche avec les États-Unis : l'Europe légifère de manière préventive et rigide, tandis que les États-Unis régulent après coup. Si cette approche européenne protège les individus, elle pourrait également brider l'innovation et rendre l'Europe dépendante de technologies étrangères.
Boussad a confirmé la complexité de l'IA Act. Des pratiques problématiques comme l'analyse émotionnelle en recrutement sont désormais interdites, ce qui est positif. Cependant, des exigences comme l'absence totale de biais dans les algorithmes sont techniquement impossibles à garantir, l'IA reflétant les biais des données d'entraînement humaines. L'exigence d'explicabilité des IA est également un défi majeur, les modèles modernes étant des "boîtes noires" complexes à interpréter.
Confidentialité et géopolitique de l'IA : protéger les données sensibles
Au-delà de l'énergie, la confidentialité des données est un enjeu majeur. Boussad a mis en garde contre deux risques principaux :
- Fuites externes : Les données saisies sont stockées sur les serveurs des fournisseurs, exposant à des risques de faille ou d'attaque. L'exemple de Samsung, qui a banni ChatGPT suite à une fuite de données internes, est éloquent.
- Régurgitation par l'IA : Sans désactivation de la collecte de données, les conversations peuvent être utilisées pour entraîner de futurs modèles, potentiellement révélant des informations confidentielles.
Le choix de l'outil a également une dimension géopolitique. Boussad a cité l'exemple de ChatGPT et DeepSeek qui ont montré des biais de censure différents selon leur origine géographique. Il a plaidé pour le développement d'IA européennes, locales et open source comme Mistral, qui peuvent être utilisées en local pour une meilleure gestion des données sensibles.
Vanessa, en tant que recruteuse, a confirmé sa vigilance : elle ne met jamais de données sensibles de CV dans des LLM publics et milite pour la sensibilisation des candidats à ne pas inclure d'informations confidentielles inutiles.
Tant qu'une politique interne claire n'est pas établie, la prudence s'impose.
La discussion a aussi mis en lumière le Cloud Act américain, qui peut contraindre une entreprise américaine ou même européenne avec des liens avec les USA (serveurs, software, etc.) à fournir des données hébergées, même celles de citoyens européens, créant un conflit avec le RGPD.
Recul critique : apprendre à utiliser l’IA avec bon sens
Au-delà des lois, la vigilance personnelle est le meilleur rempart. Le live a mis en avant une métaphore éclairante de Vanessa : ChatGPT, c'est comme un stagiaire. Il nécessite supervision, guidance et une bonne formulation des requêtes (prompts). Cette approche active non seulement améliore les réponses de l'IA, mais affine aussi la propre réflexion de l'utilisateur.
Les intervenants ont insisté sur le rôle créatif de l'IA, à condition d'adopter une posture critique. Boussad a introduit le concept de citoyenneté cognitive : la capacité à questionner les réponses de l'IA, à détecter ses propres biais, et à ne pas accepter l'IA comme une vérité absolue. Il est impératif de vérifier systématiquement les faits et les sources, car les IA peuvent "halluciner" ou inventer des références.
Donc il est important de :
- questionner ses propres biais (par exemple, le biais de confirmation),
- challenger les réponses de l’IA,
- vérifier les sources, en particulier pour les chiffres ou faits historiques.
Vanessa mentionne Perplexity, une IA conçue pour fournir des réponses avec des sources claires, idéale pour la recherche d’information factuelle.
À chacun de choisir l’outil adapté à son besoin : Perplexity pour chercher, ChatGPT pour écrire, Claude pour coder, etc.
💡Olivier nous parle de AI Blaze : une IA contextuelle dans le navigateur qui lit la page en cours et exécute des actions ou des prompts prédéfinis. Ces technologies changent déjà la manière de travailler, demain, elles seront sans doute la norme.

Derniers mots : entre vigilance et enthousiasme
En guise de conclusion, les intervenants livrent chacun un message fort :
- Olivier : La technologie ne doit pas faire oublier l’essentiel : la conscience de nos usages est un levier d’influence réel. En tant que consommateurs, nous avons un rôle à jouer.
- Vanessa : L’IA lui permet de passer plus de temps avec les candidats. Elle encourage les professionnels à se lancer, avec vigilance et curiosité.
- Boussad : "Ne ratez pas la vague de l’IA, mais attachez bien votre planche aux pieds." Une métaphore qui résume l’équilibre à trouver entre exploration et prudence.
L’intelligence artificielle est un outil fascinant, mais elle exige lucidité, rigueur et sens des responsabilités. Cette Caméra Café du Recrutement a permis de poser les bonnes questions, de partager des bonnes pratiques, et de montrer que l’éthique et la performance peuvent coexister… à condition de s’y engager collectivement.
Le monde de l’IA ne fait que commencer. À nous de choisir dans quelles conditions nous voulons l’habiter.
PS : Une troisième Caméra Café dédiée au recrutement et à l’IA est en cours de préparation. Et oui, il y a tant de choses à dire !