
L’automatisation a tout envahi. Dans les ressources humaines, on ne parlera plus bientôt que de screening automatique, de matching algorithmique et d’évaluation à distance. L’idée est séduisante : gagner du temps, réduire les biais, optimiser le tri. Mais une question dérange : que reste-t-il de l’humain dans ce processus censé concerner… l’humain ? Déceler l’Humain par de la Tech ?
Aujourd’hui, un CV ressemble moins à un récit de vie qu’à un exercice de référencement naturel. La SEO humaine bat son plein. Les candidats apprennent à placer les bons mots-clés pour passer les filtres, les formations qui enseignent comment modifier son CV pour qu’il passe le filtre ATS pullulent. Le marketing personnel a pris le pas sur la sincérité. Personal Branding est sur toutes les lèvres.
Finalement on a des profils uniformisés, des talents qui disparaissent dans la masse et une machine qui récompense surtout ceux qui savent « jouer le jeu ». Bref le profile le plus tape-à-l’œil ? On finirait par acheter le livre pour sa couverture…
Dans certaines grandes entreprises, les chiffres donnent le vertige. Un poste peut attirer plus de 1 000 candidatures. L’IA trie, retient 50 profils, puis un recruteur en choisit 10 à rencontrer. Les 990 autres sont rejetés, parfois sans même qu’un humain ait lu une ligne de leur parcours. La logique est efficace sur le papier. Mais qu’en est-il du potentiel caché ? Et n’allez pas blâmer le recruteur qui fait ce qu’il peut avec le temps qu’il a…
Les partisans de l’IA rappellent que les humains ne sont pas des juges neutres. Nous avons tous nos biais : préférence pour les diplômes prestigieux, attirance pour les candidats qui nous ressemblent, méfiance envers les parcours atypiques. Les algorithmes, eux, appliquent la même règle à tous. En théorie, ils démocratisent l’accès et détectent des corrélations invisibles. On rêve que la froideur algorithmique d’un bot trader s’applique au tri de CV. Pas d’émotion, la même règle pour tous.
Mais la théorie se heurte vite à la réalité. Car un algorithme apprend à partir de données. Si les données reflètent un système biaisé, l’algorithme reproduit et amplifie ce biais. L’exemple d’une entreprise mondialement connue est devenu célèbre : son IA de recrutement privilégiait les candidatures masculines, simplement parce qu’elle avait été nourrie d’historiques de recrutements où les hommes étaient majoritaires. Derrière la promesse d’équité se cache donc une standardisation invisible.
Un autre paradoxe apparaît : plus on mesure, plus on croit comprendre. Plus on se sent en zone de confort. Or, les chiffres ne disent pas tout. Une compétence technique se valide facilement par un test. Mais comment capter l’énergie qu’une personne apporte à une équipe, sa capacité à inspirer confiance ou son art d’apaiser un conflit ? Ce sont pourtant ces qualités qui font souvent la différence dans la vie réelle d’une entreprise.
À force de quantifier, on réduit l’humain à une grille. On croit gagner en objectivité mais on perd en nuance. On standardise. On finit par oublier que les plus grands talents ne se définissent pas par ce qu’ils écrivent d’eux-mêmes, mais par ce que les autres perçoivent d’eux.
C’est ici que l’approche de fairception change. Au lieu de mesurer uniquement ce que les candidats déclarent, pourquoi ne pas écouter ce que leurs collègues, leurs managers ou leurs partenaires disent d’eux ? La perception collective révèle souvent plus que l’introspection. Un collaborateur peut ignorer qu’il est perçu comme un excellent médiateur. Un autre n’ose pas se dire créatif, alors que tout le monde reconnaît son inventivité.
L’algorithme du futur n’a pas vocation à remplacer l’œil humain mais à l’enrichir. Il met en lumière ce que les individus ne voient pas toujours d’eux-mêmes. Il transforme des données brutes en insights humains. Il ne standardise pas, il singularise.
En somme, la technologie doit cesser de mimer l’humain pour mieux révéler l’humanité.
Dans cinq ans, les entreprises les plus performantes ne seront pas celles qui auront les algorithmes les plus puissants, mais celles qui auront su créer une alchimie entre trois forces : la précision technologique, la vérité de l’intelligence collective et la nuance de la perception humaine. C’est cette alliance qui permettra de reconnaître la singularité des talents, au lieu de les aplatir dans une base de données.
Au bout du compte, une machine ne reconnaît pas l’humain. Elle classe, elle calcule, elle compare. Mais c’est à nous de sentir ce qui fait la singularité d’une personne. Si l’IA a une utilité, ce n’est pas pour décider à notre place, mais pour nous montrer ce que nous n’avions pas vu. Ce n’est pas une déshumanisation du recrutement, c’est une façon de le rendre enfin plus humain.