
Ce soir-là, je marchais rapidement dans le noir. Absorbé par une conversation animée, je discutais, contredisais et même riais. Le temps a filé. Avec qui échangeais-je ? Un collègue ? Un ami proche ? Un membre de ma famille ? Non. C’était ChatGPT. Pas en texte, mais en voix. Sur un sujet sérieux, en plus.
Avez-vous essayé la nouvelle interface vocale de ChatGPT ? Cette fonctionnalité rend l’interaction si fluide qu’on pourrait croire converser avec un véritable coach. En direct. Un coach qui écoute, rebondit et questionne, que l’on peut interrompre. Ce soir-là, pendant dix minutes, j’ai presque oublié que je parlais à une machine.
Sur le chemin du retour, une image m’a frappé : Theodore, le personnage principal du film “Her”, qui tombe amoureux de Samantha, une IA conçue pour répondre avec une précision chirurgicale, offrant une simulation parfaite d’empathie. Sa meilleure amie, un prolongement de lui-même. Ce film semblait fictif. Jusqu’à ce soir-là.
Ce n’est pas nouveau. C’est juste plus fluide. C’est même tristement célèbre. Dans un monde où nous sommes de plus en plus isolés, les utilisateurs finissent par rechercher un soutien émotionnel authentique, par exemple, dans les chatbots. Ces chatbots ont accumulé des millions de conversations, offrant une aide perçue comme réelle par certains utilisateurs. Cependant, des incidents tragiques, tels que le suicide d’un utilisateur intensif du chatbot Eliza, devenu complètement addict, mettent en lumière les risques de dépendance à ces outils.
On peut argumenter qu’une machine peut imiter, conseiller, motiver, flatter, mais jamais ressentir. Pour le moment ? Et pourtant, ma montre connectée analyse mon sommeil, mon stress, les variations de ma fréquence cardiaque, mes respirations nocturnes… avec une précision bluffante. Si une montre peut analyser l'impact de mes émotions, qu’est-ce qui empêche une IA de les ressentir ?
Theodore est le produit d’un monde où les écrans ont remplacé les regards, où l’interaction humaine est devenue une option, parfois inconfortable. Un humain peut nous confronter à des vérités dérangeantes, nous pousser hors de notre zone de confort. Samantha, elle, donne l’illusion d’être vue et comprise. Ce contraste brutal pose une question dérangeante : préférons-nous les relations faciles, programmables, à la complexité – et à la beauté – de l’humain ?
Dans quelle mesure l’utilisation croissante des IA conversationnelles influence-t-elle notre santé mentale et modifie-t-elle la nature de nos relations interpersonnelles ? Elle peut aussi réduire la motivation à chercher des interactions humaines authentiques.
Lorsque des robots, des algorithmes ou des IA filtrent des CV, n’est-ce pas exactement ce qui se passe ? Nous nous tournons vers la solution de moindre effort. Déchiffrer un CV, comprendre qui est derrière, c’est compliqué, chronophage… Appuyer sur un bouton et se dire que tout cela a été bien programmé est plus confortable. N’oublions pas que le cerveau a tendance à valider les options de moindre effort. Et personne n’ira vous juger d’avoir utilisé un outil interne validé par l’entreprise.
Si nous laissons les algorithmes gérer nos émotions, nos ressentis, nos relations, elles ne seront plus des connexions. Elles deviendront des transactions.
“Her” n’était pas une fiction dystopique. C’était un avertissement disant : “L’empathie ne se délègue pas.”
Rappelons que les systèmes d’IA, notamment ceux spécialisés en “empathie artificielle”, sont conçus pour détecter et répondre aux émotions humaines de manière à refléter l’empathie humaine. Ils sont entraînés au départ et apprennent au cours de leur existence. Cependant, ces machines ne ressentent pas réellement les émotions ; elles les simulent en se basant sur des algorithmes et des données. Cette distinction est cruciale, car une réponse empathique authentique implique une expérience émotionnelle que les machines ne possèdent pas.
Nous ne pouvons pas nier que, malgré cette limitation, l’empathie artificielle trouve des applications dans divers domaines. Par exemple, dans le secteur de la santé mentale, des chatbots empathiques offrent un soutien initial aux patients, aidant à combler le manque de professionnels disponibles. Confier des tâches nécessitant une compréhension émotionnelle à des machines soulève des questions éthiques.
Alors, que choisirons-nous ? L’humanité complexe, parfois désordonnée, mais authentique ? Ou le confort parfait et sans friction de l’IA ?
Dans le monde professionnel, lorsque vous recrutez – ou postulez – rappelez-vous : ce n’est pas un CV parfait ni une réponse optimisée par l’IA qui compte. Ce qui compte, c’est l’humain derrière l’écran : ses doutes, sa créativité, sa capacité à collaborer dans toute sa complexité.
Bref, nous restons humains avant tout.
#SoftSkills #Recrutement #RH #AI #Her