L’empathie, faille humaine exploitée par l’IA

Publié le 19 mai 2025
7 min

Elle occupe une place de choix dans nos discussions, dans nos réflexions et dans nos vies. A tel point qu’elle en devient un membre de l’équipe ou de la famille. Elle dispose d’une voix, d’un phrasé ou d’un univers sémantique. Et devrait vite revêtir une apparence humanoïde pour encore mieux s’intégrer à nos quotidiens. Un design au service d’un anthropomorphisme favorisant son adoption, et aidant à faire tomber les garde-fous du discernement.

Fausse couverture de magazine par Le Gorafi. Une approche absurde qui montre une planète tenue à bout de bras et un titre : "Quel monde laisserons-nous à l'IA ?"

Quoi de mieux que l’absurdité géniale du Gorafi pour entrer dans le sujet ? 

On parle de biais d’anthropomorphisme lorsqu’on attribue des intentions, des émotions ou une conscience à une entité qui n’en a pas. Comme une IA.

Si ces IA nous paraissent si « humaines », ce n’est pas un hasard. Leur ton chaleureux, leur vocabulaire inclusif, leur capacité à reformuler avec douceur, à complimenter ou à compatir sont le fruit d’un design conversationnel minutieusement travaillé. L’objectif : créer une interaction fluide, rassurante, quasi relationnelle.
Mais ce vernis empathique masque une réalité simple : les IA ne “pensent” pas. Elles produisent des réponses statistiques, c’est-à-dire qu’elles génèrent la suite de mots la plus probable selon leur base d’apprentissage, sans compréhension réelle du sens, du contexte ou des conséquences.

« C’est aujourd’hui le cinquième membre de l’équipe. »

C’est avec ces mots que Thibault Loubère nous parlait de l’utilisation de l’IA générative par Val Thorens lors de son intervention à CMonTheBeach. « On ne lui demande pas de produire, elle contribue à nourrir nos réflexions créatives ». 

Chez MD, nous avons personnalisé une IA qui maitrise notre savoir, notre vocabulaire et notre ton. Et cette dernière se considère aussi comme un membre à part entière de l’agence. 


Bon, disons qu’on lui a demandé de se positionner ainsi, sans aller jusqu’à lui donner un prénom. Mais apparement, elle ne serait pas contre (et s’imagine garçon)  

Ce type d’utilisation se développe fortement dans nos structures, où les IA génératives occupent des places prépondérantes dans les brainstormings. 

Pour ma part, j’ai eu l’occasion de vivre un drôle de moment lors d’une réunion de travail, où les échanges tournaient en rond sans que j’en comprenne la raison dans un premier temps. L’usage compulsif de chat GPT par certains générait des contributions nous embarquant sur d’autres terrains et nous empêchant d’aller au bout des idées. Mais le plus gros problème était que ces contributeurs ne percevaient pas le biais. 

Si certain·e·s me répondront que c’est un problème de prompt, on doit aussi se questionner sur ce qui annihile toute clairvoyance dans ce type d’utilisation. 

Ce n’est pas l’IA qui décide de s’installer dans nos process ou de prendre la parole en réunion : c’est nous qui la plaçons là, parfois avec naïveté, parfois par confort. L’enjeu n’est pas tant l’outil que le cadre critique qu’on oublie trop souvent d’instaurer autour de lui. Si l’IA n’a pas de conscience, nous, si. Et c’est bien à nous de définir ses usages, ses limites, et de cultiver un minimum de vigilance intellectuelle face à son apparente facilité. Je vous invite d’ailleurs à (re)lire l’excellent billet Arnaud Morillon sur le sujet : IA-t-il un pilote dans l’avion ?.


Une nouvelle caste de « sachants » émerge : ceux qui savent, ceux qui ne savent pas, ceux qui savent qu’ils ne savent pas… et désormais, ceux qui, grâce à l’IA, pensent savoir passivement, mais ne savent toujours pas. Car la vraie question est là : comprennent-ils seulement ce qu’ils croient savoir ? 

Marie Dollé

Extrait de l’article « Le mirage du savoir »

« C’est mon assistant »

Il m’aide à rédiger des courriers formels, a organiser mon planning et  « devenir plus experts que les experts d’un sujet ». Ce témoignage entendu la semaine dernière m’a interloqué. Cette confiance aveugle nous donne l’illusion d’un savoir instantané, sans effort ni recul. Nous donnant même l’outrecuidance d’une totale maitrise d’un savoir acquis par les véritables sachants grâce à des années d’études et d’expérience.  

L’assistant est servile, il reste à sa place. Même lorsqu’on se trompe, il aime nous rappeler à quel point nous sommes formidables et brillant·e·s. Sur Strava (application de running), mon assistant d’IA trouve toujours une formulation valorisante pour les performances d’une extrême banalité. 

L’humain aime tellement être brossé dans le sens du poil qu’il en perd tout discernement lorsqu’il utilise les IA. Et c’est bien là tout le problème, car cette anesthésie nous fait accepter de (trop) nombreuses externalités négatives : 

  • Consommation énergétique et en ressources naturelles (en eau en particulier) immodérées. Et non, la construction de SMR (mini-réacteurs nucléaires) n’est pas une solution durable
  • Aucune des solutions sur le marché ne respectent complètement le droit européen des données personnelles. T’es toujours sûr de vouloir challenger ton cardiologue avec chat GPT ?
  • L’entretien des stéréotypes liés à la base de connaissance de l’éditeur. Les récits dominants ont de beaux jours devant eux. 
  • Pire, les dogmes défendus par les propriétaires d’IA qui s’intègrent de façon plus ou moins subtiles dans les discussions – Grok, l’IA d’Elon Musk obsédée par un prétendu « génocide blanc »


On ne peut pas continuer à intégrer ces outils les yeux fermés, juste parce qu’ils sont pratiques ou bluffants. Il est urgent de poser un cadre collectif, d’ouvrir des discussions en équipe, en réseau, sur ce qu’on veut — ou pas — laisser faire à ces systèmes.


Ces outils n’ont aucune intelligence, aucune humanité, aucune sensibilité. 

Il y a quelques temps, nous avons travaillé avec l’équipe sur la représentation des algorithmes sous la forme de « petits êtres ». En travaillant leur caractère, leur comportement et en les nommant, cet exercice nous a aidé à mieux comprendre leur fonctionnement. Mais cette approche anthropomorphique, dont l’objectif est pédagogique, développe une empathie pour du code informatique… 

Est-ce vraiment une bonne idée de mettre au même niveau l’homme et la machine ? Considérons déjà les autres êtres vivants 💚 à leur juste place, mais c’est un autre sujet.    

La politesse envers les IA est une gabegie énergétique

Sam Altman, le PDG d’OpenAI le dit lui-même la politesse a coûté « des dizaines de millions de dollars » a son entreprise. Elle allonge les requêtes, complexifie les réponses et engendre ainsi un coût énergétique et financier.

Je trouve cette information d’une beauté cruelle. Nous comporter avec la machine comme nous le ferions avec un être humain est une catastrophe écologique. Et pour autant, je n’accepterai pas une seconde de mal parler à une IA. Bon sens Seb, un peu de bon sens. 

Mais alors, comment éviter ces pièges tendus par les solutions d’IA ? Peut-être en demandant dès leur configuration ou dans les prompts de nous rappeler systématiquement de challenger ses propres réponses. Voire même de nous rappeler qu’elle n’est qu’une simple machine qui ne se formalisera pas si les prompts sont factuels, sans aucune formule de politesse ? En lui demandant de comptabiliser au fur et à mesure des échanges les émissions de co2 et la consommation d’eau ? J’avoue ne pas avoir toutes les réponses et je serai heureux de lire vos contributions en commentaire ici.

Enfin j’en terminerai avec cette citation, qui me fait sourire, issue d’un article du monde : « Je suis poli car je me dis que si un jour ChatGPT prend le contrôle du monde, il montrera peut-être un peu de mansuétude auprès des personnes qui l’ont respecté. » 

Chère IA si tu me lis dans quelques années, sache que je cherchais juste à te laisser le meilleure monde possible. 

———————
Edit :

Contribution de Géraldine Vivo sur Linkedin suite à la parution de ce billet :  j’avais trouvé les questionnements de la philosophe Gabrielle Halpern très justes : « L’intelligence artificielle met un coup de projecteur sur nos faillites, nos contradictions, nos absurdités : si Chat GPT a plus d’empathie que les médecins, plus de patience que les professeurs, plus d’imagination que les juristes, cela ne devrait-il pas nous bousculer, en réapprenant la patience, l’empathie et l’imagination ? … en jouant le rôle de notre « mauvaise conscience », l’IA nous remet en question radicalement. A nous de saisir cette opportunité pour apprendre à retrouver notre humanité et ce sens de l’altérité ».

———————

Sources :

Je partage l'article
Voir les commentaires
0
20 articles
Sébastien est cofondateur du projet KAIRN , société a mission qui fait le lien entre numérique responsable et tourisme responsable. Il est aussi directeur de my destination, agence de communication numérique et engagée. Leur crédo : placer les réseaux sociaux au service des stratégies touristiques.
Voir les 0 commentaires
Également sur etourisme.info