ChatGPT est parfois un gros con raciste.

Un quart des européens votent pour des mouvements politiques identitaires. Si les populations deviennent racistes ou xénophobes, par quel miracle ChatGPT ne serait pas raciste ou xénophobe ?

« If it looks like a duck, swims like a duck, and quacks like a duck, then it probably is a duck. » duck typing

On voit fleurir de nombreux exemples de textes générés par des systèmes d'IA qui sont subtilement racistes. J'en ai lu certains qui méritent que le caniveau. Les exemples pullulent. Ces réponses intolérantes ou racistes sont une bonne occasion de parler de biais.

Parler de biais est au sens statistique est une profonde erreur d'interprétation. Juger qu'un texte est problématique n'est valable que dans un référentiel humain. Un enfant qui tendrait ce genre de propos serait désigné volontaire pour une discussion de fond sur la fraternité et la tolérance. Un adulte aussi, d'ailleurs.

Un programme, cependant, n'évolue pas dans un référentiel humain. Il assemble des mots dans un contexte spécifique, en appliquant des règles logiques. Ces règles ont pu être conçues directement par l'équipe de développement, ou suite à une procédure d'apprentissage. Vous le savez, cet apprentissage est réalisé à partir d'un traitement systématique et complexe de vastes quantités de textes. ChatGPT et les différents modèles de langages (LLM) sont construits ainsi. Nous en avons parlé ici et .

La question demeure. Pourquoi les textes racistes générés par un programme nous dérangent ? Parce que ce programme utilise un mécanisme bien connu en IA, identifié à la fin des années 1960 par J. Weizenbaum (ELIZA, 1966). L'homme a tendance à sur-interpreter les textes générés par un ordinateur, résume Douglas Hofstadter en 1986. Ce mécanisme joue à plein avec ChatGPT. Je renvoie à la page Wikipedia associée, ELIZA effect et à un essai intéressant sur le sujet From Joseph Weizenbaum to ChatGPT.

« If it looks like a duck and quacks like a duck but it needs batteries, you probably have the wrong abstraction. » duck typing

ChatGPT écrit bien. ChatGPT montre souvent un comportement intelligent. Mais l'intelligence d'un modèle de langage n'a foncièrement rien à voir avec une intelligence humaine. Un humain qui se comporterait comme ChatGPT pourrait, parfois, être qualifié d'idiot. Un programme n'est responsable de rien, un programme ne prend pas de décision. Il exécute une tâche pour laquelle il a été programmé. Penser autrement est une grossière erreur.

Que penser d'un programme qui génère des textes corrects mais racistes ? Tout simplement qu'il a été entraîné en partie avec des textes racistes. Qui a écrit ces textes ? Très probablement des humains. Il est donc faux de parler de biais. Le poids des mouvements racistes ou intolérants dans l'opinion publique n'est pas négligeable. Il semble naturel que les textes fournis aux systèmes génératifs reflètent cette situation, certes regrettable, mais réelle.

Shit in. Shit out.

Il serait donc plutôt étonnant que ChatGPT ne génèrent pas de textes racistes.


Thomas