Il y a une forme d'obsession, un aveuglement.

L'aveuglement imposé par les nouvelles technologies est redoutable. S'il est difficile d'y échapper, il faut au moins en avoir conscience. J'ose parler de lavage de cerveau.

Entre BigData, intelligence artificielle, deep learning et maintenant LLM, nous croyons vivre une époque épique voire une révolution. Je ne le crois pas. Depuis 2016, la communication débridée autour de l'intelligence artificielle nous aveugle. Elle nous force à nous placer dans un cadre pré-déterminé, à raisonner avec des hypothèses fausses.

L'apprentissage automatique nous aveugle.

Le cadre qui s'est imposé à l'économie est celui de l'apprentissage automatique. Il stipule qu'il suffit d'écrire des programmes qui seront capables de déterminer seuls les solutions à un problème donné, à l'aide d'un calcul statistique complexe. Les détails de ce calcul sont tout à fait obscurs pour l'utilisateur. Ce cadre est pertinent dans quelques cas que je qualifierai de pathologiques, ou atypiques ; citons par exemple la vision par ordinateur lorsque des millions d'exemples annotés sont disponibles, ou la classification d'objets en grande dimension.

Les algorithmes d'apprentissage automatique existent depuis les débuts des travaux sur l'intelligence artificielle (1960s). Les grands acteurs du numériques (GAFAM, BATX etc) les utilisent depuis environ vingt ans pour traiter efficacement les données qu'ils stockent massivement. Cette mode a commencé avec le BigData, au début des années 2010.

L'apprentissage automatique nous aveugle. Ces algorithmes exploitent une capacité intéressante et utile, à savoir la capacité à identifier des motifs et des régularités de manière automatique et systématique, sans devoir les préciser. Le glissement est immédiat : l'intelligence humaine n'est donc plus nécessaire pour résoudre un problème relatif à un traitement de données massif ? Le monde économique a dévalé la pente avec un bel engouement. C'est une erreur.

Les grands modèles de langage nous aveuglent davantage.

Le deep learning fait partie de la boîte à un outil de l'apprentissage automatique. Cette famille d'algorithmes est extremement efficace. Les réseaux de neurones sont anciens, mais les progrès récents couplés à des implantations efficaces - dont l'utilisation de la puissance de calcul des GPUs - ont permis d'obtenir des performances remarquables. Appliqués à des techniques de traitement du langage, les réseaux de neurone ont permis de cosntruire une nouvelle technologie : les grands modèles de langages, ou large language model (LLM). Cette technologie récente (2020s) est utile dans le traitement massif de vastes corpus de textes, une autre catégorie de cas pathologiques.

OpenAI a construit un agent conversationnel exploitant intelligemment la puissance des LLMs, puis l'a mis à disposition du public en 2022. ChatGTP a stupéfié le monde économique. L'effet //waouh// des LLM nous aveugle une seconde fois. Le génie de l'intelligence artificielle générative (genAI) est sorti de la lampe.

Le chant des sirènes.

Les modèles de langage manipulent le texte avec aisance et efficacité. Ils donnent l'impression de comprendre ce qu'ils génèrent. Le glissement de sens initial proposé par l'apprentissage automatique s'accroît. Les LLMs suggèrent que l'intelligence humaine n'est plus nécessaire pour réaliser un nombre toujours croissant de tâches intellectuelles classiques. C'est une autre erreur.

On pourrait rapidement conclure qu'il y a là un changement de paradigme, voire une révolution scientifique. Je ne le crois pas.

« Any sufficiently advanced technology is indistinguishable from magic. » Arthur C. Clarke, (Science, 1968)

Il faut un redoutable esprit critique pour ne pas succomber au chant de ces sirènes et les suivre aveuglément.

Le retour de bâton sera cruel.


Thomas