Conclusion

Que retenons-nous ?

Il est tentant de proposer une lecture "psychologique" de la bulle.

Marvin Minsky est mort en 2016, deux mois avant la victoire de AlphaGo, lors des premiers frémissements de la bulle deep. De nombreuses personnes le tiennent responsable du long coma du mouvement connexionnisme dans les années 1970 et 1980. Il y a une forme d'ironie : les réseaux de neurones commencent leur règne au moment de son décès. La vengeance est décidément un plat qui se mange froid.

La domination technologique sans partage du deep learning est une ôde à l'efficacité et à l'aveuglement. Elle se fait au prix d’une consommation énergétique délirante, d’une opacité totale de la décision algorithmique et d’une démission intellectuelle. Pour quelle avancée théorique majeure ? Aucune.

L'apprentissage profond n'est pas la solution : ses aficionados admettent que “de nouveaux paradigmes sont nécessaires” pour le combiner avec un raisonnement complexe. C’est une formule classique en recherche, pour dire “nous n'avons pas la moindre idée de la suite”. C'est pourquoi la plupart des chercheurs en IA ont abandonné cet espoir initial, se tournant plutôt vers la résolution de tâches très spécialisées - souvent avec un succès spectaculaire. Margaret Boden (2016)

Ça marche

La bulle deep est un mouvement d’ingénierie des données extrêmement complexe, qui a pris le parti de ne pas se préoccuper du sens et de confier ces tâches à des algorithmes.

Les technologies issues de la bulle deep iront compléter la boîte à outils des ingénieurs et scientifiques spécialistes de l’analyse des données. Des progrès majeurs ont été réalisés : la reconnaissance d'image fonctionne correctement, les traductions sont satisfaisantes, la génération de contenu est impressionnante, les agents conversationnels sont fonctionnels. Tout n'est pas à jeter, loin de là.

Le public gardera certains agents, avec les problèmes de perte d'emploi qu'ils créent déjà. Le monde économique partira sur d’autres voies, peut-être vertueuses, comme la réduction de l’impact écologique de nos activités.

Dans l'économie, les technologies émergentes vont s’industrialiser et se normaliser, comme à chaque cycle. Les bonimenteurs iront vendre leur soupe ailleurs et trouveront de nouveaux riches pigeons : l'informatique quantique, les cryptomonnaies ou la réalité virtuelle font rêver.

Ça marche, et après ?

De nombreux sujets se sont agrégés autour de l’IA. A peu près tous, en fait. La décision algorithmique infuse notre monde.

La technique n'est pas neutre, mais elle n'est pas isolée. L’inclusion et la diversité sociale des développeurs est un sujet historique, sociétal, éducatif. Les biais dans les données d'entraînement sont naturels, ils sont documentés par les études statistiques que doivent mener les data scientists avant de les injecter dans un modèle numérique, quel qu’il soit. Nous n'irons pas plus loin, de crainte de sortir des sujets que nous avons l'impression de maîtriser. Une foule de problématiques importantes doivent être adressées par la société et les techniciens. Les programmes ne s’écrivent pas tous seuls.

La mauvaise communication autour de l’IA entretient la confusion et le flou conceptuel. Ce flou permet de continuer à discuter en termes vagues et imprécis, en agitant les mains et en enfilant les déclarations de bonne volonté teintée d’eau tiède. Tout ça n'aboutira qu’à des impasses. D'ailleurs, comment discuter de l’éthique de la décision algorithmique si les décisions sont prises par des algorithmes qui sont des boîtes noires, dans lesquelles la tentation est grande d'injecter n’importe quoi, puisque ça fonctionne, mec ?

La capacité de parler ne te rend pas intelligent. Qui-Gon Jinn, maître Jedi
A long time ago, in a galaxy far, far away …

La décision algorithmique n’est acceptable que si elle est explicable, justifiable et utile. Utiliser un programme dont le fonctionnement est obscur ou mystérieux est a priori rédhibitoire. Ces limitations théoriques concernent les réseaux de neurones profonds, les grands modèles de langage (LLM) qui en sont une modalité d'application, et plus généralement les algorithmes d’apprentissage automatique dont la représentation interne de la connaissance est encore incomprise. Ce constat est simple, direct, factuel et devrait être partagé très largement par les pouvoirs publics.

La principale leçon que l'on peut tirer de 70 ans de recherche en IA, c'est que les méthodes générales qui savent exploiter la puissance de calcul sont en fin de compte les plus efficaces, et très largement. Richard Sutton (2019)
L'amère leçon

Il n'existe pas d’algorithme pour l'intelligence artificielle générale [...] Il est beaucoup plus probable qu’une percée scientifique majeure soit nécessaire, et personne ne sait à quoi elle ressemblerait et encore moins des détails pour y parvenir. Erik Larson (2021)

La seule question intéressante

Quelle avancée théorique permettra d’utiliser efficacement la puissance de calcul et les données que nous avons accumulées pour, enfin, progresser sur le chemin de l’intelligence générale ?

précédent | fin