L'hiver symbolique, premier hiver
Les découvertes faites jusqu'à présent n'ont pas produit l'impact majeur promis dans les années 1960. James Lighthill (1974)
Le réel résiste
L’âge d’or prend fin au début des années 1970. L'optimisme communicatif porté des pionniers est progressivement douché par la réalité, souvent frustrante. Le programme de recherche de 1956 était bien entendu trop ambitieux. Les résultats concrêts sont trop limités au vu des investissements et de l'engouement public.
Les critiques venant de l'extérieur du domaine sont nombreuses et sevères. Elles culminent avec les publications du philosophe américain
La plupart des personnes travaillant dans la recherche sur l'IA et dans les domaines connexes confessent une forme de déception vis-à-vis de ce qui a été réalisé au cours des vingt- cinq dernières années. Les gens sont entrés dans le domaine vers 1950, et même vers 1960, avec de grands espoirs qui sont très loin de s'être concrétisés. James Lighthill (1973)
Modéliser le raisonnement ?
L’approche dite symbolique se heurte à la difficile modélisation du raisonnement logique (humain). Ce problème n’est pas résolu aujourd’hui, et ne semble pas en passe de l’être.
Ce premier printemps a mis en évidence deux autres problèmes majeurs : le problème du cadre (frame problem) et celui du bon sens. Un programme ne sait rien d’implicite ; or l’expérience humaine du monde est construite sur un empilement d’implicites. Il faut tout décrire, ce qui complexifie les interactions entre humains et machines. Impossible d'imaginer qu'un programme, si subtil soit-il, puisse comprendre l'humour et l'ironie. Les chansons de
Mon exemple préféré est le suivant. Si un homme de vingt ans peut cueillir cinq kilogrammes de fraises en une heure, et qu'une femme de dix-huit ans peut en cueillir quatre, combien en ramasseront-ils s'ils y vont ensemble ? Il est certain que "neuf" n'est pas une réponse plausible. Ce pourrait être beaucoup plus (parce qu'ils font les malins tous les deux) ou, plus probablement, beaucoup moins. Margareth Boden (2006)
Le mur de l’explosion combinatoire
Les programmes qui traitent la résolution de problème rencontrent une limite d'un autre type : la complexité algorithmique. La stratégie classique divide & conquer consiste à décomposer une tâche complexe en une suite de sous-tâches suffisamment simples pour être décrites, modélisées et exécutées par un programme. On mise ensuite sur l'enchaînement rapide des calculs pour pouvoir remonter à la tâche initiale.
Puisque les ordinateurs utilisés sont capables de réaliser quelques milliers d’opérations (additions, multiplications) par seconde. Cette capacité de calcul excède largement les capacités humaines, on s'attend à triompher aisément de tous les problèmes : la puissance de calcul est la clé, pense-t-on.
En pratique, lorsque la tâche à résoudre devient suffisamment proche des cas qui nous intéressent, cette approche ne fonctionne pas du tout. Les temps de calcul explosent et la réponse ne peut pas être calculée en un temps raisonnable. Un mur se dresse, infranchissable. Les ordinateurs actuels, qui sont bien plus rapides, rencontrent exactement la même limite, un peu plus tard. L’augmentation des performances des processeurs ne suffit pas à résoudre les problèmes réels qui exigent une description très détaillée.
Ce mur de complexité a une cause mathématique. L'approche logique de décomposition en tâches simples multiplie les branchements. L’espace des possibles devient gigantesque, et une véritable explosion combinatoire se produit. Ce phénomène est au cœur de nombreux problèmes qui intéressent les chercheurs en intelligence artificielle : optimisation logistique (problème du voyageur de commerce), allocation de ressources (problème du sac à dos), parcours de graphes (problème de la clique, coloration de graphe) et généralement des problèmes de puzzles logiques. C’est une découverte majeure de l’époque, qui intéresse les mathématiciens et les informaticiens théoriciens : si certaines classes de problèmes peuvent être résolues par un calcul mécanique en utilisant un algorithme adapté, le calcul en lui-même peut être extrêmement long. Curiosité mathématique ? Non, car de nombreux problèmes d’optimisation se ramènent à ces cas.
L’intelligence ne se résume pas à un calcul, même rapide.
Ce qui était vrai en 1956, reste vrai en 2025.
L’hiver s'installe
Pendant l'âge d'or, les prédictions pour le moins téméraires sur les progrès futurs dans l'intelligence artificielle sont monnaie courante. Si la sincérité et l'enthousiasme des premiers chercheurs sont compréhensibles, ces prédictions débridée, délirantes, voire incongrues, n'ont cessé de hanter le domaine. Cette époque est marquée, rétrospectivement, par une bonne dose de naïveté.
Il ne faut pas sous-estimer les dommages infligés à l'IA au milieu des années 1970. De nombreux universitaires ont commencé à considérer l'IA comme une pseudo-science - cette mauvaise réputation s’est installée lors de l'hiver de l'IA et le domaine en a souffert jusqu’à très récemment. Mike Wooldridge (2021)