Vers les agents

Il y a ce mythe stupide selon lequel l'IA a échoué, mais l'IA est partout autour de vous à chaque seconde de la journée. Rodney Brooks (2022)

Remise en question

À mesure que la compréhension scientifique progresse, les hypothèses évoluent, exploitant les réussites et les échecs. À la fin des années 1980, l'époque faste des systèmes experts est révolue et une nouvelle crise de l'IA se profile. Une fois de plus, la communauté de l'IA est critiquée pour avoir trop promis. L’hypothèse remise en question n'est pas seulement la doctrine de la phase précédente savoir, c'est pouvoir, responsable du boom des systèmes experts, mais les hypothèses de base qui sous-tendent l’IA depuis les années 1950 : l'IA symbolique en particulier. Les critiques les plus féroces de l'IA viennent, cette fois, de l'intérieur du domaine.

Travailler sur le comportement

Selon le paradigme de John McCarthy et des autres fondateurs du domaine, un système IA est composé d'un modèle central (symbolique) autour duquel gravitent toutes les activités de l'intelligence. Ce modèle rassemble la connaissance de l'environnement. Cette approche doit être révisée, voire dépassée. Les programmes doivent cesser d’être pensés pour un monde fermé. Ils doivent sortir des laboratoires et s’implanter dans le monde réel. L’IA comportementale devient le nouveau paradigme, à travers le développement d’une architecture dite réactive (subsumption architecture). Des robots voient le jour, comme l'aspirateur Roomba (iRobot, 2002), qui a été créé à partir d'une série de comportements possibles.

L'un des principaux objectifs de l'IA comportementale est de créer des systèmes intelligents capables de s'adapter, voire d'apprendre de leur environnement, afin d'adopter des comportements appropriés à une situation donnée.

Vers les agents

Dans les années 1990, la communauté s’oriente vers la construction d’agents. Un agent est vu comme un système IA complet. C’est une entité autonome, située dans un environnement donné, qui exécute une tâche spécifique pour le compte d'un utilisateur. Un agent est complet et fonctionnel, il inclut à la fois une base de connaissances et une capacité de raisonnement logique.

Ces agents représentent une forme de synthèse. L'âge d'or de l'IA a mis l'accent sur le comportement proactif, comme la planification et la résolution de problèmes. L’IA comportementale a souligné l'importance d'être réactif, incarné et attentif à l'environnement. L'IA basée sur les agents exige les deux et ajoute une nouveauté : l'idée de devoir travailler avec d'autres agents et, pour cela, disposer de compétences sociales : communiquer, coopérer, se coordonner, négocier. Ces compétences sociales ont un sens car elles permettent aux agents d'accomplir leurs tâches ensemble, en harmonie.

On peut y voir un nouveau paradigme. Avec le recul, il semble un peu étrange qu'il ait fallu si longtemps à l'IA pour commencer à réfléchir sérieusement à la manière dont les systèmes d'IA pourraient interagir entre eux et aux problèmes qui pourraient survenir lorsqu'ils le feraient.

Le sous-marin HOMER

Un agent basique a été construit. Il intègre une compréhension et une génération limitées du langage naturel, une planification et un raisonnement temporels, l'exécution d'un plan, une perception symbolique simulée, une mémoire épisodique et une certaine connaissance du monde général. L'agent est présenté comme un robot sous-marin opérant dans un monde marin bidimensionnel simulé dont il n'a qu'une connaissance partielle. Il peut communiquer avec des personnes dans un vocabulaire d'environ 800 mots anglais courants en utilisant une grammaire basique. Steven Vere & Timothy Bickmore (1990)

Homer est un agent qui simule un robot sous-marin. Un opérateur peut parler à l'agent, lui poser des questions et lui donner des ordres. En réponse, un planificateur de tâches intégré produit un plan d’action, qui est ensuite exécuté ou amendé en fonction des nouvelles informations fournies. HOMER est capable de donner des réponses concises à des questions sur ses expériences passées, ses activités et perceptions présentes, ses intentions futures et sa connaissance générale.

Les assistants

Ce type d’IA est utilisé pour créer des agents logiciels. Ces agents ont pour but de travailler de manière active avec nous ou pour nous, en traitant par exemple nos emails ... ou en nous agaçant lorsque nous travaillons avec la suite MS Office. L’assistant d’Apple, SIRI, est un exemple d’agent conversationnel basé sur cette approche. SIRI a été créé par l’institut SRI, qui avait créé SHAKEY à la fin des années 1960. Luc Julia a participé de près à ce projet.

Avec l’apparition des assistants, les attentes évoluent. L’IA ne doit plus faire des choix identiques à ceux qu’aurait fait un humain : l’IA doit faire de meilleurs choix. Cette théorie remonte aux années 1940 (von Neumann,Morgenstern). Elle se base sur les préférences de l’utilisateur et utilise les probabilités afin de déterminer les meilleures situations, même dans des cas complexes. Cette méthode est encore utilisée dans les systèmes d'IA modernes.

Dans les années 1990, la construction d’agents intelligents capables d’agir de manière rationnelle est la nouvelle orthodoxie de l'IA et le reste aujourd'hui. Dans presque tous les systèmes d'IA actuels, il existe un calcul d'utilité incluant les préférences de l'utilisateur, afin de maximiser les résultats attendus, c'est-à-dire d'agir rationnellement au nom de l'utilisateur. Ces IA comportementales ont cependant deux profondes limitations : leurs compétences sont limitées, et elles n'évoluent pas.

Travailler en toute incertitude

La gestion de l’incertitude est un problème qui rôde depuis longtemps. Tout système d'IA réaliste doit faire face à l'incertitude. Ce problème devient crucial dans les années 1990.

Une voiture automatique obtient des flux de données de ses capteurs. Ceux-ci ne sont pas parfaits , il y a toujours un risque, certes faible si le système est bien conçu, mais existant, qu'un télémètre se trompe lorsqu'il annonce qu'il ne voit pas d'obstacle. Ces informations ne sont pas inutiles, pour autant, mais il n'est pas raisonnable de supposer qu'elles sont nécessairement correctes. Alors comment l'utiliser, en tenant compte de la possibilité d'erreur ?

L'inférence bayésienne est une réponse. Inventé par un mathématicien britannique du XVIIIe siècle, le révérend Thomas Bayes, le théorème de Bayes permet de traiter des données imparfaites. Ce fonctionnement est naturel pour tout être vivant qui évolue dans un monde incertain. Les informations de l’environnement sont utilisées pour mettre à jour notre compréhension de celui-ci. Le théorème de Bayes est intéressant parce qu'il met en évidence un processus de prise de décision probabiliste. Ce processus s’adapte bien aux programmes.

Les gens ne remarquent tout simplement pas l'IA. Rodney Brooks (2022)

Il y a des systèmes d'IA dans les voitures, qui règlent les paramètres des systèmes d'injection de carburant. Quand vous atterrissez dans un avion, votre porte d'embarquement est choisie par un système de programmation d'IA. Chaque fois que vous utilisez un logiciel Microsoft, vous avez un système d'IA qui essaie de comprendre ce que vous faites, comme écrire une lettre, et il fait un sacré bon travail. Chaque fois que vous voyez un film avec des personnages générés par ordinateur, ce sont tous des petits personnages d'IA qui se comportent comme un groupe. Chaque fois que vous jouez à un jeu vidéo, vous jouez contre un système d'IA. Rodney Brooks (2022)

précédent | suivant