Bulle deep
Nos résultats montrent qu'un grand réseau de neurones convolutif profond est capable d'obtenir des résultats records sur un ensemble de données complexe en utilisant un apprentissage purement supervisé. Geoffrey Hinton (2012)
Prix Turing 2018
Le moment connexionnisme
Les algorithmes d'apprentissage automatique avec réseaux de neurones reviennent sur le devant de la scène en 1986. Le connexionnisme se relance avec le moment PDP (
Si l'excitation est intense, la bulle PDP est cependant de courte durée. Au milieu des années 1990, la recherche sur les réseaux neuronaux stagne, pour être à nouveau délaissée. La limite principale est matérielle : les ordinateurs de l'époque ne sont pas assez puissants pour entraîner les modèles. Et la concurrence est rude dans le domaine de l'apprentissage automatique, car des modèles concurrents comme les machines à vecteurs de support (SVM) et les forêts aléatoires montrent de bons résultats.
Les réseaux neuronaux avaient été considérés comme une impasse vingt ans plus tôt. [Ce] jugement avait été rendu dans les années 1960 par une critique virulente de Marvin Minsky et Seymour Papert, qui jouissaient tous deux d'une excellente réputation dans la communauté de l'IA. Dans les années 1980, [les réseaux neuronaux] semblaient être non seulement une impasse, mais réellement morts. Presque tous les fonds de recherche avaient été consacrés à l'IA symbolique. Margaret Boden (2016)
À nouveau incontournables !
En 2006, un nouveau cycle d’intérêt pour les réseaux de neurones démarre.
Et des données, beaucoup de données. Traitées par des ordinateurs puissants, ces données sont les clés du succès. L’apprentissage profond va profiter pleinement de la mode technologique du Big Data des années 2010. L’utilisation massive du web et la démocratisation des objets connectés, qui sont naturellement des capteurs de données, expliquent ce mouvement technique qui bousculera bientôt l'économie.
Une compétition technique marque les esprits. La classification d'images est un critère qui permet de classer les performances des algorithmes.
En 2012, différents algorithmes sont évalués sur la base
Un réseau de neurones convolutif appelé SuperVision (puis AlexNet) a obtenu des performances remarquables lors du défi ImageNet 2012, bien meilleures que celles réalisées par les autres algorithmes en compétition (15% d'erreur, contre 26% pour le deuxième). L'utilisation de réseaux neuronaux convolutifs était possible grâce à l'utilisation de processeurs graphiques (GPU) lors de la phase d'entraînement, un ingrédient essentiel de la révolution de l'apprentissage profond. Selon The Economist, "soudainement, les gens ont commencé à prêter attention, non seulement au sein de la communauté de l'IA, mais dans l'ensemble de l'industrie technologique ". d'après Wikipedia
L'apprentissage profond est passionnant car il permet enfin aux réseaux de neurones de traiter la hiérarchie. Depuis le début des années 1980, les connexionnistes se sont efforcés de représenter la hiérarchie en combinant la représentation locale/distribuée ou en définissant des réseaux récurrents. [...] Leur succès est limité, et les réseaux de neurones ne sont toujours pas adaptés à la représentation précise de hiérarchies avec ou au raisonnement déductif. L'apprentissage profond a été initié, en fait, dans les années 1980 (par Jürgen Schmidhuber). Mais le domaine n’a explosé que plus récemment, lorsque Hinton a fourni une méthode efficace permettant aux réseaux multicouches de découvrir des relations sur de nombreux niveaux. Margaret Boden (2016)
DeepMind, un symbole
Notre méthode est plus performante qu'un expert humain sur BreakOut, Enduro et Pong et il atteint des performances proches de l'humain sur Beam Rider. [Nous sommes] loin des performances humaines sur des jeux [plus difficiles] comme Q*bert, Seaquest, Space Invaders, [qui] demandent au réseau de trouver une stratégie à long terme. DeepMind (2013)
Ces systèmes sont de véritables tours de force d'ingénierie et de recherche appliquée. Un éventail de raffinements est ajouté à l’arsenal technologique de l’apprentissage profond au fil du temps, comme le mécanisme d'attention et l'architecture transformer. Les GAFA et BigTechs sont les principaux acteurs du deep learning : leur puissance financière leur permet de s'offrir les compétences techniques, de constituer les bases de données essentielles à l'entraînement des modèles et la puissance de calcul requise (train, test, predict).
Des succès impressionnants
La bulle deep démarre autour de 2016.
Les principaux acteurs académiques des réseaux de neurones profonds rejoignent les GAFA.
Il y a 100 ans, l'électricité a presque tout transformé. Aujourd'hui, j’ai du mal à imaginer une industrie qui ne sera pas transformée par l’IA au cours des prochaines années. Andrew Ng (2017)
Les applications des réseaux de neurones sont impressionnantes dans de nombreux domaines. Les réseaux de neurones sont meilleurs que les humains pour la classification d’images. La traduction de texte en ligne progresse à un niveau correct pour les langues les plus représentées dans les corpus électroniques. La génération d’image et le text-to-image est une avancée majeure, avec
Les cas d’usage sont nombreux, probablement plus nombreux que ceux immédiatement visibles - mais qui marquent les esprits. De manière générale, les réseaux de neurones profonds sont des outils très utiles dans la détection et l’exploitation de tendances et motifs dans les bases de données massives, notamment les images. On s’attend à des progrès à long terme sur les sujets liés à l’industrie et, naturellement, les services numériques basés sur le profilage et la recommandation.
Je pense que l'IA provoquera très probablement la fin du monde. Mais entre-temps, de superbes entreprises seront créées grâce à l'apprentissage automatique. Sam Altman (2015)