Intelligence artificielle en plein essort
Que nous réserve l'avenir si les robots prennent le contrôle ?
Que vous soyez en train de discuter avec la SNCP par l'intermédiaire d'un chatbot, faites le trie de vos photos via Facebook, produisez des traductions d'auteurs bulgares vers le français ou même encore, que vous preniez place dans une voiture sans chauffeur, automatisée, vous prenez conscience que l'intelligence artificielle est loin de s'arrêter là. Vous allez vous habituer à cotoyer des machines animées d'une IA. Ca fait 5 ans que ce vieux fantasme est devenu le sujet à ne pas rater.
Google lance un laboratoire conçu pour améliorer l'intelligence artificielle à Pékin
Google se lance en Chine pour mener à bien ses fantasmes et désirs les plus chers en matière d'intelligence artificielle.
La plupart de ses services restent bloqués dans le pays.
En 3 jours, l'intelligence artificielle de Google a appris le jeu de Go et écrasé la machine qui a détrôné l'Homme
INTELLIGENCE ARTIFICIELLE - Il y a un peu plus d'un an, la société DeepMind, appartenant à Google, réussissait l'impensable quelques mois plus tôt. Une simple machine, AlphaGo, l'emportait sur le champion du monde de jeu de Go.
Un événement à marquer d'une pierre blanche, comme la victoire de DeepBlue sur Garry Kasparov aux échecs en 1997. Surtout que le jeu chinois millénaire, avec son nombre de combinaisons possibles supérieur au nombre d'atomes de l'univers, était considéré comme l'un des plus difficiles à maîtriser pour une intelligence artificielle.
Mais Lee Sedol, le champion déchu, avait tout de même gagné une manche sur cinq. Tout n'était peut-être donc pas perdu pour l'être humain? Ce mercredi 18 octobre, DeepMind vient enterrer une fois pour toute cet espoir impossible.
Dans une étude publié dans la revue Nature, les chercheurs de la société britannique expliquent avoir réussi un nouvel exploit. La création d'un nouveau programme, AlphaGo Zero, qui a battu l'algorithme original 100 parties à zéro. Surtout, le programme a appris tout seul à jouer au jeu de Go, en s'entraînant contre lui-même. Et est arrivé à ce résultat en seulement trois jours.
"Une des plus grandes avancées"
Une performance époustouflante. Dans un article accompagnant l'étude, Satinder Singh, un chercheur qui a examiné l'étude de DeepMind, estime que c'est "l'une des plus grandes avancées, en termes d'applications, dans le champs de l'apprentissage par renforcement". Ce monsieur n'est pas n'importe qui, mais l'un des scientifiques les plus reconnus dans ce domaine.
Qu'est-ce qui a permis une telle progression en moins de deux ans? Il faut déjà rappeler que la plupart des programmes d'intelligence artificielle fonctionnent grâce à différents systèmes d'apprentissage automatisé. Ici, la technique utilisée s'appelle "apprentissage par renforcement" (reinforcing learning). En gros, on donne plusieurs règles à la machine et des actions possibles. Au fur et à mesure, qu'elle essaye celles-ci, elle apprend les actions qui fonctionnent le mieux et celles qui ne marchent pas.
A la différence de son prédécesseur, AlphaGo Zero est parti d'une base de donnée minimum, ne se servant que des pions présents sur le plateau de jeu et de sa connaissance de base des règles. Le logiciel a ensuite joué contre lui-même des millions de parties, essayant de deviner à chaque coup quelle était la meilleure combinaison possible et qui avait le plus de chance de remporter la partie.
Du passé faisons table rase
A chaque réussite ou échec, le réseau de neurones artificiel (le "cerveau" du programme) se mettait à jour, s'adaptait. Tout ça en partant de zéro, en commençant par des mouvements au hasard, sans exemple humain.
"AlphaGo Zero est devenu son propre professeur", schématise Demis Hassabis, le PDG de DeepMind dans un communiqué. "Après des millions de parties d'AlphaGo contre AlphaGo, le système a progressivement appris le jeu de Go à partir de rien, accumulant des milliers d'années de connaissances humaines en quelques jours", lance Demis Hassabis.
Si le programme qui a battu Lee Sedol fonctionnait de manière similaire, il se basait sur de très, très nombreuses données provenant de parties de joueurs humains professionnels. Et ce n'est pas tout. AlphaGo Zero est plus performant à bien des égards.
Plus rapide, plus efficace et moins couteux
D'abord, il n'utilise qu'un réseau de neurones artificiels au lieu de deux. Surtout, il a réussi à surpasser son aîné avec très peu d'entraînement. En trois heures, il avait appris les bases du Go, comme un joueur débutant. En 19 heures, il avait appris les fondamentaux des stratégies les plus évoluées du jeu.
Finalement, au bout de seulement trois jours d'apprentissage, AlphaGo Zero écrasait son aîné 100 victoires à zéro. Il lui a fallu 4,9 millions de parties d'entraînement pour arriver à ce résultat. Contre 30 millions pour la version du programme qui a battu Lee Sedol.
Et le tout avec une puissance de calcul bien moindre. AlphaGo Zero a eu besoin de 12 fois moins de processeurs pour surclasser totalement son grand frère.
Et l'algorithme ne s'est pas arrêté là. Après 21 jours d'entraînement, il a atteint le niveau d'AlphaGo Master, la version la plus aboutie du logiciel qui a battu Lee Sedol, que les chercheurs de DeepMind ont continué d'améliorer pendant deux ans. Au bout de 40 jours, AlphaGo Zero a donc affronté AlphaGo Master... et l'a emporté par 89 à 11.
Applications futures
Si c'est une révolution pour la recherche et le jeu de Go, Demis Hassabis ne compte pas s'arrêter là. Selon lui, si ces nouvelles techniques peuvent être appliquées à d'autres domaines, cela pourrait résoudre des problèmes bien plus concernants, comme la réduction de la consommation d'énergie ou la recherche de nouveaux matériaux révolutionnaires
Pas de panique non plus: si les avancées dans ce domaine peuvent sembler effrayantes, il faut rappeler que ces programmes sont très, très loin de l'intelligence humaine ou même animale. Ils sont ainsi entièrement confinés à une tâche particulière, pour laquelle ils ont été conçus.
"C'est l'une des limites de ces apprentissages, il est supervisé", explique au HuffPost Jean-Gabriel Ganascia, chercheur au CNRS spécialisé dans l'intelligence artificielle. Ici, pas en nourrissant le programme d'informations provenant d'êtres humains, mais avec un système de récompense, qui permet à l'algorithme de s'améliorer. "Pour autant, ce système de boucle fermé est important", estime le chercheur.
Quant à la possibilité d'une machine apprenant toute seule et sur tous les domaines, on en est encore loin. Les scientifiques ne savent d'ailleurs pas vraiment comment réussir à s'approcher du système d'apprentissage (non supervisé) de notre cerveau. Pour le moment en tout cas.
Il y a 1 commentaire(s) pour cette article
Lundi 1 Janvier 2018 à 12h25
c'est pas bien de faire du plagia !!!!... ou alors citez la source
Laisser un commentaire
Nous apprécions tout commentaire posté dans l'article du blog et nous nous y prêteront attention tout particulièrement.