Comprendre le deep learning – 3/3 : Deep learning vs Machine learning

04-11-2019   •   3 min de lecture
Affiche du film documentaire sur AlphaGo © AlphaGo Movie

Le deep learning connaît un véritable essor depuis quelques années seulement. Comment expliquer un engouement si soudain ? En réalité, les chercheurs se sont rapidement rendu compte que cette approche permettait d’aller plus loin que le machine learning « classique ». Voici quelques-uns des atouts de l’apprentissage profond, illustrés par un exemple caractéristique : AlphaGo.

Capacité d’apprentissage étendue

Pour rappel (cf. partie 2), le deep learning se différencie de l’ensemble du machine learning par une architecture de réseaux de neurones artificiels multicouches. Qui lui offre une meilleure autonomie dans son apprentissage.

Car dans sa version « classique », le machine learning nécessite généralement des données préalablement traitées, pour son entraînement. Les algorithmes ont en effet besoin d’être guidés afin de pouvoir reconnaître les propriétés d’un élément donné. Au contraire, dans l’apprentissage profond, le programme repère lui-même les caractéristiques nécessaires à son objectif. Ce qui le rend particulièrement pertinent pour l’apprentissage non supervisé et pour l’exploitation du big data.

Par ailleurs, les réseaux de deep learning se distinguent par leur caractère réutilisable. En effet, en général, les algorithmes classiques de machine learning sont dédiés à la résolution d’un seul problème (ex : détecter la présence d’un être humain). À l’inverse, il est possible d’adapter un programme reposant sur l’apprentissage profond, afin qu’il remplisse une mission semblable mais différente de celle prévue à l’origine. Ce principe porte le nom de transfer learning, ou apprentissage par transfert.

Par exemple, on pourra utiliser un réseau capable d’identifier des êtres humains pour déterminer si on trouve un texte prédéfini sur une photo. Dans les deux cas, le travail initial de découpage de l’image en lignes, courbes, etc., restera en effet inchangé.

Deep Blue vs AlphaGo : allégorie du match machine learning vs deep learning

Pour illustrer ces différences, étudions de plus près deux « machines joueuses » ayant marqué l’histoire : Deep Blue et AlphaGo.

Deep Blue était un ordinateur conçu par IBM, spécialiste du jeu d’échecs. Son principal fait d’armes est d’avoir battu, en 1997, Garry Kasparov, alors champion du monde de la discipline. Pour parvenir à cette prouesse, la machine s’appuyait sur une approche de machine learning, ainsi que sur des algorithmes capables d’analyser jusqu’à 200 millions de positions par seconde. Si ce volume peut paraître impressionnant, il reste néanmoins fortement limité, en raison du nombre restreint de pièces et de cases.

Un tel procédé n’aurait ainsi pas pu être appliqué au jeu de go, qui comprend un nombre bien plus élevé de combinaisons possibles. L’entreprise DeepMind (rachetée par Google en 2014) a donc privilégié une autre approche, centrée sur le deep learning, pour créer son programme AlphaGo, connu pour avoir battu plusieurs grands joueurs de go à partir de 2015, notamment Lee Sedol et Ke Jie en 2016 et 2017, meilleurs joueurs sur ces périodes.

Initialement, AlphaGo s’entraînait en analysant des dizaines de milliers de parties jouées par des humains, et en imitant les meilleurs joueurs. Puis le programme s’améliorait en affrontant d’autres instances de lui-même. Mais en 2017, DeepMind a annoncé avoir mis au point une nouvelle version, plus performante encore, qui ne s’appuyait que sur les règles du jeu et sur un entraînement uniquement contre elle-même.

Par ailleurs, la même année, la société a effectué une démonstration de transfer learning. Elle a en effet élaboré une déclinaison du programme, baptisée AlphaZero, capable de rivaliser avec les meilleurs au jeu de go, mais également aux échecs et au shogi (jeu de plateau japonais).

Quelques limites du deep learning

Issu du machine learning, le deep learning en reprend donc les principes, tout en améliorant ses capacités. Cependant, il ne faut pas croire qu’il ne comporte aucune faiblesse. Car l’approche repose souvent sur une grande quantité de données, dont il n’est pas toujours facile de disposer. Une problématique que le transfer learning pourrait contribuer à résoudre.

Mais surtout, l’apprentissage profond présente l’inconvénient d’être une « boîte noire » : son mécanisme de prise de décision demeure obscur pour un être humain. De nos jours, des chercheurs œuvrent donc à améliorer l’interprétabilité de ces systèmes. Un travail certainement nécessaire pour que l’humain puisse véritablement se fier à la machine.

Tags