Introduction au machine learning – Partie 1/3 - Histoire

17-04-2019   •   3 min de lecture

Le machine learning, ou apprentissage automatique, appartient au champ de l’intelligence artificielle. Son but est de permettre à une machine d’apprendre à partir d’un jeu de données, pour ensuite réaliser une tâche, sans avoir été explicitement programmée à cet effet.

Cela vous semble encore un peu nébuleux ? Cette série d’articles va vous permettre d’y voir plus clair. Mais avant d’entrer dans le vif du sujet, commençons par un peu d’histoire autour du machine learning

L’histoire du machine learning liée à celle de l’IA

Il est bien sûr impossible d’évoquer l’origine du machine learning sans parler de celle de l’IA. On attribue généralement ses débuts à la création du test de Turing, en 1950. C’est le mathématicien britannique Alan Turing qui imagine cette épreuve, censée déterminer si une machine peut simuler la pensée humaine. Pour cela, un examinateur est confronté à deux interlocuteurs, l’un étant un ordinateur, l’autre humain. À l’aide d’échanges textuels, il doit alors identifier lequel des deux est une machine. S’il échoue, l’ordinateur a alors passé le test avec succès.

Dans ce contexte, de premiers programmes « intelligents » voient le jour. En 1959, c’est l’informaticien américain Arthur Samuel qui utilise pour la première fois le terme « machine learning », pour son programme créé en 1952. Celui-ci est capable de jouer aux dames et d’apprendre au fur et à mesure de ses parties. Jusqu’à finir par battre le quatrième joueur des États-Unis.

En parallèle, en 1957, un autre informaticien américain, Frank Rosenblatt, crée le « perceptron ». Il s’agit alors d’un classifieur binaire, c’est-à-dire un algorithme capable de classer des éléments (notamment des images) en deux catégories. À cet effet, le programme exploite ce qui constitue le premier réseau de neurones artificiels.

Des espoirs déçus au retour des beaux jours

De manière générale, les années 1950 et 1960 sont marquées par un véritable engouement autour des travaux consacrés à l’IA. Mais les promesses démesurées, couplées au manque de résultats, font ensuite naître un sentiment de défiance. Par exemple, les travaux de Frank Rosenblatt font l’objet de vives critiques dans le livre Perceptrons, de Marvin Minsky et Seymour Papert, publié en 1969.

On assiste alors à un coup d’arrêt significatif pour l’IA et le machine learning. Tant et si bien qu’on parle d’« hiver de l’IA » à partir de 1974. Et si la technologie connaît un rebond au début des années 1980, elle doit affronter une nouvelle crise de 1987 à 1993. Une période considérée comme le « deuxième hiver de l’IA ».

Mais le début des années 1990 marque le renouveau du machine learning. Et cette renaissance n’est pas liée à de nouveaux algorithmes révolutionnaires. En réalité, c’est surtout l’augmentation de puissance de calcul des ordinateurs qui entraîne des progrès substantiels. De plus, l’essor d’Internet offre de nouvelles possibilités aux chercheurs. Ceux-ci peuvent désormais partager leurs résultats plus facilement, ce qui leur permet d’avancer plus vite. De même, ils ont alors accès à de nouvelles données, en plus grandes quantités, une variable incontournable du machine learning.

Quelques applications du machine learning

La technologie connaît alors une accélération de son développement. Et entre même dans la sphère publique, notamment grâce à Deep Blue. Cet ordinateur, développé par IBM, est spécialisé dans le jeu d’échecs. Et finira par battre, en 1997, le champion du monde Garry Kasparov.

IBM reproduira ensuite son succès, avec un nouveau programme, nommé Watson. En 2011, celui-ci remporte le jeu télévisé de culture générale Jeopardy! face aux deux meilleurs joueurs, en ayant recours au NLP.

Mais le champ d’application du machine learning s’étend bien sûr au-delà des jeux. Grâce aux progrès technologiques, il s’est petit à petit fait une place dans de nombreux domaines. Aujourd’hui, on peut le retrouver dans les moteurs de recherche, la vision artificielle, les chatbots, la médecine, les transports autonomes, etc.Dans une deuxième partie, nous allons observer de plus près ce qui se cache sous le capot du machine learning.

Tags