Qu’est-ce que le Machine Learning ?

Le Machine Learning ou encore apprentissage automatique est un domaine scientifique et plus précisément une sous-catégorie de l’intelligence artificielle. Il utilise des algorithmes s’entraînant à des tâches complexes à l’aide de vastes ensembles de données. C’est un apprentissage automatique disposant d’une multitude d’applications.
Machine Learning
Sommaire

Machine Learning : une définition

Le Machine Learning est couramment traduit en français par apprentissage automatique, apprentissage machine ou encore apprentissage artificiel ou statistique. Il s’agit de l’une des grandes technologies de l’intelligence artificielle. C’est une méthode de programmation informatique qui utilise des algorithmes pour donner aux ordinateurs la capacité d’apprendre par eux-mêmes sans programmation nette. Pour être plus précis, le Machine Learning se base sur une exploitation de données favorisant la reconnaissance de patterns. Le Machine Learning peut ainsi fournir des analyses prédictives.

Les premiers algorithmes

Les tout premiers algorithmes de Machine Learning ne sont pas récents, certains ont été créés à partir des années 1950,le Perceptron étant le plus connu d’entre eux.

Les objectifs

L’objectif du Machine Learning est très simple : comment « apprendre à apprendre » aux ordinateurs et ainsi agir comme le font les humains, en perfectionnant leur mode d’apprentissage et leurs savoirs de manière autonome avec le temps ? Là où un programme traditionnel réalise des instructions précises, un algorithme de Machine Learning apprend de son expérience et améliore ses performances sur la durée. L’objectif principal est de voir les ordinateurs agir et réagir sans être programmés au préalable.

Machine Learning et Big Data

Le potentiel du Machine Learning se révèle entre autres pour le Big Data, dans les situations où des tendances doivent être repérées à partir d’une grande quantité de données diverses et variées. Lorsqu’il faut analyser une telle quantité de données, le Machine Learning est préféré aux méthodes traditionnelles. Ceci grâce à sa puissance en termes de vitesse et de précision (plus il dispose de données, plus il devient précis).

Le Machine Learning est indispensable pour découvrir des motifs au sein des immenses bases de données disponibles. Il est capable d’extraire des données parmi des sources d’informations complexes, sans intervention humaine.

Exemple d’utilisation du Machine Learning

Le véhicule autonome est un bon exemple de Machine Learning. En effet, un tel véhicule est doté d’une multitude de caméras, de plusieurs radars et d’un capteur lidar. Des équipements qui permettent :

  • D’utiliser un GPS pour repérer l’emplacement du véhicule régulièrement avec une grande précision.
  • D’analyser la section de route située en avant de la voiture.
  • Et de détecter les objets mobiles ou fixes situés sur l’arrière ou les côtes de la voiture.

Un ordinateur central installé dans le véhicule recueille et analyse en permanence ces informations et les classe de la même façon que les réseaux neuronaux d’un cerveau humain.

Fonctionnement du Machine Learning

Dès les années 2010, le Machine Learning ou apprentissage automatique est rapidement devenu la forme de l’intelligence artificielle la plus utilisée. Par le biais des algorithmes statistiques, il apprend à une machine la reconnaissance d’une image, l’interprétation d’un texte, le trading, la prévision des ventes ou encore la recommandation des produits ou contenus correspondant parfaitement aux préférences des internautes.

Le fonctionnement d’un modèle d’Apprentissage Machine nécessite 4 étapes clés. De manière générale, ce processus est géré par un Data Scientist.

1 / Les données d’entraînements ou training dataset

Le dataset d’entraînement est le tout premier outil utilisé par les spécialistes de la business intelligence et des technologies de l’information (TI). Il requiert une exploitation conséquente d’une base de données. C’est la première phase d’apprentissage automatique pour l’IA, avant la mise en production du modèle concerné.

Pour mettre au point cette phase, il faut choisir et apprécier un ensemble de données d’entraînement. Des données qui auront essentiellement pour but de permettre au modèle de Machine Learning d’acquérir des notions dans la résolution des problèmes pour lesquels il est conçu. Il est possible d’étiqueter ces données, afin d’indiquer au modèle les caractéristiques à identifier. Dans le cas contraire, le modèle devra repérer et extraire les caractéristiques récurrentes de lui-même. Pour éviter l’échec de l’entraînement du modèle d’Apprentissage Machine, les données doivent être méticuleusement préparées, organisées et nettoyées. A défaut, les prédictions futures seront directement atteintes.

2 / Un framework logiciel

Pour être capable de mettre au point sa propre IA afin de mieux exploiter ses données, on peut avoir recours à un framework Machine Learning. Car à l’aide des différents frameworks, l’accès à cette technologie est plus facile au fil des années.

3 / Un algorithme adapté au résultat attendu

Cette étape consiste à sélectionner un algorithme à exécuter sur l’ensemble des données d’entraînement. Le choix de l’algorithme dépend du type et du volume de données d’entraînement et du type de problème à résoudre. Cet algorithme doit donc être compatible avec le résultat visé (prévision, qualification du contenu d’une image, d’un texte…).

L’algorithme choisi nécessite un entraînement. C’est un processus itératif au cours duquel les poids et le biais seront modifiés pour optimiser la précision du résultat. Ainsi entraîné, l’algorithme représente le modèle de Machine Learning.

4 / Un environnement de déploiement

La dernière phase consiste en l’optimisation du modèle en l’appliquant à de nouvelles données. À titre d’exemple, un modèle d’apprentissage automatique conçu pour repérer les spams sera utilisé sur des emails. D’un autre côté, un modèle de Machine Learning d’un aspirateur robot utilisera les données provenant de l’interaction avec le monde réel comme le déplacement de meubles ou l’ajout de nouveaux objets dans la pièce. Sa performance et sa précision peuvent ainsi augmenter avec le temps.

Selon plusieurs scientifiques, le Machine Learning représente l’unique forme d’IA acceptable dans la mesure où elle incorpore une fonction centrale de l’intelligence humaine : l’apprentissage. Mais pour d’autres, ce n’est qu’une famille de technologies d’IA ayant pour objectif la résolution d’un nombre fini de problèmes.

Les algorithmes de Machine Learning

Multiples et divers, les algorithmes de Machine Learning sont répartis en deux grandes catégories : supervisés et non supervisés, selon la nécessité ou pas d’étiqueter les données au préalable.

Lorsqu’il s’agit de l’apprentissage supervisé, les données utilisées sont déjà étiquetées. C’est souvent le cas des données structurées qui sont issues des systèmes de gestion des entreprises (ex : remboursement du crédit ou non, panne mécanique ou non). De ce fait, le modèle d’apprentissage machine connaît ce qu’il faut chercher (motif, élément…) dans ces données. Une fois l’apprentissage terminé, le modèle entraîné aura la capacité de détecter les mêmes éléments sur des données non étiquetées.

Quelques exemples d’algorithmes de Machine Learning.

Les algorithmes de régression (linéaire ou logistique)

Linéaires ou logistiques, ce sont les algorithmes les moins puissants mais les plus facilement interprétables. Ils permettent de comprendre les relations existant entre les données.

Représentée classiquement sous forme de droites sur un graphique, la régression linéaire a pour rôle de déterminer la valeur d’une variable à prédire, appelée aussi “variable dépendante” à partir de la valeur d’une ou plusieurs autres variables explicatives, appelées aussi “variables indépendantes”. Les termes dépendante/indépendante viennent de ce qu’on fait l’hypothèse que la variable dépendante dépend des variables indépendantes, qui elles n’en dépendent pas (le taux d’accident de la route dépend de la consommation d’alcool, et non l’inverse). Un exemple de régression linéaire est la prédiction des ventes annuelles d’un commercial en fonction de son niveau d’étude ou de son expérience.

La régression logistique est, elle,utilisée quand les variables dépendantes sont binaires. Lorsque les variables dépendantes sont plus difficiles à classifier, on utilise d’autres types d’algorithmes de régression comme la  machine à vecteur de support (Support Vector Machine).

L’algorithme de l’arbre de décision

Un arbre de décision constitue un outil d’aide à la décision. L’ensemble de choix est représenté sous la forme graphique d’un arbre, de là son nom. Aux extrémités des branches, les feuilles de l’arbre, on trouve les différentes décisions possibles. Ce type d’outil a l’avantage d’être lisible et rapide à exécuter mais également calculable automatiquement par des algorithmes d’apprentissage supervisé.

Arbre de décision - decision tree

Exemple d’arbre de décision
IPWAI, CC BY-SA 3.0, via Wikimedia Commons

 

Voici une définition simple :

“ Un arbre de décision est une représentation visuelle d’un algorithme de classification de données suivant différents critères qu’on appellera décisions (ou nœuds).”

 

Application arbre de décision

Exemple d’un arbre de décision pour l’accord d’un prêt

Source : https://maximilienandile.github.io/

Des algorithmes de clustering

Le clustering est une méthode d’apprentissage machine consistant à regrouper des points de données. Le data clustering (partitionnement de données en français) est une méthode en analyse des données utilisée en apprentissage non supervisé. Les algorithmes de clustering servent ainsi à répartir les données en sous-groupes nommés clusters. Le partitionnement de données a pour but de diviser un ensemble de données différents groupes homogènes, de manière que chaque sous-ensemble dispose de caractéristiques communes, selon des critères dit de proximité.

Les algorithmes d’association

Ils ont pour objectifs de découvrir les patterns et les relations qui existent entre les données, et aussi d’identifier les relations “si / alors”, nommées règles d’association. Ce sont des règles similaires à celles du Data Mining.

C’est le cas par exemple de l’algorithme Apriori, qui peut être utilisé par les équipes commerciales qui cherchent à déterminer le produit qui sera choisi avec un autre par un client. En pratique, ce sont des algorithmes plus avancés comme le filtrage collaboratif (User-User, Item-Item), les algorithmes du bandit sur A/B testing ou la factorisation de matrice qui vous suggèrent d’autres achats lorsque vous naviguez sur un site e-commerce.

Les algorithmes de réduction dimensionnelle

Il s’agit d’un algorithme très classique appelé Analyse par Composantes principales. Il a pour but de déterminer les directions dans lesquelles l’ensemble de données dispose le plus de variances et de projeter linéairement les données dans ces directions-là.

La réduction de dimension peut également se faire avec l’apprentissage par renforcement, ou reinforcement learning. Ici, l’algorithme apprend en essayant d’atteindre son objectif plusieurs fois.

Cas d’utilisation du Machine Learning

Les algorithmes d’apprentissage automatique (ML) ont des applications très variées, notamment le filtrage du courrier électronique et la vision par ordinateur, où il est difficile, voire même impossible, de développer un algorithme conventionnel pour réaliser efficacement la tâche.

Cette technologie se cache derrière un grand nombre de services modernes très populaires : les systèmes de recommandation de Netflix, YouTube et Spotify. Idem pour les moteurs de recherche web de Google et Baidu, les fils d’actualité de réseaux sociaux tels que Facebook et Twitter ou encore pour les assistants vocaux comme Siri et Alexa. Il s’agit donc d’une innovation phare de ce début de XXIe siècle. C’est pour cette raison que ces géants du numérique collectent constamment des données personnelles sur leurs utilisateurs : le genre de films que vous préférez, les liens sur lesquels vous cliquez… ce sont des données susceptibles d’être utilisées pour nourrir un algorithme de Machine Learning.

Le traitement naturel du langage (NLP)

Aussi, les assistants numériques, tels qu’Apple Siri, Amazon Alexa ou Google Assistant, reposent sur la technologie de traitement naturel du langage (NLP). C’est une application du Machine Learning qui permet aux ordinateurs de traiter des données vocales ou textuelles dans le but de comprendre le langage humain.

 

Un outil pour les entreprises

Pour Rich Clayton, vice-président de la stratégie produit d’Oracle Analytics, le Machine Learning est un outil de collaboration qui accélère les processus et permet à différentes parties de l’entreprise de collaborer, offrant ainsi une meilleure qualité et des modèles à déployer.

 

À titre d’exemple, les départements financiers traditionnels répètent constamment un processus pénible d’analyse des écarts, qui consiste en une comparaison entre les résultats réels et les prévisions. Il s’agit d’une application peu cognitive pouvant grandement bénéficier du Machine Learning. En intégrant cette technologie, la finance est capable de travailler plus vite et plus intelligemment, et de reprendre là où la machine s’est arrêtée.

Au fur et à mesure que le Big Data continuera à croître, avec plus de données générées, l’information continuera à gagner en puissance et le Machine Learning offrira davantage de possibilités d’utilisations.

 

Crédit Image : Unblast – Dribble

 

Sommaire

Voir aussi

 Le Data Scientist est un spécialiste de la Data Science ou science des données en français. Cet expert des données possède des connaissances qui lui permettent de rendre lisibles et d’exploiter des données brutes, complexes ou déstructurées. Les informations pertinentes qui en découlent sont utiles à la croissance de l’entreprise.
 Le Data Mining consiste à rechercher de façon automatique de grandes quantités de données pour la découverte de tendances et de modèles. Ce processus peut être appliqué à la Business Intelligence pour aider les entreprises à solutionner diverses problématiques.

Voir aussi

 Le Data Scientist est un spécialiste de la Data Science ou science des données en français. Cet expert des données possède des connaissances qui lui permettent de rendre lisibles et d’exploiter des données brutes, complexes ou déstructurées. Les informations pertinentes qui en découlent sont utiles à la croissance de l’entreprise.