top of page

L'IA découvre de nouvelles voies inconnues jusqu'ici

Dernière mise à jour : 10 févr. 2021



Cher D,


La technologie la plus performante se l’intelligence artificielle est l'apprentissage profond (deep learning) avec convolution. Il s'agit de construire un réseau de neurones artificiels, de l'entraîner avec une base de données dites de départ importante dont on connaît le résultat (plusieurs dizaines de milliers au moins), puis de vérifier avec des données dites de test, (une dizaine d'exemples) que ce réseau de neurones parvient à donner des résultats avec un certain pourcentage d’erreurs de l'ordre du pourcent, et enfin , une fois cet apprentissage validé , passer à l'application proprement dite sur de nouvelles données extérieures à l'apprentissage.

De nombreux paramètres empiriques existent dans ce réseau de neurones, initialisés de manière aléatoire, qui vont varier, au fur et à mesure que l'apprentissage avance.

C'est surtout applicable pour reconnaître une forme dans une image (visage, animal, tumeur, objet...).


A partir des données de départ, il faut faire un travail préparatoire très important mettant en forme ces données avant de lancer l'entraînement du réseau de neurones, Ce travail évite de faire mouliner très longtemps cet entraînement. :

  1. Étiquetage des données comme par exemple, en encadrant dans les images de données les cibles à identifier comme des chats (sil s'agit de trouver des chats)

  2. Faire une opération dite de convolution, inspiré du cortex visuel des animaux, comportant une taille de noyau (kernel), un décalage du kernel entre 2 calculs (stride) et un dépassement d'image (padding)

  3. Ajouter d'autres techniques de lissage : ReLU, pooling

Lorsque le résultat d'une donnée extérieure apparaît, il faut encore que l’opérateur valide ce résultat, car il peut apparaître un résultat aberrant, selon que le réseau est trop calé sur certains des données de base (sur-apprentissage) ou, au contraire, trop éloigné (sous-apprentissage) .


Les paramètres de l'architecture du réseau de neurones sont à la fois sélectionnés par expérience et aussi de manière empirique, car bien souvent on essaie plusieurs architectures avant de trouver la meilleure.


Pour en revenir à ta question, le résultat est constitué de chiffres à interpréter, sans aucun raisonnement sous-jacent. La machine qui pense est prévue pour 2050, quand la puissance des ordinateurs sera suffisante (ordinateurs quantiques, par exemple) pour rivaliser avec le cerveau humain, avec ses milliards de neurones.


Si tout cela n'est pas très clair, c'est que je n'ai pas encore tout bien compris.


Il n'empêche que l'IA est devenue plus performante que les meilleurs humains dans le domaine des jeux, et trouve des configurations que l'on a validé à postériori, et que l'on ne connaissait pas. Il y a donc de l'inventivité dans l'IA d'aujourd'hui (jeu de go).

Amicalement.


Raoul


1 vue0 commentaire

Posts récents

Voir tout
Post: Blog2_Post
bottom of page