Réseau de neurones profonds

 

Ces réseaux de neurones multicouches peuvent comporter des millions de neurones, répartis en plusieurs dizaines de couches. Ils sont utilisés en deep learning pour concevoir des mécanismes d’apprentissage supervisés et non supervisés.

Dans ces architectures mathématiques, chaque neurone effectue des calculs simples mais les données d’entrées passent à travers plusieurs couches de calcul avant de produire une sortie. Les résultats de la première couche de neurones servent d’entrée au calcul de la couche suivante et ainsi de suite. Il est possible de jouer sur les différents paramètres de l’architecture du réseau : le nombre de couches, le type de chaque couche, le nombre de neurones qui composent chaque couche.

Le perceptron multicouche, capable de traiter des phénomènes non linéaires, est un exemple de ce type de réseau. Concrètement, les premières couches permettront d’extraire des caractéristiques simples (comme des contours) que les couches suivantes combineront pour former des concepts de plus en plus complexes et abstraits : assemblages de contours en motifs, de motifs en parties d’objets, de parties d’objets en objets, etc.

L’espoir est que plus on augmente le nombre de couches, plus les réseaux de neurones apprennent des choses compliquées, abstraites, correspondant de plus en plus à la manière dont un humain raisonne. Il est néanmoins difficile de mettre au point des mécanismes d’apprentissage efficaces pour chacune des couches intermédiaires (appelées couches profondes ou couches cachées). La solution consiste à allier apprentissage supervisé (comme cela est fait pour un réseau à deux couches) et un apprentissage non-supervisé, utilisant des exemples dont la valeur de sortie est inconnue.