|
Les
réseaux de neurones sont un modèle computationnel inspiré par
le fonctionnement du cerveau humain. Ces réseaux sont utilisés pour des
tâches variées d'apprentissage automatique, notamment la classification,
la régression, la reconnaissance d'images et de parole, et bien d'autres.
Les réseaux de neurones ont révolutionné de nombreux domaines grâce
à leur capacité à apprendre des représentations complexes et à traiter
de grandes quantités de données. Ils constituent une pierre angulaire
de l'apprentissage profond (deep learning). Ils sont constitués
de couches de noeuds appelés neurones, qui sont connectés entre eux par
des poids.
Chaque neurone (noeud)
reçoit des entrées, effectue un calcul sur ces entrées, et transmet
une sortie. Un neurone typique prend un ensemble d'entrées pondérées,
applique une fonction d'activation et produit une sortie. La couche d'entrée
reçoit les données d'entrée; les couches cachées effectuent des transformations
et extractions de caractéristiques intermédiaires; la couche de sortie
produit la sortie finale du réseau. Les connexions entre les neurones
sont pondérées. C'està -dire que des paramètres (poids) déterminent
l'importance des connexions. Pendant l'entraînement, les poids sont ajustés
pour minimiser l'erreur du réseau. Des fonction d'activation (Sigmoïde,
Tanh, ReLU ( = Rectified Linear Unit) introduisent de la non-linéarité
dans le modèle, permettant au réseau d'apprendre des relations complexes.
Dans la propagation
avant (Forward Propagation), les entrées sont passées à travers le réseau,
couche par couche. Chaque neurone effectue un calcul basé sur ses entrées,
applique la fonction d'activation et transmet la sortie à la couche suivante.
La sortie du réseau est comparée à la valeur attendue (étiquette) pour
calculer une erreur (ou perte). La fonction de perte mesure la différence
entre la sortie prédite et la sortie réelle. Dans la rétropropagation
(backpropagation), l'erreur est propagée en arrière à travers
le réseau. Les poids des connexions sont ajustés pour réduire l'erreur.
Cela se fait en utilisant la descente de gradient pour minimiser la fonction
de perte. Les poids sont mis à jour après chaque itération en fonction
de l'erreur et du taux d'apprentissage. Le processus est répété pour
plusieurs itérations (ou époques) jusqu'à ce que l'erreur soit minimisée.
Types de réseaux
de neurones :
+ Les réseaux
de neurones artificiels (Artificial Neural Networks, ANN) sont composés
de couches entièrement connectées. Ils sont utilisés pour des tâches
générales de classification et de régression.
+ Les réseaux de
neurones convolutifs (Convolutional Neural Networks, CNN) sont utilisés
principalement pour la vision par ordinateur. Ils incluent des couches
de convolution et de pooling qui extraient automatiquement des caractéristiques
des images.
+ Les réseaux de
neurones récurrents (Recurrent Neural Networks, RNN) sont utilisés pour
traiter des données séquentielles (ex. : séries temporelles, texte).
Ils ncluent des connexions récurrentes permettant de conserver une mémoire
des états précédents.
+ Les réseaux de
neurones à mémoire longue et courte (Long Short-Term Memory, LSTM) sont
un type de RNN conçu pour surmonter le problème des gradients qui disparaissent,
permettant de conserver des informations sur de longues périodes.
+ Les réseaux antagonistes
génératifs (Generative Adversarial Networks, GAN) sont composés de deux
réseaux en compétition : un générateur et un discriminateur. Ils sont
utilisés pour générer des données réalistes, comme des images ou du
texte.
|
|