Définition complète
Un réseau de neurones artificiels est un modèle de machine learning inspiré du fonctionnement biologique du cerveau. Il est composé de couches de "neurones" (unités de calcul) interconnectés par des poids ajustables. Les signaux passent des entrées aux sorties en traversant ces couches, chaque neurone effectuant une transformation. L'entraînement ajuste les poids pour que le réseau produise les sorties désirées. Les réseaux profonds (deep learning) avec de nombreuses couches permettent d'apprendre des représentations complexes.
Questions fréquentes
Comment fonctionne un réseau de neurones ?
Un réseau de neurones traite l'information en 3 étapes : l'entrée (données brutes : pixels, mots), les couches cachées (transformations successives : multiplication par des poids + fonction d'activation), et la sortie (prédiction : classe, texte, valeur). L'entraînement utilise la rétropropagation : comparer la sortie à la cible, calculer l'erreur, ajuster les poids pour la réduire. Répété des millions de fois.
Quels types de réseaux de neurones existent ?
Les principaux types sont : CNN (Convolutional) pour les images, RNN/LSTM (Recurrent) pour les séquences temporelles, Transformer pour le texte (LLM), GAN pour la génération d'images, et MLP (Multi-Layer Perceptron) pour les données tabulaires. Le Transformer domine aujourd'hui le NLP et gagne du terrain en vision. Le choix dépend du type de données et de la tâche.
Les réseaux de neurones sont-ils des "boîtes noires" ?
Oui, les réseaux de neurones profonds sont difficilement interprétables : ils contiennent des millions de paramètres sans signification intuitive. Nous ne pouvons pas facilement expliquer "pourquoi cette décision". Des techniques d'explicabilité (SHAP, attention visualization) aident mais restent imparfaites. Pour les applications critiques, cette opacité est un enjeu de conformité et de confiance.