intellectica 1994/2, n° 19: Organisation émergente dans les populations : biologie, éthologie, systèmes artificiels [retour table de matières]
Gilles LEONE, Jocelyn PATINEL, Maurice MILGRAM
Détection des symétries par réseaux de neurones formels : utilisation de représentations internes dans l’apprentissage, Pages 217-252 [Texte en pdf]
Resumé: Nous étudions la détection de symétries axiales dans des images binaires à l'aide de réseaux de neurones formels. Nous obtenons une quasi indépendance du nombre de cellules cachées par rapport à la taille des images à classer. Après avoir présenté différents modèles psychophysiques, nous introduisons le formalisme booléen correspondant. Nous exposons ensuite les résultats expérimentaux obtenus avec différents réseaux, en particulier nous remarquons que seuls un petit nombre de neurones cachés sont réellement utiles. Ceux-ci sont caractérisés par la structure spatiale régulière de leurs poids d'entrée. Nous proposons alors un nouvel algorithme d'apprentissage plus efficace, qui conduit à l'obtention de réseaux possédant le nombre minimum de neurones nécessaires pour la classification. Dans la dernière partie, nous abordons l'analyse théorique de ce problème qui conduit à une borne supérieure intéressante sur le nombre de cellules cachées nécessaires à sa résolution.
Detection of symmetries with feedforward neural networks : use of internal representations in the training algorithm
Abstract: We study the detection of axial symmetries in binary images with artificial layered neural networks, trained with the backpropagation rule. The number of hidden neurons necessary to classify correctly images is almost independant from the images' size. After a brief presentation of some psychophysical models we present the corresponding boolean formalism. We show experimental results obtained with different networks, and we note that only a few hidden neurons are really usefull. These neurons are characterised by the regular spatial structure of their input weights. We then propose a new and more efficient training algorithm that yields networks with the minimum number of neurons necessary to perform the classification. In the last part, we take up the theoretical analysis of this problem that leads to an interesting superior limit for the number of hidden neurons needed for its solution.
|