Revue de l'Association pour la Recherche Cognitive
Publiée avec le concours du CNRS


ISSN n° 0769-4113
Accueil
Comité de Rédaction
Instructions aux auteurs
Commandes et abonnements
Librairies
Archives en ligne
English version

Derniers numéros
Commande de numéro


Liens utiles
ARCo
Colloque ARCo-07
RISC
MSH Paris-Nord

intellectica

MSH Paris-Nord
4, rue de la Croix Faron
93210 Saint Denis

Tél. 01 55 93 93 06


 

intellectica 1994/2, n° 19: Organisation émergente dans les populations : biologie, éthologie, systèmes artificiels [retour table de matières]

 

Gilles LEONE, Jocelyn PATINEL, Maurice MILGRAM

Détection des symétries par réseaux de neurones formels : utilisation de représentations internes dans l’apprentissage, Pages 217-252 [Texte en pdf]

Resumé: Nous étudions la détection de symétries axiales dans des images binaires à l'aide de réseaux de neurones formels. Nous obtenons une quasi indépendance du nombre de cellules cachées par rapport à la taille des images à classer. Après avoir présenté différents modèles psychophysiques, nous introduisons le formalisme booléen correspondant. Nous exposons ensuite les résultats expérimentaux obtenus avec différents réseaux, en particulier nous remarquons que seuls un petit nombre de neurones cachés sont réellement utiles. Ceux-ci sont caractérisés par la structure spatiale régulière de leurs poids d'entrée. Nous proposons alors un nouvel algorithme d'apprentissage plus efficace, qui conduit à l'obtention de réseaux possédant le nombre minimum de neurones nécessaires pour la classification. Dans la dernière partie, nous abordons l'analyse théorique de ce problème qui conduit à une borne supérieure intéressante sur le nombre de cellules cachées nécessaires à sa résolution.

 

Detection of symmetries with feedforward neural networks : use of internal representations in the training algorithm

Abstract: We study the detection of axial symmetries in binary images with artificial layered neural networks, trained with the backpropagation rule. The number of hidden neurons necessary to classify correctly images is almost independant from the images' size. After a brief presentation of some psychophysical models we present the corresponding boolean formalism. We show experimental results obtained with different networks, and we note that only a few hidden neurons are really usefull. These neurons are characterised by the regular spatial structure of their input weights. We then propose a new and more efficient training algorithm that yields networks with the minimum number of neurons necessary to perform the classification. In the last part, we take up the theoretical analysis of this problem that leads to an interesting superior limit for the number of hidden neurons needed for its solution.


© 2010 Intellectica & Association pour la Recherche Cognitive