Grammaires génératives, opérations minimales et LLM : vrais et faux problèmes

Modicom Pierre-Yves
Langue de rédaction : Français
DOI: n/a
Product variations: 

Numérique(PDF)

Papier

Les implications des Grands Modèles de Langage pour la théorie grammaticale préoccupent la communauté des sciences du langage depuis de nombreuses années. L’objectif de l’article est de montrer en quoi cet intérêt repose sur l’analogie entre le fonctionnement des LLM et certaines hypothèses controversées concernant la faculté de langage, en particulier en matière d’acquisition. Le fonctionnement des « perroquets stochastiques » présente en effet d’importantes similitudes avec la modélisation proposée pour la structuration du langage humain dans la famille des grammaires dites « de construction », ainsi qu’avec le modèle behaviouriste de l’acquisition du langage. A contrario, le fonctionnement des IA neuronales est à rebours des modèles « générativistes » élaborés pour le langage naturel se situant dans le sillage des recherches de Noam Chomsky. L’article présente les termes du débat en linguistique théorique et revient sur cette proximité entre IA neuronales, grammaires de construction et psychologie behaviouriste avant d’étudier le point de vue inverse. Les générativistes sont conduits à affirmer que les IA conversationnelles ne produisent pas de langage. Si le débat se focalise sur des questions de syntaxe, il semble pourtant que la question de l’interface sémantique / pragmatique, autour du problème de la référence, soit plus opérante pour distinguer l’activité discursive des IA de celle des humains.



Pour citer cet article :

Modicom Pierre-Yves (2024/2). Grammaires génératives, opérations minimales et LLM : vrais et faux problèmes. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies de l’IA : penser et écrire avec les LLM, Intellectica, 81, (pp.119-133), DOI: n/a.