D’une connaissance qui serait du semblant : grands modèles de langage et hypothèse Replika

Huneman Philippe
Langue de rédaction : Français
DOI: n/a
Product variations: 

Numérique(PDF)

Papier

Cet article traite du type de savoir et de discours produits par les Grands modèles de langage (LLM). J’écarte les questions concernant la conscience et l’intelligence des LLM, au profit de la position d’un hyperespace conceptuel de la notion d’intelligence dans lequel les diverses IA devraient se placer, de même que les intelligences animales. J’interroge ensuite la possibilité que les LLM sachent des choses –en supposant la différence épistémologique classique entre croyance vraie et savoir (comme croyance vraie justifiée). Je soutiens que la condition première de la justification, à savoir la possibilité de référer à quelque chose, n’est pas donnée de la même manière pour les LLM. Je défends l’hypothèse dite Replika, selon laquelle les LLM réfèrent, dans leurs énoncés, à des ensembles de mondes possibles proches du nôtre sans possibilité de distinguer le très possible et l’actuel. J’en tire les conséquences relatives à la question de l’opacité épistémique des LLM.



Pour citer cet article :

Huneman Philippe (2024/2). D’une connaissance qui serait du semblant : grands modèles de langage et hypothèse Replika. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies de l’IA : penser et écrire avec les LLM, Intellectica, 81, (pp.55-83), DOI: n/a.