L’humain et le mécanique : logos, vérité et ChatGPT

Giannakidou Anastasia
Mari Alda
Langue de rédaction : Anglais
DOI: n/a
Product variations: 

Numérique(PDF)

Papier

L’article aborde la question de savoir si les modèles GPT participent de la capacité linguistique humaine, avec un focus sur la sémantique et la pragmatique. Il pose la question en termes de capacité à juger de la vérité et de la fausseté au vu des faits du monde et, par conséquent, dans une approche référentialiste, en termes de compréhension du sens. Nous proposons un nouvel argument qui prend en compte la formation du jugement de véridicalité en tant que fondement de l’assertion et de la compréhension du sens plus généralement. Le jugement de véridicalité est toujours à propos du monde, mais il présuppose également la capacité de reconnaître des intentions communicatives. Par ailleurs, les jugements de véridicalité reposent sur deux piliers : (i) des preuves exogènes ayant trait à des faits du monde, et (ii) des préférences endogènes et des croyances privées. Les modèles de type GPT n’ont pas de relation à la réalité et ne possèdent donc pas de faculté de compréhension et de formation du sens. Ils ne possèdent pas non plus de préférences endogènes. Ces modèles, nous soutenons, ne sont pas à même de former un jugement de véridicalité, ils peuvent seulement l’imiter.



Pour citer cet article :

Giannakidou Anastasia, Mari Alda (2024/2). L’humain et le mécanique : logos, vérité et ChatGPT. In Gefen Alexandre & Huneman Philippe (Eds), Philosophies de l’IA : penser et écrire avec les LLM, Intellectica, 81, (pp.37-54), DOI: n/a.