N°81 - 2024/2

Philosophies de l’IA : penser et écrire avec les LLM

Gefen Alexandre, Huneman Philippe

Appel à contribution pour le n° 81 « Philosophies de l’IA : penser et écrire avec les LLM »



Coordination
Alexandre Gefen, théorie littéraire, CNRS / Université Paris Sorbonne
Philippe Huneman, philosophie, CNRS / Université Paris Sorbonne

Appel à contribution
Ce numéro sera élaboré sur la base d’invitations et d’une sélection restreinte d’articles suite à un appel à contribution. Il sera composé d’articles en français et en anglais.

Calendrier
- 15 janvier 2024 : deadline soumission des articles (50’000 caractères)
- 15 juin 2024 : deadline pour les articles définitifs (en version révisée)

Format/langue
Les francophones doivent écrire en français. Les auteur.es non-francophones peuvent écrire en anglais ou en français (une relecture par un native speaker est à prévoir si ce n'est pas la langue maternelle).

Politique éditoriale et instructions aux auteurs
Intellectica est une revue francophone créée par l’ARCo en 1985. Elle est consacrée à la publication de travaux théoriques, épistémologiques et historiques, éclairant les problématiques actuelles, dans le domaine des sciences de la cognition sous la forme de longs articles réflexifs, critiques et/ou prospectifs. Le choix éditorial de la revue est d’exclure les contributions à caractère strictement empirique (toute forme confondue : expérimentation, observation, etc.), ces travaux bénéficiant de la multitude des revues dédiées à ce type de recherche. Le comité de rédaction veille cependant à ce que les travaux réflexifs présentés soient en phase avec l’actualité empirique du domaine et, si nécessaire, qu'ils soient exposés synthétiquement au sein des articles. Vous trouverez ici l’intégralité des instructions aux auteurs : https://intellectica.org/fr/auteurs

Les articles, en français ou en anglais, publiés par Intellectica doivent pouvoir être accessible à un public large de lecteurs ayant déjà une certaine accointance avec le domaine. Vous pouvez consulter les archives en ligne d’Intellectica pour voir le type d’article que la revue a publié au fil des ans (http://intellectica.org/fr/numeros).

Embargo
La revue Intellectica a opté pour un embargo de deux ans sur les articles originaux. Au-delà de deux ans, les articles (version post-print éditeur) sont diffusables gratuitement à partir du site Intellectica ou de tout autre site. L'ensemble des archives (volumes en dehors de l’embargo) de la revue est disponible sur la plateforme d'archives ouvertes Persée.

Soumission
Envoyez votre manuscrit (ou vos questions) à soumission@intellectica.org
Merci de communiquer en amont votre intention de contribuer au numéro à la coordination.
Instructions aux auteurs : https://intellectica.org/fr/auteurs
Date limite : 15 janvier 2024

Présentation du numéro
De la rédaction d’annonces immobilières à la réponse à des questionnaires d’examen, les usages potentiels extrêmement variés de GPT-3 et de sa déclinaison grand public, ChatPGT, ont frappé aussi bien le grand public que les écrivains et les artistes, ouvrant à un large faisceau de questions d’ordre philosophiques qu’il importe d’examiner par-delà l’effet de fascination initiale. Comment caractériser et décrire le mode d’intelligence d’un LLM ? Quelles sont les limites à ses capacités « cognitives » et quelles perspectives technologiques se dessinent-telles ? Quelles réponses nous apportent de tels outils sur les rapports entre langage et pensée ? Quelle humanité et quelle conscience manquent-elles (encore) à GPT-3, et, en amont, existe-t-il une notion de conscience qui pourrait faire consensus, dont on se demanderait ensuite si tel ou tel système en est pourvu ? Indépendamment même de ses états possiblement mentaux, peut-on attribuer une agentivité au LLM ?
A ces questions épistémologiques ou ontologiques s’ajoutent des interrogations suscitées par l’usage même des LLM, au vu de leurs performances étonnantes. Un champ en croissance, l’éthique de l’IA, s’interroge déjà sur la responsabilité morale et juridique de tels outils : qui répondrait d’usages malveillants d’un LLM (la panique entourant les fake news vient à l’esprit immédiatement) ? Mais en-deçà des interrogations morales légitimes sur notre usage des LLM et de l’IA en général il faut se demander ce que font ces machines elles-mêmes – et les conséquences que leur existence et leur fonctionnement ont sur les concepts par lesquels nous pensons l’activité en général, et en particulier, l’activité dite créatrice. S’il est consensuel d’admettre qu’un humain pourvu d’un outil engage toujours une action humaine, cette intuition se maintient-elle lorsque l’outil est un LLM et produit de lui-même un sonnet ou une nouvelle ? L’action se ramène-telle alors à l’énonciation de ce « prompt » à partir duquel le LLM génère son texte ?
Ainsi, avec les systèmes d'intelligence artificielle dévolus au langage et aux relations du langage avec autre chose (image ou musique), tels que ces LLM, des questions spécifiques s’imposent. Certes, l’histoire de l’écriture s’accompagne d’une histoire d’outils – plumes, stylos, machines à écrire, traitements de texte. La possibilité même d’écrire, le statut de l’écrit, changent avec les innovations scripturaires. Qu’arrive-t-il au sujet de l’écrit dès lors qu’un LLM est en jeu ? S’il est clair que l’écrivain doté d’un correcteur d’orthographe ou de grammaire, éventuellement de style (Grammarly), fait à peu près la même chose qu’un écrivain d’antan ouvrant régulièrement dictionnaire ou Bled, GPT-3 - dont certains usages ressemblent à un wikipedia survitaminé, à un Google sachant écrire - est-il davantage qu’une amélioration incrémentale de ces outils ? Ou bien, l’usage du LLM et de sa manière spécifique de nouer les mots, à partir de distances probabilistes plutôt que d’une sémantique, nous entraine-t-il ailleurs ? Et comment définir cet ailleurs ? Ce numéro spécial s’inscrira dan l’espacé de ces questions neuves.
Autrement dit, plutôt que de demander si oui ou non l’écrivain qui s’aide de GPT, comme le plasticien « assisté » de Dall-E ou Midjourney (et que signifie d’ailleurs « assisté », terme omniprésent dans ce champ lexical ?), sont des « auteurs », ce numéro tentera de réfléchir à ce que tels outils nous disent sur des notions comme l’originalité et l’auctorialité, et comment le droit peut réguler de tels usages. Plutôt que de se demander si un LLM prouve quelque chose, on réfléchira à ce que les essais de preuves par Intelligence artificielle nous disent de ce qu’est une preuve. Et plutôt que de s’alarmer de machines qui penseraient quelque chose, on se demandera, à supposer qu’elles veuillent dire quelque chose, ce que ce vouloir-dire peut nous dire de la signification et du langage en général.

Ce numéro spécial rassemblera sur cette problématique des philosophes, spécialistes des sciences cognitives, juristes, linguistes et théoriciens de la littérature.