Sommaire

Sommaire

Grand mythe de notre temps ou réel danger civilisationnel ?

ChatGpt, appelé aussi Gpt3, est un chatbot, un agent conversationnel avec lequel on peut “échanger”, qui est capable de répondre, de rédiger poèmes, dissertations, argumentaires… et qui “apprend” en se servant des demandes.

ChatGPT – Generative Pre-trained Transformer – agent conversationnel en français – fait le buzz dans les médias et les réseaux…


Illustration d’Emmanuel Gorinstein,
Le cycle des robots, I. Asimov, Ed j’ai lu ©1984

ChatGPT, appelé aussi GPT3, a été mis au point par une Start-up Open AI, mais il existe d’autres chatbot en cours de développement ou déjà actifs : Bard de Google par exemple ou Wudau 2.0 en Chine. Il a été lancé par Microsoft, en phase de test, courant novembre dernier, afin d’en améliorer le fonctionnement, le contenu, les performances, puisqu’il “apprend” en se servant des demandes (100 millions d’utilisateur·trices en février 2023 l’ont fait énormément progresser) depuis Gpt4 a été lancé en mode test et Microsoft a intégré une version de ChatGPT dans le moteur de recherche Bing.

GPT3, pour faire simple, est un “agent conversationnel” utilisant l’IA– “l’intelligence artificielle” – ce qui permet à un individu de “discuter” avec un système basé sur cette intelligence artificielle.

Il utilise de grands modèles génératifs capables d’explorer des milliards de données et d’arriver à créer des modèles avec des réseaux de neurones artificiels .

GPT3 est capable de répondre assez rapidement et en plusieurs langues à toutes sortes de questions, et éventuellement de rédiger poèmes, dissertations, argumentaires et même d’élaborer des lignes de codes informatiques, le tout sans trop d’erreurs, ce qui reste à prouver, plusieurs exemples révélés depuis son lancement mettant en avant de grossières erreurs.

Deux types de réactions sont apparues depuis novembre

L’émerveillement “waou” des inconditionnels qui se jettent sur toutes les “Nouveautés” sans s’occuper des possibles répercussions et des dommages “collatéraux” (selon l’expression consacrée)…

Et la défiance des “spécialistes”, mieux informés, moins sensibles aux sirènes de la nouveauté qui, tout en reconnaissant la prouesse, relèvent les possibles dysfonctionnement et les limites cet “outil”, tout en évoquant aussi la dangerosité potentielle de l’IA.

Une partie de l’opinion est toutefois assez indifférente, car peu ou mal informée, or comme pour les réseaux sociaux, Facebook, Instagram, Tik-Tok… dont le développement a façonné la société et favorisé de nouveaux comportements (a)sociaux, tout en entraînant – nous entraînant – vers un futur pas du tout radieux : manipulations, fake news, intervention dans les élections, utilisation des données dans des buts mercantiles, complotisme…

L’usage de l’IA ne manquera pas de s’imposer et de modifier, encore, profondément la société, le rapport au savoir, aux connaissances, la notion de vérité scientifique, voire de vérité tout court, problématique dont la pandémie nous a donné un avant-goût.

GPT3 utilise un corpus de 50 % de connaissances venues du monde anglo-saxon

Tout aussi important est la “connaissance”, la “culture” à laquelle fait appel ChatGpt qui est nourri par différents corpus.

Pour l’instant, Gpt 3, qui s’exprime en français parfait, utilise un corpus de 50 % de connaissances venues largement du monde anglo-saxon, majoritairement des États-Unis, connaissances qui finiront par s’imposer à la place du modèle culturel “européen”.

Il faudrait parler aussi des dessous de l’IA, car pour compiler les données, les Start-up développant ces agents conversationnels ont besoin de milliers de travailleur·euses, exploité·es dans les parties les plus pauvres du monde, (Inde, Madagascar, Maroc…) payé·s à la tâche – le tarif de la saisie de données en offshore se situe entre 0,20 € et 0,40 € la ligne ou 1€ pour 1000 images captcha saisies.

Aborder les problèmes de sécurité et de confidentialité

En effet OpenAI – à l’origine du logiciel – collecte des informations personnelles mais ne propose pas de note d’information aux “utilisateurs et utilisatrices” ni de “conditions générales d’utilisation” à accepter, ni d’information sur “une quelconque politique de confidentialité”.

En réaction, l’Italie a ouvert la voie le 31 mars en interdisant ChatGPT pour plusieurs infractions sur la protection des données personnelles et des moins de 18 ans tant que le robot conversationnel de la société américaine OpenAI n’aura pas pris des mesures de transparence et de protection des données des utilisateurs et utilisatrices.

Plusieurs autres pays d’Europe se sont mis en relation avec les régulateur·trices italien·nes, notamment l’Irlande, l’Allemagne et la France, où la CNIL vient d’enregistrer cinq plaintes d’utilisateur·trices qui, lors d’échanges avec le robot d’intelligence artificielle, se sont aperçu de nombreuses erreurs lorsqu’il est interrogé sur leur profil, indiquant des dates et fonctions fantaisistes.

Pendant ce temps, le Parlement européen – qui travaille sur le sujet depuis deux ans – prévoit de mettre en place un règlement qui encadrerait l’intelligence artificielle en Europe mais les difficultés et le retard de mise en place des textes régulant les Gafam ne présagent rien de bon.

Le problème se pose aussi au Canada, où ChatGPT est désormais l’objet d’une enquête du commissariat à la protection de la vie privée. Un avis défavorable pourrait être le point de départ d’une véritable procédure judiciaire avec, potentiellement, une interdiction de ChatGPT.

Le syndrome HAL 9000

Sans tomber dans le syndrome HAL 9000 , et prendre de la distance avec le débat autour des trois lois de la robotique , édictées par I. Asimov, qui agitent à la fois les tenants de la Science-Fiction et les membres de la communauté scientifique, on peut s’interroger sur les perspectives du développement de l’IA.

Car l’émergence des derniers modèles de l’IA et de ses développements posent bien un problème à la fois sociétal et civilisationnel.

L’historien Pierre-Antoine Marti s’est entretenu directement avec l’agent conversationnel au sujet de son thème de recherche : la littérature d’anticipation, afin de savoir ce que pouvait dire (penser ?) ChatGPT lui-même de la S.F. ? de 1984 ? et des questions éthiques qu’il soulève ?

Réponses passionnantes surtout “[…] lorsque dans ce dialogue il s’est évertué à assurer à plusieurs reprises qu’il n’a pas de conscience ou de personnalité, alors même que la question ne lui a jamais été posée […]” (à lire sur AOC) .

L’un des concepteurs de l’intelligence artificielle, Geoffrey Hinton, a quitté Google pour pouvoir s’exprimer librement sur le sujet, sa voix s’ajoute à celle de milliers d’experts, qui, fin mars, ont appelé à faire une pause dans le développement de l’IA.

Et son discours n’est rien moins qu’alarmiste, “[…] les perspectives d’avenir de l’IA sont plutôt effrayantes pour les humains […]” a déclaré le scientifique sur la BBC.

“Pour le moment, elles ne sont pas plus intelligentes que nous, pour ce que j’en sais. Mais je pense qu’elles pourront bientôt l’être” poursuit-il.

En l’état actuel des choses, les craintes portent sur la création massive de vidéos, photos et articles fallacieux sur Internet. Il redoute ainsi que “les gens normaux ne puissent plus distinguer le vrai du faux” ce qui est un processus déjà largement entamé.

Bernard Foulon