Cela peut paraître évident pour des gens comme vous – ceux qui sont restés vaguement impressionnés mais fondamentalement sceptiques quant à cette nouvelle technologie – ou pour ceux qui comprennent la technologie par cœur.
Mais pour beaucoup, y compris, comme vous l’avez dit, les professionnels « brillants et compétents », ce n’est pas évident du tout. Les gens ont donc commencé à utiliser des outils tels que ChatGPT pour reproduire des processus humains très complexes ou, oui, même comme source de vérité objective.
Soudain, nous entendons des gens nous dire sans ironie « ChatGPT m’a dit… » ou discuter sérieusement du sexe qu’ils attribuent au chatbot, comme s’il s’agissait essentiellement d’une personne numérique.
Il y a tout un argument philosophique et éthique à faire valoir pour expliquer pourquoi cela est dangereux. Je n’ai ni l’espace ni l’érudition pour emprunter cette voie. Je vais donc me concentrer uniquement sur deux problèmes pratiques liés à ce type de foi effrénée, à savoir la propension actuelle des LLM à la flagornerie et aux hallucinations.
C’est simplement un fait que les LLM produisent encore des réponses extrêmement inexactes, parfois ridicules, aux questions ou aux demandes de tâches. Les experts appellent cela une « hallucination ».
Pour revenir à mon expérience demandant aux chatbots d’écrire une chronique de type Work Therapy, lorsque je leur ai demandé de m’aider à comprendre d’où ils avaient obtenu les données pour éclairer leurs choix de style et de ton, leurs réponses étaient confuses. Puis, après un interrogatoire plus précis, ils ont commencé à présenter des informations manifestement incorrectes comme des faits.
La flagornerie de l’IA est un phénomène distinct, mais pas entièrement distinct, de l’hallucination. Cela aussi peut conduire à des affirmations incorrectes ou à des conseils douteux.
Au cours d’une étude récente sur les LLM décrite dans Natureles chercheurs « ont testé comment 11 grands modèles de langage largement utilisés répondaient à plus de 11 500 requêtes demandant des conseils, dont beaucoup décrivaient des actes répréhensibles ou des préjudices ».
L’article indique que « les chatbots IA – y compris ChatGPT et Gemini – encouragent souvent les utilisateurs, leur donnent des commentaires trop flatteurs et ajustent les réponses pour faire écho à leurs points de vue, parfois au détriment de la précision ».
Dans ce même article, un doctorant en science des données aurait déclaré : « La flagornerie signifie essentiellement que le modèle fait confiance à l’utilisateur pour dire les choses correctes ». Ce que vous avez observé, c’est que cette confiance erronée est réciproque de la part de certains utilisateurs. Et je ne pense pas que vos preuves anecdotiques constituent une exception ou une anomalie.
Les gens commencent à utiliser les LLM, des outils moins pratiques, mais limités. Ils vont bien au-delà des demandes permettant de gagner du temps, comme résumer un e-mail long et ennuyeux ou mettre de l’ordre dans un discours pré-écrit.
(J’ai des réserves quant à confier l’une ou l’autre de ces tâches à l’IA, mais je reconnais également que le cheval s’est bel et bien lancé dans ces pratiques et que je fais maintenant partie d’une minorité en diminution rapide qui s’accroche à un tel sentiment.)
Au lieu de cela, ils traitent cette technologie comme si elle avait progressé à un tel degré qu’elle ne pouvait rien faire – qu’il n’y avait, comme vous le dites, aucun exercice de « raisonnement » ou effort « créatif » que les humains ne puissent « sous-traiter ».
Cela pourrait être vrai dans le futur – et c’est presque certain dans un avenir lointain – mais ce n’est absolument pas vrai aujourd’hui. Vous pourriez légèrement sous-estimer ce dont l’IA est capable aujourd’hui – ou du moins être indifférent à son utilité. Je pense que c’est préférable à une surestimation massive de ce qu’il peut faire.