Dans le monde d’aujourd’hui, nous sommes entourés de diverses sources d’informations écrites, informations que nous supposons généralement avoir été écrites par d’autres humains. Que ce soit sous la forme de livres, de blogs, d’articles de presse, de messages sur le forum, de commentaires sur une page de produit ou de discussions sur les réseaux sociaux et dans les sections de commentaires, l’hypothèse est que le texte que nous lisons a été écrit par une autre personne. Cependant, au fil des ans, cette hypothèse est devenue de plus en plus susceptible d’être fausse, plus récemment en raison de grands modèles de langage (LLM) tels que GPT-2 et GPT-3 qui peuvent produire des paragraphes plausibles sur à peu près n’importe quel sujet sur demande.
Cela soulève la question de savoir si nous sommes sur le point d’atteindre un point où nous ne pouvons plus être raisonnablement certains qu’un commentaire en ligne, un article de presse ou même des livres entiers et des scénarios de films n’ont pas été produits par un algorithme, ou peut-être même où un chat en ligne avec un nouveau match grésillant s’avère être juste pour vous avec une collection de code insensible qui a été formée et peaufinée pour un engagement maximal avec les clients. (Note de l’éditeur : non, nous ne jouons pas à ce jeu ici.)
À mesure que ce contenu et ces interactions générés par des machines commencent à jouer un rôle de plus en plus important, cela soulève à la fois la question de savoir comment détecter un tel contenu généré, ainsi que de savoir s’il est important que le contenu ait été généré par un algorithme plutôt que par un être humain. .
Ennui contre méchanceté
Chez George Orwell Mille neuf cent quatre ving quatre, Winston Smith décrit un département au sein du ministère de la Vérité appelé le Département de la fiction, où les machines produisent constamment des romans fraîchement générés basés sur certains thèmes. Pendant ce temps, au département de musique, de la nouvelle musique est générée par un autre système appelé versificateur.
Pourtant, aussi dystopique que soit ce monde fictif, ce contenu généré par la machine est essentiellement inoffensif, comme le remarque Winston plus tard dans le livre, lorsqu’il observe une femme dans le quartier prolo de la ville chanter la dernière chansonnette, ajoutant sa propre intensité émotionnelle à un chanson d’amour crachée par une machine insensible et irréfléchie. Cela nous amène à l’utilisation la plus courante du contenu généré par la machine, dont beaucoup diraient qu’il ne s’agit que d’une forme d’automatisation.
Le terme englobant ici est « journalisme automatisé » et est utilisé depuis des années par des organes de presse respectés comme Reuters, AP et d’autres. Les cas d’utilisation ici sont simples et directs : il s’agit de systèmes configurés pour recueillir des informations sur les performances boursières, sur les rapports trimestriels des entreprises, sur les résultats des matchs sportifs ou ceux des élections locales et produire un article selon un modèle prédéfini. L’avantage évident est que les salles pleines de journalistes copiant fastidieusement les scores et les mesures de performance dans des modèles d’articles peuvent être remplacées par un algorithme informatique.
Dans ces cas, le travail qui implique l’équivalent journalistique ou artistique de retourner des hamburgers dans un fast-food est remplacé par un algorithme qui ne s’ennuie jamais ou ne se laisse pas distraire, tandis que les humains peuvent faire un travail plus stimulant sur le plan intellectuel. Peu de gens diraient qu’il y a un problème avec ce type d’automatisation, car il fait exactement ce qu’on nous avait promis de faire.
Là où les choses deviennent louches, c’est lorsqu’il est utilisé à des fins néfastes, comme attirer du trafic de recherche avec des articles générés par des machines qui tentent de vendre quelque chose au lecteur. Bien que cela ait récemment provoqué une indignation considérable dans le cas de CNET, le fait est qu’il s’agit d’une approche incroyablement rentable, nous pourrions donc en voir davantage à l’avenir. Après tout, un grand modèle de langage peut générer toute une pile d’articles dans le temps qu’il faut à un écrivain humain pour rédiger quelques paragraphes de texte.
Il s’agit plus d’une zone grise lorsqu’il s’agit d’assister un écrivain humain, qui devient un enjeu dans le monde de l’édition scientifique, comme l’a récemment couvert Le gardien, qui ont eux-mêmes fait un peu de cascade en septembre 2020 lorsqu’ils ont publié un article qui avait été généré par le GPT-3 LLM. La mise en garde était qu’il ne s’agissait pas de la sortie directe du LLM, mais de ce qu’un éditeur humain avait compris à partir de plusieurs sorties générées par GPT-3. Ceci est plutôt révélateur de la façon dont les LLM sont généralement utilisés et fait allusion à certaines de leurs plus grandes faiblesses.
Pas de mauvaises réponses
À la base, un LLM comme GPT-3 est une base de données fortement interconnectée de valeurs qui a été générée à partir de textes d’entrée qui forment l’ensemble de données de formation. Dans le cas de GPT-3, cela donne une base de données (modèle) d’environ 800 Go. Afin de rechercher dans cette base de données, une chaîne de requête est fournie – généralement sous la forme d’une question ou d’une phrase principale – qui, après traitement, constitue l’entrée d’un algorithme d’ajustement de courbe. Cela détermine essentiellement la probabilité que la requête d’entrée soit liée à une section du modèle.
Une fois qu’une correspondance probable a été trouvée, la sortie peut être générée en fonction de la prochaine connexion la plus probable dans la base de données du modèle. Cela permet à un LLM de trouver des informations spécifiques dans un grand ensemble de données et de créer des textes théoriquement infiniment longs. Ce qu’il ne peut pas faire, cependant, c’est déterminer si la requête d’entrée a un sens ou si la sortie qu’elle génère a un sens logique. Tout ce que l’algorithme peut déterminer, c’est s’il suit le cours le plus probable, avec éventuellement une variation induite pour mélanger la sortie.
Quelque chose qui est toujours considéré comme un problème avec les textes générés par LLM est la répétition, bien que cela puisse être résolu avec quelques ajustements qui donnent à la sortie une « mémoire » pour réduire le nombre de fois qu’un mot spécifique est utilisé. Ce qui est plus difficile à résoudre, c’est la confiance absolue de la sortie de LLM, car elle n’a aucun moyen de déterminer si elle ne fait que produire des bêtises et continuera volontiers à babiller.
Pourtant, malgré cela, lorsque des sujets humains sont soumis à des textes générés par GPT-3 et GPT-2 comme dans une étude de 2021 d’Elizabeth Clark et al., la probabilité qu’ils reconnaissent les textes générés par ces LLM – même après une certaine formation – ne ne dépasse pas 55 %, ce qui s’apparente à peu près au pur hasard. Pourquoi les humains sont-ils si mauvais pour reconnaître ces textes générés par LLM, et peut-être que les ordinateurs peuvent nous aider ici ?
Statistiques contre intuition
Lorsqu’on demande à un être humain si un texte donné a été créé par un humain ou généré par une machine, il est susceptible de deviner essentiellement en fonction de ses propres expériences, d’un « sentiment instinctif » et éventuellement d’une gamme d’indices. Dans un article de 2019 de Sebastian Gehrmann et al., une approche statistique pour détecter le texte généré par la machine est proposée, en plus d’identifier une gamme d’instances néfastes de texte généré automatiquement. Ceux-ci incluent de faux commentaires contre la neutralité du net américain et des critiques trompeuses.
L’approche statistique détaillée par Gehrmann et al. est appelé Giant Language model Test Room (GLTR, source GitHub) consiste à analyser un texte donné pour sa prévisibilité. Il s’agit d’une caractéristique souvent décrite par les lecteurs comme la «superficie» d’un texte généré par une machine, en ce sens qu’il continue de tergiverser pendant des paragraphes sans vraiment dire grand-chose. Avec un outil comme GLTR, un tel texte s’éclairerait principalement en vert dans la représentation visuelle, car il utilise un vocabulaire limité et prévisible.
Dans un article présenté par Daphne Ippolito et al. (PDF) lors de la réunion 2020 de l’Association for Computational Linguistics, les différentes approches de détection de texte généré par la machine sont couvertes, ainsi que l’efficacité de ces méthodes utilisées de manière isolée par rapport à de manière combinée. L’approche d’analyse top-k utilisée par GLTR est incluse dans ces méthodes, avec les approches alternatives d’échantillonnage de noyau (top-p) et d’autres également abordées.
En fin de compte, dans cette étude, les sujets humains ont obtenu une médiane de 74 % lors de la classification des textes GPT-2, le système de discrimination automatisé obtenant généralement de meilleurs résultats. Il convient de noter l’étude d’Ari Holtzman et al. cela est référencé dans la conclusion, dans laquelle il est noté que le texte écrit par l’homme a généralement une cadence qui plonge dans et hors d’une zone de faible probabilité. Cela rend non seulement ce qui rend un texte intéressant à lire, mais fournit également un indice sur ce qui rend le texte naturel pour un lecteur humain.
Avec les LLM modernes comme GPT-3, une approche comme l’échantillonnage de noyau proposé par Holtzman et al. est ce qui fournit la cadence la plus naturelle que l’on attendrait d’un texte écrit par un humain. Plutôt que de choisir parmi une liste d’options top-k, on sélectionne plutôt parmi un pool de candidats redimensionné dynamiquement : la masse de probabilité. La liste d’options résultante, top-p, fournit alors une sortie beaucoup plus riche qu’avec l’approche top-k utilisée avec GPT-2 et kin.
Cela signifie également que dans l’analyse automatique d’un texte, plusieurs approches doivent être envisagées. Pour l’analyse par un lecteur humain, la distinction entre un texte top-k (GPT-2) et top-p (GPT-3) serait frappante, ce dernier type étant susceptible d’être identifié comme étant écrit par un humain.
Temps incertains
Il semblerait donc que la réponse à la question de savoir si un texte donné a été généré par un humain ou non est un « peut-être » définitif. Bien que l’analyse statistique puisse fournir des indications sur la probabilité qu’un texte ait été généré par un LLM, en fin de compte, le jugement final devrait appartenir à un humain, qui peut non seulement déterminer si le texte passe sémantiquement et contextuellement, mais aussi vérifier la source présumée d’un texte pour être authentique.
Naturellement, il existe de nombreuses situations où peu importe qui a écrit un texte, tant que les informations qu’il contient sont factuellement correctes. Pourtant, lorsqu’il y a peut-être une intention néfaste ou l’intention de tromper, il convient de faire preuve de diligence raisonnable. Même avec des algorithmes de détection automatique en place et avec un utilisateur formé et prudent, il incombe au lecteur de croiser les informations et de vérifier si une déclaration faite par un compte aléatoire sur les réseaux sociaux pourrait être authentique.
(Note de l’éditeur : cet article sur la tentative d’OpenAI de détecter sa propre prose est sorti entre la rédaction et la publication de cet article. Leurs résultats ne sont pas si bons, et comme pour tout ce qui concerne « Open » AI, leurs méthodes ne sont pas divulguées publiquement. Vous pouvez cependant essayer le classificateur.)