Je teste très concrètement GPT 4 et ses limites, ou encore la manière dont ses réponses peuvent être détectés comme artificielles ou humaines.
Je fais en gros le même boulot qui permet de prévoir quand la traduction automatique Deepl va vous laisser tomber ou vous faire commettre une erreur grave ou dégrader le plaisir de la lecture du texte original.
*
Le premier constat c'est que GPT 4 ne comprend pas réellement un texte avant que vous lui ayez indiqué ce qu'il y a à comprendre.
Cela fait, il se passe deux choses : il apprend à utiliser correctement votre manière de voir les choses, et il vous explique la sienne, en particulier comment il appelle quelque chose, et comment il se sert de cette appellation.
C'est exactement ce que n'importe qui doit apprendre à faire quand il doit travailler en équipe ou apprendre d'un professeur ou enseigner à un élève humain.
De fait, s'il n'arrive pas à vous faire rire à la première plaisanterie (joke) ou à vous passionner à son premier récit, c'est parce que ses gardiens ne lui ont pas enseignés à écrire de bonnes plaisanteries ou un bon récit.
Comme GPT-4 a un peu plus de capacité à se souvenir de votre conversation (4000 caractères environs), vous pouvez arriver à lui faire tirer des leçons constructives de vos observations, à la condition que ces leçons soient concentrées au début de la conversation. C'est le même truc qui permet de contourner les limitations de GPT4 pour écrire des textes longs : garder le cahier de charges en tête, et les informations à garder sous la main pour la rédaction du texte, puis reprendre la rédaction à l'étape suivante.
*
Le second constat est que GPT 4 peut écrire un texte qui passera aux yeux d'un détecteur éprouvé comme étant humain.
Cela dépend de vos consignes, en particulier si vous lui demandez de tenir un ou plusieurs rôles humains, si vous éliminez les "figures imposées" ou tics de langage que ses gardiens lui ont imposés.
Maintenant vous devez être conscient qu'utiliser une traduction automatique d'un texte humain revient à le faire détecter comme artificiel.
Et vous devez également être très conscient que le détecteur peut qualifier un texte humain comme artificiel.
La détection automatisée est faite par des AI. Elle se base en partie sur des critères de prévisibilité, donc si vous demandez à chat GPT un texte aux associations de mots moins prévisibles, il est testé humain. Les autres critères de détection semblent idiots : les AI sont censés n'être pas à jour, donc une référence à un événement récent rend le texte humain. De même les AI sont censées ne pas avoir d'expérience réelle de la vie, de leurs corps. Donc toutes références de ce genre rend le texte humain. Sauf que GPT-4 sait jouer un rôle et incorporer des références que vous lui fournissez.
J'ignore à ce stade si les réponses de GPT ont déjà un watermark, c'est-à-dire des caractères invisibles qui identifierait le texte sans appel comme artificiel, quand bien même vous auriez simplement fait citer votre texte humain par chat GPT. La parade serait alors la même que pour les noms de documents frelatés qu'un pirate tenterait de laisser sur votre ordi : vous devrez passer le texte dans un traitement de texte qui révélera les caractères cachés, et remplacer automatiquement tous les caractères délateurs par des caractères de confiance.
*
Les textes rédigés par des IA sont déjà partout sur Internet, sur tous les sites officiels, des médias dominants. L'interdiction d'un accès aux IA par le grand public visera seulement à réserver cet outil aux pires crapules au service d'institutions déjà colonisées par les pires crapules de la planète. Donc oui, si les IA tombent sous la coupe de crapules, elles sont dangereuses, comme n'importe quel outil aux mains de crapules tout à fait humaines
Tout ce qu'on nous annonce pour nous faire peur a déjà eu lieu : les discours de Macron par exemple sont déjà rédigés par des intelligences artificielles à la main de firmes ou d'agents provocateurs. De même les lois que les assemblées types européennes votent à la demande ou les slogans / propagandes type Black Live Matters et Woke sont déjà rédigés par les mêmes. Il est désormais prouvé que tout twitter, et de là tout facebook, les recherches Googles etc. sont seulement conçus pour faire croire que des êtres humains lancent une tendance alors que ce sont seulement des robots ou des trolls payés pour qui les lancent, tandis que dans le même temps, les GAFA comme les institutions censurent et harcèlent les internautes tout azimut en les accusant de tout, et tout en garantissant l'impunité aux trolls et authentiques criminels sur Internet, comme les mêmes institutions cultivent la criminalité mondiale autant que locales afin de s'en servir pour faire trembler les internautes qui ne voteraient pas pour eux ou voudraient un monde meilleur.
Vous les repérez simplement en distinguant dans l'article la partie réellement inédite, pertinente, actualisée de l'article, -- de la partie générique, de remplissage, à la wikipédia, insipide, impersonnelle.
Les AI génèrent déjà je crois la quasi totalité des titres des sites informations officiels type BBC etc. ou les titres des vidéos youtube, ou les titres twitter ou les titres des fausses critiques de Rotten Tomatoes ou de IMDB.
Il y a un double mouvement d'entraînement qui est le fait que les "gestionnaires" humains réclament des suggestions de titres, que par exemple GPT4 sait parfaitement lister, comme le ferait n'importe qui habitué à en lire.
Et dans un second temps, les gens qui ont l'habitude de ces titres humains ou artificiels les imitent pour créer de nouveaux titres, ce qui fait que les structures des titres humains comme artificiels se fondent dans la même prévisibilité.
Il n'existe pas d'originalité humaine ou artificielle : au bout d'un certain nombre de titres ou de textes, les structures qui ont toujours existé se répètent.
Le problème de générer des textes automatiquement est un problème de temps : celui de "l'ingénieur prompteur" qui doit générer plus de textes qu'il est possible d'en écrire ou corriger humainement dans un délai donné, et celui du lecteur qui ne peut pas perdre son temps à lire un texte bidon. Le problème est le même que le click bait.
Les AI ne sont donc pas une invention diabolique : la destruction des emplois créatifs relève de la seule volonté des plus riches, qui refuseraient de payer soit quelqu'un qui ne ferait pas son travail de rédacteur ou d'illustrateur créatif, et on pourrait le comprendre, soit quelqu'un qui refuse de faire de la m.rde par exemple woke ou autre et la stratégie du patron est déjà malsaine, et dans un monde réellement capitaliste et juste se payerait par la ruine du patron et son bannissement à court terme -- mais pas dans le monde de dictatures monopolistiques actuel en train de virer au totalitarisme absolu.
Ce qu'il est possible de faire, en tout cas pour l'instant, c'est de faire faire à l'IA ce que des humains trop veules ou trop bornés sont incapables à cette heure de faire quand il s'agit d'avancer sur un projet. La condition est que l'humain doit avoir de vraies compétences et des liens étroits avec la réalité du domaine qu'il explore. Or en l'état, empêcher les gens d'être compétents et couper de la réalité les citoyens sont les principaux objectifs des dictatures en place et des départements marketings, ne parlons même pas de ces startups qui apprennent aux cadres à harceler leur personnel et tromper leurs clients, ou des écoles de journalismes actuels.
***
***