L’intelligence artificielle générative a ouvert de nouvelles perspectives à l’humanité… mais pas forcément pour le meilleur. Il est désormais très facile pour un étudiant de demander à ChatGPT de rédiger sa copie. De même, n’importe qui peut générer en quelques clics une lettre de motivation ou un CV. Pour un enseignant ou un professionnel en entreprise, il semble donc utile de savoir faire la part des choses et de détecter un écrit rédigé à l’aide de l’intelligence artificielle. Cet article, s’il ne prétend pas apporter de solutions « miracles », fournit néanmoins quelques pistes de réflexion.
Sommaire
- Comment fonctionne ChatGPT ?
- Les indices qui doivent mettre la puce à l’oreille
- Si vous êtes professeur
- Si vous êtes recruteur
- Faut-il sanctionner les écrits produits par les IA ?
Comment fonctionne ChatGPT ?
Rappelons d’abord ce qu’est ChatGPT. Il s’agit d’un agent conversationnel développé par l’entreprise américaine OpenAI. Cet outil est capable de répondre à des questions, de tenir de véritables conversations, de générer du code informatique, mais aussi de réaliser des travaux textuels : rédaction, synthèse, traduction, etc. ChatGPT peut produire des textes à la demande, avec un nombre de mots déterminé.
Comment fonctionne-t-il exactement ? Si l’on demande au principal intéressé, ChatGPT lui-même, voici sa réponse :
« J’ai été entraîné avec une grande quantité de textes issus de livres, articles, discussions en ligne, etc., pour comprendre et générer du texte. […] J’utilise des techniques de traitement du langage naturel (NLP) pour comprendre les phrases, leur structure, et le sens global. Cela me permet de répondre aux questions, expliquer des concepts ou proposer des solutions à des problèmes. En fonction de la question que tu poses, je génère une réponse en me basant sur les données dont je dispose. J’ai aussi la capacité d’utiliser des outils spécifiques, comme générer des images, exécuter des calculs en Python, ou consulter des informations en temps réel sur Internet, si nécessaire. »
Résumons : ChatGPT a été « entraîné » à répondre à nos questions et peut si besoin aller chercher des informations sur Internet. Cela lui permet de « prédire » ce qui est attendu et donc de produire un texte sur tous les sujets possibles et imaginables ou presque, et ce sur le « ton » voulu : journalistique, poétique, etc.
Souhaitez-vous obtenir une note sur les politiques économiques menées de 1950 à nos jours ? Un résumé de la pensée philosophique de Spinoza ? Trois recettes différentes de tarte au citron ? ChatGPT génère tout cela pour vous. De même, il est capable de créer une copie d’élève ou d’étudiant presque parfaite ou une lettre de motivation impeccable.
Les indices qui doivent mettre la puce à l’oreille
Et justement, comment savoir si ce que vous recevez a bien été rédigé par un humain ou si ce dernier a « triché » en confiant le travail à ChatGPT ? Disons-le tout de suite : cela n’est pas facile. Prenez par exemple cet article de Numerama qui explique ce qu’est ChatGPT : vous seriez-vous douté (avant de lire le deuxième sous-titre) que ce texte a précisément été rédigé par l’outil d’OpenAI ?
La consigne était d’écrire un texte sur ChatGPT. Il n’est pas évident de voir la différence au premier coup d’œil entre ce texte et celui qu’aurait fourni un professionnel. « Honnêtement, ChatGPT est bluffant », précise le journaliste. « Nous avons pris le premier texte proposé par l’intelligence artificielle et l’avons copié-collé, afin de vous proposer cette petite expérience. Le texte décrit objectivement ce qu’est ChatGPT et entre dans le détail du fonctionnement sans être trop technique. En somme, un texte adapté pour le grand public. »
Rappelons par ailleurs que nous avons pour notre part fait passer le Certificat Voltaire à ChatGPT et que l’IA a obtenu un score honorable mais loin d’être parfait : il atteint à peine la moyenne nationale.
Reste que l’on peut se fier à certains indices malgré tout pour distinguer une production « AI » d’une production « humaine ». Le premier : la présence récurrente de mots génériques et impersonnels. En anglais, ce seront des « this », des it »… En français, on trouvera des « cela » et autres « articulations logiques sommaires ». Selon l’article de Numerama évoqué plus haut, « [elles] seraient utilisées par un humain avec plus de modération. »
Autre signe qui peut indiquer un écrit rédigé par une IA : l’absence de mots « rares » appartenant au langage soutenu ou argotique.
Par ailleurs, ChatGPT peut parfois donner de fausses informations. Enfin, le style peut être « plat », manquer d’humour et rester « terre à terre ».
Attention : on peut estimer cependant que l’amélioration des intelligences artificielles génératives permettra peu à peu de « gommer » ces défauts.
Il reste les logiciels de détection, capables de reconnaître les textes générés par des IA, mais ces outils ne sont pas (et ne seront sans doute jamais) fiables à 100%. Malgré tout, vous pouvez utiliser des sites comme ZeroGPT, Smodin ou encore Lucide.
Si vous êtes professeur
La meilleure manière de repérer un texte rédigé par ChatGPT ou une IA similaire est sans doute finalement de mesurer le décalage entre ce qui peut être légitimement attendu et ce qui est produit. Si vous êtes enseignant, vous pouvez raisonnablement penser que quelques fautes d’orthographe vont se glisser dans les copies de vos élèves ou de vos étudiants (sauf bien entendu si ceux-ci s’entraînent avec le Projet Voltaire). Si vous ne trouvez aucune faute, il y a probablement anguille sous roche : ChatGPT n’est pas infaillible en matière d’orthographe, mais l’outil évite la plupart des erreurs courantes.
Autre manière de détecter un texte produit par une IA : la répétition.
À la même question, ChatGPT et consorts fournissent des réponses souvent similaires : si vous corrigez plusieurs copies qui se ressemblent étrangement (structure, constructions grammaticales, types d’exemples…), alors vous avez peut-être affaire à des textes créés au moyen d’une intelligence artificielle. Un enseignant lyonnais confronté à cette situation indiquait ainsi que « les copies étaient construites exactement de la même manière. […] On y retrouvait les mêmes constructions grammaticales. Le raisonnement était mené dans le même ordre, avec les mêmes qualités et les mêmes défauts. Enfin, elles étaient toutes illustrées par un exemple personnel… »
Si l’on pose directement la question à ChatGPT, on obtient des réponses très précises : « Les IA comme moi ont tendance à produire des textes très cohérents, logiques et souvent structurés de manière rigide. Les humains peuvent être plus créatifs, faire des erreurs ou utiliser des tournures de phrases moins formelles. Les modèles d’IA utilisent souvent un vocabulaire large mais peuvent parfois répéter certaines structures ou expressions. L’IA reste généralement dans des cadres logiques et neutres. Un humain pourrait montrer plus d’émotion, d’humour ou d’opinion personnelle. »
Si vous êtes recruteur
Sachez d’abord que nombre de recruteurs n’apprécient pas du tout que l’on utilise l’IA en vue d’une candidature. Pour beaucoup, cela met un terme immédiat au processus d’embauche.
Sur la manière de repérer les CV produits par ChatGPT, on peut encore une fois interroger le principal intéressé, qui ne se prive pas de livrer des informations très pertinentes :
« Les CV générés par IA peuvent avoir un ton très formel, voire rigide, avec des phrases standardisées et peu de personnalisation. […] Les CV générés peuvent souvent regrouper plusieurs compétences « à la mode » ou des termes techniques populaires […], même si cela ne correspond pas exactement à l’expérience du candidat. […] Un CV généré par ChatGPT peut manquer d’exemples ou de détails précis sur les projets ou réalisations passés. Par exemple, au lieu de fournir des résultats mesurables, il peut rester vague. »
Enfin : « Certains générateurs automatiques peuvent introduire des incohérences dans la chronologie des emplois, par exemple en créant des trous inexplicables dans la carrière ou en alignant les périodes de travail de manière peu réaliste. » Vous voilà prévenu ! Méfiez-vous des CV un peu trop standards.
Faut-il sanctionner les écrits produits par les IA ?
Pour autant, faut-il jeter tout ce qui passe par ChatGPT ? Pas forcément. Quid par exemple d’un texte qui aurait été fourni par l’IA, puis retravaillé par un humain ? Quid d’une copie d’étudiant dont la structure a été fournie par ChatGPT ? Quid enfin d’un CV dont les formulations auraient été suggérées par l’IA ? Est-ce si grave ?
Il faut se souvenir que ChatGPT est avant tout nourri par l’humain. L’écrivaine de science-fiction Catherine Dufour avance sans doute justement qu’il faudrait plutôt parler « d’apprentissage artificiel ». De fait, ce sont nos propres créations qui nourrissent l’IA. Dès lors, faut-il s’étonner que celle-ci nous fournisse des productions stéréotypées ? Celles-ci sont d’abord les nôtres. Souvenons-nous qu’avant ChatGPT, il était déjà possible de trouver sur Internet des modèles de dissertation et de CV.
Dans ce cadre, il semble inopportun d’écarter systématiquement ce qui passe entre les « mains » d’une IA. Pour un enseignant ou un recruteur, il serait plus intéressant de sanctionner la manière dont l’outil est utilisé. Il est possible, du moins pour l’instant, de détecter en partie ce qui est produit par une IA, grâce aux différents moyens évoqués plus haut, mais dans un monde où ChatGPT et ses « semblables » vont prendre de plus en plus de place, le véritable enjeu est peut-être plutôt de mesurer quels espaces de créativité l’IA est susceptible d’ouvrir.
Améliorez votre maîtrise du français grâce à nos solutions !