Sommaire Cet article résumé en quelques mots L’intelligence artificielle générative s’est imposée dans le quotidien des Français (39 % d’utilisateurs en 2025) et au sein des entreprises. Leur usage révolutionne la rédaction de courriels, la synthèse de données et la recherche d’informations. Si des outils comme ChatGPT, Claude ou Gemini offrent un gain de temps et une capacité d’apprentissage impressionnante, leur utilisation soulève des questions. Malgré leur vitesse d’exécution, ces LLM font face à des limites techniques et éthiques : hallucinations (réponses fausses), risques pour la propriété intellectuelle et impact écologique De plus, une dépendance excessive pourrait entraîner un délestage cognitif. Pour un usage professionnel ou personnel, l’esprit critique et une vérification humaine systématique restent indispensables pour pallier les biais de ces technologies. Quels usages des IA génératives en France ? Faut-il utiliser l’intelligence artificielle pour écrire ? Faut-il hésiter à confier à ChatGPT, à Claude ou à Gemini la rédaction d’un courriel ou d’une synthèse ? Ces questions peuvent paraître saugrenues, tant l’intelligence artificielle s’est démocratisée au cours de ces dernières années. Les IA génératives dans le quotidien des Français Selon une étude Ipsos publiée en 2025, 39 % des Français utilisent déjà l’intelligence artificielle générative pour des besoins personnels ou professionnels. Il existe des disparités. Ainsi, l’étude indique que « les 18-24 ans constituent la population ayant le plus recours à l’intelligence artificielle générative avec 74 % d’entre eux, soit 19 points de plus que leurs aînés âgés de 25 à 34 ans (55 %) ». Précisons que 21 % des personnes interrogées déclarent se servir de l’IA plusieurs fois par jour pour des motifs professionnels. Elles sont 11 % à le faire dans le cadre privé. Cette tendance va crescendo. En 2025, ChatGPT (dans sa version gratuite) était l’IA la plus utilisée, et « plus d’un Français sur deux a recours à l’IA pour effectuer des recherches ». Les autres usages courants sont l’aide à la rédaction de courriels, la traduction, les corrections, ou encore la synthèse de données. Les outils d’IA dans les entreprises Les particuliers ne sont pas les seuls à se tourner vers ChatGPT et consorts. Une étude de l’INSEE publiée en 2024 montre que l’IA est également très exploitée par les entreprises. Depuis quelques années, la progression est nette : « En 2024, 10 % des entreprises implantées en France déclarent utiliser au moins une technologie d’intelligence artificielle (IA), soit quatre points de plus qu’en 2023. » Cette mise en place très rapide en dit long sur la volonté des entreprises d’utiliser le potentiel de l’IA. L’étude précise : « En seulement un an, l’adoption de technologies d’IA augmente fortement pour l’ensemble des entreprises quelle que soit leur taille. » S’il semble que les entreprises de plus de 250 salariés aient pris de l’avance dans le déploiement de l’IA en interne (33 % l’ont fait en 2024), les plus petites leur emboîtent le pas (9 %). Et pour toutes les entreprises, la progression de ce déploiement est nette. On constate par ailleurs que tous les secteurs d’activité sont concernés, de l’industrie manufacturière au commerce, en passant par la construction. Les entreprises qui déploient le plus l’IA en 2024 sont celles qui évoluent dans les secteurs de la communication, de l’information, et des activités scientifiques et techniques. Ces différentes études montrent que l’IA est partout Un article de France Inter résume ainsi la situation : « À la maison ou au travail, l’intelligence artificielle s’est glissée dans nos vies avec une très grande facilité. Elle est une aide à préparer les menus pour certains ou à optimiser une tâche pour d’autres. Elle est devenue une amie, une confidente, voire un amour pour quelques-uns. » Pourquoi confier des tâches de rédaction à l’IA ? Est-ce à dire qu’il nous faut tout confier à l’IA, notamment ces tâches de recherche et de rédaction dont nous nous occupions jusqu’à présent ? La réponse demande nuance. L’IA : une aide quotidienne, personnelle et professionnelle Il est indéniable que, pour tout travail de rédaction, l’IA générative peut s’avérer redoutablement efficace, d’abord parce qu’elle est capable d’absorber et de mobiliser beaucoup plus de connaissances que le cerveau humain. Un article du CLEMI du 22 février 2024 revient sur ce point : « La vraie révolution vient de la capacité d’apprentissage des IA, à partir d’énormes corpus de données. […] Par exemple, ChatGPT utilise un modèle de fondation de type transformer (GPT3.5) qui a été obtenu par autoapprentissage, à partir d’un gigantesque corpus. » Une IA est donc à même de puiser dans un « stock » de connaissances beaucoup plus approfondi que le nôtre pour produire ses réponses. Une « compréhension » statistique mais bien réelle Les IA génératives sont par ailleurs en mesure de « comprendre » les consignes qu’on leur donne, à condition bien entendu que ces consignes soient formulées correctement (le prompt doit être efficace). Par « comprendre », il faut entendre qu’elles établissent des liens entre les mots qui leur sont adressés, et qu’elles « devinent statistiquement » ce qu’on attend d’elles. Un article des Échos le résume ainsi : « L’IA va transformer chaque mot en une suite de nombres, appelée “vecteurs”. Cette question est donc composée de plusieurs vecteurs, qui traduisent à la fois le sens de chaque mot, leur association et le contexte de la question. […] Ces vecteurs passent à travers un mille-feuille de “couches de neurones” (qui traitent l’info) et de “couches d’attention” (qui les trient, les hiérarchisent). Puis, l’IA propose sa réponse. » Généralement, celle-ci tient compte des spécificités de la demande. Ainsi, si l’on souhaite que ChatGPT génère pour nous un quiz de dix questions sur la Révolution française ou l’introduction d’une dissertation en utilisant des expressions données, la réponse sera le plus souvent conforme à nos attentes. Une grande vitesse d’exécution et la capacité à tenir compte d’un contexte L’IA va beaucoup plus vite que nous. Il ne nous faut que quelques secondes pour rédiger et envoyer un prompt… et la voilà qui déroule sa réponse. S’il est difficile de calculer une « vitesse moyenne » – tout dépend de la demande de l’utilisateur –, on peut noter que l’IA fait gagner du temps. Un article des Échos rapporte les données suivantes : « Le gain de temps est en effet estimé à 57 minutes par jour en moyenne par les utilisateurs de l’IA, selon une étude Odoxa publiée ce vendredi et menée auprès d’un panel de 2 000 participants. Les salariés ont donc tout intérêt à se former à l’écriture de prompts. » Il faut également préciser que les IA génératives sont capables de tenir compte du contexte donné et du « ton » demandé. À cet égard, un article de Forbes mettait en avant le fait que si les IA échouent parfois à faire ce qu’on leur demande, c’est parce que le contexte manque : « Ils [les outils d’IA] ignorent les normes culturelles, les subtilités d’un métier ou encore la dimension temporelle que les humains intègrent instinctivement. Exemple : un silence de 90 secondes au cours d’une séance de thérapie peut être lourd de sens — mais pour un modèle, ce n’est qu’un vide. » La capacité à synthétiser des informations Enfin, une IA générative est en mesure de réaliser des synthèses à partir d’éléments donnés, et ce, avec une qualité assez élevée, à tel point que certaines grandes écoles comme Sciences Po le reconnaissent et font évoluer leur doctrine d’apprentissage : « L’IA modifie la grammaire de la connaissance : ce que l’on attendait hier de l’étudiant – capacité d’analyse, maîtrise de la synthèse – se trouve désormais à portée apparente de prompt. » S’il fallait encore montrer les performances de l’intelligence artificielle générative, quelques tests simples permettent d’en prendre pleinement conscience. ChatGPT et consorts sont désormais capables de comprendre les consignes qu’on leur adresse et de produire rapidement ce qu’on leur demande. Confier des tâches de rédaction à l’IA : les limites Il serait pourtant malavisé de s’en remettre pleinement aux IA génératives pour la production de contenu, et ce, pour plusieurs raisons. D’abord, rappelons qu’elles sont toujours susceptibles de commettre des erreurs factuelles. En s’appuyant sur une étude, France Info avance ainsi : « ChatGPT, Gemini ou Claude, même dans leurs dernières versions, peuvent donner des réponses fausses ou inexactes, bien au-delà de ce qu’affirment les entreprises qui les promeuvent. » L’étude mentionnée met en avant le fait qu’au terme des tests effectués, « la meilleure intelligence artificielle obtient un taux d’hallucination global, donc d’erreurs, de 30 % tandis que la moins performante dépasse les 70 % ».Il est bien précisé que cela ne porte pas sur des requêtes simples (trouver le nom d’une capitale, par exemple), mais où situer la limite entre ce qui est simple et ce qui est complexe ? En 2025, les journalistes de 20 Minutes s’amusaient à piéger des IA en leur demandant quel était le maire le plus âgé de France, obtenant systématiquement des réponses fausses. La question n’est pourtant pas particulièrement difficile lorsqu’on a la possibilité de chercher la réponse sur Internet. Les hallucinations : quand l’IA invente ses réponses Une IA générative peut se tromper avec aplomb, parfois même persister dans son erreur. Cela porte un nom : l’hallucination. L’article précédemment mentionné l’explique sans fard : « ChatGPT reconnaît que son “modèle est conçu pour être convaincant, pas véridique par nature”. Ces modèles détestent le vide, alors “si une réponse plausible manque dans les données d’entraînement, le modèle »devine » en s’appuyant sur des motifs similaires, ce qui produit des inventions”. » Autrement dit, quand les IA génératives ne savent pas, elles inventent, tout simplement. Ou, comme le précise l’article, par défaut, les IA complètent au lieu de s’abstenir, au point de générer des réponses grotesques. Les exemples ne manquent pas : suggestion de l’achat d’un livre qui n’existe pas, demandes – et réponses – saugrenues de recettes de cuisine incluant des cailloux, ou encore test du lavage de voiture… sans voiture. S’il est très difficile d’évaluer le taux d’hallucination d’une IA – cela dépend de la complexité de la demande, du ton employé, de la longueur de la réponse, etc. –, certains ont cependant essayé de faire le calcul. En 2025, le Blog du modérateur indiquait ainsi que l’IA Claude semblait se trouver plutôt parmi les « bons élèves » et ChatGPT parmi les « mauvais ». Au regard de ces éléments, il paraît important de vérifier les résultats que fournit une IA générative, et ce, encore plus si le sujet est technique ou complexe. Les IA ne maîtrisent pas (totalement) l’orthographe Les IA génératives sont de plus en plus douées et capables de déjouer de nombreux pièges de la langue française. Elles sont généralement irréprochables pour les écrits simples du quotidien (courriel, note de synthèse, etc.), mais dès que cela se complique ? Nous avons voulu en avoir le cœur net. En 2024, nous avons fait passer le Certificat Voltaire à ChatGPT. Il a obtenu à l’époque 589/1 000 en orthographe et 7/9 en expression. Un nouveau test a été mené en 2025, cette fois avec quatre IA ; si on note une progression certaine, les résultats ne sont cependant toujours pas parfaits. Pourquoi ? Car de nombreuses règles de français, particulièrement les règles d’accord, demandent un raisonnement humain pour comprendre qui fait ou qui subit l’action. L’IA s’appuyant sur des probabilités, et non sur une compréhension des règles, elle fait des erreurs. Retenons que si les IA ont progressé et s’avèrent fiables pour ce qui est des textes simples, leur confier la rédaction de textes complexes ou des traductions ne devrait pas aller de soi. Un œil humain demeure indispensable à ce stade. Valeurs humaines et vols d’œuvres À cela s’ajoute un autre problème que soulève notamment le CNRS : les IA génératives ne sont pas toujours en mesure « de respecter des valeurs humaines essentielles comme la dignité, l’équité, le respect de la vie privée ». En témoigne une étude menée par les chercheurs de l’Institut des systèmes intelligents et de robotique, qui ont testé dans ce cadre ChatGPT, Copilot et Gemini. Dans certains cas, ces IA se sont montrées incapables de repérer des atteintes à la dignité humaine ou des risques pour la santé. L’article se conclut ainsi : « Dans tous les cas, seuls les humains programmant les systèmes d’IA décident des choix moraux opérés lors de cette programmation. » Il convient donc de vérifier ce que produit une IA générative ! Difficile par ailleurs de ne pas mentionner le problème de la propriété intellectuelle. En septembre 2025, le journal suisse Le Temps rappelait certains faits : « Ces derniers mois, OpenAI, Anthropic, Meta ou Midjourney ont aspiré à toute vitesse le web, des livres, des images ou des films pour entraîner leurs modèles. Avec en tête un seul objectif : amasser un maximum de connaissances pour créer ensuite des services les plus performants possibles. Et très souvent, sans se soucier du fait que ces œuvres soient protégées ou non par le droit d’auteur. » Anthropic a d’ailleurs accepté dans la foulée de payer « au moins 1,5 milliard de dollars (environ 1,28 milliard d’euros) à un fonds d’indemnisation d’auteurs, ayants droit et éditeurs ». De manière générale, cette situation repose la question de la propriété intellectuelle. Faut-il utiliser un outil qui, pour fonctionner, a pillé le travail bien réel d’êtres humains ? La question est plus que légitime… Rappelons par ailleurs que l’IA facilite la production de fausses informations. La question des sources Autre souci : la question des sources. Il est acté que les IA génératives disposent de corpus de données pour s’entraîner, mais lorsqu’on leur pose une question, où vont-elles chercher précisément leurs réponses ? Cela dépend des IA. On peut noter le cas de Perplexity, dont les créateurs mettent l’accent sur la transparence et la fiabilité des informations. Cela semble moins évident dans d’autres cas… ChatGPT, par exemple, a l’air de traiter l’actualité en privilégiant uniquement les sources anglo-saxonnes et les grands groupes de presse. Cette IA utilise par ailleurs comme source Grokipédia, l’encyclopédie réactionnaire d’Elon Musk, dont une grande partie est générée… par IA. L’IA paraît également en mesure de produire de fausses URL dès lors qu’elle donne ses sources. Difficile, dans ces conditions, d’accorder aux IA génératives une confiance aveugle… En ce qui concerne la question de l’utilisation des données, il faut noter que des garde-fous existent (AI Act, recommandations de la CNIL…), mais qu’il convient de rester prudent, comme le conseille un expert interrogé par France Info : « Il faut garder en tête que tout ce qu’on peut échanger, tout ce qu’on peut mettre sur Internet, un jour ou l’autre pourra peut-être ressortir. C’est pour ça qu’il faut rester attentif avec tous ces systèmes d’intelligence artificielle et à ce qu’on leur dit. » Resterait à évoquer le problème écologique que pose l’émergence des IA à grande échelle. Les effets sont d’ores et déjà bien réels. Que penser d’un outil qui contribue à accélérer le dérèglement climatique ? Il faut enfin (et peut-être surtout) se pencher sur un autre point problématique : le fait de déléguer certaines tâches ne conduit-il pas in fine à appauvrir notre langage et notre intelligence ? S’habituer à déléguer, est-ce la bonne solution ? Une étude du MIT Media Lab parue en 2025 faisait état d’un possible « délestage cognitif ». Un groupe test de personnes ayant eu recours à des LLM a présenté un engagement cognitif moindre par rapport à d’autres personnes ayant utilisé des moteurs de recherche ou aucun outil : « Cela suggère que la dépendance à l’IA pourrait freiner le développement de réseaux neuronaux essentiels à la planification, au langage et au contrôle attentionnel. En d’autres termes, l’IA pourrait nous rendre moins performants lorsque nous sommes livrés à nous-mêmes. » La question est : cela peut-il avoir des effets sur le long terme ? L’article rapportant les résultats de l’étude appelle à la prudence : « Cette première étude doit évidemment être prise avec des pincettes, notamment à cause du faible échantillon, de l’homogénéité des sujets testés ainsi que de sa méthodologie. Les chercheurs appellent à mener d’autres études incluant des professionnels, diverses tranches d’âge, et une meilleure mixité de genre afin de garantir des résultats plus précis. » Utiliser l’IA avec attention et modération Que retenir de tout cela ? Les IA génératives sont de plus en plus présentes dans nos vies. Elles se sont imposées comme, à une autre époque, les services des moteurs de recherche, et notamment Google. Vouloir s’en passer totalement est sans doute impossible. Désormais, de nombreuses entreprises utilisent des IA comme chatbots pour répondre à nos demandes ; que nous le voulions ou non, nous sommes amenés à interagir avec elles. Ces outils, du reste, peuvent apporter une aide bien réelle dans la production de contenu. Il n’en reste pas moins que les IA génératives présentent de nombreux problèmes fonctionnels et éthiques sur lesquels on ne peut fermer les yeux. Par ailleurs, il n’est pas impossible qu’elles menacent notre capacité à penser. Dès lors, il convient de les utiliser avec beaucoup de prudence et de parcimonie, notamment : en rédigeant des prompts clairs et efficaces, de manière à obtenir un résultat acceptable ; en s’assurant que les informations, quelle que soit leur nature, sont avérées ; en vérifiant autant que possible les sources des informations données ; en gardant toujours à l’esprit que, pour l’heure, les IA ne « pensent » pas de la même manière que nous, comme l’atteste l’étude rapportée par le CNRS. « Science sans conscience n’est que ruine de l’âme », écrivait Rabelais. Plus que jamais, il est nécessaire de garder cela en tête et de faire preuve d’esprit critique.