Sommaire Cet article résumé en quelques mots Cet article présente la nécessité de mettre en place une gouvernance IA au sein de l’entreprise afin de piloter au mieux les projets menées grâce à ces nouveaux outils. Plusieurs points sont évoqués. Opportunités et risques : l’IA booste la productivité, mais expose à des risques juridiques, éthiques et de sécurité des données (hallucinations, biais, espionnage industriel). Cadre réglementaire européen : l’AI Act interdit certains systèmes d’IA (manipulation, notation sociale…) et soumet d’autres à des obligations strictes, notamment à partir d’août 2026. RGPD : toute utilisation de données personnelles avec l’IA doit respecter la réglementation, sous contrôle de la CNIL. Politique interne : les entreprises doivent définir clairement ce qui est autorisé ou non (charte IA), avec une gouvernance structurée (direction, service juridique, DPO…). Formation des salariés : les collaborateurs doivent être formés aux outils et aux bonnes pratiques, notamment à la rédaction de prompts efficaces. Bien encadrée, l’IA est un levier de compétitivité ; mal gouvernée, elle expose l’entreprise à de sérieux risques. Découvrez notre formation Prompt IA pour vos salariés IA en entreprise : entre avantages et risques En novembre 2022, ChatGPT déferlait dans nos vies, rapidement suivi de Claude, Gemini, Mistral et consorts. Les particuliers n’ont pas attendu pour exploiter les possibilités de ces nouveaux outils, les entreprises non plus. Selon un sondage Ipsos paru en février 2025, 39 % des Français ont activement recours à l’intelligence artificielle générative. Par ailleurs, selon les données de l’INSEE en 2024, « 10 % des entreprises implantées en France déclarent utiliser au moins une technologie d’intelligence artificielle (IA), soit quatre points de plus qu’en 2023 ». Les possibilités offertes par l’IA sont multiples. Elle peut être mobilisée pour les tâches éditoriales, pour la relation client, dans le secteur des RH, etc. L’IA permet des gains de temps, et donc de productivité. Pour autant, les dirigeants d’entreprise doivent être conscients que l’IA présente aussi certains risques. En atteste cet article publié sur le site de la DGSI (Direction générale de la sécurité intérieure) et qui met en avant des exemples d’entreprises qui ont connu des déboires graves liés à l’IA. Rappelons par ailleurs que l’IA, programmée pour répondre, est sujette à des hallucinations (des erreurs factuelles présentées comme des vérités). De plus, certaines données ne doivent pas être partagées avec des intelligences artificielles. La question de la souveraineté des données peut également être soulevée. L’IA peut intégrer des biais et être source de discrimination, comme le rappelle l’OCDE. Enfin, l’utilisation de certains systèmes d’IA est tout simplement interdite en Europe. Quelles sont les précautions à prendre pour une entreprise ? Dangers de l’IA : des systèmes à haut risque et interdits Rappelons-le, certains systèmes d’IA sont tout simplement interdits sur le sol européen. Cela concerne tout système présentant des risques « inacceptables » (manipulation, contrôle social, système de notation sociale, police prédictive…). Ils ne peuvent être ni commercialisés ni utilisés par les entreprises, les administrations ou toute autre structure. L’AI Act, un règlement adopté à l’échelle européenne, donne des précisions à ce sujet. Est notamment interdit tout système d’IA : « qui déploie des techniques subliminales au-delà de la conscience d’une personne ou des techniques délibérément manipulatrices » ; « qui exploite les vulnérabilités d’une personne physique ou d’un groupe spécifique de personnes en raison de leur âge, d’un handicap ou d’une situation sociale ou économique particulière » ; qui tente d’évaluer ou de prévoir « le risque qu’une personne physique commette une infraction pénale ». L’AI Act distingue également des systèmes d’IA « à haut risque » (surveillance humaine, tenue de registres, gouvernance des données…). Ceux-ci peuvent être utilisés et déployés, mais sous certaines conditions. Le site gouvernemental Entreprendre précise qu’à partir du 2 août 2026, les entreprises présentant ou développant des produits intégrant ce type de systèmes devront respecter toutes les obligations prévues par l’AI Act : être inscrites dans la base de données de l’Union européenne, obtenir un marquage « CE » avant la commercialisation, etc. Si vous créez ou utilisez un système d’IA à haut risque dans le cadre de votre projet entrepreneurial, nous vous recommandons de vous faire accompagner par des juristes spécialisés. Conformité IA : le cadre réglementaire Outre les cas de figure spécifiques évoqués précédemment, il existe des systèmes d’IA « à usage général ». La CNIL précise à ce sujet : « Ces modèles se définissent par leur capacité à servir à un grand nombre de tâches (comme les grands modèles de langage, ou LLM, tels que ceux proposés par les sociétés Mistral AI ou OpenAI), ce qui les rend difficiles à classer dans les catégories précédentes. » Les entreprises peuvent les déployer, sous réserve de respecter certaines obligations détaillées dans l’AI Act. Ces obligations portent notamment sur la transparence vis-à-vis des utilisateurs. Par exemple, si une entreprise met en place un chatbot fonctionnant grâce à l’IA, les clients qui l’utilisent doivent être informés qu’ils interagissent avec une IA. En revanche, l’utilisation de certains systèmes d’IA (comme les filtres anti-spam) ne donne pas lieu à des obligations particulières. En cas de doute sur les systèmes d’IA que vous développez ou exploitez, et sur les obligations afférentes, nous vous invitons à consulter un conseiller juridique. Politique IA : définir en interne ce qui est autorisé ou pas Comme évoqué en introduction, l’IA est maintenant très utilisée, et pour les salariés, elle peut représenter une solution efficace pour créer et produire ce qui leur est demandé. Certains ne demandent pas la permission, comme le confirme cet article du Monde, qui évoque l’usage dissimulé de l’IA au travail. Pour un dirigeant d’entreprise, mieux vaut prendre les devants et définir clairement ce qui est autorisé ou non en interne. Cela permet d’aligner les usages sur la stratégie et les valeurs de l’entreprise. Cela revient à clarifier, en interne, les points suivants : Est-il possible d’utiliser l’IA pour des besoins internes ? Si oui, laquelle et pour quels besoins ? Existe-t-il un processus de vérification de ce qui est produit ? Est-ce qu’une personne ou un service s’assure que le cadre réglementaire est respecté ? La mise en place d’une charte IA en interne peut répondre à ces besoins. Elle permet de recenser les usages interdits et autorisés, et de rappeler à tous les bonnes pratiques à appliquer. Déploiement de l’IA : bien piloter les projets en interne Pour suivre l’ensemble des projets qui ont recours à l’IA, une entreprise peut s’appuyer notamment sur : son dirigeant, responsable de la vision stratégique ; un directeur en charge de l’IA, qui peut suppléer le dirigeant sur la question de la stratégie et du déploiement ; un comité de gouvernance réunissant des experts de l’IA ; le service informatique, qui assure l’intégration et le bon fonctionnement de l’ensemble des outils numériques ; le service juridique, qui vérifie que le déploiement de systèmes d’IA respecte le cadre légal, et qui assure une veille réglementaire sur ces sujets ; un délégué à la protection des données (voir point suivant). Des processus de validation peuvent également être mis en place pour valider et guider les projets d’intelligence artificielle. Tout cela permet d’assurer un suivi rigoureux et continu de ces projets. Pour les PME et les TPE, soumises aux mêmes obligations que les grands groupes en ce qui concerne l’IA, la CNIL donne des recommandations. Responsabilité avec l’IA : la question des données à caractère personnel La collecte et l’utilisation de données à caractère personnel donnent lieu à un certain nombre d’obligations légales que l’on peut retrouver sur le site de la CNIL. Celle-ci est compétente pour s’assurer que la protection des données est appliquée en toutes circonstances, y compris lors de la conception et de l’utilisation des systèmes d’IA. En d’autres termes, dès lors que l’on collecte ou que l’on utilise des données avec une IA, on est soumis aux obligations du RGPD. Cela s’applique lors de la phase de développement, et lors de la phase d’utilisation ou de déploiement. Pour guider les entreprises, la CNIL donne sur son site une méthode pour mettre ses systèmes d’IA en conformité avec le RGPD. Pour rappel, une donnée à caractère personnel est une information « se rapportant à une personne physique identifiée ou identifiable ». Elle permet une identification directe (s’il s’agit par exemple d’un nom, d’un prénom…) ou indirecte (s’il s’agit d’un numéro de téléphone, d’une adresse postale, etc.). Formation à l’IA : apprendre aux salariés à bien l’utiliser Les salariés d’une entreprise doivent impérativement maîtriser les outils et les technologies qu’ils utilisent. En ce qui concerne l’intelligence artificielle, ils doivent comprendre qu’elle offre de formidables possibilités, mais qu’elle présente aussi de véritables risques. Dans ce cadre, les salariés doivent être clairement informés de la politique de leur entreprise en ce qui concerne l’IA. Ils doivent également être formés aux outils qu’ils utilisent, et être en mesure de rédiger des prompts de qualité afin de tirer le meilleur parti des outils et d’obtenir des résultats de qualité. Dans ce cadre, nous vous invitons à découvrir notre parcours Prompt IA. En savoir plus sur la formation Prompt IA Dans les entreprises, l’usage de l’IA générative se développe rapidement, mais il reste rarement structuré à l’échelle des équipes. Les écarts de maîtrise sont visibles, certains salariés s’en servent déjà comme d’un véritable levier d’efficacité, tandis que d’autres obtiennent des réponses imprécises, multiplient les corrections ou n’osent pas l’intégrer à leurs missions. Le parcours Prompt IA a été conçu pour transformer ces usages dispersés en compétence partagée. L’objectif est simple : apprendre à vos collaborateurs à construire des prompts clairs et complets afin de gagner du temps, fiabiliser leurs productions et utiliser l’IA avec plus d’autonomie dans leurs activités professionnelles. Conclusion : s’adapter, mais avec discernement La révolution de l’intelligence artificielle est en marche, et les entreprises n’ont d’autre choix que de s’y adapter, mais elles doivent le faire avec discernement. Adopter l’IA en entreprise ne se résume pas à choisir un outil et à le déployer, c’est un projet structurant, qui engage la responsabilité des dirigeants à plusieurs niveaux. Sur le plan juridique : l’AI Act et le RGPD définissent un cadre contraignant que toute entreprise, quelle que soit sa taille, doit connaître et respecter. Certains systèmes sont interdits, d’autres soumis à des obligations strictes. Sur le plan organisationnel : une gouvernance claire est la condition sine qua non d’un déploiement de l’IA maîtrisé et cohérent avec la stratégie de l’entreprise. Sur le plan humain : les collaborateurs sont à la fois les premiers utilisateurs et les premiers garants de l’usage responsable de l’IA. Les former, les informer et les accompagner n’est pas une option, c’est une nécessité. Bien gouvernée, l’IA peut devenir un véritable levier de compétitivité. Mal encadrée, elle expose l’entreprise à des risques juridiques, éthiques et de réputation. À l’heure où les modèles d’IA évoluent très rapidement, une vigilance continue est nécessaire. La vraie question n’est pas de savoir si l’on adopte l’IA, mais comment on le fait, en toute responsabilité. Lisez assi sur ce blog : comment améliorer ses prompts pour un usage professionnel ?