
Posez la question à vos équipes : « qui utilise l’IA dans son travail quotidien ? » Vous serez probablement surpris par la réponse. En 2023, 68 % des utilisateurs de ChatGPT en entreprise ne l’avaient pas signalé à leur hiérarchie (Fishbowl, 2023). En 2026, l’usage s’est généralisé, mais le cadre n’a pas suivi dans la plupart des PME.
Le problème n’est pas que vos collaborateurs utilisent l’IA. C’est qu’ils le font sans règles communes, avec des risques bien réels : données clients copiées dans un outil public, contenus publiés sans vérification, décisions prises sur la base de réponses non fiables. C’est ce qu’on appelle le Shadow AI, et c’est exactement ce qu’une charte permet d’éviter.
Une charte IA en entreprise définit les règles d’utilisation des outils d’intelligence artificielle : outils autorisés, données interdites de saisie, obligation de vérification humaine et responsabilités. Pour être efficace, elle doit être co-construite avec les équipes et accompagnée d’un programme de formation.
La question n’est plus de savoir si vos équipes utilisent l’IA. C’est de savoir si elles le font dans un cadre maîtrisé.
Selon l’étude KPMG Trends of AI (2026), 86 % des grandes entreprises ont désormais validé une charte d’usage responsable de l’IA, souvent portée par le comité de direction. Mais ces chiffres concernent les grands groupes. Dans les PME et ETI, la réalité est très différente. Les outils sont utilisés, mais sans cadre formalisé.
Le résultat est un écart croissant entre les usages réels et les règles officielles. Vos commerciaux rédigent des emails avec l’IA, vos marketeurs génèrent du contenu, vos managers résument des réunions. Tout cela sans que personne n’ait défini ce qui est autorisé, ce qui est interdit, et surtout ce qui est risqué. C’est un terreau fertile pour le Shadow AI, l’usage non encadré de l’IA qui expose l’entreprise à des risques juridiques et opérationnels.
L’IA Act européen impose des obligations de transparence, de traçabilité et de compétence (« littératie IA ») depuis février 2025. Même si votre PME n’utilise pas de systèmes à haut risque, vous restez concerné par l’obligation de former vos équipes. Pour comprendre précisément ce que le règlement implique pour votre structure, notre guide sur l’IA Act et les PME détaille les obligations en fonction de votre niveau de risque.
Une charte IA ne doit pas être un document juridique de 20 pages. Pour être lue et respectée, elle doit être claire, concrète et illustrée d’exemples. Voici les cinq clauses incontournables.
Listez explicitement les outils validés par l’entreprise et les conditions d’accès (compte professionnel, abonnement payant avec protection des données). Tout outil non listé est considéré comme non autorisé par défaut. C’est la première barrière contre le Shadow AI.
C’est la clause la plus critique. Précisez ce qui ne doit jamais être copié dans un outil IA externe : données clients nominatives, informations financières confidentielles, documents contractuels, code source, données RH. Illustrez chaque interdiction par un exemple concret pour éviter les zones grises.
Aucun contenu généré par l’IA ne doit être publié, envoyé à un client ou utilisé dans une décision sans relecture humaine. Cette clause protège l’entreprise contre les hallucinations, les biais et les erreurs factuelles. Elle doit aussi préciser qui est responsable du contenu final : c’est toujours l’humain, jamais l’outil.
Définissez quand et comment signaler qu’un contenu a été produit ou assisté par l’IA. Par exemple, un rapport interne assisté par l’IA n’a peut-être pas besoin de mention. En revanche, un livrable client ou un document contractuel, si.
Désignez une personne (ou un petit comité) chargée de valider l’ajout de nouveaux outils, de répondre aux questions et de piloter la mise à jour de la charte. Sans référent, les questions restent sans réponse et les pratiques divergent.
La rédaction est la partie facile. C’est l’adoption qui détermine si la charte protège réellement votre entreprise.
Une charte imposée par la direction sans discussion sera ignorée. Les équipes doivent participer à sa construction, ne serait-ce que pour identifier les usages réels (souvent différents de ce que la direction imagine). Un court audit interne, sous forme de questionnaire anonyme, est le point de départ le plus efficace.
C’est l’erreur la plus fréquente, et la plus coûteuse. Vous pouvez écrire « ne saisissez jamais de données confidentielles », mais si personne ne sait distinguer une donnée confidentielle d’une donnée publique dans le contexte de l’IA, la clause est inutile. La charte nécessite un programme de formation concret pour être respectée. C’est précisément ce que recouvre l’obligation de « littératie IA » de l’IA Act. Et c’est un sujet que Bloom traite dans ses parcours pour former les équipes à l’IA de manière pratique et adaptée aux cas métiers.
L’IA évolue tous les trimestres. Une charte rédigée en 2024 est déjà obsolète si elle ne mentionne pas les agents IA, les outils intégrés dans les suites bureautiques (Copilot, Gemini) ou les règles de l’IA Act. Prévoyez une révision tous les six mois, ou à chaque évolution majeure de vos outils.
La charte n’est pas un document à signer et à classer. C’est un outil vivant qui doit s’intégrer dans la gouvernance de l’entreprise.
La charte IA doit être cohérente avec votre charte informatique, votre politique RGPD et votre règlement intérieur. Idéalement, elle est annexée au règlement intérieur pour lui donner une portée opposable. Elle s’inscrit dans une démarche plus large de gouvernance IA qui couvre le juridique, les RH et l’IT.
Ne distribuez pas la charte par email en espérant qu’elle sera lue. Organisez un atelier de présentation où vous montrez des exemples concrets : « voici un usage autorisé, voici un usage interdit, voici pourquoi ». La formation transforme un document théorique en réflexe quotidien. C’est ce qui fait la différence entre une charte qui protège et un document qui dort dans un dossier partagé. Si vous souhaitez structurer cette démarche de manière plus globale, il est utile de la rattacher à une stratégie IA claire et alignée sur vos objectifs business.
Une charte IA efficace en PME repose sur cinq clauses : liste des outils autorisés, données interdites de saisie, vérification humaine obligatoire, règles de transparence et désignation d’un référent. Sans programme de formation pour accompagner sa diffusion, la charte reste un document théorique sans effet sur les pratiques.
Une charte IA bien rédigée protège votre entreprise contre les risques immédiats (fuites de données, non-conformité, contenus non fiables). Mais elle ne vaut que si elle est comprise, appliquée et mise à jour. Le document seul ne suffit pas. C’est la combinaison charte + formation + gouvernance qui crée un cadre durable.
Vous voulez mettre en place une charte IA adaptée à vos équipes, avec un programme de formation pour la faire vivre ?
Expliquez-nous vos objectifs, nous vous guiderons vers la formation IA la plus adaptée.
Formations IA concrètes et accompagnement sur mesure pour les entreprises françaises.