Lâintelligence artificielle vs CISO. Jadis cantonnĂ©e aux labos obscurs et aux slides PowerPoint des comitĂ©s stratĂ©giques, est aujourdâhui partout : du chatbot RH au moteur de recommandation du marketing. RĂ©sultat : les CISO (Chief Information Security Officers) se retrouvent en premiĂšre ligne pour gĂ©rer ce joyeux chaos. Et soyons honnĂȘtes : la gouvernance de lâIA, câest un peu comme essayer de dresser un chat⊠avec un manuel de compliance ISO 27001. đââŹ
đ Comprendre ce qui se passe (et pas seulement sur les slides)
PremiĂšre leçon : lâIA est dĂ©jĂ utilisĂ©e dans votre entreprise, que vous ayez Ă©crit une politique ou non. Oui, Jean-Michel du marketing a dĂ©jĂ branchĂ© son Excel sur ChatGPT pour gĂ©nĂ©rer des rapports âplus sexyâ. Et non, il ne vous a pas prĂ©venu.
Les bons CISOs savent que la gouvernance commence par regarder la rĂ©alitĂ© en face : inventaires dâoutils, registres de modĂšles, et mĂȘme un concept qui sent bon le jargon â lâAI Bill of Materials (AIBOM). En gros, câest comme une recette de cuisine pour vos modĂšles IA : quels ingrĂ©dients (datasets), quelles casseroles (API externes), et quelle sauce secrĂšte (hyperparamĂštres douteux).
Sans ça, vous ne pilotez rien, vous subissez. Et devinez quoi ? Les attaquants, eux, connaissent déjà vos faiblesses.
đ La tentation du rĂšglement bĂ©ton
RĂ©flexe habituel des organisations : âVite, Ă©crivons une politique ! Interdiction dâutiliser lâIA sans validation du CISO, triple signature du juridique, et certificat ISO-AI-9001 avant de lancer un prompt.â
RĂ©sultat ? Les employĂ©s contournent la rĂšgle en mode Shadow AI. Oui, comme le Shadow IT, mais avec des modĂšles gĂ©nĂ©ratifs qui balancent vos donnĂ©es confidentielles dans le cloud dâun fournisseur random basĂ© Ă San Francisco. Bravo. đ
La vĂ©ritĂ©, câest quâune gouvernance efficace nâest pas un mur, mais un GPS : elle doit guider et sâadapter, pas bloquer. Sinon, vous aurez une forĂȘt dâinterdictions⊠et zĂ©ro contrĂŽle rĂ©el.
⥠Politiques Ă la vitesse de lâentreprise
Le temps que vous validiez votre politique IA en comitĂ©, vos Ă©quipes auront dĂ©jĂ testĂ© cinq SaaS diffĂ©rents. Croire que vous pouvez tout geler en attendant âla solution unique et sĂ©curisĂ©eâ relĂšve de la science-fiction.
La seule vraie stratĂ©gie : aligner vos rĂšgles sur le rythme de lâorganisation. Ăa veut dire :
- â DĂ©finir des lignes rouges claires (ex. : pas de donnĂ©es sensibles dans un chatbot externe).
- â Fournir des outils internes sĂ©curisĂ©s (parce quâun employĂ© frustrĂ© sera toujours plus inventif quâun hacker).
- â Mettre en place des procĂ©dures vivantes, rĂ©visĂ©es rĂ©guliĂšrement, pas un PDF poussiĂ©reux quâon lit une fois par an.
En rĂ©sumĂ© : arrĂȘtez dâĂ©crire des lois martiales, crĂ©ez plutĂŽt des standards pratico-pratiques.
đĄïž Gouvernance durable (ou comment arrĂȘter de courir aprĂšs les fuites)
Soyons clairs : si votre gouvernance IA repose uniquement sur lâinterdiction et la punition, vous ĂȘtes foutus. Le seul moyen de survivre est de rendre le bon comportement plus simple que le mauvais.
Exemple : plutĂŽt que de hurler ânâutilisez pas ChatGPTâ, mettez en place une version interne sĂ©curisĂ©e, loggĂ©e, contrĂŽlĂ©e. Le genre dâoutil que vos utilisateurs peuvent adopter sans avoir lâimpression de signer un pacte avec le diable.
đ Le rĂŽle du CISO nâest donc plus seulement de protĂ©ger contre les attaques, mais aussi de promouvoir les bons usages. Autrement dit, faire de la psychologie organisationnelle avec une casquette de hacker Ă©thique. Pas simple.
đŻ Les deux piliers (pour ne pas finir dans un audit cauchemardesque)
Tout se résume à deux missions :
- Utiliser lâIA pour la dĂ©fense : dĂ©tection dâanomalies, rĂ©ponse automatisĂ©e aux incidents, analyse prĂ©dictive. Parce quâil serait dommage de laisser les attaquants ĂȘtre les seuls Ă sâamuser avec les modĂšles.
- ProtĂ©ger lâIA elle-mĂȘme : contre les attaques adversariales, lâempoisonnement de donnĂ©es, les injections de prompt malicieuses. Oui, vos modĂšles sont vulnĂ©rables. Oui, ils peuvent se faire manipuler comme un stagiaire naĂŻf.
đïž Quand les juges sâen mĂȘlent : lâIA passe par le CSE
Ah, la cerise sur le gĂąteau. Comme si ce nâĂ©tait pas assez compliquĂ©, la justice française a rappelĂ© quâintroduire lâIA dans une entreprise doit passer par le CSE. Et pas juste pour la forme.
- En fĂ©vrier 2025, le tribunal de Nanterre a suspendu un dĂ©ploiement dâIA faute de consultation des reprĂ©sentants du personnel.
- En juillet 2025, rebelote Ă CrĂ©teil, oĂč lâusage dâoutils gĂ©nĂ©ratifs dans une rĂ©daction a Ă©tĂ© stoppĂ© net, le temps que le CSE soit correctement informĂ©.
đ Traduction sarcastique : le CISO croyait devoir gĂ©rer des registres de modĂšles et des Shadow AI, mais il se retrouve Ă faire la queue devant le CSE pour expliquer que ânon, cette IA ne va pas remplacer tout le service RH⊠enfin, pas tout de suiteâ.
Et câest lĂ que le problĂšme devient franchement politique : le remplacement des mĂ©tiers. Car derriĂšre la gouvernance, il y a des emplois transformĂ©s, automatisĂ©s, parfois supprimĂ©s. Et les juges exigent que lâon en parle avant dâappuyer sur âONâ.
â ïž Les zones de turbulence Ă surveiller
- Shadow AI : la plaie du moment. Plus vous interdisez, plus vos utilisateurs trouveront des détours.
- ComplexitĂ© des inventaires : tenir un registre des modĂšles, datasets et dĂ©pendances, câest aussi fun que la compta. Mais câest vital.
- RĂ©glementations mouvantes : entre lâAI Act europĂ©en et les lĂ©gislations amĂ©ricaines, il va falloir jongler. Spoiler : ça ne va pas sâallĂ©ger.
- Biais et transparence : les auditeurs adoreront vous coller là -dessus. Préparez vos arguments (et vos logs).
LâIA est brillante pour automatiser, accĂ©lĂ©rer et parfois mĂȘme prĂ©dire â mais la confier seule Ă la gouvernance dâune organisation reviendrait Ă donner les clĂ©s du chĂąteau Ă un apprenti magicien qui apprend encore Ă distinguer un balai dâune hache.
đ Une IA ne comprend pas la confiance, la responsabilitĂ© juridique, ni la gĂ©opolitique des donnĂ©es. Elle applique des modĂšles, point.
đ La gouvernance, elle, suppose de trancher entre risques techniques, contraintes rĂ©glementaires, enjeux humains et Ă©thiques. Et ça, aucune IA ne peut encore le faire seule (heureusement).
đ Sans supervision humaine, on finit vite en âmode auto-piloteâ façon Boeing mal calibrĂ© : confortable⊠jusquâĂ lâaccident.
En clair : lâIA peut ĂȘtre un garde hyper-efficace, mais jamais le chĂątelain.
Le rĂŽle du CISO (et plus largement du management) est justement de garder la main sur les clĂ©s, de sâassurer que le robot ne dĂ©cide pas tout seul qui rentre et qui reste dehors.
đ Conclusion
La gouvernance de lâIA, ce nâest pas seulement âprotĂ©ger lâentrepriseâ. Câest aussi Ă©viter que vos employĂ©s transforment votre organisation en terrain de jeu grandeur nature pour modĂšles non maĂźtrisĂ©s. Et dĂ©sormais, câest aussi faire de la politique interne avec les syndicats et les juges.
Alors oui, le CISO devient le parent responsable dâalgorithmes capricieux et le mĂ©diateur social dâune technologie qui fait trembler certains mĂ©tiers. Oui, ça implique des registres, des comitĂ©s, des politiques vivantes, et maintenant⊠des rĂ©unions CSE.
đ MoralitĂ© : si vous pensiez que la cybersĂ©curitĂ© Ă©tait dĂ©jĂ compliquĂ©e, attendez de goĂ»ter Ă la gouvernance IA sauce française.
Lire aussi : đ€đ DARPA, lâIA et la sĂ©curitĂ© open source : faut-il donner les clĂ©s du chĂąteau Ă un robot ?
