IA ACT : êtes-vous aware des risques juridiques liés à l’utilisation de l’intelligence artificielle ?

Un article de Alexandra Giroux, Manager Culture et Communication Interne chez Partenamut. Image générée par intelligence artificielle - 28 avril 2025

Il est temps de cesser de se bercer de l’illusion que l’IA est un terrain vierge, hors-sol et sans lois. L’IA ACT, nouveau pilier de la régulation européenne, sonne la fin du Far West numérique. Responsables communication interne, experts RH : vous êtes au premier rang. Non pas pour admirer la scène, mais pour éduquer, structurer et prévenir. Car dans l'arène de l'IA, l'ignorance n'excuse plus rien. Lors de l'atelier "Les enjeux juridiques de l’IA", animé par Maître Philippe Laurent, Partner au Cabinet MVVP, plusieurs pistes ont été présentées pour éviter les dérives.

 

 

L'IA : des opportunités mais également un risque encadré par la loi

Depuis le 12 juillet 2024, l'IA ACT est officiel. À partir du 2 février 2025, ses premières dispositions entreront en vigueur, s’échelonnant jusqu’en août 2026. Fin de la partie pour ceux qui préféraient l'ambiguïté au discernement : l'usage de l'IA est désormais balisé par une architecture juridique rigoureuse, fondée sur l'analyse des risques.

Plusieurs degrés de risques sont identifiés :

  • IA à risque inacceptable (manipulation cognitive, notation sociale, détection émotionnelle en entreprise à des fins douteuses) : interdiction pure et simple.
  • IA à haut risque (éléments RH automatisés, systèmes de recrutement) : utilisation conditionnée à un examen de conformité drastique.
  • IA à risque minimal : utilisation libre mais sous vigilance éthique.

Moralité ? Se doter d'une IA sans savoir dans quelle case elle tombe, c’est jouer à la roulette russe réglementaire.

 

Communicants et RH : vigies du savoir et de l'éthique numérique

L’employeur qui déploie une IA devient automatiquement garant de son bon usage. Le devoir d'awareness n’est plus une option cosmétique, c’est une obligation légale. Car comme le dit Jean-Claude Van Damme, il est important d'être Aware.

Trois missions vous attendent :

  • Surveiller : évaluer, corriger, former en continu. Une politique interne rendant la formation obligatoire n’est plus un luxe, c’est une condition de conformité.
  • Guider : établir une charte d’usage de l’IA claire et précise (définitions, usages autorisés, bonnes pratiques, interdits). La charte IA fera d’ailleurs l’objet d’un prochain atelier ABCI. 
  • Former : installer une culture d’IA Literacy. Chaque collaborateur exposé à l'IA doit comprendre ce qu’il manipule.

 

Ce qu’il faut mettre en place dès maintenant

Plusieurs éléments sont essentiels :

Charte d’usage IA : indispensable. Elle devra traiter de plusieurs aspects :

  • Objectifs et définitions
  • Responsabilités (déployeurs, utilisateurs)
  • IA autorisées ou interdites dans l’entreprise
  • Confidentialité, cybersécurité, propriété intellectuelle
  • Formation continue et contrôle de l’efficacité des mesures

Programme de formation interne : non négociable. Il devra couvrir ceci :

  • Fondamentaux techniques
  • Utilisation responsable et éthique
  • Conformité juridique (RGPD, IA ACT)
  • Analyse critique des outputs (promptologie, détection des deep fakes ou hyper trucage en français, validation croisée)

Procédures de contrôle : essentielles pour ne pas finir en posture défensive. Cela passe par ces éléments :

  • Évaluation d’impact avant tout déploiement
  • Surveillance humaine des IA déployées
  • Mise à jour régulière des mesures de sécurité et de conformité
  • Conservation de preuves d’action en cas d’audit ou de contentieux.

Mieux vaut un plan solide qu’un mea culpa tardif.

 

Shadow IT et IA sauvage : le péril invisible

Refuser de voir que l'IA infuse déjà les pratiques individuelles revient à abandonner le navire en rase mer. Le shadow IT (l'utilisation d'outils non validés) est une menace sournoise en entreprise. Sans cadre officiel, vos collaborateurs décideront seuls : choix d’outils douteux, fuites de données, erreurs stratégiques... et responsabilité juridique pour l’employeur.

La parade est simple : embrasser l'usage pour mieux le canaliser. Organisez, explicitez, formez. Ne laissez pas la peur gouverner : elle n'est jamais bonne conseillère en matière de régulation.

 

Ce qui vous pend au nez en cas de non-respect

La poésie des chiffres finit toujours par frapper.

  • Non-respect d'une interdiction d'IA : jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial.
  • Non-respect d’autres obligations : 15 millions d'euros ou 3% du chiffre d'affaires mondial.

Le coût de la négligence dépasse largement celui de la prévention.

 

L'ère de l'amateurisme est close

Alors comment agir ? À nous, communicants, RH, experts internes, de saisir cette opportunité pour forger non seulement la conformité, mais l’intelligence collective d'une entreprise prête à penser son futur. Former, guider, cadrer : trois gestes simples, trois piliers d'une gouvernance qui refuse d’être complice de l'aveuglement algorithmique. Car à l'ère de l'IA, la seule erreur fatale est de croire que l'on peut rester spectateur.

 

 

 

Participer à la discussion

Vous souhaitez être tenu au courant des prochaines publications ?