Les entreprises négligent les risques liés à l’IA dans un contexte de gouvernance qui doit gagner en maturité

TrendAI publie une nouvelle étude qui révèle que les entreprises accélèrent leur adoption de l’intelligence artificielle, en dépit des risques pourtant bien identifiés en matière de sécurité et de conformité.

Plus de 6 décideurs (métiers et IT) sur 10 (67 %) admettent avoir déjà ressenti une pression pour valider la mise en production de projets IA malgré des préoccupations en matière de sécurité (61 % en France). Ces inquiétudes, qualifiées « d’extrême », par un sur sept sont fréquemment reléguées au second plan au nom de la compétitivité ou d’une demande interne robuste. En France, 16 % reconnaissent avoir déjà vécu cette même situation.

« Les entreprises sont conscientes des dangers, mais peinent encore à s’en prémunir. Lorsque l’IA est déployée sous la pression de la concurrence plutôt que dans le cadre d’une gouvernance mature, elle s’invite parfois dans des systèmes critiques sans garanties suffisantes quant à la sécurité opérationnelle. Notre étude confirme la pertinence de notre engagement à aider les entreprises à faire de l’IA un catalyseur de valeur dans un contexte de maîtrise des risques business », commente Rachel Jin, Chief Platform & Business Officer, Head of TrendAI™.

L’adoption précipitée de l’intelligence artificielle au sein des entreprises s’accompagne de lacunes en matière de gouvernance et d’une attribution floue des responsabilités, ce qui exacerbe les risques omniprésents liés à cette IA. Les équipes de sécurité, qui se voient imposer des décisions de déployer l’IA, assistent à un contournement des règles en place et à une prolifération d’outils IA non autorisés ou “fantômes”.

Une récente étude de TrendAI™ sur les menaces émergentes indique que les cybercriminels tirent déjà parti de l’IA pour automatiser la phase de reconnaissance de leurs attaques, accélérer leurs campagnes de phishing et démocratiser l’accès à la cybercriminalité, ce qui accentue la célérité et le périmètre des incidents.

Une IA déployée plus rapidement qu’elle ne peut être contrôlée
Les organisations déploient l’IA à un rythme qui dépasse leur capacité à en maîtriser les risques, creusant ainsi un fossé entre leurs objectifs de surveillance et la réalité. Au niveau mondial, plus d’une entreprise sur deux (57 %) affirment que l’IA évolue plus vite que leur capacité à la sécuriser. La tendance varie quelque peu en France où le constat est réalisé par 48 % des organisations. Tandis que 55 % des répondants avouent n’avoir qu’une confiance modérée dans leur compréhension des cadres réglementaires entourant cette technologie (56,5 % des répondants Français).

La gouvernance de l’IA reste peu mature : seuls plus d’un tiers des organisations au niveau mondial (38 %) disposent de politiques abouties en la matière, et beaucoup en sont encore à les élaborer. En France, 34,5 % reconnaissent avoir une gouvernance de l’IA en place et 51 % y travailler.

Pour 4 décideurs sur 10 (41 % au niveau mondial), l’absence de normes claires en matière de réglementation et de conformité constitue un frein (36 % en France). En pratique, l’IA est souvent opérationnelle avant même que les règles censées encadrer son usage ne soient réellement définies.

Confiance sous surveillance : les entreprises face aux IA autonomes.
La confiance dans les systèmes d’intelligence artificielle avancés et autonomes demeure fragile au sein des entreprises. Moins d’un décideur sur deux (44 %) estime que l’IA agentique améliorera significativement leur cyberdéfense à court terme*. Des inquiétudes persistent actuellement quant à l’accès aux données, aux usages détournés et au manque de contrôlé associé.

Les chiffres sont révélateurs :
– Au niveau mondial, plus de quatre organisations sur dix (42 %) considèrent l’accès des agents IA aux données sensibles comme le principal risque. Une opinion partagée par les entreprises en France, dans une moindre proportion (37,5 %).

– Tandis que plus d’un tiers (36 %) redoutent que des prompts malveillants puissent compromettre leur sécurité. Les organisations en France en sont aussi conscientes, mais elles sont moins alertes : 27,5 %.

– Près d’un répondant sur trois (33 %) craint également un élargissement de la surface d’attaque ciblée par les cybercriminels, un ratio quasi similaire en France (29 %).

– Au niveau mondial, autant s’inquiète d’éventuels abus du statut de confiance accordé à l’IA (28,5 % en France) ou à des risques liés à un déploiement autonome de logiciels (27,5% en France).

Dans le même temps, près d’un tiers (31 %) admettent un déficit de visibilité ou de capacité d’audit sur ces systèmes. Un constat partagé en France par près d’une entreprise sur quatre (24,5 %). Ce qui soulève des questions cruciales quant à leur contrôle et à la possibilité d’intervenir après leur déploiement.

Environ 40 % des décideurs interrogés au niveau mondial plaident en faveur d’un « bouton d’arrêt » qui permettrait de désactiver les IA en cas de dysfonctionnement ou d’utilisation malveillante. En France, ils sont plus d’un quart à partager ce point de vue (27 %). Alors que l’indécision domine chez près de la moitié des répondants (48 % en France). Cette absence de consensus met en évidence un défi de gouvernance : les organisations avancent vers l’autonomie de l’IA sans s’accorder préalablement sur les mécanismes de contrôle nécessaires.

« L’IA agentique induit de nouveaux risques pour les entreprises », précise Rachel Jin. « Notre étude fait état d’inquiétudes concrètes, allant de l’exposition des données sensibles à une perte de contrôle. Sans une gouvernance et une visibilité renforcées, les organisations déploient des systèmes qu’elles ne maîtrisent pas pleinement, avec un risque qui ne fera que s’accentuer en l’absence de réaction rapide. »

À chaud

Impression et développement durable : un levier stratégique pour les entreprises

Malgré la montée en puissance des opérations de digitalisation...

IA et ITSM : automatiser le support utilisateurs pour plus d’efficacité

L’intelligence artificielle occupe aujourd’hui une place à part dans...

CamundaCon 2026 : comment l’orchestration agentique redéfinit l’automatisation

Camunda  organise sa conférence CamundaCon 2026 au Beurs van Berlage d'Amsterdam, du 19...

Processus stratégiques : l’IA agentique apporte un niveau de fiabilité inédit

Une chose est sûre, l’intelligence artificielle représente l’une des...

Dernieres actualités

CamundaCon 2026 : comment l’orchestration agentique redéfinit l’automatisation

Camunda  organise sa conférence CamundaCon 2026 au Beurs van Berlage d'Amsterdam, du 19...

L’AUFO et Shortways présentent un baromètre sur l’adoption des solutions Oracle en 2025

L’Association des Utilisateurs francophones Oracle (AUFO) et Shortways, éditeur...

Katun et ELATEC proposent une authentification sécurisée pour les multifonctions Arivia

Katun annonce un partenariat stratégique mondial avec ELATEC, spécialiste...

delaware récompensé pour son innovation au SAP Partner Award 2026

delaware a le plaisir d’annoncer qu’il s’est vu décerner...

CANUT sélectionne OUTSCALE et UNITEL pour son Lot 3 « Cloud Souverain »

CANUT annonce l’attribution du Lot 3 « Cloud Souverain...

Wraptor étend son empreinte en messagerie sécurisée dans le médico-social

Le système de santé français s’appuie sur des structures...

Trustable renforce son expertise avec la certification CSP Swift

TRUSTABLE décroche la certification CSP Certified Assessors Directory et...

Articles relatifs

Catégories