Anticiper les risques juridiques de l’intelligence artificielle

Depuis l’arrivée de ChatGPT le 30 novembre 2022, toutes les entreprises n’ont plus qu’un mot à la bouche : IA. Il faut de l’IA partout, sur le site internet, dans les présentations aux clients, dans les mails, les meetings, n’importe quel endroit où on peut la caser. Et à raison : des études du MIT montrent que l’utilisation de l’IA augmente la productivité d’entre 10 et 40% selon l’emploi.  Pourtant, une chose que les entreprises oublient souvent avec les nouvelles technologies, c’est la loi. Sauf que quand elle vient toquer à la porte pour réclamer des comptes, il est souvent trop tard, et ça peut coûter très cher. Explorons aujourd’hui le piège juridique de l’IA, et ses implications sur tout l’écosystème entrepreneurial.

La situation actuelle : le Far West… mais pas que 

D’un point de vue extérieur, le domaine de l’IA ressemble à un Far West moderne ; vu la rapidité d’évolution de cette technologie, les entreprises semblent croire que c’est un espace sans règles, où tout est possible tant que l’argent est là pour suivre. Problème : ce n’est qu’une vision partielle de la réalité. Certes, les développements technologiques prennent souvent de l’avance sur le cadre juridique, mais plusieurs régulations, bien que dispersées et encore insuffisantes, encadrent déjà ce domaine. Le Règlement général sur la protection des données (RGPD), par exemple, impose déjà des règles strictes sur la collecte et le traitement des données, limitant les pratiques invasives ou abusives de certains systèmes d’IA.  La propriété intellectuelle intervient également pour protéger les créations humaines vis-à-vis des contenus générés par des IA, posant de nombreux défis quant à l’attribution des droits et aux critères de protection. Certes, le consommateur n’aura jamais de risque de plagiat en utilisant une IA ne respectant pas la propriété intellectuelle, comme le garantissent les premières jurisprudences sur le sujet, mais les entreprises intégrant ou développant des modèles sont bien concernées et en risque.
Bien que certaines questions restent en suspens, il est faux de penser que l’IA se développe dans un vide juridique total.

La réponse des instances avec l’IA Act : Pourquoi et quelles nouveautés ? 

Les régulations existantes ne suffisent plus à couvrir les risques spécifiques de l’IA. Les biais algorithmiques, l’autonomie croissante des systèmes et les atteintes potentielles aux droits fondamentaux nécessitent une réponse claire et robuste. Face à ces enjeux complexes de l’IA, l’Union européenne a pris l’initiative de proposer un cadre juridique spécifique : l’IA Act. Ce texte, en voie de finalisation, vise à instaurer des normes unifiées pour l’IA, classant les systèmes selon leur niveau de risque et définissant des exigences strictes pour chaque catégorie. L’IA Act introduit une responsabilité accrue  pour les développeurs et les utilisateurs d’IA dans des domaines critiques, tout en offrant plus de transparence et de protection pour les utilisateurs finaux. En établissant des normes spécifiques et en renforçant les obligations de diligence, l’UE souhaite offrir un modèle de régulation qui protège à la fois les consommateurs et la compétitivité de ses entreprises sur un marché mondial.

L’approche à adopter pour toute utilisation d’IA 

Devant ce cadre naissant, l’approche pour utiliser l’IA en toute conformité doit être basée sur une vigilance et une éthique accrues. Toute entreprise ou acteur souhaitant intégrer l’IA dans ses processus doit adopter des pratiques proactives de conformité, incluant une évaluation des risques, la transparence envers les utilisateurs et une documentation détaillée des processus IA. Cela signifie s’assurer que chaque système d’IA respecte les principes de non-discrimination, de confidentialité et de responsabilité.

Adopter l’IA ne devrait pas se faire au détriment des droits fondamentaux. Au contraire, une utilisation encadrée et responsable de l’IA permet à chacun de bénéficier de ses avancées sans tomber dans le piège d’un développement non régulé, source de risques multiples pour les utilisateurs comme pour les entreprises elles-mêmes.

En cas d’inquiétude à propos de son respect des lois dans l’utilisation ou le développement d’une IA, il est nécessaire de se faire accompagner par des professionnels du droit formés sur la question de l’IA pour régulariser sa situation, rentrer dans les clous de la loi et assurer une éthique irréprochable auprès de ses utilisateurs.

Par Théo Leblanc, expert en IA et conférencier sur le salon Tech IT sur Rennes

À chaud

HID présente M1 Transparent Gateway pour une architecture transparente PACS

HID lance M1 Transparent Gateway, une passerelle permettant de...

Hop-place confirme son leadership dans la GMAO et vise le privé

Hop-place, la solution SaaS française de Gestion de la...

Youzer introduit My Youzer pour faciliter la gestion des accès par les métiers

Youzer annonce le lancement de My Youzer — une...

NexPoint Services se positionne sur la gestion et la sécurisation des endpoints

NexPoint Services propose une offre d’intégration de solutions de...

ASC Technologies déploie Neo Suite pour la conformité et l’analytique

ASC Technologies présente Neo Suite, une solutionsécurisée et évolutive pour...

Dernieres actualités

CANUT sélectionne OUTSCALE et UNITEL pour son Lot 3 « Cloud Souverain »

CANUT annonce l’attribution du Lot 3 « Cloud Souverain...

Wraptor étend son empreinte en messagerie sécurisée dans le médico-social

Le système de santé français s’appuie sur des structures...

Trustable renforce son expertise avec la certification CSP Swift

TRUSTABLE décroche la certification CSP Certified Assessors Directory et...

Botmaster AI déploie sa solution d’agents IA autonomes en France

BotmasterAI met à disposition des entreprises une force de...

nLighten étend sa présence grâce à l’acquisition d’un site à Paris

Cette acquisition stratégique renforce la présence de nLighten sur...

Shortways fait évoluer son écosystème partenaires avec KaOra Partners

Shortways fait évoluer son partenariat avec le cabinet de...

Articles relatifs

Catégories