Cadre légal de l’intelligence artificielle : tour d’horizon

Julie
Cadre légal de l’intelligence artificielle : tour d’horizon

Sommaire

Crédits

Cadre légal de l’intelligence artificielle, une nécessité ?

Ces dernières années, l’intelligence artificielle est devenue une technologie incontournable. Selon le rapport de McKinsey de juin 2023, le potentiel économique de l’IA pourrait engendrer une augmentation de l’économie mondiale d’un montant de… 13 billions de dollars ! Dorénavant, inutile de le nier : cette nouvelle technologie bouleverse la quasi-totalité des secteurs, notamment la santé, la finance, les transports et, bien évidemment, le recrutement. La croissance à venir de l’IA soulève néanmoins une question : quid de son cadre légal ? Il devient urgent d’encadrer son utilisation et son développement. Eh oui ! On ne peut pas laisser une telle technologie dans la nature. Sans une réglementation appropriée, les dérives de l’IA pourraient mener à de graves conséquences. Ici, la responsabilité du législateur est double : il doit non seulement veiller à la protection des droits et intérêts de chacun, mais aussi favoriser une innovation responsable. Conclusion : il est grand temps de faire le point sur le cadre légal de l’intelligence artificielle.

L’IA à travers le monde : quel cadre légal ?

Avant toute chose, définissons ce qu’est l’intelligence artificielle (IA) et faisons le point sur la législation existante à l’international. 

La définition de l’IA

Le Parlement européen définit l’IA comme étant tout outil utilisé par une machine afin de « reproduire des comportements liés aux humains, tels que le raisonnement, la planification et la créativité ». 

Dans le secteur du recrutement par exemple, l’intelligence artificielle est souvent utilisée en matière de présélection des candidats ou, encore, de matching.

Toutefois, il n’existe pas encore de définition standardisée au niveau international, ce qui complique la mise en place de textes légaux. Sans consensus, les initiatives juridiques demeurent fragmentées et rendent difficile l’élaboration de lois communes relatives à l’IA.

La législation existante

Nombreux sont les pays qui ne disposent pas de cadre juridique dédié à l’intelligence artificielle. 

Les législations, telles que les textes sur la protection des données ou le droit de la consommation, touchent indirectement l’IA. Hélas, cela est peu exploitable, voire insuffisant.

Aux États-Unis, l’approche s’avère davantage permissive. On la qualifie même de « laissez-faire ». Cependant, certains États, tels que la Californie, ont décidé de prendre en main le sujet de l’IA et commencent à légiférer. Cette initiative a donné naissance à la California Consumer Privacy Act (CCPA), qui impose notamment des exigences strictes en matière de protection des données.

L’Europe et l’Union européenne, quant à elles, s’éloignent du laissez-faire américain : elles s’efforcent de construire un cadre légal plus structuré. Leurs réflexions ont abouti à l’adoption de textes :

Cependant, ce cadre demeure perfectible puisqu’il s’avère en développement.

Enfin, d’autres pays, comme le Japon, se sont également emparés du sujet de l’IA. Ce dernier s’oppose tout à fait à la vision européenne, en se positionnant en faveur d’une approche très souple. Le but ? Attirer des entreprises et des investisseurs.

Au vu des divergences, il convient de souligner l’importance de discussions à l’échelle internationale en vue d’une probable harmonisation.

Quels sont les enjeux actuels de la réglementation de l’IA ?

Aujourd’hui, l’usage de l’intelligence artificielle pose de nombreuses questions. À juste titre, cependant. Bien que cette nouvelle technologie fait état d’avantages certains, elle comporte aussi des risques non négligeables. 

L’absence de cadre juridique clair

L’absence de cadre juridique homogène et de définition précise de l’IA engendre ce que l’on pourrait qualifier de « zones de flou ». 

Le problème ? Eh bien, elles compliquent l’application de textes existants, qui évoquent (le plus souvent) l’intelligence de manière indirecte.

De même, l’absence d’harmonie à l’échelle internationale pose également problème aux entreprises, qui peuvent être soumises à des exigences contradictoires.

Ces zones d’ombre freinent non seulement l’innovation, mais aussi la compétitivité des entreprises à dimension internationale.

Les risques éthiques et discriminatoires

L’un des principaux risques engendrés par l’IA concerne les biais algorithmiques

Ceux-ci sont involontairement introduits dans les systèmes d’intelligence artificielle par les données sur lesquelles ils sont entraînés. Gardons à l’esprit que les IA sont créées par des êtres humains et ne sont donc pas à l’abri des biais ! 

Dans le secteur du recrutement, cela peut conduire à la commission d’une infraction : la discrimination qui, rappelons-le, est illégale.

Par ailleurs, certains systèmes de tri de CV ont été accusés de favoriser certains profils au détriment d’autres. Ainsi, le processus de recrutement s’avérait totalement biaisé.

Si l’on s’extrait de la simple sphère du recrutement, il est aisé de s’apercevoir combien les risques sont importants. Quid des droits fondamentaux et des services essentiels, comme le droit au logement ou, encore, la demande d’un crédit bancaire ?

Pour atténuer le risque éthique, la transparence des algorithmes et la mise en place d’audits indépendants semblent constituer des solutions prometteuses. 

Mais, là encore, de nombreuses questions se posent : qui surveille les algorithmes, et selon quels critères ? Le législateur doit-il s’emparer de cette surveillance ou cette tâche doit-elle revenir aux entreprises conceptrices d’outils d’IA ?

Focus sur la surveillance accrue 

Autre enjeu connu de l’IA, le droit au respect de la vie privée. Les technologies d’intelligence artificielle permettent une surveillance plus sophistiquée, notamment grâce à la reconnaissance faciale et aux caméras intelligentes.

Bien que ces systèmes revêtent une certaine utilité, ils peuvent aussi entraîner des dérives.

En France, la loi du 19 mai 2023 relative aux jeux Olympiques et Paralympiques de 2024 

a récemment suscité des débats autour de l’utilisation de ces technologies, en particulier pour les événements sportifs. 

Le risque de surveillance de masse devient ainsi un enjeu majeur qui nécessite une réglementation stricte pour protéger les droits des citoyens, notamment dans les espaces publics.

La conformité de l’IA au RGPD

Voilà un autre élément que le législateur doit également prendre en compte ! L’article 22 du règlement général sur la protection des données accorde ainsi aux individus le droit de ne pas être soumis à une décision fondée uniquement sur un traitement automatisé, y compris le profilage, sauf dans certaines conditions. 

Le règlement exige en outre que les décisions prises par des systèmes automatisés soient compréhensibles pour les utilisateurs. 

Or, avec des modèles d’IA de plus en plus complexes, cette exigence de clarté devient difficile à respecter. 

Les entreprises doivent investir des ressources considérables pour s’assurer que leurs systèmes d’IA sont conformes aux règles en matière de transparence et de protection des données personnelles.

Cadre légal de l’intelligence artificielle : quelles initiatives sont mises en place ?

L’Europe et l’Union européenne se sont emparées du sujet de l’IA, ce qui a mené à la publication d’une convention-cadre et d’un règlement de l’UE sur l’intelligence artificielle. Que proposent ces différents textes ?

La convention-cadre du Conseil de l’Europe

Le 17 mai 2024, le Conseil de l’Europe a adopté la convention-cadre sur l’intelligence artificielle, les droits de l’homme, la démocratie et l’État de droit.

Il constitue le premier texte juridiquement contraignant en matière d’IA. En effet, les États signataires devront transposer ses dispositions dans leur droit interne. 

L’objectif de cette convention est de garantir que les systèmes d’IA respectent les droits fondamentaux et préviennent plusieurs risques, tels que :

  • les pratiques discriminatoires ;
  • la remise en cause des processus démocratiques ;
  • les atteintes à la vie privée ;
  • l’utilisation de l’IA à des fins répressives par certains États.

Bien qu’elle soit compatible avec l’IA Act dont nous parlerons ci-dessous, la convention a une portée plus large. Elle inclut non seulement les États membres de l’UE, mais aussi 11 pays non membres, tels que les États-Unis, le Japon et le Canada.

Cette convention-cadre permet à des acteurs majeurs de la recherche et du développement de l’IA, en dehors de l’UE, d’être soumis à un cadre juridique plus contraignant sur l’utilisation de ces technologies. 

N’est-ce pas les prémices d’une harmonisation à l’échelle internationale ?

La loi de l’Union européenne du 13 juin 2024, l’AI Act

L’Union européenne adopte une approche dite « graduée et différenciée », basée sur les risques associés aux différents usages de l’IA. Cette approche consiste à adapter les exigences réglementaires en fonction du niveau de risque présenté par les différents systèmes d’IA :

  • Les IA à faible risque. Ces IA incluent des technologies comme les chatbots ou les filtres automatiques pour les e-mails. Elles sont considérées comme présentant peu de risques pour les droits fondamentaux ou la sécurité des personnes. Les obligations qui leur sont imposées sont donc limitées à des exigences minimales, comme la transparence (ex. : indiquer que l’utilisateur interagit avec une IA) ; 
  • Les IA à risque moyen. Ce niveau inclut les IA utilisées dans des domaines comme l’éducation ou les services financiers. Par exemple, une IA destinée à l’octroi de prêts peut être soumise à des exigences plus strictes, notamment en matière de transparence, afin de garantir que les décisions prises soient justes et non discriminatoires ; 
  • Les IA à haut risque. Ces IA incluent des technologies utilisées dans des domaines sensibles tels que la santé, la justice et le recrutement. Dans ces cas, les entreprises doivent se conformer à des exigences de transparence, d’évaluation des risques et de surveillance continue.

Pour en revenir à la sphère de recrutement, citons le point n° 57 du règlement européen qui explique le classement à haut risque des systèmes d’IA afférents :

« Les systèmes d’IA utilisés pour des questions liées à l’emploi, à la gestion de la main-d’œuvre et à l’accès à l’emploi indépendant, en particulier pour le recrutement et la sélection de personnes, pour la prise de décisions affectant les conditions des relations professionnelles, ainsi que la promotion et la résiliation des relations professionnelles contractuelles, pour l’attribution de tâches fondée sur le comportement individuel, les traits de personnalité ou les caractéristiques personnelles et pour le suivi ou l’évaluation des personnes dans le cadre de relations professionnelles contractuelles, devraient également être classés comme étant à haut risque car ces systèmes peuvent avoir une incidence considérable sur les perspectives de carrière et les moyens de subsistance de ces personnes ainsi que sur les droits des travailleurs. Les relations professionnelles contractuelles en question devraient concerner également, de manière significative, celles qui lient les employés et les personnes qui fournissent des services sur des plateformes telles que celles visées dans le programme de travail de la Commission pour 2021. Tout au long du processus de recrutement et lors de l’évaluation, de la promotion ou du maintien des personnes dans des relations professionnelles contractuelles, les systèmes d’IA peuvent perpétuer des schémas historiques de discrimination, par exemple à l’égard des femmes, de certains groupes d’âge et des personnes handicapées, ou de certaines personnes en raison de leur origine raciale ou ethnique ou de leur orientation sexuelle. Les systèmes d’IA utilisés pour surveiller les performances et le comportement de ces personnes peuvent aussi porter atteinte à leurs droits fondamentaux à la protection des données et à la vie privée. »

En bref, le cadre légal de l’intelligence artificielle proposé par l’Union européenne poursuit divers objectifs, dont : 

  • s’assurer que les systèmes d’IA commercialisés soient sécurisés et conformes à la législation en vigueur ;
  • encourager l’adoption d’une IA fiable, centrée sur l’humain ;
  • construire un cadre juridique cohérent pour faciliter les investissements et favoriser l’innovation ;
  • renforcer la gouvernance et veiller à l’application effective des lois existantes sur la sécurité des systèmes d’IA et le respect des droits fondamentaux ;
  • optimiser le marché intérieur pour des applications d’IA conformes et sûres.

L’Union européenne a pour objectif de créer un cadre légal dédié à réguler de manière proportionnelle l’intelligence artificielle, tout en soutenant une innovation responsable.

Gardons à l’esprit que l’IA évolue à vitesse grand V. La législation devra ainsi s’adapter aux différentes évolutions. Pour l’heure, ces textes ne constituent que les prémices du cadre légal de l’intelligence artificielle à l’échelle européenne. D’ici une décennie, tout aura changé. Alors… Affaire à suivre !

Vers un cadre légal de l’intelligence artificielle harmonisé et adapté ?

Que nous réserve l’avenir en matière d’intelligence artificielle ? Les réglementations mises en place seront-elles suffisantes. Discutons-en ! 

Face à l’essor rapide de l’IA, une prise de conscience semble s’être amorcée. En 2023, l’OCDE a lancé son Observatoire des incidents liés à l’IA afin d’effectuer un suivi rigoureux. Par ailleurs, le nombre d’incidents signalés a augmenté de 1 278 %, ce qui coïncide avec la popularisation des IA génératives.

De plus, l’importance de réguler l’IA, de manière concertée, fait son bout de chemin. Cependant, la diversité des approches et les objectifs poursuivis par chaque État rendent une harmonisation internationale fastidieuse.

Les réglementations devront également rester suffisamment flexibles pour s’adapter à l’évolution rapide de l’IA. En outre, le législateur devra tenir compte des spécificités sectorielles pour que les lois soient efficaces. La vitesse à laquelle l’IA évolue nécessite, en outre, une surveillance continue, afin de réagir rapidement face aux nouveaux défis éthiques et juridiques qui se posent. À titre d’exemple, le Centre pour la Sécurité de l’IA (CeSIA), organisation française à but non-lucratif, forme, sensibilise et mène une activité de recherche quant aux défis posés par l’intelligence artificielle.

Recherche et développement, sensibilisation, et formation.

L’intelligence artificielle devient omniprésente dans le paysage économique. On ne peut pas le nier : la plupart des entreprises repensent leurs process, à l’aide de cette nouvelle technologie. L’objectif ? Gagner du temps, augmenter sa rentabilité, réaliser des économies, etc. Bref, les enjeux sont nombreux. C’est pourquoi le législateur doit attacher une grande importance à sa réglementation. Tout vide juridique ou texte de loi inadapté comportera son lot de conséquences. Il faudra ainsi compter sur la vigilance de celles et ceux qui font la loi, ainsi que sur la coopération à l’échelle internationale.

Ne manquez rien !

Chaque mois, recevez un récap des derniers articles publiés directement dans votre boîte mail. 

À propos de l'auteur·e
Julie
Linkedin

Juriste en Droit des Affaires et Content Manager Freelance. Lorsque je ne suis pas occupée à dévorer un roman ou à faire du canicross, j’écris des articles de blog sur l'univers RH (et le droit !)