Intelligence artificielle: pour l’émergence d’un écosystème européen éthique et compétitif

April Mo, 2023

intelligence artificielle alexandra

Alexandra Bensamoun est professeure de droit, université Paris-Saclay ; Fayrouze Masmi-Dazi est avocate à la cour, Cabinet Dazi Avocats


Cet article a été publié initialement dans la Semaine Juridique, Édition générale du 22 janvier 2024, n° 3 (JCP G 2024, doctr. 101).


À l’heure du dernier round de concertations sur le projet européen de régulation de l’intelligence artificielle (IA), les prémices de grandes batailles juridiques se dessinent déjà pour qu’émerge un écosystème d’opérateurs IA compétitif, respectueux de nos valeurs démocratiques et de l’État de droit. La transparence des modèles et de leurs conditions de déploiement est une impérieuse nécessité, notamment pour le secteur de la culture, des médias et de l’information, dont les contenus nourrissent les IA génératives. Mais elle ne suffira pas seule à traiter les risques concurrentiels. Tantôt instrument de sanction, tantôt outil de négociation, parfois les deux à la fois, le droit de la concurrence est sans aucun doute l’un des outils stratégiques de compréhension, d’anticipation et de correction des dérives concurrentielles possibles de l’intelligence artificielle. La capacité dissuasive de ce droit doit cependant être combinée à une lutte contre l’esprit de faute lucrative.


L’intelligence artificielle (IA) est sans doute la manifestation la plus singulière, la plus disruptive, de la révolution informatique ou numérique. Tantôt crainte pour sa capacité de remplacement, voire de domination de l’être humain, tantôt adulée pour les promesses de changements, d’améliorations, de progrès, et même de transformations profondes qu’elle entraînera, elle fait surtout l’objet de fantasmes, d’exagérations. Pour ces raisons, certains appellent à réaliser une pause dans le développement de l’IA, pendant que d’autres supplient de ne pas entraver l’innovation.

Alors que la révélation des IA génératives, avec la mise à disposition du grand public de ChatGPT, a fêté son premier anniversaire, la guerre de position s’est notablement invitée dans la discussion sur l’AI Act, à la faveur de raccourcis (ou pas…) opposant régulation et innovation. Faut-il le rappeler, la régulation est la condition d’une saine innovation, respectueuse des droits et bénéficiant de la sécurité juridique nécessaire à son déploiement. Aussi, l’IA requiert une analyse juridique transverse, pour une mise en œuvre efficace et harmonieuse qui capitalise sur l’ensemble des textes européens conçus dans leur complémentarité – d’objectifs, de domaines d’intervention et de moyens.

Sortons donc de notre candeur européenne, de cette querelle stérile et qui sert souvent de prétexte pour freiner l’encadrement, et permettons l’émergence d’un écosystème européen IA qui ne rogne ni sur les valeurs ni sur la compétitivité. L’opposition entre innovation et régulation est une posture. La régulation est une opportunité, les grands opérateurs le savent bien.

Le législateur européen a parfaitement intégré le besoin et a donc proposé un texte spécifique pour réguler les usages de l’IA, une sorte de droit de l’IA, socle normatif s’imposant aux systèmes d’IA (SIA) introduits sur le marché européen, évidemment non exclusif de tous les autres textes qui ont vocation à s’appliquer à ces nouveaux outils. Il s’agit bien là de créer les conditions d’un écosystème IA européen éthique, respectueux des valeurs soutenues (1). Mais la rapidité de structuration du marché pose d’ores et déjà des préoccupations concurrentielles

playbook ia juridique avocats

1. La volonté de construire un écosystème européen éthique

Le temps du « droit mou », poussé par une volonté d’autorégulation des acteurs du numérique, est révolu. Le développement d’un écosystème éthique de l’IA requiert en effet un encadrement législatif. Comme l’a indiqué le commissaire Thierry Breton, seul le législateur – ici européen – est garant de l’intérêt général. Il lui appartient de fixer un cadre, suffisamment souple pour préserver l’innovation, mais aussi suffisamment sécure pour permettre le respect des valeurs européennes.

L’AI Act est donc en passe d’être adopté. Le dernier trilogue aura nécessité plus de trente heures d’intenses négociations, pour s’achever, le 9 décembre 2023, par un accord politique provisoire, qui continue pourtant de susciter des oppositions (et des discussions à l’occasion des réunions techniques subséquentes sur les considérants). Les négociateurs européens le savent bien : « the deal is not done until it’s done ». Mais la direction est donnée et l’ambition est claire : porter la première régulation internationale, adoptant une approche souple fondée sur les risques (A). La mise en ligne fin 2022 de l’IA générative ChatGPT a néanmoins modifié la trajectoire initiale, en révélant la nécessité d’un encadrement plus poussé, notamment s’agissant de la transparence des sources utilisées pour l’entraînement des grands modèles ou modèles à usage général (B).

A. Le choix d’une régulation par les risques

La peur de freiner l’émergence de champions européens a entraîné de fortes tensions lors de la négociation de l’AI Act. La production normative européenne n’est pourtant pas un obstacle à l’arrivée d’opérateurs européens, elle en est la condition, pour établir un cadre de confiance. Et il ne sert à rien de pointer la législation européenne passée pour dénoncer l’absence de champions européens du numérique. La directive e-commerce5 a créé en 2000 une bulle d’irresponsabilité pour soutenir le développement de cette nouvelle économie. Elle a davantage été mobilisée par des acteurs dominants extra-européens qui s’en sont saisis, en maîtrisant parfaitement les failles et en utilisant la norme pour créer des opportunités pour le développement de leurs propres activités. La nouvelle législation européenne sur l’IA permettra donc la création d’un écosystème aux valeurs assumées, conformes au modèle économique européen.

En substance, le texte propose une approche souple, fondée sur une gradation des obligations en fonction des risques liés à un produit spécifique, le système d’IA (SIA), mis en circulation sur le marché européen. Ainsi, il interdit, en haut de la pyramide des risques, les usages présentant des risques considérés comme inacceptables (par ex. la notation sociale ou l’utilisation de systèmes d’identification biométrique à distance à des fins répressives « en temps réel » dans des espaces accessibles au public). Juste en dessous, la qualification de SIA à haut risque (intervenant dans la gestion et l’exploitation des infrastructures critiques ou dans la santé, l’éducation, la justice…) implique des obligations de diligence, de mise en conformité et même d’atténuation des risques, avec une volonté de responsabilisation des acteurs, dans l’esprit du RGPD6 et du DSA. Lorsque les usages présentent un risque modéré (interaction homme-machine, deep fake…), une obligation spécifique de transparence (information) est imposée. Enfin, aucune restriction n’est envisagée pour les SIA à risque minimum. Le droit positif peut toutefois être complété de code de conduite ou autres chartes, instruments volontaires de soft law. *

Rappelons que l’AI Act ne se substitue pas aux autres mécanismes juridiques existants, il complète le corpus normatif applicable, en fonction de la nature de la donnée ou encore de la qualité des acteurs concernés. Sont dès lors mobilisables la législation sur les services numériques (DSA, Digital Services Act), la législation sur les marchés numériques (DMA, Digital Market Act8), la législation sur la gouvernance des données (DGA, Data Governance Act9) ou encore celle, bien connue, sur la protection des données personnelles (RGPD)… Il existe par exemple une très forte interaction entre le futur AI Act et le DSA s’agissant des obligations de diligence imposées aux très grandes plateformes et très grands moteurs de recherche qui intègrent dans leurs opérations des modèles d’IA très puissants (qui pourraient relever de la nouvelle catégorie des risques systémiques posée dans l’accord politique de l’AI Act10). De même, le cloud, qui constitue une clé fondamentale du développement des modèles d’IA (en fournissant les capacités de calcul), détenue par quelques acteurs (dits « hyperscalers »), pourrait être considéré comme un service essentiel ou être intégré à un service désigné comme tel par la Commission, conformément au DMA. Par ailleurs, si un dommage est réalisé, la voie ex post du droit de la responsabilité civile extracontractuelle a vocation à s’appliquer. Sur ce point, le droit applicable aux produits défectueux sera très prochainement réformé11, puisqu’un accord en trilogue a été dégagé le 14 décembre dernier, imposant des mécanismes de facilités probatoires. Cette brique normative en aval, par la consécration d’injonctions de divulgation de preuve, est d’ailleurs essentielle car les actions judiciaires pourraient achopper sur la preuve des atteintes.

Parce que les règles imposées par le futur règlement sont apparues à certains comme trop contraignantes ou trop attentatoires à d’autres libertés, le champ d’application a été très discuté. Notamment, les négociateurs nationaux ont demandé une large exemption pour la sécurité nationale. Le sujet reste très sensible. D’évidence, la définition des SIA à haut risque a aussi donné lieu à de fortes prises de position, notamment au regard des atteintes potentielles aux droits fondamentaux. Parmi les points controversés, celui de la soumission des modèles qui sont mis à la disposition du public dans le cadre d’une licence libre et gratuite a opposé la communauté de la sécurité de l’IA et celle des logiciels libres, favorable au partage des connaissances. L’exemption pour les modèles open source a été retenue dans l’accord provisoire. L’idée est intéressante et très soutenue, comme favorisant l’innovation. Reste à savoir ce qu’on entend exactement par « open source ». D’abord, les SIA ouverts ne se résument pas aux logiciels libres. Par ailleurs, l’ouverture suppose aussi la transparence, y compris sur les sources utilisées (ce qui n’est pas nécessairement pratiqué justement13). En outre, elle ne garantit pas un accès démocratique à la technologie et une saine concurrence. Elle ne résout pas non plus la question de l’auditabilité et du contrôle. La rhétorique et la promesse d’ouverture des systèmes d’IA sont en outre exploitées par de puissantes entreprises pour renforcer leur position et s’opposer à la vague d’intérêt croissante pour la réglementation de l’IA. Enfin, le lien entre ouverture et innovation est même parfois remis en cause, en raison notamment de la concentration du marché. L’exemption devrait donc être bien réfléchie dans ses contours et dans ses objectifs.

La sortie sur le marché fin 2022 d’IA génératives, susceptibles de produire des contenus, a mis en lumière l’existence de modèles de fondation, entraînés sur des masses de données. Le législateur a alors nuancé son approche par les risques pour réglementer spécifiquement les SIA à usage général.

B. - La nécessaire transparence

Comme souvent, la technologie et l’innovation précèdent la règle qui viendra en encadrer l’usage. Les bouleversements sont pourtant déjà bien réels. D’abord, les modèles d’IA sont entraînés sur d’immenses corpus de données à la licéité parfois douteuse, composés de contenus culturels piratés, d’images pédopornographiques… Ensuite, les productions générées par l’IA sont susceptibles de faire directement concurrence aux créations humaines, jusqu’à parfois les remplacer. Enfin, les modèles d’IA ont également accru la complexité de la chaîne de valeur de l’IA en introduisant de nouveaux types de services qui facilitent les interactions directes entre les développeurs de modèles et les utilisateurs finaux par le biais d’interfaces de programmation d’applications, aggravant la désintermédiation. Ces réalités ont obligé le législateur européen à réévaluer la catégorisation et la répartition des responsabilités initialement opérées.

Précisément, parce que certains SIA se nourrissent de masses de données, l’AI Act a identifié, par voie d’amendement parlementaire du fait de la révélation tardive des IA génératives (issues de modèles de fondation), une nouvelle catégorie associée à un régime spécifique : les SIA à usage général. Ceux-ci sont réglementés selon une approche par paliers, avec davantage d’obligations pour les fournisseurs de modèles qui présentent des risques systémiques. Cette nouvelle catégorie de risques, déliée des usages (puisque par nature un risque systémique ne se limite pas à un usage), n’est d’ailleurs pas sans rappeler l’approche adoptée dans le DSA pour les plateformes en ligne. Là encore, l’objectif partagé est d’éviter l’effet « garbage in, garbage out » (GIGO). Au-delà des risques liés, ces modèles sont soumis à une obligation de transparence des sources. Le droit d’auteur et les droits voisins19 serviront donc d’aiguillons dans cette voie. En effet, si l’entraînement de ces IA peut a priori bénéficier de l’exception de fouille de textes et de données imposée par l’article 4 de la directive 2019/79020, c’est à la condition que l’accès aux sources soit licite et que le titulaire n’ait pas exercé son droit d’opposition (ou opt out), lequel permet un retour à l’exclusivité. Or, seule la transparence sur les contenus protégés fouillés permet d’assurer le respect de ces exigences. Sans transparence, il est impossible de savoir si l’accès aux sources est licite, si le droit d’opposition est respecté, et même si les étapes du test en trois étapes (que doit passer toute exception mise en œuvre) sont franchies. La difficulté tient alors au fait que les fournisseurs d’IA ont renoncé à la transparence, précisément en raison des nombreux procès intentés aux États-Unis pour non-respect du copyright (avec en dernier lieu la plainte du New York Times22). En France, certains titulaires dénoncent le « pillage » silencieux dont ils font l’objet. La non-transparence comme stratégie d’évitement de l’application du droit ? On ne saurait s’y résoudre dans un État de droit.

Pour ces raisons, il faut se réjouir que l’AI Act ait souhaité prescrire une double transparence. Sous réserve de la version définitive du texte –, le règlement imposerait, pour l’amont, aux fournisseurs de modèles d’IA à usage général la mise en place d’une politique de conformité avec la législation européenne sur le droit d’auteur, ainsi que la fourniture d’un résumé suffisamment détaillé des données d’entraînement. En aval, la transparence oblige à identifier les contenus générés par une IA, permettant ainsi également de lutter contre les fausses informations grâce aux hypertrucages (deepfakes). L’impact de l’IA dépasse dès lors le seul cadre du fonctionnement des marchés, il touche à l’accès à l’information, au pluralisme des idées et des opinions. La responsabilisation des acteurs par la norme devient une impérieuse nécessité sur le plan de l’éthique et du partage équitable de la valeur, seul à même de garantir le maintien du pluralisme et du choix éclairé des utilisateurs dans une société démocratique.

L’AI Act était-il le bon vecteur pour régler une question de propriété littéraire et artistique (s’agissant précisément de la transparence des sources utilisées)  ? Plusieurs arguments militent en ce sens. D’une part, la transparence exigée ne consacre pas un nouveau droit, elle rend effectif un droit déjà existant, articulant un monopole et une exception à ce monopole. D’autre part, au-delà, la transparence est une condition essentielle au respect des droits en général. La question se posera dans les mêmes termes pour les données personnelles puisque, si rien n’interdit d’utiliser les marges de manœuvre (par ex. en matière de réutilisation compatible avec la finalité initiale, en appliquant les dispositions relatives à la recherche), l’illicite (au moment de la collecte) ne peut être « blanchi » par le mystérieux effet de l’artifice… On pourrait dès lors regretter que l’obligation de transparence n’ait pas été étendue aux modèles spécialisés dans la mesure où les risques et les conséquences seront identiques (sauf à considérer l’échelle des atteintes). Dans tous les cas, l’évolution du débat non seulement reflète les avancées significatives dans le domaine, mais indique également que les législateurs ont amélioré leur connaissance et leur compréhension de ces technologies. Faut-il le regretter… ?

La rhétorique ne fonctionne d’ailleurs plus tellement, les régulateurs se montrant de plus en plus convaincus de la nécessité d’un encadrement24 et de l’importance de la transparence, de manière transversale. En outre, les autorités de concurrence brésilienne25, japonaise26 ou encore coréenne s’intéressent au sujet. Aux États-Unis, non seulement la FTC (Federal Trade Commission) a réalisé une étude sur les conséquences concurrentielles de l’IA générative dans les industries culturelles28, mais encore un projet de loi29 envisage d’étendre au secteur privé certaines obligations, notamment de transparence, imposées dans l’Executive Order on Safe, Secure, and Trustworthy Artificial Intelligence, d’octobre 2023.

La transparence est enfin consubstantielle à la politique de gestion des risques. Elle est le socle d’une auditabilité souhaitable des SIA et la seule réponse à l’asymétrie d’information susceptible de paralyser l’action des autorités et aussi des juridictions. Elle est dès lors la condition de l’exercice d’un droit ou de preuve du dommage. L’opacité et ses conséquences dysfonctionnelles sur les marchés numériques web et mobile ont d’ailleurs inspiré le législateur européen lorsqu’il a conçu puis adopté le DMA imposant un rééquilibrage des relations contractuelles, de la transparence, de la circulation des données y compris personnelles et de l’interopérabilité. Sans obligation de transparence via le partage des données et l’interopérabilité, ce sont les opérateurs mondiaux déjà puissants, verticalement et congloméralement intégrés, qui captent l’innovation, soit en l’internalisant, soit en la neutralisant. Ce risque avait été souligné par un rapport publié par l’Inspection générale des finances sur le marché de la publicité en ligne dès novembre 202030, qui pointait la triple asymétrie de pouvoir, de contrainte et d’information que subissent tous les acteurs de l’économie qui dépendent des grandes plateformes numériques. C’est la seule opportunité ouverte à ceux qui ne disposent ni d’une capacité de calcul suffisante, ni de la masse de données équivalentes à celles dont disposent les plus grands acteurs, ni non plus de la maîtrise des équipements ou des micropuces.

L’IA irrigue tous les secteurs de l’économie numérique. La création d’un écosystème européen ne devrait donc pas échapper à une régulation assumée, cohérente avec le principe de transparence qui transcende les différents textes européens. Le marché pourra aussi bénéficier de la flexibilité des règles de concurrence européenne, dont la mise en œuvre par les autorités et les victimes doit continuer d’être forte

2. La sauvegarde d’un écosystème compétitif

S’il existe une multitude de startups travaillant à travers le monde à l’élaboration d’IA, seul un nombre restreint d’entreprises détient les clés de son industrialisation (correspondant schématiquement aux phases TRL (Technology Readiness Levels ou échelle de maturité technologique pour l’IA)31 7 et 8 : la maîtrise de l’équipement, l’entraînement avec une masse de données gigantesque et une puissance de calcul suffisants pour qu’elle produise des résultats concurrentiellement performants . OpenAI s’est adossée à Microsoft, MistralAI à Google ; Google développe ses outils tels que SGE (Search Generated Experience, la recherche boostée à l’IA32) ; Apple a notamment développé sa propre puce.

Cette structure de marché – un oligopole et une multitude de startups – est bien connue des autorités de concurrence qui ont eu à sanctionner diverses pratiques notamment au sein des écosystèmes web et applicatifs – ventes liées, auto-préférence, contournement de la loi (droits voisins) ou violation de la loi (RGPD), application opaque de conditions non objectives, non transparentes, inéquitables, voire discriminatoires.

Le développement d’un écosystème européen compétitif dépendra donc d’une régulation appropriée complétée d’un traitement efficace des risques concurrentiels par les autorités de concurrence (A), mais encore des moyens de lutter contre la faute concurrentielle lucrative (B).

A. La sanction des comportements anticoncurrentiels

Dans un tel contexte, la régulation spéciale ne peut à elle seule prévenir ou résoudre tous les risques concurrentiels. C’est dans cette perspective que le droit de la concurrence a naturellement vocation à intervenir – ex ante via le contrôle des concentrations, ex post via l’interdiction des pratiques anticoncurrentielles, l’abus de dépendance économique ou encore le droit des pratiques restrictives en France.

Les risques concurrentiels posés par l’IA font actuellement l’objet d’une consultation publique lancée le 9 janvier 202439 par la Commission européenne qui veut en comprendre l’étendue et la portée. L’Autorité française de la concurrence devrait prendre part à ce tournant en continuant d’occuper un rôle moteur et déterminant à travers ses enquêtes sectorielles (publicité en ligne, algorithmes, cloud) et les outils procéduraux à sa disposition, en particulier les mesures conservatoires. L’IA s’inscrit en effet dans une temporalité extrêmement courte, tandis que l’amplitude des effets anticoncurrentiels en jeu est démultipliée et potentiellement irrémédiable.

Lorsque l’IA est utilisée par un opérateur dominant et contribue par son objet ou ses effets à distordre le fonctionnement d’un ou plusieurs marchés, en créant ou renforçant sa position dominante, et/ou en accentuant la dépendance économique d’opérateurs qui l’utilisent ou dont les contenus sont dépendants des réponses et services fournis par l’IA, cela peut être constitutif d’un abus de position dominante en droit français et européen de la concurrence, voire d’un abus de dépendance économique ou de pratiques restrictives en France. Sur le plan des marchés pertinents, pour examiner la position des acteurs de l’IA, outre les marchés de la technologie elle-même qui se situent à l’amont, l’Autorité de la concurrence avait déjà identifié la possibilité d’un usage dual dans une décision datant de 201940 où elle analyse les marchés mettant en jeu de l’IA comme un service (IA as A Service « IAAS » comme les agents conversationnels ou la production de contenus) et l’IA faisant partie intégrante d’un service existant (IA as Part of a Service, IAPS comme la recherche ou la publicité en ligne « boostée » par l’IA) qu’elle modifie.

L’IA générative irrigue en effet des services existants dont elle bouscule le fonctionnement – la recherche en ligne, la publicité en ligne, la productivité, la représentation, le commerce en ligne. C’est le cas précisément de l’intégration dans le moteur Bing de la technologie développée par OpenAI, ou plus récemment de la dénommée Search Generated Experience (SGE) déployée par Google dans plusieurs pays et qui vient déjà de faire l’objet d’une première class action par une éditrice de presse américaine. L’IA transforme dans ce cas le moteur de recherche en moteur de résultat, rendant ainsi impropre ou moins probable, l’obtention par un utilisateur d’une réponse ou d’une information sur le site d’un éditeur de site ou d’application puisque le moteur lui fournit la réponse.

Au-delà de l’abus, l’IA peut également être utilisée au service d’ententes anticoncurrentielles entre opérateurs économiques dominants ou non, dans le cadre de participations minoritaires croisées ou encore au sein d’associations professionnelles. L’un des domaines les plus sensibles à surveiller à cet égard par les autorités de concurrence est celui des associations émergentes ayant vocation à en déterminer les standards afin que les processus de normalisation et de définition des standards de l’IA ne servent pas les intérêts d’un petit nombre d’opérateurs – éventuellement déjà dominants – qui en contrôlent ainsi l’accès et l’utilisation. La pratique décisionnelle des autorités de concurrence européennes sur ce terrain s’est développée dans des industries traditionnelles, mais les principes dégagés trouvent pleinement à s’appliquer dans l’environnement numérique.

L’adossement de startups et la consolidation du secteur via des accords de partenariats exclusifs sont également de nature à tomber sous les fourches caudines des autorités de concurrence européennes. À périmètre juridique constant, il y a lieu de se réapproprier le contrôle des concentrations par voie de partenariat commercial et contractuel. Le partenariat conclu entre OpenAI et Microsoft a jusque-là échappé au contrôle des concentrations, mais l’Autorité allemande de concurrence a indiqué qu’il pourrait constituer une concentration par le biais d’une prise de contrôle contractuelle même si les seuils en chiffre d’affaires allemand n’étaient pas franchis jusque-là. L’Autorité britannique de concurrence vient d’ouvrir une enquête. La Commission européenne aurait aussi ouvert une enquête préliminaire pour déterminer si ce partenariat constitue une concentration, notifiable le cas échéant. À cet égard, on peut raisonnablement considérer l’opportunité d’user du mécanisme de l’article  22 du règlement sur les concentrations  pour contrôler des acquisitions (actuellement massives) de startups dans le domaine de l’IA et leur potentiel congloméral. L’entrée en vigueur pleine et effective des obligations d’information résultant du DMA pour les opérateurs désignés contrôleurs d’accès (gatekeepers) devrait permettre à la Commission européenne d’être informée des acquisitions faites par ces opérateurs a minima.

Au-delà d’un traitement efficace des risques concurrentiels par les autorités de concurrence, la qualité du marché dépend aussi des moyens de lutter contre la faute concurrentielle lucrative.

B. - La lutte contre la faute concurrentielle lucrative

En l’état du droit et de sa mise en œuvre, les opérateurs les plus puissants qui détiennent les clefs de l’industrialisation de l’IA sont à même d’arbitrer entre le respect de la loi et le prix de son non-respect, au détriment des opérateurs qui utilisent leurs outils et en dépendent même pour fournir leurs propres contenus, produits ou services en ligne.

L’acte I de l’affaire des droits voisins des éditeurs de presse en ligne en France en apporte rétrospectivement une éclairante illustration. Tandis que les éditeurs de presse en ligne ne parvenaient pas à négocier collectivement ou individuellement une rémunération de leurs droits voisins par Google, notamment dans des conditions équitables, transparentes, objectives et non discriminatoires, ce qui les a conduits à saisir l’Autorité française de la concurrence en urgence, la sanction de 500 millions d’euros infligée par l’Autorité à Google pour non-respect des injonctions a été réglée sans difficulté. D’après les sources publiques disponibles45, il est évalué que les éditeurs de presse en ligne français auraient perçu 50 millions d’euros entre 2019 et 2023 pour rémunérer ce droit voisin soit l’équivalent de 10 % du montant de l’amende réglée par Google du seul fait du non respect de l’injonction prononcée par l’Autorité de la concurrence de négocier de bonne foi avec les éditeurs. Cet opérateur économique serait-il donc prêt à payer un prix dix fois plus élevé pour ne pas avoir respecté la loi que pour le respect de celle-ci ?

Cette illustration fait largement écho aux déclarations publiques de Microsoft tendant à garantir financièrement les utilisateurs contre les actions en contrefaçon dont ils seraient l’objet à raison de leur utilisation de l’IA. Depuis la plainte déposée par le New York Times contre OpenAI, les opérateurs structurants de l’IA semblent suivre des stratégies différenciées. Certains, comme Apple, auraient commencé des négociations avec des éditeurs en vue de leur rémunération; OpenAI offrirait désormais lui aussi cette possibilité ; d’autres continueraient de s’inscrire dans une logique de faute lucrative ; d’autres encore, après avoir dénié l’applicabilité du droit d’auteur, s’inquiètent des exclusivités accordées qui pourraient fermer le marché de la donnée… Preuve que la donnée culturelle (œuvres, information), donnée de haute qualité, est indispensable à l’entraînement des IA génératives

Quoi qu’il en soit, dans un État de droit, il n’est pas acceptable que la faute concurrentielle soit lucrative. Sans compter qu’il est probable que de nombreux acteurs n’ignoraient pas le risque juridique. Si les sanctions en droit de la concurrence peuvent atteindre des niveaux records, la sanction d’un comportement ne répare pas les préjudices subis par les opérateurs, notamment pour les atteintes passées portées via l’entraînement de l’IA, pas plus que les atteintes à venir qui découlent nécessairement de ces entraînements indus ou encore celles résultant de la dégradation des conditions concurrentielles en termes de visibilité des contenus.

Pour lutter contre ces incitations contra legem, où la violation de la loi vaut mieux que son respect, il faut favoriser la culture de la réparation par les victimes de ces pratiques. Réclamer réparation est accessible au plus grand nombre, mais le législateur peut améliorer la situation des plaideurs sur le plan procédural, en rationalisant les actions de groupe pour permettre qu’elles soient menées par des associations professionnelles, ou encore via des mécanismes de présomption renversant la charge de la preuve. Le Sénat examine actuellement une proposition de loi favorisant une rationalisation et un renforcement des mécanismes d’actions de groupe en France. Une telle réforme est non seulement utile, mais elle est aussi nécessaire compte tenu de l’ampleur des usages de l’IA, sa capacité à porter atteinte à des millions d’opérateurs, des écosystèmes entiers, des milliards de contenus dans un temps record, et dans une totale asymétrie d’information avec les victimes.

Le programme d'Intelligence Artificielle Lexis+ AI Insider

Avec le Programme AI Insider de LexisNexis, plongez au cœur de l'innovation en matière d'intelligence artificielle appliquée au domaine juridique. En tant que membre privilégié, vous serez parmi les premiers informés de nos dernières découvertes, développements, et solutions IA qui révolutionnent le paysage juridique. Rejoignez notre programme Lexis+AI Insider et recevez tous les mois une newsletter exclusive .

porgramme intelligence artificielle juridique

Photo by Michael Dziedzic on Unsplash

Articles associés