Dans la recherche en IA, "ne surtout pas imposer le battage médiatique à la place du débat scientifique"

May Sa, 2023 Isabelle Ryl

RPPI : Quels sont les défis de votre Institut dans les 5 années à venir pour accompagner la transformation numérique ?


Isabelle Ryl : La stratégie nationale pour l'intelligence artificielle française a été dévoilée par le président de la République Emmanuel Macron le 29 mars 2018 lors du colloque « AI for Humanity » au Collège de France (V. dans ce numéro, G. Avrin, Une stratégie nationale pour soutenir la diffusion de l'intelligence artificielle dans l'économie : RPPI 2023, focus 1). Un pan
important de cette stratégie concerne la recherche et l'une des premières actions en la matière a été la création des Instituts interdisciplinaires d'intelligence artificielle (3IA) recommandés dans le rapport de Cédric Villani (Donner un sens à l'intelligence artificielle, 28 mars 2018), dont PRAIRIE est l'incarnation parisienne.

Un institut 3IA est avant tout un institut de recherche, dont le cœur est constitué de chercheurs de différents domaines (46 titulaires de chaires entourés de leurs doctorants et postdoctorants dans le cas de PRAIRIE), spécialistes de l'IA avec des champs d'application diversifiés. Le premier défi de l'Institut est donc d'attirer et de garder les meilleurs chercheurs de leur domaine et de leur fournir l'environnement nécessaire pour développer leurs travaux de recherche. En effet, l'innovation s'appuie très souvent directement, et notamment en matière de Deep Tech, sur les avancées obtenues dans les laboratoires de recherche. Dans un secteur où la compétition est mondiale et où la France a un rôle à jouer sans pour autant être le leader, développer le potentiel d'innovation est essentiel : la recherche est la matière première ! Ensuite il faut évidemment établir des ponts avec les acteurs économiques et informer le grand public, les jeunes parce qu'ils sont le vivier des innovateurs de demain, et l'ensemble de la population pour désacraliser et expliquer les nouveautés technologiques.

Accompagner la transformation numérique des secteurs d'activité, et de la société en général, consiste donc à mettre à disposition de nouvelles connaissances et à permettre à tout un chacun, entreprise ou usager, de se les approprier. L'IA est un domaine dans lequel les temps de transfert sont très courts et les applications d'une avancée multiples. Par exemple, lorsqu'un chercheur trouve de nouveaux algorithmes améliorant la prédiction de mouvements de personnes dans une vidéo, ceux-ci pourront être utilisés pour aider à la prise de décision dans le cadre de la conduite d'un véhicule autonome ou pour anticiper les mouvements de personnes aux abords d'un stade. Les directions de recherche actuelles sont nombreuses, par exemple :

  • l'amélioration des algorithmes d'apprentissage eux-mêmes – comment les rendre plus performants, comment utiliser moins de données pour les entraîner (avec le développement de l'apprentissage auto-supervisé par exemple), moins de paramètres dans les modèles pour gagner en temps de développement, en consommation énergétique et donc en coûts financiers
  • l'explicabilité et la transparence, la fiabilité – comment être capable d'expliquer les raisons qui ont conduit à une recommandation ou une prise de décision, comment certifier un certain taux de réussite ?
    Des avancées sur ces questions irriguent potentiellement l'ensemble des domaines d'application qui utilisent de l'apprentissage.

CTA Lexis PolyOffice


RPPI : Que désigne-t-on par intelligence artificielle ?


I. R. : Le terme désigne en général la capacité d'une « machine » à reproduire des comportements humains de raisonnement et de perception. D'un point de vue plus technique, le domaine de l'intelligence artificielle est constitué d'un ensemble de sous domaines : l'apprentissage machine bien entendu, l'optimisation, la théorie des jeux, l'IA symbolique, le traitement automatique des langues, la vision artificielle, la robotique... L'ère de l'IA que nous vivons actuellement a débuté en 2012, lorsque le Deep Learning a permis d'améliorer considérablement l'état de l'art de la reconnaissance d'images et que les succès se sont poursuivis et étendus à d'autres domaines.


RPPI : Avec ChatGPT, l'agent conversationnel lancé par OpenAI, faisons-nous face à une évolution ou à une révolution ?


I. R. : La série des « GPT » sont de « très gros » modèles de langue (LMM pour Large Language Model ou modèle de langue de grande taille), multilingues, avec 175 milliards de paramètres pour GPT-3 et un nombre probablement beaucoup plus grand pour GPT-4 même si celui-ci n'a pas été dévoilé. Ces modèles s'inscrivent dans la lignée des évolutions qu'a connu le traitement automatique des langues dans les dernières années, en ce sens ils ne représentent donc pas une révolution et n'ont pas surpris les spécialistes. La sortie de ChatGPT a en revanche fortement marqué les esprits en raison de sa mise à disposition du grand public et de son interface de dialogue particulièrement performante. L'existence d'un tel outil interroge sur la pertinence de continuer à confier certaines tâches à des humains, dans des domaines qui se pensaient jusque-là à l'abri des transformations, et, comme chaque fois qu'une technologie émerge, pose la question des risques pour l'emploi. L'engouement est réel, tous les secteurs se posent la question de l'application de l'IA mais il faudra encore attendre un peu pour en voir les réels effets.


RPPI : Quels sont les secteurs dans lesquels l'IA est la plus utilisée et quels métiers vont être amenés à connaître une transformation rapide ?


I. R. : Aujourd'hui l'IA est un outil au service des autres sciences et peut apporter des améliorations dans quasi tous les secteurs. Toutes les activités qui nécessitent l'analyse de grandes masses de données peuvent connaître des automatisations par l'IA, des optimisations importantes peuvent être réalisées dans les activités logistiques, le secteur de la santé a connu de nombreux succès, en imagerie médicale par exemple. La liste des possibilités ne s'arrête pas là, des secteurs industriels beaucoup moins connus du grand public sont également touchés avec par exemple l'automatisation des contrôles qualité en fin de chaîne de montage par vision artificielle ou encore l'accélération de découverte de nouveaux matériaux. Plus récemment, les avancées de l'IA générative laissent imaginer des percées dans des domaines considérés comme plus « créatifs » ou demandant une « compréhension » plus globale des sujets. Il ne s'agit pas que de créer une peinture ressemblant à une oeuvre d'art, des tâches plus systématiques comme le résumé de texte posaient jusqu'à récemment des problèmes à l'IA et sont relativement bien maîtrisées par ChatGPT.

CTA Lexis 360


RPPI : Plutôt qu'une IA qui « menacerait » l'intelligence humaine, c'est l'interaction humain/machine qui doit être recherchée ?


I. R. : L'IA reste un formidable outil pour peu qu'elle soit bien utilisée. Tout d'abord, il est indispensable que chaque personne amenée à l'utiliser soit consciente de ses possibilités mais aussi de ses limites. L'apprentissage le plus répandu aujourd'hui reste statistique, or, nous avons une fâcheuse tendance à considérer que quelque chose qui est juste à 99 % est juste, ce qui est totalement faux et peut avoir des conséquences dramatiques. L'IA n'est pas « dangereuse » ou « imprévisible », par contre l'IA est programmée par des humains, entrainée sur des données choisies par des humains, sa conception n'est pas protégée des erreurs humaines et l'utilisateur doit garder son sens critique et son esprit d'analyse face aux résultats qui lui sont proposés. Le deuxième point de vigilance me semble l'utilisation que l'on souhaite faire de l'IA en termes plus macroscopiques, de choix de société. La gestion de la transformation des métiers ou encore la diffusion des différents outils au sein des foyers peuvent apporter des améliorations significatives au collectif pour peu qu'elles soient faites avec bienveillance.


RPPI : Dans une lettre du 28 mars, un millier d'experts réclament de « mettre en pause » l'avancée des recherches en IA, en particulier pour les systèmes plus puissants que GPT-4. Qu'en pensez-vous ?


I. R. : Qu'il faut raison garder, ne se précipiter ni dans une direction, ni dans l'autre et ne surtout pas imposer le battage médiatique à la place du débat scientifique. Nous sommes très loin d'un « danger » de « prise de contrôle » de l'humanité par on ne sait quoi, en revanche les conséquences d'un emploi inapproprié de ces outils peuvent être à la mesure de leur puissance. Il faut donc clairement prévenir les usages pour contrer les risques de désinformation, uniformisation, etc. mais aussi assurer la protection des données : je ne serais pas choquée qu'une entreprise interdise dès à présent l'usage d'outils comme ChatGPT pour la traduction ou toute autre activité qui implique de fournir des données de l'entreprise à l'outil. Par contre, il me semble qu'il faut d'autant plus se donner les moyens de comprendre ces modèles et de mieux les contrôler et donc de ne surtout pas freiner les activités scientifiques. Un effet de bord d'un arrêt des recherches sur le sujet serait également d'entériner le fait que seuls ceux qui disposent de la technologie aujourd'hui la possèderont à l'avenir.

RPPI : Dans ces domaines où en sont la France et l'Europe ?


I. R. : La recherche européenne en intelligence artificielle en général est compétitive. Dans le domaine du traitement automatique des langues, et de tout ce qui entoure ChatGPT, il ne faut pas confondre les connaissances et les moyens d'ingénierie. La réussite de ChatGPT vient probablement de la qualité de son modèle mais sans aucun doute des investissements pour le réaliser, en termes de masse de données mais aussi d'accès à des données non publiques, de ressources de calcul disponibles mais aussi de temps humain pour entraîner l'interface de dialogue et lui apprendre à éviter les écueils de sujets sensibles. Un consortium international de chercheurs a récemment publié BLOOM, un modèle de langue de taille comparable à GPT-3. Le consortium prend un point de vue diamétralement opposé à celui d'OpenAI puisqu'il s'agit d'un projet « open science », à disposition de la communauté, réalisé en particulier grâce au soutien du ministère de l'Enseignement supérieur et de la Recherche français via l'accès au supercalculateur public Jean Zay. BLOOM a 176 milliards de paramètres et sa mise au point a nécessité l'équivalent de 5 millions d'heures de calcul : s'il est moins performant que GPT-3, il s'aligne dans la même catégorie et a permis de démontrer l'existence d'alternatives à l'utilisation de quelques modèles « fermés » propriétés exclusives de grands groupes.


RPPI : Dans un rapport d'évaluation du 3 avril, la Cour des comptes estime que la stratégie nationale pour l'IA n'a pas encore produit ses effets et que les instituts 3IA sont « à structurer » et « à pérenniser », comment réagissez-vous ?


I. R. : La recommandation qui concerne les 3IA est de « Préciser les missions respectives des centres d'excellence 3IA et hors 3IA, et clarifier en conséquence les financements pluriannuels qui leur sont alloués (MESR, SGPI) ». La Première ministre, Élisabeth Borne, a indiqué dans sa réponse : « Le MESR et le ministère chargé du Numérique travaillent aux suites à donner au réseau 3IA, dans une logique de pérennisation et de renforcement » (AEF, dépêche, 7 avr. 2023). Nous ne pouvons que nous réjouir de cette déclaration. Les résultats de la recherche se mesurent sur le temps long et l'impact de nouvelles structures également. Comme l'a noté la Cour des comptes dans son rapport en regard de ses remarques, les 3IA sont récents, ils ont été créés fin 2019 et ont subi de plein fouet la crise sanitaire, fin 2021 – fin de la période considérée pour le rapport – ils avaient à peine connu une année pleine de développement sans obstacles (« L'identification des 3IA sur la scène internationale reste encore faible, et inégale selon les instituts. Il est vrai que leur labellisation est récente. La crise sanitaire a de son côté contribué à mettre un coup d'arrêt à la mise en place des coopérations »), L'ensemble des activités de recherche et d'enseignement ont atteint leur vitesse de croisière en 2022 et nous avons pu développer les aspects structurants dans tous les domaines, pour citer un exemple en recherche un groupe de travail « bioimagerie médicale » réunit une vingtaine de chaires des différents 3IA et a abouti à des publications communes, une tribune, un colloque et par exemple sur le volet formation une réponse commune à l'appel « Compétences et métiers d'avenir – IA » a été proposée, et retenue, et pourra servir de base de discussion nationale structurée de l'effort pour répondre aux besoins de formation en IA. Cet essor se poursuit en 2023. Comme l'a également noté la Cour, la durée initiale de 4 ans est assez courte pour de tels objets, en particulier dans les relations avec les partenaires industriels qui soutiennent pleinement les 3IA depuis leur création (« La temporalité de 4 ans est courte au regard de la durée nécessaire à l'apparition de résultats dans le secteur de la recherche en IA. À l'approche de l'échéance de l'année 2022, l'absence de certitudes sur le maintien de ces centres et de leurs financements publics a pu limiter leur capacité à démarcher de nouveaux financeurs privés sans qu'il soit possible de chiffrer ce phénomène »). En comparaison, les centres allemands ont bénéficié d'une première période de 7 ans et de financements plus importants (« Chaque centre recevra entre 8,5 et 12,5 M³ par an en fonction de sa taille, pour un budget total de 50M³ de la part de l'État fédéral »). Nous sommes donc dans l'attente des arbitrages à venir sur la pérennisation des 3IA afin de capitaliser sur les succès des 4 premières années et de déployer de nouveaux programmes permettant de les inscrire définitivement sur la carte internationale des grands acteurs de l'IA en recherche et en formation.


RPPI : Dans le domaine de la justice, l'IA suscite également promesses et craintes : quels sont les risques d'une utilisation de plus en plus massive de l'IA ?


I. R. : Là encore, l'IA peut d'abord être vue comme un outil plus puissant que les outils utilisés jusque-là, par exemple pour accélérer la recherche de textes ou de jurisprudence. D'autres applications soulèvent plus de questions. L'utilisation de la justice prédictive par exemple ramènerait l'IA à un moyen de reproduire à peu de frais ce qui a été fait par le passé, avec les mêmes biais et les mêmes erreurs. Ne souhaite-t-on introduire de nouvelles technologies qu'à cet effet ? Par ailleurs, la justice fait partie des domaines sensibles dans lesquels les critères d'explicabilité, de transparence et de fiabilité sont nécessaires, propriétés qu'il est aujourd'hui encore difficile d'établir pour les algorithmes à base d'apprentissage en général et pour les grands modèles en particulier.


RPPI : Comment parvenir à clarifier ces critères d'explicabilité, de transparence et de fiabilité des systèmes d'IA ?


I. R. : Nous avons encore besoin de progrès scientifiques pour comprendre le fonctionnement intrinsèque de ces systèmes et de progrès techniques pour développer les outils permettant d'établir les propriétés d'explicabilité, transparence, fiabilité : ce sont des sujets très difficiles dans lesquels la recherche avance, mais pour lesquels la route est encore longue. La gouvernance, la régulation sont nécessaires mais il existera toujours des tentatives de contournement des règles : si les contenus créés par les IA doivent être identifiables par des marques spécifiques, des tentatives de falsification des marquages émergeront comme dans le domaine de la contrefaçon par exemple, aussi est-il nécessaire de posséder les outils permettant la validation du comportement des systèmes ou encore la vérification des marques.


RPPI : L'IA pourrait-elle jouer le rôle d'avocat ?


I. R. : L'IA pourrait sûrement « jouer le rôle » d'un avocat (Ndlr : c'est ce qu'a tenté la start-up DoNotPay aux États-Unis, aujourd- 'hui poursuivie en justice pour exercice illégal et concurrence déloyale), au sens premier du terme avec plus ou moins de succès selon les circonstances et en particulier selon le type système juridique en vigueur : la common law est un droit basé sur la jurisprudence dans lequel la recherche documentaire, activité bien adaptée à une automatisation, tient une place importante alors que le droit Français est basé sur la démonstration et le débat contradictoire. Par ailleurs, rappelons là encore que l'IA n'est pas fiable à 100 %. Se poseront donc les mêmes questions d'acceptabilité que pour le remplacement d'êtres humains dans d'autres activités sensibles : malgré le nombre important d'accidents autoroutiers provoqués aujourd'hui par des erreurs ou imprudences humaines, il n'est pas acceptable pour le public de voir un accident mortel provoqué par un véhicule autonome. Il est probable que les avocats humains ne sont pas plus infaillibles que les conducteurs, mais qui accepterait de mettre sa liberté entre les mains d'une machine pouvant se tromper ? La Chine avait déjà testé une « IA procureur » fin 2021, et a annoncé le déploiement dans les années à venir d'outils d'aide à la décision à base d'IA dans tous les tribunaux, mais là encore en laissant au juge humain la décision finale. Malgré les progrès impressionnants des 10 dernières années, l'IA reste une technologie en plein développement, des verrous technologiques subsistent, mais au-delà de ceux-ci, il ne faut pas en précipiter l'application à tous les domaines sans un minimum de réflexion sur l'impact en termes de modèle de société que nous voulons créer.


Propos recueillis par Florence Creux-Thomas


Cet article a été initialement publié dans la Revue Pratique de la prospective et de l'Innovation - N° 1 Mai 2023


Articles associés