Hervé Causse est enseignant-chercheur en droit à l’Université Clermont-Auvergne. Il vient de publier un essai « Le droit sous le règne de l’intelligence artificielle« . Passionné depuis toujours par l’innovation et la créativité, il décortique, pour le Connecteur, les avancées en matière de réglementations de l’Intelligence Artificielle en France, en Europe et dans le monde.
Hervé Causse, vous avez rédigé un essai sur l’IA et le droit (accessible en ligne sur HAL). Avant de nous pencher sur ce sujet technique et passionnant, on aimerait en savoir un peu plus sur votre parcours.
Je suis originaire de Montpellier, j’y ai fait mes études de droit et j’y suis resté jusqu’à ma thèse. En fait, je pense que depuis mon enfance, j’ai cultivé un attrait pour la liberté, et que c’est ce qui a orienté mes études de droit.
Je ne me suis jamais fait d’illusion sur les libertés publiques qui impliquent aussi l’ordre public. Pour moi, la liberté, la créativité est du côté des personnes et des entreprises qui proposent des biens et des services utiles à l’humain. C’est sans doute ce goût pour la liberté que je me suis spécialisé dans le droit des affaires. J’ai un côté libéral, même si j’ai appartenu quelques années au Parti radical de gauche (parti de centre gauche).
Après vos études de droit, vous vous êtes spécialisé dans le droit des affaires, pourquoi ?
Quand j’ai terminé mes études dans les années 80, je me suis intéressé à l’ouverture du moment qui concernait les marchés financiers. C’était une période de bouillonnement où tout semblait possible et envisageable. Et ceci était notamment rendu possible par l’innovation technologique, les transactions boursières dématérialisées, l’argent qui circule dans les réseaux informatiques. Finalement, je suis un peu déçu par le chemin qui a été choisi à ce moment-là. On pensait notamment et l’Union européenne le souhaitait, éviter les monopoles. On imaginait que des petites bourses locales émergeraient, que l’on assisterait à une véritable diversification, c’est l’inverse qui est arrivé. Aujourd’hui, toutes les bourses sont ultra concentrées. C’est ce qui du reste fait courir un risque à l’économie mondiale en cas de problème – dont ceux informatiques ou technologiques.
J’ai pratiqué le Barreau au début de ma carrière d’enseignant-chercheur mais j’ai souhaité me concentrer sur la recherche, l’écriture et l’enseignement. Je suis professeur d’université (depuis de longues années…) à l’Université Clermont Auvergne.
Pourquoi avoir rédigé un essai sur l’IA et sa réglementation ?
Comme je viens de le dire, l’innovation m’a bercé avec les affaires de banque et de pure finance. Pendant mon parcours professionnel, j’ai périodiquement écrit sur ces sujets-là. Je me suis donc lancé sans rester sur le terrain déjà riche du droit des affaires. L’IA m’a rénové et réservé de belles surprises. Pour moi, l’IA ne fait que reproduire des difficultés que l’on a toujours connues face à des technologies nouvelles.
Sur le plan juridique, quand une innovation émerge, on assiste en général au même processus pour l’encadrer. Les premiers à s’interroger juridiquement sur une nouvelle technologie, ce sont les juristes d’entreprises. Juste après eux, les praticiens indépendants doivent rédiger les contrats pour que des transactions puissent être réalisées sur le nouvel objet ou service. On retrouve également les juristes administrateurs qui officient à Bruxelles. De leur côté, ils apportent souvent des vues très nouvelles. Et les fameux administrateurs français (on dit les énarques…). Les lois proposées restent cependant générales.
Aujourd’hui, est-ce que l’IA figure dans la loi française ?
A ce jour, la seule référence à l’Intelligence Artificielle est dans la loi française qui régit les tests de voiture autonome. En effet, désormais, le « vrai » droit se fait à Bruxelles et c’est une approche par les risques. Ce que l’on cherche avant tout, c’est à protéger les individus et les entités. Mais faudrait-il bien savoir de quoi !
D’ici peu, Bruxelles devrait adopter la proposition du règlement sur l’Intelligence Artificielle de 2020. Il est composé de 60 articles. On y établit des catégories de systèmes d’Intelligence Artificielle. L’approche “système” permet de corriger la personnalisation de l’IA. Ce n’est pas l’IA qui se développe toute seule, ou qui crée des risques. Ce sont les humains qui déploient de nouveaux systèmes d’IA. De cette manière, lorsque l’on parle de risques et de responsabilité, les choses se précisent. Ce sont bien les individus qui sont concernés avant la technologie. Toute personne qui agit est responsable de son fait, de ses actes. Avec ou sans technologie. C’est un des principes de la vie juridique même s’il varie quelque peu d’un pays à l’autre. Pour ce qui est de la France, que vous maniez un couteau, un parapluie, un ordinateur ou une automobile, vous êtes de principe responsable de votre fait.
Est-ce que ce règlement européen sur l’IA mentionne les usages interdits?
Oui quelques-uns. Par exemple, les techniques de scoring ou notation sociale notamment publique qui serviraient ensuite à défavoriser la personne cible, ou bien la détection des visages (ou reconnaissance faciale) sont interdites, sauf pour des raisons de sécurité nationale ou internationale.
Je suis un peu en rupture avec cette approche juridique de la technologie essentiellement par le risque. Je pense que l’on joue à se faire peur et que le sujet n’est pas seulement là.
Avec la reconnaissance faciale, on regarde ce qui se passe en Chine et on le projette en Europe et on s’affole. Mais la Chine n’est pas l’Europe et inversement. En Chine, il y a une demande des élites de mettre en place un système de surveillance des individus. Aucun Etat n’entend faire cela en Europe. Je pense qu’il y a un décalage entre le discours juridique ou parfois politique et les menaces réelles immédiates.
Dernièrement, des experts ont demandé un moratoire sur l’IA pour mieux l’encadrer au niveau mondial. Qu’en pensez-vous ?
L’encadrement au niveau mondial est une utopie dans 99% des cas. Par exemple, avec la Convention de Paris, sur la question du climat, on a voulu ratifier un écrit au niveau mondial. Finalement, ces « accords », ne sont pas du droit pur, ce sont des recommandations et des orientations. Ils sont sans sanctions et tellement généraux qu’ils se révèlent inutiles.
Aujourd’hui, on ne sait pas faire de grands traités internationaux. On peut toujours en proposer, mais à la fin, seulement trente Etats le signeront et les entreprises iront là où il n’y a pas de réglementations pour les éviter. Par exemple, après la crise de 2008, on a constaté un besoin marqué sur la stabilité des banques, mais ce n’est pas allé plus loin, jamais personne n’a imaginé un traité international. Tout simplement parce que les pays n’arriveront jamais à s’entendre sur des termes obligatoires car, en vérité, ils n’ont pas les mêmes objectifs.
Alors, comment fait-on pour faire évoluer le cadre législatif au fur et à mesure du développement de nouvelles technologies, et ce, au niveau national et européen ?
On fait comme on peut ! Et souvent on peut mal. Par exemple pour l’IA, cela fait des années que les juristes et autorités publiques organisent des réunions et des colloques sur le sujet. Pourtant, aujourd’hui, avec l’IA de ChatGPT de OpenAI, on ne voit pas dans quelle catégorie de systèmes on peut la classer. Est-ce qu’il relève de la catégorie des IA à haut risque que l’on doit étroitement surveiller ?
J’ai le sentiment que les premières réglementations autour d’une innovation sont largement vaines. Cela ne signifie pas qu’elles sont inutiles, mais plutôt difficilement applicables, car l’innovation n’est pas encore stabilisée, pas plus que l’esprit des juristes. Néanmoins, ces premières réglementations proposent des références ou un cadre pour structurer l’esprit. Le droit n’est pas seulement une règle dure, c’est aussi et autant un repère psychologique, politique voire moral ou éthique.
Qu’en est-il de ce règlement européen autour de l’IA ? Est-il déjà obsolète ? Y a-t-il d’autres projets en cours ?
Le règlement pour l’IA qui va être adopté d’ici quelques semaines par l’Union Européenne, est une loi. Il faudra ensuite le transposer dans la législation de chaque pays. Pour autant, ce n’est que le début d’un processus en constante évolution. Cette version sera amendée d’ici trois ans. Une nouvelle proposition viendra la compléter voire la réécrire entièrement. Par ailleurs, deux autres projet sont proposés. L’une est une directive spécialement sur la responsabilité. L’autre devrait modifier un règlement de 1985 sur la responsabilité de produits défectueux. Il permettra d’inclure et d’harmoniser la responsabilité des producteurs d’intelligences artificielles.
C’est l’instant carte blanche, quelque chose à ajouter ?
Il me faut vous parler de la thèse que je présente dans mon essai. Je ne pense pas que l’IA va en profondeur et seulement changer l’économie, notre façon de travailler, et notre comportement en société. Cela est évident. Je constate que l’IA repose sur un langage qui traite tous les autres langages. C’est là qu’est la révolution. Les langages informatiques (qui tous réunis forment une sorte de langage informatique, au singulier) peuvent traiter les langues naturelles autant à l’écrit qu’à l’oral, mais aussi le langage des dessins. Il peut également appréhender la musique ou le langage mathématique. C’est une révolution aussi importante que le couple (écrite / imprimerie) qui, lui, a pris 20 000 ans. Je ne parle pas de la seule imprimerie, mais bien de l’écriture imprimée.
Et alors ?
Ce changement de paradigme devrait entraîner une restructuration des matières universitaires. Le chirurgien qui opèrera avec un système qu’il contrôle et supervise sera-t-il médecin ? Roboticien ou aussi informaticien pour savoir les limites de programmation ou d’apprentissage ? Par exemple, auparavant, de manière artisanale, un juriste pouvait pointer les redondances dans la législation française d’un mot ou une expression. Ensuite, on pouvait publier une analyse avec ces données. Avec des systèmes d’IA spécialisés en droit, nous allons pouvoir lui demander de rechercher la notion dans 50 000 textes normatifs et de calculer sa redondance sur 20 millions de pages. Ainsi, on peut s’interroger sur ce que devient ce travail du juriste. Est-ce encore du « faire du droit » ? N’est-ce plutôt de la sémiotique, de la linguistique ou de la statistique ?
L’IA réalise un choc épistémologique qui contraindra de redéfinir les disciplines scientifiques, ce qui en divisera certaines et en rapprochera d’autres. La facture à payer sera lourde dans quelques décennies pour les pays qui n’auront pas compris cela.