Le développement de l’intelligence artificielle (IA) s’accélère, mais le droit positif est-il adapté ? Pour tenter de répondre à cette question, le Club des juristes a confronté l’analyse de différents experts lors d’un débat organisé le 12 octobre dernier.
«Si l’IA devient incontrôlable, elle sera difficile à retenir. Il faut s’assurer que les règles éthiques et sécuritaires soient respectées lors de son élaboration.» Ce message porté par Stephen Hawking illustre les inquiétudes soulevées par l’IA. Ce physicien est d’ailleurs l’un des 115 signataires, avec Elon Musk, le président de Tesla et de Space X, de la lettre ouverte à l’ONU de mise en garde de l’humanité contre l’IA, publiée en août 2017, dans laquelle ils demandent aux gouvernements d’interdire les armes autonomes pouvant se retourner contre les humains. Ces experts ne sont pas les seuls à craindre l’IA. En effet, un sondage de l’Ifop, dévoilé le 10 octobre, révèle que bien que 69 % des Français se déclarent intéressés par le sujet de l’IA, plus de deux tiers des sondés (64 %) se disent inquiets de son développement.
Un droit satisfaisant pour les juristes
Les progrès techniques en matière d’IA posent la question de la régulation. A ce sujet, deux points de vue s’opposent : considérer que le droit en vigueur permet de répondre aux problématiques juridiques soulevées par l’IA, auquel cas il n’est pas nécessaire de se presser dans l’innovation juridique, ou estimer que la particularité de la situation nécessite un nouveau corpus de textes. Florence Chafiol, associé d’August Debouzy, penche plutôt pour la première option. Par exemple, en cas de défaut ou de défaillance de la machine, les régimes de responsabilité du fait des produits défectueux, du fait des animaux, du fait d’autrui, ou du fait des choses, pourraient s’appliquer. «Avec la législation actuelle, nous pouvons considérer que le propriétaire de la machine est responsable de tout ce qu’elle fait, même si elle échappe à son contrôle, précise Florence Chafiol. La difficulté réside dans le partage de responsabilité entre le fabricant de la partie physique du robot, le concepteur de l’IA, son propriétaire et, s’il est distinct, l’utilisateur qui a éduqué la machine.» Toutefois, Florence Chafiol n’exclut pas, à terme, une évolution législative liée au développement de ces technologies. La réglementation peut également suivre une approche sectorielle. Selon Winston Maxwell, associé d’Hogan Lovells, il est préférable d’analyser les usages, par exemple avec des études d’impact, et de ne réguler qu’en cas de nécessité, comme avec la loi du 17 août 2015, dite «LTECV», comprenant des dispositions relatives aux voitures autonomes.
La nécessité d’encadrer la conception
Laurence Devillers, chercheuse au CNRS, souhaite, quant à elle, alerter sur les risques liés à la conception de l’IA. D’une part, les algorithmes reproduisent les biais (erreurs de conception) des données qu’ils traitent, en particulier toutes les discriminations connues dans nos sociétés. Par exemple, le chatbot (robot conversationnel) Tay lancé par Microsoft, qui devait apprendre en dialoguant avec les internautes, postait moins de vingt-quatre heures après son arrivée sur Twitter des tweets racistes et pro-nazis. Cette chercheuse souligne, par ailleurs, que les algorithmes d’apprentissage automatique posent un problème d’opacité, empêchant de savoir comment la machine a pris une décision. Enfin, elle rappelle que ces algorithmes peuvent parfois manipuler les consommateurs en sélectionnant des informations de nature à changer leur perception sur certains sujets. «Il est donc nécessaire de définir des garde-fous juridiques, mais également des règles éthiques, dès le stade de la conception de ces programmes, et d’instaurer un contrôle de leur application», appuie la chercheuse.
La France et l’Europe à la traîne
Les intervenants ont, par ailleurs, rappelé que l’essentiel des technologies de l’IA sont créées en dehors de l’Europe. «L’Union européenne pourrait avoir un avantage concurrentiel si elle labélisait, certifiait les machines avec des critères qui respectent les droits fondamentaux», souligne Franca Salis-Madinier, secrétaire nationale de la CFDT cadres et membre du Conseil économique et social européen. Pour rattraper ce retard européen, Marc Mossé, senior director government affairs, associate general counsel Microsoft EMEA, penche de son côté pour une aide financière européenne et le développement de partenariats internationaux avec des acteurs de la Silicon Valley, ce qui permettrait peut-être aussi de limiter la fuite des cerveaux. Eric Bothorel, député LREM de la cinquième circonscription des Côtes-d’Armor, souhaite également promouvoir le capital-risque, via la mise en place d’incitatifs financiers permettant aux fonds d’investissement de s’intéresser un peu plus à ces technologies. Enfin, au-delà de l’encadrement législatif et éthique, le développement de l’IA nécessite un important effort éducatif : «La formation initiale et continue des travailleurs permettra de lever la contrainte d’acceptabilité sociale de l’IA», note Amal Taleb, vice-présidente du Conseil national du numérique.