Comme tout un chacun, les administrations françaises s’intéressent de plus en plus à l’intelligence artificielle et aux possibilités qu’elle offre. Focus sur celle qui est en le plus adepte à ce jour : l’administration fiscale. Son utilisation accrue sera structurante pour les contrôles fiscaux de demain, mais cela ne pourra pas se faire sans respect des droits fondamentaux.
Pour l’heure, l’administration fiscale recourt de manière limitée à l’intelligence artificielle et très rarement dans le cadre des contrôles fiscaux. Son utilisation est nécessairement encadrée par une intervention humaine, seule autorisée à tirer des conséquences des résultats obtenus.
Une utilisation actuellement limitée
Selon un récent rapport sénatorial [1], les services fiscaux utilisent majoritairement l’intelligence artificielle pour un usage généraliste qui peut être qualifié d’« intelligence artificielle d’étagère ». Pour le moment, cela lui permet par exemple de traduire, de résumer ou de rédiger des textes. Dans le cadre de cette « intelligence artificielle d’étagère », la Direction générale des Finances publiques travaille au développement d’outils innovants. Il s’agit en particulier d’un outil de recherche juridique à destination de ses agents, dans le cadre du projet de « Transformation numérique du métier juridique », ainsi que d’un outil de réponses automatiques aux demandes basiques des contribuables, « E-contact », d’où, sans doute, la promotion faite par l’administration fiscale de la messagerie en ligne sur le site impots.gouv.
En outre, l’administration fiscale a recours à une intelligence artificielle dite « superficielle ». Le projet « LLaMandement » en témoigne. Il consiste à automatiser partiellement et à améliorer le traitement des amendements parlementaires lors de l’examen des projets de loi de finances. Son utilisation se traduit par un mécanisme en quatre étapes : l’attribution au bureau compétent, la recherche d’amendements similaires, la synthèse de l’amendement et la réaction de la position du Gouvernement.
Ce projet illustre toutefois l’utilisation réduite de l’intelligence artificielle générative par l’administration fiscale. En effet, cet outil ne concerne qu’une portion réduite des agents et un spectre restreint de leur intervention. En ce qui concerne les contrôles fiscaux, l’administration fiscale exploite uniquement l’intelligence artificielle dans le cadre du « Projet foncier innovant ». Il s’agit de détecter les piscines incorrectement ou non déclarées pour les besoins des impôts locaux.
D’abord utilisé sous couvert d’expérimentation sur neuf départements pilotes en 2022, puis généralisé en 2023, ce projet consiste en l’analyse des images aériennes publiques, lesquelles sont comparées par l’intelligence artificielle avec les déclarations déposées. D’un point de vue technique, le Projet foncier innovant a ainsi recours au « deep learning », qui se distingue du « machine learning ». L’avantage réside dans la faculté d’auto-apprentissage des modèles, lesquels peuvent s’améliorer grâce aux erreurs identifiées par les agents. Cet outil n’engendre pas de contrôle fiscal automatique puisqu’un agent de l’administration fiscale doit systématiquement vérifier les anomalies détectées par l’intelligence artificielle ; lui seul peut décider des suites à donner auxdites anomalies.
L’apport du Projet foncier innovant réside cependant dans la systématisation et l’industrialisation de l’analyse des données. A ce jour, l’apprentissage « non supervisé » ou l’apprentissage « par renforcement » ne sont pas utilisés par l’administration fiscale. Le pôle datamining de l’administration fiscale applique toutefois la technique d’apprentissage « supervisé », laquelle implique, ici encore, l’intervention d’agents. Pour l’instant, il est prohibé de déclencher un contrôle fiscal sur la base d’un traitement automatique de données, mais qui sait si cela ne pourrait pas évoluer un jour à l’image des conflits armés où certains robots peuvent désormais librement, sur une zone donnée, choisir leur cible et l’attaquer ?
Dont la croissance devra être maîtrisée
L’administration fiscale ne devrait pas échapper à la montée en puissance de l’intelligence artificielle dans notre société, à l’image de l’informatisation, ne serait-ce que pour faire face à la baisse du nombre de ses agents. Le cadre juridique applicable à l’utilisation de l’intelligence artificielle par l’administration fiscale s’avère toutefois insuffisant. A ce jour, les défis de son utilisation par les services publics ne sont pas pris en compte de manière satisfaisante.
C’est seulement depuis cet été, sous l’impulsion de la Commission nationale de l’informatique et des libertés (Cnil) notamment, que le règlement européen sur l’intelligence artificielle, l’AI Act, est entré en application. Ce dernier permet d’identifier les risques que représentent les applications de l’intelligence artificielle pour les droits fondamentaux. Ces risques sont représentés par une classification, le risque étant classé de « minimal » à « inacceptable ». L’usage de l’intelligence artificielle par l’administration fiscale devra inévitablement se conformer à cette réglementation.
Un exemple concret serait l’analyse de l’outil Projet foncier innovant sous l’angle des droits fondamentaux, tels que le droit à la vie privée et familiale. Concrètement, et en premier lieu, la menace d’une fuite de données demeure un enjeu majeur. L’utilisation de l’intelligence artificielle dans les contrôles fiscaux doit ainsi être strictement encadrée en raison de la nature confidentielle des données traitées. Les données partagées avec l’administration fiscale seront encore plus nombreuses dans le futur. La généralisation de la facturation électronique peut témoigner de cette tendance. Le risque de fuite est d’autant plus grand.
En deuxième lieu, et si l’administration fiscale recourt plus massivement à des outils d’intelligence artificielle pour ses contrôles, ses éventuelles erreurs seront d’autant plus inacceptables. En conséquence, une accentuation de la responsabilité de l’Etat sera impérative. Cette asymétrie des armes toujours plus marquée entre l’administration fiscale et les contribuables nous invite également à nous reposer la question de la charge de la preuve dans le cadre de telles procédures. En particulier, comment les contribuables pourraient connaître l’origine des données utilisées et, ainsi, utilement se défendre ?
Les dérives potentielles de l’intelligence artificielle, comme les « biais », les « hallucinations », les « jailbreakings » et les « prompts injections », doivent également être prises en considération, dans la mesure où elles sont susceptibles d’impacter autant les administrations que les acteurs privés. Les biais sont les préjugés que l’on retrouve dans les résultats d’une intelligence artificielle. Ils proviennent des données utilisées pour entraîner les modèles, de l’interaction des utilisateurs et de l’algorithme du modèle. Tel pourrait être le cas si l’administration fiscale, par ses modèles d’intelligence artificielle, effectue un contrôle systématique de certains individus ou catégories d’individus.
Face à la systématisation des contrôles pour un certain nombre de contribuables, l’égalité de traitement pourrait alors être remise en question. Rapidement, l’utilisation croissante de l’intelligence artificielle aboutirait à un manque de neutralité et d’équité. Dans le cadre du Projet foncier innovant, de nombreux objets bleus ont été confondus avec des piscines sur les prises de vues aériennes. Ces erreurs sont appelées les « hallucinations » de l’intelligence artificielle. Les hallucinations – ces erreurs factuelles, voire inventions pures, souvent dues à un manque d’entraînement ou à un mauvais paramétrage – représentent une menace supplémentaire à l’utilisation de l’intelligence artificielle dans les contrôles fiscaux. Jusqu’à présent, ces erreurs n’ont pas eu de répercussions majeures grâce à l’intervention humaine prévue dans le projet. Mais qu’adviendrait-il si un modèle d’intelligence artificielle était utilisé afin de mener des contrôles fiscaux automatiques sans supervision humaine ?
Des aléas subsistent, en outre, dans la mesure où des techniques permettent aux hommes de contourner les mécanismes de sécurité des systèmes d’intelligence artificielle. Le « jailbreaking » permet à l’utilisateur de contourner les filtres imposés à un modèle d’intelligence pour le pousser à produire des réponses ou à effectuer des actions normalement bloquées par des mesures de sécurité ou des filtres éthiques. Pour sa part, le « prompt injection » consiste à insérer des instructions malveillantes pour manipuler le comportement de l’intelligence artificielle, la poussant à répondre ou à agir de manière imprévue. A titre d’illustration, des données sensibles pourraient être demandées détournant ainsi la confidentialité prévue par le modèle.
Une utilisation accrue de l’intelligence artificielle par l’administration fiscale nous semble inévitable. Il sera toutefois impératif de contrôler cette avancée à la lumière des libertés fondamentales. Evitons ainsi que la dystopie ne devienne réalité.
[1] Rapport d’information n° 491 (2023-2024) : Impôts, prestations sociales et lutte contre la fraude, déposé le 2 avril 2024.