La lettre d'Option Droit & Affaires

CONTENTIEUX

Intelligence artificielle et devoir de vigilance : entre opportunités et risques

Publié le 12 mars 2025 à 10h35

Veil Jourde    Temps de lecture 7 minutes

L’intelligence artificielle (IA) est un outil puissant et efficace pour aider les entreprises à respecter leurs obligations de vigilance en matière sociale et environnementale. Toutefois, son usage comporte des risques sociaux et environnementaux non négligeables que les entreprises doivent évaluer et compenser pour éviter des sanctions et préserver leur cohérence RSE.

Par Maxime de Guillenchmidt, associé, et Julie Guenand, collaboratrice, Veil Jourde
Maxime de Guillenchmidt

En sus de la loi française sur le devoir de vigilance des sociétés mères et des entreprises donneuses d’ordres du 27 mars 2017, la directive sur le devoir de vigilance des entreprises, Corporate Sustainability Due Diligence Directive, dite « CS3D », adoptée par le Parlement européen le 24 avril 2024 et approuvée par le Conseil européen le 24 mai 2024, impose aux grandes entreprises opérant dans l’Union européenne des obligations de vigilance accrues en matière de droits humains et de protection de l’environnement dans l’ensemble de leur chaîne de valeur. Bien que certaines dispositions de cette directive puissent être remises en question par la directive Omnibus actuellement en discussion, le devoir de vigilance demeurera une obligation pour bon nombre d’entreprises.

La directive CS3D impose à ces entreprises d’intégrer le devoir de vigilance dans leurs politiques, d’identifier et de hiérarchiser les risques et incidences négatives réelles ou potentielles, de prévenir et d’atténuer les incidences négatives potentielles, de mettre un terme aux incidences négatives réelles et d’atténuer leur ampleur, d’établir et de maintenir une procédure relative aux plaintes, de contrôler l’efficacité de leur politique et de leurs mesures de vigilance et de communiquer publiquement sur le devoir de vigilance.

Les entreprises doivent ainsi via la mise en place d’un plan de vigilance parvenir à identifier les impacts de leurs activités tant sur les droits humains que sur l’environnement. En cas d’identification de ces risques réels et potentiels, elles doivent mettre en œuvre les mesures adéquates afin d’y remédier ou de les prévenir.

L’IA : un levier d’efficacité pour identifier et prévenir les impacts sociaux et environnementaux

Julie Guenand

L’intelligence artificielle peut s’avérer utile, en amont du plan de vigilance dans le cadre de l’identification des risques sociaux et environnementaux réels et potentiels de l’activité de l’entreprise mais également, a posteriori, dans le cadre de la mise en œuvre de solutions pour prévenir ou remédier à de tels risques. L’IA constitue en effet un outil efficace pour répertorier de manière exhaustive les risques ESG d’une entreprise et pour calculer la probabilité et l’impact. Par exemple, elle permet de calculer la consommation énergétique de l’entreprise ou plus particulièrement ses émissions de CO2. De la même manière, l’IA permet d’analyser des volumes de données conséquents et non structurés, provenant de diverses sources, facilitant l’identification des risques et opportunités en matière sociale et environnementale de l’entreprise, tout en limitant les coûts.

Au-delà d’un rôle de répertoriage, de calcul et d’analyse, l’intelligence artificielle peut révéler des informations dans les données ESG qu’une analyse manuelle n’aurait pas pu faire. A titre d’exemple, en examinant des données salariées, l’IA peut réussir à identifier des éléments cachés, tels que des disparités même minimes entre les rémunérations des hommes et celles des femmes.

Ainsi, l’intelligence artificielle endosse un rôle d’autant plus efficace qu’elle permet à ces entreprises de prendre les mesures nécessaires pour pallier et prévenir de tels problèmes et inégalités, de manière exhaustive. Si son approche postérieure à l’identification des risques demeure plus limitée, elle peut tout de même fournir des pistes pour faciliter la prise de décisions ou des indicateurs d’alerte lorsqu’un risque déjà identifié se concrétise ou s’aggrave. Néanmoins, pour prévenir ou remédier aux risques, les solutions de l’IA doivent être combinées à des actions humaines. Il ne s’agit donc que d’un outil permettant de gagner du temps et de limiter les coûts.

Il semble évident que les entreprises assujetties se servent de l’IA pour faciliter le temps de travail et pour se soumettre à leurs obligations dans la plus grande efficacité et transparence. Cette efficacité semble avérée, dès lors qu’une récente étude de Finastra publié en 2023, a démontré que 36 % des professionnels déclarent souhaiter exploiter l’IA pour collecter, traiter et analyser les données nécessaires à la classification ESG et à la prise de décision.

L’IA dans les plans de vigilance : des risques encore trop ignorés

Malgré son efficacité, l’intelligence artificielle présente des risques sociaux et environnementaux qui ne sont que très peu pris en compte dans les plans de vigilance des sociétés. Le rapport publié en septembre 2024 par l’association Intérêt à Agir étudie les plans de vigilance de plusieurs sociétés et démontre que nombre d’entre elles ne prennent pas en compte « les risques sociaux et environnementaux liés à la production et/ou aux utilisations de l’IA ».

L’IA constitue une source de consommation d’énergie importante, en phase d’entraînement comme en phase d’utilisation et son utilisation généralisée pourrait contribuer à la hausse des émissions de gaz à effet de serre. Elle fonctionne par ailleurs grâce à des puces numériques produites à partir de métaux rares qu’il faut extraire et transformer.

L’agence internationale de l’énergie a publié un rapport en 2024 dans lequel elle affirme que l’électricité consommée par les data centers dans le monde pourrait doubler d’ici 2026, à cause de l’usage amplifié de l’intelligence artificielle. La construction de ces data centers constitue aussi un impact environnemental important.

En sus de l’impact environnemental, l’IA porte un risque d’atteinte aux libertés fondamentales dès lors que les algorithmes de l’intelligence artificielle sont alimentés par l’utilisation de données personnelles, collectées et utilisées. De la même manière, l’usage de l’IA pourrait mener, à long terme à une diminution ou transformation des emplois. Cet impact néfaste pourrait engendrer l’augmentation d’inégalités économiques si les travailleurs concernés ne sont pas accompagnés dans une reconversion ou formés à de nouvelles compétences.

L’IA peut aussi être à l’origine de fortes discriminations dans des domaines cruciaux, comme le recrutement, les données étant parfois biaisées. En effet, selon les données utilisées pour entraîner l’IA, il peut y avoir des biais conduisant à des discriminations, notamment une mauvaise reconnaissance des personnes de couleur ou de celles qui ont des traits physiques peu communs, selon Giada Pistilli. Des analystes se sont rendu compte en octobre 2018 que l’algorithme de recrutement utilisé par Amazon pénalisait les candidatures où figurait une référence aux femmes [1].

L’utilisation de l’IA ayant un impact social et environnemental non négligeable, les risques doivent être répertoriés dans les plans de vigilance des entreprises et des mesures d’atténuation doivent être mises en place. Néanmoins, il est assez paradoxal pour les entreprises de reconnaître, dans leurs plans de vigilance, les impacts néfastes de l’IA, alors même que cette technologie est utilisée pour concevoir et renforcer ces plans. Leur démarche devra donc être expliquée et justifiée dans le plan.

L’omission des risques liés à l’IA : un danger juridique, financier et réputationnel pour les entreprises

Les entreprises doivent non seulement veiller à un usage éthique de l’IA pour élaborer leurs plans de vigilance, mais elles sont également exposées à des risques juridiques, financiers et réputationnels importants. En effet, si une entreprise n’identifie pas les risques liés à l’utilisation de l’IA dans son plan de vigilance, elle pourrait se trouver en contrariété avec les exigences de la loi française et de la directive sur le devoir de vigilance. L’absence de cartographie précise des risques sociaux et environnementaux liés à l’utilisation de l’IA dans le plan de vigilance pourrait entraîner des poursuites et des sanctions, lesquelles seront d’autant plus importantes si la preuve d’un dommage subi par un tiers est rapportée.

[1] Article de France 24 publié le 1er novembre 2023 : « Discrimination, manipulation, destruction d’emploi… Les plus grands risques liés à l’IA ».


La lettre d'Option Droit & Affaires

Double objectif ambitieux du règlement sur l’IA : encadrer et encourager l’innovation

Lavoix    Temps de lecture 7 minutes

Le règlement européen sur l’intelligence artificielle (IA), entré en vigueur le 1août 2024, est le premier règlement régulant l’IA. Il aura un impact significatif pour les entités qui déploient des systèmes d’IA. Depuis le 2 février 2025, les premières dispositions du règlement sont entrées en vigueur et leur imposent déjà des obligations. Son entrée en application continuera progressivement jusqu’en août 2027.

Lire l'article

Chargement…