Les procédures d’alerte permettant de prévenir et détecter les difficultés des entreprises reposent sur l’analyse, par des acteurs spécialisés, privés, judiciaires ou institutionnels, des données mises à leur disposition.
Ainsi, nos tribunaux de commerce s’appuient sur les informations transmises par leur greffe (injonctions de payer, non-dépôt des comptes, inscription de privilèges et nantissements, etc.), souvent révélées par des acteurs internes à l’entreprise, tels que le commissaire aux comptes ou le Comité social et économique. Les commissaires aux restructurations et à la prévention des difficultés des entreprises se fondent dans leur action de détection sur les informations transmises par les administrations, les groupements de prévention agréés sur les données transmises par leurs membres, etc.
Ces différents mécanismes reposent sur des données cloisonnées. A l’inverse, le big data désigne le phénomène d’accumulation et de diversification des données susceptibles d’être traitées, celles-ci répondant à trois caractéristiques principales : le volume, la vélocité et la variété. En modifiant ce paradigme, le big data laisse entrevoir de nouvelles perspectives et devrait assurément contribuer à améliorer les outils de prévention existants.
Les enjeux de la Big Data, ou comment exploiter le potentiel prédictif à partir du traitement statistique de données peut améliorer la détection en amont des difficultés des entreprises
A l’échelle de l’Union européenne, la directive dite restructuration et insolvabilité du 20 juin 2019 est la première à avoir fixé un cadre pour la collecte de données concernant les procédures visant des entreprises en difficulté, elle revêt un caractère obligatoire (nombre de procédures, durée moyenne, nombre de procédures jugées irrecevables et de débiteurs concernés) ou facultatif (coût des procédures, taux de recouvrement moyen des créanciers, nombre de pertes d’emplois).
Cette collecte de données a précisément pour objectif d’accompagner le développement d’instruments préventifs : les Etats membres doivent veiller à ce que les débiteurs aient accès à des outils d’alerte en amont « permettant de détecter les circonstances qui pourraient donner lieu à une probabilité d’insolvabilité et permettant de leur signaler la nécessité d’agir sans tarder » (article 3 de la directive).
Ces outils d’alerte précoce peuvent inclure des mesures encourageant les tiers qui détiennent des informations pertinentes (comptables, de l’administration fiscale ou de la sécurité sociale) à signaler aux entreprises toute évolution négative.
En France, l’outil de référence a longtemps été celui mis en place par la Banque de France – dont la procédure de communication financière a pu être critiquée aux motifs d’un manque de transparence – à travers son activité de cotation (données transmises aux adhérents Fiben dans les conditions posées à l’article L. 144-1 du Code monétaire et financier).
Plus récemment, depuis la loi Pacte, l’administration fiscale a désormais la faculté de transmettre aux acteurs de la prévention la liste des entreprises susceptibles de connaître des difficultés de financement ainsi que la cotation du niveau de risque.
De nouveaux outils préventifs reposant sur l’exploitation algorithmique de données administratives ont par ailleurs été mis en place.
Le dispositif « signaux faibles » en est une illustration. Développé dès 2016 puis déployé en 2019 sur l’ensemble du territoire, il repose sur le traitement algorithmique des données relatives aux entreprises dont disposent les services de l’Etat et les organismes de sécurité sociale (données financières ou d’activité, comme les variations d’effectifs, le recours à l’activité partielle ou le versement des cotisations sociales) afin de permettre une prédiction statistique de défaillance à 18 mois, partagée ensuite avec les différents partenaires publics.
Suivant cette même approche, la Direction générale des finances publiques a créé un algorithme visant à évaluer, à partir de ses données, le risque de défaillance des entreprises, et ce au service de l’action des comités départementaux d’examen des problèmes de financement des entreprises (Codefi).
Des initiatives visant à donner un accès plus large à l’information au public (et non uniquement à l’administration ou aux acteurs institutionnels) ont également été prises.
Dans l’étroite lignée des préconisations européennes, depuis juin 2019, un observatoire statistique mis en place au niveau des greffes permet à tout intéressé de connaître, sur une période donnée, les caractéristiques des entreprises défaillantes (type de procédure, forme et capital de la société, secteur d’activité, âge du dirigeant).
L’enjeu est d’actualité ; le rapport de la mission « justice économique » remis par Georges Richelme au garde des Sceaux en février 2021 a d’ailleurs permis de souligner les interactions possibles entre ces différents outils, afin de rendre d’autant plus efficaces la détection en amont des difficultés.
Le big data et les technologies d’analyse qui y sont associées laissent entrevoir des possibilités accrues de détection des défaillances. Tout l’enjeu du big data repose dans le perfectionnement des méthodes d’analyse des données, sans lequel l’accroissement du volume des données n’offrirait pas de gain d’efficience dans l’identification des entreprises proches de la défaillance.
D’abord fondées sur des relations statistiques entre variables financières et défaillance, les méthodes analytiques se sont progressivement enrichies en intégrant des processus d’intelligence artificielle, reposant notamment sur des réseaux de neurones et des mécanismes d’apprentissage. Trouvant sa première application au début des années 1990 sur des données bancaires, ce type de processus a été appliqué à des sources toujours plus larges, incluant des données non financières, permettant ainsi une analyse toujours plus pointue du risque de défaillance (1).
Le procédé de scoring utilisé par les établissements financiers (détermination du risque présenté par une entreprise sur la base d’un indicateur synthétique élaboré à partir de ses données financières) illustre la potentialité du big data et des méthodes analytiques associées. L’efficacité du scoring se heurte en effet à plusieurs obstacles (fiabilité et qualité de l’information comptable, manque de données plus qualitatives concernant notamment la gouvernance, 2), auquel le big data offre justement des remèdes : il permet d’inclure dans l’analyse les données qualitatives qui faisaient antérieurement défaut, et offre la possibilité de relever les incohérences comptables (3) (les entreprises en difficulté étant d’ailleurs plus susceptibles de manipuler leurs informations comptables pour améliorer virtuellement leur solvabilité).
Depuis plusieurs années, le perfectionnement des outils de prévention s’accroît aussi sous l’effet du foisonnement des initiatives.
Infogreffe fait preuve d’un grand dynamisme dans les solutions qu’il offre sur la base des données qu’il détient grâce au réseau des greffes des tribunaux de commerce. En partenariat avec Nota-PME, il propose un système de notation en continu permettant d’apprécier la rentabilité, la solvabilité et la robustesse d’une entreprise grâce à une soixantaine d’indicateurs. Depuis 2017, il développe en partenariat avec Datategy un autre système de notation reposant sur le machine learning et une dizaine de bases de données (incluant des éléments sectoriels et d’actualité) afin d’améliorer le taux de détection des difficultés des entreprises par les tribunaux de commerce (4). Sur sa plateforme MonIdenum, il propose aux entreprises un outil d’autodiagnostic fondé lui aussi sur des algorithmes d’intelligence artificielle.
La société Altares, connue pour ses rapports statistiques, et qui proposait déjà un score de défaillance (intégrant plus de 600 variables), a quant à elle mis au point un score de survie permettant d’apprécier la probabilité qu’une société entrant en procédure collective puisse continuer son activité à court-moyen terme sans être liquidée.
Comme l’avait relevé le Fonds monétaire international dans l’un de ses documents de travail portant sur la réforme du droit des entreprises en difficulté en Europe (5), la collecte de données est une étape fondamentale dans l’élaboration d’un système efficace de traitement des difficultés des entreprises, puisque ces données servent ensuite de fondement empirique à l’adaptation du droit, et ce autour d’un critère d’efficience fondé sur trois notions clés que sont le temps, le coût et le taux de rétablissement.
Offrant de nouvelles perspectives en matière de prévention, le big data n’a toutefois pas dévoilé tout son potentiel : interrogé lors d’une table ronde sur le dispositif « signaux faibles » (6) à l’été 2021, le président du tribunal de commerce de Lyon, Thierry Gardon, évoquait la nécessité de concrétiser les intentions et les projets, faisant part d’un « manque de retour » au sein de la juridiction qu’il présidait.
1. C. Refait-Alexandre, « La prévision de la faillite fondée sur l’analyse financière de l’entreprise : un état des lieux », Economie & Prévision, 2004/1, n° 162, p. 129 à 147.
2. E. Séverin, D. Veganzones, « Prévision économique : le risque de faillite des entreprises reste très mal mesuré », The Conversation, 27 octobre 2020.
3. A. Mendes, R.L. Cardoso, P.C. Mario, A.L. Martinez, F.R. Ferreira, « Insolvency prediction in the presence of data inconsistencies », Intelligent systems in accounting, finance and management, 2014.
4. datategy.net/wp-content/uploads/2021/12/Temoignage-Datategy-Infogreffe.pdf.
5. J. Garrido, C. DeLong, A. Rasekh, A. Rosha, « Restructuring and Insolvency in Europe: Policy Options in the Implementation of the EU Directive », IMF Working Paper, mai 2021.
6. « Crise de la Covid-19 – Les enjeux et les risques de la sortie de crise pour les entreprises – Entretien », Revue des procédures collectives, n° 4, juillet 2021, entretien 3.