Eléonore Caiveau-Partula
Après 10 ans en audit financier et conseil dans des cabinets de premier rang, Eléonore, a acquis une solide connaissance des organisations et de leur système d’information.
Le projet FUZEO repose sur la conviction que l’exploitation pragmatique et dynamique des données par les métiers participe au meilleur pilotage des organisations.
Illusions, promesses et retour d’expérience en milieu réel
PAR Éléonore Caiveau-Partula
Le Big Data a été défini dans l’Oxford English Dictionary il y a
déjà plus de 10 ans comme des « volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des
moyens usuels ». Chaque jour, nous produisons en effet des trillions d’octets de données et ce simple indicateur, qui ne représente rien pour celui qui n’est pas expert, qu’il est difficile de se figurer, traduit bien la révolution technologique en cours.
Les entreprises, comme les autres organisations, sont soumises à ce déluge de données. Elles s’arrachent des data scientists et visent une stratégie data driven mais est-ce que leurs données sont réellement exploitées ? D’ailleurs, par où commencer ? Quels sont les problèmes à résoudre ? Comment la donnée peut-elle éclairer les décisions ? De quelles données parle-t-on ? Est-on sûr de ne pas céder à des biais induits par les systèmes d’information en place ? Collecte-t-on bien toute la donnée utile ? Est-ce que les investissements nécessaires en valent la peine ?
Du flot de données émerge un flot de questions au lieu de réponses qui donneraient les avantages compétitifs rêvés. Il faut ainsi penser aux processus, à l’organisation, à la fiabilité, au traitement, à la valeur.
Ces questions sont aussi celles du commissaire aux comptes, et de la profession du chiffre tout entière. Comme si cela n’était pas assez compliqué, il faut prendre en compte quelques contraintes supplémentaires : une profession normée, qui évolue (pour de bonnes raisons) lentement, avec des collaborateurs qui n’ont pas été formés à ces sujets, n’ont pas toujours l’occasion de les aborder frontalement (le Big Data dans les TPE n’est pas encore la règle, soyons lucides).
Les enjeux du Big Data pour les commissaires aux comptes recouvrent donc :
1) la compréhension fine de ce que signifie le Big Data, et plus
généralement les conséquences du traitement de volumes de données plus important que ce que l’on a connu jusqu’à présent ;
2) l’impact de ces changements pour les entreprises auditées elles mêmes, notamment du point de vue des systèmes d’information et
des conditions de production de l’information financière ;
3) les solutions actuelles pour prendre en compte ces évolutions
dans l’audit conduit (formation, accompagnement du changement,
adoption…).
Le Big Data, du mythe à la réalité
Le Big Data désigne l’explosion des données produites et disponibles à travers le monde. Il est une conséquence de cette révolution numérique qui transforme notamment le monde de l’entreprise. La profession prend conscience des impacts – souvent concrets au quotidien – du Big Data sur les entreprises et sur la mission d’audit légal. A titre d’exemple, deux matinales ont été organisées par la CRCC de Paris dès le 30 mai 2018 sur le « Big Data et la profession de commissaire aux comptes » et le 8 octobre 2018 sur « l’audit du futur ».
Le sujet agite clairement la profession, partagée entre les prosélytes, les résignés ou les sceptiques. A ce jour, la profession ne dispose cependant que de peu d’outils et de documentations concrètes (guide méthodologique, fiches pratiques) permettant d’identifier les bonnes pratiques et les écueils à éviter. La création du Lab50 – Observatoire de la profession dont les axes majeurs sont la data et l’intelligence artificielle est une émanation concrète attestant de la volonté de nos instances de se positionner et d’apporter des solutions théoriques et pratiques.
Bref, de se faire une véritable idée de l’impact de ce nouveau contexte sur notre profession. Néanmoins dans la réalité du quotidien de nos cabinets, le logiciel Excel, utilisé souvent de manière standard (c’est-à-dire comme il y a 15 ans, avant le développement de PowerPivot et PowerQuery, composants aujourd’hui de PowerBI), reste le principal outil de travail du commissaire aux comptes dans le cadre de la collecte, de la fiabilisation, du traitement et de l’exploitation des données.
Sans même devoir aller jusqu’au « vrai » Big Data (des centaines de millions de lignes qui augmentent à une vitesse importante), des clients ETI ou appartenant à certains secteurs d’activité spécifiques comme les télécoms ou la distribution produisent de nombreuses données difficiles à maîtriser avec les méthodes habituelles (Excel, donc) et qui sont le produit de nombreuses sources aux formats différents. Symptômes bien concrets de cette situation pour le commissaire aux comptes : lenteur des traitements des données volumineuses, fragmentation des fichiers et des analyses, manipulations répétitives et chronophages, traçabilité fastidieuse des traitements… Du système d’information à la donnée
Face à cette complexité, plusieurs enjeux s’imposent à l’entreprise et à l’auditeur :
• La compréhension des systèmes d’information : complexité des systèmes et des processus associés au traitement de la donnée (automatisation des traitements et des analyses). Cette compréhension demande l’appui de spécialistes en systèmes d’information et en analyse de données, qui parle le même langage que l’auditeur.
• La fiabilisation de la donnée : des contrôles spécifiques doivent être mis en place par l’entreprise afin de s’assurer de l’intégrité, de l’exactitude et de la pertinence des données. Cela est d’autant plus important qu’une erreur sera difficile à repérer et peut entraîner des biais ou des données faussées présentées au client. 30 //////// OUVERTURE N° 108 – DÉCEMBRE 2019 e-c-f.fr/edition/revue-ouverture.html
• La maîtrise de la gouvernance des données : transversalité, multiplicité des interlocuteurs et apparition d’une nouvelle fonction de gouvernance de la donnée sont désormais de plus en plus courantes dans les entreprises, phénomène accéléré notamment par la mise en œuvre de la RGPD. Adapter nos méthodes face au Big Data en milieu « réel » Pour prendre en compte ce nouvel environnement, des outils aujourd’hui largement accessibles sont disponibles. Ils nous incitent à réfléchir à une méthodologie renouvelée et adaptée au contexte. Les principes clés de cette méthodologie incluent :
• Une stratégie d’évaluation de la qualité de la donnée ;
• Une stratégie de déploiement d’une démarche assurant l’analyse efficace de données très volumineuses ;
• Des exemples d’utilisation d’un outil de modélisation et de visualisation des données dans le cadre de la réalisation de revues analytiques. Mais les principes ne suffisent pas ! En pratique, il s’agit bien d’un programme de transformation de la profession.
Comme toute gestion de changement, il nécessite d’anticiper les freins (naturels) et d’accompagner les collaborateurs dans de nouvelles manières de faire. C’est pourquoi il semble nécessaire de faire émerger la fonction de chef de projet de déploiement d’une démarche d’audit orientée « analyse de données » intégrant l’utilisation d’outils de modélisation et de visualisation de données. Il sera notamment en charge de proposer des guides méthodologiques, un plan de formation, des guides d’appréciation de la donnée, une méthode qui définit si l’analyse de données peut être constitutive de preuves d’audit, une aide au choix des outils d’analyse de données en fonction des objectifs poursuivis par l’auditeur ou des exemples de bonnes pratiques.
De manière générale, ces méthodes, livrables et logiciels (la visualisation de données est un champ particulièrement dynamique, avec de nombreux développements et acquisitions ces derniers mois, comme le rachat de Tableau par Salesforce en 2019), sont non seulement une manière de pouvoir aborder de manière fructueuse la masse de données à traiter, mais surtout une voie permettant à l’auditeur de développer ses capacités analytiques. La méthodologie à mettre en place fait gagner du temps, résout des problèmes du quotidien (lenteurs ou bugs) mais apporte également de la valeur, pour l’auditeur et bien sûr pour le client : niveau d’assurance plus élevé, meilleure image de l’auditeur et amélioration du ciblage des recommandations.
Attention, la rigueur et les processus restent essentiels car de mauvaises données (ou un mauvais traitement / interprétation des données) constituent un écueil à ne pas sous-estimer et engagent la responsabilité de l’auditeur. Il est à prévoir que les nouvelles technologies du traitement de l’information (intelligence artificielle, deep learning…) continueront de transformer la profession en accélérant l’automatisation des analyses et la mise en place d’un audit continu assisté informatiquement. L’essentiel résidera cependant toujours dans la prise de recul dans l’utilisation de ces outils afin de les mettre au service de la profession de commissaire aux comptes, accroître son attractivité, et mieux servir les entités auditées : autrement dit, ce changement de paradigme est l’opportunité d’une évolution gagnant /gagnant pour l’auditeur comme pour l’entreprise et l’économie en général dont il ne faudra cependant sous-estimer la difficulté, à la fois en termes de formation des collaborateurs, de normalisation des méthodes de travail et de création d’une véritable valeur.