Modélisation dimensionnelle de vos données

Modélisation dimensionnelle de vos données

Eléonore Caiveau-Partula

Après 10 ans en audit financier et conseil dans des cabinets de premier rang, Eléonore, a acquis une solide connaissance des organisations et de leur système d’information.
Le projet FUZEO repose sur la conviction que l’exploitation pragmatique et dynamique des données par les métiers participe au meilleur pilotage des organisations.

Article écrit par Eléonore Caiveau-Partula le 3 mars 2021

Professionnels du chiffres, ne faites pas l’impasse sur la modélisation dimensionnelle de vos données

Pour progresser dans la modélisation de vos rapports, nous vous recommandons de ne pas faire l’impasse sur les notions de base de données relationnelles.

En tant que professionnels du chiffre, nous avons coutume de requêter des fichiers comprenant un maximum de colonnes venant enrichir des informations chiffrées par exemple :

Une table de ventes avec l’ensemble des champs suivants :

– Date

– Montant

– Commercial

– Client

– Produit

– Code article

– Localisation

– Code postale

– …

Les champs sont les en-têtes de vos colonnes !

Ce qui doit vous alerter c’est le nombre de colonnes !

Plus une table comprend de colonnes plus celle-ci est lourde et vous empêchera de penser à une modélisation efficace de vos données.

De manière vulgarisée, modéliser c’est récréer un modèle efficace alliant faits et dimensions.

Les dimensions enrichissent l’analyse de faits chiffrées.

Dans la table précédemment présentée nous pouvons flagger chaque champ de la manière suivante :

– Date -> Dimension

– Montant -> Fait

– Commercial -> Dimension

– Client -> Dimension

– Produit -> Dimension

– Code article -> Dimension

– Localisation -> Dimension

– Code postale -> Dimension

– …

Chaque dimension peut être portée par une table de dimension portant plusieurs attributs pouvant enrichir l’analyse d’une table de faits.

La modélisation la plus sûre pour commencer est la modélisation suivante issus du modèle en étoile de Ralph Kimball :

Nous vous recommandons de nommer vos tables de la manière suivante :

– Table de faits : F_Nom_ table_faits

– Table de dimension : D_Nom_table_dimension

Dans ce modèle, nous vous recommandons des relations unilatérales allant de la table de dimension à la table de fait.

Au niveau de la table de dimension, le champ ID (exemple : ID Client) ne doit présenter aucun doublon sinon vos analyses seront biaisées.

Au niveau de la table de faits, le champ ID peut présenter des doublons car un même client a pu acheter différents articles à deux moments différents.

Un peu de littérature pour aller plus loin :

– Base de données relationnelles — Wikipédia (wikipedia.org)

– Modèle relationnel — Wikipédia (wikipedia.org)

– Fact table – Wikipedia

Des références incontournables :

– Ralph Kimball l’inventeur du modèle en étoile

– Étoile (modèle de données) — Wikipédia (wikipedia.org)

Retrouver notre article et réagissez sur : https://www.pbiusergroup.com/communities/community-home?CommunityKey=c99fec72-cdfa-41bd-9ff8-4861bb83999b

Contact

Téléphone

01 29 38 48 74

Email

mail@domain.com

Adresse

16 rue du pont neuf 75001 Paris

Fuzeo : Vidéo de présentation de l’entreprise

Fuzeo : Vidéo de présentation de l’entreprise

 Venez découvrir Fuzeo en vidéo

Description:

Notre mission est de vous accompagner dans l’exploitation de l’ensemble des données produites par votre organisation pour éclairer vos prises de décisions.

Nos solutions sont personnalisées, agiles et centrées sur les besoins des utilisateurs.

Elles s’adressent à un large spectre d’organisations – Associations, PME, ETI, Groupes familiaux et Entités sous LBO.

Une réponse adaptée existe pour chaque entité en fonction de sa taille, de son secteur et de son niveau de maturité sur les projets « data ».

 

Thématiques:  Vidéo de présentation
Professionnels du Chiffre : adapter notre approche à la data

Professionnels du Chiffre : adapter notre approche à la data

Eléonore Caiveau-Partula

Après 10 ans en audit financier et conseil dans des cabinets de premier rang, Eléonore, a acquis une solide connaissance des organisations et de leur système d’information.
Le projet FUZEO repose sur la conviction que l’exploitation pragmatique et dynamique des données par les métiers participe au meilleur pilotage des organisations.

Article écrit par Sandra Schmidt Schmidt le 21/10/2019

EC et CAC : réfléchir à la manière d’adapter les processus à la data

La disruption de la profession est une véritable opportunité pour permettre aux experts-comptables et aux commissaires aux comptes de faire des travaux toujours plus intéressants. Cela passe par la recherche et développement et par les mémoires d’expertise comptable parfois très novateurs.

Il s’agit « d’enrichir le métier, de redéfinir le travail quotidien du professionnel pour un modèle plus collaboratif, plus soutenable et plus sociétal » précise Éléonore Caiveau-Partula, expert-comptable et commissaire aux comptes chez BDO.

Pour elle, l’expert-comptable et le commissaire aux comptes ont une vraie compétence, une vraie valeur ajoutée à apporter à leurs clients dans la gestion de la donnée et pas seulement de la donnée comptable.

Le parcours professionnel d’Éléonore Caiveau-Partula n’est pas celui du collaborateur de cabinet classique. Après une première expérience à la BPI en tant qu’analyste financier sur des opérations de garantie, de financement traditionnel et de haut de bilan avec des organismes de capital risque, elle rejoint alors un cabinet d’expertise comptable et d’audit en commençant à préparer le DSCG puis le DEC après un parcours classique classes préparatoires et école de commerce.

Entre les deux, elle travaillera dans plusieurs cabinets d’audit dont BDO et KPMG ce qui lui permettra d’intervenir sur des dossiers de tailles et de problématiques diverses, y compris des entreprises du CAC 40.

Elle terminera son diplôme d’expertise comptable avec un 19/20 au mémoire sur le thème de la démarche d’audit dans un contexte de Big Data.

« Une volonté permanente d’optimiser ses travaux, d’abord sous excel puis avec Power BI »
La donnée est de plus en plus importante pour les clients des experts-comptables et commissaires aux comptes. Elle n’est pourtant pas toujours totalement exploitée par les professionnels.

Pour Éléonore Caiveau-Partula, « les outils traditionnels qu’utilisent les commissaires aux comptes ne permettent pas systématiquement de traiter de manière optimale et exhaustive les données à auditer ». De plus, son expérience d’analyste financier lui donne un autre regard sur les données à exploiter qui ne sont pas que des données comptables mais aussi des données de gestion et extra financières.

Les dossiers importants qu’elle aura l’occasion de traiter l’obligeront à avoir une approche « d’audit par la data pour récupérer de la donnée exhaustive et l’exploiter aux travers d’analyses dynamiques ».

Excel d’abord puis Power BI lui permettront d’optimiser ses travaux.

Repenser les travaux de l’expert-comptable et du commissaire aux comptes autour de la donnée

« Gagner en pertinence et obtenir une meilleure connaissance de ses clients »
C’est un moyen de changer l’image du commissaire aux comptes et d’apporter toujours plus de valeur ajoutée dans les dossiers.

Les analyses multidimensionnelles facilitées par ces outils permettent un « enrichissement par des dimensions propres à l’activité du client ».

Dans le cadre d’une grande entreprise avec plusieurs branches d’activité qui ont chacune leurs caractéristiques propres, « les analyses peuvent être beaucoup plus fines et plus pertinentes avec une meilleure compréhension et sélection des populations à analyser puis à tester ».

L’objectif est d’aller beaucoup plus loin que « l’approche purement substantive sans se laisser porter uniquement par la méthodologie et challenger cette dernière par rapport aux spécificités du client ».

Sur les six années de mandat, « l’approche par la data permet de s’attaquer chaque année à des sujets différents, la donnée comptable la première année puis l’analyse du chiffre d’affaires et des stocks enrichis des données de gestion par exemple ».

Peut-on faire de l’approche par la data une priorité pour apporter plus de valeur à ses clients ?

« Le design des modèles de données en fonction de la typologie du client est un préalable à l’automatisation par l’intelligence artificielle »
L’étape préalable à la mise en place d’IA au sein des cabinets et une meilleure maitrise générale de la donnée par les commissaires aux comptes. En appréhendant mieux le système d’information de leurs clients et en mettant en place une approche orientée data, les commissaires aux comptes gagneront en assurance et identifieront de nouvelles opportunités de missions (gouvernance de la donnée, RGPD, etc…).

« En fonction de la typologie de client, le commissaire aux comptes est ainsi à même de monter des modèles de données qui lui permettent d’affiner ses analyses : par exemple analyse du chiffre d’affaires par client, par site, par catégorie produits, etc et ceci sur une même interface (i.e : Power BI). Au fur et à mesure que le commissaire aux comptes gagne en maîtrise avec ces outils il pourra penser efficacement des solutions de contrôle en continu, de robotisation, de data mining ou d’IA. Ce niveau de maturité qui est celui de la gestion de la donnée est donc un préalable indispensable ».

La donnée de base doit être de bonne qualité et les flux doivent être bien gérés en fonction des spécificités des différents métiers.

Avec Power BI ou un outil similaire, le commissaire aux comptes « n’est plus obligé de s’appuyer sur des reportings déjà prédéfinis sur lesquels il n’a pas la main ». L’utilisation d’excel est plus risqué et plus limitant. « Les outils de data modelisation et data visualisation permettent vraiment de libérer notre intelligence analytique en fiabilisant l’utilisation des données et permettant l’automatisation d’un certain nombre de traitements ».

« La culture de la DATA doit permettre au commissaire aux comptes de devenir un data expert »
On parle beaucoup de la culture data qui doit permettre à l’expert-comptable et au commissaire aux comptes de « devenir un expert des flux d’entreprise qui doit parvenir à obtenir une assurance sur la qualité des données qu’il exploite.

Les cabinets d’expertise comptable et d’audit ont « encore du chemin à parcourir. C’est un changement de paradigme, de façon de travailler, de processus au sein des cabinets ».

Les formations commencent tout juste à apparaître et il est « de plus en plus important, pour les cabinets de toutes les tailles, d’envisager de financer la recherche sur l’ensemble de ces sujets ».

En investissant sur ces nouvelles compétences et outils, de nouvelles opportunités sont offertes notamment au niveau services autres que la certification des comptes ou SACC. Du côté de l’expert-comptable, il est plus que possible « de repenser la mission d’expertise comptable pour qu’elle alimente le processus de mise en qualité de la donnée pour qu’en fin de chaîne, nous puissions mettre en place du controlling ou des reporting automatiques chez nos clients et commencer à réfléchir à la mise en place de robots pour optimiser certaines opérations » estime encore Eléonore Caiveau-Partula.

Les opportunités sont nombreuses pour les deux professions qui gagneront à s’en saisir pour faire évoluer leur métier.

L’expert-comptable et le commissaire aux comptes doivent acquérir la culture de la data et devenir des « data experts » à leur niveau

« Un mémoire d’expertise comptable qui permet de proposer une méthodologie »
Son mémoire d’expertise comptable lui permettra de se concentrer sur ce sujet qui la passionne et de monter encore en compétences.

La méthodologie proposée dans le cadre de son mémoire tenait compte de « l’extraction de la connaissance à partir de la donnée, des risques qui pèsent sur les données, de l’approche pour les appréhender, de l’appréhension de la démarche de manière pragmatique, de la manière de développer l’approche dans un cabinet et d’accompagner le changement ».

Avec des captures d’écran et une approche illustrée sur des procédures analytiques, elle expliquera comment les améliorer avec ces nouveaux outils.

Après un 4.1 obtenu du premier coup, sa soutenance se passera devant un jury intéressé par son mémoire, fruit de ces années de travail sur la data.

Son mémoire démontre qu’il reste encore beaucoup à faire sur ces sujets et que c’est une vraie opportunité pour les experts-comptables stagiaires mais aussi pour l’ensemble de la profession.

 

Contact

Téléphone

01 29 38 48 74

Email

mail@domain.com

Adresse

16 rue du pont neuf 75001 Paris

Le Big Data : révolution de la profession d’audit ?

Le Big Data : révolution de la profession d’audit ?

Eléonore Caiveau-Partula

Après 10 ans en audit financier et conseil dans des cabinets de premier rang, Eléonore, a acquis une solide connaissance des organisations et de leur système d’information.
Le projet FUZEO repose sur la conviction que l’exploitation pragmatique et dynamique des données par les métiers participe au meilleur pilotage des organisations.

Illusions, promesses et retour d’expérience en milieu réel

PAR Éléonore Caiveau-Partula

Le Big Data a été défini dans l’Oxford English Dictionary il y a
déjà plus de 10 ans comme des « volumes de données trop massifs pour être manipulés ou interprétés par des méthodes ou des
moyens usuels ». Chaque jour, nous produisons en effet des trillions d’octets de données et ce simple indicateur, qui ne représente rien pour celui qui n’est pas expert, qu’il est difficile de se figurer, traduit bien la révolution technologique en cours.

Les entreprises, comme les autres organisations, sont soumises à ce déluge de données. Elles s’arrachent des data scientists et visent une stratégie data driven mais est-ce que leurs données sont réellement exploitées ? D’ailleurs, par où commencer ? Quels sont les problèmes à résoudre ? Comment la donnée peut-elle éclairer les décisions ? De quelles données parle-t-on ? Est-on sûr de ne pas céder à des biais induits par les systèmes d’information en place ? Collecte-t-on bien toute la donnée utile ? Est-ce que les investissements nécessaires en valent la peine ?

Du flot de données émerge un flot de questions au lieu de réponses qui donneraient les avantages compétitifs rêvés. Il faut ainsi penser aux processus, à l’organisation, à la fiabilité, au traitement, à la valeur.

Ces questions sont aussi celles du commissaire aux comptes, et de la profession du chiffre tout entière. Comme si cela n’était pas assez compliqué, il faut prendre en compte quelques contraintes supplémentaires : une profession normée, qui évolue (pour de bonnes raisons) lentement, avec des collaborateurs qui n’ont pas été formés à ces sujets, n’ont pas toujours l’occasion de les aborder frontalement (le Big Data dans les TPE n’est pas encore la règle, soyons lucides).

Les enjeux du Big Data pour les commissaires aux comptes recouvrent donc :

1) la compréhension fine de ce que signifie le Big Data, et plus
généralement les conséquences du traitement de volumes de données plus important que ce que l’on a connu jusqu’à présent ;

2) l’impact de ces changements pour les entreprises auditées elles mêmes, notamment du point de vue des systèmes d’information et
des conditions de production de l’information financière ;

3) les solutions actuelles pour prendre en compte ces évolutions
dans l’audit conduit (formation, accompagnement du changement,
adoption…).

Le Big Data, du mythe à la réalité

Le Big Data désigne l’explosion des données produites et disponibles à travers le monde. Il est une conséquence de cette révolution numérique qui transforme notamment le monde de l’entreprise. La profession prend conscience des impacts – souvent concrets au quotidien – du Big Data sur les entreprises et sur la mission d’audit légal. A titre d’exemple, deux matinales ont été organisées par la CRCC de Paris dès le 30 mai 2018 sur le « Big Data et la profession de commissaire aux comptes » et le 8 octobre 2018 sur « l’audit du futur ».

Le sujet agite clairement la profession, partagée entre les prosélytes, les résignés ou les sceptiques. A ce jour, la profession ne dispose cependant que de peu d’outils et de documentations concrètes (guide méthodologique, fiches pratiques) permettant d’identifier les bonnes pratiques et les écueils à éviter. La création du Lab50 – Observatoire de la profession dont les axes majeurs sont la data et l’intelligence artificielle est une émanation concrète attestant de la volonté de nos instances de se positionner et d’apporter des solutions théoriques et pratiques.

Bref, de se faire une véritable idée de l’impact de ce nouveau contexte sur notre profession. Néanmoins dans la réalité du quotidien de nos cabinets, le logiciel Excel, utilisé souvent de manière standard (c’est-à-dire comme il y a 15 ans, avant le développement de PowerPivot et PowerQuery, composants aujourd’hui de PowerBI), reste le principal outil de travail du commissaire aux comptes dans le cadre de la collecte, de la fiabilisation, du traitement et de l’exploitation des données.

Sans même devoir aller jusqu’au « vrai » Big Data (des centaines de millions de lignes qui augmentent à une vitesse importante), des clients ETI ou appartenant à certains secteurs d’activité spécifiques comme les télécoms ou la distribution produisent de nombreuses données difficiles à maîtriser avec les méthodes habituelles (Excel, donc) et qui sont le produit de nombreuses sources aux formats différents. Symptômes bien concrets de cette situation pour le commissaire aux comptes : lenteur des traitements des données volumineuses, fragmentation des fichiers et des analyses, manipulations répétitives et chronophages, traçabilité fastidieuse des traitements… Du système d’information à la donnée

Face à cette complexité, plusieurs enjeux s’imposent à l’entreprise et à l’auditeur :

• La compréhension des systèmes d’information : complexité des systèmes et des processus associés au traitement de la donnée (automatisation des traitements et des analyses). Cette compréhension demande l’appui de spécialistes en systèmes d’information et en analyse de données, qui parle le même langage que l’auditeur.

• La fiabilisation de la donnée : des contrôles spécifiques doivent être mis en place par l’entreprise afin de s’assurer de l’intégrité, de l’exactitude et de la pertinence des données. Cela est d’autant plus important qu’une erreur sera difficile à repérer et peut entraîner des biais ou des données faussées présentées au client. 30 //////// OUVERTURE N° 108 – DÉCEMBRE 2019 e-c-f.fr/edition/revue-ouverture.html

• La maîtrise de la gouvernance des données : transversalité, multiplicité des interlocuteurs et apparition d’une nouvelle fonction de gouvernance de la donnée sont désormais de plus en plus courantes dans les entreprises, phénomène accéléré notamment par la mise en œuvre de la RGPD. Adapter nos méthodes face au Big Data en milieu « réel » Pour prendre en compte ce nouvel environnement, des outils aujourd’hui largement accessibles sont disponibles. Ils nous incitent à réfléchir à une méthodologie renouvelée et adaptée au contexte. Les principes clés de cette méthodologie incluent :

• Une stratégie d’évaluation de la qualité de la donnée ;

• Une stratégie de déploiement d’une démarche assurant l’analyse efficace de données très volumineuses ;

• Des exemples d’utilisation d’un outil de modélisation et de visualisation des données dans le cadre de la réalisation de revues analytiques. Mais les principes ne suffisent pas ! En pratique, il s’agit bien d’un programme de transformation de la profession.

Comme toute gestion de changement, il nécessite d’anticiper les freins (naturels) et d’accompagner les collaborateurs dans de nouvelles manières de faire. C’est pourquoi il semble nécessaire de faire émerger la fonction de chef de projet de déploiement d’une démarche d’audit orientée « analyse de données » intégrant l’utilisation d’outils de modélisation et de visualisation de données. Il sera notamment en charge de proposer des guides méthodologiques, un plan de formation, des guides d’appréciation de la donnée, une méthode qui définit si l’analyse de données peut être constitutive de preuves d’audit, une aide au choix des outils d’analyse de données en fonction des objectifs poursuivis par l’auditeur ou des exemples de bonnes pratiques.

De manière générale, ces méthodes, livrables et logiciels (la visualisation de données est un champ particulièrement dynamique, avec de nombreux développements et acquisitions ces derniers mois, comme le rachat de Tableau par Salesforce en 2019), sont non seulement une manière de pouvoir aborder de manière fructueuse la masse de données à traiter, mais surtout une voie permettant à l’auditeur de développer ses capacités analytiques. La méthodologie à mettre en place fait gagner du temps, résout des problèmes du quotidien (lenteurs ou bugs) mais apporte également de la valeur, pour l’auditeur et bien sûr pour le client : niveau d’assurance plus élevé, meilleure image de l’auditeur et amélioration du ciblage des recommandations.

Attention, la rigueur et les processus restent essentiels car de mauvaises données (ou un mauvais traitement / interprétation des données) constituent un écueil à ne pas sous-estimer et engagent la responsabilité de l’auditeur. Il est à prévoir que les nouvelles technologies du traitement de l’information (intelligence artificielle, deep learning…) continueront de transformer la profession en accélérant l’automatisation des analyses et la mise en place d’un audit continu assisté informatiquement. L’essentiel résidera cependant toujours dans la prise de recul dans l’utilisation de ces outils afin de les mettre au service de la profession de commissaire aux comptes, accroître son attractivité, et mieux servir les entités auditées : autrement dit, ce changement de paradigme est l’opportunité d’une évolution gagnant /gagnant pour l’auditeur comme pour l’entreprise et l’économie en général dont il ne faudra cependant sous-estimer la difficulté, à la fois en termes de formation des collaborateurs, de normalisation des méthodes de travail et de création d’une véritable valeur.

Contact

Téléphone

01 29 38 48 74

Email

mail@domain.com

Adresse

16 rue du pont neuf 75001 Paris

Vidéo Conférence: Power BI nouvelle compétence incontournable

Vidéo Conférence: Power BI nouvelle compétence incontournable

CAC 40 / Missions « Data » : Power BI nouvelle compétence incontournable dans nos cabinets ?

Description:
La suite logicielle Power BI permet d’accéder, de mettre en forme, d’analyser, de sécuriser l’accès, de diffuser les données et indicateur de gestion de l’entreprise. Elle répond aux besoins complexes des grands groupes (analyse type Big Data) comme au besoin de tableaux de bord des plus petites structures. 2020 marque un tournant : les entreprises et les cabinets se forment mais appréhendent aussi la complexité d’implémentation de cet outil. Pendant cet atelier d’1h30, deux spécialistes de cet outil vous présenteront les missions, les méthodes mais aussi les compétences à acquérir pour faire entrer cet outil dans vos missions de conseil et d’audit.
Thématiques:  PERFORMANCE & STRATÉGIE

La conférence du LAB50 – L’Odyssée de la data

 

L’Odyssée de la data

Description:
Le Lab50 vous propose une conférence exceptionnelle en 3 actes pour tout comprendre des enjeux de la data dans nos professions et identifier les nouvelles opportunités qui s’offrent à nous : • Les sources de données : quels points d’attention pour les prochaines années ? • Comment grâce à la business intelligence et la data visualisation, transformer les données en informations, puis en conseils et recommandations rémunérées ? • Quel est le rôle de l’humain dans cette odyssée ? Orchestrée par Cyril Degrilart, cette conférence mettra en lumière les intervenants et les membres des groupes de travail du LAB50, qui recherchent et analysent toute au long de l’année, pour vous, des réponses et des solutions pour nos métiers demain. Un rendez-vous avec votre futur à ne pas manquer ! Rendez-vous sur notre site pour suivre toute notre actualité : https://www.lelab50.fr/

Partager

Partager