Point de vue: La BI, un outil évolutif ou ringard?

Point de vue: La BI, un outil évolutif ou ringard?

Point de vue de Didier, manager au sein du Groupe Estia

 La BI, un outil évolutif ou ringard?

A l’heure du big data, de l’intelligence artificielle, ou autre data science, on en viendrait presque à passer pour un « ringard » en parlant de BI ou pire encore « d’informatique décisionnelle ».

Parlez donc à un jeune diplômé fraichement sorti de son master en data science, s’il vous écoutera poliment lorsque vous lui expliquerez les bénéfices de la BI, son esprit sera invariablement tourné vers les modélisations, la programmation en R/Python, comment traiter les données sur un cluster Hadoop grâce à Spark, etc…

20 ans après le passage à un nouveau millénaire, la BI est-elle encore une réalité et un besoin commun à la majorité des organisations, ou est-ce un dinosaure en voie d’extinction, progressivement remplacé par toutes ces nouvelles technologies ?

Qu’est-ce que la BI ?

Quel est le point commun entre des fonctions a priori aussi différentes que les RH, le marketing, le commercial, la finance, la production,… ? La data ! Que l’on souhaite analyser les candidatures sur les réseaux sociaux, cibler des clients pour leur proposer les meilleures offres, piloter les ventes, optimiser ses rendements financiers ou détecter les pannes sur une chaine de production, tous ces besoins pourront être couverts en captant et en apportant de la valeur ajoutée aux données pour les utiliser à bon escient.

C’est ce que permet la Business Intelligence, aussi appelée « Informatique décisionnelle ». Elle englobe les solutions IT apportant une aide à la décision aux professionnels. Elle permet d’avoir une vue sur le passé, le présent et d’anticiper le futur.

La notion est apparue à la fin des années 70, avec le développement de structures de stockage informatique que l’on appelait alors des infocentres.

Ceux-ci envoyaient directement des requêtes sur les systèmes de production, ce qui avait pour effet de surcharger et de mettre en difficulté ces systèmes, mais permettait à des utilisateurs d’aller chercher des données pour les traiter avant de les diffuser aux métiers.

Les années 80 voient le développement de bases de données relationnelles s’appuyant sur une couche client/serveur, pour scinder l’informatique de production de l’informatique décisionnelle.

Dans les années 90/2000, on observe alors l’arrivée de structures décisionnelles de plus en plus complexes, permettant de traiter une masse d’informations en forte croissance. Les structures informatiques s’appellent entrepôt de données (« Datawarehouse ») ou magasin de données (« Datamart » i.e. la vision métier d’un datawarehouse). Ceux-ci sont alimentés idéalement par des ETL (« Extract Transform and Load »), qui permettent la traçabilité de la donnée en identifiant la source, les opérations de transformation réalisées sur chaque donnée, et l’intégration dans le système décisionnel. Un des grands avantages de ces systèmes est de pouvoir historiser des données qui sont volatiles dans les systèmes de production, afin de permettre l’analyse de tendances ou des changements utiles dans la prise de décision (=> important dans les systèmes prédictifs).

En aval de la chaine se développent des outils d’analyses permettant de réaliser des reportings, des tableaux de bord, des analyses statistiques et de visualiser ces grandes masses d’information en les synthétisant notamment par des moyens graphiques.

La BI intervient donc dans toute la chaine de valorisation de la data

La BI intervient donc dans toute la chaine de valorisation de la data

 

BI vs Big Data ou BI ET Big Data ?

Si les plateformes BI traditionnelles sont de plus en plus puissantes et permettent un stockage de données toujours plus important, elles sont aujourd’hui complétées par des structures Big Data qui :

  • Permettent de traiter des données non structurées,
  • Utilisent des nouveaux langages et techniques, tels que le NoSQL (le SQL restant pour sa part le langage utilisé couramment pour attaquer les structures de type relationnelles), Hive sur Hadoop pour analyser et requêter, Spark pour réaliser des calculs distribués, …
  • Parallélisent les traitements pour gagner en performance
  • Sont capables d’accueillir des datas gourmandes en place de stockage, comme les logs web, des images, des données textuelles…

La question d’une architecture Big Data se pose dans une organisation en fonction des « 5V » : Volume, Variété, Vélocité, Véracité, Valeur

  • Volume : la quantité de données disponibles est aujourd’hui en telle expansion qu’on parle de courbe exponentielle pour qualifier le volume de données produites par l’ensemble des systèmes du monde entier : traces web, données issues des réseaux sociaux, données collectées par les appareils connectés, traitement de données vocales, données générées plus facilement et en continue par l’utilisation des smartphones, etc… Selon McKinsey, le volume mondial de données double tous les 3 ans, et le cabinet IDC estime en 2020 à 1,7 Mo généré par habitant de la terre chaque seconde ! Pour autant, on estime en parallèle que près de 90% des données ne sont pas aujourd’hui exploitées, ce qui montre encore l’ampleur du travail qu’il reste à faire !
  • Variété : on peut aujourd’hui analyser les datas de formats très différents (numérique, texte, image…) et surtout mixer les analyses faites sur ces différents formats, ce qui n’était pas possible jusqu’alors (on analysait isolément les données numériques d’un côté, les données textuelles ou les images de l’autre).
  • Vélocité : stocker un maximum de données c’est un premier pas, mais les systèmes se doivent d’être performants dans leur capacité à rendre des résultats rapidement. Plus question d’attendre de longues heures le résultat d’une requête, surtout lorsque l’on est sur une phase exploratoire de découverte des données.
  • Véracité : il est primordial d’engager un travail important sur la qualité des données, leur nettoyage, leur enrichissement pour tirer de bonnes conclusions en exploitant les données que l’on mettra à disposition via les plateformes big data.
  • Valeur : l’objectif de la mise en place d’une architecture big data repose avant tout sur l’apport de la valeur ajoutée que l’utilisation de ces systèmes apportera aux métiers ; on pourra démarrer ces projets pour les réaliser des POV (« proof of value ») qui démontreront l’intérêt de mettre en place une architecture big data pour répondre à des besoins opérationnels

On ne peut donc pas réellement opposer aujourd’hui BI et Big Data, mais plutôt parler de technologies complémentaires, l’une mature, la BI, mais qui connait encore des avancées technologiques chaque année et n’est pas encore à son optimum dans beaucoup d’organisations, l’autre, le Big Data, en pleine phase de croissance, qui est amenée à se développer encore au fur et à mesure des avancées technologiques et de la montée en compétences de profils techniques pour les utiliser.

Sur ce dernier point le métier de data scientist est selon le site Glassdoor le numéro 1 au classement des meilleurs jobs du monde (en termes de salaire moyen, d’offres d’emploi et de taux de satisfaction de personnes qui exercent ce métier) …

Les fondamentaux de la BI

Quelques notions à connaitre :

  • Métrique

Un métrique est une donnée numérique de base, sommable, qui peut être utilisée directement ou servir à calculer un indicateur (ex : nombre de ventes, montant d’encours de crédit, nombre de clients, …)

  • Indicateur

Un indicateur est une information numérique, soit correspondant sans transformation à un métrique (ex : nombre d’emails envoyés, nombre d’emails ouverts) soit calculé à partir de métriques (ex : taux d’ouverture des emails) et qui pourra être projeté sur les dimensions (ex : indicateurs précités projetés par segments de client et dans le temps).

  • Axe d’analyse/Dimension

Une Dimension (ou axe d’analyse) est un ensemble d’informations, souvent hiérarchiques, qui permettent de regrouper des statistiques en fonction de structures prédéfinies (ex : dimension temporelle, dimension organisationnelle, dimension produit, dimension client…).

  • Table de faits

Une table de faits est une table qui contient les données observables (métriques, indicateurs) que l’on possède sur un sujet et que l’on veut étudier, selon divers axes d’analyse. Les « faits », dans un entrepôt de données, sont normalement numériques, puisque d’ordre quantitatif. Il peut s’agir du montant des ventes, du nombre d’unités produites d’un produit, du nombre d’impayés, etc….

  • Modélisation

2 grands types de modélisation décisionnelle existent : la modélisation en étoile et la modélisation en flocon.

Pour la modélisation en étoile (on parle de modèle dénormalisé), on distinguera les tables de faits, contenant les identifiants de chaque dimension et détaillant les faits en fonction de la granularité souhaitée, et les tables de dimensions, qui en plus de l’ID de la dimension, contiennent toutes les propriétés propres à chacune d’entre elles (exemple : une table de fait qui contient les ventes historisées par produit, et une table de dimension qui avec l’ID produit rapporte les caractéristiques du produit, son nom, son prix unitaire, son 1er niveau de catégorie, son 2ème niveau de catégorie,…). C’est le type de modélisation le plus fréquemment rencontré dans les structures Datawarehouse/Datamart car il évite la multiplication de tables et facilite le requêtage.

La modélisation en flocon (on parle de modèle normalisé) reprend ce principe mais découpe les tables de dimensions en créant des hiérarchies de dimensions (exemple précédent : on crée autant de tables de catégories de produit qu’il y a de niveaux, chacune étant reliée au niveau supérieur par un ID) pour éviter les redondances dans les tables de dimension. Cela est utile lorsque les tables de dimensions sont très volumineuses et engendrent des problèmes de performances dans les requêtes.

Les technologies / outils

La collecte

La collecte se fait au moyen d’outils de programmation grâce auxquels les développeurs informatiques vont aller chercher les données pour les stocker dans les structures décisionnelles.

Cette étape nécessite que les données soient formatées, nettoyées et consolidées. La famille d’outils appelés « ETL » vu plus haut est en capacité d’automatiser les traitements et de gérer au mieux les flux d’alimentation du système décisionnel. Ces outils ont la capacité d’extraire, de nettoyer, de transformer, de charger et de rafraichir les données.

Les projets de Master Data Management et de Gestion de référentiels peuvent aider l’organisation à assurer la standardisation et la traçabilité des données (ces projets vont souvent au-delà du système décisionnel). Il existe des solutions progicialisées sur le marché pour gérer le MDM.

Le stockage / intégration

Supports : Systèmes de Gestion de Bases de données relationnelles de type Oracle, IBM, Teradata, Microsoft SQL Server

On rencontre dans les organisations 3 couches de stockage principales :

  • Un ODS : couche primaire du système décisionnel, il stocke les données brutes issues des systèmes de production sans disposer d’un modèle relationnel. Il permet de réaliser un premier tri sur les données utiles à la prise de décision, et également de requêter sur des données de production sans attaquer directement les systèmes de production. L’ODS n’est pas une couche obligatoire mais il est souvent utile de disposer de ce « sas » entre les systèmes de production et le datawarehouse
  • Un Datawarehouse : il contient l’ensemble des données destinées à être utilisées et analysées en aval, organisées sous forme de tables reliées entre elles, et modélisées en étoile ou en flocon. Le choix du modèle est crucial, car le datawarehouse est en constante évolution, pour prendre en compte les modifications dans les données sources, intégrer de nouvelles données, etc…Il devra donc être pensé comme évolutif, le moins coûteux possible à maintenir malgré une complexité souvent croissante.
  • Un Datamart : il s’agit d’une vue métier du datawarehouse. Il permet à des utilisateurs métiers de ne pas être noyés sous l’ensemble des données décisionnelles, et son modèle organise les données pour aider au mieux les utilisateurs métiers dans leurs analyses.

La diffusion

Elle est assurée par des serveurs décisionnels qui vont extraire les informations contenues dans le datawarehouse et les datamarts pour les mettre à disposition des utilisateurs dans les outils end-users.

Pour des raisons de facilité et rapidité d’accès aux données contenues dans les datawarehouse/datamarts, certaines organisations ont créé des cubes décisionnels de type OLAP (OnLine Analytical Process). Ces cubes multidimensionnels permettent à un utilisateur de réaliser des analyses rapidement selon une vue métier, en ayant prédéfini et créé des agrégats à partir des données issues du datawarehouse. Un inconvénient est leur maintenance, puisque rajouter un axe d’analyse, ou un nouvel agrégat, nécessite des opérations de recalcul parfois couteuses en ressources.

L’analyse

Les analyses sont menées par différents types d’outils, ayant chacun pour vocation de transformer les données contenues dans le système décisionnel en informations utiles à la prise de décision.

Auparavant exclusivement intégrées dans des progiciels, l’arrivée du monde open source a ouvert la voie à de nouveaux outils et langages de programmation plus souples d’utilisation (pas de licences, des outils en constante amélioration grâce à l’intervention des utilisateurs qui peuvent améliorer les codes source et les partager) et dont la diffusion ne cesse de croitre.

  • Les outils de requêtage

Il existe de multiples moyens de requêter des bases décisionnelles. Le plus couramment utilisé est le langage SQL (Structured Query Language).

Il se présente sous la forme suivante : Select (je choisis les données que je veux voir) From (je choisis où sont contenues les informations) Where (je choisis éventuellement des conditions) parfois complétés de Order by (je trie les données obtenues) et Group by (j’agrège les données)

Certains logiciels comme SAS disposent également d’un langage propriétaire permettant de requêter les bases, et de transformer et visualiser les données obtenues (par l’intermédiaire de procédures dans le cas de SAS)

  • Les outils de reporting

Leur vocation est de produire des rapports préformatés, produits à échéances variables (quotidien, hebdo, mensuel, …).

L’outil le plus utilisé encore de nos jours pour réaliser des reporting (et des analyses) est…Excel ! La démocratisation de la suite office de Microsoft et sa facilité d’utilisation font d’Excel l’outil de restitution le plus utilisé. Pour autant, cet outil montre vite ses limites lorsqu’il s’agit d’automatiser ou de mettre à jour des données contenues dans des feuilles de calcul, tâche qui peut s’avérer laborieuse et source d’erreurs.

On peut automatiser certaines tâches en utilisant du code VBA, mais cela ne suffit pas toujours à alléger la charge de travail de l’utilisateur, qui passe plus de temps à mettre à jour ses reportings qu’à les analyser.

  • Les tableaux de bord (dashboard)
    Idéalement basés sur des indicateurs clés (KPI), ils permettent d’avoir une vue synthétique de l’activité et de piloter la performance.

La majorité des organisations se sont dotées d’outils de reporting dès le lancement de leur projet BI, leur permettant d’avoir une historisation de ces données.

Sans être inutiles, pour des raisons parfois réglementaires (outils de reporting financiers par exemple) ou parce qu’intégrés dans les process d’une entreprise (ex : les outils de reporting commerciaux qui permettent d’avoir une vision la plus exhaustive possible de l’activité d’une force de vente), ces outils  tendent progressivement à être remis en cause par des outils permettant d’avoir une vision dynamique et graphique des données, tout en étant simple d’utilisation pour des utilisateurs métiers.

Si les outils de dashboarding nécessitent quelques compétences techniques pour créer les visualisations, ils se sont largement démocratisés avec l’apparition d’outils de datavisualisation (« dataviz » pour les intimes) intuitifs et orientés utilisateurs. Ceux-ci ont une double fonction : réaliser des tableaux de bord dynamiques et aider à découvrir des patterns dans des jeux de données potentiellement volumineux.

 

La frontière entre les fonctionnalités de reporting, de dataviz, dashboarding est de plus en plus poreuse, la plupart des suites BI du marché, y compris open source, proposent des outils permettant de couvrir un maximum de fonctionnalités pour les utilisateurs. Ceux-ci incluent également des fonctionnalités datamining, permettant surtout de réaliser des analyses descriptives sans avoir à maitriser un logiciel de datamining/datascience.

  • Les outils de datamining / data sciences

Basés sur des modèles statistiques plus ou moins récents, ces outils s’adressent à des experts, dataminers, datascientists. A partir d’un environnement d’analyse (appelé « dataset ») à construire en fonction de la problématique étudiée, ils permettent de réaliser à la fois des analyses exploratoires et descriptives, mais aussi des analyses prédictives, qui se développent et affinent leurs résultats avec le développement du machine learning et des méthodologies associées (deep learning, forêts aléatoires…)

Ils aident à répondre à des questions métiers (« qui sont les clients qui résilient leur contrat ? » « à qui proposer mon nouveau produit ? » « je souhaite établir une prévision des ventes à court moyen et long terme» « quel est le meilleur parcours client possible en fonction de l’appétence de mes cibles à être impactées par mes canaux de communication» …) grâce à une batterie de modèles statistiques, et permettent de choisir le modèle le plus performant en fonction de la problématique étudiée.

Ces outils ne se limitent plus à trouver les meilleurs modèles statistiques, mais intègrent aujourd’hui des fonctionnalités permettant de déployer les résultats des modélisations dans les environnements métiers (CRM, outils de campagnes marketing, …).

On pourrait schématiser une méthode data mining/data sciences standard de la manière suivante :

Le processus est itératif : on revient à l’étape précédente si nécessaire avant de valider et de passer à l’étape suivante

Le processus est itératif : on revient à l’étape précédente si nécessaire avant de valider et de passer à l’étape suivante

 

Autrefois portés par des progiciels intégrant les fonctions de modélisation (SAS, SPSS Modeler…), les modèles statistiques sont aujourd’hui accessibles sans acheter des licences d’outils grâce à l’émergence de langages de programmation open source permettant aux dataminers/datascientists de les utiliser (programmation en R, Python permettant l’accès à des bibliothèques de modèles partagés).

Dans la catégorie “logiciel”, on citera IBM Watson (=SPSS Modeler), SAS, Dataiku, Decision.io…

Qui utilise la BI ?

Si la BI s’est développée dans les services financiers et comptables (pour des raisons de consolidation budgétaire notamment), elle s’est étendue à tous les domaines de l’entreprise : marketing, commercial, production, logistique jusqu’aux services RH.

Autrefois réservée à des spécialistes (informaticiens, statisticiens, data analysts,…), la BI traditionnelle se transforme par le biais de programmes de data analytics, dans lesquels les utilisateurs métiers sont fortement impliqués pour que l’utilisation des données stockées et mises à disposition des plateformes BI réponde au mieux à des questions métiers et soit génératrice de création de valeur.

Les applications end-user se sont mises à la portée des utilisateurs non techniques (sans bagage informatique ou statistique), pour que toute personne dans l’entreprise puisse accéder à l’information utile en fonction de ses besoins.

Quelques points importants pour mener à bien un programme BI

Ecartons tout de suite la question : faut-il mener un programme BI ? Sans hésitation la réponse sera invariablement oui, quel que soit le type d’organisation (privée, publique, à vocation caritative…), le secteur d’activité, la taille de l’entreprise ou les métiers concernés.

Une organisation se dotant d’une capacité de traitement de l’information efficace améliorera indéniablement ses performances et sera en mesure de prendre des décisions basées sur des arguments rationnels pour valider ou invalider des intuitions en minimisant le risque d’erreurs, dégager des tendances ou découvrir de nouvelles patterns.

Mais il n’existe pas de projets BI « type » : si on peut retrouver des problématiques communes dans les organisations, la variété des sources de données, des écosystèmes IT existants, des besoins fonctionnels plus ou moins complexes, de la maturité des équipes métiers, des contraintes budgétaires font que chaque projet BI est un cas unique.

Il existe néanmoins quelques règles immuables qui permettent d’éviter les projets sans fins, ou les projets qui n’atteignent pas les objectifs fixés.

Pour avoir un maximum de chances de réussir, un projet BI :

  • Doit être porté au plus haut de l’organisation = projet d’entreprise sponsorisé idéalement par la DG
  • Doit éviter l’effet tunnel = être pensé de manière itérative, évolutive
  • Doit commencer par une phase de recueil des besoins -> pas de projets BI efficients si les objectifs métiers n’ont pas été clairement définis en amont
  • Doit intégrer au-delà de la phase de recueil des besoins les utilisateurs métiers = au démarrage, il peut être intéressant de constituer un POV (« proof of value ») sur un environnement fonctionnel restreint, qui validera la démarche et permettra de dégager rapidement des bénéfices métiers

 

Mais la BI ne se résume pas qu’à des considérations techniques, informatiques ou statistiques. Les règlementations croissantes autour de l’utilisation des données (comme la règlementation sur la protection des données personnelles RGPD), la prise en considération de la data non plus comme un coût mais comme un actif pour de nombreuses entreprises, les problématiques de qualité de données et d’environnements BI rendus complexes par l’accumulation de couches techniques successives au fil du temps ont fait émerger un nouveau domaine: la data gouvernance.

On voit ainsi dans des organisations toujours plus nombreuses apparaitre un nouveau métier : le CDO (Chief Data Officer). Le CDO a pour rôle essentiel d’optimiser et sécuriser l’usage de la donnée dans son organisation : définir une politique de gouvernance de la donnée, mettre en place et s’assurer de la bonne application des process de la chaine de valeur de la donnée, gérer les aspects réglementaires autour de la donnée.

Attention à ne pas confondre CDO et DPO (Data Protection Officer) : cette dernière fonction a été créée dans le cadre du RGPD lorsque l’activité de base exige un suivi régulier et systématique à grande échelle des personnes concernées, lorsqu’il s’agit d’un un traitement à grande échelle de données dites « sensibles » ou pour toutes les autorités et organismes publics. Les DPO sont majoritairement issus des métiers informatiques et juridiques.

N’oublions pas enfin le fondamental : la BI ne se substitue pas aux décideurs, mais apporte des éléments factuels dans le cycle de décision pour prendre les meilleures décisions au meilleur moment a priori et en mesurer les effets a posteriori. Si le développement de l’IA tend à supprimer pour certaines tâches l’intervention humaine, l’Homme reste néanmoins au final dans la majorité des situations seul maitre de l’utilisation qu’il fait des données.

Exemple d’utilisation de la data : le cercle vertueux de la donnée dans le process marketing/commercial – les méthodes/outils BI interviennent aux étapes 1 et 4 pour améliorer la performance des actions marketing et commerciales et en mesurer les effets

Exemple d’utilisation de la data : le cercle vertueux de la donnée dans le process marketing/commercial – les méthodes/outils BI interviennent aux étapes 1 et 4 pour améliorer la performance des actions marketing et commerciales et en mesurer les effets

Les tendances actuelles

Les avancées technologiques

Les applications de BI bénéficient d’avancées technologiques permettant de rendre plus fluide le travail des utilisateurs finaux en traitant des calculs complexes plus rapidement : capacité des processeurs (architecture 64 bits, multi cœurs), traitement des calculs en mémoire vive (« in-memory »).

La BI en mode cloud ou SaaS s’est également développée, profitant de serveurs sécurisés, de l’émergence des pure players du web moins réticents à utiliser ces technologies que les entreprises « traditionnelles » et permettant aux DSI d’externaliser les applications décisionnelles pour se concentrer sur l’IT de production.

La Business analytics
En complément de « Business Intelligence », on entend aujourd’hui parler de « Business Analytics ». La BI est plutôt bien définie aujourd’hui en termes de techniques et d’outils : ETL, datawarehouse/datamart, outils de restitution pour faire des reportings, dashboards, analyses basées sur la datavisualisation. Ces techniques servent à avoir une vision de l’existant par rapport à un passé ou par rapport à des objectifs. On pourrait qualifier la BA comme un sous-ensemble de la BI, en plein développement, qui s’appuie sur les données collectées dans les structures BI pour analyser le passé, comprendre le présent et prédire le futur. On rangerait alors dans cette catégorie les outils d’analyses statistiques, datamining, datasciences qui permettent de s’appuyer sur les évènements passés pour prédire des comportements futurs.

Traitements business analytics en fonction de la complexité et de la valeur apportées par les analyses

Traitements business analytics en fonction de la complexité et de la valeur apportées par les analyses

Le développement de l’IA

Les algorithmes d’Intelligence Artificielle sont aujourd’hui de plus en plus intégrés dans les outils de BI.

La notion d’XAI (i.e. Intelligence Artificielle Explicable) est apparue et se repose sur des applications permettant d’interpréter les résultats obtenus grâce à des techniques d’IA de manière opérationnelle

Des outils tournés vers la collaboration

La BI s’est développée dans toutes les fonctions des organisations. Au sein d’un même service, il n’est pas rare de trouver plusieurs collaborateurs travaillant en parallèle sur des outils de BI. Pour partager les informations, et éviter les travaux en silos, les outils actuels de BI intègrent de plus en plus des fonctionnalités de travail collaboratif, afin de partager des résultats d’analyses, des commentaires, souligner certains points découverts et les partager avec les autres collaborateurs.

 

Un travail continu sur la qualité des données

En BI, on ne doit jamais perdre de vue qu’une donnée doit posséder des caractéristiques immuables pour être utile et utilisable : elle doit être exacte, à jour, cohérente et complète.

Selon une étude d’IBM, les problèmes de qualité des données font perdre chaque année aux entreprises américaines 3,1 milliards de dollars.

En résumé : pas de bonne BI sans bonne qualité des données -> « garbage in, garbage out » !

Des analyses exploitables partout

Un bon programme BI se définit par la qualité des prises de décision qui doivent apporter de la valeur à l’entreprise en utilisant les données à bon escient.

Cela implique que le travail autour de la donnée ne se fasse pas en silos, entre la collecte, le stockage, la transformation et l’utilisation des informations utiles pour répondre aux questions que l’on se pose.

Les outils BI sont de plus en plus liés aux applicatifs opérationnels (développement d’API ou extensions de tableau de bord par exemple) pour que les travaux d’analyse soient au plus proche de l’utilisation qui en est faite.

On observe dans ce sens un accroissement des outils de BI mobile, orientés end-users, pour faciliter la prise de décision auprès de populations nomades comme des forces de vente.

Le data storytelling émerge

Sortir un maximum de chiffres et d’analyses à partir de données brutes c’est bien, mais on se retrouve vite noyé sous une grande quantité d’informations qui ne permet pas toujours de trouver des explications à un phénomène si ces informations ne sont pas remises dans un contexte métier.

Le data storytelling facilite justement la prise de décision en ramenant ces analyses dans un contexte, pour « raconter une histoire » à partir des analyses obtenues et passer de l’idée à l’action.

La data discovery enrichie par la dataviz

Une tendance forte ces dernières années qui continuera son expansion en 2020 est de présenter les données provenant de plusieurs silos à un utilisateur non expert technique en les fusionnant par le biais de visualisations intuitives et compréhensibles (tableaux dynamiques, visualisations géographiques, cartes de chaleur).

Les outils de datavisualisation sont dotés de capacités de représentation de la donnée pour que l’utilisateur se concentre sur l’analyse et la découverte de patterns cachés dans de grandes masses d’informations.

 

Alors ? La BI a-t-elle encore de beaux jours devant elle ?

Comme nous l’avons vu nous sommes loin d’avoir exploré et exploité toutes les possibilités qu’offre son champ d’action.

Elle couvre aujourd’hui un champ d’activité très large, des infrastructures aux outils de restitution de l’information, et fait appel à de multiples compétences pour tirer profit des systèmes décisionnels qui sont mis en place.

Cela implique un travail toujours plus collaboratif entre ces acteurs, afin d’éviter les silos qui ne manquent pas d’émerger, que ce soit entre les techniques et les métiers, et même à l’intérieur de ces fonctions. Un projet BI est et restera toujours un projet d’entreprise porté par les hommes et les femmes qui la composent. Son efficacité sera d’autant plus grande que l’on aura trouvé l’alchimie entre tous ces acteurs.

Ainsi pour arriver à faire « parler » les données et en tirer de la valeur ajoutée, il est essentiel dans toutes les organisations de trouver des « facilitateurs », intervenants internes ou externes dans les projets BI, qui disposent d’une vue globale et prospective, sont en capacité de comprendre les besoins métiers, de les retranscrire dans des termes techniques, et s’assurer que les solutions techniques vont bien pouvoir aider les métiers. Si la BI se résume à la technique, les objectifs ne seront jamais atteints. Si on ne se concentre que sur les besoins métiers, on ne trouvera pas les meilleures solutions pour y répondre. Tout est question de partage pour avancer ensemble vers un objectif commun.

Enfin, la BI est un générateur de connaissances. A ce titre n’oublions pas que si la connaissance vient en cherchant une réponse à une question, cette réponse devra toujours être confirmée ou infirmée par l’action, ce qui permettra à la BI d’apporter sa valeur ajoutée.  « A la source de toute connaissance il y a une idée, une pensée, puis l’expérience vient confirmer l’idée » (Claude Bernard).

 

 

Sources :

La boite à outils de la stratégie Big Data – Romain Rissoan, Romain Jouin – Dunod 09/2018

Data mining, découverte de connaissances dans les données – Daniel T Larose, Chantal D Larose, T. Vallaud – Vuibert 11/2018

Big data, Smart data, Stupid data – Antoine Denoix – Dunod 01/2018

 

0 Avis

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>