Point de vue: L’exploitation de la donnée à la portée de tous

Point de vue de Gaël, Manager & Tanguy, Consultant au sein de l’équipe Data Technologies

 

L’exploitation de la donnée à la portée de tous

La tendance à la digitalisation et à l’automatisation massive multiplient les données à analyser, données pouvant à présent exploitées par « tous ». Elles proviennent de sources très hétéroclites parmi lesquelles :

  • Usages clients
  • Prospection et animation commerciales
  • Navigation Web
  • Chaînes de production
  • Chaîne logistique
  • Maintenance outils
  • Objets connectés

Leur partage et leur exploitation sont susceptibles de générer des bénéfices à chaque échelon de l’entreprise.

A titre d’exemple, l’analyse et le suivi des données des chaînes de production seront en mesure d’intéresser aussi bien un responsable d’atelier qu’un directeur technique mais avec des spécificités propres à leur périmètre de responsabilité respectif.

Les données auront d’autant plus de valeur opérationnelle pour les différents acteurs de l’entreprise que les supports utilisés leur permettront de partager le même socle d’analyse, de suivi et d’échange des résultats. Le choix d’une solution permettant à tous les acteurs de l’entreprise d’exploiter l’intelligence et la valeur liées à la donnée dans le pilotage de leur activité devenant alors un réel différentiel industriel et sectoriel !

La Data Visualisation permet de partager facilement cette expérience autour de la donnée. Elle se base sur un principe de création de représentations graphiques, avec une lecture simple, rapide et  compréhensible par le plus grand nombre. En complément de ces fonctionnalités de représentation et de visualisation des données, certaines solutions de Data Visualisation offrent des fonctionnalités plus avancées, parmi lesquelles :

  • L’exploration avancée des données (datamining, datacrunching, modélisation, etc.)
  • Des plateformes collaboratives
  • La disponibilité des données en temps réel
  • La restitution de résultats d’algorithmes de Data Science et d’Intelligence Artificielle
  • La possibilité de requêter en langage naturel

L’intégration de la Data Visualisation au sein d’une entreprise nécessite de partager une vision centralisée des données et d’avoir des experts dédiés, aussi bien fonctionnellement que techniquement ; en effet la Data Visualisation n’est pas une « sous-caste » de la Data Science ou du Data Mining mais bien une expertise et un savoir-faire à part entière !

Cette expertise permet de répondre à la diversité des besoins en adaptant les solutions aux spécificités des métiers de l’entreprise tout en gardant une homogénéité dans la construction des visualisations. Lors de la création des rapports, ces équipes utiliseront leurs expériences plurielles pour déployer une méthodologie éprouvée, spécifique à l’organisation technique et fonctionnelle de l’entreprise. Elle favorisera la bonne compréhension des besoins métiers et une implication maximale des futurs utilisateurs dans le processus, garantissant ainsi une utilisation optimale des applications livrées.

Pour recueillir les besoins métiers de façon efficiente, il est nécessaire de répondre à un certain nombre de questions dont les réponses seront déterminantes dans les choix visuels, des solutions techniques et des approches méthodologiques.

Bien que non exhaustives, détaillons les questions essentielles :

 1 Quelle problématique ?

 L’application doit répondre à une (et une seule !) problématique simple, concise et précise. En effet, la facilité consisterait à vouloir répondre à un maximum de questions lors de l’élaboration de l’application, garantissant ainsi le fameux effet « Wahoo » : such a bad idea !

En effet, ces applications « fourre-tout » ne donneront pas une bonne image de la Data Visualisation et ne répondront pas au besoin initial d’analyse et de pilotage avec des indicateurs précis et lisibles : manque de clarté évident, multiplicité des indicateurs, nécessitant alors des projets d’alimentation de données complexes et avec à la clef des temps de réponse désastreux. L’adage disait « Qui trop embrasse mal étreint » mais effectivement à vouloir satisfaire le plus grand nombre, l’application ne sera utilisée que pour quelques métriques ou graphiques éparses mais les utilisateurs ne se l’approprieront pas.

 2   Quel public ?

L’ensemble des fonctionnalités de l’application et son design doivent être adaptés au public cible. La maitrise de la connaissance des données et du sujet traité aideront à définir le niveau de technicité (métier et IT) de l’application. Les utilisateurs finaux des applications développées ne sont pas toujours habitués à manipuler des données, il faut donc souvent que l’outil puisse s’adapter à un niveau de lecture plus ou moins détaillé. Si l’on doit laisser des utilisateurs peu techniques créer des applications, une solution de type « éditeur » avec des graphiques disponibles en « drag and drop » sera souvent plus appropriée car ne nécessitant pas de développement avancé ou de connaissance spécifique d’un langage. Cette prise en compte de la maturité « data » et « techno » des utilisateurs participera à l’anticipation de leur accompagnement à l’appropriation des applications de Data Visualisation avant la mise en production.

 3 Quel périmètre data et quelle fréquence d’alimentation ?

Les données utilisées au sein de l’application vont avoir une incidence sur l’ensemble du processus de l’application et des outils choisis.

Dans de nombreux secteurs, les sources de données sont variées et pas toujours aisément accessibles de manière standardisée. Il faudra donc s’assurer en premier lieu de l’existence de connecteurs entre la solution envisagée et les différentes sources de données à intégrer (bases de données relationnelles ou NoSQL, fichiers Excel, …) ou la possibilité d’une solution technique permettant la mise à disposition de ces données. D’autres sujets connexes tels que l’attribution des droits d’accès à la donnée ou la gestion de la qualité des données pourront être chronophages dans la conception et devront donc être appréhendés dès le début du projet.

Outre ces points, la notion de mise à jour des données aura également une incidence forte sur l’architecture technique de l’application et son coût de développement (de la conception à l’industrialisation). Il est souvent exigé lors de l’expression de besoin par les équipes métiers d’avoir des données disponibles en temps réel, mais en analysant de manière plus détaillée les usages, il est fréquent de se rendre compte que ce temps réel n’est pas nécessaire dans les analyses et qu’un flux journalier ou horaire sera amplement suffisant.

4 Quelles métriques à intégrer et quels axes d’étude ?

Véritable ossature du rapport, elles doivent être discutées dès les premiers échanges avec les équipes métiers tout en s’autorisant l’intégration de nouvelles données au fur et à mesure de la conception. Chaque métrique doit être étudiée, clairement définie et partagée par tous les utilisateurs ; la création d’un référentiel d’entreprise est en règle générale une bonne pratique afin d’éviter des applications disposant d’indicateurs ayant les mêmes libellés mais des définitions différentes : la convergence de métriques – et des règles de gestion associées – étant une nécessité business au sein de l’entreprise au-delà même des projets de Data Visualisation !

Bien que fastidieux, la spécification des règles de gestion des indicateurs permettra également aux développeurs d’applications d’être en conformité avec les attendus métiers. La combinaison de ces métriques avec des axes d’analyse, pour réaliser des filtres ou des agrégats, définiront le modèle de données de l’application et les potentielles sources de données à ajouter au besoin initial. Par exemple dans le cadre d’un suivi de production avec des indicateurs de volumes hebdomadaires, les données journalières pourront être directement agrégées en amont de l’application réduisant ainsi drastiquement les temps de calculs.

5 Quels types de graphiques ?

 Les équipes métiers ont souvent des spécificités de représentations propres à leurs usages pour représenter un indicateur spécifique : un tunnel de conversion dans le digital, ou tout simplement une visualisation totalement personnalisée pour représenter les données issues de capteurs sur une chaîne de production.

Si les visuels souhaités sont simples (histogrammes, courbes, tableaux), il peut être intéressant de s’orienter vers une solution « clic-bouton », qui nécessitera peu voir pas de développement. Au contraire, certaines visualisations nécessiteront souvent un travail spécifique (radar charts, diagramme de sankey, …), qui sera plus facile à développer avec des outils basés sur du code (R, Python, D3).

L’identification des représentations graphiques et de leur faisabilité au plus tôt dans le projet éviteront un sentiment déceptif lors de la présentation des maquettes et pourront orienter le choix de l’outil.

6 Quel niveau d’interaction ?

Il est possible de laisser entièrement la main à l’utilisateur pour la conception de ses propres restitutions, d’intégrer des filtres ouverts ou comportant juste une liste de sélection où les mesures peuvent être affichées sur des écrans partagés vues de tous sans possibilité d’interagir. Ces différentes applications répondent à des besoins distincts, il est donc important de comprendre jusqu’à quel niveau les utilisateurs ont besoin de pouvoir interagir avec la donnée et de définir ce niveau d’interaction au regard de leur niveau technique.

7 Quel niveau de personnalisation ?

Les restitutions peuvent parfois devenir très complexes, des utilisateurs peuvent souhaiter intégrer un design propre à leur société : un masque corporate sur l’ensemble de l’application ou une application construite sur les recommandations d’un UX Designer.

Le niveau de personnalisation de l’interface de l’application va bien entendu avoir une incidence sur l’outil sélectionné. Un développement complet d’une application Web permettra de personnaliser entièrement l’application mais sera plus couteux et difficile à maintenir que la création d’une application à partir d’un outil du marché.

8 Quel niveau de sécurisation/confidentialité ?

 Communiquer dès le départ avec les équipes informatiques et sécurité, de même que les administrateurs des bases de données permettra de s’assurer de l’accessibilité des données, et de la politique à laquelle devra se conformer l’outil mis en place. La multiplicité des contraintes de périmètre de données accessibles pour les utilisateurs peuvent être complexes à gérer.

Ces notions de sécurité auront un impact sur le design de l’application pour l’affichage de graphique, de tableau ou de filtres qui ne doivent pas être à la main de tous. Par exemple dans l’industrie, un onglet pour visualiser la consolidation des métriques sur l’ensemble des sites de production pourra être vu par un directeur financier mais pas par le responsable d’exploitation d’un site particulier.

9Quel mode de consommation majeur des solutions et des métriques ?

Il pourra donc être nécessaire de créer des applications « responsives » ou de prévoir une API pour consommer des visualisations. Ces éléments guideront les utilisateurs dans leurs choix techniques en respectant les contraintes. Des outils éditeurs ou Open Source peuvent être « responsives » nativement alors que d’autres nécessiteront des développements supplémentaires.Les solutions développées peuvent maintenant être exploitées sur de multiples supports : un smartphone via un navigateur ou une application dédiée, un site Web, des métriques intégrées au sein d’une application, via un portail d’entreprise, sur des écrans au sein d’un open space…

Chaque projet de Data Visualisation est unique, le cadrage des projets réalisés pourra amener les entreprises à sélectionner des outils en fonction de leur budget et des ressources techniques. C’est pourquoi il est important de capitaliser sur l’ensemble des expériences de l’entreprise pour mener une démarche globale autour de la Data Visualisation et intégrer une méthodologie générale. La création d’une communauté de Data Visualisation au sein de l’entreprise sera un booster de l’adoption des réalisations, elles pourront être animées hebdomadairement afin de restituer des analyses, des utilisations avancées des solutions, …

La mise à disposition des supports de ces échanges ou même des présentations filmées pourront également permettre à différents usagers éparpillés à travers le monde de pouvoir monter en compétence à travers cette communauté et les bons usages partagés.

Ainsi peu à peu la culture de la donnée et son exploitation pourront être de plus en plus appropriées.

_________________________

A PROPOS DE GROUPE ESTIA

Le Groupe Estia est un cabinet de conseil spécialisé dans la transformation des données en actifs.

Créé en 2010, il rassemble aujourd’hui 100 consultants experts de la donnée et de son exploitation à forte valeur ajoutée (data scientists, statisticiens, experts du décisionnel et experts fonctionnels) et génère 10m€ de CA.

Le Groupe Estia intervient auprès des directions métiers de plus de 30 clients grands comptes, dans tous les secteurs d’activités : Banques, Assurances, Distribution, Energie, Transports, Médias, Services,… Son objectif : faire des données un accélérateur business pour nos clients. Son intervention couvre l’intégralité du cycle de transformation et de valorisation de la data.

Notre gamme de services se décline en 6 offres : Pilotage des activités, Connaissance clients, Communication omnicanal, Modélisation à visée prédictive, Transformation vers une organisation data centrics, Gestion de projets data & nos expertises couvrent l’ensemble des problématiques data : CRM analytique, gestion de campagnes, datamining & webmining, business intelligence, conception d’outils, d’applications analytiques, d’algorithmes & de modèles,…

En 2017 la société accélère son développement en s’appuyant sur un nouvel actionnaire de référence, le groupe Consort NT intégrateur et opérateur de solutions et d’infrastructures (2 000 collaborateurs, 140m€ de CA, 6 pays). Le Groupe Consort NT et Groupe Estia proposent dorénavant une offre unique couplant technologies, infrastructures et capacités algorithmiques au service de la performance de leurs clients.

0 Avis

Laisser une réponse

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

*

Vous pouvez utiliser ces balises et attributs HTML : <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>