Tag Archives: entrepôt de données

Business Intelligence organisationnel et départemental : le pour et le contre

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Si vous avez à faire la promotion d’un projet de Business Intelligence (BI) au sein de votre organisation ou chez un de vos clients, vous aurez à adapter vos arguments en fonction du profil de votre principal interlocuteur.

Si votre interlocuteur est une personne du département d’informatique (TI), il voudra favoriser une solution aux performances prévisibles, facile à supporter et à entretenir et surtout, conforme aux standards organisationnels. En revanche, si votre interlocuteur est un utilisateur d’affaires (business user), il voudra s’assurer que la solution soit flexible, facile d’utilisation et surtout, qu’elle réponde parfaitement à ses besoins spécifiques.

La plus récente étude de Gartner sur les plateformes  BI (Magic Quadrant for Business Intelligence Plateforms) publiée en février 2012, confirme qu’il existe un réel conflit entre ces deux catégories de promoteurs. Selon le pouvoir de chacun, le vent pourra tourner d’un côté ou de l’autre. Le business user qui a un historique de frustration par rapport aux standards corporatifs n’hésitera pas à faire une acquisition hors norme s’il en a le pouvoir. En effet, les standards corporatifs ont l’inconvénient d’imposer une solution unique à toute l’organisation et cela ne répond pas toujours aux besoins spécifiques de certaines catégories d’utilisateurs (voir mon article précédent sur ce sujet). En l’absence de norme organisationnelle, le business user aura plus de facilité à passer à l’action.

Généralement, on distingue deux types d’initiatives de projet BI: le BI organisationnel et le BI départemental. Le BI organisationnel, fondé sur une standardisation des outils et sur un contrôle centralisé des modèles de données, se rencontre dans les grandes organisations qui ont une certaine maturité en termes de BI. Le BI organisationnel comporte plusieurs avantages incontestables. Premièrement, l’organisation réalise des économies d’échelles dans l’acquisition de sa solution ce qui réduit son coût total d’acquisition. Deuxièmement, les TI contrôlent et maîtrisent bien la solution, ils peuvent donc assurer un support adéquat aux utilisateurs. Troisièmement, la modélisation et le traitement des données étant centralisés (on y retrouve souvent un entrepôt de donnée corporatif), cela favorise une interprétation consensuelle de la donnée.

Le BI départemental est plutôt faible sur ces trois aspects. Le BI départemental coûte généralement plus cher par utilisateur, il n’est pas ou peu supporté par les TI et il peut mener à une interprétation chaotique des données (silos de données). Par contre, le BI départemental répondra mieux aux besoins spécifiques d’une catégorie d’utilisateurs, là où faillit souvent le BI organisationnel. Il comporte aussi l’avantage d’être beaucoup plus rapide à mettre en place, le BI organisationnel étant plus lourd à démarrer et à faire bouger. En effet, même si une excellente plateforme BI est standardisée dans une organisation, les nouvelles versions de la plateforme peuvent prendre du temps à être déployées compte tenu de l’envergure des conversions que cela implique. Il en résulte que les nouvelles caractéristiques répondant aux nouvelles réalités du marché ne sont rendus disponibles que plusieurs années après leur sortie. Cela ne fait qu’accentuer la frustration des promoteurs du BI départemental. Lors d’une récente intervention chez un client, j’ai réalisé à quel point cette contrainte pouvait être réelle. Après avoir discuté des nouveautés intéressantes proposées dans SQL Server 2012 (Power View, Master Data Services, Data Quality Services), j’ai réalisé que l’organisation était sur le point de migrer de SQL Server 2000 … à SQL Server 2008 R2.

Ceci étant dit, les initiatives départementales peuvent coexister avec les standards organisationnels. Les initiatives départementales qui dérogent des standards organisationnels stimulent l’innovation et forcent une remise en question de certains standards. Il est toutefois important de garder en tête que la convergence des initiatives départementales vers le BI organisationnel est souhaitable à long terme. Selon une étude, les initiatives départementales ont un plus haut taux d’échec que les initiatives organisationnelles. En restant cantonnée dans son développement en silo, l’initiative départementale obtient du succès à court terme mais fait face à des problèmes de viabilité à long terme.

Le Big Data Analytics vient compléter les approches bien établies du Business Intelligence

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Le Big Data est tellement en vogue que la maison blanche vient d’annoncer une initiative nationale autour du Big Data. Pour Philippe Nieuwbourg, analyste chez Decideo, cette initiative nous propulse dans l’ère la science des données (Data Science).

Côté Business Intelligence (BI), on parle beaucoup du Big Data Analytics. L’avènement du Big Data Analytics vient bousculer notre conception du BI. En effet, le BI, depuis longtemps dominé par le traitement de données structurées, voit de nouvelles approches et de nouveaux outils émerger.

Mais l‘approche bien établie du BI, incarnée par les entrepôts de données et le OLAP (On Line Analytical Processing), fondée sur une excellente compréhension de la donnée à traiter, sur le calcul minutieux d’indicateurs de performance et sur l’organisation des données sous une forme multidimensionnelle est-elle vraiment remise en question? Non! Le Big Data Analytics vient enrichir une boîte à outils déjà bien fournie. Et la croissance rapide du Big Data Analytics ne menace en rien les approches bien établies et pour lesquelles les entreprises réitèrent leur fort engagement.  

Avant de nous pencher sur ce qu’est le Big Data Analytics, tentons d’abord de comprendre le concept de Big Data. Ce qui qualifie le Big Data, c’est bien plus que le volume, c’est aussi la variété et la vélocité. Ce sont les trois « V » du Big Data.

  • Le volume, ça veut dire des téraoctets de données (voire des pétaoctets), des milliards d’enregistrements dans une BD.
  • La vélocité, c’est la rapidité, la durée de vie de la donnée et sa fréquence de capture; les logs d’utilisation sur un site WEB achalandé, les vidéos des caméras de surveillance, les discussions dans les médias sociaux sont des exemples de Big Data à forte vélocité.
  • La variété, c’est que la donnée peut avoir plusieurs formes : de la donnée structurée (des transactions de vente), non structurée (la transcription d’une conversation dans un centre d’appel, voire même l’enregistrement sonore), des fils RSS, de la donnée géo localisée, des vidéos, etc.

On sait maintenant un peu mieux ce qu’on entend par Big Data. Le Big Data Analytics, c’est donc l’analyse de cette donnée variée, à forte vélocité et à fort volume.

Les besoins analytiques du Big Data nous forcent à actualiser des concepts et techniques que nous connaissons depuis longtemps en BI, comme l’intelligence artificielle, le data mining, l’analyse prédictive, la reconnaissance de texte et l’analyse sémantique.

On qualifie souvent l’analyse du Big Data « d’analyse avancée » (advanced analytics). Philip Russom est plus précis à mon avis quand il la qualifie de Discovery Analytics (analyse en mode découverte). Cette appellation est très révélatrice : on fouille dans la donnée pour trouver quelque chose. Cette notion peut être mise en opposition au BI traditionnel où on suit des indicateurs de performance conventionnés, bien établis et bien mesurés. Avec le Big Data on tente de trouver des tendances ou des corrélations insoupçonnées. L’utilisateur du Discovery Analytics, c’est un analyste d’affaires, quelqu’un qui veut (et peut) fouiller l’information pour trouver la perle rare, l’indice qu’il pourra transformer en avantage concurrentiel. Une des études de Russom est d’ailleurs révélatrice : le principal frein à l’adoption du Big Data Analytics dans les organisations, c’est l’absence d’analyste d’affaires avec les bonnes compétences. Avec le Big Data Analytics, on adresse donc des besoins différents du BI traditionnel taillé sur mesure pour faciliter le travail de la haute gestion, des décideurs, voire des employés plus « opérationnels ».

Les applications concrètes du Big Data Analytics

Mais quelles sont les applications concrètes du Big Data Analytics? L’analyse de Russom révèle que la principale utilisation du Big Data Analytics concerne tout ce qui touche l’analyse du comportement des consommateurs : mieux cibler les produits, trouver de nouvelles opportunités de marché, analyser le comportement des consommateurs sur des sites marchands, détecter des fraudes, pour ne nommer que ces exemples. On le retrouve dans les domaines de la vente au détail, de l’assurance, de la télécommunication. Mais il reste que le potentiel est énorme dans plusieurs autres domaines comme en médecine, dans la lutte contre la criminalité, en climatologie, etc.

Depuis plusieurs années, nous constatons que plusieurs de nos clients ne savent pas quoi faire d’une grande partie de leurs données. Au-delà des indicateurs de performance conventionnés et liés à des objectifs d’entreprise, c’est toute une partie des données qui reste inexploitée. L’avènement du Big Data Analytics amène son lot de nouveaux concepts, de nouvelles technologies et nouveaux produits. Ils sont probablement des pistes solution pour nos clients. Mais au-delà des outils, il faut affronter le travail colossal de compréhension de ces masses de données. Du pain sur la planche!