Le quadrant magique des plateformes BI en cinq temps – 2009-2013

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Gartner a publié il y a quelques mois la version 2013 de son quadrant magique (Magic Quadrant) pour les plateformes de Business Intelligence (BI). Le quadrant magique positionne les fournisseurs de plateformes BI les uns par rapport aux autres.

Dans la présente analyse, je tente de comprendre comment se sont déplacés les quatre grands fournisseurs de plateformes BI (Microsoft, Oracle, IBM et SAP) sur cet échiquier et pourquoi. Je me se réfère aux quadrants Gartner des cinq dernières années. J’avais publié un exercice similaire sur ce blog l’année dernière.

Le quadrant magique comporte deux axes sur lesquels sont positionnés les principaux fournisseurs. Afin de bien comprendre ce classement, reprenons l’explication donnée l’année dernière sur ce blog (pour plus de détails consultez l’explication donnée par Gartner):

« L’axe capacité d’exécution (vertical) qualifie la capacité de la firme à fournir un produit de qualité à ses clients et sa capacité à poursuivre son investissement dans ce produit dans le futur. On parle de capacité à livrer et de satisfaction client. L’axe vision exhaustive concerne plutôt la capacité de la firme à comprendre les besoins du marché et à développer une plateforme qui réponde à l’ensemble de ces besoins. Il s’agit beaucoup d’innovation. »

Le quadrant de Gartner est divisé en quatre zones. Les firmes qui performent le mieux dans l’étude se retrouvent dans le coin supérieur droit. Ce sont les leaders du marché. Cette position convoitée par les fournisseurs de plateformes BI est occupée, en 2013, par 10 firmes, soit deux de plus que l’année dernière. Les huit leaders de 2012 sont toujours là en 2013 : Microsoft, Oracle, IBM, SAP, MicroStrategy, Information Builders, SAS et QlikTech. Les deux nouveaux sont Tableau Software et Tibco Software. Le graphique ci-dessous représente le mouvement des quatre fournisseurs qui nous intéressent plus particulièrement sur les cinq dernières années.Magic Quandrant Movements 2013 

Microsoft

En 2013, Microsoft s’illustre clairement comme leader sur l’axe « capacité d’exécution », ce qui démontre sa capacité à livrer et à satisfaire ses clients.

L’offre BI de Microsoft est principalement concentrée dans trois produits : EXCEL (PivotTable, PowerPivot, PowerView), SQL Server (SSRS, SSAS, SSIS) et Sharepoint. La sortie de SQL Server 2012, PowerView et EXCEL 2013 a certainement favorisé Microsoft sur les deux axes. PowerView vient compléter l’offre de Microsoft avec un outil puissant d’exploration de données en mode libre-service.

L’étude de Gartner révèle aussi que SQL Server 2012 a reçu des notes nettement au-dessus de la moyenne du côté de la gestion des métadonnées, de l’intégration à Office, du OLAP, du ad hoc query et des outils de développement. L’étude de Gartner précise que les notes obtenues pour SQL Server 2012 sont nettement plus élevées que celles obtenues pour SQL Server 2008/R2.

Un fait intéressant à souligner : les parts de marché de Microsoft ne cessent de croitre depuis son entrée dans le marché du BI et les prévisions de Gartner sont qu’elles continueront à croitre. Leur étude révèle que le coût total d’acquisition (TCO) avantage grandement Microsoft par rapport à ses rivales.

Microsoft tarde toujours à se positionner du côté de la mobilité. On ne retrouve pas pas de facilitant dans l’offre de Microsoft, autant du côté de Reporting Services que du côté de PowerView, pour faciliter le développement et le déploiement sur plateforme mobile.

Microsoft se distingue nettement du côté du reporting et de l’analyse des données, mais elle est devancée par les IBM, SAP et Oracle du côté du Corporate Performance Management (CPM) qui incorpore généralement des capacités de planning et budgeting. Les trois autres firmes offrent en effet un produit dédié au CPM ce que ne fait pas Microsoft.

IBM

IBM se positionne depuis plusieurs années comme le leader sur l’axe « vision exhaustive », ce qui démontre une excellente vision des besoins du marché et une bonne innovation.

L’offre d’IBM se concentre autour de COGNOS (BI standard) et SPSS (analyse prédictive). IBM propose de nouveaux produits innovateurs tel Analytic Answers, une solution d’analyse prédictive et prescriptive et mode service, et COGNOS Insight, un outil d’exploration de données en mode libre-service.

Le tendon d’Achille de COGNOS reste la performance. Les problèmes de performance identifiés avec COGNOS 8 ont nui à l’image de COGNOS selon Gartner. L’autre reproche qui est fait à COGNOS est la difficulté d’utilisation. Gartner relate que produire un rapport avec COGNOS prend presque deux fois plus de temps, en moyenne, qu’avec les plateformes concurrentes. IBM a tenté de simplifier la construction de rapports avec COGNOS 10, ceci aura certainement un impact sur les résultats de la prochaine étude. D’ailleurs Gartner prédit que COGNOS aura de meilleurs résultats avec COGNOS 10 à plusieurs égards, dont la qualité des produits et du support.

Oracle

Oracle consolide sa position dans le quadrant. L’offre d’Oracle est très exhaustive. OBIEE et Essbase y occupent un rôle central. La force d’Oracle est de bien supporter la mise en place de solutions BI centralisées à large déploiement, dirigées par les TI et basées sur une métadonnée unifiée. Sa large gamme d’outils offre des capacités de reporting, d’analyse avancée et de CPM. Une des forces d’OBIEE est du côté de ses capacités de tableaux de bord : c’est sur cet aspect qu’Oracle se classe le mieux dans l’étude de Gartner. Une des forces d’Oracle est aussi d’offrir des solutions BI intégrées à ses solutions d’affaires comme E-Business Suite (EBS), PeopleSoft, JD Edwards et Siebel, ce qui est très apprécié de sa clientèle. Oracle propose plus de 80 solutions BI prédéveloppées incorporant l’ETL, les modèles de données et des banques d’indicateurs de performance (KPI) pour divers domaines d’application.

Oracle a été plus lente que ses concurrentes à offrir des capacités de vue composite (mashup) et de visualisation interactive. Oracle tarde aussi à offrir une solution mobile multiplateforme (limité à iOS actuellement). Le temps de développement de rapports plus long que la moyenne ainsi qu’un pointage faible sur la facilité d’utilisation, autant du côté des utilisateurs finaux que des développeurs, tirent la cote d’Oracle vers le bas sur l’axe « capacité d’exécution ». Autre ombre au tableau : plusieurs clients d’Oracle continuent à être insatisfaits de la qualité du produit et du support.

SAP

SAP se distingue sur l’axe « vision exhaustive » avec une plateforme complète et plusieurs nouvelles acquisitions, mais continue à glisser sur l’axe « capacité d’exécution » dû à des problèmes de stabilité et à un support à la clientèle déficient, selon l’étude de Gartner.

Du reporting classique à l’analyse prédictive en passant par l’analyse en mémoire et le big data, l’offre BI de SAP est très complète. Ses principaux produits sont BusinessObjects, SAP NetWeaver Business Warehouse et Hana. À l’instar de sa rivale Oracle, SAP mise sur une offre intégrée à ses applications d’affaires déjà en place dans son vaste bassin de clientèle. Les organisations ayant SAP comme ERP vont plus naturellement se tourner vers les solutions BI prédéveloppées que propose SAP. Cet avantage confère à SAP le plus grande part du marché du BI. SAP se distingue aussi des trois fournisseurs sur lesquels nous nous concentrons par ses facilitants pour le BI mobile avec son SAP Mobile Platform (connu ces dernières années sous le nom Sybase Unwired Platform) qui facilite le développement tout en permettant la gestion du déploiement et de la sécurité.

SAP performe moins bien que ses concurrentes du point de vue de la qualité du logiciel (instabilité et fiabilité) et du support à la clientèle, deux aspects importants sur l’axe « capacité d’exécution ».  Problème classique pour une société qui fait beaucoup d’acquisitions : l’interopérabilité des composantes devient un casse-tête. La complexité de développement des rapports semble aussi un point négatif à considérer : presque deux fois plus long qu’avec les plateformes concurrentes.

Consultez le rapport de Gartner, il souligne les forces et faiblesses de chaque offre de manière beaucoup plus détaillée.

Business Intelligence libre-service : les pièges à éviter

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Depuis quelques années, on remarque un engouement pour le Business Intelligence (BI) libre-service et plusieurs éditeurs de logiciels en font leur cheval de bataille. Mais qu’est-ce que le BI libre-service? Imhoff et White proposent cette définition (traduction libre):

Ce sont les fonctionnalités de l’environnement BI qui permettent aux utilisateurs de devenir plus autonomes et moins dépendants du département d’informatique.  Ces fonctionnalités se concentrent sur quatre objectifs principaux : offrir une meilleure accessibilité aux données sources pour la construction de rapports et d’analyses, fournir des fonctions d’analyse avancées, donner des options de déploiement plus efficaces et fournir des interfaces utilisateurs simples et conviviales facilitant la collaboration et la personnalisation. 

Cette définition rejoint évidemment un des principaux objectifs avoués de cette tendance qui est d’éliminer les délais d’attente des utilisateurs face au département d’informatique. Pour plusieurs, le modèle d’affaire qui centralise tout le développement BI vers une équipe du département d’informatique n’est pas viable. En particulier, Boris Evelson souligne que les besoins BI changent si vite, qu’un département d’informatique ne peut fournir à la demande. Et l’effet semble exponentiel. Plus on livre des solutions BI, plus les demandes de changements se multiplient! Il en résulte une pile qui grandit plus vite qu’elle ne baisse. Les utilisateurs deviennent donc frustrés par la lenteur du département d’informatique et souhaitent plus d’autonomie. Cela rejoint les résultats d’une étude menée par Imhoff et White qui rapporte que pour 65% des organisations sondées, la très grande volatilité des besoins d’affaires motive les départements d’informatique à adopter un modèle de type libre-service.

Mais n’est pas autonome qui veut. Il y a plusieurs années, la convivialité des outils n’était pas au rendez-vous, il fallait un bagage technique important pour pouvoir se passer des bons services du département d’informatique. Mais aujourd’hui, les outils se sont grandement améliorés et des solutions intéressantes sont maintenant disponibles sur le marché. Avec une bonne couche sémantique, qui isole le modèle physique de données, les utilisateurs n’ont pas à être des experts SQL ou MDX pour produire leurs propres rapports. Ils peuvent simplement, par des actions glisser-déposer, produire des rapports d’analyses sophistiqués. Par contre, ces approches comportent des limites et certains utilisateurs en demanderont toujours plus : plus de droits, plus de flexibilité, plus de liberté. Et c’est là qu’il faut être vigilant.

Dans un article intitulé « Five steps to Self-Service Nirvana », Wayne Ekerson souligne plusieurs effets pervers du BI libre-service. Nous retenons ici trois aspects importants qu’il faut garder en tête lorsqu’on souhaite mettre en place du BI libre-service.

À chaque utilisateur son outil

Ce sujet a déjà été abordé dans un article précédent de ce blogue. Chaque catégorie d’utilisateurs a des besoins particuliers et c’est particulièrement vrai dans le contexte du BI libre-service. Le BI libre-service n’a pas la même connotation pour un analyste que pour un utilisateur opérationnel ou un utilisateur occasionnel. Pour l’analyste chevronné possédant une bonne connaissance des données, le BI libre-service signifie pouvoir créer ses propres rapports avec beaucoup de flexibilité et avoir accès au maximum de données. Pour l’utilisateur plus opérationnel, le BI libre-service signifie pouvoir naviguer de manière flexible dans de la donnée BI certifiée et officielle. Pour le cadre, le BI libre-service signifie être capable de choisir les indicateurs clés qu’il veut suivre, de pouvoir configurer son propre tableau de bord et de pouvoir mettre en place des alertes pertinentes. Plutôt que de chercher dans l’information à l’aide de langages de requêtes complexes comme SLQ et MDX, cette catégorie d’utilisateurs souhaite pouvoir faire des recherches avec un outil du style Google.

La nécessité d’un groupe de gouvernance BI

Un des enjeux du BI libre-service est d’éviter une certaine anarchie, un chaos dans l’interprétation de la donnée. Si on permet à tout-un-chacun d’interpréter la donnée comme bon lui semble, de produire ses propres rapports et de les publier, on va tout droit à la catastrophe. Des mécanismes de contrôle doivent être mis en place pour limiter la prolifération de rapports et surtout pour promouvoir, auprès d’une certaine communauté d’utilisateurs, l’utilisation de rapports normalisés et considérés comme officiels. Chaque nouveau rapport proposé par un analyste doit être approuvé par des autorités compétentes avant d’être publié. Dans un rapport détaillé sur le sujet, Wayne Eckerson propose de mettre en place un groupe de gouvernance BI chargé de prévenir ce chaos. Ce groupe n’a pas pour mission d’empêcher les utilisateurs de créer leurs propres rapports, mais plutôt de garder un contrôle sur une certaine interprétation standardiséede la donnée au sein de l’organisation.

Le rôle essentiel du département d’informatique

Comme l’indique David Stodder, le BI libre-service ne veut pas dire que les utilisateurs doivent être laissés à eux-mêmes. Le département d’informatique continue de jouer un rôle de premier plan. L’étude d’Imhoff et White rapporte d’ailleurs qu’en déplaçant une partie de la charge de travail de développement de rapports aux utilisateurs, on ne fait que donner plus de temps à l’équipe BI du département d’informatique pour pouvoir se concentrer sur des activités à plus forte valeur ajoutée comme : développer de nouvelles applications, ajouter de nouvelles données à l’entrepôt, améliorer la qualité des données et incorporer de nouvelles technologies pour améliorer la performance. Il est aussi important que le département d’informatique ne se déresponsabilise pas de la compréhension des besoins fonctionnels. Son rôle ne se confine pas à s’occuper de la plomberie du BI : il doit investir des efforts pour bien comprendre les besoins fonctionnels des unités d’affaires qu’il dessert. Eckerson propose de créer un réseau de super-utilisateurs où chaque unité fonctionnelle aurait son propre super-utilisateur, bien connecté avec le département d’informatique, et bien au fait des besoins fonctionnels de ses collègues de l’unité.

En conclusion, il ne faut pas voir le BI libre-service comme un changement de garde. Il s’agit simplement de bien partager certaines responsabilités entre les spécialistes techniques et les utilisateurs. Le BI libre-service, s’il est mis en place correctement, favorisera une prise de décision beaucoup plus agile en permettant à l’organisation de s’adapter plus rapidement aux besoins d’affaires de plus en plus volatils.

Mais qui a réellement besoin du Business Intelligence?

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Lors d’une récente conférence du TDWI donnée à Chicago, Cindi Howson de BIScorecard présentait les résultats d’une enquête qui révèle que dans les grandes organisations, 25% des employés utilisent des solutions de Business Intelligence (BI) et que les répondants de ces mêmes organisations croient, en moyenne, que 80% de leurs employés pourraient bénéficier de ce type de solution. Le rapport BI Survey 9, datant de  novembre 2010, recense pour sa part qu’au sein des organisations sondées, 21,5% des employés utilisent les applications BI.

Howson affirmait, lors de sa conférence, que 100% des employés d’une organisation pourraient bénéficier du BI. Cette dernière affirmation pourrait nous rendre perplexes, car le chiffre semble plutôt exagéré. Nigel Pendse, analyste bien connu dans le domaine du BI, apporte quelques nuances dans une interview donnée à IT Business EdgePendse croit que souvent, ces chiffres sont nettement exagérés par les vendeurs de logiciels qui ont tout avantage à vendre plus de licences.

Essayons d’y voir plus clair. Mais qui donc a besoin du BI dans une organisation?

Comme l’indiquent Davenport et Harris dans leur ouvrage Analytics at Work :

[Les solutions de BI] ne doivent pas être des applications isolées réservées à des occasions spéciales comme les campagnes de marketing. Au contraire, les applications et outils analytiques doivent être utilisés de manière routinière par les travailleurs de l’information et ils doivent être intégrés à leur travail quotidien.

Ici, la notion de « travailleur de l’information » nous aide à mieux comprendre qui est l’utilisateur typique du BI. Pour plusieurs, dont Mark Bower, il existe plusieurs catégories de travailleurs de l’information. En particulier, on retrouve les « travailleurs du savoir » (knowledge workers), catégorie d’employés définie par Peter Druker dans les années 1960. Le travailleur du savoir a comme principal capital « son savoir ». C’est un professionnel dont le savoir particulier (éducation et expérience) est le principal outil de travail. Druker prévoyait à l’époque qu’on retrouverait de plus en plus de travailleurs du savoir au sein des organisations dans les pays industrialisés. Les statistiques lui donnent raison, nous y reviendrons.

Voyons voir qui sont ces travailleurs du savoir. Une étude publiée par Statistique Canada en 2003 dresse une liste des corps d’emploi considérés comme travailleurs du savoir. La liste publiée est exhaustive, résumons-la ici. On y retrouve principalement trois catégories :

  • Les gestionnaires
    • cadres supérieurs et directeurs
  • Les professionnels
    • les professionnels de la finance, de la comptabilité et des ressources humaines
    • les ingénieurs et autres professionnels des sciences, des mathématiques et de l’informatique
    • les architectes
    • les avocats et notaires
    • les professionnels de l’enseignement
    • les professionnels de la santé (médecins, dentistes, pharmaciens, thérapeutes)
  • Le personnel technique (dans certains domaines)
    • sciences de la vie et sciences physiques
    • ingénierie, électronique, informatique

À la lecture de cette liste, on reconnait plusieurs utilisateurs typiques des applications BI.

Un autre aspect intéressant que révèle l’étude de Statistique Canada, c’est le nombre croissant de cette catégorie de travailleur sur le marché de l’emploi (comme l’avait prédit Druker). Tous secteurs confondus, la proportion des travailleurs du savoir est passée de 13,8% en 1971 à 24,7% en 2001. La progression étant linéaire, on pourrait extrapoler cette proportion à 28% pour 2011. C’est chez les gestionnaires que l’augmentation est la plus forte : les gestionnaires représentaient 6,1% des travailleurs en 2001 contre 1,6% en 1971. C’est presque 4 fois plus!

Ceci confirme les chiffres avancés par Howard Dresner dans son ouvrage intitulé The performance management revolution. Selon Dresner, les travailleurs du savoir représentent au moins 25% des travailleurs dans les pays industrialisés, toutes industries confondues. Dans les secteurs de pointe tels que les services financiers, le domaine de la santé, les hautes technologies, ce pourcentage serait beaucoup plus élevé.

Selon les données recueillies en 2001 dans l’étude de Statistique Canada, les secteurs où l’on retrouve la plus grande concentration de travailleurs du savoir sont le secteur des services aux entreprises (65,8% des employés) et le secteur des finances et assurances (41,7% des employés). Les secteurs qui suivent sont l’exploitation des ressources naturelles, les communication et services publics ainsi que le commerce de gros. Ces données canadiennes doivent ressembler à celles que l’on recueillerait aux États-Unis, en France, en Allemagne ou au Royaume-Uni.

Il semble clair que les travailleurs du savoir – qui représentent en moyenne 25% et dans certains secteurs jusqu’à 65% des employés  – peuvent bénéficier du BI. Les gestionnaires en particulier, mais aussi les autres travailleurs du savoir, sont amenés à réfléchir et à prendre des décisions pour améliorer la performance de leur organisation, de leurs clients et partenaires. Ils doivent donc manipuler de l’information et la mettre au service de leur savoir. Les outils de BI sont là pour ça.

Mais qu’en est-il des autres travailleurs de l’information?

Les autres travailleurs de l’information, bien qu’ils ne soient pas des travailleurs du savoir, manipulent de l’information à répétition dans le cadre de leur travail. Ils réalisent un travail plus encadré et codifié, moins axé sur la résolution de problème que sur l’application systématique de procédures.  Mais le caractère répétitif de leur travail n’enlève rien à sa complexité ni à la nécessité qu’il soit supporté, pour être efficace, par des outils informationnels riches comme les solutions BI. On retrouve dans cette catégorie de travailleurs les opérateurs de centres d’appel, les agents de service dans les banques, les commis de bureau, les secrétaires, etc.  Il est maintenant reconnu, avec la démocratisation du BI, que cette catégorie de travailleurs de l’information peut bénéficier du BI, aussi ciblé soit-il, pour mieux réaliser leur travail.

Cela rejoint les positions d’Evan Rosen, qui, dans un article publié dans Bloomberg Businessweek, indique que les organisations ne peuvent plus considérer la majorité de leurs employés comme de simples exécutants, mais plutôt comme des employés qu’il faut impliquer dans le processus décisionnel à tous les niveaux. Nous serions donc portés à inclure une grande portion des travailleurs de l’information dans notre liste des utilisateurs potentiels du BI.

En conclusion, on pourrait facilement avancer que dans les organisations ayant une majorité de travailleurs de l’information comme dans le secteur des finances, des banques ou de l’assurance, le nombre d’utilisateurs potentiel du BI est très grand. Le chiffre de 80% révélé par l’étude de BIScorecard serait donc plausible.

Mais pour passer du 25% actuel au 80% potentiel, il y a du pain sur la planche! C’est en partie à nous, professionnels du BI, que revient la responsabilité de démontrer tout le potentiel de ces outils à cette large communauté d’utilisateurs. Il est nécessaire de mettre en place des solutions supportant chacune des fonctions organisationnelles tout en utilisant des outils adaptés à chaque catégorie d’utilisateur. Un beau défi pour les années à venir!

Les avantages des solutions de Business Intelligence prédéveloppées

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Développer ou acheter (build or buy)? Voilà une question qui brûle les lèvres de plusieurs gestionnaires souhaitant se munir d’une solution de Business Intelligence (BI). Et ceux qui ne se posent pas la question devraient probablement le faire.

Développer implique un projet de développement sur mesure à l’interne ou à l’externe. Il faut donc faire l’acquisition, si ce n’est pas déjà fait, d’une plateforme ou d’une suite d’outils de BI. Il faut ensuite mobiliser une équipe multidisciplinaire et expérimentée pour développer et implanter la solution.

Acheter implique de débourser pour faire l’acquisition d’une solution qui répond partiellement ou totalement à vos besoins décisionnels. Il faut aussi prévoir des frais d’implantation, de configuration et d’adaptation.

Mais quel est le meilleur choix? Le graphique ci-dessous, emprunté à Wayne Eckerson, résume bien certaines différences essentielles entre les deux options. Le développement d’une solution sur mesure coûte plus cher (implique plus de ressources humaines et financières) et prend plus de temps à être implanté. En revanche, l’implantation d’une solution prédéveloppée coûte moins cher et elle est implantée beaucoup plus rapidement.

Jusqu’ici ça semble simple! Mais il y a beaucoup d’aspects à considérer autres que les délais et les coûts. Il faut que la solution réponde le mieux possible aux besoins d’affaires et que les chances de succès soient maximisées.

Un projet de développement sur mesure, s’il est conduit de manière exemplaire et utilise la bonne plateforme BI, vous mènera certainement à une solution optimale (je veux dire qui répondra parfaitement à toute votre communauté d’utilisateurs). Mais j’insiste sur l’adjectif exemplaire. La méthodologie utilisée doit être appropriée (oubliez les méthodologies traditionnelles de développement de logiciels), vous devrez identifier et libérer des champions du domaine qui identifieront les meilleures pratiques et qui seront les guides du projet, vous devrez avoir des analystes d’affaires expérimentés en BI qui sauront cristalliser les besoins, etc. Et que dire de la plateforme BI utilisée? Une pièce du puzzle très importante. Si votre plateforme BI est inadéquate (désuète, incomplète), les utilisateurs n’y trouveront pas leur compte. Un autre point à considérer : puisque les besoins décisionnels des organisations sont très volatils, des délais d’implantation trop longs auront un impact négatif sur le succès de la solution. Ce qui est requis aujourd’hui sera peut-être révolu l’année prochaine. Imaginez que votre projet de développement sur mesure s’étende sur 2 ans. Il y a fort à parier que lorsqu’il sera implanté, il ne répondra pas à vos besoins les plus criants. Ceci explique l’engouement pour les méthodes de développement agiles qui prescrivent des cycles de livraisons plus courts et des ajustements en court de projet.

Bref, pour mener à bien un projet de développement sur mesure, vous devez monter une équipe du tonnerre, choisir une méthodologie adaptée et avoir les bons outils.

Évidemment, si vous optez pour une solution prédéveloppée, vous devez être tout aussi exigeant envers votre fournisseur: une équipe du tonnerre, une méthodologie adaptée et d’excellents outils! Il doit démontrer son expertise autant du point de vue affaires que du point de vue technique. Un fournisseur détenant une expertise d’un domaine d’affaires pourrait proposer des solutions techniquement naïves (basées sur EXCEL ou sur des rapports statiques). En revanche, un fournisseur techniquement ingénieux pourrait proposer une solution sans comprendre les réels besoins d’affaires. La pauvreté de contenu pourrait être maquillée par des gadgets technologiques! Le problème de l’évolution des besoins d’affaires reste aussi à considérer dans l’acquisition d’une solution prédéveloppée. Si le contenu de la solution proposée stagne, votre problème n’est pas réglé. Le fournisseur doit être dynamique et doit démontrer qu’il se tient à jour dans les domaines où il fournit des solutions.

Le tableau ci-dessous résume ce qui a été exposé plus haut.

Avantages

Inconvénients

Développement sur mesure
  • Réponds parfaitement aux besoins si le projet est bien conduit
  • Les indicateurs de performance correspondent aux besoins spécifiques de votre organisation
  • Coût total d’acquisition élevé
  • Temps d’implantation long
  • Nécessite un ou plusieurs champions du domaine (gens très occupés et peu disponibles)
  • Risque d’échec élevé si le projet est conduit par une équipe inexpérimentée
Solution prédéveloppée
  • Coût total d’acquisition faible
  • Temps d’implantation rapide
  • Incorpore les meilleures pratiques identifiées par des experts métier
  • Pourrait ne pas répondre parfaitement aux besoins (si la solution n’est pas flexible)
  • Indicateurs de performance génériques (peu de distinctif concurrentiel)

Malgré tous les avantages qu’offrent les solutions BI prédéveloppées (que l’on appelle aussi progiciels décisionnels), il ne faut pas s’attendre à en trouver pour tous les domaines. Généralement, ces solutions couvrent des fonctions horizontales que l’on retrouve dans toutes les organisations : finances, ressources humaines, approvisionnement, ventes, etc. Pour des fonctions verticales ou très spécifiques, il pourrait n’y avoir d’autre choix que de développer sur mesure. Et dans ce cas, vous avez un beau défi à relever!

Business Intelligence organisationnel et départemental : le pour et le contre

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Si vous avez à faire la promotion d’un projet de Business Intelligence (BI) au sein de votre organisation ou chez un de vos clients, vous aurez à adapter vos arguments en fonction du profil de votre principal interlocuteur.

Si votre interlocuteur est une personne du département d’informatique (TI), il voudra favoriser une solution aux performances prévisibles, facile à supporter et à entretenir et surtout, conforme aux standards organisationnels. En revanche, si votre interlocuteur est un utilisateur d’affaires (business user), il voudra s’assurer que la solution soit flexible, facile d’utilisation et surtout, qu’elle réponde parfaitement à ses besoins spécifiques.

La plus récente étude de Gartner sur les plateformes  BI (Magic Quadrant for Business Intelligence Plateforms) publiée en février 2012, confirme qu’il existe un réel conflit entre ces deux catégories de promoteurs. Selon le pouvoir de chacun, le vent pourra tourner d’un côté ou de l’autre. Le business user qui a un historique de frustration par rapport aux standards corporatifs n’hésitera pas à faire une acquisition hors norme s’il en a le pouvoir. En effet, les standards corporatifs ont l’inconvénient d’imposer une solution unique à toute l’organisation et cela ne répond pas toujours aux besoins spécifiques de certaines catégories d’utilisateurs (voir mon article précédent sur ce sujet). En l’absence de norme organisationnelle, le business user aura plus de facilité à passer à l’action.

Généralement, on distingue deux types d’initiatives de projet BI: le BI organisationnel et le BI départemental. Le BI organisationnel, fondé sur une standardisation des outils et sur un contrôle centralisé des modèles de données, se rencontre dans les grandes organisations qui ont une certaine maturité en termes de BI. Le BI organisationnel comporte plusieurs avantages incontestables. Premièrement, l’organisation réalise des économies d’échelles dans l’acquisition de sa solution ce qui réduit son coût total d’acquisition. Deuxièmement, les TI contrôlent et maîtrisent bien la solution, ils peuvent donc assurer un support adéquat aux utilisateurs. Troisièmement, la modélisation et le traitement des données étant centralisés (on y retrouve souvent un entrepôt de donnée corporatif), cela favorise une interprétation consensuelle de la donnée.

Le BI départemental est plutôt faible sur ces trois aspects. Le BI départemental coûte généralement plus cher par utilisateur, il n’est pas ou peu supporté par les TI et il peut mener à une interprétation chaotique des données (silos de données). Par contre, le BI départemental répondra mieux aux besoins spécifiques d’une catégorie d’utilisateurs, là où faillit souvent le BI organisationnel. Il comporte aussi l’avantage d’être beaucoup plus rapide à mettre en place, le BI organisationnel étant plus lourd à démarrer et à faire bouger. En effet, même si une excellente plateforme BI est standardisée dans une organisation, les nouvelles versions de la plateforme peuvent prendre du temps à être déployées compte tenu de l’envergure des conversions que cela implique. Il en résulte que les nouvelles caractéristiques répondant aux nouvelles réalités du marché ne sont rendus disponibles que plusieurs années après leur sortie. Cela ne fait qu’accentuer la frustration des promoteurs du BI départemental. Lors d’une récente intervention chez un client, j’ai réalisé à quel point cette contrainte pouvait être réelle. Après avoir discuté des nouveautés intéressantes proposées dans SQL Server 2012 (Power View, Master Data Services, Data Quality Services), j’ai réalisé que l’organisation était sur le point de migrer de SQL Server 2000 … à SQL Server 2008 R2.

Ceci étant dit, les initiatives départementales peuvent coexister avec les standards organisationnels. Les initiatives départementales qui dérogent des standards organisationnels stimulent l’innovation et forcent une remise en question de certains standards. Il est toutefois important de garder en tête que la convergence des initiatives départementales vers le BI organisationnel est souhaitable à long terme. Selon une étude, les initiatives départementales ont un plus haut taux d’échec que les initiatives organisationnelles. En restant cantonnée dans son développement en silo, l’initiative départementale obtient du succès à court terme mais fait face à des problèmes de viabilité à long terme.

À chaque catégorie d’utilisateur son outil de Business Intelligence

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Le Business Intelligence (BI) s’est beaucoup démocratisé au cours de la dernière décennie. Le BI n’est plus réservé qu’aux décideurs de la haute direction, responsables des décisions stratégiques et tactiques de l’entreprise. Le BI est de plus en plus incorporé directement dans les opérations et il est devenu un outil indispensable pour plusieurs employés de première ligne.

Pour mettre en place une solution BI, on dispose aujourd’hui d’une grande variété d’outils destinés aux utilisateurs finaux. Chacun de ces outils répond aux besoins particuliers de catégories d’utilisateurs spécifiques. On peut distinguer plusieurs catégories d’utilisateurs, chacun ayant des besoins distinctifs et surtout des habilités distinctives. Certains ont des connaissances techniques, d’autres non. Certains connaissent bien les données à exploiter, d’autres sont plus orientés vers les processus d’affaires.

Déployer un outil unique et uniforme à toutes les catégories d’utilisateurs est une erreur qui pourrait conduire tout projet de BI à l’échec. Imposer le même outil à tous pourrait ne satisfaire qu’une seule catégorie d’utilisateurs. Trouver un compromis pourrait avoir une conséquence encore plus désastreuse et ne répondre aux besoins de personne.

J’ai assisté il y a quelques jours à un atelier donné par Cindi Howson à la TDWI World Conference à Chicago. Avec sa permission, je présente un diagramme fort intéressant. Ce diagramme identifie les principales catégories d’utilisateurs du BI au sein des organisations et distingue, pour chacune de ces catégories, les outils BI les plus adaptés.

Le diagramme ci-dessous comporte plusieurs arcs, chacun représentant une catégorie d’utilisateurs. Plus l’arc est large, plus le nombre d’utilisateurs dans cette catégorie est important au sein d’une organisation typique.  À partir du centre (demi-cercle), on retrouve les statisticiens, les développeurs informatiques, les analystes et professionnels de l’information, les cadres et gestionnaires, les travailleurs de première ligne et, au-delà des frontières de l’organisation, les clients, les fournisseurs et différents organismes comme les autorités administratives indépendantes.

Ce diagramme est réutilisé avec la permission de Cindi Howson de la firme BIScorecard

Chaque point noir dans ce diagramme présente un type d’outil BI. Chaque point est positionné sur l’arc représentant la catégorie d’utilisateurs qu’il dessert le mieux. Sans nous attarder à l’ensemble des outils présentés, on peut tout de même faire quelques observations intéressantes.

Les cadres et gestionnaires sont mieux desservis par les tableaux de bord et les scorecards. Rien d’étonnant puisque cette catégorie d’utilisateur n’a pas nécessairement de bagage technique et n’a pas une connaissance approfondie des modèles de données de l’organisation. Les cadres et gestionnaires ont par contre une excellente connaissance des rouages de l’organisation et de leur métier. Ils ont besoin de consulter des indicateurs de performance normalisés en phase avec des cadres structurels. Ils n’ont pas beaucoup de temps, ils suivent donc des indicateurs de haut niveau en lien avec des plans stratégiques et des objectifs organisationnels.

Les analystes et professionnels de l’information, en revanche, ont besoin de manipuler de l’information plus détaillée. Ils utilisent des feuilles de calculs (Spreadsheets) orientées BI et des requêteurs orientés business. Ce type de requêteur exploite une couche de donnée d’affaires (couche sémantique) en opposition aux requêteurs classiques qui nécessitent une connaissance des modèles physiques de données. Évidemment une couche sémantique doit être mise en place. Cette catégorie d’utilisateur est aussi de plus en plus intéressée par les outils de visualisation avancée (visual discovery). Ces outils permettent de manipuler l’information de manière visuelle (cartes géographiques thématiques, heat maps, etc.) pour découvrir des corrélations, des tendances ou encore pour tester des hypothèses. Ce sont aussi les utilisateurs du classique OLAP. Le OLAP (Online Analytical Processing) permet d’analyser la donnée sous plusieurs axes et d’effectuer du forage dans la donnée (par exemple forer des années vers les mois ou des départements vers les employés).

Les travailleurs de première ligne représentent une très grande part des utilisateurs du BI dans les grandes organisations. Leurs besoins sont opérationnels. Ils souhaitent être informés des pistes de solution pour chaque problème rencontré et être assistés dans l’exécution de leurs décisions. Ils n’ont pas nécessairement de connaissance technique approfondie ni de connaissance des modèles de données. Ils ont besoin de rapports interactifs taillés sur mesure et adaptés à leurs processus opérationnels.

Les développeurs de rapports (les gens des TI) souhaitent avoir accès à des outils de programmation très flexibles, nécessitant une connaissance technique pointue. Ils ne sont pas considérés comme des utilisateurs du BI mais comme des producteurs de rapports. Les statisticiens analysent la donnée avec des outils spécialisés. Une connaissance pointue de la donnée et des techniques statistiques est primordiale pour cette catégorie d’utilisateurs.

Un des défis que doivent relever les grandes organisations est donc de trouver une solution qui réponde à l’ensemble de ces besoins. Est-ce possible? Est-ce qu’aujourd’hui un des fournisseurs de plateformes BI couvre tout le spectre des besoins? Il faudrait probablement se tourner vers un des grands éditeurs de logiciels que sont Oracle, Microsoft, IBM, SAP ou SAS pour trouver une solution relativement complète. Chaque plateforme BI proposée par ces grands éditeurs de logiciels a toutefois ses avantages et inconvénients. Les organisations devront donc faire le choix entre une plateforme unique et un amalgame d’outils de plusieurs éditeurs (best of breed). En effet, les petits joueurs du marché, plus nichés, offrent souvent des outils beaucoup plus novateurs. Encore là, il faudra être prudent et faire des choix éclairés puisque chaque approche a ses avantages et ses inconvénients.

Mais en conclusion retenez une chose : chaque catégorie d’utilisateur doit être le mieux servi possible car c’est le succès de votre projet BI qui est en jeu!

Le Big Data Analytics vient compléter les approches bien établies du Business Intelligence

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Le Big Data est tellement en vogue que la maison blanche vient d’annoncer une initiative nationale autour du Big Data. Pour Philippe Nieuwbourg, analyste chez Decideo, cette initiative nous propulse dans l’ère la science des données (Data Science).

Côté Business Intelligence (BI), on parle beaucoup du Big Data Analytics. L’avènement du Big Data Analytics vient bousculer notre conception du BI. En effet, le BI, depuis longtemps dominé par le traitement de données structurées, voit de nouvelles approches et de nouveaux outils émerger.

Mais l‘approche bien établie du BI, incarnée par les entrepôts de données et le OLAP (On Line Analytical Processing), fondée sur une excellente compréhension de la donnée à traiter, sur le calcul minutieux d’indicateurs de performance et sur l’organisation des données sous une forme multidimensionnelle est-elle vraiment remise en question? Non! Le Big Data Analytics vient enrichir une boîte à outils déjà bien fournie. Et la croissance rapide du Big Data Analytics ne menace en rien les approches bien établies et pour lesquelles les entreprises réitèrent leur fort engagement.  

Avant de nous pencher sur ce qu’est le Big Data Analytics, tentons d’abord de comprendre le concept de Big Data. Ce qui qualifie le Big Data, c’est bien plus que le volume, c’est aussi la variété et la vélocité. Ce sont les trois « V » du Big Data.

  • Le volume, ça veut dire des téraoctets de données (voire des pétaoctets), des milliards d’enregistrements dans une BD.
  • La vélocité, c’est la rapidité, la durée de vie de la donnée et sa fréquence de capture; les logs d’utilisation sur un site WEB achalandé, les vidéos des caméras de surveillance, les discussions dans les médias sociaux sont des exemples de Big Data à forte vélocité.
  • La variété, c’est que la donnée peut avoir plusieurs formes : de la donnée structurée (des transactions de vente), non structurée (la transcription d’une conversation dans un centre d’appel, voire même l’enregistrement sonore), des fils RSS, de la donnée géo localisée, des vidéos, etc.

On sait maintenant un peu mieux ce qu’on entend par Big Data. Le Big Data Analytics, c’est donc l’analyse de cette donnée variée, à forte vélocité et à fort volume.

Les besoins analytiques du Big Data nous forcent à actualiser des concepts et techniques que nous connaissons depuis longtemps en BI, comme l’intelligence artificielle, le data mining, l’analyse prédictive, la reconnaissance de texte et l’analyse sémantique.

On qualifie souvent l’analyse du Big Data « d’analyse avancée » (advanced analytics). Philip Russom est plus précis à mon avis quand il la qualifie de Discovery Analytics (analyse en mode découverte). Cette appellation est très révélatrice : on fouille dans la donnée pour trouver quelque chose. Cette notion peut être mise en opposition au BI traditionnel où on suit des indicateurs de performance conventionnés, bien établis et bien mesurés. Avec le Big Data on tente de trouver des tendances ou des corrélations insoupçonnées. L’utilisateur du Discovery Analytics, c’est un analyste d’affaires, quelqu’un qui veut (et peut) fouiller l’information pour trouver la perle rare, l’indice qu’il pourra transformer en avantage concurrentiel. Une des études de Russom est d’ailleurs révélatrice : le principal frein à l’adoption du Big Data Analytics dans les organisations, c’est l’absence d’analyste d’affaires avec les bonnes compétences. Avec le Big Data Analytics, on adresse donc des besoins différents du BI traditionnel taillé sur mesure pour faciliter le travail de la haute gestion, des décideurs, voire des employés plus « opérationnels ».

Les applications concrètes du Big Data Analytics

Mais quelles sont les applications concrètes du Big Data Analytics? L’analyse de Russom révèle que la principale utilisation du Big Data Analytics concerne tout ce qui touche l’analyse du comportement des consommateurs : mieux cibler les produits, trouver de nouvelles opportunités de marché, analyser le comportement des consommateurs sur des sites marchands, détecter des fraudes, pour ne nommer que ces exemples. On le retrouve dans les domaines de la vente au détail, de l’assurance, de la télécommunication. Mais il reste que le potentiel est énorme dans plusieurs autres domaines comme en médecine, dans la lutte contre la criminalité, en climatologie, etc.

Depuis plusieurs années, nous constatons que plusieurs de nos clients ne savent pas quoi faire d’une grande partie de leurs données. Au-delà des indicateurs de performance conventionnés et liés à des objectifs d’entreprise, c’est toute une partie des données qui reste inexploitée. L’avènement du Big Data Analytics amène son lot de nouveaux concepts, de nouvelles technologies et nouveaux produits. Ils sont probablement des pistes solution pour nos clients. Mais au-delà des outils, il faut affronter le travail colossal de compréhension de ces masses de données. Du pain sur la planche!

Les défis du Business Intelligence Mobile

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

The right data to the right users at the right time. Vous avez certainement déjà lu ou entendu cet adage, qui est considéré comme le credo du Business Intelligence. La bonne donnée à la bonne personne, c’est déjà un beau défi pour tout projet BI. Mais au bon moment, là, ça se corse. Parce que le bon moment, ce n’est pas nécessairement quand vous (l’utilisateur du BI) avez décidé de fouiller l’information. C’est le moment où une situation est détectée, peut-être même le moment où vous devez agir.

Au bon moment, ça sous-entend aussi au bon endroit, parce que vous vous déplacez. Le BI doit suivre les gens! Le BI mobile, c’est peut-être une des pièces manquantes dans l’équation « la bonne donnée + le bonne personne + le bon moment ».

La plupart des analystes sont d’accord : le BI mobile sera une des principales tendances des prochaines années [Henschen 2011] [Evelson 2011]. Le BI mobile, comme plusieurs applications qu’offrent les dispositifs mobiles, est en effet très séduisant. J’ai lu récemment une étude publiée par le TDWI [Stodder 2011] sur le BI mobile. Cette étude révèle plusieurs aspects forts intéressants.  L’étude montre que le BI mobile devra surmonter plusieurs défis. J’en distingue ici trois que je juge importants et qui sont aussi issus de mon expérience personnelle de développement d’application BI mobiles.

Défi #1 : inventer de nouveaux paradigmes

Ceux qui ont déjà vu une démo de RoamBI  ou du Management-Robot TM comprennent de quoi je veux parler. Aujourd’hui, les ordinateurs de table sont maintenant munis d’écran plats de 21 pouces et plus. La résolution est au-delà des 1024 pixels de largeur. Les applications BI actuelles exploitent cet espace. Mais avec l’arrivée des dispositifs mobile, et plus particulièrement les téléphones intelligents, on doit travailler sur un espace réduit (même si la résolution est excellente). L’espace limité force les concepteurs d’application à inventer de nouveaux paradigmes et surtout à aller à l’essentiel. Il faut briser l’information en plusieurs parties actionnables par des gestes. La nouvelle ergonomie de ces appareils doit aussi être exploitée au maximum. Il n’y a plus de souris, plus de clavier facile d’utilisation. L’information est au bout des doigts.

Défi #2 : comprendre que les besoins du BI mobile sont différents des besoins du BI en général

La consultation de rapports interactifs traditionnels avec des dizaines de paramètres et l’utilisation d’outils d’analyses sophistiqués sont à mon avis de peu d’intérêt sur un appareil mobile. Les ordinateurs de table et les portables sont faits pour ça. En déplacement (dans l’autobus), en réunion, ou lors d’un souper aux chandelles (!) on veut voir l’essentiel de l’information. Ce n’est pas pour rien que l’étude du TDWI révèle que l’utilisation principale du BI mobile est pour l’instant orientée vers les tableaux de bord, la visualisation évoluée de la donnée et les mécanismes d’alertes. Cela rejoint le besoin « au bon moment » identifié plus haut. Les utilisateurs veulent identifier les problèmes au bon moment. Séparer la crème du petit lait pour pouvoir agir rapidement, parce que c’est le bon moment pour agir.

Défi #3 : exploiter tous les gadgets des appareils mobiles

Il ne faut pas perdre de vue que téléphones intelligents combinent maintenant des fonctionnalités d’agendas électroniques, d’envois de courriel, de géolocalisation … et de téléphonie ! Le BI doit exploiter tout ça et le mettre en action dans les applications BI mobiles. Ce que l’on appelle du actionable BI doit maintenant exploiter tous ces aspects. Vous êtes en déplacement dans une usine? La proximité des items analysés (ressources matérielles, ressources humaines) devrait être pris en compte ! Vous voulez agir rapidement? Déléguer une tâche, transmettre une information doit se faire facilement, en un mouvement !

Il y a bien d’autres défis à considérer comme les aspects de disponibilité et de sécurité. Le BI mobile en est à ses premiers balbutiements… donc le meilleur est à venir!

Le quadrant magique des plateformes BI en cinq temps

ATTENTION : Le blog BITRENDS a été migré sur technodecision.com. SVP suivez ce lien pour lire cet article.

Gartner vient de publier la version 2012 de son quadrant magique (Magic Quadrant) pour les Plateformes de Business Intelligence. Le quadrant magique positionne les fournisseurs de plateforme BI les uns par rapport aux autres. Mais ce qui est aussi très intéressant, c’est de comprendre comment ces firmes se sont déplacées sur l’échiquier du BI au cours des années. Ce n’est pas dans le rapport de Gartner, je me suis donc livré à petit un exercice que je partage ici!

Le quadrant magique positionne les plateformes BI selon deux axes qui regroupent plusieurs critères. Grosso modo, l’axe capacité d’exécution (vertical) qualifie la capacité de la firme à fournir un produit de qualité à ses clients et sa capacité à poursuivre son investissement dans ce produit dans le futur. On parle de capacité à livrer et de satisfaction client. L’axe vision exhaustive concerne plutôt la capacité de la firme à comprendre les besoins du marché et à développer une plateforme qui réponde à l’ensemble de ces besoins. Il s’agit beaucoup d’innovation.

Ceux qui répondent le mieux à l’ensemble de ces critères se retrouvent dans le quadrant supérieur droit (il y a en tout 4 quadrants). Toutes les compagnies souhaitent s’y retrouver ! Cette année, il y en a huit. Sans surprise on y retrouve Microsoft, Oracle, IBM, SAP et SAS. Mais il y a aussi des firmes spécialisées telles qu’InformationBuilder, MicroStrategy et QlikTech.

Voici comment j’ai procédé pour mon analyse. J’ai ressorti les quadrants magiques publiés au cours des cinq dernières années (2008 à 2012 inclusivement) et j’ai suivi le mouvement des firmes. J’ai concentré cet exercice fastidieux sur les quatre firmes qui m’intéressaient le plus : Microsoft, Oracle, IBM et SAP. Pourquoi ces 4? Principalement parce qu’elles occupent, à elles quatre, une très grande part du marché BI au Québec ce qui nous a amené à développer une expertise sur ces quatre plateformes. SAS semble peu présent dans le paysage du BI québécois (en tout cas je n’en entends pas beaucoup parler chez mes clients). InformationBuilder  et MicroStrategy sont très concentrés aux États-Unis. QlikTech est une étoile montante en provenance de Suède, peut-être pourrons la considérer l’année prochaine.

Voici le graphique que j’ai construit pour suivre chaque firme (voir ci-dessous).

Figure 1 – Le quadrant magique en cinq temps

Que peut-on déduire de ce graphique? Voici quelques analyses tout à fait personnelles.

Microsoft : Quelques mouvements en dent de scie concernant sa capacité d’exécution. Par contre, un mouvement positif sur l’axe vision exhaustive. Les arrivées de PowerPivot et de SQL Server 2008/R2 ne sont probablement pas étrangères à ce mouvement. Je crois qu’avec la sortie de SQL Server 2012, on peut s’attendre à un bon en avant sur cet axe. PowerView viendra compléter l’offre pour l’exploitation ad hoc et les lacunes souvent identifiées concernant la gestion de la métadonnée seront, nous dit-on, partiellement adressées. Par contre, Microsoft devra se positionner rapidement sur le volet mobile si elle veut significativement progresser sur cet axe.

IBM : En 2008, avant l’acquisition de COGNOS, IBM n’était pas vraiment présent sur l’échiquier des fournisseurs de BI. On se souviendra qu’IBM était revendeur d’Essbase (acheté ensuite par Oracle) sous l’appellation IBM DB2 OLAP Server. On voit une nette amélioration sur l’axe vision exhaustive. COGNOS 10, sorti en 2010, a vraiment aidé IBM. De plus, l’acquisition de SPSS en 2010 a permis à IBM d’ajouter le volet d’analyses prédictives à son offre. 2011 a été marqué par l’introduction mobile pour le iPad. Pour 2012 IBM prévoit étendre son offre en introduisant de nouveaux outils pour faire des projections sur hypothèses « what-if modeling ». De quoi renforcer sa position de leader sur l’axe vision exhaustive.

Oracle : nette amélioration au cours des années sur l’aspect capacité d’exécution. Oracle a fait plusieurs acquisitions au cours des années et l’intégration progressive dans un tout cohérent a probablement aidé à progresser sur cet axe. Gartner rapporte pourtant une difficulté d’implantation et des problèmes de qualité des produits et du service. Léger recul sur l’axe vision exhaustive. En effet toujours pas d’offre d’analyse prédictive ni d’offre mobile. Oracle se concentre surtout sur le reporting statique ou/et paramétrable. L’acquisition de SUN a probablement poussé Oracle vers les offres de type appliances. Oracle Exalytics (in memory BI machine) est une offre intéressante sur cet aspect.

SAP : On se souviendra que SAP a acheté Business Objects (BO) en 2008. C’est pourquoi ils sont séparés sur ce graphique pour l’année 2008 (SAP était à l’extérieur du quadrant convoité, BO bien positionné). Nettement, on peut voir que cette acquisition a plutôt nui globalement à l’offre BO. Par contre, SAP a nettement amélioré son score du point de vue vision exhaustive. La récente sortie de SAP HANA (in-memory analytics appliances) est certainement très intéressante.

Consultez le rapport de Gartner, il souligne les forces et faiblesses de chaque offre.  http://www.gartner.com/technology/reprints.do?id=1-196WFCB&ct=120207&st=sb