L’informatique décisionnelle à l’heure de la crise


Alain Beaulieu - 14/04/2009

En cette quatrième édition du Salon Business Intelligence, on a questionné la pertinence d’investir en informatique décisionnelle, la durée de vie de la technologie, son utilité et sa gouvernance.

Montréal était l’hôte la semaine dernière de la quatrième édition du Salon Business Intelligence. Organisé par le Réseau Action TI – Montréal, le Salon proposait aux 500 personnes qui y prenaient part un programme de conférences sur l’informatique analytique et décisionnelle, doublé d’un salon d’exposants auquel prenaient part 25 entreprises et organisations. Pour la première fois cette année, le salon accueillait deux exposants institutionnels, soit l’École des HÉC et l’Université de Sherbrooke. Le thème de la conférence était : L’intelligence d’affaires, au-delà de la technologie ».

Le point culminant de la conférence a été sans contredit son débat de fermeture. Prenant la forme d’une table ronde, celui-ci était animé par Jean-François Ouellet, professeur agrégé en marketing à HÉC Montréal. La discussion était orientée autour de quatre thèmes qui étaient soumis à onze panellistes, composés de responsables de l’informatique et de représentants des principaux fournisseurs. Ces thèmes étaient la justification des investissements en technologies analytiques en période de crise, la durée de vie des outils analytiques, la gouvernance et l’utilité réelle des outils.

Au niveau de la justification des investissements en période de crise, les panellistes ont tous reconnu la pertinence de ces investissements, en soulignant toutefois la nécessité de cibler de façon judicieuse les investissements.

« Comme tout projet d’affaires, un projet [d’analytique] doit être financièrement sensé, a souligné Denis Berthiaume, premier vice-président, Marchés individuels, chez Standard Life. Il faut développer une vision d’affaires à long terme. »

« On a mis en place notre entrepôt de données il y a douze ans, c’était un immense projet, a ajouté Éric Lemieux, vice-président, Services de gestion des avoirs, à la Fédération des Caisses Desjardins du Québec. Aujourd’hui, dans le contexte économique actuel, je sais que ce ne serait pas facile à justifier, mais je ne vois pas comment je pourrais faire sans. »

« C’est un luxe de ne pas investir maintenant, a enchaîné Gérard Lachance, directeur régional, Est du Canada, pour Information Builders. Il faut investir pour ne pas compromettre la pérennité de l’entreprise. Mais il vaut mieux investir dans des projets rapides qui vont rapporter vite, quitte à fractionner le projet en plusieurs sous-projets rapides dont les retombées sont à court terme. »

Au niveau cette fois de la durée de vie des technologies analytiques, les panellistes ont reconnu que celles-ci évoluaient rapidement et qu’il fallait considérer cette rapidité d’évolution au niveau de la gestion et surtout de la planification de l’évolution de l’infrastructure. Éric Blanchet, directeur régional des services professionnels, Est du Canada, chez IBM, estime la durée de vie des outils à cinq à huit ans.

« Pour maximiser la durée de vie des outils, il faut mettre l’accent sur la qualité des données », a ajouté Peter Theocharis, conseiller en solutions d’affaires, région de l’Est du Canada, chez SAP. Ce à quoi à rétorqué Éric Lemieux, des Caisses Desjardins : « Le coeur de l’environnement doit être stable, alors qu’on doit favoriser la flexibilité des applications qui gravitent autour. Ça permet de faciliter l’évolution de l’environnement et en garantit l’utilité à long terme. »

« Au niveau des choix technologiques, il vaut mieux privilégier des outils qui peuvent s’intégrer avec le plus grand nombre de bases de données et de systèmes de gestion », préconise Gérard Lachance, d’Information Builders.

Qui est responsable?

En ce qui concerne la gouvernance de l’environnement analytique, l’enjeu de la discussion était de savoir qui, dans l’organisation, en était responsable. Les panellistes ont tous été d’accord pour reconnaître qu’il n’y avait pas de réponse unique à cette question et que l’approche variait d’une organisation à l’autre, étant déterminée par la culture propre à chaque organisation. Olivier Van Branteghem, professionnel, ventes de solutions, chez Microsoft Canada, a souligné que certaines organisations avaient mis sur pied un centre d’excellence en informatique décisionnelle pour assurer la coordination entre les besoins exprimés par les utilisateurs et les projets réalisés par le département de TI, tout en attribuant aux utilisateurs la responsabilité d’initier les projets. « Le projet doit partir de la base, à partir des besoins exprimés par les utilisateurs », a-t-il dit.

« À la Banque Laurentienne, c’est le groupe Marketing, qui est un grand utilisateur de [technologies analytiques], qui assure la gouvernance des projets », a indiqué, pour sa part, Sylvain Fortier, vice-président adjoint, Stratégies et systèmes de notation, Gestion du risque et crédit, à la Banque Laurentienne.

« Chez nous, ce sont les gens de TI qui dirigent les projets, mais on a identifié les propriétaires des données, pour établir l’imputabilité, ce qui fait qu’en fin de compte, ce sont les unités d’affaires concernées qui assurent la gouvernance des projets », de rétorquer Éric Lemieux, des Caisses Desjardins.

Finalement, en ce qui a trait à l’utilité des outils, M. Lemieux a rappelé les limites de l’analytique : « Il y a deux pièges avec [l’informatique décisionnelle]. Premièrement, il ne faut pas oublier que l’information qu’on obtient est basée sur des données passées et que par conséquent, le passé n’est pas garant de l’avenir; il faut donc être capable de se projeter dans le futur. Deuxièmement, il faut éviter la surabondance informationnelle. Il faut limiter la quantité de données qu’on analyse, de sorte à ne garder que les données qui sont vraiment utiles. »

« [L’informatique décisionnelle] ne doit pas se substituer au talent des gens, à leur capacité d’anticiper l’avenir, de renchérir Denis Berthiaume, de la Standard Life. On a tous à peu près la même information, c’est la lecture qu’on en fait qui diffère d’une personne à l’autre et d’une compagnie à l’autre. »

« Il ne faut pas oublier qu’on ne parle pas ici d’intelligence artificielle, a fait remarquer Jean-Sébastien Turcotte, directeur technologique chez Korem. L’information que génère le système doit être analysée par un individu, en fin de compte. On ne laisse pas le système prendre les décisions. »

Les organisateurs étaient satisfaits de la quatrième édition du Salon; vous voudrez sans doute noter à votre agenda la date du 14 avril 2010, pour la cinquième édition de cet événement.

Alain Beaulieu est adjoint au rédacteur en chef au magazine Direction informatique.




Tags: , , , , , ,