Revoir les contenants pour mieux gérer les contenus


Jean-François Ferland - 14/03/2007

Le retour à la centralisation, l’hétérogénéité des supports selon les types de données, la qualification de l’information et l’emploi d’outils de gestion évolués permettent aux organisations de mieux contrôler l’état et l’évolution du stockage.

Le recours accru aux technologies de l’information et des communications entraîne la production d’une quantité sans cesse croissante de données. Ces données, conservées pour diverses raisons, requièrent plus d’espace de stockage et de temps de gestion que jamais, ce qui constitue un casse-tête pour les gestionnaires. Toutefois, un certain retour aux sources, une adaptation des contenants selon les contenus et l’apport des outils logiciels permettent de gagner de l’espace, sinon de mieux l’utiliser et d’en prévoir les besoins à temps.

Vincent Lavoie, conseiller au groupe-conseil CGI, travaille depuis dix ans dans le domaine du stockage au niveau des systèmes ouverts et hétérogènes. Ayant œuvré auparavant dans le domaine des ordinateurs centraux, il trace un certain parallèle avec ces systèmes alors que la tendance stratégique en stockage est à la consolidation et à un recentrage vers le serveur.

Cette centralisation sous le signe du partage, en comparaison avec le stockage distribué dans une variété de serveurs, permet à une organisation de bénéficier d’un espace qui était autrement inutilisé.

« Des études ont démontré que l’ancien modèle avait un faible taux d’utilisation du stockage disponible, avec un taux de 50 % ou moins d’utilisation de chacun des serveurs, indique M. Lavoie. Cet espace était non utilisé parce qu’il était souvent réservé au serveur et ne pouvait être attribué à un autre environnement. Un des buts primaires de la consolidation du stockage dans un « pool » partagé est qu’on peut approvisionner un serveur en espace beaucoup plus facilement, et le taux d’utilisation de l’espace peut atteindre 80 %. On achète les mêmes ressources, mais on les utilise de façon plus efficace. »

La localisation « géographique » du stockage au sein de l’architecture informatique apporterait un gain d’espace, mais cet espace de stockage ne serait pas pour autant monolithique. Les données n’étant pas égales entre elles, en raison de leur caractère stratégique ou bien d’obligations réglementaires, l’hétérogénéité des technologies et l’automatisation des procédés feraient partie intégrante d’une stratégie de stockage efficace.

« Un système de stockage multiniveaux mis en réseau peut contenir différentes technologies de disque – à haute performance, à grande capacité, à basse performance et à grande capacité, etc. – ce qui permet de mettre l’information sur une plate-forme de stockage en relation avec sa valeur aux yeux de l’entreprise », explique M. Lavoie.

« Ceci s’applique aussi à des systèmes d’archivage, idéalement automatisés, qui font que seulement l’information importante et en ligne est sur une unité de stockage de niveau 1, et que l’information qui est moins importance, parce qu’elle n’est pas utilisée ou qu’elle est vieille, est intégrée sur un niveau de stockage plus économique, et ce, afin de libérer de l’espace. Ceci est possible à l’aide de technologies mises en réseau, comme le stockage en réseau NAS et le réseau de stockage SAN. »

Vues d’ensemble

Pour l’optimisation du stockage de données, par nécessité ou par obligation, les organisations doivent qualifier leurs données afin les placer sur les produits technologiques appropriés, tout en établissant des politiques appropriées quant aux formes de stockage. Selon M. Lavoie, cette approche entraîne des bénéfices autres que ceux d’ordre financier.

« Il faut faire un plan pour migrer les données, mais aussi il faut classifier ces données, définir quelle application les utilise, définir quelle est la valeur de l’information puis assigner un niveau de stockage en vertu de la performance ou du coût. Par exemple, en archivant de l’information redondante ou peu critique, on la garde accessible, mais à un niveau de stockage moins coûteux », indique-t-il.

« Ceci a des avantages corollaires lors des sauvegardes, que l’on fait souvent pour des fichiers qui sont inchangés, car avec le concept multiniveaux, on ne sauvegarde que l’essentiel alors que le reste est archivé. Avec l’explosion de données, il est impossible de fonctionner de l’ancienne façon, autant en raison de l’espace que du temps. La consolidation sur des unités de stockage en réseau intègre aussi des outils sophistiqués qui font des sauvegardes de l’information dans des fenêtres de temps réduites, voire instantanées, sur des médias moins coûteux », précise M. Lavoie.

Face à la quantité et la diversité des données produites par les employés, créateurs, analystes et décideurs, l’évaluation de la situation par les gestionnaires peut être une tâche ardue. M. Lavoie mentionne que les outils de gestion disponibles dans le marché procurent une assistance appréciable pour avoir une vue d’ensemble sur l’état du stockage et mieux planifier les besoins.

« En consolidant l’information à un seul endroit, on peut utiliser un seul outil pour effectuer une gestion en un coup d’œil, alors qu’un modèle décentralisé implique souvent des outils différents pour des produits différents. C’est alors tout un défi d’obtenir une image cohérente. Le fait de consolider aide beaucoup au niveau du rapportage de l’information. On peut avoir un œil sur l’utilisation et sur la croissance, se faire une zone de réserve, mais on peut aussi réagir rapidement et acheter de la capacité à temps. »

Multiplicité, mobilité, accessibilité

Les outils de gestion sont également bénéfiques pour réduire les fichiers redondants qui occupent beaucoup d’espace. M. Lavoie reconnaît que trop de fichiers sont produits par les utilisateurs, mais il souligne que la technologie vient alors à la rescousse des organisations.

« Pour les courriels remplis de fichiers attachés qui entraînent des doublons, des produits permettent la détection de duplications, de stocker une copie active d’un fichier et de recourir à des références, explique-t-il. Comme on ne peut contrôler les utilisateurs, il faut détecter ces duplications soit au niveau de la messagerie, des bases de données ou des systèmes de fichiers. Des produits font aussi la migration et l’archivage de ces données pour réduire l’espace coûteux qui est requis. Les solutions de sauvegarde sont plus intelligentes et détectent les fichiers déjà sauvegardés. »

À propos des données des appareils mobiles et des supports amovibles, M. Lavoie mentionne l’importance du cryptage des données. « Les organisations savent qu’il est important que les gens aient de l’information sur des supports amovibles, mais des technologies empêchent l’utilisation ou la copie des données lorsqu’elles tombent en mauvaise main, ou bien en restreignent [l’extraction par les utilisateurs]. Il existe des outils de protection et de sauvegarde à distance des appareils mobiles, qui sont ajustés en fonction de la bande passante disponible », note-t-il.

Enfin, M. Lavoie constate que les grandes organisations n’ont pas l’apanage de ces approches stratégiques en matière de stockage, puisque les concepts et les solutions technologiques auparavant trop coûteuses sont maintenant à la portée des petites et moyennes entreprises.

« Les prix ont tellement diminué que tout le monde ou presque peut se [procurer] de telles solutions. Les réseaux de stockage à protocole Fibre Channel sont encore relativement coûteux, même si c’est beaucoup moins dispendieux, mais on voit des produits intéressants de réseaux SAN IP de type iSCSI dans les petites entreprises où les besoins de performance ne sont pas aussi grands », note-t-il.

« Les réseaux de stockage IP vont prendre une grosse partie du marché, sans prendre les parts qui existent au niveau des SAN Fibre Channel, mais ceux qui n’en avaient pas pourront [s’en doter]. Les lacunes en performance vont se rattraper rapidement, avec la montée de l’Internet à 10 Gb/s et des produits de bas de gamme qui offrent des solutions complètes à un prix intéressant. », conclut M. Lavoie.


Plus de contenus que de contenants?

Selon une récente étude de la firme IDC, environ 161 milliards de gigaoctets d’informations numériques auraient été créés et copiés durant l’année 2006 sur la planète. Avec une croissance annuelle composée qui est estimée à 57 %, la quantité d’information créée et copiée en 2010 pourrait atteindre 988 milliards de gigaoctets, ou 988 exaoctets.

IDC estime que près de 70 % des informations numériques seront générées par des individus en 2010, mais ajoute que des organisations de toutes sortes seront responsables de la fiabilité, de la conformité, de la sécurité et du caractère privé d’au moins 85 % de cette information, puisqu’elle sera stockée ou circulera dans leurs réseaux, centres de données, sites d’hébergement, commutateurs ou systèmes de sauvegarde.

À propos des organisations, l’étude indique que l’information qui y serait détenue serait constituée à 80 % d’informations non structurées, que 20 % de l’information numérique serait sujette à des standards et à des règles de conformité et qu’environ 30 % feraient l’objet d’applications de sécurité. La quantité d’information confidentielle, qui constituerait pour l’instant moins de 10 % de l’information des organisations, pourrait également augmenter de plus de 50 % par année.

En ajoutant à l’équation le courriel et la messagerie instantanée, dont les contenus transmis et les fichiers joints ne cessent de croître, il appert que le stockage des données des organisations continuera à augmenter et à constituer une préoccupation.




Tags: , ,

À propos de Jean-François Ferland

Jean-François Ferland est le rédacteur en chef du magazine Direction informatique. Il compte dix-sept années d'expérience en journalisme et en communication publique.
Google+