L’avenir de la gestion du contenu selon Open Text


Jean-François Ferland - 26/11/2010

Tom Jenkins, le président exécutif du conseil et responsable de la stratégie d’Open Text, envisage avec enthousiasme la gestion du contenu à l’ère du Web 2.0 et du multimédia. Les atouts fournis par l’acquisition d’Nstein aideront son entreprise à atteindre l’objectif du Web sémantique.

Tom Jenkins d’Open Text s’intéresse grandement aux changements qui surviendront au cours des prochaines années en matière de gestion du contenu.

De passage à Montréal, avec en main le livre « Managing Content in the Cloud » qu’il a écrit pour sensibiliser les dirigeants d’organisations à la gestion du contenu à l’ère du Web 2.0, M. Jenkins a formulé plusieurs observations intéressantes sur l’ampleur de la tâche qui attend autant les organisations que sa propre entreprise.

Enjeux numériques

D’entrée de jeu, M. Jenkins et ses collègues ont dépeint l’évolution d’Open Text en presque deux décennies. En 1991, l’entreprise a amorcé ses activités commerciales avec un moteur de recherche fondé sur l’indexation de plein texte et la recherche de chaînes. En 2010, alors qu’il commercialise des solutions de gestion du contenu organisationnel auprès des entreprises et des gouvernements, l’éditeur de logiciels qualifie aussi son offre de « Facebook des entreprises » avec des solutions pour les intranets qui facilitent l’interaction entre les utilisateurs en fonction du contenu et des sujets.

M. Jenkins a multiplié les statistiques et les comparaisons afin de démontrer l’évolution accélérée de la production de contenu, tout comme les enjeux de taille qui y sont attachés maintenant et qui ne cesseront de croître. Le premier enjeu inévitable est celui de l’augmentation exponentielle de la quantité de contenu qui est produit à l’aide des technologies de l’information.

« Lorsqu’Open Text y a fait son apparition en 1994, le contenu sur Internet totalisait 1 gigaoctet. Maintenant, la quantité de contenu y double chaque mois, et bientôt il doublera aux huit heures », a déclaré M. Jenkins. 

« La quantité de courriel qui est produite chaque jour (10 exaoctets) équivaut à dix fois la quantité de contenu que Google a déjà produit (un exaoctet). À l’époque de Guttenberg et l’impression, le rapport entre le contenu et l’auditoire était de 1 pour 10 000. Maintenant il est de un pour un », a-t-il ajouté.

D’autre part, M. Jenkins a souligné que la réseautique sociale était en forte croissance, alors que les gens préfèrent parler entre eux afin d’obtenir plus rapidement l’information qu’ils cherchent. La part de visites des internautes sur le portail Facebook aurait rattrapé celle de Google, qui plafonne.

M. Jenkins a souligné l’intérêt croissant qui est porté envers le contenu multimédia, en donnant l’exemple de la production de vidéos en remplacement du papier lors de la mise à jour de procédures techniques. Il a aussi traité de l’intérêt porté envers l’informatique en nuage et le logiciel service, des concepts qui sont loin d’être nouveaux puisqu’ils sont l’essence même d’Internet, voire du premier serveur de courriel d’IBM dans les années 60.

M. Jenkins a reconnu la progression de la mobilité, qui constitue une grande source d’innovation du côté client et incite Open Text à « mobiliser » ses solutions. Enfin, il a évoqué une nouvelle approche de liaison entre le contenu immersif et les droits numériques, par le biais de la diffusion en rafale à partir de sources, afin de contrer la copie.

Adaptation inévitable

L’administrateur et stratège d’Open Text constate que les organisations sont « apeurées à mort » par le Web 2.0, mais il estime que ces dernières n’auront pas le choix d’adopter ces nouvelles technologies.

En affirmant que les organisations sont autant responsables du contenu qui est produit dans le Web 2.0 que leurs employés qui en sont les auteurs, M. Jenkins a affirmé que les organisations devront trouver l’équilibre entre la disponibilité et le mauvais emploi des nouveaux mécanismes de communication.

En faisant un parallèle avec le courriel, que certains responsables des technologies de l’information avaient envisagé d’éliminer dans les années 90 parce qu’ils y voyaient un danger de perte de contrôle, M. Jenkins a indiqué qu’il est possible de surveiller ce qui est fait à l’aide des outils Web 2.0.

« On doit surveiller les mots clés et on doit gérer le flux pour bloquer les sites non pertinents pour le travail, mais on doit aussi archiver et surtout structurer le contenu afin de le retrouver facilement, alors que les gouvernements veulent avoir accès à cette information. Dans des cas de requêtes en cour, des entreprises doivent payer des millions de dollars en pénalité parce que l’exécution d’une requête pour retrouver un document prend trop de temps », a indiqué M. Jenkins.

Avenir sémantique

En 2010, Open Text a acquis l’entreprise montréalaise Nstein afin de faire bénéficier de sa spécialisation dans le créneau de l’information non structurée à l’aide de la sémantique et des métadonnées.

Open Text a également acquis Nstein pour accroître sa présence dans le marché des médias, mais aussi pour renforcer sa présence dans le marché québécois. D’ailleurs, Open Text compte établir un centre mondial sur la recherche sémantique à Montréal.

Par ailleurs, en matière de recherche, M. Jenkins a reconnu que le contenu multimédia, qu’il s’agisse d’images, de vidéos et de sons, nécessitera notamment des développements du côté de l’intelligence artificielle afin d’en faciliter la gestion et l’utilisation.

« Avant d’arriver à un Web entièrement sémantique, il nous faudra développer notre habileté à la pertinence. Premièrement, cette pertinence se crée de façon grammaticale, avec la signification des mots et les concepts. C’est pour cela que nous avons acheté Nstein, car nous savons qu’il s’agit du premier niveau à atteindre. Ensuite la pertinence s’obtiendra par la réduction de la complexité des objets audio et vidéo jusqu’au niveau des métadonnées, puis de rechercher les objets qui sont semblables. C’est alors qu’on oeuvre au niveau des techniques d’intelligence artificielle. C’est un peu comme la grammaire, mais beaucoup plus compliqué. Pour y arriver, ce ne sont pas des superordinateurs qu’il nous faudra, mais des réseaux distribués », a prédit M. Jenkins.

Jean-François Ferland est rédacteur en chef adjoint au magazine Direction informatique.




Tags: , , , , , , , , ,

À propos de Jean-François Ferland

Jean-François Ferland est le rédacteur en chef du magazine Direction informatique. Il compte dix-sept années d'expérience en journalisme et en communication publique.
Google+