RISQ 2008 : réseau d’avenir et avenir du réseau


Alain Beaulieu - 17/11/2008

Le dernier colloque du RISQ a permis de se faire une idée de ce à quoi ressemblera le réseau informatique de l’avenir. Des développements sont attendus du côté des procédures d’accès aux services et aux applications.

Pat Calhoun, directeur général des technologies, Groupe de réseautique d’accès chez Cisco, était le conférencier vedette invité par le Réseau d’informations scientifiques du Québec RISQ lors de son 19e Colloque sur les réseaux avancés RISQ 2008. M. Calhoun, un Montréalais d’origine, a débattu de la nécessité de favoriser la mise au point de méthodes fortes d’authentification et de leur adoption par les entreprises, plus particulièrement par les fournisseurs de services de communication et de réseau.

Avant que M. Calhoun présente sa conférence, le RISQ a fait le bilan de ses trois dernières années d’activité et présenté son plan d’affaires pour les années 2009 à 2012. L’organisme sans but lucratif, qui fournit des services de réseau aux établissements de recherche et d’enseignement supérieur du Québec, estime avoir réalisé les quatre objectifs qu’il s’était fixés en 2005. Ainsi, il a amélioré la qualité de son service à la clientèle, notamment par la mise en oeuvre d’offres de services, de garanties de service et de carnets de commandes. Il a aussi amélioré la disponibilité de son réseau, qui porte le même nom, en ayant bâti des boucles de redondance, déployé 1 000 kilomètres additionnels de fibre optique en région et renforcé l’infrastructure du réseau qui affiche maintenant une disponibilité de 99,95 %.

Du point de vue financier, le RISQ applique depuis 2004-2005 un gel des cotisations et des tarifs afin de ne pas accroître le fardeau financier de ses clients. Et tout ça, sans compromettre la réalisation de son objectif d’innovation, au terme duquel l’organisme a déployé la technologie de dernière génération ROADM 10G, la même que CANARIE a mise en oeuvre à l’échelle du pays. Cette situation a fait dire au directeur général du RISQ, Michel Vanier, « qu’on a maintenant au Québec un réseau qui se compare avantageusement aux meilleurs réseaux de recherche utilisés ailleurs dans le monde ».

Au cours des trois prochaines années, le RISQ entend favoriser le développement des classes virtuelles, par l’entremise notamment du projet Cégeps en réseau, et l’utilisation des plus récentes technologies de téléprésence, comme celle qui est utilisée à la Société des Arts Technologiques (SAT). L’organisme prévoit aussi faciliter la mise en place de campus universitaires étendus, inspirés des projets déployés à l’Université de Montréal et à l’Université du Québec à Trois-Rivières (UQTR), ce qui laisse entrevoir le besoin d’une solution interopérable. Le RISQ désire également adhérer à des projets visant à favoriser la nomadicité et le déploiement de campus universitaires virtuels qui seront inspirés des projets Edupass.CA, Eduroam, QIX et des réalisations de l’Université Concordia.

L’organisme entend aussi faire en sorte de favoriser l’échange inter-établissements de contenus multiples, enrichis et interactifs sur une longue distance, en plus de faciliter la tâche des chercheurs québécois ayant adhéré au projet ATLAS – l’accélérateur de particules déployé en Suisse – qui génère une quantité astronomique de données. Finalement, le RISQ veut faire en sorte d’assurer son autonomie financière, dans un contexte de fin des subventions du Ministère de l’Éducation, du Loisir et du Sport (MELS), en commercialisant notamment la capacité excédentaire de son réseau.

La force du marché

Pat Calhoun, de Cisco, fonde son argumentation favorable à la mise en place de méthodes fortes d’authentification sur la force intrinsèque du marché. Il est persuadé qu’à terme l’évolution du marché, qui se fait toujours dans le sens de la commodité, obligera les fournisseurs à simplifier les procédures d’accès à leurs services et à leurs réseaux. Cette pression du marché en faveur de la simplification des procédures d’accès aura évidemment des répercussions sur les procédures d’interconnexion des réseaux des fournisseurs, dans une perspective de facilitation de l’itinérance (roaming).

Il affirme que les utilisateurs trouvent très compliquées et fastidieuses les procédures d’accès aux réseaux, aux services et aux applications que les fournisseurs mettent à leur disposition, et à plus forte raison s’ils sont en déplacement. Ces procédures ont évidemment pour objectif d’assurer la protection des ressources et des données qu’on trouve sur ces réseaux. « Mais au fond, si c’est si compliqué, c’est parce que personne ne veut résoudre le problème et chaque compagnie s’en remet à l’utilisateur qui est contraint de gérer lui-même les multiples procédures, les protocoles d’accès, les mots de passe, etc. que cela requiert, explique-t-il. Mais cette situation ne pourra durer éternellement. »

Sans compter que face à cette multiplication des procédures d’accès, les utilisateurs, dans le but de se simplifier l’existence, ont parfois recours aux mêmes mots de passe pour divers services, ce qui n’est absolument pas sécuritaire. Une fois le mot de passe universel trouvé (une date de naissance, le prénom d’un enfant, etc.), on a accès à tous les services de l’utilisateur…

M. Calhoun croit donc qu’éventuellement les fournisseurs s’uniront pour partager une même procédure et une même technologie d’accès universel à sécurité renforcée, ce qui offrira les avantages du mot de passe universel sans ses inconvénients. Une telle procédure d’accès pourrait recourir à un dispositif de génération de mot de passe aléatoire.

Pour ce faire, le spécialiste prévoit des développements importants au niveau des technologies d’authentification et d’interconnexion. Au coeur de ces développements, il y a les protocoles d’accès, dont il a fait un bref historique des développements récents. Au début des années 1990, il y eut le protocole RADIUS (Remote Access Dial Up Server) qui a été repris et normalisé en 1997 par l’Internet Engineering Task Force (IETF) dans le protocole RFC-2058. Les limites du protocole ayant été mises en lumière lors du projet de réseau étendu MichNet dans l’État du Michigan, l’IETF a ensuite proposé le protocole Diameter, connu aussi sous le nom de RADIUS*2, dont l’objectif est de faciliter l’itinérance. Le prochain protocole qui s’imposera sur le marché sera vraisemblablement le IEEE 802.11u, qui simplifiera le processus de sélection du réseau en rendant la procédure transparente à l’utilisateur.

C’est du moins l’avis de M. Calhoun qui croit aussi que les réseaux sans fil sont aujourd’hui plus sécuritaires que les réseaux Ethernet filaires. Pour remédier à cette lacune, les entreprises sont en train de mettre en place des technologies de cryptage au niveau de leurs réseaux Ethernet qui pourront ainsi offrir le même niveau de protection que les réseaux sans fil.

Ajoutés aux désirs de convivialité des utilisateurs, des arguments financiers jouent en faveur de la mise en oeuvre de procédures d’authentification simplifiées, fortes et partagées par plusieurs fournisseurs, en raison de l’importance du coût d’octroi des privilèges d’accès aux utilisateurs invités dont le nombre ne cesse de croître dans les entreprises. Chez Cisco, chaque appel du genre au service technique coûte 25 $ US.

Mais avant que l’approche de la procédure d’authentification commune forte ne se généralise sur le marché, l’industrie devra coopérer pour définir une architecture de politiques d’entreprise commune et des mécanismes de mise en application des politiques. Encore une fois, la solution passe par la coopération et la concertation.

Alain Beaulieu est adjoint au rédacteur en chef au magazine Direction informatique.


À lire aussi: L’actualité des TI en bref L’informatique est pavée de bonnes intentions Progiciel de gestion intégré : déploiement accéléré pour PME




Tags: , , , , , ,