Network Working Group E. Krol Request for Comments: 1462 University of Illinois FYI: 20 E. Hoffman Merit Network, Inc. May 1993
Pour aider à répondre plus complètement à la question, la suite de cet article reprend une mise à jour adaptée du second chapitre du livre "Le Monde Internet Guide et Ressources", d'après la traduction par Pierre Cubaud et Jacques Guidon du livre "The Whole Internet User's Guide and Catalog" par Ed Krol (1992) et qui donne une explication plus en profondeur. (L'extrait est publié ici avec l'aimable autorisation de l'éditeur, O'Reilly & Associates, Inc.)
Note : Les paragraphes extraits du livre précité ont été obtenus par numérisation et reconnaissance optique des caractères. Cette opération a été rendue possible grâce à l'aide de Claude Detry de la Cellule enseignement de l'UCL. Qu'il en soit remercié.
L'Internet est né il y a vingt ans, à partir d'un projet de connexion du réseau ARPAnet, du Département de Défense américain, avec des réseaux radios ou satellites extérieurs. ARPAnet était un réseau expérimental créé à des fins de recherche militaire, appliquées entre autres à l'étude de réseaux pouvant supporter des dommages partiels (comme des bombardements) tout en restant opérationnels. (Pensez à cette origine lorsque vous lirez la description du fonctionnement de l'Internet; cela vous donnera une meilleure compréhension de la logique et de la topologie de ce réseau). Dans le modèle ARPAnet, les communications se passent toujours entre un ordinateur source et un ordinateur destinataire. Le réseau lui-même est considéré comme non fiable; n'importe quel tronçon de réseau peut devenir hors service à chaque instant. (Choisissez ici votre catastrophe préférée il y a plus à craindre de nos jours des gens qui se prennent les pieds dans les câbles que de la bombe atomique). Il est conçu de façon à ne nécessiter qu'un minimum d'informations provenant des ordinateurs connectés. Pour envoyer un message sur le réseau, un ordinateur doit simplement mettre ses données dans une enveloppe, appelée paquet IP (Internet Protocol) et fournir l'adresse de destination. Les ordinateurs assurant la communication (et non le réseau lui-même) doivent s'assurer que l'envoi a été effectué. La philosophie de base est que chaque ordinateur du réseau peut dialoguer d'égal à égal avec n'importe quel autre ordinateur connecté.
Ces choix, comme l'hypothèse d'un réseau non fiable, peuvent paraître singuliers, mais l'histoire a prouvé que la plupart d'entre eux étaient raisonnables. A partir de ces hypothèses, les États-Unis avaient la possibilité de développer un réseau opérationnel (l'ancêtre de l'Internet actuel) et les utilisateurs, chercheurs ou enseignants, qui y avaient accès devinrent rapidement enthousiastes. Les demandes de connexion s'étendirent rapidement. Et les utilisateurs ne pouvaient plus attendre la norme concernant les réseaux sur laquelle l'ISO (International Standard Organization) travaillait depuis des années. Répondant à la demande, les développeurs portèrent leur logiciel IP sur tous les types de machines, ces protocoles devenant la seule méthode pratique pour communiquer entre plates-formes de divers constructeurs. Ce protocole était particulièrement satisfaisant dans les contextes de machines hétérogènes, que l'on trouve souvent dans les centres de recherches et universités, où il n'existe pas de politique d'achat chez un fournisseur unique.
A peu près au même moment, l'Internet prenait forme. Les technologies de réseaux locaux de type Ethernet se développaient lentement jusqu'en 1983, date à laquelle l'apparition des premières stations de travail leur donna une accélération décisive. La plupart de ces stations utilisaient UNIX Berkeley, qui intègre les protocoles IP. Cette apparition créa une nouvelle demande : plutôt que de connecter un seul gros système par site, les organismes souhaitaient pouvoir connecter leur réseau local dans son ensemble à ARPAnet, ce qui permettait à tous les ordinateurs de ce réseau local d'accéder aux services d'ARPAnet. Dans le même temps, d'autres grandes sociétés ou organismes commencèrent à construire des réseaux privés d'entreprises à partir des mêmes classes de protocoles. Il devint évident que si ces différents réseaux pouvaient dialoguer entre eux, leurs utilisateurs respectifs pourraient communiquer à leur plus grand profit.
Le plus important de ces nouveaux réseaux fut sans doute NSFNET, financé par la National Science Foundation (NSF), une agence gouvernementale américaine finançant la recherche. A la fin des années 80, la NSF créa 5 grands centres de calcul, équipés de super-calculateurs, dans de grandes universités réparties sur le territoire américain. Jusque-là, ce type d'ordinateur était surtout présent dans les laboratoires militaires ou quelques sites très particuliers. En créant ces centres, la NSF voulait les mettre à la portée de n'importe quel chercheur universitaire. Seuls 5 centres furent créés pour des raisons de coût, et devaient donc être partagés. Cela posait un problème de communication; il fallait relier ces centres entre eux, et permettre d'autre part aux utilisateurs d'y accéder. Une première tentative utilisant ARPAnet échoua, pour cause de problèmes bureaucratiques.
En réponse la NSF décida de construire son propre réseau, reposant sur la technologie IP d'ARPAnet. Elle connecta les centres avec des lignes à 56.000 bits par seconde. (Ce qui offre la possibilité de transférer approximativement deux pages pleines par seconde. Cela peut vous paraître lent aujourd'hui, mais c'était considéré comme plutôt rapide au milieu des années 80.) Il était cependant évident que si l'on essayait de connecter chaque université directement aux centres de calcul, on irait droit à l'échec. Vous payez en effet ces lignes selon leur longueur; une ligne vers un centre de calcul par campus, un peu comme les rayons d'une roue de bicyclette vers le moyeu, augmente considérablement la longueur totale des lignes. Aussi fut-il décidé de mettre en place des réseaux régionaux. Dans chaque région, les universités étaient connectées à leur plus proche voisin. Chaque ensemble régional était connecté à un des centres de calcul de manière unique, les 5 centres étant enfin reliés entre eux. Dans cette configuration chaque ordinateur pouvait communiquer avec n'importe quel autre en transitant par les sites voisins.
Cette solution fut un succès, et, comme tout succès, le moment vint où cela ne marcha plus. Partager des super-calculateurs permet aussi aux sites connectés de partager beaucoup d'autres ressources. D'un coup les utilisateurs avaient accès à des masses de données et d'interlocuteurs depuis leur station. Le trafic réseau augmenta jusqu'à la saturation des lignes et des ordinateurs chargés du contrôle. En 1987 un contrat pour gérer et augmenter les capacités du réseau NSF fut attribué à Merit Network Inc. qui exploitait le réseau universitaire de l'État du Michigan, en partenariat avec IBM et MCI. L'ancien réseau eut alors des lignes téléphoniques 20 fois plus rapide, ainsi que de meilleurs ordinateurs.
L'augmentation de la puissance des machines et du débit des voies se poursuit encore aujourd'hui. A la différence du réseau routier cependant, les utilisateurs ne s'aperçoivent pas de ces changements. Vous ne verrez pas de message sur votre ordinateur indiquant que votre tronçon de réseau sera indisponible durant 6 mois pour cause de travaux. Peut être plus important est le fait que chaque cycle saturation du réseau/amélioration des performances a donné naissance à des technologies éprouvées. Les idées ont été testées et lorsque des problèmes sont apparus, ils ont été résolus.
En ce qui nous concerne, l'aspect le plus important de l'investissement de la NSF dans les réseaux est qu'il permet maintenant l'accès à ces réseaux par le plus grand nombre. Avant cela, Internet était essentiellement réservé aux chercheurs en informatique, et aux employés d'agences gouvernementales ou à leurs contractants. La NSF a assuré une large promotion de ces techniques dans le monde universitaire.
La demande continue à se développer. Maintenant que la plupart des universités sont connectées, les projets de connexion d'écoles, de lycées et de bibliothèques apparaissent. Les anciens étudiants ayant eu accès aux services de l'Internet essayent de les promouvoir au sein de leur entreprise. Enfin, lorsque l'on bénéficie d'une connexion au Réseau dans le cadre professionnel, le pas suivant est de vouloir en mettre une en place à son domicile.
En fait l'organe d'orientation de l'Internet repose sur l'Internet Society , ou ISOC. ISOC est une organisation dont les membres sont des volontaires et dont le but est de promouvoir l'échange d'informations à l'aide des technologies de l'Internet. (Si vous souhaitez plus d'informations, ou si vous souhaitez en devenir membre, voyez la partie "Organisation réseaux" dans le Catalogue des Ressources.) Il constitue un conseil des sages, qui a la responsabilité de la direction technique ainsi que de l'administration de l'Internet.
Le conseil des sages est composé d'un groupe de volontaires appelé l'IAB (Internet Architecture Board). L'IAB se réunit régulièrement pour "donner sa bénédiction" à des standards et allouer des ressources, comme des adresses. L'Internet fonctionne parce ce qu'il existe des manières standardisées pour les ordinateurs et le logiciel applicatif de dialoguer entre eux. Cela permet à de l'équipement de différents constructeurs de communiquer sans problème. Ce n'est pas un réseau SUN ou Macintosh uniquement. L'IAB est responsable de ces standards; il décide quel standard est nécessaire et ce qu'il devrait être. Lorsqu'un standard est nécessaire, il examine le problème, adopte un choix et l'annonce à travers le Réseau. (Vous vous attendiez à des tablettes gravées ?) L'IAB gère aussi des tables de divers types qui doivent être uniques. Par exemple, chaque ordinateur connecté à l'Internet a une adresse sur 32 bits qui est unique. Aucun autre ordinateur ne peut avoir la même adresse. Comment cette adresse doit-elle être assignée ? L'IAB se préoccupe de ce type de problèmes. Il n'attribue pas les adresses, mais édicte les règles de délivrance.
Comme dans une Église, chacun a son opinion sur le fonctionnement des choses. Les utilisateurs de l'Internet peuvent exprimer leur opinion au travers des réunions de l'IETF (Internet Engineering Task Force). L'IETF est une autre organisation de volontaires; elle se réunit régulièrement pour discuter de problèmes techniques ou opérationnels de l'Internet. Lorsque apparaît un problème qui semble important, l'IETF peut mettre en place un groupe de travail pour l'analyser. (En pratique, un problème important signifie en général qu'il se trouve suffisamment de volontaires pour faire partie du groupe de travail). Chacun peut assister aux réunions de l'IETF et faire partie des groupes de travail. Les groupes de travail peuvent avoir des préoccupations très différentes, allant de la production de documentation à la coopération entre réseaux en passant par le changement de la signification de tel bit dans un paquet IP. Un groupe de travail produit généralement un rapport. Selon la nature de la recommandation, ce rapport peut consister seulement en une documentation délivrée à qui en fait la demande, en une idée que les utilisateurs appliquent si elle semble bonne, ou enfin en une demande de standardisation adressée à l'IAB.
Si vous entrez dans une Église et acceptez sa philosophie et ses enseignements, vous êtes en retour accepté par elle et en recevez les bénéfices. Si, au contraire, vous ne l'appréciez pas, vous pouvez la quitter. L'Église continue à fonctionner mais vous n'en profitez plus. L'Internet fonctionne de cette manière. Si un réseau accepte les règles de l'Internet, s'y connecte et estime en faire partie, alors il est partie constituante de l'Internet. Il y trouvera parfois des choses qu'il n'apprécie pas et pourra adresser ses remarques à l'IETF. Certaines de ces remarques pourront être reconnues valides et l'Internet pourra évoluer dans ce sens, d'autres risquent d'être en contradiction avec le "dogme" et seront rejetées. Si enfin le réseau provoque par ses actions des dommages à l'Internet, il pourra être excommunié jusqu'à ce qu'il fasse amende honorable.
Il y a un mythe de l'Internet gratuit. Ce n'est pas gratuit; quelqu'un paye pour chaque connexion à l'Internet. Très souvent en effet ces coûts ne sont pas connus de l'utilisateur final, ce qui alimente l'illusion de l'accès gratuit. Mais il y a également beaucoup d'utilisateurs qui savent très bien que c'est faux, car ils payent systématiquement les montants horaires ou mensuels de leurs connexions à des vitesses jusqu'à 64 kb par seconde une vitesse équivalente à celles des lignes NSF de la première génération!). Aujourd'hui les domaines de plus forte croissance de l'Internet correspondent à ceux des PME-PMI et des individuels, et ces utilisateurs sont très au fait des prix à payer.
Vous ne vous occupez de votre opérateur que lorsqu'il y a problème. Si un central s'arrête, c'est à la compagnie propriétaire de ce central de le réparer. Les différentes compagnies téléphoniques peuvent mener des opérations en commun mais chacun est responsable du bon fonctionnement de sa partie du système. La chose est également vraie dans l'Internet. chaque réseau a son centre opérationnel. Les différents centres peuvent communiquer pour résoudre des problèmes ou améliorer le service. Mais vous avez un contrat avec l'un de ces opérateurs dont le rôle est de vous fournir un bon service.
Il n'est pas évident de connaître l'évolution de la demande vers OSI, malgré ces exigences gouvernementales. Nombreux sont ceux qui pensent que l'approche actuelle fonctionne et ne mérite pas d'être changée. Ils commencent à bien savoir utiliser les protocoles actuels. Pourquoi apprendre une nouvelle terminologie et de nouvelles commandes, uniquement parce que cela correspond à une norme ?
Actuellement il n'y a pas d'avantage réel à migrer vers OSI. L'ensemble est plus complexe et moins mûr que IP, et donc ne fonctionne pas aussi bien. OSI offre l'espoir de nouvelles fonctions, mais souffre des mêmes problèmes qui gêneront IP quand le Réseau atteindra une taille et des vitesses trop importantes. il est clair qu'un certain nombre de sites migreront vers OSI dans les prochaines années. La question est : combien ?
En Europe, le développement de l'Internet a été gêné par l'existence de réglementations imposant les protocoles OSI, par opposition à IP d'origine américaine. En dehors de la Scandinavie où les protocoles IP ont été adoptés depuis longtemps, ces réglementations ont limité le développement de l'Internet sur une large échelle. En 1989, RIPE (Réseaux IP Européens) a commencé à coordonner l'Internet en Europe; aujourd'hui, environ 25 % de tous les systèmes connectés à l'Internet se trouvent en Europe.
A présent, c'est le manque d'une bonne infrastructure de support, et en particulier un bon réseau téléphonique, qui freine le plus le développement international de l'Internet. Tant en Europe de l'Est que dans le tiers monde, le réseau téléphonique est déficient. Même dans les grandes villes, les vitesses sont limitées à celles disponibles dans n'importe quel foyer américain, à savoir 9600 bits par seconde. Et typiquement, même si un de ces pays est "sur l'Internet", seuls quelques rares sites sont accessibles. Généralement, c'est la grande Université du lieu. Cependant comme le réseau téléphonique s'améliore dans certains endroits, on peut espérer voir de plus en plus de sites connectés.
On découvre maintenant dans ce monde que maintenir plusieurs réseaux coûte cher. Certains commencent à regarder vers Internet pour n'avoir plus qu'un seul réseau à gérer. La plupart des règles qui excluaient ou restreignaient un usage commercial du Réseau ont disparu. Maintenant ces grandes entreprises peuvent utiliser l'outil Internet pour répondre à tous leurs besoins.
Tout cela sera surtout utile pour les PME-PMI. Une multinationale peut supporter la charge de gérer son propre réseau pour relier ses sites. Une petite entreprise ne peut le faire. Pour une petite société ayant deux localisations distantes, il suffit d'une connexion Internet en chaque lieu.
Maintenant que l'usage de l'Internet intéresse les grandes entreprises, les compagnies de téléphone ont changé quelque peu d'attitude. Elles se plaignent au contraire que le gouvernement souhaite les laisser en dehors de ce marché. Après tout, qui, mieux que les opérateurs de télécommunications, peut fournir des services réseaux? Elles ont convaincu de nombreux responsables politiques à qui la demande a semblé raisonnable. Si vous parlez au personnel de ces compagnies, la plupart d'entre eux ne comprennent pas grand chose à l'Internet. Ils ne sont pas encore croyants, mais étudient la Bible de toutes leurs forces. (Mes excuses aux employés de ces compagnies qui eurent la révélation il y a des années et qui ont essayé de convaincre leurs employeurs d'entrer en religion.)
Depuis le discours sur l'infrastructure nationale d'information par le gouvernement américain actuel, d'autres acteurs sont apparus. Les compagnies de télévision par câble ont réalisé qu'elles avaient elles-aussi un réseau conséquent capable de transporter des données numériques. Ce réseau atteint déjà de nombreux foyers américains. Elles ont donc proposé de résoudre le problème de la privatisation, en créant leur propre réseau sans aide gouvernementale. Ce réseau offrirait un très bon retour sur l'investissement consenti pour la télévision câblée. Il reste à voir ce qui sortira de cette initiative; ils ont déjà la religion (et l'argent à investir), mais ils écriront peut-être leur propre version de la Bible. Il est clair que les compagnies de télévision par câble sont intéressées par des applications qui n'existent pas sur l'Internet aujourd'hui: télé-achat, jeux vidéos, etc.... Il est moins certain qu'elles connaissent bien les usages plus traditionnels de transfert de données et qu'elles comprennent aussi que le réseau ne peut s'arrêter à chaque fois qu'un orage survient.
Bien que beaucoup de gens du monde des réseaux pensent que la privatisation de l'Internet est une bonne idée, quelques obstacles demeurent. La plupart ont trait aux subventions pour les liaisons déjà en place. De nombreuses écoles et universités sont connectées parce que l'État paye la facture. Si elles avaient à la payer, nombreuses sont celles qui consacreraient leurs fonds à d'autres activités. Si les grands centres de recherche continueraient certainement, il n'en serait pas de même pour les petites universités (sans parler des écoles). Que faire quand il faut choisir entre une connexion à l'Internet et un nouveau laboratoire ? L'Internet n'apparaît pas encore comme une "nécessité" dans l'esprit de nombreuses personnes. Quand ce sera le cas, la privatisation viendra vite.
Nous sommes en train de passer rapidement d'une époque où le réseau était un projet en lui-même, à une nouvelle période où le réseau est un outil à utiliser et à intégrer dans d'autres projets. Cela change la manière qu'a le gouvernement de distribuer les fonds consacrés aux réseaux. Aussi, plutôt que de subventionner le réseau d'un campus ou d'un organisme, la subvention est surtout attribuée à des projets. Les équipes développant ces projets peuvent acheter leurs services Internet à l'extérieur auprès d'un opérateur. Cela inquiète un certain nombre de gens car c'est une menace pour d'autres financements. D'un autre côté, c'est sans doute la seule manière pratique de voir l'argent public et l'argent privé se combiner pour atteindre une masse suffisante permettant d'étendre l'Internet vers les endroits les plus reculés.
Bien, assez parlé de l'histoire de l'autoroute de l'information. Il est temps de prendre la route.
send access.guide
.
Ellen Hoffman
Merit Network, Inc.
2901 Hubbard, Pod-G
Ann Arbor, MI 48105
Phone: (313) 936-3000
EMail: <ellen@merit.edu>
Page : UCL | Services | SRI | Pointeurs utiles.