two men wearing suits talking to each other

Bref historique de l’Internet

 
 

Introduction

Publié 1997

Barry M. Leiner, Vinton G. Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Larry G. Roberts, Stephen Wolff

 
 

L’Internet a révolutionné le monde des ordinateurs et des communications comme rien d’autre auparavant. L’invention du télégraphe, du téléphone, de la radio et de l’ordinateur a ouvert la voie à cette intégration sans précédent de capacités. L’Internet est à la fois une capacité de diffusion dans le monde entier, un mécanisme de distribution de l’information et un moyen de collaboration et d’interaction entre les individus et leurs ordinateurs, peu importe l’emplacement géographique. L’Internet représente l’un des exemples les plus réussis des avantages de l’investissement et de l’engagement soutenus dans la recherche et le développement de l’infrastructure informatique. Dès les premières recherches sur la commutation par paquets, le gouvernement, l’industrie et les universités ont été partenaires dans l’évolution et le déploiement de cette nouvelle technologie passionnante. Aujourd’hui, les termes tels que « [email protected] » et « http://www.acm.org » n’ont plus de secret pour quiconque1.

Cette histoire est intentionnellement brève, superficielle et incomplète. Il existe actuellement beaucoup de matériel sur l’histoire, la technologie et l’utilisation d’Internet. Des étagères remplies de documents écrits sur l’Internet occupent pratiquement toutes les librairies2.

Dans cet article3, plusieurs d’entre nous impliqués dans le développement et l’évolution de l’Internet, partagent leurs opinions sur ses origines et son histoire. Cette histoire aborde quatre aspects distincts. Il y a l’évolution technologique qui démarra avec les premières recherches sur la commutation par paquets et ARPANET (et les technologies connexes), domaine dans lequel la recherche actuelle continue d’élargir les horizons de l’infrastructure selon diverses dimensions telles que l’échelle, la performance et les fonctionnalités de plus haut niveau. Il y a l’aspect exploitation et gestion d’une infrastructure d’exploitation mondiale et complexe. Il y a l’aspect social, qui a abouti à une vaste communauté d’internautes collaborant afin de créer et faire évoluer la technologie. Enfin, il y a l’aspect commercialisation, qui a transformé de manière extrêmement efficace les résultats de la recherche en infrastructure informatique largement déployée et disponible.

L’Internet est aujourd’hui une infrastructure informatique généralisée, le premier prototype de ce que l’on appelle souvent l’infrastructure nationale (ou mondiale ou galactique) informatique. Son histoire est complexe et implique de nombreux aspects – technologique, organisationnel et communautaire. Son influence touche non seulement les domaines techniques de la communication informatique, mais toute la société au fur et à mesure que nous nous dirigeons vers une utilisation croissante d’outils en ligne afin de réaliser des opérations communautaires, de commerce électronique et d’acquisition d’informations.

 

Origines de l’Internet

Les premiers textes décrivant les interactions sociales pouvant être rendues possibles grâce à un réseau d’ordinateurs étaient une série de mémos écrits par J.C.R. Licklider du MIT en août 1962 portant sur son concept de « réseau galactique ». Il imagina un ensemble d’ordinateurs interconnectés au niveau mondial à travers lequel chacun pourrait accéder rapidement aux données et programmes depuis n’importe quel site. En théorie, le concept était très semblable à l’Internet d’aujourd’hui. Licklider fut le premier chef du programme de recherche en informatique de la DARPA4, lancé en octobre 1962. Pendant son emploi à DARPA, il persuada ses successeurs, Ivan Sutherland, Bob Taylor et Lawrence G. Roberts, chercheur au MIT, de l’intérêt de ce concept de réseau informatique.

Leonard Kleinrock du MIT publia le premier document sur l’utilisation de la commutation de paquets en juillet 1961 et le premier livre sur le sujet en 1964. Kleinrock convainquit Roberts de la réalisation théorique des communications en utilisant la commutation par paquets plutôt que des circuits dédiés, ce qui s’avéra être un grand pas en avant vers les réseaux informatiques. Une autre étape clé a été de permettre aux ordinateurs de communiquer entre eux. En 1965, afin d’explorer cela, avec l’aide de Thomas Merrill, Roberts connecta l’ordinateur TX-2 dans le Massachussetts avec l’ordinateur Q-32 en Californie par une liaison téléphonique commutée, à faible vitesse, créant le premier (bien que très réduit) réseau informatique étendu jamais construit. Cette expérience prouva que les ordinateurs à temps partagé pouvaient très bien travailler ensemble, en exécutant des programmes et en récupérant des données si nécessaire sur la machine distante, mais que le système téléphonique commuté était totalement inadapté. La conviction de Kleinrock quant à la nécessité de la commutation par paquets fut confirmée.

Fin 1966, Roberts fut engagé à DARPA pour développer le concept de réseau informatique et mit rapidement en place son plan pour le réseau « ARPANET », qu’il publia en 1967. Lors de la conférence où il présenta le document, un exposé sur un concept de réseau à commutation par paquets fut également présenté par Donald Davies et Roger Scantlebury de NPL du Royaume-Uni. Scantlebury parla à Roberts du travail de NPL ainsi que de celui de Paul Baran et d’autres chez RAND. Le groupe RAND avait écrit un article sur l’utilisation d’un réseau à commutation par paquets pour la transmission sécurisée de la voix dans l’armée en 1964. Il se trouve que les travaux réalisés au MIT (1961-1967), RAND (1962-1965) et NPL (1964-1967) se sont tous déroulés en parallèle sans qu’aucun des chercheurs n’ait connaissance des travaux des autres. Le mot « paquet » fut adopté à partir du travail au NPL et la vitesse de transmission proposée à utiliser dans la conception d’ARPANET fut améliorée, passant de 2,4 kbps à 50 kbps5.

En août 1968, après avoir affiné la structure générale et les spécifications du réseau ARPANET, Roberts et DARPA lancèrent un appel d’offre pour la réalisation d’un composant clé du réseau : les commutateurs de paquets appelés Interface Message Processors (IMP). La société Bolt Beranek and Newman (BBN), dirigée par Frank Heart, remporta l’appel d’offre en décembre 1968. Tandis que l’équipe de BBN travaillait sur les IMP avec Bob Kahn, jouant un rôle clé dans la conception architecturale du réseau ARPANET, la topologie et l’économie du réseau étaient conçues et optimisées par Roberts qui travaillait avec Howard Frank et son équipe chez Network Analysis Corporation, et le système de mesure du réseau était préparé par l’équipe du professeur Kleinrock de l’UCLA6.

Grâce au développement précoce de la théorie de commutation par paquets de Kleinrock et sa concentration sur l’analyse, la conception et la mesure, son Centre de mesure du réseau (Network Measurement Center) à l’UCLA fut choisi pour être le premier noeud sur le réseau ARPANET. En septembre 1969, BBN installa le premier équipement réseau IMP à l’UCLA et le premier ordinateur hôte y fut connecté. Le projet de Doug Engelbart sur l’augmentation de l’intelligence humaine (qui comprenait le premier système hypertexte, NLS) au Stanford Research Institute (SRI) fournit un second noeud. Le SRI soutenait le Network Information Center, dirigé par Elizabeth (Jake) Feinler et comprenant des fonctions telles que le maintien de tableaux de noms d’hôtes et de leurs adresses ainsi qu’un répertoire des RFC.

Un mois plus tard, lorsque SRI fut connecté au réseau ARPANET, le premier message hôte à hôte fut envoyé par le laboratoire de Kleinrock à SRI. Deux noeuds supplémentaires furent ajoutés à l’université de Santa Barbara (UCSB) et l’université de l’Utah. Ces deux derniers nœuds incorporaient des projets de visualisation d’applications, avec Glen Culler et Burton Fried à l’UCSB qui étudiaient des méthodes pour l’affichage de fonctions mathématiques en utilisant des écrans à mémoire pour faire face au problème de rafraîchissement sur le réseau, et Robert Taylor et Ivan Sutherland à l’université de l’Utah qui étudiaient des méthodes de représentations en 3D sur le réseau. Ainsi, dès la fin 1969, le réseau ARPANET initial était constitué de quatre ordinateurs hôtes et l’Internet vit le jour. Même à ce stade précoce, il convient de noter que la recherche sur les réseaux intégrait à la fois le travail sur le réseau sous-jacent et le travail sur la façon d’utiliser le réseau. Cette tradition se poursuit à ce jour.

Des ordinateurs furent rapidement ajoutés au réseau ARPANET au cours des années suivantes, et le travail se poursuivit avec l’achèvement d’un protocole de communication hôte à hôte fonctionnellement complet et d’autres logiciels de réseau. En décembre 1970, le Network Working Group (NWG), conduit par S. Crocker, acheva le protocole de communication hôte à hôte pour le réseau ARPANET, appelé le Network Control Protocol ou NCP. À mesure que les sites ARPANET terminaient de mettre en œuvre NCP entre 1971 et 1972 les utilisateurs du réseau ont enfin pu développer les premières applications.

En octobre 1972, Kahn organisa une importante démonstration très réussie du réseau ARPANET lors de la Conférence internationale sur les communications informatiques (ICCC). Ce fut la première démonstration publique de cette nouvelle technologie. Ce fut également en 1972 que la première application importante fut mise au point : le courrier électronique. En mars, Ray Tomlinson chez BBN écrivit le premier logiciel basique d’envoi et de réception de courrier électronique, répondant ainsi aux besoins de communication des développeurs du réseau ARPANET entre eux. En juillet, Roberts élargit son application en écrivant le premier programme de courrier électronique pour lister, lire sélectivement, classer, acheminer et répondre aux messages. À partir de là, le courier électronique prit son essor comme l’application réseau la plus vaste pendant plus d’une décennie. Ce fut un signe avant-coureur du type d’activité que nous voyons sur le World Wide Web aujourd’hui, à savoir l’énorme croissance du trafic de toutes sortes reliant les individus.

 

Les concepts initiaux de l’interréseautage

ARPANET est devenu Internet. Internet était fondé sur l’idée qu’il y aurait de nombreux réseaux indépendants de conception assez arbitraire, à commencer par le réseau pionnier de commutation par paquets ARPANET, mais ne tarda pas à inclure des réseaux par satellite de paquets, des réseaux de radiocommunication par paquets au sol et d’autres réseaux. Internet tel que nous le connaissons est l’incarnation d’une idée technique sous-jacente, à savoir celle du réseautage en architecture ouverte. Selon cette approche, le choix d’une technologie de réseau individuelle quelconque n’était pas dicté par une architecture de réseau particulière, mais pouvait plutôt être déterminé librement par un fournisseur et conçu de manière à interagir avec d’autres réseaux par le biais d’une « architecture interréseau » à un méta-niveau. Jusqu’à cette époque il n’y avait qu’une seule méthode générale pour fédérer les réseaux. Il s’agissait de la méthode traditionnelle de commutation de circuits où les réseaux s’interconnectaient au niveau du circuit, avec des bits individuels passant sur une base synchrone le long d’une portion d’un circuit de bout en bout entre deux localisations finales. N’oublions pas que Kleinrock avait démontré en 1961 que la commutation par paquets était une méthode de commutation plus efficace. Avec la commutation par paquets, les arrangements d’interconnexion à des fins spéciales entre les réseaux étaient une autre possibilité. Alors qu’il y avait d’autres façons limitées d’interconnecter des réseaux différents, il fallait que l’un d’eux soit utilisé comme composant de l’autre, plutôt que d’agir comme un homologue de l’autre en offrant un service de bout en bout.

Dans un réseau à architecture ouverte, les réseaux individuels peuvent être conçus et développés séparément, et chacun peut avoir sa propre interface qu’il peut proposer aux utilisateurs et/ou à d’autres fournisseurs, y compris des fournisseurs Internet. Chaque réseau peut être conçu en conformité avec l’environnement spécifique et les besoins des utilisateurs de ce réseau. Il n’y a généralement pas de contrainte sur les types de réseaux pouvant être inclus ou sur leur étendue géographique, bien que certaines considérations pragmatiques dicteront ce qu’il convient de proposer.

L’idée d’un réseautage à architecture ouverte a été introduite par Kahn, peu après son arrivée à DARPA, en 1972. Ce travail faisait partie à l’origine du programme de radiocommunication par paquets, mais est devenu par la suite un programme distinct à part entière. À l’époque, le programme était appelé « Internetting » (interréseautage). La clé pour faire fonctionner le système de radiocommunication par paquets était un protocole fiable de bout en bout qui pouvait maintenir une communication efficace malgré le brouillage et d’autres interférences radio, ou résister à une panne intermittente due au passage dans un tunnel ou au relief local. Kahn envisagea d’abord l’élaboration d’un protocole local uniquement pour le réseau de radiocommunication par paquets, puisque cela évitait d’avoir à faire face à la multitude de systèmes d’exploitation différents, et permettait de continuer à utiliser NCP.

Toutefois, NCP n’avait pas la capacité d’adresser les réseaux (et machines) plus en aval qu’une IMP de destination sur le réseau ARPANET et donc un changement au niveau du NCP s’avérait également nécessaire. (L’hypothèse était que le réseau ARPANET n’était pas modifiable à cet égard). Le NCP reposait sur le réseau ARPANET pour founir une fiabilité de bout en bout. Si des paquets étaient perdus, le protocole (et probablement toutes les applications prises en charge par celui-ci) s’arrêterait net. Dans ce modèle, le NCP n’avait aucun contrôle d’erreur d’hôte de bout en bout, puisque le réseau ARPANET serait le seul réseau existant et qu’il serait si fiable qu’aucun contrôle d’erreur ne serait nécessaire de la part des hôtes. Ainsi, Kahn décida de développer une nouvelle version du protocole pouvant répondre aux besoins d’un environnement de réseau à architecture ouverte. Ce protocole serait éventuellement appelé Transmission Control Protocol/Internet Protocol (TCP/IP). Tandis que NCP avait tendance à agir comme un pilote de périphérique, le nouveau protocole allait plutôt ressembler à un protocole de communication.

Quatre règles de base étaient essentielles à la réflexion de Kahn :

  • Chaque réseau distinct devrait se suffire à lui-même et aucun changement interne ne devrait être requis pour connecter un tel réseau à l’Internet.
  • Les communications se feraient sur la base du meilleur effort. Si un paquet n’arrivait pas à la destination finale, il serait rapidement retransmis depuis la source.
  • Des boîtes noires seraient utilisées pour connecter les réseaux ; plus tard, celles-ci allaient être appelées des passerelles et des routeurs. Aucune information ne serait retenue par les passerelles sur les flux individuels des paquets passant au travers, évitant ainsi de compliquer l’adaptation et la récupération de différents modes de défaillance.
  • Il n’y aurait pas de contrôle à l’échelle globale au niveau opérationnel.

D’autres questions clés à traiter étaient :

  • Des algorithmes pour empêcher les paquets perdus de désactiver de façon permanente les communications et leur permettre d’être retransmis avec succès depuis la source.
  • Fournir un « traitement en pipeline » d’hôte à hôte pour que les paquets multiples puissent être acheminés de la source à la destination à la discrétion des hôtes participants, si les réseaux intermédiaires le permettaient.
  • Des fonctions de passerelle pour permettre de transmettre les paquets de manière appropriée. Cela comprenait l’interprétation des en-têtes IP pour le routage, la manipulation des interfaces, le cassage des paquets en petits morceaux si nécessaire, etc.
  • Le besoin de sommes de contrôle de bout en bout, de réassemblage des paquets à partir de fragments et de détection des doublons, le cas échéant.
  • Le besoin d’adressage global
  • Techniques pour le contrôle de flux d’hôte à hôte
  • L’interfaçage avec les systèmes d’exploitation différents
  • Il y avait aussi d’autres préoccupations, telles que l’efficacité de mise en œuvre et la performance interréseau, mais celles-ci étaient des considérations secondaires au premier abord.

Kahn entama des travaux sur un ensemble de principes pour systèmes d’exploitation orientés sur les communications pendant son séjour chez BBN et documenta certaines de ses premières idées dans un mémorandum interne intitulé «Communications Principles for Operating Systems» (Principes de communication pour les systèmes d’exploitation). C’est à ce stade qu’il réalisa qu’il serait nécessaire d’apprendre les détails de la mise en oeuvre de chacun des systèmes d’exploitation pour pouvoir intégrer des nouveaux protocoles de façon efficace. Ainsi, au printemps 1973, après le démarrage de l’effort d’interréseautage, il demanda à Vint Cerf (alors à Stanford) de travailler avec lui sur la conception détaillée du protocole. Cerf avait été intimement impliqué dans la conception et le développement du NCP au départ et possédait déjà des connaissances sur l’interfaçage aux systèmes d’exploitation existants. Ainsi, armés de l’approche architecturale de Kahn côté communications et de l’expérience NCP de Cerf, ils s’associèrent pour préciser les détails de ce qui devint le protocole TCP/IP.

Les échanges furent très productifs et la première version écrite 7 de l’approche résultante a été distribuée en tant qu’INWG#39 lors d’une réunion spéciale de l’International Network Working Group (INWG) à l’Université du Sussex, en septembre 1973. Par la suite, une version raffinée a été publiée en 1974. L’INWG a été créé à la Conférence internationale sur les communications informatiques d’octobre 1972, organisée par Bob Kahn et al., et Cerf a été invité à présider ce groupe.

Certaines approches de base émergèrent de cette collaboration entre Kahn et Cerf :

  • La communication entre deux processus se composerait logiquement d’un très long flux de bytes (qu’ils appelèrent octets). La position de tout octet dans le flux serait utilisée pour l’identifier.
  • Le contrôle du flux serait assuré en utilisant des fenêtres coulissantes et des accusés de réception (ACK). La destination pourrait sélectionner à quel moment accuser réception et chaque ACK renvoyé serait cumulé pour tous les paquets reçus à ce point.
  • La façon exacte dont la source et la destination se mettraient d’accord sur les paramètres du fenêtrage à utiliser n’a pas été déterminée définitivement. Les paramètres par défaut ont été utilisés initialement.
  • Même si à l’époque Ethernet était en cours de développement au centre de recherche Xerox PARC, la prolifération de réseaux locaux n’était pas envisagée à ce moment-là, encore moins les ordinateurs et stations de travail. Le modèle original était composé de réseaux au niveau national comme ARPANET, desquels seul un nombre relativement faible était censé exister. Ainsi une adresse IP de 32 bits fut utilisée, dont les 8 premiers bits signifiaient le réseau et les 24 bits restants désignaient l’hôte sur ce réseau. L’hypothèse que 256 réseaux seraient suffisants dans un avenir prévisible, a manifestement eu besoin d’être reconsidérée lorsque les réseaux locaux ont commencé à apparaître à la fin des années 1970.

Le document original de Cerf/Kahn sur l’Internet décrivait un protocole, appelé TCP, qui fournissait tous les services de transport et d’acheminement dans l’Internet. Kahn avait prévu que le protocole TCP prenne en charge un éventail de services de transport, depuis la livraison, totalement fiable, séquencée de données (modèle de circuit virtuel) à un service de datagramme dans lequel l’application utilisait directement le service réseau sous-jacent, ce qui pouvait impliquer des paquets intermittents perdus, corrompus ou réorganisés. Cependant, l’effort initial pour mettre en œuvre le protocole TCP aboutit à une version qui ne permettait que les circuits virtuels. Ce modèle fonctionnait bien pour le transfert de fichiers et les applications de connexion à distance, mais certains des premiers travaux sur les applications réseau avancées, notamment la voix en paquets dans les années 1970, démontrèrent clairement que dans certains cas, les pertes de paquets ne devraient pas être corrigées par TCP, mais devraient être traitées par l’application. Cela conduisit à une réorganisation du TCP initial en deux protocoles, l’IP simple qui ne permettait que l’adressage et la transmission de paquets individuels, et le TCP séparé qui portait sur les fonctionnalités du service telles que le contrôle de flux et la récupération des paquets perdus. Pour les applications qui ne voulaient pas les services de TCP, une alternative appelée User Datagram Protocol (UDP) fut ajoutée afin de fournir un accès direct aux services de base d’IP.

Une première motivation importante pour l’ARPANET et l’Internet fut le partage des ressources – par exemple en permettant aux utilisateurs sur les réseaux de radiocommunication par paquets d’accéder aux systèmes en temps partagé liés à l’ARPANET. Connecter les deux ensemble était beaucoup plus économique que de dupliquer ces ordinateurs très coûteux. Cependant, même si le transfert de fichiers et la connexion à distance (Telnet) étaient des applications très importantes, le courrier électronique eut probablement l’impact le plus significatif des innovations datant de cette époque. Le courrier électronique a fourni un nouveau modèle pour la façon dont les gens pouvaient communiquer les uns avec les autres, et changea la nature de la collaboration, d’abord dans la construction de l’Internet lui-même (comme évoqué ci-dessous) et plus tard pour une grande partie de la société.

D’autres applications avaient été proposées aux débuts de l’Internet, y compris la communication vocale à base de paquets (précurseur de la téléphonie sur Internet), différents modèles de partage de fichiers et de disques, et les premiers programmes de vers informatiques qui montraient le concept d’agents (et, bien sûr, de virus). Un concept clé de l’Internet est qu’il n’a pas été conçu pour une seule application, mais comme une infrastructure générale sur laquelle de nouvelles applications pouvaient être conçues, comme illustré plus tard par l’émergence du World Wide Web. C’est la nature polyvalente du service fourni par le TCP et l’IP qui rend cela possible.

 

Démontrer les idées

DARPA engagea l’université de Stanford (Cerf), BBN (Ray Tomlinson) et UCL (Peter Kirstein) afin de mettre en œuvre le protocole TCP/IP (qui était simplement appelé TCP dans le document de Cerf/Kahn, mais contenait les deux composants). L’équipe de Stanford, dirigée par Cerf, élabora les spécifications détaillées et en l’espace d’environ un an trois versions indépendantes du protocole TCP capables d’interopérer furent mises en oeuvre.

Ce fut le début de l’expérimentation et du développement à long terme en vue de faire évoluer et mûrir les concepts et la technologie Internet. Commençant par les trois premiers réseaux (ARPANET, Packet Radio et Packet Satellite) et leurs communautés de recherche initiale, l’environnement expérimental se développa essentiellement pour intégrer toute forme de réseau et une communauté globale de recherche et développement. [REK78] Chaque expansion est accompagnée de nouveaux défis.

Les premières versions de TCP étaient faites pour des grands systèmes en temps partagé tels que Tenex et TOPS 20. Lorsque les premiers ordinateurs de bureau apparurent, certains pensaient que le TCP était trop grand et trop complexe pour fonctionner sur un ordinateur personnel. David Clark et son groupe de recherche au MIT se sont décidés à montrer qu’une mise en œuvre compacte et simple du protocole TCP était possible. Ils élaborèrent une version, d’abord pour le Xerox Alto (premier poste de travail personnel développé au centre de recherche Xerox PARC) et ensuite pour le PC d’IBM. Cette mise en œuvre était entièrement interopérable avec d’autres TCP, mais a été adaptée aux objectifs de performance et aux suites d’applications de l’ordinateur personnel, et démontra que les postes de travail, ainsi que les grands systèmes à temps partagé, pouvaient faire partie de l’Internet. En 1976, Kleinrock publia le premier livre sur le réseau ARPANET. Il mit notamment l’accent sur la complexité des protocoles et des pièges qui peuvent souvent en découler. Ce livre joua un rôle déterminant dans la propagation des réseaux à commutation par paquets à une communauté très vaste.

Le développement généralisé des réseaux LAN, des ordinateurs personnels et des stations de travail dans les années 1980 permit à l’Internet naissant de s’épanouir. La technologie Ethernet, développée par Bob Metcalfe au centre de recherche Xerox PARC en 1973, est probablement aujourd’hui la technologie de réseau dominante dans l’Internet et les PC et postes de travail sont les ordinateurs dominants. Le passage de quelques réseaux avec un nombre modeste d’ordinateurs hôtes à temps partagé (modèle ARPANET d’origine) à de nombreux réseaux, entraîna un certain nombre de nouveaux concepts et de changements apportés à la technologie sous-jacente. Premièrement, cela aboutit à la définition de trois classes de réseau (A, B et C) pour satisfaire l’ensemble des réseaux. La classe A représentait les grands réseaux à l’échelle nationale (petit nombre de réseaux avec un grand nombre d’hôtes) ; La classe B représentait les réseaux à l’échelle régionale ; et la classe C représentait les réseaux locaux (grand nombre de réseaux avec des hôtes relativement peu nombreux).

Un changement majeur se produisit en raison de l’augmentation de l’ampleur de l’Internet et de ses problèmes de gestion associés. Pour que les gens puissent utiliser le réseau plus facilement, des noms avaient été attribués aux hôtes, de sorte qu’il n’était pas nécessaire de se rappeler les adresses numériques. À l’origine, il y avait un nombre assez limité d’hôtes, il était donc possible de maintenir une seule table de tous les hôtes et leurs noms et adresses associés. Le passage à un grand nombre de réseaux gérés de façon indépendante (par exemple, les réseaux locaux) signifiait qu’avoir une seule table d’hôtes n’était plus possible. Le système Domain Name System (DNS) fut alors inventé par Paul Mockapetris de l’USC/ISI. Le DNS permettait un mécanisme distribué et évolutif pour réduire les noms d’hôte hiérarchiques ( www.acm.org par exemple) en une adresse Internet.

L’augmentation de la taille de l’Internet a défié également les capacités des routeurs. À l’origine, il y avait un seul algorithme distribué pour le routage qui était mis en oeuvre uniformément par tous les routeurs de l’Internet. Au fur et à mesure que le nombre de réseaux de l’Internet explosait, cette conception initiale ne pouvait pas s’étendre selon le besoin, de sorte qu’elle fut remplacée par un modèle hiérarchique de routage, avec un Interior Gateway Protocol (IGP) utilisé à l’intérieur de chaque région de l’Internet, et un Exterior Gateway Protocol (EGP) utilisé pour relier les régions ensemble. Cette conception permettait à différentes régions d’utiliser un IGP différent, de sorte à pouvoir satisfaire aux différentes exigences de coûts, reconfiguration rapide, robustesse et ampleur. Non seulement l’algorithme de routage, mais la taille des tables d’adressage, mettaient à l’épreuve la capacité des routeurs. De nouvelles approches pour l’agrégation des adresses, notamment le Classless Inter-Domain Routing (CIDR), ont récemment été introduites afin de contrôler la taille des tables de routage.

Au fur et à mesure de l’évolution de l’Internet, l’un des défis majeurs consistait à savoir comment propager les modifications apportées aux logiciels, en particulier les logiciels hôtes. DARPA a soutenu les recherches de l’UC Berkeley portant sur les modifications à apporter au système d’exploitation Unix, y compris l’intégration de TCP/IP développée chez BBN. Bien que plus tard Berkeley réécrivit le code BBN afin de mieux l’adapter au système et au noyau Unix, l’incorporation de TCP/IP dans les versions de système Unix BSD s’est avérée cruciale dans la distribution des protocoles à la communauté de recherche. Une grande partie de la communauté de recherche CS commença à utiliser Unix BSD pour son environnement informatique au quotidien. En y repensant, la stratégie de l’intégration des protocoles Internet dans un système d’exploitation pris en charge pour la communauté des chercheurs a été l’un des éléments clés dans l’adoption réussie généralisée de l’Internet.

L’un des défis les plus intéressants fut la transition du protocole hôte d’ARPANET de NCP à TCP/IP au 1er janvier 1983. Ce fut une transition mémorable exigeant la conversion simultanée de tous les hôtes faute de quoi la communication se ferait via des mécanismes plutôt ad hoc. Cette transition avait été soigneusement planifiée au sein de la communauté pendant plusieurs années avant d’avoir effectivement lieu et se passa étonnamment bien (mais donna lieu à une distribution de badges « J’ai survécu à la transition TCP/IP »).

Les protocoles TCP/IP avaient été reconnus comme standard par la défense américaine trois ans plus tôt en 1980. Cela permit à la défense de commencer le partage dans la base technologique de l’Internet de DARPA et mena directement à la segmentation des communautés militaire et non militaire. Dès 1983, le réseau ARPANET était utilisé par un nombre important d’entités de recherche et développement défense et d’organisations opérationnelles. La transition d’ARPANET de NCP à TCP/IP lui permit d’être scindé en deux réseaux, un réseau supportant des exigences opérationnelles (MILNET) et ARPANET destiné à la recherche.

Ainsi, en 1985, l’Internet était déjà bien établi en tant que technologie soutenant une large communauté de chercheurs et de développeurs, et commençait à être utilisé par d’autres collectivités pour les communications informatiques quotidiennes. Le courrier électronique était largement utilisé dans plusieurs communautés, souvent avec des systèmes différents, mais l’interconnexion entre les différents systèmes de messagerie démontrait l’utilité de communications électroniques globales entre les gens.

 

Transition vers une infrastructure à grande échelle

Tandis que la technologie Internet était validée expérimentalement et largement utilisée parmi un sous-ensemble de chercheurs en sciences informatiques, d’autres réseaux et technologies de réseautage étaient recherchés. L’utilité des réseaux informatiques – en particulier le courrier électronique – démontrée par DARPA et les prestataires du ministère de la défense sur l’ARPANET n’avait pas échappé aux autres communautés et disciplines, de sorte qu’au milieu des années 70, les réseaux informatiques commencèrent à surgir dès que le financement à cet effet avait pu être trouvé. Le département américain de l’Énergie (DoE) établit le MFENet pour ses chercheurs en Énergie de fusion magnétique, à la suite de quoi les physiciens des hautes énergies du DoE se lancèrent dans la construction du HEPNet. Les physiciens de la NASA suivirent avec SPAN, et Rick Adrion, David Farber et Larry Landweber créèrent CSNET pour la communauté (académique et industrielle) des sciences informatiques avec une subvention initiale de la Fondation nationale américaine des sciences (NSF). La diffusion libre d’AT&T du système d’exploitation UNIX engendra USENET, basé sur les protocoles de communication UUCP intégrés à UNIX, et en 1981, Ira Fuchs et Greydon Freeman conçurent BITNET, qui reliait les gros serveurs académiques dans un paradigme de type « courrier électronique sous forme d’images de cartes ».

À l’exception de BITNET et USENET, ces premiers réseaux (y compris ARPANET) furent construits dans un but précis – c’est-à-dire qu’ils étaient destinés, et largement limités à, des communautés fermées d’universitaires ; il y avait donc peu de pression pour que les réseaux individuels soient compatibles et, bien sûr, en grande partie, ils ne l’étaient pas. Par ailleurs, des technologies alternatives étaient étudiées dans le secteur commercial, y compris XNS de Xerox, DECNet et SNA D’IBM.8 Les programmes anglais JANET (1984) et américain NSFNET (1985) annoncèrent clairement leur intention de servir toute la communauté de l’enseignement supérieur, indépendamment de la discipline. En effet, l’une des conditions pour qu’une université américaine reçoive un financement NSF pour une connexion Internet était que « … la connexion doit être rendue disponible pour TOUS les utilisateurs qualifiés sur le campus. »

En 1985, l’Irlandais Dennis Jennings vint passer un an à NSF pour diriger le programme NSFNET. Il travailla avec la communauté pour aider NSF à prendre une décision critique, à savoir l’utilisation obligatoire des protocoles TCP/IP pour le programme NSFNET. Lorsque Steve Wolff reprit le programme NSFNET en 1986, il reconnut la nécessité d’une infrastructure de réseau étendu pour soutenir l’ensemble de la communauté académique et de recherche, ainsi que le besoin d’élaborer une stratégie pour établir une telle infrastructure sur une base indépendante du financement fédéral direct. Des politiques et stratégies furent adoptées (voir ci-dessous) à cette fin.

NSF choisit également de soutenir l’infrastructure organisationnelle Internet existante de DARPA, organisée hiérarchiquement dans le cadre de l’Internet Activities Board (IAB). La déclaration publique de ce choix fut la paternité conjointe par l’Internet Engineering Task Force et l’Internet Architecture Task Force de l’IAB et par le Groupe consultatif technique du réseau de la RFC 985 (Exigences pour les passerelles Internet) de la NSF, qui assura officiellement l’interopérabilité des pièces de l’Internet de DARPA et de NSF.

Outre la sélection des protocoles TCP/IP pour le programme NSFNET, les agences fédérales furent à l’origine de plusieurs autres décisions politiques qui ont façonné l’Internet d’aujourd’hui.

  • Les agences fédérales se partagèrent le coût de l’infrastructure commune, comme les circuits trans-océaniques. Elles prirent également en charge conjointement les «points d’interconnexion gérés » pour le trafic interorganisations ; les points d’échange Internet fédéraux (FIX-E et FIX-W) construits à cet effet servirent de modèles aux points d’accès réseau et aux installations « *IX » qui sont des caractéristiques importantes de l’architecture Internet d’aujourd’hui.
  • Pour coordonner ce partage, le Federal Networking Council 9 fut constitué. Le FNC a également coopéré avec d’autres organisations internationales, telles que RARE en Europe, par l’intermédiaire du Comité intercontinental de coordination des réseaux de la recherche (CCIRN, Coordinating Committee on Intercontinental Research Networking), afin de coordonner le soutien Internet de la communauté des chercheurs du monde entier.
  • Ce partage et la coopération entre les agences sur les questions liées à Internet avaient une longue histoire. Un accord sans précédent, conclu en 1981 entre Farber, agissant pour CSNET et NSF, et Kahn de DARPA, permit au trafic CSNET de partager l’infrastructure ARPANET sur une base de transactions statistiques et non mesurées.
  • Par la suite, de façon similaire, NSF encouragea ses réseaux régionaux (initialement universitaires) NSFNET à rechercher des clients commerciaux, non-universitaires, à agrandir leurs installations afin de les servir, et à exploiter les économies d’échelle en découlant pour faire baisser les coûts d’abonnement pour tous.
  • Sur l’épine dorsale du NSFNET – segment à l’échelle nationale du NSFNET – la NSF appliqua une «politique d’utilisation acceptable» (PUA) qui interdisait l’utilisation de l’épine dorsale à des fins « non en faveur de la recherche et l’éducation ». Le résultat prévisible (et prévu) de l’encouragement au trafic de réseau commercial au niveau local et régional, tout en refusant son accès au transport à l’échelle nationale, consistait à stimuler l’émergence et/ou la croissance des réseaux «privés», concurrentiels et longue distance tels que PSI, UUNET, ANS CO+RE et d’autres (plus tard). Ce processus d’augmentation à financement privé pour des utilisations commerciales fut dénigré à partir de 1988 dans une série de conférences à l’initiative de lNSF tenues à l’école d’affaires publiques de l’université Harvard et portant sur ​​« la commercialisation et la privatisation de l’Internet » – et sur la liste «com-priv» du réseau.
  • En 1988, un comité du Conseil national de recherches, présidé par Kleinrock et avec Kahn et Clark en tant que membres, élabora un rapport commandité par NSF, intitulé «Vers un réseau national de recherche ». Ce rapport fut remarqué par Al Gore, sénateur à l’époque, et introduisit les réseaux à haut débit qui jetèrent les bases de réseautage pour la future autoroute de l’information.
  • En 1994, un rapport du Conseil national de recherches, à nouveau présidé par Kleinrock (et avec Kahn et Clark en tant que membres), intitulé « Réaliser l’avenir de l’information : l’Internet et au-delà » fut publié. Ce rapport, commandité par NSF, était le document dans lequel un schéma directeur pour l’évolution de l’autoroute de l’information avait été formulé et qui a eu un effet durable sur la manière de penser quant à son évolution. Il anticipa les questions essentielles portant sur les droits de propriété intellectuelle, l’éthique, la tarification, l’éducation, l’architecture et la régulation de l’Internet.
  • La politique de privatisation de NSF culmina en avril 1995, avec l’arrêt du financement de l’épine dorsale de NSFNET. Les fonds ainsi récupérés ont été (compétitivement) redistribués à des réseaux régionaux pour acheter une connectivité Internet d’envergure nationale aux réseaux désormais nombreux, privés et longue distance.

L’épine dorsale avait fait la transition depuis un réseau construit à partir des routeurs de la communauté de recherche (les routeurs logiciels « Fuzzball » de David Mills) vers un équipement commercial. Dans sa huitième année et demie d’existence, l’épine dorsale était passée de 6 nœuds avec des liens 56 kbps à 21 nœuds avec de multiples liens 45 Mbps. L’Internet est passé à plus de 50 000 réseaux sur les sept continents et dans l’espace, avec environ 29 000 réseaux aux États-Unis.

L’œcuménisme et le financement du programme de NSFNET étaient tels (200 millions de dollars entre 1986 et 1995) – de même que la qualité de ses protocoles – que dès 1990, lorsqu’ARPANET a finalement été mis hors service10, le protocole TCP/IP avait supplanté ou marginalisé la plupart des autres protocoles de réseau étendu dans le monde entier, et IP était en route pour devenir LE service porteur de l’Infrastructure informatique mondiale.

 

Le rôle de la documentation

Une des clés de la croissance rapide de l’Internet a été l’accès libre et gratuit aux documents de base, notamment les spécifications des protocoles.

Les débuts du réseau ARPANET et de l’Internet dans la communauté de recherche universitaire encouragèrent la tradition universitaire de la publication ouverte des idées et des résultats. Cependant, le cycle normal de la publication universitaire traditionnelle était trop formel et trop lent pour l’échange dynamique d’idées essentiel à la création de réseaux.

En 1969, une étape importante a été prise dans l’établissement d’une série de remarques Demande de commentaires (RFC) mise en place par S. Crocker (alors à l’UCLA). Ces mémos étaient censés être une façon rapide et informelle de distribution permettant de partager des idées avec d’autres chercheurs de réseaux. Au début, les RFC étaient imprimés sur papier et distribués par courrier postal. Lorsque l’on commença à utiliser le protocole de transfert de fichiers (FTP), les RFC furent préparés sous forme de fichiers en ligne auxquels on pouvait accéder via FTP. Bien entendu, de nos jours les RFC sont facilement accessibles via le World Wide Web sur des douzaines de sites du monde entier. SRI, dans son rôle de centre d’information de réseau, maintenait les répertoires en ligne. Jon Postel était le rédacteur des RFC ainsi que le gestionnaire de l’administration centralisée chargée des affectations des numéros de protocoles nécessaires, tâches dont il s’est acquitté jusqu’à son décès, le 16 octobre 1998.

L’objectif des RFC était de créer une boucle d’évaluation positive, avec des idées ou des propositions présentées dans un RFC déclenchant un autre RFC avec des idées supplémentaires et ainsi de suite. Lorsque l’on arrivait à un consensus (ou au moins à un ensemble d’idées uniforme), on préparait un document de spécification. Cette spécification était alors utilisée comme base pour la mise en œuvre par les différentes équipes de recherche.

Au fil du temps, les RFC se sont plus concentrés sur les normes des protocoles (les spécifications « officielles »), mais il existe encore des RFC informatifs qui décrivent des approches alternatives ou offrent des informations de fond sur les protocoles et les questions techniques. Les RFC sont désormais considérés comme les « documents de référence » dans la communauté de la technologie et des normes d’Internet.

Le libre accès aux RFC (gratuit, si vous avez une connexion à l’Internet) favorise la croissance de l’Internet car cela permet aux spécifications de servir d’exemples dans les classes universitaires et d’être utilisées par des entrepreneurs développant de nouveaux systèmes.

L’email fut un facteur important dans tous les domaines de l’Internet, et cela est certainement vrai dans le développement des spécifications de protocoles, des normes techniques et de l’ingénierie Internet. Les tout premiers RFC présentaient souvent un ensemble d’idées développées par des chercheurs situés à un endroit donné au reste de la communauté. Après la mise en place du courrier électronique, le modèle de paternité changea – les RFC étaient présentés par des auteurs communs avec vue commune indépendante de leur localisation.

L’utilisation de listes de diffusion spécialisées a servi depuis longtemps dans le développement de spécifications de protocoles, et continue d’être un outil important. L’IETF a maintenant plus de 75 groupes de travail, chacun travaillant sur un aspect différent de l’ingénierie Internet. Chacun de ces groupes de travail a une liste de diffusion pour discuter d’un ou plusieurs projets de documents en cours de développement. Lorsque le consensus est atteint sur un projet de document, il peut être distribué sous forme de RFC.

Comme l’expansion rapide actuelle de l’Internet est alimentée par la réalisation de sa capacité à promouvoir le partage d’informations, nous devrions comprendre que le premier rôle du réseau dans le partage des informations fut le partage des informations sur sa propre conception et son fonctionnement à travers les documents RFC. Cette méthode unique pour l’évolution de nouvelles capacités dans le réseau continuera d’être essentielle à l’évolution future de l’Internet.

 

Formation de la communauté au sens large

L’Internet est autant un ensemble de communautés que de technologies, et son succès est largement attribuable à la satisfaction des besoins fondamentaux de la communauté ainsi qu’à l’utilisation de la communauté d’une manière efficace afin de faire progresser l’infrastructure. Cet esprit communautaire a une longue histoire en commençant par les débuts d’ARPANET. Les premiers chercheurs d’ARPANET travaillèrent en tant que communauté soudée pour réaliser les premières démonstrations de la technologie de commutation de paquets décrite précédemment. De même, Packet Satellite, Packet Radio et plusieurs autres programmes de recherche en informatique de DARPA étaient des activités de collaboration multi-prestataires ayant lourdement recours à tous les mécanismes disponibles pour coordonner leurs efforts, à commencer par le courrier électronique et l’ajout du partage de fichiers, de l’accès à distance et enfin des capacités du World Wide Web. Chacun de ces programmes constituait un groupe de travail, en commençant par le Groupe de travail du réseau ARPANET. En raison du rôle unique que jouait ARPANET en tant qu’infrastructure d’appui aux différents programmes de recherche, au fur et à mesure que l’Internet se mit à évoluer, le Groupe de travail réseau évolua en Groupe de travail Internet.

À la fin des années 1970, reconnaissant que la croissance de l’Internet était associée à la croissance de l’intérêt de la communauté de recherche, et donc d’une augmentation des besoins de mécanismes de coordination ; Vint Cerf, alors directeur du Programme Internet à DARPA, créa plusieurs organismes de coordination –l’International Cooperation Board (ICB), dirigé by Peter Kirstein de UCL, pour coordonner les activités avec des pays européens coopérants centré sur la recherche de Packet Satellite ; l’Internet Research Group qui était un groupe inclusif fournissant un environnement pour l’échange général d’informations et l’Internet Configuration Control Board (ICCB) dirigé par Clark. L’ICCB était un organe incitatif pour aider Cerf à gérer l’activité Internet en plein essor.

En 1983, lorsque Barry Leiner reprit la gestion du programme de recherche Internet à DARPA, lui-même et Clark reconnurent que la croissance continue de la communauté Internet exigeait une restructuration des mécanismes de coordination. L’ICCB fut démantelé et à sa place une structure de groupes de travail fut constituée, chacun étant axé sur un domaine particulier de la technologie (routeurs, protocoles de bout en bout, etc.). L’Internet Activities Board (IAB) était composé des présidents des groupes de travail.

Le fait que les présidents des groupes de travail étaient les mêmes personnes que les membres de l’ancien ICCB, et que Dave Clark continua à exercer son rôle de président, n’était bien sûr qu’une coïncidence. Après quelques changements au niveau des membres de l’IAB, Phill Gross fut nommé président de l’Internet Engineering Task Force (IETF) revitalisé et qui était à l’époque l’un des groupes de travail de l’IAB. Comme nous l’avons vu plus haut, en 1985, le côté plus pratique/technique de l’Internet connut une forte croissance. Cette croissance entraîna une explosion de la participation aux réunions IETF, et Gross fut contraint de créer une sous-structure à l’IETF sous forme de groupes de travail.

Cette croissance s’accompagna d’une importante expansion de la communauté. DARPA n’était plus seul à jouer un rôle important dans le financement de l’Internet. En plus du NSFNet et des diverses activités financées par les gouvernements américain et internationaux, l’intérêt pour le secteur commercial commençait à croître. En 1985 également, Kahn et Leiner quittèrent DARPA et une diminution significative de l’activité Internet à DARPA se fit sentir. En conséquence, l’IAB se retrouva sans sponsor principal et assuma de plus en plus le rôle de leader.

La croissance se poursuivit, résultant en une autre sous-structure au sein de l’IAB et de l’IETF. L’IETF divisa les groupes de travail en zones et nomma des directeurs régionaux. L’Internet Engineering Steering Group (IESG) était constitué des directeurs de zone. L’IAB reconnut l’importance croissante de l’IETF, et restructura le processus de normalisation afin de reconnaître formellement l’IESG comme le principal organe d’examen des normes. L’IAB fut également restructuré de sorte que les groupes de travail restants (autres que l’IETF) furent regroupés en un Internet Research Task Force (IRTF), présidé par Postel, où les anciens groupes de travail prirent le nom de groupes de recherche.

La croissance dans le secteur commercial était accompagnée d’une inquiétude grandissante concernant le processus de normalisation. Depuis le début des années 1980 et jusqu’à aujourd’hui encore, l’Internet a évolué au-delà de de ses racines essentiellement de recherche pour inclure à la fois une communauté d’utilisateurs au sens large et une activité commerciale accrue. Une attention soutenue a été accordée au maintien du processus ouvert et équitable. Ceci, allié à un besoin reconnu de soutien de la communauté de l’Internet a finalement conduit à la formation de l’Internet Society en 1991, sous les auspices de la Corporation for National Research Initiatives (CNRI) de Kahn et la direction de Cerf, qui était à la CNRI.

En 1992, une nouvelle réorganisation eut lieu. En 1992, l’Internet Activities Board fut réorganisé et rebaptisé Internet Architecture Board, opérant sous les auspices de l’Internet Society. Des relations plus égales entre les nouveaux IAB et IESG furent définies, avec l’IETF et l’IESG chargées de plus grandes responsabilités pour l’approbation des normes. Finalement, une relation de coopération et de soutien mutuel se forma entre l’IAB, l’IETF et l’Internet Society, cette dernière ayant pour objectif la fourniture de services et d’autres mesures qui faciliteraient le travail de l’IETF.

Le développement récent et le déploiement généralisé du World Wide Web résultèrent en une nouvelle communauté, étant donné que la plupart des gens qui travaillent sur ​​le WWW ne sont pas considérés comme des chercheurs et des développeurs de réseaux. Une nouvelle organisation de coordination fut constituée, le World Wide Web Consortium (W3C). Initialement mené à partir du laboratoire d’informatique du MIT par Tim Berners-Lee (inventeur du WWW) et Al Vezza, le W3C assuma la responsabilité de l’évolution des différents protocoles et standards liés à Internet.

Ainsi, au cours de plus de deux décennies d’activité Internet, nous avons vu une évolution constante des structures organisationnelles destinées à soutenir et à faciliter une communauté sans cesse croissante travaillant en collaboration sur des questions liées à Internet.

 

Commercialisation de la technologie

La commercialisation de l’Internet impliquait non seulement le développement de services de réseau concurrentiels et privés, mais aussi le développement de produits commerciaux mettant en œuvre la technologie Internet. Au début des années 1980, des dizaines de fournisseurs intégraient les protocoles TCP/IP dans leurs produits parce qu’ils voyaient des acheteurs pour cette approche pour le réseautage. Malheureusement, ils manquaient à la fois de véritables informations sur la façon dont la technologie était censée fonctionner et comment les clients prévoyaient d’utiliser cette approche pour le réseautage. Beaucoup voyaient cela comme un complément gênant qui devait être attaché à leurs propres solutions de réseautage propriétaires : SNA, DECNet, Netware, NetBios. Le Département de la défense rendit obligatoire l’utilisation des protocoles TCP/IP dans la plupart de ses achats, mais fournissait peu d’aide aux fournisseurs sur la façon de construire des produits TCP/IP utiles.

En 1985, reconnaissant ce manque de disponibilité des informations et de formation appropriée, Dan Lynch en collaboration avec l’IAB organisa un atelier de trois jours afin que TOUS les fournisseurs puissent venir en apprendre davantage sur la manière dont les protocoles TCP/IP fonctionnaient et sur ce qui ne fonctionnait toujours pas bien. Les conférenciers étaient principalement issus de la communauté de recherche de DARPA qui avait mis au point ces protocoles et les avait utilisés au cours de leur travail quotidien. Environ 250 fournisseurs se déplacèrent pour écouter 50 inventeurs et expérimentateurs. Les résultats se révélèrent surprenants des deux côtés : les fournisseurs furent étonnés de constater que les inventeurs étaient très ouverts sur la manière dont les choses fonctionnaient (et sur ce qui ne fonctionnait toujours pas) et les inventeurs eurent le plaisir d’entendre parler de nouveaux problèmes qu’ils n’avaient pas envisagés, mais que les fournisseurs découvraient sur le terrain. Ainsi, une discussion bilatérale avait été constituée qui dure plus d’une décennie.

Après deux ans de conférences, tutoriels, réunions et ateliers de conception, un événement spécial fut organisé afin d’inviter les fournisseurs dont les produits exécutaient les protocoles TCP/IP suffisamment bien pour pouvoir se réunir dans une seule pièce pendant trois jours et se vanter d’avoir travaillé si bien tous ensemble et sur Internet. En septembre 1988, le premier salon Interop était né. 50 entreprises furent retenues. 5 000 ingénieurs d’organisations de clients potentiels se déplacèrent pour voir si tout fonctionnait comme promis. Ce qui fut le cas. Pourquoi ? Parce que les fournisseurs travaillèrent très dur pour s’assurer que les produits de tout le monde interopéraient avec tous les autres produits – même avec ceux de leurs concurrents. Le salon Interop s’est considérablement développé au fil des ans. Il a lieu chaque année à sept endroits différents dans le monde et accueille un public de plus de 250 000 personnes qui s’y rend pour savoir quels produits fonctionnent les uns avec les autres de façon transparente, en apprendre davantage sur les derniers produits, et discuter des dernières technologies.

Parallèlement aux efforts de commercialisation mis en évidence par les activités d’Interop, les fournisseurs commencèrent à assister aux réunions IETF qui avaient lieu 3 ou 4 fois par an pour discuter de nouvelles idées pour des extensions de la suite de protocoles TCP/IP. Comptant à leurs débuts quelques centaines de participants issus pour la plupart des universités, et financées par le gouvernement, ces réunions dépassent désormais souvent un millier de participants, provenant principalement de la communauté des fournisseurs, et sont financées par les participants eux-mêmes. Ce groupe auto-sélectionné fait évoluer la suite de protocoles TCP/IP d’une manière mutuellement coopérative. La raison pour laquelle il est si utile, est qu’il est composé de toutes les parties prenantes : chercheurs, utilisateurs finaux et fournisseurs.

La gestion de réseau fournit un exemple de l’interaction entre les communautés scientifiques et commerciales. Au début de l’Internet, l’accent était mis sur la définition et la mise en œuvre de protocoles garantissant l’interopérabilité.

Au fur et à mesure que le réseau s’agrandissait, il s’avérait que les procédures parfois ad hoc utilisées pour gérer le réseau n’auraient pas l’ampleur nécessaire. La configuration manuelle des tables fut remplacée par des algorithmes automatisés distribués, et de meilleurs outils furent conçus pour isoler les défauts. En 1987, il apparut clairement qu’un protocole qui permettrait de gérer à distance d’une manière uniforme les éléments du réseau, tels que les routeurs, était nécessaire. Plusieurs protocoles furent proposés à cet effet, notamment SNMP (un protocole simple de gestion de réseau, conçu, comme son nom le suggère, pour plus de simplicité, et dérivé d’une proposition antérieure appelée SGMP), HEMS (une conception plus complexe de la communauté de recherche) et CMIP (de la communauté OSI). Une série de réunions aboutit aux décisions que HEMS serait retiré en tant que candidat à la normalisation, afin d’aider à résoudre le litige, mais que le travail sur les deux protocoles SNMP et CMIP irait de l’avant, avec l’idée que le protocole SNMP pourrait être une solution à plus court terme et le protocole CMIP une approche à long terme. Le marché pourrait choisir celui qui lui semblerait le plus approprié. Le protocole SNMP est désormais utilisé presque universellement pour la gestion de réseau.

Au cours des dernières années, nous avons assisté à une nouvelle phase de commercialisation. Initialement, les efforts commerciaux concernaient principalement les fournisseurs fournissant des produits de réseautage et les prestataires de services offrant la connectivité et les services Internet de base. Aujourd’hui l’Internet est pratiquement devenu un service de « marchandises », et une grande part d’attention a été accordée dernièrement à l’utilisation de cette infrastructure informatique mondiale pour soutenir d’autres services commerciaux. Cela a été considérablement accéléré par l’adoption généralisée et rapide des navigateurs et la technologie du World Wide Web, permettant aux utilisateurs du monde entier un accès facile à l’information. Des produits sont disponibles pour faciliter la fourniture de ces informations et la plupart des derniers développements dans la technologie ont été destinés à fournir des services d’information de plus en plus sophistiqués en sus des communications de données Internet de base.

 

Histoire de l’avenir

Le 24 octobre 1995, le FNC adopta unanimement une résolution définissant le terme Internet. Cette définition fut élaborée en consultation avec les membres de l’internet et les communautés des droits de propriété intellectuelle. RÉSOLUTION : Le Federal Networking Council (FNC) accepte que les termes suivants reflètent notre définition du mot « Internet ». « Internet » désigne le système d’information mondial qui : (i) est relié logiquement par un espace d’adressage unique au monde basé sur le protocole Internet (IP) ou ses extensions/suivis ultérieurs ; (ii) est capable de soutenir les communications utilisant la suite de protocoles Transmission Control Protocol/Internet Protocol (TCP/IP) ou ses extensions/suivis ultérieurs, et/ou d’autres protocoles compatibles IP ; et (iii) fournit, utilise ou rend accessible, publiquement ou en privé, des services de haut niveau basés sur les communications et l’infrastructure connexe décrites dans la présente résolution.

L’Internet a beaucoup changé au cours des deux décennies qui ont suivi sa naissance. Il fut créé à l’époque du temps partagé, mais a survécu jusque dans l’ère des ordinateurs personnels, de l’informatique client-serveur et poste-à-poste, et de l’ordinateur de réseau. Il a été conçu avant l’apparition des réseaux locaux, mais a accueilli cette nouvelle technologie de réseau, ainsi que le mode ATM et les services à commutation de trames. Il était destiné à soutenir une gamme de fonctions couvrant le partage de fichiers et la connexion à distance, mais également le partage des ressources et la collaboration, et a engendré le courrier électronique et, plus récemment, le World Wide Web. Mais plus important encore, il fut créé par un petit groupe de chercheurs dévoués, et se développa à tel point qu’il devint un succès commercial avec des milliards de dollars d’investissement annuel.

Il ne faut pas croire que l’Internet ne changera plus. L’Internet, bien qu’il s’agisse d’un réseau en termes de nom et de géographie, est une créature issue de l’ordinateur, et non pas du réseau traditionnel de l’industrie du téléphone ou de la télévision. Il continuera donc à changer et à évoluer à la vitesse de l’industrie informatique s’il doit demeurer pertinent. Il est en train de changer pour fournir de nouveaux services tels que le transport en temps réel, afin de soutenir, par exemple, les flux audio et vidéo.

La disponibilité de réseaux omniprésents (c’est-à-dire Internet) alliés à un système informatique puissant et abordable et des communications au format portable (ordinateurs portables, téléavertisseurs bidirectionnels, PDA, téléphones cellulaires), permet la création d’un nouveau paradigme de l’informatique et des communications nomades. Cette évolution nous apportera de nouvelles applications – téléphonie sur Internet et, d’ici peu, la télévision par Internet. Il évolue pour permettre des formes plus sophistiquées de tarification et de recouvrement des coûts, une exigence peut-être pénible dans ce monde commercial. Il se transforme pour accueillir une autre génération de technologies de réseau sous-jacent avec des caractéristiques et des exigences différentes, par exemple l’accès à large bande résidentiel et les satellites. De nouveaux modes d’accès et de nouvelles formes de service engendreront de nouvelles applications, qui à leur tour entraîneront l’évolution du réseau même.

La question la plus pressante pour l’avenir d’Internet n’est pas comment la technologie va changer, mais comment le processus de changement et d’évolution lui-même sera géré. Comme le décrit cet article, l’architecture d’Internet a toujours été stimulée par un noyau de concepteurs, mais ce groupe a changé de forme au fur et à mesure de la croissance du nombre de parties prenantes. Le succès d’Internet a apporté une prolifération de parties prenantes, qui ont investi sur le plan économique ainsi qu’intellectuel dans le réseau.

Nous voyons désormais, dans les débats sur le contrôle de l’espace des noms de domaine et la forme des adresses IP de nouvelle génération, des difficultés pour trouver la prochaine structure sociale qui guidera Internet à l’avenir. La forme de cette structure sera plus difficile à trouver, étant donné le grand nombre de parties prenantes concernées. D’autre part, le secteur s’efforce de trouver la bonne logique économique pour les vastes investissements nécessaires à la croissance future, par exemple pour la mise à niveau de l’accès résidentiel à une technologie plus adaptée. Si Internet trébuche, ce ne sera pas parce que nous manquerons de technologie, de vision ou de motivation. C’est parce que nous ne serons éventuellement pas capables de définir une direction commune et de marcher collectivement vers le futur.

 

Calendrier

 
BriefHistoryInternetTimeline
 

 

Avez-vous trouvé cette ressource utile ? Votre don, quel que soit son montant, nous aidera à financer d’autres recherches et contenus similaires.

 

Notes

1 Il s’agit peut-être d’une exagération fondée sur le fait que la résidence principale de l’auteur se trouve dans la Silicon Valley.
2 Lors d’un récent voyage dans une librairie de Tokyo, l’un des auteurs a compté 14 revues en langue anglaise consacrées à l’Internet.
3 Une version abrégée de cet article paraît dans le numéro du 50e anniversaire de la CACM, fév. 97. Les auteurs tiennent à exprimer leur gratitude à Andy Rosenbloom, rédacteur en chef de la revue CACM, à la fois pour son encouragement à la rédaction de cet article et son aide précieuse lors de l’édition de celui-ci et de sa version abrégée.
4 L’Advanced Research Projects Agency (ARPA) a été rebaptisée Defense Advanced Research Projects Agency (DARPA) en 1971, puis à nouveau ARPA en 1993, avant de repasser à DARPA en 1996. Nous nous référons toujours à la DARPA, le nom actuel.
5 C’est à cause de la similitude du projet de RAND qu’est née la fausse rumeur selon laquelle le réseau ARPANET était lié à la construction d’un réseau résistant à la guerre nucléaire. L’ARPANET n’a jamais abordé ce sujet, seule l’étude sans rapport de RAND portait sur la transmission sécurisée de la voix en cas de guerre nucléaire. Cependant, le prochain travail sur l’interréseautage soulignait la robustesse et la pérennité, y compris la capacité à résister aux pertes d’une grande partie des réseaux sous-jacents.
6 Y compris, entre autres, Vint Cerf, Steve Crocker et Jon Postel. Se joindront à eux plus tard, David Crocker, qui devait jouer un rôle important dans la documentation des protocoles de courrier électronique, et Robert Braden, qui développa le premier NCP et ensuite TCP pour les ordinateurs centraux d’IBM et joua également un rôle à long terme au sein de l’ICCB et l’IAB.
7 Ceci fut ensuite publié par V. G. Cerf et R. E. Kahn, « Un protocole pour l’intercommunication des réseaux de paquets » IEEE Trans. Comm . Tech. , vol. COM-22, V 5, pp. 627-641, mai 1974.
8 L’opportunité d’échanges par email, cependant, mena à l’un des premiers « livres sur Internet »!%@:: Un répertoire d’adressage de courrier électronique et de réseaux, par Frey et Adams, sur la traduction et l’acheminement des adresses de courrier électronique.
9 Appelé à l’origine Federal Research Internet Coordinating Committee, FRICC. Le FRICC avait été initialement constitué pour coordonner les activités du réseau américain de recherche à l’appui de la coordination internationale fournie par le CCIRN.
10 Le démantèlement de l’ARPANET fut commémoré lors de son 20e anniversaire à l’occasion d’un colloque de l’UCLA en 1989.

 

Références

P. Baran, « On Distributed Communications Networks », IEEE Trans. Comm . Systems, mars 1964.
V. G. Cerf et R. E. Kahn, « A protocol for packet network interconnection », IEEE Trans. Comm . Tech. , vol. COM-22, V 5, pp. 627-641, mai 1974.
S. Crocker, RFC001 Host software, 07 avril 1969.
R. Kahn, « Communications Principles for Operating Systems ». Mémo BBN interne, jan. 1972.
Proceedings of the IEEE, numéro spécial sur les réseaux de communication par paquets, volume 66, nº 11, novembre 1978. (Rédacteur en chef invité : Robert Kahn, rédacteurs en chef invités associés : Keith Uncapher et Harry van Trees)
L. Kleinrock, « Information Flow in Large Communication Nets », rapport d’avancement trimestriel RLE, juillet 1961.
L. Kleinrock, Communication Nets: Stochastic Message Flow and Delay, Mcgraw-Hill (New York), 1964.
L. Kleinrock, Queueing Systems: Vol II, Computer Applications, John Wiley and Sons (New York), 1976
J.C.R. Licklider & W. Clark, « On-Line Man Computer Communication », août 1962.
L. Roberts & T. Merrill, « Toward a Cooperative Network of Time-Shared Computers », Fall AFIPS Conf. , oct. 1966.
L. Roberts, « Multiple Computer Networks and Intercomputer Communication », ACM Gatlinburg Conf. , octobre 1967.

 

Auteurs

Barry M. Leiner fut directeur du Research Institute for Advanced Computer Science. Il est décédé en avril 2003.
Vinton G. Cerf est vice-président et chef évangéliste de l’Internet chez Google.
David D. Clark est chargé de recherche principal au Laboratoire d’informatique du MIT.
Robert E. Kahn est président de la Corporation for National Research Initiatives.
Leonard Kleinrock est professeur d’informatique à l’Université de Californie, Los Angeles, et est président fondateur de Nomadix.
Daniel C. Lynch est l’un des fondateurs de CyberCash Inc. et du salon et des conférences de réseautage Interop.
Jon Postel a exercé le poste de directeur de la division des réseaux informatiques de l’Information Sciences Institute de l’Université de Californie du Sud jusqu’à sa mort prématurée le 16 octobre 1998.
Dr. Lawrence G. Roberts était le PDG, le Président et le chef de direction d’Anagran, Inc. Il est décédé en décembre 2019.
Stephen Wolff travaille chez Cisco Systems, Inc.