Opinions : Croquis mensuel de Pascal Francq – Avril 2017
Pascal Francq

Des leçons à tirer des origines d'internet et du Web

En surfant en ligne aujourd’hui, on utilise le plus souvent des services proposés par des entreprises commerciales. Nous passons par les tuyaux d’entreprises de télécommunications, nous cherchons des informations avec Google Search, nous interagissons avec nos «amis» sur Facebook et nous échangeons nos courriels par Gmail.
Mais ça n’a pas toujours été le cas. Tout le monde a généralement entendu parler d’une «origine militaire» d’’internet. Mais peu de gens savent qu’internet n’existerait probablement pas sans un soutien des pouvoirs publics pendant plus de trente ans.
Sans dénigrer les capacités d’innovation des entreprises, notamment du numérique, l’histoire d’internet (et celle du Web) démontre, une fois de plus, le rôle indispensable des financements publics pour de grands projets novateurs. On le voit notamment avec les grands programmes de recherche fondamentale (CERN, recherche spatiale, etc.).
Malheureusement, les pouvoirs publics, notamment en Europe, semblent moins enclins à financer de longs projets plus appliqués (à part dans le domaine médical). Pourtant, les origines d’internet et du Web nous enseignent le contraire. Des recherches universitaires plus appliquées contribuent, elles aussi, aux «richesses des nations».

Le projet ARPANET

Lorsque l’Union soviétique lance le Spoutnik en 1957, les dirigeants américains prennent conscience d’un réel risque d’accumuler un retard technologique face à l’adversaire de l’autre côté du Rideau de fer.
En réponse, ils créent le DARPA [A]  [A] En fait, l’agence s’appelait initialement Advanced Research Projects Agency (ARPA)., une agence gouvernementale dépendant du Pentagone et dédiée au financement de projets de recherche appliquée impliquant des débouchés militaires possibles. Ces projets sont confiés à des entreprises et à des universités.
Le DARPA finance de très nombreux projets de recherche appliquée en informatique qui déboucheront sur des avancées devenues omniprésentes dans nos vies. Citons notamment les interfaces graphiques, l’exécution en «parallèle» de plusieurs applications par un seul processeur ou encore les premières percées de l’intelligence artificielle.
C’est le Information Processing Techniques Office (IPTO) au sein du DARPA qui subventionne ces projets. En 1965, son directeur souhaite interconnecter les supercalculateurs subsidiés qui se trouvent aux quatre coins des États-Unis. Son objectif est de partager ces ressources et d’améliorer la collaboration entre les chercheurs.
La décision est prise d’adopter une approche appelée commutation de paquets pour échanger des informations entre des nœuds [B]  [B] On désigne par nœud tout matériel connecté à un réseau informatique. Cette appellation découle du fait qu’un réseau peut se représenter sur forme d’un graphe composé de nœuds (matériels) et d’arcs les reliant (connexions). du réseau. Pour faire simple, le principe consiste à découper les données à envoyer en paquets, et à acheminer chaque paquet indépendamment à travers le réseau.
En permettant à chaque paquet d’emprunter un chemin différent, le réseau devient plus résilient. En effet, si une partie de l’infrastructure n’est plus disponible, les paquets emprunteront des chemins passant par la partie valide de l’infrastructure, ce qui assure la continuité des communications.
Dans le contexte de la Guerre Froide, cette idée avait notamment été proposée par un think tank américain pour concevoir un système de communications décentralisé militaire résistant à des dégradations importantes [1].
Mais, d’autres chercheurs, notamment européens, avaient aussi, et indépendamment, imaginé la commutation de paquets pour des applications civiles [2]. De plus, la motivation première du IPTO est la mise en réseau des supercalculateurs. Internet puise donc ses origines dans une multitude de motivations et d’acteurs [3].
Quoi qu’il en soit, en 1967, le DARPA libère un budget de $500.000 pour développer un projet de réseau expérimental appelé ARPANET. De plus, résistant à la tentation bureaucratique trop souvent présente, le DARPA adopte une gestion souple et décentralisée de ce projet [2].

Les premiers nœuds

Pour autant, l’interconnexion des ordinateurs n’est pas si simple que cela. La raison principale est que, contrairement à aujourd’hui, les ordinateurs sont à l’époque ultra-spécialisés et utilisent des architectures fort différentes suivant leurs fonctions.
L’idée est alors d’adopter une architecture en trois couches [4] : un support physique commun loué chez AT&T (ayant un débit initial de 50 kb/s !), des micro-ordinateurs qui acheminent les paquets et les supercalculateurs hôtes qui assurent le traitement des paquets au niveau applicatif.
En juin 1968, le DARPA débloque un budget de $2,2 millions pour développer ARPANET. Et le 29 octobre 1969, les deux premiers paquets sont envoyés de l’Université de Californie à Los Angeles vers le Stanford Research Institute [5]. Un an plus tard, ARPANET est formé de 15 nœuds.
En 1971, le DARPA propose à AT&T d’assurer la gestion d’ARPANET. En contrepartie, AT&T pourrait développer des services commerciaux, dont l’accès au réseau pour le gouvernement américain. Mais AT&T décline l’offre estimant que ce réseau n’a… aucun potentiel économique !

Les premiers pas d’internet

Les pouvoirs publics américains continuent donc à assurer le développement du réseau. En fait, fin 1973, le DARPA finance plusieurs réseaux informatiques différents qui se basent tous sur la commutation de paquets. Le DARPA veut désormais les interconnecter.
En mai 1974, un modèle qui permet d’interconnecter ces différents réseaux est proposé [6]. L’idée géniale est de laisser chaque réseau s’organiser comme il le souhaite, le modèle proposant uniquement un moyen technique pour permettre aux paquets de passer d’un réseau à l’autre.
L’infrastructure qui en résulte s’appelle «Interconnected networks» («réseaux interconnectés»), mais est plus connue aujourd’hui sous son diminutif : internet. Ce modèle, encore au cœur d’internet aujourd’hui, est basé sur les protocoles TCP/IP [C]  [C] Le modèle repose sur deux protocoles : le protocole IP «de plus bas niveau» et le protocole TCP opérant «au-dessus» du protocole IP. Pour être plus précis, il existe d’autres protocoles fonctionnant au-dessus du protocole IP (comme UDP), mais ils sont réservés à quelques usages très spécialisés..
Le DARPA oblige tous ses contractants à adopter les protocoles TCP/IP pour le 1er janvier 1983. Le DARPA dépensera $20 millions au total pour assurer le développement des protocoles TCP/IP, ce qui facilitera la connexion future de tous les ordinateurs américains à internet [2].

La séparation des réseaux militaires et civils

Mais le DARPA n’est pas la seule agence américaine à financer la recherche en informatique. C’est également le cas de la NSF, une agence américaine plutôt orientée vers la recherche fondamentale (l’équivalent du FNRS ou du CNRS). Et la NSF souhaite aussi partager les ressources qu’elle subventionne.
Fin 1979, la NSF décide de financer son propre réseau informatique, CSNET. De plus, la NSF choisit les protocoles TCP/IP comme modèle d’architecture, permettant par là même l’interconnexion de l’internet naissant avec le CSNET.
Après un premier budget de $5 millions débloqué en 1991, la NSF investira au total plus de $200 millions dans les dix années qui suivront pour assurer le développement de CSNET [2]. Désormais, de nombreuses universités et écoles sont également connectées.
Cette arrivée massive de civils affole quelque peu les militaires. Ils craignent notamment que des hackers engagés n’utilisent les infrastructures communes pour prendre le contrôle des ordinateurs névralgiques de l’armée (un scénario à la base du film War Games sorti en 1983).
La décision est dès lors prise de séparer le réseau en deux parties : un réseau utilisé par les seuls militaires et un réseau plus ouvert. C’est chose faite le 4 avril 1983 [D]  [D] En réalité, la séparation physique de l’infrastructure partagée prendra un peu plus de temps.. Dans la foulée, à partir de février 1984, des nœuds non américains rejoignent le CSNET. Internet devient international.

La privatisation d’internet

À partir de ce moment-là, c’est la NSF qui prend en charge la gestion d’internet. Et, parmi les conditions d’utilisation qu’elle impose aux nœuds voulant s’y connecter, on trouve l’interdiction de toute activité commerciale.
Or le financement des recherches appliquées liées aux projets ARPANET et CSNET donne également naissance à de nombreuses entreprises privées qui proposent des infrastructures informatiques commerciales. Et ces entreprises souhaitent aussi se connecter à internet.
L’obsession américaine de limiter à tout prix toute forme de gestion publique avait conduit le DARPA à proposer la reprise du réseau ARPANET à AT&T. C’est au tour de la NSF à tenter de se dégager d’internet.
Elle annonce en novembre 1991 qu’elle compte démanteler ses dorsales d’internet, et que ces dernières seront remplacées par des infrastructures commerciales. À partir de 1994, les organisations et les internautes sont obligés de passer par un fournisseur d'accès à internet (FAI).
Le 30 avril 1995 marque la fin d’une période de plus de 30 ans de gestion publique d’internet.

Et le Web dans tout ça ?

Internet est donc un ensemble d’infrastructures (privées) interconnectées entre elles par les protocoles TCP/IP qui assurent un acheminement «de qualité» [E]  [E] La notion de «qualité» implique notamment l’assurance que tous les paquets arrivent bien à destination (quitte à renvoyer ceux qui sont ou semblent perdus) et qu’ils sont correctement réordonnancés pour reconstituer les messages échangés (chaque paquet pouvant emprunter un chemin différent, l’ordre de réception peut être différent de l’ordre d’émission. de paquets entre des nœuds du réseau. Cependant, sans applications, internet n’aurait aucun intérêt.
Rapidement, les chercheurs du projet ARPANET développent donc les premières applications, notamment le courriel (en 1974) et les groupes de discussion (en 1978) [7]. Ils concevront aussi le On-Line System (NLS), un système hypertexte [F]  [F] Pour rappel, un système hypertexte permet la navigation dans un corpus documentaire à l’aide de (hyper)liens qui mettent en correspondance un élément d’un document avec un autre élément du même document ou, le plus souvent, d’un autre document. et de collaboration en ligne [8].
Mais rendons à César ce qui est à César : de toutes les applications d’internet, le Web [G]  [G] En fait, le nom complet est le World Wide Web, mais on utilise quasi exclusivement le diminutif de «Web». est la plus marquante. Le Web symbolise d’abord le début de l’adhésion du grand public. Mais le Web s’est surtout imposé comme la principale application d’internet. On l’utilise aujourd’hui pour écouter de la musique, faire des recherches, regarder des vidéos ou lire ses courriels.
L’idée émerge dans les années 1980 lorsque Tim Berners-Lee travaille au CERN. Il pense qu’un système hypertexte permettrait aux chercheurs de documenter leurs résultats scientifiques. De plus, il envisage un système décentralisé basé sur les protocoles TCP/IP [9].
Tim Berners-Lee rédige en mars 1989 un cahier des charges et obtient le soutien de Robert Cailliau, un ingénieur du CERN emballé par l’idée. Ensemble, ils contactent plusieurs éditeurs pour les persuader d’incorporer les protocoles TCP/IP dans leurs logiciels hypertextes pour les décentraliser.
Malheureusement, ou probablement heureusement, les entreprises approchées ne voient pas l’intérêt d’un système hypertexte décentralisé auquel les utilisateurs se connecteraient via les protocoles TCP/IP. Comme pour internet, le secteur privé rechigne à investir dans une idée novatrice.

Le développement puis le partage de WorldWideWeb et httpd

Tim Berners-Lee décide alors de développer lui-même un système répondant à son cahier des charges. Il conçoit trois technologies encore au cœur du Web aujourd’hui : les URL pour identifier une ressource en ligne, le protocole HTTP pour la partager, et le langage HTML pour la formater.
Il développe ensuite deux logiciels : WorldWideWeb, un logiciel pour consulter et éditer des pages Web; et httpd, un serveur pour les publier sur internet. Le 24 décembre 1990, le CERN met en ligne le premier site Web, info.cern.ch [H]  [H] L’URL pointe encore aujourd’hui vers cette première page Web..
Pourtant, Tim Berners-Lee et Robert Cailliau peinent à convaincre les chercheurs à adopter le Web. Devant le peu d’enthousiasme suscité au sein du CERN, Tim Berners-Lee partage en août 1991 ses logiciels, ainsi qu’un navigateur texte rudimentaire, sur internet.
Cette mise à disponibilité des logiciels sera le moteur du succès du Web. Car, malgré l’échec partiel au CERN, diverses organisations, publiques et privées, s’approprient rapidement le Web et mettent leur site en ligne. En mai 1994, la première conférence internationale autour du Web rassemble plus de 350 participants.
Une étape supplémentaire est franchie en février 1993 lorsque le NSCA, un centre de recherche américain, propose un navigateur Web graphique convivial, Mosaic [I]  [I] Ses développements ultérieurs aboutiront d’abord à Netscape puis, aujourd’hui, à Firefox.. Au cours du premiers mois, le logiciels sera téléchargé 40.000 fois et au printemps 1994 ce chiffre atteint un million [2] !

L’importance de financements publics sur le long terme

Une personne tentée par l’écriture d’une Ode à la gloire d’internet et du Web pourrait commencer par ces quelques vers :
L’entreprise privée, prétendue bonne économiste
Se montrant surtout trop conservatrice,
Se trouva fort ridicule
Quand la recherche publique trouva la formule.
Dans les deux cas, les entreprises privées ont eu l’opportunité de participer, voire de s’approprier, ces deux idées qui deviendront révolutionnaires. Pourtant, dans les deux cas, faute de bénéfices visibles à court terme, elles n’ont pas voulu investir. Cette première leçon est capitale (si le lecteur me passe cet adjectif connoté) à l’heure où l’on nous vante les mérites du privé et les échecs du public.
Si cette leçon fait sans doute sourire tous ceux qui s’occupent de recherche financée par des fonds publics, plusieurs autres leçons les concernent au premier chef.
D’abord, la nécessité de financer sur le long terme (plus de 30 ans pour internet). Car les projets de recherche fondamentale ou appliquée actuels durent généralement de 2 à 5 ans. Et toute demande pour approfondir un sujet est refusée car «on ne finance pas deux fois la même recherche».
Certes, ce type de financement peut convenir lorsque des équipes de recherche disposent a priori d’une bonne partie des compétences nécessaires à la réalisation d’un projet. Pour autant, on voit mal comment construire des projets plus ambitieux dans ce cadre-là.

Derrière l’arbre de la big science, il n’y généralement pas de forêt

Il y a bien évidemment ces projets de recherche qui engloutissent plusieurs centaines de millions de budgets publics, tel le CERN par exemple. On parle d’ailleurs de «big science» pour désigner cette évolution, plutôt récente, de la recherche.
Mais cette tendance concerne essentiellement la recherche, plutôt fondamentale, censée aboutir à de grandes découvertes et à des prix Nobel (physique, médecine génomique, astronomie, etc.). En fait, comme le montre un ouvrage collectif récent, on est surtout entré dans une ère de la promesse [10].
Le livre analyse notamment le Human Brain Project [10]. Pour obtenir le financement de plus de €1 milliard, ses promoteurs firent miroiter une guérison des maladies d’Alzheimer ou de Parkinson à portée de main. Pourtant, la plupart des scientifiques se montrèrent très réservés.
La réalité est que, entre ces quelques projets de big science qui accaparent la majeure partie des budgets et des «petits» projets de 3 ans en moyenne, très peu de fonds publics sont disponibles pour mener des recherches plus transversales, surtout quand elles sont appliquées.
De plus, en ces périodes de budgets scientifiques stagnants, les bailleurs de fonds publics exigent un degré de réussite débarrassé de toute incertitude. Cela aboutit à une inflation dans les promesses faites par les scientifiques, ce qui marginalise un peu plus des recherches plus holistiques.
Mais, et c’est une autre leçon à tirer des origines d’internet et du Web, la nature profonde de la recherche, fondamentale comme appliquée, rend difficile l’anticipation de retombées. Personne au DARPA ou au CERN n’imagina à l’époque que ces technologies révolutionneraient nos sociétés.

Moins de bureaucratie et plus de liberté académique

On comprend que les responsables publics rêvent de retombées économiques faramineuses et/ou de récompenses internationales rejaillissant sur leur pays et leur institution. On se souviendra de la conférence de presse suite au prix Nobel de François Englert. La parole fut monopolisée par les ministres et autres recteurs qui entouraient le récipiendaire…
D’où un contrôle croissant des bailleurs de fonds publics sur les recherches qu’ils financent. J’avais déjà dénoncé dans un précédent billet comment le capitalisme académique bridait la liberté académique. Le monitoring obsessionnel ambiant contribue à l’entraver un peu plus.
Aujourd’hui, les chercheurs croulent sous une montagne de paperasse bureaucratique : appels à projet, reporting financier au centime près et rapports les plus divers. En fait, il devient quasi impossible de mener des recherches pour ainsi dire sans demander l’autorisation à un fonctionnaire quelconque.
Pourtant, les développements d’internet et du Web se sont déroulés dans un environnement peu contrôlé [2]. Si le DARPA a bien impulsé le projet ARPANET, les chercheurs profitèrent alors d’une très grande liberté tout en disposant de budgets importants.
On trouvera sans doute ici une troisième leçon pour les bailleurs de fonds publics : faire un peu plus confiance aux chercheurs. Évidemment, cela implique aussi une plus grande responsabilité dans le chef des institutions de recherche, notamment dans le recrutement des chercheurs.

Revenons à internet et au Web

Après avoir contribué à leur développement, les pouvoirs publics se sont largement désinvestis de l’évolution de l’internet et du Web. Aujourd’hui, les défis majeurs auxquels nous sommes confrontés sont laissés principalement aux initiatives privées. Parfois pour le meilleur, mais pas toujours.
J’espère que mes nombreux billets consacrés à différentes questions liées au Net contribuent à montrer que «l’objet internet» est multi-facettes. Si de nombreux chercheurs travaillent sur des aspects très spécifiques, il manque résolument une vision plus holistique – précisément le type de recherches multidisciplinaires sur le long terme peu financées actuellement [11].
Je défends aussi, par exemple, l’idée de moteurs de recherche open source décentralisés. Le principe serait que le Web soit indexé en toute transparence par l’ensemble des internautes. De quoi notamment mieux protéger nos données et lutter contre certains monopoles. Et on aussi parler de plates-formes open source destinées à mieux impliquer les citoyens dans les décisions de la Cité.
Mais des projets de telles ampleurs en matière de recherche appliquée n’ont aucune chance d’être subventionnés dans le contexte actuel.
Il m’apparaît donc urgent que les pouvoirs publics financent, à nouveau, des recherches appliquées à long terme, plus prospectives. De plus, les départements universitaires (informatiques mais pas seulement) devraient enfin considérer que la publication d’articles scientifiques obscurs n’est pas leur seule raison d’être. Mais ceci est une autre histoire…

Références

[1] Paul Baran, Reliable Digital Communications Systems Using Unreliable Network Repeater Nodes, rapport technique, Rand Corporation, 1960.

[2] Janet Abbate, Inventing the Internet, MIT Press, 2000.

[3] Barry M. Leiner, Vinton Cerf, David D. Clark, Robert E. Kahn, Leonard Kleinrock, Daniel C. Lynch, Jon Postel, Lawrence G. Roberts & Stephen Wolff, « A Brief History of the Internet », Arxiv preprint, 1999.

[4] Lawrence G. Roberts, « Multiple Computer Networks and Intercomputer Communication », dans Proceedings of the First ACM Symposium on Operating System Principles, pp. 3.1–3.6, 1967.

[5] Charles Severance, « Len Kleinrock: The First Two Packets on the Internet », Computer, 47(3), pp. 10–11, 2014.

[6] Vinton Cerf & Robert E. Kahn, « A Protocol for Packet Network Interconnection », IEEE Transactions of Communications, 22(5), pp. 637–648, 1974.

[7] Pascal Francq, Internet: Tome 1, La construction d’un mythe, Éditions Modulaires Européennes, 2011.

[8] Thierry Bardini, Bootstrapping: Douglas Engelbart, Coevolution, and the Origins of Personal Computing, Stanford University Press, 2000.

[9] Tim Berners-lee & Mark Fischetti, Weaving the Web: The Original Design and Ultimate Destiny of the World Wide Web, HarperCollins, 2000.

[10] Marc Audétat (dir.), Sciences et technologies émergentes: pourquoi tant de promesses ?, Hermann, 2015.

[11] Lindell Bromham, Russell Dinnage & Xia Hua, « Interdisciplinary Research Has Consistently Lower Funding Success », Nature, 534(7609), pp. 684–687, 2016.