Opinions : Croquis mensuel de Pascal Francq – Décembre 2017
Pascal Francq

À quand une réelle neutralité du net ?

Le 14 décembre dernier, la Federal Communications Commission (FCC), l’agence fédérale américaine chargée de la régulation des télécommunications, annonce la fin de ce que l'on appelle la « neutralité du net ».
Ce principe de fonctionnement d’internet, en vigueur depuis ses débuts [A]  [A] Il y a bien eu quelques tentatives d’entorses par les opérateurs de télécommunications, mais ces dernières avaient toujours été recadrées (par la FCC ou par des nouveaux dispositifs légaux)., incarne aux yeux de beaucoup une notion d’égalité censée être inhérente au réseau : que vous soyez puissant ou misérable, cette égalité doit vous garantir que vos données transitent sur le réseau avec le même degré de priorité.
Ce principe avait également ses détracteurs. À commencer par les éternels réfractaires à toute forme de régulation et particulièrement leur champion du moment, Donald Trump. D’autres, tels les opérateurs de télécommunications [B]  [B] Je me contenterai dans la suite de ce billet de les désigner simplement par «les opérateurs»., souhaitaient que les plus gros pourvoyeurs de données (Google, Facebook, Netflix, etc.) payent proportionnellement plus que les autres.
Le manque de recul sur la décision de la FCC empêche toute anticipation de ses conséquences. D’aucuns annoncent un internet réservé aux plus riches – un risque réel. Cet arrêt constitue surtout une occasion de nous interroger, enfin, sur la nature de la régulation que nous voulons pour internet.

Une petite introduction technique au fonctionnement d’internet

Mais il convient d’abord de distinguer le «réseau internet» des services rendus par internet [1]. En effet, chaque activité en ligne (naviguer, écouter de la musique en streaming, envoyer un courriel, etc.) implique un échange de données au travers d’infrastructures de communication.
Un internaute souhaitant lire mon dernier billet sur son smartphone échangera avec mon serveur des données représentant une demande («accès à telle page») puis une réponse («contenu de la page»). Ces données emprunteront, de plus, différentes infrastructures (Wi-Fi, câbles optiques, etc.).
Pour être plus précis, ces données sont découpées en «datagrammes». Chaque datagramme contient l’adresse IP de l’émetteur et celle du récepteur. Les différents datagrammes voyagent sur le réseau en empruntant des chemins différents et sont réordonnés par le récepteur [C]  [C] En laissant chaque datagramme suivre son propre chemin, on assure une flexibilité maximum du réseau internet. En effet, en cas de congestion, les datagrammes peuvent emprunter des chemins moins encombrés. Mais comme on ne garantit pas que les datagrammes arrivent dans l’ordre de leur emission, il faut les réordonner à l’arrivée (ce que se fait facilement en leur ajoutant un numéro de séquence lors de l’envoi)..
Lors d’activités simultanées, des datagrammes de «natures différentes» (textes/images et musique) partent et arrivent du terminal de l’utilisateur [D]  [D] Par exemple, lorsqu’un utilisateur lit mon billet tout en écoutant de la musique en streaming, certains datagrammes contiendront des données textuelles et picturales (images présentes dans mon billet), d’autres renfermeront des données audio.. Pour différencier ces «natures différentes», on associe à chaque datagramme un nombre appelé «port».
Malgré l’absence de normes pour ces ports, de très nombreuses conventions existent. Ainsi, le port 80 est «réservé» pour les échanges de données Web standards. Pour la musique en streaming par exemple, Spotify utilise le port 4070 alors que Deezer choisit de passer par le Web (et donc le port 80).
En d’autres termes, pour chaque datagramme qui circule sur internet, on dispose de l’information sur son émetteur, son récepteur et, le plus souvent, le service concerné par les données transportées (à travers le numéro de port ou la combinaison de celui-ci et d’une adresse IP).

Le principe de «neutralité du net»

Pourtant, en pratique, les opérateurs n’utilisent quasi jamais cette information lorsqu’ils assurent le transport de datagrammes sur leurs réseaux. Bien que cette information soit a priori utile, le principe de «neutralité du net» en restreint fort l’utilisation.
Ce principe repose sur une règle générale : les opérateurs ne peuvent discriminer un datagramme sur base de l’adresse de son émetteur, de celle de son récepteur, du type de contenu, ou d’une combinaison de ces critères [2].
Pour le dire autrement, les opérateurs se retrouvent restreints aux seules décisions techniques liées à l’infrastructure d’internet. Le principe prévoit quelques exceptions, comme lorsque l’intégrité du réseau se retrouve menacée, ou pour bloquer des contenus non sollicités (tels les pourriels).
Cette approche résulte d’une opposition entre les opérateurs et les fournisseurs en ligne (de services et/ou de contenus). Les seconds voulant éviter que les premiers disposent d’un contrôle trop important. On imagine aisément les dommages pour Netflix si un opérateur bloquait ses contenus pour telle ou telle raison, fût-ce de manière temporaire.
Remarquons aussi que ce principe incarne une vision somme toute assez libérale de la régulation d’internet : on laisse les services et contenus en ligne rivaliser librement (en évitant toute discrimination de datagrammes), tout en laissant la «main invisible du marché» décider ceux qui survivront.

L’illusion d’une neutralité en ligne

De nombreux avocats de la «neutralité du net» laissent entrevoir que la règle générale énoncée plus haut suffit à garantir une neutralité en ligne effective. On comprend dès lors que ses défenseurs se mobilisent autant aujourd’hui.
Toutefois, on sait bien que cette acceptation de la «neutralité du net» n’assure en rien une réelle neutralité en ligne [3], d’où l’utilisation de guillemets. J’ai d’ailleurs détaillé en d’autres occasions les nombreux biais existant actuellement [5].
Je propose quant à moi une typologie divisée en quatre catégories, typologie qui étend un cadre conceptuel de départ pour l’étude des biais engendrés par les systèmes informatiques en général [4].
Tout d’abord, des «biais préexistants» se retrouvent «intriqués» aux technologies présentes sur internet sans qu’ils soient questionnés. Prenons Google Search : son algorithme de classement PageRank s’inspire de la bibliométrie dont on connaît pourtant les limites depuis longtemps.
Internet implique évidemment aussi des «biais techniques». La propagation des datagrammes sur internet au travers des nœuds [E]  [E] Rappelons que tous les appareils connectés à internet sont des nœuds. Ce sont d’abord les appareils «en bord de réseau» (serveurs, ordinateurs personnels, smartphones, etc.), mais aussi les machines chargées de l’acheminement «dans le réseau» (routeurs, commutateurs, etc.). Pour acheminer un datagramme d’un point à un autre du réseau, celui-ci est propagé de nœud en nœud. illustre cela. La taille d’internet rend impossible le calcul d’un chemin optimal [F]  [F] En pratique, chaque nœud propage les datagrammes sur base d’informations locales. Il estime notamment si les nœuds «proches» semblent ou non congestionnés. En fonction de cela, il favorise la propagation vers des nœuds en apparence non congestionnés. Mais un nœud ne «voit» pas ce qui ce qui passe au-delà de quelques nœuds en aval de lui.. Il est donc de facto impossible de garantir un traitement équitable de chaque datagramme.
Les internautes rencontrent également des «biais émergents» qui découlent de pratiques d’utilisation des technologies par les internautes qui n’avaient pas été anticipées au départ et qui dénaturent parfois quelque peu la conception originale de ces technologies.
Les notations omniprésents en ligne (de produits, de commentaires, etc.) exemplifient cela. L’idée initiale consiste à déduire une «qualité» à partir de jugements «autonomes» effectués par les internautes. Mais, en réalité, ceux-ci sont fortement influencés par les jugements déjà émis et visibles en ligne [6, 7].
Enfin, de nombreux «biais financiers» traversent internet et résultent de disparités financières entre les différents acteurs. Ces biais trouvent leur origine dans le développement capitalistique d’internet [8] [G]  [G] En effet, après en avoir financé le développement initial, les autorités américaines décidèrent de se désengager de la gestion en laissant les initiatives privées prendre le relais..
Citons ainsi la réactivité d’un site Web qui détermine partiellement son succès. En pratique, cette réactivité dépend non seulement de la vitesse de transport des datagrammes (a priori identique pour chaque site), mais également de la puissance des serveurs : la capacité d’investissement influence donc le succès d’un site. Et je ne parle pas des nombreuses fractures numériques socio-économiques.

Une remise en question de la «neutralité du net»

Au vu de tous ces biais en ligne malgré l’application stricte du principe de «neutralité du net» en vigueur jusqu’ici, on peut raisonnablement s’interroger sur l’opportunité de maintenir une mise en œuvre visant à ce degré d’orthodoxe.
Les opérateurs remettent ce principe en cause depuis longtemps. Pour financer les infrastructures futures répondant aux nouvelles pratiques en ligne (comme la vidéo en streaming), ils affirment que celles-ci nécessitent des rentrées nouvelles, car un risque de rupture dans la qualité de l’acheminement des données existerait.
S’inspirant du principe pollueur-payeur, ils souhaiteraient faire payer plus les gros émetteurs de données. Cette demande n’est pas forcément illégitime. Après tout, les grands fournisseurs de services en ligne sont également ceux qui génèrent le plus de revenus.
La mise en place d’une tarification asymétrique mérite donc qu’on y réfléchisse pour autant qu’elle s’accompagne d’un cadre général d’application. La possibilité d’appliquer des tarifs différenciés pourrait, par exemple, s’accompagner d’une obligation pour les opérateurs de mieux desservir certaines zones [5].
Je milite depuis longtemps pour la mise en place d’agences de régulation indépendantes [5]. Celles-ci vérifieraient notamment que les opérateurs ne profitent pas d’une position de monopole et assureraient que certains fournisseurs d’intérêt général (tels Wikipédia) ne soient pas visés.

La «neutralité du net» comme règle absolue

Si une stricte observance du principe de «neutralité du net» apparaît excessive, voire s’avère contre-productive, comment expliquer l’importance que lui accordent ses plus fervents défenseurs ? Il me semble qu’on peut identifier trois catégories de partisans.
Historiquement, l’esprit libertaire des hackers imprègne la gestion du réseau. Ils conçoivent les protocoles, développent les premières applications et assurent les services de base [1]. Cette vision se cristallise dans la «déclaration d'indépendance du Cyberespace» de John Perry Barlow [9].
L’opérateur AT&T n’est d’abord qu’un simple contractant à qui des fonds publics américains louent des lignes dédiées pour transmettre les données, et n’intervient pas du tout dans la gestion. Ce n’est qu’avec la libéralisation d’internet amorcée dans les années 1990 que les opérateurs prennent de l’importance [1].
Avec l’émergence d’un juteux business en ligne, la crainte que ces opérateurs l’entrave se fait jour. Les principaux fournisseurs en ligne (Yahoo!, Google, Facebook, etc.) constituent dès lors une seconde classe d’apôtres de la «neutralité du net». Leur lobby en sa faveur devient permanent à Washington.
De fait, leurs intérêts s’opposent directement à ceux des opérateurs. Là où les seconds voudraient augmenter la tarification pour les plus gros émetteurs de données, les premiers veulent limiter au maximum leurs frais pour transporter leurs données entre eux et leurs consommateurs.
Enfin, suite à la décision américaine, une nouvelle catégorie de défenseurs de la «neutralité du net» apparaît : ceux qui s’inquiètent des conséquences de ce nouveau no mans' land juridique. Catégorie avec laquelle je partage une certaine anxiété.

Quelles conséquences suite à la décision américaine ?

En effet, si je plaide pour une évolution du principe, c’est toujours dans un cadre d’une régulation démocratique et indépendante visant à réellement transformer internet en un «bien commun» [5]. Or la nouvelle approche de la FCC appelle moins de régulation et non pas une «meilleure» régulation.
En ne définissant aucun cadre précis quant à la possibilité de discriminer techniquement et/ou économiquement des datagrammes, et donc des acteurs en ligne, la FCC semble ouvrir la porte à des dérives possibles. J’en identifie deux types.
Primo, l’émergence d’un «internet de classe». Jusqu’ici, sur les autoroutes de l’information, chaque datagramme emprunte n’importe laquelle des «bandes [H]  [H] En pratique, un câble optique, qui représente une autoroute de l’information, comprend plusieurs canaux qui correspondent aux bandes de nos routes d’asphalte.» disponibles suivant un principe de «premier arrivé, premier servi». Demain, les plus riches pourraient se réserver les bandes les plus rapides.
Un avantage d’abord pour les plus gros fournisseurs capables d’investir plus pour le transport. Dès 2014, le fournisseur Netflix cherchait un accord avec l’opérateur américain Comcast pour que ses datagrammes soient véhiculés en priorité sur la portion du réseau gérée par ce dernier [10].
Mais cela renforcerait aussi les fractures numériques socio-économiques existantes en assurant aux internautes les plus aisés un bien meilleur accès à internet et à ses services. Le tout dans un contexte où de plus en plus de tâches essentielles se font en ligne (comme chercher un emploi).
Ce premier danger s’inscrit (pour l’essentiel) dans une discrimination des datagrammes basée sur les adresses IP des émetteurs et/ou sur celles des récepteurs. Un second risque possible serait de discriminer les datagrammes sur base des contenus véhiculés.
Les opérateurs pourraient, éventuellement pour le compte de tiers, mettre en place une censure à grande échelle. L’exemple de la Chine nous rappelle que les technologies nécessaires existent. Signalons au passage que nombre d’entre elles sont fournies par des entreprises occidentales.
Et les géants ne se gênent pas pour discriminer ou avantager des contenus. Prenons Google [I]  [I] Google n’est évidemment pas le seul géant à effectuer de telles discriminations. Des exemples existent pour Apple, Facebook, LinkedIn, etc.. La Commission européenne lui inflige en 2017 € 2,42 milliards d’amende car il favorise son comparateur de prix [11]. On sait aussi qu’entre 2006 et 2009, il pénalise le site Web d’un concurrent [12].
Certes, le changement de position de la FCC ne modifie évidemment pas le corpus législatif existant. La liberté d’expression ou encore les lois antitrust restent en vigueur et les tribunaux pourront être saisis en cas de fortes dérives. Mais toute le monde pourra-t-il se payer de longs procès ?

Remettre l’intérêt général au cœur d’internet

Il est beaucoup trop tôt pour évaluer les conséquences précises de l’abandon américain du principe de «neutralité du net». Les risques apparaissent bien réels, mais le pire n’est pas (encore) certain.
Parallèlement, de nombreux responsables politiques européens s’empressent de rappeler que ce principe reste scrupuleusement respecté au sein de l’Union européenne. Mais, comme je l’ai indiqué, ce n’est sans doute pas non plus la meilleure option pour les citoyens.
En réalité, on passe surtout à côté de l’essentiel : quel internet voulons nous pour demain ? Internet évolue à une vitesse telle que les États se retrouvent réduits au rôle de simples spectateurs dans un monde désormais dominé par les géants du numérique.
Or, quelques que soient les bonnes intentions affichées par ces derniers, au bout du compte, ils poursuivent un objectif on ne peut plus égoïste : assurer leur croissance et, le plus souvent, satisfaire leurs actionnaires.
Je reste convaincu que, dans un État démocratique, la puissance publique reste la seule apte à privilégier l’intérêt général par rapport aux intérêts particuliers [5]. Encore faut-il que nos responsables politiques se donnent les moyens – moraux, financiers et législatifs – pour s’opposer au rouleau compresseur du capitalisme numérique. Mais ceci est une autre histoire…

Références

[1] Pascal Francq, Internet: Tome 1, La construction d’un mythe, Éditions Modulaires Européennes, 2011.

[2] Tim Wu, « Network Neutrality, Broadband Discrimination », Journal of Telecommunications and High Technology Law, 2, pp. 141–178, 2003.

[3] Andrew Odlyzko, « Network neutrality, search neutrality, and the never-ending conflict between efficiency and fairness in markets », Review of Network Economics, 8(1), pp. 40–60, 2009.

[4] Batya Friedman & Helen Nissenbaum, « Bias in Computer Systems », ACM Transactions on Information Systems, 14(3), pp. 330‑47, 1996.

[5] Pascal Francq, Neutrality in internet regulation: three regulatory principles, essai technique, Paul Otlet Institute, 2015.

[6] Lev Muchnik, Sinan Aral & Sean J. Taylor, « Social Influence Bias: A Randomized Experiment », Science, 341(6), pp. 647–651, 2013.

[7] Adam D. I. Kramer, Jamie E. Guillory & Jeffrey T. Hancock, « Experimental Evidence of Massive-Scale Emotional Contagion through Social Networks », Proceedings of the National Academy of Sciences, 111(24, pp. 8788–8790, 2014.

[8] Pascal Francq, Internet: Tome 2, Le caractère fétiche, Éditions Modulaires Européennes, 2011.

[9] John Perry Barlow, A Declaration of the Independence of Cyberspace, 1996.

[10] Edward Wyatt & Noam Cohen, « Comcast and Netflix Reach Deal on Service ». The New York Times, 2014.

[11] Cécile Ducourtieux, «L’Union européenne punit Google d’une amende record de 2,42 milliards d’euros», Le Monde, 2017.

[12] James Grimmelmann, «Some skepticism about search neutrality», Dans The Next Digital Decade: Essays on the Future of the Internet, Berin Szoka & Adam Marcus (éd.), pp. 435–459, TechFreedom.