dygest_logo

Téléchargez l'application pour avoir accès à des centaines de résumés de livres.

google_play_download_badgeapple_store_download_badge

Bienvenue sur Dygest

Dygest vous propose des résumés selectionnés et vulgarisés par la communauté universitaire.
Voici le résumé de l'un d'entre eux.

L’appétit des géants

de Olivier Ertzscheid

récension rédigée parCamille Girard-ChanudetDoctorante en sociologie au Centre d’Etude des Mouvements sociaux (EHESS/INSERM/CNRS).

Synopsis

Science et environnement

Depuis la naissance du World Wide Web en 1994, la topographie d’internet a connu une évolution rapide. Les grandes plateformes numériques (GAFAM, NATU) sont devenues des plaques tournantes incontournables, qui structurent fortement les espaces en ligne. Les algorithmes qu’elles développent conditionnent nos façons de percevoir le web, d’y circuler, d’y communiquer. Les logiques qui les sous-tendent se caractérisent pourtant par une grande opacité, que cet ouvrage s’efforce à la fois de dénoncer et de déconstruire.

google_play_download_badge

1. Introduction

Observateur attentif et engagé du web depuis ses débuts, Olivier Ertzscheid partage ses réflexions à son sujet sur le blog affordances.info. Cet ouvrage se présente sous la forme d’une compilation thématique des billets publiés sur ce blog entre 2005 et 2016.

La somme de ces articles dresse un panorama unique de l’histoire d’Internet, axé autour des problématiques de l’hégémonie des grandes plateformes numériques et de l’impact de leurs activités algorithmiques. Sur la décennie que couvre l’ouvrage, le web a en effet connu d’importants changements. Facebook atteint en 2016 le milliard et demi d’utilisateurs ; Google ne cesse de diversifier ses activités et génère près de 80 milliards de recettes publicitaires la même année ; le numérique sort des ordinateurs pour s’intégrer aux objets de notre quotidien (montres connectées, voitures autonomes, Google Glass, etc.)…

Ces évolutions sont le reflet de dynamiques structurelles profondes. Alors qu’internet reposait originellement sur un idéal libertaire d’horizontalité et de neutralité, les grandes plateformes numériques (notamment les célèbres GAFAM : Google, Amazon, Facebook, Apple, Microsoft) y occupent désormais une place prépondérante.

Largement guidées par des logiques de profit et caractérisées par des processus décisionnels opaques, elles organisent le web par l’intermédiaire de leurs algorithmes. Ceux-ci conditionnent aussi bien les informations auxquelles nous avons accès (Page Rank de Google) que les « amis » avec lesquels nous interagissons (fil d’actualité de Facebook) sans qu’il soit possible d’avoir connaissance de leurs modes de fonctionnement, et donc de s’y opposer.

Olivier Ertzscheid documente dans cet ouvrage les évolutions du monde numérique et les défis économiques, sociaux et politiques auxquels celui-ci est confronté. Loin de tout effort de neutralité axiologique, il s’engage fortement en faveur de la préservation d’un web neutre et accessible à tous, suivant en cela les pas du sociologue d’obédience marxiste Antonio Casilli, préfacier de cet ouvrage. L’auteur souligne les écueils auxquels les infrastructures numériques contemporaines sont confrontées et les impasses vers lesquelles elles se dirigent, tout en s’efforçant d’apporter des pistes de solutions à ces difficultés.

2. Un web privatisé et orienté

À sa naissance dans les années 1990, le web était profondément lié à des idéaux libertaires. Ses créateurs le concevaient comme un espace alternatif au monde réel dans lequel chacun pourrait naviguer et s’exprimer librement, sur le principe « un homme une page une adresse » (p. 63). Cette ligne fût à l’origine de l’architecture décentralisée d’Internet (le réseau n’est pas basé sur une machine centrale) ainsi que de son principe de neutralité (la circulation des flux d’informations est indépendante de leur source, de leur destination ou de leur contenu).

Pourtant, de grands acteurs ont rapidement émergé dans l’univers numérique, compromettant l’idéal qui avait présidé à sa fondation. Les plateformes du web se sont constituées en portes d’entrée et en aiguilleuses des navigations sur Internet, contribuant à la hiérarchisation des contenus numériques. Elles reproduisent dans cet espace les filtres éditoriaux des médias traditionnels : Google détermine les contenus apparaissant en haut des résultats de recherche, sélectionnant ainsi les informations auxquelles les internautes ont accès.

Cette structuration orientée du web est loin d’être désintéressée. Les grandes plateformes ont rapidement construit des modèles économiques centrés sur l’exploitation publicitaire des flux de visiteurs sur leurs pages. Encarts publicitaires et liens sponsorisés composent la majorité des revenus de ces entreprises (95% dans le cas de Google), qui façonnent leurs services de façon à les optimiser. Il s’agit ainsi de stimuler l’engagement des internautes et de maximiser le temps qu’ils passent sur les interfaces afin d’accroître les possibilités de leur présenter des publicités (souvent personnalisées).

Dans ce contexte, les critères de visibilité que les plateformes imposent sont davantage liés à la nécessité de conserver et d’engager au maximum leurs publics qu’à un réel parti-pris moral : « toute notion d’éthique à l’échelle de ces plateformes est, sinon superfétatoire, à tout le moins soluble dans leur modèle économique. Ce qui revient donc au même » (p. 290).

Face à cet ordre économique imposé par les grandes plateformes du web, l’auteur suggère de défendre à nouveau l’idée d’un internet libre. Celui-ci passerait en premier lieu par la constitution d’un index du web indépendant des firmes privées, permettant aux navigations en ligne de ne plus être soumises à leurs stratégies commerciales.

3. Prédiction, personnalisation et bulles de filtre

Le pouvoir d’action des grandes plateformes du web repose sur leur utilisation massive d’outils algorithmiques. Ceux-ci absorbent automatiquement d’importantes quantités de données, les traitent, les organisent, et produisent des résultats sur cette base. L’un des plus célèbres, le PageRank de Google, trie l’ensemble des pages du web en fonction de leur fréquence de citation, faisant de la popularité l’un des principaux critères de référencement des contenus sur le moteur de recherche.

Ces algorithmes sont appliqués de façon croissante aux données concernant les internautes. En analysant leurs caractéristiques identitaires et comportementales, ils visent à leur proposer les contenus qui sont les plus susceptibles de susciter leur engagement (résultats de recherche, publicités, profils sur un site de rencontres, musiques…).

Les résultats de ces calculs reposent sur un présupposé principal : nos actions futures ressembleront à nos actions passées et à celles des individus qui nous sont proches. Ce faisant, les outils algorithmiques donnent l’impression d’avoir des réponses à toutes les questions, tout en présentant aux internautes des contenus avec lesquels ils sont déjà familiers et en accord. Ces « bulles de filtre » appuient les stratégies économiques des plateformes : en évitant les frictions et en favorisant les résultats conformes aux attentes des individus, elles maximisent leur engagement et le temps qu’ils passent sur leurs interfaces.

En proposant des contenus de plus en plus personnalisés, parfois même en anticipation des demandes des internautes (Amazon a testé une fonctionnalité permettant de débuter le processus d’envoi d’un article avant même que celui-ci ait été commandé), les algorithmes se substituent progressivement aux stratégies décisionnelles individuelles. Ils disposent en cela d’un immense pouvoir d’influence des comportements et des préférences. Seule une minorité d’internautes éduquée à ces problématiques et disposant du temps nécessaire pour y résister est à même de s’y soustraire ; cette nouvelle « aristocratie » numérique (p. 156) est emblématique de la reproduction des inégalités sociales au sein des univers connectés.

4. La plateforme-État : GAFAM et service public

Les grandes plateformes du web, et en particulier les GAFAM, ont connu une croissance extrêmement rapide durant les années 2000. Leur puissance, à la fois en termes économiques et de « population », peut être comparable à celle de certains États. En 2017, le chiffre d’affaires de Google est supérieur au PIB de l’Argentine et celui d’Apple à celui de l’Arabie Saoudite ; par ailleurs, avec 1,86 milliard d’utilisateurs la même année, Facebook pourrait être considéré comme le « pays le plus peuplé de la planète » (p. 364).

En canalisant les flux d’information et en structurant les interactions sociales numériques, ces plateformes ont un impact majeur sur l’existence de leurs nombreux utilisateurs. Dans cette perspective, leurs conditions générales d’utilisation (CGU) peuvent être considérées comme l’équivalent de législations numériques, délimitant des interdits au sein de cet espace. Toutefois, au contraire du cadre juridique des pays démocratiques, ces règles sont établies de façon opaque et sur la base de lignes d’action questionnables (pourquoi censurer L’origine du monde de Courbet ? Pourquoi les liens sponsorisés arrivent-ils en tête des résultats de recherche ?).

Par ailleurs, à mesure de leur croissance, les grandes plateformes du web ont étendu leur spectre d’action, développant des services dans des domaines traditionnellement liés à l’action publique. Les investissements de Google dans les secteurs éducatifs, médicaux ou militaires témoignent de la volonté de cette plateforme de tirer profit de sa position centrale dans l’univers numérique pour s’orienter vers ce type de services. Certaines des initiatives des plateformes du web parviennent de fait à supplanter les dispositifs mis en place par la puissance publique ; cela a par exemple été le cas du « Safety Check » de Facebook qui rendit obsolète le Service d’Alerte et d’Information des Populations du gouvernement lors des attentats de Nice en 2016.

Les puissances publiques prennent en compte de façon croissante le fait que les dirigeants des plateformes soient amenés « chaque jour à prendre des décisions économiques, sociétales, éditoriales, politiques dont le poids est souvent équivalent à celui que prennent des ministres ou des chefs d’État » (p. 384). Certains pays comme le Danemark ont nommé des « Ambassadeurs Tech » ayant vocation à négocier avec ces entreprises, tandis que d’autres tentent d’encadrer juridiquement leurs activités. Olivier Ertzscheid milite fortement en faveur de l’approfondissement des mesures visant à imposer un contrôle démocratique sur les agissements de ces acteurs de plus en plus influents.

5. Surveillance vs sécurité : quel arbitrage ?

Le modèle économique et le fonctionnement algorithmique des grandes plateformes du web sont basés sur une ressource principale : les données, en particulier personnelles. Celles-ci sont collectées sur les interfaces, à l’inscription sur des services ou au cours des navigations des internautes. Elles concernent aussi bien les caractéristiques identitaires des individus (nom, âge…) que leurs préférences et habitudes (historique de recherche, déplacements…). Ces informations sont stockées sur les serveurs des plateformes et servent de base à la conception de « services » personnalisés.

La constitution et la conservation de bases de données personnelles (souvent sensibles) de millions d’utilisateurs par les géants du web soulèvent de nombreux enjeux. Se pose en particulier la question du statut (public ou privé) de ces informations et de leur communicabilité aux acteurs étatiques, notamment dans le cadre d’enquêtes judiciaires. Les États doivent-ils être en mesure d’accéder aux données détenues par les plateformes numériques si celles-ci peuvent permettre de rendre justice et de protéger des citoyens ?

Le choix d’Apple de ne pas communiquer au FBI les données contenues dans l’IPhone de l’auteur de la tuerie de San Bernardino a posé les jalons d’une doctrine en la matière. Les informations contenues sur les dispositifs électroniques (téléphones, ordinateurs…) sont protégées par un mot de passe et relèvent du domaine entièrement privé (« VVP » pour « Vie vraiment privée) ; elles ne sont pas communicables. Les informations accessibles sur internet, telles que les profils en ligne, relèvent du domaine public (« VP » pour « Vie publique »). Les éléments stockés dans le cloud occupent une place intermédiaire, et peuvent être communiqués dans le cadre d’une enquête judiciaire (il s’agit du domaine « VPN » pour « Vie privée négociée).

Mesurant la difficulté à arbitrer en termes étiques entre protection de la vie privée des utilisateurs et impératif de justice pour les citoyens, Olivier Ertzscheid propose de recentrer le débat sur la question de la « servitude volontaire » (p. 377) des utilisateurs des plateformes. Si, comme il l’affirme, les internautes choisissent librement de confier certaines informations personnelles aux entreprises du web, développer des programmes de formation autour des modalités de stockage, d’utilisation et de transfert de ces données permettrait de réduire l’exposition des individus, et donc les atteintes qui sont susceptibles d’être portées à leur vie privée par les plateformes et la puissance publique.

6. Conclusion

Modèles économiques des grandes plateformes du web, formes de navigations et d’interaction sur leurs interfaces, rôle des États face à la croissance de leur pouvoir, collecte des données personnelles et cadrage algorithmique des comportements, éditorialisation automatique des flux informationnels… La succession de billets qui compose cet ouvrage dresse un vaste panorama de l’univers numérique contemporain et des problématiques auxquelles celui-ci est confronté.

Pointant de façon acerbe les difficultés liées à la position dominante d’un petit nombre de plateformes orientées vers le profit économique, Olivier Ertzscheid est attentif à rendre sa critique constructive en proposant tout au long de l’ouvrage diverses pistes de solution. De la construction d’un index libre d’internet à la mise en œuvre d’algorithmes transparents et modulables individuellement en passant par le développement de programmes d’éducation aux langages et aux enjeux de l’informatique, ces recommandations permettent à l’ouvrage de se placer en marge de l’opposition binaire entre « technophobie » catastrophiste (p.10) et évangélisme technologique.

7. Zone critique

Publié en 2017, cet ouvrage fut l’un des premiers à s’intéresser en France aux enjeux soulevés par l’essor des grandes plateformes numériques transnationales et par leur usage intensif de techniques algorithmiques. Il pose de nombreuses bases de réflexion en la matière (en termes de possibilité de contrôle étatique sur les plateformes, de gouvernance démocratique des algorithmes, de respect de la vie privée dans l’univers numérique…) qui seront ensuite reprises tant dans le monde médiatique qu’universitaire.

La forme de l’ouvrage, qui se présente comme une compilation d’articles du blog affordances.info originellement publiés entre 2005 et 2016, en fait par ailleurs un matériau historique unique. Elle permet de faire apparaître les évolutions rapides du monde numérique sur cette période (de l’apparition du bouton « like » sur Facebook à la commercialisation des voitures autonomes) et l’ajustement des préoccupations sociales et politiques qui les accompagnent. Il s’agit ainsi d’une mise en perspective riche des enjeux que soulève aujourd’hui l’hégémonie opaque des grandes plateformes du web.

8. Pour aller plus loin

Ouvrage recensé– L’appétit des géants, Pouvoir des algorithmes, ambitions des plateformes, Caen, C&F Editions, coll. « blogollection », 2017.

Du même auteur – Les classiques connectés, Montpellier, Publie.net, 2016.– Qu’est-ce que l’identité numérique, Enjeux, outils, méthodologies, Marseille, Open Editions Press, coll. « Encyclopédie Numérique », 2013.

Autres pistes – Dominique Cardon, A quoi rêvent les algorithmes, nos vies à l’heure des big data, Paris, Le Seuil, coll « La République des Idées », 2015.– Antonio Casilli, En attendant les robots : Enquête sur le travail du clic, Paris, Seuil, 2019.

© 2021, Dygest