fbpx

« Les entreprises vendent à notre insu des prédictions de nos comportements »



« Les entreprises vendent à notre insu des prédictions de nos comportements »

Depuis qu’en 2000, Google a trouvé comment exploiter les traces que nous laissons sur Internet et qu’il les commercialise sous forme de prédictions de nos comportements, nous sommes entrés dans une nouvelle ère. Pour en sortir, il faut utiliser les outils démocratiques, explique la sociologue américaine Shoshana Zuboff, professeure émérite à la Harvard Business School.

Comment définissez-vous le capitalisme de surveillance ?

Shoshana Zuboff : Ce terme permet pour moi de décrire le fonctionnement actuel de notre système économique qui repose sur le mariage entre, d’un côté, les possibilités qu’offrent les technologies numériques, qui sont sans précédent, et, de l’autre, les objectifs au long cours du capitalisme. Ceux-ci sont bien connus : la recherche du profit, la croissance, la marchandisation, l’extension de l’économie de marché, etc.

Parler de capitalisme de surveillance permet de souligner que ces éléments ne peuvent plus être mis en œuvre sans des technologies et des relations sociales de surveillance. Le capitalisme dépend désormais entièrement des technologies numériques, omniprésentes dans tous les secteurs et à tous les niveaux. En ce sens, le capitalisme de surveillance n’existait pas avant son invention en 2000 par Google car les objectifs et les moyens mis en œuvre n’étaient pas les mêmes auparavant.

Que se passe-t-il en 2000 ?

S.Z :  L’histoire de l’invention du capitalisme de surveillance chez Google est somme toute assez classique et, comme souvent, marquée du sceau de l’urgence. Une urgence financière d’abord, celle d’une petite entreprise, Google, menacée par l’éclatement de la bulle internet. Bien que son moteur de recherche soit alors considéré comme l’un des meilleurs, ses fondateurs, Larry Page et Sergey Brin, n’avaient pas encore trouvé le moyen de monétiser cette valeur. Leurs investisseurs menaçaient de retirer leurs fonds à moins d’une réelle percée.

L’autre urgence est existentielle, et concerne Larry Page et Sergey Brin. Tous deux, les témoignages en attestent, étaient alors paniqués à l’idée de finir comme des « pauvres types ». Brin voulait à tout prix éviter d’être « l’un de ces crétins de la Silicon Valley », tandis que Page était habité par la peur macabre de finir comme Nikola Tesla, l’inventeur de génie qui mourut sans le sou. Cette double urgence les a conduits à mettre en suspens leurs convictions, visibles dans leurs écrits antérieurs où ils critiquent l’influence corruptrice de la publicité, afin de sauver leur entreprise.

Techniquement, qu’est-ce que cela signifie ?

S.Z : Les analystes de données (data scientists) de Google font entre 2000 et 2001 une série de découvertes. Ils parviennent à identifier des données comportementales contenues dans des informations laissées par les internautes lors de leurs recherches et de leur navigation en ligne. Ces données sont de l’ordre du surplus, elles sont jusque-là mises au rebut car elles ne sont pas nécessaires à l’amélioration du service rendu. En agrégeant et en analysant les informations comportementales contenues dans ces données en surplus, les équipes de Google se rendent compte qu’elles parviennent à prédire le comportement des utilisateurs.

Page et Brin déclarent l’état d’exception : en dépit de leurs convictions, ils reconnaissent que la publicité est leur meilleure chance de survie. Les équipes parviennent rapidement à comprendre comment prédire un taux de clics (click-through rate) qui correspond au rapport entre le nombre d’utilisateurs cliquant sur l’élément auquel ils sont exposés et le nombre d’utilisateurs exposés à cet élément. Cette clé ouvre la voie au développement du marché de la publicité en ligne ciblée, et va révolutionner l’ensemble du secteur de la publicité.

Page et Brin ont fait ce choix en violation flagrante de leurs valeurs et de droits fondamentaux (droits à la vie privée, droits à la décision individuelle…) qui n’étaient, et ne sont toujours pas, protégés par la loi. Ils ont décidé de s’emparer de quelque chose que chacun considère comme inaliénable, de s’en déclarer propriétaires et de le commercialiser. Pour le sens commun, cette captation s’appelle un vol. Le problème est que la loi ne considère pas qu’il s’agit d’un vol. Pourtant, cela met en danger la démocratie et les possibilités de la faire vivre individuellement et collectivement. Les deux fondateurs comprenaient parfaitement à quel point ce tournant était immoral, illégitime et illicite : ils ont tout de suite su qu’il fallait garder secrètes toutes les décisions allant dans ce sens et ont tout fait pour. Ils risquaient sinon d’attirer l’attention des utilisateurs et d’entraîner une riposte du législateur.

Qu’en est-il aujourd’hui ? Peut-on dire que le secret continue d’entourer ces pratiques ?

S.Z : Oui, hélas. La surveillance s’est étendue dans des proportions inimaginables. Elle est infiniment plus omniprésente, plus intime, plus profonde que ce qu’on aurait pu concevoir à l’époque. Larry Page le pressentait. Dès 2001, il déclarait « chaque aspect de votre vie pourra faire l’objet de recherches ». Cette vision a imprégné chaque aspect du système économique.

Comment fonctionne cette surveillance ?

S.Z : Elle repose sur l’extraction massive de données et plus précisément sur l’extraction du surplus comportemental, au cœur de ce système. C’est l’une des choses les plus difficiles à comprendre. Il y a certes de nombreuses raisons au succès, ces vingt dernières années, du capitalisme de surveillance : le contexte historique, idéologique, etc. Certaines de ces raisons ont trait à la façon dont les entreprises ont été capables de concevoir leurs procédés et leur rhétorique, d’autres à la façon dont la surveillance elle-même produit de l’ignorance, et c’est là où je veux en venir. Par définition en effet, la surveillance passe sous les radars, on n’en est pas conscient ou pas pleinement conscient. Si c’était réellement le cas, nous manifesterions, nous nous camouflerions, nous ferions en sorte que ça soit plus difficile ou impossible de nous surveiller, nous ferions pression sur nos représentants.

« Le nœud du problème tient au fait que ce qu’on donne aux entreprises n’est qu’une infinitésimale portion de la quantité de données personnelles qu’elles sont capables d’obtenir et d’inférer à partir de ce que nous avons donné »

Grâce à la propagande de ses promoteurs et à l’ignorance intentionnelle dans laquelle nous sommes placés, nous nous disons que le capitalisme de surveillance, c’est la collecte de nos données personnelles. Mais nous pensons qu’il s’agit d’informations que nous livrons en connaissance de cause, de notre plein gré. Nous avons ainsi l’illusion d’être pris dans un quiproquo réciproque : je reçois ce service en échange duquel je donne telle photo ou telle indication. Quelle que soit la donnée, nous imaginons que nous avons exprimé notre consentement pour qu’elle soit collectée. Nous nous berçons d’une illusion de contrôle.

Rien n’est plus faux. Le nœud du problème tient au fait que ce qu’on donne aux entreprises n’est qu’une infinitésimale portion de la quantité de données personnelles qu’elles sont capables d’obtenir et d’inférer à partir de ce que nous avons donné. Dit autrement, le péché originel n’est pas que je donne des informations sur mon identité, c’est l’extraction par les entreprises du surplus comportemental. Les analystes de ­Google ont en effet rapidement appris à inférer des informations personnelles sur les utilisateurs, au-delà des données propres de Google, à partir de toutes les traces laissées sur internet, à l’insu des utilisateurs.

Un brevet déposé en 2003 par Google est instructif de la philosophie qui anime l’entreprise californienne. Ce brevet (« Générer des informations utilisateur à des fins de publicité ciblée ») explique, dans le dossier de candidature, que les informations du profil utilisateur peuvent être « inférées », « présumées » et « déduites » même si l’utilisateur n’a pas « volontairement » fourni ces informations ou qu’il a intentionnellement laissé une information incomplète.

Par exemple, je poste une photo sur une plate-forme. Cette photo exprime des états émotionnels, elle peut être lue grâce à un système de reconnaissance faciale qui permet de déchiffrer les muscles du visage ou le mouvement de l’épaule, et de créer différents schémas qui viennent encore enrichir la reconnaissance faciale, en la corrélant à des états émotionnels.

Autre exemple : un post ou un message où j’indique qu’on se retrouve pour dîner ce soir à 20 heures. Ce qui intéresse vraiment ces entreprises, c’est la ponctuation, le recours éventuel à des points d’exclamation, les tournures de phrase, etc. Toutes ces données font l’objet d’analyses et sont ensuite rapportées à des traits de personnalité. Elles sont agrégées et comparées à d’autres bases de données où un lien a déjà été fait entre schémas comportementaux et types de personnalité, orientation sexuelle, préférence politique, etc.

Par analogie avec la chaîne de production industrielle, on peut considérer que nos vies privées ou l’expérience humaine en sont la matière première. Cette matière première est collectée dans nos téléphones et les applications que nous utilisons (chaque application collecte des données sur nos téléphones et sur les téléphones de nos contacts) et injectée dans différentes chaînes de production complexes qui recoupent chaque domaine de notre vie. L’intelligence artificielle et l’apprentissage automatique (machine learning) sont les usines où cette matière première est traitée et transformée en données comportementales. Les dirigeants de ces entreprises nous disent qu’ils ne vendent pas nos données. Evidemment ! Pourquoi les vendraient-ils ? Ils vendent les prédictions de comportement réalisées grâce au traitement des données.

Pourquoi nos états émotionnels sont-ils si convoités par les entreprises ?

S.Z : En raison de leur caractère prédictif sur nos comportements. La prédiction garantit une réduction de l’incertitude pour les entreprises clientes de Google. Aux Etats-Unis, le surplus comportemental est désormais analysé lors de la présentation des résultats trimestriels des entreprises. La présentation du PDG est enregistrée et les investisseurs comparent les enregistrements d’une année sur l’autre pour voir si le ton de la voix, le choix des mots ou des phrases a changé. Ils analysent son surplus comportemental. Bien sûr, à mesure que les entreprises prennent conscience du recours à l’intelligence artificielle par les investisseurs, des coachs sont sollicités pour aider le PDG à y échapper.

La connaissance à très large échelle que les entreprises en retirent leur permet ensuite d’influencer nos comportements, comme consommateurs, à un niveau individuel et collectif. Par exemple : que fera la lectrice de tel type d’article lorsqu’elle sera exposée à telle publicité ? A tel moment de la journée ? L’objet de la surveillance, c’est de prédire.

N’est-ce pas ce que le marketing et la publicité ont toujours fait ?

S.Z : De cette manière, c’est inédit et cela aurait été inimaginable plus tôt. Les technologies de persuasion des époques précédentes ne sont pas comparables en raison de la quantité de données traitées aujourd’hui. Malgré l’opacité qui entoure cette pratique, on dispose de quelques éléments d’information. On sait par exemple grâce à un document qui a fuité en 2018 que le hub d’intelligence artificielle de Facebook, donc le cœur de son « système de production », ingérait des trillions de points de données (data points) chaque jour pour produire des milliers de modèles chaque jour et six millions de prédictions comportementales chaque seconde.

De plus, il faut bien voir qu’il ne s’agit pas seulement du monde dit virtuel. Ces procédés sont appliqués dans notre vie courante, les deux mondes ne sont pas imperméables.

Toutes les entreprises s’inscrivent-elles donc dans le capitalisme de surveillance ?

S.Z : Oui. En 2001, Google a commencé à exploiter le surplus comportemental et à le passer au crible de l’analyse de données pour révolutionner la publicité. L’entreprise avait alors des revenus très minimes. En 2004, lorsqu’elle est entrée en Bourse, ses revenus avaient augmenté de 3 590 % (sur la période de 2000 à 2004). Même si elle ne souhaitait pas dévoiler les secrets de cette manne financière, il s’agissait de la rente de la surveillance. Celle-ci a changé bien des choses à Wall Street. Les investisseurs ont tous voulu profiter de cette manne une fois qu’ils ont compris qu’elle permettait de démultiplier les revenus d’une entreprise.

C’est pourquoi Mark Zuckerberg par exemple a débauché Sheryl Sandberg et l’a fait venir chez Facebook en 2008 .

Nous sommes maintenant en 2022 et cette rente est en train de migrer dans tous les secteurs, la finance, la banque, la santé, la grande distribution, l’immobilier… Il n’y a aucun secteur économique qui n’essaie pas, aujourd’hui, d’analyser et de monétiser les données liées au surplus comportemental et de réaliser des prédictions comportementales grâce à elles . L’institutionnalisation de la surveillance dans notre vie quotidienne est aussi l’une des forces à l’œuvre dans ce qu’on a appelé la révolution des smartphones. Le smartphone est dans notre poche. L’invasion des entreprises n’est donc plus géographiquement limitée. Avec le smartphone, les caméras et les capteurs, les moyens de suivre les gens dans tous les espaces du quotidien se sont accrus.

Le PDG de Ford a par exemple déclaré qu’au lieu de créer le moyen de déplacement du XXIsiècle, Ford, grâce aux utilisateurs de voitures Ford, devrait croiser les données collectées auprès de ces conducteurs avec celles des compagnies d’assurances, de façon à développer une chaîne de production de données comportementales. Pour la prochaine génération de Ford, il s’agira de concevoir non plus des voitures, mais un système d’exploitation de modes de déplacement. Cette nouvelle réorganisation illustre l’institutionnalisation du capitalisme de surveillance dont je parle.

L’une des raisons pour lesquelles il n’y a pas eu au départ de régulation des entreprises numériques tient à l’idée qu’à côté du monde réel existerait un monde virtuel, en ligne, un cyberespace avec ses propres caractéristiques si particulières qu’il ne serait pas pertinent qu’on lui applique les lois de la société, ou encore les règles et les principes démocratiques. Cette mythologie du cyberespace fait partie d’une propagande rhétorique plus large qui consiste à souligner par exemple qu’il y a un espace que seuls les vrais analystes de données peuvent comprendre, qui dépasse l’entendement humain ordinaire. Cela lui permet d’échapper à la loi et à la démocratie. C’est ce qui nous a empêchés de considérer ce vol à grande échelle comme quelque chose que nous pouvons changer ou réparer. D’une certaine manière, nous sommes habités par l’idée que c’est normal puisque le cyberespace a ses propres règles.

Dire que la surveillance est omniprésente et toute-puissante, n’est-ce pas d’abord une promesse des dirigeants d’entreprises adressée à leurs investisseurs, alors que la réalité est plus complexe ?

S.Z : C’est ce que l’on aime à penser. Google et Facebook sont des entreprises du capitalisme de surveillance à l’état quasi pur et parfait. La majorité de leurs revenus vient de la publicité ciblée, la publicité de la surveillance. Ces marchés sont aujourd’hui suffisamment robustes. La capitalisation boursière de Google va vers les 2 000 milliards de dollars, celle de Facebook dépasse les 500 millions de dollars, et c’est une entreprise bien plus jeune que Google. Ce n’est pas parce que la publicité ciblée ne marche pas. La publicité ciblée est un marché mondial qui fonctionne, sur lequel s’échangent des données sur les comportements humains futurs.

« Dans nos sociétés démocratiques, en deux décennies seulement, nous avons permis la création de monopoles qui ne sont pas uniquement économiques, mais sont aussi des monopoles de connaissance et de pouvoir »

Qui possède ces chaînes de production que sont les usines de traitement de données ? Les données comportementales créées par les entreprises privées nous ont été volées. D’une certaine manière, cela n’a rien à voir avec nous, si ce n’est que c’est construit à partir de notre vie privée. Pour le reste, les données et les prédictions qui en sont tirées ne sont pas au service de notre intérêt, elles ne répondent pas à nos besoins, ni individuels ni collectifs. Elles ne permettent pas de résoudre la crise climatique, la faim dans le monde ou d’améliorer le fonctionnement des démocraties. Elles répondent aux objectifs commerciaux des clients à qui elles sont vendues.

Dans nos sociétés démocratiques, en deux décennies seulement, nous avons permis la création de monopoles qui ne sont pas uniquement économiques, mais sont aussi des monopoles de connaissance et de pouvoir. Le capitalisme de surveillance n’est pas une histoire de technologie. C’est une histoire de pouvoir. C’est pourquoi toutes les solutions pour le contrer dépendent de la réactivation de principes démocratiques.

Nombre de géants numériques sont aujourd’hui chinois. Comment l’affirmation de la puissance chinoise change-t-elle la donne en matière de capitalisme de surveillance ?

S.Z : Pour saisir le rôle de la Chine, il faut faire un détour par ce que j’appelle le pouvoir instrumentarien, qui est le lien entre la Chine et l’Occident. Le pouvoir instrumentarien consiste à utiliser la connaissance acquise pour façonner et influencer les individus d’une façon qui avantage les institutions économiques et politiques du capitalisme de surveillance. La Chine s’est entièrement saisie du pouvoir instrumentarien. Elle l’inscrit dans un projet plus large qu’elle met en œuvre depuis 2010 au moins, lorsque le Parti communiste est entré dans le monde numérique et a réfléchi à la façon de déployer les technologies numériques pour accroître son gouvernement autoritaire. Les Chinois n’exportent pas seulement leur technologie mais aussi les formations de personnel et le système pour exploiter ces technologies de façon à prêter main-forte aux gouvernements autoritaires. La grosse différence est que la Chine s’y attelle avec un effort intentionnel, ce qui n’est pas le cas de l’Occident.

Concrètement, qu’est-ce que le pouvoir instrumentarien ?

S.Z : Reprenons l’exemple de Facebook et de ses six millions de prédictions comportementales par seconde. Ces dernières années, Facebook s’est développé de sorte que la connaissance prédictive qu’il détient puisse être transformée en pouvoir. C’est un pouvoir très particulier, qui s’exerce sur les individus et les collectifs par le biais de l’architecture numérique – c’est ce qui fait sa spécificité.

L’exemple bien documenté de la campagne de Donald Trump en 2016 permet de l’illustrer. Je fais référence au travail d’enquête de Channel4News à Londres en septembre 2020 . Les journalistes ont réussi à se procurer près de 5 térabytes de données utilisées par l’équipe de campagne du candidat républicain, soit 5 000 fichiers portant sur 200 millions d’électeurs étasuniens, avec les analyses, les différents profilages, les traits de personnalité, les préférences politiques, les points faibles, les centres d’intérêt, de préoccupation, etc. Le but affiché de cette campagne a été d’avoir un recours massif à la publicité politique sur Facebook. Son responsable numérique, Brad Parscale, a déclaré [dans l’émission de télévision 60 minutes, en octobre 2017, NDLR] avoir compris assez vite que c’était grâce à Facebook qu’il allait remporter l’élection. Sa stratégie n’a pas tant consisté à convaincre les gens sur Facebook de voter pour Trump qu’à utiliser le profilage pour voir qui étaient les personnes les moins susceptibles de voter pour lui et à les convaincre de ne pas voter du tout. Donc à tenir éloignés des urnes les électeurs qui s’apprêtaient à voter pour Hillary Clinton.

Parmi ces 200 millions d’électeurs étasuniens, il y avait 3,5 millions d’électeurs Noirs. Ils étaient surreprésentés dans ce groupe qui n’allait pas voter pour Trump. Les messages publicitaires à caractère politique diffusés sur Facebook ont eu recours à tout l’éventail que mobilise la publicité ciblée pour toucher la bonne personne au bon moment avec la meilleure probabilité de taux de clic. Cette technique a été appliquée aux électeurs étasuniens de la façon la plus persuasive possible pour les convaincre de ne pas voter. Il y a eu différentes stratégies : le microciblage psychologique, les outils de recommandation, la comparaison sociale, les récompenses et punitions en temps réels, la gamification, etc. Ont été diffusées par exemple de fausses vidéos d’Hillary Clinton tenant des propos racistes, des vidéos expliquant que la meilleure façon de manifester son désaccord politique était de ne pas voter, etc. Ces messages ont été envoyés pour dissuader les gens de voter. Il s’agissait de ce qu’on appelle des dark posts (messages de l’ombre), à destination de certains uniquement et invisibles pour les autres. Aucun de ces messages n’était exactement le même.

C’est là qu’a été investie une bonne partie de l’argent de la campagne de Trump. Les montants ont été doublés dans les Etats-pivots (Swing States) comme l’Ohio, le Wisconsin ou le Michigan. Fait rarissime : les résultats de cette opération sont publics ! Le Pew Research Center, un centre de recherche important outre-Atlantique, a analysé la participation électorale et montré qu’en 2016, la participation des électeurs Noirs avait baissée de sept points de pourcentage dans tout le pays , sa baisse la plus forte dans l’histoire récente. D’après le Washington Post, cette baisse était encore plus forte dans les Etats-pivots.

Les techniques publicitaires ordinairement utilisées à des fins commerciales ont été appliquées au vote ?

S.Z : Oui. L’un des dirigeants de Facebook, Andrew Bosworth, a dit que Trump « avait été élu car il avait mené la meilleure campagne publicitaire en ligne qu’[il ait] jamais vue » [en décembre 2019, devant les employés de Facebook, NDLR ]. En disant cela, il explique en quoi consiste le travail de Facebook au quotidien et ce qu’est la publicité microciblée. En 2016, elle a été mise au service d’un objectif politique plutôt que commercial. Mais les ingrédients sont les mêmes et le succès a été au rendez-vous.

Quant à Brad Parscale, il a déclaré aux journalistes : « Je me demande toujours pourquoi les gens en politique se comportent comme si les élections étaient quelque chose de mystique. C’est la même daube qu’on utilise dans la pub, le nom est juste plus sexy » [dans un article de Bloomberg Businessweek, NDLR ].  

C’est le sommet du pouvoir instrumentarien : la connaissance transformée en pouvoir permettant de façonner le comportement des gens, tout en restant obstinément indifférent à la signification de cette expérience. Peu importe la qualité de l’information utilisée pour influencer le comportement, le contenu du message délivré, l’unique critère est l’obtention du comportement recherché. Cela s’applique au commerce comme à la politique.

Quelle analyse tirer de cette situation ?

S.Z :Cet exemple donne à voir d’abord que le pouvoir s’exerce ici à travers le médium numérique et grâce à son instrumentation – d’où le nom que je lui ai donné d’instrumentarien –, à travers son architecture et ses objets. Ce pouvoir est invisible, indétectable, on ne sait pas qu’on est en sa présence. Ce type de pouvoir n’a jamais existé jusqu’à présent et n’avait pas de nom.

Ensuite, s’agit-il d’un pouvoir plus faible que le pouvoir fort que nous connaissons, le pouvoir totalitaire ou autoritaire, que nous voyons à l’œuvre contre l’Ukraine aujourd’hui ? La réponse est non, comme le montre l’exemple de la campagne de Trump en 2016. Des citoyens étasuniens, membres d’une société démocratique, acceptent de céder leurs droits démocratiques les plus fondamentaux, celui de voter, de s’exprimer politiquement, sans qu’aucun soldat ne les y force, sans que quiconque ne les tienne en joue, simplement parce qu’ils ont été manipulés secrètement par des stimuli qui leur sont parvenus masqués sur les réseaux sociaux, à travers le médium numérique. A l’instar d’un pouvoir totalitaire, le pouvoir instrumentarien organise et contrôle la société. Mais à la différence du pouvoir totalitaire, il est conçu pour être invisible et indétectable.

Que pouvons-nous faire ?

S.Z : La structure productive de l’intelligence artificielle est presque entièrement contrôlée par les plus grandes entreprises du capitalisme de surveillance. Les géants de la Silicon Valley ont acquis la plupart des talents et des entreprises du secteur. Ils mènent la danse dans les discussions avec les gouvernements.

L’une des difficultés pour agir tient au fait que le capitalisme de surveillance garde la plupart de ses découvertes secrètes. On ne sait pas et on ne peut souvent pas savoir ce qui est en train de se passer sur le moment.

Malgré ces difficultés, il y a pourtant des choses à faire. Les démocraties libérales ont laissé de côté la question fondamentale : comment utiliser les possibilités offertes par les technologies numériques au service de la démocratie. Sans ce travail, les démocraties ont un vide en elles que le capitalisme de surveillance s’empresse de remplir. Les enjeux soulevés sont désormais mondiaux, mais l’éclosion du phénomène est d’abord et avant tout une histoire étasunienne, dans un contexte où, ces dernières décennies, que ce soit aux Etats-Unis ou au Royaume-Uni, l’idéologie libérale qui privilégie le marché et les échanges marchands a été largement dominante. Cette idéologie proclame qu’il ne faut pas réguler le marché. Elle a été appliquée aux jeunes entreprises du numérique à qui elle convenait parfaitement, tout comme elle s’était auparavant accordée à l’idéologie du cyberespace. Le capitalisme de surveillance a ainsi pu se déployer, s’épanouir et conquérir le monde en deux décennies.

Faut-il dès lors désespérer ?

S.Z : En Europe, il y a eu des efforts pour créer un droit à la vie privée, avec le Règlement général sur la protection des données (RGPD) et, plus importants, le Digital Services Act et le Digital Markets Act en cours d’adoption . Ces textes vont dans le bon sens, mais pas assez loin. Le RGPD met l’accent sur la régulation de l’accès aux données : cet accès est-il transparent ? Mais s’en tenir à la réglementation de l’accès aux données, c’est déjà trop tard.

Le point de départ est que notre expérience privée est inaliénable. Tant que ce péché originel est légal, la démocratie s’incline devant la propriété privée marchande. Nous devons réaffirmer et rendre effective l’idée que je décide de ce que je partage de ma vie privée, et de ce que je garde pour moi. L’enjeu premier est la production de données. Qui décide quels éléments de ma vie sont transformés en données ? Qui décide si mes centres d’intérêt, mes préoccupations, mes préférences politiques peuvent l’être ? Nos sociétés ont besoin de données et de technologies numérique. Mais pour l’instant, celles-ci sont entre les mains d’un empire de la surveillance, même si, assurément, beaucoup d’autres participants y apportent leur contribution, des acteurs de niche spécialisés par exemple dans l’intelligence artificielle.

Malgré cette insuffisance, ces textes sont historiques. Le RGPD, le DSA et le DMA redéfinissent pour la première fois qui gouverne. Ils affirment que les technologies numériques habitent en démocratie, qu’il n’y a pas de cyberespace où nos droits ne s’appliqueraient pas et où nos institutions ne pourraient intervenir. Les espaces d’information et de communication sont cruciaux pour toute société démocratique, nous le voyons chaque jour.

« Nous devons faire la même chose qu’au moment de la révolution industrielle dans laquelle nous sommes entrés avec les patrons et le capital dotés de tout le pouvoir, campant sur leurs droits de propriété privée »

Ces législations sont comme le Titanic. Nous sommes en train de modifier la trajectoire d’un énorme paquebot pour le ramener dans la direction de la démocratie. C’est la première étape pour aller vers un nouvel ordre que nous avons encore à inventer. A quoi peut ressembler une société numérique démocratique ? Nous ne le savons pas encore. Les deux textes en cours d’adoption, le DSA et le DMA, si – et c’est un gros « si » – ils s’accompagnent de ressources humaines, de budget, de capacité de sanction, de ressources techniques pour réellement être mis en œuvre, peuvent changer la donne.

Nous devons faire la même chose qu’au moment de la révolution industrielle dans laquelle nous sommes entrés avec les patrons et le capital dotés de tout le pouvoir, campant sur leurs droits de propriété privée. Il a fallu des décennies de lutte pour dompter ce pouvoir, se doter de textes de loi protégeant les travailleurs, les consommateurs, de chartes… Nombreuses ont été les formes législatives et les institutions nouvelles par lesquelles cela s’est traduit. Nous en sommes au même point face au capitalisme de surveillance.

La réponse n’est pas de renoncer aux technologies ni de les confier aux gouvernements mais de créer des lois, des droits et des institutions qui tiennent la bride aux technologies, aux données et à leur déploiement. Cela, de façon à faire avancer la démocratie et à rendre impossible son dévoiement par un parti politique ou une cause quelle qu’elle soit. Bien sûr, rien n’est jamais parfait dans les affaires humaines, et néanmoins, nous avons accompli quelque chose, dans la deuxième moitié du XXe siècle, notamment en termes de droits sociaux. Nous en sommes aujourd’hui au point où le droit de la connaissance a besoin d’être écrit et codifié. L’établissement du droit à l’oubli constitue un moment important, qui affirme que le droit de connaître le passé d’un individu appartient à cet individu. L’Europe doit maintenant se mettre au travail. Sinon, l’Occident ressemblera de plus en plus à la Chine, avec des citoyens mis à nu, sans protection face à des entreprises privées toutes puissantes. C’est la question centrale du partage du pouvoir.

Il y a une autre leçon à tirer de cette comparaison historique avec la conquête des droits sociaux : lorsque nous accomplissons quelque chose de la sorte, ce n’est jamais définitif. La démocratie et ses institutions sont continuellement mal­menées, elles ne sont jamais abouties.

La troisième décennie du XXIsiècle est critique. La densité du capitalisme de surveillance s’accroît. L’internet des objets, la vidéosurveillance embarquée dans chaque objet du quotidien, les systèmes qui permettent à Facebook de transformer les signaux cérébraux en mots, en violation de ce dernier espace intérieur que l’on pensait inviolable… Tout cela va nous rendre la tâche encore plus difficile.

A l’automne 2021 a été annoncée la création de l’Observatoire international sur l’information et la démocratie, qui doit être mis en place d’ici la fin de l’année. J’en assure la coprésidence avec Angel Gurría, l’ancien directeur de l’OCDE. Dans ce cadre, nous espérons rassembler les analyses et les informations les plus récentes et les plus pointues pour les parlementaires et dirigeants des sociétés démocratiques, pour contribuer au travail transnational et transatlantique qui doit être mené pour reprendre le contrôle de notre vie privée à l’ère numérique et faire du XXIe siècle un siècle démocratique.

Propos recueillis et traduits de l’anglais par Céline Mouzon

Bibliographie

Broca S., 2013, Utopie du logiciel libre, Le Passager clandestin.

Broca S., 2019, « Surveiller et prédire », La Vie des idées, en ligne sur https://laviedesidees.fr

Chatellier R., 2022, « Métavers : ce jeu dont qui sera le héros ? », Laboratoire d’innovation numérique de la Cnil, en ligne sur https://linc.cnil.fr

Conseil national du numérique, 2022, Votre attention s’il vous plaît ! Quels leviers face à l’économie de l’attention ?, disponible en ligne sur https://cnnumerique.fr

Doctorow C., 2020, Détruire le capitalisme de surveillance (trad. Framalang), disponible en ligne sur https://framablog.org

Durand C., 2020, Techno-féodalisme. Critique de l’économie numérique, La Découverte.

Morozov E., 2019, « Capitalism’s new Clothes », The Baffler, disponible en ligne (en anglais) sur https://thebaffler.com

Tréguer F., 2021, « The Virus of Surveillance: How the COVID-19 pandemic is fuelling technologies of control », Political Anthropological Research on International Social Sciences n° 2, disponible en ligne (en anglais) sur https://halshs.archives-ouvertes.fr

Zuboff S., 2019 (2020), L’âge du capitalisme de surveillance, Zulma.





Lire la suite
www.alternatives-economiques.fr

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée.