Des Fake News transformées sans arrêt en “bonnes nouvelles spécialement pour vous!”

Avril 2024

La vérité sur Facebook   La vérité sur Facebook  

Les stratégies agressives qui font la base-même de la “réussite” des réseaux sociaux les plus connus (Google, Facebook, TikTok, Instagram… ou autres) sont constituées d'une série d'algorithme (programmes informatiques) qui ciblent des publicités y compris un vaste panel d'incitations à la consommation bien plus subtiles et personnalisées qu'une “vulgaire” publicité)!!
Des lanceurs ou lanceuses d'alerte qui ont travaillé à l'amélioration technique de ces “algorithmes” tentent de faire prendre conscience de ce phénomène; tout comme certaines structures gouvernementales (principalement en Europe) tentent de mettre en place des cadres réglementaires et légaux pour protéger les personnes et leur donner les moyens de se défendre de cette agressivité nouvelle que les Artifices électroniques soit-disant “Intelligents” renforcent puissamment!

Frances Haugen, La vérité sur Facebook. Les Révélations de la lanceuse d'alerte à l'origine des Facebook files, Fayard, Paris, 382 pp, janvier 2024.

Un parcours personnel très “américain” et/ou “Silicon Valley”…

Frances Haugen fait ici un récit très autobiographique. Elle insiste, en tête du livre pour dire qu'il ne s'agit que de son expérience personnelle et les Éditeurs (tant américains que français) insistent sur le fait que “Les opinions exprimées dans cet ouvrage sont celle de l'autrice et ne reflètent pas nécessairement les politiques ou positions officielles de Facebook, Google, Yelp ou Pinterest” (p. 2).

Mais l'Autrice croit en une utilisation bénéfiques des réseaux sociaux

À chaque page que vous tournez, vous rejoignez les rangs de la communauté des gens qui peuvent contribuer à un avenir plus radieux, celui de réseaux sociaux dont nous avons tous besoin et que nous méritons. Sur notre chemin ne se dressent pas seulement la peur et le désespoir. Ce n'est que le début d'une conversation qui va changer le monde. (p. 3)

Et voici d'abord les grandes lignes du parcours de Frances Haugen

Quand je suis arrivée chez Facebook en 2019, les gens savaient depuis au moins un an qu'en décidant de ne plus se contenter de fidéliser le public le plus longtemps possible, pour, au contraire, chercher à provoquer une réaction de la part des utilisateurs l'entreprise avait déclenché une hausse des contenus extrêmes. (p. 21)
En 2018, afin d'enrayer le déclin de la production, Facebook a modifié le classement des contenus sur le fil d'actualité pour donner la priorité à ceux qui généraient le plus de “J'aime”, de commentaires et de partages. (p. 23)

“Dès décembre 2019, les data scientists de Facebook faisaient remarquer que la société avait créé une boucle de rétroaction incapable de distinguer les réactions positives des négatives” [d'où les dérives vers des débats politiques ou sociétaires “extrêmes” et l'utilisation possible de Facebook dans des situations conflictuelles entraînant éventuellement des morts de personnes voire de populations].

Ayant pris conscience de ces déviations
Je me suis décidée à sortir de l'anonymat parce que dès 2021 le monde a été témoin d'une deuxième vague de violence à grande échelle alimentée par Facebook, en Éthiopie… convaincue que les choix de Facebook concernant ses produits et leur déploiement dans le monde risquaient de mettre en danger la vie de dizaines de millions de personnes dans les vingt prochaines années. Je voulais être certaine que les gens qui disposaient de la capacité d'intervenir comprenaient l'étendue de cette crise internationale déstabilisatrice qui n'allait qu'en s'aggravant. Et la seule façon de m'en assurer, ai-je décréter, était d'en discuter avec des représentants de l'État jusqu'à ce que j'aie la certitude qu'ils en saisissent pleinement les enjeux. (pp. 24‒25)

L'Autrice arrive donc à se faire reconnaître par les réseaux politiques au point, qu'après avoir été auditionnée par la Commission spécialisée du Congrès américain, elle est invitée au Capitole à Washington en 2022 pour le discours de Joe Biden sur l'état de l'Union

Le président Biden est entré dans la salle du Congrès […] Il a entamé son discours, comme prévu, par un exposé sur la situation en Ukraine et la nécessité pour les pays libres du monde de se tenir aux côtés de ceux qui n'avaient pas demandé à être envahis. […] Personne ne vous explique à l'avance quand votre nom sera mentionné ou comment vous serez présenté dans le discours. Quand le Président m'a citée, j'ai été totalement prise au dépourvu. “Frances Haugen, qui est avec nous ici ce soir, a montré que nous devons exiger que les réseaux sociaux rendent des comptes au sujet de l'expérience qu'ils mènent à l'échelle nationale sur nos enfants à des fins lucratives. Les amis, merci. Merci pour le courage dont vous avez fait preuve.” Et soudain, avant même de comprendre ce qui s'était passé, je me suis levée, puis rassise, hébétée. J'avais la tête qui tournait. (pp. 27‒28)

L'apprentissage chez Google et chez Pinterest

La suite du livre décrit de façon parfois un peu trop “autobiographique” le parcours de l'Autrice depuis son engagement chez Google, puis Pinterest jusqu'à son passage chez Facebook (2019‒2021).

On est surpris de la façon de travailler de Frances Haugen (.. comme de la majorité des “collègues” et “amis” avec lesquels elle va faire son parcours en tant qu'analyste de haut niveau!)

Rapidité extrême d'exécution, rapidité d'une soi-disant maîtrise d'un domaine jusque là inconnu, frontières floues entre travail en entreprise et travail “personnel”, interférence de problèmes de santé et de “burn outs”, salaires faramineux qui semblent correspondre à ces niveaux de responsabilités et de travaux, etc… qui vous laisse un peu pantois.

Mais cet aspect de la présentation fait ouvrir les yeux sur l'impréparation et le manque de “maturité” entrepreneuriale dans la plupart de ces entreprises qui ont pris une place à responsabilité pour des milliards de personnes dans le monde!

À titre d'exemple, voici comment l'Autrice décrit l'une de ses interviews pour son engagement chez Google

L'entretien le plus sympathique que j'ai passé ce jour-là a été celui d'ingénierie. L'ingénieur m'a demandé comment j'aimerais développer la recherche d'images si j'étais partie de rien. C'est la seule question sur les algorithmes qu'on m'a posée, et sans doute une des rares auxquelles j'aurais pu répondre, compte tenu de mon diplôme en ingénierie électrique analogique. Par un heureux hasard, j'avais passé un été à l'étranger à étudier à l'université d'Uppsala, en Suède, entre ma deuxième et ma troisième année. Un des deux cours que j'avais suivi portait sur l'exploration de données et la collecte d'informations, ce qui m'avait parfaitement préparée au moment où l'ingénieur a demandé: “Imaginez que vous deviez développer Google Images à partir de rien. Axeriez-vous la recherche sur la largeur ou sur la profondeur?”
C'est une excellente question d'entretien. Elle met en évidence la manière dont des choix différents en matières de données et d'algorithmes peuvent produire des expériences très différentes pour l'utilisateur, et je pense que c'est la première fois que j'ai réfléchi à l'intersection entre la conception d'algorithmes et l'expérience de l'utilisateur. Si on met l'accent sur la profondeur, cela signifie que l'on s'efforce d'obtenir toutes les images d'un seul site web, puis on passe au suivant. Si on privilégie la largeur, on obtient une ou quelques images d'un site web, puis on passe au suivant, avec l'intention de revenir sur tous les sites précédents et d'obtenir progressivement de plus en plus d'images au cours des cycles successifs. “Je l'axerai d'abord sur la largeur, ai-je répondu. Dans un moteur de recherche, il faut pouvoir montrer à l'utilisateur une grande variété d'images possibles, et les images d'un site web sont moins diversifiées que celles provenant de plusieurs sites”.
Je me souviens de la fierté que j'ai ressentie quand l'ingénieur à réagi de façon positive… (p. 70)

Et ce sera le début de sa carrière dans ce type d'entreprises

Google était au paroxysme de sa période d'excès. L'entreprise était entrée en Bourse deux ans avant mon arrivée et avait racheté YouTube une semaine avant que je commence à y travailler. […] On avait l'impression que le Googleplex était le centre du monde, et que nous appartenions à l'élite parce que nous avions su triompher des obstacles des entretiens afin d'y décrocher notre place. (pp. 76‒77)

Et toujours dans son apprentissage de la “manipulation” de données à grande échelle

En 2006, l'ère de la science des données en tant que pratique commerciale n'en n'était encore qu'au stade embryonnaire. Il faudrait attendre deux ans pour croiser les premières personnes affublées du titre de “data scientist” (spécialistes en science des données, des statistiques, de l'informatique et du marketing). Le titre lui-même a été choisi à la suite d'expériences en direct menées au sein de LinkedIn. Je me souviens d'avoir été émerveillée par la capacité des données à révéler la valeur d'une chose. L'information, c'était bel et bien le pouvoir. (pp. 82‒83)

Et la suite de son parcours (qui explique le développement de sa réflexion “critique”)

À l'automne 2007, après le voyage autour du monde avec ma cohorte de chefs de produits adjoints et Marissa Meyer, je me suis retrouvée à travailler chez Google Books. Mes intérêts personnels m'ayant entraînée vers un secteur moins fréquenté de Google, j'ai acquis une expérience spécialisée qui, par la suite, m'ouvrirait les portes de Pinterest et Facebook. (p. 92)

Et, dans son premier travail elle devait assurer l'internationalisation de Google Books

qui devait passer de quinze à quarante langues… et si Google a connu un tel succès et est devenu le moteur de recherche par défaut dans le monde entier, c'est en partie parce que la société s'est attachée à rendre ses produits disponibles dans un ensemble de langues beaucoup plus large, et ce bien plus tôt que les autres entreprises du secteur. […] Google était très en avance sur Facebook à cet égard. Mes révélations sur Facebook dévoileraient ses nombreuses pratiques toxiques… Le point que je soulignerais avec la plus grande énergie est un facteur sousjacent qui n'est pas évident de façon intuitive – et donc, peut-être d'autant plus insidieux. Facebook a assuré au monde entier que l'intelligence artificielle nous sauverait des dangers supposés des algorithmes en supprimant sélectivement les contenus “dangereux”. Or, l'entreprise a dissimulé un fait essentiel: pour se concentrer sur les produits “dangereux”, il fallait traduire et reconstruire les système de censure de l'IA, langue par langue – un processus qu'il n'était pas prévu de financer au point de pouvoir assurer la sécurité des personnes dans les endroits les plus pauvres et les plus vulnérables du monde. (p. 96)

Et, cette “découverte” de l'Autrice – qui rejoint toute l'expérience de ceux qui travaillent les textes depuis plus de 50 ans (!!) et qui, malgré les efforts de l'équipe de l'Autrice condamnera quelque peu Google Books dans ses premières versions aux yeux de ceux qui travaillent les textes [trop de fautes au scannage, comme “Beige” pour “Belge” testé à Maredsous à l'époque pour juger de la fiabilité de l'entreprise de Google!]

Un autre critère de lancement que nous avons établi était que l'OCR développée par Google devait atteindre un certain niveau de qualité. En d'autres termes, il ne pouvait y avoir qu'un certain nombre d'erreurs par millier de mots afin de garantir aux utilisateurs des résultats de recherche de haute qualité […!!! ahurissant comme base d'analyse !!! NDLR]. J'ai particulièrement apprécié cette partie du projet, car c'était la première fois que je m'intéressais à la nature et aux nuances des systèmes d'écriture – la famille de caractères qui composent une langue écrite – et à la beauté de la diversité des alphabets (caractères représentant des unités sonores) et des syllabaires (caractères représentant des syllabes) à travers le monde. Les informaticiens n'ont généralement pas l'occasion de savourer le plaisir d'apprendre de tels détails culturels. (p.97)

Dans ce groupe, une équipe avait eu mission de développer un Data Cube “système qui recueillerait des données susceptibles d'aider l'équipe à comprendre comment les internautes utilisaient Google Books”… mais aucun ingénieur ne voyait comment l'utiliser; alors l'Autrice s'en mêle

En tant qu'ingénieure électricienne analogique, j'avais appris à programmer dans des langages qui n'étaient pas normalement utilisés chez Google. Pressentant la possibilité d'apprendre une façon plus pertinente de programmer, j'ai parcouru la liste des langages qui avaient déjà des packages (programmes qui facilitent une ou plusieurs tâches) écrits pour accéder au Data Cube et j'ai décidé que c'était le moment de m'initier à Python. …à l'époque, Python ne permettait pas d'utiliser des fractions pour obtenir des réponses précises. Si vous divisiez 4 par 5, vous obteniez 0 et non 80%… (pp. 98‒99)

Puis elle eût à s'occuper du détournement systématique de données de Google Books par Open Library et Internet Archive pour en faire un projet de bibliothèque en ligne pour le MIT!!! Et là, pas de possibilités pour Google de se défendre, car en 2007-2008 “Google avait scanné des millions de livres mais qui ne pouvaient pas être mis à disposition d'utilisateurs potentiels “parce que l'entreprise était au cœur d'un des recours collectifs les plus coûteux de l'histoire” à cause d'une violation des “droits d'auteur”! (pp. 101‒102)

Et, tout ce secteur se développe de façon souvent quelque peu anarchique, mais à une telle vitesse que l'Autrice, dont le livre a paru en anglais en fin 2023, trouve nécessaire d'insérer un grand encadré en p.123 qui dit ceci

Dans ce qui suit, j'évoque de nombreux aspects de Google qui, dans un avenir proche, paraîtront sans doute étranges si les “grands modèles de langage continuent à gagner en capacité et en importance. À l'heure où j'achève mon manuscrit, Microsoft a annoncé les premières expériences de recherche “conversationnelle”, où une intelligence artificielle peut discuter activement avec le chercheur et guider son processus de recherche. Si vous préférez, considérez cette partie comme un voyage dans un monde disparu. (p. 123)

Et, toujours dans la foulée de cette accélération de lancement de Google Books, l'Autrice semble découvrir ce qu'est un “droit d'auteur”

…Google s'est aperçu que mon algorithme risquait de violer les “droits moraux” des créateurs de livres. En Europe, il existe un concept appelé “intégrité de l’œuvre”, qui signifie que, si vous êtes un créateur, vous avez le droit d'empêcher que votre œuvre soit déformée.Vous et vos héritiers conservez parfois ces droits à perpétuité. (p. 127) [!!!]

Après de longs mois de maladie, l'Autrice revient au travail

Le Google que j'ai retrouvé était un Google en mouvement. Comme beaucoup d'autres grandes entreprises des nouvelles technologies, y compris Meta/Facebook, Google était mieux à même de fonctionner quand il avait un ennemi clairement défini contre lequel se battre. Je suis revenue sur le campus de Mountain View en mai 2011, et cet adversaire était Facebook. La peur du géant des réseaux sociaux alimentait le moteur de l'initiative au sein de Google, poussant l'entreprise à se lancer dans le “social” […] Google a donc considéré Facebook comme une menace existentielle, un trou noir d'agrégation de contenus, qui le concurrençait pour devenir le système de l'information par défaut dans le monde. En conséquence, Google a chargé une équipe de développer Google+, en lui confiant la tâche de mener l'entreprise vers le “social”. Je me suis efforcée de m'assurer une place dans l'équipe la plus en vue de l'entreprise… (p. 134‒136.)

Les traces du génocide cambodgien (près de 2 millions de morts) qu'elle a l'occasion d'aller visiter caractérisent un génocide idéologique: il ne s'agit pas d'éliminer “une ethnie ou un groupe religieux spécifique… mais toutes les personnes ayant un diplôme d'études secondaires ou plus, toutes celles qui parlaient deux langues ou toutes celles qui étaient tant soit peu privilégiée”…

Huit ans plus tard, je faisais partie de la première équipe Civic Misinformation de Facebook, chargée d'élaborer une stratégie pour faire face aux vagues de désinformation incendiaire et virale qui se propageaient dans certains endroits les plus fragiles du monde (même aux États-Unis). Mes collègues comprenaient que nous avions à faire à des “pays à risque”, terme utilisé par Facebook pour décrire des États comme la Birmanie, susceptibles d'être le théâtre de violences déclenchées par les réseaux sociaux. Je ne cessais de penser au génocide cambodgien et à la tour d'ossements de vingt étages. Dans les deux cas, des voisins tuaient des voisins à cause d'un discours qui qualifiait de menaces existentielles des personnes qui vivaient les unes à côtés des autres depuis des générations. À quelle vitesse la fiction peut‒elle devenir la vérité pour les gens? (pp. 151‒152)

Et la saga biographique de Frances Haugen se poursuit

La transition de Google à Yelp n'a rien eu d'évident, surtout avec une formation comme la mienne… La baisse de salaire était considérable par rapport à Google, mais l'entreprise m'a accueillie chaleureusement et s'est montrée enthousiaste à l'idée que je veuille de nouveau travailler sur l'outil de recherche. Ce sont de grands amateurs de données et ils ont adoré mon moteur de recherche sur les restaurants sans gluten. […] J'ai été affectée à deux équipes: l'équipe Suggest, qui se concentre sur les résultats qui alimentent automatiquement la boîte de recherche, et l'équipe Data Mining, qui exploite la montagne de données collectées par Yelp pour créer des fonctionnalités utiles à leurs produits. (p. 163)

Et elle explique

J'avais quitté Google alors que l'entreprise entrait dans une période de réinvention. L'apprentissage automatique, un sous‒ensemble du monde plus vaste de l'intelligence artificielle, était un domaine universitaire depuis des années, mais au milieu des années 2010, les algorithmes d'apprentissage automatique permettant aux ordinateurs de dégager des schémas complexes à partir de vastes ensembles de données étaient enfin suffisamment rapides et bon marché pour que Google envisage de réorganiser le moteur de recherche Google.com afin de tirer parti de cette technologie. (p. 164)
C'est grâce à Yelp que j'en suis venue à apprécier la topologie fondamentale qui régit tous les réseaux sociaux: indépendamment du fait que l'on parle de schémas positifs ou de schémas de mauvais acteurs, il existe des schémas répétitifs de comportement sur ces plateformes. […] au cours d'un mois donné, la grande majorité des utilisateurs ne publiera pas du tout, ou une seule fois. Une petite minorité publiera plusieurs fois. Parmi les utilisateurs qui publient, les 1% les plus actifs publieront peut‒être une ou plusieurs fois par jour. (p. 165)

Et elle commence à percevoir des système algorithmiques “biaisés”

Le moteur de recherche de Yelp récompensait par un meilleur classement dans les résultats les entreprises qui avaient le plus d'avis et de photos, ce qui créait un cycle où les riches s'enrichissaient… Yelp détermine [de cette façon] le succès ou l'échec de petites entreprises dans le monde entier, sans responsabilisation ni contrôle de la part du public. (p. 166)

Déjà elle réfléchit à l'avenir de ces domaines

Après avoir lancé l'alerte sur Facebook, j'ai consacré beaucoup de temps à réfléchir à la manière dont nous pouvons susciter un changement systémique sur les plateformes de réseaux sociaux. Pour soutenir ce travail, je suis en train de fonder une organisation à but non lucratif baptisée Beyond the Screen (Au‒delà de l'écran), qui ambitionne d'augmenter d'un million le nombre de gens qui comprennent sérieusement le fonctionnement de ces plateformes. (p. 169)

Vérification faite, cette association sans but lucratif est effectivement opérationnelle et on peut explorer ses projets et partenariats dans le Web (30.03.24).
Mais l'histoire de Frances Haugen jusqu'à son “alerte sur Facebook” n'est pas terminée

L'année que j'ai passée chez Yelp s'est terminée abruptement à l'été 2016, quand Simon, un de mes amis les plus proches, m'a appelée pour me parler d'une emploi auquel je devais postuler selon lui. […] L'emploi en question était bien mieux rémunéré et, stimulée par la perspective de travailler dans une start‒up en pleine croissance, j'ai sauté sur l'offre. Je suis partie pour Pinterest, où j'allais véritablement découvrir l'apprentissage automatique et les biais qui se glissent par inadvertance dans les systèmes algorithmiques, ainsi que leurs conséquences. Le travail que j'ai effectué chez Pinterest m'a fourni l'expérience dont j'ai eu besoin pour comprendre ce qui n'allait pas avec les systèmes de Facebook, et la confiance nécessaire pour tirer la sonnette d'alarme. (p. 171)

Puis elle découvre l'aspect juridique du point de vue des U.S.A.

[Suite à l'assassinat de Nohemi Gonzalez en novembre 2016 à Paris par un attentat islamiste, la famille attaque Youtube, utilisé par les islamistes et qui appartient à Google]. Au cœur de cette affaire se trouve l'article 230, une loi qui a joué un rôle central dans la naissance d'Internet. Adopté en 1996 dans le cadre du Communications Decency Act, …l'article 230 accorde l'immunité aux sociétés en ligne telles que Google, Facebook et Twitter pour les contenus qu'elles mettent à disposition sur leurs plateformes. […] Le fait que la Cour suprême se soit saisie de l'affaire est symptomatique de la manière dont l'article 230 se heurte à un monde radicalement différent de celui dans lequel il a été rédigé. Quand il a été rédigé, il n'existait pas de systèmes de recommandation. […] Le premier système de recommandation commerciale est apparu sur Amazon trois ans plus tard, en 1999, quand l'entreprise a commencé à suggérer des articles supplémentaires que vous pourriez aimer acheter en fonction de vos achats antérieurs. Facebook a lancé son flux algorithmique en 2011, et il a fallu attendre vingt ans après l'adoption de l'article 230 pour que Twitter lance son premier flux algorithmique. (pp.176‒177)

Et quand elle se met à améliorer les flux algorithmiques de Pinterest en offrant plus de variétés aux éléments “épinglés”, elle peut mesurer l'accroissement financier immédiat pour la firme

N'oubliez pas que, pour l'heure en tout cas, l'intelligence artificielle n'est pas intelligente. En intervenant pour augmenter la variété des flux d'accueil des utilisateurs, nous avons accru de 6% le nombre total de contenus consultés chaque jour. Sachant que Pinterest, comme Facebook, est une entreprise de publicité, l'augmentation de la consommation de 6% s'est traduite par une hausse des revenus de 2,5%. Sur une base annuelle de 700 millions de dollars, une augmentation de 2,5% se traduit par des sommes considérables. (p. 182)

L'expérience Facebook approche

Quand un recruteur de Facebook m'a envoyé un courriel à la fin de l'année 2018, l'image de marque de l'entreprise était déjà tellement ternie que quiconque dans la Silicon Valley disposant déjà d'une certaine ancienneté était sans cesse bombardé de messages de ce type de la part de Facebook. Cela se passait peu après que ses activités avaient été dénoncées par Christopher Wylie, un lanceur d'alerte qui accusait Facebook d'avoir laissé Cambridge Analytics subtiliser les données personnelles de millions d'utilisateurs, et même Mark Zuckerberg n'avait pu éviter de se retrouver devant le Congrès pour témoigner. Pour finir Facebook a révélé que 87 millions d'utilisateurs avaient été affectés. (p.185) [voir Interface_2020, ou Veilleur-2, Juillet 2021 pour le livre de Christopher Wylie].

Et l'Autrice commence à prendre de l'assurance sur base des expériences acquises

…j'avais le sentiment d'être une des rares personnes dans le secteur des nouvelles technologies à comprendre les tenants et aboutissants des logiciels des réseaux sociaux. Rares sont ceux qui ont travaillé sur les systèmes de recommandation qui guident l'attention de milliards de personnes dans le monde. J'avais passé des années à étudier comment une machine pouvait introduire des schémas indésirables afin d'atteindre ses objectifs commerciaux, sans se soucier des conséquences. Et j'avais déjà travaillé pour trois réseaux sociaux. Avais‒je l'obligation d'intervenir quand l'occasion se présentait?  […] Mon premier jour chez Facebook, le 10 juin 2019, a commencé 90 minutes avant l'heure prévue… (p.186‒187)

Quelque chose d'anormal déjà dans la structure de fonctionnement

Trois jours seulement après le début de ma formation, mon supérieur m'a demandé de la quitter et de préparer le plan de l'équipe pour les six mois à venir. Ce fut mon tout premier signal d'alarme, un indice que quelque chose n'allait pas du tout. Nous étions une équipe entièrement nouvelle: j'étais une nouvelle cheffe de produit, mon responsable de l'ingénierie avait rejoint l'entreprise six semaines plus tôt, et notre data scientist était nouveau aussi. […] Collectivement, nous ne savions pas grand‒chose, voire rien du tout, du fonctionnement des algorithmes de Facebook ou des causes de la désinformation au sein de ces systèmes. Pourtant on nous a annoncé que dans une dizaine de jours nous devrions faire face aux dirigeants de l'Integrity [section créée à son engagement] pour expliquer ce que nous avions l'intention de faire pour lutter contre la désinformation. (pp. 190‒191)
C'est pourquoi, après avoir supplié pendant des années l'équipe de base de la désinformation de dépasser le cadre de sa plateforme de vérification des faits par des tiers et de tenter de se concentrer sur comment la désinformation attisait des violences ethniques, elle a formé une nouvelle équipe – la nôtre: Civic Misinformation. Notre champ d'action était simple, mais d'une ampleur terrifiante: nous étions responsables de la désinformation partout où le programme de vérification des faits par des tiers ne fonctionnait pas, c'est-à-dire, dans la majeure partie du monde. (p.193)

L'Autrice explique alors que, pour ne pas devoir racheter précipitamment, comme elle avait du le faire pour YouTube et à des millions de dollars un concurrent potentiel, Facebook “dans les pays où la firme fonctionnait à perte seulement pour s'y implanter sans concurrence, Facebook a estimé qu'elle ne disposait pas du budget nécessaire pour garantir un niveau de sécurité minimal aux utilisateurs” …d'où une utilisation par l'armée au pouvoir en Birmanie pour décréter que les Rohingyas musulmans étaient à traiter comme des animaux et n'avaient pas leur place en Birmanie. Conséquence: plus 25.000 morts et l'exode de 700.000 Rohingyas!! (pp. 197‒198).

En 2019, Facebook et ses produits était le réseau social dominant dans tous les pays du monde, à l'exception de quelques-uns où ils étaient bannis, comme la Chine. TikTok largement considéré comme la plateforme la plus susceptible de remplacer Facebook, valide à bien des égards la stratégie d'expansion agressive de Facebook sur les marchés fragiles – il est né dans le seul endroit où Facebook n'était pas autorisé à venir jouer: la Chine. (pp. 199‒200)

Mais elle commence à être taraudée par le scrupule de garder pour elle le secret de malversations inconscientes mais réelles

Chaque fois que quelqu'un me posait la question [de mes intérêts professionnels], je ne pouvais éviter de me dire que je gardais un secret, ou plutôt des secrets, sur ce qui se passait dans les entrailles de Facebook. Des secrets sur le dysfonctionnement et l'impréparation, à la fois naturels et délibérés. Et que l'ampleur des problèmes était telle que je croyais que des gens allaient mourir (du moins dans certains pays), sans autre raison que l'augmentation des marges bénéficiaires. Comment pouvais-je aller à une fête et me contenter de répondre par un haussement d'épaules alors que je savais que notre démocratie se faisait empoisonner, peut‒être de manière irrémédiable? Je me sentais impuissante, incapable de faire quoi que ce soit qui puisse contribuer à éviter les scénarios catastrophe qui se profilaient à l'horizon. (pp. 224‒225)

Puis, il y a eu le Covid‒19

J'avais commencé à m'intéresser à ce nouveau virus respiratoire en provenance de Wuhan en chine, à partir du 21 janvier, date à laquelle le New York Times avait publié un article sur le premier cas découvert aux États‒Unis. […] J'avais entrevu que le Covid-19 causerait d'importantes perturbations, mais je n'aurais jamais pu imaginer ce qui allait se passer. Je n'imaginais pas qu'un virus respiratoire, si loin de Menlo Park, m'amènerait à partager avec le monde entier mes secrets sur Facebook. (p.229)

Et l'un des “biaisages” du type d'algorithmes proposés à des millions et milliards de personnes par Facebook est la création de “scrapers” [“racleurs”] faux humains en réseau

Si vous disposez d'un réseau automatisé assez important et capable de se faire passer pour un être humain, ces “personnes” peuvent intentionnellement “aimer”, suivre ou partager un post, créant ainsi la perception artificielle que le contenu est de grande qualité. Si vous voulez aller plus loin, vous pouvez faire en sorte que vos fausses personnes aient un comportement similaire à celui d'une population cible qui vous intéresse, comme les policiers, afin de tromper l'algorithme en lui faisant croire que ces derniers aiment certains types d'idées, ce qui accélère encore davantage la diffusion de vos idées dans la véritable communauté du maintien de l'ordre.
Et si votre réseau d'acquisition de données n'est pas constitué uniquement de personnes simulées? Et s'il s'agissait de personnes réelles, dotées d'un programme sur leur ordinateur ou leur téléphone qui les accompagnerait et dissimulerait le comportement intentionnel du propriétaire du réseau derrière le comportement organique des humains? (p. 254)

Le travail se structure chez Facebook: il s'agit de faire la chasse aux “acteurs nocifs”

J'ai fini par obtenir de l'équipe Threat Intelligence (Renseignement sur les menaces [on notera la traduction, pour une fois correcte, d'”intelligence” par “renseignement” dans ce contexte]) qu'elle confirme nos conclusions. Faisant partie d'une organisation appelée I3 (Integrity, Investigations and Intel – en note: intégrité, enquêtes et renseignement), ces chercheurs “étaient des spécialistes qui épluchaient les données de Facebook en quête d'acteurs nocifs. Nombre d'entre eux avaient travaillé pour le FBI, tandis que d'autres avaient été formés chez Facebook et s'étaient retrouvés dans l'équipe Threat Intelligence parce qu'elle accueillait ceux qui voulaient passer des journées entières à nettoyer manuellement les parties les plus délicates de la plateforme. J'ai donc rencontré des responsables de ce service et quelques membres des opérations d'information. Si ces réseaux basculaient de l'observation passive à l'influence active sur les utilisateurs de Facebook, les Opérations d'information seraient responsables de la menace. Ils m'ont écoutée attentivement et m'ont dit qu'ils allaient se pencher sur la question. (p. 262)

Et comment l'Autrice ressent-elle le poids de sa responsabilité pour oser, à un moment donné, mettre en cause son employeur?

Me fondant sur mon travail avec Civic Misinformation et les tendances claires entre le fonctionnement de Facebook dans certains endroits les plus fragiles du monde et ses taux de croissance, j'estimais qu'au moins 10 à 20 millions de vies étaient en jeu dans le monde entier. Je craignais que là où Facebook avait payé pour devenir le visage d'Internet sans assurer des systèmes de sécurité de base pour les langues parlées sur place, nous assistions à l'avenir à la répétition des violences horribles comme celles qui avaient eu lieu en Birmanie ou en Éthiopie. Le problème ne faisait que s'aggraver. (p.277)

Il faut se décider à témoigner

Pour réagir, elle s'associe avec un journaliste du Wall Street Journal, elle achète un ordinateur qu'elle ne relie pas à Internet sous son nom, mais sous un pseudonyme afin d'engranger des informations à communiquer, et elle prend contact avec des avocats pour connaître ses droits et voir jusqu'où il fallait qu'elle soit connue sous son vrai nom, etc

C'était parti. Je voulais que le monde sache ce que Facebook savait – que son réseau social propageait des informations nocives – et qu'elle ne faisait pas ce qu'il fallait pour l'en empêcher. (p. 287)
En février 2021, on avait l'impression que Facebook se précipitait pour rattraper son retard après les violences survenues au Capitole le 6 janvier. Les chercheurs avaient décortiqué le mouvement d'opposition qui avait contribué à fomenter cette attaque contre le Congrès, et il était clair, rétrospectivement, que les signaux d'alarme retentissaient depuis le début. Pourtant Facebook n'avait pas fait grand-chose jusqu'au 4 janvier 2021, deux jours seulement avant que le Congrès se réunisse pour décompter les voix des électeurs, date à laquelle l'IPOC (cellule de crise) a été créée. […] entre le 2 décembre, date de la dissolution de Civic Integrity [la “cellule” créée et développée par l'Autrice au sein de Google] , le 4 janvier, …personne n'avait été clairement chargé de suivre les conséquences de la présidentielle de 2020 et de veiller à ce que l'élection, relativement paisible, le reste. Les mesures de sécurité prévues pour le jour du scrutin avaient été désactivées… (p. 291)
Il y avait aussi les mesures de sécurité qui auraient eu un impact direct sur ce qui s'est passé quand la foule a pris d'assaut le Capitole. Le fil de vidéos en direct de Facebook par exemple a été utilisé par les meneurs de la foule pour coordonner les manifestants pendant qu'ils déferlaient sur le Congrès […] en traitant les vidéos en direct davantage comme des vidéos ordinaires, on n'aurait pas empêché le 6 janvier, mais il aurait été plus difficile pour les meneurs de coordonner ou d'inciter la foule à avancer en temps réel …des choix comme celui-ci démontrent que le classement de Facebook n'est pas objectif, mais plutôt organisé en fonction de décisions éditoriales, souvent destinées à servir des intérêts commerciaux, comme le désir d'assurer le succès d'un streaming en direct en tant que produit. (pp. 293‒294)
Facebook savait que ses algorithmes nuisaient au public et n'avait rien fait pour y remédier. C'étaient des sujets extrêmement complexes, multidimensionnels. Si je comptais faire des révélations extraordinaires sur les algorithmes qui conduisaient à la violence, il me fallait des preuves extraordinaires. Depuis la fin de mon séjour chez Google, …les gens ne m'avaient pas crue dans les moments importants: par conséquent, pourquoi ma parole suffirait-elle maintenant? J'ai pris donc soin de photographier tous les documents nécessaires pour étayer ce que je dirais plus tard devant la SEC et le Congrès. (p. 315)
Maintenant que j'avais une vision plus complète de la façon dont le fil de l'actualité de Facebook avait évolué au cours des cinq dernières années, je savais qu'il fallait que les gens comprennent comment un changement tel que les Interactions sociales significatives n'avait pas pu être maîtrisé. En 2017, ou peut-être plus tôt, l'équipe du fil d'actualité s'est rendu compte que les gens publiaient de moins en moins sur Facebook. Ils ont eu recours à toutes sortes de moyens pour inciter les gens à produire plus de contenus, mais rien n'a fonctionné, sauf le fait d'assurer aux utilisateurs plus de validations de la part de leurs amis sous la forme de “J'aime”, de commentaires et de partages. Une petite dose de dopamine sur Internet fait beaucoup de bien. Auparavant, le fil d'actualité était configuré pour optimiser le temps passé sur Facebook. Désormais, il était configuré pour offrir la plus grande diffusion aux contenus qui provoquaient le plus d'interactions. Du jour au lendemain, les taux de création de contenus ont été inversés. Donnez aux gens plus de commentaires et de pouces levés et ils donneront à Facebook plus de contenu gratuit pour vendre des publicités. (p. 316)
Facebook ne peut justifier l'extension de la couverture de systèmes tels que les classificateurs citoyens pour protéger les “plus petites langues”, du moins tels que ces systèmes sont actuellement conçus. […] Facebook pouvait justifier cet investissement pour une langue comptant un milliard de locuteurs, mais a choisi de ne pas le faire pour les langues comptant moins de 100 ou 200 millions de locuteurs. (p. 320)

Dénoncer publiquement

Et l'engagement dans des révélations à travers le Wall Street Journal et l'émission TV 60 minutes qui vont mener aux convocations au Congrès et à sa Commission spécialisée, se précisent

J'avais rendu publiques 20.000 pages de documents afin qu'il soit impossible de réfuter l'affaire. J'espérais qu'il y aurait des séances à huis clos pour aborder les questions plus complexes et expliquer l'importance de ces documents aux responsables gouvernementaux, mais je n'avais aucune envie d'endosser un rôle comme celui de lanceur d'alerte de Cambridge Analytica. J'étais une personne, pas un symbole ni une bête de foire! (pp. 325‒326)

Et, début octobre 2021, commence la publication, sur toute une semaine, des articles préparés par le journaliste Jef Horwitz avec Frances Haugen

Le Lundi, l'article détaillait l'hypocrisie de Facebook, qui insiste sur le fait que tous les utilisateurs sont traités de la même manière alors qu'elle laisse les célébrités s'exprimer en toute liberté. Le Mardi, “Facebook sait qu'Instagram est toxique pour les adolescentes – ses propres recherches révèlent une grave problème de santé mentale chez les adolescentes, que Facebook minimise en public”. Le Mercredi, “Facebook a essayé de faire de sa plateforme un endroit plus sain: elle est devenue encore plus toxique – des notes internes montrent comment un grand changement en 2018 a suscité l'indignation et que le PDG, Mark Zuckerberg, a rejeté les corrections suggérées”. Le Jeudi, l'accent a été mis sur l'international avec “les employés de Facebook signalent les cartels de la drogue et les trafiquants d'êtres humains. Des documents attestent la faible réaction de l'entreprise – les employés ont tiré la sonnette d'alarme sur la façon dont le site est utilisé dans les pays en développement, où sa base d'utilisateurs est déjà énorme et en pleine expansion”. Enfin, le Vendredi a été l'occasion de renouer avec un certain nombre de fils tissés au cours des jours: Comment Facebook a entravé les efforts de Mark Zuckerberg pour vacciner l'Amérique – des documents de l'entreprise montrent que des militants anti-vaccins ont sapé la volonté du PDG de soutenir le déploiement de la campagne vaccinale en inondant le site et en utilisant les outils de Facebook pour semer le doute sur le vaccin contre le Covid-19. (pp. 342‒343)

Et puis c'est le témoignage officiel devant la Commission du Congrès

La commission a siégé et la séance est passée en un clin d’œil. Les présidents on lu les déclarations liminaires, puis j'ai lu la mienne. Juste après, je suis directement entrée dans le vif du sujet: Je m'appelle Frances Haugen. J'ai travaillé chez Facebook, que j'ai intégré parce que je pense que Facebook a le potentiel de faire ressortir ce qu'il y a de meilleur en nous. Mais je suis ici aujourd'hui parce que je crois que les produits de Facebook nuisent aux enfants, attisent les divisions, affaiblissent notre démocratie, et bien plus encore. (p. 349)
La rencontre la plus intéressante a sans doute été celle avec un groupe de sénateurs républicains. Ils étaient sceptiques quant à la possibilité de faire quoi que ce soit. Dans leur esprit, il s'agissait d'un conflit tragique entre la liberté d'expression et la sécurité. Oui, les reportages étaient poignants. Oui, Facebook avait démontré qu'on ne pouvait pas lui faire confiance. Mais la censure, c'était aller trop loin. […] J'ai expliqué aux sénateurs qu'il existait de multiples façons de rendre les réseaux sociaux plus sûrs. En particulier …les réseaux sociaux peuvent être conçus pour être sûrs dès le départ, au lieu d'ajouter des systèmes de censure de contenus après les algorithmes et les choix de conception qui donnent la priorité aux contenus les plus extrêmes et les plus discordants […] Le vrai problème, ce sont les algorithmes hyperviraux et les systèmes de recommandation qui optimisent aveuglément leurs paramètres commerciaux au détriment de la sécurité publique. (pp.351‒352)

Vers un contrôle citoyen et donc juridique
Il manquait (… et manque toujours?) aux États-Unis un cadre juridique adapté aux nouvelles responsabilités civiques qu'appelle l'utilisation de ces nouvelles technologies directement branchées sur toute la société! L'Autrice s'en rend compte et fait un large hommage au travail déjà réalisé ou en cours sur ce point en Europe

Si les États‒Unis étaient soudain en train de prendre conscience de la réalité des opérations de Facebook, l'Europe avait déjà des années d'avance et avait commencé à discuter de la suite des événements. Après deux semaines chez moi, j'ai pris la direction du Royaume-Uni et de l'Europe pour une visite éclair à Londres, Lisbonne, Berlin, Bruxelles et Paris. Quelques jours après mon arrivée en Europe, Facebook a surpris tout le monde en abandonnant la raison sociale qu'il utilisait depuis dix‒sept ans et en se rebaptisant à la hâte Meta, proclamant haut et fort que l'avenir de l'entreprise se situerait dans le métaverse. C'était la première fois que l'entreprise reconnaissait qu'elle était en difficulté. (p. 355)

Et dans foulée de suicides d'adolescentes en Norvège en lien avec l'utilisation des réseaux dépendant de Facebook, elle constate

Les Européens se sont lassés des faibles tentatives (pour ne pas dire inexistantes) de Facebook pour assurer la sécurité de leurs citoyens et se sont entretenus pendant des années avec des universitaires et des chercheurs pour savoir ce qu'il convenait de faire. Quand j'ai atterri de l'autre côté de l'océan, ils avaient rédigé un projet de loi intitulée Digital Service Act (La Loi sur les services numériques). (pp. 356‒357)

Et comment voit‒elle la place et le rôle de ces “régulations”?

J'aime à considérer les lois telles que celle‒ci comme des équivalents des étiquettes nutritionnelles. Aux États-Unis, le gouvernement ne vous dit pas ce que vous pouvez mettre dans votre bouche à l'heure du dîner, mais il exige que les producteurs de denrées alimentaires vous fournissent des indications précises sur ce que vous mangez. Il ne peut y avoir de marché libre sans que les consommateurs disposent d'informations exactes sur les produits qu'ils utilisent. Si les plateformes savaient qu'elles doivent faire preuve d'honnêteté et de transparence avec leurs consommateurs à propos des risques liés à leurs produits, cela les forcerait à réfléchir soigneusement à ces risques avant de mettre leurs produits sur le marché. Ce modèle, qui met l'accent sur la conception plutôt que sur le discours, apparaît comme le meilleur moyen de contrôler ces entreprises… (p. 360)
Aujourd'hui, l'écosystème de la responsabilité des réseaux sociaux n'en est encore qu'à ses balbutiements. [Toujours la protection de la confidentialité, notamment chez Facebook] Facebook savait que, tant que le rideau restait tiré, tant que nous serions limités à ce que nous pouvions voir sur nos propres écrans, l'entreprise aurait le contrôle sur la narration de l'histoire du fonctionnement des plateformes. S'ils ne divulguaient pas les choix effectués, jamais nous ne pourrions demander quelles étaient les motivations ou les conséquences de ces choix, et Facebook serait en mesure de définir ce que signifie “réparer” tout dommage susceptible d'attirer l'attention. (p. 367)
Ce qui nous fait défaut, c'est la compréhension par le public ou même par les universitaires de la raison pour laquelle nous avons besoin de l'équivalent de ceintures de sécurité. Pour être clair, ce n'est pas seulement la faute de Facebook. Avant Facebook, il y avait Myspace et Friendster. Depuis vingt ans, les réseaux sociaux ont dissimulé des informations de base sur leurs systèmes afin que n'ayons pas d'autres choix que de leur faire confiance.
Les choses peuvent être différentes. La loi sur les services numériques du Parlement européen constitue un grand pas en avant. Elle reconnaît que nous ne savons pas encore quelles devraient être les règles du jeu, au‒delà d'une plus grande transparence. C'est également l'admission que nous avons besoin d'une relation autre, plus respectueuse, fondée sur la vérité, entre ces méga-plateformes et le public. Fondamentalement, cette loi tente de sensibiliser le public afin que nous puissions commencer à débattre de ce qu'il faudra faire par la suite. (pp. 368‒369)
Ce qui empêche de nombreuses personnes d'exiger des actes de la part d'entreprises de réseaux sociaux comme Facebook ou TikTok, c'est en partie le fait que jusqu'à l'adoption très récente de la loi sur les services numériques, les seuls gouvernements qui avaient pris des mesures pour demander des comptes aux grandes entreprises des nouvelles technologies étaient des régimes autoritaires comme la Chine. Il est difficile d'exiger un changement quand les exemples que l'on peut citer semblent valider la propagande de Facebook selon laquelle la sécurité ne peut se faire qu'au prix de la liberté d'expression. (p. 371)
[par exemple], la Chine a lié ses cartes d'identité nationales à tous les comptes de réseaux sociaux, de manière à pouvoir identifier avec fiabilité toute personne âgée de moins de dix-huit ans. [… existe-t-il des biais repérables et corrigibles sans nuire à la liberté d'expression?] Les deux facteurs majeurs, selon moi …sont l'utilisation involontaire et l'escalade algorithmique. L'utilisation involontaire ou non correspond à toute utilisation d'un produit numérique qui va au-delà de ce que vous souhaitez réellement. On pourrait parler d'utilisation regrettée. L'escalade algorithmique est le processus par lequel le système de recommandation vous pousse progressivement vers des informations plus extrêmes… elle se produit naturellement parce que les systèmes informatiques qui guident notre attention ne cherchent qu'à obtenir plus de clics de notre part, et nous sommes attirés par les contenus les plus extrêmes, même si nous ne les aimons pas consciemment. […] Ces deux phénomènes sont des sous-produits des modèles économiques des entreprises des réseaux sociaux. (pp. 372‒373)
Lorsqu'une plateforme de réseau social privilégie la durée pendant laquelle elle peut nous garder en ligne au lieu de la valeur nette de ce temps pour chacun d'entre nous, elle nous traite comme un moyen de parvenir à ses fins. Nous passons du statut d'êtres humains supportant des coûts réels à celui de simples vecteurs de profit. Et si nous exigions des entreprises des nouvelles technologies qu'elle démontrent qu'elles apprécient notre dignité en tant qu'êtres humains et qu'elles promeuvent notre autonomie, quand nous utilisons leurs services? En quoi ces produits seraient‒ils différents? (p. 376)

Et sa conclusion

Facebook n'a pas voulu croire que ses mensonges étaient un risque. Quand la vérité a éclaté, l'entreprise a perdu des utilisateurs et des annonceurs, et a dû augmenter considérablement ses dépenses dans le domaine de la sécurité. À deux reprises au cours des cinq dernières années, d'abord en 2018, puis en 2021, Facebook/Meta a établi le record de la plus forte chute de son action en une journée dans l'histoire des marchés boursiers. Ces dégringolades se sont produites quand la vision que l'entreprise veut donner d'elle-même s'est heurtée de plein fouet à la réalité. Il faut s'attendre à ce que ce phénomène se reproduise à l'avenir avec les entreprises opaques. Le mensonge est un passif. La vérité est le fondement de la réussite à long terme. (p. 377)

Ma conclusion

L'odyssée de Frances Haugen est significative du parcours et des modalités de développement de tous les “réseaux commerciaux” au-delà de l'ouverture, depuis 1992 seulement, de l'Internet au public le plus large afin de créer, au profit des États-Unis, les autoroutes de la culture électronique!
La “commercialisation” des potentialités offertes par ces autoroutes électroniques n'a pas du tout été contrôlée dès le départ, ni aux USA, ni ailleurs!
Et ce livre montre bien le caractère anarchique, “apprenti sorcier” et cherchant avant tout le “profit maximum” et “le plus immédiat” des initiatives les plus connues!

Peut-on espérer, grâce à la mise en place de réglementations (tardives et peu “universelles” comme le sont, par contre, les outils appelés “réseaux sociaux”) que cette puissance occulte ‒ (contrairement à ce qui est critiqué pour les versions “chinoises” de ces développements et qui ont une autre conception de la “transparence”!) ‒ puisse progressivement devenir un système de communication, de mémoire et d'éducation vraiment “citoyen” et “humain”?