Translate

jeudi 19 avril 2018

Les Crises.fr - La chute de la maison Zuckerberg, par François-Bernard Huyghe

https://www.les-crises.fr


                                 Les Crises


19.avril.2018 // Les Crises



La chute de la maison Zuckerberg, par François-Bernard Huyghe


Source : François-Bernard Huyghe, 11-04-2018
La chute de la maison Zucherberg ? Dans tous les cas, le patron de Facebook s’excuse à tout va ; non sans raison : il voit dévisser son action en bourse après l’affaire Cambridge Analytica et est malmené durant son audition sénatoriale. Il y a en réalité deux éléments hpratiquement liés mais intellectuellement distincts dans ce dossier : ce que Facebook fait de nos données et ce que nous font certains messages ciblés ; ce que la plateforme récolte et quel pouvoir de persuasion cela peut conférer, la fuite de nos secrets et le secret de notre manipulation.
Sur le premier thème, le patron de Facebook (FB) soutient une théorie du détournement et se raccroche à son principe de base : nous ne vendons pas vos données (que d’ailleurs vous nous avez autorisés à collecter dans les conditions en tout petits caractères), en revanche nous vendons des outils pour cibler plus finement un public. Donc si quelqu’un conserve ces données, ou bidouille son propre système de profilage psychologique et de messagerie ciblée, je n’y peux rien et ne puis me reprocher que ma naïveté. Et si des applications ayant accès à vos données Facebook (il y en a quand même quelques milliers !) en font mauvais usage, nous sommes désolés et nous allons corriger.
Pour la petite histoire, rappellons ce que FB sait sur vous, comme vous pouvez le vérifier vous-même :
tout message que vous avez envoyé ou recu,
tout document, tous les contacts de votre téléphone et les message audios,
tout ce que FB pense pouvoir vous intéresser (sur la base de ce que vous avez aimé ou ocnsulté, tout ce dont vous parlez avec vos amis (et, bien sûr, qui ils sont et quel est leur profil),
toutes les périodes où vous vous êtes connecté
et toutes les applications auxquelles vous vous ête connecté sur FB.
Tout ceci est sensé obéir à ce que nous appellerons le cycle de la prévision :
– plus nous aimons FB, l’utilisons longtemps et nous connectons à des gens qui nous ressemblent ou nous plaisent, plus nous engendrons de données qui nous (et les) caractérisent
– mieux nous sommes profilés et plus nous sommes susceptibles de recevoir des informations ou des propositions (commerciales) qui nous plaisent
– plus nous sommes satisfaits, plus nous disons que nous avons raison de penser ce que nous pensons et d’aimer ce que nous aimons, plus nous avons de motifs d’utiliser FB, c’est ce qu’il appelle « multiplier l’engagement », donc plus notre vie, etc.
– plus les corrélations portent sur des chiffres astronomiques de connexions, mieux les algorithmes nous « prédisent », c’est-à-dire annoncent ce qui nous plaira le mieux à tel moment et sera le plus susceptible de nous plaire, plus cela nous plaît et ainsi de suite.
S’ajoute un autre cycle : plus FB fait de profits et s’étend à plus de deux milliards d’être humains, plus nous avons de raisons de l’utlliser et d’engendrer du profit pour FB, plus il est difficile de ne pas rejoindre les deux milliards d’êtres humains qui participent aux systèmes et fournissent leurs données, etc.
La question de la vie privée et de la rétention des données (qui sont en quelque sorte un pouvoir virtuel sur nous) est donc à deux étages. Il y a ce qu’en fait FB et ce qu’en font – peut-être illégalement -des sociétés qui ne font qu’imiter le principe ou ce qu’en feraient des services d’État qui auraient accès à ce pactole. Mais dans tous les cas, c’est le principe même de FB – nous stimuler pour nous profiler et vice-versa- dont tout découle
Zuckerberg joue assez habilement en passant d’un plan à l’autre et en mêlant la question de la possession des données à celle du message qui nous est adressé. Ou plus exactement la question de l’adéquation d’un message, éventuellement manipulateur, mensonger, inauthentique, etc.. par rapport à nos attentes ainsi décelées.
Ainsi Zuckerberg vient de proclamer des mesures :
– les annonces « politiques » ou idéologiques (au sens de : portant sur des sujets controversés, et avec toutes les ambiguïtés que de telles catégories comportent) devront être clairement identifiées et a fotiori qui est l’annonceur : les comptes devront faire connaître leur localisation (suivez mon regard) et qui les finance
– les « personnes gérant des pages possédant un grand nombre d’abonnés », donc susceptibles d’être des désinformateurs influents, devront se soumettre aux mêmes obligations.
Traduction : nous ne ferons plus avoir par les Russes que nous avons été trop lents à identifier.
Ces mesures dites de transparence (on doit savoir qui paie pour quoi et qui est au service de qui) vont de pair avec des initiatives plus énergiques de quasi censure. Elles visent à contrôler les contenus et plus seulement à dévoiler les émetteurs suspects : Zuckerberg se vante d’avoir déployé des outils d’intelligence artificielle qui ont supprimé des dizaines de milliers de comptes répandant des fausses nouvelles et d’engager encore des milliers de modérateurs. Son argument est, qu’après l’interférence russe dans l’élection de Trump, Facebook a pris des mesures de suppression efficaces pour les élections française et d’autres. Donc tout s’arrange ou s’arrangera bientôt. Du reste, Facebook avait confessé avoir accueilli sans méfiance 3.000 comptes « russes » pour un budget de 100.000 dollars, leur donnant ainsi l’occasion de répandre leur propagande anti Clinton, oubliant simplement de signaler que cette erreur confessée représentait 0,1% des revenus publicitaires quotidiens de Facebook et que l’impact par rapport à des millions d’autres messages avait été nul.
La rhétorique est habile dans la mesure où, en désignant des méchants manipulateurs, évidemment russes, Facebook ne confesse qu’une naïveté excessive. Comme le dit Zuckerberg, il n’avait « pas assez fait pour empêcher ces outils d’être employés de façon malintentionnée » et la compagnie promet revenir à sa vocation première de relier les gens. Cela allait dans le même sens que l’annonce par Zuckerberg qu’il laisserait une plus grande place aux informations venant de nos proches qu’à celles poussées par les médias ou que l’initiative permettant aux internautes mieux signaler les informations fausses ou choquantes.
L’argument porte donc sur l’élimination – ou la dénonciation – de messages ayant un mauvais effet sur d’innocents internautes. Il y aurait beaucoup à dire sur cet effet supposé : s’il est indéniable qu’il existe beaucoup de messages trompeurs, manipulateurs ou suspects, beaucoup de fausses identités, etc., il resterait encore à expliquer pourquoi le mauvais contenu aurait un effet tellement plus terrifiant que les contenus authentiques, infinniment plus nombreux, et pourquoi la dénonciation des faux ou des propos de haine, immédiatement signalés et stigmatisés, serait si inefficace.
Surtout, cette affaire de mauvaise influence ou de désinformation, nous détourne du principal : le fait que Facebook est précisément conçu pour nous faire produire de plus en plus de données révélatrices (sur notre personnalité, nos désirs, nos habitudes, nos liens sociaux…) et pour les utiliser afin de nous persuader que le produit X, le vote Y ou le document Z correspondent parfaitement à nos attentes secrètes.
Là encore la question de savoir si l’on peut nous tromper par de fausses nouvelles, de fausses identités, de fausses communautés… (et dont la réponse est évidemment oui) est distincte de celle du pouvoir intrinsèque de ces propositions ciblées.
Il n’y a pas de moyen scientifique d’isoler cette variable et d’en mesurer l’effet notamment sur un vote démocratique.
En fait, nous ne sommes pas soumis à un message X qui fait l’effet Y sur notre cerveau (voter Machin ou Truc), confronté à des messages inverses, nous sommes soumis à une triple logique :
– celle, héritée des mass médias, d’une rhétorique persuasive, concontée par des professionnels et qui touche des masses plus ou moins indistinctes de haut en bas
– celle des réseaux, où chacun peut participer et s’exprimer, mais tend aussi à s’accorder avec les membres de sa communauté, quite à adopter leur vision de la réalité et à renforcer ses propres préconceptions
– la logique des algorithmes qui essaient éventuellement de nous surexposer aux messages persuasifs du premier type, mais en les faisant apparaître comme spontanément, répondant à nos besoins et à nos attentes secrètes.
Ce qui veut dire, en clair, que nous ne sommes plus dans l’ancienne configuration où il fallait éduquer le peuple à décoder les messages venus d’en haut (la « guérilla sémiologique » préconisée par U. Eco) pour ne pas être dupes. Mais il va aussi falloir enseigner au citoyen à se prémunir de ce qui semble venir de nos semblables ou de nous-mêmes.
Source : François-Bernard Huyghe, 11-04-2018

Aucun commentaire:

Enregistrer un commentaire