Facebook et la crise des élites
Tocqueville avait raison : les États-Unis donneraient le pouvoir à l’opinion. Facebook connecte chacun à ses proches, mais les réseaux sociaux renforcent le cloisonnement de la société. Si des milliers de personnes font circuler des polémiques, le succès d’audience renforce les peurs et la vindicte. L’élection de Trump révèle un fait d’éditorialisation que masquait l’euphorie des promoteurs de Facebook. Faute d’un cadre approprié pour une conversation démocratique, l’entre-soi des réseaux personnels caricature la vie sociale. Facebook commence juste à réagir. Pour éviter de devenir Fakebook, il doit combiner la liberté d’expression à des dispositifs éditoriaux professionnels et stimuler les initiatives civiques. Et assumer des responsabilités qu’il a voulu ignorer.
Pour Raphaël, In Memoriam
« L’Internet nous a fait découvrir le pouvoir des rédacteurs en chef, qui peuvent décider si ce que vous dites est vrai »
Lawrence Lessig
Selon Bauman ou Sloterdijk, le concept de société est inutile : dans l’univers liquide des bulles, chacun sélectionne ce qui lui convient ou lui déplaît (touche « Delete) »). Souverainement. La naïveté de Zuckerberg est de croire à l’innocence des réseaux. La réalité est celle décrite par Nassim Nicholas Taleb : à tout moment, un événement hautement improbable peut renverser nos convictions. Nous devons nous préparer à l’événement statistiquement imprévisible. Une enquête indique que les fake news furent le cygne noir des élections américaines. A l’automne 2016, les intox furent davantage partagées que les infos.1
Mais Facebook doit-il aller contre ses membres ? C’est une plateforme, pas un éditeur ? Plus de trafic, c’est plus de publicité. Un public plus influençable est même meilleur pour certains annonceurs. Facebook abrite deux milliards de comptes actifs, sa valorisation atteint 500 milliards, en hausse de 40 % en 2017. Quelle était la question ?
Zuckerberg s’engage contre toute discrimination après les événements de Charlottesville. Mais la voie est libre pour la diffusion incontrôlée des rumeurs sectaires sur un réseau ouvert. Techniquement comme juridiquement, comment restaurer une démocratie représentative face au populisme ? La liberté d’opinion est protégée par le Premier Amendement de la Constitution américaine, personne ne souhaite donner à Facebook une mission de censure universelle.
Cette crise rend visible la crise de la lecture et des médiations sociales (journaux) : le papier ou l’écran d’ordinateur font place au smartphone devenu le trou de serrure par où chacun recherche des sensations fugaces et peu avouables. La supériorité du smartphone sur l’ancien ragot malveillant tient à la possibilité de partager ces ragots avec une multitude d’inconnus. Ces appareils sont conçus pour cela ! Comment les contrôler après les avoir diffusés à des milliards d’exemplaires ? La révolte vertueuse contre les fake news relève de la défense des élites et pose une question politique qui n’est pas près d’être résolue malgré le discours bon enfant de Mark Zuckerberg.
Le commerce ou la politique par d’autres moyens
La mise à disposition de moteurs de fiabilité associés aux moteurs de recherche est cruciale. La course aux investissements est ouverte : l’initiative de George Soros et Pierre Omidyar dont le Guardian a testé la version bêta fait partie du lot. Elle doit aider à contrôler les politiciens en anglais, en espagnol et en français par le truchement d’ONG basées à Londres et couvrant aussi l’Amérique latine et l’Afrique.2
Il s’agit de corréler en temps réel le sous-titrage des vidéos à des bases documentaires par des liens vers des bases statistiques fiables qui valideront ou contesteront les faits évoqués par des politiciens. Ce aidera des journalistes qui manquent souvent de références. A terme, pourquoi pas des infobulles qui se déclenchent sur les pages de Facebook ou Twitter?
Les initiatives se multiplient. En mars, Tim Berners-Lee, créateur de l’internet, conseillait de travailler avec les plus grandes entreprises. Nous ne maîtrisons plus nos données personnelles, nous sommes pris dans des bulles de désinformation et de dogmatisme, disait-il : « Les campagnes électorales élaborent désormais des messages publicitaires personnels présentés directement à chaque utilisateur. Durant l’élection américaine de 2016, jusqu’à 50 000 variantes de messages publicitaires étaient présentées chaque jour sur Facebook, une situation presque impossible à surveiller [alors qu’elle permet de] diriger des internautes vers des sites de fausses informations, par exemple, ou d’en dissuader d’autres d’aller voter. La publicité politique ciblée permet à une même campagne de présenter des messages radicalement différents, voire contradictoires, à différents groupes de personnes. Est-ce démocratique ? Nous devons travailler de concert avec les grands groupes du Web pour trouver un équilibre qui rende aux personnes un juste niveau de contrôle sur leurs données, y compris pour développer de nouveaux outils technologiques, comme des Data pods [Personnal Online Data Stores, « coffre-fort numérique »] si besoin est, et pour rechercher de nouvelles sources de revenus, comme les abonnements payants et les micropaiements. […] Nous devons contrer la désinformation en aidant les points d’entrée sur le Web que sont Google et Facebook à poursuivre leurs efforts pour résoudre ce problème, tout en évitant de créer une institution centrale qui déciderait de ce qui est « vrai » ou non ». 3Les grandes organisations s’y mettent : Mozilla l’a fait en août. 4
En février, Jimmy Wales (Wikipedia) recommandait en février aux réseaux sociaux de se contraindre à diffuser des points de vue nettement plus diversifiés que ce qu’ils font : « What’s needed is human solutions that rely not just on third-party fact-checking bots but on the power of collaboration. We need people from across the political spectrum to help identify bogus websites and point out fake news. New systems must be developed to empower individuals and communities – whether as volunteers, paid staff or both. To tap into this power, we need openness. […] If there is any kryptonite to false information, it’s transparency. Technology platforms can choose to expose more information about the content people are seeing, and why they’re seeing it. We need this visibility because it sheds light on the process and origins of information and creates a structure for accountability. We need online spaces for open dialogue across a variety of viewpoints. ».5
En France, Le Monde établit une échelle de fiabilité des sites.6La presse internationale veut accréditer son sérieux et se rendre indispensable… à Facebook !7Et Facebook doit maintenir sa crédibilité vis à vis du grand public et des investisseurs. Le commerce est, comme la guerre selon Clausewitz, de la politique par d’autres moyens.
Des orientations contradictoires
La pression monte donc contre Facebook de la part de la société civile et des associations démocratiques. Cet establishment est bien celui que l’électorat de Trump vomit. Un an après la campagne victorieuse de Trump, les enquêtes sur ses liens avec la Russie et sur son entourage indiquent que cette guerre civile par médias interposés se poursuit. « A great deal of what investigators need to know about how Russia pulled it off sites locked inside Facebook’s servers. […] “It’s not in Facebook’s best interest to acknowledge the fact that they have been used like this,” Kellermann8told VICE News. “Facebook is so profitable because of the marketing aspects of the platform. And that marketing engine, that footprint, and the implicit trust that people place in them, it was essentially used against the American marketplace.”[…] The company has thus far declined to share broad data about the customers who use its advertising tools, making it difficult for investigators to learn how the cyberoperations were executed across Facebook. »9
Les directeurs du programme Cyberpropagande (Computational Propaganda Project), Howard et Gorwa, demandent l’ouverture des métadonnées de Facebook : « Their data scientists could probably provide some insights that the intelligence services cannot. »10 Facebook minore sa responsabilité éditoriale et le Washington Post écrit : « The social media services must adjust to the reality that they now are news media outlets to some extent; that means relying more on human editors to weed out the fake news. ».11Les journaux négocient avec Google et Facebook qui compensent le transfert de la publicité depuis les sites de presse vers leurs plateformes. Ces géants leur demandent maintenant de les aider à débusquer les fausses informations qu’ils abritent. Le même jour, Mark Zuckerberg écrit : « We do not want to be arbiters of truth ourselves, but instead rely on our community and trusted third parties. […] The most important thing we can do is improve our ability to classify misinformation. » 12 Facebook détectera et signalera les pages suspectes, leur ajoutera des liens de meilleure qualité et s’appuiera sur des tiers comme Snopes, une ONG active dans la détection des intox numériques. Et Facebook n’acceptera pas les budgets publicitaires de qui serait lié à ces fausses nouvelles. Des milliers de faux comptes ont été fermés en France, les articles liés existent aux USA, en Allemagne, en France, aux Pays-Bas… Cependant, le rythme des événements s’impose et Zuckerberg est contraint à s’engager davantage. Après Charlottesville, la suppression de pages de sites Daily Stormer ou de Chris Cantwell sur Twitter, Facebook ou YouTube pointe les contradictions de prestataires de service qui veulent éviter toute ingérence, mais réagissent aux demandes de leur public et des investisseurs. Facebook deviendrait-il un éditeur ?
A l’usage des critiques, Mark Zuckerberg publie en février 2017 « Building Global Community ».13C’est une diversion idéologique pendant que le NASDAQ parie sur les résultats financiers : la croissance est énorme, deux milliards de comptes actifs en juin, Facebook augmente de 25 % ses tarifs publicitaires, le retour sur investissement s’élève à 45 % ! Encore un peu et la société sera la plus puissante de la planète. La confiance des investisseurs pèse bien plus que celle des critiques : marquer des pages n’a guère d’effet sur les extrémistes, les mêmes documents circulent ailleurs sans marquage… Qui, parmi des lecteurs crédules et pressés prendra le temps de lire des articles liés à côté des intox ? Facebook veut éviter tout rôle éditorial qui le rendrait responsable des contenus qui circulent. Seul ce qui est illégal partout et clairement destiné à nuire en travestissant des faits incontestables sera filtré. Et encore, si cela choque d’autres communautés Facebook – qui restera le reflet des croyances et des préjugés. Mais alors, à quoi bon établir des principes bien pensants pour les communautés organisées ? C’est d’autant plus étonnant que ces principes sont à l’opposé des pratiques boursières de l’entreprise : d’un côté, on fonce, de l’autre on pose des principes nostalgiques, voire réactionnaires …
Building Global Community 14 expose que Facebook servira les groupes structurés en leur adressant des informations susceptibles de les intéresser. Chacun verra ce qu’il recherche. N’est-ce pas contradictoire avec la promotion des articles liés ? Cet univers segmenté est au plus loin de la neutralité du net. Qui paiera pour être promu fera la fortune de Facebook en même temps que la sienne en flattant chacun selon ses orientations. Facebook ou Google ont constitué des agrégateurs de contenus si puissants que la simple navigation accompagnée de publicité et de données personnelles crée des plus-values extraordinaires. Face à cet effet de réseau, les communs numériques disparaissent : couvrant mal leurs coûts, ils distribuent des ressources patrimoniales sans intérêt commercial, comme dans le cas de Wikipedia ou des bibliothèques publiques. L’idéalisme humaniste a perdu la partie : quelques grands journaux et maisons d’édition résistent, mais cela n’est plus à l’échelle. Facebook veut mettre en valeur les documents réellement lus par rapport à ceux qui sont partagés instantanément au vu du titre ou de mots-clés. Ce critère permet-il de connaître la proportion de lecteurs sur Facebook ? D’éliminer les bots et les comptes programmés pour rediffuser automatiquement des contenus ?
Accélerationnisme versus représentation
Selon Zuckerberg, après les tribus, les cités antiques, puis les démocraties… il y a maintenant la Communauté Facebook. Cela renvoie au paradigme accélérationniste développé par Nick Land. Les fake news sont un produit du capitalisme exacerbé pour qui la vitesse de réalisation est le seul principe : Trump et Facebook sont contemporains : l’idéologie traditionaliste de Zuckerberg dans sa vision passéiste de la community le démontre. « Accelerationists argue that technology, particularly computer technology, and capitalism, particularly the most aggressive, global variety, should be massively sped up and intensified – either because this is the best way forward for humanity, or because there is no alternative. Accelerationists favour automation. They favour the further merging of the digital and the human. They often favour the deregulation of business, and drastically scaled-back government. They believe that people should stop deluding themselves that economic and technological progress can be controlled. They often believe that social and political upheaval has a value in itself. […] “We all live in an operating system set up by the accelerating triad of war, capitalism and emergent AI,” says Steve Goodman, a British accelerationist. “Like it or not,” argues Steven Shaviro, in his 2015 book on the movement, No Speed Limit, “we are all accelerationists now.” “In Silicon Valley,” says Fred Turner, a leading historian of America’s digital industries, “accelerationism is part of a whole movement which is saying, we don’t need [conventional] politics any more, we can get rid of ‘left’ and ‘right’, if we just get technology right. Accelerationism also fits with how electronic devices are marketed – the promise that, finally, they will help us leave the material world, all the mess of the physical, far behind.” » 15
Quelques extraits pertinents du Manifeste accélérationniste : “Platforms are the infrastructure of global society. They establish the basic parameters of what is possible, both behaviourally and ideologically. In this sense, they embody the material transcendental of society: they are what make possible particular sets of actions, relationships, and powers. While much of the current global platform is biased towards capitalist social relations, this is not an inevitable necessity. These material platforms of production, finance, logistics, and consumption can and will be reprogrammed and reformatted towards post-capitalist ends. We need to posit a collectively controlled legitimate vertical authority in addition to distributed horizontal forms of sociality, to avoid becoming the slaves of either a tyrannical totalitarian centralism or a capricious emergent order beyond our control. The command of The Plan must be married to the improvised order of The Network.”16
Cela est en passe d’être fait par Facebook ! Facebook est un service public contrôlé par son conseil d’administration, qui prélève une sorte d’impôt sur l’économie des services marchands partout où il déploie ses « communautés » et vend des espaces publicitaires. Mais il reste des bugs. Au moment où la campagne américaine battait son plein, Facebook censure une photo couronnée d’un prix Pulitzer montrant des enfants en guenilles, dont une fillette sans vêtements, marchant sur une route et accompagnés de soldats américains pendant la guerre du Vietnam.17Le norvégien ayant posté la photo vit son compte bloqué, Facebook supprime les pages de journaux qui l’ont republiée : le gouvernement norvégien proteste et Facebook s’excuse. Cette photo, tout comme le tableau de Picasso Guernica ou des gravures de Goya, entendait faire voir au monde la cruauté gratuite. Elle a sensibilisé l’opinion occidentale : la rejeter, c’est appuyer les extrémistes qui conspuent le journalisme.
Les questions éditoriales priment sur les règles de décence, et l’histoire est faite de documents relatant des faits horribles. Doit-on les censurer ? Incapable de distinguer le sens de chaque post sur ses réseaux, Facebook est piégé : comment garantir simultanément la liberté du partage, le contrôle des abus, et la liberté d’expression ? Facebook filtre au Pakistan, en Turquie, en Russie – est-il plus simple de s’abriter derrière des règles de censure que d’assumer une responsabilité démocratique ? Avec la liberté d’expression et d’opinion viennent les débats et les effets de bulles, apparaissent des cygnes noirs. Le hiatus entre le Premier Amendement de la Constitution américaine et l’action pour l’inclusion et la citoyenneté est de nature éditoriale. Selon Lawrence Lessig : « les algorithmes qui alimentent les gens en informations sur les plateformes comme Facebook, produisent de plus en plus un monde dans lequel chacun vit dans sa propre bulle d’information. Or dans ce monde-là, l’idée même d’une action politique orientée vers l’intérêt général est presque impossible. Nous ne savons pas comment construire un espace dans lequel les gens pourraient discuter des mêmes questions politiques, à partir d’un cadre commun et d’une compréhension partagée des faits. […] Laisser les gens vivre dans un monde où les seules idées et paroles qu’ils reçoivent sont celles qu’ils veulent, c’est détruire la base de l’engagement démocratique. Quand Facebook ne veut pas que quelque chose soit publié, ils disent juste : “c’est notre plateforme, privée”. Mais l’idée d’une plateforme privée quand des millions de personnes sont dessus est assez folle. Nous devons réfléchir à cela : comment créer les standards et les valeurs qui devraient gouverner un monde possédé par des entreprises privées ? Nous sommes désormais soumis à de très nombreux souverains : non plus seulement à l’État et aux gouvernement fédéraux, mais aussi au règne de Facebook, Google, Twitter, Microsoft. Cela réclame de réfléchir sérieusement aux valeurs publiques que nous perdons quand nous abandonnons aux entreprises privées le contrôle du cyberespace. Et aujourd’hui, on n’a pas du tout le sentiment que les valeurs constitutionnelles vont s’imposer à la manière dont le cyberespace se développe. »18
Facebook répond : il faut accepter des règles des dimensions moins protectrices dans le traitement des images et des discours. Allons vers un « contrôle personnel de notre présence en ligne » (a system of personal control over our experience ) en activant librement diverses options en fonction des contenus désirés ou écartés par chacun. Ces constats sont le nouvel horizon de Facebook, ouvert à « davantage de contenus informatifs de qualité et de contenus historiques » (newsworthy & historical content ).19
Est-ce un début de prise de contrôle par les usagers sur le service ? On rêverait de trouver un soutien non pas seulement de ce qu’une majorité pourrait accepter, mais bien de ce que des minorités exigent et doivent obtenir. Il y a actuellement tant d’aléa dans les liens promus ou supprimés par les algorithmes que les standards actuels de la « community governance » semblent incapables de s’adapter. On peut faire varier les normes selon la géolocalisation des usagers et d’options pour élargir les critères éditoriaux ; mais cette approche balance entre (1) une simple sérendipité des liens, (2) une distribution liée à des contrats promotionnels et (3) la constitution d’une bulle par chacun des usagers. Facebook cessera-t-il de censurer des œuvres d’art parfois choquantes qui participent de la culture mondiale ? D’images au fort symbolisme historique, mais violentes ? Mais comment gérer la propagande extrémiste et les provocations intentionnelles ? Les pires horreurs se produisent dans le monde, faut-il les montrer et peut-on le faire sans faire des choix éditoriaux ? Les médias actuels recouvrent la violence du monde d’un voile fait d’actualités sportives ou people qui sont en elles-mêmes des manipulations du public. Ces diversions sont des fake news by design : elles appuient les injustices et la destruction planétaire. Une entreprise mondiale de communication basée en Californie au temps de Donald Trump ne peut éviter ces débats. Comment affronter la crise éditoriale de Facebook ?20Repérer les pages faisant l’apologie d’une activité délictueuse et les distinguer de sites présentant des documents comparables ou identiques dans le but de les dénoncer est complexe : Facebook sera l’arbitre absolu de toutes les opinions sur tous les sujets !
Les pratiques éditoriales laxistes de Facebook
Les déclarations sont toujours positives : « Zuckerberg said: “Over the next year, we’ll be adding 3,000 people to our community operations team around the world – on top of the 4,500 we have today – to review the millions of reports we get every week, and improve the process for doing it quickly. “If we’re going to build a safe community, we need to respond quickly. We’re working to make these videos easier to report so we can take the right action sooner – whether that’s responding quickly when someone needs help or taking a post down.” »21
Mais en pratique « the content moderator [en langage Facebook “community operations analysts”] said he wasn’t given any mandatory counseling, although his company offered mindfulness sessions every few months and there was access to a counsellor on request. However, he said the contracted workforce, many of whom were recent immigrants with limited English skills and who were hired to work in their native language, would choose to seek psychological help in their personal time rather than asking for help internally for fear of losing their jobs or being sent home without pay. »22
Zuckerberg s’exprime : « While we don’t write the news stories you read and share, we also recognize we’re more than just a distributor of news. We’re a new kind of platform for public discourse – and that means we have a new kind of responsibility to enable people to have the most meaningful conversations, and to build a space where people can be informed. » The fact-checking announcement is a turnaround from 12 November, just days after Donald Trump won the election, when Zuckerberg said of Facebook: “I believe we must be extremely cautious about becoming arbiters of truth ourselves.” » Ces hésitations disent l’impasse : Facebook est incapable de contrôler ses propres pages. Le débat sur l’éditorialisation de Facebook ne fait que commencer.
Les entreprises qui travaillent pour Facebook doutent : « Aaron Sharockman, the executive director of PolitiFact, the Pulitzer Prize-winning site that is also fact-checking for Facebook, said that by the time his reporters debunk an article, it could have been up for several days to a week or more, meaning the effect of the flag may be limited. “We don’t have a great sense of the impact we’re having,” he said, adding “We haven’t seen anything from Facebook.”»23
Les documents dont disposent les réviseurs de Facebook révèlent un laxisme volontaire.24
25digne d’une de ces « compagnies de marchands » accusées au 18e siècle par Adam Smith de se comporter en quasi-souverains sans considérer l’intérêt général. Submergé par l’océan des données qui transitent sur ses serveurs, Facebook ne voit ni n’analyse tous les matériaux et les liens. Si même c’était possible, le discernement requis et les algorithmes indispensables feraient défaut. Or, depuis toujours, les institutions dépendent des rumeurs. Ces questions avaient été traitées par les radios et la télévision : une erreur en grande diffusion ne se rattrape pas, et les rédactions présentent divers points de vue, ce que les réseaux sociaux ne font pas. Les renvois de site en site « valident » un signal et conditionnent un comportement. C’est la base de la publicité. Les populismes et l’obscurantisme profitent de ce que les pensées plus élaborées et nuancées sont plus complexes. Simplicité, ignorance et mépris vont de pair, et les peurs exagérées font le jeu des extrêmes. Les réseaux sociaux ne se plieront qu’aux pratiques légales : « Facebook will only hide or remove Holocaust denial content in four countries – France, Germany, Israel and Austria. The document says this is not on grounds of taste, but because the company fears it might get sued. “We believe our geo-blocking policy balances our belief in free expression with the practical need to respect local laws in certain sovereign nations in order to remain unblocked and avoid legal liability. 26Dès lors « The reports suggested an apparent disinterest from the social media firms in how their networks were being used. Facebook, for instance, leaves most of its anti-propaganda work to external organisations such as Snopes and the Associated Press, who […] seem less able or willing to take down automated accounts engaging in political activity. The researchers did find one country to be significantly different to the others. In Germany, fear of online destabilisation outpaced the actual arrival of automated political attacks and has led to the proposal and implementation of world-leading laws requiring social networks to take responsibility for what gets posted on their sites. »27
« Computational propaganda is now one of the most powerful tools against democracy. Social media firms may not be creating this nasty content, but they are the platform for it. They need to significantly redesign themselves if democracy is going to survive social media. » 28
Défaire la bulle
S’adressant particulièrement au public européen choqué par les filtrages de Facebook et s’oppose à la censure en général, Mark Zuckerberg indique que des standards régionaux accepteront des normes plus ouvertes si elles ne font pas polémique. La segmentation du public en communautés qui s’ignorent entre elles est au coeuor d’une stratégie qui combine ciblage publicitaire et personnalisation des réglages.
Mais comment ouvrir le spectre des documents et contrôler la radicalisation des échanges en ligne ? « Our approach will focus less on banning misinformation, and more on surfacing additional perspectives and information, including that fact checkers dispute an item’s accuracy. While we have more work to do on information diversity and misinformation, I am even more focused on the impact of sensationalism and polarization, and the idea of building common understanding. Social media is a short-form medium where resonant messages get amplified many times. This rewards simplicity and discourages nuance. » Un algorithme de classement expose aussi une vision du monde incorporée, c’est une éditorialisation des boucles informationnelles dont il y a besoin. L’idée de pluralisme bridé est incohérente : il faudrait connaître le nombre de partages de chaque lien et comptes pour relativiser certaines pages ou alerter sur les intox dangereuses. Parfois Facebook indiquerait tel ou tel document indexé, mais rejeté « hors-Facebook ».
Quels dialogues sur les réseaux sociaux : Fakebook ou meaningful groups?
Zuckerberg prétend associer le modèle de la télévision généraliste avec les mouvements civiques. Il cite la place Tahrir ou le Tea Party. Mais, face à une situation insurrectionnelle survenant dans une dictature mieux préparée que la Tunisie sous Ben Ali, les accès numériques seraient rapidement bloqués. Et la Place Tahrir symbolise aussi la liberté bafouée en Égypte, pays où Facebook se soumet au contrôle du pouvoir. Facebook est régulièrement accusé de se préparer à se plier aux exigences chinoises de censure. 29
Le projet de Facebook reprend plus ou moins la pyramide de Maslow : agir dans les champs de la sécurité physique et de la santé sera la base, l’étage intermédiaire est l’appui donné à une information crédible. Et l’horizon serait celui d’un meilleure inclusion dans une communauté globale. Est-ce crédible ? Des amis de longue date qui vivent sous l’influence des informations diffusées soit en Russie, soit en Ukraine se sont opposés sur Facebook et ont rompu leurs liens. Les chercheurs d’Oxford considèrent que l’Ukraine a servi de terrain expérimental pour la stratégie russe. Quelles confrontation démocratique entre points de vue divergents ?
Si Facebook devient par nécessité un organisme de contrôle, il ne pourra guère servir les meaningful groups critiques et caustiques, moins consensuels et plus ironiques ou créatifs. Facebook est lié à l’ordre dominant. Après la novlangue associée aux totalitarismes étatiques, voici une nouvelle forme de confrontation où les protagonistes ne se rencontrent jamais. Chacun est seul dans une voiture, mais des bribes de pensées sont accessibles aux autres. Les discussions n’ont plus cours qu’à travers des commentaires indirects. L’opérateur peut à tout moment débrancher un émetteur ou supprimer la possibilité de l’entendre, il peut aussi créer ou promouvoir des conversations, mais il n’existe pas de forum, pas de place publique. Seule la circulation est réelle. Quelques personnes émancipées pourront participer à des discussions plus élaborées et minoritaires : elles pourraient même concevoir un espace démocratique de confrontation des opinions ! Mais il faudrait alors descendre de l’autoroute, quitter la circulation, former des communautés réelles, pas seulement des groupes de pairs.
Facebook ne se réfère à rien d’extérieur à soi. Or un dialogue authentique présuppose cette extériorité. Facebook favorise-t-il la communication et l’échange au sein d’une société dont il est l’image ? Notre époque est marquée par de profondes injustices sociales et par un isolement psychique qui les aggrave. Le plaidoyer de Zuckerberg en faveur de communautés inclusives est un vœu pieux : ces communautés intensifient l’entre-soi. Facebook va-t-il vraiment contrer la perte de la vie communautaire par un empowerment équitable ? Zuckerberg atteindra mieux cet objectif à travers sa Fondation et Facebook en payant des impôts que par la magie du verbe au service de la rente.
un responsable de sécurité informatique qui a averti la Maison Blanche dès 2015 des tentatives russes
Accelerationist Manifesto by Alex Williams and Nick Srnicek • 14 May 2013 http://criticallegalthinking.com/2013/05/14/acceleratemanifesto-for-an-accelerationist-politics/
Zuckerberg, Mark, Building Global Community : « First, our community is evolving from its origin connecting us with family and friends to now becoming a source of news and public discourse as well. With this cultural shift, our Community Standards must adapt to permit more newsworthy and historical content, even if some is objectionable. [...] now that we use Live to capture the news and we post videos to protest violence, our standards must adapt. Similarly, a photo depicting any child nudity would have always been taken down - and for good reason -but we've now adapted our standards to allow historically important content like the Terror of War photo. »
Ibid. « We review over one hundred million pieces of content every month […] We need a system where we can all contribute to setting the standards. […] The guiding principles are that the Community Standards should reflect the cultural norms of our community, that each person should see as little objectionable content as possible, and each person should be able to share what they want while being told they cannot share something as little as possible. The approach is to combine creating a large-scale democratic process to determine standards with AI to help enforce them. The idea is to give everyone in the community options for how they would like to set the content policy for themselves. »
https://www.theguardian.com/news/2017/may/21/revealed-facebook-internal-rulebook-sex-terrorism-violence Nick Hopkins voir la vidéo du Guardian. C’est l’article premier du Guardian sur les documents destinés aux réviseurs de Facebook.
https://www.theguardian.com/news/2017/may/21/has-facebook-become-forum-misogyny-racism Nick Hopkins and Julia Carrie Wong Cet éditorial laisse penser que Facebook ne pouvait guère anticiper son succès et ses conséquences.
Selon le New York Times, Facebook négocie son retour en Chine au prix d’une acceptation de la censure. Voir http://www.bbc.com/news/technology-38073949; Voir https://www.nytimes.com/2016/11/22/technology/facebook-censorship-tool-china.html
Published 28 November 2017
Original in French
First published by Sens Public
Contributed by Sens Public © Gérard Wormser / Sens Public / Eurozine
PDF/PRINTPublished in
In focal points
- Facebook and the revolt of the democratic elites
- Conventional bedfellows: The Russian propaganda machine and the western far right
- The weight of soap bubbles
- Co-opting discontent: Russian propaganda in the Bulgarian media
- No freedom to hate: Germany’s new law against online incitement
- Kosovo: Fake news in a struggling democracy
- The election was rigged, the news is fake, and the deep state is out to get us
- Between post-truth and epistemocracy: Positioning a democratic politics
- Post-truth: A new Faustian pact
- Trust me, I’m lying
Newsletter
Subscribe to know what’s worth thinking about.