jeudi 16 janvier 2025
Encore stupéfaits par la victoire de Trump et l’activisme d’Elon Musk, nos gardiens du temple politiquement correct découvrent le ralliement de Mark Zuckerberg et Meta à la méthode Musk : pas de censure sur les réseaux sociaux sauf cas très spécifiques.
La liberté d’expression est en soi une bonne cause.
Reste que la réalité des réseaux sociaux soulève de vraies interrogations si on ne veut pas devoir naviguer dans des égouts, ou subir des dérives de viralité. Cela pose en effet deux grandes familles de questions.
Du côté des utilisateurs, la responsabilité à l’égard de ce qu’on écrit et publie. Du côté des réseaux, l’opacité plus ou moins manipulatrice et intéressée de leurs algorithmes.
Les usagers sont responsables de ce qu’ils disent
On souligne à raison la prolifération sur les réseaux sociaux d’informations fausses, de paroles haineuses, ou même d’images truquées, ce qui devient à la portée de tout un chacun avec ChatGPT et autres. En soi, il n’y a là rien de nouveau sous le soleil. Il suffit de rappeler les gravures diffamatoires visant Marie-Antoinette juste avant la Révolution. La grande nouveauté, outre la facilité de fabrication de faux, est surtout l’énorme diffusion qu’il est possible d’atteindre, par l’existence même du réseau, et ensuite si on crée un effet de viralité.
C’est par cela qu’ont été justifiées les procédures de filtrage ou censure, souvent traitées sous l’euphémisme de vérification des faits (fact-checking). Avec le résultat d’une part d’une efficacité douteuse, et d’autre part de tomber sous l’accusation de contrôle idéologique. Chacun sait que le terme de « discours de haine » vise en pratique prioritairement toute remise en cause un peu vive de l’immigration, de l’islam, ou de l’idéologie woke, entre autres. Mais censurer la critique de l’immigration sous prétexte de messages ‘haineux’ ou ‘sulfureux’ n’est pas acceptable (sauf violence). Et même, Mark Zuckerberg a confirmé qu’il avait reçu des instructions précises de l’administration américaine de filtrer toutes les critiques de la politique de vaccination massive à l’époque Covid, ou des données sur le fils Biden. Tout cela n’est pas transparent, et franchement inacceptable dans un contexte légal où la liberté d’expression est supposée garantie. Et quand le filtrage est fait par Libé, on ne peut qu’en rire.
Reste inversement que la question existe. N’importe quel abruti peut prendre un pseudonyme et diffuser tout ce qui lui passe par la tête sans le moindre risque. Or dans la vraie vie, c’est différent. Celui qui énonce ce genre de chose dans la rue ou au café peut avoir une réaction plus ou moins vigoureuse, et peut être reconnu. Et celui qui l’écrit est connu soit du public soit au minimum de l’éditeur ou du média. Ce qui est juste. La liberté suppose la responsabilité.
Deux choses s’imposent donc. D’un côté, l’interdiction des pseudonymes - ou en cas d’utilisation régulière de l’un d’entre eux, l’enregistrement de la personne sous son vrai nom, avec preuve, auprès du réseau. D’où entre autre l’élimination des robots et faux comptes. D’un autre côté, la responsabilité de celui qui publie sur ses écrits, comme pour une publication.
A ce moment-là, le besoin de filtrage ne subsiste que pour ce qui est manifestement illégal (pédopornographie, harcèlement, produits illicites, appels au terrorisme, contenus violents etc.). Plus le contrôle par la communauté des utilisateurs, car cela correspond à ce qui se passe par ailleurs dans la société. X et Meta se réclament de cette approche : il faut vérifier la qualité de la mise en œuvre, mais le principe en est a priori plus sain qu’une censure idéologique. Ou que les ‘signaleurs de confiance’, chers à la règlementation européenne (DSA), et en fait militants.
Les algorithmes de recommandation des réseaux sont anormalement opaques
Les réseaux sociaux présentent ensuite une différence majeure par rapport à tout autre support d’édition et de communication : les algorithmes par lesquels ils décident, dans une opacité parfaite, de ce qui va être présenté au client, du déroulé des posts, images ou messages, et des publicités. Cela vise tous les réseaux sociaux (Facebook, Instagram, Tiktok et autres), mais aussi à leur façon les moteurs de recherche (type Google). En un sens, c’est une nécessité : une présentation purement chronologique ou aléatoire ne serait en général pas satisfaisante. Mais en réalité, les algorithmes de nos réseaux vont bien au-delà d’un rôle de recommandation qui serait purement affinitaire et bienveillant.
Le point central est que nous avons affaire à des sociétés commerciales, qui vivent de publicité (et de la vente de bases de données, point important mais allant au-delà de notre sujet ici). Qui dit rémunération de la publicité dit probabilité que quelqu’un les regardera. D’où l’intérêt des réseaux de maximiser ce regard, ce temps de présence et d’attention. On va donc traiter les posts en calculant la probabilité qu’ils ont d’attirer l’attention (les critères pouvant varier selon les réseaux : durée de visionnage, nombre de ‘j’aime’ ou de commentaires, inscription dans une tendance, nombre de suiveurs etc.). Outre les cas où ils sont payants (publicités), cela vise la viralité, au motif que ce qui est beaucoup vu par certains a toutes chances de l’être plus encore par d’autres.
Or ce système est parfaitement opaque. Et les utilisateurs sont en revanche totalement démunis par rapport à l’algorithme. Si autrefois vous lisiez une journal marxiste, vous saviez comment ils analysaient les choses, leur grille idéologique. Là ce n’est pas accessible. Certes, les utilisateurs astucieux s’adaptent et tentent d’influencer les algorithmes, en lui offrant ce qui lui parle le plus, et pour cela on adapte son discours. Ce que trie l’algorithme n’est donc pas une matière première neutre : elle est organisée pour être sélectionnée par lui. Mais de ce fait, lui doit de son côté en permanence s’adapter. Or on ne connait pas plus ces changements que le système de départ.
Pourtant, les utilisateurs restent et subissent, car l’utilité du produit (l’usage gratuit du système, l’effet distractif, et surtout le fait de se sentir dans le coup) est bien trop grande - d’autant plus que chaque réseau social a une sorte de monopole naturel sur son créneau. Ce choix se fait sans appréciation suffisante de ce que contient réellement ce qui est offert. Et surtout l’utilisateur n’a que très peu de moyens de le réguler.
On pourrait imaginer que cela implique une certaine individualisation, fonction de ce que le système a pu percevoir des centres d’intérêt de celui qui regarde. Mais en réalité, cela aboutit surtout à faire regrouper ces utilisateurs par classe d’affinités. Ces algorithmes replient chacun sur un modèle statistique moyen, en constituant des petits groupes relativement homogènes, plutôt consensuels mais mutuellement hermétiques. Cela joue un rôle indéniable dans la polarisation des opinions, mais aussi dans leur antagonisation. En même temps, ce que le système retient de chacun est en fait une image très réduite, orientée en fonction des besoins dudit système. Comme dans d’autres domaines comme la mode, la recherche de l’individualité aboutit à une image très réductrice, opaque à l’individualité elle-même.
Par ailleurs, le système cultive le buzz permanent et donc un mouvement apparent ; dès lors celui qui passe du temps sur ces réseaux et y investit affectivement est constamment balloté en fonction du flux qui lui arrive. Ces algorithmes de réseaux sociaux régissent une bonne partie des interactions entre les personnes dans nos sociétés, parfois pendant plusieurs heures par jour. Par là même ils contribuent à façonner nos sociétés, mais sans aucune forme de responsabilité, ni de recul.
Par ailleurs, les algorithmes peuvent rendre certains contenus pratiquement invisibles sans les supprimer explicitement, en les reléguant en bas de la file -ce qui n’est pas immédiatement perceptible.
Transparence et responsabilité : que faire ?
Cela ne condamne pas les réseaux sociaux dans leur principe. Mais cela conduit à prendre du recul par rapport à leur fonctionnement. Et à rechercher les moyens d’en réduire l’opacité et d’instaurer plus de responsabilité.
Tout d’abord, l’opacité totale de ces algorithmes quasi-monopolistes est anormale. Ils devraient donc publier explicitement et en détails la méthode : ce qui fait qu’un post est privilégié dans le déroulé.
Ensuite il devrait être possible pour l’utilisateur de sélectionner réellement ce qui lui est présenté – quitte à ce que ce service ne soit pas gratuit. Avec en outre la possibilité de revisiter les posts plus anciens, comme des articles de journaux qui gardent leur intérêt.
Par ailleurs, les réseaux devraient être responsabilisés sur les effets de buzz. Cela existe ou a existé sur les marchés financiers : quand un cours de bourse ou de valeur évolue trop vite de façon délirante, on arrête pendant un temps les transactions. De même, un buzz suspect devrait conduire à un coupe-feu d’une durée raisonnable, répété si nécessaire.
Enfin, il serait souhaitable que des réseaux alternatifs nouveaux, moins obsédés par la publicité et donc financés autrement, offrent une vraie possibilité de rencontres et d’échanges, basés sur des affinités reconnues et choisies par les utilisateurs, avec des algorithmes qui soient à leur service et non à celui du buzz et par là de la maximisation du profit publicitaire.
Restera bien sûr toujours l’effet d’addiction et de divertissement sur l’utilisateur. Mais là, c’est à chacun de se discipliner…