ico Société YouTube, vecteur de radicalisation majeur

12 mars 2018 | Catégorie: société

PHILIPPE BARRAUD

L’algorithme de YouTube veut vous faire rester le plus longtemps possible sur le site, puisque les rentrées publicitaires en dépendent. Et pour vous accrocher, Google privilégie les «contenus similaires» les plus accrocheurs et les plus extrêmes sur le plan émotionnel.

«(YouTube) promeut, recommande et dissémine des vidéos d’une manière qui semble vouloir faire monter sans cesse les enchères. Et puisqu’elle a des milliards d’utilisateurs, YouTube pourrait être l’un des plus puissants instruments de radicalisation du 21e siècle.»

Ces mots sont de Zeynep Tufeksi, professeure associée à l’Université de Caroline du Nord, dans une chronique au New York Times. Elle a passé beaucoup de temps à observer comment YouTube recommande systématiquement aux utilisateurs des contenus de plus en plus radicaux, de plus en plus violents et anxiogènes. Par exemple, des vidéos de la campagne de Donald Trump débouchaient rapidement sur des vidéos issues de groupes suprématistes blancs, de sites racistes et haineux. Inversement, des séquences de la campagne de Hillary Clinton et de Bernie Sanders faisaient surgir des vidéos de conspirationnistes d’extrême-gauche, avec la litanie habituelle sur le gouvernement fantôme responsable des attaques du 11 Septembre.

C’est exactement comme si le choix des contenus recommandés, dans la colonne de droite, était réglé sur la surenchère, sur des contenus de plus en plus extrêmes, dans une sorte de course au hardcore. La politique occupe le haut du panier, avec des théories du complot à la pelle, de la désinformation grossière et des incitations à la haine. Mais aucun domaine n’y échappe: voulez-vous voir une vidéos donnant des conseils sur la course à pied ? Vous serez très vite redirigé sur des disciplines extrêmes comme les ultra-marathons, et tous les accidents et faits divers qui vont avec. Du ski peut-être ? Vous allez découvrir des séquences de skieurs fous qui descendent la face Est du Cervin, ou qui se tuent dans des avalanches; du foot ? Voici les émeutes, les passages à tabac en gros plan. La cuisine saine ? Aller simple vers le véganisme, le jeûne et l’anorexie ! La grippe vous intéresse ? Vous tomberez sur les campagnes anti-vaccination des complotistes.

Mais comment cela marche-t-il ? L’arme absolue de YouTube, c’est un bouton discret en haut à droite de l’écran. Il s’appelle Lecture automatique ou Autoplay. Comme par hasard, il est activé par défaut… Si bien qu’à la fin de votre vidéo, une autre démarre automatiquement, avec souvent un préambule publicitaire, et ainsi de suite, avec un crescendo dans la radicalité et le trash. Chiche que vous vous laissez prendre, et passez beaucoup de temps à regarder des accidents d’avions ou de la route, des chutes diverses, des malheurs de toute sorte qui arrivent aux autres, et des images d’extrémistes hyper-violents ?

Bien sûr, Google n’a pas pour ambition de radicaliser les esprits à tout prix. Cet effet lui est même complètement indifférent – encore qu’un des ingénieurs ayant mis au point le système a été sèchement viré, dès lors qu’il a émis des réserves. La seule chose qui intéresse Google,  c’est que vous passiez un maximum de temps sur YouTube, ce qui génère des revenus publicitaires colossaux lorsqu’ils sont multipliés par des milliards d’utilisateurs.

Or, les ingénieurs de Google ont vite remarqué que les utilisateurs étaient attirés par des contenus plus extrêmes ou plus fascinants que par les vidéos «normales» par quoi ils avaient commencé. Cette forme d’addiction est extrêmement puissante, et efficace pour qui l’exploite. C’est particulièrement vrai pour les jeunes et ceux qui s’informent – si l’on peut dire – principalement sur les réseaux sociaux, dont une récente étude vient de montrer qu’ils répercutent et propagent précisément plutôt la désinformation que l’information vraie et vérifiée.

Cette dérive, qui déferle sur l’ensemble des réseaux sociaux, est très préoccupante – et paradoxale: qui aurait pu imaginer que l’explosion exponentielle des moyens de communication allait tuer l’information et donc, inévitablement, provoquer un accroissement de la violence, et menacer la démocratie ?

 

 

 

Publicité
**** 20votes




Commentaire de Ben Simkins le 13 mars 2018 à 11:04

Je n’ai pas la même lecture que vous de cet article.

Selon ma compréhension, les algorithmes de Google vont proposer du contenu sur la base de ce que d’autres personnes ont choisi de regarder après la vidéo que vous êtes en train de regarder. De fil en aiguille, puisque les gens eux-mêmes vont favoriser des contenus de plus en plus ‘extrêmes’, c’est un cercle vicieux.

Donc il n’y a pas de ‘complot’ extrémiste (humain, en tout cas) chez Google.

Et c’est ça qui est effrayant: les algorithmes Google ne font que donner aux gens ce qu’ils veulent. Pour quelqu’un qui croit à la démocratie, c’est un résultat alarmant, pour dire le moins….

Commentaire de philippe lerch le 19 mars 2018 à 23:57

M. Smikins vous avez, hélas, raison.

Sinon comment expliquer le succès de “Blick”, “Le Matin”, “20Minutes” et j’en passe.

*
*


* Ces champs sont obligatoires ! Veuillez entrer votre nom complet, les commentaires ayant un pseudonymes ne seront pas pris en considération.