Les marketeurs ne peuvent (plus) cibler les racistes sur les médias sociaux

© Getty Images
Els Bellens

Pour les médias sociaux, les racistes sont un groupe-cible comme des autres. Les marketeurs créatifs pouvaient jusqu’il y a peu proposer des campagnes publicitaires visant spécifiquement les antisémites sur Facebook et les personnes tenant des propos racistes sur Twitter.

Une publicité spéciale pour les antisémites? Et oui c’est parfaitement possible sur Facebook, comme l’a découvert le site web d’enquêtes ProPublica la semaine dernière. Selon ce dernier, 2.300 personnes s’étaient fait connaître sur Facebook pour l’intérêt qu’elles portaient à des messages tels ”la haine des Juifs”, ”l’extermination des Juifs par le feu” et ”comment les Juifs détruisent le monde”. ProPublica a versé 30 dollars, soit 25 euros, pour trois ‘promoted posts’ visant ces groupes. Dans le quart d’heure qui suivit, Facebook avait accepté les annonces.

Cela fonctionne comme suit: Facebook permet aux annonceurs de choisir des groupes-cibles sur base de leur intérêt et aux informations que les utilisateurs indiquent eux-mêmes. Outre des chercheurs, des employeurs et ou des ‘fans de Game of Thrones’, il peut donc s’agir aussi de ‘fans du Ku-Klux-Klan’. Après le rapport dressé par ProPublica, Facebook a provisoirement interrompu cette option de marketing spécifique. “Pour veiller à ce que la fonction de groupe-cible ne soit pas utilisée à des fins de discrimination, nous avons supprimé les champs d’intérêt et ce, jusqu’à ce que nous ayons mis en place les processus adéquats en vue de résoudre le problème”, écrit Facebook sur un message posté sur son blog. “Nous voulons que Facebook soit une place sûre pour les gens et les entreprises, et nous continuons à tout faire pour éloigner la haine sur le réseau social.” Et d’ajouter que les groupes sont supprimés et que les publicitaires peuvent signaler d’autres groupes-cibles incongrus.

Sur Twitter

Twitter, de son côté, vient d’annoncer avoir résolu un ‘bug’ sur sa plate-forme, qui permettait à des annonceurs de s’adresser à des utilisateurs tenant des propos racistes et recourant à des termes tels ‘Nazi’. C’est le site web The Daily Beast qui l’a découvert. Un journaliste a en effet observé que Twitter Ads, le pilote publicitaire automatisé de la plate-forme, mentionnait pour des campagnes publicitaires potentielles des millions d’utilisateurs susceptibles de réagir à du langage raciste.

“Nous avons observé que ce type de campagne pouvait se faire à cause d’un bug que nous avons entre-temps corrigé”, déclare un porte-parole de Twitter dans un communiqué suite au rapport de The Daily Beast. “Twitter interdit et empêche les campagnes publicitaires véhiculant un contenu injurieux ou inadapté.” Selon Tweeter, les mots-clés utilisés par The Daily Beast pour son enquête se trouvaient depuis des années déjà sur une liste noire. Le réseau social n’a donc pas directement compris pourquoi ce genre de campagne pouvait encore être accepté.

Et Google?

Selon un troisième site, BuzzFeed, Google n’est pas non plus immunisé contre ce problème. Un reporter a en effet trouvé qu’il était particulièrement aisé d’y lancer des campagnes ciblées sur base de propos discriminatoires. Il en est résulté que le géant technologique a lui aussi été contraint d’adapter son algorithme.

Les enquêtes démontrent donc le danger que représentent les algorithmes entièrement automatisés et que le problème n’est pas vraiment nouveau. Précédemment, YouTube par exemple était entré en conflit avec des annonceurs, après qu’il soit apparu que leurs publicités jouxtaient des vidéos extrémistes. Une solution possible consiste évidemment à faire appel à quelques personnes bien pensantes afin de mieux tenir à l’oeil l’algorithme, mais les géants technologiques doivent alors, tout comme le reste de la société, pouvoir indiquer où se trouve la ligne séparant le bon grain de l’ivraie. (ANP / Data News)

Vous avez repéré une erreur ou disposez de plus d’infos? Signalez-le ici

Contenu partenaire