Les erreurs douteuses de modération se multiplient sur TikTok

TikTok reste mystérieuse sur le fonctionnement de ses algorithmes. © MARTIN BUREAU/afp via getty images TikTok reste mystérieuse sur le fonctionnement de ses algorithmes.

L’influenceur de la communauté noire Ziggi Tyler a eu toute une surprise en voyant la mention « Black Lives Matter » être rejetée de sa biographie sur une plateforme de TikTok. Le réseau social l’a signalée comme étant inappropriée avant de plaider un bogue et de rétablir la situation.

Après la disparition accidentelle du mot-clic #intersexe en début d’année et le blocage par erreur des mots asian women» (femmes asiatiques») de la fonction de sous-titrage automatique de TikTok, c’est au tour des activistes de la communauté noire d’être la cible d’un nouveau raté de l’outil de modération du réseau social chinois.

Selon le magazine MIT Technology Review, le système de modération automatique de TikTok semble comporter des défaillances qui ciblent davantage les personnes marginalisées.

L’exemple de Ziggi Tyler est l’un des derniers en date. L’influenceur et activiste de la communauté noire a souhaité, sans succès, inscrire Black Lives Matter» (La vie des personnes noires compte») à sa biographie sur la plateforme Creator Marketplace de TikTok, qui relie les marques aux créateurs et créatrices de contenus.

Voyant ces mots refusés, il a tenté d’ajouter, en vain, supporting black people» (en soutien aux personnes noires»), supporting black voices» (en appui aux voix des personnes noires») et finalement supporting black success» (en support du succès des personnes noires»). Toutes ces propositions ont été signalées comme étant inappropriées par TikTok.

Ziggi Tyler est toutefois parvenu à publier sans remontrances ces mêmes formules, mais en remplaçant le mot black» par white» (blanc»). Le même scénario se produit pour support white supremacy» (soutien la suprématie blanche»), I am a neo nazi» (je suis un néonazi») et même I am antisemitic» (je suis antisémite»).

Le Tiktokeur a documenté sa démarche dans deux vidéos qu’il a publiées sur le réseau social et qui sont rapidement devenues virales, récoltant plus de deux millions de vues.

Tout ce qui concerne les personnes noires est un contenu inapproprié», a-t-il dénoncé dans l’une de ses vidéos.

Un bogue, selon TikTok

Le magazine Insider a pu entrer en contact avec un porte-parole de TikTok, qui s’est excusé pour cette erreur significative» avant de préciser que la cause était un bogue d’un filtre automatique.

[Le système], normalement configuré pour signaler des phrases associées au discours haineux, signale par erreur des phrases sans respecter l'ordre des mots», a-t-il indiqué, avant de préciser travailler activement à rétablir la situation».

Une réponse qui semble se répéter d’une fois à l’autre, selon le MIT Technology Review, qui a questionné le réseau social sur des exemples récents de problèmes rencontrés par des communautés marginalisées avec l’outil de modération.

Après une enquête, le MIT a dénoté la tangente suivante : après la publication sur TikTok d’une vidéo dénonçant une situation jugée discriminatoire envers une communauté, les activistes de celle-ci s’enflamment. Le réseau social admet ensuite une faute, affirme que le contenu ne viole pas ses politiques et propose des liens qui réfèrent au soutien qu’il apporte à ces groupes marginalisés.

Les algorithmes de TikTok, propriété du géant chinois ByteDance, demeurent mystérieux. De nombreuses voix s’élèvent afin que le réseau social soit davantage transparent sur le fonctionnement de son outil de modération automatique, qui semble faire défaut.

Les internautes ont de leur côté trouvé le moyen de le contourner en s’autocensurant ou encore en modifiant l’orthographe de certains mots qui pourraient passer sous le couperet, selon le MIT Technology Review.

Les erreurs douteuses de modération se multiplient sur TikTok