Cette décision intervient à la suite des critiques persistantes de cette année concernant l’échec de Twitch à protéger les streamers contre les « raids haineux » et autres harcèlements.

En juillet dernier, Twitch a ajouté une multitude de balises pour améliorer la découverte des chaînes appartenant à des utilisateurs de diverses identités, notamment des streamers trans, noirs et handicapés.
Cela a également servi de paratonnerre aux harceleurs pour trouver et diriger leur haine contre ces communautés.
Les soi-disant « raids haineux », où les comptes automatisés inondaient les discussions de propos désobligeants ou violents, étaient particulièrement flagrants.
Les choses ont atteint leur paroxysme le 1er septembre lorsqu’un groupe de streamers a organisé un #DayOffTwitch pour protester contre la réponse inadéquate de Twitch au problème.
Twitch a répondu avec une option permettant aux streamers d’exiger une vérification basée sur le numéro de téléphone pour participer à leurs discussions, et cela semble avoir atténué le pire des raids haineux.
Le dernier ajout de Twitch à ses outils de confidentialité et de sécurité offrira, espérons-le, aux streamers de nouvelles options de modération, en particulier pour traiter les personnes à problèmes obtenant des interdictions passées en créant des comptes alternatifs.
Dans son annonce du 30 novembre, Twitch a présenté un système d’apprentissage automatique qui tente de détecter de tels utilisateurs.
|
|
Sur les paramètres par défaut, lorsqu’un tel compte est détecté en train de participer au chat, son entrée est soit marquée dans le canal, soit désactivée en attendant l’action du modérateur, selon la probabilité que l’algorithme pense qu’il s’agit d’un utilisateur indésirable.
Les streamers sont en mesure d’ajuster la dureté de cette réponse automatique initiale, l’option la plus extrême étant l’interdiction automatique des comptes suspects.
L’annonce comprenait une mise en garde sur l’exactitude du programme, précisant :
« Une chose à laquelle se préparer, en particulier autour du lancement, est qu’aucun apprentissage automatique ne sera jamais précis à 100 %, ce qui signifie qu’il existe une possibilité de faux positifs et de faux négatifs.
C’est pourquoi la détection d’utilisateurs suspects n’interdit pas automatiquement tout ce qui est possible ou probable, les fraudeurs… L’outil apprendra des actions que vous entreprenez et la précision de ses prédictions devrait s’améliorer au fil du temps. »
« J’apprécie la modularité de l’outil et le contrôle qu’il offre à quelqu’un lors de la modération de sa propre chaîne.
Twitch doit au moins autant aux streamers étant donné la mesure dans laquelle il a permis au problème des raids haineux de persister, ainsi que la terrible situation de la musique protégée par le droit d’auteur et sa purge des anciennes vidéos en octobre dernier. »



