“Le gaming est pour tout le monde et aucun groupe ne le détient”. C’est en ces termes que Phil Spencer, à la tête de la marque Xbox, a annoncé de nouvelles mesures pour combattre la toxicité sur les serveurs de Microsoft l’année dernière. Le fléau ne concerne évidemment pas que la console au “X” si distinctif. C’est un problème à l’échelle de toute l’industrie que plusieurs de ses acteurs, comme Ubisoft, Riot Games ou encore Blizzard, se sont engagés à affronter. Pour cela, ils ont toute une batterie d’outils à disposition.
“La culture gaming est aux prises avec un mensonge omniprésent : il n'est tout simplement pas possible d'empêcher les joueurs de se comporter comme des abrutis abusifs”. C’est sur cette phrase plutôt osée que s’ouvre un article du média britannique The Guardian, publié en août 2018. Son sujet : la toxicité et les abus dans les parties multijoueur en ligne. “Connectez-vous à n'importe quel jeu (...) et il y a de fortes chances que vous rencontriez de l'hostilité, des insultes et de l'agression” peut-on lire. “Cette hostilité affecte de manière inégale les marginalisés : femmes, personnes de couleur, personnes LGBT”.
Si on peut reprocher à l’article d’être trop direct, il décrit néanmoins une réalité qui a gagné toutes les communautés en ligne qu'elles soient liées au jeu vidéo ou non : certains internautes s’en donnent à coeur joie côté propos haineux et compliquent - voire détruisent - le quotidien d’autres joueurs. Et les conséquences sont bien réelles : abandon d’une passion par la faute de communautés virulentes mais surtout dépression et toutes les complications liées aux divers cas de harcèlement. Régler le problème de la toxicité dans le gaming en va ainsi de l’intégrité du jeu vidéo, un divertissement qui, comme le soulignait Phil Spencer l’année dernière, appartient à “tout le monde”. Mais aussi du bon déroulement des parties dans le cadre de l’expérience imaginée par les développeurs. Bref, c’est un sujet de premier ordre.
Surveiller 500.000 petites souris
Comme la quasi-totalité des jeux en ligne, Transformice, du studio Atelier 801, fait tous les jours face à son lot de trash talk. Le titre rassemble 105 millions de comptes et 500.000 joueurs actifs par mois, et propose aux internautes - sous l’apparence de petites souris - de parcourir des niveaux pour atteindre un morceau de fromage. Et même si le jeu ne pèse pas le poids d’un Fortnite, une centaine de modérateurs bénévoles sur plusieurs pays s’active quotidiennement à “nettoyer” Transformice. Un jeu “où le social est très important” comme nous l’explique Mélanie Christin, co-fondatrice d’Atelier 801.
Pour Transformice, on a une liste d’insultes qui sont immédiatement sanctionnées grâce à un filtre. Elle est remplie par les modérateurs. On a aussi plusieurs équipes assignées à des parties précises du jeu, comme la “Map Crew” qui surveille les niveaux créés par les joueurs et qui effacent les motifs inappropriés, souvent à caractère sexuel. Il y a une équipe qui surveille ce qu’il se passe sur les forums, dans Le Café (espace de discussion in-game, ndlr) et donc tout ce qui touche à l’écriture - Mélanie Christin du studio Atelier 801, à l'origine de Transformice
Transformice - Trailer
Certaines infractions feront ainsi l’objet d’un ban de plusieurs jours, comme celles liées à l’homophobie ou au racisme. D’autres se comptent en mois voire sont définitifs. “Souvent, ça s'incrémente” nous précise Florent, modérateur sur Transformice depuis un an. “Les sanctions s’ajoutent et s’ajoutent jusqu’à ce qu’on décide de bannir le joueur”.
Le on est ici important. Parfois, des décisions sont prises en concertation avec d’autres modérateurs pour être certain d’appliquer la bonne sanction. Ce fonctionnement est d’ailleurs toujours en vigueur chez les plus gros jeux, comme nous l’explique Emmanuel Larive, à la tête de la Player Behavior Cell (Cellule sur le comportement des joueurs) sur Rainbow Six Siege. “Nous voulons être sûrs de comprendre parfaitement les cas complexes avant de prendre une décision” indique-t-il. Dans le jeu d’Ubisoft, depuis 2017, une injure détectée dans le chat aboutira à une demi-heure de suspension. Une seconde infraction multipliera la peine par quatre et une troisième déclenchera une enquête avec sans doute un ban permanent à la clé.
Plus loin que la punition
Car le but de la modération n’est pas de sanctionner pour sanctionner. L’idée est de faire comprendre à certains joueurs que leur comportement n’est pas acceptable et surtout, de les inciter à ne pas recommencer. C’est pour cela que des punitions immédiates sont souvent appliquées : pour envoyer un message clair et rapide à l’internaute en faute. C’est aussi un moyen de “faire passer le mot sur les ambitions des développeurs en matière de toxicité” comme le souligne la chercheuse en cyberharcèlement Kat Lo dans les colonnes du Guardian. “Et surtout qu'ils sont prêts à faire respecter ces attentes”.
Pour progresser en la matière, les pontes de l’industrie s’échangent leurs trucs et astuces. C’est sur ce constat que s’est formée il y a quelques années la Fair Play Alliance, qui rassemble plus de 160 sociétés du milieu dont Ubisoft, Twitch ou encore Blizzard. Son objectif : combattre la toxicité en mutualisant les expertises des professionnels du JV. Certains ont de l’expérience dans le domaine. D'après PC Gamer, Riot Games combat la toxicité sur les serveurs de League of Legends depuis au moins 2013.
Dans un talk dédié aux comportements anti-sociaux à la GDC 2015, le chercheur Ben Lewis-Evans donne ainsi plusieurs exemples issus du célèbre MOBA. Riot Games est effet parvenu à réduire les propos haineux des joueurs avec quelques astuces simples. “A une époque, quand vous débarquiez dans une partie de LOL, vous entendiez automatiquement le chat de l’équipe adverse” explique le chercheur. “Et il a suffi de rendre le tout optionnel via le menu pause pour obtenir des résultats”. Chiffres à l’appui, Ben Lewis-Evans détaille l’avant / après sur l’une des maps de League of Legends : moins 17% pour le langage offensant, moins 12% pour les abus verbaux et moins 6% pour les attitudes jugées négatives.
La faute au jeu vidéo
L’astuce de Riot Games est aussi d’actualité du côté de Rainbow Six Siege, où le chat audio et textuel est facultatif et les joueurs peuvent être mutés individuellement. Mais il y a beaucoup d’autres exemples : Hearthstone et son système d'interaction limité qui empêche les joueurs de s’insulter ; Overwatch qui récompense les actions positives et les joueurs qui aident les autres ; Halo 5 qui félicite les exploits coopératifs avec un indicateur automatique ; et bien d'autres.
Pendant longtemps, nous avons concentré nos efforts sur la réponse aux comportements négatifs, mais nous élargissons maintenant notre approche (...) C'est pourquoi nous travaillons sur un système de réputation qui permettra à notre communauté de fournir des retours afin d'améliorer l'expérience de chacun. Cela donnera aux joueurs les outils nécessaires pour signaler ceux qui peuvent se comporter négativement ou féliciter ceux qui aident à promouvoir une expérience de jeu positive - Emmanuel Larive, Player Behavior Cell de Rainbow Six Siege
Les moyens pour endiguer la toxicité sont nombreux mais les jeux cités précédemment ont un point commun : ils sont tous compétitifs (même si Overwatch est axé sur la coopération). “Souvent, les jeux encouragent inconsciemment un comportement anti-social et découragent ce qui est pro-social” note ainsi Ben Lewis-Evans. Ce qu’il veut dire par là, c’est que la nature même de certains titres - les objectifs qu’ils imposent et les règles qui régissent leur fonctionnement - pousse à la toxicité (ce qui n'excuse pas pour autant les propos de certains joueurs). Dans Fortnite, il faut par exemple se débarrasser de tous ses adversaires pour remporter la partie. Et dans Transformice, des joueurs peuvent faire apparaître et disparaître des plateformes pour troller les autres.
Partant de ce principe, le meilleur moyen pour effacer les propos haineux est de créer un game design pensé pour. Ben Lewis-Evans donne ainsi l’exemple de Journey qui, par ses mécaniques multijoueur, parvient à créer un écosystème de jeu parfaitement sain : les joueurs peuvent seulement interagir par l’intermédiaire d’un son (pas de chat vocal ou textuel et donc aucun dérapage possible) ; les joueurs rechargent automatiquement leur saut lorsqu’ils se touchent et donc, s'aideront obligatoirement à chaque fois qu'ils interagissent entre eux ; jouer à deux est tout à fait optionnel pour terminer le jeu, ce qui écarte toute possibilité pour une seconde personne de laisser tomber la première de façon pénalisante.
Bien sûr, les jeux multijoueur aujourd'hui populaires ne sont pas des cousins de Journey, et la compétition n’a pas que des défauts. C’est même une approche particulièrement efficace quand il s’agit de créer de l’engagement, du rythme et de la tension. Pour résoudre le problème à l’échelle des plus gros jeux en ligne, il faudrait ainsi encourager la coopération. Mais de nouveau, chaque jeu n’a pas été pensé pour.
Journey - Trailer
D'autres défis à relever
Plus que des astuces pour empêcher la toxicité de se répandre, l’idéal serait évidemment d’éduquer certains joueurs pour qu’ils arrêtent de tenir des propos haineux par eux-mêmes. Surtout que le harcèlement et les insultes ne sont pas forcément exprimés en public, mais aussi en privé. Et sur ce point-là, on s'aventure sur un terrain particulièrement flou. En France, les messages privés sont normalement de l'ordre du privé (comme les mails) et ne peuvent donc pas être modérés. Toutefois, certains services - ici, des jeux vidéo - glissent parfois dans leurs conditions d'utilisation une clause pour contourner cela, en permettant aux joueurs de signaler les messages privés. De fait, les signalements sont par la suite modérés. Pour ne rien arranger, la législation de chaque pays peut aussi avoir son importance sur la question. Sur Transformice par exemple, il est possible de signaler les MP.
On ne peut pas considérer une seule insulte en privé comme du harcèlement : on a besoin d'éléments pour appliquer la sanction appropriée et juste. D'autant plus que pour l'harcèlement, on sanctionne par un bannissement définitif (...) C'est souvent compliqué, puisque des joueurs peuvent nous mentir, essayer de faire bannir une personne qu'ils n'aiment pas, falsifier des captures d'écran ou même se harceler entre eux à cause d'histoires personnelles - Florent, modérateur bénévole sur Transformice
Sans oublier que la toxicité peut prendre des formes différentes que les insultes et la provocation écrite, comme le swatting. Cette pratique consiste faire intervenir les autorités au domicile d'un joueur en prétextant un problème très urgent. En 2018, elle a fait un mort aux Etats-Unis. Et ce n'est pas tout : le média The Verge a consacré un long article sur la manière dont des joueurs de Red Dead II tuent d'autres internautes dont l'avatar est noir “en hommage” à l’ère de l’esclavage américain. C'est bien dans ce genre de cas que le signalement manuel à son importance. Il reste ainsi encore de nombreux défis pour que le jeu vidéo soit bel et bien ouvert à tous. Car même si le gaming "appartient à tout le monde" pour reprendre les mots de Phil Spencer, tous les joueurs ne sont, malheureusement, pas encore accueillis à bras ouverts.