Restez poli, vous êtes écouté !
Les joueurs avec des comportements toxiques utilisent tous les moyens à leur disposition pour nuire. S’il est relativement aisé pour les développeurs de filtrer les échanges écrits, la tâche est plus ardue en en ce qui concerne les chats vocaux. Intel appelle donc l’IA à la rescousse pour traquer les harceleurs.
À voir aussi : Vidéo : Battlefield V, les tricheurs pris en flagrant délit |
Des sanctions immédiates
Le géant de l’informatique s’est associé à Spirit. Cette société fournit déjà une modération automatisée des échanges textuels via son logiciel Ally. Ensemble, les deux entreprises souhaitent fournir le même degré de filtrage pour les échanges vocaux. Pour l’instant, la technologie n’en est qu’à sa début, mais semble plutôt prometteuse. Grâce à l’IA, les échanges sont analysés afin de repérer les propos déplacés. Selon Kim Pallister, responsable de la branche gaming et esports chez Intel, chaque développeur choisira ensuite les sanctions appliquées.
Par exemple, émettre un avertissement ou demander à l’harcelé s’il veut que le contrevenant soit banni. La mise en place un système d’interdiction automatique dès que des propos injurieux sont détectés n’est pas exclu. Kim Pallister précise également qu’avant sa sortie, cette technologie doit être en mesure de distinguer un terme injurieux d’un autre spécifique à un jeu.
Vive la censure…
Je ne pense pas que “traquer les harceleurs” soit vraiment de la censure…
―Je ne pense pas que traquer les harceleurs soit vraiment de la censure― Yannick Guerrini…
quel serat en premier leur définition d’un harceleur et vont-ils s’en tenir qu’a ne traquer que ces derniers ?
La même définition que ce que l’on trouve déjà pour les échanges écrits, c’est marqué dans la news.
Je vois pas pourquoi ça poserait problème à l’oral et pas à l’écrit.
―La même définition que ce que l’on trouve déjà pour les échanges écrits d’accord―
je vois, le système de censure de l’écrit qui a déjà plusieurs ratés et donc je dois sans arrêt contourner pour mieux me faire comprendre. ici, on est loing de la définition des harceleurs.
ce sont souvent des mots français qui ressemblent à des insultes anglophones où d’autres comme “réputation” dont le “put” est de trop ou encore “maj”, allez savoir pourquoi…
Déjà! il y a une foule d’expressions anodines comme “c’est idiot” qui sont bloquées à cause d’un seul mot…
ici ça va plus loin, ce sont les conversations entre individus qu’ils scrutent à la lettre.
parler ce n’est pas écrire! tu vas en dire dix fois plus en une minute. et combien de fois seras-tu coupé par ce cencureur?
avec ce truc, ils auront ton emprunté vocal, toutes tes idées et surement plus…
un véritable Facebook 2.0
On sera coupé à chaque fois que la personne à qui l’on parle validera auprès de l’IA qu’elle se fait bien “harceler”. Je vois toujours pas le problème, bien au contraire.
Et accessoirement, je pense pas qu’ils aient attendu Intel pour récupérer l’empreinte vocale des joueurs.
clairement la barrière de la langue pour ce type de système est extrêmement problématique.
justement on sait tous que ça impactera tout le monde car on préfère un système répressif pour tous plutôt que d’identifier et corriger les comportement foireux et les personnes réellement à l’origine de la problématique.
Cela préfigure un système à plus grande échelle on il ne sera même plus possible de dire ce que l’on veut, donc oui censure à grande échelle et pour tous.