Ce nouvel arrivant dans Call of Duty promet d’en faire baver aux joueurs toxiques

Activision va déployer un opérateur pas comme les autres dans le prochain Call of Duty : Modern Warfare III. Il aura pour mission de combattre la toxicité des joueurs, un comportement malheureusement trop populaire sur ce jeu en ligne.

Call of Duty : Modern Warfare III
Call of Duty : Modern Warfare III © Activision

Tous les joueurs de Call of Duty savent très bien de quoi on parle. La toxicité est rampante dans le mode multijoueur de la franchise. Certains se servent du chat vocal pour insulter les autres joueurs, les menacer, les harceler, etc. Activision est bien au courant de ce problème qu’il tente de résoudre entièrement depuis plusieurs années. Le studio va donc passer aux choses sérieuses pour le prochain opus de la franchise., Call of Duty : Modern Warfare III et ses maps nostalgiques.

Sur le blog officiel de Call of Duty, Activision a annoncé l’arrivée d’une nouvelle recrue dans Call of Duty : Modern Warfare III. Rappelons que le troisième reboot de Modern Warfare est attendu pour le 10 novembre 2023 sur PC, PS5, PS4, Xbox Series et Xbox One. Cette nouvelle recrue n’est autre qu’une intelligence artificielle, mais pas n’importe laquelle.

A lire aussi : Pour lutter contre les joueurs toxiques, Intel veut utiliser l’IA !

L’IA ToxMod à la rescousse de Call of Duty : Modern Warfare III pour lutter contre les comportements toxiques

Baptisée ToxMod, cette IA vise à combattre la toxicité dans les parties en ligne de Call of Duty. Il s’agit d’un système de surveillance en temps réel du chat vocal. Il sera capable d’identifier les débordements tels que les propos haineux, les discours discriminatoires, les tentatives de harcèlement, etc.

Avant d’intégrer ToxMod à Call of Duty : Modern Warfare III, Activision prévoit de lancer une version bêta de son outil sur Call of Duty : Modern Warfare II et Call of Duty : Warzone. Elle sera disponible ce week-end, mais surveillera seulement les joueurs qui parlent anglais.

L’intelligence artificielle de ToxMod n’est évidemment pas la seule tentative d’Activision pour lutter contre les comportements toxiques. Il existe déjà un système de filtrage des messages texte partagés dans le chat écrit du jeu. Il prend en charge 14 langues pour surveiller le plus d’abus possible. D’ailleurs, les joueurs disposent également d’un outil de signalement intégré au jeu qui leur permet de signaler immédiatement les comportements toxiques.

Pour vous donner une idée plus précise, Activision a déjà restreint plus d’un million de comptes qui ne respectaient pas les règles sur Call of Duty. La bonne nouvelle est que 20 % de ces joueurs n’ont jamais récidivé après leur premier avertissement. L’arrivée du système de surveillance des voix des joueurs grâce à l’IA devrait donc réussir à booster ces chiffres.

Source : Activision