Site icon WordPress

Une modération de chat vocal par IA sur le prochain « Call of Duty » 

Un jeune adolescent en plein chat vocal sur le jeu vidéo Call of Duty.

La fonction de chat vocal donne la possibilité aux gamers d’échanger durant une session de jeu vidéo - Photography CasarsaGuru / Getty Images©

Bonne nouvelle pour les férus de jeux vidéo et plus particulièrement, pour les adeptes de COD ! Le prochain « Call of Duty : Warfare III » d’Activision intègrera un chat vocal soumis à une modération basée sur intelligence artificielle. Ce système pourra filtrer les propos réels durant la partie.  

Call of Duty : le jeu de tir souhaite bannir les propos haineux 

Cette année 2023, Activision nous promet de belles surprises. L’éditeur franchit une nouvelle étape avec son jeu de tir emblématique « Call of Duty ». En l’occurrence, il prit l’initiative d’améliorer le système de modération de chat vocal du jeu avec l’intelligence artificielle. Il souhaite ainsi bloquer autant que possible les comportements toxiques. Cette nouvelle fonction sera lancée parallèlement avec le prochain « Call of Duty : Modern Warfare III » le 10 novembre 2023.  

Activision collaborera avec Modulate pour mettre en place ce nouveau système de modération à grande échelle. Cette décision vise à améliorer l’expérience des joueurs en créant un environnement de jeu plus respectueux et inclusif. Elle se veut de combattre les chats vocaux toxiques qui ciblent surtout les femmes et les minorités sur la plateforme multijoueurs de COD, où près de 90 millions de gamers se retrouvent chaque mois.  

Quand ToxMod modèle de chat vocal des parties de COD ! 

Le nouvel algorithme de modération du chat vocal de Call of Duty repose sur ToxMod. Il s’agit d’une technologie basée sur l’intelligence artificielle développée par Modulate. Elle a la capacité de reconnaître en temps réel les échanges toxiques, incluant les propos haineux, la discrimination et le harcèlement. En plus de les identifier, il peut prendre des mesures à leur encontre. Cette information provient du blog officiel de cette superproduction vidéoludique.  

Grâce à l’apprentissage automatique, l’intelligence artificielle utilisée pour ce chat vocal peut apprendre et s’adapter de manière autonome, sans nécessiter d’instructions explicites de la part des humains. Elle utilise les algorithmes et les données qu’elle reçoit pour reconnaître des schémas.  

Une modération plus rigoureuse grâce à l’intelligence artificielle 

En utilisant ToxMod, Call of Duty améliore significativement son niveau de modération. Cette technologie est apte à classer les comportements toxiques selon leur gravité avant de solliciter une intervention humaine. Elle analyse non seulement les mots-clés, mais également le ton et l’intention du discours pour déterminer sa toxicité. Son modèle linguistique s’édifie sur des milliers d’heures d’enregistrements de discours variés. 

Cette innovation technologique peut ainsi faire la distinction entre des taquineries amicales et les commentaires malveillants. De plus, les joueurs ne peuvent échapper à son écoute de l’IA qu’en désactivant complètement le chat vocal. 

Bien qu’elle soit déjà utilisée dans des jeux VR comme Rec Room, le déploiement de ToxMod dans un jeu aussi massif que Call of Duty représente une avancée significative pour l’industrie du jeu vidéo en matière de modération. 

Disponible pour le moment en version bêta et en anglais 

La version bêta de ce nouveau système de modération a été testée en Amérique du Nord le 30 août 2023. Les expérimentations concernaient les jeux vidéo « Call of Duty: Modern Warfare II » et « Call of Duty: Warzone ». Le reste du monde devra attendre jusqu’au 10 novembre 2023 pour avoir une nette idée de ses capacités.  

En amont, cette modération anti-toxicité se concentrera sur l’anglais. D’autres langues viendront étoffer son panel à une date ultérieure, sans précision de calendrier. Cependant, quant à l’Asie, elle n’est pas concernée par cette nouveauté. Le déploiement complet débutera avec le lancement de « Call of Duty: Modern Warfare III » en automne 2023. 

Une fonction de filtrage anti-toxicité plutôt appréciée des joueurs  

Depuis Modern Warfare II, Call of Duty a mis en place une modération anti-toxicité ayant restreint les échanges vocaux et textuels de plus d’un million de comptes. Ces derniers avaient enfreint le code de conduite du jeu vidéo. La technologie de filtrage des textes et des noms d’utilisateur de ce système s’avère régulièrement mise à jour afin de mieux détecter et de rejeter en temps réel les discours préjudiciables. 

Les données montrent que 20 % des joueurs ne récidivent pas après un premier avertissement. Ceux qui récidivent se voient infliger des pénalités de compte, telles que des restrictions de fonctionnalités et des limitations temporaires du compte.  

En collaboration avec les studios partenaires, l’équipe anti-toxicité a également ajouté le signalement malveillant à la politique de sécurité de COD pour contrer la recrudescence des faux signalements. 

Les enseignes de jeux vidéo comme Xbox marchent dans les pas d’Activision 

Activision n’est pas la seule entreprise du ludiciel à revoir sa politique de modération. Par exemple, Microsoft va lancer une fonction de signalement d’abus dans les chats vocaux de ses consoles Xbox. Elle permet ainsi aux joueurs de signaler des commentaires inappropriés proférés durant une partie de jeu.  

Le système réalise un enregistrement de 60 secondes sur la console. Dès lors, le gamer peut rapporter et signaler les propos dans un délai de 24 heures.  

Cette fonctionnalité sera déployée parallèlement avec la mise à jour de septembre 2023 pour les Xbox Series X|S et Xbox One.  

Microsoft a conçu cet outil pour obtenir un équilibre entre facilité d’utilisation et absence d’interférences dans le jeu. Les enregistrements ne serviront qu’à des fins de modération et ne seront pas accessibles, téléchargeables, modifiables ou partageables par les joueurs. 

Si vous recherchez des titres FPS du même apanage de COD, visitez la boutique de notre partenaire FuzeForge.  

Avec ETX Daily Up 

Quitter la version mobile