Le premier rapport sur la transparence de la modération de contenu Xbox met en évidence l'amélioration des applications proactives
Agence web » Actualités du digital » Le premier rapport sur la transparence de la modération de contenu Xbox met en évidence l’amélioration des applications proactives

Le premier rapport sur la transparence de la modération de contenu Xbox met en évidence l’amélioration des applications proactives

Pour montrer son engagement à « favoriser des espaces sûrs, positifs, inclusifs et invitants pour tous les joueurs », Microsoft a publié son premier Rapport de transparence Xboxqui a émis 4,33 millions d’exécutions proactives contre des comptes non authentiques dans le Xbox communauté. Le nombre représente 814 000 comptes pour contenu sexuel pour adultes, 759 000 pour harcèlement ou intimidation et 1 million de comptes pour blasphème.

« La publication de ce rapport fait partie de notre engagement de longue date envers la sécurité en ligne, en abordant les apprentissages et en faisant plus pour aider les gens à comprendre comment jouer un rôle positif dans la communauté Xbox », explique Dave McCarthy, CVP Xbox Player Services, dans un article sur Xbox Wire. . « Ce rapport complète l’examen continu de nos normes communautaires, permettant à tous les joueurs de comprendre plus facilement ce qui est et ce qui n’est pas une conduite acceptable ; investissement continu dans les outils de modération ; et un partenariat continu avec les associations de l’industrie, les régulateurs et la communauté.

Les actions intentées contre plus de 4 millions de comptes non authentiques entre janvier et juin constituaient 57 % du total des poursuites de l’entreprise. Dans une interview avec BloombergMcCarthy a déclaré que non seulement les renforts concernaient les comptes automatisés ou créés par des robots, mais aussi « l’activité régulière des acteurs de l’État-nation et d’autres groupes financés qui tentent de distribuer du contenu qui n’a pas sa place sur nos services ».

Ces renforcements proactifs, a expliqué le CVP, ont été effectués par des intelligences artificielles ou des modérateurs humains. Bien que la taille de ce dernier n’ait pas été précisée, McCarthy a souligné que les agents sont « sur le personnel 24 heures sur 24, 7 jours sur 7, 365 jours par an » et que la modération proactive de Xbox a augmenté jusqu’à 9X par rapport à la même période l’année dernière. McCarthy a également salué la participation des acteurs de la communauté à l’accomplissement, qui ont fourni 33 millions de signalements au cours de la période.

L’augmentation de la modération proactive de Xbox peut également être attribuée à l’acquisition par Microsoft en 2021 de la plate-forme de modération de contenu Deux Chapeau, qui utilise un processus de modération de contenu basé sur l’IA qui classe et filtre les messages, les noms d’utilisateur, les images et les vidéos. Malgré cette technologie, Xbox a encore d’autres domaines de ressources à exploiter, en particulier en utilisant la technologie de filtrage de la voix pour identifier les violations de la communauté sur sa plate-forme. McCarthy a déclaré à Bloomberg qu’il pourrait se concentrer sur ladite zone à l’avenir tout en accordant de l’importance à la vie privée des joueurs.

Xbox promet de publier un rapport sur la transparence de la modération tous les six mois. Et étant donné qu’il s’agit de sa première et que la société n’est que l’une des rares plates-formes de jeu à explorer cette nouvelle pratique, McCarthy a déclaré que Xbox « apprenait à quoi ressemble un bon rapport de transparence pour nous ».

★★★★★