Terceiro Relatório de Transparência Xbox mostra nossa abordagem em constante evolução para criar experiências de jogos mais seguras

Nossa plataforma e a comunidade de games no geral estão evoluindo constantemente. Conforme a indústria de games continua a crescer, sistemas de segurança requer mais profundidade, velocidade e agilidade para proteger jogadores de potencial toxicidade.

Nesta terça-feira (7), estamos divulgando nosso terceiro Relatório de Transparência de Xbox, que oferece dados e informações sobre o trabalho que estamos fazendo para criar um ambiente mais seguro e inclusivo para nossos jogadores aproveitarem grandes experiências em jogos.

Em Xbox, continuamos a adaptar nossas tecnologias e abordagens para acompanhar as mudanças na indústria, incluindo o avanço na exploração e uso da inteligência artificial (IA). A IA está se tornando cada vez mais importante na aceleração da moderação de conteúdo em todo o mundo.

Nossa equipe está inovando ativamente com a aplicação responsável da IA para buscar experiências de jogo mais seguras que podem ser utilizadas em toda a indústria de jogos. Nossos esforços visam combinar a importância da supervisão humana com as capacidades em evolução da IA para ampliar a base do nosso trabalho de segurança até o momento.

Atualmente, usamos uma grande gama de modelos existente de IA para detectar conteúdos tóxicos, incluindo a Community Shift, uma plataforma de moderação de conteúdo impulsionada por inteligência artificial e insights humanos, que classifica e filtra bilhões de interações humanas por ano, alimentando muitos de nossos sistemas de segurança em Xbox.

Além disso, há o Turing Bletchley v3, um modelo multilíngue que examina imagens geradas pelo usuário para garantir que apenas conteúdo apropriado seja exibido. Estamos desenvolvendo ativamente maneiras de aprimorar nossos sistemas por meio da inteligência artificial e do Community Sift para entender melhor o contexto das interações, alcançar uma maior escala para nossos jogadores, aprimorar e ampliar as capacidades de nossos moderadores humanos e reduzir a exposição a conteúdo sensível.

Muitos dos nossos sistemas são desenvolvidos para ajudar jogadores a se sentirem seguros, incluídos e respeitados. Nossa tecnologia e abordagem proativas nos permitem bloquear conteúdos de serem compartilhados em nossa plataforma antes que chegue aos jogadores, enquanto as medidas de execução proativas contêm conteúdo ou comportamento indesejado na plataforma. Como mostrado no Relatório de Transparência, 87% (17,9 milhões) do total de medidas de aplicação neste período, foram realizadas por meio de nossos esforços proativos de moderação.

Entre os principais pontos destacados no relatório:

  • Novos insights nos volumes de conteúdos bloqueados: Prevenir a toxicidade antes que ela atinja nossos jogadores é um componente crucial de nossos esforços proativos de moderação, visando proporcionar uma experiência acolhedora e inclusiva para todos. Nossa equipe combina inteligência artificial responsável com supervisão humana para revisar e evitar que conteúdos prejudiciais sejam publicados em nossa plataforma. Para medir melhor nosso sucesso, agora estamos incluindo um novo conjunto de dados que abrange nosso trabalho nessa área, chamado ‘Toxicidade Prevenida’. No último período, mais de 4.7 milhões de conteúdos foram bloqueados antes de chegar aos jogadores, incluindo um aumento de 135 mil (aumento de 39% em relação ao último período) em imagens graças aos investimentos utilizando o novo modelo Turing Bletchley v3.
  • Maior ênfase na abordagem do assédio: estamos comprometidos em criar um ambiente seguro e inclusivo para todos os jogadores. Trabalhamos ativamente para identificar e endereçar qualquer comportamento abusivo, incluindo discurso de ódio, bullying e assédio. Com esse objetivo em mente, fizemos melhorias em nossos processos internos para aumentar nossos esforços proativos de execução neste último período, emitindo 84 mil medidas proativas de execução relacionadas a assédio/bullying (aumento de 95% em relação ao último período). Também lançamos o novo recurso de reporte por voz (somente em inglês) para capturar e reportar assédios pelo chat de voz de jogos. Nossa equipe de segurança continua a tomar medidas proativas para garantir que todos os jogadores estejam cientes de que qualquer tipo de comportamento abusivo é inaceitável em nossa plataforma, e levamos esse comportamento a sério.
  • Compreensão do comportamento dos jogadores após a execução das medidas de controle: Estamos sempre aproveitando a oportunidade para aprender mais sobre como podemos promover uma melhor compreensão dos Padrões da Comunidade com nossos jogadores. Nesse sentido, temos analisado como os jogadores se comportam após receber uma infração. As primeiras análises indicam que a maioria dos jogadores não viola aos Padrões da Comunidade após receber um alerta de infração e interage de forma positiva com a comunidade. Para apoiar ainda mais os jogadores na compreensão do que é e do que não é um comportamento aceitável, lançamos recentemente o Enforcement Strike System, que é feito para melhor ajudar jogadores a entenderem a gravidade de infrações, o efeito acumulativo de diversas infrações e o impacto total em seus registros.

Fora do Relatório de Transparência e ao redor do mundo, nossa equipe continua a trabalhar em estreita colaboração para impulsionar a inovação em segurança em toda a indústria de jogos:

  • Parceria Minecraft e GamerSafer para promover o comprometimento de servidores com a segurança: A Mojang realizou uma parceria com a GamerSafer, junto com integrantes da comunidade de Minecraft, para fazer uma curadoria dos servidores oficiais de Minecraft para que os jogadores possam encontrar facilmente servidores de terceiros comprometidos com práticas de segurança. A Mojang e GamerSafer trabalharam juntos para atualizar padrões de políticas e segurança que são exigidos para que os servidores estejam listados no site. Os servidores em destaque estão em conformidade com as Diretrizes de Uso do Minecraft e demonstram certos requisitos, incluindo fornecer o propósito do servidor, público-alvo e práticas fundamentais de gestão de comunidade que estabelecem o tom, valores e princípios de cada servidor. Além disso, os servidores podem obter diferentes distintivos para mostrar o compromisso com as melhores práticas de segurança. Os gerentes de comunidades dos servidores podem se inscrever para ter seu servidor listado, e os jogadores podem relatar problemas ou entrar em contato diretamente com um servidor para fazer perguntas. O site capacita não apenas os gerentes de comunidades dos servidores a criar jogos e experiências divertidas com segurança em mente, mas também oferece um recurso fácil para os jogadores ou pais encontrarem e explorarem experiências positivas nos servidores.
  • Lançamento das ferramentas de segurança de jogos Xbox para Japão e Singapura: Esses recursos locais capacitam pais e responsáveis a compreender melhor a segurança online nos jogos e a gerenciar a experiência de seus filhos em Xbox. As ferramentas abrangem riscos comuns de segurança, orientações específicas para diferentes faixas etárias, e as funcionalidades disponíveis em Xbox para tornar a experiência do jogador mais segura para todos na família. Anteriormente as ferramentas de segurança de jogos Xbox foram lançadas na Austrália e Nova Zelândia.

Juntos, continuamos a construir uma comunidade onde todos podem se divertir, livres de medo e intimidação e dentro dos limites que eles estabelecem. Isso significa implementar mais ferramentas e sistemas para capacitar os jogadores a interagir respeitosamente uns com os outros. 

Entre medidas de segurança recentemente introduzidas incluem o recurso de reporte por voz, dando ao jogadores a opção de capturar e reportar atividade inapropriada em jogos multiplayer que possem chat de voz, o Enforcement Strike System, que fornece aos jogadores mais informações sobre como seu comportamento afeta sua experiência geral na plataforma.

Cada jogador tem um papel na criação de um ambiente positivo e acolhedor para todos, e esperamos continuar envolvendo todos em nossa jornada pela segurança.

Algumas fontes de informações adicionais: