Ícone do site Xbox Wire em Português

Terceiro Relatório de Transparência Xbox mostra nossa abordagem em constante evolução para criar experiências de jogos mais seguras

Nossa plataforma e a comunidade de games no geral estão evoluindo constantemente. Conforme a indústria de games continua a crescer, sistemas de segurança requer mais profundidade, velocidade e agilidade para proteger jogadores de potencial toxicidade.

Nesta terça-feira (7), estamos divulgando nosso terceiro Relatório de Transparência de Xbox, que oferece dados e informações sobre o trabalho que estamos fazendo para criar um ambiente mais seguro e inclusivo para nossos jogadores aproveitarem grandes experiências em jogos.

Em Xbox, continuamos a adaptar nossas tecnologias e abordagens para acompanhar as mudanças na indústria, incluindo o avanço na exploração e uso da inteligência artificial (IA). A IA está se tornando cada vez mais importante na aceleração da moderação de conteúdo em todo o mundo.

Nossa equipe está inovando ativamente com a aplicação responsável da IA para buscar experiências de jogo mais seguras que podem ser utilizadas em toda a indústria de jogos. Nossos esforços visam combinar a importância da supervisão humana com as capacidades em evolução da IA para ampliar a base do nosso trabalho de segurança até o momento.

Atualmente, usamos uma grande gama de modelos existente de IA para detectar conteúdos tóxicos, incluindo a Community Shift, uma plataforma de moderação de conteúdo impulsionada por inteligência artificial e insights humanos, que classifica e filtra bilhões de interações humanas por ano, alimentando muitos de nossos sistemas de segurança em Xbox.

Além disso, há o Turing Bletchley v3, um modelo multilíngue que examina imagens geradas pelo usuário para garantir que apenas conteúdo apropriado seja exibido. Estamos desenvolvendo ativamente maneiras de aprimorar nossos sistemas por meio da inteligência artificial e do Community Sift para entender melhor o contexto das interações, alcançar uma maior escala para nossos jogadores, aprimorar e ampliar as capacidades de nossos moderadores humanos e reduzir a exposição a conteúdo sensível.

Muitos dos nossos sistemas são desenvolvidos para ajudar jogadores a se sentirem seguros, incluídos e respeitados. Nossa tecnologia e abordagem proativas nos permitem bloquear conteúdos de serem compartilhados em nossa plataforma antes que chegue aos jogadores, enquanto as medidas de execução proativas contêm conteúdo ou comportamento indesejado na plataforma. Como mostrado no Relatório de Transparência, 87% (17,9 milhões) do total de medidas de aplicação neste período, foram realizadas por meio de nossos esforços proativos de moderação.

Entre os principais pontos destacados no relatório:

Fora do Relatório de Transparência e ao redor do mundo, nossa equipe continua a trabalhar em estreita colaboração para impulsionar a inovação em segurança em toda a indústria de jogos:

Juntos, continuamos a construir uma comunidade onde todos podem se divertir, livres de medo e intimidação e dentro dos limites que eles estabelecem. Isso significa implementar mais ferramentas e sistemas para capacitar os jogadores a interagir respeitosamente uns com os outros. 

Entre medidas de segurança recentemente introduzidas incluem o recurso de reporte por voz, dando ao jogadores a opção de capturar e reportar atividade inapropriada em jogos multiplayer que possem chat de voz, o Enforcement Strike System, que fornece aos jogadores mais informações sobre como seu comportamento afeta sua experiência geral na plataforma.

Cada jogador tem um papel na criação de um ambiente positivo e acolhedor para todos, e esperamos continuar envolvendo todos em nossa jornada pela segurança.

Algumas fontes de informações adicionais:

Sair da versão mobile