El tercer reporte de transparencia de Xbox muestra la evolución de nuestro enfoque para crear experiencias de juego más seguras

Nuestra plataforma y la comunidad de jugadores en general evolucionan constantemente. A medida que la industria de los juegos sigue creciendo, los sistemas de seguridad requieren aún más profundidad, velocidad y agilidad para proteger a los jugadores de ambientes potencialmente tóxicos. Hoy publicamos nuestro tercer Informe de Transparencia de Xbox, que proporciona datos y perspectivas sobre el trabajo que estamos realizando para crear un entorno más seguro e inclusivo para que nuestros jugadores disfruten de grandes experiencias de juego.

En Xbox, seguimos adaptando nuestras tecnologías y enfoques para mantenernos al día con los cambios de la industria, que incluyen el avance en la exploración y el uso de la inteligencia artificial (IA). La IA es cada vez más importante a la hora de acelerar la moderación de contenidos en todo el mundo. Nuestro equipo está innovando activamente con la aplicación responsable de la IA para conseguir experiencias de usuario más seguras que puedan utilizarse en toda la industria del juego. Nuestros esfuerzos se dirigen a combinar la importancia de la supervisión humana con las capacidades en evolución de la IA para construir sobre los cimientos del trabajo de seguridad que hemos realizado hasta la fecha.

En la actualidad, utilizamos una serie de modelos de IA para detectar contenidos tóxicos, como Community Sift, una plataforma de moderación de contenidos basada en IA y en el conocimiento humano que clasifica y filtra miles de millones de interacciones humanas al año, y que impulsa muchos de nuestros sistemas de seguridad en Xbox; y Turing Bletchley v3, el modelo multilingüe que analiza las imágenes generadas por los usuarios para garantizar que solo se muestre el contenido adecuado. Estamos desarrollando activamente formas de mejorar aún más nuestros sistemas mediante IA y Community Sift para comprender mejor el contexto de las interacciones, lograr una mayor escala para nuestros jugadores, elevar y aumentar las capacidades de nuestros moderadores humanos y reducir la exposición a contenidos sensibles.

Muchos de nuestros sistemas se han desarrollado para ayudar a los jugadores a sentirse seguros, incluidos y respetados. Nuestra tecnología y enfoque proactivos nos permiten bloquear los contenidos que se comparten en nuestra plataforma antes de que lleguen a los jugadores, mientras que las medidas proactivas ponen freno a los contenidos o conductas no deseados en la plataforma. Como se indica en el Informe de Transparencia, el 87% (17.09 millones) del total de infracciones de este periodo se produjeron gracias a nuestros esfuerzos de moderación proactiva.

Entre las principales conclusiones del informe:

  • Nuevas perspectivas sobre los volúmenes de contenido bloqueado – Evitar la toxicidad antes de que llegue a nuestros jugadores es un componente crucial de nuestros esfuerzos de moderación proactiva para ofrecer una experiencia cálida e inclusiva para todos. Nuestro equipo combina la IA responsable con la supervisión humana para revisar y evitar que se publiquen contenidos nocivos en nuestra plataforma. Para medir mejor nuestro éxito, ahora incluimos un nuevo conjunto de datos que cubre nuestro trabajo en este espacio llamado “Toxicidad evitada”. En este último periodo, se bloquearon más de 4.7 millones de contenidos antes de que llegaran a los jugadores, incluido un aumento de 135,000 (+39% con respecto al periodo anterior) en imágenes gracias a las inversiones en la utilización del nuevo modelo de base Turing Bletchley v3.
  • Mayor énfasis en la lucha contra el acoso – Nos comprometemos a crear un entorno seguro e inclusivo para todos los jugadores. Trabajamos activamente para identificar y abordar cualquier comportamiento abusivo, incluidos el discurso de odio, la intimidación y el acoso. Con este objetivo en mente, hemos realizado mejoras en nuestros procesos internos para aumentar nuestros esfuerzos proactivos de aplicación de la ley en este último periodo, emitiendo 84,000 sanciones proactivas por acoso/intimidación (+95% desde el último periodo). También lanzamos nuestra nueva función de denuncia por voz para capturar y denunciar el acoso por voz en el juego. Nuestro equipo de seguridad sigue tomando medidas proactivas para garantizar que todos los jugadores sean conscientes de que cualquier tipo de comportamiento abusivo es inaceptable en nuestra plataforma, y nos lo tomamos muy en serio.
  • Comprender el comportamiento de los jugadores tras la aplicación de la normativa – Siempre aprovechamos la oportunidad para aprender más sobre cómo podemos impulsar una mejor comprensión de las Normas Comunitarias entre nuestros jugadores. Para ello, hemos estado analizando cómo se comportan los jugadores tras recibir una sanción. Los primeros datos indican que la mayoría de los jugadores no infringen las normas comunitarias después de recibir una sanción y se comprometen positivamente con la comunidad. Para ayudar aún más a los jugadores a entender lo que es y lo que no es un comportamiento aceptable, hemos lanzado recientemente nuestro Sistema de Disciplinario basado en strikes, diseñado para ayudarles a entender mejor la gravedad de las sanciones, el efecto acumulativo de varias y el impacto total en su historial.

Outside of the Transparency Report and around the world, our team continues to work closely to drive innovation in safety across the gaming industry:

  • Minecraft y GamerSafer se asocian para promover servidores comprometidos con la seguridad. Mojang Studios, desarrollador de Minecraft, se ha asociado con GamerSafer, junto con miembros de la comunidad de Minecraft, para confeccionar la Lista Oficial de Servidores de Minecraft, de modo que los jugadores puedan encontrar fácilmente servidores de terceros comprometidos con prácticas seguras. Mojang Studios y GamerSafer trabajan juntos regularmente para actualizar las políticas y normas de seguridad que se requieren para que los servidores que figuran en el sitio. Los servidores destacados cumplen con las Guías de Uso de Minecraft y demuestran ciertos requisitos, incluyendo proporcionar el propósito del servidor, la audiencia prevista y las prácticas fundamentales de gestión de la comunidad que establecen el tono, los valores y los principios de cada servidor. Además, los servidores pueden ganar diferentes insignias para mostrar su compromiso con las mejores prácticas de seguridad y protección. Los administradores de la comunidad de servidores pueden inscribirse para que su servidor aparezca en la lista, y los jugadores pueden informar de problemas o ponerse en contacto directamente con un servidor para hacer preguntas. El sitio no sólo permite a los administradores de comunidades de servidores crear juegos y experiencias divertidas teniendo en cuenta la seguridad, sino que también ofrece un recurso sencillo para que los jugadores o los padres encuentren y exploren experiencias positivas en los servidores.
  • Lanzamiento de Xbox Gaming Safety Toolkits para Japón y Singapur. Estos recursos locales ayudan a los padres y cuidadores a comprender mejor la seguridad online en los juegos y a gestionar la experiencia de sus hijos en Xbox. Los toolkits cubren riesgos de seguridad comunes, orientación específica para niños de todas las edades y las funciones disponibles en Xbox para ayudar a que la experiencia del jugador sea más segura para todos en la familia. Entre las versiones anteriores se incluye el kit de herramientas de seguridad para juegos Xbox para Australia y Nueva Zelanda.

Juntos, seguimos construyendo una comunidad en la que todos puedan divertirse, libres de miedo e intimidación y dentro de los límites que establezcan. Esto significa poner en marcha más herramientas y sistemas que permitan a los jugadores interactuar respetuosamente entre sí. Entre las medidas de seguridad introducidas recientemente se incluye nuestra función de denuncia por voz, que da a los jugadores la opción de capturar y denunciar cualquier actividad de voz inapropiada en cualquier juego multijugador con chat de voz dentro del juego, así como el sistema de medidas disciplinarias basado en strikes, que proporciona a los jugadores más información sobre cómo su comportamiento afecta su experiencia general en la plataforma.

Todos los jugadores tienen un papel que desempeñar en la creación de un entorno positivo y acogedor para todos, y esperamos seguir sumando a todos en nuestro viaje hacia la seguridad.

Algunos recursos adicionales: