Ícono del sitio Xbox Wire en Español

El tercer reporte de transparencia de Xbox muestra la evolución de nuestro enfoque para crear experiencias de juego más seguras

Nuestra plataforma y la comunidad de jugadores en general evolucionan constantemente. A medida que la industria de los juegos sigue creciendo, los sistemas de seguridad requieren aún más profundidad, velocidad y agilidad para proteger a los jugadores de ambientes potencialmente tóxicos. Hoy publicamos nuestro tercer Informe de Transparencia de Xbox, que proporciona datos y perspectivas sobre el trabajo que estamos realizando para crear un entorno más seguro e inclusivo para que nuestros jugadores disfruten de grandes experiencias de juego.

En Xbox, seguimos adaptando nuestras tecnologías y enfoques para mantenernos al día con los cambios de la industria, que incluyen el avance en la exploración y el uso de la inteligencia artificial (IA). La IA es cada vez más importante a la hora de acelerar la moderación de contenidos en todo el mundo. Nuestro equipo está innovando activamente con la aplicación responsable de la IA para conseguir experiencias de usuario más seguras que puedan utilizarse en toda la industria del juego. Nuestros esfuerzos se dirigen a combinar la importancia de la supervisión humana con las capacidades en evolución de la IA para construir sobre los cimientos del trabajo de seguridad que hemos realizado hasta la fecha.

En la actualidad, utilizamos una serie de modelos de IA para detectar contenidos tóxicos, como Community Sift, una plataforma de moderación de contenidos basada en IA y en el conocimiento humano que clasifica y filtra miles de millones de interacciones humanas al año, y que impulsa muchos de nuestros sistemas de seguridad en Xbox; y Turing Bletchley v3, el modelo multilingüe que analiza las imágenes generadas por los usuarios para garantizar que solo se muestre el contenido adecuado. Estamos desarrollando activamente formas de mejorar aún más nuestros sistemas mediante IA y Community Sift para comprender mejor el contexto de las interacciones, lograr una mayor escala para nuestros jugadores, elevar y aumentar las capacidades de nuestros moderadores humanos y reducir la exposición a contenidos sensibles.

Muchos de nuestros sistemas se han desarrollado para ayudar a los jugadores a sentirse seguros, incluidos y respetados. Nuestra tecnología y enfoque proactivos nos permiten bloquear los contenidos que se comparten en nuestra plataforma antes de que lleguen a los jugadores, mientras que las medidas proactivas ponen freno a los contenidos o conductas no deseados en la plataforma. Como se indica en el Informe de Transparencia, el 87% (17.09 millones) del total de infracciones de este periodo se produjeron gracias a nuestros esfuerzos de moderación proactiva.

Entre las principales conclusiones del informe:

Outside of the Transparency Report and around the world, our team continues to work closely to drive innovation in safety across the gaming industry:

Juntos, seguimos construyendo una comunidad en la que todos puedan divertirse, libres de miedo e intimidación y dentro de los límites que establezcan. Esto significa poner en marcha más herramientas y sistemas que permitan a los jugadores interactuar respetuosamente entre sí. Entre las medidas de seguridad introducidas recientemente se incluye nuestra función de denuncia por voz, que da a los jugadores la opción de capturar y denunciar cualquier actividad de voz inapropiada en cualquier juego multijugador con chat de voz dentro del juego, así como el sistema de medidas disciplinarias basado en strikes, que proporciona a los jugadores más información sobre cómo su comportamiento afecta su experiencia general en la plataforma.

Todos los jugadores tienen un papel que desempeñar en la creación de un entorno positivo y acogedor para todos, y esperamos seguir sumando a todos en nuestro viaje hacia la seguridad.

Algunos recursos adicionales:    

Salir de la versión móvil