Dritter Xbox Transparency Report: Unser Ansatz für ein noch sichereres Spielerlebnis

Die Gaming-Community und unsere Plattform entwickeln sich ständig weiter. Angesichts des wachsenden Interesses an der Gaming-Branche ist es erforderlich, dass unsere Sicherheitssysteme umfangreicher, reaktionsfähiger und flexibler auf potenzielle Bedrohungen reagieren. Damit verfolgen wir das Ziel, alle Spieler*innen bestmöglich zu schützen.

Heute veröffentlichen wir unseren dritten Xbox Transparency Report, der Einblicke und Daten über unsere Bemühungen bietet, eine sicherere und inklusivere Umgebung für Gamer*innen zu schaffen.

Bei Xbox passen wir unsere Technologie und Herangehensweise kontinuierlich an. Dazu gehören auch die Forschung und Anwendung von künstlicher Intelligenz (KI). Denn KI spielt eine entscheidende Rolle bei der beschleunigten Moderation von Inhalten. Unser Team arbeitet aktiv an Innovationen, um KI verantwortungsbewusst einzusetzen und sicherere Spielerlebnisse zu schaffen, die in der gesamten Spieleindustrie Anwendung finden.

Unser Ziel ist es, die menschlichen Fähigkeiten mit den Möglichkeiten der KI zu verbinden, und dabei bauen wir auf den Grundlagen unserer bisherigen Sicherheitsarbeit auf. Derzeit nutzen wir eine Reihe bestehender KI-Modelle wie Community Sift, um schädliche Inhalte zu erkennen. Bei Community Sift handelt es sich um eine KI-gestützte und auf menschlichen Erkenntnissen basierende Plattform zur Moderation von Inhalten. Das Modell analysiert jährlich Milliarden menschlicher Interaktionen und unterstützt die Verbesserung unserer Sicherheitssysteme auf Xbox. Um sicherzustellen, dass Nutzer*innen nur relevante Inhalte angezeigt bekommen, setzen wir Turing Bletchley v3 ein: ein mehrsprachiges Modell, das Bilder von Nutzer*innen scannt.

Wir sind aktiv darum bemüht, unsere Systeme kontinuierlich weiterzuentwickeln, indem wir KI und Community Sift einsetzen. Dies geschieht, um den Kontext von Interaktionen besser zu erfassen, die Fähigkeiten unserer menschlichen Moderatoren zu erweitern und die Präsenz von sensiblen Inhalten zu reduzieren.

Unsere Systeme wurden in erster Linie entwickelt, um die Sicherheit der Spieler*innen zu gewährleisten. Durch den Einsatz unserer proaktiven Technologie und unserer Herangehensweise sind wir in der Lage, Inhalte auf unserer Plattform zu blockieren, noch bevor sie die Spieler*innen erreichen. Darüber hinaus setzen wir präventive Maßnahmen ein, um unerwünschte Inhalte oder Verhaltensweisen auf der Plattform zu begrenzen. Wie im Bericht deutlich wird, stammten in diesem Zeitraum 87 % (17,09 Millionen) aller durchgeführten Durchsetzungsmaßnahmen von unseren proaktiven Moderationsansätzen.

Einige der wichtigsten Erkenntnisse des Xbox Transparency Reports findest Du hier:

  • Neue Erkenntnisse zur Anzahl der blockierten Inhalte – Die Verhinderung von schädlichen Inhalten, bevor sie unsere Spieler*innen erreichen, ist eine wesentliche Säule unserer Moderationsbemühungen, um ein einladendes und integratives Erlebnis für alle zu gewährleisten. Unser Team kombiniert KI mit menschlichen Fähigkeiten, um schädliche Inhalte zu überprüfen und zu verhindern, dass sie auf unserer Plattform veröffentlicht werden.
     Zur besseren Messung unseres Erfolgs haben wir einen neuen Datensatz namens “Toxicity Prevented” (verhinderte Toxizität) eingeführt, der unsere Arbeit in diesem Bereich erfasst. In diesem letzten Zeitraum wurden über 4,7 Millionen Inhalte blockiert, bevor sie die Spieler*innen erreichten, was einen Anstieg um 135.000 (+39% im Vergleich zum vorherigen Zeitraum) bei den visuellen ergibt – und das alles dank der Nutzung des neuen Turing Bletchley v3 Foundation-Modells.
  • Gesteigertes Engagement im Umgang mit Belästigungen – Unsere Arbeit zielt darauf ab, eine sichere und inklusive Umgebung für alle Spieler*innen zu schaffen. Wir setzen uns aktiv dafür ein, jegliche Formen von missbräuchlichem Verhalten, darunter Hassreden, Mobbing und Belästigung, zu erkennen und zu bekämpfen. Mit diesem Ziel vor Augen haben wir unsere internen Abläufe verbessert, um im letzten Zeitraum unsere Durchsetzungsmaßnahmen zu verstärken. Wir haben 84.000 proaktive Maßnahmen zur Bekämpfung von Belästigung und Mobbing ergriffen (+95% im Vergleich zum vorherigen Zeitraum). Zusätzlich haben wir eine neue Funktion zur Meldung von Belästigungen im Spiel eingeführt, die es den Spielern*innen ermöglicht, Belästigungen per Sprachaufzeichnung zu erfassen und zu melden. Unser Sicherheitsteam arbeitet aktiv daran, Spieler*innen darüber zu informieren, dass sämtliche Formen von missbräuchlichem Verhalten auf unserer Plattform nicht toleriert werden und konsequent bekämpft werden.
  • Verständnis des Verhaltens der Spieler*innen – Unsere Bemühungen zur transparenteren Kommunikation unserer Community-Standards umfassen verschiedene Maßnahmen:  Eine davon besteht darin, das Verhalten der Spieler*innen nach Erteilung von Ermahnungen zu analysieren. Unsere vorläufigen Erkenntnisse deuten darauf hin, dass die überwiegende Mehrheit der Spieler*innen nach einer Ermahnung nicht erneut gegen unsere Community-Standards verstoßen, sondern sich aktiv in der Community engagiert. Um unsere Spieler*innen ein besseres Verständnis für akzeptables Verhalten zu vermitteln, haben wir vor Kurzem das Enforcement Strike System eingeführt. Dieses System soll Spieler*innen dabei helfen, Sanktionen, die kumulative Wirkung mehrerer Sanktionen und die Gesamtauswirkungen auf ihre Spielerakte besser nachzuvollziehen.

Unser weltweites Team arbeitet unermüdlich daran, Sicherheitsinnovationen in der Gaming-Branche voranzutreiben, nicht nur im Rahmen des Transparency Reports:

  • Minecraft und GamerSafer arbeiten zusammen, um sicherheitsorientierte Server zu unterstützen: Mojang Studios, der Entwickler von Minecraft, hat sich mit GamerSafer und Mitgliedern der Minecraft-Community zusammengeschlossen, um die offizielle Minecraft-Serverliste zu erstellen. Das ermöglicht den Spieler*innen, sichere Server von Drittanbietern problemlos zu finden. Mojang Studios und GamerSafer arbeiten kontinuierlich zusammen, um die Richtlinien und Sicherheitsstandards für die Serverzulassung stets aktuell zu halten. Server, die den Nutzungsrichtlinien von Minecraft entsprechen, müssen gewisse Kriterien erfüllen: Dazu zählen der Serverzweck, die Zielgruppe und grundlegende Community-Management-Praktiken, die den Ton, die Werte und die Prinzipien des Servers festlegen. Ergänzend dazu werden Server mit verschiedenen Abzeichen ausgezeichnet, um ihr Engagement für bewährte Sicherheitspraktiken zu unterstreichen. Server-Community-Manager können ihren Server registrieren, während Spieler*innen die Möglichkeit haben, Probleme zu melden oder direkt mit einem Server in Kontakt zu treten, um Fragen zu stellen. Die Website dient dazu, Server-Community-Manager*innen bei der Erstellung unterhaltsamer und sicherer Inhalte zu helfen. Sie bietet Spieler*innen und Eltern eine benutzerfreundliche Ressource, um positive Servererfahrungen zu suchen und zu erkunden.

Gemeinsam setzen wir unsere Bemühungen fort, eine Gemeinschaft zu gestalten, in der jede*r Freude am Spiel haben kann, ohne Angst oder Diskriminierung. Dazu gehören kontinuierliche Maßnahmen zur Förderung eines respektvollen Umgangs unter den Spieler*innen. Neue Sicherheitsmaßnahmen beinhalten die Voice-Reporting-Funktion, mit der Spieler*innen unangemessenes Sprachverhalten im In-Game-Voice-Chat von Multiplayer-Spielen melden können. Zusätzlich bieten wir das Enforcement-Strike-System an, das den Spieler*innen mehr Einblicke in die Auswirkungen ihres Verhaltens auf ihr Gesamterlebnis auf der Plattform verschafft.

Jede*r Einzelne in der Gaming-Community leistet seinen/ihren Beitrag, um eine positive und einladende Atmosphäre für alle zu schaffen! Wir sind gespannt darauf, auch weiterhin alle Gamer*innen auf unserem Weg zur Sicherheit mitzunehmen.

Du möchtest mehr über sicheres Verhalten in der Gaming Community lernen? Dann findest Du hier ein paar informative Quellen:

Du benötigst weitere Hilfe? Dann kontaktiere uns via Call, Online-Chat und mehr