Ubisoft und Riot Games werfen einen genaueren Blick auf toxisches Verhalten in Online-Spielen und wollen eine gemeinsame Studie durchführen, die das toxische Verhalten von Spielern in Online-Spielen untersucht – und, was noch wichtiger ist, wie man ihm entgegenwirken kann.
Die Unternehmen haben dies angekündigt. Unter dem Titel Zero Harm In Comms soll untersucht werden, ob störendes Verhalten durch den Einsatz von Datenbanken mit Informationen über Spieler und einer künstlichen Intelligenz schneller bekämpft werden kann.
Toxicity den Kampf ansagen
In der gesamten Gaming Branche arbeiten viele Menschen hart daran, Gaming positiver und inklusiver zu gestalten und letztlich für alle mehr Spaß zu bringen. Um bei dieser komplexen Herausforderung sinnvolle Veränderungen zu erreichen, ist die Zusammenarbeit der gesamten Spieleindustrie erforderlich.
Riot Games and Ubisoft Tackling Toxicity in Games With New Project
Zero Harm in Comms will see Riot Games and Ubisoft work together on making online communities safer, more inclusive, and more fun for everyone.https://t.co/C4xJRM5DQT pic.twitter.com/H4JtwIXpPp— Jumaralo Hex (@JumaraloHexCore) November 16, 2022
Toxisches Verhalten in Online-Spielen ist nach wie vor ein Problem. So sind die Spieler beispielsweise von Beschimpfungen, sexuellen und rassistischen Kommentaren betroffen. Das Ziel von Ubisoft und Riot Games ist es, eine branchenweite Lösung zu finden, um den Spielern ein angenehmeres virtuelles Erlebnis zu bieten. Die Ergebnisse der Studie werden daher im Jahr 2023 der gesamten Gaming Branche zur Verfügung stehen.
Aus diesem Grund arbeiten Riot und Ubisoft in einer technischen Partnerschaft zusammen, um eine Datenbank zu entwickeln, die In-Game-Daten sammelt, um KI-basierte, präventive Moderationstools besser zu trainieren, die störendes Verhalten im Spiel erkennen und eindämmen. Alle gesammelten Daten, die eine Person identifizieren könnten, werden vor der Weitergabe entfernt.