Team Vitality hat gemeinsam mit dem Technologieunternehmen Bodyguard eine umfassende Untersuchung zu toxischem Verhalten und Online-Hass im Esport vorgestellt. Der Bericht liefert erstmals konkrete Einblicke in das Ausmaß von Beleidigungen, Diskriminierung und Anfeindungen, die sich gegen Spieler, Teams und Organisationen richten – und zeigt, wie eine der führenden Esport-Organisationen Europas diesem Problem aktiv begegnet.
Das KARE-Programm: Prävention durch Technologie und Aufklärung
Die Analyse ist Teil des KARE-Programms, das Team Vitality bereits 2023 mit Unterstützung der Monitor-Marke EVNIA ins Leben gerufen hat. Ziel des Projekts ist es, psychische Gesundheit im Esport stärker in den Fokus zu rücken und Maßnahmen zur Prävention, Moderation und Aufklärung zu fördern.
Mithilfe der Bodyguard-Technologie wurden mehrere offizielle Social-Media-Kanäle des Teams untersucht, um toxische Inhalte in Echtzeit zu erkennen und automatisch zu filtern. Der Bericht zeigt: Durch gezielte Moderation und kontinuierliche Aufklärungsarbeit lässt sich die Online-Kommunikation im Esport messbar verbessern.
Fortschritte sichtbar – aber Daten bleiben vage
Laut dem Bericht wurden auf Plattformen wie X (Twitter) und Instagram mehr als 2.000 schädliche Nachrichten identifiziert und blockiert. Der Anteil toxischer Inhalte sank auf 4,6 % auf X und 2,5 % auf Instagram – ein Ergebnis, das auf eine wirksame Moderationsstrategie schließen lässt.
Gleichzeitig bleibt unklar, nach welchen Kriterien die Einstufungen erfolgt sind. Begriffe wie „toxisch“ oder „hasserfüllt“ werden zwar verwendet, doch die zugrunde liegenden Bewertungsmaßstäbe werden im Bericht nicht offengelegt.
| Kategorie | Anteil laut Bericht | Definition unklar |
|---|---|---|
| Hasserfüllte Inhalte | 4,6 % (X) / 2,5 % (Instagram) | Ja |
| Positive Nachrichten | 10 % | Ja |
| Unerwünschte Inhalte (Fußball) | 3,5 % | Ja |
| Unerwünschte Inhalte (Esports) | 1 % | Ja |
Die gemeldeten Fälle umfassen laut Vitality rassistische, homophobe, körperbezogene und religiös motivierte Beleidigungen sowie persönliche Angriffe gegen Spieler und Angehörige. Dennoch bleibt offen, wie einheitlich diese Daten erhoben und kategorisiert wurden.
Auch die Aussage, dass 10 % der Nachrichten als „positiv“ gewertet wurden, wirft Fragen auf – unklar bleibt, ob es sich dabei um echte Unterstützungsbekundungen oder einfach neutrale Kommentare handelt.
Ein wichtiger Schritt, aber kein Endpunkt
Trotz der offenen Fragen zeigt die Untersuchung, dass technologische Lösungen einen spürbaren Beitrag zu einem sichereren Online-Umfeld leisten können.
Durch die Zusammenarbeit von Team Vitality, EVNIA und Bodyguard entsteht ein Modell, das andere Organisationen zur Nachahmung anregen könnte: Kombination aus automatischer Erkennung, Community-Arbeit und Aufklärung.
Der Bericht verdeutlicht zugleich, dass technische Filter allein nicht ausreichen. Nur durch Transparenz, Bildung und langfristige Strategien lässt sich ein echter Kulturwandel erreichen – hin zu einem respektvolleren, psychisch gesünderen Esport-Umfeld.

