Toxic Behaviour/Hate Speech Toxic Behaviour und Hate Speech sind in der Games-Branche ein ernstzunehmendes Problem, gegen das entschieden vorgegangen wird. Maßnahmen gegen solches Verhalten liegt auch im Eigeninteresse der Branche und der einzelnen Anbieter, weil toxische Communitys den Ruf eines Spiels schädigen und dies dazu führen kann, dass Spielerinnen und Spieler ein Computerspiel nicht mehr nutzen wollen. Für gesetzliche Regulierungsansätze muss zwischen Social-Media-Plattformen, Games, Foren und Streaming-Dienste unterschieden und die Besonderheiten des jeweiligen Mediums berücksichtigt werden, weil sich das Wesen von Kommunikation jeweils ganz unterschiedlich darstellt. In-game-Chats sind in der Regel nur sehr kurz sichtbar und damit wird Hate-Speech hier anders als bei anderen Plattformen nicht perpetuiert. Eine pauschale Übertragung von Regelungen aus dem NetzDG wie die 24-stündige Löschpflicht ist wegen der deutlich kürzeren Verweilzeit von In-game-Kommunikation nicht passend. Für die vielen spielbegleitenden Foren, in denen es zu toxischen Verhalten kommt, haben Anbieter bereits viele innovative und vor allem wirksame Mechanismen etabliert, um ihre Communitys vor Hatern und Trollen zu schützen. In vielen Foren gibt es Community-Manager, die als Vorbild fungieren und toxische Spielerinnen und Spieler auch direkt ansprechen. Bei wiederholten Verstößen gegen die Netiquette werden Accounts zeitweise gesperrt. Auch Shadow Banning hat sich als effektives Mittel gegen unbelehrbare Hater und Trolle bewährt. Diese Regeln werden meist global einheitlich angewandt, so dass Community-Standards auch weltweit etabliert werden. Die Stellungnahme des game zum NetzDG findet sich hier.