Riot Gamesは、MOBA「League of Legends」で通報があった場合に悪意のある発言をしたプレイヤーを自動的に処罰するシステムをテストしていることを明らかにした
Riot Gamesがテストしているのはチャットのログを自動で分析するシステムで、他のプレイヤーから通報されると、チャットログ内の暴言や人種差別、性差別、脅迫といった発言がチェックされ、それをシステムがコミュニティの基準で処罰に値するか自動的に判断し、悪質だと判断されるとゲーム終了後15分以内にプレイヤーに警告が送られるという。
場合によっては2週間から永久的な禁止に至るまで程度に応じた処罰が下される。
なんらかの処罰が下される場合はその時のチャットのログも該当のプレイヤーに送られるとのこと。
北米でのテストが上手く行けば、全ての地域のクライアントに導入されることになる。
コメント