Riot Games チャットでの暴言をシステムが判別して処罰するシステムをテスト中

Riot Gamesは、MOBA「League of Legends」で通報があった場合に悪意のある発言をしたプレイヤーを自動的に処罰するシステムをテストしていることを明らかにした

lol_playerreformsystem.jpg


Riot Gamesがテストしているのはチャットのログを自動で分析するシステムで、他のプレイヤーから通報されると、チャットログ内の暴言や人種差別、性差別、脅迫といった発言がチェックされ、それをシステムがコミュニティの基準で処罰に値するか自動的に判断し、悪質だと判断されるとゲーム終了後15分以内にプレイヤーに警告が送られるという。
場合によっては2週間から永久的な禁止に至るまで程度に応じた処罰が下される。

なんらかの処罰が下される場合はその時のチャットのログも該当のプレイヤーに送られるとのこと。

北米でのテストが上手く行けば、全ての地域のクライアントに導入されることになる。

New player reform system heads into testing

コメント

PR
タイトルとURLをコピーしました