Call of Duty: Modern Warfare 3 silencia a más de 2 millones de jugadores
¿Qué os parece?
Call of Duty: Modern Warfare 3 (2023) ha implementado el sistema ToxMod de Modulate para moderar el chat de voz utilizando inteligencia artificial. Desde su lanzamiento, la moderación ha intervenido en más de dos millones de cuentas que violaban las normas de comportamiento en el chat. Activision informa que esta acción ha resultado en una reducción del 50% de jugadores expuestos a comentarios despectivos o agresivos.
Inicialmente, la moderación estaba en inglés, pero se extendió a español y portugués después del lanzamiento del juego. El sistema de moderación silencia a los jugadores que incumplen las normas y, en casos repetidos, restringe otras funciones sociales, como el chat de texto. Analizando los datos mensuales, se ha observado una disminución del 8% en el número de jugadores reincidentes en comportamientos perjudiciales.
Otros contenidos en esta categoría:
- -
Como complemento a esta moderación, Call of Duty ha actualizado las normas de comportamiento del juego. Bajo el epígrafe «Trata a todo el mundo con respeto», se prohíbe la intimidación, el acoso y los comentarios despectivos relacionados con la etnia, identidad de género, orientación sexual, entre otros. La nueva política busca mantener una comunidad respetuosa y digna.
Estos cambios en las normas de conducta se implementarán en una actualización futura del juego. Call of Duty: Modern Warfare 3, lanzado en noviembre de 2023, ha demostrado un enfoque proactivo para abordar comportamientos inapropiados en su comunidad, utilizando inteligencia artificial para mejorar la experiencia de juego.