Los años pasan y, desgraciadamente, la toxicidad permanece como un problema grave en la industria de los videojuegos. En las propuestas multiplayer como Call of Duty, es muy común encontrar jugadores que hacen comentarios ofensivos y discriminatorios con mala fe. Consciente de este fenómeno, Activision tomará medidas más energéticas para crear un espacio seguro en los apartados online de los juegos de la franquicia.
El año pasado, la empresa actualizó su código de conducta y presentó los nuevos lineamientos que los jugadores deben seguir si desean evitar cualquier amonestación. Además, empezó a limitar y deshabilitar los canales de comunicación en CoD: Modern Warfare II y CoD: Warzone 2.0 a los usuarios que hacían comentarios ofensivos.
Según Activision, estas medidas ya dieron como resultado la restricción de más de 1 millón de cuentas. Ahora, presentará un nuevo sistema para reforzar estos esfuerzos antitoxicidad.
Video relacionado: Call of Duty: Modern Warfare III - Avance de Avance
Activision muestra mano dura contra los jugadores tóxicos de Call of Duty
Gracias a una asociación con Modulate, la compañía dio a conocer en un blog que implementará el ToxMod, una tecnología de moderación de chat de voz que funciona gracias a la inteligencia artificial. El objetivo es identificar el discurso tóxico en tiempo real para combatir mensajes de odio, lenguaje discriminatorio, el acoso y más.
Esta tecnología se implementará en estado Beta el próximo 30 de agosto en Norteamérica dentro de Call of Duty: Modern Warfare II y Call of Duty: Warzone. El lanzamiento mundial está previsto para el 10 de noviembre, por lo que también estará integrado en CoD: Modern Warfare III.
El sistema será compatible con el inglés en su estreno, pero se ampliará y abarcará idiomas adicionales en una fecha posterior.
Aunque esta nueva tecnología de IA permitirá detectar el discurso problemático en tiempo real, es posible que en algunos casos se requiera una revisión adicional para identificar el contexto y tomar las medidas necesarias. "A medida que el sistema crezca, nuestros procesos y tiempos de respuesta evolucionarán", dijo la compañía.
En su Código de Conducta, Activision señala que están permitidas las bromas amistosas, pero hace hincapié en que no se tolerará los discursos de odio, la discriminación, el sexismo y otros tipos de lenguaje dañino. Además, destacó que el chat de voz sólo se graba “con el propósito expreso de moderación”.
“Nunca hay lugar para comportamientos disruptivos o acoso en los juegos. Abordar el chat de voz tóxico en particular es un gran desafío en los juegos desde hace mucho tiempo”, comentó Michael Vance, director de tecnología de la compañía.
Pero cuéntanos, ¿qué opinas de esta iniciativa? ¿Crees que es una buena idea? Déjanos leerte en los comentarios.
Da clic aquí para leer más noticias relacionadas con Call of Duty.
Video relacionado: Sony y Microsoft están cegados por Call of Duty
Editorial: Gaming / Facebook / Twitter / YouTube / Instagram / Noticias / Discord /Telegram / Google News
Comentarios
Mejores
Nuevos