El cambio se mencionó en un informe de estado sobre los esfuerzos contra la toxicidad de Valorant.
El cambio se mencionó en un informe de estado sobre los esfuerzos contra la toxicidad de Valorant.
Riot Games publicó hoy un informe que describe el estado actual de las medidas contra la toxicidad en Valorant, así como el futuro de dichos esfuerzos, incluido un programa beta para grabar y analizar las comunicaciones de voz de los jugadores denunciados por chat abusivo.
Los términos de servicio de Riot se actualizaron para adaptarse a este cambio el año pasado, y Riot comenzará una implementación beta de su programa de moderación de voz dentro de 2022. El informe fue breve en detalles, pero la grabación y el análisis de las comunicaciones de voz para la moderación supuestamente solo se realizarán. se utiliza cuando un jugador ya ha sido denunciado por comportamiento tóxico.
Espero escuchar más detalles sobre el programa antes de su implementación, como cuántas veces se deberá informar a los jugadores antes de ser vigilados, así como si el proceso de castigo y apelación diferirá de los programas anti-toxicidad que Riot ya tiene en lugar.
El cuerpo principal del informe se dedicó a delinear el sistema actual de Valorant para silenciar palabras ofensivas en el chat de texto, la naturaleza esencial de los informes de los jugadores para impactar positivamente en el juego y los resultados de estos sistemas como se refleja en la tasa de prohibiciones y restricciones de comunicaciones.
Curiosamente, aunque los castigos van en aumento, las encuestas de jugadores de Riot muestran que la percepción de acoso en Valorant se mantiene estable. En las propias palabras de Riot: "... nos dimos cuenta de que la frecuencia con la que los jugadores enfrentan acoso en nuestro juego no ha disminuido significativamente. Para resumir, sabemos que el trabajo que hemos hecho hasta ahora es, en el mejor de los casos, fundamental, y hay mucho más para construir en 2022 y más allá". Me impresionó que Riot admitiera esta discrepancia en lugar de simplemente citar el aumento de la tasa de moderación como una victoria.
El informe continuó describiendo algunos planes para el futuro inmediato de los sistemas antitoxicidad de Valorant:
"Castigos generalmente más severos para los sistemas existentes: Para algunos de los sistemas existentes hoy en día para detectar y moderar la toxicidad, hemos pasado algún tiempo en un nivel más "conservador" mientras recopilábamos datos (para asegurarnos de que no estábamos detectando incorrectamente). Nos sentimos mucho más seguros con estas detecciones, por lo que comenzaremos a aumentar gradualmente la severidad y la escalada de estas sanciones. Debería dar como resultado un tratamiento más rápido de los malos.
Moderación de texto más inmediata y en tiempo real: si bien actualmente tenemos detección automática de palabras de "tolerancia cero" cuando se escriben en el chat, los castigos resultantes no ocurren hasta que finaliza el juego. Estamos buscando formas de administrar castigos inmediatamente después de que sucedan.
Mejoras en la moderación de voz existente: actualmente, confiamos en los informes repetidos de los jugadores sobre un infractor para determinar si se ha producido un abuso en el chat de voz. El abuso del chat de voz es significativamente más difícil de detectar en comparación con el texto (y, a menudo, implica un proceso más manual), pero hemos estado tomando medidas incrementales para realizar mejoras. En lugar de mantener todo en secreto hasta que consideremos que la moderación de voz es "perfecta" (que nunca lo será), publicaremos actualizaciones periódicas sobre los cambios y las mejoras que realizamos en el sistema. Esté atento a la próxima actualización sobre esto a mediados de este año.
Programa piloto de prueba regional: nuestro equipo turco lanzó recientemente un programa piloto local para tratar de combatir mejor la toxicidad en su región. En resumidas cuentas, es crear una línea de informes con los agentes de soporte al jugador, que supervisarán los informes entrantes estrictamente dedicados al comportamiento de los jugadores, y tomarán medidas según las pautas establecidas. Considere esta misma versión beta, pero si se muestra lo suficientemente prometedora, una versión podría extenderse a otras regiones".
Considerándolo todo, leo este informe como algo positivo. Me inquieta la idea de que la grabación y el análisis de voz se utilicen contra los jugadores, pero los juegos como Valorant son proyectos inherentemente sociales que ya están sujetos a la recopilación y vigilancia de datos. Cuando pienso en las cosas verdaderamente viles que escuché mientras jugaba algunos juegos competitivos, bueno, me hace apreciar cualquier tipo de esfuerzo para frenar ese comportamiento.
Con la discusión sobre toxicidad y acoso en uno de los juegos de Riot, siento que debo señalar el elefante en la habitación del pasado accidentado de la propia empresa con su cultura interna, con denuncias de acoso y abuso sexual en la empresa. Riot resolvió la demanda por discriminación de género de 2018 en su contra por $ 100 millones a fines del año pasado, y la compañía mantiene públicamente que ha dado un giro. La demanda por acoso presentada contra el CEO de Riot, Nicolo Laurent, por su ex asistente sigue abierta, mientras que una investigación interna de Riot sobre su conducta no encontró irregularidades.
Comentarios
Publicar un comentario