Moderar una comunidad en línea es un trabajo difícil, a menudo desagradecido, y aún más difícil cuando sucede en un silo.
sobre mí Contracción nerviosaDe hecho, los canales interconectados comparten información de manera informal sobre los usuarios que preferirían que no se les permitiera salir. La compañía ahora formaliza esta práctica personalizada con una nueva herramienta que le permite Listas de bloqueo de intercambio de canalese invite a las comunidades a cooperar para bloquear el acoso en cadena y molestar a los usuarios antes de que causen problemas.
En una conversación con TechCrunch, Allison Hoffman, vicepresidenta de Twitch Product, explicó que, en última instancia, la empresa quiere empoderar a los moderadores de la comunidad brindándoles la mayor cantidad de información posible. Hoffman dice que Twitch ha realizado entrevistas «extensas» con mods para descubrir qué necesitan para sentirse más efectivos y hacer que sus comunidades sean más seguras.
Los moderadores deben tomar muchas decisiones pequeñas rápidamente, la mayor de las cuales es determinar qué usuarios actúan de buena fe, y no causan problemas intencionalmente, y cuáles no.
«Si hay alguien que ves y dices ‘Oh, esa es una carta ligeramente descolorida, me pregunto si es nuevo aquí o si es de mala fe’, si está bloqueado en uno, es más fácil para ti ir , ‘Sí'», dijo Hoffman. No, probablemente no sea la persona adecuada para esta comunidad», y puedes tomar esa decisión más fácilmente».
«Esto reduce la carga mental de los moderadores, además de eliminar de manera más eficiente a alguien inadecuado para la sociedad de su comunidad».
Dentro del tablero del creador, los creadores y los mods de canal pueden solicitar otros canales con los que les gustaría intercambiar listas de usuarios bloqueados. La herramienta es bidireccional, por lo que cualquier canal que solicite otra lista de transmisión la compartirá a cambio. Un canal puede aceptar todas las solicitudes para compartir listas de bloqueo o solo permitir solicitudes de afiliados de Twitch, socios y canales seguidos mutuamente. Todos los canales podrán cambiar las listas de bloqueo con hasta otros 30 canales, lo que permitirá crear una lista muy sólida de usuarios que preferirían ser excluidos, y los canales pueden dejar de compartir sus listas en cualquier momento.
Los canales pueden elegir monitorear o restringir automáticamente cualquier cuenta con la que se identifiquen a través de estas listas compartidas, y estarán restringidas de manera predeterminada. Los usuarios aún pueden ‘supervisar’ el chat, pero se marcarán para que su comportamiento pueda ser monitoreado de cerca y su primer mensaje se marcará con un cuadro rojo que también muestra otros lugares en los que han sido bloqueados. A partir de ahí, el canal puede optar por bloquearlos por completo o darles toda la claridad y convertirlos en un estado «confiable».
Las últimas herramientas de moderación de Twitch son una forma interesante para que los canales hagan cumplir sus reglas contra los usuarios que pueden resultar molestos pero que pueden dejar de infringir las pautas más amplias de la compañía que prohíben el mal comportamiento. No es difícil imaginar un escenario, especialmente para las comunidades marginadas, donde alguien con malas intenciones podría acosar intencionalmente un canal sin violar explícitamente las reglas de Twitch contra el odio y el acoso.
Twitch reconoce que el acoso tiene «muchas manifestaciones», pero a los efectos del arresto de Twitch, dicho comportamiento se define como «acecho, ataques personales, promoción del daño físico, redadas hostiles y espionaje en informes falsos maliciosos». Hay un área gris de comportamiento fuera de esta definición que es difícil de captar, pero la herramienta de bloqueo común es un paso en esa dirección. Sin embargo, si un usuario infringe las reglas de la plataforma Twitch, y no solo las reglas locales del canal, Twitch alienta al canal a informarlo.
«Creemos que esto también ayudará con los asuntos que violan las pautas de nuestra comunidad», dijo Hoffman. «Esperamos que esto también se informe a Twitch para que podamos tomar medidas. Pero creemos que ayudará con el acoso dirigido que vemos que afecta, en particular, a las comunidades marginadas».
En noviembre pasado, Twitch agregó un nuevo método para que los administradores Detección de usuarios que intentan eludir el bloqueo de canales. La herramienta, que la compañía llama «detección de evasión de prohibición», utiliza el aprendizaje automático para marcar automáticamente a cualquier persona en un canal que pueda evadir una prohibición, lo que permite a los moderadores monitorear a ese usuario e interceptar sus mensajes de chat.
Las nuevas funciones se alinean con la visión de Twitch de seguridad «multicapa» en su plataforma, donde los creadores transmiten en vivo, a veces a cientos de miles de usuarios, y las decisiones de moderación deben tomarse en tiempo real en todos los niveles.
“Creemos que este es un poderoso conjunto de herramientas para ayudar a disuadir proactivamente el acoso basado en chat. [and] Una de las cosas que me encantan de esto es que es otra combinación de humanos y tecnología «, dijo Hoffman. «Al detectar la evasión de prohibiciones, usamos el aprendizaje automático para ayudar a encontrar usuarios que creemos que son sospechosos. Con eso, contamos con las relaciones humanas confiables, los creadores y las comunidades que ya han creado para ayudar a proporcionar esta señal”.
El desafío de administración de contenido de Twitch es una especie de crisol, donde las transmisiones peligrosas pueden llegar a una audiencia y causar daño cuando aparecen en tiempo real. La mayoría de las otras plataformas se enfocan en el descubrimiento de contenido posterior al evento: algo se publica, se escanea mediante sistemas automatizados o se informa, y ese contenido permanece en exhibición, se cae o se marca con una advertencia de usuario o plataforma de algún tipo.
La empresa está evolucionando su enfoque de seguridad y escuchando a su comunidad, reflexionando sobre las necesidades de las comunidades marginadas como la negra y la LGBTQ que han luchado durante mucho tiempo para brindar un espacio seguro o una presencia visible en la plataforma.
en marzo , cambiar el color Hizo un llamado a la compañía para que intensifique sus esfuerzos para proteger a los creadores negros con una campaña llamada #TwitchDoBetter. los La comunidad LGBTQ trans y más amplia También presionó a la empresa para que hiciera más para poner fin a las redadas de odio, donde los usuarios abusivos inundan el canal del operador con acoso dirigido. Contracción nerviosa Dos usuarios demandaron a fines del año pasado Para coordinar campañas de odio automatizadas para disuadir a futuros malos actores.
Al final, es probable que las políticas inteligentes aplicadas por igual y las mejoras en el conjunto de herramientas que los corredores tienen a su disposición tengan un mayor impacto en el día a día que las demandas, pero más capas de defensa no harán daño.
«En cuanto a un problema como el acoso dirigido, no se ha resuelto en ninguna parte de Internet», dijo Hoffman. “Y como en el mundo fuera de línea, es un problema para siempre, no un problema que tiene una solución individual.
«Lo que estamos tratando de hacer aquí es simplemente crear un conjunto de herramientas realmente poderoso que sea altamente personalizable, y luego ponerlo en manos de las personas que conocen mejor sus necesidades, que son los creadores y moderadores, permitiéndoles diseñar eso». conjunto de herramientas para sus propias necesidades».