Twitter pide a los usuarios que piensen antes de tuitear

Twitter está llevando a cabo una nueva prueba en la que pide a los usuarios que hagan una pausa y piensen antes de tuitear mensajes dañinos. Cuando Twitter detecte lo que parezca ser una respuesta potencialmente ofensiva al tuit de otra persona, te pedirá que reconsideres revisar el texto antes de publicarlo.

Los usuarios cuyos tuits sean detectados como ofensivos verán aparecer un mensaje emergente en su pantalla, que pregunta: «¿Quieres revisar esto antes de tuitear?». Se les mostrarán tres botones para elegir:

  • Uno para tuitear la respuesta de todos modos.
  • Uno para editar la respuesta.
  • Uno para de eliminar que descartará el tuit por completo.
  • Además, habrá un pequeño enlace para informar si crees que el sistema se equivocó.

No es la primera vez que Twitter prueba esto

Aunque nos pueda resultar algo novedoso, esta no es la primera vez que Twitter realiza una prueba como esta. En mayo de 2020 y de nuevo en agosto de 2020, Twitter llevó a cabo variaciones de este mismo experimento. En estos casos, el texto de la pantalla emergente era prácticamente el mismo, pero el diseño de los tres botones se mostraba diferente y menos colorido.

En las primeras pruebas, Twitter explicó que sus sistemas podían detectar mensajes ofensivos en función del tipo de lenguaje que se había usado en otros tuits reportados en el pasado.

 

Según indica TechCrunch, se ha demostrado que este tipo de medidas pueden tener impacto. Por ejemplo, cuando Twitter comenzó a pedir a los usuarios que leyeran el artículo vinculado en un tuit antes de retuitearlo, la compañía descubrió que los usuarios abrían los artículos un 40% más a menudo que sin el mensaje que les instaba a ello.

Twitter también ha llevado a cabo experimentos similares para tratar de ralentizar el ritmo de una conversación en línea en su plataforma, haciendo cosas como desalentar los retuits sin comentarios o evitar los «Me gusta» en los tuits que contienen información errónea.

Otras redes sociales también han tomado medidas como esta para influir en el comportamiento de sus usuarios. Instagram en 2019 lanzó una función que marcaría los comentarios potencialmente ofensivos antes de que se publicaran, y luego la expandió al texto de las publicaciones. TikTok implantó recientemente un mensaje que preguntaba a los usuarios si estaban seguros de que querían compartir un vídeo con «contenido no verificado».

Por qué se pausaron las pruebas anteriores

No está claro por qué Twitter no llegó a implementar de forma global esta ventana emergente para combatir el abuso en línea, pero, según indica la plataforma, eligieron pausar el experimento anterior para hacer mejoras.

«Detuvimos la prueba cuando nos dimos cuenta de que el mensaje no era coherente y que teníamos que ser más conscientes de cómo marcábamos tuits potencialmente dañinos«, explicó un portavoz de Twitter a TechCrunch. «Esto llevó a que trabajásemos más en torno a nuestro modelo actividad saludable y, al mismo tiempo, facilitó que los usuarios compartiesen comentarios si nos equivocamos«.

Twitter también hizo cambios en el mensaje que aparecía a los usuarios para mejorar la forma en que evaluaban el lenguaje potencialmente ofensivo, y así ofrecer más contexto acerca de por qué alguien ha recibido esta «advertencia». «Mientras estábamos volviendo a probar la medida el verano pasado, comenzamos a observar más detenidamente las relaciones entre los autores de los tuits y las personas que responden para evitar mostrar la advertencia a respuestas que fueran bromas entre amigos«, agregó el portavoz.

Las pruebas anteriores se llevaron a cabo tanto en Android, como en iOS y en web, pero la versión actual solo está disponible en iOS en inglés, de momento. / Vía: diariodigitalis.com-

Deja un comentario

one + 10 =