Facebook ha compartido su último Informe de cumplimiento de estándares comunitarios, que describe sus diversas acciones sobre el cumplimiento de las políticas debido a violaciones de las reglas de la plataforma durante los últimos tres meses de 2020. Además, la red social también ha publicado más información sobre su avance en materia de detección por inteligencia artificial (IA), y sobre cómo sus sistemas están mejorando para detectar contenido ofensivo antes de que alguien pueda verlo.
En primer lugar, como recoge el portal Social Media Today, Facebook dice en su informe que sus esfuerzos proactivos para abordar el discurso del odio y el acoso han conducido a mejoras sustanciales en la aplicación, destacando la caída de la prevalencia del discurso del odio en la plataforma a 7 u 8 visualizaciones de discurso de odio por cada 10.000 visualizaciones de contenido general (0,07%).
Claramente, es un gran resultado, pero el problema en el caso de Facebook es la escala. De 7 a 8 visualizaciones por cada 10.000 publicaciones es una estadística excelente, pero con 2.800 millones de usuarios, cada uno de los cuales está viendo, por ejemplo, 100 publicaciones al día, el alcance de la exposición al discurso del odio sigue siendo significativo. Aun así, los sistemas de Facebook están mejorando, lo que es una señal positiva de sus esfuerzos proactivos.
Facebook vs. el discurso del odio
Facebook también ha tomado medidas adicionales para prohibir grupos peligrosos, como QAnon, a la vez que ha intensificado sus normativas contra la incitación al odio de mayor peligro a raíz de los disturbios del Capitolio de Estados Unidos el mes pasado.
En general, Facebook dice que la prevalencia de todo el contenido infractor se ha reducido al 0,04%.
Facebook también dice que sus sistemas automatizados están mejorando mucho en la detección de incidentes de intimidación y acoso:
«En los últimos tres meses de 2020, lo hicimos mejor que nunca para detectar de manera proactiva el discurso de odio y el contenido de intimidación y acoso: el 97% de los discursos de odio eliminados de Facebook fueron detectados por nuestros sistemas automatizados antes de que cualquier humano los marcara, en comparación con el 94% en el trimestre anterior y el 80,5% a finales de 2019».
La forma de medir estos datos es muy importante: si tal violación nunca se detecta, entonces no se puede incluir en las estadísticas. Pero lo que quiere decir Facebook con esto es que están eliminando una mayor cantidad de contenido potencialmente ofensivo mediante la evolución de sus sistemas fundamentados en modelos de aprendizaje mejorados (machine learning).
Facebook tomó medidas sobre 6,3 millones de incidentes de posible bullying y acoso en el cuarto trimestre del año pasado.
Su gráfico sigue una trayectoria ascendente similar al de la aplicación de las normativas de intimidación y acoso en Instagram.
La importancia del contexto en los sistemas de detección por IA
Como se ha señalado, para avanzar en sus sistemas de detección automatizados, Facebook ha tenido que evolucionar la forma en que entrena sus modelos de IA, en función de las variaciones en el uso del lenguaje, al permitirles detectar mejor el contexto circundante:
«Un ejemplo de esto es la forma en que nuestros sistemas detectan contenido infractor en los comentarios de las publicaciones. Históricamente, esto ha sido un desafío para la IA, porque determinar si un comentario infringe nuestras políticas a menudo depende del contexto de la publicación a la que responde. La frase ‘esta es una gran noticia’ puede significar cosas completamente diferentes cuando se deja debajo de las publicaciones que anuncian el nacimiento de un hijo o de la muerte de un ser querido».
Facebook dice que los avances de su sistema se han centrado en establecer el contexto circundante de cada comentario al garantizar que sus sistemas puedan analizar no solo el texto en sí, sino también las imágenes, el contexto del idioma y otros detalles contenidos en una publicación.
«Los resultados de estas acciones son evidentes en las cifras publicadas hoy: en los primeros tres meses de 2020, nuestros sistemas detectaron solo el 16% del contenido de intimidación y acoso sobre el que tomamos medidas antes de que alguien lo denunciara. A finales de año, ese número había aumentado a casi el 49%, lo que significa que se detectaron y eliminaron millones de piezas adicionales de contenido por violar nuestras políticas antes de que alguien lo denunciara».
La red social anunció recientemente que probará a reducir el contenido político de los feeds de noticias de algunos usuarios en ciertos países, con el fin de poner medidas contra el contenido polarizante. / Vía: diariodigitalis.com-