Blog

Facebook sugiere que los cierres de Covid-19 perjudican su habilidad para combatir el suicidio, las autolesiones y el material de explotación de bebés

Imagen: Olivier Douliery (Getty Pictures)

Facebook dijo el martes que simplemente no puede moderar su sitio de Internet o su subsidiaria Instagram de la manera más efectiva posible para clases específicas de violaciones de las reglas durante la pandemia del nuevo coronavirus, aunque prácticamente nadie tuvo la oportunidad de apelar las selecciones de sus moderadores en el próximo. trimestre de 2020.

Por cada versión más actualizada de su Informe de cumplimiento de requisitos de la comunidad, que maneja el período del segundo trimestre de abril de 2020 a junio de 2020, Facebook tomó medidas sobre 1,7 millones de piezas de contenido que violaron sus pautas sobre suicidio y autolesión en el primer trimestre. , pero solo 911.000 en el segundo trimestre. (Ese rango está por debajo de los 5 millones en el cuarto trimestre de 2019). Si bien la aplicación de la oposición al contenido que viola los procedimientos de Facebook sobre desnudez infantil y explotación sexual aumentó de 8,6 millones a 9,5 millones, fue muy bajo en Instagram, donde la cantidad cayó. de aproximadamente 1 millón a aproximadamente 479,000. La aplicación de las políticas que prohíben el suicidio y el contenido de autolesiones en Instagram también se desplomó de 1,3 millones de pasos en el primer trimestre a 275.000 acciones en el segundo. Instagram mejoró la aplicación de contenido gráfico y violento, pero en Facebook esa clase cayó de 25,4 millones de pasos en el primer trimestre a 15,1 millones de acciones en el segundo trimestre.

El vicepresidente de Integrity Person de Facebook, Rosen, escribió en una publicación en un sitio web que la menor selección de acciones tomadas fue consecuencia directa del coronavirus, ya que la implementación de pautas en todos esos tipos requiere una mayor supervisión humana. La presión de los moderadores de artículos de la compañía, muchos de los cuales son contratistas, no pueden hacer su tarea correctamente o desde casa, de acuerdo con Rosen:

Con menos revisores de contenido, tomamos medidas sobre muchos menos elementos de contenido escrito en Facebook e Instagram por suicidio y lesiones personales, desnudez de niños o niñas y explotación sexual en Instagram. Independientemente de estas disminuciones, priorizamos y tomamos medidas sobre la información más peligrosa solo dentro de estos grupos. Nuestro objetivo sigue siendo adquirir y eliminar este contenido escrito al aumentar la capacidad del revisor de la forma más rápida y segura posible.

El informe no proporcionó estimaciones de la prevalencia de desnudez violenta, gráfica o de adultos y actividad sexual en Facebook o Instagram, y Rosen declaró que la corporación “priorizó eliminar información peligrosa sobre la medición de ciertos intentos”.

El curso de acción de apelaciones de Facebook, mediante el cual los usuarios finales pueden desafiar una opción de moderación, también se ha estabilizado a casi cero grados en cada clase. La corporación anunció de antemano en julio que con moderadores fuera del entorno de oficina, daría a los usuarios finales que quieran atractivo “la alternativa de explicarnos que no están de acuerdo con nuestra decisión y observaremos esos comentarios para incrementar nuestra precisión, pero lo más probable es que no evaluemos la información la próxima vez “.

Facebook tomó medidas en una gama mucho mayor de publicaciones por violar las reglas contra el discurso de odio en el segundo trimestre (22,5 millones, frente a los 9,6 millones del primer trimestre). Escribió en el informe que las herramientas automatizadas de comprensión de dispositivos ahora localizan el 94.5 por ciento del discurso de disgusto que la corporación termina por bajar, algo que atribuyó para ayudar en muchos más idiomas (inglés, español y birmano). La aplicación de la ley en oposición a la información estructurada del equipo de odio disminuyó (4,7 millones a 4 millones) mientras que la de material contra el terrorismo aumentó (6,3 millones a 8,7 millones).

Curiosamente, el total de material que luego se restauró sin un encantamiento inmediatamente después de quedar eliminado bajo los principios antiestructurados de odio y terrorismo se disparó en el segundo trimestre de Facebook restauró 135,000 publicaciones en la clase inicial y 533,000 en la siguiente. No muestra que Facebook haya procesado una atracción en ambas clases en el segundo trimestre, lo que sugiere que los moderadores humanos de la compañía tienen la mirada puesta en otra parte. Facebook no revela los hechos internos que pueden mostrar cuán comunes son los discursos de odio o los equipos de desprecio organizados en la página web.

Tenga en cuenta que todo esto es de acuerdo con Facebook, que hace un tiempo enfrentó acusaciones de que hace la vista gorda ante las violaciones de las reglas que son políticamente inconvenientes, así como una huelga del personal y un boicot publicitario que presiona a la empresa para que haga mucho más sobre el desprecio habla y desinformación. Por definición, el informe solo muestra la información prohibida que Fb conoce actualmente. Las evaluaciones independientes de la gestión de la empresa de problemas como el discurso de odio no siempre han reflejado la insistencia de Facebook de que el progreso sigue siendo diseñado.

Una auditoría de derechos civiles introducida en julio de 2020 que identificó que no pudo construir una infraestructura de derechos legales civiles y creó posibilidades “irritantes y desgarradoras” que han provocado activamente “retrocesos significativos para los derechos civiles”. Un informe de las Naciones Unidas en 2019 evaluó la reacción de Facebook a las acusaciones de complicidad en el genocidio de las personas rohingya en Myanmar como gradual y mediocre, en cierto sentido criticando a la empresa por no tomar las medidas adecuadas para eliminar el contenido racista en el sitio rápidamente o protegerse contra él de en la parte posterior de subido en el primer lugar. (Es posible que parte del aumento del discurso de desprecio en Facebook se deba a la introducción de mucho más equipo para detectar en birmano, la mayor parte del idioma de Myanmar).

En general, sigue sin estar claro cuán perfectamente los recursos de inteligencia artificial de Facebook están cumpliendo su posición. La profesora asociada de la Universidad de Seattle, Caitlin Carlson, dijo a Wired que el discurso de desprecio “no es difícil de encontrar” en el sitio web, y los 9,6 millones de publicaciones que Fb declaró que eliminó por discurso de desprecio en el primer trimestre de 2020 parecían bastante pequeños. En enero de 2020, Carlson y un colega publicaron los resultados finales de un experimento en el que reunieron 300 publicaciones que creían que violarían las expectativas de la empresa y las informaron a los moderadores de Facebook, que solo eliminaron alrededor del 50% de ellas. Los grupos dedicados a las teorías de la conspiración, estos como el QAnon un solo extremo correcto, continúan corriendo desenfrenadamente en el sitio y tienen decenas de millones de asociados. Facebook, al igual que otros sitios web de redes sociales, también desempeñó un papel principal en el despliegue de información errónea sobre el coronavirus este año calendario.

Muchos de los moderadores de Facebook han comenzado a volver a trabajar. De acuerdo con VentureBeat, Facebook mencionó que está funcionando para ver cómo se pueden auditar sus métricas de manera “más efectiva” y mencionó que está solicitando una auditoría externa e imparcial de la información del Informe de cumplimiento de criterios comunitarios que espera comenzar en 2021.

Publicaciones relacionadas

Deja una respuesta

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *

Botón volver arriba
Cerrar
Cerrar