La Junta de Supervisión de Meta exige cambios en el programa de "verificación cruzada" que protegió a Donald Trump


 La verificación cruzada está destinada a disminuir la "apariencia de censura", pero en la práctica equivale a un trato preferencial para cuentas grandes.


La Junta de Supervisión de Meta ha publicado un informe completo sobre el polémico sistema de verificación cruzada utilizado por Facebook e Instagram, instando a la empresa a hacer que el programa sea "radicalmente" más abierto y aumente sus recursos.


La función de verificación cruzada, que crea una cola de moderación separada para celebridades como el expresidente Donald Trump antes de su suspensión de Facebook, ha sido criticada por "muchos problemas" por la Junta de Supervisión semiindependiente de Facebook. Señaló casos en los que el contenido que violaba las reglas se mantuvo durante un período prolongado de tiempo, incluido un caso de pornografía no consensuada y la falta de claridad cuando las cuentas están protegidas por un estado especial de verificación cruzada. También dijo que Meta debería ser castigada por no realizar un seguimiento de las estadísticas de moderación para evaluar la confiabilidad de los resultados del programa.


A pesar de las garantías de Meta a la junta de que tienen la intención de realizar una verificación cruzada para promover los objetivos de derechos humanos de Meta, el estudio concluye que la iniciativa está destinada más directamente a cumplir con las preocupaciones corporativas. La junta reconoce que Meta es una empresa comercial, pero les preocupa que la verificación cruzada, que otorga un trato preferencial a algunos usuarios elegidos principalmente con intereses comerciales en mente, permite que el contenido dañino permanezca en línea por más tiempo del que permanecería de otra manera.


La información sobre la verificación cruzada se hizo pública por primera vez por The Wall Street Journal más de un año antes de esta historia. Meta solicitó una evaluación del programa a la Junta de Supervisión a raíz de sus hallazgos; sin embargo, la junta argumentó que Meta había ocultado información crucial, como la forma en que manejó la moderación de publicaciones de Trump. Este anuncio se produce después de lo que parecen haber sido meses de ida y vuelta entre Meta y la Junta de Supervisión, tiempo durante el cual la junta solicitó respuestas a 74 preguntas y revisó "miles" de páginas de documentación interna. El informe final contiene gráficos, figuras y citas de Meta que arrojan luz sobre el método de la empresa para coordinar un proceso de revisión exhaustivo.


Alan Rusbridger, miembro de la Junta de Supervisión, le dice a The Verge: "Es una pequeña parte de lo que hace Meta, pero creo que al pasar esta cantidad de tiempo y profundizar en este [mucho] detalle, se destacó algo que es un poco más sistémico dentro de la corporación. " Tengo fe en que muchos en Meta comparten mi compromiso con la libertad de expresión, la seguridad de los periodistas y la dignidad de quienes sirven en la esfera pública. Sin embargo, su software personalizado no estaba realizando estas acciones. Un pequeño grupo de personas estaba siendo protegido del daño y ni siquiera lo sabían.


Si el contenido de un usuario se elimina del sitio sin una buena razón, Cross-check transmitirá la decisión a un grupo de personas para que la evalúen antes de que se elimine. Periodistas que cubren zonas de guerra y figuras públicas cuyos comentarios ocupan titulares están entre sus miembros (aunque no están informados de esta protección, como señala Rusbringer). Incluidos bajo el término general "socios comerciales" se encuentran entidades tales como editoriales, artistas, corporaciones y organizaciones sin fines de lucro.


La historia cita declaraciones de Meta que sugieren que el programa prefiere no hacer cumplir las políticas de la empresa para evitar la "apariencia de censura" o una mala experiencia para quienes aportan fondos sustanciales y usuarios a Facebook e Instagram. En Meta, se afirma que el tiempo promedio que se tarda en tomar una decisión sobre un material es de más de cinco días. Una pieza de contenido esperó en la cola de moderación durante más de siete meses.


La Junta de Supervisión ha criticado abiertamente la eliminación de Meta de cargos cargados política o artísticamente. Sin embargo, expresó su preocupación de que Meta estaba priorizando sus conexiones corporativas sobre las víctimas reales. Cuando el futbolista brasileño Neymar publicó imágenes desnudas de una mujer que lo acusó de violación, se retrasó el juicio debido a un retraso en las comprobaciones cruzadas. Pese al evidente incumplimiento de las reglas del Meta, la cuenta de Neymar no fue cancelada. Se ha llamado la atención de la junta que Neymar tiene un acuerdo de transmisión exclusivo con Meta.


Por el contrario, el gran tamaño de plataformas como Facebook e Instagram contribuye al problema al evitar que se aplique el mismo nivel de control humano al contenido publicado por los usuarios promedio. En octubre de 2021, Meta informó a la Junta de Control Fiscal que estaba realizando 100 millones de acciones de cumplimiento de contenido por día. El gran volumen de estas determinaciones hace que sea poco práctico, si no imposible, confiar solo en un sistema de moderación impulsado por humanos, por lo tanto, muchos de ellos están automatizados o solo reciben una breve evaluación humana. Sin embargo, la junta ha declarado que no está claro si Meta monitorea o busca estudiar la precisión del sistema de verificación cruzada en comparación con la moderación de contenido estándar. en eso  En este caso, los hallazgos podrían sugerir que Meta es negligente en la aplicación de sus leyes contra usuarios destacados, o que una gran cantidad de contenido publicado por usuarios promedio se informa falsamente como ilegal.



El consejo asesor le dio a Meta 32 sugerencias. (No se requiere que Meta siga las sugerencias, pero debe responderlas dentro de los 60 días). Las pautas sugieren eliminar cualquier publicación del sitio, incluidas las de socios comerciales, que se hayan marcado como infracciones de "gravedad alta" mientras se lleva a cabo una investigación. Es conducido. La junta solicitó que Meta cree una cola separada de la que se usa para el contenido de los socios comerciales de Meta a fin de mejorar la moderación del contenido para "expresiones que son cruciales para los derechos humanos". Solicita que Meta establezca "criterios públicos claros" sobre quién está incluido en las listas de verificación cruzada y, en algunos casos, como actores estatales y socios comerciales, solicita que Meta marque públicamente ese estado.


Marcar públicamente las cuentas es un ejemplo de una acción de política que podría llevarse a cabo sin aumentar significativamente los costos. Sin embargo, Rusbridger admite que lograr algunos objetivos, como aclarar la cola de verificación cruzada, requerirá un aumento "significativo" en el personal de moderadores de Meta. Además, esta noticia llega en un momento de austeridad para Meta, ya que la empresa despidió a cerca del 13% de su fuerza laboral a principios de este mes.


Mientras Meta se aprieta el cinturón, Rusbridger espera que la moderación del contenido siga siendo una prioridad principal junto con desarrollos técnicos "más duros". Diciendo: "Estoy cruzando los dedos para que Meta pueda mantener la calma", continúa. "Por más atractivo que pueda ser cortar las regiones 'blandas', creo que a largo plazo, deben reconocer que no es algo muy prudente", dijo.

Publicar un comentario

Artículo Anterior Artículo Siguiente