El informe, que la junta elaboró a lo largo de más de un año, dice que el sistema contiene “fallas en aspectos cruciales que la empresa debe remediar”.
Meta pidió a la junta que investigue el sistema después que el diario Wall Street Journal informó el año pasado que muchos usuarios de elite cometían abusos al publicar material que en el caso de la gente común merecerían castigo por acoso, incitación a la violencia y otros delitos.
Según trascendidos, las reglas de Facebook aparentemente no se aplicaban a ciertos usuarios VIP, mientras que a otros les revisaban su contenido por posibles infracciones a las normas, según el artículo del Journal, el cual dijo que el sistema tenía al menos 5,8 millones de usuarios exentos en 2020.
La existencia del sistema —llamado “XCheck” o cross-check (verificación cruzada)— de Facebook salió a la luz en documentos filtrados por Frances Haugen, una exgerente de producción convertida en denunciante que se proyectó a las primeras planas mundiales con sus denuncias de que la red social daba prioridad a las ganancias sobre la seguridad online. Tras estas revelaciones, los organismos reguladores se lanzaron a reprimir el discurso de odio y la desinformación.
Nick Clegg, presidente de Meta para asuntos globales, tuiteó que la empresa pidió una revista del sistema “para que podamos continuar con nuestro trabajo para mejorar el programa”.
Para responder plenamente a las recomendaciones de la junta, “hemos acordado responder en 90 días”, acotó.
La empresa dijo que el objetivo de “XCheck”, que se aplica a Facebook e Instagram, era prevenir el “abuso de vigilancia”, o sea el retiro de textos por creer equivocadamente que violaba las normas de la plataforma.
El informe de la junta supervisora dice que, como resultado del sistema de verificación cruzada, había desigualdad en el trato a los usuarios y demoras en eliminar contenido que violaba las normas porque estaba sometido a cinco verificaciones. Las decisiones tardaban en promedio más de cinco días.