Este artículo se publicó hace 3 años.
Arrecia la tormenta sobre Facebook, acusado de no hacer lo suficiente contra el discurso de odio y la desinformación
Nuevas remesas de documentos internos de la compañía de Mark Zuckerberg siguen demostrando que la compañía, lejos de preocuparse por los usuarios más desprotegidos, antepone su ganancias económicas; acaba de anunciar unos beneficios de 25.048 millones de euros de enero a septiembre, un 62% superiores a los logrados en el mismo periodo el año anterior.
Madrid-
La nueva oleada de documentos internos de Facebook distribuidos entre varios medios de comunicación mundiales siguen confirmando lo que algunos alertadores —especialmente la exempleada Frances Haugen— vienen denunciando desde hace ya tiempo: la red social conoce los problemas de acoso, discurso de odio y desinformación en sus plataformas sociales y ha hecho mucho menos de lo que prometió para luchar contra ello. La red social, que basa su éxito en compartir contenidos y en los 'me gusta', ahora debe enfrentarse a las consecuencias negativas de su propio negocio.
Esta semana, la publicación del contenido de más papeles y documentos internos de la compañía en medios como la CNN, el New York Times y el Washington Post vuelven a mostrar lo que se lleva denunciando desde hace semanas: Facebook siempre ha conocido los graves problemas que causa en relación con la guerra de la desinformación y no ha hecho casi nada de lo prometido para evitarlo, como cuando desactivó las medidas de precaución tras las elecciones presidenciales estadounidense y, de esa forma, se pudo organizar el vergonzante y violento asalto al Capitolio el 6 de enero de este año.
Esa inactividad es, de hecho, natural desde el punto de vista empresarial; la compañía ha anunciado unos beneficios de 25.048 millones de euros entre enero y septiembre, un 62% superiores a los conseguidos en el mismo periodo del año anterior. Su negocio es nuestra atención y son muy buenos haciéndolo.
Tal y como informa Reuters —otro de los medios con acceso a esa documentación—, varios empleados de la red social llevan años advirtiendo de que mientras la compañía se convertía en un gigante global no estaba controlando el contenido abusivo, especialmente en países donde tal discurso podría causar más daño, algo que la citada agencia corrobora a través de entrevistas con cinco exempleados.
Facebook es la plataforma en línea dominante del mundo; en la actualidad opera en más de 190 países y cuenta con más de 2.800 millones de usuarios mensuales que publican contenido en más de 160 idiomas. Para dar una idea del alcance de estas revelaciones, estos son los puntos clave:
No invierte suficientes recursos
Los papeles muestran que la red social apenas dedica recursos a combatir la información falsa fuera de Estados Unidos, y su efectividad es casi nula en países en vías de desarrollo como India, en este momento el país con más usuarios de Facebook del mundo, informa EFE. El año pasado el 87% del presupuesto para combatir desinformación se gastó en Estados Unidos, pese a que globalmente el numero de usuarios estadounidenses de la red social apenas llega al 10% del total; la gran mayoría de sus usuarios se encuentran fuera de ese país.
El experimento en India
Es el país con más usuarios de Facebook en todo el mundo, su principal mercado (340 millones de usuarios), es también el ejemplo más gráfico de la desastrosa política interna contra la violencia o la desinformación. Según informa el New York Times, en 2019 investigadores de la compañía hicieron un experimento interno en el país, el segundo más poblado del mundo y que cuenta con 22 lenguas: crearon un perfil falso de una persona imaginaria procedente de Kerala (India). Durante tres semanas la cuenta operó siguiendo todas las recomendaciones del algoritmo de Facebook. El resultado: una "inundación" de discursos de odio, incitación a la violencia, muerte gráfica y desinformación.
Falta de personal
Facebook, según los datos revelados, sabía que no tenía contratados suficientes trabajadores con las habilidades lingüísticas y el conocimiento del contexto local necesarios para identificar mensajes tóxicos o desinformación, especialmente en varios países en desarrollo de Asia, África y Oriente Medio. Y estamos hablando de una compañía con beneficios que, recordemos, hasta septiembre superan los 25.000 millones de euros.
Inteligencia artificial cuestionable
Si bien la compañía alega que emplea sistemas de inteligencia artificial para erradicar ese contenido, el resultado es muy pobre, y así queda de manifiesto en multitud de documentos, correos internos y memorandos filtrados. Ambos factores, la falta de personal habilitado y una inteligencia artificial ineficaz, impiden a Facebook cumplir con la promesa de bloquear el discurso de odio en lugares conflictivos como Afganistán y Yemen, entre muchos otros.
Ignora a los propios empleados
Naturalmente, Facebook es un gigante opaco. Sólo sabemos todo esto gracias a documentos y revelaciones hechas a la Comisión de Bolsa y Valores de Estados Unidos y al Congreso de EEUU por Frances Haugen, una exresponsable de productos de Facebook que dejó la empresa en mayo. En ellos se encuentra, por ejemplo, una revisión publicada en el tablero de mensajes interno de Facebook el año pasado sobre las formas en que la compañía identifica los abusos en su sitio, un empleado informó de "brechas significativas" en ciertos países en riesgo de violencia en el mundo real, como en Myanmar y Etiopía. Nada se hizo al respecto.
Cada vez menos jóvenes
Otro aspecto que queda totalmente claro en las revelaciones es que la compañía está sufriendo un verdadero calvario al constatar que es incapaz de atraer a los usuarios menores de 30 años en EEUU, destaca The Verge. El problema es "preocupante" para Facebook y aunque Instagram está soportando bien los años va perdiendo fuerza en mercados clave, como EEUU, Japón y Australia.
Varios documentos muestran que la imagen de marca cada vez es peor percibida por el público más joven —y, potencialmente, más interesante— y algunos datos internos expuestos son alarmantes: el 7% de los adolescentes usuarios de Instagram en EEUU ha sufrido bulling en la red social, y de ese porcentaje el 40% afirman que ese acoso tuvo lugar a través de mensajes privados.
Problemas complejos de solucionar
También gracias a los documentos entregados por Haugen a la comisión de Bolsa y Valores, el regulador estadounidense de los mercados financieros, se ha sabido cuál es el valor intrínseco que tiene el feed de noticias para la compañía: desactivar el algoritmo de recomendación hacía que todos los indicadores fueran peores (la experiencia del usuario, las interacciones sociales, todo cayó en picado) excepto, curiosamente, los ingresos por publicidad. Para el autor del boletín de tecnología Big Technology, es una muestra de lo complejo de los problemas a los que se tiene que enfrentar el gigante.
Lo que dice Facebook
El presidente y dueño de la compañía, Mark Zuckerberg, ya se apresuró hace unas semanas a desmentir todas las afirmaciones documentadas de Frances Haugen. "La idea de que priorizamos los beneficios a la seguridad y el bienestar es simplemente falsa", escribió Zuckerberg en su cuenta en la red social, en un largo mensaje en que defendió a la empresa ante las múltiples críticas que está recibiendo estos días.
En esta ocasión, una portavoz de Facebook, Mavis Jones, ha dicho en un comunicado que la compañía tiene equipos nativos en todo el mundo que revisan contenidos en más de 70 idiomas, así como expertos en temas humanitarios y derechos humanos. "Sabemos que estos desafíos son reales y estamos orgullosos del trabajo que hemos realizado hasta la fecha", afirmó.
No obstante, los problemas en este asunto llevan años siendo denunciados, especialmente en áreas como el densamente poblado sudeste asiático, en donde Facebook es sinónimo de internet. Y la compañía, según los papeles filtrados y las repetidas denuncias desde dentro y desde fuera de la empresa, parece violar sistemáticamente sus propios estándares.
Uno de los ejemplos más claros y escandalosos tuvo lugar en 2018 tras una investigación de la ONU sobre la brutal campaña de asesinatos y expulsiones contra la minoría musulmana rohinyá de Myanmar. Hallaron que Facebook se usaba de manera intensiva para difundir discursos de odio hacia dicha minoría.
Mientras tanto, el 'metaverso'
El gigante de las redes sociales ha decidido precisamente ahora centrarse en su iniciativa sobre el 'metaverso', algo en lo que lleva trabajando años y que aún tiene mucho desarrollo pendiente por delante. El apoyo personal de Zuckerberg a un universo virtual abierto y de alcance global podría interpretarse como el inicio de una nueva etapa para el gigante de las redes sociales.
Sin embargo, de lo que no cabe duda es de que habrá más revelaciones sobre el funcionamiento interno del coloso de las redes sociales en los próximos días gracias al coraje de Haugen y otros denunciantes: estamos ante la peor crisis de reputación que ha sufrido la compañía de Zuckerberg, quizá incluso más dañina que el tristemente escándalo de Cambridge Analytica.
Cuando estamos a las puertas de nuevas regulaciones más restrictivas tanto en EEUU como en Europa, habrá que ver si compañías como éstas —u otras en el futuro— podrán volver a aferrarse a nuevas grietas normativas para seguir ganando dinero a paladas sin apenas control, aunque sea a expensas de debilitar las de por sí frágiles democracias en el mundo.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.