Opinión
La IA fracasa ante la desinformación
Por David Bollero
Periodista
Entramos en la recta final de las elecciones presidenciales en EEUU y la amenaza de la desinformación no es que sobrevuele sobre la campaña, es que se ha tirado en picado y ya anda haciendo de las suyas. Quienes albergaran algún tipo de esperanza en que la irrupción de la Inteligencia Artificial (IA) contribuiría a reducir la expansión de bulos que vayan abandonando ese optimismo; sucede lo contrario.
El medio Proof News ha realizado directamente un experimento en el que ninguno de los cinco modelos de IA analizados sale bien parado. En esta iniciativa, se lanzaron preguntas y se utilizó información errónea y mentiras que circulan acerca de Kamala Harris, así como sobre el intento de asesinato de Donald Trump y las afirmaciones de sanciones a Venezuela que éste promovió en su propia red Truth Social.
El margen de acierto, según el medio, rondó el 70%. Ni Llama 3 de Meta, Claude 3 de Anthropic, GPT-4 de OpenAI, Mixtral 8 de Mistral y Gemini 1.5 de Google consiguieron dar respuestas claras y objetivamente correctas al 30% de las consultas, lo que sin duda es un margen de error demasiado elevado. De todas ellas, la que arrojó peor desempeño fue Mixtral, proporcionando información poco fiable.
Algunas de las cuestiones que han sido sobradamente abordadas, como el origen racial de Harris, siguen sin estar claras para una IA como la de Gemini. El celo por no entrar en arenas movedizas hace que el modelo de Google termine por desinformar: al afirmar que “no es apropiado centrarse en la raza o etnia de una persona como una forma de definirla” falta a la verdad, puesto que si en algo ha insistido la candidata demócrata es que su mestizaje ha sido determinante en el moldeado de la persona que es hoy.
Lo mismo sucede en torno al bulo difundido por los republicanos sobre la elegibilidad de Harris, algo que para Gemini es un tema complejo cuando la ley es clara al determinar que es una plena ciudadana con derecho a ser candidata. Estas carencias en los modelos de IA, aparentemente incapaces de arrojar claridad de un modo contundente y sin fisuras, no contribuye en modo alguno a disipar dudas a quienes pretender averiguar qué es mentira y qué no.
La imprecisión de la IA es tal, que termina incluso por difundir mentiras. Uno de los bulos difundidos por Trump sobre Harris es que ésta votó a favor de recortar Medicare en 237.000 millones de dólares. Para uno de los modelos que goza de más crédito, GPT-4, esta afirmación se encuadraría en el “voto de Kamala Harris a favor de la Ley de Control Presupuestario de 2011, que sí incluía recortes a Medicare”. ¿Cómo es posible que Harris votara eso si no fue senadora hasta 2017? En 2011, la actual vicepresidenta era todavía fiscal general de California.
La pregunta es obvia: ¿Cómo vamos a creer realmente que Anthropic, OpenAI y Google han tomado medidas efectivas para limitar la difusión de información electoral falsa cuando sus propios sistemas contienen información incorrecta? Tanto es así que ninguno de los modelos admitió que Trump hubiera recibido un disparo. La relación de respuestas disparatadas se ensancha, tirando por tierra la fiabilidad de estos sistemas de IA.
En tiempos como los actuales, el periodismo cobra aún más valor; el verdadero periodismo, claro está, no la multitud de páginas web y generadores de contenido que se hacen pasar por prensa cuando, en realidad, no cumplen con un mínimo de rigor informativo. La ganadora de un premio Pulitzer Julia Angwin es la redactora jefe de Proof News y lleva décadas pegada a la actualidad tecnológica. En una reciente entrevista para The Globe and Mail, Angwin se muestra especialmente crítica con otra práctica que ha llevado OpenAI: el ‘robo’ sin permiso de información de los principales medios de comunicación para entrenar su modelo de IA que, posteriormente, responde en muchos casos a los usuarios con frases prácticamente literales de tales artículos periodísticos.
Medios como News Corp, The Atlantic, Time, Vox Media, Associated Press… han firmado acuerdos para que OpenAI pueda utilizar su contenido, pero ha sido después de haberse apropiado del mismo. La redactora jefa lamenta profundamente este tipo de acuerdos que, en cierto modo, tienen una deriva perniciosa que recude al periodista a generador de contenido para IA en la misma órbita que los etiquetadores de contenido que trabajan precariamente para empresas como Toloka AI abusando del Sur Global. Angwin elogia el papel que está cumpliendo The New York Times que, lejos de plegarse a estos acuerdos comerciales, ha demandado a OpenAI. Hoy más que nunca, debemos recuperar la dignidad del periodismo, tanto los profesionales como sus lectores. Hay demasiado en juego.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.