Carissa Véliz, filósofa en Oxford: "La IA está diseñada para inventar contenidos verosímiles, no para buscar la verdad"
Esta experta en filosofía moral y tecnología alerta de los riesgos para la democracia de las inteligencias artificiales.
Publicidad
Madrid,
Hablar unos minutos con Carissa Véliz, profesora asociada en el Instituto para la ética de la inteligencia artificial y miembro del Hertford College de la Universidad de Oxford, es una experiencia profundamente didáctica y, al mismo, tiempo, serena. Autora de varias obras de referencia sobre vigilancia y privacidad, ahora enseña a empresas y gobiernos a considerar la finalidad del uso de las IA y los peligros que entraña ignorar sus riesgos, incluso para el propio sistema democrático.
Publicidad
"Al final, la democracia depende de tener información fiable y de que los ciudadanos estén relativamente bien informados", explica Véliz a Público, "y si tienes una máquina cuya especialidad es inventarse historias que son plausibles y verosímiles, pero no verdad, y facilita la generación de estos contenidos a escala, pues evidentemente hay un problema de desinformación".
Esta renombrada experta, reciente participante estrella en el Foro Líderes con Propósito en Madrid, reivindica un abordaje serio de los problemas éticos que pueden generar estas tecnologías porque "hay diferentes tipos de inteligencia artificial, diferentes empresas, diferentes usos, y hay quien se toma en serio la inteligencia artificial y hay quien no; necesitamos que todo el mundo se lo tome en serio", afirma. De hecho, ella misma imparte un curso sobre ética de la IA en la Fundación Rafael del Pino enfocado al mundo empresarial.
"Europa de nuevo va a la cabeza en regulación [sobre inteligencia artificial], pero creo que las leyes tienen que ser minimalistas", apunta Véliz, cuyo enfoque sobre el asunto legislativo tiene que ver con la protección de los derechos de los ciudadanos, más allá del análisis de coste-beneficio.
Publicidad
"Es normal que la tecnología vaya por delante de las leyes, y creo que es un enfoque bueno que la legislación se fije en los fines de su uso más que en la tecnología en particular, porque la tecnología cambia todo el rato", comenta, aunque añade: "Es verdad que existe el riesgo de que de que no estemos haciendo una asesoría correcta".
Porque aunque tengamos una normativa básica pero clara sobre qué limites son necesarios en el despliegue de las inteligencias artificiales, algunos requisitos, como la evaluación de riesgos, son poco menos que imposibles de cumplir ya que las IA fundacionales son, naturalmente, opacas y casi nadie sabe cómo funcionan realmente.
Publicidad
Estimar los riesgos
Para Véliz, "es muy difícil tener una estimación real de los riesgos cuando existen tecnologías con las que no hemos interactuado antes, no hay datos para calcular ese riesgo adecuadamente", aunque sostiene que analizar los fines de la herramienta, aunque sea una IA fundacional multipropósito, es un buen camino de inicio.
"Al final la IA es una herramienta, sofisticada, pero una herramienta; por lo tanto, los seres humanos que están detrás de esa herramienta son responsables" de esos motores de IA.
Publicidad
"Las tecnológicas han ignorado la ley y diseñado un sistema de manera ilegal"
La experta recuerda, para empezar, que "las tecnológicas han ignorado la ley y diseñado un sistema de manera ilegal, o sea, tomando datos que tenían derechos de autor, datos personales, todo lo que han podido barrer en internet", hasta el momento "parece que hemos aceptado ese hecho", y "ahora tenemos la contradicción de que estamos utilizando esas herramientas que no cumplen ni siquiera con las normas de derechos de autor ni con con el reglamento de protección de datos, pero esas normas siguen vigentes".
Publicidad
Acerca del reciente premio Nobel de Física George Hinton, Véliz nos cuenta una historia: "George Hinton fue recientemente a Oxford y tuve la oportunidad de hablar con él; durante la charla explicó lo que estamos haciendo con la inteligencia artificial, algo que se ha vuelto muy peligroso y que incluso está diseñado de una manera que realmente pone en riesgo a la democracia e incluso a la ciencia. Yo le pregunté: Bueno, si realmente supone un riesgo incluso existencial, si usted volviera a vivir de nuevo, ¿qué haría diferente? Y me dijo que no cambiaría nada, que lo haría todo igual".
Aún con todo, Véliz se muestra optimista porque está segura de que "hay maneras de diseñar la tecnología para que la entendamos mejor, para que sea más responsable". Y se debe calibrar la importancia real de cualquier tecnología nueva. "Al principio había mucho hype en las empresas pero la realidad es que muchas de ellas no han encontrado suficientes mejoras en la productividad como esperaban".
Publicidad
Ahorro o pérdida de tiempo
Si la IA "se inventa algo muy complicado de comprobar, se pierde tanto tiempo editando y corrigiendo errores que parece que el trabajo lo hace una", comenta esta experta, que señala que "de momento la gente sobre todo usa las herramientas de IA por curiosidad, por diversión, para escribir algún email poco importante; está por ver qué usos serán realmente importantes".
La adopción de herramientas con IA generativa se está extendiendo en muchísimos campos y pueden ahorrar tiempo a la hora de generar un documento o editar una imagen. No obstante, la velocidad de su desarrollo está creando una nueva generación que no sólo la usa despreocupadamente para escribir trabajos en el sistema educativo, por ejemplo, sino que se está desacostumbrando a contrastar si la información que le devuelve el sistema es verdadera o falsa.
Publicidad
Véliz acaba de terminar un capítulo de su nuevo libro Privacidad es poder (Debate, 2024) en el que propone varios casos de ciertas pérdidas de habilidades que nos pueden costar caro. Uno de ellos se refiere a las plantas de energía, "que, cuando son hackeadas, tienen que funcionar manualmente, analógicamente, y la gente nueva quizá no tenga esa experiencia, de modo que tienen que llamar a personas veteranas, ya retiradas, para que ayuden". "Pero los veteranos que controlan analógicamente estos sistemas no van a estar ahí toda la vida, de modo que cuando falten, ¿qué vamos a hacer?", se pregunta.
La ética del buen diseño
Durante su charla en el evento Líderes con futuro, Carissa Véliz utilizó, ante un nutrido grupo de empresarios y expertos, varios casos que demuestran hasta qué punto el uso de las inteligencias artificiales ha de abordarse con cuidado. "No están entrenadas para pensar ni, por tanto, conocer sus propios límites de conocimiento", dijo. Para ella "son generadoras de respuestas estadísticas que no buscan la verdad sino la plausibilidad, la verosimilitud". O sea, para que nos la creamos.
Publicidad
Por ello, la ética es fundamental en el diseño de estas poderosas herramientas, y el asunto de la privacidad personal frente a las IA es nuclear. "No le pidas a una IA que te facilite tus propios datos personales, esos que ha utilizado durante su entrenamiento, porque no te los va a entregar, ya que su forma de actuar se basa en esos mismos datos", remarcó al tratar el asunto de la privacidad individual y las inteligencias artificiales, ávidas estas últimas de datos para poder funcionar.
"Sin privacidad no hay verdadera democracia", afirmó Véliz, que concluyó que "la pregunta sería cuánta vigilancia puede soportar una democracia".