Opinión
No, la IA General no llegará en 2025
Por David Bollero
Periodista
Sam Altman, el mandamás de OpenAI, la empresa desarrolladora del popular ChatGPT, anda barruntando que la Inteligencia Artificial General (AGI, por sus siglas en inglés) podría ver ya la luz para el año que viene. Jensen Huang, el director ejecutivo de Nvidia, amplía el plazo hasta 2030. Se trata de esa IA de propósito general que va más allá de una tarea específica, desenvolviéndose en todas las facetas de conocimiento. Pocos más expertos comparten esta visión de Altman que, quizás, la utiliza más como instrumento de marketing para agitar el avispero de los mercados y, con ello, el potencial valor de las acciones de la compañía si algún día sale a Bolsa.
Desarrollar la AGI es un objetivo muy ambicioso que, hoy por hoy y pese a los rápidos avances tecnológicos, se encuentra lejos de ser una realidad. En este mismo espacio recogíamos algunas de las reflexiones de la científica estadounidense Melanie Mitchell en su libro titulado Inteligencia Artificial, guía para seres pensantes (Capitán Swing) cuando describía cómo el más vanguardista sistema de IA puede imponerse al campeón del mundo de go y, sin embargo, ser incapaz de jugar a las damas porque, sencillamente, solo sirve para lo que ha sido entrenado. Es lo que se denomina la Inteligencia Artificial Estrecha (ANI).
Desarrollar la IA lo más parecida posible a la inteligencia humana, dotándola de capacidades de aprender por sí sola, deducir y operar de manera autónoma es mucho más complejo de lo que las predicciones de Altman parecen sugerir. La mejor prueba de ello es la cantidad de resultados inconsistentes que todavía ofrecen algunos de los sistemas de ANI actuales, por no mencionar las llamadas alucinaciones de estos modelos y los todavía persistentes sesgos en su entrenamiento. Todo eso para un único caso de uso; imaginen lo que supondría para todo el espectro de conocimiento.
Quizás OpenAI dé la sorpresa en 2025, pero lo dudo mucho. Ni siquiera los modelos grandes de lenguaje (LLM) más avanzados que se utilizan para el entrenamiento de los sistemas de IA bastan para alcanzar esa ambiciosa AGI, entre otras cosas, por su carencia de empatía, de sociabilidad, de incorporar las diferentes normas no escritas entre personas y, por supuesto, de sentir.
Por otro lado, en el hipotético caso de conseguir desarrollar esos algoritmos y obviando la extraordinaria lista de riesgos asociados, el entrenamiento que requeriría un sistema tal demandaría unas capacidades de computación absolutamente disparatadas, como también lo sería el consumo energético y de líquidos para su refrigeración. No en vano, habría de estar en continuo funcionamiento, operando y aprendiendo en tiempo real, lo que es otro reto añadido. En este sentido, algunos expertos apuntan a la computación cuántica, puesto que no bastaría para dar respuesta a la demanda de procesamiento con los aceleradores (GPU) con los que Nvidia se ha hecho de oro en Bolsa.
Cualquiera ha podido comprobar las limitaciones de los actuales sistemas de IA con los chatbots de atención al cliente que muchas compañías han introducido en sus aplicaciones móviles y páginas web. Su principal motivación es el ahorro de costes, porque si dependiera de la efectividad en la resolución de incidencias, esos chatbots no estarían tan extendidos. Y ello a pesar de que la base de conocimiento que precisan y, por tanto, de entrenamiento, es ridícula comparado con lo que supone un sistema de AGI.
El razonamiento y la deducción son dos de las grandes asignaturas pendientes de la IA, que no puede resolver una situación si no ha sido específicamente entrenada para ello. Los seres humanos, incluso algunos otros animales, sí tenemos esa capacidad intuitiva que nos distingue de las máquinas.
Por otro lado y suponiendo que Altman esté en lo cierto, surge otro gran desafío que ni siquiera se ha superado con los vigentes sistemas de ANI: la regulación. Ya no es sólo que las personas puedan utilizar estos sistemas con fines delictivos o, incluso, para generar conflictos internacionales. Una IA General nos lleva inconscientemente a pensamientos como los de Isaac Asimov o a películas como Terminator o Yo, robot, en las que las máquinas terminan volviéndose contra los seres humanos. El propio Altman ha advertido de este peligro en alguna ocasión, al igual que otras tantas tecnológicas que, paradójicamente, son las que más impulsan los desarrollos de IA. Si tan peligrosa resulta, está en su mano detener su progreso.
Llegado el caso de que la AGI sea una realidad y se rebele, ¿existirá un botón de apagado de emergencia? ¿Podría un sistema inteligente de estas características actuar para desconectar esa salvaguarda? Son reflexiones interesantes, al igual que detallar la lista de amenazas que hoy por hoy ni siquiera se han contemplado. Las buenas noticias, como apunto, es que hay tiempo para ello.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.