Público
Público

El Parlamento Europeo impone condiciones para los nuevos sistemas GPT

La Eurocámara fija su posición respecto a la ley de inteligencia artificial que se está negociando en Bruselas. 

Parlamento Europeo
Una sesión plenaria del Parlamento Europeo en una imagen de archivo. EUROPA PRESS / EFE

El Parlamento Europeo se opuso este miércoles a la vigilancia biométrica en tiempo real e impuso condiciones para los nuevos sistemas como ChatGPT, al aprobar la ley de inteligencia artificial que se está negociando en Bruselas para impulsar su desarrollo, limitando a su vez los posibles riesgos.

Con 499 votos a favor, 28 en contra y 93 abstenciones, la Eurocámara fijó así su posición de cara a las negociaciones que empezaron este miércoles con la Comisión Europea y el Consejo de la UE para pactar el texto definitivo de la ley y que continuarán bajo la presidencia rotatoria que España asumirá el 1 de julio.

Entre las demandas del Parlamento Europeo está la de prohibir la vigilancia biométrica en tiempo real en espacios públicos, en contra de lo que han defendido el Ejecutivo comunitario y los países de la UE, que apuestan por permitirla si la autoriza un juez, en casos muy específicos. Los eurodiputados, no obstante, sí abrieron la puerta a poderlos utilizar a posteriori, siempre con autorización judicial, para perseguir "delitos graves".

En pleno debate sobre la necesidad de regular los sistemas que son capaces de generar texto y material audiovisual, el Parlamento quiere que sus desarrolladores demuestren que han reducido los riesgos que la tecnología pueda generar a la salud, a los derechos fundamentales y al sistema democrático.

Los eurodiputados también quieren que los usuarios que utilicen esta tecnología para generar imágenes falsas (deep fakes) especifiquen que el contenido se ha manipulado mediante inteligencia artificial.

Asimismo, piden que los desarrolladores de estos sistemas expliquen de forma "suficientemente detallada" qué datos protegidos por derechos de autor han utilizado para entrenar a la inteligencia artificial.

Alto riesgo

La normativa califica de alto riesgo a toda una serie de sistemas de inteligencia artificial con usos muy específicos que solo se podrán introducir en el mercado si respetan los derechos fundamentales y valores de la UE.

Por ejemplo, los que se puedan utilizar para influir en el resultado de unas elecciones, los que empleen las entidades financieras para evaluar la solvencia y establecer la calificación crediticia de una persona o los que emplee la policía de control de fronteras para controlar, vigilar o procesar datos para predicción de movimientos migratorios.

Tras un voto que la vicepresidenta de la Comisión Europea para la Era Digital, Margrethe Vestager, calificó de "histórico" al tratarse de una norma pionera en el mundo, empezarán las negociaciones entre las tres instituciones europeas para pactar el texto definitivo de la ley.

En caso de que las negociaciones concluyesen este año, la norma no se empezaría a aplicar hasta 2026 –aunque la intención de es poder reducir los plazos– por lo que Bruselas ha propuesto un pacto entre las grandes tecnológicas para que etiquetar de forma inmediata todo el contenido falso que se genere con inteligencia artificial.

¿Te ha resultado interesante esta noticia?

Más noticias de Internacional