Madrid
La Comisión Federal de Comercio de EEUU (FTC, por sus siglas en inglés) acaba de mover ficha contra varias compañías que utilizaban herramientas de inteligencia artificial para realizar asesorías de bajo coste, generar comentarios falsos sobre las bondades de un servicio financiero fraudulento y, en definitiva, usar la IA generativa para cometer fraudes.
Mientras la UE presume de ser pionera en desarrollar una norma específica y "pionera" para regular la inteligencia artificial, la poderosa FTC ha señalado y demandado fraudes tales como los "robots abogados" y otros chatbots que engañan a los ciudadanos con mensajes tan elaborados que parecen humanos, en el marco de una campaña bautizada como Operación AI Comply.
Eso sí, lo que la FTC ataca son ciertos usos de la IA generativa, no las herramientas utilizadas. De esta forma, dicho organismo estadounidense anunciaba, en una reciente nota, una demanda contra una compañía británica llamada DoNotPay (en inglés "No pagues") "por declarar falsamente que su chatbot podía actuar como un abogado robot y producir documentos legales irrefutables".
Tras reconocer que la "inteligencia artificial también está alimentando una avalancha de comentarios falsos en línea", la FTC señala a otra empresa, Rytr, que "vende una herramienta de inteligencia artificial que permite a las personas crear comentarios falsos en línea a gran escala". El procedimiento abierto contra esta empresa se zanjó con un acuerdo para dejar de comercializar esa herramienta.
Parece que Washington reacciona —a través de sus reguladores del comercio y de las comunicaciones— ante "el entusiasmo generado en torno a la inteligencia artificial" y las falsas promesas de ganancias capaces de engañar a ciudadanos y convencerlos para invertir en estafas. "Entre estas compañías se incluyen tres demandadas por la FTC: Ascend, Ecommerce Empire Builders y FBA Machine", añade el regulador de comercio.
El próximo 21 de octubre entrará en vigor una norma en EEUU que "prohíbe vender o comprar reseñas o testimonios falsos de consumidores, y comprar reseñas positivas o negativas de consumidores", entre otras prácticas engañosas.
Ya en julio de este año, la misma agencia arrancó una investigación sobre ciertas empresas que utilizan inteligencia artificial y datos personales para ayudar a los minoristas a fijar precios dinámicos —algo parecido a lo que hace Uber cuando eleva sus tarifas en momentos de alta demanda—, lo que podría afectar a la libre competencia.
Biden 'sintético'
Asimismo, tal y como apunta The Register, otra agencia estadounidense, la FCC (Comisión Federal de Comunicaciones, por sus siglas en inglés), también está actuando contra el uso fraudulento de la IA.
Recientemente ha multado con seis millones de dólares a Steve Kramer, el responsable de una campaña masiva de spam telefónico durante las primarias presidenciales de New Hampshire, que usaba una voz sintética que imitaba al presidente de EEUU, Joe Biden.
En este caso, la FCC ejerció sus competencias para actuar contra las llamadas automatizadas no deseadas con voces generadas por IA. "No se tolerará el abuso de esta tecnología", dijo Loyaan A. Egal, jefe de la oficina legal de la FCC.
La herramienta y sus usos
Al igual que el reciente Reglamento Europeo sobre la IA, que entrará en vigor paulatinamente a lo largo de los próximos meses, las agencias estadounidenses ponen el foco en el uso fraudulento de las inteligencias artificiales, pero no en el funcionamiento profundo de los sistemas que se usan.
De esta forma, los gigantes propietarios o promotores de los motores y sistemas de IA fundacional, como OpenAI (creador de ChatGPT), Anthropic (cofundada por exempleados de OpenAI), Google, Amazon, Microsoft, X o Meta, no se ven demasiado afectados por las normas actuales al tratarse de desarrollos multipropósito, es decir, que pueden usarse de diversas maneras y no sólo de una.
Los contenidos producidos por las inteligencias artificiales fundacionales, como las generativas, son tan verosímiles que sus riesgos comienzan a tener menos de ciencia ficción y más de realidad: más allá de su indudable utilidad en ciertos procesos, se pueden plantear situaciones inquietantes en forma de decisiones sesgadas —como los precios dinámicos que discriminen individualmente en función de parámetros desconocidos—, desinformación aparentemente indetectable y todo tipo de estafas y fraudes.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>