Madrid
Actualizado:Sandy Parakilas se ha convertido en una nueva china en el zapato para las grandes compañías tecnológicas. Es una de las voces más críticas con la forma en que gigantes sociales como Facebook han gestionado la privacidad de los usuarios. Él cree que estas multinacionales de la red “seguirán ignorando los problemas mientras les dejemos”. Aahora, cuando está a punto de empezar a aplicarse el Reglamento Europeo de Protección de Datos (GDPR) a partir de próximo 25 de mayo, “harán lo mínimo para cumplir la ley”.
Resulta que Parakilas sabe de lo que habla porque ha estado en el centro del problema. Fue director de operaciones de plataforma de Facebook durante los años 2011 y 2012. Luego fue jefe de producto de Uber. Ahora ejerce de consejero la organización Center for Human Technology, y contó el jueves en la Fundación Telefónica en Madrid sus experiencias acerca de la propiedad de los datos personales en un mundo hiperconectado.
“Entré en Facebook en 2011 y ya entonces era un momento excitante, con 500 millones de usuarios (comparados con los cerca de 2.200 millones actuales)”, comentó durante su charla. Su trabajo como director de plataforma consistía hacer posible que los desarrolladores de aplicaciones pudiesen conectar sus apps y que éstas pudieran funcionar en Facebook.
Parakilas explicó que al comprobar si las aplicaciones cumplían con las políticas de privacidad, pronto descubrió que la compañía “no tenía ni idea de qué era lo que pasaba con los datos de los usuarios cuando salían de Facebook, realmente”. Y habló del problema del acceso que proporcionaba la compañía a los desarrolladores no sólo de los perfiles de los usuarios de ciertas aplicaciones, sino de los ‘amigos’ de éstos. Un problema que él ya había detectado hace ahora siete años. “Eso me preocupó mucho, estábamos hablando de miles de millones de conexiones entonces”, recordó.
Ese es uno de los problemas que han saltado a los titulares con el escándalo de los datos usados por Cambridge Analytica, compañía que llegó a obtener información de perfiles de unos 87 millones de usuarios de Facebook a partir de los datos recogidos por Aleksandr Kogan, un investigador de Cambridge que desarrolló una aplicación de Facebook que captó cientos de miles de perfiles, los cuales terminaron en manos de Cambridge Analytica.
De hecho, el propio Parakilas llegó a afirmar hace un par de meses —ante un comité del parlamentario británico que investiga el escándalo de Cambridge Analytica— que había advertido a los responsables de la compañía de que el hecho de que Facebook no controlase cómo los desarrolladores de 'software' externos usaban los datos de los usuarios podría provocar importantes violaciones de datos.
"Hubo muy poca detección o cumplimiento", dijo. “Es que con una cantidad muy pequeña de datos de una persona puede proporcionar muchísima información sobre un individuo en concreto, incluso datos que ni siquiera nosotros sabemos sobre nosotros mismos”, afirmó este experto en su charla.
Así, Parakilas siguió “preguntando y preguntando” sobre el descontrol de los datos cedidos a terceros en Facebook, pero “la compañía no hacía nada para arreglar eso: no auditaron, no comprobaron”. “Eso me preocupaba mucho”, lamentó, para destacar que algunas aplicaciones juraban que cumplían las condiciones de servicio de la red social, pero “no había manera de comprobarlo”. “Había violaciones masivas de datos pero no en público, eso se sabría más tarde”.
“No pude hacer nada al respecto, no había presupuesto, la privacidad no era la prioridad de Facebook entonces”, añadió durante su charla. Totalmente frustrado, trató de comunicar el problema a los jefes de la red social “para que se dieran cuenta de la magnitud del problema”. “Nada cambio de forma sustancial”, confesó Parakilas, que decidió abandonar su puesto. No sería hasta 2015 cuando Facebook restringió los permisos de amistad. “Tres años después de que yo me fuera”, recordó con cierta ironía este experto.
Parakilas comentó que para las grandes compañías de internet, “como Google o Facebook, es más rentable no saber esto, qué se hace con los datos que escapan fuera de su control”. “Es más rentable mirar para otro lado [algo que, además, les proporciona una cierta cobertura legal], que invertir en prevenir los abusos”, sostuvo en su intervención, para añadir que “seguirán ignorando los problemas mientras les dejemos”.
La manipulación y el problema del modelo de negocio
Para Parakilas, el problema es tan nuclear como el modelo de negocio de las grandes compañías de Internet, cuyo mayor valor son los datos de los usuarios, que se utilizan para desarrollar mensajes publicitarios personalizados y más efectivos. “El uso de los datos para armar perfiles de usuarios y predecir comportamientos es algo que no tiene precio para las compañías”, comentó, para recordar que “el poder del big data para manipular elecciones sólo ahora se está empezando a estudiar”. “Al principio pensaba que quizá era muy alarmista, pero luego me empecé a preocupar mucho cuando vi qué pasaba con Trump, con el Brexit, etc.”, confesó.
“Creo que el problema real con las grandes compañías de internet es que hay una diferencia entre los que usan el producto y los que realmente pagan los servicios”, sostuvo en su charla. “Proporcionamos una cantidad masiva de datos individualmente, y los anunciantes pagan por esa información que, procesada, pueda predecir comportamientos”, comentó, y añadió: “Tú, el cliente, eres en realidad el producto que se está vendiendo”. Y todo esto “está creciendo muy rápido”, puntualizó, “y da un poco de miedo”.
Este modelo de negocio exige que los servicios proporcionados por las redes sociales y las compañías online traten de convertir sus servicios más y más adictivos, “porque cada minuto que pasas en uno de sus servicios significa dinero para ellas, en términos de anuncios y publicidad”, según Parakilas, que en este punto habló de una “correlación” entre la invasión de los móviles y los casos de depresión infantil, o entre el insomnio y esos dispositivos.
Y expuso una idea, la del pago por contenidos en la red, como algo “plausible”. “Quizá si supieras lo que pagas por tus datos por culpa de la publicidad —en tráfico de datos, por ejemplo—, igual te planteas pagar una suscripción y dejar de lado los anuncios”, comentó.
Por último, lanzó una interesante reflexión sobre la tecnología blockchain. “es muy interesante esta tecnología, porque da la oportunidad de proveer identidades descentralizadas”, afirmó, y añadió: “Pero precisamente por eso, seguro que si sale algo de ahí no será de compañías como las redes sociales, que se basan precisamente en la centralización de los servicios”. “Me extrañaría que en Facebook estuvieran haciendo algo con esto”, dedujo.
Hace tres meses nació Center for Human Technology, la organización en la que ahora trabaja Parakilas y que aboga por mejorar la relación de las personas con dispositivos y servicios como medios sociales.
El debate en la Fundación Telefónica fue conducido por Natalia Martos, abogada especializada protección de datos y medios digitales, quien planteó la cuestión de si somos dueños realmente de nuestros datos dado que constituyen “uno de los activos más preciados que una compañía puede tener”.
“En un mundo globalizado vemos que hay transacciones internacionales, legítimas o no, y no lo sabemos”, comento esta experta, que recodó que sólo el 4% de las compañías mundiales se han adaptado al GDPR, una normativa “que devuelve a los ciudadanos el derecho fundamental a que los ciudadanos recuperen sus propios datos”, añadió, entusiasmada.
¿Te ha resultado interesante esta noticia?
Comentarios
<% if(canWriteComments) { %> <% } %>Comentarios:
<% if(_.allKeys(comments).length > 0) { %> <% _.each(comments, function(comment) { %>-
<% if(comment.user.image) { %>
<% } else { %>
<%= comment.user.firstLetter %>
<% } %>
<%= comment.user.username %>
<%= comment.published %>
<%= comment.dateTime %>
<%= comment.text %>
Responder
<% if(_.allKeys(comment.children.models).length > 0) { %>
<% }); %>
<% } else { %>
- No hay comentarios para esta noticia.
<% } %>
Mostrar más comentarios<% _.each(comment.children.models, function(children) { %> <% children = children.toJSON() %>-
<% if(children.user.image) { %>
<% } else { %>
<%= children.user.firstLetter %>
<% } %>
<% if(children.parent.id != comment.id) { %>
en respuesta a <%= children.parent.username %>
<% } %>
<%= children.user.username %>
<%= children.published %>
<%= children.dateTime %>
<%= children.text %>
Responder
<% }); %>
<% } %> <% if(canWriteComments) { %> <% } %>