Este artículo se publicó hace 5 años.
Menores e internetPor qué los niños están tan expuestos en YouTube a contenidos pedófilos o suicidas
En los últimos días, varios usuarios han denunciado la aparición de comentarios de tipo pedófilo en vídeos de 'youtubers' infantiles y la inclusión de imágenes a favor del suicidio en mitad de episodios de dibujos animados en la plataforma de vídeos. ¿Cómo se puede evitar que los niños no tengan que ver eso? No es nada fácil.
Madrid-
El penúltimo golpe contra la reputación del gigante de los vídeos YouTube, propiedad de Alphabet (la matriz de Google), llega a través de varias denuncias en el portal estaounidense especializado en pediatría Pedimom.com. Todo empezó con la denuncia pública de una médico anónima que vio, junto a su hijo menor, un clip incrustado en un vídeo de dibujos animados en el que aparecía un hombre que simulaba cortarse las muñecas.
Ese clip —el hombre aparece momentáneamente mientras simula autolesionarse el antebrazo y dice: "Recordad, niños, a los ancho para llamar la atención, a lo largo para obtener resultados"— se encontraba en mitad un contenido en YouTube Kids, la plataforma específica para contenidos orientados a los más pequeños.
Conviene recordar que la aplicación de YouTube Kids es diferente a YouTube.com, de modo que los vídeos que están disponibles en esa aplicación se controlan mediante una combinación de máquinas, personas en YouTube y las respuestas de usuarios, con especial atención a las denuncias por contenidos inapropiados.
En el caso del clip antes mencionado sobre apología del suicidio, la médico madre anónima reportó como inapropiado este contenido y el vídeo fue inmediatamente retirado de YouTube Kids. Pero a partir de la denuncia inicial, varios progenitores han ido señalando otros vídeos de dibujos animados en la plataforma con contenidos inapropiados.
"Trabajamos para asegurarnos de que los vídeos en YouTube Kids sean amigables para la familia y nos tomamos el 'feedback' [de los usuarios] muy en serio", comentó YouTube en un comunicado enviado a este diario. "Apreciamos a las personas que nos notifican sobre contenido problemático y hacemos posible que cualquiera pueda marcar un vídeo inapropiado".
La plataforma asegura que revisa "manualmente" los vídeos marcados por los usuarios "las 24 horas del día, los 7 días de la semana, y se eliminan los vídeos que no pertenecen a la aplicación".
Tal y como recuerda Ars Technica, durante años YouTube ha tenido que esforzarse para intentar evitar contenidos perjudiciales fuera del alcance de los niños, sobre todo aquéllos de contenido para adultos, con palabrotas, violencia o situaciones de contenido sexual inapropiado.
La semana pasada, sin ir más lejos, Nestlé, McDonald's, Disney, Epic Games y otras compañías retiraron sus anuncios de la plataforma por la polémica desatada a raíz de varios comentarios pedófilos por parte de usuarios en vídeos en los que aparecían menores de edad, informa la Agencia EFE.
Las compañías tomaron la decisión después del revuelo ocasionado por el vídeo colgado el pasado domingo por el bloguero Matt Watson en que mostraba los comentarios de tono pedófilo que varios usuarios habían dejado en contenidos en los que aparecían niñas.
Aunque los vídeos a los que hizo alusión Watson no eran pornográficos ni explícitamente eróticos, y por tanto no atentaban contra la reglas internas de YouTube, los usuarios identificaban momentos en los que las niñas, que aparecían haciendo deporte o vestidas de animadoras, dejaban entrever partes íntimas.
Qué se puede hacer
Es realmente complicado frenar todo esto. En primer lugar, porque sería prácticamente imposible filtrar previamente los contenidos de una plataforma que vive, precisamente, de la libertad de cada cual para subir y publicar vídeos. En segundo lugar, porque realizar ese filtrado previo podría conculcar la libertad de expresión al abrir una peligrosa puerta a una censura previa. En tercer lugar, porque aún con todo no parece posible todavía entrenar una inteligencia artificial para detectar unos contenidos que varían constantemente.
"Hoy por hoy, teniendo en cuenta la Directiva de Comercio Electrónico que sigue vigente y la Ley de Servicios de la Sociedad de la Información (LSSI, artículo 16), es necesario el conocimiento efectivo por parte de la plataforma para poder actuar", comenta el abogado especializado en tecnología Carlos Sánchez Almeida, que añade: "Sin conocimiento efectivo, YouTube no tiene una obligación de supervisión general de los contenidos; sólo debe responder a las peticiones de un organismo o un particular que lo reporte".
"Sin conocimiento efectivo, YouTube no tiene una obligación de supervisión general de los contenidos"
Para este letrado, el problema en YouTube es el extraordinario volumen de datos que maneja, con más de 400 horas de metraje subidas cada minuto: "Con las propias herramientas internas no se puede saber que existen esos contenidos, no se puede analizar todos los comentarios ni las declaraciones de la gente".
El ingeniero de telecomunicaciones y abogado Sergio Carrasco, coincide en el diagnóstico: "Es muy complicado detectar esos contenidos de forma automática porque, de entrada, no tenemos una base de datos con la que comparar esos contenidos; no se trata aquí de una copia de un contenido protegido, no se trata de datos con los que yo podría entrenar una inteligencia artificial para buscar contenidos similares, porque son muy variados".
"Por tanto", añade este experto, "es muy difícil que tengamos un precedente suficientemente similar para que el sistema automatizado llegue a detectarlo; incluso si se detectara de alguna forma, con una variación sobre el mismo tema se podrían incluir otros contenidos que saltasen esa capacidad".
No obstante, el abogado especializado David Maeztu opina que parece que se "privilegia" la retirada de contenidos que violan el 'copyright', por ejemplo, frente al bloqueo de otros contenidos que pueden derechos como el del honor, la intimidad o la protección a la infancia, sencillamente "porque la retirada de contenidos protegidos con derechos de autor es más fácil de realizar".
Quién es responsable
Las leyes, hoy por hoy, eximen a la plataforma de responsabilidad excepto si tarda mucho en eliminarlos o bloquearlo una vez alguien lo ha denunciado. "YouTube no tendría ninguna responsabilidad, salvo desde el momento en que tiene conocimiento y no actúe con prontitud para eliminar o bloquear ese contenido", confirma Almeida.
Otra cosa es el 'youtuber' que aparece haciendo apología del suicidio pudiese ser considerado como inductor al suicidio (artículo 143 del Código Penal), dado que la apología del suicidio no es delito en España. "Yo lo veo algo complicado", puntualiza Almeida, "y en cualquier caso esa calificación dependerá del fiscal y del juez; eso sí, las fuerzas de seguridad del Estado que inicien la investigación estarán perfectamente legitimadas para realizar dichas pesquisas".
Para David Maeztu, no cabe duda que la responsabilidad primera es de quien suba el vídeo. "En estos casos Google (YouTube) debería de ayudar dando toda la información necesaria para localizar al responsable, pero claro, ya sabemos que es muy complicado", comenta, y añade: "No cooperan si no se lo piden, y a veces los jueces no les exigen más". Maeztu sostiene que "ya que esta empresa está en España, opera aquí y su plataforma es accesible desde aquí, tendría que asegurarse de que cuando un juez les pide algo no mande la petición a EEUU", algo que complica todo ese trámite.
Por su parte, Sergio Carrasco sostiene que "existe claramente una responsabilidad de quien sube el vídeo, pero también de la plataforma ya que es un colaborador necesario, digamos, para distribuir ese contenido; lo que sucede es que las exclusiones de responsabilidad que prevén la Directiva de Comercio Electrónico y la LSSI impiden que se pueda reclamar esta responsabilidad siempre y cuando actúen de forma expedita una vez tenga conocimiento efectivo de que hospedan contenidos ilícitos". Este experto recuerda que lo mismo sucede, por ejemplo, con los vídeos de la Yihad.
"La única medida que puede ser efectiva contra este problema sería una colaboración mayor de los usuarios y dotar especialmente a YouTube Kids de una capacidad diferenciado de retirar contenidos, que fuese mucho más expedito", sugiere Carrasco. "Lógicamente, cada apelación debería pasar siempre por revisión humana, que sabemos de algunos casos en los que se apela y el contenido sigue estando disponible mientras se cursa esa apelación; y dado que todo esto afecta a menores, tal vez deberían adaptarse los términos y condiciones para indicar claramente que en el caso de una notificación el vídeo quedará bloqueado hasta que se realice una revisión humana del contenido".
Fuentes de YouTube aseguraron a Público que han estado "invirtiendo en nuevos controles para padres, incluida la posibilidad de seleccionar manualmente vídeos y canales en la aplicación". "Estamos realizando mejoras constantes en nuestros sistemas y reconocemos que hay más trabajo por hacer", concluyen. Así, por ejemplo, la aplicación ofrece a los padres la posibilidad de habilitar o deshabilitar la caja de búsquedas, de modo que si se deshabilita el menor tiene acceso sólo a un número limitado de vídeos.
Asimismo, es conveniente recordar que, de acuerdo con sus términos y condiciones, YouTube.com no permite que menores de 13 años tengan cuentas en el servicio. Además, la compañía revisa periódicamente las cuentas en busca de posibles infracciones, y en caso de duda se pide una verificación legal que confirme que tiene más de 13 años.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.