TikTok restringe el uso de filtros de belleza a menores de 18 años
La red social señala que informan "proactivamente a los usuarios cuando se han utilizado ciertos efectos en el contenido", pero quieren prevenir el impacto en la autoimagen de los adolescentes tras una investigación de Internet Matters.
Madrid-Actualizado a
Una usuaria de menos de 20 años en TikTok aparece con el pelo recogido y un filtro que divide su rostro en tres líneas paralelas. "Este filtro mide cómo de bella eres. Aparentemente, las mujeres más bellas tienen la cara dividida en tres partes iguales... no creo en estándares de belleza, pero voy a probarlo", dice ante la cámara de su móvil. "Oh my God!", expresa con un gesto de sorpresa. Las tres partes no miden lo mismo.
La compañía de TikTok, de origen chino, ha anunciado las futuras restricciones en el uso de "algunos efectos de apariencia" física o filtros de belleza en adolescentes menores de 18 años para prevenir el impacto en su autoimagen, informa El País. La empresa ha publicado un comunicado este miércoles –organizado en su Centro de Transparencia y Responsabilidad este martes–, en el que explica que esta restricción no afectará a los filtros divertidos como los efectos de orejas de animales, pero sí ha especificado que afecta a todos los diseños que alteren la apariencia de los usuarios.
Tras la celebración en Dublín de su foro europeo de seguridad, la red social ha anunciado otra medida, y es que le proporcionarán al usuario "más información sobre cómo un efecto podría cambiar su apariencia si se aplica", aunque ha señalado que ya informan "proactivamente a los usuarios cuando se han utilizado ciertos efectos en el contenido". También crearán recursos formativos para todos los profesionales que desarrollan efectos en la aplicación de TikTok Effects House. Su objetivo es "mejorar la conciencia y la comprensión de algunos de los resultados no deseados que ciertos efectos pueden plantear".
Este cambio viene motivado por los resultados de una investigación dirigida por la organización sin ánimo de lucro Internet Matters, con sede en el Reino Unido, en varios países en donde se han examinado el papel de las plataformas online en la identidad individual y las relaciones con los adolescentes. Como ha explicado TikTok en la nota, esta investigación identificó una preocupación en la percepción del aspecto de los adolescentes y de sus padres. Además, añade que "quienes ven el contenido podrían no darse cuenta de que se trata de una imagen que ha sido alterada".
Un estudio publicado este octubre por la revista Nature señaló que el 20% de los usuarios de entre 12 y 18 años que pasan más de dos horas usando TikTok, tras desconectarse, sienten una menor autoestima, mayor estrés y menos capacidad para fijar un límite de uso y visionado.
La verificación de la edad, otro de sus objetivos principales
Otro de los objetivos explicado en el comunicado, es conseguir herramientas con las que verificar la edad de los usuarios. La compañía china ha señalado que "sigue siendo una de las áreas más complejas con las que siguen lidiando las plataformas, los responsables de desarrollar las políticas y los reguladores". El reto que enfrentan es conseguir la verificación de la edad "respetando al mismo tiempo los derechos fundamentales" de los usuarios, informa El País.
Grandes empresas tecnológicas como Meta –dueña de Facebook e Instagram– han argumentado que resulta complicado comprobar las edades sin vulnerar la privacidad que, por derecho, tienen los usuarios. Para ello, tendrían que revisar documentos personales como, en el caso de España, sería el DNI.
La Comisión Europea ha configurado un grupo de trabajo con los Estados miembros para buscar soluciones de la verificación de la edad que no vayan en contra de la privacidad y que permita cerciorarse de la edad requerida del menor. En caso de no tenerla, bloquearán el acceso a contenidos inapropiados o la creación de cuentas.
"Somos muy escépticos respecto a plataformas como esta por su historial de aprovechar su condición extracomunitaria para eludir obligaciones y regulaciones aplicables a las empresas europeas", confiesa la presidenta de la Asociación Europea para la Transición Digital (AETD), Ana Caballero, que también considera que las medidas son insuficientes y que no van a revertir el daño que se sigue provocando a los menores. Desde la entidad consideran imprescindible que las estrategias de persuasión de las redes se desactiven, pero, como exige la Ley de Servicios Digitales (DSA), hay que informar en el caso de que se usen.
Comentarios de nuestros suscriptores/as
¿Quieres comentar?Para ver los comentarios de nuestros suscriptores y suscriptoras, primero tienes que iniciar sesión o registrarte.