Google y la verificación de la edad mediante machine learning





Google comenzará a utilizar algoritmos de machine learning alimentados con una gran cantidad de información obtenida por la propia compañía para tratar de determinar la edad de los usuarios, y así poder ofrecer distintas experiencias de uso en función de la misma.
El modelo de estimación de edad utilizará datos existentes sobre los usuarios que Google ya tiene, incluidas las páginas que visitan, el tipo de vídeos que ven en YouTube o la antigüedad de su cuenta, con el fin de determinar su edad. Cuando crea detectar que un usuario puede ser menor de edad, la compañía le notificará que ha cambiado algunas de sus configuraciones para impedir que pueda acceder a determinado tipo de contenidos, y ofrecerá recomendaciones sobre cómo puede verificar su edad si lo desea bien sea haciéndose un selfie, introduciendo los datos de una tarjeta de crédito o mediante una identificación oficial.
La idea es responder a la presión de los reguladores que reclaman medidas para la protección de la infancia, del mismo modo que previamente ha hecho Meta. Pero si bien la finalidad de la cuestión puede parecer interesante, todo indica que la forma de implementarla podría no serlo demasiado. Las metodologías de este tipo abren numerosas incógnitas acerca, primero, de su fiabilidad, pero también sobre el tratamiento de datos personales y el impacto que estas soluciones pueden llegar a tener sobre la experiencia de los usuarios.
El nivel de precisión de los algoritmos de estimación de edad no está en absoluto exento de problemas. Las bases de datos de entrenamiento utilizadas introducen a menudo sesgos que afectan a determinados grupos étnicos o a ciertos rangos de edad, y que dan lugar en muchos casos a falsos positivos o negativos. Además, hay usuarios que tienen un aspecto más joven o más maduro de lo que indica su edad real, y que podrían verse perjudicados por un sistema que no es capaz de adaptarse a estas particularidades.
La experiencia del usuario también se ve condicionada. Pedir continuamente al usuario que «pase un examen» resulta intrusivo y genera fricción, que puede traducirse en una menor adopción de determinadas herramientas o en la búsqueda de atajos o métodos para eludir la verificación.
Además, la consolidación de estas tecnologías plantea la incógnita de si, en un futuro, su uso se extenderá a otros ámbitos más allá de la simple verificación de edad. El fenómeno de la normalización de la vigilancia, o surveillance creep, invita a reflexionar sobre cómo sistemas diseñados originalmente para un fin concreto pueden evolucionar y aplicarse a otros propósitos, a menudo sin un debate público suficiente ni claras garantías de transparencia y responsabilidad.
Este tipo de metodologías tienen importantes implicaciones éticas y sociales, que van desde una cierta normalización de la vigilancia, que sienta un precedente para que los gigantes tecnológicos justifiquen la vigilancia intrusiva bajo el pretexto de la «seguridad infantil», hasta la posible y probable expansión de funciones, es decir, que las herramientas de estimación de edad puedan reutilizarse más adelante para administrar anuncios dirigidos, sistemas de vigilancia o sistemas de crédito social. Además, las iniciativas similares de Meta en esta materia podrían llevar al desarrollo de una «carrera hacia el abismo» en los estándares de privacidad para la verificación de la edad, y al establecimiento de un poder centralizado privado que consolida el control de estas compañías sobre la definición de «contenido apropiado» para cada grupo de edad, lo que genera importantes inquietudes sobre posible censura.
Aunque la idea de aplicar machine learning para estimar la edad y proteger a los menores pueda parecer una especie de «solución mágica» en el contexto de la enorme cantidad de contenidos de la red y de los muchísimos datos que las big tech pueden acumular sobre los usuarios a través de sus redes publicitarias, me parece esencial abordar estas cuestiones pendientes antes de su implementación masiva. Avanzar en transparencia, mejorar la precisión de los algoritmos y respetar estrictamente los derechos del usuario deben ser pasos imprescindibles para asegurar que la tecnología realmente aporte valor, que no convirtamos la red en un lugar en el que los humanos estamos completa y rígidamente controlados por algoritmos, y sobre todo, que no sacrifique nuestros derechos fundamentales en el camino.
Nota: https://www.enriquedans.com/