En 2021, a los padres de Sudáfrica con niños de entre 5 y 13 años se les ofreció un trato inusual: por cada foto del rostro de su hijo, una empresa de inteligencia artificial con sede en Londres donaría 20 rands sudafricanos (alrededor de un dólar) a la escuela de sus hijos como parte de una campaña llamada “Share to Protect” (Compartir para proteger).
La empresa Yoti había desarrollado una herramienta de inteligencia artificial que podía estimar la edad de una persona analizando sus patrones y contornos faciales. Pero para que fuera más precisa (y para aumentar la clientela de la empresa, formada por agencias gubernamentales y empresas tecnológicas), sus desarrolladores necesitaban más fotografías de niños.
Riaan van der Bergh recordó haber escaneado diligentemente a su hija y a su hijo, de 11 y 10 años, en la sala de estar de su casa en un suburbio de Johannesburgo una tarde, diciéndoles que la tecnología podría ayudar a mantener a los niños a salvo en una red peligrosa. Pero otros padres, dijo, odiaban la idea con un “miedo apasionado extremo”. El escepticismo fue “abrumador”, añadió, “especialmente por parte de las mamás, que dijeron: ‘De ninguna manera, son mis hijos’”.
Con promesas de proteger a los niños, un grupo poco conocido de empresas en un sector experimental de la industria tecnológica conocido como “aseguramiento de edad” ha comenzado a participar en una recopilación masiva de rostros, abriendo la puerta a riesgos de privacidad para cualquiera que use la web.
Las empresas afirman que sus herramientas de verificación de edad podrían dar a los padres una mayor sensación de control y tranquilidad. Pero al escanear decenas de millones de rostros al año, las herramientas también podrían someter a los niños y a todos los demás a un nivel de inspección raramente visto en Internet abierto y aumentar las posibilidades de que sus datos personales puedan ser pirateados, filtrados o utilizados indebidamente.
Empresas como Yoti, Incode y VerifyMyAge trabajan cada vez más como guardianes digitales, pidiendo a los usuarios que graben una “selfi en video” en vivo con su teléfono o cámara web, a menudo mientras muestran una identificación gubernamental, para que la IA pueda evaluar si tienen la edad suficiente para ingresar.
Algunas de las redes sociales más importantes, como Facebook, Instagram y TikTok, ahora utilizan herramientas de verificación de edad para detectar y restringir el acceso a sus usuarios más jóvenes. OpenAI las utiliza para su chatbot ChatGPT; también lo hacen varios sitios de juegos en línea y contenido para adultos, incluidos Pornhub y OnlyFans.
La prominencia de los sistemas ha aumentado junto con las preocupaciones de que Internet, y particularmente las redes sociales, podrían estar dañando a la juventud de Estados Unidos, una crisis que el Cirujano General de Estados Unidos consideró tan grave que propuso etiquetas de advertencia similares a las de los cigarrillos para las plataformas que, según dijo, amenazaban con “daños significativos a la salud mental”.
Diecinueve estados, donde viven casi 140 millones de estadounidenses, han aprobado o promulgado leyes que exigen la verificación de edad en línea desde principios del año pasado, incluidos Virginia, Texas y Florida. Para las empresas, eso ha creado una mina de oro: los empleados de Incode, una firma de San Francisco que realiza más de 100 millones de verificaciones al año, ahora rastrean internamente las facturas estatales y se comunican con los funcionarios locales para, como dijo la directora senior de estrategia Fernanda Sottil, “entender dónde encaja nuestra tecnología”.
Pero, aunque se promocionan estos sistemas para proteger a los niños, sólo pueden funcionar si se inspecciona a todo el mundo: se examinan rostros, licencias de conducir y otros datos confidenciales en grandes cantidades. Alex Stamos, exjefe de seguridad de Facebook, que utiliza Yoti, dijo que “la mayoría de los sistemas de verificación de edad van desde ‘algo violadores de la privacidad’ hasta ‘una pesadilla autoritaria’”.
Yoti e Incode han dicho que se toman en serio la privacidad, incluso borrando imágenes después de analizar el rostro de una persona. Pero más allá de las preocupaciones por la privacidad, a los críticos les preocupa que los adultos puedan ser bloqueados injustamente en sitios web por no pasar una verificación de edad debido a una discapacidad o un problema técnico, como no tener un documento de identidad. Algunos también temen que los legisladores puedan usar las herramientas para prohibir a los adolescentes el acceso a contenido que no les gusta, incluido el discurso protegido por la Primera Enmienda.
Los partidarios de estas herramientas reconocen que los controles de edad podrían impulsar una profunda expansión de la supervisión gubernamental de la vida en línea, pero los críticos sostienen que los legisladores que esperan proteger a los niños podrían, en cambio, exponer a los usuarios de todas las edades a un riesgo terrible, obligándolos a entregar detalles íntimos de sus vidas a empresas que en gran medida no están probadas, no están reguladas y son desconocidas.
“Para protegerlos, hay que saber quiénes son los niños”, dijo Brenda Leong, abogada de Luminos Law que se especializa en biometría. “Pero una de las cosas que se desea proteger es su privacidad. Y cuanto más se sabe sobre ellos, más se pone en riesgo su privacidad”.
La prueba del bebé
Más de dos décadas después de que la Ley de Protección de la Privacidad Infantil en Internet estableciera por primera vez que las empresas de Internet debían tratar a los niños de forma diferente a los adultos, la mayoría de las aplicaciones y sitios web aún dan por sentado que todos sus usuarios, cuando se les pregunta su edad, dirán la verdad. Cualquier niño de cinco años capaz de seleccionar una fecha de nacimiento falsa o pulsar “sí” en una casilla puede ver prácticamente toda la web.
En los últimos años, un pequeño grupo de empresas tecnológicas comenzó a proponer una vía más rigurosa. Reutilizaron una técnica utilizada en el reconocimiento facial, una herramienta de identificación popular entre la policía, introduciendo millones de fotografías de rostros en un sistema de inteligencia artificial que aprendió a detectar las pistas más pequeñas del envejecimiento.
En general, estos sistemas han funcionado. En mayo, el Instituto Nacional de Estándares y Tecnología (NIST), un laboratorio federal, dijo que había probado seis estimadores de edad en 11 millones de fotos del gobierno (de puestos de control fronterizos, consulados y fotos policiales) y descubrió que, por lo general, eran precisos en un plazo de unos tres años. El algoritmo de Incode fue especialmente preciso con los bebés, según la prueba, triangulando la edad de un bebé en un plazo de cuatro meses.
Una portavoz de Instagram dijo que los controles de edad de la red social habían detenido al 96% de los adolescentes que intentaron cambiar sus cuentas para que parecieran mayores de 18 años. Y Yubo, una red social construida en torno a chats de video en vivo, usa la herramienta para dividir a los usuarios en grupos de edad, la tarjeta de presentación de la plataforma.
Cuando se les pide que se les escanee para crear una nueva cuenta, uno de cada diez usuarios se marcha, pero “hemos aceptado el sacrificio”, afirma Marc-Antoine Durand, director de operaciones de la empresa. “A largo plazo, los usuarios tienen más confianza y más seguridad”.
Los portales de verificación de edad se han multiplicado rápidamente por toda la web y muchos ofrecen una velocidad incomparable. Razan Altiraifi, una mujer de 37 años de Carolina del Norte que recientemente escaneó su rostro para acceder a TikTok, dijo que el sistema determinó que era una adulta tan rápidamente que casi se sintió cohibida. “Se sentía un poco espeluznante”, dijo, “pero no hay nada mejor que la comodidad”.
El año pasado, Yoti comenzó a publicitar un futuro en el que su estimador de edad podría instalarse fuera de casinos y clubes nocturnos, donde nunca “se fatigaría en un turno largo… [ni] mostraría favoritismo hacia amigos personales”. El NIST sugirió que las herramientas podrían algún día ayudar a las empresas a recopilar “estadísticas de edad de la población” para los clientes o ayudar con anuncios digitales “adaptados a la edad”.
Pero la tecnología también presenta algunas particularidades. Aunque las pruebas del NIST determinaron que los sistemas eran resistentes a la amplia gama de variaciones faciales de la humanidad, como las cejas pobladas o la piel dañada por el sol, su confiabilidad se erosionaba cuando una persona mostraba ciertas expresiones faciales o usaba anteojos. Las tasas de error para las niñas y las mujeres también fueron más altas que para los niños y los hombres, y los evaluadores no han determinado por qué. “Tal vez se trate de cosméticos, peinados o estructura ósea”, dijo Patrick Grother, investigador de biometría del NIST. “La verdad es que no lo sabemos”.
La IA, según descubrieron, se enfrenta al mismo desafío que los humanos: algunas personas simplemente parecen mayores o menores de lo que son. La pubertad comienza a distintas edades y las costumbres culturales pueden determinar cómo se ven y crecen los niños. Alguien que “viva bien o reciba ayuda adicional” parecerá mucho más joven que alguien que esté desnutrido o privado de sueño, dijo Julie Dawson, directora de políticas y regulación de Yoti.
Esos resultados borrosos podrían socavar su utilidad. Un juez federal señaló que los índices de error de tres años de los estimadores significaban que algunos jóvenes de 16 años podrían acceder a sitios web a los que no podían acceder los de 20 años. En febrero, la cuenta de TikTok de Violet Elliot, una mujer de 25 años con enanismo, fue bloqueada y amenazada con ser eliminada después de que la aplicación dijera falsamente que tenía menos de 13 años. Su cuenta , donde publica sobre la discriminación que enfrenta , fue restablecida después de tres días, dijo Elliott, pero más de 500 videos desaparecieron.
TikTok restauró algunos de los videos después de las preguntas de The Washington Post, y un funcionario de la compañía atribuyó la prohibición a un error humano. Pero a Elliott le preocupaba que la tecnología solo pudiera agravar el problema. Estas comprobaciones no tienen en cuenta a las miles de personas discapacitadas “que pueden no encajar en la imagen estereotipada de un adulto”, dijo Elliot. “La IA no está equipada para comprender las complejidades de la vida humana”.
‘Rincones más oscuros’
Luisiana se convirtió en un modelo nacional en materia de exigencias gubernamentales de verificación de edad cuando en 2022 aprobó una ley que exige la verificación de la edad en cualquier sitio web considerado “perjudicial para menores” o diseñado para “satisfacer intereses lascivos”. Desde entonces, dieciocho estados han seguido su ejemplo, incluido Tennessee, cuya ley exige una verificación de edad cada 60 minutos que un usuario está en el sitio, para una supervisión adicional.
La ley de Alabama exige que los sitios explícitos adviertan a los visitantes que la pornografía “insensibiliza los circuitos de recompensa del cerebro” y “aumenta la demanda de… pornografía infantil”. (Un tribunal de apelaciones anuló una advertencia similar en una ley de Texas, calificándola de poco científica e inconstitucional). Otros estados han ampliado su alcance más allá del contenido para adultos: Florida ahora exige que las redes sociales obtengan el permiso de los padres antes de permitir que los jóvenes de 15 años creen sus propios perfiles.
Pero las leyes han dado inicio a batallas constitucionales en tribunales federales, donde los jueces han advertido que podrían someter a los adultos a una vigilancia indebida y suprimir la libertad de expresión. La Corte Suprema dijo el mes pasado que escucharía una apelación de un grupo de la industria del porno relacionada con la ley de Texas.
La ley de Mississippi fue bloqueada el mes pasado por un juez que dijo que los padres podrían usar “tecnologías de supervisión” menos restrictivas para monitorear a sus hijos. Un juez bloqueó la ley de Indiana en junio, señalando que los menores podían “simplemente buscar términos como ‘sexo caliente’” en Google, sin necesidad de verificar la edad.
Algunos jueces advirtieron que los costos de estas comprobaciones exigidas por el gobierno podrían ser “excesivamente” caros para las empresas. El juez de Indiana dijo que Pornhub, cuyo tráfico global supera a LinkedIn y Netflix, podría tener que pagar más de USD 13 millones al día. (Yoti dijo que sus costos de verificación de edad suelen oscilar entre 10 y 25 centavos por rostro, pero pueden ser más bajos para sitios web con “volúmenes muy altos”).
Sarah Bain, socia de la firma de capital privado propietaria de la empresa matriz de Pornhub, Aylo, dijo que las normas han obligado a empresas como la suya a recopilar información no deseada y han llevado a los espectadores a sitios web menos vigilados. Desde que Pornhub comenzó a cumplir con la ley de Luisiana, su tráfico se ha desplomado un 80% en todo el estado, mientras que el tráfico a sitios web extranjeros y otros que no cumplen la ley ha aumentado. “Estas personas no dejaron de buscar pornografía”, dijo Bain. “Simplemente migraron a los rincones más oscuros de Internet”.
En 11 estados donde se exige la verificación de edad (Arkansas, Idaho, Kansas, Kentucky, Mississippi, Montana, Nebraska, Carolina del Norte, Texas, Utah y Virginia), Pornhub ha comenzado a bloquear el acceso a todo el mundo como forma de protesta. En su lugar, a los visitantes se les muestra un video en el que la actriz porno Cherie DeVille dice que “dar su documento de identidad cada vez que quiera visitar una plataforma para adultos” pondrá “su privacidad en riesgo”.
Empresas como Meta y Aylo han argumentado que las comprobaciones deberían ser realizadas por los grandes fabricantes de dispositivos y tiendas de aplicaciones, como Apple y Google. Pero cualquier depósito central de datos generaría sus propios riesgos, dijo Jason Kelley, director del grupo de defensa Electronic Frontier Foundation. “¿Toda esa información extremadamente sensible vinculada a los rostros de las personas?”, dijo. Para un hacker, “es el mejor [tesoro] que puedo imaginar”.
‘Estado niñera’
Más del 70% de los adultos estadounidenses (y el 56% de los adolescentes) dicen que están a favor de verificar la edad de los usuarios antes de que puedan utilizar las redes sociales, según una encuesta de Pew Research del año pasado. Pero no todos están tan entusiasmados con la realidad de activar estas herramientas.
En los estados con leyes de verificación de edad, la gente ha trabajado para evitar los escaneos mediante herramientas, conocidas como redes privadas virtuales, que pueden ocultar su ubicación. Y cuando Yoti el año pasado solicitó a la Comisión Federal de Comercio que aprobara los estimadores de edad como una nueva forma de obtener el consentimiento de los padres, la agencia recibió más de 300 comentarios públicos que denunciaban la tecnología del “estado niñera” como una “violación de la privacidad para las familias que se verían obligadas a someterse”.
“‘Tecnología de estimación de la edad facial’ es la frase más distópica que he escuchado jamás”, dijo un comentarista, Thomas Hale. La FTC rechazó la propuesta, pero dijo que podría volver a presentarse después de más pruebas.
Entre los usuarios menores de edad, los sistemas se han topado con otro tipo de resistencia. En foros de mensajes y subreddits, algunos usuarios han compartido consejos sobre cómo imprimir documentos de identidad falsos, comprar vídeos de selfies de otras personas o aplicar maquillaje que les haga parecer lo suficientemente adultos.
Para descubrir estos trucos, las empresas realizan “controles de vida” en los videos de los usuarios que pueden detectar si la cara es en realidad solo una impresión o el padre dormido de alguien. TikTok está plagado de videos de jóvenes que intentan, sin éxito, colarse: un usuario se grabó a sí mismo tratando de engañar a un estimador de edad con una selfie en la pantalla de su computadora portátil antes de finalmente darse por vencido, declarando que era “TAN DEPRIMENTE”.
Pero el ingrediente más importante ha sido la creciente colección de fotografías de niños en el mundo real que tienen las empresas. Sottil, el ejecutivo de Incode, dijo que la empresa había pagado a un contratista para que consiguiera fotografías de los rostros de los niños con el permiso de sus padres en África, Asia, Europa y América Latina, a veces a cambio de tarjetas de regalo de Amazon.
Yoti, que había recopilado datos faciales en Nairobi años antes de “Share to Protect”, esperaba que el proyecto sudafricano fuera bien recibido por los padres debido a su objetivo declarado de mantener seguros a los niños. “La gente comparte fotos de sus hijos todo el tiempo”, dijo Dawson, el director de políticas, en ese momento.
Kate Farina, fundadora de Be in Touch, un grupo sudafricano de defensa de los derechos de los niños que ayudó a Yoti con el proyecto, dijo que los padres recibieron un paquete en el que se les pedía su consentimiento y se les explicaba que las fotos se “guardarían durante el tiempo que el sistema lo necesitara”. Se les indicó a los maestros que pusieran en fila a los estudiantes participantes y luego los revisaran cara a cara, subiendo una copia escaneada de cada niño.
Pero, como recuerda Riaan van der Bergh, muchos padres se negaron a inscribirse por “miedo a lo desconocido”. La oferta de dinero por cada foto fracasó, añadió, y todo pareció incómodamente transaccional.
La empresa, recordó, recibió un poco más de mil fotos, muy por debajo de su objetivo de 50.000 rostros. (Yoti se negó a dar una cifra exacta, y se limitó a decir que la campaña fue un éxito). “Algunas personas inmediatamente dijeron: ‘Oh, no, voy a vender a mi hijo’”, recordó, a lo que trató de ofrecer algo de tranquilidad. “No”, les dijo. “Están vendiendo los datos de sus hijos”. /Con información de Infobae-