Meta, la empresa detrás de redes sociales como Facebook e Instagram, anunció en Infobae que, a raíz del incremento de estafas cibernéticas desde inicios de pandemia, está realizando pruebas para implementar una tecnología de reconocimiento facial que identificará publicaciones fraudulentas de famosos.
Monika Bickert, vicepresidenta de políticas de contenido de Meta, habló en exclusiva con Infobae sobre esta problemática que afecta a millones de usuarios y que representa una amenaza a la privacidad y a la honra de aquellas celebridades que no quieren que sus seguidores sean estafados a su nombre.
“Usamos clasificadores de aprendizaje automático para revisar lo que se comparte, en búsqueda de infracciones a nuestras políticas de publicidad, incluyendo estafas”, afirmó Bickert a Infobae.
Cómo Meta planea identificar deepfakes de famosos en Instagram y Facebook
Para identificar los deepfakes o videos falsos de famosos, Meta utilizará su sistema de revisión de anuncios, que analiza millones de publicaciones diarias en las plataformas de la empresa. El proceso se hace de manera automática y analiza factores como el texto, la imagen o el video teniendo en cuenta el aprendizaje automático de la IA con cantantes, deportistas u otros famosos.
“Este esquema es comúnmente llamado “celeb-bait” e infringe nuestras políticas y es perjudicial para las personas que usan nuestros productos”, agregó Bickert.
El celeb-bait inicia cuando los estafadores de diferentes partes del mundo manipulan imágenes y videos de celebridades para incentivar a sus “seguidores” a ir a sitios web fraudulentos, donde son engañados para compartir información confidencial, como contraseñas o datos bancarios que resultan en robos de grandes sumas de dinero.
Qué hace la tecnología de Meta cuando identifica un deepfake
Si los sistemas de Meta sospechan que una publicación puede ser una estafa, internamente comparan el material sospechoso con la foto del perfil verficado del famoso, usando una tecnología única con ayuda de reconocimiento facial en Instagram y Facebook.
Según Bickert “si confirmamos que el anuncio es una estafa lo bloquearemos y eliminaremos inmediatamente cualquier dato facial generado por esta comparación, independientemente de si nuestro sistema encuentra o no una coincidencia. Nunca utilizaremos para ningún otro propósito este material”.
Por el momento, este mecanismo está siendo probado en un grupo pequeño de celebridades a nivel mundial excepto en la Unión Europea, por temas de regulación. También, se espera que en las próximas semanas se notifique a más famosos que han sido víctimas de deepfakes para que den su autorización y sean parte de este proyecto.
Cómo estafan con información de famosos en redes sociales
Otra problemática que se presenta en el mundo digital es la suplantación de cuentas de famosos por estafadores, para convencer a sus seguidores de realizar alguna transferencia de dinero.
“Los estafadores pueden decir que una celebridad respaldó una inversión específica o que está pidiendo información personal a cambio de un regalo”, declaró la Vicepresidenta de Políticas de Contenido de Meta.
Para evitar esto, la compañía está explorando nuevas formas de identifcar más rápido este tipo de cuentas, pero no se ha pasado a la fase de pruebas.
Cómo recuperar una cuenta de Instagram o Facebook
Con el propósito de solucionar problemas al intentar recuperar una cuenta de Instagram y Facebook, por diferentes razones como el olvido de contraseñas, pérdida del dispositivo o un intento de ciberataque, se está probando el reconocimiento facial por medio de una selfie para reestablecer la cuenta.
“Si creemos que una cuenta ha sido comprometida, pedimos al propietario que verifique su identidad compartiendo un documento de identificación oficial que incluya su nombre” explicó Bickert, al preguntarle qué pasaría si alguien intenta suplantar la selfie del propietario.
Además, Meta confirmó que la selfie de recuperación nunca se verá en el perfil del usuario, sino que se borrará esta y cualquier otro dato generado en este proceso. /Con información de Infobae-