Las nuevas tecnologías ya no se limitan a recopilar información o responder comandos. Actualmente, algunos sistemas digitales son capaces de analizar expresiones, comportamientos y reacciones humanas para interpretar estados emocionales en tiempo real, mientras las leyes aún no logran adaptarse a este avance.

Una investigación realizada por la profesora Leire Escajedo San-Epifanio, especialista en Derecho Constitucional de la Universidad del País Vasco, advierte que existe un importante vacío legal frente al uso de herramientas biométricas capaces de deducir emociones y patrones de conducta sin necesidad de identificar directamente a las personas.
El estudio explica que dispositivos como teléfonos móviles, asistentes virtuales, plataformas digitales, videojuegos y sistemas de atención al cliente ya emplean tecnologías que observan cómo reaccionan los usuarios frente a determinados contenidos. Estas herramientas pueden detectar cansancio, interés, atención o cambios en el comportamiento para personalizar anuncios, mensajes y experiencias digitales.
A diferencia de métodos tradicionales como el reconocimiento facial o las huellas dactilares, el objetivo ya no es confirmar la identidad de una persona, sino interpretar su comportamiento y comprender cómo responde emocionalmente a distintos estímulos.
La investigación alerta que este tipo de prácticas podría afectar derechos fundamentales como la privacidad, la autonomía personal y la libertad de decisión. Según el análisis, los usuarios muchas veces desconocen el verdadero alcance de la información que se recopila sobre ellos y cómo puede utilizarse para influir en sus decisiones cotidianas.
Además, el estudio advierte sobre posibles riesgos de segmentación y discriminación derivados de la clasificación automática de personas según su comportamiento digital. Los sistemas no suelen modificar conductas de manera evidente, sino mediante pequeños cambios constantes que terminan condicionando hábitos y preferencias con el paso del tiempo.
Otro de los puntos señalados es el desfase entre la velocidad del desarrollo tecnológico y la capacidad de respuesta de la legislación. Normativas como el Reglamento General de Protección de Datos de Europa fueron diseñadas para contextos distintos y no contemplaban escenarios donde la tecnología pudiera interpretar emociones o analizar conductas de manera continua.
La investigación concluye que no basta únicamente con informar al usuario mediante términos y condiciones. También es necesario establecer controles más estrictos, evaluar riesgos antes de implementar estas tecnologías y crear regulaciones claras que garanticen la transparencia y la protección de los derechos fundamentales.
Este artículo fue publicado originalmente en Infobae y está protegido por derechos de autor. Todos los derechos reservados a Infobae. Puedes consultar el artículo original en su (https://www.infoabe.com).