Un estudio de la Universidad del País Vasco (EHU) advirtió que la inteligencia artificial ya es capaz de interpretar emociones, conductas y estados de ánimo de las personas mediante el análisis de datos biométricos, mientras que la legislación actual no logra adaptarse al avance acelerado de estas tecnologías.
La investigación, realizada por la profesora de Derecho Constitucional Leire Escajedo y reconocida con un accésit en el Premio Emilio Aced 2025 de la Agencia Española de Protección de Datos (AEPD), analiza el crecimiento de sistemas de IA que observan y procesan señales corporales para sacar conclusiones sobre el comportamiento humano.
El trabajo, titulado Tratamientos biométricos no identificantes mediante inteligencia artificial, sostiene que muchas aplicaciones y dispositivos de uso cotidiano ya utilizan herramientas capaces de interpretar expresiones faciales, tono de voz, movimientos oculares y formas de interacción digital para detectar emociones, niveles de atención, cansancio o interés.
Según el estudio, estas tecnologías no necesariamente buscan identificar a una persona, como ocurre con el reconocimiento facial o las huellas dactilares, sino analizar cómo actúa y cómo se siente en tiempo real para adaptar contenidos, mensajes o anuncios de manera personalizada.
“La tecnología ya no solo registra lo que hacemos, sino que intenta interpretar cómo nos sentimos y anticipar cómo podríamos reaccionar”, explicó Escajedo, quien alertó sobre el desfase existente entre el desarrollo tecnológico y la capacidad del Derecho para regular estos procesos.
La investigación advierte que estos sistemas pueden influir sobre las decisiones de los usuarios al modificar el entorno digital según sus emociones o comportamientos detectados. Además, señala que muchas veces las personas desconocen qué datos se recopilan, cómo se procesan y con qué objetivos se utilizan.
Entre los principales riesgos mencionados aparece la posibilidad de manipulación indirecta de conductas, así como la pérdida de autonomía y privacidad en plataformas digitales que ajustan constantemente los contenidos para captar más atención o condicionar respuestas.
El estudio también cuestiona el alcance del Reglamento Europeo de Inteligencia Artificial, al considerar que no contempla con suficiente profundidad el impacto de estas tecnologías sobre la libertad personal y la protección de datos.
Los especialistas remarcan que el crecimiento de herramientas capaces de “leer” emociones plantea nuevos desafíos éticos y legales en ámbitos como la publicidad, las redes sociales, la educación, el trabajo y la seguridad digital.

