Reconocimiento facial en exámenes online: Protección de Datos lo prohíbe por falta de base legal

Falla crítica en Fortinet (CVE-2025-32756): desbordamiento de pila explotado activamente
30 de mayo de 2025
zero trust
Zero Trust en Ciberseguridad: Estrategia clave para proteger a las PYMES con enfoque en cumplimiento
5 de junio de 2025

La Agencia Española de Protección de Datos (AEPD) ha resuelto que el uso de tecnologías de reconocimiento facial para vigilar exámenes online no está justificado legalmente. La decisión refuerza la postura de que el tratamiento de datos biométricos —considerados de categoría especial— solo puede realizarse bajo condiciones muy estrictas y con garantías jurídicas específicas, que actualmente no existen en el contexto educativo.

¿Qué motivó esta decisión?

La resolución responde a una denuncia contra la Universitat Internacional Valenciana (UIV), la cual implementó un sistema de supervisión remota que requería el uso obligatorio de reconocimiento facial y cámaras adicionales. Este software, basado en inteligencia artificial, capturaba y analizaba imágenes en tiempo real para verificar la identidad del estudiante de forma continua durante el examen.

El sistema también monitorizaba el escritorio del usuario (captura de pantalla, detección de programas y periféricos) y utilizaba una segunda cámara para vigilar el entorno del estudiante en busca de personas u objetos no autorizados.

La AEPD concluye que este tipo de tratamiento implica un “riesgo muy alto” para los derechos y libertades de los alumnos, incluso cuando los datos se anonimizan o se eliminan rápidamente. La propia universidad admitía este riesgo en su documentación.

¿Podría legalizarse en el futuro?

La Agencia no cierra la puerta completamente al uso de reconocimiento facial en exámenes online. Sin embargo, deja claro que sería necesaria una normativa específica que delimite claramente los supuestos en los que este tratamiento sería legal, así como las garantías que deben acompañarlo.

Un fenómeno surgido con la pandemia

Durante la crisis sanitaria del COVID-19, muchas universidades optaron por soluciones de proctoring basadas en inteligencia artificial, incluyendo el reconocimiento facial. Esta tendencia fue particularmente popular en instituciones de Estados Unidos y Asia. En España, universidades como la Internacional de La Rioja (UNIR) comenzaron a adoptar estas tecnologías, lo que llevó a la AEPD a emitir advertencias desde 2021, indicando que estas prácticas no cumplían con la legislación vigente en materia de protección de datos.

La reciente resolución sigue la misma línea. Centros como la Universidad Nacional de Educación a Distancia (UNED) ya han descartado el uso de estas tecnologías, atendiendo a las recomendaciones del regulador.

El fallo de la AEPD marca un precedente importante en la protección de derechos digitales en el entorno académico. Si bien la tecnología ofrece soluciones contra el fraude, el reconocimiento facial sigue siendo una herramienta invasiva cuyo uso no puede generalizarse sin un marco legal sólido. Mientras no exista una ley que regule este tipo de vigilancia, las universidades deben apostar por métodos menos intrusivos y respetuosos con la privacidad de sus estudiantes.