Sistema de reconocimiento facial AI para KYC
Introducción: por qué Face-KYC y dónde están sus límites
La verificación de identidad es un requisito básico para los servicios financieros e iGaming. El Face-KYC (reconocimiento facial en conjunto con documentos) acelera el onboarding, reduce el frod y hace que las verificaciones sean reproducibles. Pero se trata de datos biométricos personales, por lo que la arquitectura debe ser «privacy-first»: minimización, consentimiento explícito, encriptación, limitación de los plazos de retención y explicaciones transparentes de las decisiones. El objetivo técnico es demostrar que hay una persona viva delante de la cámara, no una máscara/vídeo, y que coincide con la foto del documento.
1) Datos y recopilación: lo que realmente se necesita
Fotogramas de vídeo selfie (clip corto o serie de fotogramas) para duchas y embestidas faciales.
Documento fotográfico/escaneado (pasaporte/ID/VOD. identificación) + zona MRZ/QR/chip.
Metadatos: tipo de dispositivo, iluminación, enfoque, exposición, geometría facial.
Registros de consentimiento: consentimiento explícito para la biometría, política de almacenamiento/eliminación, objetivos de procesamiento.
Principios: minimización de PII, encriptación «en el cable» y «en el disco», separación de claves y datos, TTL/retén, acceso por los derechos más pequeños (RBAC/ABAC).
2) Detección de Livnes (PAD): cómo distinguir la cara viva de la falsificación
El objetivo del PAD (presentation attack detection) es probar que, frente a la cámara, el sujeto está vivo, no la foto, el video en pantalla, la máscara, el diseño 3D o el dipfake.
Métodos:- Pasivo (silent): análisis de microempresas, parallax, resplandor/reflejos, textura/moire, pistas depth de una sola cámara, anomalías fotométricas.
- Activo (prompted): sigue el punto de vista, parpadea/sonríe, gira la cabeza, cuenta en voz alta (si es posible, sin audiobiometría en jurisdicciones «duras»).
- Multi-sensor (opcional): TrueDepth/IR/ToF, «luz estructurada», estéreo.
- Antirreentrancia: protección contra el desplazamiento de reacciones pregrabadas (aleatorización de instrucciones/temporizaciones).
Señales de ataque: foto de papel, pantalla de smartphone/tablet (moire, deslumbramiento), máscaras (albedo/artefactos de borde), huellas de dipfake (inconsistencia en ojos/dientes/fronteras).
Salida: Slore Livnes + causa (banderas XAI), umbrales ajustados por jurisdicciones y riesgo.
3) Coincidencia «selfie ↔ paper»: precisión sin fugas
1. OCR/MRZ/chip: extraer fotos y campos del documento; validar los importes de referencia, fecha/país/tipo.
2. Face detection & alignment: encontrar la cara en el selfie y en el documento, normalizar la postura/iluminación.
3. Face embeddings: embeddings taladrados/transformados con entrenamiento en datacets grandes, pero con fine-tune en fotogramas de dominio (mobile, mala luz).
4. Comparación: proximidad coseno/Euclidean + umbrales adaptativos (teniendo en cuenta la calidad del marco, posturas, cambio de edad).
5. Acoplamiento: validación de la integridad del documento (hologramas/patrones de GPU/microprocesamiento para hilos de alto riesgo), búsqueda de signos de falsificación.
Resultado: match-score probabilístico con intervalo de confianza y fichas de calidad explicables.
4) Orquestador de decisiones: «zel ./amarillo ./rojo».
Verde: aguaceros altos y match, documento validado → auto-appruve, creación de cuentas/aumento de límites.
Amarillo: riesgo moderado (luz baja, cara parcialmente oculta, match controvertido) → preverificación suave: repetición con pistas, reemplazo del dispositivo/iluminación, solicitud del segundo documento.
Rojo: PAD explícito/documento falso/no coincidencia → parada, verificación manual (HITL), registro del incidente.
Todas las soluciones se escriben en audit trail con versiones de modelos, umbrales y explicaciones XAI.
5) Métricas de calidad: qué medir y mostrar
Liveness: APCER/BPCER (errores de aceptación/rechazo de ataques), ACER, EER; por separado: para diferentes tipos de ataques (print/replay/mask/deepfake).
Face match: FAR/FRR, curvas ROC/DET, TPR@FAR=10⁻⁴... 10⁻⁶ para hilos de alto riesgo.
Calidad de fotogramas: proporción de sobreesfuerzos, distribución de poses/claroscuros/oclusiones.
Equidad (fairness): desglose de errores por sexo/edad/tipos de piel/dispositivos e iluminación (rates de error balanceado).
Quirófanos: tiempo medio de onboarding, proporción de auto-appruve, fracción de HITL, reintentos, NPS/KYC-CSAT.
6) Equidad y accesibilidad: no sólo la precisión
Auditorías de Bias: informes regulares sobre segmentos y guiones de filmación; mezclar grupos insuficientemente representados en el aprendizaje/validación.
A11y-UX: grandes pistas, gestos, subtítulos, instrucciones de voz, modo «silencioso», soporte para dispositivos débiles y luz baja.
Edge-friendly: preprocesamiento on-device (pegamento de fotogramas, detalle de calidad) con carga de sólo los fragmentos necesarios.
7) Privacidad por Diseño y Cumplimiento de Normas
Minimización y limitación purpose: utilizar biometría solo para KYC y solo el tiempo que sea necesario; Almacenamiento separado de datos de biometría y cuestionarios.
Tiempo de almacenamiento: selfie/video TTL corto; a largo plazo - sólo hash embedding/registro de la solución, si se permite.
Derechos del interesado: acceso/eliminación/impugnación de la decisión; canales de consulta comprensibles.
Seguimiento de modelos/versiones: línea completa, reproducibilidad del script de validación.
Jurisdicciones: límites de procesamiento (regiones locales), banderas de fijación bajo diferentes regímenes regulatorios.
8) Integración antifraude: donde Face-KYC produce el mayor efecto
Multiacounting: gráfico de conexiones por dispositivo/pago + Face-dedup en embarques (con límites rígidos y base legal).
Account Takeover: Face-re-verify rápido repetido cuando se cambia el dispositivo/geo/método de pago.
Chargeback/bonus abuse: vincular los niveles KYC a los límites y los pagos automáticos; «Green» - instant-keshout.
9) Ataques y defensa: qué amenaza y cómo defender
Replay y print-attacks: el niño moiré/especuladores/flatness; pistas activas.
Máscaras/diseños 3D: análisis de albedo/bordes/especulares; profundidad/IR si está disponible.
Dipfakes: detector de incosistencias (blink/gaze/teeth/skin), artefactos de generación, audio-lip-cinc (si se utiliza sonido).
Ataques de inyección en vídeo: SDK de confianza, certificación de entorno, firma de paquetes, protección de sustitución de cámara (binding de dispositivos).
Ataques al modelo: monitoreo de la deriva, comprobación adversarial-robustness, muestreo «canario».
10) MLOps/QA: disciplina de producción
Versificación de datasets/fich/modelos/umbrales; esquemas de datos claros.
Calibración continua bajo dispositivos/iluminación/regiones, apagado en la sombra, rollback.
Fiabilidad del cliente: buffer fuera de línea, retrés en una red débil, detecto de fotogramas «vertidos».
Ingeniería de caos video/luz/saltos de fotogramas: el sistema debe degradarse suavemente en lugar de «caer».
Cajas de arena para auditoría: réplica de verificaciones con logotipos XAI, gradas para regulador.
11) UX «sin dolor»: cómo reducir los fallos
Calidad interactiva «tráfico-luz» (luz/distancia/marco facial).
Pistas antes de disparar y comprobación activa supercorotal (≤5 -7 segundos).
Estados transparentes: «instantáneamente/necesita volver a intentarlo/comprobar manualmente» + razón por un lenguaje comprensible.
Tono respetuoso: sin amenazas y «espera 72 horas» -siempre con ETA.
12) Hoja de ruta para la implementación (8-12 semanas → MVP; 4-6 mes. → madurez)
Semanas 1-2: requisitos/jurisdicciones, Privacy by Design, selección de SDK/sensores, diseños UX, métricas baseline.
Semanas 3-4: aguacero v1 (pasivo), face-match v1, OCR/MRZ, storage seguro, versión lógica.
Semanas 5-6: pistas activas, explicaciones XAI, integración con antifraude/límites, A/B UX.
Semanas 7-8: auditoría de fairness, monitoreo de deriva, caja de arena para auditor, playbucks HITL.
Meses 3-6: multisensor/IR (donde es admisible), dipfake-detect, edge-optimización, entrenamiento federado, regiones locales de almacenamiento.
13) Errores frecuentes y cómo evitarlos
Confiar sólo en los retos activos. Combine las señales pasivas y la puerta de calidad.
Ignorar la iluminación/dispositivos. Pruebe con cámaras baratas y luz baja; Vamos a dar pistas.
No hay controles de fairness. Los errores por segmentos socavan la sostenibilidad jurídica y la confianza.
Almacenar «materia prima» demasiado tiempo. Acortar TTL, utilizar embeddings/hashes.
Sin XAI. Denegaciones inexplicables → quejas/multas.
Monolito sin rollback. Cualquier actualización sin A/B/sombras es el riesgo de las falsificaciones masivas de KYC.
AI-Face-KYC funciona cuando es un sistema, no una «biblioteca de reconocimiento»: duchas + cara justa, decisiones transparentes, privacidad estricta y disciplina MLOps. Dicho circuito acelera al mismo tiempo el onboarding de los usuarios honestos, reduce el frod y mantiene la confianza del regulador y los clientes. Los principios clave son la minimización de los datos, la explicabilidad, la equidad y la explotación segura durante todo el ciclo de vida.