La Fragilidad en el Core de la Banca Digital Colombiana

Entre el 20 y el 24 de octubre de 2025 varias plataformas bancarias en Colombia (Bancolombia, Nequi, Daviplata, Davivienda, etc.) sufrieron interrupciones que afectaron inicios de sesión, pagos y consultas. Los medios y los comunicados oficiales atribuyeron la causa principalmente a incidentes en la infraestructura de nube (Amazon Web Services, AWS) y problemas en servidores internos que motivaron trabajos de mantenimiento. No hay, hasta donde informan fuentes abiertas fiables, evidencia pública y verificada de una intrusión masiva con exfiltración comprobada de datos.

  1. Cobertura amplia y simultánea — múltiples bancos y servicios afectados a la vez y en múltiples regiones: patrón típico de un fallo en un proveedor común (p. ej. AWS) o de una mala configuración global, no de un ataque dirigido a una sola entidad. Los reportes conectan la interrupción con una caída global de AWS.
  2. Servicios degradados, no cuentas vaciadas (comprobado públicamente) — los incidentes reportados fueron mayormente indisponibilidad de apps, logs de errores y tiempos de espera. Cuando hay robo masivo de fondos o exfiltración de datos, suele aparecer evidencia técnica temprana (drops en logs, ransom notes, filtraciones en foros) que las fuentes periodísticas aún no confirman de manera creíble.
  3. Comunicados oficiales mencionando servidores y mantenimiento — Bancolombia y Nequi emitieron mensajes sobre fallas en servidores y trabajos técnicos/actualizaciones, lo que sugiere hipótesis operativas (incidente en infra cloud o despliegue que salió mal). Esto no descarta fallas internas (deploys defectuosos, errores de configuración), pero reduce la probabilidad de un acceso externo masivo como explicación primaria.
  4. Rumores en redes y claims no verificados — en incidentes grandes emergen rápidamente posts que asumen hackeo o exfiltración; hasta ahora son rumores y no constituyen prueba. En ciberseguridad hay que exigir TTPs verificables (hashes de malware, IPs, CVE explotadas, ransom notes) antes de concluir intrusión.
  1. Fallo en proveedor de nube / dependencia de terceros (alta probabilidad). Un corte o degradación en AWS puede afectar balanceadores, bases de datos gestionadas, colas y autenticación federada compartida, provocando indisponibilidad simultánea en múltiples bancos.
  2. Degradación por despliegue/rollback fallido (media). Una actualización que interactúa mal con servicios externos (p. ej. cambio en configuración de API Gateway o IAM) puede provocar interrupciones y forzar mantenimientos programados.
  3. Ataque de denegación de servicio a un proveedor crítico (baja→media). Un DDoS dirigido contra un proveedor o contra puntos de entrada compartidos (APIs públicas, CDN) podría parecer un «fallo de nube», aunque normalmente dejaría rastro en WAF/mitigation logs y en reportes del proveedor. No hay evidencia pública suficiente que apunte a esto ahora.
  4. Intrusión y manipulación interna (baja). Menos probable dada la simultaneidad y la relación con un proveedor externo, pero una intrusión sofisticada que apunte a la cadena de suministro no puede descartarse sin auditoría forense. No hay pruebas públicas de exfiltración masiva.
  • Pérdida de disponibilidad → impacto reputacional y financiero inmediato (pagos fallidos, congestión en canales alternos).
  • Riesgos operativos → colas de atención presencial, fallos en conciliaciones, carga en call centers.
  • Riesgo de ingeniería social y phishing → durante y después de incidentes aumentan los intentos de fraude (mensajes que prometen “solucionar” el problema).
  • Riesgo legal/regulatorio → supervisores (Superfinanciera u otros) exigen informes y planes de continuidad.

Para los equipos técnicos / SOC / CISO

  1. Activar respuesta a terceros (TTP: Third-party incident process): ejecutar playbook de incidentes con proveedores (SLA, comunicación, evidencia de logs). Exigir reportes de AWS sobre el impacto y artefactos.
  2. Revisión forense rápida y selectiva: capturar logs de IAM, rutas de red, API Gateways, balanceadores, y snapshots de infra afectada. Buscar indicators of compromise (IoCs).
  3. Segregar dependencias críticas: evaluar recovery plan sin dependencia total de la nube (plan B: endpoints de autenticación alternos, colas locales, failover de DB).
  4. Fortalecer observabilidad: instrumentar trazas distribuidas y alertas de latencia/errores por módulo (no solo por servicio global).
  5. Pruebas de resiliencia y chaos / tabletop: simular fallos de la nube y procesos de failover, validar RTO/RPO.
  6. Comunicación transparente al cliente: emitir mensajes claros sobre disponibilidad y seguridad (evitar alarmismo y reducir phishing).

Para usuarios finales

  • Usar canales alternos (cajeros, tarjetas físicas) verificando límites y cargos.
  • Ignorar SMS/links no verificados pidiendo datos; los bancos no solicitan claves por mensajes.
  • Revisar movimientos y habilitar notificaciones push y 2FA extra donde sea posible.

Las pruebas abiertas y los comunicados apuntan más a una falla de infraestructura de nube / problemas operativos (AWS y servidores) que a un hack dirigido con exfiltración masiva —aunque la posibilidad de problemas internos o ataques secundarios no puede descartarse sin una investigación forense completa. La lección clave para la industria es reducir la fragilidad por dependencia de terceros y elevar la preparación operativa y de detección.


Descubre más desde Woted2

Suscríbete y recibe las últimas entradas en tu correo electrónico.

Descubre más desde Woted2

Suscríbete ahora para seguir leyendo y obtener acceso al archivo completo.

Seguir leyendo