Entre el 20 y el 24 de octubre de 2025 varias plataformas bancarias en Colombia (Bancolombia, Nequi, Daviplata, Davivienda, etc.) sufrieron interrupciones que afectaron inicios de sesión, pagos y consultas. Los medios y los comunicados oficiales atribuyeron la causa principalmente a incidentes en la infraestructura de nube (Amazon Web Services, AWS) y problemas en servidores internos que motivaron trabajos de mantenimiento. No hay, hasta donde informan fuentes abiertas fiables, evidencia pública y verificada de una intrusión masiva con exfiltración comprobada de datos.
Señales que permiten diferenciar: ¿hackeo dirigido vs. falla/caída de nube?
- Cobertura amplia y simultánea — múltiples bancos y servicios afectados a la vez y en múltiples regiones: patrón típico de un fallo en un proveedor común (p. ej. AWS) o de una mala configuración global, no de un ataque dirigido a una sola entidad. Los reportes conectan la interrupción con una caída global de AWS.
- Servicios degradados, no cuentas vaciadas (comprobado públicamente) — los incidentes reportados fueron mayormente indisponibilidad de apps, logs de errores y tiempos de espera. Cuando hay robo masivo de fondos o exfiltración de datos, suele aparecer evidencia técnica temprana (drops en logs, ransom notes, filtraciones en foros) que las fuentes periodísticas aún no confirman de manera creíble.
- Comunicados oficiales mencionando servidores y mantenimiento — Bancolombia y Nequi emitieron mensajes sobre fallas en servidores y trabajos técnicos/actualizaciones, lo que sugiere hipótesis operativas (incidente en infra cloud o despliegue que salió mal). Esto no descarta fallas internas (deploys defectuosos, errores de configuración), pero reduce la probabilidad de un acceso externo masivo como explicación primaria.
- Rumores en redes y claims no verificados — en incidentes grandes emergen rápidamente posts que asumen hackeo o exfiltración; hasta ahora son rumores y no constituyen prueba. En ciberseguridad hay que exigir TTPs verificables (hashes de malware, IPs, CVE explotadas, ransom notes) antes de concluir intrusión.
Hipótesis técnicas plausibles (ordenadas por probabilidad)
- Fallo en proveedor de nube / dependencia de terceros (alta probabilidad). Un corte o degradación en AWS puede afectar balanceadores, bases de datos gestionadas, colas y autenticación federada compartida, provocando indisponibilidad simultánea en múltiples bancos.
- Degradación por despliegue/rollback fallido (media). Una actualización que interactúa mal con servicios externos (p. ej. cambio en configuración de API Gateway o IAM) puede provocar interrupciones y forzar mantenimientos programados.
- Ataque de denegación de servicio a un proveedor crítico (baja→media). Un DDoS dirigido contra un proveedor o contra puntos de entrada compartidos (APIs públicas, CDN) podría parecer un «fallo de nube», aunque normalmente dejaría rastro en WAF/mitigation logs y en reportes del proveedor. No hay evidencia pública suficiente que apunte a esto ahora.
- Intrusión y manipulación interna (baja). Menos probable dada la simultaneidad y la relación con un proveedor externo, pero una intrusión sofisticada que apunte a la cadena de suministro no puede descartarse sin auditoría forense. No hay pruebas públicas de exfiltración masiva.
Riesgos clave resultantes
- Pérdida de disponibilidad → impacto reputacional y financiero inmediato (pagos fallidos, congestión en canales alternos).
- Riesgos operativos → colas de atención presencial, fallos en conciliaciones, carga en call centers.
- Riesgo de ingeniería social y phishing → durante y después de incidentes aumentan los intentos de fraude (mensajes que prometen “solucionar” el problema).
- Riesgo legal/regulatorio → supervisores (Superfinanciera u otros) exigen informes y planes de continuidad.
Recomendaciones prácticas (para bancos y equipos de seguridad)
Para los equipos técnicos / SOC / CISO
- Activar respuesta a terceros (TTP: Third-party incident process): ejecutar playbook de incidentes con proveedores (SLA, comunicación, evidencia de logs). Exigir reportes de AWS sobre el impacto y artefactos.
- Revisión forense rápida y selectiva: capturar logs de IAM, rutas de red, API Gateways, balanceadores, y snapshots de infra afectada. Buscar indicators of compromise (IoCs).
- Segregar dependencias críticas: evaluar recovery plan sin dependencia total de la nube (plan B: endpoints de autenticación alternos, colas locales, failover de DB).
- Fortalecer observabilidad: instrumentar trazas distribuidas y alertas de latencia/errores por módulo (no solo por servicio global).
- Pruebas de resiliencia y chaos / tabletop: simular fallos de la nube y procesos de failover, validar RTO/RPO.
- Comunicación transparente al cliente: emitir mensajes claros sobre disponibilidad y seguridad (evitar alarmismo y reducir phishing).
Para usuarios finales
- Usar canales alternos (cajeros, tarjetas físicas) verificando límites y cargos.
- Ignorar SMS/links no verificados pidiendo datos; los bancos no solicitan claves por mensajes.
- Revisar movimientos y habilitar notificaciones push y 2FA extra donde sea posible.
Las pruebas abiertas y los comunicados apuntan más a una falla de infraestructura de nube / problemas operativos (AWS y servidores) que a un hack dirigido con exfiltración masiva —aunque la posibilidad de problemas internos o ataques secundarios no puede descartarse sin una investigación forense completa. La lección clave para la industria es reducir la fragilidad por dependencia de terceros y elevar la preparación operativa y de detección.

