
1. El apagón de San Francisco: cuando la ciudad se convierte en “caso extremo”
El fin de semana del 20 de diciembre, un incendio en una subestación de PG&E dejó sin electricidad a alrededor de 120.000–130.000 clientes en San Francisco, afectando aproximadamente a un tercio de la ciudad. Semáforos apagados, comercios cerrados, tráfico colapsado y recomendación oficial de evitar desplazamientos no esenciales.
Lo que podría haber sido “solo” otra crisis de infraestructura se convirtió, además, en un experimento a cielo abierto sobre la madurez de la conducción autónoma. En las mismas calles y bajo las mismas condiciones, los robotaxis de Waymo y los vehículos con Full Self-Driving (FSD) de Tesla reaccionaron de forma muy distinta. Y esa diferencia tiene mucho que ver con cómo han sido entrenados sus modelos de IA y con el diseño de sus sistemas sociotécnicos.
2. Qué les pasó a los Waymo: la IA se quedó sin “guion”
Durante el apagón, numerosos Waymo se quedaron detenidos en medio de intersecciones con los intermitentes de emergencia encendidos, contribuyendo al atasco generalizado. Vídeos en redes mostraban grupos de robotaxis inmóviles en cruces donde los semáforos habían dejado de funcionar.
Waymo ha explicado después qué ocurrió:
• Sus vehículos están programados para tratar un semáforo apagado como un stop de cuatro vías, igual que marca el código de circulación.
• En condiciones normales, ante señales dudosas o situaciones ambiguas, el coche solicita una verificación remota a un operador humano.
• El apagón provocó miles de semáforos apagados a la vez. Eso creó un pico masivo de peticiones de ayuda remota, generando una cola de solicitudes que no se pudo atender en tiempo real.
El resultado: aunque Waymo afirma que logró atravesar con éxito más de 7.000 intersecciones con señales oscuras ese día, un número significativo de vehículos quedó bloqueado en puntos críticos, forzando a la compañía a suspender temporalmente el servicio y coordinar la retirada de coches junto al Ayuntamiento y los servicios de emergencia.
Reguladores de California ya han abierto una revisión específica sobre el incidente, precisamente porque el problema no fue un fallo aislado, sino una vulnerabilidad sistémica: ¿qué pasa cuando todo lo que el sistema presupone estable —como los semáforos— deja de funcionar en masa?
Waymo ha reaccionado con:
• Actualización de software para incorporar “más contexto sobre apagones regionales” y permitir decisiones más resolutivas cuando muchos semáforos fallan a la vez.
• Revisión de protocolos de emergencia y ampliación de la capacidad de soporte remoto.
3. Qué ocurrió con Tesla: continuidad… con matices
Mientras los Waymo se convertían en símbolo del colapso, Tesla aprovechó para comunicar el efecto contrario. La cuenta Tesla AI publicó un vídeo de un Model Y con FSD navegando por calles de San Francisco completamente a oscuras —sin semáforos ni alumbrado— de forma fluida y prudente. Elon Musk amplificó el mensaje afirmando que los “Tesla Robotaxis” habían sido “no afectados” por el apagón.
Algunos matices importantes:
• Lo mostrado son coches con FSD supervisado, es decir, con conductor humano legalmente responsable, aunque el sistema lleve el control.
• Usuarios han señalado que, aunque el coche pueda seguir circulando, un apagón limita otros elementos del ecosistema Tesla, como la disponibilidad de supercargadores activos en la zona.
• No hay todavía datos públicos independientes que cuantifiquen el rendimiento agregado de Tesla en ese mismo evento, más allá de clips seleccionados y mensajes de la propia compañía.
Aun con esos matices, la percepción pública fue clara: Waymo se quedó bloqueado; Tesla “siguió adelante”. Y eso abre la pregunta clave para un análisis de transformación:
¿por qué dos sistemas que persiguen el mismo objetivo se comportan de forma tan distinta ante el mismo shock?
4. Dos filosofías de entrenamiento de IA que llevan a comportamientos opuestos
4.1. Waymo: ingeniería de seguridad, mapas HD y reglas explícitas
Waymo es el ejemplo clásico de enfoque “top-down”:
• Fuerte dependencia de sensórica redundante (LIDAR, radar, cámaras) y mapas HD muy detallados de la ciudad.
• Algoritmos que combinan modelos de percepción con un planner fuertemente guiado por reglas, normas de tráfico y escenarios predefinidos.
• Entrenamiento intensivo en simulación y en ciudades piloto, con foco en métricas de seguridad, y un operational design domain (ODD) muy acotado: zonas, condiciones y casuísticas para las que el sistema está certificado.
En este paradigma, muchos comportamientos se diseñan explícitamente:
“Si el semáforo está apagado, compórtate como en un stop de cuatro vías y, si hay demasiada incertidumbre, pide ayuda al centro de control”.
El problema del apagón de San Francisco es que rompió varias de esas premisas a la vez:
• miles de semáforos apagados simultáneamente;
• tráfico desordenado, con humanos que ya no se comportan como el código de circulación prescribe;
• canal de soporte remoto saturado.
Es decir, el sistema se quedó sin guion operativo fiable y, por diseño de seguridad, optó por la conducta más conservadora: parar y esperar.
4.2. Tesla: entrenamiento masivo “bottom-up” a partir del comportamiento humano
Tesla representa el enfoque contrario: menos ingeniería “a priori” y más aprendizaje a gran escala a partir de datos del mundo real:
• Sistema vision-only (cámaras) que busca interpretar el entorno como lo haría un humano, sin depender de LIDAR y con mapas menos estructurantes.
• Entrenamiento en red neuronal de gran tamaño con miles de millones de kilómetros recorridos por la flota, incorporando continuamente casos reales, incluyendo situaciones raras como apagones, obras improvisadas o conductores que no respetan las normas.
• Transición gradual hacia modelos casi “end-to-end”, donde la red aprende a pasar directamente de la percepción a las acciones (volante, freno, acelerador) imitando a conductores humanos expertos.
En este enfoque, el coche no necesita tanto que el mundo cumpla un guion normativo perfecto. Aprende patrones del estilo:
“Cuando llego a una intersección oscura y veo otros coches frenando y negociando el paso, debo yo también avanzar con cautela”.
Eso lo hace más adaptable a cambios masivos en la infraestructura, pero a costa de un riesgo diferente:
• es más difícil de auditar y explicar (“¿por qué decidió cruzar ahora y no cinco segundos después?”);
• depende críticamente de la calidad y diversidad de los datos de entrenamiento, y de que haya suficientes ejemplos de situaciones extremas.
5. Lo que el apagón nos enseña sobre IA, resiliencia y transformación
Desde la perspectiva de un directivo que lidera una transformación digital o de IA, este episodio deja varias lecciones valiosas que van mucho más allá del coche autónomo.
5.1. La infraestructura siempre falla: diseña para el “modo crisis”
Waymo no falló porque su IA sea “mala”, sino porque el sistema completo —software, procesos, soporte remoto, relación con la ciudad— no estaba diseñado para un fallo masivo de infraestructura.
En cualquier proyecto de IA en la empresa (fraude, crédito, logística, atención al cliente), la pregunta equivalente es:
“¿Qué ocurre si el dato que doy por supuesto deja de estar disponible o se degrada masivamente?”
Diseñar para el modo crisis implica:
• definir comportamientos por defecto que no creen daño sistémico (por ejemplo, retirar el servicio en lugar de bloquear intersecciones);
• garantizar canales de intervención humana que no se saturen por un único patrón de fallo;
• ensayar “fire drills” de IA: simulacros de caídas masivas de señal, cambios regulatorios súbitos o datos contaminados.
5.2. Reglas frente a aprendizaje masivo: elegir la mezcla adecuada
Waymo encarna el enfoque rule-centric; Tesla, el data-centric. Ninguno es “el bueno” o “el malo”, pero sí presentan trade-offs claros:
• Las arquitecturas muy gobernadas por reglas y mapas son predecibles, auditables y cómodas para el regulador, pero pueden ser frágiles cuando el entorno se sale del guion.
• Las arquitecturas basadas en aprendizaje masivo son más adaptativas y se comportan de forma sorprendentemente robusta en contextos no previstos, pero son opacas y difíciles de explicar.
En un banco, una aseguradora o un retailer, la decisión de diseño es parecida:
• ¿Cuánto quiero priorizar explicabilidad frente a adaptabilidad?
• ¿En qué procesos críticos (riesgo, cumplimiento) necesito un enfoque más Waymo, y en qué procesos de front-office o experiencia cliente puedo permitirme algo más Tesla?
5.3. La IA nunca va sola: siempre hay humanos, procesos y política alrededor
El apagón también ha sacado a la luz el papel de los “humanos invisibles” que apoyan a estos sistemas: operadores remotos, empresas de grúas, equipos municipales de tráfico. Cuando Waymo se bloqueó, toda esa red se vio también sobrepasada.
En transformación organizativa, esto se traduce en una pregunta incómoda pero imprescindible:
“¿Estoy invirtiendo en el modelo de IA, pero olvidando el rediseño de procesos, competencias y acuerdos con terceros que lo hacen viable en el mundo real?”
6. Recomendaciones para directivos: cómo aplicar estas lecciones en tu organización
A modo de síntesis, el “apagón de San Francisco” deja un checklist muy útil para cualquier líder que esté desplegando IA a gran escala:
1. Mapea tus “semáforos críticos”
Identifica qué supuestos estructurales da por hecho tu modelo (datos, sistemas, proveedores, regulador) y qué pasaría si fallan todos a la vez.
2. Define un modo seguro de degradación
Prefiere un “fallar con gracia” (servicio acotado, colas controladas, priorización de clientes críticos) frente a un bloqueo que agrava la crisis.
3. Equilibra ingeniería y aprendizaje
- Para decisiones de alto impacto regulatorio, inclínate más hacia el enfoque Waymo: reglas claras, mapas, límites de dominio.
- Para entornos caóticos o muy cambiantes (relación con clientes, pricing dinámico, operaciones en campo), incorpora más enfoque Tesla: aprendizaje continuo desde la realidad.
4. Refuerza la capacidad humana de apoyo
No basta con un “centro de excelencia en IA”. Necesitas capacidad operativa —personas, procesos, herramientas— para intervenir cuando el modelo se sale del guion.
5. Ensaya tus propios “apagones”
Igual que se prueban planes de continuidad de negocio, incorpora ejercicios donde tus sistemas de IA operen con datos degradados, reglas cambiantes o infraestructuras parcialmente caídas.
El apagón de San Francisco no es solo la historia de unos coches que se quedaron bloqueados y otros que presumieron de seguir adelante. Es, sobre todo, un espejo de las decisiones estratégicas que estamos tomando sobre cómo entrenamos, gobernamos y desplegamos la inteligencia artificial.
En la próxima década, todas las organizaciones vivirán sus propios “apagones”: regulatorios, de datos, de mercado. La cuestión no será si tu IA falla alguna vez, sino cómo falla y qué impacto genera en tu sistema. Waymo y Tesla nos acaban de regalar, en una sola noche oscura en San Francisco, un caso práctico extraordinario para anticipar esa conversación.
7. Conclusión: simulación encarnada, más allá del entrenamiento teórico
El apagón de San Francisco también deja una enseñanza clave sobre el futuro de la embodied AI —inteligencia artificial que aprende actuando en el mundo físico: no basta con modelos entrenados en marcos teóricos, reglas normativas o escenarios idealizados. Los sistemas que operan en ciudades reales, con humanos reales y en infraestructuras imperfectas, necesitan haber “vivido” previamente miles de situaciones anómalas, ambiguas o caóticas. Ahí es donde la simulación masiva y continua se convierte en un activo estratégico.
Waymo ha avanzado históricamente apoyándose en simulaciones altamente controladas y en validaciones dentro de dominios operativos acotados. Ese enfoque produce seguridad y rigor, pero puede quedarse corto cuando el entorno cambia de forma abrupta y deja de parecerse al escenario de referencia. Tesla, en cambio, se apoya en una fuente incomparable de simulaciones derivadas del mundo real: cada kilómetro recorrido por su flota alimenta un gigantesco repositorio de micro-escenarios, edge cases y comportamientos humanos que se reinyectan en sus pipelines de entrenamiento y simulación sintética.
No se trata solo de disponer de datos, sino de millones de “puntos de simulación encarnada”: intersecciones oscuras, obras improvisadas, peatones indecisos, carreteras mojadas, vehículos que no siguen las normas… episodios que luego se replican, combinan, degradan y amplifican en entornos de simulación para robustecer el sistema. Esa retroalimentación continua entre mundo físico → simulación → aprendizaje → despliegue explica por qué, en un evento disruptivo como el apagón, los modelos de Tesla muestran mayor capacidad de adaptación contextual.
La lección para cualquier organización que adopta IA es profunda: la excelencia no proviene solo de diseñar buenas reglas o de entrenar modelos en datasets estáticos, sino de construir ecosistemas de simulación viva, alimentados por la experiencia operativa real. En embodied AI, la resiliencia nace de exponerse —de forma segura y sistemática— a la complejidad del entorno. Las empresas que logren convertir su operación en una máquina de aprendizaje basada en simulación tendrán, como Tesla hoy, una ventaja estructural cuando lleguen los inevitables “apagones” de su propio sector.