Crisis informática: historia, grandes apagones y efectos actuales

Última actualización: 5 de marzo de 2026
  • Las crisis informáticas, del efecto 2000 a los apagones recientes, muestran la fragilidad de una sociedad hiperconectada y dependiente del software.
  • El boom de la inteligencia artificial ha disparado la demanda de GPU, memoria y almacenamiento, generando escasez, precios altos y reorientación del mercado hacia centros de datos.
  • Los fallos de proveedores de ciberseguridad y servicios en la nube evidencian el riesgo de depender de pocos actores y la necesidad de pruebas, planes de contingencia y enfoque multicloud.
  • La IA no elimina el software ni al programador, pero transforma el modelo SaaS, el rol del desarrollador y el equilibrio entre automatización, datos y seguridad.

Crisis informática historia y efectos actuales

Las crisis informáticas llevan décadas acompañando a la transformación digital, aunque a veces solo nos acordemos de ellas cuando se cae WhatsApp, se paraliza un aeropuerto o aparece la temida pantalla azul de Windows en millones de equipos a la vez. Desde los primeros ordenadores comerciales hasta la explosión de la inteligencia artificial, la historia reciente está salpicada de bugs, apagones globales, burbujas tecnológicas y sustos financieros que demuestran lo frágil que puede ser todo el sistema.

Entender la historia y los efectos actuales de estas crisis informáticas es clave para dimensionar nuestra dependencia de la tecnología, valorar el papel de la ciberseguridad y anticipar qué puede venir después del boom de la IA, de las burbujas en bolsa y de los fallos masivos de software que ponen en jaque a aerolíneas, bancos, hospitales y gobiernos de todo el mundo.

Del efecto 2000 al miedo al colapso digital global

Hace ya unos cuantos años, el planeta entero se preparó para un supuesto apocalipsis digital: el famoso efecto 2000, también conocido como Y2K o error del milenio. La teoría era sencilla pero inquietante: como muchos sistemas almacenaban las fechas con solo dos dígitos para el año («dd/mm/aa»), al pasar de 1999 a 2000, el 01/01/00 podría interpretarse como 1900. Eso implicaba que programas de todo tipo podrían «creer» que habían retrocedido un siglo y empezar a fallar de formas imprevisibles.

El origen de este problema se remonta a los años 50 y 60, cuando memoria y almacenamiento eran carísimos y extremadamente limitados. Para ahorrar espacio, los programadores optaban por recortar donde podían, y una de las formas más prácticas fue abreviar las fechas omitiendo el siglo. Así, enero de 1900 se guardaba como 01/00 y diciembre de 1999 como 12/99, un esquema que todavía hoy vemos reflejado, por ejemplo, en muchas tarjetas de crédito.

Durante décadas nadie le dio demasiada importancia al truco de los dos dígitos, porque todo ocurría dentro del mismo siglo y no parecía haber conflicto. Sin embargo, poco a poco fueron apareciendo síntomas raros: registros de personas centenarias que en la base de datos figuraban como niñas de cuatro años, lotes de productos caducados «ochenta años» antes de la fecha real o sistemas de facturación que calculaban periodos imposibles. Eran pistas de que, cuando llegara el cambio de milenio, el lío podía ser monumental.

A principios de los 90 las advertencias empezaron a tomarse en serio. Informáticos y responsables de sistemas alertaron de que casi todos los sectores estaban afectados: bancos, aseguradoras, administraciones públicas, constructoras, operadoras de telecomunicaciones, empresas energéticas, transportes, hospitales o sistemas de defensa. Cualquier software que gestionara fechas con dos dígitos era un candidato perfecto a romperse al entrar en el año 2000.

Gobiernos y grandes corporaciones reaccionaron con una inversión multimillonaria. Hubo que inventariar programas, bases de datos, ficheros y procedimientos, localizar todos los puntos en los que se manejaban fechas y reescribir cantidades ingentes de código. Se desarrollaron herramientas específicas para escanear aplicaciones, se definieron planes de pruebas extensivas y se montaron equipos de guardia para pasar la Nochevieja de 1999 frente a consolas y servidores, listos para reaccionar ante incidentes críticos.

El caso de España es ilustrativo del tamaño del esfuerzo: solo el Estado destinó unos 420 millones de euros a adaptar sistemas y equipos para el cambio de milenio, mientras que a escala global se calcula que se gastaron alrededor de 214.000 millones de euros. Muchas organizaciones aprovecharon el trabajo obligado para, de paso, introducir otras mejoras estratégicas, como preparar sus sistemas para la llegada del euro.

La entrada efectiva en el año 2000 fue un momento de tensión contenida. Los equipos técnicos estaban atentos a lo que ocurría primero en países como Nueva Zelanda, Australia o Japón, que cruzaban el umbral horario antes que Europa o América. La noticia que iba llegando desde el este era tranquilizadora: las luces seguían encendidas, los aviones no caían, las centrales eléctricas seguían funcionando.

Al final, el temido colapso informático global no se produjo. Hubo incidentes, sí, pero fueron en su mayoría pequeños: facturas generadas con fechas incorrectas, terminales de servicio fuera de línea, algunos dispositivos que dejaron de funcionar o errores puntuales en centrales nucleares u otros sistemas críticos que se resolvieron sin consecuencias graves. En España, por ejemplo, se detectaron fallos menores en un par de centrales nucleares, algunas gasolineras y ciertos sistemas de recogida automatizada de datos de tráfico.

Que el desastre no se materializara llevó a algunos a hablar de mito o exageración, pero los expertos coinciden en que el peligro fue muy real y que la razón de que no pasara nada grave fue precisamente el esfuerzo preventivo. Si no se hubieran revisado y corregido con tiempo esos sistemas, el salto del 99 al 00 habría provocado un caos operativo en bancos, empresas y servicios públicos, con impacto directo sobre la economía y la seguridad ciudadana.

El efecto 2000 dejó una lección que sigue vigente: vivimos pegados a la tecnología y, cuanto más dependemos de ella, mayor es el potencial impacto de una falla masiva. Además, demostró que, incluso ante un problema anunciado con bastante antelación, cuesta mucho coordinar respuestas globales, implicar a todos los actores y mover recursos suficientes a tiempo.

Del bug al apagón masivo: fallos globales que paran el mundo

Dos décadas después de aquel susto del milenio, la amenaza de una paralización tecnológica global se ha vuelto mucho más tangible. No se trata ya de una predicción basada en cómo se almacenan las fechas, sino de apagones informáticos reales que han dejado en tierra aviones, han bloqueado cajeros y han saturado servicios de emergencia en muchos países al mismo tiempo.

El ejemplo más rotundo es el reciente apagón informático provocado por una actualización defectuosa de CrowdStrike, una empresa de ciberseguridad que protege, entre otros, sistemas que ejecutan Microsoft Windows. Una simple actualización de contenidos en su agente de seguridad para Windows 10 bastó para desencadenar una cascada de errores críticos en hasta 8,5 millones de dispositivos afectados, mostrando la icónica «pantalla azul de la muerte» en equipos de todo el planeta.

El alcance del incidente fue tal que muchos expertos lo han catalogado ya como el mayor apagón informático de la historia, justo aquello que se temía con el efecto 2000 pero que entonces no llegó a ocurrir. En esta ocasión, sí se vieron perturbados de golpe el transporte aéreo, los sistemas financieros, las comunicaciones y hasta servicios de emergencia, evidenciando lo frágil que es la infraestructura digital global cuando se apoya tanto en un puñado de proveedores clave.

El origen exacto del problema fue un «defect» en una actualización de contenido distribuida a los sistemas Windows protegidos por CrowdStrike. El propio CEO de la compañía tuvo que salir a dar explicaciones, subrayando que no se trataba de un ciberataque, sino de un fallo interno en su software. Aunque la corrección se desplegó relativamente rápido, el daño ya estaba hecho: millones de equipos quedaron inutilizados hasta que se pudo eliminar el archivo problemático y reiniciar los sistemas en modo seguro, uno por uno, en organizaciones con miles de ordenadores.

  Amenazas de ciberseguridad para profesionales IT: guía completa

Mientras el fallo se extendía, aerolíneas de todo el mundo empezaron a notar el impacto. Aeropuertos tan transitados como el de Sídney, Gatwick o Stansted se vieron obligados a retrasar o cancelar vuelos por la caída de sistemas de facturación, control de embarque y gestión de equipajes. Hubo aerolíneas que decrelaron un «alto en tierra global», es decir, parar toda su operativa hasta que la situación se estabilizara, provocando colas, confusión y un efecto dominó que se alargó durante días.

El sector sanitario tampoco salió bien parado de este apagón informático. Hospitales y clínicas se encontraron sin acceso a historias clínicas electrónicas, agendas de citas o sistemas de pruebas diagnósticas informatizadas. En muchos casos tuvieron que recurrir a métodos manuales, anotar datos en papel y priorizar únicamente a pacientes en situación grave mientras recomponían sus sistemas.

La banca y los servicios financieros vivieron también horas complicadas. Hubo interrupciones en el procesamiento de transacciones, problemas en cajeros automáticos y aplicaciones móviles inoperativas, generando una sensación de vulnerabilidad añadida en un momento en el que la mayoría de pagos y operaciones dependen de plataformas digitales. Algunas bolsas y sistemas de información financiera, como la plataforma Workspace del London Stock Exchange Group, también se vieron afectados.

En paralelo, muchos servicios cotidianos experimentaron fallos intermitentes o parones totales: cadenas de supermercados y comida rápida con cajas bloqueadas, medios de comunicación con sistemas de emisión afectados, carteles publicitarios icónicos como los de Times Square apagados por la caída de sus sistemas de control, o bancos centrales y organismos públicos lidiando con aplicaciones críticas fuera de servicio.

Aunque CrowdStrike aisló y corrigió el defecto con rapidez, la recuperación no fue inmediata. La solución requería reiniciar equipos en modo seguro, localizar el archivo conflictivo y borrarlo antes de volver a arrancar en modo normal, un proceso muy laborioso cuando se trata de grandes redes corporativas. Microsoft llegó a recomendar hasta 15 ciclos de apagado y encendido en ciertos dispositivos, algo que ilustra la complejidad de revertir un fallo masivo cuando este se ha distribuido de forma automática a millones de puntos finales.

Este apagón informático ha tenido además un claro impacto reputacional y económico. Las acciones de CrowdStrike cayeron con fuerza en bolsa y Microsoft también sufrió un retroceso, mientras el conjunto del sector tecnológico veía reflejada en los mercados la desconfianza generada por un fallo tan sonado en una pieza teóricamente diseñada para reforzar la seguridad y la resiliencia de los sistemas.

Caídas de grandes plataformas: cuando la vida cotidiana se detiene

Más allá de los apagones vinculados a proveedores de ciberseguridad, la historia reciente está llena de grandes caídas de servicios digitales que han dejado a medio planeta desconectado. No hace falta un ataque sofisticado: a veces basta un simple error de configuración o una actualización mal probada para tumbar redes sociales, aplicaciones de mensajería, correo electrónico o incluso bolsas de valores enteras.

Las plataformas de Meta (Facebook, Instagram, WhatsApp y Messenger) son un buen ejemplo de esta fragilidad en las redes sociales. En noviembre de 2017, WhatsApp sufrió una caída global de aproximadamente una hora que dejó a millones de usuarios incomunicados. En marzo de 2019 ocurrió uno de los incidentes más largos registrados por Facebook: una interrupción parcial de hasta 22 horas que afectó también a Instagram y WhatsApp, atribuida oficialmente a un cambio de configuración en los servidores.

Aquella no fue la única vez que las aplicaciones de Meta se vinieron abajo de forma coordinada. En abril de 2019 se repitieron los problemas durante varias horas, y en julio del mismo año hubo de nuevo fallos simultáneos en Facebook, Instagram, WhatsApp y Messenger, con especial impacto en Europa Occidental, Estados Unidos, México, Filipinas y varios países de Sudamérica. En octubre de 2021 se vivió otra caída generalizada, esta vez de más de cinco horas, con repercusión global.

WhatsApp, en particular, ha seguido protagonizando cortes de servicio muy visibles. En octubre de 2022, millones de usuarios estuvieron alrededor de dos horas sin poder enviar ni recibir mensajes, y en julio de 2023 se repitió una caída de alcance mundial que duró aproximadamente una hora. Estos episodios, aunque relativamente cortos, tienen enorme repercusión social y mediática, porque afectan a una herramienta utilizada tanto para comunicación personal como profesional.

Otras grandes plataformas tampoco se libran de los fallos. En julio de 2019 fue la red social Twitter la que experimentó una interrupción global de unos 90 minutos, también achacada a un cambio de configuración interna. En agosto de 2020, Gmail, Drive, Meet y otros servicios esenciales de Google sufrieron interrupciones intermitentes durante varias horas en numerosos países, afectando al correo corporativo, videollamadas y colaboración en línea en pleno auge del teletrabajo.

No todos los incidentes afectan únicamente a plataformas de consumo. En octubre de 2020, la Bolsa de Tokio tuvo que suspender todas las transacciones durante un día completo debido a un problema en su sistema informático principal, en lo que se consideró la interrupción más grave en la historia del tercer mercado de valores del mundo. Y en junio de 2021, un fallo en el proveedor de CDN y servicios en la nube Fastly dejó inoperativos total o parcialmente a decenas de sitios web de medios de comunicación y otros servicios en todo el planeta.

Estos casos muestran que incluso infraestructuras críticas o altamente reguladas son vulnerables a errores tecnológicos. La interconexión entre sistemas, la dependencia de proveedores de nube y redes de distribución de contenidos y la búsqueda constante de eficiencia y automatización hacen que un único fallo pueda propagarse a escala masiva con una rapidez que hace apenas unas décadas habría sido impensable.

Apagones, ciberseguridad y vulnerabilidad en la nube

La ciberseguridad moderna se ha convertido en un pilar imprescindible para proteger sistemas críticos, pero el caso del apagón causado por la actualización defectuosa de un software de seguridad demuestra que estas mismas herramientas también pueden ser un punto único de fallo. Cuando un agente de protección se despliega de forma masiva, cualquier error en sus actualizaciones puede provocar justo aquello que se pretende evitar: una caída a gran escala.

Hoy en día, organizaciones de todos los tamaños, desde pymes hasta grandes corporaciones, dependen de múltiples capas de defensa digital: antivirus, cortafuegos, sistemas de detección y respuesta (EDR/XDR), monitorización continua, copias de seguridad, actualizaciones constantes y, cada vez más, soluciones basadas en inteligencia artificial y machine learning para detectar comportamientos anómalos. La idea es reforzar la seguridad de extremo a extremo, pero la complejidad de estos ecosistemas también introduce nuevos riesgos.

La migración masiva a la nube ha multiplicado las ventajas, pero también la superficie de ataque. Muchas empresas disfrutan ahora de una enorme escalabilidad, almacenamiento prácticamente ilimitado y acceso a tecnologías avanzadas de análisis de datos, IA o internet de las cosas. Sin embargo, esa misma centralización en plataformas cloud implica que un error en el proveedor, una mala configuración o un fallo en la cadena de actualizaciones puede impactar a miles de clientes de golpe.

En países como Chile, por ejemplo, más del 60% de las pymes declara usar soluciones de almacenamiento y computación en la nube, lo que ilustra hasta qué punto este modelo se ha vuelto estándar también fuera de las grandes multinacionales. A la vez, alrededor del 76% de las empresas afirma estar abordando planes específicos en materia de ciberseguridad y gestión de la información, conscientes de que un solo incidente exitoso puede tener efectos devastadores en sus operaciones y reputación.

  Introducción al Software de Sistemas y Ejemplos

El apagón informático reciente ha reforzado una idea clave: no basta con confiar en un único proveedor. Las empresas afectadas que tenían toda su infraestructura de seguridad y parte de su operativa apoyadas en el mismo servicio se encontraron sin alternativas cuando este falló. De ahí que gane peso el enfoque multicloud y la diversificación de proveedores, con el objetivo de evitar depender de un solo punto de fallo y de disponer de planes de contingencia realistas.

Entre las lecciones técnicas que deja este incidente destacan tres aspectos. El primero es la necesidad de realizar pruebas exhaustivas de cualquier actualización en entornos aislados y controlados antes de desplegarla masivamente. El segundo es la importancia de contar con planes de respuesta rápida, claros y probados, que permitan actuar con agilidad para minimizar el daño. El tercero es la transparencia: reconocer errores, explicar qué ha pasado y qué se está haciendo para solucionarlo y evitar su repetición es fundamental para recuperar la confianza de los clientes y del mercado.

Las empresas de cualquier sector, no solo las dedicadas a la ciberseguridad, deberían interiorizar estas enseñanzas. Diseñar políticas y estrategias sólidas de seguridad informática, invertir en formación, mantener sistemas actualizados y definir protocolos claros para incidentes graves ya no es opcional, sino una condición básica para operar en un mundo hiperconectado donde un fallo informático puede traducirse en pérdidas económicas, problemas legales y crisis de imagen en cuestión de horas.

El boom de la inteligencia artificial como nueva fuente de crisis

Mientras se multiplican los apagones y fallos de gran escala, otra fuerza está reconfigurando por completo el panorama tecnológico: la inteligencia artificial. En pocos años, la IA generativa, los modelos de lenguaje y los agentes autónomos han pasado de ser una promesa lejana a un motor económico y tecnológico que lo impregna casi todo, desde el desarrollo de software hasta la atención al cliente, el marketing o el análisis financiero.

Modelos y servicios como los de OpenAI, DeepSeek y otros competidores han marcado un antes y un después. Lo que comenzó como una especie de espejismo, con una subida espectacular de empresas de hardware como NVIDIA, se ha consolidado en un boom sostenido que sigue impulsando la demanda de capacidad de cómputo, energía y talento especializado. La IA se ha vendido como una especie de panacea y hoy la quieren tanto usuarios de a pie como grandes compañías.

Este auge está generando incluso temores sobre una posible burbuja de IA, con paralelismos claros respecto a la burbuja de las puntocom de finales de los 90. Entonces fue internet la tecnología que parecía capaz de justificar cualquier valoración desorbitada; ahora es la inteligencia artificial la que ha disparado el entusiasmo de inversores, fondos de capital riesgo y grandes tecnológicas, alimentando crecimientos de valoración que en muchos casos aún no se corresponden con la generación real de ingresos.

En la anterior burbuja, empresas como Lycos, Terra o Boo.com acabaron desapareciendo, mientras otras como Amazon aguantaron el chaparrón y salieron reforzadas tras un duro proceso de limpieza del mercado. Hoy se perciben dinámicas parecidas: proliferan las startups de IA en busca del pelotazo, a menudo impulsadas por grandes fondos y por una presión mediática constante, mientras gigantes como Google, Microsoft o los proyectos de Elon Musk compiten a brazo partido por dominar este nuevo frente tecnológico.

La diferencia ahora es que la IA ya tiene usos rentables bien establecidos. Servicios en la nube, automatización de procesos, semiconductores especializados, herramientas de productividad o soluciones de análisis avanzado generan ingresos tangibles en empresas consolidadas. Además, los mercados financieros disponen de herramientas más sofisticadas para analizar riesgos que en los años 2000, y la infraestructura digital global es mucho más madura, lo que, en teoría, puede favorecer un crecimiento algo más sostenible.

Aun así, la dependencia de la IA en economías como la estadounidense es altísima. Algunos análisis estiman que alrededor del 40% del crecimiento económico reciente de Estados Unidos está ligado, directa o indirectamente, a esta tecnología. Y no es solo un fenómeno económico: los grandes nombres de la industria -Elon Musk, Mark Zuckerberg, Jeff Bezos y compañía- tienen hoy un peso político considerable y poco interés en permitir que una burbuja estalle de forma descontrolada, aunque una cierta «limpieza» de proyectos inviables sea casi inevitable.

Hardware al límite: GPU, RAM, SSD y HDD bajo presión

El boom de la inteligencia artificial no solo se refleja en balances contables y en titulares, sino también en el hardware físico que sostiene toda la revolución de los chips. Los centros de datos dedicados a entrenar y ejecutar modelos de IA generativa se han convertido en auténticos devoradores de recursos: necesitan un rendimiento de cómputo brutal, cantidades ingentes de memoria y almacenamiento y redes de altísimo ancho de banda.

En el corazón de esta infraestructura están las GPUs y otros aceleradores especializados. Tarjetas como las NVIDIA H100, las arquitecturas Blackwell, las soluciones AMD Instinct o las TPUs de Google han relegado a las CPU tradicionales para muchas cargas de trabajo de IA, porque permiten realizar enormes volúmenes de operaciones con menor precisión pero de forma masivamente paralela. Este cambio ha disparado la demanda de GPU para centros de datos, desplazando en parte la oferta destinada al mercado de consumo y gaming.

El resultado es una auténtica crisis en el mercado de las GPU de consumo. Al priorizar la fabricación y asignación de stock para los modelos orientados a IA y entornos profesionales, muchos fabricantes han reducido la atención al segmento doméstico. Hay menos tarjetas gráficas disponibles para jugadores y creadores de contenido, y las pocas unidades que llegan a tiendas lo hacen a precios inflados, alejando la posibilidad de actualizar equipos a una buena parte de los usuarios.

La memoria también está sufriendo un impacto enorme, especialmente en el ámbito de la DRAM. Las GPUs y aceleradores modernos no solo necesitan RAM convencional para la CPU, sino también chips de memoria de alto ancho de banda (HBM) para su propia VRAM, lo que multiplica la demanda global. Fabricantes como Samsung Electronics, SK Hynix y Micron han ido derivando cada vez más capacidad de producción hacia memorias HBM y DRAM de gama empresarial, reduciendo el suministro destinado al mercado tradicional de PCs, móviles y otros dispositivos de consumo.

Esta reorientación productiva, junto con la clásica volatilidad cíclica del mercado DRAM, ha generado una tormenta perfecta. Tras una fase de sobreproducción y caída de precios, muchos fabricantes recortaron capacidad. Justo entonces explotó la demanda vinculada a IA, provocando un ajuste brusco de la oferta. El resultado: escasez y subidas de precios sin precedentes en módulos DDR5 y productos similares, hasta el punto de que algunos kits de memoria han alcanzado cifras de varios miles de euros.

El impacto ha sido tan fuerte que marcas históricas del segmento de consumo han echado el cierre. Es el caso de Crucial, la enseña de Micron para RAM y SSD domésticos, cuya desaparición comercial se anunció para febrero de 2026, simbolizando el abandono progresivo del usuario final por parte de grandes fabricantes que prefieren centrarse en negocios más rentables ligados a centros de datos y aplicaciones empresariales.

El almacenamiento, tanto en forma de SSD como de HDD, tampoco se libra de la presión de la IA. Los centros de datos que entrenan modelos gigantescos requieren capacidades monstruosas para guardar datasets, checkpoints y logs. Esto dispara la demanda tanto de SSD NVMe de alto rendimiento, ideales para cargas intensivas y acceso rápido, como de discos duros tradicionales de gran capacidad, utilizados en entornos «nearline» para almacenamiento en frío o histórico, donde el coste por terabyte importa más que la velocidad.

  Implementación de la Directiva NIS2 en España: situación, obligaciones y retos

Los fabricantes de memoria NAND, encabezados por compañías como Samsung, SK Hynix y la propia Micron, han tenido que reajustar su producción, en línea con la ley de chips tras un periodo previo de sobreoferta. La reducción de fabricación coincidió con el estallido de la IA, generando tensiones en la disponibilidad y subidas relevantes de precio, sobre todo en SSD empresariales de alta densidad. En el ámbito de los HDD, empresas como Western Digital o Seagate también se han visto con todo su stock comprometido para grandes contratos, dejando poco espacio para el mercado minorista.

Para el consumidor final, todo esto se ha traducido en un cambio de paradigma bastante doloroso. En 2026, los precios del hardware para PC -especialmente GPU, RAM y unidades de almacenamiento- han escalado de forma tan agresiva que para muchos usuarios renovar su equipo se ha vuelto directamente inalcanzable. Y el problema no se limita al ordenador de sobremesa: móviles, routers, smart TVs y otros dispositivos que dependen de DRAM y memoria flash también se han encarecido.

Ante esta situación, muchos usuarios miran hacia el mercado de segunda mano o hacia nuevos actores, sobre todo fabricantes chinos. Empresas como CXMT, especializada en DRAM y capaz de producir módulos DDR5-8000, o YMTC, centrada en NAND Flash de alta densidad con tecnologías como Xtacking 4.0 para alcanzar capacidades de hasta 8 TB, se han convertido en alternativas interesantes para el consumo, a menudo integradas en marcas como Netac, Asgard, KingBank o Gloway.

No faltan incluso propuestas tan extremas como fabricar módulos de RAM de forma artesanal. Desde Rusia llegó la noticia de personas y grupos que se planteaban ensamblar su propia memoria ante los elevados precios y la falta de stock, una anécdota que ilustra hasta qué punto el mercado tradicional de hardware se ha desajustado por priorizar la fiebre de la IA.

Software, IA y el llamado «SaaSpocalypse»

Mientras el hardware va al límite y los centros de datos se multiplican, el propio concepto de software está afrontando una transformación de gran calado. Desde que Marc Andreessen acuñara en 2011 la frase «el software se está comiendo el mundo», el desarrollo y la distribución de aplicaciones han girado hacia un modelo dominado por el SaaS (Software as a Service), en el que las aplicaciones dejan de ser productos que compras una vez para convertirse en servicios de suscripción en la nube.

Programas clásicos como Photoshop u Office son ahora servicios continuos, accesibles vía navegador o aplicaciones conectadas, pagando una cuota mensual o anual. Este modelo ha permitido a las empresas de software generar ingresos recurrentes, pero también ha propiciado abusos: subidas de precios agresivas, contratos rígidos y una sensación creciente de cautividad por parte de los clientes, que se sienten atados por sus datos, sus integraciones y la complejidad de migrar a otra solución.

La irrupción de la IA está poniendo este modelo bajo presión. Herramientas de IA generativa y agentes inteligentes permiten que organizaciones -e incluso usuarios individuales- puedan crear soluciones a medida, automatizar tareas y, en algunos casos, prescindir de licencias carísimas. En paralelo, hemos visto correcciones bursátiles brutales en empresas SaaS como MongoDB, Salesforce, Shopify o Atlassian, que en cuestión de horas llegaron a perder entre un 15 y un 20% de su valor, alimentando el discurso del supuesto «SaaSpocalypse».

Parte de este ajuste tiene que ver con la propia dinámica de las valoraciones tras la pandemia, que infló las expectativas sobre el crecimiento infinito del SaaS. Pero también refleja el hartazgo de muchos clientes ante políticas comerciales abusivas, como las subidas del 35% en precios de Salesforce o los incrementos de hasta un 1.500% en las licencias de software de virtualización de Broadcom en Europa. La IA aparece aquí como una especie de llave que permite «escapar» de esas dependencias.

Sin embargo, hablar de muerte del software es, con bastante probabilidad, exagerado. Voces autorizadas como la de Steven Sinofsky, exresponsable de Windows en Microsoft, señalan que las grandes transiciones tecnológicas rara vez destruyen por completo lo anterior. El PC no mató al mainframe, sino que lo integró; el comercio electrónico no eliminó la tienda física, sino que dio lugar a gigantes multicanal. Con la IA ocurrirá algo similar: no habrá menos software, sino muchísimo más, porque quedan infinidad de procesos aún sin digitalizar u optimizar.

Lo que sí parece claro es que cambiará el papel del desarrollador humano. La IA se está comiendo muchas tareas rutinarias de programación, especialmente a través de herramientas de «vibe coding» o «ingeniería agéntica» que permiten a cualquiera prototipar y construir microaplicaciones a golpe de instrucciones en lenguaje natural. Esto democratiza el desarrollo, pero también crea una nueva deuda técnica: ¿quién va a mantener todo ese código generado por máquinas dentro de tres años?

Figuras como Linus Torvalds lo han expresado sin rodeos: la IA será una herramienta fantástica para empezar a programar y aumentar la productividad, pero el código que genere será difícil de mantener si no hay un conocimiento sólido detrás. Los programadores no desaparecerán; su rol evolucionará hacia arquitectos y supervisores de sistemas, responsables de garantizar que lo que se pone en producción es robusto, seguro y sostenible en el tiempo.

A todo esto se suma una cuestión crítica de soberanía de datos y seguridad. Si el software que utilizamos, o parte de él, se genera y ejecuta en plataformas de terceros como las de OpenAI, Anthropic u otros proveedores, surgen dudas legítimas sobre la propiedad intelectual, la privacidad de la información corporativa y la dependencia estratégica. En un contexto en el que los apagones informáticos ya han demostrado que un fallo en un proveedor puede paralizar medio mundo, depositar aún más poder en unos pocos actores plantea riesgos evidentes.

El llamado «SaaSpocalypse» quizá no sea un apocalipsis, sino una metamorfosis profunda del mercado del software. La lógica apunta a un futuro en el que los desarrolladores y las empresas de tecnología no venderán tanto licencias o líneas de código, sino resultados, autonomía y servicios que se autoajustan en tiempo real, siempre dentro de un marco de supervisión humana fuerte y responsabilidad clara sobre lo que ocurre con los datos.

Al echar la vista atrás, desde el efecto 2000 hasta los recientes apagones masivos, pasando por la fiebre de la IA y las crisis de hardware y software, se dibuja un patrón incómodo pero evidente: cada salto tecnológico amplifica tanto las oportunidades como las vulnerabilidades. Vivimos más conectados, automatizados y potentes que nunca, pero también más expuestos a que un fallo puntual, una mala decisión de diseño o una simple actualización defectuosa tenga consecuencias globales. La clave está en asumir esa fragilidad como parte del juego y en construir, con algo más de humildad, sistemas, mercados y modelos de negocio que no se desmoronen al primer bug serio.

implementación Directiva Europea NIS2 en España
Artículo relacionado:
Implementación de la Directiva NIS2 en España: situación, obligaciones y retos