Crisi informatica: storia, grandi blackout ed effetti attuali

Ultimo aggiornamento: 5 marzo 2026
  • Le crisi informatiche, dal bug Y2000K ai recenti blackout, mostrano la fragilità di una società iperconnessa e dipendente dal software.
  • Il boom dell'intelligenza artificiale ha fatto aumentare la domanda di GPU, memoria e storage, causando carenze, prezzi elevati e uno spostamento del mercato verso i data center.
  • Le carenze dei fornitori di servizi cloud e di sicurezza informatica evidenziano il rischio di affidarsi a pochi attori e la necessità di test, piani di emergenza e un approccio multi-cloud.
  • L'intelligenza artificiale non elimina software o programmatori, ma trasforma il modello SaaS, il ruolo dello sviluppatore e l'equilibrio tra automazione, dati e sicurezza.

Crisi dell'informazione: storia ed effetti attuali

Le crisi informatiche sono state una compagna costante dell' trasformazione digitaleAnche se a volte ce ne ricordiamo solo quando WhatsApp si blocca, un aeroporto si blocca o la temuta schermata blu di Windows appare su milioni di computer contemporaneamente. Dai primi computer commerciali all'esplosione dell'intelligenza artificiale, la storia recente è costellata di bug, blackout globali, bolle tecnologiche e allarmi finanziari che dimostrano quanto possa essere fragile l'intero sistema.

È fondamentale comprendere la storia e gli effetti attuali di queste crisi informatiche per comprendere l'entità della nostra dipendenza dalla tecnologia, per valutare il ruolo della sicurezza informatica e prevedere cosa potrebbe accadere dopo il boom dell'intelligenza artificiale, le bolle azionarie e i massicci fallimenti dei software che stanno paralizzando compagnie aeree, banche, ospedali e governi in tutto il mondo.

Dal bug Y2000K alla paura del collasso digitale globale

Qualche anno fa, l'intero pianeta si preparava a una presunta apocalisse digitale.Il famoso bug Y2K, noto anche come errore del millennio, era una teoria semplice ma inquietante: poiché molti sistemi memorizzavano le date utilizzando solo due cifre per l'anno ("gg/mm/aa"), nel passaggio dal 1999 al 2000, 01/01/00 poteva essere interpretato come 1900. Ciò significava che programmi di ogni tipo potevano "credere" di essere tornati indietro di un secolo e iniziare a funzionare male in modi imprevedibili.

L'origine di questo problema risale agli anni '50 e '60.All'epoca in cui memoria e spazio di archiviazione erano estremamente costosi e limitati, i programmatori cercavano di risparmiare spazio ovunque fosse possibile. Uno dei modi più pratici per farlo era abbreviare le date omettendo il secolo. Così, gennaio 1900 veniva memorizzato come 01/00 e dicembre 1999 come 12/99, uno schema che vediamo ancora oggi, ad esempio, su molte carte di credito.

Per decenni nessuno ha prestato molta attenzione al trucco delle due cifrePerché tutto accadeva nello stesso secolo e non sembrava esserci alcun conflitto. Tuttavia, a poco a poco, iniziarono a manifestarsi strani sintomi: dati di centenari elencati nel database come bambine di quattro anni, lotti di prodotti scaduti "ottant'anni" prima della data effettiva e sistemi di fatturazione che calcolavano periodi impossibili. Questi erano indizi che, al cambio di millennio, il caos avrebbe potuto essere monumentale.

All'inizio degli anni Novanta, gli avvertimenti cominciarono a essere presi sul serio.Specialisti IT e amministratori di sistema hanno avvertito che quasi tutti i settori erano interessati: banche, compagnie assicurative, pubbliche amministrazioni, imprese edili, operatori di telecomunicazioni, aziende energetiche, trasporti, ospedali e sistemi di difesa. Qualsiasi software che gestisse date a due cifre era un candidato ideale per il crash con l'avvicinarsi dell'anno 2000.

I governi e le grandi aziende hanno reagito con un investimento multimilionarioEra necessario inventariare programmi, database, file e procedure, individuare tutti i punti in cui venivano gestite le date e riscrivere enormi quantità di codice. Furono sviluppati strumenti specifici per analizzare le applicazioni, furono definiti piani di test approfonditi e furono assemblati team di reperibilità per trascorrere la notte di Capodanno del 1999 davanti a console e server, pronti a... reagire agli incidenti critici.

Il caso della Spagna illustra la portata di questo sforzo.Il solo governo spagnolo ha stanziato circa 420 milioni di euro per adattare sistemi e attrezzature al cambio di millennio, mentre a livello globale si stima che siano stati spesi circa 214.000 miliardi di euro. Molte organizzazioni hanno approfittato di questi lavori obbligatori per introdurre anche altri miglioramenti strategici, come la preparazione dei propri sistemi all'introduzione dell'euro.

L'ingresso effettivo nell'anno 2000 fu un momento di tensione contenuta.I team tecnici monitoravano attentamente gli sviluppi in paesi come Nuova Zelanda, Australia e Giappone, che avevano superato la soglia del fuso orario prima dell'Europa o delle Americhe. Le notizie che arrivavano da est erano rassicuranti: le luci erano ancora accese, gli aerei non si schiantavano e le centrali elettriche erano ancora in funzione.

Alla fine, il temuto collasso informatico globale non si è verificatoCi sono stati incidenti, certo, ma per lo più di lieve entità: fatture generate con date errate, terminali di servizio offline, alcuni dispositivi che hanno smesso di funzionare o errori isolati presso centrali nucleari o altri sistemi critici che sono stati risolti senza gravi conseguenze. In Spagna, ad esempio, sono stati rilevati guasti di lieve entità in un paio di centrali nucleari, in alcune stazioni di servizio e in alcuni sistemi automatizzati di raccolta dati sul traffico.

Il fatto che il disastro non si sia verificato ha portato alcuni a parlare di mito o esagerazione.Tuttavia, gli esperti concordano sul fatto che il pericolo fosse molto reale e che la ragione per cui non si è verificato nulla di grave sia stata proprio l'impegno preventivo. Se quei sistemi non fossero stati rivisti e corretti in tempo, il salto dal '99 al '00 avrebbe causato il caos operativo in banche, aziende e servizi pubblici, con un impatto diretto sull'economia e sulla sicurezza pubblica.

Il bug Y2000K ha lasciato una lezione che rimane attuale ancora oggi.Viviamo incollati alla tecnologia e più ne dipendiamo, maggiore è il potenziale impatto di un fallimento di vasta portata. Inoltre, ha dimostrato che, anche di fronte a un problema previsto con largo anticipo, coordinare le risposte globali, coinvolgere tutte le parti interessate e mobilitare risorse sufficienti in tempo utile è estremamente difficile.

Dai bug ai blackout di massa: fallimenti globali che paralizzano il mondo

A due decenni di distanza da quella paura del millennio, la minaccia di una paralisi tecnologica globale è diventata molto più tangibile.Non si tratta più di una previsione basata sul modo in cui vengono archiviate le date, ma di veri e propri blackout informatici che hanno costretto aerei a terra, bloccato bancomat e sovraccaricato i servizi di emergenza in molti Paesi contemporaneamente.

L'esempio più eclatante è il recente blackout informatico causato da un aggiornamento difettoso di CrowdStrikeUn'azienda di sicurezza informatica che protegge i sistemi che eseguono, tra gli altri, Microsoft Windows, è stata responsabile di un semplice aggiornamento dei contenuti del suo agente di sicurezza Windows 10, che ha innescato una serie di errori critici su un massimo di 8,5 milioni di dispositivi interessati, visualizzando l'iconica "schermata blu della morte" sui computer di tutto il mondo.

La portata dell'incidente è stata tale che molti esperti lo hanno già classificato come il più grande blackout informatico della storia.Questo è esattamente ciò che si temeva con il bug Y2000K, ma che allora non si è materializzato. Questa volta, il trasporto aereo, i sistemi finanziari, le comunicazioni e persino i servizi di emergenza sono stati improvvisamente interrotti, evidenziando la fragilità dell'infrastruttura digitale globale, che si affida così fortemente a una manciata di fornitori chiave.

L'origine esatta del problema era un "difetto" in un aggiornamento dei contenuti distribuito sui sistemi Windows protetti da CrowdStrike.Lo stesso CEO dell'azienda ha dovuto farsi avanti per spiegare il problema, sottolineando che non si trattava di un attacco informatico, ma piuttosto di una falla software interna. Sebbene la correzione sia stata implementata relativamente rapidamente, il danno era già stato fatto: milioni di computer sono stati resi inutilizzabili finché il file problematico non è stato rimosso e i sistemi riavviati in modalità provvisoria, uno alla volta, in organizzazioni con migliaia di computer.

  10 aspetti chiave: cos'è un sistema informativo gestionale?

Con l'espandersi dell'interruzione, le compagnie aeree di tutto il mondo hanno iniziato a sentirne l'impattoAeroporti trafficati come Sydney, Gatwick e Stansted sono stati costretti a ritardare o cancellare i voli a causa del collasso dei sistemi di check-in, controllo imbarchi e gestione bagagli. Alcune compagnie aeree hanno dichiarato uno "stop globale a terra", interrompendo tutte le operazioni fino alla stabilizzazione della situazione, causando code, confusione e un effetto domino durato giorni.

Anche il settore sanitario ha avuto un impatto negativo su questo blackout informaticoOspedali e cliniche si sono ritrovati senza accesso a cartelle cliniche elettroniche, calendari degli appuntamenti o sistemi di analisi diagnostica computerizzati. In molti casi, hanno dovuto ricorrere a metodi manuali, registrando i dati su carta e dando priorità solo ai pazienti in condizioni critiche, mentre riorganizzavano i loro sistemi.

Anche il settore bancario e dei servizi finanziari ha attraversato periodi difficili.Si sono verificate interruzioni nell'elaborazione delle transazioni, problemi con gli sportelli bancomat e applicazioni mobili non operative, creando un ulteriore senso di vulnerabilità in un momento in cui la maggior parte dei pagamenti e delle transazioni si basa su piattaforme digitali. Anche alcune borse valori e sistemi di informazione finanziaria, come la piattaforma Workspace del London Stock Exchange Group, sono stati colpiti.

Nel frattempo, molti servizi quotidiani hanno subito guasti intermittenti o arresti totali: catene di supermercati e fast food con casse chiuse, organi di stampa con sistemi di trasmissione compromessi, cartelloni pubblicitari iconici come quelli di Times Square spenti a causa del guasto dei loro sistemi di controllo, oppure banche centrali ed enti pubblici alle prese con applicazioni critiche fuori servizio.

Sebbene CrowdStrike abbia rapidamente isolato e corretto il difetto, il ripristino non è stato immediato.La soluzione richiedeva il riavvio dei computer in modalità provvisoria, l'individuazione del file problematico e la sua eliminazione prima del riavvio in modalità normale: un processo molto laborioso quando si ha a che fare con reti aziendali di grandi dimensioni. Microsoft ha persino raccomandato fino a 15 cicli di accensione e spegnimento su alcuni dispositivi, a dimostrazione della complessità di invertire una vulnerabilità diffusa quando è stata distribuita automaticamente a milioni di endpoint.

Questo blackout informatico ha avuto anche un chiaro impatto reputazionale ed economicoLe azioni di CrowdStrike sono crollate in borsa e anche Microsoft ha subito un calo, mentre l'intero settore tecnologico ha visto riflettersi sui mercati la sfiducia generata da un fallimento così eclatante in un componente teoricamente progettato per rafforzare la sicurezza e la resilienza dei sistemi.

Crolla la grande piattaforma: quando la vita quotidiana si ferma

Oltre ai blackout legati ai fornitori di servizi di sicurezza informatica, la storia recente è costellata di importanti interruzioni dei servizi digitali che hanno lasciato metà del pianeta disconnesso.Non è necessario un attacco sofisticato: a volte basta un semplice errore di configurazione o un aggiornamento mal testato per mandare in tilt social network, applicazioni di messaggistica, e-mail o addirittura intere borse valori.

Le piattaforme di Meta (Facebook, Instagram, WhatsApp e Messenger) sono un buon esempio di questa fragilità nel i social mediaNel novembre 2017, WhatsApp ha subito un'interruzione globale di circa un'ora, lasciando milioni di utenti senza comunicazione. Nel marzo 2019, si è verificato uno degli incidenti più lunghi registrati da Facebook: un'interruzione parziale di circa 22 ore che ha interessato anche Instagram e WhatsApp, ufficialmente attribuita a una modifica della configurazione del server.

Non fu quella l'unica volta in cui le applicazioni di Meta si bloccarono in modo coordinato.Nell'aprile 2019, i problemi si sono ripresentati per diverse ore e, a luglio dello stesso anno, si sono verificate nuovamente interruzioni simultanee di Facebook, Instagram, WhatsApp e Messenger, con un impatto particolare su Europa occidentale, Stati Uniti, Messico, Filippine e diversi paesi sudamericani. Nell'ottobre 2021, si è verificata un'altra interruzione diffusa, questa volta durata più di cinque ore, con ripercussioni a livello globale.

In particolare, WhatsApp ha continuato a registrare interruzioni del servizio molto visibili.Nell'ottobre 2022, milioni di utenti non sono riusciti a inviare o ricevere messaggi per circa due ore e nel luglio 2023 si è verificata un'interruzione globale simile, della durata di circa un'ora. Questi episodi, sebbene relativamente brevi, hanno enormi ripercussioni sociali e mediatiche perché colpiscono uno strumento utilizzato sia per la comunicazione personale che professionale.

Anche altre importanti piattaforme non sono immuni ai fallimenti.Nel luglio 2019, Twitter ha subito un'interruzione globale di circa 90 minuti, attribuita anche a una modifica della configurazione interna. Nell'agosto 2020, Gmail, Drive, Meet e altri servizi essenziali di Google hanno subito interruzioni intermittenti per diverse ore in numerosi Paesi, con conseguenti problemi di posta elettronica aziendale, videochiamate e collaborazione online, proprio nel pieno del boom del lavoro da remoto.

Non tutti gli incidenti riguardano solo le piattaforme consumerNell'ottobre 2020, la Borsa di Tokyo ha dovuto sospendere tutte le contrattazioni per un'intera giornata a causa di un problema al suo sistema informatico principale, in quella che è stata considerata la più grave interruzione nella storia del terzo mercato azionario più grande del mondo. E nel giugno 2021, un guasto al fornitore di servizi CDN e cloud Fastly ha lasciato decine di siti web di media e altri servizi in tutto il mondo parzialmente o completamente inutilizzabili.

Questi casi dimostrano che anche le infrastrutture critiche o altamente regolamentate sono vulnerabili agli errori tecnologici.L'interconnessione tra i sistemi, la dipendenza dai provider cloud e dalle reti di distribuzione dei contenuti, nonché la ricerca costante di efficienza e automazione fanno sì che un singolo guasto possa diffondersi su larga scala e con una velocità che sarebbe stata impensabile solo pochi decenni fa.

Interruzioni di corrente, sicurezza informatica e vulnerabilità del cloud

La moderna sicurezza informatica è diventata un pilastro essenziale per la protezione dei sistemi criticiTuttavia, il caso del blackout causato da un aggiornamento software di sicurezza difettoso dimostra che questi stessi strumenti possono anche rappresentare un singolo punto di errore. Quando un agente di sicurezza viene implementato su larga scala, qualsiasi errore nei suoi aggiornamenti può causare esattamente ciò per cui è stato progettato: un'interruzione su larga scala.

Oggigiorno, le organizzazioni di tutte le dimensioni, dalle PMI alle grandi aziende, si affidano a più livelli di difesa digitale.Antivirus, firewall, sistemi di rilevamento e risposta (EDR/XDR), monitoraggio continuo, backup, aggiornamenti costanti e, sempre più, soluzioni basate su intelligenza artificiale e apprendimento automatico per rilevare comportamenti anomali. L'idea è quella di rafforzare la sicurezza end-to-end, ma la complessità di questi ecosistemi introduce anche nuovi rischi.

La migrazione di massa verso il cloud ha moltiplicato i vantaggi, ma anche la superficie di attaccoMolte aziende oggi godono di un'enorme scalabilità, di uno spazio di archiviazione praticamente illimitato e dell'accesso a tecnologie avanzate come l'analisi dei dati, l'intelligenza artificiale e l'Internet delle cose. Tuttavia, questa stessa centralizzazione su piattaforme cloud implica che un errore del provider, una configurazione errata o un guasto nella catena di aggiornamento possono avere ripercussioni su migliaia di clienti contemporaneamente.

In paesi come il Cile, ad esempio, oltre il 60% delle PMI dichiara di utilizzare soluzioni di cloud computing e di storage.Ciò dimostra quanto questo modello sia diventato uno standard anche al di fuori delle grandi multinazionali. Allo stesso tempo, circa il 76% delle aziende dichiara di aver implementato specifici piani di sicurezza informatica e di gestione delle informazioni, consapevole che un singolo incidente riuscito può avere effetti devastanti sulle loro attività e sulla loro reputazione.

  Come far rivivere un vecchio PC con Q4OS passo dopo passo

La recente interruzione dei servizi IT ha rafforzato un'idea fondamentale: affidarsi a un unico fornitore non è sufficiente.Le aziende colpite, la cui intera infrastruttura di sicurezza e parte delle loro operazioni si basavano sullo stesso servizio, si sono ritrovate senza alternative quando questo ha fallito. Per questo motivo, l'approccio multicloud e la diversificazione dei provider stanno acquisendo importanza, con l'obiettivo di evitare la dipendenza da un singolo punto di errore e di disporre di piani di emergenza realistici.

Tra le lezioni tecniche apprese da questo incidente, spiccano tre aspetti.Il primo è la necessità di testare a fondo qualsiasi aggiornamento in ambienti isolati e controllati prima di una distribuzione su larga scala. Il secondo è l'importanza di disporre di piani di risposta rapida chiari e comprovati che consentano un'azione agile per ridurre al minimo i danni. Il terzo è la trasparenza: riconoscere gli errori, spiegare cosa è successo e cosa si sta facendo per risolverli e prevenirne il ripetersi è fondamentale per riconquistare la fiducia dei clienti e del mercato.

Le aziende di qualsiasi settore, non solo quelle dedicate alla sicurezza informatica, dovrebbero interiorizzare queste lezioni.Progettare solide politiche e strategie di sicurezza informatica, investire nella formazione, mantenere sistemi aggiornati e definire protocolli chiari per incidenti gravi non è più un facoltativo, ma una condizione fondamentale per operare in un mondo iperconnesso in cui un guasto informatico può tradursi in perdite economiche, problemi legali e crisi di immagine nel giro di poche ore.

Il boom dell’intelligenza artificiale come nuova fonte di crisi

Mentre si moltiplicano blackout e guasti su larga scala, un'altra forza sta rimodellando completamente il panorama tecnologico: l'intelligenza artificiale.Nel giro di pochi anni, l'intelligenza artificiale generativa, i modelli linguistici e gli agenti autonomi sono passati dall'essere una promessa lontana a un motore economico e tecnologico che permea quasi tutto, dallo sviluppo software al servizio clienti, dal marketing all'analisi finanziaria.

Modelli e servizi come quelli di OpenAI, DeepSeek e altri concorrenti hanno segnato una svolta.Ciò che è iniziato come una sorta di miraggio, con la spettacolare ascesa di aziende hardware come NVIDIA, si è consolidato in un boom duraturo che continua a stimolare la domanda di potenza di calcolo, energia e talenti specializzati. L'intelligenza artificiale è stata venduta come una sorta di panacea e oggi è ricercata sia dagli utenti comuni che dalle grandi aziende.

Questo boom sta addirittura generando timori circa una possibile bolla dell'intelligenza artificiale.Con chiari parallelismi con la bolla delle dot-com della fine degli anni '90. Allora, era Internet a sembrare in grado di giustificare qualsiasi valutazione esorbitante; ora è l'intelligenza artificiale ad aver scatenato l'entusiasmo di investitori, fondi di venture capital e grandi aziende tecnologiche, alimentando una crescita delle valutazioni che in molti casi non corrisponde ancora all'effettiva generazione di reddito.

Nella bolla precedente, aziende come Lycos, Terra e Boo.com finirono per scomparire.Mentre altre aziende come Amazon hanno resistito alla tempesta e sono uscite rafforzate da un duro processo di riorganizzazione del mercato, oggi sono evidenti dinamiche simili: le startup di intelligenza artificiale proliferano alla ricerca di guadagni facili, spesso spinte da ingenti fondi e dalla costante pressione dei media, mentre giganti come Google, Microsoft e i progetti di Elon Musk competono ferocemente per dominare questa nuova frontiera tecnologica.

La differenza è che l'intelligenza artificiale ha già utilizzi consolidati e redditizi.Servizi cloud, automazione dei processi, semiconduttori specializzati, strumenti di produttività e soluzioni di analisi avanzate generano ricavi tangibili per le aziende consolidate. Inoltre, i mercati finanziari dispongono di strumenti di analisi del rischio più sofisticati rispetto agli anni 2000 e l'infrastruttura digitale globale è molto più matura, il che, in teoria, potrebbe favorire una crescita leggermente più sostenibile.

Tuttavia, la dipendenza dall’intelligenza artificiale in economie come quella degli Stati Uniti è estremamente elevata.Alcune analisi stimano che circa il 40% della recente crescita economica degli Stati Uniti sia legata, direttamente o indirettamente, a questa tecnologia. E non si tratta solo di un fenomeno economico: i nomi più importanti del settore – Elon Musk, Mark Zuckerberg, Jeff Bezos e altri – esercitano ormai una notevole influenza politica e hanno scarso interesse a lasciare che una bolla scoppi in modo incontrollato, sebbene sia quasi inevitabile eliminare i progetti non realizzabili.

Hardware spinto al limite: GPU, RAM, SSD e HDD sotto pressione

Il boom dell'intelligenza artificiale non si riflette solo nei bilanci e nei titoli dei giornali, ma anche nell'hardware fisico che supporta l'intero settore. rivoluzione dei chipI data center dedicati alla formazione e all'esecuzione di modelli di intelligenza artificiale generativa sono diventati dei veri e propri divoratori di risorse: necessitano di prestazioni di elaborazione brutali, enormi quantità di memoria e storage e reti a larghezza di banda estremamente elevata.

Al centro di questa infrastruttura ci sono le GPU e altri acceleratori specializzatiSchede grafiche come NVIDIA H100, architetture Blackwell, soluzioni AMD Instinct e TPU di Google hanno relegato le CPU tradizionali in secondo piano per molti carichi di lavoro di intelligenza artificiale, poiché consentono l'elaborazione parallela massiva di enormi volumi di operazioni, sebbene con minore precisione. Questo cambiamento ha fatto aumentare la domanda di GPU nei data center, sostituendo in parte l'offerta destinata ai mercati consumer e gaming.

Il risultato è una vera e propria crisi nel mercato delle GPU consumerDando priorità alla produzione e all'allocazione delle scorte per modelli orientati all'intelligenza artificiale e di livello professionale, molti produttori hanno ridotto la loro attenzione al segmento consumer. Ci sono meno schede grafiche disponibili per gamer e creatori di contenuti, e le poche unità che arrivano nei negozi hanno prezzi gonfiati, rendendo gli aggiornamenti irraggiungibili per una parte significativa di utenti.

Anche la memoria sta subendo un impatto enorme, soprattutto nel settore della DRAM.Le GPU e gli acceleratori moderni non richiedono solo RAM convenzionale per la CPU, ma anche chip di memoria ad alta larghezza di banda (HBM) per la propria VRAM, moltiplicando la domanda globale. Produttori come Samsung Electronics, SK Hynix e Micron hanno progressivamente spostato la capacità produttiva verso HBM e DRAM di livello enterprise, riducendo l'offerta per i mercati tradizionali di PC, dispositivi mobili e altri dispositivi di consumo.

Questo riorientamento della produzione, insieme alla classica volatilità ciclica del mercato DRAM, ha generato una tempesta perfettaDopo un periodo di sovrapproduzione e prezzi in calo, molti produttori hanno ridotto la capacità produttiva. Proprio in quel momento, la domanda legata all'intelligenza artificiale è esplosa, causando un brusco aggiustamento dell'offerta. Il risultato: carenze e aumenti di prezzo senza precedenti per i moduli DDR5 e prodotti simili, al punto che alcuni kit di memoria hanno raggiunto prezzi di diverse migliaia di euro.

L'impatto è stato così forte che marchi storici nel segmento dei beni di consumo hanno chiuso i battenti.È il caso di Crucial, il marchio di Micron per RAM e SSD domestici, la cui scomparsa commerciale è stata annunciata per febbraio 2026, a simboleggiare il progressivo abbandono dell'utente finale da parte dei grandi produttori che preferiscono concentrarsi su business più redditizi legati ai data center e alle applicazioni aziendali.

Anche l'archiviazione, sia sotto forma di SSD che di HDD, non è immune alla pressione dell'intelligenza artificiale.I data center che addestrano modelli di grandi dimensioni richiedono capacità enormi per archiviare set di dati, checkpoint e log. Questo fa aumentare la domanda sia di SSD NVMe ad alte prestazioni, ideali per carichi di lavoro intensivi e accesso rapido, sia di dischi rigidi tradizionali ad alta capacità, utilizzati in ambienti nearline per l'archiviazione a freddo o storica, dove il costo per terabyte è più importante della velocità.

  Che cosa è la gestione dei servizi IT?

I produttori di memorie NAND, guidati da aziende come Samsung, SK Hynix e la stessa Micron, hanno dovuto riadattare la loro produzione, in linea con l' legge sui chip Dopo un periodo di eccesso di offerta, i tagli alla produzione hanno coinciso con l'avvento dell'intelligenza artificiale, creando problemi di disponibilità e significativi aumenti di prezzo, in particolare per gli SSD aziendali ad alta densità. Nel settore degli HDD, aziende come Western Digital e Seagate hanno visto l'intero stock impegnato in contratti di grandi dimensioni, lasciando poco spazio al mercato al dettaglio.

Per il consumatore finale, tutto ciò si è tradotto in un cambiamento di paradigma piuttosto doloroso.Entro il 2026, i prezzi dell'hardware per PC, in particolare GPU, RAM e unità di archiviazione, erano aumentati così drasticamente che per molti utenti aggiornare le proprie apparecchiature era diventato praticamente impossibile. E il problema non si limitava ai computer desktop: anche telefoni cellulari, router, smart TV e altri dispositivi che si basano su DRAM e memoria flash erano diventati più costosi.

Di fronte a questa situazione, molti utenti si rivolgono al mercato dell'usato o a nuovi attori, soprattutto produttori cinesi.Aziende come CXMT, specializzata in DRAM e in grado di produrre moduli DDR5-8000, o YMTC, focalizzata su NAND Flash ad alta densità con tecnologie come Xtacking 4.0 per raggiungere capacità fino a 8 TB, sono diventate alternative interessanti per i consumatori, spesso integrate in marchi come Netac, Asgard, KingBank o Gloway.

Esistono addirittura proposte estreme, come la produzione manuale dei moduli RAM.Dalla Russia giungono notizie di individui e gruppi che stanno valutando l'idea di assemblare la propria memoria a causa degli alti prezzi e della mancanza di scorte, un aneddoto che illustra fino a che punto il mercato hardware tradizionale si sia sbilanciato dando priorità alla mania dell'intelligenza artificiale.

Software, intelligenza artificiale e la cosiddetta "SaaSpocalypse"

Mentre l'hardware viene spinto al limite e i data center si moltiplicano, il concetto stesso di software sta subendo una profonda trasformazione.Da quando Marc Andreessen ha coniato la frase "il software sta divorando il mondo" nel 2011, lo sviluppo e la distribuzione delle applicazioni si sono spostati verso un modello dominato dal SaaS (Software as a Service), in cui le applicazioni cessano di essere prodotti acquistabili una sola volta e diventano servizi in abbonamento nel cloud.

Programmi classici come Photoshop o Office sono ormai servizi in corsoAccessibile tramite browser o applicazioni connesse, a fronte di un canone mensile o annuale. Questo modello ha permesso alle aziende di software di generare ricavi ricorrenti, ma ha anche portato ad abusi: aumenti di prezzo aggressivi, contratti rigidi e un crescente senso di prigionia tra i clienti, che si sentono vincolati dai propri dati, dalle proprie integrazioni e dalla complessità della migrazione verso un'altra soluzione.

L'ascesa dell'intelligenza artificiale sta mettendo sotto pressione questo modelloGli strumenti di intelligenza artificiale generativa e gli agenti intelligenti consentono alle organizzazioni, e persino ai singoli utenti, di creare soluzioni personalizzate, automatizzare le attività e, in alcuni casi, eliminare la necessità di licenze costose. Allo stesso tempo, abbiamo assistito a brusche correzioni di mercato in aziende SaaS come MongoDB, Salesforce, Shopify e Atlassian, che hanno perso tra il 15% e il 20% del loro valore nel giro di poche ore, alimentando la narrazione di una presunta "SaaSpocalypse".

Parte di questo aggiustamento ha a che fare con le dinamiche delle valutazioni stesse dopo la pandemiaCiò ha gonfiato le aspettative sulla crescita infinita del SaaS. Ma riflette anche la stanchezza di molti clienti nei confronti di politiche commerciali abusive, come gli aumenti di prezzo del 35% di Salesforce o gli aumenti fino al 1.500% delle licenze software di virtualizzazione da parte di Broadcom in Europa. L'intelligenza artificiale appare qui come una sorta di chiave che consente agli utenti di "sfuggire" a queste dipendenze.

Tuttavia, parlare della morte del software è, con ogni probabilità, un'esagerazione.Voci autorevoli come quella di Steven Sinofsky, ex responsabile di Windows in Microsoft, sottolineano che le grandi transizioni tecnologiche raramente distruggono completamente ciò che c'era prima. Il PC non ha ucciso il mainframe, ma lo ha integrato; l'e-commerce non ha eliminato il negozio fisico, ma ha dato vita a giganti omnicanale. Qualcosa di simile accadrà con l'intelligenza artificiale: non ci sarà meno software, ma molto di più, perché innumerevoli processi devono ancora essere digitalizzati o ottimizzati.

Ciò che sembra chiaro è che il ruolo dello sviluppatore umano cambierà.L'intelligenza artificiale sta prendendo il sopravvento su molte attività di programmazione di routine, soprattutto attraverso strumenti di "vibe coding" o "agent engineering" che consentono a chiunque di prototipare e costruire microapplicazioni semplicemente registrando istruzioni in linguaggio naturale. Questo democratizza lo sviluppo, ma crea anche un nuovo debito tecnico: chi si occuperà della manutenzione di tutto quel codice generato automaticamente tra tre anni?

Personaggi come Linus Torvalds lo hanno espresso senza mezzi terminiL'intelligenza artificiale sarà uno strumento fantastico per iniziare a programmare e aumentare la produttività, ma il codice che genera sarà difficile da manutenere senza una solida base di conoscenze. I programmatori non scompariranno; il loro ruolo si evolverà in quello di architetti e supervisori di sistema, responsabili di garantire che ciò che viene implementato in produzione sia robusto, sicuro e sostenibile nel tempo.

A tutto questo si aggiunge una questione critica di sovranità e sicurezza dei dati.Se il software che utilizziamo, o parti di esso, viene generato ed eseguito su piattaforme di terze parti come quelle di OpenAI, Anthropic o altri provider, sorgono legittime preoccupazioni in merito alla proprietà intellettuale, alla riservatezza delle informazioni aziendali e alla dipendenza strategica. In un contesto in cui le interruzioni IT hanno già dimostrato che un guasto di un fornitore può paralizzare metà del mondo, affidare ancora più potere a pochi attori comporta rischi evidenti.

La cosiddetta "SaaSpocalypse" potrebbe non essere un'apocalisse, ma una profonda metamorfosi del mercato del software.La logica indica un futuro in cui gli sviluppatori e le aziende tecnologiche venderanno non tanto licenze o righe di codice, ma risultati, autonomia e servizi che si autoadattano in tempo reale, sempre nel quadro di una forte supervisione umana e di una chiara responsabilità per ciò che accade ai dati.

Guardando indietro, dal bug Y2000K ai recenti blackout di massa, passando per la mania dell'intelligenza artificiale e le crisi hardware e software, emerge uno schema scomodo ma ovvio.Ogni balzo in avanti tecnologico amplifica sia le opportunità che le vulnerabilità. Viviamo vite più connesse, automatizzate e potenti che mai, ma siamo anche più esposti alla possibilità che un singolo errore, una cattiva scelta di progettazione o un semplice aggiornamento difettoso possano avere conseguenze globali. La chiave è accettare questa fragilità come parte del gioco e, con un po' più di umiltà, costruire sistemi, mercati e modelli di business che non crollino al primo bug grave.

Attuazione della direttiva europea NIS2 in Spagna
Articolo correlato:
Attuazione della direttiva NIS2 in Spagna: situazione, obblighi e sfide