Il calcolo quantistico (Quantum Computing, QC) è l’unica tecnologia che oggi promette di generare un "vantaggio esponenziale" su qualsiasi problematica affrontata dal calcolo classico. Non si tratta di rendere i computer più veloci, ma di cambiare radicalmente il modo in cui i problemi vengono risolti, sfruttando leggi fisiche che fino a poco tempo fa erano confinate alla teoria. Questa rivoluzione, guidata da colossi come IBM, Google, e startup specializzate, è già entrata nella sua fase applicativa.
Possiamo immaginare questa rivoluzione prendendo a prestito un vecchio adagio relativo al cosiddetto teorema della scimmia instancabile. Ossia: una scimmia che premesse a caso i tasti di una macchina da scrivere, ovviamente, non andrebbe a scrivere alcunché di sensato; ma se la scimmia avesse a disposizione un tempo infinito, la probabilità di scrivere, che so, un'opera di Shakespeare, sarebbe molto più alta, fino ad arrivare alla certezza matematica. Ebbene, mutatis mutandis, il modello vale anche per la sfera quantistica, visto che una potenza computazionale capace di contrarre il tempo infinito fino a ordini di grandezza del milionesimo di secondo - ossia di fare calcoli in modo infinitamente più rapido rispetto alle soglie raggiungibili attraverso i comuni circuiti integrati - sarebbe in grado di ottenere un risultato "matematicamente non ottenibile in via usuale" anche attraverso un "prova, riprova e controlla" talmente rapido nella sua reiterazione da portare a risultati in tempi brevi.
Il sottotesto di cui sopra, per noi che ci occupiamo di blockchain e crittografia, è piuttosto chiaro: in estrema sintesi trovare la chiave privata a partire dalla chiave pubblica.
Pertanto, con la promessa arriva la minaccia. L'hardware quantistico è destinato a distruggere l’architrave della moderna sicurezza digitale: la crittografia a chiave pubblica (come RSA ed ECC). Questo dualismo tra progresso industriale inarrestabile e rischio di "Apocalisse crittografica" impone un’azione immediata e strutturale. Il mondo non sta più aspettando il se i computer quantistici saranno in grado di rompere i codici, ma sta gestendo il quando, con una deadline fissata in modo aggressivo per la transizione globale.
Per comprendere l'impatto del QC, è necessario prima cogliere la differenza fondamentale tra il bit classico e il qubit. Un bit tradizionale (come quello che alimenta questo testo) può esistere solo in uno stato: 0 o 1. Un qubit – l'unità di informazione quantistica – sfrutta due fenomeni della meccanica quantistica:
Superposizione: Un qubit può esistere contemporaneamente in una combinazione lineare di 0 e 1, come una moneta che gira in aria prima di atterrare. Aggiungendo qubit, il numero di stati possibili aumenta in modo esponenziale ($2^n$, dove n è il numero di qubit). Un sistema di soli 300 qubit potrebbe, teoricamente, rappresentare più stati dell'insieme di atomi nell'universo osservabile.
Entanglement (Intreccio): Due qubit possono essere collegati in modo tale che lo stato di uno dipenda istantaneamente dallo stato dell'altro, indipendentemente dalla distanza fisica. Questa correlazione permette ai computer quantistici di eseguire calcoli complessi in un unico colpo, esplorando simultaneamente tutte le possibili soluzioni.
Questi principi conferiscono al QC un vantaggio esponenziale per specifiche classi di problemi (ottimizzazione, simulazione, fattorizzazione), rendendolo uno strumento di elaborazione non universale, ma trasformativo.
La corsa al quantum è oggi focalizzata sulla tecnologia NISQ (Noisy Intermediate-Scale Quantum). Questi sistemi, come quelli sviluppati da IBM e Google, sono potenti ma affetti da un alto tasso di errore (decoerenza), ovvero la perdita dello stato quantistico a causa di interferenze ambientali (vibrazioni, calore).
IBM e la Roadmap per la Tolleranza ai Guasti:
IBM è in prima linea con la sua roadmap a lungo termine. L'azienda ha continuamente aumentato il numero di qubit (passando dalla soglia dei 100 ai sistemi modulari), ma la vera sfida ingegneristica non è il numero, bensì la qualità e la scalabilità per raggiungere la Quantum Fault Tolerance (tolleranza ai guasti). L'obiettivo esplicito di molte aziende e ricercatori, incluso IBM, è di raggiungere un QC completamente corretto dagli errori entro la fine del decennio, un traguardo fondamentale per poter eseguire algoritmi come quello di Shor con la precisione richiesta per la crittanalisi.
Il futuro dell'hardware si basa sulla modularità: la connessione di più processori quantistici tramite networking quantistico per creare un supercomputer quantistico, superando i limiti di un singolo chip. Questo cammino, con l'obiettivo di raggiungere i 100.000 qubit e oltre, è l’unica strada per sbloccare la piena potenza del calcolo quantistico e superare i supercomputer classici in scenari specifici.
L'evidenza parla chiaro: il QC è fuori dal laboratorio. Le applicazioni attuali, spesso eseguite su sistemi ibridi (dove il classico gestisce il controllo e il quantistico esegue il calcolo), stanno già generando valore in quattro aree chiave:
Ottimizzazione Logistica e Supply Chain: I problemi di ottimizzazione complessa, come il problema del commesso viaggiatore o la gestione di reti elettriche (Smart Grid), presentano un numero di variabili che aumenta esponenzialmente. Un QC può esplorare simultaneamente milioni di possibili percorsi, tenendo conto di migliaia di vincoli dinamici (meteo, incidenti, domanda energetica). Le utilities e le aziende di trasporto stanno utilizzando QC per ricalcolare, in tempo reale, rotte e allocazione di risorse, un compito impossibile anche per i supercomputer classici.
Simulazione Molecolare e Material Science: La simulazione precisa del comportamento molecolare è fondamentale per la chimica e la farmaceutica. I computer classici possono gestire solo molecole relativamente piccole; il QC, invece, può replicare il comportamento di molecole complesse in modo esatto, a livello quantistico. Questo accelera drasticamente:
La scoperta di nuovi farmaci e vaccini (Drug Discovery).
La progettazione di nuovi catalizzatori, essenziali per la cattura del carbonio e la produzione di combustibili alternativi.
Lo sviluppo di batterie più efficienti per i veicoli elettrici, simulando nuovi materiali a livello atomico.
Finanza Quantistica e Modelli di Rischio: Il settore finanziario è stato tra i primi ad adottare algoritmi quantistici per:
Pricing di Opzioni e Derivati: Utilizzando algoritmi come l'Amplitude Estimation.
Ottimizzazione del Portafoglio: Gestendo centinaia di migliaia di asset per massimizzare i rendimenti minimizzando il rischio.
Rilevazione delle Frodi:
Queste applicazioni sono accessibili tramite piattaforme software cloud-based come Qiskit (di IBM), che democratizzano l'accesso al calcolo quantistico e permettono a sviluppatori e ricercatori di eseguire miliardi di simulazioni in tempi contenuti, un chiaro "salto qualitativo" rispetto al passato.
Parallelamente all'innovazione, incombe la minaccia più grave alla sicurezza digitale moderna. La quasi totalità della crittografia a chiave pubblica, che protegge HTTPS, transazioni bancarie, firme digitali e VPN, si basa su due problemi matematici che sono intrattabili per i computer classici:
La fattorizzazione dei grandi numeri primi (base di RSA).
Il problema del logaritmo discreto su curve ellittiche (base di ECC).
L'Algoritmo di Shor, scoperto nel 1994, dimostra che un QC su larga scala, fault-tolerant, può risolvere entrambi questi problemi in modo esponenzialmente più veloce di qualsiasi supercomputer classico. La fattorizzazione, che oggi richiederebbe miliardi di anni, potrebbe essere eseguita in pochi minuti o ore.
Questo rischio non è speculativo; è una certezza matematica e fisica. La finestra temporale che affiora da numerosi articoli accademici in materia indica un orizzonte di 5-7 anni ed è oggi sostenuta da agenzie di intelligence e di sicurezza che prevedono l'emergere del CRQC entro il prossimo decennio.
Il Paradosso "Harvest Now, Decrypt Later": La minaccia è attuale perché gli attori ostili (stati nazionali e gruppi criminali organizzati) stanno già raccogliendo dati crittografati oggi, sapendo che non possono decifrarli, ma archiviandoli in attesa del primo CRQC funzionante. Il giorno in cui quel computer verrà acceso, i dati raccolti, anche se risalenti a un decennio prima, saranno istantaneamente esposti. La longevità del dato (il tempo per cui un dato deve rimanere segreto) è il fattore chiave: se un dato deve restare riservato per altri 15 anni, la sua sicurezza deve essere garantita oggi con algoritmi post-quantistici.
La soluzione a questa minaccia è la Crittografia Post-Quantistica (PQC), un insieme di nuovi algoritmi resistenti agli attacchi quantistici, pur potendo essere eseguiti su computer classici.
Il Ruolo del NIST e la Standardizzazione: Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha guidato un processo di standardizzazione globale durato quasi un decennio. Nel 2024, il NIST ha selezionato e standardizzato i primi algoritmi chiave, tra cui:
ML-KEM (Kyber): Meccanismo di stabilimento della chiave basato su reticoli.
ML-DSA (Dilithium): Algoritmo di firma digitale basato su reticoli.
SLH-DSA (Falcon o SPHINCS+): Algoritmo di firma digitale alternativo.
Questi algoritmi di "lattice-based cryptography" (crittografia basata sui reticoli) offrono una sicurezza computazionale che si ritiene sia resistente sia agli attacchi classici che a quelli quantistici. Il fatto che IBM abbia giocato un ruolo cruciale nello sviluppo di questi standard ne sottolinea l'importanza strategica.
PQC vs. QKD: È fondamentale distinguere la PQC dalla Quantum Key Distribution (QKD). La QKD utilizza principi quantistici per scambiare chiavi in modo incondizionatamente sicuro, ma richiede hardware specializzato e fibra ottica per brevi distanze. La PQC, invece, è una soluzione software che può essere implementata sui sistemi attuali, rendendola l'unica soluzione pratica e scalabile per la migrazione globale della sicurezza digitale.
Il vero problema per le aziende non è più la scelta dell'algoritmo, ma il piano di migrazione. Le agenzie governative globali hanno imposto scadenze chiare, trasformando la PQC in una questione di conformità:
Stati Uniti (NIST/NSM-10): Entro il 2030 gli algoritmi crittografici vulnerabili (RSA-2048, ECC-256) saranno deprecati. La migrazione completa verso algoritmi quantum-safe è imposta per il 2035 per tutti i sistemi che interagiscono con il governo federale.
Unione Europea (EU): Gli Stati membri sono spinti a iniziare la transizione entro la fine del 2026, con obiettivi di sicurezza per le infrastrutture critiche fissati entro il 2030.
Il passaggio in tre fasi:
La transizione PQC non è un semplice aggiornamento software, ma un processo ingegneristico complesso che può durare diversi anni:
Crypto-Discovery e Inventario: La fase più sottovalutata. Le aziende non sanno dove usano la crittografia (certificati, sistemi legacy, hardware, applicazioni interne, smart contract). Un inventario crittografico completo (Crypto-Discovery) per mappare tutti i punti deboli è il primo passo non negoziabile.
Crypto-Agility: È la capacità di un sistema di passare rapidamente e con il minimo impatto da un algoritmo crittografico all'altro. Questo è essenziale per la PQC, poiché gli algoritmi (come ML-KEM) potrebbero richiedere ancora modifiche o standardizzazioni secondarie. Le aziende devono progettare sistemi "agili" che possano supportare crittografia ibrida (classica e quantistica insieme) e permettere aggiornamenti futuri rapidi.
Implementazione e Dualità: La migrazione vera e propria, dando la priorità agli asset digitali a lunga vita (dati che devono restare riservati per decenni) e ai sistemi critici. Molte organizzazioni adotteranno inizialmente schemi a doppia firma (hybrid mode), combinando un algoritmo classico con uno PQC per garantire la massima sicurezza durante il periodo di transizione.
Il calcolo quantistico è un'arma a doppio taglio. Promette di risolvere i problemi più intrattabili dell'umanità – dalla ricerca medica alla mitigazione del cambiamento climatico – ma porta con sé la certezza della vulnerabilità digitale.
La battaglia non è più tecnologica, ma strategica e gestionale. Non si tratta di investire subito miliardi in un computer quantistico, ma di investire in PQC e Crypto-Agility per garantire che i dati aziendali raccolti oggi siano ancora al sicuro tra dieci anni. Chi ignora le scadenze del 2030 e del 2035 stabilite dalle agenzie globali non rischia solo una multa, ma la completa compromissione delle informazioni riservate, ponendosi in una condizione di svantaggio strutturale irrecuperabile nel grande scisma digitale che è già in corso.
Per approfondire, leggi anche il mio contributo nel blog delle news di CryptoSmart:
Intelligenza Artificiale Quantistica (QML): Il QML sfrutta le proprietà quantistiche per elaborare dati più velocemente. Sebbene ancora in fase embrionale, promette di migliorare l'addestramento dei modelli di Machine Learning, rendendo l'analisi dei dati e la risoluzione di problemi complessi di classificazione molto più efficiente.
Share Dialog
Filippo Albertin
Support dialog