Accedi

La Minaccia Quantistica: Un Futuro Digitale a Rischio

La Minaccia Quantistica: Un Futuro Digitale a Rischio
⏱ 25 min

Entro il 2030, la potenza di calcolo dei computer quantistici potrebbe render obsoleti gli attuali schemi di crittografia che proteggono miliardi di dollari in transazioni finanziarie, dati sensibili e infrastrutture critiche, secondo le stime di analisti di cybersecurity.

La Minaccia Quantistica: Un Futuro Digitale a Rischio

Il mondo digitale in cui viviamo, interconnesso e sempre più dipendente dalla sicurezza delle informazioni, si trova sull'orlo di una rivoluzione tecnologica che potrebbe contemporaneamente sbloccare capacità senza precedenti e minacciare le fondamenta stesse della sua sicurezza. La minaccia proviene da una tecnologia emergente ma in rapida evoluzione: il computer quantistico. Questi dispositivi, sfruttando i bizzarri principi della meccanica quantistica, promettono di risolvere problemi oggi intrattabili per i supercomputer più potenti. Tuttavia, questa promessa nasconde un'ombra oscura: la capacità di "rompere" gli algoritmi crittografici che attualmente proteggono le nostre comunicazioni, le transazioni finanziarie, i dati sanitari e governativi. La posta in gioco è altissima, poiché un attacco quantistico riuscito potrebbe portare a un'era di vulnerabilità digitale su scala globale, compromettendo la fiducia e la stabilità dei sistemi su cui facciamo affidamento ogni giorno.

La corsa per sviluppare una crittografia "resistente ai quanti" non è più un'ipotesi di fantascienza, ma una necessità impellente. Governi, aziende e ricercatori di tutto il mondo sono impegnati in uno sforzo concertato per anticipare e neutralizzare questa minaccia imminente. Il timore è che un attore malevolo, dotato di un computer quantistico sufficientemente potente, possa retroattivamente decifrare dati criptati oggi, creando un "rischio di harvesting" in cui le informazioni sensibili vengono raccolte nell'attesa di poterle decodificare in futuro. Questo scenario rende la transizione verso la crittografia post-quantistica non solo una questione di aggiornamento tecnologico, ma una vera e propria corsa contro il tempo per salvaguardare il nostro futuro digitale.

Cosa Sono i Computer Quantistici e Perché Cambiano le Regole del Gioco

Per comprendere la minaccia, è fondamentale capire cosa siano i computer quantistici e come differiscano dai computer classici. Mentre i computer classici elaborano le informazioni utilizzando bit che rappresentano uno stato binario (0 o 1), i computer quantistici utilizzano i qubit. I qubit, grazie ai fenomeni di sovrapposizione (superposition) e entanglement, possono rappresentare simultaneamente 0, 1 o una combinazione di entrambi. Questa capacità permette ai computer quantistici di esplorare un numero esponenzialmente maggiore di possibilità contemporaneamente, conferendo loro un potere computazionale inimmaginabile per problemi specifici.

Un esempio lampante di questa differenza è l'algoritmo di Shor, sviluppato da Peter Shor nel 1994. Questo algoritmo, eseguito su un computer quantistico di dimensioni adeguate, può scomporre numeri interi molto grandi nei loro fattori primi in un tempo polinomiale. Al contrario, per i computer classici, questo stesso problema (la fattorizzazione di numeri primi) è esponenzialmente difficile, formando la base della sicurezza di molti algoritmi crittografici attuali, come RSA. Allo stesso modo, l'algoritmo di Grover può accelerare la ricerca in database non ordinati, ma il suo impatto sulla crittografia è meno drastico rispetto a Shor, richiedendo un raddoppio approssimativo delle lunghezze delle chiavi per mantenere lo stesso livello di sicurezza.

La Sovrapposizione e lEntanglement: I Pilastri della Potenza Quantistica

La sovrapposizione è la proprietà di un qubit di esistere in più stati contemporaneamente. Immaginate una moneta che gira in aria prima di cadere: può essere testa, croce o, durante il suo volo, una combinazione di entrambe. Questa capacità permette a un sistema di qubit di rappresentare uno spazio di stati che cresce esponenzialmente con il numero di qubit. Due qubit in sovrapposizione possono rappresentare 4 stati contemporaneamente, tre qubit 8 stati, e N qubit 2^N stati. Questo è il fondamento del parallelismo intrinseco dei calcoli quantistici.

L'entanglement, d'altro canto, è una correlazione quantistica tra due o più qubit tale che lo stato di un qubit sia istantaneamente legato allo stato degli altri, indipendentemente dalla distanza che li separa. Misurare lo stato di un qubit entangled ne influenza istantaneamente lo stato degli altri. Questa profonda interconnessione permette di eseguire operazioni complesse e coordinate che sono impossibili nel mondo classico, amplificando ulteriormente il potere computazionale.

Dagli Stati Teorici alla Realtà: Lo Stato Attuale dellHardware Quantistico

Sebbene la teoria dei computer quantistici esista da decenni, la loro realizzazione pratica è stata una sfida ingegneristica immensa. Attualmente, i computer quantistici esistenti sono ancora nella fase NISQ (Noisy Intermediate-Scale Quantum), caratterizzati da un numero limitato di qubit e da un'elevata suscettibilità al rumore (errori ambientali che disturbano lo stato quantistico). Tuttavia, i progressi sono rapidi. Aziende come IBM, Google, Rigetti e IonQ stanno continuamente aumentando il numero di qubit e migliorando la loro stabilità e connettività.

La transizione da macchine NISQ a computer quantistici fault-tolerant (in grado di correggere gli errori) è il prossimo grande ostacolo. Questo richiederà un numero molto più elevato di qubit fisici per implementare i qubit logici corretti per gli errori. Nonostante queste sfide, la traiettoria di sviluppo suggerisce che computer quantistici in grado di eseguire l'algoritmo di Shor su larga scala potrebbero emergere nei prossimi 10-20 anni, rendendo la crittografia post-quantistica una preoccupazione urgente.

La Criptografia Classica Sotto Tiro: RSA e ECC i Primi Obiettivi

La sicurezza della maggior parte delle comunicazioni digitali e delle transazioni finanziarie oggi si basa su problemi matematici che sono considerati computazionalmente intrattabili per i computer classici. Tra questi, la fattorizzazione di numeri primi molto grandi e il problema del logaritmo discreto sono i pilastri della crittografia asimmetrica, comunemente nota come crittografia a chiave pubblica. Gli algoritmi come RSA (Rivest-Shamir-Adleman) e gli algoritmi basati su curve ellittiche (ECC, Elliptic Curve Cryptography) sono ampiamente utilizzati per la firma digitale, lo scambio di chiavi e la crittografia dei dati.

Il problema fondamentale è che l'algoritmo di Shor, una volta implementato su un computer quantistico sufficientemente potente, può risolvere questi problemi matematici in modo efficiente. Ciò significa che un attaccante con accesso a un tale computer potrebbe essere in grado di generare le chiavi private a partire dalle chiavi pubbliche utilizzate in questi sistemi, compromettendo la riservatezza e l'autenticità delle comunicazioni. Questo scenario è spesso definito "Q-Day" o "giorno del quantum", il momento ipotetico in cui un computer quantistico sarà in grado di rompere la crittografia attuale.

RSA: La Vulnerabilità della Fattorizzazione

RSA si basa sulla difficoltà di fattorizzare un numero intero molto grande nei suoi fattori primi. La chiave pubblica è costituita dal prodotto di due grandi numeri primi, mentre la chiave privata è costituita dai due numeri primi originali. La sicurezza di RSA dipende dal fatto che, per un computer classico, trovare questi fattori primi richieda un tempo computazionale proibitivo. Tuttavia, l'algoritmo di Shor può eseguire questa fattorizzazione in modo efficiente, rendendo la chiave privata derivabile dalla chiave pubblica.

Ad esempio, una chiave RSA da 2048 bit, che oggi è considerata sicura, potrebbe essere violata da un computer quantistico con circa 20 milioni di qubit stabili. Sebbene questo numero sia ancora significativamente superiore a quello attualmente disponibile, la rapida progressione della ricerca rende questo scenario una preoccupazione concreta. La migrazione da RSA a schemi resistenti ai quanti è quindi un processo critico per la sicurezza futura.

ECC: La Fragilità del Logaritmo Discreto su Curve Ellittiche

Gli algoritmi basati su curve ellittiche (ECC) offrono un livello di sicurezza simile a RSA con lunghezze di chiave significativamente inferiori, rendendoli più efficienti in termini di risorse computazionali e banda. La sicurezza di ECC si basa sulla difficoltà del problema del logaritmo discreto su curve ellittiche. Similmente a RSA, l'algoritmo di Shor può risolvere il problema del logaritmo discreto in modo efficiente su un computer quantistico.

La vulnerabilità di ECC è quindi analoga a quella di RSA. Un computer quantistico in grado di eseguire l'algoritmo di Shor potrebbe compromettere la sicurezza delle comunicazioni protette da ECC. Questo è particolarmente preoccupante dato l'ampio utilizzo di ECC in applicazioni mobili, protocolli di rete (come TLS/SSL) e criptovalute, dove l'efficienza è un fattore chiave. La necessità di sostituire anche questi algoritmi con alternative resistenti ai quanti è quindi fondamentale.

30+
Anni di Criptografia
Miliardi
Di Dispositivi Vulnerabili
10-20
Anni per Q-Day (Stima)

La Corsa alla Resistenza Quantistica: Algoritmi e Standard

Di fronte alla minaccia quantistica, la comunità crittografica globale ha avviato una ricerca intensiva per sviluppare e standardizzare nuovi algoritmi crittografici resistenti ai computer quantistici. Questo campo di studio è noto come "crittografia post-quantistica" (PQC) o "crittografia resistente ai quanti" (QRC). L'obiettivo è creare schemi crittografici che rimangano sicuri sia contro gli attacchi dei computer classici che contro quelli dei computer quantistici.

Il National Institute of Standards and Technology (NIST) degli Stati Uniti ha guidato un processo di standardizzazione multiannale, invitando ricercatori da tutto il mondo a sottoporre algoritmi candidati. Dopo diverse fasi di valutazione e selezione, il NIST ha annunciato nel luglio 2022 i primi algoritmi che saranno standardizzati per la crittografia generale (KEM, Key Encapsulation Mechanism) e le firme digitali. Questo processo è cruciale per garantire interoperabilità e sicurezza a livello globale.

Il Processo di Standardizzazione NIST: Una Selezione Rigorosa

Il processo del NIST è stato esteso, coinvolgendo centinaia di proposte da parte della comunità accademica e industriale. Gli algoritmi candidati sono stati valutati secondo criteri rigorosi, tra cui la sicurezza contro attacchi classici e quantistici, le prestazioni (velocità, dimensione delle chiavi e delle firme), e la facilità di implementazione. L'obiettivo è selezionare algoritmi che siano efficienti e sicuri per una vasta gamma di applicazioni.

Il NIST ha identificato un insieme di algoritmi promettenti, alcuni dei quali sono stati selezionati per la standardizzazione mentre altri continuano a essere valutati per usi futuri. Questa selezione rappresenta un passo fondamentale verso l'adozione diffusa di soluzioni crittografiche resistenti ai quanti, fornendo una base solida per la migrazione dei sistemi esistenti. La scelta di algoritmi con diverse basi matematiche mira anche a mitigare il rischio che una singola classe di attacchi quantistici possa comprometterli tutti.

I Requisiti per un Algoritmo Post-Quantistico

Un algoritmo crittografico post-quantistico deve soddisfare diversi requisiti per essere considerato un degno successore degli attuali schemi. Innanzitutto, la sua sicurezza deve essere basata su problemi matematici che si ritiene siano intrattabili anche per i computer quantistici. In secondo luogo, deve offrire prestazioni ragionevoli in termini di dimensioni delle chiavi pubbliche, dimensioni delle firme, tempo di cifratura/decifratura e tempo di firma/verifica.

Inoltre, la sua implementazione non deve essere eccessivamente complessa o incline a errori. La facilità di integrazione nei sistemi esistenti è un fattore chiave per una transizione senza intoppi. Infine, gli algoritmi devono essere ben studiati e aver superato un'ampia revisione da parte della comunità crittografica per garantirne la robustezza contro attacchi noti e potenziali vulnerabilità future.

Stato della Standardizzazione NIST (Principali Algoritmi Selezionati)
CRYSTALS-Kyber (KEM)NIST Standard
CRYSTALS-Dilithium (Firma)NIST Standard
Falcon (Firma)NIST Standard
SPHINCS+ (Firma)NIST Standard
Classic McEliece (KEM)NIST Round 4

Le Principali Famiglie di Algoritmi Post-Quantistici

La ricerca sulla crittografia post-quantistica si è concentrata su diverse famiglie di problemi matematici che si ritiene siano resistenti agli attacchi quantistici. Ogni famiglia offre diverse caratteristiche in termini di sicurezza, prestazioni e complessità di implementazione. La scelta dell'algoritmo dipenderà spesso dai requisiti specifici dell'applicazione.

Le principali famiglie di algoritmi che hanno raggiunto una fase avanzata di standardizzazione o sono considerate promettenti includono gli schemi basati su reticoli (lattice-based), gli schemi basati su codici (code-based), gli schemi basati su hash (hash-based), e gli schemi basati su isogenesi di curve ellittiche (isogeny-based).

Crittografia Basata su Reticoli (Lattice-Based Cryptography)

Gli algoritmi basati su reticoli sono attualmente i candidati più forti per la crittografia post-quantistica. La loro sicurezza si basa sulla difficoltà di risolvere problemi come il Shortest Vector Problem (SVP) e il Closest Vector Problem (CVP) in reticoli multidimensionali. Questi problemi sono considerati molto difficili da risolvere sia per i computer classici che quantistici.

Algoritmi come CRYSTALS-Kyber (per KEM) e CRYSTALS-Dilithium (per firme digitali), selezionati dal NIST per la standardizzazione, appartengono a questa famiglia. Offrono un buon compromesso tra sicurezza ed efficienza, sebbene tendano ad avere chiavi pubbliche e firme più grandi rispetto agli attuali schemi basati su ECC. La loro versatilità e la vasta ricerca a loro supporto li rendono una scelta privilegiata per molte applicazioni.

Crittografia Basata su Codici (Code-Based Cryptography)

Questa famiglia di algoritmi si basa sulla difficoltà di decodificare codici lineari generali, un problema noto come Decoding Problem. L'algoritmo di McEliece, proposto nel 1978, è uno dei più noti esempi. La sua sicurezza è ben studiata, ma soffre di dimensioni delle chiavi pubbliche molto grandi, rendendolo meno pratico per alcune applicazioni.

Classic McEliece è stato selezionato dal NIST come candidato aggiuntivo per la standardizzazione. Nonostante le sue dimensioni di chiave, la sua robustezza e la lunga storia di analisi crittografica lo rendono un'opzione interessante per scenari in cui le dimensioni non sono un vincolo critico, ma la sicurezza a lungo termine è prioritaria.

Crittografia Basata su Hash (Hash-Based Cryptography)

Gli algoritmi basati su hash utilizzano funzioni crittografiche di hash come blocchi costitutivi. La loro sicurezza deriva dalla resistenza delle funzioni di hash agli attacchi quantistici. Questi schemi sono particolarmente noti per le firme digitali. Esempi includono SPHINCS+ e XMSS.

SPHINCS+, selezionato dal NIST, è una firma digitale stateless che offre un elevato livello di sicurezza. Tuttavia, le firme generate da questi schemi possono essere significativamente più grandi rispetto ad altri approcci post-quantistici e il loro utilizzo può essere limitato in termini di numero di volte che una chiave può essere utilizzata (per schemi stateful). Sono considerati un'opzione sicura ma con compromessi in termini di prestazioni.

Crittografia Basata su Isogenesi di Curve Ellittiche (Isogeny-Based Cryptography)

Questa famiglia di algoritmi, sebbene meno avanzata nella standardizzazione rispetto ad altre, è molto promettente. Si basa sulla difficoltà di trovare un'isogenesi tra curve ellittiche. Questi schemi possono offrire chiavi pubbliche molto piccole, paragonabili a quelle di ECC, ma spesso soffrono di prestazioni più lente nella fase di generazione delle chiavi.

Alcuni candidati di questa famiglia, come SIKE (Supersingular Isogeny Key Encapsulation), sono stati studiati ma hanno incontrato sfide di sicurezza in fase di analisi. Tuttavia, la ricerca in questo settore continua, con l'obiettivo di sviluppare versioni più robuste e efficienti.

Famiglia di Algoritmi Problema Matematico Fondamentale Vantaggi Principali Svantaggi Principali Algoritmi NIST Selezionati
Basata su Reticoli Shortest Vector Problem (SVP), Closest Vector Problem (CVP) Buon compromesso sicurezza/prestazioni, versatilità Chiavi e firme più grandi di ECC CRYSTALS-Kyber, CRYSTALS-Dilithium, Falcon
Basata su Codici Decoding Problem Sicurezza ben compresa, lunga storia Dimensioni delle chiavi pubbliche molto grandi Classic McEliece
Basata su Hash Resistenza delle funzioni di hash Sicurezza elevata, basata su primitive ben studiate Dimensioni delle firme più grandi, potenziale limitazione sull'uso (stateful) SPHINCS+
Basata su Isogenesi Isogenesi tra curve ellittiche Dimensioni delle chiavi pubbliche molto piccole Prestazioni lente, complessità di implementazione (In fase di ricerca attiva, SIKE ha incontrato sfide)

LImpatto sulla Blockchain e le Criptovalute

Le tecnologie blockchain e le criptovalute, che dipendono fortemente dalla crittografia per garantire la sicurezza delle transazioni e l'integrità del registro distribuito, sono particolarmente vulnerabili alla minaccia quantistica. Gli algoritmi crittografici utilizzati nelle blockchain, come le firme digitali basate su curve ellittiche (ECC) per autorizzare le transazioni, potrebbero essere compromessi da un computer quantistico.

La potenziale compromissione delle chiavi private permetterebbe a un attaccante di trasferire fondi da qualsiasi portafoglio le cui chiavi pubbliche sono già note sulla blockchain. Inoltre, la firma digitale utilizzata per collegare blocchi e garantire l'immutabilità della catena potrebbe essere teoricamente falsificata, minando la fiducia nell'intero sistema. La transizione verso la crittografia post-quantistica è quindi un imperativo per la sopravvivenza a lungo termine del settore delle criptovalute.

Firme Digitali e Vulnerabilità delle Chiavi Pubbliche

Nella maggior parte delle blockchain, quando si crea un portafoglio, viene generata una coppia di chiavi: una chiave privata (segreta) e una chiave pubblica (condivisa). La chiave pubblica è derivata dalla chiave privata utilizzando algoritmi crittografici, tipicamente ECC (come secp256k1 usato da Bitcoin ed Ethereum). La chiave pubblica viene utilizzata per generare l'indirizzo del portafoglio, e le transazioni vengono autorizzate firmandole con la chiave privata.

Il problema sorge nel momento in cui la chiave pubblica di un indirizzo viene rivelata sulla blockchain. Questo accade solitamente quando viene effettuata una transazione da quell'indirizzo. Se un attaccante possiede un computer quantistico capace di eseguire l'algoritmo di Shor, può derivare la chiave privata corrispondente dalla chiave pubblica rivelata. Con la chiave privata in mano, l'attaccante può quindi sottrarre tutti i fondi associati a quell'indirizzo.

"La minaccia quantistica per le criptovalute non è un futuro lontano, ma una realtà emergente che richiede un'azione immediata. La migrazione verso algoritmi resistenti ai quanti è essenziale per proteggere asset digitali del valore di trilioni di dollari."
— Dr. Anya Sharma, Senior Researcher, Quantum Security Institute

La Sfida della Migrazione: Aggiornare Sistemi Decentralizzati

La natura decentralizzata delle blockchain presenta una sfida unica per l'implementazione della crittografia post-quantistica. A differenza di un sistema centralizzato che può essere aggiornato con un semplice patch, l'aggiornamento di una blockchain richiede un consenso diffuso tra tutti i partecipanti della rete (nodi, miner, sviluppatori). Questo processo, noto come hard fork, può essere complesso e potenzialmente divisivo.

Sarà necessario un coordinamento significativo per selezionare, implementare e approvare nuovi standard crittografici resistenti ai quanti. Le criptovalute dovranno decidere quale famiglia di algoritmi post-quantistici adottare, tenendo conto delle compromissioni tra sicurezza, prestazioni e dimensioni delle transazioni. Inoltre, la transizione dovrà essere gestita in modo tale da non creare vulnerabilità durante il processo di passaggio.

Alcuni progetti blockchain stanno già esplorando attivamente soluzioni post-quantistiche. Ad esempio, vi sono ricerche in corso per integrare firme basate su reticoli o hash nelle reti esistenti. Altri stanno considerando la creazione di nuove blockchain progettate da zero con una crittografia resistente ai quanti. La velocità di adozione dipenderà dalla maturità della tecnologia PQC e dalla volontà della comunità di abbracciare questi cambiamenti.

Sfide e Prospettive per unAdozione Diffusa

Sebbene la necessità di crittografia post-quantistica sia chiara, il percorso verso la sua adozione diffusa è costellato di sfide significative. Queste vanno dalla complessità tecnica dell'implementazione, alla necessità di educare il pubblico e le organizzazioni, fino ai costi associati alla transizione. Superare questi ostacoli richiederà uno sforzo coordinato e una visione a lungo termine.

La migrazione dei sistemi esistenti, molti dei quali sono in funzione da decenni e sono intrinsecamente legati a protocolli crittografici obsoleti, rappresenta un compito monumentale. Le infrastrutture critiche, i sistemi di sicurezza nazionale, le reti di telecomunicazioni e le istituzioni finanziarie dovranno essere gradualmente aggiornate. Questo processo di "aggiornamento quantistico" (quantum-proofing) sarà un'impresa complessa e potenzialmente lunga.

LInteroperabilità e la Gestione della Transizione

Uno degli aspetti più critici è garantire l'interoperabilità tra i sistemi che adotteranno i nuovi standard crittografici e quelli che potrebbero rimanere indietro. Sarà fondamentale sviluppare protocolli di transizione che permettano una coesistenza sicura degli algoritmi classici e post-quantistici, almeno per un periodo. Questo è particolarmente vero per le comunicazioni tra entità diverse, dove non è possibile imporre immediatamente un unico standard.

La sfida principale sarà quella di evitare un approccio "tutto o niente", che potrebbe creare finestre di vulnerabilità. Invece, si prevede una strategia graduale, dove gli algoritmi post-quantistici vengono implementati in parallelo o in aggiunta a quelli esistenti, prima di sostituirli completamente. La standardizzazione da parte di organismi come il NIST è un passo cruciale in questa direzione, fornendo linee guida chiare e promuovendo l'adozione di un set comune di algoritmi.

Costi, Formazione e Consapevolezza

L'aggiornamento dei sistemi software e hardware, la formazione del personale tecnico e la sensibilizzazione delle leadership aziendali ai rischi della minaccia quantistica comportano costi considerevoli. Le organizzazioni dovranno investire in nuove tecnologie, aggiornare le proprie infrastrutture e rivedere le proprie politiche di sicurezza. L'assenza di una comprensione diffusa della minaccia quantistica può portare a un'eccessiva inerzia o a decisioni affrettate e non ottimali.

È essenziale che le aziende e i governi comprendano l'urgenza di questa transizione. La crittografia post-quantistica non è solo un aggiornamento tecnico, ma una misura strategica per garantire la continuità operativa e la sicurezza nazionale nell'era quantistica. L'investimento in ricerca e sviluppo, la collaborazione tra settore pubblico e privato e la promozione di programmi di formazione sono passi fondamentali per costruire la capacità necessaria.

2030+
Anno Stimato per Minaccia Quantistica Significativa
100+
Milioni di Righe di Codice da Aggiornare
5-15
Anni per la Transizione Completa (Stima)

In conclusione, la minaccia quantistica rappresenta una delle sfide più significative per la sicurezza digitale del XXI secolo. La corsa alla crittografia resistente ai quanti è in pieno svolgimento, con progressi notevoli nella standardizzazione di nuovi algoritmi. Tuttavia, la vera sfida risiede nell'implementazione pratica e nella transizione dei sistemi globali verso questa nuova era di sicurezza. Il successo di questa impresa determinerà la resilienza e la fiducia nel nostro futuro digitale.

Quando i computer quantistici diventeranno una minaccia reale per la crittografia attuale?
Le stime variano, ma molti esperti prevedono che computer quantistici in grado di rompere la crittografia RSA e ECC su larga scala potrebbero emergere entro 10-20 anni (intorno al 2030-2040). Questo è il motivo per cui la crittografia post-quantistica viene sviluppata e standardizzata ora.
Quali sono i principali algoritmi post-quantistici selezionati dal NIST?
Il NIST ha selezionato CRYSTALS-Kyber (per KEM), CRYSTALS-Dilithium, Falcon e SPHINCS+ (per firme digitali) per la standardizzazione iniziale. Altri algoritmi, come Classic McEliece, sono ancora in fase di valutazione.
Come posso proteggere i miei dati personali dall'attuale minaccia?
Attualmente, la minaccia quantistica non è immediata per gli utenti individuali che utilizzano la crittografia standard. La protezione si basa sull'adozione di software e sistemi aggiornati che verranno migrati agli standard post-quantistici quando saranno disponibili. Per le aziende, è fondamentale iniziare a pianificare la transizione e valutare i rischi.
La crittografia post-quantistica influenzerà le criptovalute?
Sì, le criptovalute sono significativamente vulnerabili. La loro sicurezza si basa su algoritmi crittografici che potrebbero essere rotti dai computer quantistici. La migrazione verso algoritmi post-quantistici è considerata essenziale per la sopravvivenza a lungo termine delle criptovalute.