Le nuove frontiere della sicurezza IT: elaboratori quantistici e crittografia post-quantum
Articolo pubblicato su "www.isernianews.it" il 28-02-2020
Un campo abbastanza interessante che molto probabilmente influenzerà il panorama futuro della sicurezza IT è la teoria dell’Informazione Quantistica. La teoria dell’Informazione Quantistica può essere brevemente descritta come la disciplina che studia come le informazioni possono essere codificate in particelle elementari e cosa si può fare quando le informazioni vengono codificate in questo modo.
I computer quantistici si basano sull’idea di codificare il valore di un bit in una proprietà di una particella elementare. Come esempio banale e non realistico, potremmo supporre che se una particella gira in senso orario, il valore del bit è 1 e se gira in senso antiorario il valore è 0 (in realtà il valore 0 o 1 è assegnato ad una caratteristica quantistica della particella). Pertanto, invece di avere correnti e tensioni elettriche a codificare il valore del bit all’interno delle CPU, abbiamo particelle elementari, ognuna con il valore di un bit. Un bit codificato in una particella elementare viene chiamato “bit quantico”, in breve qubit, e le operazioni in queste CPU quantistiche vengono eseguite trasformando lo stato delle particelle elementari.
Per eseguire un calcolo con un elaboratore quantistico bisogna per prima cosa preparare le particelle elementari nello stato iniziale in modo che rappresentino i numeri di partenza. Poi bisogna eseguire delle trasformazioni fisiche sulle particelle, ad esempio tramite campi magnetici o l’interazione con altre particelle, che realizzano il calcolo stesso. Infine bisogna effettuare una misura dello stato fisico finale delle particelle per ottenere il risultato numerico del calcolo.
Dal punto di vista della sicurezza informatica, uno degli aspetti molto importanti saranno:
1) Si supponga che delle informazioni estremamente riservate siano state trasmesse a gennaio 2020 cifrate in Internet e che un attaccante abbia registrato tutto il traffico in rete. Queste informazioni devono rimanere riservate almeno per 10 anni, quindi la cifratura deve garantire la sicurezza della confidenzialità almeno sino a dicembre 2029.
2) Esempio riguarda la progettazione di un apparato, come ad esempio un aereo, un’automobile, un microprocessore integrato come quelli per le carte di credito o le SIM, o anche un elaboratore specializzato, che implementi in maniera embedded algoritmi crittografici. Nel momento in cui si sceglie quale algoritmo crittografico implementare, bisogna valutare la vita utile dell’apparato e la possibilità dell’avvento degli elaboratori quantistici entro il periodo di tale vita utile. Da notare che apparati complessi come un aereo possono avere periodi di vita utile di 30 o più anni.
Molte aziende del calibro di Google, IBM e Microsoft hanno investito la loro ricerca in questo ambito. Ad Ottobre 2019 Google ha annunciato di aver raggiunto la “Quantum Supremacy” ovvero di essere stato in grado di eseguire un calcolo sul proprio elaboratore quantistico a 54 qubit in 200 secondi con un algoritmo quantistico mentre il corrispondente algoritmo classico avrebbe impiegato probabilmente almeno 10.000 anni sugli elaboratori Classici più potenti oggi esistenti. Simili risultati sono stati annunciati anche da IBM.
Uno tra i principali motivi della difficoltà nella costruzione degli elaboratori quantistici risiede nei fenomeni usualmente denominati con il termine di “Decoerenza”. L’idea di base è abbastanza semplice: come già descritto, gli elementi costitutivi di un elaboratore quantistico sono delle particelle elementari che al contempo:
1) non devono interagire con qualunque altra particella o campo che potrebbe modificare il loro stato e quindi introdurre errori (in pratica cambiare il valore dei qubit);
2) devono interagire unicamente con le particelle e i campi necessari ad eseguire l’algoritmo e solo nel momento di esecuzione.
Per i nostri scopi, possiamo dividere gli algoritmi crittografici in due grandi classi: quelli che sono rotti dall’algoritmo di Shor e quelli che non lo sono.
Molti algoritmi crittografici, quali quelli simmetrici come AES o di impronta come SHA256, sono basati su trasformazioni ripetute dei dati quali sostituzioni, permutazioni ed XOR. Questi algoritmi sono soggetti solo all’algoritmo di Grover. Al contrario, la quasi totalità degli algoritmi in uso a chiave pubblica-privata ed utilizzati quotidianamente per la navigazione web, le firme digitali ecc., sono basati su problemi matematici complessi ad “una via”, ovvero impossibili in pratica da invertire.
La direzione di ricerca verso la quale ci si sta indirizzando è chiamata Crittografia “Post-Quantum”, cioè che ha lo scopo di identificare e creare algoritmi crittografici che rimarranno sicuri dopo l’avvento degli elaboratori quantistici.
Due però sono le conseguenze di questo tipo di algoritmi:
1) l’aumento di dati da trasferire e, quindi, del traffico in rete;
2) l’utilizzo di maggiori risorse dei computer, smartphone, IoC ecc., sia di memoria sia della CPU per l’esecuzione degli algoritmi.
I nuovi algoritmi post-quantum saranno disponibili dopo il 2024 e implementati e distribuiti per il 2030.
Quello da fare ancora da parte dei ricercatori è verificare che questi algoritmi siano sicuri non solo dal punto di vista post-quantico ma anche dal punto di vista di un algoritmo tradizionale di crittografia non quantistica. Sarebbe, quindi insolito se un algoritmo post-quantum (molto costoso dal punto) si scoprisse una falla rispetto ad attacchi effettuati con elaboratori Classici e si fosse obbligati a sostituirlo in tempi rapidi.
I-Forensics Team