Microsoft e Quantinuum annunciano una significativa innovazione nella correzione degli errori quantistici. Utilizzando l’hardware ad ion-trappola di Quantinuum e il nuovo sistema di virtualizzazione dei qubit di Microsoft, il team è riuscito a eseguire più di 14.000 esperimenti senza commettere alcun errore. Questo nuovo sistema ha anche permesso al team di controllare i qubit logici e correggere eventuali errori incontrati senza distruggere i qubit logici.
L’arte del calcolo quantistico
Ciò, sostengono le due aziende, ha spostato lo stato dell’arte del calcolo quantistico al di fuori di ciò che è stato tipicamente definito l’era dei Noisy Intermediate Scale Quantum (NISQ). “Rumorosi” perché anche i più piccoli cambiamenti nell’ambiente possono portare un sistema quantistico a diventare essenzialmente casuale (o “decoerente”), e “intermedi” perché la generazione attuale di computer quantistici è ancora limitata a poco più di mille qubit al massimo.
Un qubit è l’unità fondamentale di calcolo nei sistemi quantistici, analogo a un bit in un computer classico, ma ogni qubit può essere in più stati contemporaneamente e non si colloca in una posizione specifica fino a quando non viene misurato, il che sottende il potenziale del quantum per fornire un enorme salto in potenza di calcolo.
Non importa quanti qubit si possiedano, tuttavia, se si ha appena il tempo di eseguire un algoritmo di base prima che il sistema diventi troppo rumoroso per ottenere un risultato utile, o qualsiasi risultato.
Migliaia di esperimenti privi di errore
Combinando diverse tecniche, il team è stato in grado di eseguire migliaia di esperimenti con praticamente nessun errore. Ciò ha comportato una preparazione piuttosto complessa e la preselezione di sistemi che sembravano già essere in buone condizioni per una corsa di successo, ma comunque, si tratta di un enorme miglioramento rispetto a dove si trovava l’industria solo poco tempo fa.
È un passo nella giusta direzione per il calcolo quantistico. Ci sono ancora molti problemi da risolvere (e questi risultati devono essere replicati, naturalmente), ma teoricamente, un computer con 100 di questi qubit logici potrebbe già essere utile per risolvere alcuni problemi, mentre una macchina con 1.000 qubit potrebbe, secondo Microsoft, “sbloccare un vantaggio commerciale”.
Le discrepanze (errori) tra qubit entangled sono rivelate confrontando le immagini da ogni qubit in una coppia, e qualsiasi differenza che esista appare come punti nell’immagine centrale tra ogni coppia.
Il team ha utilizzato il processore ad ion trappola H2 di Quantinuum ed è stato in grado di combinare 30 qubit fisici in quattro qubit logici altamente affidabili. Codificare più qubit fisici in un singolo qubit logico aiuta a proteggere il sistema dagli errori. I qubit fisici sono intrecciati insieme in modo che diventi possibile rilevare un errore in un qubit fisico e correggerlo.
L’era NISQ
È questa correzione degli errori che ha a lungo tormentato l’industria: più basso è il rumore e più alta è la qualità dei qubit fisici, meglio è, naturalmente, ma senza una correzione degli errori sofisticata, non c’è via d’uscita dall’era NISQ perché questi sistemi decodificherebbero tutti prima o poi.
“Aumentare semplicemente il numero di qubit fisici con un alto tasso di errore – senza migliorare quel tasso di errore – è inutile perché ciò comporterebbe un grande computer quantistico che non è più potente di prima“, hanno scritto Dennis Tom, il general manager di Azure Quantum, e Krysta Svore, il VP dello sviluppo quantistico avanzato di Microsoft, nell’annuncio.
“Al contrario, quando i qubit fisici con una sufficiente qualità di funzionamento vengono utilizzati con un sistema di orchestrazione e diagnostica specializzato per abilitare i qubit virtuali, solo allora l’aumento del numero di qubit fisici porta a computer quantistici potenti e tolleranti agli errori capaci di eseguire calcoli più lunghi e complessi“.
Qubit logici e fisici
Solo un paio d’anni fa i qubit logici hanno iniziato a superare i qubit fisici. Ora, Microsoft e Quantinuum sostengono che il loro nuovo sistema hardware/software dimostra il divario più ampio tra i tassi di errore fisico e logico, migliorando l’uso solo dei qubit fisici fino a 800 volte.
I ricercatori notano che per superare NISQ, è necessaria una grande separazione tra i tassi di errore dei qubit logici e fisici, così come la capacità di correggere gli errori dei circuiti individuali e di generare intrecci tra almeno due qubit logici. Se questi risultati resistono, allora il team ha raggiunto tutti e tre e siamo effettivamente entrati in un’era stabile, l’era del calcolo quantistico resiliente.
Come si scopre, il risultato più importante qui potrebbe effettivamente essere la capacità del team di eseguire “l’estrazione attiva della sindrome“, cioè la capacità di diagnosticare un errore e correggerlo, senza distruggere il qubit logico nel processo.
“Questo risultato segna il primo passo per poter correggere gli errori senza distruggere i qubit logici e mostra un traguardo fondamentale nella correzione degli errori quantistici“, spiegano Tom e Svore. “Abbiamo dimostrato questo componente critico del calcolo quantistico affidabile con il nostro sistema di virtualizzazione dei qubit, che ha portato a un basso tasso di errori logici durante più cicli di estrazione della sindrome“.
Ora toccherà al resto della comunità quantistica replicare questi risultati e implementare sistemi di correzione degli errori simili. Probabilmente è solo una questione di tempo, però.
“Un traguardo storico”
“I risultati di oggi segnano un traguardo storico e sono un meraviglioso riflesso di come questa collaborazione continui a spingere i confini dell’ecosistema quantistico“, ha dichiarato Ilyas Khan, fondatore e chief product officer di Quantinuum.
“Con la correzione degli errori all’avanguardia di Microsoft allineata al computer quantistico più potente del mondo e a un approccio completamente integrato, siamo così entusiasti per la prossima evoluzione delle applicazioni quantistiche e non vediamo l’ora di vedere come i nostri clienti e partner beneficeranno delle nostre soluzioni, specialmente mentre ci avviciniamo ai processori quantistici su larga scala“, ha concluso.