Microsoft och Quantinuum säger att de har inlett nästa era av kvantberäkningar

Microsoft och Quantinuum tillkännagav idag ett genombrott inom kvantfelskorrigering. Med hjälp av Quantinuums jonfälla-hårdvara och Microsofts nya qubit-virtualiseringssystem kunde teamet köra mer än 14 000 experiment utan ett enda fel. Detta nya system gjorde det också möjligt för teamet att verifiera de logiska qubits och korrigera eventuella fel de hittade utan att förstöra de logiska qubits.

Detta, säger de två företagen, har flyttat den senaste tekniken inom kvantberäkning från det som vanligtvis har kallats en tid präglad av bullriga kvantdatorer i mellanskala (NISQ). “Noisy” eftersom även de minsta förändringarna i miljön kan göra att ett kvantsystem blir i huvudsak slumpmässigt (eller “decohere”), och “mellanskala” eftersom den nuvarande generationen av kvantdatorer fortfarande är begränsad till drygt tusen qubits. bästa fallet. . En qubit är den grundläggande beräkningsenheten i kvantsystem, analogt med en bit i en klassisk dator, men varje qubit kan vara i flera tillstånd samtidigt och hamnar inte i en specifik position förrän den mäts, vilket ligger till grund för potentialen från Quantum för att leverera ett stort steg i datorkraft.

Det spelar dock ingen roll hur många qubits du har om du knappt hinner köra en grundläggande algoritm innan systemet blir för bullrigt för att få ett användbart resultat, eller något resultat alls.

Genom att kombinera flera olika tekniker kunde teamet köra tusentals experiment med praktiskt taget inga fel. Det innebar en hel del förberedelser och förval av system som redan verkade vara i god form för framgångsrikt genomförande, men ändå är det en enorm förbättring jämfört med där branschen var för bara en kort tid sedan.

Det är ett steg i rätt riktning för kvantberäkning. Det finns fortfarande många problem att lösa (och dessa resultat måste naturligtvis också replikeras), men teoretiskt sett kan en dator med 100 av dessa logiska qubits redan vara användbar för att lösa vissa problem, medan en maskin med 1 000 qubits kan, säger Microsoft, “lås upp en kommersiell fördel.”

Avvikelser (fel) mellan intrasslade qubits.  Avvikelser avslöjas genom att jämföra bilderna av varje qubit i ett par, och alla skillnader som finns visas som prickar på den centrala bilden mellan varje par.

Avvikelser (fel) mellan intrasslade qubits. Avvikelser avslöjas genom att jämföra bilderna av varje qubit i ett par, och alla skillnader som finns visas som prickar på den centrala bilden mellan varje par. Bildkrediter: Microsoft

Teamet använde Quantinuums H2 fångade järnprocessor och kunde kombinera 30 fysiska qubits till fyra mycket tillförlitliga logiska qubits. Att koda flera fysiska qubits till en enda logisk qubit hjälper till att skydda systemet från fel. Fysiska qubits är intrasslade så att ett fel i en fysisk qubit kan upptäckas och korrigeras.

Det är denna felkorrigering som länge har stört branschen: ju lägre brus och ju högre kvalitet på de fysiska qubits, desto bättre är förstås, men utan sofistikerad felkorrigering finns det ingen väg ut ur problemet.Det var NISQ eftersom alla dessa system bryter samman förr snarare än senare.

“Att bara öka antalet fysiska qubits med hög felfrekvens, utan att förbättra den felfrekvensen, är värdelöst eftersom det skulle resultera i en stor kvantdator som inte är mer kraftfull än tidigare”, säger Dennis Tom, general manager för Azure. . Det skriver Quantum och Krysta Svore, vice vd för avancerad kvantutveckling på Microsoft, i dagens meddelande. “Däremot, när fysiska qubits med tillräcklig prestandakvalitet används med ett specialiserat orkestrerings- och diagnossystem för att möjliggöra virtuella qubits, först då resulterar en ökning av antalet fysiska qubits i kraftfulla, feltoleranta kvantdatorer som kan fungera längre. , mer komplex beräkning.”

Det har bara gått ett par år sedan logiska qubits började överträffa fysiska qubits. Nu hävdar Microsoft och Quantinuum att deras nya hård-/mjukvarusystem visar den största klyftan mellan fysiska och logiska felfrekvenser, vilket förbättrar användningen av enbart fysiska qubits med upp till 800 gånger.

Bildkrediter: Microsoft

Forskarna noterar att för att gå längre än NISQ är en stor separation mellan felfrekvenserna för logiska och fysiska qubits nödvändig, liksom förmågan att korrigera individuella kretsfel och generera förvecklingar mellan minst två logiska qubits. Om dessa resultat håller, så uppnådde laget alla tre och vi har faktiskt gått in en stabil era Eran av resilient quantum computing.

Det visar sig att det viktigaste resultatet här faktiskt kan vara teamets förmåga att utföra “aktivt syndromextraktion” – det vill säga förmågan att diagnostisera ett fel och rätta till det, utan att förstöra den logiska qubiten i processen.

“Denna prestation markerar det första steget i att kunna korrigera fel utan att förstöra logiska qubits och visar en grundläggande milstolpe i kvantfelskorrigering”, förklarar Tom och Svore. “Vi demonstrerade denna kritiska komponent av tillförlitlig kvantberäkning med vårt qubit-virtualiseringssystem, vilket resulterade i en låg logisk felfrekvens över flera omgångar av syndromextraktion.”

Det kommer nu att vara upp till resten av kvantsamhället att replikera dessa resultat och implementera liknande felkorrigeringssystem. Fast det är nog bara en tidsfråga.

“Dagens resultat markerar en historisk prestation och är en underbar återspegling av hur detta samarbete fortsätter att tänja på gränserna för kvantekosystemet”, säger Ilyas Khan, grundare och produktchef för Quantinuum. “Med Microsofts nästa generations felkorrigering anpassad till världens mest kraftfulla kvantdator och ett helt integrerat tillvägagångssätt, är vi mycket glada över nästa utveckling inom kvantapplikationer och kan inte vänta på att se hur våra kunder och partners kommer att göra.” . dra nytta av våra lösningar, särskilt när vi går mot kvantprocessorer i stor skala.”

För mer information hittar du vitboken här.

Leave a Reply

Your email address will not be published. Required fields are marked *