A Google megint nem bír magával. A robotok, önvezető autók, intelligens kontaktlencsék és ki tudja még, mi minden mellé tavaly egy kvantumszámítógépet is csatasorba állítottak, néhány hete pedig egy elismert kvantumfizikus leigazolásával erősítettek. Érthető az egészpályás letámadás, mert egyre több a fontos, bár nem túl látványos eredmény a kvantum-számítástechnikában. A Google itt se akar lemaradni, de a meccs vége még odébb van.
A kanadai D-Wave a világon elsőként dobott piacra kvantumszámítógépet, amiért számos tudós évek óta támadja is őket. Eközben a Lockheed Martin, a NASA és a Google már be is vásárolt, és a támogatók között van az Amazon-vezér Jeff Bezos és a CIA is – a Google pedig még eggyel nagyobb fokozatra kapcsolt a maga fejlesztésében. De mitől kvantum egy kvantumszámítógép, és mi a kutatók baja a D-Wave-vel? És miért is a kvantumé a jövő?
A bit az információ alapegysége, legkisebb építőköve. Igaz ez a hagyományos számítástechnika bitjeire éppúgy, mint a qubitnek is hívott kvantumbitekre. Mindkettő két eredményt produkálhat: vagy azt találjuk, hogy a bit (vagy qubit) nullás értéket vett fel, vagy azt, hogy egyest. A fő különbség nem a válaszaikban van, hanem a kérdésekben, amelyeket feltehetünk nekik.
Erwin Schrödinger mára közhellyé vált macskaanalógiája éppen azt mutatja meg, hogy ez a kvantumfizikai alapvetés milyen távol áll a makrofizikai és a hétköznapi gondolkodásmódunktól. Létezhet-e a dobozba zárt macska élet és halál szuperpozíciójában, amíg meg nem nézzük, mi történt vele?
Ez abból adódik, hogy egy qubit a megmérése előtt képes arra, hogy szuperpozícióban legyen. Ilyenkor az értéke nem korlátozódik kizárólag nullára vagy egyre, hanem egyszerre lehet nulla és egy is. Minden lehetséges állapotban egyszerre létezik, és csak a megfigyelés aktusa, vagyis
Míg egy bit értékének kiolvasásakor maga a bit változatlan marad, a kvantumbit állapota megváltozik, és a mérés eredményéhez igazodik. Éppen ez az egyik nehézség a qubittel kapcsolatban: a mérés előtti állapota egy hullámfüggvénnyel ábrázolható, amely a mérhető értékek valószínűségét mutatja, és csak a mérés pillanatában derül ki, hogy melyik konkrét értéket veszi fel. A mérés hatására aztán a mért érték 100 százalékos valószínűségűvé válik. Ezt hívják a hullámfüggvény összeomlásának, ilyenkor a qubitben tárolt kvantuminformáció visszavonhatatlanul elveszik.
Ebből következik az is, hogy egy kvantumbit értékét lemásolni sem lehet. Egy klasszikus bitet úgy másolhatunk le, hogy megmérjük két bit értékét, és ha a második nem egyezik az elsővel, akkor megváltoztatjuk, hogy két egyforma értékű bitet kapjunk. Viszont mivel egy kvantumbit megmérésével az értékét is megváltoztatjuk, így a kvantummechanikában csak egy mérés eredménye másolható, maga az eredeti információ nem.
Kvantumbit egyébként többféle részecskéből, például fotonból, elektronból vagy ionból is lehet, csak rendelkezzen legalább két, jól megkülönböztethető állapottal, mint például a foton esetében a polarizáció iránya.
Pusztán az egyes részecskék szuperpozíciójából azonban még nem lesz szupergyors számítógép. Ehhez egy még furcsább kvantumeffektusra, az összefonódásra is szükség van.
Gyakori tévhit, hogy az összefonódott quibetek közötti kapcsolat lehetővé teheti a fénysebességnél is gyorsabb kommunikációt. Valójában azonban hiába mérünk meg egy qubitet, nem derül ki, hogy az adott eredményt azért kaptuk-e, mert mi mérést végeztünk, vagy azért, mert az összefonódásban részt vevő másik qubitet már megmérte valaki más. Vagyis az információtovábbításhoz tudnunk kell, ki mért előbb. Ezt viszont csak hagyományos, tehát a fénysebességnél nem gyorsabb kommunikációs csatornán keresztül tudhatjuk meg. Ha pedig lenne ennél gyorsabb csatornánk, akkor már rá sem szorulnánk arra, hogy a kvantum-összefonódás segítségével továbbítsunk információt.
A kvantum-összefonódás egy részecskék közötti titokzatos kapocs. Ha két qubit összefonódott, akkor az egyik megváltoztatásával összhangban a másik is megváltozik, és ez a koherencia annak ellenére is működik, ha a két qubitet közben a világ két távoli pontjára szállítjuk. A kapcsolat kísérleti úton kimutatható, de senki nem tudja, hogyan működik, mert a részecskék között nincs kommunikáció, és a hatás azonnali. Ha kísértetiesnek találja ezt a távolsági hatást, nincs egyedül: Einstein is így látta, ezért kísérteties távolhatásnak nevezte ezt a jelenséget.
Az összefonódás lehetővé teszi a kutatóknak, hogy információt nyerjenek az egyébként nagyon érzékeny qubitekről azáltal, hogy az egyik valamilyen tulajdonságának a megmérése egyúttal a másikról is elárul nekik valamit. Ez a jelenség tehát a qubitek együttműködésének az alapja, így a legtöbb tudós – még ha nem is mindegyik– szerint elengedhetetlen feltétele annak, hogy a kvantumszámítógépek egyszer valóban gyorsabbak lehessenek a mai technológiánál. És a kvantum-összefonódás az alapja a kvantuminternettel kapcsolatos kísérleteknek is.
Míg két egyszerű bit összesen négyféle alaphelyzetet vehet fel (00, 01, 11, 10), és ezek közül az állapotok közül egyszerre egyet tud tárolni, addig két kvantumbit ezeknek az állapotoknak a szuperpozícióját is képes felvenni, így mind a négy alapállapot egyszerre tárolódik bennük, és
Három kvantumbit nyolc különböző állapotot vehet fel egyidejűleg, négy már tizenhatot, egy 300 qubites rendszer esetében pedig már 2300 hagyományos bitre lenne szükségünk, hogy ugyanazt az információmennyiséget tárolni tudjuk – ami nagyjából az univerzumot alkotó részecskék száma, vagyis elég sok.
A környezeti hatásokra extrém érzékeny kvantumszámítógépek nagy ellensége a dekoherencia. Ez akkor lép fel, ha egy rendszeren kívüli tényező kéretlenül beleszól a kvantumbitek működésébe, és megváltoztatja az állapotukat, illetve megtöri az összefonódást. Mivel azonban ez nem tervezett mérés, hanem baleset, az eredmény nem olvasható ki, vagyis elvész a kvantumbitben tárolt kvantuminformáció, és egy későbbi, szándékos mérés már csak véletlenszerű, vagyis használhatatlan eredményt kap. Ehhez egyetlen kéretlen atom is elegendő, ezért a dekoherenciát nagyon nehéz kizárni.
Ráadásul mivel a qubitek nem másolhatók, nem alkalmazhatók a klasszikus hibakorrekciós eljárások, mert azok éppen a redundáns adattároláson alapulnak, vagyis hogy adott információ több példányban is tárolható. Létezik a hibakorrekciónak kvantumváltozata, amely a másolás helyett kiterjeszti egy qubit információját több összefonódott qubitre, de ezzel vissza is térünk ahhoz a problémához, hogy minél több a qubit, annál nehezebb koherens állapotban tartani őket.
A kvantuminformatika világában számos párhuzamos kísérlet zajlik a valóban használható kvantumszámítógép megalkotására. Többféle megközelítés létezik, az egyik legáltalánosabb a kvantum logikai kapuk modellje.
A hagyományos bitek a számítógépekben különböző feszültségszintekként jelennek meg, ezek pedig manipulálhatók, ahogy különféle áramkörökön haladnak keresztül. Ezeket az áramköröket logikai kapuknak nevezik, mert a segítségükkel logikai alapműveletek hajthatók végre a biteken. Ehhez hasonlóan a qubitek is manipulálhatók kvantum logikai kapuk sorozatának beiktatásával.
Az ilyen műveletekkel kapott eredmény valószínűségi jellegű. A probléma helyes megoldása a legvalószínűbb, de más megoldásokhoz is társul valamilyen valószínűségi mutató. Ezért a kvantumszámítógépeken egy-egy problémát egymás után többször lefuttatnak, hogy a különböző mérések eredményeinek gyakorisága kirajzolja a legjobb megoldást.
2009-ben a Yale-en készült el az első működő, kétqubites kvantumszámítógép, és 2012-ben alakult meg a 1QB Information Technologies (1QBit), a világ első kvantumszoftvercége. De már ezek előtt, 2007-ben mutatta be a D-Wave az első prototípusát, a 16 qubites Oriont, majd 2011-ben jelentette be az első, kereskedelmi forgalomban kapható kvantumgépet, a mostani modell elődjének tekinthető, 128 qubites D-Wave One-t. A Google 2013-ban indította be a saját, Quantum Artificial Intelligence Lab nevű kvantumlaborját a NASA Ames Kutatóközpontjában, ahová még abban az évben a közösen vásárolt D-Wave Two is került.
A D-Wave tehát azt állítja, hogy övék az első, kereskedelmi forgalomban kapható és gyakorlati problémákhoz valóban használható kvantumszámítógép. Az első vásárlójuk a Lockheed Martin volt 2011-ben. A hadiipari óriáscég még az első generációs gépből vásárolt be, a NASA-Google páros már a második kiadásból vett.
A D-Wave nem logikai kapukra építi a gépeit, hanem egy másik módszert, az adiabatikus kvantumos számítást alkalmazza a gépeiben, amely elsősorban olyan optimalizációs problémákra lehet alkalmas, ahol nagyszámú lehetőség közül a legideálisabb megoldást kell kiválasztani.
A cég szilíciumostyára épített kis nióbiumhurkokat használ qubitként, amelyeket abszolút nulla fok közelébe hűtenek. Ezen az alacsony hőmérsékleten a fém teljesen elveszti az ellenállását, vagyis szupravezetővé válik. Így az elektronok szabadon mozoghatnak benne, és mivel ezt egyszerre két irányba teszik, a kétféle mágneses irány szuperpozíciójába kerülnek.
A D-Wave módszerének a lényege, hogy meghatározzák a Hamilton-operátor nevű függvényt, amely a rendszer összenergiáját írja le, és minden lehetséges megoldást magában foglal. Ennek segítségével először beállítják a qubiteket úgy, hogy a rendszer elérje a lehető legalacsonyabb energiaszintet. Ezután fokozatosan hozzáalakítják a mágneses teret az éppen megoldandó problémához. Ha minden jól megy, a rendszer úgy idomul hozzá a feladathoz, hogy közben megtartja az alacsony energiaszintjét.
Egy optimalizációs probléma lefordítható úgy, mint egy tájkép hegyekkel és völgyekkel, ahol a cél a legmélyebb völgy megtalálása. Ennek a legalacsonyabb pontnak felel meg a legalacsonyabb energiaszint, amely a legoptimálisabb megoldást jelöli. Vagyis nem kell a táj összes völgyét sorban végigjárni, ehelyett
és így ad végül egy valószínűségi eredményt.
A kvantumszámítógép egyébként csak maga az apró processzor, a köré épített, három méter magas doboz és az aranyborítású rézlemezek csak ahhoz kellenek, hogy a folyékony héliummal megfelelően alacsony hőmérsékletre – pontosan 0,02 Kelvinre – tudják hűteni a csipet, és a működés közben minél jobban elzárják a környezeti hőtől és más zavaró hatásoktól.
A jelenleg 512 kvantumbites rendszer egyik hátránya, hogy a beállítása egy-egy problémához hosszú előkészületet igényel, és még nem világos az sem, hogy milyen sebességgel változtathatók a rendszer paraméterei, hogy még fennmaradjon a kvantumállapot, de már elég gyors legyen a számítás. De a legfőbb gyengéje, hogy nem elég stabil, mert túl rövid a koherenciaideje, vagyis a qubitek szuperpozíciója túl gyorsan összeomlik. További probléma lehet, hogy a rendszer kialakításából következően hiába van benne több mint ötszáz qubit, jelenleg kevesebb mint százat tud hatékonyan kihasználni.
Bemutatása után rögtön számos kétely merült fel a D-Wave módszerével kapcsolatban. Az első kérdés – amely jól jelzi, hogy a kvantum-számítástechnika még mindig viszonylag felfedezetlennek számító terület –, hogy egyáltalán tényleg kvantum-e a kvantumszámítógépük, vagy csak egy klasszikus gép szimulál kvantumműködést.
A kezdeti ellenvetések után az ma már biztosnak tűnik, hogy valóban kvantumtevékenység folyik a cég nagy fekete dobozában. Más kérdés, hogy a jelenlegi felépítésével képes-e kihasználni ezt a rendszerük, és gyorsabban megoldani a feladatokat, mint egy klasszikus gép.
Az évek során számos összehasonlító tanulmány készült. Amikor a D-Wave bizonyult gyorsabbnak, ott a kritikusok szerint azért nem volt fair a verseny, mert a gépét a tesztben szereplő problémákra optimalizálták, míg a hagyományos vetélytársait nem. Ahol pedig a klasszikus bitek győztek, ott a D-Wave elégedetlenkedett, mondván, hogy azért nem domborodhatott ki a gépük előnye, mert túl egyszerű feladatokat kapott a tesztelőktől. De ha gyorsabbnak is bizonyul majd a D-Wave vagy bármelyik másik kvantumszámítógép, az csak bizonyos típusú és nehézségű feladatokban lesz tapasztalható.
Scott Aaronson, az MIT professzora, egyben a D-Wave egyik legkitartóbb kritikusa szerint a cég gépe
nagyrészt klasszikus, egy kis kvantumossággal.
Aaronson azért is kritikus a kanadaiakkal, mert a nagy médiafelhajtással és az agresszív marketinggel elterelik a figyelmet a szerinte sokkal fontosabb lépésekről. Elismeri, hogy ezek kevésbé látványosak, mert nem írhatók le olyan jól hangzó számokkal, mint amilyen a D-Wave sok száz qubitje. Viszont az a néhány qubit, amellyel más kutatók tizenöt éve szöszölnek, szerinte sokkal jobb minőségű és stabilabb.
A D-Wave-ről szóló legutóbbi – vegyes eredményt mutató – tanulmány társszerzője az a John Martinis, akit a Google éppen ebben a hónapban szerződtetett, hogy lökést adjon a cég kvantumprogramjának. Vagyis megint a Szilícium-völgy óriásánál érnek össze a szálak, és a nagy üzleti lendülettel induló kvantumstartup együtt fog dolgozni az őt bíráló elitkutatóval, hogy együtt tökéletesítsék a Google kvantumtechnológiáját.
A hír hallatán sokan azt feltételezték, hogy a Google esetleg meggondolta magát, és mégis a D-Wave-étől eltérő modell mellett állapodna meg. De később kiderült, hogy bár hosszú távon valóban egy logikai kapukra épülő, univerzális kvantumszámítógép építése a Google célja Martinis leigazolásával, a D-Wave optimalizációs problémákra specializált gépéről se mondtak le. Sőt várhatóan még idén ezer kvantumbitessé bővítik a tavaly vásárolt gépüket, Martinis első feladata pedig ennek a modellnek a továbbfejlesztése lesz.
Vagyis nagyjából éppen az, amit Aaronson hiányolt. Martinisék a Santa Barbara-i egyetemen eddig kilenc qubitig jutottak, de hozzák a stabilitást, hosszabb koherenciaidővel és hatékonyabb hibakorrekciós eljárásokkal. Cserébe óriási méretű rendszeren, és a Google-csapat által kidolgozott, valós problémákkal dolgozhatnak majd.
A kvantumszámítógépek valószínűleg sosem fogják teljesen leváltani a mostani logikára épülő számítógépeket, mert nem általánosan lesznek gyorsabbak, csak bizonyos típusú feladatok esetén, amelyek képesek kiaknázni a kvantummechanikai alapelveket és hasznosítani a kvantumszámítások lényegét adó párhuzamosságot. A nagy áttörést nem az jelenti, hogy az egyes műveletek gyorsabbak lesznek, hanem hogy exponenciálisan kevesebb műveletre lesz szükség a végeredmény eléréséhez. Tehát videót nézni vagy éppen cikket írni valószínűleg nem kvantumszámítógépen fogunk. A hazai pályát az jelenti majd, amikor olyan feladatot kap egy kvantumrendszer, amelyet egy hagyományos számítógépnek emberi ésszel beláthatatlan időbe telne megoldani.
Az első kvantumalgoritmust Peter Shor dolgozta ki 1994-ben. Ez amellett, hogy úgy általában is nagyot lendített a tudományterület iránti érdeklődésen, megmutatta, mire lehet majd képes egy kvantumszámítógép. Az algoritmus akár több tízezer számjegyű számok gyors faktorálását teheti lehetővé, ami azért érdekes, mert napjaink digitális titkosításai éppen azon alapulnak, hogy ez lehetetlen. Eddig a 21 a legnagyobb szám, amelyet sikerült a Shor-algoritmussal faktorálni, még 2012-ben. (A 143 is megvolt már, de azt adiabatikus módszerrel érték el.) A kvantumszámítógépek további fejlődése ugyanakkor
– nem csoda, hogy az NSA is érdeklődik a téma iránt.
És persze a már említett optimalizációs számítások is sokan profitálnak majd a kvantuminformatikából. Ilyen feladat például a NASA-nál a Curiosity Mars-járó számára a legjobb útvonal megtalálása. De Hartmut Neven, a Google kvantumügyi főtudósa már eddig is sikerrel használta a D-Wave Two-t olyan feladatokhoz, mint a képfelismerő algoritmusok javítása vagy a Google Glass-szal kapcsolatos fejlesztések. Csak tudni kell, mihez érdemes ezzel az eszközzel nyúlni.
„Egy sebésznek a műtőben többféle szike áll rendelkezésére, kisebbek és nagyobbak” – mondja erről Neven.
A kvantumoptimalizációra úgy kell tekinteni, mint a legélesebb szikére.