Pojęcie „kwantowy” odnosi się do urządzeń wykorzystujących zjawiska fizyki kwantowej, jak superpozycja czy splątanie. Nie jest to nowość – lasery czy mikroskopy elektronowe działają na podobnych zasadach od dekad. Ale komputer kwantowy to coś więcej – to maszyna, która obiecuje obliczenia niemożliwe dla klasycznych komputerów.
Od teorii do ambicji
Teoretyczną możliwość budowy komputerów kwantowych wykazał w 1982 r. Amerykanin Richard Feynman, laureat Nagrody Nobla (1965 r.). Jego podręcznik akademicki Feynmana wykłady z fizyki zna w Polsce każdy, kto zajmował się tą dziedziną wiedzy. To, że coś jest możliwe do zbudowania, nie znaczy jeszcze jednak, że jest opłacalne. Istniejące maszyny coraz szybciej wykonują obliczenia, symulacje i zarządzają olbrzymimi zbiorami danych. Zadawano więc pytanie: czy istnieje zastosowanie, w którym ten nowy wynalazek byłby lepszy?
Pomóż w rozwoju naszego portalu
Odpowiedź znalazł w 1994 r. amerykański matematyk Peter Shor. Udowodnił on, że zastosowanie komputerów kwantowych w kryptografii może być porównane do użycia broni jądrowej na polu walki. Ponieważ kryptografią i bezpieczeństwem informacji interesują się armie, służby specjalne i rynki finansowe całego świata, zaangażowanie w tę wciąż jeszcze bardzo teoretyczną ideę gwałtownie wzrosło. Obok państw włączyły się w nią globalne korporacje, takie jak IBM, Honeywell czy Microsoft.
Reklama
Wkrótce pojawiły się kolejne zastosowania, w których komputery kwantowe powinny przewyższyć klasyczne maszyny, takie jak badanie reakcji i struktur cząstek związków chemicznych. Można oczekiwać, że przyspieszą one także rozwój w zakresie produkcji farmaceutyków, katalizatorów, nadprzewodników i umożliwią tworzenie nowych materiałów. Znajdą też zastosowanie w logistyce, transporcie, finansach i optymalizacji procesów gospodarczych. Wspomogą badania kosmosu i cząstek elementarnych. Jest o co walczyć.
W ślad za pomysłami na zastosowania pojawiły się też algorytmy, tzn. schematy obliczeń i programy wykonujące je dla tych urządzeń. Gotowych algorytmów i programów jest wiele, ale istniejące urządzenia kwantowe wciąż nie są w stanie ich realizować. Dlatego są one przygotowywane i testowane na klasycznych komputerach wyposażonych w emulator pozwalający symulować komputer kwantowy.
Problemy techniczne
Klasyczne komputery działają na liczbach i nic nie zmienia fakt, że używają do ich zapisu tylko dwóch znaków: 0 i 1. Liczą podobnie jak kiedyś księgowi na liczydłach, ale o wiele szybciej. Aż trudno uwierzyć, że w drodze ich rozwoju udało się stworzyć sztuczną inteligencję. Dwóm cyfrom przypisane są dwa stany, w których może się znajdować element półprzewodnikowej pamięci. Odpowiada on podstawowej jednostce informacji, jaką jest bit. W pamięciach dawnych komputerów jego reprezentantem był maleńki rdzeń magnetyczny i można było wziąć go do ręki.
W informatyce kwantowej odpowiednikiem bitu jest kubit, realizowany przez pojedynczy foton, elektron lub jon. Nośnikiem kubitu może być także inny element kwantowy zdolny do przyjmowania dwóch różnych stanów energetycznych. Prawdopodobieństwo znalezienia się w jednym z tych stanów przyjmuje dowolną wielkość między 0 a 1 i właśnie ono określa wartość kubitu.
Reklama
Pierwszy komputer kwantowy, zbudowany w 1996 r., wykorzystywał zjawisko magnetycznego rezonansu jądrowego w cząstce chloroformu. Obecnie w informatyce kwantowej testuje się różne środowiska fizyczne, w których można tworzyć kubity. Najbardziej rozwinięte są urządzenia działające na bazie obwodów nadprzewodzących. Wymagają one temperatur bliskich zera absolutnego (kilka mili-Kelwinów), ale są stosunkowo łatwe do integracji w większych układach. Inne ośrodki pracują nad komputerem wykorzystującym pułapki jonowe na pojedynczych atomach pierwiastków, takich jak wapń (Ca) czy iterb (Yb). Coraz większe znaczenie zyskuje też fotoelektronika kwantowa, w której kubitami są pojedyncze fotony, a także defekty w ciałach stałych, np. centra barw w diamencie. Ciągle czynione są poszukiwania przełomowego rozwiązania.
Komputer kwantowy, podobnie jak inne urządzenia do przetwarzania danych, musi mieć możliwości wprowadzania oraz wyprowadzania informacji. Potrzebna jest też funkcja odpowiadająca zapisowi programu w klasycznym komputerze. Układ kubitów musi być całkowicie odizolowany od niekontrolowanych wpływów otoczenia, co często wymaga uzyskania bardzo wysokiej próżni i temperatur bliskich zera absolutnego. Te warunki są potrzebne, aby zapobiec dekoherencji, czyli utracie stanu kwantowego układu kubitów. Stan ten jest bowiem nośnikiem informacji. Dlatego podawane przez twórców ilości nawet kilku tysięcy kubitów nie oznaczają, że oparty na nich komputer kwantowy potrafi policzyć coś użytecznego. Część z nich i tak musi być użyta do korekcji błędów. Wraz ze wzrostem ilości kubitów rosną możliwości komputera, ale też ilość zakłóceń. Uzyskanie wymaganej próżni, temperatury bliskiej 0 K (-273,15°C), nadprzewodnictwa i całkowitej izolacji sprawia gigantyczne wręcz problemy technologiczne.
Spotkanie?
Reklama
Na stronie anglojęzycznej Wikipedii prowadzony jest zapis rok po roku wydarzeń znaczących dla rozwoju obliczeń i komunikacji kwantowej (Timeline of quantum computing and communication). Można tam kilkakrotnie przeczytać, jak różne firmy ogłaszały osiągnięcie tzw. supremacji kwantowej. Oznacza to, że zbudowany przez nie system okazał się w czymś lepszy od klasycznej maszyny, a jego producent zdobył przewagę nad konkurencją. Euforia była jednak przedwczesna, a w ostatnich latach liczba godnych odnotowania sukcesów w budowie komputera kwantowego znacząco zmalała.
Pojawiły się też rozwiązania, które mocno demotywują sponsorów projektu komputera kwantowego. Są to kryptografia odporna na jego zdolności do łamania szyfrów oraz algorytmy, a w ślad za nimi – programy dla klasycznych maszyn cyfrowych łamiące dawne ograniczenia.
Nie wiemy, czy komputer kwantowy skończy jako niszowa ciekawostka na wzór trójwymiarowego kina holograficznego. Być może jednak będzie rozwijany bez względu na koszty i przeszkody, tak jak budowany od wielu dziesięcioleci reaktor termojądrowy.
Należy odnotować także inne ciekawe zjawisko. Otóż przez całe dziesięciolecia obserwowano, że gęstość tranzystorów w układach scalonych podwaja się co 2-2,5 roku i ten podstawowy element technologii cyfrowej staje się coraz mniejszy. Można oszacować, że za mniej więcej 15-20 lat rozmiar tranzystora będzie porównywalny do zbioru kilku atomów i będą mogły się w nim pojawić efekty opisywane przez fizykę kwantową.
Co wydarzy się w komputerze na styku fizyki klasycznej i kwantowej oraz jakie konsekwencje przyniesie to dla rozwoju technologii informacyjnych? Tego nie sposób przewidzieć, ale jedno wydaje się pewne – nasze dzieci i wnuki będą żyły w niezwykle ciekawych czasach.
Autor pracował naukowo w Instytucie Badań Jądrowych w Świerku oraz w IBM Polska.
