Nauka
Stypendium Leonardo: Metamateriały – nowe podejście do obliczeń kwantowych | Nauka i technologia
Naukowcy zajmujący się fizyką kwantową w informatyce od lat robią przyjazne zakłady. Adán Cabello z Uniwersytetu w Sewilli (Hiszpania) jedzie wkrótce do Rzymu, aby zebrać dziesięcioletni zakład (wymyślny obiad) z przyjacielem na temat Nagroda Nobla w dziedzinie fizyki. Ale cztery lata temu hiszpański badacz Miguel Navascués przegrał zakład, ponieważ nie wierzył, że 50-kubitowy komputer kwantowy można zbudować przed 2050 r. Kosztowało go to 50 euro w hamburgerach. Czas sprzyjał optymistom, ale fizyka kwantowa nadal stoi przed podstawowym wyzwaniem zwiększenia mocy obliczeniowej i zmniejszenia liczby błędów. Alejandro González Tudela, naukowiec z Instytutu Fizyki Teoretycznej Hiszpańskiej Narodowej Rady ds. Badań Naukowych (CSIC) w Murcji (Hiszpania), pracuje nad nowym podejściem do tego problemu. Łączy nowe możliwości metamateriałów (struktur o nietypowych właściwościach) z kwantowymi właściwościami światła. Jego program badawczy otrzymał 20 milionów dolarów w Stypendium Leonardo finansowanie Fundacja BBVA od 2014 roku.
W konwencjonalnym informatyce bit jest podstawową jednostką informacji. Bit jest binarny, ponieważ może mieć tylko jedną z dwóch wartości: 0 lub 1. Kombinacje bitów mogą dać komputerom niezwykłe możliwości, ale w obliczeniach kwantowych podstawową jednostką jest bit kwantowy lub kubit. Jest to układ kwantowy, który może mieć jeden z dwóch stanów (0 i 1) lub dowolną superpozycję tych stanów. Superpozycja to zdolność systemu kwantowego do przebywania w wielu stanach w tym samym czasie, dopóki nie zostanie zmierzony. Korzystanie z kubitów pozwala na biliony kombinacji bitów, a tym samym nieskończone możliwości obliczeń. Według badacza CSIC Alberto Casasa „komputer kwantowy o 273 kubitach będzie miał więcej pamięci niż atomy w obserwowalnym wszechświecie”.
Problem w tym, że to kwantowa własność superpozycji jest nieuchwytny i może pozostać stabilny tylko przez krótki czas. Najmniejsza zmiana środowiska (temperatura, szum elektromagnetyczny lub wibracje) degraduje tę właściwość i uniemożliwia komputerom kwantowym efektywne wykonywanie praktycznych obliczeń na dużą skalę. Efekt ten jest znany jako dekoherencja kwantowa.
Ostatnie badanie opublikowane w Natura fizyczna Brytyjscy, amerykańscy i chińscy naukowcy użyli 30-kubitowego programowalnego procesora nadprzewodzącego, aby zademonstrować, że „aplikacje do przetwarzania informacji kwantowej można dostroić tak, aby współdziałały ze sobą, zachowując jednocześnie spójność przez niespotykany dotąd czas”. Stosowana jest również korekcja błędów, ale ta technika polegała na rozwiązaniu jednego z wyzwań obliczeń kwantowych – znacznego zwiększenia liczby kubitów.
Ale González stosuje innowacyjne podejście do problemu. Używa metamateriałów, struktur o niezwykłych atrybutach, do tworzenia urządzeń kwantowych, które mogą celować w więcej kubitów bez zwiększania współczynnika błędów. „Właściwości tych metamateriałów”, powiedział González, „są modulowane poniżej długości fali potrzebnej do uzyskania rzadkich reakcji, takich jak uczynienie materiału niewidzialnym lub skupienie światła poza jego granice”.
„Hipoteza”, powiedział González, „opiera się na fakcie, że światło ma bardzo dobrą spójność. [it easily preserves its quantum properties]. Dlatego celem jest wykorzystanie bardzo silnych reakcji metamateriałów na światło w celu poprawy wierności”.
Zalety i wady
Chodzi o to, aby wykorzystać zdolność światła do utrzymywania swoich właściwości kwantowych, ponieważ w bardzo niewielkim stopniu oddziałuje ono ze środowiskiem. Jednak minusem używania światła jest to, że trudno nim manipulować, mówi González.
González zdecydował się na wykorzystanie metamateriałów w swoich badaniach po tym, jak niedawny rozwój sieci atomów oddzielonych bardzo krótkimi odległościami pozwolił mu zbadać kwantowe zachowanie światła. „Umieszczając atomy w bardzo krótkich odległościach, zachowują się one wspólnie i mogą wchodzić w bardzo silne interakcje ze światłem” – powiedział González. To pozwoli mu wykorzystać metamateriały o bardziej spójnym zachowaniu kwantowym, aby przezwyciężyć trudności związane z manipulowaniem cząstkami światła. Ostatecznym celem jest opracowanie sprzętu komputerowego, który rozwiąże problem skalowalności — komputera kwantowego z większą liczbą kubitów i mniejszą liczbą błędów.
„To ciekawe”, powiedział González, „poznać alternatywne paradygmaty. Nie mówię, że moje podejście zaowocuje przełomem, który rozwiąże problem i stanie się ostateczną platformą. W tej chwili najlepsze implementacje obliczeń kwantowych wykorzystują jony uwięzione w obwodach nadprzewodzących, ale istnieje również technologia kwantowa oparta na fotonach. Być może wielki krok naprzód pochodzi z czegoś, co jest całkowicie poza zasięgiem radaru, lub z kombinacji rozwiązań”. Jednak González silnie odczuwa potrzebę przełamania nowych szlaków dzięki projektom takim jak ten, który otrzymał grant Leonardo. Alberto Casas zgadza się. „Przyszłość obliczeń kwantowych jest nieznana, ale z pewnością warta zbadania” – pisze w niedawno opublikowanej książce: Rewolucja Kwantowa.
Wartość obliczeń kwantowych nie polega na rozwiązywaniu obliczeń czynnikowych, takich jak te używane do testowania systemów. Podobnie jak układanie zagadek logistycznych, takich jak najlepsze trasy transportowe między miastami. Ponadto kryptografia, González mówi, że największymi aspiracjami dla tej technologii jest umożliwienie bezpiecznej komunikacji i rozwiązywanie „pewnych problemów w fizyce i chemii. To wielopłaszczyznowe problemy z wieloma elementami interaktywnymi, które trudno rozwiązać za pomocą tradycyjnych komputerów.”
Przemysł farmaceutyczny to obszar, w którym obliczenia kwantowe mogą zaoferować „wykładniczą przewagę” w rozwoju spersonalizowanych terapii, mówi González. „Być może zostaną zidentyfikowane nowe problemy, które mogą skorzystać na obliczeniach kwantowych lub zostaną opracowane nowe aplikacje, których jeszcze nie wyobrażamy sobie”.
mózgi kwantowe
Naukowcy z Trinity College w Dublinie (Irlandia) opublikowali artykuł w: Dziennik Komunikacji Fizycznej który opisuje kwantowe zachowania mózgu, procesy świadomości i pamięci krótkotrwałej. „Procesy kwantowe mózgu mogą wyjaśniać, dlaczego wciąż możemy przewyższać superkomputery, jeśli chodzi o nieprzewidziane okoliczności, podejmowanie decyzji i uczenie się nowych rzeczy” – powiedział współautor Christian Kerskens, fizyk z Instytutu Neuronauk Trinity College. Według badania: „Jeśli zaawansowane podejścia multidyscyplinarne potwierdzą wyniki tego badania, poprawi to ogólne zrozumienie działania mózgu i doprowadzi do innowacyjnych technologii do budowy jeszcze bardziej zaawansowanych komputerów kwantowych”.
Hiszpania jest aktywnym konkurentem w wyścigu kwantowym, nie tylko w badaniach podstawowych, ale także w innowacjach technologicznych. O Centrum superkomputerowe w Barcelonie została wybrana przez Europejskie Wspólne Przedsięwzięcie w dziedzinie Obliczeń Wysokowydajnych (EuroHPC JU) do hostowania i obsługi swoich pierwszych komputerów kwantowych. Nowa infrastruktura zostanie zainstalowana i zintegrowana z superkomputerem MareNostrum 5, najpotężniejszym komputerem w Hiszpanii i jednym z najbardziej zaawansowanych w Europie. Program QuantumSpain zainwestuje 12,5 mln euro w ten projekt, który jest również współfinansowany przez Unię Europejską i hiszpański Sekretariat Cyfryzacji i Sztucznej Inteligencji (SEDIA). „Ta nowa infrastruktura, która zintegruje obliczenia kwantowe z MareNostrum 5, pozwoli nam rozwijać się w różnych zastosowaniach akademickich” – powiedział Mateo Valero, dyrektor Barcelona Supercomputing Center. Obiekt w Barcelonie połączy się z siecią superkomputerów w Niemczech, Czechach, Francji, Włoszech i Polsce, aby zaspokoić rosnące zapotrzebowanie na obliczenia kwantowe zasoby i usługi przemysłu europejskiego oraz wspierają badania w dziedzinach takich jak zdrowie, zmiana klimatu, logistyka i zużycie energii.
„Piwny maniak. Odkrywca. Nieuleczalny rozwiązywacz problemów. Podróżujący ninja. Pionier zombie. Amatorski twórca. Oddany orędownik mediów społecznościowych.”