Przez wiele lat istniała zasadnicza przeszkoda pomiędzy ogromnym potencjałem obliczeń kwantowych a praktycznymi potrzebami sztucznej inteligencji. Choć komputery kwantowe doskonale radzą sobie ze złożonymi obliczeniami matematycznymi, mają trudności z przetwarzaniem ogromnych i zaszumionych zbiorów danych – takich jak sekwencje genomowe czy opinie konsumentów – które napędzają nowoczesne uczenie maszynowe.
Nowe badania prowadzone przez Xing-Yuan Huanga z Oratomic sugerują, że być może w końcu znaleźliśmy sposób na wypełnienie tej luki. Może to potencjalnie pozwolić maszynom kwantowym osiągać lepsze wyniki niż nawet najpotężniejsze klasyczne superkomputery w zadaniach związanych ze sztuczną inteligencją.
Problem „ściany pamięci”.
Aby zrozumieć ten przełom, musisz zrozumieć główną przeszkodę: ładowanie danych.
W obliczeniach klasycznych dane są przechowywane w bitach (0 i 1). W obliczeniach kwantowych dane są przetwarzane przy użyciu „superpozycji”, czyli stanu, w którym istnieje jednocześnie wiele opcji. Aby wykorzystać moc technologii kwantowych na potrzeby sztucznej inteligencji, badacze wcześniej uważali, że wszystkie zbiory danych będą musiały zostać przekonwertowane do tego stanu kwantowego i zapisane w wyspecjalizowanej pamięci kwantowej przed rozpoczęciem przetwarzania.
Problemem była skala. Aby przechowywać wystarczającą ilość danych, aby obliczenia kwantowe były przydatne dla sztucznej inteligencji, ilość wymaganej pamięci kwantowej musiałaby być niewyobrażalnie ogromna – większa niż jest to fizycznie możliwe do osiągnięcia przy użyciu obecnych lub przyszłych technologii.
Rozwiązanie poprzez „streaming”
Huang i jego zespół, w tym Haimeng Zhao z Caltech, zaproponowali zmianę paradygmatu. Zamiast próbować „pobrać” cały ogromny zbiór danych do pamięci kwantowej, ich metoda pozwala na wprowadzenie danych do komputera w małych porcjach.
Wyobraź sobie różnicę pomiędzy pobraniem ogromnego filmu w rozdzielczości 4K przed jego obejrzeniem (co wymaga kolosalnej ilości pamięci) a przesyłaniem strumieniowym fragmentu po kawałku (co wymaga znacznie mniej zasobów).
Przetwarzając dane przyrostowo, badacze wykazali, że:
– Komputery kwantowe mogą obsługiwać duże zbiory danych bez konieczności stosowania niemożliwej ilości pamięci.
– Przewaga pamięci jest zdumiewająca: komputer kwantowy zawierający zaledwie 300 wolnych od błędów „kubitów logicznych” teoretycznie mógłby przewyższać klasyczny komputer zbudowany z każdego atomu obserwowalnego wszechświata.
Czas i rzeczywisty wpływ
Chociaż korzyści teoretyczne są ogromne, praktyczne zastosowanie dopiero się okaże.
- W najbliższej przyszłości: Naukowcy uważają, że do końca tej dekady można będzie zbudować komputer z 60 kubitami logicznymi. Badania sugerują, że nawet przy tak stosunkowo niewielkich rozmiarach może pojawić się „supremacja kwantowa” w przypadku określonych zadań sztucznej inteligencji.
- Zastosowania naukowe: ta technologia może być rewolucyjna w środowiskach naukowych o dużej przepustowości, takich jak Wielki Zderzacz Hadronów, gdzie ogromne ilości danych są generowane tak szybko, że duża ich część musi zostać wyrzucona ze względu na ograniczenia pamięci.
- Zastrzeżenia: Eksperci ostrzegają, że nie cała sztuczna inteligencja przejdzie na technologie kwantowe. Większość obecnych zadań sztucznej inteligencji – tych, które obecnie zużywają kolosalne ilości energii w centrach danych – prawdopodobnie pozostanie na klasycznych procesorach graficznych (GPU). Ponadto badacze muszą zadbać o to, aby te nowe algorytmy nie mogły zostać „zdekwantyzowane” (odtworzone na klasycznych komputerach bez utraty ich przewagi).
“Maszyna kwantowa to bardzo potężne urządzenie, ale najpierw należy ją zasilić. Te badania dotyczą tego, jak zasilić system i jak ładować dane krok po kroku, nie przeciążając bestii. ” — Adrian Perez-Salinas, ETH Zurych
Wniosek
Rozwiązując problem „dostarczania” danych do procesora kwantowego bez przeciążania jego pamięci, badacze pokonali główną przeszkodę na drodze do praktycznej sztucznej inteligencji kwantowej. Jeśli się powiedzie, to podejście „strumieniowe” umożliwi komputerom kwantowym przetwarzanie ogromnych zbiorów danych naukowych i analitycznych, które są obecnie niedostępne nawet dla największych klasycznych superkomputerów.
