Jarenlang bestond er een fundamenteel knelpunt tussen het immense potentieel van quantum computing en de praktische behoeften van kunstmatige intelligentie. Hoewel kwantumcomputers uitblinken in complexe wiskundige berekeningen, hebben ze moeite met het verwerken van de enorme, ‘rommelige’ datasets – zoals genomische sequenties of consumentenrecensies – die de drijvende kracht zijn achter het moderne machine learning.
Nieuw onderzoek onder leiding van Hsin-Yuan Huang van Oratomic suggereert dat we eindelijk een manier hebben gevonden om deze kloof te overbruggen, waardoor kwantummachines mogelijk zelfs de krachtigste klassieke supercomputers in AI-taken kunnen overtreffen.
Het “Memory Wall”-probleem
Om deze doorbraak te begrijpen, moet je het belangrijkste obstakel begrijpen: data laden.
Bij klassiek computergebruik worden gegevens opgeslagen in bits (0s en 1s). Bij quantum computing worden gegevens verwerkt met behulp van ‘superpositie’, een toestand waarin meerdere mogelijkheden tegelijkertijd bestaan. Om kwantumkracht voor AI te benutten, geloofden onderzoekers voorheen dat alle enorme datasets naar deze kwantumtoestand moesten worden omgezet en in gespecialiseerd kwantumgeheugen moesten worden opgeslagen voordat de verwerking kon beginnen.
Het probleem was de schaalgrootte. Om voldoende data op te slaan om quantum computing bruikbaar te maken voor AI, zou het benodigde quantumgeheugen onmogelijk groot moeten zijn – groter dan wat fysiek haalbaar is met de huidige of nabije toekomstige technologie.
Een “streaming”-oplossing
Huang en zijn team, waaronder Haimeng Zhao van het California Institute of Technology, hebben een paradigmaverschuiving voorgesteld. In plaats van te proberen een hele enorme dataset in één keer naar het kwantumgeheugen te ‘downloaden’, maakt hun methode het mogelijk dat de gegevens in kleinere batches in de computer worden ingevoerd.
Zie het als het verschil tussen het downloaden van een enorm 4K-filmbestand voordat je het bekijkt (wat een enorme opslagruimte vereist) en het beetje bij beetje streamen (waarvoor veel minder nodig is).
Door de gegevens stapsgewijs te verwerken, hebben de onderzoekers aangetoond dat:
– Kwantumcomputers kunnen grote datasets verwerken zonder dat ze een onmogelijke hoeveelheid geheugen nodig hebben.
– Het geheugenvoordeel is verbluffend: een kwantumcomputer met slechts 300 foutbestendige “logische qubits” zou theoretisch beter kunnen presteren dan een klassieke computer die is opgebouwd uit elk afzonderlijk atoom in het waarneembare universum.
Tijdlijn en impact in de echte wereld
Hoewel het theoretische voordeel enorm is, ligt de praktische toepassing nog in het verschiet.
- De korte termijn: Onderzoekers schatten dat tegen het einde van dit decennium een computer met 60 logische qubits gebouwd zou kunnen worden. Zelfs bij deze relatief kleine omvang suggereert het onderzoek dat er een ‘kwantumvoordeel’ zou kunnen ontstaan voor specifieke AI-gestuurde datataken.
- Wetenschappelijke toepassingen: Deze technologie kan transformatief zijn voor wetenschappelijke omgevingen met een hoge output, zoals de Large Hadron Collider, waar enorme hoeveelheden gegevens zo snel worden gegenereerd dat een groot deel ervan moet worden weggegooid vanwege geheugenbeperkingen.
- De waarschuwingen: Deskundigen waarschuwen dat niet alle AI naar kwantum zal overstappen. De meeste huidige AI-taken – het soort dat momenteel voor een enorm energieverbruik in datacenters zorgt – zullen waarschijnlijk op klassieke GPU’s blijven draaien. Bovendien moeten onderzoekers ervoor zorgen dat deze nieuwe algoritmen niet kunnen worden ‘gedekwantiseerd’ (repliceerd op klassieke computers zonder hun scherpte te verliezen).
“De kwantummachine is een heel krachtig apparaat, maar je moet hem wel eerst voeden. Deze studie gaat over voeden en hoe het genoeg is om [data] stukje bij beetje te laden, zonder het beest te veel te voeren.” — Adrián Pérez-Salinas, ETH Zürich
Conclusie
Door het probleem op te lossen van hoe gegevens aan een kwantumprocessor moeten worden ‘gevoerd’ zonder het geheugen ervan te overweldigen, hebben onderzoekers een grote hindernis op weg naar praktische kwantum-AI weggenomen. Als dit lukt, zou deze ‘streaming’-aanpak kwantumcomputers in staat kunnen stellen enorme wetenschappelijke en analytische datasets aan te pakken die momenteel zelfs voor de grootste klassieke supercomputers onmogelijk te verwerken zijn.




























