Selama bertahun-tahun, terdapat hambatan mendasar antara potensi besar komputasi kuantum dan kebutuhan praktis kecerdasan buatan. Meskipun komputer kuantum unggul dalam perhitungan matematis yang rumit, mereka kesulitan memproses kumpulan data yang sangat besar dan “berantakan”—seperti urutan genom atau ulasan konsumen—yang mendorong pembelajaran mesin modern.
Penelitian baru yang dipimpin oleh Hsin-Yuan Huang dari Oratomic menunjukkan bahwa kita mungkin akhirnya menemukan cara untuk menjembatani kesenjangan ini, yang berpotensi memungkinkan mesin kuantum mengungguli superkomputer klasik paling kuat sekalipun dalam tugas-tugas AI.
Masalah “Dinding Memori”.
Untuk memahami terobosan ini, kita harus memahami kendala utama: pemuatan data.
Dalam komputasi klasik, data disimpan dalam bit (0s dan 1s). Dalam komputasi kuantum, data diproses menggunakan “superposisi”, suatu keadaan di mana berbagai kemungkinan muncul secara bersamaan. Untuk memanfaatkan kekuatan kuantum untuk AI, para peneliti sebelumnya percaya bahwa semua kumpulan data besar harus diubah menjadi keadaan kuantum ini dan disimpan dalam memori kuantum khusus sebelum pemrosesan dapat dimulai.
Masalahnya adalah skala. Untuk menyimpan cukup data agar komputasi kuantum berguna bagi AI, memori kuantum yang dibutuhkan harus berukuran sangat besar—lebih besar dari apa yang secara fisik dapat dicapai dengan teknologi saat ini atau di masa depan.
Solusi “Streaming”.
Huang dan timnya, termasuk Haimeng Zhao dari California Institute of Technology, telah mengusulkan perubahan paradigma. Daripada mencoba “mengunduh” seluruh kumpulan data besar ke dalam memori kuantum sekaligus, metode mereka memungkinkan data dimasukkan ke komputer dalam kelompok yang lebih kecil.
Anggap saja ini sebagai perbedaan antara mengunduh file film 4K berukuran besar sebelum menontonnya (yang memerlukan penyimpanan besar) dan streaming sedikit demi sedikit (yang memerlukan lebih sedikit).
Dengan memproses data secara bertahap, para peneliti menunjukkan bahwa:
– Komputer kuantum dapat menangani kumpulan data besar tanpa memerlukan memori dalam jumlah besar.
– Keunggulan memorinya sangat mencengangkan: komputer kuantum yang hanya memiliki 300 “qubit logis” anti kesalahan secara teoritis dapat mengungguli komputer klasik yang dibangun dari setiap atom di alam semesta yang dapat diamati.
Garis Waktu dan Dampak Dunia Nyata
Meskipun keuntungan teoritisnya sangat besar, penerapan praktisnya masih akan terjadi.
- Jangka Waktu Dekat: Para peneliti memperkirakan bahwa komputer 60-logical-qubit dapat dibuat pada akhir dekade ini. Bahkan dengan ukuran yang relatif kecil, penelitian ini menunjukkan bahwa “keunggulan kuantum” dapat muncul untuk tugas-tugas data spesifik yang digerakkan oleh AI.
- Aplikasi Ilmiah: Teknologi ini dapat menjadi transformatif untuk lingkungan ilmiah dengan output tinggi, seperti Large Hadron Collider, di mana sejumlah besar data dihasilkan dengan sangat cepat sehingga sebagian besar data tersebut harus dibuang karena keterbatasan memori.
- Peringatan: Para ahli memperingatkan bahwa tidak semua AI akan berpindah ke kuantum. Sebagian besar tugas AI saat ini—yang saat ini mendorong konsumsi energi besar-besaran di pusat data—kemungkinan akan tetap dilakukan pada GPU klasik. Lebih jauh lagi, para peneliti harus memastikan algoritma-algoritma baru ini tidak dapat “didekuantisasi” (direplikasi pada komputer klasik tanpa kehilangan keunggulannya).
“Mesin kuantum adalah perangkat yang sangat kuat, namun Anda perlu memberinya makan terlebih dahulu. Studi ini membahas tentang memberi makan dan bagaimana mesin tersebut cukup untuk memuat [data] sedikit demi sedikit, tanpa memberi makan secara berlebihan.” — Adrián Pérez-Salinas, ETH Zurich
Kesimpulan
Dengan memecahkan masalah bagaimana “memasukkan” data ke prosesor kuantum tanpa membebani memorinya, para peneliti telah mengatasi rintangan besar menuju AI kuantum praktis. Jika berhasil, pendekatan “streaming” ini dapat memungkinkan komputer kuantum menangani kumpulan data ilmiah dan analitis dalam jumlah besar yang saat ini tidak mungkin diproses bahkan oleh superkomputer klasik terbesar sekalipun.
