додому Останні новини та статті Потокова передача даних у квантову епоху: потенційний прорив для ІІ

Потокова передача даних у квантову епоху: потенційний прорив для ІІ

Протягом багатьох років між величезним потенціалом квантових обчислень та практичними потребами штучного інтелекту стояла фундаментальна перешкода. У той час як квантові комп’ютери чудово справляються зі складними математичними розрахунками, їм було важко обробляти масивні та «зашумлені» набори даних, такі як геномні послідовності або споживчі відгуки, які є рушійною силою сучасного машинного навчання.

Нове дослідження під керівництвом Сін-Юаня Хуанга з Oratomic припускає, що ми, можливо, нарешті знайшли спосіб подолати цей розрив. Це потенційно дозволить квантовим машинам перевершити навіть найпотужніші класичні суперкомп’ютери у завданнях ІІ.

Проблема «стіни пам’яті»

Щоб зрозуміти суть цього прориву, необхідно усвідомити основну перешкоду: завантаження даних.

У класичних обчисленнях дані зберігаються в бітах (0 та 1). У квантових обчисленнях дані обробляються з використанням “суперпозиції” – стану, при якому одночасно існують кілька варіантів. Щоб використовувати можливості квантових технологій для ІІ, дослідники раніше вважали, що всі масиви даних повинні бути перетворені на цей квантовий стан і збережені в спеціалізованій квантовій пам’яті ще до початку обробки.

Проблема полягала у масштабі. Щоб зберігати достатньо даних, які б зробили квантові обчислення корисними для ІІ, необхідний обсяг квантової пам’яті мав бути неймовірно величезним — більше, ніж це фізично можливо досягти за допомогою нинішніх чи найближчих перспективних технологій.

Рішення через «потокову передачу»

Хуанг та його команда, включаючи Хайменга Чжао з Каліфорнійського технологічного інституту, запропонували зміну парадигми. Разом з тим, щоб намагатися «завантажити» весь масивний набір даних у квантову пам’ять цілком, їх метод дозволяє подавати дані в комп’ютер невеликими порціями.

Уявіть собі різницю між скачуванням величезного 4K-фільму перед переглядом (що вимагає колосального обсягу пам’яті) і його потоковою передачею (стрімінгом) по шматочках (що вимагає набагато менше ресурсів).

Обробляючи дані поступово, дослідники продемонстрували, що:
– Квантові комп’ютери можуть справлятися з великими наборами даних, не потребуючи неможливих обсягів пам’яті.
– Перевага у пам’яті вражає: квантовий комп’ютер всього з 300 безпомилковими «логічними кубитами» теоретично може перевершити класичний комп’ютер, побудований з кожного атома в найближчому Всесвіті.

Терміни та реальний вплив

Хоча теоретична перевага величезна, практичне застосування ще попереду.

  • Найближча перспектива: Дослідники вважають, що комп’ютер із 60 логічними кубитами може бути побудований до кінця цього десятиліття. Навіть за такого відносно невеликого розміру дослідження показує, що для специфічних завдань ІІ може виникнути «квантова перевага».
  • Наукове застосування: Ця технологія може стати революційною для високопродуктивних наукових середовищ, таких як Великий адронний колайдер, де величезні обсяги даних генеруються настільки швидко, що більша їх частина повинна відбраковуватися через обмеження пам’яті.
  • Застереження: Експерти попереджають, що не весь ІІ перейде на квантові технології. Більшість поточних завдань ІІ — тих, що нині споживають колосальну кількість енергії у дата-центрах, швидше за все, залишаться на класичних графічних процесорах (GPU). Крім того, дослідникам необхідно переконатись, що ці нові алгоритми неможливо «деквантувати» (відтворити на класичних комп’ютерах без втрати їхньої переваги).

«Квантова машина – це дуже потужний пристрій, але спочатку потрібно нагодувати. Це дослідження присвячене тому, як «годувати» систему, і як завантажувати дані по шматочках, не перегодовуючи звіра». – Адріан Перес-Салінас, ETH Zurich

Висновок

Вирішивши проблему того, як «подавати» дані квантовому процесору, не перевантажуючи його пам’ять, дослідники подолали серйозну перешкоду на шляху до практичного квантового ІІ. У разі успіху цей «струмовий» підхід дозволить квантовим комп’ютерам обробляти масивні наукові та аналітичні набори даних, які нині недоступні навіть для найбільших класичних суперкомп’ютерів.

Exit mobile version