Depuis des années, un goulot d’étranglement fondamental existe entre l’immense potentiel de l’informatique quantique et les besoins pratiques de l’intelligence artificielle. Même si les ordinateurs quantiques excellent dans les calculs mathématiques complexes, ils ont du mal à traiter les ensembles de données massifs et « désordonnés » – tels que les séquences génomiques ou les avis des consommateurs – qui sous-tendent l’apprentissage automatique moderne.
De nouvelles recherches menées par Hsin-Yuan Huang d’Oratomic suggèrent que nous avons peut-être enfin trouvé un moyen de combler cet écart, permettant potentiellement aux machines quantiques de surpasser même les supercalculateurs classiques les plus puissants dans les tâches d’IA.
Le problème du « mur de mémoire »
Pour comprendre cette avancée, il faut comprendre le principal obstacle : le chargement de données.
En informatique classique, les données sont stockées en bits (0 et 1). En informatique quantique, les données sont traitées par « superposition », un état dans lequel plusieurs possibilités existent simultanément. Pour exploiter la puissance quantique pour l’IA, les chercheurs pensaient auparavant que tous les ensembles de données massifs devaient être convertis dans cet état quantique et stockés dans une mémoire quantique spécialisée avant que le traitement puisse commencer.
Le problème était l’échelle. Pour stocker suffisamment de données pour rendre l’informatique quantique utile à l’IA, la mémoire quantique requise aurait dû être incroyablement grande – plus grande que ce qui est physiquement réalisable avec la technologie actuelle ou dans un futur proche.
Une solution “Streaming”
Huang et son équipe, dont Haimeng Zhao du California Institute of Technology, ont proposé un changement de paradigme. Au lieu d’essayer de « télécharger » d’un seul coup un ensemble massif de données dans la mémoire quantique, leur méthode permet aux données d’être introduites dans l’ordinateur en lots plus petits.
Considérez cela comme la différence entre télécharger un énorme fichier de film 4K avant de le regarder (ce qui nécessite un stockage énorme) et le streaming petit à petit (ce qui nécessite beaucoup moins).
En traitant les données de manière incrémentale, les chercheurs ont démontré que :
– Les ordinateurs quantiques peuvent gérer de grands ensembles de données sans avoir besoin de quantités de mémoire impossibles.
– L’avantage de la mémoire est stupéfiant : un ordinateur quantique doté de seulement 300 “qubits logiques” résistants aux erreurs pourrait théoriquement surpasser un ordinateur classique construit à partir de chaque atome de l’univers observable.
Chronologie et impact dans le monde réel
Même si l’avantage théorique est énorme, l’application pratique se profile encore à l’horizon.
- À court terme : Les chercheurs estiment qu’un ordinateur à 60 qubits logiques pourrait être construit d’ici la fin de cette décennie. Même à cette taille relativement petite, l’étude suggère qu’un « avantage quantique » pourrait émerger pour des tâches spécifiques basées sur les données basées sur l’IA.
- Applications scientifiques : Cette technologie pourrait être révolutionnaire pour les environnements scientifiques à haut rendement, tels que le Grand collisionneur de hadrons, où d’énormes quantités de données sont générées si rapidement qu’une grande partie doit être supprimée en raison des limites de mémoire.
- Les mises en garde : Les experts préviennent que toutes les IA ne passeront pas au quantique. La plupart des tâches d’IA actuelles – celles qui entraînent actuellement une consommation d’énergie massive dans les centres de données – resteront probablement sur des GPU classiques. De plus, les chercheurs doivent s’assurer que ces nouveaux algorithmes ne peuvent pas être « déquantifiés » (répliqués sur des ordinateurs classiques sans perdre leur avantage).
“La machine quantique est un appareil très puissant, mais il faut d’abord la nourrir. Cette étude parle de l’alimentation et du fait qu’il suffit de charger [des données] petit à petit, sans suralimenter la bête.” — Adrián Pérez-Salinas, ETH Zurich
Conclusion
En résolvant le problème de savoir comment « transmettre » des données à un processeur quantique sans surcharger sa mémoire, les chercheurs ont surmonté un obstacle majeur vers l’IA quantique pratique. En cas de succès, cette approche de « streaming » pourrait permettre aux ordinateurs quantiques de traiter d’énormes ensembles de données scientifiques et analytiques qu’il est actuellement impossible de traiter, même pour les plus grands supercalculateurs classiques.






























