Perspectives et orientations futures
Jusqu'ici, nous avons appris la motivation pour utiliser à la fois le calcul haute performance (HPC) et le calcul quantique pour résoudre des problèmes scientifiques. Nous avons défini les ressources de calcul classique et quantique, notamment les CPU, GPU et QPU, et discuté de la façon de les mettre à l'échelle et de les gérer grâce à des techniques comme la mise à l'échelle verticale et horizontale, la planification et la gestion des charges de travail. De plus, nous avons exploré les modèles de programmation pour les QPU (tels que les circuits quantiques et les primitives comme Sampler et Estimator) et les ordinateurs classiques, y compris les pratiques de programmation parallèle avec MPI, un outil puissant du calcul hétérogène quantique-classique. Enfin, nous avons étudié et mis en pratique des algorithmes avancés quantiques par échantillonnage, comme la Diagonalisation quantique par échantillonnage (SQD) et la Diagonalisation quantique de Krylov par échantillonnage (SKQD). Ces algorithmes exploitent la méthode des sous-espaces pour estimer précisément l'énergie de l'état fondamental de molécules et de matériaux en préparant et en échantillonnant des états quantiques, qui définissent un sous-espace pour la diagonalisation classique, une combinaison de différents modèles de programmation sur un ensemble de ressources hétérogènes. Avec ces concepts fondamentaux du supercalcul quantique et classique, nous ne parlons plus de l'un remplaçant l'autre, mais de créer un système intégré et puissant qui fonctionne en synergie — une combinaison prête à inaugurer l'aube de l'avantage quantique.
Pourquoi maintenant ?
La communauté a déjà franchi le cap de l'« utilité quantique » — où les ordinateurs quantiques ont été prouvés pour la première fois comme des outils scientifiques utiles capables de calculs au-delà de la simulation classique par force brute. Cette ère d'utilité a commencé avec le désormais célèbre article sur l'utilité présenté en couverture de Nature en 2023, et s'est poursuivie par des dizaines de publications de partenaires, clients et chercheurs d'IBM Quantum®. Maintenant, l'attention s'est portée sur la prochaine frontière critique : atteindre l'avantage quantique. Pendant longtemps, le terme « avantage quantique » a souffert de définitions imprécises. Cet article a proposé une définition concrète, que nous utiliserons ici. Plus précisément, l'avantage quantique désigne l'exécution d'une tâche de traitement de l'information sur du matériel quantique qui satisfait deux critères essentiels :
i) La correction du résultat peut être rigoureusement validée, et
ii) Elle est réalisée avec une séparation quantique qui offre de manière démontrable une efficacité, une rentabilité ou une précision supérieures à ce qui est atteignable avec le seul calcul classique.
Il est prévu que l'avantage quantique commence à émerger d'ici fin 2026 et qu'il le fasse grâce à la combinaison des ressources quantiques et HPC. Cette leçon décrit la vision centrale de ce nouveau paradigme, détaille les idées clés à venir, et présente une perspective future ancrée dans un cadre vérifiable et indépendant de la plateforme pour démontrer et réaliser un véritable avantage quantique.
5.1 La vue d'ensemble
Pour la première fois, nous assistons à un tournant significatif dans l'histoire du calcul — l'ère du supercalcul quantique centré (QCSC), un paradigme émergent qui intègre étroitement les unités de traitement quantique (QPU) avec les supercalculateurs classiques. La vision n'est pas que les systèmes quantiques remplacent les systèmes classiques, mais de démontrer que cette architecture hétérogène — où « quantique plus classique » peut surpasser le classique seul — est la voie la plus puissante à suivre. Dans ce modèle, les QPU sont envisagés comme des co-processeurs spécialisés, travaillant aux côtés des CPU et GPU pour s'attaquer à des problèmes de calcul intraitables pour les ordinateurs classiques.
Le plein potentiel de cette nouvelle architecture ne peut être réalisé qu'en mettant ces outils puissants entre les mains du plus grand nombre d'utilisateurs possible. Cette vision prend déjà forme à travers le déploiement de systèmes quantiques dans des centres de calcul haute performance (HPC) établis et le développement de logiciels, comme les plugins Slurm quantiques, qui rationalisent leur intégration dans les flux de travail classiques existants. En rendant ces systèmes hétérogènes plus accessibles à la communauté de recherche élargie, nous créons l'environnement nécessaire à l'innovation et à la découverte.
Cette stratégie combinant technologie intégrée et large base d'utilisateurs est la façon dont nous croyons que la communauté atteindra l'avantage quantique dans un avenir proche. L'avantage quantique n'est pas un jalon unique et définitif, mais un processus — une séquence de démonstrations de plus en plus robustes qui seront examinées, reproduites et remises en question par la communauté jusqu'à ce qu'un consensus scientifique soit atteint. C'est la voie pour démontrer, d'ici fin 2026, les premières instances crédibles et vérifiables où cette nouvelle façon de calculer résout des problèmes pratiques plus efficacement, de façon plus rentable ou plus précise que ce qui est atteignable avec le seul calcul classique.
Les grandes idées
Pour réaliser cette vision, plusieurs questions et idées critiques doivent être abordées.
-
Partitionnement optimal des charges de travail : Du côté logiciel, le défi consiste à gérer des flux de travail hybrides complexes. Orchestrer l'exécution transparente de tâches sur des ressources à la fois quantiques et classiques nécessite des outils sophistiqués. Cela inclut des middleware quantiques-HPC et une infrastructure d'exécution conçue pour gérer la planification des tâches, la gestion des ressources et les flux de données dans cet environnement hétérogène. De plus, développer des techniques pour paralléliser efficacement les circuits quantiques ou les décomposer en parties plus petites et gérables est crucial pour maximiser l'utilité du matériel quantique actuel.
-
Tolérance aux fautes au niveau système : La solution ultime pour protéger l'information quantique du bruit est le calcul quantique tolérant aux fautes (FTQC), où l'information est encodée dans des « qubits logiques » robustes. Bien que les codes de correction d'erreurs quantiques à faible densité de parité (qLDPC) émergents offrent une voie pour réduire l'énorme surcoût en ressources requis, la mise en œuvre d'une tolérance aux fautes complète n'est pas attendue comme étant viable dans l'immédiat proche. Parallèlement, l'atténuation des erreurs utilise le post-traitement classique pour réduire ou éliminer le biais dans les calculs causé par le bruit, ce qui est également un élément critique pour atteindre des systèmes quantiques tolérants aux fautes au niveau système. Des méthodes puissantes d'atténuation des erreurs sont déjà déployées en tant que service, démontrant la puissance de l'architecture QCSC. Par exemple :
- La Tensor Network Error Mitigation (TEM) d'Algorithmiq gère le bruit dans le post-traitement logiciel, exploitant les ressources HPC classiques pour étendre la portée des QPU actuels.
- La Quantum Error Suppression and Error Mitigation (QESEM) de Qedma combine la suppression des erreurs au niveau matériel avec l'atténuation pour améliorer la fiabilité des calculs quantiques à grande échelle.
-
Démocratisation de l'accès : Rendre ces puissants systèmes hybrides largement accessibles est essentiel pour accélérer l'innovation. Cela se concrétise déjà par le déploiement physique de systèmes quantiques dans des centres HPC et la publication de plugins Slurm pour une intégration rationalisée. Pour faciliter cette intégration, les deux entreprises ont publié des plugins Slurm, afin que les charges de travail quantiques puissent être gérées avec des planificateurs HPC standard. De plus, des piles logicielles complètes comme Qiskit fournissent un environnement d'exécution basé sur le cloud pour l'exécution de circuits quantiques à faible latence, orchestrant des tâches hybrides complexes et fournissant des outils pour la compilation, l'optimisation et l'atténuation des erreurs. Le matériel quantique en accès libre et les paquets de développement open-source joueront sans aucun doute un rôle critique.
Les perspectives d'IBM pour l'avenir
La Feuille de route de développement quantique IBM est une bonne illustration de cette vue d'ensemble et de ces grandes idées.
La feuille de route matérielle d'IBM Quantum est guidée par un focus sur l'augmentation de l'échelle et de la connectivité des qubits. La série Nighthawk (2025-2028) utilise une nouvelle architecture en réseau carré pour améliorer la connectivité, tandis que le processeur Loon (2025) introduit des « c-coupleurs » pour permettre une connectivité non locale des qubits, essentielle pour le calcul quantique tolérant aux fautes (FTQC). Cette feuille de route culmine dans les systèmes IBM Quantum Starling (2029) et Blue Jay (2033+), conçus pour fournir un calcul tolérant aux fautes à grande échelle avec des millions de portes et des milliers de qubits logiques.
La stratégie logicielle et middleware repose sur quatre objectifs clés : exécuter avec précision, orchestrer les charges de travail, découvrir de nouveaux algorithmes, et les appliquer à des cas d'utilisation spécifiques. La feuille de route inclut des améliorations continues comme les circuits dynamiques à l'échelle utilitaire (2025) et de nouveaux outils de profilage (2026) pour assurer une exécution efficace. Pour l'orchestration des charges de travail, le C-API (2025) et les futurs accélérateurs de flux de travail (2027) intégreront le calcul haute performance (HPC) quantique et classique. De plus, IBM® introduira des outils de cartographie utilitaire (2026) et de nouvelles bibliothèques de circuits (2029) pour faciliter la découverte et l'application de nouveaux algorithmes.
Résumé
Nous avons exploré les grandes vues d'ensemble et les grandes idées derrière l'objectif QCSC, et nous avons examiné la feuille de route d'IBM en matière de développement et d'innovation du calcul quantique. Ce voyage, comme nous l'avons vu, est un marathon, pas un sprint. Si IBM est engagé à fournir des ordinateurs quantiques de plus en plus puissants, nos progrès ne sont qu'une partie de l'équation. Il est crucial que la communauté quantique continue de développer de nouveaux algorithmes, ouvrant la voie aux applications qui apporteront véritablement un calcul quantique utile au monde.
Pour y parvenir, nous devons travailler ensemble. Cela signifie établir des problèmes de référence standardisés avec l'aide d'experts classiques pour assurer la pertinence et l'équité. Cela nécessite également de publier des méthodologies et des ensembles de données détaillés pour permettre la reproductibilité, et de maintenir des classements en accès libre pour suivre nos progrès collectifs.
Il n'y a jamais eu de moment aussi excitant pour faire partie de cette communauté. En adoptant ces meilleures pratiques et en poursuivant notre exploration, nous pouvons travailler ensemble pour réaliser le plein potentiel de l'avantage quantique.