Naviguer la RS&DE fédérale et les incitatifs à l’inn...
En ce début d’année 2026, le paysage du financement de l’innovation au Canada a radic...

La conférence de Richard Feynman en 1982 est considérée comme une pierre angulaire du domaine de l’informatique quantique. Feynman y imaginait une machine quantique, capable de simuler la physique quantique en utilisant les principes mêmes de la mécanique quantique.
Il soutenait qu’un ordinateur fondé sur la mécanique quantique serait peut-être nécessaire pour imiter fidèlement les phénomènes naturels. Car la nature elle-même obéit à des lois fondamentalement quantiques.
L’émergence des ordinateurs quantiques a validé cette intuition. Ces machines exploitent des phénomènes comme la superposition, l’interférence et l’intrication pour répondre à la puissance de calcul colossale requise pour modéliser des systèmes quantiques complexes.

Les premières tentatives de développement de matériel quantique ont progressé lentement. Et ce, en raison de défis techniques liés à la protection et au contrôle cohérent des propriétés quantiques à l’échelle microscopique. Telles que le spin des électrons ou la polarisation des photons.
Toutefois, en 2024, l’informatique quantique est devenue un champ en pleine effervescence. Suscitant un enthousiasme croissant dans les milieux académiques et industriels.
Des efforts considérables sont déployés pour construire les premiers ordinateurs quantiques à grande échelle. Parmi les acteurs majeurs figurent des entreprises établies comme ZTE, QUDOOR, Honeywell, Intel, Google, Microsoft et IBM. Ainsi que des PME innovantes comme D-Wave, et des startups telles que Rigetti, Xanadu, Infleqtion, Origin Quantum et IonQ.
Ces progrès matériels s’accompagnent de percées significatives dans les algorithmes quantiques et les logiciels.
L’informatique classique repose sur des bits pouvant valoir soit « 0 » soit « 1 ». L’informatique quantique, elle, repose sur des bits quantiques (qubits). Qui, selon la mécanique quantique, peuvent être « 0 », « 1 » ou une superposition des deux simultanément.
Cela permet aux ordinateurs quantiques de fonctionner dans un espace computationnel de très haute dimension. Appelé espace de Hilbert, où n qubits peuvent exister dans une superposition de 2^n états à la fois.
Cette croissance exponentielle de l’espace des paramètres suggère que les ordinateurs quantiques pourraient résoudre plus facilement des problèmes complexes à grande échelle.
Cependant, le développement d’ordinateurs quantiques à grande échelle présente des défis majeurs. Le principal obstacle est la décohérence des états quantiques. Qui survient lorsque les qubits interagissent avec leur environnement et perdent leurs propriétés cohérentes.
La décohérence constitue un frein important à la construction d’appareils quantiques robustes. Les recherches actuelles visent à atténuer ce phénomène et à développer des mécanismes efficaces de correction d’erreurs. Notamment pour pallier les défauts des dispositifs quantiques intermédiaires et bruyants (NISQ). Qui doivent composer avec les imperfections induites par la décohérence.
Un autre défi de taille est l’ingénierie des qubits et leur interconnexion. Aujourd’hui, les dispositifs quantiques ne peuvent gérer que des qubits faiblement connectés.
Ce qui complique l’exécution de circuits quantiques profonds impliquant plusieurs portes logiques à deux qubits.

Malgré les obstacles technologiques, les ordinateurs NISQ ont démontré des capacités prometteuses. Un jalon important a été franchi lorsque Google a annoncé avoir atteint la suprématie quantique, marquant une avancée majeure dans le domaine.
Actuellement, une véritable course mondiale est engagée pour atteindre l’avantage quantique , c’est-à-dire le moment où les ordinateurs quantiques seront capables de résoudre des problèmes concrets que les ordinateurs classiques ne peuvent pas résoudre en un temps raisonnable. Pour y parvenir, il faudra améliorer significativement le matériel quantique, les algorithmes et les techniques de correction d’erreurs.
Des efforts soutenus sont en cours pour développer et tester des algorithmes quantiques à l’aide d’équipements NISQ. Bien que les algorithmes de Grover et de Shor aient marqué les débuts du domaine dans les années 1990, des centaines d’autres ont vu le jour depuis.
Les algorithmes variationnels, comme le Variational Quantum Eigensolver (VQE), combinent le calcul quantique et classique pour tirer parti des forces de chaque technologie.
Sur les appareils NISQ actuels, ces algorithmes VQE ont montré des résultats prometteurs dans la résolution de problèmes de mécanique quantique et de tâches liées à l’intelligence artificielle quantique (QAI).
Même si nous n’avons pas encore atteint un ordinateur quantique suffisamment grand et robuste pour concrétiser toutes les promesses du domaine, les résultats obtenus en phase de recherche et de prototypes sont déjà encourageants.
À mesure que l’informatique quantique évolue, la recherche et le développement continuent de jouer un rôle crucial pour surmonter les obstacles techniques et libérer tout le potentiel de cette technologie.
Un bon nombre de ces projets innovants ouvrent droit à des crédits d’impôt pour la R&D, un soutien financier précieux pour les entreprises pionnières.
Chez Leyton, nous accompagnons les entreprises dans la valorisation de leurs efforts en innovation, en les aidant à accéder aux dispositifs de financement adaptés à leurs projets de recherche et développement.
Découvrir nos derniers articles
Voir plus arrow_forward
En ce début d’année 2026, le paysage du financement de l’innovation au Canada a radic...

Les contrats intelligents exécutent une logique déterministe sur les blockchains, offrant immuabi...

Dans l’économie interconnectée d’aujourd’hui, la voie vers une croissance rapid...

Lors de l’évaluation de l’admissibilité à la RS&DE des projets de nos clients, no...