Qubit

Représentation d'un qubit par une sphère de Bloch. Chaque point de la sphère est un état possible du qbit.

En informatique quantique, un qubit ou qu-bit (quantum + bit ; prononcé /kju.bit/), parfois écrit qbit, est un système quantique à deux niveaux, qui représente la plus petite unité de stockage d'information quantique. Ces deux niveaux, notés et selon le formalisme de Dirac, représentent chacun un état de base du qubit et en font donc l'analogue quantique du bit.

Grâce à la propriété de superposition quantique, un qubit stocke une information qualitativement différente de celle d'un bit. D'un point de vue quantitatif, un qbit peut être dans une infinité d'états combinaison linéaire tels que avec et , il se réduira à un seul bit d'information au moment de sa mesure, et seront les probabilités d'obtenir respectivement ou . Le concept de qubit, tout en étant discuté dès les années 1980, fut formalisé par Benjamin Schumacher en 1995[1].

  1. (en) Benjamin Schumacher, « Quantum coding », Physical Review A, vol. 51, no 4,‎ , p. 2738–2747 (ISSN 1050-2947 et 1094-1622, DOI 10.1103/PhysRevA.51.2738, lire en ligne, consulté le )

© MMXXIII Rich X Search. We shall prevail. All rights reserved. Rich X Search