Aller au contenu principal

Produits scalaires et projections

Pour mieux nous préparer à explorer les capacités et les limites des circuits quantiques, nous introduisons maintenant quelques concepts mathématiques supplémentaires — à savoir le produit scalaire entre vecteurs (et son lien avec la norme euclidienne), les notions d'orthogonalité et d'orthonormalité pour des ensembles de vecteurs, ainsi que les matrices de projection, qui nous permettront d'introduire une généralisation pratique des mesures dans la base standard.

Produits scalaires

Rappelle-toi que lorsqu'on utilise la notation de Dirac pour désigner un vecteur colonne arbitraire par un ket, tel que

ψ=(α1α2αn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix},

le vecteur bra correspondant est le conjugué transposé de ce vecteur :

ψ=(ψ)=(α1α2αn).(1)\langle \psi \vert = \bigl(\vert \psi \rangle \bigr)^{\dagger} = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix}. \tag{1}

Alternativement, si on a un ensemble d'états classiques Σ\Sigma en tête, et qu'on exprime un vecteur colonne sous forme de ket, tel que

ψ=aΣαaa,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle,

alors le vecteur ligne (ou bra) correspondant est le conjugué transposé

ψ=aΣαaa.(2)\langle \psi \vert = \sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert. \tag{2}

On a également que le produit d'un vecteur bra et d'un vecteur ket, considérés comme des matrices ayant respectivement une seule ligne ou une seule colonne, donne un scalaire. Plus précisément, si on a deux vecteurs colonnes

ψ=(α1α2αn)etϕ=(β1β2βn),\vert \psi \rangle = \begin{pmatrix} \alpha_1\\ \alpha_2\\ \vdots\\ \alpha_n \end{pmatrix} \quad\text{et}\quad \vert \phi \rangle = \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix},

de sorte que le vecteur ligne ψ\langle \psi \vert est comme dans l'équation (1),(1), alors

ψϕ=ψϕ=(α1α2αn)(β1β2βn)=α1β1++αnβn.\langle \psi \vert \phi \rangle = \langle \psi \vert \vert \phi \rangle = \begin{pmatrix} \overline{\alpha_1} & \overline{\alpha_2} & \cdots & \overline{\alpha_n} \end{pmatrix} \begin{pmatrix} \beta_1\\ \beta_2\\ \vdots\\ \beta_n \end{pmatrix} = \overline{\alpha_1} \beta_1 + \cdots + \overline{\alpha_n}\beta_n.

Alternativement, si on a deux vecteurs colonnes qu'on a écrits sous la forme

ψ=aΣαaaetϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{et}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

de sorte que ψ\langle \psi \vert est le vecteur ligne (2),(2), on trouve que

ψϕ=ψϕ=(aΣαaa)(bΣβbb)=aΣbΣαaβbab=aΣαaβa,\begin{aligned} \langle \psi \vert \phi \rangle & = \langle \psi \vert \vert \phi \rangle\\ & = \Biggl(\sum_{a\in\Sigma} \overline{\alpha_a} \langle a \vert\Biggr) \Biggl(\sum_{b\in\Sigma} \beta_b \vert b\rangle\Biggr)\\ & = \sum_{a\in\Sigma}\sum_{b\in\Sigma} \overline{\alpha_a} \beta_b \langle a \vert b \rangle\\ & = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a, \end{aligned}

où la dernière égalité découle de l'observation que aa=1\langle a \vert a \rangle = 1 et ab=0\langle a \vert b \rangle = 0 pour des états classiques aa et bb satisfaisant ab.a\neq b.

La valeur ψϕ\langle \psi \vert \phi \rangle est appelée le produit scalaire entre les vecteurs ψ\vert \psi\rangle et ϕ.\vert \phi \rangle. Les produits scalaires sont d'une importance capitale en information et en calcul quantiques ; on ne pourrait pas aller bien loin dans la compréhension mathématique de l'information quantique sans eux.

Rassemblons maintenant quelques propriétés fondamentales des produits scalaires de vecteurs.

  1. Lien avec la norme euclidienne. Le produit scalaire d'un vecteur

    ψ=aΣαaa\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle

    avec lui-même vaut

    ψψ=aΣαaαa=aΣαa2=ψ2.\langle \psi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \alpha_a = \sum_{a\in\Sigma} \vert\alpha_a\vert^2 = \bigl\| \vert \psi \rangle \bigr\|^2.

    Ainsi, la norme euclidienne d'un vecteur peut aussi s'exprimer comme

    ψ=ψψ.\bigl\| \vert \psi \rangle \bigr\| = \sqrt{ \langle \psi \vert \psi \rangle }.

    Note que la norme euclidienne d'un vecteur est toujours un nombre réel non négatif. De plus, la seule façon pour que la norme euclidienne d'un vecteur soit nulle est que toutes ses entrées soient nulles, c'est-à-dire que le vecteur soit le vecteur nul.

    On peut résumer ces observations ainsi : pour tout vecteur ψ\vert \psi \rangle on a

    ψψ0,\langle \psi \vert \psi \rangle \geq 0,

    avec ψψ=0\langle \psi \vert \psi \rangle = 0 si et seulement si ψ=0.\vert \psi \rangle = 0. Cette propriété du produit scalaire est parfois appelée définie positive.

  2. Symétrie conjuguée. Pour deux vecteurs quelconques

    ψ=aΣαaaetϕ=bΣβbb,\vert \psi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{et}\quad \vert \phi \rangle = \sum_{b\in\Sigma} \beta_b \vert b \rangle,

    on a

    ψϕ=aΣαaβaetϕψ=aΣβaαa,\langle \psi \vert \phi \rangle = \sum_{a\in\Sigma} \overline{\alpha_a} \beta_a \quad\text{et}\quad \langle \phi \vert \psi \rangle = \sum_{a\in\Sigma} \overline{\beta_a} \alpha_a,

    et donc

    ψϕ=ϕψ.\overline{\langle \psi \vert \phi \rangle} = \langle \phi \vert \psi \rangle.
  3. Linéarité par rapport au second argument (et linéarité conjuguée par rapport au premier). Supposons que ψ,\vert \psi \rangle, ϕ1,\vert \phi_1 \rangle, et ϕ2\vert \phi_2 \rangle sont des vecteurs et que α1\alpha_1 et α2\alpha_2 sont des nombres complexes. Si on définit un nouveau vecteur

    ϕ=α1ϕ1+α2ϕ2,\vert \phi\rangle = \alpha_1 \vert \phi_1\rangle + \alpha_2 \vert \phi_2\rangle,

    alors

    ψϕ=ψ(α1ϕ1+α2ϕ2)=α1ψϕ1+α2ψϕ2.\langle \psi \vert \phi \rangle = \langle \psi \vert \bigl( \alpha_1\vert \phi_1 \rangle + \alpha_2\vert \phi_2 \rangle\bigr) = \alpha_1 \langle \psi \vert \phi_1 \rangle + \alpha_2 \langle \psi \vert \phi_2 \rangle.

    Autrement dit, le produit scalaire est linéaire par rapport au second argument. Cela peut se vérifier soit par les formules ci-dessus, soit simplement en remarquant que la multiplication matricielle est linéaire par rapport à chaque argument (et en particulier par rapport au second argument).

    En combinant ce fait avec la symétrie conjuguée, on conclut que le produit scalaire est conjugué linéaire par rapport au premier argument. C'est-à-dire que si ψ1,\vert \psi_1 \rangle, ψ2,\vert \psi_2 \rangle, et ϕ\vert \phi \rangle sont des vecteurs et α1\alpha_1 et α2\alpha_2 sont des nombres complexes, et qu'on définit

    ψ=α1ψ1+α2ψ2,\vert \psi \rangle = \alpha_1 \vert \psi_1\rangle + \alpha_2 \vert \psi_2 \rangle,

    alors

    ψϕ=(α1ψ1+α2ψ2)ϕ=α1ψ1ϕ+α2ψ2ϕ.\langle \psi \vert \phi \rangle = \bigl( \overline{\alpha_1} \langle \psi_1 \vert + \overline{\alpha_2} \langle \psi_2 \vert \bigr) \vert\phi\rangle = \overline{\alpha_1} \langle \psi_1 \vert \phi \rangle + \overline{\alpha_2} \langle \psi_2 \vert \phi \rangle.
  4. L'inégalité de Cauchy–Schwarz. Pour tout choix de vecteurs ϕ\vert \phi \rangle et ψ\vert \psi \rangle ayant le même nombre d'entrées, on a

    ψϕψϕ.\bigl\vert \langle \psi \vert \phi \rangle\bigr| \leq \bigl\| \vert\psi \rangle \bigr\| \bigl\| \vert \phi \rangle \bigr\|.

    C'est une inégalité incroyablement pratique, très largement utilisée en information quantique (et dans de nombreux autres domaines d'étude).

Ensembles orthogonaux et orthonormaux

On dit que deux vecteurs ϕ\vert \phi \rangle et ψ\vert \psi \rangle sont orthogonaux si leur produit scalaire est nul :

ψϕ=0.\langle \psi \vert \phi \rangle = 0.

Géométriquement, on peut voir les vecteurs orthogonaux comme des vecteurs perpendiculaires l'un à l'autre.

Un ensemble de vecteurs {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} est appelé un ensemble orthogonal si chaque vecteur de l'ensemble est orthogonal à tous les autres vecteurs de l'ensemble. C'est-à-dire que cet ensemble est orthogonal si

ψjψk=0\langle \psi_j \vert \psi_k\rangle = 0

pour tous les choix de j,k{1,,m}j,k\in\{1,\ldots,m\} tels que jk.j\neq k.

Un ensemble de vecteurs {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} est appelé un ensemble orthonormal s'il est orthogonal et si, de plus, chaque vecteur de l'ensemble est un vecteur unitaire. Alternativement, cet ensemble est orthonormal si

ψjψk={1j=k0jk(3)\langle \psi_j \vert \psi_k\rangle = \begin{cases} 1 & j = k\\[1mm] 0 & j\neq k \end{cases} \tag{3}

pour tous les choix de j,k{1,,m}.j,k\in\{1,\ldots,m\}.

Enfin, un ensemble {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} est une base orthonormale si, en plus d'être un ensemble orthonormal, il forme une base. Cela est équivalent à dire que {ψ1,,ψm}\{ \vert \psi_1\rangle,\ldots,\vert\psi_m\rangle\} est un ensemble orthonormal et que mm est égal à la dimension de l'espace d'où sont tirés ψ1,,ψm.\vert \psi_1\rangle,\ldots,\vert\psi_m\rangle.

Par exemple, pour tout ensemble d'états classiques Σ,\Sigma, l'ensemble de tous les vecteurs de la base standard

{a:aΣ}\big\{ \vert a \rangle \,:\, a\in\Sigma\bigr\}

est une base orthonormale. L'ensemble {+,}\{\vert+\rangle,\vert-\rangle\} est une base orthonormale pour l'espace de dimension 22 correspondant à un seul qubit, et la base de Bell {ϕ+,ϕ,ψ+,ψ}\{\vert\phi^+\rangle, \vert\phi^-\rangle, \vert\psi^+\rangle, \vert\psi^-\rangle\} est une base orthonormale pour l'espace de dimension 44 correspondant à deux qubits.

Compléter des ensembles orthonormaux en bases orthonormales

Supposons que ψ1,,ψm\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle sont des vecteurs vivant dans un espace de dimension nn, et qu'en plus {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} est un ensemble orthonormal. Les ensembles orthonormaux sont toujours des ensembles linéairement indépendants, donc ces vecteurs engendrent nécessairement un sous-espace de dimension m.m. On en conclut que mnm\leq n, car la dimension du sous-espace engendré par ces vecteurs ne peut pas être supérieure à la dimension de l'espace entier dont ils sont tirés.

Si m<n,m<n, il est toujours possible de choisir nmn-m vecteurs supplémentaires ψm+1,,ψn\vert \psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle de sorte que {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} forme une base orthonormale. Une procédure connue sous le nom de procédé d'orthogonalisation de Gram–Schmidt peut être utilisée pour construire ces vecteurs.

Ensembles orthonormaux et matrices unitaires

Les ensembles orthonormaux de vecteurs sont étroitement liés aux matrices unitaires. Une façon d'exprimer ce lien est de dire que les trois affirmations suivantes sont logiquement équivalentes (c'est-à-dire qu'elles sont toutes vraies ou toutes fausses) pour tout choix d'une matrice carrée UU :

  1. La matrice UU est unitaire (c'est-à-dire UU=I=UUU^{\dagger} U = \mathbb{I} = U U^{\dagger}).
  2. Les lignes de UU forment un ensemble orthonormal.
  3. Les colonnes de UU forment un ensemble orthonormal.

Cette équivalence est en réalité assez directe lorsqu'on réfléchit au fonctionnement de la multiplication matricielle et du conjugué transposé. Supposons par exemple qu'on ait une matrice 3×33\times 3 comme celle-ci :

U=(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)U = \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}

Le conjugué transposé de UU ressemble à ceci :

U=(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)U^{\dagger} = \begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix}

Le produit des deux matrices, avec le conjugué transposé à gauche, nous donne la matrice suivante :

(α1,1α2,1α3,1α1,2α2,2α3,2α1,3α2,3α3,3)(α1,1α1,2α1,3α2,1α2,2α2,3α3,1α3,2α3,3)=(α1,1α1,1+α2,1α2,1+α3,1α3,1α1,1α1,2+α2,1α2,2+α3,1α3,2α1,1α1,3+α2,1α2,3+α3,1α3,3α1,2α1,1+α2,2α2,1+α3,2α3,1α1,2α1,2+α2,2α2,2+α3,2α3,2α1,2α1,3+α2,2α2,3+α3,2α3,3α1,3α1,1+α2,3α2,1+α3,3α3,1α1,3α1,2+α2,3α2,2+α3,3α3,2α1,3α1,3+α2,3α2,3+α3,3α3,3)\begin{aligned} &\begin{pmatrix} \overline{\alpha_{1,1}} & \overline{\alpha_{2,1}} & \overline{\alpha_{3,1}} \\[1mm] \overline{\alpha_{1,2}} & \overline{\alpha_{2,2}} & \overline{\alpha_{3,2}} \\[1mm] \overline{\alpha_{1,3}} & \overline{\alpha_{2,3}} & \overline{\alpha_{3,3}} \end{pmatrix} \begin{pmatrix} \alpha_{1,1} & \alpha_{1,2} & \alpha_{1,3} \\[1mm] \alpha_{2,1} & \alpha_{2,2} & \alpha_{2,3} \\[1mm] \alpha_{3,1} & \alpha_{3,2} & \alpha_{3,3} \end{pmatrix}\\[4mm] \quad &= \begin{pmatrix} \overline{\alpha_{1,1}}\alpha_{1,1} + \overline{\alpha_{2,1}}\alpha_{2,1} + \overline{\alpha_{3,1}}\alpha_{3,1} & \overline{\alpha_{1,1}}\alpha_{1,2} + \overline{\alpha_{2,1}}\alpha_{2,2} + \overline{\alpha_{3,1}}\alpha_{3,2} & \overline{\alpha_{1,1}}\alpha_{1,3} + \overline{\alpha_{2,1}}\alpha_{2,3} + \overline{\alpha_{3,1}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,2}}\alpha_{1,1} + \overline{\alpha_{2,2}}\alpha_{2,1} + \overline{\alpha_{3,2}}\alpha_{3,1} & \overline{\alpha_{1,2}}\alpha_{1,2} + \overline{\alpha_{2,2}}\alpha_{2,2} + \overline{\alpha_{3,2}}\alpha_{3,2} & \overline{\alpha_{1,2}}\alpha_{1,3} + \overline{\alpha_{2,2}}\alpha_{2,3} + \overline{\alpha_{3,2}}\alpha_{3,3} \\[2mm] \overline{\alpha_{1,3}}\alpha_{1,1} + \overline{\alpha_{2,3}}\alpha_{2,1} + \overline{\alpha_{3,3}}\alpha_{3,1} & \overline{\alpha_{1,3}}\alpha_{1,2} + \overline{\alpha_{2,3}}\alpha_{2,2} + \overline{\alpha_{3,3}}\alpha_{3,2} & \overline{\alpha_{1,3}}\alpha_{1,3} + \overline{\alpha_{2,3}}\alpha_{2,3} + \overline{\alpha_{3,3}}\alpha_{3,3} \end{pmatrix} \end{aligned}

Si on forme trois vecteurs à partir des colonnes de U,U,

ψ1=(α1,1α2,1α3,1),ψ2=(α1,2α2,2α3,2),ψ3=(α1,3α2,3α3,3),\vert \psi_1\rangle = \begin{pmatrix} \alpha_{1,1}\\ \alpha_{2,1}\\ \alpha_{3,1} \end{pmatrix}, \quad \vert \psi_2\rangle = \begin{pmatrix} \alpha_{1,2}\\ \alpha_{2,2}\\ \alpha_{3,2} \end{pmatrix}, \quad \vert \psi_3\rangle = \begin{pmatrix} \alpha_{1,3}\\ \alpha_{2,3}\\ \alpha_{3,3} \end{pmatrix},

on peut alors exprimer le produit ci-dessus autrement :

UU=(ψ1ψ1ψ1ψ2ψ1ψ3ψ2ψ1ψ2ψ2ψ2ψ3ψ3ψ1ψ3ψ2ψ3ψ3)U^{\dagger} U = \begin{pmatrix} \langle \psi_1\vert \psi_1 \rangle & \langle \psi_1\vert \psi_2 \rangle & \langle \psi_1\vert \psi_3 \rangle \\ \langle \psi_2\vert \psi_1 \rangle & \langle \psi_2\vert \psi_2 \rangle & \langle \psi_2\vert \psi_3 \rangle \\ \langle \psi_3\vert \psi_1 \rangle & \langle \psi_3\vert \psi_2 \rangle & \langle \psi_3\vert \psi_3 \rangle \end{pmatrix}

En se référant à l'équation (3),(3), on voit maintenant que la condition que cette matrice soit égale à la matrice identité est équivalente à l'orthonormalité de l'ensemble {ψ1,ψ2,ψ3}.\{\vert\psi_1\rangle,\vert\psi_2\rangle,\vert\psi_3\rangle\}.

Cet argument se généralise aux matrices unitaires de toute taille. Le fait que les lignes d'une matrice forment une base orthonormale si et seulement si la matrice est unitaire découle alors du fait qu'une matrice est unitaire si et seulement si sa transposée est unitaire.

Compte tenu de l'équivalence décrite ci-dessus, et du fait que tout ensemble orthonormal peut être complété en une base orthonormale, on conclut le fait utile suivant : Étant donné un ensemble orthonormal quelconque de vecteurs {ψ1,,ψm}\{\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle\} tirés d'un espace de dimension nn, il existe une matrice unitaire UU dont les mm premières colonnes sont les vecteurs ψ1,,ψm.\vert\psi_1\rangle,\ldots,\vert\psi_m\rangle. Schématiquement, on peut toujours trouver une matrice unitaire de la forme suivante :

U=(ψ1ψ2ψmψm+1ψn).U = \left( \begin{array}{ccccccc} \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt}\\ \vert\psi_1\rangle & \vert\psi_2\rangle & \cdots & \vert\psi_m\rangle & \vert\psi_{m+1}\rangle & \cdots & \vert\psi_n\rangle\\[2mm] \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} & \rule{0.4pt}{10pt} & & \rule{0.4pt}{10pt} \end{array} \right).

Ici, les nmn-m dernières colonnes sont complétées par un choix quelconque de vecteurs ψm+1,,ψn\vert\psi_{m+1}\rangle,\ldots,\vert\psi_n\rangle qui font de {ψ1,,ψn}\{\vert\psi_1\rangle,\ldots,\vert\psi_n\rangle\} une base orthonormale.

Projections et mesures projectives

Matrices de projection

Une matrice carrée Π\Pi est appelée projection si elle satisfait deux propriétés :

  1. Π=Π.\Pi = \Pi^{\dagger}.
  2. Π2=Π.\Pi^2 = \Pi.

Les matrices qui satisfont la première condition — être égales à leur propre conjugué transposé — sont appelées matrices hermitiennes, et les matrices qui satisfont la seconde condition — dont le carré ne les modifie pas — sont appelées matrices idempotentes.

Par précaution, le mot projection est parfois utilisé pour désigner toute matrice qui ne satisfait que la seconde condition mais pas nécessairement la première, et dans ce cas le terme projection orthogonale désigne typiquement les matrices satisfaisant les deux propriétés. Dans le contexte de l'information et du calcul quantiques, cependant, les termes projection et matrice de projection désignent plus généralement des matrices satisfaisant les deux conditions.

Un exemple de projection est la matrice

Π=ψψ(4)\Pi = \vert \psi \rangle \langle \psi \vert \tag{4}

pour tout vecteur unitaire ψ.\vert \psi\rangle. On peut vérifier que cette matrice est hermitienne de la façon suivante :

Π=(ψψ)=(ψ)(ψ)=ψψ=Π.\Pi^{\dagger} = \bigl( \vert \psi \rangle \langle \psi \vert \bigr)^{\dagger} = \bigl( \langle \psi \vert \bigr)^{\dagger}\bigl( \vert \psi \rangle \bigr)^{\dagger} = \vert \psi \rangle \langle \psi \vert = \Pi.

Ici, pour obtenir la seconde égalité, on a utilisé la formule

(AB)=BA,(A B)^{\dagger} = B^{\dagger} A^{\dagger},

qui est toujours vraie, pour deux matrices AA et BB quelconques pour lesquelles le produit ABAB a un sens.

Pour voir que la matrice Π\Pi dans (4)(4) est idempotente, on peut utiliser l'hypothèse que ψ\vert\psi\rangle est un vecteur unitaire, donc qu'il satisfait ψψ=1.\langle \psi \vert \psi\rangle = 1. On a ainsi

Π2=(ψψ)2=ψψψψ=ψψ=Π.\Pi^2 = \bigl( \vert\psi\rangle\langle \psi\vert \bigr)^2 = \vert\psi\rangle\langle \psi\vert\psi\rangle\langle\psi\vert = \vert\psi\rangle\langle\psi\vert = \Pi.

Plus généralement, si {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} est un ensemble orthonormal quelconque de vecteurs, alors la matrice

Π=k=1mψkψk(5)\Pi = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert \tag{5}

est une projection. Plus précisément, on a

Π=(k=1mψkψk)=k=1m(ψkψk)=k=1mψkψk=Π,\begin{aligned} \Pi^{\dagger} &= \biggl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr)^{\dagger} \\ &= \sum_{k = 1}^m \bigl(\vert\psi_k\rangle\langle\psi_k\vert\bigr)^{\dagger} \\ &= \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ &= \Pi, \end{aligned}

et

Π2=(j=1mψjψj)(k=1mψkψk)=j=1mk=1mψjψjψkψk=k=1mψkψk=Π,\begin{aligned} \Pi^2 & = \biggl( \sum_{j = 1}^m \vert \psi_j\rangle \langle \psi_j \vert\Bigr)\Bigl(\sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\biggr) \\ & = \sum_{j = 1}^m\sum_{k = 1}^m \vert \psi_j\rangle \langle \psi_j \vert \psi_k\rangle \langle \psi_k \vert \\ & = \sum_{k = 1}^m \vert \psi_k\rangle \langle \psi_k \vert\\ & = \Pi, \end{aligned}

où l'orthonormalité de {ψ1,,ψm}\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\} implique l'avant-dernière égalité.

En fait, cela épuise toutes les possibilités : toute projection Π\Pi peut s'écrire sous la forme (5)(5) pour un certain choix d'ensemble orthonormal {ψ1,,ψm}.\{\vert \psi_1\rangle,\ldots,\vert \psi_m\rangle\}. (Techniquement, la matrice nulle Π=0,\Pi=0, qui est une projection, est un cas particulier. Pour la faire entrer dans la forme générale (5)(5), on doit autoriser la possibilité que la somme soit vide, ce qui donne la matrice nulle.)

Mesures projectives

La notion de mesure d'un système quantique est plus générale que les simples mesures dans la base standard. Les mesures projectives sont des mesures décrites par une collection de projections dont la somme est égale à la matrice identité. En termes symboliques, une collection {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} de matrices de projection décrit une mesure projective si

Π0++Πm1=I.\Pi_0 + \cdots + \Pi_{m-1} = \mathbb{I}.

Lorsqu'une telle mesure est effectuée sur un système X\mathsf{X} alors qu'il est dans un état ψ,\vert\psi\rangle, deux choses se produisent :

  1. Pour chaque k{0,,m1},k\in\{0,\ldots,m-1\}, le résultat de la mesure est kk avec une probabilité égale à

    Pr(le reˊsultat est k)=Πkψ2.\operatorname{Pr}\bigl(\text{le résultat est $k$}\bigr) = \bigl\| \Pi_k \vert \psi \rangle \bigr\|^2.
  2. Pour quel que soit le résultat kk que la mesure produit, l'état de X\mathsf{X} devient

    ΠkψΠkψ.\frac{\Pi_k \vert\psi\rangle}{\bigl\|\Pi_k \vert\psi\rangle\bigr\|}.

On peut aussi choisir des résultats autres que {0,,m1}\{0,\ldots,m-1\} pour les mesures projectives si on le souhaite. Plus généralement, pour tout ensemble fini et non vide Σ,\Sigma, si on dispose d'une collection de matrices de projection

{Πa:aΣ}\{\Pi_a:a\in\Sigma\}

qui satisfait la condition

aΣΠa=I,\sum_{a\in\Sigma} \Pi_a = \mathbb{I},

alors cette collection décrit une mesure projective dont les résultats possibles coïncident avec l'ensemble Σ,\Sigma, les règles étant les mêmes qu'avant :

  1. Pour chaque aΣ,a\in\Sigma, le résultat de la mesure est aa avec une probabilité égale à

    Pr(le reˊsultat est a)=Πaψ2.\operatorname{Pr}\bigl(\text{le résultat est $a$}\bigr) = \bigl\| \Pi_a \vert \psi \rangle \bigr\|^2.
  2. Pour quel que soit le résultat aa que la mesure produit, l'état de X\mathsf{X} devient

    ΠaψΠaψ.\frac{\Pi_a \vert\psi\rangle}{\bigl\|\Pi_a \vert\psi\rangle\bigr\|}.

Par exemple, les mesures dans la base standard sont équivalentes à des mesures projectives, où Σ\Sigma est l'ensemble des états classiques du système X\mathsf{X} dont on parle et notre ensemble de matrices de projection est {aa:aΣ}.\{\vert a\rangle\langle a\vert:a\in\Sigma\}.

Un autre exemple de mesure projective, cette fois sur deux qubits (X,Y),(\mathsf{X},\mathsf{Y}), est donné par l'ensemble {Π0,Π1},\{\Pi_0,\Pi_1\},

Π0=ϕ+ϕ++ϕϕ+ψ+ψ+etΠ1=ψψ.\Pi_0 = \vert \phi^+\rangle\langle \phi^+ \vert + \vert \phi^-\rangle\langle \phi^- \vert + \vert \psi^+\rangle\langle \psi^+ \vert \quad\text{et}\quad \Pi_1 = \vert\psi^-\rangle\langle\psi^-\vert.

Si on a plusieurs systèmes qui sont conjointement dans un état quantique et qu'une mesure projective est effectuée sur un seul de ces systèmes, l'action est similaire à ce qu'on avait pour les mesures dans la base standard — et en fait, on peut maintenant décrire cette action en termes bien plus simples qu'auparavant.

Pour être précis, supposons qu'on ait deux systèmes (X,Y)(\mathsf{X},\mathsf{Y}) dans un état quantique ψ,\vert\psi\rangle, et qu'une mesure projective décrite par une collection {Πa:aΣ}\{\Pi_a : a\in\Sigma\} soit effectuée sur le système X,\mathsf{X}, tandis que rien n'est fait sur Y.\mathsf{Y}. Cela est alors équivalent à effectuer la mesure projective décrite par la collection

{ΠaI:aΣ}\bigl\{ \Pi_a \otimes \mathbb{I} \,:\, a\in\Sigma\bigr\}

sur le système joint (X,Y).(\mathsf{X},\mathsf{Y}). Chaque résultat de mesure aa se produit avec probabilité

(ΠaI)ψ2,\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|^2,

et conditionnellement au résultat aa, l'état du système joint (X,Y)(\mathsf{X},\mathsf{Y}) devient

(ΠaI)ψ(ΠaI)ψ.\frac{(\Pi_a \otimes \mathbb{I})\vert \psi\rangle}{\bigl\| (\Pi_a \otimes \mathbb{I})\vert \psi\rangle \bigr\|}.

Implémenter des mesures projectives

Des mesures projectives arbitraires peuvent être implémentées à l'aide d'opérations unitaires, de mesures dans la base standard, et d'un système de travail supplémentaire, comme on va l'expliquer maintenant.

Supposons que X\mathsf{X} est un système et que {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} est une mesure projective sur X.\mathsf{X}. On peut facilement généraliser cette discussion à des mesures projectives ayant différents ensembles de résultats, mais par souci de commodité et de simplicité, on suppose que l'ensemble des résultats possibles pour notre mesure est {0,,m1}.\{0,\ldots,m-1\}.

Notons explicitement que mm n'est pas nécessairement égal au nombre d'états classiques de X\mathsf{X} — on note nn le nombre d'états classiques de X,\mathsf{X}, ce qui signifie que chaque matrice Πk\Pi_k est une matrice de projection n×n.n\times n.

Comme on suppose que {Π0,Πm1}\{\Pi_0\ldots,\Pi_{m-1}\} représente une mesure projective, il est nécessairement vrai que

k=0m1Πk=In.\sum_{k = 0}^{m-1} \Pi_k = \mathbb{I}_n.

Notre objectif est de réaliser un processus ayant le même effet que d'effectuer cette mesure projective sur X,\mathsf{X}, mais en n'utilisant que des opérations unitaires et des mesures dans la base standard.

On va faire appel à un système de travail supplémentaire Y\mathsf{Y} pour cela, et plus précisément on prend l'ensemble des états classiques de Y\mathsf{Y} comme étant {0,,m1},\{0,\ldots,m-1\}, qui est le même que l'ensemble des résultats de la mesure projective. L'idée est d'effectuer une mesure dans la base standard sur Y,\mathsf{Y}, et d'interpréter le résultat de cette mesure comme étant équivalent au résultat de la mesure projective sur X.\mathsf{X}. On doit supposer que Y\mathsf{Y} est initialisé dans un état fixe, qu'on choisit d'être 0.\vert 0\rangle. (Tout autre choix d'état quantique fixe pourrait être utilisé, mais choisir 0\vert 0\rangle simplifie considérablement l'explication qui suit.)

Bien sûr, pour qu'une mesure dans la base standard de Y\mathsf{Y} nous donne des informations sur X,\mathsf{X}, on devra laisser X\mathsf{X} et Y\mathsf{Y} interagir d'une façon ou d'une autre avant de mesurer Y,\mathsf{Y}, en effectuant une opération unitaire sur le système (Y,X).(\mathsf{Y},\mathsf{X}). Considérons d'abord cette matrice :

M=k=0m1k0Πk.M = \sum_{k = 0}^{m-1} \vert k \rangle \langle 0 \vert \otimes \Pi_k.

Exprimée explicitement comme une matrice par blocs, qui est essentiellement une matrice de matrices qu'on interprète comme une seule matrice plus grande, MM ressemble à ceci :

M=(Π000Π100Πm100).M = \begin{pmatrix} \Pi_0 & 0 & \cdots & 0\\[1mm] \Pi_1 & 0 & \cdots & 0\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & 0 & \cdots & 0 \end{pmatrix}.

Ici, chaque 00 représente une matrice n×nn\times n entièrement remplie de zéros, de sorte que la matrice entière MM est une matrice nm×nm.nm\times nm.

Or, MM n'est certainement pas une matrice unitaire (sauf si m=1,m=1, auquel cas Π0=I,\Pi_0 = \mathbb{I}, ce qui donne M=IM = \mathbb{I} dans ce cas trivial) car les matrices unitaires ne peuvent pas avoir de colonnes (ou de lignes) entièrement nulles ; les matrices unitaires ont des colonnes qui forment des bases orthonormales, et le vecteur nul n'est pas un vecteur unitaire.

Cependant, il est vrai que les nn premières colonnes de MM sont orthonormales, et cela découle de l'hypothèse que {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} est une mesure. Pour vérifier cette affirmation, remarquons que pour chaque j{0,,n1},j\in\{0,\ldots,n-1\}, le vecteur formé par la colonne numéro jj de MM est le suivant :

ψj=M0,j=k=0m1kΠkj.\vert \psi_j\rangle = M \vert 0, j\rangle = \sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert j\rangle.

Notons qu'ici on numérote les colonnes en commençant par la colonne 0.0. Le produit scalaire de la colonne ii avec la colonne jj pour i,j{0,,n1}i,j\in\{0,\ldots,n-1\} donne

ψiψj=(k=0m1kΠki)(l=0m1lΠlj)=k=0m1l=0m1kliΠkΠlj=k=0m1iΠkΠkj=k=0m1iΠkj=iIj={1i=j0ij,\begin{aligned} \langle \psi_i \vert \psi_j \rangle & = \biggl(\sum_{k = 0}^{m-1} \vert k \rangle \otimes \Pi_k \vert i\rangle\biggr)^{\dagger} \biggl(\sum_{l = 0}^{m-1} \vert l \rangle \otimes \Pi_l \vert j\rangle\biggr) \\ & = \sum_{k = 0}^{m-1} \sum_{l = 0}^{m-1} \langle k \vert l \rangle \langle i \vert \Pi_k \Pi_l \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \Pi_k \vert j\rangle\\ & = \sum_{k = 0}^{m-1} \langle i \vert \Pi_k \vert j\rangle\\ & = \langle i \vert \mathbb{I} \vert j \rangle\\ & = \begin{cases} 1 & i = j\\ 0 & i\neq j, \end{cases} \end{aligned}

ce qui est bien ce qu'on voulait montrer.

Ainsi, comme les nn premières colonnes de la matrice MM sont orthonormales, on peut remplacer toutes les entrées nulles restantes par d'autres valeurs complexes de sorte que la matrice entière soit unitaire.

U=(Π0??Π1??Πm1??)U = \begin{pmatrix} \Pi_0 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \Pi_1 & \fbox{?} & \cdots & \fbox{?}\\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] \Pi_{m-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Si on nous donne les matrices Π0,,Πm1,\Pi_0,\ldots,\Pi_{m-1}, on peut calculer les matrices appropriées pour remplir les blocs marqués ?\fbox{?} dans l'équation — en utilisant le procédé de Gram–Schmidt — mais peu importe ce que sont précisément ces matrices pour les besoins de cette discussion.

Enfin, on peut décrire le processus de mesure : on effectue d'abord UU sur le système joint (Y,X)(\mathsf{Y},\mathsf{X}) puis on mesure Y\mathsf{Y} avec une mesure dans la base standard. Pour un état arbitraire ϕ\vert \phi \rangle de X,\mathsf{X}, on obtient l'état

U(0ϕ)=M(0ϕ)=k=0m1kΠkϕ,U \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = M \bigl( \vert 0\rangle \vert \phi\rangle\bigr) = \sum_{k = 0}^{m-1} \vert k\rangle \otimes \Pi_k \vert\phi\rangle,

où la première égalité découle du fait que UU et MM coïncident sur leurs nn premières colonnes. Lorsqu'on effectue une mesure projective sur Y,\mathsf{Y}, on obtient chaque résultat kk avec probabilité

Πkϕ2,\bigl\| \Pi_k \vert \phi\rangle \bigr\|^2,

auquel cas l'état de (Y,X)(\mathsf{Y},\mathsf{X}) devient

kΠkϕΠkϕ.\vert k\rangle \otimes \frac{\Pi_k \vert \phi\rangle}{\bigl\| \Pi_k \vert \phi\rangle \bigr\|}.

Ainsi, Y\mathsf{Y} stocke une copie du résultat de la mesure et X\mathsf{X} évolue exactement comme il l'aurait fait si la mesure projective décrite par {Π0,,Πm1}\{\Pi_0,\ldots,\Pi_{m-1}\} avait été effectuée directement sur X.\mathsf{X}.