Aller au contenu principal

Équivalence des représentations

Nous avons maintenant abordé trois façons différentes de représenter les canaux en termes mathématiques, à savoir les représentations de Stinespring, les représentations de Kraus et les représentations de Choi. Nous avons aussi la définition d'un canal, qui stipule qu'un canal est une application linéaire qui transforme toujours des matrices densité en matrices densité, même lorsque le canal est appliqué à une seule partie d'un système composé. Le reste de cette leçon est consacré à une preuve mathématique montrant que les trois représentations sont équivalentes et capturent précisément la définition.

Vue d'ensemble de la preuve

Notre objectif est d'établir l'équivalence d'un ensemble de quatre énoncés, et nous allons commencer par les écrire avec précision. Les quatre énoncés suivent les mêmes conventions utilisées tout au long de la leçon, à savoir que Φ\Phi est une application linéaire de matrices carrées vers des matrices carrées, les lignes et colonnes des matrices d'entrée ont été mises en correspondance avec les états classiques d'un système X\mathsf{X} (le système d'entrée), et les lignes et colonnes des matrices de sortie ont été mises en correspondance avec les états classiques d'un système Y\mathsf{Y} (le système de sortie).

  1. Φ\Phi est un canal de X\mathsf{X} vers Y.\mathsf{Y}. C'est-à-dire que Φ\Phi transforme toujours des matrices densité en matrices densité, même lorsqu'il agit sur une partie d'un système composé plus grand.

  2. La matrice de Choi J(Φ)J(\Phi) est semi-définie positive et satisfait la condition TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

  3. Il existe une représentation de Kraus pour Φ.\Phi. C'est-à-dire qu'il existe des matrices A0,,AN1A_0,\ldots,A_{N-1} pour lesquelles l'équation Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} est vraie pour toute entrée ρ,\rho, et qui satisfont la condition k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

  4. Il existe une représentation de Stinespring pour Φ.\Phi. C'est-à-dire qu'il existe des systèmes W\mathsf{W} et G\mathsf{G} pour lesquels les paires (W,X)(\mathsf{W},\mathsf{X}) et (G,Y)(\mathsf{G},\mathsf{Y}) ont le même nombre d'états classiques, ainsi qu'une matrice unitaire UU représentant une opération unitaire de (W,X)(\mathsf{W},\mathsf{X}) vers (G,Y),(\mathsf{G},\mathsf{Y}), telle que Φ(ρ)=TrG(U(00ρ)U).\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}}\bigl( U (\vert 0\rangle\langle 0 \vert \otimes \rho) U^{\dagger} \bigr).

La preuve fonctionne en établissant un cycle d'implications : le premier énoncé de notre liste implique le deuxième, le deuxième implique le troisième, le troisième implique le quatrième, et le quatrième énoncé implique le premier. Cela établit que les quatre énoncés sont équivalents — c'est-à-dire qu'ils sont soit tous vrais, soit tous faux pour un choix donné de Φ\Phi — car les implications peuvent être suivies transitivement d'un énoncé quelconque à un autre.

Il s'agit d'une stratégie courante pour prouver qu'un ensemble d'énoncés sont équivalents, et une astuce utile dans ce contexte est de mettre en place les implications de façon à les rendre aussi faciles à prouver que possible. C'est bien le cas ici — et en fait nous avons déjà rencontré deux des quatre implications.

Des canaux aux matrices de Choi

En se référant aux énoncés listés ci-dessus par leurs numéros, la première implication à prouver est 1 \Rightarrow 2. Cette implication a déjà été abordée dans le contexte de l'état de Choi d'un canal. Voici un résumé des détails mathématiques.

Supposons que l'ensemble des états classiques du système d'entrée X\mathsf{X} est Σ\Sigma et posons n=Σ.n = \vert\Sigma\vert. Considère la situation dans laquelle Φ\Phi est appliqué à la deuxième de deux copies de X\mathsf{X} dans l'état

ψ=1naΣaa,\vert \psi \rangle = \frac{1}{\sqrt{n}} \sum_{a \in \Sigma} \vert a \rangle \otimes \vert a \rangle,

qui, en tant que matrice densité, est donnée par

ψψ=1na,bΣabab.\vert \psi \rangle \langle \psi \vert = \frac{1}{n} \sum_{a,b \in \Sigma} \vert a\rangle\langle b \vert \otimes \vert a\rangle\langle b \vert.

Le résultat peut s'écrire comme

(IdΦ)(ψψ)=1na,b=0n1abΦ(ab)=J(Φ)n,(\operatorname{Id}\otimes \,\Phi) \bigl(\vert \psi \rangle \langle \psi \vert\bigr) = \frac{1}{n} \sum_{a,b = 0}^{n-1} \vert a\rangle\langle b \vert \otimes \Phi\bigl(\vert a\rangle\langle b \vert\bigr) = \frac{J(\Phi)}{n},

et par hypothèse que Φ\Phi est un canal, cela doit être une matrice densité. Comme toute matrice densité, elle doit être semi-définie positive, et multiplier une matrice semi-définie positive par un nombre réel positif donne une autre matrice semi-définie positive, donc J(Φ)0.J(\Phi) \geq 0.

De plus, sous l'hypothèse que Φ\Phi est un canal, il doit conserver la trace, et donc

TrY(J(Φ))=a,bΣTr(Φ(ab))ab=a,bΣTr(ab)ab=aΣaa=IX.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\Phi( \vert a\rangle\langle b \vert)\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert a\rangle\langle b \vert\bigr) \, \vert a\rangle\langle b \vert\\ & = \sum_{a\in\Sigma} \vert a\rangle\langle a \vert\\ & = \mathbb{I}_{\mathsf{X}}. \end{aligned}

Des représentations de Choi aux représentations de Kraus

La deuxième implication, en se référant toujours aux énoncés de notre liste par leurs numéros, est 2 \Rightarrow 3. Pour être clair, on ignore les autres énoncés — et en particulier on ne peut pas supposer que Φ\Phi est un canal. Tout ce dont on dispose est que Φ\Phi est une application linéaire dont la représentation de Choi satisfait J(Φ)0J(\Phi) \geq 0 et TrY(J(Φ))=IX.\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}.

C'est cependant tout ce dont on a besoin pour conclure que Φ\Phi admet une représentation de Kraus

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

pour laquelle la condition

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

est satisfaite.

On commence par l'hypothèse fondamentale que J(Φ)J(\Phi) est semi-définie positive, ce qui signifie qu'il est possible de l'exprimer sous la forme

J(Φ)=k=0N1ψkψk(1)J(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \tag{1}

pour un certain choix de vecteurs ψ0,,ψN1.\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle. En général, il y aura plusieurs façons de faire cela — et cela reflète directement la liberté qu'on a de choisir une représentation de Kraus pour Φ.\Phi.

Une façon d'obtenir une telle expression est d'utiliser d'abord le théorème spectral pour écrire

J(Φ)=k=0N1λkγkγk,J(\Phi) = \sum_{k = 0}^{N-1} \lambda_k \vert \gamma_k \rangle \langle \gamma_k \vert,

λ0,,λN1\lambda_0,\ldots,\lambda_{N-1} sont les valeurs propres de J(Φ)J(\Phi) (qui sont nécessairement des nombres réels non négatifs car J(Φ)J(\Phi) est semi-définie positive) et γ0,,γN1\vert\gamma_0\rangle,\ldots,\vert\gamma_{N-1}\rangle sont des vecteurs propres unitaires correspondant aux valeurs propres λ0,,λN1.\lambda_0,\ldots,\lambda_{N-1}.

Remarque que, même s'il n'y a pas de liberté dans le choix des valeurs propres (sauf pour leur ordre), il y a de la liberté dans le choix des vecteurs propres, en particulier lorsque des valeurs propres ont une multiplicité supérieure à un. Donc, ce n'est pas une expression unique de J(Φ)J(\Phi) — on suppose simplement qu'on en a une telle expression. Quoi qu'il en soit, comme les valeurs propres sont des réels non négatifs, ils ont des racines carrées non négatives, et on peut donc choisir

ψk=λkγk\vert\psi_k\rangle = \sqrt{\lambda_k} \vert \gamma_k\rangle

pour chaque k=0,,N1k = 0,\ldots,N-1 afin d'obtenir une expression de la forme (1).(1).

Il n'est cependant pas indispensable que l'expression (1)(1) provienne d'une décomposition spectrale de cette façon, et en particulier les vecteurs ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle n'ont pas besoin d'être orthogonaux en général. Il est notable, cependant, qu'on peut choisir ces vecteurs orthogonaux si on le souhaite — et de plus on n'a jamais besoin que NN soit supérieur à nmnm (en rappelant que nn et mm désignent les nombres d'états classiques de X\mathsf{X} et Y,\mathsf{Y}, respectivement).

Ensuite, chacun des vecteurs ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle peut être décomposé comme

ψk=aΣaϕk,a,\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle,

où les vecteurs {ϕk,a}\{ \vert \phi_{k,a}\rangle \} ont des entrées correspondant aux états classiques de Y\mathsf{Y} et peuvent être déterminés explicitement par l'équation

ϕk,a=(aIY)ψk\vert \phi_{k,a}\rangle = \bigl( \langle a \vert \otimes \mathbb{I}_{\mathsf{Y}}\bigr) \vert \psi_k\rangle

pour chaque aΣa\in\Sigma et k=0,,N1.k=0,\ldots,N-1. Bien que ψ0,,ψN1\vert\psi_0\rangle,\ldots,\vert\psi_{N-1}\rangle ne soient pas nécessairement des vecteurs unitaires, il s'agit du même processus qu'on utiliserait pour analyser ce qui se passerait si une mesure dans la base standard était effectuée sur le système X\mathsf{X} pour un vecteur d'état quantique de la paire (X,Y).(\mathsf{X},\mathsf{Y}).

Et maintenant on arrive à l'astuce qui fait fonctionner cette partie de la preuve. On définit nos matrices de Kraus A0,,AN1A_0,\ldots,A_{N-1} selon l'équation suivante.

Ak=aΣϕk,aaA_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

On peut penser à cette formule de façon purement symbolique : a\vert a\rangle est effectivement retourné pour former a\langle a\vert et déplacé vers la droite, formant une matrice. Pour les besoins de la vérification de la preuve, la formule est tout ce dont on a besoin.

Il existe cependant une relation simple et intuitive entre le vecteur ψk\vert\psi_k\rangle et la matrice Ak,A_k, à savoir qu'en vectorisant AkA_k on obtient ψk.\vert\psi_k\rangle. Ce que signifie vectoriser AkA_k, c'est empiler les colonnes les unes sur les autres (avec la colonne la plus à gauche en haut jusqu'à la plus à droite en bas), pour former un vecteur. Par exemple, si X\mathsf{X} et Y\mathsf{Y} sont tous deux des qubits, et pour un certain choix de kk on a

ψk=α0000+α0101+α1010+α1111=(α00α01α10α11),\begin{aligned} \vert\psi_k\rangle & = \alpha_{00} \vert 0\rangle \otimes \vert 0\rangle + \alpha_{01} \vert 0\rangle \otimes \vert 1\rangle + \alpha_{10} \vert 1\rangle \otimes \vert 0\rangle + \alpha_{11} \vert 1\rangle \otimes \vert 1\rangle\\[2mm] & = \begin{pmatrix} \alpha_{00} \\[1mm] \alpha_{01} \\[1mm] \alpha_{10} \\[1mm] \alpha_{11} \end{pmatrix}, \end{aligned}

alors

Ak=α0000+α0110+α1001+α1111=(α00α10α01α11).\begin{aligned} A_k & = \alpha_{00} \vert 0\rangle\langle 0\vert + \alpha_{01} \vert 1\rangle\langle 0\vert + \alpha_{10} \vert 0\rangle\langle 1\vert + \alpha_{11} \vert 1\rangle\langle 1\vert\\[2mm] & = \begin{pmatrix} \alpha_{00} & \alpha_{10}\\[1mm] \alpha_{01} & \alpha_{11} \end{pmatrix}. \end{aligned}

(Attention : parfois la vectorisation d'une matrice est définie de façon légèrement différente, à savoir que les lignes de la matrice sont transposées et empilées les unes sur les autres pour former un vecteur colonne.)

On va d'abord vérifier que ce choix de matrices de Kraus décrit correctement l'application Φ,\Phi, puis on vérifiera l'autre condition requise. Pour clarifier les choses, définissons une nouvelle application Ψ\Psi comme suit.

Ψ(ρ)=k=0N1AkρAk\Psi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

Notre objectif est donc de vérifier que Ψ=Φ.\Psi = \Phi.

La façon dont on peut faire cela est de comparer les représentations de Choi de ces applications. Les représentations de Choi sont fidèles, donc Ψ=Φ\Psi = \Phi si et seulement si J(Φ)=J(Ψ).J(\Phi) = J(\Psi). À ce stade, on peut simplement calculer J(Ψ)J(\Psi) en utilisant les expressions

ψk=aΣaϕk,aetAk=aΣϕk,aa\vert\psi_k\rangle = \sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a}\rangle \quad\text{et}\quad A_k = \sum_{a\in\Sigma} \vert \phi_{k,a}\rangle\langle a \vert

avec la bilinéarité des produits tensoriels pour simplifier.

J(Ψ)=a,bΣabk=0N1AkabAk=a,bΣabk=0N1ϕk,aϕk,b=k=0N1(aΣaϕk,a)(bΣbϕk,b)=k=0N1ψkψk=J(Φ)\begin{aligned} J(\Psi) & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} A_k \vert a\rangle \langle b \vert A_k^{\dagger}\\[2mm] & = \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \sum_{k = 0}^{N-1} \vert \phi_{k,a} \rangle \langle \phi_{k,b} \vert \\[2mm] & = \sum_{k = 0}^{N-1} \biggl(\sum_{a\in\Sigma} \vert a\rangle \otimes \vert \phi_{k,a} \rangle\biggr) \biggl(\sum_{b\in\Sigma} \langle b\vert \otimes \langle \phi_{k,b} \vert\biggr)\\[2mm] & = \sum_{k = 0}^{N-1} \vert \psi_k \rangle \langle \psi_k \vert \\[2mm] & = J(\Phi) \end{aligned}

Donc nos matrices de Kraus décrivent correctement Φ.\Phi.

Il reste à vérifier la condition requise sur A0,,AN1,A_0,\ldots,A_{N-1}, qui s'avère être équivalente à l'hypothèse TrY(J(Φ))=IX\operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) = \mathbb{I}_{\mathsf{X}} (que nous n'avons pas encore utilisée). Ce qu'on va montrer est cette relation :

(k=0N1AkAk)T=TrY(J(Φ))(2)\Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr)^{T} = \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) \tag{2}

(où l'on désigne la transposée matricielle du membre de gauche).

En partant du membre de gauche, on peut d'abord observer que

(k=0N1AkAk)T=(k=0N1a,bΣbϕk,bϕk,aa)T=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T & = \Biggl(\sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert b \rangle \langle \phi_{k,b} \vert \phi_{k,a} \rangle \langle a \vert\Biggr)^T\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

La dernière égalité découle du fait que la transposée est linéaire et envoie ba\vert b\rangle\langle a \vert sur ab.\vert a\rangle\langle b \vert.

En passant au membre de droite de notre équation, on a

J(Φ)=k=0N1ψkψk=k=0N1a,bΣabϕk,aϕk,bJ(\Phi) = \sum_{k = 0}^{N-1} \vert \psi_k\rangle\langle\psi_k \vert = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \vert a\rangle \langle b \vert \otimes \vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert

et donc

TrY(J(Φ))=k=0N1a,bΣTr(ϕk,aϕk,b)ab=k=0N1a,bΣϕk,bϕk,aab.\begin{aligned} \operatorname{Tr}_{\mathsf{Y}}(J(\Phi)) & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \operatorname{Tr}\bigl(\vert\phi_{k,a}\rangle\langle \phi_{k,b} \vert \bigr)\, \vert a\rangle \langle b \vert\\ & = \sum_{k = 0}^{N-1} \sum_{a,b\in\Sigma} \langle \phi_{k,b} \vert \phi_{k,a} \rangle \vert a \rangle \langle b \vert. \end{aligned}

On a obtenu le même résultat, et donc l'équation (2)(2) a été vérifiée. Il s'ensuit, par l'hypothèse TrY(J(Φ))=IX,\operatorname{Tr}_{\mathsf{Y}} (J(\Phi)) = \mathbb{I}_{\mathsf{X}}, que

(k=0N1AkAk)T=IX\Biggl(\sum_{k = 0}^{N-1} A_k^{\dagger} A_k\Biggr)^T = \mathbb{I}_{\mathsf{X}}

et donc, comme la matrice identité est sa propre transposée, la condition requise est vraie.

k=0N1AkAk=IX\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

Des représentations de Kraus aux représentations de Stinespring

Supposons maintenant qu'on dispose d'une représentation de Kraus d'une application

Φ(ρ)=k=0N1AkρAk\Phi(\rho) = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger}

pour laquelle

k=0N1AkAk=IX.\sum_{k = 0}^{N-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}.

Notre objectif est de trouver une représentation de Stinespring pour Φ.\Phi.

Ce qu'on voudrait faire d'abord, c'est choisir le système poubelle G\mathsf{G} de façon à ce que son ensemble d'états classiques soit {0,,N1}.\{0,\ldots,N-1\}. Pour que (W,X)(\mathsf{W},\mathsf{X}) et (G,Y)(\mathsf{G},\mathsf{Y}) aient la même taille, il faut cependant que nn divise mN,m N, ce qui nous permet de prendre W\mathsf{W} avec les états classiques {0,,d1}\{0,\ldots,d-1\} pour d=mN/n.d = mN/n.

Pour un choix arbitraire de n,n, m,m, et N,N, il est possible que mN/nmN/n ne soit pas un entier, donc on n'est pas vraiment libre de choisir G\mathsf{G} de sorte que son ensemble d'états classiques soit {0,,N1}.\{0,\ldots,N-1\}. Mais on peut toujours augmenter NN arbitrairement dans la représentation de Kraus en choisissant Ak=0A_k = 0 pour autant de valeurs supplémentaires de kk que l'on souhaite.

Ainsi, si on suppose implicitement que mN/nmN/n est un entier, ce qui est équivalent à NN étant un multiple de m/gcd(n,m),m/\operatorname{gcd}(n,m), alors on est libre de prendre G\mathsf{G} de sorte que son ensemble d'états classiques soit {0,,N1}.\{0,\ldots,N-1\}. En particulier, si N=nm,N = nm, on peut prendre W\mathsf{W} avec m2m^2 états classiques.

Il reste à choisir U,U, et on va le faire en suivant le schéma ci-dessous.

U=(A0??A1??AN1??)U = \begin{pmatrix} A_{0} & \fbox{?} & \cdots & \fbox{?} \\[1mm] A_{1} & \fbox{?} & \cdots & \fbox{?} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] A_{N-1} & \fbox{?} & \cdots & \fbox{?} \end{pmatrix}

Pour être clair, ce schéma est censé représenter une matrice par blocs, où chaque bloc (y compris A0,,AN1A_{0},\ldots,A_{N-1} ainsi que les blocs marqués d'un point d'interrogation) a mm lignes et nn colonnes. Il y a NN rangées de blocs, ce qui signifie qu'il y a d=mN/nd = mN/n colonnes de blocs.

Exprimé en termes plus formulaires, on définira UU comme

U=k=0N1j=0d1kjMk,j=(M0,0M0,1M0,d1M1,0M1,1M1,d1MN1,0MN1,1MN1,d1)\begin{aligned} U & = \sum_{k=0}^{N-1} \sum_{j=0}^{d-1} \vert k \rangle \langle j \vert \otimes M_{k,j} \\[4mm] & = \begin{pmatrix} M_{0,0} & M_{0,1} & \cdots & M_{0,d-1} \\[1mm] M_{1,0} & M_{1,1} & \cdots & M_{1,d-1} \\[1mm] \vdots & \vdots & \ddots & \vdots\\[1mm] M_{N-1,0} & M_{N-1,1} & \cdots & M_{N-1,d-1} \end{pmatrix} \end{aligned}

où chaque matrice Mk,jM_{k,j} a mm lignes et nn colonnes, et en particulier on prendra Mk,0=AkM_{k,0} = A_k pour k=0,,N1.k = 0,\ldots,N-1.

Cela doit être une matrice unitaire, et les blocs marqués d'un point d'interrogation, soit Mk,jM_{k,j} pour j>0,j>0, doivent être choisis en tenant compte de cela — mais en dehors de permettre à UU d'être unitaire, les blocs marqués d'un point d'interrogation n'auront aucune pertinence pour la preuve.

Laissons de côté un instant la préoccupation que UU soit unitaire et concentrons-nous sur l'expression

TrG(U(00Wρ)U)\operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

qui décrit l'état de sortie de Y\mathsf{Y} étant donné l'état d'entrée ρ\rho de X\mathsf{X} pour notre représentation de Stinespring. On peut également écrire

U(00ρ)U=U(0IW)ρ(0IW)U,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) \rho (\langle 0\vert \otimes \mathbb{I}_{\mathsf{W}}) U^{\dagger},

et on voit d'après notre choix de UU que

U(0IW)=k=0N1kAk.U(\vert 0\rangle\otimes\mathbb{I}_{\mathsf{W}}) = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k.

On trouve donc que

U(00ρ)U=j,k=0N1kjAkρAj,U(\vert 0\rangle\langle 0 \vert \otimes \rho)U^{\dagger} = \sum_{j,k = 0}^{N-1} \vert k\rangle\langle j\vert \otimes A_k \rho A_j^{\dagger},

et donc

TrG(U(00Wρ)U)=j,k=0N1Tr(kj)AkρAj=k=0N1AkρAk=Φ(ρ).\begin{aligned} \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho) U^{\dagger}\bigr) & = \sum_{j,k = 0}^{N-1} \operatorname{Tr}\bigl(\vert k\rangle\langle j\vert\bigr) \, A_k \rho A_j^{\dagger} \\ & = \sum_{k = 0}^{N-1} A_k \rho A_k^{\dagger} \\ & = \Phi(\rho). \end{aligned}

On dispose donc d'une représentation correcte pour l'application Φ,\Phi, et il reste à vérifier qu'on peut choisir UU unitaire.

Considérons les nn premières colonnes de UU lorsqu'il est choisi selon le schéma ci-dessus. En ne prenant que ces colonnes, on a une matrice par blocs

(A0A1AN1).\begin{pmatrix} A_0\\[1mm] A_1\\[1mm] \vdots\\[1mm] A_{N-1} \end{pmatrix}.

Il y a nn colonnes, une pour chaque état classique de X,\mathsf{X}, et comme vecteurs nommons les colonnes γa\vert \gamma_a \rangle pour chaque aΣ.a\in\Sigma. Voici une formule pour ces vecteurs qui peut être mise en correspondance avec la représentation par blocs ci-dessus.

γa=k=0N1kAka\vert \gamma_a\rangle = \sum_{k = 0}^{N-1} \vert k\rangle \otimes A_k \vert a \rangle

Calculons maintenant le produit interne entre deux quelconques de ces vecteurs, c'est-à-dire ceux correspondant à un choix quelconque de a,bΣ.a,b\in\Sigma.

γaγb=j,k=0N1kjaAkAjb=a(k=0N1AkAk)b\langle \gamma_a \vert \gamma_b \rangle = \sum_{j,k = 0}^{N-1} \langle k \vert j \rangle \, \langle a \vert A_k^{\dagger} A_j \vert b\rangle = \langle a \vert \Biggl( \sum_{k = 0}^{N-1} A_k^{\dagger} A_k \Biggr) \vert b\rangle

Par l'hypothèse

k=0m1AkAk=IX\sum_{k = 0}^{m-1} A_k^{\dagger} A_k = \mathbb{I}_{\mathsf{X}}

on conclut que les nn vecteurs colonnes {γa:aΣ}\{\vert\gamma_a\rangle\,:\,a\in\Sigma\} forment un ensemble orthonormé :

γaγb={1a=b0ab\langle \gamma_a \vert \gamma_b \rangle = \begin{cases} 1 & a = b\\ 0 & a\neq b \end{cases}

pour tous a,bΣ.a,b\in\Sigma.

Cela implique qu'il est possible de compléter les colonnes restantes de UU pour qu'il devienne une matrice unitaire. En particulier, le procédé d'orthogonalisation de Gram-Schmidt peut être utilisé pour sélectionner les colonnes restantes. Quelque chose de similaire a été fait dans la leçon Circuits quantiques de « Notions de base de l'information quantique » dans le contexte du problème de discrimination d'états.

Des représentations de Stinespring à la définition

La dernière implication est 4 \Rightarrow 1. C'est-à-dire qu'on suppose avoir une opération unitaire transformant une paire de systèmes (W,X)(\mathsf{W},\mathsf{X}) en une paire (G,Y),(\mathsf{G},\mathsf{Y}), et notre objectif est de conclure que l'application

Φ(ρ)=TrG(U(00Wρ)U)\Phi(\rho) = \operatorname{Tr}_{\mathsf{G}} \bigl( U (\vert 0\rangle \langle 0 \vert_{\mathsf{W}} \otimes \rho)U^{\dagger}\bigr)

est un canal valide. D'après sa forme, il est évident que Φ\Phi est linéaire, et il reste à vérifier qu'elle transforme toujours des matrices densité en matrices densité. C'est assez direct et on a déjà abordé les points clés.

En particulier, si on part d'une matrice densité σ\sigma d'un système composé (Z,X),(\mathsf{Z},\mathsf{X}), et qu'on y ajoute un système de travail supplémentaire W,\mathsf{W}, on obtiendra certainement une matrice densité. Si on réordonne les systèmes (W,Z,X)(\mathsf{W},\mathsf{Z},\mathsf{X}) par commodité, on peut écrire cet état comme

00Wσ.\vert 0\rangle\langle 0\vert_{\mathsf{W}} \otimes \sigma.

On applique ensuite l'opération unitaire U,U, et comme on l'a déjà vu c'est un canal valide, et donc il envoie des matrices densité sur des matrices densité. Enfin, la trace partielle d'une matrice densité est une autre matrice densité.

Une autre façon de le dire est d'observer d'abord que chacune de ces opérations est un canal valide :

  1. Introduire un système de travail initialisé.
  2. Effectuer une opération unitaire.
  3. Tracer un système.

Et enfin, toute composition de canaux est un autre canal — ce qui est immédiat à partir de la définition, mais c'est aussi un fait intéressant à noter en soi.

Cela conclut la preuve de la dernière implication, et on a ainsi établi l'équivalence des quatre énoncés listés au début de la section.