Aller au contenu principal

Information classique

Comme dans la leçon précédente, nous allons commencer celle-ci par une discussion sur l'information classique. Une fois de plus, les descriptions probabiliste et quantique sont mathématiquement similaires, et comprendre comment les mathématiques fonctionnent dans le cadre familier de l'information classique est utile pour saisir pourquoi l'information quantique est décrite comme elle l'est.

États classiques via le produit cartésien

Nous allons partir d'un niveau très fondamental, en examinant les états classiques de systèmes multiples. Pour simplifier, nous commençons par discuter de deux systèmes, puis nous généralisons à plus de deux systèmes.

Pour être précis, soit X\mathsf{X} un système dont l'ensemble des états classiques est Σ,\Sigma, et soit Y\mathsf{Y} un second système dont l'ensemble des états classiques est Γ.\Gamma. Rappelons que, puisque nous avons qualifié ces ensembles d'ensembles d'états classiques, notre hypothèse est que Σ\Sigma et Γ\Gamma sont tous deux finis et non vides. Il est possible que Σ=Γ,\Sigma = \Gamma, mais ce n'est pas nécessairement le cas — et quoi qu'il en soit, il sera utile d'utiliser des noms différents pour désigner ces ensembles, dans un souci de clarté.

Imagine maintenant que les deux systèmes X\mathsf{X} et Y\mathsf{Y} sont placés côte à côte, avec X\mathsf{X} à gauche et Y\mathsf{Y} à droite. Si nous le souhaitons, nous pouvons considérer ces deux systèmes comme s'ils formaient un seul système, que nous pouvons noter (X,Y)(\mathsf{X},\mathsf{Y}) ou XY\mathsf{XY} selon notre préférence. Une question naturelle à se poser sur ce système composé (X,Y)(\mathsf{X},\mathsf{Y}) est : « Quels sont ses états classiques ? »

La réponse est que l'ensemble des états classiques de (X,Y)(\mathsf{X},\mathsf{Y}) est le produit cartésien de Σ\Sigma et de Γ,\Gamma, qui est l'ensemble défini par

Σ×Γ={(a,b):aΣ  et  bΓ}. \Sigma\times\Gamma = \bigl\{(a,b)\,:\,a\in\Sigma\;\text{et}\;b\in\Gamma\bigr\}.

En termes simples, le produit cartésien est précisément la notion mathématique qui capture l'idée de considérer ensemble un élément d'un ensemble et un élément d'un second ensemble, comme s'ils formaient un seul élément d'un seul ensemble. Dans le cas présent, dire que (X,Y)(\mathsf{X},\mathsf{Y}) est dans l'état classique (a,b)Σ×Γ(a,b)\in\Sigma\times\Gamma signifie que X\mathsf{X} est dans l'état classique aΣa\in\Sigma et Y\mathsf{Y} est dans l'état classique bΓb\in\Gamma ; et si l'état classique de X\mathsf{X} est aΣa\in\Sigma et l'état classique de Y\mathsf{Y} est bΓ,b\in\Gamma, alors l'état classique du système joint (X,Y)(\mathsf{X},\mathsf{Y}) est (a,b).(a,b).

Pour plus de deux systèmes, la situation se généralise de façon naturelle. Si l'on suppose que X1,,Xn\mathsf{X}_1,\ldots,\mathsf{X}_n sont des systèmes ayant respectivement les ensembles d'états classiques Σ1,,Σn,\Sigma_1,\ldots,\Sigma_n, pour tout entier positif n,n, l'ensemble des états classiques du nn-uplet (X1,,Xn),(\mathsf{X}_1,\ldots,\mathsf{X}_n), considéré comme un seul système joint, est le produit cartésien

Σ1××Σn={(a1,,an):a1Σ1,,anΣn}. \Sigma_1\times\cdots\times\Sigma_n = \bigl\{(a_1,\ldots,a_n)\,:\, a_1\in\Sigma_1,\:\ldots,\:a_n\in\Sigma_n\bigr\}.

Bien sûr, nous sommes libres d'utiliser les noms que nous voulons pour les systèmes, et de les ordonner comme bon nous semble. En particulier, si nous avons nn systèmes comme ci-dessus, nous pourrions choisir de les nommer X0,,Xn1\mathsf{X}_{0},\ldots,\mathsf{X}_{n-1} et de les disposer de droite à gauche, de sorte que le système joint devient (Xn1,,X0).(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0). En suivant le même schéma de nommage pour les états classiques et les ensembles d'états classiques associés, nous pourrions alors désigner un état classique

(an1,,a0)Σn1××Σ0(a_{n-1},\ldots,a_0) \in \Sigma_{n-1}\times \cdots \times \Sigma_0

de ce système composé. C'est d'ailleurs la convention d'ordre utilisée par Qiskit pour nommer plusieurs qubits. Nous reviendrons sur cette convention et sur la façon dont elle s'articule avec les circuits quantiques dans la prochaine leçon, mais nous allons l'utiliser dès maintenant pour nous y habituer.

Il est souvent pratique d'écrire un état classique de la forme (an1,,a0)(a_{n-1},\ldots,a_0) comme une chaîne de caractères an1a0a_{n-1}\cdots a_0 par souci de concision, en particulier dans la situation très courante où les ensembles d'états classiques Σ0,,Σn1\Sigma_0,\ldots,\Sigma_{n-1} sont associés à des ensembles de symboles ou de caractères. Dans ce contexte, le terme alphabet est couramment utilisé pour désigner les ensembles de symboles servant à former des chaînes, mais la définition mathématique d'un alphabet est exactement la même que celle d'un ensemble d'états classiques : c'est un ensemble fini et non vide.

Par exemple, supposons que X0,,X9\mathsf{X}_0,\ldots,\mathsf{X}_9 soient des bits, de sorte que les ensembles d'états classiques de ces systèmes sont tous identiques.

Σ0=Σ1==Σ9={0,1} \Sigma_0 = \Sigma_1 = \cdots = \Sigma_9 = \{0,1\}

Il y a alors 210=10242^{10} = 1024 états classiques du système joint (X9,,X0),(\mathsf{X}_9,\ldots,\mathsf{X}_0), qui sont les éléments de l'ensemble

Σ9×Σ8××Σ0={0,1}10. \Sigma_9\times\Sigma_8\times\cdots\times\Sigma_0 = \{0,1\}^{10}.

Écrits sous forme de chaînes, ces états classiques ressemblent à ceci :

000000000000000000010000000010000000001100000001001111111111 \begin{array}{c} 0000000000\\ 0000000001\\ 0000000010\\ 0000000011\\ 0000000100\\ \vdots\\[1mm] 1111111111 \end{array}

Pour l'état classique 0000000110,0000000110, par exemple, on voit que X1\mathsf{X}_1 et X2\mathsf{X}_2 sont dans l'état 1,1, tandis que tous les autres systèmes sont dans l'état 0.0.

États probabilistes

Rappelle-toi que dans la leçon précédente, un état probabiliste associe une probabilité à chaque état classique d'un système. Ainsi, un état probabiliste de plusieurs systèmes — considérés collectivement comme un seul système — associe une probabilité à chaque élément du produit cartésien des ensembles d'états classiques des systèmes individuels.

Par exemple, supposons que X\mathsf{X} et Y\mathsf{Y} soient tous deux des bits, de sorte que leurs ensembles d'états classiques respectifs sont Σ={0,1}\Sigma = \{0,1\} et Γ={0,1}.\Gamma = \{0,1\}. Voici un état probabiliste de la paire (X,Y):(\mathsf{X},\mathsf{Y}) :

Pr((X,Y)=(0,0))=1/2Pr((X,Y)=(0,1))=0Pr((X,Y)=(1,0))=0Pr((X,Y)=(1,1))=1/2 \begin{aligned} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,0)\bigr) & = 1/2 \\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (0,1)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,0)\bigr) & = 0\\[2mm] \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (1,1)\bigr) & = 1/2 \end{aligned}

Cet état probabiliste est celui où X\mathsf{X} et Y\mathsf{Y} sont tous deux des bits aléatoires — chacun vaut 00 avec une probabilité de 1/21/2 et 11 avec une probabilité de 1/21/2 — mais les états classiques des deux bits sont toujours identiques. C'est un exemple de corrélation entre ces systèmes.

Ordre des ensembles d'états du produit cartésien

Les états probabilistes de systèmes peuvent être représentés par des vecteurs de probabilité, comme nous l'avons vu dans la leçon précédente. En particulier, les entrées du vecteur représentent les probabilités que le système se trouve dans les différents états classiques possibles, sachant qu'une correspondance entre les entrées et l'ensemble des états classiques a été choisie.

Choisir une telle correspondance revient en pratique à décider d'un ordre pour les états classiques, ce qui est souvent naturel ou dicté par une convention standard. Par exemple, l'alphabet binaire {0,1}\{0,1\} est naturellement ordonné avec 00 en premier et 11 en second, de sorte que la première entrée d'un vecteur de probabilité représentant un état probabiliste d'un bit est la probabilité d'être dans l'état 0,0, et la deuxième entrée est la probabilité d'être dans l'état 1.1.

Rien de tout cela ne change dans le contexte de systèmes multiples, mais il faut prendre une décision. L'ensemble des états classiques de plusieurs systèmes réunis, considérés collectivement comme un seul système, est le produit cartésien des ensembles d'états classiques des systèmes individuels — il faut donc décider comment ordonner les éléments des produits cartésiens d'ensembles d'états classiques.

Il existe une convention simple que nous suivons à cet effet : on part des ordres déjà en place pour les ensembles d'états classiques individuels, puis on ordonne les éléments du produit cartésien par ordre alphabétique. Une autre façon de le dire est que les entrées de chaque nn-uplet (ou, de façon équivalente, les symboles de chaque chaîne) sont traités comme s'ils avaient une importance qui décroît de gauche à droite. Par exemple, selon cette convention, le produit cartésien {1,2,3}×{0,1}\{1,2,3\}\times\{0,1\} est ordonné comme suit :

(1,0),  (1,1),  (2,0),  (2,1),  (3,0),  (3,1). (1,0),\; (1,1),\; (2,0),\; (2,1),\; (3,0),\; (3,1).

Quand les nn-uplets sont écrits sous forme de chaînes et ordonnés de cette façon, on retrouve des schémas familiers, comme {0,1}×{0,1}\{0,1\}\times\{0,1\} ordonné en 00,01,10,11,00, 01, 10, 11, et l'ensemble {0,1}10\{0,1\}^{10} ordonné comme il a été écrit plus tôt dans la leçon. Autre exemple : en considérant l'ensemble {0,1,,9}×{0,1,,9}\{0, 1, \dots, 9\} \times \{0, 1, \dots, 9\} comme un ensemble de chaînes, on obtient les nombres à deux chiffres de 0000 à 99,99, ordonnés numériquement. Ce n'est évidemment pas une coïncidence ; notre système décimal utilise précisément ce type d'ordre alphabétique, où le mot alphabétique doit être compris au sens large, incluant les chiffres en plus des lettres.

Revenons à l'exemple de deux bits ci-dessus : l'état probabiliste décrit précédemment est donc représenté par le vecteur de probabilité suivant, où les entrées sont étiquetées explicitement par souci de clarté.

(120012)probabiliteˊ d’eˆtre dans l’eˊtat 00probabiliteˊ d’eˆtre dans l’eˊtat 01probabiliteˊ d’eˆtre dans l’eˊtat 10probabiliteˊ d’eˆtre dans l’eˊtat 11(1) \begin{pmatrix} \frac{1}{2}\\[1mm] 0\\[1mm] 0\\[1mm] \frac{1}{2} \end{pmatrix} \begin{array}{l} \leftarrow \text{probabilité d'être dans l'état 00}\\[1mm] \leftarrow \text{probabilité d'être dans l'état 01}\\[1mm] \leftarrow \text{probabilité d'être dans l'état 10}\\[1mm] \leftarrow \text{probabilité d'être dans l'état 11} \end{array} \tag{1}

Indépendance de deux systèmes

Un type particulier d'état probabiliste de deux systèmes est celui où les systèmes sont indépendants. De façon intuitive, deux systèmes sont indépendants si connaître l'état classique de l'un n'a aucun effet sur les probabilités associées à l'autre. Autrement dit, apprendre dans quel état classique se trouve l'un des systèmes ne fournit aucune information sur l'état classique de l'autre.

Pour définir cette notion avec précision, supposons à nouveau que X\mathsf{X} et Y\mathsf{Y} sont des systèmes ayant respectivement les ensembles d'états classiques Σ\Sigma et Γ.\Gamma. Par rapport à un état probabiliste donné de ces systèmes, ils sont dits indépendants si

Pr((X,Y)=(a,b))=Pr(X=a)Pr(Y=b)(2) \operatorname{Pr}((\mathsf{X},\mathsf{Y}) = (a,b)) = \operatorname{Pr}(\mathsf{X} = a) \operatorname{Pr}(\mathsf{Y} = b) \tag{2}

pour tout choix de aΣa\in\Sigma et bΓ.b\in\Gamma.

Pour exprimer cette condition en termes de vecteurs de probabilité, supposons que l'état probabiliste donné de (X,Y)(\mathsf{X},\mathsf{Y}) est décrit par un vecteur de probabilité, écrit en notation de Dirac comme

(a,b)Σ×Γpabab.\sum_{(a,b) \in \Sigma\times\Gamma} p_{ab} \vert a b\rangle.

La condition (2)(2) d'indépendance est alors équivalente à l'existence de deux vecteurs de probabilité

ϕ=aΣqaaetψ=bΓrbb,(3)\vert \phi \rangle = \sum_{a\in\Sigma} q_a \vert a \rangle \quad\text{et}\quad \vert \psi \rangle = \sum_{b\in\Gamma} r_b \vert b \rangle, \tag{3}

représentant respectivement les probabilités associées aux états classiques de X\mathsf{X} et Y,\mathsf{Y}, tels que

pab=qarb(4)p_{ab} = q_a r_b \tag{4}

pour tout aΣa\in\Sigma et bΓ.b\in\Gamma.

Par exemple, l'état probabiliste d'une paire de bits (X,Y)(\mathsf{X},\mathsf{Y}) représenté par le vecteur

1600+11201+1210+1411 \frac{1}{6} \vert 00 \rangle + \frac{1}{12} \vert 01 \rangle + \frac{1}{2} \vert 10 \rangle + \frac{1}{4} \vert 11 \rangle

est un état dans lequel X\mathsf{X} et Y\mathsf{Y} sont indépendants. Plus précisément, la condition requise pour l'indépendance est satisfaite pour les vecteurs de probabilité

ϕ=140+341etψ=230+131. \vert \phi \rangle = \frac{1}{4} \vert 0 \rangle + \frac{3}{4} \vert 1 \rangle \quad\text{et}\quad \vert \psi \rangle = \frac{2}{3} \vert 0 \rangle + \frac{1}{3} \vert 1 \rangle.

Par exemple, pour que les probabilités de l'état 0000 concordent, il faut que 16=14×23,\frac{1}{6} = \frac{1}{4} \times \frac{2}{3}, et c'est bien le cas. Les autres entrées peuvent être vérifiées de façon similaire.

En revanche, l'état probabiliste (1),(1), que l'on peut écrire

1200+1211,(5) \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle, \tag{5}

ne représente pas l'indépendance entre les systèmes X\mathsf{X} et Y.\mathsf{Y}. Voici un moyen simple de l'établir.

Suppose qu'il existe des vecteurs de probabilité ϕ\vert \phi\rangle et ψ,\vert \psi \rangle, tels qu'en équation (3)(3) ci-dessus, pour lesquels la condition (4)(4) est satisfaite pour tout choix de aa et b.b. Il faudrait alors nécessairement que

q0r1=Pr((X,Y)=(0,1))=0. q_0 r_1 = \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (0,1)\bigr) = 0.

Cela implique que soit q0=0q_0 = 0 soit r1=0,r_1 = 0, car si les deux étaient non nuls, leur produit q0r1q_0 r_1 le serait aussi. Cela conduit à la conclusion que soit q0r0=0q_0 r_0 = 0 (dans le cas q0=0q_0 = 0) soit q1r1=0q_1 r_1 = 0 (dans le cas r1=0r_1 = 0). Or, on voit qu'aucune de ces égalités ne peut être vraie, car on doit avoir q0r0=1/2q_0 r_0 = 1/2 et q1r1=1/2.q_1 r_1 = 1/2. Il n'existe donc pas de vecteurs ϕ\vert\phi\rangle et ψ\vert\psi\rangle satisfaisant la propriété requise pour l'indépendance.

Ayant défini l'indépendance entre deux systèmes, nous pouvons maintenant définir ce que l'on entend par corrélation : c'est une absence d'indépendance. Par exemple, puisque les deux bits dans l'état probabiliste représenté par le vecteur (5)(5) ne sont pas indépendants, ils sont, par définition, corrélés.

Produits tensoriels de vecteurs

La condition d'indépendance que nous venons de décrire peut s'exprimer de façon concise à l'aide de la notion de produit tensoriel. Bien que les produits tensoriels soient une notion très générale, pouvant être définie de façon assez abstraite et appliquée à diverses structures mathématiques, nous pouvons adopter une définition simple et concrète dans le cas présent.

Étant donné deux vecteurs

ϕ=aΣαaaetψ=bΓβbb,\vert \phi \rangle = \sum_{a\in\Sigma} \alpha_a \vert a \rangle \quad\text{et}\quad \vert \psi \rangle = \sum_{b\in\Gamma} \beta_b \vert b \rangle,

le produit tensoriel ϕψ\vert \phi \rangle \otimes \vert \psi \rangle est le vecteur défini par

ϕψ=(a,b)Σ×Γαaβbab. \vert \phi \rangle \otimes \vert \psi \rangle = \sum_{(a,b)\in\Sigma\times\Gamma} \alpha_a \beta_b \vert ab\rangle.

Les entrées de ce nouveau vecteur correspondent aux éléments du produit cartésien Σ×Γ,\Sigma\times\Gamma, qui sont écrits sous forme de chaînes dans l'équation précédente. De façon équivalente, le vecteur π=ϕψ\vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle est défini par l'équation

abπ=aϕbψ\langle ab \vert \pi \rangle = \langle a \vert \phi \rangle \langle b \vert \psi \rangle

vraie pour tout aΣa\in\Sigma et bΓ.b\in\Gamma.

Nous pouvons maintenant reformuler la condition d'indépendance : pour un système joint (X,Y)(\mathsf{X}, \mathsf{Y}) dans un état probabiliste représenté par un vecteur de probabilité π,\vert \pi \rangle, les systèmes X\mathsf{X} et Y\mathsf{Y} sont indépendants si π\vert\pi\rangle s'obtient en prenant un produit tensoriel

π=ϕψ \vert \pi \rangle = \vert \phi \rangle \otimes \vert \psi \rangle

de vecteurs de probabilité ϕ\vert \phi \rangle et ψ\vert \psi \rangle sur chacun des sous-systèmes X\mathsf{X} et Y.\mathsf{Y}. Dans ce cas, π\vert \pi \rangle est dit état produit ou vecteur produit.

Nous omettons souvent le symbole \otimes lorsqu'on prend le produit tensoriel de kets, en écrivant par exemple ϕψ\vert \phi \rangle \vert \psi \rangle plutôt que ϕψ.\vert \phi \rangle \otimes \vert \psi \rangle. Cette convention traduit l'idée que le produit tensoriel est, dans ce contexte, la façon la plus naturelle ou par défaut de prendre le produit de deux vecteurs. Bien que moins courant, la notation ϕψ\vert \phi\otimes\psi\rangle est également parfois utilisée.

Lorsque nous utilisons la convention alphabétique pour ordonner les éléments des produits cartésiens, nous obtenons la spécification suivante du produit tensoriel de deux vecteurs colonnes.

(α1αm)(β1βk)=(α1β1α1βkα2β1α2βkαmβ1αmβk) \begin{pmatrix} \alpha_1\\ \vdots\\ \alpha_m \end{pmatrix} \otimes \begin{pmatrix} \beta_1\\ \vdots\\ \beta_k \end{pmatrix} = \begin{pmatrix} \alpha_1 \beta_1\\ \vdots\\ \alpha_1 \beta_k\\ \alpha_2 \beta_1\\ \vdots\\ \alpha_2 \beta_k\\ \vdots\\ \alpha_m \beta_1\\ \vdots\\ \alpha_m \beta_k \end{pmatrix}

En aparté important, remarque l'expression suivante pour les produits tensoriels de vecteurs de base standard :

ab=ab.\vert a \rangle \otimes \vert b \rangle = \vert ab \rangle.

On pourrait aussi écrire (a,b)(a,b) comme une paire ordonnée plutôt que comme une chaîne, auquel cas on obtient ab=(a,b).\vert a \rangle \otimes \vert b \rangle = \vert (a,b) \rangle. Cependant, il est plus courant d'omettre les parenthèses dans cette situation, en écrivant plutôt ab=a,b.\vert a \rangle \otimes \vert b \rangle = \vert a,b \rangle. C'est typique des mathématiques en général ; les parenthèses qui n'apportent pas de clarté ou ne lèvent pas d'ambiguïté sont souvent simplement omises.

Le produit tensoriel de deux vecteurs a l'importante propriété d'être bilinéaire, ce qui signifie qu'il est linéaire en chacun des deux arguments séparément, en supposant que l'autre argument est fixé. Cette propriété s'exprime à travers ces équations :

1. Linéarité dans le premier argument :

(ϕ1+ϕ2)ψ=ϕ1ψ+ϕ2ψ(αϕ)ψ=α(ϕψ)\begin{aligned} \bigl(\vert\phi_1\rangle + \vert\phi_2\rangle\bigr)\otimes \vert\psi\rangle & = \vert\phi_1\rangle \otimes \vert\psi\rangle + \vert\phi_2\rangle \otimes \vert\psi\rangle \\[1mm] \bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle & = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr) \end{aligned}

2. Linéarité dans le second argument :

ϕ(ψ1+ψ2)=ϕψ1+ϕψ2ϕ(αψ)=α(ϕψ)\begin{aligned} \vert \phi \rangle \otimes \bigl(\vert \psi_1 \rangle + \vert \psi_2 \rangle \bigr) & = \vert \phi \rangle \otimes \vert \psi_1 \rangle + \vert \phi \rangle \otimes \vert \psi_2 \rangle\\[1mm] \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) & = \alpha \bigl(\vert\phi\rangle\otimes\vert\psi\rangle\bigr) \end{aligned}

En examinant la deuxième équation de chacune de ces paires, on constate que les scalaires « flottent librement » dans les produits tensoriels :

(αϕ)ψ=ϕ(αψ)=α(ϕψ).\bigl(\alpha \vert \phi \rangle\bigr) \otimes \vert \psi \rangle = \vert \phi \rangle \otimes \bigl(\alpha \vert \psi \rangle \bigr) = \alpha \bigl(\vert \phi \rangle \otimes \vert \psi \rangle \bigr).

Il n'y a donc pas d'ambiguïté à écrire simplement αϕψ,\alpha\vert\phi\rangle\otimes\vert\psi\rangle, ou encore αϕψ\alpha\vert\phi\rangle\vert\psi \rangle ou αϕψ,\alpha\vert\phi\otimes\psi\rangle, pour désigner ce vecteur.

Indépendance et produits tensoriels pour trois systèmes ou plus

Les notions d'indépendance et de produits tensoriels se généralisent naturellement à trois systèmes ou plus. Si X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} sont des systèmes ayant respectivement les ensembles d'états classiques Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, alors un état probabiliste du système combiné (Xn1,,X0)(\mathsf{X}_{n-1},\ldots,\mathsf{X}_0) est un état produit si le vecteur de probabilité associé prend la forme

ψ=ϕn1ϕ0 \vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

pour des vecteurs de probabilité ϕ0,,ϕn1\vert \phi_0 \rangle,\ldots,\vert \phi_{n-1}\rangle décrivant les états probabilistes de X0,,Xn1.\mathsf{X}_0,\ldots,\mathsf{X}_{n-1}. Ici, la définition du produit tensoriel se généralise de façon naturelle : le vecteur

ψ=ϕn1ϕ0\vert \psi \rangle = \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle

est défini par l'équation

an1a0ψ=an1ϕn1a0ϕ0 \langle a_{n-1} \cdots a_0 \vert \psi \rangle = \langle a_{n-1} \vert \phi_{n-1} \rangle \cdots \langle a_0 \vert \phi_0 \rangle

vraie pour tout a0Σ0,an1Σn1.a_0\in\Sigma_0, \ldots a_{n-1}\in\Sigma_{n-1}.

Une autre façon, équivalente, de définir le produit tensoriel de trois vecteurs ou plus est de le faire de façon récursive, en termes de produits tensoriels de deux vecteurs :

ϕn1ϕ0=ϕn1(ϕn2ϕ0). \vert \phi_{n-1} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle = \vert \phi_{n-1} \rangle \otimes \bigl( \vert \phi_{n-2} \rangle \otimes \cdots \otimes \vert \phi_0 \rangle \bigr).

Comme pour le produit tensoriel de seulement deux vecteurs, le produit tensoriel de trois vecteurs ou plus est linéaire en chacun des arguments individuellement, en supposant que tous les autres arguments sont fixés. Dans ce cas, on dit que le produit tensoriel de trois vecteurs ou plus est multilinéaire.

Comme dans le cas de deux systèmes, on pourrait dire que les systèmes X0,,Xn1\mathsf{X}_0,\ldots,\mathsf{X}_{n-1} sont indépendants lorsqu'ils se trouvent dans un état produit, mais le terme mutuellement indépendants est plus précis. Il existe d'autres notions d'indépendance pour trois systèmes ou plus, comme l'indépendance par paires, qui sont à la fois intéressantes et importantes — mais pas dans le cadre de ce cours.

En généralisant l'observation précédente concernant les produits tensoriels de vecteurs de base standard, pour tout entier positif nn et tous états classiques a0,,an1,a_0,\ldots,a_{n-1}, on a

an1a0=an1a0.\vert a_{n-1} \rangle \otimes \cdots \otimes \vert a_0 \rangle = \vert a_{n-1} \cdots a_0 \rangle.

Mesures d'états probabilistes

Passons maintenant aux mesures d'états probabilistes de systèmes multiples. En choisissant de considérer plusieurs systèmes ensemble comme des systèmes uniques, nous obtenons immédiatement une spécification du fonctionnement des mesures pour les systèmes multiples — à condition que tous les systèmes soient mesurés.

Par exemple, si l'état probabiliste de deux bits (X,Y)(\mathsf{X},\mathsf{Y}) est décrit par le vecteur de probabilité

1200+1211, \frac{1}{2} \vert 00 \rangle + \frac{1}{2} \vert 11 \rangle,

alors le résultat 0000 — c'est-à-dire 00 pour la mesure de X\mathsf{X} et 00 pour la mesure de Y\mathsf{Y} — est obtenu avec une probabilité de 1/21/2 et le résultat 1111 est également obtenu avec une probabilité de 1/2.1/2. Dans chaque cas, nous mettons à jour la description par vecteur de probabilité de notre connaissance en conséquence, de sorte que l'état probabiliste devient respectivement 00|00\rangle ou 11.|11\rangle.

Nous pourrions cependant choisir de ne pas mesurer tous les systèmes, mais seulement certains d'entre eux. Cela donnera un résultat de mesure pour chaque système mesuré, et affectera également (en général) notre connaissance des systèmes restants que nous n'avons pas mesurés.

Pour expliquer comment cela fonctionne, nous allons nous concentrer sur le cas de deux systèmes, dont l'un est mesuré. La situation plus générale — dans laquelle un sous-ensemble propre de trois systèmes ou plus est mesuré — se ramène effectivement au cas de deux systèmes si l'on considère les systèmes mesurés collectivement comme s'ils formaient un système et les systèmes non mesurés comme s'ils formaient un second système.

Pour être précis, supposons que X\mathsf{X} et Y\mathsf{Y} sont des systèmes dont les ensembles d'états classiques sont Σ\Sigma et Γ,\Gamma, respectivement, et que les deux systèmes ensemble se trouvent dans un certain état probabiliste. Nous allons examiner ce qui se passe quand on mesure uniquement X\mathsf{X} et qu'on ne fait rien à Y.\mathsf{Y}. La situation où seul Y\mathsf{Y} est mesuré et où rien n'arrive à X\mathsf{X} est traitée symétriquement.

D'abord, nous savons que la probabilité d'observer un état classique particulier aΣa\in\Sigma lors de la mesure de X\mathsf{X} seul doit être cohérente avec les probabilités que nous obtiendrions en supposant que Y\mathsf{Y} était également mesuré. C'est-à-dire qu'on doit avoir

Pr(X=a)=bΓPr((X,Y)=(a,b)). \operatorname{Pr}(\mathsf{X} = a) = \sum_{b\in\Gamma} \operatorname{Pr}\bigl( (\mathsf{X},\mathsf{Y}) = (a,b) \bigr).

C'est la formule pour ce qu'on appelle l'état probabiliste réduit (ou marginal) de X\mathsf{X} seul.

Cette formule est parfaitement sensée au niveau intuitif, dans le sens où quelque chose de très étrange devrait se passer pour qu'elle soit fausse. Si elle était fausse, cela signifierait que mesurer Y\mathsf{Y} pourrait d'une façon ou d'une autre influencer les probabilités associées aux différents résultats de la mesure de X,\mathsf{X}, indépendamment du résultat réel de la mesure de Y.\mathsf{Y}. Si Y\mathsf{Y} se trouvait dans un endroit éloigné, comme quelque part dans une autre galaxie par exemple, cela permettrait une transmission d'information plus rapide que la lumière — ce que nous rejetons sur la base de notre compréhension de la physique. Une autre façon de comprendre cela vient de l'interprétation de la probabilité comme reflétant un degré de croyance. Le simple fait que quelqu'un d'autre puisse décider de regarder Y\mathsf{Y} ne peut pas changer l'état classique de X,\mathsf{X}, donc sans aucune information sur ce qu'il a fait ou vu, nos croyances sur l'état de X\mathsf{X} ne devraient pas changer.

Maintenant, en supposant que seul X\mathsf{X} est mesuré et Y\mathsf{Y} ne l'est pas, il peut encore exister une incertitude sur l'état classique de Y.\mathsf{Y}. Pour cette raison, plutôt que de mettre à jour notre description de l'état probabiliste de (X,Y)(\mathsf{X},\mathsf{Y}) vers ab\vert ab\rangle pour un certain choix de aΣa\in\Sigma et bΓ,b\in\Gamma, nous devons mettre à jour notre description de façon à ce que cette incertitude sur Y\mathsf{Y} soit correctement reflétée.

La formule de probabilité conditionnelle suivante traduit cette incertitude.

Pr(Y=bX=a)=Pr((X,Y)=(a,b))Pr(X=a) \operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) = \frac{ \operatorname{Pr}\bigl((\mathsf{X},\mathsf{Y}) = (a,b)\bigr) }{ \operatorname{Pr}(\mathsf{X} = a) }

Ici, l'expression Pr(Y=bX=a)\operatorname{Pr}(\mathsf{Y} = b \,\vert\, \mathsf{X} = a) désigne la probabilité que Y=b\mathsf{Y} = b sachant que (ou conditionnellement au fait que) X=a.\mathsf{X} = a. À proprement parler, cette expression n'a de sens que si Pr(X=a)\operatorname{Pr}(\mathsf{X}=a) est non nul, car si Pr(X=a)=0,\operatorname{Pr}(\mathsf{X}=a) = 0, nous divisons par zéro et nous obtenons la forme indéterminée 00.\frac{0}{0}. Ce n'est pas un problème, cependant, car si la probabilité associée à aa est nulle, nous n'obtiendrons jamais aa comme résultat d'une mesure de X,\mathsf{X}, et nous n'avons donc pas à nous préoccuper de cette éventualité.

Pour exprimer ces formules en termes de vecteurs de probabilité, considérons un vecteur de probabilité π\vert \pi \rangle décrivant un état probabiliste joint de (X,Y).(\mathsf{X},\mathsf{Y}).

π=(a,b)Σ×Γpabab \vert\pi\rangle = \sum_{(a,b)\in\Sigma\times\Gamma} p_{ab} \vert ab\rangle

Mesurer X\mathsf{X} seul donne chaque résultat possible aΣa\in\Sigma avec la probabilité

Pr(X=a)=cΓpac. \operatorname{Pr}(\mathsf{X} = a) = \sum_{c\in\Gamma} p_{ac}.

Le vecteur représentant l'état probabiliste de X\mathsf{X} seul est donc donné par

aΣ(cΓpac)a. \sum_{a\in\Sigma} \biggl(\sum_{c\in\Gamma} p_{ac}\biggr) \vert a\rangle.

Ayant obtenu un résultat particulier aΣa\in\Sigma de la mesure de X,\mathsf{X}, l'état probabiliste de Y\mathsf{Y} est mis à jour selon la formule des probabilités conditionnelles, de sorte qu'il est représenté par ce vecteur de probabilité :

ψa=bΓpabbcΓpac. \vert \psi_a \rangle = \frac{\sum_{b\in\Gamma}p_{ab}\vert b\rangle}{\sum_{c\in\Gamma} p_{ac}}.

Dans le cas où la mesure de X\mathsf{X} a donné l'état classique a,a, nous mettons donc à jour notre description de l'état probabiliste du système joint (X,Y)(\mathsf{X},\mathsf{Y}) vers aψa.\vert a\rangle \otimes \vert\psi_a\rangle.

Une façon de comprendre cette définition de ψa\vert\psi_a\rangle est de la voir comme une normalisation du vecteur bΓpabb,\sum_{b\in\Gamma} p_{ab} \vert b\rangle, où nous divisons par la somme des entrées de ce vecteur pour obtenir un vecteur de probabilité. Cette normalisation traduit effectivement un conditionnement sur l'événement que la mesure de X\mathsf{X} a donné le résultat a.a.

À titre d'exemple concret, supposons que l'ensemble des états classiques de X\mathsf{X} est Σ={0,1},\Sigma = \{0,1\}, l'ensemble des états classiques de Y\mathsf{Y} est Γ={1,2,3},\Gamma = \{1,2,3\}, et l'état probabiliste de (X,Y)(\mathsf{X},\mathsf{Y}) est

π=120,1+1120,3+1121,1+161,2+161,3. \vert \pi \rangle = \frac{1}{2} \vert 0,1 \rangle + \frac{1}{12} \vert 0,3 \rangle + \frac{1}{12} \vert 1,1 \rangle + \frac{1}{6} \vert 1,2 \rangle + \frac{1}{6} \vert 1,3 \rangle.

Notre but sera de déterminer les probabilités des deux résultats possibles (00 et 11), et de calculer quel est l'état probabiliste résultant de Y\mathsf{Y} pour les deux résultats, en supposant que le système X\mathsf{X} est mesuré.

En utilisant la bilinéarité du produit tensoriel, et en particulier le fait qu'il est linéaire dans le second argument, nous pouvons réécrire le vecteur π\vert \pi \rangle comme suit :

π=0(121+1123)+1(1121+162+163). \vert \pi \rangle = \vert 0\rangle \otimes \biggl( \frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle\biggr) + \vert 1\rangle \otimes \biggl( \frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle\biggr).

En d'autres termes, nous avons isolé les vecteurs de base standard distincts pour le premier système (celui qui est mesuré), en faisant le produit tensoriel de chacun avec la combinaison linéaire de vecteurs de base standard pour le second système, obtenue en sélectionnant les entrées du vecteur original qui sont cohérentes avec l'état classique correspondant du premier système. En y réfléchissant un instant, on voit que cela est toujours possible, quel que soit le vecteur de départ.

Ayant exprimé notre vecteur de probabilité de cette façon, les effets de la mesure du premier système deviennent faciles à analyser. Les probabilités des deux résultats peuvent être obtenues en sommant les probabilités entre parenthèses.

Pr(X=0)=12+112=712Pr(X=1)=112+16+16=512 \begin{aligned} \operatorname{Pr}(\mathsf{X} = 0) & = \frac{1}{2} + \frac{1}{12} = \frac{7}{12}\\[3mm] \operatorname{Pr}(\mathsf{X} = 1) & = \frac{1}{12} + \frac{1}{6} + \frac{1}{6} = \frac{5}{12} \end{aligned}

Ces probabilités somment à un, comme prévu — c'est une vérification utile de nos calculs.

Et maintenant, l'état probabiliste de Y\mathsf{Y} conditionné sur chaque résultat possible peut être déduit en normalisant les vecteurs entre parenthèses. C'est-à-dire que nous divisons ces vecteurs par les probabilités associées que nous venons de calculer, afin qu'ils deviennent des vecteurs de probabilité.

Ainsi, conditionné sur X\mathsf{X} valant 0,0, l'état probabiliste de Y\mathsf{Y} devient

121+1123712=671+173, \frac{\frac{1}{2} \vert 1 \rangle + \frac{1}{12} \vert 3 \rangle}{\frac{7}{12}} = \frac{6}{7} \vert 1 \rangle + \frac{1}{7} \vert 3 \rangle,

et conditionné sur la mesure de X\mathsf{X} valant 1,1, l'état probabiliste de Y\mathsf{Y} devient

1121+162+163512=151+252+253. \frac{\frac{1}{12} \vert 1 \rangle + \frac{1}{6} \vert 2\rangle + \frac{1}{6} \vert 3 \rangle}{\frac{5}{12}} = \frac{1}{5} \vert 1 \rangle + \frac{2}{5} \vert 2 \rangle + \frac{2}{5} \vert 3 \rangle.

Opérations sur les états probabilistes

Pour conclure cette discussion sur l'information classique pour les systèmes multiples, nous allons considérer les opérations sur des systèmes multiples dans des états probabilistes. En suivant la même idée qu'avant, nous pouvons considérer les systèmes multiples collectivement comme des systèmes uniques composés, puis nous référer à la leçon précédente pour voir comment cela fonctionne.

En revenant à la configuration habituelle où nous avons deux systèmes X\mathsf{X} et Y,\mathsf{Y}, examinons les opérations classiques sur le système composé (X,Y).(\mathsf{X},\mathsf{Y}). D'après la leçon précédente et la discussion ci-dessus, nous concluons que toute opération de ce type est représentée par une matrice stochastique dont les lignes et les colonnes sont indexées par le produit cartésien Σ×Γ.\Sigma\times\Gamma.

Par exemple, supposons que X\mathsf{X} et Y\mathsf{Y} sont des bits, et considérons une opération avec la description suivante.

Opération

Si X=1,\mathsf{X} = 1, alors appliquer une opération NOT à Y.\mathsf{Y}.
Sinon, ne rien faire.

C'est une opération déterministe connue sous le nom d'opération NOT contrôlé, où X\mathsf{X} est le bit de contrôle qui détermine si une opération NOT doit être appliquée au bit cible Y.\mathsf{Y}. Voici la représentation matricielle de cette opération :

(1000010000010010).\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0 \end{pmatrix}.

Son action sur les états de base standard est la suivante.

0000010110111110\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 01 \rangle\\ \vert 10 \rangle & \mapsto \vert 11 \rangle\\ \vert 11 \rangle & \mapsto \vert 10 \rangle \end{aligned}

Si nous interchangeons les rôles de X\mathsf{X} et Y,\mathsf{Y}, en prenant Y\mathsf{Y} comme bit de contrôle et X\mathsf{X} comme bit cible, alors la représentation matricielle de l'opération devient

(1000000100100100)\begin{pmatrix} 1 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 1\\[2mm] 0 & 0 & 1 & 0\\[2mm] 0 & 1 & 0 & 0 \end{pmatrix}

et son action sur les états de base standard serait la suivante :

0000011110101101\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\ \vert 01 \rangle & \mapsto \vert 11 \rangle\\ \vert 10 \rangle & \mapsto \vert 10 \rangle\\ \vert 11 \rangle & \mapsto \vert 01 \rangle \end{aligned}

Un autre exemple est l'opération ayant cette description :

Opération

Effectuer l'une des deux opérations suivantes, chacune avec une probabilité de 1/2:1/2 :

  1. Définir Y\mathsf{Y} égal à X.\mathsf{X}.
  2. Définir X\mathsf{X} égal à Y.\mathsf{Y}.

La représentation matricielle de cette opération est la suivante :

(11212000000000012121)=12(1100000000000011)+12(1010000000000101).\begin{pmatrix} 1 & \frac{1}{2} & \frac{1}{2} & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & \frac{1}{2} & \frac{1}{2} & 1 \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 1 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 1 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 0 & 1 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 0 & 0 & 0\\[2mm] 0 & 1 & 0 & 1 \end{pmatrix}.

L'action de cette opération sur les vecteurs de base standard est la suivante :

0000011200+1211101200+12111111\begin{aligned} \vert 00 \rangle & \mapsto \vert 00 \rangle\\[1mm] \vert 01 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[3mm] \vert 10 \rangle & \mapsto \frac{1}{2} \vert 00 \rangle + \frac{1}{2}\vert 11\rangle\\[2mm] \vert 11 \rangle & \mapsto \vert 11 \rangle \end{aligned}

Dans ces exemples, nous considérons simplement deux systèmes ensemble comme un seul système et procédons comme dans la leçon précédente.

La même chose peut être faite pour n'importe quel nombre de systèmes. Par exemple, imaginons que nous ayons trois bits, et que nous incrémentions ces trois bits modulo 88 — c'est-à-dire que nous considérons les trois bits comme encodant un nombre entre 00 et 77 en notation binaire, nous ajoutons 1,1, puis nous prenons le reste après division par 8.8. Une façon d'exprimer cette opération est la suivante :

001000+010001+011010+100011+101100+110101+111110+000111.\begin{aligned} & \vert 001 \rangle \langle 000 \vert + \vert 010 \rangle \langle 001 \vert + \vert 011 \rangle \langle 010 \vert + \vert 100 \rangle \langle 011 \vert\\[1mm] & \quad + \vert 101 \rangle \langle 100 \vert + \vert 110 \rangle \langle 101 \vert + \vert 111 \rangle \langle 110 \vert + \vert 000 \rangle \langle 111 \vert. \end{aligned}

Une autre façon de l'exprimer est

k=07(k+1)mod8k,\sum_{k = 0}^{7} \vert (k+1) \bmod 8 \rangle \langle k \vert,

en supposant que nous avons convenu que les nombres de 00 à 77 à l'intérieur des kets désignent les encodages binaires à trois bits de ces nombres. Une troisième option est d'exprimer cette opération sous forme de matrice.

(0000000110000000010000000010000000010000000010000000010000000010)\begin{pmatrix} 0 & 0 & 0 & 0 & 0 & 0 & 0 & 1\\ 1 & 0 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 1 & 0 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 1 & 0 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 1 & 0 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 1 & 0 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 1 & 0 & 0\\ 0 & 0 & 0 & 0 & 0 & 0 & 1 & 0 \end{pmatrix}

Opérations indépendantes

Supposons maintenant que nous avons plusieurs systèmes et que nous effectuons indépendamment différentes opérations sur les systèmes séparément.

Par exemple, en reprenant notre configuration habituelle de deux systèmes X\mathsf{X} et Y\mathsf{Y} ayant respectivement les ensembles d'états classiques Σ\Sigma et Γ,\Gamma, supposons que nous effectuons une opération sur X\mathsf{X} et, de façon totalement indépendante, une autre opération sur Y.\mathsf{Y}. Comme nous le savons de la leçon précédente, ces opérations sont représentées par des matrices stochastiques — et pour être précis, disons que l'opération sur X\mathsf{X} est représentée par la matrice MM et l'opération sur Y\mathsf{Y} est représentée par la matrice N.N. Ainsi, les lignes et les colonnes de MM ont des indices mis en correspondance avec les éléments de Σ\Sigma et, de même, les lignes et les colonnes de NN correspondent aux éléments de Γ.\Gamma.

Une question naturelle à se poser est la suivante : si nous considérons X\mathsf{X} et Y\mathsf{Y} ensemble comme un seul système composé (X,Y),(\mathsf{X},\mathsf{Y}), quelle est la matrice qui représente l'action combinée des deux opérations sur ce système composé ? Pour répondre à cette question, nous devons d'abord introduire les produits tensoriels de matrices, qui sont similaires aux produits tensoriels de vecteurs et sont définis de façon analogue.

Produits tensoriels de matrices

Le produit tensoriel MNM\otimes N des matrices

M=a,bΣαabab M = \sum_{a,b\in\Sigma} \alpha_{ab} \vert a\rangle \langle b\vert

et

N=c,dΓβcdcd N = \sum_{c,d\in\Gamma} \beta_{cd} \vert c\rangle \langle d\vert

est la matrice

MN=a,bΣc,dΓαabβcdacbd M \otimes N = \sum_{a,b\in\Sigma} \sum_{c,d\in\Gamma} \alpha_{ab} \beta_{cd} \vert ac \rangle \langle bd \vert

De façon équivalente, le produit tensoriel de MM et NN est défini par l'équation

acMNbd=aMbcNd\langle ac \vert M \otimes N \vert bd\rangle = \langle a \vert M \vert b\rangle \langle c \vert N \vert d\rangle

vraie pour tout choix de a,bΣa,b\in\Sigma et c,dΓ.c,d\in\Gamma.

Une autre façon, équivalente, de décrire MNM\otimes N est que c'est l'unique matrice qui satisfait l'équation

(MN)(ϕψ)=(Mϕ)(Nψ) (M \otimes N) \bigl( \vert \phi \rangle \otimes \vert \psi \rangle \bigr) = \bigl(M \vert\phi\rangle\bigr) \otimes \bigl(N \vert\psi\rangle\bigr)

pour tout choix possible de vecteurs ϕ\vert\phi\rangle et ψ,\vert\psi\rangle, en supposant que les indices de ϕ\vert\phi\rangle correspondent aux éléments de Σ\Sigma et les indices de ψ\vert\psi\rangle correspondent à Γ.\Gamma.

En suivant la convention décrite précédemment pour ordonner les éléments des produits cartésiens, on peut aussi écrire le produit tensoriel de deux matrices explicitement comme suit :

(α11α1mαm1αmm)(β11β1kβk1βkk)=(α11β11α11β1kα1mβ11α1mβ1kα11βk1α11βkkα1mβk1α1mβkkαm1β11αm1β1kαmmβ11αmmβ1kαm1βk1αm1βkkαmmβk1αmmβkk)\begin{gathered} \begin{pmatrix} \alpha_{11} & \cdots & \alpha_{1m} \\ \vdots & \ddots & \vdots \\ \alpha_{m1} & \cdots & \alpha_{mm} \end{pmatrix} \otimes \begin{pmatrix} \beta_{11} & \cdots & \beta_{1k} \\ \vdots & \ddots & \vdots\\ \beta_{k1} & \cdots & \beta_{kk} \end{pmatrix} \hspace{6cm}\\[8mm] \hspace{1cm} = \begin{pmatrix} \alpha_{11}\beta_{11} & \cdots & \alpha_{11}\beta_{1k} & & \alpha_{1m}\beta_{11} & \cdots & \alpha_{1m}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{11}\beta_{k1} & \cdots & \alpha_{11}\beta_{kk} & & \alpha_{1m}\beta_{k1} & \cdots & \alpha_{1m}\beta_{kk} \\[2mm] & \vdots & & \ddots & & \vdots & \\[2mm] \alpha_{m1}\beta_{11} & \cdots & \alpha_{m1}\beta_{1k} & & \alpha_{mm}\beta_{11} & \cdots & \alpha_{mm}\beta_{1k} \\ \vdots & \ddots & \vdots & \hspace{2mm}\cdots\hspace{2mm} & \vdots & \ddots & \vdots \\ \alpha_{m1}\beta_{k1} & \cdots & \alpha_{m1}\beta_{kk} & & \alpha_{mm}\beta_{k1} & \cdots & \alpha_{mm}\beta_{kk} \end{pmatrix} \end{gathered}

Les produits tensoriels de trois matrices ou plus sont définis de façon analogue. Si M0,,Mn1M_0, \ldots, M_{n-1} sont des matrices dont les indices correspondent aux ensembles d'états classiques Σ0,,Σn1,\Sigma_0,\ldots,\Sigma_{n-1}, alors le produit tensoriel Mn1M0M_{n-1}\otimes\cdots\otimes M_0 est défini par la condition que

an1a0Mn1M0bn1b0=an1Mn1bn1a0M0b0\langle a_{n-1}\cdots a_0 \vert M_{n-1}\otimes\cdots\otimes M_0 \vert b_{n-1}\cdots b_0\rangle = \langle a_{n-1} \vert M_{n-1} \vert b_{n-1} \rangle \cdots\langle a_0 \vert M_0 \vert b_0 \rangle

pour tout choix d'états classiques a0,b0Σ0,,an1,bn1Σn1.a_0,b_0\in\Sigma_0,\ldots,a_{n-1},b_{n-1}\in\Sigma_{n-1}. Alternativement, les produits tensoriels de trois matrices ou plus peuvent être définis de façon récursive, en termes de produits tensoriels de deux matrices, similaire à ce que nous avons observé pour les vecteurs.

Le produit tensoriel de matrices est parfois dit multiplicatif car l'équation

(Mn1M0)(Nn1N0)=(Mn1Nn1)(M0N0) (M_{n-1}\otimes\cdots\otimes M_0)(N_{n-1}\otimes\cdots\otimes N_0) = (M_{n-1} N_{n-1})\otimes\cdots\otimes (M_0 N_0)

est toujours vraie, pour tout choix de matrices M0,,Mn1M_0,\ldots,M_{n-1} et N0,Nn1,N_0\ldots,N_{n-1}, à condition que les produits M0N0,,Mn1Nn1M_0 N_0, \ldots, M_{n-1} N_{n-1} aient un sens.

Opérations indépendantes (suite)

Nous pouvons maintenant répondre à la question posée précédemment : si MM est une opération probabiliste sur X,\mathsf{X}, NN est une opération probabiliste sur Y,\mathsf{Y}, et les deux opérations sont effectuées indépendamment, alors l'opération résultante sur le système composé (X,Y)(\mathsf{X},\mathsf{Y}) est le produit tensoriel MN.M\otimes N.

Ainsi, pour les états probabilistes comme pour les opérations probabilistes, les produits tensoriels représentent l'indépendance. Si nous avons deux systèmes X\mathsf{X} et Y\mathsf{Y} qui sont indépendamment dans les états probabilistes ϕ\vert\phi\rangle et ψ,\vert\psi\rangle, alors le système composé (X,Y)(\mathsf{X},\mathsf{Y}) est dans l'état probabiliste ϕψ\vert\phi\rangle\otimes\vert\psi\rangle ; et si nous appliquons des opérations probabilistes MM et NN aux deux systèmes indépendamment, alors l'action résultante sur le système composé (X,Y)(\mathsf{X},\mathsf{Y}) est décrite par l'opération MN.M\otimes N.

Voyons un exemple, qui rappelle une opération probabiliste sur un seul bit de la leçon précédente : si l'état classique du bit est 0,0, il est laissé tel quel ; et si l'état classique du bit est 1,1, il est ramené à 0 avec une probabilité de 1/2.1/2. Nous avions observé que cette opération est représentée par la matrice

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

Si cette opération est effectuée sur un bit X,\mathsf{X}, et qu'une opération NOT est effectuée (indépendamment) sur un second bit Y,\mathsf{Y}, alors l'opération conjointe sur le système composé (X,Y)(\mathsf{X},\mathsf{Y}) a la représentation matricielle

(112012)(0110)=(01012101200001200120). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} \otimes \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix} = \begin{pmatrix} 0 & 1 & 0 & \frac{1}{2} \\[1mm] 1 & 0 & \frac{1}{2} & 0 \\[1mm] 0 & 0 & 0 & \frac{1}{2} \\[1mm] 0 & 0 & \frac{1}{2} & 0 \end{pmatrix}.

À l'inspection, on voit que c'est une matrice stochastique. Ce sera toujours le cas : le produit tensoriel de deux matrices stochastiques ou plus est toujours stochastique.

Une situation courante que nous rencontrons est celle où une opération est effectuée sur un système et où rien n'est fait à un autre. Dans ce cas, exactement la même prescription est suivie, en gardant à l'esprit que ne rien faire est représenté par la matrice identité. Par exemple, remettre le bit X\mathsf{X} à l'état 00 et ne rien faire à Y\mathsf{Y} donne l'opération probabiliste (et en fait déterministe) sur (X,Y)(\mathsf{X},\mathsf{Y}) représentée par la matrice

(1100)(1001)=(1010010100000000). \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \otimes \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} = \begin{pmatrix} 1 & 0 & 1 & 0 \\[1mm] 0 & 1 & 0 & 1 \\[1mm] 0 & 0 & 0 & 0 \\[1mm] 0 & 0 & 0 & 0 \end{pmatrix}.