Aller au contenu principal

Information classique

Pour décrire l'information quantique et son fonctionnement, nous allons commencer par un aperçu de l'information classique. On peut naturellement se demander pourquoi autant d'attention est accordée à l'information classique dans un cours sur l'information quantique, mais il y a de bonnes raisons à cela.

D'une part, bien que l'information quantique et l'information classique diffèrent de façon spectaculaire sur certains points, leurs descriptions mathématiques sont en réalité très similaires. L'information classique sert également de point de référence familier lors de l'étude de l'information quantique, ainsi que de source d'analogies qui s'avèrent étonnamment utiles. Il est fréquent que des questions sur l'information quantique aient des analogues classiques naturels, et souvent ces questions ont des réponses simples qui peuvent apporter clarté et insight sur les questions originales portant sur l'information quantique. En effet, il n'est pas du tout déraisonnable d'affirmer qu'on ne peut pas vraiment comprendre l'information quantique sans comprendre l'information classique.

Certains lecteurs connaissent peut-être déjà le contenu abordé dans cette section, d'autres non — mais la discussion s'adresse aux deux publics. En plus de mettre en évidence les aspects de l'information classique les plus pertinents pour une introduction à l'information quantique, cette section introduit la notation de Dirac, souvent utilisée pour décrire des vecteurs et des matrices en information et calcul quantiques. Il se trouve que la notation de Dirac n'est pas spécifique à l'information quantique ; elle peut tout aussi bien être utilisée dans le contexte de l'information classique, ainsi que dans de nombreux autres contextes où des vecteurs et des matrices apparaissent.

États classiques et vecteurs de probabilité

Supposons que nous ayons un système qui stocke de l'information. Plus précisément, nous allons supposer que ce système peut se trouver dans l'un d'un nombre fini d'états classiques à chaque instant. Ici, le terme état classique doit être compris de manière intuitive, comme une configuration qui peut être reconnue et décrite sans ambiguïté.

L'exemple typique, sur lequel nous reviendrons régulièrement, est celui du bit, qui est un système dont les états classiques sont 00 et 1.1. D'autres exemples incluent un dé standard à six faces, dont les états classiques sont 1,1, 2,2, 3,3, 4,4, 5,5, et 66 (représentés par le nombre de points correspondant sur la face du dessus) ; une nucléobase dans un brin d'ADN, dont les états classiques sont A, C, G, et T ; et un interrupteur de ventilateur électrique, dont les états classiques sont (généralement) élevé, moyen, faible, et arrêt. En termes mathématiques, la spécification des états classiques d'un système constitue en réalité le point de départ : on définit un bit comme un système ayant les états classiques 00 et 1,1, et de même pour les systèmes ayant différents ensembles d'états classiques.

Pour les besoins de cette discussion, donnons le nom X\mathsf{X} au système considéré, et utilisons le symbole Σ\Sigma pour désigner l'ensemble des états classiques de X.\mathsf{X}. En plus de l'hypothèse que Σ\Sigma est fini, déjà mentionnée, on suppose naturellement que Σ\Sigma est non vide — car il n'aurait aucun sens qu'un système physique n'ait aucun état. Et bien qu'il soit sensé de considérer des systèmes physiques ayant un nombre infini d'états classiques, nous laisserons de côté cette possibilité, qui est certes intéressante mais n'est pas pertinente pour ce cours. Pour ces raisons, et par souci de commodité et de concision, nous utiliserons désormais le terme ensemble d'états classiques pour désigner tout ensemble fini et non vide.

Voici quelques exemples :

  1. Si X\mathsf{X} est un bit, alors Σ={0,1}.\Sigma = \{0,1\}. On appelle cet ensemble l'alphabet binaire.
  2. Si X\mathsf{X} est un dé à six faces, alors Σ={1,2,3,4,5,6}.\Sigma = \{1,2,3,4,5,6\}.
  3. Si X\mathsf{X} est un interrupteur de ventilateur électrique, alors Σ={high,medium,low,off}.\Sigma = \{\mathrm{high}, \mathrm{medium}, \mathrm{low}, \mathrm{off}\}.

Lorsqu'on considère X\mathsf{X} comme un support d'information, les différents états classiques de X\mathsf{X} peuvent se voir attribuer certaines significations, conduisant à différents résultats ou conséquences. Dans de tels cas, il peut suffire de décrire X\mathsf{X} comme se trouvant simplement dans l'un de ses états classiques possibles. Par exemple, si X\mathsf{X} est un interrupteur de ventilateur, on pourrait savoir avec certitude qu'il est réglé sur élevé, ce qui pourrait nous amener à le passer à moyen.

Souvent, dans le traitement de l'information, notre connaissance est incertaine. Une façon de représenter notre connaissance de l'état classique d'un système X\mathsf{X} est d'associer des probabilités à ses différents états classiques possibles, ce qui donne ce que nous appellerons un état probabiliste.

Par exemple, supposons que X\mathsf{X} soit un bit. D'après ce que nous savons ou prévoyons sur ce qui s'est passé avec X\mathsf{X} dans le passé, nous pourrions croire que X\mathsf{X} se trouve dans l'état classique 00 avec une probabilité de 3/43/4 et dans l'état 11 avec une probabilité de 1/4.1/4. On peut représenter ces croyances en écrivant :

Pr(X=0)=34etPr(X=1)=14.\operatorname{Pr}(\mathsf{X}=0) = \frac{3}{4} \quad\text{et}\quad \operatorname{Pr}(\mathsf{X}=1) = \frac{1}{4}.

Une façon plus succincte de représenter cet état probabiliste est d'utiliser un vecteur colonne.

(3414)\begin{pmatrix} \frac{3}{4}\\[2mm] \frac{1}{4} \end{pmatrix}

La probabilité que le bit soit 00 est placée en haut du vecteur et la probabilité que le bit soit 11 est placée en bas, car c'est la façon conventionnelle d'ordonner l'ensemble {0,1}.\{0,1\}.

En général, on peut représenter un état probabiliste d'un système ayant n'importe quel ensemble d'états classiques de la même façon, sous forme d'un vecteur de probabilités. Les probabilités peuvent être ordonnées de la façon que l'on choisit, mais il existe généralement une façon naturelle ou par défaut de le faire. Pour être précis, on peut représenter tout état probabiliste par un vecteur colonne satisfaisant deux propriétés :

  1. Toutes les entrées du vecteur sont des réels non négatifs.
  2. La somme des entrées est égale à 1.1.

Réciproquement, tout vecteur colonne satisfaisant ces deux propriétés peut être considéré comme une représentation d'un état probabiliste. Désormais, nous désignerons les vecteurs de cette forme par l'expression vecteurs de probabilité.

En plus de la concision de cette notation, identifier les états probabilistes à des vecteurs colonnes présente l'avantage que les opérations sur les états probabilistes sont représentées par la multiplication matrice–vecteur, comme nous allons le discuter prochainement.

Mesurer des états probabilistes

Voyons maintenant ce qui se passe si on mesure un système quand il est dans un état probabiliste. Dans ce contexte, mesurer un système signifie simplement qu'on l'observe et qu'on reconnaît sans ambiguïté l'état classique dans lequel il se trouve. De façon intuitive, on ne peut pas « voir » l'état probabiliste d'un système ; quand on l'observe, on voit simplement l'un des états classiques possibles.

En mesurant un système, on peut également changer notre connaissance de celui-ci, et donc l'état probabiliste qu'on lui associe peut changer. C'est-à-dire que si on reconnaît que X\mathsf{X} se trouve dans l'état classique aΣ,a\in\Sigma, alors le nouveau vecteur de probabilité représentant notre connaissance de l'état de X\mathsf{X} devient le vecteur ayant un 11 dans l'entrée correspondant à aa et 00 pour toutes les autres entrées. Ce vecteur indique que X\mathsf{X} se trouve dans l'état classique aa avec certitude — ce que nous savons pour l'avoir justement reconnu — et nous notons ce vecteur a,\vert a\rangle, qui se lit « ket aa » pour une raison qui sera expliquée prochainement. Les vecteurs de ce type sont également appelés vecteurs de la base standard.

Par exemple, en supposant que le système considéré est un bit, les vecteurs de la base standard sont donnés par

0=(10)et1=(01). \vert 0\rangle = \begin{pmatrix}1\\[1mm] 0\end{pmatrix} \quad\text{et}\quad \vert 1\rangle = \begin{pmatrix}0\\[1mm] 1\end{pmatrix}.

Remarque : tout vecteur colonne à deux dimensions peut s'exprimer comme une combinaison linéaire de ces deux vecteurs. Par exemple,

(3414)=340+141.\begin{pmatrix} \frac{3}{4}\\[2mm] \frac{1}{4} \end{pmatrix} = \frac{3}{4}\,\vert 0\rangle + \frac{1}{4}\,\vert 1\rangle.

Ce fait se généralise naturellement à tout ensemble d'états classiques : tout vecteur colonne peut s'écrire comme une combinaison linéaire d'états de la base standard. On exprime très souvent les vecteurs précisément de cette façon.

Revenons au changement d'état probabiliste lors d'une mesure, et notons le lien avec notre expérience quotidienne. Supposons qu'on lance une pièce équilibrée, mais qu'on la recouvre avant de la regarder. On dirait alors que son état probabiliste est

(1212)=12heads+12tails.\begin{pmatrix} \frac{1}{2}\\[2mm] \frac{1}{2} \end{pmatrix} = \frac{1}{2}\,\vert\text{heads}\rangle + \frac{1}{2}\,\vert\text{tails}\rangle.

Ici, l'ensemble des états classiques de notre pièce est {heads,tails}.\{\text{heads},\text{tails}\}. Nous choisissons d'ordonner ces états avec pile en premier, face en second.

heads=(10)ettails=(01)\vert\text{heads}\rangle = \begin{pmatrix}1\\[1mm] 0\end{pmatrix} \quad\text{et}\quad \vert\text{tails}\rangle = \begin{pmatrix}0\\[1mm] 1\end{pmatrix}

Si on découvrait la pièce et qu'on la regardait, on verrait l'un des deux états classiques : pile ou face. En supposant que le résultat soit face, on mettrait naturellement à jour notre description de l'état probabiliste de la pièce pour qu'il devienne tails.|\text{tails}\rangle. Bien sûr, si on recouvrait ensuite la pièce, puis qu'on la découvrait à nouveau pour la regarder, l'état classique serait toujours face, ce qui est cohérent avec l'état probabiliste décrit par le vecteur tails.|\text{tails}\rangle.

Cela peut sembler trivial, et dans un sens c'est vrai. Cependant, bien que les systèmes quantiques se comportent de façon entièrement analogue, leurs propriétés de mesure sont fréquemment considérées comme étranges ou inhabituelles. En établissant les propriétés analogues des systèmes classiques, le fonctionnement de l'information quantique peut sembler moins inhabituel.

Une dernière remarque sur les mesures des états probabilistes : les états probabilistes décrivent des connaissances ou des croyances, pas nécessairement quelque chose de réel, et la mesure ne fait que modifier notre connaissance, pas le système lui-même. Par exemple, l'état d'une pièce après qu'on l'a lancée, mais avant qu'on la regarde, est soit pile soit face — on ne sait tout simplement pas lequel jusqu'à ce qu'on regarde. En voyant que l'état classique est face, par exemple, on mettrait naturellement à jour le vecteur décrivant notre connaissance en tails,|\text{tails}\rangle, mais pour quelqu'un d'autre qui n'a pas vu la pièce quand elle a été découverte, l'état probabiliste resterait inchangé. Ce n'est pas une source d'inquiétude ; différentes personnes peuvent avoir des connaissances ou des croyances différentes à propos d'un système particulier, et donc décrire ce système par des vecteurs de probabilité différents.

Opérations classiques

Dans cette dernière partie de ce bref résumé de l'information classique, nous allons considérer les types d'opérations qui peuvent être effectuées sur un système classique.

Opérations déterministes

Premièrement, il y a les opérations déterministes, où chaque état classique aΣa\in\Sigma est transformé en f(a)f(a) pour une certaine fonction ff de la forme f:ΣΣ.f:\Sigma\rightarrow\Sigma.

Par exemple, si Σ={0,1},\Sigma = \{0,1\}, il y a quatre fonctions de cette forme, f1,f_1, f2,f_2, f3,f_3, et f4,f_4, que l'on peut représenter par des tables de valeurs comme suit :

af1(a)0010af2(a)0011af3(a)0110af4(a)0111\begin{array}{c|c} a & f_1(a)\\ \hline 0 & 0\\ 1 & 0 \end{array} \qquad \begin{array}{c|c} a & f_2(a)\\ \hline 0 & 0\\ 1 & 1 \end{array} \qquad \begin{array}{c|c} a & f_3(a)\\ \hline 0 & 1\\ 1 & 0 \end{array} \qquad \begin{array}{c|c} a & f_4(a)\\ \hline 0 & 1\\ 1 & 1 \end{array}

La première et la dernière de ces fonctions sont constantes : f1(a)=0f_1(a) = 0 et f4(a)=1f_4(a) = 1 pour tout aΣ.a\in\Sigma. Les deux du milieu ne sont pas constantes, elles sont équilibrées : chacune des deux valeurs de sortie apparaît le même nombre de fois (une fois, dans ce cas) quand on parcourt les entrées possibles. La fonction f2f_2 est la fonction identité : f2(a)=af_2(a) = a pour tout aΣ.a\in\Sigma. Et f3f_3 est la fonction f3(0)=1f_3(0) = 1 et f3(1)=0,f_3(1) = 0, mieux connue sous le nom de fonction NON (NOT).

Les actions des opérations déterministes sur les états probabilistes peuvent être représentées par la multiplication matrice-vecteur. Plus précisément, la matrice MM qui représente une fonction donnée f:ΣΣf:\Sigma\rightarrow\Sigma est celle qui satisfait

Ma=f(a)M \vert a \rangle = \vert f(a)\rangle

pour tout aΣ.a\in\Sigma. Une telle matrice existe toujours et est uniquement déterminée par cette exigence. Les matrices représentant des opérations déterministes ont toujours exactement un 11 dans chaque colonne, et 00 pour toutes les autres entrées.

Par exemple, les matrices M1,,M4M_1,\ldots,M_4 correspondant aux fonctions f1,,f4f_1,\ldots,f_4 ci-dessus sont les suivantes :

M1=(1100),M2=(1001),M3=(0110),M4=(0011). M_1 = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix}, \hspace{4mm} M_2 = \begin{pmatrix} 1 & 0\\ 0 & 1 \end{pmatrix}, \hspace{4mm} M_3 = \begin{pmatrix} 0 & 1\\ 1 & 0 \end{pmatrix}, \hspace{4mm} M_4 = \begin{pmatrix} 0 & 0\\ 1 & 1 \end{pmatrix}.

Voici une vérification rapide montrant que la première matrice est correcte. Les trois autres peuvent être vérifiées de façon similaire.

M10=(1100)(10)=(10)=0=f1(0)M11=(1100)(01)=(10)=0=f1(1)\begin{aligned} M_1 \vert 0\rangle & = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 1\\ 0 \end{pmatrix} = \begin{pmatrix} 1\\ 0 \end{pmatrix} = \vert 0\rangle = \vert f_1(0)\rangle \\[4mm] M_1 \vert 1\rangle & = \begin{pmatrix} 1 & 1\\ 0 & 0 \end{pmatrix} \begin{pmatrix} 0\\ 1 \end{pmatrix} = \begin{pmatrix} 1\\ 0 \end{pmatrix} = \vert 0\rangle = \vert f_1(1)\rangle \end{aligned}

Une façon pratique de représenter des matrices de ces formes et d'autres utilise une notation analogue pour les vecteurs lignes à celle utilisée pour les vecteurs colonnes présentée précédemment : on note a\langle a \vert le vecteur ligne ayant un 11 dans l'entrée correspondant à aa et zéro pour toutes les autres entrées, pour tout aΣ.a\in\Sigma. Ce vecteur se lit « bra a.a. »

Par exemple, si Σ={0,1},\Sigma = \{0,1\}, alors

0=(10)et1=(01). \langle 0 \vert = \begin{pmatrix} 1 & 0 \end{pmatrix} \quad\text{et}\quad \langle 1 \vert = \begin{pmatrix} 0 & 1 \end{pmatrix}.

Pour tout ensemble d'états classiques Σ,\Sigma, on peut voir les vecteurs lignes et les vecteurs colonnes comme des matrices, et effectuer la multiplication matricielle ba.\vert b\rangle \langle a\vert. On obtient une matrice carrée ayant un 11 dans l'entrée correspondant à la paire (b,a),(b,a), ce qui signifie que la ligne de l'entrée correspond à l'état classique bb et la colonne correspond à l'état classique a,a, avec 00 pour toutes les autres entrées. Par exemple,

01=(10)(01)=(0100). \vert 0 \rangle \langle 1 \vert = \begin{pmatrix} 1\\ 0 \end{pmatrix} \begin{pmatrix} 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 1 \\ 0 & 0 \end{pmatrix}.

En utilisant cette notation, on peut exprimer la matrice MM correspondant à toute fonction f:ΣΣf:\Sigma\rightarrow\Sigma comme

M=aΣf(a)a. M = \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert.

Par exemple, considérons la fonction f4f_4 ci-dessus, pour laquelle Σ={0,1}.\Sigma = \{0,1\}. On obtient la matrice

M4=f4(0)0+f4(1)1=10+11=(0010)+(0001)=(0011).M_4 = \vert f_4(0) \rangle \langle 0 \vert + \vert f_4(1) \rangle \langle 1 \vert = \vert 1\rangle \langle 0\vert + \vert 1\rangle \langle 1\vert = \begin{pmatrix} 0 & 0\\ 1 & 0 \end{pmatrix} + \begin{pmatrix} 0 & 0\\ 0 & 1 \end{pmatrix} = \begin{pmatrix} 0 & 0\\ 1 & 1 \end{pmatrix}.

La raison pour laquelle cela fonctionne est la suivante. Si on pense à nouveau aux vecteurs comme des matrices, et qu'on considère cette fois la multiplication ab,\langle a \vert \vert b \rangle, on obtient une matrice 1×11\times 1, qu'on peut considérer comme un scalaire (c'est-à-dire un nombre). Par souci de clarté, on écrit ce produit ab\langle a \vert b\rangle plutôt que ab.\langle a \vert \vert b \rangle. Ce produit satisfait la formule simple suivante :

ab={1a=b0ab. \langle a \vert b \rangle = \begin{cases} 1 & a = b\\[1mm] 0 & a \neq b. \end{cases}

En utilisant cette observation, ainsi que le fait que la multiplication matricielle est associative et linéaire, on obtient

Mb=(aΣf(a)a)b=aΣf(a)ab=f(b), M \vert b \rangle = \Biggl( \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert \Biggr) \vert b\rangle = \sum_{a\in\Sigma} \vert f(a) \rangle \langle a \vert b \rangle = \vert f(b)\rangle,

pour tout bΣ,b\in\Sigma, ce qui est précisément ce que l'on exige de la matrice M.M.

Comme nous le discuterons plus en détail dans une leçon ultérieure, ab\langle a \vert b \rangle peut également être vu comme un produit intérieur entre les vecteurs a\vert a\rangle et b.\vert b\rangle. Les produits intérieurs sont d'une importance cruciale en information quantique, mais nous en reportons la discussion à plus tard, quand ils seront nécessaires.

À ce stade, les noms « bra » et « ket » devraient être évidents : en réunissant un « bra » a\langle a\vert avec un « ket » b\vert b\rangle, on obtient un « bracket » ab.\langle a \vert b\rangle. Cette notation et cette terminologie sont dues à Paul Dirac, et est pour cette raison connue sous le nom de notation de Dirac.

Opérations probabilistes et matrices stochastiques

En plus des opérations déterministes, il y a les opérations probabilistes.

Par exemple, considérons l'opération suivante sur un bit. Si l'état classique du bit est 0,0, il est laissé tel quel ; et si l'état classique du bit est 1,1, il est inversé, de sorte qu'il devient 00 avec une probabilité de 1/21/2 et 11 avec une probabilité de 1/2.1/2. Cette opération est représentée par la matrice

(112012). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix}.

On peut vérifier que cette matrice fait la bonne chose en multipliant les deux vecteurs de la base standard par elle.

Pour un choix arbitraire d'un ensemble d'états classiques, on peut décrire mathématiquement l'ensemble de toutes les opérations probabilistes comme celles qui sont représentées par des matrices stochastiques, qui sont des matrices satisfaisant ces deux propriétés :

  1. Toutes les entrées sont des réels non négatifs.
  2. Les entrées de chaque colonne ont pour somme 1.1.

De façon équivalente, les matrices stochastiques sont les matrices dont toutes les colonnes forment des vecteurs de probabilité.

On peut penser aux opérations probabilistes à un niveau intuitif comme à des opérations où un certain aléa peut être utilisé ou introduit durant l'opération, comme dans l'exemple ci-dessus. En ce qui concerne la description par une matrice stochastique d'une opération probabiliste, chaque colonne peut être vue comme une représentation vectorielle de l'état probabiliste généré étant donné que l'entrée en état classique correspond à cette colonne.

On peut également penser aux matrices stochastiques comme étant exactement les matrices qui appliquent toujours les vecteurs de probabilité à des vecteurs de probabilité. C'est-à-dire que les matrices stochastiques appliquent toujours les vecteurs de probabilité à des vecteurs de probabilité, et toute matrice qui applique toujours les vecteurs de probabilité à des vecteurs de probabilité doit être une matrice stochastique.

Enfin, une autre façon de penser aux opérations probabilistes est qu'elles sont des choix aléatoires d'opérations déterministes. Par exemple, on peut penser à l'opération de l'exemple ci-dessus comme appliquant soit la fonction identité soit la fonction constante 0, chacune avec une probabilité de 1/2.1/2. Cela est cohérent avec l'égalité

(112012)=12(1001)+12(1100). \begin{pmatrix} 1 & \frac{1}{2}\\[1mm] 0 & \frac{1}{2} \end{pmatrix} = \frac{1}{2} \begin{pmatrix} 1 & 0\\[1mm] 0 & 1 \end{pmatrix} + \frac{1}{2} \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix}.

Une telle expression est toujours possible, pour un choix arbitraire d'un ensemble d'états classiques et toute matrice stochastique dont les lignes et les colonnes sont identifiées à cet ensemble d'états classiques.

Compositions d'opérations probabilistes

Supposons que X\mathsf{X} soit un système ayant l'ensemble d'états classiques Σ,\Sigma, et que M1,,MnM_1,\ldots,M_n soient des matrices stochastiques représentant des opérations probabilistes sur le système X.\mathsf{X}.

Si la première opération M1M_1 est appliquée à l'état probabiliste représenté par un vecteur de probabilité u,u, l'état probabiliste résultant est représenté par le vecteur M1u.M_1 u. Si on applique ensuite la deuxième opération probabiliste M2M_2 à ce nouveau vecteur de probabilité, on obtient le vecteur de probabilité

M2(M1u)=(M2M1)u. M_2 (M_1 u) = (M_2 M_1) u.

L'égalité découle du fait que la multiplication matricielle (qui inclut la multiplication matrice-vecteur comme cas particulier) est une opération associative. Ainsi, l'opération probabiliste obtenue en composant les première et deuxième opérations probabilistes, où on applique d'abord M1M_1 puis M2,M_2, est représentée par la matrice M2M1,M_2 M_1, qui est nécessairement stochastique.

Plus généralement, la composition des opérations probabilistes représentées par les matrices M1,,MnM_1,\ldots,M_n dans cet ordre, c'est-à-dire que M1M_1 est appliquée en premier, M2M_2 en second, et ainsi de suite, MnM_n étant appliquée en dernier, est représentée par le produit matriciel

MnM1. M_n \,\cdots\, M_1.

Notons que l'ordre est important ici : bien que la multiplication matricielle soit associative, ce n'est pas une opération commutative. Par exemple, si

M1=(1100)etM2=(0110), M_1 = \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix} \quad\text{et}\quad M_2 = \begin{pmatrix} 0 & 1\\[1mm] 1 & 0 \end{pmatrix},

alors

M2M1=(0011)etM1M2=(1100). M_2 M_1 = \begin{pmatrix} 0 & 0 \\[1mm] 1 & 1 \end{pmatrix} \quad\text{et}\quad M_1 M_2 = \begin{pmatrix} 1 & 1\\[1mm] 0 & 0 \end{pmatrix}.

C'est-à-dire que l'ordre dans lequel les opérations probabilistes sont composées est important ; changer l'ordre dans lequel les opérations sont appliquées dans une composition peut modifier l'opération résultante.