Discrimination et tomographie d'états quantiques
Dans la dernière partie de la leçon, nous aborderons brièvement deux tâches liées aux mesures : la discrimination d'états quantiques et la tomographie d'états quantiques.
-
Discrimination d'états quantiques
Pour la discrimination d'états quantiques, on dispose d'une collection connue d'états quantiques accompagnée de probabilités associées à ces états. Une façon concise d'exprimer cela est de dire que l'on dispose d'un ensemble
d'états quantiques.
Un nombre est choisi aléatoirement selon les probabilités et le système est préparé dans l'état L'objectif est de déterminer, par une mesure de seul, quelle valeur de a été choisie.
Ainsi, on dispose d'un nombre fini d'alternatives, ainsi qu'un a priori — c'est-à-dire notre connaissance de la probabilité que chaque soit sélectionné — et le but est de déterminer laquelle de ces alternatives s'est réellement produite. Cela peut être facile pour certains choix d'états et de probabilités, et pour d'autres, il peut être impossible d'éviter toute erreur.
-
Tomographie d'états quantiques
Pour la tomographie d'états quantiques, on dispose d'un état quantique inconnu d'un système — contrairement à la discrimination d'états quantiques, il n'y a donc généralement pas d'a priori ni d'information sur les alternatives possibles.
Cette fois, cependant, ce n'est pas une seule copie de l'état qui est disponible, mais plutôt de nombreuses copies indépendantes. C'est-à-dire que systèmes identiques sont chacun préparés indépendamment dans l'état pour un certain nombre (potentiellement grand.) L'objectif est de trouver une approximation de l'état inconnu, sous forme de matrice densité, en mesurant les systèmes.
Discriminer entre deux états
Le cas le plus simple de discrimination d'états quantiques est celui où il y a deux états, et à discriminer.
Imaginons une situation dans laquelle un bit est choisi aléatoirement : avec probabilité et avec probabilité Un système est préparé dans l'état c'est- à-dire ou selon la valeur de et nous est remis. Notre objectif est de deviner correctement la valeur de par une mesure de Plus précisément, nous chercherons à maximiser la probabilité que notre réponse soit correcte.
Une mesure optimale
Une façon optimale de résoudre ce problème commence par une décomposition spectrale d'une différence pondérée entre et où les poids sont les probabilités correspondantes.
Remarque : on a ici un signe moins plutôt qu'un signe plus : il s'agit d'une différence pondérée et non d'une somme pondérée.
On peut maximiser la probabilité d'une réponse correcte en choisissant une mesure projective de la façon suivante. Commençons par partitionner les éléments de en deux ensembles disjoints et selon que la valeur propre correspondante de la différence pondérée est positive ou nulle, ou bien strictement négative.
On peut alors choisir une mesure projective comme suit.
(Il importe peu dans quel ensemble ou on place les valeurs de pour lesquelles Ici, on choisit arbitrairement de les inclure dans )
C'est une mesure optimale dans la situation considérée, qui minimise la probabilité de déterminer incorrectement l'état sélectionné.
Probabilité de succès
Nous allons maintenant déterminer la probabilité de succès de la mesure
Pour commencer, il n'est pas nécessaire de se préoccuper du choix spécifique de et même si le garder en tête peut être utile. Pour toute mesure (pas nécessairement projective) on peut écrire la probabilité de succès comme suit.
En utilisant le fait que est une mesure, donc on peut réécrire cette expression ainsi.
D'un autre côté, on aurait pu effectuer la substitution à la place. Cela ne change pas la valeur, mais cela donne une expression alternative.
Les deux expressions ont la même valeur, on peut donc les moyenner pour obtenir encore une autre expression de cette valeur. (Moyenner les deux expressions est simplement une astuce pour simplifier l'expression résultante.)
On comprend maintenant pourquoi il est judicieux de choisir les projections et (telles que définies ci-dessus) pour et respectivement — c'est de cette façon que l'on peut rendre la trace dans l'expression finale aussi grande que possible. En particulier,