La physique quantique

Sciences
Auteur:
Source ou livre:
Numéro de la page:

Prise de vue

Née avec le XXe siècle, établie sur des bases claires à partir de 1925, la physique quantique  s’est imposée comme l’outil nécessaire pour décrire les phénomènes à l’échelle atomique (et même certains phénomènes à plus grande échelle). La physique quantique implique une révision radicale des concepts habituels, tirés de notre expérience à notre échelle ; elle représente une véritable révolution qui se fonde sur au moins quatre principes. D’abord, des grandeurs physiques, que l’on imaginait continues, sont en fait discrètes ( c’est-à-dire prennent des valeurs séparées les unes des autres) et ne peuvent varier que par « sauts » discontinus : ces grandeurs sont quantifiées. Ensuite, il est impossible de mesurer simultanément toutes les grandeurs attachées à un système physique ; par exemple la position et la vitesse : la notion de trajectoire n’a pas de sens à l’échelle des particules. Troisièmement, le déterminisme classique est remis en cause par l’inévitable interprétation probabiliste des résultats de mesures. Enfin, des systèmes physiques peuvent apparaître comme corrélés, même s’ils sont très distants les uns des autres : il y a ainsi, dans certains cas, non-séparabilité entre plusieurs systèmes.

La description de l'atome et de ses constituants a nécessité l'élaboration d'une nouvelle physique, appelée physique quantique.En décembre 1900, Max
Planck propose de décrire la matière chauffée comme un ensemble d'oscillateurs vibrants dont les échanges d'énergie sont « composés d'un nombre
bien défini de parties égales» et se font par paquets; il définit pour cela ...

Tous ces aspects ont suscité des doutes, des incompréhensions, des discussions passionnées qui ont marqué fortement l’histoire de la physique, voire de la pensée philosophique. Pourtant, si l’on examine son mode de fonctionnement en évitant de s’enfermer dans une représentation inadéquate, la physique quantique n’a rien de fondamentalement mystérieux. Surtout, elle a reçu et reçoit tous les jours, jusque dans les applications à notre vie quotidienne, des confirmations éclatantes.

I - La naissance de la physique quantique

L’état de la physique à la fin du XIX e siècle

Depuis toujours, l’homme s’efforce de comprendre et de prévoir les phénomènes naturels. À la fin du XIXe siècle, cet effort aboutit, en physique, à des succès impressionnants : presque tous les phénomènes physiques trouvent une explication et peuvent être prédits quantitativement par des lois fondamentales simples ; les diverses branches de la physique sont extraordinairement unifiées.

À l’aube du XXe siècle, la matière apparaît constituée de petits corpuscules. L’hypothèse atomique est désormais admise comme une réalité. Les atomes s’assemblent pour former les molécules, selon les lois de la chimie. L’étude statistique des systèmes formés d’un grand nombre de corpuscules (la théorie cinétique des gaz) permet de déduire les divers concepts de la thermodynamique ( pression, température, entropie…) [cf. THERMODYNAMIQUE].

QUANTIQUE (PHYSIQUE)

Physique quantique

Les corpuscules possèdent des positions et des vitesses. De la sorte, il suffit de connaître ces positions et ces vitesses à un instant donné, et d’appliquer les lois de la mécanique rationnelle, dégagées au cours des siècles par Archimède, Galilée, Newton… pour déterminer l’état d’un système physique à tout instant.

Par ailleurs, les physiciens connaissent un autre type de phénomène : le rayonnement. Le champ qui lui est associé permet d’unifier l’électricité, le magnétisme et l’optique. La synthèse réalisée par James Maxwell prévoit notamment l’existence d’ondes électromagnétiques, existence confirmée ensuite par Heinrich Hertz. Les ondes « hertziennes » ont des longueurs d’onde de l’ordre du mètre ou du centimètre. La lumière visible, dont le caractère ondulatoire a été largement vérifié, est une onde électromagnétique, mais de longueur d’onde beaucoup plus courte, de l’ordre de 10–7 mètre. Les rayons X, découverts par Wilhelm C. Röntgen en 1895, correspondent à des longueurs d’onde encore plus petites.

Le physicien écossais James Clerk Maxwell (1831-1879) dont les travaux ont été capitaux pour la physique théorique. Ses découvertes ont ouvert la voie
à Albert Einstein et à Max Planck.

Au total, la physique classique constitue un système simple, grandiose et solidement confirmé par l’expérience. Un bel édifice qui semble presque achevé et dont s’enorgueillit à juste titre le scientisme dominant à cette époque. Or, en vingt ou trente ans, cet édifice va se trouver complètement bouleversé. Des faits expérimentaux inattendus vont conduire à une révolution radicale : la révolution quantique.

Quelques expériences cruciales

Une première lézarde apparaît dans l’édifice. La thermodynamique classique montre qu’en situation d’équilibre un corps noir, c’ est-à-dire un corps qui absorbe la totalité du rayonnement qu’il reçoit, émet un rayonnement dont le spectre (la distribution des longueurs d’onde) ne dépend que de la température : un morceau de charbon, une tige de fer passent du rouge au jaune, puis du jaune au blanc quand on les chauffe. Mais les spectres observés expérimentalement contredisent totalement ceux que prédit la théorie classique. En 1900, Max Planck (cf. PLANCK) reprend le calcul en supposant que les échanges d’énergie entre matière et rayonnement se font par paquets indivisibles, par quanta, et non pas de façon continue. Ces quanta ε d’énergie sont proportionnels aux fréquences ν du rayonnement (ε = hν) avec une constante de proportionnalité, la constante de Planck h, sensiblement égale à 6,62 × 10–34 joules/ seconde. Cette valeur, quoique extrêmement petite à l’échelle macroscopique, change complètement le résultat théorique, et donne un

James Maxwell

accord parfait entre l’expérience et le nouveau mode de calcul. Considérée au début comme un pur artifice mathématique, cette première quantification devait être suivie de beaucoup d’autres…

Un autre paradoxe apparaît dans l’étude des atomes, qu’on se représente comme de petits systèmes solaires, avec des électrons tournant autour d’un noyau :

  • selon la théorie classique, ces électrons devraient rayonner, donc perdre de l’énergie, et tomber sur le noyau ; ce n’est pas le cas  : les atomes restent stables ;
  • les énergies des électrons liés aux noyaux ne prennent pas n’importe quelle valeur, mais seulement une suite de valeurs discrètes, repérées par des nombres entiers.
Aucun de ces deux faits – stabilité des atomes, quantification des niveaux d'énergie – n'est compatible avec la mécanique classique

. Niels Bohr (cf. BOHR), Arnold Sommerfeld et d’autres ont pu dégager des recettes ad hoc permettant d’ajouter ces aspects quantiques à la théorie classique.

Un troisième paradoxe est fourni par l’effet photoélectrique (cf. effet PHOTOÉLECTRIQUE) : lorsqu’on irradie des atomes par de la lumière, des électrons peuvent être éjectés, mais avec des vitesses qui ne dépendent que de la fréquence de la lumière reçue. Albert Einstein , en 1905, explique cette propriété surprenante en reprenant l’hypothèse de Planck. Il dénomme photons les quanta d’énergie lumineuse, et confirme que la lumière, malgré ses propriétés ondulatoires, doit aussi être considérée, dans certaines conditions, comme formée de « corpuscules ».

Albert Einstein (1879-1955), physicien américain d'origine allemande, donne une conférence sur les rapports entre science et civilisation au Royal Albert
Hall, à Londres, en 1933.

On peut mentionner encore une expérience paradoxale, celle d’Otto Stern et Walter Gerlach (1922) : ils font passer des atomes dans un champ magnétique, et observent que ces atomes sont déviés. Ce fait s’explique, en électromagnétisme classique, par l’existence d’un moment magnétique des atomes, correspondant à un moment angulaire (le moment angulaire mesure la rotation d’une « toupie » sur elle-même). Ce moment angulaire intrinsèque des atomes et des particules recevra plus tard le nom de spin (cf. SPIN). Mais au lieu de trouver toutes les déviations possibles, selon l’angle que fait chaque toupie avec le champ magnétique, on ne trouve

Conférence d'Einstein

qu’un nombre fini de jets étroits à la sortie, quelle que soit l’orientation du champ magnétique. Le spin est quantifié, ce que la mécanique classique ne peut en aucune façon comprendre ni prévoir.

L’ensemble des recettes dégagées alors constitue ce qu’on appelle parfois l’ancienne théorie des quanta. Elle ne perdra son caractère arbitraire, pour devenir une théorie cohérente, qu’au prix d’une révision radicale, celle apportée par la mécanique quantique.

La mécanique ondulatoire et la mécanique des matrices

L’expérience a imposé l’idée que la lumière se présente tantôt comme une onde, tantôt comme un faisceau de corpuscules (les photons ). Louis de Broglie (cf. BROGLIE) rêve d’une théorie unifiée de la matière et du rayonnement. En 1924, il fait une proposition révolutionnaire : associer aussi une onde aux particules de matière. La fréquence de l’onde associée à chaque particule sera proportionnelle à son énergie, conformément à la loi de Planck. Par une série d’expériences, en 1927 et 1928, cette hypothèse est spectaculairement confirmée : en faisant passer des électrons à travers le réseau régulier d’un cristal, on obtient une figure de diffraction semblable à celle que donne la lumière. Comme pour les ondes de l’optique, on peut superposer linéairement (c’est-à-dire par addition ou par soustraction) des ondes de phases ou de fréquences différentes : on considère ainsi plus généralement des « paquets d’onde », ou « fonctions d’onde », associés à chaque particule. Le lien entre onde et corpuscule est assuré par le postulat suivant : la probabilité de trouver la particule en un point donné est mesurée par l’intensité de l’onde.

Reste à trouver l’équation de propagation de ces ondes : c’est ce que réussit Erwin Schrödinger (cf. SCHRÖDINGER) en 1925. On dispose alors d’une théorie prédictive s’appliquant aux particules de matière comme aux photons : la mécanique ondulatoire.

Le physicien Erwin Schrödinger, qui reçut le prix Nobel de physique en 1933, photographié ici vers 1950.

Simultanément, en 1925, Werner Heisenberg (cf. HEISENBERG) part d’un point de vue différent. Il pense qu’il est vain de se représenter les orbites électroniques dans les atomes et qu’il faut s’en tenir aux seules quantités observables : les fréquences et les intensités du rayonnement observé. Il élabore les règles de calcul permettant de déterminer ces quantités. À chaque quantité physique,

Erwin Schrödinger

Heisenberg fait correspondre une matrice, et définit ainsi une mécanique des matrices, dont les prédictions concordent parfaitement avec l’expérience, malgré le caractère très abstrait du point de départ.

Le physicien Werner Heisenberg, photographié l'année de son prix Nobel de physique, en 1932.

Enfin, en 1926, Schrödinger montre que la mécanique des matrices et la mécanique ondulatoire sont équivalentes : ce sont deux formulations différentes d’une théorie qu’on peut décrire en termes plus généraux, la mécanique quantique. Le moment est venu de donner de celle-ci une description succincte.

II -  Le formalisme de la mécanique quantique

L’espace des états et les opérateurs

En mécanique quantique, le point le plus important est la structure additive, dont les ondes donnent un exemple : c’est ce principe de superposition linéaire qui engendre des interférences, constructives ou destructives, analogues aux interférences acoustiques, qui peuvent amplifier ou éteindre les sons.

Les différents états d’un système physique sont représentés par les éléments d’un espace vectoriel, c’est-à-dire des objets mathématiques qui peuvent être ajoutés les uns aux autres, et multipliés par des nombres (cf. algèbre LINÉAIRE).

Les quantités physiques (impulsions, positions, énergies, moments angulaires, etc.) sont représentées par des opérateurs agissant sur les états. Ce formalisme généralise la mécanique des matrices de Heisenberg. Deux cas peuvent se présenter :

  • Si l’état du système, sous l’action d’un opérateur donné, reste inchangé à un facteur multiplicatif près, on dit que l’état est un état propre de l’opérateur, et le facteur numérique est appelé une valeur propre de cet opérateur. Lors d’une mesure de la quantité que l’opérateur représente, on trouvera cette valeur propre comme résultat de la mesure.
  • Si l’état du système n’est pas un état propre de l’opérateur, la mesure de la quantité correspondante pourra donner plusieurs résultats possibles : pour chaque mesure, une des valeurs propres, mais pas toujours la même ! La probabilité de trouver chaque valeur se calcule à partir de l’état du système. Il y a dans ce cas un étalement des résultats de mesures.
Werner Heisenberg

Les relations de Heisenberg

L’aspect le plus nouveau de ce formalisme, par rapport à celui de la mécanique classique, est que le produit de deux opérateurs n’est pas toujours commutatif, contrairement au produit des nombres classiques correspondants. Si deux opérateurs donnés, A et B, ne commutent pas (c’est-à-dire si AB ≠ BA), un état propre de A n’est en général pas un état propre de B. On en tire une conclusion physique importante : il est impossible de déterminer simultanément, avec une précision absolue, toutes les quantités physiques d’un système ; il y aura toujours un étalement pour certaines des mesures. Un exemple important est fourni par la position X, selon une direction donnée, et l’impulsion P (produit de la masse par la vitesse) selon cette direction. La différence entre le produit PX et le produit XP est égale à la constante de Planck h, divisée par 2π. On démontre alors que, si Δx est l’étalement des mesures de position et Δp celui des mesures d’impulsion, on a nécessairement, quel que soit l’état du système : Δx × Δp ≥ h/2π. Ce sont les fameuses relations d’incertitude de Heisenberg (une appellation ambiguë…). Un système physique ne peut pas avoir à la fois, contrairement à ce que suppose la mécanique classique, une position et une vitesse parfaitement déterminées.

Un autre exemple de l’importance des relations de commutation est le cas du moment angulaire, dont les composantes selon les trois axes de coordonnées ne commutent pas entre elles. Cela est vrai en particulier du moment angulaire intrinsèque des particules (le spin). On montre, par un calcul simple, que les valeurs propres du spin ne peuvent être que des multiples entiers ou demi-entiers de h/ 2π. Ainsi s’expliquent naturellement la quantification du spin et le résultat de l’expérience de Stern et Gerlach.

Cependant, pour les systèmes macroscopiques, formés d’un grand nombre de particules, on peut en général négliger l’aspect quantique, la constante de Planck étant très petite par rapport aux grandeurs mises en jeu : on obtient alors l’approximation classique. La physique quantique ne contredit donc pas les acquis de la physique classique, qui reste valide (avec une très bonne approximation) pour décrire les systèmes de grande taille.

Les systèmes de particules identiques

Un autre aspect remarquable de la physique quantique est qu’il faut considérer les particules du même type comme indiscernables. Pour illustrer ce fait, considérons deux ondes se dirigeant l’une vers l’autre : après leur rencontre, on voit deux ondes s’éloigner l’une de l’autre, et rien ne permet de dire si l’onde venant de droite continue son chemin vers la gauche et réciproquement, ou si les deux ondes se sont réfléchies l’une sur l’autre pour rebrousser chemin. Les systèmes de particules identiques doivent être représentés par des états invariants sous l’échange de deux quelconques des particules.

Mais il existe une différence importante selon que le spin de ces particules est un multiple entier ou demi-entier de h/2π. L’expérience et la théorie imposent les règles suivantes :

  • dans le premier cas, il faut prendre des états complètement symétriques par rapport aux échanges de particules. La statistique correspondante est appelée statistique de Bose-Einstein, et les particules de spin entier sont appelées des bosons ;
  • dans le second cas, il faut prendre des états complètement antisymétriques par rapport aux échanges de particules (un facteur —  1 pour chaque échange de deux particules). La statistique correspondante est appelée statistique de Fermi-Dirac, et les particules de spin demi-entier sont appelées des fermions.

En particulier, si deux fermions se trouvent dans le même état, la règle d’antisymétrie impose que l’état global représentant l’ensemble des fermions soit égal à son opposé : il est donc nul. C’est le fameux principe d’exclusion de Pauli : deux fermions ne peuvent pas se trouver dans le même état (cf. PAULI).

Ces règles d’indiscernabilité ont des conséquences physiques importantes, et nous en mentionnerons certaines dans la section suivante.

III - Quelques applications de la physique quantique

Effets quantiques microscopiques

Pour éviter toute confusion, on peut rappeler le vocabulaire : les plus petits constituants de la matière sont les particules élémentaires ( photons, électrons, quarks, gluons, etc.). Les protons et neutrons (états liés de quarks et de gluons) s’assemblent pour former les noyaux d’atomes. Entourés d’électrons, ces noyaux forment des atomes, lesquels s’assemblent en molécules.

Dans l’étude des particules élémentaires, la physique est bien sûr essentiellement quantique. Dans ce domaine, les énergies sont très élevées, et la théorie de la relativité doit être prise en compte. La physique des particules est décrite par la théorie quantique des champs (cf. théorie des CHAMPS).

La physique atomique (cf. physique ATOMIQUE) étudie la dynamique des électrons liés aux noyaux d’atomes. Les équations de la mécanique quantique donnent les valeurs propres possibles pour l’énergie de ces électrons, et l’on trouve des valeurs discrètes de l’énergie, repérées par un nombre entier n. On peut également compter le nombre d’états propres correspondant à chaque valeur propre. Ce nombre est égal à 2 n^2  : il y a donc deux états possibles sur le niveau le plus bas (n = 1), huit sur le deuxième (n = 2), dix-huit sur le troisième, etc. De plus, les électrons sont des fermions : en vertu du principe d’exclusion de Pauli, il ne peut y avoir qu’un électron dans chaque état possible. On retrouve ainsi tous les éléments de la table de Mendeleïev ainsi que les fréquences des raies spectrales de ces divers éléments.

L’étude des noyaux d’atomes qui relève de la physique nucléaire (cf. physique NUCLÉAIRE) est un problème plus compliqué, mais on a pu construire des modèles donnant, avec une bonne approximation, les énergies de liaison entre protons et neutrons. Ces énergies, beaucoup plus élevées que les énergies de liaison des électrons dans les atomes, fournissent l’énergie nucléaire, par fission ( division) ou fusion (assemblage) de noyaux.

Par ailleurs, quand des atomes mettent en commun une partie de leurs électrons, des forces de liaison entre atomes apparaissent, donnant naissance aux molécules (c’est le domaine de la chimie). Là encore, l’outil principal est l’équation de Schrödinger pour des électrons soumis aux forces de plusieurs noyaux. Le problème est donc plus ardu que celui de la physique atomique, et il est d’autant plus difficile que les molécules comportent un plus grand nombre d’atomes. Cependant, de nombreuses méthodes d’approximation ont été élaborées avec succès. La chimie quantique a fait de la chimie une discipline donnant des prédictions quantitatives fondées sur les mécanismes de base.

Un autre exemple d’application est l’étude de l’état solide. Habituellement, les solides se présentent sous une forme très ordonnée, la forme cristalline, qui est un réseau régulier d’atomes (cf.  MATIÈRE [physique] - État solide). Dans ce réseau, les électrons du niveau d’énergie le plus haut (les électrons « de valence » de la chimie) sont mis en commun et se comportent presque comme des électrons libres à l’intérieur du cristal. Ils peuvent donc circuler dans le solide, lui donnant ainsi des propriétés de conduction électrique et de conduction thermique. Mais les prédictions de la théorie classique ne concordent pas avec l’expérience, surtout en ce qui concerne la chaleur spécifique des métaux. Un modèle simple, dû à Sommerfeld, considère les électrons comme libres, mais tient compte du fait que ce sont des fermions, obéissant au principe d’exclusion de Pauli. Cette simple modification, déjà typiquement quantique, permet de retrouver des chaleurs spécifiques en assez bon accord avec l’expérience.

Si l’on tient compte de l’interaction des électrons avec les noyaux d’atomes, la mécanique quantique prédit que les valeurs propres, pour les énergies des électrons de valence, se trouvent dans des bandes d’énergie. Selon les matériaux, ces bandes peuvent être :

  • soit séparées les unes des autres, et complètement pleines ou complètement vides d’électrons ; le principe de Pauli ne laisse alors plus de liberté de mouvement, et le corps est isolant ;
  • soit non séparées, ou incomplètement remplies, et le corps est conducteur.

Un cas particulièrement intéressant est le cas où une bande d’énergie complètement remplie est très faiblement séparée d’une bande vide : sous l’effet d’une excitation extérieure, quelques électrons peuvent sauter dans la bande vide, permettant une conduction.

Ces corps particuliers, soit simples (silicium, germanium…), soit composés (arséniure de gallium…), sont appelés des semi-conducteurs (cf. SEMICONDUCTEURS), et sont utilisés dans tous les composants électroniques. À la jonction entre deux semi-conducteurs, une variation rapide du potentiel électrique apparaît. En juxtaposant deux jonctions, on obtient un effet d’amplification, utilisé dans les transistors.

Effets quantiques macroscopiques

À grande échelle, l’approximation classique peut parfois se révéler insuffisante, et certains effets typiquement quantiques peuvent se manifester. C’est le cas lorsque de nombreux systèmes microscopiques sont corrélés de façon assez cohérente pour donner naissance à des phénomènes collectifs. Le magnétisme (cf. MAGNÉTISME), qui est dû aux propriétés statistiques des systèmes formés par les spins des atomes, en est un exemple.

Une autre illustration apparaît avec les photons. Dans la lumière ordinaire, il n’y a aucune corrélation entre les phases des différents photons. Mais en préparant convenablement des atomes, par le pompage optique d’Alfred Kastler (cf. POMPAGE OPTIQUE), on peut émettre de nombreux photons en cohérence de phase. On obtient ce qu’on appelle les lasers, dont chacun connaît les étonnantes propriétés : cumulation des effets, absence de dispersion, etc. Ces propriétés sont au cœur d’une discipline nouvelle : l’optique quantique.

Le Français Alfred Kastler (1902-1984) a obtenu le prix Nobel de physique, en 1966, pour le développement de la méthode dite du pompage optique.

Les supraconducteurs (cf. SUPRACONDUCTIVITÉ) fournissent également un exemple remarquable : à très basse température ( quelques degrés au-dessus du zéro absolu), les métaux perdent brusquement toute résistance électrique ; le courant électrique peut s’y maintenir – jusqu’à plusieurs années ! – sans se dissiper en chaleur. Pour ces systèmes, la mécanique quantique montre qu’à très basse température le bilan total d’énergie favorise le groupement en paires de tous les électrons de valence. Alors que les électrons sont des fermions, ces paires forment des bosons qui échappent au principe de Pauli et peuvent s’accumuler dans le même état d’énergie minimale. La théorie des paires explique les principales propriétés des supraconducteurs. Cependant, on a découvert récemment des matériaux qui deviennent supraconducteurs à des températures beaucoup plus élevées, pour lesquelles la théorie des paires n’est pas bien justifiée ; c’est là un sujet de recherche encore actuel…

Alfred Kastler

Un autre phénomène quantique à grande échelle est la superfluidité. À très basse température, l’hélium liquide perd toute viscosité : il ne fait pas de « vagues », monte le long des parois, etc. ! La mécanique quantique explique ce phénomène par le fait qu’à basse température tous les atomes tombent dans le même état d’énergie minimale. Cela est possible, pour l’isotope d’hélium 4 (2 protons + 2  neutrons), parce que, à l’inverse des électrons, les atomes sont des bosons, et relèvent de la statistique de Bose-Einstein. L’hélium 3 (2  protons + 1 neutron) devient lui aussi superfluide, quoique les atomes de cet isotope soient des fermions ; mais à basse température, comme les électrons de valence d’un métal supraconducteur, les atomes d’hélium 3 se regroupent en paires. Chaque paire est alors un boson, et la superfluidité apparaît.

IV -  Problèmes d’interprétation et controverses

La physique quantique présente des caractères inhabituels, dont l’interprétation a été longuement discutée. Cette réflexion a donné lieu à des controverses passionnées, dont certaines durent encore.

Tout d’abord, les relations de Heisenberg limitent la détermination simultanée des positions et des impulsions. À l’inverse de ce que sous-entend la physique classique, il faut admettre que la position, la vitesse, le moment angulaire, etc. ne sont pas des grandeurs que « possède » une particule mais simplement le résultat de mesures, c’est-à-dire d’interactions entre la particule et des appareils. Une mesure de position, par exemple, nécessite des appareillages incompatibles avec ceux qui mesurent l’impulsion, et la perturbation apportée par chaque mesure au système étudié ne peut pas être négligée à l’échelle des particules.

Par ailleurs, du fait de l’étalement des résultats de mesure, on ne peut faire de prédictions qu’en termes de probabilités. En physique classique, l’apparition de probabilités est attribuée à une ignorance partielle sur l’ensemble des grandeurs. En physique quantique, il s’agit d’une nécessité intrinsèque, aussi complète que soit la connaissance possible du système. Cette connaissance maximale est donnée par le « vecteur d’état », et non par les valeurs des grandeurs physiques mesurées. En un sens, le déterminisme est donc préservé, puisque l’état évolue selon des lois parfaitement déterministes : les équations de la mécanique quantique. Cependant, l’aspect probabiliste des résultats de mesure a choqué certains auteurs, qui ont imaginé l’existence de variables cachées partiellement ignorées (cf. DÉTERMINISME).

En 1935, Albert Einstein, Boris Podolsky et Nathan Rosen avaient proposé une expérience qui leur semblait de nature à établir le caractère incomplet de la théorie quantique : un système de spin 0 se désintègre en deux particules, qui partent dans des directions opposées. Le moment angulaire étant conservé, les deux particules doivent avoir des spins de sens contraires, mais chacun des spins reste indéterminé. Si l’on mesure alors le spin d’une des particules, on se trouve brusquement connaître celui de l’autre. Or la seconde particule, étant très éloignée, n’a pas pu être perturbée : l’interprétation des auteurs est qu’un « élément de réalité », nécessairement possédé par la seconde particule (là est peut-être un point faible de l’argument…), n’est pas pris en compte par la mécanique quantique.

En 1964, John Bell établit des inégalités permettant de distinguer entre la théorie quantique et une théorie de variables cachées, quelle qu’elle soit (du moins tant que les variables restent locales). Des expériences du type Einstein-Podolsky-Rosen ont finalement été réalisées entre 1972 et 1982, principalement par Alain Aspect à l’Institut d’optique de l’université d’Orsay : compte tenu des inégalités de Bell, ces expériences tranchent définitivement en faveur de la mécanique quantique, excluant toute théorie de variables cachées locales

. Reste un point troublant : la prédiction correcte est obtenue en attribuant un vecteur d’état à l’ensemble des deux particules, même très éloignées l’une de l’autre. Des systèmes qui proviennent d’une source commune, même lointaine dans le temps ou dans l’espace, doivent être, dans certains cas, considérés comme non séparables. Beaucoup d’encre a coulé à propos de cette non-séparabilité, certains allant jusqu’à dire que seule la fonction d’onde de l’Univers entier (tout à fait inaccessible !) avait un sens. Personne n’a vraiment explicité les conditions sous lesquelles on peut légitimement représenter un système isolé en négligeant le reste de l’Univers. En pratique, c’est cependant ce que font les physiciens, avec d’ordinaire le plus grand succès.

Plus généralement, les processus de mesure ont été abondamment discutés. C’est un problème délicat pour plusieurs raisons : les appareils de mesure sont macroscopiques, et donc normalement décrits dans le langage de la physique classique ; mais le système mesuré et l’appareil de mesure, ayant interagi, obéissent au principe de non-séparabilité. Le point important est qu’à l’issue d’une

Claude de CALAN

mesure l’état du système physique observé se trouve modifié et transformé en un état propre correspondant à la valeur propre trouvée dans la mesure. Cette modification (historiquement appelée « réduction du paquet d’ondes ») a fait l’objet de gloses innombrables. Certains auteurs soutiennent l’opinion (très idéaliste) que la réduction a lieu lorsque l’expérimentateur prend conscience du résultat de la mesure et que la conscience échappe à la mécanique quantique. D’autres ont imaginé une famille infinie d’univers parallèles, chaque mesure envoyant les systèmes physiques sur une des branches de cette famille… Les auteurs de tendance plus réaliste pensent que la réduction du paquet d’ondes est l’aboutissement d’un processus complexe entre le système étudié et l’appareil de mesure. Mais c’est évidemment là un problème extrêmement difficile : on manque encore d’une théorie satisfaisante de la mesure.

Ces débats relèvent autant de la philosophie que de la physique et ne doivent pas être occultés. Les notions de temps et d’espace y jouent un rôle crucial. Il est fort possible qu’un consensus sur l’interprétation de la mécanique quantique ne soit pas près de s’établir. En attendant, les physiciens continuent d’y réfléchir, mais se consacrent surtout à exploiter, dans tous les domaines concernés, la validité et l’efficacité de la physique quantique.

Bibliographie

M. BITBOL, Mécanique quantique, une introduction philosophique, Flammarion, Paris, 1996
N. BOHR, Physique atomique et connaissance humaine, Gallimard, Paris, 1991
C. COHEN-TANNOUDJI, B. DIU & F. LALOË, Mécanique quantique, Hermann, Paris, 1977
B. D'ESPAGNAT, Le Réel voilé, analyse des concepts quantiques, Fayard, Paris, 1994
R. P. FEYNMAN, La Nature de la physique, Seuil, Paris, 1980
R. P. FEYNMAN, R. B. LEIGHTON & M. SANDS, Le Cours de physique de Feynman, vol. III, Addison-Wesley, Londres, 1970
W. HEISENBERG, Physique et philosophie, la science moderne en révolution, Albin Michel, Paris, 1971
L. LANDAU & E. LIFCHITZ, Mécanique quantique, Éd. Mir, Moscou, 1967
J.-M. LEVY-LEBLOND & F. BALIBAR, Quantique, InterÉditions, Paris, 1984
A. MESSIAH, Mécanique quantique, vol. I et II, Dunod, Paris, 1959
R. OMNES, Philosophie de la science contemporaine, Gallimard-Folio, Paris, 1994
S. ORTOLI & J.-P. PHARABOD, Le Cantique des quantiques, La Découverte, 1984.
comments powered by Disqus