Podcasts sur l'histoire

La naissance de la théorie quantique

La naissance de la théorie quantique

Le physicien allemand Max Planck publie son étude révolutionnaire de l'effet du rayonnement sur une substance « corps noir », et la théorie quantique de la physique moderne est née.

Grâce à des expériences physiques, Planck a démontré que l'énergie, dans certaines situations, peut présenter des caractéristiques de la matière physique. Selon les théories de la physique classique, l'énergie est uniquement un phénomène ondulatoire continu, indépendant des caractéristiques de la matière physique. La théorie de Planck soutenait que l'énergie rayonnante est constituée de composants semblables à des particules, appelés « quanta ». La théorie a aidé à résoudre des phénomènes naturels auparavant inexpliqués tels que le comportement de la chaleur dans les solides et la nature de l'absorption de la lumière au niveau atomique. En 1918, Planck a reçu le prix Nobel de physique pour ses travaux sur le rayonnement du corps noir.

D'autres scientifiques, tels qu'Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger et Paul M. Dirac, ont avancé la théorie de Planck et rendu possible le développement de la mécanique quantique, une application mathématique de la théorie quantique qui soutient que l'énergie est à la fois matière et une vague, en fonction de certaines variables. La mécanique quantique adopte ainsi une vision probabiliste de la nature, contrastant fortement avec la mécanique classique, dans laquelle toutes les propriétés précises des objets sont, en principe, calculables. Aujourd'hui, la combinaison de la mécanique quantique avec la théorie de la relativité d'Einstein est la base de la physique moderne.


La naissance du temps : les boucles quantiques décrivent l'évolution de l'Univers

Qu'est-ce que le Big Bang et que s'est-il passé avant ? Des scientifiques de la Faculté de physique de l'Université de Varsovie ont tenté de répondre à la question. Dans le cadre de la gravitation quantique à boucle, ils ont proposé un nouveau modèle théorique, qui pourrait s'avérer utile pour valider des hypothèses sur les événements antérieurs au Big Bang. Cette réalisation est l'un des rares modèles décrivant la théorie d'Einstein dans son intégralité et pas seulement sa version grandement simplifiée.

Des physiciens de la Faculté de physique de l'Université de Varsovie ont proposé -- sur les pages de Examen physique D -- un nouveau modèle théorique de la gravité quantique décrivant l'émergence de l'espace-temps à partir des structures de la théorie quantique. Ce n'est pas seulement l'un des rares modèles décrivant l'intégralité de la théorie de la relativité générale avancée par Einstein, mais il est également parfaitement cohérent sur le plan mathématique. « Les solutions appliquées permettent de retracer l'évolution de l'Univers d'une manière physiquement plus acceptable que dans le cas des modèles cosmologiques précédents », explique le professeur Jerzy Lewandowski de la Faculté de physique de l'Université de Varsovie (FUW).

Alors que la théorie de la relativité générale est appliquée pour décrire l'Univers à l'échelle cosmologique, la mécanique quantique est appliquée pour décrire la réalité à l'échelle atomique. Les deux théories ont été développées au début du 20e siècle. Leur validité a depuis été confirmée par des expériences et des observations très sophistiquées. Le problème réside dans le fait que les théories s'excluent mutuellement.

Selon la théorie de la relativité générale, la réalité est toujours déterminée de manière unique (comme en mécanique classique). Cependant, le temps et l'espace jouent un rôle actif dans les événements et sont eux-mêmes soumis aux équations d'Einstein. Selon la physique quantique, d'autre part, on ne peut acquérir qu'une compréhension approximative de la nature. Une prédiction ne peut être faite qu'avec une probabilité dont la précision est limitée par des propriétés inhérentes. Mais les lois des théories quantiques dominantes ne s'appliquent pas au temps et à l'espace. De telles contradictions ne sont pas pertinentes dans des conditions standard - les galaxies ne sont pas soumises aux phénomènes quantiques et la gravité quantique joue un rôle mineur dans le monde des atomes et des particules. Néanmoins, la gravité et les effets quantiques doivent fusionner dans des conditions proches du Big Bang.

Les modèles cosmologiques traditionnels décrivent l'évolution de l'Univers dans le cadre de la théorie générale de la relativité elle-même. Les équations au cœur de la théorie suggèrent que l'Univers est une création dynamique, en constante expansion. Lorsque les théoriciens tentent de découvrir à quoi ressemblait l'Univers autrefois, ils atteignent le stade où la densité et la température dans le modèle deviennent infinies - en d'autres termes, ils perdent leur sens physique. Ainsi, les infinis ne peuvent être qu'indicatifs des faiblesses de l'ancienne théorie et le moment du Big Bang ne doit pas signifier la naissance de l'Univers.

Afin d'acquérir au moins une certaine connaissance de la gravité quantique, les scientifiques construisent des modèles quantiques simplifiés, appelés modèles cosmologiques quantiques, dans lesquels l'espace-temps et la matière sont exprimés en une seule valeur ou en quelques valeurs seulement. Par exemple, le modèle développé par Ashtekar, Bojowald, Lewandowski, Pawłowski et Singh prédit que la gravité quantique empêche l'augmentation de la densité énergétique de la matière de dépasser une certaine valeur critique (de l'ordre de la densité de Planck). Par conséquent, il doit y avoir eu un univers en contraction avant le Big Bang. Lorsque la densité de matière a atteint la valeur critique, il s'en est suivi une expansion rapide - le Big Bang, connu sous le nom de Big Bounce. Cependant, le modèle est un modèle de jouet très simplifié.

La vraie réponse au mystère du Big Bang réside dans une théorie quantique unifiée de la matière et de la gravité. Une tentative pour développer une telle théorie est la gravitation quantique à boucles (LQG). La théorie soutient que l'espace est tissé à partir de fils unidimensionnels. "C'est comme dans le cas d'un tissu - bien qu'il soit apparemment lisse de loin, il devient évident de près qu'il se compose d'un réseau de fibres", décrit Wojciech Kamiński, MSc de FUW. Un tel espace constituerait un tissu fin - une surface d'un centimètre carré serait constituée de 10 66 fils.

Les physiciens Marcin Domagała, Wojciech Kamiński et Jerzy Lewandowski, ainsi que Kristina Giesel de la Louisiana State University (invité), ont développé leur modèle dans le cadre de la gravitation quantique en boucle. Les points de départ du modèle sont deux champs, dont l'un est un champ gravitationnel. "Grâce à la théorie de la relativité générale, nous savons que la gravité est la géométrie même de l'espace-temps. On peut donc dire que notre point de départ est l'espace tridimensionnel", explique Marcin Domagała, PhD (FUW).

Le deuxième point de départ est un champ scalaire - un objet mathématique dans lequel une valeur particulière est attribuée à chaque point de l'espace. Dans le modèle proposé, les champs scalaires sont interprétés comme la forme la plus simple de la matière. Les champs scalaires sont connus en physique depuis des années, ils sont appliqués, entre autres, pour décrire la distribution de température et de pression dans l'espace. "Nous avons opté pour un champ scalaire car c'est la caractéristique typique des modèles cosmologiques contemporains et notre objectif est de développer un modèle qui constituerait une nouvelle avancée dans la recherche sur la gravité quantique", observe le professeur Lewandowski.

Dans le modèle développé par des physiciens de Varsovie, le temps apparaît comme la relation entre le champ gravitationnel (l'espace) et le champ scalaire -- un moment dans le temps est donné par la valeur du champ scalaire. "Nous posons la question de la forme de l'espace à une valeur donnée du champ scalaire et les équations quantiques d'Einstein fournissent la réponse", explique le professeur Lewandowski. Ainsi, le phénomène du passage du temps apparaît comme la propriété de l'état des champs gravitationnel et scalaire et l'apparition d'un tel état correspond à la naissance du bien connu espace-temps. "Il est intéressant de noter que le temps est inexistant au début du modèle. Rien ne se passe. L'action et la dynamique apparaissent comme l'interrelation entre les champs lorsque nous commençons à nous poser des questions sur la relation entre un objet et un autre", explique le professeur Lewandowski.

Les physiciens de FUW ont permis de fournir une description plus précise de l'évolution de l'Univers. Alors que les modèles basés sur la théorie de la relativité générale sont simplifiés et supposent que le champ gravitationnel en chaque point de l'Univers est identique ou sujet à des changements mineurs, le champ gravitationnel dans le modèle proposé peut différer en différents points de l'espace.

La construction théorique proposée est le premier modèle hautement avancé caractérisé par une cohérence mathématique interne. Il s'agit du prolongement naturel de la recherche sur la quantification de la gravité, où chaque nouvelle théorie est dérivée des théories classiques. À cette fin, les physiciens appliquent certains algorithmes, appelés quantifications. "Malheureusement pour les physiciens, les algorithmes sont loin d'être précis. Par exemple, il peut résulter d'un algorithme qu'un espace de Hilbert doit être construit, mais aucun détail n'est fourni", explique Marcin Domagała, MSc. "Nous avons réussi à effectuer une quantification complète et obtenu l'un des modèles possibles."

Il y a encore un long chemin à parcourir, selon le professeur Lewandowski : « Nous avons développé une certaine machinerie théorique. Nous pouvons commencer à y poser des questions et elle fournira les réponses. Les théoriciens de FUW ont l'intention, entre autres, de se demander si le Big Bounce se produit réellement dans leur modèle. « À l'avenir, nous essaierons d'inclure dans le modèle d'autres champs du modèle standard de particules élémentaires. Nous sommes nous-mêmes curieux de savoir ce qui va se passer », déclare le professeur Lewandowski.


Le réseau de Copenhague

Auteurs: Kojevnikov, Alexeï

  • Décrit les premiers pas hésitants des premiers physiciens quantiques
  • Suit les trajectoires de jeunes chercheurs en période économiquement incertaine et difficile
  • Fait partie d'une collection en quatre volumes retraçant le développement de la théorie quantique dans quatre centres européens

Achetez ce livre

  • ISBN 978-3-030-59188-5
  • Filigrané numériquement, sans DRM
  • Formats inclus : EPUB, PDF
  • les ebooks peuvent être utilisés sur tous les appareils de lecture
  • Téléchargement immédiat de l'eBook après l'achat
  • ISBN 978-3-030-59187-8
  • Livraison gratuite pour les particuliers dans le monde entier
  • Les clients institutionnels doivent prendre contact avec leur chargé de clientèle
  • Habituellement prêt à être expédié dans les 3 à 5 jours ouvrables, si en stock

Ce livre est une analyse historique de la révolution de la mécanique quantique et de l'émergence d'une nouvelle discipline du point de vue non pas d'un professeur, mais d'un doctorant récent ou actuel. étudiant qui vient de se lancer dans une carrière universitaire incertaine dans une période économiquement difficile. La mécanique quantique a explosé sur la scène intellectuelle entre 1925 et 1927, avec plus de 200 publications à travers le monde, la plupart rédigées par de jeunes scientifiques de moins de 30 ans, des étudiants diplômés ou des boursiers postdoctoraux. La théorie qui en a résulté était un produit collectif qu'aucune autorité ne pouvait revendiquer, mais elle avait un clin d'œil géographique majeur - l'Institut de physique théorique de Copenhague - où la plupart des échanges d'idées informels et pré-publiés ont eu lieu et où chaque participant de la nouvelle communauté aspirait à visiter. Une rare combinaison de circonstances et de ressources – politiques, diplomatiques, financières et intellectuelles – a permis à Niels Bohr d'établir cette « Mecque » de la théorie quantique en dehors des centres scientifiques traditionnels et plus puissants. Des stagiaires postdoctoraux internationaux transitoires, plutôt que des professeurs établis, ont développé une culture de la recherche qui est devenue la source d'innovations majeures dans le domaine. Les assistanats temporaires, les postes postdoctoraux et leurs équivalents ont été le principal mode d'existence des jeunes universitaires pendant la période de crise économique et de tensions internationales de l'après-guerre. Des trajectoires de carrière incertaines et des évolutions imprévisibles dans des postes temporaires non stables ont contribué à leur vision générale et à leurs interprétations de la théorie émergente de la mécanique quantique.

Ce livre fait partie d'une collection en quatre volumes abordant les débuts de la recherche en physique quantique dans les principaux centres européens de Göttingen, Copenhague, Berlin et Munich. Ces travaux sont issus d'une vaste étude sur la révolution quantique en tant que transformation majeure des connaissances physiques entreprises. par l'Institut Max Planck d'histoire des sciences et l'Institut Fritz Haber (2006-2012).


La naissance de la théorie quantique - HISTOIRE

Le physicien allemand Max Planck publie son étude révolutionnaire de l'effet des rayonnements sur une substance "corps noir", et la théorie quantique de la physique moderne est née.

Grâce à des expériences physiques, Planck a démontré que l'énergie, dans certaines situations, peut présenter des caractéristiques de la matière physique. Selon les théories de la physique classique, l'énergie est uniquement un phénomène ondulatoire continu, indépendant des caractéristiques de la matière physique. La théorie de Planck soutenait que l'énergie rayonnante est constituée de composants semblables à des particules, appelés « quantiques ». La théorie a aidé à résoudre des phénomènes naturels auparavant inexpliqués tels que le comportement de la chaleur dans les solides et la nature de l'absorption de la lumière au niveau atomique. En 1918, Planck a reçu le prix Nobel de physique pour ses travaux sur le rayonnement du corps noir.

D'autres scientifiques, tels qu'Albert Einstein, Niels Bohr, Louis de Broglie, Erwin Schrodinger et Paul M. Dirac, ont avancé la théorie de Planck et rendu possible le développement de la mécanique quantique - une application mathématique de la théorie quantique qui maintient que l'énergie est à la fois matière et une onde, en fonction de certaines variables. La mécanique quantique adopte ainsi une vision probabiliste de la nature, contrastant fortement avec la mécanique classique, dans laquelle toutes les propriétés précises des objets sont, en principe, calculables. Aujourd'hui, la combinaison de la mécanique quantique avec la théorie de la relativité d'Einstein est la base de la physique moderne.


La théorie des cordes représente une excroissance de la théorie de la matrice S, [1] un programme de recherche commencé par Werner Heisenberg en 1943 [2] suite à l'introduction de la matrice S par John Archibald Wheeler en 1937. [3] De nombreux théoriciens éminents ont repris et préconisé la théorie de la matrice S, à partir de la fin des années 1950 et tout au long des années 1960. Le domaine est devenu marginalisé et abandonné au milieu des années 1970 [4] et a disparu dans les années 1980. Les physiciens l'ont négligé parce que certaines de ses méthodes mathématiques étaient étrangères, et parce que la chromodynamique quantique l'a supplanté en tant qu'approche expérimentalement mieux qualifiée des interactions fortes. [5]

La théorie a présenté une refonte radicale des fondements des lois physiques. Dans les années 40, il était devenu clair que le proton et le neutron n'étaient pas des particules ponctuelles comme l'électron. Leur moment magnétique différait grandement de celui d'une particule ponctuelle chargée de spin ½, trop pour attribuer la différence à une petite perturbation. Leurs interactions étaient si fortes qu'elles se sont dispersées comme une petite sphère, pas comme un point. Heisenberg a proposé que les particules en interaction forte étaient en fait des objets étendus, et parce qu'il y a des difficultés de principe avec les particules relativistes étendues, il a proposé que la notion d'un point d'espace-temps s'effondre à l'échelle nucléaire.

Sans espace et sans temps, il devient difficile de formuler une théorie physique. Heisenberg a proposé une solution à ce problème : se concentrer sur les quantités observables, ces choses mesurables par des expériences. Une expérience ne voit une quantité microscopique que si elle peut être transférée par une série d'événements aux dispositifs classiques qui entourent la chambre expérimentale. Les objets qui volent à l'infini. sont des particules stables, dans des superpositions quantiques d'états de quantité de mouvement différents.

Heisenberg a proposé que même lorsque l'espace et le temps ne sont pas fiables, la notion d'état de quantité de mouvement, qui est définie loin de la chambre expérimentale, fonctionne toujours. La quantité physique qu'il a proposée comme fondamentale est l'amplitude de la mécanique quantique pour qu'un groupe de particules entrantes se transforme en un groupe de particules sortantes, et il n'a pas admis qu'il y ait eu des étapes entre les deux.

La matrice S est la quantité qui décrit comment une collection de particules entrantes se transforme en particules sortantes. Heisenberg a proposé d'étudier la matrice S directement, sans aucune hypothèse sur la structure de l'espace-temps. Mais lorsque les transitions du passé lointain au futur lointain se produisent en une seule étape sans étapes intermédiaires, il devient difficile de calculer quoi que ce soit. Dans la théorie quantique des champs, les étapes intermédiaires sont les fluctuations des champs ou de manière équivalente les fluctuations des particules virtuelles. Dans cette théorie de la matrice S proposée, il n'y a aucune quantité locale du tout.

Heisenberg a proposé d'utiliser l'unitarité pour déterminer la matrice S. Dans toutes les situations imaginables, la somme des carrés des amplitudes doit être égale à 1. Cette propriété peut déterminer l'amplitude dans une théorie quantique des champs ordre par ordre dans une série de perturbations une fois que les interactions de base sont données, et dans de nombreuses théories quantiques des champs, les amplitudes croître trop vite à haute énergie pour former une matrice S unitaire. Mais sans hypothèses supplémentaires sur le comportement à haute énergie, l'unitarité n'est pas suffisante pour déterminer la diffusion, et la proposition a été ignorée pendant de nombreuses années.

La proposition de Heisenberg a été reprise en 1956 lorsque Murray Gell-Mann a reconnu que les relations de dispersion - comme celles découvertes par Hendrik Kramers et Ralph Kronig dans les années 1920 (voir relations Kramers-Kronig) - permettent la formulation d'une notion de causalité, une notion selon laquelle les événements dans le futur n'influencerait pas les événements du passé, même lorsque les notions microscopiques de passé et de futur ne sont pas clairement définies. Il a également reconnu que ces relations pourraient être utiles dans le calcul d'observables pour le cas de la physique des interactions fortes. [6] Les relations de dispersion étaient des propriétés analytiques de la matrice S, [7] et elles imposaient des conditions plus strictes que celles qui découlent de l'unitarité seule. Ce développement de la théorie de la matrice S découle de la découverte par Murray Gell-Mann et Marvin Leonard Goldberger (1954) de la symétrie croisée, une autre condition que la matrice S devait remplir. [8] [7]

Les défenseurs éminents de la nouvelle approche des « relations de dispersion » comprenaient Stanley Mandelstam [9] et Geoffrey Chew, [10] tous deux à l'UC Berkeley à l'époque. Mandelstam a découvert les relations de double dispersion, une forme analytique nouvelle et puissante, en 1958, [9] et a cru qu'elle fournirait la clé du progrès dans les interactions fortes insolubles.

À la fin des années 1950, de nombreuses particules interagissant fortement de spins toujours plus élevés avaient été découvertes, et il est devenu clair qu'elles n'étaient pas toutes fondamentales. Alors que le physicien japonais Shoichi Sakata a proposé que les particules puissent être comprises comme des états liés de seulement trois d'entre elles (le proton, le neutron et le modèle Lambda voir Sakata), [11] Geoffrey Chew pensait qu'aucune de ces particules n'était fondamentale [12] [13] (pour plus de détails, voir le modèle Bootstrap). L'approche de Sakata a été retravaillée dans les années 1960 dans le modèle des quarks par Murray Gell-Mann et George Zweig en rendant les charges des constituants hypothétiques fractionnaires et en rejetant l'idée qu'il s'agissait de particules observées. À l'époque, l'approche de Chew était considérée comme plus courante parce qu'elle n'introduisait pas de valeurs de charge fractionnaires et parce qu'elle se concentrait sur des éléments de matrice S mesurables expérimentalement, et non sur des constituants ponctuels hypothétiques.

En 1959, Tullio Regge, un jeune théoricien italien, a découvert que les états liés en mécanique quantique peuvent être organisés en familles connues sous le nom de trajectoires de Regge, chaque famille ayant des moments angulaires distincts. [14] Cette idée a été généralisée à la mécanique quantique relativiste par Stanley Mandelstam, Vladimir Gribov et Marcel Froissart [fr] , en utilisant une méthode mathématique (la représentation Sommerfeld-Watson) découverte des décennies plus tôt par Arnold Sommerfeld et Kenneth Marshall Watson [de] : la résultat a été surnommé la formule de Froissart-Gribov. [15]

En 1961, Geoffrey Chew et Steven Frautschi ont reconnu que les mésons avaient des trajectoires de Regge en ligne droite [16] (dans leur schéma, le spin est tracé en fonction de la masse au carré sur un tracé dit de Chew-Frautschi), ce qui impliquait que la diffusion de ces particules serait ont un comportement très étrange - il devrait tomber de façon exponentielle rapidement à de grands angles. Avec cette réalisation, les théoriciens espéraient construire une théorie des particules composites sur les trajectoires de Regge, dont les amplitudes de diffusion avaient la forme asymptotique exigée par la théorie de Regge.

En 1967, une avancée notable dans l'approche bootstrap a été le principe de dualité DHS introduit par Richard Dolen, David Horn et Christoph Schmid en 1967, [17] à Caltech (le terme original pour cela était « dualité moyenne » ou « finie dualité de la règle de somme d'énergie (FESR)"). Les trois chercheurs ont remarqué que les descriptions d'échange de pôles de Regge (à haute énergie) et de résonance (à basse énergie) offrent de multiples représentations/approximations d'un seul et même processus physiquement observable. [18]

Le premier modèle dans lequel les particules hadroniques suivent essentiellement les trajectoires de Regge était le modèle de résonance double qui a été construit par Gabriele Veneziano en 1968, [19] qui a noté que la fonction bêta d'Euler pouvait être utilisée pour décrire les données d'amplitude de diffusion à 4 particules pour de telles particules. . L'amplitude de diffusion de Veneziano (ou modèle de Veneziano) a été rapidement généralisée à un N-particle amplitude par Ziro Koba et Holger Bech Nielsen [20] (leur approche a été surnommée le formalisme Koba-Nielsen), et à ce qui est maintenant reconnu comme des cordes fermées par Miguel Virasoro [21] et Joel A. Shapiro [22] (leur approche a été surnommée le modèle Shapiro-Virasoro).

En 1969, les règles Chan-Paton (proposées par Jack E. Paton et Hong-Mo Chan) [23] ont permis d'ajouter des facteurs d'isospin au modèle de Veneziano. [24]

En 1969-1970, Yoichiro Nambu, [25] Holger Bech Nielsen, [26] et Leonard Susskind [27] [28] ont présenté une interprétation physique de l'amplitude de Veneziano en représentant les forces nucléaires comme des cordes vibrantes unidimensionnelles. Cependant, cette description basée sur des cordes de la force forte a fait de nombreuses prédictions qui contredisaient directement les résultats expérimentaux.

En 1971, Pierre Ramond [29] et, indépendamment, John H. Schwarz et André Neveu [30] ont tenté d'implémenter des fermions dans le modèle dual. Cela a conduit au concept de « chaînes filantes » et a ouvert la voie à une méthode pour éliminer le tachyon problématique (voir le formalisme RNS). [31]

Les modèles à double résonance pour les interactions fortes étaient un sujet d'étude relativement populaire entre 1968 et 1973. [32] La communauté scientifique s'est désintéressée de la théorie des cordes en tant que théorie des interactions fortes en 1973 lorsque la chromodynamique quantique est devenue le principal objectif de la recherche théorique [33] (principalement en raison de l'attrait théorique de sa liberté asymptotique). [34]

En 1974, John H. Schwarz et Joël Scherk, [35] et indépendamment Tamiaki Yoneya, [36] ont étudié les modèles de vibration des cordes de type boson et ont découvert que leurs propriétés correspondaient exactement à celles du graviton, la particule messagère hypothétique de la force gravitationnelle. Schwarz et Scherk ont ​​fait valoir que la théorie des cordes n'avait pas réussi à s'imposer parce que les physiciens avaient sous-estimé sa portée. Cela a conduit au développement de la théorie bosonique des cordes.

La théorie des cordes est formulée en termes d'action de Polyakov, [37] qui décrit comment les cordes se déplacent dans l'espace et le temps. Comme les ressorts, les cordes ont tendance à se contracter pour minimiser leur énergie potentielle, mais la conservation de l'énergie les empêche de disparaître et elles oscillent au contraire. En appliquant les idées de la mécanique quantique aux cordes, il est possible de déduire les différents modes vibrationnels des cordes, et que chaque état vibrationnel semble être une particule différente. La masse de chaque particule, et la manière dont elle peut interagir, sont déterminées par la façon dont la corde vibre, essentiellement par la « note » que la corde « sonne ». L'échelle des notes, chacune correspondant à un type différent de particule, est appelée le "spectre" de la théorie.

Les premiers modèles comprenaient à la fois ouvert des chaînes, qui ont deux extrémités distinctes, et fermé chaînes, où les extrémités sont jointes pour former une boucle complète. Les deux types de cordes se comportent de manière légèrement différente, produisant deux spectres. Toutes les théories modernes des cordes n'utilisent pas les deux types, certaines n'intègrent que la variété fermée.

Le premier modèle de corde a plusieurs problèmes : il a une dimension critique = 26, une caractéristique qui a été découverte à l'origine par Claud Lovelace en 1971 [38] la théorie a une instabilité fondamentale, la présence de tachyons [39] (voir condensation des tachyons) en plus, le spectre des particules ne contient que des bosons, des particules comme le photon qui obéissent à des règles particulières de comportement. Bien que les bosons soient un ingrédient essentiel de l'Univers, ils ne sont pas ses seuls constituants. L'étude de la manière dont une théorie des cordes peut inclure des fermions dans son spectre a conduit à l'invention de la supersymétrie (en Occident) [40] en 1971, [41] une transformation mathématique entre les bosons et les fermions. Les théories des cordes qui incluent des vibrations fermioniques sont maintenant connues sous le nom de théories des supercordes.

En 1977, la projection GSO (du nom de Ferdinando Gliozzi, Joël Scherk et David I. Olive) a conduit à une famille de théories des cordes libres unitaires sans tachyons, [42] les premières théories cohérentes des supercordes (voir ci-dessous).

Les première révolution des supercordes est une période de découvertes importantes qui a commencé en 1984. [43] On s'est rendu compte que la théorie des cordes était capable de décrire toutes les particules élémentaires ainsi que les interactions entre elles. Des centaines de physiciens ont commencé à travailler sur la théorie des cordes comme l'idée la plus prometteuse pour unifier les théories physiques. [44] La révolution a commencé par une découverte de l'annulation d'anomalies dans la théorie des cordes de type I via le mécanisme de Green-Schwarz (du nom de Michael Green et John H. Schwarz) en 1984. [45] [46] La découverte révolutionnaire de la corde hétérotique a été faite par David Gross, Jeffrey Harvey, Emil Martinec et Ryan Rohm en 1985. [47] Il a également été réalisé par Philip Candelas, Gary Horowitz, Andrew Strominger et Edward Witten en 1985 que pour obtenir N = 1 < displaystyle N=1>supersymétrie, les six petites dimensions supplémentaires (les = 10 dimension critique de la théorie des supercordes avait été initialement découverte par John H. Schwarz en 1972) [48] doivent être compactés sur une variété Calabi-Yau. [49] (En théorie des cordes, la compactification est une généralisation de la théorie de Kaluza-Klein, qui a été proposée pour la première fois dans les années 1920.) [50]

En 1985, cinq théories distinctes des supercordes avaient été décrites : type I, [51] type II (IIA et IIB), [51] et hétérotique (SO(32) et E8×E8) . [47]

Découvrir magazine dans le numéro de novembre 1986 (vol. 7, #11) a présenté une histoire de couverture écrite par Gary Taubes, "Everything's Now Tied to Strings", qui expliquait la théorie des cordes à un public populaire.

En 1987, Eric Bergshoeff [de] , Ergin Sezgin [de] et Paul Townsend ont montré qu'il n'y a pas de supercordes en onze dimensions (le plus grand nombre de dimensions compatibles avec un seul graviton dans les théories de la supergravité), [52] mais des supermembranes. [53]

Au début des années 1990, Edward Witten et d'autres ont trouvé des preuves solides que les différentes théories des supercordes étaient des limites différentes d'une théorie à 11 dimensions [54] [55] qui est devenue connue sous le nom de M-théorie [56] (pour plus de détails, voir Introduction to M -théorie). Ces découvertes ont déclenché la deuxième révolution des supercordes qui a eu lieu approximativement entre 1994 et 1995. [57]

Les différentes versions de la théorie des supercordes ont été unifiées, comme on l'avait longtemps espéré, par de nouvelles équivalences. Celles-ci sont connues sous le nom de dualité S, dualité T, dualité U, symétrie miroir et transitions conifold. Les différentes théories des cordes étaient également liées à la M-théorie.

En 1995, Joseph Polchinski a découvert que la théorie nécessite l'inclusion d'objets de dimension supérieure, appelés D-branes : [58] ce sont les sources des champs électriques et magnétiques Ramond-Ramond qui sont requis par la dualité des cordes. [59] D-branes a ajouté une structure mathématique riche supplémentaire à la théorie et a ouvert des possibilités pour construire des modèles cosmologiques réalistes dans la théorie (pour plus de détails, voir la cosmologie de Brane).

En 1997-98, Juan Maldacena a conjecturé une relation entre la théorie des cordes et N = 4 théorie de Yang-Mills supersymétrique, une théorie de jauge. [60] Cette conjecture, appelée correspondance AdS/CFT, a suscité un grand intérêt en physique des hautes énergies. [61] C'est une réalisation du principe holographique, qui a des implications de grande envergure : la correspondance AdS/CFT a aidé à élucider les mystères des trous noirs suggérés par les travaux de Stephen Hawking [62] et est censée fournir une résolution du Paradoxe de l'information sur les trous. [63]

En 2003, la découverte par Michael R. Douglas du paysage de la théorie des cordes, [64] qui suggère que la théorie des cordes a un grand nombre de faux vides équivalents, [65] a conduit à de nombreuses discussions sur ce que la théorie des cordes pourrait éventuellement prédire, et comment la cosmologie peut être incorporée dans la théorie. [66]

Un mécanisme possible de stabilisation du vide par la théorie des cordes (le mécanisme KKLT) a été proposé en 2003 par Shamit Kachru, Renata Kallosh, Andrei Linde et Sandip Trivedi. [67]


Une histoire de la mécanique quantique

Le neutron n'a été découvert qu'en 1932 , c'est donc dans ce contexte que l' on fait remonter les débuts de la théorie quantique à 1859 .

En 1859, Gustav Kirchhoff a prouvé un théorème sur le rayonnement du corps noir. Un corps noir est un objet qui absorbe toute l'énergie qui lui tombe dessus et, parce qu'il ne réfléchit aucune lumière, il apparaîtrait noir à un observateur. Un corps noir est aussi un émetteur parfait et Kirchhoff a prouvé que l'énergie émise E E E ne dépend que de la température T T T et de la fréquence v v v de l'énergie émise, c'est-à-dire

Il a mis les physiciens au défi de trouver la fonction J J J .

En 1879, Josef Stefan proposa, à titre expérimental, que l'énergie totale émise par un corps chaud était proportionnelle à la puissance quatrième de la température. Dans la généralité énoncée par Stefan, c'est faux. La même conclusion a été atteinte en 1884 par Ludwig Boltzmann pour le rayonnement du corps noir, cette fois à partir de considérations théoriques utilisant la thermodynamique et la théorie électromagnétique de Maxwell. Le résultat, maintenant connu sous le nom de loi de Stefan-Boltzmann, ne répond pas entièrement au défi de Kirchhoff car il ne répond pas à la question pour des longueurs d'onde spécifiques.

En 1896, Wilhelm Wien proposa une solution au défi Kirchhoff. Cependant, bien que sa solution corresponde étroitement aux observations expérimentales pour de petites valeurs de la longueur d'onde, Rubens et Kurlbaum ont montré qu'elle se dégradait dans l'infrarouge lointain.

Kirchhoff, qui avait été à Heidelberg, s'installa à Berlin. Boltzmann s'est vu offrir sa chaise à Heidelberg mais l'a refusée. La chaise a ensuite été offerte à Hertz qui a également décliné l'offre, elle a donc été proposée à nouveau, cette fois à Planck et il a accepté.

Rubens visita Planck en octobre 1900 et lui expliqua ses résultats. Quelques heures après que Rubens eut quitté la maison de Planck, Planck avait deviné la formule correcte pour la fonction J J J de Kirchhoff. Cette supposition correspondait très bien aux preuves expérimentales à toutes les longueurs d'onde, mais Planck n'était pas satisfait de cela et a essayé de donner une dérivation théorique de la formule. Pour ce faire, il a fait le pas sans précédent de supposer que l'énergie totale est composée d'éléments énergétiques indiscernables - des quanta d'énergie. Il a écrit

Planck himself gave credit to Boltzmann for his statistical method but Planck's approach was fundamentally different. However theory had now deviated from experiment and was based on a hypothesis with no experimental basis. Planck won the 1918 Nobel Prize for Physics for this work.

In 1901 Ricci and Levi-Civita published Absolute differential calculus. It had been Christoffel's discovery of 'covariant differentiation' in 1869 which let Ricci extend the theory of tensor analysis to Riemannian space of n n n dimensions. The Ricci and Levi-Civita definitions were thought to give the most general formulation of a tensor. This work was not done with quantum theory in mind but, as so often happens, the mathematics necessary to embody a physical theory had appeared at precisely the right moment.

In 1905 Einstein examined the photoelectric effect. The photoelectric effect is the release of electrons from certain metals or semiconductors by the action of light. The electromagnetic theory of light gives results at odds with experimental evidence. Einstein proposed a quantum theory of light to solve the difficulty and then he realised that Planck's theory made implicit use of the light quantum hypothesis. By 1906 Einstein had correctly guessed that energy changes occur in a quantum material oscillator in changes in jumps which are multiples of ℏ v hslash v ℏ v where ℏ hslash ℏ is Planck's reduced constant and v v v is the frequency. Einstein received the 1921 Nobel Prize for Physics, in 1922 , for this work on the photoelectric effect.

In 1913 Niels Bohr wrote a revolutionary paper on the hydrogen atom. He discovered the major laws of the spectral lines. This work earned Bohr the 1922 Nobel Prize for Physics. Arthur Compton derived relativistic kinematics for the scattering of a photon ( a light quantum ) off an electron at rest in 1923 .

However there were concepts in the new quantum theory which gave major worries to many leading physicists. Einstein, in particular, worried about the element of 'chance' which had entered physics. In fact Rutherford had introduced spontaneous effect when discussing radio-active decay in 1900 . In 1924 Einstein wrote:-

Einstein had been puzzled by paradox ( ii ) and Pauli quickly told Bohr that he did not believe his theory. Further experimental work soon ended any resistance to belief in the electron. Other ways had to be found to resolve the paradoxes.

Up to this stage quantum theory was set up in Euclidean space and used Cartesian tensors of linear and angular momentum. However quantum theory was about to enter a new era.

The year 1924 saw the publication of another fundamental paper. It was written by Satyendra Nath Bose and rejected by a referee for publication. Bose then sent the manuscript to Einstein who immediately saw the importance of Bose's work and arranged for its publication. Bose proposed different states for the photon. He also proposed that there is no conservation of the number of photons. Instead of statistical independence of particles, Bose put particles into cells and talked about statistical independence of cells. Time has shown that Bose was right on all these points.

Work was going on at almost the same time as Bose's which was also of fundamental importance. The doctoral thesis of Louis de Broglie was presented which extended the particle-wave duality for light to all particles, in particular to electrons. Schrödinger in 1926 published a paper giving his equation for the hydrogen atom and heralded the birth of wave mechanics. Schrödinger introduced operators associated with each dynamical variable.

The year 1926 saw the complete solution of the derivation of Planck's law after 26 years. It was solved by Dirac. Also in 1926 Born abandoned the causality of traditional physics. Speaking of collisions Born wrote

Heisenberg's work used matrix methods made possible by the work of Cayley on matrices 50 years earlier. In fact 'rival' matrix mechanics deriving from Heisenberg's work and wave mechanics resulting from Schrödinger's work now entered the arena. These were not properly shown to be equivalent until the necessary mathematics was developed by Riesz about 25 years later.

Also in 1927 Bohr stated that space-time coordinates and causality are complementary. Pauli realised that spin, one of the states proposed by Bose, corresponded to a new kind of tensor, one not covered by the Ricci and Levi-Civita work of 1901 . However the mathematics of this had been anticipated by Eli Cartan who introduced a 'spinor' as part of a much more general investigation in 1913 .

Dirac, in 1928 , gave the first solution of the problem of expressing quantum theory in a form which was invariant under the Lorentz group of transformations of special relativity. He expressed d'Alembert's wave equation in terms of operator algebra.

The uncertainty principle was not accepted by everyone. Its most outspoken opponent was Einstein. He devised a challenge to Niels Bohr which he made at a conference which they both attended in 1930 . Einstein suggested a box filled with radiation with a clock fitted in one side. The clock is designed to open a shutter and allow one photon to escape. Weigh the box again some time later and the photon energy and its time of escape can both be measured with arbitrary accuracy. Of course this is not meant to be an actual experiment, only a 'thought experiment'.

Niels Bohr is reported to have spent an unhappy evening, and Einstein a happy one, after this challenge by Einstein to the uncertainty principle. However Niels Bohr had the final triumph, for the next day he had the solution. The mass is measured by hanging a compensation weight under the box. This is turn imparts a momentum to the box and there is an error in measuring the position. Time, according to relativity, is not absolute and the error in the position of the box translates into an error in measuring the time.

Although Einstein was never happy with the uncertainty principle, he was forced, rather grudgingly, to accept it after Bohr's explanation.

In 1932 von Neumann put quantum theory on a firm theoretical basis. Some of the earlier work had lacked mathematical rigour, but von Neumann put the whole theory into the setting of operator algebra.


5. The Transactional Interpretation

This entry so far has considered the two most significant motivating arguments in favor of adopting retrocausality as a hypothesis for dealing with the interpretational challenges of quantum theory. But these motivations do not by themselves amount to an interpretation or model of quantum theory. §6 consists of a survey of a range of retrocausal models, but this section first considers perhaps the most prominent retrocausal model, the transactional interpretation. Developed by Cramer in the 1980s (Cramer 1980, 1986, 1988), the transactional interpretation is heavily influenced by the framework of the Wheeler-Feynman absorber approach to electrodynamics (see §1) the Wheeler-Feynman schema can be adopted to describe the microscopic exchange of a single quantum of energy, momentum, etc., between and within quantum systems.

At the heart of the transactional interpretation is the &ldquotransaction&rdquo: real physical events are identified with so-called &ldquohandshakes&rdquo between forward-evolving quantum states (psi) and backward-evolving complex-conjugates (psi^*). When a quantum emitter (such as a vibrating electron or atom in an excited state) is to emit a single quantum (a photon, in these cases), the source produces a radiative field&mdashthe &ldquooffer&rdquo wave. Analogously to the Wheeler-Feynman description, this field propagates outwards both forward and backward in time (as well as across space). When this field encounters an absorber, a new field is generated&mdashthe &ldquoconfirmation&rdquo wave&mdashthat likewise propagates both forward and backward in time, and so is present as an advanced incident wave at the emitter at the instant of emission. Both the retarded field produced by the absorber and the advanced field produced by the emitter exactly cancel with the retarded field produced by the emitter and advanced field produced by the absorber for all times before the emission and after the absorption of the photon only between the emitter and the absorber is there a radiative field. Thus the transaction is completed with this &ldquohandshake&rdquo: a cycle of offer and confirmation waves

repeats until the response of the emitter and absorber is sufficient to satisfy all of the quantum boundary conditions&hellipat which point the transaction is completed. (Crammer 1986: 662)

Many confirmation waves from potential absorbers may converge on the emitter at the time of emission but the quantum boundary conditions can usually only permit a single transaction to form. Any observer who witnesses this process would perceive only the completed transaction, which would be interpreted as the passage of a particle (e.g., a photon) between emitter and absorber.

The transactional interpretation takes the wave function to be a real physical wave with spatial extent. The wave function of the quantum mechanical formalism is identical with the initial offer wave of the transaction mechanism and the collapsed wave function is identical with the completed transaction. Quantum particles are thus not to be thought of as represented by the wave function but rather by the completed transaction, of which the wave function is only the initial phase. As Cramer explains:

The transaction may involve a single emitter and absorber or multiple emitters and absorbers, but it is only complete when appropriate boundary conditions are satisfied at all loci of emission and absorption. Particles transferred have no separate identity independent from the satisfaction of these boundary conditions. (1986: 666)

The amplitude of the confirmation wave which is produced by the absorber is proportional to the local amplitude of the incident wave that stimulated it and this, in turn, is dependent on the attenuation it received as it propagated from the source. Thus, the total amplitude of the confirmation wave is just the absolute square of the initial offer wave (evaluated at the absorber), which yields the Born rule. Since the Born rule arises as a product of the transaction mechanism, there is no special significance attached to the role of the observer in the act of measurement. The &ldquocollapse of the wave function&rdquo is interpreted as the completion of the transaction.

The transactional interpretation explicitly interprets the quantum state (psi) as real, and so does not constitute an attempt to exploit the retrocausality loopholes to the theorems that rule out (psi)-epistemic accounts. Additionally, the transactional interpretation subverts the dilemma at the core of the EPR argument (Einstein, et al. 1935) by permitting incompatible observables to take on definite values simultaneously: the wavefunction, according to the transactional interpretation,

brings to each potential absorber the full range of possible outcomes, and all have &ldquosimultaneous reality&rdquo in the EPR sense. The absorber interacts so as to cause one of these outcomes to emerge in the transaction, so that the collapsed [wavefunction] manifests only one of these outcomes. (Crammer 1986: 668).

Most importantly, however, the transactional interpretation employs both retarded and advanced waves, and in doing so admits the possibility of providing a &ldquozigzag&rdquo explanation of the nonlocality associated with entangled quantum systems.

Before turning to one of the more significant objections to the transactional interpretation, and to retrocausality in general, it is instructive to tease apart here two complementary descriptions of this transaction process. On the one hand there is a description of the real physical process, consisting of the passage of a particle between emitter and absorber, that a temporally bound experimenter would observe and on the other hand there is a description of a dynamical process of offer and confirmation waves that is instrumental in establishing the transaction. This latter process simply cannot occur in an ordinary time sequence, not least because any temporally bound observer by construction cannot detect any offer or confirmation waves. Cramer suggests that the &ldquodynamical process&rdquo be understood as occurring in a &ldquopseudotime&rdquo sequence:

The account of an emitter-absorber transaction presented here employs the semantic device of describing a process extending across a lightlike or a timelike interval of space-time as if it occurred in a time sequence external to the process. The reader is reminded that this is only a pedagogical convention for the purposes of description. The process is atemporal and the only observables come from the superposition of all &ldquosteps&rdquo to form the final transaction. (Crammer 1986: 661, fn.14)

These steps are of course the cyclically repeated exchange of offer and confirmation waves which continue &ldquountil the net exchange of energy and other conserved quantities satisfies the quantum boundary conditions of the system&rdquo (1986: 662). There is a strong sense here that any process described as occurring in pseudotime is not a process at all but, as Cramer reminds, merely a &ldquopedagogical convention for the purposes of description&rdquo. Whether it is best to understand causality according to the transactional interpretation in terms of processes underscored by conserved quantities is closely tied to how one should best understand this pseudotemporal process.

Maudlin (2011) outlines a selection of problems that arise in Cramer&rsquos theory as a result of the pseudotemporal account of the transaction mechanism: processes important to the completion of a transaction take place in pseudotime only (rather than in real time) and thus cannot be said to have taken place at all. Since a temporally bound observer can only ever perceive a completed transaction, i.e., a collapsed wavefunction, the uncollapsed wavefunction never actually exists. Since the initial offer wave is identical to the wavefunction of the quantum formalism, any ensuing exchange of advanced and retarded waves required to provide the quantum mechanical probabilities, according to Maudlin, also do not exist. Moreover, Cramer&rsquos exposition of the transaction mechanism seems to suggest that the stimulation of sequential offer and confirmation waves occurs deterministically, leaving a gaping hole in any explanation the transactional interpretation might provide of the stochastic nature of quantum mechanics. Although these problems are significant, Maudlin admits that they may indeed be peculiar to Cramer&rsquos theory. Maudlin also sets out a more general objection to retrocausal models of quantum mechanics which he claims to pose a problem for &ldquoany theory in which both backwards and forwards influences conspire to shape events&rdquo (2011: 184).

Maudlin&rsquos main objection to the transactional interpretation hinges upon the fact that the transaction process depends crucially on the fixity of the absorbers &ldquojust sitting out there in the future, waiting to absorb&rdquo (2011: 182) one cannot presume that present events are unable to influence the future disposition of the absorbers. Maudlin offers a thought experiment to illustrate this objection. A radioactive source is constrained to emit a (eta)-particle either to the left or to the right. To the right sits absorber UNE at a distance of 1 unit. Absorber B is also located to the right but at a distance of 2 units and is built on pivots so that it can be swung around to the left on command. A (eta)-particle emitted at time (t_<0>) to the right will be absorbed by absorber UNE at time (t_<1>). If after time (t_<1>) the (eta)-particle is not detected at absorber UNE, absorber B is quickly swung around to the left to detect the (eta)-particle after time (2t_<1>).

According to the transactional interpretation, since there are two possible outcomes (detection at absorber UNE or detection at absorber B), there will be two confirmation waves sent back from the future, one for each absorber. Furthermore, since it is equally probable that the (eta)-particle be detected at either absorber, the amplitudes of these confirmation waves should be equal. However, a confirmation wave from absorber B can only be sent back to the emitter if absorber B is located on the left. For this to be the case, absorber UNE must not have detected the (eta)-particle and thus the outcome of the experiment must already have been decided. The incidence of a confirmation wave from absorber B at the emitter assure that the (eta)-particle is to be sent to the left, even though the amplitude of this wave implies a probability of a half of this being the case. As Maudlin (2011: 184) states so succinctly, &ldquoCramer&rsquos theory collapses&rdquo.

The key challenge from Maudlin is that any retrocausal mechanism must ensure that the future behavior of the system transpires consistently with the spatiotemporal structure dictated by any potential future causes: &ldquostochastic outcomes at a particular point in time may influence the future, but that future itself is supposed to play a role in producing the outcomes&rdquo (2011: 181). In the transactional interpretation the existence of the confirmation wave itself presupposes some determined future state of the system with retrocausal influence. However, with standard (i.e., forward-in-time) stochastic causal influences affecting the future from the present, a determined future may not necessarily be guaranteed in every such case, as shown by Maudlin&rsquos experiment.

Maudlin&rsquos challenge to the transactional interpretation has been met with a range of responses (see P. Lewis 2013 and the entry on action at a distance in quantum mechanics for more discussion of possible responses). The responses generally fall into two types (P. Lewis 2013). The first type of response attempts to accommodate Maudlin&rsquos example within the transactional interpretation. Berkovitz (2002) defends the transactional interpretation by showing that causal loops of the type found in Maudlin&rsquos experiment need not obey the assumptions about probabilities that are common in linear causal situations. Marchildon (2006) proposes considering the absorption properties of the long distance boundary conditions: if the universe is a perfect absorber of all radiation then a confirmation wave from the left will always be received by the radioactive source at the time of emission and it will encode the correct probabilistic information. Kastner (2006) proposes differentiating between competing initial states of the radioactive source, corresponding to the two emission possibilities, that together characterize an unstable bifurcation point between distinct worlds, where the seemingly problematic probabilities reflect a probabilistic structure across both possible worlds.

The second type of response is to modify the transactional interpretation. For instance, Cramer (2016) introduces the idea of a hierarchy of advanced-wave echoes dependent upon the magnitude of the spatiotemporal interval from which they originate. Kastner (2013) surmises that the source of the problem that Maudlin has exposed, however, is the idea that quantum processes take place in the &ldquoblock world&rdquo, and rejects this conception of processes in her own development of the transactional interpretation. According to her &ldquopossibilist&rdquo transactional interpretation, all the potential transactions exist in a real space of possibilities, which amounts at once to a kind of modal realism and an indeterminacy regarding future states of the system (hence Kastner&rsquos rejection of the block universe view). The possibilist transactional interpretation arguably handles multi-particle scenarios more naturally, and presents the most modern sustained development of the transactional interpretation (although see P. Lewis 2013 for criticisms of the possibilist transactional interpretation specific to Maudlin&rsquos challenge).


6. The Continuous Spontaneous Localization Model (CSL)

The model just presented (QMSL) has a serious drawback: it does not allow to deal with systems containing identical constituents, because it does not respect the symmetry or antisymmetry requirements for such particles. A quite natural idea to overcome this difficulty is to relate the hitting process not to the individual particles but to the particle number density averaged over an appropriate volume. This can be done by introducing a new phenomenological parameter in the theory which however can be eliminated by an appropriate limiting procedure (see below).

Another way to overcome this problem derives from injecting the physically appropriate principles of the GRW model within the original approach of P. Pearle. This line of thought has led to what is known as the CSL (Continuous Spontaneous Localization) model (Pearle 1989 Ghirardi, Pearle, and Rimini 1990) in which the discontinuous jumps which characterize QMSL are replaced by a continuous stochastic evolution in the Hilbert space (a sort of Brownian motion of the statevector).

The basic working principles are CSL are similar to those of the GRW model, though the technical detail might different significantly. For a review see (Bassi and Ghirardi 2003 Adler 2007, Bassi, Lochan, et al. 2013). At this regard, it is interesting to note (Ghirardi, Pearle, & Rimini 1990) that for any CSL dynamics there is a hitting dynamics which, from a physical point of view, is &lsquoas close to it as one wants&rsquo. Instead of entering into the details of the CSL formalism, it is useful, for the discussion below, to analyze a simplified version of it.

With the aim of understanding the physical implications of the CSL model, such as the rate of suppression of coherence, we make now some simplifying assumptions. First, we assume that we are dealing with only one kind of particles (e.g., the nucleons), secondly, we disregard the standard Schrödinger term in the evolution and, finally, we divide the whole space in cells of volume (d^3). We denote by (ket) a Fock state in which there are (n_i) particles in cell (i), and we consider a superposition of two states (ket) and (ket) which differ in the occupation numbers of the various cells of the universe. With these assumptions it is quite easy to prove that the rate of suppression of the coherence between the two states (so that the final state is one of the two and not their superposition) is governed by the quantity:

all cells of the universe appearing in the sum within the square brackets in the exponent. Apart from differences relating to the identity of the constituents, the overall physics is quite similar to that implied by QMSL.

Equation 6 offers the opportunity of discussing the possibility of relating the suppression of coherence to gravitational effects. In fact, with reference to this equation we notice that the worst case scenario (from the point of view of the time necessary to suppress coherence) is that corresponding to the superposition of two states for which the occupation numbers of the individual cells differ only by one unit. In this case the amplifying effect of taking the square of the differences disappears. Let us then ask the question: how many nucleons (at worst) should occupy different cells, in order for the given superposition to be dynamically suppressed within the time which characterizes human perceptual processes? Since such a time is of the order of (10^<-2>) sec and (f = 10^<-16> ext< sec>^<-1>), the number of displaced nucleons must be of the order of (10^<18>), which corresponds, to a remarkable accuracy, to a Planck mass. This figure seems to point in the same direction as Penrose&rsquos attempts to relate reduction mechanisms to quantum gravitational effects (Penrose 1989).


Max Planck and the Birth of Quantum Mechanics

From left to right: Walther Nernst, Albert Einstein, Max Planck, Robert Andrews Millikan, and Max von Laue at a dinner given by von Laue on November 12, 1931, in Berlin.

In the early evening of Sunday, October 7, 1900—120 years ago—Max Planck found the functional form of the curve that we now know as the Planck distribution of black-body radiation. By my account, it was the birthdate of quantum mechanics.

A few hours earlier Hermann Rubens and his wife had visited the Plancks. This being a Sunday, they probably enjoyed coffee and cake together. Rubens was the experimental professor of physics at Humboldt University in Berlin where Planck was the theoretical one. Rubens and his collaborator, Ferdinand Kurlbaum, had recently managed to measure the power emitted by a black body as a function of temperature at the unusually long wavelength of 51 microns. They had used multiple reflections from rock salt to filter a narrow band of the spectrum. Working at 51 microns, they measured the low temperature limit and the highest temperatures within the experimental reach of their oven. The remarkable result was that at low frequencies, in the classical regime, the results did not fit the predictions of Wilhelm Wien. Rubens told Planck that for small frequencies the measured spectral density was linear with temperature.

Planck was intrigued. As soon as the gathering ended, he set to work. His interest in the data was profound. That evening he figured out the shape of the curve, with its peculiar denominator that in the limit of low frequency showed the appropriate experimental behavior—linear with temperature.

The anecdote, as referred by Abraham Pais in his book Subtle is the Lord, states that Planck mailed a postcard to Rubens with the function that very evening, so that Rubens would get it first thing in the morning (the post would have been delivered and set on his desk by the time he arrived at his office in the university). Rubens probably asked Planck that very same morning: Why is it this shape?

The presentation of new data, followed by Planck’s function, was on October 17. The function fit the data, both at the low temperature and high temperature limits. Planck had been interested on the black body spectrum for a long time. He understood thermodynamics and classical electrodynamics. But it was the high-quality data of Rubens that drove his mind to find a solution. It took him a few months, and on Dec. 14 he presented the derivation of his theory where, “on an act of desperation,” he introduced the quantum of energy: the beginning of quantum mechanics.


Quantum Theory

With the turn of the 20th century, the field of physics underwent two major transformations, roughly at the same time. The first was Einstein's General Theory of Relativity, which dealt with the universal realm of physics. The second was Quantum Theory, which proposed that energy exists as discrete packets—each called a "quantum." This new branch of physics enabled scientists to describe the interaction between energy and matter down through the subatomic realm.

Einstein saw Quantum Theory as a means to describe Nature on an atomic level, but he doubted that it upheld "a useful basis for the whole of physics." He thought that describing reality required firm predictions followed by direct observations. But individual quantum interactions cannot be observed directly, leaving quantum physicists no choice but to predict the probability that events will occur. Challenging Einstein, physicist Niels Bohr championed Quantum Theory. He argued that the mere act of indirectly observing the atomic realm changes the outcome of quantum interactions. According to Bohr, quantum predictions based on probability accurately describe reality.

Niels Bohr and Max Planck, two of the founding fathers of Quantum Theory, each received a Nobel Prize in Physics for their work on quanta. Einstein is considered the third founder of Quantum Theory because he described light as quanta in his theory of the Photoelectric Effect, for which he won the 1921 Nobel Prize.

May 15, 1935: The Physical Review publishes the Einstein, Podolsky, and Rosen (EPR) paper claiming to refute Quantum Theory.

Newspapers were quick to share Einstein's skepticism of the "new physics" with the general public. Einstein's paper, "Can Quantum-Mechanical Description of Physical Reality Be Considered Complete?" prompted Niels Bohr to write a rebuttal. Modern experiments have upheld Quantum Theory despite Einstein's objections. However, the EPR paper introduced topics that form the foundation for much of today's physics research.

Einstein and Niels Bohr began disputing Quantum Theory at the prestigious 1927 Solvay Conference, attended by top physicists of the day. By most accounts of this public debate, Bohr was the victor.


Voir la vidéo: Histoire des sciences La physique quantique et lordinateur quantique (Octobre 2021).