Question:
Comment savons-nous que les taux de désintégration radioactive sont constants sur des milliards d'années?
Pertinax
2017-05-23 23:53:19 UTC
view on stackexchange narkive permalink

Un ami et moi avons récemment discuté de l'idée que les taux de désintégration radioactive sont constants au cours des périodes géologiques, ce sur quoi sont basées les méthodes de datation.

Un grand nombre d'expériences semblent avoir montré que le taux de décroissance n'est en grande partie pas influencé par l'environnement (température, activité solaire, etc.). Mais comment savons-nous que les taux de dégradation sont constants sur des milliards d'années? Et si une propriété de l'univers était restée la même au cours des cent ans depuis la découverte et la mesure de la radioactivité, mais était différente il y a un milliard d'années?

Une déclaration non fournie sur la page Wikipédia sur la désintégration radioactive se lit comme suit:

[A] observations strophysiques des désintégrations de luminosité de supernovae (qui s'est produite loin de sorte que la lumière a pris une grande beaucoup de temps pour nous joindre) indiquent fortement que les taux de désintégration non perturbés ont été constants.

Est-ce vrai?

Je souhaite vérifier la constance des taux de décroissance sur de très longues périodes (des millions et des milliards d'années). Plus précisément, je ne suis pas intéressé par la datation au radiocarbone ou d'autres méthodes pour dater des choses dans des milliers d'années. Les dattes au radiocarbone, utilisées pour dater les matières organiques de moins de 50 000 ans, sont calibrées et croisées avec des données non radioactives telles que les cernes des arbres d'arbres millénaires et des dépôts annuels également dénombrables. dans marine varves, une méthode de vérification que je trouve convaincante et que je ne suis pas ici un défi.

Cette question n'est-elle pas du même ordre que celle de savoir si la structure fine, la constante cosmologique, la vitesse de la lumière, etc. sont restées constantes pendant des milliards d'années?Avec l'absence apparente de tout argument théorique solide expliquant pourquoi ces paramètres devraient changer au cours des derniers milliards d'années, et l'absence de toute expérience ou observation astronomique suggérant que ces paramètres changent, je suppose que la plupart des gens prennent simplement leOccam's Razor approche et suppose que ces paramètres sont constants jusqu'à ce que des preuves apparaissent suggérant le contraire.
@Samuel Je n'ai rien contre les hypothèses, mais j'aime savoir où elles sont faites.Je viens d'une discipline où les gens télescopent déjà régulièrement six ou sept hypothèses sans même s'en rendre compte, justifiant chacune d'elles avec le rasoir d'Occam, et arrivant à une conclusion qu'ils appellent le "plus probable" qui pour moi ne sonne guère mieux que "le moinsimprobable".Cette hypothèse semble très vraisemblablement vraie, mais l'archéologie repose tellement sur elle que je serais heureux si elle pouvait être fondée sur plus que de la parcimonie et être confirmée par l'observation.
Connexes: https://physics.stackexchange.com/q/48543/50583, https://physics.stackexchange.com/q/7008/50583 (sur la variabilité de la demi-vie et de la décroissance non exponentielle), https: //physics.stackexchange.com/q/78684/50583 (sur la signification du "changement" d'une constante dimensionnelle dans le temps),
C'est une bonne question!Je ne pense pas qu'aucune des questions liées le couvre vraiment.Les taux de désintégration peuvent être déduits en principe des constantes de couplage du modèle standard, et je doute qu'elles puissent être beaucoup modifiées sans changer fondamentalement tout le reste (par exemple, rendre la fusion nucléaire trop rapide ou trop lente, changer les spectres stellaires), mais je ne sais pasassez pour le cerner.
@TheThunderChimp Voir par exemple http://xxx.lanl.gov/abs/astro-ph/9912131 et http://xxx.lanl.gov/abs/astro-ph/9901373
Vous devez d'abord définir comment vous mesureriez la stabilité des taux de décroissance au fil du temps.Vous avez besoin d'un certain délai.Une horloge.Quel genre d'horloge utiliseriez-vous?Les horloges les plus précises et les plus stables actuellement sont les horloges atomiques.Mais ils garderaient le taux de décomposition constant sur n'importe quelle période de temps presque par définition.Que pourriez-vous utiliser d'autre?Une horloge à pendule?Comment sauriez-vous que la constante gravitationnelle (voire la masse) est vraiment invariante dans le temps?Vous avez besoin d'une sorte d'horloge pour vérifier cela ...
Cinq réponses:
user154997
2017-05-24 03:20:26 UTC
view on stackexchange narkive permalink

Pas une réponse à votre question exacte mais toujours tellement liée que je pense qu'elle mérite d'être mentionnée: le réacteur nucléaire naturel d'Oklo, découvert en 1972 au Gabon (Afrique de l'Ouest). Des réactions de fission nucléaire auto-entretenues ont eu lieu il y a 1,8 milliard d'années. Les physiciens ont rapidement compris comment ils pouvaient l'utiliser comme une sonde très précise dans des sections efficaces de capture de neutrons aussi éloignées. En fait, une ré-analyse des données [1] a été publiée en 2006 avec l'un des auteurs des articles originaux dans les années 70. L'idée est que la capture neutronique est considérablement augmentée lorsque l'énergie neutronique se rapproche d'une résonance du noyau de capture. Ainsi, même un léger décalage de ces énergies de résonance aurait eu pour résultat un résultat radicalement différent (un mélange différent de composés chimiques dans le réacteur). La conclusion de l'article est que ces résonances n'ont pas changé de plus de 0,1 eV.

Il convient de noter que le résultat le plus intéressant du point de vue de la physique théorique est que ce décalage potentiel peut être lié à un changement potentiel de la constante de structure fine $ \ alpha $. Le document conclut que

$$ - 5,6 \ fois 10 ^ {- 8} < \ frac {\ delta \ alpha} {\ alpha} < 6,6 \ fois 10 ^ {- 8} $$

[1] Yu. V. Petrov, A. I. Nazarov, M. S. Onegin, V. Yu. Petrov et E. G. Sakhnovsky, Réacteur nucléaire naturel à oklo et variation des constantes fondamentales: calcul de la neutronique d'un cœur frais, Phys. Rev. C 74 (2006), 064610. https://journals.aps.org/prc/abstract/10.1103/PhysRevC.74.064610

Félicitations pour avoir mentionné le réacteur naturel d'Oklo, qui est l'un des éléments physiques les plus cool que je connaisse.
Lawrence B. Crowell
2017-05-24 03:14:39 UTC
view on stackexchange narkive permalink

Le commentaire de Samuel Weir sur la constante de structure fine est assez proche d'une réponse. Pour les transitions électromagnétiques du noyau, celles-ci changeraient si la constante de structure fine changeait avec le temps. Pourtant, les données spectrales sur des sources distantes n'indiquent pas un tel changement. Les transitions atomiques changeraient leurs énergies et nous observerions des photons de galaxies lointaines avec des raies spectrales différentes.

Pour les interactions nucléaires faibles et fortes, la réponse est plus difficile ou nuancée. Pour les interactions fortes, nous avons plus d'un ancrage. Si de fortes interactions changeaient leur constante de couplage, cela aurait un impact sur l'astrophysique stellaire. Les étoiles de l'univers lointain seraient considérablement différentes de ce qu'elles sont aujourd'hui. Encore une fois, les observations d'étoiles éloignées n'indiquent aucun changement aussi radical. Pour les interactions faibles, les choses sont plus difficiles.

Une grande partie de la désintégration nucléaire est due à de faibles interactions et à la production de rayonnement $ \ beta $ sous forme d'électrons et de positrons. Les créationnistes pourraient soutenir que le taux d'interactions faibles était considérablement plus élevé dans un passé récent pour donner l'apparence de plus de produits filles que ce qui se produit aujourd'hui. Cela donne alors l'apparence d'un grand âge qui n'est pas là. Le problème de la datation au carbone avec le processus de désintégration $$ {} ^ {14} _ 6C ~ \ rightarrow ~ {} ^ {14} _7N ~ + ~ e ^ - + ~ \ nu_e $$ est que si cela a changé au cours des 6000 dernières années, un moment favori des créationnistes, cela signifierait qu'il y aurait des écarts entre les méthodes de datation au carbone et les archives historiques.

Rien de tout cela n'est vraiment une preuve, mais cela correspond à l'idée de Bertrand Russell d'une théière en orbite autour de Jupiter.

La "Théière en orbite autour de Jupiter" semble une réponse très faible à cela.C'est une réponse aux propositions qui sont (actuellement) totalement inobservables, donc à la fois invérifiables et infalsifiables.Après avoir fourni des indications sur la façon dont nous pouvons réellement observer les effets indirects des taux de désintégration radioactive ailleurs (et sinon quand), ne compromettez pas cette observabilité limitée en la comparant à la proposition de Russell qui, par conception, est tout à fait indécidable.
Bien sûr, ignorer la possibilité hypothétique de changements résultant d'une mauvaise application d'Occam est encore pire.Nous * savons * que de nombreux types de comportement des particules à des énergies très élevées sont nettement différents des faibles énergies, et donc différents à des époques très anciennes de l'univers.Les physiciens devraient chercher et cherchent des preuves d'une manière ou d'une autre pour savoir si les choses changent, et si oui, quoi, comment, pourquoi.Il y a une différence entre regarder et ne pas trouver, et ne pas regarder, et la situation ici est la première."Rien à voir ici, avancez" ne doit être déployé que lorsque vous cachez quelque chose ;-)
Les commentaires ne sont pas destinés à une discussion approfondie;cette conversation a été [déplacée vers le chat] (http://chat.stackexchange.com/rooms/59290/discussion-on-answer-by-lawrence-b-crowell-how-do-we-know-that-radioactive-déca).
Vous voudrez peut-être qualifier les «créationnistes» de «jeunes créationnistes de la Terre».
Ayant une fois défendu la position, je peux dire que cela ne tente absolument pas de répondre à l'affirmation créationniste de Young Earth.La nature de la réclamation est un changement soudain de taux autour de l'inondation ou de l'événement à l'époque de Peleg.
nigel222
2017-05-24 18:07:52 UTC
view on stackexchange narkive permalink

Il y a plusieurs questions auxquelles il faudrait répondre si l'on voulait affirmer qu'il y avait eu des grands changements dans les taux de désintégration au cours du temps géologique. Voici ce que je pense être la meilleure expérience pour prouver cette affirmation.

Sans utiliser de preuves radiologiques, on peut déduire que la Terre a au moins un milliard d'années en comptant les couches de sédimentation annuelles et en mesurant les épaisseurs des strates rocheuses, et en les corrélant entre elles par la présence d'espèces fossiles identiques ou presque identiques. C'est ce que les géologues victoriens ont fait, menant au seul cas que je connaisse où la géologie a battu la physique pour avoir déduit la vérité. Les physiciens ont affirmé que le monde ne pouvait pas être beaucoup plus vieux que 50 millions d'années, car aucun processus chimique connu ne pouvait garder le soleil chaud plus longtemps que cela. Les géologues ont insisté sur au moins un milliard d’années, et que si ce n’était pas de la chimie, quelque chose d’autre devait alimenter le soleil. Ils avaient raison. Le Soleil brille par la fusion nucléaire alors inconnue, pas par la chimie. BTW, c'est «au moins» parce qu'il est difficile de trouver des roches sédimentaires vieilles de plus d'un milliard d'années, et ces roches ne contiennent pas de fossiles utiles. L'activité tectonique a effacé la plupart des preuves des âges pré-cambriens ... à l'exception des zircons, mais je saute de l'avant.

Maintenant, passons à aujourd'hui, quand nous pouvons faire une microanalyse isotopique de l'uranium et du plomb dans des cristaux de zircon ( zirconium silicate). (Passez au paragraphe suivant si vous connaissez les zircons de radio-datation.) Le zircon a plusieurs propriétés uniques. Un point de fusion extrêmement élevé. Dureté extrême, supérieure au quartz. Haute densité. Omniprésence (le zirconium dans la roche fondue se cristallise toujours en zircons à mesure que la fonte se refroidit, avant que tout autre minéral ne cristallise). Et surtout, une structure cristalline très serrée, qui ne peut pas accueillir la plupart des autres éléments comme impuretés lors de la formation. La principale exception est l'uranium. La seule façon dont le plomb peut pénétrer dans un cristal de zircon est s'il a commencé sous forme d'uranium qui se désintègre en plomb après que le cristal s'est solidifié à partir d'une fusion. Cet uranium est disponible en deux isotopes avec des temps de désintégration différents, et chaque chaîne de désintégration se termine par un isotope de plomb différent. En mesurant les concentrations relatives de deux isotopes de plomb et de deux isotopes d'uranium dans un zircon, vous pouvez déduire le temps écoulé depuis sa formation en utilisant deux «horloges» différentes. Ces zircons ont généralement la taille de grains de sable, donc un échantillon de roche contiendra des millions d '"horloges" indépendantes qui permettront une bonne analyse statistique.

Alors, trouvons quelques zircons dans une intrusion ignée dans une roche sédimentaire dont on connaît l'âge, à peu près, par la géologie victorienne. Il est préférable que la roche ignée se soit formée à grande profondeur, où tous les zircons préexistants se seraient dissous dans la fonte. La présence de minéraux métastables à haute pression tels que le diamant ou l'olivine permettrait de le déduire, et le fait que tous les zircons aient les mêmes rapports uranium / plomb confirmerait la déduction. Sinon, on s'attendrait à trouver un mélange de zircons jeunes et plus âgés. Choisissez le plus jeune, qui aurait cristallisé au moment de l'intrusion, plutôt que d'avoir été recyclé par l'activité tectonique d'une époque plus ancienne. (Ce qui dans de nombreux cas est la solidification primitive de la croûte terrestre et la meilleure estimation de l'âge de notre planète, mais ce n'est pas pertinent ici).

Maintenant, comparez l'âge déduit par la désintégration radioactive à l'âge moins précis de la géologie victorienne. Si le taux de désintégration radioactive a beaucoup changé au cours du temps géologique profond, il y aura un désaccord entre ces deux âges estimés. En outre, le désaccord sera différent pour les intrusions d'âges différents (comme jugé par la géologie victorienne), mais cohérent pour les intrusions d'âge similaire dans des endroits différents.

Cherchez des endroits où il y a une roche sédimentaire avec intrusion, recouverte par une roche sédimentaire plus jeune sans intrusion, ce qui signifie que l'âge de l'intrusion peut être déduit comme étant entre celui des deux strates sédimentaires. Plus l’âge des deux couches sédimentaires est proche, mieux c'est.

Je ne sais pas si cela a été fait (je l'espère certainement). Tout partisan sérieux de la désintégration radioactive variant dans le temps doit faire des recherches à ce sujet. Si personne n'a cherché, sortez sur le terrain, trouvez ces divergences et publiez. Cela pourrait conduire à un prix Nobel s'il a raison. Il lui incombe certainement de le faire, car sinon le rasoir d'Occam s'applique à cette théorie.

Pour en revenir à la physique, je poserais une autre question, si cette observation ne permet pas de découvrir des preuves solides que les taux de désintégration radioactive varient avec le temps.C'est ça.Comment se fait-il que les "horloges" $ ^ {238} $ U et $ ^ {235} $ U dans les zircons soient toujours d'accord?La désintégration radioactive est essentiellement un tunnel quantique à travers une barrière potentielle.La demi-vie dépend exponentiellement de la hauteur de la barrière.Toute variation temporelle proposée signifierait que la hauteur de cette barrière varie dans le temps profond, de telle manière que le taux relatif de décroissance de $ ^ {235} $ U et $ ^ {238} $ U ne change pas .Ce qui est une grande demande d'une telle théorie, étant donné la sensibilité exponentielle aux changements.

Excellente réponse, j'apprécie beaucoup l'approche "comment tester", et l'idée de compter les couches sédimentaires pour recouper les radiodats me semble la bonne, d'autant plus que cette méthode de datation était utilisée dès l'époque victorienne (je trouvecela d'intérêt historique, des sources du XIXe siècle à ce sujet? Quelqu'un a-t-il réellement compté manuellement jusqu'à un milliard?).@DavidHammen suggère que des vérifications croisées ont déjà été effectuées, avez-vous (ou lui) des sources à ce sujet?
RE U235-U238: Un changement de l'interaction faible, par exemple, devrait-il changer le taux relatif?
@TheThunderChimp, vous pouvez télécharger gratuitement les "Principes de géologie" de Sir Charles Lyell sur Amazon Kindle ou dans le domaine public.C'est un livre très lourd et il lui manquait le don de Darwin pour la langue anglaise.Mais il est intéressant de se plonger dans, pour trouver l'état de la géologie victorienne.
Concernant les taux de décroissance relatifs: il pourrait être possible de formuler une théorie qui maintiendrait les taux de décroissance relatifs de U235 et U238 les mêmes tout en faisant varier les deux.Mon instinct me dit que ce serait difficile (surtout lorsque d'autres isotopes à longue durée de vie sont également vérifiés).
Il y a aussi beaucoup de bonnes preuves du réacteur nucléaire naturel d'Oklo, citées dans la réponse de Luc J. Bourhis.
Le dernier paragraphe, si je comprends bien, est en fait un excellent point à lui seul, car il signifie que * des changements aux constantes fondamentales ne produiraient pas de changements proportionnels dans les taux de décroissance *.Cela seul devrait fournir toutes les bases nécessaires pour réfuter toute hypothèse à échéance beaucoup plus courte.
alephzero
2017-05-24 02:40:34 UTC
view on stackexchange narkive permalink

Le point fondamental ici est que nous ne "savons" rien du "monde réel". Tout ce que nous avons, c'est un modèle du monde, et une certaine mesure de la façon dont le modèle correspond à ce que nous observons.

Bien sûr, vous pouvez construire un modèle entièrement cohérent qui dit qu'une entité invisible et inobservable a créé tout ce que j'ai jamais observé une seconde avant ma naissance, et l'a fait paraître beaucoup plus ancien pour des raisons qui ne peuvent être comprises par les humains ". Mais comme Newton l'a écrit dans Principia dans la section où il énonce ses "règles pour faire de la science", hypothèses non fingo - n'inventez pas de théories juste pour les inventer .

En fait, l'un des exemples donnés par Newton pour illustrer ce point était spectaculairement faux - il a utilisé son principe général pour conclure que le soleil dégage de la lumière et de la chaleur par les mêmes réactions chimiques qu'un feu de charbon sur terre - mais ce n'est pas le point : compte tenu des connaissances expérimentales limitées dont il disposait, il n’avait besoin pas d’hypothèse différente sur le soleil pour expliquer ce que l’on en savait.

Donc, la situation entre vous et votre ami est en fait l'inverse. Vous (et tous les physiciens conventionnels) avez un modèle de l'univers qui suppose que ces constantes ne changent pas avec le temps, et cela correspond très bien aux observations expérimentales. Si votre ami veut prétendre qu'il change , il lui incombe de trouver un ou plusieurs faits observables qui ne peuvent être expliqués d'une autre manière - et aussi de montrer que son / sa nouvelle hypothèse ne gâche pas les explications de quoi que ce soit d'autre.

Comme certains des commentaires l'ont indiqué, si vous commencez à bricoler les valeurs des constantes fondamentales dans le modèle standard de physique des particules, vous êtes susceptible de créer un modèle alternatif de l'univers qui ne correspond pas aux observations sur à très grande échelle - pas seulement sur la datation de quelques fossiles terrestres.

L'approche «vue d'ensemble» est ici d'une importance cruciale.Vous pouvez certainement faire valoir que la découverte d'un poisson fossile au sommet d'une haute montagne signifie qu'il doit y avoir eu une inondation mondiale à un moment de l'histoire - mais une fois que vous avez un modèle global de tectonique des plaques,vous n'avez plus besoin de considérer ce poisson fossilisé comme un cas particulier!

Je ne pense pas que cela touche au cœur de la question: qu'est-ce qui ne va pas exactement si une constante de couplage change?Ce n'est pas une idée folle, car beaucoup d'entre eux ont changé dans l'univers primitif.Nous n'avons pas "besoin" de le prouver, mais nous devrions pouvoir le faire facilement.
Je pense que ce n'est finalement pas la bonne réponse.La croyance des physiciens que les constantes fondamentales impliquées n'ont pas changé n'est pas une déduction * a prioi * du rasoir d'Ockham, mais une hypothèse * a posteriori * résultant de nombreuses sources de preuves indépendantes, y compris des mesures et des modèles, comme le détaille les autres réponses.
Lawrence B. Crowell
2017-05-25 06:23:13 UTC
view on stackexchange narkive permalink

J'ai pensé inclure quelque chose sur la façon dont les constantes de couplage et les masses varient. Cela pourrait être un peu hors sujet, et j'ai pensé à poser une question à laquelle je répondrais moi-même. Bref, voilà.

Nous avons un certain nombre de quantités dans l'univers qui sont liées les unes aux autres par des constantes fondamentales. Les deux premiers sont le temps et l'espace, qui sont liés l'un à l'autre par la vitesse de la lumière $ x ~ = ~ ct $. La vitesse de la lumière est quelque chose que je considérerai comme absolument fondamental. C'est vraiment en unités correctes une seconde par seconde ou une. La vitesse de la lumière définit les cônes lumineux qui sont des sous-espaces projectifs de l'espace-temps de Minkowski. L'espace-temps de Minkowski peut alors être considéré comme dû à une fibration sur l'espace projectif donné par le cône de lumière. L'autre grandeur fondamentale qui relie les propriétés physiques est la constante de Planck $ h $ ou $ \ hbar ~ = ~ h / 2 \ pi $. Ceci est vu dans $ \ vec p ~ - ~ \ hbar \ vec k $ où $ \ vec k ~ = ~ \ hat k / \ lambda $. Ceci relie la quantité de mouvement et la longueur d'onde, et se voit également dans le principe d'incertitude $ \ Delta p \ Delta x ~ \ ge ~ \ hbar / 2 $. Le principe d'incertitude peut être énoncé selon la métrique Fubini-Study, qui est une fibration d'un espace projectif de Hilbert à l'espace de Hilbert. Ces deux systèmes partagent une structure remarquablement similaire lorsqu'ils sont vus de cette façon. Je dirai alors comme postulat que $ c $ et $ \ hbar $ sont absolument constants, et comme l'élan est une longueur réciproque, alors en unités naturelles, la constante de Planck est longueur par longueur et est sans unité.

Il existe d'autres constantes dans la nature telles que la charge électrique. La constante importante la plus souvent citée est la constante de structure fine $$ \ alpha ~ = ~ \ frac {e ^ 2} {4 \ pi \ epsilon \ hbar c} ~ \ simeq ~ 1/137. $$ Cette constante est absolument sans unité. Dans tout système d'unités, il n'a pas d'unités. Dans les systèmes d'unités naturels, nous avons que $ e ^ 2/4 \ pi \ epsilon $ a les unités de $ \ hbar c $, qui en unités MKS est $ j-m $. Cependant, nous savons par renormalisation que $ e ~ \ rightarrow ~ e) - ~ + ~ \ delta e $ est une correction avec $ \ delta e ~ \ sim ~ 1 / \ delta ^ 2 $, pour $ \ delta ~ = ~ 1 / \ Lambda $ la coupure en échelle spatiale pour un propagateur ou l'évaluation d'un diagramme de Feynman. Cela signifie que la constante de structure fine peut changer avec l'énergie de diffusion, et aux énergies TeV du LHB $ \ alpha '~ \ sim ~ 1/127 $. On a bien sûr les interactions fortes et faibles et on peut assez bien affirmer qu'il y a des constantes de couplage $ e_s $ et $ e_w $ et les analogues des constantes diélectriques $ \ epsilon_w $ et $ \ epsilon_w $ donc il y a les constantes de structure fine $$ \ alpha_s ~ = ~ \ frac {e_s ^ 2} {4 \ pi \ epsilon_s \ hbar c} ~ \ simeq ~ 1, ~ \ alpha_w ~ = ~ \ frac {e_w ^ 2} {4 \ pi \ epsilon_w \ hbar c } ~ \ simeq ~ 10 ^ {- 5}. $$ Le plus souvent, ces constantes de couplage sont $ g_s $ et $ g_w $. Ces deux ont des renormalisations $ g_s ~ = ~ g ^ 0_s ~ + ~ \ delta g_s $ et $ g_w ~ = ~ g ^ 0_w ~ + ~ \ delta g_w $ cela se heurte au problème de hiérarchie et à la variation des constantes de couplage. Ces

Ce qui est clair, c'est que les constantes de couplage de jauge varient avec le moment. Ils ne varient pas avec le temps, ce qui de $ x ~ = ~ ct $ ou plus généralement de Lorentz augmente les moyens que si les champs de jauge variaient avec le temps, ils le feraient avec la distance spatiale. Jusqu'à présent, il n'y a pas d'observation et de données d'une telle variation du rayonnement émis par l'univers très éloigné.

Et la gravitation et la masse? Nous avons une renormalisation de masse $ m ~ \ rightarrow ~ m ~ + ~ \ delta m $. Cela peut signifier que la masse d'une particule peut être renormalisée à une énergie plus élevée, et plus cela signifie que les termes dus aux contributions d'énergie du vide qui renormalisent la masse d'une masse de particules nues doivent s'additionner et s'annuler pour donner la masse que nous observons. Encore une fois, cela se produit avec l'élan. Pour le champ Higgs, l'auto-interaction est due au terme $ \ lambda \ phi ^ 4 $, techniquement cela signifie qu'il existe un terme de renormalisation de masse $ \ sim ~ \ lambda / \ delta ^ 2 $ $ = ~ \ lambda \ Lambda $ pour $ \ delta $ une petite région autour du point pour l'interaction $ 4 $ point où nous l'avons étalée en une petite boule ou disque de rayon $ \ delta $. De plus, $ \ Lambda $ est la coupure d'élan correspondante. Nous avons une physique similaire pour d'autres domaines, bien que les fermions aient des problèmes de signe subtils,

J'ai utilisé le champ de Higgs parce que je pense qu'il existe une relation profonde entre la gravitation et le champ de Higgs. Je vais calculer ce que je pense être le $ \ alpha_ {grav} $ approprié. On peut calculer le rapport de la longueur d'onde Compton $ \ lambda ~ = ~ M_H / hc $ et du rayon gravitationnel $ r ~ = ~ 2GM_H / c ^ 2 $ d'une particule de Higgs, de masse $ m ~ = ~ 125GeV $ $ = ~ 2,2 \ fois 10 ^ {- 25} kg $. Ça signifie $$ \ alpha_g ~ = ~ \ frac {4 \ pi GM_H ^ 2} {\ hbar c} ~ = ~ \ gauche (\ frac {4 \ pi M_H} {M_p} \ droite) ^ 2 ~ = ~ 1,3 \ fois 10 ^ {-33}, $$ où $ M_p $ est la masse de Planck. Cette constante est alors reliée à la masse de toutes les particules élémentaires. La renormalisation de la masse de Higgs détermine la masse de toutes les autres particules.

Il n'y a alors aucune indication qu'il y ait une variation des masses de particules ou des constantes de couplage qui dépendent du temps. Ils dépendent tous de l'impulsion et le grand nombre de termes du diagramme de Feynman à divers ordres s'ajoutent et s'annulent pour donner des masses observées. Avec la supersymétrie, cela est rendu un peu plus simple avec l'annulation de nombreux diagrammes.



Ce Q&R a été automatiquement traduit de la langue anglaise.Le contenu original est disponible sur stackexchange, que nous remercions pour la licence cc by-sa 3.0 sous laquelle il est distribué.
Loading...