Aktuální číslo:

2024/11

Téma měsíce:

Strach

Obálka čísla

Konfrontace s nekonečnem1)

 |  5. 1. 2000
 |  Vesmír 79, 28, 2000/1

Tisková zpráva Švédské královské akademie věd ze dne 12. 10. 1999 o udělení Nobelovy ceny za fyziku uvádí, že ji získali společně dva Holanďané, profesor Gerardus ’t Hooft (*1946) z Utrechtu a emeritní profesor Martinus J. G. Veltman (*1931) za „objasnění kvantové struktury elektroslabých interakcí“. Ve zdůvodnění se dále píše: „Tito dva vědci … postavili teorii elementárních částic na pevnější matematický základ. Zejména ukázali, jak se teorie dá použít pro přesné výpočty fyzikálních veličin. Experimenty v urychlovačových laboratořích v Evropě a USA nedávno potvrdily mnoho vypočtených výsledků.“

Tato strohá vyjádření jsou jistě těžko srozumitelná pro nezasvěcené a vyžadují další vysvětlení, tím spíš, že tentokrát byla cena udělena dvěma teoretikům, kteří pracují v oboru velmi vzdáleném každodenní zkušenosti – v oblasti kvantové teorie pole a teorie elementárních částic. Velmi stručně lze říci, že práce G. ’t Hoofta a M. Veltmana podstatným způsobem podpořily teorii interakcí částic v mikrosvětě, které se dnes říká standardní model, a nesmírně ovlivnily vývoj teorie elementárních částic od počátku 70. let až do dneška. Abychom však pochopili význam prací těchto dvou Holanďanů podrobněji, je třeba jít hlouběji do historie moderní fyziky a rekapitulovat stručně některé mezníky vývoje fyziky elementárních částic ve 2. polovině 20. století.

Prehistorie elektroslabých interakcí

Začněme svůj exkurs do historie v letech po 2. světové válce, na přelomu 40. a 50. let. V té době se bouřlivě rozvíjela zejména kvantová elektrodynamika jako model kvantové teorie pole popisující elektromagnetické síly v mikrosvětě, založený na představě interakce zprostředkované výměnou virtuálního fotonu mezi elektricky nabitými částicemi. Ačkoli byla tato teorie původně formulována již koncem 20. let, teprve na konci 40. let se zbavila „dětských nemocí“ v podobě zdánlivě nesmyslných nekonečných výrazů, které vznikaly při výpočtech fyzikálních veličin. Ukázalo se, že tato nekonečna (neboli „ultrafialové divergence“, jak se nazývají v technickém žargonu našeho oboru) lze konzistentně odstranit procedurou známou jako „renormalizace“, která spočívá v reinterpretaci několika původních parametrů (např. hmoty a náboje elektronu), jež vstupují do výpočtů. Nepříjemné nekonečné výrazy se přitom odečtou a lze pak dostat konečné kvantové korekce k různým fyzikálním veličinám, jejichž základní hodnoty jsou vyčíslitelné i v klasické fyzice. Tyto jemné dodatečné efekty (v hantýrce kvantové teorie pole zvané souhrnně „radiační korekce“) jsou obvykle relativně malé, nicméně často se dají experimentálně měřit – jedním takovým slavným příkladem je tzv. „anomální magnetický moment elektronu“, efekt řádu jednoho promile, přesně spočítaný a změřený na konci 40. let. Na rozvoji těchto výpočetních metod se podílela řada teoretických fyziků a tři z nich byli později (v r. 1965) za svou práci dokonce odměněni Nobelovou cenou: Richard Feynman, Julian Schwinger a Sin-itiro Tomonaga. Za zvláštní zmínku stojí zejména originální příspěvek R. Feynmana, který pro usnadnění komplikovaných výpočtů vytvořil zvláštní „obrázkové písmo“ – proslulé Feynmanovy diagramy, které reprezentují určité algebraické výrazy pro počítané fyzikální veličiny a zároveň jakoby znázorňují uvažovaný fyzikální proces tak, jak by v mikrosvětě mohl skutečně probíhat. Technika Feynmanových diagramů v jistém smyslu přiblížila abstraktní metody kvantové teorie pole širší odborné i laické veřejnosti a stala se trvalou součástí učebnic i populárních publikací o fyzice elementárních částic.

Na přelomu 40. a 50. let již bylo také známo mnohé o vlastnostech tzv. slabé interakce, která je zodpovědná např. za radioaktivní beta-rozpad atomových jader (a je také primární hybnou silou termojaderných reakcí, které způsobují, že Slunce září a dodává nám energii). S tím, jak přibývalo experimentálně pozorovaných částic, bylo stále více zřejmé, že původní „slabá jaderná síla“ je ve skutečnosti další univerzální interakcí v mikrosvětě, která ovlivňuje prakticky všechny známé částice. Teoretický popis slabé interakce přitom vycházel z původních představ Enrica Fermiho z 30. let, který předpokládal, že např. interakce neutronu, protonu, elektronu a neutrina v jaderném beta-rozpadu je přímá, tj. že není – na rozdíl od elektrodynamiky – zprostředkována výměnou žádné další částice. Teorie Fermiho typu celkem uspokojivě popisovala slabé procesy pomocí nejjednodušších Feynmanových diagramů při dostatečně nízkých energiích, ale její výpočetní možnosti byly ve skutečnosti velmi omezené: složitější Feynmanovy diagramy vedly k nekonečným výrazům, jež nebylo možné odstranit metodou známou z kvantové elektrodynamiky – jinými slovy, Fermiho teorie slabých interakcí nebyla renormalizovatelná. V té době již ovšem také mnozí fyzikové pěstovali alternativní teorii založenou na tzv. „intermediálním bosonu“ W – hypotetické částici, která by zprostředkovávala slabou interakci podobně jako foton zprostředkovává interakci elektromagnetickou. Bylo víceméně zřejmé, že tato alternativa je pro nízké energie interagujících částic prakticky nerozlišitelná od jednodušší Fermiho verze, pokud by intermediální boson byl dostatečně těžký. Dále bylo evidentní, že taková hypotetická částice musí být elektricky nabitá (neboť např. při jaderném beta-rozpadu by se pak neutrální neutron měnil na kladně nabitý proton právě v důsledku emise virtuálního bosonu W). Během 50. let se na základě řady experimentů také vyjasnilo, že pokud by boson W existoval, musel by mít jednotkový spin, stejně jako foton. Z technického hlediska byl model bosonu W o něco lepší než Fermiho teorie, nekonečných výrazů vznikalo méně, ale k dokonalosti kvantové elektrodynamiky to mělo daleko. Zdrojem potíží byla nenulová hmota částice W a také její elektrický náboj.

Na druhé straně – vzhledem k částečné podobnosti slabé a elektromagnetické interakce – bylo lákavé uvažovat o eventuálním sjednocení obou sil. Pro fyziky, kteří brali vážně myšlenku takového sjednocení (tj. v moderní terminologii „elektroslabého sjednocení“), přišla v polovině 50. let jako na zavolanou zbrusu nová teoretická idea – princip „lokální vnitřní symetrie“ v teorii pole, který na čistě teoretické a spekulativní bázi formulovali Chen-Ning Yang a Robert Mills původně se zcela jinou motivací, nezávislou na problémech možného sjednocení slabých a elektromagnetických interakcí.

Geneze standardního modelu interakcí elementárních částic

Atraktivita Yangova-Millsova principu spočívala v tom, že jeho automatickým důsledkem byla existence obecně celé „rodiny“ (multipletu) částic s jednotkovým spinem, tj. částic typu fotonu a hypotetického bosonu W. Jednotný rámec pro popis slabých a elektromagnetických sil se tak přímo nabízel. Zároveň také zkušenosti s kvantovou elektrodynamikou (která je ve skutečnosti nejjednodušší myslitelnou teorií Yangova­Millsova typu) ukazovaly, že určitá vnitřní symetrie v rámci teorie pole může podstatným způsobem redukovat problém nekonečen ve Feynmanových diagramech. Při konstrukci sjednocené teorie bylo ovšem nutné překonat známé rozdíly v charakteru slabé a elektromagnetické interakce. Nejzávažnější přitom byl problém hmoty – Yangův-Millsův princip ve své čisté podobě vedl jen k nehmotným bosonům s jednotkovým spinem a bosonu W bylo tedy třeba dodat nutnou hmotu jaksi zvlášť. O formulaci elektroslabého sjednocení s využitím principu lokální vnitřní symetrie se na přelomu 50. a 60. let let pokusila řada teoretiků. Z dnešního hlediska byl z těchto raných pokusů správnému řešení nejblíže Sheldon Glashow, který v práci publikované r.1961 zavedl kromě nabitého bosonu W ještě další tehdy hypotetický intermediální boson – neutrální Z (ten je skutečně velmi důležitým instrumentem pro úspěšné elektroslabé sjednocení). Ani Glashow se však nedokázal důsledně vypořádat s problémem hmoty bosonů W a Z a v důsledku toho také jeho model obsahoval „neodstranitelná nekonečna“. Spásný nápad dostali nakonec nezávisle na sobě Steven Weinberg a Abdus Salam (jejich práce byly publikovány v letech 1967 a 1968). Rozhodli se použít trik, který několik let předtím objevil Peter Higgs zcela nezávisle na problému elektroslabého sjednocení. Higgs si totiž všiml (a demonstroval to jako víceméně akademický příklad na jednoduchém modelu teorie pole), že Yangovým­Millsovým bosonům lze dodat hmotu prostřednictvím specifické interakce s bosony s nulovým spinem tak, že původní lokální vnitřní symetrie přitom není podstatně narušena. Aplikace tohoto „Higgsova triku“ nebo „Higgsova mechanizmu“ v rámci teorie elektroslabého sjednocení tak vzbuzovala naději, že nepříjemná nekonečna vznikající při výpočtech Feynmanových diagramů bude možno odstranit procedurou renormalizace podobnou té, která byla dříve s úspěchem použita pro kvantovou elektrodynamiku. Tvůrcům tohoto modelu však bylo také záhy zřejmé, že od pouhé naděje k přímému důkazu renormalizovatelnosti je daleko. (Po pravdě řečeno, nebylo dokonce zcela jasné ani to, zda procedura renormalizace funguje v případě čisté teorie Yangova-Millsova typu obsahující multiplet nehmotných bosonů s jednotkovým spinem.) Navíc, poněkud nepříjemným rysem nově vzniklé jednotné teorie slabých a elektromagnetických interakcí byla nutná přítomnost dvou částic, po jejichž fyzikálních efektech nebylo v té době ani stopy – neutrálního intermediálního bosonu Z a „Higgsova bosonu“. Není proto snad ani příliš překvapující, že tuto teorii tehdy přijala fyzikální komunita velmi zdrženlivě. Přesněji řečeno, Weinbergovu a Salamovu práci zřejmě ve své době téměř nikdo nebral vážně, navzdory tomu, že oba byli již renomovanými vědci. (Dá se například doložit, že Weinbergova práce nebyla 3 roky po publikaci téměř vůbec citována.) Toto chladné přijetí bylo ovšem způsobeno také tím, že atmosféra konce 60. let v teoretické fyzice byla celkově ve znamení zřetelného odklonu od kvantové teorie pole a metody Feynmanových diagramů: ve fyzice elementárních částic se v té době z různých důvodů hledaly jiné metody, panovala jiná móda, a teorie pole se na čas stala – ačkoli dnes nám to připadá neuvěřitelné – spíše okrajovou disciplínou.

Průlom „utrechtské školy“

Kvantovou teorii pole a Feynmanovy diagramy naštěstí i v té době bral zcela vážně Martinus Veltman, profesor na univerzitě v nizozemském Utrechtu, který se v 60. letech velmi intenzivně věnoval problému renormalizovatelnosti v teoriích Yangova-Millsova typu. Studoval např. podrobně Glashowův model a ukázal, že přes určité dílčí úspěchy některé ultrafialové divergence nelze odstranit. Na podzim r. 1969 se stal jeho doktorandem Gerardus ’t Hooft. Ten zřejmě jako první pochopil skutečný technický význam Higgsova mechanizmu (který sám Veltman původně asi poněkud podceňoval) pro řešení problému renormalizace a spolu s Veltmanem pak v letech 1970–1972 publikovali sérii fundamentálních prací, v nichž dokázali renormalizovatelnost teorií Yangova­Millsova typu bez hmotových členů i s Higgsovým mechanizmem. Vyvinuli přitom zcela nové technické metody kvantové teorie pole, které se postupně staly součástí arzenálu všech teoretiků pracujících v oboru a některé z nich lze dnes najít téměř ve všech moderních učebnicích. (Je třeba zdůraznit, že tento pokrok byl skutečně velmi netriviální; je například známo, že sám Steven Weinberg se na přelomu 60. a 70. let pokoušel dokázat renormalizovatelnost svého modelu, ale ztroskotal.) Po zveřejnění ’t Hooftových a Veltmanových prací, které vlastně mj. ukázaly, že např. Weinbergův-Salamův model má stejně dobrý matematický základ jako kvantová elektrodynamika, začal skutečný „boom“ modelů sjednocujících slabé a elektromagnetické interakce na principech Yangovy-Millsovy lokální vnitřní symetrie a Higgsova mechanizmu. (Lze to doložit i na dramatickém vzestupu citačního ohlasu původní Weinbergovy práce po roce 1972.) Kromě toho v první polovině 70. let byla na principu Yangovy-Millsovy lokální vnitřní symetrie formulována také moderní teorie silných interakcí elementárních částic (kvantová chromodynamika), která zcela překonala staré modely z 50. a 60. let. Stojí za zmínku, že G. ’t Hooft v 70. a 80. letech výrazně přispěl i k dalšímu rozvoji kvantové chromodynamiky.

Z toho, co jsme již uvedli, je víceméně zřejmé, že průkopnické ’t Hooftovy a Veltmanovy práce podstatně přispěly k „rehabilitaci“ kvantové teorie pole v 70. letech a k etablování základních principů současné teorie elementárních částic. Během 70. let také úspěšně proběhly první experimentální testy teorie elektroslabých interakcí a na přelomu 70. a 80. let se tak pro Glashowovu, Weinbergovu a Salamovu teorii ujal prozaický termín „standardní model elektroslabých interakcí“. Spolu s kvantovou chromodynamikou tvoří dnes tato teorie „standardní model fyziky elementárních částic“ (stojí snad za zmínku, že Glashow, Salam a Weinberg nepřišli zkrátka – dostali Nobelovu cenu v r. 1979).

Hlavní „praktický“ význam prací G. ’t Hoofta a M. Veltmana pro fyziku elementárních částic spočíval v tom, že řada teoretiků začala již během 70. let s důvěrou počítat v rámci standardního modelu jemné kvantové „radiační“ korekce k fyzikálním veličinám – v naději, že takové výpočty budou nakonec testovány, až budou k dispozici dostatečně přesné experimentální výsledky. Tak byly například koncem 70. let teoreticky poměrně přesně předpovězeny hmoty intermediálních bosonů W a Z (takový výpočet provedl mj. i sám Veltman). Jak známo, částice W a Z byly nakonec objeveny v ženevském CERN r. 1983, s hmotami, jež dobře souhlasily s teoretickými předpověďmi (za tento objev dostali v r.1984 Nobelovu cenu Carlo Rubbia a Simon van der Meer). Na sklonku 80. let nastala „éra přesných testů standardního modelu“ v souvislosti se spuštěním několika velkých částicových urychlovačů v Evropě i USA. V 90. letech bylo na těchto zařízeních dosaženo přesnosti měření, která umožňuje ověřit řadu dalších teoretických výpočtů, spočívajících na původních ’t Hooftových a Veltmanových pracích. Jednou takovou mimořádně pozoruhodnou předpovědí byl teoretický odhad hmoty šestého kvarku (jde o „kvark top“, nejtěžší dosud známou elementární částici). Kvark top je tím dlouho hledaným chybějícím článkem standardního modelu, jehož existence je skutečně velmi důležitá pro matematickou vnitřní konzistenci teorie. Teoretická analýza jemných efektů radiačních korekcí v měřených veličinách stále zpřesňovala odhad hmoty kvarku top, který byl nakonec experimentálně objeven r. 1994 v laboratoři Fermilab v USA a jeho hmota velmi dobře souhlasí s teoreticky vypočtenou hodnotou. Posledním „chybějícím článkem“ standardního modelu tak zůstává záhadný Higgsův boson, jehož hmota je nyní rovněž teoreticky odhadnuta na základě výpočtů kvantových radiačních korekcí k pozorovatelným veličinám a jejich konfrontace s daty. Očekává se, že experimentálně bude otázka Higgsova bosonu definitivně rozřešena do r. 2010 na výkonných urychlovacích zařízeních, budovaných v současné době v Evropě a USA. Jde zejména o zařízení LHC (Large Hadron Collider) v ženevském CERN.

Podle daných striktních pravidel lze Nobelovu cenu udělit teoretikům jen ve spojení s experimentálně ověřeným výsledkem (předpovědí). Dá se říci, že tento požadavek je v pracích ’t Hoofta a Veltmana splněn. Hlavní zásluhou těchto teoretiků je však nesmírná stimulace rozvoje fyziky elementárních částic a metod kvantové teorie pole v uplynulém čtvrtstoletí – vývoj fyziky elementárních částic jasně ukazuje, že k výraznějšímu pokroku vždy dochází souhrou a vzájemným ovlivňováním teorie a experimentu a historie současného standardního modelu dává v tomto ohledu příklady par excellence. Stručně lze říci, že v 70. letech se zcela zřetelně „změnilo paradigma“ ve fyzice částic ve prospěch kvantové teorie pole, která – jak jsme se již zmínili – byla na konci 60. let spíše na okraji zájmu fyziků. Na tomto posunu (nepochybně správným směrem) v myšlení částicových fyziků mají Gerardus ’t Hooft a Martinus Veltman podstatnou zásluhu. ¨

Poznámky

1) Pozn. red.: Problematika tohoto článku je částečně podporována GAČR z grantu č. 202/98/0506

Citát

Chris Quigg, šéf teoretiků ve Fermilabu

Naše neschopnost předpovědět hmotu Higgsova bosonu je jeden z důvodů, proč mnozí z nás věří, že tento obraz není úplný. Hledáme rozšíření elektroslabé teorie, které by bylo koherentnější a předpovídalo více. Dvě z nich se zdají být slibná. Obě implikují, že najedeme bohatou úrodu nových částic a nových fenoménů v oblasti vysokých energií, kterých právě začínáme dosahovat ve Fermilabu a v CERN. Jeden z těchto přístupů k zobecnění elektroslabé teorie, nazývaný supersymetrie, přiřazuje všem známým kvarkům, leptonům a nositelům sil nové částice... V druhém přístupu, nazývaném dynamické narušení symetrie, není Higgsův boson elementární, ale složenou částicí, jejíž vlastnosti bychom mohli spočítat, jakmile budeme znát vlastnosti jejích složek a jejich interakcí.

OBORY A KLÍČOVÁ SLOVA: Kvantová fyzika
RUBRIKA: Nobelovy ceny

O autorech

Jiří Hořejší

Jiří Hošek

Doporučujeme

Se štírem na štíru

Se štírem na štíru

Daniel Frynta, Iveta Štolhoferová  |  4. 11. 2024
Člověk každý rok zabije kolem 80 milionů žraloků. Za stejnou dobu žraloci napadnou 80 lidí. Z tohoto srovnání je zřejmé, kdo by se měl koho bát,...
Ustrašená společnost

Ustrašená společnost uzamčeno

Jan Červenka  |  4. 11. 2024
Strach je přirozeným, evolucí vybroušeným obranným sebezáchovným mechanismem. Reagujeme jím na bezprostřední ohrožení, které nás připravuje buď na...
Mláďata na cizí účet

Mláďata na cizí účet uzamčeno

Martin Reichard  |  4. 11. 2024
Parazitismus je mezi živočichy jednou z hlavních strategií získávání zdrojů. Obvyklá představa parazitů jako malých organismů cizopasících na...