Pogląd, jakoby utworzenie miesięcznika Delta (1973) było reakcją na odkrycie prądów neutralnych (1973), nie znalazł potwierdzenia. Pozornie nie ma w tym nic zaskakującego. Niewielu to wydarzenie naukowe w ogóle doceniło, a jeszcze mniej uznało za przełom. Dlaczego więc napisałem ,,pozornie” i co to są prądy neutralne? Wyjaśnijmy to sprawnie, ale po kolei.
Przewidywanie istnienia prądów neutralnych jest konsekwencją potraktowania na serio jednocześnie względności i kwantów. Jako pierwszy zrobił to Paul Dirac prawie pół wieku wcześniej (1928). Zrobił, ale nie od razu uwierzył w to, co zrobił.
Na kartce papieru odkrył spin połówkowy (bez którego nie byłoby ani chemii, ani nas) i antymaterię (wtedy, chwilowo, nie wiadomo, do czego potrzebną)… i nie potraktował tego całkiem serio. Dopiero odkrycie pozytonu (antycząstki elektronu, 1932) uwolniło odpowiednią atencję.
Kolejnym (w telegraficznym skrócie) doświadczalnym bodźcem było zmierzenie nieprzewidywanej przez
(samo) równanie Diraca różnicy poziomów energetycznych atomu wodoru, nazwanej przesunięciem Lamba
(1947). Wyjaśnienie wymagało uznania dynamicznej natury próżni ujawniającej się przy skali
rzędu masy elektronu, czyli
Worek z cząstkami (uznawanymi wtedy za elementarne) rozwiązał się w latach pięćdziesiątych.
Do pewnego stopnia niezależnie obserwowano przemiany jednych cząstek w inne ,,spokrewnione”,
ze zmianą ładunku o jednostkę (tzw. prądy naładowane). ,,Niechęć” do takich przemian zaczęła być
wyjaśniana przez postulowaną bardzo dużą masę (dwóch przeciwnie naładowanych) nośników takiego
,,słabego oddziaływania”, odpowiadającą za jego ,,krótkozasięgowość” (rzędu
W 1967 roku Steven Weinberg zaproponował wspólny opis oddziaływania elektromagnetycznego
i słabego. Wymagało to zapostulowania dodatkowego neutralnego nośnika
oddziaływania słabego, który miał mieszać się z proto-fotonem, dając bezmasowy foton
i masywny (dzięki mechanizmowi Brouta-Englerta-Higgsa) bozon Z
Jej pierwszym przewidywaniem było właśnie istnienie prądów neutralnych
(oddziaływanie słabe bez zmiany ładunku) przenoszonych przez Z
Jest to najbardziej precyzyjny opis zjawisk, jaki udało się ludzkości opracować (zgodność z pomiarami nawet do 12. dziesiętnego miejsca znaczącego). Jest to czysto matematyczna konsekwencja skończonej prędkości przekazywania informacji oraz niezerowej wartości stałej Plancka. Model standardowy, opierający się na obserwowanych symetriach oraz mierzonych ładunkach i masach, przewiduje całą resztę.
Weinbergowi przypisywane jest powiedzenie, że do zajmowania się fizyką potrzebne są tylko trzy rzeczy: matematyka, matematyka i jeszcze raz matematyka… Pogląd, którego redakcja Delty może się i wstydzi, ale raczej nie wypiera.
W miesięczniku mamy jeszcze astronomię i informatykę, ale o tym za chwilę.
Pierwsze dziesięć lat Delty przypadło na ugruntowanie się modelu standardowego. Potrzebny był czwarty kwark: został odkryty. Potrzebna była trzecia rodzina fermionów (do wyjaśnienia naruszenia CP): odkryto kwark piękny oraz lepton tau. Przydałoby się bezpośrednio zaobserwować masywne bozony pośredniczące: dokonano tego, gdy tylko udało się zmajstrować odpowiednio potężne urządzenie (CERN, 1983).
Następna dekada (doświadczalnej fizyki cząstek) została naznaczona przygotowaniem
i realizacją dokładnego badania Z
W ten sposób w modelu standardowym pozostał już do odkrycia tylko bozon Higgsa związany z naruszeniem symetrii elektrosłabej generującym masy cząstek. Odkrycie topu ograniczyło spodziewaną masę bozonu Higgsa do wartości niewiele większej od masy samego topu.
I wreszcie zaczęło się coś jeszcze ciekawszego. Najpierw przywołajmy astronomię w postaci astrofizyki, czy też kosmologii, bo właśnie tam miało się wydarzyć coś nieoczekiwanego. W 1998 roku, w pomysłowy sposób badając populację supernowych IA, będących świecami standardowymi w odległościach kosmologicznych, odkryto przyspieszanie tempa ekspansji Wszechświata.
W połączeniu z dokładnymi pomiarami reliktowego promieniowania tła (np. wyniki WMAP opublikowane
przy okazji trzydziestolecia Delty) pozwoliły wyznaczyć gęstość energii fluktuacji próżni
na około 10
Co w tym ciekawego? Potraktowanie na serio czasoprzestrzeni daje oszacowanie wartości tej gęstości energii tym większe, im mniejszy rozpatrujemy obszar, a ponieważ potencjalnie najmniejszym fizycznie dostępnym obszarem jest komórka o rozmiarach długości Plancka (próba dokładniejszego sprawdzania skończyłaby się utworzeniem czarnej dziury), to gęstość energii próżni powinna być rzędu masy Plancka, czyli 120 rzędów wielkości większa niż obserwowana. Dopóki jej nie zmierzono, to liczono na jakiś nieznany mechanizm dokładnie niwelujący gęstość energii próżni. Jednak szansa na uzyskanie wyniku, który wyzeruje 120 cyfr znaczących, ale zostawi 121, wydaje się bardzo mała.
Jeden taki problem już się rozwiązał poprzez odkrycie antymaterii przy 10
Ale to nie koniec. Do naruszania symetrii elektrosłabej trzeba użyć czegoś pozbawionego spinu. A coś takiego, jeżeli nie jest dodatkowo chronione, również zasysa poprawki rzędu masy Plancka.
Czyli powinniśmy oczekiwać czegoś nowego, co ustabilizuje masę bozonu Higgsa przy skali elektrosłabej
(10
Ten ,,problem hierarchii”, a dokładniej oczekiwanie jego rozwiązania poprzez odkrycie czegoś nowego przy skali naruszenia symetrii elektrosłabej, był jednym z głównych argumentów przy planowaniu i zatwierdzaniu LHC, czyli wielkiego zderzacza hadronów, który zbudowano w tunelu LEP w CERN.
Podniesienie energii , efektywnie, o rząd wielkości oraz zmiana na zderzacz hadronowy (przeszukujący cały zakres energii zamiast jednej dobranej) powodowały, że bozon Higgsa nie miał już gdzie się chować. Ale obiecywano (nie tylko sobie) odkrycie tzw. nowej fizyki, która nie pokazała się w akceleratorze LEP.
Najciekawszą (jednak daleko niejedyną) możliwością, na którą liczono, było wykorzystanie przez Naturę
ostatniej oryginalnej rzeczy, którą mogłaby ona zrobić, a czego jeszcze nie zaobserwowaliśmy.
Chodzi o supersymetrię, która każdej cząstce kooptuje
wzbudzenie o komplementarnym spinie (poprzez kolejny, antysymetryczny tym razem,
nowy dyskretny wymiar). Jeżeli taka symetria nie jest naruszona, to wkłady do masy
bozonu Higgsa się kasują.
W dodatku najlżejsze takie wzbudzenie byłoby stabilne, więc byłoby świetnym kandydatem
na cząstkę ciemnej materii, której domaga się kosmologia. A zupełnie niezależnie,
aby w trakcie ewolucji Wszechświata wytworzyło się odpowiednio dużo ciemnej materii,
odpowiadająca za nią cząstka powinna mieć masę też w okolicach
skali 10
Akcelerator LHC miał być uruchomiony tuż po trzydziestych urodzinach Delty, ale budowa (LHC wraz z detektorami) trwała pięć lat dłużej.
Trzy scenariusze były możliwe.
,,Medialny”: LHC odkrywa bozon Higgsa i ,,nową fizykę”, która uzasadnia jego masę.
,,Kryzysowy”: LHC niczego nie odkrywa – trzeba zacząć wymyślać fizykę cząstek od zera (wyjaśniając przy okazji, dlaczego model standardowy daje tak dobre przewidywania pomimo braku bozonu Higgsa).
,,Poważny”: LHC odkrywa ,,tylko” bozon Higgsa, ale niczego wyjaśniającego jego niską, w porównaniu do skali Plancka, masę.
Przy okazji czterdziestolecia Delty przyznano Nagrodę Nobla za wymyślenie bozonu Higgsa, dzięki temu, że tak wyglądającą cząstkę odkryliśmy w LHC.
Ostatecznie, musieliśmy samym sobie przyznać, że scenariusz ,,medialny”, jeżeli w ogóle był możliwy, to najpóźniej w LEP-ie. Odkrycie nowej fizyki w LHC i tak wymagałoby precyzyjnego dostrojenia w celu wyjaśnienia masy bozonu Higgsa. Inaczej mówiąc, nieprofesjonalne było argumentowanie, że masa Higgsa nie powinna podlegać dostrojeniu, skoro gęstość energii próżni i tak musi być dostrojona rzędy wielkości dokładniej.
Dlaczego musi? Bo gdyby była choć rząd wielkości większa, to nasz Wszechświat byłby pusty, a więc nie powstalibyśmy, żeby się mu dziwować. Zresztą z masą Higgsa jest podobnie. Jakby trochę ją zwiększyć, to z pierwiastków ,,mielibyśmy” tylko wodór (choć tu można by jeszcze innymi parametrami pokręcić, żeby pierwiastki próbować uratować).
LHC ma działać jeszcze do (mniej więcej) sześćdziesięciolecia Delty. Zwiększana będzie świetlność, czyli liczba elementarnych zderzeń na jednostkę czasu. Czy coś nowego uda nam się wyłowić? Nie wiadomo, ale z każdą kolejną próbką przeanalizowanych danych jest to coraz mniej prawdopodobne.
Jednocześnie ciekawe jest np. to, że najmniej podstrojona wersja supersymetrii (tzw. Minimal Split SUSY) nie jest wykluczona, a przewiduje cząstki o masach tuż za granicą dostępności w LHC (oraz taką masę Higgsa jak obseriowowana). Ma dobrą kandydatkę na cząstkę ciemnej materii, i to taką, która wyjaśnia fiasko prób jej tzw. bezpośredniej detekcji (komplementarny do LHC sposób poszukiwań rozwijający się na dużą skalę). Nie wiadomo, czy ludzkość da się przekonać do zafundowania następcy LHC, a jak będzie zwlekać, to już może nie być kim budować.
Podsumowując, półwiecze Delty odpowiada półwieczu traktowania na serio połączenia względności i kwantów w spójny matematyczny model zwany modelem standardowym. On już z nami zostanie na zawsze. Pójście dalej wymaga potraktowania matematyki jeszcze bardziej serio. Można powiedzieć, że trzeba choć trochę cofnąć się do ,,proto-matematyki” (czyli informatyki?).
Drogowskazami pozostają takie proste stwierdzenia jak
Tematów wystarczy na tysiąclecia Delty. Oby tylko wystarczyło Czytelników i Autorów.