Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Czy Wszechświat może upaść na dno?


(ostatnia modyfikacja: 09/09.2020)



Kilka dni temu skończyłem czytanie książki Johna D. Barrowa zatytułowanej Książka o Niczym wydanej w wydawnictwie Copernicus Center Press w 2015 roku. Wbrew pozorom to nie jest książka o niczym ale właśnie o Niczym i to jest Wielka Różnica. Barrow opisuje w jaki sposób Nic okazało się być niespodziewanie ważnym Czymś, wokół którego skupia się wiele istotnych pytań dręczących ludzkość od wieków. Książka Barrowa to także opis swego rodzaju wyścigu, którego celem było z jednej strony zrozumienie możliwości jej istnienia a z drugiej wytworzenie prawdziwej próżni fizycznej oraz zrozumienie roli, jaką pełni w Kosmosie. Serdecznie polecam wszystkim przeczytanie opisu tego wyścigu. Ja w niniejszym wpisie wykorzystam książkę Barrowa do przedstawienia jednego z poruszanych przez niego wątków, który dla mnie okazał się szczególnie interesujący.
 
Świat obiektów astronomicznych podlega próżni w sposób, którego nie można pominąć. Obraz przeszłości, teraźniejszości i przyszłości Wszechświata proponowany przez współczesną kosmologię opiera się na niezwykłych właściwościach próżni. Dopiero z perspektywy czasu będzie można powiedzieć, czy konstrukcja ta nie jest tylko mirażem. Możliwe, że czas oczekiwania nie będzie zbyt długi. Odkrycia kosmologii dokonane w ostatnich latach XX. wieku pokazały wpływ próżni na rozszerzanie się Wszechświata. Miejmy nadzieję, że kolejne badania wyjaśnią, czy – jak się tego spodziewamy – niecałe piętnaście miliardów lat temu próżnia wykonała serię energetycznych wstrząsów umieszczających Wszechświat na kursie, którym podąża do dziś i który determinuje jego przyszłość. Wiele wskazuje na to, że jeśli chcemy zrozumieć, skąd się tu wzięliśmy i jak do tego doszło, niezbędne będzie właściwe zrozumienie istoty i właściwości Niczego oraz jego skłonności do zmiany – zarówno tej błyskawicznej, jak i niezauważalnej.
 
Barrow zauważa, że filozoficzne przeglądy kluczowych idei z historii myśli ludzkiej niewiele miały do powiedzenia na temat Nicości. W poważną dyskusję na temat wielorakich przejawów Niczego zaangażowali się natomiast teolodzy, aby rozstrzygnąć, czy się z niego wywodzimy i czy grozi nam powrót do jego bezbożnej otchłani. Praktyki religijne często wiążą się z rzeczywistością Niczego, głównie ze względu na poruszaną problematykę śmierci. Śmierć jako całkowite unicestwienie jest od wieków rozumiana jako jedna z najbliżej towarzyszących nam odmian Niczego. Śmierć jest stacją końcową, do której wszyscy zmierzamy i dostarcza nam najszerszej skali porównawczej, sugerując przy tym istnienie pewnej ostatecznej perspektywy czy wręcz sądu ostatecznego.
 
Barrow opisuje w jaki sposób Nic, w swoich rozmaitych przejawach, okazuje się być kluczowym pojęciem w wielu dziedzinach nauki. Właściwe zrozumienie Niczego prowadzi często do wyłonienia się nowych sposobów myślenia o świecie. W tym kontekście nic nie jest takie, jak mogłoby się nam wydawać. Logika Greków, twórców naszej zachodniej filozofii, uniemożliwiła im wyrażenie idei niczego i dopiero w kulturze indyjskiej znajdziemy myślicieli, którzy nie mieli problemu z uznaniem, że Nic może być Czymś. Następnie przyjrzymy się, co zaszło, gdy również Grecy podjęli ten temat. Ich zmagania skoncentrowały się na Nic fizycznym – pustej przestrzeni, próżni i pustki. Zmaganie, aby sensownie wyrazić te pojęcia i wcielić je w schemat kosmologiczny, porządkujący codzienne doświadczenia z obiektami świata fizycznego, wyznacza początek nieustającej i coraz bardziej zawiłej dyskusji trwającej niemal dwa tysiące lat. Również nauka i teologia średniowiecza zmagały się nieustannie z ideą próżni, próbując rozstrzygnąć kwestię jej realności fizycznej, logicznej możliwości i tego, czy jest pożądana z teologicznego punktu widzenia.
 
Równolegle do poszukiwań sensu Niczego i pustki narodziła się poważna eksperymentalna filozofia próżni. Same zabawy słowne mające pomóc w ustaleniu, czy próżnia może istnieć, przestały wystarczać. Pojawiła się nowa droga ku wiedzy: zobacz sam, czy umiesz wytworzyć próżnię. Dotychczasowe dysputy teologiczne na temat realności próżni zostały z czasem wzbogacone o szereg prostych eksperymentów mających pokazać, czy jest możliwe całkowite opróżnienie pewnego fragmentu przestrzeni. Ten tok rozumowania doprowadził ostatecznie naukowców takich jak Galileusz, Evangelista Torricelli, Blaise Pascal czy Robert Boyle do usunięcia powietrza ze szklanych pojemników przy użyciu pomp i wykazania istnienia rzeczywistego ciśnienia i ciężaru powietrza unoszącego się nad naszymi głowami. Próżnia stała się częścią nauki eksperymentalnej. Okazała się być przy tym bardzo przydatna.
 
Fizycy wątpili jednak, czy możliwe jest wytworzenie prawdziwej próżni. Uważano, że Wszechświat wypełniony jest przez ocean eterycznej substancji, w której poruszamy się, nie wywierając nań żadnego mierzalnego wpływu. Naukowcy w XVIII i XIX wieku zmagali się z tym ulotnym płynem i z próbami wyjaśnienia przy jego udziale na nowo odkrytych sił elektrycznych i magnetycznych. Został on ostatecznie przez nich porzucony dopiero za sprawą talentu eksperymentatorskiego Alberta Michelsona i przenikliwego umysłu Alberta Einsteina. Pokazali oni, że kosmiczny eter nie jest konieczny, a dowody na jego istnienie są nieprzekonujące. Po opublikowaniu szczególnej teorii względności w 1905 roku kosmiczna próżnia znów stała się możliwa. W 1915 roku sytuacja ponownie uległa zmianie: nowa, relatywistyczna teoria grawitacji Einsteina pozwalała na precyzyjne matematyczne opisanie przestrzeni całkowicie pozbawionej masy i energii. Mogły więc istnieć puste wszechświaty.
 
Rewolucja kwantowa zastosowana w XX. wieku do opisu najmniejszych składników świata pokazała, że dawny obraz próżni jako pustego pudełka jest nie do utrzymania. Próżnię należy raczej rozumieć jako stan pudełka po usunięciu z niego wszystkiego tego, co da się usunąć. Nie oznacza to jednak, że pudełko jest puste. Tym, co pozostaje, jest raczej najniższy dostępny stan energetyczny – taki, że wszelkiego typu zakłócenia lub wpływy z zewnątrz powodują podwyższenie jego energii.
 
Z biegiem lat egzotyczna wizja kwantowej Nicości zaczęła poddawać się badaniom eksperymentalnym a fizycy odkryli, że ich asekuracyjna definicja próżni jako tego, co pozostaje po usunięciu wszystkiego, co da się usunąć, nie była tak niemądra, jak by się mogło wydawać. Rzeczywiście zawsze coś zostaje: energia próżni przenikająca każdy zakątek Wszechświata. Ta wszechobecna, niedająca się usunąć energia próżni została w końcu wykryta i pokazano, że jej obecność jest fizycznie namacalna. Jej prawdziwe znaczenie dla struktury Wszechświata zostało jednak odkryte dopiero w ostatnich dekadach XX. wieku. Jak się okazuje, świat może posiadać wiele różnych stanów próżniowych. W określonych warunkach może nastąpić przejście między dwoma takimi stanami – ze spektakularnymi konsekwencjami tego procesu. Co ciekawe, wydaje się, że tego typu przejścia trudno jest uniknąć przy opisie pierwszych chwil rozszerzania się Wszechświata. Jeszcze ciekawszy jest fakt, że owo przejście może prowadzić do szeregu interesujących skutków, co pozwala ostatecznie na wyjaśnienie wielu niezwykłych właściwości Wszechświata, które wydawały się być wcześniej owiane całkowitą tajemnicą.
 
W końcowej części książki Barrow zatrzymał się nad dwoma kosmologicznymi tajemnicami dotyczącymi Niczego. Pierwsza z nich ma starożytny rodowód – jest to problem stworzenia Czegoś z Niczego i pytanie o to, czy Wszechświat miał początek. Jeśli tak, to z czego się wyłonił? Jakie są religijne źródła takiego poglądu i jaki jest dzisiaj jego status naukowy? Druga tajemnica jest nam czasowo bliższa. Łączą się w niej wszystkie współczesne przejawy próżni, opis grawitacji i nieunikniona obecność energii w próżni kwantowej. Einstein pokazał, że Wszechświat może być wyposażony w tajemniczą postać energii próżni. Aż do niedawna obserwacje astronomiczne mówiły nam tylko tyle, że jeśli ta energia rzeczywiście istnieje i wywiera wpływ na cały Kosmos, to jej intensywność musi być nieprawdopodobnie mała, aby nie zdominowała reszty Wszechświata. W 1998 roku dwa zespoły astronomów połączyły moc najpotężniejszych ziemskich teleskopów z mocą optyczną Kosmicznego Teleskopu Hubble’a i zgromadziły jednak przekonujące dowody na realność kosmicznej energii próżni. Jej działanie jest spektakularne. Okazuje się ona przyspieszać rozszerzanie się Wszechświata. Jeśli energia ta jest naprawdę czymś realnym, to wyznaczy ona przyszłe losy Wszechświata i zdeterminuje jego koniec.
 
Najbardziej owocne badania próżni przeprowadzono w XVII wieku. Wiązały się one z eksperymentami nad zachowaniem się gazów poddawanych działaniu różnych ciśnień. W 1638 roku Galileusz zauważył, że przy pompowaniu wody przy użyciu pompy ssącej istnieje granica wysokości, do której można wciągnąć wodę. Było to dziesięć i pół metra i ani centymetra wyżej. W miarę ulepszania tych urządzeń naukowcy zaczęli zastanawiać się, dlaczego właściwie w ogóle one działają? Z czasem ustalono, że po usunięciu powietrza z zamkniętej przestrzeni występowała siła zasysająca ciecz do tej przestrzeni. Z początku wydawało się to potwierdzać starożytny dekret Arystotelesa, że „Natura nie znosi próżni” – po wytworzeniu pustej przestrzeni materia rusza więc, aby ją wypełnić. Arystoteles utrzymywał, że materia wypełnia próżnię, ponieważ jest to dla niej stan docelowy. Takie wyjaśnienia nie zadowalały jednak Galileusza. Widział, że jest coś niesatysfakcjonującego w traktowaniu niezdolności pompy do wciągania wody powyżej pewnego ustalonego poziomu jako dowodu na niechęć Natury wobec próżni. Dlaczego bowiem niechęć Natury miałaby sięgać akurat dziesięciu i pół metra?
 
Zagadka pomp wodnych została rozwiązana przez jednego z uczniów Galileusza Evangelistę Torricellego. Torricelli zdał sobie sprawę, że powietrze atmosferyczne Ziemi posiada pewien ciężar, który naciska na Ziemię i wywiera na jej powierzchni ciśnienie. Owo „ciśnienie atmosferyczne” było przyczyną, dla której powietrze miało skłonność do wypełniania opróżnianych przez nas przestrzeni. Przeprowadzanie eksperymentów przy użyciu wody było uciążliwe (choć tanie): dziesięć i pół metra, oznaczało specyficzne wymagania wobec laboratorium badawczego. Torricelli zauważył, że gdyby użyć cieczy gęstszej od wody, maksymalna wysokość pompowania byłaby niższa. Najbardziej gęstą ze wszystkich cieczy jest rtęć, płynny metal. Jest ona niemal czternaście razy gęstsza od wody, tak więc można się spodziewać, że maksymalna wysokość, na jaką uda się ją wpompować, będzie czternaście razy niższa niż w przypadku wody, co oznacza dogodną wartość ledwie 76 centymetrów słupa rtęci.
Torricelli wziął prostą szklaną rurkę o długości przekraczającej 75 centymetrów i z jednej strony zamknął ją poprzez nadtopienie szkła, z drugiej pozostawił otwartą. Następnie wypełnił ją po brzegi, przytknął ujście palcem, obrócił do góry dnem, umieszczając jej otwarty koniec pod powierzchnią rtęci wypełniającej naczynie. Po cofnięciu palca poziom rtęci w rurce opadał. Po wykonaniu tego eksperymentu na wysokości odpowiadającej poziomowi morza, bez względu na grubość rurki, rtęć osiągała poziom zbliżony do 76 centymetrów nad poziomem rtęci w naczyniu. Niezwykłość eksperymentu Torricellego polegała na tym, że po raz pierwszy zdawało się, iż wytworzona zostaje trwała próżnia fizyczna. Po napełnieniu rurki rtęcią nie było w niej powietrza. A jednak po jej odwróceniu poziom rtęci spadał, pozostawiając za sobą pustą przestrzeń. Co się w niej znajdowało? Powietrze nie mogło się przedostać. Musiała więc być to próżnia. Przyczyną takiego stanu rzeczy był fakt, że siła wywierana przez ciężar powietrza atmosferycznego ponad naczyniem z rtęcią działała na jej powierzchnię i sprawiała, że rtęć wznosiła się w rurce do poziomu, na którym jej ciśnienie równoważyło to wywierane przez powietrze na powierzchni naczynia z rtęcią.
 
Obok efektu praktycznego jakim było wynalezienie barometru rtęciowego eksperyment Torricellego doprowadził ostatecznie do powszechnego zaakceptowania idei, że Ziemia otulona jest kokonem atmosfery, która rozrzedza się w miarę oddalania się od powierzchni Ziemi, stając się ostatecznie pustą przestrzenią, którą my nazywamy obecnie „przestrzenią kosmiczną”. Torricelli pokazał, że my i nasze lokalne środowisko zbudowani jesteśmy z materii o innej gęstości niż ta wypełniająca Kosmos. Jesteśmy odosobnieni i unosimy się w niezmierzonej pustce.
 
Według Barrowa najbardziej spektakularnym wytworem intelektualnym XX. wieku jest Einsteinowska teoria grawitacji, określana mianem „ogólnej teorii względności”. Wyparła ona po trzystu latach teorię grawitacji Newtona ponieważ może być stosowana do opisu obiektów poruszających się z prędkością bliską prędkości światła oraz znajdujących się w bardzo silnych polach grawitacyjnych. Gdy nie ma masy i energii, przestrzeń jest płaska. Po dodaniu masy robi się zakrzywiona. Przy dużej masie zakrzywienie płaskiej przestrzeni jest duże tylko w pobliżu źródła masy i stopniowo spada w miarę oddalania się od niego. Wedle teorii Einsteina ruchy ciał w zakrzywionej przestrzeni wynikają z lokalnej topografii. Ciała po prostu podróżują najszybszą możliwą trasą. Einstein nie wspomina o żadnych siłach – wszystko rusza się, jak gdyby nie występowały żadne siły, czyli po trajektorii, która jest analogiczna do linii prostej w geometrii euklidesowej. Poruszające się obiekty postępują zgodnie z rozkazami dyktowanymi przez lokalną krzywiznę przestrzeni.
 
Wykorzystując równania ogólnej teorii względności można otrzymać rozwiązania, które opisują cały Wszechświat – coś, co astronomowie nazywają „czasoprzestrzenią”. Rozwiązania takie informują o kształcie przestrzeni w dowolnym wybranym momencie dzięki czemu uzyskujemy obraz przedstawiający ewolucję kształtu przestrzeni w odpowiedzi na ruch i oddziaływania znajdującej się w niej masy i energii. Równania ogólnej teorii względności pozwalają nam na ustalenie stanu przestrzeni i sposobu, w jaki zmienia się czas ze względu na określony rozkład masy i energii. Tak więc rozwiązanie tych równań daje nam uzupełniającą się parę: geometrię wytworzoną przez dany rozkład masy i energii lub, odwrotnie, zakrzywioną geometrię wymaganą przez ustalony układ masy i energii.
 
Równania ogólnej teorii względności możemy traktować jako przepis pozwalający na wyznaczenie geometrii przestrzeni na podstawie rozkładu masy i energii we Wszechświecie. Na podstawie tego opisu mogłoby się wydawać, że przy braku materii i energii – czyli w sytuacji, w której przestrzeń jest doskonale pustą próżnią w tradycyjnym sensie – przestrzeń powinna być płaska i niezaburzona. Niestety, kwestia ta jest bardziej skomplikowana. Całkowicie płaska i niezaburzona geometria faktycznie jest rozwiązaniem równań w sytuacji braku masy i energii, jak można by się spodziewać. Istnieją jednak inne rozwiązania opisujące wszechświaty bez masy czy energii, ale cechujące się zakrzywioną przestrzenią a właściwie zakrzywioną czasoprzestrzenią.
 
Sam fakt, że ogólna teoria względności pozwala na odnajdywanie precyzyjnych opisów wszechświatów, które rozszerzają się, jak nasz Wszechświat, ale które nie zawierają żadnej materii, nie oznacza jeszcze, że takie scenariusze są realistyczne. Na szczęście jedno z najprostszych rozwiązań równań Einsteina, w którym występuje materia oraz rozszerzanie się w takim samym tempie w każdym kierunku i w każdym miejscu, daje niezwykle precyzyjny opis zachowania się obserwowanego przez nas Wszechświata. Problemem dla kosmologów jest jednak wyjaśnienie, dlaczego właśnie to rozwiązanie zostało wybrane (przez kogo?), aby przejść od bycia czystą możliwością teoretyczną ku rzeczywistemu fizycznemu istnieniu. Dlaczego ten prosty wszechświat, a nie jakieś inne rozwiązanie równań Einsteina? Mamy podstawy by przypuszczać, że we Wszechświecie kryje się więcej niż to, co można wyczytać z samych równań. Połączenie teorii Einsteina z wiedzą na temat elementarnych cząstek materii może nakładać poważne ograniczenia na to, które zakrzywione przestrzenie są fizycznie możliwe. Może też być tak, że we wczesnym etapie ewolucji Wszechświata istniały egzotyczne formy materii, które sprawiły, że wszystkie lub prawie wszystkie skomplikowane wszechświaty dozwolone przez równania Einsteina ostatecznie po miliardach lat okazują się wyglądać coraz bardziej jak widziany dziś przez nas prosty izotropowy rozszerzający się Wszechświat.
 
Kiedy w 1916 roku Einstein zaczął przyglądać się konsekwencjom, jakie miała dla kosmologii jego nowa teoria grawitacji, wiedza o rozmiarze i budowie Kosmosu była znacznie mniejsza niż dzisiaj. Nie było powodu, by przypuszczać, że poza naszą Drogą Mleczną istnieją inne galaktyki. Astronomowie zajmowali się gwiazdami, planetami, kometami i asteroidami. Einstein chciał stosować swoje równania do opisu całego Wszechświata, ale były one zbyt złożone, by je rozwiązywać bez pewnych założeń upraszczających. Miał tu sporo szczęścia. Założył na temat Wszechświata coś, co z pewnością ułatwiało życie matematykowi, ale co mogło się okazać niesłuszne w odniesieniu do samego Wszechświata. Odnośne przesłanki obserwacyjne po prostu nie istniały. Założenie Einsteina polegało na przyjęciu, że Wszechświat jest taki sam w każdym miejscu i w każdym kierunku przez cały czas. Dziś powiedzielibyśmy, że jest jednorodny i izotropowy. Oczywiście "gołym okiem" widać, że nie jest on dokładnie taki. Założenie polegało na tym, że odchyłki od doskonałej jednolitości są tak małe, że nie wpływają znacząco na opis matematyczny całego Wszechświata.
 
W miarę postępu badań okazywało się, że z równań wynika, coś niespodziewanego: Wszechświat musiał się nieustannie zmieniać. Nie dało się odnaleźć rozwiązania, w którym modelowany wszechświat zawierał jednolity rozkład materii, reprezentujący odległe gwiazdy, który nie ulegał zmianie w dużych skalach czasowych. Gwiazdy powinny przyciągać siebie nawzajem za sprawą siły grawitacji. Aby jednak nie doszło do skurczenia się i zgromadzenia materii w wielkiej kosmicznej implozji, musiał istnieć jakiś skierowany na zewnątrz ruch, który by temu zapobiegł: wszechświat „rozszerzający się”. Einsteinowi nie odpowiadała taka możliwość. Była ona sprzeczna z jego głębokim przekonaniem o statyczności Wszechświata. W obliczu niestatycznego Wszechświata wyłaniającego się z równań ogólnej teorii względności Einstein znalazł drogę wyjścia: do fragmentu równań przechowującego informację o geometrii czasoprzestrzeni dodał prosty dodatkowy człon zawierający informację o dodatkowej sile pomiędzy wszystkimi ciałami obdarzonymi masą, której wartość zwiększała się wraz z rosnącą odległością pomiędzy nimi. W skali lokalnej pomijalnie mała, w skali kosmologicznej ta dodatkowa siła grawitacyjna miała przezwyciężyć wpływ grawitacyjnego przyciągania między ciałami. Einstein oznaczył tę siłę w swoich równaniach grecką literą lambda – Λ. Sama teoria nie dostarczała jednak informacji o tym, jaka jest wartość lambdy, a nawet, czy jest ona liczbą dodatnią czy ujemną. Lambda stała się nową stałą przyrody, jak Newtonowska stała grawitacyjna G. Einstein określił lambdę jako „stałą kosmologiczną”. Einstein rozumiał, że dodatnia wartość lambdy oznaczałaby, że jej odpychający przyczynek do całkowitej siły grawitacji przeciwstawiałby się przyciąganiu siły Newtona. Sprawiałby, że odległe od siebie obiekty odpychają się. Zdał też sobie sprawę, że przy odpowiednim dobraniu jej wartości nastąpiłoby dokładne zrównoważenie przyciągania grawitacyjnego, dzięki czemu wszechświat byłby statyczny, ani nie rozszerzający się, ani nie kurczący. Łatwo też wyjaśnić, dlaczego nie ma dowodów na istnienie siły lambda na Ziemi. Wartość lambdy, przy której Wszechświat jest statyczny, jest niezwykle mała – tak mała, że skutków tej siły na Ziemi nie dałoby się wykryć w toku pomiarów oddziaływań grawitacyjnych. Wynika to z faktu, że siła ta wzrasta wraz z odległością. Jej wartość jest wysoka w skali astronomicznej, w której odpowiada za stabilność Wszechświata, ale znikoma w skali ziemskiej czy nawet całego Układu Słonecznego.
 
Einstein nie był jedyną osobą badającą równania ogólnej teorii względności. Rosjanin Aleksandr Friedman był jednym z pierwszych, którzy pojęli matematykę leżącą u podstaw nowej teorii grawitacji Einsteina i w 1922 roku odnalazł nowe rozwiązania równań Einsteina, które sam Einstein przeoczył. Odnalazł też rozwiązania rozszerzające się i kurczące, które Einstein próbował wykluczyć poprzez wprowadzenie członu z lambdą. Znalazł jednak ponadto coś bardziej interesującego: nawet po dodaniu do równań Einsteinowskiej lambdy Wszechświat miał nie być statyczny. Znalezione przez Einsteina rozwiązanie, w którym przyciągająca siła grawitacji była dokładnie zrównoważona przez odpychającą lambdę, faktycznie istniało. Opisywało jednak wszechświat, który nie mógł trwać. Było to rozwiązanie niestabilne. Gdyby w statycznym wszechświecie Einsteina wystąpiła choćby najdrobniejsza nieregularność w rozkładzie gęstości, zacząłby się on rozszerzać lub kurczyć. Friedman wykazał, wykazując, że nawet w obecności siły lambda istnieją rozwiązania równań Einsteina opisujące wszechświaty rozszerzające się. Doprowadzając swoje obliczenia do końca, Friedman doszedł do najważniejszego, według Barrowa, twierdzenia naukowego XX. wieku: cały Wszechświat się rozszerza. W 1929 roku Amerykanin Edwin Hubble zgromadził dane obserwacyjne potwierdzające rozszerzanie się Wszechświata w zgodzie z przewidywaniami Friedmana.
 
Pomimo porzucenia statycznego modelu wszechświata, siła lambda przetrwała. Lambda mogła mieć tak niską wartość, że jej istnienie można było w praktyce pominąć nawet w skali astronomicznej, jednak nie było żadnego powodu, aby ją całkowicie usunąć z równań teorii. Obserwacje pokazały, że jeśli lambda istnieje, to jej wartość jest bardzo mała. Dlaczego jednak miałaby być tak mała? Teoria Einsteina nie mówiła nic na temat jej wielkości albo realnych źródeł w świecie fizycznym. Czym więc mogła być? Było to ważne pytanie, ponieważ odpowiedź na nie z pewnością powinna dostarczyć nam wiedzy na temat natury próżni. Nawet bowiem po usunięciu całej materii z Wszechświata, siła lambda wciąż by istniała, powodując jego rozszerzanie się lub kurczenie. Lambda istniała zawsze, działając na wszystko, niezależna od niczego. Z czasem zaczęła coraz bardziej przypominać jakąś wszechobecną formę energii, która pozostawała po usunięciu z Wszechświata wszystkiego, co dało się usunąć – to zaś mogło już przypominać komuś definicję próżni.
 
Pierwszą osobą, która zasugerowała, że stała kosmologiczna może mieć związki z innymi działami fizyki poza kosmologią, był belgijski astronom i zarazem ksiądz katolicki Georges Lemaître. Lemaître był jednym z pierwszych, którzy potraktowali ideę rozszerzającego się Wszechświata jako poważne zagadnienie z zakresu szeroko rozumianej fizyki. Był zwolennikiem Einsteinowskiej siły lambda i znalazł samodzielnie kilka nowych rozwiązań równań Einsteina, w których figurowała. Był przekonany, że musi być ona obecna w teorii Einsteina, ale w przeciwieństwie do Einsteina, który próbował o niej zapomnieć, oraz niektórych astronomów, którzy zakładali że nawet jeśli istnieje, to jest pomijalna, pragnął zinterpretować ją na nowo. Lemaître zdał sobie sprawę, że choć Einstein umieścił lambdę po geometrycznej stronie swoich równań, możliwe było przesunięcie jej na stronę materii i energii oraz zinterpretowanie jej jako jednego ze składników zawartości materialnej Wszechświata. Po dokonaniu tego kroku trzeba było zgodzić się na odwieczne istnienie we Wszechświecie dziwnego płynu, którego ciśnienie wynosi minus jego gęstość energii. Ujemne ciśnienie to po prostu siła rozciągająca, co nie jest niezwykłe, ale rozciąganie wywoływane przez lambdę to coś innego: powoduje ono odpychające oddziaływanie grawitacyjne.
 
 
Spostrzeżenia Lemaître’a były bardzo istotne, ponieważ po takim zinterpretowaniu stałej kosmologicznej można było liczyć na zrozumienie jej pochodzenia poprzez badanie zachowania się materii w stanach o bardzo wysokich energiach. Gdyby badania tego typu ujawniły istnienie pewnej postaci materii, dla której zachodzi ów szczególny związek między ciśnieniem a gęstością energii, to możliwe byłoby powiązanie naszego zrozumienia grawitacji i geometrii Wszechświata z innymi dziedzinami fizyki. Było to również istotne dla astronomicznego pojęcia próżni. Po odrzuceniu Einsteinowskiej stałej kosmologicznej można było przypuszczać, że istnieją wszechświaty próżniowe, w których nie występowała żadna materia w zwykłej postaci. Jeśli jednak stała kosmologiczna była tak naprawdę pewną zawsze obecną odmianą materii, to prawdziwe wszechświaty próżniowe nie istniały. Zawsze istniała owa ulotna energia lambda, działająca na wszystko, ale nieporuszona przez ruchy czy obecność innych form materii. Niestety, wydaje się, że nikt nie zwrócił uwagi na te koncepcje Lemaître’a, mimo że zostały one opublikowane w 1931 roku w renomowanym czasopiśmie Nature. Naukowcy zajmujący się fizyką jądrową i fizyką cząstek elementarnych, dziedzinami wciąż wówczas młodymi, w swoich teoriach budowy materii nie dostrzegli (jeśli w ogóle szukali) nic, co wyglądałoby jak naprężenie opisywane przez lambdę.
 
Astronomowie poszukiwali odpowiedzi na pytanie: czy można dostrzec wpływ lambdy na rozszerzanie się Wszechświata? Jeśli istnieje siła lambda i jest na tyle duża, że dominuje nad przyciągającą siłą grawitacji w największych skalach pozagalaktycznych, to powinna wpłynąć na rozszerzanie się Wszechświata: najbardziej odległe gromady galaktyk powinny oddalać się od siebie coraz szybciej, a nie zwalniać. Aby wykryć takie kosmiczne przyspieszenie potrzebna jest najpierw metoda wyznaczania odległości do dalekich gwiazd i galaktyk. Nie tak łatwo jednak ustalić, jak daleko znajdują się te obiekty. Problem ten sprawia, że wszelkie pomiary ekspansji Wszechświata w największej pozagalaktycznej skali były zbyt mało precyzyjne, aby mogły potwierdzić lub obalić Einsteinowską hipotezę istnienia siły lambda. Nie dawało się jednoznacznie ustalić, czy ekspansja Wszechświata przyspiesza. Brak dowodu potraktowano jako dowód braku – a tak czy inaczej wydawało się to być niezwykłym zbiegiem okoliczności, że siła lambda zaczęła przyspieszać kosmiczną ekspansję właśnie wtedy, kiedy na kosmicznej scenie pojawili się astronomowie. Lambda musiałaby mieć ponadto nieprawdopodobnie niską wartość. Uważano, że lepiej jest przyjąć, że lambda wynosi zero, i spróbować znaleźć wyjaśnienie tego faktu.
 
W ostatnich latach XX. wieku sytuacja się zmieniła. Wyniki obserwacji czterdziestu odległych supernowych z teleskopów naziemnych i teleskopu Hubble’a, wykonywanych przez dwa odrębne międzynarodowe zespoły astronomów (the Supernova Cosmology Project and the High-Z Supernova Search Team). dostarczyły mocnych dowodów na przyspieszanie rozszerzania się Wszechświata. Co istotne, obserwacje te domagają się istnienia stałej kosmologicznej lub, mówiąc inaczej, siły lambda; prawdopodobieństwo, że można wyjaśnić je przez przyjęcie niezwiększającego się tempa ekspansji, jest mniejsze niż jedna setna. Gdyby udało się całkowicie wykluczyć potencjalne źródła błędów, a inne zespoły astronomów stosujące inne metody analizy innych danych potwierdziły istniejące obecnie wyniki, co na razie ma miejsce, to mielibyśmy do czynienia z czymś niezwykłym i niespodziewanym: rozszerzanie się Wszechświata przyspieszałoby i byłoby kontrolowane przez naprężenie lambda. Konsekwencje takiego stanu rzeczy dla naszego zrozumienia próżni i jej potencjalnej roli w pośredniczeniu pomiędzy grawitacją a innymi siłami przyrody byłyby daleko idące.
 
Odkrycie, że Wszechświat się rozszerza, oznacza, że w przeszłości był gorętszy i gęstszy niż obecnie. Po odtworzeniu jego historii aż do kilku pierwszych minut natrafiamy na środowisko o coraz wyższej energii i temperaturze, które ostatecznie redukują znajome formy materii – atomy, jony i cząsteczki – do ich najprostszych i najmniejszych składników. Liczba i natura najbardziej elementarnych składników materii będzie więc odgrywała kluczową rolę przy ustalaniu ilości i właściwości rozmaitych form materii, które przetrwały młodość Wszechświata.
 
Odkryty na początku XX. wieku i leżący u podstaw mechaniki kwantowej falowy aspekt cząstek ujawnia się w subtelny sposób. Austriacki fizyk Erwin Schrödinger zaproponował równanie, które opisuje zmiany w czasie i przestrzeni tego falowego aspektu każdej cząstki, która znajduje się pod wpływem sił lub innych oddziaływań. Schrödinger nie miał jednak jasnego poglądu na to, czym jest ów aspekt wyznaczany przez jego równanie. Fizykiem, który dostrzegł, czym on musi być, był Max Born: równanie Schrödingera opisuje zmianę prawdopodobieństwa uzyskania określonego wyniku eksperymentu. Kiedy więc mówimy, że cząsteczka zachowuje się jak fala to właściwie jest myśleć o niej jako o fali informacji albo prawdopodobieństwa. Na przykład, kiedy fala elektronowa przechodzi przez laboratorium, oznacza to, że z większym prawdopodobieństwem wykryjemy w nim elektron. Teoria kwantowa jest całkowicie deterministyczna, ale nie na poziomie przejawiania się mierzonych przez nas rzeczy. Równanie Schrödingera daje nam w pełni deterministyczny opis zmian pewnej wielkości (nazywanej „funkcją falową”), która ujmuje aspekt falowy danego układu. Funkcja falowa nie jest jednak obserwowalna. Pozwala nam wyłącznie na obliczenie wyników pomiarów, i to tylko w postaci prawdopodobieństwa uzyskania określonych wyników.
 
Jedną z najbardziej dramatycznych konsekwencji falowego charakteru wszelkiej masy i energii (przypomnijmy, że konsekwencją szczególnej teorii względności jest równoważność i wzajemna wymienialność masy i energii) jest jego wpływ na pojęcie próżni. Gdyby materia składała się ostatecznie z maleńkich cząsteczek przypominających kulki, moglibyśmy jednoznacznie powiedzieć, w której połowie pudełka znajduje się dana cząstka. W przypadku fali odpowiedź na pytanie, gdzie ona jest, nie jest tak prosta. Fala rozciąga się po całym pudełku.
 
Po pełniejszym zbadaniu konsekwencji kwantowego obrazu materii pojawiła się nowa idea, która miała na nowo uderzyć w pojęcie próżni. Werner Heisenberg wykazał, że istnieją sprzężone ze sobą pary parametrów, których nie można jednocześnie zmierzyć z dowolną precyzją, nawet przy użyciu idealnych instrumentów pomiarowych. Owo ograniczenie pomiarowe znane jest pod nazwą zasady nieoznaczoności. Jedną z par wielkości związanych w ten sposób przez zasadę nieoznaczoności jest położenie i pęd. Nie możemy więc wiedzieć z dowolną dokładnością, gdzie coś jest oraz w jaki sposób się porusza, czyli jaką ma prędkość. Nieoznaczoność ta ma znaczenie wyłącznie dla bardzo małych obiektów o rozmiarze zbliżonym do długości ich fali kwantowej. Bardziej precyzyjne spojrzenie na zasadę nieoznaczoności jako na limit stosowania się klasycznych pojęć typu położenie i pęd przy opisie stanu kwantowego pokazuje, że klasyczne pojęcia typu położenie i pęd nie mogą współwystępować na arenie kwantowej.
 
Teoria kwantowa i zasada nieoznaczoności spowodowały, że nie możemy już utrzymywać prostego poglądu, że próżnia to puste pudełko. Gdybyśmy mogli powiedzieć, że w pudełku nie ma żadnych cząsteczek i że jest ono całkowicie pozbawione wszelkiej masy i energii, złamalibyśmy zasadę nieoznaczoności, ponieważ wymagałoby to od nas pełnej wiedzy na temat ruchu w każdym punkcie i energii układu w każdym momencie. W miarę badania coraz to większej liczby układów fizycznych w świetle teorii kwantowej fizycy odkryli, że ten ostatni próg wyznaczony przez zasadę nieoznaczoności przejawia się w postaci tak zwanej energii punktu zerowego: okazało się, że w układach kwantowych zawsze obecna jest pewna niedająca się usunąć porcja energii. Z układu nie da się usunąć całej energii za pomocą żadnego procesu chłodzącego zgodnego z prawami fizyki. Poziom zerowy równa się połowie hf, kwantu energii (h oznacza stałą Plancka a f oznacza częstotliwość funkcji falowej). Granica ta jest świadectwem realności zasady nieoznaczoności, ponieważ gdybyśmy znali położenie cząstki kwantowej, wtedy jej ruch, czyli również jej energia, byłyby obarczone niepewnością, której wielkość to właśnie energia punktu zerowego. To odkrycie leżące w sercu kwantowego opisu materii oznacza, że pojęcie próżni wymaga drobnej korekty. Nie może być już ono związane z pojęciami pustki, Nicości albo pustej przestrzeni. Jest to raczej najbardziej pusty z możliwych stanów, czyli stan o najniższej możliwej energii – stan, z którego nie można już odprowadzić energii. Nazywamy to stanem podstawowym albo stanem próżni. Ilustracją tego sposobu myślenia jest pofalowany teren zbudowany z dolin i wzgórz o różnych głębokościach i wysokościach; dna dolin to rozmaite minima tego układu.
 
Wydaje się, że w świecie o relatywnie niskiej energii, w którym żyjemy, działają tylko cztery różne siły Przyrody. Niemal wszystkie otaczające nas rzeczy można zrozumieć poprzez działanie tych czterech oddziaływań: grawitacji i elektromagnetyzmu, które znamy z życia codziennego, oraz dwóch sił mikroskopowych, które zostały wyraźnie zidentyfikowane dopiero w XX. wieku. Siła „słaba” odpowiedzialna jest za radioaktywność, a siła „silna” za reakcje jądrowe i spójność jąder atomowych. Siła elektromagnetyczna oddziałuje na każdą cząstkę posiadającą ładunek elektryczny. Grawitacja jest wyjątkowa, ponieważ oddziałuje na każdą cząsteczkę obdarzoną masą lub energią. Obraz taki jest zwięzły i atrakcyjny, pozwala na wyjaśnienie niemal wszystkich dotychczasowych obserwacji i prowadzi do szeregu skutecznych przewidywań. Fizycy jednak głęboko wierzą w jedność Przyrody a obraz Wszechświata opierający się na czterech fundamentalnych prawach rządzących odmiennymi grupami cząstek wydaje im się niekompletny. Gdyby można spojrzeć na nie w odpowiedni sposób, wskoczyłyby na swoje miejsca jako elementy jednego, wspólnego obrazu, części tylko jednej podstawowej siły Przyrody, z której wszystko się wywodzi.
 
Wszelkie próby unifikacji czwórki podstawowych sił wydają się być od początku skazane na klęskę. Są zbyt różne. Działają na inne klasy cząstek elementarnych i mają odmienne „siły” oddziaływania. Grawitacja jest najsłabszą z nich. Siła grawitacyjna pomiędzy dwoma protonami jest około 1038 razy słabsza od siły elektromagnetycznej. Przy energiach osiąganych w laboratoriach siła słaba jest około 108 razy słabsza od elektromagnetyzmu, a oddziaływanie silne jest od niego 101 razy silniejsze. Fakt, że te cztery oddziaływania mają tak różne siły i działają na osobne populacje cząstek elementarnych, jest głęboko zastanawiający dla każdego, kto stara się odnaleźć ukryte połączenie tych sił w jedną supersiłę opisywaną przez obejmującą całość teorię wszystkiego. Jak można je zunifikować, skoro są tak odmienne?
 
Rozważmy oddziaływanie pomiędzy dwoma elektronami wystrzelonymi w swoim kierunku. Mają one ten sam (ujemny) ładunek elektryczny, odpychają się więc, zupełnie jak dwa północne bieguny magnesu. W świecie bez mechaniki kwantowej oddziaływanie to doprowadziłoby do takiego samego odchylenia torów elektronów bez względu na temperaturę lub energię środowiska. W dziewiętnastowiecznej próżni będącej pustą przestrzenią nie byłoby nic więcej do powiedzenia. Próżnia kwantowa zmienia to wszystko. Nasze dwa elektrony nie znajdują się już w całkowicie pustej przestrzeni – zasada nieoznaczoności nie zezwala nam na mówienie o takim obiekcie. Poruszają się teraz w próżni kwantowej, która nie jest ani trochę pusta. Roi się od aktywności. Jak pamiętamy, zasada nieoznaczoności głosi, że istnieją sprzężone ze sobą pary właściwości, których nie możemy jednocześnie zmierzyć z dowolną precyzją. Energia i czas życia cząstki lub grupy cząstek jest jedną z tych „sprzężonych” par wielkości. Nieograniczoną wiedzę na temat energii cząstki uzyskuje się kosztem wszelkiej wiedzy o jej czasie życia. Zasada nieoznaczoności Heisenberga mówi, że iloczyn tych nieoznaczoności zawsze przekracza stałą Plancka podzieloną przez dwukrotność liczby π: (nieoznaczoność energii) × (nieoznaczoność czasu życia) > h/2π. Nierówności tej podlega każda cząstka i układ fizyczny. Jeśli jakiś obiekt ma być obserwowalny, fizyka wymaga, aby została ona spełniona.
 
Próżnię kwantową można postrzegać jako ocean składający się ze wszystkich cząstek elementarnych i związanych z nimi antycząstek, bezustannie pojawiających się i znikających. Przykładowo, przyjrzyjmy się bliżej oddziaływaniu elektromagnetycznemu. Wszędzie roi się od elektronów i pozytonów. Pary elektron – pozyton wyłaniają się z próżni kwantowej, a następnie błyskawicznie anihilują i znikają ze sceny. Jeśli masę elektronu i pozytonu oznaczymy przez m, a prędkość światła przez c, to słynny wzór Einsteina (E = mc2) mówi nam, że ich „stworzenie” wymaga „pożyczenia” z próżni energii równej 2mc2. Jeśli czas pomiędzy ich powstaniem a anihilacją jest tak krótki, że zasada nieoznaczoności [(nieoznaczoność energii) × (nieoznaczoność czasu życia) > h/2π] nie jest zachowana, czyli: (nieoznaczoność energii) × (nieoznaczoność czasu życia) < h/2π, to owe pary elektron – pozyton będą nieobserwowalne. Z tego względu określane są jako pary „wirtualne”. Jeśli natomiast żyją wystarczająco długo przed anihilacją, aby spełniona była nierówność (nieoznaczoność energii) × (nieoznaczoność czasu życia) > h/2π, to stają się obserwowalne i określa się je jako pary „rzeczywiste”. Powstawanie par wirtualnych wydaje się być pogwałceniem zasady zachowania energii. Przyroda pozwala jednak na łamanie tej zasady jeśli dług energetyczny zostanie spłacony odpowiednio szybko. W rezultacie można myśleć o próżni kwantowej jako o zbiorze nieustannie powstających i znikających wirtualnych par elektronów i pozytonów. Brzmi to nieco mistycznie – jeśli są nieobserwowalne, to czemu ich nie zignorować i wybrać prostsze życie? Przyjrzyjmy się jednak ponownie naszym dwóm elektronom przygotowanym na zderzenie. Ich obecność przynosi istotną zmianę w próżni kwantowej. Przeciwne ładunki elektryczne przyciągają się, tak więc po umieszczeniu elektronu w próżni pełnej wirtualnych par dodatnio naładowane pozytony zostaną ku niemu przyciągnięte. Elektron doprowadził do rozdzielenia się wirtualnych par i jest otoczony przez chmurę ładunków dodatnich. Proces ten określa się mianem „polaryzacji próżni”. Jej skutkiem jest powstanie naładowanego dodatnio „ekranu” wokół ujemnego ładunku elektronu. Zbliżający się elektron nie odczuwa całkowitego ujemnego ładunku elektrycznego elektronu spoczywającego w próżni. Odczuwa raczej słabszy efekt pochodzący od „ekranowanego” ładunku i zostaje rozproszony słabiej, niż gdyby polaryzacja próżni nie istniała. Efekt ten jest różny w zależności od energii środowiska lub nadciągającego elektronu. Jeśli nadlatuje on dość powoli, to nie przebije się zbyt głęboko przez chmurę ładunków dodatnich i zostanie odchylony słabo. Jeśli natomiast nadlatuje z większą energią, to przebije się daleko przez ekran i odczuje w większym stopniu wpływ ujemnego ładunku elektronu centralnego. Zostanie więc odchylony silniej niż mniej energetyczna cząstka. Widzimy więc, że efektywna siła odpychającego oddziaływania elektromagnetycznego pomiędzy dwoma elektronami zależy od energii, przy której oddziaływanie owo zachodzi. Przy wzrastającej energii oddziaływanie staje się silniejsze. Elektrony obłożone są niejako miękkim pokryciem dodatnio naładowanych protonów. Jeśli elektrony zderzą się bardzo delikatnie, to odskoczą w niewielkim stopniu, ponieważ nie dojdzie do zetknięcia się ich twardych powierzchni; odpychać się będą wyłącznie dodatnio naładowane pokrycia. Jeśli zderzenie nastąpi przy wysokich prędkościach, to obecność pokrycia nie będzie miała wielkiego wpływu i odbicie będzie silne. Trend jest klarowny: wraz ze wzrostem energii tła zwiększa się również efektywna wartość oddziaływania elektromagnetycznego. Wraz ze wzrostem energii nadciągająca cząstka ma lepszy „wgląd” w goły punktowy ładunek elektronu schowany pod chmurą wirtualnych pozytonów i zostaje silniej odepchnięta.
 
Te opisane wcześniej efekty występujące w próżni kwantowej pozwalają nam dostrzec sposób na przezwyciężenie trudności z unifikacją oddziaływań związanych z ich różnymi siłami. Siły oddziaływań rzeczywiście znacząco różnią się w świecie niskich energii, jak ten, w którym występuje życie, ale jeśli prześledzimy przewidywane zmiany w tych siłach wraz ze wzrostem energii, okaże się, że zaczynają się one do siebie zbliżać, aż przy pewnej energii są sobie równe. Unifikacja ma miejsce wyłącznie w wysokoenergetycznym środowisku, którego istnienie przewidujemy we wczesnej fazie ewolucji Wszechświata. Dziś jest on chłodniejszy i pozostało nam poszukiwanie śladów jego symetrycznej przeszłości, zatartych przez miliardy lat historii. Przy energiach właściwych dla naszego sprzyjającego życiu środowiska siły te wydają się bardzo od siebie różnić i jedność siły Przyrody pozostaje ukryta. Głęboka symetria łącząca oddziaływania, której spodziewamy się przy wysokich energiach, jest możliwa tylko ze względu na wkład próżni kwantowej. Ocean cząstek wirtualnych naprawdę istnieje. Jego wpływ można zaobserwować, zgodnie z przewidywaniami, poprzez zmianę siły oddziaływań fizycznych wraz ze wzrostem energii. Próżnia wcale nie jest pusta. Nie jest też bezczynna. Jej obecność można poczuć i może ona zostać zmierzona w świecie cząstek elementarnych, a bez jej potężnego wpływu na świat nie byłaby możliwa jedność Przyrody.
 
Istnienie próżni i jej uniwersalność okazują się stanowić fundament dla wszystkich sił Przyrody. Jej polaryzacja wpływa na siłę oddziaływania elektromagnetycznego, słabego i silnego, oraz wiąże ze sobą oddziaływanie grawitacyjne z kwantową naturą energii. Każdy z tych związków dostarcza kolejnego dowodu obserwacyjnego na realność próżni kwantowej i obecnych w niej fluktuacji. Było to możliwe dzięki powstaniu nowego modelu próżni, który zastąpił starożytny obraz próżni jako całkowicie pustej przestrzeni. W jej miejsce przyjmuje się obecnie bardziej skromny pogląd, że próżnia jest tym, co pozostaje, kiedy z przestrzeni usunie się wszystko, co da się usunąć. Pozostaje wtedy najniższy możliwy stan energetyczny. Co niezwykłe, oznacza to, że próżnia może się zmieniać – stopniowo lub nagle. Jeśli to nastąpi, zmianie może ulec charakter całego Wszechświata. Przyjrzyjmy się, jakie mogłyby się z tym wiązać konsekwencje.
 
W odniesieniu do próżni jako stanu o minimalnej energii można zadać pytanie: dlaczego miałby istnieć tylko jeden taki stan? „Krajobraz” energetyczny mógłby zawierać pofalowania, doliny i wzgórza – jak zwykły krajobraz. Pofalowanie takie może być o wielu minimach, z których każde cechuje się specyficzną energią: energią próżni. Scenariusz ten daje dwie nowe możliwości: jeśli może istnieć wiele próżni, to musimy zdecydować, w której z nich znajdzie się nasz Wszechświat; warto by też było wiedzieć, czy można w jakiś sposób zmieniać próżnie, przeskakując z jednego minimum do drugiego i jakie mogą być tego konsekwencje.
 
Gdy wcześniej omawialiśmy wpływ polaryzacji próżni na siły oddziaływań fizycznych, widzieliśmy, że znaczenie ma temperatura środowiska, w którym oddziaływania te występują. Możemy się więc spodziewać, że nasz krajobraz energetyczny próżni zależy od temperatury. W miarę wzrostu temperatury kształt tego krajobrazu może się bardzo znacząco zmienić. Może zmienić się głębokość, ale i liczba próżni. Niektóre mogą wręcz przestać być minimami wraz z dogłębną zmianą krajobrazu.
 
Połączenie ze sobą oddziaływań fizycznych jest możliwe dzięki zmianie ich siły wraz ze wzrostem temperatury; a to jak wiemy dzieje się dzięki istnieniu próżni. W procesie tym jako pierwsze następuje połączenie się oddziaływań elektromagnetycznych i słabych, które przy temperaturze około 1015 kelwinów stają się jednym oddziaływaniem elektrosłabym. Z obserwacji wzrostu siły tego oddziaływania oraz równoległego osłabiania się oddziaływania silnego wynika, że w temperaturze około 1027 kelwinów powinna nastąpić druga unifikacja: oddziaływania silne i elektrosłabe "zlewają" się w jedno, dla którego nie mamy jeszcze nazwy. Powyżej tej temperatury „wielkiej unifikacji” istnieje jedno symetryczne oddziaływanie, ale poniżej następuje złamanie tej symetrii i powstanie osobnych oddziaływań – silnego i elektrosłabego. Ta zmiana symetrii wraz ze spadkiem temperatury znajduje odbicie w zachowaniu się materii na bardzo wczesnym etapie ewolucji Wszechświata. Można sobie wyobrazić, że Wszechświat rozszerza się po Wielkim Wybuchu w tak wysokich początkowo temperaturach i energiach, że istnieje całkowita unifikacja sił oddziaływań silnego i elektrosłabego. Gdy temperatura spada poniżej określonej temperatury, oddziaływania te się rozdzielają, a ich drogi rozchodzą się. Gdy wszystkie oddziaływania są zunifikowane mówimy o stanie maksymalnej symetrii oddziaływań. O momentach, w których oddzielają się kolejne oddziaływania mówimy, że zachodzi w nich złamanie symetrii (oddziaływań).
 
Obserwowanie zmieniających się w młodym Wszechświecie oddziaływań skłoniło fizyków wysokich energii i kosmologów do zastanowienia się nad niezwykłymi rzeczami, które mogłyby się zdarzyć, gdyby zmiany tych oddziaływań nastąpiły w szczególny sposób. Gdyby wraz ze zmniejszeniem temperatury cząstki elementarne we Wszechświecie zaznały zmiany stanu próżni z poziomu wyższego na niższy, mogłoby to sprawić, że cały Wszechświat zachowywałby się w nowy i bardzo interesujący dla fizyków sposób. W toku rozpoznawania konsekwencji tego typu procesów dla rozwoju Wszechświata zainteresowanie naukowców skupiło się na hipotetycznej odmianie materii występującej w młodym Wszechświecie. Aby nie wchodzić w szczegóły, nazwijmy ją polem „skalarnym”.
 
Nie mamy już dzisiaj wątpliwości, że w najwcześniejszych stadiach historii Wszechświata temperatura była znacznie wyższa niż dzisiaj i można się spodziewać, że istniały wówczas nowe formy materii cechujące się rozmaitymi krajobrazami próżni. Wybierzmy jedno z takich pól energii. Pole owo może posiadać dowolną liczbę stanów próżniowych o rozmaitych poziomach. Nie musi ono odpowiadać żadnemu z pól obserwowanych dzisiaj, ponieważ mogło ono rozpaść się na fotony i inne cząstki w czasie wczesnej ewolucji Wszechświata. Ostatecznie nasza zunifikowana teoria wszystkich oddziaływań powinna wyjaśnić, czym ono jest. Pola tego typu cechują dwie formy energii – część kinetyczna związana z ruchem oraz energia potencjalna związana z położeniem. Pola energii we wczesnym Wszechświecie mogą zachowywać się jak wahadło. Gdy kinetyczna część całkowitej energii jest największa, pole zmienia się bardzo szybko, ale kiedy dominuje energia potencjalna, zmiana jest bardzo powolna. Przypuśćmy, że opisane przed chwilą sposoby zmiany kształtu potencjału mogły występować w pierwszych chwilach ekspansji Wszechświata. Pole skalarne może wystąpić w wysokich temperaturach jako pojedynczy stabilny stan próżni ale po spadku temperatury poniżej określonej wartości Tc może pojawić się nowy stan próżni o znacznie niższej energii. Co się wówczas stanie? Jeśli wokół początkowego stanu próżni występuje dość łagodny gradient, to możliwe jest, że pole odpowie na wszystkie szturchnięcia i wymiany energii z innymi cząstkami i z promieniowaniem poprzez przeskoczenie nad wzgórzem i zsunięcie się w dół ku nowemu minimum. Jeśli przemiana ta odbywa się wystarczająco wolno, to energia potencjalna pola prawie nie zostanie „rozcieńczona” przez dokonujące się wszędzie wokół rozszerzanie się Wszechświata. W tym samym czasie wszelkie promieniowanie i inne formy energii we Wszechświecie zostają w wielkim tempie rozcieńczone przez ekspansję, w związku z czym wpływ pola skalarnego szybko przewyższa wszystkie inne czynniki i staje się ono główną postacią energii i masy we Wszechświecie. Gdy to nastąpi, konsekwencje są dramatyczne. Rozszerzanie się Wszechświata przestaje stopniowo zwalniać i zaczyna przyspieszać. Zjawisko to występuje, ponieważ powoli zmieniające się pole skalarne zachowuje się, jak gdyby wywoływało odpychającą siłę grawitacyjną, podczas gdy wszystkie inne postaci materii i promieniowania są przyciągane za sprawą grawitacji. Przyspieszenie to trwa, dopóki pole powolutku stacza się w dół krajobrazu potencjału. W trakcie trwania tego procesu następuje szybki spadek temperatury promieniowania we Wszechświecie. W końcu przyspieszenie ekspansji ustaje. Kiedy pole skalarne osiąga nowy stan próżniowy, następuje seria oscylacji w jedną i drugą stronę, co powoduje stopniową utratę energii i jej zamianę w różnego typu cząstki. Ów rozpad pola powoduje uwolnienie olbrzymiej ilości energii i spadek temperatury Wszechświata wywołany jego rozszerzaniem się zostanie bardzo spowolniony. Ostatecznie wznowiona zostaje ekspansja w zwykłym, malejącym tempie.
 
Opisana wyżej sekwencja zdarzeń określana jest jako „inflacja” kosmologiczna. Inflacja to okres w historii Kosmosu, kiedy rozszerzanie się przyspiesza. Występuje wtedy, kiedy pole materii, jak opisane wyżej pole skalarne, bardzo powoli przenosi się z jednego stanu próżni do drugiego. Może również nastąpić, jeśli istnieje tylko jeden stan próżni, dla którego kształt potencjału przypomina bardzo szeroką i płytką literę – U. Gdy fizycy zaczęli badać różne sposoby pojawiania się tego zjawiska, okazało się, że bardzo trudno jest przed nim uciec. Inflacja wyjaśnia, dlaczego naturalna jest ekspansja Wszechświata bardzo zbliżona współcześnie do trajektorii krytycznej; wyjaśnia, dlaczego Wszechświat jest, licząc średnio, tak jednorodny we wszystkich miejscach i kierunkach ze względu na gęstość, temperaturę i tempo ekspansji. Inflacja pozwala Wszechświatowi na utrzymanie warunków sprzyjających życiu przez miliardy lat, które są potrzebne, aby powstały gwiazdy, a procesy biochemiczne doprowadziły do wyłonienia się replikujących cząstek i złożonych organizmów. Gdyby ekspansja nie była tak bardzo zbliżona do tempa krytycznego i zboczyła z kursu, to albo nastąpiłby „wielki kolaps” ku śmiertelnie wysokim gęstościom, na długo zanim mogłyby powstać gwiazdy, albo Wszechświat rozszerzyłby się tak szybko, że ani galaktyki, ani gwiazdy nie mogłyby „się skupić” i dostarczyć stabilnego środowiska życiu.  Tak więc złożoność próżni, która umożliwia zajście inflacji, może stać u podstaw jednorodności Przyrody i umożliwić istnienie Wszechświata przez miliardy lat i wyłonienie się w nim warunków sprzyjających powstaniu gwiazd i biochemicznych „cegiełek” życia.
 
Do niedawna większość fizyków zajmujących się problemem stałej kosmologicznej szukała brakującej intuicji mającej dowieść, że lambda musi być równa zeru. Do tego typu podejścia przekonywała ich nienaturalność powstałej sytuacji – oto istnieje siła, która „zupełnie przypadkiem” staje się zauważalna we Wszechświecie, i to w epoce, w której żyjemy właśnie my, około czternaście miliardów lat po rozpoczęciu kosmicznej ekspansji. Nastąpiła jednak zmiana nastawienia. Astronomowie odnaleźli mocny dowód na istnienie niezerowej siły lambda. Jej wartość oznacza, że zaczęła ona dominować nad tempem rozszerzania się Wszechświata w okresie, gdy wciąż powstawały galaktyki – co dla astronomów oznacza „całkiem niedawno”. Z punktu widzenia fizyka teoretyka jest to osobliwe. Lambda nie tylko istnieje, ale przyjmuje też szczególną wartość, dzięki której siła owa zaczyna mieć znaczenie kosmologiczne w epoce, gdy we Wszechświecie powstaje życie. Jedyne pocieszenie to fakt, że jeśli te obserwacje są poprawne, to wyjaśnienia wymaga bardzo szczególna wartość lambdy. Poprawne wyjaśnienie musi więc trafić w bardzo wąsko zdefiniowany cel. Można sobie wyobrazić wiele naciąganych argumentów „wyjaśniających” zerową wartość lambdy, znacznie trudniej zaś jest uzyskać określoną, zaobserwowaną wartość tej stałej.
 
Być może inflacja pomoże także w przypadku lambdy? Niestety, zdaniem Barrowa, trudno jest wyobrazić sobie, by tak się miało stać. Jak widzieliśmy, naprężenie lambda jest czymś w rodzaju energii próżni Wszechświata. Obecność lambdy można powiązać z określoną właściwością krajobrazu energii potencjalnej należącej do pola skalarnego napędzającego inflacyjne rozszerzanie się Wszechświata. W podanych wyżej przykładach poziom minimum stanowiący prawdziwy stan próżniowy został ustalony na poziomie zera. Nie ma jednak żadnego powodu, żeby była to akurat taka wartość. To tylko licentia poetica. Energia owego ostatecznego minimum może leżeć na dowolnym poziomie powyżej zera. Nasza znajomość fizyki nie pomaga nam w ustaleniu, gdzie ona leży. Jeżeli poziom ten znajduje się powyżej zera we Wszechświecie obecna będzie energia zachowująca się tak jak naprężenie lambda. Natężenie siły lambda będzie zaś związane z położeniem tego poziomu względem zera.
 
Sytuacja robi się jeszcze bardziej zdumiewająca, gdy przyjrzymy się konkretnym obliczeniom. Wpływ lambdy względem znanej Newtonowskiej siły grawitacji stopniowo rośnie wraz z kosmiczną ekspansją. Jeśli stała się ona dominującą siłą dopiero niedawno, po miliardach lat rozszerzania się Wszechświata, to musiała być początkowo niewyobrażalnie słabsza od siły Newtonowskiej. Odległość owego najniższego poziomu energii od poziomu zera, niezbędna, aby wyjaśnić wartość lambdy uzyskaną za sprawą obserwacji supernowych, jest przedziwna: 10–120 (ZS: w raporcie opublikowanym po zakończeniu misji Planck znalazłem nawet wartość 10-122!), jest to najmniejsza liczba, jaka kiedykolwiek pojawiła się w nauce. Czemu to nie jest zero? Jak możliwe jest tak precyzyjne dostrojenie poziomu minimum? Gdyby to była jedynka ze stu osiemnastoma zerami, galaktyki nie mogłyby powstać. Aby wyjaśnić tak niezwykłe wartości, należy powołać się na niebywale precyzyjne dostrojenie (fine-tuning). To jednak nie koniec problemów – próżnia wydaje się być wyposażona we własny mechanizm obronny zapobiegający znalezieniu przez nas łatwych rozwiązań tego problemu. Nawet jeśli inflacja posiada pewną, niedostrzeżoną na razie przez nas, magiczną własność, dzięki której po zakończeniu fazy inflacyjnej wartość energii próżni zostaje ustalona dokładnie na poziomie zera, stan ten nie jest trwały. W miarę rozszerzania się i chłodzenia Wszechświata przechodzi on przez kilka temperatur, przy których w krajobrazie energii potencjalnej występuje łamanie symetrii. Zawsze, gdy się to dzieje, uwolniony zostaje dodatkowy przyczynek do energii próżni, który zostaje włączony do lambdy, a który jest zawsze wielokrotnie większy, niż pozwalają na to nasze obserwacje. Zwrot „wielokrotnie większy” nie oznacza zaś, że jest on kilkukrotnie większy niż wartość wynikająca z obserwacji, co mogłyby skorygować przyszłe poprawki w obliczeniach lub zmieniające się wyniki obserwacji, dzięki czemu teoria i obserwacje mogłyby pasować do siebie jak ulał. Wspomniane tu przeszacowanie jest o czynnik rzędu dziesiątki ze stu dwudziestoma zerami! Nie da się już bardziej pomylić.
 
Wszystkie nasze pytania o to, czy lambda istnieje, a – jeśli tak – co jest odpowiedzialne za jej szczególną wartość, przypominają pytania o krajobraz energii potencjalnej skalarnego pola inflacyjnego. Dlaczego ostateczny stan próżni jest tak nieprawdopodobnie bliski poziomowi zera? Skąd on „wie”, gdzie zakończy swoją ewolucję, w momencie, gdy pole skalarne zaczyna staczać się w dół swojego krajobrazu? Nikt nie zna odpowiedzi na te pytania. Barrow twierdzi w swojej książce, że są to największe nierozwiązane problemy astronomii i fizyki grawitacji. Odpowiedź na nie może przyjąć wiele form. Może istnieć pewnego typu nowa głęboko ukryta reguła wiążąca ze sobą wszystkie oddziaływania fizyczne na sposób, który ustala poziomy próżni wszystkich pól energii, które poddają się tym oddziaływaniom. Reguła taka byłaby czymś zupełnie nowym, ponieważ musiałaby dotyczyć wszystkich możliwych składników lambdy dodawanych do niej w momencie łamania symetrii w trakcie ekspansji Wszechświata. Musiałaby więc obowiązywać fizykę w bardzo szerokim zakresie energii. Można sobie również wyobrazić mniej regularne rozwiązanie, w którym naprężenie lambda ustalone zostaje całkowicie losowo. Choć najbardziej prawdopodobne i trwałe są bardzo wysokie wartości lambdy, ich efektem są wszechświaty rozszerzające się zbyt szybko, aby pojawiły się gwiazdy, galaktyki i astronomowie. Gdybyśmy przeglądali wszystkie możliwe wszechświaty o wszelkich możliwych wartościach naprężenia lambda, mogłoby by być tak, że te podobne do naszego, o niewyobrażalnie niskich wartościach lambdy, zostają wybrane spośród wszystkich możliwości na drodze samego tylko faktu, że tylko wewnątrz nich mogli wyewoluować obserwatorzy. Rzeczywiście, gdyby lambda była ledwie sto lub tysiąc razy większa niż to wynika z obserwacji, ciąg zdarzeń prowadzący do nas mógłby się urwać. Dla jeszcze większych różnic jest to pewne. Tego typu podejście, choć może się okazać prawdziwe, nie będzie w stanie doprowadzić do precyzyjnego ustalenia wartości lambdy, ponieważ życie nie jest aż tak wrażliwe na jej wartość, aby jej, powiedzmy, podwojenie miało sprawić, że powstanie życia jest niemożliwe.
 
Obraz, w którym siły i oddziaływania fizyczne mają wiele różnych stanów próżniowych, prowadzi do możliwości wystąpienia inflacji. Istnieje wiele sposobów na zmianę z jednej nietrwale stabilnej próżni na prawdziwą próżnię, jednak nie wiemy obecnie, jaka jest tożsamość odpowiedzialnego za ten proces pola skalarnego. Dotychczas wyobrażaliśmy sobie, że patrząc na próżnię, w której się znajdujemy, mamy do czynienia z głębokim, stabilnym stanem – „prawdziwą” próżnią. Najgłębszą z głębokich. Co jednak, jeśli nie znajdujemy się na takim próżniowym dnie? Jest w pełni wyobrażalne, że stan otaczającego nas Wszechświata jest tylko przejściowo stabilny, że jest to „fałszywa” próżnia. Możemy nie znajdować się na najniższym piętrze krajobrazu próżniowego, ale gdzieś wyżej, w stanie, który jest stabilny tylko przez określony czas. Okres ten jest dość długi, ponieważ wydaje się, że prawa i ogólne właściwości Wszechświata są niezmienne od około czternastu miliardów lat. Pewnego dnia sprawy mogą się jednak bez żadnego ostrzeżenia zmienić. I stąd wziął się tytuł wpisu, który właśnie dobiega końca: czy Wszechświat może w przyszłości spaść na niższy poziom energetyczny próżni, a może nawet spaść na dno czyli poziom najniższej energii próżni i jakie mogą być tego konsekwencje?
 
Jeśli inflacja pozostawiła nas na płytkiej półce krajobrazu energii potencjalnej to pewnego dnia możemy zostać wypchnięci poza krawędź i rozpocząć wędrówkę ku niższemu minimum. Tego typu „pchnięcie” może być spowodowane przez wysokoenergetyczne zdarzenia we Wszechświecie. Jeśli w trakcie zderzenia gwiazd lub czarnych dziur wyemitowane zostaną cząstki promieniowania kosmicznego o wystarczająco wysokiej energii, mogą one być w stanie zainicjować przejście do nowej próżni w pewnym obszarze przestrzeni. Dalszy bieg zdarzeń będzie zależał od właściwości nowej próżni. Może stać się tak, że w błyskawicznie osiągniętym nowym stanie próżniowym wszystkie cząstki będą miały zerową masę i zachowywać się będą jak promieniowanie. W takim przypadku zniknęlibyśmy bez żadnego ostrzeżenia w błysku światła. Ponieważ biochemia życia uzależniona jest od dość szczególnych zbiegów okoliczności dotyczących sił i innych właściwości poszczególnych oddziaływań fizycznych, wszelka zmiana stanu próżniowego byłaby dla nas najprawdopodobniej katastrofalna w skutkach. Doprowadziłaby ona do powstania świata, w którym mogą istnieć odmienne formy życia, ale nie ma powodu, dla którego miałby je dzielić tylko niewielki krok ewolucyjny od biochemicznej postaci życia, jakie znamy.
 
Tyle Barrow, a jakieś konkretne liczby? Ostatnie wyniki badań supernowych sugerują, że gęstość energii próżni jest bliska wartości krytycznej, która oddziela wszechświaty przyspieszające i wszechświaty kurczące się: ρ(próżnia) = 0,75×ρ(krytyczna) = 6×10-30 g/cm3. Stosunek ρ(próżnia) do ρ(krytyczna) nazywa się ΩΛ. Wyraża to gęstość energii próżni w stosunku do wartości krytycznej. Zatem dane supernowej sugerują, że ΩΛ = 0,75. Jeśli użyjemy ΩM do oznaczenia stosunku gęstości zwykłej materii do gęstości krytycznej, to Wszechświat jest otwarty, jeśli ΩM + ΩΛ jest mniejszy niż jeden, zamknięty, jeśli jest większy niż jeden, i płaski, jeśli jest dokładnie jeden. Jeśli ΩΛ jest większe od zera, to Wszechświat będzie się rozszerzał w nieskończoność, chyba że gęstość materii ΩM jest znacznie większa niż sugerują obecne obserwacje. Dla ΩΛ większego od zera, nawet zamknięty Wszechświat może rozszerzać się w nieskończoność.
 
Liczbę najmniejszą już mamy: 10−120, a liczba największa? Mądrzy ludzie szacują, że w skali Plancka, czyli przy energii MPl ∼ 1018 GeV (charakterystycznej energii (masie) w chwili gdy Wszechświat wyłonił się ze stanu kwantowego do stanu klasycznego opisywanego ogólną teorią względności: ∼ 10−44 s), wkład energetyczny próżni wynosił ρΛ,Pl ∼ (1018 GeV)4 ∼ 2×10110 erg/cm3. Mamy więc liczbę rzędu 10110! Teraz wiemy też, że 10−120 to wartość wyrażona również w skali Plancka; jest to więc dzisiejsza gęstość energii próżni wyrażona w skali Plancka.