Zachodniopomorski Uniwersytet Technologiczny w Szczecinie

Kochany Synku, oto prawie cała historia odkrywania świata kwantów


(ostatnia aktualizacja 05.11.2015)


1665, Francesco Grimaldi opublikował książkę, w której opisał zjawisko uginania promieni świetlnych na krawędzi ciała lub na krawędziach bardzo wąskiej szczeliny. Nadał mu nazwę: dyfrakcja.
1666, Isaac Newton wykazał, że promień białego światła w rzeczywistości spleciony jest z różnobarwnych włókien, które po przejściu przez pryzmat rozplatają się, dając siedem barwnych pasemek: czerwone, pomarańczowe, żółte, zielone, niebieskie, indygo oraz fiolet.
1690, Christiaan Huygens przedstawił swoją falową teorię światła. Według niej światło jest falą rozchodzącą się w eterze.
1706, Isaac Newton przedstawił swoją teorię według której promienie światła składają się z cząsteczek, albo jak je nazywał "korpuskuł", czyli bardzo drobnych ciał emitowanych ze świecących substancji. Wiele obserwowanych zjawisk potrafił wyjaśnić wykorzystując tę hipotezę. Część jednak sprawiała mu trudności. Poszukiwanie odpowiedzi wymusiło na nim sformułowanie i przyjęcie teorii, według której cząsteczki światła wywołują w eterze podobne falom zaburzenia. Propagacja tych zaburzeń wyjaśniała niektóre zjawiska optyczne. Powiązał "wielkość" tych zaburzeń z barwą. Największe zaburzenia, czyli w przyjętej później terminologii te o największej długości fali, były odpowiedzialne za powstawanie barwy czerwonej. Najmniejsze zaś, czyli o najmniejszej długości fali, dawały światło fioletowe. Dzięki autorytetowi Newtona cząsteczkowa teoria światła, a tak naprawdę dziwna hybryda wersji cząsteczkowej i falowej, osiągnęła status poglądu dominującego.
1800, William Herschel umieścił czuły i dokładny termometr rtęciowy w miejscu oświetlonym widmem słonecznym i przesuwał go od fioletu ku czerwieni. Ze zdumieniem zauważył, że w miarę przesuwania go od fioletu ku czerwieni wskazania termometru rosną. Temperatura nie przestała rosnąć nawet wtedy, gdy przypadkowo zostawił termometr kilka centymetrów poza czerwonym skrajem widma. Tym samym Herschel odkrył coś, co nazwano później promieniowaniem podczerwonym, niewidzialne dla oka światło, które przenosi ciepło.
1801, Johann Wilhelm Ritter oraz William Hyde Wollaston niezależnie od siebie stwierdzili, że poza fioletową częścią widma istnieje także niewidzialne promieniowanie, które jednak nie niesie ciepła, tylko działa chemicznie powodując zaczernienie papieru nasyconego chlorkiem srebra. W ten sposób odkryli niewidzialne promienie świetlne w przeciwnym skraju widma, przeciwnym niż odkryte przez Herschela promieniowanie podczerwone, poza pasmem fioletu: promieniowanie nadfioletowe.
1801, Thomas Young zaproponował ideę interferencji światła i ogłosił wyniki wstępnych badań. Young uznał, że obserwowane zjawisko powstawania na ekranie jasnych i ciemnych prążków po przejściu światła przez wąskie szczeliny można wyjaśnić tylko wtedy, gdy przyjmie się, że światło jest zjawiskiem falowym. Cząsteczki Newtona, przechodząc przez szczeliny, wytworzyłyby na ekranie, umieszczonym za szczelinami, tylko dwa jasne prążki będące obrazami szczelin. Poza nimi byłaby tylko czerń pustego ekranu. Interferencyjny wzór, złożony na przemian z jasnych i ciemnych prążków byłby niemożliwy. Falowa interpretacja zjawiska interferencji spotkała się ze zdecydowanym sprzeciwem obrońców korpuskularnej teorii światła Newtona. Jaką zatem naturę ma światło? Korpuskularną jak sądził Newton czy falową jak twierdził Young?
1802, William Wollaston, odkrył, że widmo słoneczne, wstęga rozmytych barw ciągnąca się od dalekiej czerwieni do dalekiego fioletu, pocięte jest wieloma bardzo cienkimi czarnymi liniami. Co to za linie?
1803, John Dalton jako pierwszy wysunął tezę, że cechą jednoznacznie identyfikującą atomy wszystkich pierwiastków jest ich ciężar. Nie mają możliwości dokonywania bezpośredniego pomiaru ciężaru atomów, Dalton badał proporcje, w jakich łączyły się poszczególne pierwiastki, by utworzyć różnego rodzaju związki, i określał ich ciężar względny. Przede wszystkim potrzebował jakiejś miary tego ciężaru. W tym celu atomowi wodoru, najlżejszego pierwiastka w przyrodzie, przypisał ciężar równy jeden a ciężary atomowe wszystkich pozostałych pierwiastków wyraził w stosunku do ciężaru atomowego wodoru. (Podobnie postąpił William Herschel, który starając się odtworzyć przestrzenny rozkład gwiazd Drogi Mlecznej wyznaczał ich odległości w stosunku do odległości do Syriusza.)
1815, Joseph von Fraunhofer dążąc do stworzenia soczewki zbliżonej do optycznego ideału wpadł na pomysł wykorzystania spektrometru do pomiaru zdolności załamywania światła różnych rodzajów szkła. Skierowawszy swój przyrząd na Słońce ze zdumieniem odnotował niezwykłe rozmnożenie wspomnianych przez Wollastona ciemnych linii, których naliczył blisko sześćset. Dokonał skrupulatnych pomiarów długości fal wielu z nich. Najbardziej wyróżniające się oznaczył dużymi literami alfabetu, A, B, C i tak dalej, aż do I, gdzie A oznaczało ciemną linię w czerwieni, I zaś linię położoną na dalekim skraju fioletu. Co tu się dzieje? Fraunhofer wiedział, że metal lub sól włożone do płomienia nadają mu charakterystyczną barwę. Analiza dokonana za pomocą spektrometru ujawniła serię cienkich jasnych linii o długościach fali leżących w obszarze dominującego koloru.
1819, Augustin Jean Fresnel opublikował książkę, w której opisał odkryte niezależnie od Thomasa Younga zjawisko interferencji. Powtórzył także wiele doświadczeń wykonanych wcześniej przez Younga. Jego doświadczenia były jednak bardziej starannie zaprojektowane i obszerniejsze a ich analiza matematyczna tak nieskazitelna i drobiazgowa, że falowa teoria światła od nowa zaczęła zyskiwać w świecie nauki znaczących zwolenników. Fresnel przekonał ich, że falowa teoria światła lepiej od cząsteczkowej teorii Newtona tłumaczy cały szereg zjawisk optycznych.
1831, Michael Faraday odkrył zjawisko indukcji elektromagnetycznej czyli zjawisko przepływu prądu (powstawania siły elektromotorycznej) w przewodniku na skutek zmian pola magnetycznego (strumienia pola magnetycznego). Zmiana ta może być spowodowana zmianami pola magnetycznego lub względnym ruchem przewodnika i źródła pola magnetycznego.
1850, Augustin Jean Fresnel potwierdził istnienie zjawiska dyspersji światła czyli zmiany jego prędkości podczas przechodzenia w różnych ośrodkach. Fresnel wykazał, że w ośrodku materialnym gęstszym od powietrza, takim jak szkoło lub woda, prędkość światła jest mniejsza. Właśnie taki efekt przewidywała falowa teoria światła i to ona zyskała uznanie. Teoria korpuskularna Newtona okazała się błędna.
1859, Gustav Kirchhoff rozpoczął teoretyczne badania nad zjawiskiem polegającym na tym, że wszelkie gorące obiekty o tej samej temperaturze emitują światło tej samej barwy. Dla uproszczenia swoich analiz Kirchhoff opracował koncepcję ciała idealnie pochłaniającego i emitującego promieniowanie, zwanego ciałem doskonale czarnym.


Kirchhoff przedstawiał sobie swoje wyimaginowane ciało doskonale czarne jako zwykły pusty pojemnik z niewielkim otworem w jednej ze ścian . Ponieważ przez otwór ten wpada do pojemnika wszelkie promieniowanie, zarówno widzialne, jak i niewidzialne, stanowi on imitację (reprezentację) obiektu idealnie pochłaniającego i zachowuje się jak ciało doskonale czarne. Promieniowanie, które znajdzie się w środku pojemnika, ulega wielokrotnemu odbiciu od ścian wnęki, dopóki nie zostanie całkowicie pochłonięte. W zamyśle Kirchhoffa zewnętrzna izolacja pojemnika gwarantuje, że w przypadku jego ogrzania tylko wewnętrzna powierzchnia ścian emituje promieniowanie, które wypełnia wnękę.
Początkowo ściany pojemnika, podobnie jak żelazny pogrzebacz, zaczynają jarzyć się czerwienią o ciemnowiśniowym odcieniu, choć nadal dominującą formą promieniowania jest promieniowanie podczerwone. Następnie ich barwa ulega ciągłym zmianom, by wreszcie, kiedy temperatura osiągnie najwyższe wartości, a długość fali emitowanego promieniowania obejmie całe spektrum od podczerwieni po nadfiolet, nabrać koloru białobłękitnego. Ponieważ opuszczające pojemnik promieniowanie stanowi próbkę wszystkich długości fal, jakie występują w jego wnętrzu w danej temperaturze, otwór w ścianie jest również doskonałym emiterem.
Kirchhoff przeprowadził dowód matematyczny tego, co kowale od dawien dawna obserwowali w swoich paleniskach. Prawo Kirchhoffa mówi, że zakres i natężenie promieniowania we wnęce nie zależy ani od materiału, z jakiego wykonano realne ciało doskonale czarne, ani od jego kształtu czy też rozmiaru, ale jedynie od jego temperatury. Kirchhoff pomysłowo zredukował problem gorącego żelaznego pogrzebacza (w kuźni) do następującej kwestii: jaki dokładnie jest związek między zakresem i natężeniem barw emitowanych w danej temperaturze a ilością energii emitowanej w tej temperaturze przez ciało doskonale czarne (ciało doskonale czarne jest modelem realnego ciała). Zadanie, jakie przed sobą i swoimi kolegami postawił Kirchhoff, stało się znane jako problem ciała doskonale czarnego: zmierzyć rozkład energii w widmie promieniowania ciała doskonale czarnego, czyli ilość energii przypadającej w danej temperaturze na każdą długość fali, od podczerwieni po nadfiolet, po czym wyprowadzić wzór matematyczny zdolny odtworzyć taki rozkład dla dowolnej temperatury.
Jak zauważył Kirchhoff, brak zależności wspomnianego rozkładu od materiału, z jakiego wykonane jest ciało doskonale czarne, oznacza, że poszukiwany wzór powinien zawierać tylko dwie zmienne: temperaturę ciała doskonale czarnego oraz długość fali emitowanego promieniowania. Ponieważ światło uważano za falę, wszystkie barwy oraz ich odcienie rozróżniano na podstawie ściśle zdefiniowanej charakterystyki: długości fali. Wielkością odwrotnie proporcjonalną do długości fali jest jej częstotliwość.
Problemy techniczne stojące na przeszkodzie zbudowaniu realnie istniejącego ciała doskonale czarnego, a także niemożność skonstruowania precyzyjnych instrumentów do detekcji i pomiaru promieniowania sprawiły, że w ciągu kolejnych blisko czterdziestu lat nie poczyniono znaczących postępów. Dokonanie pomiarów widma ciała doskonale czarnego, jak również znalezienie legendarnego równania Kirchhoffa, stało się w Niemczech priorytetem w latach osiemdziesiątych XX wieku, kiedy to spółki niemieckie postawiły sobie za cel skonstruowanie wydajniejszych żarówek i lamp niż te produkowane przez ich amerykańskich i brytyjskich kolegów.
Żarówka była ostatnim z serii wynalazków, takich jak lampa łukowa, prądnica, silnik elektryczny czy telegraf, napędzających gwałtowny rozwój przemysłu elektrotechnicznego. Z każdym nowym patentem coraz silniejsza stawała się potrzeba wprowadzenia akceptowanego wszędzie na świecie zestawu jednostek i standardów elektrycznych.
Odbywająca się w 1881 roku w Paryżu pierwsza międzynarodowa konferencja na temat ustanowienia jednostek elektrycznych zgromadziła 250 delegatów z 22 krajów. Choć zdefiniowano i nazwano takie jednostki jak wolt, amper i inne, nie osiągnięto zgody co do standardów jasności, co zaczynało utrudniać rozwój najbardziej wydajnych energetycznie metod wytwarzania sztucznego światła. Będąc znakomitym źródłem emisji niezależnie od temperatury, ciało doskonale czarne wypromieniowuje maksymalną ilość ciepła, czyli promieniowania podczerwonego (odkrytego przez Williama Herschela). Widmo ciała doskonale czarnego mogłoby posłużyć za wzorzec podczas kalibrowania i produkowania żarówek, które utrzymując minimalny poziom wydzielania ciepła, jednocześnie emitowałyby możliwie najwięcej światła.
Zdecydowany zdobyć palmę pierwszeństwa w wyścigu technologicznym, rząd niemiecki uruchomił program badań, którego misją było zapewnienie Niemcom przewagi w zastosowaniach nauki przez opracowywanie standardów i testowanie nowych produktów. Na liście priorytetów znajdowało się wynalezienie rozpoznawalnej na całym świecie jednostki jasności. Siłą napędową wdrożonego w latach dziewięćdziesiątych XIX wieku programu badań nad ciałem doskonale czarnym była potrzeba stworzenia lepszej żarówki.


1860, James Clerk Maxwell sformułował wzór opisujący prędkość cząstek w gazach idealnych, w których cząstki poruszają się swobodnie wewnątrz nieruchomego pojemnika bez oddziaływania ze sobą, z wyjątkiem bardzo krótkich zderzeń, w których wymieniają energię i pęd z sobą oraz ze swoim otoczeniem termicznym. Zakłada się przy tym, że cząstki osiągnęły stan równowagi termodynamicznej. Maxwell wyprowadził wzór na podstawie przesłanek heurystycznych a następnie Boltzmann wyprowadził go na podstawie ścisłych przesłanek fizycznych. Dzisiaj wzór ten nazywa się rozkładem Maxwella-Boltzmanna.
1864, James Clerk Maxwell podczas gromadzenia równań matematycznych, opisujących wszystkie wykryte eksperymentalnie prawa. Maxwell zauważył najpierw, że nie odkryto (jeszcze) symetrycznej analogii prawa indukcji Faradaya: skoro zmiana pola magnetycznego generuje pole elektryczne, dumał, czy zmiana pola elektrycznego nie powinna generować pola magnetycznego? Ośmielając się sięgnąć poza dane eksperymentalne, Maxwell odkrył, że istotnie, taka symetria jest matematycznie pożądana – i jego równania zaczęły żyć własnym życiem. Zanikanie pola magnetycznego powoduje narastanie pola elektrycznego, co z kolei przyczynia się do powstania pola magnetycznego – wszystko, pola elektryczne i magnetyczne, zachowuje się niczym fala ciasno splecionych ze sobą własności elektrycznych i magnetycznych. Maxwell wykazał, że elektryczność i magnetyzm są przejawami tego samego zjawiska - elektromagnetyzmu. Koncepcję tę zapisał w postaci czterech matematycznych równań różniczkowych. Posługując się tymi równaniami, Maxwell był w stanie sformułować zdumiewającą prognozę - fale elektromagnetyczne poruszają się w eterze z prędkością światła. Jeśli miał rację, światło było rodzajem promieniowania elektromagnetycznego. Tylko czy fale elektromagnetyczne w ogóle istnieją? A jeżeli istnieją, to czy rzeczywiście poruszają się z prędkością światła?
1864, czerwiec, Johann Balmer podał empiryczny wzór pozwalający wyznaczyć długość fali promieniowania elektromagnetycznego (po prostu długość światła) odpowiadające liniom widmowym atomu wodoru. Zaproponowana reguła pozwalała także przewidzieć istnienie linii widmowych, które nie były jeszcze zaobserwowane. Każda z prognozowanych przez Balmera linia widmowa została w późniejszym czasie odkryta w laboratorium, ale nikt nie był w stanie wyjaśnić, skąd się bierze ogromna skuteczność reguły. Jaki fizyczny mechanizm mógłby opisywać wzór odgadnięty metodą prób i błędów? (Podobnie w 1900 roku Max Planck zgadując odkrył jak zmodyfikować wzór Wiena.)
1887, Heinrich Hertz po raz pierwszy wytworzył fale elektromagnetyczne posługując się skonstruowanym przez siebie oscylatorem elektrycznym (oscylator Hertza). Przeprowadzone doświadczenia potwierdzały, iż będąca dziełem Maxwella unifikacja, elektryczności, magnetyzmu i światła jest koronnym osiągnięciem XIX- wiecznej fizyki. Od tej pory panowała powszechna zgoda, że falowa teoria światła jest słuszna i dobrze zakorzeniona.


Cóż za niewiarygodnie spektakularną syntezę naukową tutaj mamy! Wygląda na to, że wszystkie wątki złożyły się w jeden nurt, oferujący znacznie więcej niż samo wyjaśnienie zachowania światła. Przekaż atomowi energię, a jakimś sposobem wprawisz w drgania znajdujące się w nim malutkie ładunki elektryczne. (Pozostały do wyjaśnienia tylko trzy "drobiazgi": 1. jaka jest struktura wewnętrzna atomów i jak rozłożone są w nim ładunki elektryczne? → mechanika kwantowa, 2. w jakim ośrodku rozchodzą się fale elektromagnetyczne? → teoria względności, 3. jakie jest widmo energetyczne ciał promieniujących fale elektromagnetyczne? → mechanika kwantowa.) Teoria Maxwella wykazała, że wibrujące ładunki elektryczne wypromieniowują energię elektromagnetyczną, w tym również światło widzialne. Faraday, Maxwell i pozostali z powodzeniem wyjaśnili otaczający nas Wszechświat w kategoriach fizyki klasycznej, odkrywając, że światło to rozchodzące się w przestrzeni fale elektryczności i magnetyzmu. Zdawało się, że wszystko jest w porządku. Natura była jednolita i ciągła – nie korpuskularna czy podzielona na cząstki. Elektromagnetyzm Maxwella, w połączeniu z mechaniką klasyczną Newtona, dostarczył naukowcom potężnego zestawu narzędzi intelektualnych do kolejnego wielkiego przedsięwzięcia: zrozumienia natury ładunków elektrycznych i sił składających się na chemiczny atom.


1887, Heinrich Hertz wykonując serię eksperymentów demonstrujących istnienie fal elektromagnetycznych, jako pierwszy zaobserwował efekt fotoelektryczny. Przypadkowo zauważył, że iskra przeskakująca pomiędzy dwoma metalowymi kulami jest jaśniejsza, gdy jedna z tych kul jest oświetlana przez promienie ultrafioletu. Po całych miesiącach badań nad tym zjawiskiem nie potrafił podać żadnego wyjaśnienia, ale wierzył, niesłusznie, że jest ograniczone do przypadku, gdy kula oświetlona jest ultrafioletem.
1892, dostrzeżono, że czerwona linia alfa i niebieska linia gamma Balmera w widmie atomu wodoru  wcale nie są pojedynczymi liniami, ale obie rozszczepiają się na dwie linie. To, czy linie są prawdziwymi dubletami czy też nie, pozostało niewyjaśnione.
1893, Wilhelm Wien opublikował pracę , w której przedstawił następujące prawo przesunięć: "W widmie promieniowania ciała doskonale czarnego przy zmianie temperatury każda długość fali przemieszcza się [w widmie] w taki sposób, że iloczyn temperatury i długości fali pozostaje stały". Wien zauważył, że wraz ze wzrostem temperatury maleje długość fali promieniowania, dla której emisja ciała doskonale czarnego zachodzi z najwyższym natężeniem. Biorąc pod uwagę, odwrotną proporcjonalność długości fali od jej częstotliwości, można zauważyć, że wraz ze wzrostem temperatury rośnie częstotliwość promieniowania o największym natężeniu. Wiadomo już było, że w wyniku wzrostu temperatury rośnie całkowita ilość wypromieniowywanej energii, jednak związek odkryty przez Wiena to coś bardzo precyzyjnego: iloczyn długości fali promieniowania o maksymalnym natężeniu oraz temperatury ciała doskonale czarnego jest stały. Odkrycie Wiena oznaczało, że skoro tylko uda się obliczyć wartość liczbową tej stałej, korzystając z pomiaru długości fali odpowiadającej szczytowemu punktowi rozkładu (energii) promieniowania - długości fali, dla której promieniowanie w danej temperaturze jest najsilniejsze (mówimy o natężeniu promieniowania, czyli ilości energii przypadającej na jednostkę powierzchni) - będzie można wyznaczyć długość fali promieniowania o najwyższym natężeniu dla dowolnej temperatury. Nowe prawo tłumaczyło także zmieniające się barwy rozgrzanego pogrzebacza. Poczynając od niskich temperatur, pogrzebacz emituje głównie promieniowanie długofalowe, zakresu podczerwieni. Wraz ze wzrostem temperatury zwiększa się ilość energii emitowanej we wszystkich zakresach, natomiast długość fali promieniowania o najwyższym natężeniu maleje. W konsekwencji, wraz ze wzrostem ilości promieniowania z nadfioletowego krańca widma, zmienia się barwa emitowanego światła, z czerwonej na pomarańczową, potem żółtą, a wreszcie białobłękitna.
1895, Otton Lummer i Wilhelm Wien zaprojektowali nową, udoskonaloną wersję ciała doskonale czarnego w postaci wnęki, która umożliwiałaby uzyskanie jednolitej temperatury.
1896, Wilhelm Wien "odkrył" wzór , poszukiwane równanie Kirchhoffa, opisujący rozkład promieniowania emitowanego przez ciało doskonale czarne . Swoje rozumowanie oparł na zależności Maxwella-Boltzmanna na rozkład prędkości cząsteczek gazu. O cząsteczkach gazu Wien założył, że emitują one promieniowanie o częstości zależnej od prędkości. W ten sposób uzyskał, że . Rozumowanie Wiena oparte było na wątpliwych argumentach. Wzór ten znalazł szybko potwierdzenie doświadczalne gdy Friedrich Paschen stwierdził zgodność wzoru Wiena z zebranymi przez siebie danymi doświadczalnymi, obrazującymi rozkład energii w krótkofalowej części widma ciała doskonale czarnego dla małych długości fal i niskich temperatur. Pełniejsza weryfikacja prawa Wiena wymagała zbudowania ciała doskonale czarnego umożliwiającego pomiary dla większego zakresu długości fal i w wyższych niż dotąd temperaturach.
1897, Peter Zeeman odkrył, że w polu magnetycznym pojedyncza linia widmowa atomów rozszczepia się na kilka kilka odrębnych linii lub składowych. Nazwano to zjawisko efektem Zeemana. Po wyłączeniu pola magnetycznego rozszczepienie linii widmowych znikało. Fizyczna natura tego zjawiska pozostawała nieznana.
1898, Otton Lummer, Ferdinand Kurlbaum i Ernest Pringsheim skonstruowali supernowoczesne, elektrycznie ogrzewane ciało doskonale czarne zdolne osiągnąć temperaturę 1500°C. Wykorzystując to urządzenie Lummer i Pringsheim stwierdzili, że wraz ze wzrostem długości fali natężenie promieniowania rosło, osiągało maksimum, po czym jego wartość zaczynała spadać. Rozkład energii w widmie miał kształt zbliżony do dzwonu. Im wyższa była temperatura, tym wyraźniejszy kształt przybierała krzywa, jako że rosło natężenie emitowanego promieniowania. Zbieranie odczytów i wykreślanie krzywych dla ciała doskonale czarnego rozgrzanego do różnych temperatur wykazało, że wraz ze wzrostem temperatury długość fali promieniowania o maksymalnym natężeniu przesuwała się ku nadfioletowemu skrajowi widma (części widma gdzie długość fali była najmniejsza). Potwierdzili więc zgodność eksperymentów fizycznych z przewidywaniami dokonanymi na podstawie wzoru Wiena.
1899, 3 lutego, Otton Lummer poinformował, że przeprowadzone wspólnie z Ernestem Pringsheimem pomiary potwierdziły prawo przesunięć Wiena (to oni wprowadzili ten termin). Jednak, jeżeli chodzi o prawo rozkładu (czyli formuła Wiena przedstawiająca ilość energii wypromieniowywaną w przedziałach długości fali), sytuacja pozostawała niejasna. Mimo zasadniczej zgodności danych z przewidywaniami teoretycznymi Wiena, w podczerwonym obszarze widma (dla dużych długości fal promieniowania) dawało się zauważyć pewne rozbieżności. Potrzebne były kolejne eksperymenty, obejmujące szerszy zakres długości fal i większą rozpiętość temperatur.
1899, kwiecień, Friedrich Paschen ogłosił, że jego pomiary, chociaż przeprowadzone dla niższych temperatur, niż robili to Lummer i Pringsheim, są całkowicie zgodne z rozkładem przewidywanym przez prawo Wiena.
1899, Joseph John Thomson badał promieniowanie ultrafioletowe powstające w lampie katodowej. Zainspirowany pracami Maxwella stwierdził, że promienie katodowe są strumieniem ujemnie naładowanych cząstek, które nazwał korpuskułami, a które dziś znamy jako elektrony. Mówiąc po ludzku było to odkrycie elektronów.
1899, listopad, Otton Lummer i Ernest Pringsheim poinformowali, po serii kolejnych pomiarów, że znaleźli systematyczne rozbieżności pomiędzy teorią a eksperymentem. Mimo pełnej zgodności w zakresie fal krótkich (blisko fioletowego końca widma) zauważyli, że prawo Wiena konsekwentnie zawyża natężenie promieniowania w zakresie fal długich (blisko czerwonego końca widma).
1899, grudzień, Friedrich Paschen przedstawił inny zbiór danych i stwierdził, że prawo rozkładu Wiena jest bez wątpienia poprawnym prawem przyrody.
1900, John William Strutt (Lord Rayleigh) nadał matematyczną formę prawu przesunięć Wiena pisząc wzór na gęstość energii promieniowania w przedziale długości fal (λ , λ  + dλ ) w postaci: e(λ )dλ  = λ -5Φ(λ T)dλ .
1900, 2 lutego, Otton Lummer i Ernest Pringsheim przedstawili wyniki swoich najnowszych pomiarów. Odkryli systematyczne rozbieżności między wynikami pomiarów w zakresie podczerwonym a przewidywaniami prawa Wiena, które nie mogły być skutkiem błędu doświadczenia.
1900, wrzesień, Heinrich Rubens i Ferdinand Kurlbaum przedstawili wyniki pomiarów wykonanych, z wykorzystaniem skonstruowanego przez siebie ciała doskonale czarnego, w niezbadanym dotąd obszarze głębokiej podczerwieni. Przetestowali prawo Wiena w zakresie długości fal od 0,03 mm do 0,06 mm, przy temperaturach z przedziału od 200°C do 1500°C. Wyniki dla długofalowej części widma okazały się tak wyraźnie rozbieżne z przewidywaniami teoretycznymi, że mogły oznaczać tylko jedno - załamanie prawa Wiena.
1900, 7 października, Max Planck i Heinrich Rubens spotkali się i dyskutowali o problemie ciała doskonale czarnego. Rubens potwierdził, że jego pomiary nie pozostawiają miejsca na wątpliwości: przy dużych długościach fali i wysokich temperaturach prawo Wiena zawodzi. Planck dowiedział się również, że w długofalowej części widma natężenie widma natężenie promieniowania ciała doskonale czarnego jest proporcjonalne do temperatury. Po rozmowie Planck postanowił skonstruować wzór, który pozwalałby odtworzyć widmo energii ciała doskonale czarnego. Na starcie miał w ręku trzy kluczowe, bardzo pomocne informacje: (1) prawo Wiena dobrze opisywało widmo promieniowania w zakresie krótkofalowym, (2) zawodziło w obszarze podczerwonym, gdzie zgodnie z wynikami Rubensa i Kurlbauma natężenie było proporcjonalne do temperatury, (3) prawo przesunięć Wiena było poprawne. Chcąc zbudować wzór, Planck musiał znaleźć sposób na złożenie tych trzech fragmentów układanki w jeden spójny obraz.
1900, 19 października, Max Planck poinformował, że sformułował wzór , który może być nowym sformułowaniem poszukiwanego równania Kirchhoffa dla ciała doskonale czarnego . Propozycja Plancka była wzorem ad hoc, spreparowanym jedynie po to, by wyjaśnić wyniki doświadczeń. Poszukując wzoru opisującego rozkład promieniowania ciała doskonale czarnego, który byłby zgodny z danymi eksperymentalnymi Planck odkrył, że wzór taki można otrzymać z wzoru Wiena, jeżeli odejmie się w mianowniku ułamka tego wzoru liczbę 1. Otrzymane równanie całkowicie zgadzało się z wynikami doświadczeń co potwierdził kilka dni wcześniej Heinrich Rubens. Niecały tydzień później Rubens i Kurlbaum także potwierdzili zgodność równania Plancka ze swoimi danymi. Niepokój i rezerwę fizyków wzbudzał brak fizycznego uzasadnienia zaproponowanego wzoru. Planck zaproponował odgadnięte przez siebie równanie, zostało ono potwierdzone przez eksperymenty, nie wiedziano jednak co ono oznaczało. Jakie zjawiska fizyczne leżały u jego podstaw? Bez podania ścisłego fizycznie uzasadnienia proponowany wzór mógł być co najwyżej trafnym domysłem mającym co najwyżej formalne znaczenie. Osiągnięcie pełnego zrozumienia możliwe było jedynie przez stopniowe, krok po kroku, wyprowadzenie równania ze znanych zasad fizycznych.


W XIX powstała potężna teoria ciepła i temperatury, której nadano nazwę mechaniki statystycznej. Jej twórcami byli Maxwell i J. Willard Gibbs, wykorzystujący matematyczne podstawy nakreślone przez Ludwiga Boltzmanna. Teoretyczne rozważania Maxwella, Boltzmanna i Gibbsa niosły czytelny przekaz jak wyliczyć, parametry ruchu różnych składników układu, gdy układ jest w równowadze termicznej. Max Planck, łącząc te pomysły z triumfującą teorią fal elektromagnetycznych Maxwella, doszedł do wniosku, iż jest w stanie wyliczyć pełny przebieg krzywej promieniowania ciała doskonale czarnego.
Pierwsze próby pokazały, że dla emitowanych przez ciało doskonale czarne fal o największej długości, wyliczona krzywa ma dokładnie taki sam kształt, jak w przypadku eksperymentalnie otrzymanej krzywej. Problem w tym, że jednocześnie przekonał się, iż krzywa wystrzeliwuje pionowo w górę, mówiąc wprost, dąży do nieskończoności w zakresie fal najkrótszych (w ultrafiolecie). Innymi słowy, w każdej temperaturze, krzywa promieniowania ciała doskonale czarnego stale rośnie w fioletowym zakresie widma (czyli dla najkrótszych fal). Ten teoretyczny efekt jest jawnie sprzeczny z danymi eksperymentalnymi.
Można to wyrazić jeszcze inaczej: drobiazgowe rachunki Plancka wykazywały, że „łyżeczka” promieniowania fal krótkich (zakres błękitu i fioletu) zawsze będzie znacznie bardziej intensywna (jaśniejsza) od identycznej „łyżeczki” promieniowania o niższej częstotliwości (zakres czerwieni). Zasadniczo dzieje się tak dlatego, że niebieskie światło jest „mniejsze” (jest falą o mniejszej długości) i można go więcej zmieścić w danej objętości. Na tej podstawie Planck przewidywał, że zgodnie z klasyczną teorią światła Maxwella wszystkie rozgrzane ciała, niezależnie od temperatury, powinny zawsze lśnić jasnym, błękitno białym blaskiem. Tymczasem eksperymentalnie wyznaczana krzywa promieniowania ciała doskonale czarnego jednoznacznie pokazywała, iż w niskich temperaturach czerwieni jest znacznie więcej niż błękitu. Tak naprawdę niskich temperaturach praktycznie w ogóle nie ma błękitu.
Co się dzieje? Przedstawiony scenariusz odpowiada przewidywaniom klasycznej teorii termodynamiki i elektromagnetyzmu: promieniowanie ciała doskonale czarnego powinno silnie skupiać się w rejonie najkrótszych fal, w niebieskim obszarze widma. Mniejsze długości fal, ponieważ naprawdę są mniejsze, pozwalają na gęstsze upakowanie niż ich odpowiedniki o większej długości fali.
Tymczasem obserwowany w laboratoriach rozkład promieniowania ciał doskonale czarnych zaczyna się od niewielkich wartości (w zakresie fal długich), stopniowo rośnie i osiąga maksimum dla długości fali zależnej od temperatury, następnie opada do małych wartości w zakresie fal bardzo krótkich. W przyrodzie w ogólne nie obserwuje się zagęszczenia promieniowania w przedziale fal krótkich. W rzeczywistości natężenie promieniowania w zakresie fal ultrakrótkich jest mocno zdławione. Z drugiej strony, Planck potwierdził, swymi obliczeniami, że teoria Maxwella, w połączeniu z tym, co o układach cieplnych mówili Boltzmann i Gibbs, przewiduje zagęszczenie promieniowania w zakresie błękitnej części widma. Jednak w laboratorium zagęszczenia takiego nie obserwujemy. Dlaczego?
Wykonane przez Plancka obliczenia nie pozostawiały wątpliwości: z klasycznej teorii światła wynika, że w raz ze zmniejszającą się długością fali mamy coraz więcej i więcej miejsca do upakowania promieniowania. Istotnie, teoria przewidywała nieskończoną wartość natężenia promieniowania w zakresie bardzo małych długości fal, takich jak ultrafiolet, co irytowało teoretyków i wprawiało ich w zakłopotanie. Ktoś, może jakiś dziennikarz, nazwał całą tę sytuację katastrofą w nadfiolecie. Była to prawdziwa katastrofa, ponieważ rzekome uprzywilejowanie nadfioletu nie znajdowało potwierdzenia w wynikach doświadczeń. W sumie, nie powinno to dziwić, przecież od setek tysięcy lat ogień w niższych temperaturach zawsze miał czerwoną barwę, a nie błękitną.
I tak pojawiła się jedna z pierwszych rys na do tej pory nieskazitelnie tryumfalnym obliczu fizyki klasycznej. Rzecz w tym, że pozyskane dane dramatycznie odbiegały od przewidywań klasycznej teorii. Krzywa rozkładu promieniowania ciała doskonale czarnego w zależności od temperatury wykazuje wyraźne maksimum w pewnej długości fali – gdzie wypada to maksimum, zależy od temperatury (prawo Wiena). Po osiągnięciu maksymalnej wartości, krzywa gwałtownie opada w zakresie jeszcze krótszych fal ultrafioletu.



"Stara" teoria kwantów.


1900, 14 grudnia, Max Planck przedstawił teoretyczne uzasadnienie swojego rozkładu widma promieniowania ciała doskonale czarnego . W uzasadnieniu tym wykorzystał wzór Boltzmanna wyrażający zależność między entropią a liczba dopuszczalnych stanów, w których układ (statystyczny) może się znajdować. Do tego klasycznego rozumowania wprowadził Planck zupełnie nowy element, którego żadną miarą nie dało się pogodzić z fizyką klasyczną. Stwierdził w nim, między innymi, że fundamentalnym punktem jego rozumowania jest założenie o tym, że energia składa się ze ściśle określonej liczby pakietów o równej, nieskończonej wielkości. Planck postawił więc dziwną jak na owe czasy hipotezę, że każdy oscylator liniowy może pochłaniać lub emitować promieniowanie wyłącznie porcjami energii, proporcjonalnymi do częstotliwości promieniowania elektromagnetycznego. Hipoteza była dziwna, zaskakująca i niezrozumiała ponieważ fizycy byli przekonani o ciągłości wszystkich procesów fizycznych. Było dla nich oczywistą oczywistością, że absorpcja i emisja promieniowania muszą zachodzić w sposób ciągły, to znaczy że oscylatory powinny absorbować i emitować promieniowanie o dowolnej częstotliwości. Planck traktował wprowadzenie kwantów, czy też pakietów energii, jako czysto formalne założenie, do którego w gruncie rzeczy nie przywiązywał większej wagi. Inni fizycy mieli w tym czasie podobne zdanie. Oczekiwano, że dziwny pomysł przystosowywania energii dla oscylatorów przez podział ich na kwanty był raczej dziwny, ale oczekiwano, że z czasem znajdzie on swoje rozwiązanie. Prawdziwe wrażenie wywierała dokładność nowego prawa promieniowania. Samym kwantom nikt nie poświęcał specjalnej uwagi. Rozwiązując problem ciała doskonale czarnego Planck z niechęcią przyjął, że energia jest pochłaniana i emitowana w postaci kwantów, czyli pojedynczych porcji. Wciąż jednak wierzył, a wszyscy inni podzielali tę wiarę, że promieniowanie elektromagnetyczne jest zjawiskiem falowym i samo w sobie jest ciągłe, niezależnie od mechanizmu wymiany energii w sytuacji gdy dochodzi do oddziaływania z materią.


Ogrzane ściany ciała doskonale czarnego emitują do środka wnęki promieniowanie podczerwone, widzialne i ultrafioletowe. Szukając spójnego wewnętrznie wyprowadzenia prawa, Planck musiał zaproponować model fizyczny odtwarzający rozkład energii promieniowania ciała doskonale czarnego. Potrzebował sposobu na znalezienie właściwych proporcji mieszaniny częstotliwości, a co za tym idzie, długości fal promieniowania wypełniających wnękę. Do zbudowania modelu wykorzystał znany już fakt (Kirchhoff!), że rozkład energii nie zależy od materiału, z jakiego wykonano ciało doskonale czarne, ale jedynie od jego temperatury.
Planck wiedział z teorii elektromagnetyzmu, że ładunek elektryczny, który podlega oscylacjom o określonej częstotliwości emituje i absorbuje promieniowanie jedynie o tej samej częstotliwości. Zdecydował się zatem przedstawić wewnętrzne ściany ciała doskonale czarnego jako olbrzymią tablicę oscylatorów. Choć każdy z oscylatorów emituje tylko jedną częstotliwość, to z powodu olbrzymiej ilości, wszystkie razem wypromieniowują cały zakres mierzonych wewnątrz wnęki częstotliwości. Planck wyobrażał sobie swoją kolekcję oscylatorów jako zbiór pozbawionych masy sprężynek z zawieszonymi na końcach ładunkami elektrycznymi (Planck nie utożsamiał ładunków z jakimś konkretnym obiektem fizycznym; będąc przeciwnikiem atomizmu nie utożsamiał oscylatorów z atomami, nie uważał ich także za elektrony odkryte przez J.J. Thompsona w 1896 roku). Sprężynki różniły się sprężystością, co gwarantowało różnice w częstotliwości drgań. (Planck założył oscylatory liniowe ponieważ tylko w takim przypadku częstość drgań oscylatora jest równa częstości emitowanego promieniowania.) Ogrzewanie ścianek ciała doskonale czarnego dostarczało energii koniecznej do wprowadzenia oscylatorów w ruch. To, czy dany oscylator był aktywny, czy nie, zależało jedynie od temperatury. Znajdując się w stanie aktywności, mógł emitować promieniowanie do wnęki, oraz absorbować je stamtąd. Z czasem, jeżeli temperatura pozostawała niezmieniona, ustalała się równowaga dynamiczna między energią promieniowania wchłanianą i oddawaną przez oscylatory we wnęce, czyli osiągany był stan równowagi termodynamicznej.
Ponieważ rozkład energii w widmie ciała doskonale czarnego mówi o tym, w jaki sposób całkowita energia promieniowania została rozdysponowana pomiędzy poszczególnymi częstotliwościami, Planck założył, że o przydziale energii decyduje liczba przypadających na daną częstotliwość oscylatorów. Po zbudowaniu swojego hipotetycznego modelu Planck musiał obmyślić przepis na rozdzielanie dostępnej energii pomiędzy oscylatorami. W ciągu kilku tygodni od ogłoszenia odkrytej formuły przekonał się, że nie jest w stanie wyprowadzić tego wzoru, posługując się znaną mu fizyką.
Ponieważ liczba oscylatorów wewnątrz ciała doskonale czarnego była bardzo duża, podobnie jak liczba cząsteczek gazu, Planck nie mógł opisywać każdego oscylatora z osobna. Będąc specjalistą od termodynamiki (jego rozprawa doktorska dotyczyła entropii), zastosował techniki, które były mu doskonale znane: potraktował oscylatory jako gaz oscylatorów, do którego można zastosować podejście termodynamiki statystycznej. Zakładając, że wewnątrz ciała doskonale czarnego panuje równowaga termodynamiczna Planck zastosował do opisu zbiorowości statystycznej oscylatorów rozkład Boltzmanna. Rozkład Boltzmanna to stosowane w fizyce i chemii równanie określające sposób obsadzania stanów energetycznych przez obiekty cząsteczkowe (cząstki) w stanie równowagi termicznej. Równanie Boltzmanna pozwala określić tzw. funkcję rozkładu energii dla układów zawierających tak duże liczby obiektów, że stosują się do tzw. prawa wielkich liczb i można stosować do nich metody termodynamiki statystycznej, np. do gazu doskonałego lub gazu rzeczywistego. Po przeprowadzeniu odpowiednich obliczeń Planck otrzymał jednak rezultaty niezgodne z obserwacjami. Nadal coś "nie grało".
Mówiąc w wielkim skrócie zastosowanie technik statystycznych do "gazu" oscylatorów modelujących wewnętrzne ścianki ciała doskonale czarnego odbywa się w czterech zasadniczych krokach: (1) znalezienie wzoru określającego liczbę oscylatorów w dowolnym przedziale częstotliwości, (2) przyjęcie odpowiedniego rozkładu prawdopodobieństwa, wzoru matematycznego, który określa prawdopodobieństwo znalezienia w rozważanym układzie oscylatora o określonej energii; (3) obliczenie wartości średniej energii; (4) wyznaczenie rozkładu widmowego promieniowania mnożąc wartość średnią energii przez liczbę oscylatorów w dowolnym przedziale częstotliwości. Planck zauważył, że kluczem do wyznaczenia poprawnego rozkładu widmowego promieniowania we wnęce jest matematyczna procedura obliczania wartości średniej energii oscylatorów.
Wartość średnia energii wyrażona jest ułamkiem . W liczniku ułamka znajduje się całka (w przypadku ciągłym, czyli jeszcze termodynamika!), w której funkcją podcałkową jest iloczyn energii E i prawdopodobieństwa P(E) znalezienia jakiegoś obiektu o tej właśnie energii. Mianownik, też całka, określa prawdopodobieństwo znalezienia obiektu o dowolnej energii, a więc jest równy jeden. Zastosowanie tej formuły do gazu oscylatorów nie dawało poszukiwanego przez Plancka wzoru. Należało więc przyjrzeć się licznikowi ponieważ mianownik i tak zawsze jest równy jeden. Planck zauważył, i to właśnie stanowiło jego ogromny wkład do rozwoju fizyki, że poprawny wzór można otrzymać modyfikując obliczenia średniej energii na podstawie znanego rozkładu prawdopodobieństwa (który w liczniku znajduje się pod całką). Zaproponowana przez Plancka modyfikacja polega na tym, że energię traktował jako zmienną dyskretną (energię tylko w momencie pochłaniania lub emisji, energia propagująca się poza oscylatorem była nadal ciągła), a nie tak jak zawsze w fizyce klasycznej jako zmienną ciągłą. Tego przejścia do zmiennej dyskretnej dokonuje się zastępując całki we wzorze na obliczanie wartości średniej energii oscylatorów odpowiednimi sumami . Planck postawił hipotezę, że energia E może przyjmować tylko pewne dyskretne, a nie dowolne wartości i że te dyskretne wartości są rozłożone równomiernie. Jako układ dozwolonych wartości przyjął on: E = 0, ΔE, 2ΔE, 3ΔE, ... Wielkość ΔE jest tutaj odstępem między kolejnymi dozwolonymi wartościami energii. Planck musiał dodatkowo przyjąć, że ΔE jest rosnącą funkcją ν. Z obliczeń wynikało, że już najprostsza z możliwych relacji między ΔE oraz ν spełnia wymagane warunki. Planck założył więc, że wielkości te są do siebie proporcjonalne (energia zależy liniowo od częstotliwości): ΔE = , gdzie h jest stałą proporcjonalności. Dalsze obliczenia umożliwiły Planckowi określenie wartości stałej h drogą poszukiwania takiej jej wartości, która dawałaby najlepsze dopasowanie jego teorii do wyników doświadczalnych (dzisiaj przyjmujemy, że wartość stałej Plancka wynosi h = 6,626•10-34 J•s). I oto mamy poprawny wynik ! Voilà!
Z matematycznego punktu widzenia cała sztuczka jakiej dokonał Planck polegała na sprytnym zastąpieniu ciągłej całki (przy liczeniu średniej energii) dyskretnym sumowaniem . I to wystarczyło! Rozkład Boltzmanna był dokładnie taki sam jak w termodynamice. I tak właśnie traktowano pracę Plancka: jako sprytną sztuczkę matematyczną. W niedalekiej przyszłości okazało się jednak, że słówko "dyskretnym" robiło ogromną różnicę.
Z formalnego punktu widzenia Planck więc zrobił "tylko" trzy rzeczy: (1) oscylatory we wnęce ciała doskonale czarnego potraktował jako gaz znajdujący się w równowadze termodynamicznej, do którego można zastosować rozkład Boltzmanna; Planck w żaden sposób nie ingerował w matematyczny wzór opisujący rozkład Boltzmanna; (2) ciągłe całkowanie we wzorze na obliczanie średniej energii zastąpił dyskretnym sumowaniem, (3) postawił i wykorzystał hipotezę, że szerokości przedziałów, po jakich odbywało się sumowanie są ustalone i proporcjonalne do częstotliwości oscylatorów: ΔE = nhν, n = 0, 1, 2, ...
Wprowadzenie dyskretnego sumowania po ustalonych przedziałach możemy interpretować także w następujący sposób. Boltzmann traktował cząsteczki gazu jako indywidua, które można od siebie odróżnić ponieważ każda cząsteczka gazu ma swoją indywidualną, potencjalnie możliwą do pomiaru, energię. Tylko dla celów matematycznych grupuje się je w przedziały całkowania, których szerokość dąży jednak do zera (patrz definicja całki!). W każdym przedziale całkowania znajdują się więc cząsteczki o różnych energiach. W podejściu Plancka, w którym przedziały po jakich następuje sumowania są ustalone, zatem w każdym z nich może znajdować wiele nieodróżnialnych od siebie oscylatorów o tej samej (dokładnie!) energii. Oscylatory mające tę samą energię nie są więc od siebie odróżnialne! Znaczenie tego faktu zostanie jednak w pełni dostrzeżone w przyszłości.
Wprowadzony przez Plancka i teraz tylko hipotetyczny kwant energii jest niepodzielny. Oscylator nie może otrzymać ułamka kwantu energii - musi dostać wszystko albo nic. Takie rozumowanie stało w sprzeczności z ówczesną (klasyczną, newtonowską) fizyką. Nie przewidywała ona nakładania jakichkolwiek ograniczeń na amplitudę oscylatorów, a co za tym idzie, na ilość energii (w układach mechanicznych opisywanych prawami fizyki klasycznej energia drgań oscylatora, harmonicznego, jest proporcjonalna do kwadratu amplitudy), jaką dany oscylator mógł wyemitować lub pochłonąć za jednym razem. Mogła to być dowolna energia. Planck odkrył, że niemożliwe jest, aby jego oscylatory emitowały i pochłaniały energię w sposób ciągły. Mogą otrzymywać oraz oddawać energię w sposób nieciągły, w małych niepodzielnych jednostkach E = , gdzie ν oznacza częstotliwość drgań oscylatora, identyczną z częstotliwością promieniowania, które może on absorbować i emitować. Planck nie wierzył, że energia promieniowania rzeczywiście jest podzielona na kwanty. Po prostu jego oscylatory tylko w ten sposób mogły emitować i absorbować energię.


Początkowo odkrycie Plancka nie spotkało się z ogólnym uznaniem. Można wymienić kilka źródeł sceptycyzmu, z jakim ówcześni fizycy powitali teorię Plancka. Przede wszystkim teoria ta tłumaczyła, i to za cenę drastycznych zmian w istniejącym klasycznym obrazie świata, tylko jedną krzywą doświadczalną. W dodatku zmiany, które Planck wprowadzał, dotyczyły ogólnie uznanych i sprawdzonych teorii: mechaniki statystycznej i teorii (elekromagnetyzmu) Maxwella. Pewne znaczenie miał również fakt, że stała Plancka ma wymiar działania, które nie podlega, w przeciwieństwie do energii, prawom zachowania. Stała Plancka ma również wymiar momentu pędu, który co prawda zachowuje się w przypadku układów mających symetrię obrotową, ale nie w przypadku pola promieniowania zamkniętego we wnęce.Ze względu na wyróżnioną rolę, jaką odgrywa energia w mechanice statystycznej (choćby w sformułowaniu zasady ekwipartycji energii), hipoteza Plancka wydawałaby się ówczesnym fizykom bardziej naturalna, gdyby to właśnie energia była przekazywana w stałych, tj. niezależnych od częstości porcjach. Dopiero rozszerzenie w kolejnych latach hipotezy kwantów na inne zjawiska i wytłumaczenie za jej pomocą wielu zagadkowych, z punktu widzenia fizyki klasycznej, zjawisk doprowadziło do powszechnej akceptacji teorii kwantowej.


Zatrzymajmy się na chwilę i wyjaśnijmy bliżej  w prostych słowach sens tego wydarzenia w fizyce. Pole i materia stale se sobą oddziałują. Następuje zatem wymiana energii. Bez takiej wymiany nie ma oddziaływań. Zawsze wydawało się, że proces ten charakteryzuje się ciągłością. W jakim sensie? W łatwym do zrozumienia. Wypromieniowując światło, ciało oddaje otaczającemu polu jakąś część swojej energii. Może jednak oddać zarówno nieco więcej, jak i nieco mniej. Zgodnie z zasadą ciągłości to "nieco" może być dowolnie małe. Przy pochłanianiu światła ciało może pobrać od pola także dowolne porcje energii. Krócej mówiąc, coś rzeczywiście ciągłego (rozciągłego) można podzielić w dowolny sposób. Taką ciągłą i dowolnie podzielną wielkością fizyczną wydawała się zawsze energia. Również ciągłymi i podzielnymi na dowolnie małe kroki wydawały się zawsze procesy fizyczne. To aksjomatyczne i wydawałoby się naturalne przekonanie, nie wymagające dowodów i nigdy przez nikogo nie udowodnione, nabrało mocy zasady filozofii przyrody: "Przyroda nie dokonuje skoków" (natura non facit saltus). Planck zdecydował się założyć coś niedopuszczalnego, a mianowicie że energia jest emitowana i pochłaniana tylko całymi kwantami! Nie może być wysyłany kwant światła i jeszcze trochę. Może być wysłany jeden kwant albo dwa, trzy, sto, milion, ale nie milion i jedna ósma czy jedna czwarta. Nie może być ćwiartek ani innych ułamków kwantu. Z obrazu wymiany energii między polem i materią znika ciągłość. 


1901, Ernest Rutherford i Frederic Soddy podjęli badania nad promieniowaniem toru. Bardzo szybko zauważyli, że tor ulega przemianie na inny pierwiastek. Okazało się, więc że radioaktywność to przemiana jednego pierwiastka w inny przez emisję promieniowania. Skutkiem tych obserwacji należało porzucić długo hołubione przekonanie o niezmienniczości materii: wszystkie pierwiastki promieniotwórcze ulegają spontanicznej przemianie w inny pierwiastek, okres połowicznego rozpadu jest miarą czasu, po którym przemianie ulega połowa atomów.
1902, Philip Lenard odkrył, że zjawisko fotoelektryczne zachodzi także w próżni, kiedy dwie metalowe płytki umieści się w szklanej tubie, z której następnie wypompuje się powietrze a następnie tubę oświetli się wiązką ultrafioletu. Zjawisko fotoelektryczne objaśniono jako wybicie elektronów z powierzchni metalu, na którą padło promieniowanie. Oświetlenie ultrafioletem płytki sprawiało, że niektóre elektrony zyskiwały energię wystarczającą do ucieczki z metalu co prowadziło do wzbudzenia "prądu fotoelektrycznego". Lenard odkrył przy okazji fakty, które przeczyły uznanym prawom fizycznym. (1) Spodziewano się, że zwiększenie natężenia światła, co uczyni je jaśniejszym, doprowadzi do wybicia z metalu tej samej liczby elektronów, ale nada im większą energię. Lenard tymczasem natrafił na efekt zupełnie przeciwny: emitowana była większa liczba elektronów, choć nie zmieniała się energia pojedynczej cząstki (elektronu). Energia elektronu zależała natomiast nie od natężenia światła, lecz od jego częstotliwości. (2) Lenard zauważył również, że dla każdego metalu istnieje minimum albo "częstotliwość progowa", poniżej której elektrony w ogóle nie były emitowane, niezależnie od tego, jak długo czy intensywnie naświetlany był metal. Jednakże po przekroczeniu tego progu, elektrony były emitowane nawet w przypadku użycia bardzo słabej wiązki światła.
1903, Joseph John Thomson wysunął sugestię, że atom jest pozbawioną masy kulą dodatniego ładunku elektrycznego, w której niczym rodzynki w cieście poutykane są odkryte przez niego sześć lat wcześniej ujemnie naładowane elektrony. Dodatni ładunek neutralizowałby działanie sił odpychania między elektronami, które w przeciwnym razie doprowadziłyby do rozerwania atomu. Thomson wyobrażał sobie, że elektrony w atomie danego pierwiastka rozmieszczone są w unikatowy sposób, tworząc zbiór koncentrycznych kręgów. Dowodził że to właśnie odmienna liczba i rozmieszczenie elektronów w atomach pierwiastków jest cechą, która sprawia, że pierwiastki różnią się od siebie. Ponieważ cała masa atomu Thomsona pochodziła od zawartych w niem elektronów, oznaczało to, że nawet w najlżejszym atomie musiały ich być tysiące.
Dowolny model atomowy powinien jednak spełniać jeszcze jeden warunek: atom powinien być trwały, gdyż z całą pewnością własność tę miały rzeczywiste atomy długowiecznej ziemskiej materii. Thomsonowski model nie spełniał jednak tego warunku. Rzecz w tym, że zgodnie z modelem ujemne elektrony-rodzynki spoczywały nieruchomo w dodatnim cieście. Tymczasem dawno już udowodniono twierdzenie, że dowolny układ ładunków w stanie spoczynku jest skazany na zagładę, gdyż siły elektrycznego oddziaływania - przyciągania lub odpychania - natychmiast wyprowadzają ładunki z takiego stanu.
1905, 18 marca, Albert Einstein złożył do druku artykuł zatytułowany O pewnym heurystycznym punkcie widzenia w sprawie emisji i przemiany światła (Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt (wydrukowano go 9 czerwca), w którym pojawiło się następujące założenie, które dziś nazwalibyśmy hipotezą o istnieniu fotonów: "[...] gdy promień światła rozchodzi się ze źródła punktowego, energia nie jest rozłożona w sposób ciągły w coraz większej objętości, lecz ma postać skończonej liczby kwantów energii, które są zlokalizowane w określonych punktach przestrzeni, poruszają się, nie ulegając podziałowi, i mogą być absorbowane lub emitowane tylko w całości". Tym samym Einstein postawił tezę, że światło nie jest falą, lecz składa się z podobnych do cząstek kwantów. Rewolucyjny punkt widzenia Einsteina polegał na tym, że odbierał światłu, a w istocie promieniowaniu elektromagnetycznemu, typowy dla fal charakter ciągły i przypisywał mu strukturę dyskretną, której składnikiem miały być drobne porcje, kwanty światła. W swojej pracy Einstein nie przedstawił kompletnej, wywodzącej się z podstawowych zasad, w pełni rozwiniętej teorii. Jego praca stanowiła kierunkowskaz pokazujący drogę do takiej teorii. Jego heurystyczna zasada mówiąca, że w pewnych okolicznościach światło zachowuje się tak, jakby składało się ze strumienia cząstek, kwantów światła, proponowała rozwiązanie sprzeczności, które narosły w samym sercu fizyki. Einstein ogłosił fizyczną realność kwantów, zaczął o nich mówić jako o cząstkach promieniowania. Dosłownie, jako o ciałach "zlokalizowanych w przestrzeni"!
Po uzasadnieniu słuszności hipotezy o realnym istnieniu cząstek światła Einstein zajął się odpowiedzią na pytanie: Jaką postać miałyby niektóre znane wówczas prawa rządzące powstawaniem i przekształcaniem się światła, gdyby składało się ono z takich właśnie kwantów promieniowania?  Wprowadzenie kwantów promieniowania pozwoliło Einsteinowi wyjaśnić trzy zjawiska z dziedziny promieniowania, których wytłumaczenie w ramach fizyki klasycznej nie było znane. Były to: reguła Stokesa, zjawisko fotoelektryczne oraz zjawisko jonizacji gazów światłem nadfioletowym. Ogólne własności tych zjawisk wyjaśnił Einstein przez istnienie kwantów promieniowania w bardzo prosty sposób, wykorzystując w swym rozumowaniu właściwie tylko zasadę zachowania energii w elementarnych procesach oddziaływania promieniowania z materią. We wszystkich trzech opisanych przypadkach energią, którą możemy wykorzystać w każdym akcie oddziaływania, jest energia fotonu . Ponieważ część ten energii zostaje na ogół rozproszona, zamieniając się w energię kinetyczną ruchu cieplnego, energia obserwowana na końcu w formie energii fotonów światła luminescencyjnego będzie mniejsza od energii fotonów padających (reguła Stokesa). W zjawisku fotoelektrycznym i w procesie jonizacji pewna stała część energii fotonów, zależna od rodzaju substancji, musi zostać dodatkowo zużyta na zerwanie wiązania elektronu w metalu lub w atomie. Oprócz wyprowadzenia nierówności wynikających z zasady zachowania energii Einstein przewidział, że omawiane trzy zjawiska przebiegają w zasadzie jednakowo dla różnych natężeń padającego promieniowania. Energia pojedynczych fotonów nie zależy bowiem od natężenia promieniowania. Ze zmianą natężenia zmienia się jedynie liczba wysyłanych fotonów luminescencji lub też elektronów.


Einstein założył, że gaz jest tylko zbiorem cząstek (na takie założenie nie zdecydował się Planck, który nie był zwolennikiem atomizmu), a w równowadze termodynamicznej to własności tych cząsteczek określają, na przykład, ciśnienie wywierane przez gaz w określonej temperaturze. Jeśli (tak jak założył to Planck) istniało podobieństwo między własnościami promieniowania ciała doskonale czarnego i własnościami gazu wówczas mógłby wysnuć wniosek, że promieniowanie elektromagnetyczne jest podobne do cząsteczek. Einstein rozpoczął swój wywód od wyobrażenia sobie ciała doskonale czarnego, które jest całkiem puste. Potem, w przeciwieństwie do Plancka, wypełnił je cząsteczkami gazu i elektronami. Tymczasem w ścianach ciała doskonale czarnego również znajdują się elektrony. W miarę podgrzewania ciała doskonale czarnego elektrony te drgają w szerokim zakresie częstotliwości, co skutkuje pochłanianiem i emitowaniem promieniowania. Wkrótce we wnętrzu ciała doskonale czarnego roi się od pędzących we wszystkich kierunkach cząsteczek gazu i elektronów, pełno w nim też promieniowania wyemitowanego przez drgające elektrony. Po chwili ustala się równowaga termodynamiczna, w której wnęka i wszystko, co się w niej znajduje, ma tę samą temperaturę.
Pierwsza zasada termodynamiki, mówiąca o zachowaniu energii, może być zinterpretowana w taki sposób, aby połączyć entropię układu z jego energią, temperaturą i objętością. Einstein posłużył się tą zasadą, prawem Wiena i koncepcjami Boltzmanna do przeprowadzenia analizy, jak entropia promieniowania ciała doskonale czarnego zależy od objętości układu bez ustalania jakiegokolwiek modelu emisji lub absorpcji promieniowania. Otrzymany przez niego wzór wyglądał dokładnie jak ten, który opisuje zależność entropii gazu zbudowanego przecież z atomów, od zajmowanej przezeń objętości. Promieniowanie ciała doskonale czarnego rzeczywiście zachowywało się tak, jakby składało się z porcji energii podobnych do pojedynczych cząsteczek.
Einstein odkrył kwantową naturę światła, nie wykorzystując ani metody Plancka, ani jego prawa promieniowania ciała doskonale czarnego. Napisał wzór odrobinę inny ale oznaczający to samo i kodujący tę samą informację co wzór E = . Przekaz brzmiał: energia jest skwantowana, może być wymieniana tylko w jednostkach . Podczas gdy Planck skwantował tylko emisję i pochłanianie promieniowania elektromagnetycznego, aby jego wyimaginowane oscylatory wytwarzały właściwy rozkład widmowy promieniowania ciał doskonale czarnego, a więc także światło.


1905, Albert Einstein w artykule O pewnym heurystycznym punkcie widzenia w sprawie emisji i przemiany światła (Über einen die Erzeugung und Verwandlung des Lichtes betreffenden heuristischen Gesichtspunkt) wyjaśnił i opisał matematycznie efekt fotoelektryczny zakładając, że energia wiązki światła pochłaniana jest w postaci porcji (kwantów) równych . Kwant promieniowania pochłaniany jest przy tym w całości. Zaproponowane przez Einsteina kwantowe rozwiązanie zagadki efektu fotoelektrycznego było proste i eleganckie: jeśli światło składa się z kwantów to zwiększenie natężenia wiązki światła, oznacza, że jest ona teraz złożona z większej liczby kwantów. Kiedy na metalową płytkę pada wiązka o większym natężeniu, zwiększenie liczby kwantów światła prowadzi do wyemitowania większej liczby elektronów. Ponieważ energia pojedynczego kwantu światła jest proporcjonalna do częstotliwości światła, kwant światła czerwonego (odpowiadającego niższej częstotliwości) niesie mniejszą energię niż kwant światła niebieskiego (odpowiadający wyższej częstotliwości). Zmiana barwy światła (częstotliwości) nie zmienia liczby kwantów w wiązce o tym samym natężeniu. Tak więc, niezależnie od barwy światła, liczba emitowanych elektronów pozostanie taka sama, gdyż taka sama liczba kwantów uderza w powierzchnię metalowej płytki. Skoro jednak światło odpowiadające różnym częstotliwościom składa się z kwantów o różnej energii, emitowane elektrony będą miały mniejszą lub większą energię, w zależności od użytego światła (jego częstotliwości). Maksymalna energia kinetyczna elektronów wybitych przez ultrafiolet będzie przewyższać maksymalną energię kinetyczną elektronów emitowanych za sprawą światła o barwie czerwonej. Einstein wyobraził sobie zjawisko fotoelektryczne jako skutek pozyskiwania przez elektron energii kwantu światła, która wystarcza do pokonania sił utrzymujących go na powierzchni metalu, a jej wartość była różna dla różnych metali. Jeśli częstotliwość fali świetlnej była zbyt mała, kwanty światła nie będą miały energii wystarczającej do uwolnienia elektronu z więzów utrzymujących je wewnątrz metalu. Einstein zawarł wszystkie te wnioski w prostym równaniu: maksymalna energia kinetyczna elektronu emitowanego z powierzchni metalu równa się różnicy energii pochłoniętego kwantu światła i pracy wyjścia .


U podstaw objaśnienia zjawiska fotoelektrycznego leży koncepcja mówiąca, że aby ucieczka wybijanego z powierzchni metalu elektronu mogła się udać, musi on uzbierać odpowiednią ilość energii, którą niejako opłaca ucieczkę. Jeżeli elektron nie ma dość „pieniędzy” (energii), wtedy nie może wnieść koniecznej opłaty i nie pokona bariery. Klasyczna teoria falowa światła nie była w stanie poradzić sobie z danymi eksperymentalnymi. Energia fali elektromagnetycznej zależy od jej amplitudy. Tymczasem wyniki doświadczeń nie pozostawiały cienia wątpliwości. Gdy w grę wchodzi uwolnienie elektronów z metalu, nawet potężne amplitudy fal są bezużyteczne, jeśli częstotliwość jest za niska. Nawet po przekroczeniu częstotliwości progowej, klasyczna teoria sugerowała, iż dla fali o niewielkim natężeniu – która rozpościera się na ogromnej liczbie atomów – skoncentrowanie w bardzo krótkim czasie całej energii na pojedynczym elektronie, co jest warunkiem koniecznym „wybicia go” z metalu, będzie niezwykle trudne, jeśli w ogóle możliwe. Na koniec, dlaczego energia elektronu miałaby zależeć od częstotliwości światła, które doprowadziło do jego wybicia? Przecież w teorii klasycznej nie ma śladu takiej zależności.
Pierwszy rozwiązanie podsunął Albert Einstein w 1905 roku. Einstein pamiętał rozprawę Plancka na temat promieniowania ciała doskonale czarnego i zastanawiał się: jeżeli wydaje się, że podczas emisji światło składa się z porcji lub kwantów, czy nie powinno się dostrzegać tego samego w przypadku pochłaniania światła? Czyż energia światła nie może być skoncentrowana w tych porcjach, a przez to proporcjonalna do częstotliwości? Przypomnij sobie wzór Plancka dla emisji kwantu promieniowania przez ciało doskonale czarne: E = , gdzie energia (E) jest równa częstotliwości (ν) pomnożonej przez liczbę h, która zawsze ma tę samą wartość. Załóżmy – snuł rozważania Einstein – że wzór Plancka opisuje nie tyle termodynamiczne zagadnienie emisji promieniowania, ile mówi nam, czym tak naprawdę jest światło. Jeśli nie ma innej możliwości i światło w rzeczywistości jest złożone z porcji lub kwantów, wówczas jego energia może być przekazana elektronowi, w transakcji mającej charakter propozycji nie do odrzucenia, poprzez bezpośrednie zderzenie zachodzące między elektronem a kwantem światła. Elektron połyka ten kwant energii. Jeżeli energia połkniętego kwantu światła jest większa od pewnej wartości progowej – oznaczmy ją W – wówczas elektron ma dość energii, aby wnieść opłatę za opuszczenie metalu i może uciec z jego powierzchni. Oznacza to, że kwant światła musi osiągnąć częstotliwość progową – nazwijmy ją ν – dzięki czemu iloczyn będzie miał wartość równą lub większą od W i elektron będzie mógł uciec z metalu. Elektron ma dość energii, aby wyskoczyć z metalu, dopóki częstotliwość (barwa) światła jest większa od ν – dokładnie taka zależność wyłania się z danych eksperymentalnych. Niebieskie światło wybija elektrony. Czerwone nie. To eleganckie i proste rozumowanie całkowicie wyjaśnia wyniki zebrane w trakcie badań zjawiska fotoelektrycznego.
Einstein dał nową interpretację wprowadzonej przez Plancka idei kwantowych własności światła. Kwanty światła nie są, jak sądził Planck, produktem ubocznym zachodzącego w ściankach ciała doskonale czarnego, jakiegoś niezwykle złożonego procesu emisji i pochłaniania światła. To raczej [samo] światło ma własności kwantowe. Wkrótce potem kwanty światła zaczęto nazywać fotonami. Tak, światło składa się z fotonów, które są cząstkami i w laboratorium są traktowane jak wszystkie inne cząstki. Energia każdego fotonu jest proporcjonalna do jego częstotliwości, a zależność tę opisuje wzór Plancka E = . Z punktu widzenia Einsteina, światło o dużym natężeniu, które wybija z powierzchni metalu dużą liczbę elektronów, zawiera po prostu duża liczbę fotonów. Jednak, aby doprowadzić do wybicia elektronu z metalu, każdy foton musi mieć energię , przewyższającą wartość progową oznaczoną W. Jeśli energia fotonu nie dorównuje W, wtedy z powierzchni metalu nie może wydostać się ani jeden elektron.


Od początku zdecydowana większość fizyków traktowała zaproponowaną przez Einsteina ideę kwantów światła z niedowierzaniem i uważała ją za nie do przyjęcia. Garstka z nich zastanawiała się, czy kwanty światła rzeczywiście istnieją, czy też są tylko całkowicie sztucznym tworem. sprytnym wybiegiem, mającym praktyczne znaczenie przy prowadzeniu obliczeń. W najlepszym razie niektórzy sądzili, że światło, a więc promieniowanie elektromagnetyczne, nie składa się z kwantów, lecz tylko zachowuje się w sposób to sugerujący, gdy wymienia energię z materią. Na czele tej grupy stał Max Planck.
Od czasu eksperymentów Hertza światło jako forma promieniowania elektromagnetycznego sprawdzało się tak dobrze, że dla fizyków samo rozważanie możliwości porzucenia jej na rzecz kwantów światła Einsteina było nie do pomyślenia. Wielu uważało kwanty światła za pomysł absurdalny. Skoro energię danego kwantu światła określała częstotliwość światła, to przecież częstotliwość z całą pewnością była wielkością kojarzoną z falami, a nie przemieszczającymi się w przestrzeni, podobnymi do cząstek porcjami energii. Einstein wskazywał jednak, że sukces teorii falowej opiera się na kluczowym fakcie: opis wszystkich zjawisk optycznych, w których światło traktuje się jak falę, jest w istocie analizą zachowania światła w miarę upływu czasu, kiedy nie ujawniają się żadne cząsteczkowe własności światła. Sytuacja zmienia się diametralnie, gdy rozważania dotyczą praktycznie natychmiastowej emisji i pochłaniania światła.


Przewrót, jaki spowodowała idea kwantów, wyglądał następująco. W 1900 roku Planck obwieścił kolegom, że odtąd dla teoretyków ciała promieniujące wysyłają światło określonymi porcjami! Tylko dla teoretyków, gdyż w samej rzeczy kwantów nie ma i nie można ich uzyskać, ponieważ odmierzone w momencie emisji przez nieznany mechanizm przyrody, porcje te natychmiast zlewają się w ciągły strumień świetlny. Kwant to tylko kropla spadająca do oceanu, która traci w nim niezwłocznie swoją samodzielność, swe zlokalizowanie, swą kroplową naturę. W 1905 roku Einstein powiadomił kolegów o innej możliwości: wysyłane kwanty to korpuskuły (cząstki), zachowujące w przestrzeni swą tożsamość! Światło jest wysyłane porcjami nie na chwilę i nie tylko dla teoretyków, gdyż w rzeczywistości istnieje ono w postaci strumienia kwantów. Świadczą o tym prawa zjawiska fotoelektrycznego, polegającego na wzbudzaniu przez światło prądu elektrycznego, gdy promienie świetlne padają na metal. Praw tego zjawiska, odkrytych doświadczalnie, nie można by wyjaśnić, jeśli światło wymywałoby z metalu błąkające się w nim elektrony w podobny sposób, jak fale morskie stopniowo rozmywają brzegi. Prawa te jednak łatwo wyprowadzić, jeśli poprawny jest inny obraz, że światło nie wymywa, ale wybija elektrony. Pada ono na materię jak ulewa. Niektóre krople-kwanty zderzają się ze znajdującymi się na ich drodze elektronami i oddają im swój zasób energii. Energia kwantów i prawdopodobieństwo zderzeń są w pełni wystarczające, aby spowodować obserwowalny przepływ elektronów, czyli prąd fotoelektryczny. Planckowskie porcje promieniowania, stawszy się Einsteinowskimi cząstkami światła, ujawniły cechy ziarenek materii!


1905, 30 kwietnia, Albert Einstein złożył do druku artykuł, Über die von der molekularkinetischen Theorie der Wärme geforderte Bewegung von in ruhenden Flüssigkeiten suspendierten Teilchen (wydrukowany 10 lipca), w którym wyjaśniał, że ruchy Browna cząstek pyłków kwiatowych były wynikiem nieustannego odchylania ruchu cząsteczek wywołanego nieustannymi uderzeniami cząsteczek wody. Część z nich chwilowo współdziałała i uderzała w pyłek wspólnie, posyłając go w danym kierunku. Zaproponowane przez Einsteina wyjaśnienie natury ruchów Browna stanowiło potwierdzenie realnego istnienia atomów.
1905, 30 czerwca, Albert Einstein złożył do druku artykuł Zur Elektrodynamik bewegter Körper (opublikowany 26 września), w którym wykazał, że kwanty promieniowania elektromagnetycznego przenoszą także bezwładność, E = mc2. "Jeżeli teoria ta jest zgodna z faktami, to promieniowanie przenosi bezwładność od ciał je emitujących do absorbujących."


Oto jak wyglądały sprawy po wyjaśnieniu przez Einsteina zjawiska fotoelektrycznego. Koncepcja, według której energia elektromagnetyczna rozchodzi się pod postacią fal, w sposób ciągły wypełniając przestrzeń, tłumaczy najróżniejsze zjawiska, w rodzaju odbicia, załamania, dyfrakcji i interferencji. Jednak teoria falowa zawodzi w przypadku promieniowania ciała doskonale czarnego i zjawiska fotoelektrycznego, podczas gdy w tych przypadkach model cząstkowy/kwantowy święci triumfy. W modelu tym każda cząstka (foton) przenosi kwant energii o ściśle określonej wartości, wynikającej z wzoru Plancka E = , oraz bezwładność jak wynika to ze wzoru Einsteina E = mc2m = /c2


1906, lato, Ernest Rutherford dostrzegł niespodziewane i prawie niezauważalne rozszerzenie wąziutkiej wiązki cząstek alfa, po przejściu przez cienką blaszkę miki. Klisza fotograficzna zarejestrowała odchylenie części cząstek dwa stopnie od prostopadłej blaszki. Być może inne cząstki odchylały się silniej, ale poczerwienienie kliszy, spowodowane ich padaniem, było oczywiście zbyt słabe. Dwa stopnie to niewiele. Leciały jednak masywne mikropociski z ogromnymi prędkościami! Co mogło je zbić z ich prostej drogi? Mogło to być tylko elektryczne oddziaływanie spotykanych atomów, gdy naładowane cząstki alfa przenikały przez cienką blaszkę miki. Dosyć prosty rachunek dał zaskakujący wynik: przejawiało się tu odpychające działanie pola elektrycznego o natężeniu 100 000 woltów na centymetr. Zdaniem Rutherforda taki wynik wskazywał wyraźnie, że atomy materii muszą być ośrodkami bardzo intensywnych pól elektrycznych.


1906, 9 listopada, Albert Einstein złożył do druku artykuł Die Plancksche Theorie der Strahlung und die Theorie der spezifischen Wärme (wydrukowany 28 grudnia; w bibliografii Einsteina i referencjach podaje się rok publikacji 1907: Annalen der Physik 22 (1907)), nieco rzadziej obecnie wspominany, ale nie mniej ważny dla rozwoju teorii kwantów. W tej pracy Einstein pomyślnie rozszerzył hipotezę kwantów energii na zjawiska wchodzące w zakres kinetycznej teorii budowy materii. Była to pierwsza praca, w której udowodniono, że pojęcie kwantów energii można stosować do opisu zjawisk innych niż promieniowanie elektromagnetyczne. Einstein objaśnił w niej zaobserwowane w doświadczeniach zmniejszanie się ciepła właściwego ciał stałych wraz z obniżaniem temperatury. Klasyczna fizyka statystyczna prowadzi do prawa Dulonga-Petita dla ciepła właściwego na atom: cν = 3kB. Prawo to wynika z prostego modelu, w którym do harmonicznych drgań sieci krystalicznej stosuje się zasadę ekwipartycji energii. Prawo Dulonga-Petita zgadza się dobrze z doświadczeniem dla większości ciał stałych w zakresie temperatur pokojowych i wyższych. Einstein założył, że energia drgań jonów sieci krystalicznej podlega takim samym prawom kwantowania jak energia drgań pola elektromagnetycznego i uzyskał wzór:  (porównajmy z prostym wzorem Dulonga-Petita: cν = 3kB!).


Można pokusić się o stwierdzenie, że pierwsze dziesięciolecie teorii kwantowej upłynęło pod znakiem zastosowań tej teorii do drgań harmonicznych: drgań pola elektromagnetycznego i drgań sieci krystalicznej. Następny okres można scharakteryzować jako czas zastosowań teorii kwantów do widm optycznych.


1907, odkryto, że dwa pierwiastki wytwarzane w procesie rozpadu promieniotwórczego, tor i radiator, są odmienne fizycznie, lecz identyczne pod względem chemicznym. Zawiodły wszystkie testy chemiczne, które miały je odróżnić. Następne kilka lat przyniosło kolejne odkrycia tego typu zestawów nierozróżnialnych chemicznie pierwiastków (dzisiaj wiemy, że za właściwości chemiczne odpowiada struktura powłok elektronowych a w szczególności struktura ostatniej powłoki). Soddy wysunął sugestię, że jedyną cechą odróżniającą nowe radiopierwiastki od tych które łączy z nimi pełna tożsamość chemiczna, jest ich ciężar atomowy.
1908, Jean Perrin w serii subtelnych doświadczeń potwierdził zaproponowaną przez Einsteina teorię ruchów Browna bazującą na koncepcji atomów. Powszechne uznanie analizy ruchów Browna było przełomowym argumentem przemawiającym za istnieniem atomów.
1908, Ernest Rutherford potwierdził, że cząstka alfa jest pozbawionym dwóch elektronów atomem helu. Wspólnie z Hansem Geigerem opracowali prosty eksperyment polegający na zliczaniu scyntylacji, czyli drobnych błysków światła, które powstają, kiedy cząstki alfa, po przejściu przez cienką folię ze złota, uderzają w pokryty siarczkiem cynku papierowy ekran. Podczas eksperymentów Geiger odkrył, że cząstki alfa albo przechodzą przez złota folię po linii prostej, albo ulegają odchyleniu o jakiś jeden czy dwa stopnie. Zgadzało się to z oczekiwaniami. Niespodziewanie jednak Geiger poinformował o znalezieniu niewielkiej liczby cząstek, które zmieniały kierunek o znacznie większy kąt. Przeprowadzone przez Rutherforda obliczenia prawdopodobieństwa związanego z poszczególnymi kątami rozpraszania cząstek alfa wykazały, że prawdopodobieństwo wielokrotnego rozproszenia cząstki alfa podczas przechodzenia przez złotą folię w taki sposób, by w efekcie powstał znaczący kąt odchylenia, jest bardzo małe, wręcz bliskie zera.
1909, wiosna, Ernest Marsden i Ernest Rutherford sprawdzili, czy którakolwiek z cząstek alfa może ulec rozproszeniu pod dużym kątem. Okazało się, że tak. Poddając obserwacji obszary odpowiadające coraz większym kątom, Marsden dotarł wreszcie do takich wartości, przy których w pokryty siarczkiem cynku ekran nie powinna uderzać żadna cząstka alfa, tymczasem wciąż obserwował na nim rzekomo niemożliwe błyski światła. Poszukując odpowiedzi na pytanie o przyczynę tego, że cząstki alfa zmieniają swój kierunek lub są rozpraszane Rutherford zaproponował sprawdzenie, czy jakieś cząstki odbijają się wstecz. Wbrew oczekiwaniom Marsden odkrył cząstki alfa, które uległy odbiciu od złotej folii. Gdyby hipoteza J.J. Thomsona była słuszna obserwowane odbicie cząstek Alfa nie powinno się zdarzyć. Nie pozwalała wytłumaczyć rozpraszania cząstek alfa ani wykazać dokładnej liczby elektronów w poszczególnych atomach. Wiosną 1909 roku udało się zaobserwować cząstki alfa zawracające do tyłu! Ten dzień - dokładnej daty nie zanotowano - był początkiem budowy pierwszego opartego na naukowych podstawach modelu atomu. Rutherford wierzył, że cząstki alfa są rozpraszane przez obecne w atomie silne pole elektryczne. Tymczasem w atomie Thomsona, z jego równomiernie rozprowadzonym w całej objętości ładunkiem dodatnim, nie było tak intensywnego ładunku elektrycznego. Atom Thomsona zwyczajnie nie był w stanie odesłać cząstki alfa z powrotem. Rutherford i Marsden opublikowali wyniki swoich eksperymentów bez komentarzy, jedynie opisując je i podając fakty.
1910, Frederick Soddy wysunął twierdzenie, że nierozróżnialne chemicznie radiopierwiastki, "izotopy", jak je później określał, są jedynie różnymi postaciami tego samego pierwiastka, toteż powinny dzielić z nim to samo miejsce w układzie okresowym.
1910, grudzień, Ernest Rutherford ostatecznie opracował model atomu wyjaśniający dziwne rozpraszanie cząstek alfa. Atom Rutherforda zawierał niewielki, dodatnio naładowany rdzeń, jądro, w którym skupiała się praktycznie cała jego masa. Było ono 100 000 razy mniejsze od całego atomu, zajmując jedynie drobny ułamek jego objętości. Rutherford wiedział, że przyczyną dużego odchylenia toru ruchu cząstek alfa nie mogły być obecne w atomie elektrony, wobec czego dokładne określenie ich rozmieszczenia wokół jądra nie było konieczne. Większość zderzających się z atomem cząstek alfa może przeniknąć przez niego bez żadnej zmiany kierunku, ponieważ poruszają się zbyt daleko od położonego w centrum maleńkiego jądra, by doświadczyć jego oddziaływania (jądro uderzanego atomu naładowane jest dodatnio a cząstki alfa są jądrem helu, oczywiście dodatnio naładowanym; dwa zderzające się dodatnio naładowane obiekty będą się silnie od siebie odpychać). Inne napotykając generowane przez jądro pole elektryczne, mogą pod jego wpływem nieznacznie zboczyć z kursu. Im bliżej jądra przebiega ich trasa, tym silniejsze będzie oddziaływanie jogo pola elektrycznego i tym większe odchylenie toru ruchu cząstek alfa. Jednak w przypadku czołowego zderzenia z jądrem działające między nimi siły odpychania mogą spowodować, że cząstka odskoczy prosto do tyłu niczym odbita od ściany piłeczka. Zdarzenia takie są jednak niezwykle rzadkie. Model Rutherforda pozwalał mu, za pomocą prostego wzoru, który wyprowadził, czynić wiarygodne przewidywania, jaki ułamek spośród rozproszonych cząstek alfa ulegnie odchyleniu o dany kąt. Zadania starannego przetestowania modelu przez staranne zbadanie rozkładu kątowego rozproszonych cząstek alfa podjął się Geiger, który stwierdził, że rozkład cząstek alfa pozostaje w pełnej zgodności z szacunkami teoretycznymi Rutherforda.
1911, 7 marca, Ernest Rutherford przedstawił swój model atomu. Sferyczny model Rutherforda zawierał niewiarygodnie mały dodatnio naładowany rdzeń, skupiający w sobie przeważającą część masy, wskutek czego reszta atomu pozostawała w większości pusta. Model ten zawierał jednak wiele luk, których Rutherfordowi nie udało się wypełnić. Atom z rozlokowanymi wokół dodatniego jądra stacjonarnymi elektronami byłby niestabilny, ponieważ jądro bez przeszkód przyciągałoby obdarzone ujemnym ładunkiem elektrony. Atom zapadłby się również w przypadku, gdy elektrony krążyłyby wokół jądra, podobnie jak orbitujące wokół Słońca planety. Newton już dawno temu wykazał, że wszelkie ciała poruszające się po okręgu mają przyspieszenie (przyspieszenie to zmiana prędkości w czasie; prędkość jest wektorem i podczas ruchu po okręgu zmienia się jej kierunek nawet w przypadku gdy stała pozostaje szybkość czyli długość wektora prędkości). Zgodnie z teorią elektromagnetyzmu Maxwella, jeżeli jest to cząstka naładowana elektrycznie, tak jak elektron, przyspieszenie spowoduje stały ubytek energii w postaci promieniowania elektromagnetycznego. Krążący po orbicie elektron poruszałby się po spirali, spadając na jądro w ciągu milionowych części sekundy. Oznaczałoby to kres istnienia atomu! Składająca się z atomów materia byłaby niestabilna, a świat fizyczny, jaki znamy – nie mógłby istnieć. Równania Maxwella zapowiadały katastrofę klasycznego (newtonowskiego) atomu. Albo model był błędny, albo fałszywe były szanowane prawa fizyki klasycznej. Już samo istnienie świata materialnego stanowiło dowód świadczący przeciwko jądrowemu modelowi atomu Rutherforda. Na razie Rutherford nie potrafił wyjaśnić tej trudności i postanowił ją zignorować. Dowolny model atomowy powinien jednak spełniać jeden podstawowy warunek: atom powinien być trwały, gdyż z całą pewnością własność tę miały rzeczywiste atomy długowiecznej ziemskiej materii. Model Rutherforda, podobnie jak model Thomsona, nie spełniał jednak tego warunku. W maju 1911 roku, ze stronic londyńskiego czasopisma "Philosophical Magazine" Rutherford ogłosił wszystkim kolegom, jak wygląda atom.
1912, marzec, Niels Bohr rozpoczął pod kierunkiem Ernesta Rutherforda krótki (4 miesiące) okres studiów na temat technik eksperymentalnych w badaniach radioaktywności. Bohr zdawał sobie sprawę, że o liczbie elektronów w atomie Rutherforda decyduje ładunek jądra. Ponieważ atom jest obojętny elektrycznie, czyli nie ma ładunku elektrycznego, dodatni ładunek jądra musi być równoważony, przez łączny ujemny ładunek wszystkich elektronów. Dlatego model atomu wodoru wedle Rutherforda musi zawierać jądro o ładunku elektrycznym plus jeden (proton) i pojedynczy elektron o ładunku minus jeden. Hel, przy ładunku jądra plus dwa (cząstka alfa), musi zawierać dwa elektrony. Tak postępujący wzrost ładunku jądra sprzężonego z odpowiednią liczbą elektronów prowadził aż do najcięższego ze znanych wówczas pierwiastków, uranu, o ładunku jądra równym 92 (92 protony w jądrze uranu). Dla Bohra wniosek był oczywisty: to ładunek elektryczny jądra, a nie ciężar atomowy, określał pozycję pierwiastka w układzie okresowym. Bohr zorientował się, że fundamentalną cechą, która łączy pierwiastki o jednakowych własnościach chemicznych, lecz odmiennych fizycznie, jest ładunek ich jądra. Skoro elektrony określały własności chemiczne pierwiastków, to dowolne dwa pierwiastki o takiej samej liczbie i identycznym rozmieszczeniu elektronów w atomie były nierozróżnialne chemicznie. Bohr dostrzegł zasadniczy fakt, że radioaktywność jest zjawiskiem jądrowym, nie atomowym. Pozwoliło mu to wyjaśnić jako zjawisko jądrowe proces przemiany promieniotwórczej, w wyniku której jeden pierwiastek promieniotwórczy zamienia się w inny, emitując przy tym promieniowanie alfa, beta lub gamma. Zdał sobie sprawę, że jeżeli radioaktywność ma swoje źródło w jądrze atomu, to jądro uranu o ładunku równym plus 92, podlegając transmutacji w uran X na skutek emisji cząstki alfa, traci dwie jednostki ładunku dodatniego, pozostawiając jądro o ładunku plus 90. Nowe jądro nie jest w stanie utrzymać wszystkich 92 elektronów i szybko gubi dwa z nich, żeby uformować atom obojętny elektrycznie. Każdy nowo powstały w wyniku rozpadu radioaktywnego atom niezwłocznie albo zdobywa, albo traci elektrony, żeby odzyskać dawną neutralność. Uran X przy ładunku dodatnim 90 jest izotopem toru.
1912, lipiec, Hans Geiger i Ernest Marsden skompletowali wyniki testów formuły rozpraszania a także kluczowe konkluzje teorii Rutherforda.
1912, Max von Laue udowodnił, że struktura krystaliczna może służyć jako rodzaj trójwymiarowej siatki dyfrakcyjnej. Kąty, dla których odbicie jest najsilniejsze, określa warunek Bragga dla konstruktywnej interferencji.
1913, William Henry Bragg i William Lawrence Bragg podali ostateczną postać warunku Bragga (prawa Bragga), który wiąże geometrię kryształu z długością fali padającego promieniowania i kątem, pod którym obserwowane jest interferencyjne maksimum. Prawo to dotyczy tzw. dyfrakcji Bragga. Kiedy promieniowanie rentgenowskie pada na kryształ, na każdym jego atomie, który pełni rolę szczeliny w siatce dyfrakcyjnej, dochodzi do dyfrakcji. Warunek Bragga zakłada odbicie od płaszczyzn na których układają się atomy kryształu. Przy znanych odległościach międzypłaszczyznowych i długości fali prawo Bragga określa kąt, pod jakim musi padać fala, aby nastąpiła interferencja konstruktywna (wzmocnienie). Oznacza to, że promienie rentgenowskie padające na kryształ dają maksima promieniowania ugiętego tylko pod pewnymi kątami padania.
1913, lipiec, wrzesień, listopad, Niels Bohr opublikował obszerną, złożoną z trzech części, pracę zawierającą nową, kwantową teorię budowy atomów i cząsteczek . Za punkt wyjścia przyjął nowy, planetarny model atomu, zaproponowany w 1911 roku przez Rutherforda, i powiązał ten model z koncepcjami Plancka i Einsteina. Pomimo tego, że fizyka klasyczna nie nakładała żadnych ograniczeń na orbity elektronów wewnątrz atomu Bohr ograniczył położenia elektronów wewnątrz atomu do pewnych "szczególnych" orbit, na których elektrony nie mogą w sposób ciągły emitować promieniowania, co prowadziłoby do spiralnego opadania na jadro. Wierzył, że określone prawa fizyki przestają obowiązywać w świecie atomu, i dlatego "skwantował" orbity elektronowe. Odrzucił powszechnie przyjęty pogląd, że elektron może krążyć wokół jądra w każdej dowolnej odległości. Postawił tezę, że spośród wszystkich możliwych orbit dopuszczalnych przez fizykę klasyczną elektron może zajmować tylko kilka wybranych, czyli znajdować się w tak zwanych stanach stacjonarnych. W ten sposób elektrony zajmują szczególne orbity, na których nie wypromieniowują energii; elektrony nie wypromieniowują energii, ponieważ zajmują szczególne orbity.


Elektron poruszający się po kołowej orbicie ma moment pędu, oznaczany L, którego wartość jest równa iloczynowi masy elektronu, jego prędkości i promienia orbity: L = mvr. Klasyczna fizyka nie znała żadnych ograniczeń wartości momentu pędu elektronu lub jakiegokolwiek ciała poruszającego się po okręgu. Według Bohra dopuszczalne były jedynie takie orbity elektronów, dla których moment pędu elektronu równał się iloczynowi liczby całkowitej n oraz stałej Plancka h, podzielonemu przez 2π. Podstawiając za n kolejne liczby całkowite – 1, 2, 3 i tak dalej – można było otrzymać stany stacjonarne atomu, w którym elektron nie emitował promieniowania, dzięki czemu mógł okrążać jądro w nieskończoność. Wszystkie pozostałe orbity, odpowiadające stanom niestacjonarnym, były zakazane. Moment pędu we wnętrzu atomu jest więc skwantowany. Może przybierać tylko wartości równe L = nh/2π = mvr i żadne inne. Parametr n, nazwany później główną liczbą kwantową, zawsze jest liczbą całkowitą i wyznacza serię stanów stacjonarnych, które mogą być zajmowane przez elektrony (zwróćmy uwagę, że seria stanów stacjonarnych w żaden sposób nie zależy od specyficznych własności atomu, a w szczególności jego jądra; jest wyznaczana tylko przez pewne uniwersalne stałe fizyczne i matematyczne), a także odpowiadający im zbiór poziomów energetycznych atomu, En. Dzięki kwantyzacji momentu pędu krążących wokół jądra elektronów Bohrowi udało się ustabilizować jądrowy model atomu Rutherforda oraz wytłumaczyć, dlaczego elektrony mogą zajmować tylko pewną liczbę spośród wszystkich możliwych orbit, czyli udało mu się uzasadnić istnienie orbit stacjonarnych. Bohr wykazał również, że to elektrony przeskakujące pomiędzy dozwolonymi orbitami, były źródłem linii widmowych emitowanych przez atom. Jeżeli atom wodoru znajdujący się w stanie podstawowym, czyli przy n = 1, pochłonie wystarczającą ilość energii, elektron "przeskakuje" na wyższą orbitę, choćby n = 2. Wówczas atom znajduje się w niestabilnym, wzbudzonym stanie, toteż szybko powraca do stanu podstawowego, gdy elektron przeskakuje w dół, z n = 2 na n = 1. Może to zrobić tylko przy jednoczesnym wyemitowaniu kwantu energii (pozbyciu się nadmiaru energii), którego wartość odpowiada różnicy między tymi dwoma poziomami energetycznymi. Długość fali powstającej linii widmowej można wyliczyć ze wzoru Plancka–Einsteina, E = , gdzie ν jest częstotliwością emitowanego promieniowania elektromagnetycznego. Bohr zauważył, że elektrony przeskakujące z wyższych poziomów energetycznych na niższe wytwarzają linie widmowe odpowiadające długościom promieniowania zgodnym z formułą Balmera! Wielkość emitowanego kwantu energii zależy jedynie od tego, jakie poziomy energetyczne są dla przeskakującego elektronu poziomem początkowym i końcowym. To dlatego wzór Balmera pozwalał poprawnie przewidzieć długości fal. W podobny sposób Bohr mógł wyjaśnić serie widmowe Paschena i Lymana. Seria Lymana (w ultrafiolecie) odpowiadała przeskokom elektronów z wyższych orbit na orbitę najniższą (n = 1). Seria Balmera (w świetle widzialnym) odpowiadała przeskokom elektronów z wyższych orbit na orbitę drugą od jądra (n = 2). Seria Paschena (w podczerwieni) odpowiadała przeskokom elektronów z wyższych orbit na orbitę trzecią od jądra (n = 3). Bohr zauważył. że przeskoki kwantowe elektronu mają bardzo dziwną własność. Nie sposób powiedzieć, gdzie tak naprawdę podczas przeskoku znajduje się elektron. Przejścia pomiędzy orbitami, czyli poziomami energetycznymi, musiały zachodzić natychmiast. W przeciwnym razie elektron podróżujący z jednej orbity na drugą wypromieniowywałby energię w sposób ciągły (w ciągu całego czasu podróży pomiędzy orbitami). W atomie Bohra elektron nie mógł znajdować się między orbitami. Jak za dotknięciem czarodziejskiej różdżki, znikał z jednej orbity i natychmiast pojawiał się na innej.Trudno było wyobrazić sobie w jaki sposób elektron w atomie wodoru przeskakuje pomiędzy poziomami energetycznymi. Trudność wynikała z faktu, że Bohr naruszył najważniejsze prawa mechaniki klasycznej. Poruszający się po okręgu elektron jest układem oscylatora, w którym jeden pełny obrót jest oscylacją, a liczba pełnych obrotów zachodzących w czasie jednej sekundy jest częstotliwością oscylacji. Układ oscylatora wypromieniowuje energię o częstotliwości oscylacji, skoro jednak w proces przeskoku kwantowego zaangażowane są dwa różne poziomy energetyczne, pojawiają się też dwie różne częstotliwości oscylacji. Nie można było dostrzec żadnego związku między tymi częstotliwościami, między "starą" (newtonowską, ciągłą) mechaniką a częstotliwością promieniowania emitowanego w chwili przeskoku elektronu pomiędzy poziomami energetycznymi. Dostrzeżono również jeszcze inny, poważniejszy problem. Nie było wiadomo w jaki sposób elektron decyduje, z jaką częstotliwością będzie drgał, gdy przechodzi z jednego stanu stacjonarnego do innego? Można by na przykład przyjąć założenie, iż elektron z góry wie, gdzie się zatrzyma. Elektron na poziomie energetycznym n = 3 może przeskoczyć w dół na poziom n = 2 albo na poziom n = 1. Elektron jakby "wiedział", na jaki poziom energetyczny się wybiera, gdyż aby wykonać skok, musiał wyemitować promieniowanie o stosownej częstotliwości. Podsumowując model Bohra zawierał następujące tezy: elektrony w atomach mogą zajmować tylko wybrane orbity, kojarzone ze stanem stacjonarnym; będąc na tych orbitach, nie mogą wypromieniowywać energii; atom może znajdować się się tylko w jednym z serii dyskretnych stanów energetycznych, a stan o najmniejszej energii jest "stanem podstawowym "jakimś sposobem" elektrony przeskakują ze stanu stacjonarnego o wysokiej energii do stanu stacjonarnego o niskiej energii, a różnica energii pomiędzy stanami jest wypromieniowywana jako kwant energii. Taki model atomu prawidłowo przewidywał różne własności atomu wodoru, na przykład jego promień, a także dostarczał fizycznej interpretacji powstawania linii widmowych. Bohr przyjął koncepcję, według której promieniowanie elektromagnetyczne jest emitowane i absorbowane w kwantach, lecz w 1913 roku nie zaakceptował idei, że skwantowane jest samo promieniowanie elektromagnetyczne. Mimo przychylnego przyjęcia nadal istniały zagadnienia, których nie dawało się rozwiązać za pomocą kwantowego modelu atomu. W szczególności jego przewidywania rozmijały się z obserwacjami dla atomów bardziej złożonych niż wodór. Co gorsza model, Bohra przewidywał występowanie linii widmowych, których w ogóle nie można było znaleźć. Nie potrafił także wyjaśnić zaobserwowanej w 1892 roku subtelnej struktury linii widmowych serii Balmera widma wodoru.


W czasie, w którym powstawała praca Bohra, dane doświadczalne dotyczące liniowych widm pierwiastków były stosunkowo bogate i dokładność, z jaką wyznaczano długości fal linii widmowych, była duża. Błędy doświadczalne w niektórych przypadkach były równe zaledwie jednej stutysięcznej części. Wyniki doświadczeń nakładały więc silne ograniczenia na teorię. Pewnym ułatwieniem dla fizyka pragnącego odgadnąć prawa rządzące promieniowaniem światła przez atomy mogła być znana wówczas empiryczna zasada kombinacyjna Rydberga-Ritza (przedstawiona przez Johannesa Rydberga 5 listopada 1888 r., a w 1908 roku rozszerzona przez Walthera Ritza o stwierdzenie, że liczba falowa promieniowania jest proporcjonalna do częstotliwości, a tym samym proporcjonalna do energii kwantu promieniowania świetlnego: 1/λ = ν/c = E/hc), będąca czymś w rodzaju rozszerzenia wzoru Balmera, obowiązującego dla wodoru, na widma innych pierwiastków. Według tej zasady częstości linii widmowych dają się przedstawić jako różnice tzw. termów widmowych: , gdzie n i m są liczbami naturalnymi, a K, αr, αs − stałymi  zależnymi tylko od pierwiastka i serii widmowej. Na przykład dla wodoru i dla tej serii widma, która nosi nazwę serii Balmera, wzór ten miał postać: , gdzie R jest stałą Rydberga. Wzór Balmera i zasada kombinacyjna odegrały pierwszoplanową rolę przy powstaniu teorii Bohra. Energie stanów stacjonarnych wyznaczone na podstawie postulatów Bohra dane są wzorem: . Różnice energii można zapisać w postaci zgodnej z zasadą kombinacyjną. Seria Balmera odpowiada spadaniu elektronu na drugi poziom. Spadanie na inne poziomy wyznacza serie: Lymana (na pierwszy poziom), Paschena (na trzeci), Bracketta (na czwarty) i Pfunda (na piąty) , .
Założenie Bohra o istnieniu stanów stacjonarnych i o tym, że atom wysyła promieniowanie tylko przy przejściach między dwoma takimi stanami, jest bezpośrednim odzwierciedleniem zasady kombinacyjnej. Stanowi stacjonarnemu odpowiada określony term widmowy, a przejściu promienistemu – dwa takie termy. Mogłoby się wydawać nam obecnie, że zasada kombinacyjna wręcz narzuca taką interpretację, ale właśnie to genialnie proste spostrzeżenie Bohra stanowi o istotnej różnicy między jego teorią, a teoriami wcześniejszymi, w których starano się wiązać promieniowanie i jego częstość z jednym tylko, drgającym i jednocześnie promieniującym stanem atomu.


Drabina trwałych poziomów energetycznych atomu miała od razu rzucającą się w oczy bardzo interesującą właściwość, że im dalej od jądra, tym mniejsze były odległości jej szczebli. Różnica między sąsiednimi dozwolonymi poziomami energetycznymi staje się coraz mniej uchwytna, nieciągłość w pajęczynie orbit staje się coraz mniej wyczuwalna. Przeskoki z poziomu na poziom - z orbity na orbitę - stają się coraz krótsze. W widmach, będących odbiciem tych przeskoków, ciąg wysyłanych linii staje się coraz gęstszy, widmo liniowe zaczyna przypominać ciągłe, tak jakby atom zaczął wypromieniowywać wszystkie częstości świetlne. Nieciągłość stopniowo przechodzi w ciągłość. Rządy praw kwantowych stopniowo przechodzą w panowanie praw klasycznych. Mikroświat przechodzi w mikroświat. Przyroda demonstruje pięknie swoją fizyczną jedność. Jak tego należało oczekiwać, przyroda nigdzie nie postawiła słupa granicznego z kategorycznym obwieszczeniem: "Dotąd - posiadłości Galileusza - Newtona - Keplera, odtąd - Plancka - Einsteina - Bohra". Nie ma nieprzekraczalnej granicy między światem atomowym i światem widzialnym.


1913, Henry Moseley potwierdził hipotezę Bohra, że ładunek elektryczny jądra atomu, czyli liczba atomowa, jest dla danego pierwiastka niepowtarzalną liczbą całkowitą i kluczowym parametrem w odniesieniu do umiejscowienia pierwiastka w układzie okresowym. Określając wielkość dodatniego ładunku jądra atomowego nadał koncepcji liczby atomowej sens fizyczny. Przed odkryciem Moseley'a liczba atomowa była nadawaną niemal arbitralnie liczbą porządkową odpowiadającą rosnącej masie atomów.
1913, Johannes Stark zauważył, że pojedyncza linia widmowa rozszczepia się na kilka linii po umieszczeniu atomów w polu elektrycznym. Natura fizyczna zjawiska pozostawała nieznana.
1914, luty, Robert Andrews Milikan opublikował pracę, w której przedstawił wyniki swoich badań jednoznacznie i bez wątpliwości potwierdzających zaproponowaną przez Einsteina teorię efektu fotoelektrycznego.
1914, kwiecień, James Franck i Gustav Hertz bombardowali elektronami atomy rtęci i odkryli, że elektrony tracą w tych zderzeniach dokładnie 4,9 eV energii. Nie potrafili jednak poprawnie zinterpretować swoich wyników. Prawidłową interpretację tych wyników przedstawił Bohr. Kiedy elektrony wystrzelone w kierunku atomu rtęci miały energię mniejszą niż 4,9 eV, nic się nie działo. Jeśli jednak bezpośrednie trafienie w atom rtęci zaliczał elektron, którego energia przekraczała tę wartość, elektron tracił 4,9 eV energii, natomiast atom rtęci emitował promieniowanie ultrafioletowe. Bohr zwrócił uwagę, że 4,9 eV to różnica energii między stanem podstawowym atomu rtęci a jego pierwszym stanem wzbudzonym. Taka wartość energii odpowiadała przeskokowi elektronu pomiędzy dwoma pierwszymi poziomami energetycznymi atomu rtęci. Istnienie właśnie takiej różnicy energii pomiędzy tymi poziomami przewidywał jego model atomu. Kiedy atom rtęci powraca do stanu podstawowego, czyli z chwilą przeskoku elektronu w dół na pierwszy poziom energetyczny, emituje kwant energii, który wytwarza linię o długości fali 253,7 nm w ultrafioletowej części widma atomu rtęci. Tak więc badania Francka i Hertza dostarczyły pierwszego doświadczalnego dowodu poprawności kwantowej teorii atomu oraz istnienia kwantowych poziomów energetycznych.


Rozważmy pewną bardzo prostą analogię ze świata fizyki klasycznej. Wyobraźmy sobie, że po stoku wzgórza staczają się stalowe kuleczki. U stóp wzgórza znajduje się nieznaczne wzniesienie. Kulki muszą mieć wystarczająco dużo energii, aby je pokonać i wtoczyć się do ustawionego za wzniesieniem kubełka. Teraz rozmieśćmy losowo na stoku wzgórza nieco stalowych kołków. Tocząc się w dół po stoku, nasze stalowe kulki odbijają się od kołków, ale ponieważ zderzenia kulek z kołkami są sprężyste – zderzeniom dwóch ciał ze stali nie towarzyszą straty energii – kulki nadal mają wystarczająco dużo energii, żeby pokonać próg zwalniający i wskoczyć do kubełka. Jeżeli jednak zastąpimy stalowe kołki kołkami wykonanymi z elastycznej modeliny, zderzenia będą niesprężyste (modelina absorbuje energię), a odbijające się bez celu kulki dotrą do stóp wzgórza niezdolne pokonać wzniesienia. Załóżmy teraz, że możemy regulować wysokość naszego wzgórza tak, by kulki po stoczeniu się w dół miały więcej lub mniej energii.
Franck i Hetrtz zrobili coś podobnego, tyle że zamiast stalowych kulek użyli emitowanych przez rozżarzone włókno elektronów. Elektrony, przyciągane do drucianej siatki, wędrowały przez znajdujące się pod niskim ciśnieniem pary rtęci, z atomami odgrywającymi rolę naszych metalowych kołków. Napięcie na siatce, które mogło być regulowane w zakresie od 0 do 30 woltów, działało jak stok wzgórza. Oznacza to, że siatka, przyciągając elektrony, dodawała im energii, podobnie jak pochyłe wzgórza dostarczało energii naszym kulkom. Kiedy elektrony, odbijając się o atomy rtęci, docierały do siatki, były poddawane „napięciu hamującemu” o wartości 1 wolta, odpowiednikowi naszego niewielkiego progu zwalniającego u stóp wzgórza. Elektrony, które pokonały napięcie hamujące (wspięły się na niewielkie wzniesienie), uderzały w płytkę zbierającą i były rejestrowane przez miernik prądu. Chodziło o dokonywanie pomiarów prądu w miarę stopniowego zwiększania napięcia na siatce. Pod wpływem wyższego napięcia zdecydowanie rosła gwałtowność, z jaką elektrony uderzały w napotykane na swojej drodze atomy rtęci.
Przełomowe dane zostały przedstawione w postaci wykresu, ukazującego zależność natężenia prądu, I, od wartości napięcia, U. Kluczowa idea przedstawiała się następująco: gdyby zderzenia z atomami rtęci powodowały utratę energii (zderzenia niesprężyste) i gdyby zachodziło to w pobliżu siatki, to elektrony nie byłyby w stanie pokonać hamującego ich ruch „wzniesienia” i nie dotarłyby do płytki zbierającej. Gdyby zderzenia nie powodowały utraty energii (zderzenia sprężyste), to docierające do siatki elektrony miałyby całą swoją energię (zależną od wartości napięcia U; UAB = WAB/q) i mogłyby poszybować dalej, zasilając mierzony w obwodzie prąd.
Zaczynając od niskich wartości napięcia, można się przekonać, że skoro tylko jego wartość przekroczy wartość napięcia hamującego, dochodzi do systematycznego wzrostu natężenia prądu. Taki wzrost natężenia prądu dowodzi, że wiele spośród zderzeń elektronów z atomami rtęci przebiega bez jakichkolwiek strat energii. Jednak w chwili, gdy napięcie osiągnie krytyczną wartość 4,9 V, dzieje się coś dziwnego. Obserwujemy gwałtowny spadek natężenia prądu. Najwyraźniej, kiedy elektrony osiągną energię równą 4,9 eV, zderzenia z atomami rtęci skutkują utrata energii. Pozbawione energii elektrony nie są w stanie pokonać kolejnego „wzniesienia” i nie docierają do kolektora.
Bohr z przyjemnością to wytłumaczył: atomy mogą pochłaniać energię jedynie w pakietach odpowiadających dozwolonym stanom energetycznym. Różnica energii między stanem podstawowym atomu rtęci, E1, a jego pierwszym stanem wzbudzonym, E2, wynosi 4,9 eV. Elektron o takiej energii może ją w całości przekazać atomowi rtęci, wskutek czego jego energia po zderzeniu spadnie do zera. W takiej sytuacji nie jest zdolny pokonać bariery napięcia hamującego i nie dociera do kolektora. I na odwrót, elektron o energii 4,6, 4,7 lub 4,8 eV i podobnej, jest blisko, ale niewystarczająco: nie odda swojej energii atomowi rtęci, lecz ulegnie sprężystemu odbiciu i poszybuje dalej, wbrew napięciu hamującemu, zasilając mierzony w obwodzie prąd. Jednak przy kolejnym wzroście napięcia może się okazać, że elektron uzyska swoją krytyczną energię 4,9 eV daleko od siatki i po niesprężystym zderzeniu z atomem rtęci może odzyskać jeszcze wystarczająco dużo energii, żeby pokonać napięcie hamujące i zasilić prąd (zostać „zebranym” przez płytkę zbierającą). Tak więc krzywa ponownie zacznie rosnąć. A co może się zdarzyć przy wartości energii równej 9,8 eV? Pojawi się ponowny ostry spadek natężenia prądu, gdyż elektrony przed dotarciem do siatki będą mogły wziąć udział w dwóch zderzeniach niesprężystych, wzbudzając dwa atomy rtęci do stanu E2 i tracąc całą swoją energię kinetyczną.
Czy można uznać to za potwierdzenie hipotezy Bohra? Zobaczmy: wzbudzone atomy rtęci nie pozostają długo w stanie wzbudzenia. Po bardzo krótkim czasie mogą ulec procesowi odwrotnemu, czyli z powrotem „przeskoczyć" w stan podstawowy, czemu towarzyszy emisja fotonu. Długość fali fotonu będzie zależna od różnicy energii między tymi dwoma stanami, która w przypadku pierwszego szczytu krzywej wynosi dokładnie 4,9 eV. Odpowiadająca tej energii długość fali leży w obrębie ultrafioletu, światła charakterystycznego dla łukowych lamp rtęciowych. Poszukując odpowiedniej linii widmowej, Franck i Hertz poddali gaz badaniu spektrometrem. Przy napięciu poniżej 4,9 V linia się pojawiła! Franck i Hertz na własne oczy ujrzeli powrót do stanu podstawowego atomów rtęci, wzbudzonych wcześniej kosztem energii zderzających się z nimi elektronów.
Tak więc, poziomy energetyczne w atomach naprawdę istnieją. Klasyczne przeświadczenie o wewnętrznej ciągłości natury legło w gruzach. Doświadczenie, które odesłało je na karty książek do historii, nauki nosi nazwę „doświadczenia Francka-Hertza”.


1916, Arnold Sommerfeld dopuścił w modelu kwantowym Bohra oprócz orbit kołowych także orbity eliptyczne podobnie jak ma to miejsce w przypadku ruchu planet wokół Słońca. Zdał sobie sprawę, że z matematycznego punktu widzenia okrąg jest tylko szczególnym przypadkiem elipsy, tak więc kołowe orbity elektronów były tylko podklasą zbioru wszystkich możliwych skwantowanych orbit eliptycznych. Liczba kwantowa n w modelu atomu Bohra opisywała dany stan stacjonarny, dozwoloną orbitę kołową elektronu i odpowiadający jej poziom energetyczny. Wartość n określa także promień danej orbity kołowej. Jednak do prawidłowego opisu elipsy potrzebne są dwie liczby. Dlatego też Sommerfeld wprowadził k, "orbitalną" liczbę kwantową, służącą do kwantyzacji kształtu orbity eliptycznej. Liczba kwantowa k określała, które orbity eliptyczne spośród wszystkich możliwych kształtów elips są dopuszczalne dla danej liczby kwantowej n. Na przykład, w przypadku stanu kwantowego n = 3 elektron ma do wyboru aż trzy różne orbity: eliptyczną dla n = 3 i k =1, drugą eliptyczną dla n = 3 i k = 2 oraz kołową dla n = 3 i k = 3. Podczas gdy w modelu Bohra dla n = 3 istniała tylko jedna orbita kołowa, w zmodyfikowanym kwantowym modelu Bohra-Sommerfelda dla tego stanu kwantowego dozwolone były aż trzy różne orbity. Istnienie tych dodatkowych stanów stacjonarnych pozwalało wytłumaczyć rozszczepienie linii widmowych serii Balmera. Drobna różnica w wartości energii dla dwóch stanów różniących się tylko liczbą kwantową k prowadzi do wyodrębnienia dwóch poziomów energetycznych i powstania dwóch linii widmowych tam, gdzie model Bohra przewidywał tylko jedną. Wciąż jednak na podstawie kantowego modelu atomu Bohra-Sommerfelda nie udawało się wyjaśnić dwóch innych zjawisk. Były to przede wszystkim efekt Zeemana i zjawisko Starka.
Wprowadzając poboczną liczbę kwantową k Sommerfeld, podobnie jak Bohr, wyobrażał sobie orbity, czy to kołowe, czy eliptyczne, jako krzywe leżące na płaszczyźnie. Starając się rozwiązać efekt Zeemana, Sommerfeld zdał sobie sprawę, że położenie orbity w przestrzeni jest brakującym elementem o zasadniczym znaczeniu. Kiedy atom znajduje się w polu magnetycznym, elektron ma do wyboru więcej dozwolonych orbit, ustawionych w przestrzeni w różnych kierunkach względem pola magnetycznego. Sommerfeld wprowadził (kolejną po n i k) liczbę kwantową m, nazywaną przez niego "magnetyczną", opisującą kwantyzację położenia orbit w przestrzeni. Dla danej głównej liczby kwantowej n liczba kwantowa m może przybierać tylko wartości z zakresu od -n do n. Jeżeli n = 2, to zbiór wartości jest następujący: -2, -1, 0, 1, 2. Zróżnicowanie położenia orbit elektronowych w przestrzeni, nazwane zostało "kwantyzacją przestrzenną".


Doświadczenia wskazywały, że wystarczy umieścić promieniujące atomy w polu elektrycznym lub magnetycznym, by z ich widmami zaczęło się dziać coś dziwnego. Dwie linie rozszczepiają się na dwie, trzy, cztery... W widmach pojawia się "subtelna struktura", jak określono tę przemianę. Zgodnie z modelem Bohra, nie było w tym nic dziwnego, gdyż oczywiście zarówno pole elektryczne, jak i magnetyczne, każde na swój sposób, musiały wpływać na ruch elektronów - cząstek naładowanych. Drabina poziomów energii w atomie powinna była się jakoś zmienić. Rozszczepienie linii wyraźnie wskazywało, że główne - bohrowskie - szczeble tej drabiny stają się same maleńkimi drabinkami z dwoma, trzema, a nawet większą liczbą szczebelków. Powstają możliwości nowych przeskoków kwantowych. Promieniowanie wzbogaca się o nowe kwanty. Inaczej mówiąc, pajęczyna dozwolonych orbit staje się gęstsza. Przyroda stawała się jakby łaskawsza i dawała elektronom większe możliwości ruchu wokół jądra. Arnold Sommerfeld jako pierwszy ujął ilościowo te nowe możliwości. Rozumował on tak: skoro elektrony podobne są do planet, to poruszają się nie po okręgach, jak u Bohra, ale po elipsach. Ponieważ poruszają się z ogromnymi prędkościami, to błędem jest opisywać ich ruch bez uwzględnienia efektów relatywistycznych. Stąd wzięły się dwa istotne ulepszenia: jedno klasyczne, wywodzące się od Keplera, drugie - nieklasyczne - od Einsteina. Według Keplera na eliptycznie rozciągniętej orbicie prędkość elektronu zmienia się nieustannie nie tylko co do kierunku, jak przy ruchu kołowym, ale i co do wielości. Daleko od jądra jest jedna prędkość, w pobliżu - inna. Według Einsteina zmiana wielkości prędkości powoduje zmianę masy elektronu [zmienia się długość fali de Brogie'a?]. Okazuje się, że wskutek tego elektron po obiegu wokół jądra przesuwa się nieco w bok. Zakreślając wokół jądra pętlę z pętlą, elektron porusza się po elipsie, która sama się obraca, tocząc się w płaszczyźnie orbity. Dlatego rzeczywisty tor elektronu jest piękną krzywą, zwaną rozetą. W czasie ruchu elektron zakreśla, kontur kwiatu o wielu płatkach, podobnego do rumianku.  Można dalej rozumować tak, że elektron uczestniczy w dwóch niezależnych obrotach, Pierwszy - obieg po orbicie - jest skwantowany, gdyż nie są dozwolone dowolne orbity, lecz tylko dyskretny ich zbiór. Drugi - obrót samej orbity - jest z pewnością także skwantowany i płatki rumianku nie mogą być dowolne, dozwolone zaś przez przyrodę płatki znów tworzą pewien dyskretny układ. Do ich ponumerowania potrzebny jest również ciąg liczb całkowitych: 1, 2, 3, ..., k. Ale to nie wszystko. Atom to obiekt przestrzenny. Orbity elektronowe są płaskie, ale on sam jest konstrukcją trójwymiarową. W czasie ruchu elektronu po elipsie i obracania się elipsy w płaszczyźnie orbity sama płaszczyzna orbity może się obracać w przestrzeni. W tym trzecim niezależnym obrocie elektron także mimowolnie uczestniczy. Obrót ten jest oczywiście również skwantowany i dozwolone są nie wszystkie położenia płaszczyzny orbity, lecz tylko pewien dyskretny ich ciąg. Przypomina to ustawienie szprych w kole. Trzeba je także ponumerować. Potrzebny jest trzeci ciąg liczb całkowitych: znów 1, 2, 3, ..., m. W kwantowej teorii atomu pojawiły się w ten sposób oprócz głównej liczby kwantowej Bohra dwie dodatkowe liczby kwantowe Sommerfelda, nazwane przez niego "wewnętrznymi". Pozwoliło o od razu uzyskać poprawny opis subtelnej struktury widm atomowych!


Rozwiązanie "normalnego" efektu Zeemana wymagało wprowadzenia kilku nowych reguł rządzących przeskokami elektronów z jednej orbity (poziomu energetycznego) na inną, opartych na trzech liczbach kwantowych: n, m oraz k, opisujących rozmiar orbity, jej kształt i ułożenie w przestrzeni. Po pierwszym sukcesie okazało się, że rozszczepienie czerwonej linii alfa w widmie atomu wodoru jest mniejsze od oczekiwanego. Sytuacja uległa jeszcze pogorszeniu, kiedy zaobserwowano, że niektóre linie widmowe rozszczepiają się nie tylko na dwie lub trzy linie, ale wręcz na cztery i więcej.Tę obecność dodatkowych linii widmowych nazwano "anomalnym" efektem Zeemana.


1916, Albert Einstein wykazał, że jeśli prawo Plancka, opisujące promieniowanie ciała doskonale czarnego, jest słuszne, kwanty energii muszą mieć pęd p = h/λ, co czyni je pełnoprawnymi cząstkami.
1916, Walther Kossel zauważył, że różnica liczb atomowych dla trzech pierwszych gazów szlachetnych, helu (2), neonu (10) i argonu (18), wynosi 8, co skłoniło go do wysunięcia tezy, że elektrony w tych atomach tworzą "zamknięte powłoki". Pierwsza zawierała tylko dwa elektrony, druga i trzecia po osiem.
1920, 21 lipca, Niels Bohr złożył do druku artykuł, w którym przedstawił swoją tzw. zasady korespondencji (odpowiedniości) . Mówiła ona o kierowaniu się analogią między światem klasycznym, a kwantowym w budowaniu teorii kwantowych i zachowaniu oszczędności w modyfikowaniu teorii klasycznych, ale w taki sposób, by powstałe teorie były zgodne z wynikami doświadczeń w świecie kwantów. Wedle tej zasady, wynik kwantowy powinien sprowadzać się do swego klasycznego odpowiednika w obszarze, w którym stałą Plancka możemy uważać za zaniedbywalnie małą, a także przy przejściu do wysokich liczb kwantowych, czy zastępując grupę danych przy kwantowym pomiarze wielkości ich wartością średnią (zasada Ehrenfesta).
1922, czerwiec, Niels Bohr wygłasza w Getyndze serię wykładów podczas, których przedstawiał swój model atomu. Podczas tych wykładów Bohr, opierając się na własnej teorii rozmieszczenia elektronów w atomach, przewidział własności, jakimi powinien charakteryzować się brakujący wówczas w układzie okresowym pierwiastek o liczbie atomowej 72.
Bohr przedstawił hipotezę, że każdy pierwiastek układu okresowego jest budowany przez dodanie elektronu do zewnętrznej powłoki elektronowej pierwiastka poprzedzającego go w danym rzędzie. Każdy rząd kończył się gazem szlachetnym, którego zewnętrzna powłoka elektronowa była całkowicie zapełniona. Ponieważ tylko elektrony znajdujące się poza zamkniętymi powłokami, nazywane elektronami walencyjnymi, biorą udział w reakcjach chemicznych, atomy charakteryzujące się identyczną liczba elektronów walencyjnych mają podobne własności chemiczne i znajdują się w tej samej kolumnie układu okresowego. Wszystkie halogeny mają na zewnętrznej powłoce elektronowej po siedem elektronów i potrzebują tylko jednego, aby zamknąć powłokę i osiągnąć konfigurację gazu szlachetnego. Z kolei metale alkaliczne mają tylko jeden elektron walencyjny. Za modelem atomu z powłokami Bohra nie stała żadna zasada porządkująca ani kryterium określające rozmieszczenie elektronów na powłokach.
1922, Arthur Holly Compton ogłosił o odkryciu, które podważało słuszność falowej teorii promieniowania X, czyli rentgenowskiego. Ponieważ promieniowanie rentgenowskie jest promieniowaniem elektromagnetycznym, rodzajem krótkofalowego niewidocznego dla oka światła, więc idea falowej natury światła została podważona. Compton kierował wiązkę promieniowania rentgenowskiego (promieniowania X) na różnego rodzaju pierwiastki i mierzył "promieniowanie wtórne". Kiedy wiązka promieni rentgenowskich trafiała w cel, większość z nich przechodziła prosto na wylot, lecz część ulegała rozproszeniu pod rozmaitymi kątami. Właśnie to "wtórne" czy też rozproszone promieniowanie interesowało Comptona. Zauważył, że długość fali promieniowania rozproszonego jest zawsze nieco większa niż ta, która charakteryzowała "pierwotne" albo padające promieniowanie rentgenowskie. W myśl teorii falowej długości te powinny być jednakowe. Compton zrozumiał, że różnica długości fal (a co za tym idzie, częstotliwości) oznacza, że wtórne promieniowanie rentgenowskie nie jest tym samym promieniowaniem, które zostało skierowane na obiekt. Nie znajdując zgodności swoich obserwacji z przewidywaniami falowej teorii promieniowania rentgenowskiego, Compton sięgnął po einsteinowskie kwanty światła. Niemal natychmiast stwierdził, że "długość fali i natężenie rozproszonego promieniowania są właśnie takie same, jakie powinny być w przypadku zderzenia kwantu światła i elektronu, uderzających w siebie na podobieństwo dwóch kul bilardowych".
Gdyby promieniowanie rentgenowskie było skwantowane, wiązka promieni X bombardowałaby cel na podobieństwo strumienia mikroskopijnych bilardowych kulek. Chociaż niektóre z nich mogłyby przejść na wylot, nie napotkawszy żadnej przeszkody, inne zderzały się ze znajdującymi się w atomach celu elektronami. Podczas takiej kolizji ulegający rozproszeniu kwant promieniowania rentgenowskiego traciłby energię na rzecz odbitego wskutek zderzenia elektronu. Ponieważ energia kwantu promieniowania rentgenowskiego wyraża się wzorem E = , gdzie h to stała Plancka, a ν to częstotliwość promieniowania, zatem jakakolwiek utrata energii musi skutkować obniżeniem częstotliwości. Biorąc pod uwagę, że częstotliwość jest odwrotnie proporcjonalna do długości fali, długość fali przypisana kwantowi promieniowania rozproszonego musi wzrosnąć. Compton przeprowadził szczegółową analizę matematyczną zależności ubytku energii padającego promieniowania X oraz wynikającej stąd zmiany długości fali (częstotliwości) promieniowania rozproszonego od kąta rozproszenia. Odszukał także odbite elektrony towarzyszące rozproszonym promieniom X.
"Efekt Comptona", wzrost długości fali promieniowania rentgenowskiego podczas rozpraszania na elektronach, stanowił niezbity dowód istnienia kwantów światła, świadczył więc o poprawności idei, którą wielu dotychczas odrzucało, traktując ją w najlepszym razie jako sprytną sztuczkę rachunkową. Dopiero założenie, że do zderzeń kwantów promieniowania rentgenowskiego i elektronów stosują się zasady zachowania energii, , i pędu, h/λ, pozwoliło Comptonowi wyjaśnić uzyskane dane. Tym zaś, który jako pierwszy w 1916 roku zasugerował, że kwanty światła mają pęd, własność charakterystyczną dla cząstki, był Einstein.
1923, György von Hevesy i Dirk Coster wyizolowali "znaczące ilości" pierwiastka 72. Pierwiastek ten, nazwany później hafnem, stanowił swojego rodzaju ukoronowanie prac Bohra nad konfiguracją elektronów w atomie, które zapoczątkował dziesięć lat wcześniej w Manchesterze.
1923, Louis de Broglie wpadł na myśl, że odkrycie Einsteina z 1905 roku powinno być uogólnione przez zastosowanie do wszystkich cząstek materii, szczególnie do elektronów. De Broglie postawił proste pytanie: jeśli fale światła zachowują się jak cząstki, to czy cząstki takie jak elektron mogą zachowywać się jak fale? Sam odpowiedział na nie twierdząco, gdy odkrył, że jeśli przypisać elektronowi "stowarzyszoną z nim wyimaginowaną falę" o częstotliwości ν i długości λ, można precyzyjnie wytłumaczyć położenie orbit w kwantowym modelu atomu Bohra: elektron może znajdować się tylko na tych orbitach, które stanowią wyrażaną liczbą całkowitą wielokrotność długości "stowarzyszonej z elektronem wyimaginowanej fali". Swoją koncepcję de Broglie przedstawił w rozprawie doktorskiej obronionej 24 listopada 1924 roku i opublikowanej w podwójnym numerze (styczeń/luty) 1925 roku czasopisma Annales de Physique .


W swojej pracy doktorskiej de Broglie przyjął jako podstawowe założenie istnienie pewnego periodycznego zjawiska związanego z ruchem każdej porcji energii. Było to jakby odwrócenie koncepcji fotonów, które są porcjami związanymi z rzeczywistymi falami elektromagnetycznymi. Nie wiedząc, jaką interpretację fizyczną należy przypisać owym falom, de Broglie proponował, aby traktować je na razie jako pewną formalną konstrukcję matematyczną. Nawet nazwa "fale fazowe", której de Broglie używał w swoich pracach, świadczyło o braku fizycznego obrazu owego "periodycznego zjawiska". Za najważniejszy wynik swojej teorii uznał de Brogile otrzymanie przez niego warunków kwantowych Sommerfelda jako warunków rezonansu fal fazowych.


W 1913 roku, chroniąc model atomu wodoru Rutherforda przed katastrofą, gdyż krążący wokół jądra elektron wypromieniowywał energię i po spiralnym torze opadał na jądro, Bohr zmuszony był nałożyć warunek, na którego poparcie nie miał żadnych argumentów: elektron na orbicie stacjonarnej nie emituje promieniowania. Proponowany przez de Broglie'a pomysł, by traktować elektrony jak fale stojące, był szalenie odległy od sposobu myślenia o elektronach jako o cząstkach krążących wokół jądra atomu.
De Broglie zdał sobie sprawę, że warunek "liczby całkowitej" ograniczał możliwe orbity w modelu atomu Bohra do obwodu orbity, który pozwalał na powstanie fal stojących. Te związane z elektronem fale stojące nie były umocowane na końcach, jak fale na strunie instrumentu, lecz formowały się dlatego, że całkowita liczba połówek równała się długości orbity. Tam, gdzie takiego dopasowania nie było, nie powstawały fale stojące i w związku z tym nie było też stacjonarnej orbity.
Jeśli elektron przedstawić jako falę stojącą wokół jądra, a nie cząstkę na orbicie, elektron nie doznaje przyspieszenia i w związku z tym nie istnieje zagrożenie kolapsem atomu w wyniku ciągłej emisji promieniowania. To, co Bohr wprowadził na zasadzie koła ratunkowego służącego ratowaniu jego kwantowego modelu atomu, znalazło swoje uzasadnienie w wizji korpuskularno-falowego dualizmu de Broglie'a. Po przeprowadzeniu obliczeń de Broglie'a odkrył, że główna liczba kwantowa Bohra n opisuje tylko te orbity, na których mogły istnieć wokół jądra atomu wodoru fale stojące związane z elektronem. Oto dlaczego wszystkie inne orbity elektronowe były w modelu atomu Bohra zabronione.
Doświadczenia Comptona przekonały niemal wszystkich, że Einstein miał rację co do światła. W zderzeniach z elektronami zachowywało się jak cząstki. Teraz de Broglie sugerował, że ten sam rodzaj fuzji, dualizm korpuskularno-falowy, dotyczy całej materii. Miał nawet wzór, który wiązał "stowarzyszoną z cząstką" długość fali λ z pędem cząstki p. Wzór ten prezentował się następująco: λ = h/p, gdzie h jest stałą Plancka.


Pojawienie się liczb całkowitych w prawach skwantowanego ruchu elektronu wewnątrz atomu wskazywała, jak mu się zdawało, na istnienie dla tych ruchów interferencji. Interferencja była równoważna myśli o ingerencji jakiegoś procesu falowego w ruch elektronu po skwantowanych, czyli wybranych i ponumerowanych orbitach. Innymi słowy, w kwantowej nieciągłości de Broglie dopatrzył się odbicia jakiegoś ciągłego przebiegu zdarzeń fizycznych. Jakie jednak mogło być tego podłoże? De Broglie pomyślał, czy elektron nie jest związany z jakąś falą, która - być może - prowadzi go lub mu towarzyszy. A może, choć to mniej zrozumiale, ale prostsze, sam elektron ma w sobie coś falowego? Wtedy bowiem jego zachowanie się jako cząstki winno odzwierciedlać zachowanie związanej z nim fali. Oto po dozwolonej orbicie porusza się elektron. Ten jego ruch jest trwały: elektron niczego nie traci i niczego nie zyskuje. Trwałość zakłada, że po każdym obrocie wokół jądra wszystko od nowa dokładnie się powtarza. Jeśli odnotowalibyśmy elektron w jakimś punkcie orbity, to po obrocie ukazałby się on nam w tym punkcie dokładnie taki, jaki był przy poprzednim obrocie. Oznacza to, że również jego tajemnicza fala powinna w tym punkcie mieć taką samą postać, jaką miała obrót temu, czyli jeśli był tam grzbiet fai, to będzie znów grzbiet, a jeśli było siodło, to będzie znów siodło. Dla zachowania tej stałości liczba fal elektronowych na orbicie powinna być całkowita. Koniecznie całkowita! Jeśliby ten warunek choć trochę naruszyć i powstałoby malutkie przesuniecie, które fizycy nazywają "przesunięciem fazowym", to elektron znalazłby się w naszym punkcie już w innym stanie niż poprzednio. Trwałość byłaby naruszona. Orbita okazałaby się niedozwoloną, stan atomu byłby niestacjonarny. De Brogile uchwycił możliwą przyczynę dziwnego podziału dróg elektronu w atomie na dozwolone przez przyrodę i niedozwolone. Dozwolone są tylko te orbity, których długość jest wielokrotnością długości fali elektronu! Tylko po takich orbitach elektron może krążyć bez ustanku, ciągle powracając do poprzedniego stanu. Wyjaśnił się od razu obraz pajęczyny dozwolonych orbit, czyli nieciągłości ich zbioru: sąsiednie orbity różnią się co najmniej o całkowitą długość fali elektronowej, a więc powstaje między nimi pierścieniowy prześwit. Rzuciło to nieco światła również na zagadkę kwantowych przeskoków. Między orbitami elektron nie może po prostu uzyskać trwałości, gdyż nie ma tam planetarnych dróg, które byłyby wielokrotnością długości jego fali, musi więc przeskakiwać przez przepaść nietrwałości jednym skokiem, bez historii i bez podziału na mniejsze części. W swojej pracy doktorskiej de Broglie wyprowadził jasny wzór na długość przewidywanej fali elektronu. Udało się to uczynić za pomocą teorii względności i teorii kwantów.  Można było z góry przewidzieć, że nie obejdzie się tu bez stałej Plancka h, czyli bez kwantu działania, tego uniwersalnego miernika małości w mikroświecie. De Broglie wykazał, że trzeba h podzielić przez masę i prędkość elektronu, aby uzyskać długość jego fali. Prosty rachunek wykazywał, że zwykłe, "laboratoryjne" elektrony - niezbyt szybkie i niezbyt powolne - mają długość fali de Broglie'a taką samą jak promienie Roentgena, czyli wyrażającą się w angstremach.


Teoria de Brogile'a była pierwszą próbą ujednolicenia wszystkich znanych dotąd teorii kwantowych. Wszystko co kwantowe miało się charakteryzować dualnością własności korpuskularnych i własności falowych. Związki między tymi dwoma aspektami zjawisk kwantowych zawierały stałą Plancka − symbol teorii kwantowej. Teorii de Broglie'a brakowało jeszcze dwóch istotnych elementów: równań określających propagację fal oraz interpretacji fizycznej tych fal, bez których teoria ta była jedynie ciekawym dodatkiem matematycznym do istniejących teorii kwantowych. Obu tych elementów dostarczyła mechanika falowa.


1923, Wolfgang Pauli doszedł do wniosku, że model atomu Bohra może działać poprawnie tylko w przypadku nałożenia zasady ograniczającej, która mówiłaby, ile elektronów może zajmować daną powłokę. Bez takiej zasady nic nie stało na przeszkodzie, aby wszystkie elektrony w każdym atomie znajdowały się w tym samym stanie stacjonarnym, albo inaczej, zajmowały ten sam stan energetyczny, co stało w sprzeczności z obserwowanymi widmami atomowymi.


Wśród subtelności struktury subtelnej widm jedna mimo wszystko nie dawała się rozszyfrować. Nazywano ją od dawna anomalnym zjawiskiem Zeemana. Nawet liczb kwantowych Sommerfelda było wyraźnie za mało do opisu obserwacji. Okazywało się na przykład, że w polu magnetycznym żółta linia sodu rozszczepia się na cztery lub sześć bliskich linii. W atomie kryły się bezsprzecznie jeszcze jakieś - dotąd nie uwzględnione! - możliwości kwantowe: ponumerowanych trzema liczbami szczebelków energetycznych w atomie nie wystarczało do uzyskania prawdziwego obrazu.


1924, październik, Edmund Stoner, opublikował artykuł, w którym twierdził, że elektron położony na zewnętrznej powłoce, czyli inaczej elektron walencyjny, w atomach metali alkalicznych (pierwiastki, których atom posiada jeden elektron walencyjny) ma do wyboru tyle różnych stanów energetycznych, ile jest elektronów na ostatniej całkowicie zapełnionej powłoce pierwszego obojętnego chemicznie gazu szlachetnego, jaki występuje w układzie okresowym po tym metalu alkalicznym. Na przykład elektron walencyjny atomu litu może znajdować się w każdym z ośmiu różnych stanów energetycznych, co odpowiada liczbie elektronów na ostatniej całkowicie zapełnionej powłoce atomu gazowego neonu. Pomysł Stonera implikował fakt, że dana powłoka elektronowa, w modelu Bohra opisywana główną liczbą kwantową n, ulega całkowitemu zapełnieniu lub inaczej zostaje "zamknięta", gdy liczba znajdujących się na niej elektronów osiąga poziom równy dwukrotności liczby możliwych stanów energetycznych.
1924, Wolfgang Pauli zapoznał się z artykułem Stonera i uświadomił sobie, że dla danej wartości n liczba dopuszczalnych stanów energetycznych N, w których może znajdować się elektron w atomie, odpowiada zbiorowi możliwych wartości liczb kwantowych k oraz m, czyli jest równa 2n2. Reguła Stonera generowała dla pierwiastków ustawionych w poszczególnych rzędach układu okresowego właściwy ciąg liczb: 2, 8, 18, 32, ... Tylko dlaczego liczba elektronów na całkowicie zapełnionych powłokach równała się dwukrotności liczby N lub n2? Pauli znalazł odpowiedź:  elektronom w atomach należało przypisać czwartą liczbę kwantową.
W przeciwieństwie do pozostałych liczb kwantowych n, k i m, nowa zaproponowana przez Pauliego liczba mogła przybierać tylko dwie wartości. To właśnie ta "dwu-wartość" podwajała liczbę stanów, w jakich mógł znajdować się elektron. Tam, gdzie przedtem istniał jeden stan energetyczny opisywany niepowtarzalnym zestawem trzech liczb kwantowych n, k, m, teraz istniały dwa stany energetyczne: n, k, m, a oraz n, k, m, b. Te dodatkowe stany energetyczne wyjaśniały tajemnicze rozszczepianie linii widmowych w anomalnym zjawisku Zeemana. W następnym kroku przyjmująca dwie różne wartości czwarta liczba kwantowa pozwoliła Pauliemu sformułować prawo zwane zakazem Pauliego czyli fundamentalną zasadę porządkującą, "zasadę wykluczenia", pozwalającą sformułować teoretyczne uzasadnienie, jedno z najważniejszych przykazań natury, którego brakowało empirycznie wprowadzonemu przez Bohra modelowi powłok elektronowych w atomach: nie ma w atomie dwóch elektronów o takim samym zestawie czterech liczb kwantowych.
Zakaz Pauliego wskazał sposób, w jaki zapełniane są powłoki elektronowe w nowym modelu atomu Bohra, i uchronił model przed sytuacją, w której wszystkie elektrony zebrałyby się na najniższych poziomach energetycznych. Zasada Pauliego pozwoliła uzasadnić uporządkowanie pierwiastków w układzie okresowym i domknięcie powłok elektronowych w przypadku niereaktywnych gazów szlachetnych. Nie było jednak wiadomo jakie fizyczne uzasadnienie stało za wprowadzeniem czwartej liczby kwantowej.


Dzisiaj grupę cząstek elementarnych podlegających zakazowi Pauliego nazywamy fermionami. Grupę cząstek, które mu nie podlegają nazywamy bozonami. Zgodnie z modelem standardowym fermiony są cząstkami elementarnymi "materii", natomiast bozony przenoszą oddziaływania. W modelu standardowym oprócz fermionów złożonych (bariony) występują 2 typy cząstek elementarnych (niezłożonych), które są fermionami: kwarki i leptony.


Wiosną 1925 roku Wolfgang Pauli opublikował historyczną pracę zawierającą klucz do rozwiązania zagadki zjawiska Zeemana. W dziesięć lat po Sommerfeldzie Pauli znalazł nową liczbę kwantową. Odkrył on w mikroświecie jeszcze jedną cechę o kwantowej nieciągłości i domyślił się, że ta cecha odpowiada nie całemu atomowi, ale poszczególnym elektronom w atomie. Cechę tę nazwał "dwuznacznością elektronu". Abstrakcyjnie. Bez żadnego modelu. Bez jakichkolwiek prób wyobrażenia sobie tej dwuznaczności. Ważne dla niego było tylko to, że co najmniej podwajały się kwantowe możliwości mikroświata... Drabina dozwolonych poziomów energii w atomie stała się jeszcze bardziej złożona... Udawało się opisać poprawnie anomalne rozszczepienie linii widmowych... Jednocześnie wiele innych rzeczy można było wytłumaczyć teoretycznie.


1925, styczeń, Ralph Kronig dowiedziawszy się o "dwuznaczności elektronu", zaproponował dla niej od razu model półklasyczny. Kronig znalazł dla elektronu jeszcze jeden rodzaj obrotu, tym razem nie wokół jądra atomowego, ale wokół własnej osi. Tak obracają się również planety. Ogłoszona przez Pauliego dwuznaczność oznaczała według Kroniga, że również ten ruch obrotowy jest skwantowany: jeśli jakoś ustalić położenie osi elektronu, to innym możliwym położeniem będzie tylko ustawienie przeciwne, pozostałe zaś ustawienia są zabronione. Elektron podobny jest do dziwnego kompasu, którego igła magnetyczna może wskazywać tylko południe i północ lub zachód i wschód lub północny zachód i południowy wschód lub ... To właśnie jest ta dwuznaczność! Odpowiednie obliczenia pozwoliły Kronigowi otrzymać od razu poprawny wzór na wielkość rozszczepienia linii widmowych na dwie linie. Niestety Heisenberg i Pauli wyśmiali koncepcję Kroninga i odwiedli go od jej opublikowania (Kroning miał wtedy 21 lat i był doktorantem).


1925, George Uhlenbeck i Samuel Goudsmit, niezależnie od Kroninga, zdali sobie sprawę, że proponowana przez Pauliego cecha "dwu-wartości" jest czymś więcej niż tylko kolejną liczbą kwantową. W przeciwieństwie do istniejących liczb kwantowych n, k, m, opisujących odpowiednio moment pędu elektronu na orbicie, kształt tej orbity i jej ustawienie w przestrzeni, "dwu-wartość" była wewnętrzną własnością elektronu, którą Uhlenbeck i Goudsmit nazwali "spinem". Byli przekonani, że elektron musi doświadczać ruchu obrotowego musi posiadać zatem odpowiedni temu ruchowi stopień swobody. W fizyce klasycznej moment pędu, czyli wielkość wektorowa opisująca ruch ciała, może być skierowany dowolnie. Uhlenbeck i Goudsmit proponowali spin w ujęciu kwantowym, czyli charakteryzujący się "dwu-wartością": spin "w górę" oraz spin "w dół". Jeśli krążący wokół jądra elektron obracałby się wokół własnej osi, generowałby własne pole magnetyczne i zachowywał jak subatomowy magnes sztabkowy. Elektron mógłby ustawić się zgodnie z kierunkiem zewnętrznego pola magnetycznego albo przeciwnie do niego. Z każdą wartością spinu wiąże się podobna, lecz nie identyczna wartość energii, co skutkuje istnieniem dwóch poziomów energetycznych nieznacznie różniących się wartościami energii. Było to przyczyną rozszczepienia linii widmowych metali alkalicznych i powstania dubletu - dwóch bliskich siebie linii widmowych zamiast jednej. Uhlenbeck i Goudsmit wykazali, że spin elektronu może być równy +½ albo -½, co spełniało warunek nałożony przez Pauliego na czwartą liczbę kwantową, którą nazwał "dwu-wartością" (precyzyjniej rzecz ujmując, te dwie wartości wynoszą +½(h/2π) oraz -½(h/2π)).


Rok wcześniej ideę spinu elektronu zaproponował Raplh Kronig. Jednak wyśmiany przez Pauliego nie opublikował swojego odkrycia a w konsekwencji odkrycie spinu elektronu zostało zapisane na konto Uhlenbecka i Goudsmita. Pauli już zawsze miał poczucie winy, że zniechęcił Kroniga.


Uhlenbeck i Goudsmit dowiedli, że istniejąca teoria kwantów osiągnęła granice przydatności: kwantowe pojęcie spinu elektronu nie miało odpowiednika w fizyce klasycznej. Teoretycy nie mogli już korzystać z klasycznej fizyki, aby uzyskać punkt zaczepienia przed "skwantowaniem" istniejących praw fizycznych. Odkrycia dokonane przez Pauliego, Uhlenbecka i Goudsmita zamknęły rozdział w historii fizyki związany z osiągnięciami "starej teorii kwantów". Stan w jakim znalazła się teoria kwantowa z punktu widzenia metodologii bardziej przypominał mieszankę hipotez, ad-hoc formułowanych zasad, twierdzeń i rachunkowych instrukcji, niż logiczną spójną teorię. Postęp nie wynikał z naukowego rozumowania, lecz często opierał się na sprytnych domysłach, intuicji i trafnych strzałach. Narastało oczekiwanie na "nową" teorię kwantów - mechanikę kwantową.


1927, Clinton Davisson i Lester Germer po badaniach rozproszenia elektronów na kryształach niklu dysponowali niezbędnymi dowodami na to, że materia ulega dyfrakcji, zachowuje się jak fale. Davisson wykorzystał dane doświadczalne do obliczenia długości fali powiązanej z ulegającymi dyfrakcji elektronami i odkrył, że jest ona idealnie taka, jak przewidywał de Broglie w swojej teorii dualizmu korpuskularno-falowego.


Germera, pracującego pod kierunkiem Davissona, zastanowił rozkład elektronów powstały przy odbiciu od kryształów niklu. Uzyskany obraz zdawał się dziwnie podobny do wzorów interferencyjnych. Po uważnej analizie doszedł on do wniosku, że wiązka elektronów była rozpraszana na powierzchni atomów niklu pod dokładnie takim samym kątem, który był przewidziany dla dyfrakcji promieni X zgodnie z równaniem Bragga, dla długości fali otrzymywanej z równania de Broglie'a. Okazało się więc, że wyniki badań doskonale potwierdzają teorię de Broglie'a. Zaobserwowany przez Germera rozkład odbić elektronów to obraz interferencyjny powstały na skutek dyfrakcji fal płaskich. Elektrony zachowują się więc tak jak fale, a ich długość zależy od energii. Był to więc pierwszy "namacalny" dowód na falową naturę cząstek.


Mimo sukcesów w opisie widm atomów wodoropodobnych, starsza teoria kwantów ciągle pozostawiała wiele do życzenia pod względem zarówno ogólności sformułowania, jak i też możliwości opisu rozwoju układów w czasie. Warunki kwantowe można bowiem było stosować tylko do układów dających się opisać przez rozdzielone zmienne. Wiadomo jednak było, że rzeczywiste układy nie spełniają tego warunku, gdyż wzajemne oddziaływanie (na przykład oddziaływanie elektronów w atomie) czyni ruch zbyt nieregularnym.
Starsza teoria kwantów nie opisywała także w ogóle rozwoju układu w czasie, polegającego w myśl koncepcji Bohra na owych zagadkowych przeskokach między różnymi stanami dozwolonymi przez warunki kwantowe. Brak było jakichkolwiek informacji na temat mechanizmu tych przeskoków, a jedyne przewidywania co do rodzajów i częstotliwości tych przeskoków można było otrzymać za pomocą tzw. zasady odpowiedniości (korespondencji) sformułowanej przez Bohra w 1920 roku.
Trudno jest dziś podać jednoznaczne sformułowanie tej zasady, gdyż sam Bohr zmieniał poglądy na ten temat. Disiaj powiedzielibyśmy, że pływał w temacie zasady korespondencji. W najbardziej ograniczonej postaci głosiła ona, że wszędzie tam, gdzie można pominąć stałą Plancka i związany z nią skokowy, ziarnisty charakter przemian atomowych (na przykład, gdy liczby kwantowe są tak duże, że ich zmiana o jeden jest niedostrzegalna), prawa kwantowe powinny przechodzić w prawa fizyki klasycznej.



"Nowa" teoria kwantów: mechanika kwantowa (mechanika macierzowa i mechanika falowa).


1925, od 7 do 19 czerwca, Werner Heisenberg zmuszony silnym atakiem kataru siennego spędził na wyspie Helgoland gdzie uwolniony od pyłków kwiatowych wymyślił metodę śledzenia i odnotowywania wszelkich możliwych przeskoków albo inaczej przejść elektronu, do których może dojść między dwoma różnymi poziomami energetycznymi atomu wodoru. Przyszło mu do głowy, by każdą obserwowaną wielkość, związaną z unikatową parą poziomów energetycznych, przedstawić w postaci tablicy:



ν11 ν12ν13ν14...ν1n
ν21 ν22ν23ν24...ν2n
ν31 ν32ν33ν34...ν3n
ν41 ν42ν43ν44...ν4n
.   .......
.   .......
.   .......
νm1 νm2νm3νm4...νmn

Tak wyglądała tablica zawierająca kompletny zestaw częstotliwości linii widmowych, które teoretycznie mogły pojawiać się jako skutek przeskoku elektronu pomiędzy dwoma różnymi poziomami energetycznymi reprezentowanymi przez liczby m i n (nie jest to główna liczba kwantowa z modelu Bohra! po prostu używamy tej samej literki). Jeżeli elektron dokonuje kwantowego przeskoku z poziomu energetycznego E2 (m = 2) na niższy poziom energetyczny E1 (n = 1), następuje emisja promieniowania, której w tabeli odpowiada linia widmowa o częstotliwości ν21. Linia widmowa o częstotliwości ν12 należy do widma absorpcyjnego gdyż powstaje w momencie pochłonięcia przez elektron znajdujący się na poziomie energetycznym E1 kwantu energii niezbędnego do wykonania przeskoku na wyższy poziom energetyczny E2. Linia emisyjna o częstotliwości νmn powstaje, gdy elektron przeskakuje między dwoma dowolnymi poziomami energetycznymi charakteryzującymi się energię Em oraz En, z tym że m jest większe od n. Nie wszystkie częstotliwości νmn rzeczywiście mogą być obserwowane. Na przykład pomiar ν11 jest niemożliwy, ponieważ byłaby to częstotliwość promieniowania emitowanego w trakcie "przejścia" elektronu z poziomu energetycznego E1 na poziom energetyczny E1 − takie zjawisko w ogóle nie zachodzi. Z tego wynika, że częstotliwość ν11 jest równa zero. To samo można powiedzieć o wszystkich potencjalnych częstotliwościach, gdy m = n. Zestaw wszystkich niezerowych częstotliwości νmn będzie reprezentowany w postaci linii widmowych w widmie danego pierwiastka.
Inną tablicę można skonstruować z wyników obliczeń tempa, z jakim zachodzą przejścia między różnymi poziomami energetycznymi. Jeśli przyjmiemy, że amn oznacza prawdopodobieństwo przejścia z poziomu energetycznego Em na poziom En, to większa wartość tego współczynnika oznacza, że przejście takie jest bardziej prawdopodobne niż takie, dla którego wartość amn jest mniejsza. Odpowiadająca temu bardziej prawdopodobnemu przejściu linia widmowa o częstotliwości νmn będzie miała większe natężenie niż linia odpowiadająca przejściu zachodzącemu z mniejszym prawdopodobieństwem. Heisenberg zdał sobie sprawę, że prawdopodobieństwo przejścia kwantowego amn oraz częstotliwość νmn mogą − w wyniku pewnej zręcznej manipulacji teoretycznej − stać się kwantowymi odpowiednikami mierzalnych wielkości, tzw. obserwabli, znanych z mechaniki newtonowskiej: położenia, q, i pędu, p.
1925, 29 lipca, Werner Heisenberg złożył do druku artykuł, w którym ustanowił podstawy teoretyczne mechaniki kwantowej, które opierały się wyłącznie na związkach pomiędzy wielkościami, w gruncie rzeczy, poddającymi się obserwacjom. Pomysł Heisenberga polegał na tym, by oddzielić to, co można obserwować, od tego, czego obserwować się nie da. Do tej drugiej kategorii należało zaliczyć orbitę elektronu  wokół jądra atomu wodoru. Heisenberg postanowił więc porzucić ideę elektronów okrążających jądro atomu. Od tej chwili porzucił wszelkie próby wizualizacji tego, co dzieje się we wnętrzu atomu. Postanowił ignorować wszystko, co nie poddaje się obserwacjom, a skupić uwagę tylko na tych wielkościach, które można zmierzyć w laboratorium: częstotliwościach i natężeniu linii widmowych związanych z emisją lub absorpcją światła, zachodzącymi przy przeskokach elektronu z jednego poziomu energetycznego na inny. Przyjął pogląd, że nauka powinna opierać się na faktach znanych z obserwacji i podejmować próby budowy teorii wyłącznie na wielkościach możliwych do zaobserwowania. We wszystkich obliczeniach dopuszczalne było korzystanie jedynie ze związków zachodzących między "obserwablami", wielkościami "poddającymi się obserwacjom", czyli takimi, które można zmierzyć, jeśli nie w rzeczywistości, to przynajmniej teoretycznie. Stworzył więc mechanikę kwantową wyłącznie na podstawie związków między wielkościami fizycznymi, które można było obserwować w laboratorium. Założeniu, że wszystkie wielkości występujące w jego równaniach są możliwe do zaobserwowania, nadał status postulatu i swoje wysiłki skupił na wyeliminowaniu koncepcji orbitalnych trajektorii, których nie można obserwować (nie są więc orbitalami i nie mogą być opisywane w ramach przedstawionej teorii)), oraz zastąpieniu ich czymś bardziej odpowiednim. Wielkościami w sformułowaniu Heisenberga były klasyczne położenie i pęd, lecz nie były one już jednoznacznie zdefiniowane. Każda wielkość była reprezentowana przez zbiór współczynników Fouriera z dwoma indeksami, odpowiadającymi stanowi początkowemu oraz końcowemu.
1925, 27 września, Max Born i Pascual Jordan złożyli do druku artykuł, w którym pokazali, że zawarte w pracy Heisenberga formuły można przetranskrybować i rozszerzyć na systematyczny język macierzy.
1925, październik, Erwin Schrödinger przeczytał napisany w tym samym roku artykuł Einsteina, w którym dostrzegł wymienioną w przypisie rozprawę doktorską Louisa de Broglie'a o dualizmie korpuskularno falowym. W ciągu kilku tygodni zapoznał się z tą rozprawą.
1925, 16 listopada, Max Born, Werner Heisenberg i Pascual Jordan złożyli do druku artykuł, w którym przedstawili pierwsze logicznie spójne sformułowanie mechaniki kwantowej - opis od dawna poszukiwanej nowej fizyki atomowej. Zapisując odkrytą przez Heisenberga regułę nieprzemiennego mnożenia w postaci, która łączy położenie q z pędem p w wyrażeniu zawierającym stałą Plancka: pqqp = (h/2πi)1, gdzie 1 jest czymś, co fizycy nazywają macierzą jednostkową, sformułowali równanie, które jako podstawowe, posługując się metodami rachunku macierzowego, pozwoliło im rozwinąć całą mechanikę kwantową. Mechanika macierzowa była pierwszym pełnym i spójnym opisem mechaniki kwantowej. To rozszerzenie Modelu Bohra, opisujące, jak zachodzą skoki kwantowe. Opis dokonuje się poprzez interpretację właściwości fizycznych cząstek jako ewoluujących w czasie macierzy. Był to pierwszy w historii przypadek, gdy w teorii fizycznej jej kluczowe elementy zapisano w postaci macierzy. Z tego powodu teorię tę nazywano często mechaniką macierzową.
1925, listopad, Wolfgang Pauli zabrał się do praktycznego stosowania nowej mechaniki. Stosując z powodzeniem mechanikę macierzową, zrobił dla nowej fizyki to, co Bohr uczynił dla starej teorii kwantów - odtworzył widmo liniowe atomu wodoru. Osiągnął jednak coś więcej - opisał na gruncie teorii efekt Starka, czyli wpływ na widmo zewnętrznego pola elektrycznego. W ten sposób Pauli dostarczył pierwszego twardego dowodu poprawności nowej mechaniki kwantowej.


W odróżnieniu od starszej teorii kwantów mechanika macierzowa była teorią wewnętrznie spójną, o wyraźnie sformułowanych logicznych podstawach. Udało się to osiągnąć przez całkowite wyeliminowanie takich klasycznych pojęć, jak orbity elektronów, okresy ich obiegu wokół jądra itp. Pełna eliminacja wszelkich używanych dotąd w fizyce atomowej, których nie można powiązać bezpośrednio z danymi doświadczalnymi, stanowiła podstawę programu naukowego i filozoficznego Heisenberga. W liście do Wolfganga Pauliego z czerwca 1925 roku napisał on o swojej nowej teorii: "Podstawowa zasada brzmi: Przy obliczaniu jakichkolwiek wielkości takich jak energie, częstotliwości itp. należy korzystać wyłącznie ze związków zawierających wielkości w zasadzie obserwowalne."
Mechanika macierzowa była logicznie zwarta i prosta, ale rachunkowo bardzo skomplikowana – macierze występujące w mechanice macierzowej mają wymiar nieskończony (każdemu stopniowi swobody cząstek w analizowanym układzie odpowiada jeden element macierzy). Wynikające stąd związki pomiędzy macierzami nie poddawały się łatwo dalszej obróbce. Związane z tym trudności rachunkowe zwolniły wyraźnie rozwó9j zastosowań mechaniki macierzowej. Pomoc przyszła z nieoczekiwanej strony. Przyniosła ją odkryta przez Erwina Schrödingera mechanika falowa.


1925, 23 listopada, Erwin Schrödinger przedstawił na wspólnym seminarium uniwersytetu i Eidgenossische Technische Hochschule (ETH) pracę de Broglie'a. Wyjaśnił, w jaki sposób de Brogile powiązał falę z cząstką, oraz jak dzięki wprowadzeniu wymogu, by na orbicie stacjonarnej mieściła się całkowita liczba długości fal, otrzymał reguły kwantyzacji Bohra i Sommerfelda. Wobec braku doświadczalnego potwierdzenia dualizmu korpuskularno-falowego idea ta nie spotkała się z uznaniem uczestników seminarium. Fizyka fal opisuje każdą z nich równaniem. Teoria, którą w zarysie przedstawił Schrödinger, nie obejmowała "równania falowego". Takiej formuły nie próbował wyprowadzić de Broglie, nie uczynił tego także Einstein. Schrödinger zdał sobie sprawę, że nie można mówić o falach bez równania falowego. Postanowił znaleźć brakujące równanie dla fal materii de Broglie'a.


Na długo przed ogłoszeniem teorii kwantowej fizycy całkiem nieźle radzili sobie z klasycznym opisem fal rozchodzacych się w ośrodku ciągłym, na przykład fal dźwiękowych w powietrzu (składającym się z wielu, wielu cząsteczek). Rozważmy taką falę dźwiękową. Opisujemy ją za pomocą wielkości matematycznej χ odpowiadającej ciśnieniu powietrza. Z punktu widzenia matematyki χ(x, t) jest „funkcją”, to znaczy, określa wzrost ciśnienia powietrza w fali względem panującego w pomieszczeniu normalnego, stałego ciśnienia, w dowolnym punkcie przestrzeni, x, oraz w dowolnym czasie t. „Fala biegnąca” powstaje w sposób naturalny – w gruncie rzeczy stanowi rozwiązanie równań opisujących ruch powietrza (lub wody, lub pola elektrycznego czy magnetycznego itp.) pod wpływem zaburzenia. Opisuje się to „równaniami różniczkowymi”, równaniami, które wymagają zastosowania rachunku różniczkowego i na ogół służą określeniu w ujednoliconej formie ewolucji wielu różnych rzeczy w przestrzeni i w czasie. „Równanie falowe” jest szczególnym przypadkiem równania różniczkowego i służy określeniu „funkcji falowej” zaburzenia, χ(x, t), czyli, w przypadku fali dźwiękowej , ciśnienia akustycznego w dowolnym punkcie przestrzeni, x, w czasie, t.


1926, 9 stycznia, Erwin Schrödinger zakończył spędzoną w alpejskim kurorcie Swiss Alpine Arosa dwu i pół-tygodniową przerwę związaną ze Świętami Bożego Narodzenia i Nowym Rokiem. Schrödinger, szanowany wiedeński profesor fizyki na Uniwersytecie w Zurychu pozostawił żonę w Zurychu, wziął ze sobą rozprawę de Broglie'a, dawną wiedeńską kochankę (której tożsamość pozostaje tajemnicą) i dwie perły. Umieszczenie pereł w każdym uchu, eliminowało rozpraszające szumy, a kobieta w łóżku stanowiła inspirację do pracy Schrödingera, której celem było sformułowanie mechaniki falowej. Kiedy Schrödinger i tajemnicza pani zakończyli wakacje 9 stycznia 1926 roku, Schrödinger swoje wielkie odkrycie miał już w dłoni. Zainspirowany przez anonimową muzę, odkrył poszukiwane równanie falowe. Nowe równanie posłużyło mu za fundament, na którym w kolejnych miesiącach zbudował cały gmach mechaniki kwantowej. Punktem wyjścia teorii Schrödingera była idea "fal materii", której autorem był de Broglie. Po powrocie do Zurychu Schrödinger przekonał się, że równanie falowe poprawnie odtwarza serie poziomów energetycznych w modelu atomu Bohra–Sommerfelda. Teoria Schrödingera, bardziej skomplikowana niż koncepcja de Broglie'a, teoria wpasowywanych w orbity kołowe, jednowymiarowych stojących fal elektronu, prowadziła do ich trójwymiarowych odpowiedników – orbitali elektronowych. Powiązana z nimi energia pojawiała się jako nieodłączny składnik dopuszczalnych rozwiązań równania. Raz na zawsze zlikwidowane zostały dodawane ad hoc poprawki, których wymagał kwantowy model atomu Bohra–Sommerfelda – wszystkie te korekty i ulepszenia teraz same w naturalny sposób wyłaniały się z mechanizmu mechaniki falowej Schrödingera. Tajemnicze przeskoki kwantowe elektronów pomiędzy orbitami zostały zastąpione łagodnymi, ciągłymi przejściami od jednej dozwolonej trójwymiarowej stojącej fali elektronu do drugiej.
1926, 17 stycznia, Wolfgang Pauli wysłał do druku swój artykuł, w którym przedstawił zastosowanie mechaniki macierzowej do atomu wodoru.
1926, 27 stycznia, Erwin Schrödinger złożył do druku swój artykuł, w którym przedstawiał własną wersję mechaniki kwantowej i jej zastosowanie w modelu atomu wodoru. Artykuł ukazał się 13 marca. Mechanika kwantowa Schrödingera oferowała fizykom znajomą teorię, która umożliwiała opis świata kwantowego w terminach znacznie bliższych XIX-wiecznej fizyce niż wysoce abstrakcyjna, chłodna i ascetyczna mechanika macierzowa Heisenberga, niedopuszczająca nawet cienia poglądowości. W miejsce tajemniczych macierzy Schrödinger wniósł równania różniczkowe, podstawowe wyposażenie matematyczne fizyków. Mechanika macierzowa Heisenberga dawała naukowcom przeskoki kwantowe oraz nieciągłość lecz nie ułatwiała zrozumienia istoty funkcjonowania atomu. Schrödinger pokazał fizykom, że nie muszą już tłumić swojej wyobraźni i posługiwać się jedynie abstrakcyjnymi koncepcjami, takimi jak prawdopodobieństwo przejścia, poziomy energetyczne i tym podobne. Równanie noszące jego imię stanowi podstawę mechaniki falowej i jest jednym z kilku najważniejszych równań fizyki współczesnej. Opisuje ono zachowanie się w czasie i w przestrzeni "fal fazowych" de Broglie'a, co prawda tylko w przybliżeniu nierelatywistycznym małych prędkości ale za to z uwzględnieniem wszystkich sił działających na cząstkę.
Kluczowym składnikiem teorii zaproponowanej przez Schrödingera jest coś, co stanowi rozwiązanie równania falowego, opisującego elektron jako falę. Oznacza się to grecką literą ψ (psi). ψ jest znane jako „funkcja falowa” i zawiera wszystko, co wiemy lub moglibyśmy wiedzieć, na temat elektronu. Rozwiązaniem równania jest ψ jako funkcja czasu i przestrzeni, ψ(r, t) . Innymi słowy, równanie Schrödingera mówi nam, jak funkcja falowa zależy od położenia w przestrzeni i jak zmienia się w czasie.
Równanie Schrödingera mogło być zastosowane do atomu wodoru i w pełni określało zachowanie elektronu wewnątrz atomu. Fale elektronowe, opisywane przez ψ, naprawdę przypominały różne rodzaje fal charakterystyczne dla dzwonów lub innych instrumentów muzycznych, na przykład skrzypiec lub gitary. Falom będącym skutkiem drgań materii można przypisać wyraźny i możliwy do zaobserwowania kształt oraz określoną ilość energii. Równanie Schrödingera dawało poprawne wartości poziomów energetycznych dla drgającego w atomie elektronu. Poziomy energetyczne atomu wodoru zostały wcześniej wyznaczone przez Bohra, w sformułowanej przez niego pierwszej wersji teorii kwantowej. Atom emituje światło o określonej energii, obserwowane jako „linie widmowe” światła. Uważa się, że światło to ma ścisły związek z przechodzeniem elektronu z jednego stanu falowego z charakterystycznym ruchem drgającym, powiedzmy ψ2, do innego stanu z innym ruchem drgającym, powiedzmy ψ1.
W tym kryła się moc równania Schrödingera . Wystarczyło spojrzeć na matematyczną postać ψ, aby skojarzyć ją z wzorami charakterystycznymi dla fal. Koncepcja falowa z łatwością mogła być zastosowana do każdego układu wymagającego zaangażowania teorii kwantowej: układów wielu elektronów, całych atomów, cząsteczek, kryształów i metali złożonych z poruszających się elektronów, jak również zamkniętych w jądrze atomów protonów i neutronów, a w obecnych czasach także do cząstek zbudowanych z kwarków, które są podstawowymi cegiełkami tworzącymi protony i neutrony.


Zwróćmy uwagę, że od czerwca 1925 roku do stycznia 1926 roku powstały dwie wielkie teorie mechaniki kwantowej: mechanika macierzowa (nieciągła, dyskretna) i mechanika falowa (ciągła). Czy obie są słuszne? A jeśli tak to w jaki sposób posługiwać się obydwoma jednocześnie? A może któraś z nich jest fałszywa? Ale która? Która z nich poprawnie opisuje świat? Obydwie teorie były tak różne od siebie jak cząstki i fale. Obydwie zastosowane do tych samych problemów dawały identyczne odpowiedzi. A zatem co łączyło mechanikę macierzową i mechanikę falową? Czy w ogóle coś takiego było?


1926, marzec, Erwin Schrödinger pokazał, że obydwie teorie kwantowe, z pozoru tak różne w formie i treści, jedna korzystająca z algebry macierzy, druga z równań różniczkowych, jedna opisująca cząstki, druga fale, były matematycznie równoważne. Nic dziwnego zatem, że dawały te same wyniki.


Korzyści z posiadania dwóch różnych, lecz równoważnych formalizmów mechaniki kwantowej szybko stały się oczywiste. W przypadku większości problemów, jakie napotykali fizycy, najłatwiej było znaleźć rozwiązanie, posługując się mechaniką falową Schrödingera. Niemniej w niektórych przypadkach, na przykład w zagadnieniach dotyczących spinu, swojej wartości dowodziło macierzowe podejście Heisenberga.
Wraz ze zduszeniem w zarodku jakichkolwiek sporów o to, która teoria jest poprawna, uwaga wszystkich przeniosła się z formalizmu matematycznego na interpretację fizyczną. Obydwie teorie mogły być sobie równoważne technicznie, jednak kryjące się za opisem matematycznym światy fizyczne były całkowicie odmienne: fale i ciągłość Schrödingera kontra cząstki i nieciągłość Heisenberga. Każdy z nich był przekonany, że to jego teoria uchwyciła prawdziwą naturę fizycznej rzeczywistości. Obaj jednak racji mieć nie mogli.
W umyśle Schrödingera elektrony były wyłącznie falami, podobnymi do fal na wodzie lub w powietrzu, zupełnie jakby można było zapomnieć o ich aspekcie cząsteczkowym albo potraktować je jako całkowicie iluzoryczne. W interpretacji Schrödingera ψ była nowym rodzajem fal materii, nic dodać, nic ująć. Koniec końców interpretacja Schrödingera okazała się jednak błędna. Jeśli ψ miałaby opisywać pewien rodzaj fal, to z jaką falą w istocie mielibyśmy do czynienia? Elektrony, paradoksalnie, wciąż zachowywały się jak punktowe cząstki, wywołując na fluorescencyjnym ekranie punktowe błyski światła w chwili uderzenia o jego powierzchnię. Jak można pogodzić takie zachowanie z faktem, że ψ miałaby być falą materii?
Nie było zatem wiadome jaka jest interpretacja tak zwanej funkcji falowej, symbolizowanej w równaniach Schrödingera przez grecką literę psi, ψ. Zgodnie z zasadami dynamiki Newtona, jeżeli w danej chwili znane jest położenie elektronu i jego prędkość, to teoretycznie możliwe jest dokładne określenie, gdzie będzie znajdował się jakiś czas później. Jednak dużo trudniej sprecyzować położenie fali niż cząstki. Gdzie dokładnie znajdują się fale? Inaczej niż cząstka, fala nie znajduje się w jednym miejscu, lecz jest rozchodzącym się w ośrodku, przenoszącym energię (i bezwładność) zaburzeniem.
Tak jak w przypadku cząstek, których ruch można wyznaczyć za pomocą równań Newtona, równaniem można opisać również każdą falę, niezależnie od jej rozmiaru i kształtu. Funkcja falowa ψ reprezentuje samą falę i opisuje jej kształt w danej chwili. Funkcja falowa fali mechanicznej określa rozmiar rozchodzącego się zaburzenia, tak zwaną amplitudę, w dowolnym punkcie x i w czasie t. W odkrytym przez Schrödingera równaniu falowym dla fal materii de Broglie'a , funkcja falowa była niewiadomą. Schrödinger nie potrafił znaleźć odpowiedzi na pytanie: co konkretnie podlegało falowaniu? W przypadku wody czy fal dźwiękowych odpowiedź jest oczywista: cząsteczki wody lub powietrza. Schrödinger uważał, że fale materii są równie realne jak wszystkie pozostałe, lepiej nam znane typy fal. Tylko co stanowi ośrodek, w którym porusza się fala elektronu? Istniał ścisły związek między tym pytaniem a pytaniem o to, co przedstawia sobą obecna w równaniu Schrödingera funkcja falowa. Funkcja falowa w mechanice falowej nie jest wielkością, którą można bezpośrednio zmierzyć, ponieważ wyraża się liczbą zespoloną składającą się z dwóch części: "rzeczywistej" i "urojonej". Funkcja falowa nie poddawała się obserwacji, była czymś nieuchwytnym, czego nie można zmierzyć (rozumiemy w tym momencie ogromny opór Heisenberga, który w swojej mechanice macierzowej ujął tylko obserwable czyli wielkości poddające się pomiarom uznając za nieistotne wielkości, których pomierzyć się nie da, czytaj: funkcja falowa). Na szczęście kwadrat liczby zespolonej daje w wyniku liczbę rzeczywistą, którą można związać z czymś, co daje się już zmierzyć w laboratorium. Schrödinger uważał, że kwadrat funkcji falowej elektronu jest miarą gęstości rozmytego ładunku elektrycznego w danym położeniu x i czasie t.
Funkcja falowa elektronu zawiera całą wiedzę o jego pojedynczej, trójwymiarowej fali. Jednak funkcji falowej dwóch elektronów nie da się po prostu interpretować jako dwóch trójwymiarowych fal w zwykłej trójwymiarowej przestrzeni. Zamiast tego opis matematyczny wskazuje na istnienie jednej fali, przebywającej w dziwacznej sześciowymiarowej przestrzeni. Z każdym polem układu okresowego, podczas przemieszczania się od jednego pierwiastka do następnego, liczba elektronów wzrasta o jeden, powodując konieczność dorzucenia kolejnych trzech wymiarów. O ile lit, trzeci w tabeli, wymaga przestrzeni dziewięciowymiarowej, o tyle uran trzeba już ulokować w przestrzeni o 276 wymiarach. Fale istniejące w tych wielowymiarowych, abstrakcyjnych przestrzeniach nie mogły być rzeczywistymi falami fizycznymi, zdolnymi przywrócić pojęcie ciągłości i wyeliminować przeskoki kwantowe, jak oczekiwał tego Schrödinger. Skoro funkcja falowa nie odpowiada realnie istniejącym falom w zwykłej trójwymiarowej przestrzeni, to jakim? Odpowiedzi na to pytanie udzieli nebawem Max Born (na razie przebywa z wykładami w Stanach Zjednoczonych i dopiero po powrocie dowie się co podczas jego nieobecności zdarzyło się w Europie) .


1926, 10 lipca i 14 września, Max Born opublikował dwa artykuły, w których stwierdził, że u podstaw mechaniki falowej i całej rzeczywistości kwantowej leży prawdopodobieństwo. Born znalazł nową interpretację funkcji falowej, dającą możliwość pogodzenia obydwu idei, cząstek i fal, dzięki wprowadzeniu prawdopodobieństwa. Sformułował standardową obecnie interpretację kwadratu funkcji falowej (ψ*ψ) w równaniu Schrödingera jako gęstości prawdopodobieństwa znalezienia cząstki. Rozważając problemy rozpraszania elektronów na atomach stwierdził, że po zderzeniu z atomem elektron może ulec rozproszeniu na wzór dwóch miliardów różnych kul, w niemal każdym kierunku. Kiedy dochodzi do zderzeń na poziomie atomowym fizyka nie potrafi udzielić odpowiedzi na pytanie "Jaki jest stan po zderzeniu?", ale jedynie "jakie jest prawdopodobieństwo określonych skutków zderzenia?". "I tu" – przyznał Born – "pojawił się cały problem z determinizmem". Niemożliwe jest dokładne określenie, gdzie znajduje się elektron po zderzeniu. Najlepsze, co w tej sytuacji mogą zrobić fizycy – powiedział – to obliczyć prawdopodobieństwo, że elektron ulegnie rozproszeniu pod określonym kątem. To właśnie były "nowe treści fizyczne" Borna, z tym że wszystko obracało się wokół jego interpretacji funkcji falowej.


Sama funkcja falowa nie istnieje realnie, ale jedynie w tajemniczym, nieuchwytnym świecie tego co możliwe. Dotyczy ona takich abstrakcyjnych możliwości jak wszystkie kąty, pod jakimi może zostać rozproszony elektron po zderzeniu z atomem. Istnieje realne rozróżnienie między tym, co możliwe, a tym, co prawdopodobne. Born dowodził, że raczej kwadrat funkcji falowej niż funkcja falowa, raczej liczba rzeczywista niż zespolona, przebywa w świecie tego co prawdopodobne. Przykładowo, podniesienie do kwadratu funkcji falowej nie daje w wyniku aktualnego położenia elektronu, lecz jedynie prawdopodobieństwo, szansę na to, że znajdziemy go raczej tu niż tam. Na przykład, jeżeli funkcja falowa elektronu w położeniu X ma wartość dwa razy większą niż elektronu w położeniu Y, to prawdopodobieństwo tego, że znajdziemy go w położeniu X jest cztery razy większe niż tego, że będzie on w położeniu Y. Elektron może znajdować się w położeniu X, Y lub gdziekolwiek indziej.
Wkrótce Niels Bohr wysunął przypuszczenie, że dopóki nie zostanie przeprowadzona obserwacja lub pomiar, ciała mikroskopowego, takiego jak elektron, nie ma nigdzie. Pomiędzy jednym a drugim pomiarem nie istnieje ono nigdzie poza abstrakcyjnym światem możliwości funkcji falowej. Dopiero w chwili dokonania obserwacji lub pomiaru "funkcja falowa ulega redukcji", w wyniku czego jeden z "możliwych" stanów elektronu staje się stanem "rzeczywistym", a prawdopodobieństwo wszystkich pozostałych możliwych stanów spada do zera.
Zdaniem Borna równanie Schrödingera opisuje falę prawdopodobieństwa. Nie istnieją realne fizycznie fale elektronu, ale jedynie abstrakcyjne fale prawdopodobieństwa. Zdaniem Borna z punktu widzenia mechaniki kwantowej nie istnieje żadna wielkość, która w poszczególnych przypadkach determinowałaby wynik zderzenia. Born skłaniał się ku odrzuceniu determinizmu w świecie atomowym. Jednak, o ile ruch cząstek odbywa się zgodnie z regułami probabilistycznymi o tyle samo prawdopodobieństwo rozchodzi się zgodnie z prawem przyczynowości reprezentowanym przez równanie falowe Schrödingera. W ten sposób Born wprowadził do fizyki nowy rodzaj prawdopodobieństwa. "Prawdopodobieństwo kwantowe", nazwane tak z braku lepszego terminu, nie było klasycznym prawdopodobieństwem, wynikającym z niewiedzy lub zbyt dużej liczby informacji, którą teoretycznie można wyeliminować. Na przykład fakt, że nie da się przewidzieć, kiedy dojdzie do rozpadu danego, konkretnego atomu w radioaktywnej próbce, poza tym, że na pewno kiedyś to się stanie, nie jest spowodowany niedostatkiem wiedzy lub niemożnością przetworzenia zbyt dużej liczby informacji, lecz wynika z probabilistycznego charakteru rządzących rozpadem radioaktywnym reguł kwantowych.
Nie można jednoznacznie odpowiedzieć na pytanie, gdzie w danej chwili znajduje się elektron. Elektrony zachowują się bowiem, w pewnych rzeczywiście przeprowadzonych doświadczeniach, jak rozciągłe fale, a matematyczny opis tych fal określa rozkład prawdopodobieństwa znalezienia elektronu w określonym miejscu i chwili. Wprowadzone przez Erwina Schrödingera równanie falowe rządzące rozkładem prawdopodobieństwa dla różnych obiektów w różnych sytuacjach jest w mechanice kwantowej fundamentalnym przedstawieniem rzeczywistości. Jego rozwiązania opisują superpozycje fal, zwanych stanami własnymi. Różne stany własne odpowiadają różnym możliwościom tego, co się może wydarzyć. Rzeczywistość, opisana przez superpozycję stanów własnych równania Schrödingera, nie jest więc precyzyjnie jednoznaczna – znamy wszystkie potencjalne możliwości, ale nie wiemy, która z nich istotnie zachodzi. Precyzyjną wiedzę uzyskujemy, wykonując doświadczenia, tzn. robiąc pomiary. W akcie pomiaru fala Schrödingera ulega redukcji – ze zbioru wszystkich możliwych stanów własnych wybierany jest ten, który odpowiada szczególnemu stanowi zgodnemu z wynikiem pomiaru. Zanim nie dokonamy pomiaru, nie możemy być pewni tych aspektów rzeczywistości, które pomiar ma określić, gdyż istnieją jednocześnie "obok siebie" różne "potencjalne możliwości" odpowiadające rozmaitym "stanom własnym."
Właściwość dodawania albo „superpozycji” dwóch (lub więcej) sprecyzowanych ewentualności i tworzenia w ten sposób „mieszanego” lub „splątanego” stanu, jest charakterystyczna dla teorii kwantowej, która cieszy się przywilejem jednoczesnego obejmowania wszystkich możliwości. Przed dokonaniem pomiaru nie wiemy, która z dwóch ewentualności odpowiada prawdzie. To pomiar sprawia, że stan kwantowy w jednej chwili ulega zmianie, aby odwzorować jego wynik.
Ktoś mógłby twierdzić, że odwołując się tylko do fizyki klasycznej, dowiedzielibyśmy się tego samego. Tylko że fizyka klasyczna nie wymaga, by w chwili obserwacji zachodziła jakakolwiek zmiana stanu natury – zwyczajnie poznajemy, jaki ten stan naprawdę jest. Klasyczne stany nigdy nie są stanami mieszanymi i zawsze opisują ściśle określoną rzeczywistość. Poprzez obserwację klasycznego stanu zmianie ulega tylko nasza własna, osobista ignorancja. Jednak w teorii kwantowej, z chwilą dokonania pomiaru nagle zmianie ulega rzeczywisty stan kwantowy – albo funkcja falowa, natychmiast i w całym Wszechświecie.


1927, 23 marca, Werner Heisenberg złożył do druku artykuł (został opublikowany z datą 1 marca), w którym pokazał, że obowiązuje zasada nieoznaczoności. Heisenberg odkrył, że mechanika kwantowa zabrania, by w dowolnej chwili możliwe było dokładne wyznaczenie zarówno położenia, jak i pędu cząstki. Możliwe jest dokonanie precyzyjnego pomiaru położenia elektronu albo prędkości, z jaką się on porusza, jednak nie można wyznaczyć obu tych wielkości jednocześnie. W kwantowym świecie kompromisów, im bardziej precyzyjnie mierzona jest jedna wielkość, tym mniej dokładnie można poznać lub przewidywać drugą. Jeśli Heisenberg miał rację, to żaden eksperyment nigdy nie pozwoli zajrzeć do wnętrza atomu, ponieważ nie da się obejść ograniczeń narzucanych przez zasadę nieoznaczoności. Heisenberg wykazał, że jeśli przyjmiemy, iż Δp i Δq oznaczają "niedokładność" albo "niepewność", z jaką znamy pęd p i położenie q, to iloczyn tych wielkości jest zawsze większy lub równy h/2π, co można zapisać wzorem: ΔpΔqh/2π, gdzie h jest stałą Plancka. Oto matematyczna forma zasady nieoznaczoności lub inaczej "niedokładności jednoczesnych pomiarów" położenia i pędu. Heisenberg odkrył również kolejną "relację nieoznaczoności", dotyczącą innej pary tak zwanych zmiennych sprzężonych, a mianowicie energii i czasu. Jeżeli ΔE oraz Δt są niepewnością, z jaką można wyznaczyć energię E danego układu oraz czas t, w jakim dokonywany jest pomiar energii, wówczas prawdziwy jest wzór: ΔEΔth/2π.


Podczas opracowywania swojej mechaniki macierzowej Heisenberg natknął się na dziwny wzór ABBA. Jego sens fizyczny nie sprowadzał się tylko do tego, że wynik dwóch operacji pomiaru w mikroświecie (A i B) zależy od ich kolejności i AB daje coś innego niż BA. Jeśli ważne jest, którą operację przeprowadza się na początku, a którą potem, to z tego wynika, że nie można ich przeprowadzać jednocześnie. Gdyby było można, to kolejność nie odgrywałaby żadnej roli, gdyż równoczesność oznacza właśnie, że nie ma "na początku" i nie ma "potem", czyli nie ma kolejności. W ten sposób ujawnia się jeszcze jedna niezwykła cecha mikroświata: są w nim wielkości obserwowalne, których nie można równocześnie poznać. Tak właśnie sprawa ma się ze współrzędną i prędkością elektronu ponieważ już od pierwszych kroków mechaniki kwantowej wzór nieprzemienności mnożenia otrzymywało się właśnie w przypadku, gdy A oznaczało pomiar współrzędnej, a B - pomiar prędkości. Otrzymali to zarówno Heisenberg, jak Born i Dirac. Są to te same warunki początkowe, jakich potrzebuje mechanika klasyczna do swoich przewidywań (podczas całkowania równań ruchu trzeba ustalić wartości stałych całkowania na podstawie wartości początkowych i brzegowych). Na ich równoczesną znajomość w dowolnej chwili budowa mikroświata nakłada zakaz. Zakaz ten ma charakter fundamentalny i nie można go obejść żadnymi laboratoryjnymi sztuczkami. Oznacza to, że żadne starania nie pozwolą określić dokładnych warunków początkowych dla przeskoku kwantowego. Prawa przyrody są niewzruszone. Można ich do pewnego czasu nie znać, ale nie można im nie podlegać. Jeśli jest to zasada przyrody, to wynikałoby stąd, że nie osobliwości teorii kwantowej przeszkadzają poznać równocześnie współrzędne i prędkość elektronu, lecz sama przyroda ich nie zna. To ona w swych głębinach obchodzi się bez jednoznacznej przyczynowości. Przyroda jest wtedy rzeczywiście światem probabilistycznym.
     Pewnego ranka w drugiej połowie lutego 1927 roku na kartce papieru pojawił się, wyprowadzony ręką skrajnie podnieconego Heisenberga, króciutki wzór na związek dwóch "delt", czyli dwóch nieokreśloności: ΔAΔBh (lub ściślej: ΔxΔph). Należało to odczytywać w ten sposób, że iloczyn nieokreśloności współrzędnej i prędkości (lub ściślej: pędu) cząstki może być większy od kwantu działania lub jemu równy, ale nigdy nie staje się od niego mniejszy. We wzorze ty od razu rzucała się w oczy zadziwiająca prawidłowość, że gdy maleje nieokreśloność współrzędnej, to rośnie nieokreśloność prędkości i, na odwrót, im lepiej określona jest prędkość, tym mniej staje się określona współrzędna elektronu. Stało się teraz matematycznie zrozumiałe, dlaczego nie obserwuje się orbit w atomie planetarnym. Współrzędna i prędkość elektronu-planety oddzielnie wzięte mogą być dostatecznie dobrze obserwowalne, ale wystarczy tylko spróbować zmierzyć dokładnie jedną z tych wielkości, aby w tej samej chwili druga stała się całkowicie nieokreślona. Króciutki wzór informował też o czymś innym. Ponieważ nieokreśloności występują parami, to nakładają wzajemnie na siebie więzy. Oczywiście, jeśli jest gdzieś wiele wariantów zachowania, to rządzi tam przypadek, ale zasadniczy związek między nieokreślonościami poskramia swym łagodnym panowaniem władzę przypadku. Przypadek w mikroświecie to nie samowola. Wzór Heisenberga otrzymał skromną nazwę związków nieokreśloności, później jednak, doceniwszy ich podstawowe znaczenie, fizycy zaczęli mówić częściej o zasadzie nieoznaczoności.
     Odkryta przez Heisenberga nieoznaczoność jest wewnętrzną cechą rzeczywistości. Według Heisenberga jej wyjaśnienie znajdowało oparcie w podstawowym równaniu mechaniki kwantowej: pq - qp = -ih/2π, gdzie p oraz q są pędem i położeniem cząstki. Za nieprzemiennością, czyli faktem, że pq nie równało się qp (pqqp), stała wrodzona nieoznaczoność natury. Jeśli po eksperymencie, w którym wyznaczano położenie elektronu, następował drugi, służący wyznaczeniu prędkości elektronu (czyli pędu), oba doświadczenia dawały precyzyjne rezultaty. Iloczyn tych dwóch wielkości niech będzie oznaczony A. Jednak powtórzenie obu doświadczeń w odwrotnej kolejności, czyli zmierzenie najpierw prędkości elektronu, a potem wyznaczenie jego położenia, prowadzi do zupełnie innego wyniku mnożenia poznanych wielkości, oznaczonego B. W każdym przypadku pierwszy pomiar wywoływał zakłócenie, które wpływało na wynik drugiego. Gdyby nie było żadnego zakłócenia, którego natura jest inna w każdym eksperymencie, wówczas wynik działania pq byłby identyczny z wynikiem qp, więc pq - qp dawałby wynik równy zero (pq - qp = 0), nie byłoby żadnej niepewności i nie istniałby świat kwantów.


Podana przez Heisenberga zasada nieoznaczoności mówi, że wśród wielkości fizycznych opisujących zachowanie układu atomowego można wyróżnić pary o tej własności, że niemożliwe jest jednoczesne przeprowadzenie ścisłego pomiaru obu wielkości z danej pary. Mówimy, że obie wielkości są względem siebie kanonicznie sprzężone w sensie hamiltonowskim. Przykładami mogą być: (1) współrzędna kartezjańska cząstki x i odpowiadająca jej składowa pędu px, (2) składowa Jz momentu pędu cząstki i jej położenie w kącie azymutalnym φ mierzonym w płaszczyźnie (xy), (3) energia E cząstki i czas t, w którym zostaje ona wyznaczona itd. Dokładniej biorąc zasada nieoznaczoności mówi, że iloczyn nieoznaczoności wartości obu zmiennych musi być co najmniej rzędu stałej Plancka h podzielonej przez 2π, czyli: Δx⋅Δpx ≥ h/2π, Δφ⋅ΔJzh/2π, Δt⋅ΔEh/2π. Związek Δx⋅Δpx ≥ h/2π oznacza, że jeżeli chcielibyśmy ściśle wyznaczyć składową pędu cząstki, stracilibyśmy całkowicie możliwość uzyskania informacji o odpowiadającej jej składowej wektora położenia i odwrotnie, nie można zlokalizować cząstki w odkreślonym kierunku, nie tracąc wszelkich informacji na temat jej pędu w tym kierunku. W przypadkach pośrednich zaś iloczyn nieoznaczoności jednocześnie mierzonego położenia i pędu cząstki jest co najmniej rzędu h/2π. Podobnie zależność Δφ⋅ΔJzh/2π oznacza, że precyzyjny pomiar położenia kątowego cząstki na orbicie pociąga za sobą całkowitą nieznajomość składowej momentu pędu w kierunku prostopadłym do płaszczyzny tej orbity. Zależność Δt⋅ΔEh/2π implikuje, że pomiar energii z dokładnością ΔE musi zająć co najmniej okres czasu Δt ∼ (h/2π)/ΔE; zatem jeśli układ przebywa w określonym stanie ruchu nie dłużej niż przez czas Δt, błąd pomiaru energii w tym stanie jest co najmniej ΔE ∼ (h/2π)/Δt, ponieważ Δt jest najdłuższym okresem czasu, jakim dysponujemy na przeprowadzenie pomiaru. Niewielka wartość stałej Plancka h (h/2π) powoduje, że zasada nieoznaczoności odgrywa istotną rolę tylko w odniesieniu do układów o rozmiarach atomu.
     Zasada Heisenberga wyznacza granicę, po przekroczeniu której nie jest możliwe stosowanie pojęć fizyki klasycznej. Przykład (1): aby obserwować ruch tak małej cząstki, jaką jest proton, trzeba go oświetlić światłem o odpowiednio małej długości fali. Ponieważ krótkie fale mają dużą częstotliwość, to fotony tego światła mają dużą energię i zderzając się z protonem tak bardzo zaburzają jego ruch, że nie możemy określić jego położenia. Zakładając, że prędkość protonu wyznaczono z dokładnością Δv = 510−2 m/s, możemy wyznaczyć minimalną niepewność pomiaru położenia protonu z zasady Heisenberga: obliczona nieokreśloność położenia protonu jest około 600 milionów razy większa od rozmiaru samego protonu. W tej sytuacji mówienie o torze protonu jest pozbawione sensu i dlatego w tym przypadku nie możemy stosować pojęć fizyki klasycznej. Przykład (2): mrówka o masie 0,1 g i długości 1 mm, która w czasie 1 s pokonuje drogę 1 mm ma pęd równy 0,1 g·mm/s. Zgodnie z zasadą nieoznaczoności jej pozycję i pęd można równocześnie zmierzyć z dokładnością nie większą niż do 10 miejsca po przecinku. Taka dokładność jest zupełnie wystarczająca w codziennych doświadczeniach, dlatego efekty kwantowe nie są tu możliwe do zaobserwowania.


1927, 11 - 20 września, Niels Bohr podczas Międzynarodowego Kongresu Fizyków odbywającego się we włoskim Como ku czci Alessandra Volty przedstawił swoją zasadę komplementarności. Zgodnie z tą zasadą zjawiska mikroświata nie dają się w pełni opisać terminami znanymi nam z makroświata, konieczne są wzajemnie uzupełniające się (komplementarne) opisy, to znaczy opis falowy i opis cząsteczkowy (dualistyczna natura promieniowania). Według Bohra na fundamentalnym poziomie elementy opisu, które uzupełniają się wzajemnie i są niezbędne do uzyskania pełnej charakterystyki układu, wykluczają się nawzajem. Przykładowo, dokładny pomiar pędu wyklucza dokładną znajomość położenia, a do pełnego opisu tego, co dzieje się z cząstką, potrzebna jest znajomość jej pędu i położenia. “ W szczególności, każda procedura ,jaką moglibyśmy pomyśleć dla przestrzennego i czasowego opisu cząstki byłaby związana w sposób nieunikniony z nie dającą się skontrolować wymianą energii i pędu pomiędzy cząstką a urządzeniem mierzącym. I odwrotnie, każde badanie związków, w opisie których występuje prawo zachowania energii i pędu wymaga rezygnacji ze ścisłego czasoprzestrzennego opisu poszczególnego elektronu w atomie. Te dwa aspekty zjawisk są nie sprzeczne lecz komplementarne. [...] W fizyce atomowej natrafiliśmy na niemożliwość nakreślenia ostrej linii granicznej między zachowaniem się przedmiotów atomowych, a ich wzajemnym oddziaływaniem z przyrządem pomiarowym. [...] W tych warunkach występuje z konieczności pewna wieloznaczność gdy przypisujemy atomowym obiektom zwykłe własności fizyczne.”
1927, październik, uczestnicy Piątego Kongresu Solvaya, Institut International de Physique Solvay w Leopold Park, dyskutowali nad najnowszymi osiągnięciami fizyki fotonów i mechaniki kwantowej. Na zdjęciu , wykonanym przez Benjamina Couprie'ego, Institut International de Physique Solvay, Brussels, Belgium, zobaczyć możemy głównych bohaterów spotkanych na drodze ku odkryciu świata kwantów. Stoją, od lewej: Auguste Piccard, Émile Henriot, Paul Ehrenfest, Edouard Herzen, Théophile de Donder, Erwin Schrödinger, Jules-Émile Verschaffelt, Wolfgang Pauli, Werner Heisenberg, Ralph Fowler, Léon Brillouin. Siedzą (w drugim rzędzie): Peter Debye, Martin Knudsen, William L. Bragg, Hendrik A. Kramers, Paul Dirac, Arthur Compton, Louis de Broglie, Max Born, Niels Bohr. W pierwszym rzędzie: Irving Langmuir, Max Planck, Maria Skłodowska-Curie, Hendrik Lorentz, Albert Einstein, Paul Langevin, Charles E. Guye, Charles T.R. Wilson, Owen W. Richardson.
Z jakiegoś powodu nie zaproszono na konferencję Sommerfelda i Jordana. Informacji dlaczego nieobecny był Rutherford nie udało mi się znaleźć w książkach.
1928, 2 stycznia, Paul Dirac złożył do druku artykuł , w którym dokonał teoretycznego wyczynu dorównującego osiągnięciu Schrödingera, znajdując relatywistyczne równanie mechaniki kwantowej dla elektronu. Zunifikował mechanikę kwantową ze szczególną teorią względności. Odkrył relatywistyczne równanie falowe dla elektronu, nazwane później jego imieniem. Równanie Diracka opisuje nie tylko ruch elektronu z dowolną prędkością w dowolnych polach zewnętrznych, ale także zjawisko kreacji i anihilacji par elektron-pozyton przez takie pola. Wprowadził notację stanów bra-ket (stan kwantowy |ψ


Teraz już wiemy, że zrozumienie budowy atomu, stworzenie syntezy pozornie sprzecznych zjawisk, które ujawniono w laboratoriach w latach 1900-1930, wymagało zreformowania sposobu postrzegania zjawisk zachodzących w skali atomowej. Równania Newtona, stosowane skutecznie dla obiektów w dużej skali, charakteryzują się absolutną dokładnością i pewnością (cechami określanymi mianem „klasycznego determinizmu”) w przewidywaniu zdarzeń. W świecie kwantów równania te zostały zastąpione nowymi równaniami Schrödingera i matematyką Heisenberga, operującą prawdopodobieństwami, charakteryzującą się brakiem wyrazistości i nieoznaczonością. W świecie kwantów musimy zapomnieć o precyzyjnym przewidywaniu zdarzeń, możemy wyliczyć jedynie „prawdopodobieństwo” – prawdopodobieństwo fizycznego, rzeczywistego wystąpienia określonego zdarzenia.
Fizyka świata kwantów, mimo nieokreśloności i pozornego braku precyzji, dostarcza poprawnej metody, tak naprawdę jedynej poprawnej metody prowadzącej do zrozumienia, jak funkcjonuje przyroda. Co więcej, jest jedyną drogą do zrozumienia struktury atomu, zjawisk zachodzących wewnątrz atomu, zasad leżących u podstaw tworzenia cząsteczek i emisji promieniowania (światło, które widzimy, w całości powstało we wnętrzu atomów). W miarę upływu lat fizyka kwantowa okazała się równie skuteczna w objaśnieniu struktury jądra atomu, wiecznego związania kwarków wewnątrz tworzących jądro atomu protonów i neutronów a także źródła gigantycznej mocy Słońca. Mamy nadzieję, że w przyszłości pozwoli nam znaleźć odpowiedź na pytanie jak powstawały elementarne cząstki materii w procesie kosmicznej bariogenezy zakończonej w ułamku sekundy po Wielkim Wybuchu a nawet jak rozpoczął się Wielki Wybuch, czyli jak powstał nasz wszechświat: Wszechświat.