Prawdopodobieństwo — Probability

Prawdopodobieństwo wyrzucenia kilku liczb przy użyciu dwóch kości.

Prawdopodobieństwo to gałąź matematyki zajmująca się numerycznymi opisami prawdopodobieństwa wystąpienia zdarzenia lub prawdopodobieństwa, że ​​zdanie jest prawdziwe. Prawdopodobieństwo zdarzenia to liczba z zakresu od 0 do 1, gdzie z grubsza 0 oznacza niemożliwość zdarzenia, a 1 oznacza pewność. Im wyższe prawdopodobieństwo zdarzenia, tym większe prawdopodobieństwo, że zdarzenie nastąpi. Prostym przykładem jest rzucanie uczciwą (bezstronną) monetą. Ponieważ moneta jest uczciwa, oba wyniki („orzeł” i „reszek”) są jednakowo prawdopodobne; prawdopodobieństwo „orzełków” jest równe prawdopodobieństwu „reszek”; a ponieważ nie są możliwe żadne inne wyniki, prawdopodobieństwo wystąpienia „orzełka” lub „reszki” wynosi 1/2 (które można również zapisać jako 0,5 lub 50%).

Koncepcjom tym nadano aksjomatyczną formalizację matematyczną w teorii prawdopodobieństwa , która jest szeroko stosowana w takich dziedzinach nauki , jak statystyka , matematyka , nauka , finanse , hazard , sztuczna inteligencja , uczenie maszynowe , informatyka , teoria gier i filozofia , m.in. na przykład wyciągnij wnioski dotyczące oczekiwanej częstotliwości zdarzeń. Teoria prawdopodobieństwa jest również używana do opisu mechaniki i prawidłowości systemów złożonych .

Terminologia teorii prawdopodobieństwa

Eksperyment: Operacja, która może dać pewne dobrze zdefiniowane wyniki, nazywana jest eksperymentem.

Przykład: Kiedy rzucamy monetą, wiemy, że pojawia się głowa lub ogon. Można więc powiedzieć, że operacja rzucania monetą ma dwa dobrze zdefiniowane wyniki, a mianowicie (a) pojawienie się orzeł; oraz (b) odsłonięte ogony.

Eksperyment losowy: Kiedy rzucamy kostką, doskonale zdajemy sobie sprawę z tego, że na górnej ściance może pojawić się dowolna z cyfr 1,2,3,4,5 lub 6, ale nie możemy powiedzieć, która dokładna liczba się pojawi.

Taki eksperyment, w którym wszystkie możliwe wyniki są znane, a dokładnego wyniku nie można z góry przewidzieć, nazywa się eksperymentem losowym.

Przestrzeń próbek: Wszystkie możliwe wyniki eksperymentu jako całości tworzą Przestrzeń próbek.

Przykład: Kiedy rzucamy kostką, możemy uzyskać dowolny wynik od 1 do 6. Wszystkie możliwe liczby, które mogą pojawić się na górnej ściance, tworzą Przestrzeń Próbki (oznaczoną przez S). Stąd Przestrzeń Próbki rzutu kostką wynosi S={1,2,3,4,5,6}

Wynik: Każdy możliwy wynik z przestrzeni próbek S dla eksperymentu losowego jest nazywany wynikiem .

Przykład: Kiedy rzucamy kostką, możemy otrzymać 3 lub gdy rzucamy monetą, możemy otrzymać orły.

Zdarzenie: Dowolny podzbiór Przestrzeni Próbek S jest nazywany Zdarzeniem (oznaczonym przez E ). Kiedy ma miejsce wynik należący do podzbioru E , mówi się, że zaszło Zdarzenie. Natomiast gdy ma miejsce wynik nie należący do podzbioru E , Zdarzenie nie miało miejsca.

Przykład: Rozważ eksperyment rzucania kostką. Tutaj Przestrzeń Próbki S={1,2,3,4,5,6}. Niech E oznacza zdarzenie, w którym „liczba pojawia się mniej niż 4.” Zatem zdarzenie E={1,2,3}. Jeśli pojawi się cyfra 1, mówimy, że zaszło Zdarzenie E. Podobnie, jeśli wyniki są 2 lub 3, możemy powiedzieć, że wydarzyło się Zdarzenie E , ponieważ te wyniki należą do podzbioru E.

Próba: Przez próbę rozumiemy przeprowadzenie losowego eksperymentu.

Przykład: (i) Rzucanie uczciwą monetą, (ii) rzucanie bezstronną kostką

Interpretacje

W przypadku eksperymentów, które są losowe i dobrze określone w czysto teoretycznych warunkach (takich jak rzucanie monetą), prawdopodobieństwa można opisać liczbowo liczbą pożądanych wyników podzieloną przez całkowitą liczbę wszystkich wyników. Na przykład dwukrotne rzucenie monetą da wyniki „orzeł-ogon”, „orzeł-ogon”, „ogon-ogon” i „ogon-ogon”. Prawdopodobieństwo uzyskania wyniku „head-head” wynosi 1 z 4 wyników lub, w kategoriach liczbowych, 1/4, 0,25 lub 25%. Jednakże, jeśli chodzi o praktyczne zastosowanie, istnieją dwie główne konkurujące kategorie interpretacji prawdopodobieństwa, których zwolennicy mają różne poglądy na temat fundamentalnej natury prawdopodobieństwa:

  • Obiektywiści przypisują liczby, aby opisać jakiś obiektywny lub fizyczny stan rzeczy. Najpopularniejszą wersją prawdopodobieństwa obiektywnego jest prawdopodobieństwo częstościowe , które twierdzi, że prawdopodobieństwo zdarzenia losowego oznacza względną częstotliwość występowania wyniku eksperymentu, gdy eksperyment jest powtarzany w nieskończoność. Ta interpretacja uważa prawdopodobieństwo za względną częstotliwość „w dłuższej perspektywie” wyników. Modyfikacją tego jest prawdopodobieństwo skłonności , które interpretuje prawdopodobieństwo jako tendencję jakiegoś eksperymentu do uzyskania określonego wyniku, nawet jeśli jest on wykonywany tylko raz.
  • Subiektywiści przypisują liczby według subiektywnego prawdopodobieństwa, to znaczy jako stopnia przekonania. Stopień wiary został zinterpretowany jako „cena, po której kupiłbyś lub sprzedał zakład, który płaci 1 jednostkę użyteczności, jeśli E, 0 jeśli nie E”. Najpopularniejszą wersją prawdopodobieństwa subiektywnego jest prawdopodobieństwo bayesowskie , które obejmuje wiedzę ekspercką, a także dane eksperymentalne do tworzenia prawdopodobieństw. Wiedza ekspercka jest reprezentowana przez pewien (subiektywny) rozkład prawdopodobieństwa uprzedniego . Dane te są zawarte w funkcji prawdopodobieństwa . Znormalizowany iloczyn a priori i prawdopodobieństwa daje w wyniku rozkład prawdopodobieństwa a posteriori, który obejmuje wszystkie znane do tej pory informacje. Zgodnie z twierdzeniem Aumann'a, agenci bayesowscy, których wcześniejsze przekonania są podobne, skończą z podobnymi przekonaniami a posteriori. Jednak wystarczająco różne a priori mogą prowadzić do różnych wniosków, niezależnie od tego, ile informacji dzielą agenci.

Etymologia

Słowo prawdopodobieństwa wywodzi się od łacińskiego probabilitas , co może również oznaczać „ uczciwości ”, jest miarą organu o świadka w przypadku prawnego w Europie , a często skorelowane ze świadka szlachty . W pewnym sensie różni się to znacznie od współczesnego znaczenia prawdopodobieństwa , które w przeciwieństwie do tego jest miarą wagi dowodów empirycznych i wywodzi się z rozumowania indukcyjnego i wnioskowania statystycznego .

Historia

Naukowe badanie prawdopodobieństwa to współczesny rozwój matematyki . Hazard pokazuje, że przez tysiąclecia istniało zainteresowanie kwantyfikacją idei prawdopodobieństwa, ale dokładne opisy matematyczne pojawiły się znacznie później. Istnieją powody powolnego rozwoju matematyki prawdopodobieństwa. Podczas gdy gry losowe stanowiły bodziec do matematycznego badania prawdopodobieństwa, podstawowe kwestie są nadal przesłonięte przesądami hazardzistów.

Według Richarda Jeffreya „Przed połową siedemnastego wieku termin „prawdopodobny” (łac. probabilis ) oznaczał akceptowalne i był stosowany w tym sensie jednoznacznie do opinii i do działania. Prawdopodobne działanie lub opinia to takie, jak rozsądni ludzie podejmowaliby się lub trzymali, w danych okolicznościach”. Jednak szczególnie w kontekstach prawnych „prawdopodobne” może również dotyczyć propozycji, co do których istniały przekonujące dowody.

Gerolamo Cardano (XVI wiek)
Christiaan Huygens opublikował jedną z pierwszych książek o prawdopodobieństwie (XVII w.)

Szesnastowieczny włoski erudyta Gerolamo Cardano wykazał skuteczność definiowania szans jako stosunku wyników korzystnych do niekorzystnych (co oznacza, że ​​prawdopodobieństwo zdarzenia jest określone przez stosunek wyników korzystnych do całkowitej liczby możliwych wyników). Poza podstawową pracą Cardano, doktryna prawdopodobieństw pochodzi z korespondencji Pierre'a de Fermata i Blaise'a Pascala (1654). Christiaan Huygens (1657) podał najwcześniejsze znane naukowe podejście do tego tematu. Jakoba Bernoulliego jest Ars Conjectandi (pośmiertnego, 1713) i Abraham de Moivre jest Nauki szans (1718) obróbkę przedmiotu jako gałąź matematyki. Zobacz Ian Hacking „s Pojawienie Prawdopodobieństwa i Jamesa Franklina nauka przypuszczeń o historii wczesnego rozwoju samego pojęcia matematycznego prawdopodobieństwa.

Teoria błędów może być wstecz do Roger Cotes „s Opera Miscellanea (pośmiertnie, 1722), ale wspomnienia przygotowany przez Thomasa Simpsona w 1755 roku (druk 1756) po raz pierwszy zastosował teorię do dyskusji błędów obserwacji. Przedruk (1757) tego pamiętnika podaje aksjomaty, zgodnie z którymi błędy dodatnie i ujemne są jednakowo prawdopodobne, oraz że pewne przypisywalne granice określają zakres wszystkich błędów. Simpson omawia również błędy ciągłe i opisuje krzywą prawdopodobieństwa.

Pierwsze dwa prawa błędu, które zostały zaproponowane, pochodzą od Pierre-Simon Laplace . Pierwsza ustawa została opublikowana w 1774 roku i stwierdzała, że ​​częstotliwość błędu może być wyrażona jako wykładnicza funkcja liczbowej wielkości błędu – bez względu na znak. Drugie prawo błędu zostało zaproponowane w 1778 przez Laplace'a i stwierdziło, że częstotliwość błędu jest wykładniczą funkcją kwadratu błędu. Drugie prawo błędu nazywa się rozkładem normalnym lub prawem Gaussa. „Historycznie trudno jest przypisać to prawo Gaussowi, który pomimo swojego dobrze znanego przedwczesnego rozwoju prawdopodobnie nie dokonał tego odkrycia przed ukończeniem dwóch lat”.

Daniel Bernoulli (1778) wprowadził zasadę iloczynu maksymalnego prawdopodobieństw systemu błędów współbieżnych.

Carl Friedrich Gauss

Adrien-Marie Legendre (1805) rozwinął metodę najmniejszych kwadratów i wprowadził ją w swojej Nouvelles méthodes pour la détermination des orbites des comètes ( Nowe metody wyznaczania orbit komet ). Nie znając wkładu Legendre'a, irlandzko-amerykański pisarz Robert Adrain , redaktor „The Analyst” (1808), jako pierwszy wydedukował prawo łatwości błędu:

gdzie jest stałą zależną od dokładności obserwacji i jest współczynnikiem skali zapewniającym, że pole pod krzywą wynosi 1. Podał dwa dowody, z których drugi jest zasadniczo taki sam jak John Herschel (1850). Gauss dał pierwszy dowód, który wydaje się być znany w Europie (trzeci po Adrain's) w 1809 roku. Dalsze dowody podali Laplace (1810, 1812), Gauss (1823), James Ivory (1825, 1826), Hagen (1837). ), Friedrich Bessel (1838), WF Donkin (1844, 1856) i Morgan Crofton (1870). Inni współpracownicy to Ellis (1844), De Morgan (1864), Glaisher (1872) i Giovanni Schiaparelli (1875). Dobrze znany jest wzór Petersa (1856) na r , prawdopodobny błąd pojedynczej obserwacji.

W XIX wieku autorami ogólnej teorii byli Laplace , Sylvestre Lacroix (1816), Littrow (1833), Adolphe Quetelet (1853), Richard Dedekind (1860), Helmert (1872), Hermann Laurent (1873), Liagre, Didion i Karla Pearsona . Augustus De Morgan i George Boole poprawili wykładnię teorii.

W 1906 roku Andrey Markov wprowadził pojęcie łańcuchów Markowa , które odegrały ważną rolę w teorii procesów stochastycznych i jej zastosowaniach. Nowoczesna teoria prawdopodobieństwa oparta na teorii miary została opracowana przez Andrieja Kołmogorowa w 1931 roku.

Pod względem geometrycznym wpływowi byli współtwórcy The Educational Times (Miller, Crofton, McColl, Wolstenholme, Watson i Artemas Martin ). Zobacz geometrię integralną, aby uzyskać więcej informacji.

Teoria

Podobnie jak inne teorie , teoria prawdopodobieństwa jest reprezentacją swoich pojęć w terminach formalnych, to znaczy w terminach, które można rozpatrywać oddzielnie od ich znaczenia. Te formalne terminy są manipulowane przez reguły matematyki i logiki, a wszelkie wyniki są interpretowane lub przekładane z powrotem na dziedzinę problemową.

Były co najmniej dwie udane próby sformalizowania prawdopodobieństwa, mianowicie sformułowanie Kołmogorowa i sformułowanie Coxa . W ujęciu Kołmogorowa (patrz także przestrzeń prawdopodobieństwa ) zbiory są interpretowane jako zdarzenia, a prawdopodobieństwo jako miara klasy zbiorów. W twierdzeniu Coxa prawdopodobieństwo jest traktowane jako element pierwotny (tj. nie jest dalej analizowany), a nacisk kładzie się na skonstruowanie spójnego przypisania wartości prawdopodobieństwa do zdań. W obu przypadkach prawa prawdopodobieństwa są takie same, z wyjątkiem szczegółów technicznych.

Istnieją inne metody ilościowego określania niepewności, takie jak teoria Dempstera-Shafera lub teoria możliwości , ale są one zasadniczo różne i nie są zgodne z zwykle rozumianymi prawami prawdopodobieństwa.

Aplikacje

Teoria prawdopodobieństwa jest stosowana w życiu codziennym w ocenie i modelowaniu ryzyka . Branża i rynki ubezpieczeniowe wykorzystują nauki aktuarialne do ustalania cen i podejmowania decyzji handlowych. Rządy stosują metody probabilistyczne w regulacji ochrony środowiska , analizie uprawnień i regulacji finansowej .

Przykładem zastosowania teorii prawdopodobieństwa w obrocie akcjami jest wpływ postrzeganego prawdopodobieństwa jakiegokolwiek szeroko zakrojonego konfliktu na Bliskim Wschodzie na ceny ropy, które mają wpływ na całą gospodarkę. Ocena handlowca towarowego, że wojna jest bardziej prawdopodobna, może spowodować wzrost lub spadek cen tego towaru i zasygnalizować innym handlowcom taką opinię. W związku z tym prawdopodobieństwa nie są oceniane niezależnie ani niekoniecznie racjonalnie. Pojawiła się teoria finansów behawioralnych , aby opisać wpływ takiego myślenia grupowego na ustalanie cen, politykę oraz na pokój i konflikt.

Oprócz oceny finansowej, prawdopodobieństwo można wykorzystać do analizy trendów w biologii (np. rozprzestrzenianie się chorób) oraz w ekologii (np. biologiczne kwadraty Punneta). Podobnie jak w przypadku finansów, ocena ryzyka może być używana jako narzędzie statystyczne do obliczania prawdopodobieństwa wystąpienia niepożądanych zdarzeń i może pomóc we wdrażaniu protokołów, aby uniknąć napotkania takich okoliczności. Prawdopodobieństwo jest wykorzystywane do projektowania gier losowych , aby kasyna mogły osiągnąć gwarantowany zysk, a jednocześnie zapewniać graczom wypłaty wystarczająco częste, aby zachęcić do dalszej gry.

Innym ważnym zastosowaniem teorii prawdopodobieństwa w życiu codziennym jest rzetelność . Wiele produktów konsumenckich, takich jak samochody i elektronika użytkowa, wykorzystuje teorię niezawodności w projektowaniu produktów, aby zmniejszyć prawdopodobieństwo awarii. Prawdopodobieństwo awarii może mieć wpływ na decyzje producenta dotyczące gwarancji produktu .

Model języka pamięci podręcznej i inne statystyczne modele językowe wykorzystywane w przetwarzaniu języka naturalnego są również przykładami zastosowań teorii prawdopodobieństwa.

Obróbka matematyczna

Obliczanie prawdopodobieństwa (ryzyka) vs szanse

Rozważ eksperyment, który może przynieść wiele wyników. Zbiór wszystkich możliwych wyników nazywamy przestrzenią próbną eksperymentu, czasami oznaczaną jako . Zestaw potęgowy przestrzeni próbki jest tworzony przez rozważenie wszystkich różnych zbiorów możliwych wyników. Na przykład rzucanie kostką może dać sześć możliwych wyników. Jeden zbiór możliwych wyników daje nieparzystą liczbę na kostce. Zatem podzbiór {1,3,5} jest elementem zbioru potęgowego przestrzeni próbnej rzutów kostką. Te kolekcje nazywane są „wydarzeniami”. W tym przypadku {1,3,5} jest zdarzeniem, w którym kostka padnie na jakąś nieparzystą liczbę. Jeśli wyniki, które faktycznie występują, przypadają w danym zdarzeniu, mówi się, że zdarzenie miało miejsce.

Prawdopodobieństwo to sposób na przypisanie każdemu zdarzeniu wartości od zera do jeden, przy czym wymaga się, aby na zdarzenie składały się wszystkie możliwe wyniki (w naszym przykładzie zdarzenie {1,2,3,4,5,6}) było przypisano wartość jeden. Aby kwalifikować się jako prawdopodobieństwo, przypisanie wartości musi spełniać wymóg, że dla dowolnego zbioru wzajemnie wykluczających się zdarzeń (zdarzeń bez wspólnych wyników, takich jak zdarzenia {1,6}, {3} i {2,4}) , prawdopodobieństwo wystąpienia co najmniej jednego ze zdarzeń jest określone przez sumę prawdopodobieństw wszystkich poszczególnych zdarzeń.

Że prawdopodobieństwo zdarzenia A jest napisane jak , lub . Ta matematyczna definicja prawdopodobieństwa może rozciągać się na nieskończone przestrzenie prób, a nawet niezliczone przestrzenie prób, używając pojęcia miary.

Naprzeciw lub uzupełnieniem o zdarzenie A jest zdarzenie [Nie ] (to jest zdarzenie A nie występuje), często określane jako , lub ; jego prawdopodobieństwo jest dane przez P (nie A ) = 1 − P ( A ) . Na przykład, szansa nie wyrzucenia szóstki na kostce sześciościennej wynosi 1 – (szansa na wyrzucenie szóstki) . Aby uzyskać bardziej kompleksowe leczenie, zobacz Wydarzenie uzupełniające .

Jeśli dwa zdarzenia i B występują na jednym wykonywania eksperymentu, nazywa się to przecięcie lub wspólne prawdopodobieństwo z A i B , oznaczony jako .

Niezależne wydarzenia

Jeśli dwa zdarzenia, A i Bniezależne, łączne prawdopodobieństwo wynosi

Na przykład, jeśli dwie monety zostaną odwrócone, szansa, że ​​obie będą reprezentować, wynosi .

Zdarzeń wzajemnie wykluczających

Jeśli zdarzenie A lub zdarzenie B może wystąpić, ale nigdy oba jednocześnie, to są one nazywane zdarzeniami wzajemnie wykluczającymi się.

Jeżeli dwa zdarzenia wzajemnie się wykluczają , to prawdopodobieństwo wystąpienia obu jest oznaczone jako i

Jeżeli dwa zdarzenia wzajemnie się wykluczają , to prawdopodobieństwo wystąpienia któregokolwiek z nich oznaczamy jako i

Na przykład, prawdopodobieństwo zwijania się 1 lub 2, w sześciościennej matrycy jest

Nie wykluczające się wzajemnie wydarzenia

Jeśli wydarzenia nie wykluczają się wzajemnie, to

Na przykład, podczas dobierania karty z talii kart, szansa na otrzymanie kiera lub figury (J,Q,K) (lub obu) wynosi , ponieważ wśród 52 kart talii 13 to kiery, 12 są figurami, a 3 są obie: tutaj możliwości zawarte w "3, które są obie" są zawarte w każdym z "13 kier" i "12 figur", ale należy je liczyć tylko raz.

Warunkowe prawdopodobieństwo

Prawdopodobieństwo warunkowe to prawdopodobieństwo jakiegoś zdarzenia A , przy założeniu wystąpienia innego zdarzenia B . Prawdopodobieństwo warunkowe jest zapisywanei odczytywane jako „prawdopodobieństwo A przy danym B ”. Jest zdefiniowany przez

Jeśli to jest formalnie nieokreślone przez to wyrażenie. W tym przypadku i są niezależne, ponieważ . Możliwe jest jednak określenie prawdopodobieństwa warunkowego dla niektórych zdarzeń o zerowym prawdopodobieństwie za pomocą algebry σ takich zdarzeń (takich jak te wynikające z ciągłej zmiennej losowej ).

Na przykład w torbie z 2 czerwonymi i 2 niebieskimi piłkami (łącznie 4 piłki) prawdopodobieństwo wzięcia czerwonej piłki wynosi ; jednak, gdy bierzesz drugą piłkę, prawdopodobieństwo, że będzie to piłka czerwona lub niebieska, zależy od wcześniej wziętej piłki. Na przykład, jeśli padnie czerwona piłka, prawdopodobieństwo ponownego wybrania czerwonej piłki będzie wynosić , ponieważ pozostałaby tylko 1 czerwona i 2 niebieskie kule. A jeśli wcześniej padła niebieska piłka, prawdopodobieństwo wzięcia czerwonej wyniesie .

Odwrotne prawdopodobieństwo

W teorii prawdopodobieństwa i zastosowaniach reguła Bayesa wiąże szanse zdarzenia ze zdarzeniem , przed (przed) i po (po) warunkowaniu na innym zdarzeniu . Szanse na zdarzenie to po prostu stosunek prawdopodobieństw dwóch zdarzeń. Gdy interesuje się dowolnie wiele zdarzeń , a nie tylko dwa, regułę można przeformułować tak, że a posteriori jest proporcjonalne do prawdopodobieństwa wcześniejszych czasów , gdzie symbol proporcjonalności oznacza, że ​​lewa strona jest proporcjonalna do (tj. równa się stałej razy) prawej ręki strony różne, dla ustalonej lub podanej (Lee, 2012; Bertsch McGrayne, 2012). W tej formie wraca do Laplace (1774) i Cournota (1843); patrz Fienberg (2005). Zobacz Odwrotne prawdopodobieństwo i reguła Bayesa .

Podsumowanie prawdopodobieństw

Podsumowanie prawdopodobieństw
Wydarzenie Prawdopodobieństwo
A
ani
A lub B
A i B
Dany B

Związek z losowością i prawdopodobieństwem w mechanice kwantowej

W deterministycznym wszechświecie, opartym na koncepcjach newtonowskich , nie byłoby prawdopodobieństwa, gdyby wszystkie warunki były znane ( demon Laplace'a ), (ale zdarzają się sytuacje, w których wrażliwość na warunki początkowe przekracza naszą zdolność ich pomiaru, czyli poznania). W przypadku ruletki , jeśli znana jest siła ręki i okres tej siły, liczba, na której zatrzyma się kulka, byłaby pewna (chociaż z praktycznego punktu widzenia byłoby to prawdopodobnie prawdą tylko w przypadku ruletki, które nie zostały dokładnie wypoziomowane – jak ujawniło Newtonian Casino Thomasa A. Bassa ). Zakłada to również znajomość bezwładności i tarcia koła, ciężaru, gładkości i okrągłości kuli, zmian prędkości ręki podczas skręcania i tak dalej. Opis probabilistyczny może więc być bardziej użyteczny niż mechanika Newtona do analizy wzoru wyników powtarzających się rzutów koła ruletki. Fizycy spotykają się z tą samą sytuacją w kinetycznej teorii gazów , gdzie układ, choć z zasady deterministyczny , jest tak złożony (liczba cząsteczek jest zazwyczaj rzędu wielkości stałej Avogadro 6,02 × 10 23 ), że możliwy jest tylko opis statystyczny jego właściwości.

Do opisu zjawisk kwantowych wymagana jest teoria prawdopodobieństwa . Rewolucyjnym odkryciem fizyki początku XX wieku był losowy charakter wszystkich procesów fizycznych zachodzących w skalach subatomowych i rządzonych prawami mechaniki kwantowej . Celem funkcji fali zmienia się w sposób ustalony, ale, zgodnie z interpretacją Kopenhaga , dotyczy on prawdopodobieństw obserwację, istota wyniku wyjaśnić fali funkcji załamania , gdy obserwacja jest. Jednak utrata determinizmu na rzecz instrumentalizmu nie spotkała się z powszechną aprobatą. Albert Einstein znakomicie zauważył w liście do Maxa Borna : „Jestem przekonany, że Bóg nie gra w kości”. Podobnie jak Einstein, Erwin Schrödinger , który odkrył funkcję falową, wierzył, że mechanika kwantowa jest statystycznym przybliżeniem leżącej u podstaw deterministycznej rzeczywistości . W niektórych nowoczesnych interpretacjach statystycznej mechaniki pomiaru przywoływana jest dekoherencja kwantowa, aby wyjaśnić pojawienie się subiektywnie probabilistycznych wyników eksperymentalnych.

Zobacz też

Według prawa

Uwagi

Bibliografia

Bibliografia

  • Kallenberg, O. (2005) Symetrie probabilistyczne i zasady niezmienności . Springer-Verlag, Nowy Jork. 510 s.  ISBN  0-387-25115-4
  • Kallenberg, O. (2002) Foundations of Modern Probability, wyd. Seria Springera w statystyce. 650 stron.  ISBN  0-387-95313-2
  • Olofsson, Peter (2005) Prawdopodobieństwo, statystyka i procesy stochastyczne , Wiley-Interscience. 504 s. ISBN  0-471-67969-0 .

Zewnętrzne linki