Prawdopodobieństwo
Prawdopodobieństwo – w znaczeniu potocznym, szansa na wystąpienie jakiegoś zdarzenia[1], natomiast w matematycznej teorii prawdopodobieństwa, rodzina miar służących do opisu częstości lub pewności tego zdarzenia.
W rozumieniu potocznym wyraz „prawdopodobieństwo” odnosi się do oczekiwania względem rezultatu zdarzenia, którego wynik nie jest znany (niezależnie od tego, czy jest ono w jakimś sensie zdeterminowane, miało miejsce w przeszłości, czy dopiero się wydarzy); w ogólności należy je rozumieć jako pewną miarę przewidywalności bądź pewności względem zjawiska (przy danej o nim wiedzy), co umożliwia ocenę potencjalnie związanego z nim ryzyka.
Prawdopodobieństwo w sensie matematycznym służy do modelowania doświadczeń losowych poprzez przypisanie poszczególnym zdarzeniom losowym liczb, zwykle z przedziału jednostkowego (często wyrażanych procentowo: od 0 do 100%), wskazujących szanse ich zajścia.
Istnieje wiele matematycznych interpretacji pojęcia prawdopodobieństwa[2], między innymi tzw.[3]:
- obiektywne (częstościowe), jako obiektywną częstość zdarzenia w dużej liczbie prób losowych,
- subiektywne (bayesowskie, od nazwiska T. Bayesa), jako reprezentację subiektywnej pewności, w oparciu o dotychczasową wiedzę i zaobserwowane dane.
Innym przykładem interpretacji jest prawdopodobieństwo skłonnościowe Karla Raimunda Poppera[4][5].
Teoria prawdopodobieństwa, nazywana również rachunkiem prawdopodobieństwa, jest ugruntowanym działem matematyki, który wyrósł z rozważań dotyczących gier losowych w XVII wieku i został sformalizowany oraz zaksjomatyzowany jako osobna dziedzina matematyki na początku XX wieku. Z punktu widzenia filozofii matematyki w swojej aksjomatycznej postaci twierdzenia matematyczne dotyczące teorii prawdopodobieństwa niosą ze sobą tę samą pewność epistemologiczną, co wszystkie inne twierdzenia matematyczne. Inną aksjomatyzację pojęcia prawdopodobieństwa w duchu bayesowskiego obiektywizmu podał Richard Threlkeld Cox, która przedstawiana jest często w postaci twierdzenia Coxa.
Rys historyczny
Początków rachunku prawdopodobieństwa należy upatrywać w hazardzie: obserwacja różnego rodzaju gier losowych doprowadziła do sformułowania pierwszych stwierdzeń i wniosków natury formalnej dotyczących możliwości i szans zajścia zdarzeń. Pierwsze ścisłe uwagi dotyczące prawdopodobieństwa wymieniali ze sobą w swojej korespondencji (1654) Pierre de Fermat i Blaise Pascal, stymulowani przez pytania Kawalera de Méré. Z kolei Christiaan Huygens (1657) jako pierwszy opisał zagadnienie z naukowego punktu widzenia. Jakob Bernoulli w swoim dziele Ars Conjectandi (pośmiertnie, 1713) i Abraham de Moivre w Doctrine of Chances (1718) traktują przedmiot jako dział matematyki.
To podejście doprowadziło do sformułowania przez Pierre’a Simona de Laplace’a klasycznej definicji prawdopodobieństwa (1812). Mimo tego, iż tłumaczyła ona wiele interesujących wtedy zagorzałych graczy zjawisk, a ponadto dawała poprawne odpowiedzi, to zawiera ona zasadniczy błąd logiczny. Odwołuje się ona do możliwości wyodrębnienia tzw. zdarzeń elementarnych, które mają być „jednakowo możliwe”, czyli „jednakowo prawdopodobne” – definiens odwołuje się do definiendum, jest to więc przykład błędnego koła w definiowaniu.
Pewnym rozwiązaniem bolączek definicji klasycznej była przedstawiona przez Georges’a-Louisa Leclerca, hrabiego Buffon definicja geometryczna (1733), która umożliwiała badanie prawdopodobieństw zdarzeń nieskończonych w oparciu o przypisanie im miar podzbiorów w zbiorze miary jednostkowej, np. długości sum odcinków leżących w odcinku jednostkowym, czy pól powierzchni figur zawartych w kwadracie o jednostkowym polu (zob. igła Buffona). Przy badaniu tej definicji Joseph Louis François Bertrand zauważył paradoksalny problem opisywany dzisiaj jego nazwiskiem, tzw. paradoks Bertranda, który jest w istocie pytaniem o właściwy dobór metody określania prawdopodobieństwa – to właśnie tego rodzaju paradoksom miały zapobiegać interpretacje częstotliwościowa i subiektywistyczna.
Definicja Laplace’a nie może też być stosowana w przypadku (potencjalnie) nieskończenie długich ciągów zdarzeń. Z problemem tym próbowano sobie poradzić na kilka sposobów. Jednym z nich była tzw. definicja częstotliwościowa Richarda von Misesa (1931), który zaproponował zdefiniowanie prawdopodobieństwa jako granicę ciągu częstości serii zdarzeń, czyli niejako ekstrapolowanie uzyskiwanych rezultatów doświadczalnych na przypadek nieskończony. Definicja ta również jest uważana za błędną, gdyż nie mówi ona nic o warunkach istnienia wspomnianej granicy; formalizacją tej zgodnej z intuicją definicji są różnorodne wersje prawa wielkich liczb.
Definicja geometryczna okazała się niejako najlepszym z powyższych pomysłów, gdyż korzystając z nowo powstałej teorii miary i teorii całkowania opracowanej przez Henriego Léona Lebesgue’a uogólniających pojęcia długości, pola powierzchni i objętości, Andriej Nikołajewicz Kołmogorow (1933) podał pierwszą aksjomatyczną definicję prawdopodobieństwa, która została szeroko przyjęta jako właściwe określenie tego pojęcia. Z tego punktu widzenia paradoks Bertranda jest źle zaadresowanym pytaniem: definicja Kołmogorowa nie rozstrzyga, który z modeli jest lepszy, lecz umożliwia wyznaczenie prawdopodobieństwa zgodnie z wybranym; pewne rozwiązanie paradoksu przedstawił Edwin Thompson Jaynes.
Alternatywnym do wspomnianej wyżej aksjomatyzacji sposobem wprowadzania formalnej teorii prawdopodobieństwa może być algebraiczna aksjomatyzacja zwana algebrą zmiennych losowych opisana przez Melvina Dale’a Springera w 1977 roku, choć nie jest to jedyna możliwość.
Definicje
Definicja Laplace’a
Niech dany będzie skończony zbiór wszystkich możliwych zdarzeń elementarnych; dowolny podzbiór zbioru nazywa się wtedy zdarzeniem[a].
Prawdopodobieństwem zajścia zdarzenia nazywa się stosunek liczby zdarzeń elementarnych sprzyjających zdarzeniu do liczby wszystkich możliwych zdarzeń elementarnych należących do zbioru Definicja ta zakłada więc nie wprost, iż wszystkie zdarzenia elementarne wzajemnie się wykluczają, a ich wystąpienia równie możliwe. Innymi słowy prawdopodobieństwo zajścia zdarzenia to liczba
gdzie oznacza liczbę wszystkich elementów danego zbioru.
Definicja Buffona
Niżej przedstawiona definicja w przypadku jednowymiarowym (dla podzbiorów na prostej), jednak uogólnia się ona wprost na przypadek dwu- oraz trójwymiarowy (płaszczyzna i pole powierzchni). Nomenklatura nie odbiega od przyjętej wyżej w definicji klasycznej i częstotliwościowej.
Niech oznacza podzbiór prostej, przy czym
- może być to zbiór nieskończony (tzn. może posiadać nieskończenie wiele elementów, np. odcinek na prostej),
- musi być ograniczony, tzn. musi mieć skończoną długość
W ten sposób zdarzenia będą mieć skończoną miarę[b].
Jeżeli przyjąć, że oznacza sumę długości wszystkich rozłącznych odcinków składających się na dany zbiór, to prawdopodobieństwo można określić, zupełnie jak w definicji klasycznej, wzorem
Definicja von Misesa
Definicja częstościowa (in. częstotliwościowa), sformułowana przez Richarda von Misesa, oparta jest na definicji Laplace’a, z tym iż może być dowolnym (niekoniecznie skończonym) zbiorem. Liczbę zdarzeń elementarnych sprzyjających zdarzeniu w doświadczeniach (próbach) oznacza się iloraz nazywa się częstością zdarzenia
Prawdopodobieństwem zdarzenia nazywa się wtedy liczbę będącą granicą ciągu częstości przy liczbie prób rosnącej do nieskończoności, tzn.
Definicja ta stanowi podstawę wnioskowania częstościowego w statystyce, rozwijanego m.in. przez Ronalda Fishera.
Definicja Kołmogorowa
Jedynym niedostatkiem definicji Buffona było nieprecyzyjne określenie zdarzeń, którym można przypisać prawdopodobieństwo: nie było jasne, jaką postać mogą przyjmować zbiory odpowiadające zdarzeniom, a przez to, czy możliwe jest wskazanie ich długości[c]. Kluczem było wyraźne podanie założeń:
- zdarzenia elementarne muszą być elementami tzw. sigma-ciała, utworzonego na danym zbiorze zdarzeń
- potrzeba określić miarę na zbiorach sigma-ciała – np. w postaci miary Lebesgue’a i całki Lebesgue’a[d].
Niech dany będzie pewien zbiór zdarzeń elementarnych. Prawdopodobieństwem nazywa się dowolną funkcję przypisującą zdarzeniom wartości z przedziału jednostkowego, dla której oraz dla dowolnego przeliczalnego ciągu zdarzeń parami wykluczających się[e]. Zdarzenia nie są dowolnymi podzbiorami zbioru czyli elementami rodziny wszystkich podzbiorów zbioru lecz elementami rodziny która tworzy (w domyśle: jak największą) niepustą rodzinę zdarzeń w która jest zamknięta na branie zdarzeń przeciwnych i przeliczalnych alternatyw zdarzeń (intuicyjnie: dla każdego zdarzenia istnieje zdarzenie będące jego negacją, a dla dowolnej, co najwyżej przeliczalnej, liczby zdarzeń istnieje zdarzenie będące ich alternatywą)[f][g]. Zrezygnowanie z możliwości określenia prawdopodobieństwa dla wszystkich zdarzeń wynika z problemów formalnych pojawiających się podczas rozpatrywania dość „patologicznych” ich przypadków[h].
Definicja Springera
Algebra zmiennych losowych – wychodząc nie od zdarzeń, lecz od zmiennych losowych – umożliwia rachunki symboliczne ułatwiające znajdowanie rozkładów prawdopodobieństwa, wartości oczekiwanych, wariancji, kowariancji itp. dla sum, iloczynów, czy ogólniejszych funkcji zmiennych losowych. Rozkłady prawdopodobieństwa wyznaczone są poprzez przypisanie wartości oczekiwanej każdej zmiennej losowej; przestrzeń mierzalna i miara prawdopodobieństwa z kolei powstają jako wynik zastosowania ugruntowanych twierdzeń reprezentacyjnych analizy[i]. Ponadto podejście to nie czyni formalizacji nieskończeniewymiarowych rozkładów prawdopodobieństwa trudniejszymi niż skończeniewymiarowych.
O zmiennych losowych[j] zakłada się, iż mają następujące własności:
- stałe zespolone są zmiennymi losowymi,
- suma i iloczyn dwóch zmiennych losowych są zmiennymi losowymi,
- dodawanie i mnożenie zmiennych losowych są przemienne,
- istnieje działanie sprzężenia zmiennych losowych, które dla wszystkich zmiennych losowych jest:
- funktorialne, czyli spełnia
- inwolutywne, a więc
- przy czym pokrywa się ono ze sprzężeniem zespolonym w przypadku stałych.
Powyższe warunki czynią ze zmiennych losowych przemienną *-algebrę zespoloną. Samosprzężoną zmienną losową tj. spełniającą nazywa się rzeczywistą. Operator wartości oczekiwanej na wspomnianej algebrze definiuje się jako znormalizowaną, dodatnią formę liniową, tzn.
- gdzie oznacza stałą,
- dla dowolnej zmiennej losowej [k],
- dla wszystkich zmiennych losowych
- o ile jest stałą.
Tak zdefiniowaną strukturę można uogólniać, opuszczając przykładowo warunek przemienności, co prowadzi do innych dziedzin prawdopodobieństwa nieprzemiennego, jak np. prawdopodobieństwo kwantowe, teoria macierzy losowych, czy wolne prawdopodobieństwo.
Definicja bayesowska
Prawdopodobieństwo w ujęciu bayesowskim (subiektywnym), również wywodzi się z definicji Laplace’a, i za Jaynesem, opiera się o rozszerzenie logicznego rachunku zdań o teorię prawdopodobieństwa, jako pomost między rozumowaniem dedukcyjnym a indukcyjnym[6].
Prawdopodobieństwo jest w tym przypadku interpretowane jako miara pewności, jaką można przypisać różnym hipotezom – modelowanej matematycznie jako rozkład prawdopodobieństwa.
Bayesowska interpretacja prawdopodobieństwa stanowi podstawę wnioskowania bayesowskiego w statystyce.
Przykłady
Przyjmując, iż rzut monetą może zakończyć się wyłącznie na dwa sposoby[l]: wyrzuceniem orła albo reszki [m], to zakładając, że te dwa zdarzenia elementarne są równie prawdopodobne można skorzystać z klasycznej definicji prawdopodobieństwa. Wtedy jest dwuelementowy, zatem Ponadto tak zdarzenie jak i zdarzenie są zbiorami jednoelementowymi, tzn. dla lub co oznacza, że prawdopodobieństwo wyrzucenia tak orła, jak i reszki wynosi czyli iż zdarzenia te istotnie są równie prawdopodobne. W przypadku rzutu dwoma monetami przestrzeń zdarzeń elementarnych jest czteroelementowa, podczas gdy każde ze zdarzeń można uzyskać tylko na jeden sposób, skąd Z kolei prawdopodobieństwo zdarzenia polegającego na wyrzuceniu co najmniej jednego orła wynosi gdyż zdarzeniu sprzyjają zdarzenia elementarne
Wykonując doświadczenie polegające na stukrotnym rzucie monetą, można uzyskać orła w przypadkach, zaś w tysiąckrotnym – przykładowo rzutów zakończyło się wyrzuceniem orła. Oznacza to, że częstość wypadania orła była zmienna i wynosiła odpowiednio oraz Kontynuowanie w nieskończoność doświadczenia przekonałoby niezbicie eksperymentatora, iż moneta jest symetryczna, w przypadku gdy równo połowa rzutów zakończyłaby się wyrzuceniem orła, bądź wprost przeciwnie, gdyby ostateczny wynik nie podzieliłby się równo między orła i reszkę. Intuicję tę próbuje oddać definicja von Misesa: stosunek liczby wyrzuconych orłów do liczby wszystkich prób przy kontynuowaniu doświadczenia w nieskończoność – jeżeli to moneta będzie symetryczna. Tego rodzaju rozumowanie rodzi problemy natury poznawczej: prawdopodobieństwo dane jest a posteriori, a nie a priori, co uniemożliwia jakiekolwiek przewidywanie szans zajścia zdarzenia.
Wyrzucenie symetryczną monetą razy z rzędu reszki nie oznacza bynajmniej, że bardziej prawdopodobne będzie wyrzucenie w rzucie orła (tzw. „prawo serii”[7]), czy też reszki (przełamanie serii[n]). Z drugiej strony czy wyrzuciwszy razy reszkę w rzutach można mieć uzasadnione zastrzeżenia co do symetryczności monety, tzn. czy istotnie w każdym rzucie prawdopodobieństwo wyrzucenia orła wynosi ?
Prawdopodobieństwo losowego[o] wybrania punktu z przedziału zawartego w przedziale oznaczanego jako zdarzenie jest równe stosunkowi możliwości wybrania punktu z pierwszego przedziału do wybrania punktu z drugiego, przy czym szanse te są intuicyjnie proporcjonalne do ich długości. Skoro długość przedziału wynosi to geometryczne prawdopodobieństwo zdarzenia wynosi
Doświadczenie losowego rzucania monetą w nieskończoność można sformalizować za Kołmogorowem przy pomocy przestrzeni probabilistycznej: wynikiem doświadczenia jest losowy ciąg elementów oznaczających dwa możliwe wyniki pojedynczej próby, tzn. [p]. Zdarzeniami są dowolne ciągi skończone tych elementów[q]: istotnie, zbiór wszystkich tego rodzaju ciągów spełnia definicję rodziny ze sformułowania Kołmogorowa[r]. Nieskończone ciągi złożone z elementów nie są więc uważane za zdarzenia.
Jeżeli prawdopodobieństwo wylosowania orła i reszki w jednym rzucie wynosi odpowiednio oraz (gdzie wyżej przyjmowano )[s] to na przestrzeni zdarzeń [r] można określić miarę prawdopodobieństwa zgodnie z aksjomatami Kołmogorowa w następujący sposób: prawdopodobieństwo zaobserwowania danego ciągu [t] jest dane wzorem gdzie są odpowiednio liczbami wystąpień oraz w ciągu[u]. Przy takim sformułowaniu prawdopodobieństwo wylosowania nieskończenie długiego ciągu zdarzeń jest równe zeru, gdyż granica ciągu dąży do zera wraz z dążącym do nieskończoności (ze względu na ograniczenie ); innymi słowy jest ono zaniedbywalne[v]. Okazuje się więc, że nieskończone ciągi rzutów monetą nie są konieczne do rozpatrywania tego doświadczenia i to właśnie jest powodem wykluczenia ich z rodziny wszystkich zdarzeń[w]. Niemniej nadal można powiedzieć, że niektóre rodzaje nieskończonych ciągów rzutów są dużo bardziej prawdopodobne od innych, o czym mówi asymptotyczna zasada ekwipartycji[8][9].
Powyższy model można również oprzeć na definicji geometrycznej, rozważając przedział jednostkowy: wynik pierwszego rzutu odpowiada lewemu (orzeł) lub prawemu (reszka) podprzedziałowi[x], a kolejne rzuty – kolejnym podprzedziałom poprzednio wybranych podprzedziałów wybieranym jak przy pierwszym rzucie; nieskończone ciągi odpowiadają punktom, które mają zerową długość, czyli są zaniedbywalne zupełnie jak miało to miejsce w poprzednim przypadku.
Zobacz też
- prawdopodobieństwa: obiektywne, subiektywne
- prawdopodobieństwo warunkowe
- statystyka,
- teoria prawdopodobieństwa,
- twierdzenie Bayesa
Uwagi
- ↑ Być może lepsze są nazwy, w których brak wyrazu „zdarzenie”, np. „możliwość”, „przypadek”, czy „wynik”, gdyż nie prowadzą one do błędnego przeświadczenia, iż zdarzenia elementarne są zdarzeniami (zdarzenia elementarne, jako elementy, składają się na zdarzenia, które są zbiorami; zob. zbiór i podzbiór). Chcąc uzyskać zdarzenie, które zawierałoby wyłącznie wybrane zdarzenie elementarne należy wziąć zbiór jednoelementowy
- ↑ W istocie wymaga się tu bardziej możliwości określenia długości, która ma być skończona. W domyśle przyjmuje się, że jest ona określana za pomocą tzw. miary Jordana, o ile nie zostanie zaznaczone wyraźnie inaczej; zob. kolejną sekcję.
- ↑ Przykładowo problematyczny jest zbiór liczb wymiernych należących do odcinka jednostkowego. Zgodnie z definicją miary Jordana na prostej mierzenie tego zbioru odbywa się poprzez wypełnienie go „od dołu” i pokrycie „od góry” skończoną liczbą odcinków o ustalonej długości. Z jednej strony „pokrycie od góry” tego nieskończonego zbioru zawsze prowadzi do pokrycia nimi całego odcinka jednostkowego, gdyż punkty wymierne są na nim gęsto rozmieszczone, a więc zbiór ten ma jednostkową miarę zewnętrzną; z drugiej strony punkty niewymierne również są na nim gęsto rozmieszczone, co oznacza, że dopełnienie mierzonego zbioru również pokrywa w całości odcinek jednostkowy – „wypełnienie od dołu” będące różnicą miary całego odcinka i miary dopełnienia ma więc miarę zerową. Miara zbioru liczb wymiernych na odcinku jednostkowy w sensie Jordana jest więc nieokreślona, choć intuicyjnie zbiór ten powinien mieć miarę zerową, gdyż jest tylko przeliczalny w przeciwieństwie do jego dopełnienia.
- ↑ Podana niżej definicja przenosi się niemal bez zmian na algebry Boole’a.
- ↑ Zob. ciąg zbiorów.
- ↑ W szczególności rodzina może pokrywać się z co ma np. miejsce w przypadku przeliczalnym i skończonym; uogólnia ona więc wszystkie poprzednie definicje.
- ↑ Rodzinę o podanych własnościach nazywa się σ-ciałem podzbiorów zbioru
- ↑ W przestrzeni euklidesowej istnieją zbiory, np. zbiór Vitalego, dla których określenie ich miary Lebesgue’a jest niemożliwe; rozpatrywanie σ-ciała wyklucza tego rodzaju zbiory z dyskursu, dając przy tym wystarczająco bogaty zestaw zbiorów mierzalnych użyteczny do wszelkich zastosowań; ponieważ konstrukcja zbiorów niemierzalnych wymaga użycia szczególnych środków (aksjomat wyboru), bywa, iż w popularnym ujęciu pomija się te dywagacje, de facto rozmywając precyzję definicji Kołmogorowa do nieformalnej definicji Buffona.
- ↑ W gruncie rzeczy chodzi przede wszystkim o konstrukcję Gelfanda-Najmarka-Segala.
- ↑ Aby uzyskać wystarczający stopień ogólności można ograniczyć się do przestrzeni określonych na zbiorze zmiennych losowych o wszystkich momentach skończonych. Klasa ta jest zamknięta ze względu na mnożenie (zob. dalej) i wszystkie jej elementy mają skończony ślad (lub wartość oczekiwaną). Można by ograniczyć się dalej, do przestrzeni (istotnie) ograniczonych zmiennych losowych (zob. przestrzenie Lebesgue’a), ale traci się w ten sposób traci ważne przykłady zmiennych losowych, w szczególności zmienne gaussowskie. Wybór oznacza jednak rezygnację z jakiejś części struktury analitycznej, w szczególności w przeciwieństwie do wskazana przestrzeń nie jest Banacha, jednakże w przypadku podejścia algebraicznego wydaje się to być rozsądną ceną.
- ↑ W języku algebr von Neumanna warunek ten (wraz z będącym odpowiednikiem unormowania prawdopodobieństwa Kołmogorowa) oznacza, że jest stanem.
- ↑ Rozpatrywana jest więc próba Bernoulliego.
- ↑ Zob. awers i rewers.
- ↑ Zob. paradoks hazardzisty i odwrotny paradoks hazardzisty.
- ↑ W tym momencie nie jest jasne co właściwie oznacza termin „losowo”: w ujęciu Kołmogorowa oznaczałoby to w tym przykładzie „zgodnie z rozkładem jednostajnym”.
- ↑ Zbiór jest w istocie przeliczalnym iloczynem prostym Rozpatruje się też wersję „dwustronną”
- ↑ Na zbiorze istnieje naturalna topologia nazywana topologią iloczynową; jej elementami są skończone ciągi elementów – pozostałe (nieskończone) ciągi można uważać w niej za nieistotne. Zbiory ciągów skończonych są nazywane zbiorami cylindrycznymi w tej topologii.
- ↑ a b Chodzi tu o σ-ciało, mianowicie σ-ciało borelowskie.
- ↑ Oznacza to, że próby Bernoulliego mają rozkład dwupunktowy z prawdopodobieństwami oraz
- ↑ Formalnie jest ciągiem gdzie wspomniana notacja jest używana w celu zachowania spójności z poprzednimi przykładami. Można ją sformalizować przyjmując, że zdarzenia opisywane są przez słowa nad alfabetem (zob. język formalny).
- ↑ Wspomnianą miarę, która jest miarą iloczynową, nazywa się niekiedy „miarą Bernoulliego”; samo doświadczenie losowe nazywa się procesem Bernoulliego.
- ↑ To znaczy jest ono miary zero.
- ↑ Jest to najuboższa topologia umożliwiająca opis procesu Bernoulliego, bogatsze topologie zezwalające na rozpatrywanie ciągów nieskończonych mogą prowadzić do pewnych nieporozumień, czy paradoksów; zob. silna topologia.
- ↑ Lewy podprzedział oznacza podprzedział o wartościach bliższych zerach, prawy – o wartościach bliższych jedności.
Przypisy
- ↑ prawdopodobieństwo – Słownik języka polskiego PWN, sjp.pwn.pl [dostęp 2017-02-23] (pol.).
- ↑ Prawdopodobieństwo, [w:] Encyklopedia PWN [online] [dostęp 2021-07-22] .
- ↑ Hájek 2011 ↓.
- ↑ Wojciech Załuski. O Karla R. Poppera skłonnościowej interpretacji prawdopodobieństwa. „Semina Scientiarum”, 2002.
- ↑ Załuski, Wojciech Zbigniew: Skłonnościowa interpretacja prawdopodobieństwa. Ośrodek Badań Interdyscyplinarnych przy Wydziale Filozoficznym Papieskiej Akademii Teologicznej, 2008. (pol.)
- ↑ E.T. Jaynes , Bayesian Methods: General Background, s. 1–25, DOI: 10.1017/cbo9780511569678.003 [dostęp 2017-02-23] (ang.).
- ↑ Tomasz Downarowicz: Prawo serii w ujęciu matematycznym. 12 stycznia 2011.
- ↑ Marek Czachor: Wstęp do teorii informacji: Wykład 8. 29 listopada 2011.
- ↑ Tadeusz Inglot: Teoria informacji a statystyka matematyczna. 3–7 grudnia 2012.
Bibliografia
- Alan Hájek , Interpretations of Probability, Edward N. Zalta (red.), [w:] Stanford Encyclopedia of Philosophy [online], Winter 2017 Edition, Metaphysics Research Lab, Stanford University, 19 grudnia 2011, ISSN 095-5054 [dostęp 2017-02-23] [zarchiwizowane z adresu 2017-12-21] (ang.). (Interpretacje prawdopodobieństwa)
Media użyte na tej stronie
Rysunek do przykładu o prawdopodobieństwe geometrycznym