Wnioskowanie bayesowskie

Wnioskowanie bayesowskie (statystyka bayesowska) – metoda wnioskowania statystycznego, w której korzysta się z twierdzenia Bayesa do aktualizowania prawdopodobieństwa subiektywnego hipotez w oparciu o dotychczasowe prawdopodobieństwo oraz nowe dane. Wnioskowanie bayesowskie znajduje zastosowanie w wielu dziedzinach, takich jak badania naukowe, inżynieria, filozofia, medycyna, sport czy prawo.

Twierdzenie Bayesa

Twierdzenie Bayesa opisuje zależność pomiędzy prawdopodobieństwem warunkowym zdarzeń oraz We wnioskowaniu bayesowskim używa się następujących podstawień:

Wzór wyraża następującą zależność: prawdopodobieństwo hipotezy H w świetle danych E, odpowiada prawdopodobieństwu danych E przy założeniu hipotezy H, pomnożonemu przez dotychczasowe prawdopodobieństwo hipotezy H, i podzielonemu przez prawdopodobieństwo danych E.

Po sformułowaniu hipotezy naukowej jako modelu matematycznego możemy przy pomocy twierdzenia Bayesa wielokrotnie aktualizować nowe prawdopodobieństwo (a posteriori) tej hipotezy w świetle napływających danych i jej dotychczasowego prawdopodobieństwa (a priori). Zjawiska uważane za mało prawdopodobne a priori wymagają odpowiednio silnych dowodów, aby zmienić przekonanie badacza. Metoda ta pozwala także na dowolne określenie a priori oczekiwanych rozkładów tych parametrów modelu, które nie mają bezpośredniego znaczenia poznawczego, w celu zwiększenia szybkości i precyzji obliczeń.

Metody bayesowskie mają szereg zastosowań praktycznych – pozwalają obliczyć, z użyciem matematycznego modelu badanego zjawiska wraz z jego prawdopodobieństwem, m.in. oszacowania, prognozy i przedziały wiarygodności nieznanych parametrów, lub weryfikować hipotezy statystyczne z użyciem czynnika Bayesa.

Metoda wnioskowania bayesowskiego

Związek z metodami wnioskowania częstościowego oraz innymi podejściami

Zgodnie z argumentami Harolda Jeffreysa i Abrahama Walda, wszystkie metody wnioskowania statystycznego są szczególnym przypadkiem metod bayesowskich[1]. Podejście częstościowe (paradygmat Fishera i Neymana/Pearsona) to zbiór gotowych modeli statystycznych pasujących do wielu typowych rodzajów problemów, opartych o bardzo specyficzne założenia filozoficzne, skupione na długoterminowej kontroli błędów decyzyjnych (przede wszystkim tzw. błędy pierwszego i drugiego rodzaju). Ich właściwości są często nieintuicyjne, nie uprawniają na przykład w sensie technicznym do wyciągania wprost wniosków z wartości p na temat subiektywnego prawdopodobieństwa hipotez[2]. Podejście bayesowskie natomiast pozwala na wyciąganie takich epistemologicznych wniosków.

Prawdopodobieństwo subiektywne

Przykład użyty przez Savage (1961) ilustruje znaczenie prawdopodobieństwa subiektywnego[3]. Polecił on czytelnikom wyobrażenie sobie trzech eksperymentów statystycznych:

  1. Ekspert z dziedziny muzyki twierdzi, że jest zdolny odróżnić muzykę Haydna od Mozarta na podstawie dowolnej strony z zapisem nutowym tych kompozytorów. W dziesięciu próbach wykonuje to zadanie poprawnie za każdym razem.
  2. Kobieta, która lubi dodawać mleko do herbaty, uważa że jest w stanie rozpoznać, czy do kubka wlano najpierw herbatę czy mleko. W dziesięciu próbach, rozpoznaje to prawidłowo w każdym przypadku.
  3. Twój nietrzeźwy znajomy stwierdza, że jest w stanie przewidzieć wynik rzutu monetą. W dziesięciu próbach przeprowadzonych w celu sprawdzenia jego słów, właściwie przewiduje wszystkich dziesięć rzutów.

Ortodoksyjny, jednostronny test istotności w podejściu częstościowym w każdym powyższym eksperymencie każe odrzucić hipotezę zerową na poziomie istotności niższym niż 2−10. Daje zatem przesłanki by uznać każdy z wyników za dowód na rzecz przedstawionych twierdzeń. Jednakże w każdej kolejnej sytuacji badana hipoteza może wydawać się czytelnikowi coraz mniej wiarygodna, i wymagająca większej liczby dowodów by być przekonującą. Choć konstrukcja wszystkich tych eksperymentów jest z perspektywy statystyki identyczna, przedstawione przykłady zdaniem Savage’a demonstrują, że ludzie w praktyce stosują prawdopodobieństwo subiektywne, i przypisują każdemu twierdzeniu pewne prawdopodobieństwo a priori, które powinno być uwzględniane w procedurach wnioskowania statystycznego. Wnioskowanie bayesowskie jest jednym z rozwiązań, które na to pozwalają[4].

Formalny opis wnioskowania bayesowskiego

Definicje

  • jednostkowa obserwacja. Może to być wektor wartości.
  • parametr obserwacji, tj. Może to być wektor parametrów.
  • hiperparametr parametru, tj. Może to być wektor hiperparametrów.
  • zbiór jednostkowych obserwacji, tj.
  • nowa jednostkowa obserwacja, której rozkład ma być prognozowany.

Wnioskowanie bayesowskie

  • Rozkład a priori (in. aprioryczny, zaczątkowy) to rozkład parametrów przyjęty przed zaobserwowaniem jakichkolwiek danych, tj. Reprezentuje wiedzę z jaką badacz rozpoczyna badanie.
  • Kryterium wyboru rozkładu a priori może być niejasne. W przypadku niepewności można zastosować rozkłady nieinformacyjne, np. rozkład aprioryczny Jeffreysa lub rozkład jednostajny.
  • Rozkład z próby to rozkład obserwacji, zależnych od ich parametrów, tj. Nazywa się go również wiarygodnością, szczególnie gdy rozpatruje się ją jako funkcję parametrów, tj.
  • Wiarygodność brzegowa (nazywana też dowodem) to rozkład zaobserwowanych danych w gęstości brzegowej względem parametrów, tj.
  • Rozkład a posteriori (in. wynikowy) to rozkład parametrów po uwzględnieniu zaobserwowanych danych. Jest określany przy pomocy twierdzenia Bayesa:

Można to wyrazić słownie jako „rozkład a posteriori jest proporcjonalny do rozkładu a priori pomnożonego przez wiarygodność”, albo „rozkład a posteriori równy jest rozkładowi a priori pomnożonemu przez wiarygodność i podzielonemu przez wiarygodność brzegową”.

Prognozowanie bayesowskie

  • Rozkład prognostyczny a posteriori to rozkład nowej obserwacji w gęstości krańcowej względem rozkładu a posteriori:
  • Rozkład prognostyczny a priori to, analogicznie, rozkład nowej obserwacji w gęstości krańcowej względem rozkładu a priori:

Rezultatem prognozowania bayesowskiego nie jest punkt, ale cały rozkład prawdopodobieństwa wartości, jakie mogą przyjmować obserwacje.

Zastosowania

Metody bayesowskie są stosowane m.in. w uczeniu maszynowym i sztucznej inteligencji, klasyfikacji statystycznej (np. rozpoznawaniu spamu), badaniach naukowych czy prognozach wyborczych, medycznych lub sportowych.

Narzędzia, które pozwalają stosować statystyki bayesowskie w badaniach naukowych, to m.in. wolne i otwarte oprogramowanie takie jak język programowania R oraz zbudowany na bazie R pakiet statystyczny z graficznym interfejsem użytkownika JASP[5].

Przypisy

  1. Abraham Wald, Statistical Decision Functions, „The Annals of Mathematical Statistics”, 20 (2), 1949, s. 165–205, JSTOR2236853 [dostęp 2017-01-13].1 stycznia
  2. Jesper W. Schneider, Null hypothesis significance tests. A mix-up of two different theories: the basis for widespread confusion and numerous misinterpretations, „Scientometrics”, 102 (1), 2014, s. 411–432, DOI10.1007/s11192-014-1251-5, ISSN 0138-9130 [dostęp 2017-01-13] (ang.).
  3. Leonard J. Savage, The Foundations of Statistics Reconsidered, The Regents of the University of California, 1961 [dostęp 2017-01-13] (ang.).1 stycznia
  4. James O. Berger: Statistical Decision Theory and Bayesian Analysis. Springer Science & Business Media, 1985-08-21, s. 2. ISBN 978-0-387-96098-2. [dostęp 2017-01-13]. (ang.)
  5. JASP. Enigma Theme. [dostęp 2017-01-22].

Media użyte na tej stronie

Thomas Bayes.gif
Portrait of an unknown 19th-century Presbyterian clergyman.

Identified as Thomas Bayes (d. 1761) in Terence O'Donnell, History of Life Insurance in Its Formative Years (Chicago: American Conservation Co:, 1936), p. 335 (caption "Rev. T. Bayes: Improver of the Columnar Method developed by Barrett.")

Again reprinted in Stephen M. Stigler, Springer Statistics Calendar 1981 (Springer-Verlag, New York, 1980).

A challenge "Who Is this gentleman? When and where was he born?" was published in IMS Bulletin, Vol. 17, No. 1, January/February 1988, page 49. The results were published in IMS Bulletin, Vol. 17 (1988), No. 3, pp. 276–278.[1]

David R. Bellhouse of University of Western Ontario in a reply argued that the man depicted being Thomas Bayes is unlikely, as

"The first thing to note in this picture is the apparent absence of a wig, or if a wig is present, it is definitely the wrong style for the period. [...] The second thing to note is that Bayes appears to be wearing a clerical gown like his father or a larger frock coat with a high collar [...] the gown is not in style for Bayes's generation and the frock coat with a large collar is definitely anachronistic. [...] For reference, I have used C. Willett Cunnington and P. Cunnington, Handbook of English Costume in the Eighteenth Century, pub. Faber & Faber, London, 1964."

Bellhouse compared pictures of other nonconformist ministers, that of Thomas Bayes' father Joshua Bayes (d. 1746), and that of Richard Price (1776).

Compare File:Philip Doddridge.jpg for the portrait of a nonconformist minister of Thomas Bayes' generation (dated 1751).

Stephen M. Stigler of University of Chicago, USA, wrote that it is possible that O'Donnell (1936) "got the picture from some (perhaps 19th century) source where it was identified as Bayes. The question would then be: 'What is that source, and what was that source’s source?' So little is said of Bayes in O’Donnell’s book that it is extremely implausible that he would choose him (and Thomas Simpson, who is also depicted in a similar style) as the subject for an invented picture."