W teorii prawdopodobieństwa , Nierówność Markowa daje górna granica dla prawdopodobieństwa , że nieujemna funkcja o zmiennej losowej jest większa lub równa w pewnym pozytywnym stałej . Jej nazwa pochodzi od nazwiska rosyjskiego matematyka Andrieja Markowa , choć pojawiła się wcześniej w pracy Pafnuty Czebyszewa (nauczyciela Markowa), a wiele źródeł, zwłaszcza w analizie , określa ją jako nierówność Czebyszewa (czasami nazywając ją pierwszą nierównością Czebyszewa, podczas gdy odnosząc się do nierówności Czebyszewa jako drugiej nierówności Czebyszewa) lub nierówności Bienaymé .
Nierówność Markowa (i inne podobne nierówności) wiążą prawdopodobieństwa z oczekiwaniami i zapewniają (często luźne, ale nadal użyteczne) granice dla funkcji dystrybucji skumulowanej zmiennej losowej.
Oświadczenie
Jeśli X jest nieujemną zmienną losową i a > 0 , to prawdopodobieństwo, że X jest co najmniej a jest co najwyżej oczekiwaniem X podzielonym przez a :
Niech (gdzie ); wtedy możemy przepisać poprzednią nierówność jako
W języku teorii miary nierówność Markowa stwierdza, że jeśli ( X , Σ, μ ) jest przestrzenią miary , jest mierzalną rozszerzoną funkcją o wartościach rzeczywistych , a ε > 0 , to
Ta teoretyczna definicja miary jest czasami określana jako nierówność Czebyszewa .
Wersja rozszerzona dla monotonicznie rosnących funkcji
Jeśli φ jest monotonicznie rosnącą nieujemną funkcją dla nieujemnych liczb rzeczywistych, X jest zmienną losową, a ≥ 0 , a φ ( a ) > 0 , to
Bezpośrednim następstwem, używającym wyższych momentów X obsługiwanych przy wartościach większych niż 0, jest
Dowody
Oddzielamy przypadek, w którym przestrzeń miary jest przestrzenią prawdopodobieństwa od przypadku bardziej ogólnego, ponieważ przypadek prawdopodobieństwa jest bardziej dostępny dla ogólnego czytelnika.
Intuicja
gdzie jest większe niż 0, ponieważ rv jest nieujemne i jest większe niż ponieważ warunkowe oczekiwanie uwzględnia tylko wartości większe niż te, które może przyjąć rv .
Stąd intuicyjnie , co bezpośrednio prowadzi do .
Dowód teoretyczny prawdopodobieństwa
Metoda 1:
Z definicji oczekiwania:
Jednak X jest nieujemną zmienną losową, więc
Z tego możemy wywnioskować,
Stąd dzielenie przez pozwala nam to zobaczyć
Metoda 2:
Dla każdego zdarzenia niech będzie wskaźnikową zmienną losową , czyli jeśli występuje i nie.
Używając tej notacji, mamy jeśli zdarzenie ma miejsce i jeśli . Następnie, biorąc pod uwagę ,
co jest jasne, jeśli weźmiemy pod uwagę dwie możliwe wartości . Jeśli , to i tak . W przeciwnym razie mamy , dla którego i tak .
Ponieważ jest funkcją monotonicznie rosnącą, uwzględnienie oczekiwań po obu stronach nierówności nie może jej odwrócić. W związku z tym,
Teraz, używając liniowości oczekiwań, lewa strona tej nierówności jest taka sama jak
Tak więc mamy
a ponieważ a > 0, możemy podzielić obie strony przez a .
Dowód teorii miary
Możemy założyć, że funkcja jest nieujemna, ponieważ do równania wchodzi tylko jej wartość bezwzględna. Rozważmy teraz funkcję o wartościach rzeczywistych s na X daną przez
Następnie . Zgodnie z definicją całki Lebesgue'a
a ponieważ , obie strony można podzielić przez , uzyskując
Następstwa
Nierówność Czebyszewa
Nierówność Czebyszewa wykorzystuje wariancję do ograniczenia prawdopodobieństwa, że zmienna losowa daleko odbiega od średniej. Konkretnie,
dla dowolnego a > 0 . Tutaj Var( X ) jest wariancją X, zdefiniowaną jako:
Nierówność Czebyszewa wynika z nierówności Markowa, biorąc pod uwagę zmienną losową
i stałą, dla której czytamy nierówność Markowa
Argument ten można podsumować (gdzie „MI” wskazuje na użycie nierówności Markowa):
Inne następstwa
- Wynik „monotoniczny” można wykazać za pomocą:
- Wynik że dla nieujemnej zmiennej losowej X , kwantyl funkcja od X spełnia:
- dowód za pomocą
- Pozwolić być samosprzężonego matrycy wartościach zmiennej losowej i > 0 . Następnie
- można pokazać w podobny sposób.
Przykłady
Zakładając, że żaden dochód nie jest ujemny, nierówność Markowa pokazuje, że nie więcej niż 1/5 populacji może mieć więcej niż 5-krotność średniego dochodu.
Zobacz też
Bibliografia
Linki zewnętrzne