Nierówność Czebyszewa - Chebyshev's inequality

W teorii prawdopodobieństwa , Nierówność Czebyszewa (zwany także nierówność Bienaymé-Czebyszewa ) gwarantuje, że dla szerokiej klasy rozkładów prawdopodobieństwa , nie więcej niż pewien ułamek wartości może być więcej niż w pewnej odległości od średniej . W szczególności nie więcej niż 1/ k 2 wartości rozkładu może być k lub więcej odchyleń standardowych od średniej (lub równoważnie, ponad 1 − 1/ k 2 wartości rozkładu jest mniej niż k odchyleń standardowych od średniej) . Zasada jest często nazywana twierdzeniem Czebyszewa, o zakresie odchyleń standardowych wokół średniej w statystyce. Nierówność ma dużą użyteczność, ponieważ można ją zastosować do dowolnego rozkładu prawdopodobieństwa, w którym zdefiniowana jest średnia i wariancja. Na przykład może być użyty do udowodnienia słabego prawa wielkich liczb .

Jej praktyczne zastosowanie jest podobne do zasady 68-95-99,7 , która dotyczy tylko rozkładów normalnych . Nierówność Czebyszewa jest bardziej ogólna, stwierdzając, że minimum tylko 75% wartości musi leżeć w granicach dwóch odchyleń standardowych średniej i 88,89% w trzech odchyleniach standardowych dla szerokiego zakresu różnych rozkładów prawdopodobieństwa .

Termin nierówność Czebyszewa może również odnosić się do nierówności Markowa , zwłaszcza w kontekście analizy. Są one blisko spokrewnione, a niektórzy autorzy nazywają nierówność Markowa „Pierwszą nierównością Czebyszewa”, a podobną, określaną na tej stronie jako „Drugą nierówność Czebyszewa”.

Historia

Twierdzenie nosi imię rosyjskiego matematyka Pafnuty Czebyszewa , chociaż po raz pierwszy zostało sformułowane przez jego przyjaciela i koleżankę Irénée-Jules Bienaymé . Twierdzenie to zostało po raz pierwszy przedstawione bez dowodu przez Bienaymé w 1853 r., a później udowodnione przez Czebyszewa w 1867 r. Jego uczeń Andrey Markov dostarczył innego dowodu w swojej pracy doktorskiej z 1884 r. Praca dyplomowa.

Oświadczenie

Nierówność Czebyszewa jest zwykle określana dla zmiennych losowych , ale można ją uogólnić do stwierdzenia o przestrzeniach miar .

Stwierdzenie probabilistyczne

Niech X (całkowalne) będzie zmienną losową o skończonej wartości oczekiwanej μ i skończonej niezerowej wariancji σ 2 . Wtedy dla dowolnej liczby rzeczywistej k > 0 ,

Przydaje się tylko sprawa . Gdy prawa strona i nierówność są trywialne, ponieważ wszystkie prawdopodobieństwa są ≤ 1.

Na przykład użycie pokazuje, że prawdopodobieństwo, że wartości leżą poza przedziałem , nie przekracza .

Ponieważ można ją zastosować do całkowicie dowolnych rozkładów, pod warunkiem, że mają one znaną skończoną średnią i wariancję, nierówność generalnie daje słabą granicę w porównaniu z tym, co można by wywnioskować, gdyby więcej aspektów dotyczyło rozkładu.

k Min. % w granicach k
odchyleń standardowych    średniej
Maks. % powyżej k
odchyleń standardowych od średniej
1 0% 100%
2 50% 50%
1,5 55,56% 44,44%
2 75% 25%
2 2 87,5% 12,5%
3 88,8889% 11,11111%
4 93,75% 6,25%
5 96% 4%
6 97,2222% 2.7778%
7 97,9592% 2.0408%
8 98,4375% 1,5625%
9 98,7654% 1,2346%
10 99% 1%

Stwierdzenie teorii miary

Niech ( X , Σ, μ) będzie przestrzenią miary i niech f będzie rozszerzoną funkcją mierzalną o wartościach rzeczywistych zdefiniowaną na X . Wtedy dla dowolnej liczby rzeczywistej t > 0 i 0 < p < ∞,

Mówiąc bardziej ogólnie, jeśli g jest rozszerzoną mierzalną funkcją o wartościach rzeczywistych, nieujemną i nie malejącą, przy czym wtedy:

Poprzednie stwierdzenie następuje następnie poprzez zdefiniowanie tak , jak i inaczej.

Przykład

Załóżmy, że losowo wybieramy artykuł w czasopiśmie ze źródła zawierającego średnio 1000 słów na artykuł, z odchyleniem standardowym 200 słów. Możemy zatem wywnioskować, że prawdopodobieństwo, że ma od 600 do 1400 słów (tj. w granicach k  = 2 odchylenia standardowe średniej) musi wynosić co najmniej 75%, ponieważ nie ma więcej niż 1k2
= 1/4
szansa na znalezienie się poza tym zakresem, przez nierówność Czebyszewa. Ale jeśli dodatkowo wiemy, że rozkład jest normalny , możemy powiedzieć, że istnieje 75% szans, że liczba słów wynosi od 770 do 1230 (co jest jeszcze ściślejszym ograniczeniem).

Ostrość granic

Jak pokazano w powyższym przykładzie, twierdzenie zazwyczaj zapewnia raczej luźne granice. Jednak te ograniczenia nie mogą być na ogół poprawiane (pozostając prawdziwe w przypadku dowolnych rozkładów). Granice są ostre dla następującego przykładu: dla dowolnego k  ≥ 1,

Dla tego rozkładu średnia μ = 0 i odchylenie standardowe σ =1/k , więc

Nierówność Czebyszewa jest równością dokładnie dla tych rozkładów, które są transformacją liniową tego przykładu.

Dowód (w wersji dwustronnej)

Dowód probabilistyczny

Nierówność Markowa mówi, że dla dowolnej zmiennej losowej o wartości rzeczywistej Y i dowolnej liczby dodatniej a , mamy Pr(| Y | >  a ) ≤ E(| Y |)/ a . Jednym ze sposobów udowodnienia nierówności Czebyszewa jest zastosowanie nierówności Markowa do zmiennej losowej Y = ( Xμ ) 2 z a = ( ) 2 .

Można to również udowodnić bezpośrednio za pomocą warunkowego oczekiwania :

Nierówność Czebyszewa następuje następnie przez podzielenie przez k 2 σ 2 .

Dowód ten pokazuje również, dlaczego granice są dość luźne w typowych przypadkach: warunkowe oczekiwanie na zdarzenie, gdzie | X  −  μ | <  jest wyrzucane, a dolna granica k 2 σ 2 na zdarzeniu | X  −  μ | ≥  może być dość słaba.

Dowód teorii miary

Fix i niech będą zdefiniowane jako , i niech będą funkcją wskaźnika zbioru  . Wtedy łatwo jest sprawdzić, że dla każdego ,

ponieważ g nie maleje, a zatem

gdzie ostatnia nierówność jest uzasadniona nieujemnością g . Pożądana nierówność wynika z podzielenia powyższej nierówności przez  g ( t ).

Dowód zakładając, że zmienna losowa X jest ciągła

Korzystając z definicji funkcji gęstości prawdopodobieństwa f ( x ) i standardowej charakterystyki wariancji Var( X ):

mamy:

Wymiana z ε , gdzie k  =  ε / σ , mamy inną formę nierówności w Czebyszewa za:

lub odpowiednik

gdzie ε definiuje się tak samo jak k ; dowolna dodatnia liczba rzeczywista.

Rozszerzenia

Kilka rozszerzeń nierówności Czebyszewa zostało opracowanych.

Asymetryczny dwustronny

Jeśli X ma średnią μ i wariancję σ 2 , to

jeśli i , gdzie i .

Sprowadza się to do nierówności Czebyszewa w przypadku symetrycznym ( i u w równej odległości od średniej).

Uogólnienie dwuwymiarowe

Niech X 1 , X 2 będą dwiema zmiennymi losowymi o średnich odpowiednio μ 1 , μ 2 i skończonych wariancjach σ 1 , σ 2 . Potem związek pokazuje, że…

Ta granica nie wymaga X 1 i X 2 niezależne.

Dwuwymiarowa, znana korelacja

Berge wyprowadził nierówność dla dwóch skorelowanych zmiennych X 1 , X 2 . Niech ρ będzie współczynnikiem korelacji między X 1 i X 2 , a σ i 2 będzie wariancją X i . Następnie

Lal później uzyskał alternatywne wiązanie

Isii wyprowadził dalsze uogólnienie. Pozwolić

i zdefiniuj:

Obecnie są trzy przypadki.

  • Przypadek A: Jeśli i wtedy
  • Przypadek B: Jeżeli warunki w przypadku A nie są spełnione, ale k 1 k 2 ≥ 1 i
następnie
  • Przypadek C: Jeżeli żaden z warunków w przypadkach A lub B nie jest spełniony, to nie ma żadnego uniwersalnego ograniczenia innego niż 1.

Wielowymiarowy

Ogólny przypadek znany jest jako nierówność Birnbauma–Raymonda–Zuckermana od autorów, którzy udowodnili to dla dwóch wymiarów.

gdzie X i to i-ta zmienna losowa, μ i to i-ta średnia, a σ i 2 to i-ta wariancja.

Jeśli zmienne są niezależne, ta nierówność może zostać zaostrzona.

Olkin i Pratt wyprowadzili nierówność dla n skorelowanych zmiennych.

gdzie suma jest przejmowana przez n zmiennych i

gdzie ρ ij jest korelacją między X i a X j .

Nierówność Olkina i Pratta została następnie uogólniona przez Godwina.

Wektor skończenie wymiarowy

Ferentinos wykazał, że dla wektora X = ( x 1 , x 2 , ...) ze średnią μ = ( μ 1 , μ 2 , ... ) , odchylenie standardowe σ = ( σ 1 , σ 2 , ... ) i norma euklidesowa || || że

Druga powiązana nierówność została również wyprowadzona przez Chen. Niech n będzie wymiarem wektora stochastycznego X i niech E( X ) będzie średnią z X . Niech S będzie macierzą kowariancji i k > 0 . Następnie

gdzie Y , T jest transpozycją z Y . Prosty dowód uzyskano w Navarro w następujący sposób:

gdzie

i jest symetryczną macierzą odwracalną taką, że: . Stąd i gdzie reprezentuje macierz jednostkową wymiaru  n . Wtedy i

Wreszcie, stosując nierówność Markowa do Z otrzymujemy

i tak utrzymuje się pożądana nierówność.

Nierówność można zapisać w postaci odległości Mahalanobisa jako

gdzie odległość Mahalanobisa na podstawie S jest określona przez

Navarro udowodnił, że te granice są ostre, to znaczy, że są najlepszymi możliwymi granicami dla tych regionów, gdy znamy tylko średnią i macierz kowariancji X.

Stellato i in. wykazali, że tę wielowymiarową wersję nierówności Czebyszewa można łatwo wyprowadzić analitycznie jako szczególny przypadek Vandenberghe et al. gdzie granica jest obliczana przez rozwiązanie półokreślonego programu (SDP).

Nieskończone wymiary

Istnieje proste rozszerzenie wektorowej wersji nierówności Czebyszewa na ustawienia nieskończenie wymiarowe. Niech X będzie zmienną losową, która przyjmuje wartości w przestrzeni Frécheta (wyposażonej w półnormy || ⋅ || α ). Obejmuje to najczęstsze ustawienia zmiennych losowych o wartościach wektorowych, np. gdy jest to przestrzeń Banacha (wyposażona w pojedynczą normę), przestrzeń Hilberta lub ustawienie skończenie wymiarowe, jak opisano powyżej.

Załóżmy, że X jest „ silnego rzędu drugiego ”, co oznacza, że:

dla każdej półnorma || || α . Jest to uogólnienie wymagania, że X ma skończoną wariancję i jest konieczne dla tej silnej postaci nierówności Czebyszewa w nieskończonych wymiarach. Terminologia „silny porządek drugi” pochodzi od Vakhania .

Niech będzie całką Pettisa z X (tzn. wektorową uogólnieniem średniej) i niech

być odchyleniem standardowym w stosunku do półnorma || || α . W tym ustawieniu możemy stwierdzić, co następuje:

Ogólna wersja nierówności Czebyszewa.

Dowód. Dowód jest prosty i zasadniczo taki sam jak wersja skończona. Jeśli σ α = 0 , to X jest prawie na pewno stałe (i równe μ ), więc nierówność jest trywialna.

Gdyby

wtedy || Xμ || α > 0 , więc możemy bezpiecznie podzielić przez || Xμ || α . Kluczową sztuczką w nierówności Czebyszewa jest rozpoznanie tego .

Dowód uzupełniają następujące obliczenia:

Wyższe chwile

Możliwe jest również rozszerzenie na wyższe momenty:

Wykładniczy moment

Pokrewna nierówność, czasami znana jako wykładnicza nierówność Czebyszewa, to nierówność

Niech K ( t ) będzie funkcją generującą kumulanty ,

Biorąc transformacji Legendre'a-Fenchel się K ( t ) i stosując wykładniczą Nierówność Czebyszewa mamy

Ta nierówność może być wykorzystana do uzyskania nierówności wykładniczych dla zmiennych nieograniczonych.

Zmienne ograniczone

Jeśli P( x ) ma skończone wsparcie na podstawie przedziału [ a , b ] , niech M = max(| a |, | b |) gdzie | x | jest wartością bezwzględną od x . Jeśli średnia z P( x ) wynosi zero, to dla wszystkich k > 0

Druga z tych nierówności z r = 2 to granica Czebyszewa. Pierwsza zapewnia dolną granicę dla wartości P( x ).

Ostre granice dla zmiennej ograniczonej zostały zaproponowane przez Niemitalo, ale bez dowodu

Niech 0 ≤ XM gdzie M > 0 . Następnie

  • Przypadek 1:
  • Przypadek 2:
  • Przypadek 3:

Próbki skończone

Przypadek jednowymiarowy

Saw i wsp. rozszerzyli nierówność Czebyszewa na przypadki, w których średnia populacji i wariancja nie są znane i mogą nie istnieć, ale średnia próbki i odchylenie standardowe próbki z N próbek mają być wykorzystane do ograniczenia oczekiwanej wartości nowego losowania z tego samego rozkładu .

gdzie X jest zmienną losową, którą próbkowaliśmy N razy, m jest średnią próbki, k jest stałą, a s jest odchyleniem standardowym próbki. g ( x ) definiuje się następująco:

Niech x ≥ 1, Q = N + 1, a R będzie największą liczbą całkowitą mniejszą niż Q / x . Pozwolić

Ale już

Ta nierówność utrzymuje się nawet wtedy, gdy nie istnieją momenty populacyjne i gdy próba jest tylko słabo rozłożona wymiennie ; to kryterium jest spełnione w przypadku losowego pobierania próbek. Tabelę wartości nierówności Saw–Yang–Mo dla skończonych liczebności próby ( N < 100) wyznaczył Konijn. Tabela umożliwia obliczenie różnych przedziałów ufności dla średniej, w oparciu o wielokrotność C, błędu standardowego średniej obliczonej z próbki. Na przykład Konijn pokazuje, że dla N  = 59 95-procentowy przedział ufności dla średniej m wynosi ( mCs , m + Cs ), gdzie C = 4,447 × 1,006 = 4,47 (jest to 2,28 razy większe niż wartość znaleziona na założenie normalności pokazującej utratę precyzji wynikającą z nieznajomości dokładnego charakteru rozkładu).

Kabán podaje nieco mniej złożoną wersję tej nierówności.

Jeśli odchylenie standardowe jest wielokrotnością średniej, można wyprowadzić kolejną nierówność,

Tabelę wartości nierówności Saw–Yang–Mo dla skończonych liczebności próby ( N < 100) wyznaczył Konijn.

Dla ustalonego N i dużego m nierówność Saw–Yang–Mo wynosi około

Beasley i wsp. zasugerowali modyfikację tej nierówności

W testach empirycznych ta modyfikacja jest zachowawcza, ale wydaje się mieć niską moc statystyczną. Jego podstawy teoretyczne pozostają obecnie niezbadane.

Zależność od wielkości próbki

Granice, jakie te nierówności dają na skończonej próbce, są mniej ścisłe niż te, jakie daje nierówność Czebyszewa dla rozkładu. Aby to zilustrować, niech wielkość próby N = 100 i niech k = 3. Nierówność Czebyszewa mówi, że co najwyżej około 11,11% rozkładu będzie leżeć co najmniej o trzy odchylenia standardowe od średniej. Wersja Kabána dotycząca nierówności dla skończonej próbki stwierdza, że ​​najwyżej około 12,05% próbki leży poza tymi granicami. Zależność przedziałów ufności od wielkości próby jest dokładniej zilustrowana poniżej.

Dla N = 10, 95% przedział ufności wynosi około ±13,5789 odchyleń standardowych.

Dla N = 100 95% przedział ufności wynosi około ±4,9595 odchyleń standardowych; 99% przedział ufności wynosi około ±140,0 odchyleń standardowych.

Dla N = 500 95% przedział ufności wynosi około ±4,5574 odchylenia standardowe; 99% przedział ufności wynosi około ±11,1620 odchyleń standardowych.

Dla N = 1000 przedziały ufności 95% i 99% wynoszą odpowiednio około ±4,5141 i około ±10,5330 odchylenia standardowe.

Nierówność Czebyszewa dla rozkładu daje 95% i 99% przedziały ufności odpowiednio w przybliżeniu ±4.472 odchyleń standardowych i ±10 odchyleń standardowych.

Nierówność Samuelsona

Chociaż nierówność Czebyszewa jest najlepszym możliwym ograniczeniem dla dowolnego rozkładu, niekoniecznie jest to prawdą dla próbek skończonych. Nierówność Samuelsona oznacza, że ​​wszystkie wartości próbki będą leżeć w granicach N  − 1 odchylenia standardowego średniej. Wiązanie Czebyszewa poprawia się wraz ze wzrostem wielkości próbki.

Gdy N = 10, nierówność Samuelsona oznacza, że ​​wszyscy członkowie próby leżą w granicach 3 odchyleń standardowych od średniej: w przeciwieństwie do tego, że 99,5% próbki znajduje się w granicach 13,5789 odchyleń standardowych od średniej.

Gdy N = 100, nierówność Samuelsona stwierdza, że ​​wszyscy członkowie próby leżą w granicach około 9,9499 odchyleń standardowych średniej: Czebyszewa stwierdza, że ​​99% próby mieści się w granicach 10 odchyleń standardowych od średniej.

Gdy N = 500, nierówność Samuelsona stwierdza, że ​​wszyscy członkowie próby leżą w granicach około 22,3383 odchyleń standardowych średniej: Czebyszewa stwierdza, że ​​99% próby mieści się w granicach 10 odchyleń standardowych od średniej.

Przypadek wielowymiarowy

Stellato i in. uprościł notację i rozszerzył empiryczną nierówność Czebyszewa z Saw et al. do przypadku wielowymiarowego. Niech będzie zmienną losową i niech . Zwracamy IID próbki oznaczonej jako . Na podstawie pierwszych próbek definiujemy średnią empiryczną jako oraz nieobciążoną kowariancję empiryczną jako . Jeśli nie jest liczba pojedyncza, to dla wszystkich wtedy

Uwagi

W przypadku jednowymiarowym, tj. ta nierówność odpowiada tej z Saw et al. Co więcej, prawą stronę można uprościć, ograniczając górną granicę funkcji floor przez jej argument

Jako , prawa strona dąży do tego, co odpowiada wielowymiarowej nierówności Czebyszewa nad elipsoidami ukształtowanymi i wyśrodkowanymi w .

Zaostrzone granice

Nierówność Czebyszewa jest ważna ze względu na jej zastosowanie do każdej dystrybucji. W wyniku swojej ogólności może nie zapewniać (i zwykle nie zapewnia) tak ostrego ograniczenia, jak alternatywne metody, które można zastosować, jeśli znany jest rozkład zmiennej losowej. Aby poprawić ostrość granic wynikających z nierówności Czebyszewa, opracowano szereg metod; przegląd patrz np.

Zmienne standaryzowane

Zaostrzone granice można wyprowadzić najpierw standaryzując zmienną losową.

Niech X będzie zmienną losową o skończonej wariancji Var( X ). Niech Z będzie formą ustandaryzowaną zdefiniowaną jako

Lemat Cantellego brzmi zatem

Ta nierówność jest ostra i jest osiągana przez k i −1/ k z prawdopodobieństwem odpowiednio 1/(1 +  k 2 ) i k 2 /(1 +  k 2 ).

Jeśli k > 1 i rozkład X jest symetryczny to mamy

Równość zachodzi wtedy i tylko wtedy, gdy Z = − k , 0 lub k z prawdopodobieństwami odpowiednio 1 / 2 k 2 , 1 − 1 / k 2 i 1/2 k 2 . Możliwe jest również rozszerzenie nierówności dwustronnej.

Niech u , v > 0. Wtedy mamy

Semiwariancje

Alternatywną metodą uzyskania ostrzejszych granic jest użycie semiwariancji (częściowych wariancji). Górną ( σ + 2 ) i dolną ( σ 2 ) semiwariancję definiuje się jako

gdzie m jest średnią arytmetyczną próbki, a n jest liczbą elementów w próbce.

Wariancja próby jest sumą dwóch semiwariancji:

W zakresie niższej semiwariancji można zapisać nierówność Czebyszewa

Oddanie

Nierówność Czebyszewa można teraz napisać

Podobny wynik można również uzyskać dla górnej półwariancji.

Jeśli włożymy

Nierówność Czebyszewa można napisać

Ponieważ σ u 2σ 2 , użycie semiwariancji wyostrza pierwotną nierówność.

Jeśli wiadomo, że rozkład jest symetryczny, to

oraz

Wynik ten jest zgodny z wynikiem uzyskanym przy użyciu zmiennych standaryzowanych.

Notatka
Stwierdzono, że nierówność z niższą semiwariancją jest przydatna do szacowania ryzyka pogorszenia sytuacji w finansach i rolnictwie.

Nierówność Selberga

Selberg wyprowadził nierówność dla P ( x ) gdy axb . Aby uprościć notację niech

gdzie

oraz

Wynikiem tej transformacji liniowej jest uczynienie P ( aXb ) równym P (| Y | ≤ k ).

Średnia ( μ X ) i wariancja ( σ X ) X są powiązane ze średnią ( μ Y ) i wariancją ( σ Y ) Y :

Z tym zapisem nierówność Selberga stwierdza, że:

Wiadomo, że są to najlepsze możliwe granice.

Nierówność Cantellego

Nierówność Cantellego spowodowana Francesco Paolo Cantelli stwierdza, że ​​dla rzeczywistej zmiennej losowej ( X ) ze średnią ( μ ) i wariancją ( σ 2 )

gdzie a ≥ 0.

Ta nierówność może być wykorzystana do udowodnienia jednoogonowego wariantu nierówności Czebyszewa z k > 0

Wiadomo, że granica w wariancie z jednym ogonem jest ostra. Aby to zobaczyć, rozważ zmienną losową X, która przyjmuje wartości

z prawdopodobieństwem
z prawdopodobieństwem

Wtedy E( X ) = 0 i E( X 2 ) = σ 2 i P( X < 1) = 1 / (1 + σ 2 ).

Aplikacja: odległość między średnią a medianą

Wariant jednostronny może posłużyć do udowodnienia tezy, że dla rozkładów prawdopodobieństwa o wartości oczekiwanej i medianie średnia i mediana nigdy nie mogą różnić się od siebie o więcej niż jedno odchylenie standardowe . Aby wyrazić to w symbolach, niech μ , ν , i σ będą odpowiednio średnią, medianą i odchyleniem standardowym. Następnie

Nie ma potrzeby zakładać, że wariancja jest skończona, ponieważ ta nierówność jest trywialnie prawdziwa, jeśli wariancja jest nieskończona.

Dowód jest następujący. Ustawienie k  = 1 w stwierdzeniu dla nierówności jednostronnej daje:

Zmieniając znak X i μ , otrzymujemy

Ponieważ mediana jest z definicji dowolną liczbą rzeczywistą  m, która spełnia nierówności

oznacza to, że mediana mieści się w granicach jednego odchylenia standardowego średniej. Dowód użyciu Nierówność Jensena również istnieje .

Nierówność Bhattacharyi

Bhattacharyya rozszerzył nierówność Cantellego za pomocą trzeciego i czwartego momentu rozkładu.

Niech μ = 0 i σ 2 będą wariancją. Niech γ = E( X 3 )/ σ 3 oraz κ = E( X 4 )/ σ 4 .

Jeśli k 2k γ − 1 > 0 wtedy

Konieczność k 2k γ − 1 > 0 wymaga, aby k było dość duże.

Nierówność Mitzenmachera i Upfala

Mitzenmacher i Upfal zauważają, że

dla dowolnej liczby całkowitej k > 0 i że

jest 2 k th moment centralny. Następnie pokazują, że dla t > 0

Dla k = 1 otrzymujemy nierówność Czebyszewa. Dla t ≥ 1, k > 2 i zakładając, że istnieje k- ty moment, to ograniczenie jest ciaśniejsze niż nierówność Czebyszewa.

Powiązane nierówności

Znanych jest również kilka innych powiązanych nierówności.

Nierówność Zelen

Zelen to pokazał

z

gdzie M m to m- ty moment, a σ to odchylenie standardowe.

On, Zhang i nierówność Zhang

Dla dowolnego zbioru n nieujemnych niezależnych zmiennych losowych X i z oczekiwaniem 1

Lemat Hoeffdinga

Niech X będzie zmienną losową z aXb i E[ X ] = 0 , wtedy dla dowolnego s > 0 , mamy

Granica Van Zuijlena

Niech X i będzie zbiorem niezależnych zmiennych losowych Rademachera : Pr( X i = 1) = Pr( X i = −1) = 0.5 . Następnie

Granica jest ostra i lepsza niż to, które można wyprowadzić z rozkładu normalnego (w przybliżeniu Pr > 0,31 ).

Dystrybucje jednomodalne

Funkcja dystrybucji F jest jednomodalna przy ν, jeśli jej dystrybuant jest wypukły (−∞, ν ) i wklęsły ( ν ,∞). Rozkład empiryczny można przetestować pod kątem jednomodalności za pomocą testu zanurzeniowego .

W 1823 Gauss wykazał, że dla rozkładu jednomodalnego z modą zero

Jeśli mod nie jest zerem, a średnia ( μ ) i odchylenie standardowe ( σ ) są skończone, to oznaczając medianę jako ν i pierwiastek średniej kwadratowej odchylenia od modu przez ω , mamy

i

Winkler w 1866 roku przedłużony nierówności Gaussa do R th momentów gdzie r > 0 oraz rozkład jest jednomodalny z trybu zera:

Granica Gaussa została następnie zaostrzona i rozszerzona, aby stosować się do odstępstw od średniej, a nie trybu z powodu nierówności Vysochanskiï-Petunina . Ten ostatni został rozszerzony przez Dharmadhikari i Joag-Dev

gdzie s jest stałą spełniającą zarówno s > r + 1, jak i s ( s  −  r  − 1) =  r rr  > 0.

Można wykazać, że nierówności te są najlepsze z możliwych, a dalsze zaostrzanie granic wymaga nałożenia dodatkowych ograniczeń na rozkłady.

Jednomodalne rozkłady symetryczne

Granice tej nierówności można również zaostrzyć, jeśli rozkład jest zarówno jednomodalny, jak i symetryczny . Rozkład empiryczny można przetestować pod kątem symetrii za pomocą szeregu testów, w tym R* McWilliama. Wiadomo, że wariancja jednomodalnego rozkładu symetrycznego ze skończonym wsparciem [ ab ] jest mniejsza lub równa ( b  −  a ) 2 / 12.

Niech rozkład będzie obsługiwany na skończonym przedziale [ − NN ] i wariancja będzie skończona. Niech tryb rozkładu będzie równy zero i przeskaluj wariancję do 1. Niech k  > 0 i załóżmy k  < 2 N /3. Następnie

Jeżeli 0 < k ≤ 2 / 3 granice są osiągane z gęstością

Jeżeli 2 / 3 < k ≤ 2 N / 3 granice są osiągane przez rozkład

gdzie β k = 4 / 3 k 2 , δ 0 jest funkcją delta Diraca i gdzie

Istnienie tych gęstości pokazuje, że granice są optymalne. Ponieważ N jest arbitralne, ograniczenia te odnoszą się do dowolnej wartości N .

Nierówność Camp-Meidella jest nierównością pokrewną. Dla absolutnie ciągłego jednomodalnego i symetrycznego rozkładu

DasGupta wykazał, że jeśli wiadomo, że rozkład jest normalny

Uwagi

Efekty symetrii i unimodalności

Symetria rozkładu zmniejsza granice nierówności o czynnik 2, podczas gdy unimodalność wyostrza granice o czynnik 4/9.

Ponieważ średnia i moda w rozkładzie unimodalnym różnią się o najwyżej 3 odchylenia standardowe, najwyżej 5% symetrycznego rozkładu unimodalnego leży poza (2 10  + 3 3 )/3 odchylenia standardowe od średniej (około 3.840 odchyleń standardowych ). Jest to ostrzejsze niż granice podane przez nierówność Czebyszewa (około 4,472 odchyleń standardowych).

Te granice średniej są mniej ostre niż te, które można wyprowadzić z symetrii samego rozkładu, co pokazuje, że najwyżej 5% rozkładu leży poza około 3,162 odchyleniami standardowymi średniej. Nierówność Vysochanskiï-Petunin ostrzy do realizacji tego związany pokazano, że dla takiego rozkładu, że co najwyżej 5% rozkładu leży poza 4 5 /3 (około 2,981) odchylenia standardowe od średniej.

Symetryczne rozkłady unimodalne

Dla dowolnego symetrycznego rozkładu unimodalnego

  • co najwyżej około 5,784% rozkładu leży poza 1,96 odchyleniem standardowym trybu
  • co najwyżej 5% rozkładu leży poza 2 10 /3 (około 2,11) odchyleniami standardowymi trybu

Rozkłady normalne

Nierówność DasGupty stwierdza, że ​​dla rozkładu normalnego co najmniej 95% mieści się w granicach około 2,582 odchyleń standardowych średniej. Jest to mniej ostre niż wartość rzeczywista (około 1,96 odchylenia standardowego średniej).

Granice dla określonych dystrybucji

  • DasGupta określił zestaw najlepszych możliwych granic rozkładu normalnego dla tej nierówności.
  • Steliga i Szynal rozszerzyli te granice na rozkład Pareto .
  • Grechuk i in. opracował ogólną metodę wyprowadzania najlepszych możliwych granic nierówności Czebyszewa dla dowolnej rodziny rozkładów oraz wszelkich miar ryzyka odchyleń zamiast odchylenia standardowego. W szczególności wyprowadzili nierówność Czebyszewa dla rozkładów o gęstościach logarytmicznych wklęsłych .

Zero oznacza

Gdy średnia ( μ ) wynosi zero, nierówność Czebyszewa przybiera prostą postać. Niech σ 2 będzie wariancją. Następnie

W tych samych warunkach nierówność Cantellego przybiera postać

Wariancja jednostek

Jeżeli dodatkowo E( X 2 ) = 1 i E( X 4 ) = ψ wtedy dla dowolnego 0 ≤ ε ≤ 1

Pierwsza nierówność jest ostra. Jest to znane jako nierówność Paley-Zygmund .

Wiadomo również, że dla zmiennej losowej spełniającej powyższe warunki, która:

gdzie

Wiadomo też, że

Wartość C 0 jest optymalna, a granice są ostre, jeśli

Gdyby

wtedy ostre ograniczenie to

Integralna nierówność Czebyszewa

Istnieje druga (mniej znana) nierówność, również nazwana imieniem Czebyszewa

Jeśli f , g  : [ a , b ] → R są dwiema funkcjami monotonicznymi o tej samej monotoniczności, to

Jeśli f i g mają przeciwną monotoniczność, to powyższa nierówność działa w odwrotny sposób.

Nierówność ta jest związana z Nierówność Jensena , nierówności Kantorowicz za , na nierówności Hermite'a-Hadamarda i przypuszczeń Waltera .

Inne nierówności

Istnieje również szereg innych nierówności związanych z Czebyszewem:

Transformacja Haldane'a

Jednym z zastosowań nierówności Czebyszewa w zastosowaniach jest tworzenie przedziałów ufności dla zmiennych o nieznanym rozkładzie. Haldane zauważył, używając równania wyprowadzonego przez Kendalla , że jeśli zmienna ( x ) ma zerową średnią, jednostkową wariancję oraz skończoną skośność ( γ ) i kurtozę ( κ ), to zmienna może być przekształcona w standardowy wynik o rozkładzie normalnym ( z ):

Ta transformacja może być użyteczna jako alternatywa dla nierówności Czebyszewa lub jako uzupełnienie do niej przy wyprowadzaniu przedziałów ufności dla zmiennych o nieznanym rozkładzie.

Chociaż to przekształcenie może być przydatne w przypadku umiarkowanie skośnych i/lub kurtotycznych rozkładów, działa słabo, gdy rozkład jest znacznie skośny i/lub kurtotyczny.

Uwagi

Agencja Ochrony Środowiska zaproponowała najlepszych praktyk w dziedzinie wykorzystania Nierówność Czebyszewa szacowania przedziałów ufności. <Ref> Obliczanie górne granice ufności dla narażenia punkt Koncentracji na składowiskach odpadów niebezpiecznych (raport). Biuro Reagowania Kryzysowego i Zaradczego Amerykańskiej Agencji Ochrony Środowiska. grudzień 2002 . Źródło 5 sierpnia 2016 .

Zobacz też

Bibliografia

Dalsza lektura

  • A. Papoulis (1991), Prawdopodobieństwo, zmienne losowe i procesy stochastyczne , wyd. McGraw-Hill. ISBN  0-07-100870-5 . s. 113–114.
  • G. Grimmett i D. Stirzaker (2001), Probability and Random Processes , wyd. Oksford. ISBN  0-19-857222-0 . Sekcja 7.3.

Zewnętrzne linki