F - test - F-test

F -test jest każdy test statystyczny , w którym statystyka testowa ma F -Dystrybucja pod hipotezy zerowej . Jest najczęściej używany podczas porównywania modeli statystycznych , które zostały dopasowane do zbioru danych , w celu zidentyfikowania modelu najlepiej pasującego do populacji, z której pobrano dane. Dokładne „ testy F ” pojawiają się głównie wtedy, gdy modele zostały dopasowane do danych przy użyciu metody najmniejszych kwadratów . Nazwa została wymyślona przez George'a W. Snedecora na cześć Sir Ronalda A. Fishera . Fisher początkowo opracował statystykę jako współczynnik wariancji w latach dwudziestych XX wieku.

Typowe przykłady

Typowe przykłady zastosowania testów F obejmują badanie następujących przypadków:

Ponadto niektóre procedury statystyczne, takie jak metoda Scheffégo do korygowania porównań wielokrotnych w modelach liniowych, również wykorzystują testy F.

F - test równości dwóch wariancji

Test F jest wrażliwy na nienormalność . W analizie wariancji (ANOVA), a alternatywne testy obejmują testu Levene'a , Test Bartletta , a testu Brown-Forsythe'em . Jednak gdy którykolwiek z tych testów jest przeprowadzany w celu sprawdzenia podstawowego założenia o homoskedastyczności ( tj. Jednorodności wariancji), jako wstępny krok do testowania średnich efektów, następuje wzrost współczynnika błędów typu I w odniesieniu do eksperymentów .

Formuła i obliczenia

Większość testów F powstaje, gdy rozważa się dekompozycję zmienności w zbiorze danych w postaci sum kwadratów . Statystykę testową w F -test jest stosunek dwóch skalowanych sumy kwadratów odzwierciedlające różne źródeł zmienności. Te sumy kwadratów są konstruowane w taki sposób, że statystyka jest zwykle większa, gdy hipoteza zerowa nie jest prawdziwa. Aby statystyka podążała za rozkładem F w ramach hipotezy zerowej, sumy kwadratów powinny być statystycznie niezależne , a każdy z nich powinien mieć skalowany rozkład χ² . Ten ostatni warunek jest gwarantowany, jeśli wartości danych są niezależne i mają rozkład normalny ze wspólną wariancją .

Problemy ANOVA z wieloma porównaniami

Test F w jednokierunkowej analizie wariancji służy do oceny, czy oczekiwane wartości zmiennej ilościowej w ramach kilku predefiniowanych grup różnią się od siebie. Załóżmy na przykład, że badanie medyczne porównuje cztery metody leczenia. Test F- ANOVA można zastosować do oceny, czy którekolwiek z terapii jest średnio lepsze lub gorsze od innych w porównaniu z hipotezą zerową, że wszystkie cztery terapie dają taką samą średnią odpowiedź. To jest przykład testu „omnibus”, co oznacza, że ​​pojedynczy test jest wykonywany w celu wykrycia kilku możliwych różnic. Alternatywnie, moglibyśmy przeprowadzić testy parami między terapiami (na przykład w badaniu medycznym z czterema zabiegami moglibyśmy przeprowadzić sześć testów w parach zabiegów). Zaletą testu F ANOVA jest to, że nie musimy z góry określać, które zabiegi mają być porównywane, i nie musimy dostosowywać się do dokonywania wielokrotnych porównań . Wadą testu ANOVA F jest to, że jeśli odrzucimy hipotezę zerową , nie wiemy, które zabiegi różnią się znacznie od innych, ani też, jeśli test F jest wykonywany na poziomie α, nie możemy stwierdzić że para badanych z największą średnią różnicą jest znacząco różna na poziomie α.

Wzór na jednokierunkową statystykę F- testu ANOVA to

lub

Jest to „wyjaśniona wariancja” lub „zmienność międzygrupowa”

gdzie oznacza średnią z próby w i- tej grupie, jest liczbą obserwacji w i- tej grupie, oznacza ogólną średnią danych i oznacza liczbę grup.

„Niewyjaśniona wariancja” lub „zmienność wewnątrzgrupowa” to

gdzie jest j th obserwacji w i -tej z grup i jest ogólna wielkość próbki. Ta statystyka F podąża za rozkładem F ze stopniami swobody i przy hipotezie zerowej. Statystyka będzie duża, jeśli zmienność międzygrupowa jest duża w stosunku do zmienności wewnątrzgrupowej, co jest mało prawdopodobne, jeśli średnie populacji wszystkich grup mają tę samą wartość.

Zauważ, że gdy istnieją tylko dwie grupy dla jednokierunkowego testu F -ANOVA , gdzie t jest statystyką Studenta .

Problemy regresji

Rozważ dwa modele, 1 i 2, gdzie model 1 jest „zagnieżdżony” w modelu 2. Model 1 to model ograniczony, a model 2 to model nieograniczony. Oznacza to, że model 1 ma parametry p 1 , a model 2 ma parametry p 2 , gdzie p 1  <  p 2 , a dla dowolnego wyboru parametrów w modelu 1 tę samą krzywą regresji można uzyskać przez wybór parametrów modelu 2.

Jednym z powszechnych kontekstów w tym względzie jest decydowanie, czy model pasuje do danych znacznie lepiej niż model naiwny, w którym jedynym terminem objaśniającym jest wyraz przecięcia, tak że wszystkie przewidywane wartości dla zmiennej zależnej są równe wartości tej zmiennej. próbka średnia. Model naiwny jest modelem ograniczonym, ponieważ współczynniki wszystkich potencjalnych zmiennych objaśniających są ograniczone do zera.

Innym powszechnym kontekstem jest decyzja, czy istnieje strukturalna przerwa w danych: tutaj model ograniczony wykorzystuje wszystkie dane w jednej regresji, podczas gdy model nieograniczony wykorzystuje oddzielne regresje dla dwóch różnych podzbiorów danych. To zastosowanie testu F jest znane jako test Chow .

Model z większą liczbą parametrów zawsze będzie w stanie dopasować dane co najmniej tak dobrze, jak model z mniejszą liczbą parametrów. Zatem zazwyczaj model 2 daje lepsze (tj. Mniejszy błąd) dopasowanie do danych niż model 1. Jednak często chce się ustalić, czy model 2 zapewnia znacznie lepsze dopasowanie do danych. Jednym ze sposobów rozwiązania tego problemu jest użycie testu F.

Jeśli istnieje n punktów danych, na podstawie których można oszacować parametry obu modeli, można obliczyć statystykę F podaną przez

gdzie RSS i jest resztkową sumą kwadratów modelu i . Jeśli model regresji został obliczony za pomocą wag, zamień RSS i na χ 2 , ważoną sumę kwadratów reszt. Zgodnie z hipotezą zerową, że model 2 nie zapewnia znacznie lepszego dopasowania niż model 1, F będzie miał rozkład F z ( p 2 - p 1 n - p 2 ) stopniami swobody . Hipoteza zerowa jest odrzucana, jeśli F obliczone na podstawie danych jest większe niż krytyczna wartość rozkładu F dla pewnego pożądanego prawdopodobieństwa fałszywego odrzucenia (np. 0,05). Test F to test Walda .

Zobacz też

Bibliografia

Dalsza lektura

Linki zewnętrzne