Jednokierunkowa analiza wariancji - One-way analysis of variance
W statystycznych , jednokierunkową analizę wariancji (w skrócie jednokierunkową ANOVA ) jest techniką, może być wykorzystane porównanie, czy dwie próbki środki różnią się znacznie albo nie (za pomocą rozkładu F ). Technikę tę można stosować tylko do danych liczbowych odpowiedzi, „Y”, zwykle jednej zmiennej, oraz liczbowych lub (zazwyczaj) kategorycznych danych wejściowych, „X”, zawsze jednej zmiennej, stąd „jednokierunkowe”.
ANOVA testuje hipotezę zerową , która stwierdza, że próbki we wszystkich grupach są pobierane z populacji o tych samych wartościach średnich. W tym celu dokonuje się dwóch szacunków wariancji populacji. Szacunki te opierają się na różnych założeniach ( patrz poniżej ). ANOVA daje statystykę F, stosunek wariancji obliczonej wśród średnich do wariancji w próbkach. Jeżeli średnie grupowe są pobierane z populacji o tych samych wartościach średnich, wariancja między średnimi grupowymi powinna być niższa niż wariancja próbek, zgodnie z centralnym twierdzeniem o granicy . Wyższy współczynnik oznacza zatem, że próbki zostały pobrane z populacji o różnych wartościach średnich.
Zazwyczaj jednak jednoczynnikowa ANOVA jest używana do testowania różnic między co najmniej trzema grupami, ponieważ przypadek dwóch grup może być objęty testem t (Gosset, 1908). Gdy istnieją tylko dwa środki do porównania, test t-Studenta i test F są równoważne; związek między ANOVA i t jest określony wzorem F = t 2 . Rozszerzeniem jednoczynnikowej ANOVA jest dwuczynnikowa analiza wariancji, która bada wpływ dwóch różnych niezależnych zmiennych jakościowych na jedną zmienną zależną.
Założenia
Wyniki jednokierunkowej analizy wariancji można uznać za wiarygodne, o ile spełnione są następujące założenia:
- Reakcja zmienna resztkowe są zwykle rozprowadzane (lub zwykle rozmieszczone w przybliżeniu).
- Wariancje populacji są równe.
- Odpowiedzi dla danej grupy są niezależnymi i identycznie rozłożonymi normalnymi zmiennymi losowymi (nie prostą próbą losową (SRS)).
Jeśli dane są porządkowe , należy zastosować nieparametryczną alternatywę dla tego testu , taką jak jednokierunkowa analiza wariancji Kruskala-Wallisa . Jeżeli nie wiadomo, czy wariancje są równe, można zastosować uogólnienie 2-próbkowego testu t-Welcha .
Odejścia od normalności populacji
ANOVA jest stosunkowo solidną procedurą w odniesieniu do naruszeń założenia o normalności.
Jednoczynnikową analizę ANOVA można uogólnić do układów czynnikowych i wielowymiarowych, a także do analizy kowariancji.
W popularnej literaturze często stwierdza się, że żaden z tych testów F nie jest odporny, gdy występują poważne naruszenia założenia, że każda populacja ma rozkład normalny , szczególnie dla małych poziomów alfa i niezrównoważonych układów. Co więcej, twierdzi się również, że jeśli naruszone zostanie podstawowe założenie homoskedastyczności , właściwości błędu typu I ulegają znacznie poważniejszym degeneracji.
Jest to jednak błędne przekonanie, oparte na pracy wykonanej w latach 50. i wcześniejszych. Pierwszym kompleksowym badaniem problemu za pomocą symulacji Monte Carlo był Donaldson (1966). Wykazał, że przy zwykłych odchyleniach (dodatnie skosy, nierówne wariancje) „ test F jest konserwatywny”, a zatem stwierdzenie, że zmienna jest istotna, jest mniej prawdopodobne niż powinno. Jednak wraz ze wzrostem wielkości próbki lub liczby komórek „krzywe mocy wydają się zbiegać do krzywej opartej na normalnym rozkładzie”. Tiku (1971) stwierdził, że „nienormalna moc teoretyczna F różni się od normalnej mocy teoretycznej o składnik korekcyjny, który gwałtownie maleje wraz ze wzrostem wielkości próby”. Problem nienormalności, zwłaszcza w dużych próbach, jest znacznie mniej poważny, niż sugerowałyby popularne artykuły.
Obecny pogląd jest taki, że „Badania Monte-Carlo były szeroko wykorzystywane z testami opartymi na rozkładzie normalnym, aby określić, jak wrażliwe są one na naruszenie założenia rozkładu normalnego analizowanych zmiennych w populacji. Ogólny wniosek z tych badań jest taki, że Konsekwencje takich naruszeń są mniej dotkliwe niż wcześniej sądzono. Chociaż te wnioski nie powinny całkowicie zniechęcać nikogo do zaniepokojenia założeniem normalności, zwiększyły one ogólną popularność testów statystycznych zależnych od rozkładu we wszystkich obszarach badań”.
Aby zapoznać się z nieparametrycznymi alternatywami w układzie czynnikowym, zobacz Sawilowsky. Aby uzyskać więcej informacji, zobacz ANOVA na rangach .
Przypadek efektów stałych, w pełni randomizowany eksperyment, niezrównoważone dane
Modelka
Normalny model liniowy opisuje grupy leczenia z rozkładami prawdopodobieństwa, które są identycznymi krzywymi w kształcie dzwonu (normalnymi) z różnymi średnimi. Zatem dopasowanie modeli wymaga jedynie średnich z każdej grupy leczenia i obliczenia wariancji (stosowana jest średnia wariancja w obrębie badanych grup). Obliczenia średnich i wariancji są wykonywane w ramach testu hipotez.
Powszechnie stosowane normalne modele liniowe dla całkowicie randomizowanego eksperymentu to:
- (model oznacza)
lub
- (model efektów)
gdzie
- jest indeksem jednostek eksperymentalnych
- jest wskaźnikiem nad grupami terapeutycznymi
- to liczba jednostek eksperymentalnych w j-tej grupie terapeutycznej
- to całkowita liczba jednostek doświadczalnych
- są obserwacje
- jest średnią obserwacji dla j-tej grupy leczenia
- jest średnią z obserwacji
- jest j-tym efektem leczenia, odchyleniem od wielkiej średniej?
- , są błędami losowymi o rozkładzie normalnym o średniej zerowej.
Indeks jednostek doświadczalnych można interpretować na kilka sposobów. W niektórych eksperymentach ta sama jednostka doświadczalna jest poddawana różnym zabiegom; może wskazywać na konkretną jednostkę. W innych, każda leczona grupa ma odrębny zestaw jednostek doświadczalnych; może być po prostu indeksem do -tej listy.
Dane i zestawienia statystyczne danych
Jedną z form organizacji obserwacji eksperymentalnych jest grupowanie w kolumnach:
Listy obserwacji grupowych | ||||||||
---|---|---|---|---|---|---|---|---|
1 | ||||||||
2 | ||||||||
3 | ||||||||
Statystyki podsumowujące grupy | Ogólne statystyki podsumowujące | |||||||
# Obserwowane | # Obserwowane | |||||||
Suma | Suma | |||||||
Suma kwadratów | Suma kwadratów | |||||||
Oznaczać | Oznaczać | |||||||
Zmienność | Zmienność |
Porównanie modelu do podsumowań: i . Wielka średnia i wielka wariancja są obliczane z sum wielkich, a nie z grup średnich i wariancji.
Test hipotezy
Biorąc pod uwagę statystyki podsumowujące, obliczenia testu hipotez są przedstawione w formie tabelarycznej. Podczas gdy dwie kolumny SS są pokazane dla ich wartości objaśniającej, tylko jedna kolumna jest wymagana do wyświetlenia wyników.
Źródło zmienności | Sumy kwadratów | Sumy kwadratów | Stopnie swobody | Średnia kwadratowa | fa |
---|---|---|---|---|---|
Objaśnienie SS | Obliczeniowe SS | DF | SM | ||
Zabiegi | |||||
Błąd | |||||
Całkowity |
to oszacowanie wariancji odpowiadającej modelowi.
Podsumowanie analizy
Podstawowa analiza ANOVA składa się z serii obliczeń. Dane zbierane są w formie tabelarycznej. Następnie
- Każda leczona grupa jest podsumowana przez liczbę jednostek doświadczalnych, dwie sumy, średnią i wariancję. Podsumowania grup terapeutycznych są łączone w celu uzyskania sum dla liczby jednostek i sum. Wielka średnia i wielka wariancja są obliczane z wielkich sum. W modelu zastosowano leczenie i wielkie środki.
- Trzy DF i SS są obliczane na podstawie podsumowań. Następnie obliczane są MS, a stosunek określa F.
- Komputer zazwyczaj określa wartość p na podstawie F, która określa, czy leczenie daje znacząco różne wyniki. Jeśli wynik jest znaczący, model tymczasowo obowiązuje.
Jeśli eksperyment jest zrównoważony, wszystkie warunki są równe, więc równania SS upraszczają się.
W bardziej złożonym eksperymencie, w którym jednostki doświadczalne (lub efekty środowiskowe) nie są jednorodne, w analizie stosuje się również statystyki wierszowe. Model zawiera terminy zależne od . Określenie dodatkowych warunków zmniejsza liczbę dostępnych stopni swobody.
Przykład
Rozważ eksperyment, aby zbadać wpływ trzech różnych poziomów czynnika na odpowiedź (np. trzy poziomy nawozu na wzrost roślin). Gdybyśmy mieli 6 obserwacji dla każdego poziomu, moglibyśmy zapisać wynik eksperymentu w tabeli takiej jak ta, gdzie a 1 , a 2 i a 3 to trzy poziomy badanego czynnika.
1 2 3 6 8 13 8 12 9 4 9 11 5 11 8 3 6 7 4 8 12
Hipoteza zerowa, oznaczona jako H 0 , dla całego testu F dla tego eksperymentu byłaby taka, że wszystkie trzy poziomy czynnika dają średnio taką samą odpowiedź. Aby obliczyć współczynnik F :
Krok 1: Oblicz średnią w każdej grupie:
Krok 2: Oblicz ogólną średnią:
- gdzie a to liczba grup.
Krok 3: Oblicz sumę kwadratów różnic między grupami:
gdzie n to liczba wartości danych na grupę.
Międzygrupowe stopnie swobody są o jeden mniejsze niż liczba grup
więc średnia kwadratowa między grupami wynosi
Krok 4: Oblicz sumę kwadratów „w ramach grupy”. Zacznij od wyśrodkowania danych w każdej grupie
1 | 2 | 3 |
---|---|---|
6-5=1 | 8−9=−1 | 13−10=3 |
8−5=3 | 12−9=3 | 9−10=−1 |
4−5=−1 | 9−9=0 | 11-10=1 |
5-5=0 | 11−9=2 | 8−10=−2 |
3−5=−2 | 6−9=−3 | 7−10=−3 |
4−5=−1 | 8−9=−1 | 12−10=2 |
Wewnątrzgrupowa suma kwadratów to suma kwadratów wszystkich 18 wartości w tej tabeli
Wewnątrzgrupowe stopnie swobody to
Zatem średnia wartość kwadratowa w obrębie grupy wynosi
Krok 5: Współczynnik F wynosi
Wartość krytyczna to liczba, którą musi przekroczyć statystyka testu, aby odrzucić test. W tym przypadku K Crit (2,15) = 3,68 przy alfa = 0,05. Ponieważ F = 9,3 > 3,68 wyniki są istotne na poziomie istotności 5%. Można by odrzucić hipotezę zerową, stwierdzając, że istnieją mocne dowody na to, że oczekiwane wartości w trzech grupach różnią się. Wartość p dla tego testu wynosi 0,002.
Po wykonaniu testu F często przeprowadza się analizę „post-hoc” średnich grupowych. W tym przypadku, pierwsze dwie grupy różnią się o 4 jednostki, pierwsza i trzecia grupa różnią się o 5 jednostek, a druga i trzecia grupa różnią się tylko o 1 jednostkę. Błąd standardowy każdej z tych różnic jest . Tak więc pierwsza grupa różni się znacznie od pozostałych grup, ponieważ średnia różnica jest więcej razy większa od błędu standardowego, więc możemy być bardzo pewni, że średnia populacji pierwszej grupy różni się od średnich populacji pozostałych grup. Nie ma jednak dowodów na to, że druga i trzecia grupa mają różne średnie populacji, ponieważ ich średnia różnica jednej jednostki jest porównywalna z błędem standardowym.
Uwaga F ( x , y ) oznacza F -Dystrybucja dystrybuanty z x stopni swobody w liczniku y stopni swobody w mianowniku.
Zobacz też
- Analiza wariancji
- Test F ( zawiera przykład jednokierunkowej ANOVA )
- Model mieszany
- Wielowymiarowa analiza wariancji (MANOVA)
- Powtarzane pomiary ANOVA
- Dwukierunkowa ANOVA
- Test t Welcha
Uwagi
Dalsza lektura
- George Casella (18 kwietnia 2008). Projekt statystyczny . Springer . Numer ISBN 978-0-387-75965-4.