Błędy standardowe zgodne z heteroskedastyką - Heteroscedasticity-consistent standard errors

Temat błędów standardowych heteroskedastyczności ( HC ) pojawia się w statystyce i ekonometrii w kontekście regresji liniowej i analizy szeregów czasowych . Są one również znane jako błędy standardowe odporne na heteroskedastyczność (lub po prostu błędy standardowe odporne ), błędy standardowe Eickera-Hubera-White'a (również błędy standardowe Hubera-White'a lub błędy standardowe White ), aby rozpoznać wkład Friedhelma Eickera , Petera J. Hubera i Halberta White'a .

W modelowaniu regresji i szeregów czasowych podstawowe formy modeli wykorzystują założenie, że błędy lub zakłócenia u i mają taką samą wariancję we wszystkich punktach obserwacji. Jeśli tak nie jest, mówi się, że błędy są heteroskedastyczne lub mają heteroskedastyczność , a to zachowanie zostanie odzwierciedlone w resztach oszacowanych na podstawie dopasowanego modelu. Błędy standardowe zgodne z heteroskedastyką służą do dopasowania modelu, który zawiera reszty heteroskedastyczne. Pierwsze takie podejście zaproponował Huber (1967), a od tego czasu opracowano dalsze ulepszone procedury dla danych przekrojowych, danych szeregów czasowych i estymacji GARCH .

Błędy standardowe zgodne z heteroskedastyką, które różnią się od klasycznych błędów standardowych, mogą wskazywać na błędną specyfikację modelu. Zastąpienie błędów standardowych zgodnych z heteroskedastycznością nie rozwiązuje tej błędnej specyfikacji, która może prowadzić do błędu systematycznego we współczynnikach. W większości sytuacji problem należy znaleźć i naprawić. Inne rodzaje korekt błędów standardowych, takie jak klastrowane błędy standardowe , można uznać za rozszerzenie błędów standardowych HC.

Historia

Błędy standardowe zgodne z heteroskedastyką wprowadził Friedhelm Eicker , a spopularyzował w ekonometrii Halbert White .

Problem

Rozważ model regresji liniowej

gdzie X jest wektorem zmiennych objaśniających, a β jest wektorem kolumnowym k × 1 parametrów do oszacowania.

W zwykłych najmniejszych kwadratów (OLS) estymator

gdzie oznacza macierz skumulowanych wartości zaobserwowanych w danych.

Jeżeli błędy próbki mają równą wariancję σ 2 i nie są skorelowane , wówczas oszacowanie metodą najmniejszych kwadratów β jest NIEBIESKIE (najlepszy liniowy nieobciążony estymator), a jego wariancja jest szacowana za pomocą

gdzie są reszty regresji.

Gdy warunki błędu nie mają stałej wariancji (tj. założenie jest nieprawdziwe), estymator MNK traci swoje pożądane właściwości. Formuła na wariancję nie może być teraz uproszczona:

gdzie

Chociaż estymator punktowy MNK pozostaje bezstronny, nie jest „najlepszy” w sensie posiadania minimalnego błędu średniokwadratowego, a estymator wariancji MNK nie zapewnia spójnego oszacowania wariancji szacunków MNK.

Jednak w przypadku każdego modelu nieliniowego (na przykład modeli logitowych i probitowych ) heteroskedastyczność ma poważniejsze konsekwencje: oszacowania maksymalnego prawdopodobieństwa parametrów będą obciążone (w nieznanym kierunku), a także niespójne (chyba że funkcja wiarygodności zmodyfikowane, aby poprawnie uwzględnić dokładną formę heteroskedastyczności). Jak zauważył Greene , „zwykłe obliczenie solidnej macierzy kowariancji dla inaczej niespójnego estymatora nie zapewnia jej wykupu”.

Rozwiązanie

Jeżeli błędy regresji są niezależne, ale mają wyraźne wariancje σ i 2 , to można je oszacować za pomocą . Daje to estymator White'a (1980), często określany jako HCE (heteroskedasticity-consistent estymator):

gdzie jak wyżej oznacza macierz skumulowanych wartości z danych. Estymator można wyprowadzić w terminach uogólnionej metody momentów (GMM).

Często opisane w literaturze (obejmującej papier White), jest macierzą kowariancji z -consistent dystrybucji ograniczającą:

gdzie

oraz

Zatem,

oraz

To, która macierz kowariancji jest przedmiotem zainteresowania, jest kwestią kontekstu.

Alternatywne estymatory zostały zaproponowane przez MacKinnona i White'a (1985), które korygują nierówne wariancje reszt regresji ze względu na różne dźwignie . W przeciwieństwie do asymptotycznego estymatora White'a, ich estymatory są bezstronne, gdy dane są homoskedastyczne.

Zobacz też

Oprogramowanie

  • EViews : EViews wersja 8 oferuje trzy różne metody niezawodnej metody najmniejszych kwadratów: estymacja M (Huber, 1973), estymacja S (Rousseeuw i Yohai, 1984) i estymacja MM (Yohai 1987).
  • MATLAB : Zobacz hacfunkcję w przyborniku Ekonometrii.
  • Python : Pakiet Statsmodel oferuje różne solidne oszacowania błędów standardowych, zobacz statsmodels.regression.linear_model.RegressionResults, aby uzyskać dalsze opisy
  • R : vcovHC()polecenie z pakietu kanapkowego .
  • RATS : robusterrors opcja jest dostępna w wielu poleceń regresji i optymalizacji ( regresji liniowej LinReg , nlls , etc.).
  • Stata : robustopcja stosowana w wielu procedurach opartych na pseudoprawdopodobieństwie.
  • Gretl : opcja --robustkilku poleceń szacowania (takich jak ols) w kontekście przekrojowego zbioru danych generuje solidne błędy standardowe.

Bibliografia

Dalsza lektura