Autokorelacja - Autocorrelation

Powyżej: Wykres serii 100 liczb losowych kryjących funkcję sinus . Poniżej: funkcja sinus ujawniona na korelogramie uzyskanym przez autokorelację.
Wizualne porównanie splotu, korelacji krzyżowej i autokorelacji . W przypadku operacji obejmujących funkcję f i zakładając, że wysokość f wynosi 1,0, wartość wyniku w 5 różnych punktach jest oznaczona zacienionym obszarem poniżej każdego punktu. Ponadto, symetria f jest przyczyną i są identyczne w tym przykładzie.

Autokorelacji , czasami nazywany korelacji szeregowym w czasie dyskretnym przypadku, to związek o sygnał z opóźnioną kopią jako funkcji opóźnienia. Nieformalnie jest to podobieństwo między obserwacjami jako funkcja odstępu czasowego między nimi. Analiza autokorelacji jest matematycznym narzędziem do znajdowania powtarzających się wzorców, takich jak obecność okresowego sygnału przesłoniętego szumem lub identyfikowanie brakującej częstotliwości podstawowej sygnału wynikającej z jego częstotliwości harmonicznych . Jest często używany w przetwarzaniu sygnałów do analizy funkcji lub serii wartości, takich jak sygnały w dziedzinie czasu .

Różne kierunki studiów różnie definiują autokorelację i nie wszystkie te definicje są równoważne. W niektórych dziedzinach termin ten jest używany zamiennie z autokowariancją .

Jednostka korzeniowe procesy, procesy Trend-stacjonarny , procesy autoregresji i średniej ruchomej procesy są szczególne formy procesów o autokorelacji.

Autokorelacja procesów stochastycznych

W statystyce autokorelacją rzeczywistego lub złożonego procesu losowego jest korelacja Pearsona między wartościami procesu w różnym czasie, jako funkcja dwukrotności lub opóźnienia czasowego. Niech będzie procesem losowym i będzie dowolnym punktem w czasie ( może być liczbą całkowitą dla procesu w czasie dyskretnym lub liczbą rzeczywistą dla procesu w czasie ciągłym ). Wtedy jest wartość (lub realizacja ) wytworzona przez dany przebieg procesu w czasie . Załóżmy , że proces ma średnią i wariancję w czasie , dla każdego . Następnie definicja funkcji autokorelacji między czasami i is

 

 

 

 

( Równanie 1 )

gdzie jest operatorem wartości oczekiwanej , a słupek reprezentuje złożoną koniugację . Zauważ, że oczekiwanie może nie być dobrze zdefiniowane .

Odjęcie średniej przed pomnożeniem daje funkcję autokowariancji między czasami i :

 

 

 

 

( Równanie 2 )

Zwróć uwagę, że wyrażenie to nie jest dobrze zdefiniowane dla wszystkich szeregów czasowych lub procesów, ponieważ średnia może nie istnieć lub wariancja może być zerowa (dla procesu stałego) lub nieskończona (dla procesów z rozkładem, w których brakuje prawidłowych momentów, takich jak pewne rodzaje prawa energetycznego ).

Definicja szeroko rozumianego stacjonarnego procesu stochastycznego

Jeśli jest szeroko rozumianym procesem stacjonarnym, to średnia i wariancja są niezależne od czasu, a ponadto funkcja autokowariancji zależy tylko od opóźnienia między i : autokowariancja zależy tylko od odległości czasowej między parą wartości, ale nie od ich pozycja w czasie. To dalej implikuje, że autokowariancję i autokorelację można wyrazić jako funkcję opóźnienia i że byłaby to parzysta funkcja opóźnienia . Daje to bardziej znane formy funkcji autokorelacji

 

 

 

 

( Równanie 3 )

oraz funkcja autokowariancji :

 

 

 

 

( Równanie 4 )

Normalizacja

Powszechną praktyką w niektórych dyscyplinach (np. statystyce i analizie szeregów czasowych ) jest normalizowanie funkcji autokowariancji w celu uzyskania zależnego od czasu współczynnika korelacji Pearsona . Jednak w innych dyscyplinach (np. inżynierskich) zwykle odchodzi się od normalizacji, a terminy „autokorelacja” i „autokowariancja” są używane zamiennie.

Definicja współczynnika autokorelacji procesu stochastycznego to

Jeśli funkcja jest dobrze zdefiniowana, jej wartość musi leżeć w zakresie , gdzie 1 oznacza idealną korelację, a -1 oznacza idealną antykorelację .

W przypadku procesu stacjonarności o słabym znaczeniu i procesu stacjonarności o szerokim znaczeniu (WSS) definicja to:

gdzie

Normalizacja jest ważna zarówno dlatego, że interpretacja autokorelacji jako korelacji zapewnia bezskalową miarę siły zależności statystycznej , jak i dlatego, że normalizacja ma wpływ na statystyczne właściwości oszacowanych autokorelacji.

Nieruchomości

Właściwość symetrii

Fakt, że funkcja autokorelacji jest funkcją parzystą można określić jako

odpowiednio dla procesu WSS:

Maksimum przy zerze

W przypadku procesu WSS:

Zauważ, że jest to zawsze prawdziwe.

nierówność Cauchy-Schwarza

Nierówność Cauchy'ego-Schwarza , nierówność dla procesów stochastycznych:

Autokorelacja białego szumu

Autokorelacja sygnału białego szumu w czasie ciągłym będzie miała silny pik (reprezentowany przez deltę Diraca ) przy i będzie dokładnie równy 0 dla wszystkich innych .

Twierdzenie Wienera-Khinchina

Twierdzenie Wienera-Khinchina odnosi funkcję autokorelacji do gęstości widmowej mocy poprzez transformację Fouriera :

W przypadku funkcji o wartościach rzeczywistych symetryczna funkcja autokorelacji ma rzeczywistą transformację symetryczną, więc twierdzenie Wienera-Khinchina można ponownie wyrazić w kategoriach rzeczywistych cosinusów:

Autokorelacja wektorów losowych

Macierz (potencjalnie zależna od czasu) autokorelacji (zwana również drugim momentem) losowego wektora (potencjalnie zależnego od czasu) jest macierzą zawierającą jako elementy autokorelacje wszystkich par elementów wektora losowego . Macierz autokorelacji jest wykorzystywana w różnych algorytmach przetwarzania sygnałów cyfrowych.

Dla wektora losowego zawierającego elementy losowe, których wartość oczekiwana i wariancja istnieją, macierz autokorelacji jest zdefiniowana przez

 

 

 

 

( Równanie 1 )

gdzie oznacza transpozycję i ma wymiary .

Pisemne pod kątem komponentów:

Jeśli jest złożonym wektorem losowym , macierz autokorelacji jest zamiast tego zdefiniowana przez

Tutaj oznacza transpozycję hermitowską .

Na przykład, jeśli jest wektorem losowym, to jest macierzą, której -ty wpis to .

Własności macierzy autokorelacji

  • Macierz autokorelacji jest macierzą hermitowską dla złożonych wektorów losowych i macierzą symetryczną dla rzeczywistych wektorów losowych.
  • Macierz autokorelacji jest macierzą dodatnią półokreśloną , tj. dla rzeczywistego wektora losowego i odpowiednio w przypadku złożonego wektora losowego.
  • Wszystkie wartości własne macierzy autokorelacji są rzeczywiste i nieujemne.
  • Matryca auto-kowariancji jest związana z matrycą autokorelacji w następujący sposób:

    Odpowiednio dla złożonych wektorów losowych:

Autokorelacja sygnałów deterministycznych

W przetwarzaniu sygnałów powyższa definicja jest często używana bez normalizacji, to znaczy bez odejmowania średniej i dzielenia przez wariancję. Gdy funkcja autokorelacji jest znormalizowana przez średnią i wariancję, czasami nazywa się ją współczynnikiem autokorelacji lub funkcją autokowariancji.

Autokorelacja sygnału ciągłego czasu

Biorąc pod uwagę sygnał , ciągła autokorelacja jest najczęściej definiowana jako ciągła całka korelacji krzyżowej z samym sobą, przy lag .

 

 

 

 

( Równanie 6 )

gdzie oznacza sprzężoną liczbę zespoloną o . Zauważ, że parametr w całce jest zmienną fikcyjną i jest potrzebny tylko do obliczenia całki. Nie ma konkretnego znaczenia.

Autokorelacja sygnału czasu dyskretnego

Dyskretna autokorelacja z opóźnieniem dla sygnału dyskretnego czasu wynosi

 

 

 

 

( Równanie 7 )

Powyższe definicje działają dla sygnałów całkowalnych do kwadratu lub sumowalnych do kwadratu, czyli o skończonej energii. Sygnały, które „trwają wiecznie” są zamiast tego traktowane jako procesy losowe, w którym to przypadku potrzebne są różne definicje, oparte na oczekiwanych wartościach. Dla szerokorozumianych stacjonarnych procesów losowych autokorelacje definiuje się jako

W przypadku procesów, które nie są stacjonarne , będą to również funkcje , lub .

W przypadku procesów, które są również ergodyczne , oczekiwanie można zastąpić limitem średniej czasowej. Autokorelacja procesu ergodycznego jest czasami definiowana jako lub utożsamiana z:

Definicje te mają tę zaletę, że dają sensowne, dobrze zdefiniowane wyniki jednoparametrowe dla funkcji okresowych, nawet jeśli funkcje te nie są wynikiem stacjonarnych procesów ergodycznych.

Alternatywnie, sygnały, które trwają wiecznie, można poddać analizie krótkoczasowej funkcji autokorelacji, wykorzystując całki skończone. (Patrz krótkoczasowa transformata Fouriera dla powiązanego procesu).

Definicja sygnałów okresowych

Jeżeli jest ciągłą funkcją okresową okresu , całkowanie od do zastępuje się całkowaniem po dowolnym przedziale długości :

co jest równoważne

Nieruchomości

W dalszej części opiszemy tylko własności jednowymiarowych autokorelacji, ponieważ większość własności można łatwo przenieść z przypadku jednowymiarowego do przypadków wielowymiarowych. Właściwości te dotyczą szeroko rozumianych procesów stacjonarnych .

  • Podstawową własnością autokorelacji jest symetria , którą łatwo wykazać z definicji. W przypadku ciągłym
    • autokorelacja jest funkcją parzystą, gdy jest funkcją rzeczywistą, i
    • autokorelacja jest funkcją hermitowską, gdy jest funkcją złożoną .
  • Ciągła funkcja autokorelacji osiąga swój szczyt w punkcie początkowym, gdzie przyjmuje wartość rzeczywistą, tj. dla dowolnego opóźnienia , . Jest to konsekwencja nierówności przegrupowań . Ten sam wynik obowiązuje w przypadku dyskretnym.
  • Autokorelacja funkcji okresowej jest sama w sobie okresowa z tym samym okresem.
  • Autokorelacja sumy dwóch całkowicie nieskorelowanych funkcji (korelacja krzyżowa wynosi zero dla wszystkich ) jest sumą autokorelacji każdej funkcji z osobna.
  • Ponieważ autokorelacja jest specyficznym rodzajem korelacji krzyżowej , zachowuje wszystkie właściwości korelacji krzyżowej.
  • Używając symbolu do reprezentowania splotu i jest funkcją, która manipuluje funkcją i jest zdefiniowana jako , definicję dla można zapisać jako:

Autokorelacja wielowymiarowa

Multi- dimensional autokorelacji jest zdefiniowana w podobny sposób. Na przykład, w trzech wymiarach autokorelacja sygnału dyskretnego sumującego się z kwadratem byłaby

Gdy wartości średnie są odejmowane od sygnałów przed obliczeniem funkcji autokorelacji, wynikowa funkcja jest zwykle nazywana funkcją autokowariancji.

Wydajne obliczenia

Dla danych wyrażonych jako ciąg dyskretny często konieczne jest obliczenie autokorelacji z dużą wydajnością obliczeniową . Metoda brute force oparta na definicji przetwarzania sygnałów mogą być stosowane, gdy wielkość sygnału jest mały. Na przykład, aby ręcznie obliczyć autokorelację rzeczywistej sekwencji sygnału (tj. i dla wszystkich innych wartości i ), najpierw rozpoznajemy, że podana właśnie definicja jest taka sama jak „zwykłe” mnożenie, ale z przesunięciem w prawo, gdzie każde dodawanie pionowe daje autokorelację dla poszczególnych wartości opóźnień:

Zatem wymagana sekwencja autokorelacji to , gdzie, a autokorelacja dla innych wartości opóźnień wynosi zero. W tym obliczeniu nie wykonujemy operacji przenoszenia podczas dodawania, jak to zwykle bywa w normalnym mnożeniu. Zauważ, że możemy zmniejszyć o połowę liczbę wymaganych operacji, wykorzystując wrodzoną symetrię autokorelacji. Jeśli sygnał bywa okresowe, czyli wtedy mamy okrągłą autokorelacji (podobny do okrągłej splotu ), gdzie po lewej i prawej ogony poprzedniej sekwencji autokorelacji będzie nakładanie i dać która ma taki sam okres jak sekwencja sygnałowa Procedurę można uznać jako zastosowanie własności splotu transformaty Z sygnału dyskretnego.

Chociaż algorytm brute force jest rzędu n 2 , istnieje kilka wydajnych algorytmów, które mogą obliczyć autokorelację w porządku n log( n ) . Na przykład twierdzenie Wienera-Khinchina umożliwia obliczenie autokorelacji z surowych danych X ( t ) z dwoma szybkimi transformatami Fouriera (FFT):

gdzie IFFT oznacza odwrotną szybką transformację Fouriera . Gwiazdka oznacza koniugat złożony .

Alternatywnie, wielokrotną korelację τ można wykonać, stosując obliczenie brutalnej siły dla niskich wartości τ , a następnie progresywnie łącząc dane X ( t ) z logarytmiczną gęstością w celu obliczenia wyższych wartości, co skutkuje taką samą wydajnością n log( n ) , ale z mniejszymi wymaganiami dotyczącymi pamięci.

Oszacowanie

Dla dyskretnego procesu o znanej średniej i wariancji, dla której obserwujemy obserwacje , oszacowanie autokorelacji można uzyskać jako

dla dowolnej dodatniej liczby całkowitej . Gdy znana jest prawdziwa średnia i wariancja , oszacowanie to jest bezstronne . Jeśli prawdziwa średnia i wariancja procesu nie są znane, istnieje kilka możliwości:

  • Jeśli i są zastąpione standardowymi formułami dla średniej próbki i wariancji próbki, to jest to obciążone oszacowanie .
  • Periodogram -na zostaje zastąpiony przez oszacować w powyższym wzorze z . Szacunek ten jest zawsze stronniczy; jednak zwykle ma mniejszy błąd średniokwadratowy.
  • Inne możliwości wynikają z traktowania dwóch porcji danych i oddzielnego oraz obliczania oddzielnych średnich próbek i/lub wariancji próbki do wykorzystania przy określaniu oszacowania.

Zaletą oszacowań ostatniego typu jest to, że zbiór oszacowanych autokorelacji, jako funkcja , tworzy funkcję, która jest ważną autokorelacją w tym sensie, że można zdefiniować proces teoretyczny mający dokładnie taką autokorelację. Inne oszacowania mogą ucierpieć z powodu tego, że jeśli zostaną użyte do obliczenia wariancji liniowej kombinacji 's, obliczona wariancja może okazać się ujemna.

Analiza regresji

W analizie regresji z wykorzystaniem danych szeregów czasowych autokorelacja w interesującej zmiennej jest zazwyczaj modelowana za pomocą modelu autoregresyjnego (AR), modelu średniej ruchomej (MA), ich kombinacji jako modelu autoregresyjnej średniej ruchomej (ARMA) lub rozszerzenie tego ostatniego nazwano autoregresyjnym zintegrowanym modelem średniej ruchomej (ARIMA). W przypadku wielu powiązanych serii danych stosowana jest autoregresja wektorowa (VAR) lub jej rozszerzenia.

W zwykłych metodach najmniejszych kwadratów (OLS) adekwatność specyfikacji modelu można częściowo sprawdzić, ustalając, czy istnieje autokorelacja reszt regresji . Problematyczna autokorelacja błędów, które same w sobie nie są obserwowane, można ogólnie wykryć, ponieważ powoduje ona autokorelację w obserwowalnych resztach. (Błędy są również znane jako „terminy błędów” w ekonometrii ). Autokorelacja błędów narusza zwykłe założenie najmniejszych kwadratów, że terminy błędu są nieskorelowane, co oznacza, że twierdzenie Gaussa Markowa nie ma zastosowania, a estymatory MNK nie są już najlepszymi Liniowe nieobciążone estymatory ( NIEBIESKI ). Chociaż nie obciąża to oszacowań współczynnika OLS, błędy standardowe są zwykle niedoszacowane (a wyniki t są przeszacowane), gdy autokorelacje błędów przy niskich opóźnieniach są dodatnie.

Tradycyjnym testem na obecność autokorelacji pierwszego rzędu jest statystyka Durbina-Watsona lub, jeśli zmienne objaśniające obejmują opóźnioną zmienną zależną, statystykę h Durbina . Durbina-Watsona można jednak liniowo odwzorować na korelację Pearsona między wartościami a ich opóźnieniami. Bardziej elastycznym testem, obejmującym autokorelację wyższych rzędów i mającym zastosowanie niezależnie od tego, czy regresory zawierają opóźnienia zmiennej zależnej, jest test Breuscha-Godfreya . Wiąże się to z regresją pomocniczą, w której reszty uzyskane z oszacowania modelu będącego przedmiotem zainteresowania są poddawane regresji względem (a) oryginalnych regresorów i (b) k opóźnień reszt, gdzie „k” jest kolejnością testu. Najprostszą wersją statystyki testowej z tej pomocniczej regresji jest TR 2 , gdzie T jest wielkością próby , a R 2 jest współczynnikiem determinacji . Zgodnie z hipotezą zerową braku autokorelacji ta statystyka ma rozkład asymptotyczny, jak w przypadku k stopni swobody.

Odpowiedzi na niezerową autokorelację obejmują uogólnioną metodę najmniejszych kwadratów i estymator Newey-West HAC (Heteroskedasticity and Autocorrelation Consistent).

W estymacji modelu średniej ruchomej (MA) funkcja autokorelacji jest używana do określenia odpowiedniej liczby składników błędu opóźnionego, które należy uwzględnić. Opiera się to na fakcie, że dla procesu MA o zamówieniu q mamy , for , i , for .

Aplikacje

Zależność szeregowa

Zależność szeregowa jest ściśle powiązana z pojęciem autokorelacji, ale reprezentuje odrębną koncepcję (patrz Korelacja i zależność ). W szczególności możliwa jest zależność szeregowa, ale brak (liniowej) korelacji. Jednak w niektórych dziedzinach oba terminy są używane jako synonimy.

Szeregi czasowe o zmiennej losowej ma zależność seryjny, jeżeli wartość w pewnym momencie w serii jest statystycznie zależne od wartości w innym czasie . Szereg jest szeregowo niezależny, jeśli nie ma zależności między żadną parą.

Jeżeli szereg czasowy jest stacjonarny , wówczas zależność statystyczna między parą oznaczałaby, że istnieje zależność statystyczna między wszystkimi parami wartości z tym samym opóźnieniem .

Zobacz też

Bibliografia

Dalsza lektura