Rodzaje algorytmów Monte Carlo do przetwarzania sygnałów i wnioskowania statystycznego
Ten artykuł dotyczy algorytmów matematycznych. Informacje na temat urządzeń do filtrowania cząstek z powietrza zawiera temat
Filtr powietrza .
Filtry cząstek lub metody sekwencyjne Monte Carlo to zestaw algorytmów Monte Carlo używanych do rozwiązywania problemów filtrowania pojawiających się w przetwarzaniu sygnałów i wnioskowaniu statystycznym Bayesa . Filtrowania Problem polega szacowania stanów wewnętrznych systemach dynamicznych , gdy częściowe obserwacje wykonane i przypadkowe zaburzenia występują w czujnikach, a także w system dynamicznego. Celem jest obliczenie rozkładów a posteriori stanów pewnego procesu Markowa przy pewnych obserwacjach zaszumionych i cząstkowych. Termin „filtry cząstek” został po raz pierwszy ukuty w 1996 roku przez Del Morala w odniesieniu do metod oddziałujących na cząstki średniego pola stosowanych w mechanice płynów od początku lat sześćdziesiątych. Termin „Sekwencyjne Monte Carlo” został ukuty przez Liu i Chen w 1998 roku.
Filtrowanie cząstek wykorzystuje zestaw cząstek (zwanych również próbkami) do reprezentowania a posteriori rozkładu jakiegoś procesu stochastycznego przy zaszumionych i/lub częściowych obserwacjach. Model w przestrzeni stanów może być nieliniowy, a rozkłady stanu początkowego i szumu mogą przybierać dowolną wymaganą formę. Techniki filtrowania cząstek zapewniają ugruntowaną metodologię generowania próbek z wymaganej dystrybucji bez wymagania założeń dotyczących modelu przestrzeni stanów lub rozkładów stanów. Jednak metody te nie sprawdzają się dobrze, gdy są stosowane do systemów o bardzo dużych wymiarach.
Filtry cząstek aktualizują swoje przewidywania w sposób przybliżony (statystyczny). Próbki z rozkładu są reprezentowane przez zbiór cząstek; każda cząstka ma przypisaną wagę prawdopodobieństwa, która reprezentuje prawdopodobieństwo pobrania próbki tej cząstki z funkcji gęstości prawdopodobieństwa. Dysproporcja wagi prowadząca do spadku wagi jest częstym problemem napotykanym w tych algorytmach filtrowania; jednak można to złagodzić, włączając etap ponownego próbkowania, zanim wagi staną się zbyt nierówne. Można zastosować kilka adaptacyjnych kryteriów ponownego próbkowania, w tym wariancję wag i względną entropię w odniesieniu do rozkładu równomiernego. Na etapie ponownego próbkowania cząstki o znikomej masie są zastępowane nowymi cząstkami w pobliżu cząstek o większej masie.
Ze statystycznego i probabilistycznego punktu widzenia filtry cząstek można interpretować jako interpretacje cząstek średniego pola miar prawdopodobieństwa Feynmana-Kaca . Te techniki integracji cząstek zostały opracowane w chemii molekularnej i fizyce obliczeniowej przez Theodore'a E. Harrisa i Hermana Kahna w 1951 r., Marshalla N. Rosenblutha i Ariannę W. Rosenbluth w 1955 r., a ostatnio przez Jacka H. Hetheringtona w 1984 r. W fizyce obliczeniowej te techniki Metody integracji ścieżki cząstek typu Feynman-Kac są również stosowane w Quantum Monte Carlo , a dokładniej w metodach dyfuzyjnych Monte Carlo . Metody cząstek oddziałujących Feynmana-Kaca są również silnie powiązane z algorytmami genetycznymi selekcji mutacji, używanymi obecnie w obliczeniach ewolucyjnych do rozwiązywania złożonych problemów optymalizacji.
Metodologia filtra cząstek jest wykorzystywana do rozwiązywania problemów z ukrytym modelem Markowa (HMM) i nieliniowego filtrowania . Z godnym uwagi wyjątkiem modeli liniowej obserwacji sygnału Gaussa ( filtr Kalmana ) lub szerszych klas modeli (filtr Benesa) Mireille Chaleyat-Maurel i Dominique Michel udowodnili w 1984 roku, że sekwencja rozkładów a posteriori losowych stanów sygnału obserwacje (inaczej filtr optymalny) nie mają skończenie rekurencyjnej rekurencji. Różne inne metody numeryczne oparte na aproksymacjach siatek stałych, technikach Markowa Chain Monte Carlo , konwencjonalnej linearyzacji, rozbudowanych filtrach Kalmana , czy wyznaczaniu najlepszego systemu liniowego (w sensie oczekiwanego kosztu-błędu) nie radzą sobie z systemami o dużej skali, niestabilnymi procesami, lub gdy nieliniowości nie są wystarczająco gładkie.
Filtry cząstek i metodologie cząstek Feynman-Kac znajdują zastosowanie w przetwarzaniu sygnałów i obrazów , wnioskowaniu bayesowskim , uczeniu maszynowym , analizie ryzyka i próbkowaniu zdarzeń rzadkich , inżynierii i robotyce , sztucznej inteligencji , bioinformatyce , filogenetyce , informatyce , ekonomii i finansach matematycznych , chemii molekularnej , fizyka obliczeniowa , farmakokinetyka i inne dziedziny.
Historia
Algorytmy heurystyczne
Ze statystycznego i probabilistycznego punktu widzenia filtry cząstek należą do klasy algorytmów typu rozgałęziającego / genetycznego oraz metodologii cząstek oddziałujących typu średniego pola. Interpretacja tych metod cząstek zależy od dyscypliny naukowej. W Evolutionary Computing , uśrednione pole typu genetycznego cząstek metodologie są często stosowane jako heurystycznego naturalnych i algorytmy do wyszukiwania (czyli metaheurystyka ). W fizyce obliczeniowej i chemii molekularnej są one wykorzystywane do rozwiązywania problemów integracji ścieżek Feynmana-Kaca lub do obliczania miar Boltzmanna-Gibbsa, najwyższych wartości własnych i stanów podstawowych operatorów Schrödingera . W biologii i genetyce reprezentują one również ewolucję populacji osobników lub genów w pewnym środowisku.
Początki ewolucyjnych technik obliczeniowych typu średniego pola można prześledzić w latach 1950 i 1954 dzięki przełomowym pracom Alana Turinga na temat maszyn uczących selekcji mutacji typu genetycznego oraz artykułom Nilsa Aalla Barricelli w Institute for Advanced Study w Princeton, New Jersey . Pierwsze ślady filtrów cząstek stałych w metodologii statystycznej sięgają połowy lat pięćdziesiątych; „Monte Carlo biednego człowieka”, zaproponowane przez Hammersleya i in. w 1954 r., zawierało wskazówki dotyczące stosowanych dzisiaj metod filtrowania cząstek typu genetycznego. W 1963 Nils Aall Barricelli symulował algorytm typu genetycznego, aby naśladować zdolność osób do grania w prostą grę. W literaturze komputerowej ewolucyjne algorytmy selekcji mutacji typu genetycznego stały się popularne dzięki przełomowej pracy Johna Hollanda we wczesnych latach 70., a zwłaszcza jego książce opublikowanej w 1975 roku.
W Biology and Genetics australijski genetyk Alex Fraser opublikował również w 1957 serię artykułów na temat symulacji typu genetycznego sztucznej selekcji organizmów. Komputerowa symulacja ewolucji przez biologów stała się bardziej powszechna we wczesnych latach sześćdziesiątych, a metody zostały opisane w książkach Frasera i Burnella (1970) oraz Crosby'ego (1973). Symulacje Frasera obejmowały wszystkie istotne elementy nowoczesnych algorytmów cząstek genetycznych do selekcji mutacji.
Z matematycznego punktu widzenia warunkowy rozkład losowych stanów sygnału przy niektórych obserwacjach cząstkowych i zaszumionych jest opisany prawdopodobieństwem Feynmana-Kaca na losowych trajektoriach sygnału ważonych sekwencją funkcji potencjału wiarygodności. Metody kwantowego Monte Carlo , a dokładniej metody dyfuzyjnego Monte Carlo, mogą być również interpretowane jako przybliżenie cząstek typu średniego pola genetycznego całek ścieżki Feynmana-Kaca. Początki metod Quantum Monte Carlo są często przypisywane Enrico Fermi i Robertowi Richtmyerowi, którzy opracowali w 1948 roku interpretację cząstek średniego pola reakcji łańcuchów neutronów, ale pierwszy algorytm cząstek typu heurystycznego i genetycznego (znany również jako Resampled lub Reconfiguration Monte Carlo). metodami) do szacowania energii stanu podstawowego układów kwantowych (w modelach zredukowanych macierzy) opracował Jack H. Hetherington w 1984 roku. Można też zacytować wcześniejsze przełomowe prace Theodore'a E. Harrisa i Hermana Kahna z fizyki cząstek elementarnych, opublikowane w 1951 roku, przy użyciu metod genetycznych średniego pola, ale heurystycznych, do szacowania energii transmisji cząstek. W chemii molekularnej wykorzystanie genetycznych metodologii cząstek podobnych do heurystyki (inaczej strategii przycinania i wzbogacania) można prześledzić wstecz do 1955 r. dzięki przełomowej pracy Marshalla. N. Rosenblutha i Arianny. W. Rosenblutha.
Zastosowanie algorytmów cząstek genetycznych w zaawansowanym przetwarzaniu sygnałów i wnioskowaniu bayesowskim jest nowsze. W styczniu 1993 r. Genshiro Kitagawa opracował „filtr Monte Carlo”, nieco zmodyfikowaną wersję tego artykułu, która pojawiła się w 1996 r. W kwietniu 1993 r. Gordon i wsp. opublikowali w swojej przełomowej pracy zastosowanie algorytmu typu genetycznego w Bayesowskim wnioskowaniu statystycznym. Autorzy nazwali swój algorytm „filtrem ładowania początkowego” i wykazali, że w porównaniu z innymi metodami filtrowania, ich algorytm ładowania początkowego nie wymaga żadnych założeń dotyczących tej przestrzeni stanów ani szumu systemu. Niezależnie od tego, te autorstwa Pierre'a Del Morala i Himilcona Carvalho, Pierre'a Del Morala, André Monina i Gérarda Saluta o filtrach cząstek opublikowane w połowie lat dziewięćdziesiątych. Filtry cząstek zostały również opracowane w przetwarzaniu sygnałów na początku 1989-1992 przez P. Del Moral, JC Noyer, G. Rigal i G. Salut w LAAS-CNRS w serii zastrzeżonych i sklasyfikowanych raportów badawczych z STCAN (Technika Serwisowa des Constructions et Armes Navales), firma informatyczna DIGILOG oraz LAAS -CNRS (Laboratorium Analizy i Architektury Systemów) zajmujące się problemami przetwarzania sygnałów RADAR/SONAR i GPS.
Podstawy matematyczne
Od 1950 do 1996 roku wszystkie publikacje dotyczące filtrów cząstek, algorytmów genetycznych, w tym metody przycinania i resample Monte Carlo wprowadzone do fizyki obliczeniowej i chemii molekularnej, prezentują naturalne i heurystyczne algorytmy stosowane w różnych sytuacjach bez jednego dowodu ich spójności, ani dyskusji na temat stronniczości szacunków oraz algorytmów opartych na drzewach genealogicznych i przodków.
Podstawy matematyczne i pierwsza rygorystyczna analiza tych algorytmów cząstek zostały opracowane przez Pierre'a Del Morala w 1996 roku. Artykuł zawiera również dowód na nieobciążone właściwości przybliżeń cząstek funkcji wiarygodności i nieznormalizowanych miar prawdopodobieństwa warunkowego . Nieobciążony estymator cząstek funkcji wiarogodności przedstawiony w tym artykule jest obecnie używany we wnioskowaniu statystycznym bayesowskim.
Metodologie cząstek typu rozgałęzionego o różnej wielkości populacji zostały również opracowane pod koniec lat 90. przez Dan Crisan, Jessica Gaines i Terry Lyons oraz Dan Crisan, Pierre Del Moral i Terry Lyons. Dalsze osiągnięcia w tej dziedzinie zostały opracowane w 2000 r. przez P. Del Morala, A. Guionneta i L. Miclo. Pierwsze centralne twierdzenia graniczne pochodzą od Pierre'a Del Morala i Alice Guionnet w 1999 r. oraz Pierre'a Del Morala i Laurenta Miclo w 2000 r. Pierwsze jednorodne wyniki zbieżności w odniesieniu do parametru czasu dla filtrów cząstek zostały opracowane pod koniec lat 90. przez Pierre'a Del Moral i Alice Guionnet. Pierwsza rygorystyczna analiza wygładzaczy filtrów cząstek opartych na drzewie genealogicznym została przeprowadzona przez P. Del Morala i L. Miclo w 2001 r.
Teoria dotycząca metodologii cząstek Feynmana-Kaca i powiązanych algorytmów filtrów cząstek została opracowana w latach 2000 i 2004 w książkach. Te abstrakcyjne modele probabilistyczne zawierają algorytmy typu genetycznego, filtry cząstek i filtrów ładowania początkowego, współdziałające filtry Kalmana (inaczej filtr cząstek Rao-Blackwellized), techniki filtrowania cząstek w stylu ważności próbkowania i ponownego próbkowania, w tym metodologie oparte na drzewie genealogicznym i metodologii wstecznej cząstek do rozwiązywania problemów filtrowania i wygładzania. Inne klasy metodologii filtrowania cząstek obejmują modele oparte na drzewie genealogicznym, wsteczne modele cząstek Markowa, adaptacyjne modele cząstek średniego pola, modele cząstek typu wyspowego oraz metodologie Monte Carlo łańcuchów cząstek Markowa.
Problem z filtrowaniem
Cel
Celem filtra cząstek jest oszacowanie gęstości a posteriori zmiennych stanu przy danych zmiennych obserwacji. Filtr cząstek jest zaprojektowany dla ukrytego modelu Markowa , w którym system składa się zarówno ze zmiennych ukrytych, jak i obserwowalnych. Zmienne obserwowalne (proces obserwacji) są powiązane ze zmiennymi ukrytymi (proces stanu) przez pewną znaną formę funkcjonalną. Podobnie znany jest probabilistycznie układ dynamiczny opisujący ewolucję zmiennych stanu.
Ogólny filtr cząstek szacuje rozkład a posteriori stanów ukrytych przy użyciu procesu pomiaru obserwacji. Rozważ przestrzeń stanów pokazaną na poniższym diagramie.
Problemem z filtrowaniem jest sekwencyjne oszacowanie wartości stanów ukrytych , biorąc pod uwagę wartości procesu obserwacji w dowolnym kroku czasowym k .
Wszystkie bayesowskie szacunki wynikają z gęstości a posteriori . Metodologia filtra cząstek zapewnia przybliżenie tych prawdopodobieństw warunkowych przy użyciu miary empirycznej związanej z algorytmem cząstek typu genetycznego. W przeciwieństwie do tego, metoda Monte Carlo z łańcuchem Markowa lub próbkowanie znaczenia pozwoliłoby modelować cały a posteriori .
Model obserwacji sygnału
Metody cząstek często zakładają, a obserwacje można modelować w tej postaci:
-
jest procesem Markowa na (dla niektórych ), który ewoluuje zgodnie z gęstością prawdopodobieństwa przejścia . Model ten jest również często pisany w sposób syntetyczny, jak
- z początkową gęstością prawdopodobieństwa .
- Obserwacje przyjmują wartości w pewnej przestrzeni stanów na (dla niektórych ) i są warunkowo niezależne pod warunkiem, że są znane. Innymi słowy, każdy zależy tylko od . Dodatkowo zakładamy, że rozkłady warunkowe dla danych są absolutnie ciągłe i w sposób syntetyczny mamy
Przykładem systemu z tymi właściwościami jest:
gdzie oba i są wzajemnie niezależnymi sekwencjami o znanych funkcjach gęstości prawdopodobieństwa, a g i h są znanymi funkcjami. Te dwa równania mogą być postrzegane jako równania w przestrzeni stanów i wyglądają podobnie do równań w przestrzeni stanów dla filtru Kalmana. Jeśli funkcje g i h w powyższym przykładzie są liniowe, a jeśli obie i są Gaussian , filtr Kalmana znajduje dokładny rozkład filtrowania Bayesa. Jeśli nie, metody oparte na filtrze Kalmana są przybliżeniem pierwszego rzędu ( EKF ) lub przybliżeniem drugiego rzędu ( ogólnie UKF , ale jeśli rozkład prawdopodobieństwa jest Gaussa, możliwe jest przybliżenie trzeciego rzędu).
Można rozluźnić założenie, że rozkład początkowy i przejścia łańcucha Markowa są absolutnie ciągłe względem miary Lebesgue'a. Aby zaprojektować filtr cząstek, musimy po prostu założyć, że możemy próbkować przejścia łańcucha Markowa i obliczyć funkcję prawdopodobieństwa (patrz na przykład opis mutacji selekcji genetycznej filtra cząstek podany poniżej). Absolutnie ciągłe założenie o przejściach Markowa jest używane tylko do wyprowadzania w nieformalny (i raczej obraźliwy) sposób różnych wzorów między rozkładami a posteriori przy użyciu reguły Bayesa dla warunkowych gęstości.
Przybliżone bayesowskie modele obliczeniowe
W niektórych problemach warunkowy rozkład obserwacji ze względu na losowe stany sygnału może nie mieć gęstości lub może być niemożliwy lub zbyt złożony do obliczenia. W tej sytuacji musimy uciec się do dodatkowego poziomu zbliżenia. Jedną ze strategii jest zastąpienie sygnału łańcuchem Markowa i wprowadzenie wirtualnej obserwacji formy
dla pewnego ciągu niezależnych ciągów o znanych funkcjach gęstości prawdopodobieństwa . Główną ideą jest obserwowanie tego
Filtr cząstek związany z procesem Markowa, biorąc pod uwagę obserwacje cząstkowe, jest zdefiniowany w kategoriach cząstek ewoluujących z funkcją wiarygodności podaną z pewnym oczywistym nadużyciem przez . Te probabilistyczne techniki są ściśle związane z przybliżonym obliczeniem bayesowskim (ABC). W kontekście filtrów cząstek, te techniki filtrowania cząstek ABC zostały wprowadzone w 1998 r. przez P. Del Moral, J. Jacod i P. Protter. Zostały one rozwinięte przez P. Del Morala, A. Douceta i A. Jasrę.
Nieliniowe równanie filtrowania
Reguła Bayesa dla prawdopodobieństwa warunkowego daje:
gdzie
Filtry cząstek są również przybliżeniem, ale przy wystarczającej liczbie cząstek mogą być znacznie dokładniejsze. Nieliniowe równanie filtrowania jest podane przez rekursję
-
|
|
(Równanie 1)
|
z konwencją dla k = 0. Problem filtrowania nieliniowego polega na sekwencyjnym obliczaniu tych rozkładów warunkowych.
Formuła Feynmana-Kaca
Ustalamy horyzont czasowy n i ciąg obserwacji , a dla każdego k = 0, ..., n ustalamy:
W tym zapisie, dla dowolnej ograniczonej funkcji F na zbiorze trajektorii od początku k = 0 do czasu k = n , mamy wzór Feynmana-Kaca
Te modele integracji ścieżek Feynmana-Kaca powstają w różnych dyscyplinach naukowych, w tym w fizyce obliczeniowej, biologii, teorii informacji i informatyce. Ich interpretacje zależą od dziedziny aplikacji. Na przykład, jeśli wybierzemy funkcję wskaźnika pewnego podzbioru przestrzeni stanów, reprezentują one warunkowy rozkład łańcucha Markowa, biorąc pod uwagę, że pozostaje on w danej rurze; czyli mamy:
i
gdy tylko stała normalizująca jest ściśle dodatnia.
Filtry cząstek
Algorytm cząstek typu genetycznego
Początkowo zaczynamy od N niezależnych zmiennych losowych o wspólnej gęstości prawdopodobieństwa . Algorytm genetyczny przejścia selekcja-mutacja
naśladować/przybliżyć przejścia aktualizacja-predykcja optymalnej ewolucji filtra ( Równanie 1 ):
-
Podczas przejścia selekcji uaktualniający że próbka N (warunkowo) niezależnymi zmiennymi losowymi ze wspólnym (warunkowych) rozkład
gdzie oznacza miarę Diraca w danym stanie a.
-
Podczas przejścia mutacja-przewidywanie, z każdej wybranej cząstki pobieramy niezależnie przejście
W przedstawionych powyżej wzorach oznacza funkcję prawdopodobieństwa oszacowaną na , a oznacza gęstość warunkową oszacowaną na .
Za każdym razem k mamy przybliżenia cząstek
i
W algorytmach genetycznych i społeczności komputerów ewolucyjnych , opisany powyżej łańcuch Markowa selekcji mutacji jest często nazywany algorytmem genetycznym z selekcją proporcjonalną. W artykułach zaproponowano również kilka wariantów rozgałęzień, w tym z losową liczebnością populacji.
Metody cząsteczkowe, podobnie jak wszystkie podejścia oparte na próbkowaniu (np. Markov Chain Monte Carlo), generują zestaw próbek, który przybliża gęstość filtrowania
Na przykład możemy mieć N próbek z przybliżonego rozkładu a posteriori , gdzie próbki są oznaczone indeksami górnymi jako
Następnie oczekiwania względem rozkładu filtrowania są aproksymowane przez
-
|
|
(Równanie 2)
|
z
gdzie oznacza miarę Diraca w danym stanie a. Funkcja f , w zwykły sposób dla Monte Carlo, może podać wszystkie momenty itp. rozkładu aż do pewnego błędu aproksymacji. Gdy równanie aproksymacyjne ( równanie 2 ) jest spełnione dla dowolnej ograniczonej funkcji f piszemy
Filtry cząstek mogą być interpretowane jako algorytm cząstek typu genetycznego ewoluujący wraz z przejściami mutacji i selekcji. Możemy śledzić linie przodków
cząstek . Stany losowe o niższych wskaźnikach l=0,...,k oznaczają przodka osobnika na poziomie l=0,...,k. W tej sytuacji mamy do czynienia z formułą aproksymacyjną
-
|
|
(Równanie 3)
|
z miarą empiryczną
Tutaj F oznacza każdą założoną funkcję w przestrzeni ścieżki sygnału. W bardziej syntetycznej formie ( równanie 3 ) jest równoważne
Filtry cząstek można interpretować na wiele różnych sposobów. Z probabilistycznego punktu widzenia pokrywają się one z interpretacją cząstek o średnim polu nieliniowego równania filtrowania. Przejścia aktualizacja-przewidywanie optymalnej ewolucji filtra mogą być również interpretowane jako klasyczne przejścia selekcja-mutacja typu genetycznego osobników. Technika ponownego próbkowania o ważności sekwencyjnej zapewnia inną interpretację przejść filtrowania łączących próbkowanie ważności z etapem ponownego próbkowania z ładowaniem początkowym. Wreszcie, co nie mniej ważne, filtry cząstek mogą być postrzegane jako metodologia akceptacji i odrzucenia wyposażona w mechanizm recyklingu.
Ogólna zasada probabilistyczna
Ewolucję filtrowania nieliniowego można interpretować jako układ dynamiczny w zbiorze miar prawdopodobieństwa o następującej postaci, gdzie oznacza pewne odwzorowanie ze zbioru rozkładu prawdopodobieństwa na siebie. Na przykład ewolucja jednostopniowego optymalnego predyktora
spełnia nieliniową ewolucję rozpoczynającą się od rozkładu prawdopodobieństwa . Jednym z najprostszych sposobów przybliżenia tych miar prawdopodobieństwa jest rozpoczęcie od N niezależnych zmiennych losowych o wspólnym rozkładzie prawdopodobieństwa . Załóżmy, że zdefiniowaliśmy sekwencję N zmiennych losowych taką, że
W kolejnym kroku próbkujemy N (warunkowo) niezależnych zmiennych losowych za pomocą common law .
Interpretacja cząstek równania filtrowania
Ilustrujemy tę zasadę cząstki średniego pola w kontekście ewolucji jednostopniowych optymalnych predyktorów
-
|
|
(Równanie 4)
|
Dla k = 0 używamy konwencji .
Zgodnie z prawem wielkich liczb mamy
w tym sensie, że
dla dowolnej funkcji ograniczonej . Dalej zakładamy, że skonstruowaliśmy sekwencję cząstek o pewnej randze k, taką, że
w tym sensie, że dla dowolnej funkcji ograniczonej mamy
W tej sytuacji, zastąpienie przez środek empirycznych w równaniu ewolucji optymalnego filtru jednoetapowy podanej w ( równ. 4 ) znajdujemy, że
Zauważ, że prawa strona powyższego wzoru to ważona mieszanina prawdopodobieństwa
gdzie oznacza gęstość ocenianej na , i oznacza gęstość ocenianego na za
Następnie próbkujemy N niezależnej zmiennej losowej o wspólnej gęstości prawdopodobieństwa tak, że
Powtarzając tę procedurę, projektujemy łańcuch Markowa taki, że
Zauważ, że optymalny filtr jest aproksymowany w każdym kroku czasowym k przy użyciu formuł Bayesa
Terminologia „aproksymacja pola średniego” wynika z tego, że w każdym kroku zastępujemy miarę prawdopodobieństwa przybliżeniem empirycznym . Aproksymacja problemu filtrowania cząstek średniego pola nie jest unikatowa. W książkach opracowano kilka strategii.
Niektóre wyniki konwergencji
Analizę zbieżności filtrów cząstek stałych rozpoczęto w 1996 i 2000 roku w książce i serii artykułów. Nowsze osiągnięcia można znaleźć w książkach: Gdy równanie filtrowania jest stabilne (w tym sensie, że koryguje wszelkie błędne warunki początkowe), obciążenie i wariancja szacunków cząstek
są kontrolowane przez nieasymptotyczne jednolite oszacowania
dla dowolnej funkcji f ograniczonej przez 1 i dla niektórych stałych skończonych Dodatkowo dla dowolnych :
dla pewnych skończonych stałych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c . Te same wyniki są spełnione, jeśli zastąpimy jednostopniowy optymalny predyktor optymalnym przybliżeniem filtra.
Drzewa genealogiczne i własności bezstronności
Wygładzanie cząstek oparte na drzewie genealogicznym
Cofanie się w czasie linii przodków
indywiduów i w każdym kroku k , mamy również przybliżenia cząstek
Te przybliżenia empiryczne są równoważne przybliżeniom całki cząstkowej
dla dowolnej ograniczonej funkcji F na losowych trajektoriach sygnału. Jak pokazano w ewolucji drzewa genealogicznego zbiega się z interpretacją cząstek średniego pola równań ewolucji związanych z gęstościami tylnymi trajektorii sygnału. Więcej szczegółów na temat tych modeli przestrzeni ścieżek można znaleźć w książkach.
Nieobciążone szacunki cząstek funkcji wiarygodności
Używamy formuły produktu
z
i konwencje i dla k = 0. Wymiana przez empiryczne zbliżania
w przedstawionym powyżej wzorze projektujemy następujące przybliżenie nieobciążonej cząstki funkcji wiarogodności
z
gdzie oznacza gęstość ocenianą w . Projekt oszacowania tej cząstki i własność bezstronności został udowodniony w 1996 roku w artykule. Dopracowane szacunki wariancji można znaleźć w i.
Wygładzacze cząstek do tyłu
Korzystając z reguły Bayesa, mamy wzór
Zauważ, że
To daje do zrozumienia ze
Zastąpienie jednostopniowych optymalnych predyktorów miarami empirycznymi cząstek
znaleźliśmy to
Dochodzimy do wniosku, że
z przybliżeniem cząstki wstecznej
Miara prawdopodobieństwa
jest prawdopodobieństwem, że losowe ścieżki łańcucha Markowa biegną wstecz w czasie od czasu k=n do czasu k=0 i ewoluują w każdym kroku czasowym k w przestrzeni stanów związanej z populacją cząstek
- Początkowo (w czasie k=n) łańcuch wybiera losowo stan o rozkładzie
- Od czasu k do czasu (k-1), łańcuch rozpoczynający się w pewnym stanie przez jakiś czas w czasie k przemieszcza się w czasie (k-1) do losowego stanu wybranego z dyskretnym prawdopodobieństwem ważonym
W powyższym wzorze oznacza rozkład warunkowy oceniany na . W tym samym duchu i reprezentują gęstości warunkowe i oceniane w i Modele te pozwalają na zmniejszenie integracji w odniesieniu do gęstości w zakresie operacji macierzowych w odniesieniu do przejść Markowa w łańcuchu opisanym powyżej. Na przykład dla dowolnej funkcji mamy oszacowania cząstek
gdzie
Pokazuje to również, że jeśli
następnie
Niektóre wyniki konwergencji
Przyjmiemy, że równanie filtrowania jest stabilne, w tym sensie, że koryguje wszelkie błędne warunki początkowe.
W tej sytuacji przybliżenia cząstek funkcji wiarygodności są nieobciążone, a względna wariancja jest kontrolowana przez
dla pewnej skończonej stałej c . Ponadto dla każdego :
dla pewnych stałych skończonych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c .
Stronniczość i wariancja szacunków cząstek cząstek na podstawie linii przodków drzew genealogicznych
są kontrolowane przez nieasymptotyczne jednolite oszacowania
dla dowolnej funkcji F ograniczonej przez 1 i dla niektórych stałych skończonych Dodatkowo dla dowolnych :
dla pewnych stałych skończonych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c . Ten sam rodzaj oszacowań odchylenia i wariancji dotyczy wygładzaczy cząstek wstecznych. Dla funkcjonałów addytywnych postaci
z
z funkcjami ograniczonymi przez 1, mamy
i
dla niektórych stałych skończonych Bardziej wyrafinowane szacunki, w tym wykładniczo małe prawdopodobieństwo błędów, opracowano w.
Sekwencyjne Ponowne Próbkowanie Ważności (SIR)
Filtr Monte Carlo i filtr ładowania początkowego
Ponowne próbkowanie o znaczeniu sekwencyjnym (SIR) , filtrowanie Monte Carlo (Kitagawa 1993) i algorytm filtrowania bootstrap (Gordon i in. 1993) są również powszechnie stosowanymi algorytmami filtrowania, które przybliżają gęstość prawdopodobieństwa filtrowania za pomocą ważonego zestawu N próbek
Te ciężary znaczenie stanowią przybliżenia względnego prawdopodobieństwa a posteriori (lub gęstość) próbek takie, że
Próbkowanie według ważności sekwencyjnej (SIS) jest sekwencyjną (tj. rekurencyjną) wersją próbkowania według ważności . Podobnie jak w przypadku próbkowania ważności, oczekiwanie funkcji f można aproksymować jako średnią ważoną
W przypadku skończonego zestawu próbek wydajność algorytmu zależy od wyboru rozkładu propozycji
-
.
„ Optymalna” dystrybucja propozycji jest podana jako dystrybucja docelowa
Ten szczególny wybór propozycji przejścia został zaproponowany przez P. Del Morala w 1996 i 1998 roku. Gdy trudno jest próbkować przejścia zgodnie z rozkładem, naturalną strategią jest zastosowanie następującego przybliżenia cząstek
z przybliżeniem empirycznym
związane z N (lub dowolną inną dużą liczbą próbek) niezależnych losowych próbek z podanym warunkowym rozkładem stanu losowego . Konsystencja wynikowego filtra cząstek tego przybliżenia i innych rozszerzeń jest rozwijana w. Na powyższym wyświetlaczu oznacza miarę Diraca w danym stanie a.
Jednak rozkład prawdopodobieństwa przejścia a priori jest często używany jako funkcja ważności, ponieważ łatwiej jest narysować cząstki (lub próbki) i wykonać kolejne obliczenia wagi ważności:
Filtry SIR ( Sequential Importance Resampling ) z rozkładem prawdopodobieństwa przejścia jako funkcją ważności są powszechnie znane jako filtr ładowania początkowego i algorytm kondensacji .
Ponowne próbkowanie służy do uniknięcia problemu degeneracji algorytmu, czyli uniknięcia sytuacji, w której wszystkie wagi ważności poza jednym są bliskie zeru. Na działanie algorytmu może mieć również wpływ odpowiedni dobór metody resamplingu. Losowanie warstwowe proponowany przez Kitagawa (1993) jest optymalny pod względem wariancji.
Pojedynczy krok ponownego próbkowania ważności sekwencyjnej jest następujący:
- 1) Do losowania próbek z dystrybucji propozycji
- 2) W celu aktualizacji wag ważności aż do stałej normalizacyjnej:
- Zauważ, że gdy używamy rozkładu prawdopodobieństwa a priori przejścia jako funkcji ważności,
- upraszcza to do następujących:
- 3) Aby obliczyć znormalizowane wagi ważności:
- 4) Oblicz oszacowanie efektywnej liczby cząstek jako
- Kryterium to odzwierciedla wariancję wag, inne kryteria można znaleźć w artykule, w tym ich rygorystyczną analizę i centralne twierdzenia graniczne.
- 5) Jeżeli efektywna liczba cząstek jest mniejsza od podanego progu , należy przeprowadzić resampling:
- a) Narysuj N cząstek z bieżącego zbioru cząstek z prawdopodobieństwami proporcjonalnymi do ich wag. Zastąp obecny zestaw cząsteczek nowym.
- b) Do zestawu
Określenie „Sampling Znaczenie Ponowne próbkowanie” jest również czasem używane w odniesieniu do filtrów sir, ale termin Znaczenie Ponowne próbkowanie jest bardziej dokładne, ponieważ słowo „resampling” zakłada, że początkowy próbkowania zostało już zrobione.
Próbkowanie o znaczeniu sekwencyjnym (SIS)
- To to samo, co sekwencyjny resampling ważności, ale bez etapu resamplingu.
Algorytm „wersja bezpośrednia”
Algorytm „wersja bezpośrednia” jest dość prosty (w porównaniu do innych algorytmów filtrowania cząstek) i wykorzystuje skład i odrzucanie. Aby wygenerować pojedynczą próbkę x w k z :
- 1) Ustaw n=0 (To zliczy liczbę cząstek wygenerowanych do tej pory)
- 2) Jednostajnie wybierz wskaźnik i z zakresu
- 3) Wygeneruj test z dystrybucji za pomocą
- 4) Generowanie prawdopodobieństwo użyciem z którym jest wartość mierzona
- 5) Wygeneruj kolejny mundur u skąd
- 6) Porównaj ciebie i
- 6a) Jeśli u jest większe, powtórz od kroku 2
- 6b) Jeśli u jest mniejsze, zapisz jako i zwiększ n
- 7) Jeśli n == N to zakończ
Celem jest wygenerowanie „cząstek” P w k przy użyciu tylko cząstek z . Wymaga to zapisania (i obliczenia) równania Markowa w celu wygenerowania opartego tylko na . Algorytm ten wykorzystuje kompozycję cząstek P od do wygenerowania cząstki w k i powtarza (kroki 2–6), aż cząstki P zostaną wygenerowane w k .
Można to łatwiej zwizualizować, jeśli x jest postrzegane jako dwuwymiarowa tablica. Jeden wymiar to k, a drugi wymiar to liczba cząstek. Na przykład, byłby i- tą cząstką i może być również zapisany (jak to zrobiono powyżej w algorytmie). Krok 3 generuje potencjał na podstawie losowo wybranej cząstki ( ) w czasie i odrzuca go lub akceptuje w kroku 6. Innymi słowy, wartości są generowane przy użyciu wcześniej wygenerowanego .
Inne filtry cząstek stałych
Zobacz też
Bibliografia
Bibliografia
-
Del Moralny, Pierre (1996). „Filtrowanie nieliniowe: rozwiązanie interakcji cząstek” (PDF) . Procesy Markowa i pola pokrewne . 2 (4): 555–580.
- Del Moral, Pierre (2004). Wzory Feynmana-Kaca. Przybliżenia cząstek genealogicznych i oddziałujących . Skoczek. str. 575. „Seria: Prawdopodobieństwo i zastosowania”
- Del Moral, Pierre (2013). Symulacja pola średniego dla całkowania Monte Carlo . Chapman & Hall/CRC Press. str. 626. „Monografie statystyk i prawdopodobieństwa stosowanego”
-
Cappe, O.; Muliny, E.; Ryden, T. (2005). Wnioskowanie w ukrytych modelach Markowa . Skoczek.
-
Liu, JS; Chen, R. (1998). „Sekwencyjne metody Monte Carlo dla układów dynamicznych” (PDF) . Dziennik Amerykańskiego Towarzystwa Statystycznego . 93 (443): 1032-1044. doi : 10.1080/01621459.1998.10473765 .
-
Liu, JS (2001). Strategie Monte Carlo w informatyce naukowej . Skoczek.
-
Kong, A.; Liu, JS; Wong, WH (1994). „Imputacje sekwencyjne i problemy z brakiem danych Bayesa” (PDF) . Dziennik Amerykańskiego Towarzystwa Statystycznego . 89 (425): 278-288. doi : 10.1080/01621459.1994.10476469 .
-
Liu, JS; Chen, R. (1995). „Ślepa dekonwolucja przez sekwencyjne imputacje” (PDF) . Dziennik Amerykańskiego Towarzystwa Statystycznego . 90 (430): 567-576. doi : 10.2307/291068 . JSTOR 2291068 .
-
Ristic, B.; Arulampalam, S.; Gordon, N. (2004). Poza filtrem Kalmana: filtry cząstek do aplikacji śledzących . Dom Artech.
-
Doucet, A.; Johansen, AM (grudzień 2008). „Samouczek na temat filtrowania i wygładzania cząstek: piętnaście lat później” (PDF) . Raport techniczny .
-
Doucet, A.; Godsill, S.; Andrieu, C. (2000). „Na sekwencyjnych metodach pobierania próbek Monte Carlo dla filtrowania Bayesa”. Statystyka i informatyka . 10 (3): 197–208. doi : 10.1023/A:1008935410038 . S2CID 16288401 .
-
Arulampalam, MS; Maskell S.; Gordon, N.; Clapp, T. (2002). „Samouczek dotyczący filtrów cząstek do nieliniowego / niegaussowskiego śledzenia Bayesa w trybie online”. Transakcje IEEE dotyczące przetwarzania sygnałów . 50 (2): 174–188. Kod bib : 2002ITSP...50..174A . CiteSeerX 10.1.1.471.8617 . doi : 10.1109/78.978374 .
-
Cappe, O.; Godsill, S.; Moulines, E. (2007). „Przegląd istniejących metod i ostatnich postępów w sekwencyjnym Monte Carlo”. Postępowanie IEEE . 95 (5): 899-924. doi : 10.1109/JPROC.2007.893250 . S2CID 3081664 .
-
Kitagawa, G. (1996). „Filtr Monte Carlo i gładsza dla niegaussowskich nieliniowych modeli przestrzeni stanów”. Czasopismo Statystyki Obliczeniowej i Graficznej . 5 (1): 1–25. doi : 10.2307/1390750 . JSTOR 1390750 .
-
Kotecha, JH; Djuric, P. (2003). „Filtrowanie cząstek Gaussa”. Transakcje IEEE dotyczące przetwarzania sygnałów . 51 (10).
-
Haug, AJ (2005). „Samouczek na temat technik szacowania i śledzenia Bayesa mających zastosowanie do procesów nieliniowych i niegaussowskich” (PDF) . Korporacja MITER, USA, Tech. Rep., luty . Źródło 2008-05-06 .
-
Pitta, MK; Shephard, N. (1999). „Filtrowanie przez symulację: pomocnicze filtry cząstek” . Dziennik Amerykańskiego Towarzystwa Statystycznego . 94 (446): 590-591. doi : 10.2307/2670179 . JSTOR 2670179 . Źródło 2008-05-06 .
-
Gordona, NJ; Łosoś, DJ; Smith, AFM (1993). „Nowe podejście do nieliniowego / niegaussowskiego szacowania stanu Bayesa”. Postępowanie IEE F - Radar i przetwarzanie sygnałów . 140 (2): 107–113. doi : 10.1049/ip-f-2.1993.0015 .
-
Chen, Z. (2003). „Filtrowanie bayesowskie: od filtrów Kalmana do filtrów cząstek i nie tylko”. CiteSeerX 10.1.1.107.7415 .
-
Vaswani, N .; Rathi, Y.; Yezzi, A.; Tannenbauma, A. (2007). „Śledzenie deformujących się obiektów za pomocą filtrowania cząstek dla aktywnych geometrycznych konturów” . Transakcje IEEE dotyczące analizy wzorców i inteligencji maszynowej . 29 (8): 1470-1475. doi : 10.1109/tpami.2007.1081 . PMC 3663080 . PMID 17568149 .
Linki zewnętrzne