Filtr cząstek - Particle filter

Filtry cząstek lub metody sekwencyjne Monte Carlo to zestaw algorytmów Monte Carlo używanych do rozwiązywania problemów filtrowania pojawiających się w przetwarzaniu sygnałów i wnioskowaniu statystycznym Bayesa . Filtrowania Problem polega szacowania stanów wewnętrznych systemach dynamicznych , gdy częściowe obserwacje wykonane i przypadkowe zaburzenia występują w czujnikach, a także w system dynamicznego. Celem jest obliczenie rozkładów a posteriori stanów pewnego procesu Markowa przy pewnych obserwacjach zaszumionych i cząstkowych. Termin „filtry cząstek” został po raz pierwszy ukuty w 1996 roku przez Del Morala w odniesieniu do metod oddziałujących na cząstki średniego pola stosowanych w mechanice płynów od początku lat sześćdziesiątych. Termin „Sekwencyjne Monte Carlo” został ukuty przez Liu i Chen w 1998 roku.

Filtrowanie cząstek wykorzystuje zestaw cząstek (zwanych również próbkami) do reprezentowania a posteriori rozkładu jakiegoś procesu stochastycznego przy zaszumionych i/lub częściowych obserwacjach. Model w przestrzeni stanów może być nieliniowy, a rozkłady stanu początkowego i szumu mogą przybierać dowolną wymaganą formę. Techniki filtrowania cząstek zapewniają ugruntowaną metodologię generowania próbek z wymaganej dystrybucji bez wymagania założeń dotyczących modelu przestrzeni stanów lub rozkładów stanów. Jednak metody te nie sprawdzają się dobrze, gdy są stosowane do systemów o bardzo dużych wymiarach.

Filtry cząstek aktualizują swoje przewidywania w sposób przybliżony (statystyczny). Próbki z rozkładu są reprezentowane przez zbiór cząstek; każda cząstka ma przypisaną wagę prawdopodobieństwa, która reprezentuje prawdopodobieństwo pobrania próbki tej cząstki z funkcji gęstości prawdopodobieństwa. Dysproporcja wagi prowadząca do spadku wagi jest częstym problemem napotykanym w tych algorytmach filtrowania; jednak można to złagodzić, włączając etap ponownego próbkowania, zanim wagi staną się zbyt nierówne. Można zastosować kilka adaptacyjnych kryteriów ponownego próbkowania, w tym wariancję wag i względną entropię w odniesieniu do rozkładu równomiernego. Na etapie ponownego próbkowania cząstki o znikomej masie są zastępowane nowymi cząstkami w pobliżu cząstek o większej masie.

Ze statystycznego i probabilistycznego punktu widzenia filtry cząstek można interpretować jako interpretacje cząstek średniego pola miar prawdopodobieństwa Feynmana-Kaca . Te techniki integracji cząstek zostały opracowane w chemii molekularnej i fizyce obliczeniowej przez Theodore'a E. Harrisa i Hermana Kahna w 1951 r., Marshalla N. Rosenblutha i Ariannę W. Rosenbluth w 1955 r., a ostatnio przez Jacka H. Hetheringtona w 1984 r. W fizyce obliczeniowej te techniki Metody integracji ścieżki cząstek typu Feynman-Kac są również stosowane w Quantum Monte Carlo , a dokładniej w metodach dyfuzyjnych Monte Carlo . Metody cząstek oddziałujących Feynmana-Kaca są również silnie powiązane z algorytmami genetycznymi selekcji mutacji, używanymi obecnie w obliczeniach ewolucyjnych do rozwiązywania złożonych problemów optymalizacji.

Metodologia filtra cząstek jest wykorzystywana do rozwiązywania problemów z ukrytym modelem Markowa (HMM) i nieliniowego filtrowania . Z godnym uwagi wyjątkiem modeli liniowej obserwacji sygnału Gaussa ( filtr Kalmana ) lub szerszych klas modeli (filtr Benesa) Mireille Chaleyat-Maurel i Dominique Michel udowodnili w 1984 roku, że sekwencja rozkładów a posteriori losowych stanów sygnału obserwacje (inaczej filtr optymalny) nie mają skończenie rekurencyjnej rekurencji. Różne inne metody numeryczne oparte na aproksymacjach siatek stałych, technikach Markowa Chain Monte Carlo , konwencjonalnej linearyzacji, rozbudowanych filtrach Kalmana , czy wyznaczaniu najlepszego systemu liniowego (w sensie oczekiwanego kosztu-błędu) nie radzą sobie z systemami o dużej skali, niestabilnymi procesami, lub gdy nieliniowości nie są wystarczająco gładkie.

Filtry cząstek i metodologie cząstek Feynman-Kac znajdują zastosowanie w przetwarzaniu sygnałów i obrazów , wnioskowaniu bayesowskim , uczeniu maszynowym , analizie ryzyka i próbkowaniu zdarzeń rzadkich , inżynierii i robotyce , sztucznej inteligencji , bioinformatyce , filogenetyce , informatyce , ekonomii i finansach matematycznych , chemii molekularnej , fizyka obliczeniowa , farmakokinetyka i inne dziedziny.

Historia

Algorytmy heurystyczne

Ze statystycznego i probabilistycznego punktu widzenia filtry cząstek należą do klasy algorytmów typu rozgałęziającego / genetycznego oraz metodologii cząstek oddziałujących typu średniego pola. Interpretacja tych metod cząstek zależy od dyscypliny naukowej. W Evolutionary Computing , uśrednione pole typu genetycznego cząstek metodologie są często stosowane jako heurystycznego naturalnych i algorytmy do wyszukiwania (czyli metaheurystyka ). W fizyce obliczeniowej i chemii molekularnej są one wykorzystywane do rozwiązywania problemów integracji ścieżek Feynmana-Kaca lub do obliczania miar Boltzmanna-Gibbsa, najwyższych wartości własnych i stanów podstawowych operatorów Schrödingera . W biologii i genetyce reprezentują one również ewolucję populacji osobników lub genów w pewnym środowisku.

Początki ewolucyjnych technik obliczeniowych typu średniego pola można prześledzić w latach 1950 i 1954 dzięki przełomowym pracom Alana Turinga na temat maszyn uczących selekcji mutacji typu genetycznego oraz artykułom Nilsa Aalla Barricelli w Institute for Advanced Study w Princeton, New Jersey . Pierwsze ślady filtrów cząstek stałych w metodologii statystycznej sięgają połowy lat pięćdziesiątych; „Monte Carlo biednego człowieka”, zaproponowane przez Hammersleya i in. w 1954 r., zawierało wskazówki dotyczące stosowanych dzisiaj metod filtrowania cząstek typu genetycznego. W 1963 Nils Aall Barricelli symulował algorytm typu genetycznego, aby naśladować zdolność osób do grania w prostą grę. W literaturze komputerowej ewolucyjne algorytmy selekcji mutacji typu genetycznego stały się popularne dzięki przełomowej pracy Johna Hollanda we wczesnych latach 70., a zwłaszcza jego książce opublikowanej w 1975 roku.

W Biology and Genetics australijski genetyk Alex Fraser opublikował również w 1957 serię artykułów na temat symulacji typu genetycznego sztucznej selekcji organizmów. Komputerowa symulacja ewolucji przez biologów stała się bardziej powszechna we wczesnych latach sześćdziesiątych, a metody zostały opisane w książkach Frasera i Burnella (1970) oraz Crosby'ego (1973). Symulacje Frasera obejmowały wszystkie istotne elementy nowoczesnych algorytmów cząstek genetycznych do selekcji mutacji.

Z matematycznego punktu widzenia warunkowy rozkład losowych stanów sygnału przy niektórych obserwacjach cząstkowych i zaszumionych jest opisany prawdopodobieństwem Feynmana-Kaca na losowych trajektoriach sygnału ważonych sekwencją funkcji potencjału wiarygodności. Metody kwantowego Monte Carlo , a dokładniej metody dyfuzyjnego Monte Carlo, mogą być również interpretowane jako przybliżenie cząstek typu średniego pola genetycznego całek ścieżki Feynmana-Kaca. Początki metod Quantum Monte Carlo są często przypisywane Enrico Fermi i Robertowi Richtmyerowi, którzy opracowali w 1948 roku interpretację cząstek średniego pola reakcji łańcuchów neutronów, ale pierwszy algorytm cząstek typu heurystycznego i genetycznego (znany również jako Resampled lub Reconfiguration Monte Carlo). metodami) do szacowania energii stanu podstawowego układów kwantowych (w modelach zredukowanych macierzy) opracował Jack H. Hetherington w 1984 roku. Można też zacytować wcześniejsze przełomowe prace Theodore'a E. Harrisa i Hermana Kahna z fizyki cząstek elementarnych, opublikowane w 1951 roku, przy użyciu metod genetycznych średniego pola, ale heurystycznych, do szacowania energii transmisji cząstek. W chemii molekularnej wykorzystanie genetycznych metodologii cząstek podobnych do heurystyki (inaczej strategii przycinania i wzbogacania) można prześledzić wstecz do 1955 r. dzięki przełomowej pracy Marshalla. N. Rosenblutha i Arianny. W. Rosenblutha.

Zastosowanie algorytmów cząstek genetycznych w zaawansowanym przetwarzaniu sygnałów i wnioskowaniu bayesowskim jest nowsze. W styczniu 1993 r. Genshiro Kitagawa opracował „filtr Monte Carlo”, nieco zmodyfikowaną wersję tego artykułu, która pojawiła się w 1996 r. W kwietniu 1993 r. Gordon i wsp. opublikowali w swojej przełomowej pracy zastosowanie algorytmu typu genetycznego w Bayesowskim wnioskowaniu statystycznym. Autorzy nazwali swój algorytm „filtrem ładowania początkowego” i wykazali, że w porównaniu z innymi metodami filtrowania, ich algorytm ładowania początkowego nie wymaga żadnych założeń dotyczących tej przestrzeni stanów ani szumu systemu. Niezależnie od tego, te autorstwa Pierre'a Del Morala i Himilcona Carvalho, Pierre'a Del Morala, André Monina i Gérarda Saluta o filtrach cząstek opublikowane w połowie lat dziewięćdziesiątych. Filtry cząstek zostały również opracowane w przetwarzaniu sygnałów na początku 1989-1992 przez P. Del Moral, JC Noyer, G. Rigal i G. Salut w LAAS-CNRS w serii zastrzeżonych i sklasyfikowanych raportów badawczych z STCAN (Technika Serwisowa des Constructions et Armes Navales), firma informatyczna DIGILOG oraz LAAS -CNRS (Laboratorium Analizy i Architektury Systemów) zajmujące się problemami przetwarzania sygnałów RADAR/SONAR i GPS.

Podstawy matematyczne

Od 1950 do 1996 roku wszystkie publikacje dotyczące filtrów cząstek, algorytmów genetycznych, w tym metody przycinania i resample Monte Carlo wprowadzone do fizyki obliczeniowej i chemii molekularnej, prezentują naturalne i heurystyczne algorytmy stosowane w różnych sytuacjach bez jednego dowodu ich spójności, ani dyskusji na temat stronniczości szacunków oraz algorytmów opartych na drzewach genealogicznych i przodków.

Podstawy matematyczne i pierwsza rygorystyczna analiza tych algorytmów cząstek zostały opracowane przez Pierre'a Del Morala w 1996 roku. Artykuł zawiera również dowód na nieobciążone właściwości przybliżeń cząstek funkcji wiarygodności i nieznormalizowanych miar prawdopodobieństwa warunkowego . Nieobciążony estymator cząstek funkcji wiarogodności przedstawiony w tym artykule jest obecnie używany we wnioskowaniu statystycznym bayesowskim.

Metodologie cząstek typu rozgałęzionego o różnej wielkości populacji zostały również opracowane pod koniec lat 90. przez Dan Crisan, Jessica Gaines i Terry Lyons oraz Dan Crisan, Pierre Del Moral i Terry Lyons. Dalsze osiągnięcia w tej dziedzinie zostały opracowane w 2000 r. przez P. Del Morala, A. Guionneta i L. Miclo. Pierwsze centralne twierdzenia graniczne pochodzą od Pierre'a Del Morala i Alice Guionnet w 1999 r. oraz Pierre'a Del Morala i Laurenta Miclo w 2000 r. Pierwsze jednorodne wyniki zbieżności w odniesieniu do parametru czasu dla filtrów cząstek zostały opracowane pod koniec lat 90. przez Pierre'a Del Moral i Alice Guionnet. Pierwsza rygorystyczna analiza wygładzaczy filtrów cząstek opartych na drzewie genealogicznym została przeprowadzona przez P. Del Morala i L. Miclo w 2001 r.

Teoria dotycząca metodologii cząstek Feynmana-Kaca i powiązanych algorytmów filtrów cząstek została opracowana w latach 2000 i 2004 w książkach. Te abstrakcyjne modele probabilistyczne zawierają algorytmy typu genetycznego, filtry cząstek i filtrów ładowania początkowego, współdziałające filtry Kalmana (inaczej filtr cząstek Rao-Blackwellized), techniki filtrowania cząstek w stylu ważności próbkowania i ponownego próbkowania, w tym metodologie oparte na drzewie genealogicznym i metodologii wstecznej cząstek do rozwiązywania problemów filtrowania i wygładzania. Inne klasy metodologii filtrowania cząstek obejmują modele oparte na drzewie genealogicznym, wsteczne modele cząstek Markowa, adaptacyjne modele cząstek średniego pola, modele cząstek typu wyspowego oraz metodologie Monte Carlo łańcuchów cząstek Markowa.

Problem z filtrowaniem

Cel

Celem filtra cząstek jest oszacowanie gęstości a posteriori zmiennych stanu przy danych zmiennych obserwacji. Filtr cząstek jest zaprojektowany dla ukrytego modelu Markowa , w którym system składa się zarówno ze zmiennych ukrytych, jak i obserwowalnych. Zmienne obserwowalne (proces obserwacji) są powiązane ze zmiennymi ukrytymi (proces stanu) przez pewną znaną formę funkcjonalną. Podobnie znany jest probabilistycznie układ dynamiczny opisujący ewolucję zmiennych stanu.

Ogólny filtr cząstek szacuje rozkład a posteriori stanów ukrytych przy użyciu procesu pomiaru obserwacji. Rozważ przestrzeń stanów pokazaną na poniższym diagramie.

Problemem z filtrowaniem jest sekwencyjne oszacowanie wartości stanów ukrytych , biorąc pod uwagę wartości procesu obserwacji w dowolnym kroku czasowym k .

Wszystkie bayesowskie szacunki wynikają z gęstości a posteriori . Metodologia filtra cząstek zapewnia przybliżenie tych prawdopodobieństw warunkowych przy użyciu miary empirycznej związanej z algorytmem cząstek typu genetycznego. W przeciwieństwie do tego, metoda Monte Carlo z łańcuchem Markowa lub próbkowanie znaczenia pozwoliłoby modelować cały a posteriori .

Model obserwacji sygnału

Metody cząstek często zakładają, a obserwacje można modelować w tej postaci:

  • jest procesem Markowa na (dla niektórych ), który ewoluuje zgodnie z gęstością prawdopodobieństwa przejścia . Model ten jest również często pisany w sposób syntetyczny, jak
z początkową gęstością prawdopodobieństwa .
  • Obserwacje przyjmują wartości w pewnej przestrzeni stanów na (dla niektórych ) i są warunkowo niezależne pod warunkiem, że są znane. Innymi słowy, każdy zależy tylko od . Dodatkowo zakładamy, że rozkłady warunkowe dla danych są absolutnie ciągłe i w sposób syntetyczny mamy

Przykładem systemu z tymi właściwościami jest:

gdzie oba i są wzajemnie niezależnymi sekwencjami o znanych funkcjach gęstości prawdopodobieństwa, a g i h są znanymi funkcjami. Te dwa równania mogą być postrzegane jako równania w przestrzeni stanów i wyglądają podobnie do równań w przestrzeni stanów dla filtru Kalmana. Jeśli funkcje g i h w powyższym przykładzie są liniowe, a jeśli obie i są Gaussian , filtr Kalmana znajduje dokładny rozkład filtrowania Bayesa. Jeśli nie, metody oparte na filtrze Kalmana są przybliżeniem pierwszego rzędu ( EKF ) lub przybliżeniem drugiego rzędu ( ogólnie UKF , ale jeśli rozkład prawdopodobieństwa jest Gaussa, możliwe jest przybliżenie trzeciego rzędu).

Można rozluźnić założenie, że rozkład początkowy i przejścia łańcucha Markowa są absolutnie ciągłe względem miary Lebesgue'a. Aby zaprojektować filtr cząstek, musimy po prostu założyć, że możemy próbkować przejścia łańcucha Markowa i obliczyć funkcję prawdopodobieństwa (patrz na przykład opis mutacji selekcji genetycznej filtra cząstek podany poniżej). Absolutnie ciągłe założenie o przejściach Markowa jest używane tylko do wyprowadzania w nieformalny (i raczej obraźliwy) sposób różnych wzorów między rozkładami a posteriori przy użyciu reguły Bayesa dla warunkowych gęstości.

Przybliżone bayesowskie modele obliczeniowe

W niektórych problemach warunkowy rozkład obserwacji ze względu na losowe stany sygnału może nie mieć gęstości lub może być niemożliwy lub zbyt złożony do obliczenia. W tej sytuacji musimy uciec się do dodatkowego poziomu zbliżenia. Jedną ze strategii jest zastąpienie sygnału łańcuchem Markowa i wprowadzenie wirtualnej obserwacji formy

dla pewnego ciągu niezależnych ciągów o znanych funkcjach gęstości prawdopodobieństwa . Główną ideą jest obserwowanie tego

Filtr cząstek związany z procesem Markowa, biorąc pod uwagę obserwacje cząstkowe, jest zdefiniowany w kategoriach cząstek ewoluujących z funkcją wiarygodności podaną z pewnym oczywistym nadużyciem przez . Te probabilistyczne techniki są ściśle związane z przybliżonym obliczeniem bayesowskim (ABC). W kontekście filtrów cząstek, te techniki filtrowania cząstek ABC zostały wprowadzone w 1998 r. przez P. Del Moral, J. Jacod i P. Protter. Zostały one rozwinięte przez P. Del Morala, A. Douceta i A. Jasrę.

Nieliniowe równanie filtrowania

Reguła Bayesa dla prawdopodobieństwa warunkowego daje:

gdzie

Filtry cząstek są również przybliżeniem, ale przy wystarczającej liczbie cząstek mogą być znacznie dokładniejsze. Nieliniowe równanie filtrowania jest podane przez rekursję

 

 

 

 

(Równanie 1)

z konwencją dla k = 0. Problem filtrowania nieliniowego polega na sekwencyjnym obliczaniu tych rozkładów warunkowych.

Formuła Feynmana-Kaca

Ustalamy horyzont czasowy n i ciąg obserwacji , a dla każdego k = 0, ..., n ustalamy:

W tym zapisie, dla dowolnej ograniczonej funkcji F na zbiorze trajektorii od początku k = 0 do czasu k = n , mamy wzór Feynmana-Kaca

Te modele integracji ścieżek Feynmana-Kaca powstają w różnych dyscyplinach naukowych, w tym w fizyce obliczeniowej, biologii, teorii informacji i informatyce. Ich interpretacje zależą od dziedziny aplikacji. Na przykład, jeśli wybierzemy funkcję wskaźnika pewnego podzbioru przestrzeni stanów, reprezentują one warunkowy rozkład łańcucha Markowa, biorąc pod uwagę, że pozostaje on w danej rurze; czyli mamy:

i

gdy tylko stała normalizująca jest ściśle dodatnia.

Filtry cząstek

Algorytm cząstek typu genetycznego

Początkowo zaczynamy od N niezależnych zmiennych losowych o wspólnej gęstości prawdopodobieństwa . Algorytm genetyczny przejścia selekcja-mutacja

naśladować/przybliżyć przejścia aktualizacja-predykcja optymalnej ewolucji filtra ( Równanie 1 ):

  • Podczas przejścia selekcji uaktualniający że próbka N (warunkowo) niezależnymi zmiennymi losowymi ze wspólnym (warunkowych) rozkład

gdzie oznacza miarę Diraca w danym stanie a.

  • Podczas przejścia mutacja-przewidywanie, z każdej wybranej cząstki pobieramy niezależnie przejście

W przedstawionych powyżej wzorach oznacza funkcję prawdopodobieństwa oszacowaną na , a oznacza gęstość warunkową oszacowaną na .

Za każdym razem k mamy przybliżenia cząstek

i

W algorytmach genetycznych i społeczności komputerów ewolucyjnych , opisany powyżej łańcuch Markowa selekcji mutacji jest często nazywany algorytmem genetycznym z selekcją proporcjonalną. W artykułach zaproponowano również kilka wariantów rozgałęzień, w tym z losową liczebnością populacji.

Zasady Monte Carlo

Metody cząsteczkowe, podobnie jak wszystkie podejścia oparte na próbkowaniu (np. Markov Chain Monte Carlo), generują zestaw próbek, który przybliża gęstość filtrowania

Na przykład możemy mieć N próbek z przybliżonego rozkładu a posteriori , gdzie próbki są oznaczone indeksami górnymi jako

Następnie oczekiwania względem rozkładu filtrowania są aproksymowane przez

 

 

 

 

(Równanie 2)

z

gdzie oznacza miarę Diraca w danym stanie a. Funkcja f , w zwykły sposób dla Monte Carlo, może podać wszystkie momenty itp. rozkładu aż do pewnego błędu aproksymacji. Gdy równanie aproksymacyjne ( równanie 2 ) jest spełnione dla dowolnej ograniczonej funkcji f piszemy

Filtry cząstek mogą być interpretowane jako algorytm cząstek typu genetycznego ewoluujący wraz z przejściami mutacji i selekcji. Możemy śledzić linie przodków

cząstek . Stany losowe o niższych wskaźnikach l=0,...,k oznaczają przodka osobnika na poziomie l=0,...,k. W tej sytuacji mamy do czynienia z formułą aproksymacyjną

 

 

 

 

(Równanie 3)

z miarą empiryczną

Tutaj F oznacza każdą założoną funkcję w przestrzeni ścieżki sygnału. W bardziej syntetycznej formie ( równanie 3 ) jest równoważne

Filtry cząstek można interpretować na wiele różnych sposobów. Z probabilistycznego punktu widzenia pokrywają się one z interpretacją cząstek o średnim polu nieliniowego równania filtrowania. Przejścia aktualizacja-przewidywanie optymalnej ewolucji filtra mogą być również interpretowane jako klasyczne przejścia selekcja-mutacja typu genetycznego osobników. Technika ponownego próbkowania o ważności sekwencyjnej zapewnia inną interpretację przejść filtrowania łączących próbkowanie ważności z etapem ponownego próbkowania z ładowaniem początkowym. Wreszcie, co nie mniej ważne, filtry cząstek mogą być postrzegane jako metodologia akceptacji i odrzucenia wyposażona w mechanizm recyklingu.

Symulacja cząstek średniego pola

Ogólna zasada probabilistyczna

Ewolucję filtrowania nieliniowego można interpretować jako układ dynamiczny w zbiorze miar prawdopodobieństwa o następującej postaci, gdzie oznacza pewne odwzorowanie ze zbioru rozkładu prawdopodobieństwa na siebie. Na przykład ewolucja jednostopniowego optymalnego predyktora

spełnia nieliniową ewolucję rozpoczynającą się od rozkładu prawdopodobieństwa . Jednym z najprostszych sposobów przybliżenia tych miar prawdopodobieństwa jest rozpoczęcie od N niezależnych zmiennych losowych o wspólnym rozkładzie prawdopodobieństwa . Załóżmy, że zdefiniowaliśmy sekwencję N zmiennych losowych taką, że

W kolejnym kroku próbkujemy N (warunkowo) niezależnych zmiennych losowych za pomocą common law .

Interpretacja cząstek równania filtrowania

Ilustrujemy tę zasadę cząstki średniego pola w kontekście ewolucji jednostopniowych optymalnych predyktorów

 

 

 

 

(Równanie 4)

Dla k = 0 używamy konwencji .

Zgodnie z prawem wielkich liczb mamy

w tym sensie, że

dla dowolnej funkcji ograniczonej . Dalej zakładamy, że skonstruowaliśmy sekwencję cząstek o pewnej randze k, taką, że

w tym sensie, że dla dowolnej funkcji ograniczonej mamy

W tej sytuacji, zastąpienie przez środek empirycznych w równaniu ewolucji optymalnego filtru jednoetapowy podanej w ( równ. 4 ) znajdujemy, że

Zauważ, że prawa strona powyższego wzoru to ważona mieszanina prawdopodobieństwa

gdzie oznacza gęstość ocenianej na , i oznacza gęstość ocenianego na za

Następnie próbkujemy N niezależnej zmiennej losowej o wspólnej gęstości prawdopodobieństwa tak, że

Powtarzając tę ​​procedurę, projektujemy łańcuch Markowa taki, że

Zauważ, że optymalny filtr jest aproksymowany w każdym kroku czasowym k przy użyciu formuł Bayesa

Terminologia „aproksymacja pola średniego” wynika z tego, że w każdym kroku zastępujemy miarę prawdopodobieństwa przybliżeniem empirycznym . Aproksymacja problemu filtrowania cząstek średniego pola nie jest unikatowa. W książkach opracowano kilka strategii.

Niektóre wyniki konwergencji

Analizę zbieżności filtrów cząstek stałych rozpoczęto w 1996 i 2000 roku w książce i serii artykułów. Nowsze osiągnięcia można znaleźć w książkach: Gdy równanie filtrowania jest stabilne (w tym sensie, że koryguje wszelkie błędne warunki początkowe), obciążenie i wariancja szacunków cząstek

są kontrolowane przez nieasymptotyczne jednolite oszacowania

dla dowolnej funkcji f ograniczonej przez 1 i dla niektórych stałych skończonych Dodatkowo dla dowolnych :

dla pewnych skończonych stałych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c . Te same wyniki są spełnione, jeśli zastąpimy jednostopniowy optymalny predyktor optymalnym przybliżeniem filtra.

Drzewa genealogiczne i własności bezstronności

Wygładzanie cząstek oparte na drzewie genealogicznym

Cofanie się w czasie linii przodków

indywiduów i w każdym kroku k , mamy również przybliżenia cząstek

Te przybliżenia empiryczne są równoważne przybliżeniom całki cząstkowej

dla dowolnej ograniczonej funkcji F na losowych trajektoriach sygnału. Jak pokazano w ewolucji drzewa genealogicznego zbiega się z interpretacją cząstek średniego pola równań ewolucji związanych z gęstościami tylnymi trajektorii sygnału. Więcej szczegółów na temat tych modeli przestrzeni ścieżek można znaleźć w książkach.

Nieobciążone szacunki cząstek funkcji wiarygodności

Używamy formuły produktu

z

i konwencje i dla k = 0. Wymiana przez empiryczne zbliżania

w przedstawionym powyżej wzorze projektujemy następujące przybliżenie nieobciążonej cząstki funkcji wiarogodności

z

gdzie oznacza gęstość ocenianą w . Projekt oszacowania tej cząstki i własność bezstronności został udowodniony w 1996 roku w artykule. Dopracowane szacunki wariancji można znaleźć w i.

Wygładzacze cząstek do tyłu

Korzystając z reguły Bayesa, mamy wzór

Zauważ, że

To daje do zrozumienia ze

Zastąpienie jednostopniowych optymalnych predyktorów miarami empirycznymi cząstek

znaleźliśmy to

Dochodzimy do wniosku, że

z przybliżeniem cząstki wstecznej

Miara prawdopodobieństwa

jest prawdopodobieństwem, że losowe ścieżki łańcucha Markowa biegną wstecz w czasie od czasu k=n do czasu k=0 i ewoluują w każdym kroku czasowym k w przestrzeni stanów związanej z populacją cząstek

  • Początkowo (w czasie k=n) łańcuch wybiera losowo stan o rozkładzie
  • Od czasu k do czasu (k-1), łańcuch rozpoczynający się w pewnym stanie przez jakiś czas w czasie k przemieszcza się w czasie (k-1) do losowego stanu wybranego z dyskretnym prawdopodobieństwem ważonym

W powyższym wzorze oznacza rozkład warunkowy oceniany na . W tym samym duchu i reprezentują gęstości warunkowe i oceniane w i Modele te pozwalają na zmniejszenie integracji w odniesieniu do gęstości w zakresie operacji macierzowych w odniesieniu do przejść Markowa w łańcuchu opisanym powyżej. Na przykład dla dowolnej funkcji mamy oszacowania cząstek

gdzie

Pokazuje to również, że jeśli

następnie

Niektóre wyniki konwergencji

Przyjmiemy, że równanie filtrowania jest stabilne, w tym sensie, że koryguje wszelkie błędne warunki początkowe.

W tej sytuacji przybliżenia cząstek funkcji wiarygodności są nieobciążone, a względna wariancja jest kontrolowana przez

dla pewnej skończonej stałej c . Ponadto dla każdego :

dla pewnych stałych skończonych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c .

Stronniczość i wariancja szacunków cząstek cząstek na podstawie linii przodków drzew genealogicznych

są kontrolowane przez nieasymptotyczne jednolite oszacowania

dla dowolnej funkcji F ograniczonej przez 1 i dla niektórych stałych skończonych Dodatkowo dla dowolnych :

dla pewnych stałych skończonych związanych z asymptotycznym obciążeniem i wariancją oszacowania cząstki oraz dla pewnej skończonej stałej c . Ten sam rodzaj oszacowań odchylenia i wariancji dotyczy wygładzaczy cząstek wstecznych. Dla funkcjonałów addytywnych postaci

z

z funkcjami ograniczonymi przez 1, mamy

i

dla niektórych stałych skończonych Bardziej wyrafinowane szacunki, w tym wykładniczo małe prawdopodobieństwo błędów, opracowano w.

Sekwencyjne Ponowne Próbkowanie Ważności (SIR)

Filtr Monte Carlo i filtr ładowania początkowego

Ponowne próbkowanie o znaczeniu sekwencyjnym (SIR) , filtrowanie Monte Carlo (Kitagawa 1993) i algorytm filtrowania bootstrap (Gordon i in. 1993) są również powszechnie stosowanymi algorytmami filtrowania, które przybliżają gęstość prawdopodobieństwa filtrowania za pomocą ważonego zestawu N próbek

Te ciężary znaczenie stanowią przybliżenia względnego prawdopodobieństwa a posteriori (lub gęstość) próbek takie, że

Próbkowanie według ważności sekwencyjnej (SIS) jest sekwencyjną (tj. rekurencyjną) wersją próbkowania według ważności . Podobnie jak w przypadku próbkowania ważności, oczekiwanie funkcji f można aproksymować jako średnią ważoną

W przypadku skończonego zestawu próbek wydajność algorytmu zależy od wyboru rozkładu propozycji

.

Optymalna” dystrybucja propozycji jest podana jako dystrybucja docelowa

Ten szczególny wybór propozycji przejścia został zaproponowany przez P. Del Morala w 1996 i 1998 roku. Gdy trudno jest próbkować przejścia zgodnie z rozkładem, naturalną strategią jest zastosowanie następującego przybliżenia cząstek

z przybliżeniem empirycznym

związane z N (lub dowolną inną dużą liczbą próbek) niezależnych losowych próbek z podanym warunkowym rozkładem stanu losowego . Konsystencja wynikowego filtra cząstek tego przybliżenia i innych rozszerzeń jest rozwijana w. Na powyższym wyświetlaczu oznacza miarę Diraca w danym stanie a.

Jednak rozkład prawdopodobieństwa przejścia a priori jest często używany jako funkcja ważności, ponieważ łatwiej jest narysować cząstki (lub próbki) i wykonać kolejne obliczenia wagi ważności:

Filtry SIR ( Sequential Importance Resampling ) z rozkładem prawdopodobieństwa przejścia jako funkcją ważności są powszechnie znane jako filtr ładowania początkowego i algorytm kondensacji .

Ponowne próbkowanie służy do uniknięcia problemu degeneracji algorytmu, czyli uniknięcia sytuacji, w której wszystkie wagi ważności poza jednym są bliskie zeru. Na działanie algorytmu może mieć również wpływ odpowiedni dobór metody resamplingu. Losowanie warstwowe proponowany przez Kitagawa (1993) jest optymalny pod względem wariancji.

Pojedynczy krok ponownego próbkowania ważności sekwencyjnej jest następujący:

1) Do losowania próbek z dystrybucji propozycji
2) W celu aktualizacji wag ważności aż do stałej normalizacyjnej:
Zauważ, że gdy używamy rozkładu prawdopodobieństwa a priori przejścia jako funkcji ważności,
upraszcza to do następujących:
3) Aby obliczyć znormalizowane wagi ważności:
4) Oblicz oszacowanie efektywnej liczby cząstek jako
Kryterium to odzwierciedla wariancję wag, inne kryteria można znaleźć w artykule, w tym ich rygorystyczną analizę i centralne twierdzenia graniczne.
5) Jeżeli efektywna liczba cząstek jest mniejsza od podanego progu , należy przeprowadzić resampling:
a) Narysuj N cząstek z bieżącego zbioru cząstek z prawdopodobieństwami proporcjonalnymi do ich wag. Zastąp obecny zestaw cząsteczek nowym.
b) Do zestawu

Określenie „Sampling Znaczenie Ponowne próbkowanie” jest również czasem używane w odniesieniu do filtrów sir, ale termin Znaczenie Ponowne próbkowanie jest bardziej dokładne, ponieważ słowo „resampling” zakłada, że początkowy próbkowania zostało już zrobione.

Próbkowanie o znaczeniu sekwencyjnym (SIS)

  • To to samo, co sekwencyjny resampling ważności, ale bez etapu resamplingu.

Algorytm „wersja bezpośrednia”

Algorytm „wersja bezpośrednia” jest dość prosty (w porównaniu do innych algorytmów filtrowania cząstek) i wykorzystuje skład i odrzucanie. Aby wygenerować pojedynczą próbkę x w k z :

1) Ustaw n=0 (To zliczy liczbę cząstek wygenerowanych do tej pory)
2) Jednostajnie wybierz wskaźnik i z zakresu
3) Wygeneruj test z dystrybucji za pomocą
4) Generowanie prawdopodobieństwo użyciem z którym jest wartość mierzona
5) Wygeneruj kolejny mundur u skąd
6) Porównaj ciebie i
6a) Jeśli u jest większe, powtórz od kroku 2
6b) Jeśli u jest mniejsze, zapisz jako i zwiększ n
7) Jeśli n == N to zakończ

Celem jest wygenerowanie „cząstek” P w k przy użyciu tylko cząstek z . Wymaga to zapisania (i obliczenia) równania Markowa w celu wygenerowania opartego tylko na . Algorytm ten wykorzystuje kompozycję cząstek P od do wygenerowania cząstki w k i powtarza (kroki 2–6), aż cząstki P zostaną wygenerowane w k .

Można to łatwiej zwizualizować, jeśli x jest postrzegane jako dwuwymiarowa tablica. Jeden wymiar to k, a drugi wymiar to liczba cząstek. Na przykład, byłby i- cząstką i może być również zapisany (jak to zrobiono powyżej w algorytmie). Krok 3 generuje potencjał na podstawie losowo wybranej cząstki ( ) w czasie i odrzuca go lub akceptuje w kroku 6. Innymi słowy, wartości są generowane przy użyciu wcześniej wygenerowanego .

Inne filtry cząstek stałych

Zobacz też

Bibliografia

Bibliografia

Linki zewnętrzne