Analiza wrażliwości - Sensitivity analysis

Analiza wrażliwości to badanie, w jaki sposób niepewność w danych wyjściowych modelu matematycznego lub systemu (liczbowego lub innego) może zostać podzielona i przypisana do różnych źródeł niepewności w jego danych wejściowych. Pokrewną praktyką jest analiza niepewności , która kładzie większy nacisk na kwantyfikację niepewności i propagację niepewności ; najlepiej byłoby, gdyby analiza niepewności i wrażliwości była prowadzona w tandemie.

Proces ponownego obliczania wyników przy alternatywnych założeniach w celu określenia wpływu zmiennej objętej analizą wrażliwości może być przydatny do wielu celów, w tym:

  • Testowanie odporności wyników modelu lub systemu w obecności niepewności.
  • Lepsze zrozumienie relacji między zmiennymi wejściowymi i wyjściowymi w systemie lub modelu.
  • Zmniejszenie niepewności poprzez identyfikację danych wejściowych modelu, które powodują znaczną niepewność danych wyjściowych i dlatego powinny być przedmiotem uwagi w celu zwiększenia odporności (być może poprzez dalsze badania).
  • Wyszukiwanie błędów w modelu (poprzez napotkanie nieoczekiwanych relacji między danymi wejściowymi i wyjściowymi).
  • Uproszczenie modelu – naprawienie danych wejściowych modelu, które nie mają wpływu na dane wyjściowe lub zidentyfikowanie i usunięcie zbędnych części struktury modelu.
  • Poprawa komunikacji od modelarzy do decydentów (np. poprzez uczynienie rekomendacji bardziej wiarygodnymi, zrozumiałymi, przekonującymi lub przekonującymi).
  • Znalezienie obszarów w przestrzeni czynników wejściowych, dla których wynik modelu jest maksymalny lub minimalny lub spełnia jakieś optymalne kryterium (patrz optymalizacja i filtrowanie Monte Carlo).
  • W przypadku kalibrowania modeli o dużej liczbie parametrów, podstawowy test czułości może ułatwić etap kalibracji, skupiając się na wrażliwych parametrach. Nieznajomość czułości parametrów może spowodować, że czas będzie niepotrzebnie spędzany na niewrażliwych.
  • Dążenie do identyfikacji ważnych powiązań między obserwacjami, danymi wejściowymi modelu i przewidywaniami lub prognozami, co prowadzi do opracowania lepszych modeli.

Przegląd

Model matematyczny (na przykład w biologii, zmiany klimatu, ekonomii lub inżynierii) mogą być bardzo złożone, w wyniku czego, jego relacje pomiędzy wejściami i wyjściami może być źle zrozumiane. W takich przypadkach model może być postrzegany jako czarna skrzynka , tzn. wyjście jest „nieprzezroczystą” funkcją jego wejść. Dość często niektóre lub wszystkie dane wejściowe modelu są obarczone źródłami niepewności , w tym błędami pomiaru , brakiem informacji oraz słabym lub częściowym zrozumieniem sił napędowych i mechanizmów. Ta niepewność nakłada ograniczenie na nasze zaufanie do odpowiedzi lub wyników modelu. Co więcej, modele mogą być zmuszone do radzenia sobie z naturalną wewnętrzną zmiennością systemu (aleatory), taką jak występowanie zdarzeń stochastycznych .

Dobra praktyka modelowania wymaga, aby modelarz przedstawił ocenę zaufania do modelu. Wymaga to, po pierwsze, kwantyfikacji niepewności w dowolnych wynikach modelu ( analiza niepewności ); a po drugie, ocenę, w jakim stopniu każdy wkład przyczynia się do niepewności wyjściowej. Analiza wrażliwości zajmuje się drugim z tych zagadnień (chociaż analiza niepewności jest zwykle niezbędnym prekursorem), pełniąc rolę porządkowania według ważności siły i istotności wejść w określaniu zmienności wyniku.

W modelach obejmujących wiele zmiennych wejściowych analiza wrażliwości jest niezbędnym elementem budowania modelu i zapewniania jakości. Agencje krajowe i międzynarodowe zaangażowane w badania dotyczące oceny wpływu uwzględniły w swoich wytycznych sekcje poświęcone analizie wrażliwości. Przykładami są Komisja Europejska (patrz np. wytyczne dotyczące oceny wpływu ), Biuro Zarządzania i Budżetu Białego Domu , Międzyrządowy Zespół ds. Zmian Klimatu oraz wytyczne dotyczące modelowania amerykańskiej Agencji Ochrony Środowiska . W komentarzu opublikowanym w 2020 r. w czasopiśmie Nature 22 naukowcy biorą COVID-19 za okazję do zasugerowania pięciu sposobów, aby modele lepiej służyły społeczeństwu. Jednym z pięciu zaleceń, pod nagłówkiem „Uważaj na założenia”, jest „przeprowadzanie globalnej analizy niepewności i wrażliwości […] pozwalającej wszystkiemu, co niepewne — zmiennym, zależnościom matematycznym i warunkom brzegowym — zmieniać się jednocześnie w trakcie model generuje swój zakres prognoz”.

Ustawienia, ograniczenia i powiązane problemy

Ustawienia i ograniczenia

Wybór metody analizy wrażliwości jest zazwyczaj podyktowany szeregiem ograniczeń lub ustawień problemowych. Niektóre z najczęstszych to

  • Koszt obliczeniowy: Analiza wrażliwości jest prawie zawsze wykonywana przez uruchomienie modelu (możliwie dużą) liczbę razy, tj . podejście oparte na próbkowaniu . Może to stanowić poważny problem, gdy
    • Pojedyncze uruchomienie modelu zajmuje dużo czasu (minuty, godziny lub dłużej). Nie jest to niczym niezwykłym w przypadku bardzo złożonych modeli.
    • Model ma dużą liczbę niepewnych danych wejściowych. Analiza wrażliwości jest zasadniczo badaniem wielowymiarowej przestrzeni wejściowej , której rozmiar rośnie wykładniczo wraz z liczbą wejść. Zobacz przekleństwo wymiarowości .
Koszt obliczeniowy jest problemem w wielu praktycznych analizach wrażliwości. Niektóre metody redukcji kosztów obliczeniowych obejmują użycie emulatorów (w przypadku dużych modeli) i metody przesiewowe (w celu zmniejszenia wymiarowości problemu). Inną metodą jest wykorzystanie metody analizy wrażliwości opartej na zdarzeniach do wyboru zmiennych w zastosowaniach ograniczonych czasowo. Jest to metoda selekcji zmiennych wejściowych (IVS), która gromadzi informacje o śladach zmian w wejściach i wyjściach systemu przy użyciu analizy wrażliwości w celu utworzenia macierzy wejścia/wyjścia wyzwalacza/zdarzenia, która ma na celu odwzorowanie relacji między danymi wejściowymi jako przyczynami wyzwalające zdarzenia i dane wyjściowe opisujące rzeczywiste zdarzenia. Związek przyczynowo-skutkowy między przyczynami zmiany stanu, czyli zmiennymi wejściowymi, a parametrami wyjściowymi systemu skutku określa, który zbiór wejść ma realny wpływ na dane wyjście. Metoda ma wyraźną przewagę nad analityczną i obliczeniową metodą IVS, ponieważ stara się zrozumieć i zinterpretować zmianę stanu systemu w możliwie najkrótszym czasie przy minimalnym nakładzie obliczeniowym.
  • Skorelowane dane wejściowe: Większość popularnych metod analizy wrażliwości zakłada niezależność między danymi wejściowymi modelu, ale czasami dane wejściowe mogą być silnie skorelowane. Jest to wciąż niedojrzała dziedzina badań, a ostateczne metody nie zostały jeszcze ustalone.
  • Nieliniowość: Niektóre podejścia do analizy wrażliwości, takie jak te oparte na regresji liniowej , mogą niedokładnie mierzyć czułość, gdy odpowiedź modelu jest nieliniowa w odniesieniu do jego danych wejściowych. W takich przypadkach bardziej odpowiednie są miary oparte na wariancji .
  • Interakcje modeli: Interakcje występują, gdy zaburzenie dwóch lub więcej wejść jednocześnie powoduje zmianę wyjścia większą niż zmiana każdego z wejść osobno. Takie interakcje są obecne w każdym modelu, który nie jest addytywny , ale będą pomijane przez takie metody, jak wykresy rozrzutu i perturbacje pojedyncze w czasie. Efekt interakcji można zmierzyć za pomocą wskaźnika wrażliwości całkowitego rzędu .
  • Wiele wyników: Praktycznie wszystkie metody analizy wrażliwości uwzględniają jeden jednowymiarowy wynik modelu, jednak wiele modeli generuje dużą liczbę danych, które mogą być zależne od przestrzeni lub czasu. Należy zauważyć, że nie wyklucza to możliwości wykonania różnych analiz wrażliwości dla każdego produktu będącego przedmiotem zainteresowania. Jednak w przypadku modeli, w których wyniki są skorelowane, miary wrażliwości mogą być trudne do zinterpretowania.
  • Dane dane: Podczas gdy w wielu przypadkach praktyk ma dostęp do modelu, w niektórych przypadkach analiza wrażliwości musi być przeprowadzona z „danymi danymi”, tj. tam, gdzie punkty próbki (wartości danych wejściowych modelu dla każdego przebiegu) nie mogą być wybrane przez analityk. Może się tak zdarzyć, gdy analiza wrażliwości musi być przeprowadzona retrospektywnie, być może z wykorzystaniem danych z analizy optymalizacji lub niepewności, lub gdy dane pochodzą ze źródła dyskretnego .

Założenia a wnioskowania

W analizie niepewności i wrażliwości istnieje kluczowy kompromis między skrupulatnością analityka w badaniu założeń wejściowych a tym, jak szerokie może być wynikające z tego wnioskowanie . Dobrze ilustruje to ekonometryk Edward E. Leamer :

Zaproponowałem formę zorganizowanej analizy wrażliwości, którą nazywam „globalną analizą wrażliwości”, w której wybiera się sąsiedztwo alternatywnych założeń i identyfikuje się odpowiedni przedział wnioskowania. Wnioski są oceniane jako solidne tylko wtedy, gdy sąsiedztwo założeń jest wystarczająco szerokie, aby było wiarygodne, a odpowiadający mu przedział wnioskowania jest wystarczająco wąski, aby był użyteczny.

Uwaga Leamer kładzie nacisk na potrzebę „wiarygodności” w doborze założeń. Najłatwiejszym sposobem unieważnienia modelu jest wykazanie, że jest on kruchy w odniesieniu do niepewności założeń lub wykazanie, że jego założenia nie zostały przyjęte „dostatecznie szeroko”. Tę samą koncepcję wyraża Jerome R. Ravetz, dla którego złe modelowanie polega na tym, że niepewność danych wejściowych musi być stłumiona, aby wyniki nie stały się nieokreślone.

Pułapki i trudności

Niektóre typowe trudności w analizie wrażliwości obejmują:

  • Zbyt wiele danych wejściowych modelu do analizy. W celu zmniejszenia wymiarowości można zastosować przesiewanie. Innym sposobem radzenia sobie z przekleństwem wymiarowości jest próbkowanie oparte na sekwencjach o niskiej rozbieżności
  • Uruchomienie modelu trwa zbyt długo. Emulatory (w tym HDMR ) mogą skrócić całkowity czas, przyspieszając model lub zmniejszając liczbę potrzebnych uruchomień modelu.
  • Nie ma wystarczających informacji, aby zbudować rozkłady prawdopodobieństwa dla danych wejściowych. Rozkłady prawdopodobieństwa można konstruować na podstawie eksperckiego pozyskiwania , chociaż nawet wtedy może być trudno zbudować rozkłady z dużą pewnością. Subiektywność rozkładów lub zakresów prawdopodobieństwa będzie miała silny wpływ na analizę wrażliwości.
  • Niejasny cel analizy. Do problemu stosuje się różne testy i miary statystyczne i uzyskuje się różne rankingi czynników. Zamiast tego test powinien być dostosowany do celu analizy, np. stosuje się filtrowanie Monte Carlo, jeśli interesuje nas, które czynniki są najbardziej odpowiedzialne za generowanie wysokich/niskich wartości wyniku.
  • Uwzględnia się zbyt wiele danych wyjściowych modelu. Może to być akceptowalne dla zapewnienia jakości podmodeli, ale należy tego unikać podczas prezentowania wyników ogólnej analizy.
  • Odcinkowa wrażliwość. Dzieje się tak, gdy przeprowadza się analizę wrażliwości na jednym podmodelu na raz. To podejście jest niekonserwatywne, ponieważ może pomijać interakcje między czynnikami w różnych podmodelach (błąd typu II).
  • Powszechnie stosowane podejście OAT nie sprawdza się w przypadku modeli nieliniowych. Zamiast tego należy stosować metody globalne.

Metody analizy wrażliwości

Idealny schemat ewentualnej analizy wrażliwości opartej na próbkowaniu. Niepewności wynikające z różnych źródeł – błędy danych, procedura estymacji parametrów, alternatywne struktury modelu – są propagowane przez model do analizy niepewności, a ich względne znaczenie jest określane ilościowo za pomocą analizy wrażliwości.
Analiza wrażliwości oparta na próbkowaniu za pomocą wykresów rozrzutu. Y (oś pionowa) jest funkcją czterech czynników. Punkty na czterech wykresach rozrzutu są zawsze takie same, choć posortowane inaczej, tj. kolejno Z 1 , Z 2 , Z 3 , Z 4 . Zauważ, że odcięta jest inna dla każdego wykresu: (−5, +5) dla Z 1 , (−8, +8) dla Z 2 , (−10, +10) dla Z 3 i Z 4 . Z 4 ma największy wpływ na Y, ponieważ nadaje więcej „kształtu” Y .

Istnieje wiele podejść do przeprowadzania analizy wrażliwości, z których wiele zostało opracowanych w celu rozwiązania jednego lub większej liczby omówionych powyżej ograniczeń. Wyróżnia je również rodzaj miary wrażliwości, czy to na podstawie np. dekompozycji wariancji , pochodnych cząstkowych czy efektów elementarnych . Ogólnie jednak większość procedur jest zgodna z następującym schematem:

  1. Określ ilościowo niepewność w każdym wejściu (np. zakresy, rozkłady prawdopodobieństwa). Należy zauważyć, że może to być trudne i istnieje wiele metod wydobycia rozkładów niepewności z danych subiektywnych.
  2. Zidentyfikuj dane wyjściowe modelu do analizy (cel będący przedmiotem zainteresowania powinien mieć bezpośredni związek z problemem rozwiązywanym przez model).
  3. Uruchom model kilka razy, korzystając z pewnego projektu eksperymentów , podyktowanego wybraną metodą i niepewnością wejściową.
  4. Korzystając z uzyskanych danych wyjściowych modelu, oblicz interesujące miary wrażliwości.

W niektórych przypadkach procedura ta zostanie powtórzona, na przykład w problemach wielowymiarowych, w których użytkownik musi odfiltrować nieistotne zmienne przed wykonaniem pełnej analizy wrażliwości.

Różne rodzaje „metod podstawowych” (omówione poniżej) wyróżniają się różnymi miarami wrażliwości, które są obliczane. Te kategorie mogą się w jakiś sposób nakładać. Można podać alternatywne sposoby uzyskania tych środków, przy ograniczeniach problemu.

Jednorazowo (OAT)

Jednym z najprostszych i najczęstszych podejść jest zmiana jednego czynnika na raz (OAT), aby zobaczyć, jaki wpływ ma to na wynik. OAT zwykle obejmuje:

  • przeniesienie jednej zmiennej wejściowej, utrzymanie pozostałych w ich wartościach bazowych (nominalnych),
  • przywrócenie zmiennej do jej wartości nominalnej, a następnie powtórzenie dla każdego z pozostałych wejść w ten sam sposób.

Wrażliwość można następnie zmierzyć poprzez monitorowanie zmian wyniku, np. za pomocą pochodnych cząstkowych lub regresji liniowej . Wydaje się to logiczne podejście, ponieważ każda zmiana zaobserwowana w wyniku będzie jednoznacznie wynikać ze zmiany jednej zmiennej. Ponadto, zmieniając jedną zmienną na raz, można utrzymać wszystkie inne zmienne na stałym poziomie ich wartości centralnej lub bazowej. Zwiększa to porównywalność wyników (wszystkie „efekty” są obliczane w odniesieniu do tego samego centralnego punktu w przestrzeni) i minimalizuje ryzyko awarii programu komputerowego, bardziej prawdopodobne w przypadku jednoczesnej zmiany kilku czynników wejściowych. OAT jest często preferowany przez modelarzy ze względów praktycznych. W przypadku awarii modelu w analizie OAT, modelarz od razu wie, który czynnik wejściowy odpowiada za awarię.

Jednak mimo swojej prostoty podejście to nie w pełni eksploruje przestrzeń wejściową, ponieważ nie uwzględnia jednoczesnej zmienności zmiennych wejściowych. Oznacza to, że podejście OAT nie może wykryć obecności interakcji między zmiennymi wejściowymi.

Metody lokalne oparte na pochodnych

Metody oparte na lokalnych pochodnych polegają na wzięciu pochodnej cząstkowej wyjścia Y względem współczynnika wejściowego X i  :

gdzie indeks dolny x 0 wskazuje, że pochodna jest pobierana w pewnym ustalonym punkcie w przestrzeni wejścia (stąd 'local' w nazwie klasy). Modelowanie sprzężone i automatyczne różnicowanie to metody w tej klasie. Podobnie jak w przypadku OAT, metody lokalne nie próbują w pełni zbadać przestrzeni wejściowej, ponieważ badają małe perturbacje, zwykle jedną zmienną na raz. Możliwe jest wybranie podobnych próbek z czułości opartej na pochodnych za pomocą sieci neuronowych i wykonanie kwantyfikacji niepewności.

Analiza regresji

Analiza regresji , w kontekście analizy wrażliwości, obejmuje dopasowanie regresji liniowej do odpowiedzi modelu i użycie standaryzowanych współczynników regresji jako bezpośrednich miar wrażliwości. Regresja musi być liniowa w odniesieniu do danych (tj. hiperpłaszczyzna, a więc bez wyrażeń kwadratowych itp. jako regresorów), ponieważ w przeciwnym razie trudno jest zinterpretować standaryzowane współczynniki. Metoda ta jest zatem najbardziej odpowiednia, gdy odpowiedź modelu jest w rzeczywistości liniowa; liniowość można potwierdzić np . przy dużym współczynniku determinacji . Zaletą analizy regresji jest jej prostota i niski koszt obliczeniowy.

Metody oparte na wariancji

Metody oparte na wariancji to klasa podejść probabilistycznych, które określają ilościowo niepewności wejściowe i wyjściowe jako rozkłady prawdopodobieństwa i rozkładają wariancję wyjściową na części, które można przypisać zmiennym wejściowym i kombinacjom zmiennych. Wrażliwość wyjścia na zmienną wejściową jest zatem mierzona przez wielkość wariancji wyjścia spowodowanej tym wejściem. Można je wyrazić jako oczekiwania warunkowe, tj. biorąc pod uwagę model Y = f ( X ) dla X = { X 1 , X 2 , ... X k } miara wrażliwości i- tej zmiennej X i jest podawana jako ,

gdzie „Var” i „ E ” oznaczają odpowiednio operatory wariancji i wartości oczekiwanej, a X ~i oznacza zbiór wszystkich zmiennych wejściowych z wyjątkiem X i . Wyrażenie to zasadniczo mierzy udział samego X i w niepewności (wariancji) w Y (uśrednionej względem zmian innych zmiennych) i jest znane jako wskaźnik wrażliwości pierwszego rzędu lub wskaźnik efektu głównego . Co ważne, nie mierzy niepewności spowodowanej interakcjami z innymi zmiennymi. Kolejna miara, znana jako wskaźnik całkowitego efektu , podaje całkowitą wariancję w Y spowodowaną przez X i oraz jego interakcje z dowolną inną zmienną wejściową. Obie wielkości są zazwyczaj standaryzowane przez podzielenie przez Var( Y ).

Metody oparte na wariancji pozwalają na pełną eksplorację przestrzeni wejściowej, uwzględnienie interakcji i odpowiedzi nieliniowych. Z tych powodów są one szeroko stosowane, gdy możliwe jest ich obliczenie. Zazwyczaj to obliczenie wymaga użycia metod Monte Carlo , ale ponieważ może to obejmować wiele tysięcy przebiegów modeli, inne metody (takie jak emulatory) mogą być używane w razie potrzeby w celu zmniejszenia kosztów obliczeniowych. Należy zauważyć, że pełne dekompozycje wariancji mają sens tylko wtedy, gdy czynniki wejściowe są od siebie niezależne.

Analiza wariogramu powierzchni odpowiedzi ( VARS )

Jedną z głównych wad poprzednich metod analizy wrażliwości jest to, że żadna z nich nie uwzględnia przestrzennie uporządkowanej struktury powierzchni odpowiedzi/wyjścia modelu Y = f ( X ) w przestrzeni parametrów. Wykorzystując koncepcje wariogramów kierunkowych i kowariogramów, analiza wariogramów powierzchni odpowiedzi (VARS) rozwiązuje tę słabość poprzez rozpoznanie przestrzennie ciągłej struktury korelacji z wartościami Y , a zatem również z wartościami .

Zasadniczo im wyższa zmienność, tym bardziej niejednorodna jest powierzchnia odpowiedzi wzdłuż określonego kierunku/parametru, w określonej skali perturbacji. W związku z tym, w ramach VARS, wartości wariogramów kierunkowych dla danej skali perturbacji można traktować jako kompleksową ilustrację informacji o wrażliwości, poprzez powiązanie analizy wariogramów z koncepcjami zarówno kierunku, jak i skali perturbacji. W rezultacie struktura VARS uwzględnia fakt, że wrażliwość jest koncepcją zależną od skali, a tym samym przezwycięża problem skali tradycyjnych metod analizy wrażliwości. Co ważniejsze, VARS jest w stanie zapewnić stosunkowo stabilne i statystycznie solidne szacunki wrażliwości parametrów przy znacznie niższych kosztach obliczeniowych niż inne strategie (o około dwa rzędy wielkości bardziej wydajne). Warto zauważyć, że wykazano, że istnieje teoretyczny związek między ramą VARS a podejściem opartym na wariancji i pochodnych.

Ekranizacja

Skrining jest szczególnym przykładem metody opartej na próbkowaniu. Celem jest raczej zidentyfikowanie, które zmienne wejściowe mają znaczący wpływ na niepewność wyjściową w modelach wielowymiarowych, a nie dokładne określenie ilościowe wrażliwości (tj. pod względem wariancji). Badania przesiewowe mają zwykle stosunkowo niski koszt obliczeniowy w porównaniu z innymi podejściami i mogą być stosowane we wstępnej analizie w celu wyeliminowania nieistotnych zmiennych przed zastosowaniem bardziej pouczającej analizy do pozostałego zestawu. Jedną z najczęściej stosowanych metod przesiewowych jest metoda efektu elementarnego .

Wykresy punktowe

Prostym, ale użytecznym narzędziem jest wykreślenie wykresów punktowych zmiennej wyjściowej względem poszczególnych zmiennych wejściowych, po (losowym) próbkowaniu modelu na podstawie jego rozkładów wejściowych. Zaletą tego podejścia jest to, że może również zajmować się „danymi danymi”, tj. zestawem arbitralnie rozmieszczonych punktów danych, i daje bezpośredni wizualny wskaźnik czułości. Środki ilościowe mogą być sporządzone na przykład za pomocą pomiaru korelację między Y i X, i lub nawet od oceny środków wariancji w oparciu o regresję nieliniową .

Metody alternatywne

Opracowano szereg metod w celu przezwyciężenia niektórych z omówionych powyżej ograniczeń, które w przeciwnym razie uniemożliwiłyby oszacowanie miar wrażliwości (najczęściej z powodu kosztów obliczeniowych ). Ogólnie rzecz biorąc, metody te koncentrują się na wydajnym obliczaniu miar wrażliwości opartych na wariancji.

Emulatory

Emulatory (znane również jako metamodele, modele zastępcze lub powierzchnie odpowiedzi) to podejścia do modelowania danych / uczenia maszynowego, które obejmują budowanie stosunkowo prostej funkcji matematycznej, znanej jako emulator , która przybliża zachowanie wejścia/wyjścia samego modelu. Innymi słowy, jest to pojęcie „modelowania modelu” (stąd nazwa „metamodel”). Chodzi o to, że chociaż modele komputerowe mogą być bardzo złożonymi szeregami równań, których rozwiązanie może zająć dużo czasu, zawsze można je traktować jako funkcję ich danych wejściowych Y = f ( X ). Uruchamiając model w wielu punktach w przestrzeni wejściowej, może być możliwe dopasowanie znacznie prostszego emulatora η ( X ), takiego, że η ( X ) ≈ f ( X ) z akceptowalnym marginesem błędu. Następnie z emulatora można obliczyć miary czułości (albo metodą Monte Carlo, albo analitycznie), co będzie miało znikomy dodatkowy koszt obliczeniowy. Co ważne, liczba przebiegów modelu wymagana do dopasowania do emulatora może być o rzędy wielkości mniejsza niż liczba przebiegów wymagana do bezpośredniego oszacowania miar czułości z modelu.

Najwyraźniej sedno podejścia opartego na emulatorze polega na znalezieniu η (emulatora), który jest wystarczająco bliskim przybliżeniem do modelu f . Wymaga to następujących kroków,

  1. Próbkowanie (uruchamianie) modelu w wielu punktach w jego przestrzeni wejściowej. Wymaga to przykładowego projektu.
  2. Wybór typu emulatora (funkcji matematycznej) do użycia.
  3. „Uczenie” emulatora przy użyciu przykładowych danych z modelu – zazwyczaj polega to na dostosowaniu parametrów emulatora, aż emulator będzie jak najlepiej naśladował prawdziwy model.

Próbkowanie modelu można często wykonać za pomocą sekwencji o małej rozbieżności , takich jak sekwencja Sobola – za sprawą matematyka Ilyi M. Sobola lub próbkowanie hipersześcianami łacińskimi , chociaż można również stosować losowe projekty, z utratą pewnej wydajności. Wybór typu emulatora i trening są nierozerwalnie powiązane, ponieważ metoda treningu będzie zależna od klasy emulatora. Niektóre typy emulatorów, które zostały z powodzeniem wykorzystane do analizy wrażliwości, obejmują:

Użycie emulatora wprowadza problem uczenia maszynowego , który może być trudny, jeśli odpowiedź modelu jest wysoce nieliniowa . We wszystkich przypadkach warto sprawdzić poprawność emulatora, na przykład za pomocą walidacji krzyżowej .

Reprezentacje modeli wysokowymiarowych (HDMR)

Modelu przedstawienie dużej wymiarowa (HDMR) (przy czym określenie to spowodowane H. Siatka druciana) jest zasadniczo podejście Emulator wymaga rozłożenia wyjścia funkcji do liniowej kombinacji warunków wejściowych i interakcji z rosnącą trójwymiarowości. Podejście HDMR wykorzystuje fakt, że model można zwykle dobrze przybliżyć, pomijając interakcje wyższego rzędu (drugiego lub trzeciego rzędu i wyższych). Terminy w skróconym szeregu mogą być następnie aproksymowane za pomocą np. wielomianów lub splajnów (REFS), a odpowiedź wyrażona jako suma głównych efektów i interakcji do rzędu skrócenia. Z tej perspektywy HDMR można postrzegać jako emulatory, które pomijają interakcje wyższego rzędu; zaletą jest to, że są w stanie emulować modele o większej wymiarowości niż emulatory pełnego rzędu.

Test czułości amplitudowej Fouriera (FAST)

Test czułości amplitudowej Fouriera (FAST) wykorzystuje szereg Fouriera do reprezentowania funkcji wielowymiarowej (modelu) w dziedzinie częstotliwości przy użyciu pojedynczej zmiennej częstotliwości. Dlatego całki wymagane do obliczenia wskaźników wrażliwości stają się jednowymiarowe, co skutkuje oszczędnościami obliczeniowymi.

Inne

Metody oparte na filtrowaniu Monte Carlo. Są one również oparte na próbkowaniu, a ich celem jest identyfikacja regionów w przestrzeni czynników wejściowych odpowiadających poszczególnym wartościom (np. wysokim lub niskim) produkcji.

Aplikacje

Przykłady analiz wrażliwości można znaleźć w różnych obszarach zastosowań, takich jak:

Audyt wrażliwości

Może się zdarzyć, że analiza wrażliwości badania opartego na modelu ma stanowić podstawę wnioskowania i poświadczyć jego solidność w kontekście, w którym wnioskowanie wpływa na politykę lub proces podejmowania decyzji. W takich przypadkach ramy samej analizy, jej kontekst instytucjonalny i motywacje autora mogą stać się bardzo ważne, a sama analiza wrażliwości – z naciskiem na niepewność parametryczną – może być postrzegana jako niewystarczająca. Nacisk na ramy może wynikać m.in. z adekwatności studium polityki do różnych okręgów wyborczych, które charakteryzują się różnymi normami i wartościami, a co za tym idzie, z innej opowieści o tym, „co jest problemem”, a przede wszystkim o tym, „kto mówi fabuła'. Najczęściej rama zawiera mniej lub bardziej dorozumiane założenia, które mogą być polityczne (np. jaką grupę należy chronić) aż po techniczne (np. jaka zmienna może być traktowana jako stała).

W celu należytego uwzględnienia tych obaw instrumenty SA zostały rozszerzone o ocenę całego procesu generowania wiedzy i modeli. Takie podejście nazwano „kontrolą wrażliwości”. Czerpie inspirację z NUSAP, metody używanej do określania wartości informacji ilościowych przy generowaniu „Rodowodów” liczb. Podobnie, audyt wrażliwości został opracowany w celu dostarczenia rodowodów modeli i wniosków opartych na modelach. Audyt wrażliwości został specjalnie zaprojektowany dla kontekstu kontradyktoryjnego, gdzie nie tylko charakter dowodów, ale także stopień pewności i niepewności związany z dowodami będzie przedmiotem interesów stron. Audyt wrażliwości jest zalecany w wytycznych Komisji Europejskiej dotyczących oceny wpływu, a także w raporcie Science Advice for Policy przez European Academies.

Pojęcia pokrewne

Analiza wrażliwości jest ściśle powiązana z analizą niepewności; podczas gdy ta ostatnia bada ogólną niepewność we wnioskach z badania, analiza wrażliwości próbuje określić, które źródło niepewności ma większe znaczenie dla wniosków z badania.

Postawienie problemu w analizie wrażliwości ma również silne podobieństwa z dziedziną projektowania eksperymentów . Projektując eksperymenty, bada się wpływ jakiegoś procesu lub interwencji („zabiegu”) na niektóre przedmioty („jednostki eksperymentalne”). W analizie wrażliwości przygląda się wpływowi różnicowania danych wejściowych modelu matematycznego na dane wyjściowe samego modelu. W obu dyscyplinach dąży się do uzyskania informacji z systemu przy minimum eksperymentów fizycznych lub numerycznych.

Zobacz też

Bibliografia

Dalsza lektura

  • Cannavó, F. (2012). „Analiza wrażliwości dla oceny jakości modelowania źródła wulkanicznego i wyboru modelu”. Komputery i nauki o Ziemi . 44 : 52–59. Kod Bibcode : 2012CG.....44...52C . doi : 10.1016/j.cageo.2012.03.008 .
  • Fassò A. (2007) „Statystyczna analiza wrażliwości i jakość wody”. W Wymer L. Ed, Ramy statystyczne dla kryteriów i monitorowania jakości wody . Wiley, Nowy Jork.
  • Fassò A., Perri PF (2002) "Analiza wrażliwości". W Abdel H. El-Shaarawi i Walter W. Piegorsch (red.) Encyclopedia of Environmetrics , tom 4, s. 1968-1982, Wiley.
  • Fassò A., Esposito E., Porcu E., Reverberi AP, Vegliò F. (2003) "Analiza statystyczna czułości reaktorów z upakowanymi kolumnami dla zanieczyszczonych ścieków". Środowisko . Tom. 14, n.8, 743-759.
  • Haug, Edward J.; Choi, Kyung K.; Komkov, Vadim (1986) Analiza wrażliwości konstrukcji systemów konstrukcyjnych . Matematyka w nauce i inżynierii, 177. Academic Press, Inc., Orlando, FL.
  • Pianosi, F.; Beven, K.; Freer, J.; Sala, JW; Rougier, J.; Stephenson, DB; Wagener, T. (2016). „Analiza wrażliwości modeli środowiskowych: przegląd systematyczny z praktycznym przepływem pracy” . Modelowanie i oprogramowanie środowiskowe . 79 : 214–232. doi : 10.1016/j.envsoft.2016.02.008 .
  • Pilkey, OH i L. Pilkey-Jarvis (2007), Bezużyteczna arytmetyka. Dlaczego naukowcy zajmujący się ochroną środowiska nie potrafią przewidzieć przyszłości. Nowy Jork: Wydawnictwo Uniwersytetu Columbia.
  • Santnera, TJ; Williamsa, BJ; Notz, WI (2003) Projektowanie i analiza eksperymentów komputerowych ; Springer-Verlag.
  • Taleb, NN, (2007) Czarny łabędź: wpływ wysoce nieprawdopodobnego, losowego domu.

Specjalne problemy

Zewnętrzne linki

  • Joseph Hart, Julie Bessac, Emil Constantinescu (2018), "Globalna analiza wrażliwości na parametry modeli statystycznych", arXiv : 1708.07441
  • strona internetowa poświęcona analizie wrażliwości – (Wspólne Centrum Badawcze Komisji Europejskiej)
  • SimLab , darmowe oprogramowanie do globalnej analizy wrażliwości Wspólnego Centrum Badawczego
  • Projekt MUCM – Obszerne zasoby do analizy niepewności i wrażliwości modeli wymagających obliczeniowo.