System ekspercki - Expert system

Symbolics Lisp Maszyna: wczesna platforma dla systemów eksperckich.

W sztucznej inteligencji , system ekspercki to system komputerowy emulacji zdolność decyzyjną ludzkiego eksperta. Systemy eksperckie mają na celu rozwiązywanie złożonych problemów poprzez rozumowanie za pomocą zasobów wiedzy, reprezentowanych głównie jako reguły, a nie za pomocą konwencjonalnego kodu proceduralnego . Pierwsze systemy ekspertowe powstały w latach siedemdziesiątych, a następnie rozpowszechniły się w latach osiemdziesiątych. Systemy eksperckie były jedną z pierwszych naprawdę udanych form oprogramowania sztucznej inteligencji (AI). System ekspertowy dzieli się na dwa podsystemy: silnik wnioskowania i bazę wiedzy . Baza wiedzy reprezentuje fakty i zasady. Silnik wnioskowania stosuje reguły do ​​znanych faktów, aby wywnioskować nowe fakty. Silniki wnioskowania mogą również zawierać możliwości wyjaśniania i debugowania.

Historia

Wczesny rozwój

Wkrótce po świcie nowoczesnych komputerów pod koniec lat 40. – na początku lat 50. naukowcy zaczęli zdawać sobie sprawę z ogromnego potencjału, jaki te maszyny mają dla współczesnego społeczeństwa. Jednym z pierwszych wyzwań było stworzenie takiej maszyny zdolnej do „myślenia” jak ludzie. W szczególności uczynienie tych maszyn zdolnymi do podejmowania ważnych decyzji tak, jak robią to ludzie. Dziedzina medycyny / opieki zdrowotnej przedstawiła kuszące wyzwanie, aby umożliwić tym maszynom podejmowanie medycznych decyzji diagnostycznych.

Tak więc pod koniec lat pięćdziesiątych, zaraz po pełnym nastaniu ery informacji, naukowcy zaczęli eksperymentować z perspektywą wykorzystania technologii komputerowej do naśladowania ludzkiego procesu decyzyjnego. Na przykład badacze biomedyczni rozpoczęli tworzenie wspomaganych komputerowo systemów do zastosowań diagnostycznych w medycynie i biologii. Te wczesne systemy diagnostyczne wykorzystywały objawy pacjentów i wyniki badań laboratoryjnych jako dane wejściowe do uzyskania wyniku diagnostycznego. Systemy te były często opisywane jako wczesne formy systemów eksperckich. Jednak naukowcy zdali sobie sprawę, że istnieją znaczne ograniczenia podczas korzystania z tradycyjnych metod, takich jak schematy blokowe dopasowywania wzorców statystycznych lub teoria prawdopodobieństwa.

Formalne wprowadzenie i późniejsze zmiany

Ta poprzednia sytuacja stopniowo doprowadziła do rozwoju systemów eksperckich, które wykorzystywały podejścia oparte na wiedzy. Tymi systemami ekspertowymi w medycynie były system ekspertowy MYCIN, system ekspertowy INTERNIST-I, a później, w połowie lat 80. XX wieku, KADUCEUS .

Systemy eksperckie zostały formalnie wprowadzone około 1965 roku przez Stanford Heuristic Programming Project kierowany przez Edwarda Feigenbauma , który jest czasami nazywany „ojcem systemów eksperckich”; Innymi kluczowymi wczesnymi współpracownikami byli Bruce Buchanan i Randall Davis. Naukowcy ze Stanford próbowali zidentyfikować dziedziny, w których specjalistyczna wiedza była wysoko ceniona i złożona, takich jak diagnozowanie chorób zakaźnych ( Mycin ) i identyfikacja nieznanych cząsteczek organicznych ( Dendral ). Pomysł, że „inteligentne systemy czerpią swoją moc z wiedzy, którą posiadają, a nie z konkretnych formalizmów i schematów wnioskowania, których używają” – jak powiedział Feigenbaum – był w tamtym czasie znaczącym krokiem naprzód, ponieważ wcześniejsze badania koncentrowały się na heurystycznych obliczeniach. metody, których kulminacją są próby opracowania bardzo ogólnych rozwiązań problemów (przede wszystkim praca połączona z Allenem Newellem i Herbertem Simonem ). Systemy eksperckie stały się jednymi z pierwszych naprawdę udanych form oprogramowania sztucznej inteligencji (AI).

Badania nad systemami ekspertowymi były również aktywne we Francji. Podczas gdy w USA koncentrowano się zwykle na systemach opartych na regułach, najpierw na systemach zakodowanych na sztywno w środowiskach programistycznych LISP, a następnie na powłokach systemów eksperckich opracowanych przez dostawców takich jak Intellicorp , we Francji badania koncentrowały się bardziej na systemach opracowanych w Prologu . Zaletą powłok systemów eksperckich było to, że były one nieco łatwiejsze w użyciu dla nie-programistów. Zaletą środowisk Prologu było to, że nie skupiały się tylko na regułach „ jeśli-to” ; Środowiska Prolog zapewniły znacznie lepszą realizację kompletnego środowiska logicznego pierwszego rzędu .

W latach 80. rozpowszechniły się systemy eksperckie. Uczelnie oferowały kursy systemów eksperckich, a dwie trzecie firm z listy Fortune 500 stosowało tę technologię w codziennej działalności biznesowej. Zainteresowanie projektem systemów komputerowych piątej generacji w Japonii i zwiększonym finansowaniem badań w Europie było międzynarodowe .

W 1981 roku wprowadzono pierwszy komputer IBM PC z systemem operacyjnym PC DOS . Nierównowaga między wysoką przystępnością cenową stosunkowo wydajnych chipów w komputerach PC, w porównaniu ze znacznie droższymi kosztami mocy obliczeniowej w komputerach typu mainframe, które dominowały w owym czasie w korporacyjnym świecie IT, stworzyła nowy typ architektury dla korporacyjnego przetwarzania danych, zwany model klient-serwer . Obliczenia i rozumowanie można przeprowadzić za ułamek ceny komputera typu mainframe przy użyciu komputera. Model ten umożliwił również jednostkom biznesowym ominięcie korporacyjnych działów IT i bezpośrednie budowanie własnych aplikacji. W rezultacie serwer kliencki miał ogromny wpływ na rynek systemów eksperckich. Systemy eksperckie były już odstające w większości świata biznesu, wymagając nowych umiejętności, których wiele działów IT nie posiadało i nie chciało rozwijać. W naturalny sposób pasowały do ​​nowych powłok na komputery PC, które obiecywały oddanie rozwoju aplikacji w ręce użytkowników końcowych i ekspertów. Do tej pory głównym środowisko programistyczne dla systemów eksperckich był wysokiej klasy maszyny Lisp z Xerox , Symbolics i Texas Instruments . Wraz z rozwojem komputerów PC i serwerów klienckich producenci, tacy jak Intellicorp i Inference Corporation, przesunęli swoje priorytety na opracowywanie narzędzi opartych na komputerach PC. Co więcej, regularnie pojawiali się nowi dostawcy, często finansowani przez kapitał wysokiego ryzyka (tacy jak Aion Corporation, Neuron Data , Exsys i wielu innych).

Pierwszym systemem eksperckim używanym do projektowania produktów na dużą skalę było oprogramowanie SID (Synthesis of Integral Design), opracowane w 1982 roku. Napisany w LISP , SID generował 93% bramek logicznych procesora VAX 9000 . Dane wejściowe do oprogramowania stanowił zestaw reguł stworzonych przez kilku ekspertów projektantów logiki. SID rozszerzył reguły i wygenerował procedury syntezy logiki oprogramowania wielokrotnie większe od samych reguł. Co zaskakujące, połączenie tych zasad zaowocowało ogólnym projektem, który przekroczył możliwości samych ekspertów, aw wielu przypadkach przewyższał ludzkie odpowiedniki. Podczas gdy niektóre zasady były sprzeczne z innymi, najwyższe parametry kontroli prędkości i obszaru zapewniły rozstrzygnięcie. Program był bardzo kontrowersyjny, ale mimo to wykorzystywany ze względu na ograniczenia budżetowe projektu. Została zakończona przez projektantów logiki po zakończeniu projektu VAX 9000.

W latach poprzedzających połowę lat siedemdziesiątych oczekiwania co do tego, co systemy ekspertowe mogą osiągnąć w wielu dziedzinach, były niezwykle optymistyczne. Na początku tych wczesnych badań naukowcy mieli nadzieję na opracowanie całkowicie automatycznych (tj. całkowicie skomputeryzowanych) systemów eksperckich. Oczekiwania ludzi co do możliwości komputerów były często zbyt idealistyczne. Sytuacja ta uległa radykalnej zmianie po tym, jak Richard M. Karp opublikował na początku lat 70. swój przełomowy artykuł „Reducibility between Combinatorial Problems”. Dzięki pracy Karpa stało się jasne, że przy projektowaniu algorytmów komputerowych istnieją pewne ograniczenia i możliwości. Jego odkrycia opisują, co potrafią komputery, a czego nie. Wiele problemów obliczeniowych związanych z tego typu systemami ekspertowymi ma pewne ograniczenia pragmatyczne. Odkrycia te położyły podwaliny, które doprowadziły do ​​dalszych zmian w tej dziedzinie.

W latach 90. i później termin system ekspercki i idea samodzielnego systemu AI w większości zniknęły z leksykonu IT. Istnieją dwie interpretacje tego. Jednym z nich jest to, że „systemy eksperckie zawiodły”: świat IT ruszył dalej, ponieważ systemy eksperckie nie spełniły swojej nadmiernie przereklamowanej obietnicy. Druga jest lustrzanym odbiciem, że systemy eksperckie były po prostu ofiarami swojego sukcesu: gdy specjaliści IT zrozumieli koncepcje takie jak silniki reguł, takie narzędzia przeszły z samodzielnych narzędzi do tworzenia systemów eksperckich specjalnego przeznaczenia do jednego z wielu standardowych narzędzi. Wielu wiodących głównych dostawców pakietów aplikacji biznesowych (takich jak SAP , Siebel i Oracle ) zintegrowało możliwości systemów eksperckich ze swoimi produktami w celu określenia logiki biznesowej – silniki reguł nie służą już tylko do definiowania reguł używanych przez eksperta ale dla każdego rodzaju złożonej, niestabilnej i krytycznej logiki biznesowej; często idą w parze z automatyzacją procesów biznesowych i środowiskami integracyjnymi.

Aktualne podejścia do systemów eksperckich

Ograniczenia poprzedniego typu systemów eksperckich skłoniły badaczy do opracowania nowych rodzajów podejść. Opracowali bardziej wydajne, elastyczne i wydajne podejścia w celu symulacji procesu podejmowania decyzji przez człowieka. Niektóre z podejść opracowanych przez badaczy opierają się na nowych metodach sztucznej inteligencji (AI), a w szczególności w podejściach do uczenia maszynowego i eksploracji danych z mechanizmem sprzężenia zwrotnego. Rekurencyjne sieci neuronowe często wykorzystują takie mechanizmy. Powiązane jest omówienie sekcji wad.

Nowoczesne systemy mogą łatwiej wprowadzać nową wiedzę, a tym samym łatwo się aktualizować. Takie systemy mogą lepiej uogólniać istniejącą wiedzę i radzić sobie z ogromnymi ilościami złożonych danych. Powiązany jest tutaj temat big data . Czasami tego typu systemy eksperckie nazywane są „systemami inteligentnymi”.

Architektura oprogramowania

Ilustrujący przykład wstecznego tworzenia łańcuchów z pracy magisterskiej z 1990 r.

Przykładem systemu opartego na wiedzy jest system ekspertowy . Systemy eksperckie były pierwszymi systemami komercyjnymi wykorzystującymi architekturę opartą na wiedzy. System oparty na wiedzy składa się zasadniczo z dwóch podsystemów: bazy wiedzy i silnika wnioskowania .

Baza wiedzy reprezentuje fakty o świecie. We wczesnych systemach eksperckich, takich jak Mycin i Dendral, fakty te były przedstawiane głównie jako płaskie twierdzenia dotyczące zmiennych. W późniejszych systemach eksperckich opracowanych z powłokami komercyjnymi baza wiedzy nabrała większej struktury i wykorzystywała koncepcje programowania obiektowego. Świat był reprezentowany jako klasy, podklasy, a instancje i asercje zostały zastąpione wartościami instancji obiektów. Reguły działały poprzez zapytania i potwierdzanie wartości obiektów.

Silnik wnioskowania to zautomatyzowany system wnioskowania, który ocenia aktualny stan bazy wiedzy, stosuje odpowiednie reguły, a następnie wprowadza nową wiedzę do bazy wiedzy. Silnik wnioskowania może również zawierać możliwości wyjaśniania, dzięki czemu może wyjaśnić użytkownikowi łańcuch rozumowania użyty do dojścia do konkretnego wniosku, śledząc wstecz uruchomienie reguł, które doprowadziły do ​​stwierdzenia.

Istnieją głównie dwa tryby mechanizmu wnioskowania: tworzenie łańcucha w przód i tworzenie łańcucha w tył . Różne podejścia są podyktowane tym, czy silnik wnioskowania jest sterowany przez poprzednika (lewa strona) czy następnika (prawa strona) reguły. W łańcuchu naprzód, poprzednik wystrzeliwuje i potwierdza następnik. Rozważmy na przykład następującą regułę:

Prostym przykładem łączenia w przód może być asercja Man(Sokratesa) do systemu, a następnie wyzwolenie silnika wnioskowania. Dopasuje R1 i wprowadzi Mortal (Sokrates) do bazy wiedzy.

Tworzenie łańcucha wstecznego jest nieco mniej proste. W łańcuchu wstecznym system analizuje możliwe wnioski i działa wstecz, aby sprawdzić, czy mogą one być prawdziwe. Jeśli więc system próbowałby ustalić, czy Mortal (Sokrates) jest prawdziwy, znalazłby R1 i przesłał zapytanie do bazy wiedzy, aby sprawdzić, czy Man (Sokrates) jest prawdziwy. Jedną z wczesnych innowacji powłok systemów eksperckich była integracja silników wnioskowania z interfejsem użytkownika. Może to być szczególnie skuteczne w przypadku tworzenia łańcucha wstecznego. Jeśli system musi znać konkretny fakt, ale nie wie, może po prostu wygenerować ekran wejściowy i zapytać użytkownika, czy informacje są znane. W tym przykładzie może użyć R1, aby zapytać użytkownika, czy Sokrates był człowiekiem, a następnie odpowiednio wykorzystać te nowe informacje.

Użycie reguł do wyraźnego przedstawienia wiedzy umożliwiło również zdolności wyjaśniania. W powyższym prostym przykładzie, gdyby system użył R1 do stwierdzenia, że ​​Sokrates jest śmiertelny, a użytkownik chciałby zrozumieć, dlaczego Sokrates jest śmiertelny, mógłby wysłać zapytanie do systemu, a system spojrzałby wstecz na reguły, które wywołały twierdzenie i przedstawiłby te zasady dla użytkownika jako wyjaśnienie. W języku angielskim, jeśli użytkownik zapytał „Dlaczego Socrates Mortal?” system odpowiedziałby „Ponieważ wszyscy ludzie są śmiertelni, a Sokrates jest człowiekiem”. Istotnym obszarem badań było generowanie wyjaśnień z bazy wiedzy w naturalnym języku angielskim, a nie po prostu poprzez pokazywanie bardziej formalnych, ale mniej intuicyjnych reguł.

W miarę rozwoju systemów eksperckich do różnych typów silników wnioskowania wprowadzono wiele nowych technik. Niektóre z najważniejszych z nich to:

  • Utrzymanie prawdy. Systemy te rejestrują zależności w bazie wiedzy, dzięki czemu w przypadku zmiany faktów można odpowiednio zmienić wiedzę zależną. Na przykład, jeśli system dowie się, że Sokrates nie jest już człowiekiem, unieważni twierdzenie, że Sokrates jest śmiertelny.
  • Rozumowanie hipotetyczne. W tym przypadku bazę wiedzy można podzielić na wiele możliwych widoków, czyli światów. Dzięki temu aparat wnioskowania może równolegle badać wiele możliwości. Na przykład system może chcieć zbadać konsekwencje obu twierdzeń, co będzie prawdą, jeśli Sokrates jest Człowiekiem, a co będzie prawdą, jeśli nie jest?
  • Systemy niepewności. Jednym z pierwszych rozszerzeń prostego używania reguł do reprezentowania wiedzy było również powiązanie prawdopodobieństwa z każdą regułą. Tak więc nie twierdzenie, że Sokrates jest śmiertelny, ale twierdzenie, że Sokrates może być śmiertelny z pewną wartością prawdopodobieństwa. W niektórych systemach rozszerzono proste prawdopodobieństwa o wyrafinowane mechanizmy niepewnego wnioskowania, takie jak logika rozmyta i kombinacja prawdopodobieństw.
  • Klasyfikacja ontologiczna . Wraz z dodaniem klas obiektowych do bazy wiedzy możliwy był nowy typ rozumowania. Oprócz wnioskowania po prostu na temat wartości obiektów, system może również wnioskować o strukturach obiektów. W tym prostym przykładzie Man może reprezentować klasę obiektów, a R1 może zostać przedefiniowane jako reguła definiująca klasę wszystkich mężczyzn. Tego typu aparaty wnioskowania specjalnego przeznaczenia są nazywane klasyfikatorami . Chociaż nie były one często używane w systemach eksperckich, klasyfikatory są bardzo wydajne w przypadku nieustrukturyzowanych domen niestabilnych i są kluczową technologią dla Internetu i powstającej sieci semantycznej .

Zalety

Celem systemów opartych na wiedzy jest uczynienie krytycznych informacji wymaganych do działania systemu jawnymi, a nie ukrytymi. W tradycyjnym programie komputerowym logika jest osadzona w kodzie, który zazwyczaj może zostać przejrzany tylko przez informatyka. Celem systemu eksperckiego było określenie reguł w formacie, który był intuicyjny i łatwy do zrozumienia, przeglądany, a nawet edytowany przez ekspertów dziedzinowych, a nie ekspertów IT. Zaletami tej jawnej reprezentacji wiedzy był szybki rozwój i łatwość utrzymania.

Łatwość konserwacji to najbardziej oczywista korzyść. Osiągnięto to na dwa sposoby. Po pierwsze, eliminując potrzebę pisania konwencjonalnego kodu, dzięki systemom eksperckim można by uniknąć wielu normalnych problemów, które mogą być spowodowane nawet niewielkimi zmianami w systemie. Zasadniczo logiczny przepływ programu (przynajmniej na najwyższym poziomie) był po prostu podany dla systemu, po prostu wywołaj silnik wnioskowania. Był to również powód drugiej korzyści: szybkiego prototypowania . Dzięki eksperckiej powłoce systemu możliwe było wprowadzenie kilku reguł i stworzenie prototypu w ciągu kilku dni, a nie miesięcy czy lat, jak to zwykle bywa w przypadku złożonych projektów informatycznych.

Często pojawiało się twierdzenie, że powłoki systemów eksperckich eliminują potrzebę wyszkolonych programistów i że eksperci mogą samodzielnie opracowywać systemy. W rzeczywistości rzadko było to prawdą. Chociaż zasady systemu eksperckiego były bardziej zrozumiałe niż typowy kod komputerowy, nadal miały formalną składnię, w której źle umieszczony przecinek lub inny znak mógł spowodować spustoszenie, jak w przypadku każdego innego języka komputerowego. Ponadto, gdy systemy eksperckie przeszły z prototypów w laboratorium do wdrożenia w świecie biznesu, kwestie integracji i konserwacji stały się znacznie bardziej krytyczne. Nieuchronnie pojawiły się żądania integracji z dużymi starszymi bazami danych i systemami oraz korzystania z nich. Aby to osiągnąć, integracja wymagała tych samych umiejętności, co każdy inny rodzaj systemu.

Niedogodności

Najczęściej wymienianą wadą systemów ekspertowych w literaturze naukowej jest problem pozyskiwania wiedzy . Pozyskanie czasu ekspertów dziedzinowych dla dowolnej aplikacji jest zawsze trudne, ale dla systemów eksperckich było to szczególnie trudne, ponieważ eksperci byli z definicji wysoko cenieni i poszukiwani przez organizację. W wyniku tego problemu wiele badań w późniejszych latach systemów eksperckich koncentrowało się na narzędziach do pozyskiwania wiedzy, które mają pomóc zautomatyzować proces projektowania, debugowania i utrzymywania zdefiniowanych przez ekspertów reguł. Jednak patrząc na cykl życia faktycznie używanych systemów eksperckich, inne problemy – zasadniczo te same, co w przypadku każdego innego dużego systemu – wydają się co najmniej tak samo krytyczne jak pozyskiwanie wiedzy: integracja, dostęp do dużych baz danych i wydajność.

Wydajność może być szczególnie problematyczna, ponieważ wczesne systemy eksperckie były budowane przy użyciu narzędzi (takich jak wcześniejsze wersje Lisp), które interpretowały wyrażenia kodu bez uprzedniego ich kompilowania. Zapewniło to potężne środowisko programistyczne, ale z tą wadą, że było praktycznie niemożliwe dorównanie wydajnością najszybciej kompilowanym językom (takim jak C ). Integracja systemu i bazy danych była trudna dla wczesnych systemów eksperckich, ponieważ narzędzia były w większości w językach i platformach, które nie były ani znane, ani mile widziane w większości korporacyjnych środowisk IT – języki programowania, takie jak Lisp i Prolog oraz platformy sprzętowe, takie jak maszyny Lisp i komputery osobiste . W rezultacie wiele wysiłku na późniejszych etapach opracowywania narzędzi systemu eksperckiego koncentrowało się na integracji ze starszymi środowiskami, takimi jak COBOL i duże systemy baz danych, oraz na przenoszeniu na bardziej standardowe platformy. Problemy te zostały rozwiązane głównie dzięki zmianie paradygmatu klient-serwer, ponieważ komputery PC były stopniowo akceptowane w środowisku IT jako legalna platforma do poważnego rozwoju systemów biznesowych, a przystępne cenowo minikomputery zapewniały moc obliczeniową potrzebną do zastosowań AI.

Kolejne poważne wyzwanie systemów eksperckich pojawia się wraz ze wzrostem wielkości bazy wiedzy. Powoduje to wzrost złożoności przetwarzania. Na przykład, gdy przewidywano system ekspercki ze 100 milionami reguł jako ostateczny system ekspercki, stało się oczywiste, że taki system byłby zbyt złożony i napotkałby zbyt wiele problemów obliczeniowych. Silnik wnioskowania musiałby być w stanie przetworzyć ogromną liczbę reguł, aby podjąć decyzję.

Sprawdzenie, czy reguły decyzyjne są ze sobą spójne, również stanowi wyzwanie, gdy reguł jest zbyt wiele. Zwykle taki problem prowadzi do sformułowania satisfiability (SAT). Jest to dobrze znany problem NP-zupełny problem spełnialności logicznej . Jeśli przyjmiemy tylko zmienne binarne, powiedzmy n z nich, a wtedy odpowiednia przestrzeń poszukiwań ma rozmiar 2 . W ten sposób przestrzeń wyszukiwania może rosnąć wykładniczo.

Pojawiają się również pytania o to, jak ustalić priorytety korzystania z reguł, aby działać wydajniej, lub jak rozwiązać niejasności (na przykład, jeśli w jednej regule jest zbyt wiele innych, jeśli podstruktur) i tak dalej.

Inne problemy związane są z efektami nadmiernego dopasowania i nadmiernej generalizacji przy wykorzystaniu znanych faktów i prób uogólniania na inne przypadki nieopisane wprost w bazie wiedzy. Takie problemy występują również w przypadku metod wykorzystujących podejścia do uczenia maszynowego.

Kolejnym problemem związanym z bazą wiedzy jest to, jak szybko i skutecznie aktualizować posiadaną wiedzę. Również jak dodać nową wiedzę (tj. gdzie dodać ją spośród wielu zasad) jest wyzwaniem. Nowoczesne podejścia, które opierają się na metodach uczenia maszynowego, są pod tym względem łatwiejsze.

Ze względu na powyższe wyzwania stało się jasne, że zamiast technologii opartych na regułach potrzebne są nowe podejścia do sztucznej inteligencji. Te nowe podejścia opierają się na wykorzystaniu technik uczenia maszynowego wraz z wykorzystaniem mechanizmów sprzężenia zwrotnego.

Kluczowymi wyzwaniami, jakie stawiają systemy ekspertowe w medycynie (jeśli uznać komputerowe systemy diagnostyczne za nowoczesne systemy ekspertowe), a być może w innych dziedzinach zastosowań, są zagadnienia związane z takimi aspektami jak: big data, obowiązujące przepisy, praktyka zdrowotna, różne zagadnienia algorytmiczne oraz ocena systemu.

Aplikacje

Hayes-Roth dzieli aplikacje systemów eksperckich na 10 kategorii przedstawionych w poniższej tabeli. Przykładowe aplikacje nie znajdowały się w oryginalnej tabeli Hayes-Roth, a niektóre z nich powstały znacznie później. Każda aplikacja, która nie jest opisana w przypisie, jest opisana w książce Hayes-Roth. Ponadto, chociaż te kategorie zapewniają intuicyjną strukturę opisu przestrzeni aplikacji systemów eksperckich, nie są to kategorie sztywne, aw niektórych przypadkach aplikacja może wykazywać cechy więcej niż jednej kategorii.

Kategoria Problem rozwiązany Przykłady
Interpretacja Wnioskowanie opisów sytuacji z danych czujnika Pogłoski (rozpoznawanie mowy), PROSPEKTOR
Prognoza Wnioskowanie prawdopodobnych konsekwencji danych sytuacji Ocena ryzyka przedwczesnego urodzenia
Diagnoza Wnioskowanie o awariach systemu na podstawie obserwacji KADUCEUS, MYCIN, PUFF , Mistral, Eydenet, Kaleidos
Projekt Konfiguracja obiektów pod ograniczeniami Dendral , Doradca kredytów hipotecznych , R1 (Konfiguracja DEC VAX), SID ( CPU DEC VAX 9000 )
Planowanie Projektowanie działań Planowanie misji dla autonomicznego pojazdu podwodnego
Monitorowanie Porównywanie obserwacji w celu planowania podatności REAKTOR
Debugowanie Dostarczanie przyrostowych rozwiązań złożonych problemów ŚWIĘTY, MATHLAB, MACSYMA
Naprawic Realizacja planu podania przepisanego leku Zarządzanie kryzysem toksycznych wycieków
Instrukcja Diagnozowanie, ocenianie i korygowanie zachowań uczniów SMH.PAL, Inteligentne Szkolenia Kliniczne, STEAMER
Kontrola Interpretowanie, przewidywanie, naprawa i monitorowanie zachowań systemu Kontrola procesu w czasie rzeczywistym, kontrola misji wahadłowca kosmicznego

Hearsay to wczesna próba rozwiązania problemu rozpoznawania głosu poprzez podejście systemów eksperckich. W większości ta kategoria systemów eksperckich nie była aż tak udana. Pogłoski i wszystkie systemy interpretacji są zasadniczo systemami rozpoznawania wzorców — szukającymi wzorców w zaszumionych danych. W przypadku Hearsay rozpoznawanie fonemów w strumieniu audio. Inne wczesne przykłady dotyczyły analizy danych z sonaru w celu wykrycia rosyjskich okrętów podwodnych. Tego rodzaju systemy okazały się znacznie bardziej podatne na rozwiązanie oparte na sztucznej inteligencji sieci neuronowej niż podejście oparte na regułach.

CADUCEUS i MYCIN były systemami diagnostyki medycznej. Użytkownik opisuje swoje objawy komputerowi tak, jak zrobiłby to lekarzowi, a komputer zwraca diagnozę medyczną.

Dendral był narzędziem do badania tworzenia hipotez w identyfikacji cząsteczek organicznych. Ogólny problem, który rozwiązał — zaprojektowanie rozwiązania przy określonych ograniczeniach — był jednym z najbardziej udanych obszarów wczesnych systemów eksperckich stosowanych w dziedzinach biznesowych, takich jak sprzedawcy konfigurujący komputery VAX firmy Digital Equipment Corporation (DEC) i opracowywanie wniosków o kredyt hipoteczny.

SMH.PAL to ekspercki system oceny uczniów z niepełnosprawnością sprzężoną.

Mistral to system ekspercki do monitorowania bezpieczeństwa tamy, opracowany w latach 90. przez Ismes (Włochy). Pobiera dane z automatycznego systemu monitoringu i dokonuje diagnozy stanu zapory. Jego pierwsza kopia, zainstalowana w 1992 roku na tamie Ridracoli (Włochy), nadal działa 24 godziny na dobę, 7 dni w tygodniu , 365 dni w roku. Został zainstalowany na kilku tamach we Włoszech i za granicą (np. Tama Itaipu w Brazylii), na osuwiskach pod nazwą Eydenet oraz na pomnikach pod nazwą Kaleidos. Mistral jest zarejestrowanym znakiem towarowym CESI .

Zobacz też

Bibliografia

Linki zewnętrzne