Schludki i scruffis - Neats and scruffies

Schludny i niechlujny to dwa kontrastujące podejścia do badań nad sztuczną inteligencją (AI). Rozróżnienie powstało w latach 70-tych i było przedmiotem dyskusji do połowy lat 80-tych. W latach 90. i XXI wieku badania nad sztuczną inteligencją przyjmowały niemal wyłącznie „zgrabne” podejścia i te okazały się najbardziej udane.

„Neats” wykorzystują algorytmy oparte na paradygmatach formalnych, takich jak logika , optymalizacja matematyczna czy sieci neuronowe . Sprytni badacze i analitycy wyrazili nadzieję, że jeden formalny paradygmat może zostać rozszerzony i ulepszony, aby osiągnąć ogólną inteligencję i superinteligencję .

„Scruffies” używają dowolnej liczby różnych algorytmów i metod, aby osiągnąć inteligentne zachowanie. Niechlujne programy mogą wymagać dużej ilości ręcznego kodowania lub inżynierii wiedzy . Scruffies argumentowali, że ogólną inteligencję można wdrożyć tylko poprzez rozwiązanie dużej liczby zasadniczo niepowiązanych problemów i że nie ma magicznej kuli , która pozwoliłaby programom na autonomiczny rozwój ogólnej inteligencji.

Zgrabne podejście jest podobne do fizyki, ponieważ opiera się na prostych modelach matematycznych. To niechlujne podejście przypomina bardziej biologię, w której znaczna część pracy polega na badaniu i kategoryzowaniu różnych zjawisk.

Pochodzenie w latach 70.

Rozróżnienie między schludnością a niechlujnością zostało zapoczątkowane w połowie lat 70. przez Rogera Schanka . Schank użył tych terminów, aby scharakteryzować różnicę między swoją pracą nad przetwarzaniem języka naturalnego (która reprezentowała wiedzę zdroworozsądkową w postaci dużych amorficznych sieci semantycznych ) a pracami Johna McCarthy'ego , Allena Newella , Herberta A. Simona , Roberta Kowalskiego i innych, których prace opierał się na logice i formalnych rozszerzeniach logiki. Schank określił się jako niechlujny AI. Dokonał tego rozróżnienia w językoznawstwie, zdecydowanie przeciwstawiając się poglądowi Chomsky'ego na język.

Rozróżnienie było również częściowo geograficzne i kulturowe: „niechlujne” atrybuty zostały zilustrowane przez badania nad sztuczną inteligencją w MIT pod kierunkiem Marvina Minsky'ego w latach 70. XX wieku. Laboratorium słynęło z „wolnego biegu”, a naukowcy często opracowywali programy sztucznej inteligencji, spędzając długie godziny na dostrajaniu programów, aż wykażą wymagane zachowanie. Ważnych i wpływowych „niechlujny” programy opracowane na MIT zawarte Joseph Weizenbaum „s Eliza , który zachowywał się tak, jakby mówił po angielsku, bez formalnego wiedzy w ogóle, a Terry Winograd ” s SHRDLU , które mogłyby skutecznie odpowiedzieć na pytania i prowadzenia działań w A uproszczony świat składający się z klocków i ramienia robota. SHRDLU, choć odniósł sukces, nie dało się przeskalować do użytecznego systemu przetwarzania języka naturalnego, ponieważ brakowało mu ustrukturyzowanego projektu. Utrzymanie większej wersji programu okazało się niemożliwe, tzn. był zbyt niechlujny, aby go rozszerzyć.

Inne laboratoria sztucznej inteligencji (z których największymi były Stanford , Carnegie Mellon University i University of Edinburgh ) koncentrowały się na logice i rozwiązywaniu problemów formalnych jako podstawie sztucznej inteligencji. Instytucje te wspierały prace Johna McCarthy'ego, Herberta Simona, Allena Newella, Donalda Michie , Roberta Kowalskiego i innych „zadbanych”.

Kontrast między podejściem MIT a innymi laboratoriami został również opisany jako „proceduralne/deklaratywne rozróżnienie”. Programy takie jak SHRDLU zostały zaprojektowane jako agenci wykonujący akcje. Wykonywali „procedury”. Inne programy zostały zaprojektowane jako silniki wnioskowania, które manipulowały formalnymi oświadczeniami (lub „deklaracjami”) o świecie i przekładały te manipulacje na działania.

W swoim przemówieniu do 1983 Association for Advancement of Artificial Intelligence , Nils Nilsson omówili problem, twierdząc, że „pole potrzebne zarówno”. Napisał: „Wiele wiedzy, którą chcemy, aby nasze programy posiadały, może i powinno być reprezentowane deklaratywnie w pewnego rodzaju deklaratywnym, logicznym formalizmie. Struktury ad hoc mają swoje miejsce, ale większość z nich pochodzi z samej domeny”. Alex P. Pentland i Martin Fischler z SRI International zgodzili się co do przewidywanej roli dedukcji i logicznych formalizmów w przyszłych badaniach nad sztuczną inteligencją, ale nie w takim stopniu, jaki opisał Nilsson.

Niechlujne projekty w latach 80.

To niechlujne podejście do robotyki zastosował Rodney Brooks w połowie lat 80. XX wieku. Opowiadał się za budowaniem robotów, które były, jak to ujął, szybkimi, tanimi i poza kontrolą , tytułem artykułu z 1989 roku, którego współautorem jest Anitą Flynn. W przeciwieństwie do wcześniejszych robotów, takich jak Shakey czy wózek Stanford, nie budowały reprezentacji świata poprzez analizę informacji wizualnych za pomocą algorytmów zaczerpniętych z matematycznych technik uczenia maszynowego i nie planowały swoich działań przy użyciu formalizacji opartych na logice, takich jak „ Język planisty . Po prostu reagowali na czujniki w sposób, który pomagał im przetrwać i poruszać się.

Projekt Cyc Douglasa Lenata , zainicjowany w 1984 roku, jest jednym z najwcześniejszych i najbardziej ambitnych projektów, który ma na celu uchwycenie całej ludzkiej wiedzy w formie do odczytu maszynowego, jest „zdecydowanie niechlujnym przedsięwzięciem”. Baza danych Cyc zawiera miliony faktów na temat wszystkich złożoności świata, z których każdy musi być wprowadzany pojedynczo przez inżynierów wiedzy. Każdy z tych wpisów jest doraźnym dodatkiem do inteligencji systemu. Chociaż może istnieć „sprytne” rozwiązanie problemu wiedzy zdroworozsądkowej (takiej jak algorytmy uczenia maszynowego z przetwarzaniem języka naturalnego, które mogłyby badać tekst dostępny w Internecie), żaden taki projekt nie odniósł jeszcze sukcesu.

Towarzystwo Umysłu

W 1986 roku Marvin Minsky opublikował The Society of Mind, w którym opowiadał się za poglądem na inteligencję i umysł jako współdziałającą społeczność modułów lub agentów, z których każdy zajmował się różnymi aspektami poznania, przy czym niektóre moduły specjalizowały się w bardzo konkretnych zadaniach (np. wykrywaniu krawędzi w obrazie wizualnym). cortex) i inne moduły specjalizowały się w zarządzaniu komunikacją i ustalaniem priorytetów (np. planowanie i uwaga w płatach czołowych). Minsky przedstawił ten paradygmat jako model zarówno biologicznej inteligencji człowieka, jak i plan przyszłej pracy nad sztuczną inteligencją.

Ten paradygmat jest wyraźnie „niechlujny” w tym sensie, że nie przewiduje się istnienia jednego algorytmu, który można zastosować do wszystkich zadań związanych z inteligentnym zachowaniem. Minsky napisał:

Jaka magiczna sztuczka czyni nas inteligentnymi? Sztuczka polega na tym, że nie ma żadnej sztuczki. Siła inteligencji wynika z naszej ogromnej różnorodności, a nie z jednej, doskonałej zasady.

Od 1991 roku Minsky nadal publikował artykuły oceniające względne zalety podejścia schludnego w porównaniu z niechlujnym, np. „Logiczny kontra analogowy lub symboliczny kontra koneksjonista lub schludny kontra niechlujny”.

„Zwycięstwo zadbanych” w latach 90.

W latach 90. opracowano nowe statystyczne i matematyczne podejścia do sztucznej inteligencji, wykorzystując wysoce rozwinięte formalizmy, takie jak optymalizacja matematyczna i sieci neuronowe . Ten ogólny trend w kierunku bardziej formalnych metod w AI został opisany jako „zwycięstwo schludnych” przez Petera Norviga i Stuarta Russella . Pamela McCorduck napisała, że ​​„Kiedy piszę, sztuczna inteligencja cieszy się schludną hegemonią, czyli ludźmi, którzy wierzą, że przynajmniej inteligencja maszyn najlepiej wyraża się w kategoriach logicznych, a nawet matematycznych”.

Zgrabne rozwiązania problemów, takich jak uczenie maszynowe i widzenie komputerowe, odniosły w XXI wieku duży sukces. Rozwiązania te zostały jednak w większości zastosowane do konkretnych problemów z konkretnymi rozwiązaniami, a problem sztucznej inteligencji ogólnej (AGI) pozostaje nierozwiązany.

Terminy „zgrabny” i „niechlujny” nie są często używane przez badaczy AI w XXI wieku, z pewnymi wyjątkami, takimi jak wykład Karla Fristona na temat zasady darmowej energii , w którym określa fizyków jako „schludnych”, a badaczy AI jako „ Scruffis” (i filozofowie jako „Mistycy”).

Znane przykłady

schludny

Zabrudzenia

Zobacz też

Uwagi

Cytaty

Bibliografia

  • Brockman, John (7 maja 1996). Trzecia kultura: poza rewolucją naukową . Szymona i Schustera . Źródło 2 sierpnia 2021 .
  • Crevier Daniel (1993). AI: burzliwe poszukiwanie sztucznej inteligencji . New York, NY: BasicBooks. Numer ISBN 0-465-02997-3..
  • Lehnert, Wendy C. (1 maja 1994). „5: Poznanie, komputery i bomby samochodowe: jak Yale przygotował mnie na lata 90”. W Schank Robert; Langer, Ellen (red.). Przekonania, rozumowanie i podejmowanie decyzji: psycho-logika na cześć Boba Abelsona (wyd. pierwsze). Nowy Jork, NY: Grupa Taylora i Francisa. P. 150 . Źródło 2 sierpnia 2021 .
  • Minsky, Marcin (1986). Towarzystwo Umysłu . Nowy Jork: Simon i Schuster. Numer ISBN 0-671-60740-5.
  • McCorduck, Pamela (2004), Maszyny, które myślą (2nd ed.), Natick, MA: AK Peters, Ltd., ISBN 1-56881-205-1.
  • Russell, Stuart J .; Norvig, Peter (2003), Sztuczna inteligencja: nowoczesne podejście (2nd ed.), Upper Saddle River, New Jersey: Prentice Hall, ISBN 0-13-790395-2.
  • Winograd, Terry; Flores (1986). Zrozumienie komputerów i poznania: nowa podstawa projektowania . Alex Publ Corp.

Dalsza lektura