Sztuczna inteligencja - Artificial intelligence


Z Wikipedii, wolnej encyklopedii

Sztucznej inteligencji ( AI ), czasami nazywany wywiadu , jest inteligencja świadczy maszyn , w przeciwieństwie do naturalnej inteligencji wyświetlanego przez ludzi i innych zwierząt. W informatyce badania AI jest zdefiniowany jako naukę o „ inteligentnych agentów ”: każde urządzenie, które postrzega swoje otoczenie i podejmuje działania, które zwiększą swoją szansę z powodzeniem osiągnąć swoje cele. Potocznie termin „sztuczna inteligencja” jest stosowana, gdy maszyna naśladuje funkcje „poznawcze”, które kojarzy się z innymi ludźmi ludzkich umysłów , takich jak „nauka” i „rozwiązywanie problemów”.

Zakres AI ulega wątpliwości: jak maszyny stają się coraz bardziej zdolna, zadania uważane za wymagające „inteligencję” są często usuwane z definicji, zjawisko znane jako efekt AI , co prowadzi do quip w twierdzeniu Tesler za „AI jest cokolwiek nie ma jeszcze zostało zrobione.” Dla przykładu, optyczne rozpoznawanie znaków jest często wykluczone z „sztucznej inteligencji”, które stały się rutyną technologia. Nowoczesne funkcje maszynowe ogólnie sklasyfikowane jako AI obejmują powodzeniem rozumienia ludzkiej mowy , konkurując na najwyższym poziomie w grze strategicznej systemów (takich jak szachy i idź ), samochody autonomicznie działających i inteligentny routing w sieciach multimedialnych i symulacji wojskowych .

Pożyczanie od zarządzania literaturze Kaplana i Haenlein klasyfikować sztucznej inteligencji do trzech różnych typów systemów AI analitycznego, ludzka inspirowane i humanizowanego sztucznej inteligencji. Analityczna AI ma tylko właściwości zgodne z inteligencja poznawcza generowania poznawczej reprezentacji świata nauki i korzystania na podstawie dotychczasowych doświadczeń poinformować przyszłych decyzji. Human inspirowane AI posiada elementy z poznawczego, jak i inteligencji emocjonalnej , zrozumienie, oprócz elementów poznawczych, również ludzkie emocje rozważają ich w podejmowaniu decyzji . Humanizowane AI przedstawiono charakterystykę wszystkich typów kompetencji (tj poznawczy, emocjonalny i społeczny wywiadu ), mogły być świadomym i świadomym w interakcjach z innymi.

Sztuczna inteligencja powstała jako dyscypliny naukowej w 1956 roku, aw latach od doświadczył kilka fale optymizmu, a następnie rozczarowania i utraty funduszy (znanego jako „ AI zimie ”), a następnie nowe rozwiązania, sukcesu i ponownego finansowania , Przez większość swojej historii, badania AI została podzielona na podpól, które często nie potrafią się ze sobą komunikować. Te sub-pól są oparte na względach technicznych, takich jak konkretnych celów (np „ robotyki ” lub „uczenia maszynowego”) stosowania poszczególnych narzędzi ( „logiki” czy sztucznych sieci neuronowych ) lub głębokich różnic filozoficznych. Podpola zostały również oparte na czynnikach społecznych (poszczególnych instytucji lub pracy poszczególnych naukowców).

Tradycyjne problemy (lub cele) badań AI to rozumowanie , reprezentacji wiedzy , planowania , uczenia się , przetwarzania języka naturalnego , percepcję oraz zdolność do poruszania się i manipulowania przedmiotami. Ogólne inteligencja jest jednym z długoterminowych celów sił pola. Rozwiązania obejmują metody statystyczne , inteligencji obliczeniowej i tradycyjne symboliczne AI . Wiele narzędzi są wykorzystywane w AI, w tym wersji poszukiwania i optymalizacji matematycznej , sztucznych sieci neuronowych i metod opartych na statystykach, prawdopodobieństwa i ekonomii . Pole AI czerpie informatyki , inżynierii informacyjnej , matematyki , psychologii , lingwistyki , filozofii i wielu innych.

Pole zostało założone na twierdzeniu, że ludzka inteligencja „może być tak precyzyjnie opisane, że maszyna może być to zasymulować”. To podnosi argumenty filozoficzne o naturze umysłu i etyki tworzenia sztucznych istot obdarzonych inteligencją człowieka-podobne, które są kwestie, które zostały zbadane przez mit , fikcja i filozofii od starożytności . Niektórzy ludzie również rozważyć AI być zagrożeniem dla ludzkości , jeśli postępuje słabnie. Inni wierzą, że AI, w przeciwieństwie do poprzednich rewolucji technologicznych, stworzy ryzyko masowego bezrobocia .

W dwudziestym pierwszym wieku, technik AI doświadczyli odrodzenie następujące jednoczesnych postępów w mocy komputera , dużymi ilościami danych i teoretycznego zrozumienia; i technik AI stały się istotną częścią branży technologicznej , pomagając rozwiązać wiele trudnych problemów w informatyce, inżynierii oprogramowania i badań operacyjnych .

Zawartość

Historia

Talos , starożytne mityczny automat ze sztuczną inteligencją

Przemyślana zdolny sztuczne istoty pojawił się jako urządzeń opowiadania w starożytności i były powszechne w fikcji, jak w Mary Shelley „s Frankenstein lub Karel Čapek ” s RUR (Rossum Universal Robots) . Te postacie i ich losy podniesione wiele z tych samych zagadnień omawianych obecnie w etyce sztucznej inteligencji .

Badanie mechanicznych lub „formalnej” rozumowania zaczęła z filozofów i matematyków w starożytności. Badanie logiki matematycznej doprowadziły bezpośrednio do Alana Turinga „s teorii obliczeń , który sugerował, że maszyna, przez tasowanie symboli tak proste jak«0»i«1»może symulować dowolny wyobrażalne akt dedukcji matematycznej. To spostrzeżenie, że komputery cyfrowe może symulować dowolny proces formalnego uzasadnienia, jest znany jako Hipoteza Churcha-Turinga . Wraz z jednoczesnych odkrycia w neurobiologii , teorii informacji i cybernetyki , co doprowadziło naukowców do rozważenia możliwości budowania elektroniczny mózg. Turing zaproponował, że „jeśli człowiek nie mógł odróżnić odpowiedzi z maszyny i człowieka, urządzenie można uznać za«inteligentne». Pierwszym utworem, który jest obecnie powszechnie uznawane za AI była McCullouch and Pitts '1943 formalna konstrukcja Turing-complete „sztuczne neurony”.

Pole badań AI urodził się w warsztacie w Dartmouth College w 1956. Uczestnicy Allen Newell ( CMU ), Herbert Simon ( CMU ), John McCarthy ( MIT ), Marvin Minsky ( MIT ) i Arthur Samuel ( IBM ) stali się założycielami i przywódcy badań AI. Oni i ich studenci produkowane programy że prasa opisane jako „zadziwiający”: komputery uczyli warcaby strategii (i 1959 były podobno gra lepiej niż przeciętny człowiek), rozwiązywanie problemów haseł w algebrze, dowodząc twierdzeń logicznych ((C 1954). Logika teoretyk , pierwszy bieg c. 1956) i mówienia po angielsku. W połowie 1960 roku, badania w Stanach Zjednoczonych został mocno finansowane przez Departament Obrony i laboratoria został ustalony na całym świecie. Założyciele AI byli optymistycznie patrzy w przyszłość: Herbert Simon przewidział, „maszyny będą w stanie, w ciągu dwudziestu lat, od jakiejkolwiek pracy człowiek może zrobić”. Marvin Minsky zgodził, pisanie, „w ciągu jednego pokolenia ... problem tworząc«sztuczną inteligencję»będzie zasadniczo rozwiązany”.

Nie udało im się rozpoznać trudności niektórych pozostałych zadań. Postęp zwolnił w 1974 roku, w odpowiedzi na krytykę Sir James Lighthill i stałego nacisku ze strony Kongresu USA na finansowanie projektów bardziej produktywnych, zarówno USA, jak i rządy brytyjskie odciąć badania rozpoznawczej w AI. Następnych kilka lat później nazwać „ AI zima ”, to okres, kiedy uzyskaniu finansowania dla projektów AI była trudna.

W 1980 roku, badania AI została reaktywowana przez komercyjnego sukcesu systemów eksperckich , forma programu AI że symulowane wiedzę i umiejętności analityczne ludzkich ekspertów. Do roku 1985, rynek AI osiągnęła ponad miliard dolarów. Jednocześnie, Japonia piąty komputer generacja projekt inspirowany USA i rządy brytyjskie przywrócić finansowanie badań naukowych. Jednakże, począwszy od upadku Lisp Maszyn rynku w 1987 roku, AI ponownie spadła w niełaskę, a po drugie, lasting rozworu zaczęło.

Pod koniec 1990 i na początku 21 wieku, AI zaczął być używany dla logistyki, eksploracji danych , diagnostyki medycznej i innych dziedzinach. Sukces był spowodowany wzrostem mocy obliczeniowej (patrz Prawo Moore'a ), większy nacisk na rozwiązywanie konkretnych problemów, nowe więzi między AI i innych dziedzin (takich jak statystyki , ekonomii i matematyki ), a zobowiązania przez naukowców do metod matematycznych i naukowych standardów. Deep Blue stał się pierwszym systemem komputerowym szachowy pokonać panujący mistrz świata w szachach Garri Kasparow , w dniu 11 maja 1997 r.

W 2011 r Jeopardy! teleturniej mecz wystawa, IBM jest automat zgłoszeniowy pytanie , Watson pokonał dwóch największych Jeopardy! Mistrzowie, Brad Rutter i Ken Jennings , przez znaczny margines. Szybsze komputery , algorytmiczne poprawę, a dostęp do dużych ilości danych umożliwiły postęp w uczeniu maszynowym i percepcji; Dane głodnych głębokie nauki metody zaczęły dominować standardy dokładności około 2012 . Kinect , który zapewnia interfejs ciało tempie 3D dla konsoli Xbox 360 i Xbox One , wykorzystuje algorytmy, które wyłoniły się z długich badaniach AI jak zrobić inteligentnych asystentów osobistych w smartfonach . W marcu 2016 r AlphaGo wygrał 4 z 5 gier idź w meczu z Go mistrz Lee SEDOL , stając się pierwszym systemem komputerowym Go-playing pokonać profesjonalnego odtwarzacza obejść się bez utrudnień . W 2017 Przyszłości Go szczytu , AlphaGo wygrał mecz trzy gry z Ke Jie , który w tym czasie nieprzerwanie pełnił Świat nr 1 rankingu na dwa lata. To oznaczało zakończenie kamień milowy w rozwoju sztucznej inteligencji, jak Go jest bardzo rozbudowana gra, bardziej niż Chess.

Według Bloomberga Jack Clark, 2015 był przełomowym roku na sztucznej inteligencji, z liczbą projektów oprogramowania, które używają AI w Google wzrosła od „sporadycznego użytkowania” w roku 2012 do ponad 2700 projektów. Clark przedstawia również dane wskazujące, że faktyczny poziom błędu w zadaniach przetwarzania obrazów spadły znacząco od roku 2011. On przypisuje to do wzrostu niedrogich sieciach neuronowych , ze względu na wzrost cloud computing infrastrukturę oraz wzrostem narzędzi badawczych i zbiorów danych. Inne przykłady obejmują rozwój cytowany przez Microsoft systemu Skype, który umożliwia automatyczne tłumaczenie z jednego języka na inny i system Facebooka, które mogą opisywać obrazy dla osób niewidomych. W badaniu 2017, jedna z pięciu firm zgłaszane mieli „włączone AI w niektórych ofert lub procesów”. Około 2016 roku, Chiny znacznie przyspieszył swoje fundusze rządowe; ze względu na jej duży dostarczanie danych i ich szybki wzrost wyników badań, niektórzy obserwatorzy uważają, może to być na dobrej drodze do stania się „AI supermocarstwem”.

Podstawy

Typowym AI postrzega swoje otoczenie i podejmuje działania, które zwiększą swoją szansę z powodzeniem osiągnąć swoje cele. Przeznaczone AI jest funkcja celu może być proste ( „1 jeśli AI wygrywa grę Go , inaczej 0”) lub złożone ( „Czy działania matematycznego podobna do działań, które dostałeś nagrody w przeszłości”). Cele mogą być wyraźnie określone, albo mogą być wywołane. Jeżeli AI jest zaprogramowany do „ uczenia zbrojenia ”, cele mogą być pośrednio wywołane przez nagradzanie pewne rodzaje zachowań i karanie innych. Alternatywnie, system ewolucyjny może indukować cele za pomocą „ funkcję zgodności ” do mutacji i korzystnie replikacji wysokie punktacji systemu sztucznej inteligencji; ten jest podobny do tego, jak zwierzęta ewoluowały do natury pragnienie pewnych celów, takich jak znalezienie pożywienia, albo jak psy mogą być hodowane przez sztuczną selekcję posiadać pożądane cechy. Niektóre systemy, takie jak AI-najbliższy sąsiad zamiast rozumu przez analogię; Systemy te nie są ogólnie biorąc pod uwagę cele, poza stopnia, że cele są w jakiś sposób niejawny w swoich danych treningowych. Takie systemy mogą nadal być porównywana jeśli system nie jest celem oprawione jako system, którego „celem” jest z powodzeniem osiągnąć swój wąski zadanie klasyfikacji.

AI często obraca się wokół stosowania algorytmów . Algorytm to zbiór jednoznacznych instrukcji, że komputer może wykonywać mechaniczne. Złożony algorytm jest często zbudowany na innych, prostszych, algorytmów. Prostym przykładem algorytmu jest następujący przepis na optymalną grę w Kółko i krzyżyk :

  1. Jeśli ktoś ma „zagrożenie” (czyli dwa w jednym rzędzie), wziąć pozostałą kwadrat. Inaczej,
  2. Jeżeli A Move „widły”, aby utworzyć dwa zagrożenia naraz grać ten ruch. Inaczej,
  3. wziąć środkowy kwadrat, jeśli jest wolny. Inaczej,
  4. jeśli przeciwnik grał w kącie, wziąć przeciwległy narożnik. Inaczej,
  5. brać pusty róg jeśli taka istnieje. Inaczej,
  6. podejmować żadnych pusty plac.

Wiele algorytmów AI są zdolne do uczenia się od danych; mogą poprawić się poprzez uczenie się nowych heurystyki (strategie, lub „reguły kciuka”, które sprawdziły się w przeszłości), lub mogą sami napisać inne algorytmy. Niektóre z „uczących się” opisanych poniżej, w tym sieci Bayesa, drzew decyzyjnych i najbliższego sąsiada, może teoretycznie, jeśli dana nieskończone danych, czas i pamięć, uczą się zbliżyć żadnej funkcji , w tym co kombinacja funkcji matematycznych, które najlepiej opisują cały świat. Te uczący może więc, teoretycznie, czerpać wszelką możliwą wiedzę, rozważając wszelkie możliwe hipotezy i dopasowanie go przed danymi. W praktyce jest to prawie nie możliwe, aby rozważyć każdą możliwość, ze względu na zjawisko „ kombinatorycznej eksplozji ”, gdzie ilość czasu potrzebnego do rozwiązania problemu rośnie wykładniczo. Wiele badań AI polega na zastanawianie się, jak rozpoznać i uniknąć biorąc pod uwagę szerokie połacie możliwości, które są mało prawdopodobne, aby być owocne. Na przykład, podczas oglądania mapy i szukając najkrótszej trasy jazdy z Denver do Nowego Jorku na Wschodzie, można w większości przypadków pominąć patrząc na każdej drodze przez San Francisco i innych obszarach daleko na zachodzie; Zatem AI dzierżąc algorytm pathfinding jak A * może uniknąć eksplozji kombinatorycznej, że jeśli miałby każdy możliwy trasa musiała zostać uznane ociężale z kolei.

Podejście najwcześniej (i najłatwiej zrozumieć) do AI był symbolizm (takie jak logiki formalnej): „Jeśli inaczej zdrowy dorosły ma gorączkę, to mogą one mieć grypę ”. Drugi, bardziej ogólnie, podejście jest Bayesa wnioskowanie : „Jeśli obecny pacjent ma gorączkę, wyregulować prawdopodobieństwo, że mają grypy w taki a taki sposób”. Trzecim głównym podejście, bardzo popularny w rutynowych biznesowych aplikacji AI są analogizers takie jak SVM i najbliższego sąsiada : „Po przeanalizowaniu zapisów znanych ostatnich pacjentów, których temperatura, objawy, wiek i inne czynniki, przede wszystkim dopasować aktualnego pacjenta, X% z tych pacjentów okazało się mieć grypę”. Czwarte podejście jest trudniej intuicyjnie zrozumieć, ale jest inspirowana, jak działa sprzęt mózgu: the sztuczna sieć neuronowa podejście wykorzystuje sztuczne „ neurony ”, które mogą uczyć się poprzez porównywanie się do żądanej mocy i zmieniając mocnych połączeń między wewnętrznych neuronów do „wzmocnienia” połączeń, które wydawały się być przydatna. Te cztery główne podejścia można pokrywają się ze sobą oraz z systemów ewolucyjnych; na przykład, sieci neuronowe mogą nauczyć się wnioskować, uogólniać, oraz do analogii. Niektóre systemy jawnie lub niejawnie używać wielu z tych podejść, obok wielu innych algorytmów sztucznej inteligencji i non-AI; najlepszym rozwiązaniem jest często różni się w zależności od problemu.

Niebieska linia może być przykładem przeuczenia funkcję liniowego z powodu szumu losowego.

Algorytmy uczenia się działać na podstawie tego, że strategie, algorytmy i wnioski, które sprawdziły się w przeszłości prawdopodobnie nadal działa dobrze w przyszłości. Takie wnioski mogą być oczywiste, takie jak „skoro wzeszło słońce każdego ranka przez ostatnie 10000 dni, to prawdopodobnie będzie rosnąć jutro rano, jak dobrze”. Mogą być dopracowany, takich jak „X% rodzin posiada geograficznie odrębne gatunki z wariantów kolorystycznych, więc istnieje szansa, że Y% nieodkrytych czarne łabędzie istnieje”. Uczący się również pracować na podstawie „ brzytwa Ockhama ”: Najprostsza teoria, która wyjaśnia danych jest prawdopodobny. Dlatego, aby osiągnąć sukces, uczący się musi być zaprojektowane w taki sposób, że preferuje prostsze teorie złożonych teorii, za wyjątkiem przypadków, gdzie złożona teoria sprawdzonych znacznie lepiej. Rozstrzygania w zły, nadmiernie złożonej teorii gerrymandered aby zmieścić wszystkie dotychczasowe dane szkolenie jest znany jako przeuczenia . Wiele systemów próbować zmniejszyć nadmiernego dopasowywania przez nagradzanie teorię, zgodnie z tym, jak dobrze pasuje do danych, ale karanie teorię, zgodnie z teorią, jak skomplikowane jest. Poza klasycznym nadmiernego dopasowania, uczniowie mogą również zawieść przez „uczenie się złą lekcję”. Przykładem jest to, że zabawka klasyfikator obraz przeszkoleni tylko na zdjęciach brązowych koni i czarne koty mogą stwierdzić, że wszystkie brązowe plamy mogą być konie. A Przykład rzeczywistym świecie jest to, że w przeciwieństwie do ludzi, obecne klasyfikatorów obraz nie określają relacje przestrzenne między składnikami obrazu; Zamiast tego, uczą abstrakcyjnych wzorców pikseli że ludzie są nieświadomi, ale liniowo skorelowane ze zdjęciami niektórych rodzajów obiektów rzeczywistych. Słabo nałożenie takiego wzoru na uzasadniony wynikami obrazu w obrazie „kontradyktoryjności” że misclassifies systemowych.

Self-jazdy samochodowy system może wykorzystać sieć neuronową, aby określić, które części obrazu zdają się pokrywać wcześniejsze obrazy szkoleniowych pieszych, a następnie modelować te obszary jako powolne, ale nieco nieprzewidywalny prostokątnych pryzmatów, które należy unikać.

W porównaniu z ludźmi, istniejące AI brakuje kilku cech ludzkiego „ zdroworozsądkowego rozumowania ”; przede wszystkim, ludzie mają silne mechanizmy wnioskowania o „ naiwnych fizyki ”, takich jak przestrzeń, czas i interakcji fizycznych. Dzięki temu nawet małe dzieci łatwo wnioskować, jak „Jeśli Ja toczę to pióro off tabeli, spadnie na podłogę”. Ludzie mają również potężny mechanizm „ psychologii ludowej ”, która pomaga im w interpretacji zdań języka naturalnego, takich jak „The Radni miasta odmówił demonstrantów pozwolenie bo bronił przemocy”. (A generic AI ma trudności wnioskowanie czy radni lub demonstranci są te rzekome być propagowanie przemocy). Ten brak wiedzy „wspólnego” oznacza, że AI często sprawia, że różne błędy niż ludzie czynią, w sposób, który może wydają się niezrozumiałe. Na przykład, istniejące samodzielne jazdy samochody nie mogą rozumieć o lokalizacji ani intencji pieszych w dokładny sposób, że ludzie robią, a zamiast tego należy używać non-ludzkich sposobów rozumowania, aby uniknąć wypadków.

problemy

Ogólnym celem badania sztucznej inteligencji jest stworzenie technologii, która umożliwia komputerom i maszyn do funkcji w inteligentny sposób. Ogólny problem symulacji (lub tworzenie) inteligencji zostały podzielone na mniejsze problemy. Składają się one z określonych cech lub funkcji, które naukowcy oczekują inteligentny system do wyświetlania. Cechy opisane poniżej otrzymały najwięcej uwagi.

Rozumowanie, rozwiązywanie problemów

Wczesne naukowcy opracowali algorytmy, które imitowały rozumowanie krok po kroku, że ludzie używają podczas rozwiązywania zagadek logicznych lub dokonywać potrąceń. Pod koniec lat 1980 i 1990, badania AI rozwinęła metody radzenia sobie z niepewnym lub niekompletnych informacji, wykorzystując pojęcia z prawdopodobieństwem i ekonomii .

Algorytmy te okazały się niewystarczające do rozwiązywania złożonych problemów, rozumowania, ponieważ doświadczył „kombinatorycznej eksplozji”: stały się one wolniej wykładniczo jak problemy stawały się coraz większe. W rzeczywistości, nawet ludzie rzadko korzystają z odliczenia krok po kroku, że na początku badania AI był w stanie modelować. One rozwiązać większość ich problemów za pomocą szybkich i intuicyjnych sądów.

Reprezentacja wiedzy

Ontologia reprezentuje wiedzę jako zbiór pojęć w domenie i relacje między tymi pojęciami.

Reprezentacja wiedzy i inżynierii wiedzy jest centralny do klasycznego badania AI. Niektóre „systemy eksperckie” próba zebrać wyraźnej wiedzy posiadanej przez specjalistów w jakiejś wąskiej dziedzinie. Ponadto, niektóre projekty próbują zebrać „zdroworozsądkowej wiedzy” znanego dla przeciętnej osoby do bazy danych zawierającej szeroką wiedzę na temat świata. Wśród rzeczy, kompleksowa baza wiedzy zdroworozsądkowe będzie zawierać to: obiekty, właściwości, kategorie i relacje między obiektami; sytuacje, wydarzenia, stany i czasie; przyczyny i skutki; wiedza o wiedzy (co wiemy, co inni ludzie wiedzą); i wiele innych, mniej dobrze rozpoznane domen. Przedstawienie „co istnieje” jest ontologia : zbiór obiektów, relacji, pojęć i właściwości formalnie opisany tak, że agent oprogramowania można je interpretować. W semantyka z nich są ujęte jako opis logicznych pojęć, ról i osób fizycznych, jak i typowo realizowane klas, właściwości i osób w sieci ontologii języka . Najogólniejszym ontologie są nazywane górne ontologie , które próbują zapewnić podstawę dla wszystkich innych wiedzy o działających w charakterze mediatorów pomiędzy ontologii domen , które obejmują specyficzną wiedzę na temat danej dziedziny wiedzy (pola zainteresowania lub obszar zainteresowania). Takie formalne reprezentacje wiedzy mogą być stosowane w indeksowaniu zawartości opartej i wyszukiwania, interpretacji sceny, wsparcie decyzji klinicznych, odkrywania wiedzy (górnictwo „ciekawe” i pewne wnioski z dużych baz danych), oraz innych dziedzinach.

Pośród najtrudniejszych problemów w reprezentacji wiedzy są:

Rozumowanie domyślne i kwalifikacje problemem
Wiele z tych rzeczy ludzie wiedzą przybrać formę „założeń roboczych”. Na przykład, jeśli ptak pojawia się w rozmowie, ludzie zazwyczaj obraz zwierzęcia, które jest wielkości pięści, śpiewa i muchy. Żadna z tych rzeczy nie jest prawdą o wszystkich ptaków. John McCarthy zidentyfikować ten problem w 1969 roku jako kwalifikacyjnego problemu: dla każdego zdroworozsądkowego zasadą, że naukowcy AI starannością reprezentować, nie wydają się być ogromna liczba wyjątków. Prawie nic nie jest po prostu prawdziwe lub fałszywe w sposób abstrakcyjny logika wymaga. Badania AI zbadał szereg rozwiązań tego problemu.
Szerokość potocznej wiedzy
Liczba faktów atomowych, że przeciętny człowiek wie, jest bardzo duża. Projekty badawcze, które próbują zbudować kompletną bazę wiedzy potocznej wiedzy (np Cyc ) wymaga ogromnych ilości żmudnego ontologicznego inżynierii -Oni muszą być zbudowane, ręcznie, jednej skomplikowanej koncepcji na raz.
Subsymbolic forma jakiejś potocznej wiedzy
Wiele z tego, co ludzie wiedzą nie jest reprezentowany jako „fakty” i „oświadczenia”, że mogą one wyrażają werbalnie. Na przykład, mistrz szachowy uniknie szczególną pozycję w szachy, ponieważ „czuje się zbyt narażone” i krytykiem sztuki może wziąć jedno spojrzenie na posągu i uświadomić sobie, że jest fałszywy. Są nieświadome i sub-symboliczny intuicji i tendencje w ludzkim mózgu. Wiedza jak to informuje, wspiera i zapewnia kontekst symboliczny, świadomej wiedzy. Podobnie jak w przypadku problemu związanego z sub-symboliczny rozumowania, mamy nadzieję, że położony AI , inteligencja obliczeniowa lub AI statystyczny zapewni sposoby do reprezentowania tego rodzaju wiedzy.

Planowanie

Hierarchiczny system sterowania jest formą systemu sterowania , w którym zestaw urządzeń i oprogramowania zarządzającego jest umieszczony w hierarchii.

Inteligentnych agentów musi być w stanie wyznaczać cele i je osiągnąć. Muszą sposób wizualizować przyszłościowych reprezentację stanu świata i umieć przewidywać, jak ich działania będą go-i zmienić móc dokonywać wyborów, które maksymalizują użyteczność (lub „wartości”) z dostępnych opcji ,

W klasycznych problemów planowania, agent może zakładać, że jest to jedyny system, działający na całym świecie, dzięki czemu agent być pewne konsekwencje swoich działań. Jednakże, jeżeli agent nie jest jedynym aktorem, to wymaga, że ​​agent może rozumować w warunkach niepewności. Wymaga to czynnik, który może ocenić nie tylko jego środowiska i tworzenie prognoz, ale także ocenić swoje przewidywania i dostosowywania na podstawie jego oceny.

Planowanie wielo-agent używa współpracy i konkurencji z wielu środków, aby osiągnąć dany cel. Wschodzących zachowanie takich jak ten jest używany przez algorytmów ewolucyjnych i inteligencji roju .

Uczenie się

uczenie maszynowe, zasadnicza koncepcja badań AI od początku danego pola, jest badanie algorytmów komputerowych, które poprawiają automatycznie poprzez doświadczenie.

Uczenie Nienadzorowane jest możliwość, aby znaleźć wzorce w strumieniu danych wejściowych, bez konieczności człowieka do pierwszej etykiety wejść. Uczenia nadzorowanego obejmuje zarówno klasyfikacji i cyfr regresji , co wymaga człowieka do oznaczania danych wejściowych w pierwszej kolejności. Klasyfikacja jest stosowana do określenia jakiej kategorii należy w coś, po obejrzeniu kilka przykładów rzeczy od kilku kategoriach. Regresja jest próba wytworzenia funkcję opisującą zależność pomiędzy wejściami i wyjściami i mówi, jak wyjść powinien zmienić jako zmiana wejść. Oba klasyfikatorów i uczniowie regresji może być postrzegana jako „approximators funkcja” próbuje nauczyć nieznanej funkcji (ewentualnie niejawny); na przykład, klasyfikator spamu może być postrzegana jako nauka funkcję, która mapuje z tekstu wiadomości e-mail do jednej z dwóch kategorii: „spam” lub „nie spam”. Obliczeniowa teoria uczenia się można ocenić przez uczniów złożoności obliczeniowej , przez próbki złożoności (jak dużo danych jest wymagane), lub za pomocą innych pojęć optymalizacji . W zbrojenia uczenia agenta jest nagradzane za dobre odpowiedzi i karani za złych. Agent wykorzystuje tę sekwencję nagród i kar w celu utworzenia strategii dla działających w przestrzeni problemu.

Przetwarzanie języka naturalnego

Drzewo parse reprezentuje składniową strukturę zdania Według niektórych formalnej gramatyki .

Przetwarzania języka naturalnego (NLP) daje maszynach umiejętność czytania i rozumienia języka ludzkiego. Wystarczająco mocny system przetwarzania języka naturalnego pozwoliłoby interfejsów języka naturalnego oraz nabycie wiedzy bezpośrednio ze źródeł ludzkich napisane, takich jak teksty Newswire. Niektóre proste aplikacje przetwarzania języka naturalnego obejmują wyszukiwania informacji , górnictwo tekst , zapytania odbieranie i tłumaczenia maszynowego . Wiele obecnych metod użyć słów częstotliwości współwystępowania skonstruować składniowe reprezentacje tekstu. „Słowo plamienie” Strategie wyszukiwania dla są popularne i skalowalne ale głupi; kwerendy wyszukiwania dla „pies” może dopasować tylko dokumenty z dosłownym słowa „pies” i miss dokument ze słowem „pudel”. Strategie „powinowactwa” leksykalna używać występowaniu takich słów jak „przypadek”, aby ocenić nastroje dokumentu. Nowoczesne metody statystyczne NLP można połączyć wszystkie te strategie, jak również innych, a często osiągnąć zadowalającą dokładność na poziomie strony lub ust, ale nadal brakuje zrozumienia semantycznej wymaganego do sklasyfikowania oddzielnych zdań dobrze. Oprócz zwykłych trudności z kodowaniem semantycznej wiedzy zdroworozsądkowej, istniejące semantycznej NLP Wagi czasami zbyt słabo, aby być rentowne w zastosowaniach biznesowych. Poza semantycznej NLP, ostatecznym celem „narracji” NLP jest ucieleśnieniem pełnego zrozumienia zdroworozsądkowego rozumowania.

Postrzeganie

Funkcja detekcji (na zdjęciu: wykrywanie krawędzi ) pomaga AI komponować abstrakcyjnych struktur informacyjnych z surowych danych.

Percepcja maszyny jest możliwość korzystania z czujnikami (takich jak kamery (widmo widzialne lub podczerwone), mikrofony, radiową, i aktywnego lidar , sonaru radaru i czujników dotykowych ) wywnioskować aspekty świata. Wnioski obejmują rozpoznawanie mowy , rozpoznawanie twarzy i rozpoznawania obiektów . Wizja komputerowa jest umiejętność analizowania wejście wideo. Tego rodzaju wprowadzane jest zwykle niejednoznaczne; olbrzym, pięćdziesiąt metrów wysokości pieszych daleko może produkować dokładnie te same piksele jako pobliskiej normalnej wielkości pieszego, wymagające AI ocenić względne prawdopodobieństwo i zasadności różnych interpretacji, na przykład za pomocą swojego „modelu obiektowego”, aby ocenić że piesi pięćdziesiąt-metrowe nie istnieją.

Ruch i manipulacja

AI jest często używane w robotyce . Zaawansowane zrobotyzowane ramiona i inne roboty przemysłowe , powszechnie stosowane w nowoczesnych fabrykach, mogą nauczyć się z doświadczenia, jak poruszać się sprawnie pomimo obecności tarcia i poślizgu przekładni. Nowoczesny Robot mobilny, kiedy otrzymał małą, statyczny i widoczną środowiska, można łatwo określić jego lokalizację i map jego otoczenia; Jednak środowiskach dynamicznych, takich jak (w endoskopii ) wnętrza organizmu oddechowego pacjenta, stanowią większe wyzwanie. Planowanie ruchu jest procesem uszkodzi zadanie ruch na „prymitywów”, takich jak indywidualne wspólnych ruchów. Taki ruch wymaga często ruch jest spełnione, proces, w którym ruch wymaga utrzymania fizycznego kontaktu z obiektem. Paradoks Moraveč za uogólnienie, że niskiego poziomu umiejętności czuciowo że ludzie przyjmują za pewnik to, counterintuitively, trudne do zaprogramowania w robota; Paradoksem jest nazwany Hans Moravec , który stwierdził w 1988 roku, że „jest to stosunkowo łatwe do wykonania komputery wykazują skuteczność na poziomie dorosłych na testach inteligencji lub grając w warcaby i trudne lub wręcz niemożliwe, aby dać im umiejętności jedno-latek, kiedy go przychodzi do percepcji i mobilności”. Jest to związane z faktem, że w przeciwieństwie do kontrolerów, fizyczne zręczność został bezpośrednim celem doboru naturalnego przez miliony lat.

inteligencja społeczna

Kismet , robot z elementarne umiejętności społecznych

Paradoks Moraveč może zostać przedłużony do wielu form inteligencji społecznej. Ukazuje koordynacja multi-agent pojazdów autonomicznych pozostaje trudnym problemem. Afektywną informatyki jest interdyscyplinarnego parasola, który zawiera układy, które rozpoznają, interpretować, procesu lub symulowania człowieka dotyka . Umiarkowane sukcesy związane z informatyka afektywna zawierać tekstowy analiza uczuć , a ostatnio multimodalne wpływać na analizę (patrz multimodalnego analiza uczuć ), w którym AI klasyfikuje wpływa wyświetlane przez filmowana tematu.

Na dłuższą metę, umiejętności społecznych i zrozumienie ludzkich emocji i teorii gier byłby cenny czynnik społeczny. Będąc w stanie przewidzieć działania innych poprzez zrozumienie ich motywy i stany emocjonalne pozwoliłoby agentem aby podejmować lepsze decyzje. Niektóre systemy komputerowe naśladować ludzkie emocje i wyrażenia, aby wyglądały bardziej wrażliwy na emocjonalne dynamiki interakcji człowieka lub w inny sposób ułatwienie interakcji człowiek-komputer . Podobnie, niektórzy asystenci wirtualne są zaprogramowane, aby mówić conversationally lub nawet banter humorem; Prowadzi to, aby dać użytkownikom naiwny nierealne koncepcje jak inteligentne istniejące środki komputerowe rzeczywistości.

Ogólna inteligencja

Historycznie rzecz biorąc, projekty, takie jak bazy wiedzy Cyc (1984-) oraz masywnego japońskiej piąta generacja Computer Systems Initiative (1982-1992) usiłował pokryć wszerz ludzkiego poznania. Te wczesne projekty udało się uciec ograniczeń ilościowych non-symbolicznych modelach logicznych i, z perspektywy czasu, znacznie lekceważyć trudności cross-domain AI. Obecnie zdecydowana większość obecnych badaczy AI zamiast pracować na tractable „AI” wąskich zastosowań (takich jak diagnozy medycznej lub nawigacji samochodowej). Wielu naukowców przewidują, że takie „wąskie AI” praca w różnych pojedynczych domen zostaną ostatecznie włączone do maszyny z silna sztuczna inteligencja (AGI), łącząc najbardziej wąskich umiejętności wymienionych w tym artykule i w pewnym momencie nawet przekraczające zdolność ludzkiego w większości lub wszystkich tych dziedzinach. Wiele zaliczki mają znaczenie ogólne, cross-domeny. Jeden głośnych przykładem jest DeepMind w 2010s opracowała „uogólniony sztucznej inteligencji”, który mógłby nauczyć wiele różnorodnych Atari gier na własną rękę, a później rozwinęła odmianę systemu, który udaje na sekwencyjnej nauki . Oprócz nauki transferowego , hipotetyczne przełomy AGI mogą obejmować rozwój odblaskowymi architekturach, które mogą angażować się w metareasoning decyzji teoretyczne i zastanawianie się, jak „slurp up” kompleksową bazę wiedzy z całego niestrukturalnych sieci . Niektórzy twierdzą, że jakiś (aktualnie nieodkrytych) koncepcyjnie proste, ale matematycznie trudnej, „Master” Algorytm może doprowadzić do AGI. Wreszcie, kilka „wschodzących” podejścia patrzeć symulację ludzką inteligencję niezwykle uważnie, i wierzę, że antropomorficzne cechy jak sztuczny mózg lub symulowanego rozwoju dziecka może kiedyś osiągnie punkt krytyczny, gdzie ogólna inteligencja wyłania.

Wiele problemów w niniejszym artykule mogą również wymagać ogólnej inteligencji, jeśli maszyny są do rozwiązywania problemów, a także ludzie. Na przykład, nawet konkretne zadania proste, jak tłumaczenia maszynowego , wymagają, aby maszyna do odczytu i zapisu w obu językach ( NLP ), wykonaj następujące argumenty autora ( powód ), wiedzieć, co jest mowa o ( wiedzy ) i wiernie odtworzyć oryginalny autora intencją ( inteligencja społeczna ). Problem jak tłumaczenia maszynowego jest uważany za „ AI-complete ”, ponieważ wszystkie te problemy muszą być rozwiązywane równolegle w celu osiągnięcia wydajności maszyny ludzkiego poziomu.

Awanse

Nie ma siedzibę jednoczącą teorię lub paradygmatu , który prowadzi badania nad sztuczną inteligencją. Naukowcy zgadzają się co do wielu kwestii. Kilka pytań większości długich stałych, które pozostały bez odpowiedzi są następujące: należy sztuczna inteligencja symulować naturalne inteligencji studiując psychologię lub neurobiologii ? Albo jest ludzka biologia jako nieistotne dla badań AI jak biologia ptak jest inżynierii lotniczej ? Czy inteligentne zachowanie być opisane za pomocą prostych, eleganckich zasad (takich jak logika czy optymalizacji )? Czy też koniecznie wymagają rozwiązywania wielu zupełnie niepowiązanych problemów?

Cybernetyka i symulacja mózgu

W 1940 i 1950, liczba naukowców badał związek między neurobiologii , teorii informacji i cybernetyki . Niektóre z nich budowane maszyny, które wykorzystywane sieci elektronicznych wykazują szczątkową inteligencję, takich jak W. Grey Walter „s żółwi oraz Johns Hopkins Bestii . Wiele z tych naukowców zebranych na posiedzeniach Towarzystwa celowościowej na Uniwersytecie Princeton i Współczynniku klubu w Anglii. Przez 1960, podejście to zostało w dużej mierze opuszczony, chociaż elementy to będzie reaktywowana w 1980 roku.

Symboliczny

Gdy dostęp do komputerów cyfrowych stało się możliwe w połowie 1950 roku, badania AI zaczął badać możliwości, że ludzka inteligencja może być zredukowana do manipulacji symbolu. Badania skoncentrowane w trzech instytucji: Carnegie Mellon University , Stanford i MIT , i jak opisano poniżej, każdy z nich stworzył własny styl badań. John Haugeland nazwał te symboliczne podejścia do AI „starej dobrej” lub „AI GOFAI ”. W latach 1960, podejścia symboliczne osiągnął wielki sukces w symulacji wysokiego poziomu myślenia w małych programów demonstracyjnych. Podejścia oparte na cybernetyki lub sztucznych sieci neuronowych zostały porzucone lub wsunięty w tle. Naukowcy w latach 1960 i 1970 byli przekonani, że podejścia symboliczne w końcu uda się stworzyć maszynę z silna sztuczna inteligencja i uznać ten cel swojej dziedzinie.

poznawczy symulacji

Ekonomista Herbert Simon i Allen Newell badane umiejętności rozwiązywania problemów ludzkich i próbował je sformalizować, a ich praca podwaliny dziedzinie sztucznej inteligencji, jak i kognitywistyki , badań operacyjnych i nauk o zarządzaniu . Ich zespół badawczy wykorzystano wyniki psychologicznych eksperymentów do opracowania programów, które symulowane techniki, które ludzie wykorzystywane do rozwiązywania problemów. To tradycja, skupione na Carnegie Mellon University w końcu zakończyć się rozwojem szybować architektury w połowie 1980 roku.

oparte na logice

W przeciwieństwie Simon i Newell, John McCarthy czuł, że maszyny nie trzeba symulować myśl ludzką, ale powinno zamiast próbować znaleźć istotę abstrakcyjnego rozumowania i rozwiązywania problemów, niezależnie od tego, czy ludzie korzystają z tych samych algorytmów. Jego laboratorium na Uniwersytecie Stanforda ( SAIL ) koncentruje się na wykorzystaniu formalnej logiki do rozwiązywania różnorodnych problemów, w tym reprezentacji wiedzy , planowania i uczenia się . Logika była również przedmiotem prac na University of Edinburgh i gdzie indziej w Europie, która doprowadziła do rozwoju języka programowania Prolog i nauki programowania w logice .

Anti-cyfrowe lub niechlujny

Naukowcy z MIT (takie jak Marvin Minsky i Seymour Papert'a ) stwierdzili, że rozwiązywaniu trudnych problemów ze wzrokiem i przetwarzania języka naturalnego wymaga doraźnych rozwiązań, twierdzili, że nie było proste i ogólna zasada (jak logiki ), które uwzględniają wszystkie aspekty inteligentne zachowanie. Roger Schanka opisali swoje „anty-Logic” podejścia jako „ niechlujny ” (jak w przeciwieństwie do „ czystych ” paradygmatów w CMU i Stanford). Zdroworozsądkowe bazy wiedzy (takich jak Doug Lenat „s Cyc ) są przykładem«niechlujny»AI, ponieważ muszą one być budowane ręcznie, jeden skomplikowane pojęcie naraz.

Opartej na wiedzy

Kiedy komputery z dużymi wspomnienia stały się dostępne około 1970 roku, naukowcy z trzech tradycji zaczął budować wiedzę w aplikacjach AI. Ta „rewolucja wiedzy” doprowadziły do rozwoju i wdrażania systemów ekspertowych (wprowadzone przez Edward Feigenbaum ), pierwszy prawdziwie udany postaci oprogramowania AI. Kluczowym elementem na arhitecute systemu dla wszystkich systemów eksperckich jest baza wiedzy, która przechowuje fakty i reguły, które ilustruje AI. Rewolucja wiedza została również napędzane przez świadomość, że ogromne ilości wiedzy byłby wymagany przez wielu prostych aplikacji AI.

Sub-symboliczny

Przez 1980, postęp w symbolicznej AI wydawał się hamować i wielu uwierzyło, że systemy symboliczne nigdy nie będzie w stanie naśladować wszystkie procesy ludzkiego poznania, zwłaszcza percepcji , robotyki , uczenia się i rozpoznawania obrazów . Szereg badaczy zaczęła przyglądać się „sub-symboliczny” podejścia do konkretnych problemów AI. Metody sub-symboliczne udaje się zbliżyć inteligencji bez konkretnych reprezentacji wiedzy.

Wcielony inteligencja

Obejmuje to zrealizowane , położony , zachowanie oparte oraz nouvelle AI . Naukowcy z dziedziny powiązanej z robotyką , takich jak Rodney Brooks , odrzucił symboliczne AI i koncentruje się na podstawowych problemach technicznych, które pozwoliłyby roboty, aby przenieść i przetrwać. Ich praca ożywił non-symbolicznego punktu widzenia wczesnych cybernetyka badaczy z 1950 i ponownie zastosowanie teorii sterowania w AI. Zbiegło się to z rozwojem ucieleśnionego umysłu pracy w dziedzinie powiązanej z kognitywistyki : pomysł, że aspekty ciała (takie jak ruch, percepcji i wizualizacji) są wymagane do wyższej inteligencji.

W ciągu robotyki rozwojowych , rozwojowe metody uczenia się szerzej, aby umożliwić roboty gromadzić repertuarów nowych umiejętności poprzez autonomiczny samodzielnego poszukiwania, interakcji społecznych z nauczycielami ludzkich oraz stosowania mechanizmów naprowadzania (aktywnego uczenia się, dojrzewania, synergie silnikowe, itp).

Inteligencja obliczeniowa i miękkie computing

Odsetki w sieciach neuronowych i „ koneksjonizm ” została reaktywowana przez Davida Rumelhart i innych w połowie 1980 roku. Sieci neuronowe są przykładem miękkiego przetwarzania -Oni są rozwiązania dla problemów, które nie mogą zostać rozwiązane z całkowitą pewnością logicznej, i gdzie w przybliżeniu rozwiązanie jest często niewystarczająca. Inne miękkie obliczeniowe podejścia do AI obejmują systemy rozmyte , obliczeń ewolucyjnych i wiele narzędzi statystycznych. Zastosowanie miękkich obliczeniowych do AI jest badane wspólnie przez powstającej dyscypliny inteligencji obliczeniowej .

nauka statystyczne

Wiele tradycyjnych GOFAI utknął na doraźnych poprawek do obliczeń symbolicznych, które pracowały na własnych modeli zabawek, ale nie uogólniać do wyników rzeczywistych. Jednak około 1990 naukowcy AI przyjęła zaawansowanych narzędzi matematycznych, takich jak ukryte modele Markowa (HMM), teorii informacji i Bayesa normatywnej teorii decyzji do porównania lub do ujednolicenia konkurujących architektur. Wspólna język matematyczny dopuszcza wysoki poziom współpracy z bardziej uznanych pól (jak matematyka , ekonomia lub badań operacyjnych ). W porównaniu z GOFAI nowe „nauka statystyczna” technik, takich jak HMM i sieci neuronowe zdobywania wyższych poziomów dokładności w wielu praktycznych dziedzin, takich jak data mining , bez konieczności nabywania semantycznej zrozumienia zbiorów danych. Zwiększone sukcesy z danych rzeczywistych doprowadziło do zwiększenia nacisku na porównanie różnych podejść wobec danych testowych współdzielonych aby zobaczyć, które podejście najskuteczniejsza w szerszym kontekście niż ta przewidziana przez idiosynkratycznych modelarskich; Badania AI był coraz bardziej naukowy . Obecnie wyniki eksperymentów są często rygorystycznie mierzalne, a czasami (z trudem) powtarzalne. Różne techniki uczenia statystyczne mają różne ograniczenia; na przykład podstawowy HMM nie można modelować nieskończone możliwe kombinacje języka naturalnego. Krytycy pamiętać, że przejście od GOFAI do nauki statystycznych jest często również odejście od wytłumaczalne AI . W badaniach AGI, niektórzy badacze ostrzegają przed nadmierne poleganie na nauce statystycznych i twierdzą, że dalsze badania nad GOFAI nadal będzie konieczne, aby osiągnąć ogólną inteligencję.

Integracja podejścia

Środek inteligentny paradygmat
Inteligentny czynnik to system, który postrzega swoje otoczenie i podejmuje działania, które maksymalizują swoje szanse na sukces. Najprostsze inteligentni agenci są programy, które rozwiązują konkretne problemy. Bardziej skomplikowane środki obejmują istoty i organizacji istot ludzkich (takich jak ludzkie firm ). Paradygmat pozwala naukowcom bezpośrednio porównać, a nawet łączyć różne podejścia do pojedynczych problemów, prosząc, który środek jest najlepszy na maksymalizację daną funkcję „cel”. Środek, który rozwiązuje konkretny problem można użyć dowolnej metody, która działa, niektóre środki są symboliczne i logiczne, niektóre są sub-symboliczny sztuczne sieci neuronowe i inni korzystają z nowych rozwiązań. Paradygmat daje też naukowcom wspólnego języka do komunikowania się z innymi dziedzinami, takimi jak teorii decyzji i ekonomii, które również korzystają-pojęć abstrakcyjnych agentów. Budowania kompletnego środka wymaga naukowcom rozwiązać realne problemy integracji; na przykład, ponieważ układy sensoryczne dają niepewną informacji o środowisku, systemy planowania muszą być w stanie funkcjonować w obecności niepewności. Inteligentny czynnik paradygmat stał się powszechnie przyjęty w 1990.
Architektur agenta i architektur poznawczych
Naukowcy systemy przeznaczone do budowania inteligentnych systemów z interakcji inteligentnych agentów w systemie multi-agenta . Hierarchiczny system sterowania zapewnia pomost między sub-symbolicznej AI na najniższym poziomie, reaktywne i tradycyjnym symbolicznym AI na najwyższych poziomach, gdzie zrelaksowany ograniczenia czasowe pozwalają na modelowanie planowania i światową. Niektóre architektury poznawcze są budowane na zamówienie, aby rozwiązać problem, wąski; Inne, takie jak Soar , są przeznaczone do naśladowania ludzkiego poznania i zapewnić wgląd w ogólną inteligencją. Nowoczesne rozszerzenia Soar są hybrydowe inteligentne systemy , które zawierają zarówno elementy symboliczne i sub-symbolicznych.

Przybory

AI opracowała wiele narzędzi do rozwiązywania najtrudniejszych problemów w informatyce . Niektóre z najbardziej ogólnym z tych metod są omówione poniżej.

Wyszukiwanie i optymalizacja

Wiele problemów w AI może być rozwiązany w teorii inteligentnie przeszukiwaniu wielu możliwych rozwiązań: Rozumowanie może być zmniejszona do wykonywania wyszukiwania. Na przykład, logiczny dowód może być postrzegana jako poszukiwanie drogi, która prowadzi z pomieszczeń do konkluzji , gdzie każdy krok jest wniosek o reguły wnioskowania . Planowanie wyszukiwania poprzez algorytmy drzew celów i subgoals, próbując znaleźć drogę do bramki docelowej, proces zwany środkiem końców analizy . Robotyka algorytmy służące do poruszania kończynami i chwytania przedmiotów użyciu lokalnych wyszukiwań w przestrzeni konfiguracyjnej . Wiele uczenia algorytmów użyciu algorytmów wyszukiwania w oparciu o optymalizację .

Proste wyczerpująca wyszukiwania rzadko są wystarczające dla większości rzeczywistych problemów świata: przestrzeń poszukiwań (ilość miejsc do Search) szybko rośnie do liczb astronomicznych . Rezultatem jest wyszukiwarka, która jest zbyt powolne lub nigdy nie kończy. Rozwiązaniem wielu problemów jest użycie „ heurystyka ” lub „reguły kciuka”, w których priorytetem wyborów na korzyść te, które są bardziej prawdopodobne, aby osiągnąć cel i aby to zrobić w krótszym liczbie kroków. W niektórych metodach wyszukiwania heurystyki może również służyć do całkowicie wyeliminować pewnych wyborów, które są mało prawdopodobne, aby doprowadzić do celu (zwane „ przycinanie drzewo wyszukiwania ”). Heurystyka dostarczyć program z „najlepszych odgadnięcia” na ścieżce, na której rozwiązanie leży. Heurystyka ograniczyć poszukiwanie rozwiązań do mniejszego rozmiaru próbki.

Bardzo inny rodzaj wyszukiwania przyszedł do wyeksponowany w 1990, opiera się na matematycznej teorii optymalizacji . Dla wielu problemów, możliwe jest, aby rozpocząć wyszukiwanie z jakiejś formy przypuszczeniu, a następnie udoskonalić przypuszczenie stopniowo aż żadne dalsze udoskonalenia mogą być wykonane. Algorytmy te mogą być wizualizowane jako ślepe wspinaczka wzgórze : możemy rozpocząć wyszukiwanie w przypadkowym miejscu na krajobraz, a następnie przez skoków lub etapów, możemy ruszać nasze przypuszczenie pod górę, aż docieramy na szczyt. Inne algorytmy optymalizacyjne są symulowane wyżarzanie , przeszukiwanie wiązki i losowy optymalizacji .

Ewolucyjny obliczeń wykorzystuje formę optymalizacji wyszukiwania. Na przykład, mogą one zacząć populacji organizmów (to domysły), a następnie pozwolić im mutacji i rekombinacji, wybierając tylko najsilniejszych przetrwać każde pokolenie (zawężania domysły). Klasyczne algorytmy ewolucyjne zawierać algorytmy genetyczne , programowanie ekspresji genu i programowania genetycznego . Alternatywnie, rozproszone procesy wyszukiwania może koordynować poprzez rój wywiadu algorytmów. Dwa popularne algorytmy stosowane w poszukiwaniu rój są optymalizacja rojem cząstek (zainspirowany ptaków Flokowanie ) i mrówka optymalizacja kolonia (zainspirowany mrówek szlaków ).

Logika

Logika jest używany do reprezentacji wiedzy i rozwiązywania problemów, ale może być stosowany do innych problemów, jak również. Na przykład, satplan algorytm wykorzystuje logikę za planowanie i indukcyjne programowanie logika jest metodą uczenia się .

Kilka różnych form logiki są wykorzystywane w badaniach AI. Rachunek zdań obejmuje funkcje prawdy takie jak „czy” i „nie”. Logika pierwszego rzędu dodaje kwantyfikatorów i predykaty , a może wyrazić fakty dotyczące obiektów, ich właściwości oraz ich wzajemnych stosunkach. Teorii zbiorów rozmytych przypisuje „stopień prawdy” (między 0 a 1) do ogólnikowych stwierdzeń takich jak „Alice jest stary” (czy bogaty, czy wysoki lub głodny), które są zbyt nieprecyzyjne językowo być całkowicie prawdziwe, czy fałszywe. Logika rozmyta jest z powodzeniem stosowany w systemach sterowania , aby umożliwić ekspertom przyczynić niejasne zasady takie jak „jeśli jesteś blisko do stacji docelowej i porusza się szybko, należy zwiększyć ciśnienie w układzie hamulcowym pociągu”; te niejasne zasady mogą być następnie numerycznie rafinacji w systemie. Logika rozmyta nie daje się dobrze skalować w bazach wiedzy; Wielu badaczy AI kwestionować zasadność łączenia wnioskowanie rozmyte-logicznych.

Logika domyślnych , niemonotoniczny logiki i okręgów są formy logiki zaprojektowane, aby pomóc w domyślnej rozumowania i kwalifikacji problemu . Kilka rozszerzenia logiki zostały zaprojektowane tak, aby obsługiwać konkretne dziedziny wiedzy , takie jak: opis logiki ; Sytuacja rachunek , rachunek wydarzenie i biegle rachunek (za reprezentowanie zdarzeń i czasu); Rachunek przyczynowy ; Rachunek wiara; i logik modalnych .

Ogólnie rzecz biorąc, qualitiative logika symboliczna jest kruchy i skaluje źle w obecności hałasu lub innych niepewności. Wyjątki od reguły są liczne, a to jest trudne dla systemów logicznych, aby funkcjonować w obecności sprzecznych zasad.

Probabilistyczne metody rozumowania niepewnego

Oczekiwanie-maksymalizacja grupowanie Old Faithful danych erupcji rozpoczyna się od losowego odgadnięcia, ale potem z powodzeniem zbieżny na dokładne grupowania dwóch fizycznie odrębnych trybów erupcji.

Wiele problemów w AI (w rozumowania, planowania, uczenia się, percepcji i robotyki) wymagają agenta do współpracy z niepełną lub niepewnych informacji. Badacze AI opracowali szereg zaawansowanych narzędzi do rozwiązania tych problemów za pomocą metod z prawdopodobieństwa teorii i ekonomii.

Sieci Bayesa są bardzo ogólne narzędzie, które może być wykorzystywane do wielu problemów: rozumowanie (za pomocą wnioskowania Bayesa algorytm), uczenie się (za pomocą algorytmu oczekiwanie maksymalizacji ), planowanie (przy użyciu sieci decyzyjne ) i percepcja (za pomocą dynamicznych sieci Bayesa ). Algorytmy probabilistyczne może być również stosowany do filtrowania, przewidywania, wygładzanie i znalezienie wyjaśnienia dla strumieni danych, pomagając postrzeganie systemów do analizy procesów, które pojawiają się w czasie (np ukrytych modeli Markowa lub filtrów Kalmana ). W porównaniu z logiki symbolicznej, formalne wnioskowanie bayesowskie jest kosztowne obliczeniowo. Do wnioskowania być uległy, większość obserwacje muszą być warunkowo niezależne od siebie. Skomplikowane wykresy z diamentów lub innych „pętli” (nieukierunkowane cykli ) może wymagać skomplikowany sposób, taki jak Markowa Chain Monte Carlo , który rozprzestrzenia się grupę przypadkowych pieszych całej sieci Bayesa i usiłuje zbliżyć do oceny prawdopodobieństwa warunkowego. Sieci Bayesa są wykorzystywane na Xbox Live dla graczy stóp i zapałki; wygrane i straty są „dowody” na to, jak dobry gracz jest. AdSense używa sieci Bayesa z ponad 300 milionów krawędziach, aby dowiedzieć się, które reklamy służyć.

Kluczowym pojęcie z nauki ekonomii jest „ użyteczność ”: miarą tego, jak cenna jest coś inteligentnego agenta. Precyzyjne narzędzia matematyczne zostały opracowane, które analizuje, w jaki środek może dokonywać wyborów i planu, wykorzystując teorię decyzji , analizy decyzji i teorii wartości informacyjnej . Narzędzia te obejmują modele, takie jak procesy decyzyjne Markowa , dynamicznych sieciach decyzyjnych , teorii gier i konstrukcji mechanizmu .

Klasyfikatorów i metody uczenia statystycznych

Najprostsze aplikacje AI można podzielić na dwa rodzaje: klasyfikatorów ( „jeśli błyszczące następnie diament”) i kontrolery ( „jeśli błyszczące następnie odebrać”). Sterowniki mają jednak również klasyfikować warunki przed działaniami kolidowałoby, a zatem klasyfikacja tworzy centralną część wielu systemów AI. Klasyfikatorów są funkcjami, które używają dopasowywania wzorców w celu określenia najbardziej zbliżone. Mogą być konfigurowane zgodnie z przykładami, co czyni je bardzo atrakcyjnymi dla zastosowania w AI. Przykłady te są znane jako obserwacji lub wzorów. W nadzorowanego uczenia się, każdy wzór należy do pewnej predefiniowanej klasy. Klasę można traktować jako decyzji, która ma być wykonane. Wszystkie obserwacje połączone z ich etykietami klasy znane są jako zestaw danych. Po otrzymaniu nowej obserwacja, że obserwacja jest sklasyfikowana na podstawie wcześniejszych doświadczeń.

Klasyfikator może być przeszkoleni na różne sposoby; istnieje wiele statystyczne i Uczenia Maszynowego podejścia. Drzewo decyzyjne jest chyba najczęściej stosowany algorytm uczenia maszynowego. Inne powszechnie używane klasyfikatorów są sieci neuronowe , k-algorytm najbliższego sąsiada , metody jądra , takie jak maszyny wektorów nośnych (SVM), Gaussa modelu mieszanki i niezwykle popularnej naiwnego klasyfikatora Bayesa . Wydajność klasyfikatora zależy w dużej mierze od charakterystyki danych należy klasyfikować, takich jak wielkość zbioru danych, dystrybucji próbek całej klasach wymiarowości i poziomu hałasu. Klasyfikatorów opartych na modelu wykonać dobrze, jeśli przyjąć, model jest bardzo dobre dopasowanie do rzeczywistych danych. W przeciwnym razie, jeśli nie ma modelu dopasowywania jest dostępna, a jeśli dokładność (raczej niż prędkość lub skalowalność) jest jedynym problemem, konwencjonalnych mądrości jest to, że dyskryminacyjne klasyfikatorów (zwłaszcza SVM) wydają się być bardziej dokładne niż klasyfikatorów opartych na modelach takich jak „naiwny Bayesa” na większości praktycznych zestawów danych.

Sztuczne sieci neuronowe

Sieć neuronowa jest połączone grupy węzłów, podobny do rozległej sieci neuronów w ludzkim mózgu .

Sieci neuronowe, sieci neuronowe czy zostały zainspirowane architekturą neuronów w ludzkim mózgu. Prosty „neuron” N akceptuje wejście od wielu innych neuronów, z których każdy po aktywacji (lub „zwolniony”), oddanych ważonej „głos” za lub przeciw, czy neuron N powinien sam aktywować. Nauka wymaga algorytm dostosować te ciężary na podstawie danych szkolenia; jeden prosty algorytm (nazwane „ pożar razem, wraz z drutu ”) jest zwiększenie masy dwóch połączonych neuronów gdy aktywacja jednego z powodzeniem wywołuje aktywację drugiego. Formularze netto „koncepcje”, które są rozprowadzane wśród podsieci wspólnych neuronów, które mają tendencję do ognia razem; pojęcie oznaczające „nogi” może być połączony z podsieci oznaczającego „stopa”, który obejmuje dźwięk dla „stopy”. Neuronów widmo ciągłe aktywacji; Ponadto, neurony mogą przetwarzać wejść w sposób nieliniowy, zamiast ważenia głosów proste. Nowoczesne sieci neuronowe mogą nauczyć obie funkcje ciągłe i, o dziwo, cyfrowe operacje logiczne. Pierwsze sukcesy Sieci neuronowe zawarte przewidywania rynku akcji i (w 1995 roku), a przede wszystkim samodzielne jazdy samochodem. W 2010s, postęp w sieciach neuronowych z wykorzystaniem głębokiego uczenia oporowe AI w powszechnej świadomości publicznej i przyczyniły się do ogromnej zmiany biegu na wyższy w wydatkach AI korporacyjnej; na przykład AI związane M & A w 2017 był ponad 25 razy większy niż 2015 r.

Badanie niewyspecjalizowanych uczenia sztucznych sieci neuronowych rozpoczęła się w dekadzie poprzedzającej dziedzinie badań AI została założona w pracach Walter Pitts i Warren McCullouch . Frank Rosenblatt wynalazł perceptron , sieć uczenia się z pojedynczej warstwy, podobny do starej koncepcji regresji liniowej . Pionierzy także Alexey Grigorevich Ivakhnenko , Teuvo Kohonen , Stephen Grossberg , Kunihiko Fukushima , Christoph von der Malsburg, David Willshaw, Shun-ichi Amari , Bernard Widrow'a , Johna Hopfielda , Eduardo R. Caianiello i innych.

Główne rodzaje sieci są acykliczne lub wyprzedzającym sieci neuronowe (gdzie przechodzi sygnał tylko w jednym kierunku) i nawracające sieci neuronowe (umożliwiających zwrotne i krótkoterminowe pamięci poprzednich zdarzeń wejściowych). Spośród najpopularniejszych sieci antycypacyjnych są perceptrony , perceptrony wielowarstwowe i promieniowe sieci bazowych . Sieci neuronowe mogą być stosowane do problemu inteligentnego sterowania (dla robotyki) lub uczenia się , przy użyciu takich technik, jak uczenie kWTA ( „ogień razem, drut razem”), GMDH lub konkurencyjny learning .

Dzisiaj, sieci neuronowe są często szkoleni przez wstecznej propagacji błędów algorytmu, który już od 1970 roku jako odwróconym trybie z automatycznym różnicowanie opublikowanej przez Seppo Linnainmaa i została wprowadzona do sieci neuronowych przez Pawła Werbos .

Hierarchicznej pamięci skroniowej jest podejście, że modele pewne właściwości strukturalne i algorytmicznych w korze mózgowej .

Podsumowując, sieci neuronowe najbardziej wykorzystać jakąś formę opadania gradientu na topologii nerwowej ręcznie tworzone. Jednak niektóre grupy badawcze, takie jak Uber , twierdzą, że prosty neuroevolution mutować nowych neuronowych topologie sieci i ciężary mogą być konkurencyjne w stosunku do wyrafinowanych metod gradientu pochodzenia. Jedną z zalet jest to, że neuroevolution może okazać się mniej podatna na złapany w „ślepych zaułków”.

Sieci neuronowe głęboko wyprzedzającym

Głębokie learning jest każda sztuczna sieć neuronowa , że można nauczyć się długi łańcuch powiązań przyczynowych. Na przykład, sieć wyprzedzające z sześciu warstw ukrytych mogą nauczyć łańcuch przyczynowy siedem-link (sześć ukrytych warstw + warstwy wyjściowej) i ma „ścieżka przypisania kredyt” (CAP) głębokość siedmiu. Wiele systemów głębokie nauki muszą być w stanie nauczyć się łańcuchy dziesięciu lub więcej związków przyczynowych długości. Głębokie uczenie przekształcił wiele ważnych podpola sztucznej inteligencji, w tym wizji komputerowej , rozpoznawanie mowy , przetwarzania języka naturalnego i innych.

Według jednego przegląd wyrażenie „Głęboki Learning” został wprowadzony do Machine Learning społeczności przez Rina Dechter w 1986 roku i zyskała trakcję po Igor Aizenberg i koledzy wprowadził go do sztucznych sieci neuronowych w 2000. Pierwsze funkcjonalne Głębokie sieci Learning zostały opublikowane przez Alexey Grigorevich Ivakhnenko i VG Lapa w 1965 sieci te są przeszkoleni jedną warstwę na raz. 1971 papier Ivakhnenko opisuje naukę głębokiej perceptronu wielowarstwowego wyprzedzające z ośmiu warstw, już znacznie głębsze niż wiele późniejszych sieci. W 2006 roku publikacja przez Geoffreya Hinton i Ruslan Salakhutdinov wprowadzony inny sposób wstępnego szkolenia wiele warstwowy wyprzedzającym sieci neuronowych (FNNs) jedną warstwę na raz, traktując każdą warstwę z kolei jako nienadzorowanej ograniczonej maszyny Boltzmanna , a następnie za pomocą nadzorowanego wstecznej propagacji błędów dla strojenie. Podobny do płytkich sztucznych sieci neuronowych, głębokie sieci neuronowe mogą modelować złożone relacje nieliniowe. W ciągu ostatnich kilku lat, postęp w obu algorytmów uczenia maszynowego i sprzętu komputerowego doprowadziły do bardziej efektywnych metod treningu głębokich sieci neuronowych, które zawierają wiele warstw nieliniowych ukrytych jednostek i bardzo dużej warstwy wyjściowej.

Głębokie nauka często używa splotu sieci neuronowe (CNNs), której początki sięgają do Neocognitron wprowadzonego przez Kunihiko Fukushima w roku 1980. W 1989 roku, Yann LeCun i współpracownicy stosowane wstecznej propagacji błędów do takiej architektury. W roku 2000, w aplikacji przemysłowych CNNs już przetworzone szacunkowo 10% do 20% wszystkich kontroli pisemnych w USA. Od 2011 roku, szybko implementacje CNNs na GPU są laureatami wielu konkursów rozpoznawania wzorców wizualnych.

CNNs z 12 splotowych warstw były używane w połączeniu z nauki zbrojenia przez Deepmind za „ AlphaGo Lee”, program tak, że piłka top Go mistrzem w 2016 roku.

Głębokie nawracające sieci neuronowe

Na początku, głęboka nauka była również stosowana do sekwencjonowania nauki z nawracającymi sieci neuronowych (RNNs) będących w teorii Turinga kompletne i może uruchomić dowolny program do przetwarzania dowolnych sekwencji wejściowych. Głębokość na RNN nie jest ograniczona i zależy od długości swojej sekwencji wejściowej; Zatem RNN jest przykładem głębokiej nauki. RNNs może być przeszkolony przez opadania gradientu ale cierpią z powodu zanikającego problemu gradientu . W 1992 roku wykazano, że bez nadzoru wstępnego szkolenia stos nawracających sieci neuronowych może przyspieszyć późniejsze nadzorowanego uczenia głębokich problemów sekwencyjnych.

Liczni badacze używają teraz warianty głębokiego uczenia się nawracającymi NN zwanej długo pamięć krótkotrwała (LSTM) sieć opublikowane przez Hochreiter & Schmidhuber w 1997 LSTM często jest szkolony przez koneksjonistyczne Temporal Klasyfikacji (CTC). W Google, Microsoft i Baidu to podejście zrewolucjonizowało rozpoznawania mowy . Na przykład, w 2015 roku, do rozpoznawania mowy Google doświadczony dramatyczny skok wydajności o 49% przez CTC wyszkolonych LSTM, która jest obecnie dostępna za pośrednictwem usługi Google Voice miliardy użytkowników smartfonów. Google również wykorzystywane LSTM poprawić tłumaczenia maszynowego, język modelowania i wielojęzycznym Język przetwarzania. LSTM połączeniu z CNNs poprawić także automatyczne napisów obrazu i mnóstwo innych zastosowań.

oceny postępu

AI, jak elektryczność czy silnik parowy, to technologia ogólnego przeznaczenia. Nie ma zgody na temat zadań, które charakteryzują AI raczej celują. Choć projekty takie jak AlphaZero udało w tworzeniu własnej wiedzy od podstaw, wiele innych projektów uczenia maszynowego wymagają dużych zestawów danych treningowych. Badacz Andrew Ng zasugerował, jako „wysoce niedoskonałym zasada”, że „prawie wszystko to typowy człowiek może zrobić z mniej niż jedną sekundę myśli psychicznego, prawdopodobnie możemy teraz lub w najbliższej przyszłości zautomatyzować przy użyciu AI.” Paradoks Moraveč za sugeruje, że AI tyle ludzi w wielu zadaniach, że ludzki mózg jest szczególnie rozwinęła się dobrze wykonać.

Gry zapewniają dobrze nagłośnione odniesienia dla oceny tempa wzrostu. AlphaGo około 2016 przyniósł era klasycznych wzorców planszowej do końca. Gry z niedoskonałej wiedzy dostarczyć nowe wyzwania dla AI w dziedzinie teorii gier . E-sportowych , takich jak StarCraft nadal dostarczać dodatkowych wzorców publicznych. Istnieje wiele konkursów i nagród, takich jak IMAGEnet wyzwanie , aby promować badania nad sztuczną inteligencją. Najczęstsze obszary konkurencji obejmują ogólną inteligencję maszyny, konwersacyjne zachowanie, eksploracji danych, robotów samochody i piłkę nożną robota jak również tradycyjne gry.

„Gry imitacja” (interpretacja 1950 testu Turinga , który ocenia, czy dany komputer może naśladować człowieka) jest obecnie uważana za wykorzystywaną być znaczącym punktem odniesienia. Pochodna testu Turinga jest Completely Automated Public Turing Test powiedzieć Computers and Humans Apart ( CAPTCHA ). Jak sama nazwa wskazuje, to pomoże ustalić, że użytkownik jest prawdziwym człowiekiem i nie stwarzające komputer jako człowiek. W przeciwieństwie do standardowego testu Turinga testu jest podawany przez urządzenie i skierowane do człowieka, w przeciwieństwie do podawanego przez człowieka i kierowane do urządzenia. Komputer prosi użytkownika o wypełnienie prostego testu następnie generuje ocenę dla tego testu. Komputery są w stanie rozwiązać problemu, więc poprawne rozwiązania są uważane za wynikiem osoby pobierającej test. Typowym rodzajem CAPTCHA to test, który wymaga typowanie zniekształconych liter, cyfr lub symboli, które pojawiają się w obrazie undecipherable przez komputer.

Proponowane testy „uniwersalnej inteligencji” mają na celu porównanie, jak również maszyny, ludzi, a nawet nie-ludzkie zwierzęta wykonywać na zbiorach problem, że są uniwersalne, jak to możliwe. W skrajności, pakiet testowy może zawierać każdy możliwy problem ważony Kołmogorowa złożoności ; Niestety, te zestawy problemem wydają się być zdominowany przez zubożałych ćwiczeń wzór dopasowywania gdzie dostrojony AI może łatwo przekroczyć ludzkie osiągów.

Aplikacje

Automatyczny asystent w Internecie zapewniając obsługę klienta na stronie WWW - jeden z wielu bardzo prymitywnych zastosowań sztucznej inteligencji

AI jest istotne dla każdego zadania intelektualnej. Nowoczesne techniki wywiadowcze są sztuczne wszechobecne i są zbyt liczne, by tu wymieniać. Najczęściej, gdy technika osiągnie nurtu wykorzystania, nie jest już uważane sztucznej inteligencji; Zjawisko to jest opisane jako efekt AI .

Przykłady głośnych AI obejmują pojazdy autonomiczne (takie jak trutnie i samochodom samodzielnym ), diagnostyki medycznej, tworząc sztukę (takich jak poezja), potwierdzających twierdzenia matematyczne, gry (takie jak szachy czy go), wyszukiwarki (takie jak Wyszukiwarka Google ), asystenci online (takie jak Siri ), rozpoznawanie obrazu na zdjęciach, filtrowanie spamu, przewidywania opóźnienia lotu, przewidywania orzeczeń sądowych i kierowania reklamy w Internecie.

Ze strony mediów społecznych wyprzedzania telewizji jako źródła wiadomości dla młodych ludzi i organizacji prasowych coraz większym stopniu na platformach społecznościowych do generowania dystrybucji, największymi wydawcami teraz używać inteligencji (AI) technologii sztucznej bardziej efektywnie pisać historie i generować większe natężenie ruchu.

Opieka zdrowotna

Pacjent po stronie chirurgiczny ramię System chirurgiczny da Vinci

AI jest stosowana na dużą problemu kosztów zagadnień-gdzie dawkowania odkrycia sugerują, że AI może uratować $ 16 miliardów dolarów. W 2016 roku, przełomowym studium w Kalifornii odkryli, że wzór matematyczny opracowany z pomocą AI prawidłowo ustalił dokładnej dawki leków immunosupresyjnych dać chorych narządów.

X-ray z ręki, z automatycznym obliczaniem wieku kostnego z użyciem programu komputerowego

Sztuczna inteligencja jest przełamanie w branży opieki zdrowotnej poprzez pomoc lekarzy. Według Bloomberg Technology, firma Microsoft opracowała IZ aby pomóc lekarzom znaleźć odpowiednie metody leczenia raka. Istnieje ogromna ilość badań i leków opracowane w odniesieniu do raka. W szczególności, istnieje ponad 800 leków i szczepionek w leczeniu raka. To negatywnie wpływa na lekarzy, bo nie ma zbyt wielu opcji do wyboru, co sprawia, że trudniej jest wybrać odpowiednie leki dla pacjentów. Microsoft pracuje nad projektem opracować maszynę o nazwie „Hannover”. Jego celem jest zapamiętać wszystkie dokumenty niezbędne do raka i pomagają przewidzieć, które kombinacje leków będzie najbardziej skuteczne dla każdego pacjenta. Jeden z projektów, które jest opracowywane w tej chwili walczy białaczkę szpikową , nowotwór śmiertelny gdzie leczenie nie poprawiła się od dziesięcioleci. W innym badaniu stwierdzono, aby odkryli, że sztuczna inteligencja była tak dobra jak przeszkolonych lekarzy w identyfikacji nowotworów skóry. Inne badanie jest za pomocą sztucznej inteligencji, aby spróbować i monitorowanie wielu pacjentów wysokiego ryzyka, a odbywa się to zadając liczne pytania każdego pacjenta na podstawie danych uzyskanych od lekarza do żywej interakcji pacjentów.

Według CNN , niedawne badanie przeprowadzone przez chirurgów w Dziecięcego Narodowego Centrum Medycznego w Waszyngtonie udało się wykazać operację z autonomicznego robota. Zespół nadzorował robota podczas gdy wykonywane chirurgii tkanek miękkich, szycie razem świńską jelit podczas operacji otwartej, i robi tak lepiej niż ludzki chirurg, zespół twierdził. IBM stworzył swój własny komputer sztucznej inteligencji, z IBM Watson , który został pobity ludzką inteligencję (w niektórych poziomów). Watson wygrał nie tylko w teleturnieju Jeopardy! wobec byłych mistrzów, ale został uznany za bohatera po pomyślnym diagnozowaniu kobietę, która cierpi na białaczkę.

Automobilowy

Postęp w AI przyczyniły się do rozwoju przemysłu motoryzacyjnego poprzez tworzenie i rozwój pojazdów na własny jazdy. Począwszy od roku 2016, znajduje się ponad 30 firm wykorzystujących sztuczną inteligencję do stworzenia sterowników samochodów . Kilka firm zajmujących się AI to Tesla , Google i Apple, .

Wiele elementów przyczynia się do funkcjonowania samorządu jazdy samochodów. Pojazdy te zawierają układy, takie jak hamowanie, zmiana pasa ruchu, zapobiegania kolizji, nawigacji i map. Wszystkie te systemy, a także komputery o wysokiej wydajności, są zintegrowane w jednej złożonej pojazdu.

Ostatnie wydarzenia w autonomicznych samochodów dokonały innowacyjności własny jazdy samochodów ciężarowych możliwe, choć są one nadal w fazie testowania. Rząd Wielkiej Brytanii przyjął ustawę, aby rozpocząć badania na własny jazdy plutony ciężarówek w 2018. Samojezdne jazdy plutony samochodów ciężarowych są flota własny jazdy samochodów ciężarowych następujących przewodnictwem jednego non-samodzielnego prowadzenia samochodu, więc nie są plutony ciężarówek całkowicie autonomiczny dotychczas. Tymczasem, Daimler, niemiecki koncern samochodowy, testuje Freightliner Inspiracja który jest pół-autonomiczny ciężarówka, która będzie używana tylko na szosie.

Jednym z głównych czynników, które wpływają na zdolność dla kierowcy samochodu-mniej funkcji jest mapowanie. Ogólnie rzecz biorąc, pojazd zostanie zaprogramowany z mapą obszaru pokonywanej. Mapa ta będzie zawierać dane dotyczące przybliżeń światła ulicznego i wysokości krawężników, aby pojazd mógł być świadomy jego okolicach. Jednak Google pracuje nad algorytmem z celem eliminując potrzebę zaprogramowanymi mapami i zamiast stworzenia urządzenia, które będzie w stanie dostosować się do różnych nowym otoczeniu. Niektóre samodzielne jazdy samochody nie są wyposażone w kierownice i pedały hamulca, więc nastąpił również badania koncentrowały się na tworzeniu algorytmu, który jest zdolny do utrzymania bezpiecznego środowiska dla pasażerów w pojeździe poprzez świadomość prędkości i warunków jazdy.

Innym czynnikiem, który ma wpływ na zdolność dla kierowcy samochodu mniej jest bezpieczeństwo pasażerów. Aby dokonać samochód kierowca mniej, inżynierowie muszą zaprogramować go do radzenia sobie z sytuacjami wysokiego ryzyka. Sytuacje te mogą obejmować zderzenie czołowe z pieszym. Głównym celem samochodu powinien podjąć decyzję, że będzie uniknąć uderzenia pieszego i ratowania pasażerów w samochodzie. Ale istnieje możliwość, że samochód będzie musiał podjąć decyzję, które by kogoś w niebezpieczeństwie. Innymi słowy, samochód będzie musiał zdecydować, aby zapisać pieszych lub pasażerów. Programowanie samochodu w takich sytuacjach jest niezbędne do pomyślnego kierowcy mniej samochodów.

Finanse i ekonomia

Instytucje finansowe od dawna wykorzystywane sztuczne sieci neuronowe systemy do wykrywania ładunków lub roszczeń poza normą, zgłaszając je do ludzkiego postępowania. Zastosowanie sztucznej inteligencji w bankowości można prześledzić wstecz do roku 1987, kiedy bezpieczeństwo Pacific Bank Narodowy w USA set-up oszustwo siły Zapobieganie zadań w celu przeciwdziałania bezprawnym użyciem kart debetowych. Programy takie jak Kasisto i Moneystream używasz AI w zakresie usług finansowych.

Banki już używać systemów sztucznej inteligencji do organizowania operacji, utrzymania księgowość, inwestować w akcje, a także zarządzać właściwości. AI może reagować na zmiany na noc lub gdy firma nie ma miejsce. W sierpniu 2001 roku, roboty bić ludzi w symulowanym obrotu finansowego konkurencji. AI również zmniejszona oszustw i przestępstw finansowych poprzez monitorowanie wzorców zachowań użytkowników o wszelkich nietypowych zmian lub anomalii.

Zastosowanie maszyn AI na rynku w zastosowaniach takich jak handel online oraz podejmowania decyzji zmieniła główne teorie ekonomiczne. Na przykład, AI oparte kupna i sprzedaży platform zmieniły prawo podaży i popytu w tym, że obecnie możliwe jest łatwo oszacować indywidualne krzywe popytu i podaży i tym samym indywidualny cennik. Ponadto, maszyny AI zmniejszenia asymetrii informacyjnej na rynku, a tym samym zwiększenie wydajności rynków przy jednoczesnym zmniejszeniu objętości transakcji. Ponadto, AI na rynkach ogranicza konsekwencje zachowań na rynkach ponownie zwiększenie wydajności rynków. Inne teorie gdzie AI była wpływ m.in. w racjonalnego wyboru , racjonalnych oczekiwań , teorii gier , Lewis punkt zwrotny , optymalizacji portfela i alternatywnego myślenia .

Gry wideo

W grach, sztuczna inteligencja jest rutynowo używana do generowania dynamicznych celowe zachowanie znaków non-player (NPC). Ponadto, dobrze rozumiane techniki AI są rutynowo stosowane do pathfinding . Niektórzy badacze uważają NPC AI w grach się „rozwiązać problem” dla większości zadań produkcyjnych. Gry z bardziej nietypowej AI należą dyrektor AI Left 4 Dead (2008) oraz neuroevolutionary szkolenia plutony w Supreme Commander 2 (2010).

Wojskowy

Worldwide roczne wydatki wojskowe na robotyce wzrosła z US $ +5,1 mld US $ 2010 do +7,5 mld 2015. trutni wojskowe zdolne do samodzielnego działania są powszechnie uważane za użyteczne atutem. W 2017 roku Władimir Putin stwierdził, że „Ten, kto staje się liderem w dziedzinie sztucznej inteligencji () stanie się władcą świata”. Wielu badaczy sztucznej inteligencji dążyć do zdystansowania się od zastosowań wojskowych AI.

Rewizja

Do badania sprawozdań finansowych, AI umożliwia ciągłe badanie. narzędzia AI mogła natychmiast analizować wiele zestawów różnych informacji. Potencjalne korzyści byłoby całkowite ryzyko audytu zostaną zmniejszone, poziom wiarygodności zostanie zwiększona i czas trwania kontroli zostanie zredukowana.

Reklama

Jest możliwe użycie AI do przewidzenia lub uogólniać zachowań klientów z ich śladów cyfrowych , aby dostosować je ze spersonalizowanych promocji lub zbudować personas klientów automatycznie. Udokumentowany przypadek donosi, że firmy hazardowych używali AI poprawić kierowanie klientów.

Ponadto, stosowanie komputerowych Osobowość modeli AI może pomóc w zmniejszeniu kosztów kampanii reklamowych poprzez dodanie kierowania psychologicznego bardziej tradycyjny socjodemograficzny lub behawioralne targetowanie.

Sztuka

Sztuczna inteligencja zainspirował wiele zastosowań twórczych oraz jej wykorzystania do produkcji sztukę wizualną. Wystawa "Thinking Machines: Art and Design w Computer Age, 1959-1989" w MoMA zapewnia dobry przegląd historycznych zastosowań AI dla sztuki, architektury i wzornictwa. Ostatnie wystawy prezentujące wykorzystanie AI produkować sztukę obejmują Google sponsorowany korzyści i aukcji w Fundacji Grey Area w San Francisco, gdzie artyści eksperymentował z algorytmem deepdream i wystawy „nieludzki: Sztuka w epoce AI”, która odbyła miejsce w Los Angeles i Frankfurcie jesienią 2017. wiosną 2018 roku, Stowarzyszenie Computing Machinery poświęcony specjalny numer magazynu na temat komputerów i techniki podkreślając rolę uczenia maszynowego w sztuce.

Filozofia i etyka

Istnieją trzy filozoficzne pytania dotyczące AI:

  1. Jest silna sztuczna inteligencja to możliwe? Czy maszyna rozwiązać każdy problem, że człowiek może rozwiązać za pomocą inteligencji? Czy są twarde granice tego, co maszyna może osiągnąć?
  2. Są inteligentne maszyny są niebezpieczne? Jak możemy zapewnić, że maszyny zachowywać się etycznie i że są one stosowane w sposób etyczny?
  3. Czy maszyna posiada umysł , świadomość i stanów psychicznych w dokładnie tym samym sensie, że ludzie robią? Może być maszyną czującą , a tym samym zasługują na pewne prawa? Czy maszyna celowo zaszkodzić?

Granice silna sztuczna inteligencja

Czy maszyna być inteligentny? Może „myśleć”?

„Uprzejmy konwencji” Alana Turinga
Nie musimy zdecydować, czy maszyna może „myśleć”; my musimy zdecydować tylko wtedy, gdy maszyna może działać jako inteligentny jako istota ludzka. Takie podejście do filozoficznych problemów związanych ze sztuczną inteligencją tworzy podstawę testu Turinga .
Propozycja Dartmouth
„Każdy aspekt uczenia się lub jakakolwiek inna cecha inteligencji może być tak precyzyjnie opisane, że maszyna może być to zasymulować.” Ta hipoteza została wydrukowana w propozycji Konferencji Dartmouth 1956 roku i reprezentuje stanowisko większości naukowców pracujących AI.
Hipoteza fizycznego symbol system Newell i Simon za
„Fizyczny symbol system posiada niezbędne i wystarczające ogólnym inteligentnej działania”. Newell i Simon twierdzi, że inteligencja składa się z formalnych operacji na symbolach. Hubert Dreyfus argumentował, że wręcz przeciwnie, ludzka wiedza zależy od nieświadomego instynktu, a nie świadomej manipulacji symbolem i charakteryzujące się „czuć” za sytuację zamiast wyraźnej wiedzy symbolicznej. (Patrz krytykę Dreyfusa AI ).
gödlowskie argumenty
Gödel sam, John Lucas (1961) i Roger Penrose (w bardziej szczegółowej argumentacji od 1989 roku) wykonane argumenty wysoce technicznych, które człowieka matematycy może konsekwentnie zobaczyć prawdę o swoich „sprawozdania Gödel”, a więc posiadają zdolności obliczeniowych poza tym mechanicznych maszyny Turinga. Jednak współczesny konsensusu w społeczności naukowej i matematycznej jest to, że te „argumenty” gödlowskie zawieść.
Sztuczny mózg argumentem
Mózg może być symulowane przez maszyny i dlatego mózgi są inteligentne, symulowane mózg musi być inteligentny; zatem maszyny mogą być inteligentny. Hans Moravec , Ray Kurzweil i inni twierdzili, że jest to technicznie wykonalne, aby skopiować mózg bezpośrednio do sprzętu komputerowego i oprogramowania oraz że taka symulacja będzie zasadniczo identyczny z oryginałem.
Efekt AI
Maszyny są już inteligentny, ale obserwatorzy nie udało się go rozpoznać. Gdy Deep Blue pokonał Garry Kasparowa w szachach, maszyna działała inteligentnie. Jednak widzowie powszechnie dyskontować zachowania sztucznej inteligencji programu, twierdząc, że nie jest „prawdziwy” inteligencja mimo wszystko; więc „prawdziwy” inteligencja jest cokolwiek inteligentni ludzie zachowanie może zrobić, że maszyny nadal nie mogę. Jest to znane jako AI działania: „AI to co nie zostało jeszcze zrobione.”

potencjalne szkody

Szerokie zastosowanie sztucznej inteligencji może mieć niezamierzone konsekwencje , które są niebezpieczne lub niepożądane. Naukowcy z przyszłości Instytutu życia , między innymi, opisano kilka krótkoterminowych celów badawczych, aby zobaczyć, jak AI wpływa gospodarki, prawa i etyki, które są związane z AI i jak zminimalizować ryzyko związane z bezpieczeństwem AI. W dłuższej perspektywie, naukowcy zaproponowali, aby kontynuować funkcję optymalizacji, przy jednoczesnej minimalizacji ewentualnych zagrożeń bezpieczeństwa, które wraz z nowymi technologiami.

egzystencjalne ryzyko

Fizyk Stephen Hawking , Microsoft założyciel Bill Gates i SpaceX założyciel Elon Musk wyraziły zaniepokojenie możliwością, że AI może ewoluować do tego stopnia, że ludzie nie mogli go kontrolować, z Hawking teoretyzowanie, że może to „ oznaczać koniec ludzkości ”.

Rozwój pełnym sztucznej inteligencji mogłoby oznaczać koniec ludzkości. Raz ludzie rozwijać sztuczną inteligencję, zajmie się we własnym zakresie i przeprojektowanie się w coraz szybszym tempie. Ludzie, którzy są ograniczone przez powolnej ewolucji biologicznej, nie może konkurować i zostaną zastąpione.

W swojej książce superinteligencji , Nick Bostrom stanowi argument, że sztuczna inteligencja będzie stanowić zagrożenie dla ludzkości. Twierdzi on, że wystarczająco inteligentny AI, jeśli zdecyduje działań w oparciu o osiągnięcia jakiegoś celu, będzie wykazywać zbieżny zachowań, takich jak pozyskiwanie zasobów i zabezpieczania się przed zamknięty. Jeśli goli w tym AI nie odzwierciedlają humanity's-jeden przykład jest AI powiedział obliczyć jak najwięcej cyfr liczby pi, jak to możliwe, to może zaszkodzić ludzkości w celu uzyskania większej ilości zasobów lub zapobiec się przed zamknąć ostatecznie lepiej osiągnąć swój cel.

Zaniepokojenie zagrożone sztucznej inteligencji doprowadziło do niektórych darowizn głośnych i inwestycji. Grupa wybitnych tech tytanów tym Peter Thiel , Amazon Web Services i piżmo zobowiązały $ 1 mld do OpenAI , spółki non-profit, którego celem jest walka odpowiedzialnego rozwoju AI. W opinii ekspertów w dziedzinie sztucznej inteligencji jest mieszany z sizable frakcji zarówno przedmiotowych i beztroski przez zagrożone ewentualnym nadludzko-zdolnego AI. W styczniu 2015, Elon Musk zdobyłem dziesięć milionów dolarów na przyszłość Instytutu Życia do finansowania badań na zrozumieniu procesu decyzyjnego AI. Celem Instytutu jest „rosną mądrości, z którymi uda nam” rosnącą potęgę technologii. Piżmo finansuje również sztuczną inteligencję rozwijających się firm takich jak Google DeepMind i zastępczą „po prostu mieć oko na to, co dzieje się ze sztuczną inteligencją. Myślę, że jest potencjalnie niebezpiecznym efektem istnieje.”

W tym niebezpieczeństwo być zrealizowane, hipotetyczna AI musiałby pokonać lub out-myśleć całej ludzkości, której mniejszość eksperci twierdzą, jest możliwość na tyle daleko, aby w przyszłości nie być warta badania. Inne kontrargumenty krążą wokół ludzie są albo samoistnie lub zbieżnie cenne z perspektywy sztucznej inteligencji.

Dewaluacja ludzkości

Joseph Weizenbaum napisał, że aplikacje AI nie może, z definicji, z powodzeniem symulować prawdziwą ludzką empatię i że wykorzystanie technologii AI w dziedzinach, takich jak obsługa klienta lub psychoterapii był głęboko błędne. Weizenbaum też przeszkadzało, że naukowcy (AI) i niektórzy filozofowie byli gotowi, aby zobaczyć, jak ludzki umysł niczym więcej niż program komputerowy (pozycja jest obecnie znany jako computationalism ). Aby Weizenbaum punkty te sugerują, że badania AI dewaluuje życie ludzkie.

Spadek popytu na pracę ludzką

Zależność między automatyzacji i zatrudnienia jest skomplikowana. Chociaż automatyzacja eliminuje stare miejsca pracy, ale także tworzy nowe miejsca pracy poprzez skutki ekonomiczne i mikro-makro-ekonomicznych. W przeciwieństwie do poprzednich fal automatyzacji, wiele miejsc pracy klasy średniej mogą być wyeliminowane przez sztucznej inteligencji; The Economist stwierdza, że „obawia się, że AI może zrobić do pracy umysłowych co moc parowy zrobili te robotniczych podczas rewolucji przemysłowej” jest „warto poważnie”. Subiektywne szacunki ryzyka znacznie się różnią; na przykład Michael Osborne i Carl Benedikt Frey oszacować 47% miejsc pracy w USA są „wysokiego ryzyka” potencjalnej automatyzacji, podczas gdy raport OECD klasyfikuje tylko 9% miejsc pracy w USA jako „wysokiego ryzyka”. Praca w ekstremalnym zakresie ryzyka z paralegals pościć kucharzy żywności, podczas gdy popyt pracy prawdopodobnie wzrośnie do zawodów związanych z opieki, począwszy od osobistej opieki, do duchowieństwa. Autor Martin Ford i inni idą dalej i twierdzą, że duża liczba miejsc pracy są rutynowe, powtarzalne i (do AI) przewidywalne; Ford ostrzega, że te miejsca pracy mogą być zautomatyzowane w ciągu najbliższych kilku lat, i że wiele nowych miejsc pracy nie może być „dostępne dla osób o średniej zdolności”, nawet przy przekwalifikowaniu. Ekonomiści podkreślają, że w ubiegłym technologia ma tendencję do wzrostu, zamiast zmniejszenia całkowitego zatrudnienia, ale przyznają, że „jesteśmy w nieznane terytorium” z AI.

broń autonomiczne

Obecnie ponad 50 krajach są badania robotów walki, w tym w Stanach Zjednoczonych, Chinach, Rosji i Wielkiej Brytanii. Wiele zainteresowanych o ryzyku z superintelligent AI ludzie też chcą ograniczyć stosowanie sztucznych żołnierzy i trutni.

maszyny etyczne

Maszyny z inteligencji mają potencjał do korzystania z ich inteligencji, aby uniknąć szkód i minimalizacji ryzyka; mogą one mieć możliwość korzystania rozumowania etycznego lepiej wybrać swoje działania w świecie. Badania w tej dziedzinie obejmuje etykę maszynowe , sztuczne środki moralne i przyjazną AI .

Sztuczne środki moralne

Wendell Wallach wprowadził pojęcie sztucznymi środkami moralnymi (AMA) w swojej książce Machines moralne Dla Wallach, AMA stały się częścią krajobrazu badań sztucznej inteligencji, jak prowadzony przez jego dwóch głównych pytań, które określa jako „Czy ludzkość Chcesz Komputery Making Moral decyzje”i«Can (RO) boty być naprawdę moralnym». Dla Wallach pytanie nie skupia się na kwestii , czy maszyny mogą wykazać równowartość moralnego zachowania w przeciwieństwie do ograniczeń , które mogą wprowadzić społeczeństwo rozwoju AMA.

etyka maszyn

Pole etyki maszynowych dotyczy dając maszynom zasady etyczne, czy procedura odkrywając sposób rozwiązywać dylematy etyczne, które mogą napotkać, umożliwiając im działać w sposób etycznie odpowiedzialnej za pośrednictwem własnej etycznego podejmowania decyzji. Pole zostało wytyczone w AAAI jesienią 2005 Sympozjum na komputerze etyki: „Dotychczasowe badania dotyczące relacji między technologią i etyki w dużej mierze koncentruje się na odpowiedzialnym i nieodpowiedzialnego korzystania z technologii przez człowieka, ze kilka osób jest zainteresowany istot jak człowieka powinno się traktować maszyn. we wszystkich przypadkach tylko ludzie angażują się w argumentacji etycznej. nadszedł czas na dodanie wymiar etyczny, aby przynajmniej w niektórych maszynach. uznania konsekwencji etycznych zachowań obejmujących maszyny, jak również najnowsze i ewentualnych zmian w maszynie autonomia, wymagało to. w przeciwieństwie do włamania komputerowego, kwestii własności oprogramowania, kwestie prywatności i inne tematy zwykle przypisywanych etyki komputerowej, etyka maszyn jest zaniepokojony z zachowaniem maszyn wobec ludzkich użytkowników i innych maszyn. Badań etyki maszyna jest kluczem do łagodzenia obawy z autonomicznych systemów, można argumentować, że pojęcie autonomicznych maszyn bez takiego wymiar jest źródłem wszelkiego strachu dotyczącej wywiadu. Ponadto dochodzenie etyki maszyna może umożliwić wykrycie problemów z aktualnymi teoriami etycznymi, pogłębianie myślenia o etyce.”Etyka maszyna jest czasem określane jako moralności maszynowego, etyki obliczeniowych lub moralności obliczeniowej. Różnych perspektyw tego powstającego pola może być znalezione w zbiorowym wydaniu „Maszyna Etyki”, który wywodzi się z AAAI jesienią 2005 Sympozjum na maszynie etyki.

Złośliwy i przyjazny AI

Politolog Charles T. Rubin uważa, że AI nie może być ani zaprojektowany, ani gwarancją życzliwy. Twierdzi on, że „Każda wystarczająco zaawansowana życzliwość może być nie do odróżnienia od wrogości”. Ludzie nie powinni zakładać, maszyny lub roboty będą traktować nas przychylnie, ponieważ nie ma a priori powodu, aby sądzić, że będą sympatyczny do naszego systemu moralności, która rozwinęła się wraz z naszym konkretnym biologii (który AI nie akcję). Hyper-inteligentne oprogramowanie może niekoniecznie decydują się wspierać dalsze istnienie ludzkości i byłoby niezwykle trudne do zatrzymania. Ten temat został niedawno zaczęły być omawiane w publikacjach akademickich jako prawdziwe źródło zagrożenia dla cywilizacji, ludzi i planety Ziemi.

Jedną z propozycji radzenia sobie z tym jest, aby zapewnić, że pierwsza ogólnie inteligentny AI jest „ friendly AI ”, a następnie być w stanie kontrolować następnie rozwinięty AIS. Niektóre pytanie, czy tego rodzaju czeku naprawdę może pozostać na miejscu.

Prowadząc AI badacz Rodney Brooks pisze: „Myślę, że błędem jest się martwić nam rozwijanie złowrogą AI w dowolnym momencie w ciągu najbliższych stu lat. Myślę, że zmartwienie wynika z fundamentalnego błędu nie wyróżniając różnicę pomiędzy bardzo realne najnowszych osiągnięć w szczególnym aspekcie AI oraz ogrom i złożoność budowy czującą wolicjonalną inteligencji.”

maszyna świadomość, wrażliwość i umysł

Jeśli system AI replikuje wszystkie kluczowe aspekty ludzkiej inteligencji, że układ będzie również czującą -will mieć umysł , który ma świadome doświadczenia ? Kwestia ta jest ściśle związana z filozoficznego problemu co do natury ludzkiej świadomości, ogólnie określane jako trudnego problemu świadomości .

Świadomość

David Chalmers zidentyfikowano dwa problemy w zrozumieniu umysł, który nazwał „twarde” i „Easy” problemy świadomości. Łatwy problemem jest zrozumienie, w jaki sposób mózg przetwarza sygnały, sprawia, że plany i kontroluje zachowania. Twardy problem wyjaśniając, jak to czuje i dlaczego powinien czuć się jak nic w ogóle. Human przetwarzanie informacji jest łatwe do wyjaśnienia, jednak ludzka subiektywne doświadczenie jest trudne do wyjaśnienia.

Na przykład, rozważmy, co się dzieje, gdy osoba jest pokazany próbkę koloru i identyfikuje go, mówiąc: „to jest czerwony”. Łatwy problem wymaga jedynie zrozumienia maszyny w mózgu sprawia, że to możliwe, aby osoba wie, że próbka koloru jest czerwony. Twardy problemem jest to, że ludzie też wiedzieć coś innego, wiedzą też, co czerwone wygląda . (Uważają, że osoba urodzona ślepy może wiedzieć, że coś jest czerwony nie wiedząc, co czerwone wygląda.) Każdy wie, subiektywne doświadczenie istnieje, bo robią to na co dzień (np wszyscy widzący ludzie wiedzą, co wygląda jak czerwone). Twardy problemem wyjaśnia, w jaki sposób mózg tworzy go, dlaczego istnieje, i jak to jest inna niż wiedza i innych aspektów mózgu.

Computationalism i funkcjonalizm

Computationalism jest stanowisko w filozofii umysłu , że ludzki umysł lub ludzkiego mózgu (lub oba) jest systemem przetwarzania informacji i że myślenie jest formą przetwarzania. Computationalism twierdzi, że relacje między ciałem i umysłem jest podobne lub identyczne do relacji między oprogramowaniem i sprzętem, a zatem może być rozwiązanie problemu umysł-ciało . Ta pozycja filozoficzna była inspirowana przez pracę badaczy AI i naukowców poznawczych w 1960 roku i pierwotnie proponowane przez filozofów Jerry Fodor i Hilary Putnam .

Silne AI hipoteza

Stanowisko filozoficzne że John Searle nazwał „silna AI” stwierdza: „odpowiednio zaprogramowany komputer z odpowiednimi wejściami i wyjściami by w ten sposób mieć umysł w dokładnie tym samym sensie istoty ludzkie umysły.” Searle liczniki to twierdzenie ze swoim chińskim pokojowej argumentu, który prosi nas szukać wewnątrz komputera i spróbować znaleźć gdzie „umysł” może być.

prawa robotów

Jeśli maszyna może zostać utworzony, który ma inteligencji, to może również czuć ? Jeśli może czuć, to ma takie same prawa jak człowiek? Kwestia ta, obecnie znany jako „ praw robotów ”, jest obecnie uważana przez, na przykład, California Institute for the Future , choć wielu krytyków uważa, że dyskusja jest przedwczesna. Niektórzy krytycy transhumanizmu twierdzą, że wszelkie hipotetyczne prawa robotów będzie leżeć na widma z praw zwierząt i praw człowieka. Temat jest dogłębnie omówione w filmie dokumentalnym 2010 Plug & Pray .

superinteligencji

Czy ogranicza się, jak inteligentne maszyny albo hybrydy-człowiek-maszyna może być? Superinteligencji, hyperintelligence lub nadludzka inteligencja jest środkiem hipotetyczne które posiadają inteligencję daleko wyprzedzając że z najjaśniejszych i najbardziej uzdolnionego ludzkiego umysłu. Superinteligencji może również odnosić się do formy lub stopniem inteligencji posiadanych przez takiego przedstawiciela.

technologiczna osobliwość

Jeśli badania nad Strong AI produkowane wystarczająco inteligentne oprogramowanie, może być w stanie przeprogramować i poprawić się. Ulepszone oprogramowanie byłoby jeszcze lepiej na poprawę siebie, co prowadzi do rekurencyjnego samodoskonalenia . Nowa inteligencja mogłaby zatem wzrasta wykładniczo i znacznie przewyższają ludzi. Science fiction pisarz Vernor Vinge nazwał ten scenariusz „ osobliwość ”. Technologiczna osobliwość jest podczas przyspieszania postępu w technologii spowoduje zbiegłego efekt w którym sztuczna inteligencja będzie przekraczać ludzkie zdolności intelektualnych i kontroli, a tym samym radykalnie zmieniając lub nawet kończąc cywilizacji. Ponieważ możliwości takiej inteligencji mogą być niemożliwe do zrozumienia, osobliwość technologiczna jest występowanie poza które zdarzenia są nieprzewidywalne, a nawet niewyobrażalne.

Ray Kurzweil wykorzystał prawo Moore'a (który opisuje nieustające wykładniczy poprawę w technice cyfrowej), aby obliczyć, że komputery stacjonarne będą miały taką samą moc obliczeniową jak ludzki mózg do roku 2029, i przewiduje, że osobliwość nastąpi w 2045 r.

Transhumanizm

Robot projektant Hans Moravec , cyberneticist Kevin Warwick i wynalazca Ray Kurzweil przewidzieć, że ludzie i maszyny będą w przyszłości połączyć się cyborgi , które są bardziej zdolne i potężniejsza niż obaj. Idea ta, zwana transhumanizm , który ma korzenie w Aldousa Huxleya i Robert Ettinger .

Edward Fredkin twierdzi, że „sztuczna inteligencja jest kolejnym etapem w ewolucji”, pomysł po raz pierwszy zaproponowana przez Samuel Butler „s« Darwin wśród maszyn »(1863), a rozszerzony na przez George Dyson w swojej książce o tym samym tytule w 1998 roku.

W fikcji

Słowo „robot” sam został ukuty przez Karela Čapka w jego 1921 gry RUR tytuł stojący za „ Rossum Universal Robots

Przemyślana zdolny sztuczne istoty pojawił się jako urządzeń opowiadania od starożytności, a były trwałe tematem science fiction .

Częstym trop w tych prac rozpoczął się Mary Shelley „s Frankensteina , gdzie ludzkie stworzenie staje się zagrożeniem dla swoich panów. Obejmuje to takie prace jak Arthur C. Clarke'a i Stanleya Kubricka 2001: Odyseja kosmiczna (oba 1968), z HAL 9000 , komputer morderczej kierującego Discovery One kosmicznym, jak i Terminator (1984) i The Matrix (1999 ). W przeciwieństwie do tego, rzadkie wierny roboty takie jak Gort od Dzień którym zatrzymała się Ziemia (1951) i biskupa z Aliens (1986) są mniej widoczne w kulturze popularnej.

Isaac Asimov wprowadzenie etyka robotów w wielu książkach i historii, przede wszystkim „Multivac” serii o super-inteligentnego komputera o tej samej nazwie. Prawa Asimova są często wychowywane podczas laika dyskusji etyki maszynowych; podczas gdy niemal wszyscy badacze sztucznej inteligencji są zaznajomieni z przepisami prawa Asimova przez kulturę popularną, na ogół pod uwagę prawa bezużyteczne dla wielu powodów, z których jedna jest ich wieloznaczność.

Transhumanizm (zlewanie ludzi i maszyn) jest badane w mangi Ghost in the Shell i serii science-fiction Dune . W 1980 roku artysta Hajime Sorayama „s serii Sexy Roboty były malowane i opublikowane w Japonii przedstawiających rzeczywisty organiczną formę ludzką z realistycznych skórek mięśniowy metalicznych i późniejszych«The Gynoids»książki wynikało, że została wykorzystana przez lub pod wpływem filmowcy tym George Lucas i inne kreacje. Sorayama nigdy uznane za te roboty organiczne być prawdziwą częścią natury, ale zawsze nienaturalne wytworem ludzkiego umysłu, fantasy istniejący w umyśle nawet gdy realizowany w obecnej formie.

Liczne prace użyciu AI zmusić nas do konfrontacji z podstawowym pytaniem, co czyni nas ludźmi, pokazując nam sztuczne byty, które mają zdolność do odczuwania , a więc cierpieć. To wydaje się Karel Čapek „s« RUR »folie« AI Sztuczna inteligencja »i« Ex Machina », jak również powieść Czy androidy marzą o elektrycznych owcach? Przez Philipa K. Dicka . Dick uważa ideę, że nasze rozumienie ludzkiej podmiotowości ulega zmianie technologii stworzonej ze sztuczną inteligencją.

Zobacz też

Notatki wyjaśniające

Referencje

podręczniki AI

Historia AI

Innych źródeł

Dalsza lektura

Linki zewnętrzne