Sztuczna inteligencja ogólna - Artificial general intelligence

Sztuczna inteligencja ogólna ( AGI ) to hipotetyczna zdolność inteligentnego agenta do rozumienia lub uczenia się każdego zadania intelektualnego, jakie może wykonać człowiek . Jest to główny cel niektórych badań nad sztuczną inteligencją i wspólny temat w science fiction i studiach nad przyszłością . AGI można również określić jako silną sztuczną inteligencję , pełną sztuczną inteligencję lub ogólne inteligentne działanie (chociaż źródła akademickie zastrzegają termin „silna sztuczna inteligencja” dla programów komputerowych, które doświadczają świadomości lub świadomości ).

W przeciwieństwie do silnej sztucznej inteligencji, słaba sztuczna inteligencja lub „wąska sztuczna inteligencja” nie ma na celu posiadania ogólnych zdolności poznawczych ; raczej słaba sztuczna inteligencja to dowolny program, który ma rozwiązać dokładnie jeden problem. (Źródła akademickie rezerwują „słabą sztuczną inteligencję” dla programów, które nie doświadczają świadomości lub nie mają umysłu w tym samym sensie, co ludzie.)

Od 2017 r. ponad czterdzieści organizacji aktywnie bada AGI.

Charakterystyka

Zaproponowano różne kryteria inteligencji (najsłynniejszy test Turinga ), ale do tej pory nie ma definicji, która zadowalałaby wszystkich.

Inteligentne cechy

Jednak nie jest powszechna zgoda wśród badaczy sztucznej inteligencji, że inteligencja jest wymagane aby wykonać następujące czynności: przyczyny , strategii wykorzystania, rozwiązywać zagadki i osądów pod niepewności ; reprezentują wiedzę , w tym wiedzę zdroworozsądkową ; plan ; uczyć się ; komunikować się w języku naturalnym ; i zintegrować wszystkie te umiejętności w celu osiągnięcia wspólnych celów. Inne ważne zdolności obejmują zdolność wyczuwania (np. patrzenia ) oraz zdolność do działania (np. poruszania się i manipulowania obiektami ) w świecie, w którym obserwuje się inteligentne zachowanie. Obejmuje to zdolność do wykrywania zagrożeń i reagowania na nie . Wiele interdyscyplinarnych podejść do inteligencji (np. kognitywistyka , inteligencja obliczeniowa i podejmowanie decyzji ) kładzie nacisk na potrzebę uwzględnienia dodatkowych cech, takich jak wyobraźnia (rozumiana jako zdolność do tworzenia obrazów i pojęć mentalnych, które nie zostały zaprogramowane) i autonomia .

Systemy komputerowe, które wykazują wiele z tych możliwości, istnieją (np. patrz kreatywność obliczeniowa , automatyczne wnioskowanie , system wspomagania decyzji , robot , obliczenia ewolucyjne , inteligentny agent ), ale nikt nie stworzył zintegrowanego systemu, który wyróżnia się we wszystkich tych obszarach.

Testy potwierdzające AGI na poziomie ludzkim

Rozważono następujące testy potwierdzające AGI na poziomie ludzkim:

Test Turinga ( Turinga )
Maszyna i człowiek rozmawiają niewidzialni z drugim człowiekiem, który musi ocenić, który z nich jest maszyną, która zda egzamin, jeśli może oszukać oceniającego przez znaczną część czasu. Uwaga: Turing nie określa tego, co powinno kwalifikować się jako inteligencja, jedynie świadomość, że jest to maszyna, powinna ją dyskwalifikować.
Test Kawy ( Woźniak )
Maszyna jest wymagana, aby wejść do przeciętnego amerykańskiego domu i dowiedzieć się, jak zrobić kawę: znaleźć ekspres do kawy, znaleźć kawę, dodać wodę, znaleźć kubek i zaparzyć kawę, naciskając odpowiednie przyciski.
Test Robot College Student ( Goertzel )
Maszyna zapisuje się na uniwersytet, biorąc i zaliczając te same zajęcia, co ludzie i uzyskując stopień naukowy.
Test Zatrudnienia ( Nilsson )
Maszyna wykonuje ważną ekonomicznie pracę co najmniej tak samo dobrze, jak ludzie w tej samej pracy.

AI-kompletne problemy

Istnieje wiele indywidualnych problemów, które mogą wymagać ogólnej inteligencji, jeśli maszyny mają rozwiązywać problemy tak samo jak ludzie. Na przykład nawet konkretne proste zadania, takie jak tłumaczenie maszynowe , wymagają, aby maszyna czytała i pisała w obu językach ( NLP ), podążała za argumentacją autora ( powód ), wiedziała, o czym jest mowa ( wiedza ) i wiernie odtwarzała oryginał autora. zamiar ( inteligencja społeczna ). Wszystkie te problemy muszą być rozwiązywane jednocześnie, aby osiągnąć wydajność maszyny na poziomie człowieka.

Problem jest nieformalnie określany jako „AI-kompletny” lub „AI-trudny”, jeśli jego rozwiązanie jest równoważne z ogólną zdolnością ludzkiej inteligencji lub silną sztuczną inteligencją i wykracza poza możliwości algorytmu określonego celu. Przypuszcza się, że problemy związane ze sztuczną inteligencją obejmują ogólne widzenie komputerowe , rozumienie języka naturalnego i radzenie sobie z nieoczekiwanymi okolicznościami podczas rozwiązywania każdego rzeczywistego problemu.

Problemów związanych ze sztuczną inteligencją nie da się rozwiązać wyłącznie za pomocą obecnej technologii komputerowej i wymagają one obliczeń wykonywanych przez człowieka . Ta właściwość może być użyteczna, na przykład, do testowania obecności ludzi, do czego służą CAPTCHA ; oraz bezpieczeństwa komputerowego w celu odpierania ataków siłowych .

Historia

Klasyczna sztuczna inteligencja

Nowoczesne badania nad sztuczną inteligencją rozpoczęły się w połowie lat pięćdziesiątych. Pierwsze pokolenie badaczy sztucznej inteligencji było przekonane, że sztuczna inteligencja ogólna jest możliwa i że będzie istnieć za kilkadziesiąt lat. Pionier AI, Herbert A. Simon, napisał w 1965 r.: „W ciągu dwudziestu lat maszyny będą w stanie wykonać każdą pracę, jaką może wykonać człowiek”. Ich przewidywania były inspiracją dla postaci HAL 9000 Stanleya Kubricka i Arthura C. Clarke'a , którzy ucieleśniali to , co badacze AI mogli stworzyć do roku 2001 . Pionier AI Marvin Minsky był konsultantem w projekcie uczynienia HAL 9000 tak realistycznym jak możliwe zgodnie z przewidywaniami konsensusu czasu; Crevier cytuje jego wypowiedź na ten temat w 1967 r.: „W ciągu jednego pokolenia… problem tworzenia »sztucznej inteligencji« zostanie zasadniczo rozwiązany”.

Kilka klasyczne projekty AI , takie jak Doug Lenat jest Cyc projektu (które rozpoczęły się w 1984 roku), oraz Allen Newell 'S wznieść projektu zostały skierowane szczególnie na AGI.

Jednak na początku lat 70. i ponownie na początku lat 90. stało się oczywiste, że naukowcy rażąco nie docenili trudności projektu. Agencje finansujące stały się sceptyczne wobec AGI i wywierały coraz większą presję na badaczy, aby tworzyli użyteczną „stosowaną sztuczną inteligencję”. Na początku lat 80. japoński projekt komputerowy piątej generacji ożywił zainteresowanie AGI, wyznaczając dziesięcioletni harmonogram, który obejmował cele AGI, takie jak „prowadzenie swobodnej rozmowy”. W odpowiedzi na to i sukces systemów eksperckich zarówno przemysł, jak i rząd wpompowały pieniądze z powrotem w teren. Jednak zaufanie do sztucznej inteligencji spektakularnie załamało się pod koniec lat 80., a cele projektu komputerowego piątej generacji nigdy nie zostały spełnione. Po raz drugi w ciągu 20 lat naukowcy zajmujący się sztuczną inteligencją, którzy przewidywali rychłe osiągnięcie AGI, wykazali się fundamentalnym błędem. W latach 90. naukowcy zajmujący się sztuczną inteligencją zdobyli reputację składających próżne obietnice. Stali się niechętni do robienia przewidywań i unikania jakichkolwiek wzmianek o sztucznej inteligencji „na poziomie ludzkim” w obawie, że zostaną nazwani „dzikookimi marzycielami”.

Wąskie badania AI

W latach 90. i na początku XXI wieku sztuczna inteligencja głównego nurtu osiągnęła znacznie większy sukces komercyjny i akademicki szacunek, koncentrując się na konkretnych podproblemach, w których mogą generować weryfikowalne wyniki i zastosowania komercyjne, takie jak sztuczne sieci neuronowe i statystyczne uczenie maszynowe . Te systemy „stosowanej sztucznej inteligencji” są obecnie szeroko stosowane w branży technologicznej, a badania w tym zakresie są bardzo mocno finansowane zarówno w środowisku akademickim, jak i przemysłowym. Obecnie rozwój w tej dziedzinie jest uważany za wschodzący trend, a dojrzałość ma nastąpić za ponad 10 lat.

Większość badaczy sztucznej inteligencji głównego nurtu ma nadzieję, że silną sztuczną inteligencję można rozwinąć poprzez połączenie programów, które rozwiązują różne podproblemy. Hans Moravec pisał w 1988 roku:

„Jestem przekonany, że ta oddolna droga do sztucznej inteligencji pewnego dnia spotka się z tradycyjną odgórną drogą w ponad połowie, gotowa zapewnić kompetencje w świecie rzeczywistym i wiedzę zdroworozsądkową , która była tak frustrująco nieuchwytna w programach rozumowania. Całkowicie inteligentne maszyny powstaną, gdy metaforyczny złoty kolec będzie napędzany przez połączenie tych dwóch wysiłków”.

Jednak nawet ta fundamentalna filozofia została zakwestionowana; na przykład Stevan Harnad z Princeton zakończył swoją pracę z 1990 roku na temat Hipotezy Ugruntowania Symbolu , stwierdzając:

„Często wyrażano oczekiwanie, że podejście „odgórne” (symboliczne) do modelowania poznania w jakiś sposób spotka się z podejściami „oddolnymi” (sensorycznymi). beznadziejnie modularny i tak naprawdę istnieje tylko jedna realna droga od sensu do symboli: od podstaw. Swobodny poziom symboliczny, taki jak poziom oprogramowania komputera, nigdy nie zostanie osiągnięty tą drogą (lub odwrotnie) – ani nie jest to jasne dlaczego mielibyśmy nawet próbować osiągnąć taki poziom, ponieważ wygląda na to, że dotarcie tam oznaczałoby wykorzenienie naszych symboli z ich wewnętrznych znaczeń (w ten sposób po prostu zredukowanie siebie do funkcjonalnego odpowiednika programowalnego komputera).

Nowoczesne badania sztucznej inteligencji ogólnej

Termin „sztuczna inteligencja ogólna” został użyty już w 1997 roku przez Marka Gubruda w dyskusji na temat implikacji w pełni zautomatyzowanej produkcji i operacji wojskowych. Termin ten został ponownie wprowadzony i spopularyzowany przez Shane Legga i Bena Goertzela około 2002 roku. Działalność badawcza AGI w 2006 roku została opisana przez Pei Wanga i Bena Goertzela jako „tworzenie publikacji i wstępnych wyników”. Pierwsza letnia szkoła w AGI została zorganizowana w Xiamen w Chinach w 2009 roku przez Laboratorium Sztucznego Mózgu Uniwersytetu Xiamen i OpenCog. Pierwszy kurs uniwersytecki został przeprowadzony w 2010 i 2011 roku na Uniwersytecie Plovdiv w Bułgarii przez Todora Arnaudova. MIT zaprezentował kurs AGI w 2018 roku, zorganizowany przez Lexa Fridmana i z udziałem wielu wykładowców gościnnych.

Jednak jak dotąd większość badaczy sztucznej inteligencji poświęca niewiele uwagi AGI, a niektórzy twierdzą, że inteligencja jest zbyt złożona, aby można ją było całkowicie powielić w najbliższym czasie. Jednak niewielka liczba informatyków jest aktywna w badaniach nad AGI, a wielu z tej grupy bierze udział w serii konferencji AGI . Badania są niezwykle różnorodne i często pionierskie.

Skale czasowe: We wstępie do swojej książki z 2006 r. Goertzel mówi, że szacunkowe czasy potrzebne do zbudowania prawdziwie elastycznego AGI wahają się od 10 lat do ponad wieku, ale konsensus z 2007 r. w społeczności badawczej AGI wydaje się być taki, że omawiana oś czasu przez Ray Kurzweil w The Singularity is Near (czyli między 2015 i 2045) jest wiarygodny. - Jednak badacze sztucznej inteligencji głównego nurtu wydali wiele opinii na temat tego, czy postęp będzie tak szybki. Metaanaliza 95 takich opinii z 2012 r. wykazała stronniczość w przewidywaniu, że początek AGI nastąpi w ciągu 16–26 lat zarówno w przypadku prognoz współczesnych, jak i historycznych. Później okazało się, że w zbiorze danych niektórzy eksperci byli nieeksperci i vice versa.

Organizacje wyraźnie dążące do AGI obejmują szwajcarskie laboratorium AI IDSIA , Nnaisense, Vicarious , Maluuba , OpenCog Foundation , Adaptive AI, LIDA i Numenta oraz powiązany Redwood Neuroscience Institute . Ponadto utworzono organizacje takie jak Machine Intelligence Research Institute i OpenAI , aby wpływać na ścieżkę rozwoju AGI. Wreszcie projekty takie jak Human Brain Project mają na celu zbudowanie funkcjonującej symulacji ludzkiego mózgu. Ankieta AGI z 2017 r. podzieliła czterdzieści pięć znanych „aktywnych projektów badawczo-rozwojowych”, które bezpośrednio lub pośrednio (poprzez opublikowane badania) badają AGI, przy czym największe trzy to DeepMind , Human Brain Project i OpenAI .

W 2017 r. Ben Goertzel założył platformę AI SingularityNET w celu ułatwienia demokratycznej, zdecentralizowanej kontroli nad AGI, gdy nadejdzie.

W 2017 roku badacze Feng Liu, Yong Shi i Ying Liu przeprowadzili testy inteligencji na publicznie dostępnej i powszechnie dostępnej słabej sztucznej inteligencji, takiej jak Google AI czy Siri firmy Apple i inne. Maksymalnie te AI osiągnęły wartość IQ około 47, co odpowiada mniej więcej sześcioletniemu dziecku w pierwszej klasie. Osoba dorosła ma średnio około 100 lat. Podobne testy przeprowadzono w 2014 roku, a wynik IQ osiągnął maksymalną wartość 27.

W 2019 roku programista gier wideo i inżynier lotniczy John Carmack ogłosił plany badań nad AGI.

W 2020 roku OpenAI opracowało GPT-3 , model językowy zdolny do wykonywania wielu różnorodnych zadań bez specjalnego szkolenia. Według Gary'ego Grossmana w artykule VentureBeat , chociaż istnieje konsensus, że GPT-3 nie jest przykładem AGI, niektórzy uważają go za zbyt zaawansowany, aby można go było zaklasyfikować jako wąski system AI. W tym samym roku Jason Rohrer wykorzystał swoje konto GPT-3 do stworzenia chatbota i udostępnił platformę do rozwoju chatbota o nazwie „Project December”. OpenAI poprosił o zmiany w chatbocie, aby były zgodne z ich wytycznymi dotyczącymi bezpieczeństwa; Rohrer odłączył Project December od API GPT-3.

Symulacja mózgu

Emulacja całego mózgu

Popularnym omawianym podejściem do osiągania ogólnego inteligentnego działania jest emulacja całego mózgu . Niskopoziomowy model mózgu jest budowany przez skanowanie i szczegółowe mapowanie mózgu biologicznego i kopiowanie jego stanu do systemu komputerowego lub innego urządzenia obliczeniowego. Komputer uruchamia model symulacyjny tak wierny oryginałowi, że będzie się zachowywał zasadniczo tak samo, jak oryginalny mózg, lub dla wszystkich praktycznych celów, nie do odróżnienia. Emulacja całego mózgu jest omawiana w neuronauce obliczeniowej i neuroinformatyce w kontekście symulacji mózgu do celów badań medycznych. Jest omawiany w badaniach nad sztuczną inteligencją jako podejście do silnej sztucznej inteligencji. Technologie neuroobrazowania , które mogą dostarczyć niezbędnego szczegółowego zrozumienia, szybko się poprawiają, a futurysta Ray Kurzweil w książce The Singularity Is Near przewiduje, że mapa o wystarczającej jakości stanie się dostępna w podobnej skali czasowej do wymaganej mocy obliczeniowej.

Wczesne szacunki

Szacunki, ile mocy obliczeniowej potrzeba do emulacji ludzkiego mózgu na różnych poziomach (od Raya Kurzweila, Andersa Sandberga i Nicka Bostroma ), wraz z najszybszym superkomputerem z TOP500 zmapowanym przez rok. Zwróć uwagę na skalę logarytmiczną i wykładniczą linię trendu, która zakłada, że ​​zdolność obliczeniowa podwaja się co 1,1 roku. Kurzweil uważa, że ​​przesyłanie umysłu będzie możliwe podczas symulacji neuronowej, podczas gdy raport Sandberg, Bostrom jest mniej pewny tego, gdzie powstaje świadomość .

Do symulacji mózgu na niskim poziomie wymagany byłby niezwykle potężny komputer. Ludzki mózg ma ogromną liczbę synaps . Każdy z 10 11 (sto miliardów) neuronów ma średnio 7000 połączeń synaptycznych (synaps) z innymi neuronami. Szacuje się, że mózg trzyletniego dziecka ma około 10-15 synaps (1 biliard). Liczba ta spada wraz z wiekiem, stabilizując się wraz z dorosłością. Szacunki różnią się dla osoby dorosłej, od 10 14 do 5 × 10 14 synaps (100 do 500 bilionów). Szacunkowa moc przetwarzania mózgu, oparta na prostym modelu przełącznika aktywności neuronów, wynosi około 10 14 (100 bilionów) aktualizacji synaptycznych na sekundę ( SUPS ). W 1997 roku Kurzweil przyjrzał się różnym szacunkom sprzętu wymaganego do zrównania się z ludzkim mózgiem i przyjął liczbę 10 16 obliczeń na sekundę (cps). (Dla porównania, jeśli „obliczeń” było równoznaczne z jednym „ operacji zmiennoprzecinkowej ” - środek stosowany do Oceńbieżący superkomputerów - wówczas 10 16 „obliczenia” byłoby równoznaczne z 10 petaflopów , osiągniętych w 2011 roku ). Wykorzystał tę liczbę, aby przewidzieć, że niezbędny sprzęt będzie dostępny w latach 2015-2025, jeśli wykładniczy wzrost mocy komputerów w momencie pisania będzie kontynuowany.

Bardziej szczegółowe modelowanie neuronów

Model sztucznego neuronu przyjęty przez Kurzweila i używany w wielu obecnych implementacjach sztucznych sieci neuronowych jest prosty w porównaniu z neuronami biologicznymi . Symulacja mózgu prawdopodobnie musiałaby uchwycić szczegółowe zachowanie komórkowe neuronów biologicznych , obecnie rozumiane tylko w najszerszych zarysach. Narzut wprowadzony przez pełne modelowanie biologicznych, chemicznych i fizycznych szczegółów zachowania neuronów (zwłaszcza w skali molekularnej) wymagałby mocy obliczeniowych o kilka rzędów wielkości większych niż szacunki Kurzweila. Ponadto szacunki nie uwzględniają komórek glejowych , które są co najmniej tak liczne jak neurony i które mogą przewyższać liczbę neuronów nawet o 10:1, a obecnie wiadomo, że odgrywają rolę w procesach poznawczych.

Obecne badania

Istnieje kilka projektów badawczych, które badają symulację mózgu przy użyciu bardziej wyrafinowanych modeli neuronowych, zaimplementowanych w konwencjonalnych architekturach obliczeniowych. Projekt systemu sztucznej inteligencji wdrożył symulacje „mózgu” w czasie rzeczywistym (z 10 11 neuronami) w 2005 roku. Zajęło 50 dni na klastrze 27 procesorów, aby zasymulować 1 sekundę modelu. Niebieski Mózg projekcie wykorzystano jeden z najszybszych superkomputerów architektury na świecie, IBM „s Blue Gene platformę do tworzenia symulacji w czasie rzeczywistym z jednego szczura kory nowej kolumny składającej się z około 10000 neuronów i 10 8 synaps w 2006. długoterminowa celem jest zbudowanie szczegółowej, funkcjonalnej symulacji procesów fizjologicznych zachodzących w ludzkim mózgu: „Nie jest niemożliwe zbudowanie ludzkiego mózgu i możemy to zrobić za 10 lat” – powiedział w 2009 roku Henry Markram , dyrektor projektu Blue Brain Project. na konferencji TED w Oksfordzie. Pojawiły się również kontrowersyjne twierdzenia, że ​​symulowano mózg kota . Zaproponowano interfejsy neuro-krzemowe jako alternatywną strategię wdrażania, która może być lepiej skalowana.

Hans Moravec odniósł się do powyższych argumentów („mózgi są bardziej skomplikowane”, „neurony muszą być modelowane bardziej szczegółowo”) w swoim artykule z 1997 r. „Kiedy sprzęt komputerowy będzie pasował do ludzkiego mózgu?”. Zmierzył zdolność istniejącego oprogramowania do symulacji funkcjonalności tkanki nerwowej, w szczególności siatkówki. Jego wyniki nie zależą od liczby komórek glejowych ani od tego, jakie rodzaje przetwarzania neuronów i gdzie wykonują.

Faktyczna złożoność modelowania neuronów biologicznych została zbadana w projekcie OpenWorm , którego celem była pełna symulacja robaka, który ma tylko 302 neurony w swojej sieci neuronowej (łącznie około 1000 komórek). Sieć neuronowa zwierzęcia została dobrze udokumentowana przed rozpoczęciem projektu. Jednak, choć na początku zadanie wydawało się proste, modele oparte na generycznej sieci neuronowej nie działały. Obecnie wysiłki skupiają się na precyzyjnej emulacji neuronów biologicznych (częściowo na poziomie molekularnym), ale rezultatu nie można jeszcze nazwać całkowitym sukcesem. Nawet jeśli liczba problemów do rozwiązania w modelu w skali ludzkiego mózgu nie jest proporcjonalna do liczby neuronów, ilość pracy na tej ścieżce jest oczywista.

Krytyka podejść opartych na symulacji

Fundamentalna krytyka podejścia symulowanego mózgu wywodzi się z ucieleśnionego poznania, w którym ludzkie ucieleśnienie jest traktowane jako istotny aspekt ludzkiej inteligencji. Wielu badaczy uważa, że ​​ucieleśnienie jest niezbędne do ugruntowania znaczenia. Jeśli ten pogląd jest słuszny, każdy w pełni funkcjonalny model mózgu będzie musiał obejmować więcej niż tylko neurony (tj. ciało robota). Goertzel proponuje wirtualne wcielenie (jak w Second Life ), ale nie wiadomo jeszcze, czy to wystarczy.

Komputery stacjonarne wykorzystujące mikroprocesory zdolne do ponad 10 9 cps (niestandardowym jednostki Kurzweil za „obliczeń na sekundę”, patrz wyżej) są dostępne od roku 2005. Według szacunków moc mózgu używanych przez Kurzweil (i Moravec), to komputer powinien być może wspierać symulację mózgu pszczoły, ale pomimo pewnego zainteresowania taka symulacja nie istnieje. Są tego co najmniej trzy powody:

  1. Model neuronowy wydaje się być nadmiernie uproszczony (patrz następna sekcja).
  2. Nie ma wystarczającego zrozumienia wyższych procesów poznawczych, aby dokładnie ustalić, z czym koreluje aktywność neuronalna mózgu, obserwowana przy użyciu technik takich jak funkcjonalne obrazowanie rezonansem magnetycznym .
  3. Nawet jeśli nasze rozumienie procesów poznawczych wystarczająco się rozwinie, wczesne programy symulacyjne będą prawdopodobnie bardzo nieefektywne i dlatego będą wymagały znacznie więcej sprzętu.
  4. Mózg organizmu, choć krytyczny, może nie być odpowiednią granicą dla modelu poznawczego. Aby zasymulować mózg pszczoły, może być konieczne symulowanie ciała i środowiska. Teza o Umyśle Rozszerzonym formalizuje koncepcję filozoficzną, a badania nad głowonogami wykazały wyraźne przykłady zdecentralizowanego systemu.

Ponadto skala ludzkiego mózgu nie jest obecnie dobrze ograniczona. Według szacunków ludzki mózg ma około 100 miliardów neuronów i 100 bilionów synaps. Inne szacunki mówią o 86 miliardach neuronów, z których 16,3 miliarda znajduje się w korze mózgowej, a 69 miliardów w móżdżku . Synapsy komórek glejowych nie są obecnie określane ilościowo, ale wiadomo, że są niezwykle liczne.

perspektywa filozoficzna

„Silna sztuczna inteligencja” zdefiniowana w filozofii

W 1980 roku filozof John Searle ukuł termin „silna sztuczna inteligencja” jako część swojego chińskiego argumentu pokojowego . Chciał rozróżnić dwie różne hipotezy dotyczące sztucznej inteligencji:

  • Silna hipoteza AI : system sztucznej inteligencji może „myśleć”, mieć „umysł” i „świadomość”.
  • Słaba hipoteza AI : system sztucznej inteligencji może (tylko) działać tak , jak myśli i ma umysł i świadomość.

Pierwszą nazwał „silną”, ponieważ stanowi mocniejsze stwierdzenie: zakłada, że ​​z maszyną wydarzyło się coś wyjątkowego, co wykracza poza wszystkie jej możliwości, które możemy przetestować – zachowanie maszyny ze „słabą sztuczną inteligencją” byłoby dokładnie takie samo, jak maszyna „silnej sztucznej inteligencji”, ale ta druga miałaby również subiektywne świadome doświadczenie. To użycie jest również powszechne w akademickich badaniach nad sztuczną inteligencją i podręcznikach.

Sztuczna inteligencja głównego nurtu interesuje się tylko zachowaniem programu . Według Russella i Norviga „tak długo, jak program działa, nie obchodzi ich, czy nazwiesz to rzeczywistym, czy symulacją”. Jeśli program może zachowywać się tak, jakby miał umysł, to nie ma potrzeby wiedzieć, czy rzeczywiście ma umysł – w rzeczywistości nie byłoby sposobu, aby to stwierdzić. W przypadku badań nad sztuczną inteligencją „hipoteza słabej sztucznej inteligencji” Searle'a jest równoznaczna ze stwierdzeniem „możliwa jest sztuczna inteligencja ogólna”. Tak więc, według Russella i Norviga, „większość badaczy sztucznej inteligencji przyjmuje hipotezę słabej sztucznej inteligencji za pewnik i nie przejmuje się hipotezą silnej sztucznej inteligencji”. Tak więc w akademickich badaniach nad sztuczną inteligencją „silna sztuczna inteligencja” i „AGI” to dwie bardzo różne rzeczy.

W przeciwieństwie do Searle i głównego nurtu sztucznej inteligencji, niektórzy futuryści, tacy jak Ray Kurzweil, używają terminu „silna sztuczna inteligencja” do „sztucznej ogólnej inteligencji na poziomie człowieka”. To nie to samo, co silna sztuczna inteligencja Searle'a , chyba że założysz, że świadomość jest niezbędna dla AGI na poziomie człowieka. Filozofowie akademiccy, tacy jak Searle, nie wierzą, że tak jest, a badacze sztucznej inteligencji nie przejmują się tym.

Świadomość

Oprócz inteligencji istnieją inne aspekty ludzkiego umysłu, które są istotne dla koncepcji silnej sztucznej inteligencji, która odgrywa ważną rolę w science fiction i etyce sztucznej inteligencji :

Cechy te mają wymiar moralny, ponieważ maszyna z taką formą silnej AI może posiadać prawa analogiczne do praw zwierząt nie będących ludźmi . W związku z tym przeprowadzono wstępne prace nad podejściami do integracji w pełni agentów etycznych z istniejącymi ramami prawnymi i społecznymi. Podejścia te skupiały się na sytuacji prawnej i prawach „silnej” sztucznej inteligencji. Bill Joy przekonuje m.in., że maszyna o tych cechach może stanowić zagrożenie dla ludzkiego życia lub godności.

Pozostaje wykazać, czy którakolwiek z tych cech jest niezbędna dla silnej sztucznej inteligencji. Rola świadomości nie jest jasna i obecnie nie ma uzgodnionego testu na jej obecność. Jeśli maszyna jest zbudowana z urządzeniem, które symuluje neuronowe korelaty świadomości , czy automatycznie będzie miała samoświadomość? Możliwe jest również, że niektóre z tych właściwości, takie jak świadomość, w naturalny sposób wyłaniają się z w pełni inteligentnej maszyny. Możliwe też, że przypisywanie tych właściwości maszynom stanie się naturalne, gdy zaczną działać w sposób wyraźnie inteligentny.

Badania nad sztuczną świadomością

Chociaż rola świadomości w silnej AI/AGI jest dyskusyjna, wielu badaczy AGI uważa badania, które badają możliwości wdrażania świadomości, za istotne. We wczesnych staraniach Igor Aleksander twierdził, że zasady tworzenia świadomej maszyny już istniały, ale wyszkolenie takiej maszyny do rozumienia języka zajęłoby czterdzieści lat .

Możliwe wyjaśnienia powolnego postępu badań nad sztuczną inteligencją

Od rozpoczęcia badań nad sztuczną inteligencją w 1956 r. rozwój tej dziedziny z czasem spowolnił i zablokował cele tworzenia maszyn zdolnych do inteligentnego działania na poziomie ludzkim. Możliwym wyjaśnieniem tego opóźnienia jest to, że komputery nie mają wystarczającego zakresu pamięci lub mocy obliczeniowej. Ponadto stopień złożoności, jaki łączy się z procesem badań AI, może również ograniczać postęp badań nad AI.

Podczas gdy większość badaczy sztucznej inteligencji wierzy, że silną sztuczną inteligencję można osiągnąć w przyszłości, są osoby, takie jak Hubert Dreyfus i Roger Penrose, którzy zaprzeczają możliwości osiągnięcia silnej sztucznej inteligencji. John McCarthy był jednym z różnych informatyków, którzy wierzą, że sztuczna inteligencja na poziomie człowieka zostanie osiągnięta, ale daty nie można dokładnie przewidzieć.

Ograniczenia koncepcyjne to kolejny możliwy powód spowolnienia badań nad sztuczną inteligencją. Badacze sztucznej inteligencji mogą być zmuszeni do zmodyfikowania ram koncepcyjnych swojej dyscypliny, aby zapewnić silniejszą podstawę i wkład w dążenie do osiągnięcia silnej sztucznej inteligencji. Jak pisał William Clocksin w 2003 roku: „rama zaczyna się od obserwacji Weizenbauma, że ​​inteligencja przejawia się tylko w odniesieniu do określonych kontekstów społecznych i kulturowych”.

Co więcej, badacze sztucznej inteligencji byli w stanie stworzyć komputery, które mogą wykonywać zadania, które są dla ludzi skomplikowane, takie jak matematyka, ale odwrotnie, mieli trudności z opracowaniem komputera zdolnego do wykonywania zadań, które są proste do wykonania dla ludzi. takie jak chodzenie ( paradoks Moraveca ). Problem opisany przez Davida Gelerntera polega na tym, że niektórzy ludzie zakładają, że myślenie i rozumowanie są równoważne. Jednak pomysł, czy myśli i twórca tych myśli są odosobnieni, zaintrygował badaczy sztucznej inteligencji.

Problemy, które napotkano w badaniach nad sztuczną inteligencją w ciągu ostatnich dziesięcioleci, dodatkowo hamowały rozwój sztucznej inteligencji. Nieudane prognozy obiecane przez badaczy sztucznej inteligencji i brak pełnego zrozumienia ludzkich zachowań pomogły zmniejszyć pierwotną ideę sztucznej inteligencji na poziomie człowieka. Chociaż postęp w badaniach nad sztuczną inteligencją przyniósł zarówno poprawę, jak i rozczarowanie, większość badaczy wykazała optymizm co do potencjalnego osiągnięcia celu AI w XXI wieku.

Zaproponowano inne możliwe przyczyny długich badań nad postępem silnej sztucznej inteligencji. Złożoność problemów naukowych i potrzeba pełnego zrozumienia ludzkiego mózgu poprzez psychologię i neurofizjologię ograniczyły wielu badaczy w naśladowaniu funkcji ludzkiego mózgu w sprzęcie komputerowym. Wielu badaczy ma tendencję do niedoceniania jakichkolwiek wątpliwości związanych z przewidywaniami AI w przyszłości, ale bez poważnego potraktowania tych problemów ludzie mogą przeoczyć rozwiązania problematycznych pytań.

Clocksin twierdzi, że ograniczeniem pojęciowym, które może hamować postęp badań nad sztuczną inteligencją, jest to, że ludzie mogą używać niewłaściwych technik w programach komputerowych i wdrażaniu sprzętu. Kiedy badacze AI po raz pierwszy zaczęli dążyć do celu, jakim jest sztuczna inteligencja, głównym zainteresowaniem było ludzkie rozumowanie. Badacze mieli nadzieję na stworzenie modeli obliczeniowych ludzkiej wiedzy poprzez rozumowanie i dowiedzenie się, jak zaprojektować komputer z określonym zadaniem poznawczym.

Praktyka abstrakcji, którą ludzie mają tendencję do redefiniowania podczas pracy z określonym kontekstem badawczym, pozwala badaczom skoncentrować się na zaledwie kilku pojęciach. Najbardziej produktywne wykorzystanie abstrakcji w badaniach nad sztuczną inteligencją pochodzi z planowania i rozwiązywania problemów. Chociaż celem jest zwiększenie szybkości obliczeń, rola abstrakcji rodzi pytania o zaangażowanie operatorów abstrakcji.

Możliwy powód spowolnienia AI wiąże się z uznaniem przez wielu badaczy AI, że heurystyka jest sekcją, która zawiera znaczące naruszenie między wydajnością komputera a wydajnością człowieka. Specyficzne funkcje, które są zaprogramowane na komputerze, mogą być w stanie uwzględnić wiele wymagań, które pozwalają mu dopasować ludzką inteligencję. Te wyjaśnienia niekoniecznie muszą być podstawowymi przyczynami opóźnienia w osiągnięciu silnej sztucznej inteligencji, ale są powszechnie zgadzane przez wielu badaczy.

Było wielu badaczy AI, którzy debatowali nad pomysłem, czy maszyny powinny być tworzone z emocjami . W typowych modelach sztucznej inteligencji nie ma emocji, a niektórzy badacze twierdzą, że zaprogramowanie emocji w maszynach pozwala im mieć własny umysł. Emocja podsumowuje doświadczenia ludzi, ponieważ pozwala im je zapamiętać. David Gelernter pisze: „Żaden komputer nie będzie kreatywny, jeśli nie będzie w stanie symulować wszystkich niuansów ludzkich emocji”. Ta troska o emocje przysporzyła problemów badaczom AI i łączy się z koncepcją silnej sztucznej inteligencji w miarę postępu badań w przyszłości.

Kontrowersje i zagrożenia

Wykonalność

Od sierpnia 2020 r. AGI pozostaje spekulacją, ponieważ nie zademonstrowano jeszcze takiego systemu. Opinie różnią się zarówno co do tego, czy i kiedy w ogóle pojawi się sztuczna inteligencja. Z jednej strony pionier sztucznej inteligencji Herbert A. Simon spekulował w 1965 r.: „maszyny będą w stanie w ciągu dwudziestu lat wykonać każdą pracę, jaką może wykonać człowiek”. Jednak ta prognoza się nie sprawdziła. Współzałożyciel Microsoftu, Paul Allen, uważał, że taka inteligencja jest mało prawdopodobna w XXI wieku, ponieważ wymagałaby „nieprzewidywalnych i zasadniczo nieprzewidywalnych przełomów” i „naukowo głębokiego zrozumienia poznania”. Pisząc w The Guardian , robotyk Alan Winfield twierdził, że przepaść między nowoczesnymi obliczeniami a sztuczną inteligencją na poziomie człowieka jest tak szeroka, jak przepaść między obecnymi lotami kosmicznymi a praktycznymi lotami kosmicznymi szybszymi od światła.

Poglądy ekspertów AI na temat wykonalności wosku i zaniku AGI, które mogły się odrodzić w latach 2010-tych. Cztery sondaże przeprowadzone w latach 2012 i 2013 sugerowały, że mediana przewidywań wśród ekspertów, kiedy będą mieli 50% pewności, że AGI pojawi się, wynosiła od 2040 do 2050, w zależności od sondażu, przy średniej wynoszącej 2081. Spośród ekspertów 16,5% odpowiedziało: „ nigdy”, gdy zadano to samo pytanie, ale z 90% pewnością. Dalsze aktualne rozważania dotyczące postępu AGI można znaleźć poniżej Testy potwierdzające AGI na poziomie ludzkim .

Potencjalne zagrożenie dla ludzkiej egzystencji

Teza, że ​​sztuczna inteligencja stanowi zagrożenie egzystencjalne i że ryzyko to wymaga znacznie większej uwagi niż obecnie, została poparta przez wiele osób publicznych; być może najsłynniejszymi są Elon Musk , Bill Gates i Stephen Hawking . Najbardziej znanym badaczem AI, który popiera tę tezę, jest Stuart J. Russell . Zwolennicy tezy czasami wyrażają konsternację sceptyków: Gates twierdzi, że „nie rozumie, dlaczego niektórzy ludzie nie są zaniepokojeni”, a Hawking skrytykował powszechną obojętność w swoim wstępniaku z 2014 roku:

„Wobec tego, w obliczu możliwych przyszłych nieobliczalnych korzyści i zagrożeń, eksperci z pewnością robią wszystko, co możliwe, aby zapewnić najlepszy wynik, prawda? Zło. Gdyby jakaś wyższa cywilizacja obca wysłała nam wiadomość: „Przybędziemy za kilkadziesiąt lat”, czy po prostu odpowiemy: „OK, zadzwoń do nas, kiedy tu przybędziesz – zostawimy włączone światła?”. Prawdopodobnie nie, ale mniej więcej tak się dzieje w przypadku sztucznej inteligencji”.

Wielu badaczy zaniepokojonych ryzykiem egzystencjalnym uważa, że ​​najlepszym rozwiązaniem byłoby przeprowadzenie (być może masowych) badań nad rozwiązaniem trudnego „ problemu kontroli ”, aby odpowiedzieć na pytanie: jakie rodzaje zabezpieczeń, algorytmy lub architektury mogą wdrażać programiści zmaksymalizować prawdopodobieństwo, że ich rekurencyjnie ulepszająca się sztuczna inteligencja będzie nadal zachowywać się w przyjazny, a nie destrukcyjny sposób po osiągnięciu superinteligencji?

Teza, że ​​sztuczna inteligencja może stwarzać ryzyko egzystencjalne, ma również wielu silnych przeciwników. Sceptycy czasami zarzucają, że teza jest krypto-religijna, z irracjonalną wiarą w możliwość superinteligencji zastępującą irracjonalną wiarę we wszechmocnego Boga; w skrajności, Jaron Lanier twierdzi, że cała koncepcja, że obecne maszyny są w żaden sposób inteligentny to „iluzja” i „zdumiewający con” przez bogatych.

Wiele z istniejącej krytyki twierdzi, że AGI jest mało prawdopodobne w krótkim okresie. Informatyk Gordon Bell twierdzi, że rasa ludzka zniszczy się, zanim osiągnie technologiczną osobliwość . Gordon Moore , pierwotny orędownik Prawa Moore'a , deklaruje, że „Jestem sceptykiem. Nie wierzę, że [technologiczna osobliwość] może się wydarzyć, przynajmniej przez długi czas. sposób." Były wiceprezes i główny naukowiec Baidu Andrew Ng twierdzi, że ryzyko egzystencjalne AI jest „jak martwienie się o przeludnienie na Marsie, gdy jeszcze nie postawiliśmy stopy na planecie”.

Zobacz też

Uwagi

Bibliografia

Źródła

Zewnętrzne linki