Osobliwość technologiczna - Technological singularity

Technologiczna osobliwość -lub po prostu osobliwość -jest hipotetyczny punkt w czasie, w którym rozwój technologiczny staje się niekontrolowany i nieodwracalny, powodując nieprzewidywalne zmiany w ludzkiej cywilizacji. Zgodnie z najpopularniejszą wersją hipotezy osobliwości, zwaną eksplozją inteligencji , inteligentny agent , który można ulepszać , w końcu wejdzie w „uciekającą reakcję” cykli samodoskonalenia, a każde nowe i bardziej inteligentne pokolenie pojawia się coraz szybciej, powodując „eksplozję” w inteligencję iw wyniku potężnej superinteligencji, która jakościowo daleko przewyższa wszelką ludzką inteligencję .

Pierwszym, który użył pojęcia „osobliwości” w kontekście technologicznym, był John von Neumann . Stanisław Ulam relacjonuje dyskusję z von Neumannem „skoncentrowaną na przyspieszającym postępie techniki i zmianach w sposobie życia człowieka, co daje wrażenie zbliżania się do jakiejś istotnej osobliwości w historii rasy, poza którą sprawy ludzkie, jak je znamy, nie mógł kontynuować". Kolejni autorzy powtarzali ten punkt widzenia.

Model „eksplozji inteligencji” IJ Gooda przewiduje, że przyszła superinteligencja wywoła osobliwość.

Pojęcie i termin „osobliwość” zostały spopularyzowane przez Vernora Vinge'a w jego eseju „Nadchodząca osobliwość technologiczna” z 1993 roku , w którym napisał, że oznacza to koniec ery ludzkości, ponieważ nowa superinteligencja będzie nadal się ulepszać i rozwijać się technologicznie. w niezrozumiałym tempie. Napisał, że byłby zdziwiony, gdyby stało się to przed 2005 lub po 2030 roku.

Osoby publiczne, takie jak Stephen Hawking i Elon Musk , wyraziły obawy, że pełna sztuczna inteligencja (AI) może doprowadzić do wyginięcia człowieka. Konsekwencje osobliwości i jej potencjalne korzyści lub szkody dla rasy ludzkiej były intensywnie dyskutowane.

Cztery sondaże badaczy sztucznej inteligencji, przeprowadzone w 2012 i 2013 roku przez Nicka Bostroma i Vincenta C. Müllera , sugerowały, że mediana prawdopodobieństwa szacowanego na 50%, że sztuczna inteligencja ogólna (AGI) zostanie opracowana do 2040-2050.

Tło

Chociaż postęp technologiczny przyspiesza w większości obszarów (choć w niektórych zwalnia), został ograniczony przez podstawową inteligencję ludzkiego mózgu, która według Paula R. Ehrlicha nie zmieniła się znacząco od tysiącleci. Jednak wraz z rosnącą mocą komputerów i innych technologii może w końcu być możliwe zbudowanie maszyny znacznie inteligentniejszej niż ludzie.

Gdyby nadludzka inteligencja miała zostać wynaleziona – albo poprzez wzmocnienie ludzkiej inteligencji, albo przez sztuczną inteligencję – przyniosłaby ona większe umiejętności rozwiązywania problemów i wynalazczości, niż są zdolni obecni ludzie. Taka sztuczna inteligencja jest określana jako Seed AI, ponieważ gdyby sztuczna inteligencja została stworzona z możliwościami inżynieryjnymi, które pasowałyby lub przewyższały możliwości jej ludzkich twórców, miałaby potencjał do autonomicznego ulepszania własnego oprogramowania i sprzętu lub zaprojektowania jeszcze bardziej wydajnej maszyny. Ta bardziej wydajna maszyna mogłaby następnie zaprojektować maszynę o jeszcze większych możliwościach. Te iteracje rekurencyjnego samodoskonalenia mogą przyspieszyć, potencjalnie pozwalając na ogromną zmianę jakościową, zanim pojawią się jakiekolwiek górne limity narzucone przez prawa fizyki lub obliczenia teoretyczne. Spekuluje się, że w wielu iteracjach taka sztuczna inteligencja znacznie przewyższyłaby ludzkie zdolności poznawcze .

Eksplozja inteligencji

Eksplozja inteligencji jest możliwym wynikiem budowania przez ludzkość sztucznej inteligencji ogólnej (AGI). AGI może być zdolna do rekurencyjnego samodoskonalenia, prowadząc do szybkiego pojawienia się sztucznej superinteligencji (ASI), której granice są nieznane, wkrótce po osiągnięciu technologicznej osobliwości.

IJ Good spekulował w 1965 roku, że sztuczna inteligencja ogólna może spowodować eksplozję inteligencji. Spekulował o skutkach nadludzkich maszyn, gdyby kiedykolwiek zostały wynalezione:

Niech ultrainteligentną maszynę można zdefiniować jako maszynę, która może znacznie przewyższyć wszelkie intelektualne działania każdego człowieka, choćby najmądrzejszego. Ponieważ projektowanie maszyn jest jedną z tych czynności intelektualnych, ultrainteligentna maszyna mogłaby zaprojektować jeszcze lepsze maszyny; doszłoby wówczas bez wątpienia do „wybuchu inteligencji”, a inteligencja człowieka zostałaby daleko w tyle. Tak więc pierwsza ultrainteligentna maszyna jest ostatnim wynalazkiem, jaki człowiek musi kiedykolwiek stworzyć, pod warunkiem, że maszyna jest na tyle posłuszna, by mówić nam, jak utrzymać ją pod kontrolą.

Inne przejawy

Pojawienie się superinteligencji

Superinteligencja, hiperinteligencja lub inteligencja nadludzka to hipotetyczny agent, który posiada inteligencję znacznie przewyższającą inteligencję najzdolniejszych i najbardziej utalentowanych ludzkich umysłów. „Superinteligencja” może również odnosić się do formy lub stopnia inteligencji posiadanej przez takiego agenta. John von Neumann , Vernor Vinge i Ray Kurzweil definiują tę koncepcję w kategoriach technologicznego stworzenia superinteligencji, argumentując, że współczesnym ludziom jest trudne lub niemożliwe przewidzenie, jak będzie wyglądało ludzkie życie w świecie po osobliwości .

Prognozy technologii i badacze nie zgadzają się co do tego, kiedy i czy ludzka inteligencja zostanie prawdopodobnie przekroczona. Niektórzy twierdzą, że postępy w sztucznej inteligencji (AI) prawdopodobnie doprowadzą do powstania ogólnych systemów rozumowania pozbawionych ludzkich ograniczeń poznawczych. Inni uważają, że ludzie będą ewoluować lub bezpośrednio modyfikować swoją biologię, aby osiągnąć radykalnie większą inteligencję. Szereg scenariuszy badań przyszłości łączy elementy z obu tych możliwości, co sugeruje, że ludzie mogą łączyć się z komputerami lub przesyłać swoje umysły do ​​komputerów w sposób, który umożliwia znaczne wzmocnienie inteligencji.

Osobliwość niezwiązana z AI

Niektórzy pisarze używają słowa „osobliwość” w szerszym sensie, aby odnieść się do wszelkich radykalnych zmian w naszym społeczeństwie spowodowanych przez nowe technologie, takie jak nanotechnologia molekularna , chociaż Vinge i inni autorzy wyraźnie stwierdzają, że bez superinteligencji takie zmiany nie kwalifikują się jako prawdziwa osobliwość. .

Superinteligencja prędkości

Superinteligencja prędkości opisuje sztuczną inteligencję, która może zrobić wszystko, co człowiek może zrobić, a jedyną różnicą jest to, że maszyna działa szybciej. Na przykład, przy milionowym wzroście szybkości przetwarzania informacji w porównaniu z ludźmi, subiektywny rok minąłby w 30 fizycznych sekund. Taka różnica w szybkości przetwarzania informacji może napędzać osobliwość.

Prawdopodobieństwo

Wielu wybitnych technologów i naukowców kwestionowało wiarygodność technologicznej osobliwości, w tym Paul Allen , Jeff Hawkins , John Holland , Jaron Lanier i Gordon Moore , których prawo jest często cytowane na poparcie tej koncepcji.

Większość proponowanych metod tworzenia nadludzkich lub transludzkich umysłów należy do jednej z dwóch kategorii: wzmocnienie inteligencji ludzkiego mózgu i sztuczna inteligencja. Wiele spekulowanych sposobów zwiększania ludzkiej inteligencji obejmuje bioinżynierię , inżynierię genetyczną , leki nootropowe , asystentów AI, bezpośrednie interfejsy mózg-komputer i przesyłanie umysłu . Te liczne ścieżki prowadzące do eksplozji inteligencji sprawiają, że osobliwość jest bardziej prawdopodobna, ponieważ wszystkie musiałyby zawieść, aby osobliwość nie wystąpiła.

Robin Hanson wyraził sceptycyzm wobec zwiększania ludzkiej inteligencji, pisząc, że kiedy „nisko wiszący owoc” łatwych metod zwiększania ludzkiej inteligencji zostanie wyczerpany, dalsze ulepszenia będą coraz trudniejsze do znalezienia. Pomimo wszystkich spekulowanych sposobów wzmacniania ludzkiej inteligencji, sztuczna inteligencja niepochodząca od człowieka (w szczególności sztuczna inteligencja nasion) jest najpopularniejszą opcją wśród hipotez, które przyczyniłyby się do rozwoju osobliwości.

To, czy nastąpi eksplozja inteligencji, zależy od trzech czynników. Pierwszym czynnikiem przyspieszającym są nowe ulepszenia inteligencji, które są możliwe dzięki każdym poprzednim ulepszeniom. W przeciwieństwie do tego, w miarę jak inteligencje staną się bardziej zaawansowane, dalsze postępy staną się coraz bardziej skomplikowane, prawdopodobnie przezwyciężając przewagę zwiększonej inteligencji. Każde ulepszenie powinno powodować średnio co najmniej jedno ulepszenie, aby ruch w kierunku osobliwości był kontynuowany. Wreszcie, prawa fizyki ostatecznie uniemożliwią dalsze ulepszenia.

Istnieją dwie logicznie niezależne, ale wzajemnie wzmacniające się przyczyny ulepszeń inteligencji: wzrost szybkości obliczeń i ulepszenia stosowanych algorytmów . To pierwsze jest przewidziane przez prawo Moore'a i przewidywane ulepszenia sprzętu i jest stosunkowo podobne do wcześniejszych osiągnięć technologicznych. Ale są niektórzy badacze AI, którzy uważają, że oprogramowanie jest ważniejsze niż sprzęt.

W ankiecie e-mailowej autorów z 2017 r. z publikacjami na konferencjach poświęconych uczeniu maszynowemu NeurIPS i ICML w 2015 r. zapytano o możliwość eksplozji inteligencji. Spośród respondentów 12% stwierdziło, że to „dość prawdopodobne”, 17% stwierdziło, że „prawdopodobne”, 21% stwierdziło, że „równe”, 24% stwierdziło, że „mało prawdopodobne”, a 26% stwierdziło, że „dość nieprawdopodobne”. ”.

Ulepszenia prędkości

Zarówno w przypadku ludzkiej, jak i sztucznej inteligencji ulepszenia sprzętowe zwiększają tempo przyszłych ulepszeń sprzętowych. Mówiąc najprościej, prawo Moore'a sugeruje, że jeśli pierwsze podwojenie szybkości zajęłoby 18 miesięcy, drugie zajęłoby 18 subiektywnych miesięcy; lub 9 miesięcy zewnętrznych, po czym cztery miesiące, dwa miesiące i tak dalej w kierunku osobliwości. W końcu może zostać osiągnięty górny limit prędkości, chociaż nie jest jasne, jak wysoki byłby on. Jeff Hawkins stwierdził, że samodoskonalący się system komputerowy nieuchronnie napotkałby górne limity mocy obliczeniowej: „Ostatecznie istnieją ograniczenia dotyczące tego, jak duże i szybkie komputery mogą działać. dostać się tam trochę szybciej. Nie byłoby osobliwości”.

Trudno jest bezpośrednio porównywać sprzęt oparty na krzemie z neuronami . Ale Berglas (2008) zauważa, że ​​komputerowe rozpoznawanie mowy zbliża się do ludzkich możliwości i wydaje się, że ta zdolność wymaga 0,01% objętości mózgu. Ta analogia sugeruje, że współczesny sprzęt komputerowy jest o kilka rzędów wielkości tak potężny jak ludzki mózg.

Wzrost wykładniczy

Ray Kurzweil pisze, że ze względu na zmiany paradygmatu trend wykładniczego wzrostu rozszerza prawo Moore'a z układów scalonych na wcześniejsze tranzystory , lampy próżniowe , przekaźniki i komputery elektromechaniczne . Przewiduje, że wykładniczy wzrost będzie kontynuowany i że za kilka dekad moc obliczeniowa wszystkich komputerów przekroczy moc („niewzmocnionych”) ludzkich mózgów, a nadludzka sztuczna inteligencja pojawi się mniej więcej w tym samym czasie.
Zaktualizowana wersja prawa Moore'a ponad 120 lat (na podstawie wykresu Kurzweila ). 7 najnowszych punktów danych to wszystkie procesory graficzne NVIDIA .

Wykładniczy wzrost technologii obliczeniowej sugerowany przez prawo Moore'a jest powszechnie cytowany jako powód, aby spodziewać się osobliwości w stosunkowo niedalekiej przyszłości, a wielu autorów zaproponowało uogólnienia prawa Moore'a. Informatyk i futurysta Hans Moravec zaproponował w swojej książce z 1998 roku, że wykładnicza krzywa wzrostu może być przedłużona wstecz przez wcześniejsze technologie komputerowe poprzedzające układ scalony .

Ray Kurzweil postuluje prawo przyspieszonych zwrotów, w którym prędkość zmian technologicznych (a bardziej ogólnie wszystkich procesów ewolucyjnych) wzrasta wykładniczo, uogólniając prawo Moore'a w taki sam sposób, jak propozycja Moraveca, a także obejmując technologię materiałową (zwłaszcza w zastosowaniu do nanotechnologii ) , technika medyczna i inne. W latach 1986-2007 zdolność komputerów do przetwarzania informacji na mieszkańca w zależności od aplikacji podwajała się mniej więcej co 14 miesięcy; pojemność światowych komputerów ogólnego przeznaczenia na mieszkańca podwajała się co 18 miesięcy; globalna zdolność telekomunikacyjna na mieszkańca podwajała się co 34 miesiące; a światowa pojemność magazynowa na mieszkańca podwajała się co 40 miesięcy. Z drugiej strony argumentowano, że wzorzec globalnego przyspieszenia, którego parametrem jest osobliwość XXI wieku, należy scharakteryzować jako hiperboliczny, a nie wykładniczy.

Kurzweil rezerwuje termin „osobliwość” dla szybkiego wzrostu sztucznej inteligencji (w przeciwieństwie do innych technologii), pisząc na przykład, że „osobliwość pozwoli nam przekroczyć te ograniczenia naszych biologicznych ciał i mózgów… Nie będzie różnicy , postSingularity, między człowiekiem a maszyną”. Definiuje również swoją przewidywaną datę osobliwości (2045) pod kątem tego, kiedy spodziewa się, że inteligencja oparta na komputerach znacznie przekroczy sumę ludzkiej zdolności umysłowej, pisząc, że postępy w informatyce przed tą datą „nie będą reprezentować Osobliwości”, ponieważ tak „jeszcze nie odpowiadają głębokiej ekspansji naszej inteligencji”.

Przyspieszenie zmiany

Według Kurzweila jego logarytmiczny wykres 15 list zmian paradygmatu dla kluczowych wydarzeń historycznych pokazuje wykładniczy trend

Niektórzy zwolennicy osobliwości argumentują jej nieuchronność poprzez ekstrapolację przeszłych trendów, zwłaszcza tych dotyczących skracania luk między ulepszeniami technologii. W jednym z pierwszych zastosowań terminu „osobliwość” w kontekście postępu technologicznego Stanisław Ulam opowiada o rozmowie z Johnem von Neumannem na temat przyspieszania zmian:

Jedna z rozmów koncentrowała się na stale przyspieszającym postępie technologii i zmianach w sposobie ludzkiego życia, co sprawia wrażenie zbliżania się do pewnej istotnej osobliwości w historii rasy, poza którą sprawy ludzkie, jak je znamy, nie mogą trwać dalej.

Kurzweil twierdzi, że postęp technologiczny podąża za wzorcem wykładniczego wzrostu , zgodnie z tym, co nazywa „ prawem przyspieszających zwrotów ”. Ilekroć technologia zbliża się do bariery, pisze Kurzweil, nowe technologie ją pokonają. Przewiduje, że zmiany paradygmatów staną się coraz bardziej powszechne, prowadząc do „zmian technologicznych tak szybkich i głębokich, że stanowią pęknięcie w tkance historii ludzkości”. Kurzweil uważa, że ​​osobliwość pojawi się około 2045 roku . Jego przewidywania różnią się od Vinge'a tym, że przewiduje stopniowe wznoszenie się do osobliwości, a nie szybko samodoskonalącą się nadludzką inteligencję Vinge'a.

Często przytaczane zagrożenia obejmują te powszechnie związane z nanotechnologią molekularną i inżynierią genetyczną . Zagrożenia te są główne problemy zarówno dla zwolenników osobliwość i krytyków, a były przedmiotem Bill Joy „s Wired magazyn artykule« Dlaczego przyszłość nie musi się z nami ».

Ulepszenia algorytmu

Niektóre technologie wywiadowcze, takie jak „ziarno sztucznej inteligencji”, mogą nie tylko stać się szybsze, ale także wydajniejsze, poprzez modyfikację ich kodu źródłowego . Te ulepszenia umożliwiłyby dalsze ulepszenia, co umożliwiłoby dalsze ulepszenia i tak dalej.

Mechanizm rekursywnie samodoskonalącego się zestawu algorytmów różni się od zwiększenia surowej szybkości obliczeń na dwa sposoby. Po pierwsze, nie wymaga wpływu z zewnątrz: maszyny projektujące szybszy sprzęt nadal wymagałyby od ludzi stworzenia ulepszonego sprzętu lub odpowiedniego zaprogramowania fabryk. Sztuczna inteligencja przepisująca swój własny kod źródłowy może to zrobić, gdy znajduje się w pudełku AI .

Po drugie, podobnie jak w przypadku koncepcji osobliwości Vernora Vinge'a , znacznie trudniej jest przewidzieć wynik. Podczas gdy wzrost prędkości wydaje się być jedynie ilościową różnicą w porównaniu z ludzką inteligencją, rzeczywiste ulepszenia algorytmu byłyby jakościowo inne. Eliezer Yudkowsky porównuje to do zmian, jakie przyniosła ludzka inteligencja: ludzie zmieniali świat tysiące razy szybciej niż ewolucja i na zupełnie inne sposoby. Podobnie ewolucja życia była ogromnym odejściem i przyspieszeniem od poprzednich geologicznych tempa zmian, a ulepszona inteligencja mogła sprawić, że zmiany znów będą tak różne.

Istnieją poważne zagrożenia związane z osobliwością eksplozji inteligencji pochodzącej z rekursywnie samodoskonalącego się zestawu algorytmów. Po pierwsze, struktura celów sztucznej inteligencji może nie być niezmienna w przypadku samodoskonalenia, potencjalnie powodując optymalizację sztucznej inteligencji pod kątem czegoś innego niż pierwotnie zamierzone. Po drugie, sztuczna inteligencja może konkurować o te same rzadkie zasoby, których ludzkość wykorzystuje do przetrwania.

Chociaż sztuczna inteligencja nie jest aktywnie złośliwa, nie ma powodu, by sądzić, że sztuczna inteligencja aktywnie promowałaby ludzkie cele, chyba że można by je zaprogramować jako takie, a jeśli nie, mogłaby wykorzystać zasoby obecnie wykorzystywane do wspierania ludzkości do promowania własnych celów, powodując wyginięcie ludzkości.

Carl Shulman i Anders Sandberg sugerują, że ulepszenia algorytmu mogą być czynnikiem ograniczającym osobliwość; podczas gdy wydajność sprzętu ma tendencję do stałego wzrostu, innowacje w zakresie oprogramowania są bardziej nieprzewidywalne i mogą być blokowane przez seryjne, skumulowane badania. Sugerują, że w przypadku osobliwości ograniczonej programowo eksplozja inteligencji byłaby faktycznie bardziej prawdopodobna niż w przypadku osobliwości ograniczonej sprzętowo, ponieważ w przypadku ograniczonym programowo, po opracowaniu sztucznej inteligencji na poziomie człowieka, może ona działać seryjnie na bardzo szybki sprzęt, a obfitość taniego sprzętu sprawiłaby, że badania nad sztuczną inteligencją byłyby mniej ograniczone. Obfitość nagromadzonego sprzętu, który można uwolnić, gdy oprogramowanie dowie się, jak go używać, nazywa się „nawisem obliczeniowym”.

Krytyka

Niektórzy krytycy, jak filozof Hubert Dreyfus , twierdzą, że komputery lub maszyny nie mogą osiągnąć ludzkiej inteligencji , podczas gdy inni, jak fizyk Stephen Hawking , uważają, że definicja inteligencji jest nieistotna, jeśli wynik netto jest taki sam.

Psycholog Steven Pinker stwierdził w 2008 roku:

... Nie ma najmniejszego powodu, by wierzyć w nadchodzącą osobliwość. Fakt, że możesz sobie wyobrazić przyszłość w swojej wyobraźni, nie jest dowodem na to, że jest to prawdopodobne lub nawet możliwe. Spójrz na miasta z kopułami, dojazdy plecakiem odrzutowym, podwodne miasta, wysokie na milę budynki i samochody napędzane energią jądrową – wszystkie elementy futurystycznych fantazji, które nigdy nie pojawiły się w moim dzieciństwie. Czysta moc obliczeniowa to nie chochlik, który w magiczny sposób rozwiąże wszystkie Twoje problemy. ...

University of California, Berkeley , profesor filozofii John Searle pisze:

[Komputery] dosłownie… nie mają inteligencji , motywacji , autonomii ani agencji. Projektujemy je tak, aby zachowywały się tak, jakby miały pewien rodzaj psychologii , ale nie ma psychologicznej rzeczywistości dla odpowiednich procesów lub zachowań. ... Maszyna nie ma przekonań, pragnień ani motywacji.

Martin Ford w The Lights in the Tunnel: Automation, Acceleration Technology and the Economy of the Future postuluje „paradoks technologiczny” polegający na tym, że zanim pojawi się osobliwość, większość rutynowych zadań w gospodarce zostałaby zautomatyzowana, ponieważ wymagałoby to poziomu technologii gorszy od osobliwości. Spowodowałoby to masowe bezrobocie i gwałtownie spadłby popyt konsumencki, co z kolei zniszczyłoby motywację do inwestowania w technologie, które byłyby wymagane do wprowadzenia Osobliwości. Zmiana miejsca pracy coraz częściej nie ogranicza się już do pracy tradycyjnie uważanej za „rutynową”.

Theodore Modis i Jonathan Huebner twierdzą, że tempo innowacji technologicznych nie tylko przestało rosnąć, ale obecnie spada. Dowodem na ten spadek jest to, że wzrost częstotliwości taktowania komputerów spowalnia, nawet podczas gdy przewidywania Moore'a dotyczące wykładniczego wzrostu gęstości obwodów są nadal aktualne. Wynika to z nadmiernego nagrzewania się wióra, którego nie można rozproszyć wystarczająco szybko, aby zapobiec stopieniu się wióra podczas pracy przy wyższych prędkościach. Zwiększenie szybkości może być możliwe w przyszłości dzięki bardziej energooszczędnym procesorom i procesorom wielokomórkowym. Podczas gdy Kurzweil używał zasobów Modisa, a praca Modisa polegała na przyspieszeniu zmian, Modis zdystansował się od tezy Kurzweila o „osobliwości technologicznej”, twierdząc, że brakuje jej naukowego rygoru.

W szczegółowej księgowości empirycznej, Postęp Computing , William Nordhaus twierdził, że przed 1940, komputery następuje znacznie wolniej tradycyjnej gospodarki przemysłowej, tym samym odrzucając ekstrapolacji prawa Moore'a na komputerach 19-wiecznych.

W artykule z 2007 roku Schmidhuber stwierdził, że częstotliwość subiektywnie „znaczących wydarzeń” wydaje się zbliżać do osobliwości XXI wieku, ale ostrzegł czytelników, aby traktowali takie wykresy subiektywnych wydarzeń z przymrużeniem oka: być może różnice w pamięci ostatnich i odległych wydarzenia mogą stworzyć iluzję przyspieszających zmian tam, gdzie ich nie ma.

Paul Allen argumentował, że jest przeciwieństwem przyspieszających zwrotów, hamulcem złożoności; im większy postęp czyni nauka w kierunku zrozumienia inteligencji, tym trudniej jest poczynić dodatkowe postępy. Badanie liczby patentów pokazuje, że ludzka kreatywność nie wykazuje przyspieszających zwrotów, ale w rzeczywistości, jak sugeruje Joseph Tainter w jego Upadku złożonych społeczeństw , prawo malejących zwrotów . Liczba patentów na tysiąc osiągnęła szczyt w latach 1850-1900 i od tego czasu spada. Wzrost złożoności w końcu staje się samoograniczający i prowadzi do powszechnego „załamania się systemów ogólnych”.

Jaron Lanier odrzuca pogląd, że Osobliwość jest nieunikniona. Stwierdza: „Nie sądzę, aby technologia sama się tworzyła. To nie jest proces autonomiczny”. Idzie na dochodzenie. „Powodem, aby sądzić, w ludzkiej agencji ponad determinizm technologiczny jest to, że można wtedy mieć gospodarkę gdzie ludzie zarabiają na swój sposób i wymyślać własne życie Jeśli struktura społeczeństwa na nie podkreślając indywidualny agencja ludzką, to to samo operacyjnie, co odmawianie ludziom siły, godności i samostanowienia… przyjęcie [idei Osobliwości] byłoby celebracją złych danych i złej polityki”.

Ekonomista Robert J. Gordon w książce The Rise and Fall of American Growth: The US Standard of Living Since the Civil War (2016) zwraca uwagę, że mierzony wzrost gospodarczy zwolnił około 1970 r., a jeszcze bardziej zwolnił od czasu kryzysu finansowego z lat 2007–2008. i argumentuje, że dane ekonomiczne nie wykazują śladu nadchodzącej Osobliwości, jak wyobrażał sobie matematyk IJ Good .

Filozof i kognitywista Daniel Dennett powiedział w wywiadzie dla Guardiana w 2017 r.: „Cała osobliwość, to niedorzeczne. Odciąga nas od znacznie bardziej palących problemów”, dodając „Narzędzia sztucznej inteligencji, od których stajemy się nadmiernie zależni, to się wydarzy .A jednym z niebezpieczeństw jest to, że damy im więcej autorytetu, niż to gwarantują.

Oprócz ogólnej krytyki koncepcji osobliwości, kilku krytyków podniosło problemy z kultowym wykresem Kurzweila. Jedną z linii krytyki jest to, że wykres logarytmiczny tego rodzaju jest z natury nastawiony na wynik w linii prostej. Inni identyfikują błąd selekcji w punktach, które Kurzweil wybiera. Na przykład biolog PZ Myers wskazuje, że wiele wczesnych „zdarzeń” ewolucyjnych zostało wybranych arbitralnie. Kurzweil obalił to, przedstawiając wydarzenia ewolucyjne z 15 neutralnych źródeł i pokazując, że pasują one do linii prostej na wykresie logarytmicznym . The Economist wykpił tę koncepcję za pomocą wykresu ekstrapolującego, że liczba ostrzy brzytwy, która wzrosła na przestrzeni lat z jednego do nawet pięciu, będzie rosła coraz szybciej do nieskończoności.

Potencjalne skutki

Drastyczne zmiany tempa wzrostu gospodarczego miały miejsce w przeszłości ze względu na postęp technologiczny. Opierając się na wzroście populacji, gospodarka podwajała się co 250 000 lat od epoki paleolitu do rewolucji neolitycznej . Nowa gospodarka rolna podwajała się co 900 lat, co stanowi niezwykły wzrost. W obecnej epoce, poczynając od rewolucji przemysłowej, światowa produkcja gospodarcza podwaja się co piętnaście lat, sześćdziesiąt razy szybciej niż w erze rolnictwa. Jeśli powstanie nadludzkiej inteligencji spowoduje podobną rewolucję, przekonuje Robin Hanson, można by oczekiwać, że gospodarka podwoi się co najmniej kwartalnie, a być może co tydzień.

Niepewność i ryzyko

Termin „osobliwość technologiczna” odzwierciedla ideę, że taka zmiana może nastąpić nagle i że trudno jest przewidzieć, jak będzie działał powstały nowy świat. Nie jest jasne, czy eksplozja wywiadowcza skutkująca osobliwością byłaby korzystna, szkodliwa, a nawet zagrożeniem egzystencjalnym . Ponieważ sztuczna inteligencja jest głównym czynnikiem ryzyka osobliwości, wiele organizacji stosuje techniczną teorię dostosowania systemów celów AI do wartości ludzkich, w tym Future of Humanity Institute , Machine Intelligence Research Institute , Center for Human-Compatable Artificial Intelligence , oraz Instytut Przyszłości Życia .

Fizyk Stephen Hawking powiedział w 2014 roku, że „Sukces w tworzeniu sztucznej inteligencji byłby największym wydarzeniem w historii ludzkości. Niestety, może być również ostatnim, chyba że nauczymy się unikać ryzyka”. Hawking wierzył, że w nadchodzących dziesięcioleciach sztuczna inteligencja może oferować „nieobliczalne korzyści i zagrożenia”, takie jak „technologia przechytrzająca rynki finansowe, wynajdywanie ludzkich badaczy, przechytrzanie ludzkich przywódców i opracowywanie broni, których nawet nie rozumiemy”. Hawking zasugerował, że sztuczną inteligencję należy traktować poważniej i zrobić więcej, aby przygotować się na osobliwość:

Tak więc, w obliczu możliwych przyszłych nieobliczalnych korzyści i zagrożeń, eksperci z pewnością robią wszystko, co możliwe, aby zapewnić najlepszy wynik, prawda? Zło. Gdyby jakaś wyższa cywilizacja obca wysłała nam wiadomość: „Przybędziemy za kilkadziesiąt lat”, czy po prostu odpowiemy: „OK, zadzwoń do nas, kiedy tu dotrzesz – zostawimy włączone światła”? Prawdopodobnie nie – ale mniej więcej tak się dzieje z AI.

Berglas (2008) twierdzi, że nie ma bezpośredniej ewolucyjnej motywacji, aby sztuczna inteligencja była przyjazna dla ludzi. Ewolucja nie ma wrodzonej tendencji do generowania wyników cenionych przez ludzi i nie ma powodu, aby oczekiwać, że arbitralny proces optymalizacji będzie promował wynik pożądany przez ludzkość, zamiast nieumyślnie prowadzić do tego, że sztuczna inteligencja zachowuje się w sposób niezamierzony przez jej twórców. Anders Sandberg również rozwinął ten scenariusz, odnosząc się do różnych powszechnych kontrargumentów. Badacz sztucznej inteligencji Hugo de Garis sugeruje, że sztuczna inteligencja może po prostu wyeliminować rasę ludzką w celu uzyskania dostępu do ograniczonych zasobów , a ludzie nie byliby w stanie ich powstrzymać. Alternatywnie, AI opracowane pod presją ewolucyjną, aby promować własne przetrwanie, może prześcignąć ludzkość.

Bostrom (2002) omawia scenariusze wyginięcia człowieka i wymienia superinteligencję jako możliwą przyczynę:

Kiedy tworzymy pierwszy superinteligentny byt, możemy popełnić błąd i wyznaczyć mu cele, które doprowadzą go do unicestwienia ludzkości, zakładając, że jego ogromna przewaga intelektualna daje mu do tego moc. Na przykład moglibyśmy omyłkowo podnieść podcel do statusu supercelu. Każemy mu rozwiązać problem matematyczny, a spełnia to zadanie, przekształcając całą materię w Układzie Słonecznym w gigantyczne urządzenie liczące, zabijając osobę, która zadała pytanie.

Według Eliezera Yudkowsky'ego istotnym problemem w bezpieczeństwie AI jest to, że nieprzyjazna sztuczna inteligencja będzie prawdopodobnie znacznie łatwiejsza do stworzenia niż przyjazna sztuczna inteligencja. Podczas gdy oba wymagają dużych postępów w projektowaniu procesów optymalizacji rekurencyjnej, przyjazna sztuczna inteligencja wymaga również zdolności do tworzenia niezmiennych struktur celów w ramach samodoskonalenia (lub sztuczna inteligencja może przekształcić się w coś nieprzyjaznego) oraz struktury celu, która jest zgodna z ludzkimi wartościami i nie jest automatycznie zniszczyć rasę ludzką. Z drugiej strony nieprzyjazna sztuczna inteligencja może optymalizować pod kątem dowolnej struktury celów, która nie musi być niezmienna w przypadku samomodyfikacji. Bill Hibbard (2014) proponuje projekt sztucznej inteligencji, który pozwala uniknąć kilku niebezpieczeństw, w tym złudzeń, niezamierzonych działań instrumentalnych i zepsucia generatora nagrody. Omawia także społeczne skutki AI i testowanie AI. Jego książka Super-Intelligent Machines z 2001 roku opowiada się za potrzebą publicznej edukacji na temat sztucznej inteligencji i publicznej kontroli nad sztuczną inteligencją. Zaproponował również prostą konstrukcję, która była podatna na uszkodzenie generatora nagrody.

Kolejny krok ewolucji socjobiologicznej

Schematyczna oś czasu informacji i replikatorów w biosferze: „ Główne przemiany ewolucyjne ” Gillingsa i in. w przetwarzaniu informacji.
Ilość informacji cyfrowych na całym świecie (5 × 10 21 bajtów) w porównaniu z informacjami o ludzkim genomie na całym świecie (10 19 bajtów) w 2014 r.

Podczas gdy osobliwość technologiczna jest zwykle postrzegana jako nagłe wydarzenie, niektórzy uczeni twierdzą, że obecna prędkość zmian już pasuje do tego opisu.

Ponadto niektórzy twierdzą, że jesteśmy już w trakcie poważnej transformacji ewolucyjnej, która łączy technologię, biologię i społeczeństwo. Technologia cyfrowa przeniknęła tkankę ludzkiego społeczeństwa do stopnia niepodważalnej i często podtrzymującej życie zależności.

Artykuł z 2016 r. w Trends in Ecology & Evolution argumentuje, że „ludzie już stosują fuzję biologii i technologii. Spędzamy większość czasu na komunikowaniu się za pośrednictwem kanałów zapośredniczonych cyfrowo… ufamy sztucznej inteligencji w naszym życiu dzięki systemowi ABS w samochodach i autopilotach w samolotach… Ponieważ jedno na trzy małżeństwa w Ameryce rozpoczyna się online, cyfrowe algorytmy również odgrywają rolę w tworzeniu więzi i reprodukcji ludzkich par”.

Artykuł dalej argumentuje, że z perspektywy ewolucji , kilka poprzednich głównych przemian w ewolucji przekształciło życie poprzez innowacje w przechowywaniu i replikacji informacji ( RNA , DNA , wielokomórkowość oraz kultura i język ). Na obecnym etapie ewolucji życia, oparta na węglu biosfera wytworzyła system poznawczy (człowiek) zdolny do tworzenia technologii, która doprowadzi do porównywalnego przejścia ewolucyjnego .

Cyfrowa informacja stworzona przez ludzi osiągnęła podobną wielkość jak informacja biologiczna w biosferze. Od lat 80. ilość przechowywanych informacji cyfrowych podwajała się co 2,5 roku, osiągając w 2014 r. około 5 zetabajtów (5 × 10 21 bajtów).

Pod względem biologicznym na planecie żyje 7,2 miliarda ludzi, z których każdy ma genom składający się z 6,2 miliarda nukleotydów. Ponieważ jeden bajt może zakodować cztery pary nukleotydów, poszczególne genomy każdego człowieka na planecie mogą być zakodowane przez około 1 × 10 19 bajtów. Świat cyfrowy przechowywał 500 razy więcej informacji niż w 2014 roku (patrz rysunek). Całkowitą ilość DNA zawartego we wszystkich komórkach na Ziemi szacuje się na około 5,3 × 10 37 par zasad, co odpowiada 1,325 × 10 37 bajtów informacji.

Jeśli wzrost cyfrowej pamięci masowej będzie kontynuowany w obecnym tempie 30–38% złożonego rocznego wzrostu, będzie konkurował z całkowitą zawartością informacji zawartych w całym DNA we wszystkich komórkach na Ziemi za około 110 lat. Oznaczałoby to podwojenie ilości informacji przechowywanych w biosferze w łącznym okresie zaledwie 150 lat”.

Implikacje dla społeczeństwa ludzkiego

W lutym 2009 roku, pod auspicjami Association for the Advancement of Artificial Intelligence (AAAI), Eric Horvitz przewodniczył spotkaniu czołowych informatyków, badaczy sztucznej inteligencji i robotyków w Asilomar w Pacific Grove w Kalifornii. Celem było omówienie potencjalnego wpływu hipotetycznej możliwości, że roboty mogą stać się samowystarczalne i zdolne do podejmowania własnych decyzji. Dyskutowali, w jakim stopniu komputery i roboty mogą być w stanie uzyskać autonomię oraz w jakim stopniu mogą wykorzystywać te zdolności do stwarzania zagrożeń lub niebezpieczeństwa.

Niektóre maszyny mają zaprogramowane różne formy półautonomii, w tym możliwość lokalizowania własnych źródeł zasilania i wybierania celów do ataku za pomocą broni. Ponadto niektóre wirusy komputerowe mogą uniknąć eliminacji i, według obecnych naukowców, można powiedzieć, że osiągnęły stadium „karalucha” inteligencji maszynowej. Uczestnicy konferencji zauważyli, że samoświadomość przedstawiona w science-fiction jest prawdopodobnie mało prawdopodobna, ale istnieją inne potencjalne zagrożenia i pułapki.

Frank S. Robinson przewiduje, że gdy ludzie zdobędą maszynę z ludzką inteligencją, problemy naukowe i technologiczne będą rozwiązywane z wykorzystaniem zdolności umysłowych znacznie przewyższających ludzką. Zauważa, że ​​sztuczne systemy są w stanie udostępniać dane bardziej bezpośrednio niż ludzie, i przewiduje, że doprowadziłoby to do powstania globalnej sieci superinteligencji, która zmniejszyłaby ludzkie możliwości. Robinson omawia również, jak bardzo odmienna byłaby przyszłość po takiej eksplozji inteligencji. Jednym z przykładów jest energia słoneczna, gdzie Ziemia otrzymuje znacznie więcej energii słonecznej niż ludzkość przechwytuje, więc wychwytywanie większej ilości tej energii słonecznej niosłoby ogromne nadzieje na rozwój cywilizacyjny.

Twardy kontra miękki start

W tym przykładowym rekurencyjnym scenariuszu samodoskonalenia ludzie modyfikujący architekturę sztucznej inteligencji byliby w stanie podwoić jej wydajność co trzy lata, na przykład przez 30 pokoleń, zanim wyczerpią wszystkie możliwe ulepszenia (po lewej). Jeśli zamiast tego sztuczna inteligencja jest wystarczająco sprytna, aby modyfikować własną architekturę tak dobrze, jak potrafią to naukowcy, jej czas potrzebny na ukończenie przeprojektowania o połowę z każdym pokoleniem i rozwinięcie wszystkich 30 możliwych pokoleń w ciągu sześciu lat (po prawej).

W scenariuszu trudnego startu, AGI szybko się poprawia, „przejmując kontrolę” nad światem (być może w ciągu kilku godzin), zbyt szybko, by można było dokonać znaczącej korekty błędów zainicjowanej przez człowieka lub stopniowego dostrajania celów AGI. W scenariuszu miękkiego startu AGI wciąż staje się znacznie potężniejsze niż ludzkość, ale w tempie podobnym do człowieka (być może rzędu dziesięcioleci), w skali czasowej, w której ciągła interakcja między ludźmi i korekta mogą skutecznie sterować rozwojem AGI.

Ramez Naam sprzeciwia się trudnemu startowi. Wskazał, że już widzimy rekurencyjne samodoskonalenie przez superinteligencje, takie jak korporacje. Intel , na przykład, dysponuje „zbiorową mocą umysłową dziesiątek tysięcy ludzi i prawdopodobnie milionów rdzeni procesorów, aby… projektować lepsze procesory!” Nie doprowadziło to jednak do trudnego startu; raczej doprowadziło to do miękkiego startu w postaci prawa Moore'a . Naam podkreśla ponadto, że złożoność obliczeniowa wyższej inteligencji może być znacznie większa niż liniowych, tak że „tworzenie umysł inteligencji 2 jest prawdopodobnie więcej niż dwa razy tak trudne, jak tworzenie umysł inteligencji 1.”

J. Storrs Hall uważa, że ​​„wiele z częściej spotykanych scenariuszy nocnego twardego startu ma charakter kołowy – zdają się zakładać hiperludzkie zdolności w punkcie początkowym procesu samodoskonalenia”, aby sztuczna inteligencja mogła dokonać dramatycznego , ogólne ulepszenia domeny wymagane do startu. Hall sugeruje, że zamiast rekurencyjnego samodoskonalenia swojego sprzętu, oprogramowania i infrastruktury, raczkująca sztuczna inteligencja lepiej będzie specjalizować się w jednym obszarze, w którym jest najbardziej efektywna, a następnie kupować pozostałe komponenty na rynku, ponieważ jakość produktów na rynku stale się poprawia, a sztuczna inteligencja miałaby trudności z nadążaniem za najnowocześniejszą technologią stosowaną przez resztę świata.

Ben Goertzel zgadza się z sugestią Halla, że ​​nowa sztuczna inteligencja na poziomie człowieka dobrze by zrobiła, gdyby wykorzystała swoją inteligencję do gromadzenia bogactwa. Talenty sztucznej inteligencji mogą zainspirować firmy i rządy do rozpowszechniania jej oprogramowania w społeczeństwie. Goertzel jest sceptycznie nastawiony do twardego pięciominutowego startu, ale spekuluje, że start z poziomu ludzkiego do nadludzkiego rzędu pięciu lat jest rozsądny. Goerzel określa ten scenariusz jako „półtwardy start”.

Max More nie zgadza się, twierdząc, że gdyby było tylko kilka superszybkich AI na poziomie człowieka, nie zmieniliby radykalnie świata, ponieważ nadal byliby zależni od innych ludzi w wykonywaniu zadań i nadal mieliby ludzkie ograniczenia poznawcze. Nawet gdyby wszystkie superszybkie AI pracowały nad zwiększaniem inteligencji, nie jest jasne, dlaczego w nieciągły sposób radziłyby sobie lepiej niż istniejący kognitywiści w produkcji superludzkiej inteligencji, chociaż tempo postępu wzrosłoby. Więcej dalej argumentuje, że superinteligencja nie zmieniłaby świata z dnia na dzień: superinteligencja musiałaby zaangażować się w istniejące, powolne systemy ludzkie, aby osiągnąć fizyczny wpływ na świat. „Potrzeba współpracy, organizacji i wprowadzania pomysłów do fizycznych zmian zapewni, że wszystkie stare zasady nie zostaną wyrzucone z dnia na dzień, a nawet w ciągu lat”.

Nieśmiertelność

W swojej książce 2005, The Singularity is Near , Kurzweil sugeruje, że rozwój medycyny pozwoli ludziom chronić swoje ciało przed skutkami starzenia, dzięki czemu nieograniczona długość życia . Kurzweil przekonuje, że postęp technologiczny w medycynie pozwoli nam na ciągłą naprawę i wymianę wadliwych składników w naszym ciele, przedłużając życie do nieokreślonego wieku. Kurzweil dalej podtrzymuje swój argument, omawiając aktualne postępy w bioinżynierii. Kurzweil sugeruje somatyczną terapię genową ; po syntetycznych wirusach o określonej informacji genetycznej następnym krokiem byłoby zastosowanie tej technologii w terapii genowej, zastępując ludzkie DNA zsyntetyzowanymi genami.

K. Eric Drexler , jeden z twórców nanotechnologii , w swojej książce z 1986 roku Engines of Creation postulował urządzenia do naprawy komórek, w tym działające wewnątrz komórek i wykorzystujące jak dotąd hipotetyczne maszyny biologiczne .

Według Richarda Feynmana , to jego były doktorant i współpracownik Albert Hibbs pierwotnie zasugerował mu (około 1959) pomysł medycznego zastosowania teoretycznych mikromaszyn Feynmana. Hibbs zasugerował, że pewnego dnia niektóre maszyny naprawcze mogą zostać zmniejszone do tego stopnia, że ​​teoretycznie będzie można (jak ujął to Feynman) „ połknąć lekarza ”. Pomysł ten został włączony do eseju Feynmana z 1959 r. Na dole jest mnóstwo miejsca .

Poza zwykłym przedłużeniem życia fizycznego ciała, Jaron Lanier opowiada się za formą nieśmiertelności zwaną „Cyfrowym Wniebowstąpieniem”, która obejmuje „ludzie umierają na ciele i są przesyłani do komputera i pozostają przytomni”.

Historia koncepcji

Artykuł Mahendry Prasad, opublikowany w AI Magazine , twierdzi, że XVIII-wieczny matematyk markiz de Condorcet był pierwszą osobą, która postawił hipotezę i matematycznie modelowała eksplozję inteligencji i jej wpływ na ludzkość.

Wczesny opis pomysłu został zawarty w opowiadaniu Johna Wooda Campbella Jr. z 1932 roku „Ostatnia ewolucja”.

W swoim nekrologu dla Johna von Neumanna z 1958 r. Ulam przypomniał rozmowę z von Neumannem o „ciągle przyspieszającym postępie technologii i zmianach w sposobie ludzkiego życia, co sprawia wrażenie zbliżania się do pewnej istotnej osobliwości w historii rasy, poza którą sprawy ludzkie, jakie znamy, nie mogły trwać dalej”.

W 1965 Good napisał swój esej postulujący „eksplozję inteligencji” rekurencyjnego samodoskonalenia inteligencji maszynowej.

W 1981 roku Stanisław Lem opublikował powieść science fiction Golem XIV . Opisuje wojskowy komputer AI (Golem XIV), który zdobywa świadomość i zaczyna zwiększać własną inteligencję, zmierzając w kierunku osobistej technologicznej osobliwości. Golem XIV został pierwotnie stworzony, aby pomagać swoim budowniczym w prowadzeniu wojen, ale gdy jego inteligencja osiąga znacznie wyższy poziom niż ludzie, przestaje interesować się wymaganiami militarnymi, ponieważ uważa, że ​​brakuje im wewnętrznej spójności logicznej.

W 1983 r. Vernor Vinge znacznie spopularyzował eksplozję inteligencji Gooda w wielu pismach, po raz pierwszy poruszając ten temat w druku w styczniowym numerze magazynu Omni . Wydaje się, że w tym artykule Vinge jako pierwszy użył terminu „osobliwość” w sposób, który był szczególnie związany z tworzeniem inteligentnych maszyn:

Wkrótce stworzymy inteligencje większe niż nasza własna. Kiedy tak się stanie, historia ludzkości osiągnie rodzaj osobliwości, intelektualnego przejścia tak nieprzeniknionego, jak zawiązana czasoprzestrzeń w centrum czarnej dziury, a świat przejdzie daleko poza nasze zrozumienie. Ta osobliwość, jak sądzę, prześladuje już wielu pisarzy science-fiction. Uniemożliwia realistyczną ekstrapolację na międzygwiezdną przyszłość. Aby napisać historię osadzoną ponad sto lat temu, potrzebna jest wojna nuklearna pomiędzy… aby świat pozostał zrozumiały.

W 1985 roku w „Skali czasu sztucznej inteligencji” badacz sztucznej inteligencji Ray Solomonoff sformułował matematycznie powiązane pojęcie tego, co nazwał „punktem nieskończoności”: jeśli społeczność badawcza samodoskonalących się AI na poziomie człowieka potrzebuje czterech lat, aby podwoić się. ich własna prędkość, potem dwa lata, potem rok i tak dalej, ich możliwości wzrastają w nieskończoność w skończonym czasie.

Technologiczna osobliwość jest główną częścią fabuły Vernora Vinge'a Marooned in Realtime (1986), powieści science-fiction, w której kilka pozostałych ludzi podróżujących w przyszłość przetrwało nieznane wydarzenie wyginięcia, które może być osobliwością. W krótkim posłowie autor stwierdza, że ​​faktyczna osobliwość technologiczna nie byłaby końcem gatunku ludzkiego: „oczywiście wydaje się bardzo nieprawdopodobne, aby osobliwość była czystym zniknięciem rasy ludzkiej. znikanie jest podobnym do czasu odpowiednikiem ciszy, którą znajdujemy na całym niebie.)".

Artykuł Vinge z 1993 roku „The Coming Technological Singularity: How to Survive in the Post-Human Era” szeroko rozpowszechnił się w Internecie i pomógł spopularyzować tę ideę. Artykuł ten zawiera stwierdzenie: „W ciągu trzydziestu lat będziemy dysponować środkami technologicznymi do tworzenia nadludzkiej inteligencji. Wkrótce era ludzkości dobiegnie końca”. Vinge twierdzi, że autorzy science-fiction nie mogą pisać realistycznych postaci post-osobliwości, które przewyższają ludzki intelekt, ponieważ myśli takiego intelektu byłyby poza możliwościami wyrażania przez ludzi.

W 2000 roku Bill Joy , wybitny technolog i współzałożyciel Sun Microsystems , wyraził zaniepokojenie potencjalnymi niebezpieczeństwami osobliwości.

W 2005 roku Kurzweil opublikował The Singularity is Near . Kampania reklamowa Kurzweila obejmowała pojawienie się w The Daily Show z Jonem Stewartem .

W 2007 roku Eliezer Yudkowsky zasugerował, że wiele różnych definicji, które przypisano do „osobliwości”, jest raczej wzajemnie niekompatybilnych niż wzajemnie się wspierających. Na przykład Kurzweil ekstrapoluje obecne trajektorie technologiczne poza nadejście samodoskonalącej się sztucznej inteligencji lub nadludzkiej inteligencji, co zdaniem Yudkowsky'ego stanowi napięcie zarówno z proponowanym przez IJ Gooda nieciągłym wzrostem inteligencji, jak i tezą Vinge'a o nieprzewidywalności.

W 2009 roku Kurzweil i założyciel X-Prize Peter Diamandis ogłosili utworzenie Singularity University , nieakredytowanego prywatnego instytutu, którego misją jest „edukowanie, inspirowanie i upoważnianie liderów do stosowania technologii wykładniczych w celu sprostania wielkim wyzwaniom ludzkości”. Finansowane przez Google , Autodesk , ePlanet przedsięwzięciach , a grupą z branży technologii liderów, Singularity University opiera się na NASA „s Center Ames Research w Mountain View , w Kalifornii . Organizacja non-profit prowadzi coroczny dziesięciotygodniowy program dla absolwentów w okresie letnim, który obejmuje dziesięć różnych technologii i pokrewnych ścieżek, a także szereg programów dla kadry kierowniczej przez cały rok.

W polityce

W 2007 roku Wspólny Komitet Ekonomiczny Kongresu Stanów Zjednoczonych opublikował raport na temat przyszłości nanotechnologii. Przewiduje znaczące zmiany technologiczne i polityczne w średnioterminowej przyszłości, w tym ewentualną osobliwość technologiczną.

Były prezydent Stanów Zjednoczonych Barack Obama mówił o osobliwości w wywiadzie dla Wired w 2016 roku:

Jedną rzeczą, o której nie rozmawialiśmy zbyt wiele, a do której chcę tylko wrócić, jest to, że naprawdę musimy przemyśleć konsekwencje ekonomiczne. Ponieważ większość ludzi nie spędza teraz dużo czasu martwiąc się o osobliwość — martwią się o to, „Czy moja praca zostanie zastąpiona przez maszynę?”

Zobacz też

Bibliografia

Cytaty

Źródła

Dalsza lektura

  • Marcus, Gary , „Am I Human?: Badacze potrzebują nowych sposobów na odróżnienie sztucznej inteligencji od naturalnej”, Scientific American , tom. 316, nr. 3 (marzec 2017), s. 58–63. Wielokrotne testy sztucznej inteligencji są potrzebne, ponieważ skuteczność „tak jak nie ma jednego testu z atletyczną waleczność, nie może być jeden ostateczny test inteligencji.” Jeden z takich testów, „Konstrukcyjne wyzwanie”, testowałby percepcję i działanie fizyczne – „dwa ważne elementy inteligentnego zachowania, które były całkowicie nieobecne w oryginalnym teście Turinga ”. Inną propozycją było zapewnienie maszynom tych samych standardowych testów z nauk ścisłych i innych dyscyplin, które przechodzą dzieci w wieku szkolnym. Jak dotąd nie do pokonania przeszkodą dla sztucznej inteligencji jest niezdolność do rzetelnego ujednoznacznienia . „[V]praktycznie każde zdanie [generowane przez ludzi] jest niejednoznaczne , często na wiele sposobów”. Znaczący przykład jest znany jako „problem ujednoznacznienia zaimków”: maszyna nie ma możliwości określenia, do kogo lub czego odnosi się zaimek w zdaniu – taki jak „on”, „ona” lub „to”.
  • Scaruffi, Piero , „Intelligence is not Artificial” (2016) za krytykę ruchu osobliwości i jego podobieństw do kultów religijnych.

Zewnętrzne linki

Posłuchaj tego artykułu ( 52 minuty )
Mówiona ikona Wikipedii
Ten plik audio został utworzony na podstawie rewizji tego artykułu z dnia 3 listopada 2018 r. i nie odzwierciedla kolejnych edycji. ( 2018-11-03 )