Superinteligencja - Superintelligence

Superinteligencji jest hipotetyczny czynnik , który posiada inteligencję daleko wyprzedzając że z najzdolniejszych i najbardziej utalentowanych umysłów ludzkich. „Superinteligencja” może również odnosić się do właściwości systemów rozwiązywania problemów (np. superinteligentnych tłumaczy językowych lub asystentów inżynierów), niezależnie od tego, czy te wysokopoziomowe kompetencje intelektualne są ucieleśnione w agentach działających w świecie. Superinteligencja może, ale nie musi być stworzona przez eksplozję inteligencji i związana z osobliwością technologiczną .

Filozof z Uniwersytetu Oksfordzkiego, Nick Bostrom, definiuje superinteligencję jako „każdy intelekt, który znacznie przewyższa ludzkie zdolności poznawcze w praktycznie wszystkich dziedzinach zainteresowania”. Program Fritz nie jest superinteligencją – mimo że jest znacznie lepszy od ludzi w szachach – ponieważ Fritz nie może prześcignąć ludzi w innych zadaniach. Idąc za Hutterem i Leggiem, Bostrom traktuje superinteligencję jako ogólną dominację w zachowaniu zorientowanym na cel, pozostawiając otwartą kwestię, czy sztuczna, czy ludzka superinteligencja posiadałaby zdolności takie jak intencjonalność (por. chiński argument dotyczący pokoju ) czy świadomość pierwszoosobowa ( por . trudny problem świadomości ).

Badacze technologiczni nie zgadzają się co do tego, jak prawdopodobne jest przewyższenie dzisiejszej ludzkiej inteligencji . Niektórzy twierdzą, że postępy w sztucznej inteligencji (AI) prawdopodobnie doprowadzą do powstania ogólnych systemów rozumowania pozbawionych ludzkich ograniczeń poznawczych. Inni uważają, że ludzie będą ewoluować lub bezpośrednio modyfikować swoją biologię, aby osiągnąć radykalnie większą inteligencję. Szereg scenariuszy badań przyszłości łączy elementy z obu tych możliwości, co sugeruje, że ludzie mogą łączyć się z komputerami lub przesyłać swoje umysły do ​​komputerów w sposób, który umożliwia znaczne wzmocnienie inteligencji.

Niektórzy badacze uważają, że superinteligencja prawdopodobnie pojawi się wkrótce po opracowaniu sztucznej inteligencji ogólnej . Pierwsze, ogólnie inteligentne maszyny, prawdopodobnie natychmiast będą posiadać ogromną przewagę przynajmniej w niektórych formach zdolności umysłowych, w tym zdolności doskonałego przypominania , znacznie lepszej bazy wiedzy i zdolności do wykonywania wielu zadań jednocześnie w sposób niemożliwy do osiągnięcia przez istoty biologiczne. Może to dać im możliwość – albo jako pojedyncza istota, albo jako nowy gatunek – stać się znacznie potężniejszymi niż ludzie i ich wypierać.

Wielu naukowców i prognostów opowiada się za priorytetowym traktowaniem wczesnych badań nad możliwymi korzyściami i zagrożeniami rozwoju poznawczego ludzi i maszyn ze względu na potencjalny społeczny wpływ takich technologii.

Wykonalność sztucznej superinteligencji

Postęp w maszynowej klasyfikacji obrazów
Poziom błędu AI według roku. Czerwona linia - poziom błędu wyszkolonego człowieka

Filozof David Chalmers twierdzi, że sztuczna inteligencja ogólna jest bardzo prawdopodobną ścieżką do nadludzkiej inteligencji. Chalmers rozkłada to twierdzenie na argument, że sztuczna inteligencja może osiągnąć równoważność z ludzką inteligencją, że można ją rozszerzyć, aby przewyższyć ludzką inteligencję i że można ją dodatkowo wzmocnić, aby całkowicie zdominować ludzi w arbitralnych zadaniach.

Jeśli chodzi o równoważność na poziomie ludzkim, Chalmers twierdzi, że ludzki mózg jest systemem mechanicznym i dlatego powinien być emulowany przez materiały syntetyczne. Zauważa również, że ludzka inteligencja była w stanie ewoluować biologicznie, co zwiększa prawdopodobieństwo, że inżynierowie będą w stanie zrekapitulować ten wynalazek. W szczególności algorytmy ewolucyjne powinny być w stanie wytworzyć sztuczną inteligencję na poziomie człowieka. Jeśli chodzi o rozszerzanie i wzmacnianie inteligencji, Chalmers twierdzi, że nowe technologie sztucznej inteligencji można ogólnie ulepszyć i jest to szczególnie prawdopodobne, gdy wynalazek może pomóc w projektowaniu nowych technologii.

Gdyby badania nad silną sztuczną inteligencją wytworzyły wystarczająco inteligentne oprogramowanie, byłoby ono w stanie przeprogramować się i udoskonalić – funkcja nazywana „rekurencyjnym samodoskonaleniem”. Byłoby wtedy jeszcze lepiej w samodoskonaleniu i mogłoby to robić dalej w szybko rosnącym cyklu, prowadzącym do superinteligencji. Ten scenariusz jest znany jako eksplozja wywiadowcza . Taka inteligencja nie miałaby ograniczeń ludzkiego intelektu i mogłaby wynaleźć lub odkryć prawie wszystko.

Komponenty komputerowe już teraz znacznie przewyższają ludzką wydajność pod względem szybkości. Bostrom pisze: „Neurony biologiczne działają z maksymalną prędkością około 200 Hz, o całe siedem rzędów wielkości wolniej niż współczesny mikroprocesor (~2 GHz).” Co więcej, neurony przesyłają sygnały szczytowe przez aksony z prędkością nie większą niż 120 m/s, „podczas gdy istniejące elektroniczne rdzenie przetwarzające mogą komunikować się optycznie z prędkością światła”. Zatem najprostszym przykładem superinteligencji może być naśladowany ludzki umysł działający na znacznie szybszym sprzęcie niż mózg. Podobny do człowieka rozumujący, który mógłby myśleć miliony razy szybciej niż obecni ludzie, miałby dominującą przewagę w większości zadań rozumowania, szczególnie tych, które wymagają pośpiechu lub długich ciągów działań.

Kolejną zaletą komputerów jest modułowość, czyli możliwość zwiększenia ich wielkości lub mocy obliczeniowej. Mózg inny niż ludzki (lub zmodyfikowany ludzki) może stać się znacznie większy niż współczesny mózg ludzki, jak wiele superkomputerów . Bostrom podnosi również możliwość kolektywnego superinteligencji : wystarczająco duża liczba oddzielnych systemów rozumowania, jeśli komunikują się i koordynują wystarczająco dobrze, może działać łącznie z dużo większymi możliwościami niż jakikolwiek pod-agent.

Mogą również istnieć sposoby na jakościową poprawę ludzkiego rozumowania i podejmowania decyzji. Wydaje się, że ludzie różnią się od szympansów sposobem, w jaki myślimy, bardziej niż rozmiarem lub szybkością mózgu. Ludzie przewyższają zwierzęta w dużej mierze dzięki nowym lub ulepszonym zdolnościom rozumowania, takim jak planowanie długoterminowe i używanie języka . (Zob. ewolucja ludzkiej inteligencji i poznania naczelnych ). Jeśli istnieją inne możliwe ulepszenia rozumowania, które miałyby podobnie duży wpływ, to bardziej prawdopodobne jest, że można zbudować agenta, który przewyższa ludzi w ten sam sposób, w jaki ludzie przewyższają szympansy.

Wszystkie powyższe zalety odnoszą się do sztucznej superinteligencji, ale nie jest jasne, ile z nich ma zastosowanie do superinteligencji biologicznej. Fizjologiczne ograniczenia ograniczają szybkość i rozmiar biologicznych mózgów na wiele sposobów, które nie mają zastosowania do inteligencji maszynowej. W związku z tym autorzy zajmujący się superinteligencją poświęcili znacznie więcej uwagi scenariuszom superinteligentnej sztucznej inteligencji.

Wykonalność superinteligencji biologicznej

Ewolucja szybkości reakcji w noogenezie . W organizmie jednokomórkowym – szybkość przemieszczania się jonów przez błonę ~ m/s, wody przez błonę m/s, płyn wewnątrzkomórkowy (cytoplazma) m/s; Wewnątrz organizmu wielokomórkowego – prędkość przepływu krwi przez naczynia ~0,05 m/s, pęd wzdłuż włókien nerwowych ~100 m/s; W populacji ( ludzkość ) – łączność: dźwiękowa (głosowa i audio) ~300 m/s, kwantowo-elektronowa ~ m/s (prędkość fal radioelektromagnetycznych, prąd elektryczny, światło, optyczna, telekomunikacja).
Ewolucja ilości komponentów w inteligentnych systemach. - liczba neuronów w mózgu w trakcie rozwoju jednostki ( ontogenezy ), B - liczba osób ( ewolucji z populacji ludzkości) C - liczba neuronów nerwowego organizmów podczas ewolucji ( filogenezie ).
Ewolucja liczby połączeń systemów inteligentnych. A - liczba synaps między neuronami podczas indywidualnego rozwoju (ontogenezy) intelsystemu mózgu człowieka, B - liczba połączeń między ludźmi w dynamice wzrostu populacji ludzkiej, C - liczba synaps między neuronami w historycznym rozwoju ewolucyjnym (filogeneza) układów nerwowych do mózgu człowieka.
Powstawanie i ewolucja interakcji informacyjnych w populacjach ludzkości Aświatowa populacja ludzka → 7 miliardów; B – liczba osób piśmiennych ; C – liczba czytanych książek (z początkiem druku ); D – liczba odbiorników (radio, TV); E – liczba telefonów, komputerów, internautów

Carl Sagan zasugerował, że pojawienie się cięcia cesarskiego i zapłodnienia in vitro może pozwolić ludziom na wyewoluowanie większych głów, co skutkuje poprawą poprzez dobór naturalny w dziedzicznym składniku ludzkiej inteligencji . W przeciwieństwie do tego Gerald Crabtree argumentował, że zmniejszona presja selekcyjna skutkuje powolnym, trwającym wieki spadkiem ludzkiej inteligencji i że proces ten prawdopodobnie będzie kontynuowany w przyszłości. Nie ma naukowego konsensusu co do obu możliwości, aw obu przypadkach zmiana biologiczna byłaby powolna, szczególnie w stosunku do tempa zmian kulturowych.

Selektywna hodowla , nootropy , NSI-189 , MAOI , modulacja epigenetyczna i inżynieria genetyczna mogą szybciej poprawić ludzką inteligencję. Bostrom pisze, że jeśli zrozumiemy genetyczny składnik inteligencji, przedimplantacyjna diagnostyka genetyczna może być wykorzystana do selekcji zarodków z przyrostem IQ nawet o 4 punkty (jeśli wybrano jeden zarodek z dwóch) lub z większymi przyrostami. (np. do 24,3 punktów zdobytych IQ, jeśli jeden zarodek zostanie wybrany z 1000). Jeśli proces ten będzie powtarzany przez wiele pokoleń, zyski mogą być o rząd wielkości większe. Bostrom sugeruje, że pozyskiwanie nowych gamet z embrionalnych komórek macierzystych można wykorzystać do bardzo szybkiej iteracji procesu selekcji. Dobrze zorganizowane społeczeństwo ludzi o wysokiej inteligencji tego rodzaju mogłoby potencjalnie osiągnąć kolektywną superinteligencję.

Alternatywnie, inteligencję zbiorową można zbudować, lepiej organizując ludzi na obecnych poziomach inteligencji indywidualnej. Wielu autorów sugerowało, że cywilizacja ludzka lub jakiś jej aspekt (np. Internet lub gospodarka) zaczyna funkcjonować jak globalny mózg o możliwościach znacznie przewyższających jego składowych agentów. Jeśli jednak ta systemowa superinteligencja w dużej mierze opiera się na sztucznych komponentach, może kwalifikować się jako sztuczna inteligencja, a nie jako superorganizm oparty na biologii . Rynek prognostyczny bywa uważany za przykładem pracy zbiorowej systemu wywiadowczego, składający się wyłącznie z ludzi (zakładając algorytmy nie są wykorzystywane do informowania decyzje).

Ostateczną metodą wzmacniania inteligencji byłoby bezpośrednie wzmacnianie poszczególnych ludzi, w przeciwieństwie do wzmacniania ich dynamiki społecznej lub reprodukcyjnej. Można to osiągnąć za pomocą nootropów , somatycznej terapii genowej lub interfejsów mózg-komputer . Jednak Bostrom wyraża sceptycyzm co do skalowalności dwóch pierwszych podejść i argumentuje, że projektowanie superinteligentnego interfejsu cyborga jest problemem związanym z AI .

Ewolucja z możliwością integracji NI, IT i AI

W 2005 roku Aleksiej Eriomin w monografii „Noogeneza i teoria intelektu” zaproponował nową koncepcję noogenezy w zrozumieniu ewolucji systemów inteligencji. Ewolucja zdolności intelektualnych może następować przy jednoczesnym udziale inteligencji naturalnej (biologicznej) (NI), nowoczesnych zdobyczach technologii informacyjnej (IT) oraz przyszłych osiągnięć naukowych w dziedzinie sztucznej inteligencji (AI).

Ewolucja szybkości interakcji między komponentami systemów wywiadowczych

Pierwszą osobą, która zmierzyła prędkość (w zakresie 24,6 – 38,4 metrów na sekundę), z jaką sygnał jest przenoszony przez włókno nerwowe w 1849 roku, był Helmholtz . Dotychczas zmierzone szybkości przewodnictwa nerwowego wynoszą 0,5 – 120 m/s. Prędkość dźwięku i prędkości światła zostały określone wcześniej w XVII wieku. W XXI wieku stało się jasne, że określają one głównie prędkości fizycznych nośników sygnałów-informacji, pomiędzy inteligentnymi systemami i ich elementami: dźwięk (głos i dźwięk) ~300 m/s, elektron kwantowy ~ m/s (prędkość fal radioelektromagnetycznych, prądu elektrycznego, światła, optycznych, telekomunikacyjnych).

Ewolucja komponentów systemów wywiadowczych

W 1906 Santiago Ramón y Cajal zwrócił uwagę naukowców na centralne znaczenie neuronu i ustanowił doktrynę neuronową , która głosi, że układ nerwowy składa się z odrębnych pojedynczych komórek. Według współczesnych danych w mózgu dorosłego człowieka znajduje się około 86 miliardów neuronów.

Ewolucja powiązań między komponentami systemów wywiadowczych

Synapse – od greckiego synapsis (συνάψις), oznaczającego „spójność”, z kolei od συνάπτεὶν (συν („razem”) i ἅπτειν („zapinać”)) – została wprowadzona w 1897 roku przez Charlesa Sherringtona . Trafność pomiarów w tym kierunku potwierdzają zarówno współczesne kompleksowe badania współpracy, jak i powiązań informacji, genetycznych i kulturowych, ze względu na struktury na poziomie neuronalnym mózgu oraz znaczenie współpracy w rozwoju cywilizacji. W tym zakresie AL Eriomin przeanalizował znane dane dotyczące ewolucji liczby połączeń do współpracy w inteligentnych systemach. Można uznać, że połączenia, kontakty między obiektami biologicznymi, pojawiły się z wielokomórkowością około 3-3,5 miliarda lat temu. System szybkich połączeń wyspecjalizowanych komórek, które przekazują informacje za pomocą sygnałów elektrycznych, układu nerwowego, w całej historii życia pojawił się tylko w jednej głównej gałęzi ewolucyjnej: u zwierząt wielokomórkowych ( Metazoa ) i pojawił się w okresie ediakarskim (około 635 -542 mln lat temu). Podczas ewolucji (filogenezy) liczba połączeń między neuronami wzrosła z jednego do ~7000 połączeń synoptycznych każdego neuronu z innymi neuronami w ludzkim mózgu. Szacuje się, że mózg trzyletniego dziecka ma około synaps (1 biliard). W rozwoju indywidualnym (ontogenezie) liczba synaps zmniejsza się wraz z wiekiem do ~ . Według innych danych szacowana liczba synaps kory nowej w mózgu mężczyzn i kobiet zmniejsza się w ciągu życia człowieka od ~ do ~ .

Liczba kontaktów międzyludzkich jest trudna do obliczenia, ale „liczba Dunbara ” ~150 stabilnych powiązań ludzkich z innymi ludźmi jest w nauce ustalona, ​​założona poznawcza granica liczby osób, z którymi możliwe jest utrzymanie stabilnych relacji społecznych, zgodnie z innym autorom – przedział 100–290. W mózgu zidentyfikowano struktury odpowiedzialne za interakcje społeczne. Wraz z pojawieniem się Homo sapiens ~50-300 tysięcy lat temu znaczenie współpracy, jej ewolucja w populacji ludzkiej, wzrosło ilościowo. Jeśli 2000 lat temu na Ziemi było 0,1 miliarda ludzi, 100 lat temu 1 miliard, w połowie XX wieku 3 miliardy, a teraz ludzkość 7,7 miliarda. Tak więc łączną liczbę „stabilnych połączeń” między ludźmi, relacji społecznych w obrębie populacji, można oszacować liczbą ~ ”.

Noometria interakcji intelektualnej
Parametr Wyniki pomiarów
(limity)
Liczba elementów
systemów intelektualnych
~ –
Liczba połączeń między
komponentami
~ –
Szybkość interakcji między
komponentami (m/s)
~ –

Prognozy

Większość ankietowanych naukowców zajmujących się sztuczną inteligencją spodziewa się, że maszyny w końcu będą w stanie rywalizować z ludźmi pod względem inteligencji, chociaż nie ma zgody co do tego, kiedy to się prawdopodobnie stanie. Na konferencji AI@50 w 2006 r. 18% uczestników stwierdziło, że oczekuje, iż maszyny będą w stanie „symulować uczenie się i każdy inny aspekt ludzkiej inteligencji” do 2056 r.; 41% uczestników spodziewało się, że nastąpi to po 2056 roku; a 41% spodziewało się, że maszyny nigdy nie osiągną tego kamienia milowego.

W ankiecie przeprowadzonej wśród 100 najczęściej cytowanych autorów zajmujących się sztuczną inteligencją (stan na maj 2013 r., według wyszukiwania akademickiego Microsoft), mediana roku, w której respondenci oczekiwali maszyn „które mogą wykonywać większość ludzkich zawodów co najmniej tak dobrze, jak typowy człowiek” ( przy założeniu, że nie nastąpi żadna katastrofa globalna ) z 10% ufnością to 2024 (średnia 2034, st. dev. 33 lata), z 50% ufnością to 2050 (średnia 2072, st. dev. 110 lat), a z 90% ufnością to 2070 ( średnia 2168, st. dev. 342 lata). Szacunki te wykluczają 1,2% respondentów, którzy powiedzieli, że żaden rok nigdy nie osiągnie 10% pewności, 4,1%, którzy powiedzieli „nigdy” dla 50% pewności, oraz 16,5%, którzy powiedzieli „nigdy” dla 90% pewności. Respondenci przypisali medianę 50% prawdopodobieństwa możliwości wynalezienia superinteligencji maszynowej w ciągu 30 lat od wynalezienia inteligencji maszynowej w przybliżeniu na poziomie ludzkim.

Rozważania projektowe

Bostrom wyraził zaniepokojenie, jakie wartości powinna mieć superinteligencja. Porównał kilka propozycji:

  • Propozycja spójna ekstrapolowana wola (CEV) jest taka, że ​​powinna ona zawierać wartości, na których zbiegają się ludzie.
  • Propozycja moralnej słuszności (MR) zakłada, że ​​powinna ona cenić moralną słuszność.
  • Propozycja moralnej dopuszczalności (MP) polega na tym, że powinna ona cenić pozostawanie w granicach moralnej dopuszczalności (i poza tym mieć wartości CEV).

Bostrom wyjaśnia te terminy:

zamiast wdrażać spójną ekstrapolowaną wolę ludzkości, można spróbować zbudować sztuczną inteligencję w celu robienia tego, co jest moralnie słuszne, opierając się na wyższych zdolnościach poznawczych sztucznej inteligencji, aby dowiedzieć się, które działania pasują do tego opisu. Możemy nazwać tę propozycję „moralną słusznością” (MR)  … MR również wydaje się mieć pewne wady. Opiera się na pojęciu „moralnie słusznej”, niezwykle trudnej koncepcji, z którą filozofowie zmagali się od starożytności, nie osiągając jeszcze konsensusu co do jego analizy. Wybór błędnego wyjaśnienia „moralnej słuszności” może skutkować wynikami, które byłyby moralnie bardzo złe  … Ścieżka do wyposażenia AI w którekolwiek z tych [moralnych] pojęć może obejmować nadanie jej ogólnej zdolności językowej (przynajmniej porównywalnej z normalnego dorosłego człowieka). Taka ogólna zdolność rozumienia języka naturalnego mogłaby być następnie wykorzystana do zrozumienia, co oznacza „moralnie słuszne”. Gdyby sztuczna inteligencja mogła pojąć znaczenie, mogłaby szukać działań, które pasują  ...

Można próbować zachować podstawową ideę modelu MR, jednocześnie zmniejszając jego wymagania, skupiając się na moralnej dopuszczalności : chodzi o to, że możemy pozwolić sztucznej inteligencji na podążanie za CEV ludzkości, o ile nie działa w sposób moralnie niedopuszczalny.

Odpowiadając na Bostrom, Santos-Lang wyraził obawę, że deweloperzy mogą próbować zacząć od jednego rodzaju superinteligencji.

Potencjalne zagrożenie dla ludzkości

Sugerowano, że jeśli systemy AI szybko staną się superinteligentne, mogą podjąć nieprzewidziane działania lub prześcignąć ludzkość. Naukowcy argumentowali, że poprzez „eksplozję inteligencji” samodoskonaląca się sztuczna inteligencja może stać się tak potężna, że ​​nie będzie mogła zostać powstrzymana przez ludzi.

Jeśli chodzi o scenariusze wyginięcia człowieka, Bostrom (2002) identyfikuje superinteligencję jako możliwą przyczynę:

Kiedy tworzymy pierwszy superinteligentny byt, możemy popełnić błąd i wyznaczyć mu cele, które doprowadzą go do unicestwienia ludzkości, zakładając, że jego ogromna przewaga intelektualna daje mu do tego moc. Na przykład moglibyśmy omyłkowo podnieść podcel do statusu supercelu. Każemy mu rozwiązać problem matematyczny, a spełnia to zadanie, przekształcając całą materię w Układzie Słonecznym w gigantyczne urządzenie liczące, zabijając osobę, która zadała pytanie.

Teoretycznie, ponieważ superinteligentna sztuczna inteligencja byłaby w stanie doprowadzić do niemal każdego możliwego wyniku i udaremnić wszelkie próby uniemożliwienia realizacji jej celów, może pojawić się wiele niekontrolowanych, niezamierzonych konsekwencji . Może zabić wszystkich innych agentów, przekonać ich do zmiany zachowania lub zablokować próby ingerencji. Eliezer Yudkowsky ilustruje taką instrumentalną zbieżność w następujący sposób: „AI cię nie nienawidzi ani nie kocha, ale jesteś zrobiony z atomów, których może użyć do czegoś innego”.

Przedstawia to problem kontroli AI : jak zbudować inteligentnego agenta, który pomoże jego twórcom, unikając nieumyślnego budowania superinteligencji, która zaszkodzi jej twórcom. Niebezpieczeństwo niewłaściwego zaprojektowania kontroli „za pierwszym razem” polega na tym, że superinteligencja może przejąć władzę nad swoim środowiskiem i uniemożliwić ludziom jego zamknięcie. Ponieważ superinteligentna sztuczna inteligencja prawdopodobnie będzie w stanie nie bać się śmierci i zamiast tego uzna ją za sytuację, której można uniknąć, którą można przewidzieć i której można uniknąć, po prostu wyłączając przycisk zasilania. Potencjalne strategie kontroli AI obejmują „kontrolę zdolności” (ograniczenie zdolności AI do wpływania na świat) i „kontrolę motywacyjną” (budowanie sztucznej inteligencji, której cele są zgodne z ludzkimi wartościami).

Bill Hibbard opowiada się za edukacją publiczną na temat superinteligencji i publicznej kontroli nad rozwojem superinteligencji.

Zobacz też

Cytaty

Bibliografia

Zewnętrzne linki