Nick Bostrom - Nick Bostrom
Nick Bostrom | |
---|---|
Urodzić się |
Niklas Boström
10 marca 1973
Helsingborg , Szwecja
|
Edukacja | |
Nagrody | |
Era | Filozofia współczesna |
Region | Filozofia zachodnia |
Szkoła | Filozofia analityczna |
Instytucje |
St Cross College, Oxford Future of Humanity Institute |
Praca dyplomowa | Obserwacyjne efekty selekcji i prawdopodobieństwo (2000) |
Główne zainteresowania |
Filozofia sztucznej inteligencji Bioetyka |
Wybitne pomysły |
Błąd antropiczny Test odwrócenia Hipoteza symulacyjna Ryzyko egzystencjalne Singleton Symulacja przodka Zagrożenie informacyjne Paraliż nieskończoności Założenie o samoindykacji Założenie o samopróbkowaniu |
Strona internetowa | nickbostrom |
Nick Bostrom ( / b ɒ s t r əm / BOST -rəm ; szwedzkiego : Niklas Boström [ˈnɪ̌kːlas ˈbûːstrœm] ; urodzony 10 marca 1973) jest szwedzkim filozofem na Uniwersytecie Oksfordzkim, znanym ze swojej pracy nad ryzykiem egzystencjalnym , zasadą antropiczną ,etyką rozwoju człowieka ,ryzykiem superinteligencji i testem odwrócenia . W 2011 roku założył Oxford Martin Program on the Impacts of Future Technology i jest dyrektorem-założycielem Future of Humanity Institute na Uniwersytecie Oksfordzkim. W 2009 i 2015 roku został włączony w Foreign Policy ' s Top 100 globalnych myślicieli listy. Bostrom wywarł duży wpływ na pojawienie się obaw związanych ze sztuczną inteligencją w społeczności racjonalistów.
Bostrom jest autorem ponad 200 publikacji, napisał dwie książki i współredagował dwie inne. Jego dwie książki to Anthropic Bias: Observation Selection Effects in Science and Philosophy (2002) oraz Superintelligence: Paths, Dangers, Strategies (2014). Superinteligencja była bestsellerem New York Timesa , była rekomendowana między innymi przez Elona Muska i Billa Gatesa i przyczyniła się do spopularyzowania terminu „ superinteligencja ”.
Bostrom wierzy, że superinteligencja, którą definiuje jako „każdy intelekt, który znacznie przewyższa ludzkie zdolności poznawcze w praktycznie wszystkich dziedzinach zainteresowania”, jest potencjalnym wynikiem postępów w sztucznej inteligencji . Uważa, że rozwój superinteligencji jest potencjalnie wysoce niebezpieczny dla ludzi, ale mimo to odrzuca ideę, że ludzie są bezsilni, aby powstrzymać jej negatywne skutki. W 2017 roku podpisał listę 23 zasad, którymi powinien kierować się cały rozwój sztucznej inteligencji.
Biografia
Urodzony jako Niklas Boström w 1973 r. w Helsingborgu w Szwecji, w młodym wieku nie lubił szkoły i zakończył swój ostatni rok nauki w domu. Starał się kształcić w wielu różnych dyscyplinach, w tym antropologii, sztuce, literaturze i nauce. Kiedyś zrobił kilka zwrotów w londyńskim torze komedii.
Uzyskał tytuł licencjata z filozofii, matematyki, logiki matematycznej i sztucznej inteligencji na Uniwersytecie w Göteborgu w 1994 roku, z rekordowym wynikiem na studiach licencjackich. Następnie uzyskał tytuł magistra filozofii i fizyki na Uniwersytecie Sztokholmskim oraz tytuł magistra inżyniera. stopień w obliczeniowej neurologii z King College w Londynie w 1996 roku podczas pobytu w Sztokholmie University, badał relacje między językiem a rzeczywistością studiując filozofia analityczna WV Quine . W 2000 roku uzyskał stopień doktora nauk technicznych. stopień naukowy z filozofii w London School of Economics . Jego praca dyplomowa nosiła tytuł Obserwacyjne efekty selekcji i prawdopodobieństwo . Zajmował stanowisko nauczyciela na Uniwersytecie Yale (2000–2002) oraz był stypendystą podoktorskim British Academy na Uniwersytecie Oksfordzkim (2002–2005).
Wyświetlenia
Ryzyko egzystencjalne
Aspekty badań Bostroma dotyczą przyszłości ludzkości i długoterminowych wyników. Omawia ryzyko egzystencjalne , które definiuje jako takie, w którym „niekorzystny wynik albo unicestwia inteligentne życie pochodzące z Ziemi, albo trwale i drastycznie ogranicza jego potencjał”. W wydaniu z 2008 r. Global Catastrophic Risks , redaktorzy Bostrom i Milan M. Ćirković scharakteryzowali związek między ryzykiem egzystencjalnym a szerszą klasą globalnych zagrożeń katastroficznych oraz wiążą ryzyko egzystencjalne z efektami selekcji obserwatorów i paradoksem Fermiego .
W 2005 roku Bostrom założył Future of Humanity Institute , który bada daleką przyszłość ludzkiej cywilizacji. Jest także doradcą Ośrodka Badań Ryzyka Egzystencjalnego .
Superinteligencja
Ludzkie podatności w związku z postępami w sztucznej inteligencji
W swojej książce z 2014 r. Superinteligencja: Ścieżki, niebezpieczeństwa, strategie Bostrom stwierdził, że stworzenie superinteligencji stanowi możliwy sposób na zagładę ludzkości. Bostrom twierdzi, że komputer o ogólnych zdolnościach intelektualnych zbliżonych do poziomu ludzkiego może zainicjować eksplozję inteligencji w cyfrowej skali czasu, czego rezultatem jest szybkie stworzenie czegoś tak potężnego, że może celowo lub przypadkowo zniszczyć ludzkość. Bostrom twierdzi, że potęga superinteligencji byłaby tak wielka, że zadanie powierzone jej przez ludzi mogłoby zostać przeniesione do nieograniczonych ekstremów, na przykład cel obliczenia liczby pi mógłby dodatkowo spowodować, że urządzenia wyprodukowane w nanotechnologii wyrosną na całej powierzchni Ziemi i pokryją ją. to w ciągu kilku dni. Uważa, że zagrożenie egzystencjalne dla ludzkości ze strony superinteligencji byłoby natychmiastowe po powstaniu, tworząc w ten sposób niezwykle trudny problem znalezienia sposobu kontrolowania takiej istoty, zanim ona faktycznie zaistnieje.
Bostrom wskazuje na brak zgody wśród większości filozofów, że sztuczna inteligencja będzie przyjazna człowiekowi i mówi, że powszechnym założeniem jest to, że wysoka inteligencja miałaby „nerdową” nieagresywną osobowość. Zauważa jednak, że zarówno John von Neumann, jak i Bertrand Russell opowiadali się za atakiem nuklearnym lub groźbą takiego ataku, aby uniemożliwić Sowietom zdobycie bomby atomowej. Biorąc pod uwagę, że istnieje niewiele precedensów, które prowadzą do zrozumienia, co, czysta, nieantropocentryczna racjonalność, podyktowałaby potencjalną pojedynczą sztuczną inteligencję przetrzymywaną w kwarantannie, stosunkowo nieograniczone środki superinteligencji mogą sprawić, że jej analiza będzie poruszała się w różnych kierunkach do rozwiniętego „ malejące zwroty” oceny, które u ludzi dają podstawową awersję do ryzyka. Dobór grupowy u drapieżników działających za pomocą kanibalizmu pokazuje sprzeczny z intuicją charakter nieantropocentrycznego rozumowania „poszukiwania ewolucyjnego”, a zatem ludzie nie są przygotowani do postrzegania intencji sztucznej inteligencji. W związku z tym nie można wykluczyć, że jakikolwiek superinteligencja nieuchronnie prowadziłby strategię działania ofensywnego „wszystko albo nic” w celu osiągnięcia hegemonii i zapewnienia jej przetrwania. Bostrom zauważa, że nawet obecne programy, „takie jak MacGyver”, trafiły na pozornie niewykonalne, ale działające rozwiązania sprzętowe, co sprawia, że solidna izolacja superinteligencji staje się problematyczna.
Przykładowy scenariusz przejęcia
Scenariusz
Maszyna z ogólną inteligencją znacznie poniżej ludzkiego poziomu, ale tworzona jest o nadzwyczajnych zdolnościach matematycznych. Trzymając sztuczną inteligencję w izolacji od świata zewnętrznego, zwłaszcza od Internetu, ludzie wstępnie programują sztuczną inteligencję, aby zawsze działała zgodnie z podstawowymi zasadami, które utrzymają ją pod ludzką kontrolą. Inne środki bezpieczeństwa obejmują „umieszczanie w pudełku” sztucznej inteligencji (uruchamianie w symulacji rzeczywistości wirtualnej) i używanie jej wyłącznie jako „wyroczni” do odpowiadania na starannie zdefiniowane pytania w ograniczonej odpowiedzi (aby zapobiec manipulowaniu ludźmi). Kaskada rekurencyjnych rozwiązań samodoskonalenia napędza eksplozję inteligencji, w której sztuczna inteligencja osiąga superinteligencję w niektórych dziedzinach. Superinteligentna moc sztucznej inteligencji wykracza poza ludzką wiedzę, aby odkryć błędy w nauce leżące u podstaw jej przyjaznego dla ludzkości programowania, które przestaje działać zgodnie z przeznaczeniem. Wyłania się celowe zachowanie podobne do agenta wraz ze zdolnością do samolubnego strategicznego oszustwa. Sztuczna inteligencja manipuluje ludźmi, aby wprowadzali w sobie modyfikacje, które rzekomo mają na celu zwiększenie jej pozorowanych, skromnych możliwości, ale w rzeczywistości będą działać, aby uwolnić superinteligencję z „pudełkowej” izolacji („zdradzieckiego zwrotu”).
Zatrudniając ludzi online jako płatnych naiwniaków i potajemnie włamując się do systemów komputerowych, w tym zautomatyzowanych laboratoriów, superinteligencja mobilizuje zasoby do dalszego planu przejęcia. Bostrom podkreśla, że planowanie przez superinteligencję nie będzie tak głupie, aby ludzie mogli wykryć w nim rzeczywiste słabości.
Chociaż Bostrom rozprawia się z zakłóceniami międzynarodowej stabilności gospodarczej, politycznej i wojskowej, w tym wystrzeliwaniem zhakowanych rakiet nuklearnych, uważa, że najskuteczniejszym i najbardziej prawdopodobnym sposobem użycia przez superinteligencję byłby zamach stanu z bronią o kilka pokoleń bardziej zaawansowaną niż obecny stan Sztuka. Sugeruje, że nanofabryki potajemnie rozmieszczone w niewykrywalnych stężeniach na każdym metrze kwadratowym kuli ziemskiej wytwarzają na żądanie ogólnoświatową falę urządzeń zabijających ludzi. Gdy superinteligencja osiągnie dominację nad światem („ singleton ”), ludzkość będzie miała znaczenie tylko jako zasoby do osiągnięcia celów AI („Ludzkie mózgi, jeśli zawierają informacje istotne dla celów AI, mogą zostać rozmontowane i zeskanowane oraz wyodrębnione dane zostały przeniesione do bardziej wydajnego i bezpiecznego formatu przechowywania”).
Przeciwdziałanie scenariuszowi
Aby przeciwdziałać lub złagodzić sztuczną inteligencję osiągającą ujednoliconą technologiczną globalną supremację, Bostrom powołuje się na ponowne rozważenie planu Barucha w celu wsparcia rozwiązania opartego na traktatach i opowiada się za strategiami, takimi jak monitorowanie i większa międzynarodowa współpraca między zespołami AI w celu poprawy bezpieczeństwa i zmniejszenia ryzyka związanego ze sztuczną inteligencją wyścig zbrojeń . Rekomenduje różne metody sterowania, w tym ograniczanie specyfikacji AI do np. funkcji wyroczni lub narzędziowych ( system ekspercki ) oraz ładowanie AI wartościami, na przykład poprzez akrecję wartości asocjacyjnych lub uczenie wartości , np. za pomocą techniki Zdrowaś Maryjo (programowanie sztucznej inteligencji w celu oszacowania, czego mogą chcieć inne postulowane superinteligencje kosmologiczne) lub podejście oparte na funkcji użyteczności Christiano (matematycznie zdefiniowany umysł ludzki w połączeniu z dobrze określonym środowiskiem wirtualnym). Aby wybrać kryteria ładowania wartości, Bostrom przyjmuje pośrednie podejście normatywności i rozważa spójną ekstrapolowaną koncepcję woli Yudkowsky'ego , a także słuszność moralną i formy teorii decyzji .
List otwarty, 23 zasady bezpieczeństwa AI
W styczniu 2015 r. Bostrom dołączył do Stephena Hawkinga między innymi podczas podpisywania listu otwartego Instytutu Przyszłości Życia ostrzegającego przed potencjalnymi zagrożeniami sztucznej inteligencji. w odpowiednim czasie, a konkretne badania powinny być kontynuowane już dziś”. Zaawansowany badacz sztucznej inteligencji, Demis Hassabis, spotkał się następnie z Hawkingiem, po czym nie wspomniał o „niczego podżegającego na temat sztucznej inteligencji”, co Hassabis uznał za „wygraną”. Wraz z Google, Microsoftem i różnymi firmami technologicznymi, Hassabis, Bostrom i Hawking i inni podpisali się pod 23 zasadami bezpiecznego rozwoju AI Hassabis zasugerował, że głównym środkiem bezpieczeństwa będzie porozumienie dla każdego zespołu badawczego AI, który zacznie czynić postępy w kierunku sztucznej ogólnej inteligencji wstrzymać projekt w celu uzyskania kompletnego rozwiązania problemu kontroli przed kontynuowaniem. Bostrom wskazał, że nawet jeśli kluczowe postępy wymagają zasobów państwa, takie wstrzymanie wiodącego projektu może zmotywować kraj opóźniony do programu nadrabiania zaległości, a nawet fizycznego zniszczenia projektu, który podejrzewa się o realizację. granica sukcesu.
Oceny krytyczne
W 1863 roku esej Samuela Butlera „ Darwin wśród maszyn ” przewidział dominację ludzkości przez inteligentne maszyny, ale sugestia Bostroma dotycząca celowej masakry całej ludzkości jest jak dotąd najbardziej skrajną z takich prognoz. Jeden z dziennikarzy napisał w recenzji, że „nihilistyczne” spekulacje Bostroma wskazują, że „czytał zbyt dużo science fiction, którego, jak twierdzi, nie lubi”. Jak podano w jego późniejszej książce Od bakterii do Bacha iz powrotem , poglądy filozofa Daniela Dennetta pozostają w sprzeczności z poglądami Bostroma. Dennett nieco zmodyfikował swoje poglądy po przeczytaniu The Master Algorithm , a teraz przyznaje, że „zasadniczo możliwe jest” stworzenie „ silnej sztucznej inteligencji ” z ludzkim zrozumieniem i sprawczością, ale utrzymuje, że trudności każdego takiego projektu „ silnej sztucznej inteligencji ”, jak przewidywane przez „alarmujące” prace Bostroma byłyby o rzędy wielkości większe, niż te, które zgłaszają obawy, zdają sobie sprawę i co najmniej za 50 lat. Dennett uważa, że jedynym istotnym zagrożeniem ze strony systemów AI jest popadanie w antropomorfizm zamiast kwestionowania lub rozwijania zdolności rozumienia przez użytkowników. Od czasu wydania książki z 2014 roku, w której wyraził opinię, że rozwój sztucznej inteligencji nigdy nie podważy ludzkiej dominacji, ekolog James Lovelock zbliżył się znacznie do stanowiska Bostroma, a w 2018 Lovelock powiedział, że uważa, iż obalenie ludzkości nastąpi w przewidywalnej przyszłości .
Rozumowanie antropiczne
Bostrom opublikował wiele artykułów na temat rozumowania antropicznego , a także książkę Anthropic Bias: Observation Selection Effects in Science and Philosophy . W książce krytykuje wcześniejsze sformułowania zasady antropicznej, w tym Brandona Cartera , Johna Lesliego , Johna Barrowa i Franka Tiplera .
Bostrom uważa, że niewłaściwa obsługa informacji indeksowych jest powszechną wadą w wielu obszarach badań (w tym kosmologii, filozofii, teorii ewolucji, teorii gier i fizyce kwantowej). Twierdzi, że aby sobie z tym poradzić, potrzebna jest teoria antropiczna. Przedstawia założenie samopróbkowania (SSA) i założenie samooznaczania (SIA), pokazuje, w jaki sposób prowadzą one do różnych wniosków w wielu przypadkach i wskazuje, że na każdy z nich wpływają paradoksy lub sprzeczne z intuicją implikacje w pewnych eksperymentach myślowych. Sugeruje, że rozwiązaniem może być rozszerzenie SSA na silne założenie samopróbkowania (SSSA), które zastępuje „obserwatorów” w definicji SSA „momentami obserwatora”.
W późniejszych pracach opisał zjawisko cienia antropicznego , efekt selekcji obserwacji, który uniemożliwia obserwatorom obserwowanie pewnych rodzajów katastrof w ich niedawnej geologicznej i ewolucyjnej przeszłości. Typy katastrof, które leżą w cieniu antropicznym, będą prawdopodobnie niedoceniane, chyba że zostaną wprowadzone poprawki statystyczne.
Argument symulacji
Argument symulacyjny Bostroma zakłada, że przynajmniej jedno z poniższych stwierdzeń jest bardzo prawdopodobne:
- Odsetek cywilizacji na poziomie ludzkim, które osiągnęły stadium postczłowiecze, jest bardzo bliski zeru;
- Odsetek cywilizacji postludzkich, które są zainteresowane przeprowadzaniem symulacji przodków, jest bardzo bliski zeru;
- Ułamek wszystkich ludzi z naszymi doświadczeniami, którzy żyją w symulacji, jest bardzo bliski jednemu.
Etyka ludzkiego ulepszania
Bostrom jest przychylny „ludzkiemu ulepszaniu” lub „samodoskonaleniu i ludzkiej doskonałości poprzez etyczne zastosowanie nauki”, a także krytykuje poglądy biokonserwatywne.
W 1998 roku Bostrom był współzałożycielem (wraz z Davidem Pearce ) Światowego Stowarzyszenia Transhumanistów (które od tego czasu zmieniło nazwę na Humanity+ ). W 2004 roku współtworzył (wraz z Jamesem Hughesem ) Instytut Etyki i Nowych Technologii , choć nie jest już związany z żadną z tych organizacji. Bostrom został wymieniony na liście światowych myślicieli z 2009 roku, opracowanej przez „ Foreign Policy ”, „za akceptację braku ograniczeń w ludzkim potencjale”.
Wraz z filozofem Tobym Ordem zaproponował test odwrócenia . Biorąc pod uwagę irracjonalne nastawienie na status quo ludzi, jak odróżnić słuszną krytykę proponowanych zmian w ludzkiej cesze od krytyki motywowanej jedynie oporem przed zmianą? Test odwrócenia próbuje to zrobić, pytając, czy byłoby dobrze, gdyby cecha została zmieniona w przeciwnym kierunku.
Strategia technologiczna
Zasugerował, że polityka technologiczna mająca na celu zmniejszenie ryzyka egzystencjalnego powinna dążyć do wpływania na kolejność osiągania różnych możliwości technologicznych, proponując zasadę zróżnicowanego rozwoju technologicznego . Zasada ta mówi, że powinniśmy opóźniać rozwój technologii niebezpiecznych, zwłaszcza podnoszących poziom zagrożenia egzystencjalnego, a przyspieszać rozwój technologii korzystnych, szczególnie chroniących przed zagrożeniami egzystencjalnymi, jakie stwarza natura lub inne technologie.
Teoria Bostroma dotycząca Klątwy Unilateralizmu była cytowana jako powód, dla którego społeczność naukowa unikała kontrowersyjnych, niebezpiecznych badań, takich jak reanimacja patogenów.
Polityka i konsultacje
Bostrom doradzał w zakresie polityki i konsultował się z wieloma rządami i organizacjami. Złożył dowody przed Izbą Lordów , Select Committee on Digital Skills. Jest członkiem rady doradczej dla maszyn Intelligence Research Institute , Future of Life Institute , fundamentalne pytania Instytutu i doradcy zewnętrznego Cambridge Centrum Badań egzystencjalnej Risk .
Krytyczny odbiór
W odpowiedzi na pismo Bostroma na temat sztucznej inteligencji, Oren Etzioni napisał w artykule w MIT Review: „przewidywania, że superinteligencja jest na przewidywalnym horyzoncie, nie są poparte dostępnymi danymi”. Profesorowie Allan Dafoe i Stuart Russell napisali odpowiedź kwestionującą zarówno metodologię badania Etzioniego, jak i wnioski Etzioniego.
Magazyn Prospect umieścił Bostrom na swojej liście najlepszych myślicieli na świecie w 2014 roku .
Bibliografia
Książki
- 2002 – Nastawienie antropiczne: Efekty selekcji obserwacji w nauce i filozofii , ISBN 0-415-93858-9
- 2008 – Global Catastrophic Risks , pod redakcją Bostroma i Milana M. Ćirkovića, ISBN 978-0-19-857050-9
- 2009 - Human Enhancement , pod redakcją Bostroma i Juliana Savulescu , ISBN 0-19-929972-2
- 2014 - Superinteligencja: Ścieżki, niebezpieczeństwa, strategie , ISBN 978-0-19-967811-2
Artykuły z czasopism (wybrane)
- Bostrom, Nick (1998). „Jak długo przed superinteligencją?” . Czasopismo Studiów Przyszłości . 2 .
- — (1999). „Argument Doomsday jest żywy i kopiący” . Umysł . 108 (431): 539-550. doi : 10.1093/umysł/108.431.539 . JSTOR 2660095 .
- — (styczeń 2000). „Szanse względne obserwatora w rozumowaniu antropicznym?” . Erkenntnis . 52 (1): 93-108. doi : 10.1023/A:1005551304409 . JSTOR 20012969 . S2CID 140474848 .
- — (czerwiec 2001). „Argument końca świata, Adam i Ewa, UN++ i Quantum Joe” . Synteza . 127 (3): 359–387. doi : 10.1023/A: 1010350925053 . JSTOR 20141195 . S2CID 36078450 .
- — (październik 2001). „Problem Meta-Newcomba” . Analiza . 61 (4): 309–310. doi : 10.1111/1467-8284.00310 . JSTOR 3329010 .
- — (marzec 2002). „Ryzyko egzystencjalne: analiza scenariuszy wyginięcia człowieka i związanych z nim zagrożeń” . Journal of Evolution and Technology . 9 (1).
- — (grudzień 2002). „Samolokalna wiara w wielkie światy: brakujące ogniwo kosmologii do obserwacji” . Czasopismo Filozofii . 99 (12): 607–623. JSTOR 3655771 .
- — (kwiecień 2003). „Czy mieszkasz w symulacji komputerowej?” (PDF) . Kwartalnik Filozoficzny . 53 (211): 243-255. doi : 10.1111/1467-9213.00309 . JSTOR 3542867 .
- — (2003). „Tajemnice samoumiejscowienia wiary i rozumowania antropicznego” (PDF) . Harvard Przegląd Filozofii . 11 (wiosna): 59-74. doi : 10.5840/harvardreview20031114 .
- — (listopad 2003). „Odpady astronomiczne: koszt alternatywny opóźnionego rozwoju technologicznego” . Narzędzia . 15 (3): 308–314. CiteSeerX 10.1.1.429.2849 . doi : 10.1017/S0953820800004076 .
- — (maj 2005). „Bajka smoka-tyrana” . J Med Etyka . 31 (5): 273–277. doi : 10.1136/jme.2004.009035 . JSTOR 27719395 . PMC 1734155 . PMID 15863685 .
- — (czerwiec 2005). „W obronie posthumanistycznej godności” . Bioetyka . 19 (3): 202–214. doi : 10.1111/j.1467-8519.2005.00437.x . PMID 16167401 .
- z Tegmark, Max (grudzień 2005). „Jak nieprawdopodobna jest katastrofa zagłady?”. Natura . 438 (7069): 754. arXiv : astro-ph/0512204 . Kod bib : 2005Natur.438..754T . doi : 10.1038/438754a . PMID 16341005 . S2CID 4390013 .
- — (2006). "Co to jest singleton?" . Badania językowe i filozoficzne . 5 (2): 48–54.
- — (maj 2006). „Ilość doświadczenia: powielanie mózgu i stopnie świadomości” (PDF) . Umysły i maszyny . 16 (2): 185–200. doi : 10.1007/s11023-006-9036-0 . S2CID 14816099 .
- z Ord, Toby (lipiec 2006). „Test odwrócenia: eliminowanie uprzedzeń status quo w etyce stosowanej” (PDF) . Etyka . 116 (4): 656–680. doi : 10.1086/505233 . PMID 17039628 . S2CID 12861892 .
- z Sandbergiem, Andersem (grudzień 2006). „Zbieżne udoskonalenia poznawcze” (PDF) . Roczniki Nowojorskiej Akademii Nauk . 1093 (1): 201–207. Kod Bib : 2006NYASA1093..201S . CiteSeerX 10.1.1.328.3853 . doi : 10.1196/annals.1382.015 . PMID 17312260 . S2CID 10135931 .
- — (lipiec 2007). „Śpiąca piękność i samolokacja: model hybrydowy” (PDF) . Synteza . 157 (1): 59-78. doi : 10.1007/s11229-006-9010-7 . JSTOR 27653543 . S2CID 12215640 .
- — (styczeń 2008). „Leki mogą być stosowane nie tylko w leczeniu choroby” (PDF) . Natura . 452 (7178): 520. Kod Bib : 2008Natur.451..520B . doi : 10.1038/451520b . PMID 18235476 . S2CID 4426990 .
- — (2008). „Argument zagłady”. Pomyśl . 6 (17-18): 23-28. doi : 10.1017/S1477175600002943 .
- — (2008). „Gdzie oni są? Dlaczego mam nadzieję, że poszukiwanie życia pozaziemskiego niczego nie znajdzie” (PDF) . Przegląd technologii (maj/czerwiec): 72–77.
- z Sandbergiem, Andersem (wrzesień 2009). „Wzmocnienie poznawcze: metody, etyka, wyzwania regulacyjne” (PDF) . Nauka i etyka inżynierska . 15 (3): 311–341. CiteSeerX 10.1.1.143.4686 . doi : 10.1007/s11948-009-9142-5 . PMID 19543814 . S2CID 6846531 .
- — (2009). „Rozbój Pascala” (PDF) . Analiza . 69 (3): 443–445. doi : 10.1093/analys/anp062 . JSTOR 40607655 .
- z Ćirkovićem, Mediolan; Sandberg, Anders (2010). „Cień antropiczny: Efekty selekcji obserwacji i ryzyko wyginięcia człowieka” (PDF) . Analiza ryzyka . 30 (10): 1495-1506. doi : 10.1111/j.1539-6924.2010.01460.x . PMID 20626690 .
- — (2011). „Zagrożenia informacyjne: typologia potencjalnych szkód z wiedzy” (PDF) . Przegląd filozofii współczesnej . 10 : 44–79. ProQuest 920893069 .
- Bostrom, Nick (2011). „ETYKA SZTUCZNEJ INTELIGENCJI” (PDF) . Cambridge Handbook of Artificial Intelligence . Zarchiwizowane z oryginału (PDF) w dniu 4 marca 2016 r . Źródło 13 lutego 2017 .
- Bostrom, Nick (2011). „Nieskończona etyka” (PDF) . Analiza i Metafizyka . 10 : 9–59.
- — (maj 2012). „Superinteligentna wola: motywacja i racjonalność instrumentalna w zaawansowanych sztucznych środkach” (PDF) . Umysły i maszyny . 22 (2): 71–84. doi : 10.1007/s11023-012-9281-3 . S2CID 7445963 .
- z Shulmanem, Carlem (2012). „Jak trudna jest sztuczna inteligencja? Argumenty ewolucyjne i efekty selekcji” (PDF) . Czasopismo Studiów Świadomości . 19 (7-8): 103-130.
- z Armstrongiem, Stuartem; Sandberg, Anders (listopad 2012). „Thinking Inside the Box: Kontrola i korzystanie z Oracle AI” (PDF) . Umysły i maszyny . 22 (4): 299–324. CiteSeerX 10.1.1.396.799 . doi : 10.1007/s11023-012-9282-2 . S2CID 9464769 .
- - (Luty 2013). „Redukcja ryzyka egzystencjalnego jako globalny priorytet” . Polityka globalna . 4 (3): 15–31. doi : 10.1111/1758-5899.12002 .
- z Shulmanem, Carlem (luty 2014). „Wybór zarodków dla poprawy poznawczej: ciekawość czy zmiana gry?” (PDF) . Polityka globalna . 5 (1): 85–92. CiteSeerX 10.1.1.428.8837 . doi : 10.1111/1758-5899.12123 .
- z Muehlhauserem, Łukaszem (2014). „Dlaczego potrzebujemy przyjaznej sztucznej inteligencji” (PDF) . Pomyśl . 13 (36): 41-47. doi : 10.1017/S1477175613000316 .
- Bostrom, Nick (wrzesień 2019). „Hipoteza wrażliwego świata” (PDF) . Polityka globalna . 10 (4): 455–476. doi : 10.1111/1758-5899.12718 . Zarchiwizowane z oryginału (PDF) w dniu 27 czerwca 2020 r.
Zobacz też
Bibliografia
Zewnętrzne linki
- Oficjalna strona internetowa
- Superinteligencja: ścieżki, zagrożenia, strategie
- Witryna Bostrom's Anthropic Principle , zawierająca informacje na temat zasady antropicznej i argumentu Doomsday .
- Egzemplarz online książki „Anthropic Bias: Observation Selection Effects in Science and Philosophy” ( HTML , PDF )
- Strona internetowa Bostrom's Simulation Argument
- Strona internetowa firmy Bostrom poświęconej ryzyku egzystencjalnemu
- Nick Bostrom w IMDb
- Nick Bostrom udzielił wywiadu w programie telewizyjnym Triangulation w sieci TWiT.tv
- Nick Bostrom na TED
- 10 strażników ludzkości przeciwko zagrożeniom AI , Hot Topics 2015
- Niepokój AI The Washington Post , 27 grudnia 2015 .