Instytut Przyszłości Życia - Future of Life Institute

Współrzędne : 42.3736158°N 71.10973355°W 42°22′25″N 71°06′35″W /  / 42.3736158; -71.1097335

Instytut Przyszłości Życia
Logo Instytutu Przyszłości Życia
Skrót FLI
Tworzenie marzec 2014 ; 7 lat temu ( 2014-03 )
Założyciele
Rodzaj Instytut badawczy non-profit
NIP
47-1052538
Status prawny Aktywny
Cel, powód Redukcja ryzyka egzystencjalnego , szczególnie ze strony zaawansowanej sztucznej inteligencji
Lokalizacja
Prezydent
Max Tegmark
Strona internetowa przyszłośćoflife.org

Przyszłość Instytutu Życia ( FLI ) jest organizacją non-profit, która działa w celu zmniejszenia globalnego i katastrofalnych zagrożeń egzystencjalnych stoi ludzkość, szczególnie ryzyka egzystencjalnego z zaawansowaną sztuczną inteligencję (AI). Praca Instytutu składa się z trzech głównych nurtów: przyznawanie dotacji na redukcję ryzyka, zasięg edukacyjny i rzecznictwo w ramach Organizacji Narodów Zjednoczonych, rządu USA i instytucji Unii Europejskiej. Jej założycielami są kosmolog MIT Max Tegmark i współzałożyciel Skype'a Jaan Tallinn , a w radzie doradców znajduje się przedsiębiorca Elon Musk .

Misja

Max Tegmark , profesor na MIT , jeden z założycieli i obecny prezes Future of Life Institute

Misją FLI jest zmniejszenie globalnego ryzyka katastroficznego i egzystencjalnego związanego z potężnymi technologiami. FLI koncentruje się w szczególności na potencjalnych zagrożeniach dla ludzkości wynikających z rozwoju sztucznej inteligencji ogólnej (AGI) na poziomie człowieka lub superinteligentnej , ale pracuje również nad zagrożeniami związanymi z biotechnologią, bronią jądrową i zmianami klimatycznymi. Praca Instytutu składa się z przyznawania grantów na redukcję ryzyka, działania edukacyjne i rzecznictwo w ramach Organizacji Narodów Zjednoczonych, rządu USA i instytucji Unii Europejskiej.

Kluczowi ludzie

Instytut został założony w marcu 2014 r. przez kosmologa MIT Maxa Tegmarka , współzałożyciela Skype'a Jaana Tallinna , naukowca DeepMind Viktoriyę Krakovnę, stypendystę podoktorancką Tufts University Meię Chitę -Tegmark i fizyka UCSC Anthony'ego Aguirre'a . W skład 14-osobowej Rady Naukowej Instytutu wchodzą informatycy Stuart J. Russell i Francesca Rossi , biolog George Church , kosmolog Saul Perlmutter , astrofizyk Sandra Faber , fizyk teoretyczny Frank Wilczek , przedsiębiorca Elon Musk oraz aktorzy i popularyzatorzy nauki Alan Alda i Morgan Freeman (a także kosmolog Stephen Hawking przed śmiercią w 2018 roku).

Konferencje

W 2014 roku Future of Life Institute zorganizował w MIT inaugurację : panel dyskusyjny „Przyszłość technologii: korzyści i zagrożenia”, moderowany przez Alana Aldę . Panelistami byli biolog syntetyczny George Church , genetyk Ting Wu , ekonomista Andrew McAfee , fizyk i laureat Nagrody Nobla Frank Wilczek oraz współzałożyciel Skype'a Jaan Tallinn .

Od 2015 roku FLI organizuje dwa razy w roku konferencje, które gromadzą czołowych konstruktorów AI ze środowisk akademickich i przemysłowych. Do tej pory odbyły się następujące konferencje:

  • Konferencja „The Future of AI: Opportunities and Challenges” w Portoryko (2015). Celem było zidentyfikowanie obiecujących kierunków badań, które mogą pomóc zmaksymalizować przyszłe korzyści sztucznej inteligencji. Podczas konferencji Instytut rozpowszechnił list otwarty na temat bezpieczeństwa AI, który został następnie podpisany przez Stephena Hawkinga , Elona Muska i wielu ekspertów od sztucznej inteligencji.
  • Konferencja Beneficial AI w Asilomar w Kalifornii (2017), prywatne spotkanie, które The New York Times nazwał „ciężkimi ciosami AI” (w tym Yann LeCun , Elon Musk i Nick Bostrom ). Instytut opublikował zestaw zasad odpowiedzialnego rozwoju AI, który wyszedł z dyskusji na konferencji, podpisany przez Yoshuę Bengio , Yanna LeCuna i wielu innych badaczy AI. Zasady te wpłynęły na rozporządzenie w sprawie sztucznej inteligencji i kolejne inicjatywy, takie jak Zasady OECD dotyczące sztucznej inteligencji.
  • Korzystna konferencja AGI w Portoryko (2019). Spotkanie to koncentrowało się na długoterminowych pytaniach dotyczących zapewnienia, że ​​sztuczna ogólna inteligencja jest korzystna dla ludzkości.

Globalny program badawczy

Program badawczy FLI rozpoczął się w 2015 roku od początkowej darowizny w wysokości 10 milionów dolarów od Elona Muska. W przeciwieństwie do typowych badań nad sztuczną inteligencją, program ten koncentruje się na uczynieniu AI bezpieczniejszym lub korzystniejszym dla społeczeństwa, a nie tylko potężniejszym. W tej początkowej rundzie przyznano łącznie 7 milionów dolarów 37 projektom badawczym. W lipcu 2021 r. FLI ogłosiło, że uruchomi nowy program grantów w wysokości 25 milionów dolarów z dofinansowaniem od rosyjsko-kanadyjskiego programisty Vitalika Buterina .

W mediach

  • „Walka o określenie, kiedy sztuczna inteligencja jest 'wysokiego ryzyka'” w Wired .
  • „Śmiertelna broń autonomiczna istnieje; trzeba ją zakazać” w IEEE Spectrum .
  • „Stany Zjednoczone i sojusznicy protestują przeciwko rozmowom ONZ w sprawie zakazu broni jądrowej” w The New York Times .
  • „Czy sztuczna inteligencja jest zagrożeniem?” w The Chronicle of Higher Education , w tym wywiady z założycielami FLI Maxem Tegmarkiem , Jaanem Tallinnem i Viktoriya Krakovną.
  • "Ale co oznaczałby dla mnie koniec ludzkości?", wywiad z Maxem Tegmarkiem na temat idei stojących za FLI w The Atlantic .
  • Michael del Castillo (15 stycznia 2015). „Branding startupów nie kryje apokaliptycznych podtekstów listu podpisanego przez Elona Muska” . Początkowy dziennik biznesowy .

Zobacz też

Bibliografia

Zewnętrzne linki