Pokój chiński - Chinese room

Argument chińskiego pokoju utrzymuje, że cyfrowy komputer wykonujący program nie może mieć „ umysłu ”, „ rozumienia ” lub „ świadomości ”, niezależnie od tego, jak inteligentnie lub jak człowiek może zachowywać się komputer. Argument został przedstawiony przez filozofa Johna Searle'a w swoim artykule „Minds, Brains, and Programs”, opublikowanym w Behavioral and Brain Sciences w 1980 roku. Podobne argumenty przedstawili Gottfried Leibniz (1714), Anatoly Dneprov (1961), Lawrence Davis ( 1974) i Neda Blocka (1978). Wersja Searle'a była przez lata szeroko dyskutowana. Centralnym punktem argumentacji Searle'a jest eksperyment myślowy znany jako chiński pokój .

Argument jest skierowana przeciwko filozoficznych stanowisk od funkcjonalizmu i computationalism , które utrzymują, że umysł może być postrzegane jako działającym układzie przetwarzania informacji na temat symboli formalnych i że symulacja danego stanu psychicznego jest wystarczająca do jego obecności. W szczególności argument ten ma na celu obalenie stanowiska, które Searle nazywa silną sztuczną inteligencją : „Odpowiednio zaprogramowany komputer z odpowiednimi danymi wejściowymi i wyjściowymi miałby w ten sposób umysł dokładnie w tym samym sensie, w jakim ludzie mają umysły”.

Chociaż pierwotnie został przedstawiony w reakcji na wypowiedzi badaczy sztucznej inteligencji (AI), nie jest argumentem przeciwko celom głównego nurtu badań nad sztuczną inteligencją, ponieważ nie pokazuje limitu ilości „inteligentnych” zachowań, jakie może wykazywać maszyna . Argument dotyczy tylko komputerów cyfrowych z programami i nie dotyczy w ogóle maszyn.

Eksperyment myślowy w chińskim pokoju

Eksperyment myślowy Searle'a zaczyna się od tej hipotetycznej przesłanki: załóżmy, że badania nad sztuczną inteligencją doprowadziły do ​​skonstruowania komputera, który zachowuje się tak, jakby rozumiał chiński . Pobiera chińskie znaki jako dane wejściowe i, postępując zgodnie z instrukcjami programu komputerowego , tworzy inne chińskie znaki, które przedstawia jako dane wyjściowe. Załóżmy, mówi Searle, że ten komputer wykonuje swoje zadanie tak przekonująco, że bez problemu przechodzi test Turinga : przekonuje człowieka mówiącego po chińsku, że sam program jest żywym mówcą po chińsku. Na wszystkie pytania, które osoba ta zadaje, udziela odpowiednich odpowiedzi, tak aby każdy mówiący po chińsku był przekonany, że rozmawia z inną chińskojęzyczną istotą ludzką.

Pytanie, na które Searle chce odpowiedzieć, brzmi: czy maszyna dosłownie „rozumie” chiński? A może to tylko symulacja zdolności rozumienia języka chińskiego? Searle nazywa pierwszą pozycję „ silną sztuczną inteligencją ”, a drugą „słabą sztuczną inteligencją”.

Searle przypuszcza, że ​​znajduje się w zamkniętym pokoju i ma książkę z angielską wersją programu komputerowego, a także wystarczającą ilość papierów, ołówków, gumek i szafek na akta. Searle mógł odbierać chińskie znaki przez szczelinę w drzwiach, przetwarzać je zgodnie z instrukcjami programu i generować chińskie znaki jako dane wyjściowe. Jeśli komputer przeszedł test Turinga w ten sposób, wynika z tego, mówi Searle, że zrobiłby to również, po prostu uruchamiając program ręcznie.

Searle twierdzi, że nie ma zasadniczej różnicy między rolą komputera a jego rolą w eksperymencie. Każdy z nich po prostu podąża za programem, krok po kroku, wywołując zachowanie, które jest następnie interpretowane przez użytkownika jako demonstracja inteligentnej rozmowy. Jednak sam Searle nie byłby w stanie zrozumieć rozmowy. („Nie mówię ani słowa po chińsku” – zaznacza.) Dlatego, argumentuje, wynika z tego, że komputer również nie byłby w stanie zrozumieć rozmowy.

Searle twierdzi, że bez „zrozumienia” (lub „ intencjonalności ”) nie możemy opisać tego, co robi maszyna, jako „myślenia”, a ponieważ nie myśli, nie ma „umysłu” w niczym podobnym do normalnego słowo. Dlatego dochodzi do wniosku, że hipoteza „silnej sztucznej inteligencji” jest fałszywa.

Historia

Gottfried Leibniz wysunął podobny argument w 1714 r. przeciwko mechanizmowi (stanowisko, że umysł jest maszyną i niczym więcej). Leibniz wykorzystał eksperyment myślowy polegający na rozszerzeniu mózgu do rozmiarów młyna . Leibnizowi trudno było wyobrazić sobie, że „umysł” zdolny do „percepcji” może być skonstruowany wyłącznie za pomocą procesów mechanicznych.

W 1961 r. rosyjski cybernetyk Anatolij Dniepr przedstawił w zasadzie identyczny argument w postaci opowiadania „ Gra ”. W nim stadion ludzi działa jak przełączniki i komórki pamięci realizujące program tłumaczący zdanie na język portugalski, którego nikt z nich nie zna. Gra została zorganizowana przez "Profesora Zarubina", aby odpowiedzieć na pytanie "Czy maszyny matematyczne mogą myśleć?" Przemawiając przez Zarubina, Dniepr pisze, że „jedynym sposobem udowodnienia, że ​​maszyny potrafią myśleć, jest przekształcenie się w maszynę i zbadanie procesu myślenia”. i podsumowuje, podobnie jak Searle: „Udowodniliśmy, że nawet najdoskonalsza symulacja myślenia maszynowego nie jest samym procesem myślenia”.

W 1974 roku Lawrence Davis wyobraził sobie powielanie mózgu za pomocą linii telefonicznych i biur obsługiwanych przez ludzi, a w 1978 roku Ned Block wyobraził sobie całą populację Chin zaangażowaną w taką symulację mózgu. Ten eksperyment myślowy nazywa się mózgiem chińskim , a także „Narodem chińskim” lub „Chińską siłownią”.

John Searle w grudniu 2005 r.

Wersja Searle'a pojawiła się w jego artykule z 1980 roku „Minds, Brains and Programs”, opublikowanym w Behavioural and Brain Sciences . W końcu stał się "najbardziej wpływowym artykułem docelowym", generując ogromną liczbę komentarzy i odpowiedzi w następnych dziesięcioleciach, a Searle nadal bronił i udoskonalał argumentację w wielu artykułach, popularnych artykułach i książkach. David Cole pisze, że „argument Chińskiego Pokoju był prawdopodobnie najszerzej dyskutowanym argumentem filozoficznym w kognitywistyce, jaki pojawił się w ciągu ostatnich 25 lat”.

Większość dyskusji to próby obalenia tego. „Przytłaczająca większość”, zauważa redaktor BBS Stevan Harnad , „wciąż uważa, że ​​argument dotyczący chińskiego pokoju jest całkowicie błędny”. Sama ilość literatury, jaka się wokół niej narosła, zainspirowała Pata Hayesa do skomentowania, że ​​dziedzina kognitywistyki powinna zostać przedefiniowana jako „trwający program badawczy pokazujący, że argument chińskiego pokoju Searle'a jest fałszywy”.

Według Harnada argument Searle'a stał się „czymś klasykiem w kognitywistyce”. Varol Akman zgadza się i opisał oryginalny artykuł jako „przykład filozoficznej przejrzystości i czystości”.

Filozofia

Chociaż argument Chińskiego Pokoju został pierwotnie przedstawiony w reakcji na wypowiedzi badaczy sztucznej inteligencji , filozofowie uznali go za ważną część filozofii umysłu . Stanowi wyzwanie dla funkcjonalizmu i obliczeniowej teorii umysłu i wiąże się z takimi pytaniami, jak problem umysł-ciało , problem innych umysłów , problem ugruntowania symboli i trudny problem świadomości .

Silna sztuczna inteligencja

Searle zidentyfikował stanowisko filozoficzne, które nazywa „silną sztuczną inteligencją”:

Odpowiednio zaprogramowany komputer z odpowiednimi danymi wejściowymi i wyjściowymi miałby zatem umysł w dokładnie tym samym sensie, w jakim ludzie mają umysły.

Definicja zależy od rozróżnienia między symulowaniem umysłu a faktycznym posiadaniem umysłu. Searle pisze, że „według silnej sztucznej inteligencji prawidłowa symulacja to naprawdę umysł. Według słabej sztucznej inteligencji prawidłowa symulacja to model umysłu”.

Twierdzenie to jest zawarte w niektórych wypowiedziach wczesnych badaczy i analityków AI. Na przykład w 1955 roku założyciel AI Herbert A. Simon oświadczył, że „istnieją teraz na świecie maszyny, które myślą, uczą się i tworzą”. Simon, wraz z Allenem Newellem i Cliffem Shawem , po ukończeniu pierwszego programu „AI”, teoretyk logiki , twierdzili, że „rozwiązali czcigodny problem umysł-ciało” , wyjaśniając, w jaki sposób system złożony z materii może mieć właściwości umysłu. ”. John Haugeland napisał, że „AI chce tylko autentycznego artykułu: maszyn z umysłami , w pełnym i dosłownym tego słowa znaczeniu. To nie jest science fiction, ale prawdziwa nauka, oparta na koncepcji teoretycznej tak głębokiej, jak to możliwe: co do zasady, same komputery ”.

Searle przypisuje również zwolennikom silnej sztucznej inteligencji następujące twierdzenia:

  • Systemy AI mogą być używane do wyjaśniania umysłu;
  • Badanie mózgu nie ma znaczenia dla badania umysłu; oraz
  • Test Turinga jest odpowiedni do stwierdzenia istnienia stanów psychicznych.

Silna sztuczna inteligencja jako obliczeniowość lub funkcjonalizm

W nowszych prezentacjach chińskich argumentów pokojowych Searle zidentyfikował „silną sztuczną inteligencję” jako „komputerowy funkcjonalizm ” (termin, który przypisuje Danielowi Dennettowi ). Funkcjonalizm to stanowisko we współczesnej filozofii umysłu, które utrzymuje, że możemy zdefiniować zjawiska psychiczne (takie jak przekonania, pragnienia i percepcje) poprzez opisanie ich funkcji w odniesieniu do siebie nawzajem i do świata zewnętrznego. Ponieważ program komputerowy może dokładnie reprezentować relacje funkcjonalne jako relacje między symbolami, komputer może mieć zjawiska umysłowe, jeśli uruchomi odpowiedni program, zgodnie z funkcjonalizmem.

Stevan Harnad argumentuje, że przedstawione przez Searle'a obrazy silnej sztucznej inteligencji można przeformułować jako „rozpoznawalne zasady komputeryzacji , pozycję (w przeciwieństwie do „silnej sztucznej inteligencji”), którą w rzeczywistości zajmuje wielu myślicieli, a zatem warto ją obalić”. Komputeryzacja to stanowisko w filozofii umysłu, które twierdzi, że umysł można dokładnie opisać jako system przetwarzania informacji.

Każdy z poniższych, według Harnada, jest „zasadą” komputacji:

  • Stany psychiczne są stanami obliczeniowymi (dlatego komputery mogą mieć stany psychiczne i pomagać w wyjaśnianiu umysłu);
  • Stany obliczeniowe są niezależne od implementacji — innymi słowy, to oprogramowanie określa stan obliczeniowy, a nie sprzęt (dlatego mózg, będąc sprzętem, jest nieistotny); i to
  • Ponieważ implementacja jest nieistotna, jedyne dane empiryczne, które mają znaczenie, to sposób funkcjonowania systemu; stąd test Turinga jest ostateczny.

Silna sztuczna inteligencja a biologiczny naturalizm

Searle zajmuje stanowisko filozoficzne, które nazywa „ naturalizmem biologicznym ”: świadomość i rozumienie wymagają specyficznej maszynerii biologicznej, która znajduje się w mózgach. Pisze „mózgi powodują umysły” i że „rzeczywiste ludzkie zjawiska psychiczne [są] zależne od rzeczywistych właściwości fizykochemicznych rzeczywistych ludzkich mózgów”. Searle twierdzi, że ta maszyneria (znana neuronauce jako „ neuronowe korelaty świadomości ”) musi mieć pewne moce przyczynowe, które pozwalają na ludzkie doświadczanie świadomości. Wiara Searle'a w istnienie tych uprawnień została skrytykowana.

Searle nie zaprzecza poglądowi, że maszyny mogą mieć świadomość i zrozumienie, ponieważ, jak pisze, „jesteśmy dokładnie takimi maszynami”. Searle utrzymuje, że mózg jest w rzeczywistości maszyną, ale mózg daje początek świadomości i zrozumieniu za pomocą maszyn, które nie są obliczeniowe. Jeśli neuronauka jest w stanie wyizolować mechaniczny proces, który daje początek świadomości, to Searle przyznaje, że możliwe jest stworzenie maszyn, które mają świadomość i zrozumienie. Jednak bez określonej wymaganej maszynerii Searle nie wierzy, że świadomość może wystąpić.

Naturalizm biologiczny implikuje, że nie można określić, czy doświadczenie świadomości ma miejsce jedynie poprzez zbadanie, jak funkcjonuje system, ponieważ specyficzna maszyneria mózgu jest niezbędna. Tak więc naturalizm biologiczny jest bezpośrednio przeciwny zarówno behawioryzmowi, jak i funkcjonalizmowi (w tym „funkcjonalizmowi komputerowemu” lub „silnej sztucznej inteligencji”). Naturalizm biologiczny jest podobny do teorii tożsamości (stanowisko, że stany psychiczne są „identyczne” lub „składają się” ze zdarzeń neurologicznych); jednak Searle ma konkretne zastrzeżenia techniczne do teorii tożsamości. Biologiczny naturalizm Searle'a i silna sztuczna inteligencja sprzeciwiają się dualizmowi kartezjańskiemu , klasycznej idei, że mózg i umysł są zbudowane z różnych „substancji”. Rzeczywiście, Searle oskarża silną sztuczną inteligencję o dualizm, pisząc, że „silna sztuczna inteligencja ma sens tylko przy dualistycznym założeniu, że jeśli chodzi o umysł, mózg nie ma znaczenia”.

Świadomość

Oryginalna prezentacja Searle'a kładła nacisk na „zrozumienie” – to znaczy stany mentalne z tym, co filozofowie nazywają „ intencjonalnością ” – i nie odnosiła się bezpośrednio do innych ściśle powiązanych idei, takich jak „świadomość”. Jednak w nowszych prezentacjach Searle uwzględnił świadomość jako prawdziwy cel sporu.

Modele obliczeniowe świadomości same w sobie nie wystarczają dla świadomości. Model obliczeniowy świadomości odnosi się do świadomości w ten sam sposób, w jaki model obliczeniowy czegokolwiek ma się do modelowanej domeny. Nikt nie przypuszcza, że ​​model obliczeniowy ulewy w Londynie pozostawi nas wszystkich mokrych. Ale popełniają błąd, zakładając, że obliczeniowy model świadomości jest w jakiś sposób świadomy. W obu przypadkach jest to ten sam błąd.

—  John R. Searle, Świadomość i język, s. 16

David Chalmers pisze: „jest całkiem jasne, że świadomość leży u podstaw materii” chińskiego pokoju.

Colin McGinn twierdzi, że chiński pokój dostarcza mocnych dowodów na to, że trudny problem świadomości jest zasadniczo nie do rozwiązania. Żeby było jasne, argumentem nie jest to, czy maszyna może być świadoma, ale o to, czy (lub cokolwiek innego) można pokazać, że jest świadoma. Oczywiste jest, że każda inna metoda sondowania osoby przebywającej w chińskim pokoju ma w zasadzie takie same trudności jak wymiana pytań i odpowiedzi w języku chińskim. Po prostu nie da się odgadnąć, czy w pokoju zamieszkuje świadoma agencja, czy jakaś sprytna symulacja.

Searle twierdzi, że dotyczy to tylko obserwatora znajdującego się poza pokojem. Cały sens eksperymentu myślowego polega na umieszczeniu kogoś w pokoju, gdzie może bezpośrednio obserwować operacje świadomości. Searle twierdzi, że z jego punktu obserwacyjnego w pokoju nie widzi nic, co mogłoby wywołać świadomość, poza nim samym, i najwyraźniej nie ma umysłu, który mógłby mówić po chińsku.

Etyka stosowana

Siedząc w bojowym centrum informacyjnym na pokładzie okrętu wojennego – proponowanego jako prawdziwy odpowiednik chińskiego pokoju

Patrick Hew użył argumentu Chińskiego Pokoju, aby wydedukować wymagania z wojskowych systemów dowodzenia i kontroli , jeśli mają one zachować moralną sprawczość dowódcy . Stworzył analogię między dowódcą w ich centrum dowodzenia a osobą w chińskim pokoju i przeanalizował ją pod kątem odczytania pojęć Arystotelesa „obowiązek” i „ignorancja” . Informacja może być „przekonwertowana w dół” ze znaczenia do symboli i manipulowana symbolicznie, ale sprawczość moralna może zostać podważona, jeśli nie będzie niewystarczającego „przekształcenia w górę” w znaczenie. Hew przytoczył przykłady z incydentu na USS Vincennes .

Informatyka

Argument chińskiego pokoju jest przede wszystkim argumentem w filozofii umysłu i zarówno główni informatycy, jak i badacze sztucznej inteligencji uważają go za nieistotny dla ich dziedzin. Jednak kilka koncepcje opracowane przez naukowców komputerowych są niezbędne do zrozumienia argumentów, w tym przetwarzanie symboli , Maszyna Turinga , Kompletność Turinga , a Test Turinga .

Silna sztuczna inteligencja a badania nad sztuczną inteligencją

Argumenty Searle'a nie są zwykle uważane za problem w badaniach nad sztuczną inteligencją. Stuart Russell i Peter Norvig zauważają, że większość badaczy sztucznej inteligencji „nie przejmuje się hipotezą silnej sztucznej inteligencji — dopóki program działa, nie obchodzi ich, czy nazwiesz to symulacją inteligencji, czy prawdziwą inteligencją”. Podstawową misją badań nad sztuczną inteligencją jest jedynie tworzenie użytecznych systemów, które działają inteligentnie i nie ma znaczenia, czy inteligencja jest „tylko” symulacją.

Searle nie zaprzecza, że ​​badania nad sztuczną inteligencją mogą tworzyć maszyny zdolne do wysoce inteligentnego zachowania. Argument dotyczący chińskiego pokoju pozostawia otwartą możliwość zbudowania maszyny cyfrowej, która działa bardziej inteligentnie niż człowiek, ale nie ma umysłu ani intencjonalności w taki sam sposób, jak mózg .

„silnej sztucznej inteligencji” Searle nie należy mylić z „ silną sztuczną inteligencją ” zdefiniowaną przez Raya Kurzweila i innych futurystów, którzy używają tego terminu do opisania inteligencji maszynowej, która rywalizuje lub przewyższa ludzką inteligencję. Kurzweil skupia się przede wszystkim na ilości inteligencji wyświetlanej przez maszynę, podczas gdy argument Searle'a nie ogranicza tego. Searle twierdzi, że nawet superinteligentna maszyna niekoniecznie miałaby umysł i świadomość.

Test Turinga

„Standardowa interpretacja” testu Turinga, w której gracz C, przesłuchujący, ma za zadanie określić, który gracz – A czy B – jest komputerem, a który człowiekiem. Przesłuchujący ogranicza się do wykorzystania odpowiedzi na pytania pisemne w celu podjęcia decyzji. Obraz zaadaptowany z Saygin, et al. 2000.

W chińskim pokoju zaimplementowano wersję testu Turinga . Alan Turing wprowadził test w 1950 roku, aby odpowiedzieć na pytanie „czy maszyny mogą myśleć?” W wersji standardowej sędzia prowadzi rozmowę w języku naturalnym z człowiekiem i maszyną zaprojektowaną do generowania wydajności nie do odróżnienia od człowieka. Wszyscy uczestnicy są oddzieleni od siebie. Jeśli sędzia nie może wiarygodnie odróżnić maszyny od człowieka, mówi się, że maszyna przeszła test.

Turing następnie rozważył każdy możliwy sprzeciw wobec propozycji „maszyny mogą myśleć” i stwierdził, że istnieją proste, oczywiste odpowiedzi, jeśli pytanie jest demistyzowane w ten sposób. Nie zamierzał jednak, aby test mierzył obecność „świadomości” lub „rozumienia”. Nie wierzył, że ma to związek z kwestiami, którymi się zajmował. On napisał:

Nie chcę sprawiać wrażenia, że ​​myślę, że w świadomości nie ma żadnej tajemnicy. Istnieje na przykład coś w rodzaju paradoksu związanego z każdą próbą jego zlokalizowania. Ale nie sądzę, aby te tajemnice koniecznie musiały zostać rozwiązane, zanim będziemy mogli odpowiedzieć na pytanie, którym zajmujemy się w tym artykule.

Dla Searle'a, jako filozofa badającego naturę umysłu i świadomości , są to istotne tajemnice. Chiński pokój został zaprojektowany tak, aby pokazać, że test Turinga jest niewystarczający do wykrycia obecności świadomości, nawet jeśli pokój może zachowywać się lub funkcjonować jak świadomy umysł.

Przetwarzanie symboli

Chiński pokój (i wszystkie współczesne komputery) manipulują obiektami fizycznymi w celu wykonywania obliczeń i symulacji. Badacze AI Allen Newell i Herbert A. Simon nazwali ten rodzaj maszyny fizycznym systemem symboli . Jest również odpowiednikiem systemów formalnych stosowanych w dziedzinie logiki matematycznej .

Searle podkreśla fakt, że ten rodzaj manipulacji symbolami jest syntaktyczny (zapożyczony termin z badań gramatycznych ). Komputer manipuluje symbolami przy użyciu formy reguł składniowych , bez znajomości semantyki symbolu (czyli ich znaczenia ).

Newell i Simon przypuszczali, że fizyczny system symboli (taki jak komputer cyfrowy) posiada całą niezbędną maszynerię do „ogólnego inteligentnego działania” lub, jak wiadomo dzisiaj, sztuczną ogólną inteligencję . Sformułowali to jako stanowisko filozoficzne, hipotezę fizycznego systemu symboli : „Fizyczny system symboli ma niezbędne i wystarczające środki do ogólnego inteligentnego działania”. Argument chińskiego pokoju nie obala tego, ponieważ jest sformułowany w kategoriach „inteligentnego działania”, tj. zewnętrznego zachowania maszyny, a nie obecności lub braku zrozumienia, świadomości i umysłu.

Chiński pokój i kompletność Turinga

Pokój chiński ma wygląd analogiczny do nowoczesnego komputera. Ma architekturę Von Neumanna , która składa się z programu (księga instrukcji), pewnej ilości pamięci (karty i kartoteki), procesora wykonującego instrukcje (człowiek) oraz środków do zapisywania symboli w pamięci ( ołówek i gumka). Maszyna o tej konstrukcji jest znana w informatyce teoretycznej jako „ ukończona Turinga ”, ponieważ ma niezbędną maszynerię do wykonywania wszelkich obliczeń, które może wykonać maszyna Turinga , a zatem jest w stanie wykonać symulację krok po kroku jakakolwiek inna maszyna cyfrowa, mając wystarczająco dużo pamięci i czasu. Alan Turing pisze: „wszystkie komputery cyfrowe są w pewnym sensie równoważne”. Szeroko akceptowana teza Churcha-Turinga głosi, że każda funkcja obliczalna przez efektywną procedurę jest obliczalna przez maszynę Turinga.

Kompletność Turinga chińskiego pokoju sugeruje, że może on zrobić wszystko, co może zrobić każdy inny komputer cyfrowy (choć znacznie, znacznie wolniej). Tak więc, jeśli chiński pokój nie zawiera lub nie może zawierać umysłu mówiącego po chińsku, to żaden inny komputer cyfrowy nie może zawierać umysłu. Niektóre odpowiedzi dla Searle'a zaczynają się od stwierdzenia, że ​​pokój, jak opisano, nie może mieć umysłu mówiącego po chińsku. Argumenty w tej formie, według Stevana Harnada , są „żadnym obaleniem (ale raczej afirmacją)” argumentu chińskiego pokoju, ponieważ te argumenty faktycznie sugerują, że żaden komputer cyfrowy nie może mieć umysłu.

Niektórzy krytycy, tacy jak Hanoch Ben-Yami, twierdzą, że chiński pokój nie jest w stanie symulować wszystkich możliwości komputera cyfrowego, takich jak możliwość określenia aktualnego czasu.

Kompletny argument

Searle stworzył bardziej formalną wersję argumentacji, której częścią jest Pokój Chiński. Pierwszą wersję zaprezentował w 1984 roku. Wersja podana poniżej pochodzi z 1990 roku. Jedyną częścią argumentu, która powinna być kontrowersyjna, jest A3 i to jest ten punkt, który ma udowodnić chiński eksperyment myślowy.

Zaczyna od trzech aksjomatów:

(A1) "Programy są formalne ( syntaktyczne )."
Program używa składni do manipulowania symbolami i nie zwraca uwagi na semantykę symboli. Wie, gdzie umieścić symbole i jak nimi poruszać, ale nie wie, co oznaczają ani co oznaczają. Dla programu symbole są po prostu obiektami fizycznymi, takimi jak inne.
(A2) „Umysły mają treści mentalne ( semantyka ).”
W przeciwieństwie do symboli używanych przez program, nasze myśli mają znaczenie: przedstawiają rzeczy i wiemy, co one reprezentują.
(A3) "Składnia sama w sobie nie jest ani konstytutywna, ani wystarczająca dla semantyki."
Właśnie to ma udowodnić eksperyment myślowy dotyczący chińskiego pokoju: chiński pokój ma składnię (ponieważ jest tam mężczyzna poruszający symbolami). Chiński pokój nie ma semantyki (ponieważ według Searle'a w pokoju nie ma nikogo ani nikogo, kto by rozumie, co oznaczają symbole). Dlatego posiadanie składni nie wystarczy do wygenerowania semantyki.

Searle zakłada, że ​​prowadzą one bezpośrednio do tego wniosku:

(C1) Programy nie są ani konstytutywne, ani wystarczające dla umysłów.
Powinno to nastąpić bez kontrowersji z pierwszych trzech: Programy nie mają semantyki. Programy mają tylko składnię, a składnia jest niewystarczająca dla semantyki. Każdy umysł ma semantykę. Dlatego żadne programy nie są umysłami.

Tak duża część argumentu ma na celu pokazanie, że sztuczna inteligencja nigdy nie może stworzyć maszyny z umysłem poprzez pisanie programów manipulujących symbolami. Pozostała część argumentu dotyczy innego problemu. Czy ludzki mózg uruchamia program? Innymi słowy, czy obliczeniowa teoria umysłu jest poprawna? Zaczyna od aksjomatu, który ma wyrazić podstawowy współczesny konsensus naukowy dotyczący mózgów i umysłów:

(A4) Mózgi powodują umysły.

Searle twierdzi, że możemy wyprowadzić „natychmiast” i „trywialnie”, że:

(C2) Każdy inny system zdolny do wywoływania umysłów musiałby mieć moc przyczynową (przynajmniej) równoważną mocy mózgu.
Mózgi muszą mieć coś, co sprawia, że ​​umysł istnieje. Nauka musi jeszcze dokładnie określić, czym jest, ale musi istnieć, ponieważ istnieją umysły. Searle nazywa to „władzami przyczynowymi”. „Władze przyczynowe” to wszystko, czego mózg używa do tworzenia umysłu. Jeśli cokolwiek innego może spowodować istnienie umysłu, musi mieć „równoważne moce przyczynowe”. „Równorzędne uprawnienia przyczynowe” jest cokolwiek innego , które mogłyby zostać wykorzystane do umysłu.

I z tego wyciąga dalsze wnioski:

(C3) Każdy artefakt, który wytwarzał zjawiska umysłowe, każdy sztuczny mózg, musiałby być w stanie powielić określone moce przyczynowe mózgów, a nie mógłby tego zrobić po prostu uruchamiając formalny program.
To wynika z C1 i C2: Ponieważ program nie może produkować umysł, a „równoważne uprawnienia przyczynowych” umysły produkcji, wynika, że programy nie mają „takie same kompetencje przyczynowych.”
(C4) Sposób, w jaki ludzki mózg faktycznie wytwarza zjawiska umysłowe, nie może wynikać wyłącznie z uruchomienia programu komputerowego.
Ponieważ programy nie mają „równoważnych sił przyczynowych”, „równoważne siły przyczynowe” wytwarzają umysły, a mózgi wytwarzają umysły, wynika z tego, że mózgi nie używają programów do wytwarzania umysłów.

Odpowiedzi

Odpowiedzi na argumenty Searle'a można sklasyfikować według tego, co twierdzą, że pokazują:

  • Te, które identyfikują, kto mówi po chińsku
  • Te, które pokazują, jak bezsensowne symbole mogą stać się znaczące
  • Te, które sugerują, że chiński pokój powinien zostać w jakiś sposób przeprojektowany
  • Ci, którzy twierdzą, że argument Searle'a jest mylący
  • Ci, którzy twierdzą, że argument zawiera fałszywe założenia dotyczące subiektywnego świadomego doświadczenia i dlatego niczego nie dowodzi

Niektóre argumenty (na przykład symulacja robota i mózgu) można podzielić na wiele kategorii.

Systemy i odpowiedzi wirtualnego umysłu: odnajdywanie umysłu

Te odpowiedzi próbują odpowiedzieć na pytanie: skoro mężczyzna w pokoju nie mówi po chińsku, gdzie jest „umysł”, który mówi? Odpowiedzi te odnoszą się do kluczowych kwestii ontologicznych : umysł kontra ciało i symulacja kontra rzeczywistość. Wszystkie odpowiedzi, które identyfikują umysł w pokoju, są wersjami „odpowiedzi systemu”.

Odpowiedź systemu

Wersja podstawowa twierdzi, że to „cały system” rozumie język chiński. Podczas gdy mężczyzna rozumie tylko angielski, w połączeniu z programem, kartkami do zdrapek, ołówkami i segregatorami tworzą system, który rozumie język chiński. „Tutaj zrozumienia nie przypisuje się samej jednostce, lecz raczej całemu systemowi, którego jest częścią” – wyjaśnia Searle. To, że człowiek nie rozumie języka chińskiego, nie ma znaczenia, bo liczy się tylko system jako całość.

Searle zauważa, że ​​(w tej prostej wersji odpowiedzi) „system” to nic innego jak zbiór zwykłych obiektów fizycznych; daje moc zrozumienia i świadomości „połączeniu tej osoby i kawałków papieru” bez żadnego wysiłku, aby wyjaśnić, w jaki sposób ten stos przedmiotów stał się świadomą, myślącą istotą. Searle twierdzi, że żadna rozsądna osoba nie powinna być usatysfakcjonowana odpowiedzią, chyba że jest „pod wpływem ideologii”; Aby ta odpowiedź była choć trochę wiarygodna, należy przyjąć za pewnik, że świadomość może być produktem „systemu” przetwarzania informacji i nie wymaga niczego, co przypominałoby rzeczywistą biologię mózgu.

Searle następnie odpowiada, upraszczając tę ​​listę obiektów fizycznych: pyta, co się stanie, jeśli mężczyzna zapamięta zasady i śledzi wszystko w swojej głowie? Wtedy cały system składa się tylko z jednego przedmiotu: samego człowieka. Searle twierdzi, że jeśli mężczyzna nie rozumie chińskiego, to system również nie rozumie chińskiego, ponieważ teraz „system” i „człowiek” opisują dokładnie ten sam przedmiot.

Krytycy odpowiedzi Searle'a twierdzą, że program pozwolił człowiekowi mieć dwa umysły w jednej głowie. Jeśli założymy, że „umysł” jest formą przetwarzania informacji, to teoria obliczeń może uwzględniać dwa obliczenia występujące jednocześnie, a mianowicie (1) obliczenie uniwersalnej programowalności (która jest funkcją wykonywaną przez osobę i robienie notatek). materiały niezależnie od konkretnej zawartości programu) oraz (2) obliczenia maszyny Turinga opisane przez program (które są tworzone przez wszystko, łącznie z określonym programem). Teoria obliczeń w ten sposób formalnie wyjaśnia otwartą możliwość, że drugie obliczenie w chińskim pokoju może pociągać za sobą równoważne ludzkiemu rozumienie semantyczne chińskich danych wejściowych. Skupiamy się na maszynie Turinga programu, a nie na osobie. Jednak z perspektywy Searle'a ten argument jest błędny. Kwestią sporną jest to, czy świadomość jest formą przetwarzania informacji, a ta odpowiedź wymaga przyjęcia takiego założenia.

Bardziej wyrafinowane wersje odpowiedzi systemów próbują dokładniej określić, czym jest „system” i różnią się tym, jak go dokładnie opisują. Zgodnie z tymi odpowiedziami, „umysłem mówiącym po chińsku” mogą być takie rzeczy jak: „oprogramowanie”, „program”, „uruchomiony program”, symulacja „nerwowych korelatów świadomości”, „system funkcjonalny” , „symulowany umysł”, „ własność emergentna ” lub „ umysł wirtualny ” ( odpowiedź systemów w wersji Marvina Minsky'ego , opisana poniżej).

Odpowiedź wirtualnego umysłu

Termin „ wirtualny ” jest używany w informatyce do opisania obiektu, który wydaje się istnieć „w” komputerze (lub sieci komputerowej) tylko dlatego, że oprogramowanie sprawia, że ​​wydaje się istnieć. Wszystkie obiekty „wewnątrz” komputerów (w tym pliki, foldery itd.) są „wirtualne”, z wyjątkiem elementów elektronicznych komputera. Podobnie, argumentuje Minsky , komputer może zawierać „umysł”, który jest wirtualny w tym samym sensie, co maszyny wirtualne , wirtualne społeczności i wirtualna rzeczywistość .
Aby wyjaśnić różnicę między odpowiedzią prostego systemu podaną powyżej a odpowiedzią wirtualnego umysłu, David Cole zauważa, że ​​dwie symulacje mogą działać jednocześnie na jednym systemie: jedna mówiąca po chińsku i jedna mówiąca po koreańsku. Chociaż istnieje tylko jeden system, „wirtualnych umysłów” może być wiele, a zatem „system” nie może być „umysłem”.

Searle odpowiada, że ​​taki umysł jest w najlepszym razie symulacją i pisze: „Nikt nie przypuszcza, że ​​komputerowe symulacje pięcioalarmowego pożaru spalą okolicę lub że komputerowa symulacja ulewy pozostawi nas wszystkich przemoczonych”. Nicholas Fearn odpowiada, że ​​w niektórych przypadkach symulacja jest tak dobra, jak rzeczywistość. „Kiedy wywołujemy funkcję kalkulatora kieszonkowego na komputerze stacjonarnym, na ekranie pojawia się obraz kalkulatora kieszonkowego. Nie narzekamy, że „to tak naprawdę nie jest kalkulator”, ponieważ fizyczne atrybuty urządzenia nie materiał." Pytanie brzmi, czy ludzki umysł, jak kieszonkowy kalkulator, składa się zasadniczo z informacji? A może umysł jest jak burza, czymś innym niż komputer i nie można go w pełni zrealizować za pomocą symulacji komputerowej? Przez dziesięciolecia ta kwestia symulacji skłaniała badaczy i filozofów AI do rozważenia, czy termin „ inteligencja syntetyczna ” jest bardziej odpowiedni niż powszechny opis takich inteligencji jako „sztuczna”.

Te odpowiedzi wyjaśniają dokładnie, kto rozumie język chiński. Jeśli oprócz mężczyzny w pokoju jest coś, co rozumie chiński, Searle nie może argumentować, że (1) mężczyzna nie rozumie chińskiego, a zatem (2) nic w pokoju nie rozumie chińskiego. To, według tych, którzy udzielają tej odpowiedzi, pokazuje, że argument Searle'a nie dowodzi, że „silna sztuczna inteligencja” jest fałszywa.

Te odpowiedzi same w sobie nie dostarczają jednak żadnych dowodów na to, że silna sztuczna inteligencja jest prawdziwa . Nie pokazują, że system (lub wirtualny umysł) rozumie język chiński, poza hipotetyczną przesłanką, że przechodzi on test Turinga . Searle argumentuje, że jeśli mamy uznać silną sztuczną inteligencję za choć trochę prawdopodobną, to Pokój Chiński jest przykładem wymagającym wyjaśnienia i jest trudne lub niemożliwe wyjaśnienie, w jaki sposób świadomość może „wyłonić się” z pokoju lub w jaki sposób system miałby świadomość. Jak pisze Searle, „system odpowiada po prostu błaga o pytanie, nalegając, aby system musiał rozumieć język chiński”, a tym samym unika pytania lub jest beznadziejnie cykliczny.

Robot i odpowiedzi semantyczne: znajdowanie znaczenia

Jeśli chodzi o osobę w pokoju, symbole są po prostu bezsensownymi „zakrętkami”. Ale jeśli chiński pokój naprawdę „rozumie” to, co mówi, to symbole muszą skądś mieć swoje znaczenie. Te argumenty próbują połączyć symbole z rzeczami, które symbolizują. Odpowiedzi te dotyczą obaw Searle'a dotyczących intencjonalności , uziemienia symboli oraz składni i semantyki .

Odpowiedź robota

Załóżmy, że zamiast pokoju, program został umieszczony w robocie, który może wędrować i wchodzić w interakcje z otoczeniem. Pozwoliłoby to na „ powiązanie przyczynowe ” między symbolami a rzeczami, które reprezentują. Hans Moravec komentuje: „Gdybyśmy mogli przeszczepić robota do programu rozumowania, nie potrzebowalibyśmy już osoby, która nadałaby mu znaczenie: pochodziłby on ze świata fizycznego”.
Odpowiedź Searle'a polega na przypuszczeniu, że bez wiedzy osoby przebywającej w chińskim pokoju, niektóre wejścia pochodziły bezpośrednio z kamery zamontowanej na robocie, a niektóre z wyjść były używane do manipulowania rękami i nogami robota. Niemniej jednak osoba w pokoju nadal po prostu przestrzega zasad i nie wie, co oznaczają symbole. Searle pisze, że „nie widzi tego, co pojawia się w oczach robota”. ( Podobny eksperyment myślowy można znaleźć w pokoju Mary ).

Pochodne znaczenie

Niektórzy odpowiadają, że pokój, jak opisuje go Searle, jest połączony ze światem: poprzez chińskich głośników, z którymi „rozmawia” i przez programistów, którzy zaprojektowali bazę wiedzy w jego szafce na dokumenty. Symbole , którymi manipuluje Searle, są już znaczące , po prostu nie mają dla niego znaczenia .
Searle mówi, że symbole mają tylko „pochodne” znaczenie, tak jak znaczenie słów w książkach. Znaczenie symboli zależy od świadomego zrozumienia chińskich mówców i programistów znajdujących się poza pomieszczeniem. Pokój, podobnie jak książka, nie ma własnego zrozumienia.

Wiedza zdroworozsądkowa / odpowiedź kontekstualna

Niektórzy twierdzili, że znaczenia symboli pochodziłyby z ogromnego „tła” wiedzy zdroworozsądkowej zakodowanej w programie i szafkach na akta. Zapewniłoby to „ kontekst ”, który nadałby symbolom ich znaczenie.
Searle zgadza się, że to tło istnieje, ale nie zgadza się, że można je wbudować w programy. Hubert Dreyfus skrytykował również pomysł, że „tło” można przedstawić symbolicznie.

Na każdą z tych sugestii odpowiedź Searle'a jest taka sama: bez względu na to, ile wiedzy jest zapisane w programie i bez względu na to, jak program jest połączony ze światem, nadal jest w pokoju manipulując symbolami zgodnie z zasadami. Jego działania są syntaktyczne i to nigdy nie może mu wyjaśnić, co oznaczają symbole. Searle pisze, że „składnia jest niewystarczająca dla semantyki”.

Jednak dla tych, którzy akceptują, że działania Searle'a symulują umysł, oddzielony od jego własnego, ważnym pytaniem nie jest to, co symbole oznaczają dla Searle'a , ważne jest to, co znaczą one dla wirtualnego umysłu. Podczas gdy Searle jest uwięziony w pokoju, wirtualny umysł nie jest: jest połączony ze światem zewnętrznym za pośrednictwem chińskich głośników, z którymi rozmawia, za pośrednictwem programistów, którzy przekazali mu wiedzę o świecie, oraz za pomocą kamer i innych czujników, które mogą dostarczyć robotycy .

Symulacja mózgu i odpowiedzi koneksjonistów: przeprojektowanie pokoju

Te argumenty to wszystkie wersje odpowiedzi systemów, które identyfikują określony rodzaj systemu jako ważny; identyfikują jakąś specjalną technologię, która stworzyłaby świadome zrozumienie w maszynie. (Odpowiedzi „robot” i „zdroworozsądkowa wiedza” powyżej również określają pewien rodzaj systemu jako ważny.)

Odpowiedź symulatora mózgu

Załóżmy, że program szczegółowo symulował działanie każdego neuronu w mózgu osoby mówiącej po chińsku. Umacnia to intuicję, że nie byłoby znaczącej różnicy między działaniem programu a działaniem żywego ludzkiego mózgu.
Searle odpowiada, że ​​taka symulacja nie odtwarza ważnych cech mózgu — jego stanów przyczynowych i intencjonalnych. Searle jest nieugięty, że „ludzkie zjawiska psychiczne [są] zależne od rzeczywistych właściwości fizykochemicznych rzeczywistych ludzkich mózgów”. Ponadto argumentuje:

[I]wyobrażam sobie, że zamiast jednojęzycznego mężczyzny w pokoju, który tasuje symbole, mamy człowieka obsługującego skomplikowany zestaw rur wodociągowych z zaworami łączącymi je. Gdy mężczyzna otrzymuje chińskie symbole, sprawdza w programie napisanym po angielsku, które zawory ma włączać i wyłączać. Każdemu przyłączu wody odpowiada synapsa w chińskim mózgu, a cały system jest tak skonstruowany, że po wykonaniu wszystkich prawidłowych odpaleń, czyli po odkręceniu wszystkich właściwych kranów, chińskie odpowiedzi wyskakują na końcu serii rur. Gdzie jest zrozumienie w tym systemie? Pobiera chiński jako dane wejściowe, symuluje formalną strukturę synaps chińskiego mózgu i daje chiński jako wynik. Ale mężczyzna z pewnością nie rozumie chińskiego, podobnie jak rury wodociągowe, a jeśli mamy ochotę przyjąć absurdalny pogląd, że w jakiś sposób połączenie człowieka i wodociągów rozumie, pamiętajmy, że w zasadzie człowiek może zinternalizować formalną strukturę rur wodociągowych i wszystkie „odpalenia neuronów” w jego wyobraźni.

Dwie odmiany odpowiedzi symulatora mózgu to mózg chiński i scenariusz wymiany mózgu.
Chiny mózg
A co, jeśli poprosimy każdego obywatela Chin o symulację jednego neuronu, używając systemu telefonicznego do symulacji połączeń między aksonami a dendrytami ? W tej wersji wydaje się oczywiste, że żadna osoba nie miałaby pojęcia, co może mówić mózg. Jest również oczywiste, że ten system byłby funkcjonalnie równoważny mózgowi, więc jeśli świadomość jest funkcją, ten system byłby świadomy.
Scenariusz wymiany mózgu
W tym celu prosi nas o wyobrażenie sobie, że inżynierowie wynaleźli mały komputer, który symuluje działanie pojedynczego neuronu. Co by się stało, gdybyśmy wymieniali jeden neuron na raz? Zastąpienie jednego wyraźnie nie zmieniłoby świadomej świadomości. Zastąpienie ich wszystkich pozwoliłoby stworzyć cyfrowy komputer symulujący mózg. Jeśli Searle ma rację, świadoma świadomość musi zniknąć podczas zabiegu (albo stopniowo, albo za jednym razem). Krytycy Searle'a twierdzą, że nie byłoby sensu w trakcie procedury, gdyby mógł on twierdzić, że kończy się świadoma świadomość i zaczyna się bezmyślna symulacja. Searle przewiduje, że przechodząc przez protezę mózgu, „ku całkowitemu zdumieniu stwierdzasz, że rzeczywiście tracisz kontrolę nad swoim zewnętrznym zachowaniem. Odkrywasz na przykład, że kiedy lekarze testują twój wzrok, słyszysz, jak mówią: trzymają przed tobą czerwony przedmiot, proszę powiedz nam, co widzisz. Chcesz krzyczeć: "Nic nie widzę. Tracę się całkowicie w ciemno". Ale słyszysz swój głos mówiący w sposób, który jest całkowicie poza twoją kontrolą: „Widzę przed sobą czerwony obiekt”. [...] [Twoje] świadome doświadczenie powoli kurczy się do zera, podczas gdy twoje zewnętrznie obserwowalne zachowanie pozostaje takie samo.” (Zobacz Statek Tezeusza dla podobnego eksperymentu myślowego.)

Odpowiedzi koneksjonistów

Jest to ściśle związane z odpowiedzią symulatora mózgu, które twierdzi, że masowo równoległa architektura koneksjonistyczna byłaby zdolna do zrozumienia.

Kombinacja odpowiedzi

Ta odpowiedź łączy odpowiedź robota z odpowiedzią symulacji mózgu, argumentując, że symulacja mózgu połączona ze światem przez ciało robota może mieć umysł.

Wiele rezydencji / poczekaj na odpowiedź w przyszłym roku

Lepsza technologia w przyszłości pozwoli komputerom zrozumieć. Searle zgadza się, że jest to możliwe, ale uważa ten punkt za nieistotny. Searle zgadza się, że mogą istnieć projekty, które sprawią, że maszyna będzie miała świadome zrozumienie.

Te argumenty (oraz odpowiedzi robota lub zdroworozsądkowej wiedzy) identyfikują jakąś specjalną technologię, która pomogłaby stworzyć świadome zrozumienie w maszynie. Można je interpretować na dwa sposoby: albo twierdzą, że (1) ta technologia jest wymagana dla świadomości, chiński pokój nie stosuje lub nie może wdrożyć tej technologii, a zatem chiński pokój nie może zdać testu Turinga lub (nawet jeśli to zrobił) nie miałby świadomego zrozumienia. Albo mogą twierdzić, że (2) łatwiej jest dostrzec, że chiński pokój ma umysł, jeśli wyobrazimy sobie tę technologię jako używaną do jej stworzenia.

W pierwszym przypadku, w którym wymagane są funkcje takie jak ciało robota lub architektura koneksjonistyczna, Searle twierdzi, że porzucono silną sztuczną inteligencję (tak jak rozumie). Chiński pokój posiada wszystkie elementy kompletnej maszyny Turinga, dzięki czemu jest w stanie symulować dowolne obliczenia cyfrowe. Jeśli pokój Searle'a nie może przejść testu Turinga, to nie ma innej cyfrowej technologii, która mogłaby przejść test Turinga. Jeśli pokój Searle'a mógłby przejść test Turinga, ale nadal nie ma umysłu, to test Turinga nie jest wystarczający do ustalenia, czy pokój ma „umysł”. Tak czy inaczej, zaprzecza jednej lub drugiej pozycji, którą Searle uważa za „silną sztuczną inteligencję”, dowodząc jego argumentów.

Argumenty dotyczące mózgu w szczególności zaprzeczają silnej sztucznej inteligencji, jeśli zakładają, że nie ma prostszego sposobu na opisanie umysłu niż stworzenie programu, który jest tak samo tajemniczy jak mózg. Pisze: „Myślałem, że cała idea silnej sztucznej inteligencji polega na tym, że nie musimy wiedzieć, jak działa mózg, aby wiedzieć, jak działa umysł”. Jeśli obliczenia nie dostarczają wyjaśnienia ludzkiego umysłu, to według Searle'a silna sztuczna inteligencja zawiodła.

Inni krytycy utrzymują, że pokój taki, jak opisał go Searle, w rzeczywistości ma umysł, jednak twierdzą, że trudno go zobaczyć – opis Searle'a jest poprawny, ale mylący. Przebudowując pokój bardziej realistycznie, mają nadzieję uczynić to bardziej oczywistym. W tym przypadku te argumenty są używane jako odwołania do intuicji (patrz następny rozdział).

W rzeczywistości pokój można równie łatwo przeprojektować, aby osłabić naszą intuicję. Ned Blok „s Blockhead argumentacja sugeruje, że program może teoretycznie zostać przepisany w prosty tabeli przeglądowej z reguły w postaci«jeśli użytkownik pisze S , odpowiedź z P i goto X». Przynajmniej w zasadzie każdy program może zostać przepisany (lub „ zrefaktoryzowany ”) do tej postaci, nawet symulacja mózgu. W scenariuszu z blokadą cały stan psychiczny jest ukryty pod literą X, która reprezentuje adres pamięci — liczbę związaną z następną regułą. Trudno sobie wyobrazić, że chwilę świadomego doświadczenia można uchwycić w jednej dużej liczbie, ale to jest dokładnie to, co twierdzi „silna sztuczna inteligencja”. Z drugiej strony taka tabela przeglądowa byłaby absurdalnie duża (do tego stopnia, że ​​byłaby fizycznie niemożliwa), a zatem stany mogłyby być wyjątkowo szczegółowe.

Searle twierdzi, że niezależnie od tego, jak napisany jest program lub jakkolwiek maszyna jest połączona ze światem, umysł jest symulowany przez prostą, krok po kroku, cyfrową maszynę (lub maszyny). Te maszyny są zawsze takie same jak człowiek w pokoju: nic nie rozumieją i nie mówią po chińsku. Po prostu manipulują symbolami, nie wiedząc, co oznaczają. Searle pisze: „Mogę mieć dowolny formalny program, który ci się podoba, ale nadal nic nie rozumiem”.

Szybkość i złożoność: przemawia do intuicji

Poniższe argumenty (oraz intuicyjne interpretacje powyższych argumentów) nie wyjaśniają bezpośrednio, w jaki sposób chińskojęzyczny umysł może istnieć w pokoju Searle'a ani w jaki sposób symbole, którymi manipuluje, mogą nabrać znaczenia. Jednak budząc wątpliwości co do intuicji Searle'a, wspierają inne stanowiska, takie jak odpowiedzi systemu i robota. Argumenty te, jeśli zostaną zaakceptowane, uniemożliwiają Searle'owi twierdzenie, że jego wniosek jest oczywisty, podważając intuicję, której wymaga jego pewność.

Kilku krytyków uważa, że ​​argumentacja Searle'a opiera się całkowicie na intuicji. Ned Block pisze: „Argument Searle'a opiera się na intuicji, o której pewne istoty nie myślą”. Daniel Dennett opisuje argumentację chińskiego pokoju jako wprowadzającą w błąd „ pompę intuicyjną ” i pisze: „Eksperyment myślowy Searle'a zależy, nielegalnie, od twojego wyobrażenia sobie zbyt prostego przypadku, nieistotnego przypadku i wyciągania z niego „oczywistych” wniosków”.

Niektóre z powyższych argumentów działają również jako odwołania do intuicji, zwłaszcza te, które mają na celu uprawdopodobnienie, że chiński pokój zawiera umysł, który może obejmować robota, zdroworozsądkową wiedzę, symulację mózgu i odpowiedzi koneksjonistyczne. Kilka z powyższych odpowiedzi odnosi się również do konkretnego problemu złożoności. W odpowiedzi koneksjonistycznej podkreślono, że działający system sztucznej inteligencji musiałby być tak złożony i połączony jak ludzki mózg. Odpowiedź na temat wiedzy zdroworozsądkowej podkreśla, że ​​każdy program, który zdał test Turinga, musiałby być „niezwykle elastycznym, wyrafinowanym i wielowarstwowym systemem, wypełnionym„ wiedzą o świecie ”i meta-wiedzą i meta-meta-wiedzą”, jak wyjaśnia Daniel Dennett .

Odpowiedzi dotyczące szybkości i złożoności

Szybkość, z jaką ludzki mózg przetwarza informacje, wynosi (według niektórych szacunków) 100 miliardów operacji na sekundę. Kilku krytyków wskazuje, że człowiekowi w pokoju prawdopodobnie zajęłoby miliony lat, aby odpowiedzieć na proste pytanie i wymagałoby „szaf z aktami” o astronomicznych proporcjach. To poddaje w wątpliwość jasność intuicji Searle'a.

Szczególnie żywa wersja odpowiedzi o szybkości i złożoności pochodzi od Paula i Patricii Churchlandów . Proponują ten analogiczny eksperyment myślowy:

Świetlny pokój Churchlanda

„Rozważ ciemny pokój, w którym znajduje się mężczyzna trzymający magnes sztabkowy lub naładowany przedmiot. Jeśli mężczyzna pompuje magnes w górę i w dół, to zgodnie z teorią sztucznej luminancji Maxwella (AL), zainicjuje on rozprzestrzeniający się krąg fal elektromagnetycznych i w ten sposób będzie świecić. Ale jak wszyscy, którzy bawiliśmy się magnesami lub naładowanymi kulkami dobrze wiemy, ich siły (lub jakiekolwiek inne siły w tym przypadku), nawet gdy są wprawiane w ruch, w ogóle nie wytwarzają luminancji. może stanowić prawdziwą luminancję, po prostu przesuwając siły! Problem polega na tym, że musiałby wymachiwać magnesem w górę iw dół około 450 bilionów razy na sekundę, aby cokolwiek zobaczyć.

Stevan Harnad krytycznie odnosi się do szybkości i złożoności odpowiedzi, które wykraczają poza nasze intuicje. Pisze on: „Niektórzy stworzyli kult szybkości i wyczucia czasu, utrzymując, że po przyspieszeniu do odpowiedniej prędkości obliczenia mogą dokonać przejścia fazowego w mentalne. Powinno być jasne, że nie jest to kontrargument, a jedynie doraźna spekulacja ( podobnie jak pogląd, że wszystko to jest tylko kwestią doprowadzenia do odpowiedniego stopnia „złożoności”.)”

Searle argumentuje, że jego krytycy również opierają się na intuicji, jednak intuicje jego przeciwników nie mają podstaw empirycznych. Pisze, że aby uznać „odpowiedź systemu” za choć trochę prawdopodobną, człowiek musi być „pod wpływem ideologii”. Odpowiedź systemu ma sens (dla Searle'a) tylko wtedy, gdy założy się, że każdy „system” może mieć świadomość, tylko dzięki temu, że jest systemem z właściwym zachowaniem i częściami funkcjonalnymi. Twierdzi, że tego założenia nie da się obronić, biorąc pod uwagę nasze doświadczenie świadomości.

Inne umysły i zombie: bezsens

Kilka odpowiedzi twierdzi, że argument Searle'a jest nieistotny, ponieważ jego założenia dotyczące umysłu i świadomości są błędne. Searle wierzy, że ludzie codziennie bezpośrednio doświadczają swojej świadomości, intencjonalności i natury umysłu i że to doświadczenie świadomości nie podlega wątpliwości. Pisze, że musimy „założyć z góry rzeczywistość i poznawalność tego, co mentalne”. Odpowiedzi te kwestionują, czy Searle jest usprawiedliwiony w wykorzystywaniu własnego doświadczenia świadomości do ustalenia, że ​​jest to coś więcej niż mechaniczne przetwarzanie symboli. W szczególności odpowiedź innych umysłów argumentuje, że nie możemy wykorzystać naszego doświadczenia świadomości, aby odpowiedzieć na pytania dotyczące innych umysłów (nawet umysłu komputera), a odpowiedź epifenomena argumentuje, że świadomość Searle'a nie „istnieje” w takim sensie, w jakim myśli Searle. to robi.

Inne umysły odpowiadają
Ta odpowiedź wskazuje, że argument Searle'a jest wersją problemu innych umysłów , zastosowaną do maszyn. W żaden sposób nie możemy określić, czy subiektywne doświadczenie innych ludzi jest takie samo jak nasze. Możemy jedynie badać ich zachowanie (tj. dając im własny test Turinga ). Krytycy Searle'a twierdzą, że utrzymuje on pokój chiński na wyższym poziomie niż zwykli ludzie.

Nils Nilsson pisze: „Jeśli program zachowuje się tak, jakby się mnożył, większość z nas powiedziałaby, że w rzeczywistości mnoży. Z tego, co wiem, Searle może zachowywać się tylko tak, jakby głęboko myślał o tych sprawach. chociaż się z nim nie zgadzam, jego symulacja jest całkiem niezła, więc jestem skłonna przyznać mu prawdziwe przemyślenia.

Alan Turing przewidział argumentację Searle'a (którą nazwał „Argumentem ze świadomości”) w 1950 roku i sprawia, że ​​inne umysły odpowiadają. Zauważył, że ludzie nigdy nie zastanawiają się nad problemem innych umysłów w kontaktach ze sobą. Pisze on, że „zamiast nieustannie kłócić się o ten punkt, zwykle stosuje się konwencję grzeczności, o której wszyscy myślą”. Test Turinga po prostu rozszerza tę „konwencję grzecznościową” na maszyny. Nie zamierza rozwiązywać problemu innych umysłów (dla maszyn czy ludzi) i nie sądzi, że musimy.

Eliminacyjny materializm odpowiedź
Kilku filozofów twierdzi, że świadomość, jak opisuje ją Searle, nie istnieje. Stanowisko to jest czasami określane jako materializm eliminacyjny : pogląd, że świadomość jest właściwością, którą można sprowadzić do ściśle mechanicznego opisu, a nasze doświadczenie świadomości jest, jak opisuje to Daniel Dennett, „ iluzją użytkownika ”. Inne właściwości umysłowe, takie jak pierwotna intencjonalność (zwana również „znaczeniem”, „treścią” i „charakterem semantycznym”), są również powszechnie uważane za coś szczególnego w przekonaniach i innych postawach propozycjonalnych. Materializm eliminacyjny utrzymuje, że postawy propozycjonalne, takie jak przekonania i pragnienia, wśród innych intencjonalnych stanów mentalnych, które mają treść, nie istnieją. Jeśli materializm eliminacyjny jest poprawnym naukowym wyjaśnieniem ludzkiego poznania, to założenie argumentu chińskiego pokoju, że „umysły mają treść umysłową ( semantykę )” musi zostać odrzucone.

Stuart Russell i Peter Norvig twierdzą, że jeśli przyjmiemy opis intencjonalności, świadomości i umysłu Searle'a, jesteśmy zmuszeni zaakceptować, że świadomość jest epifenomenalna : że „nie rzuca cienia”, że jest niewykrywalna w świecie zewnętrznym. Twierdzą, że Searle musi się mylić co do „poznawalności umysłu” i jego przekonania, że ​​w naszych neuronach istnieją „właściwości przyczynowe”, które dają początek umysłowi. Wskazują, że według własnego opisu Searle, te właściwości przyczynowe nie mogą być wykryte przez nikogo poza umysłem, w przeciwnym razie Pokój Chiński nie mógłby zdać testu Turinga – ludzie na zewnątrz byliby w stanie stwierdzić, że nie było Chińczyka. głośnik w pomieszczeniu, wykrywając ich właściwości przyczynowe. Ponieważ nie mogą wykryć właściwości przyczynowych, nie mogą wykryć istnienia tego, co mentalne. Krótko mówiąc, „właściwości przyczynowe” Searle'a i sama świadomość są niewykrywalne, a wszystko, czego nie można wykryć, albo nie istnieje, albo nie ma znaczenia.

Daniel Dennett dostarcza tego rozszerzenia argumentu „epifenomena”.

Odpowiedź Dennetta z doboru naturalnego
Załóżmy, że w wyniku jakiejś mutacji rodzi się istota ludzka, która nie ma „właściwości przyczynowych” Searle'a, ale mimo to zachowuje się dokładnie tak, jak istota ludzka. (Ten rodzaj zwierzęcia jest nazywany " zombi " w eksperymentach myślowych w filozofii umysłu ). To nowe zwierzę będzie się rozmnażać jak każdy inny człowiek i ostatecznie będzie więcej tych zombie. Dobór naturalny faworyzowałby zombie, ponieważ ich konstrukcja jest (możemy przypuszczać) nieco prostsza. W końcu ludzie wyginą. Tak więc, jeśli Searle ma rację, najprawdopodobniej ludzie (tak jak widzimy ich dzisiaj) są w rzeczywistości „zombiami”, które mimo wszystko upierają się, że są świadome. Nie można wiedzieć, czy wszyscy jesteśmy zombie, czy nie. Nawet gdybyśmy wszyscy byli zombie, nadal wierzylibyśmy, że nie jesteśmy.

Searle nie zgadza się z tą analizą i twierdzi, że „badanie umysłu zaczyna się od takich faktów, jak to, że ludzie mają przekonania, podczas gdy termostaty, telefony i urządzenia dodawane nie… chcieliśmy wiedzieć, co odróżnia umysł od termostatów i wątroby." Uważa za oczywiste, że możemy wykryć obecność świadomości i odrzuca te odpowiedzi jako nie na temat.

Płonący miecz laserowy Newtona odpowiedź
Mike Alder twierdzi, że cała argumentacja jest niepoważne, ponieważ jest nie- verificationist : nie tylko jest różnica między symulacji umysłu i mając umysł źle zdefiniowany, ale jest też bez znaczenia, ponieważ nie były eksperymenty, a nawet może być zaproponowany rozróżnić te dwa.

Odpowiedź w języku angielskim

Margaret Boden udzieliła tej odpowiedzi w swoim artykule „Ucieczka z chińskiego pokoju”. Sugeruje w nim, że nawet jeśli osoba w pokoju nie rozumie chińskiego, nie oznacza to, że w pokoju nie ma zrozumienia. Osoba w pokoju przynajmniej rozumie księgę zasad używaną do udzielania odpowiedzi wyjściowych.

W kulturze popularnej

Argument chińskiego pokoju jest centralną koncepcją powieści Petera Wattsa Blindsight i (w mniejszym stopniu) Echopraxia . Jest to również główny motyw w grze wideo Virtue's Last Reward i wiąże się z narracją gry. W czwartym sezonie amerykańskiego dramatu kryminalnego Numb3rs znajduje się krótkie odniesienie do chińskiego pokoju.

The Chinese Room to także nazwa brytyjskiego niezależnego studia zajmującego się tworzeniem gier wideo, najlepiej znanego z pracy nad eksperymentalnymi grami pierwszoosobowymi, takimi jak Everybody's Gone to the Rapture czy Dear Esther .

W grze wideo The Turing Test z 2016 roku eksperyment myślowy Chińskiego Pokoju jest wyjaśniany graczowi przez sztuczną inteligencję.

Zobacz też

Uwagi

Cytaty

Bibliografia

Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF .
Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF .
Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF .
Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF .
Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF . Zobacz także oryginalny szkic Searle'a .
Powyższe numery stron odnoszą się do standardowego wydruku artykułu w formacie PDF .
Numery stron powyżej i zawartość diagramu odnoszą się do wydruku artykułu w liceum w formacie PDF .

Dalsza lektura