Efekt ELIZY - ELIZA effect

Efekt ELIZA w informatyce to tendencja do nieświadomego zakładania, że ​​zachowania komputerów są analogiczne do ludzkich; czyli antropomorfizacja .

Przegląd

W swojej specyficznej formie efekt ELIZA odnosi się tylko do „podatności ludzi na czytanie o wiele więcej zrozumienia niż jest to uzasadnione w ciągach symboli – zwłaszcza słów – połączonych ze sobą przez komputery”. Trywialny przykład szczególnej formy efektu Elizy, podany przez Douglasa Hofstadtera , dotyczy bankomatu, który wyświetla słowa „DZIĘKUJĘ” na końcu transakcji. (Bardzo) przypadkowy obserwator może pomyśleć, że maszyna faktycznie wyraża wdzięczność; jednak urządzenie drukuje tylko zaprogramowany ciąg symboli.

Bardziej ogólnie, efekt ELIZA opisuje każdą sytuację, w której, bazując wyłącznie na wynikach systemu, użytkownicy postrzegają systemy komputerowe jako posiadające „wewnętrzne cechy i zdolności, których oprogramowanie kontrolujące (wyjście) nie może osiągnąć” lub „zakłada, że ​​[wyniki] odzwierciedlają większą przyczynowość niż w rzeczywistości". Zarówno w postaci szczególnej, jak i ogólnej, efekt ELIZA jest godny uwagi, występując nawet wtedy, gdy użytkownicy systemu są świadomi determinacji produkcji wytwarzanej przez system. Z psychologicznego punktu widzenia efekt ELIZA jest wynikiem subtelnego dysonansu poznawczego między świadomością użytkownika o ograniczeniach programowych a jego zachowaniem wobec wyjścia programu . Odkrycie efektu ELIZA było ważnym osiągnięciem w dziedzinie sztucznej inteligencji , demonstrując zasadę używania socjotechniki zamiast bezpośredniego programowania w celu zdania testu Turinga .

Pochodzenie

Efekt został nazwany na cześć chatbota ELIZA z 1966 roku , opracowanego przez informatyka z MIT Josepha Weizenbauma . Podczas wykonywania scenariusza DOKTOR Weizenbauma ELIZA sparodiowała psychoterapeutę rogerian , głównie poprzez przeformułowanie odpowiedzi "pacjenta " na pytania:

Człowiek: Cóż, mój chłopak kazał mi tu przyjść.
ELIZA: Twój chłopak kazał ci tu przyjść?
Człowiek: Mówi, że przez większość czasu mam depresję.
ELIZA: Przykro mi słyszeć, że masz depresję.
Człowiek: To prawda. Jestem nieszczęśliwy.
ELIZA: Myślisz, że przyjazd tutaj pomoże ci nie być nieszczęśliwym?

Choć zaprojektowany wyłącznie jako mechanizm wspomagający „konwersację w języku naturalnym” z komputerem, skrypt DOCTOR ELIZY okazał się zaskakująco skuteczny w wywoływaniu reakcji emocjonalnych od użytkowników, którzy w trakcie interakcji z programem zaczęli przypisywać zrozumienie i motywację do wyjście programu. Jak później napisał Weizenbaum: „Nie zdawałem sobie sprawy… że ekstremalnie krótkie ekspozycje na stosunkowo prosty program komputerowy mogą wywołać silne urojenia w całkiem normalnych ludziach”. Rzeczywiście, kod ELIZY nie został zaprojektowany w celu wywołania takiej reakcji. Po obserwacji badacze odkryli, że użytkownicy nieświadomie zakładali, że pytania ELIZY sugerowały zainteresowanie i emocjonalne zaangażowanie w omawiane tematy, nawet jeśli świadomie wiedzieli, że ELIZA nie symuluje emocji .

Znaczenie dla pracy zautomatyzowanej

ELIZA przekonała niektórych użytkowników do myślenia, że ​​maszyna to człowiek. Ta zmiana w interakcji człowiek-maszyna oznacza postęp w technologiach naśladujących ludzkie zachowanie. William Meisel wyróżnia dwie grupy chatbotów jako „ogólnych asystentów osobistych ” i „wyspecjalizowanych asystentów cyfrowych”. Ogólni asystenci cyfrowi zostali zintegrowani z urządzeniami osobistymi, z umiejętnościami takimi jak wysyłanie wiadomości, robienie notatek, sprawdzanie kalendarzy i ustalanie terminów. Wyspecjalizowani asystenci cyfrowi „działają w bardzo specyficznych dziedzinach lub pomagają w bardzo specyficznych zadaniach”. Asystenci cyfrowi zaprogramowani tak, aby wspomagać produktywność, przyjmując zachowania analogiczne do ludzi.

Joseph Weizenbaum uważał, że nie każdą część ludzkiej myśli można sprowadzić do logicznych formalizmów i że „są pewne akty myślowe, które powinni podejmować tylko ludzie”. Zauważył również, że rozwijamy emocjonalne zaangażowanie z maszynami, jeśli wchodzimy z nimi w interakcje jako ludzie. Kiedy chatboty są antropomorfizowane, mają tendencję do przedstawiania cech płciowych jako sposobu nawiązywania relacji z technologią. „Stereotypy płciowe są instrumentalizowane w celu zarządzania naszymi relacjami z chatbotami”, gdy ludzkie zachowanie jest zaprogramowane w maszynach.

Praca sfeminizowana lub praca kobiet , zautomatyzowana przez antropomorficznych asystentów cyfrowych, wzmacnia „założenie, że kobiety mają naturalne powinowactwo do pracy usługowej i pracy emocjonalnej”. Definiując naszą bliskość z cyfrowymi asystentami poprzez ich ludzkie atrybuty, chatboty stają się podmiotami płciowymi.

Zobacz też

Uwagi

  1. ^ B Hofstadter Douglas R. (1996). „Przedmowa 4 Nieusuwalny efekt Elizy i jego niebezpieczeństwa, Epilog” . Koncepcje płynów i analogie twórcze: komputerowe modele podstawowych mechanizmów myślenia . Książki podstawowe. str. 157. Numer ISBN 978-0-465-02475-9.
  2. ^ Fenton-Kerr, Tom (1999). „GAIA: eksperymentalny środek pedagogiczny do badania interakcji multimodalnych”. Obliczenia dla metafor, analogii i agentów . Notatki z wykładów z informatyki. 1562 . Skoczek. str. 156. doi : 10.1007/3-540-48834-0_9 . Numer ISBN 978-3-540-65959-4. Chociaż Hofstadter podkreśla tutaj tryb tekstowy, „efekt Elizy” można zaobserwować w prawie wszystkich trybach interakcji człowiek/komputer.
  3. ^ Ekbia, Hamid R. (2008). Sztuczne sny: poszukiwanie niebiologicznej inteligencji . Wydawnictwo Uniwersytetu Cambridge. str. 8 . Numer ISBN 978-0-521-87867-8.
  4. ^ Król, W. (1995). Agenci antropomorficzni: przyjaciel, wróg lub szaleństwo (raport techniczny). Uniwersytet Waszyngtoński. M-95-1.
  5. ^ Rouse, William B.; Boff, Kenneth R. (2005). Symulacja organizacyjna . Wiley-IEEE. s. 308–309. Numer ISBN 978-0-471-73943-2. Jest to szczególny problem w środowiskach cyfrowych, gdzie „efekt Elizy”, jak się go czasem nazywa, powoduje, że interakcyjni zakładają, że system jest bardziej inteligentny niż jest w rzeczywistości, że zdarzenia odzwierciedlają większą przyczynowość niż w rzeczywistości.
  6. ^ Ekbia, Hamid R. (2008). Sztuczne sny: poszukiwanie niebiologicznej inteligencji . Wydawnictwo Uniwersytetu Cambridge. str. 156 . Numer ISBN 978-0-521-87867-8. Ale ludzie chcą wierzyć, że program „widzi” mecz piłki nożnej na jakimś wiarygodnym poziomie abstrakcji. Słowa, którymi manipuluje (program) są tak pełne skojarzeń dla czytelników, że NIE MOGĄ być odarte ze wszystkich ich wyobrażeń. Collins wiedział oczywiście, że jego program nie dotyczył niczego, co przypominałoby dwuwymiarowy świat płynnie poruszających się kropek (nie mówiąc już o uproszczeniu ludzkich ciał), i przypuszczalnie sądził, że jego czytelnicy również to zrozumieją. Nie mógł jednak podejrzewać, jak silny jest efekt Elizy.
  7. ^ Trappl, Robert; Petta, Paolo; Płatnik, Sabine (2002). Emocje w ludziach i artefaktach . Cambridge, Massachusetts: MIT Press. str. 353. Numer ISBN 978-0-262-20142-1. „Efekt Elizy” — tendencja ludzi do traktowania programów reagujących na nie tak, jakby miały więcej inteligencji niż w rzeczywistości (Weizenbaum 1966) jest jednym z najpotężniejszych narzędzi dostępnych twórcom wirtualnych postaci.
  8. ^ Guzeldere, Guven; Franchi, Stefano. „dialogi z barwnymi osobowościami wczesnego ai” . Zarchiwizowane od oryginału w dniu 2011-04-25 . Pobrano 2007-07-30 .
  9. ^ Weizenbaum, Józef (styczeń 1966). "ELIZA - Program komputerowy do badania komunikacji w języku naturalnym między człowiekiem a maszyną" . Komunikaty ACM . Massachusetts Institute of Technology . 9 : 36. doi : 10.1145/365153.365168 . Źródło 2008-06-17 .
  10. ^ Suchman, Lucy A. (1987). Plany i działania lokalizacyjne: Problem komunikacji człowiek-maszyna . Wydawnictwo Uniwersytetu Cambridge. str. 24. Numer ISBN 978-0-521-33739-7. Źródło 2008-06-17 .
  11. ^ Weizenbaum Józefa (1976). Moc komputera i rozum ludzki: od osądu do rachunku . WH Freemana. str. 7 .
  12. ^ Rachunki, Lee (2007-07-16). „Powstanie robotyki” . Nasiona . Zarchiwizowane od oryginału w dniu 28.02.2009. (Joseph) Weizenbaum nieoczekiwanie odkrył, że nawet jeśli w pełni zdają sobie sprawę, że rozmawiają z prostym programem komputerowym, ludzie będą traktować go tak, jakby to była prawdziwa, myśląca istota, która troszczyła się o ich problemy – zjawisko znane obecnie jako „ Efekt Elizy”.CS1 maint: nieodpowiedni adres URL ( link )
  13. ^ B Dale, Robert (wrzesień 2016). „Powrót chatbotów” . Inżynieria języka naturalnego . 22 (5): 811–817. doi : 10.1017/S1351324916000243 . ISSN  1351-3249 .
  14. ^ Weizenbaum Józefa (1976). Moc komputera i rozum ludzki: od osądu do kalkulacji . San Francisco, Kalifornia. Numer ISBN 0-7167-0464-1. OCLC  1527521 .
  15. ^ Costa, Pedro. Ribas, Luiza. Rozmowy z ELIZA: o płci i sztucznej inteligencji. Od (6. Konferencja na temat obliczeń, komunikacji, estetyki i X 2018) Dostęp do lutego 2021 r.
  16. ^ Hester, Helen. 2016. „Technologia staje się nią”. Nowe widoki 3 (1):46-50.

Bibliografia

  • Hofstadtera, Douglasa. Przedmowa 4: Nieusuwalny efekt Elizy i jego zagrożenia. (z: Fluid Concepts and Creative Analogies : Computer Models of the Fundamental Mechanisms of Thought , Basic Books: New York, 1995)
  • Turkle, S., Eliza Effect: tendencja do akceptowania odpowiedzi komputerowych jako bardziej inteligentnych niż są w rzeczywistości (z Życia na ekranie – Identity in the Age of the Internet , Phoenix Paperback: London, 1997)
  • Efekt ELIZA , z Jargon File , wersja 4.4.7. Dostęp 8 października 2006.