AI-kompletne - AI-complete

W dziedzinie sztucznej inteligencji najtrudniejsze problemy są nieformalnie określane jako AI-kompletne lub AI-trudne , co oznacza, że ​​trudność tych problemów obliczeniowych, przy założeniu, że inteligencja jest obliczeniowa, jest równoważna z rozwiązywaniem centralnego problemu sztucznej inteligencji – tworzenie komputery tak inteligentne jak ludzie, czy silna sztuczna inteligencja . Nazwanie problemu AI-kompletnym odzwierciedla postawę, że nie byłby on rozwiązany przez prosty, konkretny algorytm.

Przypuszcza się, że problemy związane ze sztuczną inteligencją obejmują widzenie komputerowe , rozumienie języka naturalnego i radzenie sobie z nieoczekiwanymi okolicznościami podczas rozwiązywania każdego rzeczywistego problemu.

Obecnie problemów związanych ze sztuczną inteligencją nie można rozwiązać wyłącznie za pomocą nowoczesnej technologii komputerowej, ale wymagałyby one również obliczeń człowieka . Ta właściwość może być użyteczna, na przykład, do testowania obecności ludzi, do czego służą CAPTCHA , oraz do zabezpieczenia komputera w celu obejścia ataków siłowych .

Historia

Termin ten został ukuty przez Fanyę Montalvo przez analogię z teorią NP-zupełną i NP-trudną w złożoności , która formalnie opisuje najsłynniejszą klasę trudnych problemów. Wczesne użycie tego terminu znajduje się w rozprawie doktorskiej Erika Muellera z 1987 roku oraz w Jargon File Erica Raymonda z 1991 roku .

Problemy ze sztuczną inteligencją

Przypuszcza się, że problemy z kompletną sztuczną inteligencją obejmują:

Tłumaczenie maszynowe

Aby przetłumaczyć dokładnie, maszyna musi być w stanie zrozumieć tekst. Musi być w stanie podążać za argumentacją autora, więc musi mieć jakąś zdolność rozumowania . Musi mieć rozległą wiedzę o świecie, aby wiedzieć, o czym jest dyskutowana — musi przynajmniej znać te same zdroworozsądkowe fakty, które zna przeciętny ludzki tłumacz. Część tej wiedzy ma postać faktów, które można jednoznacznie przedstawić, ale część wiedzy jest nieświadoma i ściśle powiązana z ludzkim ciałem: na przykład maszyna może potrzebować zrozumieć, jak czuje się ocean , aby dokładnie przetłumaczyć konkretną metaforę w tekście. Musi także modelować cele, intencje i stany emocjonalne autorów, aby wiernie je odtworzyć w nowym języku. Krótko mówiąc, maszyna musi posiadać szeroką gamę ludzkich zdolności intelektualnych, w tym rozum , wiedzę zdroworozsądkową i intuicję leżącą u podstaw ruchu i manipulacji , percepcję i inteligencję społeczną . Dlatego uważa się, że tłumaczenie maszynowe jest kompletne ze sztuczną inteligencją: może wymagać silnej sztucznej inteligencji, tak samo jak ludzie.

Kruchość oprogramowania

Obecne systemy sztucznej inteligencji mogą rozwiązywać bardzo proste i/lub ograniczone wersje problemów z pełną sztuczną inteligencją, ale nigdy w ich pełnej ogólności. Kiedy badacze sztucznej inteligencji próbują „skalować” swoje systemy, aby radzić sobie z bardziej skomplikowanymi, rzeczywistymi sytuacjami, programy stają się nadmiernie kruche bez zdroworozsądkowej wiedzy lub szczątkowego zrozumienia sytuacji: zawodzą jako nieoczekiwane okoliczności poza pierwotnym kontekstem problemu zaczynają się pojawiać. Kiedy ludzie mają do czynienia z nowymi sytuacjami na świecie, ogromnie pomaga im fakt, że wiedzą, czego się spodziewać: wiedzą, czym są wszystkie rzeczy wokół nich, dlaczego tam są, co prawdopodobnie zrobią i tak dalej. Potrafią rozpoznać nietypowe sytuacje i odpowiednio się do nich dostosować. Maszyna bez silnej sztucznej inteligencji nie ma innych umiejętności, na których mogłaby się oprzeć.

Formalizowanie

Teoria złożoności obliczeniowej zajmuje się względną trudnością obliczeniową funkcji obliczalnych . Z definicji nie obejmuje problemów, których rozwiązanie jest nieznane lub nie zostało formalnie scharakteryzowane. Ponieważ wiele problemów z AI nie jest jeszcze sformalizowanych, konwencjonalna teoria złożoności nie pozwala na zdefiniowanie kompletności AI.

Aby rozwiązać ten problem, zaproponowano teorię złożoności sztucznej inteligencji. Opiera się na modelu obliczeniowym, który dzieli obciążenie obliczeniowe między komputer i człowieka: jedna część jest rozwiązywana przez komputer, a drugą przez człowieka. Jest to sformalizowane przez wspomaganą przez człowieka maszynę Turinga . Formalizacja definiuje złożoność algorytmu, złożoność problemu i redukowalność, co z kolei pozwala na zdefiniowanie klas równoważności .

Złożoność wykonania algorytmu za pomocą maszyny Turinga wspomaganej przez człowieka jest określona przez parę , gdzie pierwszy element reprezentuje złożoność części ludzkiej, a drugi element to złożoność części maszyny.

Wyniki

Złożoność rozwiązywania następujących problemów za pomocą wspomaganej przez człowieka maszyny Turinga to:

  • Optyczne rozpoznawanie znaków dla tekstu drukowanego:
  • Test Turinga :
    • dla konwersacji składającej się z jednego zdania, w której wyrocznia zapamiętuje historię konwersacji (wyrocznia uporczywa):
    • dla konwersacji -zdanie, gdzie historia konwersacji musi być retransmitowana:
    • dla konwersacji -zdanie, w której historia konwersacji musi zostać ponownie przesłana, a osoba potrzebuje czasu liniowego na przeczytanie zapytania:
  • Gra ESP :
  • Etykietowanie obrazu (na podstawie protokołu Arthur-Merlin ):
  • Klasyfikacja obrazów : tylko człowiek: , oraz przy mniejszym uzależnieniu od człowieka: .

Zobacz też

Bibliografia

  1. ^ Shapiro, Stuart C. (1992). Sztuczna inteligencja W Stuart C. Shapiro (red.), Encyklopedia sztucznej inteligencji (wydanie drugie, s. 54-57). Nowy Jork: John Wiley. (Sekcja 4 dotyczy „Zadań pełnych AI”.)
  2. ^ Roman W. Yampolskiy. Test Turinga jako cecha definiująca kompletność AI. W sztucznej inteligencji, obliczeniach ewolucyjnych i metaheurystyce (AIECM) — śladami Alana Turinga. Xin-She Yang (red.). s. 3-17. (Rozdział 1). Springera, Londyn. 2013. http://cecs.louisville.edu/ry/TuringTestasaDefiningFeature04270003.pdf
  3. ^ Luis von Ahn, Manuel Blum, Nicholas Hopper i John Langford. CAPTCHA: Używanie twardych problemów AI dla bezpieczeństwa zarchiwizowane 2016-03-04 w Wayback Machine . W postępowaniu Eurocrypt, t. 2656 (2003), s. 294-311.
  4. ^ Bergmair, Richard (7 stycznia 2006). „Steganografia języka naturalnego i „kompletna sztuczna inteligencja” prymitywny bezpieczeństwa”. CiteSeerX  10.1.1.105.129 . Cytowanie dziennika wymaga |journal=( pomoc ) (nieopublikowane?)
  5. ^ Mallery, John C. (1988), „Myślenie o polityce zagranicznej: Znalezienie odpowiedniej roli dla sztucznie inteligentnych komputerów”, The 1988 Annual Meeting of the International Studies Association. , St. Louis, MO.
  6. ^ Mueller, Erik T. (1987, marzec). Marzenia i obliczenia (raport techniczny CSD-870017) Rozprawa doktorska, Uniwersytet Kalifornijski, Los Angeles. („Marzenia na jawie to jeszcze jeden kompletny problem AI : gdybyśmy mogli rozwiązać jakikolwiek problem związany ze sztuczną inteligencją, moglibyśmy rozwiązać wszystkie inne”, s. 302)
  7. ^ Raymond, Eric S. (1991, 22 marca). Jargon File w wersji 2.8.1 (Definicja „AI-complete” po raz pierwszy dodana do pliku żargonu.)
  8. ^ Ide, N.; Veronis, J. (1998). „Wprowadzenie do specjalnego zagadnienia dotyczącego ujednoznacznienia sensu słów: stan wiedzy” (PDF) . Językoznawstwo komputerowe . 24 (1): 2-40.
  9. ^ Lenat, Douglas ; Guha, RV (1989), Budowanie dużych systemów opartych na wiedzy , Addison-Wesley, s. 1-5
  10. ^ a b Dafna Shahaf i Eyal Amir (2007) W kierunku teorii kompletności AI . Zdrowy rozsądek 2007, VIII Międzynarodowe Sympozjum Logicznych Formalizacji Zdroworozsądkowego Rozumowania .