Słaba sztuczna inteligencja — Weak AI

Słaba sztuczna inteligencja ( słaba AI ) to sztuczna inteligencja, która realizuje ograniczoną część umysłu lub, jako wąska AI , skupia się na jednym wąskim zadaniu. W terminologii Johna Searle'a „byłoby przydatne do testowania hipotez na temat umysłów, ale w rzeczywistości nie byłoby umysłami”.

Kontrastuje to z Silną AI , która jest różnie definiowana jako:

Terminologia

„Słaba sztuczna inteligencja” jest czasami nazywana „wąską sztuczną inteligencją”, ale ta druga jest zwykle interpretowana jako podpola w ramach pierwszej. Testowanie hipotez na temat umysłów lub części umysłów zazwyczaj nie jest częścią wąskiej sztucznej inteligencji, ale raczej implementacją jakiejś powierzchownej funkcji sobowtóra. Wiele obecnie istniejących systemów, które twierdzą, że wykorzystują „sztuczną inteligencję”, prawdopodobnie działa jako wąska sztuczna inteligencja skupiona na konkretnym problemie i nie jest słabą sztuczną inteligencją w tradycyjnym tego słowa znaczeniu.

Siri , Cortana i Asystent Google są przykładami wąskiej sztucznej inteligencji, ale nie są dobrymi przykładami słabej sztucznej inteligencji, ponieważ działają w ograniczonym, wstępnie zdefiniowanym zakresie funkcji. Nie implementują części umysłów, wykorzystują przetwarzanie języka naturalnego wraz z predefiniowanymi regułami. W szczególności nie są to przykłady silnej sztucznej inteligencji, ponieważ nie ma prawdziwej inteligencji ani samoświadomości. Badacz sztucznej inteligencji Ben Goertzel na swoim blogu w 2010 r. stwierdził, że Siri jest „BARDZO wąska i krucha”, czego dowodem są irytujące wyniki, jeśli zadajesz pytania poza granicami aplikacji.

Uderzenie

Niektórzy komentatorzy uważają, że słaba sztuczna inteligencja może być niebezpieczna z powodu tej „kruchości” i zawodzić w nieprzewidywalny sposób . Słaba sztuczna inteligencja może powodować zakłócenia w sieci elektrycznej, niszczyć elektrownie jądrowe, powodować globalne problemy gospodarcze i błędnie kierować autonomicznymi pojazdami.

Zobacz też

Bibliografia

  1. ^ io9.com wspomina o wąskiej sztucznej inteligencji. Opublikowano 1 kwietnia 2013, pobrano 16 lutego 2014: http://io9.com/how-much-longer-before-our-first-ai-catastrophe-464043243
  2. ^ Badacz sztucznej inteligencji Ben Goertzel wyjaśnia, dlaczego zainteresował się AGI zamiast wąską sztuczną inteligencją. Opublikowano 18 października 2013. Pobrano 16 lutego 2014. http://intelligence.org/2013/10/18/ben-goertzel/
  3. ^ TechCrunch omawia tworzenie aplikacji AI w zakresie wąskiej sztucznej inteligencji. Opublikowano 16 października 2015, pobrano 17 października 2015. https://techcrunch.com/2015/10/15/machine-learning-its-the-hard-problems-that-are-valuable/
  4. ^ Podręcznik sztucznej inteligencji Cambridge . Franków, Keith., Ramsey, William M., 1960-. Cambridge, Wielka Brytania. 12 czerwca 2014 r. s. 342. Numer ISBN 978-0-521-87142-6. OCLC  865297798 .CS1 maint: inne ( link )
  5. ^ Ben Goertzel blog-post pobrane 16 lutego 2014. Opublikowany 6 lutego 2010. http://multiverseaccordingtoben.blogspot.com/2010/02/siri-new-iphone-personal-assistant-some.html
  6. ^ Pobrano 16 lutego 2014. http://io9.com/how-duch-longer-before-our-first-ai-catastrophe-464043243