Biolingwistyka - Biolinguistics

Massimo Piattelli-Palmarini

Biolingwistykę można zdefiniować jako naukę o biologii i ewolucji języka. Jest wysoce interdyscyplinarny, ponieważ wiąże się z różnymi dziedzinami, takimi jak biologia , językoznawstwo , psychologia , antropologia , matematyka i neurolingwistyka, aby wyjaśnić powstawanie języka. Jest to ważne, ponieważ stara się stworzyć ramy, dzięki którym możemy zrozumieć podstawy języka. Ta dziedzina została po raz pierwszy wprowadzona przez Massimo Piattelli-Palmarini, profesora językoznawstwa i nauk kognitywnych na Uniwersytecie Arizony . Po raz pierwszy został wprowadzony w 1971 roku na międzynarodowym spotkaniu w Massachusetts Institute of Technology (MIT). Uważa się, że biolingwistyka, zwana również przedsięwzięciem biolingwistycznym lub podejściem biolingwistycznym, ma swoje korzenie w pracy Noama Chomsky'ego i Erica Lenneberga nad przyswajaniem języka, która rozpoczęła się w latach pięćdziesiątych jako reakcja na dominujący wówczas paradygmat behawioralny. Zasadniczo biolingwistyka kwestionuje pogląd na przyswajanie języka przez człowieka jako zachowanie oparte na interakcjach i skojarzeniach bodziec-odpowiedź. Chomsky i Lenneberg sprzeciwiali się temu, argumentując za wrodzoną znajomością języka. Chomsky w latach 60. zaproponował Urządzenie Akwizycji Języka (LAD) jako hipotetyczne narzędzie do akwizycji języka, z którym rodzą się tylko ludzie. Podobnie Lenneberg (1967) sformułował Hipotezę Okresu Krytycznego , której główną ideą jest to, że przyswajanie języka jest ograniczone biologicznie. Prace te uważano za pionierów w kształtowaniu myśli biolingwistycznej, co było początkiem zmiany paradygmatu w badaniu języka.

Początki biolingwistyki

Badanie biologicznych podstaw języka wiąże się z dwoma okresami historycznymi, a mianowicie z XIX wiekiem (przede wszystkim dzięki darwininowskiej teorii ewolucji) i XX wiekiem (przede wszystkim dzięki integracji lingwistyki matematycznej (w formie gramatyki generatywnej Chomsky'ego) z neuronauką.

XIX wiek: teoria ewolucji Darwina

Darwin.jpg

Darwinizm zainspirował wielu badaczy do badania języka, w szczególności ewolucji języka, przez pryzmat biologii. Teoria Darwina dotycząca pochodzenia języka próbuje odpowiedzieć na trzy ważne pytania:

  1. Czy jednostki przeszły coś podobnego do selekcji, gdy ewoluowały?
  2. Czy dobór odegrał rolę w wytwarzaniu zdolności językowych u ludzi?
  3. Jeśli selekcja odgrywała rolę, to czy selekcja była przede wszystkim odpowiedzialna za pojawienie się języka, czy była to tylko jedna z kilku przyczyn?

Aż do 1821 roku niemiecki językoznawca August Scheilurer był reprezentatywnym pionierem biolingwistyki, omawiając ewolucję języka w oparciu o teorię ewolucji Darwina. Ponieważ lingwistyka była uważana za formę nauki historycznej pod wpływem Société de Linguistique de Paris , spekulacje na temat pochodzenia języka nie były dozwolone. W rezultacie prawie żaden wybitny językoznawca nie pisał o pochodzeniu języka poza niemieckim językoznawcą Hugo Schuchardtem . Darwinizm odniósł się do argumentów innych badaczy i uczonych, podobnie jak Max Müller, argumentując, że używanie języka, choć wymaga pewnej zdolności umysłowej, stymuluje również rozwój mózgu, umożliwiając długie ciągi myślenia i wzmacniając siłę. Darwin nakreślił rozszerzoną analogię między ewolucją języków i gatunków, zauważając w każdej dziedzinie obecność podstaw, krzyżowania i mieszania oraz zmienności i zauważając, jak każdy rozwój stopniowo następuje poprzez proces walki.

XX wiek: Biologiczne podstawy języka

Pierwsza faza rozwoju biolingwistyki trwała pod koniec lat 60. wraz z publikacją Biologicznej Fundacji Języka Lennberga (1967). W pierwszej fazie prace koncentrowały się na:

  • określenie warunków brzegowych dla języka ludzkiego jako systemu poznania;
  • rozwój języka, który przedstawia się w sekwencji nabywania, przez którą przechodzą dzieci, gdy uczą się języka
  • genetyka zaburzeń językowych, które powodują określone niepełnosprawności językowe, w tym dysleksję i głuchotę)
  • ewolucja języka.

W tym okresie dokonano największego postępu w lepszym zrozumieniu definiujących właściwości języka ludzkiego jako systemu poznania. Trzy przełomowe wydarzenia ukształtowały nowoczesną dziedzinę biolingwistyki: dwie ważne konferencje zostały zwołane w latach 70., a retrospektywny artykuł został opublikowany w 1997 r. przez Lyle Jenkinsa.

  • 1974 : Pierwsza oficjalna konferencja biolingwistyczna została zorganizowana przez niego w 1974 roku, skupiając biologów ewolucyjnych , neuronaukowców, językoznawców i innych zainteresowanych rozwojem języka w jednostce, jego pochodzeniem i ewolucją.
  • 1976 : kolejna konferencja zorganizowana przez Nowojorską Akademię Nauk, po której opublikowano liczne prace na temat pochodzenia języka.
  • 1997 : Z okazji 40. rocznicy gramatyki transformacyjno-generatywnej Lyle Jenkins napisał artykuł zatytułowany "Biolingwistyka: Rozwój struktury i ewolucja języka".

Druga faza rozpoczęła się pod koniec lat siedemdziesiątych. W 1976 roku Chomsky sformułował następujące podstawowe pytania biolingwistyki: i) funkcja, ii) struktura, iii) podstawa fizyczna, iv) rozwój jednostki, v) rozwój ewolucyjny. Pod koniec lat osiemdziesiątych poczyniono ogromne postępy w odpowiadaniu na pytania dotyczące rozwoju języka. To zrodziło dalsze pytania dotyczące projektowania języka. funkcja i ewolucja języka. W następnym roku Juan Uriagereka, absolwent Howarda Lasnika, napisał tekst wprowadzający do Minimalist Syntax, Rhyme and Reason. Ich praca odnowiła zainteresowanie biolingwistyką, skłaniając wielu językoznawców do przyjrzenia się biolingwistyce wraz z kolegami z sąsiednich dyscyplin naukowych. Zarówno Jenkins, jak i Uriagereka podkreślali wagę zajęcia się problemem pojawienia się u ludzi umiejętności językowych. Mniej więcej w tym samym czasie genetycy odkryli powiązanie między deficytem językowym manifestowanym przez członków rodziny KE a genem FOXP2 . Chociaż FOXP2 nie jest genem odpowiedzialnym za język, odkrycie to zgromadziło wielu językoznawców i naukowców w celu zinterpretowania tych danych, odnawiając zainteresowanie biolingwistyką.

Chociaż wielu językoznawców ma różne opinie na temat historii biolingwistyki, Chomsky uważa, że ​​jej historia była po prostu historią gramatyki transformacyjnej . Profesor Anna Maria Di Sciullo twierdzi, że interdyscyplinarne badania biologii i językoznawstwa w latach 50. i 60. doprowadziły do ​​powstania biolingwistyki. Ponadto Jenkins uważa, że ​​biolingwistyka była wynikiem pracy gramatyków transformacyjnych badających ludzkie mechanizmy językowe i biologiczne. Z drugiej strony lingwiści Martin Nowak i Charles Yang twierdzą, że biolingwistyka, która powstała w latach 70., jest odrębną gramatykią transformacyjną; raczej nowa gałąź paradygmatu badań lingwistyczno-biologicznych zapoczątkowana przez gramatykę transformacyjną.

Rozwój

Teorie Chomsky'ego

Gramatyka uniwersalna i gramatyka generatywna

Noam Chomsky

W Aspektach teorii składni Chomsky zaproponował, że języki są produktem biologicznie zdeterminowanej zdolności obecnej u wszystkich ludzi, zlokalizowanej w mózgu. Odnosi się do trzech podstawowych pytań biolingwistyki: co składa się na znajomość języka, w jaki sposób jest zdobywana wiedza, jak wiedza jest wykorzystywana? Wiele z nas musi być wrodzonych, co potwierdza jego twierdzenie faktem, że mówcy są w stanie tworzyć i rozumieć nowe zdania bez wyraźnych instrukcji. Chomsky zasugerował, że forma gramatyki może łączyć się ze strukturą mentalną zapewnianą przez ludzki mózg i argumentował, że formalne kategorie gramatyczne, takie jak rzeczowniki, czasowniki i przymiotniki, nie istnieją. Językowa teoria gramatyki generatywnej proponuje tym samym, że zdania są generowane przez podświadomy zestaw procedur, które są częścią zdolności poznawczych jednostki. Procedury te są modelowane za pomocą zestawu formalnych reguł gramatycznych, które mają generować zdania w języku.

Chomsky skupia się na umyśle osoby uczącej się lub użytkownika języka i zaproponował, że wewnętrzne właściwości zdolności językowej są ściśle powiązane z biologią fizyczną człowieka. Następnie przedstawił ideę gramatyki uniwersalnej (UG), teoretycznie jako nieodłączną dla wszystkich ludzi. Z punktu widzenia podejścia biolingwistycznego proces przyswajania języka byłby szybki i płynny, ponieważ ludzie w naturalny sposób uzyskują podstawowe postrzeganie gramatyki uniwersalnej, co jest przeciwieństwem podejścia opartego na używaniu. UG odnosi się do stanu wyjściowego wydziału języka; biologicznie wrodzony narząd, który pomaga uczniowi zrozumieć dane i zbudować wewnętrzną gramatykę. Teoria sugeruje, że wszystkie języki ludzkie podlegają uniwersalnym zasadom lub parametrom, które pozwalają na różne wybory (wartości). Twierdzi również, że ludzie posiadają gramatykę generatywną, która jest w pewien sposób wbudowana w ludzki mózg i umożliwia małym dzieciom szybkie i uniwersalne przyswajanie mowy. Elementy zmienności językowej determinują następnie rozwój języka w jednostce, a zmienność jest wynikiem doświadczenia, biorąc pod uwagę wyposażenie genetyczne i niezależne zasady redukujące złożoność. Praca Chomsky'ego jest często uznawana za słabą perspektywę biolingwistyki, ponieważ nie czerpie z innych kierunków studiów poza językoznawstwem.

Hipoteza modułowości

Według Chomsky'ego mózg człowieka składa się z różnych części, które mają swoje indywidualne funkcje, takie jak język, rozpoznawanie wzrokowe.

Urządzenie do akwizycji języka

Przyswajanie języka jest wyczynem uniwersalnym i uważa się, że wszyscy rodzimy się z wrodzoną strukturą pierwotnie zaproponowaną przez Chomsky'ego w latach sześćdziesiątych. Urządzenie Akwizycji Języka (LAD) zostało przedstawione jako wrodzona struktura u ludzi, która umożliwia naukę języków. Uważa się, że ludzie są „połączeni” z uniwersalnymi regułami gramatyki, które umożliwiają im zrozumienie i ocenę złożonych struktur składniowych. Zwolennicy LAD często przytaczają argument ubóstwa negatywnych bodźców, sugerując, że dzieci polegają na LAD, aby rozwijać swoją znajomość języka, mimo że nie mają kontaktu z bogatym środowiskiem językowym. Później Chomsky zamienił to pojęcie na pojęcie gramatyki uniwersalnej, dostarczając dowodów na biologiczne podstawy języka.

Minimalistyczny program

Program Minimalistyczny (MP) został wprowadzony przez Chomsky'ego w 1993 roku i skupia się na paraleli między językiem a projektowaniem naturalnych koncepcji. Osoby zainwestowane w Program Minimalistyczny interesują się fizyką i matematyką języka oraz jego paralelami z naszym światem naturalnym. Na przykład Piatelli-Palmarini badał izomorficzny związek między programem minimalistycznym a teorią pola kwantowego . Program Minimalistyczny ma na celu ustalenie, ile z modelu Zasad i parametrów można wykorzystać w wyniku hipotetycznego optymalnego i wydajnego obliczeniowo projektu wydziału języka ludzkiego, a bardziej rozwinięte wersje podejścia Zasad i parametrów z kolei zapewniają zasady techniczne z za którym można podążać minimalistycznym programem. Program ma dalej rozwijać idee obejmujące ekonomię wyprowadzania i ekonomię reprezentacji , które zaczęły stawać się niezależną teorią na początku lat 90., ale potem były nadal uważane za peryferia gramatyki transformacyjnej .

Łączyć

Operacja scalania jest używana przez Chomsky'ego do wyjaśnienia struktury drzew składniowych w programie Minimalistycznym. Scalania jest sam proces, który stanowi podstawę do formowania frazowy wskutek sobą dwa elementy wewnątrz, frazy i łączenie ich w Am Di Sciullo i D. ISAC jest asymetria Scal (2008) podkreślają dwie główne zasady scalania przez Chomskiego;

  • Scalanie jest binarne
  • Scalanie jest rekurencyjne

Aby to zrozumieć, zrób następujące zdanie: Emma nie lubi ciast

To zdanie można podzielić na jego elementy leksykalne:

[VP [DP Emma] [V' [V nie lubi] [DP [D] [NP pie]]]]

Powyższa reprezentacja frazowa pozwala na zrozumienie każdego elementu leksykalnego. Aby zbudować drzewo za pomocą funkcji Merge, korzystając z formacji bottom-up, wybierane są dwa ostatnie elementy frazy, a następnie łączone w celu utworzenia nowego elementu na drzewie. Na zdjęciu A) widać, że determinantem i wyrażenie rzeczownik pie są zaznaczone. Dzięki procesowi scalania, nowy utworzony element na drzewie jest wyznacznikiem Phrase (DP), który posiada, czyli kołem, które jest widoczne w b).

Podstawowe komponenty

W minimalistycznym podejściu istnieją trzy podstawowe komponenty proponowanego wydziału językowego: system sensoryczno-ruchowy (SM), system konceptualno-intencjonalny (CI) i wąska składnia (NS). SM obejmuje biologiczne warunki produkcji i percepcji języka, takie jak organy artykulacyjne, a CI spełnia biologiczne wymagania związane z wnioskowaniem, interpretacją i rozumowaniem, które są zaangażowane w inne funkcje poznawcze. Ponieważ SM i CI są skończone, główną funkcją NS jest umożliwienie wytwarzania nieskończonej liczby par dźwięk-znaczenie.

Znaczenie prawa naturalnego

Możliwe, że podstawowe zasady Wydziału Języka są skorelowane z prawami naturalnymi (takimi jak np. ciąg Fibonacciego — tablica liczb, w której każda kolejna liczba jest sumą dwóch poprzedzających ją, patrz np. dyskusja Uriagereka 1997 oraz Carnie i Medeiros 2005). Zgodnie z rozwijaną hipotezą, podstawowe właściwości języka wynikają z samej natury: wymóg skutecznego wzrostu pojawia się wszędzie, od wzoru płatków w kwiatach, układu liści na drzewach i spirali muszli, po strukturę DNA i proporcje ludzka głowa i ciało. Natural Law w tym przypadku zapewniłoby wgląd w takie pojęcia, jak binarne rozgałęzienia w drzewach składniowych, a także operacja Merge. Przekładałoby się to na myślenie o tym w kategoriach wzięcia dwóch elementów na drzewo składni i takie, że ich suma daje inny element, który znajduje się poniżej na danym drzewie składni (Patrz drzewa powyżej w programie Minimalistycznym ). Przestrzeganie tej sumy dwóch poprzedzających ją elementów zapewnia obsługę struktur binarnych. Co więcej, możliwość trójskładnikowego rozgałęzienia odbiegałaby od ciągu Fibonacciego iw konsekwencji nie miałaby tak silnego wsparcia dla znaczenia Prawa Naturalnego w składni.

Biolingwistyka: kwestionowanie podejścia opartego na użytkowaniu

Jak wspomniano powyżej, biolingwistyka kwestionuje pogląd, że przyswajanie języka jest wynikiem uczenia się opartego na zachowaniu. To alternatywne podejście do wyzwań biolingwistyki znane jest jako podejście oparte na użytkowaniu (UB). UB popiera tę ideę, że znajomość ludzkiego języka jest nabywana poprzez eksponowanie i używanie. Jedną z głównych kwestii, na które zwraca się uwagę, argumentując przeciwko podejściu Usage-Based, jest to, że UB nie zajmuje się problemem ubóstwa bodźców, podczas gdy biolingwistyka zajmuje się tym za pomocą urządzenia do akwizycji języka.

Lenneberg i rola genów

Innym ważnym uczestnikiem tej dziedziny jest Eric Lenneberg . W swojej książce Biological Foundation of Languages Lenneberg (1967) sugeruje, że różne aspekty biologii człowieka, które przypuszczalnie przyczyniają się do rozwoju języka bardziej niż w grę wchodzą geny. Ta integracja innych dziedzin w celu wyjaśnienia języka jest uznawana za mocny pogląd w biolingwistyce Chociaż są one oczywiście niezbędne i chociaż genomy są powiązane z określonymi organizmami, geny nie przechowują cech (lub „zdolności”) w sposób, w jaki językoznawcy – w tym Chomskyanie — czasami wydaje się sugerować.

W przeciwieństwie do koncepcji istnienia wydziału językowego, jak sugeruje Chomsky, Lenneberg argumentuje, że chociaż istnieją określone regiony i sieci, które mają kluczowe znaczenie w produkcji języka, nie ma jednego regionu, do którego ograniczona jest zdolność językowa, a mowa, jak podobnie jak język, nie ogranicza się do kory mózgowej . Lenneberg uważał język za specyficzny gatunkowo narząd umysłowy o znaczących właściwościach biologicznych. Zasugerował, że ten narząd rośnie w umyśle/mózgu dziecka w taki sam sposób, w jaki rosną inne narządy biologiczne, pokazując, że droga dziecka do języka zawiera znamiona biologicznego rozwoju. Według Lenneberga mechanizmy genetyczne odgrywają ważną rolę w rozwoju zachowania jednostki i charakteryzują się dwoma aspektami:

  • uznanie pośredniego związku między genami a cechami oraz;
  • Odrzucenie istnienia „specjalnych” genów języka, to znaczy odrzucenie potrzeby specyficznego genotypu językowego;

Opierając się na tym, Lenneberg idzie dalej, twierdząc, że w genach jednostki nie można przechowywać żadnej zasady funkcjonalnej, odrzucając ideę, że istnieją geny dla określonych cech, w tym języka. Innymi słowy, geny mogą zawierać cechy. Następnie zaproponował, że sposób, w jaki geny wpływają na ogólne wzorce struktury i funkcji, polega na ich działaniu na ontogenezę genów jako czynnika przyczynowego, który jest indywidualnie bezpośrednią i unikatową odpowiedzialną za konkretny fenotyp, krytykując wcześniejszą hipotezę Charlesa Goodwina. .

Ostatnie zmiany

Procedura generatywna przyjęta w chwili obecnej i jej rozwój

W biolingwistyce uznaje się, że język opiera się na rekurencyjnej procedurze generatywnej, która wyszukuje słowa z leksykonu i stosuje je wielokrotnie do wyrażeń wyjściowych. Postawiono hipotezę, że ta generatywna procedura jest wynikiem drobnej mutacji mózgu, ze względu na dowody, że porządkowanie słów ogranicza się do eksternalizacji i nie odgrywa żadnej roli w podstawowej składni ani semantyce. W związku z tym zbadano różne kierunki dochodzenia, aby to wyjaśnić.

Najczęściej akceptowaną linią dociekania wyjaśniającą to jest minimalistyczne podejście Noama Chomsky'ego do reprezentacji syntaktycznych. W 2016 roku Chomsky i Berwick zdefiniowali program minimalistyczny w ramach Strong Minimalist Thesis w swojej książce Why Only Us , mówiąc, że język wymaga wydajnych obliczeń, a zatem trzyma się najprostszych operacji rekurencyjnych. Główną podstawową operacją w minimalistycznym programie jest scalanie . W ramach scalania istnieją dwa sposoby tworzenia większych wyrażeń: zewnętrznie i wewnętrznie. Elementy leksykalne, które są scalane zewnętrznie, tworzą reprezentacje argumentów z rozłącznymi składnikami. Wewnętrzne scalenie tworzy struktury składowe, w których jedna jest częścią drugiej. Powoduje to przemieszczenie , zdolność do wypowiadania fraz w jednej pozycji, ale interpretowania ich gdzie indziej.

Ostatnie badania przemieszczeń zgadzają się z nieznacznym przekształceniem w obszarach korowych mózgu, które mogło mieć miejsce historycznie i utrwalić gramatykę generatywną. Podtrzymując ten tok myślenia, w 2009 r. Ramus i Fishers spekulowali, że pojedynczy gen może stworzyć cząsteczkę sygnalizacyjną, aby ułatwić nowe połączenia w mózgu lub całkowicie nowy obszar mózgu za pośrednictwem prenatalnych obszarów mózgu. Spowodowałoby to przetwarzanie informacji bardzo ważne dla języka, jaki znamy. Rozprzestrzenianie się tej cechy przewagi może być odpowiedzialne za wtórną eksternalizację i interakcje, w które się angażujemy. Jeśli tak jest, to celem biolingwistyki jest jak najwięcej dowiedzieć się o zasadach leżących u podstaw rekurencji umysłowej .

Komunikacja między ludźmi a zwierzętami

W porównaniu z innymi tematami w językoznawstwie, w których dane mogą być przedstawiane z dowodami w wielu językach, ze względu na naturę biolingwistyki i że dotyczy to całości językoznawstwa, a nie tylko konkretnego podrozdziału, badanie innych gatunków może pomóc w dostarczeniu danych. Chociaż zwierzęta nie mają takich samych kompetencji językowych jak ludzie, zakłada się, że mogą dostarczyć dowodów na pewne kompetencje językowe.

Stosunkowo nowa nauka evo-devo, która sugeruje, że każdy jest wspólnym potomkiem jednego drzewa, otworzyła ścieżki do badań genowych i biochemicznych. Jednym ze sposobów, w jaki przejawia się to w biolingwistyce, jest sugestia wspólnego genu języka, a mianowicie FOXP2 . Chociaż ten gen jest przedmiotem debaty, ostatnio dokonano interesujących odkryć dotyczących go i roli, jaką odgrywa w procesie wtórnej eksternalizacji. Ostatnie badania ptaków i myszy doprowadziły do ​​wyłaniającego się konsensusu, że FOXP2 nie jest planem wewnętrznej składni ani wąskiego wydziału języka, ale raczej stanowi maszynerię regulacyjną związaną z procesem eksternalizacji. Stwierdzono, że wspomaga sekwencjonowanie dźwięków lub gestów jeden po drugim, co sugeruje, że FOXP2 pomaga w przenoszeniu wiedzy z pamięci deklaratywnej do proceduralnej. Dlatego odkryto, że FOXP2 pomaga w formułowaniu językowego systemu wejścia-wyjścia, który działa płynnie.

Hipoteza integracji

Zgodnie z Hipotezą Integracji język ludzki jest kombinacją komponentu ekspresyjnego (E) i komponentu leksykalnego (L). Na poziomie słów składnik L zawiera pojęcie i znaczenie, które chcemy przekazać. Składnik E zawiera informacje gramatyczne i fleksję. W przypadku fraz często widzimy naprzemienność tych dwóch składników. W zdaniach składnik E odpowiada za nadanie kształtu i struktury podstawowym słowom leksykalnym, podczas gdy te elementy leksykalne i odpowiadające im znaczenia znalezione w leksykonie tworzą składnik L. Ma to konsekwencje dla naszego zrozumienia: (i) pochodzenia elementów E i L występujących w systemach komunikacji ptaków i małp; (ii) szybkie pojawienie się ludzkiego języka w odniesieniu do słów; (iii) dowód hierarchicznej struktury w słowach złożonych ; (iv) rola fraz w wykrywaniu operacji budowy konstrukcji Merge ; oraz (v) zastosowanie składników E i L do zdań. W ten sposób widzimy, że Hipotezę Integracji można zastosować na wszystkich poziomach języka: na poziomie słowa, frazy i zdania.

Początki systemów E i L w systemach komunikacji ptaków i małp

Dzięki zastosowaniu Hipotezy Integracji można zauważyć, że interakcja między komponentami E i L umożliwia jednoczesne funkcjonowanie struktury języka (komponent E) i elementów leksykalnych (komponent L) w ramach jednej formy złożonej komunikacji: języka ludzkiego. Uważa się jednak, że te dwa składniki wyłoniły się z dwóch wcześniej istniejących, oddzielnych systemów komunikacyjnych w świecie zwierząt. Stwierdzono, że systemy komunikacji ptaków i małp są poprzednikami ludzkiego języka. System komunikacji śpiewu ptaków składa się wyłącznie z komponentu E, podczas gdy system alarmowy używany przez małpy składa się z komponentu L. Uważa się, że ludzki język jest produktem ubocznym tych dwóch oddzielnych systemów występujących u ptaków i małp, ze względu na podobieństwa między komunikacją między ludźmi a tymi dwoma systemami komunikacji zwierząt.

Systemy komunikacji ptaków śpiewających są powszechnie określane jako system oparty na operacjach składniowych. W szczególności śpiew ptaków umożliwia systematyczne łączenie elementów dźwiękowych w celu splotu pieśni. Podobnie języki ludzkie również działają syntaktycznie poprzez kombinację słów, które są obliczane systematycznie. Podczas gdy mechanika śpiewu ptaków opiera się na składni, wydaje się, że nuty, sylaby i motywy, które są łączone w celu wydobycia różnych pieśni, niekoniecznie muszą zawierać jakiekolwiek znaczenie. W systemie komunikacji ptaków śpiewających brakuje również leksykonu, który zawiera zestaw dowolnych par znaczenie-odniesienie. Zasadniczo oznacza to, że pojedynczy dźwięk wydawany przez ptaka śpiewającego nie ma z nim żadnego znaczenia, tak jak słowo w ludzkim języku. Pieśń ptaków może być ustrukturyzowana, ale nie jest w stanie nieść znaczenia. W ten sposób wyeksponowanie składni i brak znaczenia leksykalnego przedstawia śpiew ptaków jako silnego kandydata do bycia uproszczonym poprzednikiem komponentu E, który występuje w ludzkim języku, ponieważ w tym komponencie również brakuje informacji leksykalnych. Podczas gdy ptaki posługujące się śpiewem ptaków mogą komunikować się tylko na tym składniku E, wypowiedzi ludzkie wymagają znaczenia leksykalnego oprócz operacji strukturalnych części składnika E, ponieważ ludzki język nie jest w stanie operować samymi tylko strukturami składniowymi lub strukturalnymi słowami funkcyjnymi. Jest to oczywiste, ponieważ ludzka komunikacja w rzeczywistości składa się z leksykonu, a ludzie tworzą połączone sekwencje słów, które mają znaczenie, najlepiej znane jako zdania. Sugeruje to, że część ludzkiego języka musiała zostać zaadaptowana z systemu komunikacji innego zwierzęcia, aby powstał składnik L.

Dobrze znane badanie Seyfartha i in. zbadał referencyjny charakter wezwań alarmowych koczkodanów. Te małpy mają trzy ustawione wezwania alarmowe, przy czym każde wezwanie jest bezpośrednio mapowane na jeden z następujących referencji: lampart, orzeł lub wąż. Każde wezwanie służy do ostrzeżenia innych małp o obecności jednego z tych trzech drapieżników w ich bezpośrednim otoczeniu. Główną ideą jest to, że wywołanie alarmowe zawiera informacje leksykalne, które można wykorzystać do reprezentowania referencji, do której się odwołujemy. Zasadniczo cały system komunikacji używany przez małpy składa się z systemu L, tak że do efektywnej komunikacji potrzebne są tylko te wywołania leksykalne. Jest to podobne do składnika L występującego w ludzkim języku, w którym słowa treści są używane w odniesieniu do referencji w świecie rzeczywistym, zawierającej odpowiednie informacje leksykalne. Komponent L w ludzkim języku jest jednak znacznie bardziej złożonym wariantem komponentu L, który można znaleźć w systemach komunikacji z koczkodanami: ludzie używają do komunikacji znacznie więcej niż tylko trzech form słownych. Podczas gdy koczkodany są zdolne do komunikowania się wyłącznie za pomocą składnika L, ludzie nie są, ponieważ komunikacja za pomocą samych słów treści nie generuje dobrze sformułowanych zdań gramatycznych. Z tego powodu komponent L jest połączony z komponentem E odpowiedzialnym za strukturę składniową, aby wyprowadzić ludzki język.

Szybkie pojawienie się ludzkiego języka

Ponieważ w przyrodzie znaleziono ślady składowych E i L, hipoteza integracji zakłada, że ​​te dwa systemy istniały przed ludzkim językiem i że to połączenie tych dwóch wcześniej istniejących systemów szybko doprowadziło do pojawienia się ludzkiego języka. Hipoteza integracji zakłada, że ​​to operator gramatyczny, Merge, uruchomił połączenie systemów E i L w celu stworzenia ludzkiego języka. W tym ujęciu język pojawił się szybko iw pełni ukształtowany, zawierający już strukturę syntaktyczną. Jest to przeciwieństwo podejścia stopniowego, w którym uważa się, że wczesne formy języka nie miały składni. Zamiast tego zwolennicy podejścia stopniowego uważają, że język powoli przechodził przez serię etapów w wyniku prostego operatora kombinatorycznego, który generował płaskie struktury. Poczynając od etapu jednego słowa, potem etapu dwóch wyrazów, potem etapu trzech wyrazów itd., uważa się, że język rozwinął hierarchię na późniejszych etapach.

W artykule „ Pierwszeństwo składni w szybkim pojawianiu się języka ludzkiego w ewolucji, zgodnie z definicją hipotezy integracji” , Nóbrega i Miyagawa przedstawiają Hipotezę integracji w odniesieniu do słów. Aby wyjaśnić Hipotezę Integracji w odniesieniu do słów, każdy musi najpierw zgodzić się na definicję „słowa”. Chociaż wydaje się to dość proste w języku angielskim, tak nie jest w przypadku innych języków. Aby umożliwić dyskusję międzyjęzykową, zamiast tego używa się pojęcia „korzeń”, gdzie „korzeń” zawiera pojęcie na najbardziej podstawowym poziomie. Aby odróżnić „korzenie” od „słów”, należy zauważyć, że „korzenie” są całkowicie pozbawione jakichkolwiek informacji dotyczących kategorii gramatycznej lub fleksji. Dlatego „korzenie” tworzą składnik leksykalny Hipotezy Integracji, podczas gdy kategoria gramatyczna (rzeczownik, czasownik, przymiotnik) i własności fleksyjne (np. przypadek, liczba, czas itd.) tworzą składnik ekspresyjny.

Drzewo składniowe, w którym węzeł główny x dominuje nad węzłami x i ROOT.
„Korzeń” (warstwa L) jest zintegrowany z warstwą E, aby pokazać, że w słowach istnieje struktura hierarchiczna. Na podstawie Nóregi i Miyagawy (48)

Tak więc na najbardziej podstawowym poziomie tworzenia „słowa” w ludzkim języku musi istnieć kombinacja składnika L ze składnikiem E. Kiedy znamy „słowo” w języku, musimy znać oba składniki: pojęcie, do którego się ono odnosi oraz jego kategorię gramatyczną i odmianę. Pierwszy to składnik L; ten ostatni to składnik E. Hipoteza integracji sugeruje, że to operator gramatyczny Merge wyzwolił tę kombinację, występującą, gdy jeden obiekt językowy (warstwa L) spełnia cechy gramatyczne innego obiektu językowego (warstwa E). Oznacza to, że nie oczekuje się bezpośredniego łączenia elementów L.

Na podstawie tej analizy uważa się, że język ludzki powstał w jednym kroku. Przed tym szybkim pojawieniem się składowa L, „korzenie”, istniała pojedynczo, nie posiadała cech gramatycznych i nie była ze sobą łączona. Jednak po połączeniu tego z komponentem E doprowadziło to do pojawienia się ludzkiego języka ze wszystkimi niezbędnymi cechami. Hierarchiczne struktury składni są już obecne w słowach ze względu na integrację tych dwóch warstw. Ten wzorzec jest kontynuowany, gdy słowa są łączone ze sobą w frazy, a także gdy frazy są łączone w zdania. Dlatego Hipoteza Integracji zakłada, że ​​po zintegrowaniu tych dwóch systemów język ludzki wydawał się w pełni ukształtowany i nie wymagał dodatkowych etapów.

Dowód struktury hierarchicznej w słowach złożonych

Drzewo struktury fraz, w którym fraza "odblokuj" jest dołączona do sufiksu -able.
Pokazano jedną możliwą wewnętrzną strukturę „do odblokowania”. Na tym obrazie oznacza to, że coś można odblokować. Na podstawie Nóregi i Miyagawy. (39)
Drzewo struktury fraz, w którym fraza lockable jest dołączona do prefiksu un-.
Pokazano jedną możliwą wewnętrzną strukturę „odblokowywalnego”. Na tym obrazie oznacza to, że czegoś nie można zablokować. Na podstawie Nóregi i Miyagawy. (39)

Słowa złożone są szczególnym punktem zainteresowania Hipotezy Integracji, ponieważ są kolejnym dowodem na to, że słowa zawierają strukturę wewnętrzną. Hipoteza integracji analizuje słowa złożone w inny sposób w porównaniu z poprzednimi teoriami gradualistycznymi rozwoju języka. Jak wcześniej wspomniano, w podejściu stopniowym słowa złożone są uważane za część etapu protoskładniowego języka ludzkiego. W tej propozycji protojęzyka leksykalnego , związki są rozwijane w drugim etapie poprzez łączenie pojedynczych słów za pomocą rudymentarnej rekurencyjnej operacji n- arnej, która generuje płaskie struktury. Jednak Hipoteza Integracji kwestionuje to przekonanie, twierdząc, że istnieją dowody sugerujące, że słowa są wewnętrznie złożone. Na przykład w języku angielskim słowo „unlockable” jest niejednoznaczne z powodu dwóch możliwych struktur wewnątrz. Może to oznaczać coś, co można odblokować (odblokować) lub coś, czego nie można zablokować (odblokować). Ta niejednoznaczność wskazuje na dwie możliwe hierarchiczne struktury w słowie: nie może mieć płaskiej struktury proponowanej przez podejście stopniowe. Dzięki tym dowodom zwolennicy Hipotezy Integracji argumentują, że te hierarchiczne struktury w słowach są tworzone przez scalanie, w którym składnik L i składnik E są połączone. W ten sposób Merge odpowiada za tworzenie złożonych słów i fraz. Odkrycie to prowadzi do hipotezy, że słowa, związki i wszystkie obiekty językowe języka ludzkiego pochodzą z tego systemu integracji i dostarcza sprzecznych dowodów z teorią istnienia prajęzyka.

Z punktu widzenia związków jako „żywych skamieniałości”, Jackendoff twierdzi, że podstawowa struktura związków nie dostarcza wystarczających informacji, aby dokonać interpretacji semantycznej. Stąd interpretacja semantyczna musi pochodzić z pragmatyki. Jednak Nórega i Miyagawa zauważyli, że to twierdzenie o zależności od pragmatyki nie jest właściwością słów złożonych, którą demonstruje się we wszystkich językach. Przykładem dostarczonym przez Nóregę i Miyagawę jest porównanie angielskiego (język germański) z brazylijskim portugalskim (język romański). Angielskie rzeczowniki złożone mogą oferować wiele interpretacji semantycznych. Na przykład rzeczownik złożony „człowiek samochodowy” może mieć kilka możliwych sposobów rozumienia, takich jak: człowiek, który sprzedaje samochody, człowiek, który pasjonuje się samochodami, człowiek, który naprawia samochody, człowiek, który jeździ samochodem itp. Dla porównania, Brazylijczyk Portugalski rzeczownik złożony „peixe-espada” przetłumaczony jako „ryba-miecz”, ma tylko jedno rozumienie ryby, która przypomina miecz. W związku z tym, patrząc na dostępne interpretacje semantyczne słów złożonych między językami germańskimi a językami romańskimi, języki romańskie mają bardzo restrykcyjne znaczenia. To odkrycie stanowi dowód na to, że w rzeczywistości związki zawierają bardziej wyrafinowane struktury wewnętrzne niż wcześniej sądzono. Co więcej, Nórega i Miyagawa dostarczają dalszych dowodów na przeciwdziałanie twierdzeniu o protojęzyku poprzez badanie egzocentrycznych związków VN. Zgodnie z definicją, jednym z kluczowych elementów łączenia jest właściwość rekurencji. Obserwując zatem rekurencję w obrębie egzocentrycznych związków VN języków romańskich, dowodzi to istnienia wewnętrznej struktury hierarchicznej, za łączenie której odpowiada Merge. W danych zebranych przez Nóregę i Miyagawę obserwują rekurencję występującą kilkakrotnie w różnych językach. Dzieje się tak w katalońskim, włoskim i brazylijskim portugalskim, gdzie nowy związek VN jest tworzony, gdy nominalny egzocentryczny związek VN jest dopełnieniem czasownika. Na przykład, odnosząc się do katalońskiego tłumaczenia „wycieraczek przedniej szyby”, [neteja[para-brises]] świeci. clean-stop-breeze, możemy zidentyfikować rekurencję, ponieważ [para-brises] jest dopełnieniem [neteja] . Dodatkowo możemy również zauważyć występowanie rekurencji, gdy rzeczownik związku VN zawiera listę uzupełnień. Na przykład, odnosząc się do włoskiego tłumaczenia „pierścionków, kolczyków lub małych posiadaczy klejnotów”, [porta[anelli, orecchini o piccoli monili]] lit. carry-rings-earrings-lub-mały-klejnoty, występuje rekurencja ze względu na ciąg dopełnień [anelli, orecchini o piccoli monili] zawierający rzeczownik do czasownika [porta] .

Powszechne twierdzenie, że związki są skamieniałościami języka, często uzupełnia argument, że zawierają one płaską, liniową strukturę. Jednak Di Sciullo dostarczył eksperymentalnych dowodów, aby to zakwestionować. Wiedząc, że w strukturze wewnętrznej związków egzocentrycznych występuje asymetria, wykorzystuje wyniki eksperymentalne do wykazania, że ​​efekty złożoności hierarchicznej są obserwowane podczas przetwarzania związków NV w języku angielskim. W jej eksperymencie zdania zawierające związki typu przedmiot-czasownik oraz zdania zawierające związki przymiotnik-czasownik zostały zaprezentowane osobom anglojęzycznym, które następnie oceniły akceptowalność tych zdań. Di Sciullo zauważył, że poprzednie prace określiły, że związki przymiotnik-czasownik mają bardziej złożoną strukturę niż związki dopełnienia-czasownika, ponieważ związki przymiotnik-czasownik wymagają kilkukrotnego wystąpienia połączenia. W jej eksperymencie wzięło udział 10 anglojęzycznych uczestników, którzy ocenili 60 angielskich zdań. Wyniki wykazały, że związki przymiotnik-czasownik miały niższy wskaźnik akceptowalności niż związki dopełnienia-czasownika miały wyższy wskaźnik akceptowalności. Innymi słowy, zdania zawierające związki przymiotnik-czasownik były postrzegane jako bardziej „złe” niż zdania zawierające związki dopełnienia i czasownika. Odkrycia wykazały, że ludzki mózg jest wrażliwy na wewnętrzne struktury, które zawierają te związki. Ponieważ związki przymiotnik-czasownik zawierają złożone struktury hierarchiczne z rekurencyjnego zastosowania Merge, słowa te są trudniejsze do rozszyfrowania i przeanalizowania niż związki dopełnienia i czasownika, które obejmują prostsze struktury hierarchiczne. Jest to dowód na to, że związki nie mogły być skamieniałościami prajęzyka bez składni ze względu na ich złożoną wewnętrzną strukturę hierarchiczną.

Interakcje między składnikami E i L w wyrażeniach ludzkiego języka

Jak wspomniano wcześniej, język ludzki jest interesujący, ponieważ koniecznie wymaga elementów z systemów E i L – żaden z nich nie może występować samodzielnie. Pozycje leksykalne, czyli to, co Hipoteza Integracji nazywa „korzeniami”, są konieczne, ponieważ odnoszą się do rzeczy w otaczającym nas świecie. Elementy wyrażenia, które przekazują informacje o kategorii lub odmianie (liczba, czas, przypadek itp.) są również wymagane do kształtowania znaczeń rdzeni.

drzewo struktury fraz dla frazy „kup książki”
W zdaniu „kup książki” kategoria każdej frazy jest określana przez głowę.

Staje się bardziej jasne, że żaden z tych dwóch systemów nie może istnieć sam w odniesieniu do ludzkiego języka, gdy przyjrzymy się zjawisku „etykietowania”. Zjawisko to odnosi się do tego, jak klasyfikujemy kategorię gramatyczną fraz, gdzie kategoria gramatyczna frazy jest zależna od kategorii gramatycznej jednego ze słów w frazie, zwanego nagłówkiem. Na przykład w wyrażeniu „kupować książki” czasownik „kupować” jest nagłówkiem, a całą frazę nazywamy frazą czasownika. W tej frazie czasownikowej znajduje się również mniejsza fraza, określenie określające „książki” ze względu na określenie „the”. To, co czyni to zjawisko interesującym, to fakt, że pozwala na hierarchiczną strukturę fraz. Ma to wpływ na to, jak łączymy słowa, tworząc frazy i ostatecznie zdania.

Komponenty leksykalne nie mogą być bezpośrednio połączone ze sobą, jak pokazują te niegramatyczne zwroty. Na podstawie Miyagawy i wsp.(45)

To zjawisko etykietowania ma jednak ograniczenia. Niektóre etykiety mogą się łączyć, a inne nie. Na przykład dwie etykiety struktury leksykalnej nie mogą się bezpośrednio łączyć. Dwa rzeczowniki „Lucy” i „sukienka” nie mogą być bezpośrednio połączone. Podobnie rzeczownik "ołówek" nie może być połączony z przymiotnikiem "short", ani czasowniki "chcieć" i "pić" nie mogą być połączone bez niczego pomiędzy. Jak przedstawiono na poniższym schemacie, wszystkie te przykłady są niemożliwymi strukturami leksykalnymi. Pokazuje to, że istnieje ograniczenie polegające na tym, że kategorie leksykalne mogą mieć tylko jedną warstwę. Jednak te ograniczenia można przezwyciężyć, wstawiając między nimi warstwę ekspresyjną. Na przykład, aby połączyć „Jan” i „książka”, dodanie określnika, takiego jak „-”, czyni tę kombinację możliwą.

Kolejne ograniczenie dotyczy rekurencyjnego charakteru warstwy ekspresyjnej. Chociaż prawdą jest, że CP i TP mogą łączyć się, tworząc strukturę hierarchiczną, ta struktura CP TP nie może się powtarzać: jest głęboka tylko na jedną warstwę. To ograniczenie jest wspólne zarówno dla warstwy ekspresyjnej u ludzi, jak i śpiewu ptaków. To podobieństwo wzmacnia więź między istniejącym wcześniej systemem E, który przypuszczalnie powstał w śpiewie ptaków, a warstwami E występującymi w ludzkim języku.

Istnieje naprzemienność między warstwami E i L w celu tworzenia dobrze uformowanych fraz. Na podstawie Miyagawa et al. (45)

Ze względu na te ograniczenia w każdym systemie, w którym zarówno kategorie leksykalne, jak i ekspresyjne mogą sięgać tylko jednej warstwy, zaskakuje rekurencyjna i nieograniczona hierarchiczna struktura ludzkiego języka. Hipoteza Integracji zakłada, że ​​to właśnie połączenie tych dwóch rodzajów warstw skutkuje tak bogatą strukturą hierarchiczną. Naprzemienność warstw L i warstw E pozwala językowi ludzkiemu osiągnąć dowolną głębokość warstw. Na przykład w zdaniu „Zjedz ciasto, które upiekła Mary”, struktura drzewa pokazuje naprzemiennie warstwy L i E. Można to łatwo opisać dwoma regułami fraz: (i) LP → L EP oraz (ii) EP → E LP. Możliwa rekurencja jest wyraźnie widoczna poprzez przekształcenie tych reguł frazowych w notację nawiasową. LP w (i) można zapisać jako [LEP]. Następnie dodanie warstwy E do tego LP w celu utworzenia EP dałoby [E [LE EP]]. Następnie bardziej złożony LP można uzyskać przez dodanie warstwy L do EP, co daje w wyniku [L [E [LEP]]]. To może trwać wiecznie i zaowocować rozpoznawalnymi głębokimi strukturami znalezionymi w ludzkim języku.

Działanie elementów E i L w składni zdań

Komponentów E i L można użyć do wyjaśnienia struktur składniowych, które tworzą zdania w językach ludzkich. Pierwszy składnik, składnik L, zawiera słowa treści . Ten komponent jest odpowiedzialny za przenoszenie informacji leksykalnych, która przekazuje podstawowe znaczenie zdania. Jednak kombinacje składające się wyłącznie ze słów składowych L nie dają zdań gramatycznych. Ten problem został rozwiązany poprzez interakcję składnika L ze składnikiem E. Komponent E składa się ze słów funkcyjnych : słów odpowiedzialnych za wstawianie informacji składniowych o kategoriach składniowych słów składowych L, a także informacji morfosyntaktycznych o typowaniu klauzul, pytaniu, liczbie, przypadku i fokusie. Ponieważ te dodane elementy uzupełniają słowa treści w składniku L, składnik E można traktować jako zastosowany do składnika L. Biorąc pod uwagę, że składnik L składa się wyłącznie z informacji leksykalnych, a składnik E składa się wyłącznie z informacji składniowych, istnieją one jako dwa niezależne systemy. Jednak w przypadku powstania tak złożonego systemu, jakim jest język ludzki, oba systemy są z konieczności wzajemnie od siebie zależne. Jest to zgodne z propozycją Chomsky'ego dotyczącą dwoistości semantyki, która sugeruje, że język ludzki składa się z tych dwóch odrębnych komponentów. W ten sposób logiczne jest, dlaczego zbieżność tych dwóch składników była konieczna, aby umożliwić funkcjonalność ludzkiego języka, jaką znamy dzisiaj.

Patrząc na następujący przykład zaczerpnięty z artykułu Hipoteza integracyjna ewolucji języka człowieka i natury współczesnych języków autorstwa Miyagawy i in., każde słowo można zidentyfikować jako albo składnik L, albo składnik E w zdaniu: Czy John jeść pizzę?

W języku angielskim składnik E tworzy górną warstwę drzewa, która nadaje kształt syntaktyczny warstwie dolnej, która tworzy składnik L, który nadaje zdaniu jego podstawowe znaczenie leksykalne. Na podstawie Miyagawa et al. (30)

Słowa składowe L tego zdania to słowa treści John, eat i pizza . Każde słowo zawiera tylko informacje leksykalne, które bezpośrednio wpływają na znaczenie zdania. Składnik L jest często określany jako składnik bazowy lub wewnętrzny, ze względu na wewnętrzne pozycjonowanie tego składnika w drzewie struktury fraz. Oczywiste jest, że ciąg słów „Jan je pizzę” nie tworzy w języku angielskim poprawnego gramatycznie zdania, co sugeruje, że słowa ze składową E są niezbędne do syntaktycznego ukształtowania i ustrukturyzowania tego ciągu słów. Składnik E jest zwykle określany jako zewnętrzny składnik, który kształtuje wewnętrzny składnik L, ponieważ te elementy pochodzą z pozycji, która krąży wokół składnika L w drzewie struktury fraz. W tym przykładzie zaimplementowane słowo funkcyjne komponentu E to did . Wstawiając to słowo, do wyrażenia dodawane są dwa rodzaje struktur: czas i pisanie klauzul. Słowo zrobił to słowo, które służy do zapytania o coś, co wydarzyło się w przeszłości, co oznacza, że ​​dodaje do tego wyrażenia strukturę czasu przeszłego. W tym przykładzie nie zmienia to wyraźnie formy czasownika, ponieważ czasownik jedz w czasie przeszłym nadal pojawia się jako jedz bez żadnych dodatkowych znaczników czasu w tym konkretnym środowisku. Zamiast tego można uznać, że przedział czasu jest wypełniony przez symbol zerowy (∅), ponieważ ta forma czasu przeszłego nie ma żadnej treści fonologicznej. Chociaż ukryty, ten znacznik czasu zerowego jest ważnym wkładem słowa składowego E did . Napięte na bok, pisanie klauzul jest również przekazywane przez składnik E. Interesujące jest to, że to słowo funkcyjne did pojawia się w początkowej pozycji zdania, ponieważ w języku angielskim oznacza to, że ciąg słów pojawi się jako pytanie. Słowo zrobił określa, że ​​struktura typu zdania dla tego zdania będzie miała postać pytania pytającego, a konkretnie pytania tak-nie . Ogólnie rzecz biorąc, integracja komponentu E z komponentem L tworzy dobrze sformułowane zdanie: Czy John jadł pizzę? i wyjaśnia wszystkie inne wypowiedzi występujące w ludzkich językach.

Krytyka

Alternatywne podejścia teoretyczne

Model konkurencji , wywodzący się z podejścia opartego na używaniu , opracowany przez Elizabeth Bates i Briana MacWhinneya , postrzega akwizycję języka jako składającą się z serii konkurencyjnych procesów poznawczych, które działają na podstawie sygnału językowego. Sugeruje to, że rozwój języka zależy od uczenia się i wykrywania wskazówek językowych za pomocą konkurujących ogólnych mechanizmów poznawczych, a nie wrodzonych mechanizmów specyficznych dla języka.

Od strony biosemiotyki pojawiło się niedawne twierdzenie, że tworzenie znaczeń zaczyna się na długo przed pojawieniem się ludzkiego języka. To tworzenie znaczeń składa się z wewnętrznych i zewnętrznych procesów poznawczych. W ten sposób utrzymuje, że taka organizacja procesu nie mogła jedynie dać początek samemu językowi. Zgodnie z tą perspektywą wszystkie żywe istoty posiadają te procesy, niezależnie od tego, jak szerokie są różnice, w zależności od gatunku.

Nadmiernie podkreślona słaba koncentracja strumienia

Mówiąc o biolingwistyce, przyjmuje się dwa znaczenia tego terminu: silną i słabą biolingwistykę. Słaby opiera się na lingwistyce teoretycznej, która jest generatywistyczna w perswazji. Z drugiej strony silny nurt wykracza poza powszechnie eksplorowaną lingwistykę teoretyczną, zorientowaną na biologię, a także inne istotne kierunki studiów. Od wczesnego pojawienia się biolingwistyki do dnia dzisiejszego koncentrowano się głównie na słabym nurcie, widząc niewielką różnicę między badaniem językoznawstwa generatywnego a biologiczną naturą języka, a także w dużym stopniu polegając na chomskim pochodzeniu tego terminu.

Jak wyraził profesor naukowy i językoznawca Cedric Boeckx, dominuje opinia, że ​​biolingwistyka musi skoncentrować się na biologii, aby nadać treść językowemu teoretyzowaniu, w które zaangażowała się ta dziedzina. brak odkryć dotyczących właściwości gramatyki w kontekście biologii oraz brak uznania znaczenia szerszych mechanizmów, takich jak biologiczne właściwości pozajęzykowe. W końcu przypisywanie skłonności do języka jako biologicznej jest zaletą tylko wtedy, gdy taki wgląd jest wykorzystywany w badaniach.

David Poeppel, neurobiolog i językoznawca, dodatkowo zauważył, że jeśli neuronauka i językoznawstwo są źle zrobione, istnieje ryzyko „interdyscyplinarnej sterylizacji krzyżowej”, argumentując, że istnieje problem niedopasowania granularności. Z tego powodu różne poziomy reprezentacji stosowane w językoznawstwie i neuronauce prowadzą do niejasnych metafor łączących struktury mózgu z komponentami językowymi. Poeppel i Embick wprowadzają również problem niewspółmierności ontologicznej , w którym procesy obliczeniowe opisane w teorii językoznawczej nie mogą być przywrócone do neuronowych procesów obliczeniowych.

Niedawna krytyka biolingwistyki i „biologizmu” w naukach o języku w ogóle została opracowana przez Prakasha Mondala, który pokazuje, że istnieją niespójności i kategoryczne niedopasowania we wszelkich domniemanych ograniczeniach pomostowych, które mają na celu powiązanie struktur i procesów neurobiologicznych ze strukturami logicznymi języka, które charakter poznawczo-reprezentacyjny.

Inne istotne pola

Temat Opis Związek z biolingwistyką
Neurolingwistyka Badanie sposobu, w jaki język jest reprezentowany w mózgu; ściśle związany z psycholingwistyką, przyswajaniem języka i lokalizacją procesu językowego. Fizjologiczne mechanizmy, za pomocą których mózg przetwarza procesy formacyjne związane z językiem.
Nauka języka Sposób, w jaki ludzie uczą się postrzegać, tworzyć i rozumieć język; kierowany przez Universal Grammar zaproponowaną przez Chomsky'ego; zdolność dzieci do uczenia się właściwości gramatyki na podstawie zubożałych danych językowych. Wzrost i dojrzewanie języka u osób; procesy ewolucyjne, które doprowadziły do ​​powstania języka; ubóstwo bodźca .
Typologia językowa Analiza, porównanie i klasyfikacja języków według ich wspólnych cech strukturalnych; Identyfikuje podobieństwa i różnice w językach świata; sugeruje, że języki mogą nie być całkowicie przypadkowe.
Składnia Zasady rządzące organizacją gramatyczną słów i fraz. Gramatyka generatywna ; ubóstwo bodźca; zależność strukturalna, w której na zdanie wpływa jego struktura, a nie tylko kolejność słów.
Nauka sztucznej gramatyki Punkt przecięcia psychologii poznawczej i językoznawstwa Procesy poznawcze człowieka i wykrywanie wzorców w kontekście uczenia się języka; jak ludzie uczą się i interpretują gramatykę.

Badacze w Biolingwistyce

Zobacz też

Bibliografia

Konferencje

Linki zewnętrzne