Zabójcza broń autonomiczna - Lethal autonomous weapon

BAE Corax podczas prób w locie

Śmiercionośna broń autonomiczna ( LAWs ) to rodzaj autonomicznego systemu wojskowego, który może niezależnie wyszukiwać i atakować cele w oparciu o zaprogramowane ograniczenia i opisy. LAW są również znane jako śmiercionośne systemy broni autonomicznej (LAWS), systemy broni autonomicznej (AWS), broń robotyczna , roboty-zabójcy lub roboty rzeźne . PRAWA mogą działać w powietrzu, na lądzie, na wodzie, pod wodą lub w kosmosie. Autonomia obecnych systemów od 2018 r. była ograniczona w tym sensie, że człowiek wydaje ostatnie polecenie do ataku – chociaż istnieją wyjątki w przypadku niektórych systemów „obronnych”.

Bycie autonomicznym jako broń

Bycie „autonomicznym” ma różne znaczenia na różnych kierunkach studiów. W inżynierii może odnosić się do zdolności maszyny do działania bez udziału człowieka. W filozofii może odnosić się do jednostki moralnie niezależnej. W naukach politycznych może odnosić się do zdolności obszaru do samorządności . Jeśli chodzi o rozwój broni wojskowej, identyfikacja broni jako autonomicznej nie jest tak jasna, jak w innych dziedzinach. Specyficzny standard zawarty w koncepcji bycia autonomicznym może się znacznie różnić między różnymi naukowcami, narodami i organizacjami.

Różni ludzie mają wiele definicji tego, co stanowi śmiercionośną broń autonomiczną. Heather Roff, pisarka dla Case Western Reserve University School of Law , opisuje autonomiczne systemy uzbrojenia jako „systemy uzbrojenia uzbrojonego, zdolne do uczenia się i dostosowywania ich 'funkcjonowania w odpowiedzi na zmieniające się okoliczności w środowisku, w którym [są] rozmieszczone”, jako są też w stanie samodzielnie podejmować decyzje o odrzuceniu”. Ta definicja autonomicznych systemów uzbrojenia stanowi dość wysoki próg w porównaniu z definicjami uczonych, takimi jak definicje Petera Asaro i Marka Gubruda, które przedstawiono poniżej.

Uczeni, tacy jak Peter Asaro i Mark Gubrud, próbują obniżyć próg i oceniać więcej systemów uzbrojenia jako autonomicznych. Uważają, że każdy system uzbrojenia, który jest w stanie wyzwolić śmiertelną siłę bez operacji, decyzji lub potwierdzenia ze strony ludzkiego nadzorcy, można uznać za autonomiczny. Według Gubruda system uzbrojenia działający częściowo lub całkowicie bez interwencji człowieka jest uważany za autonomiczny. Twierdzi, że system uzbrojenia nie musi być zdolny do samodzielnego podejmowania decyzji, aby można go było nazwać autonomicznym. Zamiast tego należy traktować go jako autonomiczny, o ile aktywnie angażuje się w jedną lub wiele części „procesu przygotowawczego”, od znalezienia celu do ostatecznego oddania strzału.

Jednak inne organizacje stawiają standard autonomicznego systemu uzbrojenia na wyższą pozycję. Ministerstwo Obrony (Wielka Brytania) definiuje systemy autonomiczne broni jako „systemów, które są w stanie zrozumieć wyższy poziom intencji i kierunek. Od tego zrozumienia i jej postrzeganie swojego środowiska, taki system jest w stanie podjąć odpowiednie działania w celu doprowadzenia do pożądanego jest w stanie decydować o kierunku działania, z wielu alternatyw, bez uzależnienia od ludzkiego nadzoru i kontroli - takie ludzkie zaangażowanie w system może jednak nadal występować. przewidywalne, indywidualne działania mogą nie być."

W rezultacie skład traktatu między państwami wymaga powszechnie akceptowanego oznakowania tego, co dokładnie stanowi broń autonomiczną.

Automatyczne systemy obronne

Najstarszą automatycznie wyzwalaną śmiercionośną bronią jest mina lądowa , używana co najmniej od XVII wieku oraz miny morskie , używane co najmniej od XVIII wieku. Miny przeciwpiechotne są zakazane w wielu krajach na mocy traktatu ottawskiego z 1997 r. , nie obejmując Stanów Zjednoczonych, Rosji i dużej części Azji i Bliskiego Wschodu.

Niektóre obecne przykłady LAW to zautomatyzowane systemy aktywnej ochrony typu „hardkill” , takie jak kierowane radarem systemy CIWS używane do obrony statków, które są używane od lat 70. (np. US Phalanx CIWS ). Takie systemy mogą autonomicznie identyfikować i atakować nadlatujące pociski, rakiety, ostrzał artyleryjski, statki powietrzne i nawodne według kryteriów ustalonych przez operatora. Podobne systemy istnieją dla czołgów, takie jak rosyjska Arena , izraelskie trofeum i niemiecki AMAP-ADS . Kilka rodzajów stacjonarnych działek strażniczych , które mogą strzelać do ludzi i pojazdów, jest używanych w Korei Południowej i Izraelu. Wiele systemów obrony przeciwrakietowej , takich jak Iron Dome , ma również autonomiczne możliwości celowania. Automatyczne wieżyczki montowane na pojazdach wojskowych nazywane są zdalnymi stacjami broni .

Głównym powodem braku „człowieka w pętli” w tych systemach jest potrzeba szybkiej reakcji. Generalnie używano ich do ochrony personelu i instalacji przed nadlatującymi pociskami.

Autonomiczne systemy ofensywne

Systemy o wyższym stopniu autonomii obejmowałyby drony lub bezzałogowe statki powietrzne bojowe , np.: „ Prototyp nieuzbrojonego odrzutowego drona bojowego BAE Systems Taranis może prowadzić do przyszłego systemu powietrza bojowego, który może autonomicznie wyszukiwać, identyfikować i lokalizować wrogów, ale może angażować się z celem tylko wtedy, gdy jest to dozwolone przez dowództwo misji. Może również bronić się przed wrogimi samolotami” (Heyns 2013, §45). Northrop Grumman X-47B bezzałogowy samolot może startować i lądować na lotniskowcach (co wykazano w 2014 roku); ma zostać rozwinięty w system bezzałogowego pokładowego statku powietrznego do obserwacji i uderzenia (UCLASS).

Serbska przyczepa holownicza Land Rover Defender z gąsienicowym robotem bojowym „Miloš”

Według The Economist , wraz z postępem technologicznym, przyszłe zastosowania bezzałogowych pojazdów podwodnych mogą obejmować usuwanie min, kładzenie min, sieci czujników przeciw okrętom podwodnym na spornych wodach, patrolowanie za pomocą aktywnego sonaru, zaopatrywanie załogowych okrętów podwodnych i stawanie się tanimi platformami rakietowymi. W 2018 r. US Nuclear Posture Review twierdził, że Rosja opracowuje „nową międzykontynentalną, uzbrojoną w broń jądrową, podwodną autonomiczną torpedę o napędzie jądrowym” o nazwie „ Status 6 ”.

Rosja aktywnie rozwija sztucznie inteligentnych pocisków , drony , pojazdy bezzałogowe , roboty wojskowe i Medic roboty.

Izraelski minister Ayoob Kara stwierdził w 2017 roku, że Izrael opracowuje roboty wojskowe, w tym tak małe jak muchy.

W październiku 2018 r. Zeng Yi, dyrektor wyższego szczebla w chińskiej firmie obronnej Norinco , wygłosił przemówienie, w którym powiedział, że „na przyszłych polach bitew nie będzie ludzi walczących”, a użycie śmiercionośnej autonomicznej broni w działaniach wojennych jest „ nieunikniony". W 2019 roku sekretarz obrony USA Mark Esper zaatakował Chiny za sprzedaż dronów zdolnych do odbierania życia bez ludzkiego nadzoru.

Armia brytyjska rozmieściła nowe pojazdy bezzałogowe i roboty wojskowe w 2019 roku.

US Navy rozwija się „duch” floty statków bezzałogowych .

Według raportu Panelu Ekspertów Rady Bezpieczeństwa ONZ ds. Libii, opublikowanego w marcu 2021 roku, w 2020 roku dron Kargu 2 wytropił i zaatakował ludzki cel w Libii. ze śmiercionośną bronią zaatakował ludzi.

Kwestie etyczne i prawne

Standard stosowany w polityce USA

Obecna polityka USA głosi: „Autonomiczne […] systemy uzbrojenia powinny być zaprojektowane tak, aby umożliwić dowódcom i operatorom dokonywanie odpowiedniego poziomu ludzkiego osądu użycia siły”. Jednak polityka wymaga, aby autonomiczne systemy broni, które zabijają ludzi lub używają siły kinetycznej, wybierając i atakując cele bez dalszej interwencji człowieka, były certyfikowane jako zgodne z „odpowiednimi poziomami” i innymi normami, a nie, że takie systemy uzbrojenia nie mogą spełniać tych norm i są dlatego zabronione. „Pół-autonomiczne” łowcy-zabójcy, którzy samodzielnie identyfikują i atakują cele, nie wymagają nawet certyfikacji. Zastępca sekretarza obrony Robert Work powiedział w 2016 r., że Departament Obrony „nie przekaże śmiercionośnej władzy maszynie do podjęcia decyzji”, ale być może będzie musiał ponownie to rozważyć, ponieważ „autorytarne reżimy” mogą to zrobić. W październiku 2016 r. prezydent Barack Obama stwierdził, że na początku swojej kariery obawiał się przyszłości, w której prezydent USA wykorzystujący wojnę bezzałogową mógłby „prowadzić wieczne wojny na całym świecie, a wiele z nich skrycie, bez jakiejkolwiek odpowiedzialności lub demokratyczna debata”. W USA sztuczna inteligencja związana z bezpieczeństwem podlega od 2018 r. kompetencji Narodowej Komisji Bezpieczeństwa ds. Sztucznej Inteligencji. 31 października 2019 r. Rada ds. Innowacji Obronnych Departamentu Obrony Stanów Zjednoczonych opublikowała projekt raportu określającego pięć zasad uzbrojonych AI i sformułowanie 12 zaleceń dotyczących etycznego wykorzystania sztucznej inteligencji przez Departament Obrony, które zapewnią, że operator zawsze będzie w stanie zajrzeć do „czarnej skrzynki” i zrozumieć proces łańcucha zabijania. Głównym problemem jest sposób wdrożenia raportu.

Możliwe naruszenia etyki i aktów międzynarodowych

Stuart Russell , profesor informatyki z Uniwersytetu Kalifornijskiego w Berkeley stwierdził, że jego obawy związane z LAWS polegają na tym, że jego zdaniem jest to nieetyczne i nieludzkie. Głównym problemem związanym z tym systemem jest to, że trudno jest odróżnić walczących od niewalczących.

Niektórzy (np. Noel Sharkey 2012) wyrażają zaniepokojenie, czy PRAWA naruszają Międzynarodowe Prawo Humanitarne , w szczególności zasadę rozróżnienia, która wymaga zdolności do odróżnienia walczących od niewalczących, oraz zasadę proporcjonalności , która wymaga szkodzenia cywilom. jest proporcjonalna do celu wojskowego. Ta obawa jest często przywoływana jako powód całkowitego zakazania „zabójczych robotów” – ale wątpliwe jest, aby ta obawa mogła być argumentem przeciwko PRAWOM, które nie naruszają Międzynarodowego Prawa Humanitarnego.

Raport American Congressional Research Service z 2021 r. stwierdza, że ​​„nie ma krajowych ani międzynarodowych zakazów prawnych dotyczących rozwoju stosowania LAW”, chociaż potwierdza trwające rozmowy w ramach Konwencji ONZ o niektórych broniach konwencjonalnych (CCW).

Niektórzy twierdzą, że PRAWA zacierają granice tego, kto jest odpowiedzialny za konkretne zabójstwo. Filozof Robert Sparrow twierdzi, że autonomiczna broń jest przyczynowo, ale nie moralnie odpowiedzialna, podobnie jak dzieci-żołnierze. Argumentuje, że w każdym przypadku istnieje ryzyko okrucieństw bez odpowiedniego podmiotu pociągnięcia do odpowiedzialności, co narusza ius in bello . Thomas Simpson i Vincent Müller twierdzą, że mogą ułatwić rejestrowanie, kto wydał polecenie. Podobnie Steven Umbrello , Phil Torres i Angelo F. De Bellis twierdzą, że jeśli możliwości techniczne PRAW są co najmniej tak dokładne jak ludzkich żołnierzy, to biorąc pod uwagę psychologiczne niedociągnięcia ludzi-żołnierzy na wojnie, tylko te typy etycznych PRAW powinny być używany. Podobnie, proponują wykorzystanie podejścia projektowego uwzględniającego wartość jako potencjalnej ramy projektowania tych przepisów, aby dostosować je do wartości ludzkich i Międzynarodowego Prawa Humanitarnego . Co więcej, potencjalne naruszenia MPH przez PRAWO mają – z definicji – zastosowanie tylko w sytuacjach konfliktu, które wiążą się z potrzebą rozróżnienia między kombatantami a cywilami. W związku z tym żaden scenariusz konfliktu pozbawiony obecności cywilów – tj. w kosmosie lub na głębokich morzach – nie napotkałby przeszkód stawianych przez MPH.

Kampanie zakazujące PRAWA

Możliwość istnienia LAW wywołała poważną debatę, zwłaszcza na temat ryzyka „zabójczych robotów” wędrujących po Ziemi – w bliskiej lub dalekiej przyszłości. Grupa Campaign to Stop Killer Robots powstała w 2013 roku. W lipcu 2015 roku ponad 1000 ekspertów sztucznej inteligencji podpisało list ostrzegający przed groźbą wyścigu zbrojeń sztucznej inteligencji i wzywający do zakazu stosowania broni autonomicznej . List został przedstawiony w Buenos Aires na 24. Międzynarodowej Konferencji Wspólnej na sztucznej inteligencji (IJCAI-15) i został podpisany przez Stephena Hawkinga , Elon Musk , Steve Wozniak , Noam Chomsky , Skype współzałożyciela Jaan Tallinn i Google DeepMind współ- założyciel Demis Hassabis m.in.

Według PAX For Peace (jednej z organizacji założycielskich The Campaign to Stop Killer Robots), w pełni zautomatyzowana broń (FAW) obniży próg wojny, ponieważ żołnierze są usuwani z pola bitwy, a opinia publiczna jest zdystansowana od doświadczania wojny. dając politykom i innym decydentom więcej miejsca na decyzje, kiedy i jak iść na wojnę. Ostrzegają, że po wdrożeniu FAWs utrudni demokratyczną kontrolę nad wojną – coś, co autor Kill Decision – powieści na ten temat – a specjalista IT Daniel Suarez również ostrzegał: według niego może to zrecentralizować władzę w bardzo niewielu rękach przez bardzo niewielu ludzi szło na wojnę.

Istnieją strony internetowe, które sprzeciwiają się rozwojowi LAW, przedstawiając niepożądane konsekwencje kontynuowania badań nad zastosowaniem sztucznej inteligencji do oznaczania broni. Na tych stronach internetowych stale aktualizowane są wiadomości dotyczące kwestii etycznych i prawnych, aby odwiedzający mogli podsumować najnowsze wiadomości dotyczące międzynarodowych spotkań i artykuły badawcze dotyczące PRAWA.

Stolica Apostolska wezwała do społeczności międzynarodowej o zakazie stosowania przepisów ustawowych przy różnych okazjach. W listopadzie 2018 r. arcybiskup Ivan Jurkovic , stały obserwator Stolicy Apostolskiej przy Organizacji Narodów Zjednoczonych, stwierdził, że „aby zapobiec wyścigowi zbrojeń oraz wzrostowi nierówności i niestabilności, konieczne jest niezwłoczne działanie: teraz jest czas, aby PRAWO nie stało się rzeczywistością jutrzejszej wojny”. Kościół martwi się, że te systemy broni mogą nieodwracalnie zmienić charakter działań wojennych, oderwać się od ludzkiej sprawczości i kwestionować człowieczeństwo społeczeństw.

Od 29 marca 2019 r. większość rządów reprezentowanych na posiedzeniu ONZ w celu omówienia tej sprawy opowiedziała się za zakazem PRAW. Mniejszość rządów, w tym Australii, Izraela, Rosji, Wielkiej Brytanii i USA, sprzeciwiła się zakazowi.

Bez zakazu, ale regulacja

Trzecie podejście koncentruje się na uregulowaniu użycia autonomicznych systemów broni zamiast zakazu. Kontrola uzbrojenia z użyciem wojskowej sztucznej inteligencji prawdopodobnie będzie wymagać instytucjonalizacji nowych międzynarodowych norm zawartych w skutecznych specyfikacjach technicznych w połączeniu z aktywnym monitorowaniem i nieformalną dyplomacją („Ścieżka II”) przez społeczności ekspertów, wraz z procesem weryfikacji prawnej i politycznej.

Zobacz też

Bibliografia

Dalsza lektura

  • Heyns, Christof (2013), „Raport specjalnego sprawozdawcy w sprawie egzekucji pozasądowych, doraźnych lub arbitralnych”, Zgromadzenie Ogólne ONZ, Rada Praw Człowieka, 23 (3), A/HRC/23/47.
  • Krishnan, Armin (2009), Zabójcze roboty: legalność i etyczność broni autonomicznej (Aldershot: Ashgate)
  • Müller, Vincent C. (2016), „Autonomiczne roboty-zabójcy to prawdopodobnie dobra wiadomość” , w Ezio Di Nucci i Filippo Santoni de Sio (red.), Drony i odpowiedzialność: prawne, filozoficzne i socjotechniczne perspektywy wykorzystania zdalnego kontrolowana broń, 67-81 (Londyn: Ashgate).
  • Kampania Stuarta Russella przeciwko PRAWOM
  • Sharkey, Noel E (2012), „Automating Warfare: wnioski wyciągnięte z dronów”, Journal of Law, Information & Science , 21 (2).
  • Simpson, Thomas W i Müller, Vincent C. (2016), „Tylko wojna i zabójstwa robotów” , The Philosophical Quarterly 66 (263), 302-22.
  • Singer, Peter (2009), Wired for war: rewolucja robotyki i konflikt w XXI wieku (New York: Penguin)
  • Departament Obrony Stanów Zjednoczonych (2012), „Dyrektywa 3000.09, Autonomia w systemach uzbrojenia”. <Dokument dotyczący polityki zabójców robotów 2014, wersja ostateczna.docx>.
  • Departament Obrony Stanów Zjednoczonych (2013), „Zintegrowana mapa drogowa systemów bezzałogowych FY2013-2038”. < http://www.defense.gov/pubs/DOD-USRM-2013.pdf%3E .
  • Seminarium Etyki systemów broni autonomicznej (2014) na UPenn < https://www.law.upenn.edu/institutes/cerl/conferences/ethicsofweapons/schedule-required-readings.php >