Odpowiedzialność za samochód autonomiczny - Self-driving car liability

Wzrost wykorzystania technologii samochodów autonomicznych (np. zaawansowanych systemów wspomagania kierowcy ) powoduje stopniowe zmiany w zakresie odpowiedzialności za kierowanie pojazdem, a główną motywacją jest zmniejszenie częstotliwości kolizji drogowych . Odpowiedzialność za incydenty z udziałem samochodów autonomicznych to rozwijająca się dziedzina prawa i polityki, która określi, kto ponosi odpowiedzialność, gdy samochód powoduje fizyczne uszkodzenie osób lub mienia. Ponieważ samochody autonomiczne przenoszą odpowiedzialność za jazdę z ludzi na technologię samochodów autonomicznych, istnieje potrzeba ewolucji istniejących przepisów dotyczących odpowiedzialności w celu rozsądnego określenia odpowiednich środków zaradczych w przypadku szkód i obrażeń. Wraz z komercyjnym wprowadzaniem wyższych poziomów autonomii ( poziomy automatyzacji SAE 3 i 4), branża ubezpieczeniowa odnotuje wyższy odsetek linii handlowych i od odpowiedzialności za produkt, podczas gdy osobiste ubezpieczenia komunikacyjne kurczą się.

Obecne ramy odpowiedzialności

Istniejąca odpowiedzialność deliktowa kierowców i ubezpieczycieli oraz odpowiedzialność za produkt producenta stanowią aktualną podstawę do zarządzania wypadkami.

Odpowiedzialność deliktowa

Istnieją trzy podstawowe teorie odpowiedzialności deliktowej: tradycyjne zaniedbanie, odpowiedzialność bez winy i odpowiedzialność na zasadzie ryzyka.

Tradycyjne zaniedbanie Kierowca ponosi odpowiedzialność za szkody wyrządzone w przypadku niezachowania należytej staranności podczas eksploatacji pojazdu
Bez winy Ofiary wypadku nie mogą pozwać kierującego pojazdem, chyba że obrażenia wynikające z wypadku mają określony stopień ciężkości. Ofiary otrzymują odszkodowanie poprzez własne ubezpieczenie
Ścisła odpowiedzialność Dotyczy działań wyjątkowo niebezpiecznych lub „ultraniebezpiecznych”. Zaangażowane podmioty w konsekwencji ponoszą związane z tym koszty niezależnie od tego, czy ponoszą winę prawną

Według National Motor Vehicle Crash Causation Survey, w ponad 90% wypadków (co odpowiada około 2 milionom wypadków w USA) główną przyczyną wypadku był kierowca. Tymczasem badania przeprowadzone przez Insurance Institute for Highway Safety (IIHS) pokazują, że zaawansowane systemy wspomagania kierowcy, które są postrzegane jako odskocznie do autonomii na poziomie 3 i 4, pomogły zmniejszyć liczbę kolizji dzięki zastosowaniu ostrzeżeń przed kolizją i automatycznego hamowania. Biorąc pod uwagę te trendy, zwiększone wykorzystanie technologii pojazdów autonomicznych może zmniejszyć liczbę kolizji i zapobiec zgonom związanym z wypadkami. W rezultacie przypadki tradycyjnych zaniedbań prawdopodobnie spadną, a to z kolei obniży koszty ubezpieczenia samochodu.

Wraz z pojawieniem się w pełni autonomicznych samochodów możliwe jest, że zniknie potrzeba posiadania specjalistycznego ubezpieczenia samochodowego, a zamiast tego ubezpieczenie zdrowotne i ubezpieczenie od odpowiedzialności cywilnej właściciela domu pokrywa wypadki samochodowe, podobnie jak kolizje rowerowe. Co więcej, w miarę zmniejszania się liczby przypadków tradycyjnych zaniedbań, systemy ubezpieczeń bez winy wydają się atrakcyjne, biorąc pod uwagę płynące z nich korzyści. Zapewniłoby to odszkodowanie ofiarom stosunkowo szybko, a odszkodowanie nie zależałoby od identyfikacji winnej strony. W takich systemach poszczególni kierowcy byliby dobrze chronieni i zachęcaliby do korzystania z samochodów autonomicznych ze względu na ich bezpieczeństwo i korzyści związane z kosztami.

Zaniedbanie było podstawą pozwu Nilsson przeciwko General Motors. Nilsson został strącony z motocykla, gdy Chevy Bolt zmienił pas na jego pas, gdy był w trybie samodzielnej jazdy. Nilsson pozwał za zaniedbanie w związku z tym, że samochód autonomiczny (1) ma obowiązek przestrzegać przepisów ruchu drogowego, (2) narusza ten obowiązek podczas zmiany pasa podczas przejeżdżania, (3) i doznał urazu szyi. Sprawa została rozstrzygnięta zanim trafiła do sądu, więc odpowiedź na pytanie "czy można było przewidzieć błąd autonomicznego samochodu?" nadal pozostaje niejasne.

Odpowiedzialność za produkt

Odpowiedzialność za produkt reguluje odpowiedzialność producentów w zakresie zaniedbania i odpowiedzialności na zasadzie ryzyka.

Zaniedbanie Producenci muszą zachować należytą ostrożność przy projektowaniu swoich produktów tak, aby były bezpieczne w potencjalnych przypadkach użycia
Ścisła odpowiedzialność Producent ponosi całkowitą odpowiedzialność za szkody, nawet jeśli dołożył wszelkich możliwych starań w celu usunięcia wad

Autonomicznych producentów samochodów zachęcają możliwe pozwy sądowe dotyczące odpowiedzialności za produkt, aby zmniejszyć zagrożenie związane z ich produktami tak bardzo, jak to możliwe w ramach rozsądnej struktury kosztów. Ścisła odpowiedzialność obejmuje szeroki zakres potencjalnych szkód, przed którymi producenci mogą mieć trudności z ochroną; zamiast ograniczać mniej opłacalne ryzyko, producenci mogą do pewnego stopnia przenosić potencjalne koszty odpowiedzialności na konsumentów poprzez wyższe ceny.

Ponadto w sprawach o odpowiedzialności za produkt wyróżnia się różne rodzaje wad.

Wady produkcyjne Gdy produkt nie spełnia specyfikacji i norm producenta
Wady projektowe Kiedy przewidywalne ryzyko szkód można było zmniejszyć poprzez zastosowanie alternatywnego projektu
Brak ostrzeżenia Gdy producent nie wywiązuje się ze swojego obowiązku dostarczenia instrukcji dotyczących bezpiecznego użytkowania produktu i nie zapewnia odpowiedniego ostrzeżenia o ryzyku,

W przypadku wad fabrycznych powód musi wykazać, że samochód autonomiczny nie działał zgodnie z zaleceniami producenta. W przypadku samochodów autonomicznych stanowi to jednak znaczną przeszkodę, ponieważ żaden sąd nie zastosował wad produkcyjnych do oprogramowania, które nie jest czymś namacalnym, co jest wytwarzane. Niewłaściwe działanie systemu technologicznego nazywa się „awarią”, co oznacza, że ​​w systemie występuje błąd kodowania powodujący kolizje. W przypadku błędu w kodowaniu system oprogramowania sterującego mógł nie działać zgodnie z pierwotnymi zamierzeniami jego autorów. Jeśli awaria wynika z błędu oprogramowania, wówczas tradycyjne prawo odpowiedzialności za wady produkcyjne może nie wystarczyć. Należy lepiej zrozumieć, w jaki sposób oprogramowanie będzie traktowane zgodnie z tym prawem odpowiedzialności, głównie w przypadku, gdy błąd oprogramowania powoduje nieprawidłowe działanie części fizycznych.

Historycznie sądy stosowały dwa testy wadliwości projektu: oczekiwania konsumenta i stosunek kosztów do korzyści.

Oczekiwania konsumentów: „Produkt ma wadliwy projekt lub skład, gdy jest bardziej niebezpieczny niż oczekiwałby zwykły konsument, gdy jest używany w zamierzony lub racjonalnie przewidywalny sposób. przez produkt jest na ogół jednym dla trzech faktów."

Z drugiej strony test kosztów i korzyści porównuje korzyści z kosztami produktu przy ustalaniu, czy wzór jest wadliwy. W przypadku samochodów autonomicznych powód mógł argumentować, że inny projekt, czy to w fizycznych cechach pojazdu, czy w oprogramowaniu kontrolującym ruch pojazdu, mógł uczynić pojazd bezpieczniejszym. Dla powodów stwarza to duże obciążenie dowodowe, a także utrudnia znalezienie wykwalifikowanych ekspertów.

Nałożenie odpowiedzialności

Pytając „kogo pozywam”, powód w tradycyjnym wypadku samochodowym przypisałby winę kierowcy lub producentowi samochodu, w zależności od przyczyny wypadku. W wypadku z udziałem samochodu autonomicznego powód może mieć do wyboru cztery opcje.

  1. Operator pojazdu : na Florydzie i Nevadzie operator jest definiowany jako osoba, która powoduje włączenie autonomicznej technologii, niezależnie od tego, czy osoba fizycznie znajduje się w pojeździe. Z drugiej strony Kalifornia określa, że ​​operator to „osoba, która siedzi na siedzeniu kierowcy lub, jeśli nie ma osoby na siedzeniu kierowcy, powoduje włączenie technologii autonomicznej”. Wykonalność roszczenia wobec operatora będzie zależeć od poziomu autonomii. Na przykład, jeśli technologia autonomiczna pozwala pasażerowi na oddanie pełnej kontroli nad pojazdem, prawdopodobnie pasażer nie ponosi winy za wypadek spowodowany przez tę technologię.
  2. Producent samochodu : w przypadku tej opcji powód będzie musiał ustalić, czy producent brał udział w instalacji technologii autonomicznej w pojeździe. Stany takie jak Floryda zapewniają jednak ochronę, ograniczając odpowiedzialność producentów za produkt.
  3. Firma, która stworzyła gotowy samochód autonomiczny : Volvo jest przykładem producenta, który zobowiązał się do wzięcia pełnej odpowiedzialności za kolizje spowodowane jego technologią autonomicznej jazdy.
  4. Firma, która stworzyła technologię samochodów autonomicznych : firmy korzystające z tej opcji mogą obejmować firmy opracowujące oprogramowanie samochodu autonomicznego oraz firmy produkujące systemy czujników, które umożliwiają pojazdowi wykrywanie jego otoczenia.

Możliwe obrony

W obronie takiej odpowiedzialności producenci pojazdów autonomicznych mogliby wysunąć argument zaniedbania porównawczego, niewłaściwego użytkowania produktu i stanu techniki. W przypadku zaniedbania porównawczego ingerencja kierowcy lub pasażera jest postrzegana jako część przyczyny obrażeń i obrażeń. W przypadku niewłaściwego użytkowania produktu kierowca lub pasażer może ponosić winę za zlekceważenie wskazówek lub zmianę pojazdu w sposób, który wpłynie na prawidłowe działanie pojazdu. Przy obecnym stanie techniki producenci mogli argumentować, że w momencie produkcji nie było bezpiecznych alternatywnych projektów.

Odpowiedzialność cybernetyczna

Ponieważ samochody stają się coraz bardziej połączone i autonomiczne, możliwość włamania się do systemu samochodowego w celu pozyskania danych i spowodowania szkód stanowi poważne ryzyko. W przypadku producentów i twórców technologii autonomicznej narażenie na odpowiedzialność wynika z gromadzenia i przechowywania danych i danych osobowych w pojeździe i w chmurze. Obecnie producenci wymagają odszkodowania od dostawców i podwykonawców (dealerzy, zakłady naprawcze/instalacyjne itp.), a praktyka ta prawdopodobnie zostanie rozszerzona na autonomicznych twórców technologii.

Systemy transportowe mają kluczowe znaczenie dla pojazdu autonomicznego, ponieważ pełnią funkcję dowódcy, a dzięki wielu systemom pojazdów autonomicznych używanych do zwiększenia wydajności ryzyko narażenia na złośliwe ataki znacznie wzrośnie. Aby chronić systemy, cyberfizyczny system musi być zaimplementowany z autonomicznymi podsystemami dynamicznymi, aby zapewnić decyzję, interakcję i kontrolę.

Prawo brytyjskie

W 2018 r. brytyjska ustawa o pojazdach automatycznych i elektrycznych określa zasady:

  • Wykaz pojazdów zautomatyzowanych przez Sekretarza Stanu
  • Odpowiedzialność ubezpieczycieli itp. w przypadku wypadku spowodowanego przez pojazd zautomatyzowany
  • Zaniedbania współautorskie itp.
  • Wypadek spowodowany nieautoryzowanymi zmianami oprogramowania lub brakiem aktualizacji oprogramowania
  • Prawo ubezpieczyciela itp. do roszczenia wobec osoby odpowiedzialnej za wypadek
podstawowa odpowiedzialność

Prawo definiuje niektóre przypadki odpowiedzialności pojazdów zautomatyzowanych.

(1) Gdzie—

(a) wypadek jest spowodowany przez pojazd zautomatyzowany podczas samodzielnego poruszania się po drodze lub innym miejscu publicznym w Wielkiej Brytanii,
(b) pojazd jest ubezpieczony w czasie wypadku oraz
(c) ubezpieczony lub inna osoba dozna szkody w wyniku wypadku,
za tę szkodę odpowiada ubezpieczyciel.

(2) Gdzie—

(a) wypadek jest spowodowany przez pojazd zautomatyzowany podczas samodzielnego poruszania się po drodze lub innym miejscu publicznym w Wielkiej Brytanii,
(b) pojazd nie jest ubezpieczony w chwili wypadku,
(c) art. 143 ustawy o ruchu drogowym z 1988 r. (użytkownicy pojazdów mechanicznych podlegają ubezpieczeniu lub zabezpieczeniu przed ryzykiem osób trzecich) nie ma w tym czasie zastosowania do pojazdu—
(i) ze względu na artykuł 144(2) tej ustawy (zwolnienie dla organów publicznych itp.), lub
(ii) ponieważ pojazd jest w służbie publicznej Korony oraz
(d) osoba poniosła szkodę w wyniku wypadku,
za tę szkodę odpowiada właściciel pojazdu.
—  Ustawa o pojazdach zautomatyzowanych i elektrycznych 2018
odpowiedzialność ograniczona przez oprogramowanie

Na przykład:

Polisa ubezpieczeniowa pojazdu zautomatyzowanego może wyłączać lub ograniczać odpowiedzialność ubezpieczyciela zgodnie z art. 2 ust. 1 za szkody poniesione przez ubezpieczonego w wyniku wypadku powstałego w bezpośrednim następstwie

(a) zmian w oprogramowaniu dokonanych przez osobę ubezpieczoną lub za wiedzą osoby ubezpieczonej, które są zabronione przez polisę, lub
(b) niezainstalowania aktualizacji oprogramowania o krytycznym znaczeniu dla bezpieczeństwa, o których ubezpieczony wie lub powinien wiedzieć, że mają one kluczowe znaczenie dla bezpieczeństwa.
—  Ustawa o pojazdach zautomatyzowanych i elektrycznych 2018
regulator

Wielka Brytania mogłaby mieć regulatora. Gdy nie ma użytkownika odpowiedzialnego (NUIC), policja kontaktuje się z regulatorem. Regulator sankcjonuje podmiot systemu zautomatyzowanej jazdy do czasu ewentualnego cofnięcia zezwolenia.

prawo francuskie

W dniu 14 kwietnia 2021 r. we Francji tekst określa zasady dla poziomu 3 ( véhicule à délégation de conduite ) i poziomu 5 ( transport routier de marchandises, lorsqu'il est effectué au moyen d'un système de transport routier automatisé ). Ten tekst jest zatytułowany: ordonnance n° 2021-443 du 14 avril 2021 relative au régime de responsabilité pénale apply en cas decirculation d'un véhicule à délégation de conduite et à ses Conditions d'utilisation .

Pierwszego lipca 2021 r. Francja jest pierwszym krajem europejskim — przed Wielką Brytanią i przed jakimkolwiek innym krajem europejskim — który zaktualizował swój kod trasy dla zautomatyzowanych samochodów. Ta aktualizacja precyzuje rolę i odpowiedzialność kierowcy i samochodu oraz plany zastosowania po aktualizacji konwencji wiedeńskiej i przed wrześniem 2022 r.

Prawo niemieckie

Kiedy Mercedes wprowadza Drive Pilot w połowie 2021 roku w Niemczech, oczekuje się, że Daimler będzie musiał przejąć odpowiedzialność ubezpieczeniową, w zależności od jurysdykcji.

Poziom 3 oznacza, że ​​kierowca może zgodnie z prawem oderwać wzrok od kierownicy, a firma, w tym przypadku Daimler, musiałaby przejąć odpowiedzialność ubezpieczeniową, w zależności od jurysdykcji.

—  Indu.

W 2021 r. proponowana niemiecka ustawa przewidywała, że ​​„pojazd autonomiczny” będzie wymagał pozwolenia na użytkowanie jako pojazdu zautomatyzowanego.

Zagadnienia dotyczące zasad (USA)

Producenci ponoszący koszty

Jak argumentowano w artykule „The Coming Collision Between Autonomous Vehicles and the Liability System” autorstwa Gary'ego Marchanta i Rachel Lindor, producent nie może przewidzieć wszystkich możliwych scenariuszy, jakie napotka samochód autonomiczny. Podczas gdy producent zaprojektuje system tak, aby zminimalizować ryzyko sytuacji, które przewiduje, najbardziej szkodliwe i kosztowne będą kolizje, których producent nie przewidzi. Powoduje to, że producent jest bardzo podatny na wady konstrukcyjne, w szczególności na test kosztów i korzyści.

W związku z tym Marchant i Lindor twierdzą, że „technologia jest potencjalnie skazana na zagładę… ponieważ ciężar odpowiedzialności spoczywający na producencie może uniemożliwiać dalszy rozwój. Tak więc, nawet jeśli pojazd autonomiczny może być ogólnie bezpieczniejszy niż pojazd konwencjonalny, przeniesie odpowiedzialność za kolizje, a tym samym odpowiedzialność, z kierowców na producentów. Zmiana odepchnie producenta od społecznie optymalnego wyniku – opracowania pojazdu autonomicznego”.

W związku z tym decydenci muszą mieć na uwadze, że producent ponosi koszty odpowiedzialności i potencjalne konsekwencje, które mogą z tego wyniknąć, takie jak wyższe koszty konsumenckie i opóźnienia we wprowadzaniu technologii samochodów autonomicznych. W raporcie „Autonomous Vehicle Technology” opracowanym przez Rand Corporation autorzy zalecają, aby decydenci rozważyli takie podejścia, jak zapobieganie deliktom, federalne zabezpieczenie ubezpieczeniowe oraz długoterminowa analiza kosztów i korzyści standardu prawnego pod kątem racjonalności. Podejścia te mają na celu wyrównanie prywatnych i publicznych kosztów technologii samochodów autonomicznych, tak aby wdrożenie nie było niepotrzebnie opóźniane, a jedna ze stron nie ponosiła nadmiernych kosztów.

Wytyczne NHTSA

We wrześniu 2016 r. Narodowa Administracja Bezpieczeństwa Ruchu Drogowego opublikowała raport dotyczący polityki w celu przyspieszenia przyjęcia technologii samochodów autonomicznych (lub HAV, pojazdów wysoce zautomatyzowanych) i przedstawił wytyczne dotyczące wstępnych ram regulacyjnych. Kluczowe punkty to:

  • Państwa są odpowiedzialne za określenie zasad odpowiedzialności za HAV. Państwa powinny rozważyć, jak przydzielić odpowiedzialność właścicielom pojazdów HAV, operatorom, pasażerom, producentom i innym osobom w przypadku wypadku.
  • Ustalenie, kto lub co jest „kierowcą” pojazdu HAV w danych okolicznościach, niekoniecznie określa odpowiedzialność za wypadki z udziałem tego pojazdu HAV.
  • Zasady i przepisy dotyczące odpowiedzialności deliktowej mogą mieć znaczący wpływ zarówno na akceptację HAV przez konsumentów, jak i na tempo ich rozmieszczania. Takie przepisy mogą również mieć istotny wpływ na poziom i częstotliwość kosztów ubezpieczenia pojazdu od odpowiedzialności cywilnej w jurysdykcjach, w których działają pojazdy typu HAV.
  • W przyszłości państwa mogą zidentyfikować dodatkowe kwestie odpowiedzialności i dążyć do wypracowania spójnych rozwiązań. Pożądane może być utworzenie komisji zajmującej się badaniem kwestii odpowiedzialności cywilnej i ubezpieczeniowej oraz formułowaniem zaleceń dla Państw.

HR 3388, ustawa SELF DRIVE z 2017 r.

Izba Reprezentantów w dniu 6 września 2017 r. jednogłośnie uchwaliła HR 3388, ustawę SELF DRIVE z 2017 r.

  • Zwiększenie bezpieczeństwa poprzez priorytetowe traktowanie ochrony konsumentów.
  • Potwierdź rolę i obowiązki rządów federalnych i stanowych.
  • Aktualizacja federalnych standardów bezpieczeństwa pojazdów silnikowych, aby uwzględnić postęp technologiczny i ewolucję wysoce zautomatyzowanych pojazdów,

Rząd federalny, uchwalając ustawę SELF DRIVE, ogranicza rolę stanów, co może sygnalizować zmianę w przyszłości przepisów dotyczących odpowiedzialności. Ponieważ rząd federalny zapewnia również, że konsumenci będą chronieni, producenci mogą znaleźć się w niekorzystnej sytuacji odpowiedzialności i mogą stracić nadwyżkę. Aktualizacja federalnych norm bezpieczeństwa pojazdów silnikowych wpłynie na przepisy dotyczące odpowiedzialności. Przepisy te będą nadal chronić konsumentów, jednocześnie nakładając na producentów bardziej rygorystyczne normy. Rząd federalny nie ogłosił jeszcze żadnych konkretnych autonomicznych przepisów dotyczących odpowiedzialności za zabójstwo pojazdów.

Sztuczna inteligencja i odpowiedzialność

Mówiąc szerzej, każde oprogramowanie z dostępem do świata rzeczywistego, w tym autonomiczne pojazdy i roboty, może spowodować uszkodzenie mienia, obrażenia i śmierć. Rodzi to pytania o odpowiedzialność cywilną lub karną .

W 2018 r. John Kingston, badacz z University of Brighton, przeanalizował trzy teorie prawne odpowiedzialności karnej, które mogą dotyczyć podmiotu kontrolowanego przez sztuczną inteligencję.

  • Sprawca za pośrednictwem innego - programisty ( projektanta oprogramowania ) lub użytkownika może zostać pociągnięty do odpowiedzialności za bezpośrednie polecenie popełnienia przestępstwa przez podmiot AI. Jest to stosowane w prawie zwyczajowym, gdy osoba wydaje polecenia lub bezpośrednio powoduje, że zwierzę lub osoba niezdolna do odpowiedzialności karnej (na przykład małe dziecko lub osoba z poważnym upośledzeniem umysłowym) popełni przestępstwo.
  • Naturalna i prawdopodobna konsekwencja - programista lub użytkownik może zostać pociągnięty do odpowiedzialności za spowodowanie popełnienia przez podmiot AI przestępstwa w wyniku jego naturalnego działania. Na przykład, jeśli człowiek utrudnia pracę robota fabrycznego, a sztuczna inteligencja zdecyduje się zgnieść człowieka jako najłatwiejszy sposób na usunięcie przeszkody, aby kontynuować pracę, jeśli taki wynik był prawdopodobny i programista wiedział lub powinien był o tym wiedzieć, programista może zostać pociągnięty do odpowiedzialności karnej.
  • Odpowiedzialność bezpośrednia – system AI wykazał kryminalne elementy uznanej w prawie karnym teorii odpowiedzialności . Przestępstwa ścisłej odpowiedzialności (takie jak przekroczenie prędkości) wymagają działania ( actus reus ), ale „konwencjonalne” przestępstwa (takie jak morderstwo) wymagają intencji (rodzaj mens rea ). Zaniedbanie karne polega na niewypełnieniu obowiązków w obliczu istnienia dowodów na możliwą szkodę. Z prawnego punktu widzenia sądy mogą, zgodnie z obowiązującymi przepisami, przypisać odpowiedzialność karną systemowi sztucznej inteligencji istniejącego samojezdnego samochodu za przekroczenie prędkości; nie jest jednak jasne, czy byłoby to pożyteczne dla sądu.

Możliwe zabezpieczenia obejmują nieoczekiwaną awarię lub infekcję złośliwym oprogramowaniem , które zostało z powodzeniem wykorzystane w Wielkiej Brytanii w przypadku ataku typu „odmowa usługi” .

Kingston wyróżnia dwie dziedziny prawa, w zależności od rodzaju podmiotu:

NHTSA badanie śmiertelnego wypadku z udziałem 2016 Tesla Autopilot przystąpił jako dochodzenia bezpieczeństwa produktów samochodowych i ustalił, że mimo katastrofy, nie było żadnych wad, które wymagały wycofania (chociaż Tesla pracuje nad poprawą oprogramowania w celu uniknięcia podobnych awarii). Autopilot tylko daje samochodom ograniczoną autonomię, a od kierowców oczekuje się zachowania świadomości sytuacyjnej i przejmowania kontroli w razie potrzeby.

W przypadku pojazdów w pełni autonomicznych oczekuje się, że producenci oprogramowania i pojazdów będą ponosić odpowiedzialność za wszelkie kolizje wynikające z winy (zgodnie z istniejącymi przepisami o odpowiedzialności za produkty samochodowe ), a nie pasażerowie, właściciel lub firma ubezpieczeniowa właściciela. Volvo ogłosiło już, że zapłaci za wszelkie urazy lub szkody spowodowane przez swój w pełni autonomiczny samochód, który ma rozpocząć sprzedaż w 2020 roku. specjalne prawa jazdy; uchwalone przez niektóre stany USA, pozostaje to aktywnym obszarem stanowienia prawa. Mieszkańcy nadal byliby odpowiedzialni za skierowane przez siebie działania, takie jak wybór miejsca parkowania (a tym samym za bilety parkingowe).

Profesor prawa z Uniwersytetu Południowej Karoliny Bryant Walker Smith zwraca uwagę, że w przypadku zautomatyzowanych systemów zazwyczaj dostępnych będzie znacznie więcej danych niż w przypadku wypadków z kierowcą, co pozwala na bardziej wiarygodną i szczegółową ocenę odpowiedzialności. Przewidział również, że porównania między reakcją zautomatyzowanego systemu a tym, jak człowiek zareagowałby lub powinien był zareagować, zostaną wykorzystane do ustalenia błędu.

Ustawodawstwo na poziomie stanowym w USA

Według NHTSA , stany zachowują swoją odpowiedzialność za ubezpieczenia pojazdów silnikowych i systemy odpowiedzialności, oprócz innych tradycyjnych obowiązków, takich jak licencjonowanie i rejestracja pojazdów oraz przepisy ruchu drogowego i egzekwowanie. Kilka stanów, takich jak Michigan, Nevada i Waszyngton DC, ma wyraźnie napisane postanowienia dotyczące sposobu traktowania odpowiedzialności.

Uchwalone przepisy dotyczące pojazdów autonomicznych

Stan Numer rachunku Odpowiednie postanowienia Data wejścia w życie
Michigan SB 663 (2013) Ogranicza odpowiedzialność producenta pojazdu lub upmontera za szkody w procesie o odpowiedzialności za produkt wynikające z modyfikacji dokonanych przez osobę trzecią w zautomatyzowanym pojeździe lub zautomatyzowanej technologii pojazdu w określonych okolicznościach; dotyczy konwersji w trybie automatycznym Uchwalona i rozdzielona 26 grudnia 2013 r.
Nevada SB 313 (2013) Pod warunkiem, że producent pojazdu, który został przerobiony na pojazd autonomiczny przez osobę trzecią, jest zwolniony z odpowiedzialności za określone obrażenia Uchwalona i rozdzielona 2 czerwca 2013 r.
Waszyngton 2012 DC B 19-0931 Ogranicza konwersję do najnowszych pojazdów i uwzględnia odpowiedzialność oryginalnego producenta przekonwertowanego pojazdu Uchwalona i obowiązująca od 23 kwietnia 2013 r.

Nowe przepisy republikańskiego gubernatora Arizony Douga Duceya, wprowadzone 1 marca, określają szczegółową listę wymagań licencyjnych i rejestracyjnych dla operatorów samochodów autonomicznych. W szczególności rozkaz Ducey określa, że ​​„osoba” podlegająca prawu obejmuje każdą korporację zarejestrowaną w Arizonie.

Zmiana na rynku ubezpieczeń samochodowych

W białej księdze zatytułowanej „Rynek zmian: ubezpieczenia samochodowe w erze pojazdów autonomicznych” KPMG oszacowało, że samochody osobowe stanowiły 87% ubezpieczenia od szkód, podczas gdy samochody komercyjne stanowiły 13% w 2013 r. Do 2040 r. przewiduje się, że samochody osobowe spadek do 58%, podczas gdy samochody komercyjne rosną do 28%, a odpowiedzialność za produkt wzrasta o 14%. Odzwierciedla to pogląd, że odpowiedzialność osobista spadnie, gdy odpowiedzialność za prowadzenie pojazdu zostanie przeniesiona na pojazd, a mobilność na żądanie będzie miała większy wpływ. Dodatkowo, mając na uwadze, że ogólny tort reprezentujący straty objęte polisami OC zmniejszy się, ponieważ samochody autonomiczne będą powodować mniej kolizji.

Chociaż KPMG ostrzega, że ​​eliminacja nadwyżki mocy produkcyjnych przyniesie znaczące zmiany w branży ubezpieczeniowej, 32% liderów firm ubezpieczeniowych spodziewa się, że pojazdy autonomiczne nie będą miały istotnego wpływu na branżę ubezpieczeniową w ciągu najbliższych 10 lat. Bezczynność dużych graczy otworzyła nowe możliwości dla nowych graczy. Na przykład Metromile, firma ubezpieczeniowa założona w 2011 roku, zaczęła oferować ubezpieczenia oparte na użytkowaniu dla kierowców o niskim przebiegu i opracowała polisę uzupełniającą komercyjne ubezpieczenie kierowców Uber.

Publiczne oświadczenia producentów samochodów

W 2015 roku firma Volvo wydała komunikat prasowy, w którym twierdzi, że Volvo przyjmie pełną odpowiedzialność, ilekroć jego samochody będą działać w trybie autonomicznym. Prezes i dyrektor naczelny Volvo Cars, Håkan Samuelsson, posunął się dalej, zachęcając „regulatorów do ścisłej współpracy z producentami samochodów w celu rozwiązania kontrowersyjnych nierozstrzygniętych kwestii, takich jak pytania dotyczące odpowiedzialności prawnej w przypadku, gdy autonomiczny samochód brał udział w wypadku lub został zhakowany przez przestępcę Strona trzecia."

W artykule IEEE , starszy lider techniczny ds. technologii bezpieczeństwa i wsparcia kierowcy w Volvo powtórzył podobny sentyment, mówiąc: „jeśli popełniliśmy błąd podczas projektowania hamulców lub pisania oprogramowania, nie jest rozsądne obarczanie odpowiedzialnością klienta. ..mówimy klientowi, możesz poświęcić czas na coś innego, bierzemy odpowiedzialność.”

Zobacz też

Bibliografia