Ostatnimi czasy w mediach huczy o tragicznych w skutkach wypadkach, do których doszło z udziałem autonomicznych samochodów. Jeszcze kurz nie opadł po aferze z Uberem i testowanym przez niego samochodem Volvo w roli głównej (zobaczcie tutaj), a już na cenzurowanym pojawiła się Tesla.
Niecałe trzy tygodnie temu w Dolinie Krzemowej doszło do potwornego wypadku. Za kierownicą Modelu X, poruszającego się w trybie autonomicznym po autostradzie, siedział Walter Huang, inżynier Apple.
W pewnym momencie auto nagle skręciło i z całym impetem uderzyło w barierkę oddzielającą pasy ruchu. Samochód został doszczętnie zniszczony, a zainstalowane na jego pokładzie akumulatory, wywołały pożar, który dodatkowo strawił większą część pojazdu. Niestety, kierowca zginął na miejscu.
Całą sprawą zajęła się agencja NTSB. Żona pracownika Apple przyznała po wypadku, że skarżył się on na nieprawidłowe działanie AutoPilota w swoim samochodzie, ale nie tylko nie wybrał się w tej kwestii do serwisu, ale również wciąż ufał systemowi autonomicznemu i odbywał podróże z nim aktywnym.
Prawnicy Tesli oczywiście wykorzystali słowa żony inżyniera Apple przeciw niej i stwierdzili, że skoro Walter o tym wiedział i nic z tym nie zrobił, to cała odpowiedzialność za wypadek spoczywa na nim.
Rodzina Huanga wynajęła więc prawnika, który pozwał Teslę. Pożyjemy, zobaczymy, jak rozwinie się ta sytuacja. Jeśli sąd uzna inaczej, niż prawnicy Tesli i zmusi firmę do wypłaty odszkodowania rodzinie inżyniera Apple, to firmy pracujące nad autonomicznymi technologiami w pojazdach znajdą się w sporych tarapatach.
Co ciekawe, po ostatnim śmiertelnym potrąceniu pieszej przez Volvo od Ubera, firma dogadała się z rodziną ofiary i wypłaciła jej spore odszkodowanie, chociaż nie musiała. Dla Tesli byłoby bezpieczniej i piękniej wizerunkowo pójść tą samą ścieżką, chyba, że zdaje sobie sprawę z faktu, że takich incydentów w przyszłości będzie dużo więcej. Wówczas może to ją kosztować grube miliony dolarów.
Źródło: GeekWeek.pl/ArsTechnica / Fot. ABC News/Twitter
Komentarze
Obstawiam, że Tesla bardzo łatwo wygra tę sprawę. Powód jest bardzo prosty - przed każdym uruchomieniem autopilota są ostrzeżenia między innymi o tym, że tryb jest eksperymentalny i kierowca powinien cały czas kontrolować zachowania samochodu. Skoro ostrzeżenia są, a właściciel się do nich nie dostosował, to niestety ale Tesla ma rację mówiąc, że wina jest po stronie pracownika Apple...
@sztaheter - akurat pozbawienie ludzi możliwości kierowania pojazdami skutkowałoby największym wzrostem bezpieczeństwa, odkąd wymyślono silnik. Oczywiście po okresie przejściowym, gdy podobnie jak w lotnictwie - trzeba napisać reguły krwią. Ale dzisiaj 50% katastrof lotniczych powodują piloci, 10% obsługa naziemna (kontrolerzy, mechanicy itp.), a jedynie jakieś 20% usterki mechaniczne (reszta to sabotaże, terroryzm itp.). Wśród usterek mechanicznych błędy systemowe to znowu jest jakiś niewielki procent (bo jednak większość z tych 20% to są awarie poza komputerem). Czyli porównując pilota-człowieka do autopilota mamy przewagę przynajmniej 10-krotną na korzyść automatu. Dodajmy do tego, że wiele z katastrof powodują piloci, którzy nie rozumieją zachowania automatów (lub sytuacji, w której znajduje się samolot), nie potrafią analizować szybko sytuacji i oceniać wiarygodności napływających danych; samoloty spadały z powodu zapchanych rurek Pitota, jeden nawet rozbił się z powodu przepalonej diody w kontrolce. Nasz kapitan Wrona przeorał spód samolotu, bo nie wiedział, że za fotelem drugiego jest bezpiecznik elektrycznego systemu wypuszczania podwozia (tj. systemu zapasowego, bo po starcie stwierdzili usterkę systemu hydraulicznego). Został wyróżniony dzięki temu, że jest, jak na stare standardy fachowości, zwyczajnym partaczem, który nie umie wyjść poza checklistę przygotowaną przez producenta (checklistę olał Sully lądując na Hudsonie, to jest specjalista). Gdyby tym pilotem kierował fachowiec, to w ciągu tych kilku godzin lotu przez Atlantyk, ze świadomością, że został już tylko jeden potencjalnie sprawny system, znałby na pamięć jego cechy (mają instrukcję), a krążąc nad Okęciem, bez presji czasu, spokojnie by ten bezpiecznik znalazł. Gdyby musiał w ogóle szukać, bo zdjęcia inżyniera Boeinga jednoznacznie wskazują, że ten bezpiecznik było widać na kilometr.
@Timewriter,: W jednym muszę się z tobą zgodzić: im większa automatyzacja tym większe ogłupienie. . . Systemy wspomagania? Ok. Ale jeśli ktoś świadomie pozwala całkowicie zastępować się w kwestii bezpieczeństwa przez automat, to jedynie wypada pogratulować poczucia humoru.
@gs60 -- Przewodnim argumentem jest poprawa bezpieczeństwa i wygody - właśnie poprzez autopilota, a w przyszłości pełną autonomiczność. Takie hasła przyśpiewują idei, jaką starają się forsować koncerny (w tym i Tesla). Montowanie odrębnego systemu nadzorującego (nie wiem, być może Tesla takie posiada?), byłoby moim zdaniem podważeniem zasadności stosowania autopilota, lub pełnej autonomiczności. Wyszłoby na to, że nie ma potrzeby opracowywania skomplikowanych algorytmów i systemów, skoro nieskomplikowany system poradziłby sobie równie sprawnie, lub miałby być ostatnią deska ratunku. Taki system został wyłączony w wypadku z udziałem Ubera. Pewnie gdyby działał, zatrzymałby pojazd. wiele koncernów tłumaczy prace nad autonomicznymi pojazdami, jako chęć poprawy bezpieczeństwa - co oczywiście nie do końca jest prawdą.
@Timewriter - zaakcentowania warte jest to co piszesz o braku zdublowania krytycznych funkcjonalności. Dodałbym: kompletnej separacji. Już fakt, że współczesne samochody nie mają hamulca pomocniczego który byłby *zupełnie* niezależny od reszty samochodu (od komputera, reszty mechaniki a na ew. odrębnym zasilaniu - o ile toto ma mieć zasilanie - kończąc), jest jak dla mnie niedopuszczalną wadą konstrukcyjną.