Szerző: Hlács Ferenc

2016. július 1. 17:00

Itt az első halálos baleset robotpilótás Teslával

Sem a Tesla Model S szenzorai, sem a sofőr nem látta az úton áthaladó teherautót. Kié a felelősség az ügyben?

Halálos balesetet szenvedett egy önvezető üzemmódban haladó Tesla sofőrje. Az elkerülhetetlen következett be, akár biztonságosabbnak, akár kockázatosabbnak tartjuk a hasonló vezérlőrendszereket az emberi sofőröknél, csak idő kérdése volt, mikor következik be az első halálos baleset, gépi irányítás alatt lévő járműbe - az ügyben a vizsgálat már folyik, az iparág és a Tesla reakciója is meghatározó lesz az önvezető járművek jövője kapcsán.

A tragédia helyszíne egy floridai autópálya volt, ahol a Model S típusú Tesla egy az úton merőlegesen keresztülhaladó teherkocsi vontatmányába rohant bele. A vállalat közleménye szerint sem a járművet irányító Autopilot szoftver, sem pedig maga a sofőr nem vette észre a "napfényes ég előtt elhaladó fehér utánfutót", így azok egyike sem fékezett, a Tesla pedig a magas vontatmány alá rohant, annak alsó éle az autót a szélvédőnél kapta el. A jármű ezután két kerítést átszakítva egy villanyoszlopnak ütközött, végül pedig attól harminc méterrel távolabb állt meg. Arra a kérdésre, hogy ha az autó kameráit a fény el is vakítja, a radar miért nem érzékelte a közelgő akadályt, Elon Musk, a vállalat vezérigazgatója Twitteren úgy válaszolt, a szenzor figyelmen kívül hagyja a magasan elhelyezett útjelzőtábláknak látszó tárgyakat, hogy a fals fékezéseket elkerülje.

A gyártó a közleményben siet kitérni a felelősség kérdésére, mondván, az egyelőre bétateszt alatt álló Autopilot funkció alapértelmezetten ki van kapcsolva a járművekben, mikor pedig azt a sofőr aktiválja, a szoftver egyértelműen figyelmezteti a vezetőt, hogy csupán egy vezetéssegítő funkcióról van szó, amelynek használata során a sofőr változatlan odafigyelésére van szükség, továbbá kezeit is végig a kormányon kell tartsa, hogy bármikor kész legyen átvenni az irányítást. Ha az Autopilot használata közben a vezető leveszi kezét a volánról, az autó két figyelmeztetés után automatikusan lassítani kezd, majd megáll.

Nem ez az első eset egyébként, hogy a cég önvezető rendszerének meggyűlik a baja a magasabb trélerekkel, májusban egy Model S egy az út szélén parkoló utánfutóról, ugyancsak a szélvédő magasságában lelógó rakományba gurult bele - ekkor senki nem sérült meg, az eset kapcsán pedig a Tesla szintén úgy nyilatkozott, a vezetőknek az automatizált vezetés vagy parkolás során végig figyelni kell az autóra.

Megszoktuk a "kész" autókat

Igaz a gyártó egyértelműen jelzi, hogy jelenleg az önvezető - jobban mondva "fejlett vezetéssegítő" - üzemmód használata közben is a sofőré a felelősség, az eset mégis komoly kérdéseket vet fel a gyártó oldalán is, hiszen mégiscsak egy félkész szoftvert használ járműveiben, amely bár bizonyos körülmények között tökéletesen működik, pont emiatt adhat a felhasználónak hamis biztonságérzetet, ami aztán a későbbiekben hasonló balesetekhez vezethet. Még ha a cég jogi oldalról egyelőre úgy tűnik nem is támadható - bár ezt majd az Egyesült Államok autópályabiztonságért felelős hatósága, az NHTSA (National Highway Transportation Safety Administration) vizsgálata fogja eldönteni - a rossz "UX" miatt már sokkal inkább, értve ezalatt, hogy nem érzékelteti eléggé a Tesla tulajdonsokkal a "béta" címke veszélyeit. Erre a "Tesla Autopilot" keresőszavakat YouTube-on bepötyögve bőségesen találunk bizonyítékot.

Égbe révedő informatikusok: az Időkép-sztori

Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

Égbe révedő informatikusok: az Időkép-sztori Mi fán terem az előrejelzés, hogy milyen infrastruktúra dolgozik az Időkép alatt, mi várható a deep learning modellek térnyerésével?

Az egyre okosabb járművek korában még nagyobb hangsúlyt kap a biztonság jelentősége, hiszen azoknak már nem csak a fizikai törésteszteken, de a virtuális törésteszteken is át kell menni, szoftveroldali biztonságuk legalább olyan fontos, mint légzsákok, biztonsági övek vagy gyűrődési zónák kialakítása. Ezen a téren egyébként sajnos a Tesláénál jóval egyértelműbb felelőtlenségek is akadnak, nemrég a Mitsubishi SUV-inek riasztójáról derült ki, hogy távolról kikapcsolható, korábban pedig a Nissan Leaf alkalmazásán tátongott egy hónapig biztonsági rés - de a járművek még az autószerelők notebookjaitól sincsenek biztonságban. A leglátványosabb hasonló hiba talán a Jeepnél jött elő, ahol távolról akár a volánt is átvehette a támadó az érintett járművekben.

Az önvezető funkciók hibái persze jóval félelmetesebbek a közönség számára - különösen a fenti eset után - a gyártók ezért sorra hangsúlyozzák, hogy csak a teljesen elkészült, stabil rendszereket teszik majd járműveikbe. Az Autopilothoz hasonló megoldások, már több vállalat műhelyeiben is készülnek, a GM például Super Cruise, a Volvo pedig Drive Me néven fejleszt önvezető technológiát. Utóbbi egyébként azt is elmondta, a rendszere által okozott esetleges balesetekért teljes jogi felelősséget vállal.

Ez jóval "autógyártósabb" hozzáállás, bár egészen idáig pont ennek a hozzáállásnak a hiánya volt a Telsa népszerűségének egyik fő motorja. Sajnos azonban ezt nem lehet minden területen alkalmazni, az autósok az elmúlt 130 év alatt hozzászoktak, hogy a megvásárolt autók a végletekig tesztelt, kiforrott funkciókkal érkeznek - erősen kérdéses, hogy felülírható-e ez a beidegződés, ha pedig igen, többre lesz hozzá szükség néhány figyelmeztető üzenetnél.

Nagyon széles az a skála, amin az állásinterjú visszajelzések tartalmi minősége mozog: túl rövid, túl hosszú, semmitmondó, értelmetlen vagy semmi. A friss heti kraftie hírlevélben ezt jártuk körül. Ha tetszett a cikk, iratkozz fel, és minden héten elküldjük emailben a legfrissebbet!

a címlapról