Da je sigurnost korištenjem AutoPilota u automobilima Tesla opasna po sigurnost i živote pokazuje i činjenica kako je u masovnom sudaru bilo 9 ozlijeđenih, srećom nitko nije poginuo
Slobodno se možemo pitati – “Do kada?”. Do kada će se dopustiti igranje s životima u redovitom prometu i da za to netko ne ode na dugotrajnu robiju, a jasno je tko gura takav nesavršeni i po svemu sudeći opasan sustav automatske vožnje.
Automobil Tesla vozeći na AutoPilotu izazvao je prometnu nesreću, lančani sudar u kojem je sudjelovalo osam automobila i pri tom je bilo čak devet ozlijeđenih, srećom pa nitko nije poginuo. A, mogao je. Sve se odigralo na mostu Bay Bridge u San Franciscu.
Vozač koji je bio u Tesli tvrdi kako je za cijelu nesreću kriv sustav pomoći automatizirane vožnje nazvan Full Self-Driving (FSD). Sigurno se pitate kako je došlo do sudara. Po svemu sudeći automobil Tesla se prestrojio u lijevu traku, a potom je bez razloga i neočekivano naglo zakočio.
Tesla priznaje kako potpuna samostalna vožnja nije dobra (video)
Teslia ima autonomne tehnologije AutoPilot i Full Self-Driving godinama te su kao takve u centru pažnje zbog svojih mogunost, ali mnogi su upozoravali da ti sustavi nisu savršeni te kako mogu napraviti ogromne greške što je najvjerojatnije bio slučaj i u ovom opisanom događaju. Treba istaknuti kako FSD sustav treba reagirati ako je vozač zaspao ili ništa ne poduzima, te vozilo treba polagano zaustaviti, ali nikako ne tako naglo i još k tome u lijevoj traci.
Sve je više jasnije kako ovi sustavi koje ima Tesla imaju sve većih sigurnosnih problema, pa je zato kompletan sustav pod posebnim istraživanjem Nacionalne administracije za sigurnost prometa na cestama u SAD-u.
Davor Kindy
Foto: Tesla
Tesla na autopilotu zabila se u drvo i izgorila pri čemu je dvoje ljudi poginulo (video)
You must be logged in to post a comment.