Tesla Autopilot protiv nacrtanog zida u stilu Pere Kojota

Mark Rober testirao je Tesla Autopilot protiv lažnog zida, a rezultat je bio zabrinjavajući.

Tesla Autopilot protiv nacrtanog zida u stilu Pere Kojota

Bivši NASA inženjer i popularni YouTuber Mark Rober, uzdrmao je internet svojom najnovijom analizom autonomnih vozila. U videu pod nazivom “Can You Fool a Self Driving Car?”, Rober je pokazao kako Tesla Autopilot ne uspeva da detektuje optičke iluzije – što je rezultiralo time da vozilo prođe pravo kroz lažni zid naslikan na putu, baš u stilu crtanog junaka Pere Kojota.

Osim što se Tesla Model 3 nije zaustavila pred vizuelnom prevarom, automobil nije uspeo da prepozna ni lutku deteta, niti simulirane vremenske uslove poput kiše i magle. Lexus SUV opremljen LIDAR tehnologijom, koji je korišćen za poređenje, savršeno je prošao sve testove, pokazujući kako kombinacija LIDAR-a i radara pruža daleko pouzdanije rezultate.

Tesla fanovi besni, ali podaci govore drugačije

Nakon objavljivanja videa, Tesla entuzijasti su oštro reagovali, optužujući Robera za namerno rušenje reputacije kompanije. Popularni YouTuber Kevin “Meet Kevin” Paffrath čak je sugerisao da bi Tesla mogla tužiti Robera zbog obmanjujuće prezentacije, tvrdeći da je Autopilot bio ručno isključen neposredno pre udara.

Rober je brzo odgovorio objavom sirovog snimka testa, gde je jasno naveo da nije dodirivao pedale gasa ili kočnice. Međutim, prema njegovim rečima, Autopilot se isključio 17 frejmova pre sudara, ostavljajući otvoreno pitanje da li se to dogodilo automatski ili zbog neke spoljne intervencije.

Tesla i Autopilot: problemi koji ne nestaju

Ovaj slučaj je ponovo istakao dugogodišnji problem sa Teslinim autonomnim sistemima. Prema istraživanju portala Electrek, Autopilot ima istoriju isključivanja neposredno pre sudara, što je dovelo do sumnji da Tesla namerno pokušava da izbegne odgovornost u incidentima gde se njihov napredni sistem vožnje nalazi u problematičnim situacijama.

Regulatorne agencije već godinama pokušavaju da istraže Tesline autonomne funkcije, ali kompanija aktivno otežava pristup podacima o sudarima. Prošle godine, Tesla se sukobila sa Kalifornijskim odeljenjem za motorna vozila (DMV), odbijajući da dostavi podatke o upotrebi Full Self-Driving (FSD) sistema u nesrećama.

Prijavi se na nedeljni Benchmark newsletter
Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Slično se dogodilo i sa Nacionalnom upravom za bezbednost saobraćaja na autoputevima (NHTSA), kada je Tesla zatražila redakciju informacija koje bi mogle pokazati da su njihovi autonomni sistemi bili aktivni tokom nesreća zabeleženih od 2021. godine.

Rober nije diskreditovao Teslu, već istakao njen stvarni problem

Iako su mnogi Tesla fanovi pokušali da obore Roberove tvrdnje, njegov eksperiment je otkrio realan nedostatak Teslinog autonomnog sistema. Bez LIDAR-a ili radara, Teslin optički sistem ostaje zavisan od kamere i softverske obrade slike, što očigledno nije dovoljno za bezbednu detekciju prepreka.

Umesto da obori Roberove tvrdnje, Tesla zajednica je nesvesno istakla kontroverzne prakse kompanije, koja već godinama skriva podatke o nesrećama u kojima je učestvovao njihov Autopilot i Full Self-Driving sistem.

Bez obzira na rasprave na internetu, jedno je sigurno – Tesla mora poboljšati svoju autonomnu tehnologiju ako želi da ubedi vozače da je njena vizija budućnosti samovozećih automobila zaista sigurna, prenosi Futurism.

Ostani u toku

Prijavi se na newsletter listu i jednom nedeljno cemo ti poslati email sa najnovijim testovima i vestima iz sveta tehnologije.

Hvala!

Uspešno ste se prijavili na na naš newsletter! Proverite vaš email nalog kako bi potvrdili prijavu.

Možda vam se svidi