Съдържание:

Това са трите огромни разногласия относно това дали пътят на автономията на Тесла е добър или лош
Това са трите огромни разногласия относно това дали пътят на автономията на Тесла е добър или лош

Видео: Това са трите огромни разногласия относно това дали пътят на автономията на Тесла е добър или лош

Отличия серверных жестких дисков от десктопных
Видео: Tesla Model 3 Performance / Все отличия и преимущества 2023, Февруари
Anonim

Току-що прекарах около два часа, гледайки YouTuber Уорън Редлих и Джейсън Торчински за разговори за (най-вече спорове за) Тесла и пътя към напълно автономни превозни средства. Аз съм напълно запознат с основите на технологичния дебат за това как да постигнем напълно автономно шофиране и те са се променили много малко през годините. Докато гледах това видео обаче ми хрумна, че малко хора са наясно къде се крият някои от основните теоретични разногласия и информационни пропуски.

Да, има цял дебат за лидар срещу липса на лидар (който изглежда продължава от началото на времето и със сигурност ще продължи до края). Да, има новото твърдение на Илон Мъск, че визията е всичко, което е необходимо (не лидар или радар). Но говоря за някои разлики, които са както по-широки, така и по-нюансирани по отношение на текущото състояние на технологиите и плановете на Tesla. Нека да се търкаляме през тях.

Безопасно ли е системата за подпомагане на водача да става все по-добра, без да е L4?

Изображение
Изображение

Снимка от Кайл Фийлд / CleanTechnica

Основният аргумент, за който Джейсън Торчински обясни и предостави някои препратки, е двоен: 1) тъй като технологията за подпомагане на водача се подобрява, драйверите за наблюдение имат по-малко работа; 2) тъй като те имат по-малко работа, за тях става все по-трудно да наблюдават в действителност крайните случаи, в които трябва да поемат. На теория това може да доведе до фаза в развитието, когато технологията е „твърде добра, но недостатъчно добра“, водеща до много инциденти и смъртни случаи.

От време на време повдигам този проблем, тъй като научих за него преди няколко години и научих, че НАСА е тествало същото предизвикателство (но различна задача) на някои инженери преди десетилетия и инженерите просто не са могли да обърнат внимание последователно, ако нещо, което те наблюдават, не се нуждае от намеса.

По принцип някои хора смятат, че системата Autopilot на Tesla е на този етап. (Не виждам доказателства в подкрепа на тази теория.) Някои смятат, че на този етап със системата Tesla FSD Beta ще разполагат само няколко хиляди собственици в автомобилите си в момента и останалите, които сме закупили FSD и живеем в САЩ се очаква да получат скоро. В момента се чувствам, че пакетът автопилот, който имам в моя Tesla Model 3, е голям подобрител на безопасността и че не води до самодоволство. Какво ще си помисля за система, която е толкова добра, че може да ме отведе от място за паркиране в място за паркиране в 99% от случаите, но останалите 1% от времето изискват да направя нещо, за да избегна инцидент? Не мога да кажа, тъй като все още нямам такава система.

Струва ми се, че все още има въпрос за това как компаниите трябва да продължат на тези по-високи етапи, но освен ако регулаторите не се намесят и не изискват нещо конкретно, компаниите просто ще продължат да разгръщат собствените си стратегии с темпото и по начина, който смятат за подходящ. Видяхме какво направи Waymo в това отношение. Компанията забеляза, че нейните шофьори по безопасност просто не са в състояние да останат съсредоточени върху наблюдението на превозните средства - въпреки че са били платени и обучени да го правят - и компанията решава да премине през етапа на обучение на водача L2 / L3 до пълна автономия L4 превозните средства се карат сами без шофьори за безопасност в рамките на ограничената география, където Waymo може да работи).

Ускореното усъвършенстване на технологията и разпространението благодарение на бета версията на клиента използва ли по-безопасен подход или подхода на net-cray-cray?

Друг спор относно Tesla FSD, който напоследък се разгорещява, е дали е логично, безопасно или дори законно клиентите на Tesla да получават „бета“версия на Tesla FSD в нормални автомобили на Tesla и да действат като тестери на Tesla'a и маратонки.

На първо място, има някакво просто объркване относно значението на „бета“в този контекст. Илон Мъск написа в туит през юли 2016 г. и това ме накара да напиша статия за него тогава. Неговият туит по това време гласеше:

„Неразбиране на значението на„ бета “за Tesla за автопилот: всяка система с по-малко от 1 мили мили реално шофиране.“

Той също пише в Twitter: „Използването на думата„ бета “е изрично, така че водачите да не се чувстват комфортно. Това не е бета софтуер в стандартния смисъл."

Изображение
Изображение
Изображение
Изображение

Съвсем наскоро, вчера, Maarten Vinkhuyzen даде обяснение какво е бета тестване и защо е критично за нова технология като FSD да напредне. Мисля, че това е задълбочено обяснение, което стига до корена на проблема - така че просто прочетете тази статия.

От друга страна, критиците виждат клиентите на „бета тестери“като опасни - независимо дали са полезни или не за усъвършенстване на системата.

Голям въпрос тук обаче не е само междинният период. Става въпрос за това колко бързо стигаме до автономните системи L4 и L5, които са изключително безопасни от хората. Ако стигнем там за 2 години, а не за 5 години, колко живота ще бъдат спасени? Хиляди? Десетки хиляди?

Това е една от големите теми, които Уорън и Джейсън обсъждаха, понякога не толкова лаконично. Но теорията, която Илон и Тесла преследват, е ясна: колкото по-бързо увеличавате достъпа до системата (безопасно), толкова по-бързо можете да я подобрите и по-бързо можете да направите пътищата по-безопасни като цяло.

Дали Tesla Autopilot е благодат за безопасност, дори ако не е в състояние L4 (готов за robotaxi)?

Това е двупосочен. На първо място, има въпросът дали автопилотът спасява човешки животи днес. Tesla издава тримесечен „доклад за безопасността“, който показва, че се случват по-малко инциденти (относително казано) с водачи на Tesla спрямо шофьори, които не са Tesla, и има още по-малко, когато е включен Autopilot. По-долу има графика, представяща предоставената от Tesla статистика във визуализация.

Изображение
Изображение

Графика на Zach Shahan / CleanTechnica

Има няколко проблема със статистиката, които ги правят по същество безполезни, както изтъкна Джейсън Торчински в дебата си с Уорън Редлих. На първо място, някои класове автомобили (като по-скъпите класове, в които играе Тесла) имат много по-малко инциденти на миля, отколкото по-евтините автомобили. Същото важи и за по-младите автомобили в сравнение с по-старите, а повечето автомобили на Tesla са изключително млади.

Положителната страна обаче е, че автомобилите на Tesla с включен автопилот са много по-малко склонни да попаднат в катастрофи, отколкото автомобилите на Tesla, без да е включен. Това обаче по същество също не ни казва много, защото Autopilot работи на по-добри пътища и се използва повече на по-прости и по-добри дискове. Също така, ако водачът или автопилотът установят, че нещо прави автономното шофиране твърде трудно, това не означава, че не шофирате по маршрута - това просто означава, че трябва да шофирате в по-опасни условия.

Както Torchinsky посочи, ние просто не разполагаме с данни за сравнение на автомобили, използващи Autopilot, със сравними автомобили, които не използват Autopilot - или, по-точно, изглежда никой не е събрал данните, за да направи такива сравнения.

И това може да е най-фундаменталното разногласие в момента между феновете на Тесла и хейтърите на Тесла. Първите смятат, че автопилотът подобрява безопасността в мрежата (аз съм в този лагер), докато вторите смятат, че намалява безопасността - най-вече от хората, които смятат, че е по-способен от него. Както Уорън продължаваше да изтъква в дебата с Джейсън, ако сте в последния лагер, къде са данните, които показват това? От моя потребителски опит и този на много други драйвери на Tesla, Autopilot изглежда голям стимул за безопасност. Tesla публикува тримесечни данни, които със сигурност показват, че е така. Може би докторант някъде ще направи подходящ анализ, за ​​да заключи, че това е законно. Въпреки това, с всяко подобрение на Tesla (нова функция на FSD), дебатът ще започне отначало. ?

Популярни по теми