Съдържание:

Предвидимо злоупотреба и автопилот на Tesla: Не е добър стандарт за регулиране
Предвидимо злоупотреба и автопилот на Tesla: Не е добър стандарт за регулиране

Видео: Предвидимо злоупотреба и автопилот на Tesla: Не е добър стандарт за регулиране

Отличия серверных жестких дисков от десктопных
Видео: Полицейский остановил Автопилот Tesla 2023, Януари
Anonim

В дните след предполагаемата катастрофа на „Автопилот“в Тексас видяхме много боклуци да се носят наоколо. Доста бързо установихме, че автопилотът дори не е включен, но разчитайки на твърдението на местен служител, че те са „100% сигурни“, че никой не е на шофьорското място, повечето търговски обекти продължават да работят с него. Тогава вчера разбрахме, че всъщност може да е имало някой на шофьорската седалка. По време на цялата лоша информация и покритието за шофиране непрекъснато виждах тази точка за разговори: че беше предвидимо хората да злоупотребяват с автопилот и че Тесла трябва да направи повече, за да предотврати това.

След като разгледаме тази идея по-нататък, е съвсем ясно, че опитът да се приложи такъв стандарт е вероятно не само неразумен в съдилищата, но и не би създал добра основа за регулаторни действия.

Дори правният стандарт „Разумно предвидимото злоупотреба“има граници

Законово има много противоречива и разхвърляна съдебна практика, която се върти около този стандарт. Не съм юрист, но намерих публикация в блог от адвокатска кантора по темата, която я обяснява доста задълбочено.

„Съгласно разумен стандарт за предвидимост производителят обикновено може да носи отговорност за наранявания, причинени от продукт, дори когато потребителят не е използвал продукта по предназначение. При тези обстоятелства потребителят ще трябва да докаже, че рискът е причинен от разумно предвидима злоупотреба, която е направила продукта дефектен и е бил известен или е трябвало да бъде известен на производителя, когато е продал продукта."

Проблемът с този стандарт възниква, когато съдилищата се опитват да го приложат. По-късно в публикацията в блога те ни разказват за това колко непоследователно се прилага. Дори когато са изправени пред почти идентични обстоятелства, съдилищата в различни държави ще се произнасят по напълно противоположни начини. Например, някои държави държат производителя на машина за сода отговорна, когато някой дебил се опита да разклати машината, за да получи безплатна газирана напитка и се нарани, докато други държави не виждат в това риск, за който производителят може разумно да носи отговорност.

Те продължават да обясняват, че тук има и стандарт за приемливост. Предвидимите злоупотреби с даден продукт, които не са разумни (поне на теория), не трябва да лежат върху плещите на производителя. За щастие на тези от нас, които готвим, дори смъртоносната злоупотреба с кухненските ножове се възприема като неразумно злоупотреба. Усилията, направени от производителя да направи по-трудна или по-малко примамлива злоупотреба (Tide Pods са чудесен пример тук), също могат да се разглеждат като разумни.

С други думи, грубите и екстремни злоупотреби с даден продукт не са отговорност на производителя. В тези случаи лицето много ясно знае, че не използва продукта правилно и по този начин поема отговорност за собствените си действия.

Злоупотреба с автопилот вероятно пада под необосновано злоупотреба

Докато в този момент знаем, че автопилотът не е бил използван при развалината, настъпила близо до Хюстън, знаем, че някои хора (включително някои журналисти) злоупотребяват с технологията. По-важното от злоупотребата е какво е необходимо, за да се стигне до точката на злоупотреба и дали тази злоупотреба е била откровено неразумна.

Първо, за да злоупотребите с автопилот, трябва да направите нещо по отношение на сензора на колелото, а за тези, които не са тествали автопилота, това е поведението му, ако не държите тежестта на ръцете и ръцете си на волана.

Consumer Reports окачи някои предмети от колелото. Има и „държач за мобилен телефон“на Autopilot Buddy, който осигурява достатъчно тегло, за да не позволи Autopilot да разбере, че няма ръка на волана. Други хора просто купуват тежести за упражнения с каишка и ги прикачват към колелото.

Това може да звучи като твърде лесно, но имайте предвид, че взема умишлено решение да деактивира тази функция за безопасност.

Второ, ако искате напълно да напуснете шофьорската седалка, трябва да подведете колата така, че коланът да е закопчан. Това може да стане чрез закопчаване на колана, преди да влезете и да седнете отгоре му, или като си купите фалшив край на предпазния колан и го закопчате.

Това е второто умишлено решение, което човек трябва да вземе, за да подведе системата.

Както казах по-рано, аз не съм адвокат, но ми се струва, че Tezzla е предприел стъпки за предотвратяване на злоупотребите, които изискват от водача много съзнателно и умишлено да ги заобикалят, ако искат да злоупотребяват със системата. Това поведение (заобикаляйки безопасността) би било възприето като неразумно и силно небрежно от разумен човек.

Наистина отговорността трябва да падне върху човека, който необосновано злоупотребява с автопилот.

Тласъкът да се използва регулаторната държава за заобикаляне на това

Хората, които прокарват стандарт за „предвидима злоупотреба“, вероятно знаят, че поне в гражданския съд има ограничение за тази доктрина (злоупотребата не трябва да бъде неразумна). Познавайки това ограничение, те искат да видят дали могат да го наложат без тази защита. Тяхната стратегия? За да накара федералните регулатори да използват процеса на създаване на правила, за да го наложат вместо това.

Някои твърдят, че Тесла трябва да бъде принуден да използва камери за наблюдение с автопилот. Разбирам идеята, но както знаем, слънчевите очила се оказаха проблем с някои от тези системи. Не знам за теб, но е мъчно да държиш очите си на пътя без слънчеви очила. Също така, не мислете за секунда, че хората няма да намерят начин да злоупотребяват с камерата за наблюдение по същия начин, по който заобикалят останалите функции.

Говорейки за очила …

Ако решат да наложат стандарт „предвидима злоупотреба“, без да поставят камери, това е още по-лошо. Както видяхме по-горе, има много място за тълкуване, което оставя производителите на автомобили да не са сигурни дали изобщо ще спазват изискванията. Дори и с камери за мониторинг на драйвери, биха ли производителите искали да добавят още една система, ако драйверите започнат да ги подвеждат?

Вместо да използваме граждански искове или нормативни норми за решаване на този проблем, ние наистина трябва да използваме наказателно право срещу хората, злоупотребяващи с автопилот. Вероятно вече нарушават множество държавни закони, като безразсъдно застрашаване и малтретиране на деца (ако в колата има деца). Федералните и щатските следователи трябва сериозно да разследват влиятелните лица в социалните медии и други, които парадират със злоупотребата със системата, да ги идентифицират и да дадат ясно да се разбере, че тя не лети.

Ще продължават ли хората да злоупотребяват с тези системи? Вероятно, но няма технологична бариера, хората няма да намерят начин да се справят. Изграждане на ограда? Хората ще донесат стълби. Да заключите нещо? Хората ще изберат ключалката или ще пробият сейфа. Поставете пароли за нещо? Хората ще се хакнат около себе си (но обикновено не толкова бързо, колкото обикновено го правят „човекът на стола“/ момчето се чуди по телевизията).

В един момент трябва да осъзнаем, че въпреки безкрайните предпазни мерки, риска от наказание и други неща, които да обезкуражат лошото поведение, някои хора все пак ще правят лоши неща.

Популярни по теми