Съдържание:

Големите начини пълно самоуправление и машинно обучение се различават от нашите мозъци
Големите начини пълно самоуправление и машинно обучение се различават от нашите мозъци

Видео: Големите начини пълно самоуправление и машинно обучение се различават от нашите мозъци

Видео: Глубокое обучение с подкреплением пока не работает 2022, Ноември
Anonim

В предишна статия обсъдих дългосрочния си план да науча повече за машинното обучение, започвайки от курсовете по Елементи на ИИ. Макар че съм само в началото на това пътешествие, наученото до момента беше много просветляващо. Изкушаващо е да видим системи като бета на Tesla с пълно самоуправление (FSD) като дете, което се учи, като прави, докато ние контролираме и пазим нещата в безопасност. В крайна сметка си мислим, че „детето“ще порасне и ще бъде като нас, а след това може би дори ще бъде по-добре в шофирането от хора.

След като изучим повече основите, става ясно, че това не прави машинното обучение.

Изображение
Изображение

Числа срещу идеи

Целият смисъл на машинното обучение (и изкуствения интелект като цяло) е да се използват машини, които обработват само числа (компютри), и да ги накара да обработват идеи.

Докато много реални проблеми и игри, като шах, могат да се сведат до уравнения и след това да се подадат чрез компютри, нещо толкова просто като „Това знак за спиране или знак за добив?“не могат лесно да се сведат до математика. Всички различни условия на осветление, ъгли на видимост, размери, износване, растения, които растат частично отпред и много други неща внасят несигурност. Това ще изисква невъзможен брой правила „ако, тогава“, за да се справи нормалното компютърно програмиране. Ще трябва да програмирате за почти всеки сценарий и пак ще имате пропуски в това, което може да направи бавният, раздут софтуер.

Вярвате или не, този подход е изпробван през 80-те години. Много сложни проблеми могат да бъдат разделени на много малки правила, които могат да бъдат програмирани. Ако програмирате достатъчно информация и правила в компютърна система, можете да изградите „експертна система“, която може да помогне на неспециалист да взема решения, както би го направил експерт. Проблемът беше, че времето на човешките експерти е ценно и принуждаването им да работят с разработчици е скъпо. Имаше и голяма съпротива от високо платени експерти за създаване на компютри, които потенциално биха могли да ги заместят и тази съпротива можеше да бъде преодоляна само като им се плати още повече.

Дори когато са готови, софтуерните пакети не могат да разрешат всеки проблем, който експертите могат да решат, така че сега плащате два пъти: веднъж експертите да помогнат за изграждането на системата и отново, когато системата не успее.

Машинното обучение, от друга страна, има за цел да не се нуждае от експертни учители. Вместо да използва определени правила, ръчно добавени към програмата от хората, машинното обучение използва основна информация, дадена чрез примерни данни, за да се приспособи, за да отговаря на „правилните“резултати на примерните данни. Казано по-просто, вие му давате входните данни и желаните резултати и той намира начини да се увери, че прави изчисления вътре в себе си, за да го оправи. Тогава на теория, когато въведете нови данни, те ще дадат правилните резултати.

Един проблем е, че машинното обучение е толкова добро, колкото и примерните данни, които получава. Amazon откри това по трудния начин, когато се опита да автоматизира част от процеса на наемане. След като захрани своите компютри на 10 години автобиографии и които в крайна сметка бяха наети, системата за машинно обучение беше готова да прегледа нови автобиографии и да направи препоръки за наемане, но Amazon бързо установи, че програмата е пристрастна към жените. Докато HR персоналът на Amazon вероятно не е осъзнато съзнателно дискриминирал жените, компютрите са коригирали програмата така, че да отговаря на миналите практики за наемане и заедно с това и пристрастия срещу наемането на жени.

Боклук вътре, боклук навън.

Това се случва, защото изкуствените невронни мрежи всъщност не научават нищо. Те изчисляват много и много вероятности и след това подават тези вероятности в други части на мрежата, които изчисляват повече вероятности. Тежестите на сложната система (важността на всяка вероятност) се коригират, докато входовете дават правилните изходи през повечето време. Мрежата няма съзнание, опит или съвест.

Богатите примерни данни могат да дадат добри резултати, но единственото нещо, което изкуствената невронна мрежа „обмисля“, е дали резултатът отговаря на примерните данни, за които е бил коригиран.

Човешко мислене

Много хилядолетия са насочени към човешкото мислене. Знанието как хората се учат и адаптират и как вземаме решения е от огромно значение. Колкото повече знаем за себе си, толкова по-добре можем да се справяме с трудни ситуации.

Изображение
Изображение

Блок-схема на OODA Loop на John Boyd, от Патрик Едуин Моран (CC BY 3.0).

Докато вземането на човешки решения използва нещо като примерни данни (миналият ни опит и обучение), под капака има много повече неща. Нашите наблюдения са включени в много по-сложна „машина“. Търсим модели, които съответстват не само на миналия ни опит, но и на нова информация, която току-що научихме, информация от нашата култура и всякакви религии, с които може да сме били отгледани - и сме способни да използваме въображението, за да комбинираме тези различни неща преди да действаме. Полковникът от американските военновъздушни сили Джон Бойд постави всичко това в известния си „OODA Loop“и това е цикъл, защото това е процес, който се случва отново и отново.

Ние също така сме в състояние да вземем добри решения в бързаме с ограничена информация. Използвайки това, което Малкълм Гладуел нарича „тънко нарязване“в Blink, хората са показали способността си често да вземат по-добри решения, когато са прибързани, отколкото понякога правят след внимателно обмисляне. Способностите ни за бързо идентифициране на подходяща информация, понякога подсъзнателно, водят до „инстинкти на червата“или „Имам лошо чувство за това“.

Имаме и Теория на ума. Като социални животни знанието за това, което другите хора вероятно мислят, е изключително важно. Ние взимаме решения въз основа не само на това, което мислят другите, но и на това, което те ще мислят, ако действаме по определен начин. Ние също мислим за това, което другите хора мислят, че ние мислим, или какво другите хора мислят, че другите мислят. Ние дори обмисляме това, което другите хора мислят, че мислим, че мислят и какво мислим, че мислят за това. Това е сложно, но ни идва естествено, защото сътрудничеството, а понякога и измамата са важни за нашето оцеляване.

От друга страна, ние не сме перфектни. Пристрастията, лошата културна информация, психичните разстройства, адреналинът и умишлената измама могат да объркат способността ни да вземаме решения.

Изображение
Изображение

Как това се отнася до автономните превозни средства

За самоуправляващи се автомобили давате на софтуера изображения на бордюри и път и той се настройва, за да категоризира правилно бордюрите и пътищата, така че да може да идентифицира къде да кара и къде да не кара (наред с много други неща). Мрежата не мисли за това какво мислят другите шофьори (теория на ума), нито за това, което другите шофьори смятат, че може да мисли. Бавно подминаването на друг шофьор по бързата лента е наред, но може да не е наред, ако редица автомобили започне да се задръства зад нас. Разбираме, че другите могат да бъдат разочаровани и ядосани, и често коригираме поведението си, за да избегнем конфликт. Софтуерът няма „чревни чувства“. Той не мисли за измама на системите за изкуствен интелект на друго превозно средство. Той не разбира признаци, че шофьорът на друга кола е ядосан и се клати на ярост на пътя.

Самоуправляващите се автомобили не се гледат в огледалото на мигащите червени и сини светлини, чудейки се дали не представляват фалшиво ченге. Той просто спира, както се изисква от закона, и не мисли да се обажда на 911, за да провери първо дали странната на вид полицейска кола е истинска.

Някои от правилните човешки отговори на тези ситуации може да са в данните за обучение за мимикрия, но други не.

От друга страна, машината никога не се уморява. Никога не се напива. Той няма лоши дни в офиса, болезнени скъсвания или ярост на пътя. Той никога не проверява социалните медии по време на шофиране и не прави разсейващи телефонни обаждания или изпращане на текстове.

Коя система ще бъде по-безопасна в дългосрочен план, всичко се свежда до това дали една машина, която е ограничена, но прави това, което прави последователно, е по-безопасна от по-малко ограничените, но несъвършени хора.

Мислите ли, че съм ви бил от полза в разбирането ви за Тесла, чиста енергия и т.н.? Чувствайте се свободни да използвате моя реферален код на Tesla, за да получите себе си (и аз) някои малки привилегии и отстъпки за техните автомобили и слънчеви продукти. Можете също така да ме следвате в Twitter, за да видите последните ми статии и други случайни неща.

Популярни по теми