Етика вештачке интелигенције која се бори са неизбежним несрећама са вештачком интелигенцијом, које се такође надвијају над аутономним самовозећим аутомобилима

Да ли можда познајете некога ко је посебно склон незгодама?

Чини се да сви то радимо.

Можда је та особа склона да склизне на кору банане или да преврне драгоцену вазу у вашој дневној соби. Они су људски магнет за несреће ове или оне врсте. Могло би бити толико лоше да вам се понекад мрзи да будете у њиховој близини. Можда ћете добити злослутно преливање или претрпјети неславне последице једне од њихових неугодних несрећа.

Али можда смо превише оштри када сугеришемо да је неко склонији несрећама него други. Могло би се изнети аргумент да се несреће могу десити сваком од нас. Сви смо подложни могућности да починимо или будемо уплетени у несрећу. Укључени су најбољи од нас.

Хајде да на врху ове дискусије ставимо једно додатно узнемирујуће питање.

Да ли су незгоде неизбежне?

Другим речима, колико год се трудили да спречимо несреће, нераскидиво би могло бити да ипак постоји шанса и крајња извесност да ће се незгоде догодити. Можете тражити да заштитите свет од несрећа. То изгледа несумњиво разборито. Али на овај или онај начин, несреће ће и даље подићи своју ружну главу.

Како кажу, несреће чекају да се десе.

Могло би бити од помоћи да се разјасни шта се подразумева када се неки догађај на одговарајући начин означава као несрећа. Уобичајена речничка дефиниција је да је несрећа врста инцидента који се дешава неочекивано и ненамерно, за који постоји несрећни резултат који се састоји од привида штете или повреде.

Пажљиво распакујте ту дефиницију.

Поменути инцидент је неочекиван. То имплицира да изгледа нисмо схватили да ће доћи до саме несреће.

Наведени инцидент је ненамеран. Ово сугерише да треба да искључимо околности у којима је неко намерно тражио да дође до инцидента. Ако шаљивџија стави кору од банане на под где зна да ће несрећни и несуђени невини стати, било би вам тешко да тврдите да је особа која се спотакнула о њу доживела несрећу. Уместо тога, били су преварени и подмукло одведени у замку.

Дефиниција такође укључује критеријум да је резултат несрећан. Несрећа у овом светлу мора да доведе до лошег исхода. Особа која је случајно срушила вазу је напукла и можда оштетила предмет који се допао, непоправљив. Власник вазе је оштећен губитком вредности. Особа која је улетела у вазу можда сада дугује власнику за губитак. Не дај Боже да се ико може посећи или откинути разбијањем вазе.

Ради једнаке равнотеже, могли бисмо да приметимо да постоје и такозване „добре“ незгоде. Особа би се могла наћи у великом богатству или стећи неку другу виталну корист услед несреће. Један од најчешће цитираних примера је сер Алекандер Флеминг и његово хваљено откриће пеницилина. Прича се да је био помало неопрезан у својој лабораторији и да је по повратку са двонедељног одмора пронашао калуп на једном од својих плоча за културу. Наводно је о томе рекао следеће: „Човек понекад нађе оно што не тражи. Када сам се пробудио одмах после зоре 28. септембра 1928, сигурно нисам планирао да револуционишем сву медицину откривањем првог на свету антибиотика или убице бактерија. Али претпостављам да је то управо оно што сам урадио."

Оставићемо по страни повољне несреће и фокусирати се овде на страшне незгоде. Намрштена верзија несрећа је случај када ови негативни исходи могу бити посебно опасни по живот или имати тешке последице. Колико год је то могуће, негативне незгоде које желимо да минимизирамо (и, наравно, негативне незгоде које бисмо желели да максимизирамо, ако је то изводљиво, мада ћу ту варијанту смајлића покрити у каснијој колони).

Желео бих да мало преформулишем раније питање о неизбежности несрећа. До сада смо држали нашу пажњу на несрећама које се дешавају у одређеном случају једне особе. Нема сумње да несреће такође могу утицати на мноштво људи одједном. Ово се посебно може сусрести када су људи уроњени у сложен систем ове или оне врсте.

Припремите се за варијанту претходно постављеног питања.

Да ли су системске незгоде неизбежне?

Требало би да размислимо о овоме.

Претпоставимо да је фабрички под постављен за израду делова за аутомобиле. Они који су пројектовали фабрику су, рецимо, изузетно забринути због несрећа радника до којих би могло доћи. Фабрички радници су дужни да носе шлемове у сваком тренутку. Знакови у фабрици позивају да пазите на незгоде и да будете пажљиви у свом послу. Предузете су све мере предострожности како би се спречиле незгоде.

У овом систему, можемо се надати да нико никада неће доживети несрећу. Да ли верујете да нема шансе да се догоди несрећа? Усудио бих се да кажем да се ниједан разуман мислилац не би кладио да је шанса за несрећу нула у овом случају. Шансе за несрећу могу бити веома мале, али ми и даље знамо и претпостављамо да упркос свим мерама предострожности још увек постоји мали ризик да ће се несрећа догодити.

Све ово упућује на идеју да у довољно сложеном систему морамо веровати да ће се незгоде и даље дешавати, без обзира колико се трудили да их спречимо. Невољно се повлачимо са ставом да су системске незгоде заиста неизбежне. Грандиозна изјава овог калибра могла би имати упозорење да би систем морао да буде на неком прагу сложености тако да је у суштини немогуће покрити све основе да би се у потпуности спречиле несреће.

Сада сте уредно, корак по корак, упознати са широко зацртаном теоријом о несрећама која се може означити као нормалне несреће или теорија нормалних несрећа (НАТ). Ево згодног описа истраживача који су испитивали овај појам: „У довољно великој скали, сваки систем ће произвести 'нормалне незгоде'. Ово су неизбежне незгоде узроковане комбинацијом сложености, спрега између компоненти и потенцијалне штете. Нормална несрећа се разликује од уобичајених несрећа квара компоненти по томе што догађаји и интеракције које доводе до нормалног удеса нису разумљиве оператерима система“ (као што је наведено у „Разумевање и избегавање кварова вештачке интелигенције: Практични водич“ Роберта Вилијамса и Роман Јампољски, Филозофија часопис).

Разлог зашто сам те довео у земљу тзв нормалне незгоде је да ћемо можда морати пажљиво да применимо ову теорију на нешто што постепено и неизбежно постаје свеприсутно у нашем друштву, наиме на појаву вештачке интелигенције (АИ).

Хајде да удубимо у ово.

Неки људи лажно претпостављају да ће АИ бити савршенство. АИ системи неће правити грешке и неће нас довести у невоље, спекулише се. Све што треба да урадите је да се уверите да ови програмери вештачке интелигенције ураде довољно добар посао, и воила, АИ никада неће урадити ништа што би се могло протумачити као случајно или као узрок несреће.

Не тако брзо на то хипотетичко уверење. Ако сте вољни да се упустите у теорију нормалне незгоде, свака АИ било које суштинске сложености ће неизбежно довести до несреће. Без обзира на то колико касно ноћу ти програмери вештачке интелигенције раде да би спречили несрећу, АИ ће сигурно у неком тренутку бити уплетена у несрећу. То је начин на који се колачић мрви. И нема предаха плакати у нашем проливеном млеку због тога.

Размислите о мешавини вештачке интелигенције и концептуалним начелима нормалне незгоде.

Замислите да имамо систем вештачке интелигенције који контролише нуклеарно оружје. АИ је пажљиво израђен. Свака замислива провера и равнотежа је кодирана у АИ систем. Да ли смо безбедни од несреће засноване на вештачкој интелигенцији до које би могло доћи? Они који подржавају уобичајено гледиште о несрећама рекли би да нисмо баш толико безбедни као што би се могло претпоставити. С обзиром на то да је вештачка интелигенција вероватно посебно сложена, нормална несрећа у тишини чека тамо да би се једног дана појавила, можда у најгорем могућем тренутку.

Суштина тих трновитих питања и недоумица је да морамо бити на опрезу да ће АИ сигурно бити оптерећена несрећама, а човечанство мора да учини нешто разумно и проактивно у вези са опасностима које могу да настану. Као што ћете видети за тренутак или два, ово је питање које се назире када је у питању коришћење вештачке интелигенције, а поље етике вештачке интелигенције и етичке вештачке интелигенције се поприлично бори око тога шта да се ради. За моје текуће и опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Пре него што кренемо у зечју рупу, хајде да се уверимо да смо на истој страни о природи вештачке интелигенције. Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека који вам даје савете. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде). Сви ови сценарији би појачали процену извора.

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера вештачке интелигенције је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), које користи подударање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

Све у свему, општа нада је да ћемо успостављањем осећаја за етичка правила вештачке интелигенције барем моћи да повећамо друштвену свест о томе шта вештачка интелигенција може и корисно да уради, али и негативно да произведе. Опширно сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Можда ћемо морати да додамо хваљене листе етике вештачке интелигенције које морамо експлицитно да размотримо и да предузмемо отворене мере да спречимо или бар снажно ублажимо последице засноване на АИ нормалне незгоде то би се могло догодити. Они који развијају АИ морају да дају све од себе на том фронту. Они који користе АИ морају да ураде исто. Они који користе или су на неки начин подложни вештачкој интелигенцији требало би да буду опрезни и на опрезу због могућности несрећа са вештачком интелигенцијом до којих ће наизглед доћи.

Можда ћете бити у искушењу да помислите да се у АИ може уградити довољно мера предострожности да би се шансе за несрећу смањиле на нулу. За оне који су техничари, уобичајена охолост је да ако део технологије може да створи проблем, други део технологије сигурно може да реши проблем. Само наставите да бацате све више и више технологије док проблем не нестане.

Па, они који су проучавали системски оријентисане несреће склони би да се не слажу и љубазно узврате на претпостављену помпозност техничара нудећи становиште познато као модел швајцарског сира (СЦМ): „У СЦМ-у, слојеви безбедности су моделовани као кришке сир са рупама које представљају слабе тачке у сваком слоју сигурности. Временом, рупе мењају облик и померају се. На крају, без обзира на то колико кришки сира (сигурносних слојева) има, рупе ће се поравнати, омогућавајући право пуцање кроз све кришке сира (догађа се несрећа)“ (према раније цитираном раду Роберта Вилијамса и Романа Јампољског ).

Не желим да се упуштам у ову бочну тангенту о томе да ли постоји загарантован начин да се АИ програмира да у потпуности и увек спречи сваку шансу за несрећу. Постоје разни математички и рачунски приступи доказивања који се испробавају. Мислим да је разумно и поштено изјавити да ми данас немамо скалабилан радни метод нити технологије које могу да гарантују такву нулту шансу, плус ми смо дефинитивно оптерећени тонама и тонама вештачке интелигенције која се производи безнадежно коју ми сигуран да није настојао да се придржава такве праксе. Ова последња тачка је кључна, јер чак и ако можемо да смислимо нешто у лабораторији АИ, скалирање тога на зилионе дивљих и безбрижних АИ напора који су у току и који ће наставити да се појављују, представља чворно питање и вероватно неће бити решено чак и ако се машина за компјутерско доказивање сребра метак је постојао.

Још једна ствар за коју верујем да заслужује да се кратко спомене састоји се од вештачке интелигенције која се претвара у чињење непожељних радњи као резултат злонамерних људских актера. Нећу стављати те случајеве у област несрећа са вештачком интелигенцијом. Запамтите да је уводна дискусија сугерисала да је речничка дефиниција несреће инцидент ненамјерно природа. Ако људски сајбер преварант успе да натера систем вештачке интелигенције да ради лоше ствари, ја не класификујем ту вештачку интелигенцију као несрећу. Верујем да ћете се сложити са том претпоставком.

Поставља се занимљиво питање колико се разних нежељених радњи вештачке интелигенције може приписати чисто АИ несрећи у односу на подмукао чин сајбер криминалца. Према неким од постојећих АИ инцидената које извештавају о базама података, чини се да се несреће са вештачком интелигенцијом дешавају више него злонамерно подстакнути инциденти, иако ту идеју морате узети са великом дозом соли. Кажем ово зато што постоји велико искушење да се не пријави када је систем вештачке интелигенције нападнут, и да можда будемо спремнији да пријавимо када се догоди АИ несрећа.

Постоји изузетно важно упозорење које треба да размотримо у вези са несрећама са вештачком интелигенцијом.

Употреба фразе „несреће са вештачком интелигенцијом“ генерално је непожељна и створиће поприличан неред за све нас, што значи за цело друштво. Када човек можда доживи несрећу, ми често слегнемо раменима и саосећамо са особом која је имала несрећу. Чини се да реч „несрећа“ третирамо као да то значи да нико није одговоран за оно што се догодило.

Узмимо за пример упадање у саобраћајну несрећу. Један аутомобил се широко замахне у десном скретању и случајно налети на други аутомобил који је ишао право испред себе. Срање, то је била само несрећа и случајно се догодило. Они који нису били укључени у инцидент ће можда пустити да ствар прође ако се догађај тумачи као пука несрећа која се догодила.

Међутим, имам осећај да, да сте били у ауту који је ударен, не бисте били толико симпатични према возачу који је направио прешироко скретање. Ваше мишљење би свакако било да је други возач био лош возач и да је или наизглед незаконита или неразумна вожња довела до саобраћајне несреће. Означавањем инцидента као „несреће“, возач који је заглавио сада је у донекле неповољној позицији јер се чини да се све догодило само случајно, а не преко руку возача који је забрљао.

У ствари, реч „несрећа” је толико испуњена различитим конотацијама да углавном, владине статистике о саобраћајним несрећама односе на ту материју као на сударе аутомобила или аутомобилске несреће, уместо да користе фразу саобраћајне несреће. Чини се да судар аутомобила или аутомобилска несрећа немају никакве импликације о томе како је дошло до инцидента. У међувремену, фраза „саобраћајне несреће“ нас скоро наводи на помисао да је то била накарадност судбине или некако изван руку човечанства.

Можете обилно видети како ово конотационо разматрање долази до изражаја када се говори о несрећама са вештачком интелигенцијом. Не желимо да се програмери вештачке интелигенције сакрију иза конотационог штита да је вештачка интелигенција једноставно некоме нанела штету. Исто важи и за оне који користе АИ. Могли бисте тврдити да је фраза „несреће са вештачком интелигенцијом“ скоро антропоморфизација АИ која ће навести друштво у заблуду да дозволи људима који су били иза кулиса вештачке интелигенције да избегну одговорност. За моју дискусију о све већој важности држања људи одговорним за своју вештачку интелигенцију, погледајте моју дискусију на овај линк овде овај линк овде.

Од сада ћу овде користити фразу несрећа са вештачком интелигенцијом, али то радим невољно и само зато што је то конвенционални начин упућивања на овај феномен. Покушаји да се ово другачије изрази обично су, нажалост, надутији и не тако лако читљиви. Обавезно протумачите фразу на начин који не изазива да погледате на другу страну и не схватите да су људи који су у основи АИ криви када АИ крене наопако.

Да бисмо илустровали вероватну конфузију или обмањујуће аспекте позивања на АИ као на несреће, можемо се вратити на моје напомене о рушењу вазе. Размотрите овај пример АИ који то ради: „Овај проблем има везе са стварима које АИ уради случајно или равнодушно. Робот за чишћење који обара вазу је један пример овога. Сложена окружења имају толико врста 'ваза' да је мало вероватно да ћемо моћи да програмирамо казну за све нежељене ефекте” (према раду Роберта Вилијамса и Романа Јампољског).

Систем вештачке интелигенције који се користи у домаћинству, а затим „случајно“ сруши вазу, чини се да сугерише да нико не треба да буде крив за ово негативно деловање АИ. То је била само несрећа, могло би се жалити. С друге стране, с правом треба да се запитамо зашто систем вештачке интелигенције није био програмиран да се носи са вазним околностима уопште. Чак и ако програмери вештачке интелигенције нису очекивали да је ваза сама по себи у оквиру објеката на које се може наићи, сигурно се можемо запитати зашто није било општег избегавања објеката који би спречио АИ систем да сруши ваза (дакле, вештачка интелигенција можда није класификовала вазу као вазу, али је ипак могла да је избегне као објекат који се може открити који треба избегавати).

Предвиђао сам и настављам да предвиђам да се постепено крећемо ка огромној правној битци око појаве АИ система који се доводе у „несреће са вештачком интелигенцијом“ и изазивају неку врсту штете. До сада, друштво није реаговало ни на који начин на правно одбијање вештачке интелигенције која је избачена на тржиште и производи штетне последице, намерно или ненамерно. Данашњи АИ бандагон који је постао златна грозница напола печених произвођача АИ и оних који журно доносе имплементацију АИ управо сада добијају срећу и остају релативно нетакнути грађанским тужбама и кривичним гоњењима.

Правна реакција изазвана вештачком интелигенцијом долази пре или касније.

Идемо даље, како да покушамо да се изборимо са неизбежношћу такозваних АИ несрећа?

Једна ствар коју можемо одмах да урадимо је да покушамо да предвидимо како би се могле догодити несреће са вештачком интелигенцијом. Предвиђајући несреће са вештачком интелигенцијом, можемо бар да покушамо да осмислимо средства да их смањимо или минимизирамо њихову вероватноћу да се догоде. Штавише, можемо покушати да поставимо заштитне ограде тако да када се догоди АИ несрећа, шансе за демонстративну штету буду смањене.

Користан скуп фактора који су описани у раније цитираном истраживачком чланку Разумевање и избегавање грешака вештачке интелигенције: Практични водич укључује ове особине (као што је цитирано из истраживачког рада):

  • Систем на који утичу резултати АИ.
  • Временско кашњење између излаза АИ и већег система, видљивост система, ниво људске пажње и способност оператера да исправе квар АИ.
  • Максимална штета могућа злонамерном употребом система које контролише АИ.
  • Спајање компоненти у близини АИ и сложеност интеракција.
  • Недостатак знања о вештачкој интелигенцији и другим коришћеним технологијама и енергетском нивоу система.

У овом тренутку ове опсежне дискусије, кладим се да сте жељни неких илустративних примера који би могли додатно да разјасне тему несрећа са вештачком интелигенцијом. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава ишта о појави такозваних АИ несрећа и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и инциденти са вештачком интелигенцијом

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо спремни да дубоко заронимо у аутомобиле који се сами возе и могућности етичке вештачке интелигенције што подразумева појаву такозваних АИ несрећа.

Замислите да је самовозећи аутомобил заснован на вештачкој интелигенцији у току на улицама вашег комшилука и изгледа да вози безбедно. У почетку сте посебну пажњу посвећивали сваком тренутку када бисте успели да баците поглед на самовозећи аутомобил. Аутономно возило се истицало својом сталком електронских сензора који су укључивали видео камере, радарске јединице, ЛИДАР уређаје и слично. После много недеља колико самовозећи аутомобил крстари вашом заједницом, сада то једва примећујете. Што се вас тиче, то је само још један аутомобил на већ прометним јавним путевима.

Да не бисте помислили да је немогуће или невероватно да се упознате са виђањем самовозећих аутомобила, често сам писао о томе како су се места која су у оквиру тестирања самовозећих аутомобила постепено навикла да виде улепшана возила. Многи од мештана су на крају прешли са разјапљених уста усхићеног буљења на сада емитовање експанзивног зевања досаде како би били сведоци тим вијугавим самовозећим аутомобилима.

Вероватно је тренутно главни разлог зашто би могли да примете аутономна возила због фактора иритације и раздражености. Стандардни АИ системи за вожњу осигуравају да аутомобили поштују сва ограничења брзине и правила пута. За ужурбане људске возаче у њиховим традиционалним аутомобилима које управљају људи, понекад се разбеснете када сте заглављени иза самовозећих аутомобила заснованих на вештачкој интелигенцији који строго поштују закон.

То је нешто на шта би сви могли да се навикнемо, с правом или не.

Назад на нашу причу.

Једног дана, самовозећи аутомобил доспева у несрећу.

Приликом скретања удесно, АИ систем за вожњу је широко замахнуо аутономно возило и ударио је аутомобил који је управљао човек. Аутомобил којим су управљали људи кретао се право правилном саобраћајном траком. Није било посебне прилике да људски возач скрене или избегне ударац. Осим тога, није било никаквог упозорења или индикације од самовозећег аутомобила да ће у великој мери скренути удесно.

Да ли је ово несрећан случај?

Свакако можемо рећи да је то обухваћено рубриком несреће са вештачком интелигенцијом. Основа за такву тврдњу је да је за воланом самовозећег аутомобила постојао систем вожње АИ. Некако, из било ког разлога, АИ је одлучио да направи широк замах када скрене десно. Резултат је довео до тога да је самовозећи аутомобил ударио у аутомобил којим управљају људи.

Присетите се претходне дискусије о конотацијама повезаним са речју „несрећа” и погледајте како се такви призвуци појављују у овом сценарију. Такође, запамтите да смо разговарали о случају људског возача који је скренуо широко удесно и налетео на аутомобил којим управљају људи. Схватили смо да је појам да је овај чин „несрећа“ погрешан и збуњујући. Људски возач који је направио широки замах могао је да се сакрије иза идеје да се несрећа само догодила која је наизглед била случајност или хировите судбине.

Уместо да означимо сценарио као „несрећу са вештачком интелигенцијом“ у случају самовозећег аутомобила базираног на вештачкој интелигенцији који се шири и удари у аутомобил којим управљају људи, можда би требало да кажемо да је то била саобраћајна несрећа или судар аутомобила који укључује само- возећи аутомобил и аутомобил којим управљају људи. Тада можемо да се одрекнемо празне конфузије да је то случајност несазнатљивих средстава.

Шта мислите, каква би била реакција јавности на инцидент?

Па, ако произвођач аутомобила или технолошка фирма која се самостално вози може да се држи етикетирања ствари као несреће, можда ће моћи да заобиђу потенцијалну реакцију заједнице у целини. Осећај саосећања у вези са несрећама које су све испричане би се вероватно прелио на одређену околност. За више о томе како ће градови, округи и државни челници потенцијално реаговати на инциденте аутономних возила са вештачком интелигенцијом, погледајте расправу о студији са Харварда коју сам водио и како је описано на линк овде.

Ако се ситуација јасно опише као саобраћајна несрећа или судар, можда би то могло да омогући спознају да је неко или нешто можда криво за инцидент. Реакција колена може бити да се АИ сматра одговорном. Ствар је у томе да све док или ако икада одлучимо да АИ означимо као да има привид правне личности, нећете моћи да прикачите одговорност на АИ пер се (погледајте моју дискусију о АИ и правном лицу на линк овде).

Можемо да прегледамо систем вожње АИ да бисмо покушали да схватимо шта је довело до наизглед неприкладне вожње и судара који је уследио. То ипак не значи да ће АИ сносити одговорност. Одговорне стране су програмери вештачке интелигенције, оператер возног парка самовозећих аутомобила и други. Укључујем и друге јер постоји могућност да се град сматра делимично одговорним за дизајн угла где је скретање било. Поред тога, претпоставимо да је пешак излетео из угла и да је систем за вожњу са вештачком интелигенцијом одлучио да избегне особу, а затим се уплео у саобраћајну несрећу.

И тако даље.

Zakljucak

Желели бисмо да знамо шта је вештачка интелигенција рачунарски израчунавала и шта је програмирана да ради. Да ли је АИ урадио како је било кодирано? Можда је АИ наишао на грешку или грешку у програмирању, што не оправдава радње, али даје више назнака о томе како је дошло до пада.

Која врста АИ заштитних ограда је програмирана у АИ систем вожње? Да постоје заштитне ограде, хтели бисмо да схватимо зашто се чинило да не спречавају саобраћајну несрећу. Можда је систем вожње АИ могао да се заустави уместо да скрене. Желели бисмо да знамо које је алтернативе АИ рачунарски проценио током инцидента.

Осим да се дође до дна конкретног инцидента, још једна оправдана дилема је да ли систем вожње АИ има ману или неки други уграђени аспект који ће чинити сличне врсте штетних радњи. У суштини, овај инцидент би могао бити издајнички показатељ да ће доћи још више. Како су компјутерски засноване симулације ситуација у вожњи коришћене да се покуша да се предвиди ова врста АИ система за вожњу? Да ли је било довољно тестова вожње на путу да би се открили проблеми са вештачком интелигенцијом који су могли да доведу до саобраћајне несреће?

Овај сценарио наглашава спорну загонетку која се суочава са појавом самовозећих аутомобила заснованих на вештачкој интелигенцији.

Иде овако.

С једне стране, постоји друштвена жеља да се брзо усвоје аутомобили који се сами возе због наде да ће системи за вожњу са вештачком интелигенцијом бити једнако безбедни или можда безбеднији од људских возача. Само у Сједињеним Државама тренутно имамо скоро 40,000 људских смртних случајева годишње због саобраћајних несрећа и око 2.5 милиона људских повреда. Анализе сугеришу да се значајан део тих саобраћајних несрећа може приписати људској грешци, као што је вожња у алкохолисаном стању, вожња у расејању итд. (погледајте моју процену таквих статистика на линк овде).

АИ системи за вожњу неће пити и возити. Неће им требати одмор и неће се истрошити док су за воланом. Претпоставка је да успостављањем самовозећих аутомобила као одрживог начина превоза можемо смањити број људских возача. То би за узврат требало да значи да ћемо на сумаран начин смањити број годишњих људских смртних случајева и повреда у саобраћајним несрећама.

Неки стручњаци су рекли да ћемо завршити са нула смртних случајева и нула повређених, а ти самовозећи аутомобили ће наводно бити неударни, али ово је потпуно апсурдан и потпуно лажна очекивања. Објаснио сам зашто је ово тако неискрено у линк овде.

У сваком случају, претпоставимо да ћемо имати одређену количину саобраћајних несрећа у које се умешају самовозећи аутомобили. Претпоставимо и да ће те саобраћајне несреће имати одређену количину смртних случајева и повреда. Питање које се мучи је да ли смо ми као друштво спремни да уопште толеришемо такве случајеве. Неки кажу да ако се чак и један смртни случај или једна повреда догоди као резултат правих самовозећих аутомобила, цео комплет и кабоодле треба затворити.

Контрастно гледиште је да ако спасени животи смањују годишњи број, требало би да наставимо да подстичемо појаву самовозећих аутомобила и да не реагујемо на тако нелогичан начин. Мораћемо да прихватимо претпоставку да ће одређена количина смртних случајева и повреда и даље постојати, чак и код самовозећих аутомобила, а ипак схватити да годишњи број ако се смањи сугерише да смо на правом путу.

Наравно, неки тврде да не би требало да имамо самовозеће аутомобиле на нашим јавним путевима док не буду одобрени за такву употребу као резултат опсежних и исцрпних компјутерских симулација или путем приватног тестирања на затвореној стази. Контрааргумент је да је једини одржив и најбржи начин да се аутомобили који се сами возе покрену коришћењем јавних путева и да ће свако кашњење у усвајању самовозећих аутомобила у супротном омогућити наставак ужасног бројања судара аутомобила које управљају људи. Опширније сам покрио ову дебату у својим колумнама и позивам читаоце да погледају те дискусије како би стекли пун осећај перспектива о овом контроверзном питању.

Хајде да завршимо ствари за сада.

Несреће са вештачком интелигенцијом ће се десити. Морамо се одупрети импулсу да се несрећа са вештачком интелигенцијом протумачи као привидна случајан и ерго лажно дозволити произвођачима и онима који користе АИ да буду категорички искључени.

Постоји додатни обрт који вам остављам као последњу интригантну мисао за ваш дан.

Комичар Дејн Кук је наводно испричао овај виц о саобраћајним несрећама: „Пре неколико дана, доживео сам саобраћајну несрећу. Није моја кривица. Чак и ако ниси ти крив, друга особа излази из свог аута и гледа те као да си ти крив: Зашто си стао на црвено и дозволио ми да те ударим док радиш 80!“

Тамо где преокрет долази до изражаја је могућност да би систем вештачке интелигенције одлучио да инсистира на томе да када се догоди АИ несрећа која укључује ту одређену АИ, АИ рекламира да је инцидент био грешка човека, а сигурно није грешка АИ. Узгред, ово би могло бити сасвим тачно и човек би можда покушавао да постане жртвени јарац АИ тврдећи да је то била грешка АИ.

Или можда АИ покушава да постане жртвено јање човека.

Видите, вештачка интелигенција коју смо осмислили би могла бити незгодна на тај начин, било случајно или не.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/04/28/аи-етхицс-врестлинг-витх-тхе-иневитабли-оф-аи-аццидентс-вхицх-лоомс-овер-аутономоус-селф- вожња-аутомобила-такође/