Етичка вештачка интелигенција амбициозно се нада да ће АИ сама научити етичко понашање, као што је случај са вештачком интелигенцијом у аутономним аутомобилима који се самостално возе

Аристотел је чувено рекао да образовање ума без образовања срца није никакво образовање.

Можете протумачити ту проницљиву примедбу да сугерише да је учење о етици и моралном понашању од виталног значаја за човечанство. У класичној дебати о природи наспрам неговања, морамо се запитати колико је наших етичких обичаја инстинктивно урођено, док се колико тога научимо током наших животних дана. Малишани су пажљиви према другим људима и вероватно скупљају своје етичке основе на основу онога што виде и чују. Исто се може рећи и за тинејџере. За одрасле отвореног ума, и они ће наставити да се прилагођавају и напредују у свом етичком размишљању као резултат искуства свакодневног света.

Наравно, експлицитно подучавање некога о етици је такође део курса. Људи су обавезни да уче о етичким начинима тако што похађају часове о тој теми или можда иду на догађаје и праксе од интереса за њих. Етичке вредности се могу јасно идентификовати и поделити као средство за помоћ другима у формулисању сопствене етичке структуре. Поред тога, етика може бити суптилно скривена у причама или другим начинима подучавања који на крају носе поруку од чега се састоји етичко понашање.

Тако се чини да људи прожимају етику.

Шта је са вештачком интелигенцијом (АИ)?

Схватам да би такво питање могло изгледати чудно. Свакако очекујемо да људи инкорпорирају етику и ходају кроз живот са неким привидом моралног кодекса. То је једноставна и очигледна чињеница. С друге стране, чини се да машина или рачунар не уклапају у исти референтни оквир. Ваша интестинална реакција може бити да је насилно или чудно сматрати АИ као оличење етичких и моралних кодекса.

Чини се да је најбоље што можемо да урадимо у вези са вештачком интелигенцијом је да је осмислимо тако да не одступа од етичког понашања. Програмери вештачке интелигенције и они који користе вештачку интелигенцију морају да буду одговорни да обезбеде да је вештачка интелигенција како је дизајнирана и када се примени већ у складу са етичким правилима. Иза капије, да тако кажемо, АИ би већ требало да буде нетакнута и спремна за рад као потпуно етички исправна измишљотина.

Сигурно бисте били у праву када мислите да системи вештачке интелигенције заиста треба да буду направљени тако да се већ у потпуности уклапају у етичку основу. Друштво је било прилично узбуђено када је најновији талас АИ система први пут пуштен и изгледало је као да показује да смо у ери AI za dobro. АИ би помогла у решавању многих најизазовнијих проблема на свету. Напредак у технологији се користио да се људске способности допуне когнитивним објектима, мада ми дозволите да нагласим да још немамо разумну вештачку интелигенцију и не знамо да ли ће се она постићи.

Проблем са журбом да се вештачка интелигенција уведе у свет постепено је открио ружан стомак вештачке интелигенције познат као AI za loše. Било је много наслова о системима вештачке интелигенције који користе алгоритамско доношење одлука (АДМ) које је препуно пристрасности и неједнакости. Поврх тога, велики део савремене вештачке интелигенције пати од недостатка транспарентности, обично је необјашњив у смислу објашњења рачунарских одлука, често показује недостатак правичности и дозвољава некима да преусмере своју људску одговорност упирући прстом у АИ.

У својим текстовима опширно сам покривао етичку вештачку интелигенцију и етику вештачке интелигенције, укључујући линк овде линк овде, само да поменемо само неке.

Како може бити AI za loše ако узмемо као наведену конструкцију да вештачку интелигенцију треба креирати од почетка да би се избегле неетичке радње?

Одговор је вишеструк.

Прво, многи програмери вештачке интелигенције и компаније које се баве АИ немају појма о важности обликовања своје вештачке интелигенције да остану унутар етичких граница. Концепт им уопште није на радару. Привлачност брзог зарађивања новца доводи до тога да неки гурају напред било које дивље АИ појмове које желе да намерно произведу. Нема потребе да схватите било какве етичке ствари. Само направите АИ и покрените га.

Друго, постоје они који праве АИ који улепшавају потпуну свест о етичким последицама, али они отворено умањују или донекле игноришу разматрања етичке вештачке интелигенције. Једна уобичајена перспектива је класична мантра техничара о брзом неуспеху и честом неуспеху. Само наставите да понављате све док се надамо да се ствари не реше на одговарајући начин. Шансе да се било какво систематско и промишљено укључивање етике вештачке интелигенције у те брзе напоре АИ угурају су нажалост мале. Разговарам о потреби за оснаживањем лидерства према етичкој вештачкој интелигенцији на линк овде.

Треће, постоји много нејасноћа о томе које етичке заштитне ограде треба узети у обзир када се осмишљава АИ. Наравно, данас постоји много етичких смерница за вештачку интелигенцију, погледајте моје извештавање на линк овде, иако је ове згодне теоријске одредбе тешко нужно претворити у специфичности за дати систем вештачке интелигенције који се гради. Назначио сам да ћемо полако видети појаву алата и методологија за изградњу вештачке интелигенције које укључују етичке праксе кодирања вештачке интелигенције, помажући да се затвори јаз између апстрактних аспеката и пословичних аспеката гуме и пута.

Четврто, у складу са нагласком овде, истражујемо погођени случај АИ који чак и ако је првобитно састављен унутар етичких граница, онда касније, док се користи, вијуга изван претпостављених етички кодираних параметара.

Морамо то распаковати.

Већи део данашње вештачке интелигенције користи машинско учење (МЛ) и дубоко учење (ДЛ). Ово су рачунарске технике и технологије усклађивања образаца. Генерално, идеја је да заједно прикупите много релевантних података за све што би вештачка интелигенција требало да може да уради, убаците те податке у изабрани рачунарски упаривач, а подударање шаблона математички покушава да пронађе корисне обрасце. Имајте на уму да нема смисла од стране ове вештачке интелигенције (која, опет, таква ствар још не постоји). Нити је укључено никакво здраворазумско резоновање. Све је то математика и прорачуни.

Могуће је да су подаци који се уносе у МЛ/ДЛ већ прожети пристрасностима и неједнакостима. У том случају, шансе су да ће подударање рачунског узорка само опонашати исте склоности. Ако наведете податке који фаворизују једну расу у односу на другу или фаворизују један пол у односу на други, постоји велика шанса да ће се подударање шаблона ухватити за то као откривени образац.

Велики проблем са таквом врстом закључавања је тај што нам је можда тешко да откријемо да су обрасци засновани на том аспекту података. Трновита и сложена математика може учинити појављивање тако пронађених образаца прилично проблематичним. Чак ни тестирање вештачке интелигенције неће нужно открити те тенденције, у зависности од опсега и дубине тестова који се примењују.

Дакле, претпоставимо да сте изградили систем вештачке интелигенције и урадили свој домаћи задатак тако што сте прво покушали да избегнете коришћење података који су већ имали предрасуде. Затим, када су Машинско учење и Дубоко учење били предузети, тестирали сте резултате да видите да ли су се на неки начин појавиле било какве пристрасности или неједнакости. Претпоставимо да нисте у могућности да нађете такве нежељене склоности.

Све у свему, сада је дато зелено светло да се настави и стави АИ у употребу. Људи ће почети да користе АИ и вероватно ће претпоставити да је етички исправан. Ово мисле и програмери. Компанија која користи АИ мисли ово. Одлазимо сви.

Ево шта се може догодити.

Наговештај пристрасности који није пронађен у оригиналним подацима и који није ухваћен током тестирања АИ је вероватно активиран. Можда се ово дешава само ретко. Можда верујете да док год је ретко, све је у реду. Сумњам, међутим, да су они који су рањиви на поменуту пристрасност вољни да виде ствари на тај начин. Усуђујем се да кажем да ће се систем вештачке интелигенције и они који су га формулисали суочити са последицама, било на правним судовима или на отвореним судовима за друштвено мишљење.

Друга варијација је пословична идеја да се узме инч и ухвати миља. Наговештај би у почетку могао бити мали. Током употребе АИ, АИ је можда била осмишљена да се мења како ствари иду даље. Ова врста „учења“ или „самоучења“ може бити веома корисна. Уместо да захтева од програмера човек-АИ да непрестано модификују и прилагођавају систем вештачке интелигенције, вештачка интелигенција је направљена да то ради сама. Без кашњења, без скупе радне снаге итд.

Недостатак овог згодног самоподешавања је то што се инклинг може подићи на све веће и веће у оквиру обима употребе од стране АИ. Док је пристрасност можда била у уском малом углу, сада јој је дат простор да се прошири. АИ нема привид да је ово „погрешно“ и само компјутерски проширује нешто што изгледа да функционише.

Ако вам од тога коса стоји на глави, мораћете да седнете за следећу варијанту.

Претпоставимо да пристрасност није постојала од самог почетка и да имамо сва образложена уверења да је АИ потпуно без пристрасности. Или смо имали среће или смо се можда систематски уверили да нема пристрасности нигде у подацима и да није настала путем подударања рачунарског шаблона. Упркос том уздаху олакшања, АИ је дозвољено да се прилагођава док је у употреби. Пандорина врата се отварају и АИ одлучује да компјутерски гравитира ка пристрасностима које се проналазе током онога што АИ ради.

Новооткривена пристрасност је прогутана у АИ, и нико није посебно мудрији што се то догодило. Јој, створили смо чудовиште, правог Франкенштајна.

Како се ова појава може спречити или бар обележити?

Један приступ који постаје све популарнији састоји се од уграђивања у АИ компоненте прикупљања етике. АИ је конструисан тако да укључује етичке елементе вештачке интелигенције. Ти елементи затим гледају или надгледају остатак АИ док се АИ прилагођава током времена. Када се чини да је вештачка интелигенција превазишла програмиране етичке прописе, Етичка АИ покушава да изврши та прилагођавања или упозорава програмере да је нешто пошло по злу.

Можете покушати да програмирате овај надзорни капацитет Етичке АИ и надати се да ће превладати док се АИ користи.

Још један донекле контроверзан угао би био коришћење машинског учења и дубоког учења за обуку етичких аспеката вештачке интелигенције у систему вештачке интелигенције.

Шта кажеш?

Да, можда неортодоксан концепт је да уместо да људски програмер директно кодира скуп етичких правила АИ, АИ је обликован да покуша да их „научи“ уместо тога. Подсетимо се да сам укратко приметио да се употреба МЛ/ДЛ обично ослања на унос података у алгоритме и да се одвија подударање рачунарског шаблона. Питање од милион долара је да ли можемо да користимо исти механизам да унесемо етичке вредности у систем вештачке интелигенције.

Претпостављам да бисте ово могли упоредити са мојом дискусијом на почетку о томе како људи постају свесни етичких принципа, мада вас молим да не антропоморфизујете данашњу вештачку интелигенцију као да је упоредива са људским размишљањем (није, и поновићу то саветовање ускоро). АИ се може програмирати „урођено“ са етичким правилима АИ. Или би АИ могла „научити“ етичка правила АИ. Можете да урадите обоје, наравно, што је нешто што сам покрио негде другде, видите линк овде.

Одвојите тренутак да размислите о наизглед запањујућем концепту да би вештачка интелигенција могла да „научи“ етику и да се ерго вероватно придржава етичког понашања.

Ови истраживачи користе пример система вештачке интелигенције који одређује жељену температуру у кући да би илустровали како то може да функционише: „Прво је 'посматрао' понашање људи у различитим домаћинствима само недељу дана и извео закључке о њиховим преференцијама. Затим је користио сензор за детекцију покрета да утврди да ли је неко био код куће. Када је кућа била празна, паметни термостат је ушао у режим високе уштеде енергије; када су људи били код куће, термостат је прилагођавао температуру како би одговарао њиховим жељама. Овај термостат јасно испуњава два захтева етичког бота, иако врло једноставан. Он процењује преференције људи и намеће их контролама система грејања и хлађења. Може се запитати какве то везе има са друштвеним моралним вредностима. Овај термостат омогућава људима са различитим вредностима да имају жељена подешавања температуре. Станари дома не морају да ресетују термостат сваки дан када долазе и одлазе. Овај једноставан етички бот такође смањује укупан енергетски отисак заједнице” (према раду Амитаија Етционија и Орена Еционија под насловом „Етика уз помоћ вештачке интелигенције” у свесци о Етика и информационе технологије).

Пре него што даље копам у преокрете и обрте поседовања АИ која „учи“ етичко понашање, желео бих да кажем нешто више о статусу АИ.

АИ се може састојати од ових могућих стања:

1. Данашња обична обична вештачка интелигенција без осећаја

2. Разумна АИ људског квалитета (још немамо ово)

3. Сентиентна вештачка интелигенција која је супер-интелигентна (више од #2)

Фокусираћу се на постојеће стање које је необична, обична вештачка интелигенција. Велики део онога што можете прочитати о етичкој вештачкој интелигенцији повремено покрива осећајну вештачку интелигенцију и стога је веома спекулативно. Кажем да је то спекулативно, јер нико не може приковати реп магарцу шта ће разумна АИ бити. Чак и даље од домена људског квалитета, осећајна вештачка интелигенција налази се веома раздрагана супер-интелигентна вештачка интелигенција. Постоји много научно-фантастичних прича и недоумица о томе како би ти укуси вештачке интелигенције могли одлучити да поробе човечанство, или да нас једноставно све збришу. Ово је познато као егзистенцијални ризик од АИ. Понекад се дилема такође формулише као катастрофални ризик од АИ.

Неки тврде да бисмо могли бити у реду све док задржимо вештачку интелигенцију за неосетљиву, обичну АИ коју данас имамо. Претпоставимо да не можемо доћи до разумне АИ. Замислите да без обзира колико се трудимо да створимо разумну АИ, не успевамо у томе. Такође, претпоставимо ради дискусије да разумна АИ не настаје неким мистериозним спонтаним процесом.

Нисмо ли онда сигурни да ће ова вештачка интелигенција мањег калибра, која је замишљена једина могућа врста АИ, бити у употреби?

Не баш.

Прилично, вероватно ће се појавити иста општа питања. Не сугеришем да АИ „смишља“ свој пут да жели да нас уништи. Не, обична неосетљива вештачка интелигенција је само постављена на позиције моћи које нас увлаче у самоуништење. На пример, ставили смо неосетљиву вештачку интелигенцију у оружје за масовно уништење. Ова аутономна оружја нису у стању да мисле. У исто време, људи нису у потпуности у току. Као резултат тога, вештачка интелигенција као облик аутономне аутоматизације ненамерно доводи до катастрофалних резултата, било људском командом да то уради, било грешком или грешком, или имплантираним злом, или самоприлагођавањем које доводе ствари до тога. ружна стаза итд.

Тврдио бих да проблем етике АИ постоји за све три те државе предвиђене АИ, наиме да имамо етичке проблеме са вештачком интелигенцијом са неосетљивом, обичном АИ, и са осећајном АИ која је или само људски ниво или проширена АИ која достиже признати ниво суперинтелигенције.

С обзиром на ту отрежњујућу изјаву, сигурно можемо расправљати о величини и потешкоћама повезаним са етичким проблемима на сваком од одговарајућих нивоа АИ. Уобичајено гледиште је да је етички проблем вештачке интелигенције мање непремостив на неосетљивој вештачкој интелигенцији, чвршћи на нивоу вештачке интелигенције која је једнака осећајном човеку, и истински заглављивач у фази афера са осетљивом супер-интелигентном АИ.

Што АИ постаје боља, етички проблем вештачке интелигенције постаје гори.

Можда је то неприкосновени закон природе.

Враћајући се фокусу на данашњу вештачку интелигенцију, покушај да вештачка интелигенција „научи“ етичко понашање путем савременог машинског учења и дубоког учења је препун забринутости и лукавих проблема. Претпоставимо да вештачка интелигенција не успе да прикупи жељене етичке прописе? Како ћемо са сигурношћу знати да је при томе посустала? Такође, да ли ће други делови АИ система потенцијално надјачати сакупљене етичке конструкције? Додајте овоме да ако се АИ прилагођава у ходу, прилагођавања би могла да умањују етичке аспекте или их ненамерно потпуно преплаве.

Да ствар буде још гора, „учење“ би могло довести до тога да АИ слети на заиста неетичко понашање. Док смо мислили да радимо праву ствар тиме што смо подстицали АИ да буде етичан, испоставило се да је уместо тога АИ склизнуо у подударање шаблона на неетичким аспектима. Причамо о пуцању у сопствену ногу, то би се апсолутно могло догодити.

У овом тренутку ове дискусије, кладим се да сте жељни неких додатних примера из стварног света који би могли да истакну како би се АИ „учење“ етике могло применити на данашњу АИ (осим укусног примера термостата).

Драго ми је да сте питали.

Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава ишта о томе да вештачка интелигенција може да „научи“ етичка правила вештачке интелигенције, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они који АИ аутомобилом управљају потпуно самостално и нема људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још нема правог аутомобила за самосталну вожњу на нивоу 5, за који још не знамо да ли ће то бити могуће постићи, нити колико ће времена требати да се тамо стигне.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и етичка вакцинација АИ

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо припремљени да дубоко заронимо у аутомобиле који се сами возе и могућности етичке вештачке интелигенције, што подразумева тврдњу која подиже обрве да можемо натерати АИ да сама „научи“ о етичком понашању.

Хајде да употребимо једноставан пример. Самовозећи аутомобил заснован на вештачкој интелигенцији је у току на улицама вашег комшилука и чини се да вози безбедно. У почетку сте посебну пажњу посвећивали сваком тренутку када бисте успели да баците поглед на самовозећи аутомобил. Аутономно возило се истицало својом сталком електронских сензора који су укључивали видео камере, радарске јединице, ЛИДАР уређаје и слично. После много недеља колико самовозећи аутомобил крстари вашом заједницом, сада то једва примећујете. Што се вас тиче, то је само још један аутомобил на већ прометним јавним путевима.

Да не мислите да је немогуће или неуверљиво да се упознате са виђањем самовозећих аутомобила, често сам писао о томе како су се места која су у оквиру тестирања самовозећих аутомобила постепено навикла да виде дотерана возила, погледајте моју анализу на овај линк овде. Многи мештани су на крају прешли са разјапљених уста усхићеног буљења на сада емитовање експанзивног зевања досаде да би били сведоци тим вијугавим самовозећим аутомобилима.

Вероватно је тренутно главни разлог зашто би могли да примете аутономна возила због фактора иритације и раздражености. Стандардни АИ системи за вожњу осигуравају да аутомобили поштују сва ограничења брзине и правила пута. За ужурбане људске возаче у њиховим традиционалним аутомобилима које управљају људи, понекад се разбеснете када сте заглављени иза самовозећих аутомобила заснованих на вештачкој интелигенцији који строго поштују закон.

То је нешто на шта би сви могли да се навикнемо, с правом или не.

Назад на нашу причу. Једног дана, претпоставимо да аутомобил који се самостално вози у вашем граду вози и наиђе на ситуацију у којој пешак чека да пређе пут. Претпоставимо да пешак нема предност пер се. Аутомобил којим управљају људи могао би да прође поред пешака и да буде потпуно легалан у томе. Исто тако, АИ систем за вожњу може легално да прође поред пешака који чекају.

Одлука да ли да се заустави и пусти пешака да пређе улицу је у потпуности дискрециона за возача, без обзира да ли је човек возач или АИ систем вожње.

Сигуран сам да сте се небројено пута сусрели са оваквом ситуацијом. Можда сте у журби, па не станете да пређете пешака. Другом приликом имате довољно времена да стигнете до одредишта, па се одлучујете да станете и дозволите особи која чека да пређе улицу. Ваше расположење и посебне околности диктирају шта ћете изабрати да урадите.

Ништа у овом сценарију не изгледа необично или узнемирујуће.

Пре него што испитам страну ствари са вештачком интелигенцијом, можда ћете бити заинтересовани да знате да је овај посебан аспект дискреције који дозвољава пешаку да пређе улицу помно проучаван. Истраживачи су идентификовали да понекад избор возача може зависити од расних или родних предрасуда. Људски возач може одредити пјешака који чека и одлучити се да дозволи особи да пређе наизглед на основу инхерентних предрасуда возача. Да ли возач уопште схвата да то раде, питање је текућег истраживања. Погледајте моје извештавање на овај линк овде.

Поставио сам терен за наше истраживање шта би систем за вожњу са вештачком интелигенцијом могао да уради у ситуацији на пешачком прелазу.

Конвенционално програмирање вештачке интелигенције могло би да подразумева да програмери вештачке интелигенције одлуче да увек зауставе систем вожње АИ и пусте пешака да пређе. Чини се да је ово етички исправна или грађанска ствар. Самовозећи ауто се приклања човеку који чека и жели да пређе улицу.

Усуђујем се да кажем, да сте путник у самовозећем аутомобилу и да се вештачка интелигенција увек зауставља за све пешаке који чекају, можда бисте полудели. Ваш брзи одлазак до продавнице може потрајати много пута дуже. Запамтите такође да не мислимо на пешаке који имају побожно законско право преласка, јер би у тим случајевима вероватно већ била програмирана АИ да увек дозвољава. Фокусирамо се само на дискреционе околности.

Постоји више недостатака ове декларације да се увек заустављају да би пустили пешаке да пређу улицу.

Они који производе и користе самовозеће аутомобиле засноване на вештачкој интелигенцији желе да се људи возе у њима. Идеја је да бисмо самовозећим аутомобилима могли да смањимо број годишњих саобраћајних несрећа, које тренутно производе око 40,000 годишњих смртних случајева и 2.5 милиона повређених само у Сједињеним Државама, погледајте моју збирку статистике на овај линк овде. Поред овог поштованог друштвеног циља, произвођачи аутомобила и самовозећих технологија се надају да ће зарадити и на својим АИ креацијама, наравно.

Помињем ово јер би људи могли одлучити да се не возе у аутомобилима који се сами возе ако систем вожње АИ ради ствари које непотребно на крају одлажу путовања. Свака обична особа би закључила да би путовање могло бити брже ако би уместо тога одабрало човека-возача, а ерго одабир самовозећег аутомобила са вештачком интелигенцијом за путовање могао би бити стављен веома ниско на листи њихових избора. То би заузврат значило да не бисмо имали тражено смањење саобраћајних несрећа и да би произвођачи потенцијално сматрали да је њихова роба неисплатива.

Имајући у виду тај скуп аргумената, можда ћете помислити да АИ никада не би требало да стане када се деси дискрециони случај да пешак жели да пређе улицу. Само програмирајте систем вожње АИ да ради све што је строго легално. Ако не постоји законска обавеза да се пређе пешак, онда нема среће за тог пешака који чека. Можда би особа требало да дође до прелаза који дозвољава правну основу да АИ заустави самовозећи аутомобил.

Можете ли замислити негодовање због овога?

Људи у вашем граду или граду постепено откривају да самовозећи аутомобили са вештачком интелигенцијом никада неће дозволити пешаку да пређе дискреционо. Тај проклети раздражљиви АИ! Као да АИ лупа носом према људима. Неваспитано дериште, неадекватна аутоматика. Поврх свега, замислите да постоје документоване околности у којима пешаци очајнички морају да пређу и АИ се уопште не би зауставио.

У међувремену, људски возачи су вољно стајали како би пустили те „очајне“ људе да безбедно пређу улицу.

Као резултат овог беса, самовозећи аутомобили са вештачком интелигенцијом више нису добродошли на улицама и обилазницама вашег места. Укидају се дозволе које су издали градски челници. Склањање незахвалних зверова са наших путева је вокална галама.

У реду, изгледа да смо између камена и наковња. АИ не би требало увек да пусти дискреционог пешака да пређе (немој увек да се зауставља). АИ не би требало увек да спречава пешака по вољи да пређе (немојте увек зумирати). Шта да радим?

Очигледан одговор би био да се АИ програмира да делује на дискрециони начин.

Молим вас да размислите о АДМ-у (алгоритамском одлучивању) од којег би ово требало да се састоји. Да ли ће АИ покушати да открије природу пешака и искористи уочене карактеристике као основу за одлучивање да ли да заустави самовозећи аутомобил или не? Можда је неко старији начин да изабере. Али да ли је та старосна дискриминација у настајању? И тако даље.

Можда је АИ систем вожње програмиран да се заустави током дана и никада не стане током ноћи. Логика је вероватно да се претпоставља да је безбедније за возаче у самовозећем аутомобилу да се аутономно возило заустави током дана, али не и у мрачнијим вечерњим сатима.

То можда звучи разумно. Део проблема биће и очекивања пешака. Ево на шта мислим. Пешаци виде самовозеће аутомобиле АИ како се заустављају ради дискреционих прелаза, који се дешавају по дану. Пешаци не знају по којим критеријумима АИ одлучује да се заустави. Претпоставка неких пешака је да ће АИ увек стати (не схватајући да је дневно светло у односу на ноћно време прави одлучујући фактор). Као резултат тога, они пешаци који верују да ће самовозећи аутомобил увек стати ће искористити шансу и почети да прелазе када систем вожње АИ уопште не намерава да се заустави (што би се АИ вероватно зауставила ако пешак улази на улицу, иако би то могло бити незгодно и физика би могла спречити вештачку интелигенцију да заустави самовозећи аутомобил за недовољно времена да избегне да удари наизглед „покретног“ пешака).

Претпоставимо да програмери вештачке интелигенције и компаније које састављају и постављају самовозеће аутомобиле у вашем граду нису сигурни како да АИ убрзају по овом питању.

Они одлучују да „обуче“ АИ на подацима прикупљеним са целог локалитета. Испоставило се да постоји много градских камера које су снимиле доласке и одласке аутомобила широм града. Ови подаци показују многе случајеве пешака који желе да пређу улицу на дискрециони начин. Сви подаци се уносе у систем машинског учења и дубоког учења како би се извукло оно што се сматра уобичајеним у тој јурисдикцији.

Да ли обучавамо вештачку интелигенцију да ради оно што локални етички обичаји показују?

Другим речима, ако би у одређеном граду локална култура била више склона заустављању и пуштању дискреционих пешака да пређу, као што је доказано радњама возача, МЛ/ДЛ би потенцијално компјутерски прихватио овај образац. АИ би тада био обучен да уради исто. Са друге стране, ако се људски возачи ретко заустављају, вештачка интелигенција би потенцијално добила ту „лекцију“ из рачунарске анализе података. АИ ће радити као људи, на неки начин.

Тврдња је да је етичко понашање људи заробљено у подацима и да ће АИ прожети те исте етичке прописе компјутерском анализом. Етичар би ово генерално описао као комунитаристички приступ етици. Заједничке вредности заједнице огледају се у напорима заједнице у целини.

Ово би могло изгледати као право решење.

Нажалост, постоји много замки.

Један можда очигледан проблем је то што људски возачи можда већ користе неки облик пристрасности у избору да зауставе или не стану (као што је раније поменуто). АИ ће тада бити копија ових предрасуда. Да ли желимо да то буде случај?

Размотрите још један проблем. Претпоставимо да људски возачи не прихватају лако како функционишу самовозећи аутомобили са вештачком интелигенцијом. Само зато што су људски возачи били, рецимо, вољни да зауставе, ово се можда неће подједнако претпоставити за аутомобиле који се сами возе. Могуће је да се људски возачи изнервирају због АИ самовозећих аутомобила који се стално заустављају због дискреционих пешака, иако се исто дешава од стране људских возача, али изгледа да то не узнемирава људске возаче.

Осим што је узнемирујуће, такође можете да дочарате могућност да људи нехотице заврше аутомобиле који се сами возе уназад. Ако човек-возач није очекивао да се самовозећи аутомобил заустави за пешака, и ако је аутомобил којим управљају људи директно иза самовозећег аутомобила, може настати страшна неусклађеност очекивања. АИ систем вожње зауставља ауто који се самостално вози. Људски возач није предвидео ову акцију. Људски возач удари у самовозећи аутомобил. Следе повреде и могуће смртни случајеви.

Намерно сам указао на шансе за људску штету.

Пешак који прелази улицу може на брз поглед изгледати као тривијално питање. Чини се да нико не може да буде повређен без обзира на то који метод АИ одлучи да заустави или не заустави. Погрешно! Постоји шанса да се пешак прегази. Постоји шанса да се аутомобил којим управљају људи забије у самовозећи аутомобил. Возач и путници аутомобила којим управљају људи могу да буду повређени. Возачи у самовозећем аутомобилу могу бити повређени. Лако се предвиђају додатне пермутације могуће људске штете.

Zakljucak

Говорећи о људској штети, даћу вам још нешто да вам се умови узбуркају око ове етичке АИ загонетке.

Новинска прича је објавила да је мушкарац возио аутомобил на раскрсници и имао зелено светло за то. Други аутомобил којим је управљао човек одлучио је да прође кроз црвено светло на раскрсници и незаконито и небезбедно је несметано ушао у раскрсницу, претећи да ће ударити у легално возило.

Возач је рекао новинарима да мора да бира између ударца или може да скрене аутомобилом како би се надао да избегне удар, али у близини су били пешаци и скретање би могло да угрози те људе. Шта би ти урадио? Можете изабрати да вас удари овај аутомобил који се назире и можда живите да испричате причу. Или можете покушати да избегнете да вас ударе, али у међувремену можете да обрушите недужне пешаке.

Велики део наше свакодневне вожње има такве врсте етички огромних и тренутних одлука које треба донети. О томе сам опширно расправљао, заједно са повезивањем ових одлука о вожњи на живот или смрт са познатим или, рецимо, злогласним проблемом колица, погледајте моју разраду на линк овде.

Замените људског возача у овом сценарију са АИ системом вожње.

Шта желите да АИ уради?

То је збуњујуће питање.

Један приступ је да се АИ програмира да оштро ради чисто праволинијске акције вожње, стога чак ни рачунски не узимајући у обзир друге опције као што је скретање од вероватног судара. Претпостављам да ће возачи у аутомобилима који се сами возе бити узнемирени када сазнају да АИ није замишљен да ради ништа друго осим да преузме ударац. Можете очекивати тужбе и галаму.

Други приступ би био да покушате да програмирате АИ да размотри различите могућности. Ко ипак може да успостави АДМ који одлучује којим путем ће ићи систем вожње АИ? Чини се да је допуштање програмерима вештачке интелигенције да сами доносе тако тешке одлуке препуна обилних брига.

Можете покушати да дозволите вештачкој интелигенцији да „учи“ из података о људској вожњи прикупљених у свакодневним ситуацијама у саобраћају. Ово је слично дилеми о пешачком прелазу и раније предложеној идеји да се користе скупљени подаци да би вештачка интелигенција прикупила шта год изгледало да су локални етички обичаји. Постоји много упозорења о томе, на пример да ли су МЛ/ДЛ откривени обрасци прикладни или не, итд.

Такође сам унапред упозорио да постоји шанса да АИ открије можда неетичко понашање, у зависности од етичких обичаја који су укључени. На пример, претпоставимо да је АИ некако слетио на рачунски образац да увек циља на пешаке кад год би други аутомобил претио да удари у самовозећи аутомобил.

Вау, пазите пешаке, бићете готове мете.

Време је да за сада затворите дискусију и урадите то уз охрабрујућу завршну мисао.

Можда сте свесни да је Исак Асимов предложио своја „Три закона роботике“ 1950. године и ми смо до данас заљубљени у та прокламована правила. Иако се чини да се правила лако придржавају, као што је да систем вештачке интелигенције или робот неће наудити човеку нити дозволити човеку да науди, постоји много кључних нијанси које ово чине сложеним и понекад неодрживим, погледајте моју анализу ат линк овде.

У сваком случају, ево још нечег по чему је Асимов такође познат, али мање: „Никада не дозволите да вам осећај морала стане на пут да урадите оно што је исправно.

За етичку вештачку интелигенцију коју сви надамо да ћемо осмислити, морамо имати на уму да етика која је прожета вештачком интелигенцијом можда није оно што смо очекивали и да ће вештачка интелигенција некако и даље морати да уради све што је исправно. Асимов је то добро рекао. Много раније се чинило да је Аристотел размишљао о прилично сличним осећањима.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/03/20/етхицал-аи-амбитиоусли-хопинг-то-хаве-аи-леарн-етхицал-бехавиор-би-итселф-суцх-ас- случај-са-аи-у-аутономним-самовозећим-аутомобилима/