Етика вештачке интелигенције је скептична у погледу успостављања такозваних закона о АИ са црвеном заставом за позивање пристрасних алгоритама у аутономним системима вештачке интелигенције

Хајде да причамо о Законима о Црвеној застави.

Ви несумњиво знате да је појам закона о црвеној застави у последње време нашироко заступљен у вестима. Много је наслова који покривају ову тему. Страсти и страствене дебате о таквим стварима су на врху ума као друштвена брига и подразумевају данашње и брзо нове законе о оружју са црвеном заставом.

Усудио бих се рећи да можда нисте упознати са другим законима о Црвеној застави донесеним касних 1800-их који се односе на моторна возила и претече данашњих свакодневних модерних аутомобила. Да, тако је, Закони о Црвеној застави сежу у прошлост, иако покривају друге теме у поређењу са данашњим савременим фокусом. Они се обично називају Закони о саобраћају са црвеном заставом.

Ови сада вековни и потпуно неважећи закони захтевали су да свака моторна кочија или мотор покретан паром у то време мора имати одраслу особу испред возила и да носи црвену заставу у сврху упозорења. Идеја је била да би се стока могла узнемирити због тих бучних и несвакидашњих справа које се споро и неравномерно спуштају по земљаним или маргинално поплочаним путевима, тако да би неко ходао испред уређаја док би енергично махао црвеном заставом могао да избегне несреће. У случају да се питате, сматрало се да су пруге и возови искључени из истих закона јер су то возила која су интегрално везана за шине и имали су друге законе који покривају њихово деловање.

Замислите да данас морате махати црвеним заставама као услов за сваки аутомобил на нашим јавним путевима.

На пример, обичан возач који долази улицом у вашем комшилуку морао би да се увери да је одрасла особа која маше црвеном заставом присутна и парадирала испред аутомобила у покрету. Ово би се морало десити за свако возило које пролази вашом улицом. Можда би људи постали радници са црвеном заставом који би унајмљивали возаче аутомобила у пролазу који иначе немају пријатеља или рођака који би могао да иде испред њих и обави прописану акцију махања.

Данас имамо тенденцију да повезујемо махање црвене заставе везано за аутопут са градилиштима путева. Док се приближавате ископаном путу, радници ће држати црвену заставу како би привукли вашу пажњу. Ово вам говори да успорите и будете на опрезу. Може постојати булдожер који ће вам наићи на пут. Пред вама се може налазити огромна рупа и мораћете опрезно да обиђете око ње.

Али да се вратимо на употребу црвених заставица из 1800. године.

Веровали или не, црвена застава је требало да буде најмање једну осмину миље испред надолазеће моторизоване машине. То изгледа као прилично дуга удаљеност. Претпоставља се, међутим, да је то тих дана имало обиље смисла. Запањујући звукови мотора и можда сам поглед на возило могли би бити довољни да се животиње изнервирају. Неки од закона о Црвеној застави из тог доба такође су захтевали да се блиставо црвено светло држи у висини током ноћи како би се визуелно очигледно црвено упозорење предострожности могло видети са затамњене удаљености.

Уопштено говорећи, мислим да је поштено тврдити да ми као друштво тежимо да повезујемо црвену заставу као неку врсту сигнала или знака да нешто потенцијално није у реду или да је барем потребна наша посвећена пажња.

Припремите се за мало преокрета овог феномена црвене заставе.

Постоји тврдња да би требало да захтевамо одредбе о црвеној застави када је у питању вештачка интелигенција (АИ).

То је помало запањујуће и изненађујући концепт за који се многи чешу по глави. Можда ћете бити збуњени како или зашто би требало да постоје тзв Ред Флаг АИ закони. Имајте на уму да ово означавам као АИ законе са црвеном заставом да бих разликовао ову материју од закона о саобраћају са црвеном заставом (као што су они из касних 1800-их) и такође да их одвојим од других данас распрострањенијих закона о оружју са црвеном заставом.

Да ли су нам заправо потребни закони о АИ са црвеном заставом који су јасно и искључиво оријентисани на питања вештачке интелигенције?

Они који подржавају предложени приступ инсистирали би на томе да су нам апсолутно потребне законске одредбе које би помогле у сузбијању вештачке интелигенције која садржи непотребне пристрасности и делује на дискриминаторне начине. Управо сада, изградња и примена АИ су слични околностима на Дивљем западу. Напори да се обузда лоша АИ тренутно зависе од формулације и усвајања етичких смерница за вештачку интелигенцију. За моје текуће и опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Закони који садрже лошу вештачку интелигенцију полако се осмишљавају и усвајају, погледајте моје извештавање на линк овде. Неки се брину да посланици не иду довољно брзо. Чини се као да су капије које омогућавају да се пристрасна вештачка интелигенција негује у свету увелико широм отворена. Кршење руку каже да ће зли дух већ изаћи из боце док нови закони уђу у књиге.

Не тако брзо, контрааргументи иду. Забринутост је да ћемо, ако се закони пребрзо уведу, убити златну гуску, такорећи, при чему ће напори АИ пресахнути и нећемо добити друштвене предности нових АИ система. Програмери вештачке интелигенције и компаније које желе да користе вештачку интелигенцију могу се уплашити ако се византијски низ нових закона који регулишу вештачку интелигенцију изненада уведу на савезном, државном и локалном нивоу, а да не помињемо међународне законе у вези са вештачком интелигенцијом који такође напредују.

У ову збрку аферу долази позив за Ред Флаг АИ законе.

Пре него што пређемо на нешто више о месу и кромпиру о разматрањима дивљег и вуненог порекла која су у основи замишљеног закона о АИ о црвеној застави, хајде да успоставимо неке додатне основе о суштински важним темама. Морамо накратко да заронимо у етику вештачке интелигенције и посебно на појаву машинског учења (МЛ) и дубоког учења (ДЛ).

Можда сте нејасно свесни да се један од најгласнијих гласова ових дана у пољу вештачке интелигенције, па чак и ван поља вештачке интелигенције, састоји у тражењу већег привида етичке вештачке интелигенције. Хајде да погледамо шта значи упућивање на етику вештачке интелигенције и етичку вештачку интелигенцију. Поврх тога, истражићемо шта мислим када говорим о машинском учењу и дубоком учењу.

Један посебан сегмент или део етике вештачке интелигенције који добија велику пажњу медија састоји се од вештачке интелигенције која показује непристрасне пристрасности и неједнакости. Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

За тренутак ћу поделити са вама неке свеобухватне принципе који су у основи етике вештачке интелигенције. Постоји много оваквих листа које лебде ту и тамо. Могло би се рећи да још увек не постоји јединствена листа универзалне привлачности и сагласности. То је несрећна вест. Добра вест је да барем постоје лако доступне листе етике вештачке интелигенције и да су обично прилично сличне. Све у свему, ово сугерише да путем неке врсте разумне конвергенције проналазимо пут ка општем заједништву онога од чега се састоји етика вештачке интелигенције.

Прво, хајде да укратко покријемо неке од укупних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде од виталног значаја за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења ће бити развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на АИ способности, укључујући транспарентне и проверљиве методологије, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Вратимо се нашем фокусу на АИ законе о црвеној застави.

Основни концепт је да би људи могли да подигну црвену заставу кад год верују да систем вештачке интелигенције функционише на непристрасан или дискриминаторски начин. Не бисте сами по себи подизали физичку заставу, већ бисте једноставно користили нека електронска средства да изразите своју забринутост. Део са црвеном заставом у шеми или приступу је више метафора него физичко оличење.

Претварајте се да се пријављујете за стамбени кредит. Одлучујете се да користите услугу онлајн банкарства да бисте се пријавили за кредит. Након што унесете неке личне податке, на тренутак чекате да систем вештачке интелигенције који се користи да одлучи да ли сте достојни кредита или не. АИ вам каже да сте одбијени за кредит. Након што сте затражили објашњење зашто сте одбијени, изгледа да вам текстуални наратив сугерише да је вештачка интелигенција користила непристрасне факторе као део алгоритма за доношење одлука.

Време је да подигнемо црвену заставу о АИ.

Где ће се тачно вијорити ова црвена застава?

То је питање од милион долара.

Једно гледиште је да би требало да успоставимо базу података широм земље која би омогућила људима да означе своје црвене заставице релевантне за вештачку интелигенцију. Неки кажу да то треба да регулише савезна влада. Федералне агенције би биле одговорне за испитивање црвених заставица и помоћ широј јавности у вези са истинитошћу и поступање са вероватно „лошом вештачком интелигенцијом“ која је подстакла црвену заставу у извештајима.

Чини се да би Конгрес успоставио национални закон о АИ са црвеном заставом. Закон би прецизирао шта је црвена заставица која се односи на вештачку интелигенцију. Закон би описао како се ове црвене заставице које АИ грохот подижу. И тако даље. Такође би могао бити случај да би појединачне државе такође могле да се одлуче за израду сопствених закона о вештачкој интелигенцији са црвеном заставом. Можда они то раде уместо националне иницијативе, или то раде да би појачали појединости које су посебно привлачне њиховој специфичној држави.

Критичари федералног или било ког програма Ред Флаг АИ који подржава влада би тврдили да је то нешто што приватна индустрија може да уради и да нам није потребан Велики брат да дође у први план. Индустрија би могла да успостави онлајн складиште у које људи могу да региструју црвене заставице о системима вештачке интелигенције. Акција самоконтроле од стране индустрије довољно би се позабавила овим питањима.

Забринутост у вези са наводним индустријским приступом је то што изгледа да мирише на кронизам. Да ли би компаније биле спремне да се придржавају неке приватне базе података Ред Флаг АИ? Многе компаније би потенцијално игнорисале означене црвене заставице о њиховој вештачкој интелигенцији. Не би било оштрих зуба да се компаније позабаве унесеним црвеним заставама.

Хеј, заговорници приступа приватног сектора не говоре, ово би било слично националној служби налик Иелп-у. Потрошачи би могли да погледају црвене заставице и сами одлуче да ли желе да послују са компанијама које су прикупиле низ црвених заставица оријентисаних на вештачку интелигенцију. Банка која је добијала тоне црвених заставица о својој вештачкој интелигенцији морала би да обрати пажњу и реконструише своје АИ системе, тако да логика иде, иначе би потрошачи избегавали фирму као куга.

Без обзира да ли цео овај приступ предузима влада или индустрија, само је врх леденог брега о мучним питањима са којима се суочава предложени постулат АИ закона о црвеној застави.

Ставите се у ципеле фирме која је развила или користи АИ. Могуће је да би потрошачи подигли црвене заставице иако за то није било одрживе основе. Када би људи могли слободно да објаве црвену заставу о АИ, могли би бити у искушењу да то учине из хира, или можда због освете фирми која иначе није учинила ништа лоше према потрошачу.

Укратко, могло би бити много лажно позитивних црвених застава о АИ.

Друго разматрање је огромна величина или величина резултирајућих црвених заставица. Лако би могли бити подигнути милиони и милиони црвених застава. Ко ће пратити све те црвене заставе? Колика би била цена да се то уради? Ко ће платити напоре за праћење црвене заставе? итд.

Ако бисте рекли да свако ко се региструје или пријави црвену заставу о АИ мора да плати накнаду, ушли сте у мрачно и подмукло царство. Забринутост би била да би само богати могли себи да приуште да подигну црвене заставе. Ово заузврат имплицира да осиромашени не би могли равноправно да учествују у активностима црвене заставе и у суштини немају место за упозорење о штетној вештачкој интелигенцији.

Само још један додатни обрт за сада, наиме да ова врста закона или смерница о АИ изгледа да су накнадне, а не да служе као упозорење унапред.

Да се ​​вратимо на законе о саобраћају са црвеном заставом, нагласак коришћења црвене заставе био је да се спречи несрећа за почетак. Ваљало црвеном заставом је требало да буде далеко испред надолазећег аутомобила. Налазећи се испред возила, стока би била упозорена и они који су чували стоку знали би да треба да предузму мере предострожности због извора узнемиравања који ће ускоро стићи.

Ако људи могу само да подигну црвену заставу о вештачкој интелигенцији која је наизглед већ нашкодила или поткопавала њихова права, пословични коњ је већ изашао из штале. Све што се чини да би се овим постигло је да се надамо да ће други људи који долазе сада знати да буду опрезни према том систему вештачке интелигенције. У међувремену, особа којој је наводно нанета неправда већ је патила.

Неки сугеришу да бисмо можда могли да дозволимо људима да подигну црвене заставе о АИ сумњив могу бити пристрасни, чак и ако нису користили АИ и нису били директно под утицајем АИ. Дакле, црвена застава се маше пре него што је штета учињена.

Ајме, одврати, заиста ћете претворити црвене заставице које се боре са вештачком интелигенцијом у потпуно неуправљиву и хаотичну аферу. Ако неко из било ког разлога може да подигне црвену заставу о систему вештачке интелигенције, упркос томе што није урадио ништа са том вештачком интелигенцијом, бићете преплављени црвеним заставама. Што је још горе, нећете моћи да разликујете жито од кукоља. Читав приступ црвеној застави ће се срушити под сопственом тежином, умањујући доброту идеје дозвољавајући флотсам и риффрафф да потопи цео брод.

Вртоглаво и збуњујуће.

У овом тренутку ове тешке дискусије, кладим се да сте жељни неких илустративних примера који би могли показати ову тему. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појављивање правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава било шта у вези са законима о вештачкој интелигенцији црвене заставе, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и закони о вештачкој интелигенцији са црвеном заставом

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Надам се да то пружа довољан низ упозорења у основи онога што ћу сада да кажем.

Хајде да скицирамо сценарио који би могао да искористи закон о АИ са црвеном заставом.

Улазите у самовозећи аутомобил заснован на вештачкој интелигенцији и желите да вас аутономно возило одвезе до ваше локалне продавнице. Током релативно кратког путовања, АИ креће путем који вам се чини помало погрешним. Уместо да иде најдиректнијим путем, вештачка интелигенција се креће до удаљених улица што узрокује да време вожње буде дуже него што би иначе могло да буде.

Шта се догађа?

Под претпоставком да плаћате за коришћење самовозећег аутомобила, могли бисте бити сумњичави да је АИ програмирана да вози дужу руту како би покушала да повећа цену или цену путовања. Свако ко је икада узео конвенционални такси којим управљају људи зна за превару која се може десити да се добије више теста на мерачу. Наравно, са људима који имају ГПС на својим паметним телефонима док се возе у таксију или сличном, лако можете да ухватите човека-возача који изгледа као да прикривено креће непотребно дугим рутама.

Испоставило се да имате још једну забринутост око избора руте, нешто што вас заиста гризу.

Претпоставимо да је рута направљена да би се избегли одређени делови града због расних аспеката. Постоје документовани случајеви људских возача који су ухваћени како праве такве изборе, погледајте моју дискусију на линк овде. Можда је АИ програмирана негативно.

Одлучили сте да подигнете црвену заставу.

Претпоставимо ради дискусије да је донесен Закон о АИ са црвеном заставом који покрива вашу јурисдикцију. То може бити локални закон, државни закон, савезни или међународни закон. За анализу коју сам коаутор са Харвардском иницијативом за политику аутономних возила (АВПИ) о растућем значају локалног руководства када заједнице усвоје употребу аутомобила који се самостално возе, погледајте линк овде.

Дакле, идете на интернет до базе података Ред Флаг АИ. У базу података о инцидентима уносите информације о путовању самовозећим аутомобилом. Ово укључује датум и време вожње, заједно са марком и моделом аутомобила који се самостално вози. Затим улазите у навигациону руту која вам се чинила сумњива, и сугеришете или можда директно тврдите да је АИ осмишљен са пристрасном или дискриминаторском намером и капацитетима.

Морали бисмо да спекулишемо о другим појединостима Закона о вештачкој интелигенцији црвене заставе о томе шта се даље дешава у овом конкретном сценарију. У теорији, постојала би одредба да неко прегледа црвену заставу. Они би вероватно желели да натерају произвођача аутомобила или самовозећу технолошку фирму да објасне своје гледиште о забележеној црвеној заставици. Колико је још таквих црвених застава регистровано? Какве су резултате произвеле те црвене заставице?

И тако даље би ишло.

Zakljucak

Невероватно, подстичу неки скептици.

Не требају нам закони о вештачкој интелигенцији са црвеном заставом, они се строго труде. Радити било шта од тога ће загушити посао када је у питању темпо и напредак АИ. Било какав такав закон би био гломазан. Ви бисте створили проблем који не решава проблем. Постоје и други начини да се носите са АИ који су лоши. Не хватајте се слепо за сламку да бисте се носили са пристрасном вештачком интелигенцијом.

Мењајући брзине, сви знамо да тореадори користе црвене пелерине да би очигледно привукли пажњу љутитог бика. Иако је црвена боја коју највише повезујемо са овом праксом, можда ћете бити изненађени када знате да научници кажу да бикови не перципирају црвену боју мулета (они су слепи за боје за црвену). Популарна емисија МитхБустерс урадио прилично забавно испитивање ове ствари. Кретање огртача је кључни елемент, а не изабрана боја.

За оне који одбацују потребу за законима о вештачкој интелигенцији са црвеном заставом, противтужба је да нам је потребно нешто драматично и непогрешиво махајуће природе да бисмо били сигурни да ће се АИ програмери и компаније које примењују АИ избегавати пристрасне или лоше вештачке интелигенције. Ако не за црвену заставу, можда би лепршави огртач или у суштини било какав приступ узбуњивању могао бити у домену добијања дужне пажње.

Знамо сигурно да лоша вештачка интелигенција постоји и да ће много више лоше вештачке интелигенције кренути у нашем правцу. Проналажење начина да се заштитимо од штетне вештачке интелигенције је кључно. Исто тако, постављање заштитне ограде како бисте спречили лошу вештачку интелигенцију да уђе у свет је подједнако важно.

Ернест Хемингвеј је чувено изјавио да нико никада не живи свој живот до краја осим борца бикова. Морамо да се уверимо да људи могу да живе свој живот до краја, без обзира на зло или лудило које је АИ објављено на нас.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/06/29/аи-етхицс-скептицал-абоут-естаблисхинг-со-цаллед-ред-флаг-аи-лавс-фор-цаллинг-оут- пристрасни-алгоритми-у-аутономним-аи-системима/