Етика вештачке интелигенције и потрага за самосвесношћу у вештачкој интелигенцији

Да ли сте самосвесни?

Кладим се да верујете да јесте.

Ствар је у томе што је, наводно, мало ко од нас посебно самосвестан. Постоји опсег или степен самосвести и сви се наводно разликујемо по томе колико смо проницљиво самосвесни. Можда мислите да сте потпуно самосвесни и да сте то само маргинално. Можда сте слабо свесни себе и схватите да је то ваше ментално стање.

У међувремену, на највишем делу спектра, могли бисте веровати да сте потпуно самосвесни и да сте искрено самосвесни колико и они. Добро за тебе.

Кад смо код тога, каква је корист од тога да будете изузетно самосвесни?

Према истраживању објављеном у Харвард Бусинесс Ревиев (ХБР) од Тасха Еурицх, наводно сте у стању да доносите боље одлуке, сигурнији сте у своје одлуке, јачи сте у својим комуникацијским капацитетима и свеукупно ефикаснији (по чланку под насловом „Шта је самосвест заиста (и како да га култивишу).“ Фактор бонуса је то што се каже да су они са изразитом самосвесношћу мање склони да варају, краду или лажу. У том смислу, постоји два начина да се избегне да буду нитков или лопов, заједно са настојећи да будете боље људско биће и да улепшате своје ближње човечанство.

Све ове приче о самосвести постављају помало очигледно питање, наиме, шта заправо означава израз самосвест. Лако можете пронаћи гомилу разних дефиниција и интерпретација о комплексу и да кажемо кашастог конструкта који подразумева самосвест. Неки би поједноставили ствари сугеришући да се самосвест састоји од надгледања сопственог ја, знајући шта намеравате. Веома сте свесни својих мисли и поступака.

Вероватно, када није самосвесна, особа не би схватила шта ради, нити зашто то ради, а такође не би била свесна шта други људи имају да кажу о њој. Сигуран сам да сте упознали људе који су такви.

Чини се да неки људи ходају овом земљом без појма шта они сами раде, нити имају привид онога што други говоре о њима. Претпостављам да бисте могли да тврдите да су они попут бика који јуриша главом надоле у ​​деликатном бутику за ломљиве производе. Обично смо склони да верујемо да бик не зна шта ради и да остаје несвестан гледишта других, осим ако они други не покушају физички да маневришу или отерају неупућено створење.

Каже се да самосвест може бити донекле рекурзивна.

Дозволите ми да скицирам пример да илуструјем ову рекурзију. Ви сте усред гледања прилично упијајућег видеа о мачкама на свом паметном телефону (изгледа да сви то раде). Неки људи не би имали друге очигледне мисли осим чудесних дирљивих лудила тих драгих мачака. У међувремену, свако ко има мало самосвести, свестан је да гледа видео о мачкама. Они такође могу бити свесни да други око њих примећују да гледају видео о мачкама.

Имајте на уму да можете бити самосвесни и да и даље будете уроњени у, да тако кажемо, одређену примарну активност. Примарна активност у овом случају је гледање видеа мачке. Друго, и истовремено, можете носити мисао да заправо гледате видео о мачкама. Такође сте у стању да носите мисао да вас други посматрају док гледате потпуно забаван видео о мачкама. Не морате нужно да зауставите једну активност, као што је престанак гледања видео снимка о мачкама, да бисте затим засебно размишљали о томе да гледате (или само јесте) видео снимак мачке. Те мисли се наизглед могу јавити паралелно једна с другом.

Понекад би нас наша самосвест могла избацити из или барем прекинути примарну менталну активност. Можда, док размишљате о гледању видео снимка о мачкама, ваш ум се делимично повлачи јер је претерано да се концентришете само на сам видео. Одлучујете да затим премотате видео да бисте поново погледали део који сте на неки начин видели, али сте били ментално ометени од потпуног разумевања. Самосвест је пореметила вашу примарну менталну активност.

У реду, сада смо спремни за појаву рекурзивних аспеката.

Јесте ли спремни?

Гледате видео о мачкама. Ваша самосвест вас обавештава да гледате видео о мачкама и да вас други гледају док гледате видео. То је статус кво.

Затим направите додатни ментални скок. Почињете да размишљате о својој самосвести. Ви сте самосвесни да ангажујете своју самосвест. Ево како то иде: да ли превише размишљам о томе да гледам видео о мачки, питате се очајнички? Ово је још један слој самосвести. Рангирање самосвести на врху друге самосвести.

Постоји стара изрека да су корњаче све доле. За феномен самосвести, можете бити:

  • Несвесни себе
  • Самосвест о себи
  • Самосвест о својој самосвести о себи
  • Самосвест о свом бићу самосвесна о својој самосвести о себи
  • Ад Инфинитум (тј. и тако даље)

Можда сте схватили да сам раније суптилно истакао да изгледа да постоје две главне категорије самосвести. Једна конкретна теорија постулира да имамо неку врсту унутрашње самосвести која се фокусира на наша унутрашња стања, а такође имамо и спољашњу самосвест која нам помаже да проценимо перцепције о нама оних око нас који нас посматрају.

Према чланку ХБР-а, ево кратког приказа теоретизованих два типа самосвести: „Први, који смо назвали унутрашња самосвест, представља колико јасно видимо сопствене вредности, страсти, тежње, уклапају се у нашу околину, реакције (укључујући мисли, осећања, понашања, снаге и слабости) и утицај на друге.” А у међувремену друга је: „Друга категорија, спољашња самосвест, значи разумевање како нас други људи виде, у смислу истих фактора наведених горе. Наше истраживање показује да су људи који знају како их други виде вештији у показивању емпатије и прихватању перспективе других.”

Згодна матрица два по два или квадрат четири се може извести тврдњом да се и унутрашња и спољашња самосвест крећу од високе до ниске, и да можете упарити две категорије једна против друге. Истраживање ХБР показује да се за вас каже да сте један од ова четири архетипа самосвести:

  • Интроспектор: Ниска спољна самосвест + висока унутрашња самосвест
  • Трагач: ниска спољна самосвест + ниска унутрашња самосвест
  • Задовољство: висока спољна самосвест + ниска унутрашња самосвест
  • Свесни: висока спољна самосвест + висока унутрашња самосвест

Врхунац би био „свесни“ архетип који се састоји од тога да сте на врхунцу спољашње самосвесности и исто тако на врху унутрашње самосвесности. Да појасним, не постижете ово хваљено држање на нужно трајан начин. Можете клизити напред-назад између високог и ниског нивоа, између унутрашњег и спољашњег домена самосвести. То може зависити од доба дана, ситуације у којој се налазите и низа других значајних фактора.

Сада када смо љубазно покрили неке темељне елементе о самосвести, можемо покушати да то повежемо са темом етичког понашања.

Уобичајена тврдња о самосвесности је да је већа вероватноћа да ћете бити изнад плоче када сте самосвесни. То значи, као што је већ назначено, да сте мање склони штетном етичком понашању као што су крађа, варање и лагање. Образложење за ову тенденцију је да би вас активност ваше самосвести навела да схватите да је ваше сопствено понашање неугодно или неетично. Не само да се ухватите док скрећете у мутне неетичке воде, већ сте такође склони да се вратите назад и на суво (светост етичке територије), такорећи.

Ваша самосвест вам помаже да остварите самоконтролу.

Контраст би вероватно био када постоји мало или нимало самосвести, што сугерише да је неко можда несвестан њиховог нагињања неетичком понашању. Могли бисте да тврдите да таква несвесна особа можда неће схватити да има лош учинак. Слично бику у продавници ломљивих ствари, док им нешто више не привуче пажњу, мало је вероватно да ће се саморегулисати.

Успут, не прихватају сви ово. Неки би тврдили да се самосвест може подједнако лако применити на неетичност као и на етичност. На пример, злочинац може бити потпуно свестан себе и ужива у томе што чини зло. Њихова самосвест их чак тера све оштрије ка све већим и већим делима подлог понашања.

На овоме је више облачности него што се може директно видети. Претпоставимо да је неко веома свестан себе, али није свестан етичких обичаја датог друштва или културе. На тај начин немају никакво етичко упутство, упркос наведеној чињеници да су самосвесни. Или, ако желите, можда особа зна за етичка правила и не верује да се на њих примењују. Они себе сматрају јединственим или изван граница конвенционалног етичког размишљања.

Укруг и укруг иде.

Самосвест би се могла протумачити као етички оријентисан мач са две оштрице, неки би жарко наглашавали.

За сада, хајде да идемо са верзијом срећног лица која се састоји од самосвести у великој мери која нас води или подстиче ка етичком понашању. Уз све остало једнако, направићемо дрску претпоставку да што је више самосвести, то ћете више бити етички настројени. Сигурно изгледа пријатно и инспиративно пожелети то.

Хајде да променимо брзине и унесемо вештачку интелигенцију (АИ) у слику.

Налазимо се на раскрсници у овој дискусији да повежемо све постојеће заплете са растућим царством етичке вештачке интелигенције, такође познатом као етика вештачке интелигенције. За моје текуће и опсежно покривање етике вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Појам етичке вештачке интелигенције подразумева преплитање поља етике и етичког понашања до појаве вештачке интелигенције. Сигурно сте видели наслове који су изазвали узбуну о вештачкој интелигенцији која је препуна неједнакости и разних пристрасности. На пример, постоји забринутост да системи за препознавање лица засновани на вештачкој интелигенцији понекад могу да испоље расну и родну дискриминацију, обично као резултат тога како су основни објекти за машинско учење (МЛ) и дубоко учење (ДЛ) обучени и постављени (погледајте моју анализу ат овај линк овде).

Да покушате да зауставите или барем ублажите несрећну јурњаву ка AI za loše, који се састоје од система вештачке интелигенције који су ненамерно или понекад намерно обликовани да делују лоше, недавно је било хитно применити етичка правила на развој и употребу АИ. Озбиљни циљ је да се обезбеде етичке смернице за АИ програмере, плус фирме које граде или користе вештачку интелигенцију, и оне које зависе од АИ апликација. Као пример израде и усвајања етичких принципа вештачке интелигенције, погледајте мој извештај на линк овде.

Дајте тренутак за размишљање да размотрите ова три веома кључна питања:

  • Можемо ли натерати програмере вештачке интелигенције да прихвате етичке принципе вештачке интелигенције и ставе те смернице у стварну употребу?
  • Можемо ли натерати фирме које се баве занатом или вештачком интелигенцијом да ураде исто?
  • Можемо ли натерати оне који користе АИ да на сличан начин буду упознати са аспектима етичке вештачке интелигенције?

Ово бих без стида рекао, то је тежак задатак.

Узбуђење стварања АИ може надјачати сваку наговештај пажње према етици АИ. Па, не само узбуђење, већ је и зарада саставни део те једначине. Можда ћете бити изненађени када сазнате да су неки у области вештачке интелигенције склони да кажу да ће се суочити са „стварима“ етичке вештачке интелигенције када избаце своје АИ системе ван врата. Ово је типична мантра за техничаре да се побринете да брзо пропаднете и да често не успете док то не урадите како треба (надамо се да ћете успети).

Наравно, они који сумарно гурају етички сумњиву вештачку интелигенцију широј јавности пуштају коња из штале. Њихова прокламована испружена идеја је да се AI za loše ће се поправити након што је у свакодневној употреби, што је штетно закашњело јер коњ већ безобзирно галопира. Штета се може учинити. Такође постоји повећана шанса да ништа неће бити поправљено или подешено док је АИ у употреби. Чест изговор је да би петљање са АИ у том тренутку могло да погорша ситуацију у смислу да већ неетичко алгоритамско доношење одлука (АДМ) потпуно нестане.

Шта се може учинити да би се искористила и витална етичка вештачка интелигенција као блиставо и водеће светло у умовима оних који граде вештачку интелигенцију, користе вештачку интелигенцију и користе вештачку интелигенцију?

Одговор: Самосвест.

Да, идеја је да ако би људи били самосвеснији о томе како користе или комуницирају са АИ, то би могло повећати њихову склоност према жељи да етичка АИ буде норма. Исто се може рећи и за АИ програмере и компаније повезане са АИ системима. Да су били самосвеснији шта раде, можда би више прихватили етику вештачке интелигенције.

Део логике као што је већ наведено је да самосвесност нуди тенденцију да будете етички боља особа, а такође и избегавање да будете етички лоша особа. Ако можемо да задржимо ту премису, то имплицира да ће програмери вештачке интелигенције који су више склони самосвести, ерго, бити склони етичком понашању и стога ће бити склони производњи етички здраве АИ.

Је ли то мост предалеко за вас?

Неко би рекао да је индиректност мало већа. Претерани ланац веза између самосвесности, етичке врлине и примене етичких прописа на АИ је можда тешко прогутати. Контрааргумент је да не може шкодити покушати.

Скептици би рекли да би програмер вештачке интелигенције могао бити самосвестан и можда више етички настројен, али неће нужно скочити ка примени тог менталног логора на обичаје етичке вештачке интелигенције. Одговор на ту забринутост је да ако можемо да објавимо и популаришемо етичка питања вештачке интелигенције, иначе наизглед слаба веза ће постати очигледнија, очекивана и вероватно постати стандардни начин рада када је у питању прављење вештачке интелигенције.

Сада ћу додати заокрет овој саги. Од заокрета би вам се могла завртјети глава. Уверите се да сте добро седели и да сте спремни за оно што ћу вам рећи.

Неки истичу да би требало да уградимо етичку вештачку интелигенцију директно у саму вештачку интелигенцију.

Можда вас та изјава не одушеви. Хајде да га распакујемо.

Програмер би могао да створи систем вештачке интелигенције и то са сопственом програмском самосвесношћу да покушава да спречи АИ да отелотворује пристрасности и неједнакости. Уместо да се само бави програмирањем, програмер гледа преко сопственог рамена да пита да ли ће приступ који предузимају довести до неопходног одсуства штетних елемената у АИ.

Одлично, имамо програмера вештачке интелигенције који изгледа довољно самосвестан, који је настојао да прихвати етичко понашање и угледао је светло да укључи етичке прописе док креирају свој систем вештачке интелигенције.

Освојите победу за Етичку вештачку интелигенцију!

Све у реду, али ево нечега што се касније може десити. АИ се поставља и ставља у свакодневну употребу. Део АИ је укључивао компоненту за „учење“ у ходу. То значи да АИ може да се прилагоди на основу нових података и других аспеката оригиналног програмирања. На страну, ово не значи да је АИ разуман. Ми немамо разумну АИ. Игноришите оне глупе наслове који говоре да имамо. Нико не може рећи да ли ћемо имати разумну вештачку интелигенцију, нити неко може у довољној мери предвидети када ће се то десити, ако икада.

Да се ​​вратимо на нашу причу, вештачка интелигенција је намерно осмишљена да се побољша док је у току. Прилично згодан појам. Уместо да програмери морају стално да праве побољшања, они дозвољавају АИ програму да то уради сам (вау, да ли је то без посла?).

Током времена док се АИ инч по инч прилагођава, испоставило се да се разне ужасне неједнакости и предрасуде увлаче у АИ систем сопственим актима измене. Док је програмер првобитно задржао те неугодне аспекте, они сада формулишу због АИ прилагођавања у ходу. Нажалост, ово се може догодити на тако суптилан начин иза сцене да нико није мудрији. Они који су раније можда дали зелено светло АИ после почетног исцрпног тестирања, сада су слепо несвесни да је вештачка интелигенција кренула трулим путем AI za loše.

Једно од начина да се спречи или бар ухвати ова непожељна појава би било да се у АИ угради нека врста етичке АИ двоструке провере. Компонента унутар АИ је програмирана да прати понашање АИ и открије да ли почиње да се појављује неетички АДМ. Ако је тако, компонента би могла послати упозорење програмерима АИ или то учинити фирми која користи АИ систем.

Напреднија верзија ове компоненте може покушати да поправи АИ. Ово би било прилагођавање прилагођавања, претварање неетичких аспеката назад у одговарајуће етичке параметре. Можете замислити да је ова врста програмирања незгодна. Постоји шанса да залута, да се неетично претвори у дубоко неетичко. Такође постоји могућност да лажно позитивно покрене компоненту у акцију и можда забрља ствари у складу са тим.

У сваком случају, без заглављивања у томе како ће ова двострука провера функционисати, даћемо одважну изјаву о томе. Можете сугерисати да се на неки ограничен начин за АИ каже да је самосвесна.

Јао, то су борбене речи за многе.

Преовлађујуће уверење скоро свих је да данашња вештачка интелигенција није самосвесна. Тачка, тачка. Док не дођемо до разумне вештачке интелигенције, за коју не знамо да ли ће се то догодити или када, не постоји ниједна врста вештачке интелигенције која је самосвесна. Не бар у смислу самосвести усмерене на човека. Немојте чак ни сугерисати да се то може догодити.

Свакако се слажем да морамо бити опрезни у вези са антропоморфизацијом АИ. Рећи ћу више о тој забринутости за тренутак.

У међувремену, ако сте ради дискусије вољни да користите фазну „самосвесност“ на лабав начин, верујем да можете лако да видите зашто би се за вештачку интелигенцију могло рећи да се придржава општег појма само- свесност. Имамо део АИ који надгледа остатак АИ, пратећи шта остатак АИ спрема. Када остатак вештачке интелигенције почне да претерује, део за праћење настоји да то открије. Штавише, део за праћење АИ или двострука провера могу да усмере остатак АИ назад у одговарајуће траке.

Зар то не личи на чин гледања тих видео снимака о мачкама и самосвести да то радите?

То је познато.

Можемо ово још више продужити. Компонента двоструке провере АИ није само програмирана да посматра понашање остатка АИ, већ такође бележи понашање оних који користе АИ. Како се понашају корисници када користе АИ? Претпоставимо да неки корисници изражавају огорчење што изгледа да их АИ дискриминише. Двострука провера АИ би можда могла да схвати ово, користећи то као још једну црвену заставу о томе да остатак АИ залута.

Ово доводи до категоризације унутрашње самосвести и спољашње самосвести.

АИ двострука провера скенира интерно и екстерно да би открила да ли је остатак АИ кренуо у узнемирујућа мора. Откривање ће подићи заставицу или изазвати самоисправку.

Хајде да додамо још једно помало запањујуће проширење. Правимо још једну двоструку проверу вештачке интелигенције која има за циљ двоструку проверу језгре АИ двоструке провере. Зашто тако? Па, претпоставимо да се чини да АИ двострука провера посустаје или не ради свој посао. АИ двострука провера двоструке провере ће настојати да открије овај квар и предузме потребне мере у складу са тим. Добродошли у рекурзивну природу самосвести, неки би могли са поносом изјавити, као што је приказано у рачунарском систему вештачке интелигенције.

За оне од вас који су већ на ивици свог места у вези са овим, последњи коментар, за сада, је да бисмо могли да покушамо да предложимо да ако системе вештачке интелигенције учините „самосвесним“, они ће онда потенцијално гравитирати етичком понашању. Да ли то раде на разумној основи? Одлучно, не. Да ли то раде на рачунској основи? Да, мада морамо бити јасни да то није истог калибра као људско понашање.

Ако вам је непријатно што се појам самосвести погрешно искривљује како би се уклопио у рачунарску шему, ваше сумње у вези са овим су добро приметне. Још једно је отворено питање да ли треба да зауставимо текуће напоре АИ који користе ту идеју. Могли бисте убедљиво тврдити да нас барем чини да нас води ка бољем исходу онога што ће АИ вероватно урадити. Морамо да широм отворимо очи док се ово дешава.

Претпостављам да ћемо морати да видимо како ће се све ово одиграти. Вратите се на ово за пет година, десет година и педесет година и видите да ли се ваше размишљање променило о контроверзној ствари.

Схватам да је ово било помало опојно испитивање теме и можда жудите за неким примерима из дана у дан. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава нешто о томе да АИ има привид „самосвести“ и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они који АИ аутомобилом управљају потпуно самостално и нема људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још нема правог аутомобила за самосталну вожњу на нивоу 5, за који још не знамо да ли ће то бити могуће постићи, нити колико ће времена требати да се тамо стигне.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и АИ имају такозвану самосвест

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо спремни да дубоко заронимо у аутомобиле који се сами возе и етичка питања вештачке интелигенције која подразумевају помисао да вештачка интелигенција има неку врсту самосвести, ако хоћете.

Хајде да употребимо једноставан пример. Самовозећи аутомобил заснован на вештачкој интелигенцији је у току на улицама вашег комшилука и чини се да вози безбедно. У почетку сте посебну пажњу посвећивали сваком тренутку када бисте успели да баците поглед на самовозећи аутомобил. Аутономно возило се истицало својом сталком електронских сензора који су укључивали видео камере, радарске јединице, ЛИДАР уређаје и слично. После много недеља колико самовозећи аутомобил крстари вашом заједницом, сада то једва примећујете. Што се вас тиче, то је само још један аутомобил на већ прометним јавним путевима.

Да не мислите да је немогуће или неуверљиво да се упознате са виђањем самовозећих аутомобила, често сам писао о томе како су се места која су у оквиру тестирања самовозећих аутомобила постепено навикла да виде дотерана возила, погледајте моју анализу на овај линк овде. Многи мештани су на крају прешли са разјапљених уста усхићеног буљења на сада емитовање експанзивног зевања досаде да би били сведоци тим вијугавим самовозећим аутомобилима.

Вероватно је тренутно главни разлог зашто би могли да примете аутономна возила због фактора иритације и раздражености. Стандардни АИ системи за вожњу осигуравају да аутомобили поштују сва ограничења брзине и правила пута. За ужурбане људске возаче у њиховим традиционалним аутомобилима које управљају људи, понекад се разбеснете када сте заглављени иза самовозећих аутомобила заснованих на вештачкој интелигенцији који строго поштују закон.

То је нешто на шта би сви могли да се навикнемо, с правом или не.

Назад на нашу причу. Једног дана, претпоставимо да се аутомобил који се самостално вози у вашем граду или граду приближи знаку Стоп и не чини се да успорава. Небеса, изгледа да ће систем за вожњу са вештачком интелигенцијом натерати самовозећи аутомобил да прође поред знака Стоп. Замислите да је пешак или возач бицикла негде у близини и да буде ухваћен неспремно да се самовозећи аутомобил неће правилно зауставити. Срамота. Опасно!

И незаконито.

Хајде да сада размотримо АИ компоненту у систему вожње АИ која делује као стил двоструке провере самосвести.

Одвојићемо тренутак да копамо у детаље о томе шта се дешава унутар система вожње АИ. Испоставило се да су видео камере постављене на аутономно возило откриле нешто што је изгледало као знак Стоп, иако у овом случају обрасло дрво обилно заклања знак Стоп. Систем машинског учења и дубоког учења који је првобитно био обучен за знакове Стоп, осмишљен је на основу шаблона знакова за заустављање, углавном неспутаних. Рачунарским испитивањем видео снимака, додељена је мала вероватноћа да је на том месту постојао знак Стоп (као додатна компликација и додатно објашњење, ово је био новопостављен знак Стоп који се није појавио на претходно припремљеним дигиталним мапама које АИ систем вожње се ослањао на).

Све у свему, АИ систем за вожњу је компјутерски одређен да настави напред као да знак Стоп или не постоји или је можда знак друге врсте који је можда личио на знак Стоп (ово се може десити и дешава се са одређеном учесталошћу).

Али, на срећу, двострука провера самосвесне вештачке интелигенције пратила је активности система вожње АИ. Након рачунског прегледа података и процене остатка АИ, ова компонента је одлучила да надјача нормалан ток наставка и уместо тога наредила систему вожње АИ да се на одговарајући начин заустави.

Повређених није било, а није било ни противправних радњи.

Могло би се рећи да се двострука провера самосвесне вештачке интелигенције понашала као да је уграђени правни агент, покушавајући да обезбеди да систем вожње АИ поштује закон (у овом случају, знак Стоп). Наравно, сигурност је такође била кључна.

Тај пример, надамо се, показује како би замишљена АИ самосвесна двострука провера могла да функционише.

Следеће можемо укратко да размотримо истакнутији пример етичке вештачке интелигенције који илуструје како двострука провера самосвесности вештачке интелигенције може да обезбеди етичку уграђену функционалност оријентисану на вештачку интелигенцију.

Прво, као позадина, једна од забринутости која је изражена у вези са појавом самовозећих аутомобила заснованих на вештачкој интелигенцији је да би они могли на крају бити коришћени на помало ненамеран дискриминаторски начин. Ево како. Претпоставимо да су ти аутомобили који се сами возе постављени да покушају да максимизирају свој потенцијал прихода, што дефинитивно има смисла за оне који управљају флотом самовозећих аутомобила који су доступни за подјелу вожње. Власник флоте би желео да има профитабилну операцију.

Може се десити да у датом граду или граду лутајући самовозећи аутомобили постепено почну да служе неким деловима заједнице, а не другим областима. Они то раде у циљу зараде, јер сиромашније области можда неће доносити приход као богатији делови овог краја. Ово није експлицитна тежња да се служи неким областима, а не служи другима. Уместо тога, органски произилази да АИ самовозећих аутомобила „схвати“ рачунски да се може зарадити више новца концентришући се на географски боље плаћена подручја. Разговарао сам о овој друштвеној етичкој бризи у својој колумни, као што је на линк овде.

Претпоставимо да смо додали двоструку проверу самосвесне вештачке интелигенције у системе вожње АИ. После неког времена, АИ компонента компјутерски примећује образац где се самовозећи аутомобили крећу у ромингу. Посебно, у неким областима, али не и у другим. На основу тога што је кодиран неким етичким правилима вештачке интелигенције, двострука провера самосвесне вештачке интелигенције почиње да води самовозеће аутомобиле у друге делове града који су иначе били занемарени.

Ово илуструје појам самосвести АИ и то у комбинацији са елементом етичке вештачке интелигенције.

Још један такав пример би могао да пружи увид да ово разматрање етичке вештачке интелигенције такође може бити прилично отрежњујуће и озбиљно разгранати живот или смрт.

Размотрите новински извештај о недавној саобраћајној несрећи. Како се наводи, човек је возач долазио до прометне раскрснице и имао зелено светло да настави право. Други возач је прошао кроз црвено светло и ушао на раскрсницу када то није требало да уради. Возач са зеленим светлом у последњем тренутку је схватио да ће се овај други аутомобил жестоко забити у његов аутомобил.

Према речима овог угроженог возача, он је свесно прорачунао да ће или да га удари други аутомобил, или да може скренути да покуша да избегне уљеза. Проблем са скретањем је био што су у близини били пешаци који би били угрожени.

Који бисте изабрали?

Можете се припремити да будете погођени и надати се да вас штета неће осакатити или убити. С друге стране, можете радикално скренути, али озбиљно угрозити и евентуално повредити или убити пешаке у близини. Ово је тежак проблем, који обухвата морално расуђивање, и у потпуности је прожет етичким (и правним) импликацијама.

Постоји етичка дилема опште намене која покрива ову врсту дилеме, познатог или можда неславно названу Проблем колица, погледајте моје опширно извештавање на овај линк овде. Испоставило се да је то етички стимулирајући мисаони експеримент који сеже до раних 1900-их. Као таква, ова тема постоји већ дуже време, а однедавно је постала генерално повезана са појавом вештачке интелигенције и аутомобила који се самостално возе.

Замените људског возача системом за вожњу са вештачком интелигенцијом уграђеним у аутомобил који се самостално вози.

Замислите онда да самовозећи аутомобил са вештачком интелигенцијом улази у раскрсницу и сензори аутономног возила изненада детектују аутомобил којим управљају људи који опасно долази директно кроз црвено светло и циља на аутомобил без возача. Претпоставимо да самовозећи аутомобил има неколико путника у возилу.

Шта желите да АИ уради?

Да ли систем за вожњу са вештачком интелигенцијом одлучи да настави напред и да се улете у њега (вероватно ће нанети штету или можда убити путнике у возилу), или желите да систем вожње АИ искористи шансу и скрене, иако акција скретања узима аутономно возило опасно према оближњим пешацима и може их повредити или убити.

Многи произвођачи АИ аутомобила који се сами возе узимају безобзирни приступ овим етичким АИ грозним проблемима. Углавном, вештачка интелигенција како је тренутно програмирана би једноставно плутала напред и била би насилно набијена од стране другог аутомобила. АИ није био програмиран да тражи било какве друге маневре избегавања.

Више пута сам предвиђао да ће овај став произвођача аутомобила који се сами возе са вештачком интелигенцијом на крају доћи око себе и угристи их (моја анализа је на линк овде). Можете очекивати тужбе које укључују такве саобраћајне несреће које ће тражити да се открије шта је АИ програмирана да уради. Да ли су компанија или програмери вештачке интелигенције или оператер флоте који су развили и поставили АИ били немарни или одговорни за оно што је вештачка интелигенција урадила или није? Такође можете да предвидите да ће се етичка свест о вештачкој интелигенцији десити у јавности када дође до оваквих случајева.

У ову дилему о етичкој вештачкој интелигенцији улази наша хваљена АИ самосвесна двострука провера која је етички оријентисана. Можда би се ова посебна компонента АИ могла укључити у овакве околности. Део прати остатак АИ система за вожњу и статус аутомобила који се самостално вози. Када дође до овако страшног тренутка, АИ компонента служи као решавач проблема са колицима и нуди оно што систем вожње АИ треба да уради.

Није лако кодирати, уверавам вас.

Zakljucak

Поделићу са вама последњу мисао за сада на ову тему.

Вероватно ће вам бити интригантно.

Знате ли за то тест огледала?

То је прилично познато у проучавању самосвести. Други називи за ову материју су тест самопрепознавања огледала, тест црвених тачака, тест црвенила и сродне фразе. Техника и приступ првобитно су направљени раних 1970-их за процену самосвести животиња. Животиње које су наводно успешно прошле тест укључују мајмуне, одређене врсте слонова, делфине, свраке и неке друге. Животиње које су тестиране и наводно нису прошле тест укључују џиновске панде, морске лавове итд.

Ево договора.

Када животиња види себе у огледалу, да ли животиња схвата да је приказана слика њих саме или животиња мисли да је друга животиња?

Претпоставља се да животиња визуелно препознаје сопствену врсту, пошто је видела другу своју врсту, па би стога могла помислити да је животиња приказана у огледалу рођак или можда ратоборни конкурент (нарочито ако животиња реже на слику у огледалу, која у чини се да им се окрет режи). Можда сте видели своју кућну мачку или вољеног кућног љубимца како раде исто када се први пут виде у кућном огледалу.

У сваком случају, претпоставили бисмо да се дивља животиња никада раније није видела. Па, ово није нужно тачно, јер је можда животиња угледала себе у мирном базену или преко сјајне стене. Али то се сматра мање вероватним шансама.

У реду, желимо некако да проценимо да ли је животиња у стању да схвати да је то у ствари животиња приказана у огледалу. Размислите о том наизглед једноставном чину. Људи у младости схватају да постоје и да се њихово постојање демонстрира видећи себе у огледалу. Постају самосвесни себе. У теорији, можда нећете схватити да сте ви, док се не видите у огледалу.

Можда животиње нису у стању да когнитивно постану самосвесне на исти начин. Може бити да би се животиња видела у огледалу и стално веровала да је то нека друга животиња. Колико год се пута угледало, и даље би помислило да је ово другачија животиња од ње саме.

Трик у овоме долази до изражаја. Означавамо животињу. Ова ознака мора бити видљива само када се животиња види у огледалу. Ако животиња може да се изврне или окрене и види ознаку на себи (директно), то уништава експеримент. Штавише, животиња не може осетити, помирисати или на било који други начин открити знак. Још једном, ако би то урадили, то би уништило експеримент. Животиња не може знати да смо ставили жиг на њу, јер би то наговестило звер да је нешто ту.

Желимо да сузимо ствари тако да би једини могући разлог да се знак открије био гледање самог себе у огледало.

Аха, тест је сада спреман. Животиња се поставља испред огледала или одлута до њега. Ако животиња накнадно покуша да додирне или копа по жигу, разумно бисмо закључили да би се то догодило једино ако би животиња схватила да је ознака на њој самој. Врло мало животињских врста је успело да успешно прође овај тест.

Постоји низ критика на рачун теста. Ако је људски тестер у близини, они би могли да одају ствари буљећи у жиг, што би могло довести до тога да га животиња четка или осети. Друга могућност је да животиња и даље верује да је друга животиња приказана у огледалу, али је истог типа, па се животиња пита да ли и она има ознаку као на другој животињи.

И даље иде даље.

Сигуран сам да вам је драго да ово знате и да ћете од сада разумети зашто постоји тачка или нека чудна ознака на животињи која иначе не би имала такав знак. Ко зна, можда је недавно завршио експеримент огледала. Честитајте животињи, безбедно, што је била великодушан учесник.

Какве везе ишта од тога има са самовозећим аутомобилима заснованим на вештачкој интелигенцији?

Свидеће вам се овај део.

Дугим аутопутем иде самовозећи аутомобил. АИ систем вожње користи сензоре за откривање другог саобраћаја. Ово је аутопут са две траке на коме се саобраћај једном траком одвија у правцу севера, а другом на југу. Повремено ће аутомобили и камиони покушати да се мимоиђу, чинећи то тако што ће ући у супротну траку, а затим скочити назад у своју праву траку.

Видели сте ово, несумњиво сте ово урадили.

Кладим се да се и вама догодио овај следећи аспект. Испред самовозећег аутомобила је један од оних великих камиона цистерни. Израђен је од сјајног метала. Углачан и чист као звиждук. Када дођете иза таквог камиона, можете видети слику у огледалу свог аутомобила преко задњег дела цистерне. Ако сте видели ово, знате колико то може бити очаравајуће. Ту сте, ви и ваш аутомобил, огледате се у огледалу на задњем делу камиона цистерне.

Седите за луди обрт.

Иза камиона цистерне долази самовозећи аутомобил. Камере детектују слику аутомобила која је приказана у огледалу. Вау, АИ оцењује, да ли је то ауто? Да ли долази код самовозећег аутомобила? Како се самовозећи аутомобил све више приближава камиону цистерни, чини се да је аутомобил све ближе и ближе.

Ајме, вештачка интелигенција би компјутерски могла да израчуна да је ово опасна ситуација и да би вештачка интелигенција требало да предузме акцију избегавања из овог лудог одметничког возила. Видите, АИ се није препознао у огледалу. Пао је на тесту огледала.

Шта да радим? Можда АИ самосвесни двоструки проверивач ускочи у ствар и увери остатак система за вожњу АИ да је то само безопасан одраз. Опасност избегнута. Свет је спашен. Успешан пролаз АИ Миррор теста!

Са неразумљивим закључком, могли бисмо чак да сугеришемо да је вештачка интелигенција понекад паметнија или барем самосвеснија од просечног медведа (иако, за част медведа, они обично добро раде у тесту огледала, често када су добили навикли на њихов одраз у локвама воде).

Исправка, можда АИ може бити самосвеснији од џиновских панди и морских лавова, али немојте то рећи животињама, оне би могле бити у искушењу да разбију или разбију АИ системе. Не желимо то, зар не?

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/09/18/аи-етхицс-анд-тхе-куест-фор-селф-аваренесс-ин-аи/