Етика вештачке интелигенције љута због синдрома растућег врућег кромпира који запошљавају произвођачи вештачке интелигенције који наизглед покушавају да избегну одговорност за своје аутономне системе који одлучују о животу

Сви знамо да треба да се побринете да не завршите са пословичним врућим кромпиром.

Чини се да врели кромпир гамбит вуче своје корене најмање до касних 1800-их када је салонска игра која укључује упаљене свеће некако покренула лопту. Људи би обично седели у низу дрвених столица које су биле релативно близу једна другој и играле су сасвим узбудљиву игру у то доба. Запаљену свећу играчи би предавали од особе до особе и представљала је оно што смо касније определили да изразимо као предају врућ кромпир.

Било је уобичајено да је свака особа морала да изговори наглас популарну риму пре него што би могла да прође поред свеће која постепено гори. Рима је изгледа изгледала овако:

„Џек је жив и вероватно ће живети;

Ако он умре у твојој руци, имаш право да даш.

Овај римовани рецитал би вероватно омогућио свећи мало времена да настави да гори до коначног завршетка. Ко је заглавио са свећом у свом поседу након природног гашења на крају, изгубио је меч (игра речи!).

Према речима назначеним у рими, поражени је морао да плати „форфеит“ и стога је обично морао да изађе из било које даље рунде игре. Ово би се онда могло комбиновати са оним што данас сматрамо свакодневним музичким столицама, тако да особа која је изгубила рунду више не би учествовала у наредним рундама (као да је музика престала и није могла да добије слободно место). На крају, остало би само двоје људи који су прошли поред упаљене свеће и изговорили риму, све док се у коначном гашењу не одреди коначни победник.

Можда се питате зашто више не играмо ову игру са упаљеном свећом, и зашто то обично називамо врућим кромпиром, а не приказујемо као шему „упаљене свеће“. Истраживачи су дошли до много теорија о томе како се то постепено одвијало. Историја изгледа нејасна и неодлучна о томе како су се ствари развијале по овом питању. Претпостављам да нам може олакшати што се упаљене свеће не користе на овакав начин, јер би изгледало да су шансе да нешто опипљиво пође наопако веома забрињавајуће (неко испусти свећу и запали ватру, или се неко опече од свеће када му се пружи од другог играча итд.).

Што се тиче врућег кромпира као потенцијалне замене за упаљену свећу, генерално бисте могли да тврдите да ће кромпир у целини бити донекле безбеднији. Нема отвореног пламена. Нема топљеног воска. Потенцијална основа за коришћење кромпира у овом контексту је да је познато да лако задржавају топлоту након што се загреју. Кромпир можете проследити и он ће неко време остати врућ. Претпоставља се да би одлука када врући кромпир више није врућ и уместо тога је оцењен као хладан била жестоко дискутабилан предлог.

Наравно, појам пословичног врућег кромпира је више самостална тема ових дана. Све што је оцењено или рангирано као врући кромпир обично је озбиљног квалитета. Не желиш да држиш врућ кромпир. Желите да будете сигурни да иде негде другде. У одређеној мери, можда нећете бити превише забринути око тога где иде, једноставно што више није у вашем поседу.

Чините се прилично безосјећајним да потенцијално предате врућ кромпир драгом пријатељу или сличном познанику. Ово би изгледало потпуно неуобичајено. Можда нађите неког другог или на неко друго место да ставите тај врући кромпир, ако можете. Очајнички потез би могао бити да се натера врућ кромпир љубазном колеги, али се надамо да ће то бити учињено само као последње средство.

Друга страна те медаље је да бисте могли уживати у уручењу врућег кромпира некоме кога не волите или коме се желите осветити. Наравно, врућ кромпир може бити готово величанствено згодан ако желите да поткопате особу која се лоше опходила према вама. Нека схвате шта да раде са врућим кромпиром. Срећно са кромпиром и најгоре особи са којом сте га означили.

У сценарију врућег кромпира који укључује само двоје људи, постоји могућност брзог спорења у вези са тим која особа држи неугодан и непожељан предмет. На пример, ја вам предам врућ кромпир, а ви ми га журно вратите. Под претпоставком да не треба да најављујемо пјесмицу између сваке предаје, можемо углавном само проћи дуж кромпира онолико брзо колико нам руке то дозвољавају.

Можда ћете бити знатижељни зашто сам се одлучио да дубоко зароним у поштовани и често цитирани врући кромпир.

Ево зашто.

Испоставило се да се маска врућег кромпира све више користи у области вештачке интелигенције (АИ).

Већина људи не зна ништа о томе. Никада нису чули за то. Они су потпуно несвесни шта је то. Чак и многи програмери вештачке интелигенције нису свесни тога. Ипак, постоји и чини се да се користи у заиста сумњивим окружењима, посебно у случајевима који укључују живот или смрт.

Ја ово називам AI Синдром врућег кромпира.

Постоји много озбиљних последица које су у основи овог синдрома и морамо се побринути да ставимо наше капе за размишљање о етичкој интелигенцији и размотримо шта би требало да се уради. Постоје отрежњујућа етичка разматрања. Засигурно ће постојати и значајне правне импликације (које још нису достигле друштвену видљивост, иако предвиђам да ће ускоро). За моје текуће и опсежно покривање питања етике вештачке интелигенције, етичке вештачке интелигенције и правних питања вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Хајде да распакујемо АИ синдром врућег кромпира.

Замислите систем вештачке интелигенције који ради заједно са човеком. АИ и човек преносе контролу над неком активношћу која је у току тако да с времена на време човек има контролу, док други пут контролише АИ. Ово би се у почетку могло учинити на, да кажемо, добро васпитан или разуман начин. Из различитих разлога, у које ћемо се одмах позабавити, АИ би компјутерски могао да утврди да се контрола мора журно пренети на човека.

Ово је врућ кромпир то доводи до угрожавања живота у стварном свету, а не само да служи као поучна дечја игра.

Проблем са журним преношењем контроле са вештачке интелигенције на човека је у томе што се то може урадити на разуман начин или се може постићи на прилично неразуман начин. Ако човек посебно не очекује примопредају, то је вероватно проблем. Ако је човек генерално у реду са преношењем контроле, околности које су у основи примопредаје могу бити застрашујуће када се човеку да недовољно времена или недовољна свест о томе зашто се контрола насилно преноси у њихове људске руке.

Истражићемо примере како ово може да изазове животну или смртну опасност за људе и можда друге људе у близини. То је озбиљна ствар. Тачка, тачка.

Пре него што уђемо у још неке од меснатих аспеката дивљих и вунастих разматрања у основи АИ синдром врућег кромпира, хајде да изложимо неке додатне основе о суштински важним темама. Морамо накратко да заронимо у етику вештачке интелигенције и посебно на појаву машинског учења (МЛ) и дубоког учења (ДЛ).

Можда сте нејасно свесни да се један од најгласнијих гласова ових дана у пољу вештачке интелигенције, па чак и ван поља вештачке интелигенције, састоји у тражењу већег привида етичке вештачке интелигенције. Хајде да погледамо шта значи упућивање на етику вештачке интелигенције и етичку вештачку интелигенцију. Поврх тога, истражићемо шта мислим када говорим о машинском учењу и дубоком учењу.

Један посебан сегмент или део етике вештачке интелигенције који добија велику пажњу медија састоји се од вештачке интелигенције која показује непристрасне пристрасности и неједнакости. Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

За тренутак ћу поделити са вама неке свеобухватне принципе који су у основи етике вештачке интелигенције. Постоји много оваквих листа које лебде ту и тамо. Могло би се рећи да још увек не постоји јединствена листа универзалне привлачности и сагласности. То је несрећна вест. Добра вест је да барем постоје лако доступне листе етике вештачке интелигенције и да су обично прилично сличне. Све у свему, ово сугерише да путем неке врсте разумне конвергенције проналазимо пут ка општем заједништву онога од чега се састоји етика вештачке интелигенције.

Прво, хајде да укратко покријемо неке од укупних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде од виталног значаја за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења ће бити развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на АИ способности, укључујући транспарентне и проверљиве методологије, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Вратимо се нашем фокусу на врући кромпир и његову потенцијално катастрофалну употребу у АИ. Постоји и ђаволски дух који такође може да се крије у врелом кромпиру.

Као кратак резиме о АИ манифестацији гамбита врућег кромпира:

  • АИ и човек-у-петљи раде заједно на датом задатку
  • АИ понекад има контролу
  • Човек-у-петљи има контролу неко време
  • Постоји неки облик примопредаје протокола између АИ и човека
  • Пренос може бити веома видљив, или може бити суптилан и скоро скривен
  • Ово је све обично у контексту у реалном времену (нешто је активно у току)

Примарни фокус овде је када је предаја у суштини врући кромпир и АИ одлучи да изненада преда контролу човеку. Имајте на уму да ћу касније овде покрити и други аспект, наиме контролу људске предаје вештачкој интелигенцији као врући кромпир.

Прво, размислите шта може да се деси када АИ преда врући кромпир човеку у петљи.

Назваћу човека човеком-у-петљи јер кажем да је човек већ део активности у току. Могли бисмо имати и друге сценарије у којима човек који није посебно био укључен у активност, можда непознат у целој ствари, добије врућ кромпир од АИ, тако да имајте на уму да постоје и други укуси овог миљеа.

Да сам вам давао врућ кромпир и желео да то учиним на разуман начин, можда бих вас упозорио да ћу вам предати ствари. Штавише, покушао бих то да урадим када бих искрено веровао да је поседовање врућег кромпира боље од мене у целини. Ментално бих израчунао да ли треба да га имате или да ја наставим са тим.

Замислите кошаркашку утакмицу. Ти и ја смо у истом тиму. Надамо се да радимо заједно да покушамо да победимо у утакмици. Остало је само неколико секунди до краја и очајнички нам је потребно да постигнемо гол иначе ћемо изгубити утакмицу. Долазим у позицију да направим последњи ударац. Да ли да то урадим или да ти додам лопту и да ти даш последњи ударац?

Ако сам бољи кошаркаш и имам веће шансе да потопим шут, вероватно би требало да задржим кошарку и покушам да изведем ударац. Ако си бољи кошаркаш од мене, вероватно би требало да ти додам лопту и пустим да шутираш. Друга разматрања долазе у први план, као што је ко је од нас у бољој позицији на терену да изведе ударац, плус да ли је неко од нас исцрпљен јер је утакмица скоро готова и можда је истрошена и није на нивоу њихово пуцање. итд.

Уз све те факторе усред мучног тренутка, морам да одлучим да ли да задржим лопту или да је додам теби.

Схватите да је у овом сценарију сат кључан. И ви и ја смо суочени са изузетно благовременим одговором. Сада је цела утакмица на удару. Када сат истекне, или смо победили јер је неко од нас погодио, или смо изгубили пошто га нисмо потопили. Можда бих могао бити херој ако потопим корпу. Или би ти могао бити херој ако ти додам лопту и ти је потопиш.

Постоји и козја страна или недостаци овога. Ако задржим лопту и промашим ударац, сви би ме могли оптужити да сам јарац или да сам изневерио цео тим. С друге стране, ако ти додам лопту, а ти промашиш ударац, па, постајеш коза. Ово би могло бити потпуно неправедно према вама јер сам вас натерао да будете последњи стрелац и да изнесете последњи ударац.

Дефинитивно би знао да сам те ставио у ту одвратну позицију. И иако су сви могли да ме виде како ово радим, они су обавезни да се концентришу само на последњу особу која је имала лопту. Можда бих клизала бесплатно. Нико се не би сетио да сам ти додао лопту у последњем тренутку. Они би само запамтили да сте имали лопту и изгубили утакмицу јер нисте упутили ударац.

У реду, па ћу вам предати лопту.

Зашто сам то урадио?

Не постоји лак начин да се ово утврди.

Моје праве намере могу бити да нисам желео да се заглавим као коза, па сам одлучио да извршим сав притисак на тебе. На питање зашто сам додао лопту, могао бих да тврдим да сам то урадио јер сам мислио да си ти бољи шутер од мене (али, хајде да се правим да ја у то уопште не верујем). Или сам мислио да си ти у бољој позицији од мене (хајде да се претварам да ни ја ово нисам мислио). Нико никада не би знао да сам заправо само покушавао да избегнем да се заглавим са врућим кромпиром.

Из спољашњег погледа на ствари, нико није могао лако да уочи моје право образложење за додавање лопте вама. Можда сам то урадио недужно јер сам веровао да си ти бољи играч. То је један угао. Можда сам то урадио зато што нисам желео да ме сви називају губитником због евентуалног промашеног шута, па сам вам дао лопту и схватио да је то велико олакшање за мене. Да ли ми је заиста стало до тебе је сасвим друга ствар.

Сада смо у могућности да додамо још неке детаље врућем кромпиру који се односи на АИ:

  • АИ одлучује да да контролу човеку у петљи у последњем тренутку
  • Последњи тренутак је можда већ далеко изнад сваке људске акције
  • Човек-у-петљи има контролу, али донекле лажно због времена примопредаје

Размислите о овоме на тренутак.

Претпоставимо да систем вештачке интелигенције и човек у петљи раде заједно на задатку у реалном времену који укључује покретање машине великих размера у фабрици. АИ детектује да се машинерија покварила. Уместо да АИ настави да задржи контролу, АИ нагло предаје контролу човеку. Машине у овој фабрици убрзано иду ка чистом хаосу и нема више времена да човек предузме корективне мере.

АИ је предао врели кромпир човеку-у-петљи и заглавио човека правим врућим кромпиром тако да околности више нису људски могуће изаћи на крај. Таг, ти си то, иде по старој линији када играш игре са ознакама као дете. Човек је, да кажемо, обележен нередом.

Баш као мој пример о кошаркашкој утакмици.

Зашто је АИ извршила примопредају?

Па, за разлику од када човек нагло преда кошаркашку лопту, а затим мало махне руком о томе зашто су то урадили, обично можемо да испитамо програмирање вештачке интелигенције и схватимо шта је довело до тога да вештачка интелигенција изврши ову врсту предаје врућег кромпира.

Програмер вештачке интелигенције је можда унапред одлучио да, када АИ дође у веома лошу ситуацију, АИ треба да настави да даје контролу човеку у петљи. Ово изгледа савршено разумно и разумно. Човек би могао бити „бољи играч“ на терену. Људи могу да искористе своје когнитивне способности да потенцијално реше било који проблем који им је при руци. АИ је вероватно достигао границе свог програмирања и не може ништа друго конструктивно да уради у овој ситуацији.

Ако је вештачка интелигенција извршила примопредају са још минутом пре него што је машина кренула на кабл, можда је минут хеадс-уп довољан да човек у петљи може да исправи ствари. Претпоставимо ипак да је АИ извршио примопредају са још три секунде до краја. Мислите ли да би човек могао да реагује у том временском оквиру? Мало вероватно. У сваком случају, само да би ствари биле још мање запетљане, претпоставимо да се пренос на човека-у-петљи догодио са још неколико наносекунди до краја (наносекунда је милијардни део секунде, што у поређењу са брзим трептајем око је тромо 300 милисекунди).

Да ли би човек у петљи могао да реагује у довољној мери ако је вештачка интелигенција дала врели кромпир за само мали део секунде да предузме било какву отворену акцију?

Не.

Примопредаја је више лажна него што би иначе изгледало.

У стварности, предаја неће донети ништа добро када је у питању страшна невоља. АИ је уштипнуо човека да постане коза.

Неки програмери вештачке интелигенције не размишљају о томе када осмисле своју вештачку интелигенцију. Они (погрешно) блажено не узимају у обзир да је време пресудан фактор. Све што раде је да се одлуче да програмирају примопредају када ствари постану тешке. Када вештачкој интелигенцији више ништа не преостаје да конструктивно уради, баците лопту људском играчу.

Програмери вештачке интелигенције можда неће успети да посвете било какву посвећеност овоме у време кодирања АИ, а онда често двоструко не успеју тако што не ураде тестирање које ово открива. Све што њихово тестирање показује је да је АИ „савесно“ извршио примопредају када су достигнуте границе АИ. Воила, претпоставља се да је АИ добра и спремна за рад. Тестирање није укључивало стварног човека који је стављен у тај незавидан и немогућ положај. Није постојао одговарајући процес тестирања "људи у петљи" који би могао протестовати да им је овај трептај ока у последњем тренутку, или заиста после последњег тренутка, учинио мало или нимало доброг.

Наравно, неки програмери вештачке интелигенције ће мудро размотрити ову врсту невоље.

Након што размотре загонетку, они ће наставити са програмирањем АИ да делује на овај начин.

Зашто?

Јер нема шта друго да раде, барем у њиховој памети. Када све друго не успије, ручна контрола на човјека. Можда ће се десити чудо. Суштина је, међутим, да ово није од значаја за програмере вештачке интелигенције и они дају човеку последњу шансу да се избори са нередом. АИ програмер пере руке од свега што се догоди након тога.

Желим да појасним да АИ програмери нису једини креатори ових дизајна врућег кромпира. Постоји велики број других заинтересованих страна који долазе за сто због овога. Можда је системски аналитичар који је урадио анализу спецификација и захтева изјавио да је то оно што АИ треба да ради. Програмери вештачке интелигенције који су укључени направили су АИ у складу са тим. Менаџер АИ пројекта је можда ово смислио. Руководиоци и менаџмент који надгледају развој АИ можда су ово смислили.

Свако је током целог животног циклуса развоја вештачке интелигенције могао да пренесе овај исти дизајн врућег кромпира. Да ли је то неко приметио, не можемо са сигурношћу рећи. Да су приметили, они би могли бити означени као противници и отерани у страну. Други су можда скренули пажњу на ствар, али нису схватили последице. Сматрали су да се ради о техничким ситницама које нису у њиховом делокругу.

Додаћу овој неформалној листи „разлога“ много лошију могућност.

Синдром врућег кромпира од вештачке интелигенције се понекад намерно користи зато што су они који стварају вештачку интелигенцију желели да имају своју страствену тврдњу о уверљивом порицању.

Припремите се за овај део приче.

У случају фабричке машинерије која се покварила, сигурно ће бити много упирања прстом о томе ко је одговоран за оно што се догодило. Што се тиче управљања машинама, имали смо АИ систем који је то радио и имали смо човека у петљи који је то радио. Ово су наша два кошаркаша, метафорички.

Сат је текао и машинерија је била на ивици да пропадне. Рецимо да ви и ја знамо да је вештачка интелигенција извршила примопредају на човека-у-петљи, чинећи то са недовољно времена за човека да предузме било коју довољну акцију да исправи или избегне катастрофу. Нико други не схвата да се то догодило.

Фирма која прави вештачку интелигенцију у сваком случају може одмах да изјави да нису криви јер је човек имао контролу. Према њиховој беспрекорној евиденцији, АИ није имала контролу у време кабума. Људско је било. Стога је, јасно, очигледно да је човек крив.

Да ли компанија АИ у основи лаже када износи ову отворену тврдњу?

Не, изгледа да говоре истину.

На питање да ли су сигурни да вештачка интелигенција није имала контролу, компанија би гласно и поносно изјавила да вештачка интелигенција уопште није имала контролу. Они су документовали доказе за ову тврдњу (под претпоставком да је АИ водио дневник инцидента). У ствари, руководиоци компаније са вештачком интелигенцијом могли би да подигну обрве са гађењем што би било ко оспорио њихов интегритет у овој тачки. Били би вољни да се закуну својом светом заклетвом да је АИ била не у контроли. Човек-у-петљи је имао контролу.

Верујем да видите колико ово може бити варљиво.

Да, човеку је предата контрола. У теорији, човек је имао контролу. АИ више није имао контролу. Али недостатак доступног времена и обавештења у великој мери чини ову тврдњу изузетно шупљом.

Лепота овога, из перспективе произвођача вештачке интелигенције, била би у томе што би мало ко могао да оспори тврдње које се нуде. Произвођач АИ можда неће објавити евиденцију инцидента. То би могло одати намештену ситуацију. За евиденције се тврди да су интелектуална својина (ИП) или да су власничке и поверљиве природе. Компанија би вероватно тврдила да би, ако би се евиденције приказали, ово приказало тајни сос њихове АИ и исцрпило њихов цењени ИП.

Замислите тежак положај јадног човека у петљи. Збуњени су што их сви криве што су пустили да ствари измакну контроли. АИ је „учинио праву ствар“ и предао контролу човеку. Ово је можда било оно што су спецификације говориле да раде (ипак, спецификације су биле погрешне јер нису узеле у обзир факторе времена и изводљивости). Дневници који нису објављени, али за које се тврди да су заштићени од стране произвођача вештачке интелигенције, потврђују апсолутну чињеницу да је човеку дала контролу од АИ.

Могли бисте ово прогласити као јадно закуцавање на збуњеног човека који ће скоро сигурно поднети пад.

Шансе су да ће се открити стварност онога што се догодило само ако ово дође на суд. Ако су лукави легални биглови свесни ове врсте свирке, покушали би да легално прибаве дневнике. Требало би да доведу вештака (нешто што сам с времена на време радио) да дешифрује дневнике. Сами дневники можда неће бити довољни. Дневници би могли бити преправљени или измењени, или намерно осмишљени да не приказују детаље јасно. Као такав, можда ће морати да се удуби и АИ код.

У међувремену, током целог овог мучног и дуготрајног процеса правног откривања, човек-у-петљи би изгледао заиста лоше. Медији би ту особу сликали као неодговорну, изгубила главу, није била марљива и требало би да сноси пуну одговорност. Можда би месецима или годинама, током овог процеса, та особа и даље била та у коју су сви упирали оптужујући прст. Смрад се можда никада неће уклонити.

Имајте на уму и да се ова иста околност лако може поновити. И поново. Под претпоставком да произвођач вештачке интелигенције није променио вештачку интелигенцију, кад год се појави слична ситуација у последњем тренутку, вештачка интелигенција ће извршити ту предају без преосталог времена. Надао би се да се овакве ситуације не дешавају често. У ретким приликама када се то догоди, човек-у-петљи је и даље погодан за пад.

То је ђаволски трик.

Можда бисте желели да инсистирате да произвођач вештачке интелигенције није учинио ништа лоше. Они говоре истину. АИ је одустао од контроле. Тада се сматрало да човек контролише. То су чињенице. Нема смисла то оспорити.

Било да се неко опамете и поставља тешка питања, плус да ли произвођач вештачке интелигенције одговара на та питања на било који директан начин, то је нешто што се чини ретко дешава.

Питања укључују:

  • Када је вештачка интелигенција извршила примопредају човеку у петљи?
  • На којој програмираној основи је АИ извршила примопредају?
  • Да ли је човеку у петљи дато довољно времена да преузме контролу?
  • Како је АИ дизајниран и осмишљен за ове недоумице?
  • И тако даље.

У извесној мери, зато су етика вештачке интелигенције и етичка вештачка интелигенција тако кључна тема. Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања о вештачкој интелигенцији и чинити то интегрално за развој вештачке интелигенције и њено коришћење на терену је од виталног значаја за производњу одговарајуће вештачке интелигенције, укључујући (можда изненађујуће или иронично) процену тога како компаније усвајају етику вештачке интелигенције.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. У ствари, они унапред упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У овом тренутку ове тешке дискусије, кладим се да желите неке додатне илустративне примере који би могли показати ову тему. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку недоумицу са вештачком интелигенцијом је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава било шта о АИ Хот Потато синдрому, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и АИ синдром врућег кромпира

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Надам се да то пружа довољан низ упозорења у основи онога што ћу сада да кажем.

За потпуно аутономна возила можда нема шансе да дође до примопредаје између АИ и човека, због могућности да не постоји човек у петљи за почетак. Тежња многих данашњих произвођача аутомобила који се сами возе је да у потпуности уклоне људског возача из задатка вожње. Возило неће садржати чак ни команде за вожњу које су доступне људима. У том случају, људски возач, ако је присутан, неће моћи да учествује у задатку вожње јер нема приступ било каквој контроли вожње.

За нека потпуно аутономна возила, неки дизајни и даље дозвољавају да човек буде у току, иако човек уопште не мора да буде доступан или да учествује у процесу вожње. Дакле, човек може да учествује у вожњи, ако то жели. Међутим, ни у једном тренутку АИ се не ослања на човека да изврши било који од задатака вожње.

У случају полуаутономних возила, постоји веза између људског возача и АИ. За неке дизајне, људски возач може у потпуности да преузме контролу вожње и у суштини спречи АИ да учествује у вожњи. Ако човек-возач жели да врати вештачку интелигенцију у улогу возача, може то да уради, мада то понекад приморава човека да се одрекне контроле вожње.

Други облик полуаутономног рада би подразумевао да људски возач и АИ раде заједно на тимски начин. АИ вози и човек вози. Возе се заједно. АИ би се могао повиновати човеку. Човек би се могао повиновати АИ.

У неком тренутку, систем за вожњу са вештачком интелигенцијом може компјутерски утврдити да ауто који се самостално вози иде у неодрживу ситуацију и да ће се аутономно возило срушити.

На страну, неки стручњаци се врте около тврдећи да ће аутомобили који се сами возе бити неударни, што је чиста бесмислица и нечувена и погрешна ствар за рећи, погледајте моје извештавање на линк овде.

Настављајући сценарио самовозећег аутомобила који иде ка судару или аутомобилској несрећи, систем за вожњу са вештачком интелигенцијом може бити програмиран да на кратко преда контролу вожње људском возачу. Ако људском возачу има довољно времена да предузме акцију избегавања, ово би заиста могло бити разумно и исправно за АИ.

Али претпоставимо да АИ изврши примопредају са преосталом делић секунде. Време реакције људског возача није ни близу довољно брзо да адекватно реагује. Осим тога, ако је неким чудом човек био довољно брз, велика је вероватноћа да не постоје изводљиве акције избегавања које се могу предузети уз ограничено време преостало до пада. Ово је двојако: (1) недовољно времена да човек-возач предузме акцију, (2) недовољно времена да, ако је радња била могућа од стране људског возача, радња би могла да се изврши у недостатку предвиђеног времена.

Све у свему, ово је слично мојој ранијој дискусији о ситуацији у вези са кошаркашком зујањем и фабричком машином која је полудела.

Хајде да овоме додамо опаки састојак.

Произвођач аутомобила или технолошка фирма која се самостално вози не жели да буде означена разним саобраћајним несрећама које су се дешавале у њиховој флоти. Систем за вожњу са вештачком интелигенцијом је програмиран да увек препусти контролу човеку возачу, без обзира на то да ли има довољно времена за човека да уради било шта у вези са невољом. Кад год дође до саобраћајне несреће ове врсте, произвођач аутомобила или технолошка фирма која се сама вози може гласно да инсистира да је човек-возач био за командама, док вештачка интелигенција није.

Чини се да су њихови резултати у системима за вожњу са вештачком интелигенцијом сјајни.

Ни једном АИ систем вожње није „крив“ за ове аутомобилске несреће. Увек су ти проклети људски возачи ти који као да не држе очи са пута. Можда смо склони да прогутамо ову заблуду и верујемо да потпуно прецизна АИ вероватно никада није у криву. Можда смо склони да верујемо (пошто знамо из искуства) да су људски возачи аљкави и праве тоне грешака у вожњи. Логичан закључак је да људски возачи морају бити одговорни, а систем вожње АИ је потпуно невин.

Пре него што се неки заговорници самовожње узнемире због ове карактеризације, хајде да апсолутно признамо да би човек могао да буде крив и да је требало да предузме нешто раније, као што је преузимање контрола вожње од АИ. Такође постоји шанса да је човек могао да уради нешто суштински када је АИ предао контролу вожње. итд.

Фокус је овде био на околностима у којима се АИ сматрао возачем возила, а затим нагло и са мало пажње на то шта би човек могао да уради, баци врућ кромпир човеку возачу. То је такође разлог зашто су многи забринути због двоструке улоге у вожњи полуаутономних возила. Могли бисте рећи да је превише возача за воланом. Чини се да би циљ био да се ствар реши тако што ће имати потпуно аутономна возила која немају потребу за човеком за воланом и АИ увек управља возилом.

Ово поставља савезничко питање о томе шта или ко је одговоран када АИ вози, о чему сам се много пута позабавио у својим колумнама, као нпр. линк овде линк овде.

Zakljucak

Морамо да будемо опрезни када чујемо или читамо о саобраћајним несрећама које укључују полуаутономна возила. Будите опрезни према онима који покушавају да нас заварају проглашавањем да њихов систем вожње АИ има беспрекоран рекорд. Преварантска лукавства АИ синдром врућег кромпира може бити у мешавини.

За компаније које покушавају да буду лукаве по овим стварима, можда можемо да задржимо близу срца чувену реченицу Абрахама Линколна: „Можете преварити све људе повремено и неке људе све време, али не можете преварити сви људи све време.”

Покушао сам да овде откријем магију вештачке интелигенције скривену иза екрана и понекад смештену испод хаубе, коју сам разјаснио како би више људи неће бити преварен чешће.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/08/01/аи-етхицс-фуминг-абоут-тхе-рисинг-хот-потато-синдроме-беинг-емплоиед-би-аи-макерс- наизглед-покушава-избегне-одговорност-за-свој-живот-одлучујући-аутономни-системи/