Етика вештачке интелигенције која каже да вештачку интелигенцију треба посебно применити када су људске пристраности у изобиљу

Људи морају да знају своја ограничења.

Можда се сећате сродне познате стихије о познавању наших ограничења коју је оштро изговорио лик Прљави Хари у филму из 1973. Магнум Форце (према изговореним речима глумца Клинта Иствуда у његовој незаборавној улози инспектора Харија Калахана). Општа идеја је да смо понекад склони да превидимо сопствене границе и да се у складу с тим упустимо у топлу воду. Било због охолости, егоцентричности или једноставно слепе за сопствене могућности, правило да будемо свесни и да се експлицитно водимо рачуна о нашим склоностима и недостацима је веома разумно и корисно.

Хајде да додамо нови обрт савету мудраца.

Вештачка интелигенција (АИ) мора да упозна своја ограничења.

Шта мислим под том варијантом поштоване фразе?

Испоставило се да је почетна журба да се модерна вештачка интелигенција користи као средство за решавање светских проблема замрљана и потпуно замућена спознајом да данашња вештачка интелигенција има нека прилично озбиљна ограничења. Прешли смо са узбудљивих наслова AI za dobro и све више смо се налазили заглибљени AI za loše. Видите, многи системи вештачке интелигенције су развијени и постављени са свим врстама непристрасних расних и родних предрасуда, и безброј других таквих ужасних неједнакости.

За моје опсежно и стално покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Пристрасности које се откривају у овим системима вештачке интелигенције нису типа „намерног“ типа који бисмо приписали људском понашању. Ово помињем да нагласим да данашња АИ није разумна. Упркос тим бурним насловима који сугеришу другачије, једноставно нигде не постоји вештачка интелигенција која се ни приближила осећају. Поврх свега, не знамо како да уведемо АИ у категорију осећаја, плус нико не може са сигурношћу да каже да ли ћемо икада достићи АИ осећај. Можда ће се то једног дана догодити, а можда и не.

Дакле, моја поента је да не можемо посебно приписати намеру врсти АИ коју тренутно поседујемо. Узимајући то у обзир, можемо обилно да доделимо намеру онима који праве АИ системе. Неки програмери вештачке интелигенције нису свесни чињенице да су осмислили систем вештачке интелигенције који садржи непријатне и вероватно незаконите предрасуде. У међувремену, други програмери вештачке интелигенције схватају да уносе предрасуде у своје АИ системе, потенцијално чинећи то на намеран начин.

У сваком случају, исход је и даље непристојан и вероватно незаконит.

У току су снажни напори да се прогласе принципи етике вештачке интелигенције који ће просветлити програмере вештачке интелигенције и пружити одговарајуће смернице за избегавање уграђивања предрасуда у њихове системе вештачке интелигенције. Ово ће помоћи на два начина. Прво, они који праве вештачку интелигенцију више неће имати спреман изговор да једноставно нису били свесни којих правила треба следити. Друго, они који одступе од етичких услова вештачке интелигенције биће лакше ухваћени и приказани као спречавају оно на шта су били унапред упозорени да раде и да не раде.

Хајде да одвојимо тренутак да укратко размотримо неке од кључних етичких правила вештачке интелигенције како бисмо илустровали о чему би градитељи вештачке интелигенције требало да размишљају и ригорозно предузимају са става етике вештачке интелигенције.

Како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења биће развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на способности вештачке интелигенције, укључујући транспарентне методологије које се могу ревидирати, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система је такође тврд орах. Лако је уопштено махнути руком о томе шта су етички прописи вештачке интелигенције и како их уопште треба поштовати, док је много компликованија ситуација када АИ кодирање мора да буде права гума која излази на крај.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Имајте на уму да је за осмишљавање и бављење вештачком интелигенцијом потребно село. Због чега цело село мора да држи на ногама у вези етике вештачке интелигенције.

У сваком случају, сада када сам схватио да вештачка интелигенција може да садржи предрасуде, можда се сви можемо сложити са ове две очигледне чињенице:

1. Људи могу имати бројне непристрасне предрасуде и могу да делују на њих

2. АИ може имати бројне нежељене предрасуде и може деловати на те пристрасности

Помало ми се гади да у том контексту стављам људе насупрот АИ јер би то на неки начин могло да имплицира да АИ има разумне капацитете на нивоу људи. Ово сигурно није тако. Вратићу се на тренутак на растућу забринутост око антропоморфизације АИ мало касније у овој дискусији.

Шта је горе, људи који показују непристрасне предрасуде или АИ која то чини?

Усуђујем се да кажем да питање представља један од оних глупих избора. То је пословично мање од два зла, могло би се тврдити. Желели бисмо да људи не оличавају непристрасне предрасуде. Даље бисмо желели да чак и ако људи имају нежељене предрасуде, не поступају према тим пристрасностима. Исто би се могло рећи и за АИ. Желели бисмо да АИ не уграђује нежељене предрасуде и да чак и ако постоје такве интерно кодиране пристрасности да АИ барем не би деловала на њих.

Жеље ипак не морају нужно да управљају светом (за моју анализу растућег и узнемирујућег привида тзв. АИ испуњење жеља од друштва у целини, види линк овде).

У реду, очигледно желимо да људи знају своја ограничења. Важно је препознати када имате непристрасне предрасуде. Једнако је важно покушати да спречите да се те непристрасне предрасуде унесу у ваше поступке и одлуке. Предузећа данас покушавају све врсте приступа како би спречила своје запослене да упадну у страшне замке непристрасности. Специјализована обука се даје запосленима о томе како да обављају свој посао на етички исправан начин. Процеси су обликовани око запослених како би их упозорили када се чини да показују неетичке обичаје. И тако даље.

Још једно средство за суочавање са људима и њиховим непристрасним предрасудама било би аутоматизовање рада заснованог на људима. Да, једноставно уклоните човека из петље. Не дозволите човеку да изврши задатак доношења одлука и вероватно више немате дуготрајне бриге о људском држању према било каквим нежељеним пристрасностима. Није умешан човек и тиме се чини да је проблем потенцијалних људских предрасуда решен.

Помињем ово зато што смо сведоци постепеног и масовног помака ка коришћењу вештачке интелигенције у алгоритмском начину доношења одлука (АДМ). Ако можете да замените човека са вештачком интелигенцијом, велика је вероватноћа да ће се појавити много користи. Као што је већ поменуто, више се не бисте бринули због људских предрасуда тог људског радника (оног који више не ради тај посао). Шансе су да ће АИ уопште бити јефтинији у поређењу са дугорочним временским хоризонтом. Одостајете од свих других разних потешкоћа које долазе делимично са људским радницима. итд.

Изгледа да је предлог који добија на удару следећи: Када покушавате да одлучите где да најбоље поставите вештачку интелигенцију, прво погледајте подешавања која већ подразумевају непристрасне људске пристрасности ваших радника и за које те пристрасности поткопавају или на други начин прекомерно компликују одређене задатке доношења одлука.

Суштина је да би се чинило мудрим прикупити највише за свој новац у смислу улагања у АИ тако што ће се директно усмјерити на високо изложене људске задатке доношења одлука које је тешко контролисати из перспективе непристрасне инфузије. Уклоните људске раднике у тој улози. Замените их АИ. Претпоставка је да вештачка интелигенција не би имала такве непријатне предрасуде. Стога, можете узети свој колач и појести га, наиме, преузети задатке одлучивања и то без етичког и правног спектра непристрасности.

Када то закључите, РОИ (повраћај улагања) би вероватно учинио усвајање АИ једноставним избором.

Ево како се то обично одвија.

Погледајте целу своју фирму и покушајте да идентификујете задатке доношења одлука који утичу на купце. Од тих задатака, који ће се највероватније неприкладно променити ако радници оличавају непристрасне предрасуде? Ако сте већ покушали да обуздате те пристрасности, можда сте пустили да ствари стоје како јесу. С друге стране, ако се пристрасности и даље појављују и напори да их се искоријени буду напорни, размислите о томе да у ту улогу убаците неку одговарајућу АИ. Не држите раднике у мешавини јер би могли да надјачају АИ или гурну АИ право назад у понор непристрасних предрасуда. Такође, уверите се да вештачка интелигенција може да изврши задатак вешто и да сте довољно ухватили аспекте доношења одлука који су потребни за обављање посла.

Исперите и поновите.

Схватам да то изгледа као јасан појам, али схватам да постоји много начина на које замена људских радника вештачком интелигенцијом може лако да крене по злу. Многе компаније су биле жељне да предузму такве акције и нису свесно размишљале како то учинити. Као резултат тога, често су правили много гори неред него што су имали на располагању за почетак.

Желим да разјасним и нагласим да АИ није лек за све.

Кад смо код тога, постоји једна огромна препрека у вези са чистоћом наизглед избацивања доносилаца одлука пристрасних људи са наводно непристрасном вештачком интелигенцијом. Проблем је у томе што можда само замењујете један скуп нежељених предрасуда другим. Према ранијој индикацији, АИ може садржати нежељене предрасуде и може деловати на те пристрасности. Израда дрске претпоставке да замена пристрасних људи за непристрасну вештачку интелигенцију није све што би требало да буде.

Укратко, ево договора када се ствар посматра искључиво из фактора пристрасности:

  • АИ нема нежељених предрасуда и ерго АДМ заснован на АИ је згодан за примену
  • АИ има исте непријатне предрасуде као и људи који су замењени и стога АДМ заснован на АИ забрињава
  • АИ уводи нове непристрасне предрасуде изван оних које имају људи који су замењени и вероватно ће погоршати ствари у складу са тим
  • АИ у почетку изгледа добро, а затим се постепено колеба у непристрасне предрасуде
  • други

Те могућности можемо накратко распаковати.

Прва је идеализована верзија онога што би се могло догодити. АИ нема нежељених предрасуда. Поставили сте АИ на своје место и он одлично ради свој посао. Добро за тебе! Наравно, могло би се надати да сте и ви на неки вешт начин решили расељавање људских радника због укључивања вештачке интелигенције.

У другом случају, постављате АИ и откривате да АИ испољава исте непристрасне предрасуде као и људски радници. Како то може бити? Уобичајено средство за упадање у ову замку је коришћење машинског учења (МЛ) и дубоког учења (ДЛ) на основу прикупљених података о томе како су људи у тој улози раније доносили своје одлуке.

Дозволите ми тренутак да објасним.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су годинама радили посао укључивали непристрасне предрасуде, велика је вероватноћа да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји привид здравог разума или других разумних аспеката моделирања пер се.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика би могла отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји солидна шанса да ће чак и уз релативно опсежна тестирања бити пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Све у свему, можда ћете се вратити на почетак. Исте непријатне предрасуде људи сада се компјутерски огледају у систему вештачке интелигенције. Нисте искоренили предрасуде.

Што је још горе, мање је вероватно да ћете схватити да АИ има пристрасности. У случају људи, обично бисте могли бити на опрезу да људи имају непристрасне предрасуде. Ово је основно очекивање. Употреба вештачке интелигенције може уљуљкати лидере да поверују да је аутоматизација потпуно уклонила сваку врсту људске пристрасности. Тиме се намештају да су себи пуцали у ногу. Отарасили су се људи са наизглед познатим нежељеним предрасудама, замењени вештачком интелигенцијом за коју се сматрало да нема таквих предрасуда, а ипак су сада ставили у употребу АИ препуну истих предрасуда за које се већ зна да постоје.

Ово може довести до тога да ствари постану попречне. Можда сте уклонили друге заштитне ограде које су коришћене са људским радницима који су успостављени да открију и спрече појаву оних већ очекиваних људских предрасуда. АИ сада има слободне руке. Ништа није на месту да се то ухвати пре него што се понашате. АИ би тада могао да почне да вас води тмурним путем огромне акумулације пристрасних радњи.

И, ви сте у незгодном и можда одговорном положају за који сте некада знали за пристрасности, а сада сте дозволили да те пристрасности изазову пустош. Можда је једна ствар што се никада нисте сусрели са таквим непристрасним предрасудама, а онда их изненада из ведра неба произведе АИ. Можда ћете покушати да оправдате ово са „ко би погодио“ врстом дистрактора (можда не баш убедљиво). Али да сте сада поставили вештачку интелигенцију која ради исте непристрасне радње као и раније, па, ваши изговори постају све тањи и слабији.

Преокрет у вези са овим подразумева да АИ показује непристрасне предрасуде које се раније нису сусреле када су људи обављали задатак. Могло би се рећи да је ово можда теже спречити јер се састоји од „нових” предрасуда које фирма раније није тражила. На крају, међутим, изговори вам можда неће пружити много олакшања. Ако се систем вештачке интелигенције упустио и на неетичку и на незакониту територију, ваша гуска би могла бити кувана.

Још један аспект који треба имати на уму је да би вештачка интелигенција могла да почне сасвим добро, а затим да крене у непристрасне предрасуде. Ово је посебно вероватно када се коришћење машинског учења или дубоког учења одвија на сталној основи како би АИ била ажурна. Без обзира да ли МЛ/ДЛ ради у реалном времену или периодично врши ажурирања, треба обратити пажњу на то да ли АИ можда уноси податке који сада садрже пристрасности, а који раније нису били присутни.

За лидере који мисле да добијају бесплатан ручак машући магичним штапићем да замене пристрасне људске раднике вештачком интелигенцијом, чека их веома грубо буђење. Погледајте моју дискусију о важности оснаживања лидера са правилима етике вештачке интелигенције на линк овде.

У овом тренутку ове дискусије, кладим се да сте жељни неких примера из стварног света који би могли да покажу загонетку замене (или не) људских непристрасности непристрасностима заснованим на вештачкој интелигенцији.

Драго ми је да сте питали.

Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појављивање правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава било шта о непристрасним предрасудама у вештачкој интелигенцији, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они који АИ аутомобилом управљају потпуно самостално и нема људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још нема правог аутомобила за самосталну вожњу на нивоу 5, за који још не знамо да ли ће то бити могуће постићи, нити колико ће времена требати да се тамо стигне.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и вештачка интелигенција са непристрасним предрасудама

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо спремни да дубоко заронимо у самовозеће аутомобиле и могућности етичке вештачке интелигенције, што подразумева истраживање вештачке интелигенције и непристрасности.

Хајде да употребимо једноставан пример. Самовозећи аутомобил заснован на вештачкој интелигенцији је у току на улицама вашег комшилука и чини се да вози безбедно. У почетку сте посебну пажњу посвећивали сваком тренутку када бисте успели да баците поглед на самовозећи аутомобил. Аутономно возило се истицало својом сталком електронских сензора који су укључивали видео камере, радарске јединице, ЛИДАР уређаје и слично. После много недеља колико самовозећи аутомобил крстари вашом заједницом, сада то једва примећујете. Што се вас тиче, то је само још један аутомобил на већ прометним јавним путевима.

Да не мислите да је немогуће или неуверљиво да се упознате са виђањем самовозећих аутомобила, често сам писао о томе како су се места која су у оквиру тестирања самовозећих аутомобила постепено навикла да виде дотерана возила, погледајте моју анализу на овај линк овде. Многи мештани су на крају прешли са разјапљених уста усхићеног буљења на сада емитовање експанзивног зевања досаде да би били сведоци тим вијугавим самовозећим аутомобилима.

Вероватно је тренутно главни разлог зашто би могли да примете аутономна возила због фактора иритације и раздражености. Стандардни АИ системи за вожњу осигуравају да аутомобили поштују сва ограничења брзине и правила пута. За ужурбане људске возаче у њиховим традиционалним аутомобилима које управљају људи, понекад се разбеснете када сте заглављени иза самовозећих аутомобила заснованих на вештачкој интелигенцији који строго поштују закон.

То је нешто на шта би сви могли да се навикнемо, с правом или не.

Назад на нашу причу.

Испоставило се да почињу да се јављају две непристојне бриге у вези са иначе безазленим и генерално добродошлим аутомобилима који се сами возе базираним на вештачкој интелигенцији, конкретно:

а. Тамо где вештачка интелигенција лута самовозећим аутомобилима ради преузимања вожњи постала је забринута брига у заједници у целини

б. Како се вештачка интелигенција односи према пешацима који чекају и који немају предност пролаза је такође све веће питање

У почетку је АИ лутала самовозећим аутомобилима по целом граду. Свако ко је желео да затражи вожњу у самовозећем аутомобилу имао је у суштини једнаке шансе да га позове. Постепено, вештачка интелигенција је почела да првенствено држи самовозеће аутомобиле да лутају само у једном делу града. Овај одељак је био већи извор новца и АИ систем је био програмиран да покуша да повећа приходе као део употребе у заједници.

Чланови заједнице у сиромашним деловима града мање су могли да се провозе аутомобилом који се самостално вози. То је било зато што су самовозећи аутомобили били удаљенији и лутали су у већем приходовном делу локала. Када би стигао захтев из удаљеног дела града, сваки захтев са ближе локације који је вероватно био у „цењеном” делу града би добио већи приоритет. На крају, доступност самовозећег аутомобила на било ком месту осим у богатијем делу града била је скоро немогућа, што је ужасно за оне који су живели у тим областима које су сада сиромашне ресурсима.

Могли бисте да тврдите да је вештачка интелигенција прилично налетела на облик дискриминације прокси (која се такође често назива индиректна дискриминација). АИ није био програмиран да избегава та сиромашнија насеља. Уместо тога, „научио“ је да то ради коришћењем МЛ/ДЛ.

Ствар је у томе да су возачи људи који деле вожњу били познати по томе што раде исту ствар, иако не нужно искључиво због угла зарађивања новца. Постојали су неки од возача који деле вожњу и који су имали непристрасну пристрасност у вези са скупљањем јахача у одређеним деловима града. Ово је био донекле познат феномен и град је успоставио приступ надгледању како би ухватио људе који то раде. Људски возачи би могли да упадну у невоље због неукусне селекције.

Претпостављало се да вештачка интелигенција никада неће пасти у исту врсту живог песка. Није успостављен специјализовани надзор да би се пратило куда иду самовозећи аутомобили засновани на вештачкој интелигенцији. Тек након што су чланови заједнице почели да се жале, градски челници су схватили шта се дешава. За више о овим врстама проблема широм града које ће аутономна возила и аутомобили који се сами возе представити, погледајте моје извештавање на овај линк овде и који описује студију коју је водио Харвард и коју сам коаутор на ту тему.

Овај пример аспеката роминга самовозећих аутомобила заснованих на вештачкој интелигенцији илуструје ранију индикацију да могу постојати ситуације које укључују људе са непристрасним предрасудама, за које се успостављају контроле, и да је АИ која замењује те људске возаче препуштена Шкоти. бесплатно. Нажалост, АИ тада може постепено да се заглави у сродним предрасудама и то без довољно заштитних ограда.

Други пример укључује АИ који одлучује да ли да се заустави да би чекао пешаке који немају предност да пређу улицу.

Несумњиво сте возили и наишли на пешаке који су чекали да пређу улицу, а нису имали предност за то. То је значило да сте имали дискреционо право да ли да се зауставите и пустите их да пређу. Могли бисте да наставите без да их пустите да пређу и да и даље будете у потпуности у складу са законским правилима вожње.

Студије о томе како људски возачи одлучују да се зауставе или не зауставе за такве пешаке сугеришу да понекад људски возачи доносе избор на основу непристрасности. Људски возач би могао да погледа пешака и одлучи да не стане, иако би се зауставио да је пешак имао другачији изглед, на пример на основу расе или пола. Прегледао сам ово на линк овде.

Замислите да су самовозећи аутомобили засновани на вештачкој интелигенцији програмирани да се баве питањем да ли да зауставе или не зауставе пешаке који немају предност. Ево како су програмери вештачке интелигенције одлучили да програмирају овај задатак. Прикупили су податке са градских видео камера које су постављене по целом граду. Подаци приказују возаче који се заустављају за пешаке који немају предност и возаче који се не заустављају. Све је скупљено у велики скуп података.

Коришћењем машинског учења и дубоког учења, подаци се моделују рачунарски. АИ систем вожње затим користи овај модел да одлучи када да се заустави или не заустави. Генерално, идеја је да од чега год да се састоје локални обичаји, овако ће АИ усмеравати самовозећи аутомобил.

На изненађење градских челника и становника, АИ је очигледно одлучила да стане или не стане на основу изгледа пешака, укључујући њихову расу и пол. Сензори самовозећег аутомобила би скенирали пешака који чекају, унели ове податке у МЛ/ДЛ модел, а модел би емитовао АИ да ли да се заустави или настави. На жалост, град је већ имао много пристрасности људских возача у овом погледу и АИ је сада опонашао исто.

Добра вест је да ово покреће питање за које скоро нико раније није знао да постоји. Лоша вест је била да, пошто је вештачка интелигенција ухваћена да ово ради, највише је крив. Овај пример илуструје да би систем вештачке интелигенције могао само да дуплира већ постојеће непристрасне предрасуде људи.

Zakljucak

Постоји мноштво начина да покушате да избегнете осмишљавање вештачке интелигенције која или ван капије има нежељене предрасуде или која временом прикупља пристрасности. Један приступ укључује осигуравање да су програмери вештачке интелигенције свесни тога што се дешава и да их стога држе на ногама да програмирају АИ да спречи ствар. Други начин се састоји у томе да АИ сама надгледа неетичко понашање (погледајте моју дискусију на линк овде) и/или поседовање другог дела вештачке интелигенције која надгледа друге системе вештачке интелигенције за потенцијално неетичко понашање (о томе сам покрио на линк овде).

Да резимирамо, морамо да схватимо да људи могу имати непристрасне предрасуде и да некако морају да знају своја ограничења. Исто тако, вештачка интелигенција може имати нежељене предрасуде и некако морамо да знамо њихова ограничења.

За оне од вас који жарко прихватају етику вештачке интелигенције, желео бих да завршим одмах са још једном познатом линијом коју сви већ морају да знају. Наиме, молимо вас да наставите да користите и делите важност Етичке вештачке интелигенције. И чинећи то, дрско бих рекао ово: „Само напред, улепшај ми дан.”

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/09/12/аи-етхицс-саиинг-тхат-аи-схоулд-бе-еспециалли-деплоиед-вхен-хуман-биасес-аре-апленти/