Етика вештачке интелигенције која звони алармом о надолазећем спектру пристрасности вештачке интелигенције у масовним глобалним размерама, посебно подстакнутом преко потпуно аутономних система који се назиру

Платон је чувено рекао да се добра одлука заснива на знању, а не на бројевима.

Овај оштар увид изгледа невероватно далековидан о данашњој вештачкој интелигенцији (АИ).

Видите, упркос бурним насловима који тренутно објављују да је АИ некако достигла осећај и да отелотворује људско знање и расуђивање, имајте на уму да је ова пренаглашена хипербола вештачке интелигенције подмукла превара будући да се још увек ослањамо на крцкање бројева у данашњем алгоритму доношења одлука (АДМ). ) како то предузимају системи вештачке интелигенције. Чак се и хваљено машинско учење (МЛ) и дубоко учење (ДЛ) састоје од подударања рачунарских образаца, што значи да су бројеви и даље у сржи узвишене употребе МЛ/ДЛ.

Не знамо да ли је АИ могућ да достигне осећај. Може бити, можда и није. Нико са сигурношћу не може рећи како би то могло да настане. Неки верују да ћемо постепено побољшавати наше рачунарске напоре АИ тако да ће се спонтано појавити облик осећаја. Други мисле да би вештачка интелигенција могла да уђе у неку врсту рачунарске супернове и да достигне осећај прилично сам по себи (обично се назива сингуларитет). За више о овим теоријама о будућности АИ, погледајте моју репортажу на линк овде.

Дакле, немојмо се заваравати и лажно веровати да је савремена вештачка интелигенција у стању да размишља као људи. Претпостављам да тада долази у први план питање о Платоновој примедби о томе да ли можемо да доносимо добре одлуке засноване на рачунарској вештачкој интелигенцији, а не на осећајној вештачкој интелигенцији. Можда ћете бити изненађени када знате да бих тврдио да свакодневни системи вештачке интелигенције заиста можемо да доносимо добре одлуке.

Друга страна те медаље је да можемо имати и свакодневне АИ системе који доносе лоше одлуке. Покварене одлуке. Одлуке које су пуне непристрасности и неједнакости. Можда сте свесни да када је почела најновија ера вештачке интелигенције дошло је до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

Моје опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције можете пронаћи на овај линк овде овај линк овде, само да поменемо само неке.

За ову дискусију овде, желео бих да изнесем посебно забрињавајући аспект у вези са вештачком интелигенцијом за који они у арени етике вештачке интелигенције с правом жале и покушавају да подигну одговарајућу свест. Отрежњујућа и узнемирујућа ствар је заправо прилично једноставна за указати.

Ево га: АИ има потенцијал у стварном свету да објави пристрасности натопљене вештачком интелигенцијом на алармантном глобалном нивоу.

А када кажем „у обиму“, то очигледно значи масовне размере широм света. Огромна размера. Скала која излази ван скале.

Пре него што зароним у то како ће се ово скалирање пристрасности натопљених вештачком интелигенцијом одвијати, хајде да се уверимо да сви имамо привид како вештачка интелигенција може да укључи непотребне пристрасности и неједнакости. Подсетите се још једном да ово није осетљива сорта. Ово је све рачунског калибра.

Можда ћете бити збуњени како би АИ могла да унесе исте врсте штетних предрасуда и неједнакости као и људи. Склони смо да размишљамо о вештачкој интелигенцији као о потпуно неутралној, непристрасној, једноставно машини која нема никаквог емоционалног утицаја и лошег размишљања које би људи могли да имају. Једно од најчешћих начина да вештачка интелигенција упадне у пристрасност и неједнакост се дешава када се користи машинско учење и дубоко учење, делимично као резултат ослањања на прикупљене податке о томе како људи доносе одлуке.

Дозволите ми тренутак да разрадим.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам за доношење одлука или АДМ АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Ово нас доводи до питања пристрасности натопљених вештачком интелигенцијом када су на нивоу.

Прво, хајде да погледамо како људске пристрасности могу стварати неједнакости. Компанија која даје хипотекарне кредите одлучује да ангажује агента за хипотекарне кредите. Агент би требало да прегледа захтеве потрошача који желе да добију стамбени кредит. Након процене захтева, агент доноси одлуку о одобравању или одбијању зајма. Лаганица.

Ради дискусије, замислимо да агент за људске кредите може анализирати 8 кредита дневно, узимајући око један сат по прегледу. У петодневној радној недељи, агент обави око 40 прегледа кредита. На годишњем нивоу, агент обично уради око 2,000 прегледа кредита, да или узме мало.

Компанија жели да повећа обим прегледа кредита, тако да ангажује 100 додатних кредитних агената. Претпоставимо да сви имају приближно исту продуктивност и да то значи да сада можемо да обрадимо око 200,000 зајмова годишње (по стопи од 2,000 прегледа кредита годишње по агенту). Чини се да смо заиста убрзали обраду захтева за кредит.

Испоставило се да компанија осмишљава АИ систем који у суштини може да уради исте прегледе кредита као и људски агенти. АИ ради на рачунарским серверима у облаку. Преко инфраструктуре у облаку, компанија може лако да дода више рачунарске снаге како би се прилагодила било којој количини прегледа кредита која би могла бити потребна.

Са постојећом АИ конфигурацијом, они могу да ураде 1,000 прегледа кредита на сат. Ово се такође може десити 24×7. АИ није потребно време за одмор. Без паузе за ручак. АИ ради даноноћно и не клече о преоптерећености. Рећи ћемо да тим приближном темпом, АИ може да обради скоро 9 милиона захтева за кредит годишње.

Приметите да смо са 100 људских агената који су могли да дају 200,000 кредита годишње и много пута скочили на много повећан број од 9 милиона прегледа годишње преко АИ система. Драматично смо повећали обраду захтева за кредит. Нема сумње у то.

Припремите се за ударац који ће вас можда натерати да паднете са столице.

Претпоставимо да неки од наших људских агената доносе своје одлуке о зајму на основу непристрасности. Можда неки дају расним факторима кључну улогу у одлуци о зајму. Можда неки користе род. Други користе старост. И тако даље.

Од 200,000 годишњих прегледа зајма, колико их се ради под погрешним погледом негативних пристрасности и неједнакости? Можда 10% што је око 20,000 захтева за кредит. Још горе, претпоставимо да је то 50% захтева за кредит, у ком случају постоји прилично забрињавајућих 100,000 годишњих случајева погрешно донетих одлука о зајму.

То је лоше. Али тек треба да размотримо још страшнију могућност.

Претпоставимо да АИ има скривену пристрасност која се састоји од фактора као што су раса, пол, године и слично. Ако је 10% годишњих анализа кредита подложно овој непријатности, имамо 900,000 кредитних захтева који се неадекватно обрађују. То је много више од онога што би људски агенти могли да ураде, првенствено због аспеката обима. Тих 100 агената, када би сви у потпуности радили неправедну ревизију, највише би то могли да ураде на 200,000 годишњих прегледа кредита. АИ би могао да уради исто у много већем обиму од 9,000,000 годишњих прегледа.

Иикес!

Ово је заиста пристрасност са АИ-ом на огромном нивоу.

Када су непристрасне предрасуде укопане у систем вештачке интелигенције, исто скалирање које је изгледало корисно сада се окреће наопако и постаје монструозно замамљив (и узнемирујући) резултат скалирања. С једне стране, вештачка интелигенција може корисно да се позабави више људи који траже стамбене кредите. На површини, то изгледа огромно AI za dobro. Требало би да се тапшамо по раменима јер вероватно повећавамо шансе да људи добију потребне кредите. У међувремену, ако вештачка интелигенција има уграђене предрасуде, скалирање ће бити изузетно покварен резултат и ми се налазимо на жалост заглибљени у AI za loše, у заиста огромним размерама.

Пословични мач са две оштрице.

АИ може радикално повећати приступ доношењу одлука за оне који траже жељене услуге и производе. Нема више уског грла везаног за радну снагу. Изванредан! Друга оштрица мача је да ако вештачка интелигенција садржи лоше ствари као што су скривене неједнакости, исто велико скалирање ће објавити то непожељно понашање у незамисливим размерама. Огорчено, погрешно, срамотно, и не можемо дозволити да друштво падне у тако ружан понор.

Свако ко је био збуњен зашто морамо да се позабавимо важности АИ етике сада би требало да схвати да је феномен скалирања АИ проклето важан разлог за праћење етичке АИ. Хајде да одвојимо тренутак да укратко размотримо неке од кључних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде витални фокус за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења биће развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на способности вештачке интелигенције, укључујући транспарентне методологије које се могу ревидирати, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система је такође тврд орах. Лако је уопштено махнути руком о томе шта су етички прописи вештачке интелигенције и како их уопште треба поштовати, док је много компликованија ситуација када АИ кодирање мора да буде права гума која излази на крај.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Имајте на уму да је за осмишљавање и бављење вештачком интелигенцијом потребно село. Због чега цело село мора да држи на ногама у вези етике вештачке интелигенције.

Како функционише скалирање предрасуда на бази вештачке интелигенције

Сада када сам схватио да вештачка интелигенција може да садржи предрасуде, спремни смо да испитамо неке од разлога зашто је АИ скалирање тако наметљиво.

Размотрите ову кључну листу од десет основних разлога:

  1. Лако се реплицира
  2. Минимални трошкови за скалу
  3. Одвратно доследно
  4. Недостатак саморефлексије
  5. Слепа послушност
  6. Не диже руку
  7. Прималац без сумње
  8. Настоји да не подстиче провокације
  9. Лажна аура правичности
  10. Тешко побити

Укратко ћу истражити сваку од тих кључних тачака.

Када покушате да повећате људски рад, шансе су да ће то бити изузетно компликовано. Морате пронаћи и запослити људе. Морате их обучити да раде посао. Морате их платити и узети у обзир људске жеље и потребе. Упоредите ово са АИ системом. Развијате га и стављате у употребу. Осим неке количине текућег одржавања АИ, можете се завалити и пустити да бескрајно обрађује.

То значи да се АИ лако реплицира. Можете да додате више рачунарске снаге како задатак и обим захтевају (не запошљавате или отпуштате). Глобална употреба се врши притиском на дугме и достиже се доступношћу Интернета широм света. Повећање је минималан трошак у поређењу са људским радом.

Људски рад је ноторно недоследан. Када имате велике тимове, имате праву кутију чоколаде у којој никад не знате шта имате у рукама. Систем вештачке интелигенције ће вероватно бити веома конзистентан. Понавља исте активности изнова и изнова, сваки пут је у суштини исти као и претходни.

Обично бисмо уживали у доследности вештачке интелигенције. Ако су људи склони предрасудама, увек ћемо имати неки део нашег људског рада који ће залутати. АИ, да је чисто непристрасна у својој конструкцији и рачунским напорима, била би далеко доследнија. Међутим, проблем је у томе што ако АИ има скривене предрасуде, конзистентност је сада болно одвратна. Шансе су да ће се пристрасно понашање доследно спроводити, изнова и изнова.

Људи би, надамо се, имали мало наговештаја саморефлексије и можда ухватили себе како доносе пристрасне одлуке. Не кажем да би сви тако урадили. Такође не кажем да ће они који сами себе ухвате нужно исправити своје грешке. У сваком случају, бар неки људи би се понекад исправили.

Мало је вероватно да ће АИ имати било какав облик компјутерске саморефлексије. То значи да АИ само наставља да ради оно што ради. Чини се да не би било никакве шансе да АИ открије да је у супротности са правичношћу. Имајући то у виду, описао сам неке напоре да се позабавим овим, као што је изградња компоненти етике вештачке интелигенције унутар АИ (види линк овде) и осмишљавање вештачке интелигенције која надгледа другу вештачку интелигенцију како би уочила неетичке активности вештачке интелигенције (видети линк овде).

У недостатку било какве саморефлексије, АИ ће такође вероватно имати у суштини слепу послушност ономе што јој је наложено да уради. Људи можда нису тако послушни. Шансе су да ће се неки људи који раде задатак запитати да ли су можда вођени на територију неједнакости. Они би били склони да одбију неетичке команде или можда крену путем узбуњивача (погледајте моје извештавање на овај линк овде). Не очекујте да ће свакодневна савремена вештачка интелигенција некако довести у питање своје програмирање.

Затим се окрећемо онима који користе АИ. Ако сте тражили стамбени кредит и разговарали са човеком, могли бисте бити на опрезу да ли вас тај човек поштено протресе. Када се користи АИ систем, већина људи изгледа мање сумњичава. Често претпостављају да је вештачка интелигенција поштена и да се због тога не разбесне тако брзо. Чини се да АИ уљуљкава људе у „то је само машина“ транс. Поврх овога, може бити тешко покушати протестовати против АИ. Насупрот томе, протестовање због тога како вас је људски агент третирао је много лакше и много чешће се прихвата и претпоставља као изводљиво могуће.

Све у свему, вештачка интелигенција која је огрезла у предрасудама има нечасну предност у односу на људе огрезле у пристрасности, наиме у смислу могућности да АИ масовно примени те предрасуде у гигантским размерама, чинећи то без да буде лако ухваћена или да има потрошаче схвати шта се узнемирујуће дешава.

У овом тренутку ове дискусије, кладим се да сте жељни неких додатних примера који би могли да покажу загонетку пристрасности натопљених вештачком интелигенцијом.

Драго ми је да сте питали.

Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појављивање правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава било шта о пристрасностима натопљеним вештачком интелигенцијом на нивоу, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они који АИ аутомобилом управљају потпуно самостално и нема људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још нема правог аутомобила за самосталну вожњу на нивоу 5, за који још не знамо да ли ће то бити могуће постићи, нити колико ће времена требати да се тамо стигне.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и АИ предрасуде на нивоу

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо спремни да дубоко заронимо у самовозеће аутомобиле и могућности етичке вештачке интелигенције, што подразумева истраживање пристрасности под утицајем вештачке интелигенције које се објављују у великом обиму.

Хајде да употребимо једноставан пример. Самовозећи аутомобил заснован на вештачкој интелигенцији је у току на улицама вашег комшилука и чини се да вози безбедно. У почетку сте посебну пажњу посвећивали сваком тренутку када бисте успели да баците поглед на самовозећи аутомобил. Аутономно возило се истицало својом сталком електронских сензора који су укључивали видео камере, радарске јединице, ЛИДАР уређаје и слично. После много недеља колико самовозећи аутомобил крстари вашом заједницом, сада то једва примећујете. Што се вас тиче, то је само још један аутомобил на већ прометним јавним путевима.

Да не мислите да је немогуће или неуверљиво да се упознате са виђањем самовозећих аутомобила, често сам писао о томе како су се места која су у оквиру тестирања самовозећих аутомобила постепено навикла да виде дотерана возила, погледајте моју анализу на овај линк овде. Многи мештани су на крају прешли са разјапљених уста усхићеног буљења на сада емитовање експанзивног зевања досаде да би били сведоци тим вијугавим самовозећим аутомобилима.

Вероватно је тренутно главни разлог зашто би могли да примете аутономна возила због фактора иритације и раздражености. Стандардни АИ системи за вожњу осигуравају да аутомобили поштују сва ограничења брзине и правила пута. За ужурбане људске возаче у њиховим традиционалним аутомобилима које управљају људи, понекад се разбеснете када сте заглављени иза самовозећих аутомобила заснованих на вештачкој интелигенцији који строго поштују закон.

То је нешто на шта би сви могли да се навикнемо, с правом или не.

Назад на нашу причу.

Испоставило се да почињу да се јављају две непристојне бриге у вези са иначе безазленим и генерално добродошлим аутомобилима који се сами возе базираним на вештачкој интелигенцији, конкретно:

а. Тамо где вештачка интелигенција лута самовозећим аутомобилима ради преузимања вожње, наметнула се као изразита забринутост

б. Како се вештачка интелигенција односи према пешацима који чекају и немају предност пролаза, постало је горуће питање

У почетку је АИ лутала самовозећим аутомобилима по целом граду. Свако ко је желео да затражи вожњу у самовозећем аутомобилу имао је у суштини једнаке шансе да га позове. Постепено, вештачка интелигенција је почела да првенствено држи самовозеће аутомобиле да лутају само у једном делу града. Овај одељак је био већи извор новца и АИ систем је био програмиран да покуша да повећа приходе као део употребе у заједници.

Чланови заједнице у сиромашним деловима града мање су могли да се провозе аутомобилом који се самостално вози. То је било зато што су самовозећи аутомобили били удаљенији и лутали су у већем приходовном делу локала. Када би стигао захтев из удаљеног дела града, сваки захтев са ближе локације који је вероватно био у „цењеном” делу града би добио већи приоритет. На крају, доступност самовозећег аутомобила на било ком месту осим у богатијем делу града била је скоро немогућа, што је ужасно за оне који су живели у тим областима које су сада сиромашне ресурсима.

Могли бисте да тврдите да је вештачка интелигенција прилично налетела на облик дискриминације прокси (која се такође често назива индиректна дискриминација). АИ није био програмиран да избегава та сиромашнија насеља. Уместо тога, „научио“ је да то ради коришћењем МЛ/ДЛ.

Ствар је у томе да су возачи људи који деле вожњу били познати по томе што раде исту ствар, иако не нужно искључиво због угла зарађивања новца. Постојали су неки од возача који деле вожњу и који су имали непристрасну пристрасност у вези са скупљањем јахача у одређеним деловима града. Ово је био донекле познат феномен и град је успоставио приступ надгледању како би ухватио људе који то раде. Људски возачи би могли да упадну у невоље због неукусне селекције.

Претпостављало се да вештачка интелигенција никада неће пасти у исту врсту живог песка. Није успостављен специјализовани надзор да би се пратило куда иду самовозећи аутомобили засновани на вештачкој интелигенцији. Тек након што су чланови заједнице почели да се жале, градски челници су схватили шта се дешава. За више о овим врстама проблема широм града које ће аутономна возила и аутомобили који се сами возе представити, погледајте моје извештавање на овај линк овде и који описује студију коју је водио Харвард и коју сам коаутор на ту тему.

Овај пример аспеката роминга самовозећих аутомобила заснованих на вештачкој интелигенцији илуструје ранију индикацију да могу постојати ситуације које укључују људе са непристрасним предрасудама, за које се успостављају контроле, и да је АИ која замењује те људске возаче препуштена Шкоти. бесплатно. Нажалост, АИ тада може постепено да се заглави у сродним предрасудама и то без довољно заштитних ограда.

Ово такође показује предрасуде натопљене вештачком интелигенцијом у погледу обима.

У случају људских возача, можда смо имали неколико овде или тамо који су се понашали у неком облику неједнакости. За АИ систем вожње, то је обично једна таква обједињена АИ за читаву флоту самовозећих аутомобила. Дакле, могли смо да почнемо са рецимо педесет самовозећих аутомобила у граду (сви управљају истим АИ кодом), а постепено повећавамо на рецимо 500 самовозећих аутомобила (свима управља исти АИ код). Пошто свих тих пет стотина самовозећих аутомобила управља иста вештачка интелигенција, сви су, сходно томе, подложни истим изведеним предрасудама и неједнакостима које су уграђене у АИ.

Скалирање нас боли у том погледу.

Други пример укључује АИ који одлучује да ли да се заустави да би чекао пешаке који немају предност да пређу улицу.

Несумњиво сте возили и наишли на пешаке који су чекали да пређу улицу, а нису имали предност за то. То је значило да сте имали дискреционо право да ли да се зауставите и пустите их да пређу. Могли бисте да наставите без да их пустите да пређу и да и даље будете у потпуности у складу са законским правилима вожње.

Студије о томе како људски возачи одлучују да се зауставе или не зауставе за такве пешаке сугеришу да понекад људски возачи доносе избор на основу непристрасности. Људски возач би могао да погледа пешака и одлучи да не стане, иако би се зауставио да је пешак имао другачији изглед, на пример на основу расе или пола. Прегледао сам ово на линк овде.

Замислите да су самовозећи аутомобили засновани на вештачкој интелигенцији програмирани да се баве питањем да ли да зауставе или не зауставе пешаке који немају предност. Ево како су програмери вештачке интелигенције одлучили да програмирају овај задатак. Прикупили су податке са градских видео камера које су постављене по целом граду. Подаци приказују возаче који се заустављају за пешаке који немају предност и возаче који се не заустављају. Све је скупљено у велики скуп података.

Коришћењем машинског учења и дубоког учења, подаци се моделују рачунарски. АИ систем вожње затим користи овај модел да одлучи када да се заустави или не заустави. Генерално, идеја је да од чега год да се састоје локални обичаји, овако ће АИ усмеравати самовозећи аутомобил.

На изненађење градских челника и становника, АИ је очигледно одлучила да стане или не стане на основу изгледа пешака, укључујући њихову расу и пол. Сензори самовозећег аутомобила би скенирали пешака који чекају, унели ове податке у МЛ/ДЛ модел, а модел би емитовао АИ да ли да се заустави или настави. На жалост, град је већ имао много пристрасности људских возача у овом погледу и АИ је сада опонашао исто.

Овај пример илуструје да би систем вештачке интелигенције могао само да дуплира већ постојеће непристрасне предрасуде људи. Штавише, то чини у великим размерама. Било који људски возач је понекад могао бити научен да ради овај неприкладан облик селекције или је можда лично изабран да то уради, али велике су шансе да већина људских возача то вероватно не ради масовно.

У оштрој супротности, систем вожње АИ који се користи за вожњу самовозећих аутомобила ће вероватно одвратно доследно и сигурно спроводити изведену пристрасност.

Zakljucak

Постоји мноштво начина да покушате да избегнете осмишљавање вештачке интелигенције која има нежељене предрасуде или која временом прикупља пристрасности. Колико год је то могуће, идеја је да се проблеми открију пре него што уђете у високу брзину и убрзате за скалирање. Надамо се да пристрасности неће изаћи напоље, да тако кажем.

Претпоставимо ипак да ће се у АИ-у појавити предрасуде на овај или онај начин. Једном када сте распоређени у масовним размерама са вештачком интелигенцијом, не можете само да урадите један од оних често прокламованих техничарских појмова „испали и заборави“. Морате марљиво пратити оно што АИ ради и настојати да откријете све нежељене предрасуде које треба исправити.

Као што је раније истакнуто, један приступ укључује осигурање да су програмери вештачке интелигенције свесни етике вештачке интелигенције и на тај начин их подстакну да буду спремни да програмирају АИ да спречи ове ствари. Друга могућност се састоји у томе да АИ сама надгледа неетичко понашање и/или да има други део АИ који надгледа друге системе АИ за потенцијално неетичко понашање. У својим текстовима покрио сам бројна друга потенцијална решења.

Последња мисао за сада. Пошто смо започели ову дискусију Платоновим цитатом, можда би било умесно закључити дискурс још једном оштроумном Платоновом реченицом.

Платон је изјавио да нема штете у понављању добре ствари.

Лакоћа достизања скале са АИ је свакако одрживо средство за постизање тако оптимистичне тежње када је АИ од AI za dobro разноликост. Уживамо у понављању добре ствари. Када је АИ AI za loše и препуна непристрасности и неједнакости, могли бисмо се ослонити на Платонове примедбе и рећи да постоји велика штета у понављању лоше ствари.

Хајде да пажљиво саслушамо Платонове мудре речи и осмислимо своју вештачку интелигенцију у складу са тим.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/07/13/аи-етхицс-рингинг-аларм-беллс-абоут-тхе-лооминг-спецтер-оф-аи-биасес-ат-массиве- глобално-размјерно-посебно-попуњено-преко-надолазећих-потпуно-аутономних-система/