АИ етика опрезна у погледу погоршања АИ асиметрије усред људи који добијају кратак крај штапа

Понекад сте на погрешном крају штапа.

Тај колоквијализам се може применити на појам асиметрије.

Да, говорићу о асиметрији. Као што сте се вероватно сусрели у овом наопаком свету у коме живимо, постоје прилике када бисте могли да нађете да имате мање знања о питању које вам је релативно важно. Ово се формално назива Информациона асиметрија.

Кључно је да имате мање знања или информација него што бисте желели да имате, плус дефинитивно имате мање од друге стране укључене у ствар. Ви сте у изразито неповољном положају у односу на другу страну. Они знају нешто што ти не знаш. Они могу искористити оно што знају, посебно у смислу онога што ви не знате, и добити предност у било каквим грубим разматрањима или преговорима са вама.

Па, у граду је ново дете, познато као АИ Асиметрија.

Ова најновија фраза се односи на могућност да идете против некога ко је наоружан АИ, а ви нисте толико наоружани.

Они имају АИ на својој страни, док ти имаш, па, само тебе. Ствари су искривљене. Ви сте у претпостављеној неповољној позицији. Друга страна ће моћи да се врти око вас због тога што је увећана АИ. То би могло бити унутар познате изреке да је све поштено у љубави и рату (дугогодишња пословица скована у Еупхуес Јохн Лили, 1578), иако динамика и опасности асиметрије вештачке интелигенције покрећу изазовна питања етичке вештачке интелигенције. За моје текуће и опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Пре него што пређемо на област вештачке интелигенције и њене обилне сложености у вези са АИ асиметријом, хајде да прво истражимо свакодневну редовну верзију обичне старе асиметрије информација. Ово ће поставити сцену за улазак у пословично ново дете са вештачком интелигенцијом.

Кратка и намерно просветљујућа прича могла би да пробуди ваш апетит.

Пре неки дан ми је пукла гума док сам био на путу и ​​брзо сам тражио одговарајућу замену која би се могла одмах поставити. Користећи свој паметни телефон, погледао сам на мрежи оближње продавнице гума да бих открио раздаљину коју морам да пређем на својој рун-флат гуми и да ли су неке продавнице отворене. Поред тога, извршио сам брзу процену њихових онлајн рецензија купаца и покушао да сакупим било шта корисно о томе колико дуго су били у послу и другим факторима који би могли да покажу њихову вредност.

Када сам позвао једну од продавница гума, службеник ми је дао брзу понуду за цену гуме и њено постављање. Гума није била баш оно што сам имао на уму, али ме је службеница уверила да ће то бити једина радња у околини која може одмах да обави посао. Према речима службеника, ниједна друга оближња продавница гума не би имала такве гуме на залихама и тим конкурентима би требало најмање један дан да набаве одговарајућу гуму из неког полуудаљеног складишта.

Био сам усред асиметрије информација.

Службеник је рекао да зна више о локалном статусу продавница гума, а посебно о врсти гума која ми је потребна. Био сам у области кроз коју сам само пролазио и нисам имао никакво знање из прве руке о продавницама гума на том географском подручју. Колико сам знао, службеник је био у праву и давао ми је неугашену истину.

Али да ли је службеник то радио?

Можда да, можда не.

Може бити да је службеник искрено веровао свему што ми је преношено. За службеника, ово је била истина. Или је можда службеник донекле развлачио истину. Могуће је да оно што је речено може бити истина, иако је начин на који је то приказано имплицирао да је то крајња и непобитна истина. Наравно, то је такође могла бити потпуна бесмислица, а службеник је само шиловао за продавницу гума како би прикупио мој посао. Да ли је сочна провизија могла бити на реду?

Усуђујем се да кажем да нико не воли бити у таквој позицији.

Улози ситуације су витални фактор у томе колико је важна асиметрија информација. Ако је питање које је у питању живот или смрт, бити у кућици за псе и ослањати се на оно што знају или тврде да знају је скициран и крајње непожељан положај. Када су улози мали , као што је наручивање вечере у ресторану и сервер вам каже да је јело од рибе рајско, али никада раније нисте јели тамо и нисте довољно информисани, можете се сложити са овом мало асиметрије информација без много љутње (ја претпоставимо и да се такође кладите да сервер неће ризиковати да даје лош савет и пропусти да добије пристојну напојницу).

Враћајући се на причу о истрошеним гумама (игра речи!), не бих имао тренутног начина да схватим да ли ми је службеник дао поуздане и информативне увиде. Можда се питате шта се догодило. Одлучио сам да позовем неколико других оближњих продавница гума.

Јесте ли спремни за оно што сам открио?

Све друге продавнице гума су имале моју жељену гуму на залихама и нису хтеле да покушавају да ме намигну и наговоре да узмем другу гуму (као што је први службеник покушао да уради). Такође би могли да обаве посао у истом временском року као и прва продавница гума коју сам можда назвао. Отприлике по истој цени.

Уверавам вас, са моје стране је дошло до поздравног уздаха олакшања.

Иронично, у Марфијевом закону лоше среће, прво место које сам контактирао било је једино које је изгледало као да је изашло на ручак. Драго ми је што сам покушао да добијем више информација. Ово је смањило јаз у асиметрији информација. Аплаудирао сам себи што сам се држао свог оружја и нисам пристао на прво место које сам позвао.

Узимајући то у обзир, постојали су одређени трошкови у вези са мојим добијањем додатних информација. Направио сам отприлике четири позива од којих је сваком требало око петнаест до двадесет минута да се у потпуности обави. У том смислу, потрошио сам око сат и по док сам само смишљао где да одведем ауто. Да сам одмах одвезао свој ауто на то прво место, нова гума би до тада била скоро на мом ауту. С друге стране, скоро сигурно бих касније пожалио због брзе одлуке коју сам донео док сам био у подлом вези са асиметријом информација.

Понекад морате стиснути зубе и прихватити ужасну информацијску асиметрију како долази. Само се надате да ће одлука коју донесете бити довољно добра. Можда то није „савршена“ одлука и касније бисте могли пожалити због направљеног избора. Други угао је да бисте могли да покушате да ојачате своју страну информационе једначине, иако то није нужно бесплатно и може такође да потроши драгоцено време, у зависности од тога да ли је цењено време од суштинског значаја.

Сада када сте несумњиво утешени сазнањем да мој ауто ради добро са потпуно новом и исправном гумом, могу да пређем на појаву АИ асиметрије.

Размотрите АИ причу о јаду.

Тражите стамбени кредит. Постоји онлајн анализатор хипотекарних захтева који користи одређена банка. Систем на мрежи користи данашње напредне могућности вештачке интелигенције. Нема потребе да разговарате са агентом за одобравање кредита. АИ ради све.

АИ систем вас води кроз низ упита. Савесно испуњавате формуларе и одговарате систему вештачке интелигенције. Овај АИ је веома брбљив. Док сте у прошлости можда користили конвенционални компјутерски заснован систем образаца, ова варијанта вештачке интелигенције је сличнија интеракцији са људским агентом. Не баш, али довољно да бисте скоро могли да почнете да верујете да је човек на другој страни ове активности.

Након што сте дали све од себе да „разговарате“ о вашем захтеву са овом АИ, на крају вас обавештава да, нажалост, захтев за кредит није одобрен. Некако ће вам бити јасно што се чини да АИ нуди извињење, као да је вештачка интелигенција желела да одобри зајам, али они подли људи који надгледају банку не дозвољавају АИ да то уради. За моје извештавање о томе колико су ове врсте наводних АИ извињења обмањујуће, погледајте линк овде.

Немате појма зашто сте одбијени. АИ не нуди никакво објашњење. Можда је АИ погрешио или забрљао у својим прорачунима. Што је још горе, претпоставимо да је вештачка интелигенција користила неке веома упитне факторе као што су ваша раса или пол када је одлучивала о зајму. Све што знате је да сте као да сте губили време и да сте у међувремену предали гомилу приватних података АИ и банци. Њихова АИ вас је надмашила.

Ово би било означено као пример АИ асиметрије.

Био си против банке. Банка је била наоружана АИ. Нисте били једнако наоружани. Имали сте своју памет и своју школу мудрости о тешким ударцима, али у вашем задњем џепу није било вештачке интелигенције. Ум против машине. Нажалост, машина је победила у овом случају.

шта да радиш?

Прво, на друштвеној основи морамо да схватимо да ова асиметрија вештачке интелигенције расте и постаје скоро свеприсутна. Људи се сусрећу са вештачком интелигенцијом у свим системима са којима свакодневно комуницирамо. Понекад је АИ једини елемент са којим комуницирамо, као у овом примеру о захтеву за кредит. У другим случајевима, човек би могао бити у петљи која се ослања на АИ да им помогне у обављању дате услуге. За зајам би могло бити да би банка тражила да разговарате са људским агентом уместо интеракције са АИ, али за који људски агент користи компјутерски систем за приступ АИ који води људског агента током процеса захтева за кредит (и, скоро увек сте сигурни да ће се људски агент понашати као да је затворен тако што мора стриктно да ради све што им АИ „каже“).

У сваком случају, АИ је још увек у мешавини.

Друго, морамо да покушамо да осигурамо да се АИ асиметрија барем ради на етичкој основи АИ.

Дозволите ми да објасним ту наизглед чудну примедбу. Видите, ако можемо бити донекле сигурни да се АИ понаша на етички исправан начин, могли бисмо имати мало утехе у вези са асиметријом која је у игри. На помало аналогној, али и лабавој основи, могли бисте рећи да, да је моја интеракција са првим службеником у продавници гума имала неке строге етичке смернице и наметнута, можда ми не би била испричана прича која ми је испричана, или барем ја можда нисам морао одмах да тражим да откријем да ли ми је дата прича.

Ускоро ћу објаснити више о етици вештачке интелигенције.

Треће, требало би да тражимо начине за смањење АИ асиметрије. Ако сте имали вештачку интелигенцију која је била на вашој страни, која тежи да вам буде тренер или заштитник, можда бисте могли да употребите ту вештачку интелигенцију да извршите неке контраударе са другом вештачком интелигенцијом са којом ћете се суочити. Како кажу, понекад има изобиља смисла борити се против ватре ватром.

Пре него што пређемо на нешто више о месу и кромпиру о разматрањима дивљег и вуненог порекла која леже у основи АИ асиметрије, хајде да успоставимо неке додатне основе о суштински важним темама. Морамо накратко да заронимо у етику вештачке интелигенције и посебно на појаву машинског учења (МЛ) и дубоког учења (ДЛ).

Можда сте нејасно свесни да се један од најгласнијих гласова ових дана у пољу вештачке интелигенције, па чак и ван поља вештачке интелигенције, састоји у тражењу већег привида етичке вештачке интелигенције. Хајде да погледамо шта значи упућивање на етику вештачке интелигенције и етичку вештачку интелигенцију. Поврх тога, истражићемо шта мислим када говорим о машинском учењу и дубоком учењу.

Један посебан сегмент или део етике вештачке интелигенције који добија велику пажњу медија састоји се од вештачке интелигенције која показује непристрасне пристрасности и неједнакости. Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

За тренутак ћу поделити са вама неке свеобухватне принципе који су у основи етике вештачке интелигенције. Постоји много оваквих листа које лебде ту и тамо. Могло би се рећи да још увек не постоји јединствена листа универзалне привлачности и сагласности. То је несрећна вест. Добра вест је да барем постоје лако доступне листе етике вештачке интелигенције и да су обично прилично сличне. Све у свему, ово сугерише да путем неке врсте разумне конвергенције проналазимо пут ка општем заједништву онога од чега се састоји етика вештачке интелигенције.

Прво, хајде да укратко покријемо неке од укупних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде од виталног значаја за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења ће бити развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на АИ способности, укључујући транспарентне и проверљиве методологије, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Вратимо се нашем фокусу на АИ асиметрију.

Кратак резиме о моје горе поменуте три идентификоване препоруке је ово:

1) Постаните свесни да АИ Асиметрија постоји и расте

2) Настојте да осигурате да је АИ асиметрија ограничена етиком АИ

3) Покушајте да се изборите са АИ асиметријом тако што ћете се наоружати АИ

Размотрићемо поближе последњу тачку гашења ватре ватром.

Замислите да када сте тражили зајам, имали сте вештачку интелигенцију која је радила на вашој страни напора. Ово би могла бити апликација заснована на вештачкој интелигенцији на вашем паметном телефону која је осмишљена за добијање кредита. То није апликација једне од банака, већ је независно осмишљена да делује у ваше име. Детаљно сам описао ове врсте апликација у својој књизи о ботовима анђела чувара заснованим на вештачкој интелигенцији, види линк овде.

Када се пријавите за кредит, можете се позвати на ову апликацију док вас други АИ пролази кроз процес пријаве. Ова два система вештачке интелигенције су различита и потпуно одвојена један од другог. АИ на вашем паметном телефону је „обучена“ да зна све трикове које користи друга АИ. Као такви, одговори које унесете у АИ банке биће засновани на ономе што вам ваша АИ саветује.

Друга варијанта се састоји од тога да ваш АИ одговара на питања која поставља други АИ. Колико други АИ може да утврди, ви сте ти који уносите одговоре. Уместо тога, можда само посматрате како се одвијају интеракције између два система вештачке интелигенције која се боре. Ово вам омогућава да видите шта ваша АИ нуди. Штавише, потенцијално можете прилагодити своју АИ у зависности од тога да ли сте задовољни оним што ваша АИ ради у ваше име.

Предвидио сам да ћемо сви ми постепено постати наоружани АИ која ће бити на нашој страни у овим ситуацијама асиметрије АИ.

Хајде да размотримо како ће ово да функционише.

Ово су утицаји камена темељца на стање АИ асиметрије које сам изложио:

  • Изравнавање АИ асиметрије у вашу корист (води вас горе, надајући се да ћете достићи једнаке нивое)
  • Подстицање АИ асиметрије у вашу корист (подижући вас у предност када сте већ једнаки)
  • Јачање АИ асиметрије у вашу изузетну корист (стицање веће предности када је већ у предности)
  • Ненамерно подривање АИ асиметрије на вашу немилост (када сте имали већ постојећу предност и АИ вас је нехотице повукао)

Време је да дубоко зароните у ове интригантне могућности.

Изравнавање АИ асиметрије у вашу корист

Изједначавање асиметрије вештачке интелигенције је најочигледније и најчешће разматрано разматрање, наиме да бисте се наоружали вештачком интелигенцијом да бисте покушали да се упоредите са вештачком интелигенцијом коју користи друга страна у предмету о коме је реч. Поставка АИ Асиметрија почела је са вама у одлучној неповољној позицији. Ниси имао АИ у свом углу. Био си на ниској страни ствари. Друга страна је имала АИ и били су на вишем терену.

Дакле, мудро сте се наоружали вештачком интелигенцијом која би имала за циљ да вас и другу вештачку интелигенцију стави у једнаке услове.

Једна важна и можда изненађујућа нијанса коју треба имати на уму је да неће увек бити случај да ће системи вештачке интелигенције који се користе равномерно балансирати један против другог. Можете се наоружати вештачком интелигенцијом која је, можемо рећи, мање моћна од вештачке интелигенције коју користи друга страна. У том случају сте повећали своју лошу позицију, на срећу, иако сада нисте у потпуности једнаки са другом страном и њеном АИ.

Зато ово називам изравнавањем АИ асиметрије. Можда ћете моћи да смањите јаз, иако га не затворите у потпуности. Крајњи циљ би био да користите вештачку интелигенцију на вашој страни која ће вас довести у потпуно једнак положај. Ствар је у томе што ово може или не мора бити изводљиво. Друга страна би могла да има заиста скупу вештачку интелигенцију, а ви покушавате да се такмичите са штедљивом верзијом вештачке интелигенције.

Нису сви АИ исти.

Подстицање АИ асиметрије у вашу корист

Ова околност није нешто о чему се данас много расправља, делимично зато што је тренутно ретка. Једног дана, ово ће бити уобичајено. Идеја је да претпоставимо да сте без вештачке интелигенције, а ипак сте на једнаком терену са страном која има АИ.

Добро за тебе.

Људи имају своју памет о њима.

Али можда желите да стекнете предност у односу на другу страну. Наоружавање вештачком интелигенцијом води вас на више место. Сада имате своју памет и своју верну АИ у руци. Добили сте предност која ће вероватно превладати над АИ друге стране.

Јачање АИ асиметрије у вашу изузетну корист

Користећи сличну логику као аспект подстицања АИ асиметрије у ваше име, претпоставите да сте већ изнад могућности друге стране која користи АИ. Дакле, не почињете у једнаком положају. На срећу, већ сте на врху.

Можда бисте ипак желели да обезбедите још већу предност. Стога се наоружајте АИ. Ово вам ставља главу и рамена изнад друге стране.

Ненамерно подривање АИ асиметрије на вашу немилост

Сумњам да желите да чујете о овој могућности. Имајте на уму да бављење АИ није само руже и колачи од сладоледа.

Може бити да када се наоружате вештачком интелигенцијом, заправо поткопате себе. Ако сте већ били мањи од АИ друге стране, сада сте у дубљој рупи. Да сте били равноправни, сада сте у неповољнијем положају. Ако сте били изнад друге стране, сада сте једнаки или испод ње.

Како се то могло догодити?

Можда ћете бити шокирани када помислите да ће вас вештачка интелигенција коју усвојите одвести на криви пут. Ово би се лако могло догодити. Само зато што имате АИ у свом углу не значи да је користан. Можда користите вештачку интелигенцију и она пружа савете за које не мислите да су прикладни, али ипак одлучите да га прихватите. Ваша логика је у то време била да, пошто сте се потрудили да набавите АИ, могли бисте да се ослањате на њега.

АИ који користите можда је неисправан. Или је можда лоше осмишљено. Постоји низ разлога зашто вам вештачка интелигенција може давати несигурне савете. Они који слепо прихватају све што АИ каже да ураде сигурно ће се наћи у свету повређених. У својој колумни сам обрадио такве неприлике, као нпр линк овде.

Суштина је да нема апсолутно никакве гаранције да ћете само зато што се наоружате АИ победити у игри Асиметрија вештачке интелигенције.

Можда ћете доћи до једнаких услова. Можда ћете добити предност. И, на жалост, морате бити опрезни јер би могло бити да потонете на ниже нивое када сте наоружани АИ.

У извесној мери, зато су етика вештачке интелигенције и етичка вештачка интелигенција тако кључна тема. Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања о вештачкој интелигенцији и чинити то интегрално за развој вештачке интелигенције и њено коришћење је од виталног значаја за производњу одговарајуће вештачке интелигенције.

Поред примене етике вештачке интелигенције, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. У ствари, они унапред упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности. Погледајте на пример моје извештавање на линк овде линк овде.

У овом тренутку ове тешке дискусије, кладим се да сте жељни неких илустративних примера који би могли показати ову тему. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку дилему АИ је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава ишта о АИ асиметрији, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Самовозећи аутомобили и асиметрија вештачке интелигенције

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Надам се да то пружа довољан низ упозорења у основи онога што ћу сада да кажем.

Хајде да скицирамо сценарио који приказује АИ асиметрију.

Размислите о наизглед небитном питању где ће аутомобили који се сами возе лутати да покупе путнике. Ово изгледа као сасвим безазлена тема.

У почетку претпоставите да ће аутомобили који се сами возе АИ лутати по читавим градовима. Свако ко жели да затражи вожњу у самовозећем аутомобилу има у суштини једнаке шансе да га позове. Постепено, АИ почиње да првенствено држи самовозеће аутомобиле да лутају само у једном делу града. Овај одељак је већи извор новца и АИ је програмирана да покуша и максимално приходи као део употребе у заједници у целини (ово наглашава начин размишљања који лежи у основи оптимизације, наиме фокусирање само на једну одређену метрику и занемарујући друге кључне факторе у процесу).

Испоставило се да је мање вероватно да ће чланови заједнице у сиромашним деловима града моћи да се провозе аутомобилом који се самостално вози. То је зато што су самовозећи аутомобили били удаљенији и лутали су у делу града са већим приходима. Када стигне захтев из удаљеног дела града, сваки други захтев са ближе локације би добио већи приоритет. Коначно, доступност самовозећег аутомобила на било ком месту осим у богатијем делу града је скоро немогућа, што је ужасно за оне који су живели у тим областима које сада немају довољно ресурса.

Нестају хваљени снови о мобилности за све које би самовозећи аутомобили требало да оживе.

Могли бисте тврдити да је АИ у потпуности наишао на облик статистичке и рачунске пристрасности, сличан облику прокси дискриминације (која се такође често назива индиректна дискриминација). Схватите да вештачка интелигенција није програмирана да избегава та сиромашнија насеља. Да будемо јасни о томе у овом случају. Не, уместо тога је осмишљен да само оптимизује приход, што је наизглед прихватљив циљ, али то је урађено без да су програмери вештачке интелигенције размишљали о другим потенцијалним последицама. Та оптимизација је несвесно и неизбежно довела до нежељеног исхода.

Да су разматрања етике вештачке интелигенције укључили као део свог размишљања о оптимизацији, можда би унапред схватили да би, осим ако нису направили АИ да се носи са овом врстом превелике величине само на једној метрици, могли да избегну тако лоше резултате. За више о овим врстама проблема до којих ће највероватније доћи због широко распрострањеног прихватања аутономних возила и аутомобила који се сами возе, погледајте моје извештавање на овај линк овде, описујући студију коју је водио Харвард и коју сам коаутор о овим темама.

У сваком случају, претпоставите да је коњ већ изашао из штале и да ситуација није одмах подложна свеобухватним решењима.

Шта би могли да ураде они који желе да користе те аутомобиле који се сами возе?

Најочигледнији приступ био би рад са лидерима заједнице на томе да произвођач аутомобила или технолошка фирма која се сама вози да преиспита како су поставили АИ. Можда изврши притисак на било које дозволе или дозволе које су издате за распоређивање тих самовозећих аутомобила у том граду или граду. Ово су вероватно одржива средства за постизање позитивних промена, мада би могло да прође неко време пре него што ти напори уроде плодом.

Други угао би био да се наоружате АИ.

Замислите да је неко паметно осмислио апликацију засновану на вештачкој интелигенцији која ради на вашем паметном телефону и бави се вештачком интелигенцијом произвођача аутомобила или оператера возног парка који прима захтеве за вожњу. Могуће је да вештачка интелигенција коју користите експлоатише кључне елементе друге вештачке интелигенције тако да захтеву за аутомобил који се сами возите добијате повећан приоритет. Имајте на уму да не сугеришем да се дешава било шта незаконито, већ да је АИ на вашој страни развијена на основу откривених „карактеристика“ или чак рупа у закону у другој вештачкој интелигенцији.

Zakljucak

Прича о безобразној борби против вештачке интелигенције оператера флоте самовозећих аутомобила наоружавањем вештачком интелигенцијом изазива додатне контроверзе и разматрања етике вештачке интелигенције.

На пример:

  • Ако једна особа може да искористи вештачку интелигенцију да би јој дала предност у односу на вештачку интелигенцију неког другог система, колико далеко ово може ићи у смислу могућег преласка етичких граница АИ (убеђујем аутомобиле који се сами возе да дођу мени и мојим пријатељима, уз искључење свих осталих)?
  • Такође, да ли постоји било какав привид разматрања АИ етике да ако неко зна или је наоружан АИ да води битку са другом вештачком интелигенцијом, да ли би они преостали људи који немају ту балансирајућу вештачку интелигенцију на неки начин били упозорени на АИ и могли да се наоружају према томе такође?

На крају, све нас ово води у будућност која изгледа сабласно, а састоји се од трке у наоружању са вештачком интелигенцијом. Ко ће имати вештачку интелигенцију која им је потребна за кретање и преживљавање, а ко неће? Да ли ће увек бити још једна вештачка интелигенција која ће се појавити и изазвати потребу за противтежом АИ?

Карл Саган, поштовани научник, изнео је ову мудру мудрост о посебно катаклизмичним тркама у наоружању: „Трка у нуклеарном наоружању је као два заклета непријатеља који стоје до струка у бензину, један са три шибице, други са пет.

Морамо одлучно тежити томе да наша стопала буду сува и наше главе чисте када је у питању трка у наоружању која се стално назире.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/08/19/аи-етхицс-вари-абоут-ворсенинг-оф-аи-асимметри-амид-хуманс-геттинг-тхе-схорт-енд- од штапа/