Етика вештачке интелигенције и закон о вештачкој интелигенцији који појашњавају шта је у ствари веродостојна АИ

Поверење је све, тако кажу.

Познати филозоф Лао Це је рекао да се неће веровати онима који не верују довољно. Ернест Хемингвеј, цењени романописац, изјавио је да је најбољи начин да сазнате да ли некоме можете да верујете јесте да му верујете.

У међувремену, чини се да је поверење и драгоцено и крхко. Поверење које неко има може се срушити као кућа од карата или изненада пукнути као искочити балон.

Древни грчки трагичар Софокле је тврдио да поверење умире, али неповерење цвета. Француски филозоф и математичар Декарт је тврдио да је мудро никада не веровати у потпуности онима који су нас преварили макар једном. Милијардер, изванредни пословни инвеститор Ворен Бафет је подстицао да је потребно двадесет година да се изгради репутација од поверења и пет минута да се она уништи.

Можда ћете бити изненађени када знате да су сви ови различити погледи и провокативна мишљења о поверењу кључни за појаву вештачке интелигенције (АИ).

Да, постоји нешто што се оштро назива поуздан АИ који ових дана стално добија врашки велику пажњу, укључујући рукописне позиве из области вештачке интелигенције, као и бурне испаде оних изван домена вештачке интелигенције. Целокупни појам подразумева да ли ће друштво бити спремно да укаже поверење у системе вештачке интелигенције или не.

Вероватно, ако друштво неће или не може да верује АИ, шансе су да системи вештачке интелигенције неће успети. АИ какву тренутно познајемо биће гурнута у страну и само скупља прашину. Шокантно, вештачка интелигенција би могла да заврши на гомили смећа, историјски сведена на ништа друго до очајнички испробан, али спектакуларно неуспешан експеримент високе технологије. Сваки покушај да се поново оживи АИ потенцијално би се суочио са огромном тешком борбом и био би заустављен свим врстама приговора и директних протеста. Наводно, због недостатка поверења у АИ.

Шта ће бити, да ли да верујемо у АИ или да не верујемо у АИ?

У суштини, да ли ћемо заиста имати веродостојну вештачку интелигенцију?

То су досадашња и нерешена питања. Хајде да га распакујемо.

Етика вештачке интелигенције и борба за поуздану вештачку интелигенцију

Многи у оквиру вештачке интелигенције верују да програмери АИ система могу стећи поверење у вештачку интелигенцију тако што ће на одговарајући начин осмислити АИ која је поуздана. Суштина је да се не можете надати да ћете стећи поверење ако вештачка интелигенција није наизглед вредна поверења на почетку. Прављењем АИ система на начин који се сматра поузданим, постоји велика шанса да ће људи прихватити АИ и усвојити употребу АИ.

Једна недоумица која већ приговара овом веродостојном разматрању вештачке интелигенције је да смо можда већ у дефицит поверења јавности када је у питању АИ. Могло би се рећи да је вештачка интелигенција коју смо већ видели ископала рупу и разбацивала поверење у огромним количинама. Стога, уместо да почне на некој довољној бази поверења, АИ ће морати да се запањујуће извуче из дефицита, хватајући се за сваку жељену унцу додатног поверења која ће бити потребна да убеди људе да је АИ у ствари поуздана.

У овај изазов долази етика вештачке интелигенције и право вештачке интелигенције.

Етика вештачке интелигенције и право вештачке интелигенције у великој мери се боре са покушајем да схвате шта је потребно да би вештачка интелигенција постала поуздана. Неки сугеришу да постоји формула или гвоздени закони који ће одвести вештачку интелигенцију у веродостојна небеса. Други указују да ће бити потребан напоран рад и доследно и непопустљиво придржавање принципа етике вештачке интелигенције и закона о вештачкој интелигенцији да би се стекло хваљено поверење друштва.

Савремена енигма о поверењу у АИ није посебно нова сама по себи.

Лако се можете вратити у касне 1990-те и пратити појаву тражене жеље за „поузданим рачунарством“ из тих дана. Ово је био велики напор технолошке индустрије да се утврди да ли се компјутери све речено могу направити на начин који би друштво протумачило као поуздано.

Кључна питања су се састојала од:

  • Да ли је рачунарски хардвер могао бити направљен тако да буде поуздан?
  • Да ли се софтвер може направити тако да буде поуздан?
  • Да ли бисмо могли да поставимо глобално умрежене рачунаре који би били поуздани?
  • И тако даље.

Тада преовлађујући осећај и који се наставља до данас јесте да поуздано рачунарство остаје врста светог грала који нажалост још увек није сасвим на дохват руке (као што је наведено у раду под насловом „Поуздана АИ” у Комуникације АЦМ-а). Могли бисте убедљиво тврдити да је АИ још једна компонента окружења поузданости рачунара, али АИ чини потрагу за поверењем још изазовнијом и неизвеснијом. АИ је постао потенцијални спојлер у борби за постизање поузданог рачунарства. Можда најслабија карика у ланцу, такорећи.

Хајде да на брзину погледамо зашто је вештачка интелигенција изазвала забринутост због тога што је мање од поверења. Поред тога, истражићемо принципе етике вештачке интелигенције за које се надамо да ће помоћи у поткрепљивању већ полу-подводног перципираног поверења (или неповерења које буја) данашње вештачке интелигенције. За моје текуће и опсежно покривање етике вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Један посебан сегмент или део етике вештачке интелигенције који добија велику пажњу медија састоји се од вештачке интелигенције која показује непристрасне пристрасности и неједнакости. Можда сте свесни да је када је почела најновија ера вештачке интелигенције дошло до огромног налета ентузијазма за оно што неки сада називају AI za dobro. Нажалост, за петама тог бујног узбуђења, почели смо да свједочимо AI za loše. На пример, откривено је да различити системи за препознавање лица засновани на вештачкој интелигенцији садрже расне и родне предрасуде, о чему сам говорио на линк овде.

Напори за узврат AI za loše су активно у току. Поред гласног правни настојања да се обузда злодела, постоји и суштински подстицај ка прихватању етике вештачке интелигенције како би се исправила подлост АИ. Идеја је да треба да усвојимо и подржимо кључне етичке принципе вештачке интелигенције за развој и постављање АИ, чинећи то да поткопамо AI za loše и истовремено најављујући и промовишући пожељно AI za dobro.

У вези с тим, ја сам заговорник покушаја да се АИ користи као део решења за невоље АИ, борећи се са ватром ватром на тај начин размишљања. На пример, могли бисмо да уградимо компоненте етичке вештачке интелигенције у систем вештачке интелигенције који ће пратити како остатак АИ ради ствари и на тај начин потенцијално ухватити у реалном времену све дискриминаторске напоре, погледајте моју дискусију на линк овде. Такође бисмо могли да имамо посебан систем вештачке интелигенције који делује као врста монитора етике вештачке интелигенције. Систем вештачке интелигенције служи као надзорник за праћење и откривање када друга вештачка интелигенција иде у неетички понор (погледајте моју анализу таквих способности на линк овде).

За тренутак ћу поделити са вама неке свеобухватне принципе који су у основи етике вештачке интелигенције. Постоји много оваквих листа које лебде ту и тамо. Могло би се рећи да још увек не постоји јединствена листа универзалне привлачности и сагласности. То је несрећна вест. Добра вест је да барем постоје лако доступне листе етике вештачке интелигенције и да су обично прилично сличне. Све у свему, ово сугерише да путем неке врсте разумне конвергенције проналазимо пут ка општем заједништву онога од чега се састоји етика вештачке интелигенције.

Прво, хајде да укратко покријемо неке од укупних етичких правила вештачке интелигенције како бисмо илустровали шта би требало да буде од виталног значаја за свакога ко прави, користи или користи вештачку интелигенцију.

На пример, како наводи Ватикан у Рим позива на етику вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових идентификованих шест примарних етичких принципа АИ:

  • Транспарентност: У принципу, АИ системи морају бити објашњиви
  • Укључење: Потребе свих људских бића морају се узети у обзир како би сви могли имати користи, а свим појединцима могу бити понуђени најбољи могући услови за изражавање и развој
  • Одговорност: Они који дизајнирају и примењују коришћење вештачке интелигенције морају да поступе са одговорношћу и транспарентношћу
  • Непристрасност: Не стварајте и не поступајте у складу са пристрасношћу, штитећи на тај начин правичност и људско достојанство
  • Поузданост: АИ системи морају бити у стању да поуздано раде
  • Безбедност и приватност: Системи вештачке интелигенције морају да раде безбедно и да поштују приватност корисника.

Како наводи Министарство одбране САД (ДоД) у свом Етички принципи за коришћење вештачке интелигенције и као што сам детаљно обрадио на линк овде, ово је њихових шест примарних етичких принципа АИ:

  • Одговорни: Особље Министарства одбране ће применити одговарајуће нивое расуђивања и бриге, док ће остати одговорно за развој, примену и коришћење способности вештачке интелигенције.
  • правичан: Одељење ће предузети намерне кораке да минимизира ненамерну пристрасност у способностима вештачке интелигенције.
  • следљиво: АИ способности Одељења ће бити развијене и распоређене тако да релевантно особље поседује одговарајуће разумевање технологије, развојних процеса и оперативних метода применљивих на АИ способности, укључујући транспарентне и проверљиве методологије, изворе података и процедуру и документацију дизајна.
  • Поуздано: АИ способности Одељења ће имати експлицитну, добро дефинисану употребу, а безбедност, безбедност и ефикасност таквих способности биће предмет тестирања и уверавања у оквиру тих дефинисаних употреба током читавог њиховог животног циклуса.
  • којим се може управљати: Одељење ће дизајнирати и конструисати АИ способности да испуне своје предвиђене функције, истовремено поседујући способност откривања и избегавања нежељених последица, као и способност да искључи или деактивира распоређене системе који показују ненамерно понашање.

Такође сам расправљао о различитим колективним анализама етичких принципа АИ, укључујући покривање скупа који су осмислили истраживачи који су испитивали и сажимали суштину бројних националних и међународних етичких начела АИ у раду под насловом „Глобални пејзаж етичких смерница АИ“ (објављен ин Природа), и које моје покривање истражује на линк овде, што је довело до ове кључне листе:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Као што можете директно претпоставити, покушај да се утврде специфичности које леже у основи ових принципа може бити изузетно тежак. Штавише, напор да се ти широки принципи претворе у нешто сасвим опипљиво и довољно детаљно да се користи при изради АИ система такође је тврд орах. Лако је генерално мало рећи шта су етичка правила вештачке интелигенције и како их генерално треба поштовати, док је много компликованија ситуација у кодирању вештачке интелигенције да мора да буде права гума која излази на пут.

Принципе етике вештачке интелигенције треба да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима вештачке интелигенције, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније речено, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упознато и да се придржава етичких прописа АИ.

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Хајде да ово повежемо са питањем о веродостојној вештачкој интелигенцији

Чини се да свакако не бисмо били вољни да верујемо АИ која показује негативне предрасуде и дискриминаторне радње. Наше уверење би, у том случају, било да таква вештачка интелигенција дефинитивно није вредна поверења, па бисмо се склонили ка активном неповерењу АИ. Без претјеривања са антропоморфним поређењем (за тренутак ћу рећи више о антропоморфизацији АИ), човек који је показао непристрасне пристрасности такође би подлегао оцењивању као да није посебно поуздан.

Копање у поверење и поузданост

Можда би требало да погледамо шта мислимо када тврдимо да верујемо или не верујемо некоме или нечему. Прво, размотрите неколико свакодневних речничких дефиниција поверења.

Примери онога што поверење дефинитивно значи су:

  • Осигурано ослањање на карактер, способност, снагу или истину некога или нечега (Мерриам-Вебстер онлајн речник).
  • Ослањање на интегритет, снагу, способност, гаранцију, итд., особе или ствари (Дицтионари.цом)
  • Чврсто уверење у поузданост, истину, способност или снагу некога или нечега (Окфорд Лангуагес онлајн речник).

Желео бих да истакнем да се све те дефиниције односе на „некога“, а такође и на „нешто“ као на потенцијално поуздано. Ово је значајно јер би неки могли инсистирати да верујемо само људима и да је чин поверења резервисан искључиво за човечанство као нашу мету од поверења. Не тако. Можете имати поверења у свој кухињски тостер. Ако вам се чини да поуздано прави тост и ради рутински на томе, сигурно можете имати привид поверења у то да ли је тостер заиста поуздан.

У том истом правцу размишљања, АИ такође може бити предмет нашег становишта поверења. Шансе су да ће поверење повезано са вештачком интелигенцијом бити много компликованије од, рецимо, обичног тостера. Тостер обично може да уради само неколико радњи. Систем вештачке интелигенције ће вероватно бити много сложенији и чини се да делује мање транспарентно. Наша способност да проценимо и утврдимо веродостојност АИ ће сигурно бити много тежа и понудити различите изазове.

Осим што је само сложенији, каже се да је типични систем вештачке интелигенције недетерминистички и потенцијално саморегулишући или самоприлагођавајући. Можемо укратко истражити тај појам.

Детерминистичка машина има тенденцију да ради исте ствари изнова и изнова, предвидљиво и са видљивим обрасцем како функционише. Могли бисте рећи да обични тостер тостира отприлике на исти начин и да има контроле за тостирање које ублажују тостирање, а све то је генерално предвидљиво од стране особе која користи тостер. Насупрот томе, сложени системи вештачке интелигенције често су осмишљени да буду недетерминистички, што значи да могу да раде сасвим другачије ствари од онога што бисте иначе очекивали. Ово би се делимично могло додатно појачати ако је АИ написана да се самоприлагођава, што је аспект који може повољно омогућити АИ да се побољша у случају МЛ/ДЛ, иако такође може узнемирујуће узроковати да АИ посустане или уђе у редове АИ лоше. Можда не знате шта вас је погодило, на неки начин, јер сте били потпуно неспремни поступцима АИ.

Шта можемо да урадимо да покушамо да АИ приближимо поузданости?

Један приступ се састоји у покушају да се осигура да се они који граде и користе АИ придржавају скупа етичких правила АИ. Као што су поменули ови истраживачи АИ: „Поверење је став да ће се агент понашати како се очекује и да се на њега може ослонити да би постигао свој циљ. Поверење се распада након грешке или неспоразума између агента и појединца од поверења. Психолошко стање поверења у вештачку интелигенцију је ново својство сложеног система, које обично укључује много циклуса пројектовања, обуке, примене, мерења перформанси, регулације, редизајнирања и преобуке“ (наведено у Комуникације АЦМ-а, „Поверење, регулација и вештачка интелигенција човека у петљи у европском региону“ Стјуарта Мидлтона, Емануела Летуза, Алија Хосаинија и Адријане Чепман, април 2022.).

Суштина је у томе да ако успемо да натерамо програмере вештачке интелигенције да се придржавају етичке вештачке интелигенције, надамо се да ће на крају произвести поуздану вештачку интелигенцију. Све је ово добро и добро, али изгледа помало непрактично у стварном свету, иако је то апсолутно пут који вреди следити.

Ево на шта мислим.

Претпоставимо да су програмери вештачке интелигенције уложили марљив напор који праве АИ систем за неку сврху коју ћемо генерално назвати Кс. Они пажљиво воде рачуна да АИ поштује прописе о транспарентности етике вештачке интелигенције. Они пажљиво осигуравају да приватност буде на одговарајући начин уграђена у АИ. За скоро све уобичајене принципе етике вештачке интелигенције, градитељи вештачке интелигенције исцрпно обезбеђују да АИ испуњава дато правило.

Да ли сада треба да верујете тој вештачкој интелигенцији?

Дозволите ми да вам помогнем да проникнем ваше мисли о том отвореном питању.

Испоставило се да су сајбер преваранти успели да се инфилтрирају у вештачку интелигенцију и подмукло натерају АИ да изврши Кс, а ипак да нахрани сајбер хакере свим подацима које АИ прикупља. Чинећи то, ови злотвори подмукло поткопавају правило приватности. Ви блажено нисте свесни да се ово дешава испод хаубе вештачке интелигенције.

Уз ту додатну информацију, поново ћу вам поставити исто питање.

Верујете ли тој АИ?

Усуђујем се да кажем да би већина људи одмах изјавила да сигурно јесте не верујте овом конкретном АИ. Можда су му веровали раније. Они сада одлучују да више не сматрају АИ поузданом.

Неколико кључних увида заснованих на овом једноставном примеру вреди разматрања:

  • Динамика поверења. Чак ни најбоље намере да се покрију све основе обезбеђивања да је АИ етика уграђена у систем вештачке интелигенције нису гаранција шта би АИ могла да буде или да постане. Једном када се АИ стави у употребу, аутсајдери могу потенцијално да поткопају етичку АИ прираст.
  • Подривање поверења изнутра. Чин поткопавања поверења не мора нужно бити аутсајдер. Инсајдер који редовно одржава систем вештачке интелигенције могао би да погреши и ослаби АИ тако да буде мање поуздан. Овај АИ програмер можда нема појма шта су урадили.
  • Ненамерни компромиси поверења. Самоподешавајући или саморегулишући АИ би се у неком тренутку могао прилагодити и скренути на непоуздану територију. Можда АИ покушава да ојача транспарентност АИ, а истовремено и неприкладно компромитује аспекте приватности.
  • Сцаттеринг Оф Труст. Покушај да се сви принципи етике вештачке интелигенције постигну до истог највећег степена поузданости обично није лако одржив јер су често у различитим сврхама или имају друге инхерентне потенцијалне сукобе. Прилично је идеализована перспектива веровати да су сви етички прописи вештачке интелигенције сањиво усклађени и да су сви достижни до неког једнаког максималног степена.
  • Поверење може бити скупо за постизање. Цена покушаја да се постигне врхунски изглед веродостојне вештачке интелигенције кроз предузимање различитих опсежних и исцрпних корака и поштовање низа принципа етике вештачке интелигенције биће релативно висока. Можете лако да тврдите да би цена била превисока у смислу пуштања у употребу неких система вештачке интелигенције који иначе имају важну вредност за друштво, чак и да је вештачка интелигенција, рећи ћемо мање него идеална, из жеље за поузданошћу.
  • И тако даље.

Немојте погрешно тумачити претходне напомене како бисмо сугерисали да би некако требало да спречимо напор да темељно изградимо и применимо веродостојну АИ. Избацили бисте бебу са водом за купање, такорећи. Правилно тумачење је да морамо да урадимо те активности поверења да бисмо АИ довели у разматрање од поверења, а ипак то само по себи није лек за све или сребрни метак.

Вишеструки путеви до поуздане вештачке интелигенције

Постоје важни додатни вишеструки начини да се тежи ка веродостојној вештачкој интелигенцији.

На пример, као што сам раније поменуо у својим колумнама, безброј новонасталих закона и прописа који се тичу вештачке интелигенције има за циљ да подстакне произвођаче вештачке интелигенције ка осмишљавању веродостојне АИ, види линк овде линк овде.

Ове законске ограде су кључне као свеобухватно средство да се осигура да они који осмишљавају АИ буду у потпуности одговорни за своју АИ. Без оваквих потенцијалних правних лекова и законитих казни, они који вребају вештачку интелигенцију на тржиште ће вероватно наставити да то чине са мало, ако икаквим озбиљним занимањем за постизање веродостојне вештачке интелигенције. Могао бих посебно да додам да ако су ти закони и прописи лоше осмишљени или неадекватно спроведени, они би, на жалост, могли да поткопају потрагу за веродостојном вештачком интелигенцијом, можда иронично и чудно подстичући непоуздану АИ у односу на веродостојну АИ (погледајте моје дискусије у колумни за даље објашњење).

Такође сам био упорни заговорник онога о чему сам горљиво говорио АИ ботови анђео чувар (погледајте моју покривеност на линк овде). Ово је надолазећи метод или приступ покушаја борбе против ватре ватром, односно коришћење вештачке интелигенције да нам помогне да се носимо са другом вештачком интелигенцијом која може или не мора бити поуздана.

Прво, неки контекст у позадини ће бити користан.

Претпоставимо да се одлучите да се ослоните на АИ систем за који нисте сигурни у његову поузданост. Кључна брига може бити да сте сами у својим покушајима да откријете да ли АИ треба веровати или не. АИ је потенцијално рачунарски бржа од вас и може вас искористити. Треба вам неко или нешто на вашој страни да вам помогне.

Једна перспектива је да увек треба да постоји човек у петљи који ће вам помоћи док користите АИ систем. Ово је ипак проблематично решење. Ако АИ ради у реалном времену, о чему ћемо тренутно разговарати када је у питању појава самовозећих аутомобила заснованих на вештачкој интелигенцији, постојање човека у петљи можда неће бити довољно. АИ би могао да делује у реалном времену и до тренутка када одређени човек у петљи уђе у слику да схвати да ли вештачка интелигенција ради исправно, катастрофалан резултат би се већ могао десити.

На страну, ово доноси још један фактор поверења. Обично додељујемо ниво поверења на основу контекста или околности са којима се суочавамо. Можда у потпуности верујете свом малом сину или ћерки да ће вам бити верни, али ако сте на планинарењу и одлучите да се ослоните на дете да вам каже да ли је безбедно крочити на ивицу литице, мислим да бисте били мудри да размисли да ли малишан може да пружи такву врсту савета на живот или смрт. Дете то може чинити озбиљно и искрено, а ипак не може на адекватан начин дати такав савет.

Исти појам је повезан са поверењем када је у питању АИ. Систем вештачке интелигенције који користите за играње даме или шаха вероватно није укључен ни у какво размишљање о животу или смрти. Можете бити лакши са својим додељивањем поверења. Самовозећи аутомобил заснован на вештачкој интелигенцији који се креће низ аутопут при великим брзинама захтева много већи ниво поверења. Најмањи пропуст система за вожњу са вештачком интелигенцијом може довести директно до ваше смрти и смрти других.

У објављеном интервјуу Беене Амманатх, извршног директора Глобал Делоитте АИ института и аутора књиге Поуздана АИ, сличан нагласак на разматрању контекстуалних аспеката у којима долази до изражаја веродостојност АИ: „Ако градите АИ решење које врши дијагностику пацијената, правичност и пристрасност су веома важни. Али ако градите алгоритам који предвиђа квар млазног мотора, правичност и пристрасност нису толико важни. Поуздана АИ је заиста структура која ће вас навести да почнете да размишљате о димензијама поверења у вашој организацији” (ВентуреБеат22. марта 2022.).

Када разговарате о веродостојној вештачкој интелигенцији, ову тему можете тумачити на много начина.

На пример, поуздан АИ је нешто на шта сви гледамо као на пожељан и аспиративни циљ, наиме да треба да будемо жељни осмишљавања и објављивања веродостојне вештачке интелигенције. Постоји још једна употреба ове фразе. Донекле алтернативна употреба је то поуздан АИ је стање или мерење, тако да неко може да тврди да је направио АИ систем који је пример веродостојне АИ. Такође можете користити фразу поуздан АИ да предложи метод или приступ који се може користити за постизање веродостојности АИ. итд.

С тим у вези, верујем да схватате да нису сви АИ исти и да морамо имати на уму да не дајемо опште изјаве о целој АИ. Одређени АИ систем ће се вероватно значајно разликовати од другог АИ система. Један од тих система вештачке интелигенције може бити веома поуздан, док би други могао бити маргинално поуздан. Будите опрезни у претпоставци да је вештачка интелигенција монолит који је или потпуно поуздан или потпуно неповерљив.

Ово једноставно није случај.

Желео бих следеће да укратко покријем нека од мојих текућих истраживања о веродостојној вештачкој интелигенцији која би вам могла бити занимљива, покривајући насталу улогу АИ ботови анђео чувар.

Ево како то иде.

Били бисте наоружани АИ системом (АИ бот анђео чувар) који је осмишљен да процени поузданост неког другог АИ система. АИ бот анђео чувар има највећи фокус на вашој безбедности. Замислите ово као да имате средства да надгледате вештачку интелигенцију на коју се ослањате тако што имате другачији АИ систем у свом правом џепу, који можда ради на вашем паметном телефону или другим сличним уређајима. Ваш пословични чувар вештачке интелигенције може да израчуна на основу тога што ради и АИ на коју се ослањате, радећи великом брзином и израчунавајући ситуацију у реалном времену, далеко брже него што би то могао да уради човек у петљи.

Можда на први поглед мислите да би вештачка интелигенција на коју се већ ослањате требало да има нешто унутрашњи АИ заштитне ограде које раде исто што и овај бот анђео чувар који посебно израчунава АИ. Да, то би свакако било пожељно. Једна недоумица је да АИ заштитне ограде уграђене у АИ систем могу бити интегрално и предрасуде усклађене са АИ пер се, тако да наводна АИ заштитна ограда више није у стању да на неки начин независно верификује или валидира АИ.

Контрастна идеја је да је ваш АИ бот анђео чувар независан или АИ механизам треће стране који се разликује од АИ на коју се ослањате. Он се налази изван друге АИ, остаје посвећен вама, а не посвећен АИ који се надгледа или процењује.

Једноставан начин размишљања о овоме може се изразити путем следећих поједностављених изјава налик једначинама. Могли бисмо рећи да „П“ жели да потенцијално верује „Р“ да уради одређени задатак „Кс“:

Ово би било следеће када су укључени само људи:

  • Особа П верује особи Р да уради задатак Кс.

Када одлучимо да се ослонимо на АИ, изјава се преобликује у ово:

  • Особа П верује АИ инстанци-Р да обави задатак Кс.

Можемо додати АИ бота анђела чувара тако што ћемо рећи ово:

  • Особа П верује АИ инстанци-Р да обави задатак Кс под надзором АИ инстанце бота-З

АИ бот анђео чувар неуморно и немилосрдно процењује АИ на коју се ослањате. Као такав, ваш згодан АИ чувар може вас упозорити да је поверење ове друге АИ неоправдано. Или, старатељ вештачке интелигенције може електронски да комуницира са другом вештачком интелигенцијом како би покушао да осигура да се било која одступања од веродостојности брзо исправи, и тако даље (погледајте моје извештавање о таквим детаљима на линк овде).

Метафора резервоара поверења

Пошто говоримо о различитим нивоима поверења, можда ћете наћи корисну метафору о веродостојности схватајући поверење као врсту резервоара.

Имате одређену количину поверења у одређену особу или ствар у одређеним околностима у одређеном тренутку. Ниво поверења ће расти или пасти, у зависности од тога шта се још дешава у вези са том особом или стварима. Поверење може бити на нултом нивоу када немате никаквог поверења у особу или ствар. Поверење може бити негативно када се упустите у неповерење према тој особи или ствари.

У случају система вештачке интелигенције, ваш резервоар поверења за одређену вештачку интелигенцију на коју се ослањате у одређеним околностима ће порасти или пасти у зависности од тога да ли процените веродостојност АИ. Понекад сте можда добро свесни овог различитог нивоа поверења у вештачку интелигенцију, док у другим случајевима можете бити мање свесни, а више због наговештаја доношења судова о веродостојности.

Начини на које смо овде расправљали о средствима за повећање нивоа поверења за АИ укључују:

  • Поштовање етике вештачке интелигенције. Да је вештачка интелигенција на коју се ослањате осмишљена покушавајући да се придржава одговарајућих етичких правила вештачке интелигенције, вероватно бисте користили ово разумевање да повећате ниво свог резервоара поверења за тај одређени систем вештачке интелигенције. Као споредна напомена, такође је могуће да ћете генерализовати на друге системе вештачке интелигенције у погледу њихове поузданости, иако то понекад може бити погрешан облик онога што ја називам Аура поверења АИ се шири (будите опрезни у томе!).
  • Користите Хуман-Ин-Тхе-Лооп. Ако вештачка интелигенција има човека у петљи, можете позитивно да допринесете свом уоченом поверењу у АИ.
  • Успоставити законе и прописе. Ако постоје закони и прописи повезани са овом врстом вештачке интелигенције, такође бисте могли да повећате ниво поверења.
  • Запослите АИ бота Анђела чувара. Ако имате спремног бота анђела чувара са вештачком интелигенцијом, и ово ће додатно повећати ваш ниво поверења.

Као што је раније поменуто, поверење може да буде прилично крхко и да се распадне у трену (тј. резервоар поверења брзо и изненада избаци све изграђено поверење).

Замислите да се налазите у самовозећем аутомобилу заснованом на вештачкој интелигенцији, а вожња вештачке интелигенције изненада скреће удесно, изазивајући шкрипу точкова и скоро присиљавајући аутономно возило да се опасно преврне. Шта би се десило са вашим нивоом поверења? Чини се да чак и ако сте претходно држали АИ на повишеном нивоу поверења, драматично и нагло бисте спустили ниво поверења, разумно.

У овом тренутку ове тешке дискусије, кладим се да желите додатне илустративне примере који би могли да покажу природу и обим веродостојне вештачке интелигенције. Постоји посебан и сигурно популаран скуп примера који су ми блиски. Видите, у мом својству стручњака за вештачку интелигенцију, укључујући етичке и правне последице, од мене се често тражи да идентификујем реалне примере који приказују дилеме етике вештачке интелигенције како би се донекле теоријска природа теме могла лакше схватити. Једна од најзанимљивијих области која живописно представља ову етичку недоумицу са вештачком интелигенцијом је појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији. Ово ће послужити као згодан случај употребе или пример за широку дискусију о овој теми.

Ево онда важног питања о којем вреди размислити: Да ли појава правих самовозећих аутомобила заснованих на вештачкој интелигенцији осветљава ишта о потрази за веродостојном вештачком интелигенцијом, и ако јесте, шта ово показује?

Дозволите ми тренутак да распакујем питање.

Прво, имајте на уму да не постоји људски возач који је укључен у прави ауто који самостално вози. Имајте на уму да се истински самовозећи аутомобили возе преко АИ система за вожњу. Не постоји потреба за људским возачем за воланом, нити је предвиђено да човек управља возилом. За моју опсежну и сталну покривеност аутономних возила (АВ) и посебно аутомобила који се сами возе, погледајте линк овде.

Желео бих да додатно разјасним шта се мисли када говорим о правим самовозећим аутомобилима.

Разумевање нивоа самоуправних аутомобила

Као појашњење, истински самовозећи аутомобили су они у којима АИ вози аутомобил потпуно сам и нема никакве људске помоћи током задатка вожње.

Ова возила без возача се сматрају нивоом 4 и нивоом 5 (погледајте моје објашњење на овај линк овде), док се аутомобил за који је потребан људски возач да заједнички дели напор у вожњи обично сматра нивоом 2 или 3. Аутомобили који заједнички деле задатак вожње описани су као полуаутономни и обично садрже различите аутоматизовани додаци који се називају АДАС (Напредни системи за помоћ возачу).

Још увек не постоји прави самовозећи аутомобил на нивоу 5, а ми још не знамо ни да ли ће то бити могуће постићи, нити колико ће времена требати да се стигне тамо.

У међувремену, напори Нивоа 4 постепено покушавају да стекну одређену вучу пролазећи кроз веома уска и селективна испитивања на јавном путу, иако постоје контроверзе око тога да ли ово тестирање треба дозволити само по себи (сви смо ми заморци на живот или смрт у експерименту који се дешавају на нашим аутопутевима и споредним путевима, неки тврде, погледајте моје извештавање на овај линк овде).

С обзиром да је за полуаутономне аутомобиле потребан људски возач, усвајање тих типова аутомобила неће се знатно разликовати од вожње конвенционалних возила, тако да нема много новог што би се само по себи могло покрити на ову тему (мада, као што ћете видјети у тренутку, следеће постављене тачке су углавном применљиве).

За полуаутономне аутомобиле важно је да јавност буде упозорена на узнемирујући аспект који се појављује у последње време, наиме да упркос оним људским возачима који стално објављују видео записе како заспају за воланом аутомобила нивоа 2 или нивоа 3 сви ми морамо да избегнемо да будемо заведени да верујемо да возач може да им одузме пажњу током вожње током вожње полуаутономног аутомобила.

Ви сте одговорна страна за радње у возилу, без обзира на то колико се аутоматизација може убацити у ниво 2 или ниво 3.

Аутомобили који се сами возе и АИ од поверења

За права возила са самосталним управљањем нивоа 4 и ниво 5 неће бити људског возача који је укључен у задатак вожње.

Сви путници биће путници.

АИ вози вожњу.

Један аспект о којем треба одмах разговарати подразумева чињеницу да АИ укључен у данашње системе АИ вожње није осећајан. Другим речима, АИ је у целини колектив рачунарског програмирања и алгоритама, и сигурно није у стању да расуђује на исти начин на који то могу људи.

Зашто овај додатни нагласак на томе да АИ није свестан?

Зато што желим да подвучем да, када расправљам о улози система за управљање АИ, не приписујем људске особине АИ. Имајте на уму да данас постоји стална и опасна тенденција антропоморфизације АИ. У суштини, људи данашњој уметничкој интелигенцији додељују осећај сличан човеку, упркос непорецивој и неспорној чињеници да још увек не постоји такав уметни интелигенција.

Уз то појашњење, можете да замислите да систем управљања уметном интелигенцијом неће некако „знати“ о аспектима вожње. Вожња и све што то подразумева мораће да се програмирају као део хардвера и софтвера самовозећег аутомобила.

Заронимо у безброј аспеката који се играју на ову тему.

Прво, важно је схватити да нису сви самовозећи аутомобили са вештачком интелигенцијом исти. Сваки произвођач аутомобила и технолошка фирма која се самостално вози користи свој приступ осмишљавању аутомобила који се самостално возе. Као такав, тешко је дати свеобухватне изјаве о томе шта ће АИ системи за вожњу учинити или не.

Штавише, кад год констатују да систем управљања АИ не ради неку посебну ствар, то касније могу преузети и програмери који у ствари програмирају рачунар да то уради. Корак по корак, системи вожње АИ се постепено побољшавају и проширују. Постојеће ограничење данас можда више неће постојати у будућој итерацији или верзији система.

Верујем да то пружа довољно литанија упозорења да поткријепи оно о чему ћу говорити.

Сада смо спремни да дубоко заронимо у самовозеће аутомобиле и поуздану вештачку интелигенцију.

Поверење је све, посебно у случају самовозећих аутомобила заснованих на вештачкој интелигенцији.

Чини се да друштво опрезно гледа на појаву самовозећих аутомобила. С једне стране, постоји велика нада да ће појава правих самовозећих аутомобила доказано смањити број годишњих смртних случајева повезаних са аутомобилима. Само у Сједињеним Државама има око 40,000 смртних случајева годишње и око 2.5 милиона повређених услед саобраћајних несрећа, погледајте моју колекцију статистике на линк овде. Људи пију и возе. Људи возе док су расејани. Чини се да се задатак вожње аутомобила састоји од тога да се може стално и непогрешиво фокусирати на вожњу и избегавати саобраћајне несреће. Као такви, могли бисмо се сањарити надати да ће АИ системи за вожњу стално и непогрешиво водити аутомобиле који се сами возе. Аутомобиле који се самостално возе можете схватити као двојку, која се састоји од смањења броја смртних случајева и повреда у саобраћајним несрећама, уз потенцијално омогућавање мобилности на много широј и приступачнијој основи.

Али забринутост у међувремену надвија се над перцепцијом друштва да ли ће аутомобили који се сами возе бити довољно безбедни да буду на нашим јавним путевима уопште.

Ако чак и један самовозећи аутомобил дође до судара или судара који доведе до једне смрти или тешке повреде, вероватно можете очекивати да ће данашње донекле изграђено поверење према тим аутомобилима без возача заснованим на вештачкој интелигенцији нагло пасти. Видели смо да се ово догодило када се сада већ злогласни инцидент догодио у Аризони који је укључивао помало (не баш) самовозећи аутомобил који је налетео на пешака и убио пешака (погледајте моје извештавање на овај линк овде).

Неки стручњаци истичу да је неправедно и неприкладно заснивати поверење у самовозеће аутомобиле са вештачком интелигенцијом на аспекту да би само један такав следећи судар или судар са смртним исходом могао поткопати већ релативно без судара испитивање јавног пута. Поред тога, на даље неправедној основи, изгледи су да без обзира на то која марка или модел самовозећих аутомобила са вештачком интелигенцијом буде уплетен у тужан инцидент, друштво би несумњиво окривило све марке самовозећих аутомобила.

Целокупни аутомобили који се сами возе могли би бити потпуно запрљани и индустрија као целина би могла да претрпи огромну реакцију која би довела до могућег гашења свих испитивања на јавном путу.

Допринос таквом повратку налазе се у бесмисленим изјавама отворених заговорника самовозећих аутомобила да ће сви аутомобили без возача бити неударни. Ова идеја да се не може срушити није само потпуно погрешна (види линк овде), подмукло поставља индустрију самовозећих аутомобила за потпуно необичан скуп очекивања. Ове необичне и недостижне изјаве да ће бити нула смртних случајева због самовозећих аутомобила подстичу заблуду да су било какве несреће аутомобила без возача сигуран знак да су цео комплет и кабоодле узалуд.

Постоји изразита туга када схватимо да би напредак ка аутомобилима који се сами возе и акумулација друштвеног поверења у једном тренутку могли да нестану у трену. То ће бити прави доказ о крхкости поверења.

Zakljucak

Многи произвођачи аутомобила и самовозеће технолошке компаније генерално се придржавају принципа етике вештачке интелигенције, чинећи то како би покушали да изграде и користе веродостојну АИ у смислу безбедних и поузданих самовозећих аутомобила заснованих на вештачкој интелигенцији. Имајте на уму да су неке од тих фирми јаче и више посвећене етичким правилима вештачке интелигенције од других. Постоје и повремени стартупи везани за самовозеће аутомобиле за почетнике или почетнике који одбацују велики део камена темељца етике вештачке интелигенције (погледајте моју рецензију на линк овде).

На другим фронтовима, нови закони и прописи који покривају самовозеће аутомобиле постепено се стављају у правне књиге. Друга ствар је да ли имају потребне зубе да их подупру, као и да ли се примена тих закона схвата озбиљно или занемарује (погледајте моје колумне за анализу о томе).

Постоји и угао високе технологије за ово. Предвидио сам да ћемо постепено видети варијанте АИ робота анђела чувара који ће доћи до изражаја у арени аутономних возила и самовозећих аутомобила. Још нисмо тамо. Ово ће постати распрострањеније када популарност самовозећих аутомобила постане раширенија.

Ова последња тачка доноси чувену реченицу о поверењу коју несумњиво већ знате напамет.

Верујте, али проверите.

Можемо себи дозволити да повећамо своје поверење, можда великодушно. У међувремену, такође би требало да посматрамо као јастреб како бисмо били сигурни да је поверење које стварамо потврђено и речима и делима. Хајде да ставимо мало поверења у вештачку интелигенцију, али бесконачно проверимо да ли своје поверење полажемо на одговарајући начин и широм отворених очију.

Можете ми веровати у томе.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/10/16/аи-етхицс-анд-аи-лав-цларифиинг-вхат-ин-фацт-ис-труствортхи-аи/