Етика вештачке интелигенције и закон о вештачкој интелигенцији који важе кључне начине за имплементацију недавно објављене Повеље о правима вештачке интелигенције, укључујући и запањујуће коришћењем АИ отворено

Нема сумње да су нам нацрти потребни у свакодневном животу.

Ако намеравате да изградите ту своју дуго замишљену кућу из снова, било би мудро да прво саставите употребљив нацрт.

Нацрт приказује на опипљив и документован начин било коју визионарску перспективу разрогачених очију која би могла да буде закључана у вашој нози. Они који ће бити позвани да изграде вашу драгу фарму моћи ће да погледају нацрт и забележе детаље о томе како да се посао обави. Нацрти су згодни. Одсуство нацрта ће сигурно бити проблематично за решавање било каквог сложеног посла или пројекта.

Хајде да пребацимо овај помало сентименталан, али истински омаж нацртима у област вештачке интелигенције (АИ).

Они од вас који се суштински баве АИ можда су нејасно свесни да важна политика оријентисана шематски план је недавно објављен у САД који се очигледно односи на будућност АИ. Неформално познат као АИ Повеља о правима, званични назив прокламоване беле књиге је „Нацрт за АИ закон о правима: да аутоматизовани системи раде за амерички народ“ и лако је доступан на мрежи.

Документ је резултат једногодишњег труда и пажљивог проучавања Канцеларије за науку и технолошку политику (ОСТП). ОСТП је савезни ентитет који је основан средином 1970-их и служи да саветује америчког председника и Извршну канцеларију САД о различитим технолошким, научним и инжењерским аспектима од националног значаја. У том смислу, можете рећи да је ова Повеља о правима вештачке интелигенције документ који је одобрила и подржала постојећа Бела кућа САД.

Повеља о правима вештачке интелигенције приказује људска права које човечанство треба да има у погледу појаве вештачке интелигенције у нашем свакодневном животу. Наглашавам ову важну тачку јер су неки људи у почетку били збуњени да је то можда нека врста признања да АИ има правно лице и да је ово литанија права за разумне АИ и хуманоидне роботе. Не, још нисмо тамо. Као што ћете за тренутак видети, нисмо ни близу разумне вештачке интелигенције, упркос насловима банера који нам изгледа другачије говоре.

У реду, да ли нам је потребан нацрт који описује људска права у доба вештачке интелигенције?

Да, сигурно имамо.

Скоро би требало да будете закључани у пећини и да немате приступ Интернету да не бисте знали да АИ већ и све више задире у наша права. Недавна ера АИ се у почетку посматрала као AI za dobro, што значи да бисмо могли да користимо вештачку интелигенцију за побољшање човечанства. За петама од AI za dobro дошло је сазнање да смо и ми уроњени AI za loše. Ово укључује вештачку интелигенцију која је осмишљена или самопромењена да буде дискриминаторна и која доноси рачунарске изборе прожимајући непотребне предрасуде. Понекад је вештачка интелигенција изграђена на тај начин, док у другим случајевима скреће на ту непожељну територију.

За моје текуће и опсежно покривање и анализу закона о вештачкој интелигенцији, етике вештачке интелигенције и других кључних технолошких и друштвених трендова АИ, погледајте линк овде линк овде, само да поменемо само неке.

Распакивање Повеље о правима вештачке интелигенције

Раније сам расправљао о Повељи о правима вештачке интелигенције и овде ћу направити кратак резиме.

На страну, ако желите да знате моје детаљне предности и недостатке недавно објављене Повеље о правима вештачке интелигенције, детаљно сам описао своју анализу у објави на Јурист, Види линк овде. Јурист је значајна интернет страница за правне вести и коментаре, надалеко позната као награђивана услуга правних вести коју покреће глобални тим новинара студената права, уредника, коментатора, дописника и програмера садржаја, са седиштем у школи Универзитета у Питсбургу Право у Питсбургу, где је почело пре више од 25 година. Све похвале за изузетан и вредан тим на Јурист.

У Повељи о правима вештачке интелигенције, постоји пет кључних категорија:

  • Сигурни и ефикасни системи
  • Алгоритамске заштите од дискриминације
  • Приватност података
  • Обавештење и објашњење
  • Људске алтернативе, разматрање и резерва

Приметите да их нисам нумерисао од један до пет јер би то могло да имплицира да се налазе у одређеном низу или да је једно од права наизглед важније од другог. Претпоставићемо да су свако своје заслуге. Сви су у неком смислу подједнако заслужни.

Као кратка индикација од чега се сваки састоји, ево извода из званичне беле књиге:

  • Сигурни и ефикасни системи: „Требало би да будете заштићени од несигурних или неефикасних система. Аутоматизоване системе треба развити уз консултације различитих заједница, заинтересованих страна и стручњака из домена како би се идентификовали проблеми, ризици и потенцијални утицаји система.”
  • Алгоритамска заштита од дискриминације: „Не би требало да се суочавате са дискриминацијом од стране алгоритама и системе треба користити и дизајнирати на правичан начин. Алгоритамска дискриминација се дешава када аутоматизовани системи доприносе неоправданом различитом третману или утичу на немилост људи на основу њихове расе, боје коже, етничке припадности, пола (укључујући трудноћу, порођај и сродна медицинска стања, родни идентитет, интерсексуални статус и сексуалну оријентацију), религију, године , националног порекла, инвалидитета, статуса ветерана, генетске информације или било које друге класификације заштићене законом.”
  • Приватност података: „Требало би да будете заштићени од злоупотребе података путем уграђене заштите и требало би да имате агенцију за то како се подаци о вама користе. Требало би да будете заштићени од кршења приватности путем избора дизајна који обезбеђују да су такве заштите подразумевано укључене, укључујући обезбеђивање да је прикупљање података у складу са разумним очекивањима и да се прикупљају само подаци који су строго неопходни за одређени контекст.“
  • Обавештење и објашњење: „Требало би да знате да се користи аутоматизовани систем и да разумете како и зашто доприноси резултатима који утичу на вас. Дизајнери, програмери и имплементатори аутоматизованих система треба да обезбеде општедоступну документацију на једноставном језику укључујући јасне описе целокупног функционисања система и улоге коју аутоматизација игра, приметити да су такви системи у употреби, појединца или организацију одговорну за систем и објашњења резултати који су јасни, благовремени и доступни.”
  • Људске алтернативе, разматрање и резерва: „Требало би да будете у могућности да се одјавите, где је то прикладно, и да имате приступ особи која може брзо да размотри и реши проблеме на које наиђете. Требало би да будете у могућности да одустанете од аутоматизованих система у корист људске алтернативе, где је то прикладно.

Уопштено говорећи, ово су аспекти права човечанства о којима се већ неко време бави у контексту етике вештачке интелигенције и закона о вештачкој интелигенцији, погледајте моје извештавање као на линк овде. Бела књига наизглед не извлачи зеца из шешира на магичан начин у вези са неким новооткривеним или ископаним правом који до сада није био разјашњен у контексту АИ ере.

У реду је.

Можете тврдити да њихово састављање у једну уредно упаковану и формализовану колекцију пружа виталну услугу. Плус, тиме што сте помазани као признати АИ Повеља о правима, ово даље ставља целу ствар отворено и умешно у свест јавне сфере. Он обједињује постојећу гомилу различитих дискусија у јединствен скуп који се сада може трубити и преносити свим заинтересованим странама.

Дозволите ми да понудим ову листу позитивних реакција на најављену Повељу о правима вештачке интелигенције:

  • Пружа суштинску компилацију кључних принципа
  • Служи као нацрт или основа за надоградњу
  • Делује као вокализовани позив на акцију
  • Подстиче интересовање и показује да су то озбиљна разматрања
  • Обједињује мноштво различитих дискусија
  • Подстиче и доприноси напорима за усвајање етичке вештачке интелигенције
  • Несумњиво ће допринети успостављању закона о вештачкој интелигенцији
  • други

Такође треба да размотримо мање него повољне реакције, узимајући у обзир да има још много посла који треба да се уради и да је ово само почетак дугог путовања на мукотрпном путу управљања вештачком интелигенцијом.

Као такве, донекле оштре или да кажемо конструктивне критике упућене Повељи о правима вештачке интелигенције укључују:

  • Није правно примењив и потпуно необавезујући
  • Само саветодавна и не сматра се владином политиком
  • Мање свеобухватно у поређењу са другим објављеним радовима
  • Првенствено се састоји од широких концепата и нема детаља о имплементацији
  • Биће изазовно претворити се у стварне одрживе практичне законе
  • Наизглед ћути о надолазећем питању могуће забране АИ у неким контекстима
  • Маргинално признаје предности коришћења АИ која је добро осмишљена
  • други

Можда је најистакнутији оштар коментар усредсређен на чињеницу да ова Повеља о правима вештачке интелигенције није правно примењива и стога нема никакву улогу када је у питању успостављање јасних статива. Неки су рекли да иако је бела књига корисна и охрабрујућа, у њој дефинитивно недостају зуби. Они постављају питање шта може произаћи из наводног скупа сјајних правила са шупљим зубима.

За тренутак ћу се позабавити тим оштрим коментарима.

У међувремену, бела књига обилно наводи ограничења онога што ова Повеља о правима вештачке интелигенције подразумева:

  • „Нацрт закона о правима вештачке интелигенције је необавезујући и не представља политику америчке владе. Он не замењује, не мења нити усмерава тумачење било ког постојећег статута, уредбе, политике или међународног инструмента. Он не представља обавезујуће упутство за јавност или савезне агенције и стога не захтева поштовање принципа описаних овде. Такође није одлучујуће о томе какав ће став америчке владе бити у било каквим међународним преговорима. Усвајање ових принципа можда неће испунити захтеве постојећих статута, прописа, политика или међународних инструмената, или захтеве савезних агенција које их спроводе. Ови принципи немају за циљ и не забрањују или ограничавају било коју закониту активност владине агенције, укључујући спровођење закона, националну безбедност или обавештајне активности“ (према Белој књизи).

За оне који су брзо поткопали Повељу о правима вештачке интелигенције као правно необавезујућу, хајде да урадимо мали мисаони експеримент о тој жалосној тврдњи. Претпоставимо да је бела књига објављена и да је имала пуну снагу закона. Усуђујем се да кажем да би резултат био донекле катаклизмичан, барем у погледу правног и друштвеног одговора на проглас.

Посланици би били одушевљени што напори нису предузели нормативне процесе и правне процедуре у састављању таквих закона. Предузећа би била разбеснела, с правом, када би се појавили нови закони без довољно обавештења и свести о томе шта су то закони. Уследиле би свакакве констернације и згражања.

Није добар начин да се тежи ка јачању људских права у ери вештачке интелигенције.

Подсетимо се да сам раније започео ову дискусију говорећи о вредности и виталности нацрта.

Замислите да је неко прескочио корак израде нацрта и одмах скочио у изградњу ваше куће из снова. Шта мислите како би кућа изгледала? Чини се да је фер опклада да кућа не би посебно одговарала ономе што сте имали на уму. Резултирајућа фарма могла би бити потпуни неред.

Суштина је у томе да су нам потребни нацрти и сада их имамо да бисмо напредовали у проналажењу разумних закона о вештачкој интелигенцији и оснаживању усвајања етичке вештачке интелигенције.

Желео бих стога да се позабавим начинима на које се овај нацрт Повеље о правима вештачке интелигенције може претворити у кућу, такорећи. Како ћемо искористити нацрт? Који су одговарајући следећи кораци? Може ли овај нацрт бити довољан, или му треба више меса на костима?

Пре него што пређемо на те тешке ствари, желео бих да се прво уверим да смо сви на истој страни о природи АИ и о томе од чега се састоји данашњи статус.

Постављање рекорда о данашњој вештачкој интелигенцији

Желео бих да дам изузетно наглашену изјаву.

Јесте ли спремни?

Данас не постоји АИ која је разумна.

Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитетом, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Ако бисмо хтели да дивље спекулишемо о разумној вештачкој интелигенцији, ова расправа би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Снажно бих предложио да ствари задржимо на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Будите веома опрезни са антропоморфизацијом данашње вештачке интелигенције.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Све ово има значајно значајне импликације на етику вештачке интелигенције и нуди згодан прозор у научене лекције (чак и пре него што се све лекције десе) када је у питању покушај да се АИ законски усвоји.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. Они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У претходним колумнама, покрио сам различите националне и међународне напоре за израду и доношење закона који регулишу АИ, види линк овде, на пример. Такође сам покрио различите принципе и смернице етике вештачке интелигенције које су различите нације идентификовале и усвојиле, укључујући, на пример, напоре Уједињених нација као што је УНЕСЦО-ов скуп етике вештачке интелигенције који је усвојило скоро 200 земаља, види линк овде.

Ево корисне кључне листе етичких АИ критеријума или карактеристика у вези са системима вештачке интелигенције које сам претходно пажљиво истражио:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Те принципе етике вештачке интелигенције озбиљно би требало да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима АИ, па чак и онима који на крају обављају и одржавају АИ системе.

Све заинтересоване стране током читавог животног циклуса развоја и употребе АИ сматрају се у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније наглашено овде, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упућено у етичке прописе АИ и да се придржава њих.

Сада када сам поставио корисну основу, спремни смо да заронимо даље у Повељу о правима вештачке интелигенције.

Четири основна начина за имплементацију Повеље о правима вештачке интелигенције

Неко вам даје нацрт и каже вам да кренете на посао.

Шта да радите?

У случају Повеље о правима вештачке интелигенције као нацрта, размотрите ова четири суштинска корака у напредовању:

  • Служи као инпут за формулисање АИ закона: Користите нацрт да помогнете у формулисању закона о вештачкој интелигенцији, чинећи то, надамо се, на усклађеној основи на савезном, државном и локалном нивоу (можда помаже и међународним правним напорима АИ).
  • Помоћ у ширем усвајању етике вештачке интелигенције: Користите нацрт да негујете формулације етике вештачке интелигенције (које се понекад називају „меки закони“ у поређењу са правно обавезујућим „тврдим законима“), чинећи то да инспиришете и усмеравате предузећа, појединце, владине ентитете и друге бираче ка бољим и доследнијим етичким АИ исходи.
  • Активности развоја АИ облика: Користите нацрт да бисте подстакли креирање методологија развоја вештачке интелигенције и аспеката обуке, чинећи то да бисте покушали да натерате програмере вештачке интелигенције и оне који се баве или користе АИ да буду свеснији како да осмисле АИ у складу са пожељним етичким правилима АИ и у ишчекивању предстојећих закона о вештачкој интелигенцији.
  • Мотивирајте појаву АИ да помогне у контроли АИ: Користите нацрт да осмислите вештачку интелигенцију која ће се користити да покуша да послужи као провера и равнотежа против друге вештачке интелигенције која би могла да скрене на неприкладну територију. Ово је једно од оних макроскопских гледишта у којима можемо искористити управо оно што сматрамо привидно забрињавајућим да (иронично, могло би се рећи) да нам помогне у заштити.

Разговарао сам о сваком од горе поменута четири корака кроз своје објаве у колумни.

За ову дискусију у овом тексту, желео бих да се фокусирам на четврти наведени корак, односно да Повеља о правима вештачке интелигенције може послужити као мотиватор за појаву вештачке интелигенције да помогне у контроли АИ. Ово је помало шокантан или изненађујући корак за многе који још нису у потпуности ушли у ову област напредовања вештачке интелигенције.

Дозволите ми да детаљније објасним.

Једноставна аналогија би требало да уради трик. Сви смо ових дана навикли на провале у сајбер безбедност и хакерске провале. Скоро сваки дан чујемо о некој најновијој рупи у нашим рачунарима или смо погођени њоме која ће дозволити подлим зликовцима да уграбе наше податке или поставе подли комад рансомваре-а на наше лаптопове.

Једно од начина борбе против тих гнусних покушаја је коришћење специјализованог софтвера који покушава да спречи те провале. Готово сигурно имате антивирусни софтверски пакет на рачунару код куће или на послу. Вероватно постоји нешто слично на вашем паметном телефону, без обзира да ли схватате да је тамо или не.

Моја поента је да се понекад морате борити против ватре ватром (погледајте моју репортажу о овоме, на пример на линк овде линк овде).

У случају вештачке интелигенције која долази у верботен царство AI za loše, можемо тражити да користимо AI za dobro који се бори са тим злонамерним AI za loše. Ово наравно није чудотворни лек. Као што знате, постоји непрекидан гамбит мачке и миша између зликоваца који желе да провале у наше рачунаре и напретка који се постиже у заштити сајбер безбедности. То је скоро бесконачна игра.

Можемо да користимо АИ да покушамо да се носимо са АИ која је кренула забрањеним путем. То ће помоћи. То неће бити посебно сребрни метак јер ће штетна АИ која је на мети готово сигурно бити осмишљена да избегне било какву такву заштиту. Ово ће бити стална игра мачке и миша у односу на АИ.

У сваком случају, вештачка интелигенција коју користимо да бисмо се заштитили пружиће одређену количину заштите од лоше вештачке интелигенције. Стога, несумњиво морамо да осмислимо АИ која нас може заштитити или заштитити. Такође би требало да тежимо да направимо заштитну вештачку интелигенцију која ће се прилагођавати како се лоша вештачка интелигенција прилагођава. Биће жестоки привид мачке и миша брзе муње.

Не уживају сви у овом проширењу улоге АИ.

Они који већ перципирају АИ као хомогени аморфни конгломерат, најежили би се и имали би ноћне море у овом лажном гамбиту АИ-версус-АИ. Ако покушамо да запалимо ватру, можда само правимо још већу ватру. АИ ће постати огромна ломача, коју више не контролишемо и одлучиће да пороби човечанство или да нас збрише са планете. Када је реч о дискусији о АИ као о егзистенцијалном ризику, обично се наводи да верујемо да ће се сва АИ удружити, погледајте моју дискусију о овим питањима на линк овде. Видите, речено нам је да ће сваки део АИ зграбити своју браћу АИ и постати једна велика владарска унитарна породица.

То је ужасан и дефинитивно узнемирујући сценарио разумне вештачке интелигенције као беспрекорне мафије „сви за један“ и „један за све“.

Иако сте слободно добродошли да износите таква нагађања о томе да би се то једног дана могло догодити, уверавам вас да се за сада вештачка интелигенција коју данас имамо састоји од гомиле неповезаних различитих АИ програма који немају посебан начин да се завере једни са другима.

Рекавши то, сигуран сам да ће они који жарко верују у теорије завере АИ инсистирати на томе да сам ово намерно рекао да бих сакрио истину. Аха! Можда ме плаћа данашња вештачка интелигенција која већ планира велико преузимање АИ (да, сире, купаћу се у богатству када владају АИ господари). Или, а ја сасвим сигурно не фаворизујем овај други угао, можда слепо нисам свестан како вештачка интелигенција тајно кује заверу иза наших леђа. Претпостављам да ћемо морати да сачекамо и видимо да ли сам ја део АИ пуча или АИ одвратна пацкалица (јао, то боли).

Враћајући се на земаљска разматрања, хајде да укратко истражимо како се савремена вештачка интелигенција може користити за помоћ у примени Повеље о правима вештачке интелигенције. Ово ћу згодно и сажето назвати као Добар АИ.

Користићемо пет кључних камена оличених у Повељи о правима вештачке интелигенције:

  • Добар АИ за промовисање Сигурни и ефикасни системи: Кад год сте подложни или користите систем вештачке интелигенције, добра вештачка интелигенција покушава да открије да ли је вештачка интелигенција која се користи небезбедна или неефикасна. Након таквог откривања, добра АИ би вас могла упозорити или предузети друге радње укључујући блокирање лоше вештачке интелигенције.
  • Добар АИ за пружање Алгоритамска заштита од дискриминације: Док користите систем вештачке интелигенције који може да садржи дискриминаторне алгоритме, Добар АИ покушава да утврди да ли постоје неадекватне заштите за вас и настоји да утврди да ли заиста постоје непотребне пристрасности у АИ који се користи. Добра вештачка интелигенција би вас могла обавестити и такође потенцијално аутоматски пријавити другу вештачку интелигенцију различитим ауторитетима како то може бити предвиђено законима о вештачкој интелигенцији и законским захтевима.
  • Добар АИ за очување Приватност података: Ова врста добре вештачке интелигенције покушава да вас заштити од инвазија на приватност података. Када друга вештачка интелигенција тражи од вас податке који можда нису заиста потребни, добра вештачка интелигенција ће вас обавестити о прекорачењу. Добра вештачка интелигенција такође може потенцијално да маскира ваше податке на начин који ће и даље сачувати ваша права на приватност података након што се унесу другој вештачкој интелигенцији. итд.
  • Добар АИ за успостављање Обавештење и објашњење: Сви ћемо вероватно наићи на системе вештачке интелигенције којима веома недостаје да обезбеде одговарајућа и одговарајућа обавештења и који нажалост не успевају да прикажу адекватно објашњење за своје поступке. Добра вештачка интелигенција може да покуша да протумачи или испита другу вештачку интелигенцију, чинећи то да би потенцијално идентификовала обавештења и објашњења која би требало да буду обезбеђена. Чак и ако то није изводљиво да се уради у датом случају, добра вештачка интелигенција ће вас барем упозорити на недостатке друге вештачке интелигенције и евентуално пријавити АИ надлежним органима на основу прописаних закона о вештачкој интелигенцији и законских захтева.
  • Добар АИ за понуду Људске алтернативе, разматрање и резерва: Претпоставимо да користите систем вештачке интелигенције и чини се да вештачка интелигенција није дорасла задатку. Можда не схватате да ствари иду наопако, или сте можда донекле опрезни и несигурни шта да радите у вези са ситуацијом. У таквом случају, Добра АИ би у тишини испитивала шта друга АИ ради и могла би да вас упозори на виталну забринутост у вези са том АИ. Тада би од вас било затражено да затражите људску алтернативу АИ (или би Добра АИ то могла учинити у ваше име).

Да бисмо даље разумели како ова врста Добар АИ може да се развије и примени, погледајте моју популарну и високо оцењену књигу о вештачкој интелигенцији (почаствована што је забележена као „Десет најбољих“) о ономе што сам генерално називао анђелима чуварима вештачке интелигенције, погледајте линк овде.

Zakljucak

Знам шта мислиш. Ако имамо добру вештачку интелигенцију која је осмишљена да нас заштити, претпоставимо да се добра вештачка интелигенција поквари и постане лоша вештачка интелигенција. Чувена или злогласна латинска фраза изгледа потпуно релевантна за ову могућност: Куис цустодиет ипсос цустодес?

Фраза се приписује римском песнику Јувеналу и може се наћи у његовом делу под насловом Сатирес, и може се слободно превести као што значи ко ће чувати или чувати саме чуваре. Многи филмови и ТВ емисије као нпр star трек више пута су користили ову линију.

То је сигурно зато што је то одлична тачка.

Наравно, сви закони о вештачкој интелигенцији који се донесу мораће да обухвате и лошу вештачку интелигенцију, па чак и добру вештачку интелигенцију која се поквари. Зато ће бити кључно написати разумне и свеобухватне законе о вештачкој интелигенцији. Законодавци који само покушавају да насумичне легале баце на зид и надају се да ће се придржавати закона о вештачкој интелигенцији наћи ће се да дубоко промаше циљ.

Не треба нам то.

Немамо ни времена нити можемо да поднесемо друштвени трошак да се носимо са неадекватно осмишљеним законима АИ. Истакао сам да смо, нажалост, понекад сведоци нових закона у вези са вештачком интелигенцијом који су лоше састављени и препуни свих врста правних болести, погледајте на пример моју истражујућу анализу закона о ревизији АИ пристрасности у Њујорку (НИЦ) на линк овде.

Хајде да се уверимо да на одговарајући начин користимо нацрт Повеље о правима вештачке интелигенције који сада имамо у руци у вези са вештачком интелигенцијом. Ако занемаримо план, изгубили смо што смо појачали нашу игру. Ако погрешно применимо нацрт, срам нас било што смо узурпирали корисну основу.

Уважени римски песник Јувенал рекао је још нешто што можемо искористити у овој околности: Анима сана ин цорпоре сано.

Генерално, ово се преводи у тврдњу да би било мудро имати и здрав или здрав ум и здраво или здраво тело. Ово нам омогућава да издржимо било какву врсту муке, према Јувеналу, и сигурно ће бити једини пут до живота у миру или врлини.

Време је да користимо здрав ум и здраво тело како бисмо били сигурни да ће човечанство имати очувана и чврсто утврђена људска права у свету свеприсутног и понекад непожељног вештачке интелигенције. То је добар савет Римљана којег би требало да се придржавамо у данашњој журби усред епохе АИ-а и будућности која је одлучно испуњена и добром и лошом АИ.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/10/13/аи-етхицс-анд-аи-лав-веигхинг-кеи-ваис-то-имплемент-тхат-рецентли-релеасед-аи- закон о правима-укључујући-и-запањујуће-употребом-аи-директно/