Етика вештачке интелигенције и закон вештачке интелигенције постављају тешка питања о том новом обећању од стране произвођача плесних робота који кажу да ће спречити АИ оружје

Можда сте прошле недеље видели у вестима или приметили на друштвеним мрежама најављено обећање неких произвођача робота о њиховим наводним циљевима да избегну АИ наоружање робота опште намене. Провест ћу вас кроз детаље за тренутак, тако да не брините ако нисте схватили шта је ствар.

Реакција на ову прокламацију била је брза и, можда као и обично у нашем поларизованом друштву, била је и похвална и понекад подругљиво критичка или потпуно гадно скептична.

То је прича о два света.

У једном свету неки кажу да је то управо оно што нам треба одговоран АИ програмери робота да се пријаве.

Хвала Богу што сте на правој страни питања које ће постепено постајати све видљивије и све више забрињавајуће. Ти симпатични роботи за плес су забрињавајући јер их је прилично лако натерати да носе оружје и да се користе на најгоре начине (ово можете сами да проверите тако што ћете отићи на друштвене мреже и има много видео записа који приказују роботе који плешу наоружане митраљезима и остало наоружање).

Друга страна овог новчића каже да такозвана залога није ништа друго до маркетиншки трик или трик за односе с јавношћу (уз напомену, да ли је неко упознат са разликом између залога и донације?). У сваком случају, они који сумњају подстичу да је ово необуздано сигнализирање врлине у контексту робота који плешу. Видите, жаљење због чињенице да се роботи опште намене могу користити оружјем је свакако вредна и озбиљно тражена разматрања, иако је само тврдња да произвођач то неће учинити вероватно празно обећање, инсистирају неки.

Све у свему, цела ствар доводи до прилично великог скупа разматрања етике вештачке интелигенције и права вештачке интелигенције. Педантно ћемо распаковати тему и видети како је ово двоструки удар етичке и правне АИ баре. За моје текуће и опсежно покривање етике вештачке интелигенције и права вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Такође ћу се током ове дискусије позивати на своје претходне анализе опасности од АИ наоружања, као што је моја дубинска процена на линк овде. Можда бисте желели да погледате тај дискурс за додатне детаље иза сцене.

Отворено писмо које отвара конзерву црва

Започнимо ову анализу тако што ћемо пажљиво, корак по корак, истражити Отворено писмо које је недавно објавило шест релативно познатих напредних произвођача робота, наиме Бостон Динамицс, Цлеарпатх Роботицс, АНИботицс, Агилити Роботицс, Опен Роботицс и Унитрее. Уопштено говорећи, претпостављам да сте углавном видели роботе Бостон Динамицс, као што су они који шетају на све четири. Изгледају као да личе на псе и уживамо у томе да их видимо како јуре около.

Као што сам раније и више пута упозоравао, употреба таквих „плесућих“ робота као средства да се убеди шира јавност да су ови роботи симпатични и симпатични, нажалост доводи у заблуду и скреће у обилне замке њиховог антропоморфизације. Почињемо да размишљамо о овим каљеним комадима метала и пластике као да су еквивалент умиљатог оданог пса. Наша спремност да прихватимо ове роботе је заснована на лажном осећају сигурности и сигурности. Наравно, морате зарадити новац и шансе да то учините су повећане парадирањем око робота који плешу, али ово нажалост изоставља или наизглед скрива стварну чињеницу да су ови роботи роботи и да АИ која контролише роботе може бити погрешно осмишљена или ићи наопако.

Размотрите ове последице АИ (извод из мог чланка о АИ наоружању, који се налази на линк овде):

  • АИ би могао да наиђе на грешку која узрокује да залута
  • АИ може бити преоптерећен и блокиран без реакције
  • АИ може садржати програмске грешке које узрокују нередовно понашање
  • АИ може бити оштећен имплантираним вирусом зликоваца
  • АИ би могли да преузму сајберхакери у реалном времену
  • АИ се може сматрати непредвидивим због сложености
  • АИ би компјутерски могао донети "погрешну" одлуку (релативно)
  • Итд

То су тачке у вези са вештачком интелигенцијом која је типа који је заиста осмишљен на почетку да уради праву ствар.

Поврх ових разматрања, морате укључити системе вештачке интелигенције који су направљени од почетка да бисте радили лоше ствари. Можете имати АИ који је направљен у корисне сврхе, који се често назива AI za dobro. Такође можете имати АИ који је намерно направљен у лоше сврхе, познат као AI za loše. Штавише, можете имати AI za dobro који је искварен или преуређен да постане AI za loše.

Узгред, ништа од овога нема никакве везе са АИ која постаје разумна, што помињем јер неки стално узвикују да је данашња АИ или разумна или на ивици да буде разумна. Не тако. Раздвајам те митове у својој анализи на линк овде.

Хајде да се онда уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Ако бисмо хтели да дивље спекулишемо о разумној вештачкој интелигенцији, ова расправа би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Снажно бих предложио да ствари задржимо на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Будите веома опрезни са антропоморфизацијом данашње вештачке интелигенције.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Све ово има значајно значајне импликације на етику вештачке интелигенције и нуди згодан прозор у научене лекције (чак и пре него што се све лекције десе) када је у питању покушај да се АИ законски усвоји.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. Они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У претходним колумнама, покрио сам различите националне и међународне напоре за израду и доношење закона који регулишу АИ, види линк овде, на пример. Такође сам покрио различите принципе и смернице етике вештачке интелигенције које су различите нације идентификовале и усвојиле, укључујући, на пример, напоре Уједињених нација као што је УНЕСЦО-ов скуп етике вештачке интелигенције који је усвојило скоро 200 земаља, види линк овде.

Ево корисне кључне листе етичких АИ критеријума или карактеристика у вези са системима вештачке интелигенције које сам претходно пажљиво истражио:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Те принципе етике вештачке интелигенције озбиљно би требало да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима АИ, па чак и онима који на крају обављају и одржавају АИ системе.

Све заинтересоване стране током читавог животног циклуса развоја и употребе АИ сматрају се у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније наглашено овде, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упућено у етичке прописе АИ и да се придржава њих.

Сада када сам поставио корисне темеље за улазак у Отворено писмо, спремни смо да заронимо.

Званични наслов Отвореног писма је следећи:

  • "Отворено писмо роботској индустрији и нашим заједницама, Роботи опште намене не би требало да буду наоружани” (према објављеном на мрежи).

Засада је добро.

Наслов изгледа скоро као сладолед и пита од јабука. Како би неко могао да оспори ово као некадашњи позив да се избегне АИ роботизација оружја?

Читајте даље да видите.

Прво, као храна за разматрање, ево званичног уводног параграфа Отвореног писма:

  • „Ми смо неке од водећих светских компанија посвећених увођењу нових генерација напредне мобилне роботике у друштво. Ове нове генерације робота су приступачније, лакше за руковање, аутономније, приступачније и прилагодљивије од претходних генерација и способни су да се крећу до локација које су раније биле недоступне аутоматизованим или даљински контролисаним технологијама. Верујемо да ће напредни мобилни роботи пружити велику корист друштву као сарадницима у индустрији и сапутницима у нашим домовима” (према објављеном на мрежи).

Сунчана страна појаве ових врста робота је то што можемо да предвидимо многе велике предности које ће се појавити. Нема сумње у то. Можда имате робота у свом дому који може да обавља оне активности сличне Џетсону, као што су чишћење ваше куће, прање судова и други послови око домаћинства. Имаћемо напредне роботе за употребу у фабрикама и производним погонима. Роботи потенцијално могу пузати или маневрисати у уским просторима, на пример када се зграда сруши и људски животи су у опасности да буду спасени. И тако даље.

На страну, можда ће вам бити занимљиво моје недавно критичко извештавање о Теслином АИ Дану, на којем је неке врсте ходајућих робота Елон Муск приказао као будућност за Теслу и друштво, види линк овде.

Да се ​​вратим на ствар. Када озбиљно разговарамо о роботима који плешу или роботима који ходају, морамо пажљиво да узмемо у обзир компромисе или укупан РОИ (поврат на улагање) ове употребе АИ. Не би требало да дозволимо себи да будемо претерано заљубљени у бенефиције када постоје и трошкови које треба узети у обзир.

Сјајна нова играчка може имати прилично оштре ивице.

Све ово подстиче важну, али помало тиху поенту да је део разлога због којег се сада појављује питање АИ наоружања због напредовања АИ ка аутономној активности. Обично смо очекивали да оружјем углавном управљају људи. Човек доноси одлуку да ли ће пуцати или активирати оружје. Вероватно можемо сматрати тог човека одговорним за своја дела.

АИ који је осмишљен да ради аутономно или који се може преварити да то уради, наизглед би уклонио човека из петље. АИ тада алгоритамски доноси рачунарске одлуке које могу на крају убити или повредити људе. Поред очигледне забринутости због недостатка контроле над вештачком интелигенцијом, имате и недоумице да бисмо могли имати тешко време да одредимо одговорност за поступке вештачке интелигенције. Немамо човека који је наш очигледан подстрекач.

Схватам да неки верују да једноставно и директно треба да сматрамо АИ одговорном за своје поступке, као да је вештачка интелигенција стекла разум или на неки други начин добила статус правног лица (погледајте моје извештавање о дебатама о АИ која стиче правно лице на линк овде). То за сада неће ићи. Мораћемо да пратимо АИ до људи који су је или осмислили или који су је поставили. Они ће несумњиво покушати да легално избегну одговорност покушавајући да тврде да је вештачка интелигенција превазишла оно што су замислили. Ово је све већа тврдња са којом морамо да се позабавимо (погледајте моје списе закона о вештачкој интелигенцији за увид у спорна питања која су укључена).

Уједињене нације (УН) су преко Конвенције о одређеном конвенционалном оружју (ЦЦВ) у Женеви успоставиле једанаест необавезујућих водећих принципа о смртоносном аутономном оружју, према званичном извештају објављеном на интернету (који обухвата референце на релевантно међународно хуманитарно право или одредбе МХП) , укључујући:

(а) Међународно хуманитарно право наставља да се у потпуности примењује на све системе наоружања, укључујући потенцијални развој и употребу смртоносних аутономних система наоружања;

(б) Људска одговорност за одлуке о употреби система наоружања мора бити задржана јер се одговорност не може пренети на машине. Ово треба узети у обзир током читавог животног циклуса система наоружања;

(ц) Интеракција човека и машине, која може имати различите облике и бити спроведена у различитим фазама животног циклуса оружја, треба да обезбеди да потенцијална употреба система наоружања заснованих на новим технологијама у области смртоносних аутономних система наоружања буде у усклађеност са важећим међународним правом, посебно МХП. У одређивању квалитета и обима интеракције човек-машина, треба узети у обзир низ фактора, укључујући оперативни контекст, и карактеристике и способности система наоружања у целини;

(д) Одговорност за развој, распоређивање и употребу било ког система наоружања у настајању у оквиру ЦЦВ мора бити осигурана у складу са важећим међународним правом, укључујући функционисање таквих система у оквиру одговорног ланца људске команде и контроле;

(е) У складу са обавезама држава према међународном праву, приликом проучавања, развоја, набавке или усвајања новог оружја, средстава или метода ратовања, мора се утврдити да ли би његово коришћење, у неким или свим околностима, било забрањено међународним правом;

(ф) Приликом развоја или набавке нових система наоружања заснованих на новим технологијама у области смртоносних аутономних система наоружања, физичке безбедности, одговарајућих нефизичких заштитних механизама (укључујући сајбер-безбедност од хаковања или лажирања података), ризик од аквизиције од стране терористичких група и треба узети у обзир ризик од пролиферације;

(г) Процене ризика и мере за ублажавање треба да буду део циклуса дизајна, развоја, тестирања и примене нових технологија у било ком систему наоружања;

(х) Требало би размотрити употребу нових технологија у области смртоносних аутономних система наоружања у одржавању усклађености са МХП и другим примењивим међународним правним обавезама;

(и) У креирању потенцијалних мера политике, нове технологије у области смртоносних аутономних система наоружања не би требало да буду антропоморфизоване;

(ј) Дискусије и све потенцијалне мере политике предузете у контексту ЦЦВ не би требало да ометају напредак или приступ мирној употреби интелигентних аутономних технологија;

(к) ЦЦВ нуди одговарајући оквир за бављење питањем нових технологија у области смртоносних аутономних система наоружања у контексту циљева и сврха Конвенције, која настоји да успостави равнотежу између војне потребе и хуманитарних разлога.

Ови и други различити ратни закони и закони оружаног сукоба, или ИХЛ (Међународни хуманитарни закони) служе као витални и увек обећавајући водич за разматрање шта бисмо могли да покушамо да урадимо у вези са појавом аутономних система који су наоружани, било да је реч о кључном камену. дизајном или накнадним методама.

Неки кажу да бисмо требали потпуно забранити оне аутономне системе АИ који се могу оружити. Тако је, свет би требало да стане и оштро захтева да аутономни системи вештачке интелигенције никада не буду наоружани. Треба увести потпуну забрану. Крај приче. Тачка, тачка.

Па, можемо искрено пожелети да се забрана смртоносних наоружаних аутономних система стриктно и послушно поштује. Проблем је у томе што ће се много простора за помицање лукаво наћи у оквиру било које од најискренијих забрана. Како кажу, правила се крше. Можете се кладити да ће тамо где су ствари лабаве, рифраф пронаћи празнине и покушати да намигује-намигује око правила.

Ево неких потенцијалних рупа које вреди размотрити:

  • Тврдње о несмртоносним. Направите несмртоносне аутономне системе наоружања (наизглед је у реду јер је изван границе забране), које онда можете у малој мери претворити у смртоносне (прећи ћете забрану тек у последњем тренутку).
  • Захтеви само за аутономни систем. Подржите забрану тако што ћете не правити аутономне системе фокусиране на смртоносне проблеме, у међувремену, остварите што већи напредак у осмишљавању свакодневних аутономних система који (још) нису наоружани, али које можете са новчићем накнадно уградити у оружје.
  • Тврдње да нису интегрисане као једна. Израдите аутономне системе који уопште нису опремљени оружјем, а када за то дође време, наоружавање тако да можете да покушате да жестоко тврдите да су то два одвојена елемента и да стога тврдите да не спадају у рубрику све-у-једном аутономни систем наоружања или његов рођак.
  • Тврди да није аутономна. Направите систем наоружања који не изгледа као аутономни капацитет. Оставите места у овом вероватно неаутономном систему за укључивање аутономије засноване на вештачкој интелигенцији. Када је потребно, укључите аутономију и спремни сте за рад (до тада, изгледа да нисте кршили забрану).
  • други

Постоји много других изражених потешкоћа у покушају да се потпуно забрани смртоносни аутономни системи наоружања. Покрићу још неколико њих.

Неки стручњаци тврде да забрана није посебно корисна и да уместо тога треба да постоје регулаторне одредбе. Идеја је да ће ове направе бити дозвољене, али под строгим надзором. Изложен је низ законитих употреба, заједно са законитим начинима циљања, законитим врстама способности, законитом пропорционалношћу и слично.

По њиховом мишљењу, директна забрана је као стављање главе у песак и претварање да слон у соби не постоји. Ова тврдња, међутим, изазива кључање у крви оних који се супротстављају аргументу да увођењем забране можете драматично смањити иначе искушење да следите овакве системе. Наравно, неки ће се разметати забраном, али барем се надамо да већина неће. Тада можете да усмерите пажњу на оне који се размећу и не морате да делите пажњу на све.

Ове дебате иду у круг.

Још једна често примећена брига је да чак и ако се добри придржавају забране, лоши неће. Ово добро ставља у лош положај. Лоши ће имати ове врсте наоружаних аутономних система, а добри неће. Једном када се открије да их имају лоши, биће касно да их добри сустигну. Укратко, једина паметна ствар коју треба урадити је да се припремите за борбу против ватре ватром.

Постоји и класична тврдња о одвраћању. Ако се добри одлуче да направе аутономне системе са оружјем, ово се може искористити да одврати лоше од покушаја да уђу у сукоб. Или ће добри бити боље наоружани и тако одвратити лоше, или ће добри бити спремни када лоши можда открију да су све време кришом смишљали те системе.

Против ових контракција је то што стварањем наоружаних аутономних система водите трку у наоружању. Друга страна ће тражити исто. Чак и ако технолошки нису у стању да изнова створе такве системе, сада ће моћи да украду планове оних „добрих“, да обрну инжињеринг високотехнолошке храбрости, или да опонашају оно што им се чини да је испробано начин да се посао обави.

Аха, нека реплика, све би то могло довести до смањења сукоба привидом међусобног. Ако страна А зна да страна Б има то смртоносно оружје аутономних система, а страна Б зна да их има страна А, можда ће седети чврсто и не доћи до сукоба. Ово има ону изразиту ауру вибрација обострано осигураног уништења (МАД).

И тако даље.

Пажљиво гледајући други пасус

Већ смо покрили доста тога овде и само до сада разматрали први или уводни пасус Отвореног писма (укупно четири параграфа).

Време је да погледамо други пасус, ево га:

  • „Као и код сваке нове технологије која нуди нове могућности, појава напредних мобилних робота нуди могућност злоупотребе. Непоуздани људи могли би да их користе за инвазију на грађанска права или за претњу, повреду или застрашивање других. Једна област од посебне забринутости је оружје. Верујемо да додавање оружја роботима којима се управља на даљину или аутономно, широко доступним јавности и способним за навигацију до раније неприступачних локација на којима људи живе и раде, подиже нове ризике од штете и озбиљна етичка питања. Оружане примене ових робота са новим способностима такође ће нанети штету поверењу јавности у технологију на начине који штете огромним предностима које ће донети друштву. Из ових разлога, ми не подржавамо наоружавање наших напредних покретних робота опште намене. За оне од нас који су говорили о овом питању у прошлости, и оне који се први пут ангажују, сада осећамо нову хитност у светлу све веће забринутости јавности последњих месеци узроковану малим бројем људи који су видљиво објавили своје импровизоване напори да се оруже комерцијално доступни роботи” (према објављеном на мрежи).

Након читања тог другог пасуса, надам се да можете да видите како мој ранији дискурс овде о АИ наоружању долази до изражаја.

Хајде да испитамо неколико додатних тачака.

Једна донекле недоумица у вези са одређеним аспектом формулације који је изазвао проблем код неких је то што се чини да наратив наглашава да би „непоуздани људи“ могли да злоупотребе ове АИ роботе. Да, заиста, лоши људи или зликови могу да доведу до подла дела која ће „злоупотребити“ АИ роботе.

У исто време, као што је истакнуто на почетку ове дискусије, такође морамо да разјаснимо да би сама вештачка интелигенција могла да пође по злу, вероватно због уграђених грешака или грешака и других сличних компликација. Изражена забринутост је да само наглашавање шанси за неповерљиви људи је да изгледа да игнорише друге неповољне могућности. Иако већина компанија и добављача вештачке интелигенције то не желе да признају, постоји мноштво проблема са АИ системима који могу да угрозе безбедност и поузданост аутономних система. За моје покривање безбедности АИ и потребе за ригорозним и доказивим заштитним мерама, погледајте линк овде, На пример.

Још једна значајна тачка која се појавила међу онима који су прегледали Отворено писмо укључује укључену тврдњу да би могло да дође до поткопавања поверења јавности повезаног са АИ роботима.

С једне стране, ово је валидна тврдња. Ако се АИ роботи користе за зле лицитације, можете се кладити да ће јавност бити прилично узнемирена. Када се јавност разбукта, можете се кладити да ће законодавци ускочити у налет и тражити да донесу законе који сузбијају АИ роботе и произвођаче АИ робота. Ово би заузврат могло осакатити индустрију роботике АИ ако су закони свеобухватни и зауставити напоре који укључују предности АИ робота. У извесном смислу, беба би могла да буде избачена са водом за купање (стар израз, вероватно заслужује да буде пензионисан).

Очигледно питање које се такође поставља јесте да ли је ова тврдња о спречавању смањења поверења јавности у АИ роботе донекле себичан кредо или је за добро свих нас (може ли и једно и друго?).

Ти одлучујеш.

Сада долазимо до посебно меснатог дела Отвореног писма:

  • „Обећавамо се да нећемо користити наше напредне покретне роботе опште намене или софтвер који развијамо који омогућава напредну роботику и нећемо подржавати друге да то учине. Када је то могуће, пажљиво ћемо прегледати предвиђене апликације наших купаца како бисмо избегли потенцијално коришћење оружја. Такође се обавезујемо да ћемо истражити развој технолошких карактеристика које би могле ублажити или смањити ове ризике. Да будемо јасни, ми не доводимо у питање постојеће технологије које нације и њихове владине агенције користе да би се браниле и подржавале своје законе” (према објављеном на мрежи).

Можемо ово распаковати.

Седите и припремите се у складу са тим.

Да ли сте спремни за неку ватрену поларизацију?

Са друге стране, неки гласно најављују да би се ови произвођачи АИ робота заклели. Чини се да ће ови произвођачи робота на срећу настојати да своје роботе опште намене „напредне мобилности“ не оружју. Осим тога, у Отвореном писму се каже да неће подржати друге који то чине.

Критичари се питају да ли је у питању неко паметно ковање речи.

На пример, где почиње и где се завршава „напредна мобилност“? Ако произвођач робота осмишљава а једноставан- мобилност АИ робота, а не напредног (што је недефинисани део техничког жаргона), да ли се то искључује из обима онога што ће не бити наоружани? Стога је, очигледно, у реду опремити АИ роботе једноставне покретљивости, све док нису тзв. напредан.

Исто важи и за фразирање робота опште намене. Ако је АИ робот дизајниран посебно за наоружање и стога није, рећи ћемо а Опште намене роботе, да ли то постаје одрживо искључење из опсега?

Можете се препирати са овим препиркама и ватрено тврдити да је ово само отворено писмо, а не правни документ од педесет страница који описује сваки кутак и рупу.

Ово нас доводи до наизглед више несигурности на макро нивоу коју су неки изразили. У суштини, шта значи „залог“?

Неки питају, где је говедина?

Компанија која се овако заветује наизглед то чини без икаквог правог удела у игри. Ако врх било које фирме која се потпише за ово обећање одлучи да више не поштује обећање, шта се дешава са том фирмом? Да ли ће руководиоци по кратком поступку бити кажњени? Хоће ли се компанија затворити и обилато се извинити што је прекршила обећање? И тако даље.

Колико се може закључити, не постоји посебна казна или казна за било какво кршење залога.

Можете тврдити да постоји могућност оштећења репутације. Фирма која даје залоге може бити оптужена на тржишту јер је дала залог који више не поштује. Наравно, ово такође претпоставља да ће људи запамтити да је заклетва дата. Такође се претпоставља да ће кршење залога на неки начин бити откривено (изузетно је мало вероватно да ће фирма рећи све ако то учини). Прекршилац обећања би морао бити прозван, а ипак би такво питање могло постати само бука у текућем цунамију вести о произвођачима АИ роботике.

Размотрите други угао који се појавио.

Фирму која даје залог купује нека већа фирма. Већа фирма одлучује да почне да претвара напредне покретне роботе опште намене у верзије наоружане вештачком интелигенцијом.

Да ли је ово кршење заклетве?

Већа фирма може инсистирати да то није кршење пошто се она (већа фирма) никада није обавезала. У међувремену, безазлени АИ роботи које је мања фирма саставила и осмислила, чинећи то са наизглед најалтруистичнијим намерама, скоро преко ноћи бивају преуређени у оружје.

То на неки начин подрива обећање, иако би се могло рећи да мања фирма није знала да ће се то једног дана догодити. Били су озбиљни у својој жељи. Било је ван њихове контроле шта је већа компанија за куповину одлучила да уради.

Неки се питају и да ли у томе постоји икаква законска одговорност.

Фирма која даје залоге одлучује за неколико месеци да неће испунити залог. Они су променили мишљење. Може ли се фирма тужити због тога што је напустила залог који је дала? Ко би тужио? Шта би био основ за тужбу? Појављује се низ правних питања. Како кажу, можете тужити скоро свакога, али да ли ћете победити, то је сасвим друга ствар.

Размислите о овоме на други начин. Фирма која даје обећање добија прилику да направи заиста велики посао да прода читаву гомилу својих напредних мобилних робота опште намене огромној компанији која је спремна да плати кроз нос да би набавила роботе. То је један од оних куповина од милион долара која се дешавају једном у животу.

Шта треба да уради компанија за АИ роботику?

Ако се фирма која даје залог за АИ роботику јавно тргује, они би готово сигурно тежили продаји (исто би се могло рећи и за приватну фирму, мада не баш тако). Замислите да је фирма која даје залог забринута да би купац могао покушати да оружи роботе, иако рецимо да нема такве расправе на столу. Само се прича да би купац то могао учинити.

Сходно томе, фирма која даје гаранције ставља у своје лиценцирање да роботи не треба да буду наоружани. Купац одбија овај језик и одступа од куповине.

Од колико је профита обећана фирма за АИ роботику управо отишла?

Да ли постоји тачка у којој профит из руке надмашује укључивање захтева за ограничење лиценцирања (или, можда правно формулисано ограничење да би се омогућио простор за померање и да се договор ипак догоди)? Мислим да видите у каквој је недоумици. Тоне таквих сценарија се лако дочарају. Питање је да ли ће овај залог имати зубе. Ако јесте, какви зуби?

Укратко, као што је поменуто на почетку ове дискусије, једни су забринути да се ова врста залога даје, док други имају слабије мишљење о томе да ли ће залог имати воду.

Идемо даље.

Покретање обећања

Четврти и последњи параграф Отвореног писма каже ово:

  • „Схватамо да наша посвећеност сама по себи није довољна да у потпуности одговоримо на ове ризике, и стога позивамо креаторе политике да раде са нама на промовисању безбедне употребе ових робота и забрани њихове злоупотребе. Такође позивамо сваку организацију, програмере, истраживаче и кориснике у заједници робота да дају слична обећања да неће правити, овластити, подржавати или омогућити причвршћивање оружја на такве роботе. Уверени смо да користи за човечанство од ових технологија у великој мери превазилазе ризик од злоупотребе и узбуђени смо због светле будућности у којој људи и роботи раде раме уз раме како би се ухватили у коштац са неким од светских изазова” (према објављеном на мрежи).

Овај последњи део Отвореног писма има неколико додатних елемената који су изазвали гнев.

Позивање креаторима политике може бити добро или лоше, тврде неки. Можда ћете натерати креаторе политике који нису упућени у ова питања да онда ураде класичну журбу са просуђивањем и израђују законе и прописе који узурпирају напредак у АИ роботима. Према раније изреченој ствари, можда ће иновација која гура напред у напредовању робота АИ бити поремећена или нагажена.

Боље је да будете сигурни да знате шта тражите, кажу критичари.

Наравно, контра-аргумент је да наратив јасно каже да креатори политике треба да раде са фирмама за АИ роботику како би схватили како да вероватно разумно донесу такве законе и прописе. Контра-аргумент је да би се на креаторе политике могло видети да се придржавају креатора АИ роботике ако се задовоље њиховим хировима. Против контрааргумената је то што је природно неопходно радити са онима који знају о технологији, иначе ће исход потенцијално бити несретан. итд.

На основу можда препирке, неки су имали жгаравицу због линије која позива све да дају слична обећања да неће причвршћивање оружје за напредне покретне роботе опште намене. Кључна реч тамо је реч причвршћивање. Ако неко прави АИ робота који укључује или неприметно уграђује оружје, изгледа да то заобилази формулацију причвршћивање нешто. Сада то можете видети, неко жестоко тврди да оружје није причвршћено, већ је у потпуности саставни део АИ робота. Преболите то, узвикују, ми нисмо у оквиру те заклетве, а могли су и иначе да кажу да јесу.

Ово доводи до још једне жалбе на недостатак лепљивости залога.

Може ли се фирма или било ко уопште који се одлучи за ово обећање прогласити необавезним у било ком тренутку када то жели и из било ког разлога што то жели?

Очигледно је тако.

Много се расправља око давања обећања и каквог привлачења оне дају.

Zakljucak

Ајме, могли бисте рећи, ове компаније које покушавају да ураде праву ствар добијају бубњеве јер покушавају да ураде праву ствар.

Шта је дошло од нашег света?

Свако ко се тако заветује требало би да добије корист од сумње, можете страствено тврдити. Они излазе у јавну сферу да дају храбар и виталан допринос. Ако почнемо да их блатимо због тога, то ће сигурно погоршати ствари. Нико неће хтети да да такву завет. Фирме и други неће ни покушати. Они ће се сакрити и неће унапред упозоравати друштво у шта се ти драги роботи који плешу могу опасно претворити.

Скептици изјављују да начин да се друштво опамети подразумева и друге радње, као што је одустајање од маштовитог чина приказивања лудих АИ робота који плешу. Или барем да то буде уравнотеженији чин. На пример, уместо да само опонашате вољене псе лојалне кућним љубимцима, илуструјте како роботи који плешу могу бити сличнији дивљим пуштеним љутим вуковима који могу да растргну људе у комадиће без оклевања.

То ће добити више пажње него обећања, моле они.

Заклетве несумњиво могу бити прилично загонетка.

Као што је Махатма Ганди елоквентно рекао: „Без обзира на то колико је експлицитно обећање, људи ће окренути и изокренути текст како би одговарао својој сврси.

Можда да би закључио овде на узбудљивој ноти, Томас Џеферсон је рекао ово о заветима: „Ми се узајамно залажемо једни другима за своје животе, своје богатство и нашу свету част.

Када су у питању АИ роботи, њихова аутономија, њихово наоружање и слично, сви ћемо на крају бити у овоме заједно. Наше заједничко обећање треба да буде барем да ћемо ове ствари држати у првом плану, настојаћемо да пронађемо начине да се носимо са овим напретком и некако пронађемо пут ка обезбеђивању наше части, нашег богатства и наших живота.

Можемо ли се заложити за то?

Надам се.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/10/09/аи-етхицс-анд-аи-лав-аскинг-хард-куестионс-абоут-тхат-нев-пледге-би-данцинг- произвођачи робота говоре да ће спречити-аи-оружање/