Етика вештачке интелигенције која се бори са ватреним ударцем оба аутономна система оружја заснована на вештачкој интелигенцији и експлоатацијом аутономних система вођених вештачком интелигенцијом који су ђаволски наоружани

Ти невероватни четвороножни роботи који плешу.

Сигуран сам да сте видели те виралне видео снимке четвороножних роботских система који плешу и скакућу на наизглед диван и псећи вољен начин. Изгледа да уживамо у томе да видимо те роботе вођене вештачком интелигенцијом док се пењу преко препрека и изгледа да добијају деликатно упориште када седе на кутијама или након што су несигурно постављени на припите врхове ормарића. Њихови људи који руководе с времена на време ће боцкати или гурнути залуђене четвороножне роботе, што се чини ужасавајућим неправедним и може лако да изазове ваш гнев због безобразног третмана тих хуманоида.

Међутим, питам се да ли сте видели не тако вирусне видео снимке потпуно другачијег калибра.

Припремите се.

Широко су објављивани видео снимци који приказују исту врсту четвороножних робота који су опремљени израженим оружјем ове или оне врсте.

На пример, митраљез или слично ватрено оружје постављено је на иначе познатог робота који плеше и скаче. Постоји електронска веза између четвороножног робота и механизма за пуцање оружја. Сада наоружана компјутерска направа за ходање приказана је како корача до места где је постављена мета, а митраљез је жестоко испаљен на мету. Након што закуца делимично уништену мету, четвороножни робот плеше и скаче око оближњих препрека и постројава се да би поновио исту акцију изнова и изнова на другим новим циљевима.

Није баш оно што сте очекивали да видите. Ово свакако одузима безбрижност и релативну радост искреног посматрања тих умиљатих четвороножних робота како раде своје. Добродошли у сурову стварност наизглед безазлен аутономни системи који се претварају или трансформишу у оштро наоружане. Уз мало труда, можете преко ноћи имати сматрани „ненаоружани“ аутономни систем накнадно опремљен тако да садржи потпуно оружје.

Готово је лако у неким околностима.

Разговараћу о овој жестоко контроверзној теми и покрити прилично велике недоумице везане за етику вештачке интелигенције које се јављају. Кренућемо на путовање у аутономне системе, вештачку интелигенцију, аутономна возила, наоружање и низ повезаних борбених питања Етичке вештачке интелигенције. За моје текуће и опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Почнимо са неким темељним каменцима.

Ради дискусије, прихватите да постоје два главна начина за категоризацију аутономних система који су наоружани оружјем:

1) Аутономни системи оружја (по нацрту)

2) Аутономни системи који су наоружани (послије чињеница)

Постоји битна разлика између ове две категорије.

У првом случају, дефинисаћемо ан аутономни систем наоружања да од самог почетка буде компјутеризована креација која је намерно намењена да буде оружје. Програмери су имали на уму да желе да осмисле оружје. Њихова експлицитна потрага је да произведу оружје. Знали су да могу интегрално комбиновати оружје са најновијим технологијама аутономних система. Ово је оружје које јаше на таласу високе технологије које постиже аутономно кретање и аутономне акције (ускоро ћу детаљније елаборирати).

Насупрот томе, у другој инстанци ћемо размотрити питање аутономних система који уопште немају посебну наклоност према оружју. То су аутономни системи који се развијају за друге сврхе. Замислите аутономно возило као што је самовозећи аутомобил који ће се користити за пружање мобилности за све и помоћ у смањењу хиљада годишњих смртних случајева који се дешавају због људи који возе и управљају људским аутомобилима (погледајте мој детаљан извештај ат линк овде). Чини се да није оружје у обзир за те оптимистичне друштвене напоре да се људи извуку иза волана и уместо тога ставе вештачка интелигенција на возачево седиште.

Али ти безопасни аутономни системи могу бити наоружани ако људи то желе.

Ову другу категорију тада називам аутономни системи који су наоружани. Аутономни систем је првобитно и побожно креиран у сврху вероватно неоружаја. Упркос томе, сањиву алтруистичку наду преокрене неко негде ко добије сабласну идеју да би се ова измишљотина могла користити оружјем. Одједном, аутономни систем који је изгледао мазљив постао је смртоносно оружје означавањем неког облика могућности оружја (као што су четвороножни роботи налик псима поменути раније који имају митраљез или слично ватрено оружје додато својим карактеристикама) .

Нажалост, ове две категорије завршавају донекле на истом месту, односно обезбеђујући капацитет коришћења аутономних система за оружје на потенцијално смртоносној основи.

Процес доласка до те крајње тачке ће вероватно бити другачији.

За потпуно наоружане аутономне системе који су били означени као оружје, аспекти наоружања су типично испред и у средини. Могли бисте рећи да су аспекти аутономног система умотани око камена темељца било ког оружја које се разматра. Процес размишљања програмера је донекле на линији како оружје може да искористи појаву аутономних система.

Друга перспектива обично уопште није таква. Програмери желе да изведу најсавременији аутономни систем, можда за бољитак човечанства. Ови програмери улажу своје најискреније срце и душу у стварање аутономног система. Ово је срж њиховог проналаска. Они можда не могу замислити да би неко узурпирао или подметнуо њихов чудесно користан уређај. Они су блажено заљубљени у друштвене користи повезане са аутономним системом који се обликује и производи.

У неком тренутку, рецимо да треће стране схвате да се аутономни систем може преуредити како би био наоружан. Можда преваре програмере да им дозволе аутономни систем за оно што се тврди да су узвишене сврхе. Иза затворених врата, ови злотвори се одлучују да тајно додају капацитет за оружје аутономном систему. Воила, невиност се претворила у потпуно оружје.

Ствари не морају да се одвијају на тај начин.

Можда је програмерима речено да развијају невини аутономни систем, али они који су финансирали или усмеравали напоре имали су на уму друге сврхе. Можда је напор аутономног система заиста почео невино, али онда када су рачуни морали да се плате, руководство је склопило договор са извором финансирања који жели аутономне системе из подлих разлога. Друга могућност је да су програмери знали да би каснија употреба могла бити за наоружавање, али да су мислили да ће прећи тај мучни мост када или ако се икада појави. итд.

Постоји много и много различитих путева о томе како се све ово одиграва.

Можда ће вам бити занимљиво што сам описао у претходним колумнама да постоји растућа свест о етици вештачке интелигенције у вези са двострука употреба елементе савремене вештачке интелигенције, види линк овде. Дозволите ми да вас укратко упознам са темом.

Систем вештачке интелигенције који је замишљен за добро понекад може бити на ивици лошег, можда путем неких прилично једноставних промена, и сходно томе се сматра да је природе двоструке намене. Недавно је у вестима био систем вештачке интелигенције који је направљен да открије хемикалије које би могле бити убице, за које су програмери желели да се увере да можемо да избегнемо или да будемо опрезни са таквим лоше осмишљеним хемикалијама. Испоставило се да би се вештачка интелигенција могла донекле лако подесити да предано открије те хемикалије убице и на тај начин потенцијално дозволи зликовцима да сазнају које врсте хемикалија могу потенцијално да скувају за своје страшне зле планове.

Аутономни системи могу доказано да се уклопе у тај омотач двоструке намене.

У извесној мери, зато су етика вештачке интелигенције и етичка вештачка интелигенција тако кључна тема. Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања о вештачкој интелигенцији и чинити то интегрално за развој вештачке интелигенције и њено коришћење на терену је од виталног значаја за производњу одговарајуће вештачке интелигенције, укључујући (можда изненађујуће или иронично) процену тога како компаније усвајају етику вештачке интелигенције.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. У ствари, они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, поткопавати златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

Аутономија и оружје као два правила

Постоји фраза коју неки користе да унапред упозоре на наоружане аутономне системе свих врста, који се заједнички измишљају као слаугхтерботс.

Ово доноси додатни аспект о којем би требало да размислимо.

Да ли аутономни систем наоружања и/или аутономни систем који је наоружан мора да има превагу смртоносног или убиственог робота?

Неки би тврдили да смо могли одлучно несмртоносни такође наоружани аутономни системи. Стога, са тог становишта, изгледало би крајње неприкладно користити фразе као што су роботи за клање или роботи убице. Несмртоносна варијанта би вероватно била у стању да покори или донесе штету која није смртоносна. Ти такви системи не убијају, они су мањег капацитета за стварање повреда. Немојте прецењивати способности, кажу они који инсистирају на томе да не морамо да будемо заокупљени потпуним тропом машине за убијање.

Дакле, могли бисмо имати ово:

  • Смртоносни аутономни системи наоружања
  • Смртоносни аутономни системи који су наоружани
  • Несмртоносни аутономни системи наоружања
  • Несмртоносни аутономни системи који су наоружани

Наравно, контрааргумент је да би сваки аутономни систем који је био наоружан изгледа имао потенцијал да склизне у сферу смртоносности, чак и ако је наводно предвиђен само за употребу на несмртоносној основи. Постепени два корака преласка од несмртоносног до смртоносног биће брзо предузета када већ добијете оружје у руци усред аутономног система. Били бисте под тешким притиском да пружите чврсту гаранцију да несмртоносни неће упасти у смртоносну арену (мада неки покушавају да то ураде, математички привидно).

Пре него што уђемо много даље у ову општу тему аутономних система и наоружања, можда би било згодно да укажемо на нешто друго што, иако је очигледно очигледно, није нужно видљиво на уму.

Ево га:

  • Постоји АИ аспект који је део аутономног система
  • Постоји аспект наоружања који је страна наоружања ове једначине
  • АИ би такође могао бити међусобно повезан са оружјем

Hajde da to raspakujemo.

Претпоставићемо да данашњи аутономни системи захтевају АИ као основно компјутеризовано средство за изношење аутономних аспеката. Ово помињем јер бисте могли да покушате да тврдите да бисмо могли да користимо технологије и технике које нису повезане са вештачком интелигенцијом за израду аутономних система, што би, иако је тачно, изгледало све мање и мање вероватно. У основи, АИ тежи да омогући већи ниво аутономије, и већина у складу с тим користи АИ високе технологије.

У реду, имамо способност засновану на вештачкој интелигенцији која је некако уметнута у аутономни систем и делује да води и контролише аутономни систем.

Држите то на дохват руке као правило.

Чини се очигледним да и ми треба да имамо неки облик оружја, иначе зашто овде расправљамо о теми аутономних система оружја. Дакле, да, очигледно, постоји оружје ове или оне врсте.

Нећу да улазим у врсту оружја које се може користити. Можете једноставно да замените оружје које вам падне на памет. Можда постоји прецизно оружје. Можда постоји масовно оријентисано деструктивно оружје. Може бити нешто са мецима или пројектилима. То може бити нешто што има хемикалије или атомске испарљиве компоненте. Листа је бескрајна.

Додатно разматрање је да ли је АИ међусобно повезана са оружјем. АИ можда само узима оружје да се провоза. У случају четвороножног робота који је пуцао из пиштоља, можда пиштољ пуца од стране човека који има даљински управљач повезан са окидањем оружја. Робот налик псу креће кроз сцену и онда је на удаљеном човеку да повуче окидач.

С друге стране, АИ би могао бити покретач окидача, такорећи. АИ је можда био осмишљен не само да се креће и маневрира, већ и да активира оружје. У том смислу, вештачка интелигенција ради све од А до З. Не постоји зависност од удаљеног човека да изврши страну ствари са оружјем. АИ је програмиран да то уради уместо тога.

Да разјаснимо онда у овом конкретном случају употребе аутономних система који су наоружани, имамо ове врсте могућности:

  • Аутономни систем: АИ покреће аутономни систем потпуно сам
  • Аутономни систем: АИ покреће аутономни систем, али човек у петљи такође може да интервенише
  • оружје: Даљински човек управља оружјем (АИ не)
  • оружје: АИ управља оружјем, али човек у петљи такође може да интервенише
  • оружје: АИ управља оружјем потпуно сам

Раније сам покрио варијације постојања човека у петљи у вези са аутономним системима и аутономним возилима, види линк овде.

Када гледате те забавно оријентисане видео снимке четвороножних робота који плешу и скакућу, обично се претпоставља да су то роботи којима искључиво управља вештачка интелигенција (па, то је обичај или се сматра одговарајућом етикетом међу онима који су дубоко у ова питања). То је оно што бисте такође с правом могли претпоставити. Наравно, то не знате сигурно. Могуће је да даљински људски оператер води роботе. Такође постоји могућност да вештачка интелигенција ради део вођења, а удаљени људски оператер такође то ради, можда помаже вештачкој интелигенцији ако робот дође у тешку позицију и не може рачунски израчунати одрживо средство да се ослободи.

Суштина је у томе да постоје бројни укуси како АИ и аутономни системи и оружје могу да се мешају. Неки имају АИ који покреће аутономни систем, али не покреће оружје. Човек можда даљински управља оружјем. Други угао је да је оружје можда претходно активирано, а аутономни систем испоручује активирано оружје, тако да АИ није директно учествовао у окидању оружја пер се, већ је уместо тога деловао као возило за испоруку. А могло би бити и да је АИ пословични мајстор за све занате и да користи читав спектар аспеката аутономног система и за коришћење оружја.

Бирај.

У међувремену, имајте на уму да је човек-у-петљи велики фактор када су у питању дебате на ову тему.

Линија раздвајања неких је да ако АИ врши циљање и пуца (или шта год оружје подразумева) онда су цела опрема и коња прешли у недозвољену земљу. Ово се наизглед разликује од конвенционалног оружја за испаљивање и заборави које има унапред циљану селекцију коју одређује човек, као што је патролни дрон који има пројектил спремну за испаљивање на мету која је била већ изабран од човека.

Неки се питају зашто аутономни системи који су наоружани не би увек укључивали човека у петљи током целог процеса док је аутономни систем у активном статусу. Чини се да би нам можда било боље да је строги захтев да сви такви аутономни системи са наоружањем морају имати човека у петљи, било да то раде за рад аутономног система или за управљање оружјем (или за обоје) . Одржавање претпостављене сигурне и стабилне људске руке у овој мешавини вештачке интелигенције може изгледати сасвим лукаво.

Припремите се за дугачку листу разлога зашто то није нужно изводљиво.

Размотрите ове потешкоће:

  • Човек у петљи можда неће бити довољно брз да благовремено одговори
  • Човек у петљи можда нема довољно информација да би савесно одговорио
  • Човек у петљи можда неће бити доступан у потребно време
  • Човек у петљи може бити неодлучан и неће деловати када је то потребно
  • Човек у петљи може донети „погрешну” одлуку (релативно)
  • Човек у петљи можда неће бити доступан из система у потребно време
  • Човек у петљи може бити збуњен и преоптерећен
  • Итд

Несумњиво сте у искушењу да погледате ту листу људских слабости и ограничења и онда дођете до свечаног закључка да има очигледног смисла избацити човека у петљи и увек уместо тога користити вештачку интелигенцију. Ово би могло да буде искључење човека у петљи или можда да АИ буде у стању да надјача укорењени дизајн човека у петљи. Погледајте моју анализу о томе како неслагања између вештачке интелигенције и човека у петљи могу довести до несигурних ситуација, обрађених на линк овде.

Често се омаловажавајућа листа ових врста недостатака у реалном времену фокусираних на људе оставља сама од себе и оставља дуготрајан утисак да АИ мора некако бити много мудрији избор него имати човека у петљи . Немојте упасти у ту издајничку замку. Укључени су отрежњујући компромиси.

Размотрите ове последице АИ:

  • АИ би могао да наиђе на грешку која узрокује да залута
  • АИ може бити преоптерећен и блокиран без реакције
  • АИ може садржати програмске грешке које узрокују нередовно понашање
  • АИ може бити оштећен имплантираним вирусом зликоваца
  • АИ би могли да преузму сајберхакери у реалном времену
  • АИ се може сматрати непредвидивим због сложености
  • АИ би компјутерски могао донети "погрешну" одлуку (релативно)
  • Итд

Верујем да можете да видите да постоје компромиси између коришћења човека у петљи и ослањања искључиво на вештачку интелигенцију. У случају да сте у искушењу да сугеришете да је спремно решење коришћење оба, желео бих само да нагласим да можете добити најбоље од оба света, али можете добити и најгоре од оба света. Немојте претпостављати да ће то увек и сигурно бити најбоље од оба света.

Можда сте били донекле изненађени једном од горе наведених недостатака у вези са вештачком интелигенцијом, посебно што би АИ могла бити непредвидив. Навикли смо да верујемо да би вештачка интелигенција требало да буде строго логичка и математички прецизна. Као такав, такође можете очекивати да ће АИ бити потпуно предвидљив. Требало би да знамо тачно шта ће АИ урадити. Тачка, крај приче.

Жао ми је што сам тај балон пукао, али овај мит о предвидљивости је погрешан назив. Величина и сложеност савремене вештачке интелигенције често су баријера која пркоси да буде савршено предвидљива. Ово се види у етичким АИ галамама о неким данашњим употребама машинског учења (МЛ) и дубоког учења (ДЛ). Објаснићу мало више за тренутак.

Такође, можда бисте желели да погледате моју најновију анализу надолазећих трендова ка покушају да се осигурају проверљиви и математички доказано исправни системи вештачке интелигенције путем најновије АИ безбедности, на линк овде.

Размишљање о правилима пута

Споменуо сам појам мета и циљања, што је прилично оптерећена терминологија која заслужује посебну пажњу.

Можемо размислити о овоме:

  • Мете које су људи
  • Мете које нису људи, већ су жива бића
  • Циљеви који се тумаче као власништво

Претпоставимо да имамо аутономни систем који је наоружан. АИ се користи за вођење аутономног система и користи се за оружје. АИ ради све од А до З. Не постоји одредба за човека у петљи. Што се тиче циљања, АИ ће изабрати мете. Не постоји претходно циљање које су успоставили људи. Уместо тога, вештачка интелигенција је програмирана да генерално утврди да ли постоје људи који ће бити циљани (можда скенирање за непријатељске акције, одређене врсте униформи и тако даље).

Са мном на овоме до сада?

Овај сценарио је углавном онај који изазива највише негодовања због наоружаних аутономних система.

Наведена забринутост је да АИ ради (најмање) три ствари које јој не би требало дозволити:

  • Циљање на људе као мете
  • Циљање без употребе човека у петљи
  • Потенцијално делује непредвидивоly

Приметите да се наглашено помиње забринутост да је вештачка интелигенција непредвидљива. Могуће је да иако је АИ програмирана да циља одређене врсте људи, АИ програмирање није оно што смо мислили да јесте, а АИ на крају циља на „пријатељске“ поред оних које је АИ требало да протумачи као „непријатељске ” (или, можда уместо тога). Поврх овога, чак и ако се одлучимо да укључимо одредбу о човеку у петљи, непредвидљивост АИ може значити да када АИ треба да се консултује са човеком у петљи, не успева па и делује без икакве људске интервенције.

Можда ће вам бити занимљиво да је Међународни комитет Црвеног крста (ИЦРЦ) понудио свеобухватни став у три тачке о аутономним системима наоружања који елаборира ове врсте забринутости (према веб страници МКЦК):

1. „Непредвидивим аутономним системима оружја треба изричито владати напоље, посебно због њиховог неселективног дејства. То би се најбоље могло постићи забраном аутономних система наоружања који су дизајнирани или коришћени на начин да се њихови ефекти не могу довољно разумети, предвидети и објаснити.

2. „У светлу етичких разматрања да се заштити човечанство и да се поштују правила међународног хуманитарног права за заштиту цивила и бораца ван борбе, треба искључити употребу аутономних система наоружања за гађање људских бића. То би се најбоље могло постићи забраном аутономних система наоружања који су дизајнирани или коришћени за примену силе против особа.

3. „У циљу заштите цивила и цивилних објеката, поштовања правила међународног хуманитарног права и заштите човечанства, дизајн и употреба аутономних система наоружања који не би били забрањени треба да буду регулисани, укључујући комбинацију: ограничења типова мета, као што је њихово ограничавање на објекте који су по природи војни циљеви; ограничења трајања, географског обима и обима употребе, укључујући омогућавање људског просуђивања и контроле у ​​вези са одређеним нападом; ограничења у ситуацијама употребе, као што је њихово ограничавање на ситуације у којима цивили или цивилни објекти нису присутни; руслови за интеракцију човек-машина, посебно да би се обезбедио ефикасан људски надзор и благовремена интервенција и деактивација.”

У вези с тим, Уједињене нације (УН) су преко Конвенције о одређеном конвенционалном оружју (ЦЦВ) у Женеви успоставиле једанаест необавезујућих водећих принципа о смртоносном аутономном оружју, према званичном извештају објављеном на интернету (који обухвата референце на релевантне међународне хуманитарне Закон или одредбе МХП):

(а) Међународно хуманитарно право наставља да се у потпуности примењује на све системе наоружања, укључујући потенцијални развој и употребу смртоносних аутономних система наоружања;

(б) Људска одговорност за одлуке о употреби система наоружања мора бити задржана јер се одговорност не може пренети на машине. Ово треба узети у обзир током читавог животног циклуса система наоружања;

(ц) Интеракција човека и машине, која може имати различите облике и бити спроведена у различитим фазама животног циклуса оружја, треба да обезбеди да потенцијална употреба система наоружања заснованих на новим технологијама у области смртоносних аутономних система наоружања буде у усклађеност са важећим међународним правом, посебно МХП. У одређивању квалитета и обима интеракције човек-машина, треба узети у обзир низ фактора, укључујући оперативни контекст, и карактеристике и способности система наоружања у целини;

(д) Одговорност за развој, распоређивање и употребу било ког система наоружања у настајању у оквиру ЦЦВ мора бити осигурана у складу са важећим међународним правом, укључујући функционисање таквих система у оквиру одговорног ланца људске команде и контроле;

(е) У складу са обавезама држава према међународном праву, приликом проучавања, развоја, набавке или усвајања новог оружја, средстава или метода ратовања, мора се утврдити да ли би његово коришћење, у неким или свим околностима, било забрањено међународним правом;

(ф) Приликом развоја или набавке нових система наоружања заснованих на новим технологијама у области смртоносних аутономних система наоружања, физичке безбедности, одговарајућих нефизичких заштитних механизама (укључујући сајбер-безбедност од хаковања или лажирања података), ризик од аквизиције од стране терористичких група и треба узети у обзир ризик од пролиферације;

(г) Процене ризика и мере за ублажавање треба да буду део циклуса дизајна, развоја, тестирања и примене нових технологија у било ком систему наоружања;

(х) Требало би размотрити употребу нових технологија у области смртоносних аутономних система наоружања у одржавању усклађености са МХП и другим примењивим међународним правним обавезама;

(и) У креирању потенцијалних мера политике, нове технологије у области смртоносних аутономних система наоружања не би требало да буду антропоморфизоване;

(ј) Дискусије и све потенцијалне мере политике предузете у контексту ЦЦВ не би требало да ометају напредак или приступ мирној употреби интелигентних аутономних технологија;

(к) ЦЦВ нуди одговарајући оквир за бављење питањем нових технологија у области смртоносних аутономних система наоружања у контексту циљева и сврха Конвенције, која настоји да успостави равнотежу између војне потребе и хуманитарних разлога.

Проблем у коме се налазимо

Ови различити закони рата, закони оружаног сукоба или МХП (Међународни хуманитарни закони) служе као витални и увек обећавајући водич за разматрање шта бисмо могли да покушамо да урадимо у вези са појавом аутономних система који су наоружани, било да је то кључно или накнадним методама.

Искрено можемо пожелети да се забрана смртоносних наоружаних аутономних система стриктно и послушно поштује. Проблем је у томе што ће се много простора за помицање лукаво наћи у оквиру било које од најискренијих забрана. Како кажу, правила се крше. Можете се кладити да ће тамо где су ствари лабаве, рифраф пронаћи празнине и покушати да намигује-намигује око правила.

Ево неких потенцијалних рупа које вреди размотрити:

  • Тврдње о несмртоносним. Направити несмртоносни аутономни системи наоружања (наизглед у реду пошто је ван границе забране), који онда можете за мало да промените у смртоносни (прећи ћете забрану тек у последњем тренутку).
  • Захтеви само за аутономни систем. Подржите забрану тако што ћете не правити аутономне системе фокусиране на смртоносне проблеме, у међувремену, остварите што већи напредак у осмишљавању свакодневних аутономних система који (још) нису наоружани, али које можете са новчићем накнадно уградити у оружје.
  • Тврдње да нису интегрисане као једна. Израдите аутономне системе који уопште нису опремљени оружјем, а када за то дође време, наоружавање тако да можете да покушате да жестоко тврдите да су то два одвојена елемента и да стога тврдите да не спадају у рубрику све-у-једном аутономни систем наоружања или његов рођак.
  • Тврди да није аутономна. Направите систем наоружања који не изгледа као аутономни капацитет. Оставите места у овом вероватно неаутономном систему за укључивање аутономије засноване на вештачкој интелигенцији. Када је потребно, укључите аутономију и спремни сте за рад (до тада, изгледа да нисте кршили забрану).
  • други

Постоји много других изражених потешкоћа у покушају да се потпуно забрани смртоносни аутономни системи наоружања. Покрићу још неколико њих.

Неки стручњаци тврде да забрана није посебно корисна и да уместо тога треба да постоје регулаторне одредбе. Идеја је да ће ове направе бити дозвољене, али под строгим надзором. Изложен је низ законитих употреба, заједно са законитим начинима циљања, законитим врстама способности, законитом пропорционалношћу и слично.

По њиховом мишљењу, директна забрана је као стављање главе у песак и претварање да слон у соби не постоји. Ова тврдња, међутим, изазива кључање у крви оних који се супротстављају аргументу да увођењем забране можете драматично смањити иначе искушење да следите овакве системе. Наравно, неки ће се разметати забраном, али барем се надамо да већина неће. Тада можете да усмерите пажњу на оне који се размећу и не морате да делите пажњу на све.

Ове дебате иду у круг.

Још једна често примећена брига је да чак и ако се добри придржавају забране, лоши неће. Ово добро ставља у лош положај. Лоши ће имати ове врсте наоружаних аутономних система, а добри неће. Једном када се открије да их имају лоши, биће касно да их добри сустигну. Укратко, једина паметна ствар коју треба учинити је припремити се за борбу против ватре ватром.

Постоји и класична тврдња о одвраћању. Ако се добри одлуче да направе аутономне системе са наоружањем, то се може искористити да одврати лоше од покушаја да уђу у сукоб. Или ће добри бити боље наоружани и тако одвратити лоше, или ће добри бити спремни када зли можда открију да су све време кришом смишљали те системе.

Против ових контракција је то што стварањем наоружаних аутономних система водите трку у наоружању. Друга страна ће тражити исто. Чак и ако технолошки нису у стању да изнова створе такве системе, сада ће моћи да украду планове оних „добрих“, да обрну инжињеринг високотехнолошке храбрости, или да опонашају оно што им се чини да је испробано начин да се посао обави.

Аха, нека реплика, све би то могло довести до смањења сукоба наизглед међусобног. Ако страна А зна да страна Б има то смртоносно оружје аутономних система, а страна Б зна да их има страна А, можда ће седети чврсто и не доћи до сукоба. Ово има ону изразиту ауру вибрација обострано осигураног уништења (МАД).

И тако даље.

АИ у аутономији

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Кад бисмо хтели да дивље спекулишемо о осетљив АИ, ова дискусија би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Хајде да задржимо ствари на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Будите веома опрезни са антропоморфизацијом данашње вештачке интелигенције.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Са том додатном темељном позадином, поново се окрећемо теми аутономних система и наоружања. Раније смо видели да АИ улази у компоненту аутономног система и такође може да уђе у компоненту наоружања. Данашња АИ није разумна. Ово је вредно понављања и ја ћу то нагласити ради додатног увида у ова питања.

Хајде да истражимо неке сценарије да видимо како је ово кључно разматрање. На тренутак ћу се искључити из ратне оријентације на ову тему и показати како она прожима многе друге друштвене средине. Сходно томе, учврстите се.

Аутономни систем заснован на вештачкој интелигенцији, као што је аутономно возило за које ћемо рећи да нема никакве везе са оружјем, пробија се кроз нормалан локалитет. Човек долази да искористи аутономно возило. Особа је наоружана оружјем за слутњу. Претпоставите ради дискусије у овом конкретном сценарију да особа има нешто лоше на уму. Особа улази у аутономно возило (носећи своје оружје, скривено или нескривено, у сваком случају).

Аутономно возило наставља ка било којој дестинацији коју је возач затражио. У овом случају, АИ једноставно програмски преноси овог путника са једне локације за преузимање до одређене дестинације, баш као што је то чинио током могућих десетина или стотина путовања, сваког дана.

Да је ово био човек и возило којим управљају људи, вероватно постоји шанса да би човек схватио да је путник наоружан и да изгледа да има лоше намере. Људски возач може одбити да управља возилом. Или би се човек могао одвести у полицијску станицу. Или би можда човек могао да покуша да покори наоружаног путника (пријављени случајеви постоје) или да одврати путника од употребе оружја. То је прилично компликовано и може постојати било који број варијација. Било би вам тешко да тврдите да постоји само један прави одговор за решавање такве невоље. Нажалост, ситуација је узнемирујућа и очигледно опасна.

Мало је вероватно да ће АИ у овом случају бити програмиран за било коју од тих врста могућности. Укратко, наоружани путник би могао да користи своје оружје, чинећи то из аутономног возила, током вожње. Систем АИ вожње ће наставити да путује и аутономно возило ће наставити да се креће ка наведеној ознаци путника (под претпоставком да се одредиште иначе не сматра ван граница).

Већина савремених АИ система за вожњу би се компјутерски фокусирала само на коловоз, а не на напоре возача.

Ствари могу бити горе од овога.

Претпоставимо да неко жели да се гомила намирница превезе до места које узима додатну храну за потребите. Особа тражи аутономно возило и ставља кесе са намирницама на задње седиште возила. Они неће ићи заједно у вожњу и само користе аутономно возило да испоруче кесе са храном за њих.

Изгледа савршено добро.

Замислите да се подла особа уместо тога одлучи да стави неки облик наоружања у аутономно возило уместо мирније идеје о кесама за намирнице. Мислим да можете претпоставити шта би се могло догодити. Ово је забринутост коју сам више пута подстицао у својим колумнама и упозоравао да морамо да се носимо са њом пре него касније.

Један од понуђених одговора на ове врсте сценарија је да би се можда сва аутономна возила могла програмирати да користе своје камере и друге сензоре како би покушали да открију да ли је потенцијални путник наоружан и има зле намере. Можда би вештачка интелигенција била програмирана да то уради. Или АИ електронски и тихо упозорава удаљеног људског оператера који би затим преко камера визуелно и на други начин прегледао и евентуално ступио у интеракцију са путником. Све је то део сложене и потенцијално нерешиве конзерве црва, тако да покреће интензивна питања приватности и мноштво других потенцијалних питања етичке вештачке интелигенције. Погледајте моје извештавање на линк овде.

Још једна донекле слична алтернатива је да АИ садржи неку врсту уграђеног етичког програмирања који покушава да омогући АИ да доноси етичке или моралне пресуде које су обично резервисане за људе који доносе одлуке. Испитао сам ове врсте прогностичара рачунарске етике уграђених у вештачку интелигенцију, види линк овде линк овде.

Враћајући се на сценарио бојног поља, замислите да смртоносни аутономни систем наоружања крстари изнад борбене зоне. АИ управља аутономним системом. АИ управља оружјем на броду. Раније смо замислили могућност да би вештачка интелигенција могла бити програмирана да скенира наизглед непријатељске покрете или друге показатеље људских циљева који се сматрају валидним борцима.

Да ли би ова иста вештачка интелигенција требало да има неку врсту етички оријентисане компоненте која настоји да компјутерски размотри шта би човек-у-петљи могао да уради, делујући на неки начин уместо да има човека-у-петљи?

Неки кажу да, хајде да наставимо са овим. Неки устукну од ужаса и кажу да је то или немогуће или на други начин нарушава светост човечанства.

Још једна конзерва црва.

Zakljucak

За оне од вас које занима ова тема, има још много тога о чему треба разговарати.

Даћу вам на брзину да пробате једну мучну загонетку.

Обично очекујемо да ће човек на крају бити одговоран за све што се догоди током рата. Ако вештачка интелигенција контролише аутономни систем оружја или контролише аутономни систем који је вероватно био наоружан, а овај систем ради нешто на бојном пољу за шта се верује да је несавесно, ко или шта је за то криво?

Можете тврдити да АИ треба да сноси одговорност. Али, ако јесте, шта то тачно значи? Још не сматрамо да је данашњи АИ оличење правне личности, погледајте моје објашњење на линк овде. Нема прибадања репа магарцу у случају АИ. Можда ако АИ једног дана постане разуман, можете покушати да то учините. До тада, ово је мало домет (плус, каквим казнама или реперкусијама би била подвргнута АИ, погледајте моју анализу на линк овде линк овде, на пример).

Ако вештачка интелигенција није одговорни осумњичени, онда бисмо природно могли да кажемо да шта год да су људи или људи осмислили АИ треба да се сматрају одговорним. Можете ли то да урадите ако је вештачка интелигенција само покретала аутономни систем и наишли су неки људи који су га упарили са оружјем? Да ли идете за АИ програмерима? Или они који су применили АИ? Или само глумац који користи оружје?

Верујем да сте схватили да сам дотакао само врх леденог брега у својој срдачној дискусији.

За сада, хајде да завршимо овај дискурс. Можда се сећате да је Џон Лајли ушао Еупхуес: Тхе Анатоми оф Вит 1578. незаборавно изјавио да је у љубави и рату све поштено.

Да ли је имао на уму појаву аутономних система наоружања и исто тако појаву аутономних система који су наоружани?

Ово свакако морамо одмах да ставимо на памет.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/07/25/аи-етхицс-стругглинг-витх-тхе-фиери-оне-тво-пунцх-оф-ботх-аи-басед-аутономоус- системи-оружје-и-експлоатација-аутономних-система-који-су-ђаволски-наоружани/