Која је ажурирана политика Пентагона о роботима убицама?

Пентагон је издао ажурирање своје Директиве 3000.09, што покрива оно што они називају Аутономија у системима оружја а други зову 'роботи убице.' Тренутни дронови попут ваздухопловства и ЦИА МК-9 Жетелице управљају се даљинским управљањем: људско биће седећи испред видео екрана идентификује мете на земљи хиљадама миља далеко, ставља их на нишан и ослобађа а пројектил Хеллфире или друго оружје. Аутономно оружје је другачије: оно бира сопствене мете без икакве људске интервенције. Потребна су јасна правила о томе када и како се могу користити, а нова директива их приближава корак ближе.

Пре десет година, када је објављена прва верзија 3000.09, аутономно оружје је изгледало као научна фантастика. Сада су веома стварни. УН су то тврдиле Беспилотне летелице које је снабдевала Турска напале су мете аутономно у Либији 2020. а Русија сада распоређује лутајућу муницију у Украјини са аутономна способност.

Многи активисти, попут Кампања за заустављање убилачких робота, желе потпуну забрану аутономног оружја, инсистирајући да свако даљинско оружје остаје под смислена људска контрола у сваком тренутку. УН су расправљале како да контролишу такво оружје дуги низ година.

Међутим, како нова директива јасно показује, Пентагон се држи другачије линије.

„ДоД се доследно противио стандарду политике 'смислене људске контроле' када су у питању и аутономни системи и системи вештачке интелигенције. Грегори Аллен, директор Пројекта управљања АИ у Центар за стратешке и међународне студије, рекао ми. „Преферирани уметнички термин Министарства одбране је 'одговарајући нивои људске процене', што одражава чињеницу да у неким случајевима – на пример, аутономни авиони за надгледање и неке врсте аутономног сајбер оружја – одговарајући ниво људске контроле може бити мали или никакав .”

Које би само аутономно оружје било дозвољено под којим околностима? Ален верује да је претходна верзија директиве била толико нејасна да је обесхрабрила било какав развој у овој области.

„Збуна је била толико раширена – укључујући и неке високе лидере Министарства одбране – да су се званичници уздржавали од развоја неких система који нису били само дозвољени политиком, већ су и изричито изузети од захтева за вишим прегледима“, каже Ален.

Ниједно оружје није подвргнуто процесу прегледа за аутономно оружје наведено у оригиналном 3000.09 у десет година од када је објављен.

Ален је написао ан есеј о овоме за ЦСИС прошле године, описујући четири области на којима је био потребан рад – формално дефинисање аутономних система наоружања, говорећи шта „омогућен АИ” значи за политику, како ће се процес прегледа носити са моделима преобуке машинског учења и појашњавајући које врсте оружја захтевају да проћи кроз напоран процес прегледа.

„ДоД је све њих имплементирао“, каже Ален.

У принципу, ово би требало да обезбеди оно што Министарство одбране назива „снажна и стална посвећеност да буде транспарентан глобални лидер у успостављању одговорне политике у вези са војном употребом аутономних система“.

Међутим, постоје неки додаци који се могу сматрати празнинама, као што је изузеће од вишег прегледа за беспилотне летелице за одбрану аутономног оружја које не гађају људе („антиматеријално оружје“) и којима би било дозвољено да гађају ракете, друге дронове а потенцијално и други системи.

„Реч 'одбрана' је много посла," Зак Калленборн, рекао ми је сарадник за политику на Сцхар школи политике и владе на Универзитету Џорџ Мејсон. „Ако дрон делује на непријатељској територији, скоро свако оружје би се могло протумачити као 'одбрана' платформе.

Каленборн такође напомиње да, иако је ефективно аутономно оружје попут нагазних мина у употреби више од једног века, пејзаж се брзо мења због напретка вештачке интелигенције и посебног машинског учења. Ово је довело до система који су веома способни, али технички ломљив – када не успеју, пропадају спектакуларно на начин на који ниједан човек не би, на пример грешка корњача за пушку.

„Аутономија кроз АИ дефинитивно заслужује више пажње, с обзиром на крхкост и недостатак објашњивости тренутно доминантних приступа“, каже Каленборн.

Ажурирање није велико. Али то показује сталну посвећеност Пентагона развоју ефикасног аутономног оружја и уверење да се они могу придржавати међународно хуманитарно право — разликовање цивила од војног особља, настојећи да избегне повреду цивила и коришћење само пропорционалне и неопходне силе.

Кампањи верују да вештачка интелигенција неће поседовати неопходно разумевање за доношење моралних судова у рату и ризикује стварање света у коме је рат аутоматизован и људи више немају контролу. Други верују да ће америчка војска бити надмашили противници са аутономним оружјем осим ако је вештачка интелигенција укључена на тактичком нивоу, и то превише људског учешћа успорава војне роботе.

Расправа ће се вероватно наставити чак и када се аутономно оружје почне појављивати, а резултати ће се пажљиво пратити. У сваком случају, чини се да роботи убице долазе.

Извор: хттпс://ввв.форбес.цом/ситес/давидхамблинг/2023/01/31/вхат-ис-тхе-пентагонс-упдатед-полици-он-киллер-роботс/