Етика вештачке интелигенције размишља о меритуму законског обавезивања средстава за помирење како би се обезбедила одговорност за лоше деловање вештачке интелигенције

ко је крив?

То би могло изгледати као једноставно питање, иако у случају чувене комедије легендарног двојца Абботт и Цостелло о бејзбол тиму, „ко“ може бити збуњујући. Можда сте нејасно упознати са Ко је први комична рутина коју су претворили у један од најтрајнијих скечева свих времена (упозорење о спојлеру за оне од вас који то нису чули).

Абот каже Костелу да је ко је на првом, шта је на другом, а ја не знам је на трећем. Паметан трик је да се први носилац зове Ко, други подрум се зове Шта, а трећи носилац се зове Не знам. Наравно, те фразе такође имају своје конвенционално значење и стога покушај тумачења онога што Абот говори може бити потпуно збуњујући. Заиста, Костело поставља наизглед безазлено питање ко је први, за шта је одговор чврсто изречен да. Али Костелу ово нема смисла јер је очекивао име и уместо тога је добио збуњујуће да као одговор.

Промена брзина, када је у питању појава вештачке интелигенције (АИ), једно од најнеугоднијих питања која се стално постављају подразумева ко или шта ће сносити одговорност када вештачка интелигенција залута.

Раније сам разговарао о кривичној одговорности за случајеве када АИ доведе до или предузме кривичне радње, погледајте моје извештавање на линк овде. Ту је и питање грађанске одговорности, као што је кога или шта можете тужити када вам је вештачка интелигенција погрешила, што је тема о којој ћу овде расправљати. Све ово има значајна разматрања етике вештачке интелигенције. За моје текуће и опсежно покривање етике вештачке интелигенције и етичке вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања о вештачкој интелигенцији и чинити то интегрално за развој вештачке интелигенције и њено коришћење на терену је од виталног значаја за производњу одговарајуће вештачке интелигенције, укључујући (можда изненађујуће или иронично) процену тога како компаније усвајају етику вештачке интелигенције.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. У ствари, они унапред упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

Води се жестока дебата о томе да ли су постојећи закони у стању да се на адекватан начин позабаве појавом АИ система у друштву. Правна одговорност обично захтева да магарцу закачите реп ко је одговоран за штетно понашање. У случају АИ, може постојати прилично нејасан пут који везује одређену особу или особе за АИ која је извршила неку штетну радњу. АИ може бити у великој мери неоткривен до извора или проналазача који је саставио АИ.

Друго разматрање је да чак и ако се корени АИ могу пратити до некога, питање је да ли та особа или особе можда нису биле у стању да разумно предвиде нежељени исход који је АИ на крају произвео. Суштина предвидивости је уобичајено значајан фактор у процени правне одговорности.

Можда ћете бити у искушењу да помислите да једноставно можете да кренете за самом вештачком интелигенцијом и именујете АИ као правну страну која је одговорна или одговорна за било коју штету која је наводно настала. Углавном, преовлађујући правни став је да АИ још није достигла ниво правног лица. Дакле, нећете моћи строго говорећи да тражите да АИ плати и мораћете да пронађете људе који су радили на полугама иза сцене, такорећи (за моју анализу правног лица за АИ, погледајте линк овде).

У сву ову потенцијалну правну мочвару ступа идеја која се извлачи као могући лек, било на краткорочној основи или евентуално на дугорочном плану. Идеја је да би можда требало успоставити посебан компензациони фонд који би обезбедио финансијску помоћ за оне који су оштећени АИ. Ако иначе нисте у могућности да натерате вештачку интелигенцију да вам надокнади штету и не можете да ухватите особе које би требало да буду одговорне, следећа најбоља опција би могла бити да искористите компензациони фонд који има за циљ да помогне онима који су оштећени АИ.

Такав фонд би био сличан неком облику осигурања, као што је наведено у истраживачком раду који изазива размишљање: „Ово би у суштини био механизам осигурања од неизвесности: јасан и транспарентан оквир за брзу компензацију у случајевима када је тужба за одговорност неизвесност или без изгледа на успех због непредвидиве природе штетног понашања, саме (врсте) штете или превеликих трошкова и/или сложености поступка” (чланак Оливије Ердели и Габора Ерделија, „Загонетка одговорности вештачке интелигенције И решење засновано на фондовима“, Јоурнал оф Артифициал Интеллигенце Ресеарцх, КСНУМКС).

Компензациони фонд би био део свеобухватне шеме гаранције за вештачку интелигенцију (АИГС) и био би праћен неким лаким изменама постојећих закона о правној одговорности. Лагани додир би вероватно било лакше спровести и не би захтевао тешку врсту правног и друштвеног страха ако би се у постојећим правним режимима унела још мучнија серија демонстративних промена. Према истраживачима: „Ово одражава наше уверење да – упркос привлачности таквог брзог решења – непромењен примена постојећих правила одговорности за АИ или а протекционистички мотивисан прибегавање стриктној одговорности у циљу утврђивања одговорности по сваку цену нису тачни одговори из три разлога: прво, игноришући да су та правила прилагођена различитим околностима и да стога могу бити неприкладна за вештачку интелигенцију, она су у супротности са деликатно уравнотеженим циљевима систем правне одговорности. Друго, они инхибирају иновације вештачке интелигенције усвајањем непримерено казненог приступа. Треће, неоправдано прибегавање стриктној одговорности само заобилази проблеме предвидљивости и грешака на догматски недоследан начин, уместо да их отклања” (према горе цитираном раду).

Аргументи у корист таквих компензационих фондова АИ укључују:

  • Смањује потребу за дугим и скупим правним суђењима како би се изборили са штетом коју је нанела вештачка интелигенција
  • Уверава људе да могу да користе вештачку интелигенцију и да добију надокнаду ако буду повређени
  • Промовише АИ иновације ублажавањем правне несигурности са којом се суочавају иноватори АИ
  • Може се ставити у употребу много брже од великих промена у постојећим законима
  • Нуди релативно јасан лек који је поуздан и лако доступан
  • други

У међувремену, они који се противе приступу компензационих фондова вештачке интелигенције кажу ово:

  • Хајде да креаторе вештачке интелигенције претерано заобиђемо и дозволимо им да заобиђу одговорност
  • Охрабриће произвођаче вештачке интелигенције да направе вештачку интелигенцију којој недостаје поуздана безбедност и одговарајуће контроле
  • Могло би подстаћи људе да лажно тврде да штете од вештачке интелигенције како би могли да искористе средства
  • Заобилази и подрива истинску потребу да се преиспитају наши закони да би се у довољној мери управљала вештачка интелигенција
  • Може постати бирократска ноћна мора која заглави и злоупотребљава средства
  • други

Као што је очигледно, постоје и заговорници и противници овог потпуно контроверзног појма.

Било би тешко да накратко искључите компензациони фонд за вештачку интелигенцију као потенцијални приступ растућој забринутости у вези са вештачком интелигенцијом која узрокује штету. Нити предложено решење није закуцавање.

Једно становиште је да би произвођачи вештачке интелигенције морали да уложе новац у фондове као део својих напора приликом осмишљавања и објављивања АИ. Ово би се могло протумачити као нека врста накнаде или пореза који су обавезни да сносе као део могућности да своју вештачку интелигенцију пусте у свет. Али да ли овај додатни трошак потенцијално потискује напоре стартупа који покушавају да помере границе данашње вештачке интелигенције? И како би се поступало са спровођењем осигурања да произвођачи вештачке интелигенције плаћају своју накнаду или порез?

Појављује се низ питања која би требало да буду решена:

  • У којим земљама би компензациони фонд за вештачку интелигенцију најбоље био изводљив?
  • Може ли се успоставити глобални привид међусобно повезаних компензационих фондова АИ?
  • Који би били детаљни и изводљиви механизми повезани са таквим фондовима?
  • Како ће се финансирати компензациони фондови АИ (јавни, приватни, добротворни)?
  • Да ли би ово била основа осигурања без кривице или би се предузео неки други приступ?
  • Итд

Област која је већ имала идеју о компензаторним средствима вештачке интелигенције састоји се од аутономних система као што су аутономна возила и аутомобили који се сами возе. За моје покривање самовозећих аутомобила и АИ аутономних система, погледајте линк овде.

Ево скице како би ово могло да функционише за самовозеће аутомобиле засноване на вештачкој интелигенцији.

Претпоставимо да се самовозећи аутомобил удари у возача бицикла. Возач бицикла је повређен. Возач бицикла може тражити правно обештећење тако што ће трагати за произвођачем аутономног возила. Или би могли да циљају на технолошку фирму за самовозу која је направила систем за вожњу са вештачком интелигенцијом. Ако се самовозећи аутомобил користи као флота, други правни пут би био да се потражи оператера возног парка. Покушај да се тужи АИ није опција у овом тренутку јер правно лице АИ још није успостављено.

Уместо предузимања правних поступака против било које од тих страна, други начин за прибегавање би био да се поднесе пријава или потраживање одговарајућем компензационом фонду за вештачку интелигенцију. Фонд би формализовао процесе који укључују преиспитивање захтева, а затим би одредио шта ако би било какве компензационе исплате могле бити обезбеђене подносиоцу захтева. Може постојати жалбени процес који помаже подносиоцима захтева који верују да их је фонд погрешно одбио или да им је фонд недовољно надокнађен.

У теорији, компензациони фонд за вештачку интелигенцију би био много бржи пут ка компензацији за нанету штету. Можете замислити колико би тужба могла бити напорна, при чему би фирме које су тужене могле покушати да одуговлаче случај.

Адвокати би ипак могли нагласити да би компензациони фонд за вештачку интелигенцију могао да дозволи оним другим странама, као што су произвођачи вештачке интелигенције, да наизглед избегну било какву јасну казну због тога што су пустили свој самовозећи аутомобил на јавним путевима који су на крају ударили бициклиста. Шта би још те компаније могле „непажљиво“ да ураде? Без надолазећег духа правног мача који виси над њиховим главама, могли бисмо се свакодневно суочавати са вештачком интелигенцијом која је препуна опасних капацитета.

Аргументи иду у круг.

Zakljucak

Етика вештачке интелигенције нас подсећа да увек треба да разматрамо етичке и правне последице АИ. У овом случају компензационих фондова за вештачку интелигенцију, предложени појам фонда налик на осигурање за компензацију оних који су оштећени АИ заиста изгледа примамљиво. Средства би наизглед чекала тамо, спремна да се искористе и обезбеде што је пре могуће обештећење.

Компромиси око тога да ли би ово могло да отвори врата ка стварању вештачке интелигенције која има све мање и мање безбедносних контрола је застрашујућа и превише стварна брига. Вероватно не треба да доливамо уље на ватру која је можда већ донекле у току.

Можемо ли некако и даље задржати произвођаче АИ да осмисле одговарајућу етичку АИ и истовремено успоставе ове компензацијске фондове АИ?

Неки би рекли да да, можемо. Промјеном постојећих закона како би се ускладили са компензацијским фондовима АИ, они који су оштећени АИ би потенцијално имали двоструки пут да траже своју праведну надокнаду.

Ко је први?

Да, то је ко (као и код свих нас) је на првом месту да би требало да размишљамо о потенцијалном коришћењу компензационих фондова за вештачку интелигенцију и да модификујемо постојеће законе, макар и благо, пружајући средства за суочавање са нападом и добре вештачке интелигенције и лош АИ.

Нема забуне око тог виталног разматрања.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/08/10/аи-етхицс-муллинг-овер-тхе-меритс-оф-легалли-мандатинг-атонемент-фундс-то-енсуре-аи- одговорност/