Крипто и АИ: будућност улоге адвоката

Једна од њих је да људска бића могу наћи другачију улогу и положај него што смо навикли данас.

Дакле, ако би се, аргумента ради, направила машина која би могла дати неизбежно тачан одговор на правно питање и на тај начин пружити практично неизбежан одговор на могући исход спора, теоретски би улога адвоката могла да пређе у област која није разрада одговора на питање. Можда, то да знате како поставити право питање машини која ће онда дати одговор. Дакле, он би се бринуо да машина добије све најприкладније елементе и параметре за генерисање очекиваног одговора.

Или би могао да пређе на ту област „обуке“ правне машине, а затим да јој обезбеди или се побрине да сви правни подаци и информације потребне за процену буду достављене машини.

А пошто ће ова машина, пратећи ову хипотезу, бити у стању да пружи неизбежну тачност да донесе пресуду за коју претпостављамо да је „правична“, улога судије би можда могла да постане улога да обезбеди да стране не варају у обезбеђивању машина са неопходним елементима за доношење пресуде и да критеријуми пресуде које је машина унела и применила испуњавају правичност, разумност, пропорционалност, недискриминацију итд.

Све ово, иначе, изгледа да је у складу са чувених пет принципа постављених ЦЕПЕЈ – Европска комисија за ефикасност правосуђа (тј. Комисија за ефикасност правосуђа Савета Европе, то тело СЕ које представља 47 земаља чија је сврха да тестира и прати ефикасност и функционисање европских правосудних система) у Етици Повеља о употреби вештачке интелигенције у правосудним системима: (и) Начело поштовања основних права; (ии) Начело недискриминације (иии) Начело квалитета и сигурности; (ив) Начело транспарентности, непристрасности и правичности (в) Принцип контроле корисника.

Сада, чак и прихватајући идеју да се у будућности у којој ће вештачка интелигенција наћи масовну примену у правном пољу, улога људи може преместити само у област надзора, треба узети у обзир и друга разматрања. Углавном зато што када замислимо правосудни систем којим се управља овим наизглед неутралним и непогрешивим алатима, ми сами себи представљамо апарат који само спроводи законе и правила. Обичан извршилац прописа.

Оваква репрезентација правде, међутим, не постоји у практичној стварности, јер, упркос било каквој начелној петицији и принципу поделе власти, они који доносе пресуду често у извесној мери доприносе производњи закон и мењају његову структуру. Односно, судска функција се често посебно слаже у креирању и консолидацији правила.

Наравно, овај обим варира у зависности од законодавног и уставног система. То је свакако веће у земљама обичајног права, где се право формира одлукама које постављају преседан.

Међутим, ово важи и за земље са кодификованим правом, као што су Италија, Француска, Немачка, итд. У овим системима, заправо, тумачење дато кроз судску одлуку понекад форсира или чак савија формални закон, допуњује га када пронађе празнине и недостатке у њему, занемарује га и ставља га у празнину када постоје услови који га доводе у сукоб са принципима вишег ранга.

Односно, судска функција, директно или индиректно, често завршава задирањем у област регулаторне функције, а то се може десити на различитим нивоима.

Напомена: ово не искључује могућност да, апстрактно, машина позвана да производи прописе није у стању да то уради чак ни боље од човека. Ако само због чињенице да је историја пуна лоших људских регулатора. Као екстремни пример, узмите у обзир ужасно искуство Холокауста и етничког чишћења: то су били ужаси које су законски подржавали законодавни системи засновани на макроскопски нехуманим принципима, али су их креирала и наметнула сама људска бића.

Сусрет нормативне производње и вештачке интелигенције

Кључна ствар је друга: да ли смо заиста сигурни да желимо да омогућимо машинама приступ процесу нормативне производње? И у којој мери? И морамо имати на уму да се овај улазак може одвијати и на „пузајући“ начин, кроз та полуотворена врата јурисдикцијске функције.

Идеја да функције које могу да обављају машине могу остати спуштене на само извршну, или у најбољем случају помоћну улогу у односу на рад и вољу човека, захваљујући тим етичким и формалним препрекама које намеће човек (нпр. закони роботике, Асимов или, заиста, принципи разрађени у европском контексту о употреби вештачке интелигенције у правосудним системима) могу бити умирујући.

Ово су у овом случају правила диктирана директно од човека машини и одговарају у ширем смислу на задовољство човековог сопственог егзистенцијалног позива. Односно, сви су на неки начин конзервативни и функционални за развој и очување постојања човечанства.

И ту се покреће помало филозофска дилема, ако хоћете: ако бисмо икада дозволили нељудском ентитету да у потпуности уђе у процес нормативног формирања, с обзиром да је он, управо као ентитет, иманентно обдарен својим сопствени егзистенцијални позив, шта би га спречило да напише правила која не одговарају човековом егзистенцијалном позиву?

Да узмемо екстреман пример, ако бисмо поставили проблем пренасељености и оскудице хране и енергетских ресурса, глобално, као људи, подложни одређеним патолошким идеолошким помацима, на етичком нивоу бисмо одбацили као средство за решавање проблема. решења која постулирају масовно истребљење или убиство људских бића.

Исти проблем, посматран очима нељудског ентитета, који можда не препознаје идентичне етичке принципе, могао би довести до решења масовног истребљења, можда на основу селективних критеријума који имају за циљ елиминисање најслабијих субјеката (баш оних који људска етика налаже приоритетно) као најразумније решење на строго и хладно логичком плану.

Массимо Цхириатти, међу водећим стручњацима за вештачка интелигенција у Италији, који је у многим својим списима разјаснио своје ставове о границама вештачке интелигенције и надзорној улози коју људи морају да задрже на гвоздени начин у употреби ових технологија у својој „Вештачкој несвести“ наводи:

„Постоји веома важна ствар коју треба размотрити: свако предвиђање вештачке интелигенције је квантитативна процена, никада квалитативна, док за нас људе избор скоро никада није једноставна калкулација. Одлуке доносимо на основу немерљивих и стога непроцењивих вредности. Ми смо учитељи машина. То смо имплицитно када они асимилирају податке које креирамо, када граде модел и дају нам одговоре. 

То смо изричито када им дамо упутства како да раде посао. Из ових разлога морамо обратити пажњу на то како они уче, јер ће на тај начин еволуирати.”

Осим екстремног примера који је управо дат, док је сујетно и илузорно противити се развоју технологије, ова врста процеса се мора водити са највећом свешћу.

Данас разговарамо о утицају вештачке интелигенције на правне професије, у погледу којих ситуације и вредности крајње деликатности и особености се односе на интелектуалну софистицираност, креативност и све оне компоненте које волимо да пратимо до нематеријалне суштине човека.

Исти проблем ће, међутим, произвести велики утицај на стотине послова које ће машине за врло кратко време моћи да обављају једнако добро и боље од људи, по бесконачно нижој цени.

Да ли треба да се осећамо угрожено од крипто и вештачке интелигенције (АИ)?

Огромне размере овог питања треба да нас наведу да размислимо о последицама које ће утицати на стварни свет и нашу способност да читамо стварност, пошто ће друштвени и политички поглед на свет рада и економије бити револуционисан.

Ако је легитимно постављати низ питања, у вези са светом адвокатуре, потребно је узети у обзир да ће се слична питања морати постављати о великом делу света рада.

За нас су најнепосреднији: „Шта ће бити са људима, судијама и адвокатима, који данас обављају ту улогу и функције које би сутра могле да обављају машине? Како ће зарађивати за живот?"

Али на нивоу колективног интереса, има далеко више: „Ко ће плаћати доприносе за социјално осигурање и ко ће заједници обезбедити порески приход остварен приходима свих људских радника замењених машинама?“ И опет, „шта ће се десити са свим оним личностима које доприносе обављању делатности ових оператера (помоћници, сарадници, практичари, итд.) и шта ће се десити када се изгубе и њихови доприноси и порески приходи?“

Па, ова питања се постављају и за све друге категорије послова које би могла погодити роботска и дигитална револуција у још краћем временском оквиру од оног који ће вероватно утицати на легалне раднике.

Појављују се сценарији који би данас познате социолошке, економске, антрополошке и политичке ставове могли учинити застарелим: социјализам, либерализам, либертаријанизам, суверенизам и тако даље, изгубили би своје концептуалне основе.

Много тога, ако не и све, морало би се преиспитати од нуле.

Али враћајући се теми вештачке интелигенције у правном пољу, мој лични став је да улога адвоката (по вокацији тумач не само норми, већ и чињеница и, донекле, људи) неће моћи да се ограничи на миграцију у други регион циклуса производње правних услуга.

Моја идеја је да би адвокату, и правним практичарима уопштено, могла да се додели већа улога: то јест, да се стара о томе да свест у управљању технолошким развојем увек буде пропорционална стварним циљевима добробити човечанства, правилно каналисана и, по потреби и свесно и разумно обуздати.

Постоји позната кинеска изрека: „Када дуне ветар промена, једни постављају баријере, други граде ветрењаче“.

Сада, иако волим да мислим да се могу убројити у оне који се „кад дуне ветар промена” са ентузијазмом бацају на изградњу ветрењача, не бих желео да дођем до тачке у којој ветрењачи више не требају људи да постоје, јер постоје посвећен је потреби за другим ветрењачама.

А кад би до тога дошло, да ли би човеку биле потребне такве ветрењаче?

Адвокат је по дефиницији онај који је позван (ад воцатум) да брани и заступа разлог. Ево његовог разлога: мораће да се побрине да људи чврсто држе правила и да машине остану усидрене у улози за коју су створене: да раде у служби човечанства.

А кад треба мораће да устане и да се бори, да тако буде и како ће остати.

Борити се за добро човечанства. Као Мазинга Зета, у познатом јапанском цртаном филму, за оне који га памте.

Звучи добро, али Мазинга Зета, није ли и он био робот?

 

Извор: хттпс://ен.цриптономист.цх/2023/03/11/црипто-аи-футуре-лавиерс-роле/