Уграђивање правног образложења у АИ би могло паметно да постигне усклађивање људских вредности, каже етика АИ и закон о вештачкој интелигенцији

У данашњој колумни, уплећу безброј наизглед различитих тема везаних за вештачку интелигенцију у једну лепо ткану тканину.

Јесте ли спремни?

Замислите да користите апликацију са вештачком интелигенцијом која вам помаже док обављате неку врсту значајног задатка. Можда је ствар финансијска или би могла бити повезана са здрављем. Суштина је у томе да зависите од вештачке интелигенције да уради праву ствар и да ради на претпостављено безбедан и здрав начин.

Претпоставимо да АИ скрене на неетичку територију.

Можда не схватате да АИ то ради.

На пример, вештачка интелигенција би се могла ослањати на потенцијално скривене дискриминаторне факторе као што су раса или пол, иако можда немате никаква одржива средства да уочите нежељену употребу. Ту сте, сасвим сами, добијате кратак крај штапа путем вештачке интелигенције која је или осмишљена од самог почетка на проблематичан начин или је успела да се усмери у сумњиво и гранично етичко угрожавање (рећи ћу више о ово за тренутак).

Шта можете да урадите или шта се може учинити у вези са вештачком интелигенцијом која се одлучи да крене неетичким путем?

Поред покушаја да унапред конструишем вештачку интелигенцију како не би чинио ову врсту подмуклих радњи, претходно сам такође навео да постоји све већи интерес за уграђивање Провера етике вештачке интелигенције компонента у растућу мочвару иначе Дивљег Запада, било шта, АИ системи се бацају на тржиште. Идеја је да бисмо покушали да спречимо да апликација са вештачком интелигенцијом изађе из етичких димензија, могли бисмо да користимо додатну вештачку интелигенцију да извршимо проверу и равнотежу. Ова додатна вештачка интелигенција може бити изван циљане АИ апликације или може бити компонента уграђена или имплантирана директно у АИ коју желимо да још једном проверимо.

Као што сам већ рекао, види линк овде: „Тренд који се недавно појавио састоји се од покушаја да се у АИ уграде етичке заштитне ограде које ће ухватити док остатак система вештачке интелигенције почне да прелази унапред постављене етичке границе. У извесном смислу, циљ је да се користи сама вештачка интелигенција како би се спречило да се етички поквари. Могло би се рећи да нам је циљ да се вештачка интелигенција излечи сама“ (Ланце Елиот, „Израда етичке вештачке интелигенције која надгледа неетичку вештачку интелигенцију и покушава да одврати лошу вештачку интелигенцију од поступања“, Форбс28. марта 2022.).

Можда ће вас такође интересовати моја књига АИ ботови чувари, који се понекад назива и анђели чувари, који покрива техничку основу ове најсавременије АИ-унутар-АИ уграђене двоструке провере, види линк овде.

Суштина је да би ваша сланина могла бити срећом сачувана употребом уграђеног АИ елемента за двоструку проверу етичког мерења који је осмишљен и имплантиран у АИ апликацију коју користите. Али да ли ће то бити довољан чувар да се заиста увери да вас вештачка интелигенција у потпуности не укочи и да се упусти у чак и штетно тло?

Видите, АИ апликација би могла привидно да ради незаконит дела.

Једна је ствар имати вештачку интелигенцију која улази у сиву зону онога што сматрамо етичким или неетичким понашањем. Једнако узнемирујуће понашање и вероватно погоршање забринутости подразумевају вештачку интелигенцију која такорећи скаче ајкулу и спушта се у лошу таму отворених незаконитих радњи.

Незаконита вештачка интелигенција је лоша. Дозволити незаконитој вештачкој интелигенцији да остане без надзора је лоше. Неки правни научници су отворено забринути да ће појава и продор вештачке интелигенције постепено и застрашујуће поткопавати наш изглед закон, погледајте моју анализу на линк овде.

Сачекај мало, можда ћеш рећи.

Можда ћете бити у искушењу да мислите да би програмери вештачке интелигенције никад програмирајте њихову вештачку интелигенцију да иде против закона. Незамисливо. То би урадили само зли зликовци (који, узгред, имајте на уму да постоје они који намерно смишљају и користе вештачку интелигенцију у зле сврхе, што је све већа област од интереса за криминалце и друге који желе да користе вештачку интелигенцију за подле активности).

Жао нам је, али је пуста жеља претпоставити да ће сви не-зли програмери АИ стриктно осигурати да њихова АИ у потпуности поштује закон. Могуће је да се АИ самоприлагођава и одлута у илегалне активности. Наравно, постоји и потенцијал да су програмери вештачке интелигенције или желели да вештачка интелигенција делује незаконито или да нису били свесни шта је незаконито у односу на законске акте када су креирали АИ (да, ово је сасвим могуће, наиме да АИ тим за све технологије може бити неспретан законским смицалицама њихове АИ, што није оправдано, а ипак се дешава са алармантном учесталошћу).

Шта се може учинити поводом овога?

Још једном, поред покушаја да се осигура да је АИ изван капије чврст и законит, додатни приступ за добијање пара укључује уграђивање или имплантацију АИ компоненте која врши легалну двоструку проверу за остатак апликације АИ. Седећи тихо и често ненајављено, ова додатна вештачка интелигенција посматра остатак АИ како би покушала да разабере да ли ће вештачка интелигенција покварити или ће бар прећи границе законских или регулаторних ограничења.

Сада имамо две врсте двоструке провере АИ које су потенцијално уграђене у АИ апликацију:

  • Двострука провера етике вештачке интелигенције: У реалном времену, ова компонента или додатак АИ процењује остатак АИ за етичко и неетичко понашање које АИ показује
  • АИ Правна дупла провера: У реалном времену, ова компонента или додатак АИ процењује остатак вештачке интелигенције како би се осигурало да остане у оквиру законских основа и за хватање нових незаконитих активности од стране АИ

Да разјаснимо, то су релативно нове концепције и као таква АИ коју данас користите може бити у било ком од ових садашњих услова:

  • АИ који уопште нема укључене двоструке провере
  • АИ која има укључен АИ Етхицс дупли цхецкер, али не и друге двоструке провере
  • АИ који има укључен АИ Легал двоструку проверу, али не и друге двоструке провере
  • АИ која има двоструку проверу етике вештачке интелигенције и двоструку проверу АИ Легал
  • други

Постоје неки изразито шкакљиви аспекти да и АИ Етхицс двострука провера и АИ Легал раде раме уз раме у АИ апликацији као сродни брат и сестра. Ово је тип дуализма који може бити теже координирати него што бисте претпоставили (мислим да сви знамо да браћа и сестре могу имати најчвршће везе, иако се с времена на време могу и свађати као дикенс и снажно се супротстављати погледи).

Дуго сам расправљао о овој врсти напорног дуализам: „Запостављени дуализам се јавља у АИ за друштвено добро који укључује недостатак обухватања и улоге вештачке моралне агенције и вештачког правног резоновања у напредним системима вештачке интелигенције. Напори истраживача вештачке интелигенције и програмера вештачке интелигенције тежили су да се фокусирају на то како да направе и уграде вештачке моралне агенте да усмеравају морално доношење одлука када систем вештачке интелигенције ради на терену, али се такође нису фокусирали на и спојили употребу способности вештачког правног расуђивања , што је подједнако неопходно за снажне моралне и правне исходе“ (Ланце Елиот, „Занемарени дуализам вештачке моралне агенције и вештачко правно резоновање у вештачкој интелигенцији за друштвено добро“, Годишња конференција Универзитета Харвард ЦРЦС 2020, Харвардски центар за истраживање и рачунарско друштво)

Ако желите да се бавите питањем зашто би могло да постоји тензија између двоструке провере етике вештачке интелигенције и двоструке провере правних вештина, можда ћете пронаћи овај упечатљив цитат концептуалне вредности која задивљује ум: „Закон може дозволити неки одређени чин, иако је тај чин неморалан; а закон може забранити чин, иако је тај чин морално дозвољен, или чак морално захтеван“ (Шели Кејган, Границе морала, КСНУМКС).

Хајде да мало померимо фокус и видимо како се ови двоструки чекићи уклапају у још једну веома пажљиво испитану тему АИ, наиме Одговоран АИ или усклађено разматрање усклађивања људских вредности и вештачке интелигенције.

Општа идеја је да желимо вештачку интелигенцију која се придржава одговарајућих и пожељних људских вредности. Неки ово називају Одговоран АИ. Други слично расправљају Одговорна АИ, Поуздана АИ, и АИ Алигнмент, од којих се сви дотичу истог принципа камена темељца. За моју дискусију о овим важним питањима, види линк овде линк овде, само да поменемо само неке.

Како можемо натерати вештачку интелигенцију да се усклади са људским вредностима?

Као што је раније сугерисано, надамо се да ће програмери вештачке интелигенције бити свесни развоја вештачке интелигенције која постиже одговорно придржавање АИ. Нажалост, можда и неће, из разлога који су раније разјашњени. Поред тога, они би могли да покушају да то учине, али ипак АИ завршава самоприлагођавањем изван истакнутог домена етичког понашања или можда у незаконите воде.

У реду, онда морамо да размотримо наше згодне дупле даме као средство за подупирање ових ризика и изложености. Коришћење добро осмишљеног етичког контролора вештачке интелигенције може материјално да помогне у усклађивању АИ са људским вредностима. Слично томе, коришћење добро осмишљеног АИ Легал двоструке провере може суштински помоћи у усклађивању АИ са људским вредностима.

Дакле, кључно и још увек није добро познато средство за постизање одговорне вештачке интелигенције, веродостојне вештачке интелигенције, одговорне вештачке интелигенције, усклађивања вештачке интелигенције, итд., укључивало би коришћење АИ двоструких провера као што су АИ Етхицс дупле провере и АИ Правна дупла провера која би неуморно радила као двострука провера АИ у коју су уграђени.

У овој дискусији, желео бих да уђем у мало више детаља о природи и конструкцији АИ Легал двоструких провера који би могли бити уграђени у АИ. Да бисте то урадили, можда би било од помоћи да са вама поделимо неку додатну позадину о општој теми АИ и право.

За бесмислено испитивање о томе како се АИ и закон мешају једни са другима, погледајте моју дискусију на линк овде. У мом проницљивом погледу на АИ и право у комбинацији, пружам ову директну концепцију два главна начина за међусобно повезивање АИ и закона:

  • (1) Закон који се примењује на АИ: Формулисање, доношење и спровођење закона који се примењују на регулисање или управљање вештачком интелигенцијом у нашем друштву
  • (2) АИ-примењено на закон: Технологија вештачке интелигенције осмишљена и примењена у закону, укључујући правно образложење засновано на вештачкој интелигенцији (АИЛР) убачено у високотехнолошке апликације ЛегалТецх за аутономно или полуаутономно обављање адвокатских задатака

Прво наведено гледиште састоји се од разматрања како ће постојећи и нови закони регулисати АИ. Друга наведена перспектива се односи на примену АИ на закон.

Ова последња категорија обично укључује коришћење правног образложења заснованог на вештачкој интелигенцији (АИЛР) у различитим онлајн алатима које користе адвокати. На пример, вештачка интелигенција може бити део пакета за управљање животним циклусом уговора (ЦЛМ) који помаже адвокатима тако што идентификује уговорни језик који ће бити користан за састављање нових уговора или може да открије уговоре који имају правно необичан језик који дозвољава несреће или правне рупе. (за мој поглед на такозване „мирисе закона“ које може да уочи АИ, види линк овде).

Неизбежно ћемо применити АИ на закон који постаје доступан за употребу широј јавности и који не захтева да адвокат буде у току. Управо сада, као резултат различитих ограничења, укључујући УПЛ (Неовлашћено практиковање права), стављање доступних апликација за правно саветовање засноване на вештачкој интелигенцији је трновита и контроверзна ствар, погледајте моју дискусију на линк овде.

Покренуо сам овај увод о АИ и закону да бих истакао да би још једна инструментална употреба АИ примењене на закон била прављење АИ Легал дуплих провера.

Да, иста врста технолошке способности која је укључена у примену АИ на закон може да служи као двострука дужност коришћењем АИ као уграђеног или имплантираног АИ Легал двоструке провере. Двострука провера АИ Легал је компонента која мора бити упућена у правне аспекте. Када остатак АИ апликације обавља различите радње, АИ Легал двострука провера процењује да ли апликација АИ то ради легално и у оквиру законских ограничења.

Компонента двоструке провере АИ Легал не мора нужно да покрије читав спектар свега што се може знати о закону. У зависности од природе апликације АИ у погледу сврхе и деловања АИ у целини, двострука провера АИ Легал може бити много ужа у смислу правне експертизе коју садржи.

Идентификовао сам користан оквир за показивање како се АИ у правном домену креће кроз низ аутономних капацитета, познатих као Нивои аутономије (ЛоА). За преглед погледајте мој Форбс објава у колумни од 21. новембра 2022. „Свеобухватан и убедљив случај без бесмислица зашто адвокати морају да знају о вештачкој интелигенцији и закону“ на линк овде, а за детаљан технички приказ погледајте мој детаљни истраживачки чланак у МИТ Цомпутатионал Лав Јоурнал од 7. децембра 2021. године, види линк овде.

Оквир разјашњава пет нивоа АИ који се користи у правним настојањима:

  • Ниво 0: Нема аутоматизације за правни рад заснован на вештачкој интелигенцији
  • Ниво 1: Једноставна аутоматизација помоћи за правни посао заснован на вештачкој интелигенцији
  • Ниво 2: Напредна аутоматизација помоћи за правни посао заснован на вештачкој интелигенцији
  • Ниво 3: Полу-аутономна аутоматизација за правни рад заснован на вештачкој интелигенцији
  • Ниво 4: Домен аутономан за правни рад заснован на вештачкој интелигенцији
  • Ниво 5: Потпуно аутономан за правни рад заснован на вештачкој интелигенцији

Овде ћу их укратко описати.

Ниво 0 се сматра нивоом без аутоматизације. Правно резоновање и правни задаци се спроводе ручним методама и углавном се одвијају путем приступа на папиру.

Ниво 1 се састоји од једноставне аутоматизације помоћи за правно резоновање АИ. Примери ове категорије би укључивали коришћење свакодневне компјутерске обраде текста, коришћење свакодневних компјутерских табела, приступ правним документима на мрежи који се чувају и преузимају електронски, итд.

Ниво 2 састоји се од напредне аутоматизације помоћи за правно резоновање АИ. Примери ове категорије би укључивали употребу рудиментарне обраде природног језика (НЛП) у стилу упита, поједностављене елементе машинског учења (МЛ), алате за статистичку анализу за предвиђање правних случајева, итд.

Ниво 3 се састоји од полуаутономне аутоматизације за правно резоновање АИ. Примери ове категорије би укључивали коришћење напредних система заснованих на знању (КБС) за правно резоновање, коришћење машинског учења и дубоког учења (МЛ/ДЛ) за правно резоновање, напредни НЛП и тако даље.

Ниво 4 се састоји од аутономних рачунарских система заснованих на домену за правно резоновање АИ. Овај ниво поново користи концептуални појам домена оперативног дизајна (ОДД), који се користи за самовозеће аутомобиле, али који се примењује на правни домен. Правни домени се могу класификовати по функционалним областима, као што су породично право, право о некретнинама, закон о стечају, право животне средине, пореско право, итд.

Ниво 5 се састоји од потпуно аутономних компјутерски заснованих система за правно резоновање АИ. У извесном смислу, ниво 5 је надскуп нивоа 4 у смислу обухвата свих могућих правних домена. Имајте на уму да је ово прилично тежак налог.

Можете да замислите ове нивое аутономије упоредо са сличним употребама када разговарате о аутомобилима који се сами возе и аутономним возилима (такође на основу званичног САЕ стандарда, погледајте моје извештавање на линк овде). Још увек немамо самовозеће аутомобиле САЕ нивоа 5. Прелазимо на самовозеће аутомобиле нивоа 4 САЕ. Већина конвенционалних аутомобила је на САЕ нивоу 2, док неки новији аутомобили гурају у САЕ ниво 3.

У правном домену још увек немамо АИЛР нивоа 5. Дотичемо се неког Нивоа 4, иако у изузетно уским ОДД-има. Ниво 3 почиње да види светлост дана, док је данас главни ослонац АИЛР-а првенствено на нивоу 2.

Недавни истраживачки чланак о АИ примењеној на закон поставио је типизацију познату као Закон информише код. Истраживач ово наводи: „Један од примарних циљева Закон информише код агенда је да научи вештачку интелигенцију да следи дух закона“ (Јохн Ј. Наи, „Лав Информс Цоде: А Легал Информатицс Аппроацх то Алигнинг Артифициал Интеллигенце витх Хуман“, Нортхвестерн Јоурнал оф Тецхнологи анд Интеллецтуал Проперти, Том 20, у припреми). Постоје нека суштинска разматрања да Закон информише код мантра доноси и ја ћу вас провести кроз неколико тих кључних правила.

Пре него што пређем на тему, желео бих да прво поставим неке суштинске основе о АИ, а посебно о АИ етици и закону о вештачкој интелигенцији, чинећи то како бих био сигуран да ће дискусија бити контекстуално разумна.

Растућа свест о етичкој вештачкој интелигенцији и закону о вештачкој интелигенцији

Недавна ера АИ се у почетку посматрала као AI za dobro, што значи да бисмо могли да користимо вештачку интелигенцију за побољшање човечанства. За петама од AI za dobro дошло је сазнање да смо и ми уроњени AI za loše. Ово укључује вештачку интелигенцију која је осмишљена или самопромењена да буде дискриминаторна и која доноси рачунарске изборе прожимајући непотребне предрасуде. Понекад је вештачка интелигенција изграђена на тај начин, док у другим случајевима скреће на ту непожељну територију.

Желим да будем потпуно сигуран да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Ако бисмо хтели да дивље спекулишемо о разумној вештачкој интелигенцији, ова расправа би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Снажно бих предложио да ствари задржимо на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Будите веома опрезни са антропоморфизацијом данашње вештачке интелигенције.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Све ово има значајно значајне импликације на етику вештачке интелигенције и нуди згодан прозор у научене лекције (чак и пре него што се све лекције десе) када је у питању покушај да се АИ законски усвоји.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. Они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У претходним колумнама, покрио сам различите националне и међународне напоре за израду и доношење закона који регулишу АИ, види линк овде, на пример. Такође сам покрио различите принципе и смернице етике вештачке интелигенције које су различите нације идентификовале и усвојиле, укључујући, на пример, напоре Уједињених нација као што је УНЕСЦО-ов скуп етике вештачке интелигенције који је усвојило скоро 200 земаља, види линк овде.

Ево корисне кључне листе етичких АИ критеријума или карактеристика у вези са системима вештачке интелигенције које сам претходно пажљиво истражио:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Те принципе етике вештачке интелигенције озбиљно би требало да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима АИ, па чак и онима који на крају обављају и одржавају АИ системе.

Све заинтересоване стране током читавог животног циклуса развоја и употребе АИ сматрају се у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније наглашено овде, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упућено у етичке прописе АИ и да се придржава њих.

Недавно сам такође прегледао АИ Повеља о правима што је званични наслов званичног документа владе САД под називом „Нацрт за АИ Билл оф Ригхтс: Макинг Аутоматед Системс Ворк фор Америцан Пеопле“ који је био резултат једногодишњег напора Канцеларије за науку и технолошку политику (ОСТП ). ОСТП је савезни ентитет који служи да саветује америчког председника и Извршну канцеларију САД о различитим технолошким, научним и инжењерским аспектима од националног значаја. У том смислу, можете рећи да је ова Повеља о правима вештачке интелигенције документ који је одобрила и подржала постојећа Бела кућа САД.

У Повељи о правима вештачке интелигенције, постоји пет кључних категорија:

  • Сигурни и ефикасни системи
  • Алгоритамске заштите од дискриминације
  • Приватност података
  • Обавештење и објашњење
  • Људске алтернативе, разматрање и резерва

Пажљиво сам прегледао те прописе, видите линк овде.

Сада када сам поставио корисну основу за ове сродне теме етике вештачке интелигенције и права вештачке интелигенције, спремни смо да пређемо на бурну тему правних провера вештачке интелигенције и области Закон информише код.

Правне дупле провере вештачке интелигенције уграђене у вештачку интелигенцију за усклађивање људских вредности

Понекад се позивам на АИ Правне дупле провере преко акронима од АИ-ЛДЦ. Ово је мало визуелно неугодно за оне који нису упознати са акронимом. Као такав, нећу користити овај конкретан акроним у овој дискусији, али желим да вам га поменем као упозорење.

Да бисмо распаковали неке од сложености двоструких провера АИ Легал, хајде да се позабавимо овим главним тачкама:

  • Коришћење АИ Легал двоструких провера као механизма АИ за усклађивање људских вредности
  • Експанзивнија АИ ће сходно томе захтевати робусније АИ Легал дупле провере
  • АИ Правне дупле провере доносе закон и посебно не доносе закон (вероватно)
  • Деликатна равнотежа између АИ Правно отеловљење закона као правила наспрам стандарда
  • Захтевање доказа о пудингу када је у питању АИ придржавање закона

Због ограничености простора, за сада ћу покрити само тих пет тачака, мада вас молим да пратите даље извештавање у мојој колумни која покрива додатна и једнако вредна разматрања о овим стварима које се брзо развијају и напредују.

Одмах затегните појас и припремите се за окрепљујуће путовање.

  • Коришћење АИ Легал двоструких провера као механизма АИ за усклађивање људских вредности

Постоје бројни начини да покушате да постигнете хармонично усклађивање између вештачке интелигенције и људских вредности.

Као што је раније поменуто, можемо произвести и објавити етичке прописе АИ и настојати да натерамо програмере вештачке интелигенције и оне који раде и управљају АИ да се придржавају тих кључних камена. Нажалост, ово само по себи неће успети. Имате неке дизајнере који неизбежно неће схватити поруку. Имате неке домишљатеље који ће се разметати са етичком вештачком интелигенцијом и покушати да заобиђу донекле лабаво-гускове прописане принципе. И тако даље.

Употреба приступа „меког права“ који подразумевају етику вештачке интелигенције мора готово неизоставно бити упарена са „тврдим законима“ као што је доношење закона и прописа који ће послати снажан сигнал свима који стварају или користе АИ. Дуга рука закона би вас могла ухватити ако не користите разумно вештачку интелигенцију. Звук звецкања затворских врата могао је да привуче оштру пажњу.

Међутим, велики проблем је то што су понекад врата штале већ пустили коње напоље. АИ која се налази на терену ће потенцијално производити све врсте незаконитих радњи и наставити то да чини све док не буде само ухваћена, већ и када се коначно спроведе нека примена да заустави ток незаконитих радњи. Све то може потрајати. У међувремену, људи су нанесени на овај или онај начин.

У овај поход долази двострука провера АИ Легал.

Боравећи у апликацији АИ, АИ Легал двострука провера може одмах да открије када се чини да АИ није у складу са законом. Двострука провера АИ Легал би могла зауставити АИ у својим стазама. Или компонента може упозорити људе на уочене незаконите активности, чинећи то на време, што би могло да подстакне надзорнике на хитне корективне мере. Постоји и сматрано формализовано евидентирање које би компонента могла да креира, пружајући опипљив привид ревизорског трага у сврху кодификације штетних радњи АИ.

За наше законе се каже да су облик мулти-агентског конгломерата тако да су закони неизбежно мешавина онога што је друштво настојало да постави као равнотежу између вероватних супротстављених погледа на исправно и неприкладно друштвено понашање. Двострука провера вештачке интелигенције заснована на нашим законима стога представља ту мешавину.

Посебно, ово је више од само програмирања листе дефинитивних правних правила. Закони имају тенденцију да буду савитљивији и теже ка свеобухватним стандардима, уместо да одређују најситнија микроскопска правила. Комплексности има доста.

Враћајући се на раније поменути истраживачки рад, ево како се ова разматрања такође могу посматрати у вези са потрагом за АИ поравнањем: „Право, примењена филозофија усклађивања са више агената, јединствено испуњава ове критеријуме. Усклађивање је проблем јер не можемо ек анте наведите правила која у потпуности и доказиво усмеравају добро понашање вештачке интелигенције. Слично, стране у правном уговору не могу предвидети сваки случај свог односа, а законодавци не могу предвидети специфичне околности под којима ће се примењивати њихови закони. Зато је већи део права констелација стандарда” (ибид).

Утјеловљивање закона у АИ Легал двоструку провјеру је много изазовније него што бисте на први поглед могли претпоставити.

Како АИ напредује, мораћемо да искористимо такав напредак у складу са тим. Испоставило се да је оно што је добро за гуску добро и за гуску. Они од нас који напредују у вештачкој интелигенцији како се примењује на закон, померају оквире за вештачку интелигенцију и несумњиво стварају нова достигнућа која се на крају могу унети у напредак АИ у потпуности.

  • Експанзивнија АИ ће сходно томе захтевати робусније АИ Легал дупле провере

Гамбит мачке и миша суочава се са овом темом.

Шансе су да ће, како АИ буде даље напредовао, било којој АИ Легал компоненти двоструке провере ствари све теже и теже носити. На пример, АИ апликација која се испитује можда има ново осмишљене супер подмукле начине да сакрије незаконите радње које АИ предузима. Чак и ако АИ не иде лажним путем, укупна сложеност АИ би сама по себи могла да буде застрашујућа препрека за тражење двоструке провере АИ Легал.

Ево како ово постаје посебно значајно.

Претпоставимо да програмер вештачке интелигенције или нека фирма која користи вештачку интелигенцију изјави да постоји АИ Легал двострука провера која је уграђена у апликацију засновану на вештачкој интелигенцији. Воила, изгледа да су сада опрали руке од било каквих даљих брига. Двострука провера АИ Легал ће се побринути за све.

Не тако.

Двострука провера АИ Легал можда није довољна за природу укључене АИ апликације. Такође постоји могућност да двострука провера АИ Легал постане застарела, можда није ажурирана најновијим законима који се односе на АИ апликацију. Може се предвидети низ разлога зашто само присуство АИ Легал дупле провере неће бити сребрни метак.

Узмите у обзир ове увиде из раније цитираног истраживања: „Како напредује најсавременије стање вештачке интелигенције, можемо да поставимо итеративно више границе демонстрираних способности правног разумевања. Ако програмер тврди да њихов систем има напредне способности за задатке, требало би да покажу одговарајуће напредно правно разумевање и правне способности расуђивања АИ, које практично немају горњу границу потешкоћа када се разматра гомила закона и прописа кроз време, преседан и јурисдикцију ” (ибид).

  • АИ Правне дупле провере доносе закон и посебно не доносе закон (вероватно)

Сигуран сам да су неки од вас згрожени идејом да имају ове дупле провере АИ Легал.

Једна често изражена забринутост је да ћемо очигледно дозволити АИ да одлучује о нашим законима уместо нас. Боже, можда мислите, нека аутоматизација ће превладати човечанство. Ти проклети уграђени АИ Легал двоструки чекери постаће подразумевани краљеви наших закона. Шта год они можда ураде, биће оно што закон изгледа.

Људима ће владати АИ.

А ове дупле провере АИ Легал су клизав терен који нас води тамо.

Контрааргумент је да је такав разговор ствар теорија завере. Ви лудо постулирате и доводите се у зебњу. Реалност је да ови двоструки контролори из области вештачке интелигенције нису разумни, неће да заузму планету, а навијање о њиховом егзистенцијалном ризику је очигледно апсурдно и неизмерно прецењено.

Све у свему, остајући при мирном и разумном држању, морамо имати на уму да АИ Легал дупле провере служе да на одговарајући начин одражавају закон, а не по дизајну и нити случајно иду даље да би некако прешли у поштовано подручје прављења закон. Остављајући по страни екстраполације осећаја, свакако се можемо сложити да постоји стварна и хитна забринутост да би правна провера вештачке интелигенције могла на крају погрешно представити праву природу датог закона.

Заузврат, могли бисте тврдити да се стога тај одређени „погрешно представљен“ закон у суштини изнова прави јер више не означава тачно оно што је намеравано стварним законом. Вјерујем да искрено можете видјети како је ово суптилно, али значајно разматрање. У било ком тренутку, АИ Правна провера може на виртуелној основи тако што ће направити или да кажемо „халуцинирати“ нове законе једноставно на основу тога како компонента АИ тумачи закон како је првобитно наведено или отелотворено у АИ (за моје извештавање АИ тзв халуцинације, Види линк овде).

О томе се мора строго водити рачуна.

На ову тему, поменута истраживачка студија нуди ову паралелну мисао у смислу настојања да се спречи прелазак те свете линије: „Немамо за циљ да АИ има легитимитет да доноси закон, поставља правни преседан или спроводи закон. У ствари, то би угрозило наш приступ (и требало би да уложимо значајне напоре да то спречимо). Уместо тога, најамбициознији циљ Кодекса за информисање о закону је да компјутерски кодира и угради генерализабилност постојећих правних концепата и стандарда у валидиране перформансе АИ” (ибид).

  • Деликатна равнотежа између АИ Правно отеловљење закона као правила наспрам стандарда

Закони су неуредни.

За скоро сваки закон о књигама, вероватно постоји мноштво тумачења о томе шта закон предвиђа у стварној пракси. У језику области вештачке интелигенције, законе називамо семантички двосмисленим. То је оно што развој вештачке интелигенције у примени на закон чини тако узбудљивим и истовремено узнемирујућим изазовом. За разлику од прецизног смањења броја које можете видети код рецимо финансијски оријентисаних АИ апликација, жеља да се наши закони отелотворе у АИ подразумева суочавање са цунамијем семантичких нејасноћа.

У књизи моје фондације о основама АИ Легал Реасонинг (АИЛР), расправљам о томе како нас претходни покушаји само кодификације закона у скуп ограничених правила нису довели онолико далеко колико бисмо желели да идемо у правном домену (видети линк овде). Данашњи АИЛР мора да обухвати интеграцију између употребе правила и онога што би се могло назвати свеобухватним стандардима које закон представља.

Ова важна равнотежа може се изразити на овај начин: „У пракси, већина законских одредби се налази негде на спектру између чистог правила и чистог стандарда, а правна теорија може помоћи у процени праве комбинације „правилности“ и „стандардности“ када се специфицирају циљеви система вештачке интелигенције“ (ибид).

  • Захтевање доказа о пудингу када је у питању АИ придржавање закона

Желети нешто је другачије него имати нешто.

Та трунка мудрости се појављује када понудимо да, иако бисмо можда желели да имамо дупле провере АИ Легал, морамо да се уверимо да они раде и да раде исправно. Имајте на уму да ово представља још једну тешку и исцрпљујућу препреку. Раније сам покрио најновија достигнућа и изазове у верификацији и валидацији АИ, види линк овде.

Као што је наведено у истраживачком раду: „Да би се превазишао јаз, пре него што се АИ модели примене у све више агентске капацитете, на пример, потпуно аутономна возила на главним путевима, страна која примењује треба да покаже разумевање система за људске циљеве, политике и правне стандарде. Процедура валидације могла би да илуструје „разумевање“ 'значења' правних концепата од стране АИ” (ибид).

Zakljucak

Позивам вас да размислите о томе да ми се придружите у овој племенитој потрази за прављењем и коришћењем АИ Легал дуплих провера. Треба нам више пажње и средстава посвећених овој врлинској потрази.

Ово такође пружа двоструку обавезу, као што је раније поменуто, ка постизању АИ правног образложења (АИЛР) које се може користити за помоћ адвокатима и потенцијално директно користити од стране јавности. Заиста, неки жестоко тврде да ће једино одрживо средство за постизање потпунијег осећаја приступа правди (А2Ј) бити стварање вештачке интелигенције која оличава правне капацитете и којој могу приступити сви.

Једна брза последња тачка за сада.

Досадашња дискусија је нагласила да ће АИ Легал дупла провера бити уграђена или имплантирана у АИ. Ово је заиста примарни фокус оних који истражују и предузимају ову област у настајању.

Ево питања о коме вреди размислити.

Ставите капу за размишљање.

Зашто не бисте користили АИ Легал дупле провере у свим софтверима?

Суштина је у томе да уместо да искључиво користимо двоструке провере АИ Легал у АИ, можда би требало да проширимо наше гледиште. Све врсте софтвера могу легално залутати. Истина је да је вештачка интелигенција добила лавовски део пажње због начина на које се вештачка интелигенција обично користи, као што је доношење мучних одлука које утичу на људе у њиховом свакодневном животу. Међутим, можете лако тврдити да постоји много система који нису АИ који раде исто.

У суштини, не би требало да дозволимо да било који софтвер има бесплатну вожњу да би избегао или спречио закон.

Подсетите се и раније да сам поменуо две категорије комбиновања АИ и закона. Овде смо се фокусирали на коришћење вештачке интелигенције која се примењује на закон. На другој страни медаље је примена закона на АИ. Претпоставимо да донесемо законе који захтевају коришћење АИ Легал дуплих провера.

Ово би у почетку могло бити ограничено на системе вештачке интелигенције, посебно на оне који су оцењени као посебно високоризични. Постепено, исти законски захтев за двоструку проверу АИ могао би се проширити и на софтвер који није АИ. Опет, нема бесплатних вожњи.

Док се бавите овим горе наведеним разматрањима, ја ћу зачинити ствари као завршни теасер. Ако ћемо покушати да захтевамо двоструке провере АИ Легал-а, исто тако бисмо могли да урадимо и са двоструким проверама етике вештачке интелигенције. Коришћење АИ Легал двоструке провере је само пола приче, а не можемо занемарити или заборавити ни проблеме етике вештачке интелигенције.

Завршићу овај живахни дискурс једним од мојих омиљених цитата. Према мудрим речима Ерла Ворена, познатог правника који је служио као главни судија Сједињених Држава: „У цивилизованом животу, закон плута у мору етике.

Можда би било најбоље да те напредне и бујајуће дупле провере вештачке интелигенције и двоструке провере етике вештачке интелигенције ставимо у страствену употребу ако желимо да задржимо главу изнад потенцијално надолазећег тешког мора од киселе вештачке интелигенције и лоших система који нису АИ који угрожавају нашу безбедност .

Они би могли бити прслук за спасавање човечанства.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/12/01/имплантинг-легал-реасонинг-инто-аи-цоулд-смартли-аттаин-хуман-валуе-алигнмент-саис-аи-етхицс- анд-аи-лав/