3 разлога зашто ће вашој организацији бити потребни екстерни процењивачи алгоритама

Сатта Сармах-Хигхтовер

Пословни лидери извлаче сву вредност коју могу из вештачке интелигенције (АИ). КПМГ студија из 2021. открива већина пословних лидера у влади, индустријској производњи, финансијским услугама, малопродаји, науци о животу и здравству каже да је АИ барем умерено функционална у њиховим организацијама. Студија такође открива да половина испитаника каже да је њихова организација убрзала усвајање вештачке интелигенције као одговор на пандемију Цовид-19. У организацијама у којима је АИ усвојена, најмање половина каже да је технологија премашила очекивања.

Алгоритми вештачке интелигенције су све одговорнији за различите данашње интеракције и иновације – од персонализованих препоруке производа Кориснички сервис искуства банкама одлуке о позајмљивању па чак и одговор полиције.

Али уз све предности које нуде, АИ алгоритми долазе са великим ризицима ако се не надгледају и не процењују у погледу отпорности, правичности, објашњивости и интегритета. Да би се помогло пословним лидерима у праћењу и евалуацији вештачке интелигенције, горе поменута студија показује да а Све већи број пословних лидера жели да влада регулише вештачку интелигенцију како би омогућила организацијама да инвестирају у праву технологију и пословне процесе. За потребну подршку и надзор, мудро је размотрити екстерне процене које нуди пружалац услуга са искуством у пружању таквих услуга. Ево три разлога зашто.

1. Алгоритми су „црне кутије“

Алгоритми вештачке интелигенције — који уче из података да би решавали проблеме и оптимизовали задатке — чине системе паметнијим, омогућавајући им да прикупе и генеришу увиде много брже него што би људи икада могли.

Међутим, неке заинтересоване стране сматрају да су ови алгоритми „црне кутије“, објашњава Дру Розен, генерални директор ревизије у КПМГ, водећој фирми за професионалне услуге. Конкретно, одређене заинтересоване стране можда не разумеју како је алгоритам дошао до одређене одлуке и стога можда нису сигурни у праведност или тачност те одлуке.

„Резултати добијени из алгоритма могу бити склони пристрасности и погрешној интерпретацији резултата“, каже Розен. „То такође може довести до одређених ризика за ентитет јер користе те резултате и деле [их] са јавношћу и њиховим заинтересованим странама.

Алгоритам који користи погрешне податке, на пример, у најбољем је случају неефикасан — ау најгорем штетан. Како би то могло да изгледа у пракси? Размислите о цхатбот-у заснованом на вештачкој интелигенцији који корисницима пружа погрешне информације о налогу или аутоматизовани алат за превођење језика који нетачно преводи текст. Оба случаја могу резултирати озбиљним грешкама или погрешним тумачењима за владине субјекте или компаније, као и за чланове и клијенте који се ослањају на одлуке које доносе ти алгоритми.

Још један фактор који доприноси проблему црне кутије је када инхерентна пристрасност продире у развој АИ модела, потенцијално узрокујући пристрасно доношење одлука. Кредитни зајмодавци, на пример, све више користе вештачку интелигенцију да предвиде кредитну способност потенцијалних зајмопримаца како би донели одлуке о кредитирању. Међутим, ризик може настати када кључни инпути у АИ, као што је кредитни резултат потенцијалног зајмопримца, има материјалну грешку, што доводи до тога да се тим појединцима ускраћују кредити.

Ово наглашава потребу за екстерним процењивачем који може да служи као непристрасни проценитељ и да пружи фокусирану процену, на основу прихваћених критеријума, релевантности и поузданости историјских података и претпоставки које покрећу алгоритам.

2. Заинтересоване стране и регулатори захтевају транспарентност

У 2022. није било актуелних захтева за извештавање за одговорну АИ. Међутим, Розен каже, „баш као како су управљачка тела увела ЕСГ [околишну, друштвену и управљачку] регулативу у извештај о одређеним ЕСГ метрикама, само је питање времена да ћемо видети додатне захтеве за извештавање прописа за одговорну АИ.”

У ствари, од 1. јануара 2023. године, Њујорк Локални закон 144 захтева да се ревизија пристрасности спроведе на аутоматизованом алату за одлучивање о запошљавању пре него што се користи.

А на савезном нивоу, Закон о националној иницијативи за вештачку интелигенцију из 2020-који се заснива на а Извршна наредба из 2019—фокусира се на техничке стандарде и упутства за вештачку интелигенцију. Поред тога, тхе Закон о алгоритамској одговорности може захтевати процену утицаја аутоматизованих система одлучивања и проширених процеса критичног одлучивања. И у иностранству, Закон о вештачкој интелигенцији је предложен, нудећи свеобухватан регулаторни оквир са специфичним циљевима у погледу безбедности, усклађености, управљања и поузданости вештачке интелигенције.

Са овим променама, организације су под микроскопом управљања. Процењивач алгоритама може да обезбеди такве извештаје који се односе на регулаторне захтеве и побољшавају транспарентност заинтересованих страна, избегавајући ризик да заинтересоване стране погрешно протумаче или буду заведен према резултатима процене.

3. Компаније имају користи од дугорочног управљања ризиком

Стив Камара, партнер у КПМГ-овој пракси технолошког осигурања, предвиђа да ће инвестиције у вештачку интелигенцију наставити да расту како ентитети настављају са аутоматизацијом процеса, развијајући иновације које побољшавају корисничко искуство и дистрибуирајући развој вештачке интелигенције на пословне функције. Да би остале конкурентне и профитабилне, организацијама ће бити потребне ефикасне контроле које не само да решавају тренутне недостатке вештачке интелигенције, већ и смањују све дугорочне ризике повезане са пословним операцијама заснованим на вештачкој интелигенцији.

Ово је место где спољни проценитељи ступају у функцију поузданог, паметног ресурса. Како организације све више прихватају АИ интегритет као покретач пословања, партнерство може постати мање ад хоц услуга, а више конзистентна сарадња, објашњава Цамара.

„Видимо пут напред где ће бити потребно да постоји континуиран однос између организација које развијају и операционализују вештачку интелигенцију на сталној основи и објективног спољног проценитеља“, каже он.

Поглед ка ономе што следи

У будућности, организације би могле да користе екстерне процене на више цикличној основи док развијају нове моделе, уносе нове изворе података, интегришу решења независних добављача или се крећу према новим захтевима усклађености, на пример.

Када се налажу додатни захтеви за регулативу и усклађеност, екстерни проценитељи могу бити у могућности да пруже услуге за директну процену колико добро је организација применила или користила АИ у односу на те захтеве. Ови проценитељи би тада били у најбољој позицији да поделе резултате процене на јасан и доследан начин.

Да би искористила технологију, а истовремено се заштитила од њених ограничења, организација мора да тражи спољне процене да обезбеде извештаје на које се може ослонити да би демонстрирала већу транспарентност приликом примене алгоритама. Одатле, и организација и заинтересоване стране могу боље разумети моћ вештачке интелигенције – и њена ограничења.

Извор: хттпс://ввв.форбес.цом/ситес/кпмг/2022/10/26/3-реасонс-иоур-организатион-вилл-неед-ектернал-алгоритхм-ассессорс/