Етика вештачке интелигенције и закон о вештачкој интелигенцији само би могли бити подстакнути и подстакнути да обавесте безбедносна упозорења за сву постојећу и будућу вештачку интелигенцију

Ваше свакодневне активности су несумњиво бомбардоване са хиљаду или више упозорења ове или оне врсте.

Испробајте ове за величину:

  • Заштитне наочаре се морају носити у сваком тренутку
  • Опасност: Опасне хемикалије у близини
  • Висок напон – Чувајте се
  • Упозорење: Будите свесни свог окружења
  • Предмети у огледалу су ближе него што се чине
  • Уклоните дете пре склапања (као што је наведено на колицима за бебе)
  • Опрез: Обавезно занемарите ову поруку

Већина њих су згодни и свеукупно промишљени знакови или етикете које служе да бисмо, надамо се, били сигурни и сигурни.

Имајте на уму да сам украо неколико „одличних“ на листи да бих направио неке важне тачке.

На пример, неки људи верују да је лудо што колица за бебе имају залепљену етикету која вас упозорава да не преклапате колица док беба још увек седи унутар направе. Иако је знак свакако прикладан и послушно користан, чини се да би основни здрав разум већ био довољан.

Која особа не би својом добром вољом схватила да прво треба да уклони бебу?

Па, други наглашавају да такве етикете служе важној сврси. Прво, неко може заиста бити несвестан да треба да уклони бебу пре склапања колица. Можда је особа претпоставила да су колица проницљиво дизајнирана да осигурају да операција склапања не штети беби. Или можда постоје уграђене сигурносне функције које спречавају склапање кад год је дете у колицима. итд.

Такође, могуће је да је особа била ометена и да би безумно склопила колица, обухватајући бебу и све остало, али етикета је на срећу подстакла особу да то не учини (неки би тврдили да је мало вероватно да би таква особа приметила етикету У сваком случају). Постоји и чињеница да би неко могао да тужи произвођача колица да таква етикета није била присутна. Можете замислити једну од оних тешких тужби у којима је беба повређена, а родитељ је одлучио да заради милион долара јер на колицима није био постављен знак упозорења. Компанија која се бави колицима би пожалила што није потрошила неколико центи потребних да направе и залепе знакове упозорења на своја колица.

Пажљиво погледајте и последњу од порука упозорења које сам горе навео.

Одлучио сам да поставим опаку поруку о томе да је игноришем јер постоји много лажних налепница упозорења које људи купују или праве само из забаве ових дана. Овај је прави философски ум. Ако прочитате упозорење које каже да игноришете упозорење, шта тачно треба да урадите након што прочитате упозорење? Већ сте га прочитали, тако да вам је тобоже у мислима. Наравно, можете то игнорисати, али опет, уопште вам се не саветује шта је то што би требало да игноришете. У круг, ова шала иде.

Наравно, веродостојне ознаке упозорења обично нису шаљиве или шаљиве природе.

Требало би да упозорења схватимо прилично озбиљно.

Обично, ако се не придржавате наведеног упозорења, то чините на лични озбиљан ризик. А такође може бити да ако не поштујете и не поштујете упозорење, потенцијално ћете и друге изложити непотребном ризику. Размотрите чин вожње аутомобила. У тренутку када се налазите за воланом аутомобила, ваше радње као возача могу да нашкоде себи, плус можете повредити своје путнике, а можете повредити и друге, као што су људи у другим аутомобилима или оближњи пешаци. У том смислу, упозорење није само у вашу корист, већ је вероватно и за добробит других.

Зашто покривам ове аспекте упозорења и ознака упозорења?

Зато што неки жестоко тврде да су нам потребни знаци упозорења и упозорења на данашњу вештачку интелигенцију (АИ).

Заправо, идеја је да се такве ознаке ставе на данашњу и будућу вештачку интелигенцију. Све у свему, цео АИ би на крају имао неки облик или варијанту упозорења или индикације упозорења повезане са њом.

Добра идеја или лоша идеја?

Практично или непрактично?

Хајдемо напред и распакујемо концепцију и видимо шта можемо да направимо од тога.

Желео бих прво да поставим неке суштинске основе о АИ, а посебно о етици АИ и закону о вештачкој интелигенцији, чинећи то како бих био сигуран да ће тема упозорења АИ бити контекстуално осетљива. За оне од вас који су генерално заинтересовани за етичку вештачку интелигенцију и право вештачке интелигенције, погледајте моје опсежно и стално извештавање на линк овде линк овде, само да поменемо само неке.

Растућа свест о етичкој вештачкој интелигенцији и закону о вештачкој интелигенцији

Недавна ера АИ се у почетку посматрала као AI za dobro, што значи да бисмо могли да користимо вештачку интелигенцију за побољшање човечанства. За петама од AI za dobro дошло је сазнање да смо и ми уроњени AI za loše. Ово укључује вештачку интелигенцију која је осмишљена или самопромењена да буде дискриминаторна и која доноси рачунарске изборе прожимајући непотребне предрасуде. Понекад је вештачка интелигенција изграђена на тај начин, док у другим случајевима скреће на ту непожељну територију.

Желим да будем потпуно сигуран да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна. Ми немамо ово. Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива сингуларитет, погледајте моје извештавање на линк овде).

Тип вештачке интелигенције на коју се фокусирам састоји се од вештачке интелигенције коју данас имамо. Ако бисмо хтели да дивље спекулишемо о разумној вештачкој интелигенцији, ова расправа би могла да иде у радикално другом правцу. Разумна АИ би наводно била људског квалитета. Морали бисте узети у обзир да је разумна АИ когнитивни еквивалент човека. Штавише, пошто неки спекулишу да бисмо могли имати супер-интелигентну вештачку интелигенцију, могуће је да би таква вештачка интелигенција могла да буде паметнија од људи (за моје истраживање супер-интелигентне вештачке интелигенције као могућности, види покривеност овде).

Снажно бих предложио да ствари задржимо на земљи и размотримо данашњу компјутерску неосетљиву вештачку интелигенцију.

Схватите да данашња вештачка интелигенција није у стању да „размишља” ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера АИ је у великој мери користила машинско учење (МЛ) и дубоко учење (ДЛ), који користе упаривање рачунарских образаца. Ово је довело до АИ система који изгледају као склоности налик људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Будите веома опрезни са антропоморфизацијом данашње вештачке интелигенције.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Све ово има значајно значајне импликације на етику вештачке интелигенције и нуди згодан прозор у научене лекције (чак и пре него што се све лекције десе) када је у питању покушај да се АИ законски усвоји.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. Они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности.

У претходним колумнама, покрио сам различите националне и међународне напоре за израду и доношење закона који регулишу АИ, види линк овде, на пример. Такође сам покрио различите принципе и смернице етике вештачке интелигенције које су различите нације идентификовале и усвојиле, укључујући, на пример, напоре Уједињених нација као што је УНЕСЦО-ов скуп етике вештачке интелигенције који је усвојило скоро 200 земаља, види линк овде.

Ево корисне кључне листе етичких АИ критеријума или карактеристика у вези са системима вештачке интелигенције које сам претходно пажљиво истражио:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Те принципе етике вештачке интелигенције озбиљно би требало да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима АИ, па чак и онима који на крају обављају и одржавају АИ системе.

Све заинтересоване стране током читавог животног циклуса АИ развоја и употребе се сматрају у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније наглашено овде, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упућено у етичке прописе АИ и да се придржава њих.

Недавно сам такође прегледао АИ Повеља о правима што је званични наслов званичног документа владе САД под називом „Нацрт за АИ Билл оф Ригхтс: Макинг Аутоматед Системс Ворк фор Америцан Пеопле“ који је био резултат једногодишњег напора Канцеларије за науку и технолошку политику (ОСТП ). ОСТП је савезни ентитет који служи да саветује америчког председника и Извршну канцеларију САД о различитим технолошким, научним и инжењерским аспектима од националног значаја. У том смислу, можете рећи да је ова Повеља о правима вештачке интелигенције документ који је одобрила и подржала постојећа Бела кућа САД.

У Повељи о правима вештачке интелигенције, постоји пет кључних категорија:

  • Сигурни и ефикасни системи
  • Алгоритамске заштите од дискриминације
  • Приватност података
  • Обавештење и објашњење
  • Људске алтернативе, разматрање и резерва

Пажљиво сам прегледао те прописе, видите линк овде.

Сада када сам поставио корисну основу о овим повезаним темама етике АИ и закона о вештачкој интелигенцији, спремни смо да пређемо на бурну тему о томе да ли АИ треба да има ознаке упозорења или не.

Припремите се за информативно путовање које отвара очи.

Стављање налепница упозорења на вештачку интелигенцију као средство заштите човечанства

Све више се чује да би можда АИ требало да дође са неком врстом упозорења.

На пример, у недавном чланку у МИТ Тецхнологи Ревиев када се расправљало о растућем интересовању за вршење ревизија АИ, појавила се идеја о обезбеђивању знакова упозорења: „Раст ових ревизија сугерише да бисмо једног дана могли видети упозорења у стилу паковања цигарета да би системи вештачке интелигенције могли да нашкоде вашем здрављу и безбедности. Други сектори, као што су хемикалије и храна, имају редовне ревизије како би се осигурало да су производи безбедни за употребу. Може ли овако нешто постати норма у АИ?” (МИТ Тецхнологи Ревиев, Мелисса Хеиккила, 24. октобар 2022.).

Хајде да разговарамо мало о знаковима упозорења и упозорења.

Сви смо већ генерално упознати са знаковима упозорења и упозорења на бројним производима и услугама свакодневне природе. Понекад су сигурносни знакови прописани законом као обавезни, док у другим случајевима постоји дискреционо право да се такви знакови користе. Поред тога, неки безбедносни знакови су стандардизовани, као што су специфицирани према АНСИ З535 стандарду и ОСХА 1910.14 стандарду. Ти стандарди покривају аспекте као што су текст знака, боје и фонтови који се користе, облик знака и разне друге појединости.

Има смисла имати стандарде за такве знакове упозорења. Кад год видите такав знак, ако испуњава наведене стандарде, вероватније ћете веровати да је знак легитиман, плус вам је потребно мање когнитивне обраде да бисте анализирали и схватили знак. За знакове који нису стандардизованог приступа, често морате ментално да израчунате шта вам знак говори, можда губите драгоцено време да предузмете акцију или бисте могли потпуно погрешно проценити знак и не разумете правилно упозорење.

Може постојати низ таквих знакова, за које се често класификују овако:

  • Знак опасности: Највећа забринутост и указује на непосредну опасност са вероватним тешким последицама
  • Знак упозорења: Указује на опасност која је мања од „опасности“, али ипак прилично озбиљна
  • Знак опреза: указује на потенцијалну опасност која је мања од „упозорења“, али је ипак заиста озбиљна
  • Знак обавештења: Указује на информативно обавештење које је мање од „опрез“, али ипак укључује забрињавајуће аспекте

С обзиром на претходну позадину о упозорењима и знацима упозорења, можемо наставити и покушати да то контекстуално применимо на употребу вештачке интелигенције.

Прво, потенцијално бисмо се некако могли сложити да би АИ сигнали могли бити у сличном опсегу озбиљности као што је уобичајено код свакодневних знакова, као што су:

  • АИ знак опасности: АИ од највеће забринутости и указује на непосредну опасност са вероватним тешким последицама
  • АИ знак упозорења: АИ указује на опасност која је мања од „опасности“, али ипак прилично озбиљна
  • АИ знак упозорења: АИ указује на потенцијалну опасност која је мања од „упозорења“, али је ипак заиста озбиљна
  • АИ знак обавештења: АИ указује на информативно обавештење које је мање од „опрез“, али и даље укључује забрињавајуће аспекте

Суштина је да неће сва АИ бити подједнако забрињавајућа. Може бити да АИ представља огромне ризике или да има само маргиналне ризике. Сходно томе, сигнализација треба да одражава шта је шта. Када би се сва упозорења АИ или знакови упозорења једноставно приказали као истог калибра, вероватно не бисмо знали или били свесни да ли да будемо веома забринути или само благо забринути због АИ. Коришћење типизоване шеме текста може олакшати живот када видите и тумачите знакове упозорења у вези са вештачком интелигенцијом.

Можда се питате шта би још знаци рекли у погледу специфичности поруке коју треба пренети.

То је свакако тежа ствар за решавање. Могућности вештачке интелигенције да се раде ствари које се сматрају небезбедним или забрињавајућим биле би енормно велике, скоро бескрајне. Можемо ли их свести у неки рутински скуп који је написан у само неколико речи? Или ћемо морати да дозволимо слободнији приступ томе како ће формулација ићи?

Пустићу вас да размислите о том отвореном питању.

Настављајући даље, обично видимо знакове упозорења постављене на објектима. Систем вештачке интелигенције није нужно „објекат“ у истом смислу као и уобичајено постављање знакова. Ово поставља питање где ће знакови упозорења АИ бити представљени.

Може бити да када покренете апликацију на свом паметном телефону кажете да ће се приказати порука која садржи упозорење у вези са вештачком интелигенцијом ако користи АИ. Апликација би вас упозорила на основну употребу АИ. Ово може бити искачућа порука или може бити представљена на различите визуелне, па чак и слушне начине.

Постоји и ситуација да користите услугу коју подржава АИ, иако можда нисте директно у интеракцији са АИ. На пример, могли бисте да разговарате са људским агентом о добијању хипотеке за кућу, за шта агент тихо стоји иза сцене користећи систем вештачке интелигенције да води своје напоре.

Стога, треба да предвидимо да би знакови упозорења АИ требали бити присутни у оба случаја употребе АИ, тако да:

  • АИ специфична за производ: АИ као производ треба да има директна АИ упозорења или знакове упозорења
  • АИ оријентисана на услуге: АИ као услуга (директно или индиректно) треба да има АИ знакове упозорења или упозорења

Скептици би сигурно пожурили да сугеришу да би произвођач апликација могао наопако прикрити знак упозорења АИ тако да упозорење није посебно приметно. Можда се упозорење појави на кратко и ви заиста не приметите да је приказано. Још један подмукли трик би био да се од тога направи нека врста игре, наизглед поткопавајући озбиљност упозорења и уљуљкавајући људе да мисле да је упозорење безначајно.

Да, можете се прилично кладити да ће сви знаци упозорења у вези са вештачком интелигенцијом бити преварени и коришћени на начине који нису у духу и намери порука упозорења које би требало да пренесу.

Сви ти скептицизми су повезани са питањем да ли бисмо користили етику вештачке интелигенције као „меке законе“ да покушамо да напредујемо у вези са упозорењима и упозорењима у вези са вештачком интелигенцијом, или ћемо користити „тврде законе“ укључујући усвојене законе са судском подршком. У теорији, притисак на меки закон би омогућио већи привид поигравања овим питањем, док би закони о књигама имали потенцијал за спровођење владе и донели већу строгост.

Још једна забринутост је да ли би АИ сигнали ипак донели било какву разлику.

Многа истраживања о понашању потрошача показују нејасне резултате када је у питању обезбеђивање налепница упозорења за потрошаче. Понекад су упозорења ефикасна, понекад не. Хајде да применимо нека од тих истраживања на контекст вештачке интелигенције.

Размотрите ове аспекте:

  • Детекција: Да ли би они који користе вештачку интелигенцију која садржи одржив АИ знак упозорења активно приметили или открили да им се знак показује (под претпоставком да се такав знак догодио)?
  • Разумевање: За оне који су приметили, да ли би разумели или схватили шта им упозоравајући знак АИ покушава да сугерише?
  • Поступак: За оне који направе тај ментални скок, да ли ће их знак упозорења АИ подстаћи на акцију или на неки други начин послужити за усмеравање њиховог понашања у складу са тим?

Можете предвидети да ће истраживачи пажљиво проучити ово питање ако добијете замах због знакова упозорења АИ. Идеја би била да се помогне у разјашњавању под којим околностима су упозорења корисна, а када нису. Ово се заузврат односи на дизајн и изглед и осећај укључености. Такође можемо очекивати да ће шира јавност морати да буде образована или информисана о појави ових знакова упозорења и упозорења АИ како би се навикла на њих.

Постоји много преокрета које треба размотрити.

Да ли АИ упозорење или знак упозорења треба да се појави само на почетку апликације која се користи? Можда почетна тачка сама по себи није довољна. Особа би на први поглед могла помислити да апликација само игра на сигурно користећи упозорење и стога не обраћа много пажње на упозорење. Када особа почне да користи апликацију, можда би било оправдано додатно упозорење. У том тренутку, особа је свеснија шта апликација предузима и можда је већ заборавила на раније назначену поруку упозорења.

Тада се може појавити АИ упозорење или упозорење:

  • Пре покретања апликације и баш када ће се апликација покренути
  • Представља се када се апликација покрене и само на почетној тачки
  • Приказано на почетку и поново на средини
  • Приказан више пута током употребе АИ
  • Дато на крају коришћења апликације
  • Омогућите након изласка из апликације, а можда чак и неколико минута, сати или дана касније
  • Итд

Да ли мислите да особа која користи АИ треба да потврди или потврди било каква таква упозорења или знаке упозорења?

Неки би инсистирали да се од те особе захтева да потврди да је видела упозорења. Ово би потенцијално спречило оне који би могли да тврде да није било поруке упозорења. То би такође могло довести до тога да људи озбиљније схвате поруке, с обзиром на то да се од њих тражи да потврде да су уочили индикацију упозорења.

Ево тешког питања за вас.

Уколико све АИ треба да обезбеди упозорење или безбедносну индикацију?

Можете тврдити да да, сва АИ мора имати ово. Чак и ако је вештачка интелигенција само маргинални безбедносни ризик, она би ипак требало да има неки облик знака упозорења, можда само обавештење или информативну индикацију. Други би оспорили ову тврдњу. Они би противаргументовали да претерујете. Ово није потребно свим АИ. Штавише, ако присилите сву вештачку интелигенцију да је има, разводнићете сврху. Људи ће утрнути да виде индикације упозорења. Цео приступ ће постати фарса.

Са сродног угла, размотрите шта ће произвођачи вештачке интелигенције вероватно рећи.

Једно гледиште би било да ће ово бити мука у знај-шта да се постави. Измена свих ваших АИ система и додавање ове функције може бити скупо. Додавање на основу напредовања могло би бити мање скупо, али ипак постоји трошак који је повезан са укључивањем ове одредбе.

Замагљеност је још једна потенцијална жалба. Коју врсту поруке треба приказати? Ако не постоје стандарди, то значи да ће произвођачи вештачке интелигенције морати да направе нешто изнова. Не само да овај додатни трошак, он можда отвара врата за тужбу. Можете замислити да би произвођач вештачке интелигенције могао да добије задатак да њихово упозорење није тако добро као неки други систем вештачке интелигенције. Адвокати ће на крају направити сноп од настале конфузије.

Такође постоји забринутост да ће људи бити неоправдано уплашени овим безбедносним порукама.

Произвођач вештачке интелигенције могао би да примети нагли пад броја корисника због безбедносне поруке која је само намењена да пружи информативни опрез. Људи неће знати шта да мисле о поруци. Ако раније нису видели такве поруке, могли би се одмах престрашити и непотребно избегавати употребу вештачке интелигенције.

Помињем те аспекте јер неки већ изјављују да „не може да шкоди“ да почнемо да укључујемо АИ упозорења или безбедносне поруке. За њих је идеја идеална као пита од јабука. Нико није могао озбиљно да оповргне предности сталног захтевања безбедности или упозорења везаних за вештачку интелигенцију. Али, наравно, то није прави начин размишљања о овој ствари.

Можете чак ићи даље и тврдити да поруке упозорења АИ могу произвести неки облик масовне хистерије. Ако бисмо одједном почели да форсирамо АИ системе да имају такве поруке, људи би могли погрешно протумачити намеру. Видите, постоји много савета да се суочавамо са егзистенцијалном кризом вештачке интелигенције, у којој ће вештачка интелигенција преузети свет и збрисати човечанство, види линк овде за моју анализу те врсте тврдњи.

Употреба поруке упозорења АИ би могла да „надахне“ неке људе да поверују да је крај близу. Зашто би се иначе поруке сада појављивале? Свакако, то је показатељ да се АИ коначно спрема да постане наш опресивни господар.

Нека врста очајно тмурног исхода покушаја да се учини исправна ствар тако што ће се јавност упознати са начином на који АИ може бити прожета дискриминаторским капацитетима или другим AI za loše аспекти.

Zakljucak

Џејмс Расел Лоуел, познати амерички песник, једном је рекао: „Један трн искуства вреди читаве дивљине упозорења.

Износим узвишену примедбу да бих дао неколико закључних коментара о упозорењима или безбедносним порукама вештачке интелигенције.

Шансе су да док не будемо имали донекле раширену спознају да АИ чини лоша дела, неће бити много буке за поруке упозорења у вези са АИ. Они произвођачи вештачке интелигенције који се одлуче да то ураде добровољно ће можда бити похваљени, иако би се такође могли ненамерно наћи неправедно узнемиравани. Неки стручњаци би могли да их прогоне због коришћења вештачке интелигенције којој су наизглед потребна упозорења, за почетак, а у међувремену занемарују да схвате да су они покушавали да иду први, а да сви они други произвођачи вештачке интелигенције заостају.

Проклет био ако то урадиш, можда није проклет ако не урадиш.

Друго разматрање се бави претварањем онога што се чини као лепа концептуална идеја у практичну и корисну праксу. Лако је махати рукама и нејасно викати ветровима да АИ треба да има поруке упозорења и безбедности. Тежи део долази када се одлучује о томе шта би те поруке требало да буду, када и где треба да буду представљене, да ли или у ком степену њихова цена доноси довољну корист, итд.

Овде ћемо Џејмсу Раселу Лоуелу дати последњу реч (поетски) о овој теми за сада: „Креативност није проналажење ствари, већ стварање нечега од ње након што је пронађена.

Претпостављам да је време да засучемо рукаве и почнемо да радимо на овоме. И то није само упозорење, то је акција.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/11/03/аи-етхицс-анд-аи-лав-јуст-мигхт-бе-проддед-анд-гоадед-инто-мандатинг-сафети- упозорења-на-све-постојеће-и-будуће-аи/