Етика вештачке интелигенције и психолошка вакцинација изазвана вештачком интелигенцијом за помоћ људима са дезинформацијама

Шта ћемо да урадимо у вези са огромним обиљем дезинформација и дезинформација?

Све је видљиво све горе и горе, сваким даном.

Можда нам вештачка интелигенција (АИ) може прискочити у помоћ. Да, тако је, можда бисмо могли да искористимо корисне употребе вештачке интелигенције да се носимо са нашим немилосрдним цунамијем дезинформација и дезинформација. Можда би било паметно да покушамо то да урадимо. Сваки пут потенцијалног решења би изгледао вредан трагања.

На страну, желео бих одмах да признам и приметим да ће АИ несумњиво Такође буди и ти део проблема. Нема сумње да људи могу лако да искористе АИ да генеришу дезинформације и дезинформације. Штавише, вештачка интелигенција се може подмукло користити како би дезинформације и дезинформације изгледале невероватно валидне и заварале људе да верују да су представљене информације примамљиво тачне и чињеничне. Изразито тужна страна онога што АИ доноси на сто. Вратићемо се на ову лошу загонетку пред крај ове расправе.

За сада, хајде да се насмејамо и истражимо како је вештачка интелигенција корисна за бацање дезинформација и дезинформација на своја моћна колена. Једна важна подлога биће да се све ово уклапа у виталне елементе етике вештачке интелигенције. Моје колумне о етици вештачке интелигенције и етичкој вештачкој интелигенцији су у току и опсежне, укључујући линк овде линк овде, само да поменемо само неке.

Размотрите ове темељне начине на које АИ може бити посебно користан савезник у рату против дезинформација и дезинформација:

  • Зауставите се на Гет-Го: АИ се може користити за откривање и покушај уклањања дезинформација и дезинформација пре него што се олабаве
  • Филтрирај пре него што се види: АИ се може користити за филтрирање дезинформација и дезинформација тако да не морате да бринете да ли ћете их видети
  • Припремите се да будете имуни: АИ се може користити за јачање ваше спремности и способности да се борите са дезинформацијама и дезинформацијама (формално познатом као пружање неке врсте психолошке вакцинације)
  • други

Прва наведена тачка подразумева покушај заустављања дезинформација и дезинформација у најранијем могућем тренутку, пре него што садржај дође у свет.

Ово је веома проблематичан приступ. Неки би гласно тврдили да би ово могао бити покушај Великог брата да сузбије слободу говора. Колико далеко би овај АИ могао да оде? Може ли то спречити људе да слободно изразе своје ставове? Ово језиво могло би да постане клизав нагиб вештачке интелигенције која на крају постане најгора ноћна мора злих резултата који су невино започели са најбољим намерама.

Сигуран сам да схватате слику.

Друга тачка је мало умеренија и сугерише да бисмо могли да користимо вештачку интелигенцију да филтрирамо садржај уместо нас.

Можда имате бота за АИ филтер који ће скенирати све ваше долазне изворе података из различитих вести и других извора. АИ је скројен да ухвати све дезинформације или дезинформације које одговарају вашим личним критеријумима. Дакле, у таквом сценарију, то није ситуација цензуре Великог брата. Ви контролишете АИ и начин на који филтрира ваше право сандуче са информацијама у ваше име.

Звучи прилично добро.

Ипак, постоје неке бриге вредне пажње.

На пример, ми смо већ у великој мери поларизовани у нашим погледима и ова употреба АИ би могла да учини ту поларизацију дубљом и мрачнијом. Замислите да са овом углађеном вештачком интелигенцијом која ради нон-стоп 24×7, никада нећете морати да видите ни мрвицу информација које сте класификовали као потенцијално дезинформације и дезинформације. Готово је гарантовано да ће ваша поларизована перспектива остати нетакнута. По цео дан и кад год желите да погледате информације које чекају вашу пажњу, оне су увек потпуно унапред одабране и нема шансе да погледате такозване дезинформације и дезинформације.

Ја кажем да дезинформације и дезинформације могу бити тзв јер постоји огромна количина контроверзи око тога шта заправо представља дезинформације и дезинформације. Неки стручњаци инсистирају на томе да постоји апсолутна основа за утврђивање шта је дезинформација, а шта дезинформација. Постоји исправно и погрешно. Све се може израчунати без грешке да је нешто или дезинформација или дезинформација.

Не виде сви ствари тако јасне.

Речено је да је пословични контраст дихотомије укључивања или искључивања један од обмањујућих ставова. Дезинформација једне особе се можда не сматра дезинформацијом за другу особу. Исто тако и о дезинформацијама. Тврдња је да се дезинформације и дезинформације разликују по природи и величини. Покушај да се све информације дефинитивно класификују у једну или другу гомилу је много теже него што сугерише махање руком.

Суштина је да друга тачка у вези са употребом АИ као механизма за филтрирање има своје компромисе. Нема сумње да ће се АИ све више користити у овој употреби. У исто време, морамо имати на уму изазове које ће таква вештачка интелигенција изнети у први план. АИ као филтер за дезинформације и дезинформације није неки сребрни метак или закуцавање.

То нас води до треће тачке, односно могућности коришћења вештачке интелигенције да би се људи боље носили са дезинформацијама и дезинформацијама.

Сумњам да сте вероватно чули много о овом трећем начину коришћења вештачке интелигенције у овом контексту. Тек почиње да настаје. Сада сте на самом врху нечега што ће вероватно расти и постепено бити стављено у употребу. Имајте на уму да ће, како се ова популарност шири, контроверзе око тога да ли је то одговарајући приступ такође постати веома видљиве.

Део проблема је што се вештачка интелигенција донекле користи за оно што би неки на погрдан начин назвали играње умних игрица са људима.

То изгледа злослутно.

Ово нас такође доводи до области етике вештачке интелигенције.

Све ово се такође односи на трезвено настајућу забринутост у вези са данашњом вештачком интелигенцијом, а посебно са употребом машинског учења и дубоког учења као облика технологије и начина на који се она користи. Видите, постоје употребе МЛ/ДЛ које имају тенденцију да подразумевају антропоморфизацију АИ од стране широке јавности, верујући или бирајући да претпоставимо да је МЛ/ДЛ или осећајна АИ или близу (није). Поред тога, МЛ/ДЛ може садржати аспекте подударања рачунарских образаца који су непожељни или потпуно неприкладни, или незаконити из етичке или правне перспективе.

Можда би било корисно прво разјаснити на шта мислим када говорим о АИ уопште и такође дати кратак преглед машинског учења и дубоког учења. Постоји велика конфузија о томе шта вештачка интелигенција подразумева. Такође бих желео да вам представим правила етике вештачке интелигенције, која ће бити посебно саставни део остатка овог дискурса.

Навођење записа о АИ

Хајде да се уверимо да смо на истој страни о природи данашње вештачке интелигенције.

Данас не постоји АИ која је разумна.

Ми немамо ово.

Не знамо да ли ће разумна АИ бити могућа. Нико не може тачно да предвиди да ли ћемо достићи осећајну АИ, нити да ли ће се осећајна АИ некако чудесно спонтано појавити у облику компјутерске когнитивне супернове (која се обично назива Сингуларитет, погледајте моје извештавање на линк овде).

Схватите да данашња вештачка интелигенција није у стању да „размишља“ ни на који начин на нивоу људског размишљања. Када комуницирате са Алеком или Сири, конверзацијски капацитети могу изгледати слични људским капацитетима, али реалност је да су рачунарски и да им недостаје људска спознаја. Најновија ера вештачке интелигенције је у великој мери користила машинско учење и дубоко учење, који користе подударање рачунарских образаца. Ово је довело до система вештачке интелигенције који имају изглед склоности сличних људима. У међувремену, данас не постоји ниједна вештачка интелигенција која има привид здравог разума нити има било какво когнитивно чудо снажног људског размишљања.

Део проблема је наша тенденција да антропоморфизујемо рачунаре, а посебно вештачку интелигенцију. Када се чини да рачунарски систем или вештачка интелигенција делују на начин који повезујемо са људским понашањем, постоји скоро неодољива жеља да се систему припишу људски квалитети. То је уобичајена ментална замка која може ухватити чак и најнепопустљивијег скептика у погледу шанси да достигне осећај.

У извесној мери, зато су етика вештачке интелигенције и етичка вештачка интелигенција тако кључна тема.

Прописи етике вештачке интелигенције нас наводе да останемо будни. Технолози АИ понекад могу бити заокупљени технологијом, посебно оптимизацијом високе технологије. Они не размишљају нужно о већим друштвеним последицама. Имати етички начин размишљања АИ и чинити то интегрално за развој АИ и постављање на терен је од виталног значаја за производњу одговарајуће вештачке интелигенције, укључујући процену тога како компаније усвајају етику вештачке интелигенције.

Поред примене етичких прописа АИ уопште, постоји одговарајуће питање да ли треба да имамо законе који би регулисали различите употребе АИ. На савезном, државном и локалном нивоу се доносе нови закони који се тичу опсега и природе начина на који АИ треба да буде осмишљен. Напори да се израде и донесу такви закони су постепени. Етика вештачке интелигенције у најмању руку служи као зауставно решење и скоро сигурно ће до неког степена бити директно укључено у те нове законе.

Имајте на уму да неки упорно тврде да нам нису потребни нови закони који покривају АИ и да су наши постојећи закони довољни. Они упозоравају да ћемо, ако донесемо неке од ових закона о вештачкој интелигенцији, убити златну гуску ограничавајући напредак у вештачкој интелигенцији који нуди огромне друштвене предности. Погледајте на пример моје извештавање на линк овде.

У претходним колумнама, покрио сам различите националне и међународне напоре за израду и доношење закона који регулишу АИ, види линк овде, на пример. Такође сам покрио различите принципе и смернице етике вештачке интелигенције које су различите нације идентификовале и усвојиле, укључујући, на пример, напоре Уједињених нација као што је УНЕСЦО-ов скуп етике вештачке интелигенције који је усвојило скоро 200 земаља, види линк овде.

Ево корисне кључне листе етичких АИ критеријума или карактеристика у вези са системима вештачке интелигенције које сам претходно пажљиво истражио:

  • провидност
  • Правда и правичност
  • Не нашкодити
  • одговорност
  • приватност
  • Доброчинство
  • Слобода и аутономија
  • Поверење
  • Одрживост
  • Достојанство
  • Солидарност

Те принципе етике вештачке интелигенције озбиљно би требало да користе програмери вештачке интелигенције, заједно са онима који управљају развојним напорима АИ, па чак и онима који на крају обављају и одржавају АИ системе. Све заинтересоване стране током читавог животног циклуса развоја и употребе АИ сматрају се у оквиру поштовања устаљених норми Етичке АИ. Ово је важан нагласак пошто је уобичајена претпоставка да су „само кодери“ или они који програмирају АИ подложни придржавању појмова етике АИ. Као што је раније наглашено овде, потребно је село да осмисли и примени АИ, а за шта цело село мора да буде упућено у етичке прописе АИ и да се придржава њих.

Хајде да задржимо ствари на земљи и фокусирамо се на данашњу компјутерску неосетљиву вештачку интелигенцију.

МЛ/ДЛ је облик подударања рачунарских образаца. Уобичајени приступ је да прикупљате податке о задатку доношења одлука. Податке уносите у МЛ/ДЛ рачунарске моделе. Ти модели настоје да пронађу математичке обрасце. Након проналажења таквих образаца, ако су пронађени, АИ систем ће користити те обрасце када наиђе на нове податке. Након представљања нових података, обрасци засновани на „старим“ или историјским подацима се примењују да би се донела тренутна одлука.

Мислим да можете погодити куда ово води. Ако су људи који су доносили одлуке по узору на инкорпорирали нежељене предрасуде, шансе су да подаци то одражавају на суптилан, али значајан начин. Машинско учење или дубоко учење упаривање рачунарских образаца ће једноставно покушати да математички опонаша податке у складу са тим. Не постоји никакав привид здравог разума или других разумних аспеката моделирања направљеног од вештачке интелигенције.

Штавише, ни програмери вештачке интелигенције можда неће схватити шта се дешава. Тајна математика у МЛ/ДЛ-у може отежати откривање сада скривених предрасуда. С правом се надате и очекујете да ће програмери вештачке интелигенције тестирати потенцијално скривене предрасуде, иако је ово теже него што се чини. Постоји велика шанса да чак и уз релативно опсежна тестирања, постоје пристрасности и даље уграђене у моделе подударања образаца МЛ/ДЛ.

Могли бисте донекле користити чувену или злогласну изреку смеће-у-ђубре-ван. Ствар је у томе што је ово више слично предрасудама које се подмукло уносе као пристрасности потопљене у АИ. Алгоритам доношења одлука (АДМ) АИ аксиоматски постаје оптерећен неједнакостима.

Није добро.

Верујем да сам сада припремио сцену да довољно разговарам о улози вештачке интелигенције као средства за подстицање психолошке вакцинације у вези са суочавањем са дезинформацијама и дезинформацијама.

Улазак у умове људи

Почнимо са основама или основама у основи дезинформација и дезинформација.

Генерално, дезинформације се односе на лажне или обмањујуће информације.

Дезинформација је отприлике иста, иако се састоји од додатног елемента намера. Информацију обично тумачимо као дезинформацију када је то информација намењен дезинформисати.

Могао бих да вам кажем да је тренутно 10 сати ноћу, што је, рецимо, нетачно јер је време заиста поноћ. Да сам вам рекао 10 сати као предосећај и да не покушавам да варам, обично бисмо рекли да сам вас погрешно обавестио. Пренео сам дезинформације. Можда сам био лењ или сам заиста веровао да је 10 сати. С друге стране, да сам поменуо 10 сати јер сам намјерно хтио да вас обманем да мислите да је вријеме 10 сати и да знам да је вријеме заправо поноћ, могло би се рећи да је то облик дезинформације .

Један значајан аспект информација уопште је да смо обично у могућности да ширимо информације и на тај начин информације могу постати донекле распрострањене. Информације могу заиста тећи попут воде, у ширем смислу.

Кажем вам да је 10 сати увече. Сада имате ту одређену информацију. Могли бисте наглас викнути групи људи у близини да је 10 сати ноћу. Они сада такође имају исте информације. Можда неки од тих људи уђу на своје мобилне телефоне и зову друге да им кажу да је 10 сати. Све у свему, информације се могу ширити или делити, а понекад и тако брзо, док се у другим случајевима то ради споро.

У извесном смислу, можете тврдити да информације могу постати виралне.

Постоји скована реч или терминологија коју можда нисте посебно видели или користили, а која помаже у описивању овог феномена информација које постају виралне, реч је инфодемиц. Ова реч је мешавина информација и епидемије. Углавном, инфодемија је повезана са околностима које укључују ширење дезинформација или дезинформација. Појам је да лажне или обмањујуће информације могу постати вирусне, непожељно, слично нежељеном ширењу болести или болести.

У примеру око 10 сати увече, ова привидна чињеница је била информација која је пренета оближњој групи људи. Они су заузврат ширили ту чињеницу другима. Ако је 10 сати било лажно, онда се овај конкретни случај дезинформација или дезинформација проширио на многе друге. Можда не знају да су информације биле дезинформације или можда дезинформације.

Верујем да све ове дефиниције и основе изгледају разумно и да сте до сада укључени.

Одлично, наставимо.

Увео сам вас помало кришом у нешто што заокупља велику дозу фасцинације, а такође и љутње. Суштина је у томе да постоје разумно разумне паралеле између онога што болести чине вирусним и онога што дезинформације или дезинформације чине вирусним.

Не слажу се сви са овим тврдим паралелама. Ипак, они су интригантни и вредни разматрања.

Дозволите ми да детаљније објасним.

Видите, можемо покушати да искористимо згодну аналогију позивања на болести и болести које се преносе људима, чинећи то да упоредимо сличну могућност са ширењем дезинформација и дезинформација. Да бисмо покушали да зауставимо ширење болести, можемо имати за циљ да рано откријемо и покушамо да задржимо извор болести у настајању, тачку потенцијалног ширења болести. Други приступ за решавање болести која се шири би био да се заштитите од добијања путем опрезне употребе маске или заштитне опреме. Трећи приступ би се могао састојати од узимања вакцинације како бисте покушали да изградите свој имунитет повезан са болешћу.

Сада смо дошли до пуног круга у томе да се ти исти приступи суочавању са болестима могу експлицитно упоредити са суочавањем са дезинформацијама и дезинформацијама. Раније сам споменуо да су у току слични напори да се користи вештачка интелигенција у сврху покушаја да се избори са дезинформацијама и дезинформацијама, посебно (као што је раније поменуто):

  • Зауставите се на Гет-Го: АИ се може користити за откривање и покушај уклањања дезинформација и дезинформација пре него што се олабаве
  • Филтрирај пре него што се види: АИ се може користити за филтрирање дезинформација и дезинформација тако да не морате да бринете да ли ћете их видети
  • Припремите се да будете имуни: АИ се може користити за јачање ваше спремности и способности да се борите са дезинформацијама и дезинформацијама (формално познатом као пружање неке врсте психолошке вакцинације)
  • други

Трећи аспект ће овде бити од највећег интереса.

Ево договора.

Знамо да болести обично погађају Људско тело. Уз аналогију о томе како настају дезинформације и дезинформације, можемо сугерисати да погрешне информације погађају људски ум. Да, вероватно можете доћи у контакт са дезинформацијама или дезинформацијама које се уливају у ваш ум. Дезинформације или дезинформације потенцијално кваре или трују ваш начин размишљања.

Људско тело се може вакцинисати да покуша да се припреми за контакт са болестима. Поставља се велико питање да ли то можемо учинити и за људски ум. Да ли је могуће да покушате да вакцинишете ум тако да када вам дезинформације или дезинформације падну на памет да сте спремни за то и да сте у складу са тим вакцинисани?

Област студија позната као психолошка вакцинација сматра да се ум заиста може инокулирати у смислу да је спреман да се носи са дезинформацијама или дезинформацијама.

Размотрите овај опис у недавној истраживачкој студији у вези са психолошком инокулацијом и оним што се понекад означава као радња пребункинг:

  • „Откривање дезинформација је такође проблематично јер исправљање дезинформација не поништава увек њихове ефекте у потпуности, што је феномен познат као ефекат континуираног утицаја. Сходно томе, за разлику од разоткривања, претходно раскринкавање је добило на значају као средство за превентивну изградњу отпорности на очекивану изложеност дезинформацијама. Овај приступ се обично заснива на теорији инокулације. Теорија инокулације прати аналогију медицинске имунизације и поставља да је могуће изградити психолошку отпорност против нежељених покушаја убеђивања, слично као што медицинске инокулације граде физиолошку отпорност против патогена” (Наука аванси, 24. август 2022, „Психолошка вакцинација побољшава отпорност на дезинформације на друштвеним медијима“ коаутора Јон Роозенбеек, Сандер ван дер Линден, Бетх Голдберг, Стеве Ратхје и Степхан Левандовски).

Враћајући се на мој пример о времену које је 10 сати ноћу, претпоставимо да сам вам раније рекао да понекад наведено време није стварно време. Од сада имате облик вакцинације да будете опрезни у вези са тврдњама времена. Ова вакцинација вас је припремила да дођете у контакт са тврдњама које су дезинформације или дезинформације.

Да сам вас упозорио пре неколико година да наведена времена нису стварна времена, постоји шанса да се можда не бисте сетили тог давног упозорења. Дакле, ранија инокулација је (да кажемо) нестала. Моја вакцинација за вас можда треба да се појача.

Такође постоји шанса да инокулација није била довољно специфична да бисте је употребили када је то потребно. Да сам вас пре много година упозорио на тражена времена у односу на стварна времена, то би могло бити превише широко. Инокулација можда неће успети у конкретном случају када вам је речено око 10 сати. У том смислу, можда је моја вакцинација требало да буде да треба да будете опрезни када се користи тражено време од 10 сати. Наравно, вакцинације у случају болести су донекле исте, понекад су врло специфичне за познате болести, док су у другим случајевима широког спектра.

Често цитирана истраживачка студија о психолошкој инокулацији коју је 1961. урадио Вилијам Меквајер са Универзитета Колумбија данас се генерално сматра класиком у овој области проучавања. Можда ће вас занимати ове кључне тачке које је тада изнео:

  • „Таква генерализована имунизација може произаћи из било којег од два механизма. Претходно излагање може шокирати особу да схвати да су „труизми“ које је увек прихватао заиста рањиви, провоцирајући је на тај начин да развије одбрану свог уверења, са резултатом да је отпорнија на јаке контрааргументе када дођу. Алтернативно, оповргавања укључена у претходно излагање могу учинити да сви накнадно изнесени контрааргументи против веровања изгледају мање импресивно“ (Виллиам МцГуире, „Отпор убеђивању које даје активно и пасивно претходно оповргавање истих и алтернативних контрааргумената“, Јоурнал оф Абнормал анд Социјална психологија, 1961).

Да ли сматрате да је ова аналогија вакцинација и имунизације корисно и прикладно поређење са сфером дезинформација и дезинформација?

Неки то раде, неки не.

За потребе ове дискусије, прихватите да је премиса разумна и прикладна.

Како да покушамо да инокулирамо или имунизирамо умове људи?

Могли бисмо натерати људе да читају књиге које би им могле просветлити ум. Можемо им рећи о томе, или их замолити да гледају видео записе или слушају аудио касете. итд.

И можда бисмо користили АИ да урадимо исто.

АИ систем би могао бити осмишљен да буде ваш инокулатор. Кад год почнете да идете на мрежу, као што је гледање интернета, апликација заснована на вештачкој интелигенцији може да вас припреми за ваше онлајн путовање. АИ би вас могао хранити малом количином дезинформација које су означене као такве, омогућавајући вам да схватите да ћете видети нешто што је намерно лажно.

Након излагања овим дезинформацијама храњеним вештачком интелигенцијом, ваш ум је сада спреман да се носи са дезинформацијама или дезинформацијама на које можете наићи у дивљини на Интернету. Ваш ум је спреман. Воила, видите блог на интернету који нуди тврдњену чињеницу да су ванземаљска створења са Марса већ овде на земљи и да се крију пред очима, али ову привидну дезинформацију или дезинформацију ваш ум лако одбацује због претходне вакцинације (па, опет, можда је истина и они су заиста овде!).

У сваком случају, надам се да сте сада у стању да уочите како би вештачка интелигенција могла да помогне у вакцинацији или имунизацији људи у погледу дезинформација или дезинформација.

Смишљају се разне апликације АИ које ће радити као инокулатори дезинформација или дезинформација. АИ би могао тражити да обезбеди широку инокулацију и пружа укупан привид имунизације. АИ би се такође могао осмислити за специфичније облике инокулације. Штавише, АИ може да ради на персонализованој основи која је прилагођена вашим посебним потребама или интересовањима. Напредна вештачка интелигенција у овом простору ће такође покушати да одреди ваш ниво толеранције, стопу менталне апсорпције, капацитет задржавања и друге факторе приликом састављања и представљања такозваних вакцина за имунизацију.

Изгледа прилично згодно.

АИ као играч опасних игара ума

АИ који се користи на овај начин би на први поглед изгледао прилично згодно (хеј, споменуо сам то пре само секунд).

Постоји низ потенцијалних недостатака и проблема који су забрињавајући и можда застрашујући.

У својим колумнама често расправљам о двострукој употреби АИ, види на пример линк овде. АИ може бити важан допринос човечанству. Нажалост, АИ је такође оптерећена многим опасностима и несрећним замкама.

За случај вештачке интелигенције као покретача, хајде да размотримо ова показна питања везана за етику вештачке интелигенције:

  • Нежељене реакције код људи
  • Реакције људи које не реагују
  • АИ погрешно циљање
  • АИ недовољно циљање
  • Цибер Бреацх оф тхе АИ
  • други

Укратко ћемо истражити те забринутости.

Нежељене реакције код људи

Претпоставимо да човек који прима ову врсту вакцинације засноване на вештачкој интелигенцији има нежељену реакцију или производи нежељени ефекат.

Особа може погрешно протумачити имунизацију и одједном постати неприхватљива за било коју информацију коју добије. Блокирају све информације. АИ их је некако натерао да избаце бебу са водом за купање (стара изрека, можда вредна повлачења). Уместо да само покушава да се избори са дезинформацијама и дезинформацијама, особа је реаговала тако што је одлучила да су све информације увек лажне.

Мислим да не желимо да људи претерају.

Постоји мноштво нежељених реакција које АИ може подстаћи. Ово је делимично због начина на који је АИ покушао да изврши вакцинацију, али такође морамо да положимо део проблема на ноге човека који је примио инокулацију. Можда су реаговали на дивље или бизарне начине да други који су примили исту вакцину АИ то нису урадили.

Опет, ово можете упоредити са аналогијом вакцинација против болести.

Укратко, биће важно да када се такви напори вештачке интелигенције користе, они буду урађени на одговоран начин који настоји да минимизира негативне ефекте. Такође би требало да постоји додатни аспект АИ да би се покушало утврдити да ли је дошло до нежељене реакције. Ако постоји откривена нежељена реакција, треба осмислити АИ тако да покуша да помогне особи у њеном негативном одговору и да покуша да превазиђе или ублажи одговор.

Реакције људи који не реагују

Друга могућност је да инокулација храњена вештачком интелигенцијом нема утицаја на особу која прима.

Особа добија вакцину засновану на вештачкој интелигенцији у вези са дезинформацијама или дезинформацијама. Док већина људи то „добије“ и имунизира се, сигурно ће постојати људи који уопште неће реаговати. Ништа не уче од вакцинације. Они не реагују на покушај вештачке интелигенције да их имунизира за све или одређене врсте дезинформација или дезинформација.

Још једном, ово је упоредиво са инокулацијама за болести.

АИ би требало осмислити да се избори са таквим околностима.

АИ Мистаргетинг

Замислите да се вештачка интелигенција нада да ће имунизирати људе у вези са одређеном темом за коју ћемо рећи да је тема Кс, али се испоставило да је тема И уместо тога покривена. АИ је погрешно усмерена.

Ово је двоструки проблем. Прво, тема Кс тада није покривена као претпостављена и очекивана сврха АИ инокулатора. Друго, тема И је покривена, али можда нисмо желели да се људи вакцинишу на ту тему.

Упс.

Много је питања. Да ли се ово могло спречити? Ако се то догоди, можемо ли поништити тему И имунизације? Можемо ли да покушамо да покријемо тему Кс вакцинација, или ће особа бити мање пријемчива или нерецептивна због првобитно погрешног циљања од стране АИ?

Појављује се много проблематичних брига.

АИ недовољно циљање

АИ обезбеђује вакцинацију на тему З. Чини се да људи који примају вакцину имају минималну или скоро занемарљиву реакцију. Инокулација је била недовољна да се задржи.

Можда ћете бити у искушењу да брзо тврдите да се ово лако решава. Све што треба да урадите је да поновите инокулацију. Можда да, можда не.

Инокулација вештачком интелигенцијом може имати толико ограничену вредност да без обзира на то да ли људи то искусе сто пута, резултат је и даље маргиналан исход. Можда ћете морати да појачате инокулацију уместо да је једноставно понављате.

У међувремену, замислите да је учињен покушај да се појача вакцинација храњена вештачком интелигенцијом, али то иде преко границе. Појачана верзија изазива хиперреакције. Јој, од лошег смо доспели у горе.

Цибер Бреацх оф тхе АИ

Замислите да се вештачка интелигенција у великој мери користи да би се помогло људима да буду вакцинисани од дезинформација и дезинформација.

Људи се ослањају на опште ослањање. Они знају и очекују да ће им АИ представити исечке који ће им отворити очи за оно што је познато као дезинформације и дезинформације.

Све је добро и добро, изгледа.

Злочин је некако у стању да изврши сајбер провалу у АИ. Они подмукло убацују у АИ неке жељене дезинформације за које желе да људи мисле да нису дезинформације. АИ је уређен тако да стварна дезинформација изгледа као истинита информација. Такође, праве информације су направљене да изгледају као дезинформације.

Људи су потпуно снукерисани. АИ их дезинформише. Поврх тога, зато што су постали зависни од АИ, и због поверења да АИ ради праву ствар, падају на удицу, линију и потапају за ову пробијену АИ. Без оклевања.

С обзиром на то колико брзо дезинформације могу даље да се шире, зликовци би могли да уживају у томе што је постојање ове врсте вештачке интелигенције њихов најлакши и најбржи начин да своје подмукле лажи распростре широм света. Иронично, наравно, што смо искористили инокулатор АИ да суштински шири болест.

Zakljucak

Да ли би требало да АИ игра умне игре са нама?

Да ли би вештачка интелигенција за дезинформације и инокулацију дезинформацијама могла бити претећи тројански коњ?

Можете направити суштински аргумент за забринутост због такве ноћне море.

Други се ругају таквој могућности. Људи су довољно паметни да знају када АИ покушава да их превари. Људи неће наседати на такав дриблинг. Само идиоти би се довели у заблуду таквом АИ. То су уобичајене реплике и контрааргументи.

Не желећи да изгледам мање него да се потпуно дивим људима и људској природи, само бих сугерисао да постоји довољно индикација да би људи могли да падну на вештачку интелигенцију која их обмањује.

Постоји још већи проблем који се можда надвија над свим овим.

Ко прави АИ и како АИ алгоритамски одлучује шта се сматра дезинформацијама и дезинформацијама?

Данас се у целом свету води читава свађа око тога шта су конкретно дезинформације и дезинформације. Неки тврде да су чињенице чињенице, тако да никада не може бити забуне око тога шта је тачна информација у односу на нетачне информације. Ђаво је, међутим, понекад у детаљима, то је сасвим сигурно.

За сада последња напомена. Абрахам Линколн је чувено рекао: „Можете преварити све људе повремено и неке људе све време, али не можете заваравати све људе све време.

Да ли ће вештачка интелигенција која се користи за вакцинацију човечанства од дезинформација и дезинформација бити витално средство да се осигура да се сви људи не могу заваравати све време? Или би се то могло користити за превару већине људи више времена?

Време ће рећи.

И то сигурно није дезинформација или дезинформација.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2022/09/14/аи-етхицс-анд-аи-индуцед-псицхологицал-иноцулатион-то-хелп-хуманс-витх-дисинформатион/