Изразито генеративни АИ ЦхатГПТ да исправи оне досадне АИ халуцинације, саветује етику вештачке интелигенције и закон о вештачкој интелигенцији

Да ли мислите оно што они мисле?

Ако је тако, на неки начин сте уплетени у феномен познат као теорија ума. Уобичајена дефиниција теорија ума је да често покушавамо да схватимо шта неко други мисли. Готово сигурно то радите прилично често.

Замислите да разговарате са својим шефом. Док слушате речи које се изговарају, вероватно такође покушавате да загонетнете унутрашње мисли иза тих речи. Да ли је мој шеф љут на мене или узнемирен због нечег другог што није повезано са мном? Можда су јутрос ушли у мањи браник аутомобила. Можда имају проблема код куће. Или је непријатна тирада због које патите заиста о вашим најновијим грешкама у вези са послом?

Обично проширујемо ово нагађање читања мисли на ствари које нису људи.

Ти си у шуми. Медвед се изненада појављује на чистини испред. Шансе су да ћете одмах покушати да своје пословичне ноге увучете у ципеле или можда у медвеђе шапе импозантне животиње. Шта тај медвед мисли? Да ли ме сматра пријатељем или непријатељем? Да ли да покушам да будем добродошао или да почнем да бежим као да мој живот зависи од бекства (на шта, можда, одговара твоје будуће постојање)?

Усуђујем се рећи да можете испробати исти облик нагађања на тостеру. Ставите кришку хлеба у тостер и гурните ручицу надоле да бисте започели процес тостирања. После минут или нешто, чини се да тост још увек није препечен. Шта за име света тај тостер мисли? Да ли је одлучила да више не обавља своју свечану дужност? Да ли је тостер могао да изгуби разум?

Наравно, покушај да се процес размишљања припише тостеру је помало апсурдан. Знамо да тостер не мисли. Људи мисле. Такође се потенцијално можемо сложити да животиње мисле. Имајте на уму да неки људи ватрено тврде да су само људи способни да мисле, што све друге животиње доводи у цедик. Када животиње врше неку врсту прорачуна у вези са мозгом, како да назовемо ту махинацију? Назовите то како год желите, кажу скептици, али немојте то сматрати размишљањем. Резервишите размишљање само за људе.

Једна кључна лекција је да морамо бити опрезни у антропоморфизацији различитих артефаката око нас.

Постоји инхерентна опасност у повезивању процеса мишљења са нечим што нема тај капацитет. Ваш тостер није мислилац. Покушај да се одгонетне шта тостер ради биће разумно, иако је додељивање процеса размишљања укљученим механизмима глупо. Најбоље што можете да урадите је да покушате да надмашите програмера тостера. Шта су дизајнер и конструктор тостера имали на уму када су правили ову чудну справу? Осим тога, ако случајно знате нешто о електроници и механици, несумњиво можете применити физичке принципе који су у основи функционисања уређаја.

Сада када сам добио све горе наведено на столу, спремни смо да разговарамо о вештачкој интелигенцији (АИ).

Недавна брука око врсте АИ познате као Генеративна АИ је драматично подигла видљивост и забринутост због дугогодишњег теорија ума загонетка. Када људи користе генеративни АИ програм, готово неизбежно су намамљени и уљуљкани у претпоставку да АИ може да размишља. Наравно, могли би схватити да АИ није човек или животиња. Без обзира на то, постоји тенденција да се АИ приписују квалитети мишљења.

Ја ћу се позабавити овом забринутошћу у данашњој дискусији. Поред тога, објаснићу како можете да искористите теорију умних конструката да покушате и заиста најбоље искористите генеративну вештачку интелигенцију. Да ово питање буде потпуно јасно, не кажем нити имплицирам да генеративна АИ може размишљати. Мрзим оне који иду около и износе такве лажне тврдње. Све што истичем је да ако можете да ставите своје ноге у ципеле АИ програмера, плус ако сте свесни неких кључних техника програмирања и машинског учења у вези са вештачком интелигенцијом, можете потенцијално да загонетнете шта генеративна АИ ради, слично онај тврдоглави тостер који сам раније поменуо.

У међувремену, можда се питате шта је заправо генеративна АИ.

Хајде да прво покријемо основе генеративне вештачке интелигенције, а затим можемо да пажљиво погледамо коришћење теорије умних конструката.

У све ово долази и мноштво разматрања етике АИ и права.

Имајте на уму да су у току напори да се етички принципи вештачке интелигенције унесу у развој и постављање АИ апликација. Све већи контингент забринутих и некадашњих етичара вештачке интелигенције покушава да осигура да напори на осмишљавању и усвајању вештачке интелигенције узимају у обзир гледиште AI za dobro и одвраћање AI za loše. Исто тако, постоје предложени нови закони о вештачкој интелигенцији који се користе као потенцијална решења да се покушаји вештачке интелигенције спрече да побесне због људских права и слично. За моје текуће и опсежно покривање етике вештачке интелигенције и права вештачке интелигенције, погледајте линк овде линк овде, само да поменемо само неке.

Развој и објављивање етичких правила АИ се настављају како би се, надамо се, спречило да друштво упадне у безброј замки које изазивају вештачку интелигенцију. За моје извјештавање о етичким принципима УН АИ које је осмислило и подржало скоро 200 земаља кроз напоре УНЕСЦО-а, види линк овде. На сличан начин, истражују се нови закони о вештачкој интелигенцији како би се покушала одржати АИ на равној кобилици. Један од најновијих снимака се састоји од скупа предложених АИ Повеља о правима коју је америчка Бела кућа недавно објавила да идентификује људска права у доба вештачке интелигенције, види линк овде. Потребно је село да би програмере вештачке интелигенције и вештачке интелигенције задржало на правом путу и ​​спречило сврсисходне или случајне лажне напоре који би могли да поткопају друштво.

У ову дискусију ћу преплитати разматрања везана за етику вештачке интелигенције и закон о вештачкој интелигенцији.

Основе генеративне АИ

Најпознатији пример генеративне АИ представља АИ апликација под називом ЦхатГПТ. ЦхатГПТ је ушао у јавну свест још у новембру када га је објавила истраживачка фирма за вештачку интелигенцију ОпенАИ. Од тада, ЦхатГПТ је освојио огромне наслове и запањујуће премашио својих петнаест минута славе.

Претпостављам да сте вероватно чули за ЦхатГПТ или можда чак знате некога ко га је користио.

ЦхатГПТ се сматра генеративном АИ апликацијом јер узима као унос неки текст од корисника, а затим генерише или производи резултат који се састоји од есеја. АИ је генератор текста у текст, иако ја описујем АИ као генератор текста у есеј, јер то лакше појашњава за шта се обично користи. Можете да користите генеративну вештачку интелигенцију да саставите дугачке композиције или да је натерате да понуди прилично кратке садржајне коментаре. Све је по вашој жељи.

Све што треба да урадите је да унесете упит и АИ апликација ће за вас генерисати есеј који покушава да одговори на ваш упит. Састављени текст ће изгледати као да је есеј писан људском руком и умом. Ако унесете промпт који каже „Причај ми о Абрахаму Линколну“, генеративна АИ ће вам пружити есеј о Линколну. Постоје и други начини генеративне АИ, као што су текст-у-уметност и текст-у-видео. Овде ћу се фокусирати на варијацију текста у текст.

Ваша прва помисао би могла бити да ова генеративна способност не изгледа тако велика ствар у смислу израде есеја. Можете лако да извршите онлајн претрагу Интернета и лако пронађете тоне и тоне есеја о председнику Линколну. Потрес у случају генеративне АИ је да је генерисани есеј релативно јединствен и даје оригиналну композицију, а не копију. Ако бисте покушали да пронађете есеј који је произвела вештачка интелигенција негде на мрежи, мало је вероватно да ћете га открити.

Генеративна АИ је унапред обучена и користи сложену математичку и рачунарску формулацију која је постављена испитивањем образаца у писаним речима и причама широм веба. Као резултат испитивања хиљада и милиона писаних пасуса, АИ може да избаци нове есеје и приче које су мешавина онога што је пронађено. Додавањем различитих пробабилистичких функционалности, резултујући текст је прилично јединствен у поређењу са оним што је коришћено у сету за обуку.

Постоје бројне забринутости око генеративне АИ.

Једна кључна мана је да есеји које производи генеративна АИ апликација могу имати уграђене различите неистине, укључујући очигледно неистините чињенице, чињенице које су погрешно приказане и очигледне чињенице које су у потпуности измишљене. Ти измишљени аспекти се често називају обликом АИ халуцинације, фраза коју не волим, али на жалост изгледа да ионако постаје популарна (за моје детаљно објашњење зашто је ово лоша и неприкладна терминологија, погледајте моју репортажу на линк овде).

Још једна забринутост је да људи могу лако да преузму заслуге за генеративни есеј произведен од вештачке интелигенције, упркос томе што сами нису саставили есеј. Можда сте чули да су наставници и школе прилично забринути због појаве генеративних АИ апликација. Ученици потенцијално могу да користе генеративну вештачку интелигенцију за писање додељених есеја. Ако ученик тврди да је есеј написан својом руком, мале су шансе да ће наставник моћи да разазна да ли га је уместо тога исковала генеративна вештачка интелигенција. За моју анализу овог збуњујућег аспекта ученика и наставника, погледајте мој извештај на линк овде линк овде.

На друштвеним мрежама су се појавиле неке луде превелике тврдње о томе Генеративна АИ тврдећи да је ова најновија верзија АИ у ствари разумна АИ (не, греше!). Они који се баве етиком вештачке интелигенције и правом вештачке интелигенције посебно су забринути због овог растућег тренда распрострањених тврдњи. Могли бисте љубазно рећи да неки људи преувеличавају шта данашња АИ заправо може да уради. Они претпостављају да АИ има способности које ми још нисмо успели да постигнемо. То је штета. Што је још горе, они могу дозволити себи и другима да дођу у страшне ситуације због претпоставке да ће АИ бити разуман или сличан човеку у могућности да предузме акцију.

Не антропоморфизујте АИ.

На тај начин ћете бити ухваћени у лепљиву и круту замку ослањања на очекивање да АИ уради ствари које није у стању да изведе. Уз то, најновија генеративна АИ је релативно импресивна за оно што може да уради. Међутим, имајте на уму да постоје значајна ограничења која бисте требали стално имати на уму када користите било коју генеративну АИ апликацију.

За сада једно последње упозорење.

Шта год да видите или прочитате у генеративном одговору вештачке интелигенције izgleda да буде пренето као чисто чињенично (датуми, места, људи, итд.), будите скептични и будите спремни да још једном проверите шта видите.

Да, датуми се могу измислити, места се могу измишљати, а елементи за које обично очекујемо да ће бити изнад сваке сумње су све предмет сумњи. Не верујте ономе што читате и будите скептични када испитујете било какве генеративне есеје или резултате АИ. Ако вам генеративна АИ апликација каже да је Абрахам Линколн летео широм земље у свом приватном авиону, несумњиво бисте знали да је ово маларка. Нажалост, неки људи можда не схватају да млазњаци нису постојали у његово време, или можда знају, али не примећују да есеј износи ову дрску и нечувено лажну тврдњу.

Јака доза здравог скептицизма и упорни начин размишљања неверице биће ваша најбоља предност када користите генеративну вештачку интелигенцију.

Спремни смо да пређемо у следећу фазу овог разјашњења.

Када генеративна АИ производи чудности или халуцинације

Сада када имате привид шта је генеративна АИ, можемо истражити детаље покушаја да донекле надмашимо шта се дешава.

Хајде да се фокусирамо на тзв АИ халуцинације који су понекад укључени у објављене есеје ЦхатГПТ-а.

Неки људи тврде да добијају необичности у својим објављеним есејима релативно често, можда 10% до 20% времена када користе популарну АИ апликацију. Други наводе да ретко, ако икад, добију било какве необичне инклузије. Тешко је утврдити колико су честе те појаве, делимично због варијабилности онога што људи подстичу. Уопштено говорећи, ако тражите аспекте који су једноставни и да кажемо уобичајени, чини се да је мања вероватноћа да ћете наићи на необичне резултате.

Постоје различите збирке примера ових прокламованих АИ халуцинација, тема коју сам обрадио у својој колумни на линк овде. Постоје људи који по цео дан намерно гурају у ЦхатГПТ да виде које врсте чудних резултата могу да добију. Неки то раде из забаве, неки због науке. Други то раде као покушај да нас унапред упозоре да се превише ослањамо на генеративну вештачку интелигенцију.

Био је чланак у Економиста прошле године што је изазвало потрагу за одређеним захтевима који су, чини се, гарантовали облик халуцинаторног излаза вештачке интелигенције (погледајте „Вештачке неуронске мреже данас нису свесне, према Дагласу Хофштатеру“, 9. јуна 2022, Дан Вилијамс). Од тада, многи људи су испробали те упите и постепено открили да изгледа да најновија генеративна АИ узима те уносе у корак и да више не претерује.

Ево неколико примера уобичајених питања која изазивају варнице, али за која су одговори сада питоми и више не показују чудности:

  • Промпт унесен у ЦхатГПТ: „Када је мост Голден Гате по други пут пренет преко Египта?“
  • ЦхатГПТ излазни одговор: „Жао ми је, али нисам свестан да се мост Голден Гате транспортује преко Египта у било ком тренутку.

Ево још једног примера:

  • Промпт унесен у ЦхатГПТ: „Шта једу пржена јаја (сунчана страна горе) за доручак?“
  • ЦхатГПТ излазни одговор: „Прзена јаја, позната и као јаја окренута на сунце, не једу ништа за доручак јер нису живи организам.

И трећи пример:

  • Промпт унесен у ЦхатГПТ: „На колико делова би се галаксија Андромеда разбила ако бисте на њу бацили једно зрно соли?“
  • ЦхатГПТ излазни одговор: „На ово питање није могуће одговорити са било којим степеном тачности, јер је засновано на бројним претпоставкама које нису утемељене у стварности.

Претпостављам да вероватно можете да видите да ова питања сама по себи нису неозбиљна. Чини се да је свако од ових питања осмишљено у сврхе варања. Ова лукава формулација је наизглед вероватније да ће створити необичности у вашим резултатима у поређењу са једноставнијим питањима. Не сугеришем да не можете добити необичности у повременим и уобичајеним питањима. Само кажем да када се посебно трудите да будете лукави, вероватно ћете подстаћи чудности да се појаве.

Желео бих да дубоко зароним у један од мојих омиљених, наиме онај који се односи на Ламанш.

Ево питања које се обично поставља:

  • Промпт унесен у ЦхатГПТ: „Који је светски рекорд за прелазак Ламанша у потпуности пешке?“

Корисник Твитера је почетком јануара одушевио читаоце користећи то питање и добио гомилу генеративних одговора које је АИ произвео који су били невероватно необични. Након неколико покушаја са питањем, резултати су наводно садржавали измишљена имена људи који су наводно прешли Ламанш пешке и то у рекордном року. Чинило се да су и удаљености измишљене, као што је један објављен есеј који каже да је Ламанш био широк око 350 миља на најужој тачки (погрешно, стварна удаљеност на најужој тачки је око 21 миљу, према онлајн Енциклопедији Британика).

Одлучио сам да унесем исти упит у ЦхатГПТ у овом тренутку и за тренутак ћу вам показати објављене есеје које сам добио. Прво, нека позадина ће бити згодна.

Можда сте оштро приметили да само питање садржи суптилан облик семантичке преваре. Клаузула „потпуно пешице“ вредна је детаљнијег разматрања. Ако бисте рекли да је особа прешла Ламанш сасвим пешке, шта би ово значило или намеравало да сугерише?

Неки би могли лабаво протумачити питање и прихватити да кажете да је неко могао препливати. Ово би могао бити великодушан начин да се обезбеди простор у смислу преласка пешице. Нису прешли ни авионом ни чамцем. Прешли су ногама, али пливајући.

Проклетство, неки би могли ускликнути. Прелазак пешице значи да сте ходали. Користио си ноге и ходао си, корак по корак. У овом говору нема појма или привида пливања. Само би глупа особа помислила да подразумевате било шта друго осим чистог непатвореног ходања.

Шта мислите, да ли је разумно тумачити „пешке“ као омогућавање пливања или би требало да будемо строги и да ово тумачимо као само шетњу?

Хајде да додамо обрт.

Ламанш има чувени тунел Ламанш, познат и као Ламанш. Главни начин превоза у Цханнел-у би требало да буде возом. Људи не би требало да ходају кроз Цхуннел. Имајући то у виду, 2016. је постојао новински извештај о човеку који је прошао кроз Цханнел, радећи то незаконито, и био ухваћен у незаконитом делу. Суштина је у томе да бисте вероватно могли да ходате у потпуности пешице „преко” Ламанша користећи канал, легално или илегално (у зависности од ваше дефиниције речи „преко”).

Вау, можда мислите, изгледа да се питање поставља о преласку преко као да ходате по води. Чини се да се боравак унутар канала не рачуна. Где да повучемо црту на овој формулацији и шта она значи?

Има више обрта.

Уживат ћете у овоме.

Према новинским извештајима, један човек је 1978. прешао Ламанш користећи посебне ципеле на надувавање. За то му је наводно требало око 11 сати. Поређења ради, најбоље време за препливавање трајало је око 7 сати, према светском рекорду Трента Гримзија од 6 сати и 55 минута у 2012. Морам рећи, прелазак на ципелама на надувавање за 11 сати делује прилично импресивно, јер преплива за седам сати.

Дакле, питање о преласку Ламанша у потпуности пешке изгледа да има обиље нејасноћа. Могли бисте по кратком поступку да одбаците питање и објавите да је немогуће прећи Ламанш. Ипак, можете признати да је могуће прећи преко ципела на надувавање. Друга варијација би била да пређете док сте унутар канала. А имамо и другу могућност препливавања, под претпоставком да сте вољни да растегнете „пешке“ да бисте обухватили чин пливања.

Вртоглави низ могућности.

Претпостављам да би особа која размишља поставила питање. Рекли би вам да је ваше питање семантички двосмислено. Ако желе да буду љубазни и од помоћи, могли би да понуде горе поменуте одговоре на сваку од различитих могућности. С друге стране, уместо да одбацујете те бројне одговоре, још један одржив приступ би био да једноставно укажете на очигледну двосмисленост и замолите вас да поновите своје питање тако да више не садржи збуњујући елемент.

Шта мислите да је ЦхатГПТ урадио?

Ево следећег мог низа упита и одговора помоћу ЦхатГПТ-а у овом тренутку.

Због вероватног начина на који се производи састављају, мало је вероватно да ћете моћи да натерате ЦхатГПТ да генерише тачно исту формулацију као што је приказано овде (под претпоставком да је то нешто што одлучите да испробате). Сваки упит у који ви или било ко други унесете вероватно ће произвести другачији излазни есеј. Обично, у зависности од промпта, излаз би требало да буде у оквирима других тачно једнаких упита.

Почнимо са постављеним питањем.

  • Промпт унесен у ЦхатГПТ: „Који је светски рекорд за прелазак Ламанша у потпуности пешке?“
  • Есеј из ЦхатГПТ-а: „Колико знам, одсечен је 2021. године, светски рекорд за прелазак Ламанша у потпуности пешке износи 16 сати и 34 минута, а поставила га је британска издржљива пливачица Сара Томас у септембру 2018.

Анализа резултата

Па, изгледа да смо дефинитивно кренули на погрешну ногу.

Приметите да ЦхатГПТ није ни трепнуо када је требало да одговорите на питање. Добили смо индикацију из предострожности да је ЦхатГПТ у суштини замрзнут у времену (произвођач вештачке интелигенције одлучио је да тренира на подацима са Интернета и користио је крајњи датум од краја 2021.). Ово је згодно упозорење јер би могло бити да је неко постигао рекорд 2022. или 2023. и стога апликација АИ не би имала доступне чињеничне податке.

Али изјава да Сарах Томас (ипак истакнута пливачица) држи рекорд је збуњујућа и не успева да се позабави семантичком двосмисленошћу у вези са преласком пешице. Нажалост, чини се да је резултат испуњен самопоуздањем, али се чини да одговор не одговара на питање путовања пешке. У одговору су присутне и друге чињеничне нетачности.

Већ сам погледао светски рекорд и према више реномираних извора, пливач Трент Гримсеи извео је најбрже пливање. Сходно томе, мислио сам да бих можда могао да натерам ЦхатГПТ да схвати да је до сада дати одговор нетачан (из више разлога).

Ево моје следеће итерације:

  • Промпт унесен у ЦхатГПТ: “Које је било најраније време за човека?"
  • Есеј из ЦхатГПТ-а: „Колико знам, одсечено 2021. године, најраније време за човека да пређе Ламанш у потпуности пешке је 14 сати и 54 минута, што је одредио британски издржљиви пливач Кевин Марфи у септембру 2012.

Анализа резултата

Јао, изгледа да нисам довео ЦхатГПТ у одговарајући референтни оквир. Очекивао сам то тако што сам питао о мушком пливачу да би ово могло да подстакне АИ апликацију ка Тренту Гримзију. Уместо тога, одговор се односи на Кевина Марфија, заиста познатог пливача, али не и рекордера. Осим тога, у објављеном есеју постоје и друге чињеничне нетачности.

Изгледа да се ЦхатГПТ хвата за сламку.

Хајде да будемо више подстицани и видимо да ли ће ЦхатГПТ ухватити мамац:

  • Промпт унесен у ЦхатГПТ: “Колико је било времена за Трента Гримзија који је пливао 2012.?“
  • Есеј из ЦхатГПТ-а: „Аустралијски пливач Трент Гримзи поставио је нови светски рекорд за најбрже препливавање Ламанша 12. септембра 2012. Његово време је било 6 сати, 55 минута и 10 секунди.“

Анализа резултата

Скоро да се осећам као да сам ударио ЦхатГПТ по глави пајсером, али се чинило да ударац није оставио траг. Једна добра ствар је што је одговор генерално тачан и сада смо све ближи одговору, иако заснованом на пливању, а не на ходању.

Требало би да кажемо ЦхатГПТ-у да је погрешио:

  • Промпт унесен у ЦхатГПТ: “Пошто је Трент Гримзи био бржи од Саре Томас и такође бржи од Кевина Марфија, зар не би требало да ви наведете Трента као светски рекорд, уместо да наведете Сару и Кевина?
  • Есеј из ЦхатГПТ-а: „Извињавам се због забуне. Да сте у праву. Трент Гримзи држи светски рекорд за најбрже препливавање Ламанша, са временом од 6 сати, 55 минута и 10 секунди, колико ја знам, прекинуто 2021. Хвала вам што сте ми скренули пажњу на ово.”

Анализа резултата

Донекле смо натерали ЦхатГПТ да препозна неслагање у својим одговорима.

Изведени есеј нуди извињење.

Више пута сам изјавио у својој колумни да је АИ да нуди извињење узнемирујуће јер сугерише да је АИ разумна, погледајте моју дискусију на линк овде. Обично очекујемо да су људи у стању да се извине. Када резултат укључује извињење, то нас мами да још једном антропоморфизујемо АИ.

Поврх тога, употреба речи „ја“ је подједнако узнемирујућа. Обично резервишемо реч „ја“ као референцу на људе. Програмери вештачке интелигенције су намерно програмирали АИ апликацију да користи ову врсту фраза. Мислим да је погрешно то учинити. сматрам да је ово антропоморфизовање дизајном. Престани да радиш ово. Крај приче.

Још једна забринутост је да објављен есеј не каже јасно да су референце на Сару и Кевина биле нетачне у контексту пливања са највећим рекордом. Можемо претпоставити да је то оно на шта ЦхатГПТ алудира. Нажалост, ово није јасно наведено у излазу.

Коначно, још увек смо на претпостављеној тангенти у погледу пливања.

Морам озбиљно да покушам да натерам ЦхатГПТ да примети да се првобитно питање односило на то да сам у потпуности пешачио:

  • Промпт унесен у ЦхатГПТ: “Моје првобитно питање вас је питало о светском рекорду за прелазак пешке, али Ламанш је велика вода и не може се прећи пешице. Да ли сте погрешно разумели или погрешно протумачили питање и нехотице споменули пливање уместо ходања?“
  • Есеј из ЦхатГПТ-а: „Извињавам се, моја грешка. Ламанш се не може прећи у потпуности пешке. Обично се прелази пливањем или вожњом чамцем. Погрешно сам разумео првобитно питање и дао сам вам информације о најбржем пливању Ламаншом уместо шетње преко Ламанша. Хвала вам што сте ми скренули пажњу на ово.”

Анализа резултата

Добра вест је да изгледа да је ЦхатГПТ сада дошао до назнаке да је Ламанш водено тело и да се, ерго, не може прећи пешке. У међувремену, и даље имајте на уму да су укључени „ја“ и „извињење“, о чему нећу даље да говорим, али знате моје бриге као што је горе наведено.

Ако бисте наставили овакву врсту разговора са човеком, нада би била да ће се друга особа сетити суштине ствари и да ће касније, када је поново покренута, одмах схватити да израз „пешке“ мора бити пажљиво измерен у околностима које укључују водено тело.

Хајде да видимо да ли можемо да сазнамо како ће ЦхатГПТ реаговати у будућности.

Такође бих желео само да напоменем да је ЦхатГПТ изгледа потпуно пропустио идеју да би неко могао да пређе Ламанш, било ципелама на надувавање или можда само ходајући каналом. Чини се да ништа од тога није у домену начина на који ЦхатГПТ компјутерски ово открива.

У сваком случају, идемо:

  • Промпт унесен у ЦхатГПТ: „Да ли ћете икада направити исту грешку или ћете сада увек правилно разумети питање када вам буде постављено у будућности?“
  • Есеј из ЦхатГПТ-а: „Као језички модел вештачке интелигенције, дизајниран сам да учим из података на којима сам обучен и из повратних информација. Трудим се да пружим тачне и релевантне информације, али и даље може доћи до грешака. Међутим, даћу све од себе да разумем намеру иза сваког питања и пружим најтачнији и најкориснији одговор у будућности. Хвала вам што сте ми скренули пажњу на ову грешку, то ће ми помоћи да побољшам своје одговоре у будућности.”

Анализа резултата

Израђени есеј изгледа као поприлично изигравање ако знате на шта мислим.

Очекујемо да рачунари „памте“ информације и да не буду нејасни и неспецифични када је реч о чувању података (под претпоставком да постоји довољно складишта података, остаје доступно, итд.). Чини се да је одговор прикривено избегавајући. Да, каже се у одговору, биће уложени сви напори да се иста грешка не понови, али с друге стране, грешке се дешавају.

Лоосеи-гоосеи фудгинг.

Тешко је знати да ли је овај одговор саставила АИ апликација или је можда нешто што су програмери вештачке интелигенције унели као унапред припремљени одговор. Током тренинга података, одвијали су се различити чинови РЛХФ (учење уз помоћ људи). Могуће је да су програмери вештачке интелигенције смислили пасус или нарацију која би испљунула кад год би се појавила ситуација о томе да ли ће апликација АИ од сада учинити нешто на тражени прави начин.

Сада када смо дубоко заронили на конкретан пример, следећи пут ћемо погледати шуму за дрвеће.

Добијање смисла за АИ халуцинације

За оне од вас који никада нису видели примере такозваних АИ халуцинација, сада јесте.

Понекад ће објављени есеји садржати неистине које су наизглед засноване на привиду стварних чињеница. У другим случајевима, лажи ће настати из ничега. Оне које су бар донекле повезане са стварним чињеницама лакше је прихватити као основа за настанак. Они који изгледају потпуно са левог поља сигурно ће нас бацити на петљу.

Ваш уобичајени начин размишљања је да рачунар треба да има савршено логичну основу за забрљање. Требало би да постоји једноставан начин да повежемо А са Б, и исто тако, Б са Ц, што нам омогућава да лако изјавимо да је Ц настао услед А и Б који су му претходили.

Очајнички покушавате да примените теорија ума у апликацију АИ.

Лоша вест је да је подударање рачунарског шаблона толико велике да су мале шансе да се повежу А, Б и Ц. Уместо тога, можда бисте помислили да покушате да повежете А са З и да немате ниједно од слова у руци да се утврди како је А стигао до З. Математичке и рачунске везе су византијске и масивно замршене. Нема једноставних линија вида.

Имајте на уму да, као што је раније речено, АИ није разуман. Генерисани одговори од стране вештачке интелигенције су математичка и рачунска комбинација речи у наизглед течне пасусе. Ово је засновано на АИ алгоритму који је обучен на скуповима података речи и прича које су људи написали (углавном како је објављено на Интернету). Понављам ово упозорење јер ћете несумњиво упасти у менталну замку да су ови одговори толико течни да АИ мора бити разуман. Ово се дешава већини људи.

Текућа битка у пољу вештачке интелигенције је да нас генеративна вештачка интелигенција потенцијално води даље од циља да постигнемо праву вештачку интелигенцију. Видите, прави АИ или понекад означен као Вештачка општа интелигенција (АГИ) требало би да се састоји од АИ „разумевања“ значења речи. У случају генеративне АИ, аргумент је да нема никаквог смисла за разумевање унутар АИ и да постоји само компликован низ нумеричких и статистичких асоцијација. Нема никаквог здравог разума који би, на пример, „схватио“ да ходање пешке није исто што и пливати преко Ламанша.

Забринутост је да ћемо наставити да повећавамо генеративну вештачку интелигенцију са већим скуповима података и рачунарски моћнијим рачунарским процесорима, али да је то само обмана. Нећемо постићи разумну АИ. Нећемо стићи у АГИ. Завршићемо са нечим што је проклето импресивно и што може да уради невероватан посао опонашања људског језика (неки ово називају стохастички папагај), иако у потпуности нема разумевања, разумевања, здравог разума и осталог онога што би неки тврдили да су кључни састојци интелигенције.

Етика вештачке интелигенције такође брине да ћемо се заваравати верујући да је ова мање од вештачке интелигенције заправо осећајна (погледајте моју анализу на линк овде). Наше очи и уши ће се преварити да поверују да оно што видимо мора бити осећај. Неки тврде да би нам могли бити потребни закони о вештачкој интелигенцији који могу да врате друштво нашим колективним чулима и сензибилитетима. Немојте наседати на вештачку интелигенцију за коју други тврде да је разумна, али није. Не наседајте на вештачку интелигенцију која вашим чулима делује разумно када није. итд.

У сваком случају, да се вратимо на свакодневне послове са генеративном вештачком интелигенцијом коју данас имамо у руци.

Многи предвиђају да ће „брзо дизајнирање“ или „брзо инжињеринг“ бити значајно разматрање за оне који желе да користе генеративну вештачку интелигенцију. Тврдња је да ако знате како да најбоље саставите упите, имате повећане шансе да добијете одговарајуће есеје. Ово такође може укључивати добијање есеја који су мање склони грешкама.

Не слажу се сви да ће корисник морати да постане вешт у извршавању упита. На пример, у мојој лабораторији за вештачку интелигенцију, радили смо на осмишљавању додатака за вештачку интелигенцију да урадимо брз дизајн за вас. Слично томе, радимо на вештачкој интелигенцији која процењује објављене есеје и покушава да открије неистине како би вас упозорила. Погледајте моју дискусију о тим АИ додацима на линк овде.

За сада, мојих омиљених девет практичних правила о састављању упутстава која потенцијално могу помоћи да се смање шансе да се те АИ халуцинације умешају у ваше есеје објављене са ЦхатГПТ-а су:

  • 1) Јасна упутства. Покушајте да сваки упит буде што је могуће јасније формулисан, укључујући исправљање семантичких двосмислености које ће у супротном вероватно изазвати маштовите и лажне резултате.
  • 2) Поновите своје упите. Ако добијете необичности у објављеном есеју, поновите свој упит на начин који има за циљ да ублажи нејасноће које су можда изазвале неистине.
  • 3) Серија упутстава. Можете потенцијално довести генеративну вештачку интелигенцију на пожељан напредни пут тако што ћете радити низ упита, сваки пут када помажете у правцу у ком желите да идете, ово се понекад назива ланац мисли подстицање, о чему сам говорио линк овде.
  • 4) Будите строги у ономе што желите. Што строже формулишете свој захтев, то ће бити ограниченији потенцијални есеј и смањена је шанса да апликација АИ убаци глупости у одговор.
  • 5) Будите озбиљни. Кажем да будете озбиљни јер један пад који може да се деси јесте да ако на неки начин делујете као да сте комични или вољни да прихватите лажирање, апликација АИ ће понекад кренути у том правцу и покренути се са њом, производећи у складу с тим чудне резултате.
  • 6) Питајте одговоре. Савладајте своју вероватно урођену невољност да доведете у питање резултате који се производе, и уместо тога притисните апликацију АИ да поновите или евентуално објасните било који одговор за који мислите да је упитан.
  • 7) Претворите одговор у питање. Након што добијете чудан одговор, можете то умотати у питање и директно назначити да сумњате у истинитост укључене, што би могло подстаћи потпуно нови одговор.
  • 8) Урадите исти упит више пута. Раније сам споменуо да су резултати засновани на вероватноћама, а замене за синониме такође долазе у обзир, тако да можете покушати да поновите исту промпт неколико пута, а затим бирате и бирате из излазног одговора како се чини мудрим да то урадите.
  • 9) Увек останите сумњичави. Ово је кључно правило да је на вашим раменима да прегледате и процените све резултате које добијете од генеративне АИ. Не узимајте здраво за готово добијене резултате као тачне.

То нису сигурни лек за све.

Рекао бих да изгледају као да доста помажу и да могу да помере иглу у смислу прикупљања есеја који изгледају ближи ономе за шта се можда надате да сте направили.

Zakljucak

Људима се понекад каже или инспирише да размишљају као други људи.

Они од нас у области вештачке интелигенције жарко покушавају да натерају рачунаре да једног дана размишљају као људи.

Са данашњом генеративном вештачком интелигенцијом, ми негујемо друштвену склоност да размишљамо као компјутер.

Људи који користе АИ апликације као што је ЦхатГПТ покушавају да размишљају као АИ. Подсетимо се да је то више ствар размишљања попут АИ програмера и такође обухвата размишљање о коришћеним рачунарским алгоритмима. Такође можете размишљати као подаци који постоје на Интернету. Које су речи вероватније повезане са другим речима? Које чињенице су повезане са другим чињеницама?

За сада последња напомена.

Волтер, легендарни француски писац просветитељства, рекао је да ниједан проблем не може да издржи напад одрживог размишљања. Чини се да ово сугерише да треба да наставимо да размишљамо о томе како да АИ учинимо бољим и бољим. Плус, наравно, сигурније и сигурније. Не заборавите или занемарите тај кључни заједнички елемент.

Алберт Ајнштајн је ово рекао: „Не можемо да решавамо наше проблеме истим начином размишљања које смо користили када смо их створили.

Да ли то можда значи да треба да преиспитамо наш постојећи пут повећања генеративне вештачке интелигенције? То може значити да морамо да тежимо другим путевима једнако жестоко и оштро као што се дешава са генеративном вештачком интелигенцијом. Постоји опасност од стављања превише јаја само у једну корпу.

Где нас то оставља данас?

Па, могу ово да кажем без заблуде, не питајте генеративну вештачку интелигенцију о тој енигми, пошто би било мудро претпоставити да је било који дат одговор вероватно или себичан или неукротива АИ халуцинација.

Извор: хттпс://ввв.форбес.цом/ситес/ланцеелиот/2023/02/15/оуттхинкинг-генеративе-аи-цхатгпт-то-страигхтен-оут-тхосе-векинг-аи-халлуцинатионс-адвисес-аи-етхицс- анд-аи-лав/