Ево како ОпенАИ планира да очисти ЦхатГПТ од лажних информација

ОпенАИ је 31. маја најавио своје напоре да унапреди способности ЦхатГПТ-а за решавање математичких проблема, са циљем да смањи случајеве халуцинација вештачке интелигенције (АИ). ОпенАИ је нагласио ублажавање халуцинација као кључни корак ка развоју усклађеног АГИ.

У марту је увођење најновије верзије ЦхатГПТ-а, ГПТ-4, додатно покренуло вештачку интелигенцију у мејнстрим. Међутим, генеративни АИ цхат ботови дуго су се борили са тачношћу чињеница, повремено генеришући лажне информације, које се обично називају „халуцинације“. Напори да се смање ове АИ халуцинације објављене су путем објаве на њиховој веб страници.

АИ халуцинације се односе на случајеве у којима системи вештачке интелигенције генеришу резултате који су фактички нетачни, обмањујући или неподржани подацима из стварног света. Ове халуцинације се могу манифестовати у различитим облицима, као што је генерисање лажних информација, измишљање непостојећих догађаја или људи или давање нетачних детаља о одређеним темама.

ОпенАИ је спровео истраживање како би испитао ефикасност две врсте повратних информација – „надзор исхода“ и „надзор процеса“. Надзор исхода укључује повратну информацију засновану на коначном резултату, док надзор процеса даје инпут за сваки корак у ланцу размишљања. ОпенАИ је проценио ове моделе користећи математичке проблеме, генеришући више решења и бирајући најбоље рангирано решење према сваком моделу повратне информације.

Након детаљне анализе, истраживачки тим је открио да је надзор процеса дао супериорне перформансе јер је подстакао модел да се придржава процеса који су одобрили људи. Насупрот томе, показало се да је надгледање исхода тежим за доследно испитивање.

ОпенАИ је препознао да импликације надзора процеса протежу даље од математике, а даља истраживања су неопходна да би се разумели њени ефекти у различитим доменима. Изражена је могућност да, ако посматрани исходи буду истинити у ширим контекстима, надзор процеса може понудити повољну комбинацију учинка и усклађености у поређењу са надзором исхода. Да би олакшала истраживање, компанија је јавно објавила комплетан скуп података о надзору процеса, позивајући на истраживање и проучавање у овој области.

Релатед: Захтев АИ накратко катапултира Нвидију у клуб од 1Т долара

Иако ОпенАИ није пружио експлицитне случајеве који су подстакли њихову истрагу о халуцинацијама, две недавне појаве су пример проблема у сценаријима из стварног живота.

У недавном инциденту, адвокат Стивен А. Шварц у предмету Мата против Авианца Аирлинес је признао да се ослања на цхатбот као истраживачки ресурс. Међутим, испоставило се да су информације које је пружио ЦхатГПТ у потпуности измишљене, наглашавајући проблем.

ОпенАИ ЦхатГПТ није једини пример система вештачке интелигенције који наилази на халуцинације. Мајкрософтова вештачка интелигенција, током демонстрације своје технологије за ћаскање у марту, испитала је извештаје о заради и направила нетачне бројке за компаније као што су Гап и Лулулемон.

Часопис: 25 трговаца се кладе на ЦхатГПТ-ове акције, вештачка интелигенција је лоша у бацању коцкица и још много тога

Извор: хттпс://цоинтелеграпх.цом/невс/хере-с-хов-опенаи-планс-то-цлеансе-цхатгпт-фром-фалсе-информатион