Тренутак Цри Волф оф АИ Хипе је бескористан

Иако сам неко ко проучава сценарије краја човечанства, верујем да су „писмо стручњака“ које сугерише 6-месечни мораторијум за вештачку интелигенцију или новија изјава да је ризик од вештачке интелигенције на нивоу пандемије и нуклеарног ризика, пренаглашени. Још дивље мишљење да морамо угасити АИ је неодговорно. Свака брига мора бити пропорционална ризицима са којима се суочавамо. Тренутно нисмо у непосредној опасности од АИ.

Садашње вештачке интелигенције нису у стању да преузму друштво. Они немају осећања и не заслужују заштиту као људски животи. Они нису суперинтелигентни и не надмашују људе ни на који начин. У ствари, они уопште не размишљају. Управо сада, ако се храни обилним подацима, АИ су веома добри у специфичним задацима као што су прорачун и предвиђање. То није забрињавајуће, то су карактеристике које ови системи имају по дизајну. Обећање вештачке интелигенције укључује решавање рака, трансформацију индустријске производње, моделирање будућих сценарија и управљање еколошким изазовима. Имајући то у виду, постоје легитимни разлози да се критикује тренутна вештачка интелигенција због коришћења ресурса, транспарентности, пристрасности, сајбер безбедности и њеног будућег утицаја на запошљавање.

АИ су рачунарски скупи – што значи да су велики губитак оскудне, фосилне енергије. Ово се мора одмах решити. Али то није егзистенцијално питање, то је питање рационалног коришћења ресурса. Чињеница да АИ који се ослањају на велике и неефикасне моделе података постају прескупи за праћење и истраживање од стране академске заједнице или владе је прави проблем. Али то је неизбежно поправљиво. Конзорцијуми елитних академских институција или влада могли би да иду заједно и деле рачунарске ресурсе на начин на који су то учинили за суперрачунаре.

Велики језички модели (ЛЛМ) су модели вештачке интелигенције који могу да генеришу текстове на природном језику из велике количине података. Један проблем у томе је што су ови текстови директно изведени из поштених интелектуалних доприноса других људи. Они су у ствари покрадени. Генеративна вештачка интелигенција, посебно, рекомбинује и потрошачке и организационе податке, као и креативни садржај у оштром кршењу ауторских права. Ово је озбиљно, али није егзистенцијално, а штавише, ЕУ, лобисти из Холивуда и издавачи књига „велике петорке” су већ на том случају. Очекујте да ће ово успорити снагу АИ. Са тренутном стопом, АИ ће остати без добрих података о обуци много пре него што се приближи осећају.

Алгоритми који се већ користе за израчунавање наших пореза, одабир наших онлајн фидова или стављање људи у затвор имају упадљив недостатак транспарентности. Међутим, то је случај већ годинама и нема никакве везе са најновијим развојем вештачке интелигенције. АИ пристрасност је карактеристика а не грешка. Стереотипизација је, у ствари, главни приступ кроз који такви модели раде. Осим што су предрасуде скривене у непробојним слојевима машинског расуђивања недостижног људима, стручњацима или не. Оно што бисмо требали довести у питање је мудрост програмера који су развили такве системе, а не способност система који су створили, што је дато. Системи ће ретко бити бољи од мудрости или намера оних који их граде или воде.

Подаци о обуци АИ одражавају пристрасности присутне у друштву из којег су ти подаци прикупљени. Поновна употреба лоших података о обуци је забрињавајућа пракса која већ загађује АИ моделе. Тренутни приступи вештачке интелигенције једноставно појачавају пристрасност да би се брзо дошло до резултата. Ово је, додуше, супротно од онога што желимо. Оно што желимо да урадимо је да користимо технологију да заштитимо људску грешку. Брига о машинској грешци је расипна употреба људске интелигенције.

Упркос метафори „неуралне мреже“, тренутни АИ не личе на мозак ни у ком делу маште. Тренутни системи вештачке интелигенције не могу да размишљају по аналогији као што то чине људи. Ово је добро. Можда заправо не желимо ону врсту поравнања вештачке интелигенције за коју се ревнитељи залажу и покушавају да опонашају. Машине би требало да се разликују од људи. Тако можемо максимално повећати снагу једни других. И како можемо да држимо машине одвојене и одвојене. Машине не би требало да имају никакве интересе за усклађивање.

АИ све више представља значајну претњу сајбер безбедности као предност за криминалце и непријатељске државе. Али сајбер-безбедност је зрела индустрија са доста стручњака добро опремљених да се носе са изазовом. Нема разлога да се АИ искључи због страха од сајбер безбедности.

Прекид запошљавања због АИ је годинама био проблем политике, прво са роботима, а сада са системима вештачке интелигенције заснованим на софтверу. То значи да ће владе бити спремне да се носе са тим. Студија МИТ-а Ворк оф Тхе Футуре открила је да је забринутост због незапослености због робота пренаглашена. Људи су увек налазили начине да раде и радиће то иу будућности. Да ли ће АИ трансформисати производњу? То се већ дешава, али на прилично контролисан начин.

С времена на време, АИ пати од пренаглашених обећања о тренутној функционалности или будућем обиму. Прве зиме вештачке интелигенције почеле су 1974–1980, када је америчка влада повукла своја средства. Други је био од 1987–1993, када су трошкови ескалирали, а АИ није успела да испуни своја узвишена обећања.

У ишчекивању нових парадигми, у периоду од 2025-2030, вероватно ћемо ући у трећу зиму вештачке интелигенције. Барем у поређењу са врелим летом вештачке интелигенције које нам је обећано. Разлог је тај што ће, упркос узбуђењу, из свих горе наведених разлога, велики језички модели ускоро достићи своју максималну корисност и на крају ће морати да буду замењени рачунарски елегантнијим приступима који су транспарентнији.

Један од таквих кандидата је хипердимензионално рачунарство које би учинило машинама ефикасније размишљање јер дају машинама семантичко разумевање, способност да обрађују значење и контекст иза информација из стварног света. Тренутно, АИ системи не разумеју односе између речи и фраза, они су једноставно добри у нагађању. То је недовољно. На крају ће нам требати отелотворена вештачка интелигенција, јер је размишљање везано за перцепцију простора. То је дефинитивно случај у производњи која је веома физичка игра. Такође ће нам требати вештачка интелигенција која је способна за функције људске меморије као што је одређивање приоритета на основу постављања неких информација у први план и других информација у позадини. Заборављање је оруђе које људи користе за апстрактно размишљање, прелазак са застарелих организационих пракси, доношење одлука и задржавање у тренутку и није само мана. Ниједна машина то још не може добро урадити.

У међувремену, морамо да регулишемо, али не ове секунде. И, када регулишемо, боље да то урадимо добро. Лоша регулација АИ ће вероватно погоршати ситуацију. Пробуђење регулатора за овај изазов може бити од помоћи, али нисам сигуран да је тренутна генерација регулатора спремна за такву врсту широких промена које би биле потребне да би се то добро урадило. То би подразумевало сузбијање моћних компанија (вероватно свих компанија на берзи), ограничавање употребе вештачке интелигенције у управљању и значило би огромне промене у начину на који потрошачка тржишта тренутно функционишу. У суштини, морали бисмо да променимо друштво. То би нас довело у раст неколико деценија раније него што бисмо желели. Изазов транспарентности који окружује вештачку интелигенцију могао би бити страшнији од контролних варијабли због којих сви изгледају толико забринути, не да су, наравно, неповезане.

Штавише, не можемо бити подједнако забринути сваки пут када се достигне АИ стандард. Морамо да сачувамо своју енергију за заиста велике тренутке каскадног ризика. Они ће доћи и, поштено речено, ми нисмо спремни. Моји замишљени будући сценарији (погледајте Сценарије изумирања за 2075.) укључују масивне повреде података које месецима држе читаве земље закључане из сопствених процеса. Такође бринем о вештачкој интелигенцији којој помажу криминалне групе или државни актери. Највише од свега бринем о комбинацијама вештачке интелигенције, нанотехнологије, синтетичке биологије и квантне технологије – скоро невидљиве квази-органске интелигенције непознатих способности, можда за само неколико деценија, које се дешавају управо када ће свет бити прогутан каскадним ефектима климе променити.

Тренутни модели вештачке интелигенције још увек не функционишу довољно добро да би били претња човечанству. Пре него што размотримо њихово гашење, потребни су нам бољи АИ. Више од тога, потребни су нам мудрији програмери, сензибилизиранији грађани и боље информисани креатори политике. Такође нам је потребан концепт КАКО регулисати АИ. Али ово се може учинити без успоравања било чега. Биће то едукативно путовање за све. Писмо о мораторијуму у вези са ГПТ 4 (2023) је тренутак вапаја вука са само малом сличношћу са каскадним ризицима са којима се човечанство суочава у наредним деценијама. Стављање ризика од вештачке интелигенције на ниво ризика од пандемије и нуклеарног ризика 2023. је преурањено. Хоћемо ли стићи тамо? Можда. Али плач вук има последице. То исисава кисеоник из предстојећих дебата о стварним страховима.

Извор: хттпс://ввв.форбес.цом/ситес/трондарнеундхеим/2023/05/31/тхе-цри-волф-момент-оф-аи-хипе-ис-унхелпфул/