Стручњаци за вештачку интелигенцију потписали документ у коме упоређују ризик од „изумирања од вештачке интелигенције“ са пандемијом, нуклеарним ратом

Десетине стручњака за вештачку интелигенцију (АИ), укључујући извршне директоре ОпенАИ, Гоогле ДеепМинд и Антхропиц, недавно су потписали отворену изјаву коју је објавио Центар за безбедност вештачке интелигенције (ЦАИС). 

Изјава садржи једну реченицу:

„Ублажавање ризика од изумирања од вештачке интелигенције требало би да буде глобални приоритет поред других друштвених ризика као што су пандемије и нуклеарни рат.

Међу потписницима документа су истински „ко је ко“ светила вештачке интелигенције, укључујући „кума“ вештачке интелигенције, Џефрија Хинтона; Универзитет Калифорније, Стјуарт Расел из Берклија; и Лек Фридман са Масачусетског института за технологију. Музичар Грајмс је такође потписник, наведен у категорији „друге значајне личности“.

Релатед: Музичар Грајмс је вољан да „подели 50% хонорара“ уз музику коју генерише вештачка интелигенција

Иако се изјава може чинити безазленом на површини, основна порука је донекле контроверзна у заједници АИ.

Наизглед све већи број стручњака верује да тренутне технологије могу или ће неизбежно довести до појаве или развоја АИ система способног да представља егзистенцијалну претњу људској врсти.

Њиховим ставовима, међутим, супротставља се контингент стручњака са дијаметрално супротним мишљењима. Мета главни научник АИ Јан ЛеКун је, на пример, у бројним приликама приметио да не верује нужно да ће вештачка интелигенција постати неконтролисана.

За њега и друге који се не слажу са реториком о „изумирању“, као што је Андрев Нг, суоснивач Гоогле Браин-а и бивши главни научник у Баиду-у, АИ није проблем, то је одговор.

Са друге стране аргумента, стручњаци као што су Хинтон и извршни директор Цоњецтуре Конор Лихи верују да је вештачка интелигенција на људском нивоу неизбежна и да је као таква сада време да се делује.

Нејасно је, међутим, на које радње позивају потписници саопштења. Извршни директори и/или шефови АИ за скоро сваку велику АИ компанију, као и реномирани научници из свих академских кругова, су међу онима који су потписали, што чини очигледним да намера није да се заустави развој ових потенцијално опасних система.

Раније овог месеца, извршни директор ОпенАИ Сем Алтман, један од потписника горе поменуте изјаве, први пут се појавио пред Конгресом током саслушања у Сенату на којем се расправљало о регулацији вештачке интелигенције. Његово сведочење доспело је на насловне стране након што је већи део провео позивајући законодавце да регулишу његову индустрију.

Алтман'с Ворлдцоин, пројекат који комбинује криптовалуте и доказ о личности, такође је недавно прошао у медијима након што је прикупио 115 милиона долара у финансирању серије Ц, чиме је његово укупно финансирање након три рунде достигло 240 милиона долара.

Извор: хттпс://цоинтелеграпх.цом/невс/аи-екпертс-сигн-доц-цомпаринг-риск-оф-ектинцтион-фром-аи-то-пандемицс-нуцлеар-вар