Десетине стручњака за вештачку интелигенцију (АИ), укључујући извршне директоре ОпенАИ, Гоогле ДеепМинд и Антхропиц, недавно су потписали отворену изјаву коју је објавио Центар за безбедност вештачке интелигенције (ЦАИС).
Управо смо објавили изјаву:
„Ублажавање ризика од изумирања од вештачке интелигенције требало би да буде глобални приоритет поред других друштвених ризика као што су пандемије и нуклеарни рат.
Потписници су Хинтон, Бенгио, Алтман, Хассабис, Сонг, итд. хттпс://т.цо/Н9ф6хс4бпа
(КСНУМКС / КСНУМКС)
— Дан Хендрикс (@ДанХендрицкс) Може 30, 2023
Изјава садржи једну реченицу:
„Ублажавање ризика од изумирања од вештачке интелигенције требало би да буде глобални приоритет поред других друштвених ризика као што су пандемије и нуклеарни рат.
Међу потписницима документа су истински „ко је ко“ светила вештачке интелигенције, укључујући „кума“ вештачке интелигенције, Џефрија Хинтона; Универзитет Калифорније, Стјуарт Расел из Берклија; и Лек Фридман са Масачусетског института за технологију. Музичар Грајмс је такође потписник, наведен у категорији „друге значајне личности“.
Релатед: Музичар Грајмс је вољан да „подели 50% хонорара“ уз музику коју генерише вештачка интелигенција
Иако се изјава може чинити безазленом на површини, основна порука је донекле контроверзна у заједници АИ.
Наизглед све већи број стручњака верује да тренутне технологије могу или ће неизбежно довести до појаве или развоја АИ система способног да представља егзистенцијалну претњу људској врсти.
Њиховим ставовима, међутим, супротставља се контингент стручњака са дијаметрално супротним мишљењима. Мета главни научник АИ Јан ЛеКун је, на пример, у бројним приликама приметио да не верује нужно да ће вештачка интелигенција постати неконтролисана.
Супер-људска вештачка интелигенција није ни близу врха листе егзистенцијалних ризика.
У великој мери зато што још не постоји.Док не будемо имали основни дизајн чак и за АИ на нивоу пса (а камоли на нивоу човека), преурањено је расправљати о томе како да га учинимо безбедним. хттпс://т.цо/ЦлкЗкфофВ9
— Јан ЛеКун (@илецун) Може 30, 2023
За њега и друге који се не слажу са реториком о „изумирању“, као што је Андрев Нг, суоснивач Гоогле Браин-а и бивши главни научник у Баиду-у, АИ није проблем, то је одговор.
Са друге стране аргумента, стручњаци као што су Хинтон и извршни директор Цоњецтуре Конор Лихи верују да је вештачка интелигенција на људском нивоу неизбежна и да је као таква сада време да се делује.
Руководиоци свих великих лабораторија за вештачку интелигенцију потписали су ово писмо експлицитно признајући ризик од изумирања од АГИ.
Невероватан корак напред, честитам Дану на његовом невероватном раду на слагању овога и хвала сваком потписнику што су дали свој део за бољу будућност! хттпс://т.цо/КДккВвдЈцХ
— Конор Лихи (@НПЦоллапсе) Може 30, 2023
Нејасно је, међутим, на које радње позивају потписници саопштења. Извршни директори и/или шефови АИ за скоро сваку велику АИ компанију, као и реномирани научници из свих академских кругова, су међу онима који су потписали, што чини очигледним да намера није да се заустави развој ових потенцијално опасних система.
Раније овог месеца, извршни директор ОпенАИ Сем Алтман, један од потписника горе поменуте изјаве, први пут се појавио пред Конгресом током саслушања у Сенату на којем се расправљало о регулацији вештачке интелигенције. Његово сведочење доспело је на насловне стране након што је већи део провео позивајући законодавце да регулишу његову индустрију.
Алтман'с Ворлдцоин, пројекат који комбинује криптовалуте и доказ о личности, такође је недавно прошао у медијима након што је прикупио 115 милиона долара у финансирању серије Ц, чиме је његово укупно финансирање након три рунде достигло 240 милиона долара.
Извор: хттпс://цоинтелеграпх.цом/невс/аи-екпертс-сигн-доц-цомпаринг-риск-оф-ектинцтион-фром-аи-то-пандемицс-нуцлеар-вар