ФБИ упозорава на АИ Деепфаке изнуде

Способности генеративне вештачке интелигенције да креира слике налик на живот су импресивне, али амерички Федерални истражни биро каже да криминалци користе деепфакес да циљају жртве за изнуду.

„ФБИ наставља да прима извештаје од жртава, укључујући малолетну децу и одрасле особе без пристанка, чије су фотографије или видео снимци измењени у експлицитан садржај“, наводи агенција у упозорењу ПСА у понедељак.

ФБИ каже да су агенције за провођење закона прошле године примиле више од 7,000 пријава о онлајн изнуди усмјереној на малољетнике, уз пораст броја жртава такозваних „превара са изнуђивањем“ користећи деепфакес од априла.

Дубоко лажирање је све чешћи тип видео или аудио садржаја креираног вештачком интелигенцијом који приказује лажне догађаје које је све теже препознати као лажне, захваљујући генеративним АИ платформама као што су Мидјоурнеи 5.1 и ОпенАИ-јев ДАЛЛ-Е 2.

У мају је виралан лажњак Тесле и извршног директора Твитера Елона Маска направљен да би преварио крипто инвеститоре. Видео који је подељен на друштвеним мрежама садржао је снимак Маска из претходних интервјуа, монтиран да одговара превари.

Деепфакес нису сви злонамерни, деепфаке папе Фрање који носи белу Баленциага јакну постао је виралан раније ове године, а у скорије време, деепфакес генерисани вештачком интелигенцијом такође су коришћени да се жртве убистава врате у живот.

У својим препорукама, ФБИ је упозорио да се не плаћа било какав откуп јер то не гарантује да криминалци ионако неће објавити деепфаке.

ФБИ такође саветује опрез када делите личне податке и садржај на мрежи, укључујући коришћење функција приватности као што је приватност налога, праћење активности деце на мрежи и праћење необичног понашања људи са којима сте раније комуницирали. Агенција такође препоручује да често претражујете личне податке и податке о члановима породице на мрежи.

Остале агенције које алармирају укључују америчку Федералну трговинску комисију, која је упозорила да криминалци користе деепфакес да преваре несуђене жртве да пошаљу новац након што су направили аудио лажну слику пријатеља или члана породице који каже да су киднаповани.

„Вештачка интелигенција више није натегнута идеја из научно-фантастичног филма. Живимо са тим, овде и сада. Преварант би могао да користи вештачку интелигенцију да клонира глас ваше вољене особе“, навео је ФТЦ у упозорењу потрошача у марту, додајући да су све криминалне потребе кратак аудио снимак гласа члана породице како би снимак звучао стварно.

ФБИ још није одговорио Дешифрирање захтев за коментар

Будите у току са крипто вестима, добијајте дневне новости у пријемном сандучету.

Извор: хттпс://децрипт.цо/143479/фби-варнинг-аи-ектортион-сектортион-деепфаке-сцамс