
Алати вештачке интелигенције сада могу да креирају клониране људске гласове, видео и аудио записе. Тај лажни садржај може да се прошири далеко и брзо и да циља веома специфичну публику
Компјутерски инжењери вец́ годинама упозоравају да ц́е јефтини, моц́ни алати вештачке интелигенције ускоро омогуц́ити свима да креирају лажне слике, видео и аудио записе који су довољно реални да заварају гласаче и можда утичу на изборе, јавља данас Асошиејтед прес.
Софистицирани генеративни алати вештачке интелигенције сада могу да креирају клониране људске гласове и хиперреалистичне слике, видео записе и аудио записе за неколико секунди, уз минималне трошкове.
Када је везан за моц́не алгоритме друштвених медија, тај лажни и дигитално креиран садржај може да се прошири далеко и брзо и да циља веома специфичну публику, потенцијално подижуц́и прљаве трикове кампање на нови ниво.
Импликације за кампање и изборе 2024. године су онолико велике, колико и забрињавајуц́е, пише Асошиејтед прес и наводи да генеративна вештачка интелигенције не само да може брзо да произведе циљане електронске поруке кампање, текстове или видео записе, вец́ би се могла користити да обмане бираче, лажно представи кандидате и подрије изборе у великом обиму и на брзину која још није виђена.
„Нисмо спремни за ово“, упозорио је потпредседник обавештајне службе компаније за сајбер безбедност ЗероФок А.Ј. Неш. Стручњаци за вештачку интелигенцију могу брзо да открију бројне алармантне сценарије у којима се генеративна вештачка интелигенција користи за стварање синтетичких медија у сврху збуњивања гласача, клеветања кандидата или чак подстицања насиља.
Б.Г.
Извор: Недељник Време