Ruska operacija, poznata kao Doppelganger, natjerala je korisnike interneta i društvenih medija na lažne vijesti koristeći različite metode, navodi se u dokumentima o naplati, uključujući reklame koje su "u nekim slučajevima kreirane pomoću umjetne inteligencije".
Alati umjetne inteligencije također su korišteni za "generiranje sadržaja, uključujući slike i video zapise, za upotrebu u negativnim reklamama o američkim političarima", dodaje se u optužnici.
A Rusija je daleko od usamljene koja se okreće AI u nadi da će pokolebati američke glasače.
"Primarni akteri koje smo vidjeli za izbornu upotrebu ovoga su Iran i Rusija, iako su razne privatne kompanije primijetile, Kina je također koristila umjetnu inteligenciju za širenje narativa podjela u Sjedinjenim Državama", rekao je visoki obavještajni dužnosnik, koji govorio pod uslovom anonimnosti kako bi razgovarao o osjetljivim informacijama.
“Ono što smo vidjeli je umjetna inteligencija koju koriste strani akteri kako bi svoj sadržaj brže i uvjerljivije prilagodili njihovom sintetičkom sadržaju kako u audio tako i u video obliku”, dodao je zvaničnik.
Ali drugi američki zvaničnici kažu da upotreba umjetne inteligencije za širenje dezinformacija i dezinformacija uoči američkih izbora do sada nije uspjela ispuniti neka od strašnijih upozorenja o tome kako bi duboki lažni i drugi materijali generirani umjetnom inteligencijom mogli uzdrmati američki politički pejzaž.
„Generativni AI neće suštinski uvesti nove prijetnje u ovaj izborni ciklus“, kaže Cait Conley, viša savjetnica direktora Agencije za cyber sigurnost i infrastrukturnu sigurnost, američke agencije zadužene za nadgledanje izborne sigurnosti.
„Ono što vidimo je u skladu sa onim što smo očekivali da vidimo“, rekla je Conley za Glas Amerike.
AI "pogoršava postojeće prijetnje, kako u cyber domenu, tako i u kampanjama operacija dezinformiranja zloćudnog stranog utjecaja", rekla je ona. Ali malo od onoga što je objavljeno do sada je šokiralo zvaničnike u CISA-i ili bezbroj državnih i lokalnih vlasti koje vode izbore širom zemlje.
“Ovaj vektor prijetnje nije nov za njih”, rekla je Conley. “I poduzeli su mjere kako bi osigurali da su spremni da efikasno odgovore.”
Kao primjer, Conley je ukazala na niz automatiziranih poziva koji su ciljali na građane New Hampshirea uoči prvih državnih predizbora u državi u januaru, koristeći lažni audio snimak američkog predsjednika Joea Bidena kako bi rekao ljudima da ostanu kod kuće i "sačuvaju svoj glas".
Državni tužilac New Hampshirea brzo je izašao u javnost, nazvavši automatske pozive očiglednim pokušajem suzbijanja glasova i rekao biračima da je incident pod istragom.
Prošlog maja, tužioci su podigli optužnicu protiv političkog konsultanta iz Luizijane u vezi sa šemom.
Nedavno je navodna upotreba umjetne inteligencije potaknula popularnu zvijezdu Taylor Swift na podršku slavne ličnosti u američkoj predsjedničkoj utrci.
"Nedavno sam saznala da je AI lažno podržavala predsjedničku kandidaturu Donalda Trumpa objavljen na njegovoj stranici", napisala je Swift u objavi na društvenim mrežama na Instagramu kasno u utorak.
"To me je dovelo do zaključka da moram biti vrlo transparentan u vezi sa svojim stvarnim planovima za ove izbore kao glasač", napisala je, dodajući: "Daću svoj glas za Kamalu Harris i Tima Walza."
No, stručnjaci i analitičari kažu da je, uz svu pažnju koju AI privlači, upotreba takve tehnologije u napadima i drugim operacijama utjecaja bila ograničena.
"Ne postoji ogromna količina toga koja je trenutno posebno uspješna, barem koliko ja znam", rekla je Catie Gray, viši partner u In-Q-Tel-u, CIA-inoj tehnološko fokusiranoj, neprofitnoj investicionoj firmi.
“Većina napadača ne koristi najsofisticiranije metode za prodor u sisteme”, rekla je ona 4. septembra na samitu o cyber sigurnosti u Washingtonu.
Drugi sugeriraju da su, barem za sada, strahovi koji okružuju AI nadmašili njenu korisnost od strane zlonamjernih aktera.
'Skačemo na naučnu fantastiku sudnjeg dana', rekao je Clint Watts, bivši specijalni agent FBI-a i konsultant za borbu protiv terorizma koji je na čelu Microsoftovog centra za analizu prijetnji (MTAC).
„Ali umjesto toga, ono što vidimo je izazov broj jedan za sve ovo trenutno je pristup, samo dolazak do alata [AI] i pristup njima,“ rekao je, govoreći poput Greja na samitu o cyber sigurnosti.
Tokom proteklih 14 mjeseci, MTAC je zabilježio stotine slučajeva upotrebe AI od strane Kine, Rusije i Irana, rekao je Watts. Analitičari su otkrili da se Moskva i Teheran, posebno, bore da dobiju pristup kompletu alata za umjetnu inteligenciju.
Rusi „trebaju da koriste sopstvene alate od samog početka, a ne zapadnjačke alate, jer se plaše da će biti izbačeni iz tih sistema“, rekao je Watts.
Iran još više zaostaje.
“Probali su različite alate,” rekao je Watts. “Oni jednostavno ne mogu dobiti pristup većini njih.”
Američki protivnici tako izgledaju da imaju poteškoća s osnovnim zahtjevima da bi AI bila efikasna.
„Obavljanje skaliranih AI operacija nije jeftino“, rekao je Watts. „Neke infrastrukture i resursi [AI], modeli, podaci na kojima treba da se obučava [na] – veoma su izazovni u ovom trenutku.”
A Watts je rekao da sve dok proizvodi koje generira AI ne budu bolji, pokušaji deepfake-a će vjerovatno imati problema da rezoniraju kod ciljane publike.
„Publika je bila izvanredno briljantna u otkrivanju deepfakesa u gomili. Što više nekoga posmatrate, više shvatate da laž nije sasvim u redu”, kaže Watts. “Ruski akteri koje smo vidjeli, svi su isprobali deepfakes i vratili su se na kruh i puter, male video manipulacije.”