Slike generirane umjetnom inteligencijom mogu prevariti ljude: evo kako ih prepoznati
Slike generirane umjetnom inteligencijom mogu prevariti ljude: evo kako ih prepoznati
Objavio četvrtak 20 travnja 2023 u 12:03
(Richard Brooks)
Copyright © AFP 2017-2024. Sva prava zadržana.
Ivan FISCHER / Juliette MANSOUR / AFP Francuska
Policija je uhitila američkog predsjednika i druge političare iz Demokratske stranke SAD-a? Ruski čelnik Vladimir Putin kleči pred kineskim kolegom Xijem Jinpingom? Možda ste vidjeli fotografije koje izgledaju uvjerljivo poput ovih koje kruže internetom i koje su rezultat brzog napretka umjetne inteligencije (artificial intelligence - AI) poznate kao generativna AI. AFP je tražio savjete stručnjaka iz područja generativne AI i fotografije kako razlikovati prave snimke od slika generiranih umjetnom inteligencijom. Iako ne postoji savršena i sigurna metoda, neki vizualni i kontekstualni elementi mogu biti od pomoći.
Nedavno razvijeni AI alati kao što su Midjourney, DALL-E, Craiyon ili Stable Diffusion mogu generirati beskonačan broj slika korištenjem ogromnih baza podataka.
Mnogi ljudi koriste takve alate u humoristične ili umjetničke svrhe, ali drugi se oslanjaju na njih kako bi napravili lažne slike koje navodno prikazuju političke vijesti.
Na primjer, na Twitteru je kružilo mnoštvo slika generiranih umjetnom inteligencijom (arhivirani članak ovdje) nakon sastanka Putina i Xija Jinpinga 20. ožujka 2023. Druge su francuskog predsjednika Emmanuela Macrona prikazale kao radnika gradske čistoće dok se smeće gomilalo na pariškim ulicama uslijed masovnih štrajkova zbog nepopularnih mirovinskih reformi.
Iako većina tvoraca jasno kaže da su ove naveliko dijeljene slike izmišljene, druge fotografije kruže bez konteksta ili su predstavljene kao autentične.
Pobornici teorije zavjere QAnon – prema kojoj bivši američki predsjednik Donald Trump vodi tajni globalni rat protiv nedefiniranih sila zla – podijelili su fotografije uhićenja aktualnog američkog predsjednika Joea Bidena i istaknutih političara iz Demokratske stranke Nancy Pelosi i Hillary Clinton koje je zapravo stvorila umjetna inteligencija. Iz opisa u ovoj objavi, koji glasi "Evo istine... Trump je pobijedio", nije jasno zna li korisnica Facebooka da su slike lažne. Objavu su više od 80 puta podijelili korisnici u različitim zemljama bez spominjanja porijekla slika. Tako se gubi kontekst i izvor sadržaja koji kruži na društvenim mrežama.
Alati za otkrivanje umjetne inteligencije
Programeri su napravili alate kao što je Hugging Face kako bi pokušali otkriti ovakve uratke. Testovi koje je proveo AFP, međutim, pokazuju da rezultati nisu uvijek točni i ponekad mogu dovesti u zabludu.
Ispod ovog odlomka je jedna dretva objavljena na Twitteru na engleskom (arhivirana ovdje) u kojoj se vidi slika koja prikazuje kako je Vladimir Putin navodno kleknuo pred Xijem Jinpingom na sastanku u ožujku 2023. godine. Korisnica Twittera je novinarka koja izvještava iz Kine i o novim tehnologijama. Ona objašnjava zašto je slika sumnjiva i najvjerojatnije napravljena uporabom umjetne inteligencije. Do zaključka je došla, između ostalog, uz pomoć programa Hugging Face.
Hi, I'm a tech reporter that covers China, cybersecurity, & new media. Hundreds of people are sharing this photo of Xi Jinping & Vladimir Putin as they meet at the Kremlin. The two did meet, but it's highly likely this photo was generated by an AI program. Here's why: pic.twitter.com/6xqsDLxiMa
— Amanda Florian 小爱 (@Amanda_Florian) March 21, 2023
https://twitter.com/Amanda_Florian/status/1637969448958132226?ref_src=twsrc%5Etfw
"Kada umjetna inteligencija generira slike (od nule), ne postoji niti jedna originalna slika čiji su dijelovi uzeti", objasnio je 21. ožujka 2023. godine za AFP David Fischinger, stručnjak za umjetnu inteligenciju i inženjer na Austrijskom institutu za tehnologiju. "Tisuće/milijuni fotografija su korištene za učenje milijardi parametara."
Vincent Terrasi, suosnivač tvrtke Draft & Goal, startupa koji je pokrenuo AI detektor za sveučilišne radove, dodao je da "AI miješa te slike iz svoje baze podataka, dekonstruira ih i zatim rekonstruira fotografiju piksel po piksel, što znači da u konačnom ishodu više ne primjećujemo razliku u odnosu na originalne slike."
Zbog toga su programi za otkrivanje manipulacije loši, ako uopće djeluju, u identifikaciji slika generiranih umjetnom inteligencijom. Metapodaci fotografije, koji ponekad mogu otkriti izvor slike generirane umjetnom inteligencijom, također nisu od velike pomoći.
"Nažalost, ne možete se osloniti na metapodatke jer su na društvenim mrežama potpuno uklonjeni," rekla je za AFP stručnjakinja za umjetnu inteligenciju Annalisa Verdoliva, profesorica sa Sveučilišta Federico II u Napulju.
Nađite izvor slike
Stručnjaci kažu da je pronalazak kada je slika prvi put objavljena na internetu jedan od važnih tragova. U nekim slučajevima, tvorac slike je možda rekao da je generirana umjernom inteligencijom i naveo korišćeni alat.
Obrnuta pretraga slika može pomoći, ako je indeksirana u pretraživačima, pronaći ranije objave s istom fotografijom. Proces je objašnjen u ovom članku na srpskom i u videu ispod ovog odlomka na engleskom:
Ova metoda omogućila je pronalaženje izvora slika koje navodno pokazuju nasilnu svađu između bivšeg američkog predsjednika Donalda Trumpa i policajaca koji ga privode.
Obrnuta pretraga na Googleu je dovela do Tweeta Eliota Higginsa, osnivača istraživačke grupe Bellingcat, koji je napravio cijelu seriju slika na temu uhićenja Trumpa i njegovog boravka u zatvoru. Te je slike objavio 20. ožujka 2023. uz objašnjenje da su rađene korištenjem umjetne inteligencije.
Higgins je u dretvi objasnio da je sve slike napravio korištenjem posljednje verzije programa Midjourney.
Making pictures of Trump getting arrested while waiting for Trump's arrest. pic.twitter.com/4D2QQfUpLZ
— Eliot Higgins (@EliotHiggins) March 20, 2023
https://twitter.com/EliotHiggins/status/1637927681734987777?ref_src=twsrc%5Etfw
Ako ne možete pronaći originalnu fotografiju, obrnuta pretraga može dovesti do slike bolje kvalitete ili pokazati da li je izmijenjena ili izrezana pa ponovo podijeljena. Slika bolje kvalitete bi bila bolja za analizu.
Obrnuta pretraga slika će također pronaći slične fotografije, koje mogu biti dragocjene za uspoređivanje potencijalnih fotografija generiranih umjetnom inteligencijom s onima iz pouzdanih izvora.
Za jednu viralnu sliku koja navodno prikazuje Putina kako kleči pred Xijem Jinpingom, korisnici Twittera, poput talijanskog novinara Davida Puentea, ukazali su na to da se uređenje prostorije razlikuje od onog na slikama koje su objavili mediji sa samog sastanka.
5/ Compare the meeting room. pic.twitter.com/YuFtXJB2Jp
— David Puente (@DavidPuente) March 21, 2023
https://twitter.com/DavidPuente/status/1638069068480630786?ref_src=twsrc%5Etfw
Opisi fotografija i komentari korisnika također mogu biti korisni u prepoznavanju određenog stila sadržaja generiranog umjetnom inteligencijom. DALL-E je, na primjer, poznat po ultrarealističnom dizajnu, a Midjourney po scenama koje prikazuju poznate osobe.
Neki alati ostavljaju trag slika generiranih umjetnom inteligencijom na različitim kanalima koje korisnici koriste za međusobne razgovore. Može biti korisno ući na platformu alata koji je korišten za generiranje slike u pokušaju pronalaska izvora i tvorca slike. Na nekim generatorima, na primer Midjourney, detaljnija pretraga razmjene između korisnika i automatskog programa može omogućiti pronalaženje kreiranih fotografija.
Vizualni tragovi
Čak i bez izvora, detaljnim promatranjem moguće je analizirati samu sliku.
Tražite vodeni žig
Dokazi o autentičnosti slike mogu biti vidljivi na samoj slici, kao što je vodeni žig koji neki AI alati ostavljaju na slikama.
Program DALL-E na primjer automatski generira višebojnu traku u donjem desnom uglu svih svojih slika. Craiyon stavlja malu crvenu olovku na isto mjesto, kao što možete vidjeti na slikama ispod:
Ali nemaju sve slike generirane umjetnom inteligencijom vodene žigove - i oni se mogu ukloniti, izrezati ili sakriti.
Savjeti iz svijeta umjetnosti
Tina Nikoukhah doktorska studentica koja izučava obradu slika na Sveučilištu ENS Paris-Sacley, rekla je za AFP: "Ako ste u nedoumici, pogledajte zrnatost slike, koja će se vrlo razlikovati na fotografiji generiranoj umjetnom inteligencijom od one na pravoj fotografiji".
Na besplatnim verzijama AI alata koje je testirao AFP, generirane slike su imale stil koji je prilično sličan djelima slikarskog hiperrealističnog pokreta, s jakim kontrastima, kao što je primjer dolje lijevo "Brad Pitt u Parizu" koji je kreiran uz pomoć alata Stable Diffusion.
Još jedna kreacija (dolje desno), koju je proizveo program DALL-E sa sličnim ključnim riječima, ipak je stvarnija i teže je, na prvi pogled, potvrditi da je to slika koju je stvorila AI.
Vizualne nedosljednosti
Usprkos munjevitom napretku u tehnologiji umjetne inteligencije, u generiranom sadržaju i dalje se pojavljuju greške. Ovi nedostaci su najbolji način za prepoznati generiranu sliku, rekli su stručnjaci za AFP.
"Neke karakteristike, često iste, predstavljaju problem za umjetnu inteligenciju. Ove nedosljednosti se moraju potražiti, kao u igri uočavanja razlika", rekao je Terrasi iz Draft & Goal-a.
Annalisa Verdoliva sa Sveučilišta Federico II u Napulju je, međutim, upozorila: metode za generiranje sadržaja "s vremenom se poboljšavaju i pokazuju sve manje i manje artefakata sinteze, tako da se dugoročno ne bih oslanjala na vizualne tragove".
Na primjer, u ožujku 2023. još uvijek je teško generirati realistične ruke. AFP-ova fotografija Pitta koju je napravila umjetna inteligencija prikazuje glumca s nesrazmjerno velikim prstom.
Lažne slike privođenja Joea Bidena i Hillary Clinton koje je stvorila umjetna inteligencija prikazuju, na primjer, policajce s nesrazmjernim rukama. Što su ljudi dalje u pozadini, to su manje realni.
Na fotografiji s Nancy Pelosi, veličina ruku je također problematična, a neke djeluju čak i spojene. U pozadini, slova na krovu policijskog automobila i na ulazu u zgradu izgledaju nasumično odabrana.
"Za sada, alati umjetne inteligencije vrlo teško prikazuju i odraze", rekao je Terrasi. "Dobar način za prepoznati umjetnu inteligenciju je da potražite sjenke, ogledala, vodu, ali i da uvećate na oči i analizirate zjenice jer obično u njima postoji odraz kada fotografirate. Također često možemo primijetiti da oči nisu iste veličine, ponekad su različite boje".
To je na primer slučaj na ovoj fotografiji francuskog predsjednika Emmanuela Macrona podijeljenoj na Instagramu, a koju je generirao AI. Zumiranje pomoću alata za povećavanje preko besplatnog programa Invid/WeVerify pokazuje da su oči smeđe, a Macron ima plave oči. Također, nijansa smeđe boje se razlikuje između dva oka.
Generativni alati često stvaraju i asimetrije. Lica mogu biti nesrazmjerna ili uši budu različite veličine.
Zube i kosu je teško imitirati i njihov izgled može otkriti, u svojim obrisima ili teksturi, da slika nije stvarna.
Neki elementi mogu biti loše integrirani, kao što su sunčane naočale koje se stapaju s licem.
Stručnjaci također kažu kako miješanje nekoliko slika može stvoriti probleme s osvjetljenjem na slici generiranoj umjetnom inteligencijom.
Provjerite pozadinu
Dobar način za pronaći anomalije je da pažljivo pogledate pozadinu fotografije. Iako na prvi pogled može izgledati normalno, fotografije generirane umjetnom inteligencijom često prikazuju greške. Na primjer na ovim fotografijama koje navodno prikazuju Baracka Obamu i Angelu Merkel na plaži, čini se da jedan od ljudi u pozadini ima odsječene noge.
"Što je element udaljeniji, objekt će biti više zamagljen, izobličen i imati pogrešnu perspektivu", rekao je Terrasi.
Na lažnoj fotografiji sastanka Xija Jinpinga i Putina, linija na stupu nije ravna. Glava ruskog lidera također djeluje neproporcionalno u usporedbi s ostatkom njegovog tijela. Fischinger je za AFP rekao kako su nedosljednosti ukazale da je slika generirana umjetnom inteligencijom.
Koristite zdrav razum
Neki elementi možda nisu izobličeni, ali i dalje mogu odavati logičke pogreške. Kada sumnjate u sliku "dobro je osloniti se na zdrav razum", rekao je Fischinger.
Na fotografiji ispod, koju je napravio AFP uz pomoć programa DALL-E i koja je trebala prikazati Pariz, nalazi se plavi znak zabranjenog smjera, koji u Francuskoj ne postoji (crveni su).
Takav detalj, u kombinaciji s isječenim vrhovima prstiju subjekta fotografije, kroasanom koji izgleda plastično i razlikom u osvjetljenju na nekim prozorima, sugerira da je fotografija generirana umjetnom inteligencijom.
Vodeni žig u donjem desnom uglu slike signalizira da je sliku generirao DALL-E.
Konačno, ako se tvrdi da slika prikazuje neki događaj, ali je njezin kredibilitet sumnjiv, obratite se pouzdanim izvorima kako biste potražili moguće nedosljednosti.
Sva prava pridržana. Bilo koje korištenje sadržaja AFP-a na ovim stranicama podliježe uvjetima uporabe dostupnim na https://www.afp.com/en/terms-use. Pristupanjem i/ili korištenjem bilo kojeg AFP-ovog sadržaja dostupnog na ovim stranicama pristajete na prije spomenute uvjete korištenja. Bilo kakva uporaba AFP-ovog sadržaja je pod vašom isključivom i punom odgovornošću.