Slike generirane umjetnom inteligencijom mogu prevariti ljude: evo kako ih prepoznati


Slike generirane umjetnom inteligencijom mogu prevariti ljude: evo kako ih prepoznati

Objavio četvrtak 20 travnja 2023 u 12:03

05c095dac89220869cea0b8895d9023fd90072c9-ipad.jpg

Slika koju je generirala umjetna inteligencija u Tokiju 31. siječnja 2023.

(Richard Brooks)

Ivan FISCHER / Juliette MANSOUR / AFP Francuska

Policija je uhitila američkog predsjednika i druge političare iz Demokratske stranke SAD-a? Ruski čelnik Vladimir Putin kleči pred kineskim kolegom Xijem Jinpingom? Možda ste vidjeli fotografije koje izgledaju uvjerljivo poput ovih koje kruže internetom i koje su rezultat brzog napretka umjetne inteligencije (artificial intelligence - AI) poznate kao generativna AI. AFP je tražio savjete stručnjaka iz područja generativne AI i fotografije kako razlikovati prave snimke od slika generiranih umjetnom inteligencijom. Iako ne postoji savršena i sigurna metoda, neki vizualni i kontekstualni elementi mogu biti od pomoći.

Nedavno razvijeni AI alati kao što su Midjourney, DALL-E, Craiyon ili Stable Diffusion mogu generirati beskonačan broj slika korištenjem ogromnih baza podataka.

Mnogi ljudi koriste takve alate u humoristične ili umjetničke svrhe, ali drugi se oslanjaju na njih kako bi napravili lažne slike koje navodno prikazuju političke vijesti.

Na primjer, na Twitteru je kružilo mnoštvo slika generiranih umjetnom inteligencijom (arhivirani članak ovdje) nakon sastanka Putina i Xija Jinpinga 20. ožujka 2023. Druge su francuskog predsjednika Emmanuela Macrona prikazale kao radnika gradske čistoće dok se smeće gomilalo na pariškim ulicama uslijed masovnih štrajkova zbog nepopularnih mirovinskih reformi.

Iako većina tvoraca jasno kaže da su ove naveliko dijeljene slike izmišljene, druge fotografije kruže bez konteksta ili su predstavljene kao autentične.

Pobornici teorije zavjere QAnon – prema kojoj bivši američki predsjednik Donald Trump vodi tajni globalni rat protiv nedefiniranih sila zla – podijelili su fotografije uhićenja aktualnog američkog predsjednika Joea Bidena i istaknutih političara iz Demokratske stranke Nancy Pelosi i Hillary Clinton koje je zapravo stvorila umjetna inteligencija. Iz opisa u ovoj objavi, koji glasi "Evo istine... Trump je pobijedio", nije jasno zna li korisnica Facebooka da su slike lažne. Objavu su više od 80 puta podijelili korisnici u različitim zemljama bez spominjanja porijekla slika. Tako se gubi kontekst i izvor sadržaja koji kruži na društvenim mrežama.

a2d51a4ae9aa3c12e577afbfcd573408f1bca980-ipad.jpg

Screenshot obmanjujuće objave na Facebooku napravljen 31. ožujka 2023. godine

Alati za otkrivanje umjetne inteligencije

Programeri su napravili alate kao što je Hugging Face kako bi pokušali otkriti ovakve uratke. Testovi koje je proveo AFP, međutim, pokazuju da rezultati nisu uvijek točni i ponekad mogu dovesti u zabludu.

Ispod ovog odlomka je jedna dretva objavljena na Twitteru na engleskom (arhivirana ovdje) u kojoj se vidi slika koja prikazuje kako je Vladimir Putin navodno kleknuo pred Xijem Jinpingom na sastanku u ožujku 2023. godine. Korisnica Twittera je novinarka koja izvještava iz Kine i o novim tehnologijama. Ona objašnjava zašto je slika sumnjiva i najvjerojatnije napravljena uporabom umjetne inteligencije. Do zaključka je došla, između ostalog, uz pomoć programa Hugging Face.

"Kada umjetna inteligencija generira slike (od nule), ne postoji niti jedna originalna slika čiji su dijelovi uzeti", objasnio je 21. ožujka 2023. godine za AFP David Fischinger, stručnjak za umjetnu inteligenciju i inženjer na Austrijskom institutu za tehnologiju. "Tisuće/milijuni fotografija su korištene za učenje milijardi parametara."

Vincent Terrasi, suosnivač tvrtke Draft & Goal, startupa koji je pokrenuo AI detektor za sveučilišne radove, dodao je da "AI miješa te slike iz svoje baze podataka, dekonstruira ih i zatim rekonstruira fotografiju piksel po piksel, što znači da u konačnom ishodu više ne primjećujemo razliku u odnosu na originalne slike."

Zbog toga su programi za otkrivanje manipulacije loši, ako uopće djeluju, u identifikaciji slika generiranih umjetnom inteligencijom. Metapodaci fotografije, koji ponekad mogu otkriti izvor slike generirane umjetnom inteligencijom, također nisu od velike pomoći.

"Nažalost, ne možete se osloniti na metapodatke jer su na društvenim mrežama potpuno uklonjeni," rekla je za AFP stručnjakinja za umjetnu inteligenciju Annalisa Verdoliva, profesorica sa Sveučilišta Federico II u Napulju.

Nađite izvor slike

Stručnjaci kažu da je pronalazak kada je slika prvi put objavljena na internetu jedan od važnih tragova. U nekim slučajevima, tvorac slike je možda rekao da je generirana umjernom inteligencijom i naveo korišćeni alat.

Obrnuta pretraga slika može pomoći, ako je indeksirana u pretraživačima, pronaći ranije objave s istom fotografijom. Proces je objašnjen u ovom članku na srpskom i u videu ispod ovog odlomka na engleskom:

Ova metoda omogućila je pronalaženje izvora slika koje navodno pokazuju nasilnu svađu između bivšeg američkog predsjednika Donalda Trumpa i policajaca koji ga privode.

Obrnuta pretraga na Googleu je dovela do Tweeta Eliota Higginsa, osnivača istraživačke grupe Bellingcat, koji je napravio cijelu seriju slika na temu uhićenja Trumpa i njegovog boravka u zatvoru. Te je slike objavio 20. ožujka 2023. uz objašnjenje da su rađene korištenjem umjetne inteligencije.

Higgins je u dretvi objasnio da je sve slike napravio korištenjem posljednje verzije programa Midjourney.

e6a9c02be5b35a6640043be73eea0a4daa749733-ipad.jpg

Screenshot pretrage slike na Googleu napravljen 22. ožujka 2023.

urn:newsml:afp.com:20230322:b53df8d8-7b15-4582-96dd-596c2799b285

Ako ne možete pronaći originalnu fotografiju, obrnuta pretraga može dovesti do slike bolje kvalitete ili pokazati da li je izmijenjena ili izrezana pa ponovo podijeljena. Slika bolje kvalitete bi bila bolja za analizu.

Obrnuta pretraga slika će također pronaći slične fotografije, koje mogu biti dragocjene za uspoređivanje potencijalnih fotografija generiranih umjetnom inteligencijom s onima iz pouzdanih izvora.

Za jednu viralnu sliku koja navodno prikazuje Putina kako kleči pred Xijem Jinpingom, korisnici Twittera, poput talijanskog novinara Davida Puentea, ukazali su na to da se uređenje prostorije razlikuje od onog na slikama koje su objavili mediji sa samog sastanka.

Opisi fotografija i komentari korisnika također mogu biti korisni u prepoznavanju određenog stila sadržaja generiranog umjetnom inteligencijom. DALL-E je, na primjer, poznat po ultrarealističnom dizajnu, a Midjourney po scenama koje prikazuju poznate osobe.

Neki alati ostavljaju trag slika generiranih umjetnom inteligencijom na različitim kanalima koje korisnici koriste za međusobne razgovore. Može biti korisno ući na platformu alata koji je korišten za generiranje slike u pokušaju pronalaska izvora i tvorca slike. Na nekim generatorima, na primer Midjourney, detaljnija pretraga razmjene između korisnika i automatskog programa može omogućiti pronalaženje kreiranih fotografija.

Vizualni tragovi

Čak i bez izvora, detaljnim promatranjem moguće je analizirati samu sliku.

Tražite vodeni žig

Dokazi o autentičnosti slike mogu biti vidljivi na samoj slici, kao što je vodeni žig koji neki AI alati ostavljaju na slikama.

Program DALL-E na primjer automatski generira višebojnu traku u donjem desnom uglu svih svojih slika. Craiyon stavlja malu crvenu olovku na isto mjesto, kao što možete vidjeti na slikama ispod:

28f4080814e97a6485cced0f1c58863122c4030d-ipad.jpg

Slika koju je AFP generirao 22. ožujka 2023. koristeći DALL-E i frazu: "lizalica koju drži dijete na plaži"

53c149973b0e948d832729e6b2c2c9fc74fb79ac-ipad.jpg

Slika koju je Craiyon generirao 22. ožujka 2022. na upit AFP-a: "olovka na stolu"

Ali nemaju sve slike generirane umjetnom inteligencijom vodene žigove - i oni se mogu ukloniti, izrezati ili sakriti.

Savjeti iz svijeta umjetnosti

Tina Nikoukhah doktorska studentica koja izučava obradu slika na Sveučilištu ENS Paris-Sacley, rekla je za AFP: "Ako ste u nedoumici, pogledajte zrnatost slike, koja će se vrlo razlikovati na fotografiji generiranoj umjetnom inteligencijom od one na pravoj fotografiji".

Na besplatnim verzijama AI alata koje je testirao AFP, generirane slike su imale stil koji je prilično sličan djelima slikarskog hiperrealističnog pokreta, s jakim kontrastima, kao što je primjer dolje lijevo "Brad Pitt u Parizu" koji je kreiran uz pomoć alata Stable Diffusion.

Još jedna kreacija (dolje desno), koju je proizveo program DALL-E sa sličnim ključnim riječima, ipak je stvarnija i teže je, na prvi pogled, potvrditi da je to slika koju je stvorila AI.

5e38939b5fc5070d0747aca66784a0286ec3e10b-ipad.jpg

Slika generirana umjetnom inteligencijom Stable Diffusion 22. ožujka 2023. s frazom: "Brad Pitt, ulica Pariza, rano i sunčano jutro, drži kroasan, u blizini pekare i starog francuskog automobila, u bijeloj košulji, nasmijan, realističan, 4K"

e73e2118b48a5c119cc41454f74c20c6ceda8b30-ipad.jpg

Slika generirana umjetnom inteligencijom kreirana 22. ožujka 2023. koristeći DALL-E i frazu: "Brad Pitt u Parizu, fotografija, trgovine u pozadini, 4K"

Vizualne nedosljednosti

Usprkos munjevitom napretku u tehnologiji umjetne inteligencije, u generiranom sadržaju i dalje se pojavljuju greške. Ovi nedostaci su najbolji način za prepoznati generiranu sliku, rekli su stručnjaci za AFP.

"Neke karakteristike, često iste, predstavljaju problem za umjetnu inteligenciju. Ove nedosljednosti se moraju potražiti, kao u igri uočavanja razlika", rekao je Terrasi iz Draft & Goal-a.

Annalisa Verdoliva sa Sveučilišta Federico II u Napulju je, međutim, upozorila: metode za generiranje sadržaja "s vremenom se poboljšavaju i pokazuju sve manje i manje artefakata sinteze, tako da se dugoročno ne bih oslanjala na vizualne tragove".

Na primjer, u ožujku 2023. još uvijek je teško generirati realistične ruke. AFP-ova fotografija Pitta koju je napravila umjetna inteligencija prikazuje glumca s nesrazmjerno velikim prstom.

Lažne slike privođenja Joea Bidena i Hillary Clinton koje je stvorila umjetna inteligencija prikazuju, na primjer, policajce s nesrazmjernim rukama. Što su ljudi dalje u pozadini, to su manje realni.

1929774345304301810e7240b56a9524bc17e056-ipad.jpg

AFP je neke od nedosljednosti na ove dvije fotografije generirane umjetnom inteligencijom označio crvenim pravokutnicima

Na fotografiji s Nancy Pelosi, veličina ruku je također problematična, a neke djeluju čak i spojene. U pozadini, slova na krovu policijskog automobila i na ulazu u zgradu izgledaju nasumično odabrana.

6b3042d9ba19433a4419d2913105f5eec25bba22-ipad.jpg

AFP je neke od nedosljednosti na ovoj fotografiji generiranoj umjetnom inteligencijom označio crvenim pravokutnicima

"Za sada, alati umjetne inteligencije vrlo teško prikazuju i odraze", rekao je Terrasi. "Dobar način za prepoznati umjetnu inteligenciju je da potražite sjenke, ogledala, vodu, ali i da uvećate na oči i analizirate zjenice jer obično u njima postoji odraz kada fotografirate. Također često možemo primijetiti da oči nisu iste veličine, ponekad su različite boje".

To je na primer slučaj na ovoj fotografiji francuskog predsjednika Emmanuela Macrona podijeljenoj na Instagramu, a koju je generirao AI. Zumiranje pomoću alata za povećavanje preko besplatnog programa Invid/WeVerify pokazuje da su oči smeđe, a Macron ima plave oči. Također, nijansa smeđe boje se razlikuje između dva oka.

70814ba8aef876cab84626f39380d9ca646c251c-ipad.jpg

Screenshot objave na Instagramu u kojoj se nalazi slika generirana umjetnom inteligencijom

31aea5d4a2a7e80708a0d6ed0f5df5750d7299be-ipad.jpg

Screenshot analize slike povečalom u alatu Invid/WeVerify

Generativni alati često stvaraju i asimetrije. Lica mogu biti nesrazmjerna ili uši budu različite veličine.

Zube i kosu je teško imitirati i njihov izgled može otkriti, u svojim obrisima ili teksturi, da slika nije stvarna.

Neki elementi mogu biti loše integrirani, kao što su sunčane naočale koje se stapaju s licem.

Stručnjaci također kažu kako miješanje nekoliko slika može stvoriti probleme s osvjetljenjem na slici generiranoj umjetnom inteligencijom.

Provjerite pozadinu

Dobar način za pronaći anomalije je da pažljivo pogledate pozadinu fotografije. Iako na prvi pogled može izgledati normalno, fotografije generirane umjetnom inteligencijom često prikazuju greške. Na primjer na ovim fotografijama koje navodno prikazuju Baracka Obamu i Angelu Merkel na plaži, čini se da jedan od ljudi u pozadini ima odsječene noge.

117fcb756a3669a0e83603d8020d75a91e385645-ipad.jpg

Screenshot objave na računu @joannsfar na Instagramu s fotografijom koju je generirala umjetna inteligencija

"Što je element udaljeniji, objekt će biti više zamagljen, izobličen i imati pogrešnu perspektivu", rekao je Terrasi.

Na lažnoj fotografiji sastanka Xija Jinpinga i Putina, linija na stupu nije ravna. Glava ruskog lidera također djeluje neproporcionalno u usporedbi s ostatkom njegovog tijela. Fischinger je za AFP rekao kako su nedosljednosti ukazale da je slika generirana umjetnom inteligencijom.

b441ec4c7f02bffc5dc055a6b68ae825a6853510-ipad.jpg

AFP je crvenom bojom označio neke od nedosljednosti na ovoj lažnoj fotografiji Xija Jinpinga i Vladimira Putina

Koristite zdrav razum

Neki elementi možda nisu izobličeni, ali i dalje mogu odavati logičke pogreške. Kada sumnjate u sliku "dobro je osloniti se na zdrav razum", rekao je Fischinger.

Na fotografiji ispod, koju je napravio AFP uz pomoć programa DALL-E i koja je trebala prikazati Pariz, nalazi se plavi znak zabranjenog smjera, koji u Francuskoj ne postoji (crveni su).

Takav detalj, u kombinaciji s isječenim vrhovima prstiju subjekta fotografije, kroasanom koji izgleda plastično i razlikom u osvjetljenju na nekim prozorima, sugerira da je fotografija generirana umjetnom inteligencijom.

d70894d9a196120554aa26a6ea83e3d7bdef6b57-ipad.jpg

AFP je crvenom bojom označio neke od nedosljednosti na ovoj lažnoj fotografiji Xija Jinpinga i Vladimira Putina

Vodeni žig u donjem desnom uglu slike signalizira da je sliku generirao DALL-E.

Konačno, ako se tvrdi da slika prikazuje neki događaj, ali je njezin kredibilitet sumnjiv, obratite se pouzdanim izvorima kako biste potražili moguće nedosljednosti.

Ovaj je članak također objavljen by AFP.

Sva prava pridržana. Bilo koje korištenje sadržaja AFP-a na ovim stranicama podliježe uvjetima uporabe dostupnim na https://www.afp.com/en/terms-use. Pristupanjem i/ili korištenjem bilo kojeg AFP-ovog sadržaja dostupnog na ovim stranicama pristajete na prije spomenute uvjete korištenja. Bilo kakva uporaba AFP-ovog sadržaja je pod vašom isključivom i punom odgovornošću.

Tags:
Created by Admin on 2023/06/01 14:53