Stručnjaci upozoravaju da se treba čuvati od 'deepfakeova' poznatih liječnika koji promoviraju prevare


Stručnjaci upozoravaju da se treba čuvati od 'deepfakeova' poznatih liječnika koji promoviraju prevare

Objavio ponedjeljak 23 rujna 2024 u 12:10

000_1CN89I-ipad.jpg

Novinar AFP-a gleda snimku koja je manipulirana uz pomoć umjetne inteligencije kako bi potencijalno zavarala gledatelje, 25 siječnja 2019. u Washingtonu

(Alexandra ROBINSON / AFP)

Julie PACOREL / Nikola KIS / AFP Francuska

Stručnjaci upozoravaju da su društvene mreže preplavili digitalno stvoreni "deepfake" videozapisi koji koriste vjerodostojne identitete poznatih liječnika za promicanje opasnih čudotvornih lijekova za ozbiljne zdravstvene probleme.

U snimkama na Facebooku i Instagramu koristio se kredibilitet liječnika TV zvijezda za reklamiranje neprovjerenih "prirodnih" sirupa za dijabetes, čak uz tvrdnje da dokazani lijek prve linije metformin "može ubiti" pacijente.

 

Takve prevare potencijalno ugrožavaju živote, rekli su stručnjaci, osobito zato što koriste lik popularnih zdravstvenih stručnjaka poput britanskog TV voditelja Michaela Mosleya, koji je preminuo ranije ove godine.

"Čini se da ljudi vjeruju tim snimkama," rekao je novinarima britanski liječnik John Cormack.

"Mnogi od tih medijskih liječnika proveli su puno vremena stvarajući sliku vjerodostojnosti, pa im se vjeruje čak i kada iznose nevjerojatne tvrdnje," rekao je Cormack, koji je surađivao s British Medical Journalom (BMJ) na toj temi.

Stručnjak za umjetnu inteligenciju (AI) Henry Ajder rekao je da su deepfakeovi doktora "stvarno uzeli maha ove godine." Videozapisi generirani umjetnom inteligencijom obično ciljaju na stariju publiku lažiranjem identiteta liječnika koji se redovito pojavljuju na televiziji, rekao je Ajder.

Francuski liječnik Michel Cymes, koji se često pojavljuje na televiziji u Francuskoj, rekao je novinarima u svibnju da je pokrenuo pravni postupak protiv vlasnika Facebooka, Mete, zbog "prijevara" korištenjem njegove slike. Britanski liječnik Hilary Jones čak je angažirao istražitelja da prati deepfakeove koji koriste njegov lik.

Jedna snimka prikazuje Jonesa kako prodaje lažni lijek za visoki krvni tlak - kao i gumene bombone od marihuane - u britanskoj TV emisiji u kojoj se redovito pojavljuje. "Čak i ako ih uklone, samo se pojave sljedeći dan pod drugim imenom," žalio se Jones u BMJ-u.

Deepfake sadržaji sve su uvjerljivji

Nedavni napredak u umjetnoj inteligenciji učinio je deepfake slike, zvuk i snimke daleko uvjerljivijima, rekao je francuski akademik i stručnjak za umjetnu inteligenciju Frederic Jurie.

"Danas imamo pristup desecima milijardi slika i sposobni smo izgraditi algoritme koji mogu modelirati sve što se pojavljuje na slikama i regenerirati ih. To je ono što zovemo generativni AI," rekao je.

Ne zlorabe se samo likovi nadaleko cijenjenih liječnika. Pojava kontroverznog francuskog istraživača Didiera Raoulta — koji je optužen za širenje pogrešnih informacija o lijekovima za COVID-19 — također je korištena u nekoliko deepfake snimaka.

Australska naturopatkinja Barbara O'Neill, koja je oštro osuđivana zbog tvrdnje da soda bikarbona može izliječiti rak, netočno je prikazana kako prodaje tablete koje "čiste krvne žile" u snimkama na TikToku.

Kontaktiran od strane AFP-a, njezin suprug Michael O'Neill osudio je što "puno neetičnih ljudi" koristi ime njegove supruge "kako bi prodali proizvode koje ona ne preporučuje, a u nekim slučajevima to su samo obične prijevare."

Neke lažne snimke vode se još dublje u zečju rupu, netočno tvrdeći da je O'Neill umrla od čudotvornog ulja koje se prodaje na Amazonu.

'Igra mačke i miša'

Stručnjak za umjetnu inteligenciju Ajder nije bio iznenađen što su tako kontroverzne zdravstvene ličnosti također postale žrtve deepfakeova.

"Uživaju veliko povjerenje ljudi u krugovima koji su, recimo, neortodoksni ili zavjerenički," rekao je.

Stručnjaci nisu bili optimistični da su novorazvijeni alati za otkrivanje umjetne inteligencije sposobni oduprijeti se najezdi deepfakeova.

"To je igra mačke i miša," rekao je Jurie.

Umjesto da pokušava pronaći sve lažne videozapise, ukazao je na tehnologiju koja može "jamčiti da sadržaj nije promijenjen, kao što je za slanje poruka, zahvaljujući softveru koji proizvodi digitalne potpise poput certifikata," rekao je.

Ovaj je članak također objavljen by AFP.

Sva prava pridržana. Bilo koje korištenje sadržaja AFP-a na ovim stranicama podliježe uvjetima uporabe dostupnim na https://www.afp.com/en/terms-use. Pristupanjem i/ili korištenjem bilo kojeg AFP-ovog sadržaja dostupnog na ovim stranicama pristajete na prije spomenute uvjete korištenja. Bilo kakva uporaba AFP-ovog sadržaja je pod vašom isključivom i punom odgovornošću.