pričaju veoma različitu priču

Slučajno ili namjerno: Slike poboljšane AI-em iskrivljuju percepciju rata na Bliskom istoku

| Autor: Hina
(Reuters)

(Reuters)


Rat na Bliskom istoku doveo je do poplave dezinformacija generiranih umjetnom inteligencijom (AI), no osim posve krivotvorenih slika širi se još jedna vrsta sadržaja: autentične snimke "poboljšane" na načine za koje stručnjaci tvrde da suptilno mijenjaju percepciju onoga što se zbiva na terenu, javlja AFP.

Na upečatljivoj fotografiji Kuvajćanin naoružan željeznom palicom se suočava s klečećim američkim pilotom, koji je netom prije padobranom iskočio iz svog zrakoplova. Fotografija visoke rezolucije brzo se proširila internetom te su je objavili čak i neki mediji. Međutim, čini se da pilot ima samo četiri prsta na svakoj ruci.

Djelatnici AFP-a zaduženi za provjeravanje činjenica učitali su fotografiju u alate za detekciju AI-a i utvrdili da sadrži SynthID, nevidljiv vodeni žig koji služi identifikaciji slika načinjenih Googlevom tehnologijom AI-a. No, to nije cijela priča.

Sama situacija jest autentična. Videosnimka koja prikazuje isti događaj se pojavila na društvenim mrežama 2. ožujka, a satelitske snimke su potvrdile njegovu lokaciju. Također, poklapa se s izvješćima da je Kuvajt tog dana greškom oborio tri američka borbena zrakoplova.

AFP je uspio pronaći raniju inačicu fotografije na komunikacijskoj platformi Telegram, koja je odgovarala slici visoke rezolucije, samo što je bila mutna.

Alatima za detekciju AI-a je utvrđeno da je ova fotografija bila stvarna. To upućuje na to da je mogla poslužiti kao ishodišna točka za fotografiju izrađenu Googlevim alatima AI-a.

"Poboljšanje (kvalitete) korištenjem AI-a može suptilno izmijeniti teksture, lica, osvjetljenje ili pozadinske detalje te stvoriti fotografiju koja djeluje 'stvarnije od originala", rekao je Evangelos Kanulas, profesor umjetne inteligencije na sveučilištu u Amsterdamu.

To može "pojačati određeni narativ o nekom događaju pa se, naprimjer, neki prosvjed može činiti nasilnijim, gomila većom, izrazi lica intenzivnijima".

U drugom slučaju, korisnici društvenih mreža su podijelili dramatičnu snimku ogromnog požara blizu iračke zračne luke Irbil nakon što je Iran napao to područje 1. ožujka.

Premda je pronađen SynthID, fotografija nije bila potpuna krivotvorina. Izvorna verzija slike prikazuje isti prizor, no s daleko manjim požarom i dimom.

"Veoma različita priča"

Stručnjaci su upozorili na to da je tanka linija između poboljšavanja i generiranja sadržaja, bilo je da riječ o slučajnom ili namjernom postupanju.

"Čak i male izmjene mogu na koncu pričati veoma različitu priču", kazao je James O'Brien, profesor računarstva na kalifornijskom sveučilištu Berkeley, dodajući da bi to "moglo promijeniti percepciju događaja".

Generativna umjetna inteligencija je također i dalje sklona greškama i može "halucinirati" te dodati elemente koji nisu bili u prvotnoj slici, dodao je Kanulas.

To se dogodilo nakon što su savezni imigracijski agenti ustrijelili Alexa Prettija u američkoj saveznoj državi Minneapolis u siječnju kada se fotografija incidenta poboljšana umjetnom inteligencijom brzo proširila internetom.

Slika se temeljila na dijelu autentičnog videa pucnjave, u kojem Pretti pada na koljena pored saveznih službenika, od kojih jedan drži pištolj prislonjen na Prettijevu glavu.

U niskokvalitetnom videu, Pretti drži predmet koji je zapravo bio mobitel. No, u slici obrađenoj AI-em, neki korisnici društvenih mreža su pogrešno vidjeli oružje u njegovoj ruci.

Kako rat prouzročen američko-izraelskim napadima na Iran još uvijek traje, stručnjaci kažu da snimke poboljšane umjetnom inteligencijom bez pripadajućih oznaka dodatno umanjuju povjerenje javnosti.

Ovakva vrsta sadržaja je već imala "ogroman utjecaj na ljude i njihovu sposobnost da vjeruju u istinu", rekao je O'Brien.

"Sada ljudi počinju sumnjati i u autentične snimke", složio se Kanulas.

Povezane vijesti


Podijeli: Facebook Twitter







Trenutno na cestama