• tv3.lt antras skaitomiausias lietuvos naujienu portalas

REKLAMA
Komentuoti
Nuoroda nukopijuota
DALINTIS

Technologija, naudojama padirbtoms nuotraukoms (angl. Deepfakes) kurti, su laiku darosi vis labiau tikroviškesnė ir išmani. Nors ji gali būti naudojama ir nekenksmingais tikslais, patekusi į blogas rankas, ji galėtų padaryti labai daug žalos. Laimei, naujame tyrime, paskelbtame nepublikuotų darbų serveryje „arXiy“, yra aprašomas metodas, kuriuo, panašu, galima aptikti dirbtinio intelekto sukurtus veidus, giliai įsižiūrėjus į jų akis.

Technologija, naudojama padirbtoms nuotraukoms (angl. Deepfakes) kurti, su laiku darosi vis labiau tikroviškesnė ir išmani. Nors ji gali būti naudojama ir nekenksmingais tikslais, patekusi į blogas rankas, ji galėtų padaryti labai daug žalos. Laimei, naujame tyrime, paskelbtame nepublikuotų darbų serveryje „arXiy“, yra aprašomas metodas, kuriuo, panašu, galima aptikti dirbtinio intelekto sukurtus veidus, giliai įsižiūrėjus į jų akis.

REKLAMA

Generatyvinio priešininkų tinklo (angl. Generative adversary network, GAN) du tinklai, dirbantys vienas prieš kitą, siekiant sukurti kuo tikroviškesnį atvaizdą, iš kurių vienas kuria, o kitas vertina – sukurtos dirbtinės nuotraukos paprastai yra portretinio tipo, todėl sugeneruotų veidų akys dažnai žiūri tiesiai į kamerą. Tyrimo autoriai mano, kad taip nutinka dėl vaizdų, naudojamų GAN „mokymo“ procese. Naudojant tikrus veidus, užfiksuotus portretiniu stiliumi, abi akys atspindi aplinkoje esančią šviesą.

Darbe pagrindinis tyrimo autorius, profesorius Siwei‘us Lyu, rašo: „Ragena yra beveik tobulas pusrutulis, puikiai atspindintis šviesą. Abi akys turėtų atspindėti labai panašų vaizdą, kadangi jos mato tą pačią aplinką. Tai yra dalykas, kurio mes paprastai nepastebime žiūrėdami į veidus.“

REKLAMA
REKLAMA

Tačiau tyrėjai pastebėjo aiškius skirtumus tarp akių, dirbtinio intelekto sugeneruotose veiduose. Naudojantis „thispersondoesnotexist“ ir „Flick Faces-HQ“ sugeneruotais veidais, jų sukurtas metodas išmoko atskirti skirtingas veido dalis, tuomet išdidinti akis ir išanalizuoti jas, tada akies obuolį, ir tuomet kiekviename iš jų atsispindinčią šviesą. Atlikus šiuos veiksmus, rasti skirtumai tarp atspindžių, tokie kaip forma ir šviesos ryškumas, yra palyginami tarpusavyje.

REKLAMA

Darbe autoriai rašo: „Mūsų eksperimentai parodė, kad yra aiškus skirtumas tarp tikrų ir GAN sukurtų veidų atspindžių akyse. Šis metodas gali būti naudojamas, siekiant juos atskirti.“ Naudojantis portretinio tipo nuotraukomis, jų sukurtas įrenginys tikrus veidus nuo suskurtų atskyrė 94 proc. tikslumu.

Mokslininkų manymu, akių atspindžių skirtumus galimai lemia fiziniai ir fiziologiniai trūkumai GAN modeliuose, bei faktas, kad šie vaizdai iš esmės yra įvairių nuotraukų sujungimas į vieną. Tiesa, analizuodamas nuotraukas, kurios buvo ne portretinės, arba kai šviesos šaltinis buvo arti akių, šis įrankis rodė klaidingai teigiamus rezultatus. Tyrėjai taip pat pažymi, kad yra įmanoma patobulinti deepfake technologiją taip, kad sukuriami atspindžiai akyse būtų panašūs.

REKLAMA
REKLAMA

Toks įrankis, atskiriantis dirbtinio intelekto sukurtus veidus, galėtų padėti atpažinti netikras paskyras, kurios skleidžia dezinformaciją

„Kadangi GAN sukurti veidai tapo labai tikroviški, o atskirti juos nuo tikrų žmonių atvaizdų tapo sunkia užduotimi, jie greitai tapo nauja dezinformacijos skleidimo forma internete. GAN sukurti veidai jau buvo panaudoti kaip profilio nuotraukos netikroms socialinės medijos paskyroms, kurios vilioja ar apgauna patiklius vartotojus“, – teigia autoriai.

„Yra ir potencialus politinis poveikis. Pavyzdžiui, galima kuri netikrus vaizdo įrašus, kuriuose atrodo, kad politikai sako ar daro kažką, ko neturėtų. Tai yra blogai“, – paaiškina profesorius S. Lyu.

REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKOMENDUOJAME
rekomenduojame
TOLIAU SKAITYKITE
× Pranešti klaidą
SIŲSTI
Į viršų