Visame pasaulyje sparčiai plinta DI generuojami netikri tekstai, vaizdai ir garsai – vadinamieji „deepfake“. Deja, tokios technologijos dažnai naudojamos ne pasilinksminti ar informuoti, o skleisti propagandą, manipuliuoti emocijomis ar kelti paniką.
Pavyzdžiui, štai kadrai iš viešojoje erdvėje patalpinto dirbtiniu intelektu sukurto vaizdo įrašo, kuriame vaizduojama esą Izraelio ir Irano konflikto metu į namą atskrendanti raketa.




Dirbtinio intelekto specialistas Martynas Kairys sako, kad pasaulyje pirmieji „deepfake“ įrašai pasirodė dar 2010 m., o Lietuvoje – 2015-aisiais.
„Jie buvo tokie, kuriuos buvo labai lengva atskirti. Kai pasirodė pirmieji tokie įrašai Lietuvoje, neva Obama ten kažką daro, ten matėsi, kad feikas, nes Obama tikrai taip nedarytų. Ir didžioji dalis žmonių, beveik visi žmonės galėjo atskirti“, – sako M. Kairys.
Pasak jo, šiandien tikroviškus DI generuojamus įrašus galima sukurti labai greitai, naudojant net paprasčiausias „Google“ vaizdo kūrimo platformas, kur galima kurti įrašus ne tik su vaizdu, bet ir su garsu.
„Tampa sudėtinga atskirti, nes net tas balsas atitinka lūpų judėjimą ir tik labai įdėmiai žiūrint galima tai pastebėti“, – sako jis.
Ar įmanoma atpažinti klastotę?
Pasak eksperto, kai kuriuos DI kurtus įrašus dar galima atskirti – pavyzdžiui, jei jie labai trumpi, ne ilgesni nei 5–8 sekundės. Ilgesni, nuoseklūs klipai vis dar sunkiai realistiškai padaromi, nes DI sunku išlaikyti tą patį personažą nepakitusį ilgą laiką. Vis dėlto, anot M. Kairio, tai tik laiko klausimas.
„Pagrindinis atskyrimas pirmiausia yra tai, jeigu tie vaizdo įrašai yra trumpi – 5–8 sekundžių. Kitaip tariant, kol kas nėra kokių dviejų minučių vaizdo įrašų, kurie būtų pilnai išpildyti ir niekas nesikeistų nerėžiant akies.
Tai yra todėl, kad labai sunku išlaikyti tą patį personažą, kad jis būtų ir viename, ir kitame klipe identiškai tas pats. Kol kas to dar negalime padaryti, bet mano nuomone tai yra laiko klausimas. Ir gali būti, kad tam tikros mažesnės, mažiau žinomos programos jau turi tą galimybę, ir kažkas jomis jau naudojasi, o mums tai nežinoma. Žmogus, kuris nėra įpratęs, nėra susipažinęs su tomis naujovėmis, jis ir neatskiria“, – nurodo DI ekspertas.
Taip pat M. Kairio teigimu, jeigu vaizdo įraše yra kalbančių žmonių, galima stebėti jų lūpas, ar juda tolygiai su žodžiais, nes DI vaizdo įrašuose dar galima pastebėti tokių netikslumų.
Kai kurių dirbtinio intelekto vaizdo įrašų atskirti – neįmanoma
Internete vis dažniau plinta vaizdo įrašai, kuriuose nėra kalbančių žmonių ar kitų aiškių požymių, pagal kuriuos būtų galima atpažinti, kad tai – suklastota DI pagalba.
Pavyzdžiui, Izraelio ir Irano konflikto įkarštyje dalijamasi vaizdais, kuriuose matyti, kaip esą nuo raketų sprogimų griūva namai, liepsnoja pastatai ir dega miestai. Kartu skamba sprogimo garsai, todėl viskas atrodo itin įtikinamai ir realistiškai.
Pasak DI specialisto, tokio tipo medžiagą atpažinti kaip netikrą beveik neįmanoma.
„Kalbant apie vaizdus, kur yra sprogimai su garsais, bet ten nėra kažkokių žmonių, yra tiesiog kažkokie objektai, tai jau manau, kad neįmanoma jų atskirti“, – sako jis.
Jis pažymi, kad kai kurios technologijų kompanijos, kurdamos tokio tipo turinį, jį pažymi nematomu ženklu – vandens ženklu, kurio plika akimi nesimato, bet jį gali aptikti speciali programinė įranga.
Tačiau tai nepadeda paprastam žmogui, naršančiam socialiniuose tinkluose, tokie ženklai plika akimi nematomi, todėl kritiškai neįvertinus – informacija atrodo tikra.
Interneto vartotojai vis dar per mažai kritiški
Ekspertas taip pat atkreipia dėmesį, kad vis dar yra daug žmonių, kurie neskiria dirbtinai sukurtos informacijos nuo tikrovės ir nekritikuoja to, ką mato.
„Žmonės sako, kad jeigu yra internetinis puslapis, jame kažkas parašyta, tai nejaugi jame meluos, nejaugi kurs kažkas internetinį puslapį ir dės klaidingą ir neteisingą informaciją. O jeigu dar yra vaizdo įrašas, tai tuo labiau, nes juk ten viskas nufilmuota. Jie šitoje vietoje nesupranta ir nekvestionuoja, nebando įžvelgti ir atskirti, ar čia yra tiesa, ar ne“, – sako jis.
Tiesa, eksperto teigimu, tai kelia labai rimtą pavojų visuomenei.
„Mes pirmiausia sukuriame sprendimus, o tik tada pradedame galvoti, kaip apsaugoti žmones. Tai yra rizika ir panašu, kad artimiausiu metu niekas nesikeis.
Ar tai būtų vaizdo įrašų kūrimas, ar garsų, balsų, tekstų kūrimas, kol jie bus priimtini ir naudojami žmonių, tai šitas etapas bus ypatingai pavojingas“, – sako jis.
Patiko straipsnis? Užsiprenumeruokite mūsų naujienlaiškį ir gaukite svarbiausias dienos naujienas bei įdomiausius straipsnius kiekvieną darbo dieną 11 val. Tiesiai į Jūsų el. paštą!