• tv3.lt antras skaitomiausias lietuvos naujienu portalas

REKLAMA
Komentuoti
Nuoroda nukopijuota
DALINTIS

Prasidėjus Izraelio ir Irano konfliktui, internete ėmė plisti gausybė įrašų, esą nufilmuotų įvykio vietose – juose matyti sprogimai, skrendančios raketos, degantys miestai. Tačiau, pasak ekspertų, nemaža dalis šių vaizdų ne tikri, o sukurti dirbtinio intelekto (DI) pagalba. Nustatyti, kurie įrašai tikri, o kurie – klastotės, jau beveik neįmanoma.

6

Prasidėjus Izraelio ir Irano konfliktui, internete ėmė plisti gausybė įrašų, esą nufilmuotų įvykio vietose – juose matyti sprogimai, skrendančios raketos, degantys miestai. Tačiau, pasak ekspertų, nemaža dalis šių vaizdų ne tikri, o sukurti dirbtinio intelekto (DI) pagalba. Nustatyti, kurie įrašai tikri, o kurie – klastotės, jau beveik neįmanoma.

REKLAMA

Visame pasaulyje sparčiai plinta DI generuojami netikri tekstai, vaizdai ir garsai – vadinamieji „deepfake“. Deja, tokios technologijos dažnai naudojamos ne pasilinksminti ar informuoti, o skleisti propagandą, manipuliuoti emocijomis ar kelti paniką.

Pavyzdžiui, štai kadrai iš viešojoje erdvėje patalpinto dirbtiniu intelektu sukurto vaizdo įrašo, kuriame vaizduojama esą Izraelio ir Irano konflikto metu į namą atskrendanti raketa.

REKLAMA
REKLAMA

Dirbtinio intelekto specialistas Martynas Kairys sako, kad pasaulyje pirmieji „deepfake“ įrašai pasirodė dar 2010 m., o Lietuvoje – 2015-aisiais.

REKLAMA

„Jie buvo tokie, kuriuos buvo labai lengva atskirti. Kai pasirodė pirmieji tokie įrašai Lietuvoje, neva Obama ten kažką daro, ten matėsi, kad feikas, nes Obama tikrai taip nedarytų. Ir didžioji dalis žmonių, beveik visi žmonės galėjo atskirti“, – sako M. Kairys.

Pasak jo, šiandien tikroviškus DI generuojamus įrašus galima sukurti labai greitai, naudojant net paprasčiausias „Google“ vaizdo kūrimo platformas, kur galima kurti įrašus ne tik su vaizdu, bet ir su garsu.

REKLAMA
REKLAMA

„Tampa sudėtinga atskirti, nes net tas balsas atitinka lūpų judėjimą ir tik labai įdėmiai žiūrint galima tai pastebėti“, – sako jis.

Ar įmanoma atpažinti klastotę?

Pasak eksperto, kai kuriuos DI kurtus įrašus dar galima atskirti – pavyzdžiui, jei jie labai trumpi, ne ilgesni nei 5–8 sekundės. Ilgesni, nuoseklūs klipai vis dar sunkiai realistiškai padaromi, nes DI sunku išlaikyti tą patį personažą nepakitusį ilgą laiką. Vis dėlto, anot M. Kairio, tai tik laiko klausimas.

REKLAMA
REKLAMA
REKLAMA

„Pagrindinis atskyrimas pirmiausia yra tai, jeigu tie vaizdo įrašai yra trumpi – 5–8  sekundžių. Kitaip tariant, kol kas nėra kokių dviejų minučių vaizdo įrašų, kurie būtų pilnai išpildyti ir niekas nesikeistų nerėžiant akies.

Tai yra todėl, kad labai sunku išlaikyti tą patį personažą, kad jis būtų ir viename, ir kitame klipe identiškai tas pats. Kol kas to dar negalime padaryti, bet mano nuomone tai yra laiko klausimas. Ir gali būti, kad tam tikros mažesnės, mažiau žinomos programos jau turi tą galimybę, ir kažkas jomis jau naudojasi, o mums tai nežinoma. Žmogus, kuris nėra įpratęs, nėra susipažinęs su tomis naujovėmis, jis ir neatskiria“, – nurodo DI ekspertas.

REKLAMA

Taip pat M. Kairio teigimu, jeigu vaizdo įraše yra kalbančių žmonių, galima stebėti jų lūpas, ar juda tolygiai su žodžiais, nes DI vaizdo įrašuose dar galima pastebėti tokių netikslumų.

Kai kurių dirbtinio intelekto vaizdo įrašų atskirti – neįmanoma

Internete vis dažniau plinta vaizdo įrašai, kuriuose nėra kalbančių žmonių ar kitų aiškių požymių, pagal kuriuos būtų galima atpažinti, kad tai – suklastota DI pagalba.

REKLAMA

Pavyzdžiui, Izraelio ir Irano konflikto įkarštyje dalijamasi vaizdais, kuriuose matyti, kaip esą nuo raketų sprogimų griūva namai, liepsnoja pastatai ir dega miestai. Kartu skamba sprogimo garsai, todėl viskas atrodo itin įtikinamai ir realistiškai.

Pasak DI specialisto, tokio tipo medžiagą atpažinti kaip netikrą beveik neįmanoma.

„Kalbant apie vaizdus, kur yra sprogimai su garsais, bet ten nėra kažkokių žmonių, yra tiesiog kažkokie objektai, tai jau manau, kad neįmanoma jų atskirti“, – sako jis.

REKLAMA
REKLAMA
REKLAMA

Jis pažymi, kad kai kurios technologijų kompanijos, kurdamos tokio tipo turinį, jį pažymi nematomu ženklu – vandens ženklu, kurio plika akimi nesimato, bet jį gali aptikti speciali programinė įranga.

Tačiau tai nepadeda paprastam žmogui, naršančiam socialiniuose tinkluose, tokie ženklai plika akimi nematomi, todėl kritiškai neįvertinus –  informacija atrodo tikra.

REKLAMA

Interneto vartotojai vis dar per mažai kritiški

Ekspertas taip pat atkreipia dėmesį, kad vis dar yra daug žmonių, kurie neskiria dirbtinai sukurtos informacijos nuo tikrovės ir nekritikuoja to, ką mato.

„Žmonės sako, kad jeigu yra internetinis puslapis, jame kažkas parašyta, tai nejaugi jame meluos, nejaugi kurs kažkas internetinį puslapį ir dės klaidingą ir neteisingą informaciją. O jeigu dar yra vaizdo įrašas, tai tuo labiau, nes juk ten viskas nufilmuota. Jie šitoje vietoje nesupranta ir nekvestionuoja, nebando įžvelgti ir atskirti, ar čia yra tiesa, ar ne“, – sako jis.

REKLAMA

Tiesa, eksperto teigimu, tai kelia labai rimtą pavojų visuomenei.

„Mes pirmiausia sukuriame sprendimus, o tik tada pradedame galvoti, kaip apsaugoti žmones. Tai yra rizika ir panašu, kad artimiausiu metu niekas nesikeis.

Ar tai būtų vaizdo įrašų kūrimas, ar garsų, balsų, tekstų kūrimas, kol jie bus priimtini ir naudojami žmonių, tai šitas etapas bus ypatingai pavojingas“, – sako jis.

REKLAMA
tv3 mėgsta skambias antraštes, bet realybėje mūsų vasalinės žiniasklaidos manau atitinka sovietinės žiniasklaidos modelį - jokio pliuralizmo, tik viena tiesa, o rėkia tai kaip šiaurės korėjos žinių diktoriai :DDD bet nestebina, juk 75-iems save įslaptinę kgb dėdulės, su komunistiniu bilietu prezidentu tapęs Nausėda, kgb grybė ir t...t... matomai atnešė tą patirtį iš anų laikų
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKOMENDUOJAME
rekomenduojame
TOLIAU SKAITYKITE
× Pranešti klaidą
SIŲSTI
Į viršų