• tv3.lt antras skaitomiausias lietuvos naujienu portalas

REKLAMA
Komentuoti
Nuoroda nukopijuota
DALINTIS

Daugiau nei tūkstantis mokslininkų ir inžinierių, įskaitant tokius savo srities specialistus, kaip Elonas Muskas ar vienas iš „Apple“ įkūrėjų Steve’as Wozniakas, siūlo pristabdyti dirbtinio intelekto tobulinimo procesą dėl rizikos žmonijai.

Daugiau nei tūkstantis mokslininkų ir inžinierių, įskaitant tokius savo srities specialistus, kaip Elonas Muskas ar vienas iš „Apple“ įkūrėjų Steve’as Wozniakas, siūlo pristabdyti dirbtinio intelekto tobulinimo procesą dėl rizikos žmonijai.

REKLAMA

Dar visai neseniai E. Muskas rinko sau komandą mokslininkų, kurie kurtų alternatyvą „OpenAI“ produktui, yra net buvęs vienu iš šios bendrovės, sukūrusios „ChatGPT“ dirbtinį intelektą (DI), įkūrėjų, tačiau 2018-aisiais pasitraukė iš šio verslo pavadinęs jį „siaubingai geru“.

Grėsmė žmonijai

„Mes galime mėgautis „DI vasara“, skindami vaisius, kuriuos sukurs ši sistema, tačiau tuo pat metu suteikiant galimybę visuomenei adaptuotis. Kitos potencialiai pavojingos technologijos privertė visuomenę sustoti, lygiai taip pat ir mums reikia daryti su dirbtiniu intelektu – mėgautis ilga „vasara“ su DI, o ne veržtis link „rudens“ nepasirengus“, – aiškinama laiške.

Organizacijos „Future of life“ paviešintame laiške pateikiami tyrimai, rodantys, kad žmonijai iškilusi rimta grėsmė. Pačiame laiške išsamiai išdėstytos potencialios rizikos visuomenei ir civilizacijai dėl konkurencingos DI sistemos poveikio ekonomikai ir politikai. Jame taip pat prašoma dirbtinio intelekto kūrėjų „dirbti“ su politikais dėl DI reguliavimo taisyklių kūrimo. Tačiau šiandien, deja, nėra nieko, kas tai gali daryti. „Laboratorijos šiandien įsisukusios į vis galingesnių skaitmeninių protų kūrimą, kurių niekas – įskaitant ir jų kūrėjus – negali patikimai kontroliuoti“, – aiškinama mokslininkų laiške.

REKLAMA
REKLAMA

„OpenAI“ vadovas Samas Altmanas prisipažino, kad ir pats „šiek tiek baiminasi“, kad DI gali turėti negatyvų poveikį visuomenei: „Galingas dirbtinio intelekto sistemas derėtų kurti tik tuomet, kai mes būsime tikri, kad jų efektas bus teigiamas, o rizika – suvaldoma“.

REKLAMA

Laiške perspėjama apie tokias kylančias grėsmes: „mašinos“ gali užteršti mūsų informacinę erdvę propaganda ir melagingomis naujienomis; gali būti automatizuotos visos darbo vietos; nuolat vystomas „nežmogiškas intelektas“ gali absorbuoti žmoniją ir pakeisti patį žmogų; gresia civilizacijos kontrolės netektis.

Neseniai „OpenAI“ savo pareiškime akcentavo, kad „tam tikru metu gali būti svarbu sulaukti nepriklausomo įvertinimo, prieš pradedant ateities sistemų apmokymą, o norint pasiekti geriausius rezultatus reikia apriboti naujų DI modelių kūrimo procesą“.

REKLAMA
REKLAMA

Laiške siūloma visoms DI kūrimo laboratorijoms nedelsiant bent pusmečiui sustabdyti savo produkcijos kūrimą ne aukštesniame negu GPT-4 lygyje. Šis atokvėpis turėtų leisti susitarti visiems pagrindiniams rinkos dalyviams. Jeigu tokią pauzę įvesti pasirodys neįmanoma, valdžia turėtų įsikišti ir įvesti moratoriumą.

Skelbiama, kad minimi 6 mėnesiai turėtų būti naudojami kuriant ir įdiegiant saugumo protokolus DI kūrimo procese. Už šių protokolų priežiūrą turėtų būti atsakingi nepriklausomi ekspertai, o taip pat turėtų užtikrinti, kad kuriamos sistemos bus saugios.

REKLAMA
REKLAMA
REKLAMA

„Tai nereiškia dirbtinio intelekto stabdymo iš esmes, tiesiog žingsnis atgal nuo pavojingų lenktynių link Pandoros skrynios, kuri atvers nenusakomas pasekmes“, – tvirtinama mokslininkų laiške.

„Goldman Sachs“ neseniai atliktame tyrime dirbtinis intelektas gali pakeisti 300 mln. darbo vietų JAV ir ES.

Manoma, kad labiausiai „nukentėtų“ administracinis ir teisinis sektoriai: DI pakeistų 46 proc. administracinių ir 44 proc. juridinių darbuotojų. Tokios sritys, kaip statybų ir techninės priežiūros nukentėtų tik 4 ir 6 proc. atitinkamai. Ir tik 5 proc. darbo vietų galėtų būti pakeistos dirbtiniu intelektu jau šiandien.

„OpenAI“ skaičiavimais, bendrovė galėtų 80 proc. JAV darbo jėgos jau dabar perkelti į dirbtinį intelektą.

 

REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKLAMA
REKOMENDUOJAME
rekomenduojame
TOLIAU SKAITYKITE
× Pranešti klaidą
SIŲSTI
Į viršų