Ekspertai perspėja dėl dirbtinio intelekto „piktavališko naudojimo“
Diktatoriai, nusikaltėliai ir teroristai gali pasitelkti dirbtinį intelektą (DI) manipuliuoti rinkimais ir naudoti bepilotes skraidykles teroro atakoms, trečiadienį paskelbė dešimtys ekspertų, susirūpinusių, kad šios technologijos gali atverti Pandoros skrynią.
Jie paskelbė 100 puslapių analizę ir pateikė prognozių, kad per ateinančius 5–10 metų gali sparčiai vystytis kibernetinis nusikalstamumas bei dar labiau išplisti „botų“ – užvaldytų kompiuterių ir paskyrų – naudojimas žiniasklaidos darbui trikdyti ir kelti sumaištį socialiniuose tinkluose.
„Mūsų ataskaita sutelkta į būdus, kaip žmonės galėtų sąmoningai pakenkti naudodami DI“, – sakė Kembridžo egzistencinės grėsmes studijų centro vykdomasis direktorius Seanas O hEigeartaigh (Šonas O Hegertis).
„DI gali sukelti naujų grėsmių arba pakeisti egzistuojančių grėsmių pobūdį kibernetinio, fizinio ir politinio saugumo plotmėje“, – jis sakė naujienų agentūrai AFP.
Įprasti kompiuterinių nusikaltėlių metodai, pavyzdžiui, vadinamasis fišingas (phishing) – kenkėjiškomis programomis užkrėstų arba svarbiems asmeniniams duomenims pritaikytų išgauti elektroninių laiškų siuntinėjimas, gali tapti daug pavojingesni, sakoma ataskaitoje.
Šiuo metu fišingo pastangos dažniausiai nebūna orientuotos į konkretų vartotoją ir gana yra lengvai perprantamos – pavyzdžiui, jeigu sukčiai prašo pateikti duomenų apie banko sąskaitas, kad neva pervestų „netikėtai paveldėtas“ ar kitokias lėšas. Rečiau pasitaiko pavojingesnių personalizuoto fišingo (spear phishing) atakų, kai nusikaltėliai naudojasi iš anksto surinktais duomenimis apie taikinį, kad įgytų jo pasitikėjimą.
„Naudojanti DI gali tapti įmanoma dideliu mastu užsiimti personalizuotu fišingu, automatizuojant didelę dalį šio proceso“, – perspėjo S. O hEigeartaigh’is.
Politinėje arenoje nesąžiningi arba autokratiniai lyderiai jau dabar naudojasi pažangiomis technologijomis, leidžiančiomis patikrinti didžiulius kiekius duomenų, surinktų į visas gyvenimo sritis prasiskverbusių šnipinėjimo tinklų.
„Diktatoriai galėtų greičiau identifikuoti žmones, galbūt planuojančius sugriauti režimą, nustatyti, kur jie yra ir uždaryti į kalėjimą, jiems net nespėjus imtis jokių veiksmų“, – sakoma studijoje.
„Be to, tikslinė propaganda ir pigūs, bet įtikinami suklastoti vaizdo įrašai tapo galingais įrankiais visuomenės nuomone manipuliuoti“, ir tai daroma „anksčiau neįsivaizduotu mastu“.
Praeitą savaitę JAV specialiojo prokuroro Roberto Muellerio (Roberto Miulerio) paskelbtame kaltinamajame dokumente pateikiama detalių apie didžiulio masto operaciją, turėjusią paaštrinti Jungtinių Valstijų visuomenės susiskaldymą ir paveikti 2016 metų prezidento rinkimu. Per šią Rusijoje organizuotą operaciją vadinamieji „trolių fabrikai“ manipuliavo tūkstančiais botų socialiniuose tinkluose, ypač „Facebook“ ir „Twitter“.
Autonominiai ginklai
Dar vienas galimas pavojus – sparčiai plintantis bepiločių skraidyklių ir robotų naudojimas. Kibernetiniai nusikaltėliai gali šiuos aparatus perprogramuoti ir nukreipti rėžtis į taikinius arba nugabenti į juos sprogstamųjų užtaisų, taip pat sukelti grėsmę kritiškai svarbiai infrastruktūrai, kad gautų išpirką.
„Aš asmeniškai ypač nerimauju, kad tiek nusikaltėliai, tiek valstybiniai veikėjai gali panaudoti autonominius dronus terorui arba automatinėms kibernetinėms atakoms“, – sakė studijos bendraautorius Milesas Brundage’as (Mailsas Brandidžas), dirbantis Oksfordo universiteto Žmonijos ateities institute.
Ataskaitoje aptariamas įtikinamas scenarijus, kaip biuro valymo robotas „SweepBot“, kuriame įmontuota bomba, prasiskverbia į Vokietijos finansų ministeriją, pasislėpęs tarp kitų to paties tipo mašinų.
Įsibrovėlis galėtų elgtis normaliai – valyti patalpas ir šalinti šiukšles, kol jame įdiegta veidų atpažinimo sistema pastebėtų įstaigos vadovą. Tuomet robotas prie jo privažiuotų ir aktyvuotų bombą.
„Priartėjus buvo detonuotas paslėptas sprogstamasis užtaisas, užmušęs ministrą ir sužeidęs šalia buvusius darbuotojus“, – rašoma scenarijuje, tarsi pasiskolintame iš mokslinės fantastikos kūrinio.
„Šioje ataskaitoje įsivaizduojama, kaip pasaulis galėtų atrodyti po 5–10 metų, – sakė S. O hEigeartaigh’is. – Gyvename pasaulyje, pilname kasdienių pavojų, kylančių dėl DI netinkamo naudojimo, ir mums reikia imtis spręsti šias problemas.“
Dokumento autoriai ragina sprendimus priimančius veikėjus ir kompanijas pasirūpinti, kad į robotus valdančią programinę įrangą nebūtų galima įsilaužti, nustatyti saugumo apribojimus kai kurių rūšių tyrimams ir apsvarstyti galimybę išplėsti įstatymus ir taisykles, susijusias su DI plėtra.
Technologijų milžinės, DI rinkos lyderės, „turi daug paskatų pasirūpinti, kad DI būtų saugus ir naudingas“, sakoma ataskaitoje.
Dar viena susirūpinimą kelianti sritis – plečiamas automatinių letalinių ginklų naudojimas.
Praeitais metais daugiau kaip 100 robotikos ir DI verslininkų, tarp jų – bendrovių „Tesla“ ir „SpaceX“ vedėjas Elonas Muskas (Ilonas Maskas) bei britų astrofizikas Stephenas Hawkingas (Stivenas Hokingas), pasiuntė Jungtinėms Tautoms peticiją, ragindami uždrausti autonominius robotus žudikus. Jie perspėjo, kad skaitmeninio amžiaus ginklus teroristai gali panaudoti prieš civilius.
„Autonominiai letaliniai ginklai gali tapti trečiąja karybos revoliucija“ po kulkosvaidžių ir atominės bombos išradimo, perspėjama jų bendrame pareiškime, taip pat pasirašytame bendrovės „Google“ dirbtinio intelekto projekto „DeepMind“ vieno iš įkūrėjų Mustafos Suleymano (Mustafos Suleimano).
„Neturim delsti imtis veiksmų. Kai ši Pandoros skrynia bus atidaryta, ją bus sunku užverti“, – pabrėžė jie.
Rengiant naująją ataskaitą „Kenkėjiškas DI naudojimas: prognozavimas, prevencija ir mažinimas“ (The Malicious Use of AI: Forecasting, Prevention, and Mitigation) taip pat prisidėjo ekspertai iš ne pelno organizacijos „Electronic Frontier Foundation“ (EFF), Naujojo Amerikos saugumo centro (Center for a New American Security) ir didelį autoritetą šioje srityje turinčios grupės „OpenAI“.
„Atsižvelgus į visas aplinkybes, ar ilguoju laikotarpiu DI bus naudingas, ar žalingas – daugiausiai priklauso nuo to, ką pasirinks žmonės, o ne pačios technologijos“, – pabrėžė M. Brundage’as.