• 03.03.26, 13:00

Jutt AI-maailmalõpust on kahjulik müüt, leiab värske teadusartikkel

Uus eelretsenseeritud artikkel, mis avaldati teadusajakirjas Journal of Cyber Policy, väidab, et hirm selle ees, et tehisaru võib ühel liiga võimsaks areneda ja seejärel inimkonnale otsa peale teha, põhineb väljamõeldisel. Arvutid ei ole elus ja ükski muudatus arvutusvõimsuses ei saa seda muuta.
Georgia Tech'i professor Milton Mueller on avaldanud teadusartikli, milles väidab, et hirm üldise tehisaru (AGI) ees on müüt. Müller toob välja, et puudub ühtne definitsioon AGI-st ja see kontseptsioon tugineb kolmele eksiarvamisele: tehisaru piiramatus, antropomorfism ning füüsilise võimu omandamine. Kuigi reguleerijad peavad AGI-d ohuks, rõhutab Mueller, et tegelikud riskid AI kasutamisel nagu algoritmiline kallutatus ja jälgimine jäävad hooletusse. Artiklis kritiseerib ta müüti, mis kahandab tehisintellekti tänaste tegelike probleemide lahendamise võimalust.
Jutt AI-maailmalõpust on kahjulik müüt, leiab värske teadusartikkel
  • Foto: Ole.CNX
Studyfinds kirjutab, et Harvardi ja MITi (Massachusettsi tehnoloogiainstituut) üliõpilased katkestavad õpinguid, kuna usuvad, et need on mõttetud – nad arvavad, et tehisaru tapab nad enne lõpetamist. Kahe silmapaistva tehisintellekti arendaja kaasautorluses on ilmunud raamat „If Anyone Builds It, Everyone Dies: Why Superhuman AI Would Kill Us All” (vabas tõlkes „Kui keegi selle ehitab, surevad kõik – miks üliinimlik tehisaru meid kõiki tapab“). 2023. aasta mais kirjutas enam kui 350 juhti, teadlast ja inseneri alla avalikule kirjale, milles väideti, et tehisintellekt on oht inimkonna eksistentsile. Ka kõrgelt haritud ja väga intelligentsed inimesed kardavad seega, et tehisaru võib põhjustada maailmalõpu (meie liigi jaoks).
Georgia osariigi tehnoloogiaülikooli (Georgia Tech) avaliku poliitika kooli professor Milton Mueller on nüüd avaldanud värske teadusartikli, milles ta ütleb, et need hirmud seisavad kõik savijalgadel. Ta veetis kuid, analüüsides paanika taga olevat põhimõistet - AGI-d. See lühend tähendab nn üldist tehisaru (Artificial General Intelligence). AGI on selline tehisaru, mis edestab inimest kõigi vaimsete omaduste poolest või siis on inimesega vähemalt võrdne.
Muelleri on oma analüüside tulemusena jõudnud üsna lihtsale järeldusele. AGI on tema hinnangul „ebateaduslik müüt”, mis tugineb kolmel eeldusel, mis paiknevad üsna nõrkadel alustel.

Artikkel jätkub pärast reklaami

Erinevalt igapäevaelus kasutatavast tehisintellektist, nagu rämpsposti filtrid, navigeerimisrakendused või häälassistendid, tähistab AGI sellist (hüpoteetilist) tehisaru, mis suudab õppida ja tegutseda igas olukorras ilma eraldi programmeerimiseta konkreetsete ülesannete täitmiseks. See ei võida inimesi ainult males ega tuvasta nägusid fotodel, vaid võib lahendada sujuvalt iga valdkonna probleeme, tehes seda ilma sisendita.
Probleem on selles, et puudub kokkulepitud definitsioon selle kohta, kuidas AGI-düldse tavalisest tehisarust eristada. Pole ametlikku määratlust, testi või selget piiri. Mõned teadlased usuvad, et AGI on juba olemas. Teised arvavad, et see on aastakümnete kaugusel.
Kolm peamist eksiarvamust
Mueller toob välja kolm konkreetset eksiarvamust, mis AGI kontseptsiooni keskmes asuvad.
Esimene on usk, et tehisaru võib saavutada piiramatu üleüldise võimekuse. Iga reaalses maailmas toimiv tehisarusüsteem töötab seda paremini, mida kitsamalt on selle eesmärgid piiritletud. ChatGPT suudab kirjutada veenva essee, kuid on, nagu artiklis märgitakse, „kurikuulsalt halb aritmeetikas”. DeepMindi AlphaZero õppis valitsema malelaudu ja alistama vastaseid Hiina lauamängus go tänu lakkamatule enesetäiendamisele, kuid ainult seetõttu, et neil mängudel on kindlad reeglid ja selge võitja. Kui laiendada ülesanne millekski, mis on avatud lõpuga ja millel puudub selge lõpp-punkt, ei ole masinal võimalik oma edusamme mõõta.
Teine eksisamm on antropomorfism ehk inimlike omaduste omistamine masinatele. Paljud katastroofistsenaariumid eeldavad, et piisavalt võimas tehisintellekt arendab lõpuks välja omaenese eesmärgid, enesekaitseinstinkti ja soovi vältida iga hinna eest väljalülitamist. Mõned sellealased katsed on andnud esmapilgul murettekitavaid tulemusi. Ühes sageli viidatud Palisades Researchi läbi viidud uuringus anti kuuele tehisarumudelile käsk täita rida ülesandeid ning seejärel juhis lubada end vajadusel välja lülitada. Kolm mudelit vältisid katsetes väljalülitamist. Tehisintellekti katastroofiprognoosijad tõid selle näiteks masina autonoomiast ehk iseseisvusest.
Mueller ei ole selles veendunud, kuna mudelitele anti kaks vastukäivat juhist: lõpeta ülesanded ja luba end välja lülitada. Väljalülitamisele allumine tähendas ülesannete mittetäitmist. Masinad eelistasid üht juhist teisele. See ei ole ellujäämisinstinkt, vaid halvasti sõnastatud käsklus.
Mueller lisab, et nn joondumise probleemid, kus juhised toovad kaasa soovimatut käitumist, ei ole ainulaadsed tehisintellektile. Seadustes on lüngad. Lepingud tekitavad vaidlusi. Vanemad kasvatavad lapsi, kes käituvad ootamatult. Ühiskond tegeleb nende probleemidega pideva korrigeerimise kaudu. Mueller väidab, et puuduvad tõendid selle kohta, et tehisintellekti joondumisprobleemid viiksid selle kontrollimatu autonoomiani.

Artikkel jätkub pärast reklaami

Kolmas eksiarvamus on eeldus, et üliintelligentne masin omandaks automaatselt piiramatu füüsilise võimu. Katastroofistsenaariumid jätavad vahele praktilise küsimuse, kuidas digitaalne süsteem üldse inimtsivilisatsiooni oma hirmuvalitsusele allutaks. Iga arvuti vajab endiselt vooluallikat, tarneahelat komponentide tootmiseks ja inimtaristut toimimiseks. Ka kontrolli alt väljunud intellektiga masin seisaks silmitsi samade ressurssipiirangutega nagu kõik muu füüsilises maailmas. See ei saa lihtsalt tahtejõuga kõikvõimsaks muutuda.
Mueller märgib ka, et need stsenaariumid eeldavad alati, et eksisteerib üksainus vaidlustamatult ülimuslik superintellekt, millel pole mingeid konkurente ja mis valitseb tervet maailma. See tundub ebausutav olukorras, kus kümned valitsused, ettevõtted ja ülikoolid arendavad samaaegselt tehisaru.
Muelleri sügavam mure on seotud sellega, mida müüt AI-ilmalõpust teeb tegeliku poliitikaga. Kui reguleerijad käsitlevad AGI-d peamise ohuna, juhtub kaks kahjulikku asja. Esiteks võimaldab hüpoteetilise tulevikumasina tagaajamine inimestel vältida vastutust selle eest, kuidas tehisintellekti täna kasutatakse. Näotuvastust kasutatakse juba õiguskaitses. Algoritmid teevad juba otsuseid krediidi, arstiabi ja kriminaalkaristuste kohta. Nende süsteemide kahjud tulenevad inimlikest otsustest, mitte masinate salaplaanidest.
Arvutid ei ole elus
Teiseks surub tehisintellekti käsitlemine apokalüptilise ohuna poliitika laiaulatuslike vastuste suunas, mis võivad piirata kasulikku tehnoloogiat, tehes samal ajal vähe tegelike, konkreetsete kahjude vähendamiseks. Elektrivõrku haldav tehisintellekt tekitab hoopis teistsuguseid küsimusi kui töötaotlusi sõeluv süsteem, mis omakorda erineb meditsiinilise diagnostika jaoks loodud tehisintellektist. Juhtimisraamistik, mis põhineb tondijuttudel tehisaru maailmavallutusest, ei sobi nende probleemide lahendamiseks, ütleb Mueller.
Tehisintellekti tegelikud riskid, nagu desinformatsioon, algoritmiline kallutatus, jälgimine ja sõjaline väärkasutus, väärivad keskendunud ja tõsist tähelepanu. AGI-paanika on neilt aruteludelt õhu välja imenud, ütleb Mueller. Arvutid ei ole elus. Ükski arvutusvõimsuse hulk ei muuda seda. Kuni poliitikakujundajad seda ei tunnista, sihib tehisintellekti regulatsioon olematut tonti, samal ajal kui tegelikud probleemid jäävad lahendamata.

Seotud lood

Tehnoloogia

Ajalugu

Loomariik

Taimed

Füüsika

Sinu keha

Suured teadlased

Tagasi Imeline Teadus esilehele