Vienintelis būdas išsigelbėti nuo žmonijos išnykimo – dirbtinis kvailumas
Daug dis­ku­tuo­ja­ma apie dirb­ti­nio in­te­lek­to nau­dą ir ga­li­my­bes. Ta­čiau yra ir an­tra šio me­da­lio pu­sė – jei dirb­ti­nis in­te­lek­tas ims pats aug­ti ir vys­ty­tis, žmo­nės jam taps ne­rei­ka­lin­ga naš­ta. Ne­tu­rė­da­mas emo­ci­jų, em­pa­ti­jos ir dė­kin­gu­mo, dirb­ti­nis in­te­lek­tas ti­kriau­siai mus vi­sus iš­žu­dys. Ta­čiau ne­bi­jo­ki­te – Sar­bo­nos ir Luis­vi­lio uni­ver­si­te­tų moks­li­nin­kai tu­ri spren­di­mą. Mus iš­gel­bės dirb­ti­nis kvai­lu­mas.

Aišku, tai, kad dirbtinis intelektas mus išžudys, dar nėra galutinis verdiktas. Tokio įvykio tikimybė yra neapibrėžta – ateitį prognozuoti yra labai sunku. Elonas Muskas mano, kad tai – reali grėsmė. Tuo tarpu visa eilė mokslininkų mano, kad už žmogų protingesnis dirbtinis intelektas mums tik padėtų vystytis, nes iš karto pateiktų atsakymus į visus mums rūpimus klausimus. Bet gal geriau nerizikuoti?

Mokslininkai iš Prancūzijos ir JAV siūlo apriboti dirbtinio intelekto tobulėjimą iki žmogiškų ribų. Tai yra, neleisti DI sistemoms aplenkti žmogaus intelekto. Mokslininkai siūlo apriboti procesorių galingumą bei atminties talpą, kad DI sistemos negalėtų naudotis neribotais resursais. Dar daugiau – kai kuriose srityse, mokslininkų manymu, reikėtų pritaikyti ir dirbtinio kvailumo sistemas.

Dirbtinis kvailumas, beje, nėra visai nauja idėja. Klientų aptarnavimo paslaugas internete dažnai vykdo dirbtinio intelekto sistemos – kartais kitoje monitoriaus pusėje nesėdi joks žmogus, net jei ekrane matote žmogaus vardą. Šios sistemos atpažįsta jūsų klausimus ir duomenų bazėje suranda atsakymus. Tarp atpažįstamų klausimų yra ir tokie kaip „Ar tu robotas?“, „Kurioje jūs šalyje?“ ir panašūs. Mokslininkai teigia, kad šios DI sistemos dažnai specialiai daro gramatines ir kitokias klaidas – taip jos mums atrodo labiau žmogiškos.

Mokslininkai siūlo sukurti galimybes apriboti dirbtinio intelekto skaičiavimo greitį. Taip pat reikėtų įterpti ir tokias žmogiškas savybes kaip patvirtinimo šališkumas, kad DI sistemos darytų klaidų ir pasaulį matytų panašiai kaip mes. Galiausiai, DI turėtų būti šiek tiek konservatyvus, kad jo vertybės per greitai nesikeistų. Jau anksčiau buvo pastebėta, kad dirbtinio intelekto sistemos greitai keičiasi, tampa rasistiškomis ar net atvirai grasinančiomis.

Galiausiai, mokslininkai nenorėtų, kad DI algoritmai galėtų save tobulinti. Taip kad ir kokius apribojimus jiems pritaikytume, jie būtų matomi kaip trukdis efektyvumui ir būtų pašalinti. Tačiau tuomet kyla klausimas – kokia nauda iš dirbtinio intelekto, jei norėdami jį paversti saugiu mes pašaliname geriausias jo savybes? Ar nėra kitų būdų DI algoritmą paversti ir protingesniu už žmones, ir visiškai saugiu?