Joosep Põllumäe: ChatGPT loojate AI-videotööriist on iga küberkriminaali unistus
Möödunud nädala lõpusirgel tõi ChatGPT loonud OpenAI avalikkuse ette oma värskeima AI-lahenduse: Sora, mis suudab tekstipõhiste juhiste pealt luua videosisu, mis on kohati pea eristamatu pärisvideotest. Kui ühelt poolt tõotab see lihtsamaks muuta turundusinimeste, indie-filmitegijate ja miljonite teiste inimeste elu, siis ei saa mööda vaadata selle meeletust potentsiaalsest riskist tuua kaasa hulgaliselt kurja, räägib Elisa valdkonnajuht Joosep Põllumäe.
Tehisintellekt on viimaste aastate jooksul meeletu kiirusega arenenud. Esimese hooga tundus uskumatu, et ChatGPT suudab inimese kombel mõistlikku teksti toota, siis tundus uskumatu, et DALL-E suudab lühikese lausejupi peale luua justkui kunstniku sulest valminud maali. Nüüd tundub suisa uskumatu, millist videosisu on võimalik pelgalt AI abil luua. Kõik need uued lahendused on aidanud paljude inimeste elu lihtsamaks muuta, kuid need kõik on aidanud kaasa ka järjest kavalamate petuskeemide tekkele.
Kuigi ChatGPT oskus aidata kurjategijatel luua mistahes keeles hästi kõlavaid petukirju ning pildilahenduste võime luua vägagi veenvaid võltsvisuaale kujutasid endas juba varem ohtu, siis sisenedes videote maailma võib öelda, et oleme jõudnud uuele tasemele. Veebis kohatavat teksti on lihtne ignoreerida, pilt tundub juba üsna usutav, aga kui miski on juba videosse võetud, siis tundub see kui sulatõsi.
Isegi siis, kui videos nähtu näol on tegu robotmõistuse loominguga.
See on ka põhjus, miks Sora pakutu esmapilgul niivõrd hirmutav tundub. Me oleme astunud välja uncanny valley’ist ehk faasist, kus robotid ja robotite loodu tundus inimmõistusele mingil põhjusel veidi vale või veidi veider. Selle asemel oleme jõudnud punkti, kus robot suudab luua midagi sellist, mis võib ära petta ka põhjalikul vaatleja. Ja olgem ausad – sotsiaalmeedias ette sattuvat videot ei vaata keegi põhjalikult. Pole raske ette kujutada, kuhu poole selline tulevik meid viia võib.
Juba täna levivad deepfake videod, kus tuntud näod midagi uskumatut ütlevad. Jõudes hetke, mil petuvideo tegemiseks ei pea kulutama kümneid tunde, vaid loetud minuteid, on vältimatu, et nende hulk sööstab kõrgustesse. Jah, OpenAI annab endast parima, et oma värskele mudelile päitsed pähe panna – hetkel lahendust alles testitakse ja laiem avalikkus seda kasutada ei saa – aga nii nagu suudeti ChatGPT panna ette lugema Windowsi aktiveerimiskoode, suudab varem või hiljem keegi ka Sora panna tootma videot, mida saab ära kasutada õelatel eesmärkidel.
Me peame arenema
AI kiire arengutempo tähendab, et sama kiirelt peaks ka arenema meie ohutunne ja suutlikkus uue reaalsusega kohaneda. See on aga midagi, mis ei saa sündida, kui neist teemadest pidevalt ei räägita. Tehisintellekt on siin, et jääda. Ja see ei ole iseenesest halb. Halb on aga see, et kuskil on kellegi ema, onu või tehnikavõõram õde, kes ei tea, et maailmas müttab ringi uus suur tegija, mis suudab kõige hea kõrval halbade mõjutuste korral teha ka palju kurja.
See oli probleemiks juba varem, kuid viimased uudised näitavad, et pigem saab see peagi veel suuremaks murekohaks. On meeletult oluline, et tehnikateadlikumad inimesed uudsetest võimalustest ja ohtudest kõva häälega oma mõjusfääris räägiks. Vahet pole, kas sfääri suuruseks on üks või tuhat inimest, iga protsendipunkt teadlikkuse tõusu aitab jõuda välja kohta, kus inimesed ei kanna oma raha suvalisele pangakontole, sest võlts-president või võlts-tegevjuht lubas selle eest video vahendusel mingit suurt auhinda.
AI on võimas, aga ohtlik. Ja see maailm muutub järgmiste aastate jooksul veel meeletult.