2023. aastal peteti Eestis ca 1200 inimeselt välja 8,3 miljonit eurot. Seda tehti erinevate petukõnede ja sõnumitega, küll väites end olevat politseinik, maksuametnik, pangatöötaja või investeerimisguru, kirjutab riigikogu õiguskomisjoni esimees Andre Hanimägi (SDE).
Paljud neist petuskeemidest on tehtud sellisel viisil, mille puhul tekib küsimus, kuidas ometi inimene oma raskelt korjatud säästud niisugusel moel ära andis.
Aga mis saab siis, kui helistab pereliige, kes tundub täitsa oma häälega ning näitab end videoski? Peame tehisintellekti ehk AIga tehtud petuskeemideks paremini valmistuma hakkama.
Kas sa ooperit oskad kirjutada?
Tehisintellekti areng on avanud uusi ja põnevaid, aga ka parajalt hirmutavaid võimalusi nii muusika, video kui ka tekstiloome vallas. Veel 2009. aasta filmis «Mina, robot» sõnab peategelast kehastav Will Smith robotile põlglikult, et ta on vaid masin, elu imitatsioon, kes ei oska kirjutada ooperit ega maalida. Ta saab robotilt vastuse: aga kas sina oskad? Nüüd, aastal 2024, võib roboti vastus olla vabalt «jah!».
Kui ühelt poolt on lihtsalt kurb, et andekate ja loominguliste inimeste amet on ohus, siis ees on ootamas teisedki riskid: igaüks võib saada haledalt petta. AI suudab juba praegu imiteerida inimeste hääli, luua realistlikke videoid ja kirjutada veenvaid tekste, mis muudavad pettuste tuvastamise järjest keerulisemaks. Pahategijad on juba asunud neid võimalusi ka kasutama.
Kui varem piirdusid petuskeemid lihtsate e-kirjade või tekstisõnumitega, siis nüüd võimaldab AI luua autentsena näivaid videoid ja heliklippe, mis teevad ohvrite eksitamise lihtsamaks kui kunagi varem. Näiteks võib AIga luua võltsitud video, kus näib, et sugulane palub rahalist abi, või helikõne, kus tuttava hääl palub kiiresti raha kanda. Sellised juhtumid ei ole enam paraku kauge tuleviku hirmupildid.
Euroopas on juba esinenud juhtumeid, kus petturid kasutasid AId hääle imiteerimiseks. Üks tuntud näide pärineb 2019. aastast, mil häkkerid veensid Saksamaal baseeruva emafirma juhi häält deepfake‘ides ehk AIga tema häält jäljendades Briti tütarettevõtte juhti kandma 220 000 eurot petturitele.
Petta saavad muide nüüd isegi petturid ise. Suurbritannias alustas tööd AI-vanaema Daisy, kelle ainus eesmärk on targa ja vaimuka tehisvanaemana viita võimalikult palju petturite aega, mängides võimalikku ohvrit. Nii jääb petturil vähem aega teisi vanainimesi tüüdata.
Mis on lapsepõlve lemmiku nimi?
Juba toimunud skeemide edukus ning AI kiire areng näitab, kui oluline on kiiresti luua tõhusad regulatsioonid ja ennetusmeetmed. Tehisintellekti reguleerimiseks astus Euroopa Liit sel aastal esimese sammu, võttes vastu AI Acti ehk maailma esimese ulatusliku tehisintellekti reguleeriva õigusraamistiku, kus märksõnadeks on läbipaistvus, inimlik kontroll ja vastutus ning juhised AI abil sooritatud pettuste ennetamiseks.
Näiteks nõuab määrus, et kõik tehisintellekti loodud sisu oleks selgelt märgistatud. See aitab inimestel mõista, kas nad suhtlevad inimese või masinaga. Lisaks jagab AI Act süsteemid riskitasemete järgi, nõudes kõrge riskiga süsteemidelt rangemat kontrolli ja vastavust. See hõlmab tehnoloogiaid, mida saab kasutada finantspettuste või identiteedivarguste tarbeks, vähendades nende väärkasutuse võimalusi.
Kuigi AI Act on oluline samm õiges suunas, ei piisa sellest, et kõiki riske maandada. Nii Euroopa Liit kui ka Eesti peavad lähitulevikus võtma vastu täiendavaid meetmeid, et kaitsta inimesi AI-pettuste eest. Väga võimalik, et tuleviks tuleb osa tehnoloogia kättesaadavust piiratagi.
Tehnoloogiliselt võiks meid aidata näiteks riiklik tehisintellekt, mis tuvastaks saadud sõnumid, kirjad või videod kas ehtsa või tehislikuna. Erasektor, eriti pangad, maksevahendajad ning sotsiaalmeediaplatvormid peavad aga juba rakendama AI-põhiste pettuste avastamiseks tõhusamaid süsteeme.
Kõige kiirem, odavam ja praegu tõhusaim on inimesi harida. Oleme viimastel aastatel rääkinud väga visalt erinevatest sõnumitest ja petukõnedest, kuid tehnoloogia kipub meie teadmistest eest ära minema. Teadlikkust on vaja igal juhul tõsta ning seda mitte ainult vanematel inimestel, vaid kõigil. Uue ajastuga suudab kohaneda vaid haritud ühiskond ehk ka kooliharidus peab AIga seotud võimalusi ning murekohti järjest enam adresseerima. Ja lõpuks tuleb vajadusel kokku leppida, kas või kontrollküsimused oma sugulastega nii, nagu küsib neid e-posti konto: mis on sinu lemmiku nimi või mis on sinu lemmik lill?
Oskajamatel on aga mõistlik minna oma pereliikmete juurde ning näidata, millised juba on AI võimalused, et ohte teadvustada.