Kyberrikollisten käyttöönsä valjastama tekoäly on jo nyt aito uhka, joka vain kasvaa työkalujen kehittyessä. Brittiläinen UCL (University College London) keräsi listan tekoälyyn liittyvistä uusista teknologioista, joiden rikollisista sovelluksista aiheutuu suurimpia haittoja 15 vuoden kuluessa. Listan ykköseksi sijoittui deepfake.

Tutkijoiden mielestä tekoälyn avulla luodut videodataa yhdistävät teokset ovat osoitus siitä, millaisia vääriä mielikuvia todellisuudesta on jo tällä hetkellä mahdollista luoda. Rikollisten käsissä näiden deepfake-teknologioiden käyttö laajenee ja uhkat skaalautuvat tulevina vuosina.

Deepfake-huijauksissa syväoppimisen (deep learning) avulla tehdään väärennettyjä videoita tai audiota, joissa esiintyjä tai puhuja on vaihdettu toiseksi henkilöiksi. Näin on mahdollista imitoida tunnettuja henkilöitä, joiden lähettämien väärien viestien avulla rikolliset pystyvät vaikuttamaan yleiseen mielipiteeseen, kuten vaalituloksiin, ohjaamaan pörssikursseja tai kiristämään uhreilta rahaa.

UCL:n tutkijat kokosivat tekoälyn mahdollistamien rikosten top 20 -listansa yliopistojen tutkimusten, uutisten ja asiantuntijoiden haastattelujen perusteella. Erilaisten uhkien aiheuttamia haittoja arvioitiin kaksipäiväisessä seminaarissa.

Deepfake on näkymätön uhka

Asiantuntijoiden mielipiteitä kyseltiin siitä, millaisia tuhoja ja taloudellisia hyötyjä rikolliset voivat tekoälyn avulla saada aikaan. Tekoälyn avulla tehtyjen rikosten helppous pantiin järjestykseen, samoin kuin niiden ennalta ehkäisyn vaikeusaste.

Vaikka deepfake-videot kuulostavat kesymmiltä vaihtoehdoilta kuin vaikkapa tappajarobotit tai robottiautojen ja dronejen kuskaamat pommit, on deepfake-teknologiaa erittäin vaikea havaita tai pysäyttää. Juuri tämän vuoksi asiantuntijat pitävät sitä pahan tekoälyn merkittävimpänä, ja usein näkymättömänä, uhkana.

ZDNetin mukaan viime aikoina on nähty paljon esimerkkejä poliitikkojen ja julkisuuden henkilöiden ryvettämisestä deepfake-videoiden avulla. Viime vuonna Facebook keräsi 2,5 miljoonaa katsojaa videolle, jossa Yhdysvaltain kongressin edustajainhuoneen puhemies Nancy Pelosi (dem.) vaikutti olevan juovuksissa.

Isossa-Britanniassa Future Advocacy -niminen organisaatio teki 2019 parlamenttivaalien alla deepfake-videon, jolla vastaehdokkaat Boris Johnson ja Jeremy Corbyn näyttivät tukevan toisiaan pääministeriksi. Asiantuntijoiden mielestä deepfake hämärsi vaaliasetelmia, vaikka itse videota ei pidetä kovinkaan pahantahtoisena.

UCL varoittaa deepfake-työkalujen kehittymisestä yhtä jalkaa tekoälyn algoritmien kanssa. Tulevina vuosina tekoäly uhkaa kansalaisten luottamusta uutisten video- ja audiomateriaaleihin.

Roboautot ovat lähiaikojen uhka

Ilkeän tekoälyn sovelluksilla on viisi muutakin tutkijoiden mielestä erittäin huolestuttavaa käyttötarkoitusta. Itseohjautuvat ajoneuvot ovat lähitulevaisuutta, ja näiden robottiautojen avulla esimerkiksi räjähteiden kuskaaminen on entistä helpompaa.

Tutkimus painottaa myös väärien uutisten luomia uhkakuvia. Tämä teknologia on jo paikallaan, eikä sen merkitystä yhteiskuntarauhan säilyttämiselle pidä lainkaan aliarvioida.

Yliopiston tieturvaväki viettää unettomia öitä myös tekoälyn avulla kohdennettujen phishing-iskujen takia. Näissä täsmäviesteissä vastaanottajan on lähes mahdotonta erottaa todellisuutta väärennetystä viestistä.

Tekoäly antaa kyberroistoille hyvät kiristysmahdollisuudet, kun sen avulla voidaan kerätä laajoja datasettejä ja kuluttajien yksityisiä tietoja vaikkapa sosiaalisaittien tai yrityksiin tehtyjen tietomurtojen kautta.

Viidentenä uhkakuvana tutkijat pitävät tekoälyn avulla hallittuja julkishallinnon tai finanssi- ja energia-alan sovelluksia. Näihin iskemällä kyberrikolliset tai terroristit voivat aiheuttaa suurta kaaosta katkomalla rahan, ruoan, veden tai sähkön jakeluverkot tai muut logistiset ketjut.

"Käärmeöljykin" riesana

Edelleen vakavana, mutta vähemmän huolestuttavana, vaarana tutkijat pitävät kakkosluokan ilkeää tekoälyä. Tähän kuuluu muun muassa käärmeöljyn myynti, mikä lontoolaisten sanastossa merkitsee väärennettyjen tekoälysovellusten kauppaamista aitoina tuotteina.

Käärmeöljyn myynti tarkoittaa muun muassa tekoälyn vääriin sovelluksiin perustuvien kelvottomien valheenpaljastuksen tai turvaluokitusten menetelmien kauppaamista.

Ja kuten alussa mainittiin, tekoälyn sotilaalliset sovellukset kaikkine robottiaseineen ovat väärissä käsissä vakava vaara. Tutkijat kuitenkin huomauttavat siitä, miten vaikeaa kyberrikollistenkaan on saada näitä aseita haltuunsa. Väärinkäyttö on toki mahdollista, mutta laajassa skaalassa ei kovin todennäköistä.

Listansa alapäässä UCL:n tutkijat pitävät tiettyjä matalan huolenaiheen kyberrikoksia eli ikään kuin tekoälyn pikkurötöksiä. Tähän luokkaan kuuluvat muun muassa taideväärennökset tai masinoidut some-suositukset. Kiinnostavaa on, että myös murtoihin kykenevät robotit eivät ole vakavina pidettyjä uhkia.

Mainitut pikkulaitteet keräävät yksityistä dataa älykodeista kolmannen osapuolen käyttöön. Iot-laitteisiin kytketyt murtorobotit kuulostavat pahaenteisiltä, mutta niiden käyttö on suhteellisen vaivatonta estää eikä niitä ole helppo skaalata tosirötöstelyn mittoihin.

Tekoäly skaalaa rötöksiä

Eräs listan tekijöistä, UCL:n tutkijaprofessori Matthew Caldwell painottaa juuri tekoälyn skaalautuvuutta ja ohjelmistojen helppoa siirrettävyyttä yhtenä pahan tekoälyn merkittävimpänä uhkana.

"Päin vastoin kuin perinteisissä rikoksissa, alamaailman toimijoiden on helppo myydä näitä ohjelmistoja, algoritmejä ja digirikosten välineitä eteenpäin. Tekoälyä hyödyntävien rikollisten resurssit lisääntyvät kaiken aikaa kehittyvän teknologian myötä", Caldwell sanoo.

Caldwell ja hänen tiiminsä varoittavatkin tekoälyn rikosten seuraavasta aallosta, jossa esimerkiksi kiristyshaittaohjelmistoja kaupataan caas (crime-as-a-service) -menetelmällä. Tummissa verkoissa näitä edistyneiden kyberroistojen kehittämiä digipalveluja on jo myyty edelleen vähemmän taitaville rikollisryhmille.