Satuitko joitain kuukausia sitten huomaamaan uutisen ohjelmasta, jonka avulla on helppo vaihtaa videoista kasvot toisen henkilön kasvoiksi? Tämän FakeAppin avulla esimerkiksi Reddit-yhteisössä eräs käyttäjä onnistui jo toisella yrityksellä vaihtamaan laulaja Katy Perryn kasvot pornonäyttelijän kasvojen tilalle, eikä lopputuloskaan ollut hullumpaa tarkasteltavaa edes kasvojen kohdalta.

FakeApp on jälleen esimerkki siitä, mitä syväoppimisalgoritmeilla nykyään saadaan aikaiseksi. Aiemmin lähinnä scifi-elokuvien tai elokuvastudioiden maailmassa oli edes teoriassa mahdollista toteuttaa vastaava temppu uskottavasti. Nyt FakeApp tekee videomanipulaatiosta jokapojan hommaa.

Tekniseltä kannalta ajateltuna tämä toki on erittäin merkittävä saavutus. Mutta – ja iso mutta – samalla tämä menee sille tontille, jonka vuoksi muun muassa Elon Musk lienee huolissaan tekoälyn vaaroista.

Ei siinä mitään, jos omaksi huvikseen vaihtaa itsensä Harrison Fordin tilalle Indiana Jonesissa, tai jos leffatuotannossa stunt-miehen kasvojen tilalle vaihdetaan päänäyttelijän kasvot vaivatta. Epäilemättä myös jonnet tulevat vaihtamaan omat kasvonsa Jackass/Dudesons-pätkien temppuvideoihin ja esittelemään kavereilleen, että katsokaas kun minä sitä ja tätä.

Väärinkäytöksen mahdollisuudet ovat kuitenkin tässä tapauksessa todella suuret. Kostoporno, kiusaaminen, kiristäminen, poliittiset intressit, uutisten manipulointi – lista on rajaton.

YouTube ja kumppanit voivat yrittää tunnistaa väärennetyt videot kurkistamalla historiaan ja etsimällä videoita, jotka uusia kasvoja lukuunottamatta muistuttavat feikkivideota. Mutta on siinäkin kyllä työmaa.

Väärennösten tunnistaminen menee entistä hankalammaksi, jos video onkin kokonaan uutta tuotantoa ja vain kasvot on vaihdettu jälkeenpäin.

En hämmästyisi, mikäli nettirikollisuus lähiaikoina saisi uuden muodon: kiristyksen väärennettyjen videoiden avulla. Selitä siinä sitten vaimolle, että en minä tuossa videossa ole jonkun sutturan kanssa.

Entä mitä tekee suuryrityksen johtaja, jolle saapuu sähköpostiin uskottava video, jossa hän haukkuu oman yrityksensä pataluhaksi tai ahdistelee työntekijää seksuaalisesti? Ottaako riski ja antaa rikollisten julkaista väärennetty video ja sitten kertoa julkisuudessa että ei, tätä ei tapahtunut oikeasti? Vai maksaako suosiolla suojelurahat?

Entäs äänimaailma? Vielä toistaiseksi toisen henkilön puheäänen kopioimisessa on parantamisen varaa. Sekin on silti jo mahdollista.

Esimerkiksi Lyrebird-ohjelmiston tekijät väittävät jo minuutin ääninäytteen toiselta henkilöltä riittävän siihen, että kohdehenkilö saadaan sanomaan puhesampleissa mitä tahansa. No, Lyrebirdin tuotoksissa on vielä toivomisen varaa, mutta tarpeeksi lyhyissä tokaisuissa ne saattavat mennä läpi – kenties vielä taustalla olevan liikenteen, yökerhon tai muun hälyn kera.

Joka tapauksessa elämme tulevaisuudessa jo nyt. Päätä itse, onko tämä hyvä osa tulevaisuutta.

Kirjoittaja toimi MBnetin ylläpitäjänä 1999–2013 ja työskentelee nykyään Forcepoint-tietoturvayrityksessä järjestelmäsuunnittelijana sen maailmanlaajuisten projektien parissa.