Deepfake-videot, eli tekoälyn avulla kohdehenkilöä aidon näköisesti mallintavat videoväärennökset ovat keränneet osakseen julkisuutta parin viime vuoden aikana. Venturebeatin mukaan niiden rinnalle on nousemassa toinen ristiriitaisia tunteita aiheuttava teknologia.

Äänikloonaus tarkoittaa kohdehenkilön puheäänen tekoälypohjaista generointia siten, että tuloksena on vakuuttava väärennös henkilön puheesta. Yhdistettynä deepfake-videoihin äänikloonauksella voisi saada aikaan esimerkiksi oikeaa henkilöä täysin imitoivia seksivideoita, joita voi käyttää kiristystarkoituksiin.

Myös tietojenkalastelusähköpostien tehokkuus saattaisi nousta, sillä sähköpostia voisi seurata aidonkuuloinen puhelinsoitto viestin ”lähettäjältä”. Suuren yhtiön toimitusjohtajana esiintyvä ääniklooni voisi pahimmillaan saada pörssikurssit järkkymään tiedottaessaan vääristä tulosraporteista.

Ei niin pahaa, ettei jotain positiivistakin, sillä äänikloonauksella voidaan myös auttaa puhekyvyttömiä ihmisiä. Puhekyky voi kadota esimerkiksi als-taudin, Huntingtonin taudin tai autismin takia. Mikäli ääni on katoamassa, voidaan sitä tallentaa etukäteen keinotekoisen kopioäänen luomiseksi. Kenties myös mykkänä syntyneet lapset voisivat saada äänikloonauksen avulla puheäänen.

Kannattaa muistaa, että mitä tahansa teknologiaa voi käyttää hyvään ja pahaan. Siksipä ihmisten tietoisuus uusista teknologioista on ensiarvoisen tärkeää ja sillä voidaan tulevaisuudessa torjua monen keinoäänikoijarin kolttoset.