Reddit on kieltänyt niin sanottujen deepfake-pornovideoiden levittämisen alustallaan, Engadget kertoo. Jo aiemmin vastaavaan tulokseen ovat tulleet esimerkiksi Twitter ja jopa PornHub, joka ei halua palveluunsa ”tahdonvastaista pornoa”.

Deepfake-videoissa on kyse siitä, että videolla esiintyvien ihmisten kasvot on korvattu toisilla. Lopputulos on parhaimmillaan erittäin aidon näköinen. Videoita muokataan koneoppimisalgoritmilla, joka käyttää muokkausten mallina eri kulmista otettuja valokuvia kohteestaan.

Ilmiö sai alkunsa Redditissä, kun käyttäjä nimeltä deepfakes ryhtyi julkaisemaan itse kehittämiään pornovideoista, joissa esiintyjien kasvot oli korvattu yleensä julkkisnaisten kasvoilla.

Sittemmin koko ilmiö sai nimekseen Deepfakes ja kiinnostus kasvoi nopeasti. Pian deepfakes-käyttäjän alkuperäinen algoritmi jalostettiin helppokäyttöiseksi sovellukseksi, jolla kuka tahansa voi luoda väärennettyjä videoita muutamalla napinpainalluksella.

Nyt koko ilmiön alkulähteenä toiminut Deefakes-ryhmä Redditissä on suljettu. Sulkemisen aikaan ryhmässä oli runsaat 91 000 jäsentä. Samalla Reddit on päivittänyt käyttöehtojaan siten, että väärennetty pornosisältö on alustalla kielletty kokonaan.

Kaikkea Deepfake-sisältöä Reddit ei ainakaan toistaiseksi ole onnistunut alustalta kitkemään.

Sivusto on perustellut päätöstä sillä, että Redditistä halutaan luoda ”helposti lähestyttävä ja avoin alusta kaikille” eivätkä mahdollisesti kiusaamiseenkin liittyvät feikkivideot sovi sen kanssa yhteen.

Tähän mennessä Redditin lisäksi feikkipornon ovat kieltäneet myös Pornhhub, Gfycat sekä Discord.

Lähde: Tivi