Tekoälyt ovat nykyään sensaatiomaisen hyviä tunnistamaan ihmisten kasvoja. Tämän taustalla on pääsy lähes rajattomiin kasvojen tietokantoihin, joka on kaavittu kasaan verkon syövereistä.

Tekoälyjä kehitetään usein satunnaisilla verkosta löytyvillä kasvokuvilla, mikä on herättänyt kiperiä moraalisia kysymyksiä liittyen ihmisten yksityisyyteen. Esimerkiksi sosiaaliseen mediaan ladattu kuva saattaa lopulta päätyä tekoälyn oppimateriaaliksi.

Vastikään julkistettu verkkosivu Exposing.ai käy läpi julkisia kuvapankkeja tarkistaakseen, onko juuri sinun kuvasi päätynyt tekoälyn kehitykseen, Lifewire kirjoittaa. Valitettavasti alusta osaa tutkia ainoastaan Flickr-palveluun ladattuja kuvia.

Huoli on perusteltua, sillä uudet keinoälyt vaativat toimiakseen valtavaa kuvamääriä. Esimerkiksi Clearview AI:n kehitykseen on tarvittu 3 miljardia kuvaa.

Millä keinoilla kasvokuvia nuuskivan tekoälyn voi pitää etäällä juuri sinun selfieistä ja lomapotreteista? Vastaus tähän kysymykseen ei ole yksinkertainen. Yksi ratkaisu voisi periaatteessa olla Chicagon yliopiston kehittämä ohjelmisto Fawkes, joka vääristää kasvokuvaa niin, ettei tekoäly tunnista sitä.

Valitettavasti tämä ratkaisu ei välttämättä enää riitä, sillä esimerkiksi Microsoftin päivittynyt Azure osaa jo tulkita näitä kuvia.

Todellisuudessa paras keino on, noh, estää kuvien leviäminen verkkoon. Pidä siis sosiaalisen median tilisi salattuina, mikäli et halua kuviesi olevan vapaata riistaa verkossa.

Äärimmäisin ratkaisu olisi tietenkin sosiaalisesta mediasta luopuminen kokonaan, mutta tällainen omistautuneisuus voi olla monelle somettajalle ylivoimainen askel otettavaksi.