Pandemian aikana teknologiayhtiöt ovat kaupanneet tunteita tunnistavia ohjelmistojaan työntekijöiden ja jopa lasten etätarkkailuun, kirjoittaa professori Kate Crawford Nature-lehden näkökulmakirjoituksessa.

Crawford työskentelee tutkimusprofessorina Etelä-Kalifornian yliopistossa Los Angelesissa ja johtavana tutkijana Microsoft Research -tutkimuskeskuksessa New Yorkissa. Hän tutkii tekoälyn ja biometriikan käytön vaikutusta yhteiskunnassa.

Esimerkiksi Hongkongissa kehitetty 4 Little Trees -järjestelmän väitetään pystyvän tarkkailemaan lasten tunnetiloja näiden opiskellessa tunnilla. Järjestelmä kartoittaa kasvojen muotoja ja määrittelee siten oppilaiden tunnetilat eri kategorioihin, kuten onnellisuuteen, suruun, vihaan, inhoon, yllättyneisyyteen ja pelkoon.

Se myös mittaa motivaatiota ja ennustaa koulumenestystä. Samanlaisia työkaluja myydään etätyötekijöiden tarkkailemiseksi. Crawford mainitsee, että erään arvion mukaan tunteiden tunnistusteollisuus kasvaa 37 miljardin dollarin liiketoiminnaksi vuoteen 2026 mennessä.

Tutkijat ovat hyvin eri mieltä siitä, pystyykö tekoäly ylipäätään tunnistamaan tunteita. Vuonna 2019 tehdyssä tutkimuksessa siitä ei havaittu luotettavia todisteita.

Samaan aikaan kasvaa tieteellinen huoli näiden tekniikoiden väärinkäytöstä. Esimerkiksi Ada Lovelace -instituutin koolle kutsuma kansalaispaneeli on sitä mieltä, että oikeudellisen elimen pitäisi valvoa biometristen teknologioiden kehitystä ja käyttöä. Samoin monet tutkijat ovat sitä mieltä, että rekrytoinnissa käytettävien algoritmien pitäisi käydä läpi tuloksiltaan julkinen tarkka auditointi ennen käyttöä.

”Tällainen valvonta on välttämätöntä, jotta voimme puolustautua järjestelmiä vastaan, jotka perustuvat, kuten minä sitä kutsun, frenologiseen impulssiin. Siis siihen, että tehdään vääriä johtopäätöksiä ihmisen sisäisistä tiloista sekä kyvyistä ulkoisten merkkien perusteella – tarkoituksena saada henkilöstä selville enemmän kuin mitä hän suostuu paljastamaan”, Crawford kirjoittaa.

Crawford kiinnittää huomiota siihen, että lääkekehitys on erittäin tarkkaan säänneltyä. Myös niiden välineiden, jotka esittävät väitteitä mielenliikkeistä pitäisi olla samalla tavalla säänneltyjä. Tutkijat ovat jo vuosia vaatineet valtioita sääntelemään robotiikkaa ja kasvojen tunnistamista, ja sääntelyn pitäisi yltää myös tunteiden tulkintaan.

”Yhä myydään ohjelmistoja, jotka vaikuttavat ihmisten mahdollisuuksiin ilman selvästi dokumentoitua itsenäisesti auditoitua todistetta vaikuttavuudesta. Työnhakijoita arvioidaan epäreilusti, koska heidän ilmeensä tai äänensävynsä eivät käy yhteen työntekijöiden kanssa. Opiskelijoita liputetaan kouluissa, koska he näyttävät vihaisilta. Lisäksi on havaittu, että kasvontunnistusohjelmistot tulkitsevat mustien kasvojen näyttävän enemmän kielteisiä tunteita kuin valkoisten kasvojen”, Crawford kirjoittaa.

Hänen mukaansa on aika kumota myytti, että ihmisen sisäiset tilat ovat vain yksi datasetti muiden joukossa, jonka voi kerätä kasaan kasvoistamme.