Kuvitelkaa itseohjautuva auto tilanteeseen, jossa auton eteen ryntää lapsi. Auton tekoäly joutuu tekemään salamannopean päätöksen: ajaako lapsen yli ja pelastaa matkustajansa vai väistääkö päin vastaantulevaa autoa ja surmata matkustajat mutta säästää lapsen?

Ratkaisua ei kuitenkaan tee tekoäly, vaan sen on joutunut ratkaisemaan jo etukäteen auton ohjelmiston koodaaja. Hän joutuu vaikean eettisen valinnan eteen.

Ostaisitko tappaja-auton?

Kun puhutaan koneiden etiikasta, autoesimerkki on usein käytetty, sillä tämänkaltainen tilanne voi tulla eteen jo aivan lähitulevaisuudessa, kun itseohjautuvat autot ensi vuosikymmenen aikana yleistyvät. Esimerkiksi Google on testannut omaa robottiautoaan vuodesta 2012, ja Tesla toi markkinoille oman autopilottiominaisuutensa lokakuussa 2014. Muut autovalmistajat seuraavat pian perässä.

Ainekset Skynetin olemassaololle ovat nenämme edessä.

Jo nyt käytössä on paljon sellaista tekniikkaa, jossa auto toimii hetkellisesti ilman kuljettajaa: ajovakauden hallintajärjestelmät, kaista-avustimet, automaattiset hätäjarrutukset, ilman kuljettajaa tapahtuva pysäköinti ja niin edelleen.

Entä jos hätätilanteessa ihmishengen pelastaminen vaatisi itseohjautuvalta autolta nopeusrajoituksen ylittämistä? Tekisikö se eettisesti oikein rikkomalla lakia? Tai kieltäytyisikö itseohjautuva auto ajamasta hätätilanteessa, jos sen renkaassa olisi alipaine tai ajovalo olisi palanut?

Stanfordin yliopiston professori Chris Gerdes on kehottanut tutkijoita, autoinsinöörejä ja autoteollisuuden johtajia kiinnittämään huomiota kehittämänsä teknologian eettisiin merkityksiin. Gerdes johtaa automaattisen ajamisen tutkimuslaboratoriota ja tutkii myös automaattisen ajamisen eettisiä ongelmia.

”Asia ei ole niin yksinkertainen, että tehdään itseohjautuviin autoihin kiinnitettävä etiikkayksikkö, joka ratkaisee kaiken. Nämä ovat todella hankalia päätöksiä, joita automaattisten kulkuneuvojen ohjainalgoritmien suunnittelijat tekevät päivittäin”, Gerdes sanoi MIT Technology Review’n mukaan.

Hyvä kysymys on sekin, kuka ylipäätään ostaisi auton, joka tiukan paikan tullen surmaisi kuljettajansa.

Hyvä ja paha robotti

Suomalaisen moraalipsykologin Michael Laakasuon johtamassa Moralities of Intelligent Machines -hankkeessa tutkitaan ihmisten tunteita robotteja kohtaan ja muun muassa sitä, millaisia moraalisia päätöksiä odotamme koneilta.

Autoesimerkki osoittaa Laakasuon mielestä sen, miten filosofien klassinen ajatuskoe niin sanotusta raitiovaunudilemmasta tulee pian myös oikeassa elämässä vastaan. Vuonna 1967 kehitetyssä ajatuskokeessa pohditaan, kenet sivullisen pitäisi pelastaa, kun raitiovaunu uhkaa vyöryä viiden raiteilla jumissa olevan ihmisen päälle ja sivuraiteellakin on yksi ihminen hengenvaarassa. Tämän vuoksi tulevaisuuden autoja suunnittelemaan tarvitaan myös eettisiä kysymyksiä hallitsevia filosofeja.

Robotti antoi lapsen hukkua ja pelasti aikuisen, jolla oli suurempi mahdollisuus selvitä.

”Moraalifilosofi on tulevaisuudessa todennäköisesti yhtä tärkeä itseohjautuvan auton valmistusvaiheessa kuin ohjelmoija”, Laakasuo ennustaa.

Koneiden moraali on kiehtonut tieteisfantasioiden kirjoittajia ja elokuvantekijöitä jo vuosikymmeniä. Scifin mestari Isaac Asimov hahmotteli koneiden etiikkaa määrittelemällä vuonna 1942 kirjoittamassaan Runaround-novellissa robotiikan kolme lakia:

1. Robotti ei saa vahingoittaa ihmistä eikä saa antaa ihmisen joutua vahingoitetuksi.

2. Robotin täytyy noudattaa ihmisiltä saamiaan käskyjä, paitsi silloin, kun käskyt ovat ristiriidassa ensimmäisen lain kanssa.

3. Robotin täytyy suojella omaa olemassaoloaan niin kauan kuin se ei ole ristiriidassa ensimmäisen ja toisen lain kanssa.

Ennen Asimovin lakeja robottitarinoissa toistui kaava, jota Asimov nimitti Frankenstein-syndroomaksi: luomisensa jälkeen robotti tappaa aina luojansa. Asimov hyödynsi luomiaan sääntöjä kirjoissaan, ja yksi tällaisen koneen eettisen valinnan klassikkokohtaus päätyi myös Asimovin robottikirjoihin väljästi perustuvaan Hollywood-tieteiselokuvaan I, Robot (2004).

Elokuvassa Will Smithin esittämä rikosetsivä muistelee auto-onnettomuutta, josta hän selvisi hengissä humanoidirobotin ansiosta. Robotti hyppäsi jokeen pelastamaan aikuisen miehen sen sijaan, että olisi yrittänyt auttaa hukkuvaa 12-vuotiasta tyttöä. Vedenvaraan joutuneiden elintoimintoja arvioinut kone teki valintansa kylmän logiikan perusteella: etsivällä oli 45 prosentin mahdollisuus selvitä ja lapsella vain 11 prosentin, joten robotti pelasti miehen välttääkseen riskin, että molemmat menehtyisivät.

”Se oli jonkun lapsi. 11 prosenttia on enemmän kuin riittävästi. Ihminen olisi tiennyt sen, mutta robotilla on sydämen paikalla vain valoja ja elektroniikkaa. Luottakaa vaan robotteihin, jos haluatte”, etsivä puuskahtaa elokuvassa.

Skynet on jo täällä

Terminator-elokuvat edustavat Frankenstein-syndrooman pahinta painajaista: ihmisen luoma Skynet-tietokoneverkko pyrkii tuhoamaan koko ihmiskunnan noudattaakseen ohjelmointinsa mukaista määräystä itsesuojelusta. Vaikka Skynet on tieteisfantasiaa, tutkijatohtori Michael Laakasuo ei pidä sitä mahdottomana tulevaisuudennäkymänä.

”Siitä ei ole pitkä aika, kun Google omisti robotteja valmistavan Boston Dynamics -yhtiön”, Laakasuo muistuttaa.

Muistattehan nuo kammottavat pitkäjalkaiset ja kovaäänisesti pörisevät BigDog-robottikoirat, joita Boston Dynamics kehitti ”tavarankuljetusta” varten Yhdysvaltain armeijalle? Tai saman yhtiön lumisessa metsässä kahdella jalalla hoipertelevat Atlas-robotit, jotka näyttävät Terminatoreilta. Molemmista löytyy YouTubesta ristiriitaisia tunteita herättäviä videoita.

”Myös Skynetiä kehitettiin elokuvissa alun perin sotateollisuuden tarpeisiin. Ainekset Skynetin olemassaololle ovat nenämme edessä. Kun saman internetfirman alla on sotateknologian kehitystä, yhtiön tuotteet ovat todennäköisesti enemmän tai vähemmän samaan tietoverkkoon kytkeytyneenä”, Laakasuo sanoo Googlen omistukseen viitaten.

Google osti Boston Dynamicsin 500 miljoonalla dollarilla (nykyrahassa 448 miljoonaa euroa) vuonna 2013. Maaliskuussa 2016 tuli julkisuuteen tieto, että Boston Dynamicsia ollaan taas myymässä. Kiinnostuneita ovat ainakin Toyota ja Amazon.

Laakasuolla on sotarobottien etiikasta vahva mielipide. Hän mainitsee Yhdysvaltain merivoimien miljoonilla rahoittaman hankkeen, jossa keinoälylle pyritään kehittämään moraali – ja moraali määriteltynä siten, että kone noudattaa lakia.

”Koneet pystyisivät jo ampumaan itsenäisesti, mutta juridisista syistä pitää olla ihminen päättämässä liipaisimen vetämisestä. En näe mitään muuta motiivia armeijalle kehittää moraaliprosessoria tai moraalista algoritmiikkaa koneelle kuin sen, että saadaan ihminen pois vastuuketjusta ja voidaan käydä entistä tehokkaammin sotaa. Tämä on asia, johon ihmiskunnan pitäisi suhtautua yhtä vakavasti kuin ydinaseisiin.”

Robotin vika!

Tappamisen lisäksi robotteja voidaan käyttää ihmisten hoivaamiseen, mutta sekään ei ole eettisesti yksinkertaista. Belgialaisvalmisteista Zora-hoivarobottia käytetään Suomessakin palvelutaloissa, kouluissa ja sairaaloissa. Robotin avulla hoidetaan muun muassa Alzheimer- ja Parkinson-potilaita. Fysioterapiassa Zora näyttää harjoitusliikkeitä, jolloin fysioterapeutti voi keskittyä ihmisten auttamiseen.

Zoraa valmistavan Zora Roboticsin omistaja ja toimitusjohtaja Tommy Deblieck ei näe eettisiä ongelmia Zoran koodaamisessa.

”Se on vain koodia, mutta Zoran käyttö on eri juttu. Emme ole halunneet ottaa vastuuta siitä, että Zora vastaisi käyttäjälle omin päin. Jos esimerkiksi vanhus sanoisi Zoralle, ettei voi hyvin ja haluaa hypätä ikkunasta, ja Zora ymmärtäisi tämän väärin ja kannustaisi, että hyvä, tee se.”

Deblieckin mukaan Zora vetoaa ihmisten tunteisiin pienellä koollaan. Koska Zora on kuin lapsi, vanhukset avautuvat sille aivan eri tavoin kuin aikuiselle ihmisterapeutille. Kun terapeutti laitetaan eri huoneeseen tietokoneen ääreen, hän voi käyttää Zoraa keskustelemaan vanhusten kanssa.

Ihmishoitajat ovat pelänneet hoivarobotin vievän heiltä työt, mutta Deblieck sanoo, että Zora toimii hyvin vain silloin, kun ihminen sen takana tekee työnsä hyvin.

Michael Laakasuo pohtii hoivarobotin eettisiä kysymyksiä potilasturvan ja yksityisyyden kannalta.

”Jos hoivarobotissa on mikrofoni ja videokamera, paljonko se tallentaa dataa potilaasta? Onko ylipäätään oikein, että tietoja tallennetaan ja pysyvätkö tiedot luottamuksellisina? Entä miten estetään se, ettei robottia hakkeroida?”

Laakasuo visioi tilanteen, jossa reseptejä lukevan hoivarobotin potilastietokanta on jäänyt päivittämättä ja robotti syöttää potilaalle vääränlaisia lääkkeitä.

”Jos sitten käykin ilmi, että potilas saa komplikaatioita tai kuolee väärän lääkityksen seurauksena, kenellä on vastuu? Onko se lääkärillä, sairaalainstituutiolla, robotilla, robotin ohjelmoijalla tai valmistajalla vai palvelun tilaajalla, koska se mahdollistaa tällaisen järjestelmän olemassaolon?”

Mietitään sitä tulevaisuudessa

Ohjelmoijien koulutuksessa eettisten kysymysten painotus on kasvamassa. Helsingin yliopiston tietojenkäsittelytieteen apulaisprofessorin Teemu Roosin mukaan etiikka on jo jossain määrin mukana ainakin Helsingin yliopiston koulutuksessa.

”Esimerkiksi itse opettamallani kurssilla Johdatus tekoälyyn käsitellään jonkin verran tekoälyyn liittyviä eettisiä kysymyksiä. Aiheeseen ei ainakaan kyseisellä kurssilla syvennytä pintaraapaisua enempää, koska todelliset uhkakuvat lienevät ajankohtaisia aikaisintaan vuosien tai vuosikymmenien päästä.”

Roosin mukaan etiikka sisältyy myös pakollisena matemaattis-luonnontieteellisen tiedekunnan jatko-opintokokonaisuuksiin, eli tohtoriksi opiskelevien opintoihin sisältyy pieni määrä etiikkaa ja tieteenfilosofiaa. Se liittyy lähinnä tieteen etiikkaan, kuten esimerkiksi plagiointikysymyksiin.

Tutkijatohtori Michael Laakasuo on herätellyt myös lainsäätäjiä miettimään robottien eettisiä kysymyksiä. Tietoyhteiskuntatyöryhmä järjestikin keskustelutilaisuuden robottilaista eduskunnassa kesäkuun alussa.

Liikenteen turvallisuusvirasto Trafi on ilmoittanut haluavansa tehdä Suomesta digitaalisen ja innovatiivisen liikenteen koekentän. Käytännössä se tarkoittaisi sitä, että Suomi olisi eturintamassa testaamassa esimerkiksi itseohjautuvien autojen käyttöä liikenteessä. Suomen nykyinen lainsäädäntö ei tätä estä, sillä laissa ei ole määritelty, että kuljettajan pitäisi olla autossa sitä ohjatessaan.

Automaattiajaminen on kuitenkin lain kannalta harmaalla alueella, sillä Suomen lait on tehty ennen itseohjautuvia autoja.

”Meidän tulisi varautua siihen, että jos ei lakeja, niin ainakin julkista normistoa pitää muuttaa siten, että se ottaa huomioon teknologian kehityksen”, Laakasuo sanoo.

Testi julkaistu alun perin Mikrobitin numerossa 8/2016.