Tarinat ja julkaisut

10.03.2016

Voiko robotti toimia eettisesti?

Robottien ja ihmisten vuorovaikutus ei ole enää vain science fictionia. Automatisoidut kulkuvälineet, opetus- ja hoivatyön apulaiset ja sotarobotit ovat kokeiluasteella tai jo pioneerikäytössä.

Internetissä toimivia softarobotteja ei edes huomaa, mutta jokaisella googlauksella algoritmi päättää esimerkiksi aiemman klikkaushistorian ja maantieteellisen sijainnin perusteella, mitä netistä näytetään.

Roboteilla ei vielä pitkiin aikoihin tule olemaan sellaisia kognitiivisia kykyjä, että niitä voitaisiin pitää itsenäisinä toimijoina, joita sitten voitaisiin arvioida moraalisesti tai jotka olisivat eettisiä toimijoita tässä tiukassa mielessä. Ne ovat vain koneita. Mutta valintoja ne kyllä tekevät, ennalta ohjelmoituja tai – enenevissä määrin – oppimisalgoritmeilla omaksuttuja. Olisi tietysti suotavaa, jos näiden valintojen seuraukset olisivat sopusoinnussa eettisten arvioidemme kanssa. Tämä herättää kolme kysymystä: Millaisten sääntöjen mukaan robottien pitäisi toimia? Miten nämä säännöt voidaan käytännössä implementoida?

Kenen on vastuu, jos robotin toiminta tai sen seuraukset ovat eettisesti epätoivottavia? Nämä ovat kaikki kysymyksiä, joita olisi syytä pohtia etukäteen, ei vasta robottien käytön yleistyttyä.

Aloitetaan vastuukysymyksestä. Koska robotti ei ole moraalisen toiminnan subjekti, sen ei voida pitää eettisesti vastuussa. Tämä jättää neljä vaihtoehtoa. Ensiksikin vastuussa voi olla ohjelmoija, joka on vastuussa robotin toiminnasta ja valinnoista, joita se tekee. Toisaalta robotin käyttäjä voi olla vastuussa toiminnasta, jos robottia käytetään sellaisessa ympäristössä, johon sitä ei ole suunniteltu. Kolmanneksi vastuu voi olla molempien. Mutta neljäs vaihtoehto on, että kukaan ei ole vastuussa jostakin yksittäisestä robotin teosta.

Moraalinen vastuu edellyttää ainakin teon itsensä intentionaalisuutta ja mahdollisuutta ennakoida sen seurauksia. Teko voi olla moraalisesti tuomittava, vaikka tähän tuomioon johtavat seuraukset eivät olisikaan aiottuja tai edes ennakoituja – kysymys on, olisiko ne pitänyt tajuta ennakkoon. On aina mahdollista, että kukaan ei ole vastuussa jostakin yksittäisestä ikävästä seurauksesta. Mutta jos robottien otto käyttöön jossakin tilanteessa (esimerkiksi korvaamaan bussikuskeja) johtaa toistuvasti epäeettisiin seurauksiin, tästä käyttöönotosta itsessään tulee moraalisesti tuomittava valinta ja päättäjät ovat vastuussa. Vastuukysymykset ovat tapauskohtaisia, mutta olisi varsin toivottavaa miettiä niihin liittyviä moraalifilosofisia kysymyksiä erikseen ennen robottien käyttöönottoa, kussakin käyttöönottokontekstissa erikseen – ja ehkä tarvetta on jopa uudelle lainsäädännölle, jossa moraalinen vastuu saisi juridisen ilmaisun.

Mitä sääntöjä roboteilla sitten pitäisi olla? Tämä riippuu siitä, mihin tarkoitukseen robotteja käytetään. Robottien toiminta ei tietenkään saa olla sellaista, että sen seuraukset ovat epäeettisiä yleispätevien moraalinormien valossa. Mutta robotit eivät ole samanlaisia yleistoimijoita kuin ihmiset, joten pienempi määrä tilanteita ja periaatteita on tarkoituksenmukaista huomioida ohjelmoinnissa. Toisaalta roboteille voidaan sysätä sellaisia vastuita, joita emme ihmiseltä edellyttäisi – esimerkiksi itsensä uhraaminen paljon kevyemmin perustein. Roboteilla voi olla myös samantapaisia erityisiä eettisiä velvollisuuksia kuin erilaisten ammattiryhmien jäsenillä (kuten lääkäreillä). Tämä voi tosin tulla ongelmalliseksi, jos meillä joskus on kognitiivisesti huomattavasti kehittyneempiä robotteja, joilla alkaa jo olla omiakin oikeuksia, samaan tapaan kuin joillakin eläimillä on joitakin oikeuksia, vaikka eivät ihmisiin verrattavia olisikaan. Tähän on vielä matkaa, mutta robottien kohtelulla on kuitenkin toinenkin puoli.

Ihmisillä on taipumus antropomorfisoida eläimiä ja esineitäkin. Varsinkin, jos robotti muistuttaa ihmistä ja toimii näennäisesti inhimillisillä tavoilla, ihmiset hahmottavat ne inhimillisinä toimijoina – ja varsinkin, jos niiden kanssa voi keskustella. Jos robotteja käytetään tavoilla, jotka olisivat epäeettisiä ihmiselle, robottien kanssa työskentelevien ihmisten moraalitunteet voivat vahingoittua. Esimerkiksi robottien ”raaka” käyttö voi raaistaa ihmisiä. Tästä syystä myös moraaliset velvollisuudet ihmisiä kohtaan asettavat rajoitteita robottien keinotekoisille velvollisuuksille – ja ehkä jonkinlainen itsesuojelu täytyisi olla eettinen normi roboteillekin. Mutta kiireellisintä on saada hahmotettua, millaisten eettisten sääntöjen rajoittamaa lähiaikoina käyttöön otettavien ja yleistyvien robottien toiminnan pitäisi olla. Vastaus tähän tuskin tulee ilman robottien soveltajien, insinöörien ja soveltavien eetikoiden läheistä yhteistyötä.

Kolmas kysymys on, miten nämä säännöt voitaisiin soveltaa käytäntöön. Edes kehittyneet robotit eivät voisi vain omaksua abstrakteja moraalisääntöjä, ellei niillä ole kykyä tulkita, mitä niiden soveltaminen missäkin tilanteessa tarkoittaa – tai edes tunnistaa moraalisesti relevantteja tilanteita ja sitä, mikä niissä on morallisesti relevanttia. Helppo tapaus on sellainen, jossa robotilla on rajallinen määrä toimintavaihtoehtoja rajallisessa määrässä tilanteita. Robotti voidaan yksinkertaisesti ohjelmoida niin, että se toimii kulloisessakin tilanteessa oikein. Ohjelmoija tekee eettiset valinnat. Riittää, että robotti poimii toimintaympäristöstään jonkin signaalin, jonka ohjelmoija tietää olevan luotettava signaali moraalisesti relevantista tilanteesta, ja tämän tunnistettuaan robotti toimii ennalta ohjelmoidulla, tilanteeseen sopivalla tavalla. Monimutkaisemmaksi tilanne tulee, kun roboteista tulee oppivampia ja niiden käyttäytymisestä joustavampaa. Uuden käyttäytymisen eettisten rajoitteiden täytyy silloin liittyä siihen, millaisia uusia toimintatapoja robotti voi omaksua. Asia monimutkaistuu myös silloin, kun eettisesti merkittävät piirteet ovat abstraktimpia. Yleiskäyttöisille roboteille ei voi vain ohjelmoida estoa tökätä ihmistä, vaan antaa sääntö olla aiheuttamatta kipua, ja tämä edellyttää kivuliaiden tilanteiden tunnistamista.

Todennäköisesti robottien eettistä toimijuutta ei voida toteuttaa niin, että ne joka hetki kävisivät läpi listan moraalisesti merkittäviä tilanteita ja vertaisivat niitä ympäristöstä tuleviin signaaleihin. Tämä veisi liikaa prosessointitehoa. Mutta hyvä uutinen on se, että eivät ihmisetkään niin tee – ihmisten moraalikognitio ei toimi niin, että jatkuvasti soveltaisimme abstrakteja moraaliperiaatteita kaikissa uusissa tilanteissa. Tunnistamme moraalisesti relevantteja piirteitä esimerkiksi sosiaalisissa tilanteissa paljon varhaisemmassa vaiheessa sosiaalisten havaintojen kognitiivista käsittelyä ja kategorisointia. Reaktiot ja päätökset näissä tilanteissa ovat intuitiivisia ja automaattisia ja pikemminkin moraalitunteiden kuin järkeilyn ohjaamia – moraalinen harkinta tulee mukaan vasta monimutkaisissa ja uusissa tilanteissa ja uusien periaatteiden omaksumisessa. Jos roboteille halutaan rakentaa eettisesti sensitiivistä kognitiota ja mallina käytetään ihmisen moraalipäättelyä, olisi järkevämpää aloittaa tästä tiedostamattomasta ja vaistonvaraisemmasta osasta moraalikognitiota.

Samalla törmäämme kuitenkin vakavaan haasteeseen. Ihmisen moraalikognitio hyödyntää sellaisia valmiuksia ja taipumuksia, jotka ovat evolutiivisesti vanhempia kuin moraalisuus. Kuten kaikki evolutiivinen kehitys, myös moraalin kehitys on rakentunut vanhalle, sitä muunnellen ja siihen lisäten. Tämä näkyy siinäkin, että moraalin ”rakennuspalikoita” löytyy monilta eläimiltä, joita ei vielä varsinaisesti voida pitää moraalisina toimijoina.

Myös teknologian evoluutiossa on samanlaisia polkuriippuvuuksia kuin biologisessa evoluutiossa: uudet ratkaisut rakennetaan olemassa olevien ”päälle” ja niitä muokkaamalla, eikä toimivia perusratkaisuja ryhdytä helposti miettimään uudelleen alusta. Ihmisen moraalikognition ja moraalitunteiden taustalla on sosiaaliseen elämään liittyviä kykyjä ja taipumuksia kuten empatia, vastavuoroisuus ja yhteisöllisten normien sisäistäminen. Jos roboteilla ei ole tarvetta tällaisille taipumuksille, niiden muuttaminen moraalisiksi toimijoiksi siinä vaiheessa, kun siihen on tarvetta, voi olla hyvin hankalaa.

Robottien eettisen toiminnan perusta täytyy rakentaa sisään niiden toimintaan alusta asti, jo ennen kuin siihen on varsinaisesti tarvetta.

Muuten voi olla myöhäistä. Se, miten tämä toteutetaan, onkin sitten vaikeampi kysymys. Mutta ehdottaisin, että vastaus löytyy yhteistyöllä erilaisten ryhmien välillä: robotiikkainsinöörit, moraalipsykologit, eläinten protomoraalisten taipumusten ja moraalin evoluution tuntijat, robottien toimintaa pohtivat moraalifilosofit ja – miksi ei? – tieteiskirjailijat, sekä tulkkeina, tulkitsijoina ja salonkikriitikoina tieteenfilosofit.

Kirjoittaja

Tomi Kokkonen

Käytännöllisen filosofian tutkijatohtori, Helsingin yliopisto