Kohti vastuullista tekoälyä

Application summary

Toiminnan ja päätöksenteon ulkoistamisella tekoälylle voi olla eettisesti ongelmallisia seurauksia. Näitä voidaan yrittää ratkoa kahdella tavalla: joko kiinnittämällä huomiota tekoälyn käyttötapoihin ja -tilanteisiin (tekoälyn vastuullinen käyttö) tai ohjelmoimalla toiminta- ja päätöksentekoprosessit niin, että ne tunnistavat eettisesti latautuneita tilanteita ja rajoittavat toimintaansa tämän perusteella (vastuullisesti toimiva tekoäly). Hanke analysoi molempiin näkökohtiin liittyviä kysymyksiä nykyisen teknologian näkökulmasta. Ensiksikin kartoitamme, millainen rooli tekoälylle annetaan (erityisesti terveydenhoidon alan) käytännöissä. Näitä tilanteita arvioidaan toiminnan ja sen seurausten vastuun jakautumisen näkökulmasta (filosofinen vastuullisuuden teoria), mikä paljastaa mahdollisia eettisiä ongelmia ja tilanteita, joissa tekoälyn käyttötapaan tai käyttöön yleensä tulisi kiinnittää huomiota. Toiseksi tarkastelemme, millaisia konkreettisia valmiuksia tekoälysysteemeillä tulisi olla, jotta ne olisivat herkkiä toimintaympäristönsä eettisille piirteille. Valmiudet eivät voi perustua abstrakteille eettisille säännöille eivätkä kaikkien mahdollisten konkreettisten tilanteiden tunnistamiselle, vaan moraaliseen latautuneisuuteen luotettavasti linkittyvien yleisempien piirteiden (kuten kivun) tunnistamiselle. Tässä yhdistämme moraalin varhaisempien "rakennuspalikoiden" tutkimuksen tieteenfilosofista analyysiä ja soveltavaa etiikkaa.

Hankkeen tavoite oli tutkia mahdollisuuksia toteuttaa vastuullista tekoälyä kahdesta eri lähestymisuunnasta, jotka ovat tekoälyn vastuullinen käyttö ja vastuullisesti toimiva tekoäly. Molemmissa suunnissa on tehty merkittäviä edistysaskelia ja ainoastaan alunperin suunnitellut terveydenhuoltoon liittyvät tapaustutkimukset jäivät koronapandemian takia toteuttamatta. Hankkeen pääsaavutus on ollut filosofisten perusteiden kehittäminen vastuullisen tekoälyn ymmärtämiseksi. Olemme kehittäneet yleisen filosofisen teorian siitä, mitä on vastuullinen insititutionaalinen toimijuus ja kuinka sitä voidaan toteuttaa uusien teknologioiden kuten tekoälyn ja robotiikan kehittämisesssä ja käyttöönotossa. Teorian mukaan tärkein kriteeri vastuulliselle toimijuudelle on responsiivisuus moraalisille perusteille, ja sitä voidaan edistää institutionaalisilla järjestelyillä, jotka antavat ihmisille vastuita ja velvollisuuksia ottaa moraaliset perusteet huomioon heidän toimiessaan institutionaalisissa rooleissa ja tehtävissä. Tämä ratkaisee filosofisen ongelman siitä, kuinka institutionaaliset toimijat kuten organisaatiot voivat toimia moraalisesti vastuullisesti vaikka ne eivät ole varsinaisia moraalisia toimijoita. Lisäksi se siirtää vastuullisuustarkastelujen pääpisteen taaksepäin suuntautuvasta vastuusta eteenpäin suuntautuvaan vastuuseen: tärkein kysymys vastuullisessa tekoälyssä ei enää ole: "Kenen syy, että harmi tapahtui?" vaan "Kuinka varmistamme, ettei harmia pääse tapahtumaan?" Toisaalta olemme myös identifioineet lupaavimman tavan kehittää vastuullisesti toimivaa tekoälyä: Se ei nähdäksemme ole moraalisääntöjen ohjelmoiminen järjestelmiin tai niiden oppiminen ympäristön palautteesta, vaan lähestymistapa, joka simuloi ihmisten evolutiivista kehityshistoriaa, joka on antanut meille moraalia ennakoivia kykyjä kuten kyvyn empatiaan.