Kohti vastuullista tekoälyä

Hakemuksen tiivistelmä

Toiminnan ja päätöksenteon ulkoistamisella tekoälylle voi olla eettisesti ongelmallisia seurauksia. Näitä voidaan yrittää ratkoa kahdella tavalla: joko kiinnittämällä huomiota tekoälyn käyttötapoihin ja -tilanteisiin (tekoälyn vastuullinen käyttö) tai ohjelmoimalla toiminta- ja päätöksentekoprosessit niin, että ne tunnistavat eettisesti latautuneita tilanteita ja rajoittavat toimintaansa tämän perusteella (vastuullisesti toimiva tekoäly). Hanke analysoi molempiin näkökohtiin liittyviä kysymyksiä nykyisen teknologian näkökulmasta. Ensiksikin kartoitamme, millainen rooli tekoälylle annetaan (erityisesti terveydenhoidon alan) käytännöissä. Näitä tilanteita arvioidaan toiminnan ja sen seurausten vastuun jakautumisen näkökulmasta (filosofinen vastuullisuuden teoria), mikä paljastaa mahdollisia eettisiä ongelmia ja tilanteita, joissa tekoälyn käyttötapaan tai käyttöön yleensä tulisi kiinnittää huomiota. Toiseksi tarkastelemme, millaisia konkreettisia valmiuksia tekoälysysteemeillä tulisi olla, jotta ne olisivat herkkiä toimintaympäristönsä eettisille piirteille. Valmiudet eivät voi perustua abstrakteille eettisille säännöille eivätkä kaikkien mahdollisten konkreettisten tilanteiden tunnistamiselle, vaan moraaliseen latautuneisuuteen luotettavasti linkittyvien yleisempien piirteiden (kuten kivun) tunnistamiselle. Tässä yhdistämme moraalin varhaisempien "rakennuspalikoiden" tutkimuksen tieteenfilosofista analyysiä ja soveltavaa etiikkaa.