Tarinat ja julkaisut Eri reittejä 10.02.2022 Eri reittejä: Algoritmit pöyristyttävät, ärsyttävät ja ihastuttavat – ja sitovat meidät Facebookiin ja Googleen Kuvitus: Hans Eiskonen Eri reittejä -juttusarja Eri reittejä -jutut kutsuvat sinut mukaan poluille, joita tutkijat kulkevat tiedettä tehdessään. Sarjassa vaihtuvat kirjoittajat paneutuvat Koneen Säätiön rahoittamiin tutkimushankkeisiin. Sarjaa tuottaa Tuomo Tamminen, ja sitä kustantaa Koneen Säätiö. Avainsanat algoritmit, sosiaalinen media, tunteet Jaa: Verkkokauppojen ja sosiaalisen median algoritmit ovat tyhmempiä kuin luulemme, mutta silti ne onnistuvat tökkimään tunteitamme. Toimittaja Johanna Vehkoon jutussa tutkija Minna Ruckenstein kertoo, miten datajättien algoritmit ovat vaivihkaa uineet arkeemme ja alkaneet kilpailla vapaa-ajastamme jopa unta vastaan. Teksti Johanna VehkooKuvitukset Hans Eiskonen Toukokuussa 2021 sosiaalisessa mediassa ja internetin keskustelupalstoilla alkoi levitä huhu, jonka mukaan Iltalehti sensuroi kommenttipalstaansa. Perusväite kuului suunnilleen niin, että Sanna Marinia tai muita vasemmistolaisia ja vihreitä poliitikkoja tukevat kommentit poistettiin, kun taas perussuomalaisille myönteiset kommentit menivät läpi. Teoria sai pontta siitä tosiseikasta, että Iltalehti on ulkoistanut kommenttipalstojensa moderoinnin Utopia Analyticsille, jonka perustaja ja hallituksen puheenjohtaja on perussuomalaisten kansanedustaja Tom Packalén. Moderointi on pääosin algoritmin tekemää. Oletettua sensurointia käsitelleiden kirjoitusten sävy oli pöyristynyt. Väitteet levisivät sen verran laajalle, että päätoimittaja Perttu Kauppinen alkoi vastailla kyselijöille ja selittää, miten Iltalehden moderointi toimii. ”Tästä tuli minulle suoraan kymmeniä yhteydenottoja”, Kauppinen kertoo. Hän selitti kyselijöille, että algoritmi ei tee kaikkea Iltalehden moderointia, vaan STT:n ihmismoderaattorit hoitavat osan. Sekä algoritmi että ihminen tekevät moderointivirheitä. Kone oppii ihmisen työn perusteella, mutta myös inhimillisten virheiden mahdollisuus siirtyy ihmiseltä koneelle. Myös lehden uutispäälliköt vastailivat kyselijöille sähköpostitse. Moni kyselijä sai jopa nähdä omien kommenttiensa moderointipäätökset. Niistä selvisi, mitkä päätökset olivat ihmisen ja mitkä koneen tekemiä. Virheellisiä poistoja kyllä tapahtui, mutta tyypillisesti ne olivat ihmisen tekemiä. Iltalehti julkaisi myös artikkelin, jossa se selitti, ettei sen moderointisysteemi suosi perussuomalaisia. ”Sivuillemme tulee 300–400 000 kommenttia kuukaudessa. Emme koskaan tule pääsemään täydelliseen tilanteeseen, jossa kone- tai ihmismoderaattorit tekevät vain oikeita päätöksiä”, Kauppinen sanoo. Lehden omassa selvityksessä ei löytynyt mitään näyttöä siitä, että perussuomalaisen kansanedustajan firma olisi säätänyt tekoälynsä suosimaan perussuomalaista ajattelua. Mystiikkaa ja mustaa magiaa ”Tämä on tosi hyvä esimerkki siitä, millaisia tunteita algoritmit ihmisissä herättävät”, sanoo tutkija Minna Ruckenstein. Hän työskentelee Helsingin yliopiston Kuluttajatutkimuskeskuksessa apulaisprofessorina. Ruckenstein on tutkinut eri näkökulmista algoritmeja ja ihmisten käsityksiä niistä vuosien ajan. Parhaillaan hän kirjoittaa kirjaa algoritmeista ja tunteista. Toinen aihetta liippaava opus, australialaisten kollegojen kanssa toimitettu kirja arjen automaatiosta ilmestyi toukokuussa 2022. Syksyyn 2023 asti jatkuvassa Algoritmin kulttuuri -hankkeessa Ruckensteinin kansainvälinen työryhmä tutkii muun muassa keskustelujen moderointia, tekoälyetiikan kehittymistä ja ruotsalaista sosiaalietuuksista päättävää algoritmia, jonka nimi on Algot. Hankkeen teemoja ovat arki ja tunteet, valta ja talous, etiikka ja teknologia. ”Algoritmeihin liitetään arkikeskustelussa monenlaista mystiikkaa ja mustaa magiaa. Arkisia kokemuksia ja tunnereaktioita tutkimalla voimme päästä lähemmäs myös aiheeseen liittyvää poliittista keskustelua ja teknologiakritiikkiä.” Monet tutkijat puhuvat algoritmisista järjestelmistä. Tässä jutussa termiä ei käytetä, koska algoritminen järjestelmä toimii jossakin tietyssä teknisessä ympäristössä. Ruckenstein puhuu nyt algoritmeista sosiaalisessa ja arkisessa merkityksessä. ”Kun puhun tunteista ja algoritmeista, en tarkoita faktuaalisia algoritmeja, vaan jotakin mihin ihmiset reagoivat. Ne ovat kulttuurisessa mielikuvituksessa. Algoritmi on tässä tavallaan irtautunut siitä, mitä se oikeasti on teknologian kehittämisen kentällä.” Ruckenstein on nimittäin huomannut, että kun ihmisten kanssa alkaa puhua algoritmeista, ihmiset alkavat puhua digitaalisiin ympäristöihin liittyvistä tunteista. Algoritmi ei jätä ketään kylmäksi. Kuvitus: Hans Eiskonen No miksei se algoritmi sitten tunne minua? Toinen esimerkki algoritmien herättämistä tunteista on sitkeästi elävä uskomus siitä, että Facebook salakuuntelee käyttäjiensä keskusteluja heidän puhelintensa kautta. Tiedättehän kertomustyypin: ”Olin kävelyllä ystävän kanssa ja keskustelimme tietyn merkin tennareista ja heti kun avasin Facebookin, siellä oli juuri näiden tennareiden mainos.” Näitä tarinoita on kerääntynyt Ruckensteinin tutkimusprojektiin suuri määrä. On erilaisia teorioita siitä, miten kuunteleminen tapahtuu ja millaisia asioita se koskee, mutta yhteistä tarinoille ovat oudot yhteensattumat ja niiden pitäminen todistusvoimaisina. Facebook on aina kieltänyt puheluiden tai muiden keskustelujen kuuntelemisen. Ei ole mitään todisteita, että Facebook vakoilisi ihmisten keskusteluja puhelinten mikrofonien kautta. Se saa meistä tarpeeksi tietoa muutenkin. ”Tästä puhelinkuuntelusta on tullut niin kutsuttu affektiivinen fakta”, sanoo Ruckenstein. Se tarkoittaa asiaa, joka tuntuu todelta sen sijaan että sille olisi varsinaisia todisteita. Affektiivinen fakta myös vahvistuu tiedon kiistämisestä. ”Jos Facebook sanoo, että ei me kuunnella puhelimia, ihmiset ajattelevat, että sehän nyt on just sellaista, mitä Facebook tekisi. Ihmiset pitävät omaa kokemustaan liiankin osuvien mainosten saamisesta tarpeeksi pitävänä todisteena siitä, että puhelinta kuunnellaan.” Loputtomasta mainosvirrasta pistävät silmään erityisesti ne, jotka liittyvät ihmisen omiin haavoittuvuuksiin. Nainen, joka ei ole tullut raskaaksi tai ei edes halua saada lapsia, huomaa itselleen tyrkytetyt hedelmöityshoidot tai raskaus- ja ovulaatiotestit. Kaljuuntuvaa miestä häiritsevät hiusimplanttimainokset. Taas syntyy tunne siitä, että on jonkinasteisen vakoilun kohteena. ”Meidän tutkimuksessamme on tullut esiin tosi paljon ärtymystä näitä raskaustestejä kohtaan”, Ruckenstein sanoo. ”Todellisuudessa suomalaiset aineistot ovat niin pieniä, ettei mainoksia edes pysty kohdentamaan juuri sille naiselle, joka haluaa raskaaksi. Targetointi on paljon simppelimpää: ikä, sukupuoli, asuinpaikka.” Sanomalehden aukeamaa selaillessaan tai kadulla kävellessään hedelmöityshoitomainosta tuskin huomaa, ellei sitten etsi juuri sellaista. Sosiaalisessa mediassa mainos tunkeutuu omaan algoritmien kuratoimaan sisältöjen virtaan. Se tuntuu herkästi paljon henkilökohtaisemmalta. ”Mainos tulee lähelle hyvin intiimillä tavalla, koska siitä puuttuu julkinen tila. Mainonta tunkee ihmisen henkilökohtaiseen tilaan, ja se saa aikaan tunnereaktioita ihan eri tavalla.” Hänen mukaansa ihmiset oppivat verkkomainosten avulla algoritmin logiikkaa, kun he huomaavat, että heidän palvelulle antamansa tieto tulee jossain muodossa takaisin. ”Tämä on arjen algoritmiymmärryksen näkökulmasta tärkeää.” Ruckensteinin mielestä on mielenkiintoista, että Facebookin tykkäysnappiin ei liitetä vastaavia salaliittoteorioita, vaikka syytä kenties olisi. ”Tykkäysnappi on se, joka kerää koko ajan tietoa käyttäjistä. Sillä on huomattavasti vakoiluvoimaa, mutta se ei ole saanut aikaan tätä kokemusta vakoilusta.” Facebookin tykkäysnappeja on nimittäin lukemattomilla muillakin verkkosivuilla, ei pelkästään Facebookissa. Jos olet viime aikoina kirjautunut Facebookiin, palvelu pystyy seuraamaan käyntejäsi muilla sivustoilla, joilla tykkäysnappi esiintyy. Sitä ei ole tarpeen edes klikata. Itse asiassa Facebook tallentaa jonkin verran dataa myös käyttäjistä, joilla ei edes ole Facebook-tiliä tai eivät ole tililleen kirjautuneina. Firma kertoo tästä itse sivuillaan, mutta varsin yleisellä tasolla: ”Saamme informaatiota verkkosivustosta, jolla vierailet, päivämäärästä ja kellonajasta sekä muuta selaimeen liittyvää informaatiota.” Google säilyttää käyttäjien selausdataa vain kaksi viikkoa, mutta Facebook tiettävästi peräti kolme kuukautta. Firma väittää, ettei se käytä dataa käyttäjien seurantaan. Facebookin mukaan data on anonymisoitu, eikä sitä voi yhdistää tiettyihin käyttäjiin. Mutta mainosten kohdentamiseen laajemmassa mittakaavassa sitä kyllä käytetään. Vastaavaa ärsyyntymistä esiintyy esimerkiksi silloin, kun ihmiset valittavat Spotifyn kerrassaan typeristä ja aivan sopimattomista musiikkisuosituksista. Minähän kuuntelen ainoastaan sofistikoitunutta musiikkia, miksi minulle tyrkytetään Arttu Wiskaria! Jos kerran palvelu on räätälöity minulle, olisi sitten räätälöity kunnolla! ”Ihmisten odotukset algoritmien kyvykkyyttä kohtaan ovat hyvin korkealla, ne ovat jopa suhteettomia”, Ruckenstein toteaa. ”Ajatellaan, että tekoäly tulee ja ratkaisee kaikki vaikeat ongelmat, joiden edessä me ihmiset olemme ihan pulassa. Tekoäly ratkaisee köyhyyden, koska se osaa allokoida resurssit fiksummin. Ilmastonmuutos ratkotaan tekoälyn mallinnuksilla, jotka näyttävät, miten asiat pitäisi tehdä. Näinhän ei tietenkään käy.” Digitaalisen maailman pelon maantiede Ruckenstein käyttää työssään Raymond Williamsin tunnerakenteiden käsitettä. Hän erottaa kolme rakennetta – ilon, pelon ja ärsytyksen – joihin algoritmeihin liittyviä tunnereaktioita voi sijoittaa. Hän pitää ärsytystä tutkimuksellisesti kiinnostavimpana. ”Ärsytyksen tunne vie meidät lähemmäksi algoritmin logiikkaa, koska silloin pitää sanoa, mikä siinä ärsyttää. Ärsytys kertoo meille tärkeitä asioita algoritmisista ympäristöistä.” Me elämme jo hyvin tiiviisti yhdessä algoritmien kanssa. Oikeastaan olemme päivittäisessä symbioosissa niiden kanssa. Olemme suostuneet vaihtokauppaan, jossa maksamme palveluista henkilötiedoillamme, ja nyt tuntuu hankalalta perua sitä suostumusta. ”Sitten huomaamme, että algoritmit tunkevat meitä stereotyyppisiin, yksinkertaistaviin lokeroihin ja esimerkiksi tiukkojen sukupuolidikotomioiden maailmaan”, Ruckenstein sanoo. Siksi ärsyttää, kun algoritmien suositukset perustuvat lähinnä sukupuoleen, sijaintiin tai ikään. Mehän olemme niin paljon muutakin! Mahdollisesti yleisimmät algoritmeihin liitetyt tunteet kytkeytyvät silti helppouteen ja mukavuuteen, ”hyvään meininkiin”. Sosiaalisuudesta ja yhteydenpidosta on tullut paljon helpompaa. Verkossa voi hoitaa pankkiasiat ja tilata ruokaa kotiovelle. Arkielämäämme sujuvoittavat algoritmit muodostavat jo niin tärkeän infrastruktuurin, että on vaikea kuvitella, miten pärjäisimme ilman sitä. Kolmas kategoria liittyy algoritmeihin liitettyihin pelkoihin ja dystopioihin. Tässä Ruckenstein soveltaa pelon maantieteen käsitettä. Suomessa pelon maantiedettä tutki 1990-luvulla maantieteilijä Hille Koskela. Hänen mukaansa naisten kaupunkitila on ahtaampi kuin miesten, koska he pelkäävät liikkua tietyissä paikoissa erityisesti öisin. Vaikka seksuaalista väkivaltaa tapahtuu enemmän kodeissa kuin puistoissa, pimeät kujat ja pusikot tuntuvat pelottavilta. ”Digitaalisen maailman pelon maantiede operoi samaan tapaan eri tasoilla. On yksityisyyden loukkauksia, hakkeroinnin pelkoa, ajatellaan että puhelimia kuunnellaan. Isommassa kuvassa pohditaan dystopioita. Onko internet ylipäätään menossa ihan väärään suuntaan? Vakoilevatko Venäjä ja Kiina pian kaikkia? Näitä pelkoja ei voi välttämättä todentaa”, Ruckenstein sanoo. ”Ei voi tietää, tuleeko dystopiasta todellista, mutta on olemassa monen tunnistama rakenteellinen kokemus siitä, että tässä maailmassa kaikki ei ole OK, jotain on vialla. Ihmiset käyttävät tästä tunteesta usein sanaa kuumottava.” Digitaalisen maailman pelon maantieteeseen voidaan lukea myös tilanteet, joissa ihminen jättää jotakin sanomatta siksi, että pelkää verkkovihaa ja häiriköintiä, vaikka ei olisi itse koskaan kokenut sitä. ”Ihmiset pelkäävät myös toisten puolesta, esimerkiksi ikääntyvien vanhempien puolesta, jotka klikkailevat linkkejä ja tulevat huijatuksi.” Kuvitus: Hans Eiskonen Olisipa algoritmi ihmismäisempi! Ruckensteinin työryhmä on tutkimuksissaan huomannut, että monesti käyttäjät kaipaavat algoritmeilta inhimillisyyttä. ”Koneen pitäisi olla niin intuitiivinen, että se ymmärtää ihmistä juuri oikeana hetkenä juuri oikealla tavalla. Tämä ihmisen kaipuu on uusi piirre konesuhteessamme”, Ruckenstein sanoo. ”Algoritmista tulee eräänlainen peili, joka näyttää, että ihminen on erilainen kuin kone. Silti me toivomme, että olisipa kone enemmän kuin ihminen. Silloin yhteiselomme olisi ihanaa.” Tekoälyn kehittäjien markkinointiväittämät lupaavat aina hiukan liikaa, ja mediakin usein voimistaa näitä lupauksia. Ihmiset kohdistavat suuria odotuksia tekoälyn kyvykkyyteen. ”Jos joku Facebook sanoo kehittäneensä tunteiden analyysimenetelmän, jonka avulla mainontaa pystyy kohdentamaan vaikkapa juuri tietynlaisessa haavoittuvaisessa tilanteessa oleville nuorille, meillä ei ole keinoja selvittää, onko asia todella näin.” Datajätit pitävät algoritmejaan liikesalaisuuksina, eivätkä halua kertoa niiden toiminnasta juuri mitään julkisesti. Tutkijoiden on vaikea selvittää, mihin Facebookin ja Googlen kaltaisten firmojen algoritmit oikeasti pystyvät ja mihin eivät. Esimerkiksi Cambridge Analytica -skandaalin yhteydessä vuonna 2018 keskusteltiin siitä, miten firma hyödynsi miljoonien Facebook-käyttäjien dataa poliittisen mainonnan kohdentamisessa. Data oli hankittu kyseenalaisin keinoin, ja sitä käytettiin Ted Cruzin ja Donald Trumpin presidentinvaalikampanjoissa. Facebook tuomittiin tapauksen selvittelyjen jälkeen suuriin sakkoihin sekä Yhdysvalloissa että Britanniassa. Syynä olivat käyttäjien yksityisyyden loukkaukset ja datan haitallinen käyttö. Välillä aiheen uutisoinnista on syntynyt kuva, että Facebookin käyttäjien ohjailu olisi hyvinkin yksinkertaista. Todellisuudessa emme vieläkään tiedä tarpeeksi hyvin, kehen se vaikutti ja miten paljon. ”Voi olla, että Cambridge Analytican avulla saatiin jonkin verran passiivisia äänestäjiä liikkeelle, ja jos nämä olivat vaa’ankieliosavaltioissa, se ehkä riitti. Vaalivaikuttaminen voi toimia tietyissä paikoissa tehokkaammin kuin toisissa”, Ruckenstein sanoo. ”Toki Cambridge Analytican tapaus on joka tapauksessa skandaali. Se on tehnyt Facebookin ylenpalttisen tietojenkeruun näkyväksi. Emme saa alkaa ajatella, että tällainen on normaalia.” Vuonna 2012 Facebook teki kokeen, johon 689 003 käyttäjää osallistui tietämättään. Tunnekokeena (emotion experiment) tunnetussa testissä algoritmi tunnisti päivitykset negatiivisiksi tai positiivisiksi tiettyjen asiasanojen perusteella. Facebook testasi, mitä tapahtuu, jos negatiivista tai positiivista sisältöä vähennetään uutisvirrasta. Facebookin omat tutkijat julkaisivat tuloksensa vuonna 2014. Heidän mukaansa uutisvirran välittämän tunnesisällön manipuloiminen muutti käyttäjien omaa tunnetilaa. Tutkimuksessa löydetty vaikutus oli todella pieni, mutta media uutisoi aiheesta siten, että vaikutus alkoi tuntua suurelta. Tällaisia kokeiluja digijätit tekevät jatkuvasti. Tutkijat puhuvat suostuttelevasta teknologiasta: ihmisiä tuupitaan palveluissa eri suuntiin designin hienovaraisilla muutoksilla. Sitten katsotaan, millä on eniten vaikutusta. Suosittelualgoritmien tehtävä on koukuttaa ihminen palveluun niin, että hän kuluttaa siellä mahdollisimman paljon aikaansa. Esimerkiksi Netflixin virallinen Twitter-tili kertoi taannoin, että Netflix kilpailee unta vastaan. ”En ymmärrä, miten fiksut, maailman parhaissa huippuyliopistoissa opiskelleet ihmiset selittävät itselleen, että tätä he tekevät työkseen”, Ruckenstein toteaa. Olemme kaikki datajättien koekaniineja Ruckensteinin työ algoritmeista ja tunteista osoittaa, että jokainen sosiaalisen median ja internetin käyttäjä näkee ja tuntee algoritmeihin liittyviä tunteita itsekseen, mutta tästä ei ole vielä tullut yhteistä kulttuuria. Yhteinen kokemus voisi johtaa siihen, että siirrymme oman somen käyttömme voivottelusta vaatimaan yhtiöiltä parempaa. Sitä mukaa, kun datajätit automatisoivat arkeamme, me tulemme yhä riippuvaisemmiksi niiden palveluista. Olemme mukana jatkuvassa kokeilun tilassa – permanently beta, kuten teknologiayrityksissä sanotaan. Silti meiltä puuttuu kunnollinen julkinen keskustelu siitä, mitä uusi algoritminen maailmanjärjestys tarkoittaa ja millä ehdoilla me olemme siinä mukana. ”Olemme muuttaneet asumaan eräänlaiseen globaaliin living labiin, jossa reaktioitamme uusiin teknologioihin tarkkaillaan jatkuvasti. Aina kun opimme yhden asian, eteemme asetetaan jotakin uutta”, Ruckenstein sanoo. Yhtäkkiä esimerkiksi deittailukulttuuri on muuttunut. Samoin musiikin, elokuvien, televisiosarjojen ja muun kulttuurin kulutus. Niin myös kommunikaatio ystävien ja tuttavien kanssa. Työnteko. Kuluttaminen. ”Antaudumme erilaisiin algoritmisuhteisiin ja vasta jälkikäteen ymmärrämme, mihin tuli taas ryhdyttyä”, Ruckenstein sanoo. Pidemmän aikavälin sosiaalisia muutoksia on vaikea havaita. Pian emme muista, miten asiat tehtiin ennen. ”Siinä sitten mietimme itseksemme, oliko hyvä idea ostaa geenitesti jostain amerikkalaisesta firmasta tai mennä Tinderiin ja niin edelleen.” Omasta sosiaalisen median käytöstään ihmiset kyllä puhuvat, paljonkin. Hyvin yleinen keskustelunaihe on oman somekäytön rajoittaminen. Sitä puidaan usein juuri sosiaalisessa mediassa. Tuskaillaan, miten paljon aikaa palveluiden parissa kuluu. Liiallinen sometus aiheuttaa krapulamaisia olotiloja. ”Ihmiset puhuvat myös siitä, miten hyvien puolien kiillottelu somessa alkaa kaventaa omaa olemista. Sitten he luopuvat vähäksi aikaa somesta kokonaan, tasapainottavat itsensä ja menevät takaisin.” Ruckensteinin mielestä sosiaalisen median käyttäjien jatkuva itsesääntelykeskustelu on väistämätöntä, koska datajättien luoma ympäristö lähtee siitä, että ei pitäisi säädellä mitään. Ne kilpailevat ihmisten huomiosta ja tunkeutuvat siksi elämäämme niin kovalla tarmolla kuin suinkin pystyvät. ”Tästä syntyy myös uudentyyppistä eriarvoisuutta. Niillä, jotka kykenevät itsesääntelyyn, on muutakin elämässään ja siksi he pystyvät sen tekemään. Mutta jos ei ole muita kiinnekohtia, miksi edes lähtisi somesta pois.” Ruckenstein opettaa Helsingin yliopistossa kurssia otsikolla Tunteet ja teknologian kulutus kulttuurissa. Siellä opiskelijat alkavat aina pohtia, miten he itse voisivat toimia suostuttelevan teknologian ympäristöissä. Silloin Ruckenstein kysyy heiltä: entä jos kyse ei olekaan sinusta? ”Se on ympäristö, joka tekee kaikkensa sen eteen, että pysyisit siellä. On liikaa vaadittu, etenkin nuorilta, että he sääntelisivät tätä itse”, Ruckenstein sanoo. ”Tarvitaan paljon enemmän keskustelua siitä, mikä on yhteiskunnallisesti sopivaa. Ollaanko me nyt ihan okei sen kanssa, että firmat taistelevat unta vastaan?” — Minna Ruckenstein on apulaisprofessori Helsingin yliopiston Kuluttajatutkimuskeskuksessa. Hän vetää Koneen Säätiön rahoittamaa Algoritmin kulttuuri -hanketta (2019–2022). Everyday Automation: Experiencing and Anticipating Emerging Technologies -kirja ilmestyi Routledgen kustantamana toukokuussa 2022 ja on saatavila myös open access -julkaisuna: https://doi.org/10.4324/9781003170884 Vuonna 2023 Ruckensteinilta ilmestyi kirja The Feel of Algorithms (University of California Press). Kirjoittaja:Johanna Vehkoo on vapaa toimittaja ja tietokirjailija, joka vetää Long Playn algoritmitoimitusta. Anna palautetta algoritmijutusta ja Eri reittejä -juttusarjasta Auta meitä tekemään Eri reiteistä parempi! Käytämme ajatuksiasi hyödyksi sarjan kehittämisessä. Ajatuksia tästä jutustaValitse sana tai sanoja, jotka kuvaavat parhaiten ajatuksiasi tästä jutusta.(Pakollinen) Tykkäsin En tykännyt Kiinnostava Tylsä Uutta tietoa Hyvin kirjoitettu Liian pitkä Mitä muita ajatuksia juttu sinussa herätti?Ajatuksia Eri reittejä -juttusarjastaOletko lukenut aiempia Eri reittejä -juttuja? Olen, useita juttuja Olen, yhden tai kaksi juttua En ole, mutta olen kuullut juttusarjasta En ole, tämä oli ensimmäinen vastaan tullut juttu Mitä mieltä olet Eri reittejä -juttusarjasta?Mistä aiheista haluaisit jatkossa kuulla lisää?CAPTCHA