Reflektointia

Tunnen tarvetta jäsentää, käsitellä, ajatella ja koota ajatuksia. Siispä kirjoittamaan.

Kiinnostava vaihe. Reilu kuukausi töitä jäljellä ja sitten raskausvapaalle. Kummallinen välitila – toinen jalka visusti väikkärissä, toinen lähestyvässä synnytyksessä ja uudessa perheenjäsenessä. No, rehellisyyden nimissä on sanottava, että jälkimmäinen painaa vaakakupissa tällä hetkellä enemmän. Ehkä se on luontevaa ja luonnollista. Olen opetellut sanomaan ei ja välttämään kaikkea ylimääräistä, koska haluan suunnata vähäiset keskittymiskyvyn rippeet jäljellä oleviin työjuttuihin. Isoimpana Zestimate-artikkelin case study description, jonka koitan lähettää NordicCHI:hin. Se voi merkkimäärältään olla 3000-10000, joten riittää pienempikin panostus. AI & kirjanpito -artikkeli on tällä hetkellä arviossa ECSCW:ssa, ja jos arviot ehtivät tulla ennen raskausvapaata, yritän editoida myös sen. Riippuen editorien päätöksestä. Major revision saanee jäädä odottamaan parempia aikoja. Tällä hetkellä junassa matkalla Tampereelle AIdience tutkimusryhmän työpajaan tekoälystä, median kulutuksesta ja journalismista. Taitaa olla viimeinen Tampereen työreissu hetkeen! Perjantaina on vielä jatko-opintosemmassa väikkärin statuksen esittely. Muita presentaatioita ei olekaan sitten enää tiedossa. Ja hyvä niin! Alkuvuosi onkin ollut vilkas sen suhteen. Havaijin HICSS-57 konferenssi heti tammikuun alussa, sen jälkeen Porin yliopistokeskuksen Tiedetempaus ja visiitti Hidden Trailille tutkimusta esittelemään. Tykkään puhua tutkimuksestani (kukapa ei), ja visiitti Hidden Trailille oli erityisen antoisa, mutta oman aikansa ottavat kyllä nuo presentaatiot ja niiden treenaaminen.

HICSS-57 konferenssi oli mun ensimmäinen kansainvälinen konferenssivisiitti ja julkaisun saaminen edellytti visiittiä paikan päälle, joten Honoluluun oli lähdettävä. Olihan se kokemus, kaikkineen. Kumppani pääsi mukaan ja vietettiin konferenssin jälkeen viikko babymoonia Kauailla. Itse konferenssi oli valtava – monta päällekkäistä trackia, osallistujia n. 1300-1400. Koitin löytää trackeista ja tutkimuksista mieleiseni, mutta valitettavasti anti jäi vähän ohueksi. Painotus oli pääsääntöisesti vahvasti tekninen, määrällinen ja kokeellinen, enkä kokenut yhteisöä omakseni. Paljon keskustelua ja tutkimusta generatiivisesta tekoälystä. AI and the future of work -trackissa, jossa tutkimustani esittelin, oli muutama tutkija samankaltaisella asetelmalla ja otteella: laadullisesti, organisatorisesti ja sosioteknisesti tarkastellen tekoälyn mukanaan tuomia työelämän muutoksia. Opettavainen kokemus kuitenkin. Toinen ohjaajistani sanoi, että HICSS on kovatasoinen konferenssi, jonne pääsy on saavutus. Lisäksi kuulin, että ilmeisesti juuri tuohon trackiin oli paljon hakijoita. Eli kaipa siellä sitten ihan syystä olin, vaikka vähän ehdin itseäni ja tutkimustani epäilläkin! Esittelin siellä siis ensimmäistä tapaustutkimustani tekoälyn käytöstä rekrytoinnissa, keskittyen rekrytoijien odotuksiin ja kokemuksiin sekä ihmisen ja tekoälyn vuorovaikutukseen ja yhteistyöhön. Julkaistu konferenssiartikkeli löytyy täältä. Sain myös kirjan luvun valmiiksi tammikuun aikana! Luvussa käsittelemme valtaa ja tekoälyä, ja se ilmestyy SAGE:n kokoelmateoksessa luultavasti vielä tämän vuoden aikana. Luku tulee myös osaksi väitöskirjaani. Hurraa!

Vanhempainvapaan jälkeen alan työstämään Zestimatesta varsinaista tutkimusartikkelia ja kirjoittamaan väikkärin yhteenvetoa. Lisäksi odotettavissa on opetusassarin hommia. Kummallista ajatella töihin paluuta tässä vaiheessa – millaista se sitten on – mutta oon tyytyväinen, kun on suht selkeät koordinaatit. Hapuilua varmasti alkuun, ja omanlaistaan uuden opettelua. Eiköhän se tutkijaminä silti sieltä sittenkin löydy, jostain vaippavuoren alta.

Kehitetäänkö tekoälyä ihminen vai teknologia edellä?

Seuraa ränttiä (joka ei ole henkilökohtaista ketään kohtaan vaan kertoo enemmänkin teknologiakeskeisen ja ihmiskeskeisen suunnittelun eroavaisuuksista).

Luin aamulla Satakunnan Kansasta (26.9.23) jutun työryhmästä, joka kehittää/tutkii autonomisten agenttien yhteistyötä. Aihe on sisänsä kiinnostava ja täytyykin tutustua siihen lisää, kun täällä Porissa toimivat. Jutussa oli muutenkin ihan hyviä pointteja esim. siitä, miten tekoälystä pitäisi keskustella enemmän myös päättävällä tasolla ja politiikassa, ja siitä, miten teknologian kehityksessä aina päädytään jonkinlaiseen balanssiin vaikka muutokset olisivat suuriakin. MUTTA jutussa pisti silmään (ja johonkin hermoon) pari oleellista asiaa teknosentrisestä tekoälyn suunnittelusta, viitaten siis siihen, miten teknologiaa kehitetään teknologia edellä. Tämä on siis vastakkainen näkökulma sosiotekniselle ja ihmiskeskeiselle näkökulmalle teknologian suunnitteluun, jota itse edustan. Sanomattakin selvää, että teknosentrinen näkökulma on korostunut teknologian kehittämisessä ja suunnittelussa “kautta aikojen”. Nyt tekoälyn myötä myös muut näkökulmat ovat alkaneet herättää huomiota.

Jutussa sanotaan mm. seuraavaa: “esimerkiksi kaikenlaisten järjestelmien suunnittelu, toteutus ja testaus voidaan hoitaa periaatteeessa jo tänä päivänä ilman minkäänlaista ihmisen kosketusta”. — “tekoäly osaa tehdä nyt myös perussuunnittelutyötä eli sitä työtä, jossa ihminen oli ennen kovimmillaan”.

No niin, pureskellaan. On huomioitava, että ko. työryhmä kehittää tekoälysovelluksia eri alojen yritysten käyttöön, eli siis työelämäkontekstiin. Ylläoleva lainaus jättää ilmaan kysymyksiä, kuten mitä näillä järjestelmillä tarkoitetaan ja millaisista järjestelmistä puhutaan. Jos puhutaan järjestelmistä työn tueksi (esim. automatisoimaan työtehtäviä) on kyseenalaista, miten tämä on mahdollista “ilman ihmisen kosketusta”, eli käsitykseni mukaan ilman ymmärrystä loppukäyttäjän tarpeista ja vaatimuksista, työn konteksista ja työtehtävistä. Huom. en ole varma, mitä tällä ihmisen kosketuksella tässä tapauksessa tarkoitetaan – onko kyse kehittäjistä, puhutaanko tässä esim. itseoppivasta automaatiosta vai tarkoitetaanko tällä esim. loppukäyttäjien poissulkemista kehitysprosessista. Tästä tulee mieleen tutkimukseni kirjanpidossa käytettävästä älykkään automaation järjestelmästä, jonka tavoitteena on ostolaskujen automatisointi. Tiivistetysti: itseoppiva tekoäly seuraa kirjanpitäjän tekemää laskujen tiliöintiä, oppimansa perusteella kasvattaa varmuusprosenttiaan, ja tämän perusteella ehdottaa kirjanpitäjälle tiettyjen tiliöintien automatisointia. Kirjanpitäjä arvioi, onko ko. tiliöinti turvallinen automatisoida. Kirjanpitäjällä siis vahva kontrolli automatioon. Tällaisen tekoälyn kehittäminen on vahvasti osallistava prosessi, jossa kirjanpitäjät ja kehittäjät toimivat käsi kädessä: kehittäjät kouluttavat kirjanpitäjiä ymmärtämään tekoälyn rajoitteita ja mahdollisuuksia, ja kirjanpitäjät ohjeistavat kehittäjiä kirjanpidon lainalaisuuksista. Ko. teknologian käyttö perustuu vahvasti kirjanpitäjien ammattitaitoon ja osaamiseen, mikä kattaa myös heidän asiakkaansa tuntemisen: esim. kirjanpitäjät kertoivat, että ennen kuin he voivat lisätä automaatiota, heidän tulee ymmärtää asiakkaansa toimintakenttä. Tämän perusteella he voivat arvioida, kuinka hyvin automaatio soveltuu tämän asiakkaan laskujen tiliöintiin. Tekoälyn käyttö on siis kontekstiinsa sidottua, tilanne- ja asiakaskohtaista. Samankaltainen tulos toistuu myös muissa tutkimuksissani. Joissain tapauksissa tekoäly toimii loistavasti, toisissa se on aivan kujalla. Ihmistä tarvitaan arvioimaan tuloksia ja niiden käytettävyyttä kriittisesti, omasta asiantuntemuksestaan käsin.

Se mikä tekstissä ehkä eniten rassaa, on tekoälylle annettu toimijuus. Mielestäni tämä inhimillistää tekoälyä liikaa, siis antaa sille “itsenäisen toimijan” aseman, johon kuuluisi siten myös esimerkiksi vastuunkanto. Tämä onkin mielenkiintoinen kysymys: siis voiko tekoälyllä olla omaa toimijuutta vai onko se kuitenkin vain ihmisen hallinnassa ja ohjailtavissa oleva työkalu. Tästä keskustellaan akateemisissa piireissä tällä hetkellä valtavasti: puhutaan esimerkiksi siitä, voiko tekoälyllä olla omaa “hiljaista tietoa”. Koska kukaan ei oikeastaan tiedä, mitä tekoälyn “päässä” liikkuu ja miten se oikeastaan oppii (-> puhutaan siis neuroverkoista ja syväoppivasta teknologiasta, joka kehittää omat toimintamallinsa päästääkseen tavoitteeseen X), voiko sillä katsoa olevan jonkinlainen oma tietopohja joka ei ole saavutettavissa ulkopuolelta – samaan tapaan kuin asiantuntija-asemassa työskenteleville ihmisille kehittyy oma hiljainen tietonsa. Minulla ei ole tähän vastausta, mutta vaikka teknologialle kehittyisikin oma tietopohjansa, on tätäkin tietoa hyödynnettävä asiantuntijan kanssa yhteistyössä.

Tekstissä kirjoitetaan myös siitä, miten ChatGPT-4 “hallitsee kymmenentuhannen ihmisen työn työt”. ChatGPT on arvauskone, joka arvailee sanojen järjestystä ja sopivuutta toisiinsa. Kyllä, se on hyvä siinä mitä tekee, ja myös mainio työkalu tiettyjen työtehtävien tueksi. Mutta kokonainen työ typistettynä ChatGPT:n toiminnallisuuksiin on yksinkertaistettu ja kärjistetty näkökulma työhön: ylipäänsä tekoäly sopii hyvin tiettyihin työtehtäviin, mutta työ itsessään on paljon muutakin kuin vai tiettyjen työtehtävien mekaanista suorittamista. Tästäkin on puhuttu jo pitkään, Lucy Suhman jo vuonna -95 (never forget): “work tends to disappear from the distance”. Työtä kokonaisuudessaan, kontekstissaan, ei voi ymmärtää työn ulkopuolelta, etäisyyden päästä katsottuna. Huom. keskityn omassa tutkimuksessani asiantuntijatyöhön, joten oma näkökulmani on tietysti vääristynyt siihen suuntaan.

Juttu myös alleviivaa työryhmän tutkimuksessa keskeisen kysymyksen olevan ihmisen paikka, eli mihin ihminen sijoittuu tässä muutoksessa ja miten muutos sopii “ihmisen mielen pirtaan”. Tämä on erinomaista, mutta myös tässä näkyy insinööritaustainen ajattelutapa: ihminen sopeutuu ja mukautuu teknologiaan. Asia voisi olla myös toisinpäin: teknologiaa voi suunnitella ihmisen tarpeet ja vaatimukset edellä. Tähän nimenomaan pyrkii ihmiskeskeisen tekoälyn suunnittelu, mutta samaa tavoitetta ajavat mm. osallistava suunnittelu, käyttäjälähtöinen suunnittelu, arvolähtöinen suunnittelu jne. Teknologia on aina sidoksissa ympäröivään sosiaaliseen todellisuuteensa. Sosioteknisen näkökulman mukaan teknologinen ja sosiaalinen ympäristö ovat jatkuvassa vuorovaikutuksessa keskenään, eikä näitä voi eriyttää toisistaan. Oleellista on myös, että teknologian kehittäminen sisältää aina heijastumia kehittäjien arvoista, tavoitteista ja motiiveista. Mitä pienempi porukka teknologiaa kehittää, sitä herkemmin teknologia toistaa syrjiviä, epätasa-arvoisia ja vääristyneitä yhteiskunnallisia ja tiedostamattomia rakenteita.

Mielipiteet ovat omiani ja varmasti vaillinaisia.

Väitöskirja nyt

Olen perustanut tämän blogin jo vuosia sitten, lähinnä kanavaksi omille ajatuksille (kirjoitan, siis olen). Suurin osa teksteistä onkin yksityisiä, koska sitä horinaa tuskin kovin moni jaksaa lukea. Päätin nyt kuitenkin avata tämän julkiseksi koska kaipasin kanavaa, johon voin koota hajanaisia (tutkimukseen liittyviä) tekstejäni sieltä sun täältä. Ehkä tämä tuo myös positiivista painetta omien ajatusten jakamiselle. Sisältöä fiiliksen mukaan niin suomeksi kuin englanniksi.

Väitöskirjassani tutkin ihmisen ja tekoälyn vuorovaikutusta ja yhteistyötä asiantuntijatyössä (tietotyössä) ja tarkastelen niin asiantuntijan käyttäjäkokemusta kuin asiantuntijuutta – muutosta, merkitystä ja säilymistä– tekoälyn aikakaudella. Tutkimukseni on laadullinen ja aineistoni asiantuntijahaastattelut. Teoreettisina linsseinä luottamus ja valta. Akateeminen suuntautumiseni sosiotekninen. Tämä tiedoksi myös sukulaisille ja ystäville, joilla vaikeuksia muistaa tutkimusaihettani.

Väikkäri etenee hitaasti mutta varmasti. Kaikki aineisto on nyt koossa ja ensimmäinen artikkeli tekoälystä rekrytoinnissa parhaillaan vertaisarvioitavana. Toinen artikkeli tekoälystä kirjanpidossa on kollegoilla kommenteilla ja odottaa työstöä. Kolmas artikkeli tekoälystä ja vallasta (itse asiassa kirjan luku; julkaisu alkuvuodesta 2024) juuri nyt työn alla. Neljäs artikkeli tekoälystä kiinteistövälityksessä odottelee kiltisti vuoroaan.

Kaikki vaadittavat opintopisteet kasassa ja rahoitus turvattu toistaiseksi.

Seuraavan projektin idea jo muhii päässä, mutta tehdään nyt tämä ensin!

Zestimate – algoritmi, joka mullisti amerikkalaiset kiinteistömarkkinat

Teksti on julkaistu alunperin Rajapinta ry:n nettisivuilla 13.4.2022.

Talon ostaminen ja myyminen on kinkkistä puuhaa. Yhdysvalloissa tähän tarkoitukseen on valjastettu koneoppiva algoritmi. Tässä tekstissä kerron kyseisen algoritmin vaikutuksista amerikkalaisiin kiinteistömarkkinoihin ja niiden osallistujiin, sekä esittelen tapauksen, jota lähden tutkimaan paikan päälle syksyllä 2022.

Ostaisitko talon tekoälyltä? Miten suhtautuisit algoritmin antamaan hinta-arvioon omasta kodistasi? Kodin ostaminen ja myyminen kuuluvat elämän suurimpiin taloudellisiin päätöksiin. Asuntokauppojen teko on tunnepitoista ja joskus jopa riskialtista hommaa – puhumattakaan sen oikean välittäjän löytämisestä. Yhdysvalloissa välittäjän rooliin on valjastettu myös tekoälyteknologia: koneoppiva algoritmi nimeltä Zestimate, joka arvioi kotien hintoja sekä julkisen että käyttäjien syöttämän datan perusteella. Tämä viattomalta kuulostava algoritmi jakaa mielipiteitä, ja sitä pidetään epäluotettavana. Silti se on vakiinnuttanut asemansa amerikkalaisilla kiinteistömarkkinoilla vaikuttaen niin kiinteistövälittäjien työhön, asuntojen myynti- ja ostokäytäntöihin kuin asuntojen hintoihin. Tässä blogiteksissä avaan hieman tapausta Zillow & Zestimate, jota lähden syksyllä 2022 tarkemmin paikan päälle tutkimaan. 

Mistä kaikki alkoi? Zestimaten synty

Zestimaten taustalla on vuonna 2006 perustettu, mediayhtiönä aloittanut Zillow, jonka perustivat Microsoftilta yritysmaailmaan loikanneet Rich Barton ja Lloyd Frink. Mediayhtiönä aloittanut Zillow muutti suuntaa vuonna 2018 haistettuaan mahdollisuuden hyödyntää asuntojen julkista hinnoitteludataa ja tekoälyä asuntojen virtuaalisessa ostamisessa (alkuperäinen termi: iBuying). Zillow Offersin tarkoituksena oli nopeuttaa asuntokauppoja ja tarjota mahdollisuus asunnon ostoon ja myyntiin yhdellä napinpainalluksella. Toisin sanoen, jopa ilman kiinteistövälittäjiä. Valitettavasti se oli tuomittu epäonnistumaan epätarkkojen ennusteiden (ja osittain globaalin pandemian) vuoksi, ja se ajettiin alas marraskuussa 2021. Kokeilun sanotaan aiheuttaneen Bartonille & Frinkille noin 420 miljoonan dollarin tappiot kolmen kuukauden aikana vuonna 2021.

Huolimatta epäonnistuneesta asuntobisneksestä, Zillow’n koneoppiva algoritmi Zestimate jatkaa porskuttamistaan. Kyseinen algoritmi arvioi talojen hintoja julkisesta ja käyttäjien tuottamasta datasta, ja sen tarkoitus on helpottaa talojen ostamista ja myymistä. Paikalliset rakastavat ja vihaavat sitä (todennäköisesti sen perusteella, onko hinta-arvio heille suotuisa). Algoritmin herättämistä ristiriitaisista tunteista huolimatta, se on vakiinnuttanut paikkansa amerikkalaisilla kiinteistömarkkinoilla: vuonna 2020 Zestimatella oli 245 miljoonaa yksittäistä käyttäjää kuukausittain, ja sen kerrotaan keränneen dataa noin 110 miljoonasta amerikkalaisesta kodista. 

Valitettavasti Zestimaten antamat arviot eivät ole täysin luotettavia. Arvio perustuu vain ja ainoastaan dataan, eikä arviossa oteta huomioon ikkunasta pilkottavaa maisemaa, tehtyjä remontteja ja muita vastaavia seikkoja, jotka ihminen huomioi asunnon hintaa arvioidessaan. Zestimatea onkin kritisoitu epätarkaksi ja harhaanjohtavaksi, ja sitä on syytetty asuntojen hintojen manipuloinnistaepäjohdonmukaisuudesta sekä valheellisten arvolupausten synnyttämisestä. Algoritmin mullistaessa kiinteistömarkkinoita ja tuottaessa harmaita hiuksia kiinteistövälittäjille, Zestimaten kehittäjät Barton & Frink ovat painaneet paniikkinappulaa ja korostaneet Zestimaten antamaa arviota aloituspisteenä ja suuntaa antavana arviona asunnon hinnalle.

Zestimaten vaikutus kiinteistömarkkinoihin

Zestimaten tapaus on kiinnostava, sillä se tarjoaa esimerkin tekoälyn laaja-alaisista ja ennustamattomista vaikutuksista tosielämässä. Asunnon ostajiin ja myyjiin Zestimate vaikuttaa ennen kaikkea hinta-arvion kautta, sillä ihmisten sanotaan luottavan Zestimateen sen epäluotettavuudesta huolimatta. Pettymys voi olla suuri, jos talon todellinen hinta onkin lopulta Zestimaten arviota alhaisempi. Toisaalta hinnoittelua voi tapahtua myös alakanttiin. Vielä kiinnostavampia ovat kiinteistövälittäjien kokemukset Zestimatesta. Selvää on, etteivät he voi täysin ohittaa Zestimaten antamaa arviota, joka on oletettavasti heidän asiakkaidensa ensimmäinen etappi asuntoa ostaessa tai myydessä. 

Kiinteistövälittäjien on siis huomioitava Zestimaten arvio, ymmärrettävä sen lähtökohdat ja toisaalta osattava perustella, mikäli heidän hinta-arvionsa poikkeaa Zestimaten antamasta arviosta. Toisin sanoen, heidän on oltava halukkaita työskentelemään yhdessä algoritmin kanssa, jonka kaksi Microsoftin entistä työntekijää kehittivät ilman sen suurempaa asiantuntemusta kiinteistöalasta. Zillow perustelee toimintaansa käyttäjien, siis asunnon ostajien ja myyjien, palvelemisella. Zestimaten ajatellaan parantavan asuntokauppojen läpinäkyvyyttä ja auttavan ihmisiä ymmärtämään oman asuntonsa arvo. Yhdysvalloissa asuntojen hintoja arvioidaan tyypillisesti multiple listing service (MLS) -datan avulla, johon vain kiinteistövälittäjillä on pääsy. Zestimaten voi siis ajatella antavan asunnon ostajille ja myyjille enemmän valtaa asuntokaupoilla, tai ainakin asuntojensa hinnoittelussa.

Zillow on yrittänyt parantaa Zestimaten luotettavuutta esimerkiksi selittävän tekoälyn avulla ja järjestämällä kilpailun algoritmin tarkkuuden parantamiseksi. Tämä lienee välttämätöntä, sillä ensimmäiset oikeustaistelut asunnonomistajien ja Zillown välilä on jo käyty. Kyseisessä tapauksessa asianomistajat syyttivät Zestimatea epäluotettavuudesta ja asuntojen hintojen aliarvioinnista, ja järjestelmän koettiin vaikeuttaneen niiden myyntiä. Syyte kaatui Zillow’n voittoon, jota puolsi yrityksen avoimuus Zestimatesta suuntaa antavana arviona lopullisen hintalapun sijaan. Keskustelua on syntynyt myös siitä, kantaako Zillow syyttä suotta syntipukin leimaa yhdysvaltalaisessa asuntokriisissä sen sijaan, että keskityttäisiin laajempiin yhteiskunnallisiin ongelmiin asuntojen hintojen jyrkän nousun taustalla.  

Lopuksi

Tapaus Zestimate herättää kaltaisessani, ihmistieteellistä teknologiantutkimusta tekevässä väitöskirjatutkijassa runsaasti kysymyksiä. On kiinnostavaa tarkastella asunnon ostajien ja myyjien luottamusta Zestimaten antamaa arviota kohtaan, ja tämän arvion vaikutusta vuorovaikutukseen kiinteistövälittäjän kanssa. Ihmisen ja tekoälyn välisen yhteistyön teema nousee esiin tarkastellessa algoritmin käyttöä ja sen hyväksymistä osana kiinteistövälittäjien työnkuvaa: heillä ei ole mahdollisuutta valita, ottaako Zestimatea osaksi työnkuvaansa vaiko ei. Heidän asiakkaidensa kautta algoritmin antama arvio on joka tapauksessa osa prosessia.

Toistaiseksi on epäselvää, onko kiinteistövälittäjiä kuultu Zestimaten kehityksessä. Pitäisikö heitä kuulla? Tämä on suuri kysymys, etenkin, kun uutta teknologiaa tuodaan enenevissä määrin osaksi yhteiskuntaa ja asiantuntijatyötä. Vaikutus voi olla mittava, ennustetaanhan tekoälystä neljättä teollista vallankumousta ja sähköön verrattavaa innovaatiota. Uudet teknologiat, sovellukset ja järjestelmät muokkaavat myös yhteiskuntaa ja toimintatapojamme, mikä herättää kysymyksiä teknologian kehittäjistä sosiaalisen todellisuuden muokkaajina. 

Zestimate vaikuttaa siihen, miten amerikkalaiset ostavat ja myyvät koteja. Asuntojen hinnat vaikuttavat sosiaaliseen ympäristöön ja siihen, kenellä on mahdollisuus omaan kotiin tai keitä asuu naapurissamme. Zestimatella on omassa ekosysteemissään selkeä, vakiintunut asema, johon ihmiset ympärillä sopeutuvat – kukin omalla tavallaan. Zestimate on elävän elämän esimerkki siitä, miten pala koodia voi tulla osaksi olemassa olevia tapoja, käyttäytymistä ja kulttuuria – muuttaen niitä yllättäen ja odottamatta. Kaikkea maailmassa ei kuitenkaan voi katsoa insinöörin linssien läpi: oikea elämä taipuu huonosti teknisiin rajoihin, sillä se on täynnä yllätyksiä ja ennustamattomuutta. Inhimillisyyttä. Ja hyvä niin.
Kirjoittaja kiittää ja kuittaa. Tekstin oletuksiin ja spekulaatioon saadaan toivottavasti selkeyttä syksyn 2022 aikana, jolloin lähden Pohjois-Carolinan Chapel Hilliin ko. tapausta tutkimaan (kiitos Fulbright Finland ja KAUTE-säätiö). Tuloksia odotellessa tapaukseen voi tutustua tarkemmin esimerkiksi seuraavan loppukevennyksen merkeissä: Zillow Saturday Night Livessa.

”Kun sen oppi hahmottamaan, niin helpottui työt huomattavasti” – kirjanpitäjien kokemuksia FabricAI:n itseohjautuvasta automaatiosta

Teksti on julkaistu alunperin Tampereen yliopiston KITE-projektin (Kaupunkiseudun ihmiskeskeiset tekoälyratkaisut) nettisivuilla 11.12.2022.

Miten kirjanpitäjät suhtautuvat älykkääseen automaatioon työssään? Kuinka luottamus työtä automatisoivaan teknologiaan rakentuu? Näitä asioita FabricAI on jo tovin pohtinut, hyvällä menestyksellä. Yhteistyö KITE-projektin kanssa keväällä 2022 antoi mahdollisuuden sukeltaa aiheeseen vielä syvemmälle. Alta voit lukea tiivistelmän käyttäjätutkimuksen tuloksista!

Itseohjautuva automaatio kirjanpitäjän apuna

Aluksi lyhyt tiivistys FabricAI:n itseohjautuvan automaation toimintaperiaatteista: FabricAI:n tavoitteena ei ole korvata ihmistä automaatiolla vaan sen sijaan tukea, helpottaa ja nopeuttaa kirjanpitäjää työssään. Palvelun avulla pyritään automatisoimaan erityisesti toistuvaa, rutiininomaista työtä, jotta aikaa jäisi monimutkaisempien, arvoa tuottavien työtehtävien tekemiseen. Itseohjautuva automaatio seuraa kirjanpitäjän työskentelyä, jonka seurauksena oppii tunnistamaan toistuvuutta laskujen käsittelyssä. Kun sekä itseohjautuva automaatio että kirjanpitäjä ovat saaneet varmuutta laskujen toistuvuudesta, voidaan nämä kyseiset laskut siirtää automaattiseen käsittelyyn. Säännöt, joiden pohjalta tuote toimii, rakentuvat automaattisesti. Tuote huomioi myös kirjanpitäjän tekemät muutokset laskun tietoihin ja päivittää asiakkaalle luotua tekoälyä automaattisesti. Mikäli muutoksia laskuihin ei tehdä, käsittelee FabricAI:n tuote ostolaskut täysin automaattisesti. Voit tutustua FabricAI:n itseohjautuvaan automaatioon tarkemmin täällä.

Kirjanpitäjä päättää, mitä asiakkuuksia automatisoi

Kehittäessä tekoälytuotetta asiantuntijatyöhön, on ensiarvoisen tärkeää ymmärtää asiakasta ja tuotteen käyttökontekstia. Kirjanpitäjien erityispiirteitä ovat tarkkuus ja tietynlainen perfektionismi. Tarkastaminen on osa kirjanpitäjien työnkuvaa, mikä heijastuu myös itseohjautuvan automaation käyttöön. Vaikka automaation tarkoituksena on vähentää rutiinityötä, tarkastamisen vaatimuksesta voi olla vaikea luopua käyttöliittymätasolla. FabricAI pyrkii tukemaan tätä erityispiirrettä esimerkiksi tiliöintien tarkkuusprosentteja tarjoamalla. Toisaalta mahdollisiin virheisiin suhtaudutaan sallivasti, olivat ne sitten ihmisen tai koneen tekemiä. Tärkeää on, että mahdolliset virheet pystytään jäljittämään ja korjaamaan, jotta ne eivät toistuisi.

Kirjanpitäjät ovat asiantuntija-asemassaan myös luottamuksen kohteita: asiakkaiden on voitava luottaa kirjanpitäjiin ja heidän tietotaitoonsa, ja sitä myötä myös heidän käyttämään teknologiaan. Kun kirjanpitäjät ottavat itseohjautuvaa automaatiota käyttöön, he delegoivat osan omasta luotettavuudestaan teknologialle. Siksi asiantuntijalla tulee olla selkeä kuva teknologian mahdollisuuksista ja rajoitteista osana työtään.

Koska kirjanpitäjien asiakkuudet sisältävät paljon vaihtelua, itseohjautuvan automaation hyödyntäminen on hyvin asiakas- ja toimialakohtaista. Siksi on erityisen tärkeää, että asiantuntijalla on itsellään mahdollisuus joko lisätä tai tarvittaessa vähentää automaation tasoa tiettyjen asiakkuuksien kohdalla: kehittäjä ei voi tehdä tätä päätöstä asiantuntijan puolesta. Kiinnostava huomio olikin, että kirjanpitäjä haluaa ennen automatisointia itse opetella ymmärtämään asiakastaan: esimerkiksi uudet asiakkaat vaativat kirjanpitäjältä erityistä huomiota ja tarkastamista. Tämä on olennaista, jotta kirjanpitäjä voi tehdä päätöksen tietyn asiakkuutensa kirjanpidon automaatiosta.

“Tunnetaan omat asiakkaat sen verran, että osataan sanoa, jos asiakkuus ei sovi FabricAIhin.“

Luottamus rakentuu asteittain

Ennen kuin kirjanpitäjä voi tehdä päätöksen automatisoida tietyn asiakkaan kirjanpitoa, on hänen tiedostettava teknologian rajoitteet ja mahdollisuudet. Ensisijaista on siis käyttäjän huolellinen kouluttaminen ja tuki ongelmatilanteissa. FabricAI on pyrkinyt järjestämään käyttökoulutuksia niin organisaation kuin käyttäjien mukaan. Oma haasteensa on järjestää koulutus siten, ettei uuden teknologian omaksuminen kuormita asiantuntijoita liikaa: kaikkea ei voi omaksua kerralla, ja tähän toki vaikuttaa myös asiantuntijan henkilökohtaiset ominaisuudet ja esimerkiksi kiinnostus uuteen teknologiaan.

FabricAI sai käyttäjätutkimuksessa hyvää palautetta saatavilla olevasta tuesta ja nopeasta reagoinnista haastaviin tilanteisiin. Aineistossa korostui myös kirjanpitäjien rooli tuotteen kehittämisessä: haastateltavat kokivat, että heillä on mahdollisuus vaikuttaa tuotteeseen ja FabricAI:n kehittäjät kuuntelivat heidän tarpeitaan ja toiveitaan. Tämä koettiin tärkeäksi ja positiiviseksi myös luottamuksen näkökulmasta.

Asteittaisen käyttöönoton merkitys korostui käyttäjätutkimuksessa. Haastateltavat pitivät tärkeänä, että he voivat ottaa itseohjautuvaa automaatiota käyttöön omalla tahdillaan. Luottamus tuotteeseen rakentuu pikkuhiljaa toimivuuden, tunnistetun hyödyn ja positiivisen käyttökokemuksen kautta. Käytön alussa tuotteen toimivuutta seurataan ja valvotaan hyvin tarkasti. Ajan myötä käyttövarmuus kasvaa.

Myös sosiaaliset tekijät rakentavat luottamusta tuotteeseen: kollegoiden esimerkit ja tuki sekä tiedon jakaminen oli merkittävä tekijä uuden teknologian käyttöönotossa. Kehittäjien avoin ja ajantasainen tiedotus koettiin myös ensiarvoisen tärkeäksi. Koska itseohjautuva automaatio vaatii aikaa oppiakseen tietyt asiakkuudet, tuote ei ole valmis käyttöönoton alkuvaiheessa. Kehittäjien avoimuus tuotteen mahdollisesta ”alkukankeudesta” auttaa hallinnoimaan käyttäjien odotuksia. Myös tästä FabricAI sai hyvää palautetta.

Toisaalta myös uusien asiakkaiden lisääminen automaatioon edellyttää oman opettelunsa. Itseohjautuvan automaation täyden potentiaalin saavuttaminen vaatii oman aikansa ja kysyy niin kehittäjien kuin käyttäjienkin valmiutta opettaa ja kehittää tuotetta, mutta lopulta kärsivällisyys palkitaan. FabricAI:n on todettu vapauttavan kirjanpitäjien työaikaa jopa 40 tuntia kuukaudessa.

”Kyllä sen nyt huomaa, kun se automaatti ymmärtää. Se [ajankäyttö] rupeaa näkymään. Ei meillä aamuisin mene siihen rutiiniin, laskujen pyöritykseen, niin kauaa.”

Yhteistyö on avain onnistuneeseen lopputulokseen

Asiantuntija teknologian käyttäjänä asettaa omat vaatimuksensa myös tuotteen kehitykselle. Kehittäjän on ymmärrettävä asiantuntijoiden työnkuvaa sekä koulutettava asiantuntijat uuden teknologian käyttöön. Toisaalta asiantuntijoille on annettava mahdollisuus vaikuttaa käyttämäänsä teknologiaan niin käyttötapojen kuin käyttöliittymänkin tasolla. Vastavuoroisesti asiantuntijakäyttäjät opettavat kehittäjiä ymmärtämään alansa erityispiirteitä. Tähän tietotaitoon on syytä suhtautua arvostuksella ja kunnioituksella.

FabricAI korostaa asiakassuhteissaan yhteiskehittämistä, avoimuutta ja teknologian tarkoituksenmukaisuutta, ja nämä arvot tulivat selkeästi esiin myös käyttäjätutkimuksessa. FabricAI:n tavoitteena ei ole syrjäyttää kirjanpitäjää vaan nopeuttaa, helpottaa ja sujuvoittaa rutiininomaisia työtehtäviä – kirjanpitäjän pitäessä tiukasti kiinni itseohjautuvan automaation ohjaksista.

Kiitos yhteistyöstä, FabricAI!

Eetikko ja insinööri samassa pöydässä

Teksti on julkaistu alunperin Tampereen yliopiston KITE-projektin (Kaupunkiseudun ihmiskeskeiset tekoälyratkaisut) nettisivuilla 28.2.2022.

Tekoälyn etiikasta puhutaan paljon. Mutta miksi? Miten etiikkaan suhtaudutaan tekniikan kehityksen matemaattisessa maailmassa? Tunkeutuuko etiikka insinöörien tontille? Mitä eetikoiden puolestaan täytyisi ymmärtää ja tehdä?

Saadaksemme (alustavia) vastauksia näihin kysymyksiin, istutimme samaan pöytään filosofian väitöskirjatutkijan Otto Sahlgrenin ja vanhemman tutkijan Pertti Huuskosen Tampereen yliopistosta. Keskustelua fasilitoi ja koosti väitöskirjatutkija Saara Ala-Luopa Tampereen yliopiston Ihmiset ja teknologiat -tohtoriohjelmasta.

Hypätään heti syvään päätyyn. Mitä AI-etiikalla tarkoitetaan?

OTTO: Tämä on filosofinen kysymys jo itsessään, ja tätä voidaan lähestyä eri tavoin. Tutkimuksen näkökulmasta voidaan tarkastella sitä, etiikka ja eettiset kysymykset oikeasta ja väärästä ja hyvästä ja pahasta liittyvät teknologiaan ja tekoälyyn. Toisaalta aihetta voidaan lähestyä käytännön näkökulmasta, eli miten arvoja rakennetaan (ja miten niitä voidaan rakentaa) teknologiaan esimerkiksi järjestelmien ominaisuuksien ja teknisten vaatimusten muodossa. Toisaalta yhä enemmän on kyseenalaistettu sitä, että tekoälyn etiikka koskisi kapeassa mielessä vain teknologiaa. Eettiset kysymykset kytkeytyvät myös liiketoiminnan etiikkaan sekä organisaatioiden ja instituutioiden toimintaan. Mietitään vaikka järjestelmää, joka tunnistaa ihmisiä maiden rajoilla. Jos tätä teknologiaa käytetään tällaisessa viranomaistoimenpiteessä, niin sen sisältämiä eettisiä seurauksia ja arvoja voi olla vaikea ymmärtää vain teknologiaa tarkastelemalla. Ne pitää kontekstualisoida. Siinä mielessä AI-etiikka ei ole tavallista etiikkaa kummempaa, mutta se ottaa huomioon tekoälyn ominaispiirteet kuten adaptiivisuuden ja suuret datamäärät.

PERTTI: Insinöörinä nousee mieleen vasaran etiikka. Eli vasaraa voidaan käyttää väkivaltaan, vaikka sitä harvemmin tapahtuu. Emme näe yleensä vasaraa pahan objektina vaan teknisenä työkaluna, jota käytämme erilaisiin tarkoituksiin. Insinöörien koulutuksessa tai maailmankuvaa rakentaessa ennemmin tai myöhemmin kaikille tulee vastaan nämä esimerkit, missä tilanteessa tekniikkaa voidaan käyttää väärin: ydinvoima, dynamiitti, aseet, ruuti ja niin edelleen. Tekoäly on saman aiheen jatkumo. Nyt kun tekoälyä käytetään ihmisten arkipäiväistä elämää koskeviin asioihin, ja tekoäly tekee ihmisiä koskevia päätöksiä, tästä keskustelusta on tullut relevanttia.

OTTO: Onkin yleinen näkökulma, että tekoälyä lähestytään hyvin instrumentaalisesti. Sillä voidaan tehdä hyvää tai pahaa. Eihän algoritmi itsessään ei ole mitään, ellei sitä pistetä johonkin käyttökontekstiin. Sillä ei itsessään ole moraalisia ominaisuuksia. Mutta tekoälysovellusten moninaiset käyttötavat eivät ole moraalisesti tai eettisesti neutraaleja. Tässä onkin mielenkiintoinen dualismi: toisaalta tekoäly on väline mutta yhden ja samankin tekoälysovelluksen käyttökontekstit sisältävät selkeitä eroja myös niiden eettisissä ulottuvuuksissa.

Kenen pitäisi huolehtia etiikasta ja teknologian eettisestä käytöstä?

PERTTI: Käytännössä kiire hallitsee kehitystä. Pyritään nopeisiin ratkaisuihin epävarmuuden ja paineiden vallitessa. Mutta väitän, että jokaisella insinöörillä, suunnittelijalle ja softan tekijällä on jonkinlainen vastuu. Esimerkiksi Jenkeissä toimii kansainvälinen tekniikan alan järjestö IEEE. He ovat laatineet tällaisen ammattietiikan oppikirjan, jossa listataan erilaisia periaatteita insinööreille. Se on yksi työkalu, jota voidaan käyttää. Mutta kaikki ihmiset päätöksentekoketjussa ovat vastuussa ja velvollisia pohtimaan, mitä teknologiaa kehitetään, mitä otetaan käyttöön, mitä viedään tuotteisiin ja kenelle teknologiaa annetaan käyttöön.

OTTO: Tämä yhteisen moraalisen vastuun kysymys on kiinnostava: se on kaikilla, mutta toisaalta se on hyvin jäsentymätön asia. Itse näen näillä eettisillä ohjeistuksilla suuren arvon, mutta kentällä ja tutkimuskentässä niitä kritisoidaan siitä, että ne antavat kyllä ohjeistuksia mutta eivät ole sitovia. Niitä ei käsittääkseni juurikaan valvota. Katse kääntyy siis lainsäädäntöön, koska vastuut pitää pystyä konkreettisesti osoittamaan. Jotta voidaan löytää syylliset tarpeen tullen mutta myös osoittaa arvostusta heille, jotka sitä ansaitsevat. Hyvästä työstä palkitseminen on toinen osa moraalista toimintaa.

PERTTI: Lainsäädäntö on aina myöhässä tekniikan kehittyessä. Aina. Ellei ruveta tekemään spekulatiivista lainsäädäntöä ja siihen harva on valmis. Toisaalta EU yrittää nyt luoda jonkinlaista eettistä normistoa tekoälylle, joka voi aikanaan muuttua lainsäädännöksi.

OTTO: Tekoälysäädös on kovaa vauhtia tekeillä ja siinä pyritään setvimään juuri näitä vastuun kysymyksiä. Esimerkiksi yrityksissä valta jakautuu usein epätasaisesti. Siellä on ihmisiä, joilla on lopullinen päätäntävalta. Ja useimmiten on hyvä, että jollakin on ratkaiseva ääni. Mutta se luo myös ongelmia julkisen vastuun jakautumisen suhteen.

PERTTI: Niin, aika pahojakin ongelmia. Mitä enemmän on hierarkiaportaita, sitä enemmän informaatio valinnoista, niiden plussista ja miinuksista, vesittyy ylöspäin mentäessä. Lopulta on pelkkiä plussia. Mieleen muistuu avaruussukkula Challengerin onnettomuus vuonna 1986, jossa kahden raketin osan välinen tiivisterengas oli kumista tehty. Pakkasessa kumista hävisi kimmoisuus ja se alkoi vuotaa. Tämä oli tiedossa niin tiivisteen toimittajalla kuin kehitystiimillä, mutta sanoma vesittyi johtoportaassa ylöspäin mentäessä. Raketti käynnistettiin pakkasesta huolimatta, ja huonosti kävi. Tämä on klassinen esimerkki siitä, miten päätöksentekoa koskeva informaatio muuttuu väliportaiden kautta. Jenkeissä on tähän tarpeeseen käytössä ’Whistleblower Protection Act’. Eli kuka tahansa voi puuttua asiaan, vetää ns. pillistä, jos näkee vaaraa tai riskejä. Tällaisia pitäisi tavalla tai toisella rakentaa tekoälyn ympärille.

OTTO: Hyvä että otit tämän esille. “Whistleblowing” on todella kuuma peruna myös tekoälyn etiikassa. Tekoälyn etiikan johtavia tutkijoita on potkittu pois Googlelta, koska he nostivat esiin epäkohtia niin yrityksen työympäristössä kuin siellä kehitetyssä teknologiassakin. “Big tech” -yrityksillä on muutenkin mahdollisuudet epäeettisen toiminnan peittelyssä, ja tämä vaikuttaa myös tutkimusyhteisöön ja mediaan. Pertin anekdootista tuli mieleen myös suhteellisen tuore Boeing-lentokoneturma vuonna 2019. Lentokoneeseen lisättiin uusi ohjausohjelmisto johdon määräyksestä. Uudistus esitettiin siten, ettei lentokoneen mallia tarvitsisi muuttaa. Mallimuutokseen liittyy ilmeisesti lisäkustannuksia, koulutusta ja muuta byrokratiaa, joka haluttiin välttää. Tämä tekoälykomponentti kuitenkin muutti koneiden toimintaperiaatetta, mikä vaikutti lentokoneen ohjaukseen. Piloteilla ei ollut annettu koulutusta, eikä heillä ollut osaamista ottaa konetta hallintaan uuden ohjelmiston avulla. Tämä on se toinen toimintatapa: käsky tulee ylhäältä, ja ruohonjuuritaso pidetään pimennossa.

Tekniikan etiikka ei ole uusi aihe. Siitä on puhuttu jo vuosia. Miten ja miksi tekoäly muuttaa tätä keskustelua?

PERTTI: Meillä ei ole aiemmin ollut sellaisia työkaluja, jotka tekisivät meidän puolestamme meitä koskevia päätöksiä yhteiskunnallisesti merkittävissä asioissa. Nyt on. AI voi tehdä päätöksiä, joita aiemmin ovat tehneet esimerkiksi poliisit, juristit, sosiaaliviranomaiset ja vakuutusvirkailijat.

OTTO: Samaa mieltä. Se on teknologian käyttöönoton lisääntymisen myötä tullut muutos. Tekoälyn kohdalla uutuuksia ovat myös tietynlainen kontrollin luovuttaminen, adaptiivisuus, ja päätöksenteko, joka pohjaa ihmisten tuottamaan (historialliseen) dataan.

PERTTI: Toisaalta meillä on aina ollut teknologioita, jotka tekevät asioita puolestamme. Esimerkiksi terveydenhuollossa, turvajärjestelmissä ja niin edelleen. Taskulaskimien tuonti kouluihin synnytti aikanaan moraalista pelkoa ja paniikkia. Mikä oli tietyllä tavalla tyhmää, koska tietokone on tietysti paljon parempi laskutoimitusten tekijä kuin ihminen. Mutta silloin pelättiin, että ihminen menettää jonkin taidon.

OTTO: Keskustelu tekoälystä herättääkin paljon tunteita tässä suhteessa. Ehkä ne toimenpiteet, mitä koneelle tavallaan luovutetaan, ovat merkityksellisempiä kuin ennen? Tämä pistää pohtimaan, mitä valtaa voidaan luovuttaa ja millä ehdoilla, ja millaista arvoa siitä saadaan.

PERTTI: Lisäksi kyse on nopeasti muuttuvasta maalista. Tekoäly kehittyy nopeammin kuin yksikään toinen teknologia mitä olen eläessäni nähnyt.

Mitä pitäisi tehdä? Pitäisikö meidän muuttaa tapaa, miten teknologiaa kehitetään?

PERTTI: Näen tätä ennen kaikkea ihmisyytenä. Toivoisin, ettei kehitettäisi putkinäköinsinöörejä, jotka näkevät tekniikkaa vaan annettaisiin mahdollisuus kehittyä samaan aikaan ihmisenä. Koulutuskysymys, mutta ei pelkästään sellainen. Siihen tarvitaan ihmisyyttä ja ihmisenä olemisen kokemusta.

OTTO: Hyvin sanottu. Jaottelu “eetikko vs. Insinööri” onkin vähän keinotekoinen. Ei meillä ole “kylmiä koneita” tekemässä päätöksiä teknologian suunnittelussa vaan ihmisiä. Mutta se on kasvatuksellinen ja koulutuksellinen haaste myös toiseen suuntaan. Kun tehdään humanistista tai ihmistieteellistä analyysia teknologian vaikutuksista, tarvitaan tietoa myös teknologiasta. Toisaalta esimerkiksi Piilaaksoon liiketoimintakulttuuri ei ole välttämättä sellainen, että se tukisi eettistä harkintaa. Vaikka siellä olisikin aidosti etiikasta välittäviä ihmisiä.

PERTTI: “Money talks”. Raha on tapa ohjata moraalisia ja eettisiä kysymyksiä suurten yritysten kohdalla.

Miten yhteistyötä ja ymmärrystä etiikan ja teknologian kehityksen välillä voidaan rakentaa, jo mainitun koulutuksen lisäksi?

PERTTI: Monikulttuurisilla työtiimeillä, joissa on monenlaisia ihmisiä eri aloilta. Yleisesti tuoden yhteen erilaisia ihmisiä eri lähtökohdista erityisesti kuluttajatuotteiden suunnittelussa. Tämä on tietenkin hankala toteuttaa käytännössä.

OTTO: Samaa mieltä. Yleensä dialogia ja ymmärrystä syntyy, kun pistetään erilaisia ihmisiä samaan tilaan keskustelemaan. Monialainen yhteistyö on erittäin hyvä tapa tuoda erilaisia näkökulmia pöytään. Ja laajemmassa mittakaavassa voisi ajatella, että myös yksittäisten alojen saavutettavuutta ja niiden sisäistä moninaisuutta tulisi parantaa.

PERTTI: Mutta käytännössä suurin osa niistä ihmisistä, jotka erilaisia softia ja laitteita suunnittelevat, ovat insinöörejä. Kovin montaa humanistia ei siellä vieressä istu. Pitää olla huomattavan valistunut manageri, joka rekrytoidessa tähtää monialaisiin tiimeihin.

OTTO: Kyllä. Se on ehkä osa sitä tarvittavaa kulttuurista muutosta: jotta nähdään, että moninaisuus on myös laatua lisäävä tekijä.

Mikä on loppukäyttäjän rooli tekoälyn eettisessä kehityksessä? Onko sitä?

Loppukäyttäjällä tarkoitetaan tässä henkilöä, joka operoi tiettyä laitetta tai joka on käytön vaikutusten alainen.

OTTO: Näen montakin roolia loppukäyttäjällä. Usein AI-sovelluksia kehitetään datajoukoilla, johon loppukäyttäjäkin jotenkin osallistuu. Esimerkkinä Microsoftin TAY-botti, joka oppi twiittailemaan rasistisesti, koska Twitterin loppukäyttäjät opettivat sitä niin. Eli yleinen eettinen toiminta on osa digitalisoituvaa yhteiskuntaa ja eettistä teknologiaa. Jos teknologiaa käytetään päätöksentekoon, niin käyttäjällä pitää tietysti olla eettisiä ja laillisia velvollisuuksia.  Ne ovat samoja, mitä kyseiseen toimeen yleensäkin liittyy, eikä niiden pitäisi muuttua uuden teknologian takia. Tai ainakaan hälventyä minnekään, vaikka muuttuisivatkin.

PERTTI: Tähän esimerkki Jenkeistä. Kaliforniassa on tieliikenteessä käytössä stop-merkki kuten Suomessa. Mutta siihen ei pysähdytä, vaan hiljennetään merkittävästi ja rullataan hitaasti läpi. Puhutaan Kalifornia-stopista. Tesla on opettanut autonsa tähän ihmisten tapaan, vaikka lainsäädäntö sanoo toisin. Tässä yksi esimerkki siitä, miten loppukäyttäjä voi vaikuttaa järjestelmään, sen etiikkaan ja moraaliin.

OTTO: Kyllä. Loppukäyttäjän etiikka on tietenkin myös sitä, että heille annetaan mahdollisuuksia kyseenalaistaa teknologiaa. Tietynlainen “teknologinen resistanssi” on hyvä keino tasata eettistä pelikenttää. Sen sijaan, että teknologia vaan menee eteenpäin, pyritään vaikuttamaan siihen demokraattisesti, välillä vastustamisen keinoin.

PERTTI: Tässä tulee tärkeäksi selittävä tekoäly. Se, että AI pystyisi jollain tavalla perustelemaan päätöksiään tai tuloksiaan. Tai ainakin sen, mihin dataan ne perustuvat tai millä menetelmällä se toimii. Kaikissa softissa tulisi olla kaksi nappia, joista ensimmäisessä voi kyseenalaistaa ja toisessa vastustaa.

OTTO: Voin allekirjoittaa tämän. Tuossakin tulee loppukäyttäjän rooli mielekkäästi kuvioon. Se, mitä pitäisi selittää, riippuu hyvin paljon loppukäyttäjän intresseistä. Niitähän voi olla useita erilaisia. Meillä voi olla sääntelyä tekevä tai valvova elin, joka vaatii tietynlaista tietoa. Sitten on loppukäyttäjä, joka tarvitsee sen tuloksen tai toiminnan. Selitettävyydellä ei ole mitään virkaa, ellei se tue näitä olemassa olevia intressejä.

PERTTI: Eri tahoilla on eri intressit, ja sen mukaan ne selitykset voivat olla hyvin erilaisia. Selityksiä tarvitaan eri tavoilla perehtyneille ihmisille eri tarkoituksiin.

OTTO: Sanoisin, että niiden pitää olla myös koherentteja keskenään. Eli tiedon ytimen ei pidä muuttua.

PERTTI: Myös ihmiset toimivat tällä tavalla. Annamme kummallisia selityksiä eri asioille, ja selitämme toimintaamme. Me myös valehtelemme ja tuotamme eri tasoisia valheita.

OTTO: Varmaan olennaiseksi kysymykseksi nousee lopulta se, mitä odotamme. Jos meillä on teknologia, jonka pitäisi olla ns. parempi kuin ihminen, mutta käytämme standardeina ihmisen tuottamia selityksiä. Niin se voi olla myös huono keino. Ehkä odotamme myös niiltä selityksiltä enemmän kuin ihmisiltä.

PERTTI: Todennäköisesti. Tällä hetkellä minua askarruttaa myös valtioiden väliset erot tekoälyn kehityksessä. Eurooppa yrittää pohtia tekoälyn moraalisia ja eettisiä ulottuvuuksia. Jenkeissä keskitytään liiketoimintaan. Kiina tekee mitä haluaa. Käykö niin, että Eurooppa jää tekoälyn kehityksen jalkoihin sen vuoksi, että asetamme rajoituksia tekoälyn kehitykselle? Silloin kehitys vaeltaa muualle. Tämä huolestuttaa minua aika paljon.

OTTO: En tiedä, pitääkö tästä kilpavarustelusta olla huolissaan. Aika näyttää. Toisaalta se, mikä on taloudellisesti kestävää, ei välttämättä ole sosiaalisesti kestävää. Mielestäni Euroopan lähestymistapa, puutteistaan huolimatta, rakentuu kestävämmälle pohjalla ja tarjoaa demokraattisen kontrollin paremmin näihin vaikutuksiin.

Kiitos keskustelusta – tästä on hyvä jatkaa!

Blogiteksti on toteutettu Tampereen yliopiston KITE-projektissa, jonka tarkoituksena on kehittää tekoälysovelluksia ja niiden suunnittelumenetelmiä ihmiskeskeisen teknologian tutkimusta soveltaen. Ihmiskeskeinen tekoäly korostaa loppukäyttäjien tarpeita ja huolenaiheita tekoälyn kehityksessä ja hyväksymisessä.

Sneak peek to a citizens’ needs and concerns of AI and smart city solutions

Teksti on julkaistu alunperin Tampereen yliopiston KITE-projektin (Kaupunkiseudun ihmiskeskeiset tekoälyratkaisut) nettisivuilla 18.2021.

On January 25th, 2020, the science event Tiedon valoa (Light of Knowledge) took place in Tampere Hall. Few of the KITE project researchers participated in the event and collected survey information about the needs and concerns of AI and smart city solutions. In this blog post, we briefly report the preliminary results from the survey.

As human-centered AI strongly emphasizes the humanistic and ethical viewpoint of AI, smart city solutions cannot be developed in a void. Thus, giving a voice to the different AI stakeholders is critical.

Introduction to the survey

The survey proceeded with tablet computers, and respondents answered the questions by themselves. During the one-day event, KITE project researchers managed to gather all in 101 survey responses. Respondents represent a varied group from school kids to seniors with an age range from 9 to 73 years and thus the insight is very interesting. However, the data collection is still limited: the event was a science event focusing on a smart city solution that might attract similar kinds of people, thus narrowing down the diversity of respondents. Despite this, the survey reveals interesting notions of how (smart city) citizens perceive AI, and what are their real-life experiences, needs, and concerns related to AI technologies. All questions were voluntary, and some questions allowed multiple choices. This has taken into an account in the analysis.

AI is seen as understandable and acceptable

Most respondents found AI as a familiar concept: 94% of the respondents agreed AI be a familiar concept. In addition, 88 % of the respondents described themselves as either active, mainstream, or a forerunner follower in technology development. The dystopian horror stories that are typical around the public AI discourse, were not visible in this survey and the feelings of AI were mostly positive. Many respondents described themselves as curious, hopeful, or excited about AI. This is a positive sign in smart city development because it indicates AI acceptance among the citizens: the communication of AI development to the public and how the public perceives this information will critically influence the technology adoption and use (Cave et al. 2018). However, puzzling feelings, such as confusion, were also visible in the survey responses.

Who decides about the use of AI?

One of the most important elements of human-centered AI is user awareness. When users know they are interacting with the AI system, they can make judgments about the advantages and limitations of the system and choose whether to work with it or not (Engler 2020). However, humans are not always aware of being “users” of AI, and hence human-centered AI must be transparent especially in situations that are critical regarding the consequences.

According to our survey, the most familiar AI technology are navigational services. This does not come as a surprise since navigational services are typically built-in solutions, for instance, in smartphones. The use of these services is easy and straightforward, and users can independently choose if and when to use this tool. Nonetheless, it is interesting that navigational services are followed by recommendation algorithms or social media marketing: AI solutions that are beyond the users’ scope and concrete use. Of course, in most cases, users can tweak e.g. the ads or recommendations but they are still heavily influenced by AI algorithms that gather personal data and track user behavior. Even though automation is one of the driving forces of AI development, maintaining user control is an important aspect. According to Balaram et al. (2018), people would be more likely to support AI applications if they were given more agency.

The concern of losing humanness vs. the benefit to save time

AI solutions are typically promoted as a weapon against time ⁠— the time-saving tool that removes the mundane tasks and releases human capacity to its full potential. This thought was visible also in the survey: 79% of the respondents saw time-saving features as the main expected AI benefit, and 75% assumed that AI will improve work efficiency. On the other hand, the expected threats or concerns towards AI associated with the decrease of humanness (67%) and loss of human contacts (65%), in addition to the data collection, privacy, and security (65%).

It is noteworthy, that technological change is always a trade-off: the benefit that the new technology brings includes also a negative side-effect (Postman 1998). For example, anthropomorphism might create problems in AI transparency: customer service calls, chatbots, and interactions on social media and in virtual reality may become progressively less evidently artificial (Engler 2020). People still need people, and it is important to provide ways, for instance, to human-human communication. In addition, we need to keep ‘human-in-the-loop’. While automation has the potential to make us more human by taking off the repetitive tasks, it will require us to be more critical and reflect on our practice to find where our human intelligence will be necessary (Hume, 2018).

Building better societies and well-being with AI

Human-centric design and human-centered AI do not highlight ‘human’ without a reason: respecting human values and needs while designing AI applications is a core element of socially acceptable and responsible AI. It is important to notify, what kind of solutions are usable in certain contexts, and how these solutions serve specific user needs. In addition, AI should be designed in taking into account the wider sociocultural context and sociocultural norms (Ford et al. 2015).

In our survey, the respondents wish to see AI solutions specifically in societally remarkable areas such as well-being, work-life, safety, and carbon-neutral buildings. Of course, these categories are very wide and for example, ‘well-being’ can be interpreted in many ways (personal well-being, e.g. personal health, or societal well-being, e.g. education). Unfortunately, we could not dive very deep into the topic. However, most of the answers can be seen to benefit both the individual and the society, and for instance, AI usage in the home and everyday life was ranked relatively low. It seems, that AI solutions are expected to be realized mainly on a societal level.

Disclaimer: The survey responses presented in this blog post were gathered during a one-day event with a very varied group of respondents, so the results are not very generalizable. However, the results provide interesting information and insight into the citizens’ perceptions of AI and smart city solutions. Even though the feelings toward AI are mainly positive and AI is seen as beneficial, for instance in improving work efficiency, the concerns of losing humanness are visible. Thus, it is important to design AI solutions considering all stakeholders, including those who are influenced by AI without directly using it. This is critical as AI’s agency in society increases.

References

Balaram, B., Greenham, T., & Leonard, J. (2018). Artificial Intelligence: real public engagement. RSA, London. Retrieved November 5, 2018 from https://www.thersa.org/globalassets/pdfs/reports/rsa_artificial-intelligence—real-public-engagement.pdf

Cave, S., Craig, C., Dihal, K., Dillon, S., Montgomery, J., Singler, B., & Taylor, L. (2018). Portrayals and Perceptions of AI and Why They Matter. The Royal Society, London. Retrieved from https://royalsociety.org/-/media/policy/projects/ai-narratives/AI-narratives-workshop-findings.pdf

Engler, A. (2020) The case for AI transparency requirements. Brookings Institution’s Artificial Intelligence. The Brookings Institution’s Artificial Intelligence and Emerging Technology (AIET) Initiative. Retrieved from https://www.brookings.edu/research/the-case-for-ai-transparency-requirements/

Ford, K. M., Hayes, P. J., Glymour, C., & Allen, J. (2015). Cognitive Orthoses: Toward Human-Centered AI. AI Magazine, 36(4), 5-8. https://doi.org/10.1609/aimag.v36i4.2629

Hume, K. (2018). When Is It Important for an Algorithm to Explain Itself? Harvard Business Review. Retrieved from https://hbr.org/2018/07/when-is-it-important-for-an-algorithm-to-explain-itself

In droid we trust – trust in friendly robots in Star Wars

Writer is a doctoral researcher at Tampere University, Technology x Social Interaction research group.

Warning: contains Star Wars spoilers!

Thanks to my BF, I just recently watched all the Star Wars films in a few weeks. I couldn’t help but notice the remarkable relationship between humans and robots (droids, to be specific) in the galactic universe. What an ideal example of seamless human-computer interaction! Since my Ph.D. research focuses on trust in technology, I got interested in examining how trust in technology manifests in human-droid interaction, focusing on the friendly droids: R2-D2, C-3PO and BB-8 — yes, I will be staying on the light side of the Force.

What is trust in technology, actually?

Trust is a double-edged sword. Even though it plays a big role in our everyday interactions (and life in general) it is not easy to define. Both trust in technology and trust in humans advocates the trust definition by Mayer, Davis, and Schoorman (1995), where trust is defined as “the willingness to be vulnerable to the actions of another party based on the expectation that the other will perform a particular action important to the trustor irrespective of the ability to monitor or control the other party”. In Star Wars, the droids are seen as individuals: they have autonomy, although they might be committed to following certain characters. They act for the common good when needed, without waiting for specific commands. Luckily — it’s not just once or twice that droids have saved the whole galaxy from total destruction.

Celebrating the Rebel victory at Endor — all together!

Vulnerability, expectations, lack-of-control — these are just some keywords to conceptualize trust. But the most significant element in the trust is interaction: trust forms in relation to ‘the other’. We form trusting beliefs about the persons or technologies necessary attributes to perform as expected. These external variables, expectations, define what kind of trust relationship we build. In human-droid interaction, droids are expected to function correctly when needed, and with droids’ versatile technological capabilities, they usually know exactly what they should do in certain situations.

Thus, we can expect technology to function properly, or our partner to be faithful. Still, despite our expectations, the other party might fail us — and we’re totally aware of that. Trusting beliefs are thus followed by trusting intentions: while we cannot control the other party’s behavior, we are willing to take a risk: to become vulnerable and depend upon the other party.

In Star Wars, trust in technology and droids is remarkably solid — hardly anyone questions either droid’s loyalty or functionality. The willingness to depend upon the other (the trustee) is an action manifestation of trusting behavior. This becomes visible for example in A New Hope when Leia pleads for the help of Obi-Wan Kenobi using R2-D2 as a messenger. Even though this task does not go as planned (the droids are captured and sold to Luke’s uncle — the rest is history), the trust toward these little fellas is not reduced.

Besides, droids have always been around. Droids are trusted because they are already familiar and proved as trustworthy: a situation where the trustor knows the other party well enough to predict its behavior is defined as knowledge-based trust (Lewicki & Bunker 1996, McKnight 2011). The more we use certain technologies, the more easily we form trust in these technologies. This applies also in the human-robot trust relationship: the amount of experience that users have interacting with the robot may influence trust formation (Koay et al., 2007).

“Never underestimate a droid” — Leia

Trust is dynamic — and individual. While trust in droids is mostly solid, there are few exceptions. Rey, for instance, seems quite skeptical when BB-8 enters her life in The Force Awakens. As a relatively poor scavenger, she might not be used to droids. Trust in an unfamiliar trustee, where we do not have credible information about the other party, is called initial trust (Bigley & Pierce 1998). To make trusting decisions in this kind of situation, we reflect on our social environment: for example, asking our friends’ opinions. Even though Rey is not directly asking about the trustworthiness of droids, Leia gently encourages her by reminding that she should “never underestimate a droid”.

Wherever you will go, droids will have your back.

Even when completely new droids appear, trust in droids doesn’t falter. Not even once in the whole galactic universe, someone is worried about the safety or privacy of droids. D-O is a good example of this blind trust. This small and submissive hairdryer-lookalike was once owned by the Sith assassin Ochi of Bestoon. In The Rise of Skywalker, D-O plays an important role in delivering information about the hidden world of the Sith, Exegol. Do you remember someone questioning the truthfulness of this information? Yep, no one did. Moreover, also interesting aspect in droid-human interaction is the deployment of the (droid) technology: although droids might act as a sidekick of certain characters, the formation of this relationship is very intuitive. Basically, it just happens. For example, D-O accepted its role under a new “ownership” without any kind of authentication. And this goes both ways.

The question of right and wrong — volition and moral agency in trust literature — is probably the biggest difference in trust in humans and trust in technology. As humans can make moral decisions, technology can only be expected to do what it is programmed to do. Thus IT-related trust reflects beliefs about a technology characteristic rather than its will or motives (see e.g. McKnight 2011.) While it sometimes seems so, droids do not have cognitive capabilities. This is proven by Obi-Wan Kenobi in Attack of the clones: “Well, if droids could think, there’d be none of us here, would there?” Somehow this sounds a bit familiar what comes to certain concerns about AI.

Technologies “humanness” influences trust

Ever felt sad when your favorite droid was heading to its apparent decease? Been there. We feel emotionally attached to droids because they seem so human-like. Like robots, droids include social cues: they interact either with real language or droidspeak, physical expressions, color or movements. Besides, they express emotions. All of this influences trust in robots (Tapus et al., 2007; Martelaro et al., 2016)

The design of interaction might affect trust toward particular technology (McKnight, 2005; Lankton, 2015). Since droids promote human-like technology, trust in droids is based on beliefs about the trustee’s competence, benevolence, or integrity (compared to technology’s helpfulness, reliability, and functionality, see e.g. McKnight, 2011; Lankton et al., 2015). This means droids are seen competent at their actions: they have skills that help them to succeed in a specific domain. Integrity refers to the predictability: trustee behaves according to the trustor’s perception. Benevolence is seen as the extent to which the trustee is believed to want to do good or help the trustor (McKnight, 2011; Mayer, 1995).

Fun fact: especially vulnerability has been shown to improve likability and influence trust in robots (Siino et al., 2008). Probably this has something to do with our fear of omnipotent technology. Anyhow, it might explain why we love our droids in Star Wars so much. Droids do make errors. Just like us!

“Don’t worry. We have R2 with us.”– Anakin

The quote above reveals pretty much about droid’s role in the Star Wars: as long as droids are around, all is good. Droids are seen as loyal partners who fearlessly follow their human counterparts to the darkest corner of the galactic universe (though 3-CPO expresses some concerns time-to-time). For a human-robot team to accomplish its goal, humans must trust that their robotic team-mate will protect the interests and welfare of every other individual on the team (Hancock et al., 2011). And this is obvious in Star Wars.

Even though droids’ technical abilities are useful, even lifesaving, they don’t exist in the Star Wars universe only due to their skills. For example: when Padmé and Anakin are having their secret wedding ceremony on Naboo, who is there to witness? R2-D2 and C-3PO. They are not there to protect them, they are there as friends. And a true friend you can trust — always.

R2-D2 and C-3PO honoring the secret wedding ceremony of Padmé and Anakin — exclusively.

Photos: Wookieepedia, the Star Wars Wiki

Sources:

Bigley, G. A., Pearce, J. L. 1998. Straining for shared meaning in organization science: Problems of trust and distrust. The Academy of Management Review, 23(3), 405–421.

Hancock P. A., BillingstaD. R., Schaefer. E., Chen J. Y. C., de Visser. J., Parasuraman, R. 2011. A Meta-Analysis of Factors Affecting Trust in Human-Robot Interaction. Hum. Factors, vol. 53, no. 5, pp. 517–527, Oct. 2011

Harwood T., Garry T. 2017. Internet of Things: understanding trust in techno-service systems. Journal of Service Management 28, 3, Mar. 2017, 442–475.

Koay, K. L., Syrdal, D. S., Walters, M. L., Dautenhahn, K .2007. Living with robots: Investigating the habituation effect in participants’ preferences during a longitudinal human-robot interaction study. In Robot and Human interactive Communication, 2007. RO-MAN 2007. The 16th IEEE International Symposium on, pages 564–569. IEEE, 2007.

Lewicki, R.J., Bunker, B.B. 1996. Developing and maintaining trust in work relationships. In Trust in Organizations: Frontiers of Theory and Research, R. Kramer and T. Tyler Eds., Sage Publications, Thousand Oaks, CA, 114–139.

Martelaro N., Nneji V. C., Ju W., Hinds P. 2016. Tell me more: Designing hri to encourage more trust, disclosure, and companionship. In Proceeding HRI ’16 The Eleventh ACM/IEEE International Conference on Human Robot Interaction, pages 181–188. IEEE Press Piscataway, 2016.

McKnight, D.H. 2005. Trust in information technology. In The Blackwell Encyclopedia of Management, Management Information Systems,G.B.Davis,Ed.,Blackwell,Malden, MA,Vol.7, 329–331.

Mcknight, D. H., Carter, M., Thatcher, J. B., & Clay, P. F. 2011. Trust in a specific technology: An investigation of its components and measures. ACM Transactions on Management Information Systems, 2(2).

Mayer, R. C., Davis,, J. H.,Schoorman, F. D. 1995. An Integrative Model of Organizational Trust. Acad. Manage. Rev., vol. 20, no. 3, p. 709, Jul. 1995.

Salem., Lakatos G., Amirabdollahian F., Dautenhahn K.2015. Would You Trust a (Faulty) Robot?: Effects of Error, Task Type and Personality on Human-Robot Cooperation and Trust. HRI’15, 2015, pp. 141–148.

Siino, R. M., Chung J., Hinds, P. J. 2008. Colleague vs. tool: Effects of disclosure in human-robot collaboration.ROMAN ’08, 2008, pp. 558–562.

Tapus A., Mataric M. J., Scasselati, B.2007. Socially assistive robotics [Grand Challenges of Robotics]. IEEE Robot. Autom. Mag., vol. 14, no. 1, pp. 35–42, Mar. 2007.

Tiedejargonia vai somejulkisuutta – tiedeviestintä sosiaalisessa mediassa

Teksti on osa Tampereen yliopiston Tiedeviestinnän käytänteet -kurssia.

Sosiaalinen media – tuo totuutta vääristelevä, kuplia luova, itsekeskeisten ihmishirviöiden leikkikenttä. Vai kuitenkin nopea ja demokraattinen julkaisukanava, verkostoja rakentava ja maksumuureista sekä vertaisarvioinnista vapaa vaikuttamisen kanava? Oli mielipiteesi kumpi tahansa tai jotain siltä väliltä, fakta on, että tieteeltä vaaditaan yhä enemmän yhteiskunnallista vuorovaikutusta. Vaikuttavuuden vaatimus ja sen merkitys mahdolliseen rahoitukseen painostavat tutkijoita yleistajuistamaan tutkimustaan ja luomaan asiantuntijuutta myös akateemisen yhteisön ulkopuolella – esimerkiksi sosiaalisessa mediassa.

Tässä blogauksessa käsittelen sosiaalisen median käyttöä tiedeviestinnässä keskittyen erityisesti tapoihin ja asenteisiin tiedeyhteisön sisällä.

Media nimeltä tutkija

Näkyvyys, vaikuttavuus ja avoimuus ovat enenevissä määrin hyvän tieteen tunnusmerkkejä – ja rahoittajan vaatimuksia. Tiedeviestintä on osa ammattitaitoista tutkimusta, todetaan tiedeviestinnän suosituksissa. Tutkimuksen ja opetuksen ohella yliopistoilta vaaditaan myös yhteiskunnallista vuorovaikutusta – osallistavaa tiedeviestintää, jossa tiedeyhteisö ei tiedota vain tutkimustuloksista vaan viestintä kattaa koko tutkimusprosessin. Kuten Pekka Isotalus luennolla totesi, tutkijoita koskevat samat lainalaisuudet kuin muutakin työelämää: monipuoliset vuorovaikutustaidot ja viestintäosaaminen ovat osa ammattitaitoa.

 “Tutkija itsessään on media: hän edustaa asiantuntijana omaa työtään eri tahoille” – Oulun yliopiston viestintäjohtaja Marja Jokinen (Innanen 2017)

Muuttuvat ammattitaidon kriteerit herättävät myös vastustusta. Julkisena asiantuntijana esiintymistä ei välttämättä katsota hyvällä akateemisen yhteisön sisällä. Kyse on kenties yleisessä suhtautumisessa (eli arvostuksessa) sosiaalista mediaa kohtaan, mutta myös ns. perustellusta asiantuntijuudesta. Simone Rödder (2012) on tutkinut tiedeyhteisön suhtautumista tutkijan julkisuuteen. Rödderin tutkimuksen mukaan tutkijan näkyvä rooli julkisuudessa on oikeutettava erityisin perustein, joista tärkein on (ymmärrettävästi) oma aktiivinen tutkimus. Toisena perusteena on tutkijan ammatillinen rooli organisaation tai projektin johtotehtävissä. Viimeisenä perusteena korostuu tutkijan vaatimattomuus: oman ammattitaitonsa markkinointia ei katsota sopivaksi: mikäli julkisuus on tullakseen, tulee sen tulla median aloitteesta.

En osaa sanoa, miten Rödderin tutkimus istuu suomalaiseen akateemiseen maailmaan herran vuonna 2019, mutta tiedeyhteisön vähättelevä suhtautuminen “somettaviin” tutkijoihin on todettu myös suomalaisten tutkijoiden taholta. Tampereen yliopiston suomen kielen apulaisprofessori Johanna Vaattovaaran (2013) mukaan tiedeyhteisöt voivat vähätellä julkisuudessa esiintyvää tutkijaa. Samoilla linjoilla on kirjailija, tiedetoimittaja ja Turun yliopiston työelämäprofessori Tiina Raevaara, jonka mukaan vanhemmat tutkijat saattavat jopa lytätä nuoren tutkijan aseman julkisena asiantuntijana ja kommentaattorina (Keini 2018).

Raevaara kiteyttää ongelman ytimen. Päätöksentekijät ja media ovat harvoin kiinnostuneita vain tutkijan omasta tutkimusaiheesta – he haluavat näkökulmia ja konteksteja ajankohtaisille asioille (Koskinen, Ruuska & Suni 2018). Kyse on asiantuntijuudesta ja sen kokemuksesta: onko tutkijan asiantuntijuus suppeaa vai laveaa (Rödder 2012) ja kuinka laajalla – tai rajatulla – areenalla tutkija kokee voivansa toimia asiantuntijana? Ja kuka tutkijan asiantuntijuuden oikeastaan määrittelee?

“Akateemisen asiantuntijuuden rakentumisessa ei varsinaisesti lueta ansioksi yleistajuisten juttujen tai Twitter-seuraajien määrää.” –  Tampereen yliopiston suomen kielen apulaisprofessori Johanna Vaattovaara (Vaattovaara 2013)

Negatiivinen ilmapiiri julkisuutta kohtaan saattaa kieliä myös asenneilmastosta sekä tieteen yleistajuistamista että sosiaalista mediaa kohtaan, kuten Vaattovaaran osuva kommentti ilmentää. Tosin useasti tviitatun artikkelin on todettu korreloivan artikkelin saamien viittausten määrää (ks. esim. The Atlantic). Vaikka akateemisen asiantuntijuuden ei voi sanoa rakentuvan sosiaalisen median varaan, voi toimiva tiedeviestintä tukea asiantuntijuutta.

Somettavan tutkijan moninainen rooli

Eri viestinnän foorumeilla on oma yleisönsä. Tutkijan on luonnollisesti helpompaa viestiä tutkimuksestaan tiedeyhteisön sisällä, joka ymmärtää tieteellisen tutkimuksen lainalaisuudet. Sosiaalisessa mediassa toteutettavassa tiedeviestinnässä yleisöä ei voi ennakoida: vastaanottaja tulkitsee tiedon omista lähtökohdistaan, ja tämä tietotaso voi olla akateemista yleisöä suppeampaa.

Tutkijan rooli onkin usein mediassa omaa tutkimustyötä laajempi: Tutkija voi esiintyä mediassa paitsi tieteen yleistajuistajana, myös ajankohtaisten ilmiöiden tulkkina, yhteiskunnallisena osallistujana ja (tiede)politiikan kommentaattorina tai omaa tutkimustaan, tutkimusalaansa ja organiaatiotaan näkyväksi tekevänä toimijana.  Tutkijalla on mahdollisuus tuoda julkiseen keskusteluun hyvin perusteltuja argumentteja tai näkökulman, joka ei aiemmin ole päässyt esiin. (ks. esim. Väliverronen 2001 ja Koskinen, Ruuska & Suni 2018.) Tutkijalla on julkisessa keskustelussa tärkeä rooli objektiivisen tiedon tuottajana.

“Tutkija voi vaikuttaa ainakin siihen, että olemassa oleva tieto tuodaan julkisuuteen.”  – Emerituskansleri Kari Raivio (Koskinen, Ruuska & Suni 2018)

Anu Valkeajärvi on tutkinut suomalaisten tutkijoiden sosiaalisen median käyttöä. Valkeajärven (2018) mukaan somettavat tutkijat kokevat sosiaalisen median käytön edistävän yhteiskunnallista vuorovaikutusta ja tieteen saavutettavuutta – tosin yleisin tutkijoiden kokema sosiaalisen median hyöty korosti julkisuutta tutkijana. Lisäksi tutkijat kokivat hyötyvänsä sosiaalisesta mediasta mm. tiedon lähteenä, tutkimuksesta viestimisessä ja verkostoitumisessa.

Sosiaalisella medialla voi vaikuttaa, ja se voi edesauttaa tutkimustyötä yllättävillä tavoilla. Kun Toronton yliopiston rakennustekniikan professori Maria Hatzopoulo etsi osallistujia tutkimukseensa ilmansaasteiden vaikutuksesta pyöräilyyn, hän turvautui Twitteriin. Suppeasta Twitter-verkostosta huolimatta tieto Hatzopoulon tutkimuksesta levisi ensin blogitekstiksi pyöräilylehteen, sieltä uutiseksi paikallislehteen ja lopulta koko kansan puheenaiheeksi sekä valtakunnalliseen sanomalehteen että radioon. Vaikka osaltaan kysymys oli varmasti aiheen ajankohtaisuudesta, on Hatzopoulon tapaus hyvä esimerkki sosiaalisen median mahdollistamasta näkyvyydestä ja yhteiskunnallisesta vuorovaikutuksesta. (ks. esim. Harvard Business Review.)

Mistä motivaatiota?

Tiedeviestintä avoimissa kanavissa altistaa viestijän kritiikille ja palautteelle, jopa vihapuheelle. Vihapuheen kohtaaminen saattaa pelottaa ja jopa estää tieteestä viestimistä ja asiantuntija-aseman ottamista. Hankalissa viestintätilanteissa tutkija jää helposti yksin. Tiedeviestinnän suositusten ohella myös useat tiedeviestinnän asiantuntijat peräänkuuluttavat tiedeyhteisön tukea tutkijoiden lisääntyneessä viestintävastuussa. (Ks. esim. Innanen, myös Koskinen, Ruuska & Suni 2018.)

Vihapuhe ei kuitenkaan ole suurin syy olla somettamatta – Valkeajärven (2018) mukaan vain 11 % kyselyyn vastanneista suomalaistutkijoista oli joutunut vihapuheen kohteeksi. Ei liene yllätys, että suurin osa sosiaalisen median haitoista koski ajanpuutetta. Myös kiinnostuksen puute sosiaalista mediaa kohtaan nousi esiin Valkeajärven tutkimuksessa.

Osittain kyse on akateemisen julkaisemisen luonteesta: perinteisesti tiedeviestintää on tehty vasta tulosten julkistamisen jälkeen. Akateeminen palkitsemisjärjestelmä ottaa huomioon vain oman alan tieteellisen julkaisutoiminnan, eikä tarvittavaa tiedeviestinnän koulutusta ole välttämättä saatavilla. Rahoituspohja ei myöskään usein tue vuorovaikutusta. (Koskinen, Ruuska & Suni 2018.) Tosin osa rahoittajista vaatii nykyään myös tiedeviestintää ja osoituksia tutkimuksen vaikuttavuudesta.

Vaikuta valikoiden

“Kaikkien ei tarvitse olla suunapäänä julkisuudessa.” Kirjailija, tiedetoimittaja ja Turun yliopiston työelämäprofessori Tiina Raevaara (Keini 2018)

On selvää, ettei jokaisella tutkijalla ole mahdollisuutta viestiä omasta tieteenalastaan yleistajuisesti sosiaalisessa mediassa. Sekä tieteenala että tutkimuskohde vaikuttavat siihen, millaisen roolin tutkija voi ottaa julkisessa keskustelussa, eikä jokaisesta tutkijasta ole tarvetta leipoa oman alansa somejulkkista.

Tosiasia kuitenkin on, että vuorovaikutustaidot ovat olennainen osa tutkijan ammattitaitoa. Oman ydinsanoman kirkastaminen, tilannetaju, reagointi- ja kommentointivalmius sekä aggressiivisuuden kohtaaminen ovat viestintätaitoja, joihin tutkija törmää niin tiedeyhteisön sisällä kuin sen ulkopuolella (Kivimäki 2019). Sosiaalinen media voi tarjota näiden taitojen opetteluun hyvän alustan.

Tutkimuksesi on sinulle tärkeä – sosiaalisen median keinoin voit kasvattaa tutkimuksesi vaikuttavuutta ja osoittaa sen merkitys myös akateemisen yhteisön ulkopuolella. Luota osaamiseesi ja ammattitaitoosi, noudata hyvää tieteellistä käytäntöä myös somen syövereissä ja tue asiantuntijaksi kehittyvää tutkijakollegaa – ja hiljennä se sisäinen kriitikkosi. Tässäkin tapauksessa se pahin vastus taitaa löytyä tutkijasta itsestään.

Ps. Mikäli oman tekstin jargonin taso mietityttää, löytyy internetin ihmeellisestä maailmasta tähän(kin) konstinsa: kurkkaa esim. de-jargonizer.

LÄHTEET

Duque, Lina 2016. How Academics and Researchers Can Get More Out of Social Media. Harvard Business Review. https://hbr.org/2016/06/how-academics-and-researchers-can-get-more-out-of-social-media 

Innanen, Kaisu 2018. Science communication – Just do it? BCDC Interaction. https://www.oulu.fi/blogs/science-communication-just-do-it

Innanen, Kaisu 2017. Tutkija kohtaa viestintäjohtajan ja tiede viestinnän.  BCDC Interaction. http://www.bcdcenergia.fi/blogi-ja-uutiset-tutkija-kohtaa-viestintajohtajan-tiede-viestinnan/

Keini, Kira 2018. Turun yliopiston uusi työelämäprofessori Tiina Raevaara: “Tiede paljastaa jotain piilotettua”. Kaskas Media. https://kaskasmedia.fi/fi/turun-yliopiston-uusi-tyoelamaprofessori-tiina-raevaara-tiede-paljastaa-jotain-piilotettua/

Kivimäki, Sanna 2019. Tiedeviestintä vuorovaikutuksena, luentoslidet.

Koskinen, Iina, Ruuska, Maria & Suni, Tanja 2018. Tutkimuksesta toimintaan. Tieteentekijän opas viestintään ja vaikuttamiseen.

Madrigal, C. Alexis 2012. ‘Highly Tweeted Articles Were 11 Times More Likely to Be Highly Cited’. The Atlantic. https://www.theatlantic.com/technology/archive/2012/01/highly-tweeted-articles-were-11-times-more-likely-to-be-highly-cited/251346/

Rödder, Simone 2012. The ambivalence of visible scientists. The sciences’ media connection – public communication and its repercussions. Sociology of the sciences yearbook 28.

Vaattovaara, Johanna 2013. Tieteen yleistajuistaminen. Tampere: Gaudeamus.

Valkeajärvi, Anu 2018. Tutkija asiantuntijana sosiaalisessa mediassa : Sosiaalisen median merkitys tutkijoiden viestinnässä ja verkostoitumisessa. Metropolia Ammattikorkeakoulu. http://urn.fi/URN:NBN:fi:amk-201805178764

Väliverronen, Esa 2015. Tiedeviestintä ja asiantuntijuus – tutkijoiden muuttuva suhde julkisuuteen. YHTEISKUNTAPOLITIIKKA 80 (2015):3.

Muut:

Viesti rohkeasti, vaikuta vastuullisesti. Tiedeviestinnän suositukset. 2018. (c) Tiedonjulkistamisen neuvottelukunta. https://www.tjnk.fi/sites/tjnk.fi/files/tiedeviestinnan_suositukset_2018.pd