15.12.2016Blogi

Tekoälyn hypevuosi

Jo vuoden 2016 aikana kohistiin paljon tekoälystä ja siitä, kuinka se tulee jatkossa mullistamaan asioita. Tämä ei ole sinänsä uutta – 30 vuotta sittenkin tekoäly oli kuuma aihe, mutta kun suuria lupauksia ei saatu lunastettua, se katosi julkisesta IT-alan keskustelusta tutkijoiden kammioihin. Onko aika nyt kypsä ja mitä ilmiöstä pitäisi ajatella?

Mitä on tekoäly?

Yleisesti älykkyys on kykyä toimia järkevästi tilanteessa, jota ei ole aikaisemmin kohdannut. Tekoälystä puhutaan kun tietokone osaa tehdä jotain näennäisesti “älykästä”, mutta se on viime kädessä vain tietokoneen suorittamaa mekaanista laskentaa, kuten kaikki mitä tietokoneet tekevät. Tekoäly ei siis tarkoita tietoisuutta tai kykyä ajatella, mutta järjestelmään syötetty laskentamalli toimii yleisesti kohdealueen ongelmissa hyvin, eli on “älykäs”.

Raja tekoälyn ja muun ohjelmoinnin välillä on toisaalta aina ollut myös raja huippututkimuksen ja tulosten hyödyntämisen välillä, joten tämän päivän ”tekoäly” on tulevaisuudessa tavallista algoritmiikkaa ja normaalia ohjelmointia. Aikaisemmasta poiketen tekoälytutkimus etenee nykyisin paljon nopeammin käytännön sovelluksiin ja sitä tehdään tällä hetkellä liiketoimintavetoisesti.

Ihmisen korvaaja vai käyttöliittymä?

Suuria odotuksia on ladattu asiakaspalvelussa toimiville chat-boteille ja henkilökohtaisille assistenteille. Muutama firma on PR-temppuna nostanut tekoälyn johtoryhmään. Tällaiset temput ovat yliampuvaa hypeä – kyllä tietokoneen saa juttelemaan näennäisen ihmismäisesti, mutta tietokone ei muodosta itse (toistaiseksi) hyödyllisiä uusia ajatuksia ja mielipiteitä.

Tietokone ei auta johtoryhmää kertomalla mikä on työntekijöille tärkeää tai rakenna itsenäisesti markkina-analyysejä.

Keskustelubotti on kehittyneempi muoto asiakaspalvelusta kuin automaattinen puhelinpalvelu, jossa valitaan numeroiden avulla mitä asia koskee mutta joka ei keskustele takaisin. Ei asiakas koe, että häntä kuunnellaan kun hän pelkästään puhuu botille. Asiakkaan tunteita ei kannata unohtaa.

Amazonin Alexa on omalla tavallaan lupaava teknologia, koska sen kanssa ei ole edes tarkoitus käydä keskustelua. Alexa ymmärtää puhetta ja voi tarjota tekstiviestiä tai graafista käyttöliittymää mukavamman tavan antaa tietokoneelle ohjeita – esimerkiksi ”Alexa, tilaa taksi!”. Puhesyntetisaattorin avulla Alexa osaa myös puhua takaisin, mutta jonkun pitää ohjelmoida komennot ja vastaukset sille.

Ihmisen kaltaisen ajattelevan tekoälyn muodostaminen voi joskus onnistua, mutta  vuodelle 2017 ei kannata odottaa mitään voittokulkua. Sen sijaan Alexan kaltainen puhekäyttöliittymä voi nousta tärkeään rooliin piankin niissä asioissa, joihin se soveltuu hyvin. Sitten siitä ei tulla puhumaan enää tekoälynä. Kollegani on kirjoittanut boteista erillisen ’Chatbotteja, onko heitä?’ -artikkelin, joka kuvaa tarkemmin näitä mahdollisuuksia.

Koneoppiminen ja analytiikka

Tekoälyn taustalla on useita laskentamalleja, mutta viime aikoina koneoppiminen on ottanut suuria harppauksia eteenpäin. Koneoppimisessa tietokoneelle esitetään malliaineistoa jostain ilmiöstä, minkä jälkeen kone pystyy antamaan ennusteita ja tuloksia aineistolla, jota se ei ole aikaisemmin nähnyt.

Tietokone ei tietenkään tee tätä kaikkea itse, vaan aineiston tulkintaan, mallin rakentamiseen ja virittelyyn tarvitaan ihmisiä.

Toistaiseksi koneoppimisen hyödyntäminen edellyttää sovellusalueesta riippumatta tilastomatematiikan ja ohjelmoinnin teoreettista ymmärrystä, jota kuvaa tuore ammattinimike ”data scientist”. Tällä hetkellä näillä ihmisillä on yleensä IT-alan koulutustausta, mutta kun työkalut tulevat paremmiksi, jatkossa tullaan näkemään murros kun eri sovellusalueiden asiantuntijat ottavat nämä menetelmät haltuun ilman IT-alan asiantuntijoita. Tämä on jo alkanut, mutta iso murros tulee tapahtumaan vasta vuoden 2017 jälkeen.

picture1

Kuva. Ostaisitko tältä laskentamallilta käytetyn auton? (lähde)

Tekoälyn sokeat pisteet

Ihmisillä on tunnetusti sokeita pisteitä, joissa rationaalinen ja analyyttinen ajattelu eivät toimi. Psykologiassa on runsaasti tuloksia näistä, mutta toimikoon esimerkkinä tutkimus vuodelta 1976 (Odeb Frenkel & Anthony Doob). Kun ihmisiltä kysyttiin vaaleissa todennäköisyyttä oman ehdokkaan voitolle hetki ennen äänestämistä ja äänestyskopista palaamisen jälkeen, voiton todennäköisyys arvioitiin suuremmaksi äänestämisen jälkeen. Yksittäisen äänen vaikutus lopputulokseen on olematon, mutta ihmiset eivät ajattele tätä rationaalisesti, ainakaan välittömästi äänestyksen jälkeen.

Tekoälyn sokeat pisteet ja rajoitukset ovat aivan erilaisia ja vaikka ne tunnetaan laskennan teorian näkökulmasta, kaikki seuraukset eivät ole vielä ilmeisiä ja selviä.

Esimerkkejä näistä on runsaasti, mutta kerron pari asiaa hyvin havainnollistavaa esimerkkiä. Viime vuoden suurimpia tekoäly-uutisia oli Googlen DeepMind AlphaGo-tekoälyn voitto Go-lautapelissä ihmisten hallitsevasta mestarista Lee Sedolista.

Shakki oli valloitettu jo 90-luvulla, mutta samat ratkaisumenetelmät eivät soveltuneet Go-peliin ja ratkaisua etsittiin pitkään. Saavutus on merkittävä, sillä Go oli viimeinen kahden pelaajan täyden informaation peli, jossa ihminen oli konetta parempi.

Voittopeleissä AlphaGo teki voitostaan huolimatta muutamia täysin järjettömiä pelisiirtoja, jotka minäkin amatööripelaajana tiesin virheiksi ja joita ammattilaispelaaja ei olisi koskaan tehnyt. Nämä olisi voitu hioa pois, mutta pelihaasteella haluttiin todistaa, että DeepMind tuottaa hyviä tuloksia ilman mittavaa optimointia tiettyyn yksittäiseen ongelmaan.

Muutamat järjettömät ratkaisut eivät aiheuta lautapelissä ongelmia, mutta entä jos tekoäly ohjaa autoa?

Tai rahaston kaupankäyntiä pörssissä? Miten suhtaudumme kun tekoäly tekee aivan erilaisia virheitä kuin ihmiset?

Koneoppimisen ja hahmontunnistuksen avulla voidaan kasvokuvasta laskea todennäköisyys esimerkiksi sille, onko ihminen rikollinen. Tekoäly arvaa yllättävän usein oikein.

Tällainen analyysi on mielenkiintoista, mutta voi aiheuttaa erittäin ikäviä tilanteita jos sitä aletaan soveltaa yksittäisen ihmisen kohdalla esimerkiksi työhaastattelussa. Tekoäly ei osaa välttämättä arvioida oman ennusteensa järkevyyttä yksittäisessä tapauksessa ja kaikki vastuu tulosten käyttämisestä ja tulkinnasta on ihmisellä.

Tulosten soveltaminen väärin ei ole pelkkä yksittäisen tilastosta poikkeavan ihmisen tragedia, koska todellinen maailma sisältää takaisinkytkentöjä. Annan yksinkertaisen esimerkin. Algoritmin luokittelema “todennäköinen rikollinen” ei saa työpaikkaa, joten hän syrjäytyy ja päätyy lopuksi oikeaksi rikolliseksi. Analyytikko ja tietokone ovat näin olleet oikeassa, joten malli todistettavasti toimii ja sopii laajemminkin käyttöön. Kuulostaako pelottavalta? Löydät täältä kirjan, joka käsittelee tätä ongelmakenttää laajemmin.

Tekoäly – hyvä renki kuitenkin

Hypetys ei ole siis aivan vailla pohjaa, vaikka osa puheista on pelkkää käsien heiluttelua ja leukojen loksuttelua. Lähitulevaisuudessa koneoppiminen on kuuma juttu yrityksille, mutta menee vuosia saada siitä apua omien henkilökohtaisten ongelmien analysointiin. Puhekäyttöliittymä on selvästi valmis parrasvaloihin, mutta henkilökohtaisia älykkäitä virtuaaliassistentteja saamme odottaa vielä pitkään.

Mikäli aihe kiinnostaa, tässä vielä lisää linkkejä kirjoituksessani käsiteltäviin asioihin:

Datan analysointityökalu

Ihmisten päätöksenteko ja psykologia

Videoanalyysi

 

Solita case DNA