Data-analytiikka

Data-analytiikka on kokoelma menetelmiä ja työskentelytapoja, joiden tavoitteena on muodostaa kerätystä tiedosta kiinnostavaa informaatiota ja malleja. Data-analytiikka ja ylipäätään datan analysointi, käsittely ja visualisointi liiketoiminnan tarpeisiin on ollut nopeasti nouseva trendi 2010-luvulla. Alalla toimii paljon suuria ja myös vähän pienempiä yrityksiä ja ala elää jatkuvassa nopeassa kehityksessä. Teknologian kehityksen myötä mahdollisuudet tehdä monipuolisia ja kilpailuetua tuovia löydöksiä omista datalähteistä ilman maailmanluokan koodaustaitoja ja resursseja on tullut mahdolliseksi päivittäisessä työnteossa – organisaatioiden kaikille työntekijöille.

Data-analytiikkaan liittyvien hakusanojen trendi 2010-luvullaDataa käsitellään ja analysoidaan valtavia määriä muuallakin kuin perinteisimmin yritysten talouslukuja tutkittaessa. Kun siirrytään talouslukujen parista pois, yleensä työkalutkin muuttuvat koodaustaitoja vaativiin sovelluksiin tai jopa ohjelmoinnin tasolle. Huippukoodari taikoo datasta löydöksiä sen jälkeen, kun hän on siivonnut ja muokannut sen haluttuun muotoon. Tällöin pitää kuitenkin olla vankka ymmärrys tekemisestä, datan sisällöstä ja lopputilasta, unohtamatta koodarien henkilökohtaisia taitoja luoda scriptiä. Lisäksi täytyisi löytää aikaa kaiken tämän toteuttamiseen sekä asian kommunikointiin muille.

Entä jos jokin näistä tekijöistä puuttuu? Tai mikä arvo on löydöksillä, joita ei koodirivien välistä voi tehdä kun dataa käsitellään? Vaikka Suomessa yleisesti tullaan (valitettavasti) hieman Pohjois-Amerikkaa ja Länsi-Eurooppaa jäljessä tällä sektorilla, niin viime vuosina myös useat suomalaisyritykset ovat heränneet siihen, että liiketoimintaan liittyvän datan analysoinnista on tullut välttämättömyys globaalissa kilpailussa mukana pysymiseksi. Me Solutivella autamme suomalaisia yrityksiä juuri tässä; kilpailuedun saamisessa omaa, julkista ja muista lähteistä saatua dataa hyödyntämällä.

Data-analytiikka – menneisyys ja nykytila

Ajassa taaksepäin mentäessä data sijaitsi organisaatioissa yleensä yhdessä paikassa – pahimmillaan tarkkaan vartioituna yhden asiantuntijan osaamisen takana. Tullessamme nykyhetkeen voidaan todeta, että data ei ole enää pitkään aikaan ollut kootusti vain yhdessä paikassa tai järjestelmässä. Nykyään dataa on organisaatioiden eri toiminnoissa; tietovarastoissa, tietojärjestelmissä, data lakeissa, operatiivisissa järjestelmissä, pilvipalveluissa…lisäksi on saatavissa mittaamattoman paljon hyödyllistä avointa dataa tai ostettavissa olevaa dataa eri toimijoilta.

Data-analytiikka - toimintaympäristön muutos organisaatioissa kaaviokuvana

Perinteisen data-analyytikon työ perinteisillä välineillä (Excel yms.) on muuttunut koko ajan työläämmäksi. Datan valmisteluun (data preparation) menee vanhoilla menetelmillä jopa 90% kaikesta työajasta. Liiketoimintaa edistetään kuitenkin analysointivaiheessa, johon jää käytettäväksi siis pahimmillaan vain noin 10% työajasta. Datalähteiden kirjo ja niistä tiedon hakeminen on monipuolistunut ja monipuolistuu koko ajan edelleen. Tietokannoista ja tiedostoista on siirrytty enenevässä määrin kohti pilvipalveluita ja rajapintoja. “Relaatiomallinen tieto” on saanut rinnalleen muita muotoja ja lähteitä; semi-strukturoitua tietoa ja joskus jopa kokonaan strukturoimatontakin. Tässä muuttuneessa maailmassa dataan käsiksi pääsemisen (data access) merkitys korostuu. Tarvitaan toimivat datayhteydet eli connectorit, jotta kaikki aika ei mene datan keräämiseen.

Data-analytiikka on prosessi – siihen tarvitaan oikeat työkalut

Data-analytiikka on iteratiivinen prosessi. Eri työvälineet sopivat omissa rooleissaan prosessin eri vaiheisiin. Yleensä halutaan tutkia nopeasti omia liiketoimintatietoja sisältäviä tiedostoja ja datalähteitä ja näin saada ensituntuma omasta datasta. Tämän jälkeen halutaan jakaa löydökset helposti ymmärrettävinä visualisointeina esimerkiksi oman organisaation sisällä kriittisille henkilöille. Tässä työssä Tableau on oikea työkalu.

Kaikilla ei ole mahdollisuutta yhdistellä datalähteitä (kyvykkyys-, aikarajoitteet jne.), mutta Tableaun web editin kautta kaikilla on mahdollisuus tehdä analyysiä ainakin etukäteen määritellyn viitekehyksen sisällä. Autorisointi on helppo toteuttaa tiedolla johtamisesta vastaavan tai vastaavien henkilöiden toimesta. Maailma on menossa kohti ketterää itsepalveluanalytiikkaa (self-service analytics), niin peruskäyttäjien (työkaluna esim. Tableau web edit), kuin toisaalta tehokäyttäjienkin (työkaluina esim. Alteryx + Tableau Desktop) osalta.

Mutta datamme ei ole siistissä muodossa valmiina analysoitavaksi!

Etenkin isoissa organisaatioissa on usein tarve puhdistaa, muotoilla ja yhdistellä dataa monista eri lähteistä monipuolisella tavalla, ennen kuin dataa voidaan hyödyntää tehokkaimmalla mahdollisella tavalla uusien liiketoimintalöydösten tekemiseksi. Vaikka Tableaullakin datan yhdistely monista eri lähteistä onnistuu monipuolisesti ja helposti valmiiden connectorien avulla kymmeniin yleisimpiin datalähteisiin, niin usein isojen, dataintensiivisten organisaatioiden etu ja tarve on käyttää tähän työhön erityisesti suunniteltua työkalua. Tällä tavalla säästetään kriittisintä resurssia eli aikaa (ja sitä kautta rahaa) ja pystytään vastaamaan haastavimpiinkin tarpeisiin datan monipuolisen käsittelyn osalta.

Me Solutivella olemme valinneet kumppaniksemme mielestämme parhaan työkalun vastaamaan tähän yleiseen haasteeseen organisaatioissa – Alteryxin. Filosofianamme on saavuttaa asiakkaan kannalta haluttu ja paras lopputulos. Kokemustemme perusteella paras toimintatapa on luokkansa parhaiden työkalujen yhdistely tehokkaimmalla mahdollisella tavalla, verrattuna “yhdessä tuotteessa kaikki ominaisuudet keskinkertaisesti toteutettuna”-ajatteluun. Jälkimmäisessä mallissa lopputuloksena on usein hukatut työtunnit (kallista) ja monenlaisen erityisosaamisen tarve organisaatioissa, vaikka paperilla jonkin ominaisuuksiltaan alkeellisemman/monimutkaisemman ohjelmiston hankintakustannus ensisilmäyksellä saattaisikin näyttää matalammalta. Fakta on kuitenkin se, että mikäli työkalulla ei helposti pysty tekemään sille tarkoitettuja töitä, niin sen mahdollisesti alemmasta hankintakustannuksesta ei ole mitään hyötyä.

Alteryxin etuina oman alueensa erityistyökaluna ovat muiden muassa:

  • Tehokkuus ja ajan säästäminen manuaalisten rutiinien vähentyessä
  • Inhimillisten virheiden vähentyminen (Excel-kaavojen virheet yms.)
  • Mahdollisuus tehdä testejä, joilla varmistetaan tulosten järkevyys ennen implementointia
  • Modulaariset työvaiheet → tiettyjen työvaiheiden uudelleenkäyttö toisessa kontekstissa
  • Alteryxin workflown rakenne. Alkuperäinen data on aina saatavilla, eikä sitä ylikirjoiteta. Virheen tapahtuessa ei tarvitse aloittaa alusta (vrt. Excel), vaan vain korjata kyseinen vaihe

Data-analytiikan tulevaisuus

Tulevaisuutta on vaikea ennustaa. Erityisen vaikeaa ennustaminen on teknologiakeskeisissä asioissa. Joitakin valistuneita arvauksia data-analytiikan tulevaisuudesta voimme kuitenkin tehdä esimerkiksi digitalisaatioon liittyvää yleistä keskustelua seuraamalla tai data-analytiikkasektorin toimittajien erilaisia visioita lukemalla toimialan trendeistä. Suomessa ja maailmalla on puhuttu paljon esimerkiksi liikenteen digitalisoitumisesta. Tästä voidaan nähdä tiettyjä yleisempiä, laajempia trendejä ja tulevaisuuden kuvia. Jo nyt luksusautoista löytyy ominaisuuksia, jotka esim. yhdistelevät karttatietoa data-analyysin keinoin auton moottorinohjausjärjestelmiin. Tulevaisuudessa autot ovat varmasti yhteydessä johonkin keskitettyyn datakeskukseen ja analysoivat itse järjestelmästä tulevaa liikennetietoa tehden päätöksiä kuljettajan puolesta.

Tästä esimerkistä voidaan nähdä kaksikin tulevaisuuden yleisempää näkymää data-analytiikan saralla: 1. Ennakoivan analytiikan käytännön sovellusten yleistyminen 2. Koneet alkavat hyödyntämään data-analytiikkaa ihmisten lisäksi tai kokonaan ihmisten puolesta. Monia sovellutuksia on helppo keksiä ja osa näistä on jo arkipäivääkin. Esimerkiksi teolliset laitteet, robotit ja kokonaiset tuotantolinjat voivat muuttaa käyttöastettaan tai jopa muotoaan itsestään energian hintaan perustuvan ennakoivan data-analyysin perusteella. Tai kiskoilla kulkeva (tulevaisuudessa automatisoitu) julkinen liikenne voi ennakoivasti lisätä tai vähentää liikenteessä olevaa kapasiteettia itsestään vaikkapa perustuen satamien ja lentokenttien läpi kulkevan matkustajamäärädatan perusteella.

Jos tulevaisuutta spekuloidaan hieman lyhyemmällä aikajänteellä ja suppeammassa mittakaavassa, niin esimerkiksi Tableau on jo tiekartassaan julkistanut ominaisuuksia, joihin liittyy esimerkiksi koneoppiminen. Tässä ominaisuudessa ohjelmisto ennakoi ihmisten yleensä tekemien kyselyjen perusteella seuraavaa visualisaatiota, mitä ihminen todennäköisesti on datastaan tekemässä ja tekee sen jo valmiiksi ihmisen luoman ensimmäisen visualisaation yhteyteen. Myös luonnollisen kielen kyselyt on julkistettu visio. Tässä tapauksessa ihminen ilman koodaustaitoja voi tehdä ohjelmistolle kyselyitä käsitellystä datasta käyttäen luonnollista kieltä. Esimerkiksi tyyliin: “What is forecasted sales for the furniture category in 2019?”. Kysymyksen perusteella ohjelmisto osaa itse rakentaa visualisaation, joka vastaa käyttäjän kysymykseen.

Ennustaminen on vaikeaa, mutta se on aivan varmaa, että data-analytiikkaa tullaan hyödyntämään kaikilla eri liiketoiminnan osa-alueilla enenevässä määrin. Kehitystä ei kannata yrittää vastustaa, vaan sitä kannattaa hyödyntää oman liiketoiminnan kehittämisessä ja kilpailuedun saavuttamisessa.

Valikko