Tehokkaampi tiedolla johtaminen

Otsikon teksti osui silmiini paikallislehteä lukiessa ja aamukahvia juodessa. Kahvi ei mennyt väärään kurkkuun, eikä teksti muutenkaan aiheuttanut suurempaa ahdistusta. Totesin vain itsekseni, että tätähän se teollisuusyrityksen johtamisenkin pitäisi olla joka päivä.

Kärkihankkeet

Otsikon aihe, tiedolla johtaminen, kuuluu yhtenä osa-alueena nykyhallituksen kärkihankkeisiin, mutta on ollut poliitikkojen agendalla jo muutamia vuosia. Erikseen mainittuna toisena kehityskohteena hallituksella on massadatan toimintaohjelma. Toivotan hallitukselle onnistumista näissä asioissa, koska taloudellinen tilanne Suomessa vaatii enenevässä määrin todellisen tiedon tehokkaampaa käsittelyä ja sen avulla johtamista.

Suomalaisissa yrityksissä, jotka kamppailevat kovenevan kotimaisen ja kansainvälisen kilpailun pyörteissä, on tarve saada tehokkaammin todellista tietoa tuotteiden kannattavuudesta ja yrityksen taloudellisesta tilanteesta. Yritykset ovat tilanteessa, jossa datan määrä lisääntyy. Yritysten laajentuessa tuote- ja nimikemäärät sekä transaktioiden määrä kasvaa vaatien yhä tehokkaampia välineitä, jolla varmistetaan tiedonkäsittelyn riittävä tehokkuus.

Tähän voidaan vaikuttaa osaltaan sillä, että yrityksen Master Data on kunnossa.

Mikäli tuotetiedot eivät ole kunnossa ja tasolla, jolla yrityksen johto saa kuukausittain selkeän tilanneanalyysin siitä, miten tuotteet markkinoilla menestyvät, ei mahdollisuuksia nopeisiin päätöksiin ja muutoksiin ole.

Kannattavuustiedon saanti tuote- tai tuoteperhetasolla antaa mahdollisuuden vaikuttaa nopeasti tilanteeseen. Mikäli päätöksiä ei saada tehtyä ajoissa, ovat lopputuloksena ongelmat, jotka vaikuttavat pahimmassa tapauksessa yrityksen omistajiin, työntekijöihin ja yhteiskuntaan negatiivisesti.

Asiakaskannattavuus ohjaa

Tuotetietojen lisäksi yrityksen asiakas- ja toimittajatiedot ovat avainasemassa tehokkaassa johtamisessa. Asiakaskannattavuuden seuranta auttaa panostamaan oikeaan asiakasryhmään. Toimittajien määrän ja ostovolyymin analysointi mahdollistaa osaltaan säästöt, joihin voidaan päästä hankintoja yhdistämällä ja toimittajamäärää pienentämällä.

Voidaan siis todeta, että hallituksen kärkihankkeet ovat samat kuin yritysten toiminnan- ja prosessien kehityshankkeet. Näin teoriassa. Nostetaan siis jalka jarrulta ja panostetaan prosessi-, informaatio- ja järjestelmäkehitykseen entistä enemmän.

– Guardian of the data

Linkki

SolidWorks World 2015 -tapahtuma järjestettiin 8.-11.2. Uutta, mielenkiintoista teknologiaa oli tänä vuonna esittelemässä ja ihmettelemässä yli 5500 SolidWorks-ammattilaista, satoja näytteilleasettajia ja Partnereita. Itsekin halusin mukaan, onhan Modultekin SolidPDM-tuotteella korkeimman luokan SolidWorks Gold Partner -status.

Phoenix Arizona

Phoenix Arizona

Yksi esiinnostetuista aiheista oli ajankohtainen IoT (Internet of Things). Ilmiö on pikkuhiljaa tekemässä läpimurtoaan myös CAD-ohjelmistojättien näkökenttään.

Dassault Systemsin tytäryhtiönä SolidWorks on hyödyntänyt emonsa alustoja napatakseen osansa kehityksestä. SolidWorksin julkaisemat uutuudet sisälsivät mm. 3DExperience-alustalla toimivan Industrial Design –tuotteen, joka pyörii pilvessä sosiaalisen integrointinsa osalta. Työkalu antaa mahdollisuuden toteuttaa Free Form -suunnittelua parametrisesti, ainakin osittain. Tämä mahdollisuus on ollut pitkään vedenjakajana teollisten muotoilijoiden ja mekaanisten suunnittelijoiden välillä – toiset ovat tuottaneet muotoja, toiset parametrisia malleja. Aiemmin julkaistu Mechanical Conceptual (nyttemmin SolidWorks Conceptual Design) sai nyt kylkeensä toisen Enovia-alustalle tehdyn SolidWorks-tuotteen. Elämmekö siis tutun Standalone SolidWorksin lopun alkua?

Ei hätää! SolidWorksin uusi toimitusjohtaja Gian Paolo Bassi kertoi, että vanha kunnon Standalone SolidWorks on ja pysyy. Siihen satsataan jatkossakin tuotekehitystä ja rinnalle tuodaan myös uusilla alustoilla toimivia tuotteita, jotka pyrkivät vastaamaan uudenlaisiin haasteisiin. Uudet tuotteet rakentuvat Dassault Systemsin 3DExperience – alustalle, jossa tuotteesta riippuen sovellus asennetaan myös työasemalle ja osa työskentelystä tapahtuu aina pilvessä (esimerkiksi sosiaalisen verkoston luonti ja ylläpito).

Virtuaalinen tulevaisuutemme

Yksi maailman tunnetuimmista säieteorian fyysikoista, tohtori Michio Kaku, maalasi osallistujille kuvan tulevaisuudesta, jossa elämme suuren osan elämästämme virtuaalisessa maailmassa. Kun IoT:n eteneminen kiihtyy, lisääntyy datan määrä räjähdysmäisesti luoden pohjan erittäin todenmukaisille virtuaalisille ympäristöille. Näitä virtuaalisia ympäristöjä tulevat hyödyntämään monet tahot, esimerkiksi suunnittelijat tuotteiden nopeaan ”aidon ympäristön” testaukseen ja arkkitehdit realistiseen tilasuunnitteluun.

Uskoisin, että myös nimikemassojen hallinta onnistuisi mainiosti virtuaalisessa tilassa, tausta-analyysien tuottaessa visuaalista tietoa lähes välittömästi pyynnöstä.

Kaiken tämän teknologisen kehityksen keskellä säilyvät kuitenkin ydinasiat ennallaan:

– Tietoa on pystyttävä jakamaan & hyödyntämään oikeassa paikassa oikeaan aikaan

– Tehokas tiedonhallinta lisää koko yrityksen tehokkuutta ja kykyä mukautua markkinoiden kehitykseen

– Antti

Tietoturva – siitä puhe mistä puute

Tällä kertaa en osunut tuotetiedon vaan harmistuksen ytimeen:

Miten ihmeessä nettirikolliset ja kaikenmaailman ketkut, nsat ja googlet pystyvät jatkamaan tunkeutumista niin yksityisten ihmisten, yritysten kuin valtioiden koneisiin ja verkkoihin. Eikö mitään ole tehtävissä? Tule apuun, Petteri Järvinen!

Omakin sähköposti oli taannoin lähellä joutua roistojen käsiin. Sain yhteistyökumppanilta sähköpostin, jossa oli linkki Google Drive -dokumenttiin. Viesti oli epäilyttävä, joten kysyin (sähköpostitse, luonnollisesti :o) oliko viesti tosiaan häneltä. Sain vastauksen:

Moi Lilli,

Lähetin sinulle Google Doc drive, avaa nähdäksesi, miten päivä menee?

Kiitos,

Soitin kaverille, eikä hän tiennyt mitään lähettäneensä. Kertoi saaneensa aiemmin vastaavan viestin kollegaltaan, ja pahaa aavistamatta oli avannut linkin ja antanut Google-tunnuksensa. Järkytys oli suuri kun hän tajusi, että nyt tunnuksia kalasteli hänen sähköpostinsa, ties mitä rikollisia tarkoituksia varten.

70-luvun kirkasotsaiset nörtit

Jo tietokoneiden alkuaikoina aavisteltiin tietojen väärinkäytön mahdollisuutta ja pelättiin tietorekistereiden intimiteettisuojan pitävyyttä. (Suomen tietokoneistumisen alkumetreille pääsee aikamatkailemaan Ylen Elävän arkiston  mukana, suosittelen lämpimästi 70-luvun nostalgiapläjäystä.)

Tietoturva arvelutti jo silloin, kun Suomessa oli 250 tietokonetta, ja nekin pääasiassa poliisin, teollisuuden, kaupan ja vakuutusyhtiöiden käytössä.

Mutta tietoturvahuolet oli helppo hälventää. Luotettiin siihen, että lainsäädäntö kontrolloi tietorekisteiden käyttöä. Ja osasihan tietokoneen käyttöjärjestelmä estää väärillä käyttäjätunnuksilla annetut käskyt, joten luvattomia tunkeutumisia ei voinut tapahtua.  70-luvulla Internetin tuloon oli vielä neljännesvuosisata, kannettavista tietokoneista puhumattakaan, joten uhkakuvatkin olivat toiset.

Insinööri on nerokas olento, joka löytää ratkaisun kaikkiin teknologisiin ongelmiin. Haluttaessa myös internetin ja tietokoneiden tietoturva olisi voitu suunnitella siten, että väärinkäytökset olisivat paljon vaikeampia. Mutta kehittäjillä ei ollut syytä pyrkiä ensisijaisesti tietoturvalliseen lopputulokseen, vaan oltiin (aivan aiheestakin) hullaannuttu ennen näkemättömistä saavutuksista ja otettiin nopeita teknologisia kehitysaskelia toisensa perään. Lisäksi suunnitelmallista tietoturvaa vaikeutti se, että kehitystä tapahtui yhtä aikaa monella eri taholla, ja edistysaskeleet toimivat katalysaattoreina toisilleen. Tämä voi olla yksi syy tilanteeseen, jossa riittää porsaanreikiä, joita moraalittomat, röyhkeät ja ahneet sumeilematta hyödyntävät.

Tietokone tuo rikkautta ja onnellisuutta…

Palatakseni vielä 70-luvun ”Kaikkialla ATK” -ohjelmaan, tässä suora lainaus toimittajalta: ”Tietokone on tuonut ihmiskunnan mittaamattomien mahdollisuuksien eteen. Jos opimme kontrolloimaan tuota voimaa, ihmiskunnasta tulee rikas ja onnellinen. Jos emme, näkymät eivät vaikuta kovinkaan valoisilta. ”

Näyttää siltä, että 40 vuotta ja lukematon määrä tietokoneita ei ole riittänyt tuomaan rikkautta ja onnellisuutta kuin murto-osalle ihmiskuntaa. Emmekö siis oppineet kontrolloimaan tuota voimaa? Vai onko onnellisuudella ja teknologialla sittenkään mitään tekemistä keskenään.

epäilee Antitekniikan asiantuntija, ja toivottaa onnellista loppupäivää sinulle tietokoneen kanssa tai ilman.

Vastine edelliseen! Onko Big data enää isoa?

Joko tuo ”Big” etuliite voidaan poistaa? Datamassat paisuvat jatkuvasti, se on selvää. Siksi tuo ”Big” viittaa tänä vuonna eri suuruusluokan datamassaan kuin esimerkiksi viime vuonna. Puhutaan vaikka datatulvasta tai keksitään joku muu kuvaavampi termi.

Mietin datateemojen marssijärjestystä: Kumpi tulee ensin Big vai Master? Koska fuusioidaan tästä Big Master Data? No tulin siihen tulokseen, että Master Data on fokus numero yksi, jonka jälkeen katseet voidaan kääntää Big Dataan. Master Data ongelmia on kaikilla yrityksillä ja niiden rooli turhina kustannuserinä nousee taas tänä vuonna esille, kun monessa paikassa etsitään optimointikohteita. Suuria, jäsentymättömiä datamassoja ei vielä kovin moni organisaatio kaivele muutenkaan. Master Datan hallinta myös pakottaa miettimään datanhallintaprosessit ja vastuut valmiiksi, mikä helpottaa kaikenlaisten tulevien datahankkeiden onnistumista.

”Big Poppa Mastah Datanator”

Big Master Data –heittoni tuolla alussa ei ollut täysin tuulesta temmattu vitsi. Viime marraskuun Asiakaspäivässämme vieraillut ja tässä blogissakin aikaisemmin mainittu Peter R. Benson ennusti, että tulevaisuudessa ihmisen antama datasyöteDatan validointi nousee avainasemaan vähenee, ja järjestelmät synnyttävät ja vaihtavat dataa keskenään. Kuinka paljon esim. asiakasdatasta, siis siitä metadatasta, on oikeastaan kenenkään omistuksessa?

Vuodet vierii, tietomassat kasvaa. Joka vuosi massan kasvaessa sen oman asiakastiedon ja nimikemassan järkevöittäminen hankaloituu. Ehkä vuosi 2013 on hyvä vuosi nostaa data puheista tekoihin?

The data is already out there!

– Kalle –

Big data – isoakin isompi

Tykkään siitä kun asiat sanotaan suoraan ja suomeksi. Antaa ihmiselle täällä pohjan perukoilla mahdollisuuden ymmärtää kaikenmaailman asiat oikein. Viimeksi ilahduin törmätessäni yhteen suomalaiseen määritelmään isolle datalle: Jäsentymätön sähköisen tiedon tulva. Tämä kuvaus löytyi toimittaja Elina Lappalaisen kolumnista ”Iso data on rahaa”, Talouselämä 2/13.  (Ei liity aiheeseen, mutta kyseessä on sama Elina Lappalainen, jonka teos ”Syötäväksi kasvatetut”, voitti viime vuoden Tieto-Finlandia-palkinnon.)

Iso data on aika vaatimaton termi ilmiölle, jossa dataa kertyy käsittämättömiä määriä joka hetki. Kuten Elina kirjoittaa, big data on avannut markkinan yrityksille, jotka kehittävät datan ymmärtämistä ja hyödyntämistä helpottavia työkaluja. Heidän ansiostaan saamme lähitulevaisuudessa tehtyä kehittyneitä hakuja eri lähteissä sijaitsevista valtavista datamassoista ja jalostettua tietoa eri tahojen haluamaan käyttöön. Hyödyntäjiä löytyy ainakin markkinoinnin, tutkimuksen, politiikan ja yrityspäättäjien tahoilta.

Big data, big brother?

Huolimatta kaikesta hyvästä mitä siitä seuraa, nousee mieleen jotain orwellimaista…  Toisaalta turha maalata piruja seinälle; elämmehän jo nyt tilanteessa, jossa internetin hakupalveluja käyttävä henkilö voi unohtaa käsitteen ”yksityisyyden suoja”. Koko maailman kaikki nettiin liittyneet yksittäiset tietokoneet ja palvelimet muodostavat jonkinlaisen globaalin data-arkiston. Ei sentään globaalia datanhallintajärjestelmää, koska big datan massan tuottamista, määrää ja sisältöä ei kukaan voi hahmottaa, saati sitten hallita (ainakaan vielä).

Tällaiselle ruohonjuuritasolta maailmaa katsovalle tyypille eräänlaista isoa dataa on omaan sähköpostiin saapuva sekalainen aineisto. Sitäkin voi kuvata määritelmällä jäsentymätön sähköisen tiedon tulva… 

arvelee Antitekniikan asiantuntija Lilli

Semantiikasta ja mitä kilpikonna sanoi Akilleelle

Lupasin joskus aikaisemmin jatkaa semantiikan pohdiskelua, joten tässä tulee. Mikäli et tiedä mitä otsikon jälkikaneetti ilmaisee kerrottakoon; Kyseessä on yksi perustason semanttisen ratkaisumallin kompastuskiviä, jonka esitteli Lewis Carrol novellissaan jo aikoja, aikoja sitten. Myöhemmin Saman asian esitti Gödel epätäydellisyysteoreemissaan  ja kvanttiajattelun puolella Schrödinger maailman toisiksi kuuluisimmalla kissallaan.

Semantiikka tarkoittaa tietojärjestelmämielessä korkeamman tason logiikkaa, jossa järjestelmä kasvaa ulos tietovarastosta, ”ymmärtäväksi olioksi”. Järjestelmä tuntee konsepteja, asiayhteyksiä ja huomioi viitteitä tiedossa niin, että käsittelymalli säätyy tiedon ehdoilla. Tämänkaltainen toiminta voidaan mieltää vaikkapa kesätyöntekijäksi, joka lähtee ilman kokemusta toteuttamaan annettuja tehtäviä, ja loppukesästä homma toimii jo annettujen input-tietojen pohjalta ilman ulkoista ohjausta kohtuullisen tehokkaasti.

Semantiikka on hyvä keino löytää ja yhdistää tietyn tapaista tietoa, ja yhdistettynä tehokkaisiin algoritmeihin ja hakutapoihin tulokset saattavat olla erinomaisia tapauksesta riippuen. 80/20 sääntöä voitaisiin ajatella aika optimaalisena tuloksena ainakin alkuvaiheessa, eli 80 % menee nappiin ja 20 % poskelleen. Ilman semantiikkaa n. 50-60 % osuu paikalleen ja varmuus on yleisesti ottaen huonompaa  (tietoa on vähemmän ja ymmärrystä järjestelmässä ei sinänsä ollenkaan) . Semantiikka, ja  korkeamman tason merkitysten tuominen järjestelmään on tottakai hieno asia, eikä varmasti ainakaan pahenna järjestelmän toimintaa.

No mitä se kilpikonna sanoi Akilleelle?

Järjestelmäkehittäjien tulisi kysyä otsikonmukainen kysymys itseltään aina silloin tällöin. Kun tullaan semantiikan piiriin, tulee muistaa tämä: järjestelmä ei ole aukoton. First order logic lienee yleisin tapa lähestyä ongelmaa, mutta mitä silloin tapahtuu negaatiolle? Voimme määritellä vaikkapa kouluesimerkin mukaisesti seuraavaa; yksisarvinen on myyttinen eläin ja myyttinen eläin on kuolematon. Yksisarvisella on sarvi. Jos yksisarvisella on sarvi, se on myyttinen JA taianomainen. Jos yksisarvinen on taianomainen, se on myyttinen eläin. Lisäksi yksisarvinen on ontologisesti nisäkäs. Jos yksisarvinen omaa sarven TAI se on nisäkäs (joka tarkoittaa myyttisen negaatiota, joka tarkoittaa kuolevaista, mikä taas tarkoittaa… ) se on… Mitä?  Olikohan sitä yksisarvista aluksikaan 😉

– Juha –

Onpas sinusta kasvanut jo iso järjestelmä!

*DM-järjestelmien kanssa painiessa otsikon mukainen lausahdus tulee usein mieleen. Erilaista tietoa on runsaasti, tieto on syvästi rakenteellista ja monimutkaista. Kukaan ei liene täysin selvillä siitä mitä kaikkea yksittäinen tuoterivi saattaa sisältää. On siirtotietoa, suuretietoa, lajittelutietoa, kuvauksia jne. Tästä tuskasta kertoo myös järjestelmien tietorakenteet; Esimerkiksi SAP:n tietokanta (RDBMS) sisältää tuhansia tai kymmeniä tuhansia tietokantatauluja. ECC ja R/3 koostuu yli kolmestakymmenestä tuhannesta taulusta kun taas CRM saattaa jäädä alle kymmenen tuhannen. Vertailun vuoksi jotkin PDM-järjestelmät sisältävät tauluja vain noin 100-200. Rakenteellisuus on olennainen osa järjestelmiä, mutta samalla rakenteellisuus ainakin tietoalkiotasolla tuo mukanaan melkoisia ongelmia mitä tulee itse järjestelmien toimintaan. Viitteiden ylläpidon, tiedon reaaliaikaisuuden ja tiedon esittämisen haasteet lisääntyvät eksponentiaalisesti, mitä suuremmaksi objektien rakenne kasvaa. Tiedonhaku vaikeutuu ja järjestelmän koko ”pullistuu”.

Järjestelmädieetti

Ratkaisuna monimutkaisiin rakenteisiin ehdotan  NOSQL-tyyppisiä järjestelmiä, tuettuna relaatiokannalla metadatan tallentamista varten. Poistetaan turhat rakenteelliset attribuutit ja tuodaan rekursion sijaan peliin leveät tietueet, kuten esim. BigTable, HBase, Amazon SimpleDB, Cassandra, Lucene jne. Mitä laveampi data tarkoittaa käyttäjälle? Tietokanta-/kyselymielessä jokaiseen liitokseen voidaan liittää aikakustannus. Kustannus ei ehkä ole suuri (tyypillisesti millisekunteja keskikokoisessa järjestelmässä), mutta kun näitä kustannuksia on paljon, puhutaan helposti sekunneista tai jopa kymmenistä sekunneista.

Kuinka merkittäviä sekunnit ovat? Jos haet tietoa vaikkapa 500 kertaa päivän aikana, löydökset ovat 70% tarkkoja (lue: haet tietoa todella hyvin ja tarkasti) sekunnin kustannus on jo kohtuullisen merkittävä. Kustannus (hakutulokset ja niiden kahlaaminen huomioonottaen) kuluttaa työpäivästäsi n. 20 %. Merkittävä määrä aikaa siis menee tiedon hakemiseen. Laveassa tietomallissa liitokset ovat jo soveltuvin osin kiinni itse alkuperäisessä objektissa ja tästä suora seuraus on hakuaikojen lyheneminen, tiedonsaannin tehostuminen sekä myös hakuominaisuuksien suoraviivaistuminen.

Muistithan bonukset?

Mitä muuta etua saavutetaan? Kun mukana ei enää kuljeteta merkityksetöntä sisäistä tietoa, tilantarve palvelimella pienenee, riippuen tietorakenteesta. Lisäksi tehokkaammat ja nopeammat järjestelmät voidaan ottaa esimerkiksi data mining-käyttöön (duplikaattien poisto, tiedon eheyden tarkistus, samankaltaisuuksien poiminta, puuttuvien tietojen etsintä jne.).  Voidaan hyödyntää ”uudenlaisia” ja tehokkaampia hakutapoja, ja mikä tärkeintä, voidaan esitellä semantiikkaa, mikä taasen tarjoaa aivan uusia ja mullistavia tapoja ”* Data Managementtiin”. Semantiikasta jatkakaamme myöhemmin, tämänkertainen ajatusvirta olkoon tässä.

– Juha –