Ratkaiseeko tekoäly kaiken vai hukkaatko vain miljoonia sen kehittämiseen?

Ratkaiseeko tekoäly kaiken vai hukkaatko vain miljoonia sen kehittämiseen?

Olemme Vipetec Oy:llä toimineet jo yli 20 vuotta datalähtöisesti paperi- ja metsäteollisuuden prosessien kehittämisen parissa. Kehittämistyö on keskittynyt prosessidatan käsittelyyn ja jalostamiseen, jonka kautta olemme pystyneet tekemään merkittäviä mitattavia tuloksia esimerkiksi kustannus- ja työaikasäästöinä.

Tällä hetkellä paperi- ja metsäteollisuudessa on käynnissä myös useita tekoälyhankkeita, joiden tavoitteena on kehittää prosessin ohjausta. Ovatko digiprojektit kuitenkin vain hypeä vai onko löydettävissä yleinen ratkaisu, joka ratkaisee kaiken kun dataa vain on käytettävissä paljon? Seuraavaksi avaan hieman omia näkemyksiäni aiheesta.

Dataa on pyritty hyödyntämään jo kauan

Toimin ennen Vipetec Oy:n uraani tutkijana yliopistossa paperi- ja metsäteollisuuden prosessiautomaation parissa. Ja myös tuohon aikaan tutkittiin mm. adaptiivisia menetelmiä ja neuroverkkoja prosessidatan käsittelyyn ja prosessin ohjaamiseen.

Silloin jo huomattiin, että esimerkiksi yksittäiseltä paperikoneelta on käytettävissä paljon dataa, mutta ei välttämättä mitattu olennaisia vaikuttavia tietoja. Lisäksi käsiteltävä tieto ei ollut aina tarkkaa tai luotettavaa. Soveltaminen isossa mittakaavassa osoittautui haastavaksi.

Lisäksi prosesseihin liittyy aina olennaisena osana ihmiset, joiden tekemiseen vaikuttavat useat inhimilliset tekijät: osaamistasot, virheet jne. Nämä satunnaiset tekijät tekevät myös datasta hankalasti mallinnettavaa.

Tuolloin esimerkiksi neuroverkkojen hype prosessin ohjauksessa hiipui 2000 luvulle tultaessa. Käytännön kokemuksien seurauksena sen aikaiset trenditeknologiat eivät jalkatuneet suuressa mittakaavassa. Olisiko nyt kuitenkin toisin?

Käytännön kokemuksia prosessidatan höydyntämisestä prosessin ohjaukseen

 Laskentatehot, algoritmit ja menetelmät ovat vuosien saatossa kehittyneet ja menneet eteenpäin. Oman kokemuksemme mukaan datan laatu ja sen sovellusosaaminen on kuitenkin edelleen se mikä ratkaisee. Vanha mallinnustoteama, garbage in, garbage out, tuntuu pätevän vieläkin. Laajassa skaalassa voiko esim. tuhat mittausta olla koskaan täysin kunnosssa?

Se mitä olen henkilökohtaisesti oppinut yli 25 vuoden aikana datan käytön ja jalostamisen haasteista on mm.

1.      Käyttäjän on hyvä ymmärtää riittävästi mihin esim. data-analytiikan tai mallin laskema ohjausehdotus perustuu ja mitä rajoituksia sillä mahdollisesti on. 

2.      Laskennan antamiin tuloksiin pitää voida luottaa, virheitä saa olla vain erittäin vähän tai äkkiä käy niin että käyttö jää vähäiseksi tai loppuu.

3.      Hyötyjen pitää olla mitattavia, mutu-tuntuma ei riitä.

Pelkästään näillä perusteilla on arvioitavissa, että laajat tekoälyprojektit eivät ainakaan tule olemaan kevyitä ja nopeasti tuloksia tuottavia projekteja.

Tutustu tarkemmin toimintaamme tästä >>

 

Heikki Peltonen, yrittäjä, toimitusjohtaja

Kirjoittajalla on yli 25 vuoden kokemus paperi- ja metsäteollisuuden automatiikan ja data-analytiikan kehitystyöstä. Hän on ollut tekemässä dataan perustuvia analyysejä ja prosessien kehittämistä kaikille Suomen merkittäville paperi- ja metsäteollisuuden yhtiöille.


Comments are closed.