Dataplatform, stabiele plek voor bedrijfsdata bij verandering

PLC-kast

Zolang een bank blijft bankieren en geen whisky gaat destilleren, blijven de data van de organisatie stabiel. Die uitspraak deed de Data Analist James Martin in een interview met het IT-vakblad Computable ruim veertig jaar geleden. De Engelsman maakte furore bij IBM en wordt beschouwd als een grootheid in de IT-sector. Zijn stelling pakte in de praktijk iets anders uit. Data zijn zelden stabiel omdat ondernemingen en dus ook banken soms geheel andere dingen gaan doen. Elke verandering brengt nieuwe vormen van data met zich mee.

Al heel lang drukt de computerindustrie de capaciteit van dataopslag uit in terabytes (10 met 12 nullen). Maar inmiddels verspreiden we via het wereldwijde internet meer dan 1,3 zettabytes aan data. Eén zettabyte is een 10 met 21 nullen erachter. En we weten dat het daar niet bij blijft. Er is al een nieuwe maat geïntroduceerd om de nieuwe omvang van de hoeveelheid data weer te geven: yottabytes, oftewel een 10 met 24 nullen erachter. Willen we daar iets mee doen, dan moeten ze wel ergens opslaan en rangschikken. En dat liefst binnen een acceptabele tijd, want de technologische ontwikkelingen gaan steeds sneller.

Voor Big Data moeten IT-voorzieningen een grotere werkbelasting aankunnen om omvangrijke volumes data al dan niet geïndexeerd op te slaan in zogeheten datawarehouses. Dat impliceert snelle geheugens met snelle doorlooptijden (latency). De systeemarchitectuur is meer toegesneden op analytische toepassingen dan op transactieverwerking, zoals bij ERP-, PDM- en CRM-applicaties, die meestal zijn gebouwd op databases met een relationele structuur.

Sensoren en 5G veroorzaken tsunami

Naast het fenomeen Big Data kennen we ook Fast Data, gegenereerd door de talloze sensoren in machines, de feeds van social media en de streaming activiteiten van moderne media. Raken we bij Big Data geïmponeerd door de omvang, bij Fast Data raken we van slag door de snelheid waarmee die tot ons komen. Zodra de sluizen open staan en data de onderneming binnenstromen, bijvoorbeeld via 5G-netwerken, is er nauwelijks tijd voor analyse en rangschikking. Bij Fast Data is ’high data latency’ niet relevant vanwege de vele extra stappen voor de nieuwe analysemethoden die men ’on the fly’ tijdens het streamingproces wil uitvoeren.

‘Bedrijven kunnen productiedata binnen eigen muren houden en verwerkingsprocessen op servers in de cloud laten draaien’

Tijdens het totale verwerkingstraject speelt snelheid natuurlijk wel een rol, waardoor de gangbare, veelal batch georiënteerde processen van het dupliceren van data vanuit de transactieverwerking naar datawarehouses te traag verlopen. Het liefst zou je de analyse direct op de operationele data laten plaatsvinden. Voor het overbrengen van data afkomstig van sensoren en het structureren daarvan zijn er weliswaar standaarden in omloop, maar sensordata kent van zichzelf geen metadata. We kunnen er pas naar zoeken op een manier zoals we gewend zijn nadat via de Sensor Model language (SensorML) de verzameling is bewerkt.

Om de tsunami van zowel Big als Fast Data op te vangen introduceerde de IT-sector zogeheten Datalakes. Daar stroomt de ongefilterde en soms ongestructureerde data aan de voorkant in om aan de achterkant via een reeks van verschillende processen (analyse, aggregatie, extractie en transformatie) te worden gestald op een gemeenschappelijk dataplatform van een productielocatie of van een totale onderneming.

Het platform blijft ook bij Edge-computing zijn waarde behouden. Daarbij ondergaan data van sensoren en andere instrumenten op de meetlocatie al een bepaalde bewerking via ter plekke aangebrachte kleine, zelfstandig functionerende computersystemen met een eigen database, analyse software en eventueel andere applicaties. Lokaal kan de verkregen intelligentie direct worden ingezet voor monitoring of aansturing. In geaggregeerde vorm, dus gefilterd en gestructureerd gaan alleen de relevante delen over de lijn naar het centrale dataplatform. Daarmee wordt (over)belasting van zowel het netwerk als de centrale servers voorkomen.                        

Invoeringstraject Industrie 4.0

Binnen de proces- en productiesector maakt de inrichting van een dataplatform deel uit van een invoeringstraject van Industrie 4.0 principes. Maar binnen de maakindustrie blijft dat lastig wanneer de productie-omgevingen zich kenmerken door ’oude’ operationele technologie. De gewenste koppelingen met moderne IT-omgevingen, gestoeld op internet en geavanceerde elektronische apparaten, komen moeizaam tot stand en dan vaak alleen in tijdrovende, kostbare transformatietrajecten. De omvangrijke raamwerkoplossingen van grote marktpartijen in de OT-markt werken weliswaar prima volgens gestandaardiseerde koppelingen, maar ze zijn eigenlijk alleen te implementeren door productiebedrijven met voldoende kennis, kapitaal en geduld.

Wil je als kleine fabriek marktgericht en efficiënt produceren, dan is het van belang om alles gelijk goed te doen. Fouten leiden tot herstelprocedures met terugroepacties of reparaties op locatie. Die zijn kostbaar en leiden ook tot imagoschade. Het is dus noodzakelijk om tijdens alle productiestappen permanent de kwaliteit te bewaken. Door ook aan de ’oude’ machines extra meters te hangen voor onder meer druk, temperatuur, energieverbruik, bijvoorbeeld in de vorm van IoT-apparaten en de data daarvan te combineren met externe gegevens zoals weersvoorspellingen, verbetert de kwaliteit van de vergaarde machinedata.

Wanneer in de procesdatastroom een machine learning-component wordt aangebracht, ontstaat er een vorm van terugkoppeling waardoor machines zichzelf kunnen bewaken en corrigeren. Op die manier werk je voortdurend aan het verbeteren van het productieproces. Door deze niet in beton te gieten, ontstaat er ruimte voor aanpassingen, bijvoorbeeld vanwege andere eisen van afnemers, veranderende wetgeving of een nieuwe koers van de onderneming.

De in het dataplatform vergaarde sensordata interacteert met data uit ERP-applicaties,
SCADA-oplossingen en systemen in de MES-omgeving. Tekst gaat verder onder de afbeelding.

Industrie 4.0 en ERP

 

Flexibel en laagdrempelig

Het dataplatform bevat ook een orkestratiefunctie en houdt bij welke data van wie op welk moment binnenkomt of naar buiten gaat waarnaar toe en om welke ’business’-reden. Het platform staat flexibele en laagdrempelige fabrieksautomatisering toe. Door machines, ongeacht hun ouderdom, permanent te monitoren maak je het onderhoud voorspelbaar en zijn onderbrekingen in te plannen. Het invoeren van visuele hulpmiddelen zoals HMI-schermen in samenhang met actuele data maakt het mogelijk om een digitale representatie (digital twin) van een oude productiemachine te maken. De operator bedient deze niet meer op de lawaaiige of vervuilde fabrieksvloer, maar vanuit een gescheiden controleruimte.  Allemaal dankzij het dataplatform met zowel de real-time operationele informatie als de bestuurlijke informatie voor de plantmanager.

‘Door machines continu te monitoren maak je het onderhoud voorspelbaar en zijn onderbrekingen in te plannen’

De in het dataplatform vergaarde sensordata interacteert met data uit andere informatiesystemen, waaronder ERP-applicaties, SCADA-oplossingen en systemen in de MES-omgeving. Al die data ondergaan een transformatieproces, door data samen te voegen, te verrijken of uit te breiden met data van buiten de organisatie zoals data van ketenpartners of data uit social media. Aldus ontstaan pasklare datasets voor alle gewenste controle- en analysefuncties, machineleertrajecten of directe aansturing van operationele processen.

Handvat voor procesverbetering

De aansluiting op het dataplatform zal in de productieomgeving via de OPC UA standaard gaan, zodat data van de met PLC’s verbonden productiemachines meestal direct of na enkele summiere aanpassingen zijn in te lezen. Dan zijn ze ook te gebruiken voor directe analyses ten behoeve van de operators bijvoorbeeld via dashboards, ontwikkeld met BI-software (Business Intelligence) die aan de hand van vooraf gedefinieerde OEE KPI’s (Overall Equipment Effectiveness) inzicht geven in de knelpunten van het productieproces en dus een handvat bieden voor procesverbetering.     

Dilemma van productiedata in cloud

Een geschikt dataplatform selecteren is geen sinecure. De grote spelers in het OT/IT-domein bieden raamwerkoplossingen die modulair zijn in te vullen zodat voor elke productie-omgeving een passend platform is in te richten. Daar hangt meestal een behoorlijk prijskaartje aan. Je kunt ook zelf aan de slag gaan en op basis van de voorhanden standaarden de componenten selecteren die het best passen bij het productieproces. Wie voldoende inzicht heeft in de eigen bedrijfsprocessen en ook nog de kennis bezit van welke applicaties zich het best voor welke functies lenen, kan gaan winkelen bij de grote public cloud-aanbieders. Die bieden voor bijna elk bedrijfsvraagstuk wel een oplossing in de vorm van Software as a Service (SaaS). Voordeel van cloudproviders is dat ze werken met moderne API’s (Application Program Interfaces) waardoor aansluiting van eigen systemen en productieapparatuur op de clouddienst geen problemen hoeft op te leveren.

Zonder kapitaalinvestering vooraf laat zich een dataplatform inrichten, inclusief de gewenste analyse functionaliteit of voorzieningen voor machineleren of andere vormen van kunstmatige intelligentie. Let op: cloudproviders streven ook een winstdoel na. Aanklikken van extra functionaliteit en capaciteit gaat heel makkelijk, maar de rekening loopt hiermee ongemerkt op. Bovendien zullen veel bedrijven huiverig zijn om hun vitale productiedata ergens in de cloud onder te brengen. Een oplossing is om deze data fysiek binnen de eigen muren te houden en de verwerkingsprocessen op servers in de cloud te laten draaien. Nu informatietechnologie voor industriële toepassingen steeds meer op basis van technische standaarden is samengesteld, komen er meer minder kostbare modulair opgebouwde oplossingen. Daarmee kan men op kleine schaal met een dataplatform starten en de functionaliteit met voortschrijdend inzicht verder uitbreiden. Voor het implementeren van die starterspakketten zullen zich ook gespecialiseerde dienstverleners aandienen met zowel kennis van de IT als de OT. Op die manier kan het ook voor een klein productiebedrijf interessant zijn het machinepark te voorzien van een ‘retrofit’ om alsnog mee te surfen op de golven van verandering.