Godmodus

Liam van Koert

Ook digitaal was de boodschap van Jim Heppelman niet minder prikkelend dan andere Liveworks-edities. Stond vorig jaar de ‘digitale rode draad’ centraal met Augmented Reality als technologie die van de mens een IoT-device maakt, dit jaar komt daar een goddelijk schepje bovenop.

Niet verwonderlijk begon zijn betoog met de cloud. Want in tegenstelling tot CRM en ERP bevinden CAD en engineeringdata zich nog steeds op de kantoor-workstations. En met een remote desktop 3D construeren? Niet echt een aanrader. Mede daarom kocht hij een half jaar geleden CADcloud bedrijf Onshape voor net geen half miljard dollar. Gelukkig was hun PLM-systeem altijd al cloud gebaseerd. Uiteindelijk moet natuurlijk het hele PTC portfolio - dus ook hun AR-software Vuforia - gedragen worden door één cloudplatform dat ze Atlas noemen. Dat Augmented Reality van de mens volgens Heppelman een soort IoT-device maakt, behoeft misschien enige uitleg. Stel je voor: een operator krijgt middels een AR-bril stap voor stap voorgeschoteld wat hij wanneer waar en hoe moet doen. Tegelijkertijd wordt meegekeken en teruggekoppeld of, en hoe hij het doet. Een feedbackloop die feitelijk zorgt voor ‘operatoroptimalisatie’. Want net als bij andere IoT-deelnemers is het niet ondenkbaar om op basis van die waarnemingen verbeteringsvoorstellen in de instructieset mee te nemen.

De ‘godmodus’ die Heppelman zich dit jaar zijdelings laat ontvallen, gaat nog een stapje verder. Want naast de digitale tweeling van de productielijn en het te produceren product, wordt binnenkort de omvattende context bestudeerd, doorgrond en in de feedbackloop meegenomen. De technologie die dat mogelijk maakt? Spacial computing, dat in de laatste versie als Spacial Toolbox aan Vuforia is toegevoegd. Met spacial computing, dat is gebaseerd op het realtime in 3D waarnemen van de ruimte middels camera’s, kan je bijvoorbeeld een robot middels Augmented Reality programmeren. Teken een virtuele slingerlijn tussen het meubilair in je kamer en daar gaat Asimo. Die weet nu overigens ook meteen hoe je een glas melk moet schenken, omdat hij zwaartepunten en snelheden prima zelf kan berekenen en de visicositeit van melk wel uit een database haalt. Gebruik je dezelfde technologie om de IoT-enhanced operator middels automatisch verschijnende proceswatervallen de optimale richting (uiteraard voor proces en welzijn) op te sturen? Dan dringt de vraag zich op waar dat verschil tussen mens en robot hem nu ook al weer in zat.

Liam van Koert