Van big data naar toepasbare tools voor efficiëntere transportsystemen
Alles begon met de theorie van Higgs
Als we teruggrijpen naar de wetenschappelijke ontstaansgeschiedenis van big data, dan is de theorie van Peter Higgs in de jaren zestig het startpunt. Hij verklaarde de herkomst van de massa van elementaire deeltjes in het algemeen en die van de W- en Z-bosonen in het bijzonder. Dit zogenaamde higgsmechanisme voorspelt het bestaan van een nieuw deeltje, het higgsboson, of het beruchte Higgs-deeltje. Een doorbraak in de wetenschap, die Higgs in 2013 samen met François Englert de Nobelprijs voor de Natuurkunde opleverde. Er was echter een nadeel: dit nieuwe deeltje was niet vindbaar. Wetenschappers van CERN in Zwitserland zijn jarenlang bezig geweest met het aantonen ervan in de deeltjesversneller Large Hadron Collidor (LHC). De enorme installatie produceert 60 terabyte per seconde: iedere ‘botsing’ van protonen produceert zoveel data dat dit onmogelijk allemaal te bewaren is. Daarom wordt real-time geanalyseerd wat waardevolle data is en wat niet. In 2012 bracht CERN naar buiten dat het Higgs-deeltje hoogstwaarschijnlijk is gevonden, wat wereldnieuws werd.
De wereld anno 2014
Maar big data is meer dan wetenschap. Enerzijds verandert de maatschappij. We willen continue bereikbaar zijn, overal snel een antwoord op krijgen en alles moet gratis toegankelijk zijn. Anderzijds is er de technologie die dit mogelijk maakt. Het stelt ons in staat aan de extreme verwachtingen te voldoen. Deze nieuwe wereld brengt echter ook nieuwe discussies met zich mee, denk aan privacy, de betrouwbaarheid en het juridische aspect. Om mee te kunnen draaien in deze veranderende wereld is het aan te raden het klein te houden en flexibel te beginnen. Er ontstaan in de verkeerssector bijvoorbeeld steeds vaker big data projecten waarbij verschillende bedrijven hun expertise inbrengen. Denk aan het maken van herkomst- en bestemming analyses op stations op basis van mobiele data (GPS), nieuwe analyses om OV-systemen efficiënter te laten werken en analyses om de doelgroep beter te leren begrijpen. Uiteindelijk leidt data in de verkeerswereld tot transparantie (je kunt zien wat er écht aan de hand is). Effecten van genomen maatregelen zijn goed te toetsen, wat tot betere monitoring en grotere betrouwbaarheid van het vervoersysteem kan leiden.
Sensor City Assen als ‘living lab’
Een goed voorbeeld van een project waarbij de vertaalslag is gemaakt van big data naar toepasbare diensten is Sensor City in Assen, een ambitieus project waarin een grootschalig stedelijk meetnetwerk is gerealiseerd waarmee verschillende, praktisch bruikbare toepassingen van complexe sensorsystemen zijn en worden ontwikkeld. Het belangrijkste doel? Reizigers faciliteren om op een eenvoudige manier slimme en optimale reiskeuzes te maken door een persoonlijk reisadvies. Het project beoogt een innovatieslag in reisinformatie- en verkeersmanagementdiensten door het slimmer omgaan met informatie uit sensortechnologie. In 2013 was Assen het ‘living lab’ waarin een grootschalig praktijkexperiment werd uitgevoerd. In dit experiment hebben ruim honderdvijftig reizigers in en om Assen diverse nieuwe diensten voor in de auto en een app op de smartphone getest. Het project Sensor City Mobility is uitgevoerd door een consortium van bedrijven en overheid. Stichting Sensor City is een van de projectpartners. Directeur Jan Reitsma vertelt: “Omdat Drenthe bekend staat om de ontwikkelingen rond sensortechnologie is gekozen voor de stad Assen als ‘living lab’. De crux is dat de aanleg van het stedelijke sensornetwerk wordt gecombineerd met een open data source. Deze geeft continue real-time informatie, wat essentiële input levert om specifieke diensten voor de reiziger te ontwikkelen. Denk aan minder hinder diensten bij infrastructurele projecten.”
Verwerken big data uitdaging
Het ontsluiten, ter beschikking stellen en verwerken van big data was een van de technische uitdagingen in het project Sensor City. “Want hoe konden we ervoor zorgen dat we gelijktijdig de immense datahoeveelheden konden verwerken? Voor een mens is dit niet te bevatten”, schetst Reitsma. De basis vormt het software platform NPLEX van KxA Software Innovations, onderdeel van het consortium. Het platform is ontwikkeld om extreem grote datahoeveelheden te kunnen verwerken. Directeur Wilma Mulder licht toe: “Het platform combineert het verwerken, opslaan en weer ophalen van data met het uitvoeren van bewerkingen en berekeningen. De streaming data technologie van NPLEX maakt het platform bij uitstek geschikt voor het verwerken van real-time data uit sensoren.” Een voorbeeld. Het meetnetwerk in Assen meet niet alleen alle verkeersstromen, maar ook de weersomstandigheden (wat is de temperatuur, hoeveel wind staat er) en het geluidsniveau. Hoe kan al deze informatie worden samengebracht zodat er correlaties gelegd kunnen worden: wat voor effect hebben de verkeersstromen bijvoorbeeld op het geluidsniveau? De real-time data wordt verwerkt door het NPLEX platform en gebruikt om bijvoorbeeld VRI’s onderling met elkaar te laten communiceren voor betere doorstroming. Op deze manier kan worden voorspeld hoe de verkeerssituatie er elders op de route over een half uur uitziet. In feite is het een zelfregulerend dynamisch verkeersmanagementsysteem. Reitsma: “Het voordeel van real-time informatie is dat je gelijk het effect van de maatregel ziet. Omdat er altijd wordt gemonitord kun je ook altijd bijsturen. Dat is de kracht van het systeem.” De kennis en ervaring die in Sensor City Mobility is opgedaan, wordt door de projectpartners gebruikt om hun diensten verder te ontwikkelen en toe te passen. Aansprekende voorbeelden zijn Viapass in België en de PraktijkProef Amsterdam. De kennis en ervaring kan verder worden toegepast in een scala aan nieuwe producten en diensten, ook in het kader van het Beter Benutten programma.
Ook voor big data geldt de Wet van Moore
Louter positief is het gebruik van big data in de verkeerswereld echter niet. Wat betreft het privacy aspect stelt Wilma Mulder dat de overheid vooral inzicht moet krijgen in welke data persoonlijk is, om deze vervolgens te anonimiseren en niet herleidbaar te maken voordat het wordt vrijgegeven. “Maar dat is niet het enige”, zegt Mulder. “Ook op big data is de Wet van Moore van toepassing. Alles verbetert iedere vijf jaar, ook datacenters. Deze verbruiken echter nu al 18 procent van het wereldwijde energieverbruik. Als je naar de gehele IT-sector wereldwijd kijkt is het energieverbruik over vijf jaar evenveel als de hele vliegtuigsector. Mijn advies? Maak een betere selectie van data die je wilt opslaan en maak software groener door super efficiënt te programmeren.” Mulder stelt bovendien dat veel projecten nog mislukken vanwege de verkeerde keuze in techniek. “Vroeger had je datawarehousing: veel bedrijven zijn geneigd naar het oude terug te grijpen en hierop voort te bouwen. Bij de NDW komen bijvoorbeeld streaming data binnen, er komt continue data bij. Dit kan in principe real-time, maar daar is de oude warehouse niet voor bedoeld. Er worden aannames gedaan in techniek, specificaties worden op voorhand al aangedragen maar zijn gespecificeerd op het verleden. Als overheden aanbesteden voor grote projecten, ga dan op zoek naar ‘top of the bill’ adviseurs en zorg dat ze betrokken zijn in de specificatierondes. Een marktconsultatie doen voordat je een tender uitschrijft is bijvoorbeeld een goede tool.”
Dit artikel is verschenen in de Big Data Special van Verkeer in Beeld editie 3 2014