open source software
IT

De voordelen van open source software: ‘controleer je eigen toekomst’

Tot vandaag gaan bedrijven op een erg protectionistische manier met hun data om. Meer en meer beseft men dat innovatie niet in een geïsoleerde omgeving floreert, maar alleen via samenwerking. Open source software is daar een schoolvoorbeeld van en Klarrio, met hoofdvestiging in Antwerpen, een echte ambassadeur. Een gesprek met Kurt Jonckheer, founder en CEO van deze specialist in grote schaal en real time data-verwerking.

Voor de goede verstaander: wat is open source software eigenlijk?

“Het gaat om software waarvan iedereen de broncode kan inspecteren, aanpassen en verbeteren. Anders gezegd: de auteurs stellen de broncode beschikbaar voor anderen, die ermee aan de slag gaan. De softwarelicentie bepaalt wel voor welke doeleinden de broncode ingezet mag worden. Open source is natuurlijk niet nieuw, maar de afgelopen twintig jaar hebben een aantal zaken in de industrie plaatsgevonden die de relevantie ervan hebben benadrukt. En dan heb ik het in de eerste plaats over de doorbraak van broadband Internet rond de eeuwwisseling. Opeens werd alles geconnecteerd en een bron van data: onze smartphones, pc’s, televisies, noem maar op. Dat creëerde een nieuwe generatie bedrijven die we ondertussen allemaal kennen, zoals Google, Facebook, Netflix, Airbnb en Uber. Bedrijven die in essentie allemaal rond en met data werken. Dat heeft ervoor gezorgd dat ook traditionele bedrijven de waarde van hun data steeds beter zijn gaan inschatten. Daarbij moesten ze ook vaststellen dat hun huidige IT-systeem ontoereikend was voor de accurate opslag, verwerking en analyse ervan. Ze hadden immers nooit kunnen inschatten ooit met zo’n volume en variëteit aan data te maken te hebben.”

Het heeft dus eigenlijk voor een nieuwe software-industrie gezorgd.

“Klopt, aangezien er op een nieuwe en heel dynamische manier met die data wordt omgegaan. Je weet namelijk vaak niet wat de uitkomst ervan is. Om een voorbeeld te geven: als ik een tweet uitstuur, weet ik niet of daar 2 dan wel 1 miljoen mensen op zullen reageren. De software moet in staat zijn daarmee om te gaan en elastisch te schalen. Dat heeft ertoe geleid dat al die bedrijven hun eigen software zijn gaan schrijven omdat er op dat moment geen adequate oplossingen in markt bestonden. Maar omdat deze bedrijven niet zozeer de software maar voornamelijk de data als waardevolle kern van hun businessmodel zagen, hebben ze dat via open source software gedaan zodat iedereen eraan kon meewerken en het kon verbeteren. Zo is ook een volledig nieuwe software-industrie ontstaan, die zich focust op de opslag en verwerking van grote hoeveelheden data (zogeheten “Big Data”). Die open source aanpak is een volledig ander model dan bij traditionele softwareleveranciers, zoals IBM en Oracle. Het werd dan ook aanvankelijk wat minachtend bekeken, ook al omdat het wel wat kinderziektes vertoonde. Maar vandaag blijkt dat die modellen in de industrie meer dan ooit aanslaan en hebben ze voor een heuse innovatieve disruptie in de markt gezorgd. Omdat het nu eenmaal toekomstbestendige en schaalbare architectuur is die niet alleen de huidige maar ook toekomstige noden ondersteunt.

Open source software maakt het mogelijk om je data over al die silo’s heen te gebruiken, zonder dat je telkens opnieuw moet bouwen.

Wat zijn de concrete voordelen van open source software?

“Wel, de meeste bedrijven hanteren een combinatie van eigen datacenters en de cloud infrastructuur van grote, voornamelijk Amerikaanse zogeheten hyperscalers. Die laatste partijen bieden weliswaar gelijkaardige technologie aan, maar het probleem is dat het om gesloten en specifieke software gaat. Google doet het op één manier, Amazon op een andere, Microsoft op nog een andere. Als je als bedrijf je dataopslag en verwerking over al die infrastructuren moet kunnen gebruiken, moet je die stacks in principe telkens weer opnieuw gaan opbouwen. Je kunt het wat vergelijken met een Lego-blokken: het is misschien gemakkelijk om die specifieke blokjes in elkaar te klikken, maar elke leverancier heeft een eigen formaat blokjes die niet compatibel zijn – een ‘lock-in’-systeem dus. Open source software maakt het mogelijk om je data over al die silo’s heen te gebruiken, zonder dat je telkens opnieuw moet bouwen. Noem het een agnostische benadering. Bovendien kan je zo ontsnappen aan de verplichtingen die Amerikaanse hyperscalers sinds de Patriot Act hebben om de Amerikaanse overheid toegang te geven tot hun data. Als die data strategisch zijn of een stuk intellectuele eigendom bevatten, dan is het misschien niet altijd verstandig om met zo’n hyperscaler te werken, maar wel met een Europese cloud infrastructuur. Helaas zijn er nog te weinig bedrijven die dit vandaag doen, met als risico dat we hier in Europa binnen enkele jaren in een datawoestijn leven. Omdat alle data in cloud infrastructuur hyperscalers zitten. We moeten dus ook meer dan ooit werk maken van opleidingen, zodat iedereen zich daar bewust van is en data selectiever naar bepaalde cloud infrastructuur brengt. Anders hebben we geen expertise, geen infrastructuur en geen control meer. Dat kan vrij extreme gevolgen hebben. Mede daarom hebben wij een eigen Academy opgericht. We hebben vandaag de mond vol van artificiële intelligentie en machine learning, maar als de basis niet goed zit, dan kun je gewoon niet aan data science en aan de business use cases beginnen. Dat is net alsof je een schitterende villa afwerkt, maar zonder stabiele fundering en nutsvoorzieningen. Daardoor is het huis erg fragiel en nauwelijks bewoonbaar. Dat is wat wij met Klarrio doen: die fundering bouwen, zodat onze klanten daarop verder kunnen werken. Vaak werk dat mensen niet zien – ik noem het soms noodzakelijk kwaad – maar waar je niet ver mee komt als je het niét op orde hebt.”

Is het eigenlijk verstandig om alle data in de cloud te parkeren?

“Nee, want de cloud is destijds ontwikkeld om bedrijven zonder diepe zakken te helpen om aan computing te kunnen doen via een consumptie gebaseerd betaalmodel. Zonder dat ze moesten investeren in dure datacenters en servers. Het was een oplossing die een hybride manier van werken mogelijk maakte. Het was nooit de bedoeling om er alle data op te plaatsen. Het is gemakkelijker en sneller in de beginfase, maar het zal op termijn veel duurder zijn omdat je betaalt voor opslag en alle gebruik (verwerking) van grote hoeveelheden data.  Weinige bedrijven kunnen vandaag het toekomstige volume en gebruik van alle bedrijfsdata voorspellen.  Dan kun je even goed je chequeboek weggeven. Maak dus eerst een goede kostenanalyse en bepaal strategisch wat je datagewijs wel of niet onder eigen controle wil houden. Op basis van zo’n draaiboek kun je een verstandige en evenwichtige roadmap maken, met voldoende controle en flexibiliteit over infrastructuur en leveranciers. Anders zou het wel eens kunnen resulteren in een erg kostelijke en gefaalde digitale transformatie.”

15.12.2022
door Fokus Online

In samenwerking met

Klarrio is gespecialiseerd in het IT-nichegebied van grote schaal en real-time dataverwerking, waarbij de gegevens onmiddellijk worden verwerkt wanneer ze binnenkomen in plaats van ze historisch op te slaan om ze later te verwerken.  Klarrio is niet alleen een erkend expert in real-time streaming dataverwerking, maar ook een team van cloud-native data engineers met jarenlange ervaring in het begeleiden van de digitale transformatie van enkele van de meest innovatieve organisaties ter wereld.

Ontdek meer

Vorig artikel
Volgend artikel