IT trendsonderzoek – Edge computing & Quantum Computing
Sinds 2010 voert Supply Value jaarlijks een onderzoek uit over de belangrijkste trends binnen het inkoopvakgebied. Sinds dit jaar voegen we daar het IT trends onderzoek aan toe. Het doel van dit onderzoek is het ondersteunen van Informatie management en technologie professionals bij het stellen van de belangrijkste prioriteiten en de juiste focus. In deze blog geven we een eerste doorkijk op twee trends van het onderzoek: Edge computing en Quantum computing.
Disclaimer: Dit is een samenvatting in het later gepubliceerde Trend onderzoek. Wilt u het volledige trendsonderzoek ontvangen? Laat het ons weten.
Edge Computing
‘Onbekend is onbemind’ is zeker van toepassing op edge computing. Waar iedereen het tegenwoordig heeft over IoT en er tegen elkaar wordt opgeboden over wie er de meeste sensoren in zijn/haar netwerk heeft, zijn er relatief weinig mensen bekend met Edge computing. 75% van de respondenten geeft aan totaal onbekend of slechts redelijk bekend te zijn met dit concept. Dit terwijl de twee trends sterk met elkaar verbonden zijn. Edge computing is namelijk dé manier is om efficiënt en snel om te gaan met al de verzamelde IoT sensoren. Tegenwoordig gaat edge computing namelijk meestal over IoT-apparaten die gegevens uit sensoren niet naar de cloud sturen, maar deze direct op het apparaat zelf verwerken tot samengevatte informatie die vervolgens verzonden wordt naar een centraal punt of lokaal wordt ingezet voor het nemen van (geautomatiseerde) beslissingen.
Wat is edge computing
Maar, hoe werkt het dan precies? Om dit duidelijk te maken is het belangrijk om te begrijpen wat het verschil is met cloud computing. Bij cloud computing kan er capaciteit, ofwel rekenkracht worden ingekocht bij een cloud provider. Deze cloud provider levert dit vaak door enorme datacenters te exploiteren. Doordat de cloud provider schaalvoordeel heeft en efficiënt kan werken is dit vaak goedkoper, veiliger en beter schaalbaar voor organisaties dan het hebben van eigen servers. Echter, deze datacenters staan vaak geografisch ver van de gebruiker af. Over het algemeen is de vertraging die door deze fysieke afstand wordt opgelopen verwaarloosbaar. In sommige situaties is echter iedere milliseconde van groot belang en wordt er voor gekozen om de rekenkracht te verplaatsen naar de ‘rand’ van het netwerk. Hiermee wordt beoogd om de dataverwerking zo dicht mogelijk (fysiek gezien) bij de databron (vaak IoT sensoren) plaats te laten vinden. Ook voorkomen we hiermee overbelasting van netwerken. Gezien de verwachtte exponentiele groei van IoT (4,9 miljard aangesloten apparaten in 2025) en het feit dat 5G voorlopig nog niet overal zijn uitgerold is ook dat komende tijd steeds vaker een aandachtspunt.
Trendontwikkeling
De eerste onderzoeken over edge computing werden al in 2014-2015 gepubliceerd en eigenlijk werken bedrijven als Google en Microsoft al veel langer met het onderliggende idee (het idee van een ‘globally accessible network’ waar cloud en edge computing voortvloeisels uit zijn, bestaat al sinds de jaren ’60). Dat het echt wordt opgepakt door potentiële gebruikers is echter pas sinds 2018 en de verwachting is dat het in 2019 sterk door zal ontwikkelen.
Ondanks dat de respondenten over het algemeen niet aangeven veel prioriteit te gaan geven aan edge computing, verwachten we dat deze trend zich richting 2020 steeds sneller zal gaan ontwikkelen. Ook Forbes (2019) geeft aan dat de verwachte marktwaarde van edge computing in 2025 zo’n 3,24 miljard dollar zal zijn. Het zal in de loop van tijd steeds duidelijker worden hoe breed (of niet breed) toepasbaar edge computing nu eigenlijk is. Momenteel is het vooruitzicht positief, omdat ook cloud computing en IoT enorm breed toepasbaar en waardevol blijken.
Quantum computing
Het gebruik van data binnen organisaties groeit exponentieel, maar lang niet al deze data wordt daadwerkelijk gebruikt. Klassieke analysemethoden zijn vaak niet meer toereikend gezien de hoeveelheid data die er verwerkt kan worden. Daarom worden er nieuwe manieren gezocht om steeds groter wordende databronnen, beter te kunnen analyseren. Quantum computing is hiervan een veelbelovend voorbeeld. Echter, makkelijk toepasbaar is het niet; IBM heeft pas begin dit jaar (januari 2019) zijn allereerste quantumcomputer voor commercieel gebruik onthuld. Breed beschikbaar of toepasbaar is het dus nog lang niet. Dat is waarschijnlijk ook de reden dat de respondenten nog niet zo bekend zijn met deze trend. Meer dan 80% van de respondenten gaf namelijk aan totaal onbekend of slechts enigszins bekend te zijn met quantum computing. Dat zo’n groot percentage er totaal onbekend mee is, is wel opvallend, omdat juist deze trend enorm veel media aandacht heeft gehad, en quantum computing als een enorme doorbraak wordt gezien.
Wat is quantum computing
De klassieke blik op informatieopslag op een normale computer is dat de informatie is opgebouwd uit 1’en en 0’en. Data is hierbij opgebouwd uit zogenaamde ‘bits’ waarbij elke bit een 1 of een 0 is. De waarde van een bit kan dus twee staten aannemen, vergelijkbaar met bijvoorbeeld een aan/uit schakelaar van een computer of het antwoord op een ja/nee vraag. Een traditionele computer slaat getallen op door lange combinaties te maken van 0’en en 1’en. Dit is vrij gemakkelijk voor de getallen 0, 1 en 2. Dit zijn namelijk combinaties van 2 bits: 00 is nul, 01 is één en 10 is twee. Echter, wanneer je het getal 250.000 wil maken heb je al een combinatie van 18 bits nodig! Met andere woorden, een reeks van 18 1’en en 0’en. Wanneer je grote hoeveelheden data wil opslaan, legt dit dus een flink beslag op de opslagruimte van een computer. Hierdoor leidt een combinatie van een grote hoeveelheid data met veel gevraagde berekening tot een trage verwerking op traditionele computers. Hiervoor biedt quantum computing mogelijk een oplossing!
Quantumcomputers verschillen van traditionele computers doordat ze met qubits werken voor dataopslag in plaats van met bits. Het voordeel van qubits is dat ze niet alleen een waarde van 0 of een 1 kunnen hebben (en dus aan of uit staan), maar ook alle mogelijke combinaties daarvan tegelijkertijd. Omdat een qubit tegelijk een 0 en een 1 kan zijn (bijvoorbeeld voor 70 procent 0 en voor 30 procent 1), is het mogelijk om twee berekeningen parallel aan elkaar uit te voeren. Doordat hiermee de rekenkracht van quantumcomputers enorm veel groter is, zijn ze ook ontzettend veel sneller dan traditionele computers. Hoe veel sneller precies hangt af van het aantal qubits in het systeem.
Dit klinkt tot dusver als een ‘no-brainer’, waarom gaat niet iedereen nu quantum computing toepassen? Dat is omdat het werken met qubits een zeer delicaat proces is. Qubits kunnen namelijk hun eigenschappen (tegelijk een 0 en 1 kunnen zijn) verliezen als ze beïnvloed worden door een ‘meting’. Een meting kun je zien als een ‘foto’ of momentopname van de staat van een qubit op een bepaald moment, en op deze momentopname zal de qubit altijd 0 óf 1 weergeven, ondanks dat de qubit meerdere waarden kan aannemen. Hierdoor vervalt juist de bijzondere eigenschap van de qubit en is deze eigenlijk ‘waardeloos’ geworden. Het opschalen van quantumsystemen is dan ook lastig omdat er een manier gevonden moet worden om meerdere qubits aan elkaar te kunnen koppelen, zonder dat ze elkaar beïnvloeden en daarmee uit hun quantumtoestand raken.
Trendontwikkeling
Hoewel quantum computing momenteel nog maar nauwelijks beschikbaar is, zal dit zich de komende jaren steeds breder beschikbaar worden. Bijvoorbeeld door de commerciële quantumcomputer van IBM waarbij berekeningen kunnen worden ingekocht via het internet.
De potentie ervan zal steeds meer uit de praktijk moeten gaan blijken en er zal veel mee worden geëxperimenteerd de komende tijd. Een brede en toegankelijke inzet van quantumcomputers zal echter nog wel even duren.
Wilt u meer lezen over Edge computing en Quantum computing, en wilt u weten wat de IT professionals die deze trends hebben beoordeeld vinden van deze trends? Download dan hieronder het gehele onderzoeksrapport!