Adam Macierzyński ? IoT Solution Architect w Transition Technologies PSC
Zarządzanie dużymi ilościami danych jest wyzwaniem dla niejednego przedsiębiorstwa. Stopień skomplikowania analizy definiuje, jakiego typu infrastruktura jest niezbędna do wstępnego przetworzenia oraz reagowania na zdarzenia. Edge Computing jest niezbędne w przypadku, gdy priorytetem jest procesowanie w czasie zbliżonym do rzeczywistego oraz podejmowanie natychmiastowych decyzji.
Z tym problemem na co dzień styka się CERN. Wielki Zderzacz Hadronów, który jest głównym narzędziem pracy naukowców ze szwajcarskiego ośrodka, zajmuje się pomiarem 600 000 000 kolizji protonów na sekundę. Każda z nich to 1MB danych, które muszą zostać zbadane. Przetwarzanie brzegowe pozwala na wstępną filtrację danych. Ta zmniejsza ich wolumen 2500 razy oraz reaguje na krytyczne zdarzenia w czasie nanosekund. Dopiero tak odsiane dane trafiają do rozproszonych systemów, zajmujących się ich dalszą analizą, na którą brakłoby mocy w przypadku pracy na lokalnych serwerach.
Edge Computing oraz Cloud Computing muszą żyć w symbiozie oraz oferować to, co mają najlepsze. Oczywiście nie ma idealnego rozwiązania każdego problemu, dlatego najważniejszym zadaniem jest priorytetyzacja założeń i zdefiniowanie, co jest kluczowe do rozwoju oraz osiągania lepszych wyników.