Ulepszone zarządzanie danymi wymaga nowego sposobu myślenia, ponieważ Przemysłowy Internet Rzeczy (IIoT) pozwala technologom na wykorzystywanie ogromnych ilości danych, które są teraz dla nich dostępne.
Wiele osób, prowadzących działalność gospodarczą korzystających z technologii produkcji przemysłowej, w kolejnych fazach cyfryzacji zaangażowało się w technologiczne programy pilotażowe, w celu zbadania opcji redukcji kosztów, spełniania wymagań określonych przepisami i/lub zwiększenia całkowitej efektywności wyposażenia (ang. overall equipment effectiveness, OEE).
Pomimo tej postępującej transformacji okazuje się, że zaadoptowanie zaawansowanych narzędzi analitycznych nadal stanowi pewne wyzwania. Rozległe i skomplikowane portfolio dostępnych narzędzi może być zniechęcające, a ponadto wielu użytkowników końcowych cierpi na brak podstawowego zrozumienia analityki danych dotyczących procesów technologicznych. W połączeniu z brakiem świadomości praktycznych korzyści, jakie oferuje ta analityka, dochodzi do tego, że wielu inżynierów technologów dalej tkwi w klasycznych scenariuszach realizacji codziennych zadań i do swoich analiz wykorzystuje arkusze kalkulacyjne oraz podstawową analizę trendów.
Współcześnie fabryki wytwarzają więcej danych niż kiedykolwiek w historii, które są obsługiwane przez sieci komunikacji i transmisji danych – Przemysłowy Internet Rzeczy (ang. Industrial Internet of Things, IIoT). Umożliwia on powstanie inteligentnych fabryk, w których dane mogą być wizualizowane od najwyższego poziomu do najmniejszego detalu. Kluczem do tej rewolucji cyfrowej jest sieć połączonych czujników, elementów wykonawczych i maszyn w fabryce generującej biliony próbek rocznie.
Ta nowa kategoria technologii i rozwiązań w rewolucji cyfrowej oferuje bezprecedensowe możliwości poprawy wydajności i zarządzania procesami w czasie rzeczywistym, ale także generuje nowe wyzwania, które wymagają innowacyjnego myślenia i rozwiązań.
Technologia ewoluowała gwałtownie w odpowiedzi na skalę generowanych danych, oferując zaawansowane systemy dla biznesu i repozytoria do przechowywania danych (ang. data lakes), które są obecnie zasadniczą częścią inteligencji biznesowej. Jednak dla wielu inżynierów niewiele się zmieniło. Używają oni wciąż tych samych systemów i doświadczają ograniczonych korzyści z transformacji cyfrowej dokonującej się w ich fabrykach, ponieważ nie są w stanie uzyskać bezpośredniego dostępu do użytecznych informacji, jakie oferują te nowe technologie, narzędzia i systemy.
Złożoności w analityce
Obecnie inżynierowie stają coraz częściej twarzą w twarz ze skomplikowanym obrazem nowych technologii, pełnym rozmaitych narzędzi analitycznych, oferujących nowe, najlepsze możliwości ich wykorzystania w przetwarzaniu dostępnych danych. Narzędzia te to zarówno tradycyjne programy do archiwizacji danych i systemy zarządzania produkcją (ang. manufacturing execution system, MES), jak i generyczne systemy do organizacji zaawansowanych systemów akwizycji, rozproszonego składowania i przetwarzania danych Big Data, takie jak Hadoop i niezależne aplikacje analityczne. Narzędzia te zaspokajają różne potrzeby firm, ale niekoniecznie są projektowane do spełniania specyficznych potrzeb inżynierów w przemyśle przetwórczym.
Sama liczba systemów biznesowych prowadzi do problemów z ich ewentualną integracją i zwiększoną zależnością od ekspertów z obszaru informatyki i analityki Big Data. Korporacyjna wizja analityki jest często oparta na jednym dużym repozytorium tzw. data lake dla wszystkich danych. Jednocześnie przeprowadzane są eksperymenty i doświadczenia mające potwierdzić słuszność koncepcji przechowywania danych finansowych, marketingowych, kontroli jakości oraz ograniczonych ilości danych produkcyjnych w tego typu repozytoriach. Jednak firmy często borykają się z problemem dopasowania swoich działań do konieczności przetwarzania ogromnych ilości danych procesowych w ustalonym czasie.
W odpowiedzi na ten problem wiele organizacji tworzy centralne zespoły analityków, które mają zajmować się najbardziej kluczowymi kwestiami dotyczącymi realizowanych procesów technologicznych i mających wpływ na dochodowość firm. Specjaliści od analizy danych nieuporządkowanych, czyli tzw. badacze danych (ang. data scientists), tworzą zaawansowane algorytmy i modele danych, w celu łączenia danych pochodzących z różnych źródeł i dostarczania wartościowych informacji dla optymalizowania procesów produkcyjnych. Ci eksperci od analityki torują drogę do translacji danych z szeregów czasowych na informacje dające się wykorzystać w praktyce.
Podczas gdy praktyczne informacje, uzyskane od zespołów analityków danych są kluczowe, to takie podejście samo w sobie jest niewystarczające dla wdrożenia analityki w realizacji codziennych zadań technologów. Inżynierowie często nie mają czasu, nie mają wielu okazji do nauczenia się obsługi nowych narzędzi, za to są bardziej zaangażowani w zaspokajanie bieżących potrzeb fabryk, niż zajmowanie się nowinkami oferowanymi ze strony nowych i być może nie sprawdzonych technologii. Mogą być sceptyczni co do tego, że uzyskają praktyczne korzyści z poświęcania czasu na systemy, czy narzędzia analityczne. Jeśli systemy analityczne z przeszłości nie spełniły ich oczekiwań, to mogą im się teraz kojarzyć z frustracją i rozczarowaniem. Przy istniejącej presji na zapewnienie optymalnej realizacji procesów technologicznych naturalnym jest, że inżynierowie powrócą do swoich obecnych systemów i narzędzi, ponieważ są one sprawdzone i umożliwiają właściwe wykonywanie pracy.
Ponieważ technologia uległa ewolucji wcelu stworzenia fabryk podłączonych do sieci IIoT, tak więc inżynierowie muszą potrafić zarządzać tymi zakładami i być do tego upoważnieni. Jest to kluczowe przesunięcie w kulturze biznesu, ponieważ całe organizacje muszą być przeszkolone i uświadomione co do potencjału analityki danych, ponieważ ma ona bezpośrednie zastosowanie w ich codziennych działaniach.
Zamiast polegania jedynie na centralnym zespole analityków, który posiada całą wiedzę fachową w dziedzinie analizy danych, należy posiadać też innych ekspertów, takich jak technolodzy, którzy powinni potrafić odpowiadać na stawiane im codziennie wyzwania i problemy. To nie tylko poszerzy obszar korzyści z analityki danych na inżynierów zaangażowanych w zarządzanie procesami technologicznymi, ale także uwolni badaczy danych od dodatkowych obowiązków i pozwoli im na skoncentrowanie się na najbardziej kluczowych problemach firmy.
Włączenie inżynierów do analityki danych nie oznacza pytania ich, czy chcą zostać badaczami danych. Inżynierowie nie staną się (łatwo) takimi analitykami, ponieważ ich wykształcenie jest zasadniczo inne (informatyka a np. inżynieria chemiczna). Jednak mogą oni stać się pracownikami świadomymi procedur i znaczenia analityki oraz podmiotami aktywnymi w analityce.
Inżynierowie zbliżając się do zrozumienia analityki, potrafią samodzielnie rozwiązywać więcej codziennych problemów w realizacji swoich obowiązków oraz zwiększać swoją wydajność pracy. Ponadto dostarczą swoim organizacjom nowych praktycznych informacji, na podstawie swojego specyficznego doświadczenia inżynierskiego. To buduje nową wartość osób samozatrudnionych na wszystkich poziomach organizacji oraz powoduje bardziej efektywne wykorzystanie zasobów ludzkich.
Doprowadzenie organizacji do tego nowoczesnego podejścia i samoorganizacji, wymaga dodania platformy analityki samoobsługowej, opracowanej specjalnie pod kątem specyficznych potrzeb użytkowników i ich edukacji. Narzędzia analityki samoobsługowej są projektowane pod kątem użytkowników końcowych. Obejmują one stabilne algorytmy i przyjazne dla użytkownika interfejsy, aby zmaksymalizować łatwość obsługi, bez konieczności posiadania dogłębnej znajomości zasad badania danych (ang. data science). Nie jest wymagany wybór modelu, szkolenia czy walidacja. Zamiast tego użytkownicy mogą pobierać informacje bezpośrednio ze swoich programów do archiwizacji danych dotyczących procesów technologicznych i otrzymywać wyniki za jednym kliknięciem. Błyskawiczny dostęp do odpowiedzi na pytania to czynnik zachęcający do adoptowania narzędzi analitycznych, ponieważ wartość jest dostarczana natychmiastowo, oszczędzany jest cenny czas oraz odblokowane zostają ukryte przedtem okazje do wprowadzania ulepszeń.
To podejście samoobsługowe do analityki daje w wyniku zwiększoną efektywność i większy komfort pracy inżynierów wykorzystujących informacje uzyskane z analizy danych, pozwala badaczom danych skoncentrować się na kwestiach, które są bardziej kluczowe dla całej organizacji oraz dostarcza większych zysków osobom samozatrudnionym.
Thomas Dhollander jest wiceprezesem d/s produktów, oraz współzałożycielem firmy TrendMiner.