Decentralizacja sterowania procesem i zarządzanie informacją

Litera D w popularnym obecnie w branży automatyki skrócie DCS oznacza zawsze distributed, czyli rozproszenie. Czy mimo ciągłych zmian technologicznych zachodzących w sieciowych systemach komunikacji i powiązanych z nimi nowych koncepcji oraz strategii organizacji sieci implementacja podstawowych elementów systemów rozproszonych jest możliwa?
W jednym z materiałów szkoleniowych wideo, opublikowanych przez Fieldbus Foundation, instruktor Chuck Carter wyjaśnia, jak funkcjonują systemy sterowania na poziomie obiektowym na przykładzie pętli sterowania przepływem z zaworem i przepływomierzem. I gdy tylko system zostaje uruchomiony, z humorem ogłasza: ?A teraz jeszcze coś! Wyłączmy system nadrzędny ? po co nam host??. Chuck Carter przyznaje i potwierdza operatorowi, że utrata hosta może być sporym problemem w aplikacji, ale tylko w ten sposób można pokazać zalety i przewagę systemów rozproszonych, gdy kilka elementów systemowych zależy bezpośrednio od centralnej jednostki, która właśnie ulega uszkodzeniu lub zostaje wyłączona. W architekturze rozproszonej zawór i przepływomierz nadal funkcjonują normalnie, utrzymując właściwy poziom przepływu medium. Gdy praca modułu lub systemu nadrzędnego zostaje przywrócona, układ wciąż działa poprawnie dzięki implementacji zaawansowanych procedur obróbki i transmisji danych bezpośrednio w węzłach sieciowych ? w tym przypadku w zaworze i czujniku przepływu. Użytkownik korzysta z nich zależnie od tego, czy sytuacja tego wymaga, czy nie.
Ta zwiększona niezawodność systemu sterowania to tylko jedna z zalet architektury rozproszonej. Od momentu pojawienia się pierwszych cyfrowych systemów sterowania DCS koncepcja rozproszenia stała się jedną z wiodących koncepcji rozwiązań sieciowych i strategii sterowania. Wcześniej rozwój systemów sieciowych postępował dość opieszale ? jednostki centralne, ich moc obliczeniowa i zasoby pamięci były ograniczone, co bezpośrednio przekładało się na ograniczenia związane z obsługą urządzeń i modułów zewnętrznych, szczególnie w systemach, gdzie istotne jest zachowanie reżimu czasowego. I choć z czasem sytuacja zaczęła się zmieniać ? wydajność procesorów radykalnie wzrosła, a szybkość transmisji znacznie się zwiększyła ? to jednak koncepcja rozproszenia wciąż wyznacza podstawowy kierunek rozwoju architektur sieciowych systemów automatyki w przemyśle.
Bardziej ?inteligentne? moduły obiektowe
Nie będzie chyba zbytnią przesadą stwierdzenie, że moc obliczeniowa w węźle sieciowym współczesnego przepływomierza Coriolisa może być porównana z procesorami pierwszych układów sterowania cyfrowego. Podobnie sterowniki PLC, PAC, kontrolery temperatury i inne moduły sterowania wyposażone są w wydajne jednostki obsługujące transmisję i obróbkę danych na poziomie obiektowym. Sprzyja to naturalnej eliminacji konieczności stosowania zaawansowanych, superwydajnych jednostek centralnych, nadrzędnych.
W wielu sytuacjach, takich jak prezentowana przed chwilą w tekście, ?inteligencja? systemu zlokalizowana jest bezpośrednio w węzłach sieci, w czujnikach i urządzeniach wykonawczych, na poziomie obiektowym. Przy czym w kolejnych latach i generacjach urządzeń ich możliwości funkcjonalne wciąż rosną: poczynając od podstawowych funkcji linearyzacji wyjść czujnikowych czy korekty pomiarów, aż po obliczanie dodatkowych zmiennych procesowych na podstawie zbieranych danych. Oczywiście skutkuje to większym skomplikowaniem tych modułów, a tym samym koniecznością prowadzenia bardziej zaawansowanych procedur konfiguracyjnych. Dlatego producenci i dostawcy systemów automatyki wciąż udoskonalają narzędzia konfiguracyjne i integratorskie, by uprościć realizację tych zadań bez utraty pełni nowych funkcji.
W wielu aplikacjach urządzenia obiektowe mogą współpracować z mniejszymi jednostkami, również wyposażonymi w proste procesory, np. interfejsy I/O, i realizować zadania oraz funkcje podobne do tych, jakie realizowały zaawansowane systemy sterowania cyfrowego DCS, dostępne w poprzedniej dekadzie.
? We współczesnych systemach sterowania inteligentne moduły I/O stają się kluczowymi elementami ? podkreśla Ben Orchard z firmy Opto 22. ? Mogą one bowiem realizować wiele istotnych funkcji: szybkie zliczanie, buforowanie i ?zatrzaskiwanie? sygnałów, timery, linearyzacja charakterystyk termopar czy wreszcie regulacja PID. Pozwala to na zaprogramowanie w małych węzłach sieci procedur obsługi komunikacji danych, funkcji matematycznych i innych operacji. Dzięki realizacji konkretnych zadań w systemie, np. pętli sterowania PID, moduły I/O zapewniają większą niezawodność systemu. Przykładowo przy zaniku komunikacji z innymi modułami taka pętla wciąż działa.
Bardziej ?inteligentne? sieci
Automatyka rozproszona działa poprawnie tylko wtedy, gdy ma odpowiednie wsparcie ze strony technologii komunikacji sieciowej. W nowoczesnych systemach sieciowych ? mimo rozproszenia samych funkcji realizowanych przez poszczególne moduły sieciowe ? monitoring, raportowanie i analizy danych systemowych wciąż zorganizowane są centralnie, zwykle w systemach nadrzędnych. Stąd rosnąca coraz bardziej popularność standardu Ethernet w aplikacjach sieciowych systemów automatyki przemysłowej, przede wszystkim ze względu na możliwość wsparcia obsługi infrastruktury o architekturze rozproszonej. Dzięki temu współczesne systemy automatyki integrują się w coraz większym stopniu z zakładowymi systemami IT. I choć stwarza to zupełnie nowe możliwości w zakresie dostępu do danych oraz zdalnej obsługi systemów sterujących, to jednak niesie ze sobą również nowe wyzwania, szczególnie w odniesieniu do pracowników obsługi i administratorów zakładowych systemów teleinformatycznych, którzy stają się odpowiedzialni za utrzymanie ruchu i bezpieczeństwo zautomatyzowanych linii oraz aplikacji urządzeń przez 24 godziny na dobę. W opinii wielu ekspertów branżowych z problemami świadomości nowych zadań borykają się jednak nie tylko przedstawiciele zakładów przemysłowych.

? Spora liczba użytkowników systemów sieciowych ma przekonanie, że istniejąca w ich zakładzie sieć obiektowa i nadrzędna standardu IP są unikatowe, znacznie różniące się organizacyjnie i funkcjonalnie od podobnych rozwiązań sieciowych w innych zakładach czy branżach rynkowych ? podkreśla Paul Taylor z firmy Cisco. ? W rzeczywistości jednak okazuje się, że większość systemów wygląda łudząco podobnie, przy wręcz identycznych strukturach i zasadach związanych z organizacją zdalnego dostępu i ochrony danych. Przy czym są to dane niejednokrotnie o strategicznym znaczeniu biznesowym, porównywalne z danymi giełdy
Wall Street. Błąd w funkcjonowaniu sieci, utrata danych itp. mogą mieć dla użytkowników kolosalne znaczenie, wiążące się również ze znacznymi stratami finansowymi.
Ale postęp techniczny w infrastrukturze sieci IT oraz wciąż rosnąca szybkość transmisji danych sprawiają, że uzyskiwany poziom niezawodności komunikacji danych jest już wystarczający, również do spełnienia standardów obowiązujących w sieciach przemysłowych, co z kolei pozwala w coraz większym zakresie wyeliminować zagrożenia związane z zapewnieniem ciągłości komunikacji oraz ewentualnym nieuprawnionym dostępem z zewnątrz.
Wysoki poziom bezpieczeństwa
Gwałtowny postęp, jaki dokonał się w technologiach rozproszonych sieci sterowania nie pociągnął za sobą równie dynamicznych zmian w zakresie organizacji bezpieczeństwa i niezawodności systemów komunikacji danych pomiędzy węzłami/modułami sieciowymi.
Zwykle są one monolityczne, bazujące na funkcjach zaawansowanych sterowników PLC lub PAC. Ponieważ jednak w sieciach rozproszonych większego znaczenia nabiera bezpieczeństwo funkcjonowania poszczególnych węzłów, wiele firm oferujących systemy rozproszone podjęło działania w kierunku wykorzystania możliwości funkcjonalnych modułów sieciowych w obsłudze funkcji bezpieczeństwa bezpośrednio w węzłach sieci, bez wpływu na funkcjonalność i integralność całego systemu sterowania. Przy czym warto podkreślić, że większość tych funkcji jest w zasadzie tożsama z funkcjami i narzędziami bezpieczeństwa wykorzystywanymi już w sieciach teleinformatycznych IT.
Ze względu na to coraz więcej firm działających w branży sieciowych systemów automatyki podejmuje działania w kierunku integracji funkcji bezpieczeństwa w ramach jednolitej platformy systemowej, realizującej zarówno zadania sterowania i monitoringu, jak i obsługi funkcji bezpieczeństwa samych urządzeń oraz osób i mienia. Taka nowa koncepcja organizacji systemów łamie jedną z podstawowych, dotąd obowiązujących zasad, że systemy odpowiedzialne za bezpieczeństwo powinny być w pełni niezależne od układów sterowania i automatyki. Dlatego strategia integracji tych dwóch środowisk ? sterowania i bezpieczeństwa ? bazuje przede wszystkim na możliwości wykorzystania sygnałów i danych z systemów bezpieczeństwa w systemach sterowania i monitoringu, przy założeniu ich przepływu tylko w tym kierunku, nie zaś z systemów sterowania do bezpieczeństwa.
? W popularnych modułach I/O już jakiś czas temu ?inteligencja? została przesunięta w zasadzie bezpośrednio do urządzeń poziomu obiektowego ? wyjaśnia Mark Nixon z firmy Emerson Process Management. ? Teraz podobne działania prowadzone są w zakresie konstrukcji modułów realizujących funkcje bezpieczeństwa. Nasza firma wprowadziła do swej oferty nowy sterownik, dedykowany do pracy na poziomie obiektowym, z zaimplementowanymi funkcjami bezpieczeństwa CHARM, monitorującymi i sterującymi ewentualnym wyłączeniem awaryjnym obsługiwanych urządzeń.
Mark Nixon jest przekonany, że rozproszenie w systemach sterowania i bezpieczeństwa to ich przyszłość. Dostępne już dziś technologie zapewniają bowiem bardzo szybką obsługę zadań sterowania, z wykorzystaniem równie szybkiej komunikacji danych w kanałach transmisji sieciowej, dostępnej na poziomie obiektowym.
Obserwowane zatem przesunięcie ?inteligencji? systemów odpowiedzialnych za bezpieczeństwo aplikacji do poziomu obiektowego przypomina zjawiska opisane na początku artykułu, jakie obserwowano niedawno w systemach sterowania ? odejście od scentralizowanego sterowania i zarządzania zadaniami na rzecz niewielkich, rozproszonych modułów, realizujących swe zadania bezpośrednio przy obsługiwanych urządzeniach, na poziomie obiektowym.
Gdzie zachować centralizację?
Mimo nieustannego wzrostu liczby funkcji sterowania i bezpieczeństwa, które mogą być rozproszone w zintegrowanych systemach sieciowych, wciąż pozostają obszary zadań, które powinny być realizowane w koncepcji scentralizowanej. Do najważniejszych z nich należą:

  • konfiguracja urządzeń i zasoby danych związane z konfiguracją,
  • zarządzanie serwisem i aktualizacjami,
  • akwizycja danych, raportowanie, analizy trendów itp.

Obszar działań, czerpiący największe korzyści z integracji i centralizacji, to akwizycja danych. Z punktu widzenia bowiem monitoringu, analiz, organizacji raportowania to właśnie takie jednolite i skumulowane zbiory dużych ilości danych są najbardziej przydatne. Nie oznacza to jednak wcale, że bazy danych muszą być zlokalizowane w jednym miejscu. Jack Gregg, kierownik marketingu produktów Experion w firmie Honeywell Porcess Solutions przyznaje, że przetworzenie danych systemowych w użyteczną informację jest jednym z kluczowych elementów organizacji architektury systemów sterowania.
? Nasze zbiory danych historycznych z systemu rezydują na serwerach podzie-lonych na klastry, przydzielone do określonych grup sterowników lub modułów automatyki ? wyjaśnia Jack Gregg.
? Klastry zaprojektowano tak, by współpracowały ze sobą, tworząc jeden, duży, zintegrowany system danych. Kanały komunikacyjne, po których serwery wymieniają dane między sobą, tworzą tzw. rozproszoną architekturę serwerową (ang. DSA ? Distributed Server Architecture). Przykładowo, gdy integrator na polecenie kierownika utworzy w systemie punkt akwizycji danych, nadaje mu nazwę FIC-101 i ładuje informacje o nim do sterownika. Następnie operator systemu może już korzystać z tak zdefiniowanego punktu przy budowaniu tzw. trendów, wykresów zamian parametrów procesowych, organizacji alarmów, przy czym informacje te prezentowane są operatorowi oraz zostają zapisane w klastrach serwerowych z możliwością odtworzenia. Dzięki takiemu rozwiązaniu kierownik, siedząc w swoim biurze i korzystając z PC, może w dowolnej chwili sprawdzić stan interesującego go parametru czy wyświetlić raport dotyczący takich zmian w wybranym okresie w historii. Zintegrowany system serwerowy wyszukuje odpowiednie informacje, a użytkownik końcowy nie musi wiedzieć, gdzie fizycznie są one przechowywane.
Skala integracji i scentralizowania tego typu serwerowych systemów akwizycji danych może być bardzo zróżnicowana, osiągając znaczące rozmiary szczególnie w takich aplikacjach, jak zbieranie danych z oddziałów firmy, rozrzuconych w różnych miejscach kontynentu czy całego świata. Gromadzenie i przechowywanie danych pochodzących z licznych procesów przemysłowych, liczonych nawet w setkach tysięcy punktów (tzw. tagów) jest oczywiście wykonalne, wymaga jednak zorganizowania sprawnego zarządzania taką infrastruktura serwerową i baz danych.
W firmie Invensys Operations Management tego typu rozbudowane, globalne systemy akwizycji danych nazywane są galaktykami. W przypadku niektórych, największych światowych koncernów mogą one obejmować znaczne obszary na kuli ziemskiej. Zasadę ich tworzenia i organizacji z wykorzystaniem technologii firmy Invensys opisuje jeden z ekspertów tej firmy.
 ? Opracowując projekt rozbudowanego systemu akwizycji danych za pomocą naszych rozwiązań, tworzy się swego rodzaju galaktykę stanowiącą repozytorium danych, w ramach której budowane są z kolei tzw. obiekty automatyki, komunikujące się z konkretnymi urządzeniami automatyki w aplikacjach. Obiekty automatyki mogą zawierać skrypty, symbole, elementy bezpieczeństwa, bazy danych historycznych i inne elementy niezbędne w tego typu systemach. Takie obiekty mogą być połączone w platformę systemową i umieszczone np. na PC, który jest hostem. W całym systemie akwizycji danych takich maszyn hostujących może być nawet kilkaset. Najczęściej w pojedynczym zakładzie przemysłowym może ich być około 10, kilkunastu. Obsługują one wówczas lokalnie funkcje zbierania danych i wyświetlania niezbędnych informacji na panelach operatorskich HMI. Cały system jest kompatybilny ze środowiskiem programowym InTouch. Opisany trend organizacji systemów akwizycji i przechowywania danych rozwija się obecnie w coraz większym stopniu. Użytkownicy chcą korzystać z lokalnych baz danych, ale z możliwością szybkiego i bezpiecznego skomunikowania ich w razie potrzeby z innymi bazami tworzącymi tzw. galaktykę ? wyjaśnia Rob Kambach z firmy Invensys.
Duże firmy i koncerny działające w wielu miejscach na świecie korzystają z tego typu systemów, np. prowadząc centrale serwisowe i wsparcia użytkowników. Konsultanci i eksperci techniczni mogą z jednego centralnego biura obsługiwać wiele lokalizacji, co prowadzi do znacznego obniżenia kosztów usług serwisowych, związanych chociażby z koniecznością dojazdu itp.
Nie zapomnieć o bezpieczeństwie
Jednym z największych wyzwań przy organizacji tego typu zaawansowanych i rozbudowanych systemów jest zapewnienie bezpieczeństwa. Należy tu wspomnieć o dwóch najistotniejszych kwestiach: tradycyjnych metodach cyberbezpieczeństwa (ochrona przed atakami z zewnątrz) oraz wewnętrznymi regulacjami i uprawnieniami dostępu, określającymi dostęp do zasobów systemowych dla konkretnych podmiotów ? kto, gdzie i kiedy może korzystać z określonych baz danych. Dlatego nadzór nad tzw. ruchem w systemie, dostępem operatorów i inżynierów powinien być powierzony w bardzo odpowiedzialne i świadome ręce.
? Dane są dostępne w systemie akwizycji i repozytoriów przez cały czas i ważne jest udostępnianie ich jedynie tym podmiotom, którym są faktycznie niezbędne ? podkreśla Jack Gregg. ? Nie jest oczywiście konieczne zatrudnianie specjalisty regulującego dostęp na poziomie pojedynczych zakładów. Takie podejście może skutkować złym zarządzaniem dostępem i konfliktami, szczególnie przy próbach ustawienia kanałów dostępowych dla podmiotów z innych lokalizacji. Zarządzanie dostępem powinna realizować osoba w centrali, która w razie konieczności wprowadzenia zmian w organizacji kanałów dostępowych i w harmonogramie korzystania z danych przez różne podmioty wysyła odpowiednie dyspozycje do operatorów w zakładach w konkretnych lokalizacjach i oni wprowadzają konkretne nastawy na poziomie lokalnym, w sterownikach i modułach zlokalizowanych w sterowni czy serwerowni. Szczególne znaczenie mają tzw. dane krytyczne z punktu widzenia poprawności funkcjonowania najważniejszych aplikacji w danym zakładzie. System ochrony danych i zarządzania dostępem powinien działać tak, by dane tego typu nie miały możliwości wyjścia poza system lokalny.
Rozmieszczanie urządzeń sieciowych ? węzłów sieci w różnych miejscach rozległego procesu przemysłowego w zakładzie jest również sporym wyzwaniem z punktu widzenia bezpieczeństwa danych i komunikacji. Większość dostępnych bowiem na rynku sterowników PLC, PAC czy modułów I/O dysponuje różnymi interfejsami komunikacji, w tym sieci Ethernet, ale stosunkowo rzadko wyposażane są one jednocześnie w odpowiednio zaawansowane narzędzia odpowiedzialne za bezpieczną komunikację danych. Oznacza to, że sam kanał sieciowy dołączany do takich modułów już powinien być pewną barierą bezpieczeństwa. Z pomocą w takich sytuacjach przychodzą zwykle narzędzia i procedury bezpieczeństwa danych i komunikacji, znane z obszaru klasycznych sieci IT.
? Działania profilaktyczne w tym zakresie niejednokrotnie są bardzo proste i przypominają np. wprowadzanie procedur zabraniających dołączania prywatnych smartfonów i innych urządzeń mobilnych (iOS, Android) do wewnętrznych, zakładowych sieci Wi-Fi. Urządzenia takie są bowiem potem zabierane do domu, przyłączane do innych sieci bezprzewodowych, korzystają z nich dzieci i dorośli, ściągając z sieci różnego typu aplikacje i dane, bez większego zastanawiania się nad możliwymi konsekwencjami takich działań. Jeżeli spojrzy się na kwestię bezpieczeństwa dostępu do sieci przez pryzmat takich sytuacji, oczywisty staje się fakt, że to sama infrastruktura sieciowa powinna realizować podstawowe funkcje ochrony przed nieuprawnionym i nieświadomym dostępem różnych klientów, jacy mogą próbować włączyć się do sieci i pobierać z niej dane ? wyjaśnia Paul Taylor z firmy Cisco.
Podkreśla on również, że sieci przemysłowe mają tę zaletę, iż jeśli schodzi się w nich do najniższego poziomu obiektowego, ruch danych w sieci staje się bardzo przewidywalny co do wielkości wolumenu danych, zasad ich przemieszczania się w kanałach transmisyjnych i zawartości przekazywanych informacji. Dzięki temu dość łatwe jest zlokalizowanie ewentualnych problemów oraz zagrożeń.
Dobry projekt systemu sieciowego wymaga rozsądnego kompromisu pomiędzy zbudowaniem odpowiedniej ochrony danych i bezpieczeństwa transmisji a uniknięciem powstania dodatkowych barier blokujących czy ograniczających przepływ danych pomiędzy węzłami sieci i modułami systemowymi. Praktyczny przykład: jeżeli operator włącza swój laptop do sieci z poziomu punktu dostępowego, np. przy linii produkcyjnej i chce uzyskać dostęp do obsługującego ją sterownika PLC w celu wprowadzenia nowych parametrów jego pracy, powinien mieć taką możliwość i system powinien mu na to zezwolić. Jeżeli jednak ten sam operator z laptopem próbuje uzyskać dostęp do sieci i sterownika PLC z poziomu punktu dostępowego w biurze, system powinien to wykryć i uniemożliwić bezpośrednie wprowadzanie nastaw, ponieważ próba dostępu jest realizowana w zabronionym wcześniej miejscu.
To przykład typowych zadań ochrony i bezpieczeństwa systemów sieciowych, jakie są wprowadzana przez grupy inżynierów IT i integratorów sieci przemysłowych. Pracownicy, operatorzy aplikacji przemysłowych poruszając się po zakładzie np. z urządzeniami mobilnymi, uzyskują dostęp tylko do tych funkcji i zasobów danych, jakie są dla nich dedykowane, również z uwzględnieniem lokalizacji, w której obecnie się znajdują.
Jak już wspomniano, możliwości systemów rozproszonych w ostatnich latach bardzo się rozwijają i powiększają. Przy sprawnej i świadomej ich implementacji mogą w znaczącym stopniu przyczynić cię do zwiększenia wydajności procesów przemysłowych, przy jednoczesnym zwiększeniu dostępności informacji o parametrach poszczególnych urządzeń i usprawnieniu monitoringu.
Opracował dr inż. Andrzej Ożadowicz, AGH Kraków
CE

Inne spojrzenie ? opinia przeciwna: Nowy sposób organizacji systemów scentralizowanych
W branży automatyki przemysłowej są producenci i dostawcy sprzętu dla sieciowych systemów automatyki, którzy postrzegają trend ku decentralizacji i rozproszeniu ?inteligencji? systemów jako złą drogę ich rozwoju. Jednym z nich jest firma Beckhoff Automation, której eksperci zwracają uwagę, że dążenie do rozproszenia jest jedynie próbą odpowiedzi na zgłaszane przez użytkowników problemy z szybkością działania zaawansowanych modułów automatyki, wynikającą z ograniczonej szybkości przetwarzania informacji w modułach automatyki oraz zbyt wolnej transmisji danych w sieci. Podkreślają jednocześnie, że taka koncepcja jest jedynie połowiczną odpowiedzią na tego typu problemy.
? Jedną z przyczyn, że tak dynamicznie wdraża się obecnie systemy rozproszone, przenosząc ?inteligencję? i funkcje do urządzeń na poziomie obiektowym, jest ograniczona przepustowość kanałów komunikacyjnych w sieci transmisji danych ? zaznacza Joe Ottenhof, menedżer sprzedaży w firmie Beckhoff.
? Z tego względu wielu użytkowników zgłasza problemy np. z uzyskaniem informacji zwrotnej z urządzeń systemowych w odpowiednim reżimie czasowym, co jest związane z wciąż rosnącymi wymaganiami w zakresie poprawy wydajności i efektywności procesów produkcyjnych. Do sprawnego i efektywnego zarządzania przedsiębiorstwem oraz realizowanymi w nim poszczególnymi procesami niezbędne jest narzędzie systemowe dostarczające zarówno całościowy, jak i szczegółowy monitoring urządzeń, procesów itd. Czynnikiem ograniczającym ich organizację często okazuje się szybkość transmisji danych w sieci komunikacyjnej oraz znaczące ilości danych, jakie muszą być przesyłane przez jej kanały i łącza. W koncepcji systemowej, przyjętej przez naszą firmę, setki, a nawet tysiące czujników i urządzeń wykonawczych łączone są do sieci ze standardem o dużej przepustowości i szybkości transmisji. Sieć o prostej i wysoko niezawodnej architekturze zapewnia transport danych procesowych do centralnej jednostki sterującej procesami, która w zwartym środowisku programowym i sprzętowym realizuje zadania sterowania i monitoringu. Taki jest model sieciowych systemów dyskretnych w aplikacjach sterowania, przyjęty w firmie Beckhoff.
Mechanizm ten może funkcjonować dzięki wykorzystaniu w modułach nadrzędnych układów mikroprocesorowych z szybkimi i wydajnymi procesorami CPU, komunikujących się z urządzeniami sieciowymi w standardzie EtherCAT. W połączeniu z prostymi, niewielkimi modułami poziomu obiektowego pozwala to na uzyskiwanie zadowalających szybkości transmisji pakietów danych w cyklach rzędu pojedynczych milisekund. Tego typu strategia sterowania i monitoringu nie jest może odpowiednia dla aplikacji typu rafinerie czy olbrzymie zakłady chemiczne, ale istnieje wiele aplikacji przemysłowych działających w oparciu o sygnały dyskretne, w których sprawdza się ona doskonale.
Warto podkreślić podstawową różnicę w postrzeganiu problematyki sieciowych systemów sterowania, jaką sygnalizuje firma Beckhoff. Jej inżynierowie starają się bowiem uniezależnić funkcjonalność systemu i jego niezawodność od właściwości i paramentów sprzętowych. ? W systemie scentralizowanym większość funkcji systemu implementowana jest w oprogramowaniu, podczas gdy w systemach rozproszonych powiązana jest ze sprzętem. Filozofia firmy Beckhoff zakłada zatem eliminację w jak największym stopniu niezbędnych, specjalizowanych elementów sprzętowych na korzyść oprogramowania. Sprzęt i urządzenia znacznie szybciej podlegają procesowi starzenia się, a oprogramowanie, choć przestarzałe, może być łatwiej modernizowane oraz aktualizowane i zwykle jest tańsze w zakupie oraz eksploatacji.
Firma Beckhoff proponuje przejrzystą i jednolitą architekturę systemową, z magistralą szkieletową standardu EtherCAT. Ponieważ w takim systemie instalowanych jest niewiele modułów sterownikowych, obsługa sygnałów z czujników i urządzeń wykonawczych realizowana jest przez dołączane moduły I/O