Technologie

Fog Computing odpowiedzią na wyzwania cyfryzacji energetyki

Wstęp

Internet Rzeczy, smart grid, cloud czy cyberbezpieczeństwo to pojęcia, które w ostatnim czasie wróciły z większą intensywnością do debaty, z jednej strony, o potrzebie szerszego otwarcia energetyki na innowacje z obszaru ICT i z drugiej strony, o potrzebie zmierzenia się z zagrożeniami i barierami w ich rozpowszechnieniu. Czy zatem to otwarcie w najbliższym czasie jest możliwe. IV rewolucja przemysłowa jest faktem a jej kluczowym obszarem zmian będzie energetyka. Wprowadzenie bezpiecznych rozwiązań w tym obszarze zadecyduje o skali i tempie przemian. Niewątpliwie oprócz strategicznej dyskusji nad skalą i głębokością zmian istotne będzie przeprowadzenie szeregu testów pilotażowych, pozwalających na zmianę obecnego status quo warstwy ICT stosowanej w sektorze energetycznym. Zważywszy na oczekiwaną skalę przemian i wyzwań stojących przed IV rewolucją przemysłową, uwzględniając jednocześnie zagrożenia i wymóg wysokiego poziomu cyberbezpieczeństwa związanego z pracą na infrastrukturze krytycznej, można ze stu procentową pewnością stwierdzić, że obecnie dostępne na rynku rozwiązania są niewystarczające!
Rozpędzająca się IV rewolucja przemysłowa to przede wszystkim wykładniczy wzrost ilości przetwarzanych i analizowanych danych, dzięki którym jesteśmy w stanie podejmować szybsze i bardziej racjonalne decyzje biznesowe. To dane są kluczowym elementem nowoczesnych systemów klasy Smart Grid i to właśnie procedury związane z ich przetwarzaniem, magazynowaniem, transferowaniem i bezpieczeństwem powinny być podstawowym wyznacznikiem wspomagającym podjęcie decyzji kierunkowych o zastosowaniu w energetyce konkretnej technologii czy modelu architektonicznego. Waga decyzji kierunkowej wskazującej technologię bazową dla cyfryzacji tego sektora jest ogromna. W jej wyniku przez wiele lat nie będzie możliwa zmiana przyjętego rozwiązania i wprowadzenia innego. Będzie to miało kluczowy wpływ na tempo przemian, stymulację lokalnego rynku a przede wszystkim wydajność i bezpieczeństwo informatycznej infrastruktury krytycznej.
Podjęcie właściwych decyzji kierunkowych należy zatem poprzedzić dobrym rozpoznaniem i zdefiniowaniem ich konsekwencji oraz zagrożeń jakie niosą ze sobą wybrana architektura, wykorzystywane elementy oprogramowania oraz aspekty prawne z nimi związane. Należy odpowiedzieć na pytania jakie warstwy systemu Smart Grid są kluczowe, gdzie powinny być geograficznie rozlokowane i jak zabezpieczone.
W artykule zaprezentowano architekturę, kluczowe cechy oraz funkcjonalności jakie posiada warstwa infrastrukturalna fog computingu, w oparciu o którą można skutecznie przeprowadzić predykowany proces cyfryzacji sektora energetycznego.
Podstawowym modelem architektonicznym, który spełnia przyszłe i specyficzne wymagania sektora energetycznego, jest rozproszona mgła obliczeniowa (ang. Fog Computing). Architektura ta została opisana w postaci modelu koncepcyjnego przez Amerykański Instytut Standardów i Technologii (NIST National Institute of Standards and Technology)1 w Marcu 2018 roku i stanowi punkt wyjścia do stworzenia nowego paradygmatu budowy systemów informatycznych dla infrastruktury krytycznej.

Fundamenty

Infrastruktura energetyczna charakteryzuje się dużym geograficznym rozproszeniem i wysokim stopniem heterogeniczności – Rys. 1. Jej elementy są rozwijane i modernizowane od dziesiątek lat. Wiele elementów już od dawna jest monitorowana a nawet zdalnie kontrolowana. Wiedza zdobyta w tym wieloletnim procesie jest doskonałą podstawą do zdefiniowania założeń nowoczesnego systemu Smart Grid na miarę rosnących potrzeb rynku.

Obecnie istniejące rozwiązania kontrolno-pomiarowe i automatyka mają charakter lokalny i silosowy. Realizują konkretne zadanie na ściśle określonym terenie geograficznym. W większości przypadków składają się w warstwy kontrolno-pomiarowej (sensorycznej), oraz lokalnego systemu agregacji danych klasy SCADA. Rozwiązanie to jest bardzo naturalne i wynika z obecnie panującego paradygmatu budowy systemów informatycznych.

Silosowość oznacza, że elementy systemów dedykowane są do realizacji jednego konkretnego zadania i nie istnieje pojęcie współdzielenia zasobów pomiędzy różnymi interesariuszami. Co w rzeczywistości skutkuje niepotrzebnym zduplikowaniem elementów infrastruktury. Przykładem może być chęć wykorzystania zbioru danych pomiarowych przez dwie rozłączne jednostki organizacyjne. Co przy obecnej architekturze i obostrzeniach związanych z bezpieczeństwem jest trudne w realizacji.
Patrząc globalnie, mamy zdecentralizowaną infrastrukturę informatyczną Rys. 2 z wieloma ośrodkami decyzyjnymi które w żaden sposób nie są ze sobą połączone ani skorelowane. Rozwiązanie to jest wystarczające, dopóki nie trzeba przeprowadzić analizy lub podjąć decyzji biznesowej w oparciu o zbiory danych pochodzących z dwóch lub więcej rejonów.

Należy się jednak zastanowić, dlaczego taka architektura została przyjęta w minionych latach.

Powód jest dość prosty, biorąc pod uwagę, że systemy te pełnią rolę kontrolną wymagane były: niski czas reakcji na zdarzenia oraz autonomiczność lokalna.

Oba te założenia są fundamentalnymi cechami pracy systemu dla infrastruktury krytycznej. Z punktu widzenia bezpieczeństwa operacyjnego kluczowe jest założenie o autonomiczności lokalnej. Założenie to oznacza, że systemy muszą działać współbieżnie i niezależnie. Innymi słowy, jeżeli jeden system przestaje działać nie ma to negatywnego wpływu na pozostałe systemy. Niski czas reakcji jest kluczowy, ponieważ pozwala na podjęcie decyzji biznesowej lub operacyjnej w krótkim czasie. Co jeszcze bardziej uzasadnia i potwierdza słuszność zastosowanej architektury.
Pojawia się zatem pytanie, dlaczego mamy coś zmieniać w warstwie infrastrukturalnej i czy aktualny stan jest dobry i wystarczający?

Tło biznesowe i historyczne

Odpowiedzi należy szukać w sferze trendów oraz cykli rynkowych a wypracowane stanowisko poprzeć analizą aktualnych rozwiązań,
Powszechny dostęp do Internetu, taniejąca technologia oraz postępująca automatyzacja to trendy mające znaczący wpływ na rozwój młodych pokoleń. Obsługa komputera i systemów informatycznych stają się podstawą wykształcenia przy równocześnie malejącej ilości specjalistów np. energetyków. Trend ten nieuchronnie wymusi przeprowadzenie cyfryzacji sektorów przemysłowych na skalę jakiej do tej pory nie widzieliśmy i to nie z powodu „chęci postępu” tylko z powodu „potrzeby” związanej z koniecznością poprawy jakości świadczonych usług przy malejących zasobach eksperckich. Oznacza to, że wspomagające systemy informatyczne staną się podstawowym narzędziem pracy dla młodego pokolenia i już dzisiaj istnieje potrzeba podjęcia decyzji kierunkowych jak się do tego przygotować.

IV rewolucja przemysłowa to miliony podłączonych urządzeń, komputerów i smartfonów oraz przede wszystkim maszyn i urządzeń sensorycznych emitujących zbiory danych w oparciu, o które podejmowane będą decyzje. Rolą systemów informatycznych będzie wyłuskanie istotnych informacji w tempie pozwalającym na podjęcie decyzji operacyjnych a nie przeprowadzenia analiz historycznych. Rola pracowników następnego pokolenia zostanie sprowadzona do roli operatora systemu informatycznego i decydenta zatwierdzającego scenariusze wypracowane przez systemy informatyczne. Tylko dzięki takiemu działaniu możliwe będzie utrzymanie wzrostu poziomu świadczenia usług np. w sektorze energetycznym.

Okazuje się, że nie tylko koniunktura w biznesie zmienia się w sposób cykliczny. Architektura oprogramowania i infrastruktura również podążają za zmianami wywołanymi postępem technologicznym i kosztami. Aktualna zdecentralizowana infrastruktura w energetyce jest pozostałością II fazy rozwoju systemów informatycznych w której pojęcie chmur obliczeniowych i centrów danych nie istniało. Poniższy rysunek (Rys. 3) przedstawia sinusoidalną zmianę trendów w architekturze systemów informatycznych z modelu scentralizowanego na rozproszony.

I – pierwszy faza rozwoju systemów informatycznych w której komputery zajmowały całe pomieszczenia a centralizacja była jedynym możliwym rozwiązaniem.

II – faza przenośnych jednostek obliczeniowych, powstanie sieci ethernet, zupełnie rozproszony model systemów informatycznych

III – faza chmur obliczeniowych, ogromnych centrów danych i scentralizowanych systemów informatycznych

IV – decentralizacja w celu usprawnienia prędkości obliczeń i odciążenia łączy komunikacyjnych

Faza IV rozwoju systemów informatycznych to także kluczowy element IV rewolucji przemysłowej. Jeżeli wiemy, że nastąpi zmiana trendu w architekturze należy odpowiedzieć na pytanie jak powinien wyglądać docelowy system informatyczny i jakie stoją przed nim wyzwania.

Status quo

Obserwując trendy i cykle rynkowe możemy spodziewać się gwałtownego rozwoju i przyrostu warstwy sensorycznej a w ślad za tym ilości magazynowanych danych oraz zapotrzebowania na moc obliczeniową zdolną do przetwarzania tych zbiorów.

Aktualna architektura zdecentralizowana (Rys. 2) w obliczu nadchodzącej skali problemu stanie się wysoce niewystarczalna i dalsze brnięcie w jej rozwój spowoduje wykładniczy wzrost problemów związanych z utrzymaniem integralności danych a przede wszystkim z bezpieczeństwem. Posiadanie wielu rozłącznych systemów wymusza prowadzenie rozłącznych polityk bezpieczeństwa dla każdego z systemów co zwiększa ryzyko wystąpienia niepożądanych zdarzeń.

Wprowadzenie jednostek nadrzędnych w postaci centralnych operatorów (Rys. 4) zarówno informacji pomiarowej jak i utrzymania jest kierunkiem tymczasowo wystarczającym który w długim horyzoncie czasu obarczony jest sporym ryzykiem zahamowania rozwoju rynku.

Wprowadzenie centralnego operatora i spójnego magazynu danych rozwiązuje przytoczony wcześniej problem interoperacyjności i pracy na zbiorach danych pochodzących z różnych regionów. Nie rozwiązuje jednak problemu rozłącznych polityk bezpieczeństwa związanych z utrzymaniem całego systemu. Obarczony jest także ryzkiem wydajnościowym. Na chwilę obecną na terenie kraju nie istnieje centrum obliczeniowe które byłoby w stanie zebrać informacje pomiarowe z całego sektora energetycznego dla predykowanej ilości sensorów i systemów pomiarowych nawet dla procesów wolnozmiennych.

Są tworzone także scenariusze wprowadzenia systemu scentralizowanego w oparciu o budowę i utrzymanie własnej infrastruktury twardej w postaci dużych serwerowni lub w oparciu o wdrożenie chmur obliczeniowych.
Istnieje mocne lobby promujące rozwiązania scentralizowane dużych korporacji międzynarodowych usilnie starających się założyć vendor locking w nowo kształtującym się rynku Smart Grid. Należy odważnie odpowiedzieć na pytanie czy systemy te spełniają fundamentalne potrzeby i założenia jakie energetyka stawia sobie w horyzoncie najbliższych lat oraz jak wpisują się w politykę bezpieczeństwa publicznego kraju, jeżeli uznamy sektor energetyczny za sektor pod szczególnym nadzorem.

Można przyjąć założenie, że duże centra obliczeniowe mogą do pewnego momentu okazać się wystarczające pod kontem wydajnościowym w kontekście nowej fali cyfryzacji. Jednak przy obecnym poziomie wydajności infrastruktury komunikacyjnej nie będą w stanie przeprowadzić szybkich analiz z powodu niemożliwości dostarczenia danych z dużej ilości sensorów w wymaganym z punktu widzenia analizy czasie. Skutkować to będzie niemożnością realizacji wspomnianego wcześniej wymagania, że nowoczesny system Smart Grid powinien wspierać proces operacyjny a nie tylko analityczny wykonywany po fakcie.

Innym ważnym aspektem jest bezpieczeństwo danych, które w przypadku składowania danych na serwerach poza granicami budzi spore wątpliwości. Z kolei podjęcie decyzji o budowie lokalnych centrów danych na terenie kraju wymusi budowę także systemów redundantnych przy wątpliwych do uzasadnienia kosztach takich przedsięwzięć. Wprowadzenie systemu centralnego spowoduje, że warunek autonomiczności lokalnej nie będzie spełniony. Będzie trzeba wprowadzić specjalne procedury postępowania w przypadku zniszczenia lub awarii centralnego węzła, co rodzi szereg dodatkowych problemów którymi nie powinien być obarczony nowoczesny system informatyczny wspierający pracę całego sektora.
Obie przytoczone architektury zdecentralizowana i scentralizowana nie spełnia fundamentalnych założeń bezpieczeństwa, skalowalności i interoperacyjności jakie powinna posiadać nowoczesna infrastruktura klasy Smart Grid w dobie IV rewolucji przemysłowej. Z tego właśnie powodu na rynku od wielu miesięcy toczą się debaty na temat przyszłości systemów rozproszonych. Jesteśmy świadkami burzliwego procesu adopcji systemów rozproszonych opartych o blockchain które szturmem zdobywają rynek transakcyjny i są realnym zagrożeniem dla wieloletniego status quo na nim. Rok 2017 przyniósł narodziny rynku rozproszonego magazynowania danych w oparciu o blockchain, który powinien doprowadzić do całkowitego zniesienia monopolu dużych centrów danych na rzecz małych lokalnych dostawców infrastruktury. Dostawcy ci staną do otwartej rynkowej walki konkurencyjnej o lokalnych klientów będąc jednocześnie uczestnikami systemu o globalnym zasięgu a ich poważnym atutem będzie atrakcyjna dostępność zasobów oraz szybki dostęp do danych dla lokalnych użytkowników.

Dokładnie w ten sam trend wpisuje się koncepcja zwana Mgłą obliczeniową (ang Fog Computing) która ma znieść potrzebę budowy rozległych centrów obliczeniowych na rzecz rozproszonych dostawców infrastruktury.

Fog Computing jako realna alternatywa

Model koncepcyjny Mgły Obliczeniowej został opisany przez Amerykański Instytut Standardów i Technologii (NIST National Institute of Standards and Technology)2 w Marcu 2018 i definiuje nowy model architektoniczny w którym kluczową rolę odgrywa rozproszona warstwa infrastrukturalna pracująca na lokalnych centrach danych i komputerach brzegowych. Jej zadaniem jest agregacja danych i szybkie przetwarzanie z wykorzystaniem dostępnych dynamicznie alokowanych zasobów.
Koncepcja Mgły obliczeniowej rozwiązuje opisywane wyżej problemy i idealnie odpowiada na wymagania i kierunki rozwoju dla systemów Smart Grid. Wprowadza ujednolicony mechanizm zarzadzania infrastrukturą niwelując problemy związane z utrzymaniem zdefiniowane na poziomie systemów zdecentralizowanych. Jednocześnie nie posiada jednostki centralnej pełniącej rolę kontrolera dzięki czemu spełnia założenia autonomiczności lokalnej. Opisana przez NIST koncepcja Fog Computingu dokładnie nakreśla kierunek, w którym podąży rynek i jakim oczekiwaniom mają sprostać systemy IT w dobie totalnej cyfryzacji.
Smart Grid to wyzwanie technologiczne, którego celem jest połączenie w spójnie działający system informatyczny całej infrastruktury energetycznej zarówno tej nowoczesnej, zautomatyzowanej jak też starszej w celu optymalizacji produkcji i dystrybucji energii na danym obszarze geograficznym.

Dlaczego systemy rozproszone są przełomowe dla Industry 4.0?

Wynika to z realizowanych podstawowych funkcjonalności, z których najważniejsze to:

Świadomość lokalizacji i niskie opóźnienie

Wezły mgły obliczeniowej należą do rozległej sieci klasy p2p w której potrafią zlokalizować najbliższe zasoby obliczeniowe i magazyny danych. Pod pojęciem najbliższe rozumiemy takie z którymi mają najmniejsze opóźnienie komunikacyjne. Przy jednoczesnym wprowadzeniu dynamicznej alokacji zasobów i bezstanowych obliczeń wykonywanych na żądanie Mgła obliczeniowa pozwoli przetworzyć dane dużo szybciej niż obecne systemu chmurowe. Lokalna alokacja zasobów skutkuje drastycznym obniżeniem kosztów związanych z transmisją danych i odciąża łącza komunikacyjne.

Siec p2p

Sieci rozproszone to przede wszystkim inny model komunikacji, oparty o połączenia peerowe w których węzły mogą łączyć się z wieloma innymi węzłami w sieci i nawiązywać między sobą komunikację nawet z zastosowaniem innych węzłów jako pośredników, jeżeli nie są w stanie nawiązać bezpośredniego połączenia. Oprogramowanie realizujące założenia mgły obliczeniowej powinno implementować szereg funkcjonalności umożliwiających zestawianie pewnych sieci rozproszonych działających nawet bez dostępu do Internetu.

Adresowanie danych

Dostępne systemy chmurowe i większość systemów informatycznych pracują z wykorzystaniem powszechnie znanych protokołów internetowych których podstawą jest adresacja IP. Aby odczytać lub zapisać jakiś zbiór danych musimy znać adres serwera, na którym chcemy przeprowadzić tą operację. Natomiast rozproszone przetwarzanie zmierza w stronę implementacji wzorca adresacji danych, w którym każdy zbiór danych posiada unikatowy identyfikator, przy pomocy którego odpytujemy całą sieć i nie potrzebujemy wiedzy jaki węzeł dany zbiór posiada. Jeżeli wprowadzimy mechanizmy redundancji kopiując wybrane zbiory na kilka węzłów to w momencie ich odczytywania będziemy mogli je automatycznie odebrać z kilku źródeł. Podejście to pozwala na wprowadzenie opisywanej wcześniej autonomiczności lokalnej w której system dział poprawnie nawet bez dostępu do Internetu a dane są ciągle dostępne.

Dynamiczna alokacja zasobów

Podstawowym wyzwaniem stawianym przed mgłą obliczeniową jest szybkie dopasowywanie się do aktualnych wymagań obliczeniowych i zwalnianie zasobów, gdy nie są już potrzebne. Rosproszony system powinien implementować wzorzec „Serverless computing”, w którym algorytmom obliczeniowym przydzielane są zasoby w najbliższej wolnej serwerowni i w momencie kiedy są potrzebne.

Zarządzanie infrastrukturą

Rozległa infrastruktura o tysiącach węzłów w różnych lokalizacjach może być ciężka w utrzymaniu bez odpowiednich narzędzi wspierających ten proces. Kluczowe jest zaimplementowanie koncepcji prywatnego Blockchaina służącego jako rozproszony mechanizm kontroli i zarządzania Mgłą obliczeniową. To właśnie dzięki niemu bez wprowadzania jednostki centralnej można w sposób pewny kontrolować wszystkie zasoby.

Agnostycyzm sprzętowy

Dobrze zaprojektowana mgła obliczeniowa powinna umożliwiać wprowadzenie węzłów sprzętowych dowolnego producenta bez względu na ich moc obliczeniową czy architekturę sprzętową.

Wyżej wymienione funkcjonalności to tylko niektóre z kluczowych jakie powinna mieć dobrze zaprojektowana mgła obliczeniowa. Wprowadzenie do energetyki takiego spójnego środowiska umożliwi wybudowanie skalowalnego systemu informatycznego i infrastruktury niezależnej od zewnętrznych dostawców. Istniejące na rynku rozwiązania chmurowe powinny być wykorzystywane jako dodatkowe zbiorniki danych i jednostki obliczeniowe nie mające krytycznego znaczenia dla stabilności i bezpieczeństwa systemu jako całości.

Podsumowanie

W artykule zaprezentowano rewolucyjne podejście do budowy infrastruktury informatycznej dla sektora krytycznego jakim jest energetyka, w oparciu o ideę Fog Computingu.
iGrid Technology i Fogger podjęły się realizacji tego ambitnego zadania i z sukcesami wprowadzają na rynek produkty w sektorze energetycznym już dzisiaj spełniające wymagania NIST.

Manifest

Fog Computing umożliwi energetyce wiarygodnie i bezpiecznie magazynować dane pomiarowe na dużą skalę. Żaden nawet najlepiej przemyślany algorytm teoretyczny nie wytrzyma zderzenia z szybką analizą realnych danych, będzie przy tym wymagał wielokrotnych iteracyjnych poprawek o wątpliwym efekcie końcowym.

Nie gromadząc danych już dzisiaj ryzykujemy skazaniem się na status cyfrowego III świata w nieodległej przyszłości, ale jest też jeszcze możliwe, że staniemy się jako kraj jednym z liderów cyfrowej rewolucji, której energetyka jest podstawą.

Autorzy:
Kamil Kozak; CEO Fogger Sp. z o.o.,; VP iGrid Technology Sp. z o.o.
Ryszard Bednarz; CEO iGrid Technology Sp. z o.o.

Click to comment

Leave a Reply

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *

To Top