W ten nurt moich zainteresowań wpisuje się tematyka, którą zajmuję się od początku mojej pracy naukowej, tj. od roku 1994 – prognozowanie obciążeń systemów elektroenergetycznych. Problem ten jest kluczowy w sterowaniu i planowaniu pracy systemów elektroenergetycznych. Prognozy o różnym zasięgu terytorialnym i czasowym decydują o strategii inwestycyjnej i rynkowej przedsiębiorstw energetycznych i instytucji finansowych działających w sektorze wytwarzania, przesyłu i dystrybucji energii elektrycznej. Obowiązek wykonywania prognoz zapotrzebowania na moc i energię regulowany jest prawem energetycznym.
Prognozy krótkoterminowe, którymi głównie się zajmuję, sporządza się dla potrzeb bieżącej eksploatacji systemu – rozdziału obciążeń na jednostki wytwórcze, ustalania harmonogramów pracy elektrowni wodnych, obliczeń rozpływu mocy, alokacji rezerwy operacyjnej, wymiany międzysystemowej i oceny bezpieczeństwa pracy systemu elektroenergetycznego. Krótkoterminowe prognozy zapotrzebowania, których wymaga się od uczestników rynku energii elektrycznej, pozwalają na funkcjonowanie rynku bilansującego oraz optymalizację transakcji na towarowej giełdzie energii i rynku kontraktowym.
Celem tego nurtu moich zainteresowań jest budowa i analiza modeli prognostycznych umożliwiających przewidywanie zapotrzebowania na moc elektryczną w krótkich horyzontach (do 7 dni). Szeregi czasowe obciążeń systemów elektroenergetycznych wykazują niestacjonarność, heteroskedastyczność, zawierają trend (zwykle nieliniowy) i trzy cykle wahań sezonowych: roczny, tygodniowy i dobowy. Analizę szeregów czasowych obciążeń opisałem w [1]. Prognoza takich szeregów jest trudna i wymaga opracowania odpowiedniego podejścia, np. dekompozycji szeregu na podstawowe składniki. W moich pracach definiuję obrazy dobowych sekwencji szeregów czasowych, które reprezentują kształt przebiegu dobowego. Trend i pozostałe komponenty sezonowe są „odfiltrowane”.
Pierwsze moje prace z tego zakresu dotyczyły modeli neuronowych: sieci Hecht-Nielsena [2], wielowarstwowego perceptronu oraz sieci Kohonena [3, 4] i były wynikiem projektu badawczego [5] finansowanego przez KBN, który realizowałem wspólnie z dr inż. Adamem Jóźwikiem z IBiIB PAN (dr Jóźwik, który kierował tym grantem, opracowywał metody prognostyczne oparte na statystycznej teorii rozpoznawania obrazów). Modele neuronowe prognozowały obrazy przebiegów dobowych, t.j. unormowane wektory przebiegów dobowych, odwzorowujące kształt tych przebiegów. Aby otrzymać prognozę obciążenia, należało wykonać niezależną prognozę mocy średniej oraz rozpiętości przebiegów dobowych.
Następny projekt badawczy [6], którym kierowałem, miał na celu analizę sieci o radialnych funkcjach bazowych jako predyktorów szeregów czasowych obciążeń elektroenergetycznych. Projekt zaowocował publikacjami [7] oraz [8]. Wprowadzono tutaj dwa rodzaje obrazów dobowych sekwencji szeregów czasowych obciążeń: obrazy wejściowe, tworzone na podstawie historii procesu oraz obrazy prognoz, które wyrażają zakodowany prognozowany przebieg dobowy. Parametry kodowania można wyznaczyć bezpośrednio z historii procesu. To oryginalne podejście, które stosuję także w innych modelach, pozwala uniknąć prognozowania wartości mocy średniodobowej i rozpiętości przebiegu dobowego.
Elastyczny sieciowy model prognostyczny zbudowany na sieci GMDH (Group Method of Data Handling), która rozbudowuje swoją strukturę w procesie uczenia zależnie od złożoności problemu, opisałem w [9]. Sieć GMDH realizuje tzw. wielomian Iwachnienki, który aproksymuje odwzorowanie dane historyczne -> prognoza. Wielomian ten, zaimplementowany w strukturze sieci, ewoluuje od postaci elementarnej do optymalnej poprzez selekcję różnych kombinacji prostych modeli cząstkowych. Pomimo atrakcyjnych właściwości samoorganizacji i ewolucji struktury nie udało się uzyskać dostatecznie małych błędów generalizacji w zadaniach prognostycznych. Generalizację próbowano bezskutecznie poprawić zakłócając szumem obrazy wejściowe i wyjściowe oraz współczynniki wielomianów, zwiększając rozmiary obrazu wejściowego i aranżując różne podziały danych na zbiory uczące i testowe.
W ramach projektu badawczego [10], którym również kierowałem, opracowałem nieparametryczne modele prognostyczne na rozmytych estymatorach funkcji regresji. Estymator zdefiniowany jest tutaj jako średnia ważona zmiennych objaśnianych (obrazów prognoz) w sąsiedztwie zmiennej objaśniającej (obrazu wejściowego). Wagi reprezentują stopnie przynależności obrazów wejściowych ze zbioru uczącego do otoczenia obrazu wejściowego, dla którego chcemy uzyskać obraz prognozy. Testowałem wiele funkcji przetwarzających wyrazy szeregów czasowych w obrazy wejściowe i obrazy prognoz [11] oraz różne definicje podobieństwa. Zaproponowałem metodę analizy statystycznej podobieństw pomiędzy obrazami, która pozwala potwierdzić słuszność założenia, na którym opierają się modele wykorzystujące podobieństwa obrazów [12]. Założenie to brzmi: jeżeli obrazy sekwencji dobowych szeregów czasowych obciążeń są do siebie podobne (obrazy wejściowe), to obrazy następujących po nich sekwencji dobowych (obrazy prognoz) również są do siebie podobne. W konstrukcji modelu kluczowym problemem jest selekcja informacji wejściowej – dobór wejść modelu, czyli obciążeń z historii procesu, które formują obrazy. W tym celu użyłem algorytmów genetycznych, strategii ewolucyjnych i deterministycznych metod sekwencyjnych. Oryginalnym podejściem jest także wprowadzenie stopni zaufania do obrazów uczących, co pozwala konstruować funkcje regresji z uwzględnieniem reprezentatywności danych. Jako stopnie zaufania stosowałem współczynniki korelacji pomiędzy wektorami odległości obrazów wejściowych i obrazów prognoz lub funkcje błędów prognoz wygasłych. Model oparty na estymatorach rozmytych jest znacznie prostszy niż modele neuronowe – posiada tylko jeden łatwy do oszacowania parametr – szerokość funkcji przynależności. Wyniki obu klas modeli są porównywalne. Modele rozmyte opisałem w [13, 14]. Pokrewne modele oparte na estymatorach k najbliższych sąsiadów opisałem w [15], a ich optymalizację w [16]. W [17, 18] przedstawiłem rezultaty aplikacji modelu z rozmytym estymatorem funkcji regresji do sporządzania dobowych planów koordynacyjnych przygotowywanych przez operatora systemu przesyłowego. Spośród modeli testowanych w ramach prac zleconych przez PSE Operator S.A. [19-21], model ten generował najdokładniejsze prognozy.
Adaptacyjność samouczących się sieci neuronowych i czytelną strukturę regułowych rozmytych systemów wnioskujących łączą sieci neuronowo-rozmyte, które zastosowałem do prognozowania krótkoterminowego obciążeń [22]. Model odwzorowuje obraz wejściowy na składową obrazu wyjściowego. Przestrzeń wejściowa jest dzielona na zbiory rozmyte przy użyciu rozmytej metody k-średnich. Zastosowano wnioskowanie typu Takagi-Sugeno-Kanga. Zmienne wejściowe niosące najwięcej informacji wyznaczane były za pomocą deterministycznych algorytmów selekcji cech.
Kolejna klasa modeli prognostycznych, którą się zajmuje, wykorzystuje metody grupowania danych. Celem grupowania jest wyodrębnienie skupisk obrazów sekwencji szeregów czasowych reprezentujących wspólne właściwości. Grupowanie danych pozwala zredukować liczbę obrazów konstrukcyjnych, zmniejszyć wpływ szumów, którymi obarczone są dane i poprawić generalizację. Charakterystyki grup, którymi są najczęściej centra obrazów należących do tych grup, wykorzystuje się w procedurach prognostycznych. Jako elementy wykonawcze grupowania obrazów używałem następujących metod: grupowania hierarchicznego [23], k-średnich w wersji ostrej [24] i rozmytej, samoorganizującego się odwzorowania cech i gazu neuronowego [25]. Badania były wspomagane grantem finansowanym przez Rektora Politechniki Częstochowskiej. Wyniki badań podsumowałem w [26]. W rozdziale monografii pt.: „Forecasting Models: Methods and Applications” [27] podsumowałem moje doświadczenia z modelami prognostycznymi opartymi na estymatorach najbliższego sąsiedztwa i grupowaniu obrazów.
Metody prognostyczne oparte na jądrowych estymatorach funkcji regresji, którymi zajmuje się od kilku lat [28], odznaczają się elastycznością w estymacji funkcji regresji. Elastyczność ta wynika z lokalnego charakteru dopasowania prostych modeli regresyjnych dla każdego obrazu wejściowego. Pozwala to optymalizować model dla konkretnego zadania prognostycznego. Sposoby optymalizacji parametrów wygładzania za pomocą metody zachłannej, algorytmu ewolucyjnego oraz przeszukiwania turniejowego zaproponowałem w [29]. W [30] opisałem cztery metody selekcji zmiennych wejściowych do modelu. Niewielka liczba parametrów oraz dokładność w modelowaniu lokalnym funkcji regresji sprawia, że model oparty na estymatorach jądrowych jawi się jako bardzo atrakcyjne narzędzie prognostyczne. Prace nad tą klasa modeli prognostycznych były częściowo finansowane przez Rektora P.Cz. w ramach projektu badawczego, który został mi przyznany w latach 2008-2009.
Mój pobyt na stażu w University of Pittsburgh Medical Center w 2004 r. (prof. R. Duquesnoy) zaktywował moje zainteresowanie układem immunologicznym jako inspiracją sztucznych systemów rozpoznawania obrazów. Rozpoznawanie antygenów, samoorganizująca się pamięć, kształtowanie odpowiedzi immunologicznej, uczenie się na przykładach i zdolność uogólniania nabytej wiedzy stanowią cenne własności systemów immunologicznych, które można z powodzeniem wykorzystać w modelach prognostycznych. Owocem mojej pracy badawczej w tym zakresie było zbudowanie trzech oryginalnych modeli prognostycznych wykorzystujących sztuczne systemy immunologiczne. W modelach tych przeciwciała utworzone w procesie kształtowania pamięci immunologicznej, rozpoznają kształty obrazów reprezentowanych przez antygeny. W pierwszym modelu [31, 32] antygeny i przeciwciała kodują połączone obrazy wejściowe i obrazy prognoz. Niekompletny antygen (zbudowany tylko z obrazu wejściowego) zostaje rozpoznany przez pewien zbiór przeciwciał. Z fragmentów reprezentujących obrazy wyjściowe tych przeciwciał formuje się obraz prognozy. W drugim modelu [33, 34] system kreuje dwie populacje przeciwciał reprezentujące, odpowiednio, obrazy wejściowe i obrazy prognoz. Wyznacza się empiryczne prawdopodobieństwo warunkowe stymulacji przeciwciał należących do tych populacji antygenami reprezentującymi obrazy wejściowe i obrazy prognoz, a następnie wykorzystuje się te prawdopodobieństwa do konstrukcji prognozy, jako wagi poszczególnych przeciwciał.
Trzeci immunologiczny model prognostyczny [35] zawiera unikalny mechanizm lokalnej selekcji cech. Przeciwciała rozpoznają antygeny kodujące obrazy wejściowe po wybranych cechach. Zbiory cech istotnych reprezentowane są przez paratopy przeciwciał kształtowane w procesie selekcji klonalnej. Genezy tego modelu należy szukać w pracach Duquesnoya, gdzie wprowadzono pojęcie energetycznych residuów i epletów. Idea tego modelu zgodna jest w pomysłami i koncepcjami innych badaczy, np.: (a) z kolektywnym charakterem odpowiedzi immunologicznej podkreślanym przez Cohena i in. (Cohen I.R., Hershberg U., Solomon S.: Antigen Receptor Degeneracy and Immunological Paradigms. Molecular Immunology 40, pp. 993-996, 2004) i jego koncepcją „zdegenerowanych” detektorów, (b) funkcjonalnym epitopem jako zbiorem rozłącznych elementów i populacją prostych paratopów jako komitetem słabych uczniów (McEwan C., Hart E.: Representation in the (Artificial) Immune System. J. Math. Model. Algorithms 8(2), pp. 125-149, 2009) oraz (c) z niepożądanymi własnościami hiperkul, jako pól recepcyjnych, w środowisku wielowymiarowym (Stibor T., Timmis J., Eckert C.: On the Use of Hyperspheres in Artificial Immune Systems as Antibody Recognition Regions, ICARIS 2006, LNCS 4163, pp. 215-228, 2006).
Opracowane przeze mnie modele prognostyczne oparte na sztucznych systemach immunologicznych są oryginalnym podejściem nie tylko do prognozowania szeregów czasowych, ale szerzej – do regresji. Dotychczas sztuczne systemy immunologiczne nie były stosowane w zadaniach aproksymacji funkcji. Wbudowany mechanizm lokalnej selekcji cech stanowi nowość w modelach rozpoznawania obrazów, która może być wykorzystana nie tylko w zadaniach aproksymacji funkcji, ale także w klasyfikacji i grupowaniu danych oraz w innych systemach uczących się na przykładach.
Mój dorobek w dziedzinie prognozowania krótkoterminowego uzupełniają publikacje: [36], gdzie analizuję naiwne metody prognostyczne opierające się na obrazach sekwencji szeregów czasowych, [37], gdzie używam drzewa regresyjnego (CART) do prognozowania przebiegów obciążeń, [38], gdzie testuję modele ARIMA oraz [39], gdzie używam wielowarstwowego perceptronu uczonego w sposób lokalny (na podzbiorze obejmującym najbliższych sąsiadów obserwacji testowej).
W monografii [35] podsumowałem swój dorobek w dziedzinie krótkoterminowego prognozowania obciążeń systemów elektroenergetycznych za pomocą metod wykorzystujących podobieństwa obrazów.
W ramach współpracy z PSE Operator S.A. (poprzez spółkę grupy kapitałowej PSE Operator – CATA Centrum Zastosowań Zaawansowanych Technologii) [19-21] miałem okazje przetestować moje modele (głównie model oparty na rozmytych estymatorach funkcji regresji) w praktycznym zastosowaniu do sporządzania dobowych planów koordynacyjnych pokrycia zapotrzebowania na moc i energię elektryczną w krajowym systemie elektroenergetycznym. Zadania, którymi się zajmowałem polegały na opracowaniu modeli do wykonywania prognoz dobowych przebiegów zapotrzebowania z wyprzedzeniem do 9 dni oraz prognoz dobowych mocy szczytowych i minimalnych z wyprzedzeniem do miesiąca. Model, który opracowałem dla pierwszego zadania uwzględniał czynniki pogodowe poprzez wprowadzenie oryginalnego podejścia kontekstów pogodowych. Testy modelu na rzeczywistych danych wykazały jego wysoką dokładność w prognozowaniu 15-minutowych szeregów czasowych zapotrzebowania. Zaproponowałem również komitet kilku modeli, który zapewniał jeszcze lepsze rezultaty. Do drugiego zadania opracowałem model analogowy. Aktualnie trwają prace nad wdrożeniem tych modeli w PSE Operator S.A.
Oprócz prognoz krótkoterminowych zajmowałem się także długoterminowymi prognozami zapotrzebowania na moc i energię, uczestnicząc w pracach zespołu prof. dr hab. inż. I. Dobrzańskiej [40, 41]. Modele te oparte były na teorii chaosu deterministycznego. W pracy [42] poddałem analizie model Schustera, określiłem obszary zbieżności do atraktorów punktowych bez oscylacji i z oscylacjami oraz do atraktorów okresowych i chaotycznych. W ramach pracy zleconej przez PSE Operator S.A. [43] badałem przydatność modelu regresji liniowej oraz modelu opartego na wielowarstwowym perceptronie do sporządzania długoterminowych (do 2035 r.) prognoz zużycia energii elektrycznej na podstawie scenariuszy zmiennych objaśniających.