Przejdź do treści

EnEnv 1.0: Energy Grid Environment for Multi-Agent Reinforcement Learning Benchmarking

Wieloagentowe uczenie ze wzmocnieniem (Multi-Agent Reinforcement Learning, MARL) stwarza perspektywy efektywnego sterowania dużymi systemami rozproszonymi, takimi jak złożone sieci elektroenergetyczne. Rozwój algorytmów MARL jest jednak ograniczony przez niedobór realistycznych środowisk testowych. W niniejszej pracy wprowadzono EnEnv 1.0 - symulacyjny benchmark przeznaczony do badań nad MARL w nowoczesnych systemach elektroenergetycznych. EnEnv 1.0 stanowi zestaw środowisk, w których sieci elektroenergetyczne są symulowane z uwzględnieniem niekontrolowalnych odnawialnych źródeł energii, generatorów opartych na paliwach kopalnych oraz odbiorców energii. Rolą agentów uczących się jest sterowanie i koordynacja pracy baterii w rozproszonym systemie magazynowania energii elektrycznej (Battery Energy Storage System, BESS) na podstawie danych wejściowych, takich jak prognozy warunków pogodowych oraz prognozy zapotrzebowania na energię. Sieci elektroenergetyczne w EnEnv 1.0 zostały oparte na standardowych systemach testowych o zróżnicowanych strukturach topologicznych, obejmujących zmodyfikowane układy IEEE 33, Illinois 200 oraz PEGASE 89. Sieci te zostały dostosowane do roli benchmarku MARL poprzez wprowadzenie rzeczywistych obserwacji meteorologicznych, danych zapotrzebowania dla lokalizacji europejskich oraz interfejsów programistycznych umożliwiających integrację z wieloma istniejącymi implementacjami algorytmów MARL, a także algorytmów jednoagentowego uczenia ze wzmocnieniem (Single-Agent Reinforcement Learning, SARL). W części eksperymentalnej pracy zweryfikowano skuteczność wybranego zestawu metod MARL i SARL w środowisku EnEnv 1.0.

Materiał konferencyjny:

AAMAS '25: Proceedings of the 24th International Conference on Autonomous Agents and Multiagent Systems

Autorzy z PW:

Łukasz Lepak

Rok wydania: