details_view: 22 von 5771

 

KI_fuer_MVA - Künstliche Intelligenz zur Regelung von Müllverbrennungsanlagen

Zeitraum
2022-04-01  –  2025-03-31
Bewilligte Summe
350.472,12 EUR
Ausführende Stelle
Förderkennzeichen
03EE5114
Leistungsplansystematik
Fortgeschrittene Kraftwerkssysteme - Kraftwerke mit Null Emissionen [EA1325]
Zuwendungsgeber
Bundesministerium für Wirtschaft und Klimaschutz (BMWK.IIB5)
Projektträger
Forschungszentrum Jülich GmbH (PT-J.ESE5)
Förderprogramm
Energie
 
Die Feuerleistungsregelung von Müllverbrennungsanlagen ist eine Herausforderung, weil der anfallende Müll und damit die Vorgänge im Kessel stark und unvorhersehbar variieren. Klassische Regelungskonzepte können diese Aufgabe daher nicht so gut bewältigen wie ein gut geschulter, menschlicher Operator. Daher ist der Einsatz eines Neuronalen Netzes (NN) sinnvoll, um das Verhalten des Operators zu erlernen und in den entsprechenden Situationen reproduzieren zu können. Diesen Ansatz ('Imitation Learning') hat Uniper Technologies in den letzten Jahren verfolgt und dabei bemerkenswerte Resultate erzielt, die zu einer verbesserten Energieeffizienz der Anlage geführt haben. Nachteile: - Sehr umfangreiche Daten erforderlich - Zur Sicherheit müssten alle Betriebssituationen enthalten sein, was für kritische unmöglich ist - Imitation Learning erfordert Widerspruchsfreiheit der Daten, was nicht immer gegeben ist - Aufwendige Bestimmung notwendig, welche zeitlich zurückliegenden Werte in das NN einfließen müssen - Spezielle Regelanforderungen wie z.B. kleine Stellgrößengradienten können nicht explizit vorgegeben werden - Das NN kann nie besser werden als der imitierte Operator Daher soll Reinforcement Learning (RL) genutzt werden, um ein optimales NN zu trainieren. Hierzu wird ein Simulationsmodell der Anlage entwickelt, das leicht auf unterschiedliche Anlagen anpassbar ist und in dem Störeinflüsse systematisch vorgegeben werden können. Dann wird ein Basisregler mit Fuzzy-Regeln erzeugt, auf den das NN trainiert wird, um eine Grundfunktionalität zu erlernen. Anschließend wird das NN mit dem Modell und einer übergeordneten RL-Steuerung zusammengeschaltet, die die Störungen im Modell koordiniert und die Stelleingriffe des NN mit Feedback bewertet, so dass das NN lernen kann. Als Zielfunktion soll die Dampfmenge maximiert werden, bei Einhaltung von Emissionsgrenzwerten und möglichst geringen Gradienten. Abschließend soll das optimierte NN an einer realen Anlage erprobt werden.