Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Netzwerkstabilisierung mit ungefähren Lösungen

Stromnetz
Durch erneuerbare Energien müssen die Rechenmodelle zu Netzstabilisierung neu durchdacht werden. (Quelle: wilhei/Pixabay)

Durch die massive Nutzung von Wind- und Solarkraft ist es in den vergangenen Jahren sehr viel aufwendiger geworden, das deutsche Stromnetz stabil zu halten. Würden alle Nachbarländer die Energiewende in gleichem Maße betreiben, so wären die derzeitigen mathematischen Verfahren zur Stabilisierung des international verflochtenen Stromnetzes wahrscheinlich bereits nicht mehr ausreichend. Es geht dabei etwa um die Fragen, über welche Leitungen wie viel Strom geschickt wird, welche Kraftwerke hoch- oder heruntergefahren werden und wie viel Strom von anderen Ländern importiert und an sie exportiert wird. In Zusammenarbeit mit dem französischen Netzbetreiber RTE hat der junge Mathematiker Cédric Josz, derzeit an der University of California in Berkeley, USA, kürzlich eindrucksvoll nachgewiesen, dass sehr allgemeine mathematische Werkzeuge, die an der Universität Konstanz und anderen internationalen Standorten entwickelt werden, so angepasst werden können, dass sie in der Lage sind, große Stromnetze besser zu stabilisieren.

 

Ingenieure stellen zu diesem Zweck mathematische Modelle auf. Eine neuartige Möglichkeit bei der Stabilisierung von Stromnetzen ist die Modellierung durch einen speziellen Typ nichtlinearer Gleichungs- und Ungleichungssysteme, einem sogenannten polynomialen System, in dem mehrere Einflussgrößen verschachtelt addiert und multipliziert werden dürfen. Die alten, auf exakte Lösungen ausgerichteten Lösungsverfahren sind zu langsam für Anwendungen wie die beschriebene, bei der ein Ergebnis innerhalb von Sekunden oder höchstens Minuten vorliegen muss. Computer würden unter Umständen viele Jahre brauchen, um für entsprechende nichtlineare Systeme exakte Lösungen zu berechnen. Die Konstanzer Mathematiker am Schwerpunkt „Reelle Geometrie und Algebra“ um die Professoren Salma Kuhlmann, Claus Scheiderer und Markus Schweighofer (das Besetzungsverfahren für eine vierte Schwerpunktprofessur läuft gerade) arbeiten an neuen Verfahren, die solche nichtlinearen Systeme in vielen Fällen dennoch sehr schnell lösen können. Sie sind am europäischen Forschungsnetzwerk POEMA („Polynomial Optimization, Efficiency through Moments and Algebra“) beteiligt.

 

Der Ausgangspunkt des Kooperationsprojekts von insgesamt vierzehn Partnereinrichtungen aus Wissenschaft und Industrie (darunter zum Beispiel

RTE) ist: Die Endergebnisse bei der Lösung der polynomialen Systeme sind nicht exakt, sondern Lösungen, die möglichst nah an eine exakte Lösung herankommen. „Es ist eine Art universeller Werkzeugkasten, den man im Prinzip überall einsetzen kann und mit dem – der Situation entsprechend angepasst – komplexe Probleme praktikabel werden“, beschreibt Markus Schweighofer, der den Konstanzer Knoten des Netzwerkes leitet, das neue Verfahren. Signalverarbeitung, maschinelles Lernen, Energieversorgung, Verkehrsmanagement und vor allem die Kontrolltheorie – Beispiele für einen schier unbegrenzten Anwendungsbereich.

 

Die Wissenschaftlerinnen und Wissenschaftler, die im Kooperationsprojekt mit den Forschungsabteilungen von internationalen Großunternehmen wie IBM zusammenarbeiten werden, werden von 2019 bis 2023 im Rahmen der Marie- Skłodowska-Curie-Maßnahmen der Europäischen Union mit rund vier Millionen Euro gefördert. Davon erhält die Universität Konstanz rund 500.000 Euro.

Während der Förderdauer soll nicht nur das Verfahren optimiert, sondern auch an spezielle Anwendungen angepasst werden. „Der Werkzeugkasten ist relativ neu, wir versuchen im Projekt auch, ihn bekannter zu machen“, so Schweighofer.

 

Die eigentliche Innovation in der Vorgehensweise ist, dass nicht nur die Endergebnisse der Rechnungen, die der Computer durchführt, ungefähr sind, sondern die Zwischenlösungen sogar „weniger als ungefähr“. Da es meistens nicht nur eine Zwischenlösung gibt, sondern eine ganze Menge von Zwischenlösungen, wird „so etwas wie“ eine Wahrscheinlichkeitsverteilung auf der Menge der Zwischenlösungen berechnet. Schweighofer beschreibt diese mathematische Vorgehensweise mit einer Analogie: „Eine echte Wahrscheinlichkeitsverteilung auf der Menge der Zwischenlösungen herzustellen, kann manchmal so anspruchsvoll sein wie einen Picasso auf eine Leinwand zu bringen. Wir arbeiten deshalb sozusagen mit gefälschten Picassos. Man kann diese weder mit bloßem Auge noch mit einer Detaillupe, und sei sie noch so scharf, von einem echten Picasso unterscheiden. Nur wenn die Lupe ein riesiges Sichtfeld hat, könnte man die Fälschung damit nachweisen. So kann die sehr gute Fälschung weiterverkauft werden, das heißt das Pseudo-Zwischenergebnis kann weiterverarbeitet werden.“

 

Was die ungefähren Endergebnisse betrifft, so soll künftig auch gleich eine Methode mitgeliefert werden, die die Belastbarkeit des Ergebnisses nachweist. „Wir versuchen immer gleich zu beweisen, dass das Ergebnis nur in einem gewissen Rahmen von einer exakten Lösung entfernt sein kann und dass es realitätstauglich ist“, sagt Markus Schweighofer.

 

Siehe auch:

http://www.uni-konstanz.de/

Zurück