Nachrichten, Gerüchte, Meldungen und Berichte aus der IT-Szene

Redaktion: Heinz Schmitz


Leistung von IT-Systemen vorhersagen

Hält es der Server meines Webshops aus, wenn die Kundenzahl von 100 auf 1000 steigt? Oder wird das System dann so lahm, dass die Kunden unzumutbar lange warten müssen? Vor dieser Frage stehen vielleicht so manche Startups, die Dienstleistungen oder Produkte übers Internet vermarkten. Auch Unternehmen, die ihre IT-Dienstleistungen in einer Cloud anbieten, sehen sich ähnlichen Herausforderungen gegenüber. Nicht nur Startups, auch Konzerne müssen sich Fragen zur Leistungsfähigkeit ihrer IT-Systeme stellen – etwa dann, wenn sie neue Systeme planen oder andere Softwaresysteme zukaufen und ihre IT dann auf einen Schlag mehrere Tausend Nutzer zusätzlich verkraften soll.

 

Im Prinzip sind das keine echten Probleme, denn die Leistungsfähigkeit von Servern oder Softwaresystemen lässt sich vorhersagen: IT-Experten können mit Hilfe spezieller Modelle verschiedene Szenarien durchspielen, mögliche Probleme in der Architektur der Systeme erkennen und Lösungen vorschlagen. Aber: Bisher müssen solche Modelle in der Regel für jedes System manuell aufgesetzt werden – ein Prozess, der sehr zeitaufwändig, fehleranfällig und teuer ist.

 

Abhilfe könnte aus der Julius-Maximilians-Universität Würzburg kommen: „Wir arbeiten an Werkzeugen, mit denen wir Performance-Modelle automatisch aus einem System heraus erzeugen wollen“, beschreiben Samuel Kounev und Jürgen Walter vom Lehrstuhl für Informatik II ihre Idee. Diese Idee haben sie bei einem weltweiten Ideenwettbewerb der ABB AG eingereicht. Mit Erfolg: Sie gewannen einen der renommierten ABB Research Grants und setzten sich damit in einem Feld von 69 hochkarätigen Bewerbungen als eine von nur vier geförderten Projektideen durch. Neben dem hohen Prestige ist der Preis mit einem Preisgeld von rund 63.000 Euro verbunden.

 

ABB sieht offenbar großes Potenzial in dem Würzburger Projekt. Von den Erkenntnissen daraus will man – trotz der Investition und Mitarbeit – nicht exklusiv profitieren: Das IT-Werkzeug namens „Performance Model eXtractor“, an dem man gemeinsam arbeitet, ist Open Source verfügbar. Im Projekt wurde eine solide Basis gelegt, die es jetzt Schritt für Schritt zu verbessern gilt. Durch den offenen Quellcode kann die weltweite Performance Engineering Community das Werkzeug gemeinsam weiterentwickeln, freuen sich die Würzburger Forscher, die die gute Zusammenarbeit mit Heiko Koziolek von ABB loben.

 

Die Informatiker haben bezüglich der Leistungsfähigkeit von IT-Systemen vor allem zwei Punkte im Blick: Effizienz und Engpässe. In Sachen Effizienz gibt es offenbar viel zu verbessern. Laut Kounev sind große Rechenzentren nur zu einem sehr geringen Prozentsatz ausgelastet: „Die Betreiber halten viel zu große Ressourcen vor, um extreme Belastungsspitzen abfangen zu können. Das kostet unnötig viel Geld und Energie im laufenden Betrieb. Zudem erhöhen sich die Anschaffungskosten.“ In Zeiten steigender Digitalisierung ist diese Würzburger Forschung damit ein wichtiger Beitrag zur Schonung von Ressourcen.

 

Zusätzlich können Engpässe die Effizienz eines Systems weiter schmälern: Manchmal wird die Kapazität nicht ausgeschöpft, weil ein sogenannter „Flaschenhals“ im System dafür sorgt, dass viel zu wenige Nutzer zeitgleich darauf zugreifen können.

 

Siehe auch:

http://se.informatik.uni-wuerzburg.de/tools/pmx/

Zurück