Forschungsschwerpunkte
- Quantitative Modelle: Beschreibung und Analyse
- Diskrete Optimierung unter Unsicherheit
- Simulations- und Optimierungsmethoden zur Unterstützung industrieller Anpassungsprozesse
- Strukturierte Analyse großer Datenmengen und hoch-dimensionaler Daten
- Rechnernetzwerke und verteilte Systeme
Den traditionellen Schwerpunkt der Forschungsaktivitäten am LS IV bilden Methodik und Techniken zur Leistungsbewertung von Rechen- und Kommunikationssystemen, sowie logistischen Netzwerken. In jüngerer Zeit sind auch Forschungen im Bereich der Optimierung sowohl unter unsicherer Informationslage als auch zur zeit-kritischen Echtzeitsteuerung von Fabrikbereichen hinzugekommen.
Zur Leistungsbewertung von Systemen werden ereignisorientierte, stochastische Modelle herangezogen. Die Spezifikation eines derartigen Modells beinhaltet die Beschreibung seines (diskreten) Zustandsraumes sowie der (ggf. stochastischen) Regeln seiner Zustandsübergänge. Gängige Techniken zur Analyse solcher Modelle (und damit zur Systembewertung) entstammen Kategorien, die mit "algebraisch'', "numerisch'' und "simulativ'' charakterisiert werden. Zahlreiche Forschungsaktivitäten waren und sind auf eine breite Unterstützung bei der Spezifikation und Analyse entsprechender Modelle ausgerichtet, wie beispielsweise die Berücksichtigung von Korrelationen bei der Spezifikation von Ankunfts- und Bedienprozessen oder die Berechnung von Schranken zur Bestimmung garantierter Zusicherungen in Service Level Agreements. Die genannten Forschungsaktivitäten münden vielfach in konkrete Toolunterstützungen, so z.B. in das Tool ProFiDo (Processes Fitting Toolkit Dortmund), welches eine Vielzahl von Verfahren zur Anpassung und Modellierung von Ankunftsprozessen unterstützt, oder in das SLA Tool, welches die effiziente Berechnung von Schranken in hierarchischen Systemen für typische quantitative Größen wie beispielsweise Antwortzeiten und Bedienkapazitäten unterstützt.
- Modellbasierte Validierung von SLAs für verteilte Softwaresysteme
- Markovsche und Rationale Ankunfts- und Bedienprozesse zur Leistungs- und Zuverlässigkeitsanalyse
- Framework for Modeling User Mobility in Wireless Networks considering varying Data Granularity
- ProFiDo - Processes Fitting Toolkit Dortmund
- SLA Tool
Bei der Entwicklung und dem Betrieb technischer Systeme müssen zahlreiche Konfigurations- und Entwurfsentscheidungen getroffen werden, damit die geforderten Leistungen möglichst ressourcenschonend und kostengünstig erbracht werden. Diese Entscheidungen basieren auf der Lösung von diskreten oder gemischt diskret-kontinuierlichen Optimierungsproblemen, die oft nur schwer lösbar sind, da im Zuge der „kombinatorischen Explosion“ die Zahl alternativer Lösungen mit der Zahl der Entscheidungen zwischen diskreten Alternativen exponentiell wächst. Viele praktische Problemstellungen werden daher stark vereinfacht, um sie einer algorithmischen Lösung zugänglich zu machen. Reale Entscheidungen müssen darüber hinaus in der Regel auf der Basis unvollständigen Wissens getroffen werden. Die dadurch bedingte Unsicherheit wird in den heute üblichen Optimierungsansätzen meistens nicht berücksichtigt, obwohl sie im Einzelfall zu deutlichen Abweichungen zwischen der ermittelten Lösung und dem realen Optimum führen kann. In unseren Forschungsaktivitäten werden u.a. numerisch lösbare Modelle, wie z.B. Markovsche Entscheidungsprozesse (Markov Decisions Processes; MDPs) betrachtet, deren Parameter im Gegensatz zur klassischen Spezifikation nicht eindeutig festgelegt sind, sondern durch diskrete oder kontinuierliche Wahrscheinlichkeitsverteilungen beschrieben werden.
In einem sich immer intensiver ändernden Unternehmensumfeld, wachsen die Anforderungen an die Anpassungsfähigkeiten von Fabriken. Eine möglichst geringe Zeit zur Durchführung der erforderlichen Anpassungen ist hierbei entscheidend für die Wettbewerbsfähigkeit des Unternehmens. Heutzutage wird der Anpassungsprozess vielfach durch modellbasierte Untersuchungen unterstützt, die zur validen Bewertung Echtzeitdaten berücksichtigen müssen. Durch Simulations- und Prognosetechniken lassen sich Aussagen über das zukünftige Systemverhalten ableiten, welche Eingang finden in entsprechende Optimierungsmethoden zur Bestimmung einer auf die Umfeldänderungen gut angepassten Fabrikkonfiguration. Die Praxistauglichkeit und Robustheit der ermittelten Optimierungslösungen lassen sich wiederum durch Simulationsmodelle evaluieren.
In vielen Anwendungsgebieten lassen sich heute immense Datenmengen erheben und erzeugen. Diese Daten helfen Systeme besser verstehen, bewerten und steuern zu können. Um aus den Daten die notwendigen Informationen zu gewinnen sind diese zu speichern, analysieren und modellieren. Dazu werden neue Datenstrukturen und Algorithmen benötigt. Unsere Forschungsarbeiten beschäftigen sich mit der Analyse großer strukturierter stochastische Modelle und der Auswertung hochdimensionaler Simulationsdaten. Die Methoden basieren auf speziellen Datenstrukturen, wie hierarchische Kronecker-Darstellungen, Tensor-Trains oder der Tucker-Dekompostionen, um hochdimensionale Strukturen kompakt zu speichern, ohne dabei zu viel Information zu verlieren. Wir forschen an der Entwicklung von numerischen Algorithmen, um auf Basis der kompakten Datenstrukturen effiziente Analysen durchzuführen.