The simulation and analysis of high-dimensional problems is often infeasible due to the curse of dimensionality. In this thesis, we investigate the potential of tensor decompositions for mitigating this curse when considering systems from several application areas. Using tensor-based solvers, we directly compute numerical solutions of master equations associated with Markov processes on extremely large state spaces. Furthermore, we exploit the tensor-train format to approximate eigenvalues and corresponding eigentensors of linear tensor operators. In order to analyze the dominant dynamics of high- dimensional stochastic processes, we propose several decomposition techniques for highly diverse problems. These include tensor representations for operators based on nearest-neighbor interactions, construction of pseudoinverses for tensor-based reformulations of dimensionality reduction methods, and the approximation of transfer operators of dynamical systems. The results show that the tensor-train format enables us to compute low-rank approximations for various numerical problems as well as to reduce the memory consumption and the computational costs compared to classical approaches significantly. We demonstrate that tensor decompositions are a powerful tool for solving high-dimensional problems from various application areas.
In den letzten Jahren sind Tensorzerlegungen zu einem wichtigen Werkzeug sowohl für die mathematische Modellierung von hochdimensionalen Systemen als auch für die Approximation von hochdimensionalen Funktionen geworden. Tensorbasierte Methoden werden bereits in unterschiedlichsten Anwendungsgebieten erfolgreich eingesetzt. Wir betrachten Tensoren als eine Verallgemeinerung von Matrizen mit einer Vielzahl von Indizes. Die Zahl der Elemente eines solchen Tensors – und somit sein Speicherbedarf – wächst dabei exponentiell mit der Zahl der Dimensionen. Dieses Phänomen wird als Fluch der Dimensionalität bezeichnet. Das Interesse in Tensorzerlegungen wächst stetig, da unlängst entwickelte Tensorformate gezeigt haben, dass es möglich ist diesen Fluch zu umgehen und hochdimensional Systeme zu betrachten, welche vorher nicht mit konventionellen numerischen Methoden untersucht werden konnten. Typische Anwendungsbereiche umfassen das Lösen von linearen Gleichungssystemen, Eigenwertproblemen und gewöhnlichen wie auch partiellen Differentialgleichungen. Die hier vorgestellten Methoden umfassen die tensorbasierte Darstellung von Markovschen Mastergleichungen, die Tensorzerlegung von linearen Operatoren bezüglich Nächste-Nachbarn- Interaktionen, die tensorbasierte Erweiterung der Dynamic Mode Decomposition und die Approximation des Perron-Frobenius-Operators. Dabei konzentrieren wir uns in dieser Arbeit auf das sogenannte Tensor-Train-Format. Unsere Experimente zeigen, dass wir mithilfe dieser Darstellung präzise Approximationen der Lösungen von linearen Gleichungssystemen und Eigenwertproblemen bestimmen können, um zum Beispiel stationäre Wahrscheinlichkeitsverteilungen zu berechnen. Im Vergleich zu klassischen Methoden ist es dabei möglich den Rechenaufwand und die damit verbundene Rechenzeit deutlich zu senken. Wir sind somit in der Lage, Einblicke in die Dynamiken und Strukturen von hochdimensionalen Systemen zu gewinnen. Unserer Auffassung nach, bilden die hier präsentierten Methoden einen weiteren Beitrag zu den Anwendungsmöglichkeiten von Tensorzerlegungen.