id,collection,dc.contributor.author,dc.contributor.contact,dc.contributor.firstReferee,dc.contributor.furtherReferee,dc.contributor.gender,dc.date.accepted,dc.date.accessioned,dc.date.available,dc.date.issued,dc.description,dc.description.abstract[de],dc.format.extent,dc.identifier.uri,dc.identifier.urn,dc.language,dc.rights.uri,dc.subject,dc.subject.ddc,dc.title,dc.title.subtitle,dc.title.translated[en],dc.title.translatedsubtitle[en],dc.type,dcterms.accessRights.dnb,dcterms.accessRights.openaire,dcterms.format[de],refubium.affiliation[de],refubium.mycore.derivateId,refubium.mycore.fudocsId "cfb1c30f-a306-4db5-bb56-4309158e3770","fub188/14","Gelß, Patrick","p.gelss@fu-berlin.de","Prof. Dr. Christof Schütte","Prof. Dr. Reinhold Schneider","m","2017-06-28","2018-06-07T17:04:18Z","2017-09-20T12:41:35.671Z","2017","1\. Introduction Part I: Foundations of Tensor Approximation 2\. Tensors in Full Format 2.1. Definition and Notation 2.2. Tensor Calculus 2.2.1. Addition and Scalar Multiplication 2.2.2. Index Contraction 2.2.3. Tensor Multiplication 2.2.4. Tensor Product 2.3. Graphical Representation 2.4. Matricization and Vectorization 2.5. Norms 2.6. Orthonormality 3\. Tensor Decomposition 3.1. Rank-One Tensors 3.2. Canonical Format 3.3. Tucker and Hierarchical Tucker Format 3.4. Tensor-Train Format 3.4.1. Core Notation 3.4.2. Addition and Multiplication 3.4.3. Orthonormalization 3.4.4. Calculating Norms 3.4.5. Conversion 3.5. Modified Tensor-Train Formats 3.5.1. Quantized Tensor-Train Format 3.5.2. Block Tensor-Train Format 3.5.3. Cyclic Tensor-Train Format 4\. Optimization Problems in the Tensor-Train Format 4.1. Overview 4.2. (M)ALS for Systems of Linear Equations 4.2.1. Problem Statement 4.2.2. Retraction Operators 4.2.3. Computational Scheme 4.2.4. Algorithmic Aspects 4.3. (M)ALS for Eigenvalue Problems 4.3.1. Problem Statement 4.3.2. Computational Scheme 4.4. Properties of (M)ALS 4.5. Methods for Solving Initial Value Problems Part II: Progress in Tensor-Train Decompositions 5\. Tensor Representation of Markovian Master Equations 5.1. Markov Jump Processes 5.2. Tensor-Based Representation of Infinitesimal Generators 6\. Nearest- Neighbor Interaction Systems in the Tensor-Train Format 6.1. Nearest-Neighbor Interaction Systems 6.2. General SLIM Decomposition 6.3. SLIM Decomposition for Markov Generators 7\. Dynamic Mode Decomposition in the Tensor-Train Format 7.1. Moore-Penrose Inverse 7.2. Computation of the Pseudoinverse 7.3. Tensor-Based Dynamic Mode Decomposition 8\. Tensor-Train Approximation of the Perron–Frobenius Operator 8.1. Perron–Frobenius Operator 8.2. Ulam’s Method Part III: Applications of the Tensor-Train Format 9\. Chemical Reaction Networks 9.1. Elementary Reactions 9.2. Chemical Master Equation 9.3. Numerical Experiments 9.3.1. Signaling Cascade 9.3.2. Two-Step Destruction 10\. Heterogeneous Catalysis 10.1. Heterogeneous Catalytic Processes 10.2. Reduced Model for the CO Oxidation at RuO2 10.3. Numerical Experiments 10.3.1. Scaling with System Size 10.3.2. Varying the CO Pressure 10.3.3. Increasing the Oxygen Desorption Rate 11\. Fluid Dynamics 11.1. Computational Fluid Dynamics 11.2. Numerical Examples 11.2.1. Rotating Annulus 11.2.2. Flow Around a Blunt Body 12\. Brownian Dynamics 12.1. Langevin Equation 12.2. Numerical Experiments 12.2.1. Two-Dimensional Triple-Well Potential 12.2.2. Three- Dimensional Quadruple-Well Potential 13\. Summary and Conclusion 14\. References A. Appendix A.1. Proofs A.1.1. Inverse Function for Little-Endian Convention A.1.2. Equivalence of the Master Equation Formulations A.1.3. Equivalence of SLIM Decomposition and Canonical Representation A.1.4. Equivalence of SLIM Decomposition and Canonical Representation for Markovian Master Equations A.1.5. Functional Correctness of Pseudoinverse Algorithm A.2. Algorithms A.2.1. Orthonormalization of Tensor Trains A.2.2. ALS for Systems of Linear Equations A.2.3. MALS for Systems of Linear Equations A.2.4. ALS for Eigenvalue Problems A.2.5. MALS for Eigenvalue Problems A.2.6. Compression of Two-Dimensional TT Operators A.2.7. Construction of SLIM Decompositions for Markovian Master Equations A.3. Deutsche Zusammenfassung (German Summary) A.4. Eidesstattliche Erklärung (Declaration)","The simulation and analysis of high-dimensional problems is often infeasible due to the curse of dimensionality. In this thesis, we investigate the potential of tensor decompositions for mitigating this curse when considering systems from several application areas. Using tensor-based solvers, we directly compute numerical solutions of master equations associated with Markov processes on extremely large state spaces. Furthermore, we exploit the tensor-train format to approximate eigenvalues and corresponding eigentensors of linear tensor operators. In order to analyze the dominant dynamics of high- dimensional stochastic processes, we propose several decomposition techniques for highly diverse problems. These include tensor representations for operators based on nearest-neighbor interactions, construction of pseudoinverses for tensor-based reformulations of dimensionality reduction methods, and the approximation of transfer operators of dynamical systems. The results show that the tensor-train format enables us to compute low-rank approximations for various numerical problems as well as to reduce the memory consumption and the computational costs compared to classical approaches significantly. We demonstrate that tensor decompositions are a powerful tool for solving high-dimensional problems from various application areas.||In den letzten Jahren sind Tensorzerlegungen zu einem wichtigen Werkzeug sowohl für die mathematische Modellierung von hochdimensionalen Systemen als auch für die Approximation von hochdimensionalen Funktionen geworden. Tensorbasierte Methoden werden bereits in unterschiedlichsten Anwendungsgebieten erfolgreich eingesetzt. Wir betrachten Tensoren als eine Verallgemeinerung von Matrizen mit einer Vielzahl von Indizes. Die Zahl der Elemente eines solchen Tensors – und somit sein Speicherbedarf – wächst dabei exponentiell mit der Zahl der Dimensionen. Dieses Phänomen wird als Fluch der Dimensionalität bezeichnet. Das Interesse in Tensorzerlegungen wächst stetig, da unlängst entwickelte Tensorformate gezeigt haben, dass es möglich ist diesen Fluch zu umgehen und hochdimensional Systeme zu betrachten, welche vorher nicht mit konventionellen numerischen Methoden untersucht werden konnten. Typische Anwendungsbereiche umfassen das Lösen von linearen Gleichungssystemen, Eigenwertproblemen und gewöhnlichen wie auch partiellen Differentialgleichungen. Die hier vorgestellten Methoden umfassen die tensorbasierte Darstellung von Markovschen Mastergleichungen, die Tensorzerlegung von linearen Operatoren bezüglich Nächste-Nachbarn- Interaktionen, die tensorbasierte Erweiterung der Dynamic Mode Decomposition und die Approximation des Perron-Frobenius-Operators. Dabei konzentrieren wir uns in dieser Arbeit auf das sogenannte Tensor-Train-Format. Unsere Experimente zeigen, dass wir mithilfe dieser Darstellung präzise Approximationen der Lösungen von linearen Gleichungssystemen und Eigenwertproblemen bestimmen können, um zum Beispiel stationäre Wahrscheinlichkeitsverteilungen zu berechnen. Im Vergleich zu klassischen Methoden ist es dabei möglich den Rechenaufwand und die damit verbundene Rechenzeit deutlich zu senken. Wir sind somit in der Lage, Einblicke in die Dynamiken und Strukturen von hochdimensionalen Systemen zu gewinnen. Unserer Auffassung nach, bilden die hier präsentierten Methoden einen weiteren Beitrag zu den Anwendungsmöglichkeiten von Tensorzerlegungen.","xvii, 160 Seiten","https://refubium.fu-berlin.de/handle/fub188/3366||http://dx.doi.org/10.17169/refubium-7566","urn:nbn:de:kobv:188-fudissthesis000000105513-5","eng","http://www.fu-berlin.de/sites/refubium/rechtliches/Nutzungsbedingungen","tensor decompositions||tensor-train format||Master equation||dynamical systems||Markov processes||nearest-neighbor interactions","500 Naturwissenschaften und Mathematik::510 Mathematik::518 Numerische Analysis","The Tensor-Train Format and Its Applications","Modeling and Analysis of Chemical Reaction Networks, Catalytic Processes, Fluid Flows, and Brownian Dynamics","Das Tensor-Train-Format und seine Anwendungen","Modellierung und Analyse von chemischen Reaktionsnetzwerken, katalytischen Prozessen, fluiden Strömungen und Brownschen Bewegungen","Dissertation","free","open access","Text||Bild","Mathematik und Informatik","FUDISS_derivate_000000022295","FUDISS_thesis_000000105513"