In the field of heterogeneous catalysis, first- principle-based microkinetic modeling has been proven to be an essential tool to provide a deeper understanding of the microscopic interplay between reactions. It avoids the bias of being fitted to experimental data, which allows us to extract information about the materials’ properties that cannot be drawn from experimental data. Unfortunately, the catalytic models draw information from electronic structure theory (e.g. Density Functional Theory) which contains a sizable error due to intrinsic approximations to make the computational costs feasible. Although the errors are commonly accepted and known, this work will analyse how significant the impact of these errors can be on the model outcome. We first explain how these errors are propagated into a model outcome, e.g., turnover-frequency (TOF), and how significant the outcome is impacted. Secondly, we quantify the propagation of single errors by a local and global sensitivity analysis, including a discussion of their dis-/advantages for a catalytic model. The global approach requires the numerical quadrature of high dimensional integrals as the catalytic model often depends on multiple parameters. This, we tackle with a local and dimension-adaptive sg! (sg!) approach. sg!s have shown to be very useful for medium dimensional problems since their adaptivity feature allows for an accurate surrogate model with a modest number of points. Despite the models’ high dimensionality, the outcome is mostly dominated by a fraction of the input parameter, which implies a high refinement in only a fraction of the dimensions (dimension-adaptive). Additionally, the kinetic data shows characteristics of sharp transitions between "non-active" and "active" areas, which need a higher order of refinement (local-adaptive). The efficiency of the adaptive sg! is tested on different toy models and a realistic first principle model, including the Sensitivity Analysis. Results show that for catalytic models, a local derivative-based sensitivity analysis gives only limited information. However, the global approach can identify the important parameters and allows extracting information from more complex models in more detail. The Sparse Grid approach is useful for reducing the total number of points, but what if evaluating the point itself is very expensive? The second part of this work concentrates on solving high dimensional integrals for models whose evaluations are costly due to, e.g. being only implicitly given by a Monte Carlo model. The evaluation contains an error due to finite sampling. To lower the error, we would have to increase computational effort for a high number of samples. To tackle this problem, we extend the SG method with a multilevel approach to lower the cost. Unlike existing approaches, we will not use the telescoping sum but utilise the sparse grid’s intrinsically given hierarchical structure. We assume that not all the SG points need the same accuracy but that we can double the points’ variance and halve the drawn samples with every refinement step. We demonstrate the methodology on different toy models and a realistic kinetic Monte Carlo system for CO oxidation. Therefore, we compare the non- multilevel adaptive Sparse Grid (ASG) with the Multilevel Adaptive Sparse Grid (MLASG). Results show that ith the multilevel extension we can save up to two orders of magnitude without challenging the accuracy of the surrogate model compared to a non-mulitlevel SG.
Auf dem Gebiet der heterogenen Katalyse hat sich die First-Principle-basierte mikrokinetische Model- lierung als wesentliches Werkzeug bewährt, um ein tieferes Verständnis der mikroskopischen Wech- selwirkung zwischen Reaktionen zu ermöglichen. Leider basieren die katalytischen Modelle auf Informationen aus der elektronischen Strukturtheorie (z. B. Dichtefunktionaltheorie), die aufgrund in- trinsischer Näherungen einen beträchtlichen Fehler enthalten. In dieser Arbeit werden wir analysieren wie signifikant die Auswirkungen dieser Fehler auf das Modellergebnis sein können. Dazu erklären wir zunächst, wie diese Fehler in ein Modellergebnis, wie z. B. Turnover-Frequency (TOF), übertragen werden. Des Weiteren quantifizieren wir die Auswirkung einzelner Fehler mittels einer lokalen und globalen Sensitivitätsanalyse und erklären die Unterschiede beider Methoden. Der globale Sensitivitätsansatz erfordert das Lösen hochdimensionaler Integrale bzw. ein akkurates Ersatzmodel zum Auswerten, wofür wir einen lokalen und dimensions-adaptiven Sparse Grid-Ansatz benutzen. Sparse Grids (SG) haben sich für mitteldimensionale Probleme als sehr nützlich erwiesen, da ihre Adaptivitätsfunktion ein genaues Ersatzmodell mit einer kleinen Anzahl von Punkten er- möglicht. Trotz der hohen Dimensionalität der Modelle wird das Ergebnis meist von einem Bruchteil der Modellparameter dominiert, was eine hohe Verfeinerung in nur einem Bruchteil der Dimensionen erfordert (dimensionsadaptiv). Darüber hinaus zeigen die kinetischen Daten Charakteristiken scharfer Übergänge zwischen "nicht aktiven" und "aktiven" Bereichen, die eine höhere Verfeinerung (lokal- adaptiv) erfordern. Die Effizienz des adaptiven SG wird an verschiedenen Testmodellen und einem realistischen First-Principle-Modell, einschließlich der Sensitivitätsanalyse, getestet. Die Ergebnisse zeigen, dass für katalytische Modelle eine lokale Sensitivitätsanalyse auf Basis lokaler Ableitungen nur begrenzte Informationen liefert. Dagegen kann der globale Ansatz die wichtigen Parameter identi- fizieren und ermöglicht es, Informationen aus komplexeren Modellen detaillierter zu extrahieren. Der Sparse Grid-Ansatz reduziert die Gesamtzahl an Punkten, aber was ist, wenn die Auswertung eines Punktes schon sehr teuer ist? Deswegen konzentriert sich der zweite Teil dieser Arbeit auf die Lösung hochdimensionaler Integrale für Modelle, deren Auswertungen nur implizit, z.B. durch ein Monte-Carlo-Modell, gegeben ist. Wir erweitern die SG-Methode um einen mehrstufigen Ansatz, der die Kosten senken soll. Im Gegensatz zu bestehenden Ansätzen werden wir nicht die Teleskop- summe verwenden, sondern die intrinsisch gegebene hierarchische Struktur des SG ausnutzen. Jede Funktionsauswertung enthält einen Fehler, aufgrund einer begrenzten Probenmenge, aber nicht alle SG-Punkte benötigen die gleiche Genauigkeit. Deswegen können wir bei jedem Verfeinerungsschritt die Varianz der Punkte verdoppeln und somit die Menge der gezogenen Stichproben halbieren und die Kosten minimieren. Wir demonstrieren die Methodik an verschiedenen Testmodellen und einem realistischen kinetischen Monte-Carlo-Modell. Dabei vergleichen wir den reinen adaptiven Sparse Grid (ASG) Ansatz mit dem Multilevel Adaptive Sparse Grid (MLASG). Die Ergebnisse zeigen, dass wir mit der mehrstufigen Erweiterung im Vergleich zur ASG, bis zu zwei Größenordnungen an CPU (Central Processing Unit)- Zeit einsparen können, ohne die Genauigkeit des Ersatzmodells zu beeinflussen.