Diese Vorlesung führt die Studierenden in die Grundlagen des maschinellen Lernens und Anwendungen im Ingenieurwesen ein. Es werden die Grundbegriffe der Klassifikation und der Regression eingeführt, wobei der Schwerpunkt auf der Regression liegt. Die Studierenden sollen die grundlegende Struktur von Algorithmen des maschinellen Lernens verstehen, die typischerweise aus drei Bestandteilen besteht: 1) einem parametrischen Modell oder Ansatz (z. B. einem neuronalen Netz), 2) einer Verlust- oder Zielfunktion und 3) einem Optimierungsalgorithmus. Die Besonderheiten im Zusammenhang mit unsicheren Daten und die Bedeutung von Unter- und Überanpassung, Trainings-, Test- und Validierungssets werden erörtert.
Algorithms and Programming
In den Fächern Algorithmen und Programmierung werden Konzepte gelehrt, die die Studierenden in die Lage versetzen, bestehende Codes zu verstehen und insbesondere neue F&E-Software zu erstellen. Grundsätzlich sind Kenntnisse in der Softwareentwicklung in allen Ingenieursdisziplinen nützlich. Insbesondere in der Numerik und des maschinellen Lernens bieten sie unschätzbare Vorteile. In den Übungen wird die Programmiersprache Python verwendet. Alle vermittelten Konzepte sind jedoch in einer Vielzahl von Sprachen anwendbar, z.B. Java oder C++, um nur einige zu nennen. Neben Grundlagen der Programmierung, Versionskontrolle und Containervirtualisierung werden auch Prinzipien der objektorientierten Programmierung, Datenstrukturen und Komplexitätsbetrachtungen für verschiedene Algorithmen diskutiert
Als kosteneffiziente Ergänzung zu Experimenten und Prototypen ist das Computational Engineering zu einem unverzichtbaren Bestandteil der Entwicklungszyklen geworden. Parallel dazu haben die Möglichkeiten, in-situ bzw. online Daten aus dem tatsächlichen Betrieb von Produkten, Prozessen und Infrastrukturen zu sammeln und zu speichern, enorm zugenommen.
Vor diesem Hintergrund besteht das Ziel der datengetriebenen Modellierung darin, alle verfügbaren Informationen aus Experiment, Simulation und Überwachung miteinander zu verknüpfen. Damit leistet sie einen wichtigen Beitrag zur Entwicklung digitaler Zwillinge: digitale Modelle, die Produkte, Prozesse oder Infrastrukturen aus der realen Welt während ihres gesamten Lebenszyklus digital begleiten. Zu diesem Zweck vermittelt die Spezialisierung Kompetenzen an der Schnittstelle von Modellierung, Numerik, maschinellem Lernen und der Quantifizierung von Unsicherheiten.
Vorlesung: Data-driven material modeling
Die herkömmliche Materialmodellierung basiert auf der Annahme vereinfachter mathematischer Beziehungen, für die materialspezifische Parameter bestimmt werden müssen. Mit Methoden des maschinellen Lernens können Modelle auch direkt aus großen Datensätzen extrahiert werden. Dies wird besonders im Zusammenhang mit sogenannten Multiskalen- bzw. Metamaterialien interessant, die speziell für bestimmte Anforderung entwickelt und optimiert werden. Am Ende der Vorlesung sind die Studierenden in der Lage, Materialmodelle mit Methoden des maschinellen Lernens zu formulieren und in einer Finite-Elemente-Umgebung zu implementieren. Die Vorlesung wird von einer Computerübung begleitet und umfasst die folgenden Inhalte:
Materialmodellierung mit neuronalen Netzen
Spezielle Netwerkarchitekturen, die grundlegende Modellierungsanforderungen wie Objektivität und thermodynamische Konsistenz berücksichtigen
Implementierung von gelernten Materialmodellen in Finite-Elemente-Software
Mehrskalenmodellierung
Computergestützte Homogenisierung mit neuronalen Faltungsnetzen
Generative neuronale Netze zur Augmentierung experimenteller Daten
Vorlesung: Advanced data-driven modeling
Wie ihr Vorläufer, die datengetriebene Materialmodellierung, behandelt die fortgeschrittene datengetriebene Modellierung Themen an der Schnittstelle von Kontinuumsmechanik, Numerik und maschinellem Lernen mit einem Einblick in die Quantifizierung von Unsicherheit. Ein grundlegendes Verständnis der vorgenannten Disziplinen, entweder aus der datengetriebenen Materialmodellierung oder aus Vorlesungen zu Festkörper- bzw. Kontinuumsmechanik, Finite Elemente und maschinelles Lernen, ist für die Teilnahme an diesem Kurs erforderlich. Fortgeschrittene datengetriebene Modellierung bietet eine ganzheitliche Sicht auf die Parameteridentifikation. Es werden verschiedene Optimierungs- und Samplingmethoden sowie unterschiedliche Diskretisierungstechniken diskutiert. Über die Parameteridentifikation hinaus werden datengetriebene Schließungsterme eingeführt, die zur Aktualisierung von Berechnungsmodellen aus verrauschten Daten verwendet werden können.
Inverse Probleme und Parameteridentifikation
Many-query Ansätze zur Parameteridentifikation
Physikalisch informierte neuronale Netze zur Parameteridentifikation
Physikalisch informierte neuronale Netze für inverse Probleme, z. B. Rekonstruktion physikalischer Felder aus unvollständigen Beobachtungsdaten
Modell-Aktualisierung
Gauß-Prozesse
Statistische Finite-Elemente-Methode
Vorlesung: Methods for Uncertainty Quantification and Analysis
Die Vorhersage mit komplexen Computermodellen erfordert genaue Parameterschätzungen. In der Praxis führen jedoch verrauschte und begrenzte Daten zu Unsicherheiten. Daher werden in diesem Kurs Konzepte und Methoden vorgestellt, die das begrenzte Wissen über Parameter in der prädiktiven Modellierung berücksichtigen. Ausgehend vom erforderlichen Hintergrundwissen in der Wahrscheinlichkeitstheorie werden zunächst zufällige Beschreibungen von skalaren und verteilten Modellparametern untersucht. Anschließend werden verschiedene Ansätze zur Surrogatmodellierung diskutiert, wobei der Schwerpunkt auf den zugrunde liegenden Wahrscheinlichkeitsverteilungen liegt. Die Methoden reichen von der nicht-intrusiven Spektralmodellierung bis zur stochastischen Galerkin-Finite-Elemente-Methode. Schließlich werden fortgeschrittene Monte-Carlo-Ansätze, wie die Multilevel-Monte-Carlo-Methode, vorgestellt, die eine effiziente Quantifizierung von Unsicherheiten auch bei komplexen Modellen ermöglichen. Am Ende werden die Studierenden in der Lage sein, geeignete Methoden für die Unsicherheitsanalyse komplexer Modelle zu identifizieren und einige erste rechnerische UQ-Studien mit Open-Source-Software zu bewältigen.
Dieser Kurs wird von Prof. Ulrich Römer, Institut für Dynamik und Schwingungen, angeboten.
Künstliche Intelligenz gewinnt in allen Disziplinen rasant an Bedeutung. Wie können wir mit der rasanten Forschung und Entwicklung in diesem Bereich umgehen? In dem vom BMBF geförderten Verbundprojekt KI4ALL entwickeln wir KI-bezogene Microcredits, d.h. kleine, modulare Lehr-Lerneinheiten. Gebündelt können Microcredits in bestehende Curricula integriert oder in Weiterbildungsszenarien eingesetzt werden. Unsere Sammlung von Microcredits finden Sie auf der KI4ALL-Webseite.
Um unabhängig von Zeit und Ort an unseren Mikrokrediten zu arbeiten, bieten wir Zugang zu einem Jupyterhub, der hier dokumentiert ist: KI4All Die Nutzungsbedingungen sind hier zu finden: Nutzungsordnung Cluster KI4All