English Intern
  • Studierende im Hörsaal während einer Vorlesung
Mathematik des Maschinellen Lernens

Lehrveranstaltungen

Zukünftige Lehrveranstaltungen: Sommersemester 2026

Statistical analysis of graph-based learning on manifolds (Giovanni Prodi Lecture, 4+2)

Dozent: Prof. Dr. Nicolás García Trillos

Abstract: This course is concerned with the statistical understanding of the use of graphs to solve certain learning tasks.  The fundamental high-level questions that we will be investigating are the following:  In what sense are graph-based learning procedures statistically optimal for the underlying estimation problems that they attempt to tackle? Are there any alternative ways to process data that could outperform existing graph-based methodologies? To answer these questions theoretically, we will explore some of the existing frameworks to study the optimality of estimators in a general statistical setting. We will focus on the concepts of minimaxity and (classical) asymptotic efficiency of estimators, but toward the end of the course we will also discuss a notion of efficiency in the sense of sensitivity to data perturbations. We will use these frameworks to explore graph-based learning on manifolds (i.e., a setting where data points are sampled from a manifold) from a well-defined statistical perspective and provide some answers to the high-level questions posited earlier.  While the emphasis will be on analyzing graph Laplacians and their eigenpairs (in supervised and unsupervised settings), a lot of the discussion throughout the course is intended to spark new ideas and motivate new problems that combine PDEs, PDEs on graphs, and statistical analysis. 

The course combines statistical theory and mathematical analysis.  Familiarity with some probability theory, especially concentration inequalities, as provided, for example, in the courses “Mathematical Data Science and Machine Learning” or “PDEs on Graphs” is necessary.

4 St. Mi, Do 8-10, SE 30 

Übung zu Statistical analysis of graph-based learning on manifolds (Giovanni Prodi Lecture)

2 St. Do 10-12, SE 30 

 

Dozent: Prof. Dr. Leon Bungert

Oberseminar Mathematik des maschinellen Lernens und angewandte Analysis (2 St.)
nach Vereinbarung

Aktuelle Lehrveranstaltungen: Wintersemester 2025/26

Mathematical Data Science and Machine Learning (Master Mathematical Data Science)

Dozent: Prof. Leon Bungert

4 St. Di 10-12, SE 30 und Do 10-12, 00.102 (Bibl- u Seminarzentrum)

Übung zu Mathematical Data Science and Machine Learning (Master)

2 St. Do 16-18, 00.102 (Bibl- u Seminarzentrum)

Diskrete Mathematik: PDEs on Graphs (Master)

Dozent: Dr. Eloi Martinet

Theory and Applications in Learning:

This course will be devoted to the mathematical study of famous unsupervised and semi-supervised learning algorithms like Spectral Clustering and Google's PageRank. We will see that in the large data limit, these algorithms approximate certain PDEs

3 St. Mo 14-16 und Do 08-09, 01.101 (Bibl- u Seminarzentrum)

Übung zu Diskrete Mathematik: PDEs on Graphs (Master)

1 St. Do 09-10, 01.101 (Bibl- u Seminarzentrum)

Dozent: Prof. Dr. Leon Bungert

Oberseminar Mathematik des maschinellen Lernens und angewandte Analysis (2 St.)
nach Vereinbarung

Vergangene Lehrveranstaltungen

Mathematical Foundations of Data Science II (Bachelor)

Dozent: Prof. Leon Bungert

Die Vorlesung "Mathematical Foundations of Data Science" behandelt die wesentlichen mathematischen Konzepte, die für das Verständnis und die Anwendung von Data Science und maschinellem Lernen unerlässlich sind. Hierzu gibt es Einführungen in grundlegende mathematische Konzepte der lineare Algebra und und Statistik. Zudem werden spezifische mathematische Techniken und Methoden vorgestellt, die in der Datenanalyse und maschinellen Lernverfahren verwendet werden. Dazu gehören Optimierung, numerische Methoden, lineare Regression, Clusteranalyse, Dimensionsreduktion, künstliche neuronale Netze und Deep Learning. Die Vorlesung konzentriert sich darauf, den Studierenden die grundlegenden Methoden und Konzepte der Datenwissenschaften zu erlernen und sie für Anwendungen einzusetzen.

mit Übung 


Machine Learning and Numerics Lab (Bachelor-Praktikum)

Dozent: Prof. Leon Bungert


Arbeitsgemeinschaft Finite Element Methods and Physics Informed Neural Network

Dozent: Dr. Eloi Martinet

Seminar Machine Learning (Bachelorseminar)

Dozent: Prof. Dr. Leon Bungert und Dr. Eloi Martinet


Mathematical Foundations of Data Science (Mathematik 3 für KIDS)

(2+1 im Bachelor Mathematical Data Science)­­

Dozent: Dr. Eloi Martinet

Die Vorlesung "Mathematical Foundations of Data Science" behandelt die wesentlichen mathematischen Konzepte, die für das Verständnis und die Anwendung von Data Science und maschinellem Lernen unerlässlich sind. Hierzu gibt es Einführungen in grundlegende mathematische Konzepte der lineare Algebra und und Statistik. Zudem werden spezifische mathematische Techniken und Methoden vorgestellt, die in der Datenanalyse und maschinellen Lernverfahren verwendet werden. Dazu gehören Optimierung, numerische Methoden, lineare Regression, Clusteranalyse, Dimensionsreduktion, künstliche neuronale Netze und Deep Learning. Die Vorlesung konzentriert sich darauf, den Studierenden die grundlegenden Methoden und Konzepte der Datenwissenschaften zu erlernen und sie für Anwendungen einzusetzen.

mit Übung


Diskrete Mathematik (PDEs on Graphs: Theory and Applications in Learning) (Master)

Dozent: Prof. Dr. Leon Bungert

mit Übung

Machine Learning with Graphs (Masterseminar)

Dozenten: Prof. Dr. Leon Bungert, Dr. Eloi Martinet

In this seminar we will discover machine learning methods that involve graphs. This includes partial differential equations on graphs and their use for semi-supervised machine learning, as well as graph neural networks for supervised learning with graph data. The seminar will cover theoretical and numerical aspects and can lead to a master's thesis in this topic.

 

Referenzen:

[1] Calder, J., Cook, B., Thorpe, M., & Slepcev, D. (2020, November). Poisson learning: Graph based semi-supervised learning at very low label rates. In International Conference on Machine Learning (pp. 1306-1316). PMLR.

[2] Calder, J. (2018). The game theoretic p-Laplacian and semi-supervised learning with few labels. Nonlinearity, 32(1), 301.

[3] Bungert, L., Calder, J., & Roith, T. (2023). Uniform convergence rates for Lipschitz learning on graphs. IMA Journal of Numerical Analysis, 43(4), 2445-2495.

[4] Bronstein, M. M., Bruna, J., LeCun, Y., Szlam, A., & Vandergheynst, P. (2017). Geometric deep learning: going beyond euclidean data. IEEE Signal Processing Magazine, 34(4), 18-42.

[5] Bronstein, M. M., Bruna, J., Cohen, T., & Veličković, P. (2021). Geometric deep learning: Grids, groups, graphs, geodesics, and gauges. arXiv preprint arXiv:2104.13478.

[6] Xia, F., Sun, K., Yu, S., Aziz, A., Wan, L., Pan, S., & Liu, H. (2021). Graph learning: A survey. IEEE Transactions on Artificial Intelligence, 2(2), 109-127.

[7] Song, Z., Yang, X., Xu, Z., & King, I. (2022). Graph-based semi-supervised learning: A comprehensive review. IEEE Transactions on Neural Networks and Learning Systems.­­


Mathematical Foundations of Data Science II (2+1 im Bachelor Mathematical Data Science)

Dozent: Prof. Leon Bungert

Die Vorlesung "Mathematical Foundations of Data Science" behandelt die wesentlichen mathematischen Konzepte, die für das Verständnis und die Anwendung von Data Science und maschinellem Lernen unerlässlich sind. Hierzu gibt es Einführungen in grundlegende mathematische Konzepte der lineare Algebra und und Statistik. Zudem werden spezifische mathematische Techniken und Methoden vorgestellt, die in der Datenanalyse und maschinellen Lernverfahren verwendet werden. Dazu gehören Optimierung, numerische Methoden, lineare Regression, Clusteranalyse, Dimensionsreduktion, künstliche neuronale Netze und Deep Learning. Die Vorlesung konzentriert sich darauf, den Studierenden die grundlegenden Methoden und Konzepte der Datenwissenschaften zu erlernen und sie für Anwendungen einzusetzen.

mit Übung


Numerische Mathematik und Angewandte Analysis (Arbeitsgemeinschaft)

Dozent: Dr. Eloi Martinet

In the vast majority of theoretical and real-world applications, the solution to a partial differential equation can not be computed analytically. The aim of this course is to explore two methods allowing to compute approximate solutions. The first, ”traditional” one, is the Finite Element Method. The second one makes use of the recent developments in Deep Learning leading to the so called ”Physics Informed Neural Networks”. In a first part, we will study the fundamental tools needed to solves elliptic partial differential equations, such as weak derivatives and Sobolev spaces. We will show how to approximate PDEs using basic finite elements tools. In the second part, we present the definition of au Neural Network and derive the proof of the so-called "Universal Approximation Theorem". Using backpropagation, we show how a network can be trained to solve some partial differential equations.

  • Mathematical Foundations of Data Science

Dozent: Prof. Leon Bungert