Jedes Modul umfasst 3 ECTS. Sie wählen insgesamt 10 Module/30 ECTS in den folgenden Modulkategorien:
- 12-15 ECTS in Technisch-wissenschaftlichen Modulen (TSM)
TSM-Module vermitteln Ihnen profilspezifische Fachkompetenz und ergänzen die dezentralen Vertiefungsmodule. - 9-12 ECTS in Erweiterten theoretischen Grundlagen (FTP)
FTP-Module behandeln theoretische Grundlagen wie die höhere Mathematik, Physik, Informationstheorie, Chemie usw. Sie erweitern Ihre abstrakte, wissenschaftliche Tiefe und tragen dazu bei, den für die Innovation wichtigen Bogen zwischen Abstraktion und Anwendung spannen zu können. - 6-9 ECTS in Kontextmodulen (CM)
CM-Module vermitteln Ihnen Zusatzkompetenzen aus Bereichen wie Technologiemanagement, Betriebswirtschaft, Kommunikation, Projektmanagement, Patentrecht, Vertragsrecht usw.
In der Modulbeschreibung (siehe: Herunterladen der vollständigen Modulbeschreibung) finden Sie die kompletten Sprachangaben je Modul, unterteilt in die folgenden Kategorien:
- Unterricht
- Dokumentation
- Prüfung
The purpose of this module is to enhance students' understanding of deep learning techniques.
We will explore significant and current developments in deep learning, including generative models, attention networks, transformers, graph neural networks and other related techniques.
Furthermore, we will examine case studies that pertain to language, speech, or visual processing domains.
Eintrittskompetenzen
Machine Learning Basics, Deep Learning, Programming (Python), Statistics, Linear Algebra
Lernziele
Learning objectives:
- Know the Attention and Transformer architectures and how to use them in different applications.
- Know which architectures are suitable for which kind of machine learning problem
- Know how to apply self-supervised learning and the advantages and disadvantages of this method
- To know and apply the different methods of generative algorithms.
- Know how to interpret and explain results of predictions.
Modulinhalt
- Refresher of basic deep learning methods such as MLP, CNN, RNN, Architectures, Backpropagation etc.
- Attention and transformers: concepts and applications in language and vision domains
- Self-supervised learning: contrastive and non-contrastive methods
- Graph Neural Networks and applications
- Generative models: VAEs, GANs, Diffusion models, Energy models, etc.
- Foundation models, few and zero-shot learning
- Interpretability, Explainability
- Special topics of the year, such as NNs for physical systems, 3D reconstruction, theoretical approaches and other
Lehr- und Lernmethoden
- Lectures / presence
- Tutorial / presence
- Exercises / presence
- Self-study
Vollständige Modulbeschreibung herunterladen
Zurück