Modul:IAM (SPO 2018):Neuronale Netze und Deep Learning
aus GlossarWiki, der Glossar-Datenbank der Fachhochschule Augsburg
Studiengang | Interaktive Medien (IAM (SPO 2018)) |
---|---|
Studienabschnitt | Spezialisierungssphase |
Modulkatalog | Informatik |
Name | Neuronale Netze und Deep Learning |
Name (englisch) | Neural Networks and Deep Learning |
Kürzel | NEURONE.WP |
Unterrichtssprache | Deutsch |
Voraussetzungen | Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden. |
Verwendbarkeit | Bachelorstudiengang Interaktive Medien |
Turnus | Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. |
Modulart: | Wahlpflichtmodul |
Wird gehalten: | Sommersemester |
Studiensemester | IAM 4 |
Dauer | 1 Semester |
Lehrformen | Seminaristischer Unterricht, Praktikum |
Credits | 8 |
SWS | 6 (Lehre: 2, Praktikum: 4) |
Workload | Präsenzstudium: 90 h (durchschnittlich 6 h pro Woche) Eigenstudium: 110 – 150 h (durchschnittlich 7.3 – 10 h pro Woche) |
Modulkoordinator(en) | Thomas Rist |
Lehrende(r) |
Die Prüfung wird in diesem Semester angeboten.
Prüfer | Michael Kipp |
---|---|
Zweitprüfer | Alexandra Teynor |
Prüfungsart | Klausur, Studienarbeit |
Prüfungsdetails | Dauer der Klausur: 90 Min (Gewichtung: 70 %) Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %) |
Hilfsmittel | |
Zeugnisgewichtung | 100 % |
Benotung | Kommanote |
Lernergebnisse/Qualifikationsziele
Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:
- Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
- Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
- Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
- Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
- Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation
Inhalte
Supervised Learning
- Einführung in die Neuronalen Netze (NN)
- Feedforward-NN und Backpropagation
- Convolutional NNs am Beispiel Bildverarbeitung
- Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM)
Unsupervised Learning
- Hopfield-Netze und Boltzmann-Maschinen
- Hebbsche Regel
- Autoencoders
- Generative Adversarial Networks (GANs)
Reinforcement Learning (RL)
- Theorie des RL und Q-learning
- Deep Q-learning
Literatur
- R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
- S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
- E. Charniak (2019): Introduction to Deep Learning, MIT Press.
- R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press.