Modul:IAM (SPO 2018):Neuronale Netze und Deep Learning

aus GlossarWiki, der Glossar-Datenbank der Fachhochschule Augsburg
Version vom 17. April 2020, 13:29 Uhr von Kowa (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)
Studiengang Interaktive Medien (IAM (SPO 2018))
Studienabschnitt Spezialisierungssphase
ModulkatalogInformatik
Name Neuronale Netze und Deep Learning
Name (englisch) Neural Networks and Deep Learning
Kürzel NEURONE.WP
Unterrichtssprache Deutsch
Voraussetzungen Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden.
Verwendbarkeit Bachelorstudiengang Interaktive Medien
Turnus Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden.
Modulart: Wahlpflichtmodul
Wird gehalten: Sommersemester
Studiensemester IAM 4
Dauer 1 Semester
Lehrformen Seminaristischer Unterricht, Praktikum
Credits 8
SWS 6 (Lehre: 2, Praktikum: 4)
Workload Präsenzstudium: 90 h (durchschnittlich 6 h pro Woche)
Eigenstudium: 110 – 150 h (durchschnittlich 7.3 – 10 h pro Woche)
Modulkoordinator(en) Thomas Rist
Lehrende(r)

Die Prüfung wird in diesem Semester angeboten.

Prüfer Michael Kipp
Zweitprüfer Alexandra Teynor
Prüfungsart Klausur, Studienarbeit
Prüfungsdetails Dauer der Klausur: 90 Min (Gewichtung: 70 %)
Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %)
Hilfsmittel
Zeugnisgewichtung 100 %
Benotung Kommanote

Lernergebnisse/Qualifikationsziele

Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:

  • Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
  • Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
  • Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
  • Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
  • Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation

Inhalte

Supervised Learning

  • Einführung in die Neuronalen Netze (NN)
  • Feedforward-NN und Backpropagation
  • Convolutional NNs am Beispiel Bildverarbeitung
  • Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM)

Unsupervised Learning

  • Hopfield-Netze und Boltzmann-Maschinen
  • Hebbsche Regel
  • Autoencoders
  • Generative Adversarial Networks (GANs)

Reinforcement Learning (RL)

  • Theorie des RL und Q-learning
  • Deep Q-learning

Literatur

  • R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
  • S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
  • E. Charniak (2019): Introduction to Deep Learning, MIT Press.
  • R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press.