Modul:IAM (SPO 2018):Neuronale Netze und Deep Learning: Unterschied zwischen den Versionen

aus GlossarWiki, der Glossar-Datenbank der Fachhochschule Augsburg
Wechseln zu:Navigation, Suche
(Die Seite wurde neu angelegt: „{{ModulNeu |studiengang=IAM 2018 |abschnitt=Spezialisierungsphase |modulart=Wahlpflichtmodul |modulkatalog=Informatik |name_en=Computergraphics |verwendbarkeit…“)
 
 
Zeile 4: Zeile 4:
 
|modulart=Wahlpflichtmodul
 
|modulart=Wahlpflichtmodul
 
|modulkatalog=Informatik
 
|modulkatalog=Informatik
|name_en=Computergraphics
+
|name_en=Neural Networks and Deep Learning
 +
|kuerzel=NEURONE.WP
 
|verwendbarkeit=Bachelorstudiengang Interaktive Medien
 
|verwendbarkeit=Bachelorstudiengang Interaktive Medien
 
|turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden.
 
|turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden.
|voraussetzungen=
+
|voraussetzungen=Grundlagen  der  Programmierung  und  der  Mathematik  wie  sie in den ersten Semestern vermittelt werden.
 
|wird_gehalten=Sommersemester
 
|wird_gehalten=Sommersemester
 
|wiederholungspruefung=Nein
 
|wiederholungspruefung=Nein
Zeile 18: Zeile 19:
 
|lehrformen=Seminaristischer Unterricht, Praktikum
 
|lehrformen=Seminaristischer Unterricht, Praktikum
 
|verantwortliche=Thomas Rist
 
|verantwortliche=Thomas Rist
|lehrender=Michael Kipp
 
 
|pruefer=Michael Kipp
 
|pruefer=Michael Kipp
 
|zweitpruefer=Alexandra Teynor
 
|zweitpruefer=Alexandra Teynor
|pruefungsart=Klausur
+
|pruefungsart=Klausur, Studienarbeit
|pruefungsdetails=Dauer 90 Min
+
|pruefungsdetails=Dauer der Klausur: 90 Min (Gewichtung: 70 %)<br/>
 +
Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %)
 
|benotung=Kommanote
 
|benotung=Kommanote
 
|gewichtung=100
 
|gewichtung=100
|qualifikationsziele=
+
|qualifikationsziele=Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:
|literatur=
+
*  Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
|in_handbuch=ja
+
*  Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
 +
*  Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
 +
*  Für  vorgegebene  Datensätze  in  einer  Umgebung  wie  Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
 +
*  Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation
 +
|inhalte=Supervised Learning
 +
*  Einführung in die Neuronalen Netze (NN)
 +
*  Feedforward-NN und Backpropagation
 +
*  Convolutional NNs am Beispiel Bildverarbeitung
 +
*  Recurrent  NNs,  Gated  Recurrent  Units  (GRUs),  und  LongShort-Term Memory (LSTM)
 +
 
 +
Unsupervised Learning
 +
*  Hopfield-Netze und Boltzmann-Maschinen
 +
*  Hebbsche Regel
 +
*  Autoencoders
 +
*  Generative Adversarial Networks (GANs)
 +
 
 +
Reinforcement Learning (RL)
 +
*  Theorie des RL und Q-learning
 +
*  Deep Q-learning
 +
|literatur=* R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
 +
* S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
 +
* E. Charniak (2019): Introduction to Deep Learning, MIT Press.
 +
* R.S. Sutton, A.G. Barto (2018): Reinforcement  Learning:  An  Introduction, 2. Auflage, MIT Press.
 +
|in_handbuch=Ja
 +
|lehrender=Michael Kipp
 
}}
 
}}

Aktuelle Version vom 17. April 2020, 13:29 Uhr

Studiengang Interaktive Medien (IAM (SPO 2018))
Studienabschnitt Spezialisierungssphase
ModulkatalogInformatik
Name Neuronale Netze und Deep Learning
Name (englisch) Neural Networks and Deep Learning
Kürzel NEURONE.WP
Unterrichtssprache Deutsch
Voraussetzungen Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden.
Verwendbarkeit Bachelorstudiengang Interaktive Medien
Turnus Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden.
Modulart: Wahlpflichtmodul
Wird gehalten: Sommersemester
Studiensemester IAM 4
Dauer 1 Semester
Lehrformen Seminaristischer Unterricht, Praktikum
Credits 8
SWS 6 (Lehre: 2, Praktikum: 4)
Workload Präsenzstudium: 90 h (durchschnittlich 6 h pro Woche)
Eigenstudium: 110 – 150 h (durchschnittlich 7,3 – 10 h pro Woche)
Modulkoordinator(en) Thomas Rist
Lehrende(r)

Die Prüfung wird in diesem Semester angeboten.

Prüfer Michael Kipp
Zweitprüfer Alexandra Teynor
Prüfungsart Klausur, Studienarbeit
Prüfungsdetails Dauer der Klausur: 90 Min (Gewichtung: 70 %)
Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %)
Hilfsmittel
Zeugnisgewichtung 100 %
Benotung Kommanote

1 Lernergebnisse/Qualifikationsziele

Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:

  • Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
  • Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
  • Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
  • Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
  • Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation

2 Inhalte

Supervised Learning

  • Einführung in die Neuronalen Netze (NN)
  • Feedforward-NN und Backpropagation
  • Convolutional NNs am Beispiel Bildverarbeitung
  • Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM)

Unsupervised Learning

  • Hopfield-Netze und Boltzmann-Maschinen
  • Hebbsche Regel
  • Autoencoders
  • Generative Adversarial Networks (GANs)

Reinforcement Learning (RL)

  • Theorie des RL und Q-learning
  • Deep Q-learning

3 Literatur

  • R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
  • S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
  • E. Charniak (2019): Introduction to Deep Learning, MIT Press.
  • R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press.