Modul:IAM (SPO 2018):Neuronale Netze und Deep Learning: Unterschied zwischen den Versionen
aus GlossarWiki, der Glossar-Datenbank der Fachhochschule Augsburg
Kowa (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{ModulNeu |studiengang=IAM 2018 |abschnitt=Spezialisierungsphase |modulart=Wahlpflichtmodul |modulkatalog=Informatik |name_en=Computergraphics |verwendbarkeit…“) |
Kowa (Diskussion | Beiträge) Keine Bearbeitungszusammenfassung |
||
Zeile 4: | Zeile 4: | ||
|modulart=Wahlpflichtmodul | |modulart=Wahlpflichtmodul | ||
|modulkatalog=Informatik | |modulkatalog=Informatik | ||
|name_en= | |name_en=Neural Networks and Deep Learning | ||
|kuerzel=NEURONE.WP | |||
|verwendbarkeit=Bachelorstudiengang Interaktive Medien | |verwendbarkeit=Bachelorstudiengang Interaktive Medien | ||
|turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. | |turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. | ||
|voraussetzungen= | |voraussetzungen=Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden. | ||
|wird_gehalten=Sommersemester | |wird_gehalten=Sommersemester | ||
|wiederholungspruefung=Nein | |wiederholungspruefung=Nein | ||
Zeile 18: | Zeile 19: | ||
|lehrformen=Seminaristischer Unterricht, Praktikum | |lehrformen=Seminaristischer Unterricht, Praktikum | ||
|verantwortliche=Thomas Rist | |verantwortliche=Thomas Rist | ||
|pruefer=Michael Kipp | |pruefer=Michael Kipp | ||
|zweitpruefer=Alexandra Teynor | |zweitpruefer=Alexandra Teynor | ||
|pruefungsart=Klausur | |pruefungsart=Klausur, Studienarbeit | ||
|pruefungsdetails=Dauer 90 Min | |pruefungsdetails=Dauer der Klausur: 90 Min (Gewichtung: 70 %)<br/> | ||
Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %) | |||
|benotung=Kommanote | |benotung=Kommanote | ||
|gewichtung=100 | |gewichtung=100 | ||
|qualifikationsziele= | |qualifikationsziele=Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage: | ||
|literatur= | * Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben | ||
|in_handbuch= | * Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden | ||
* Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren | |||
* Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren | |||
* Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation | |||
|inhalte=Supervised Learning | |||
* Einführung in die Neuronalen Netze (NN) | |||
* Feedforward-NN und Backpropagation | |||
* Convolutional NNs am Beispiel Bildverarbeitung | |||
* Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM) | |||
Unsupervised Learning | |||
* Hopfield-Netze und Boltzmann-Maschinen | |||
* Hebbsche Regel | |||
* Autoencoders | |||
* Generative Adversarial Networks (GANs) | |||
Reinforcement Learning (RL) | |||
* Theorie des RL und Q-learning | |||
* Deep Q-learning | |||
|literatur=* R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing. | |||
* S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing. | |||
* E. Charniak (2019): Introduction to Deep Learning, MIT Press. | |||
* R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press. | |||
|in_handbuch=Ja | |||
|lehrender=Michael Kipp | |||
}} | }} |
Aktuelle Version vom 17. April 2020, 13:29 Uhr
Studiengang | Interaktive Medien (IAM (SPO 2018)) |
---|---|
Studienabschnitt | Spezialisierungssphase |
Modulkatalog | Informatik |
Name | Neuronale Netze und Deep Learning |
Name (englisch) | Neural Networks and Deep Learning |
Kürzel | NEURONE.WP |
Unterrichtssprache | Deutsch |
Voraussetzungen | Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden. |
Verwendbarkeit | Bachelorstudiengang Interaktive Medien |
Turnus | Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. |
Modulart: | Wahlpflichtmodul |
Wird gehalten: | Sommersemester |
Studiensemester | IAM 4 |
Dauer | 1 Semester |
Lehrformen | Seminaristischer Unterricht, Praktikum |
Credits | 8 |
SWS | 6 (Lehre: 2, Praktikum: 4) |
Workload | Präsenzstudium: 90 h (durchschnittlich 6 h pro Woche) Eigenstudium: 110 – 150 h (durchschnittlich 7.3 – 10 h pro Woche) |
Modulkoordinator(en) | Thomas Rist |
Lehrende(r) |
Die Prüfung wird in diesem Semester angeboten.
Prüfer | Michael Kipp |
---|---|
Zweitprüfer | Alexandra Teynor |
Prüfungsart | Klausur, Studienarbeit |
Prüfungsdetails | Dauer der Klausur: 90 Min (Gewichtung: 70 %) Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %) |
Hilfsmittel | |
Zeugnisgewichtung | 100 % |
Benotung | Kommanote |
Lernergebnisse/Qualifikationsziele
Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:
- Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
- Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
- Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
- Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
- Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation
Inhalte
Supervised Learning
- Einführung in die Neuronalen Netze (NN)
- Feedforward-NN und Backpropagation
- Convolutional NNs am Beispiel Bildverarbeitung
- Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM)
Unsupervised Learning
- Hopfield-Netze und Boltzmann-Maschinen
- Hebbsche Regel
- Autoencoders
- Generative Adversarial Networks (GANs)
Reinforcement Learning (RL)
- Theorie des RL und Q-learning
- Deep Q-learning
Literatur
- R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
- S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
- E. Charniak (2019): Introduction to Deep Learning, MIT Press.
- R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press.