Modul:IAM (SPO 2018):Neuronale Netze und Deep Learning: Unterschied zwischen den Versionen
aus GlossarWiki, der Glossar-Datenbank der Fachhochschule Augsburg
Kowa (Diskussion | Beiträge) (Die Seite wurde neu angelegt: „{{ModulNeu |studiengang=IAM 2018 |abschnitt=Spezialisierungsphase |modulart=Wahlpflichtmodul |modulkatalog=Informatik |name_en=Computergraphics |verwendbarkeit…“) |
Kowa (Diskussion | Beiträge) |
||
Zeile 4: | Zeile 4: | ||
|modulart=Wahlpflichtmodul | |modulart=Wahlpflichtmodul | ||
|modulkatalog=Informatik | |modulkatalog=Informatik | ||
− | |name_en= | + | |name_en=Neural Networks and Deep Learning |
+ | |kuerzel=NEURONE.WP | ||
|verwendbarkeit=Bachelorstudiengang Interaktive Medien | |verwendbarkeit=Bachelorstudiengang Interaktive Medien | ||
|turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. | |turnus=Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. | ||
− | |voraussetzungen= | + | |voraussetzungen=Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden. |
|wird_gehalten=Sommersemester | |wird_gehalten=Sommersemester | ||
|wiederholungspruefung=Nein | |wiederholungspruefung=Nein | ||
Zeile 18: | Zeile 19: | ||
|lehrformen=Seminaristischer Unterricht, Praktikum | |lehrformen=Seminaristischer Unterricht, Praktikum | ||
|verantwortliche=Thomas Rist | |verantwortliche=Thomas Rist | ||
− | |||
|pruefer=Michael Kipp | |pruefer=Michael Kipp | ||
|zweitpruefer=Alexandra Teynor | |zweitpruefer=Alexandra Teynor | ||
− | |pruefungsart=Klausur | + | |pruefungsart=Klausur, Studienarbeit |
− | |pruefungsdetails=Dauer 90 Min | + | |pruefungsdetails=Dauer der Klausur: 90 Min (Gewichtung: 70 %)<br/> |
+ | Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %) | ||
|benotung=Kommanote | |benotung=Kommanote | ||
|gewichtung=100 | |gewichtung=100 | ||
− | |qualifikationsziele= | + | |qualifikationsziele=Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage: |
− | |literatur= | + | * Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben |
− | |in_handbuch= | + | * Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden |
+ | * Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren | ||
+ | * Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren | ||
+ | * Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation | ||
+ | |inhalte=Supervised Learning | ||
+ | * Einführung in die Neuronalen Netze (NN) | ||
+ | * Feedforward-NN und Backpropagation | ||
+ | * Convolutional NNs am Beispiel Bildverarbeitung | ||
+ | * Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM) | ||
+ | |||
+ | Unsupervised Learning | ||
+ | * Hopfield-Netze und Boltzmann-Maschinen | ||
+ | * Hebbsche Regel | ||
+ | * Autoencoders | ||
+ | * Generative Adversarial Networks (GANs) | ||
+ | |||
+ | Reinforcement Learning (RL) | ||
+ | * Theorie des RL und Q-learning | ||
+ | * Deep Q-learning | ||
+ | |literatur=* R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing. | ||
+ | * S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing. | ||
+ | * E. Charniak (2019): Introduction to Deep Learning, MIT Press. | ||
+ | * R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press. | ||
+ | |in_handbuch=Ja | ||
+ | |lehrender=Michael Kipp | ||
}} | }} |
Aktuelle Version vom 17. April 2020, 13:29 Uhr
Studiengang | Interaktive Medien (IAM (SPO 2018)) |
---|---|
Studienabschnitt | Spezialisierungssphase |
Modulkatalog | Informatik |
Name | Neuronale Netze und Deep Learning |
Name (englisch) | Neural Networks and Deep Learning |
Kürzel | NEURONE.WP |
Unterrichtssprache | Deutsch |
Voraussetzungen | Grundlagen der Programmierung und der Mathematik wie sie in den ersten Semestern vermittelt werden. |
Verwendbarkeit | Bachelorstudiengang Interaktive Medien |
Turnus | Üblicherweise im Jahreszyklus; die Lehrveranstaltung wird nur angeboten, wenn sich genügend Teilnehmer anmelden. |
Modulart: | Wahlpflichtmodul |
Wird gehalten: | Sommersemester |
Studiensemester | IAM 4 |
Dauer | 1 Semester |
Lehrformen | Seminaristischer Unterricht, Praktikum |
Credits | 8 |
SWS | 6 (Lehre: 2, Praktikum: 4) |
Workload | Präsenzstudium: 90 h (durchschnittlich 6 h pro Woche) Eigenstudium: 110 – 150 h (durchschnittlich 7,3 – 10 h pro Woche) |
Modulkoordinator(en) | Thomas Rist |
Lehrende(r) |
Die Prüfung wird in diesem Semester angeboten.
Prüfer | Michael Kipp |
---|---|
Zweitprüfer | Alexandra Teynor |
Prüfungsart | Klausur, Studienarbeit |
Prüfungsdetails | Dauer der Klausur: 90 Min (Gewichtung: 70 %) Umfang der Studienarbeit: 6 bis 10 Seiten (Gewichtung: 30 %) |
Hilfsmittel | |
Zeugnisgewichtung | 100 % |
Benotung | Kommanote |
1 Lernergebnisse/Qualifikationsziele
Nach erfolgreicher Teilnahme am Modul sind die Studierenden in der Lage:
- Grundprinzipien Neuronaler Netze in mathematischer Notation zu beschreiben
- Verschiedene Typen und Architekturen Neuronaler Netze und ihre Einsatzgebiete zu unterscheiden
- Einfache Neuronale Netze und Backpropagation in einer Programmiersprache zu implementieren
- Für vorgegebene Datensätze in einer Umgebung wie Jupyter Notebook die Daten vorzuverarbeiten, geeignete Netze zuwählen, zu erzeugen und zu trainieren
- Mit Standardbibliotheken wie TensorFlow, Keras und PyTorch datenbasiert Probleme zu lösen mit Hilfe von Hyperparameter-Tuning, Visualisierung und systematischer Evaluation
2 Inhalte
Supervised Learning
- Einführung in die Neuronalen Netze (NN)
- Feedforward-NN und Backpropagation
- Convolutional NNs am Beispiel Bildverarbeitung
- Recurrent NNs, Gated Recurrent Units (GRUs), und LongShort-Term Memory (LSTM)
Unsupervised Learning
- Hopfield-Netze und Boltzmann-Maschinen
- Hebbsche Regel
- Autoencoders
- Generative Adversarial Networks (GANs)
Reinforcement Learning (RL)
- Theorie des RL und Q-learning
- Deep Q-learning
3 Literatur
- R. Schwaiger, J. Steinwendner (2019): Neuronale Netzeprogrammieren mit Python, Rheinwerk Computing.
- S. Raschka, V. Mirjalili (2019): Python Machine Learning, 3. Auflage, Packt Publishing.
- E. Charniak (2019): Introduction to Deep Learning, MIT Press.
- R.S. Sutton, A.G. Barto (2018): Reinforcement Learning: An Introduction, 2. Auflage, MIT Press.