Laboratorium Deep Learningu

Język wykładowy Polski
Semestr Zimowy
Status Poddana pod głosowanie
Opiekun Marek Adamczyk
Liczba godzin 30 (wyk.) 30 (ćw.)
Rodzaj I2.Z - zastosowania inf.
ECTS 6
Polecany dla I roku Nie
Egzamin Tak

Opis przedmiotu:

Na laboratorium zrozumiemy działanie najpoteżniejszych obecnie modeli generatywnych, tj. transformerów oraz modeli dyfuzyjnych. Przy okazji nauczymy się także GANów, wariacyjnych autoencoderów, rekurencyjnych sieci neuronowych, a także samego mechanizmu atencji. Środkiem do tego będzie poznanie absolutnych klasyków deep learningu takich jak na przykład Mapy Kohonena, a także ukrytych skarbów takich jak UMAP. Efektem ubocznym będzie wreszcie to, że każdy z nas w końcu zrozumie jak działa t-SNE. Na każdych zajęciach będziemy opracowywać bardzo uproszczoną architekturę danego modelu do rozwiązania prostych problemów generatywnych. A następnie w ramach zadania domowego będziemy ją wspólnie implementować. Datasety, które będziemy wykorzystywać to głównie MNIST i własnoręcznie napisany generator gramatyki bezkontekstowej. Edukacyjne cele na koniec tych zajęć to: - umiejętność ręcznego zakodowania każdego z tych modeli od zera - pełne zrozumienie wszystkich intuicji i matematycznych motywacji, które stoją za taką a nie inną architekturą tych modeli Zaliczenie zajęć odbywa się na podstawie punktów zebranych z programistycznych zadań domowych.