Na laboratorium zrozumiemy działanie najpoteżniejszych obecnie modeli generatywnych, tj. transformerów oraz modeli dyfuzyjnych. Przy okazji nauczymy się także GANów, wariacyjnych autoencoderów, rekurencyjnych sieci neuronowych, a także samego mechanizmu atencji. Środkiem do tego będzie poznanie absolutnych klasyków deep learningu takich jak na przykład Mapy Kohonena, a także ukrytych skarbów takich jak UMAP. Efektem ubocznym będzie wreszcie to, że każdy z nas w końcu zrozumie jak działa t-SNE.
Na każdych zajęciach będziemy opracowywać bardzo uproszczoną architekturę danego modelu do rozwiązania prostych problemów generatywnych. A następnie w ramach zadania domowego będziemy ją wspólnie implementować.
Datasety, które będziemy wykorzystywać to głównie MNIST i własnoręcznie napisany generator gramatyki bezkontekstowej.
Edukacyjne cele na koniec tych zajęć to:
- umiejętność ręcznego zakodowania każdego z tych modeli od zera
- pełne zrozumienie wszystkich intuicji i matematycznych motywacji, które stoją za taką a nie inną architekturą tych modeli
Zaliczenie zajęć odbywa się na podstawie punktów zebranych z programistycznych zadań domowych.