Z racji wielkiej popularnośći bota ChatGPT temat wielkich modeli językowych stał się błyskawicznie jednym z ważniejszych tematów związanych z technologiami. Podczas tego seminarium spróbujemy się przyjrzeć możliwościom i słabościom tej technologii, jak również możliwym dalszym kierunkom jej rozwoju. Przykładowe zagadnienia poruszane na seminarium to: łączenie modeli językowych z innymi narzędziami (np. Toolformer i analogiczne modele), zero shot learning, few shots learning, warianty mechanizmu uwagi, reinforcement learning from human feedback, łączenie modelu językowego z bazą danych lub tradycyjną wyszukiwarką. Inna grupa tematów będzie związana z badaniem tego, jak modele językowe radzą sobie z wnioskowaniem, graniem w gry, czy planowaniem (i tego, czy można mówić o pojawianiu się zaczątków "ogólnej sztucznej inteligecji")
Każdy z uczestników seminarium będzie zobowiązany do a) przedstawienia wybranej publikacji naukowej, b) przeprowadzenia jakiegoś prostego eksperymentu lub napisania miniprojektu związanego z tą tematyką i opowiedzenie o nim reszcie grupy.
Jeżeli wśród uczestników będą osoby niemówiące po polsku, wówczas zajęcia będą prowadzone po angielsku.