Strona główna » Przedmioty » Projekt: autonomiczna jazda łazikiem
Filtrowanie
Rodzaj przedmiotu
Inne

Projekt: autonomiczna jazda łazikiem

zima 2017/18
Punkty ECTS4
Liczba godzin 30 (prac)
ProwadzącyJan Chorowski
RodzajProjekt
EgzaminNie
Opis przedmiotu:

Chcemy aby nasz instytutowy łazik potrafił objechać budynek Instytutu wykorzystując jedynie kamery pokładowe. Pokażmy, że nie tylko w dolinie krzemowej powstają pojazdy autonomiczne!
Nasz uniwersytecki łazik jest świetną platformą do poznawania algorytmów potrzebnych w autonomicznych pojazdach: całe sterowanie jest cyfrowe (podobnie jak w samochodach łazik posiada szynę danych CAN), komunikacja z komputerem i podzespołami wykorzystuje pakiet robotyczny ROS [1], wykonane są narzędzia znajdujące do wizualizacji stanu łazika (położenie, prędkości kół itp.). Ponadto łazik może udźwignąć sporej wielkości laptopa, albo minikomputer pokładowy Nvidia Jetson (którym dysponujemy).
**Wstępny plan pracy**
W przypadku pierwszego podejścia chcielibyśmy zacząć od próby odtworzenia systemów sterujących prawdziwymi samochodami opracowanymi przez Nvidię [2,3] i Udacity [4]. W tym celu wykorzystamy dostarczone przez Udacity dane i symulator.
W kolejnym kroku przeniesiemy działanie modelu ze sterowania samochodem (kąt kierownicy i prędkość) na sterowanie łazikiem (możemy albo podobnie zadawać kąt, prędkość i odczytywać położenie, ale możemy tez oddzielnie sterować każdym z kół). Będziemy musieli stworzyć zbiór danych uczących (nagramy przejazdy łazikiem wokół II i na Opatowicach), oraz metody powiększania zbioru danych - w tym zasymulować co widziałby łazik gdyby sam mógł trochę oddalić się od nagranych przejazdów.
Być może spróbujemy też wyuczyć modele rozwiązujące przydatne podproblemy: wykrywanie gdzie jest ścieżka, np. implementując [5] i przewidywanie głębi ze zdjęć [6].
Projekt będzie tez wymagał wykonanie drobnych przeróbek łazika: oczujnikowania go aby nie zrobił sobie krzywdy (dołożymy czujniki ultradźwiękowe i być może dorobimy mechanizmy geofencingu - autonomia sama wyłączy się na podstawie sygnału z GPS).
Przedmiot prowadzony będzie z Markiem Materzokiem.
Literatura:
[2] Bojarski, Mariusz, et al. "End to end learning for self-driving cars." arXiv preprint arXiv:1604.07316 (2016). https://arxiv.org/abs/1604.07316
[5] Eigen, David, Christian Puhrsch, and Rob Fergus. "Depth map prediction from a single image using a multi-scale deep network." Advances in neural information processing systems. 2014. http://papers.nips.cc/paper/5539-depth-map-prediction-from-a-single-image-using-a-multi-scale-deep-network
[6] Badrinarayanan, Vijay, Alex Kendall, and Roberto Cipolla. "Segnet: A deep convolutional encoder-decoder architecture for image segmentation." arXiv preprint arXiv:1511.00561 (2015). https://arxiv.org/abs/1511.00561


Ćwiczenio-pracownie

ProwadzącyTermin zajęćLimitZapisaniKolejka
Marek Materzok śr 14:00-16:00 (s.110,4) 0 0 0
Jan Chorowski śr 14:00-16:00 (s.110,4) 18 8 0

UWAGA! Wyższa liczba oznacza wyższy priorytet, po zapisaniu do grupy zostajemy usunięci z kolejek o niższym priorytecie.


Konsultacje prowadzących:


Imię i nazwiskoPokójKonsultacje
Jan Chorowski203Czw 10-12 lub po zapisach przez https://calendar.google.com/calendar/selfsched?sstoken=UUtYVm5mOVkxUVRNfGRlZmF1bHR8ZmJjZmRiMzU4ODA0NDAyYTYzOTZiZjNjY2Y2ZDQwODk
Marek Materzok336piątek 12-14 lub umówiony termin

Semestr 2018/19 zimowy