Uczenie maszynowe 1000-MS1-UMasz
1. Wprowadzenie do uczenia maszynowego.
2. Podstawowe algorytmy klasyfikacyjne: naiwny klasyfikator bayesowski,
metoda „k - najbliższych sąsiadów”.
3. Maszyny wektorów podpierających.
4. Metody łączenia klasyfikatorów: „bagging” i „boosting”.
5. M-estymatory z karą.
6. Modele graficzne - pola losowe Markowa.
7. Algorytm EM („Expectation-Maximization”).
8. Analiza składowych głównych.
9. Statystyczna analiza algorytmów.
|
W cyklu 2022/23Z:
Jak w części A |
W cyklu 2023/24Z:
Jak w części A |
W cyklu 2024/25Z:
Jak w części A |
W cyklu 2025/26Z:
Jak w części A |
Całkowity nakład pracy studenta
Efekty uczenia się - wiedza
Efekty uczenia się - umiejętności
Efekty uczenia się - kompetencje społeczne
Metody dydaktyczne podające
Metody dydaktyczne poszukujące
Rodzaj przedmiotu
Wymagania wstępne
Koordynatorzy przedmiotu
Kryteria oceniania
Egzamin pisemny – W1, W2, K1, K2,
Zaliczenie laboratorium na podstawie dwóch sprawdzianów – W1, W2, U1, U2, U3, K1, K2.
Praktyki zawodowe
Brak
Literatura
1. L. Devroye, L. Gyorfi, G. Lugosi: „A probabilistic theory of pattern recognition”, Springer, 1996.
2. J. Koronacki, J. Ćwik: „Statystyczne systemy uczące się”. Wydaw. Naukowo-Techniczne, Warszawa, 2006.
3. T. Hastie, R. Tibshirani, J. Friedman: „The Elements of Statistical Learning”, Springer, 2009.
4. S. Shalev-Shwartz, S. Ben-David: „Understanding Machine Learning: From Theory to Algorithms”, Cambridge University Press, 2014.
|
W cyklu 2022/23Z:
Jak w części A |
W cyklu 2023/24Z:
Jak w części A |
W cyklu 2024/25Z:
Jak w części A |
W cyklu 2025/26Z:
Jak w części A |
Więcej informacji
Dodatkowe informacje (np. o kalendarzu rejestracji, prowadzących zajęcia, lokalizacji i terminach zajęć) mogą być dostępne w serwisie USOSweb: