Strona wykładu Sztuczna inteligencja w semestrze letnim 2025/2026
Informacje o wykładzie i zasady zaliczania
Listy zadań
Środowisko
Przydatne linki
Literatura do wykładu
- Müller, Andreas C., Sarah Guido — Introduction to machine learning with Python: a guide for data scientists.
- Matthes, Eric. — Python crash course: A hands-on, project-based introduction to programming.
- Raschka, Sebastian, Yuxi Hayden Liu, and Vahid Mirjalili — Machine Learning with PyTorch and Scikit-Learn: Develop machine learning and deep learning models with Python.
Omówiony materiał
- (2h) Wprowadzenie do pojęć uczenia maszynowego: dane treningowe, model, trening. k-Nearest Neighbors jako przykład modelu klasyfikacyjnego: implementacja "ręczna" (numpy) i z użyciem scikit-learn. Materiały.
- (2h) Uzupełnienie opisu k-Nearest Neighbors. Słowniki w Pythonie. Przykłady modeli: regresja liniowa, klasyfikator logistyczny, drzewa decyzyjne (z implementacją przy użyciu sklearn). Materiały.
- (1h) Elementarz algebry liniowej; pojęcie przestrzeni, wymiaru, wektora. Wstęp do przekształceń liniowych. Slajdy.
- (2h) Przykłady przekształceń liniowych. Macierze przekształceń liniowych, mnożenie macierzy. TruncatedSVD użyty jako narzędzie do redukcji wymiaru. Slajdy, notatnik.
- (1h) Monochromatyczne obrazy jako punkty danych. Przykład klasyfikatora na danych po redukcji wymiaru. Notatnik.
- (1h) Pochodna i gradient funkcji (nieformalnie), zastosowania w metodach gradientowych znajdowania lokalnych minimów i maksimów funkcji. Materiały.
- (2h) Metoda gradientu w dowolnym wymiarze. Zastosowanie dla regresji liniowej i obciętego SVD. Notatnik (cz. 1), Notatnik (cz. 2 + Lista 4).
- (1h) Metoda gradientu dla prostych modeli regresji. Rekonstrukcja macierzy. Notatnik, addendum + Lista 5.
- (1h) Podstawy sieci neuronowych, implementacja w torch. Slajdy, notatnik.