Strona wykładu Sztuczna inteligencja w semestrze letnim 2025/2026

Informacje o wykładzie i zasady zaliczania
Listy zadań

Środowisko

Przydatne linki

Literatura do wykładu

  1. Müller, Andreas C., Sarah Guido — Introduction to machine learning with Python: a guide for data scientists.
  2. Matthes, Eric. — Python crash course: A hands-on, project-based introduction to programming.
  3. Raschka, Sebastian, Yuxi Hayden Liu, and Vahid Mirjalili — Machine Learning with PyTorch and Scikit-Learn: Develop machine learning and deep learning models with Python.

Omówiony materiał

  1. (2h) Wprowadzenie do pojęć uczenia maszynowego: dane treningowe, model, trening. k-Nearest Neighbors jako przykład modelu klasyfikacyjnego: implementacja "ręczna" (numpy) i z użyciem scikit-learn. Materiały.
  2. (2h) Uzupełnienie opisu k-Nearest Neighbors. Słowniki w Pythonie. Przykłady modeli: regresja liniowa, klasyfikator logistyczny, drzewa decyzyjne (z implementacją przy użyciu sklearn). Materiały.
  3. (1h) Elementarz algebry liniowej; pojęcie przestrzeni, wymiaru, wektora. Wstęp do przekształceń liniowych. Slajdy.
  4. (2h) Przykłady przekształceń liniowych. Macierze przekształceń liniowych, mnożenie macierzy. TruncatedSVD użyty jako narzędzie do redukcji wymiaru. Slajdy, notatnik.
  5. (1h) Monochromatyczne obrazy jako punkty danych. Przykład klasyfikatora na danych po redukcji wymiaru. Notatnik.
  6. (1h) Pochodna i gradient funkcji (nieformalnie), zastosowania w metodach gradientowych znajdowania lokalnych minimów i maksimów funkcji. Materiały.
  7. (2h) Metoda gradientu w dowolnym wymiarze. Zastosowanie dla regresji liniowej i obciętego SVD. Notatnik (cz. 1), Notatnik (cz. 2 + Lista 4).
  8. (1h) Metoda gradientu dla prostych modeli regresji. Rekonstrukcja macierzy. Notatnik, addendum + Lista 5.
  9. (1h) Podstawy sieci neuronowych, implementacja w torch. Slajdy, notatnik.