- Nazwa przedmiotu:
- Sieci neuronowe
- Koordynator przedmiotu:
- Andrzej PACUT
- Status przedmiotu:
- Fakultatywny ograniczonego wyboru
- Poziom kształcenia:
- Studia II stopnia
- Program:
- Informatyka
- Grupa przedmiotów:
- Przedmioty techniczne - zaawansowane
- Kod przedmiotu:
- SNR
- Semestr nominalny:
- 4 / rok ak. 2015/2016
- Liczba punktów ECTS:
- 5
- Liczba godzin pracy studenta związanych z osiągnięciem efektów uczenia się:
- 30 - wykład,
30 - realizacja zadania projektowego,
15 - samodzielne przygotowywanie się do wykładu i projektu.
- Liczba punktów ECTS na zajęciach wymagających bezpośredniego udziału nauczycieli akademickich:
- 4
- Język prowadzenia zajęć:
- polski
- Liczba punktów ECTS, którą student uzyskuje w ramach zajęć o charakterze praktycznym:
- 2
- Formy zajęć i ich wymiar w semestrze:
-
- Wykład30h
- Ćwiczenia0h
- Laboratorium0h
- Projekt30h
- Lekcje komputerowe0h
- Wymagania wstępne:
- Na poziomie kursu akademickiego dla studiów technicznych:
- Analiza matematyczna
- Probabilistyka
- Programowanie
- Limit liczby studentów:
- Cel przedmiotu:
- Celem przedmiotu jest prezentacja sztucznych sieci neuronowych, jako narzędzi do:
- klasyfikacji,
- aproksymacji funkcji,
- modelowania układów dynamicznych,
- optymalizacji kombinatorycznej.
Prezentacji towarzyszy wprowadzenie do teorii, która stoi za działaniem sztucznych sieci neuronowych.
- Treści kształcenia:
- 1. Perceptron Rosenblatta
2. Zagadnienie podziału na wiele klas i separowalności liniowej
3. Maszyna wektorów podpierających
4. Neuron liniowy
5. Aproksymacja funkcji
6. Uczenie sieci neuronowych
7. Propagacja zwrotna gradientu ogólnie
8. Propagacja zwrotna w perceptronie wielowarstwowym
9. Zagadnienie jakości aproksymacji
10. Procesy dynamiczne w sieciach neuronowych
11. Neuronowa aproksymacja systemów dynamicznych
12. Własności asymptotyczne sieci dynamicznych
13. Sieci stochastyczne
- Metody oceny:
- 50% - egzamin
50% - zadanie projektowe
- Egzamin:
- tak
- Literatura:
- Haykin, Simon (1999). Neural Networks. A Comprehensive Foundation. Second Edition. Upper Saddle River, New Jersey, USA: Prentice Hall, Inc.
Nigrin, A. (1993). Neural Networks for Pattern Recognition. Cambridge, MA: MIT Press.
Zurada, Jacek M. (1992). Introduction To Artificial Neural Systems. Boston: PWS Publishing Company.
Minsky, Marwin L. i Seymour A. Papert (1969). Perceptrons. Cambridge, Massachusetts: MIT Press. Also available: Expanded Edition, MIT Press, Cambridge, Ma., 1988.
Cristianini, N. i J. Shave-Taylor(2001). An Introduction to Support Vector Machines. Cambridge, UK: Cambridge University Press.
Widrow, Bernard i M.A. Lehr (1990). “30 years of adaptive neural networks: perceptron, madaline, and backpropagation”. W: Proceedings of IEEE 78.9.
- Witryna www przedmiotu:
- Uwagi:
Efekty uczenia się
Profil ogólnoakademicki - wiedza
- Efekt
- Uczestnik zajęć nabywa wiedzę w następujących obszarach:
- podstawowe zagadnienia związane z budową i funkcjonowaniem naturalnych sieci neuronowych
- podział dziedziny na klasy (klasyfikacja), struktury służące do klasyfikacji i ograniczenia na jakość klasyfikacji
- aproksymacja funkcji, struktury służące do tego i ograniczenia jakości
- propagacja zwrotna gradientu w sieciach neuronowych
- metody uczenia sieci neuronowych
- procesy dynamiczne w sieciach neuronowych
- własności asymptotyczne dynamicznych sieci neuronowych
- zasady działania sieci stochastycznych
Weryfikacja: Egzamin
Powiązane efekty kierunkowe:
K_W04
Powiązane efekty obszarowe:
T2A_W02
Profil ogólnoakademicki - umiejętności
- Efekt
- Uczestnik zajęć nabywa następujące umiejętności:
- zaprojektowanie i implementacja uczącego się klasyfikatora neuronowego,
- zaprojektowanie i implementacja klasyfikatora typu maszyna wektorów wspierających,
- zaprojektowanie i implementacja neuronowego aproksymatora funkcji,
- implementacja algorytmów uczenia się sieci neuronowych,
- wykorzystanie sieci neuronowej do modelowania systemu dynamicznego,
- implementacja metod optymalizacji takich jak symulowane wyżarzanie i maszyny Boltzmanna.
Weryfikacja: Realizacja zadania projektowego
Powiązane efekty kierunkowe:
K_U01, K_U03, K_U04, K_U09, K_U13
Powiązane efekty obszarowe:
T2A_U01, T2A_U03, T2A_U05, T2A_U11, T2A_U18