Автор работы: Пользователь скрыл имя, 20 Декабря 2010 в 20:07, курсовая работа
Целью выполнения курсового проекта является расширение теоретических и закрепление практических знаний, полученных в ходе аудиторных и самостоятельных занятий.
Для достижения поставленной цели необходимо решить следующие задачи:
•самостоятельное изучение специальной литературы
•изучение встроенных инструментальных средств системы для математических расчетов MATLAB
•рассмотрение возможностей и особенностей базового программного обеспечения из состава ППП Neural Network Toolbox (NNT) ПС MATLAB 6
•практическое применение ППП Neural Network Toolbox (NNT) ПС MATLAB 6 при проектировании вероятностной нейронной сети
Введение 3
1. Аналитическая часть
1.1 Содержательная и математическая постановка решаемой задачи 5
1.2 Краткое описание возможностей ПС MATLAB 6.1 и тулбокса NNT 12
1.3 Краткое описание возможностей и особенностей использования приложений Notebook 17
1.4 Требования к разрабатываемому приложению 22
2. Практическая часть 24
Заключение 29
Список использованных источников 30
epochs: The error dropped until it fell beneath the error goal (the black
line).
At that point training stopped.
Обучающая функция выводит обучаемую сеть и историю обучения. Здесь ошибки изображены относительно обучения эпохи: ошибка уменьшается до тех пор, пока не достигнет ошибочной цели (черная линия). В этой точке обучение останавливается.
plotperf(tr,net.trainParam.
Now use SIM to test the associator with one of the original inputs, -1.2, and
see if it returns the target, 1.0. The result is very close to 1, the target.
This could be made even closer by lowering the performance goal.
Теперь
используем функцию SIM, чтобы промоделировать
и протестировать сеть.
p = -1.2;
a = sim(net, p)
Заключение
Согласно общепринятому в науке принципу, если более сложная модель не дает лучших результатов, чем более простая, то из них следует предпочесть вторую. В терминах аппроксимации отображений самой простой моделью будет линейная, в которой подгоночная функция определяется гиперплоскостью. В задаче классификации гиперплоскость размещается таким образом, чтобы она разделяла собой два класса (линейная дискриминантная функция); в задаче регрессии гиперплоскость должна проходить через заданные точки. Линейная модель обычно записывается с помощью матрицы NxN и вектора смещения размера N.
На языке нейронных сетей линейная модель представляется сетью без промежуточных слоев, которая в выходном слое содержит только линейные элементы (то есть элементы с линейной функцией активации). Веса соответствуют элементам матрицы, а пороги - компонентам вектора смещения. Во время работы сеть фактически умножает вектор входов на матрицу весов, а затем к полученному вектору прибавляет вектор смещения.
В пакете ST Neural Networks имеется возможность создать линейную сеть и обучить ее с помощью стандартного алгоритма линейной оптимизации, основанного на псевдообратных матрицах (SVD) (Golub and Kahan, 1965). Разумеется, метод линейной оптимизации реализован также в модуле Множественная регрессия системы STATISTICA; однако, линейные сети пакета ST Neural Networks имеют то преимущество, что здесь Вы можете в единой среде сравнивать такие сети с "настоящими" нейронными сетями.
Линейная сеть
является хорошей точкой отсчета для оценки
качества построенных Вами нейронных
сетей. Может оказаться так, что задачу,
считавшуюся очень сложной, можно успешно
не только нейронной сетью, но и простым
линейным методом. Если же в задаче не
так много обучающих данных, то, вероятно,
просто нет оснований использовать более
сложные модели.
Список использованной литературы