Автор работы: Пользователь скрыл имя, 05 Марта 2014 в 14:40, реферат
Необходимо отметить, что нейронные сети завоевали большую популярность среди различных специалистов, в том числе и у экономистов. Несмотря на значительные достижения в области создания теории нейронных сетей существует потребность в теоретических разработках, опирающихся на математические модели, учитывающие экономическое содержание разрабатываемой проблемы исследования, а также в эмпирических исследованиях, посвященных практическому применению этих методов.
На сегодняшний день не существует никаких алгоритмов, с помощью которых можно было бы настроить параметры обучения под конкретную задачу: настройка производится методом проб и ошибок, и нет никакой гарантии, что в конце концов выбранные параметры настройки окажутся оптимальными.
В 1957 году Ф. Розенблатт предложил специальный тип однослойной нейронной сети, а через два года продемонстрировал созданное на её основе устройство, моделирующее человеческий глаз. Разработанное устройство, которое в качестве элементной базы имело модельные нейроны МакКаллока- Питтса, было названо персептроном. Ф. Розенблатту удалось обучить персептрон решению одной из сложнейших интеллектуальных задач, связанной с распознаванием букв латинского алфавита.
С целью обучения персептрона был построен итеративный алгоритм корректировки весов wi, с помощью которых конкретный входной распознаваемый образ трансформировался в требуемый выходной образ, а также была доказана сходимость данного алгоритма.
Рассмотрим принцип действия персептрона на примере классификации букв русского алфавита на гласные и согласные.
Рисунок 2. Персептрон, классифицирующий буквы на гласные и согласные
На рисунке 2, изображен простейший вариант исполнения персептрона, предназначенного для решения поставленной задачи классификации. Данный персептрон называется элементарным, поскольку использует только один нейрон МакКаллока-Питтса (Ne).
Задача персептрона, изображенного на рис. 2, заключается в том, чтобы формировать выходной сигнал y, равный единице, если на вход поступает гласная буква, и нулю, если согласная.
Для того, чтобы персептрон решал требуемую задачу он должен пройти режим обучения. Суть режима обучения заключается в настройке весов синаптических коэффициентов wi (i = 1,35) и w0 на совокупность входных образов решаемой задачи.
В отличие от используемого в традиционных компьютерах фон Неймановской архитектуры программирования алгоритма решения задачи в ИНС вместо программирования используется обучение. Основываясь на указаниях «учителя» процесс обучения в ИНС стимулирует желательные образцы активации (выходы) и блокирует нежелательные.
Обучающий набор данных для персептрона, представленного на рис. 2, должен состоять из образцов представления знаний, которым предлагается его обучить, т.е. из букв русского алфавита. В процессе обучения персептрону предъявляются эти буквы и анализируется его реакция у. Если, например, на вход персептрона поступает буква «А», а выходной сигнал у случайно оказался равным единице, означающей, что буква гласная, то корректировать веса не нужно. Однако если выход неправилен и у равен нулю, то следует увеличить веса тех активных входов, которые способствуют возбуждению персептрона. В конкретном случае (см. рисунок 2) следует увеличить веса w2, w3, w4 и др.
Одним из самых ранних и наиболее простых для обучения ИНС является алгоритм, основанный на правилах Д. Хебба. Алгоритм обучения Хебба представляет собой следующую последовательность шагов:
Шаг 1. [Инициализация]. Всем весам персептрона присваиваются некоторые малые случайные значения из диапазона [-0,1;+0,1].
Шаг 2. На вход персептрона подается текущий входной вектор X[t] = {x1 [t],x2[t],...,x35[t]} и вычисляется выход персептрона y.
Шаг 3. Если выход правильный, то перейти к шагу 2.
Шаг 4. [Первое правило Д. Хебба]. Если выход неправильный и равен нулю, то увеличить веса активных входов, например, в соответствии с формулами:
Шаг 5. [Второе правило Д. Хебба]. Если выход неправильный и равен единице, то уменьшить веса активных входов, например, в соответствии с формулами:
Шаг 6. Осуществляется переход на шаг 2 с новым входным вектором X[t+1] или процесс обучения завершается.
Нетрудно заметить, что алгоритм обучения Хебба во многом аналогичен практике обучения живых существ с помощью поощрения и наказания.
Каждый нейрон персептрона является формальным пороговым элементом, принимающим единичные значения в случае, если суммарный взвешенный вход больше некоторого порогового значения:
Таким образом, при заданных значениях весов и порогов, нейрон имеет определенное значение выходной активности для каждого возможного вектора входов. Множество входных векторов, при которых нейрон активен (y=1), отделено от множества векторов, на которых нейрон пассивен (y=0) гиперплоскостью, уравнение которой есть, суть:
Следовательно, нейрон способен отделить (иметь различный выход) только такие два множества векторов входов, для которых имеется гиперплоскость, отсекающая одно множество от другого. Такие множества называют линейно разделимыми.
Рассмотрим пример. Пусть имеется нейрон, для которого входной вектор содержит только две булевые компоненты (Х1.Х2), определяющие плоскость. На данной плоскости возможные значения векторов отвечают вершинам единичного квадрата. В каждой вершине определено требуемое значение активности нейрона 0 (белая точка) или 1 (черная точка). Требуется определить, существует ли такое такой набор весов и порогов нейрона, при котором этот нейрон сможет отделить точки разного цвета.
Белые точки не могут быть отделены одной прямой от черных. Требуемая активность нейрона для этого рисунка определяется таблицей, в которой не трудно узнать задание логической функции “исключающее или”.
X1 |
X2 |
Y |
0 |
0 |
0 |
1 |
0 |
1 |
0 |
1 |
1 |
1 |
1 |
0 |
Линейная неразделимость множеств аргументов, отвечающих различным значениям функции означает, что функция “исключающее или”, столь широко использующаяся в логических устройствах, не может быть представлена формальным нейроном. При возрастании числа аргументов относительное число функций, которые обладают свойством линейной разделимости резко уменьшается. А значит и резко сужается класс функций, который может быть реализован персептроном (так называемый класс функций, обладающий свойством персептронной представляемости).
Соответствующие данные приведены в следующей таблице:
Число переменных N |
Полное число возможных логических функций |
Из них линейно разделимых функций |
1 |
4 |
4 |
2 |
16 |
14 |
3 |
256 |
104 |
4 |
65536 |
1882 |
5 |
> 1000000000 |
94572 |
Видно, что однослойный персептрон крайне ограничен в своих возможностях для точного представления наперед заданной логической функции.
Сегодняшний уровень нейросетевого программного обеспечения и его инструментальные возможности выводят метод в ряд важнейших инструментов финансового инвестиционного анализа.
Информация о работе Нейронные сети. Однослойный персептрон. Линейная разделимость