Автор работы: Пользователь скрыл имя, 05 Декабря 2013 в 21:06, реферат
Обычно предполагается, что случайная величина Y имеет нормальный закон распределения с условным математическим ожиданием Y, являющимся функцией от аргументов Хj (j= 1,2,…k),и постоянной, не зависящей от аргументов дисперсией .
Регрессионный анализ. 2
Регрессионный анализ. 2
Регрессионная модель. 3
Задачи регрессионного анализа. 10
Понятие регрессионного анализа: результирующая (зависимая, эндогенная) переменная У и объясняющие (предикторные,
экзогенные) переменные Х, функция регрессии У по Х. 15
Возмущения 17
Список литературы 19
Рис. 3
Как следует из рис. 3, зона, где
расположены остатки, расширяется, поэтому
следует подобрать другую математическую
зависимость. Такие же выводы получены
при проверке на точность зависимости
между переменными по коэффициенту точности
выравнивания линии r1.
В матричной форме регрессионная модель имеет вид
Где – случайный вектор – столбец размерности (n×1) наблюдаемых значений результативного признака;
Х – матрица размерности [n×(k+1)] наблюдаемых значений аргументов;
– вектор-столбец размерности [(k+1) ×1] неизвестных, подлежащих оценке параметров (коэффициентов регрессии) модели;
– случайный вектор-столбец размерности (n×1) ошибок наблюдений (остатков). Компоненты вектора независимы между собой, имеют нормальный закон распределения с нулевым математическим ожиданием ( ) и неизвестной дисперсией ( ).
Так как в регрессионном анализе xij рассматривают как неслучайные величины, а , то уравнение регрессии имеет вид:
С помощью
уравнения регрессии y=ƒ(x1,x2,
Построение
уравнения регрессии
Первая задача заключается в выборе независимых переменных, оказывающих существенное влияние на зависимую величину, а также в определении вида уравнения регрессии.
Вторая задача построения уравнения регрессии – оценивание параметров (коэффициентов) уравнения. Она решается с помощью того или иного математического метода обработки данных. В связи с тем, что оценки параметров уравнения являются выборочными характеристиками, в процессе оценивания необходимо проводить статистическую проверку существенности полученных параметров.
Выбор уравнения
регрессии осуществляется в соответствии
с экономической сущностью
Наиболее простыми видами зависимости являются линейные, или приводимые к ним.
На практике чаще встречаются следующие виды уравнений регрессии:
Линейной с точки зрения регрессионного анализа называется - модель, линейная относительно неизвестных параметров βj.
Определить тип уравнения можно, исследуя зависимость графически. Однако существуют более общие указания, позволяющие выявить уравнение связи, не прибегая к графическому изображению. Если результативный и факторный признаки возрастают одинаково, примерно в арифметической прогрессии, то это свидетельствует о том, что связь между ними линейная, а при обратной связи – гиперболическая. Если результативный признак увеличивается в арифметической прогрессии, а факторный – значительно быстрее, то используется параболическая или степенная регрессии.
Оценка параметров уравнений регрессии (b0, b1 и b2 - в уравнении параболы второго порядка) осуществляется методом наименьших квадратов, в основе которого лежит предположение о независимости наблюдений исследуемой совокупности.
Основной принцип метода наименьших квадратов можно рассмотреть на следующем примере: считаем, что две величины (два показателя) X и Y взаимосвязаны между собой, причем Y находится в некоторой зависимости от Х. Следовательно, Y будет зависимой, а Х – независимой величинами.
Сущность метода наименьших квадратов заключается в нахождении параметров модели (b0, b1), при которых минимизируется сумма квадратов отклонений эмпирических (фактических) значений результативного признака от теоретических, полученных по выбранному уравнению регрессии:
S = Σ (Yi – Yx)² → min
Для прямой зависимости:
S = Σ (y – b0 – b1x)² → min
Откуда система нормальных уравнений для нахождения параметров линейной парной регрессии методом наименьших квадратов имеет следующий вид:
nb0 + b1Σx = Σy;
b0Σ + b1Σx² = Σxy,
где n – объем исследуемой совокупности (число единиц наблюдений).
В уравнениях регрессии параметр b0 показывает усредненное влияние на результативный признак неучтенных (не выделенных для исследования) факторов; параметр b1 (а в уравнении параболы и b2) – коэффициент регрессии показывает, насколько изменяется в среднем значение результативного признака при увеличении факторного на единицу собственного измерения.
Метод наименьших квадратов обладает тем замечательным свойством, что делает число нормальных уравнений равным числу неизвестных коэффициентов.
Применение метода наименьших квадратов объясняется неизбежным наличием случайных ошибок в результатах опыта.
Статистические данные обладают ошибками упрощения, которые возникают как следствие:
Решение
вопроса о возможности
Даже при сравнительно небольшом числе наблюдений применение метода наименьших квадратов позволяет получить достаточные оценки.
Метод наименьших квадратов также может быть использован в случаях проведения анализа косвенных наблюдений, являющихся функциями многих неизвестных.
Проверка адекватности моделей, построенных на основе уравнений регрессии, начинается с проверки значимости каждого коэффициента регрессии.
Gрасчетная=/å (6),
где – максимальная дисперсия,
å - суммарная дисперсия.
Если Gрасчетная ≤ Gтабл, то гипотеза об однородности принимается.
Значимость
коэффициентов регрессии
где σ²bi – дисперсия коэффициента регрессии.
Пример модели
признан статистически
tp > tтаьл
Проверка адекватности всей модели осуществляется с помощью расчета F-критерия и величины средней ошибки аппроксимации ε.
Значение F-критерия Фишера определяется по следующей формуле:
где yi – теоретические значения результативного признака, полученные по уравнению регрессии;
n – объем исследуемой совокупности;
к – число факторных признаков в модели.
Если Fp > Fά при ά = 0,05, то Н0 – гипотеза о несоответствии заложенных в уравнении регрессии связей реально существующим – отвергается.
2. Понятия регрессионного анализа: результирующая (зависимая, эндогенная) переменная У и объясняющие (предикторные, экзогенные), переменные Х, функция регрессии у по Х
Результирующая (зависимая, эндогенная) переменная (или признак) y характеризует результат или эффективность функционирования анализируемой экономической модели (системы). Ее значения формируются в процессе и внутри функционирования системы под воздействием ряда других переменных и факторов, часть из которых поддается регистрации и, в определенной степени, управлению и планированию (эту часть принято называть объясняющими переменными). В регрессионном анализе результирующая переменная выступает в роли функции, значения которой определяются (правда, с некоторой случайной погрешностью) значениями упомянутых выше объясняющих переменных, выступающих в роли аргументов. Поэтому по своей природе результирующая переменная – всегда случайная величина.
Объясняющие (экзогенные) переменные (или признаки) – поддающиеся регистрации, описывающие условия функционирования системы (модели) – в существенной мере определяют процесс формирования значений результирующей переменной, как правило, часть из которых поддается хотя бы частичному управлению и регулированию. Значение ряда объясняющих переменных задается как бы извне анализируемой системы, их принято называть экзогенными переменными. В регрессионном анализе они играют роль аргументов той функции, в качестве которой рассматривается анализируемый результирующий показатель y. По своей природе объясняющие переменные могут быть как случайными, так и не случайными величинами.
Функция регрессии y по X называется зависимость у = f ( ), если она описывает изменения условного среднего значения результирующей переменной y (при условии, что значения объясняющих переменных X, зафиксированных на уровне ) в зависимости от изменения значений объясняющих переменных. Математически это определение можно записать в виде
f (
или в целях упрощения
f (х) = M (y | X) (9).
3.Возмущения
В регрессионном
анализе рассматривается одност
Рассмотрим линейный регрессионный
анализ, для которого функция ф(х) линейна относительно
оцениваемых параметров:
(10)
Предположим, что для оценки параметров
линейной функции регрессии (10) взята выборка,
содержащая п пар значений переменных (xi ,пi), где i=1,2,..., п.
В этом случае линейная парная регрессионная модель имеет вид:
(11)
Отметим основные предпосылки регрессионного
анализа:
1. Зависимая переменная уi,- (или
возмущения ε) есть величина случайная,
а объясняющая переменная xi — величина неслучайная.
2. Математическое ожидание возмущения
εi равно нулю M(εi)= 0. (12)
3. Дисперсия зависимой переменной уi,
(или возмущения εi ) постоянна для любогоD(εi )=σ2 (13)
4. Переменные уi,и уj (или возмущения
ε и εi ) не коррелированы:
M(εεi )=0(14)
5. Зависимая переменная уi, (или возмущение
εi,) есть нормально распределенная
случайная величина.
Для получения уравнения регрессии достаточно
первых четырех предпосылок. Требование
выполнения пятой предпосылки (т.е. рассмотрение «нормальной
регрессии») необходимо для оценки точности уравнения
регрессии и его параметров. Оценкой модели
(11) по выборке является уравнение регрессии
ух=Ьо+Ь1x (15). Параметры этого уравнения Ь0 и Ь определяются
на основе метода наименьших квадратов.
Воздействие неучтенных случайных факторов
и ошибок наблюдений в модели (11) определяется
с помощью остаточной дисперсии σ2.
Оценкой этой дисперсии является выборочная
остаточная дисперсия
(16)
где уxi, — групповая средняя, найденная по уравнению регрессии; еi = уxi - уi,, — выборочная оценка возмущения е.