Автор работы: Пользователь скрыл имя, 20 Января 2014 в 15:52, шпаргалка
Работа содержит ответы на вопросы для экзамена (зачета) по "Эконометрике"
2. Нестрогая (imperfect) мультиколлинеарность – наличие сильной линейной корреляционной связи между независимыми переменными (иногда также и зависимой).
В чем сущность проблемы мультиколлинеарности?
Корреляционные связи есть всегда. Проблема мультиколлинеарности – проблема силы проявления корреляционных связей.
Однозначных критериев мультиколлинеарности не существует.
Строгая мультиколлинеарность нарушает одно из основных правил Гаусса-Маркова и делает построение регрессии полностью невозможным.
Нестрогая мультиколлинеарность затрудняет работу, но не препятствует получению правильных выводов.
Каковы основные проявления и последствия мультиколлинеарности в регрессионном анализе?
Вводная информация:
2 вида мультиколлинеарности:
1) Строгая Мультиколлинеарность – наличие линейной функциональной связи между независимыми переменными (иногда также и зависимой)
2) Нестрогая мультиколлинеарность – наличие сильной линейной кореляционой связи между независимыми переменными (иногда также и зависимой)
Когда возникает мультиколлинеарность:
1. Ошибочное включение в уравнение двух или более линейно зависимых переменных
2. Две или более объясняющие переменные, в нормальной ситуации слабо коррелированные, становятся в конкретных условиях выборки сильно коррелированными.
3. В модель включается переменная, сильно коррелирующая с зависимой переменной (такая независимая переменная называется доминантной)
Последствия мультиколлинеарности
1. Оценки коэффициентов остаются несмещенными
2. Стандартные ошибки коэффициентов увеличиваются
3. Вычисленные t-статистики занижены.
4. Оценки становится
очень чувствительными к
5. Общее качество
уравнения, а также оценки
6. Чем ближе мультиколлинеарность к совершенной (строгой), тем серьезнее ее последствия.
Воп 33. Какова связь показателей
качества коэффициентов регрессии и показателей
качества уравнения в целом в случае множественной
регрессии?
В случае множественной регрессии t-тест и F-тест выполняют разные функции: t-тесты проверяют значимость коэффициента при каждой переменной по отдельности, в то время как F-тест проверяет их совместную объясняющую способность.
Вообще говоря, F-статистика будет значимой, если значима по крайней мере одна из t-статистик. Однако в принципе F-статистика может и не быть значимой в этом случае. Пример: Предположим, что вы оценили не имеющую смысла регрессию с 40 объясняющими переменными, каждая из которых не является действительным детерминантом зависимой переменной. В этом случае F-статистика должна оказаться достаточно низкой, чтобы гипотеза Н0 не была отвергнута. Однако если выполнить t-тесты для коэффициентов наклона на 5%-ном уровне, то в среднем можно ожидать, что 2 из 40 переменных будут иметь «значимые» коэффициенты.
В то же время может получиться, что F-статистика будет значимой при незначимости всех t-статистик. Пример: предположим, у вас имеется модель множественной регрессии, которая правильно специфицирована, и коэффициент детерминации высокий. Вероятно, что в этом случае F-статистика высоко значима. Однако если объясняющие переменные сильно коррелированны и модель подвержена сильной мультиколлинеарности, то стандартные ошибки коэффициентов наклона могут оказаться столь велики, что ни одна из t-статистик не будет значима.
Воп. 34. Фиктивные
переменные: определение, назначение,
типы.
В некоторых случаях, при повышении качества
моделей, возникает необходимость оценки
влияния качественных признаков на эндогенную
переменную (пр.: для ф-ии спроса – это
вкус потребителя, возраст, сезонность...).
Эти показатели нельзя представить в численном
виде. Поэтому используют фиктивные переменные
– переем-е с дискретным множеством значений,
которые образом описывают качественные
признаки. Обычно используются фиктивные
переменные бинарного типа «О—1»:
В общем случае, когда качественный признак
имеет более двух
значений, вводится несколько бинарных
переменных. При использовании нескольких
бинарных переменных необходимо исключить
линейную зависимость между переменными,
так как в противном случае, при оценке
параметров, это приведет к полной мультиколлинеарности.
Поэтому применяется следующее правило:
если качественная
переменная имеет к альтернативных значений,
то при моделировании используются только
к-1 фиктивная переменная.
В регрессионных моделях применяются
фиктивные переменные двух типов: переменные
сдвига и переменные наклона.
Воп. 35.
Построение линейной
регрессии в MS Exсel. Входные и выходные
параметры функции ЛИНЕЙН.
1. с помощью функции
ЛИНЕЙН: рассчитывает статистику для ряда
с применением метода наименьших квадратов,
чтобы вычислить прямую линию, которая
наилучшим образом аппроксимирует имеющиеся
данные. Функция возвращает массив, который
описывает полученную прямую. Поскольку
возвращается массив значений, функция
должна задаваться в виде формулы массива.
ЛИНЕЙН(известные_значения_y;
Входные данные:
-Известные_значения_y — множество значений
y, которые уже известны для соотношения
y = mx + b.
-Известные_значения_x — необязательное
множество значений x, которые уже известны
для соотношения y = mx + b.
-Конст — логическое значение, которое
указывает, требуется ли, чтобы константа
b была равна 0.
-Статистика — логическое значение, которое
указывает, требуется ли вернуть дополнительную
статистику по регрессии.
Выходные данные (в виде таблицы):
|
|
|
|
|
|
|
|
|
|
-выделяем 5 строк и 2 столбца
-Fx – мастер функций, статистич., ЛИНЕЙН.
известные знач-я Y – (#С2:С8).
Известные знач-я Х – (#В2:В8).
Const – (1-истина/0-ложь)
Статистика (1/0)
Ок…
^ -F2 CTRL+SHIFT+ENTER
2. сервис, анализ
данных, регрессия.
а) активизируем пакет стат анализа: сервис,
надстройки, пакет анализа, Ок…
б) сервис, анализ данных, регрессия:
Вх интервал Y
Вх интервал Х
Ок…