Автор работы: Пользователь скрыл имя, 13 Декабря 2013 в 09:54, курсовая работа
Цель курсовой работы заключается в проведении статистического исследования основной тенденции динамики социально-экономических явлений.
На основании поставленной цели необходимо рассмотреть следующие задачи:
– понятие и сущность социально-экономических явлений;
– понятие, формы и виды статистических показателей социально-экономических явлений;
ВВЕДЕНИЕ 3
ГЛАВА 1. ТЕОРЕТИЧЕСКИЕ АСПЕКТЫ СТАТИСТИЧЕСКОГО ИССЛЕДОВАНИЯ СОЦИАЛЬНО-ЭКОНОМИЧЕСКИХ ЯВЛЕНИЙ 5
1.1. Понятие и сущность социально-экономических явлений в статистике 5
1.2. Понятие, формы и виды статистических показателей 9
1.3. Социально-экономическое прогнозирование: предмет, методы и типология прогнозов 12
ГЛАВА 2. СТАТИСТИЧЕСКОЕ ИЗУЧЕНИЕ КОРРЕЛЯЦИОННО-РЕГРИССИОННОГО АНАЛИЗА 16
2.1. Понятие корреляционно-регрессионной зависимости 16
2.2. Множественная регрессия 20
2.3. Множественная корреляция 28
ГЛАВА 3. ПРАКТИЧЕСКОЕ ИСПОЛЬЗОВАНИЕ КОРРЕЛЯЦИОННО-РЕГРЕССИОННОГО АНАЛИЗА СОЦИАЛЬНО-ЭКОНОМИЧЕСКИХ ЯВЛЕНИЙ В РОССИИ 33
ЗАКЛЮЧЕНИЕ 50
СПИСОК ИСПОЛЬЗОВАННОЙ ЛИТЕРАТУРЫ 52
Такие связи можно обнаружить только при массовом наблюдении как статистические закономерности (на основе изучения особенностей распределения, поведения средних и других показателей). Выявленная таким образом связь именуется стохастической или статистической[10].
Корреляционная связь — понятие более узкое, чем статистическая связь, это, как уже говорилось, частный случай статистической (стохастической) связи[2].
Предметом изучения статистики являются в основном стохастические, корреляционные связи.
Слово «корреляция» (от английского correlation) означает соотношение, соответствие. Оно удачно отражает особенность зависимости, при которой определенному значению одного факторного признака может соответствовать несколько значений результативного показателя. На основе этих значений можно определить среднюю величину последнего, соответствующую каждому конкретному значению одного факторного признака или ряда признаков.
Связь,
проявляющаяся при большом
При изучении множественной корреляции вводится еще понятие частной корреляции, под которой понимается зависимость между результативным показателем у и одним из факторных признаков х. в условиях, когда влияние на них остальных факторов, учитываемых на фиксированном уровне, устранено[10].
По характеру изменений х и у в парной корреляции различают прямую и обратную связь.
При прямой зависимости значения обоих признаков изменяются в одном направлении, т.е. с увеличением значений х увеличиваются и значения у, с уменьшением значений факторного признака уменьшаются и значения результативного признака. Например, с ростом годового дохода в семье увеличивается (при прочих равных условиях) сумма сбережений за год или при уменьшении расхода электроэнергии на единицу продукции снижается себестоимость продукции.
При обратной зависимости значения факторного и результативного признаков изменяются в разных направлениях: например, при росте производительности труда себестоимость единицы продукции снижается или при снижении себестоимости продукции прибыль на предприятиях увеличивается и т.п.
Изучение корреляционных связей сводится в основном к решению следующих задач[5]:
Последовательность рассмотрения перечисленных задач, естественно, может меняться в каждом конкретном исследовании.
Таким образом, корреляционная зависимость между двумя признаками как частный случай стохастической связи выражается в вариации результативного признака у, вызванной изменением определенного факторного признака х в условиях взаимодействия его с множеством других факторов, не учитываемых при исследовании, но имеющихся в реальности.
Для выявления наличия и характера такой связи в статистике используется ряд методов: рассмотрение параллельных данных (значений х и у в каждой из п единиц); графический метод; метод аналитических группировок и корреляционных таблиц; расчет коэффициентов корреляции.
Регрессионный анализ, по-видимому, наиболее широко используемый метод многомерного статистического анализа. Различные аспекты регрессионного анализа подробно рассмотрены в специальной литературе. Термин «множественная регрессия» объясняется тем, что анализу подвергается зависимость одного признака (результирующего) от набора независимых (факторных) признаков. Разделение признаков на результирующий и факторные осуществляется исследователем на основе содержательных представлений об изучаемом явлении (процессе). Все признаки должны быть количественными (хотя допускается и использование дихотомических признаков, принимающих лишь два значения, например 0 и 1)[10].
Для корректного использования регрессионного анализа требуется выполнение определенных условий. Факторные признаки должны быть некоррелированы (отсутствие мультиколлинеарности), они предполагаются замеренными точно и в их измерениях нет автокорреляции, т.е. значения признаков у одного объекта не должны зависеть от значений признаков у других объектов. Результирующий признак должен иметь постоянную дисперсию (Напомним определения основных показателей рассеяния (разброса) количественных признаков: дисперсии (D), среднеквадратического отклонения (σ) и коэффициента вариации (V).
здесь n - число объектов; xj- значение признака xn для j -го объекта; - среднее значение признака X. .
Чем сильнее степень разброса значений признака X, тем больше значения D, σ и V , Коэффициент вариации V - сопоставимая величина для признаков разной природы, его значения выражаются в процентах.
При изучении связей таких признаков можно корректно вычислить выборочные оценки, построить доверительные интервалы.), не зависящую от факторных признаков (наличие гомоскепастичности). Число объектов должно превосходить число признаков в несколько раз, чтобы параметры уравнения множественной регрессии были статистически надежными. Исследуемая совокупность должна быть в достаточной мере качественно однородной. Существенные нарушения этих условий приводят к некорректному использованию моделей множественной регрессии.
При построении регрессионных моделей
прежде всего возникает вопрос о
виде функциональной зависимости, характеризующей
взаимосвязи между
Чаще всего ограничиваются линейной регрессией, т.е. зависимостью вида[9]:
где Y - результирующий признак; x1, …, xm - факторные признаки; b1,…,bm - коэффициенты регрессии; а - свободный член уравнения; - ''ошибка" модели.
Уравнение (2) является линейным по коэффициентам bj и в общем случае нелинейным по признакам Xj, где j=1,2,…,m (в уравнении (2) вместо Xj могут стоять Xj2 log Xj и т.д.). Вопрос о том, нужны ли преобразования исходных факторов Xj, а если нужны, то какие, подробно рассматривается в литературе. Наиболее распространенным на практике является логарифмическое преобразование (log X). Его используют, если наибольшее значение Х вдвое (или больше) превышает наименьшее при высокой корреляции между Х и Y (rXY>0,9). Если максимальное значение X в 20 или более раз превосходит минимальное, то это преобразование необходимо почти всегда.
В большинстве приложений регрессионной модели (2) признаки берут в исходном виде, т.е. уравнение (2) получается линейным и по признакам X1,...,Xm. При использовании нелинейных преобразований исходных признаков регрессионную модель (2) нередко называют нелинейной регрессией.
Коэффициенты регрессии bj определяются таким образом, чтобы рассогласования ε, характеризующие степень приближения реальных значений результирующего признака Y с помощью линейной модели были минимальными, Это достигается на основе метода наименьших квадратов[9].
Если уравнение множественной регрессии (2) уже построено, то в вариации результирующего признака Y можно выделить часть, обусловленную изменениями факторных признаков, т.е. объясненную с помощью регрессионной модели, и остаточную, необъясненную часть. Очевидно, чем большую часть вариации признака V объясняет уравнение регрессии, тем точнее по значениям факторных признаков можно восстановить значение результирующего, и, следовательно, тем теснее связь между ними. Естественной мерой тесноты этой связи служит отношение дисперсии признака Y, объясненной регрессионной моделью, к общей дисперсии признака Y :
Величина R называется коэффициентом
множественной корреляции и определяет
степень тесноты связи
Укажем содержательный смысл коэффициентов bj, в уравнении множественной линейной регрессии (I): величина bj - показывает, насколько в среднем изменяется результирующий признак Y при увеличении соответствующего фактора Xj на единицу шкалы его измерения при фиксированных (постоянных) значениях других факторов, входящих в уравнение регрессии (т.е. оценивается «чистое» воздействие каждого фактора на результат).
Из этого определения следует, что коэффициенты регрессии bj непосредственно не сопоставимы между собой, так как зависят от единиц измерения факторов Xj. Чтобы сделать эти коэффициенты сопоставимыми, все признаки выражают в стандартизированном масштабе[10]:
где и , - средние значения признаков Y и Xj, σY и σXi средние квадратичные отклонения признаков Y и Xi.
Уравнение множественной регрессии, построенное с использованием стандартизованных признаков, называется стандартизованным уравнением регрессии, а соответствующие коэффициенты регрессии - стандартизованными, или β (бэта) – коэффициентами. Между коэффициентами Вj и βi- существует простая связь[9]:
Стандартизованный коэффициент регрессии βi показывает, на сколько средних квадратичных отклонений σY изменяется Y при увеличении Xj – на одно среднеквадратическое отклонение , если остальные факторы, входящие в уравнение регрессии считать неизменными.
Сопоставление факторов можно проводить и не на основе β –коэффициентов, а по их «вкладу» в объясненную дисперсию.
В том случае, когда модель множественной регрессии строится для выборочной совокупности, необходимо проверять значимость коэффициентов регрессии Вj (с этой целью используется t -критерий Стыодента), а также коэффициента множественной корреляции R (этой цели служит F-критерий Фишера). С помощью F-критерия осуществляется проверка достоверности и соблюдения условий, которым должна удовлетворять исходная информация в уравнении множественной регрессии.
Указанные критерии математической статистики
используют и при изучении взаимосвязей
признаков в генеральной
Данный подход к оценке результатов сплошного наблюдения последовательно излагается в литературе по математической статистике. Его широко используют на практике, в частности для отсева незначимых по t-статистике факторов. Здесь необходимо отметить, что этот метод проверки существенности факторов заслуживает доверия лишь в тех случаях, когда признаки-факторы не коррелированы (или весьма слабо коррелированны), что зачастую невыполнимо на практике. В моделях множественной регрессии с взаимокоррелированными признаками возможны ситуации, когда t -критерий будет давать ложные результаты, указывая на статистическую незначимость признаков, в действительности существенно влияющих на результирующий признак[5].