Автор работы: Пользователь скрыл имя, 10 Декабря 2013 в 16:04, реферат
Линейный коэффициент парной корреляции наиболее точно характеризует тесноту связи при линейной зависимости между факторным и результативным признаками.
где sx - среднее квадратическое отклонение факторного признака;
sy - среднее квадратическое отклонение результативного признака;
- среднее из произведений значений х и у.
Показатели тесноты связи между факторами, пределы изменений.
Важнейшей задачей корреляционно-
Линейный коэффициент парной корреляции наиболее точно характеризует тесноту связи при линейной зависимости между факторным и результативным признаками.
где sx - среднее квадратическое отклонение факторного признака;
sy - среднее квадратическое отклонение результативного признака;
- среднее из произведений значений х и у.
Линейный коэффициент корреляции находится и границах: -1≤.rxy ≤ 1. При этом чем ближе r к 0 тем слабее корреляция и наоборот чем ближе r к 1 или -1, тем сильнее корреляция, т.е. зависимость х и у близка к линейной. Если r в точности =1 или -1 все точки лежат на одной прямой. Если коэффициент регрессии b>0, то 0 ≤.rxy ≤ 1 и наоборот при b<0 -1≤.rxy ≤0.
Для оценки качества подбора линейной функции рассчитывается квадрат линейного коэффициента корреляции , называемый коэффициентом детерминации. Коэффициент детерминации характеризует долю дисперсии результативного признака y, объясняемую регрессией. Соответствующая величина характеризует долю дисперсии у, вызванную влиянием остальных не учтенных в модели факторов.
Теоретическое корреляционное отношение (индекс корреляции) характеризует долю общей вариации результативного признака, объясняемую на основе выбранного уравнения связи результативного и факторного признаков.
Представляет собой корреляционное отношение, вычисленное на основании результатов выравнивания ух по некоторой линии (как прямой, так и кривой).
Величина данного показателя находится в границах: 0 ≤ R ≤ 1, чем ближе к 1, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.
В том случае, если R = 0, связи между переменными нет. Применяется условная шкала для оценки тесноты связи:
до 0,3 — слабая связь;
0,3 - 0,7 — средняя (умеренная);
0,7 - 1,0 — сильная связь.
Индекс множественной корреляции используется для измерения тесноты связи между результативным признаком и двумя или несколькими факторными признаками
где - остаточная дисперсия.
Значение индекса
При линейной зависимости
коэффициент множественной
где -определитель матрицы парных коэффициентов корреляции;
-определитель матрицы
Частные коэффициенты (или индексы) корреляции, измеряющие влияние на у фактора хi при неизменном уровне других факторов, можно определить по формуле
или по рекуррентной формуле
Частные коэффициенты корреляции изменяются в пределах от -1 до 1.
Качество построенной модели в целом оценивает коэффициент (индекс) детерминации. Коэффициент множественной детерминации рассматривается как квадрат индекса множественной корреляции:
Скорректированный индекс множественной детерминации содержит поправку на число степеней свободы и рассчитывается по формуле
где n- число наблюдений; m- число факторов.
Используемые показатели тесноты связи были получены исследователями, занимавшимися статистической обработкой фактических материалов. Они были получены ранее, чем открыт метод корреляции.
1. Коэффициент Фехнера.
Основан на применении первых степеней отклонений всех значений взаимосвязанных признаков от средней величины по каждому признаку и равен:
i=(Sa-Sb)/(Sa+Sb)
a - совпадение знаков отклонений;
b - несовпадение знаков отклонений;
Sa - количество совпадений знаков отклонений;
Sb - количество несовпадений знаков отклонений;
0,0 - не учитывается;
0+, 0- - не учитывается.
2. Коэффициент Спирмена (коэффициент корреляционных рангов).
Теснота связи между
двумя количественными
Ранг - это порядковый номер элемента в ранжированном (упорядоченном) ряду признаков.
r=1-6Sdi2/n(n2-1), где
di2 - квадрат разности рангов;
di2=(Rx-Ry)2;
n - число наблюдений.
Пример:
х |
y |
Rx |
Ry |
Rx-Ry [di] |
(Rx-Ry)2 [di2] |
6 |
20 |
1 |
1 |
0 |
0 |
7 |
21 |
2 |
2 |
0 |
0 |
9 |
22 |
3 |
3 |
0 |
0 |
11 |
23 |
4 |
5 |
-1 |
1 |
13 |
22,5 |
5 |
4 |
1 |
1 |
16 |
24 |
6 |
6 |
0 |
0 |
18 |
25,6 |
7 |
9 |
-2 |
4 |
19 |
24,7 |
8 |
7 |
1 |
1 |
21 |
25 |
9 |
8 |
1 |
1 |
22 |
27 |
10 |
10 |
0 |
0 |
Sdi2=8
r=1-6Sdi2/n(n2-1)=1-6*8/10(
3. Коэффициент контингенции.
Мера тесноты двух качественных признаков состоит из двух групп. для вычисления этого показателя строится корреляционная таблица, которая отражает связь между двумя явлениями, каждое из которых в свою очередь должно быть альтернативным, т.е. состоять из двух качественных, отличных друг от друга значений признаков.
Пример:
Удобрено | |||
Урожайност |
Хорошо |
Плохо |
Всего |
Высокая |
a=25 |
b=4 |
a+b=29 |
Низкая |
c=8 |
d=13 |
c+d=21 |
Всего |
a+c=33 |
b+d=17 |
K=(25*13-4*8)/Ö33*17*29*21=0,5 - связь прямая, достаточно тесная.
Коэффициент контингенции имеет знак "-", если ad<bc, при этом связь обратная.
4. Коэффициент ассоциации
A=(ad-bc)/(ad+bc)
Коэффициент контингенции всегда меньше коэффициента ассоциации.
Связь считается подтвержденной, если А³0,5, К³0,3. По предыдущему примеру, А=0,82 - связь подтвержденная и тесная.
6. Коэффициент взаимной сопряженности
Его рассчитали Пирсон и Чупров.
Это мера тесноты связи для двух качественных признаков, каждый из которых состоит более, чем из двух групп. Коэффициент имеет следующий вид:
- коэффициент Пирсона;
- коэффициент Чупрова,
где j2 - показатель взаимной сопряженности;
К1 - число значений первого признака
К2 - число значений второго признака.
j2=S(f2xy/fxfy)-1
Для исчисления j2 определяется сумма отношений квадратов частот каждой клетки корреляционной таблицы, изображающей связь качественных признаков, к произведению соответствующих частот каждого столбца и строки. Вычтя из этой суммы единицу получим j2.
Пример:
Полив | ||||
Урожай |
Низк |
Сред |
Хорош |
Всег |
Низкий |
18 |
12 |
10 |
40 |
Средний |
10 |
15 |
15 |
40 |
Высокий |
2 |
13 |
25 |
40 |
Всего |
30 |
40 |
50 |
120 |
1+j2=S(а2чн.ачан)=182.30*40+12
Список литературы:
Информация о работе Показатели тесноты связи между факторами, пределы изменений