Методы, основанные на критерии автоинформативности системы признаков

Автор работы: Пользователь скрыл имя, 18 Сентября 2013 в 16:56, реферат

Краткое описание

Формальные алгоритмы рассматриваемой группы методов непосредственно не оперируют обучающей информацией о требуемом значении диагностируемой переменной. В то же время эта информация в неявном виде всегда присутствует в экспериментальных данных. Она закладывается на самом первом этапе конструирования психодиагностического теста, когда экспериментатор формирует исходное множество признаков, каждый из которых, по его мнению, должен отражать определенные аспекты тестируемого свойства. При этом под отражением данного свойства отдельным признаком, как правило, понимается самый простой вид связи признака с диагностируемым показателем — корреляция xi с у. Если тестируемое свойство гомогенно, то имеются все основания полагать, что мерой информативности для окончательного отбора признаков может служить степень согласованного действия этих признаков в нужном направлении.

Прикрепленные файлы: 1 файл

эконометрика.doc

— 50.00 Кб (Скачать документ)

2. Методы, основанные на критерии автоинформативности системы признаков

Формальные алгоритмы  рассматриваемой группы методов  непосредственно не оперируют обучающей  информацией о требуемом значении диагностируемой переменной. В то же время эта информация в неявном виде всегда присутствует в экспериментальных данных. Она закладывается на самом первом этапе конструирования психодиагностического теста, когда экспериментатор формирует исходное множество признаков, каждый из которых, по его мнению, должен отражать определенные аспекты тестируемого свойства. При этом под отражением данного свойства отдельным признаком, как правило, понимается самый простой вид связи признака с диагностируемым показателем — корреляция xi с у. Если тестируемое свойство гомогенно, то имеются все основания полагать, что мерой информативности для окончательного отбора признаков может служить степень согласованного действия этих признаков в нужном направлении. 
 
Внутренняя согласованность заданий теста является важной категорией методов, опирающихся на критерий автоинформативности системы признаков. Согласованность измеряемых реакций испытуемых на тестовые стимулы означает то, что они должны иметь статистическую направленность на выражение общей, главной тенденции теста. Геометрическая структура экспериментальных данных, сформированных под влиянием кумулятивного эффекта согласованного взаимодействия признаков, в несколько идеализированном варианте выглядит как облако точек в пространстве признаков, вписывающееся в гиперэллипсоид. Все пары признаков при такой структуре имеют статистически значимые корреляции, а уравнение главной оси гиперэллипсоида — есть линейная диагностическая модель тестируемого свойства. 
 
На приведенных представлениях базируются практически все методы построения психодиагностических тестов, опирающиеся на критерий автоинформативности системы признаков и использующие категорию внутренней согласованности заданий теста. Ниже будут рассмотрены основные методы этой группы.

Метод главных  компонент

Метод главных  компонент (МГК) был предложен Пирсоном в 1901 году и затем вновь открыт и детально разработан Хоттелингом /1933/. Ему посвящено большое количество исследований, и он широко представлен в литературных источниках, обратившись к которым можно получить сведения о методе главных компонент с различной степенью детализации и математической строгости (например, Айвазян С. А. и др., 1974, 1983, 1989). В данном разделе не ставится цель добиться подробного изложения всех особенностей МГК. Сконцентрируем свое внимание на основных феноменах метода главных компонент. 
 
Метод главных компонент осуществляет переход к новой системе координат y1,...,ур в исходном пространстве признаков x1,...,xкоторая является системой ортнормированных линейных комбинаций

где m— математическое ожидание признака xi. Линейные комбинации выбираются таким образом, что среди всех возможных линейных нормированных комбинаций исходных признаков первая главная компонента у1(х) обладает наибольшей дисперсией. Геометрически это выглядит как ориентация новой координатной оси увдоль направления наибольшей вытянутости эллипсоида рассеивания объектов исследуемой выборки в пространстве признаков x1,...,xp. Вторая главная компонента имеет наибольшую дисперсию среди всех оставшихся линейных преобразований, некоррелированных с первой главной компонентой. Она интерпретируется как направление наибольшей вытянутости эллипсоида рассеивания, перпендикулярное первой главной компоненте. Следующие главные компоненты определяются по аналогичной схеме. 
 
Вычисление коэффициентов главных компонент wij основано на том факте, что векторыwi= (w11,...,wpl)', ... ,w= (w1p, ... ,wpp)' являются собственными (характеристическими) векторами корреляционной матрицы S. В свою очередь, соответствующие собственные числа этой матрицы равны дисперсиям проекций множества объектов на оси главных компонент. 
 
Алгоритмы, обеспечивающие выполнение метода главных компонент, входят практически во все пакеты статистических программ.

Факторный анализ

В описанном  выше методе главных компонент под  критерием автоинформативности  пространства признаков подразумевается, что ценную для диагностики информацию можно отразить в линейной модели, которая соответствует новой  координатной оси в данном пространстве с максимальной дисперсией распределения проекций исследуемых объектов. Такой подход является продуктивным, когда явное большинство заданий «чернового» варианта теста согласованно «работает» на проявление тестируемого свойства и подавляет влияние иррелевантных факторов на распределение объектов. Также положительный результат будет получен при сравнительно небольшом объеме группы связанных информативных признаков, но при несогласованном взаимодействии посторонних факторов, под влиянием которых не нарушается однородность эллипсоида рассеивания, а лишь уменьшается вытянутость распределения объектов вдоль направления диагностируемой тенденции. В отличие от метода главных компонент факторный анализ основан не на дисперсионном критерии автоинформативности системы признаков, а ориентирован на объяснение имеющихся между признаками корреляций. Поэтому факторный анализ применяется в более сложных случаях совместного проявления на структуре экспериментальных данных тестируемого и иррелевантного свойств объектов, сопоставимых по степени внутренней согласованности, а также для выделения группы диагностических показателей из общего исходного множества признаков. 
 
Основная модель факторного анализа записывается следующей системой равенств /Налимов В. В., 1971/

То есть полагается, что значения каждого признака xмогут быть выражены взвешенной суммой латентных переменных (простых факторов) fi, количество которых меньше числа исходных признаков, и остаточным членом εс дисперсией σ2i), действующей только на xi, который называют специфическим фактором. Коэффициенты lij называются нагрузкой i-й переменной на j-й фактор или нагрузкой j-го фактора на i-ю переменную. В самой простой модели факторного анализа считается, что факторы fвзаимно независимы и их дисперсии равны единице, а случайные величины εтоже независимы друг от друга и от какого-либо фактора fj. Максимально возможное количество факторов m при заданном числе признаков ропределяется неравенством

(р+m)<(р—m)2,

которое должно выполняться, чтобы задача не вырождалась  в тривиальную. Данное неравенство  получается на основании подсчета степеней свободы, имеющихся в задаче /Лоули  Д. и др., 1967/. Сумму квадратов нагрузок в формуле основной модели факторного анализа называют общностью соответствующего признака xи чем больше это значение, тем лучше описывается признак xвыделенными факторами fj. Общность есть часть дисперсии признака, которую объясняют факторы. В свою очередь, ε2показывает, какая часть дисперсии исходного признака остается необъясненной при используемом наборе факторов и данную величину называют специфичностью признака. Таким образом,

Основное соотношение  факторного анализа показывает, что  коэффициент корреляции любых двух признаков xи хможно выразить суммой произведения нагрузок некоррелированных факторов

Задачу факторного анализа нельзя решить однозначно. Равенства основной модели факторного анализа не поддаются непосредственной проверке, так как р исходных признаков  задается через (р+m) других переменных — простых и специфических факторов. Поэтому представление корреляционной матрицы факторами, как говорят, ее факторизацию, можно произвести бесконечно большим числом способов. Если удалось произвести факторизацию корреляционной матрицы с помощью некоторой матрицы факторных нагрузок F, то любое линейное ортогональное преобразование F (ортогональное вращение) приведет к такой же факторизации /Налимов В. В., 1971/. 
 
Существующие программы вычисления нагрузок начинают работать с m =1 (однофакторная модель) /Александров В. В. и др., 1990/. Затем проверяется, насколько корреляционная матрица, восстановленная по однофакторной модели в соответствии с основным соотношением факторного анализа, отличается от корреляционной матрицы исходных данных. Если однофакторная модель признается неудовлетворительной, то испытывается модель с m=2 и т. д. до тех пор, пока при некотором m не будет достигнута адекватность или число факторов в модели не превысит максимально допустимое. В последнем случае говорят, что адекватной модели факторного анализа не существует. Если факторная модель существует, то производится вращение полученной системы общих факторов, так как значения факторных нагрузок и нагрузок на факторы есть лишь одно из возможных решений основной модели. Вращение факторов может производиться разными способами. Наиболее часто это вращение осуществляется таким образом, чтобы как можно большее число факторных нагрузок стало нулями и каждый фактор по возможности описывал группу сильно коррелированных признаков. Также можно вращать факторы до тех пор, пока не получатся результаты, поддающиеся содержательной интерпретации. Можно, например, потребовать, чтобы один фактор был нагружен преимущественно признаками одного типа, а другой — признаками другого типа. Или, скажем, можно потребовать, чтобы исчезли какие-то трудно интерпретируемые нагрузки с отрицательными знаками. Нередко исследователи идут дальше и рассматривают прямоугольную систему факторов как частный случай косоугольной, то есть ради содержания жертвуют условием некоррелированности факторов. 
 
В завершение всей процедуры факторного анализа с помощью математических преобразований выражают факторы fчерез исходные признаки, то есть получают в явном виде параметры линейной диагностической модели.  
 
Известно большое количество методов факторного анализа (ротаций, максимального правдоподобия и др.). Нередко в одном и том же пакете программ анализа данных реализовано сразу несколько версий таких методов и у исследователей возникает правомерный вопрос о том, какой из них лучше. В этом вопросе наше мнение совпадает с /Александров В. В. и др., 1990/, где утверждается, что практически все методы дают весьма близкие результаты. Там же приводятся слова одного из основоположников современного факторного анализа Г. Хармана: «Ни в одной из работ не было показано, что какой-либо один метод приближается к "истинным" значениям общностей лучше, чем другие методы... Выбор среди группы методов "наилучшего" производится в основном с точки зрения вычислительных удобств, а также склонностей и привязанностей исследователя, которому тот или иной метод казался более адекватным его представлениям об общности» /Харман Г., 1972, с. 97/. 
 
У факторного анализа есть много сторонников и много оппонентов. Но, как справедливо заметил В. В. Налимов: «...У психологов и социологов не оставалось других путей, и они изучили эти два приема (факторный анализ и метод главных компонент, — В. Д.) со всей обстоятельностью» /Налимов В. В., 1971, с. 100/. Для более подробного ознакомления с факторным анализом и его методами может быть рекомендована литература /Лоули Д., и др., 1967; Харман Г., 1972; Айвазян С. А. и др., 1974; Иберла К., 1980/.

Конус 1


Информация о работе Методы, основанные на критерии автоинформативности системы признаков