Как сделать корреляционный анализ в спсс

Добавил пользователь Alex
Обновлено: 05.10.2024

Расчет частного коэффициента корреляции в STADIA не предусмотрен.

Вводим в электронную таблицу пакета SPSS три столбца первичных данных из табл. 9.4. В меню Analyse активизируем опцию Correlate (корреляция). Здесь выбираем опцию Partial Correlations (частные корреляции). Получается следующее диалоговое окно (рис. 9.11).

В этом окне переменные х и у уже перенесены в верхнее рабочее поле, а переменная г в нижнее рабочее поле.


Рыс. 9.11. Диалоговое окно Partial Correlations (частные корреляции)

После нажатия ОК в окне результатов будет получено следующее:

Correlations

Correlations

Significance (2-tailed) Df

Significance (2-tailed) Df

Диалоговое окно Product-Moment and Partial Correlations (продукт-момент и частные корреляции)

Рис. 9.12. Диалоговое окно Product-Moment and Partial Correlations (продукт-момент и частные корреляции)

В этом окне следует выбрать опцию Two lists (rect. matrix) (два списка (квадратная матрица)). После активизации этой опции появится окно, представленное на рис. 9.7, — окно выбора переменных. В этом окне в первом списке следует выбрать сразу две переменные 1-Varl и 2-Var2, а во втором окне 3-Var3. После нажатия на ОК вновь появляется диалоговое окно (рис. 9.12). После выбора и активизации опции Partial correlations появляется следующий результат:

Partial Corre Marked corr N=10 (Case'

Результат подсчета частной корреляции Varl и Var2 при условии Var3. Остальные частные коэффициенты корреляции получаются методом перебора переменных в окне рис. 9.7.

Для применения частного коэффициента корреляции необходимо соблюдать следующие условия.

Множественная линейная регрессия (multiple linear regression) – подход к моделированию связи между одной зависимой переменной и несколькими независимыми.

Случай, когда линейная регрессия имеет только одну зависимую переменную и одну независимую, называется простой линейной регрессией (simple linear regression) или парной линейной регрессией (bivariate regression).

Начнём рассмотрение с простого варианта. Парная линейная регрессия, содержащая только одну зависимую переменную и одну независимую, имеет уравнение вида:


, где:


– предсказанные значения зависимой переменной;


– интерсепт (константа или свободный член);


– угловой коэффициент;


– значения независимой переменной;


– случайная ошибка модели.

Графически указанные величины будут представлены следующим образом. Предсказанные значения зависимой переменной – это те точки, через которые пройдёт линия регрессии. Интерсепт показывает, чему будет равно y при x = 0. Угловой коэффициент показывает, насколько прирастёт y, если x изменится на 1 единицу. Наконец, случайные ошибки модели, возникающие вследствие влияния неучтённых моделью факторов, увидеть нельзя. Но мы можем увидеть наблюдаемую ошибку, которая называется остатками модели (residuals) – это разность между тем, где находятся наблюдения, и тем, где проходит линия регрессии.

Вычисление величин, отличных от наблюдаемых, производится методом наименьших квадратов (least-squares method). Этот метод позволяет построить зависимость величин таким образом, чтобы линия проходила наиболее близко ко всем наблюдаемым случаям. К тому же метод наименьших квадратов гарантирует, что существует только один-единственный способ, как именно можно провести эту линию при заданных условиях.

Рассмотрим на графике рассеяния указанные в уравнении величины:


В формулу интерсепта входит коэффициент корреляции r-Пирсона, что приводит к прямому соответствию между знаком коэффициента корреляции и направлением линии относительно диагоналей графика рассеяния. При положительной корреляции линия регрессии будет проходить так, как указано на рисунке; в случае отрицательной корреляции интерсепт также будет отрицательным, а линия регрессии пойдёт по другой диагонали графика. В случае приближения корреляции к нулю, линия регрессии будет более-менее параллельна оси X.

Простая линейная регрессия, отражённая на рисунке, представляет собой попытку найти зависимость, связывающую X и Y. К искомой зависимости предъявляется ряд требований, среди которых самыми важными на первоначальном этапе понимания являются два: 1) зависимость должна иметь вид линии, что мы можем видеть как графически, так и в самом уравнении; 2) результат нашего моделирования необходимо проверить, ведь построенная линия сама по себе не означает, что зависимость есть. Отличие успешной модели от неуспешной состоит не в том, что у неуспешной модели нет линии. Отличие состоит в том, что линия неуспешной модели параллельна оси Х или, если говорить более точными формулировками, угловой коэффициент такой линии не отличается от ноля. Поэтому при расчёте в SPSS мы должны понять, какими способами оценивается успешность построения модели. В общем смысле для оценки успешности построения модели нам необходимо, чтобы наблюдаемые значения оказались как можно ближе к линии регрессии (лучше, чтобы они находились на ней). Не стоит путать это высказывание со способом построения линии – методом наименьших квадратов. Ведь если зависимости нет, линия наименьших квадратов, хотя и пройдёт ближе всего к точкам, будет фактически очень далеко от каждой из них. К тому же для оценки успешности построения модели нам важно, чтобы угол линии был достаточно большой, ведь в обратном случае изменение X не приводит к изменению Y.

При увеличении количества независимых переменных простая линейная регрессия становится множественной. Уравнение сохраняет общую логику, хотя и приобретает расширенный вид:


В этом уравнении мы также встречаем интерсепт и угловой коэффициент, а отличие состоит лишь в том, что происходит введение нескольких независимых переменных, каждая из которых имеет свой угловой коэффициент. К сожалению, на двухмерном графике нельзя увидеть трёхмерную картину линейной регрессии, а при добавлении факторов наше физическое пространство и мироощущение вовсе оказываются неподготовленными к графическому восприятию обсуждаемого вопроса. Однако это никак не мешает вычислять требуемые величины аналитически.

Перед тем, как начать конкретный расчёт множественной линейной регрессии в SPSS, стоит сделать ещё одно общее замечание. В модели присутствует сразу несколько независимых переменных, но исследователь не может быть уверен, что каждая из них действительно должна быть включена в модель. С одной стороны, расчёт позволит ответить на этот вопрос. С другой, из-за того, как именно происходит вычисление, неправильно введённая в модель переменная может кардинальным образом повлиять на вывод относительно всех переменных. Поэтому были разработаны различные способы включения переменных в модель:

К сожалению, однозначного ответа на вопрос, какой из указанных методов лучше, нет. На мой взгляд, имеет смысл начинать с одновременного включения всех переменных в модель (enter), чтобы оценить общую картину. А итоговый расчёт можно проводить каким-либо из методов 2, 3, 4. Основной интерес при сравнении указанных методов будет представлять наличие или отсутствие различия в выводах. Если применение различных методов приводит к различным выводам, необходимо более пристальное внимание к тем переменным, которые начинают появляться и пропадать в разных моделях. Это связано с критериями включения и исключения, отличающимися от метода к методу. Исследователю стоит самостоятельно принять решение, какую модель выбрать. Но, с моей точки зрения, имеет смысл исключить из модели все переменные, которые попадают в промежуток между уровнями значимости от 0,05 до 0,10.

Исходные данные для расчёта множественной регрессии в SPSS, а также гипотезы и базовые предположения представлены в документе: исходные данные — множественная линейная регрессия

На видео 1 представлен расчёт множественной линейной регрессии в SPSS методом одновременного включения всех переменных в модель:

На видео 2 представлен расчёт множественной линейной регрессии различными методами включения переменных в модель:

На видео 3 рассмотрена проверка базовых предположений множественной линейной регрессии:

На видео 4 представлена проверка многомерной нормальности в SPSS:

Синтаксисы , полезные при расчёте множественной линейной регрессии:

проверка многомерной нормальности: макрос и синтаксис многомерной нормальности, а также пояснение, как запустить эту проверку.

Читайте также: