значениям. Далее та же процедура повторяется в отношении регрессии x на y, давая rde(x).
Когда истинно независимая переменная служит предиктором, должна наблюдаться более высокая корреляция, чем когда истинно зависимая переменная служит предиктором.
То есть значение rde выше, когда истинно независимая переменная служит предиктором. Это происходит по причине того, что умеренные оценки предиктора (измеряемые низкой крайностью значений предиктора) должны ассоциироваться с умеренными оценками зависимой переменной (измеряемыми крайностью ошибок) лишь в том случае, когда истинная независимая переменная используется как предиктор истинной зависимой переменной:
Когда истинно независимая переменная является х, а истинно зависимая y, D будет негативным. То есть только если х является истинно независимой переменной, а y истинно зависимой, rde(y) будет более негативным, чем rde(x).
Проиллюстрируем этот способ на исходных данных, которые приведены в примере 1.1.
Только заметим, что часть необходимой информации для решения данного примера на этой стадии освоения регрессионного моделирования для читателя будет не совсем понятна, так как определение остатков в регрессионной модели приведено в нашем пособии ниже (согласно логике изложения материала), и поэтому мы рекомендуем вернуться к данному примеру после того, как читатель ознакомится со всем содержанием учебного пособия.
Пример 1.2. В студенческой группе было проведено исследование уровня агрессивности (тест-опросник Басса–Дарки) и уровня субъективного ощущения студентами своего одиночества (тест-опросник Д. Рассела, Л. Пепло, М. Фергюсона), в результате которого были получены данные, отраженные в табл. 1.2 (x – агрессивность, y – чувство одиночества).
Таблица 1.2
Данные исследования
Решение
1. Будем считать агрессивность независимой переменной, а чувство одиночества – зависимой. Исходные данные представлены в таблице:
2. Будем считать, что лучше всего аппроксимирует эмпирические данные линейная регрессионная модель. Определим параметры модели (используем SPSS).
3. Найдем отклонения эмпирических значений от теоретических (ошибку):
4. Найдем отклонения значений х от среднего значения по х:
5. Рассчитаем коэффициент линейной корреляции (условно не будем учитывать фактор объема выборки). Так как величина коэффициента корреляции не изменится, если значения переменных x и y уменьшать или увеличивать в а раз, вычесть или прибавить к значениям переменных x и y одно и то же число b8, чтобы избавиться от отрицательных значений переменных, прибавим 7 к значениям ошибки и 5 к значениям разницы xэмпирич. и xсреднее:
6.