Вадим Дорофеев

Основы регрессионного моделирования для психологов


Скачать книгу

выборочных данных.

      Регрессионная модель f(w, x) – это семейство математических функций, задающее отображение f: W × X Y,

      где: w ϵ W – пространство параметров;

      x ϵ X – пространство независимых переменных;

      Y – пространство зависимых переменных.

      С точки зрения возможности формализации закономерностей, в том числе и в психологии, необходимо различать математические модели и регрессионные модели.

      Математическая модель предполагает участие аналитика в конструировании функции, которая описывает некоторую известную закономерность. Математическая модель является интерпретируемой – объясняемой в рамках исследуемой закономерности. При построении математической модели сначала создается параметрическое семейство функций, затем с помощью измеряемых данных выполняется идентификация модели – нахождение ее параметров. Известная функциональная зависимость объясняющей переменной и переменной отклика – основное отличие математического моделирования от регрессионного анализа. Недостаток математического моделирования состоит в том, что измеряемые данные используются для верификации, но не для построения модели, вследствие чего можно получить неадекватную модель. Также затруднительно получить модель сложного явления, в котором взаимосвязано большое число различных факторов4.

      Регрессионное моделирование – активно развивающийся класс методов. Они находятся на стыке анализа данных и моделирования явлений. Корень регрессионного моделирования – нахождение уравнения регрессии.

      Уравнение регрессии – математическая функция, которая выражает связь между усредненными значениями одной зависимой переменной и одной или несколькими независимыми переменными.

      Регрессионная модель объединяет широкий класс универсальных функций, которые описывают некоторую закономерность. При этом для построения модели в основном используются измеряемые данные, а не знание свойств исследуемой закономерности. Такая модель часто малоинтерпретируема, но более точна. Это объясняется либо большим числом моделей-претендентов, которые используются для построения оптимальной модели, либо большой сложностью модели.

      Нахождение параметров регрессионной модели называется обучением модели.

      Недостатки регрессионного анализа по сравнению с математическим моделированием:

      – модели, имеющие слишком малую сложность, могут оказаться неточными;

      – модели, имеющие избыточную сложность, могут оказаться переобученными.

      Примерами регрессионных моделей являются: линейные функции, алгебраические полиномы, ряды Чебышёва, нейронные сети без обратной связи (например, однослойный персептрон Розенблатта), радиальные базисные функции и т. д.

      Примерами математических моделей являются: математические модели на основе теории игр, модель «хищник – жертва»,