Метод корреляционно – регрессионного анализа.
В общем виде задача статистики в области изучения взаимосвязей состоит не только в количественной оценке их наличия, направления и силы связи, но и в определении формы (аналитического выражения) влияния факторных признаков на результативный. Для ее решения применяют методы корреляционного и регрессионного анализа.
Задачи корреляционного анализа сводятся к измерению тесноты связи между варьирующими признаками, определению неизвестных причин связи (причинный характер которых, должен быть выяснен с помощью теоретического анализа) и оценке факторов, оказывающих наибольшее влияние на результативный признак.
Задачами регрессионного анализа являются выбор типа модели (формы связи), установление степени влияния независимых переменных на зависимую и определение расчетных значений зависимой переменной (функции регрессии).
Решение всех названных задач приводит к необходимости комплексного использования этих методов.
Для количественной оценки тесноты связи используют линейный коэффициент корреляции. Если заданы значения переменных Х и У, то он вычисляется по формуле:
rxy= (n∑xy-∑x∑y) / (√[n∑x² - (∑x)²]·[n∑y² - (∑y)²])
Коэффициент корреляции принимает значения в интервале от –1 до +1. Принято считать, что если |r|< 0,30, то связь слабая; при |r| = (0,3; 0,7) – средняя; при |r| > 0,70 – сильная, или тесная. Когда |r| = 1 – связь функциональная. Если же r ≈ 0, то это дает основание говорить об отсутствии линейной связи между У и Х.
Для характеристики влияния изменений Х на вариацию У служат методы регрессионного анализа. В случае парной линейной зависимости строится регрессионная модель:
Yi = ao + a1·Xi + εi,i = 1, .,n,
где n – число наблюдений;
ao , a1 - неизвестные параметры уравнения;
εi - ошибка случайной переменной У.
Уравнение регрессии записывается как
Уi теор = ao + a1·Xi,
где Уi теор – рассчитанное выравненное значение результативного признака после подстановки в уравнение Х.
Параметры ao и a1 оцениваются с помощью процедур, наибольшее распространение из которых получил метод наименьших квадратов. Его суть заключается в том, что наилучшие оценки ao и a1 получают, когда
∑( Yi - Уi теор)² = min,
т.е. сумма квадратов отклонений эмпирических значений зависимой переменной от вычисленных по уравнению регрессии должна быть минимальной. Сумма квадратов отклонений является функцией параметров ao и a1. Ее минимизация осуществляется решением системы уравнений:
n ao + a1∑X = ∑У;
ao ∑X + a1∑X² = ∑ХУ.
Важен смысл параметров: a1 – это коэффициент регрессии, характеризующий влияние, которое оказывает Х на У. Он показывает, на сколько единиц в среднем изменится У при изменении Х на одну единицу. Если a1 больше 0, то наблюдается положительная связь. Если a1 имеет отрицательное значение, то увеличение Х на единицу влечет за собой уменьшение У в среднем на a1. Параметр a1 обладает размерностью отношения У к Х.
Параметр ao – это постоянная величина в уравнении регрессии. На мой взгляд, экономического смысла она не имеет, но в ряде случаев его интерпретируют как начальное значение У.
Перейти на страницу: 1 2 3
|