Автор работы: Пользователь скрыл имя, 18 Октября 2013 в 17:36, реферат
№ 1. СПЕЦИФИКАЦИЯ МОДЕЛИ
Простая регрессия представляет собой регрессию между двумя переменными —у и х, т.е. модель вида , где у — результативный признак; х - признак-фактор.
Множественная регрессия представляет собой регрессию результативного признака с двумя и большим числом факторов, т. е. модель вида
Нелинейная регрессия по включенным переменным не таит каких-либо сложностей в оценке ее параметров. Она определяется, как и в линейной регрессии, методом наименьших квадратов (МНК), ибо эти функции линейны по параметрам. Так, в параболе второй степени y=a0+a1x+a2x2+ε заменяя переменные x=x1,x2=x2, получим двухфакторное уравнение линейной регрессии: у=а0+а1х1+а2х2+ ε
Парабола второй степени целесообразна к применению, если для определенного интервала значений фактора меняется характер связи рассматриваемых признаков: прямая связь меняется на обратную или обратная на прямую. В этом случае определяется значение фактора, при котором достигается максимальное (или минимальное), значение результативного признака: приравниваем к нулю первую производную параболы второй степени: , т.е. b+2cx=0 и x=-b/2c
Применение МНК для оценки параметров параболы второй степени приводит к следующей системе нормальных уравнений:
Решение ее возможно методом определителей:
В моделях, нелинейных по
оцениваемым параметрам, но приводимых
к линейному виду, МНК применяется к преобразованным
уравнениям. Если в линейной модели и моделях,
нелинейных по переменным, при оценке
параметров исходят из критерия
min, то в моделях, нелинейных по оцениваемым параметрам, требование МНК
применяется не к исходным данным результативного признака, а к их
преобразованным величинам, т. е.ln y, 1/y. Так, в степенной функции
МНК применяется к преобразованному
уравнению lny = lnα + β ln x ln ε. Это значит, что оценка параметров основывается
на минимизации суммы квадратов отклонений
в логарифмах.
Соответственно если в линейных моделях
то в моделях, нелинейных
по оцениваемым параметрам,
. Вследствие этого оценка параметров
оказываются несколько смещенной.
№9. КОЭФФИЦИЕНТЫ ЭЛАСТИЧНОСТИ ПО РАЗНЫМ ВИДАМ РЕГРЕССИОННЫХ МОДЕЛЕЙ.
№ 10 ПОКАЗАТЕЛИ КОРРЕЛЯЦИИ
Величина данного показателя находится в границах: 0 ≤ R ≤ 1, чем ближе к 1, тем теснее связь рассматриваемых признаков, тем более надежно найденное уравнение регрессии.
, где R2- индекс детерминации, n- число наблюдений, m – число параметров при переменной х.
№11. МНОЖЕСТВЕННАЯ РЕГРЕССИЯ. СПЕЦИФИКАЦИЯ МОДЕЛИ. ОТБОР ФАКТОРОВ ПРИ ПОСТРОЕНИИИ МОДЕЛИ.
Регрессия может
дать хороший результат при моделиро
Включаемые
во множественную регрессию
Таким образом, хотя теоретически регрессионная модель позволяет учесть любое число факторов, практически в этом нет необходимости. Отбор факторов производится на основе качественного теоретико-экономического анализа, который обычно осуществляется в две стадии: на первой подбираются факторы исходя из сущности проблемы; на второй – на основе показателей корреляции определяют t-статистики для параметров регрессии. Коэффициенты интеркорреляции (т. е. корреляции между объясняющими переменными) позволяют исключать из модели дублирующие факторы. Считается, что две переменных явно коллинеарны, т. е. находятся между собой в линейной зависимости, если . Если факторы явно коллинеарны, то они дублируют друг друга и один из них рекомендуется исключить из регрессии. Предпочтение при этом отдается не фактору, более тесно связанному с результатом, а тому фактору, который при достаточно тесной связи с результатом имеет наименьшую тесноту связи с другими факторами. В этом требовании проявляется специфика множественной регрессии как метода исследования комплексного воздействия факторов в условиях их независимости друг от друга. Наибольшие трудности в использовании аппарата множественной регрессии возникают при наличии мультиколлинеарности факторов, когда более чем два фактора связаны между собой линейной зависимостью. Наличие мультиколлинеарности факторов может означать, что некоторые факторы будут всегда действовать в унисон. В результате вариация в исходных данных перестает быть полностью независимой, и нельзя оценить воздействие каждого фактора в отдельности. Чем сильнее мультиколлинеарность факторов, тем менее надежна оценка распределения суммы объясненной вариации по отдельным факторам с помощью метода наименьших квадратов (МНК). Включение в модель мультиколлинеарных факторов нежелательно в силу следующих последствий:1.затрудняется интерпретация параметров множественной регрессии как характеристик действия факторов в «чистом» виде, ибо факторы коррелированы; параметры линейной регрессии теряют экономический смысл;2оценки параметров ненадежны, обнаруживают большие стандартные ошибки и меняются с изменением объема наблюдений. Для оценки мультиколлинеарности факторов может использоваться определитель матрицы парных коэффициентов корреляции между факторами.
Если бы факторы не коррелировали между собой, то матрица парных коэффициентов корреляции между факторами была бы единичной матрицей. Для включающего три объясняющих переменных уравнения: y=a+b1x1+b2+b3x3+e.Матрица коэф-в корреляции м/у факторами имела бы определитель равный 1. Det =1, т.к. rx1x1=rx2x2=1 и rx1x2=rx1x3=rx2x3=0. Если м/у факторами сущ-ет полная линейная зависимость и все коэф-ты корреляции =1, то определитель такой матрицы =0. Чем ближе к нулю определитель матрицы межфакторной корреляции, тем сильнее мультиколлинеарность факторов и ненадежнее результаты множественной регрессии. И, наоборот, чем ближе к единице определитель матрицы межфакторной корреляции, тем меньше мультиколлинеарность факторов.
№12. ЧТО ОЗНОЧАЕТ ВЗАИМОДЕЙСТВИЕ ФАКТОРОВ И КАК ОНО МОЖЕТ БЫТЬ ПРЕДСТАВЛЕНО ГРАФИЧЕСКИ?
Одним из путей
учета внутренней корреляции факторов является переход к совмещенным
уравнениям регрессии, т. е. к уравнениям,
которые отражают не только влияние факторов,
но и их взаимодействие. Так,
если y=f(x1,x2,x3), то возможно построение следующего совмещенного уравнения: y=a+b1x1+b2x2+b3x3+b12x1x2+b13
а— х1 влияет на у, причем это влияние одинаково как при х3=В1, так и при х3=В2 (одинаковый наклон линий регрессии), что означает отсутствие взаимодействия факторов х1 и х3; б — с ростом х1 результативный признак y возрастает при х3 = В1; с ростом х1 результативный признак у снижается при х3 = В2.. Между х1 и х3 существует взаимодей-вие. Совмещенные уравнения регрессии строятся, например, при исследовании эффекта влияния на урожайность разных видов удобрений.Решению проблемы устранения мультиколлинеарности факторов может помочь и переход к уравнениям приведенной формы. С этой целью в уравнение регрессии производится подстановка рассматриваемого фактора через выражение его из другого уравнения.
№13. ИНТЕРПРИТАЦИЯ КОЭФФИЦИЕНТОВ РЕГРЕССИИ ЛИНЕЙНОЙ МОДЕЛИ ПОТРЕБЛЕНИЯ. СМЫСЛ СУММЫ bi В ПРОИЗВОДСТВЕННЫХ ФУНКЦИЯХ И ЗНАЧЕНИЕ СУММЫ bi>1 . КОЭФФИЦИЕНТЫ, ИСПОЛЬЗУЕМЫЕ ДЛЯ ОЦЕНКИ СРАВНИТЕЛЬНОЙ СИЛЫ ВОЗДЕЙСТВИЯ ФАКТОРОВ НА РЕЗУЛЬТАТ.
Функция потребления: С=К*у+L, где С-потребление, у-доход, К и L-параметры функции.(у=С+I, I-размер инвистиций). Предположим, что функция потребления составила :С= 1,9 + 0,65 *у .Коэффициент регрессии характеризует склонность к потреблению. Он показывает, что из каждой тысячи дохода на потребление расходуется в среднем 650 руб., а 350 руб. инвестируются. В производственных функциях:
где Р - количество продукта, изготавливаемого с помощью т производственных факторов (F1, F2,..., Fm);b-параметр, являющийся эластичностью количества продукции по отношению к количеству соответствующих производственных факторов.
Экономический смысл имеют не только коэффициенты b каждого фактора, но и их сумма, т. е. сумма эластичностей: В=b1+ b2 +...+ Ьт. Эта величина фиксирует обобщенную характеристику эластичности производства.
При практических расчетах не всегда .Она может быть как больше, так и меньше единицы. В этом случае величина В фиксирует приближенную оценку эластичности выпуска с ростом каждого фактора производства на 1 % в условиях увеличивающейся (В > 1) или уменьшающейся (В < 1) отдачи на масштаб. Так, если Р = 2,4* F * F20,7 * F30,2, то с ростом значений каждого фактора производства на 1 % выпуск продукции в целом возрастает приблизительно на 1,2 %.
№14. НАЗНАЧЕНИЕ ЧАСТНОЙ КОРРЕЛЯЦИИ ПРИ ПОСТРОЕНИИ МОДЕЛИ МНОЖЕСТВЕННОЙ РЕГРЕССИИ. Ранжирование факторов, участвующих во множественной линейной регрессии, может быть проведено через стандартизованные коэффициенты регрессии, с помощью частных коэффициентов корреляции — для линейных связей. При нелинейной взаимосвязи исследуемых признаков эту функцию выполняют частные индексы детерминации. Кроме того, частные показатели корреляции широко используются при решении проблемы отбора факторов: целесообразность включения того или иного фактора в модель доказывается величиной показателя частной корреляции.
Частные коэффициенты (или индексы) корреляции характеризуют тесноту связи между результатом и соответствующим фактором при устранении влияния других факторов, включенных в уравнение регрессии.
Показатели частной корреляции представляют собой отношение сокращения остаточной дисперсии за счет дополнительного включения в анализ нового фактора к остаточной дисперсии, имевшей место до введения его в модель.