Дипломные, курсовые и контрольные работы на заказ Заказать написание уникальной работы, купить готовую работу  
 
Заказать реферат на тему
Диплом на заказа
Крусовые и рефераты
Заказать курсовик по химии
Заказать дипломную работу
контрольные работы по математике
контрольные работы по геометрии
Заказать курсовую работу
первод с английского
 
   
   
 
Каталог работ --> Экономические --> Эконометрика --> Теорема Гаусса-Маркова для множественной линейной регрессии

Теорема Гаусса-Маркова для множественной линейной регрессии

Москва

Реферат по предмету:
"Эконометрика"



Название работы:
"Теорема Гаусса-Маркова для множественной линейной регрессии"




Автор работы: Юлия
Страниц: 10 шт.



Год:2009

Цена всего:499 рублей

Цена:1499 рублей

Купить Заказать персональную работу


Краткая выдержка из текста работы (Аннотация)

ВВЕДЕНИЕ

Линейная регрессия описывается простейшей функциональной зависимостью в виде уравнения прямой линии и характеризуется прозрачной интерпретацией параметров модели (коэффициентов уравнения). Правая часть уравнения позволяет по заданным значениям регрессора (объясняющей переменной) получить теоретические (расчетные) значения результативного (объясняемого) переменного. Эти значения иногда называют также прогнозируемыми, т.е. получаемыми по теоретическим формулам. Однако при выдвижении гипотезы о характере зависимости коэффициенты уравнения остаются неизвестными. Вообще говоря, получение приближенных значений этих коэффициентов возможно различными методами.

Но наиболее важным и распространенным из них является метод наименьших квадратов (МНК). Он основан на требовании минимизации суммы квадратов отклонений фактических значений результативного признака от расчетных (теоретических). Вместо теоретических значений (для их получения) подставляют правые части уравнения регрессии в сумму квадратов отклонений, а затем находят частные производные от этой функции (суммы квадратов отклонений фактических значений результативного признака от теоретических). Эти частные производные берутся не по переменным х и у, а по параметрам а и b. Частные производные приравнивают к нулю и после несложных, но громоздких преобразований получают систему нормальных уравнений для определения параметров. Коэффициент при переменном х, т.е. b, называется коэффициентом регрессии, он показывает среднее изменение результата с изменением фактора на одну единицу. Параметр a может не иметь экономической интерпретации, особенно если знак этого коэффициента отрицателен.

ПАРНАЯ ЛИНЕЙНАЯ РЕГРЕССИЯ

Парная линейная регрессия используется для изучения функции потребления. Коэффициент регрессии в функции потребления используется для расчета мультипликатора. Практически всегда уравнение регрессии дополняется показателем тесноты связи. Для простейшего случая линейной регрессии этим показателем тесноты связи является линейный коэффициент корреляции. Но поскольку линейный коэффициент корреляции характеризует тесноту связи признаков в линейной форме, то близость абсолютной величины линейного коэффициента корреляции к нулю еще не служит показателем отсутствия связи между признаками.

Именно при другом выборе спецификации модели и, следовательно, виде зависимости фактическая связь может оказаться довольно близкой к 1. А вот качество подбора линейной функции определяется с помощью квадрата линейного коэффициента корреляции — коэффициента детерминации. Он характеризует долю дисперсии результативного признака у, объясняемую регрессией в общей дисперсии результативного признака. Величина, дополняющая коэффициент детерминации до 1, характеризует долю дисперсии, вызванную влиянием остальных факторов, неучтенных в модели (остаточной дисперсии).

Парная регрессия представляется уравнением связи двух переменных (у и х) следующего вида:

y = f(x), (1)

где у — зависимая переменная (результативный признак), а х — независимая переменная (объясняющая переменная, или признак-фактор). Бывает линейная регрессия и нелинейная регрессия. Линейная регрессия описывается уравнением вида:

y = a + bx + ε . (2)

Содержание работы

ВВЕДЕНИЕ

Линейная регрессия описывается простейшей функциональной зависимостью в виде уравнения прямой линии и характеризуется прозрачной интерпретацией параметров модели (коэффициентов уравнения). Правая часть уравнения позволяет по заданным значениям регрессора (объясняющей переменной) получить теоретические (расчетные) значения результативного (объясняемого) переменного. Эти значения иногда называют также прогнозируемыми, т.е. получаемыми по теоретическим формулам. Однако при выдвижении гипотезы о характере зависимости коэффициенты уравнения остаются неизвестными. Вообще говоря, получение приближенных значений этих коэффициентов возможно различными методами.

Но наиболее важным и распространенным из них является метод наименьших квадратов (МНК). Он основан на требовании минимизации суммы квадратов отклонений фактических значений результативного признака от расчетных (теоретических). Вместо теоретических значений (для их получения) подставляют правые части уравнения регрессии в сумму квадратов отклонений, а затем находят частные производные от этой функции (суммы квадратов отклонений фактических значений результативного признака от теоретических). Эти частные производные берутся не по переменным х и у, а по параметрам а и b. Частные производные приравнивают к нулю и после несложных, но громоздких преобразований получают систему нормальных уравнений для определения параметров. Коэффициент при переменном х, т.е. b, называется коэффициентом регрессии, он показывает среднее изменение результата с изменением фактора на одну единицу. Параметр a может не иметь экономической интерпретации, особенно если знак этого коэффициента отрицателен.

Использованная литература

  1. :
  2. Э. И. Бежава, М.Б. Малютов Введение в теорию планирования регрессионных экспериментов, Московский государственный институт электронного машиностроения, Темплан 1983. В учебном пособии исследуется планирование и анализ линейных регрессионных экспериментов.
  3. Ивченко Г.И., Медведев Ю.И. Математическая статистика, Высшая школа, 1992. В пособии на современном научном уровне изложены основные разделы статистической терии.
  4. Розанов Ю.А. Теория вероятностей, случайные процессы и математическая статистика, Наука 1985. Книга представляет собой единый учебный курс теории вероятностей, случайных процессов и математической статистики. Изложение материала таково, что книга во многих важных разделах доступна широкому кругу читателей.
  5. Замечательным введением в элементарную статистику с разнообразными примерами из медицины и генетики является книга Ю.Неймана Вводный курс теории вероятностей и математической статистики, Наука, 1968 (перевод с английского).


Другие похожие работы