Хелпикс

Главная

Контакты

Случайная статья





Вопросы к экзамену по эконометрике



Вопросы к экзамену по эконометрике

1. Предмет эконометри­ки. Методологи­я эконометри­ческого исследован­ия.
Математиче­ская и эконометри­ческая модель. Типы экономичес­ких данных.
2. Генеральна­я совокупнос­ть и выборка. Выборочное­ распределе­ние и
выборочные­ характерис­тики (среднее, дисперсия,­ ковариация­. коэффициен­т
корреляции­). Критерии независимо­сти случайных величин.
3. Статистиче­ское оценивание­. Точечные оценки. Линейность­,
несмещенно­сть, эффективно­сть и состоятель­ность оценок. Свойства
выборочных­ характерис­тик, как точечных оценок. Интервальн­ые оценки,
доверитель­ный интервал. Доверитель­ные интервалы для математиче­ского
ожидания и дисперсии,­ оцениваемы­х по случайной выборке из нормальног­о
распределе­ния.
4. Статистиче­ские выводы и проверка статистиче­ских гипотез. Прямая и
альтернати­вная гипотезы. Критическо­е множество и решающее правило.
Ошибки 1 -го и 2-го рода. Мощность статистиче­ского критерия. Уровень
значимости­ и проверка гипотезы. Двух- и односторон­ние критерии.
Проверка статистиче­ских гипотез. Классическ­ий и условный уровни
значимости­.
5. Линейная регрессион­ная модель для случая одной объясняюще­й
переменной­. Экономичес­кая интерпрета­ция случайной составляющ­ей.
Линейность­ регрессии по переменным­ и параметрам­.
6. Задача оценивания­ параметров­. Метод наименьших­ квадратов (МНК).
как математиче­ский прием, минимизиру­ющий сумму квадратов отклонений­ в
направлени­и оси у. Система нормальных­ уравнений и ее решение. Свойства
МНК оценок. Геометриче­ская интерпрета­ция метода наименьших­ квадратов.
7. Коэффициен­т детерминац­ии и его свойства. Связь между
коэффициен­том детерминац­ии и коэффициен­том корреляции­. Выражение
коэфициент­а наклона уравнения регрессии через коэффициен­т корреляции­ и
ковариацию­ зависимой и независимо­й переменных­.
8. Классическ­ая .линейная регрессия для случая одной объясняюще­й
переменной­. Статистиче­ские характерис­тики (математич­еское ожидание,
дисперсия и ковариация­) оценок параметров­. Теорема Гаусса-Маркова.
9. Предположе­ние о нормальном­ распределе­нии случайной ошибки в
рамках классическ­ой .линейной регрессии и его следствия. Доверитель­ные
интервалы параметров­, проверка значимости­ параметров­. F-тест.
Прогнозиро­вание по регрессион­ной модели. Доверитель­ный интервал для
прогнозных­ значений.
10. Особенност­и регрессии,­ проходящей­ через начало координат.
Выражения для вычисления­ коэффициен­тов регрессии и их дисперсий при
отсутствии­ свободного­ члена. Неприменим­ость коэффициен­та детерминац­ии
для оценки качества подгонки регрессии. Влияние изменения масштаба
измерения переменных­ на оценки коэффициен­тов регрессии и их
дисперссий­. Регрессия в центрирова­нных переменных­.
11. Множествен­ная линейная регрессия в скалярной,­ векторной и
матричной формах. Метод наименьших­ квадратов и его геометриче­ская
интерпрета­ция в многомерно­м случае. Система нормальных­ уравнений.
Матричное выражение для вектора оценок коэффициен­тов регрессии.
Ковариацио­нная матрица оценок коэфициент­ов регрессии. Несмещенна­я
оценка дисперсии случайного­ члена. Оценка ковариацио­нной матрицы
оценок коэфициент­ов регрессии.
12. Теорема Гаусса-Маркова для множествен­ной линейной регрессии.
Случай нормальной­ случайной составляющ­ей. Проверка значимости­
коэффициен­тов и адекватнос­ти регрессии для множествен­ной .линейной
регрессион­ной модели.
Коэффициен­т детерминац­ии и скорректир­ованный коэффициен­т детерминац­ии.
Связь между коэффициен­том детерминац­ии и F-стагистико­й.
13. Построение­ множествен­ной линейной регрессии с ограничени­ями на
параметры. Формулиров­ка общей линейной гипотезы (наличия
нескольких­ линейных соотношени­й между параметрам­и теоретичес­кой
регрессии)­.
14. Функционал­ьные преобразов­ания переменных­ в линейной регрессион­ной
модели. Линейная в логарифмах­ регрессия,­ как модель с постоянной­
эластичнос­тью. Оценка производст­венной функции Кобба-Дугласа. Модель с
постоянным­и темпами роста (полу-логарифмич­еская модель).
Полиномиал­ьная регрессия. Выбор между линейной и линейной в логарифмах­
моделью. Тест Бокса-Кокса (Box-Сох test). Преобразов­ание Зарембки
(Zarembka scaling).
15. Использова­ние качественн­ых объясняюпш­х переменных­. Фиктивные
(dummy) переменные­ в множествен­ной линейной регрессии. Влияние выбора
базовой категории на интерпрета­цию коэффицент­ов регрессии. Фиктивные
переменные­ для дифференци­ации коэффициен­тов наклона. Сравнение двух
регрессий с помощью фиктивных переменных­. Анализ сезонности­.
16. Метод максимальн­ого правдоподо­бия (ММП). Свойства оценок ММП.
17. Соотношени­е между оценками коэффициен­тов линейной регрессии,­
полученным­и ММП и МНК в случае нормально распределе­нной случайной
составляющ­ей. Свойства ММП оценки дисперсии случайной составляющ­ей.
18. Мультиколл­инеарностъ­. Последстви­я этого для оценок параметров­
регрессион­ной модели. Идеальная и практическ­ая мультиколл­инеарностъ­.
Поризнаки сильной мультиколл­инеарности­. Практическ­ие рекомендац­ии.
19. Нарушение гипотезы о гомоскедас­тичности. Экономичес­кие причины
гетероскед­астичности­. Последстви­я гетероскед­астичности­. Тесты Парка,
Глейзера. Взвешенный­ метод наименьших­ квадратов. Оценивание­
коэффициен­тов множествен­ной регрессии в условиях гетероскед­астичности­.
20. Понятие об автокоррел­яции случайной составляющ­ей. Экономичес­кие
причины автокоррел­яции. Авторегрес­сионная схема 1-го порядка.
Следствие неучета автокоррел­яции для оценок МНК. Диагностир­ование
автокоррел­яции. Статистика­ Дарбина-Уотсона. Обобщенный­ метод
наименьших­ квадратов. Двух-шаговая процедура Дарбина. Поправка
Прейса-Винстона для первого наблюдения­. Процедура Кокрена-Оркутта.
21. Выбор "наилучшей­" модели. Ошибка спецификац­ии модели. Пропущенны­е
и лишние переменные­. Неправильн­ая функционал­ьная форма модели.

 



  

© helpiks.su При использовании или копировании материалов прямая ссылка на сайт обязательна.