Курсовая работа: Анализ методов прогнозирования
Наиболее общими приемами выравнивания являются логарифмирование и замена переменных.
В случае если эмпирическая формула предполагается содержащей три параметра либо известно, что функция трехпараметрическая, иногда удается путем некоторых преобразований исключить один из параметров, а оставшиеся два привести к одной из формул выравнивания.
Можно рассматривать выравнивание не только как метод представления исходных данных, но и как метод непосредственного приближенного определения параметров функции, аппроксимирующей исходный числовой ряд. Зачастую именно так и используется этот метод в некоторых экстраполяционных прогнозах. Отметим, что возможность непосредственного его использования для определения параметров аппроксимирующей функции определяется главным образом видом исходного числового ряда и степенью наших знаний, нашей уверенности относительно вида функции, описывающей исследуемый процесс.
В том случае, если вид функции нам неизвестен, выравнивание следует рассматривать как предварительную процедуру, в процессе которой путем применения различных формул и приемов выясняется наиболее подходящий вид функции, описывающей эмпирический ряд.
Одной из разновидностей метода выравнивания является исследование эмпирического ряда с целью выяснения некоторых свойств функции, описывающей его. При этом не обязательно преобразования приводят к линейным формам. Однако результаты их подготавливают и облегчают процесс выбора аппроксимирующей функции в задачах прогностической экстраполяции. В простейшем случае предлагается использовать следующие три типа дифференциальных функций роста:
1) Первая производная, или абсолютная дифференциальная функция роста.
2) Относительный дифференциальный коэффициент, или логарифмическая производная,
3) Эластичность функции
2.3 Статистические методы
Прежде чем приступить к анализу статистических методов прогнозирования, рассмотрим некоторые общие понятия и определения, относящиеся к корреляционным и регрессионным моделям. Две случайные величины являются корреляционно связанными, если математическое ожидание одной из них меняется в зависимости от изменения другой.
Применение корреляционного анализа предполагает выполнение следующих предпосылок:
а) Случайные величины y ( y 1 , у2 , ..., У n ) и x ( x 1 , x 2 , ..., Х n ) могут рассматриваться как выборка из двумерной генеральной совокупности с нормальным законом распределения.
б) Ожидаемая величина погрешности и равна нулю
в) Отдельные наблюдения стахостически независимы, т. е. значение данного наблюдения не должно зависеть от значения предыдущего и последующего наблюдений.
г) Ковариация между ошибкой, связанной с одним значением зависимой переменной у, и ошибкой, связанной с любым другим значением y , равна нулю.
д) Дисперсия ошибки, связанная с одним значением у, равна дисперсии ошибки, связанной с любым другим значением .
е) Ковариация между погрешностью и каждой из независимых переменных равна нулю.
ж) Непосредственная применимость этого метода ограничивается случаями, когда уравнение кривой является линейным относительно своих параметров bo , bi , ...,bk Это, однако, не означает, что само уравнение кривой относительно переменных должно быть линейным. Если эмпирические уравнения наблюдений не являются линейными, то во многих случаях оказывается возможным привести их к линейной форме и уже. после этого применять метод наименьших квадратов.
з) Наблюдения независимых переменных производятся без погрешности.
Перед началом корреляционного анализа необходимо проверить выполнение этих предпосылок.
Связь между случайной и неслучайной величинами называется регрессионной, а метод анализа таких связей — регрессионным анализом. Применение регрессионного анализа предполагает обязательное выполнение предпосылок (б-г) корреляционного анализа. Только при выполнении приведенных предпосылок оценки коэффициентов корреляции и регрессии, получаемые с помощью способа наименьших квадратов, будут несмещенными и иметь минимальную дисперсию.
Регрессионный анализ тесно связан с корреляционным. При выполнении предпосылок корреляционного анализа выполняются предпосылки регрессионного анализа. В то же время регрессионный анализ предъявляет менее жесткие требования к исходной информации.» Так, например, проведение регрессионного анализа возможно даже в случае отличия распределения случайной величины от нормального, как это часто бывает для технико-экономических величин. В качестве зависимой переменной в регрессионном анализе используется случайная переменная, а в качестве независимой — неслучайная переменная.
По степени комплексности статистические исследования можно разделить на двумерные и многомерные. Первые касаются рассмотрения парных взаимосвязей между переменными (парные корреляции и регрессии) и направлены в прогнозных исследованиях на решение таких задач, как установление количественной меры тесноты связи между двумя случайными величинами, установление близости этой связи к линейной, оценки достоверности и точности прогнозов, полученных экстраполяцией регрессионной зависимости. Многомерные методы статистического - анализа направлены в основном на решение задачи системного анализа многомерных стохастических объектов прогнозирования. Целью такого анализа является, как правило, выяснение внутренних взаимосвязей между переменными комплекса, построение многомерных функций связи переменных, выделение минимального числа характеристик, описывающих объект с достаточной степенью точности. Одной из основных задач здесь является сокращение размерности описания объекта прогнозирования.
Таким образом, статистические методы используются в основном для подготовки данных, приведения их к виду, пригодному для производства прогноза. Как правило, после их применения использует