Контрольная работа: Методы математической статистики
DX1 DX2 . . . DXn
5. Метод наибольшего правдоподобия для нахождения оценок параметров плотности распределения
Метод наибольшего правдоподобия основывается на представлении выборки объема n как n-мерной случайной величине (Х1 , Х2 , ..., Хn ), где рассматриваются как независимые случайные величины с одинаковой плотностью распределения f(x). Плотность распределения такой n-мерной случайной величины называется функцией правдоподобия L(x1 , x2 , ..., xn ), которая в силу независимости случайных величин равна произведению плотностей распределения случайных величин Х1 , Х2 , ..., Хn :
L(x1 , x2 , ..., xn ) = f(x1 ) f(x2 )... f(xn ).
Отсюда следует, что всякую функцию у=у(x1 , x2 , ..., xn ) выборочных значений x1 , x2 , ..., xn , называемую статистикой, можно представить как случайную величину, распределение которой однозначно определяется функцией правдоподобия.
Рассмотрим метод отыскания оценок параметров по опытным данным, который использует функцию правдоподобия.
Пусть f(x;а) – плотность распределения случайной величины Х (генеральной совокупности), зависящей от параметра а. Функция правдоподобия также будет зависеть от параметра а и иметь вид
Сущность метода наибольшего правдоподобия заключается в том, чтобы найти такое значение параметра а, при котором функция правдоподобия L(x1 , x2 , ..., xn , а) была бы максимальной. Для этого необходимо решить уравнение
и найти то значение а, при котором функция L(x1 , x2 , ..., xn , а) достигает максимума. С целью упрощения вычисления обычно максимизируют натуральный логарифм функции правдоподобия, пользуясь тем, что
Если неизвестными являются несколько параметров а1 , а2 , ... , аm , то функция правдоподобия зависит от m переменных L = L(x1 , x2 , ..., xn ; а1 , а2 , ... , аm ) и решаются m уравнений
Пример. Пусть на вход приемного устройства поступает сумма двух сигналов: Y(t) = X + Z(t), где Х – неизвестный не зависящий от времени сигнал, а Z(t) – случайная помеха. В моменты времени t1 , t2 , ... , tn производятся измерения величины Y(t). На основании опытных данных (выборки) y1 = y(t1 ), y2 = y(t2 ), ... , yn =y(tn ) нужно найти приближенное значение сигнала Х.
Решение. Пусть Z(t1 ), Z(t2 ), ... , Z(tn ) – независимые случайные величины распределены по нормальному закону с математическим ожиданием mZ = 0 и дисперсией D(Z) = s2 . Тогда случайные величины также независимы, нормально распределены с неизвестным математическим ожиданием а и с той же дисперсией s2 . Плотность распределения случайных величин Y(t1 ), Y(t2 ), ... , Y(tn ) имеет, таким образом, вид
Запишем функцию правдоподобия для n-мерной случайной величины (Y1 , Y2 , ... , Yn ):
Tак как
то из уравнения
Имеем
Значит
Нетрудно показать, что функция правдоподобия L = L(y1 , y2 , ..., yn ; а) при этом а достигает своего максимума. Таким образом мы показали, что оценка математического ожидания неизвестного сигнала Х по методу наибольшего правдоподобия в предположении нормального распределения аддитивной помехи является средним арифметическим измерений y1 , y2 , ..., yn :
Метод наибольшего правдоподобия обладает важным свойством: он всегда приводит к состоятельным, хотя иногда и к смещенным, и эффективным оценкам.
На практике использование метода наибольшего правдоподобия часто приводит к необходимости решать достаточно сложные системы уравнений.
6. Метод наименьших квадратов
математическая статистика метод распределение выборка