Примеры оценки максимального правдоподобия

Предположим, что у нас есть случайный пример от населения, представляющего интерес. У нас может быть теоретическая модель того, как Население распространяется Тем не менее, может быть несколько человек параметры из которых мы не знаем значений. Оценка максимального правдоподобия является одним из способов определения этих неизвестных параметров.

Основная идея оценки максимального правдоподобия состоит в том, что мы определяем значения этих неизвестных параметров. Мы делаем это таким образом, чтобы максимизировать совместную функцию плотности вероятности или функция вероятности массы. Мы увидим это более подробно в дальнейшем. Затем мы рассчитаем несколько примеров оценки максимального правдоподобия.

Шаги для оценки максимального правдоподобия

Приведенное выше обсуждение может быть суммировано с помощью следующих шагов:

  1. Начнем с выборки независимых случайных величин X1, ИКС2,... ИксN из общего распределения, каждое с функцией плотности вероятности f (x; θ1,.. .θК). Тэты - это неизвестные параметры.
  2. instagram viewer
  3. Поскольку наша выборка независима, вероятность получения конкретной выборки, которую мы наблюдаем, определяется путем умножения наших вероятностей вместе. Это дает нам функцию правдоподобия L (θ1,.. .θК) = f (x11,.. .θК) f (x21,.. .θК)... f (xN1,.. .θК) = Π f (xя1,.. .θК).
  4. Далее мы используем Исчисление найти значения тета, которые максимизируют нашу функцию правдоподобия L.
  5. Более конкретно, мы дифференцируем функцию правдоподобия L по θ, если существует один параметр. Если имеется несколько параметров, мы вычисляем частные производные от L по каждому из тета-параметров.
  6. Чтобы продолжить процесс максимизации, установите производную от L (или частную производную) равной нулю и решите для тета.
  7. Затем мы можем использовать другие методы (например, тест второй производной), чтобы убедиться, что мы нашли максимум для нашей функции правдоподобия.

пример

Предположим, у нас есть пакет семян, каждое из которых имеет постоянную вероятность п успеха прорастания. Мы сажаем N из них и подсчитать количество тех, которые прорастают. Предположим, что каждое семя прорастает независимо от других. Как мы определяем оценку максимального правдоподобия параметра п?

Начнем с того, что отметим, что каждое семя моделируется распределением Бернулли с успехом п. Мы позволим Икс может быть 0 или 1, а функция вероятности массы для одного семени е( Икс; п ) = пИкс(1 - п)1 - х.

Наш образец состоит из N разные Иксякаждый из них имеет распределение Бернулли. Семена, которые прорастают, имеют Икся = 1 и семена, которые не могут прорасти, имеют Икся = 0.

Функция правдоподобия определяется как:

L ( п ) = Π пИкся(1 - п)1 - Икся

Мы видим, что можно переписать функцию правдоподобия, используя законы показателей.

L ( п ) = пΣ xя(1 - п)N - Σ xя

Далее мы дифференцируем эту функцию по отношению к п. Мы предполагаем, что значения для всех Икся известны и, следовательно, являются постоянными. Для дифференциации функции правдоподобия нам нужно использовать Правило продукта вместе с правилом власти:

L '( п ) = Σ xяп-1 + Σ xя (1 - п)N - Σ xя- (N - Σ xя )пΣ xя(1 - п)N-1 - Σ xя

Мы переписываем некоторые отрицательные показатели и имеем:

L '( п ) = (1/п) Σ xяпΣ xя (1 - п)N - Σ xя- 1/(1 - п) (N - Σ xя )пΣ xя(1 - п)N - Σ xя

= [(1/п) Σ xя - 1/(1 - п) (N - Σ xя)]япΣ xя (1 - п)N - Σ xя

Теперь, чтобы продолжить процесс максимизации, мы устанавливаем эту производную равной нулю и решаем для п:

0 = [(1/п) Σ xя - 1/(1 - п) (N - Σ xя)]япΣ xя (1 - п)N - Σ xя

поскольку п и (1- п) ненулевые

0 = (1/п) Σ xя - 1/(1 - п) (N - Σ xя).

Умножая обе части уравнения на п(1- п) дает нам:

0 = (1 - п) Σ xя - п (N - Σ xя).

Расширяем правую часть и видим:

0 = Σ xя - п Σ xя - пN + pΣ xя = Σ xя - пN.

Таким образом, Σ xя = пN и (1 / n) Σ xя = стр. Это означает, что оценка максимального правдоподобия п образец среднего. Более конкретно, это примерная доля проросших семян. Это совершенно соответствует тому, что нам скажет интуиция. Чтобы определить долю семян, которые прорастут, сначала рассмотрите образец из популяции, представляющей интерес.

Модификации к Шаги

В приведенный выше список шагов внесены некоторые изменения. Например, как мы видели выше, обычно стоит потратить некоторое время на использование некоторой алгебры для упрощения выражения функции правдоподобия. Причина этого состоит в том, чтобы облегчить дифференциацию.

Еще одно изменение в приведенном выше списке шагов заключается в рассмотрении натуральных логарифмов. Максимум для функции L будет происходить в той же точке, что и для натурального логарифма L. Таким образом, максимизация ln L эквивалентна максимизации функции L.

Во многих случаях из-за наличия экспоненциальных функций в L взятие натурального логарифма L значительно упростит некоторые из наших работ.

пример

Мы видим, как использовать натуральный логарифм, вернувшись к примеру сверху. Начнем с функции правдоподобия:

L ( п ) = пΣ xя(1 - п)N - Σ xя .

Затем мы используем наши законы логарифма и видим, что:

Р( п ) = ln L ( п ) = Σ xя пер р + (N - Σ xя) ln (1 - п).

Мы уже видим, что производную гораздо проще вычислить:

Р'( п ) = (1/п) Σ xя - 1/(1 - п)(N - Σ xя) .

Теперь, как и прежде, мы устанавливаем эту производную равной нулю и умножаем обе стороны на п (1 - п):

0 = (1- п ) Σ xя - п(N - Σ xя) .

Мы решаем за п и найти тот же результат, что и раньше.

Использование натурального логарифма L (p) полезно по-другому. Намного легче вычислить вторую производную от R (p), чтобы убедиться, что у нас действительно есть максимум в точке (1 / n) Σ xя = стр.

пример

Для другого примера предположим, что у нас есть случайная выборка X1, ИКС2,... ИксN от населения, которое мы моделируем с экспоненциальным распределением. Функция плотности вероятности для одной случайной величины имеет вид е( Икс ) = θ-1е -Икс

Функция правдоподобия задается совместной функцией плотности вероятности. Это продукт нескольких из этих функций плотности:

L (θ) = Π θ-1е -Икся= θ-nе Икся

Еще раз полезно рассмотреть натуральный логарифм функции правдоподобия. Дифференцирование этого потребует меньше работы, чем дифференцирование функции правдоподобия:

R (θ) = ln L (θ) = ln [θ-nе Икся]

Мы используем наши законы логарифмов и получаем:

R (θ) = ln L (θ) = - N ln θ + -ΣИкся

Мы дифференцируем по θ и имеем:

R '(θ) = - N / θ + ΣИкся2

Установите эту производную равной нулю, и мы видим, что:

0 = - N / θ + ΣИкся2.

Умножьте обе стороны на θ2 и результат:

0 = - N θ + ΣИкся.

Теперь используйте алгебру, чтобы решить для θ:

θ = (1 / n) ΣИкся.

Из этого мы видим, что выборочное среднее - это то, что максимизирует функцию правдоподобия. Параметр θ, чтобы соответствовать нашей модели, должен просто быть средним значением всех наших наблюдений.

связи

Есть и другие типы оценщиков. Один альтернативный тип оценки называется объективный оценщик. Для этого типа мы должны вычислить ожидаемое значение нашей статистики и определить, соответствует ли оно соответствующему параметру.

instagram story viewer