Заглавная страница Избранные статьи Случайная статья Познавательные статьи Новые добавления Обратная связь FAQ Написать работу КАТЕГОРИИ: ТОП 10 на сайте Приготовление дезинфицирующих растворов различной концентрацииТехника нижней прямой подачи мяча. Франко-прусская война (причины и последствия) Организация работы процедурного кабинета Смысловое и механическое запоминание, их место и роль в усвоении знаний Коммуникативные барьеры и пути их преодоления Обработка изделий медицинского назначения многократного применения Образцы текста публицистического стиля Четыре типа изменения баланса Задачи с ответами для Всероссийской олимпиады по праву
Мы поможем в написании ваших работ! ЗНАЕТЕ ЛИ ВЫ?
Влияние общества на человека
Приготовление дезинфицирующих растворов различной концентрации Практические работы по географии для 6 класса Организация работы процедурного кабинета Изменения в неживой природе осенью Уборка процедурного кабинета Сольфеджио. Все правила по сольфеджио Балочные системы. Определение реакций опор и моментов защемления |
Метод максимальної правдоподібностіСодержание книги Поиск на нашем сайте
Нехай Означення. Функцією максимальної правдоподібності вибірки Метод максимальної правдоподібності побудови оцінок полягає в тому, що за оцінку параметра Означення. Оцінкою максимальної правдоподібності будемо називати точку Іншими словами, оцінкою максимальної правдоподібності параметра
якщо такі розв’язки існують. Корені, які не залежать від вибірки Логарифм Зазначимо, що функції Якщо функція
достатньо знайти стаціонарні точки функції
розв’язуючи рівняння
і, порівнюючи значення функції Рівняння
називають рівняннями максимальної правдоподібності. Метод найменших квадратів. Нехай
та середніми
де
де 1) 2) 3)
4) МНК - оцінкою параметрів
досягає мінімального значення. Диференціюємо цю функцію за параметрами
Прирівнюємо похідні нулеві:
Розглянемо систему рівнянь:
Виразимо з цієї системи параметри
Отже МНК - оцінками параметрів
Розділ ІІ. Парадокси в математичній статистиці Парадокс оцінок математичного сподівання Історія парадоксу Зрівнювання протилежних значень і відхилень в "середньому", тобто підсумовування спостережень до одного значення має давні традиції. Есхіл писав у трагедії "Евменіди": "Богу завжди середина люб'язна, і міру поважає божество", а послідовники китайського філософа Конфуція говорять, що "у нерухомості середнього є найбільша досконалість". Поняття "середнього" можна інтерпретувати в різний спосіб (середнє арифметичне, середнє геометричне, медіана і т. ін). Але у практичних застосуваннях протягом тривалого часу вкрай важливу роль відігравало середнє арифметичне. Вже в перших результатах теорії ймовірностей і математичної статистики вивчалося середнє арифметичне вибірки. Парадокс Нехай Якщо за розподіл
незміщена, спроможна, ефективна оцінка для параметра У цьому і полягає парадокс оцінки математичного сподівання. 2.1.3 Пояснення парадоксу Нехай
тому З’ясуємо, чи є
в силу закону великих чисел. Останнє означає, що Покажемо, що
Умова обертання нерівності Крамера - Рао (дивитися підрозділ 1.2) в рівність говорить, що якщо статистика
де Обчислимо
= = =
тому Розглянемо сім’ю розподілів Кількість інформації за Фішером визначимо
За умов, що
Теорема 2.1.3.1 (Каган, Лінник, Рао) [ 1] У класі щільностей 1. 2. нерівність Крамера-Рао обертається на рівність на гауссівському розподілі. Доведення. Будемо вважати, що Позначимо множину точок Оскільки
Інтегрування за частинами дає
Звідси Скористаємось нерівністю Коші - Буняковського для інтегралів
Позначимо
Тоді з (2.1.3.4) маємо
Отже,
При цьому знак рівності досягається тоді й тільки тоді, коли при деякій постійній
Знайдемо щільність
Розв’язуючи диференціальне рівняння маємо:
Для знаходження сталих Розв'язуючи рівняння:
Знаходимо
Отже, маємо щільність нормального розподілу з параметрами
Теорема доведена. Зауваження 1. Нерівність Крамера - Рао (1.2.1) в теоремі набуває вигляду Дійсно, згідно з наслідком 3 з теореми (нерівність Крамера - Рао)
Порахуємо
Підставляємо
або,
або,
Зауваження 2. З одного боку
З іншого боку
Знак рівності в нерівності Крамера - Рао досягається тоді й тільки тоді, коли
або,
або,
В частинному випадку для щільності
Парадокс Байєса Історія парадоксу Томас Байєс, учень де Муавра, є одним з видатних засновників математичної статистики. Його теорема, доведена близько 1750 р. і опублікована лише після його смерті, стала джерелом деяких суперечок в статистиці. Вони не припинилися й досі. Більш того, теоретична прірва між послідовниками байєсівського й антибайєсівського підходів продовжує збільшуватися. Сформулюємо теорему Байєса. Нехай 1) 2) То
Остання формула називається формулою Байєса. Вона показує, як за апріорними ймовірностями Сама теорема безперечна, але в більшості її застосувань апріорні імовірності Байєс використовував свою теорему у випадках, коли апріорні імовірності Нехай
Позначимо через Умовна щільність випадкової величини
Де
І ймовірність того, що
Байєс висунув ідею про те, що якщо ми не маємо ніякої попередньої інформації про
Не всі довіряють цьому результату, зокрема, тому, що мають сумніви щодо рівномірності апріорного розподілу. Незнання апріорного розподілу виявилось настільки руйнівним для обґрунтування статистичних виводів з теореми Байєса, що ця теорема була майже виключена зі статистичних досліджень. Але в другій третині ХХ століття байєсівський підхід знову здобув розвитку, завдяки важливій ролі, яку він відіграє при пошуку допустимих та мінімаксних оцінок. Все більш розповсюджувалась точка зору про те, що послідовне застосування формули Байєса (коли після кожного експерименту апостеріорні ймовірності переоцінюють і на наступному кроці вони використовуються як апріорні імовірності) знижує роль вихідного апріорного розподілу, оскільки після багаторазового переоцінювання вихідний апріорний розподіл не впливає на заключний апостеріорний розподіл. (Очевидно, що деякі випадки не розглядаються, наприклад, коли значення Парадокс Нехай можливими значеннями випадкової величини
концентрується навколо істинного значення невідомого параметра Парадоксально, але це не завжди вірно. Наприклад, істинне значення параметра
Пояснення парадоксу Парадоксальність ситуації полягає в тому, що очікується, що функція апостеріорної щільності буде набувати найбільше значення в околі істинного значення Нехай апріорний розподіл параметра
де
При відповідному виборі Найбільшого розповсюдження набули три точкові оцінки параметра 1. Мода. Оцінка
2. Медіана. Оцінка
або
3. Середнє. Оцінка
|
||
|
Последнее изменение этой страницы: 2021-08-16; просмотров: 208; Нарушение авторского права страницы; Мы поможем в написании вашей работы! infopedia.su Все материалы представленные на сайте исключительно с целью ознакомления читателями и не преследуют коммерческих целей или нарушение авторских прав. Обратная связь - 216.73.216.33 (0.008 с.) |