У статистиці, ме́тоди Мо́нте-Ка́рло ма́рковських ланцюгі́в (МКМЛ, англ.Markov Chain Monte Carlo, MCMC) — це клас алгоритмів для вибірки з розподілу ймовірностей на базі побудови такого ланцюга Маркова, що має бажаний розподіл як свій рівноважний розподіл. Тоді стан цього ланцюга після якогось числа кроків використовується як вибірка з бажаного розподілу. Якість вибірки покращується як функція від кількості кроків.
У баєсовій статистиці нещодавні розробки методів МКМЛ стали ключовим кроком в уможливленні обчислення великих ієрархічних моделей, що вимагають інтеграції над сотнями або навіть тисячами невідомих параметрів.[3]
Їх також застосовують для генерування вибірок, що поступово покривають зону рідкісного збою у виборі рідкісних подій[en].
Коли методи МКМЛ застосовуються для наближення багатовимірних інтегралів, то всюди випадково рухається ансамбль ходаків. У кожній точці, де ступає ходак, до інтегралу зараховується значення підінтегрального в цій точці. Потім ходак може зробити якусь кількість пробних кроків цією зоною, шукаючи місця з прийнятно високим внеском до інтегралу, щоби рухатися туди далі.
Вибірка за Ґіббсом[en]: Цей метод вимагає, щоби було точно вказано вибірки з усіх умовних розподілів цільового розподілу. Він є популярним зокрема тому, що не вимагає жодного «регулювання».
Вибірка за рівнями[en]: Цей метод залежить від того принципу, що можна робити вибірку з розподілу шляхом рівномірної вибірки з області під графіком функції його густини. Він чергує рівномірну вибірку у вертикальному напрямку з рівномірною вибіркою з горизонтального «рівня», визначеного поточною вертикальною позицією.
Багатоспробовий метод Метрополіса[en]: Цей метод є варіацією алгоритму Метрополіса — Гастінгса, що дозволяє багаторазові спроби у кожній точці. Дозволяючи робити більші кроки на кожній ітерації, він допомагає розв'язувати прокляття розмірності.
Реверсивно-стрибковий[en]: Цей метод є варіацією алгоритму Метрополіса — Гастінгса, що дозволяє пропозиції, які змінюють розмірність простору.[4] Методи МКМЛ, що змінюють розмірність, тривалий час застосовуватися у статистичній фізиці, де для деяких задач використовується розподіл, що є великим канонічним ансамблем (наприклад, коли кількість молекул у коробці є змінною). Але реверсивно-стрибковий варіант є корисним при виконанні МКМЛ або вибірки за Ґіббсом над непараметричними[en] баєсовими моделями, такими як пов'язані з процесом Діріхле[en] чи процесом китайського ресторану[en], де кількість змішуваних складових/кластерів/тощо автоматично виводиться з даних.
Взаємодійні методології МКМЛ є класом методів частинок осередненого поля[en] для отримання випадкових виборок із послідовності розподілів ймовірності зі зростаючим рівнем складності вибірки.[5] Ці ймовірнісні моделі включають моделі простору шляху зі збільшуваним часовим горизонтом, апостеріорними розподілами відносно послідовності часткових спостережень, збільшуваними наборами рівнів обмежень для умовних розподілів, зменшуваними графіками температури, пов'язаними з деякими розподілами Больцмана — Ґіббса, та багато інших. У принципі, будь-який відбірник МКМЛ може бути перетворено на взаємодійний відбірник МКМЛ. Ці взаємодійні відбірники МКМЛ може бути інтерпретовано як спосіб паралельного виконання відбірників МКМЛ. Наприклад, взаємодійні імітаційні алгоритми ренатурації базуються на незалежних кроках Метрополіса — Гастінгса, що послідовно взаємодіють з механізмом типу вибору/повторного взяття вибірки. На відміну від традиційних методів МКМЛ, параметр точності цього класу взаємодійних відбірників МКМЛ стосується лише кількості відбірників МКМЛ, що взаємодіють. Ці передові частинкові методології належать до класу частинкових моделей Фейнмана-Каца,[6][7] що у спільнотах баєсового висновування та обробки сигналів називаються також послідовними методами Монте-Карло[en], або частинковими фільтрами[en].[8] Взаємодійні методи МКМЛ також може бути інтерпретовано як генетичні частинкові алгоритми мутації-відбору з мутаціями МКМЛ.
Вдосконаленіші методи використовують різні шляхи зменшення кореляції між сусідніми елементами вибірки. Ці алгоритми можуть бути складнішими для втілення, проте вони зазвичай демонструють швидшу збіжність (тобто, досягнення точного результату за меншу кількість кроків).
Приклади
Приклади методів МКМЛ не випадкового блукання включають наступне:
Гібридний алгоритм Монте-Карло[en] (ГМК, англ.Hybrid Monte Carlo, HMC): Намагається уникнути поведінки випадкового блукання за допомогою введення додаткового вектора імпульсу та реалізації гамільтонової динаміки, так, що функція потенціальної енергії є цільовою густиною. Імпульсні елементи вибірки відкидаються після вибірки. Кінцевим результатом гібридного алгоритму Монте-Карло є те, що пропозиції рухаються простором вибірки більшими кроками; вони відтак є менш корельованими, та швидше згортаються до цільового розподілу.
Деякі варіації вибірки за рівнями також уникають випадкового блукання.[13]
МКМЛ Ланжевена, та інші методи, що покладаються на градієнт (та, можливо, другу похідну) логарифму апостеріорного, уникають випадкового блукання, роблячи пропозиції, що правдоподібніше знаходяться в напрямку вищої густини ймовірності.[14]
Збіжність
Цей розділ не містить посилань на джерела. Ви можете допомогти поліпшити цей розділ, додавши посилання на надійні (авторитетні) джерела. Матеріал без джерел може бути піддано сумніву та вилучено.(серпень 2015)
Побудувати ланцюг Маркова із потрібними властивостями зазвичай нескладно. Складнішою задачею є визначити, скільки кроків потрібно для згортки до стаціонарного розподілу із прийнятною помилкою. Добрий ланцюг матиме швидке перемішування[en]: стаціонарний розподіл досягається швидко при старті з довільного положення.
Типова вибірка МКМЛ може лише наближувати цільовий розподіл, оскільки завжди залишається якийсь залишковий вплив початкового положення. Вдосконаленіші алгоритми на базі МКМЛ, такі як спаровування з минулого[en], можуть видавати точні вибірки ціною додаткових обчислень та необмеженого (хоча й очікувано скінченного) часу виконання.
Багато методів Монте-Карло випадкового блукання рухаються навколо рівноважного розподілу відносно малими кроками, без тенденції до того, щоби кроки просувалися в одному напрямку. Ці методи є легкими для втілення та аналізу, але, на жаль, дослідження ходаком усього простору може забирати багато часу. Ходак часто повертатиметься, і повторно досліджуватиме вже досліджену місцевість.
↑Banerjee, Sudipto; Carlin, Bradley P.; Gelfand, Alan P. Hierarchical Modeling and Analysis for Spatial Data (вид. Second Edition). CRC Press. с. xix. ISBN978-1-4398-1917-3. (англ.)
↑Chen, S., Josef Dick, and Art B. Owen. «Consistency of Markov chain quasi-Monte Carlo on continuous state spaces.» The Annals of Statistics 39.2 (2011): 673—701. (англ.)
↑Tribble, Seth D. Markov chain Monte Carlo algorithms using completely uniformly distributed driving sequences. Diss. Stanford University, 2007. (англ.)
↑Papageorgiou, Anargyros, and J. F. Traub. «Beating Monte Carlo.» Risk 9.6 (1996): 63-65. (англ.)
↑Sobol, Ilya M. «On quasi-monte carlo integrations.» Mathematics and Computers in Simulation 47.2 (1998): 103—112. (англ.)
Asmussen, Søren; Glynn, Peter W. (2007). Stochastic Simulation: Algorithms and Analysis. Stochastic Modelling and Applied Probability. Т. 57. Springer. (англ.)
Gill, Jeff (2008). Bayesian methods: a social and behavioral sciences approach (вид. 2nd). Chapman & Hall/CRC. ISBN1-58488-562-9. (англ.)
Green, P.J. (1995). Reversible-jump Markov chain Monte Carlo computation and Bayesian model determination. Biometrika[en]. 82 (4): 711—732. doi:10.1093/biomet/82.4.711. (англ.)