In der Bayesschen Statistik ist die Posterior predictive distribution eines statistischen Modells[1] die bedingte Wahrscheinlichkeitsdichte neuer, unbeobachteter Werte
, gegeben alle bisherigen Beobachtungen
. Man erhält sie durch Parameter-Integration der bedingten Dichte
mit der Posterior-Dichte
.
Definition
Die Posterior predictive distribution ist definiert als
![{\displaystyle p({\tilde {x}}|\mathbf {x} )=\int _{\Theta }p({\tilde {x}}|\theta )\,p(\theta |\mathbf {x} )\operatorname {d} \!\theta =\mathbb {E} _{\theta |\mathbf {x} }[p({\tilde {x}}|\theta )],}](https://wikimedia.org/api/rest_v1/media/math/render/svg/6afe8428838a43c6fa4e7178a26316f0f759d474)
wobei
der Parameterraum und
die Posterior-Dichte ist. Die Gleichheit lässt sich mit dem Gesetz der totalen Wahrscheinlichkeit direkt sehen.
Die Posterior predictive distribution spielt zum Beispiel im Rahmen der Gauß-Prozess-Regression eine wichtige Rolle.
Abgrenzung gegenüber der Prior predictive distribution
Die Prior predictive distribution lässt die beobachteten Daten außer Acht:
Bootstrap predictive distribution
Die Posterior predictive distribution kann durch Anwendung der Bootstrap predictive distribution
genähert werden, wobei
per Bootstrapping-Verfahren aus der empirischen Verteilungsfunktion gezogene Stichproben sind.[2][3]
Siehe auch
Einzelnachweise
- ↑ Gaussian Process Regression Analysis for Functional Data. ISBN 978-1-4398-3774-0.
- ↑ Tadayoshi Fushiki: Bayesian bootstrap prediction. „[…] the bootstrap predictive distribution is considered to be an approximation of the Bayesian predictive distribution […]“ doi:10.1016/j.jspi.2009.06.007.
- ↑ Tadayoshi Fushiki, Fumiyasu Komaki, Kazuyuki Aihara: Nonparametric bootstrap prediction. 2005, doi:10.3150/bj/1116340296.