岡田謙介(2018) ベイズファクターによる心理学的仮説・モデルの評価. 心理学評論, 61(1), 101-115.
仕事の都合で急遽読んだ。こういう日本語のきちんとした解説を先に読んでおくべきであった。
いくつかメモ:
- 平均についてベイズ的に仮説検定したいとき、対立仮説を表すモデルでは\(\mu\)に無情報事前分布を与えたいんだけど、正則でないと困る。そこで、まず\(\delta=\mu/\sigma\)として単位への依存をなくす。で、\(p(\sigma^2) \propto 1/\sigma^2\)とし(Jeffreys事前分布)、\(\delta=Cauchy(1)\)とする(これもJeffreysの提案)。このアイデアはJeffreysとZellner & Siowに由来するのでJZS事前分布と呼ぶ。[そうか、なるほど… 効果量の事前分布としてコーシー分布を持ち出してくるのはJeffreysに由来するのね]
- あるモデルの下での周辺尤度 $$ p(y) = \int p(y|\theta) p(\theta) d\theta $$をどうやって求めるか。ふつうのモンテカルロ推定では、\(\tilde{\theta}_i \sim p(\theta)\)をたくさんとってきて\(p(y|\tilde{\theta}_i)\)の平均をとる。ところが事後分布はたいてい裾が軽いから、\(\tilde{\theta}_i\)たいていはゼロ近辺、たまにでかい値となる。そこで重点サンプリングとかが提案されたんだけど、最近注目されているのがブリッジサンプリング(Rのbridgesamplingパッケージがこれ)。
- まず提案分布(事後分布と似てる分布)\(g(\theta)\)を用意します。そこから\(\tilde{\theta}_i\)をたくさんとってきて、\(p(y|\tilde{\theta}_i) p(\tilde{\theta}_i) h(\tilde{\theta}_i)\)を平均します。\(h(\cdot)\)はブリッジ関数と呼ばれる関数で、なんだかわからんがそういう関数をうまいこと推定します。
- 事後分布\(p(\theta|y)\)から\(\theta^{*}_j\)をたくさんとってきて、\(h(\theta^{*}_j) g(\theta^{*}_j)\)の平均をとります。
- (1)を(2)で割ります。
[わ、わからん… なにが起きているのか全くわからん…]
- 第二次大戦中、独軍の暗号解読のための研究のなかで、アラン・チューリングがベイズファクターの概念を提案していたのだそうだ。へえええ!