« 読了:「道元の思想」 | メイン | 読了:Weaver & Prelec (2013) ベイジアン自白剤 in 市場調査 »
2014年4月15日 (火)
人々に次の2問を聴取する。問1は、選択肢m個の単一選択設問。問2は、問1に対して人々がどうこたえるかの予測。たとえば、問1「これまでに万引きしたことがありますか?」, 問2「問1にハイと答える人は調査対象者のうち何パーセントだと思いますか?」。
十分に多くの人から回答を集め、問1と問2を集計する。で、各個人について「情報スコア」 と「予測スコア」 を求める。
情報スコアは、その人が問1で選んだ選択肢についての
log (問1でのみんなの選択率/問2でのみんなの予測の平均)
とする。情報スコアは、「みんなが思ったよりも多くの人が選んだ選択肢」で正の値、「みんなが思ったよりも少ない人が選んだ選択肢」で負の値になる。
予測スコアは、全選択肢を通しての、
log(問2でのその人の予測 / 問1でのみんなの選択率) x (問1でのみんなの選択率)
の合計とする。予測スコアは、問2が完璧にあたっていたら 0となり、外れた程度に応じて伴って負の大きな値になる。
で、2つをあわせた次のスコアを求めて
(情報スコア) + $\alpha$ (予測スコア)
この値に応じて報酬を渡すことにする。
各個人は報酬を最大化するような回答を示すとしよう。すると何が起きるか。
ある人$r$の本当の答えをベクトル$t^r$で表す。上の例では、選択肢が(イイエ, ハイ)の2つで、もし$r$さんは本当は万引きしたことがある人だったら、$t^r=(0,1)$である。つまり、$t^r$はどこかの要素が1, ほかの要素が0である。なお、$t^r$のk番目の要素を$t_k^r$と表す。また、本当の答えが$i$であること、つまり$t^r$の$i$番目の要素が1であることを$t^r_i$と略記する。
同様に、$r$さんの問1の回答を$x^r$,問2の回答を$y^r$とする。上の例で、$r$さんの回答が問1「イイエ」問2「20%」だったら、$x^r = (1,0), y^r=(0.8, 0.2)$である。$y^r$はどの要素も0以上、全要素を足すと 1 になる。
問1, 問2の各選択肢における平均を、それぞれ以下のように定義する。
$\bar{x}_k = \lim_{n → \inf} (1/n) \sum_r x_k^r$
$\log \bar{y}_k = \lim_{n → \inf} (1/n) \sum_r \log y_k^r$
$y$のほうで対数をとっているのは、幾何平均を使いたいからで、他意はない。
情報スコアと予測スコアは、それぞれ下式となる。
(情報スコア) = $\sum_k x_k^r \log(\bar{x}_k/\bar{y}_k) $
(予測スコア) = $\sum_k \bar{x}_k \log (y_k^r / \bar{x}_k)$
母集団における$t$の分布をベクトル$\omega$で表す。たとえばさっきの例で、本当の答えがyesの人が全体の2割なら、$\omega = (0.8, 0.2)$である。それぞれの人の本当の答え $t^1, t^2, ..., t^n$は、$\omega$の下で互いに独立であると仮定する。
選択肢$k$のみんなの選択率に対する$r$さんの推測(問2への回答そのものかどうかはわからない)を$p(t_k | t^r)$と表す。何度も読み返してようやく気がついたのだが、この表記の気持ち悪さのせいで話がすごくわかりにくくなっていると思う。$t^r$はrさんの信念を表す記号で、$t_k$は自分以外の他の人の信念についての信念を表す記号なのだ。書き分ければいいのにと思う。
もし本当の答えが違っていたら推測も違っていると仮定する。つまり、もし$t^r \neq t^s$なら$p(t_k | t^r) \neq p(t_k | t^s)$である。
いま、両方の問いに対して全員が正直だと仮定しよう。このとき、問1, 問2の平均は
$\bar{x}_k = \omega_k$
$\log \bar{y}_k = \sum_j \omega_j \log p(t_k | t_j)$
原文では右辺の$\sum$の上添字が$n$になっているけど、$m$ではないかしらん。
本当の答えが$i$である人が、他の人は正直だと仮定したとき、自分の回答$j$によって得られる情報スコアの期待値
$E(回答$j$への情報スコア | t_i) = E( \log(\bar{x}_j/\bar{y}_j ) | t_i)$
について考えよう。
実は、上の式は次のように変形できる。
$E(回答$j$への情報スコア | t_i) = \sum_k p(t_k | t_i) \int p(\omega | t_k, t_i) \log (p(\omega | t_k, t_j) / p(\omega | t_k)) d\omega$
ここからはそのプロセス。さあ深呼吸。
まず、$\bar{x}_j$と$\bar{y}_j$は$\omega$で決まるので、$\omega$で積分する形に書き換える。
$E(回答$j$への情報スコア | t_i) = \int p(\omega | t_i) E( \log (\bar{x}_j / \bar{y}_j) | \omega) d\omega$
積分のなかの期待値記号の内側, $\log (\bar{x}_j / \bar{y}_j)$について考える。
$\log (\bar{x}_j / \bar{y}_j) = \log \bar{x}_j - \log \bar{y}_j$
問1の平均, 問2の平均を放り込んで
$= \log \omega_j - \sum_k \omega_k \log p(t_j | t_k)$
第1項を第2項の$\sum$のなかにいれて
$= \sum_k \omega_k (\log \omega_j - \log p(t_j | t_k))$
$= \sum_k \omega_k \log (\omega_j / p(t_j | t_k))$
期待値記号の中に戻すと
$E( \log (\bar{x}_j / \bar{y}_j) | \omega) = \sum_k \omega_k \log (\omega_j / p(t_j | t_k))$
元の式に戻すと
$E(回答$j$への情報スコア | t_i) = \int p(\omega | t_i) \sum_k \omega_k \log (\omega_j / p(t_j | t_k)) d\omega$
$\sum$を頭にだしてやって
$= \sum_k \int \omega_k p(\omega | t_i) \log (\omega_j / p(t_j | t_k)) d\omega$
$\log$の左側は、
$\omega_k p(\omega | t_i) $
$= p(\omega, t_k | t_i) $
$= p(t_k | t_i) p(\omega | t_k, t_i) $
$\log$の内側は、トリッキーだけど、
$\omega_j / p(t_j | t_k) $
$= {p(t_j | \omega) p(t_k | t_j, \omega)} / {p(t_j | t_k) p(t_k | \omega)}$
$= p(\omega | t_k, t_j) / p(\omega | t_k)$
あわせて、
$E(回答$j$への情報スコア | t_i) = \sum_k p(t_k | t_i) \int p(\omega | t_k, t_i) \log (p(\omega | t_k, t_j) / p(\omega | t_k)) d\omega$
となる。やれやれ。
話を本筋に戻して、本当の選択肢$i$とウソの選択肢$j$を比べると、
$E(回答 i への情報スコア | t_i) - E(回答 j への情報スコア | t_i)$
$= E( \log(\bar{x}_i/\bar{y}_i ) | t_i) - E( \log(\bar{x}_j/\bar{y}_j ) | t_i) $
$= - \sum_k p(t_k | t_i) \int p(\omega | t_k, t_i) \log ( p(\omega | t_k, t_j)/p(\omega | t_k, t_i) ) d\omega$
ええと、イエンゼンの不等式というのがあって、Wikipediaによれば、$p(x)$が正で合計1のとき、凸関数$f(x)$について
$\int f(y(x)) p(x) dx > f (\int y(x) p(x) dx)$
なのだそうであります。これを使って
$> - \sum_k p(t_k | t_i) \log { \int p(\omega | t_k, t_i) p(\omega | t_k, t_j)/p(\omega | t_k, t_i) d\omega }$
$\log$の内側を見ると、
$\int p(\omega | t_k, t_i) p(\omega | t_k, t_j)/p(\omega | t_k, t_i) d\omega$
$= \int p(\omega | t_k, t_j) d\omega$
$= 1$
なので、結局
$E(情報スコア | t_i) - E(情報スコア | t_j) = 0$
である。
つまり、他の人の回答が正直だと仮定すれば、情報スコアを最大化する回答とは、正直な回答である。
では、自分の予測スコアを最大化するためにはどうしたらよいか。途中すっ飛ばすけど、
$E \{ \sum_k \bar{x}_k \log (y_k / \bar{x}_k) | t_i \}$
$= \sum E \{ \omega_k | t_i \} \log y_k - E \{ \sum_k w_k \log w_k | t_i \}$
第二項は自力では如何ともしがたい。予測スコアを最大化するのは
$y_k = E \{ \omega_k | t_i \} = p (t_k | t_i) $
つまり、正直な回答である。
というわけで、正直に答えることがベイジアン・ナッシュ均衡となる。
疲れたのでやめるけど、ほかの均衡解もあるうるが、この解の情報スコアよりも大きくなることはないことも示せる由。
以上、Prelec さんの「ベイジアン自白剤」論文(2004, Science)のsupplementary material から抜粋。
哀しいかな、このたった12ページにこの週末を捧げたのに、いまだ腑に落ちない。なんだか狐につままれたような気分だ。
2015/02/22追記: 数式の誤りを修正。
論文:予測市場 - 「ベイジアン自白剤」メモ