elsur.jpn.org >

2017年9月21日 (木)

佐藤忠彦・樋口知之 (2013) ビッグデータを用いたマーケティングモデル : データ同化適用の可能性. シミュレーション, 32(4), 50-56.
 泣く子も黙る(?) 偉い先生方による、「データ同化はマーケティングにも適用できるんじゃないか」という意見論文。いまやデータは山ほどあるんだから、状態空間モデルで消費者異質性を捉え、エージェント・ベースでシミュレーションやればいいじゃん、という主旨。
 勉強不足でよく理解できていないところもあるのだけれど、あまりに面白かったので、こないだの業界団体のセミナーでネタにしてしまった... 精進いたしますです。

論文:データ解析 - 読了:佐藤・樋口(2013) マーケティングにおけるデータ同化の可能性

柘植隆弘(2014) 「表明選好法と熟議型貨幣評価」. 坂井(編)「メカニズムデザインと意思決定のフロンティア」, 慶應義塾大学出版会.
 日本語の本の1章で、そんなに長いものでもないんだけど、慣れない分野なのでメモをとりながら読んだ。

 環境経済学ではさまざまな環境評価手法(環境の価値の経済的評価)が開発されている。次の2つに分けられる。

 その1、顕示選好法。人々の行動によって評価する。代替法、トラベルコスト法、ヘドニック価格法など。非利用価値(「生態系を守る」的な、自分が利用しなくても得られる価値)は測れない。

 その2, 表明選好法。代表的な手法は、

  • 仮想評価法(CVM)。環境改善への支払意思額(WTP), 環境悪化に対する受入補償額(WTA), 環境改善中止に対するWTA, 環境悪化中止に対するWTA、のいずれかを評価させる。設問形式は二肢選択にすることが多い。なお訊き方についてはNOAAガイドラインというのがある。ランダム効用モデルで分析することが多い。
  • コンジョイント分析。環境評価手法として用いられるようになったのは90年代以降[えええ? 結構最近だな...]

 表明選好法は対象者が消費者選好に基づき決定することを前提にしているが、選好を持っているかどうか怪しいし、社会的問題についての意思決定ってのはむしろ非利己的な市民としての選好に基づくのかもしれない。
 実験例:

  • Bateman et al. (2008 J.Env.Econ.Mgmt.): 人は経験を通じてはじめて経済理論と整合的な選好を持つ。[メモは省略するけど、面白いなあ、この実験]
  • Spash (2006): 環境への意識が高い人は環境へのWTPが高い。[素人目にはそりゃそうでしょうという話だが、この分野ではまずい話なのだろう]

 最近では熟議型貨幣評価というのが提案されている。これは討論型世論調査なんかの環境評価版。ワークショップみたいのをやったあとで環境を評価させる。手法はいろいろあって、体系的に確立していない。
 実証研究は2つにわかれる。(1)先行形成に主眼を置いた研究。WTPは個人で決める。グループでの議論はその支援である。(2)市民選好に主眼を置いた研究。WTP自体も集団で決めちゃう。
 著者らの研究例:

  • 笹尾・柘植(2005): ワークショップで選好がどう変わるか。
  • Ito et al.(2009): 最後を多数決にする場合と合意形成にする場合を比較。合意形成のほうが納得感が高い。

 今後の課題。DMVについて以下の点の改善が求められる:(1)人数が多いと無理、(2)コストが高い、(3)評価額の理論的基礎づけが足りん。[←なるほど]

 ... いやー、DMVって面白いなあ! 仕事ともものすごく関係が深い。なんとなく衝動買いして、軽い気持ちで読み始めたんだけど、こいつは良いものを読んだ。時間ができたら勉強してみよう。

 ちょっと気になった点をメモ。

  • 二肢選択形式のWTPデータを分析する手法として、ランダム効果モデルのほかに「支払意思額関数モデル」「生存分析」が挙げられていた。生存分析か...きっと提示金額を時間、回答を生死に見立てるのだろう。以前、マーケティングの研究者の方が、マーケティング・リサーチで使われるPSMのデータを生存モデルで分析するという論文を書いておられたが、そういう分析ってアリなんだなあ。栗山浩一という方の本か、Mitchell & Carsonという訳書を読むと良さそうだ。
  • CVMの回答プロセスの心理学的研究: Schkade & Payne (1994 J.Env.Econ.Mgmt.), Payne, Bettman, Schkade(1999 J.Risk&Uncertainty), Clark et al.(2000 Ecological Econ.)。えっ、Bettmanって、消費者行動論のBettman??

論文:調査方法論 - 読了:柘植(2014) 表明選好法と熟議型貨幣評価

Axley, S.R. (1984) Managerial and Organizational Communication in Terms of the Conduit Metaphor. The Academy of Management Review, 9(3), 428-437.
 経営・組織研究におけるReddyの導管メタファ説の意義を語る、意見論文というかエッセイというか。
 良く引用されているので気になっていた文献。このたび発表準備のついでに読んでみた(現実逃避ともいう)。あいにくPDFが手に入らなかったので、JSTORの無料レンタルで、ディスプレイ上で...

 まず、人間とはシンボルを使う動物だ、というような能書きがあって...それこそアリストテレスから始まって、古今東西の学者の名前がてんこ盛り。こういう書き出しがお好きな方って、いらっしゃいますよね...

 人間の行動と思考はメタファによって組織化されている... [という説明が半頁]
 Reddy(1979)いわく、こうしたメタファの分析は言語そのものに適用できる。コミュニケーションについての英語の表現の多くは、(1)言語は人から人へと思考・感覚を運搬するものだ、(2)話し手・書き手は語に思考・感覚を挿入する、(3)語は思考・感覚を含む、(4)聞き手読み手は思考・感覚を語から抽出する、という想定を比喩的に表現している。Reddyはこれを導管メタファ(conduit metaphor)と呼んだ。[英語表現の例を使った説明が1頁]

 いっぽうコミュニケーション研究者はコミュニケーションについて異なる見方をしている。たとえばRedding(1972, 書籍)をみよ。
 コミュニケーションにおいて生じるのは意味の運搬ではなく意味の創造だ。[ここでまたぐだぐだと...] 聞き手がどんなメッセージを見出すかはわからない。そして問題となるのは聞き手が見出したメッセージだ。[ここでまた延々と...] コミュニケーションにはある程度の冗長性が必要だ。伝言を繰り返すとメッセージはどんどん変わる(serial communication effect)。

 多くの教科書における組織的・経営的コミュニケーションについての説明は導管メタファと整合している。このように、組織において、導管メタファに由来する「コミュニケーションなんて努力しなくても大丈夫」仮定が広がっている。
 その結果、以下の事態が生じるのではないか。(1)組織内のコミュニケータが自分のコミュニケーション効率性を過大視してしまう。(2)マネージャーがコミュニケーションの冗長性を嫌い、努力を怠る。(3)ミスコミュニケーションの危険が見過ごされる。(4)組織内教育においてコミュニケーションのスキルと行動が軽視される。 

 今後の研究の方向:(1)上で指摘した可能性の実証。(2)ある人が導管メタファにどのくらいコミットしているかを評価する手段の開発。(3)導管メタファへのコミット度と他の変数との関連性についての検討。他の変数としては、コミュニケーションの効率性, 努力の程度, 冗長性が必要だという要求, フィードバックへの努力, 冗長性の程度, 組織内の諸問題がコミュニケーションの問題だと捉えられる程度、が挙げられるだろう。
 云々。

 ... いやはや、文章が大変くどく、言い回しが妙に文学的で辟易した。昔の学者さんだなあという感じ。ディスプレイ上で読んでいたせいもあって(言い訳)、あんまりきちんと読んでない。
 いい点を探すと、「ある人が導管メタファに毒されている程度を測定しようぜ」というのは面白いなあと思った。もともと導管メタファというのは社会文化のレベルの話であって、個人差があるというような話ではないと思うのだけれど、さすが、視点が組織研究っぽい。

論文:心理 - 読了:Axley (1984) 経営・組織研究者よ、導管メタファに注目せよ

2017年9月17日 (日)

Kappes, H.B., Morewege, C.K. (2016) Mental simulation as substitute for experience. Social and Personality Psychology Compass, 2016, 1-16.
 社会心理学分野でのメンタル・シミュレーション研究レビュー。仕事の役に立つかと思って読んだ。
 聞いたことない誌名だし、webをみてもIFが書いてないし、不安だったんだけど、2007年発刊のオンライン・ジャーナルなのだそうだ。ScimagoというScopusがやってるランキングでは社会心理で27位だったので、じゃあ目を通してみるか、と。
 
 Taylor et al. (1998 Am.Psy.)いわく、メンタル・シミュレーションとは一連の事象のimitative なエピソード表象である。それはふつう特定の事象(現実かどうかは別にして)の詳細な心的表象を含む。
 メンタル・シミュレーションに関わる神経システムと概念システムは、シミュレート対象の行動に関与する知覚運動システムと重なっている。[イメージング研究とかをいくつか引用...] メンタル・シミュレーションは経験の代替物として働くことがあると思われる。

 代替効果について。
 これは人間の資源が有限だという認識に由来する概念である。経済学とかマーケティングとかだと、複数の選択肢に対する時間なり金銭なりの支出は負の関連を持つことがある。これが代替効果。目標志向的行為はモチベーショナルな特性を持っているから代替効果が生じる。[...しばらく社会心理系の研究の引用が続き...]

 行為じゃなくてメンタル・シミュレーションでも代替効果が起きる。以下では4つのカテゴリ(網羅的じゃないけど)にわけてレビュー。

A) 物理的エビデンスの代替をシミュレーションが提供する
事象のシミュレーションが価値を持つ:

  • Carroll(1978 JESP): 1976年大統領選で、カーターが勝つと想像させるとその後のカーター勝率予測が上がった。スポーツでも同様の結果。
  • Anderson(1983 JPSP): 献血とか休暇取得とかを想像させると自分がそうするという見込みが上がった
  • Shearer, et al.(2007 J.Sports Sci. Med.): チームの成績が良い場面を想像させるとチームの能力を高く見積もるようになった

シミュレーションで期待が変わる(cf.期待-価値モデル):

  • Morewedge & Buechel (2013 Emotion): 成功したときの価値は高いが成功できるかどうかが不明なとき、人は成功をシミュレーションする
  • Hall(2001 Chap.), Murphy, Nordin & Cummig (2006 Chap.): 能力あるアスリートはシミュレーションによってモチベーションと確信を得る
  • Stachi & Crisp (2008 JESP), Truner, Crisp & Lambert(2007 Group Proc. Intergroup Rel.): 外集団との相互作用の成功を想像すると実際に相互作用しようという意向が高まる
  • Gregory et al.(1982 JPSP): ケーブルテレビを見るのを想像すると契約したくなり、実際に契約しやすくなる [←まじか、82年の段階でこんなのがあるのか...考えてみると、Sharmanの質問-行動効果の実験が80年のJPSPだ。ルーツは共通しているのかも]

 シミュレーションが期待に影響するのは利用可能性を高めるからだと考えられてきた。でもそれだけではない。
 一般に人は、自分が行為者であるときよりも観察者であるとき、行為の原因を傾性に帰属しやすい。これがシミュレーションにもあてはまる。Libby & Eibach(2011 Adv.ESP), Libby, Shaeffer, Eiback, & Slemmer (2007 Psych.Sci.), Vasques & Bueler(2007 PSPB). [←なるほどね...シミュレートされた行為の原因を自分の傾性に帰属するって訳か。面白い説明だ]

B) 物理的練習(practice)の代替をシミュレーションが提供する
 [本項、いま関心ないのでかなり端折る]
 この現象はimaginary practice, covert rehearsal, symbolic rehearsal, introspective rehearsalなどと呼ばれている。
  認知課題や運動課題でスキルが必要な奴にメンタル・シミュレーションが良く効く。このタイプの研究はいっぱいあってメタ分析まである。とはいえメンタル・シミュレーションだけだとあんまり効かず、実際の練習との併用が必要。
 なぜ効くのか。2説ある。(1)複雑な行為の表象的枠組みが作られたり再構築されたりして、行為の単位のチャンキングと関連づけが起き、計画が促進されるから。(2)実際と同じ視覚・筋運動プログラムが活性化されるから。最近の研究は(1)を支持。

C) 実際の消費の代替をシミュレーションが提供する
 [ここは関心があるので丁寧にメモると...]
 食刺激に関連する感覚手がかりを想像すると、実際に接触したときと類似したsensitizationが生じる(初回接触における刺激への反応性が増す):

  • Krishna, Morrin, & Sayin (2014 JCR): 食べ物の匂いを想像すると想像した消費が実際に増える
  • Huh, Vosgerau, & Morewedge (2016 JMR): 食物の消費を想像すると消費が増え支払意思額があがる
  • Djordjevic et al.(2004 Exp.Brain.Res.): 匂いの想像が味覚に影響する
  • Djordjevic et al.(2005 NeuroImage), Simmons, Martin & Barsalou(2005): 匂いの想像が実際の匂いを嗅いだ時と同じ脳活動を引き起こす

 実際の刺激への繰り返し接触が引き起こすhabituation(モチベーショナルな反応が減ること)やsatiation(ヘドニックな反応が減ること)が、刺激接触の想像でも起きる:

  • Morewedge, Huh, & Vosgerau (2010 Sci.) 大量のチョコを食べる場面を想像するとそのあとのチョコの消費が減る。この抑制はチョコ同士の間でないと起きない。また大量のチョコをボールからボールに移すのを想像しても減らない。[←キャッチーな実験だなあ]

食経験のメンタル・シミュレーションは自発的に起きる:

  • Tucker & Ellis(1998 JEP:H): カップの取っ手を見るだけでつかむ動作が想像される

自発的シミュレーションが実際の行為を促進する:

  • Elder & Krishna(2012 JCR), Krishna & Sckwarz (2014 J.Cons.Psysh.): 利き手向きにフォークが刺してあるケーキは魅力的
  • Larson, Redden, Elder (2013 J.Cons.Psysh.): 多くの食べ物の選択肢のなかから選ばせると食欲が減る。つまり自発的シミュレーションがもたらすのは流暢性だけではない。

 背後のプロセスについて直接示した研究はないけれど、記憶における心的表象が、初期状態→活性化→減衰→初期状態と移行しているからだろう。cf. Epstein et al.(2009 Psych.Rev.)。

D) 実際の達成の代替をシミュレーションが提供する
 未来を想像することで満足の先延ばしを可能にしその場の行為を抑制するのは、実際にその場で満足を手に入れようとするのがまずい場合には有益だけど、達成の代替物になっちゃって目標追求を阻害することもある。

  • Kappes & Oettingen(2011 JESP): ポジティブなファンタジーを書くとその後でネガティブな目にあったり時間管理がうまくいかなくなったりする
  • Spencer & Norem (1996 PSPB): ダーツ投げの前に、自分が熟達していると想像すると、防衛的な悲観主義者や戦略的な楽観主義者は成績が悪くなる
  • Kappes, Oettingen, & Mayer(2012 Euro.JSP), Oettingen & Mayer(2002 JPSP), Oettingen & Wadeen(1991 Cog.Therapy Res.): ダイエット、新しい人間関係の開始、進級について、成功をイメージしている人が多い群のほうが成績が悪い

 背後のプロセスは2つある。(1)想像上の成功が現実とごっちゃになっちゃって努力しなくなるから。(2)想像上の成功がプランニングを阻害するから。

統合
 このように、メンタル・シミュレーションは経験の代替となり、さまざまな代替効果を引き起こす。

  • 今後の課題として、代替効果の持続性の問題がある。
  • メンタル・シミュレーションによる代替効果は、経済学でいう古典的な代替効果にだいたい従っている。少なくともB,C,Dはそう。Aの場合は、想像されたエビデンスが物理的エビデンスを単に補足するのではなく、物理的エビデンスの探索を阻害するのだと考えればそうなんだけど、これは直接的な証拠がない。
  • これまでの研究では、上述のメンタル・シミュレーション効果の基盤にある過程をばらばらに扱ってきた。でもたぶんプロセスは共通している。違うところを調べるのも大事。おそらく、認知のレベルでは、記憶とプランニングのプロセスが共通点で、モチベーションと目標追求への影響が違う点なのであろう。
  • 実務的な問題として... 人々はたいてい、成功を想像するとモチベーションが上がると思っている。ベストセラー「ザ・シークレット」をみよ、そんな話ばっかしだ。でもむしろ目標追求のサボタージュに繋がる場合もあるわけだ。
  • メンタル・シミュレーションの効果は代替効果だけではないことに注意。行為の学習という側面もある。
  • 行動変容研究の文脈でいうと、シミュレーションは回避行動への関与を高めるツールとして使われることが多く、ある行動を減少させようという場合には思考抑制に頼ることが多い。禁煙のためにたばこの心的イメージを壊す課題をやるとか。でも行動変容ってのはもっと複雑な問題で、むしろ望ましくない行為をシミュレートさせた方がいいのかも。

云々、云々...

 ...オンライン・ジャーナルと思って正直なめてましたが、きちんとしたレビューであった。疲れた。

 読んでいる途中で気がついたんだけど... メンタル・シミュレーションって、なんとなく技能学習の文脈のなかで捉えていたのだが(この辺は伝統的な心理学の体系に知らないうちに縛られているのかも知れない)、質問紙調査法の研究でいうところの質問-行動効果とか、いま流行の身体化認知とか、いろんな問題の基盤として考えることができる。
 調査手法研究の文脈でいうと、メンタル・シミュレーションは回答時課題であって調査者にとってポジティブなもの、質問-行動効果は回答行動がもたらす予期せざる影響であって調査者にとってネガティブなもの、身体化認知は意外な回答方略でありポジティブともネガティブといえない... という漠然とした思い込みがあったけれど、著者らが最後に述べているように、認知的プロセスはかなり共通しているのだろう。
 なんだかなあ。面白そうでいやになるなあ。

 もう一点、面白かったのは、こういうレビューはべつに網羅的でなくていいんだな、ということ。
 率直にいって、著者らが選んだ4つのテーマがメンタル・シミュレーションの研究史をどこまで包括しているのかわからないし、なぜこの4つを選んだのかという点にも、ちょっと恣意的な感じを受ける。でも、いいんだなあ、これで。4つのテーマを統合して、あるビジョンを示したわけだから。

論文:心理 - 読了:Kappes & Morewedge (2016) メンタル・シミュレーションが引き起こす代替効果レビュー

2017年9月15日 (金)

駒木伸比古(2016) 経済センサス実施にともなう商業統計の変容とその利用, E-jounal GEO, 11(1), 154-163.
 商業・流通業の研究者向けに、経済センサスと商業統計について解説する内容。あれ、話が入り組んでいてよくわからなかったので、助かりましたです。

論文:マーケティング - 読了:駒木(2016) 経済センサスと商業統計

McMahan, R.P, Gorton, D., Gresock, J., McConnel, W., Bowman, D. (2006) Separating the effects of level of immersion and 3D interaction techniques. Proc.ACM Symp. Virtual Reality Software and Technology. 108-111.
 これも仕事の都合で目を通したやつ。今気が付いたけど、なんてこった、この前に読んだComputer誌の記事と同じ著者だ... 探し方が悪いのだろうか...

 いわく。
 仮想環境の視覚的没入性が課題の成績にどう効くか、という研究は多い。また入力装置や3D相互作用技術のちがいがどう効くかという研究も多い。でも両者を一緒にみた研究がない。だから実験やりました。

 課題は3次元空間でモノを動かすゲーム。
 ディスプレイはCAVEという4面プロジェクタ(装置故障のため床面はなし)。立体視と頭部トラッキングを提供する。
 相互作用技術は[...あんまし関心ないので読み飛ばしちゃったけど、要するに...]杖だかなにかを使ってリアルに操作する奴(HOMERとGo-Go)と、マウスでどうにかして操作する奴(DO-IT)を用意。
 実験計画。要因は、立体視({あり, なし})、呈示面の数({1面, 3面})、相互作用技術({HOMER, Go-Go, DO-IT})。立体視・呈示面は被験者内、相互作用技術は被験者間で操作。
 被験者は各群3人、計12名。[←す、少ない... 心理学でいえば学部の卒論のレベルだ... 工学系はこれでもいいのかな...] 被験者内要因の水準が2x2=4、各1試行で計4試行。

 結果。[...詳細は端折って、要するに...] 相互作用技術はゲームの成績に効くけど、立体視や呈示面の数は効きませんでした。[←はっはっは。チャートをみると、マウスでやるのがよっぽどつらいゲームらしい]
 効いたのは相互作用技術自体なのか、それとも入力装置なのかはわからない。今後の課題です。
 云々。

 ... いっちゃなんだが、実験はかなりしょぼい。どこの卒論かと。でもあれなんでしょうね、見た目より全然大変なんでしょうね。マウスで操作するシステムは自前で作りましたって書いてあるし。
 実験の結果はどこまで一般性があるのか、よくわからない。ゲームの性質がちがえば視覚的没入性が効くかもしれない。このケースは、ゲームは比較的簡単、でもマウスで操作するのがよっぽど難しかったということではないだろうか。
 それはともかく、問題設定が面白いと思った。ほんとに知りたいのは、視覚入力におけるリアルさみたいなものと、環境との相互作用のリアルさみたいなものが、どう相互作用するのか (ことば遊びみたいだけど) ということなのであろう。

論文:心理 - 読了:McMahan, et al. (2006) VRで大事なのは視覚的没入性か相互作用テクニックか、実験してみた

Bowman, D.A,, McMahan, R.P. (2007) Virtual reality: How much immersion is enough?, Computer, 40(7), 36-43.
 仕事の都合で読んだ(なんというか、節操のない仕事だ...)。掲載誌はIEEEの一般向け機関誌みたいな奴だと思う。結構引用されている(Google様的には366件)。
 眠くてふらふらになりつつメモをとったので、中身には自信がない。

 いわく。
 これまでVR研究者は没入的なVRに取り組んできた。ユーザは驚いてくれる。でも実用事例は少ない。コストに見合う価値はあったのだろうか。

 没入的VRの成功例として、恐怖症の治療、軍の訓練、エンタメが挙げられる。それらはすべて、仮想環境が提供する経験が現実的であることが鍵だった。言い換えると、それらはすべて、ユーザがある環境のなかにいると感じるということが重要であるような事例であった。逆にいうと、そういうのに注目していたからこそ実用事例が少ないままなのではないか。

 別の戦略について考えてみよう。没入性から得られるベネフィットは他にないのか。そもそも没入性というのは単一の構成概念なのか。
 たとえば、石油・ガス産業のために、地価の油井のパスを視覚化するシステムをつくるとしよう。この場合、別に「自分が地下にいる」と感じさせる必要はない。視覚化はあまり現実的では困る。むしろ適度に抽象的なほうがよい。Gruchallaらはデスクトップディスプレイと没入型プロジェクタを比較し、後者のほうがパフォーマンスが上がることを示している。たぶん空間理解が促進されたのだろう。では没入型プロジェクタのどんな要素が空間理解を促進したのか。視野の広さか、頭部運動のトラッキングか。それがわかれば、もっと簡単なシステムで十分だということになるかもしれない。

 上に挙げたような研究は数が少ない。たくさんの問いが残されている。同じようなベネフィットを実現してくれる課題や応用がほかにもあるのではないか。没入性のどのような要素が利点をもたらすのか。もっと低レベルな没入性でも十分なのではないか...
 複数の要因について効果を検証する実験が望ましい。最初にGruchallaのような実践的研究をやり、次に要因を分解していくというやり方もできる。

 [ここで著者らの実験紹介...]
 いくつかの実験を通じてわかったことを挙げる。

  • 没入性の諸要素(特に視野の広さ、立体視、頭部トラッキング)は、空間の理解を促進する。でもその効果は一定でない。空間が簡単な場合は効果が小さい。
  • 没入性(特に立体視)は相互作用的課題の成績を向上させる。でも課題が簡単な場合は効果が小さい。
  • 没入性は情報の乱雑さを引き下げる。[←実験が紹介されているけど、この話、単に視野が広かったり解像度が高かったりしたら処理できる情報量が上がるという話で、没入性とは関係ないのでは...

 まとめ。
 実践的にはふたつの目標がある。没入的VRを成功させるという目標と、高価なVRシステムなしで済ませるという目標である。このふたつは別に矛盾していない。没入性というものを連続的なものとして捉え、どんなレベルの没入性がなにを生み出すかを考えればよい。
 云々。

 本文よか、途中で挿入されている解説コラムのほうが役に立った。
 没入性(immersion)とはVRシステムが提供する感覚的fidelityの客観的レベルのこと。presenceとはVRシステムに対する主観的・心理学的な反応のこと。
 没入性の要素としては、同時にみることができる視野の広さ、ユーザを取り囲む視野の広さ、ディスプレイのサイズ、解像度、立体視、ヘッドトラッキングによるレンダリング、リアルな光線、フレームレート、リフレッシュレート、などがある。提示しているモデル自体のリアルさをここに含めていないのは、課題によって必要性が異なるから。
 この定義でいうと、相互作用のリアルさは没入性とは別の問題。むしろ、(入力装置による)相互作用と(ディスプレイによる)没入性がループしていると考えるべきだ。云々。

 VRの没入性がユーザの行動に与える効果の研究として、Meehan et al.(2002 Proc.ACM Siggraph)というのが挙げられていた。

論文:心理 - 読了:Bowman & McMahan (2007) ヴァーチャル・リアリティってのは視覚的没入性が高ければ高いほどよいというものでもないだろう

2017年9月14日 (木)

Zammit-Mangion, A., Cressie, N. (2017) Fixed Rank Kriging: The R Package.

 Rの空間統計パッケージFRKのvignette。適当にめくるだけのつもりが、面白くてついつい読み耽ってしまった。ま、最初の3頁だけだけど。
 FRKとはFixed Rank Kriging (固定ランク・クリギング)の略である。

 いわく。
 FRKと似たパッケージとして以下がある。[このくだり、まったく意味がわからない箇所もあるが、後日のために逐語訳する。精度行列というのは共分散行列の逆行列のことね]

  • LatticeKrig: Wendland 基底関数(コンパクトなサポートを持つ)を使って、空間的相関を持つ過程を分解する。マルコフ想定によって精度行列(後述する$\mathbf{K}^{-1}$)を構築し、これらの基底関数の係数のあいだの依存性を記述する。我々が言うところの微細スケールプロセス変動[BAU内変動のこと?]を提供するのではなく、過程のスケールの微細さは、利用されている基底関数の微細さが限度となる。しかし、計算上のモチベーションにより$\mathbf{K}^{-1}$にスパース性が付与されているので、このスケールは比較的に微細なものとなりうる。基盤となるモデルは、ガウシアン・マルコフ確率場(GMRF)仮定を用いて構築されたスパースな精度行列を用いており、その結果、計算は効率的であり、また多数(10000以上)の基底関数が使えるようになっている。
  • INLA: モデル・フィッティングと予測のための汎用パッケージ。空間モデリング・時空間モデリングに使用する場合は次のように仮定するのが一般的である。まず、基底関数として三角形の「テント」関数を仮定する。係数は正規分布しその精度行列はスパースだと仮定する。その結果としてガウシアン過程の共分散関数はMaternクラスの空間共分散関数の近似となる。このように、INLAのアプローチはLatticeKrigと多くの点で共通している。INLAの主要な利点は、いったん空間モデルないし時空間モデルをつくってしまえば、パッケージが提供しているすべての近似推論機構と尤度モデルが使えるようになる、という点である。
  • spBayes: Kang & Cressie (2011)が開発したベイジアンFRKでは、空間基底関数は固定され$\mathbf{K}$に事前分布が付与される。Banerjee et al (2008)の予測過程アプローチもベイジアンFRKの一種だとみなすことができる。このアプローチでは、基底関数は空間ランダム効果の共分散関数から構築され、従ってパラメータに依存する。この予測過程を実装したのがspBayesパッケージである。多変量の空間・時空間過程を扱うことができる。多様な尤度モデルについて、MCMCによるベイズ推論を行う。結果として得られる基底関数はパラメトリックな共分散モデルに基づいて構築されているので、パラメータについての事前分布に基づき、MCMCの反復ごとに、新しい基底関数が生成される。そのため計算が遅くなることがあり、予測過程におけるノットの数を小さくしておく必要がある。

 モデルの概要。
 FRKパッケージはふつうのバリオグラム・モデルではなく、空間ランダム効果モデル(SRE)で問題を定式化する。

 地点$\mathbf{s}$における量$Y(\mathbf{s})$に関心があるとしよう。古典的な空間モデルなら、共変量ベクトルを$\mathbf{t(s)}$、回帰係数ベクトルを$\mathbf{\alpha}$、空間的相関があるランダム効果を$\upsilon(\mathbf{s})$、空間的相関がないランダム効果を$\xi(\mathbf{s})$ととして
 $Y(s) = \mathbf{t(s)}^\mathrm{T} \mathbf{\alpha} + \upsilon(\mathbf{s}) + \xi(\mathbf{s})$
ただし$E(\upsilon(\cdot)) = E(\xi(\cdot)) = 0$、とするところである。

 ここで、
 $\upsilon(\mathbf{s}) = \sum_{l=1}^r \phi_l(\mathbf{s}) \eta_l$
とする。$\mathbf{\eta} \equiv (\eta_1, \ldots, \eta_r)^{\mathrm{T}}$はランダムベクトル、$\mathbf{\phi} \equiv (\phi_1(\ldots), \ldots, \phi_r(\ldots))$はあらかじめ定められた空間基底関数である。
 [理解するまでに手間取ったのだが、ここがこの話のミソなのである。この$\mathbf{\phi}$こそがバリオグラム・モデルの変わり果てたお姿なのだと思う。話の先取りになるけど、FRKパッケージにはデータとバリオグラム関数の形状を指定すると$\mathbf{\phi}$の行列を自動的に作ってくれる関数がある。それを使わずに自力で作ってもよい]

 さて、空間を$N$個の重ならない小さな空間に完全に分ける[メッシュみたいなものであろう]。これを基本地域単位 BAU と呼ぶ。BAUの数$N$は基底の数$r$よりずっと大きいものとする。
 それぞれのBAUにおいて$Y(\mathbf{s})$を平均する。つまり、$i$番目のBAU $A_i$において
 $Y_i \equiv \frac{1}{|A_i|} \int_{A_i} Y(\mathbf{s}) d(\mathbf{s})$
このレベルでも、
 $Y_i = \mathbf{t}_i^\mathrm{T} \mathbf{\alpha} + \upsilon_i + \xi_i$
と分解できる。
 以下、各項について順にみていくと...

 BAUレベルの共変量$\mathbf{t}_i$はこうなる。
 $\mathbf{t}_i \equiv \frac{1}{|A_i|} \int_{A_i} \mathbf{t}(\mathbf{s}) d \mathbf{s}$

 BAUレベルの相関ありランダム効果$\upsilon_i$は
 $\upsilon_i \equiv \frac{1}{|A_i|} \int_{A_i} \upsilon(\mathbf{s}) d \mathbf{s}$
ここに$\upsilon(\mathbf{s}) = \mathbf{\phi}(\mathbf{s}) \mathbf{\eta}$を代入すると... [面倒くさいから書かないけど] 係数ベクトルと$\mathbf{\eta}$の積になる。係数の部分を取り出して$N \times r$行列$\mathbf{S}$とすれば、$\mathbf{\upsilon} = \mathbf{S\eta}$となる。なおこのパッケージでは、実際にはそれぞれの係数について積分するのではなく、BAUは十分に小さいとみて、BAUの重心$\mathbf{s}_i$を使い$\mathbf{\phi}(\mathbf{s}_i)$と近似する。
 $\mathbf{\eta}$について。このパッケージでは、$\mathbf{\eta}$を平均0, 共分散行列$\mathbf{K}$の正規ベクトルとする。$\mathbf{K}$は自由推定してもいいし、なんらかの構造を与えても良い。前者をFRK-Vと呼び(Vはバニラの略)、後者をFRK-Mと呼ぶ(Mはモデルの略)。

 相関なしのランダム効果について。$\xi(\mathbf{s})$についてはもう関心を持たない。BAUのレベルでの平均$\xi_i$について、平均0, 分散$\sigma^2_\xi \nu_{\xi i}$の正規分布に独立に従うとする。ここで$\sigma^2_\xi$は全BAUを通したパラメータ、$\nu_{\xi i}$は既知の定数でBAUの異質性を表す。

 ここまでをまとめよう。BAUレベルの式
 $Y_i = \mathbf{t}_i^\mathrm{T} \mathbf{\alpha} + \upsilon_i + \xi_i$
を書き直して
 $\mathbf{Y} = \mathbf{T} \mathbf{\alpha} + \mathbf{S} \mathbf{\eta} + \mathbf{\xi}$
$\mathbf{T}$は行数$N$の共変量行列、$\mathbf{\alpha}$は係数ベクトル。$\mathbf{S}$は$N \times r$の行列、$\mathbf{\eta}$は長さ$r$のランダム効果ベクトルでその共分散行列が$\mathbf{K}$。$\mathbf{\xi}$は長さ$N$のランダム効果ベクトルでその共分散行列は$\sigma^2_\xi \mathbf{V}_\xi$、ただし$\mathbf{V}_\xi$は既知。

 さて、ここまで考えてきた$Y(\cdot)$というのは潜在過程であって、観察自体は$m$個のフットプリントについてのみ可能であるとしよう。ここでフットプリントとは、ひとつ以上のBAUからなる地域のことで、重複していてもかまわない。$m$は$r$よりずっと大きいものとする。なお、$m$はBAUの数$N$より大きくても小さくてもよい。
 フットプリント$B_j$における観察値は次の3つの和とする[面倒くさいので式は省略]:

  • $B_j$にそこに含まれるBAUの$Y_i$の平均。
  • $B_j$に含まれるBAUのそれぞれが持つ体系的誤差を表す$\delta_i$の平均。平均0, 分散$\sigma^2_\delta \nu_{\delta i}$の正規分布に独立に従うものとする。ここで$\nu_{\delta i}$は既知。
  • $B_j$の測定誤差$\epsilon_j$。平均0の正規分布に独立に従うものとする。[この分散はパラメータにしない模様]

 結局、推定するパラメータは、バニラFRKでは$\mathbf{\alpha}, \sigma^2_\xi, \sigma^2_\delta$, そして$\mathbf{K}$ の4つ。モデルFRKでは、$\mathbf{K}$の代わりに$\mathbf{K}$について組んだモデルのパラメータがはいることになる。

 [以下、力尽きたので、ほとんど読んでいない]
 パラメータはEMアルゴリズムで推定する...
 このモデルにより、任意の予測領域についての予測が可能で...

 コード付きの事例が2つ...
 時空間でクリギングする事例が2つ...
 
 空間異方性を持たせるには...
 既定関数とBAUを手動で与えるには...

 今後の課題:

  • 現状ではFRKはanalytic formによるlocal basis functionsを用いているのだが、関数形が未知の基底関数、たとえば経験直交関数などにも対応したい...[ごめんなさい、なにいってんだかさっぱりわかんない]
  • 現状ではBAUより下の分散は無視してるんだけど、これを拡張して...
  • 三次元超平面とかに拡張して...
  • 現状では地点数が数十万になると速度が落ちるので...
  • BAUの大きさが違う場合に拡張して...

云々、云々。

 ...というわけで、正直なところ頑張って読んだのは最初の3頁だけなんだけど、固定ランク・クリギングという発想がよくわかった(ような気がする)。$m$個の観察値の後ろに$N$個のメッシュの値を考え、そのまた後ろにもっと少ない$r$個の隠れた値を考えるわけね。時系列モデルで言うと、観察変数のうしろに状態変数を考え、そのまた後ろにたまにしか動かないような状態変数を考えているわけだ。
 だから大データでもクリギングが楽だ、ってわけね。なるほどねー、面白いなあ。(←すっかりわかったような気分)

論文:データ解析 - 読了:Zammit-Mangion & Cressie (2017) 大きな空間データを固定ランク・クリギングするRパッケージ FRK

Rabiee, F. (2004) Focus-group interview and data analysis. Proceedings of the Nutrition Society, 63, 655-660.
 題名の通り、グループ・インタビューの逐語録をどうやって分析するかという短い啓蒙的論文。きちんと読んでいないけど、整理の都合上読了にしておく。
 紹介されているコーディング法の元ネタはKrueger & Casey (2004) "Focus Groups: A Practical Guide for Applied Research", 3rd. ed. だそうだ。ふーん。

論文:調査方法論 - 読了:Rabiee, F. (2004) グループ・インタビューの逐語録をどうやって分析するか

 調べ物をしていて偶然知ったんだけど、厚生労働省が発表している市区町村別生命表にはベイズ推定の考え方が入っているのだそうだ。これ、いわゆる小地域推定という奴で、ほんとに市区町村別に標本統計量をとっちゃうと、さすがに死亡者数が足りない、という事情であろう。
 ううむ。別に生命表を作る用事はないけれど、私の仕事とも通じる、ちょっと切実な話だ...

府川哲夫, 清水時彦 (1990) 小地域生命表のベイジアン・アプローチ. 人口学研究, 13, 37-49.

 というわけで、なにをどうやっているのか調べてみた。著者らの肩書は厚生省大臣官房統計情報部となっている。いまでもこの論文の方法で市区町村別生命表を作っているのかどうかわからないけど、仕事の参考になるかなと思って。
 
 市区町村x性x年齢階級別に考える。人口$p$は既知。死亡数$d$を$Bin(p, \theta)$の実現値とみる。$\theta$の事前分布を$Beta(\alpha,\beta)$とする。[...途中を端折って...] $\theta$の事後分布は$Beta(\alpha+d, \beta+p-d)$となりますわね。

 さて、問題は事前分布なんだけど...
 以下、使うデータは昭和62年まで5年間の人口動態統計の死亡数、そして昭和60年国勢調査の総人口である。人口はあらかじめ5倍する。
 都道府県を市部と郡部に二分する。ある市区町村の親地域[←そう書いてはいないが簡略のためにこうメモする]は、市区ならば当該都道府県の市部、町村ならば当該都道府県の郡部とする。
 注目している市区町村を$i$、その親地域を$K$とする。ある性x年代について、$i$の人口を$p(i)$、租中央死亡率を$q(i)$とする。
 $K$に属する子地域の租中央死亡率の平均$Q$と分散$V$を求める。重みを$w(i)=p(i)/\sum p(i)$として
 $Q = \sum w(i) q(i)$
 $V = \sum w(i) (q(i) - Q)^2$
 で、$i$の事前分布パラメータ$\alpha, \beta$を、ベータ分布の平均と分散が$Q, V$になるように決めちゃうのである。[←うおおおおお... なんというか、実に素朴なアプローチだ...]

 著者らいわく、要するにこういうことだ。生命表をつくるとき、中央死亡率を$d/p$とするのが伝統的統計学。$(\alpha+d)/(\alpha+\beta+p)$とするのがベイズ統計学。それだけの違いだ。[←いやいやいや、それは母比率の事前分布をベータ分布とみればそうなるでしょうけど... 問題は事前分布のパラメータ$\alpha, \beta$をどう決めるかでしょう...]

 後半は推定された市区町村別生命表の観察。パス。

 ...いやあ、ものすごーくシンプルな経験ベイズ・アプローチというか... 正直、わたくし、びびりました。まじですか。そんな簡単な話でいいんすか。
 著者らも最後に触れているけど、親地域の決め方はこれでいいのか。人の生存曲線ってのはどの都道府県の市部/群部かで決まるわけ? それってあまりに行政区分に依存していないか...?
 いや、しかし、公的統計というのはこのくらいシンプルでないといかんのかもしれない。ついでにいうと、私の仕事もこのくらいカンタンに考えたほうがいいのかもしれない...少なくともそういう局面はありうる...
 などなど、終電車の酔っ払いたちに揉まれながら論文に目を通し、あれこれ考えさせられました。

論文:データ解析 - 読了:府川, 清水 (1990) 厚労省による市区町村別生命表はベイズ推定されている

2017年9月13日 (水)

矢島美寛, 平野敏弘(2012) 時空間大規模データに対する統計的解析法. 統計数理, 60(1), 57-71.
 正直なところ、内容の9割くらいはまっっっったく理解できないんだけど、しかし今後頑張れば理解できるようになる日が来るという問題でもないと思うので、読了にしておく。

 ま、空間統計モデル関連でときどき見かける謎のタームについて若干の知識を得ることができたので、よしとしよう。

  • えーと、covariance taperingというのは、真の空間的自己共分散をもっと簡単な関数で近似しちゃうということらしい。結局、どうやら自己共分散行列がスパースになって、逆行列を求めるのがむしろ簡単になるらしい。あのー、それってバリオグラムの右のほうを無視するっていうイメージなんでしょうか...(←全然理解できていない...)
  • 共分散行列を低ランク近似しちゃうという路線もあって、これは結局、因子分析みたいに潜在的な確率場を考えていることになるのだそうである。で、その一つが、Rパッケージで見かけるfixed rank kriging (固定階数クリギング)なのでそうである。へええー。

論文:データ解析 - 読了:矢島・平野(2012) 大規模空間データの統計モデリング

Graler, B., Pedesma, E., Heuvelink, G. (2016) Spatio-Temporal Interpolation using gstat. The R Journal, 8(1). 204-218.
 えーと、Rにはクリギング(空間データ補間手法の一種)のためのパッケージがいっぱいあって、なにがなにやらわからないので、ひとまず古株らしきgstatパッケージの紹介を読んでみた次第(vignetteの一つに挙げられている)。R Journalとはいえ、すごく小さな字で14頁...

 えーと、gstatは時空間統計のための機能を提供しているのが売り。同様のパッケージにRandomFieldsがある。ほかにもあるので、CRAN Task Viewの該当項目をみるように。

 以下では、空間領域を$S$, 時間領域を$T$とする。ガウシアン時空間確率場$Z$について考える。観察を
 $z = (z(s_1, t_1), ..., z(s_n, t_n))$
とする(同一の地点での反復測定や異なる地点での同時測定もありうるとする)。$z$に基づき$Z$のモデルをつくりたい、というのがお題。

 $Z$は定常で、空間的に等方性があると仮定する。つまり、この確率場は平均$\mu$と共分散関数$C_{st}$で特徴づけられ、共分散は空間距離$h$と時間距離$u$のみに依存すると考える($h$と$u$は正の実数)。なおこの仮定を取っ払って拡張するのは容易で、たとえば普遍クリギングは時間なしのケースでの非定常性への拡張である。
 以下では次のように書く。
 $Cov_{st}(h,u)=Cov(Z(s,t), Z(\tilde{s}, \tilde{t}))$
ただし$h=||s - \tilde{s}||, u = |t - \tilde{t}|$とする。
 時空間バリオグラムを
 $\gamma_{st} = C_{st}(0,0) - C_{st}(h,u)$
と書く。
 共分散関数が推定できたとしても、共分散行列から線形予測子を求めるためには逆行列計算が必要なのだが、大変なので、いろいろ工夫がある(時間的マルコフ構造を使うとか)。spTimerパッケージ、spBayesパッケージ, spateパッケージ, INLAパッケージなどがある。

 ...というわけで、ここからが本題なんだけど、ざっと読み進めたら、空間領域のバリオグラムモデルと時間領域のバリオグラムモデルがあるとして(異なるファミリーでも構わない)、時空間バリオグラムモデル$\gamma_{st}$をどう定義するか(つまり共分散関数$C_{st}$を定義するか)、という説明であった。パッケージ自体の紹介じゃなかった。読むものを間違えたみたい。

 めんどくさくなったので途中から流し読み、メモは省略。でも、私にも理解できる範囲に関していえば面白い内容であった。当面は時空間モデルを作る用事がないけれど、いつか役に立つこともありそうだ。

 時空間モデルともなると、バリオグラムは曲面となる(時間距離と空間距離がX, Yとなる)。ひえええ。それでも著者らいわく、やっぱしバリオグラムモデルのフィッティングは、MSEとかだけじゃなくて、ちゃんと視覚化してチェックしないといけないそうだ。大変だなあ。

論文:データ解析 - 読了:Graler, Pedesma, Heuvelink (2016) Rのgstatパッケージで時空間クリギング

 Rの辛いところはパッケージがいっぱいありすぎるところだ。このたび空間統計のパッケージについて調べていてほとほと困惑したので、空間データ分析のCran Task View (2017/05/09)の、Geostatisticsの項についてメモしておく。100%自分用の覚え書きです。
 こういうのが付録についていた本が、どっかにあったと思うんだけど、思い出せない...

  • gstat: 単変量・多変量の空間統計の関数。大データにも対応。
  • geoR, geoRglm: モデル・ベース空間統計の関数。
  • vardiag: バリオグラムの診断。
  • automap: gstatを使って自動的に補完。
  • intamap: 自動補完手続き。
  • pspg: projected sparse Gaussian process kriging.
  • fields: 上記と同様に、幅広い関数を提要。
  • spatial: base Rと同梱。
  • spBayes: 単変量・多変量のガウシアンモデルをMCMCで。
  • ramps: ベイジアンの空間統計モデリング。
  • geospt: 空間統計の関数やradial basisの関数。予測とCV, 最適空間サンプリングネットワークの設計の関数を含む。
  • geostatsp: RastオブジェクトやSpatialPointsオブジェクトを使った空間統計モデリング。非ガウシアンのモデルはINLAで、ガウシアンのモデルはMLで推定。
  • FRK: 大データセットのための空間・時空間モデリングと予測。共分散関数をn個の基底関数に分解する。
  • RandomFields: 確率場の分析とシミュレーション。バリオグラム・モデルをgeoR, gstatとやり取りできる。
  • SpatialExtremes: RandomFieldsを使った空間的極値モデリング。
  • CompRandFld, constrainedKriging, geospt: 空間統計モデリングへのその他のアプローチ。[投げやりな説明をありがとう]
  • spTimer: ベイジアン・ガウシアン過程モデルとか、ベイジアン自己回帰モデルとか、ベイジアン・ガウシアン予測過程モデルとかをつかって、巨大な時空間データについてフィットしたり予測したりできる。
  • rtop: runoff related dataとかadministrative unitsからのデータといったirregularな空間サポートを伴うデータについての空間統計的補完。
  • georob: 誤差に空間的相関がある線形モデルをロバストかつガウシアン制約付きMLでフィッティングしたり、customaryポイントやブロックのクリギング予測を与えたり、対数変換したデータのクリギング予測をもとに戻す不変な変換をしたり、CVしたりする関数を提供。
  • SpatialTools: クリギングに重点を置いたパッケージ。予測・シミュレーションの関数を提供。
  • ExceedanceTools: SpatialToolsを拡張。exceedance regionsのconfidence regions(?)や等高線をつくる。
  • gear: SpatialToolのリブート版に近い。クリーンでストレートで効率的な手法を提供。[そういわれると心惹かれますね]
  • sperrorest: 空間誤差推定、いろんな空間CVや空間ブロック・ブートストラップを使ったパーミュテーションベースの空間変数重要性。
  • spm: 空間統計と機械学習のハイブリッドで空間的予測モデリング。
  • sgeostat: [紹介文がないぞ...]
  • deldir, tripack: sgeostatoと同じ一般的な問題領域についてのパッケージ。
  • akima: スプライン補完。
  • MBA: マルチレベルBスプラインで散布データを補完。
  • spatialCovariance: 矩形データについての空間共分散行列の計算。
  • Stem: 時空間モデルをEMアルゴリズムで推定, パラメータの標準誤差を時空間パラメトリック・ブートストラップで推定。
  • FieldSim: 確率場シミュレーション。
  • SSN: stream ネットワークのデータの空間統計モデリング。移動平均でモデルを作る。共変量つきの空間線形モデルをMLやREMLで推定できる。視覚化機能もある。
  • ipdw: georeferenced point dataをInverse Path Distance Weightingで補完。沿岸海洋環境みたいにランドスケープ上のバリアのせいでユークリッド距離による補完ができないときに有用。
  • RSurvey: 空間的に分散したデータを処理したり、エラーを直したり視覚化したりするのに便利かも。

あーもう。これがSAS/STATなら, VARIOGRAM, KRIGE2D, SIM2D, SPPの4択なのに。勘弁してよ、もう!

雑記:データ解析 - Rの空間統計パッケージ

佐藤哲也 (2017) AIと政治. 人工知能, 32(5), 672-677.

 最新号の「人工知能」誌は「AI社会論」という特集で、佐藤先生が寄稿されていた。忘れないうちに内容をメモ。良いまとめとは思えないので、関心ある方は原文をお読みくださいますように。

 いわく、
 汎用人工知能というような話は横に置いておいて、現行技術が政治現象にもたらす影響について考えると、

  • メディアにおける人工知能技術の活用(記事生成とか推薦とか)が政治的不安定につながる可能性がある。
  • 投票支援(ボートマッチとか)は、投票者の認知資源節約という点で社会的ニーズが高い。でも良く考えると、政策に基づいて投票すべきだという政策的合理性だけを重視して支援していていいのか。そもそも政党は公約をかんたんに反故にしたりするわけだし。それに、それってある種のエリート主義で、非エリート層には受け入れられず、社会的分断がさらに拡大したりしないか。[ううううむ...]
  • 民主主義と市場原理という基本システムは、そもそも集合知メカニズムであるという側面を持っている。その改善のための人工知能的アプローチとして、
    • 多次元的シミュレーション。これまでの複雑系シミュレーションや予測市場では、エージェントの行動原理は基本的にシンプルだったけど、今後はさまざまな社会的価値を多次元的に把握することが求められるし、利用可能な多次元データも増えるだろう。
    • 交流を通じて意図的に創発現象を発生させようとすることがあるけど、そこで得られる動的データからの学習。討論型民主主義、ショッパーインタビュー、ワークショップ・アイデアソンなど。[←なるほどー。ここのところインタビューのプロセスの確率的言語モデルに関心を持っていたんだけど、その理由がやっと腑に落ちた]
    • 自律分散型契約実行メカニズム(augurとか)。要素技術として興味深い(なんらかのイベント認識が分散的に実現できるとすれば、それはひとつの入力センサになる)。またスマートコントラクト技術。

ところで、昨今の人工知能ブームにはテクノロジー・プロパガンダという面がある。バイオや製薬では、産業界のアカデミズムへの不正な介入が社会問題になっているが、構造が似てきていないだろうか。結局割りを食うのは一般の納税者や投資家だ。人文社会的観点からの検討が必要であろう。

論文:予測市場 - 読了:佐藤(2017) 人工知能と政治

Roberts, M.E., Steward, B.M., Tingley, D. (in preparation) stm: R package for structural topic models.

 構造的トピックモデルのRパッケージ stm のvignette。いつ書かれたものかもよくわからないのだが、J. Statistical Softwareの判型になっているから、投稿中かなにかなのかも。

 いわく。
 構造的トピックモデル(STM)とは、トピックモデルに文書に付与されたメタデータを統合したモデル。トピックを抽出すると同時に、トピックとメタデータとの関連性を推定する。

 モデルの説明。
 通常のトピックモデルと同じく、語のカウントの生成モデルを考える。なお、メタデータがなかったら、STMはBleiらの相関トピックモデルと同じである。
 文書を$D_1, \ldots$, 単語を$w_1, \ldots$, トピックを$T_1, \ldots, T_k$とする。文書$d$のメタデータを$X_d$とする。メタデータは次の2種類に分けて指定できる。

  • 文書とトピックの関連性の強さ(topical prevalence)を説明する共変量。[下記の生成モデルでいうと、$\mathbf{\theta}_d$の生成に使う共変量]
  • 文書内の単語(topical content)を説明する共変量。[$\beta_{d,k}$の生成に使う共変量]

 生成モデルは次の通り。

  • 文書レベルのトピックへの注意をドローする。
     $\mathbf{\theta}_d | X_d\gamma, \Sigma \sim LogisticNormal(\mu=X_d\gamma, \Sigma)$
     [さっそくここで躓いてしまったんだけど... $\mathbf{\theta}_d$ (原文では太字ではなく上矢印)はカテゴリ数$k$の離散確率分布だと思うんだけど? これだと要素の和が1にならないのではないだろうか]
  • 文書ごとの単語分布をつくる。
     $\beta_{d, k} = \exp(m + \kappa_k + \kappa_{g_d} + \kappa_{i = (k, g_d)})$
     ただし、$m$はベースライン単語分布, $\kappa_k$はトピック$k$における偏差、$\kappa_{g_d}$は共変量グループ$g$における偏差, $\kappa_{i = (k, g_d)}$は交互作用。[ここもよくわからんのだが、$\beta_{d, k}$は語彙数の長さを持つ離散確率分布だろうに、なぜ$\theta$と同様に上矢印をつけないのか。和が1だという制約はどこでかかるのだろうか]
  • 以下、文書の各単語($n \in 1, \ldots, N_d$)ごとに、
    • 単語ごとにトピックをドロー:
       $z_{d,n} | \mathbf{\theta}_d \sim Multinomial(\mathbf{\theta})$
    • 単語をドロー:
       $w_{d,n} | z_{d,n}, \beta_{d, k=z} \sim Multinomial(\beta_{d, k=z})$

 推定はsemi EMアルゴリズムを用いた変分的推定である、とのこと。[よくわからんが変分ベイズ推定だということかしらん]

 stmパッケージの使い方の説明。
 初期値決定はスペクトル分解による決定論的方法がお勧めだが、まず崩壊型ギブスサンプラーでLDAモデルを推定するとか、ランダムに決めるというオプションもある。
 ちゃんと読んでないので省略するか、データ準備からモデル評価、トピック数決定、結果の視覚化まで、これでもかっていうくらいにいろんなヘルパー関数がある。
 云々, 云々...

 他のパッケージとの比較。
 相関トピックモデルはtopicmodelsパッケージでも推定できるけど、こっちのほうがパフォーマンスが良い。云々, 云々...
 
 ... とかなんとか。途中からはパラパラめくっただけだけど、いずれに必要になったらきちんと読もう。

論文:データ解析 - 読了: Roberts, Steward, Tingley (in preparation) 構造的トピックモデルのRパッケージ stm

2017年9月12日 (火)

 6月末頃に作ったメモ。トピックモデルの表記が資料によって違っているせいで、混乱しちゃったのである。

岩田(2015)「トピックモデル」の表記

 文書集合$\{\mathbf{w}_1, \ldots, \mathbf{w}_D\}$について考える。文書$\mathbf{w}_d$に含まれる単語を$w_{d1}, \ldots, w_{dN_d}$とする(順序は問わない)。文書集合を通して現れる語彙の数を$V$とする。

 トピックモデルによれば、文書は次のように生成される。文書集合の背後には$K$個のトピックがある。

  1. トピック$k=1,\ldots,K$のそれぞれについて、単語分布$\mathbf{\phi}_k = (\phi_{k1}, \ldots, \phi_{kV})$が生成される。
     $\mathbf{\phi}_k \sim Dirichlet(\beta)$
  2. 文書$d=1,\ldots,D$のそれぞれについて...
    1. トピック分布 $\mathbf{\theta}_d = (\theta_{d1}, \ldots, \theta_{dK})$が生成される。
       $\mathbf{\theta}_d \sim Dirichlet(\alpha)$
      トピックが生成されているわけではない点に注意。文書はあるトピックを持っているのではない(トピックの確率分布を持っている)。逆向きにいうと、トピックモデルは文書にトピックを割り当てない。
    2. 単語 $n=1, \ldots, N_d$ について...
      1. まずはトピック $z_{dn}$が生成される。単語が生成される前に、単語の数だけトピックが生成されている。逆向きにいうと、単語にトピックを割り当てていることになる。
         $z_{dn} \sim Categorical(\mathbf{\theta}_d)$
      2. いよいよ単語が生成される。あらかじめ作っておいた単語分布$\mathbf{\phi}_{z_{dn}}$を参照して、
         $w_{dn} \sim Categorical(\mathbf{\phi}_{z_{dn}})$

佐藤(2015)「トピックモデルによる統計的潜在意味解析」の表記

 トピック$k$における単語の出現分布を$\mathbf{\phi}_k = (\phi_{k,1}, \ldots, \phi_{k,V})$とし、
 $\mathbf{\phi}_k \sim Dir(\beta)$
 文書$d$のトピック分布(トピックの構成比率)を$\mathbf{\theta}_d = (\theta_{d,1}, \ldots, \theta_{d,K})$とし、
 $\mathbf{\theta}_d \sim Dir(\alpha)$
 文書$d$における$i$番目の潜在トピック$z_{d,i}$について、
 $z_{d,i} \sim Multi(\mathbf{\theta}_d)$
 $i$番目の単語$w_{d,i}$について
 $w_{d,i} \sim Multi(\phi_{z_{d, i}})$

Griffiths & Steyvers (2004, PNAS)の表記

細かいところを端折ると、
 $w_i | z_i, \phi^{(z_i)} \sim Discrete(\phi^{(z_i)}) $
 $\phi \sim Dirichlet(\beta)$
 $z_i | \theta^{(d_i)} \sim Discrete(\theta^{(d_i)})$
 $\theta \sim Dirichlet(\alpha)$
こういう順番で書かれるとめっさわかりにくいが、まあとにかく、ハイパーパラメータは$\alpha, \beta$である。

 ふつうそうですよね。良識ある大人なら、たいていの人がハイパーパラメータを$\alpha, \beta$と書いていたら、その世間の風潮にあわせますよね。俺様だけは$\beta$を$\delta$と書くぜ、読者どもよついてこい、なんて子供じみた真似はしませんよね?

Grun & Hornik (2011, J.Stat.Software) の表記
 ...というか、Rのtopicmodelsパッケージの表記。
 さあ、ここで我々は、世間の風潮など気にもしない漢たちを目の当たりにし、驚愕することになるのである。はい深呼吸!

 文書$w$について考える。文書$w$に含まれる単語を$w_{1}, \ldots, w_{N}$とする(順序は問わない)。
 文書は次のように生成される。文書集合の背後には$k$個のトピックがある。

  1. それぞれのトピックについて、単語分布$\beta$が生成される。
     $\beta \sim Dirichlet(\delta)$
  2. 文書$w$について...
    1. トピック分布 $\theta$が生成される。
       $\theta \sim Dirichlet(\alpha)$
    2. 単語 $w_i$ について...
      1. まずはトピック $z_i$が生成される。
         $z_{i} \sim Multinomial(\theta)$
      2. 多項確率分布 $p(w_i | z_i, \beta)$から単語が生成される。

 実のところ、こうやってメモしててやっと謎が解けたんだけど、topicmodelsパッケージで LDA(x, k, control = list(estimate_beta = FALSE), model=...) と指定した場合、固定される「beta」とは、トピック別単語分布のハイパーパラメータ$\beta$ではなく、トピック別単語分布そのものなのだ。ハイパーパラメータはdeltaと呼ぶのである。なんだかなあ、もう...
 なお、ハイパーパラメータのほうは、Gibbsサンプリングの場合のみ control=list(delta=...)として指定できる由。

雑記:データ解析 - トピックモデルの表記比較 (いつも思うんですが、専門家のみなさん記号を統一していただけませんかね)

 仕事の都合で仕方なく、トピックモデルについてあれこれ考えているんだけど、トピック数の決定ってのはいったいどうしたらいいのかしらん、と不思議である。
 解説本などをみると、それは階層ディリクレ過程で推定できる、それにはまず中華料理店のフランチャイズ・チェーンの仕組みについて検討する必要がある、ただし店舗内のテーブル数は無限とする... なんて途方に暮れるようなことが書いてあるんだけど(本当)、そんなおそろしい話じゃなくてですね、探索的因子分析のスクリー基準みたいなしょっぼーい話でいいから、なんか目安がほしいだけなんですけど...

 やっぱり、データをちょっとホールドアウトしておいて、perplexityが低くなるトピック数を選べって話だろうか。面倒くさいなあ、と思いながらぼんやり検索していたら、なんと!Rにはldatuningというパッケージがあり、topicmodelsパッケージでLDA(潜在ディリクレ配分モデル)を組む際の最適トピック数を教えてくれるのだそうである。すごい!偉い!
 
 さっそくldatuningを試してみたところ、さまざまなトピック数について、CaoJuan2009, Arun2010, Daveaud2014, Griffiths2004という4つの指標が出力される。それだけのパッケージであった。チャートを描いて考えな、という話である。
 なんだ、この謎の指標は? マニュアルには一切説明がなく、ただ出典が書いてあるだけ。
 さすがに気持ち悪いので、出典をあつめてめくってみた。

CaoJuan2009

 出典はJuan, Tian, Jintao, Yongdon, Sheng (2009, Conf.)。
 パラパラめくってみただけであきらめたんだけど(第一著者は博士の院生さんで80年生まれとのこと。うわー)、どうやら、2トピック間の語彙を通じたコサイン類似性を求め、その総当たり平均が最小になるようなトピック数を求める... というような話らしい。LDAではトピックは独立なはずだから、ということみたいだ。へぇー。
 ldatuningのソースを眺めるとこうなっている。トピック$k(=1,\ldots,K)$の単語事後分布を格納したベクトルを$x_k$として、
 $dist_{k,j} = \sum x_k x_j / \sqrt{\sum x_k^2 * \sum x_j^2}$
と定義し、すべての2トピックの組み合わせについてこの距離を合計し, $K(K-1)/2$で割っている。

Deveaud2014

 出典はDeveaud, SanJuan, Bellot (2014), 論文だか紀要だかよくわからない。
 もちろんきちんと読もうなどという大それた野心は持ち合わせていないわけで、トピック数決定についてのページをディスプレイ上で眺めただけなのだが、どうやら、2トピック間での単語出現分布のKLダイバージェンスを求め、その総当たり平均が最大になるようなトピック数を求める... という話らしい。へぇー。
 ldatuningのソースを眺めると、
 $dist_{k,j} = 0.5 \sum x_k \log(x_k/x_j) + 0.5 \sum x_j \log(x_j/x_k)$
と定義し、すべての2トピックの組み合わせについてこの距離を合計し, $K(K-1)$で割っている。

Arun2010

 出典はArun, Suresh, Madhaven, Murthy(2010, Conf.)。入手できなかった。上のDeveaud et al.(2014)によれば、これもトピック間の距離みたいなものを最大にすることを目指すのだそうだ。
 ソースコードを眺めたのだが、トピック別の単語事後分布とそのハイパーパラメータを使って、なにかごにょごにょしている模様。

Griffiths2004

 出典として、Griffiths & Steyvers (2004, PNAS) と、誰かの修論かなにかが挙げられている。前者は科学研究のトピックを推定するという話で、有名な論文であろう。
 ちゃんと読んでないけど、パラパラめくったところによればこういうことらしい。
 要するに、トピック数を$T$、コーパス全体の単語を$\mathbf{w}$として、対数尤度$\log P(\mathbf{w}|T)$が最大になる$T$にすればいいじゃん、というアイデアである。しかしその直接の算出は、単語をトピック$\mathbf{z}$に割り当てるすべてのパターンを通じた合計が必要になるので無理。ところが、次のやりかたでうまく近似できる。
 まず事後分布$P(\mathbf{z} | \mathbf{w}, T)$から$\mathbf{z}$をドローし、$P(\mathbf{w}|\mathbf{z}, T)$をたくさん求める。で、その調和平均を求める。へぇー。
 なおGrun& Hornik(2011, J.Stat.Software)によれば、このやり方には推定量の分散が無限大になるかもしれないという欠点があるのだそうだ。
 ソースコードのほうは、little tricky というコメントがついており、よくわからないことをやっている。

 こうしてみると、Griffith & Steyvers (2004) はモデルの周辺尤度に注目する路線、他の3つはトピック間の単語事後分布の類似性に注目する路線といえそうだ。前者はperplexityみたいなもの、後者はcoherenceみたいなもの、ということなのかしらん?
 探索的因子分析のアナロジーで言うと、前者はどうにかしてモデル適合度を求めようという路線、後者は回転後負荷行列の性質を調べる路線(たとえば単純構造が得られたかどうかとか)、という感じかしらん?
 えーと、自分で書いててよくわかんなくなってきたので、このへんで。

雑記:データ解析 - 潜在ディリクレ配分のトピック数を手軽に決める方法 (Rのldatuningパッケージが提供する謎の4つの指標について)

2017年9月11日 (月)

秋山祐樹・仙石裕明・柴崎亮介 (2013) 全国の商業集積統計とその利用環境. GIS-理論と応用, 21(2), 11-20.
 著者の先生方が開発してきた(そしてゼンリンが販売している)商業集積統計のつくりかたについて述べた論文。仕事の都合で読んだ。

 いくつかメモ:

  • 日本の商店街の数は、2007年商業統計によれば12568件。全国商店街名鑑というのがあって[知らなかった。版元は全国商店街振興組合連合会]、2004年版によれば13259件。三橋重昭(2009)「よみがえる商店街」という本によればおよそ18000件。
  • 著者らの商業集積統計の作り方の概要。
    • まず業種別電話帳から223業種を抽出し、各項目を地図上のポイントで表す。
    • ポイント$N$について検索圏$R_N$を決める。半径20m, 30m, ..., 100mの円のうち、ポイントの密度が一番高くなる奴を選ぶ。
    • 検索圏$R_N$のなかにある他のポイントの数を$n$, ポイント$N$から最近隣ポイントまでの距離を$dmin_N$、他のポイント$k$からみたポイント$N$以外の最近隣ポイントまでの距離を$dEmin_k$とする。ポイント$N$のバッファリング距離を
       $D_N = (\sum_k^n dEmin_k + dmin_N)/(n+1)$
      とする。だいたい15m~30mくらいになるそうだ。
    • 各ポイントに、半径$D_N$の円形ポリゴンを与える。
    • 重複するポリゴンを結合し、これを地域単位とする。ただし店舗数10以下だったら除外。
  • 携帯電話のGPSログで来訪者数を推定しようという試みもやっているそうだ。

 それにしても、まあ仕事で必要な勉強ならばなんでもやりますけど、いやーずいぶん遠くにきちゃったなあ、という感慨がある。トシ食ってからこんなふうに思ってもみないことを勉強する羽目になるくらいなら、若い頃に臨床心理士の勉強をしておけばよかったなあ、なあんて(すいません冗談です。超・冗・談・で・す)

論文:マーケティング - 読了:秋山・仙石・柴崎(2013) 商業集積統計のつくりかた

Ribeiro, P.J., Christensen, O.F., Diggle, P.J. (2003) geoR and geoRglm:
Software for Model-Based Geostatistics.
Proceedings of the 3rd International Workshop on Distributed Statistical Computing (DSC 2003).
 Rの空間統計パッケージ geoR と geoRglm の紹介。実戦投入前の儀式として読んだ。うっかりdraftのほうを読んじゃったんだけど、中身はだいたい同じだろう、と思うことにする。

 えーっと、geodataというクラスを用意しています。簡単にプロットできるし、簡単に経験バリオグラムが描けます。
 空間統計モデルとして、geoRではガウシアンモデル、ならびにbox-cox変換した従属変数についてのガウシアンモデルが組めます。geoRglmでは、box-cox変換した従属変数についてのポワソンモデル、ならびにロジットリンクの二項モデルが組めます。パラメトリックなバリオグラム・モデルを使います(デフォルトはMeternモデル)。推定量としてMLとREMLをご用意してます。いくつかのクリギング手法をご用意してます。あっ、そうそう、ベイジアン・クリギングもできますよ、自前でMCMCの機能を持っています。
 云々、云々。

論文:データ解析 - 読了:Ribeiro, Christensen, Diggle (2003) Rの空間統計パッケージ geoR と geoRglm

Morris, D.S. (2017) A modeling approach for administrative record enumeration in the Decennial Census. Public Opinion Quarterly, 81, 357-384.

 先日、世論調査研究のトップ誌であるPublic Opinion Quarterlyが「サーベイ調査のこれから」という特集号を出した。目次を眺めていて、あれれ、これってひょっとして仕事に関係があるんじゃなかろうか、大変な鉱脈を見つけちゃったかも... と思って手に取った論文。半分くらい目を通したところで、鉱脈どころか私の仕事とはまるきり関係ないとわかったんだけど、気分転換にはなった。著者は米国勢調査局の中の人。

 いわく。
 米国勢調査(Decennial Census)では、回答がなかった世帯に対して追加調査するんだけど(nonresponse follow-up; NRFU)、2010年国勢調査の場合にはNRFUだけで16億ドルかかった。2020年調査ではそのコストをなんとか減らしたい。
 いっぽう世論調査のほかにも、納税記録とか民間企業の訪問調査みたいな世帯データがある(こういうのをadministrative record, ARと呼ぶ)。ARと国勢調査を併用できないか。こういう発想は実は珍しくなくて、デンマーク、オランダ、スイス、ドイツ、ポーランドなどで採用されている。
 米国勢調査でも80年代から発想はあった。問題は、上記の国々とは異なり、米にはARを国レベルで統一的に管理する仕組みがなかったという点だ。現在、国勢調査局にAR研究活用センター(CARRA)というのがあって、各所からARを取りまとめている。細かいことを言うといろいろと大変なんだけど[詳細略]、まあとにかく、集めたARには統一的な個人識別IDと住所IDを振っている。
 もし、ARデータ側に含まれている世帯についてはNRFUの実査対象から除外することができれば、コストが節約できるではないか。そこで、ARデータと2010年国勢調査と比較し、どの世帯についてはARを使いどの世帯についてはNRFUをやるかを決める方法を開発したい。

 使用するARデータは、IRS 1040 [よくわからんが確定申告みたいなものだろうか?]、IRS informatonal returns [所得申告みたいなもの?]、メディケア、IHS (Indian Health Service)。個人と住所の組み合わせをキーとする。ほかに商用データのTargus Federal Consumer Fileというのがあって、これはAR側名簿としては使わないが、後述するモデル構築の際に予測子として用いた由。
 ある個人$i$と住所$h$の組み合わせが、ARにも2010年国勢調査にも存在していたら$y_{ih}=1$、そうでなければ0とする。で、$p_{ih}=P(y_{ih}=1)$を予測するモデルを作る。[きちんと読んでないので自信がないんだけど、この確率が1に近い住所はNRFUのリストから抜いてよかろう、という話だと思う。つまり、2010年国勢調査は完璧、AR側の紐づけも完璧、という前提での研究なのであろう]
 説明変数として、ARデータのうち「IRS 1040に存在」フラグとか、「IRS 1040に個人のみ存在」フラグとか、そういう変数をいろいろ作る。
 最終的に推定しないといけないのは住所についての確率なので、
 $\hat{p}_h = min(\hat{p}_{1h}, \ldots, \hat{p}_{n_h h})$
として、この推定値が閾値$c$を超えたらNRFUの実査対象からは外してAR側の記録を使うことにする。$c$はfalse positiveとfalse negativeの二乗和が最小になる値とする。

 ... さあ予測モデルをつくりましょう、というわけで、ロジスティック回帰、分類木、ランダム・フォレストのモデルを作って比べたり、コストと正確性のトレードオフ曲線を推定したりしたらしいのだが、この辺で力尽きて読むのをやめた。
 ま、どういう問題なのかがわかったから、これでいいや。考えたこともないような話題で面白かった。

論文:調査方法論 - 読了:Morris (2017) 行政記録にデータがある世帯については国勢調査に無回答でもまあいいやということにできないか

Sirken, M.G., et al (1999) "Cognition and Survey Research"という論文集がある。80年代初頭から、米の調査法研究者らのあいだでCASM(Cognitive Aspects of Survey Methods)と呼ばれるアプローチが提唱されていて、この本はその1997年のセミナーをもとにした論文集。
 この本、原稿ならびに仕事の都合で救いを求めて手に取り、ぱらぱらめくって諦めることが多い。なぜいまこんなの読まなきゃいけないんだという気もするけど、どの章が役に立ちそうか、目次をメモしておく。

  • 1章. Sirken, Schechter「学際的調査法研究」: 論文集全体の前文みたいな内容。
  • 2章. Tanur「CASM運動のこれまでとこれから」: これもイントロみたいな感じだなあ...
  • 3章. Aborn「CASM再訪」:80年代のCASM勃興期までの歴史的概観である模様。
  • 4章. O'Murcheartangh「CASM: 成功, 失敗, ポテンシャル」: これも概観なんだけど、CASM以外の調査法研究(エスノグラフィーとか)にも触れているようで、なかなか面白そう。★
  • 5章. Schwarz「調査測定の認知的研究:調査方法論と認知理論への影響」: 6-10章へのイントロ。Schwartzさんは2007年にもこういう概観を書いてたので、これはまあ、読まんでもいいか。
  • 6章. Schober「質問の意味を理解する:相互作用的アプローチ」:いかにもCASMっぽいタイトル。これはいちおう読んでおかなきゃ...★
  • 7章. Shum, Rios「回答者の告白:調査という文脈における自伝的記憶」
  • 8章. Tourangeau「態度質問への回答における文脈効果」:もちろん簡単なレビューなんだけど、最後の節で引用なしに「信念サンプリングモデル」というのが出てくる... なんだこれ。こないだ読んだ政治学のZellar&Feldmanと関係あるのだろうか。★
  • 9章. Willis, DeMaio, Harris-Kojetin「バンドワゴンは方法論の約束された土地へと向かうのか? 認知インタビュー技法の妥当性の評価」:認知インタビュー研究のレビュー。第一著者は2005年に"Cognitive Interviewing"を書いた人。
  • 10章. Moore, Stinson, Welniak「調査における収入報告:認知的諸問題と測定誤差」:タイトル通り、収入についての回答の話だと思う。
  • 11章. Tourangeau「広い網を投げる:新領域からの貢献」:12-16章のイントロ。
  • 12章. Fillmore「言語学からみた調査研究」:Fillmoreって、まじであのフィルモアだ、フレーム意味論の...そんなに長くない章だけど、怖くて読めない。
  • 13章. Graesser, Kennedy, Wiemer-Hastings, Ottati「調査と調査票における質問改善のための計算認知モデルの使用」:第一著者は会話や文章理解の認知研究をやってたGraesserさん。たぶん内容が古くなっちゃっていると思うんだけど、手が空いたら読んでみよう。★
  • 14章. Gerber「民俗学からの眺め:エスノグラフィーと認知インタビュー」
  • 15章. Groves「調査誤差モデルと回答行動の認知理論」:どういう話なんだろう? めくっただけではよくわからなかった。
  • 16章. Smith「心的表象の新しいコネクショニスト・モデル:調査研究への含意」:コネクショニズムって、当時は光り輝く最先端だったのだろう...
  • 17章. Herrmann「CASM運動は調査票設計を超えて貢献できるか:認知テクノロジーと調査テクノロジー」:やたらに魅力的な題名だが、これは18-22章のイントロ。
  • 18章. Couper「コンピュータ支援インタビューへの認知科学の適用」
  • 19章. Conrad「調査手続きのカスタマイズによる測定誤差低減」
  • 20章. Friendly「カテゴリカルデータの視覚化」:ってこれ、もはや調査法と関係なくないっすか?
  • 21章. Lewandowski「統計的グラフとマップ:高次認知過程」:これも結果の視覚化の話だ...
  • 22章. Martin, Tucker「リサーチ・アジェンダに向かって:調査の認知科学のこれからの発展と応用」★

雑記 - Sirken, et al. (1999) 「認知と調査法研究」目次メモ

2017年9月 9日 (土)

Carlin, B.P., & Louis, T. (2000) Empirical bayes: Past, Present and Future. Journal of the American Statistical Association, 95(452), 1286-1289.

 以前、人と話していて、ふと「経験ベイズ」って正確にはどういう意味なんだろうか...と不思議になった。何をもって経験ベイズと呼ぶのか。それは手法か哲学か。
 ろくに知識もないのにあれこれ考えてもしょうがないので、検索で引っかかったやつをざっと読んでみた。この雑誌のこの号では"Vignettes for the Year 2000"と題し、「これからの○○はどうなるか」的な短い解説を22個のトピックについて載せた模様で、これは「経験ベイズ」についての寄稿。他のトピックは「ベイズ統計」「ブートストラップ」「変数選択」といった感じ。

 いわく。
 経験ベイズ(EB)という言葉はあいまいで、モデルのクラスを指すこともあれば、分析のスタイルを指すこともあれば、統計的手続きの哲学を表すこともあるんだけど、どんな定義であれ、まずはフル・ベイジアンとの違いから始めるという点では共通している。
 観察データ$y=(y_1, \ldots, y_n)$の分布を、未知パラメータ$\theta=(\theta_1, \ldots, \theta_k)$によって$f(y|\theta)$とモデル化したとしよう。頻度主義の立場からみると$\theta$は固定されているが、ベイジアンは事前分布$\pi(\theta|\eta)$を想定する。$\eta$が既知ならばベイズ・ルールを適用して、事後分布$p(\eta|y, \eta)$が得られる。
 さて、$\eta$が未知である場合、$\eta$についての情報は$y$の周辺分布$m(y|\eta)$によって捉えられている。さらに、もし$f$と$\pi$が共役なら(すなわち、もし$p(\eta|y, \eta)$が$\pi$と同じ分布族に属していたら)、$m(y|\eta)$は閉形式で得られる。
 フル・ベイジアン(またの名をベイズ経験ベイズ, 略してBEB)ならば、ハイパー事前分布$h(\eta|\lambda)$を想定するところである。このとき、事後分布は結局
 $p(\theta|y, \lambda) = \int p(\theta|y, \eta) h(\eta|y, \lambda) d\eta$
となる。事後分布とは、$\eta$を固定したときの事後分布と、データで更新したハイパー事前分布の混合となるわけである。
 いっぽう経験ベイズでは、$\eta$をデータから推定する(たとえば周辺最尤推定量で)。で、事後分布として$p(\theta | y, \hat{\eta})$を使う。
 BEBもEBも、$\eta$についての情報をデータから得ているという点では同じことである。ちがいは一番上の分布$h$を含めているかどうかだ。BEBの美点は$\eta$にまつわる不確実性をうまく組み込んでいるという点で、欠点は$h$の選択が難しいという点である。

 EBによる$p(\theta | y, \hat{\eta})$は、$\eta$の不確実性を考慮していない分、狭くなる。これをどうにかしようというのが、EBの世界の長年の課題であった。
 一つのアプローチはパラメトリックEBである。このアプローチでは、下から2番目の分布$\pi(\theta|\eta)$をパラメトリックな形式で与え、あとは$\eta$さえが決まれば事後分布が完全に決まるようにする。Morris(1983 JASA), Casella(1985 Am.Stat.)を参照のこと。
 もうひとつのアプローチはノンパラメトリックEB。最後から2番目の分布を単に$\pi(\theta)$とする。この路線はRobbins(1955)に始まる。変種としてノンパラメトリック最尤法というのもある。

 皮肉なことに、EBの歴史はそれほど「ベイジアン」ではない。[頻度主義の観点からみて良い性質を持つ決定ルールが目指されていたという話... 略]
 パラメトリックEBはStein推定と強い関係があって...[略]
 初期EBは、まず事前分布を決めるためにデータを使い、事後分布を求めるためにもう一度データを使った。この方式は当時のベイジアンたち(多くは主観主義的ベイジアン)に忌避された。SavageはEBを指して、ベイジアンの卵を割っておきながらベイジアンのオムレツを拒否する奴らだと呼んだ。でもEBは、その後の客観主義的ベイジアンを準備し、その発想はのちにGibbsサンプラーの登場によって花開くこととなる。
 
 EBは現在普及しており...[略]
 メタ分析とも関係があって...[略]
 まだまだ進化しております、たとえば...[略]

 EBの未来はどうなるか。MCMCがこんだけ普及すると、近似としてのEBはもはや出番がないという悲観的見方もある。でも、MCMCは「プラグ・アンド・プレイ」とは言い難い。収束判定は厄介だし、でかいモデルをむやみに作りそうになっちゃうし。EBの出番はまだまだあります。
 たとえばですね。分散要素$\tau^2$についてあいまいなハイパー事前分布を決めるという問題について考えよう。いまポピュラーなのは$gamma(\epsilon, \epsilon)$で、つまり平均1、分散$1/\epsilon$だ。しかし最近の研究では、これは無情報に見えて実は事後分布に大きな影響を与えることが示されておる。さらに、この分布は$\epsilon$を小さくするとimproperに近づき、MCMCの収束が難しくなる。いっそ$\tau^2$を$\hat{\tau}^2$に置き換えちゃったほうが安全ではないですかね。まあ純粋なベイジアンじゃなくなっちゃうけど。
 EBもBEBも良いやり方だし、どちらも万能薬ではないです。みなさまそれぞれ哲学的傾向をお持ちだと思いますが、手法選択の際にそれに殉じることはないんじゃないでしょうか。
 云々。

 ...パラメトリック/ノンパラメトリック経験ベイズについての説明がよく理解できなかった... 歴史に属する話なのかもしれないけど、なんだか悔しい。なにか別のを読んだほうがよさそうだ。

論文:データ解析 - 読了:Carlin & Louis (2000) 経験ベイズのこれまでとこれから

引き続き、溜まったメモの整理。これは6月中頃。

Linzer, D.A., Lewis, J.B. (2011) poLCA: An R Package for Polytomous Variable Latent Class Analysis. Journal of Statistical Software, 42(10).
 RのpoLCAパッケージの紹介。poってのはpolytomousの略であろう。

 えーと、poLCAパッケージは多項変数の潜在クラス分析(LCA)をご提供します。
 潜在クラスモデルを推定する関数としては、ほかにe1071パッケージのlca関数, gllmパッケージ, randomLCAパッケージがあるが、いずれも二値変数しか扱えない。

 まずは基本的な潜在クラスモデルから。
 対象者を$i=1, \ldots, N$とする。顕在変数は$J$個の多項カテゴリカル変数、$j$個めの変数がとりうる値を$K_j$個とする。顕在変数の値を二値変数$Y_{ijk}$で表す。つまり、対象者$i$が変数$j$で反応$k$を返したら$Y_{ijk}=1$。
 潜在変数の数を$R$とする。事前の所属確率を$p_r$とする($\sum_r p_r =1$)。クラス$r$において$Y_{ijk}$に1が立つ条件付き確率を$\pi_{jrk}$とする($\sum_{k=1}^{K_j} \pi_{jrk} = 1$)。

 クラスの下でのアウトカムの条件つき独立性を仮定すれば、クラス$r$の対象者$i$が特定のアウトカムのベクトルを生む確率は
 $f(Y_i; \pi_r) = \prod_{j=1}^J \prod_{k=1}^{Kj} (\pi_{jrk})^{Y_{ijk}}$
 全クラスを通した確率密度関数は
 $P(Y_i|\pi, p) = \sum_{r=1}^R p_r \prod_{j=1}^J \prod_{k=1}^{Kj} (\pi_{jrk})^{Y_{ijk}}$
 パラメータ$p_r$, $\pi_{jrk}$が推定できたとして、対象者$i$がクラス$r$に所属する事後確率は
 $\displaystyle \hat{P}(r_i|Y_i) = \frac{\hat{p}_r f(Y_i; \hat{\pi}_r)}{\sum_{q=1}^R \hat{p}_q f(Y_i; \hat{\pi}_q)}$

 さて、poLCAはパラメータを最尤法で推定する。対数尤度関数は
 $\log L = \sum_{i=1}^N \log \sum_{r=1}^R p_r \prod_{j=1}^J \prod_{k=1}^{Kj} (\pi_{jrk})^{Y_{ijk}}$
これをEMアルゴリズムで最大化するわけです。
 標準誤差はどうやって推定するかというと... [略。観測情報行列を使う由]
 適合度指標としてAIC, BIC, ピアソンのカイ二乗、尤度比カイ二乗を提供する。

 次にlatent class regressionモデルについて。ここでいうところのlatent class regressionとはlatent class models with covariates、すなわち潜在クラスの所属確率が共変量で予測されるのを同時推定するモデル。いっぽうfpcパッケージのregmix関数やflexmixパッケージでいうところのlatent class regressionとは、回帰モデルの推定の一部として従属変数が潜在クラスに分割されるというモデルである。意味がちがうので注意。
 モデルは... パラメータ推定は... 標準誤差は...[面倒になってきたのでパス]

 後半は使用方法と例題。モデルからの予測されたセル頻度表を出力する機能、いったん推定した後でクラスの順序を並び替える機能、シミュレーションしたデータを作る機能がある由。局所解の問題はやっぱり深刻らしくて、何度も推定しなさい、とのことである。
 
 私自身はMplusの忠実なしもべなので、潜在クラスモデルを組もうかなと思った次の瞬間には無意識のうちに library(MplusAutomation) と叩いてしまうのだが、Rのなかで完結できたら助かるなと思うことも、まあ、なくはない。このパッケージだとMplusほど細かい制約は掛けられないけど、いつか使ってみてもいいかもな。

論文:データ解析 - 読了:Linzer & Lewis (2011) RのpoLCAパッケージ

2017年8月28日 (月)

引き続き、6月頃にとったメモ。これは外出先のコーヒーショップでメモした覚えがある... なにかの時間待ちだったと思うのだが、全然思い出せない。

Smith, B., Linden, G. (2017) Two Decades of Recommendation Systems at Amazon.com. IEEE Internet Computing, 21(3), 12-18.

 たまたまみつけた面白い記事。
 いきさつとしては... IEEE Internet Computing誌20周年を記念して、過去の重要論文を選び表彰することにした。栄えある第一回受賞者は、2003年に掲載された"Amazon.com Recommendations", 著者はamazon.comのなかの人であるLinden, Smith, Yorkの三名。おめでとうございます。
 というわけで、著者のみなさんにその後を振り返っていただくことにしました... という主旨。受賞論文の第一著者であるLindenさんは、この論文ではMicrosoft所属になっており、時の流れを感じさせます。
 せっかくなので受賞講演風にメモ。

 どうもありがとう... ありがとう... (拍手が鳴りやむのを待つ)
 これまでの20年間に渡り、amazon.comは個々の顧客のためのお店を作って参りました。(ここで気の利いたジョークを一発かまして笑いを取る)
 amazon.comの推薦システムは、あなたの現在の文脈と過去の行動に基づき、あなたに喜んで頂けそうな少数のアイテムをピックアップします。私たちがアイテム・ベース協調フィルタリングをローンチしたのが1998年。IEEE Internet Computing誌でアルゴリズムを紹介したのが2003年。このアルゴリズムはいまやWebにあまねく広がっております。

 90年代中期の協調フィルタリングは基本的にユーザ・ベースでした。つまり、まずあなたと関心が類似している人を探し、次にその人たちが買っていてあなたが買っていないアイテムを探すというものでした。
 それに対して私たちのアルゴリズムはこうでした。あらかじめ、カタログ上の個々のアイテムについてそれと関連したアイテムを探しておきます。ここで「関連している」というのは、とりあえずは、いっぽうを買った人は他方も買いやすい、ということだとお考えください。この表を参照して、個々の顧客へのお勧めを素早く生成します。このアルゴリズムなら、ほとんどの計算をオフラインで済ますことができます。こうして得られるお勧めは高品質かつ有用、サンプリングなどの手法を使わなくても大規模データに対応できます。

 2003年の出版の時点で、アイテム・ベース協調フィルタリングはamazon.comで広く採用されていました。ホームページ、検索結果、ショッピングカート、注文終了後画面、eメール、商品明細ページ、などなど。amazon.com以外にも広がりました。2010年にはYouTubeが採用したと伝えられております。オープン・ソースやサード・パーティ・ベンダーの推薦システムにも広く採用されました... [ちょっと中略]
 ではここからは、私たちが行ったアルゴリズム改善についてお話ししましょう。

 推薦システムは、突き詰めていえば統計学の応用です。人間の行動はノイジーであり、ランダム性のなかから有用なパターンを見つけるというのがここでの課題です。
 アイテム$X$と$Y$の両方を買う顧客の人数$N_{XY}$を推定するという問題について考えてみましょう。ひとつの自然なやり方は、$X$の購入者が$Y$を買う確率は一般の母集団のそれに等しい、すなわち
 $P(Y) = $(Yの購入者数)/(全購入者数)
と考えて、
 $E_{XY}=$ (Xの購入者) x $P(Y)$
を推定値とすることです。
 しかし興味深いことに、たいていの$X$と$Y$において、$X$の購入者が$Y$を買う程度は、一般の母集団のそれよりも高くなります。ヘビー・バイヤーがいるからです。いいかえると、購買を無作為に抽出すると、顧客の抽出確率は一様にならないわけです。
 そこで私たちはこう考えました。商品$X$を購入した顧客$c$について(これを$c \in X$と書くことにします)、その人が$Y$を買う確率は $1-(1-P_Y)^{|c|}$ だと考えます。ここで$P_Y$=(Y購入)/(全購入), $|c|$は$c$が$X$以外のなにかを買った回数です。たとえば$c$さんが20回買い物したら、$Y$を買う独立なチャンスが20回あったと考えるわけです。ここから
 $E_{XY} = \sum_{c \in X} \left( 1-(1-P_Y)^{|c|} \right)$
ここから次式が得られます:
 $E_{XY} = \sum_{k=1}^{\infty} \left( P^k_Y \sum_{c \in X} (-1)^{k+1} \binom{|c|}{k} \right)$
ここで$P_Y$は小さいですから、有界の$k$で近似できます。$P_Y$と$\sum_{c \in X} (-1)^{k+1} \binom{|c|}{k}$はあらかじめアイテムごとに算出しておくことができます。これを組み合わせて$E_{XY}$を素早く算出できるわけです。

 さて、この$E_{XY}$を実際の併買者数$N_{XY}$と比べれば、2商品間の類似性スコア$S(X, Y)$をつくることができます。たとえば非ランダム共起数$N_{XY}-E_{XY}$を使うという手もありますが、$Y$がハリーポッターだったりすると高くなるという難点があります。$(N_{XY}-E_{XY})/E_{XY}$とする手もありますが、今度は販売量が低いアイテムがどんどんお勧めされることになりますね。うまくバランスを取ってやる必要があります。たとえばカイ二乗スコア$(N_{XY}-E_{XY})/\sqrt{E_{XY}}$を使うとか。
 他にもいろいろ方法はあります。私たちの経験に基づいていえば、あらゆる場面において最良なスコアは存在しません。場面ごとに、機械学習や統制実験によってパラメータの最適化を図ります。

 [関連性の指標が良くてデータが十分なら、関連アイテムの意味づけはデータから創発する、という話。デジタルカメラのメモリカードの互換性が関連アイテムで表現されるとか。さいでございますか。中略]

 推薦の品質を向上するためには...

  • 時間の役割について理解することが重要です。
    • ある本を買った5ヶ月後に別の本を買ったというのは、同じ日に買ったのと比べると、関連性の証拠としては弱いです。
    • 順番も大事です。顧客があるカメラを買った後であるメモリーカードを買った、というのは推薦のための良いヒントになりますが、逆はそうでもないです。
    • カタログもどんどん変わっていきます。たとえば、新規アイテムについてはまだ十分な情報が得られていません。こういうのをコールド・スタート問題といいます。行動ベースのアルゴリズムと内容ベースのアルゴリズムをうまく組み合わせる必要があります。
    • 顧客のライフスタイルや経験も一種のコールド・スタート問題を引き起こします。顧客について得られた限られた情報を使うか、一般的なアイテムをお勧めしておくか。微妙な切り替えが必要な、難しい問題です。
    • データが十分にある顧客の場合でも、以前の購買は徐々に現在の関心と無関連になっておきます。ややこしいことに、その速度はアイテムのタイプによって違います。
  • 何を買ったのか、というのも大事です。たとえばある本の購入はその人の関心について多くを語りますが、ホチキスの購入からどんなインサイトが得られるでしょうか? どの購買からお勧めを導出し、どの購買を無視するかを学ぶテクニックが必要です。
  • 最後に、多様性も大事です。はっきりした意図を持たない顧客に対しては、欲しいものをすばやく見つけることを手伝うのではなく、発見とセレンディピティを提供するべきでしょう。推薦の多様性についての良いバランスを見つけるためには、長期的観点からの最適化が必要です。

 未来の推薦システムはどのようなものになるでしょうか?
 私たちはこう想像しています。それは買い物をまるで会話のように簡単なものとしてくれる知的なインタラクティブ・サービスになる。あたかも、あなたのことをよく知っている友達とおしゃべりしているかのような。
 すべてのインタラクションがあなたの好みを反映する。もしあきらかにあなた向きでないものがおすすめされたら、まったくもう、あなたはまだ私のことがわかってないのね? という気持ちになる(場内笑い)。ひとことでいえば、どこでも人工知能、ですね。
 こういう未来を実現するためには発想の転換が必要です。推薦システムの特徴やエンジンを改善するという問題ではありません。あなたを理解し、他者を理解し、いまなにが利用可能かを理解することが、すべての相互作用における必須の部分となります。

 およそ20年前にamazon.comがローンチした推薦システムは、いまではWebのいたるところで用いられています。アイテム・ベース協調フィルタリングはいまでももっとも一般的な推薦アルゴリズムのひとつです。
 この領域はいまだ広く開かれており、多くのチャンスが残されています。推薦は発見であり、驚きと喜びを提供します。推薦、それはインタラクションそのものです。(キメ顔)
 御清聴ありがとうございました。(拍手)

 ...あーあ。推薦するアイテムの多様性をどうやってチューニングしているのかに関心があったけど、やっぱし、あんまし詳しいことは説明してくれないんだなあ。そりゃまあ、企業秘密だよなあ...

論文:データ解析 - 読了:Smith & Linden (2017) amazon.com推薦システムの20年

2017年8月27日 (日)

Soper, B., Milford, G.E., & Rosenthal, G.T. (1995) Belief when evidence does not support theory. Psychology and Marketing, 12(5), 415–422
 マズローの欲求階層説の受容を題材とした警世のエッセイ、という感じの文章。

 いわく、
 マーケティング研究者は動機づけの心理学的研究に関心を向けてきた。動機づけについての心理学的諸概念(無意識の動機づけ、強化理論、帰属理論、効力感の理論など)は、良かれ悪しかれ、マーケティング分野での共有知識となっている。
 マーケティング分野でいまだにもっとも広く受け入れられている動機づけ理論はマズローの欲求階層説である。その直観的な妥当性がマーケターの琴線に触れるのであろう。
 それはわかるんだけど、科学の手続きとしてはどのくらい妥当性があるんだろうか?

 マーケティングの教科書には、マズロー理論があたかも証明済みの原理であるかのように登場することが多い。引用はMaslow(1943, Psych.Bull.)からMaslow(1954, "Motivation and Personality")に及ぶ。でもマズローの定式化があくまでtentativeなものであることにはあまり注意が払われていない。

 マズロー理論の実証研究についてみてみよう。その多くは組織研究の文脈でなされている。

  • Porterら(Porter, 1964; Haire et al., 1966; Lawler & Porter, 1967, 1968): いろんなレベルの管理職についての国際研究。欲求の階層構造を部分的に支持。もっとも充足されていない欲求がもっとも重要だと評価される弱い傾向がある。職務パフォーマンスは高次欲求の満足とやや関連する。
  • Landy(1989, 書籍): Porterらの研究の方法論的不備を指摘(横断研究だった)。縦断で見るとマズロー理論は支持されない。いわく、「マズロー理論は歴史的な価値しか持たない」
  • Hall & Nougaim (1968): 新人管理職を5年間追跡。欲求階層説は支持されなかった。充足されている欲求のほうが重要と評価される。
  • Lower & Suttle(1972): 縦断研究。欲求階層説を不支持。
  • Beer (1966): 欲求階層説を不支持。あるレベルの欲求の充足はその上のレベルの欲求を引き起こさない、など。
  • Herzbarg, et al.(1959), Herzberg(1966): 職場の動機づけをもたらすのは高次欲求。
  • Whaba & Birdwell(1976): 包括的レビュー。マズロー理論を支持する証拠は弱い。
  • McCarth & Perreault(1984, マーケティングの教科書): 臨床的に導出された心理学理論は、マーケティング分野ではたいていうまくいかない。[←ははは]

 このように、マズローのアイデアには実証性が欠けている。
 しかるに、マーケティングの教科書の書き手は、実証性のなさをよく知っていながら、なおも欲求階層説を使ってマーケティング現象を説明することが多い。たとえば Ingram & LaForge (1989, "Sales Management")を見よ。いったいどうやったらそんな真似ができるのか。
 人は自分の立場を支持する証拠にもっとも強く影響される。自分の信念のもとになったデータが実は誤っていたとあとで教わっても、人は信念を変えない。科学者も結局は人だということを忘れてはならない。
 マーケティング研究はみずからを科学だと再三定義づけてきた。だったら科学的方法の原点に戻るべきだ。ここで問われているのは、マーケティングは科学かアートかということではない。マーケティングは科学なのか超科学なのかということだ。

 ... ははは。面白いなあ。
 これ、理論というものをまじめに受け取るか、ストーリーを整理する道具程度のものと捉えて場当たり的に使い捨てるか、という温度差の問題なのかもしれないですね。

論文:マーケティング - 読了:Soper, Milford, Rosenthal (1995) マーケティング研究者って実証性がないと知っているにも関わらずよくマズローを引き合いに出すじゃん?あれってどうなの?

Gambrel, P.A., Cianci, R. (2003) Maslow's Hierarchy of Needs: Does it apply in a collectivist culture. The Journal of Applied Management and Entrepreneurship, 8(2), 143-161
 タイトルの通り、マズローの欲求階層説を集団主義的文化に適用できるか、という話。ちょっと思うところあって手に取った。正直、世に溢れるマズロー的与太話にはあまり付き合いたくないんだけど(すいません)、ほんとに世に溢れているんだから仕方がない、と思って。
 掲載誌についても著者についてもよくわからない(掲載誌は国内所蔵館なし、もしかすると紀要のようなものかもしれない。著者らは博士課程在籍中)。

 いわく。
 動機づけの理論は内容理論とプロセス理論に大別される。前者は行動をひきおこす要因に注目し、後者は行動が引き起こされるありかたに注目する。前者の代表例が、マズローの欲求階層説、ハーツバーグの二要因理論、マクレランドの三要因理論である。これらの研究はアメリカ生まれ、被験者もアメリカ人である。
 欲求階層説の多文化研究としてすでにHofstede(1983, J.Int.BusinessStud.)がある。Hofstedeの個人主義-集団主義の次元は動機づけの理論と直接に関連している。
 本研究ではマズローの欲求階層説が集団主義文化に適用できるかどうか調べます。

 ... 途中で気が付いたのだが、これ、HofstedeとかSchwartzとかの論文を読んでまとめましたというものであった。タイトルにマズローの名を挙げつつもマズローを一本も引用しておらず、すべて孫引き。あっちゃー...
 というわけで、読んでないけど読了にしてしまおう。えーと、欲求階層説は中国にはあてはまらないんじゃないでしょうか、というようなお話である模様。

論文:心理 - 読了:Gambrel & Cianci (2003) マズローの欲求階層説は中国人にあてはまるのかどうか、文化差の先行研究を集めて読んで考えてみました

Koltlo-Rivera, M.E. (2006) Rediscovering the later version of Maslow's Hierarchy of Needs: Self-Transcendence and Opportunities for Theory, Research, and Unification. Review of General Psychology, 10(4), 302-307.
 調べ物のついでにざっと読んだ奴。掲載誌については全く知らないのだが、いちおうAPAの出版物でもあるし、そんなに変なものではないはずだ、と思って。(ciniiによれば所蔵館3館...)
 かの有名なマズローの欲求階層説は世間でなにかと誤解されておるので、マズローの晩年の著作に基づいて無知迷妄を正します、という論文である。なお、マズロー理論の実証性とかその批判的評価とか他理論との比較とか改訂とか、そういうのはこの論文の目的じゃないのでよろしくね、とのこと。

 時系列で辿ると、マズロー先生の1943年, 1954年の著作では、よく知られているように欲求階層は5階層だった(生理学的, 安全, 所属と愛, 自尊, 自己実現)。50年代末からマズローはpeak experiencesに関心を持つようになり(美的経験とか神秘的経験とか)、そこに関わる認知的活動を"Being-cognition"と呼んだ。ただし、これと自己実現との関係についてはよくわからんと述べていた。で、いろいろ考えた末 [ここ、逸話的な話が続くので中略]、マズローは階層の最上位に自己超越 self-transcendenceというのを付け加えるようになった。
 なお、自己実現と自己超越は異なるもので、どっちかだけを経験することがありうる。また、自己超越を経験するということと、人生において自己超越の欲求が優越的になるということとはまた別の問題。

 これまでのマズロー理解において自己超越という概念が無視されてきたのはなぜか。マズローがメジャーな著作できちんと説明する前に死んじゃったから、自己超越という概念が当時の心理学にとって受け入れがたいものだったから、そもそもマズローの動機づけ理論自体に問題があったから(それは厳密な意味での階層モデルではない)... といった理由が考えられる由。

 では、自己超越が追加された欲求階層説にはどういういいことがあるのか。

  1. 人生の目的という概念についての研究に貢献する。人生の意味とか目的というのは我々の世界観の一部を構成しているわけだけど、マズローの欲求階層はそれらの概念を組織化する枠組みを提供してくれる。自己超越という階層が追加されたことで枠組みがよりリッチになった。
  2. 利他的行動と社会的進歩とか知恵とかについての動機づけ上の基盤を提供する。社会学者Starkいわく、一神教は社会的進歩や科学の進歩の駆動力となった。これは自己超越に重心を置く動機づけ的立場と関係があるかも... さらにStanbergいうところの知能のバランス理論は自己超越という概念を含んでいて.. [申し訳ないけど関心なくなってきたので中略]
  3. 自爆テロみたいな宗教的暴力を理解するために自己超越という概念が有用。
  4. マズローの階層に自己超越という段階を含めることで、宗教・スピリチュアリティとパーソナリティ心理学・社会心理学との橋渡しができる。
  5. 自己超越は文化を構成する共通要素のひとつだ。伝統的ヒンズー文化とかを見よ。また、個人主義-集団主義という次元は自己実現と自己超越を動機づけ理論に含めることで概念化しやすくなる。

 云々。

 うーん...
 あらゆる理論的枠組みが直接に実証可能であるべきだとは思わない。だけど、2つの理論的枠組みを比べたとき、「こっちのほうが枠組みがリッチだから、きっと現象理解もリッチになるにちがいない」と主張するのは、果たしてアリなのだろうか? 仮にそうならば、理論は際限なくリッチになっていきませんか? どうもよくわからない。
 まあいいや、次にいこう、次に!

論文:心理 - 読了:Koltlo-Rivera(2006) マズローの欲求階層説の6個目の階層、それは自己超越だ

2017年8月26日 (土)

現実逃避の一環として、論文メモを整理。6月頃に読んだ奴。

松井剛 (2001) マズローの欲求階層理論とマーケティング・コンセプト. 一橋論叢, 126(5), 495-510.
 たまたまマズローについて資料を探していてみつけた紀要論文。

 著者の先生曰く。
 欲求階層理論への批判は2つに分けられる。

  • その1、実証に関する批判。
    • マズロー自身の研究は、被験者のサンプリングがものすごく恣意的。
    • 経験的妥当性。ミクロ組織論では反証が数多い[と、60-70年代の研究群がreferされている]。
  • その2、理論的枠組みに関する批判。
    • 生物学的偏向。マズロー的には高次欲求さえ生得的である。なお、欲求の発展段階を生物学的に基礎づけちゃうのは社会的不平等の正当化につながる、というタイプの批判もある(Shaw & Colimore, 1988, J.Humanistic Psych.)。
    • 西洋個人主義的人間観のモデル化に過ぎない。また、そもそも西洋においてさえも妥当性がなく、保守主義イデオロギーへの対抗言論に過ぎないという批判もある(Buss, 1979, 同誌)。
    • 欲求の序列性への批判。たとえば、現代においては消費の最終目標が自己実現になっちゃってたりして(顕示的消費とか)、マズローのいう自己実現欲求への到達は構造的に無理だったりする。

 著者による、マーケティング分野でのマズロー受容に対する批判。

  • マズローは、「低次欲求が完全に充足しないと高次欲求は生じない」とは言っていない。
  • マズローは自己実現的人間を必ずしも誉め讃えていたわけじゃない。マズローいわく、自己実現的人間がそうでない人間を傷つけることも多い。「こうした欠点はマズローが挙げた自己実現者の特徴と矛盾するけれども、その理由については十分な説明があるわけではない」[←ははは]
  • 自己実現的人間にばかり焦点があたるが、マズローさん的にはそんなのレアの極みである。「完全なる人間」のなかには、せいぜい1%くらいだろう、と書いてあるのだそうだ。

 なぜマーケティング分野でマズローはこんなに受けるのか。
 まず、欲求に階層があるという考え方は常識に合致する(Kilbourne, 1987というのがreferされている)。さらに、欲求階層説はマーケティング・コンセプトと親和性が高い。通説によれば、50-60年代アメリカにおいてマーケティング志向の時代が到来しマーケティング・コンセプトが生まれた。マーケティング・コンセプトは、顧客志向、利益志向、統合的努力の3点から説明される。マーケティング・コンセプトは「ターゲット市場の欲求を明らかにして効率的・効果的に対応する点に、組織目標を達成する鍵があると考える『ビジネス哲学』なのである」。この変化を説明するのに、「低次欲求の充足が満たされると高次欲求が生まれる」「自己実現は誰にとっても望ましい」という理論は都合がよかったのではないか。
 云々。

 ディスプレイ上でざっと目を通しただけなので、読み落としがあるかもしれないけど、とても面白かったです。
 最後のくだりが著者の先生の力点だと思うけど、もう少し詳しい議論を読みたいものだ。欲求階層説には確かに「消費主義の守護神」的な側面があり、それがマーケティングとの親和性を生んでいるのかもしれないけど、そもそも欲求階層説は消費主義の奥にある、なにか現代人のエートスのようなものと深い親和性を持っていて、その結果としてマーケティングを含めた多様な領域で愛されちゃうのかもしれない、とも思う。だって、本屋さんで立ち読みしていると、有閑マダム向けの趣味の棚の雑誌には「素敵なインテリアで私らしい私を実現」とかって書いてあるし、ビジネス棚の本には「仕事での成功こそ自己実現」って書いてあるじゃないですか。この共通性はなんなのだろうと思うのである。

 ところで、マーケティングの教科書に書いてある「生産志向時代→販売志向時代→マーケティング志向時代」という歴史的発展は、史実には合わないそうだ。へぇー。Fullerton (1988, J.Mktg)というのを読むといいらしい。

論文:マーケティング - 読了:松井(2001) マーケティング関係者はなぜマズローが好きなのか

Reise, S.P. (2012) The Rediscovery of Bifactor Measurement Models. Multivariate Behavioral Research, 47(5), 667-696.

 SEMでいうbifactor model(「双因子モデル」?)についての解説。bifactorモデルには独特の話題があるので、前から気になっていたんだけど、勉強する機会がなかった。このたびちょっときっかけがあって大急ぎでめくった。

 いわく。
 bifactorモデルとは、ひとつの一般因子があって全項目がそれを反映し、それとは直交するいくつかのグループ因子(特殊因子)があってそれぞれが項目のクラスタに対応する、というモデル。前者は概念的に広いターゲット構成概念を表し、後者はより狭い下位領域の構成概念を反映する。[←ことばで表現するとわかりにくいっすね]
 bifactorモデルの歴史は1930年代に遡るが、サーストン流の因子間相関モデルの栄光の陰に忘れ去られ、さびれた港町で無為な日々を送っていた[←意訳]。それが最近急に注目されているのは、(1)パーソナリティ測定の分野で良く使われるようになり、(2)啓蒙論文が出版され、(3)方法論研究が増え、そして(4)ソフトが出てきたから。

探索的bifactorモデル
 30年代にHolzingerらが提案したのがこれ。50年代にSchmid-Leiman直交化(SL)という上手い推定方法が出てきた。でもあんまり使われてない。理由: (1)SLが一般的なソフトに載ってない。(2)研究者が不勉強。

 結局のところ、因子間相関モデル、二次因子モデル、SLは等価である。ということを、実データ(15項目, 5因子を想定)でお示ししましょう。

 まず因子間相関モデルから。モデルで再現する相関行列を$\hat{R}$として、
 $\hat{R} = \Lambda \phi \Lambda^T + \Theta$
と書ける。ただし$\Lambda$は$15 \times 5$の負荷行列、$\phi$は$5 \times 5$の因子間相関行列、$\Theta$は$15 \times 15$の直交行列で独自性を表す。心理測定の研究者が大好きなモデルである。個人差は因子得点のプロファイルとして表現される。因子は比較的に狭い構成概念を表している。全項目を通じた共通分散があるとして、それは$\phi$行列のなかに隠れている。

 同じデータに二次因子モデルを当てはめることもできる。$\phi$行列を単一の二次因子への負荷行列に変換するわけである。個人差は一般的傾向性(たとえば「一般的不安」とかね)と、より狭い下位傾向性によって表現される。ここでのポイントは、二次因子と項目の間に直接的な関連はない、という点だ。二次因子モデルは共通因子モデルの再表現に過ぎない。つまり、上のモデルの$\phi$について
 $\phi = \Gamma \Phi \Gamma^T + \Psi$
とモデル化しただけである。

 さて。次の変換行列$T$を考えます。
 $T=[\Gamma | \Psi^{1/2}]$
サイズは$5 \times 6$。1列目は、二次因子モデルにおける二次因子への負荷を表す。2列目以降は対角行列で、各一次因子の独自分散の平方根を持つ[えーっと、各行は2つの要素を持ち二乗和が1になるわけね]。これをつかって負荷行列を変換し
 $\hat{R} = (\Lambda T)(\Lambda T)^T + \Theta$
これがSL直交化である。[←なるほどねえ。こりゃ計算が楽だわね]
 SLでは、共通因子は一般的な次元を表し、グループ因子はそれと直交する下位領域を表す。切り離して解釈できるというのが美点。
 
 以上を整理しよう。因子間相関モデルの負荷行列が完全な独立クラスタ構造を持っているとき(=ある項目がある一次因子にのみ負荷を持つとき)、

  • SLにおける一般因子への負荷は、一次因子への負荷と、「二次因子モデルにおけるその一次因子の二次因子への負荷」の積である。
  • SLにおけるグループ因子への負荷は、一次因子への負荷と、「一次因子の残差分散の平方根の積」である。

 SLの怖いところ。

  • 完全独立クラスタ構造なんて、現実にはそうそうない。ある項目が因子間相関モデルで交差負荷を持ってたら、その項目はSLでもやっぱりグループ因子への交差負荷を持つ。これはちょっと洒落にならない。というのは、交差負荷があるとき、一般因子の負荷が過大に推定され、グループ因子の負荷が過小に推定されるからだ。[←そうそう!だから一般因子みたいなのを解釈するのって怖いんです...]
  • SLには比例性制約が含まれている。つまりこういうことだ。いま完全な独立クラスタ構造があるとしよう。上記の「二次因子モデルにおけるその一次因子の二次因子への負荷」と「一次因子の残差分散の平方根の積」はあるクラスタの項目間で等しい。つまり、一般因子への負荷とグループ因子への負荷は、あるクラスタのなかではどの項目でも比例することになる。これが母集団において成り立つとは思えない。

というわけで、SLに代わる現代的な推定方法が開発されている。Reise et al.(2011)のtarget bifactor回転と、Jennrich & Bentler (2011)のanalytic bifactor 回転がある。後者はRのpsychパッケージにも入っている。[実データの分析例が載っているけど、パス。なおMplusだとBI-GEOMIN回転とBI-CF-QUARTIMAX回転が使えて、どちらも斜交か直交かを選べる]

確認的bifactorモデル
 各項目は一般因子とどれかひとつのグループ因子だけに負荷を持つ、というモデル。比例性の問題はなくなるが、交差負荷を無視したせいで起きるバイアスが怖いので、ちゃんと探索的分析をやってから組むのが大事。
 
 推定方法。SEMアプローチとIRTアプローチを紹介しよう。2値データについて考える。[以下、誤植らしき箇所を勝手に直したり書き換えたりしている]

 SEMアプローチの場合。$i$番目の変数の背後に正規潜在反応変数$x_i^*$と閾値$\tau_i$を仮定する。グループ因子が$p$個だとして
 $x_i^* = \sum_{j=0}^p \lambda_{i,j} \theta_{j} + \eta_i$
 で、WLS推定とかを使ってテトラコリック相関行列を分析する。これを限定情報因子分析と呼ぶ(平均と共分散しか使わないから)。

 IRTアプローチの場合。モデルはこんな感じになる。
 $\displaystyle E(x_i|\theta) = \frac{\exp(z_i)}{1+\exp(z_i)}$
 $z_i = \sum_{j=0}^p \alpha_{i,j} \theta_j + \gamma_i$
$\alpha$が識別性、$\gamma$が困難度を表す。で、周辺最尤推定(marginal ML)を使って項目反応行列全体を分析する。これを完全情報因子分析と呼ぶ。
 
 よく知られているように、2パラメータ正規IRTと間隔尺度因子分析は等価である。$\alpha, \gamma$と$\lambda, \tau$のあいだには次のような関係があって...[略]
 ただし、以下の点に注意すべきである。

  • 欠損値がある場合、IRTは(というかMMLは)数値積分がすごく大変になる。
  • SEMとIRTで項目パラメータの見た目がかなり変わってくる。たとえば、項目Aの一般因子への負荷が0.50, グループ因子への負荷が0.70, 項目Bでは0.50, 0.30としよう。一般因子への負荷は等しく見える。いっぽう、IRTでの一般因子の傾きは、Aで0.98, Bで0.61となる。[←そりゃまあそうなるな、AとBで共通性が全然ちがうから]
  • 因子分析モデルとIRTモデルでは適合度の評価の仕方がちがうし、ふだんのモデルの適合度のスタンダードはあてにならない。まだ研究が足りない問題である。

 [ここでモデル比較のデモ。bifactorモデル, 因子間相関モデル, 二次因子モデル, 一次元モデルを比べる。略]
 [一般因子のパラメータ不変性、つまり、使う項目を多少削ってもパラメータが大きく変わらないかどうかを調べるデモ。略]

bifactorモデルの使い道
では、bifactorモデルの重要な使い道を4つ、実例とともに紹介しましょう。

  • 項目反応の分散を一般因子とグループ因子に分解する。[略]
  • 項目反応データがどのくらい一次元的か調べる。[略]
  • 生のスコアが単一の共通ソースをどのくらい反映しているのかを推定する。これは一次元性の話ではない(一次元性はあるけど残差分散がすごいってこともある)。omega hierarchicalという指標を使うとよい。
     $\displaystyle \omega_H = \frac{(\sum_i \lambda_{i,0})^2}{\sum_j (\sum_i \lambda_{i,j})^2 + \sum_i \theta_i^2}$
    これはモデル・ベースの信頼性指標で、要するに、共分散行列の要素の和に占める、共通因子由来の部分の割合である。
  • 一般因子による分散をコントロールしたうえで下位尺度のスコアのviabilityを評価する。[下位尺度の$\omega$の話。略]

要約と限界

  • bifactorモデルに対する批判その1、多次元性は因子間相関モデルで扱うべき。→誤解だ。確認的分析の枠組みでは、因子間相関モデルはbifactorモデルの下位モデルだ。
  • 批判その2、一般因子は解釈しにくい。→そんなことないもん。
  • 批判その3、直交制約は非現実的。→まず一般因子とグループ因子は直交してないとモデルの意味がない。グループ因子間の相関を許すのはありだけど(Jennrich & Bentlerがそう)、解釈しにくくなり用途が限られる。
  • 批判その4、制約がきつすぎる。もっとリアルなモデルを作るべき。→まあ確認的モデルってのはもともと制約がきついもんなんだけどね。この辺はMuthenさんたちの、確認的モデリングと探索的モデリングを融合させるという試みに期待したいね(と、2009年のESEM論文をreferしている)。
  • bifactorモデルが向いているのは、主として強い共通の傾向性を反映しているんだけど、でも多様な下位領域からとってきた項目のクラスタのせいで多次元性が生まれている、というような測定尺度の計量心理的分析だ。項目内容がすごく一様だったり、きちんとした青写真なしで適当に作っちゃったような尺度には向いてないかもしれない。

云々。

 ちょっと思ったことをメモ。
 調査データ分析の文脈では反応スタイルなどに起因する共通手法分散(CMV)が深刻な問題になる。この論文が主に対象としているのは、一般的心理特性と下位領域の心理特性を反映しているような心理尺度で、だからこそ、因子を直交させるのが推奨されているし、交差負荷もなしにするのが基本なのだと思う。でも私はどっちかというと、複雑なデータ生成構造を持つ調査データがあって、これからその構造について調べたいんだけど、まずはうまくCMVだけ取り除きたい、という場面を思い浮かべながら読んでいた。だから、一般因子とグループ因子の直交性仮定はいいけれど、グループ因子間の直交性仮定は強すぎて困るな、と思う。
 確認してないんだけど、CMVの第一人者(?)であるPodsakoffさんは以前「CMV因子を入れたCFA」案を紹介していたらしい。でもAntonakisらのレビューでは否定的に扱われていたと思う(モデルが誤指定だったらひどい目に合うから、というような理由だった)。リッカート尺度の項目群の場合、Allenby兄貴のようにHBモデルを組むというのがひとつの方向だと思うのだが、いかんせんめんどくさい。
 で、この論文を読んでいて思うに、カテゴリカルEFAでbifactor回転してモデルの誤指定をチェックした上で$\omega_H$を推定し、CMV因子をいれた好き勝手なSEM, ただしCMVへの負荷はさっきの$\omega_H$を再現できる値に全項目等値で固定する... というのはだめかしらん? いつか暇ができたら調べてみたい。(まあ無理だけどな)

論文:データ解析 - 読了:Reise (2012) 忘却の淵から甦れ、bifactorモデルよ

2017年8月25日 (金)

Alvarez, I., Niemi, J., Simpson, M. (2014) Bayesian Inference for a Covariance Matrix. Proceedings of 26th Annual Conference on Applied Statistics in Agriculture, 71-82.
 ベイズ推定で共分散行列の事前分布は逆ウィシャート分布とするのが定番だが、お兄さんがた、ほんとにそれでいいと思うのかい? という論文。SEM-NETで紹介されていて、仕事と関係する話ではあるので、ざっと目を通した次第。

 ベクトル$Y_i$ ($i=1, \ldots, n$)がiidに$N(\mu, \Sigma)$に従う、というMVNなモデルを考える。$\Sigma$は$d$次元の正定値行列。
 データ全体を$y$として、その尤度は
 $\displaystyle p(y | \mu, \Sigma) \propto |\Sigma|^{-n/2} \exp \left( -\frac{1}{2} tr(\Sigma^{-1} S_\mu) \right)$
である。ただし$S_\mu = \sum^n_i(y_i-\mu)(y_i-\mu)^T$。

 さて、共分散行列$\Sigma$の事前分布をどうするか。ふつうは自然共役事前分布である逆ウィシャート(IW)分布を使うところだが、ここではその他に、scaled IW分布, 階層IW分布, 分離方略を紹介しよう。

 事前分布その1, IW分布。
 $\displaystyle p(\Sigma) \propto |\Sigma|^{\frac{\nu+d+1}{2}} \exp(-\frac{1}{2}tr(\Lambda \Sigma^{-1}))$
ここで$\Lambda$は$d$次元の正定値行列, $\nu$は自由度で、$\nu > d-1$のときにproper。平均は$\nu > d+1$のときに $\Lambda / (\nu-d-1)$である。ふつうは$\Lambda=I, \nu = d+1$とする。こうするとすべての相関の周辺分布が一様になる。[←このくだり、全く意味を考えず虚心に写経している。だって、らららー、文系なんだものー]
 その共役性によって広く愛されているIW分布だが、欠点が3つある。

  • 全パラメータの不確実性がたったひとつの自由度によってコントロールされている。
  • $\nu > 1$のtき、個々の分散の確率密度が0のあたりで極端に低くなり、事後分布にバイアスをもたらす。
  • 分散が大きいと相関1ちかくに、分散が小さいと相関0ちかくになりやすい。

 事前分布その2、scaled IW(SIW)分布。えーと、これはですね、要素$\delta_i$を持つ対角行列$\Delta$について$\Sigma \equiv \Delta Q \Delta$としてですね、
 $Q \sim IW(\nu, \Lambda)$
 $\log(\delta_i) \sim N(b_i, \xi_i^2)$ (iidで)
とするわけです。要するに変数ごとに分散を変えられるわけね。

 事前分布その3、階層Half-t分布。まず
 $\Sigma \sim IW(\nu+d-1, 2\nu\Lambda)$
とする。ここで$\Lambda$は対角行列で、その要素を
 $\lambda_i \sim Ga(1/2, 1/\xi_i^2)$ (iidで)
とするんだそうです。なんだかさっぱりわからん。これはSDの事前分布をhalf-t分布にしていることになる由。なんだかさっぱりわからん。(繰り返し)

 事前分布その4、分離方略。
 $\Sigma \equiv \Lambda R \Lambda$とする。$\Lambda$は要素$\sigma^i$を持つ対角行列で、SDの事前分布。$R$は要素$\rho_{ij}$を持つ相関行列。とこのように分離しておいて、別々に事前分布を与える。ああそうか、SDと相関を別々にモデル化するのか。
 相関のほうは、$R=\Delta Q \Delta$とし($\Delta$は対角行列で... 詳細省くけど、$Q$をうまいこと相関行列に変換するという主旨だと思う)、$Q \sim IW(\nu, I)$とする。で、$\log(\sigma^i)$はiidに$N(b_i,\xi_i)$に従うものとする。
 なんでこれを取り上げるかというと、これがStanのオススメだから。

 ...なんだか関心がなくなっちゃったので(「能力が及ばない」の婉曲表現)、シミュレーションと実例をパスして一気に結論に飛ぶと...

  • IWの場合、相関と分散とのあいだにアプリオリに強い依存性がみられる。その結果、IWを使うと事後分布に極端なバイアスがかかる(標本分散が小さい変数の分散が大きめになり、相関が0に接近する)。
  • SIW, 階層Half-t分布も上記の傾向あり。
  • 分離方略は、上記の点については大丈夫なんだけど、計算が大変。StanみたいなHMCサンプラーならどうにかなるんだけど、それでも大変だし、BUGSみたいなGibbsサンプラーだと超大変。
というわけで、Stanをお使いの場合は分離方略がオススメ。でも計算が大変だったり無理だったりする場合、もし相関が推定できるだけでいいってんなら、あらかじめデータを分散1にしておいてIW分布を使うのがよろしい。とのこと。

 ...いやー、正直わたくし仕事ではMplus一択、よって共分散行列の事前分布はIW一択なんだけど、こうしてみると、Mplusではやっぱ事前のスケーリングが大事ってことやね。Muthen導師の日頃のご託宣のとおりである。南無南無。

論文:データ解析 - 読了:Alvarez, et al. (2014) 共分散行列の事前分布は逆ウィシャート分布でいいのか

溜まった論文メモをちびちびアップ中。まだ5月分だ。なかなか片付かない...

Little, T.D., Slegers, D.W., Card, N.A. (2006) A non-arbitrary method of identifying and scaling latent variables in SEM and MACS models. Structural Equation Modeling, 13(1), 59-72.

 多群のSEMモデルでモデル識別のために制約を掛けるとき、因子分散を1にするのでもなければ最初の指標の負荷を1にするのでもない、新しい制約の掛け方をご提案します。それはeffect-codingです! という論文。仕事の都合で読んだ。

 準備。
 $X$を長さ$p$の観察ベクトルとし、その平均ベクトルを$\mu$, 分散共分散行列を$\Sigma$とする。群$g=1, \ldots, G$があり、群$g$に属する観察ベクトルを$X^g$とする。次のモデルを考える。
 $X^g = \tau^g + \Lambda^g \xi^g + \delta^g$
$\tau^g$は長さ$p$の切片ベクトル、$\Lambda^g$は$(p \times r)$の負荷行列, $\xi^g$ [原文には$\chi^g$という表記も混在している] は長さ$r$の潜在ベクトル、$\delta^g$は長さ$p$の独自因子ベクトル。平均構造と共分散構造は
 $\mu^g = \tau^g + \Lambda^g \kappa^g$
 $\Sigma^g = \Lambda^g \Phi^g \Lambda^{g'} + \theta^g$
$\kappa^g$は長さ$r$の潜在変数平均ベクトル, $\Phi^g$は$(r \times r)$の潜在変数共分散行列、$\theta^g$[$\theta^g_\delta$という表記も混在している]は独自因子の分散を表す$(p \times p)$の対角行列である。
 以下のように仮定する。$E(\delta)=0$。$Cov(\delta\delta')=0$。独自因子と共通因子は独立。観察変数と独自因子はMVNに従う。
 測定モデルは本質的同族(essentially congeneric)と仮定する。つまり、所与の潜在変数の指標の切片$\tau$についても、所与の潜在変数の指標$\lambda$についても、独自分散$\theta$についても制約しない、広い範囲の測定モデルについて考える。というか、測定不変性の制約をどこまでかけるか、それをどうやって決めるかは、この論文のテーマではない。この論文が問題にするのは、モデル識別のための制約をどうやってかけるか、である。

 本題。
 モデル識別のための制約のかけかたが3つある。

 方法1: 参照群法
 群1の潜在変数平均ベクトル$\kappa^1$を0に固定し、群1の潜在変数共分散行列$\Phi^1$の対角要素を1に固定する。負荷$\Lambda^g$と切片$\tau^g$に群間等値制約をかければ、潜在変数の平均と分散は群2以降で自由推定できる。
 このとき、$\tau$は群1の平均の推定になる。群2以降の潜在変数平均ベクトル$\kappa^2, \ldots, \kappa^G$は、その潜在変数の指標群の平均差を負荷で重みづけたものとなる。
 また、個々の潜在変数の負荷$\lambda$は、群1での負荷となる。群2以降の潜在変数分散$\Phi^g$は、その潜在変数で説明された共通分散を比で表したものになる。

 方法2: マーカー変数法。いうならば、切片・負荷のdummy-codingである。
 個々の潜在変数について、その(たとえば)最初の指標を選んで、その切片$\tau^g_{1r}$を0に固定し、負荷$\lambda^g_{1r}$を1に固定する。残りの負荷と切片には群間等値制約をかける。この方法は、潜在変数のスケールを最初の指標に合わせたことになる。選ぶ指標は別にどれでもよい。ふつうはどの指標を選んでも適合度は変わらない。(ただし、すごく無制約なモデルは例外で...と、Millsap(2001 SEM)を挙げている。これ、どっかで聞いたことがあるなあ...)

 方法3: effect-coding法
 個々の潜在変数について、指標の切片の和を0、負荷の平均を1と制約する。つまり、潜在変数$r$の指標の数を$I$として
 $\sum_i^I \lambda^g_{ir}=I, \ \ \sum_i^I \tau^g_{ir} = 0$
これだけでもモデルは識別できる。この方法だと、潜在変数の分散は、その潜在変数で説明された分散の重みつき平均となり、潜在変数の平均は、その潜在変数の指標の平均の重みつき平均となる。その重みが合計1になるように最適化されているわけである。

 計算例...[略]

 比較すると、

  • 参照群法は、因子平均の群間比較の際にわかりやすい。また、群1だけは、潜在変数の共分散が相関係数になる。[ここで、全群で分散1の高次因子であるphantom潜在変数をつくるという手が紹介されている... いま関心ないのでパスするけど、Little (1997, MBR)をみるといいらしい]
  • マーカー変数法は指定が簡単。しかし、潜在変数のスケールが、マーカー指標の選択によって変わってくるという欠点がある。また、群間の測定不変性を検定するときは、マーカー変数だけは不変だという前提を置くことになる。
  • effect-coding法は、潜在変数のスケールが最適化されている。また、全指標が同尺度だと考えることができるならば、その尺度が潜在変数にも保持されていると考えられるわけで、潜在変数間で因子平均・因子分散を比較できる[←ああ、なるほど...]。また、どれかの群を参照群に選ぶ必要がない。測定不変性が仮定されていない場合でも使いやすい[←ここ、説明があったんだけどパス]。いっぽう、指標の尺度がバラバラだったらあまり好ましくない。

 なお、以上の3種類でモデルの適合度は変わらないし、潜在変数の差の効果量も変わらない。
 
 なお、ここまで多群モデルについて考えてきたが、この話は縦断モデルにも適用できる。
 以上の議論は単純構造がある場合の話で、交差負荷がある場面については今後の課題である。云々。

 ... なぜこの論文を読んでいるのか途中から自分でもよくわかんなくなっちゃったんだけど、ま、勉強になりましたです。
 多群SEMでeffect-codingしたくなる状況ってのがいまいちピンときてないんだけど、たとえば全指標の尺度が同じで、交差負荷のないCFAで、かつ切片と負荷の群間等値制約を掛けている(ないし、その指標についても外している)ような場面では、それはわかりやすいかもなと思う。もっとも、たとえば測定の部分不等性を捉えるために、一部の指標についてだけ負荷の等値制約を外しているような場面では、いくら適合度は変わらないといえ、負荷の平均を1に揃えるというのはなんだか奇妙な話だと思う。
 ま、いずれ使いたくなる場面に出くわすかもしれないな。覚えておこう。

 ところで、我らがMplusはどうなっているかというと... 私の理解が正しければ、Mplusのデフォルトは、
 「因子負荷は最初の指標で1に固定、切片は定数制約なし、因子平均は第1群で0に固定、因子分散は制約なし、指標の切片と因子負荷は群間等値」
なので、参照群法とマーカー変数法の中間といったところ。もちろん、参照群法、マーカー変数法、effect-coding法のいずれのモデルも組めるはずである。

論文:データ解析 - 読了:Little, Slegers, Card (2006) 潜在変数モデルを識別するためのeffect-coding制約

論文メモの記録。まだ5月分だ...

Loffler, M. (2014) Measuing willingness to pay: Do direct methods work for premium durables? Marketing Letters, 26, 535-548.
 支払意思額(WTP)の聴取方法を比較した研究。PSM(price sensitivity meter)とCBC(選択型コンジョイント)を比べる。著者の所属はポルシェだそうである。

 いわく。
 WTP測定には、PSMのような直接法と、コンジョイント分析のような間接法があって、往々にして結果が違う。Steiner & Hendus (2012, WorkingPaper)の調査によれば、ビジネスでは直接法のほうが良く使われている(全体の2/3)。
 WTP聴取方法を比較した先行研究をみると[...5本の論文を表にして紹介...]、消費財・サービスが多く、被験者は学生が多く、文化差研究がみあたらない。

 仮説。自動車で実験します。

  • H1.PSMの受容価格帯の左端は、特売価格についてのストレートな設問への回答と合致する。
  • H2.PSMの受容価格帯の右端は、「期待市場価格」についてのストレートな設問への回答と合致する。
  • H3.PSMの最適価格点は、CBC[選択型コンジョイントね] に基づく最適価格とは著しく異なる。
  • H4a.PSMの受容価格帯の個人レベルでの幅は、成熟市場のドイツで広く発展市場の中国で広い。
  • H4b. CBCに基づく価格帯は国間の差が小さい。

[結果次第であとからなんとでもいえる話ばかりで、いささか萎える。わざわざこういう仮説検証研究的なしぐさをしなくてもいいじゃんと思うのだが、まあ、この領域のお約束なのであろう...]

 実験。
 US, ドイツ, 中国でやった高級車の「カークリニック」で実験した。[←前職で初めて知ったのだが、調査会場で新車(ないしそのモック)を提示する消費者調査のことを「クリニック」と呼ぶ。車検のことではない。たぶん自動車業界に特有な用語だろう(白物家電の「クリニック」って聞いたことがない)。面白い業界用語だなあと思う。誰が医者で誰が患者なんでしょうね]
 対象者は過去4年以内新車購入者で高年収で次回購入車を決めてない人, 各国約500人強で計1640人。新車と競合車(BMWとかMBとか)、計7台を提示。
 いろいろ訊いた後にPSM(4問のうち「安い」設問を特売価格のストレート設問とみなす)、市場価格ストレート設問(「割引がないとしていくらだと思います?」)、CBC課題。[順序が書いてないぞ。カウンターバランスしてないとか?]
 CBCは、属性は(1)メークとモデル、(2)エンジンタイプ, (3)馬力、(4)国産/輸入, (5)装備、(6)価格。それぞれ3~4水準。12試行、1試行あたり7台+「どれも選ばない」から選択。ホールドアウトは調べてないが、NCBS調査と照合して妥当性を検証しました、云々。[NCBS調査とは欧州車を中心とした新車購買者調査のこと]

 結果。
 H1, H2を支持。わざわざPSMで受容価格帯を調べなくても、ストレート設問の集計と変わらない。
 CBCの各選択肢のコストを別のデータから調べておいて、利益を最大化する価格を求めた。これをPSMの最適価格点と比べると、後者のほうが低い。[モンテカルロ法で幅を出して... 云々と説明があるが、省略]。H3を支持。
 国によるちがいは...[めんどくさくなってきたのでスキップ]

 考察。高級耐久財でWTPの実験をやりました。手法は選ばなあきませんね。ちゃんと国別に調べんとあきませんね。云々。

 わざわざ読まなきゃいけないほどの話じゃなかったけど(すいません)、PSMについてきちんと実験している研究はあまり多くないので、えーと、その意味ではですねー、参考になりましたですー。
 それにしても... ちょっとこらえきれないので書いちゃうけど、PSMの最適価格点と、CBCの最適価格点を比べるのは、いくらなんでも無理筋でしょう。PSMは(妥当かどうかは別にして)消費者の価格知覚からみた最適価格を調べようとしているのに対して、CBCの最適価格点とはメーカーからみた利益最大化価格である。もしメーカーがPSMの最適価格で値付けしちゃったら、売上がどうなるかは知らないが、利益が最大化されないのは当っっったり前であろう。いったいなにを考えておられるのか。まあいいけどさ。

 話はちがうが:
 PSMの設問文については前に論文や書籍を調べたことがあるんだけど、4問の設問で毎回「品質」という言葉を使い、思い切り知覚品質にフォーカスした設問文を採用している人と(Monroe(2003), 杉田・上田・守口(2005)など)、「品質」という言葉をあまり使わず、単に安すぎ/安い/高い/高すぎな価格を訊く方向の人(Travis(1982), 朝野・山中(2010)など)がいると思う。この論文の設問文は後者の路線。この違いって、歴史的には何に由来してるんですかね。

論文:調査方法論 - 読了:Loffler (2014) 高級車の消費者支払意思額をPSMとコンジョイント分析で比較する

2017年8月24日 (木)

引き続き、論文のメモを記録しておく。このへんまで、たぶん5月頃に読んだ奴だと思う。

Agresti, A. (1992) Analysis of Ordinal Paired comparison Data. Journal of the Royal Statistical Society. Series C (Applied Statistics), 41(2), 287-297.
 先日読んだレビュー論文で、一対比較への段階反応データについての隣接カテゴリロジットモデルというのが紹介されていて、よく意味がわからなかったので、引用文献を辿って読んでみた。

 いわく。
 処理$h$と$i$を比べたとき、$i$が選好されることを$Y_{hi}=1$, $h$が選好されることを$Y_{hi}=2$とする。Bradley & Terry (1952)のモデルは
 $\displaystyle \log \frac{P(Y_{hi} =1)}{P(Y_{hi} =2)} = \mu_i -\mu_h$
で、これは
 $\displaystyle P(Y_{hi}=1) = \frac{\exp(\mu_i)}{\exp(\mu_i)+\exp(\mu_h)}$
とも書ける。このへんの歴史に関心をお持ちの向きはDavid(1988, 書籍)あたりを見るがよろしい。
 さて、BTモデルをタイあり比較(つまり3件法)へと拡張する試みは60年代からある。では、これを5件法とか7件法とかに拡張する方法について考えよう。

 処理の数を$I$, 順序反応カテゴリ数を$J$とする。処理$h$と$i$を比べた反応を$Y_{hi}$とする。尺度は対称だ ($Y_{hi}=j$なら$Y_{ih}=J-j+1$だ) と仮定する。

 その1, 累積リンクモデル。
 連続潜在変数$Y^*_{hi}$と、それを反応$Y_{hi}$に変換するための閾値$\alpha_1, \ldots, \alpha_{J-1}$ (小さい順) を考える。さらに、処理への潜在的評価$Y_h, Y_i$を考え、$Y^*_{hi} = Y_h - Y_i$と考える。そして、各処理の効用パラメータ$\mu_i, \mu_h$を考え、$Y_h-\mu_h, Y_i-\mu_h$は比較によらず同一の分布にしたがうと考える。すると、
 $Z = (Y_i - \mu_i) - (Y_h - \mu_h)$
は比較によらず同一の分布に従い、
 $\alpha_{j-1} - (\mu_h - \mu_i) < Z < \alpha_j - (\mu_h - \mu_i)$
のときに$Y_{hi}=j$だってことになる。$Z$の累積分布関数を$F$とすれば
 $F^{-1}(P(Y_{hi} \leq j)) = \alpha_j - (\mu_h-\mu_i)$
である。
 $F^{-1}$をロジットリンクにすると、$J=2$ならばBradley-Terryモデルになる。$F^{-1}$をプロビットリンクにすると、$J=2$ならばThurstone-Mostellerモデルとなる。

 その2、隣接カテゴリロジットモデル。
 反応$j$と$j+1$にだけ注目する。上記と同様に、反応は$Z+\mu_i-\mu_h$で決まっているのだと考えて
 $\displaystyle \log \frac{P(Y_{hi}=j)}{P(Y_{hi}=j+1)} = \alpha_j - (\mu_h -\mu_i)$
これを書き換えると
 $\displaystyle \frac{P(Y_{hi}=j)}{P(Y_{ih}=j)} = \exp((J+1-2j)(\mu_h -\mu_i))$
つまり、たとえば7件法だとして、$\exp(2(\mu_i-\mu_h))$は回答3 vs 5のオッズ、その2乗は回答2 vs 6のオッズ, 3乗は1 vs 7のオッズだということになる。累積リンクモデルより解釈しやすい。

 ... ここからは、推定方法の話、事例、比較に独立性がない場合の話。読みたいところが終わっちゃって急速に関心が薄れたので、パス。

 なあんだ、隣接カテゴリロジットってそういう話か、と納得したのだが(隣接する2カテゴリの下での条件付き確率のロジットを効用の線形関数とみるわけね。結局ベースライン・カテゴリを決めたロジットモデルと同じことだ)、Agrestiの分厚い本を見たら、順序カテゴリデータの章にちゃんと書いてあった。なんだかなあ。手持ちの教科書をちゃんと読めという話である。

 素朴な疑問なのだが... 消費者調査で、刺激セットの総当たり対について選好判断を繰り返すとき、恒常和法で聴取することがある。ここに(たとえば)10枚のチップがあるとして、好きなほうにより多くのチップを置いてください、という訊き方である。
 テクニカルにいえば、この回答は刺激対に対する0~11の11件法評定だと考えて分析することもできるし、独立に行った10回の試合の勝敗集計だと捉えて、ThurstonモデルなりBradley-Terryモデルなりを当てはめることもできる(そういう事例を見たことがあるし、ここだけの話、自分でもやったことがあります)。でも正直なところ、後者のアプローチにはかなり抵抗がある。あるペアに対するチップの置きかたが、あるパラメータの二項分布に従っていると考えていることになるわけで、ちょっと仮定が強すぎるように思うわけである。
 でも考えてみると、チップの置きかたを11件法評定だと捉えて累積リンクモデルなり隣接ロジットモデルなりを当てはめたとしても、それはそれで強い仮定が置かれている。どちらのモデルでも閾値は左右対称だし、$Z$(効用の差と潜在評価の差とのずれ)にはなんらかの確率分布が仮定されている。つまり、あるペアに対するチップの置きかたが、あるパラメータの正規分布だかなんだかに従っていると考えているわけで、結局のところ五十歩百歩なんじゃないかしらん。
 実のところ、10枚のチップの置きかたと効用差との関係は、回答生成の心的過程に関わる実質的な問題で、心理実験で調べるべき問題なんじゃないかと。そういう研究があるといいんだけどなあ。

論文:データ解析 - 読了:Agresti(1992) 一対比較への順序尺度型回答を分析するための2つのモデル

 仕事の都合でBradley-Terryモデルを使っていて(←そういう古典的モデルがあるのである。大儲けとはおよそほど遠い地味な分野の地味な話題なのである。世のデータサイエンティストたる皆様はもっと他の金になる話について知識を誇ったほうがよいだろう)、これって学部生のときに習ったサーストンのモデルと実質的にどうちがうんだろう?(←そういう超古典的なモデルがあるのである。計量心理の先生がなぜかそういう黴臭い話を延々と続けて止まなかったのである。もっと他の話をしてくれりゃよかったのに)、とふと疑問に思ったので、適当に検索して、出てきた魅力的な感じのPDFを印刷して、筒状に丸めて片手に持って外出した。
 で、移動中にパラパラめくったら、これは... 俺の読みたかった話と違う... いや、まあ、いいけどさ...

 Stern, H. (1990) A continuum of paired comparisons model. Biometrika, 77(2), 265-73.
 というわけで、途中からうとうとしながらパラパラめくっただけだけど、一応メモ。
 既存の一対比較モデルを、ガンマ確率変数を使ったモデルで包括的にご説明します、という話。

 $k$個の刺激(プレイヤー)のトーナメント戦について次のように考える。
 プレイヤー$i$のスコアは率$\lambda_i$のポワソン過程に従い、スコア獲得のプロセスはプレイヤー間で独立とする。2個のプレイヤーの勝敗とは「どっちが先にスコア$r$を獲得するか」であるとする。[←なんというか、一対比較課題への回答を生成する認知モデルとしては非常にナンセンスな気がするが、そういうご主旨の論文ではないのだろう]。
 このとき、プレイヤー$i$がスコア$r$を獲得するまでにかかる時間は、形状$r$, スケール$\lambda_i$のガンマ分布に従いますね。$i$が$j$に勝つ確率を$p^{(r)}_{ij}$は、形状はどちらも$r$でスケールは$\lambda_i, \lambda_j$である2つの独立なガンマ確率変数$X_i, X_j$を考えると
 $p^{(r)}_{ij} = pr(X_i < X_j)$
中略するけど、これは結局
 $\displaystyle p^{(r)}_{ij} = f(r, \frac{\lambda_i}{\lambda_j})$
と書ける[← 原文には$f$の中身が書いてあるけど面倒なので省略]。

 このガンマ確率モデルの枠組みで、既存のいろんなモデルを扱える。
 たとえば$r=1$とすると、これは
 $\displaystyle p^{(r)}_{ij} = \frac{\lambda_i}{\lambda_i + \lambda_j}$
となる由。この系統のモデルはいっぱいあって(convolution type linear model)、Bradley-Terryモデルもそのひとつ。
 また、たとえば$\displaystyle \frac{\lambda_i}{\lambda_j} = \frac{1}{1+\Delta r^{-1/2}}$とすると、これは
 $\displaystyle \lim_{r \to \infty} p^{(r)}_{ij} = \Phi \left( \frac{\Delta}{\sqrt{2}} \right)$
となる由。ただし$\Phi(\cdot)$は標準正規分布の積分。これはThurstone-Mostellerモデルに近い。[...後略...]

 データへの適合度でモデルを比較してもいいけど、$n$がすごく大きくない限りどっちもみな様な結果になるのよ。昔の研究で、Bradley-TerryモデルでもThurstone-Mostellerモデルでもデータへの適合は似たようなもんだという指摘が多いが、それはこういうことなのよ。云々。

論文:データ解析 - 読了:Stern(1990) 一対比較データを扱ういろんなモデルを「2つの刺激がそれぞれ謎の得点を稼いでいきある得点に先に達したほうの刺激が勝つのだ」モデルで包括的に説明する

2017年8月23日 (水)

 これも仕事の都合で、かなり前に読んだ奴。

Cattelan, M. (2012) Models for paired comparison data: A review with emphasis on dependent data. Statistical Science, 27(3), 412-433.

 一対比較データのためのモデルに関する、全21頁のレビュー。著者はイタリアのポスドクさん。題名にある dependent dataとは、比較と比較の間に独立性がない、という意味。

 対象者$s$が対象$i$と$j$を比較した値を$Y_{sij}$とする。当面、観察は独立と考える(たとえば、ある対象者はひとつの比較しかしないものとする)。

 その1, 伝統的モデル
 伝統的なモデルでは、$Y_{sij}$は二値で、$i$が勝つ確率$\pi_{ij}$は対象の効用$\mu_i, \mu_j$の差の関数、すなわち
 $\pi_{ij} = F(\mu_i - \mu_j)$
である。これをunstructured modelという。$F$が正規累積分布ならThurstone(1927)のモデルとなり、ロジスティック累積分布ならBradley-Terryモデル(1952)となる。モデルの目的は効用ベクトル$\mathbf{\mu} = (\mu_1, \ldots, \mu_n)'$についての推論である。なお識別のためになんらかの制約をかける必要がある。和が0だとか。
 普通は効用の差に関心があるわけだけど、そうすると次の問題が起きる。たとえば$H_0: \mu_i = \mu_j$をワルド統計量$(\hat{\mu}_i - \hat{\mu}_j)/\sqrt{\hat{var}(\hat{\mu}_i-\hat{\mu}_j})$で検定したいとするじゃないですか。$\hat{\mu}_i$と$\hat{\mu}_j$は独立じゃないから共分散が要る。でもいちいちめんどくさい。そこで擬似分散を使うことが多い。[... 共分散が正なら分散を割り引くという話。考え方が説明されているんだけどよくわからなかった。Firth & de Menezes (2004, Biometrika)を読めとのこと]

 その2, 順序型の一対比較
 たとえば、タイを許す比較とか、「どちらともいえない」を真ん中にとった5件法とか。
 Agresti(1992, JRSS)は2つモデルを挙げている。ひとつめ、累積リンクモデル。
 $pr(Y_{ij} \leq y_{ij}) = F(\tau_{y_{ij}} - \mu_i + \mu_j)$
として、累積ロジットモデルだか累積プロビットモデルだかに持ち込む。
 ふたつめ、隣接カテゴリモデル。[説明が書いてあったんだけどよくわからなかった。3件法なら、回答(1,2)だけのロジスティック回帰モデルと回答(2,3)だけのロジスティック回帰モデルを推定する、ということ? まさかねえ...]

 その3, 説明変数の導入。
 たとえば、対象についての説明変数を導入して
 $\mu_i = x_{i1} \beta_1 + \cdots + x_{iP} \beta_P$
とか(もちろん対象固有な切片をいれてもよい)。こういうのをstructured modelという。ただの線形結合じゃなくて、たとえばスプライン・スムーザーの線形結合にしましょうなどという提案もある。
 対象者についての共変量を入れるという提案もある。また、対象者の潜在クラスを考えるという提案もある(Dillon, Kumar, & de Borrero, 1993 J.MktgRes)。[←直感として、そのモデル、Mplusで組めちゃいそうだなあ...]
 対象者を共変量で再帰分割しながらBradley-Terryモデルを推定しまくるという提案もある。[変態だ、変態が現れた... Strobl, Wickelmaier, Zeileis (20011, J.Edu.Behav.Stat.)だそうだ]
 個々の比較についての共変量を入れるという提案もある。スポーツのホーム・アドバンテージとか。

 ここからは、独立性がないデータのためのモデル。

 その4. 推移律が成り立たないモデル。
 効用を多次元化して捉えようというモデルとか(最終的なランキングは出せないことになる)、比較の間の従属構造を考えるモデルとかがある。

 その5. 一人の対象者が複数の比較をするモデル。
 これは研究が多い。

 アプローチ1, サーストン・モデル。もともとThurstone(1927)は知覚弁別について考えていたわけだが、そもそも彼にとって$n$個の刺激$(T_1, \ldots, T_n)'$は多変量正規分布に従うのであり、つまり刺激は共分散を持つのである。またTakane(1989)のモデルは、それぞれの比較に誤差を持たせ、その誤差に共分散を持たせており、そのおかげでwandering vectorモデル, wandering ideal pointモデルを扱うことができる[←よくわからんが、効用が共分散行列を持つだけじゃなくて比較が共分散行列を持っているから、たとえばなにとなにを比べるかによって理想ベクトルが切り替わっちゃうようなデータ生成構造が表現できたりする、ということだろうか]。
 こういうモデルはパラメータがめっさ多くなるのでなんらかの制約が必要である。サーストンは刺激の共分散行列に制約を掛けたし、Takaneは因子モデルを使った。
 もっと拡張したモデルにTsai & Bockenholt (2008)というのがあってだね...[略]
 計量心理学者が関心を持つのは刺激の間の関係なので、最大の関心はunstructuredで無制約なサーストンモデルにあるんだけど[←なるほどね]、残念ながらなんらかの制約が必要である。Takaneが考えたような個々の比較が誤差を持つモデルを識別するためには、最低限どんな制約が必要かといいますと...[ああ、面倒くさい話だ... パス]

 アプローチ2, ロジット・モデル。最初期はLancaster & Quade (1983)というので、効用をベータ分布に従う確率変数と捉えた。でも「同じ対象者における同じ対象ペアの比較」のあいだに相関を導入しただけだった。
 オッズ比を使うアプローチもある。普通の統計ソフトで推定できるのが長所。[←短い説明があるんだけどさっぱりわからん]
 対象の効用にランダム効果をいれるというアプローチもある[←っていうか、普通そういう風に考えません?]。たとえば、個人$i$, 対象$i$について
 $\mu_{si} = \mu_i + \sum_p \beta_{ip} x_{ip} + U_{si}$
とか。Bockenholt(2001, Psych.Method)など。

 アプローチ3, 経済学における選択モデル。この文脈では、ランダム効用モデルのIIA仮定をどうやって緩和するかという点が問題になっていた。nested logitモデルとか、効用に乗っている個人別の誤差に共分散を考える多変量プロビットモデルとか。
 経済学における選択理論の特徴は、調査票で調べるstated preferenceと選択課題で調べるrevealed preferenceを別物として扱うという点である。両方を同時に扱うモデルとしてWalker & Ben-Akiva (2002 Math.Soc.Sci.)がある。[←へー]

 その6. 対象に関連した依存性があるモデル。
 たとえば動物のあいだのコンテストで、固有の個体がランダム効果を持つ、というような場合。[へー、そんな問題があるのね。でも関心ないのでパス]

 さて、上記その5のような、独立性のないデータのためのモデルをどうやって推定するか。[... ここから、どんな尤度をどうやって求めるか、適合度をどうやって測るのか、というような難しい話に突入し、おおこれは統計学の論文だったのか、と思い出した次第。5頁にわたってスキップ。どうもすいません]

 最後にRのパッケージ紹介。

  • ebaパッケージ。これはもともとTverskyのEBAモデルを推定するためのパッケージなんだけど、属性がひとつしかなかったらサーストンモデルやBradray-Tarryモデルと同じである。
  • prefmodパッケージ。対象者が複数いるデータに焦点を当てている。
  • BradreyTerry2パッケージ。トーナメントに焦点を当てている。
  • Stroblらの再帰分割をやる psychotree パッケージというのもある。[えええ、パッケージがあるの!? ただの変態じゃねえな...]

最後のまとめのところに今後の課題がいろいろ書いてあったけど、疲れたのでパス。

論文:データ解析 - 読了:Cattelan (2012) 一対比較データのための統計モデル・レビュー

Austin, P.C., Jembere, N., Chiu, M. (2016) Propensity score matching and complex survey. Statistical Methods in Medical Research.
 先日目を通したRidgeway et al.(2015)に引き続き、「標本ウェイトつきのデータで傾向スコア調整するときどうするか」論文。シミュレーションしましたという話である。

 この論文は前置きをすっ飛ばしてシミュレーションの設定をみたほうがいいと思うので(というか誠実に読むにはいささか疲れてるので)、いきなりシミュレーションについてメモする。

 層別クラスタ抽出の場面を考える。母集団は、層10, 各層に20クラスタ、各クラスタに5000人、計100万人。
 データを生成する。共変量は6個。共変量$l$について、層$j$はランダム効果
 $u^s_{l,j} \sim N(0, \tau^s_l)$
を持ち、クラスタ$k$はランダム効果
 $u^c_{l,k} \sim N(0, \tau^c_l)$
を持ち、各ケースは値
 $x_{l,ijk} \sim N(u^s_{l,j}+u^c_{l,k}, 1)$
を持つ。
 処理を割り当てる。処理は2値とし、処理群における確率$p_i$を
 $logit(p_i) = a_0 + a_1 x_1 + a_2 x_2 + \cdots + a_6 x_6$
として、処理変数を
 $Z_i \sim Be(p_i)$
とする($Be$はベルヌーイ分布ね)。回帰係数は, $a_1 = \log(1.1), \ldots$という風に固定。
 2つのアウトカムを生成する。ひとつは量的変数で、めんどくさいから式は省略するけど、要するに6個の共変量と正規誤差と定数の線形和で、処理群に限り、さらに定数と共変量のうち3つの線形和が乗る。係数はみな固定である。もうひとつは二値変数で、これも$logit(p_i)$を同じようにつくっておいてベルヌーイ分布で生成。
 こうして、母集団ができました。以下、estimandはPATT (母集団のATT) とする。

 さあ抽出しましょう。
 標本サイズは全部で5000。この層への配分がちょっとわからなくて...

We allocate samle sizes to the 10 strata as follows: 750, 700, 650, 600, 550, 450, 350, 300, 250, where the sample size allocated to each stratum was inversely proportinal to the cluster-specific random effect used in generating the baseline covariates. Thus, disproportionately more subjects were allocated to those strata within which subjects had systematically lower values of the baseline covariates, while disproportionately fewer subjects were allocated to those strata within which subjects had systematically higher values of baseline covariates. This was done so that structure of the observed sample would be systematically different from the population from which it was drawn.

 要するにアウトカムと抽出確率を相関させたということなんだろうけど(無相関ならウェイティングする意味が薄れるから)、そのやり方がわからない。cluster-specific random effectは全層を通して平均ゼロの正規分布に従うんでしょうに。ひょっとして、200個のランダム効果$u^c_{l,k}$を生成したあとで層別に平均し、値が小さい層から順に標本サイズを750, 700, ... と割り当てていったということだろうか。だとしたら、6個の共変量をどうやってまとめたんだろうか。ひょっとして、アウトカムを生成する式でつかった係数で線形和をとったという話だろうか。よくわからん。まあいいけどさ。
 各層あたり5クラスタを単純無作為抽出し、標本サイズを各クラスタに均等に割り当てて無作為抽出する。

 傾向スコアを求めましょう。
 3つのモデルを試す。どのモデルも、6個の共変量を使ったロジスティック回帰で推定する。
 モデル1, 標本ウェイトを使わない。
 モデル2, 標本ウェイトを使った重みつきロジスティック回帰。
 モデル3, 6個の共変量に加えて標本ウェイトを投入したロジスティック回帰。

 マッチングしましょう。(そうそう、そうなのだ、書き忘れていたがこの論文は傾向スコアでマッチングするときにどうするかという論文なのだ。あれ、なんでいまこんなの読んでいるんだっけ? 当面マッチングする用事はないんだけどなあ...)
 層やクラスタは忘れて傾向スコアのロジットだけを使い、greedy NNMを使って(えーと、最近傍マッチングのことね)、2群の対象者をマッチングする。キャリパーは0.2SDとする。greedy NNMはただのNNMや最適マッチングよりも優れていることが知られている(Austin, 2014 Stat Med.というのが挙げられている。どう違うのか知りませんけど、信じますよ先生)
 
 PATTを推定しましょう。2つの方法を試す。
 方法1, natural weight。マッチした標本について、群ごとに標本ウェイトで重みづけた平均を求め、その差を求める。
 方法2, inherited weight。マッチした標本のうち統制群側の対象者のウェイトを、その相方である処理群の対象者のウェイトにすり替えたうえで、推定1の方法を用いる。
 どちらについてもブートストラップ法でSEを推定する (詳細はパス)。

 ... 問題設定はよくわかったので(そして疲れてきたので)、シミュレーションの詳細はパス(2つの$\tau$を動かしていくつかシナリオをつくったらしい)。手法評価の詳細もパス(PATT推定の分散とバイアスを評価するんだと思う)。感度分析もパス。結果についてのみメモする。
 
 共変量のバランスはどのくらい実現されたか。natural weightだときれいにバランシングされ、inherited weightでは少しインバランスが残る(その差は層による分散が大きいときに大きくなる)。傾向スコアモデルを問わずそうなる。
 PATT推定のバイアスはどうなったか。natural weightでバイアスはほぼゼロ、inherited weightで大きいほうに偏る(その差は層による分散が大きいときに大きくなる)。傾向スコアモデルを問わずそうなる。
 PATT推定のMSEはどうなったか... 信頼区間はどうなったか... (面倒になってきたのでパス)

 後半はケーススタディ。疲れたのでまるごとパス。

 考察。
 3つの傾向スコアモデルのうちどれがいいとはいえない。
 マッチング後の集計の際、標本ウェイトはnatural weightにしたほうがよい。

 ... 肝心の「傾向スコアモデルに標本ウェイトを使うか」問題は、どれがいいのかわからんという結論になってしまった模様。おいおい、せっかく読んだのにそりゃないよ、と思ったんだけど、まあ実際そうなんでしょうね。だいたいさ、まともな標本抽出デザインならウェイティングしようがしまいが回帰モデルなんてそうそう変わらないし、変わるようなデザインだったらウェイティングするの怖いですよね。結局ウェイティングなんて気分の問題なんですよね。僕らの仕事なんて所詮そんなものなんですよね。いいんだどうせ僕なんか。いっそ死ぬまで寝ていたい。(すいません疲れているんです)
 マッチング後は各群を素直にウェイティングしたほうが良いという話、そりゃそうだろう、むしろinherited weightなんていう発想がわからないよ、と思ったんだけど、きっとそれにはそれで筋道があるんでしょうね。でもこの話、マッチング後の集計の話であって、もはや傾向スコアと関係なくないっすかね。

論文:データ解析 - 読了:Austin, Jembere, Chiu (2016) 層別クラスタ抽出標本の2群を傾向スコアでマッチングするとき傾向スコアの算出に標本ウェイトを使うべきかどうか調べてみたけどよくわかんなかった

2017年8月22日 (火)

McCaffrey, D.F., Griffin, B.A., Almirall, D., Slaughter, M.E., Ramchand, R., Burgette, L.F. (2013) A tutorial on propensity score estimation for multiple treatments using generalized boosted models. Statistics in Medicine, 32, 3388-3414.
 題名の通り、処理が3水準以上あるときに、generalized boosted modelを用いて傾向スコア調整するやり方についての長ーいチュートリアル。著者らはRのtwangパッケージの中の人。急遽実戦投入を迫られ、事前の儀式としてめくった。

 処理の水準数を$M$ とする。ある人が処理 $t$ を受けた時のpotential outcomeを$Y[t]$ とする。ペアワイズの効果を$D[t', t''] = Y[t'] - Y[t'']$と書く。
 因果的効果についての統計量として次の2つを考える。

  • ATE(平均処理効果)。母集団全体が処理$t'$を受けた時の平均と、母集団全体が処理$t''$を受けた時の平均の差。すなわち$E(D[t', t'']) = E(Y[t']) - E(Y[t''])$。
  • ATT(処理群の平均処理効果)。$t''$と比べた$t'$のATTとは、この研究において$t'$を受けた対象者さんたちの平均と、もしその人たちが$t''$を受けていたらどうなっていたかの平均との差、すなわち$E(Y[t'] | T = t') - E(Y[t''] | T = t')$。

$M=3$の場合、ATEは3つ、ATTは6つあることになる。
 ATEとATTのちがいは、対象者間の効果の異質性から生まれる。[←あっ、そうか。効果がhomogeneousだったらどちらでも同じことだわな。なるほど...]
 どういうときにどっちのestimandが適切か? すべての処理が潜在的には母集団全員に適用可能なのであれば、ATEが自然。いっぽう、処理$t'$が現在のターゲットに対して適切なものかどうかに関心があるのならATTが自然。

 いよいよ本題。どうやって推定するか。
 個人$i$について、観察された処理を$T_i$、観察されたアウトカムを$Y_i$、共変量のベクトルを$\mathbf{X}_i$とする。
 ここではIPTW (inverse probability of treatment weighting) 推定量について考えよう。この推定量は2つの想定を置く。どちらもデータからは検証できない想定である。

  • 十分なオーバーラップ(positivityともいう)。すべての$\mathbf{X}$と$t$について$0 < pr(T_i = t | \mathbf{X}) < 1$。つまり、誰であれ、どの処理であれ、それを受ける確率は0じゃない、という想定である。
  • 未知・未測定の交絡因子はないという想定(交換可能性ともいう)。$T_i[t] = I(T_i = t)$として、$T[t]$と$Y[t]$は$\mathbf{X}$の下で条件付き独立。

 さて、$p_t (\mathbf{X}) = pr(T[t] = 1 | \mathbf{X})$を傾向スコアと呼ぶ。
 上の2つの想定の下で、
 $\displaystyle \hat{\mu}_t = \frac{\sum_i T_i[t] t_i w_i[t]}{\sum_i T_i[t] w_i[t]}$
は$E(Y[t])$の一致推定量になる。ただし$w_i[t]$とは傾向スコアの逆数、すなわち$w_i[t] = 1 / p_t(\mathbf{X}_i)$ね。ここからペアワイズATEが推定できる。
 いっぽうペアワイズATTは... [めんどくさいので略]

 ここからは、傾向スコアの推定方法。
 もっとも一般的なのは多項ロジスティック回帰を使う方法である。しかし、共変量の交互作用項とかをどこまで入れるかの判断が難しくて... [いろいろ書いてあるけどパス]
 そこでGBMを使おう。いろいろ比べたらGBMが一番良かったという話もあるぞ[McCaffrey, Ridgeway, & Morral (2004 Psych.Methods), Harder, Stuart, & Anthony (2010 Psych.Methods)というのが挙げられている。なお、この論文中には、GBMとはなんぞやという説明はほとんど出てこない。割り切っておるなあ]。

 まずは処理が2水準の場合について。
 GBMの反復をどこでストップするか。いくつかの基準がある。

  • 標準化バイアス(絶対標準化平均差)。ある共変量について、処理群の加重平均と統制群の加重平均の差の絶対値を、重み付けしないSDで割った値。$k$番目の共変量について、ATEなら
     $SB_k = | \bar{X}_{k1} - \bar{X}_{k0} | / \hat{\sigma}_k$
    ここで$\hat{\sigma}_k$は2群をプールして求める(ATTの場合は処理群だけを使って求める)。目安として、$SB_k$が0.2とか0.25とかを下回っていることが求められる。
  • Kolmogorov-Smirnov統計量。$k$番目の共変量の条件$t$における重み付き経験分布関数を以下のように定義する:
     $\displaystyle EDF_{tk}(x) = \frac{\sum_i w_i[t] T_i[t] I(X_{ik} \leq x)}{\sum_i w_i[t] T_i[t]}$
    で、2本の経験分布関数の差をとって
     $KS_k = sup_x | EDF_{1k}(x) - EDF_{0k}(x) |$
    ATTの場合、処理群の重みをすべて1とする。この指標はサンプルサイズに依存するので基準を設けにくいのだが、サンプルサイズが中から大のときはだいたい0.1を下回っていてほしい。

 次に、処理が多水準でestimandがATEの場合。
 傾向スコア推定にあたってのお勧めの方法は、多項のモデルを組むのではなく、ある水準$t$に注目し、「対象者が$t$に属する確率」$\hat{p_t}(\mathbf{X}_i)$を求めるGBMを組む、というのを全水準について繰り返すこと。当然ながら、 $\hat{p_1}(\mathbf{X}_i) + \hat{p_2}(\mathbf{X}_i) + \cdots$は1にならない。でもそんなのどうでもいい。話のポイントは、各水準と全体との間で共変量をバランスさせることなのだ。[←へええええ!]
 反復の停止にあたっても「$t$ vs. 全体」での共変量バランスを監視する。標準化バイアスは
 $PSB_{tk} = | \bar{X}_{kt} - \bar{X}_{kp} | / \hat{\sigma}_{kp}$
$ \bar{X}_{kp}, \hat{\sigma}_{kp}$ は全群をプールして重み付けなしで算出する。KS統計量は
 $KS_{tk} = sup_x | EDF_{tk}(x) - EDF_{pk}(x) |$
$ EDF_{pk}(x)$は全群をプールして重み付けなしで算出する。
 なお、バランスの要約統計量を示す際には、PSB, KSの全群を通した最大値を使うとよい。

 処理が多水準で、estimandがATTの場合は... [いまあまり関心ないのでパス]

 ところで、doubly robust推定というのもあってだね... ウェイティングしても共変量のインバランスは少しは残るわけで、ウェイティングするだけでなく、さらに共変量を投入した重み付き回帰モデルを組むことがある。これを推奨する人もいるし、確かに処理効果の推定はより正確になるらしいんだけど、変数選択しなきゃいけないというのが決定。著者らのお勧めは、基本はウェイティングのみとし、どうしてもdoubly robust 推定したい場合は「まだインバランスが残っている共変量」を実質科学的な観点から選択すること。RCTでも設計段階で共変量を実質科学的に特定するし、事後的に調整するときにあらためて変数選択なんてしないでしょ、という理屈。

 最後に、有効サンプルサイズについて。ウェイティングで分散は拡大する。そのインパクトを捉える保守的な指標として、
 $\displaystyle ESS_t = \left( \sum_i T_i[t] w_i \right)^2 / \sum_i T_i[t] w_i^2$
を用いる。ここで$w_i$は、ATEなら$1/\hat{p}_t (\mathbf{X}_i)$ね。有効サンプルサイズが小さくなると云うことは、少数のケースにすごいウェイトがついているということ、つまり オーバーラップが十分でないというシグナルである。

 やれやれ、疲れた。以上が前半のメモ。
 後半は事例紹介。すごく役に立ちそうだが、必要になったときに慌てて読むってことにしよう。[←自分に甘い]

 処理の水準数が3以上のときの傾向スコア調整で、共変量から各水準への所属確率を推定するんだけど、その推定はなにも多項ロジスティック回帰のようなひとつのモデルでやらなくても、水準ごとに別々のモデルでよいし、ある対象者について確率の和が1にならなくても別にいいじゃん... というところが意外であった。そういうもんなんすか-。

論文:データ解析 - 読了:McCaffrey, et al. (2013) 処理の水準数が多いときの傾向スコア推定 by 一般化ブースト回帰

Bookcover 往生要集―日本浄土教の夜明け (1) (東洋文庫 (8)) [a]
源信 / 平凡社 / 1963-12

Bookcover 浄土真宗とは何か - 親鸞の教えとその系譜 (中公新書) [a]
小山 聡子 / 中央公論新社 / 2017-01-17

Bookcover 日本精神史: 自然宗教の逆襲 (単行本) [a]
阿満 利麿 / 筑摩書房 / 2017-02-23

哲学・思想(2011-) - 読了:「往生要集 日本浄土教の夜明け」「浄土真宗とは何か 親鸞の教えとその系譜」「日本精神史 自然宗教の逆襲」

Bookcover 集合知入門 (I・O BOOKS) [a]
赤間 世紀 / 工学社 / 2014-05
2014年の本。どんなことが書いてあるのかなと思ってパラパラめくっただけなので、読了というのも失礼だが、整理の都合上記録しておく。
 様相論理の話が妙に充実していた。どういう読者のために書かれた本なんだろう?

データ解析 - 読了:「集合知入門」

Bookcover 夜の谷を行く [a]
桐野 夏生 / 文藝春秋 / 2017-03-31

Bookcover ハイ・ライズ (創元SF文庫) [a]
J・G・バラード / 東京創元社 / 2016-07-10

Bookcover 罪悪 (創元推理文庫) [a]
フェルディナント・フォン・シーラッハ / 東京創元社 / 2016-02-12

Bookcover その雪と血を(ハヤカワ・ミステリ) (ハヤカワ・ミステリ 1912) [a]
ジョー・ネスボ / 早川書房 / 2016-10-06

フィクション - 読了:「夜の谷を行く」「ハイ・ライズ」「罪悪」「その雪と血を」

Bookcover 闇金ウシジマくん 39 (ビッグコミックス) [a]
真鍋 昌平 / 小学館 / 2017-04-28

Bookcover アイアムアヒーロー 22 (ビッグコミックス) [a]
花沢 健吾 / 小学館 / 2017-03-30

コミックス(2015-) - 読了:「闇金ウシジマくん」「アイアムアヒーロー」

Bookcover オリオリスープ(3) (モーニング KC) [a]
綿貫 芳子 / 講談社 / 2016-12-22

Bookcover ふつつかなヨメですが! 4 (ビッグコミックス) [a]
ねむ ようこ / 小学館 / 2017-01-12

Bookcover どこか遠くの話をしよう 上 (ビームコミックス) [a]
須藤 真澄 / KADOKAWA / 2017-03-25

Bookcover 娘の家出 6 (ヤングジャンプコミックス) [a]
志村 貴子 / 集英社 / 2017-04-19

Bookcover 僕らはみんな河合荘 9巻 (ヤングキングコミックス) [a]
宮原 るり / 少年画報社 / 2017-04-28

コミックス(2015-) - 読了:「オリオリスープ」「ふつつかなヨメですが!」「どこか遠くの話をしよう」「娘の家出」「僕らはみんな河合荘」

Bookcover 猫のお寺の知恩さん 3 (ビッグコミックス) [a]
オジロ マコト / 小学館 / 2017-02-28

Bookcover 木根さんの1人でキネマ 3 (ヤングアニマルコミックス) [a]
アサイ / 白泉社 / 2017-01-27

Bookcover BLUE GIANT 10 (ビッグコミックススペシャル) [a]
石塚 真一 / 小学館 / 2017-03-10

Bookcover BLUE GIANT SUPREME 1 (ビッグコミックススペシャル) [a]
石塚 真一 / 小学館 / 2017-03-10

Bookcover 恋は雨上がりのように 7 (ビッグコミックス) [a]
眉月 じゅん / 小学館 / 2017-03-10

コミックス(2015-) - 読了:「猫のお寺の知恩さん」「木根さんの1人でキネマ」「BLUE GIANT」「BLUE GIANT SUPREME」「恋は雨上がりのように」

Bookcover 甘々と稲妻(8) (アフタヌーンKC) [a]
雨隠 ギド / 講談社 / 2017-01-06

Bookcover 孤食ロボット 4 (ヤングジャンプコミックス) [a]
岩岡 ヒサエ / 集英社 / 2017-01-25

Bookcover 辺獄のシュヴェスタ 5 (ビッグコミックス) [a]
竹良 実 / 小学館 / 2017-02-10

Bookcover めしばな刑事タチバナ 24 (トクマコミックス) [a]
坂戸佐兵衛,旅井とり / 徳間書店 / 2017-01-31

Bookcover めしばな刑事タチバナ 25 (トクマコミックス) [a]
坂戸佐兵衛,旅井とり / 徳間書店 / 2017-03-31

Bookcover アルテ 6 (ゼノンコミックス) [a]
大久保圭 / 徳間書店 / 2017-01-20

コミックス(2015-) - 読了:「孤食ロボット」「辺境のシュヴェスタ」「めしばな刑事タチバナ」「甘々と稲妻」「アルテ」

Bookcover あれよ星屑 6 (ビームコミックス) [a]
山田 参助 / KADOKAWA / 2017-03-25

Bookcover 打ち切り漫画家(28歳)、パパになる。 (ヤングアニマルコミックス) [a]
富士屋カツヒト / 白泉社 / 2017-03-29

Bookcover ゲレクシス(2)<完> (イブニングKC) [a]
古谷 実 / 講談社 / 2017-03-23

Bookcover 重版出来! 9 (ビッグコミックス) [a]
松田 奈緒子 / 小学館 / 2017-04-12

Bookcover ダンジョン飯 4巻 (ハルタコミックス) [a]
九井 諒子 / KADOKAWA / 2017-02-15

コミックス(2015-) - 読了:「あれよ星屑」「打ち切り漫画家(28歳)、パパになる。」「ゲレクシス」「重版出来」「ダンジョン飯」

Bookcover 大人スキップ 1 (ビームコミックス) [a]
松田 洋子 / KADOKAWA / 2017-02-25

Bookcover 帰る場所 (ビームコミックス) [a]
近藤 ようこ / KADOKAWA / 2017-02-25

Bookcover ランド(4) (モーニング KC) [a]
山下 和美 / 講談社 / 2017-01-23

Bookcover ヴィンランド・サガ(19) (アフタヌーンKC) [a]
幸村 誠 / 講談社 / 2017-04-21

Bookcover おもたせしました。 1 (BUNCH COMICS) [a]
うめ / 新潮社 / 2017-04-08

コミックス(2015-) - 読了:「大人スキップ」「帰る場所」「ランド」「ヴィンランド・サガ」「おもたせしました。」

Bookcover いぬやしき(8) (イブニングKC) [a]
奥 浩哉 / 講談社 / 2017-01-23

Bookcover ゴールデンゴールド(1) (モーニング KC) [a]
堀尾 省太 / 講談社 / 2016-06-23

Bookcover ゴールデンゴールド(2) (モーニング KC) [a]
堀尾 省太 / 講談社 / 2017-01-23

Bookcover 春と盆暗 (アフタヌーンKC) [a]
熊倉 献 / 講談社 / 2017-01-23

Bookcover 伊豆漫玉日記 (ビームコミックス) [a]
桜 玉吉 / KADOKAWA / 2017-01-25

Bookcover めしにしましょう(1) (イブニングKC) [a]
小林 銅蟲 / 講談社 / 2016-11-22

コミックス(2015-) - 読了:「いぬやしき」「ゴールデンゴールド」「春と盆暗」「伊豆漫玉日記」「めしにしましょう」

Bookcover コトノバドライブ(4)<完> (アフタヌーンKC) [a]
芦奈野 ひとし / 講談社 / 2017-03-23

Bookcover 忘却のサチコ 6 (ビッグコミックス) [a]
阿部 潤 / 小学館 / 2016-05-30

Bookcover 幸せのマチ (Nemuki+コミックス) [a]
岩岡ヒサエ / 朝日新聞出版 / 2017-01-25

Bookcover 淋しいのはアンタだけじゃない 2 (ビッグコミックス) [a]
吉本 浩二 / 小学館 / 2017-02-28

Bookcover ワカコ酒 8 (ゼノンコミックス) [a]
新久千映 / 徳間書店 / 2017-01-20

コミックス(2015-) - 読了:「コトノバドライブ」「忘却のサチコ」「幸せのマチ」「寂しいのはアンタだけじゃない」「ワカコ酒」

Bookcover 大奥 14 (ヤングアニマルコミックス) [a]
よしながふみ / 白泉社 / 2017-02-28

Bookcover ディザインズ(2) (アフタヌーンKC) [a]
五十嵐 大介 / 講談社 / 2017-03-23

Bookcover 海街diary 8 恋と巡礼 (フラワーコミックス) [a]
吉田 秋生 / 小学館 / 2017-04-10

Bookcover 怒りのロードショー [a]
マクレーン / KADOKAWA / 2017-01-30

Bookcover レイリ 第3巻 (少年チャンピオン・コミックスエクストラ) [a]
室井大資 岩明均 / 秋田書店 / 2017-04-07

コミックス(2015-) - 読了:「大奥」「ディザインズ」「海街diary」「怒りのロードショー」「レイリ」

Bookcover 新戸ちゃんとお兄ちゃん(1) (ポラリスCOMICS) [a]
岡田ピコ / ほるぷ出版 / 2015-07-15

Bookcover たそがれたかこ(9) (KCデラックス BE LOVE) [a]
入江 喜和 / 講談社 / 2017-02-13

Bookcover 銃座のウルナ 3 (ビームコミックス) [a]
伊図透 / KADOKAWA / 2017-02-25

Bookcover 雑草たちよ 大志を抱け (フィールコミックスFCswing) [a]
池辺 葵 / 祥伝社 / 2017-02-08

Bookcover あさひなぐ 22 (ビッグコミックス) [a]
こざき 亜衣 / 小学館 / 2017-02-28

コミックス(2015-) - 読了:「新戸ちゃんとお兄ちゃん」「たそがれたかこ」「銃座のウルナ」「雑草たちよ大志を抱け」「あさひなぐ」

Bookcover 木曜日のフルット 6 (少年チャンピオン・コミックス) [a]
石黒正数 / 秋田書店 / 2017-03-08

Bookcover プリニウス5 (バンチコミックス45プレミアム) [a]
ヤマザキマリ,とり・みき / 新潮社 / 2017-02-09

Bookcover ペリリュー ─楽園のゲルニカ─ 1 (ヤングアニマルコミックス) [a]
武田一義,平塚柾緒(太平洋戦争研究会) / 白泉社 / 2016-07-29

Bookcover ペリリュー ─楽園のゲルニカ─ 2 (ヤングアニマルコミックス) [a]
武田一義,平塚柾緒(太平洋戦争研究会) / 白泉社 / 2017-01-27

Bookcover それでも町は廻っている 16巻 (ヤングキングコミックス) [a]
石黒 正数 / 少年画報社 / 2017-02-14

Bookcover 結んで放して (アクションコミックス) [a]
山名沢湖 / 双葉社 / 2016-11-28

コミックス(2015-) - 読了:「水曜日のフルット」「プリニウス」「ペリリュー」「それでも町は廻っている」「結んで放して」

Bookcover 三代目薬屋久兵衛 5 (Feelコミックス) [a]
ねむようこ / 祥伝社 / 2017-03-08

Bookcover おかあさんの扉6 ピッカピカです六歳児 (オレンジページムック) [a]
伊藤 理佐 / オレンジページ / 2017-02-02

Bookcover 続 数寄です! 2 (愛蔵版コミックス) [a]
山下 和美 / 集英社 / 2017-02-24

Bookcover アレンとドラン(1) (KC KISS) [a]
麻生 みこと / 講談社 / 2017-03-13

Bookcover 東京タラレバ娘(7) (KC KISS) [a]
東村 アキコ / 講談社 / 2017-01-13

Bookcover 東京タラレバ娘(8) (KC KISS) [a]
東村 アキコ / 講談社 / 2017-04-13

Bookcover 東京タラレバ娘(9)<完> (KC KISS) [a]
東村 アキコ / 講談社 / 2017-07-13

コミックス(2015-) - 読了:「三代目薬屋久兵衛」「おかあさんの扉」「続 数寄です!」「アレンとドラン」「東京タラレバ娘」

読んだ本が随分溜まってしまったので、遡って記録しておく。まずはコミックスから...

Bookcover 逃げるは恥だが役に立つ(9)<完> (KC KISS) [a]
海野 つなみ / 講談社 / 2017-03-13

Bookcover うつヌケ うつトンネルを抜けた人たち [a]
田中 圭一 / KADOKAWA / 2017-01-19

Bookcover 田中圭一の「ペンと箸」: -漫画家の好物- (ビッグコミックススペシャル) [a]
田中 圭一,GMOクリエーターズネットワーク / 小学館 / 2017-01-12

Bookcover ダーリンは71歳 (コミックス単行本) [a]
西原 理恵子 / 小学館 / 2017-01-19

Bookcover 大阪ハムレット(5) (アクションコミックス) [a]
森下 裕美 / 双葉社 / 2017-02-28

コミックス(2015-) - 読了:「逃げるは恥だが役に立つ」「うつヌケ うつトンネルを抜けた人たち」「田中圭一の「ペンと箸」漫画家の好物」「ダーリンは71歳」「大阪ハムレット」

<< 読了:Ridgeway, Kovalshik, Griffin, Kabeto (2015) それが標本ウェイトつきのデータなら、傾向スコアを求める際にも標本ウェイトを使え
 
validate this page / CSS