読了: Payne, Bettman, & Johnson (1988) リスク下選択の方略は時間圧力のような文脈特性・課題特性によって適応的に変わる

Payne, J.W., Bettman, J.R., Johnson, E. (1988) Adaptive Strategy Selection in Decision Making. Journal of Experimental Psychology: Learning, Memory, and Cognition. 14(3), 534-552.

 仕事の都合で大慌てで読んだやつ。情報ボード法による情報探索実験の論文である。
 まさかのJEP:LMC。まさかこのトシになって、我ながらよくわかんない仕事で生計を立てつつ、なぜか80年代のJEP論文を読んでおるとは。若いころの自分が知ったらどう思うのだろうか。(どう思うのかもなにも… どっかから飛び降りてるよね)

 いわく、
 意思決定の方略はどうやって選択されるのか。ひとつの観点は、方略選択をコスト(努力)とベネフィットの関数としてみる見方である。本論文は選択方略の適応的な選択について検討する。

1. 選択における努力と正確性
 コスト-ベネフィットという視点を適用する際に2つの困難が生じる。努力の指標をどうするか、そして選択の正確性の指標をどうするかである。

1.1 努力の測定
 いにしえのNewell&Simon(1972)以来、決定方略はEIP(elementary information process)に分解できるということになっておる。[いまふっと疑問に思ったんだけど、高次の推論過程の性質を定量化するためにその過程を要素に分解するという発想はいつから始まったんだろうか。私はなんとなくSternbergだと思ってたんだけど、考えてみたら70年代のSimonのハノイの塔ってそれかも。いやまてよ、もっとさかのぼればG. Millerとか?]
 意思決定のEIPとして、read, compare(ある属性上で選択肢を比較する), add(属性の足し算)、difference(引き算), product(掛け算), eliminate(選択肢を削除する)、move(外部環境の別の要素に移動する)、choose(選択して終了)がある。EIPへの分解は、決定がやれ分析的/非分析的だとか分析的/直感的だといったレベルよりも下、情報処理のレベルに注目している。努力の定量化にあたってもこのレベルで考えよう。ま、EIPのリスト自体が理論的判断の産物なんですけどね。
 というわけで、努力の指標はEIPの数とする。

1.2 正確性の測定
 期待値を最大化しているかどうかを指標とする。個人効用がわかんなくても求まるから。

2, 選択における努力と正確性のモンテカルロ・シミュレーション
 この研究では、理想的に適応する決定者が、決定方略の選択において努力と正確性の両方を考慮するとして、どういう処理パターンを示すかをシミュレーションで予測して、仮説をつくって、心理実験をやる。

2.1 選択環境と処理特性
 課題は次のようなリスク下選択である。選択肢の帰結は異なるペイオフを持っているけれど、それをもらえる確率は選択肢間で共通である。確率を確率じゃなくて属性のウェイトとみればリスクなしの選択課題とみることもできる。[うーん、わかりにくい… おそらく、選択肢\(i\)の属性\(j\)の値を\(x_{ij}\)として、各属性に確率\(w_j\)が振ってあるということじゃないかと思う。このあとで出てくるWADD決定方略だと、属性数を\(J\)として\(\sum_{j=1}^J w_j x_{ij}\)を最大化する\(i\)を選ぶ、ということになり、\(w_j\)を重みとみればFishbeinモデルのようにも受け取れる]
 選択方略のあいだの区別にはいろいろある。

  • 補償的-非補償的処理。これは処理の量が選択肢や属性のあいだで一致しているかそうでないかと関係している(一致しているほうが補償的)。
  • 処理の総量。
  • 選択肢の評価が属性をまたいでおこなわれるか(選択肢ベース処理)、属性のなかで行われるか(属性ベース処理)。後者のほうが容易と思われる。

2.2 検討する決定方略

  • weighted additive (WADD)。補償的、もっともinformation intensive. ある種の期待値最大化である。
  • random (RAN)。選択肢をランダムに選ぶ。
  • equal weight(EQW)。
  • elimination by aspects (EBA)。
  • majority of confitming dimensions (MCD)。選択肢のペアをつくり、勝っている属性が多いほうが勝ち残り、次の選択肢と勝負する。
  • satisficing (SAT)。選択肢を順にみていく。属性のカットオフと比べていって、下回ったらその選択肢は没。全属性を通過した選択肢が選択される(残りの選択肢はみない)。
  • lexicographic (LEX)。一番重要な属性について全選択肢をみて一位を選ぶ。タイがあったら次の属性に進む。
  • lexicographi semi-order(LEXSEMI)。LEXにjust-noticeable difference(JND)を入れたやつ(タイ判定が甘くなる)。
  • EBA+WADD。選択肢が3つ以下になるまでEBAで、そのあとはWADD。
  • EBA+MCD。

2.3 課題変数と文脈変数
課題変数として以下を検討する:

  • 選択肢の数。{2,5,8}。
  • 属性の数。{2,5,8}。
  • 時間圧力。{なし, 50EIP, 100EIP, 150EIP}。時間切れになったらどうするかというと…[略]

文脈変数として以下を検討する:

  • 被支配的な選択肢があるかどうか。2水準。
  • 確率のばらつきの程度。2水準。

2.4 JNDとカットオフ値
EBAとSATにはカットオフ値が、LEXSEMIではJNDがある。事前に決めた。どうやったかというと…[略]

2.5 方法
全組み合わせについて各200個の決定問題をランダムに生成して10個の方略を適用した。

2.6 結果
 正確性はWADDを1, RANを0とした相対的な指標で表す。
 まず時間圧力がない場合。ヒューリスティクスは善戦している。どんな状況でも一番になるヒューリスティクスはない。確率の分散が小さくて支配があるならEQWが正確で、確率の分散が大きいならLEXが正確。[…というような結果と考察が延々続く。面白いけど、このくだりはいまちょっと関心ないのでパス]

2.6 シミュレーションの含意
 シミュレーションの結果から示唆されるのは、意思決定者は文脈と時間圧力に応じて多様なヒューリスティックを用い、正確性の高さと努力の最小化の両方を維持しているということである。
 また、属性ベース処理と選択性(特に属性の)を持つ方略は時間圧力下で効率的であるということもわかる。EBAとかLEXとか。

3. 実証的検討: 概観
 人間の決定者の実際の適応性と、シミュレーションで示唆された適応的方略との対応の程度を実験で調べる。特に調べたいのは:

  • 人間決定者の情報処理行動は、確率の分散のような文脈特性や、時間圧力のような課題特性によってどのくらい変動するか
  • それらの変化はシミュレーションで示された方向に生じるか

 本実験のポイントは、完全な被験者内デザインでやるということ。適応性についての強い検証となる。

 […上記仮説をより詳しく述べ、先行研究を挙げて…]
 というわけで、確率の分散が高く、時間圧力が高いとき、属性ベース処理がより多く用いられ、属性と選択肢に対する選択性が高くなり、確率ともっとも重要な属性についての処理に焦点が集まるだろう。さらに、分散のレベルによって正確性には差がないけれど、分散が高いほうが努力が低くなるだろう。時間圧力のもとでは正確性が下がり、情報はより速く処理されるだろう。

 これらの予測は少なくともふたつのやりかたで導出できるだろう。(1)被験者は正確性と努力について明示的なフィードバックを受けとり意識的なトレードオフを行う。(2)被験者は合理的な方略と課題環境の特性についての一般的な知識を持っており、意思決定のなかで、帰結についての明示的なフィードバックなしにプロセス・フィードバックを生成する[Anzai & Simon(1979)がreferされている。へーそうなんだ]。
 本論文では(2)を用いる。すなわち、明示的フィードバックを行わない。

4. 実験1

4.1 方法
[そもそもこの論文を読んでいるのはここに関心があるからなのだ。きちんとメモするぞ、と気合を入れて…]

  • 被験者: 学部生16名。
  • 刺激: 4つのリスクのある選択肢。それぞれの選択肢には4つのありうる結果(属性)がある。結果はペイオフ、0.01ドルから9.99ドルまで。4つの結果には.01から.96の確率が付与されていて、確率は選択肢間で共通。4つの確率を足すと1になる。選択肢集合を20個作った。うち10個は確率の分散が大きく10個は小さい。いずれにも被支配選択肢ありのセットが含まれている。この20セットを被験者に提示するんだけど、時間圧力条件を2水準用意する。時間圧力ありの場合、ディスプレイの左上に15秒間の残り秒数表示があって、それが過ぎるともう選べよと言われる。ひとり40試行となる。
  • Mouselab法: Mouselabを使いました。選択肢が行、結果が列である行列を提示し、マウスカーソルをのせたセルだけ値が表示される。
     [図を見ると、この実験は4選択肢x各4結果なんだけど、各結果の確率も提示したいので5行4列になっている。情報探索後の選択課題は、この行列の下にある選択肢ラベルをクリックして回答する。ほんとにどうでもいい話だけど、情報提示のときは選択肢を縦に並べ、選択のときは横に並べているの、これなんで?]
     Mouselab法は時間と情報獲得が容易だという点では眼球運動測定に近い[強気な発言デスネ…]。しかも低コスト。測定された時間は、動作に要する時間というよりどこを開くかを考える時間を測っているものと思われる。
  • 手続き: 全試行終わったら試行をひとつ選び、選択肢の結果を生成しその分のお金を渡す。

従属変数は以下の8指標。

  • ACQ: 個々の決定のために開けたセルの数。
  • TPERACQ: 獲得した情報項目当たりの平均時間[おそらく開いたセルあたりの平均時間のことだろう]。
  • PTMI: もっとも確率が大きい結果の箱に費やされた時間総量。
  • PTPROB: 確率情報に費やされた時間総量。
  • VAR-ALTER: 各選択肢に費やされた時間の割合。
  • VAR-ATTRIB: 各属性に費やされた時間の割合。
  • PATTERN: ある特定の情報の獲得したとき、その次に獲得する情報は、同じ選択肢の異なる属性か(Type1遷移, 選択肢ベース, 全体的)、異なる選択肢の同じ属性か(Type2遷移, 属性ベース遷移, 次元的)、回数を数えて(Type1-Type2)/(Type1 + Type2)を求める。選択肢ベースだと正、属性ベースだと負になる。
  • GAIN: 正確性。期待値最大化を1, ランダムを0とする。[??? これはきっと試行別じゃなくて対象者別に出すんでしょうね]

ACQ, TRERACQは処理の総量、PTMI, PTPROBは注意, VAR-ALTER, VAR-ATTRIBは選択性。[この実験では属性の値の文字数が同じだから、属性を通じて時間を合計しているけど、使っているけれど、多属性意思決定だとこうはいかないだろう。どうやってんですかね?]

 仮説との対応は以下の通り: 確率の分散が大きくて時間圧力があるときはPATTERNが低くなり、VAR-ALTERとVAR-ATTRIBが高くなり、PTPROBとPTMIが高くなる。確率の分散が大きいとACQ, TPERACQが低くなる。時間圧力でTPERACQが低くなる。時間圧力でGAINが低くなる。

4.2 結果
 8指標を3要因(確率の分散、時間圧力、前半/後半)のMANOVAにかける[あっ、そうきたか。思いつかなかった]。3つの主効果と分散x時間圧力, 時間圧力xブロック, 3要因交互作用が有意。
 [ここからは1変数づつの地道なANOVAになる。大幅後略]

4.3 考察
決定過程は文脈と課題に敏感であった。[…後略…]

5. 実験2
[時間圧力を弱くして再現。パス]

6. 代替仮説
 レビューアいわく、時間圧力の効果というのはなくて、こういう風に説明できないか。被験者は確率の分散に対してのみ適応的である。まず最初に確率を調べ、分散が小さかったら選択肢ベース、大きかったら属性ベースの処理をする。さらに、選択肢ベース処理は選択過程の後半で強くなる(これは先行研究がある)。で、時間圧力下では単に処理を打ち切る。こう仮定しても結果は説明できる。
 これを検討するため、各試行のうち最初の8回に注目する。なぜ8回か: (1)確率4つとある属性をみるか、確率4つとある選択肢をみるか、という極端な2パターンを区別できるから。(2)時間圧力条件では8回でだいたい半分にあたるから。
 冒頭8回への時間圧力条件の効果をみる。我々が正しければ実験1(15秒)と実験2(25秒)で差があり、レビューアの意見が正しければないはずである。[ああ、なるほどね… 面白いっすね。結果はパスするけど、もちろん自説の防衛に成功したという話である模様]

7. 一般的議論
 [結果のまとめが半頁くらいあって…]

7.1 決定環境への適応性
 文脈変数のひとつである確率の分散に注目すると、分散が大きいとき、被験者は情報獲得の時間を減らして重要な属性のみに時間をかけるようになり、より属性ベースの処理をするようになった。この適応性は、ヒューリスティクスの相対的正確性と相対的労力に影響を与える課題環境の変化に対して人々が敏感であるということを示している。

 さらに、時間圧力も効果をもった。シビアな時間圧力の下では、人は情報の下位集合に焦点を当て、かつ情報処理方略をより属性ベースに変えた。予想に反し、選択肢への時間の使い方の分散は増えなかった。ある属性の完全スキャンが容易だったからもしれない。[そうね、そもそも選択肢が4つしかないから絞り込む必要がない感じがするよね]
 […PATTERNが時間圧力でどう変わったかという話…]
 時間圧力についてのこれらの結果にはいくつかの重要な点がある。(1)時間圧力に対する処理方略の適応性を示している。(2)時間圧力に対する反応にはヒエラルキーがあるのかもしれない。つまり、人は時間圧力の下ではまず処理を速くしようとするが、無理そうなら情報を絞り込み、さらには方略をかえるのかも。もちろんこれは問題の形式の関数だろうけれど。

7.2 努力-正確性トレードオフの学習
 [ちゃんと読んでないけど、プロセス・フィードバックで方略を変えているんじゃないかというような話だと思う]
 最後に、本研究で示されたヒューリスティクスの適応的使用は、人間の意思決定者の、合理的行動という観点から見てfairly optimisticな姿を示している[被験者がoptimisticだというのではなくて、研究者から見て人間って意外によくできているという話だと思う]。人はある種の合理性に反した選択ヒューリスティクスを使っている。ヒューリスティック的過程の使用によって誤りが生じ、努力と正確性のトレードオフが起きるだろう。しかし、人は決定問題の構造のちょっとした変化に対応して処理方略を適応的に変化させることができるのである。
—————–
 面白かった。なんというか、古き良き認知心理学という感じですね。結局ANOVAで勝負するところとかさ。
 前半戦のシミュレーションのところ、前に似たような話を日本語で読んだなあ… と気がついた。竹村・原口・玉利(2015 認知科学)だと思う。
 実験のパート、てっきり被験者ごとに、この人の決定方略はEBAだね、この人は期待値最大化にちかいね…という風に同定していくのかと思っていた。そうじゃないのか。PATTERNという従属変数はそういう発想にちょっと近いけれど、個人レベルでの分析はやってないと思う。