« 読了:08/02まで (C) | メイン | 読了:08/02まで (NF) »
2007年8月 2日 (木)
Xiong, R. & Meullenet, J. (2006) A PLS dummy variable approach to assess the impact of jar attributes on liking. Food Quality and Preference, 17(3-4), 188-198.
JAR尺度の変数を独立変数にして回帰モデルをつくる方法を提案した論文。著者様に送ってもらった。感謝感謝。
ここでいうJAR尺度(just-about-right scale)というのは,このジュースの甘さは「弱すぎる - ちょうどよい - 強すぎる」のどれですか,というような評定尺度のこと。回答者に理想像を直接尋ねているわけで,いつも使えるわけではないと思うが,こういう訊き方が自然な場合もあるだろう。食品の評価とか。
製品への全体的好意度評価と属性評価を得て,改善すべき属性を調べましょう,というような場面で,属性評価がJAR尺度だと厄介である(好意度との関係はどうみても逆V字型だから)。簡単なやりかたは,まず属性評価で回答者を3群にわけ(「弱すぎる」群,「ちょうどよい」群,「強すぎる」群),各群で好意度の平均を求め,たとえば「弱すぎる」群の好意度平均が「ちょうどよい」群よりも大きく下がっていたら,その属性はもっと強くしなくっちゃね,というような見方である。しかしこれでは単一の属性だけを相手にしていて,属性間の相関をみていない。そうではなくて重回帰モデルをつくろう,というのがこの論文の目的。
内容は以下のとおり(なぜかデスマス調で):
JAR尺度を2つのダミー変数(「弱すぎる」と「強すぎる」)で表現しましょう。JAR5件尺度の評定項目があったら,そこから「弱すぎる」変数(値は順に{-2,-1,0,0,0})と「強すぎる」変数({0,0,0,1,2})をつくるのです。こうしてk属性から2k個の変数をつくり,これを回帰モデルの独立変数にしましょう(回帰の手法はなんでもいいけど,まあPLS回帰だということにしておきましょう)。
たとえばその製品の甘さが十分に強いときは,「弱すぎる」と答える人は少ないし,「弱すぎる」ダミー変数の係数は小さくなります。そんなわけで,どうみても2k個全部はいらないでしょうから,ジャックナイフ法で変数を落とします(「弱すぎる」と答えた人が少なかったら落とす,というルールでもいいけど,ジャックナイフ法のほうがよいでしょう)。その結果をFモデルと呼ぶことにします。
さて,「弱すぎる」変数と「強すぎる」変数の両方が生き残る属性があったら,その2つのかわりに,「弱すぎるか強すぎる」変数({-2,-1,0,-1,-2})をいれる手もあります。これをRモデルと呼ぶことにします。FモデルとRモデルの両方で残差を求め,paired t-test をやって,残差の平均が小さいほうのモデルを採用するのがよいでしょう。
うまくモデルができたら,その切片は「全属性をうまく改善できた暁にどれだけの好意度上昇が期待できるか」を示します。ここから予測値の平均値を引けば,改善による好意度上昇の最大幅がわかります。
ご厚意で送ってもらっといてなんだが,いろいろ納得いかない点がある。
まずテクニカルな点では,FモデルとRモデルをつくるくだりがよく理解できない。「弱すぎる」変数と「強すぎる」変数の両方が生き残った属性が複数ある場合,Fモデルはそれらすべてについて,好意度に対する逆V字型が左右非対称だと考え,いっぽうRモデルはそれらすべてについて左右対称だと考えていることになる。しかし,それぞれの属性について左右対称かどうかを別々に検討するほうが,もっと自然なのではなかろうか。
概念的な疑問もある。JAR尺度でわざわざ重回帰モデルをつくろうとする,その動機がよくわからない。考えられる動機は,(1)全属性が「ちょうどよい」になったときの好意度を予測する,(2)好意度を向上させるための改善点を探す,(3)消費者の選好の構造をモデル化する,の3つだと思うのだが,どれもいまひとつ共感できないのである。
- (1)についていえば,全属性が「ちょうどよい」になりうるかどうかが怪しい。製品の属性は往々にしてトレードオフの関係にあるものだからだ。あまりに非現実的な条件下での従属変数の値を予測しても仕方がないと思う。
- もし主な動機が(2)ならば,「弱すぎる」ダミー変数と「強すぎる」ダミー変数の両方が生き残った属性,つまり好意度との関係が明確な逆V字型である属性は,モデルから抜いてしまってかまわないと思う。それがどんなに重要な属性であれ,改善しようがないからだ。いま「強すぎる」と答えた人が4割,「弱すぎる」と答えた人が4割いて,好意度の平均は同程度にかなり低いとしよう。それはとても大事な属性だろうけれども,強くすればいいのか弱くすればいいのか見当がつかない。そんな属性をPLS回帰モデルに投入することには,どういうメリットがあるのだろうか。
- いっぽう(3)の観点からは,なるほど,改善不可能な属性であってもモデルに投入すべきだ。しかしその場合は,好意度への回帰モデルの係数を推定する前に,属性間の因果関係を含めたモデルを探索するのが本筋だと思う。その際にもこの論文でいうダミー変数が役に立つのかどうか,よくわからない。JAR属性同士の関係は逆V字型にならないからだ。
だんだん勤め先の仕事の話そのものになってきてしまい差し障りがあるので,このへんでストップ。ともあれ,あれこれ考えさせられる論文であった。日本にこういう研究をしている人はいないのかしらん。
論文:データ解析(-2014) - 読了:08/02まで (A)