elsur.jpn.org >

« 2019年1月 | メイン | 2019年5月 »

2019年4月28日 (日)

Franses, P.H. (1991) Primary Demand for Beer in The Netherlands: An Application of ARMAX Model Specification. Journal of Marketing Research, 240-245.

 セミナーの都合で読んだ奴。マーケティング・ミックス・モデリングにおけるARMAXモデルの意義について知りたかったので。

 いわく。
 時系列データで市場反応モデルをつくっていて、説明変数が複数あり、ラグもわかんないとき、どうするか。
 Hanssens, Parsons & Schultz(1990)にいわせれば、ラグを突き止めるにはダブル・プレホワイトニングを行う[$x_t$にARMAモデルをあてはめて残差をとり、それと同じARMAモデルを$y_t$にもあてはめて残差を取り、残差同士のCCFを調べるという話だと思う]。
 ところがこのやり方だと、説明変数が複数あるときには困る。Liu & Hanssens(1982)の提案もあるけど、最初の回帰式の残差項が自己相関を持つ可能性がある[読んでないからわかんないけど、たぶん、プレホワイトニングなしでいきなりでっかい分散ラグモデルをOLS推定し、徐々に削っていけという話なのではないかと思う]。また、欠損変数があるとき、ダブル・プレホワイトニングは見せかけの従属性や独立性を引き起こす。
 みなさん、そういうときはARMAXモデルを使いましょう。

 ARMAXモデルとは、一般的に書くと
 $\displaystyle (1 - \sum_{i=1}^p \alpha_i L^i) y_t = \mu + \sum_{i=1}^r \beta_i^{'} L^i x_{t+1} + \left(1+\sum_{i=1}^q \gamma_i L^i \right) \epsilon_t$
 [なるほど、ここでのARMAXモデルという呼称はHyndmanさんの説明にも一致している。$x_{t+1}$というところに面食らったが、よく見ると$L^i x_{t+1}$は$i=1$のときに$Lx_{t+1} = x_t$になるのでこれでよい]
 もし$1+\sum_i^q \gamma_i L^i$が反転可能なら、これはARX($\infty$)に書き換えられる。
 手順は次の通り。(1)$y_t$を適切に変換して定常にし、ARMAモデルを組む。(2)$x$をみな適切に変換し定常にする。(3)ARMAモデルに投入してラグを決める。
 ARMAXモデルの推定は、ARXに変換して非線形最小二乗法でやる。[んんん? 非線形って? ARXに反転できればOLSは一致性を持つんじゃない? BLUEじゃないからFGLSでやるべしってんならわかるけど]
 まずとにかく推定し、パラメータに制約を掛けたりして経済学的な仮説を検定すべし。で、モデルをシンプルにして再推定すべし。
 モデルの診断は、(1)残差のSEと修正したR^2を調べ、(2)残差の正規性を調べ、(3)自己相関がないか調べ、(4)ARCH(k)がないか調べ、(5)ホールドアウトで予測性能を調べる。[←いろいろ書いてあるけど中略した。こ、こまかいね...]

 実例。
 オランダにおけるビールの一次需要(成人人口当たりリットル)、1978-84年の隔月時系列について分析する。対数系列$logQ_t$を目的変数にする。説明変数は、平均気温$TEMP_t$、価格インデクス$PB_t$、総広告支出(成人人口当たり)$AT_t$、そして消費者支出指数$CE_t$。
 82年に酒類の増税があって、需要はその直前に増大し、直後はすごく下がった。そこで、価格インデクスを完全に先読みした$PBEXP_t = PB_{t+1}$という変数もいれた。
 季節効果は、季節ダミーを6個入れるという手と$\Delta_6 logQ_t$を使うという手を考えた。前者の残差$RlogQ_t$と後者$\Delta_6 logQ_t$についてACFを調べたら、$RlogQ_t$が自己相関を持たなかったので、こっちを採用した。$\mu$のかわりに6個の季節ダミーをいれて、(季節ダミーを抜くだけで自己相関が消えたわけだから)$p=6$とするけど$\alpha_i$は1から5まで0とし、$q$は1にした。[ってことは、誤差項はSARIMA(0, 0, 1)(1, 0, 0)ってことだろうか。へぇー、次数はこういう風に決めるのかー。この思い切りの良さ、勉強になる]
 時系列を観察すると84年に落ちているようなので、84年だけ1になるダミー変数$DMEAN$もいれた。
 $TEMP_t$は季節ダミーを入れれば自己相関が消え定常となったので、そのまま入れた。
 $PB_t$は非定常にみえるので、単位根を調べたら...単位根があった[ここ、前後の文脈からいえば単位根検定をやっているはずなのだが、なんだかよくわからん手順が説明されている。なにこれ??? えーと、Hylleberg & Mizon (1989)による方法なのだそうだ]。$PB_t$と$PBEXP_t$は差分をとっていれた。
 $AT_t$は季節効果がありそうなので季節ダミーをいれて残差をとり$RAT_t$とした。単位根はなかった。ラグがあると思うので$AT_{t-1}$もいれた。$CE_t$は単位根がありそうなので差分をとっていれた。
 というわけで、モデルは以下の通り:
 $logQ_t $
 $= \alpha logQ_{t-6}$
 $+ \delta_0 DMEAN_t$
 $+ \sum_i^6 \delta_i D_{it}$
 $+ \beta_1 TEMP_t$
 $+ \beta_2 \Delta_1 PB_t + \beta_3 \Delta_1 PBEXP_t$
 $+ \beta_4 AT_t + \beta_5 AT_{t-1}$
 $+ \beta_6 \Delta_1 CE_t$
 $+ \epsilon_t + \gamma \epsilon_{t-1}$
有意でない項があったりしたので削ったりした[...すごく細かく書いてある。面倒なので中略するけど、参考になります...]。他の期間のデータを使って検証したところ...[略]

 考察。
 ARMAXモデルの限界:変数が多すぎるときに推定に困る。モデルの単純化の段階でしくじることもある。
 モデルの限界:[こんな変数も欲しかったなあ的な話。省略]

 なるほど... いやー、これは大変勉強になりました...
 対数変換とか差分とかのことを全部忘れてしまえば、このモデルは結局
 $Y_t = c + b_1 X_t + b_2 X_{t-1} + \alpha Y_{t-6} + \epsilon_t + \gamma \epsilon_{t-1}$
であろう。書き換えると
 $(1-\alpha L^6) Y_t = \mu + (1- \phi L) b X_t + (1-\gamma L) \epsilon$
伝達関数モデルっぽく書くと
 $\displaystyle Y_t = \mu^{'} + \frac{b(1-\phi L)}{1-\alpha L^6} X_t + \frac{1-\gamma L}{1-\alpha L^6} \epsilon$
なるほどね、説明変数系列にARMA(6,1)フィルタを掛け、撹乱項系列に別のARMA(6,1)フィルタを掛けているが、2つのフィルタのAR部分は同じ、というわけだ。ラグの効果は広告と未知要因の間で異なるからMA部分は説明変数と撹乱項の間で異なる、しかしそれとは別に、あらゆる効果が同じように繰り越されていくのでAR部分は共通...と考えると、実に自然なモデルである。

 疑問点がみっつ。
 その1、パラメータの解釈はどうなんだ。説明変数の効果は、やっぱし分散ラグだけで表現されているほうが解釈しやすいんじゃないか? ...ううむ。
 その2、このモデルだって結局、いきなり分散ラグモデルを組んでいるわけですよね。Hanssenたちの提案のちがいはたぶん、Hanssenたちは最初は撹乱項の自己相関を無視してOLS推定するけど、ここではちゃんと撹乱項の自己相関を考慮する、ということだと思う。では、最初っからARMA誤差つき分散ラグモデルを考える、つまり最初から
 $\displaystyle Y_t = \mu^{'} + \frac{b(1-\phi L)}{1} X_t + \frac{1-\gamma L}{1-\alpha L} \epsilon$
というようなのを最尤推定する、っていう手はどうなんだろう?
 その3、こういうわかりやすい論文を書いておきながら、先日読んだ奴では、著者の先生はこういうモデルじゃなくて
 $(1-\gamma L) Y_t = \mu + (1-\phi L)\beta X_t + (1-\gamma L) \epsilon$
といういまいちよくわからんモデルをお勧めしておられるわけである。先生、それってどういうことすか。

論文:データ解析(2018-) - 読了:Franses (1991) ARMAXモデルで市場反応をモデリングしよう

Franses, P. H., van Oest, R. (2004) On the econometrics of the Koyck model. Econometric Institute Report 2004-07, Econometric Institute, Erasmus University Rotterdam.
 セミナー準備で読んだやつ。いわゆるマーケティング・ミックス・モデリングの分野で有名なKoyckモデルについての、6頁のメモみたいなもの。全然わかんないけど、第一著者はこの分野の研究者だと思うので(JMRにファーストの論文があった)、いい加減な内容ではないだろうと思って。

 いわく。いわゆるKoyckモデルにはいろいろややこしい問題が多い。解説しよう。

 売上を$S_t$, 広告を$A_t$として、次のリンクを想定する。
 $S_t = \mu + \beta (A_t + \lambda A_{t-1} + \lambda^2 A_{t-2} + \ldots) + \epsilon_t$
$\epsilon_t$は自己相関を持たないとする。
 $\lambda$はふつうリテンション率と呼ばれる。当期効果は$\beta$, キャリーオーバー効果は$\beta/(1-\lambda)$である。
 説明変数の数が多いときはKoyck変換をかけることが多い。
 $S_t = \mu + \beta A_t + \lambda S_{t-1} + \epsilon_t - \lambda \epsilon_{t-1}$
時系列分析でいうところのARMAXモデルである。

 Koyckモデルの推定について。
 当然ながら最尤法が用いられる。対数尤度関数は
 $LL(\mu, \beta, \lambda, \sigma^2) = - \frac{T-1}{2}(ln(2\pi) + ln(\sigma^2)) - \sum_{t=2}^T \frac{\epsilon_t^2}{2 \sigma^2} $
 なお、より一般化したARMAXモデル
 $S_t = \mu + \beta A_t + \lambda_1 S_{t-1} + \epsilon_t - \lambda_2 \epsilon_{t-1}$
を推定することもできる。しかし実務的には、2つの推定値のうちどちらを採用するかという問題が生じるし、
 $S_t = \mu + \beta (A_t + \lambda A_{t-1} + \lambda^2 A_{t-2} + \ldots) + \epsilon_t$
という形式に戻せなくなるので、理論的な観点から見るとあまり関心が持てない。二つの$\lambda$は等値にしておいたほうがよろしい。

 Koyckモデルのパラメータの検定について。
 ここで難しいのは、もし$\beta = 0$だったら$\lambda$も消えて
 $S_t = \mu + \epsilon_t$
となるという点だ。普通のt統計量は$\lambda$に依存する。それがわからないので最尤推定値を使うとすると、統計量がデータに依存し、漸近分布が正規でなくなる。こういうのをDavies問題という。
 Davies問題に対する最近の解法は、未知パラメータ$\lambda$の範囲を考え(今回は[0,1) である)、その範囲を通じた統計量の最大値、ないし平均値を使うというものである。前者をsup検定統計量, 後者をave検定統計量という。シミュレーションしてみると[...中略...]、aveの検定力のほうが高い。
 
 実例。Lydia Pinkhamデータというのを使う。[あ、これ、前にも見たことあるな]
 モデルによっても検定方法によっても結果がかなり変わるという話。

 ... あんまし真剣に読んでないのであれなんだけど、あれこれ考えさせられました。
 検定の話にはあまり関心がないので置いておいて、モデルの話を整理しておこう。本文中で言及されているのは次の3つのモデルだ。
A. $S_t = \mu + \beta A_t + \lambda S_{t-1} + \epsilon_t - \lambda \epsilon_{t-1}$
B. $S_t = \mu + \beta A_t + \lambda_1 S_{t-1} + \epsilon_t - \lambda_2 \epsilon_{t-1}$
C. $S_t = \mu + \beta A_t + \lambda_1 S_{t-1} + \epsilon_t$
 著者は、AをKoyckモデルないしARMAXモデル、Bを非制約ARMAXモデル、Cを「MA部分を無視したKoyckモデル」と呼んでいる。
 ラグ演算子を使って書きなおすと
A. $S_t = \frac{1}{1-\lambda} \mu + \frac{1}{1-\lambda L} \beta A_t + \epsilon_{t}$
B. $S_t = \frac{1}{1-\lambda_1} \mu + \frac{1}{1-\lambda_1 L} \beta A_t + \frac{1-\lambda_2 L}{1-\lambda_1 L} \epsilon_{t}$
C. $S_t = \frac{1}{1-\lambda} \mu + \frac{1}{1-\lambda L} (\beta A_t + \epsilon_{t})$

 A.は、切片項、広告のAR系列、ホワイトノイズの和になっている。著者は$-\lambda \epsilon_{t-1}$のことをMA部分と呼んでいるが、それは見た目の話であって、A.では撹乱項はMAになっていないと思うんだけど、あっているだろうか。

 ARMAXモデルという言葉について... forecastパッケージの中の人Hyndman先生は、(Aではなくて)BやC.のように撹乱項と説明変数に同じARがかかるのをARMAXモデルと呼んでいたと思う。モデルの呼び方が人によって違うので混乱する。気を付けないといけない。

 著者はB.について「関心が持てない」といっているけれど、うーん、その点は良く理解できなかった。そもそもA.のように、売上の撹乱項がホワイトノイズだと仮定するのは無理があるのではないか。その点、B.はARMA(1,1)撹乱項を考えているので自己相関が許される。C.もAR(1)撹乱項を考えていることになるけど、説明変数と撹乱項のリテンション率が同じだという点で不自然だ。
 むしろB.が一番自然なモデルなんじゃないかしらん? それとも、撹乱項が自己相関を持たないという実質的信念があるということだろうか...?

論文:データ解析(2018-) - 読了:Franses & van Oest (2004) Koyckモデルの注意点

2019年4月12日 (金)

Barhoumi, K., Darne, O., Ferrara, L. (2017) Dynamic Factor Models: A Review of the Literature. in "Handbook on Rapid Estimates", Eurostat.
 事情があって読んだ奴。分厚い本の1章だが、元はOECDが出している雑誌に載った論文らしい。
 ユーロスタット(EUの統計局)というところはこういう統計手法のハンドブックも出しているようで、眺めてみたところ他にもいろいろ面白そうなのがあった。空間統計ハンドブックとか、季節調整ハンドブックとか。いずれもすべて無料という太っ腹である。
 タイトルの通り、動的因子モデルについてのレビューだが、これまで読んできたのとは全然毛色がちがっていて、公式見解としては、不勉強を痛感した。非公式見解としては、いろいろ研究しやがってやってらんないぜ畜生と思った。

イントロダクション
 時系列データがすごくたくさんあるときの分析手法がいろいろ提案されている。たとえば:

 動的因子分析モデルもそのひとつだ。$x_{it}$を分解して
 $x_{it} = \chi_{it} + \xi_{it}$
$\chi_{it}$は少数の共通因子$F_{1t}, \ldots, F_{rt}$からなると考え
 $x_{it} = \lambda_{i1}F_{1t} + \cdots + \lambda_{ir} F_{rt} + \xi_{it}$
とするわけね。ベクトルで書くと
 $X_t = \Lambda F_t + \xi_{t}$
行列で書くと
 $X = F \Lambda^{'} + \xi$
以下、$X$はサイズ$T \times N$, $F$は$T \times r$とする。

$N$が小さいときの因子モデル
 ここでは6~7変数程度までの因子モデルについて考える。
 
 静的因子モデル(SFM)
 以下の仮定をおく。

 これが静的因子モデル(SFM)。推定には、変数がIIDだと仮定するか(SH4)、ないし変数においてなんらかの時間ダイナミクスがあると仮定する(SH4の破棄)。
 共分散行列$\Sigma_X = E(X_t X_t^{'})$は
 $\Sigma_X = \Lambda \Sigma_F \Lambda^{'} + \Sigma_\xi$
これは識別・推定できる。最小二乗解はデータに自己相関があってとしても一致推定量である。

 厳密な動的因子モデル(DFM)
 $x_{it} = \chi_{it} + \xi_{it}$
として、$\chi_{it}$は共通ショックの累積だと考える。
 共通ショックのベクトル(長さ$q$)を$u_t = (u_{1t}, \ldots, u_{qt})'$とする。ラグ$s$まで考えて
 $\chi_{it}$
 $= b_{i1}^0 u_{1t} + \ldots + b_{i1}^s u_{1,t-s}$
 $+ b_{i2}^0 u_{2t} + \ldots + b_{i2}^s u_{2,t-s}$
 $+ \ldots$
 $+ b_{iq}^0 u_{qt} + \ldots + b_{iq}^s u_{q,t-s}$
$s$が有限である場合を「制約つきDFM」、$s$が無限である場合を「一般化DFM」という。[←へー]

 ラグ演算子$L$を使うと、$b_{il}(z)$を$s$次多項式
 $b_{il}(z) = b^0_{il} + b^1_{il} z + \ldots + b^s_{il} z^s$
として、
 $\chi_{it} = \sum_l^q b_{il}(L) u_{lt}$
[混乱してきたのでメモしておくと、$l = 1, \ldots, q$は共通ショックの添え字]

多項式を横ベクトル$B_i(z)$で表現して行列で書くと
 $\chi_{it} = B_i(L) u_t$

 [何言ってんだかわかんなくなってくるのでメモすると、$B_i(L)$は、左から順に
 $b_{i1}^0 L^0 \ldots + b_{i1}^s L^s$
 $b_{i2}^0 L^0 \ldots + b_{i2}^s L^s$
 $\ldots$
 $b_{iq}^0 L^0 \ldots + b_{iq}^s L^s$
というのが詰まっている、長さ$q$のベクトルね]

さて、ここで
 $B_i(L) = \lambda^*_i(L) C(L)$
と仮定しよう。$\lambda^*_i(L)$は$s$次多項式のベクトルで長さ$r$ (a $r$ vector of polynomials with degree $s$)。$C(L)$は$r \times q$行列。すると
 $\chi_{it} = \lambda^*_i(L) F^*_t$
となり、$F^*_t = C(L) u_t$は静的因子、共通ショック$u_t$は動的因子と呼べる。つまり動的因子が$q$個あるモデルは、静的因子が$r=q(s+1)$個あるモデルだと考えられる。

 [うぎゃー。さっぱりわからん。
 $u_t$は共通ショックの縦ベクトルで長さ$q$。これを動的因子と呼んでいる。で、その左から$r \times q$行列$C(L)$を掛けると長さ$r$の縦ベクトルになるわね。これを静的因子$F^*_t $と呼んでいる。これに左から長さ$r$の横ベクトル$\lambda^*_i(L)$を掛ける、という話である。
 それはわかる、わかるんだけど... ええと、$\lambda^*_i(L)$ってのは$s$次ラグ多項式のベクトルなわけですよね? つまり、さきほどの$B_i(L)$が長さ$q$のラグ多項式ベクトルだったのを、もう少し長い、長さ$r$のラグ多項式ベクトルに変えましたってことですよね? そのかわり、元の共通ショックベクトル$u_t$(長さ$q$)に左から変換行列$C(L)$を掛けて長さ$r$のベクトルにしましたってことですよね? そしてその変換行列$C(L)$のなかに入ってるのもやっぱりラグ多項式ってことでOK? ... なんでそんなことすんの?
 $\lambda^*_i(L)$がラグ多項式のベクトルじゃなくてただのスタティックな因子負荷ベクトルだってんならわかるよ? その場合は、$F^*_t = C(L) u_t$ってのは$u_t$にいわばベクトル版のMA(s)フィルタを掛けて得た$r$変量時系列であり、あなたこれからは$u_t$じゃなくてこの$F^*_t$をお使いなさい、もうラグとか気にしなくていいのよ、ってことですよね?
 いやまて...??? ひょっとすると、$C(L)$ってのは「共通ショック$u_t$の$s$期過去分までを含む$q \times (s+1)$行列を縦一列のベクトルに並び替える」という行列なのだろうか。つまり、列1は$(1, L, L^2, \ldots, L^s)'$であるような行列なのか。その場合は$\lambda^*_i(L)$は「ラグ多項式のベクトル」ではなくて、「$q$本のラグ多項式のなかに出てくる係数をすべて縦一列にならべたベクトル」、ってことになる... ああ、それなら確かに静的因子の数は$r = q(s+1)$になるね... そんならそれで納得するけど、その場合でも、$\lambda^*_i(L)$という風にわざわざ$L$と書くのは変だ... ううううううう]

 このモデル、ふつう最尤法で推定できる。以下の仮定を置くことが多い。

[ああ... 前に読んだ論文でいえば、この論文の$\chi_{it} = B_i(L) u_t$ってのはwhite noise factor score (WNFS)モデルであり、$\chi_{it} = \lambda^*_i(L) F^*_t$ってのはdirect autoregressive factor score (DAFS)モデルではなかろうか。いや、その場合でも、やっぱり$\lambda^*_i(L)$とわざわざ$L$を追記している理由がわからない... それに静的因子数が$r = q(s+1)$だという理由もわからなくなってくる...]

 さて、DFMを状態空間形式で書きなおしてみよう。
 共通因子についてVAR(p)を仮定する。すなわちラグ多項式 $\phi(L) = I - \phi_1 L - \ldots - \phi_p Lp$として、
 $\Phi(L) = \epsilon_t$
は次式と同値であるとする:
 $F_t = \sum_\tau^p \Phi_\tau F_{t-\tau} + \epsilon_t$
同様に、個体過程についてはAR(p')を仮定する。$\psi_i(L) = I - \psi_{i1} L - \ldots - \psi_{ip'} L^{p'}$として
 $\psi_i (L) \xi_{it} = \eta_{ij}$

 $\xi_{it} = \sum_\tau^{p'} \psi_{i\tau} \xi_{i,t-\tau} + \eta_{it}$
と同値であるとする。 なお、次数$p, p'$はAICとかBICとか、Doz & Lenglart検定とかで決めるのだが[←なにそれ...]、実際には$p=2, p'=1$で十分なことが多い。[そうか、共通因子はVAR(2), 独自因子はAR(1)ってことか... ううむ、DAFSモデルともちょっと違うのか。DAFSモデルの場合、独自因子に自己相関は許さないと思うので]

 状態空間表現で書きなおす。観察方程式は
 $X_t = c_t \beta_t + m_t Z_t + w_t$
$X_t$は説明変数ベクトルだが、$X_t$のラグがはいっていてもよい。$\beta_t$は長さ$r$の状態ベクトルで、$(F_t, \ldots, F_{t-p+1}, \xi_t, \ldots, \xi_{t-q+1})'$である。[←ええええ? 記号の使い方がへん... $q$は観察時系列の本数でしょう? $q$じゃなくて$p'$じゃないの?]
 状態方程式は
 $\beta_t = \alpha_t \beta_{t-1} + v_t$
ふつう$a_t, c_t, m_t$は時間不変とし、$E(v_t w^{'}_t)=0$とする。

 この場合も、最尤法とカルマン・フィルタで推定できる。最尤法にはふつうEMアルゴリズムを使う。

 Markov regime-switchingモデル: マルコフ連鎖に2つのregimeがあると考え、$S_t \in \{1,2\}$で表す。たとえば、ビジネスサイクルの低いフェイズと高いフェイズとか。
 たとえば、因子数$r=1$として、
 $x_it = \lambda^{'}_i F_t + \xi_{it}$
 $\phi(L)F_t = \mu(S_t) + \varepsilon_t$
で、$\xi_{it}$は分散$\sigma^2_i$の正規AR(1)に従い、$\varepsilon_t$は分散1の正規WNに従う。$S_t$の遷移確率については...[めんどくさくなってきたので以下略]

 Mixed frequency モデル
 月次時系列と四半期時系列が混じっちゃっているようなときの分析手法。[←へー。面白そうなだけどいま関心ないのでパス。Mariano & Murasawa, 2003 J.App.Econom.)というのをみるといいらしい]

$N$が大きい時の近似的因子モデル

上述の伝統的方法には以下の限界がある。

というわけで、近似的因子構造というのが提案されている。

 近似的SFM
 近似的因子構造という概念を最初に提案したのはChamberlain & Rothschild (1983 Econometrica)。この考え方では、個人撹乱項$\xi_t$は弱く相関することが許容される。彼らは、$N$が無限大に近づいたとき、因子分析はPCAと等価だということを示した。[←えええええ???]
 この研究では$\Sigma_X$が既知だった。Connor & Korajczyk (1986 J.Financial Econ., 1988同誌, 1993 J.Finance)はこれを$\Sigma_X$が未知の場合に拡張し、$N$が$T$より大きい時、$T \times T$の共分散行列をPCAしても因子モデルを推定できるということを示した。
 Stock & Watson (1999 J.Monetary Econ.), Bai & Ng (2002, Econometrica), Bai(2003)はTとNの両方が大きい時の収束率を求めている。
 [なんだか聞いたこともないような話が書いてあって泣きそうだ... Bai(2003)って引用文献リストにない。おそらくBai(2004, J.Econom.)であろう。参ったな、しかし]

 近似的DFM
 Forni & Lippi (1997 書籍), Forni & Reichlin (1998 Rev.Econ.Studies), Forni et al(2000 Rev.Econ.Studies, 2004 J.Econom.)がある。これはBrillinger(1981)の動的PCAの拡張で...[以下、周波数領域による説明になる。全くついていけないのでパス]

 FMVARモデル
 factor-augmented VARモデル。これはもともと、VARモデルや構造VARモデルで欠損値を扱おうというので提案された。
 $X_t = \Lambda F_t + B X_{t-1} + \xi_t$
ただし$B$は対角行列で、対角にはラグ多項式$\delta_i(L)$がはいっている。
 推定方法は...[省略。なるほどね、VARモデルに因子時系列をいれるわけね]

 時変パラメータモデル
 FMVARモデルのパラメータを時変させようという提案がある。
 $X_t = \Lambda_t F_t + B_t X_{t-1} + \xi_t$
とするとか、イノベーションの分散を時変させるとか。推定は...[省略]

 Mixed frequency モデル
 GhyselsらのMIDASアプローチというのがあって...[いま関心ないので丸ごと省略するけど、Rでいうとmidasrパッケージね]

$N$が大きい時の因子モデルの推定

 SFMの推定: Stock&Watson(2002 J.Business&Econ.Stat.)のアプローチ このアプローチでは、因子$F_t$をデータの線形結合
 $\hat{F}_{jt} = \hat{W}^{'}_j X_t$
で近似しようとする。そこでPCAを使って、因子の分散$\hat{W}^{'}_j \hat{\Sigma}_x \hat{W}^{'}$を最大化する$\hat{W}^{'}$を求める。$\hat{\Sigma}_x$ってのは、(標準化された)データの標本共分散行列ね。[なるほど... PCAを使うという意味がわかった]
 このアプローチでは変数間のダイナミクスが無視されている。ダイナミクスをいれるという提案には、時間領域で表現するのと周波数領域で表現するのがある。

 時間領域アプローチ
 Doz, Giannone & Reichlin (2011 J.Econom.; 2012 Rev.Econ.Stat.) が提案している。推定方法は2つある。
 その1, 二段階推定。まずPCAで$\hat{F}_t$を推定する。で、
 $x_{it} = \lambda^*_i(L) F^*_t + \xi_{it}$
を推定して、$\lambda^*_i(L)$の推定と$\Sigma_\xi$の推定を得る。そして... [面倒になったので以下略とするが、まあ雰囲気はわかりますわね]。カルマンフィルタで推定する。
 その2, 擬似最尤法... [面倒なので省略。いずれにせよこれは原論文にあたるべきだな]

 周波数領域アプローチ
 Forni, Hallin, Lippi, & Reichlin によるアプローチで... [途中から周波数領域の話になるのでパス。たぶん一生理解できないと思う]

 この章のまとめ:この分野は研究の蓄積が浅い。予測についていえばStock & Watsonのアプローチでも十分かも。上記のほかにベイジアンのアプローチもある、Kose, Otrok & Whiteman(2003 Am.Econ.Rev.; 2008 J.Int.Econ.), Lopes & West(2004 Statistica Sinica)をみよ。云々。

因子数の選択

 SFMの因子数選択
 Bai & Ng(2002)はこう考えた。因子数を$j$とする。分散を
 $V(j, F)= (NT)^{-1} \sum_t^T (X_t - \hat{\Lambda}\hat{F}_t)^2$
とする。$j$が増えればこの分散は増える。そこで$ln(V(j,F))$に$j$でペナルティをつけたのを基準として因子数を決める。
 なお、ペナルティのつけ方としてBai & Ngは3種類提案し、さらにAlessi et al.(2010)が2種類提案した。云々。

 DFMの因子選択
 [Bai & Ng(2007), Stock & Watson(2005), Breitung & Pigorsch(2013), Hallin & Liska(2007), というのが紹介されている。死ぬ... 真面目に読んでたら死ぬ... 申し訳ないけど丸ごとバス]

近年の実証研究
[動的因子モデルを使った研究を、短期経済監視, マクロ経済予測、金融政策と国際経済, の3つにわけて概観している。経済の話なのでメモは省略するけど、いろんな研究があるもんだなぁと無責任に感心した]

結論 [略]

論文:データ解析(2018-) - 読了:Barhoumi, Darne, Ferrara (2017) 動的因子モデルレビュー

2019年4月 1日 (月)

ほんとはいまそれどころじゃないんだけど、最近読んだ資料を記録しておく。いずれも、仕事の都合で泣きながら読んだ時系列分析の資料。

藤井光昭ほか (1993) 統計的時系列分析の現状と展望. 日本統計学会誌, 22(3), 375-411.
 前半は時系列分析の理論のレビュー。後半は、経済学、工学、海洋研究での時系列分析のレビュー。どれも難しくて、ちゃんと読んだとは言い難いけれど...

黒住英司(2008) 経済時系列分析と単位根検定:これまでの発展と今後の展望. 日本統計学会誌, 38(1), 39-57.
 これも読んだというよりめくったというのが正しい。世の中にはいろんな話題があるもんだなあと無責任に感心した。
 手元の数冊の教科書をみると、単位根検定の手法として紹介されているのはDF検定, ADF検定, PP検定, KPSS検定だが、この論文によればADFよりも優れたADF-GLS検定というのがあるんだそうな。理屈は難しくてよくわからんが、へー、そうですか。Rのurcaパッケージで言うとur.ers()という奴らしい。へー。

山本拓 (1992) 時系列分析とその経済分析への応用. 大蔵省財政金融研究所フィナンシャル・レビュー, June, 1992.

Patterson, K. (2011) Why distinguish between trend stationary and difference stationary processes? "Unit Root Tests in Time Series", Chapter 2.
 難しくてほとんど理解できていないが、単位根過程にうっかり直線をあてはめたら残差はどうなるか、トレンドつき定常過程についてうっかり差分をとったら何が起きるか、という点がそれぞれきちんと説明されていて、へえそうなんだと思った。
 このPDFはたまたま手に入れたんだけど、著者の単著の第二章。なんと2巻本らしい。単位根検定だけについての2巻本?それも単著で? それって自費出版的ななにか? と疑ったが、CiNiiによれば国内大学図書館における所蔵館10館、変な本ではなさそう。おそるべし計量経済学... 単位根検定だけでそんなに書くことがあるんすか...

論文:データ解析(2018-) - 読了:藤井ほか(1993), 黒住(2008), 山本(1992), Patterson(2011): 経済時系列分析と単位根検定

« 2019年1月 | メイン | 2019年5月 »

rebuilt: 2020年11月16日 22:38
validate this page