« 読了:Zubizarreta(2012) ケース・コントロール研究でのマッチングを混合整数計画でやりましょう | メイン | 読了:「東京BONごはん」「茶箱広重」「アルテ」「闇金ウシジマくん」「黒白」「はじめてのひと」 »
2016年8月 3日 (水)
Scott, N.W., McPherson, G.C., Ramsay, C.R., Campbell, M.K. (2002) The method of minimization for allocation to clinical trials: a review. Controlled Clinical Trials, 23, 662-674.
都合により読んだ論文。Contolled Clinical Trialsなんていうジャーナルがあるのね、びっくり(現在はContemporary Clinical Trialsという誌名らしい)。そういえば院生のころ、学術雑誌の数は指数関数的に増えていて、このぶんだと20xx年には全人類の人口を上回るはずだと教わったことがあった。
無作為化比較試験におけるminimizationについてのレビュー。ここでいうminimizationとは、分析じゃなくて計画の段階で、無作為化の原理に従いつつも群間で共変量の分布を揃えておくための、ある種の割付手続きを指している。へー、こういうのをminimizationっていうの?とびっくりした。「最小化」でいいのかしらん? それともなにか定訳があるのだろうか。
いわく。
無作為化比較試験(RCT)は介入を評価するためのゴールド・スタンダードだ。そこでは予後因子(prognostic factor)が群間で類似することが期待されるが、運悪くバランスが崩れることもある。それを防ぐために層別無作為化(stratified randomization)がよく使われているが、予後因子の数が多いときには層が多くなってしまい、現実的でない。
そこで使われるのが最小化(minimization)である。これはもともとTaves(1974 Clin.Pharmacol.Ther.)とPocock & Simon (1975 Biometrics)が独立に唱えたもので、後者はsequential treatment assignmentと呼んでいた。
処置群と統制群にわける場合について考えよう。 まず予後因子のセットを決める。たとえば{性別(2水準), 年代(3水準), リスク因子(2水準)}だとしよう。
対象者をひとりづつ、どちらかの群に割り付けていく[書いていないけど、1人目はランダムに割り付けるんだと思う]。いま16人の割付が終わったとしよう。17人目は男性、30代、リスク因子高でした。16人について暫定的な集計表を作り、処置群と統制群それぞれについて、男性の人数、30代の人数、リスク因子高の人数を足しあげる(当然ながらダブりがある)。その値が小さい群のほうに17人目を割り付ける。これがTavesのいうminimizationである。ほかにも...
- Pocock&Simon(1975): Tavesの方法をもうちょっと一般化した方法。
- Begg & Iglewicz (1980 Biometriics): さらに一般化。交互作用項がいれられる。
- Atkinson (1982 Biometrics): 最適計画の理論を使う。
- Smith (1984 J.R.Statist.Soc.B): そのまた改善。
- Klotz (1978 Biometrics): Pocock & Simonを改善、不確実性のインバランスのトレードオフを調べる。
- Titterington (1983 Biometrics): よく似た方法で、バランス制約のもとで二次関数を最小化する。
- レビューとして、Begg & Karlish (1984 Biometrics), Kalish & Harrington (1988 Biometrics), Signorini et al.(1993 Stat.Med.)を参照のこと。
なお、こういうふうにリクルート時点でわかっている対象者特性を割付に使うことを"dynamic allocation"とか"covariate adaptive"法という。"response adaptive"法(対象者の反応を使う方法)とは区別すること。
他の手法との比較。
- 単純な無作為抽出と比べると、予後因子のインバランスが減る。[そらそうでしょうね。シミュレーション研究がたくさん挙げられているが、メモは省略]
- restricted randomizationと比べても、予後因子のインバランスは減る。これはTaveやPocock&Simonが示している。[ここでいうrestrictedの意味がよくわかんないんだけど、層別なしでパーミュテーション・ブロックを使うことを云っているのだろうか]
- 層別割付との比較。予後因子の数が増えると最小化のほうがよくなる。Therneau(1993, Control.Colin.Trials.)。
- そのほかの手法との比較。上出のBegg & Iglewicz、Zielhuis et al.(1999 Stat.Med.), Atkinson(1999 Stat.Med.; 2002 JRSS-A)がある。
批判。
まず、Peto et al.(1976, Br.J.Cancer)はこう批判している。最小化しても完全な無作為化と比べてたいして効率が良くなってないし、リクルートメントに害を及ぼすし、あとで共変量を調整するのが難しくなるよ。これには反論が多い由(Simon, 1979 Biometrics; Brown, 1980 CancerTreatmentRep.; Halpern & Brown, 1986 Stat.Med.)。
検討すべき論点が3つある。
- その1、最小化とは本質的に決定論的な手法であり、いっぽう分析は無作為割り当てを前提にしている。これはおかしい、という批判。最小化だけではなく、単純ランダム化以外のすべての割付手法に及ぶ指摘である点に注意。
- その2、次にくる対象者の割付先が予測できるわけだから、そこから選択バイアスが起きるのではないか、という批判。もっとも、これはよく考えてみると最小化に限ったことじゃなくて、パーミュテーション・ブロックをつかったときでも最後の対象者の行先は確定する。アルゴリズムによって割付の確率がどのくらい確定的になるか調べた実証研究もある。[←最初は批判の意味がぴんとこなかったんだけど、なるほどね、これ医学統計の話だから、患者なり医者なりが他の対象者の割付をみて自分の割付を知るということを気にしているわけだ]
- その3、話が複雑で、リクルートに害が及んだり、コスト増大の可能性があるという批判。[自分とはあまり関係ないのでメモは省略するけど、いろいろ書いてある。なるほどね、臨床試験ではすごく深刻な話だ、特に多施設でやっているときなんか...]
最小化はどのくらい使われているか。
2001年以降にLancetとNEJMに載ったRCTの報告150本中、割付に最小化を使っているのは6本、層内でパーミュテーションブロックをつかっているのが43本、やりかたは不明だが層別無作為化をしているのが19本、Efronのbiased coin法が1本、Signorini et al.の動的バランシングが1本、urn無作為化が1本[←この辺、あとで調べよう...]。残る79本は割付方法を明示してなかった。
考察。みんなもっと最小化をつかうといいよ。云々。
。。。いやー、大変勉強になりました。「無作為化実験で共変量が多すぎて層別割付できないときどうするか」という問題にはずっと前から直面していたのだけれど、こういう研究群があったのね! これまで探し方が悪かったんだなあ。
疑問点が2つ。
- どうやらこのレビュー論文では個々の対象者を逐次的に割り付けている状況が前提になっているんだけど、それは医学分野だからで、実験研究全体からみれば、確定した対象者集合を一気に割り付ける場合のほうが多いと思う。そういう分野での共変量のバランシング手法について知りたいものだ。
- これは実験研究の話だけど、観察研究のほうでは、共変量の効果を割付の工夫で調整するというのはすごく一般的で(matched case-controlとか)、共変量の数が多いときにどうするかといった問題について膨大な研究があるように思う。そういう研究との関係はどうなっているのかしらん。あんまり文献が重なってないのが不思議だ。具体的には、共変量が山ほどあるとき、線形計画法で割付を厳密に最適化するという話題が、観察研究ではあるらしいんだけど、実験研究でもあるのかどうか、知りたいんだけどなあ...
2016/08/12追記: 最小化(というか非ランダム化割付)に対する3つの批判のうちひとつめについて、引用されている文献のリストを作っておく:
- Tave(1974, Clin.Pharmacol.Ther.): この論点に言及。
- Pocock & Simon (1975 Biometrics): 患者が非ランダムな順序で試験に入ってきたときの偶然バイアスについて議論。共変量で層別しておいてその共変量を分析時に無視したとして、その影響は深刻ではないけれど、正しくない仮説的モデルを使うことにによって偶然バイアスが生じる可能性はある。
- Forsythe & Stitt (1977 Tech.Paper): 最小化を使った時にそれを無視した分析をするとp値が歪む。共分散分析すればよい。
- Simon (1979 Biometrics): 普通の検定じゃなくてパーミュテーション検定を使うべきだ。; ランダム要素をシステマティックなデザインに統合することで偶然バイアスが減ることはありうる。[←どういう主張かよくわからん]
- Begg & Iglewicz (1980 Biometrics): シミュレーション。共変量で層別したとき、パーミュテッド・ブロック・ランダム化におけるp値と、著者らの提案手法は、そんなには歪まない。正確法によって生じる保守性は、非ランダム的デザインによって生じる保守性よりも大きい。
- Kalish & Begg (1985 Stat.Med.): 普通の検定じゃなくてパーミュテーション検定を使うべきだ。; 割付において予後因子を使ったということを分析において考慮しなければいけないというのは皆が合意できる点だろう。いっぽう、聴衆の側は、共変量をいれた分析の結果より、重要な予後因子がうまくバランスされているデータで群間を単純比較した結果のほうが説得力があると感じるだろう。[←そうそう!これはほんとにその通りなんすよ!]
- Birkett (1985 Control.Clin.Trials): 単純ランダム化、層別ランダム化、最小化を比較。最小化はt検定を保守的にする。検定力はちょっぴり高くなるが大した差ではない。共分散分析するのがおすすめ。
- Kalish & Begg (1987 Control.Clin.Trial): 同上
- Halpern & Brown (1986 Stat.Med.): この論点に言及。; バイアスド・コイン・ランダム化の場合、古典的分析でたいてい満足できる結果が得られる。ただし例外もある。
- Lachin, Matts, & Wei(1988 Control.Clin.Trials): この論点に言及。
- Reed & Wickahm(1988 Pharmaceutical Medicine): 共変量を分析にいれることに反対。群間のインバランスによるエラーより、共変量の投入によるエラーのほうが大きいだろうから。
- Watson & Pearce (1990 Pharmaceutical Medicine): 非ランダムな割り当てをした場合でも、ランダム割り当てと同じ分析手法でいいじゃないか。
- Treasure & MacRae(1998 BMJ): ランダム化におけるインバランスを修正しようとすると結論の妥当性が不確実になるかも。
- Buyse (2000 App.Clin.Trials): 普通の検定のかわりにパーミュテーション検定を使ったって結果は大して変わらんよ。
- Tu, Shalay, & Pater (2000 Drug.Inf.J): シミュレーション。検定の観点からは、層別割り当てが優れ、最小化と単純ランダム化はほぼ同程度。予後因子の効果が交互作用していない場合には、最小化によって周辺分布を揃えればよいが、交互作用している場合には個々の層のなかでバランスしていることが必要。つまり最小化が信頼性を増すかどうかは共変量の交互作用によって決まる。
- Senn(2000 Stat.Med.): 最小化したらその共変量を分析に含めなきゃだめだ。
- Senn(2000 The Statistician): 同上。
- Green, McEntegart, Byrom, Shani, & Shepherd (2001 J.Clin.Pharm.Ther.): 普通の検定じゃなくてパーミュテーション検定を使うべきだ。
論文:データ解析(2015-) - 読了:Scott, McPherson, Ramsay, Campbell (2002) ランダム化比較試験でたくさんの共変量を条件間でバランスさせる割付方法