elsur.jpn.org >

« 身体化認知の「概念化仮説」批判 by Shapiroさん | メイン | 身体化認知の「構成仮説」批判 by Shapiro先生 »

2015年1月13日 (火)

せっかくなので、最後までメモをとっておくことにする。Shapiro (2011) の第5章、身体化認知に関する置換仮説について。具体的には、ダイナミカルシステム理論と反表象主義ロボティクスについて。

[5.1] 置換仮説は認知についての計算論的説明を拒否し、表象の必要性も疑問視する。主にダイナミカル・システム理論(DST)と自律ロボット研究に由来している。

[5.2] DSTは、まずダイナミカルシステムの行動を記述し、部分が変化する可能な方法をすべてmap outする(これを状態空間という)。[... 以下、用語の説明が続く。略] たいていのシステムはダイナミカルシステムである。
[5.3] van Gelder(1998,BSS)のダイナミカル仮説 (DH) によれば、(1)認知エージェントの本質を特徴付けるのはダイナミカルシステムであり(2)認知はダイナミカルなものとして理解しなければならない。
[5.4] ワットの遠心式調速機(centrifugal governor) について [... 説明略]。これはDSTで上手く記述できる。van Gelderにいわせれば、計算論的には説明できない。なぜなら(1)ステップの系列ではないから。(2)表象がないから。ただし、あらゆるダイナミカル・システムの説明に表象の必要がないとは限らない。
[5.5] さて、DSTが認知に対して適切だ(DH)と主張される根拠は何か。(1)認知システムの要素が時間とともに連続的に変化するから。(2)脳、身体、環境がダイナミカルに相互作用するから。ここでembodimentとは脳ー身体相互作用、situatedとは身体-環境相互作用を指す。(3)行動が自己組織化しているから。(4)脳と身体と環境を同じ言語で統一的に説明できるから。
[5.6] Randy Beerのカテゴリ知覚研究について [... 説明略。上から落ちてくる図形を見分けて捕まえたりよけたりする自律エージェントを再帰NNでつくるという話。カラー図版までつけて真剣に説明してくださっているが、難しくっていまいちよくわからない。2003, Adaptive Behavior]
[5.7] そもそも説明とはなにか。[...略] 遠心式調速機について説明する際には、部分と部分間のつながりについて述べる手と、DSTみたいに差分方程式を並べる手がある。後者に対してはただの記述ではないかという声もあるだろうが [...云々云々とちょっと哲学的な話が続く。このくだり、話の筋を見失ってしまったので省略]

[5.8] 60年代末のsense-model-plan-act型ロボットShakeyは失敗した。そこでBrooksはサブサンプション・アーキテクチャを持つ行動ベースのロボットAllen, Herbertを開発した。[... 云々。要はサブサンプション・アーキテクチャについて説明する節である。] BrookはDST以上に反表象主義である。
[5.9] そもそも表象とはなにか。それははなにか別のものの"stand-in"であり、かつ、stand-inとして使われているものである。ドレツキは次のように考えた。脳状態Bが特性Fを表象するのは、BのトークンがFのトークンと相関しているときである。このときBはFのインディケータである。カエルがハエをみたときの脳状態はハエのインディケータである。それはハエを表す生物学的機能として進化的に獲得されたものだ。だからたとえばカエルがうっかりボールベアリングに飛びついたとしても、そのときの脳状態はやはりハエのインディケータだ。この議論を人間の視覚システムに拡張するのはいろいろ工夫が必要だけど。
 遠心式調速機に表象は存在するか? van Gelderによれば存在しない。別のものとの相関を持つ部分はあるけど、表象として使われているものはないから。いっぽう哲学者Bechtel、Prinz, 心理学者Barsalouらは表象が存在すると考えている。エンジンの速度が上がるとフライボールが上に上がる、つまりエンジンの速度と相関しているだけでなく速度の表象として用いられているじゃん、という説明。いやしかし[... と、すごく細かい話に突入していく。わかんなくなっちゃったのでスキップ。著者は遠心式調速機に表象がないという考え方を支持している模様]
 では、認知システムに表象は不要だといえるか。van GelderやBeerの議論はこうなっている。(1)表象は実際の事物のstand-inだ。(2)エージェントは相互作用すべき事物と連続的に接触している。(3)もし(2)であれば、エージェントはそれら事物とのstand-inを必要としない。ゆえに、エージェントは実際の事物のstand-inとなる表象状態を必要としない。... (3)が怪しい。連続的に接触していているだけではだめで、そこから得られる情報にアクセスする手段が必要である。いやしかし[... また話の筋を見失っちゃったので省略。というか、だんだんどうでもよくなってきたぞ]
 BeerとBrooksはさらに、表象のvehicle (意味的内容を担う物理状態のトークン) をシステム内に同定することができないと考えている。しかしそれはたいした問題じゃない。コネクショニズムをみよ。云々云々。

 7節と9節の曲がりくねった議論について行けずあきらめちゃったけど、このたびの仕事には不要な箇所なので、ま、気にしないことにしよう。この本と一緒に無人島にでも漂着したらゆっくり読みます。
 要するに著者は、ダイナミカルシステム理論や「表象なき知能」アプローチがこれまで表象計算主義で説明されてきた事柄の一部をもっとうまく説明できるという点には同意するが、全部説明できるとは思わない、という意見である模様。

雑記:心理 - 身体化認知の「置換仮説」批判 by Shapiro先生