Language, Cognition, and Human Nature 第3論文 「ヒトの言語における規則と接続」 その6

Language, Cognition, and Human Nature: Selected Articles

Language, Cognition, and Human Nature: Selected Articles

神経科学への含意


ピンカーはこのモデルの教訓をまとめる.ルメルハートとマククレランドモデルは当初は言語学習について「規則なしの連合ネットワークモデル」の有望性をを裏付けるように見えた.しかし,詳細に調べてわかった実証的な欠点は言語学習(そしておそらくヒトの認知全般について)の理解についての貴重なレッスンとなるのだ.ピンカーの挙げる教訓は6つある.

  1. 要素とその位置(Elements versus their positions):行動における逐次的順序の問題(ラシュレー問題)は言語にも当てはまる.そしてそれは特徴と隣接文脈を合成した特徴ノード群を作るだけでは解決しない.そのようなノード群は一部の単語をエンコードできないし,ある特徴が別の場所に現れるときの心理的に感じる類似性のパターンを説明できない.
  2. 変数(Variables):ここでいう変数(あるいは変項)とは個々の特徴にかかわらず個体のグループを表すシグナルのことだ.(数式で言うと x+1>x は x が偶数でも奇数でも成り立つという意味)言語も多くの操作において変数を用いる.英語の規則動詞の過去形への変化は『変数としての「動詞の語幹」にdを付加する』というものだが,これがよい例だ.出力特徴を,あるクラスの具体的な入力特徴に連合させることと,クラスそのもののシンボルあるいは変数にリンクさせることは同じではない.なぜなら連合は,ある特定のサンプルの入力特徴にセンシティブになるからだ.(変数にはそういうことは生じない)
  3. 個物(Individuals):2つの物体はそのすべての特性が同じであっても,現実世界では別物であり得る.だから脳内ではその表象は区別されたままになっていなければならない.「lie/ lay」と「lie/ lied」は,まさに全く同じ特徴パターンが別のエンティティであることを示している.単に多数のノードが様々な入力を処理できるだけではだめなのだ.エンティティをエンティティとして扱うことができる構造が必要なのだ.
  4. 結合(Binding):最近視覚研究者たちは物体をフィーチャーマップ上のパターンとして表象する際の本質的な問題に突き当たった.2つの異なる物体への注意を保ちつづけるのは不可能なのだ.そしてそれを強いられた被験者は,例えば緑の円と赤の正方形について緑の正方形と赤の円だったと報告しがちになる.これは逐次的な注意メカニズムがあることを示唆している.同様に言語についても入力に連合した特徴パターンを活性化するだけでは,2つの異なる競合するターゲットについて特徴の混合が避けられなくなる.単純なコネクショニズムのモデルはこれを避けられない.しかし子供は動詞の活用に際してこの問題に陥っていない.
  5. モジュラリティ:近年,視覚システムは単一のブラックボックスではなく多くの部分的な自動サブシステムからなっていることが明らかになってきている.これは神経科学のテクニックを用いるようになる以前から「心理物理学分析」手法(the methodology of ‘dissection by psychophysics’)によって示唆されていた結論だ.言語の神経科学的な詳細は明らかになっていないが,心理物理学的な探索は,言語スキルについても機能的なサブ構成要素に分解できることを強く示唆している.そして言語モデルは,入力と出力を単一リンクにするのではなく,このサブ構成要素構造を取り入れるべきだ.さらにこのリンクは特定にやり方で組織化されている.ここまであげた例でいうと音韻と形態は異なるサブシステムになっているはずだ.
  6. 入力との相関関係からの独立:コネクショニズムのネットワークは知覚的特徴の相関パターンから学習する.しかし言語学習はまず間違いなくそのようには生じない.多くの場合子供は環境条件との相関を無視する.また子供は内因的に一般化を行うが,その一般化は相関関係から生じているとは考えられないような微妙な言語原則に従っているのだ.これは過去形の獲得においても顕著に見られる.当初の過剰一般化は入力統計とは独立に生じるし,大人時点での一般化程度(要するに不規則過去形に阻害されない限り規則化するという状況)は単純な入力との相関から得られたものとは異なる.より一般的には,言語がいくつかの異なったサブシステムからなりたっている以上,環境的に導かれる変化は厳しく制限されているはずだ.あるサブシステムの入出力が環境と連結せずにほかのサブシステムと連結しているならそれは環境からは見えないし,コネクショニムズの『教育入力』のようなものにより『白紙』から累積的な変化を経て正しい状態が得られるような方法があるはずはないのだ.


最後にピンカーはこう結論づけている.

  • 全体を俯瞰するとさらに一般的な教訓がある.神経科学と認知を橋渡ししようとする理論はその両方のデータと整合的でなければならないといううことだ.そしてヒトの言語に関するデータは非常に豊富で,それから生まれた言語理論は,十分に洗練され,説明力を持っているのだ.確かに言語理論に修正連合理論を持ち込むのは便利かもしれないが,そのような動きは科学的には擁護できないものだ.橋渡しは,最初の印象より,はるかに難しく,より興味深いのだ.

この論文では,コネクショニズムの単純な連合モデルで,実際に生じている子供の言語獲得過程が扱えるはずがないということが論理的に主張されている.コネクショニズムの主張は,言語学を学んできたものにとってあまりにも既存の取り組みを無視しているもので許しがたいということだったのかもしれない.


なおピンカーは『心の仕組み』の中では,ヒトの心(思考)のモデルとコネクショニズムの関係について,この論文で扱われたことについてより一般的な議論にしている.そこではコネクショニズムでは説明できないこととして以下のような点が強調されている.原点はこの論文にあるのだろう.

  • 心は個物をやすやすと扱える
  • 心的表象には合成力がある:単位の集合だけでなく単位の並べ方に意味を見いだせる.
  • この個物認識と合成力から得られる新しい能力がある:あるものが個物かどうか,それが思考のどこに結びついているかによって様々な意味を扱える(変数拘束)
  • 概念を再帰的に扱える
  • コネクショニズムのような)ファジーな処理と厳密な離散的な処理(規則系)の両方のモードを持つ


このような単純な1層レイヤーだけのコネクショニズムでは無理でも,より複雑な構造を作ることができるような(流行の)深層学習で,(必ずしもヒトの子供が習得するのとは同じ方法でなくとも)言語を十分に扱えるようになる可能性は残っているのだろうか.ピンカーの冒頭エッセイではGoogle翻訳についてもややシニカルだったが,いずれいろいろ面白いことが生じるのかもしれない.