Language, Cognition, and Human Nature 第3論文 「ヒトの言語における規則と接続」 その2

Language, Cognition, and Human Nature: Selected Articles

Language, Cognition, and Human Nature: Selected Articles


ピンカーは背景説明から論文を始めている.問題の所在,注目を集めているある理論があることが冒頭で語られる.

導入

  • 神経科学の発見がヒトの知性を説明するのに役立つことを皆望んでいるだろう.しかしそれが1ステップで可能などとは誰も考えていない.神経科学と認知科学はどこか中間にある認知アーキテクチャーの部分に収束していくのだろう.そこでは神経組織でなされる情報処理,それが基礎ブロックになる認知アルゴリズム,そしてそれによる知性的行動を特定するようなものだろう.
  • この中間レベルは補足しにくい.神経科学者は発火,活性化,抑制,可塑性などを調べ,認知科学者は規則,表象,シンボル操作を調べる.シンボル操作をコンピュータアルゴリズムにするのは簡単そうだが,どうすれはそれを神経組織に実装できるのかはよくわからない.
  • 中間レベルの理論は厳しい基準を超えなければならない.神経生理学,神経解剖学の知見に従い,その上で認知の基礎となるべき計算能力を持たなければならないのだ.
  • 近年ある理論がそれを成し遂げたと主張し,熱狂を生んでいる.コネクショニストモデル,あるいは並列分散処理モデルと呼ばれるものは,密に相互接続された巨大な数のユニット(ノード)のネットワークを用いた認知システムをモデル化したものだ.
  • ユニットは重み付けされた連結を通して信号を伝達する.あるユニットは入力の重み付けを足し合わせ計算し,非線形関数を経過させて(通常は閾値により0か1かという形で)出力を決める.学習は現状の出力と教育入力セットによる望ましい出力を比較し,重み付けの調整と閾値の調整という形で生じる.
  • これは純粋の神経組織モデルではないが,似ている部分もある.しかし学習メカニズムは似ていない,またこれまで知られている神経接続のトポロジーともかけ離れている.にもかかわらず支持者はこれを「頭脳スタイル」とか「頭脳メタファー」モデルと呼び,神経科学者の注目を集めている.
  • この注目あるいは熱狂の主要な理由は,モデルが規則を全く含んでいないにもかかわらず,規則を会得したかのような振る舞いをすることを示したことだ.それは神経生理学と認知理論の架け橋をなることをほのめかしているというわけだ.
  • 最も劇的で最も引用されている並列分散処理による規則を得たようなような振る舞いは,ルメルハートとマククレランドの「英語の過去形の獲得」モデルだ.
  • 英語の動詞の過去形には規則動詞の過去形と不規則動詞の過去形がある.幼児は早くから両方とも使えるようになるが,最初は過剰に規則化することもある.また幼稚園に通う頃には規則動詞の語尾にあわせた発音の変化をこなせるようになる.伝統的な解釈は子供は親の過去形を聞いてまず覚え,それから規則を抽出するというものだ.
  • ルメルハートとマククレランドのネットワークモデルは,全く規則を内包していないにもかかわらず子供と同じような振る舞いを見せた.そのモデルは,単語,規則動詞と不規則動詞,語根(root),語幹(stem),接辞などのカテゴリーを持たない.単純な2層のネットワークに,動詞の語根に対応した入力の際にオン,オフになるユニットのセットと,動詞の過去形に対応した出力の際にオン,オフになるユニットのセット,そしてすべての入力ユニットとすべての出力ユニットの連結を持つだけなのだ.学習の際にはネットワークは自分が出力した過去形と「教師」から示された過去形を比較し,その違いを減らすように連結の重みと閾値を調整する.
  • ルメルハートとマククレランドは,これは(言語学が過去25年間にわたってその可能性を放棄してきた)言語獲得の連合理論(associationist theories)の可能性を示すものだと示唆し,多くの学者が賛同している.これをより洗練させていけば神経科学と認知科学の架け橋になれるだろうというのだ.


ここでピンカーはルメルハートとマククレランドのモデルがどうなっているかをボックス3.1として詳しく解説している.簡単に要約すると以下のようになる

BOX 3.1 ルメルハートとマククレランドのモデルはどう動くか

  • 動詞の語幹(の発音)をインプット,過去形(の発音)をアウトプットする2層レイヤーのネットワーク.各ノードはオンとオフの2値のみをとる.個別の語幹や過去形に対して複数のノードのオンオフの組み合わせが対応する.
  • 問題は語幹や過去形の要素は順序を持って提示されるが,ノードのオンオフの組み合わせは時間の次元が無いことだ.(つまりpitとtipを区別するのが難しくなる)
  • ルメルハートとマククレランドはこれに対処するために入出力を3文字語にする方策を採用している.具体的には単語区切りを#としたときに,このスキームではstripを {ip#, rip, str, tri, #st} と入出力する.(要するに順序情報を要素内に与えて再構成可能にするということらしい)
  • しかしこれは次の2つの理由でうまくいかない.
  • これで英語の動詞の語幹,過去形を構成するために入力に43000ノード,出力に43000ノードが必要になり,その間の連結は20億を超える.
  • モデルが興味深くなるためには,類似に基づく一般化学習が可能でなければならない.音韻規則は音素をそれ以上分析できないアトムとは扱わず,様々な音韻特徴を用いるが,このシステムではそれを扱えない.(例えば,規則動詞の過去形は動詞の最後が子音の場合にそれが無声かどうかでedの発音が変わるが,このシステムでは無声かどうかを示すことができない.)
  • ルメルハートとマククレランドはこれらの問題に対処するために,まず(ここでは議論しないある簡略化方策で)ノード数を460までに縮小し,さらに入出力レイヤーにそれぞれ綴りと発音についての変換規則を作る2層システムを実装した.
  • これで音韻入力を受けたノードの組み合わせがルールを示す連結(エンコードシステム)を通して次の語幹の特徴を示すノードの組み合わせに反映される.(出力時には特徴の組み合わせから連結(デコードシステム)を通して音韻を示す組み合わせに反映される)そしてこの入力特徴ノード群と出力の特徴ノード群の間にある連結ネットワークにおいて(実際の出力と望ましい出力の差を減少させるように)連合学習による重み付けと閾値が各ノードベースで調整されることになる.(これをパーセプトロン収束過程と呼んでいる)
  • このルメルハートとマククレランドのモデルは420動詞についてそれぞれ200訓練を行った(合計8万程度の試行)結果,正しい過去形を示すようになった.
  • エンコードシステムとデコードシステムは彼等のフォーカスではないが,実際には正しいエンコードとデコードができるように注意深くデザインされている.(複雑な取り組みがかなり詳しく紹介されている)

ここからピンカーは,最近最も強力な言語にかかる並列分散処理モデルですら実証的にはうまくいかないという主張が相次いでいること,そのエビデンスは子供の言語の特徴,人々が文や単語について自然だと感じるかどうかについての規則性,モデルのシミュレーションそのものなど多岐にわたっていることを挙げ,その吟味は「連合ネットワークでヒトの規則にかかる知性を説明できる」という主張の是非にとり重要だと指摘し,エビデンスについてレビューしていくとしている.