Language, Cognition, and Human Nature 第1論文 「言語獲得の形式モデル」 その4

Language, Cognition, and Human Nature: Selected Articles

Language, Cognition, and Human Nature: Selected Articles

IV 文法の帰納:その他の結果


<テキストからの文法の帰納


ここでは言語をサンプルから獲得するための4つの方法を示す. 


(1)文の順序による提示

  • 先ほどのIII節では,テキストの提示の順序はどのような順序で示されてもよいという前提を置いていた.ゴールドはサンプル文が時間の関数になるやり方で順序立てて提示されるならすべての帰納的可算言語が学習可能であることを証明した.それは教師が時間tにおいて提示する文に,原始帰納関数にtを入力した結果出力される文を当てることで可能になる.
  • ここでいう原始帰納関数は,すべての文にある自然数が割り当てられている原始帰納文法になる.それは並べ上げてテストできる.それは基本的に有限基数文法と同じように有限試行で決定できるようになるのだ.
  • もちろん子供に提示される文の順序が決定しているとは考えにくい.しかしこの議論は後におこなう意味論との関連に関わってくる
  • もうひとつの有用な順序づけの方法は効果的近似順序づけ(effective approximate ordering)と呼ばれる.
  • ここである時間までに所定より短いすべての文が提示される(というやり方でサンプルを提示する)としよう,さらに学習者はその時間を計算できるとしよう.するとその時点で学習者はそれより短いすべての非文を計算できる.つまりある長さの文が許容されるかどうかを決めることができるようになる.
  • 確かに子供に提示される文章はだんだん長くなる傾向にある.しかし子供たちがこの方法を用いているとは考えにくい.何故ならある長さより短い非文がすべてわかるようになったりはしないからだ.
  • しかしより一般的に,子供たちに提示されるサンプルが,言語習得が進むにつれてある程度システマティックに変わっていき,その変更が文法の帰納に役立っているという可能性はあるだろう.例えば,初期に示されるサンプルはより少数の文法規則を用いているとすると,学習者はより早期に対象文法を絞り込めるだろう.
  • しかしながら,そのような変更が実際にあるかどうかを調べた結果は否定的だった.そして子供たちへのサンプル提示に何らかの順序傾向があるかどうかについてはなお実証されていない.これについてはIX節でより詳しく扱う.


(2)(文法を正しく推測するという)成功の基準を緩くする

  • 多分学習者は目的の言語を正確に同定することは要求されていないだろう.だとすると,例えば「目的言語に接近する」ことでよいのかもしれない.(Biermann and Feldman, 1972)この接近可能性を以下のように定義する
  1. サンプルのすべての文はいずれ学習者の推測言語に含まれるようになる.
  2. 不正な文法はいずれ永遠に排除される.
  3. (強い接近可能性条件では)正しい文法が無限回数推測される.(強い接近可能性とと正確な同定との違いは,前者ではいったん正しい文法を推測したら,そこから動いてはならないという条件があるところだ)

少しわかりにくい.現在の候補文法が不正だとわからなくても別の文法と候補を入れ替え可能だということだろう.

  • 別の基準緩和は「目的言語の近似」でよいとするものだ.ワートンは終端記号集合を用いて2つの言語の近似性を測定できる基準を提案している.(Wharton, 1974)
  • では学習者が,目的言語に一定の近似度を持つ言語を何か1つでも推測できればいいとすればどうなるだろうか.ワートンはそれならばテキスト条件ですべての原始帰納言語の近似言語をどのような近似度の要求下でも推測できることを示した.さらにその近似言語を目的言語に一致させるために必要な近似度水準が常に存在することも示した.
  • ただしその要求がどの程度高いものなのかを知る方法はない.(もしあればゴールドの定理が間違いだということになる)
  • 子供がそのコミュニティで使われている言語を常に完全に習得するということはありそうもないので,ワートンとフェルドマンは「獲得」の条件を再定義してやれば,ゴールドタイプの学習者が学習可能条件を満たすことができることを示したと言える.
  • さらに第3の方法がある.
  • サンプルにフィットするただ1つの正しい文法を探索するのではなく,サンプルにフィットする無限の文法のうち最も「単純な」文法を選べばよいとするものだ.フェルドマンは文法の複雑性に関する基準を示し,さらに文法を単純なものから複雑なものに並べ上げることによって,サンプルと矛盾しない最も単純な文法を決める方法を記述した.(Feldman, 1972)
  • しかしながら,サンプルが大きくなるとそのような単純な文法の探索は目的言語を同定したり強い近似を探索することとは異なってくることに注意が必要だ.何故かを理解するのは簡単だ.ある特定の語彙からなるすべての可能な文を生成できる複雑性が最小の文法は必ず存在する.もし目的言語がこのユニバーサル文法より複雑であるならそれは全く考慮されないからだ.だから子供にオッカムの剃刀を与えてもそれは言語獲得の役には立たないのだ.


(3)ベイズ推定

  • もしある文法の規則が使われている確率を指定している文法があるなら,その文法は確率論的文法と呼ばれる.確率論的文法はサンプル文の統計的分布を予測可能にする.これは学習者に目的言語同定のための追加的な手がかりを与える.
  • ホーニングはその書き換え規則が固定確率で示される文法について考察した.この場合ある文法の下である文が得られる確率を計算することができる.そしてある文法の下であるサンプル文の集合が得られる確率も計算できる.ホーニングのパラダイムでは学習者はある文法が目的言語の文法である事前確率を持っているとされている.するとサンプル文の集合の情報をベイズ的に利用して,ある文法の事後確率を計算できる.そして最高の事後確率を持っている文法を常に目的言語の文法と推測することができる.


(4)候補空間を制限する

  • 事前確率を使うというホーニングの方法はチョムスキーによる言語獲得器官の抽象的な記述の統計モデルバージョンだとも言える.チョムスキーは,文法の無限の可能性とサンプルの有限性から,子供は文法の候補を絞り込むための重み付け関数を持つという考えを提示している.この関数は非常に散在する文法確率分布を持ち,自然言語の特徴を持つ文法には高い値を与える一方そうでない文法には非常に低い値か0を与える.
  • だから子供は自然言語に近い文法に触れる確率が高いという前提でサンプルに触れることになる.そしてある程度のサンプルで確率の非常に高い文法が1つだけになるなら,言語は獲得可能だということになる.例えば事前確率分布がヒンズー語,ユダヤ語,スワヒリ語のみに限定されているなら1サンプルでも推定可能になる.
  • ゴールドのパラダイムにおいてこの方法では事前確率に0を当てている言語は習得できない.しかしそれでもいいのだ.私たちは子供が自然言語を習得できることさえ示せればいいのだから.

ピンカーはこの手法による説明を受け入れるに当たっての注意点を挙げている.

  • これを採用するなら私たちは一般的な帰納推測による言語獲得の説明を放棄しなければならない.つまり何らかの「生得性」を受け入れなければならないのだ.
  • そして私たちはその事前確率分布関数が本当にあるのか,あるとすればどのようなものかという問題を抱えることになる.これは変形文法における「十分な説明」要件ということになる(これについては後に扱う)


この4つの手法(第3と第4は基本的に同じという気もしないではないが)を概観したあとでピンカーはこうコメントしている.

  • 私たちは学習可能性を回復させるためのいくつかの方策を探ってきた.しかしこのような方策をとるということは「ヒドラの頭を1つ切り落としたら,そこから2つの頭が生えてきた」状況に似ているところがある.
  • この節で示した手法によってもなお学習に必要な時間は天文学的だ.
  • そしていずれの手法も発達条件や認知条件から見てあり得なさそうに思える.第1に子供は文法を一つ一つ吟味して捨てて行っているようには見えない.子供は規則を加えたり置きかえたり修正しているように見える.そして第2に子供が提示された文をすべて記憶しているということもありそうにない.
  • 次節ではまず時間条件について考察する.


チョムスキーの考えが,ベイズ推定的に解釈できるというのは面白いポイントだ.なお事前確率が極めて厳格なら時間条件はクリアできそうだが(まさにピンカー自身が3言語のみ許す事前確率分布の話を振っている)そのあたりは次節で議論されるということだろう.