
Language, Cognition, and Human Nature: Selected Articles
- 作者: Steven Pinker
- 出版社/メーカー: Oxford University Press
- 発売日: 2013/09/27
- メディア: Kindle版
- この商品を含むブログを見る
VII アンダーソンの言語獲得システム:LAS その1
<意味論ベースの言語獲得ヒューリスティックスのコンピュータシミュレーション>
- 文法と意味論の相関を利用するヒューリスティックスも(位置からのみで何とかしようとする方法と同じく)コンピュータシミュレーションされてきた.ある意味これらのプログラムはシュレジンガーとマクナマラの認知理論の非正式な具現化と言える.そして理論の妥当性(特に学習可能条件)のテストに使えるし,理論が含意しているメカニズムを明らかにするにも有用だろう.
- 残念なことにこれらのプログラムの多くはしばしばクレインとクッピンのプログラムと同じ罠(非合理的な前提,アドホックでごちゃごちゃのメカニズム,疑わしい成果)にはまった.
- 例外と言えるのはアンダーソンの言語学習システムLAS(Language Acquisition System)だ.これから見ていくようにアンダーソンは注意深くヒューリスティックスを定義し,役立つ自然言語の特徴をうまく組み込んでいる.そしてプログラムはうまく定義された自然言語文の集合を獲得でき,その意味論的表現は独自のリサーチの動機を生みだし,さらに心理的な非現実的な前提を除いていた.
<どのように動くのか>
(1)一般的アーキテクチャー
- LASはアンダーソンが長期メモリーを説明するために用いている情報理論(ヒト連想記憶システム:HAM)の意味論的表現形式を用いている.文法は接頭遷移ネットワーク(Augmented Transition Network:ATN)の形をとる.
- LASが用いるATNは文脈自由文法における<規則のための規則:rule-for-rule>に該当するが,文を順番に読み込んだり作り出したりするのにより適用しやすい.
- LASは文生成のためのサブルーチンを持つ.それは意味論構造を文に変換するためにATNを用いる.またLASは文の理解のためのサブルーチンも持つ.こちらは文を意味論構造に変換するためにATNを用いる.またLASは意味論構造と文のペアからATNを作り上げる学習プロセスも持っている.この最後のプログラムがここでの興味の焦点になる.
- ケリーとクッピンのプログラムと同様LASも理解プロセスにより駆動される.それは現在持つ文法に従って文を左から右へ理解しようとし,失敗すると文法を変える.もしある規則がうまく文を翻訳できればそれは拡張候補になる.
- LASは(ケリーとクッピンのプログラムと同じく)聞いたはしからその文を忘れる.だからサンプル文は正しく理解されたときに文法を変更することによってのみLASに貢献する.
- これらの特徴は,これまで紹介してきたプログラムに比べて心理学的な現実味を与えてくれる.
(2)ツリーフィッティングヒューリスティックスの利用
- 最初の「文とその意味」のペアを受け取ると,(まだ何の文法も仮定されていないので)まずツリーフィッティングヒューリスティックスに従う文法を作成する.しかし通常,その文が発せられたときの学習者の状況認識を表すHAMがその文を扱うのに適していることはあまりない.そこには文に関係のない前提が数多く含まれ,どの前提が適しているかを示すものはない.
- だからプログラムは「プロトタイプ構造」と呼ばれるとりあえずの表現を計算するしかない.プロトタイプ構造においては文に直接関係しない前提はすべて落とされ,基本的な前提のみ含まれる.ツリーフィッティングヒューリスティックスはまずこのプロトタイプ構造で文を解析しようとする.
- いったん受け入れ可能なツリーを生成できればLASはATNの弧(arc)を構築する.このATNの弧はそれぞれ左から右への語句を高次構造に構成した構成要素とその意味論的パートの文法的構成要素をマップする規則に対応している.
(3)意味論ベース同値ヒューリスティックスの使用
- いったんサンプルのペアが入力されるとLASはその語句をすべての規則を同時に使って解釈しようとする.意味論を用いた同値ヒューリスティックスにより,それぞれのHAM構造で同じ役割を持つ語を一つのクラスに統合する.同様に同じ役割の弧も統合する.
- それに加えてLASは2つの弧について,片方がもう片方の一部を構成しているものであっても,意味論的に同じ役割であれば統合する.例えば「白いネコがそのネズミを食べる」における「ネズミ」が一つの弧である場合に,別のサンプルで現れた「その家を囓るネズミ」という弧と役割が同じであれば統合する.(この場合「その家を囓る」はオプショナルという位置づけになる)
- こうすることによりLASは(それにより無限の文を生みだせる)再帰的な規則を構築できる.先ほどの例でいうと「その家を囓るネズミ」の「その家」を下のレベルの弧とし,「ネズミ」を表す弧と統合できる.このような再帰的な規則の適用により「その家を囓るネズミを食べるネコを囓るネズミ」が生成可能になる.
- 最後にLASは(冠詞,前置詞,関係代名詞などの)「文法的形態素:grammatical morphemes」を扱うための特別のヒューリスティックスを持っている.これは意味論的構造には対応するものがない.このヒューリスティックスについては別途後に扱う.
(4)LASの学習能力
- LASはどのぐらいうまくやれるのか?
- アンダーソンは文脈自由でいろいろな色やサイズを持つ2次元図形を表現する人工言語や自然言語の断片を使ってLASを走らせた例をいくつか紹介している.
- 英語やフランス語を用いたそれらの例ではLASは10から15サンプルペアの提示後に文法獲得に成功している.例えばLASは“the large blue square which is below the triangle is above the red circle which is small”のような文を理解できる.
- アンダーソンは,LASは「グラフ変形条件」と「意味論に誘導される文法等価性条件」を満たす文脈自由文法を獲得できると推測している.
なかなかこのLASの説明はテクニカルで難解だ.私の理解では要するに,「文の意味論はツリー構造のみを採るのであり,だからそれを前提にした文法推論が可能だ」というのがLASの考え方ということだろう.これによると文法は意味のツリー構造のみから導かれることになり生得的な文法は不要になることになる.ピンカーはそれを否定するためにもこのテクニカルな部分を丁寧に説明しているのだろう.