2000年度 森泰吉郎記念研究振興基金 「国際共同研究」
概念階層と概念記述の相互学習による漸増学習について

〜関連研究調査〜

本研究テーマでは,帰納論理プログラミング(ILP)における概念階層の構築・ 更新・利用や,学習における言語バイアスの動的な変更,及び事例間の類似度 に関して研究を行う必要がある.本関連研究調査報告書では,これらの観点か ら,特に関連の深いと思われる論文に関する調査結果を示す.


Contents


Yamazaki, T., Pazzani, M. J., and Merz, C.:
Acquiring and updating hierarchical knowledge for machine translation based on a clustering technique,
In Wermter, Riloff & Scheler (Eds.) Connectionist, Statistical, and Symbolic Approaches to Learning for Natural Language Processing, 1996.

この論文は,機械翻訳システムを対象とし,翻訳のためのルールの獲得,及び その獲得に利用される概念階層の生成・更新する方法について述べている.

翻訳のためのルールは,ILPの枠組で獲得される.具体的には,ILPシステム FOCLに,背景知識として与えられる階層構造をより効率良く利用するための拡 張を行い,それを利用している.

一方,概念階層の構築・更新は,翻訳のためのルールと(存在する場合は)既存 の概念階層を入力とし,クラスタリングの技術を利用して行われる(下図参照).


この図は,論文中Fig.3を編集したものである.


Khan, K., Muggleton, S. and Parson, R.:
Repeat learning using predicate invention,
In C.D. Page, editor, Proc. of the 8th International Workshop on Inductive Logic Programming (ILP-98), LNAI 1446, pages 165-174, Berlin, 1998. Springer-Verlag.

述語発明(Predicate Invention, PI)とは,学習に必要な述語(語彙)を(自動的 に)発明する手法であり,これまでに数多くの研究が行われている.しかし, これまでの研究では,いつPIが必要になるのか,またどの様に新たな述語を発 明するのか,についての言及が多く,実際にPIを行なう事が,学習の向上につ ながるかどうかは不明な点も多い.すなわち,利用する述語の増大は,仮説空 間の増大につながるので,はたして精度や実行効率に良い影響を与えるとは限 らないであろう,ということである.

一方,この論文では,ある条件下でのPIの適用可能性について述べている.そ れは,学習者が(背景知識として利用される)関連する一連の概念の定義を発見 するために,PIを繰り返し適用することが許される場合,という条件である. この論文では,以上の条件の下,ある概念の説明に寄与する述語をPIにより導 入する事で,後の概念の学習に必要とされる事例数を減らせる可能性がある, ということを,理論的な側面,定量的な評価実験によって示している.


森中 雄, 大原 剛三, 馬場口 登,北橋 忠宏:
事例関の非類似度を用いたデータベースからのクラス間関係の獲得,
情報処理学会論文誌, Vol.41, No.11, pp.3193-3196, Nov. 2000.

データベース中に複数のクラスが与えられる場合に,属性値の発生確率を反映 した事例関の非類似度を利用して,任意の2クラス間の関係を獲得する手法を 与えている.

ここで異なるクラスA,B間のクラス間関係とは,

のいずれかである. この論文では,以下に示す事例間の非類似度および限界非類似度を利用して, このクラス間関係を獲得する手法が示されている.

事例a,b間の非類似度D(a,b)は以下のように定義される.

D(a,b) = Σ Pk(a)≠ Pk(b) {E(Pk(a)) + E(Pk(b)) }

ここで
  • Pk(a)は事例ak番目の属性値
  • E(v) = 1+w{1-H(p)} (0 < p(v) < 1 )
    E(v) = ∞ (p(v) = 0,1)
  • p(v)は属性Pにおける属性値vの発生確率
  • wは発生確率を非類似度に反映させる重み
  • H(p) = -p log(p) - (1-p) log(1-p)

である.
さらに,クラスCに属する事例集合を { a1, a2, ... an } とするとき,Cの限界非類似度DL(C) は,以下のように定義される.
DL(C)  =  max     [    min     { D(ai,aj) }]
i=1,2,..,n j=1,2,..,n (i≠j)

提案手法は,扱えるデータの形式を属性 = 値表に限定したもので あり,扱える問題のクラスは命題論理学習器で扱う問題クラスを前提としてい る.しかし,以下に示す,これまでに提案されている一階述語論理上での類似 性や距離などの概念を用いれば,述語論理で表現されるデータベースからのク ラス間関係の獲得も可能であると考えられる.


Mitchell, T. M.:
The Role of Unlabeled Data in Supervised Learning,
Proc. of the Sixth International Colloquium on Cognitive Science, 1999.

データマイニングや決定木の生成,帰納論理プログラミングなどの 教師付き学習の計算モデルでは 予めクラス分けされた訓練事例を利用し, クラス分けされていない訓練事例が持ちうる役割を無視している.

一方,この論文では,教師付き学習におけるクラス分けされていない訓練事例 の潜在的な役割について述べられている.クラス分けされていないデータを利 用するためのアルゴリズム'' Cotrainingアルゴリズム''が示され, Cotrainingアルゴリズムが適用可能である問題のクラスとして,「例を表す特 徴が分類に冗長に十分な(redundantly sufficient)である」,というクラスが 導入されている.さらにWebページの分類問題を例にクラス分けされていない データの利用が,学習精度の向上につながることを実験により示している.

Web pageの分類問題におけるCotrainingアルゴリズム
Given
  • set L of labeled training examples
  • set U of unlabeled examples
Loop:
  • Learn hyperlink-based classifier H from L
  • Learn full-text classifier F from L
  • Allow H to label p positive and n negative examples from U
  • Allow F to label p positive and n negative examples from U
  • Add these self-labeled examples to L

また論文中で述べられている通り,この手法は,人間が直面する言語獲得や物 体の認識などにも有効であると考えられる.


その他の関連論文リスト

ILPにおける概念階層や型階層の利用に関する関連論文

一階述語論理におけるクラスタリングアルゴリズムに関する関連論文

バイアスシフト・述語発明に関する関連論文

一階述語論理における類似性・距離に関する関連論文