実験結果と考察

本実験で得られた結果を表6.3に示す。ただし、全てのシミュレーションプログラムはプログラミング言語C++とboost C++ LIBRARIESで実装し、計算にはDELL社のデスクトップパソコンvostro200を用いた。


Table 6.3: 実験結果
基底関数 学習誤差(%) 汎化誤差(%)
Sigmoid 0.05 - - 5 17.2
MexicanHat 0.03 0.001 0.001 5 8.6
Haar 0.03 0.01 0 5 15.4


はそれぞれ、式(6.5)にあるエッジの重みの学習率と、式(6.6)にあるウェーブレットのパラメータの学習率を指す。学習データには全て同じものを利用しており、各学習率以外の条件はまったく同じである評価実験を行った。結果は、学習は全て誤差が閾値以下に収まるように収束したが、汎化誤差では従来のモデルよりもMexicanHatを採用した提案モデルの方が優れていることを確認した。

一方Haarを採用した提案モデルでは、従来のモデルよりも優れた汎化性能を示したものの、MexicanHatを採用したモデルと比較すると十分に汎化が行われているとは言い難い。この主な原因として微分不可能な関数であることが考えられる。Haarのグラフを図6.6に示す。

Figure 6.6: Haar

式(6.5)~(6.8)に示した通り、第1中間層と入力層のパラメータの学習には第1中間層の基底関数の微分値が利用される。Haarを基底に置くとこの値がになるためにパラメータの変動(学習)が大幅に制限されてしまう。よって第2中間層だけで学習を行ったかたちとなり、十分な汎化性能を獲得できなかったものと考えられる。第5.3章で述べたが、マザーウェーブレットの選定により結果が大きく左右されてしまう好例と言える。



root 2010-02-26