Uncertainty decoding
耐雑音音声認識において,モデルベースの手法と特徴量ベースの手法では,
一般的に性能面はモデルベースの勝ち,計算量は特徴量ベースの勝ちです.
今日は,特徴量ベースの手法を計算量はそのままモデルベースの性能に近づけることができる, uncertainty decoding(UD)を紹介します.
クリーン音声特徴量を ,雑音で劣化した音声特徴量を とします.
まずは通常通り,音響モデルとしてクリーン音声の GMM-HMM を学習しておきます.
すると,以下のようなガウス分布が沢山学習されることになります.
はある音響イベントに対応する GMM に含まれる一つのガウス分布のインデックスです.
この他に,GMM の重みと HMM の遷移確率も学習されます.
HTK とかで学習した hmmdefs ファイルをみると,実際沢山の正規分布,GMM の重み,遷移確率が並んでいることが分かると思います.
今我々は, のみしか観測できないので, を計算しなくてはなりません.
GMM の重みと HMM の遷移確率は,雑音が重畳しても変わらないとすれば,
さえ求まれば,あとは普通に音声認識のデコーディングを行うことができます.
ただ, の計算は大量にでてくるので,計算コストが低いことも重要です.
そのため現実的には, を正規分布として近似することになります.
以下,この をどうやって計算するか,というお話になります.
我々は既に を学習して持っているので, を を含むように展開します.
突然ですが,ここで,あるある式展開を紹介します.以下の式は恒等的に成り立ちます.
→ガウス分布の変数と平均を入れ替えても式自体は変わらない.ガウス分布の定義より,明らか.
→証明するには,exp の肩の部分を平方完成して「ガウス分布の全積分は1」を使えばよい
この「あるある式展開」を考慮してもう一度先の式に戻ると, は正規分布だったので,
もし が を変数or平均とする正規分布として表現されていれば,
も正規分布として計算できることになります.
以下, を を変数or平均とする正規分布としてどう計算するか,という話になります.
Uncertainty decoding では,まず最初に,以下の重要な近似を使います.
すなわち, にノイズがのって になる過程は,音響モデルに依存しない!という仮定です.
この近似を導入することにより,計算量は劇的に減ります.
今 は音響モデルに含まれるガウス分布の数分あるので,
例えば 2000 状態 16 混合の GMM-HMM なら,単純に考えても 1/32000 に計算量が減らせます.
以下, を を変数or平均とする正規分布としてどう計算するか,という話になります.
の計算方法には,いろいろやり方があります.
昨日 SPLICE について書いたので,まずは SPLICE を使った UD について述べます.
論文はこちら.UD が初めて提案されたのも,この論文です.
http://research.microsoft.com/pubs/63614/2002-droppo-icassp.pdf
UD with SPLICE では, を以下のように展開します.
これで,,, を計算すればよくなりました.
以下,それぞれの計算について述べます.
まず, について.
SPLICE なので,区分線形変換で を に変換する以下の式を使います.
通常の SPLICE の枠組みで,ステレオデータ使えば,
を正規分布とした場合の平均値を学習することができます.
の分散については,平均値と同様,重み付き最小二乗誤差基準で学習できます.
論文でいうと,式 (5) です.
(論文は例によってバイアス項 のみを使う場合しか書いていないです. を使う場合は…後日.)
次に, について.
これは, なので,
SPLICE で利用する の GMM から簡単に計算できます.
最後に, について.これが,厄介です.単純には計算できません.
今回, はガウス分布でないといけなかったので,
もガウス分布である!と仮定します.(本当は GMM などで近似されるものなので,この仮定はおかしい.)
計算は,以下のように進みます.
ここで はすべて既知なので,計算可能で,
それらは を変数とする正規分布なので,積分もできます.
しかし, が残ってしまうので,GMM となってしまいます.
そこで,この GMM の平均/分散を, をつかって重み付け平均のような形で無理やり近似します.
このきちゃない近似は論文を参照してください.
ここまでできれば,,ひいては最終的に欲しかった が,ガウス分布として計算できることになります.
しかも, を音響モデルに依存させない近似のおかげで,計算量は通常の SPLICE からほとんど変わりません.
ただし, を無理やりガウス分布で近似するせいで,不整合がおこる部分もあります.
気になる UD with SPLICE の精度は,普通に SPLICE から良くなっています.
論文では,AURORA2 の set A の平均で,
単語正答率 SPLICE:88.21% から UD w/ SPLICE:90.63% となっています.
結構いい認識率です.
また論文では,noise mean normalization- (NMN-) SPLICE や CMN を使っても,
同様に UD ができる,としています(この結果は NMN も CMN もしていない).
これらを考慮すると,さらに率を改善する余地が残されているように思います.
さて,ここまで UD with SPLICE を紹介しましたが,
を無理やり正規分布で近似するという強引な近似が含まれていました.
別の方法を用いると,実は UD with SPLICE よりましな近似で を計算することができます.
これが,joint uncertainty decoding (JUD) です.
http://www.sciencedirect.com/science/article/pii/S0167639307001720
JUD でも, を使う部分までの式展開は同じです.
JUD では, を以下のように近似します.
この近似は, の GMM と の GMM のインデックスは共通であるといった近似です.
及び は,
と の結合ベクトルの GMM を予め学習しておき,そのパラメタをもとに計算します.
これは,声質変換(Voice Conversion; VC)の研究でも広く用いられている手法です.
式は疲れてきたので省略します…
(追記)
JUD では, がある で 1,それ以外は 0 であると近似します.
これにより, が GMM ではなくガウシアンになります.
また, は計算できませんが,これは で近似します.
このあたりの近似の「雑さ」が,UD w/ SPLICE の近似より良いかどうか,,がポイントです.
気になる JUD の性能ですが,論文によると UD with SPLICE よりも性能が高いそうです.
AURORA2 ではないデータベースなので単純には比較できませんが…
さらに,JUD には model-based JUD という亜種があります.
Model-based JUD では, という近似を,
もうちょっとよい近似として, より大幅に少ないクラス を用意して,
とするものです.
これにより計算量は, のクラス数倍になりますが,精度もいくらか向上するようです.
精度ですが,論文によると,クラス数を 16 まであげれば,
クリーン音声から学習した GMM-HMM を使っているのにもかかわらず,
同じ雑音環境下で劣化した音声から学習した GMM-HMM を使った場合とほぼ同等の精度がでるようです.
素晴らしい.
UD を実装するためには,デコーダを書き換える必要があります.
HTK の future plans のところに,JUD の実装が含まれていますが,待ってるのもなんですし,
機会を見つけて自分で書いてしまいたいなーと思っています.実装自体はそんなに難しくなさそうだし.
今日の一人勉強会はこれでおしまいです.