JP2015141253A - 音声認識装置、及びプログラム - Google Patents

音声認識装置、及びプログラム Download PDF

Info

Publication number
JP2015141253A
JP2015141253A JP2014012766A JP2014012766A JP2015141253A JP 2015141253 A JP2015141253 A JP 2015141253A JP 2014012766 A JP2014012766 A JP 2014012766A JP 2014012766 A JP2014012766 A JP 2014012766A JP 2015141253 A JP2015141253 A JP 2015141253A
Authority
JP
Japan
Prior art keywords
word
speech recognition
error correction
model
class
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014012766A
Other languages
English (en)
Other versions
JP6366166B2 (ja
Inventor
彰夫 小林
Akio Kobayashi
彰夫 小林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Japan Broadcasting Corp
Original Assignee
Nippon Hoso Kyokai NHK
Japan Broadcasting Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Hoso Kyokai NHK, Japan Broadcasting Corp filed Critical Nippon Hoso Kyokai NHK
Priority to JP2014012766A priority Critical patent/JP6366166B2/ja
Publication of JP2015141253A publication Critical patent/JP2015141253A/ja
Application granted granted Critical
Publication of JP6366166B2 publication Critical patent/JP6366166B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Machine Translation (AREA)

Abstract

【課題】学習データの語彙と音声認識させたい語彙とが異なる場合でも、音声認識対象に適合した誤り修正モデルを学習する。
【解決手段】音声認識装置1は、単語及びクラスに基づく統計的言語モデルを学習データから学習し、クラスに属する単語のリストを音声認識対象に応じて書き換える。音声認識装置1は、統計的音響モデルと、書き換え後の統計的言語モデルと、単語及びクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルとを用いて音声データを音声認識する。音声認識装置1は、音声認識結果をユーザー入力により修正して得た正解単語列に含まれる各単語を整列させる。音声認識装置1は、音声データの入力の度に、音声認識結果と整列させた正解単語列とのそれぞれに含まれる単語及びクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて誤り修正モデルを逐次更新する。
【選択図】図2

Description

本発明は、音声認識装置、及びプログラムに関する。
音声認識の誤り修正については、音声とその書き起こし(正解文)から、言語的な特徴を用いて音声認識の誤り傾向を統計的に学習し、学習の結果得られた統計的な誤り修正モデルを用いて音声認識の性能改善を図る技術がある(例えば、非特許文献1参照)。
小林ほか,「単語誤り最小化に基づく識別的スコアリングによるニュース音声認識」,電子情報通信学会論文誌 D,電子情報通信学会,2010年,vol.J93-D no.5,p.598−609
従来法では、誤り修正モデルの学習に、大量の音声データとその音声認識結果、及び対応する正解単語列を学習データとして用いる。誤り修正モデルは、このような学習データから静的に推定されることが多い。しかし、実際の音声認識では、タスクに合致した誤り修正モデルの学習データを用意することは困難である。つまり、学習データの語彙と音声認識対象の音声(発話内容)の語彙とが完全に一致することは少ない。このような学習データから推定された誤り修正モデルを用いて音声認識結果の誤りを修正しても、認識性能は改善しない。例えば、スポーツ中継の音声認識では、誤り修正モデルを推定するための学習データは用意できるものの、学習データ中にスポーツ中継の対象となる試合に出場する選手の名前やチーム名といった固有名詞が含まれていなければ、これらの認識誤りの傾向を学習することはできない。このように、認識させたい語が学習データに含まれていなければ、そのような語を含む単語列についての誤り傾向を学習できないため、音声認識対象に適合した誤り修正モデルを学習することができなかった。
本発明は、このような事情を考慮してなされたもので、学習データの語彙と音声認識させたい語彙とが異なる場合でも、音声認識対象に適合した誤り修正モデルを学習することができる音声認識装置、及びプログラムを提供する。
本発明の一態様は、統計的音響モデルを記憶する音響モデル記憶部と、統計的言語モデルを記憶する言語モデル記憶部と、単語及び単語が属するクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルを記憶する誤り修正モデル記憶部と、音声データと正解単語列とを含む学習データから単語及び単語のクラスに基づく統計的言語モデルを学習し、学習した前記統計的言語モデルに含まれるクラスに属する単語のリストを音声認識対象に応じて書き換えて前記言語モデル記憶部に書き込むクラスモデル作成部と、入力された音声データを、前記音響モデル記憶部が記憶している前記統計的音響モデル、前記言語モデル記憶部が記憶している前記統計的言語モデル、及び前記誤り修正モデル記憶部が記憶している前記誤り修正モデルを用いて音声認識し、音声認識の結果得られた単語列である音声認識結果を出力する音声認識部と、前記音声認識部から出力された前記音声認識結果をユーザーの入力に従って修正し、正解単語列を生成する誤り修正部と、前記誤り修正部が生成した前記正解単語列に含まれる各単語を前記音声データに基づいて時刻順に整列する整列部と、前記音声データが入力されるたびに、前記音声認識部により前記音声データから得られた前記音声認識結果と前記整列部が整列させた前記正解単語列とのそれぞれに含まれる単語及び単語が属するクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて前記誤り修正モデル記憶部に記憶されている前記誤り修正モデルを逐次更新する誤り修正モデル学習部と、を備えることを特徴とする音声認識装置である。
この発明によれば、音声認識装置は、音声データと正解単語列とを含む学習データから単語及び単語のクラスに基づく統計的言語モデルを学習する。音声認識装置は、学習した統計的言語モデルに含まれるクラスに属する単語のリストを、音声認識対象に応じた単語のリストに書き換える。音声認識装置は、入力された音声データを、統計的音響モデルと、統計的言語モデルと、単語及びクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルとを用いて音声認識する。音声認識装置は、キーボード等を用いたユーザーの入力に従って音声認識結果を修正して正解単語列を得ると、正解単語列に含まれる各単語を音声データに基づいて時刻順に整列する。音声認識装置は、音声データが入力されるたびに逐次、音声認識結果と整列させた正解単語列とのそれぞれに含まれる単語及び単語が属するクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて現在の誤り修正モデルを更新する。
これにより、音声認識装置は、統計的言語モデルの学習に用いた学習データの語彙と音声認識させたい語彙とが異なる場合でも、音声認識対象に適合した誤り修正モデルを逐次学習し、音声認識に適用することができる。
本発明の一態様は、上述する音声認識装置であって、前記言語的な特徴は、単語が属する前記クラスと当該単語に隣接する単語列との共起、あるいは、前記クラスに属する所定の単語の出現数である、ことを特徴とする。
この発明によれば、音声認識装置は、音声認識結果とその音声認識結果に対応する整列させた正解単語列とのそれぞれにおける、単語のクラスとその単語に隣接する単語列との共起、あるいは、クラスに属する所定の単語の出現数を用いて単語の誤り傾向を学習する。音声認識装置は、学習した単語の誤り傾向に応じて現在の誤り修正モデルを更新する。
これにより、音声認識装置は、音声認識結果と整列させた正解単語列とのそれぞれについて、単語が属するクラスと当該単語に隣接する単語列との共起や、クラスに属する所定の単語の出現数を計数することによって、音声認識における単語の誤り傾向を効率的に学習し、学習結果から誤り修正モデルを更新することができる。
本発明の一態様は、上述する音声認識装置であって、前記誤り修正モデルは、前記統計的音響モデルに基づいて得られる前記音声認識結果の音響スコアと、前記統計的言語モデルに基づいて得られる前記音声認識結果の言語スコアとにより算出される前記音声認識結果の音声認識のスコアを、重み付けされた前記言語的な特徴により修正する式である、ことを特徴とする。
この発明によれば、誤り修正モデルは、音声認識結果の音響スコア及び言語スコアにより算出される音声認識のスコアを、重み付けされた言語的な特徴により修正する式であり、音声認識装置は、音声認識結果と整列させた正解単語列とに含まれる言語的な特徴から単語誤りの傾向を学習し、誤り修正モデルに用いる言語的な特徴とその重みとを学習する。
これにより、音声認識装置は、音声認識の認識誤り傾向を効率的に学習し、誤り修正モデルにおける言語的な特徴の重みを更新することができる。
本発明の一態様は、上述する音声認識装置であって、前記誤り修正モデル学習部は、前記正解単語列との比較により得られる前記音声認識結果の単語誤り数と、前記誤り修正モデルにより修正された前記音声認識結果及び前記正解単語列の音声認識のスコアから得られる前記音声認識結果の事後確率とを用いて定められる評価関数により算出される評価値に基づいて、前記正解単語列の事後確率が最大、あるいは、前記音声認識結果の認識誤りが最小となるように前記言語的な特徴の重みを統計的に算出する、ことを特徴とする。
この発明によれば、音声認識装置は、音声認識結果に含まれる単語誤り数と、誤り修正モデルにより修正された音声認識結果及び正解単語列の音声認識のスコアから得られる音声認識結果の事後確率とを用いて定められる評価関数により算出した評価値が、正解単語列の事後確率が最大であることを示す評価値、あるいは、音声認識結果の期待される認識誤りが最小であることを示す評価値となるように言語的な特徴の重みを決定し、誤り修正モデルを更新する。
これにより、音声認識装置は、言語的な特徴の重みを効率的に学習し、誤り修正モデルを更新することができる。
本発明の一態様は、コンピュータを、統計的音響モデルを記憶する音響モデル記憶手段と、統計的言語モデルを記憶する言語モデル記憶手段と、単語及び単語が属するクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルを記憶する誤り修正モデル記憶手段と、音声データと正解単語列とを含む学習データから単語及び単語のクラスに基づく統計的言語モデルを学習し、学習した前記統計的言語モデルに含まれるクラスに属する単語のリストを音声認識対象に応じて書き換えて前記言語モデル記憶手段に書き込むクラスモデル作成手段と、入力された音声データを、前記音響モデル記憶手段が記憶している前記統計的音響モデル、前記言語モデル記憶手段が記憶している前記統計的言語モデル、及び前記誤り修正モデル記憶手段が記憶している前記誤り修正モデルを用いて音声認識し、音声認識の結果得られた単語列である音声認識結果を出力する音声認識手段と、前記音声認識手段から出力された前記音声認識結果をユーザーの入力に従って修正し、正解単語列を生成する誤り修正手段と、前記誤り修正手段が生成した前記正解単語列に含まれる各単語を前記音声データに基づいて時刻順に整列する整列手段と、前記音声データが入力されるたびに、前記音声認識手段により前記音声データから得られた前記音声認識結果と前記整列手段が整列させた前記正解単語列とのそれぞれに含まれる単語及び単語が属するクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて前記誤り修正モデル記憶手段に記憶されている前記誤り修正モデルを逐次更新する誤り修正モデル学習手段と、を具備する音声認識装置として機能させるためのプログラムである。
本発明によれば、学習データの語彙と音声認識させたい語彙とが異なる場合でも、音声認識対象に適合した誤り修正モデルを学習することができる。
本発明の一実施形態における誤り修正モデルの学習方法と、従来の誤り修正モデルの学習方法との比較を示す図である。 同実施形態における音声認識装置の構成を示す機能ブロック図である。 同実施形態による音声認識装置の全体処理フローを示す図である。 同実施形態による誤り修正モデル学習部の誤り修正モデル学習処理フローを示す図である。
以下、図面を参照しながら本発明の実施形態を詳細に説明する。
[1. 本実施形態の概要]
音声認識では、学習データの語彙と音声認識の対象の音声(発話内容)の語彙とが完全に一致することは少ない。例えば、スポーツ中継の音声を音声認識対象とする場合、学習データ中に含まれる選手の名前の中に、スポーツ中継の対象となる試合に出場する選手の名前が含まれていないことがある。
統計的言語モデルにおいて、上記のような学習データと対象音声との間のミスマッチを解消する際には一般に、単語及び単語のクラスを利用したクラス言語モデルが使われる。スポーツ中継の例にならえば、仮に学習データ中に音声認識対象となる選手名が出現していなかったとしても、選手名が属するクラスに適当な確率を与えた上で当該選手名を語彙に登録しておけば、選手名をクラスに置き代えることによって単語の出現確率を定めることが可能である。しかし、選手名の出現確率を適切に推定できなければ、出場する選手の数が多数の場合には、選手名の単語どうしで競合が起こり、正しい認識結果が得られないかもしれない。例えば、同音の姓でありながら異なる表記を持つような選手名を考えてみれば容易に想像がつくことである。
字幕制作を目的とした音声認識アプリケーションでは、リアルタイムに音声認識結果を出力したのち、人手により誤りを修正する。クラス言語モデルでは、クラスに属する各単語の出現確率を必要とするが、人手による修正を経た認識結果を正解とみなせば、この出現確率を逐次的かつ認識誤りが最小となるように学習し、適応化することが可能となる。このような誤り修正モデルが実現できれば、従来の誤り修正モデルよりも音声認識性能の向上が見込まれるため、前述の字幕制作をはじめとする産業上の応用が大いに期待できる。
そこで、本発明の一実施形態の音声認識装置は、事前に定義した単語クラスとクラス言語モデルを用いて、対象となる放送番組を音声認識しながら逐次的に誤り修正モデルを学習し、音声認識に適用する。
[2. 誤り修正モデルの学習アルゴリズム]
続いて、本実施形態の音声認識装置に適用される誤り修正モデルの学習アルゴリズムを説明する。
本実施形態の音声認識装置は、音声認識において、少量の学習データもしくは断片的な情報しか得られない場合でも、単語の属性に応じたクラスに基づく誤り修正モデルを逐次的かつ統計的に頑健に学習し、音声認識に適用する。
音声認識では、統計的言語モデルを用いて単語の予測を行う。しかし、先述のスポーツ中継の例に見られるように、言語モデルの学習データの中に認識させたい単語が含まれていないことがある。このような場合には、統計的言語モデルとして、単語に基づく言語モデルのかわりに単語と単語のクラスに基づくクラス言語モデルが使われることが多い。認識させたい語が学習データに含まれていない場合、その語が含まれるクラスからの出現確率をヒューリスティックに定めることにより、単語の予測が可能となる。例えば、スポーツ中継などでは、出場選手の名前などの断片的な情報しか入手できないことも多い。これは特定の選手が具体的にどのようなプレーを行うのか、選手名を含むテキストもしくは単語列としての情報が得られないため、前後の単語列から選手名の予測を行うことが困難であることを示す。一方、どのようなプレーが行われるか(「ゴールした」「オフサイド」など)は、個々の出場選手にはほとんど依存しないため、過去に行われた試合の放送字幕等から推定できる。
学習データからは、過去のプレーに関するテキスト(単語列)は得られるものの、各選手に関する具体的なテキスト(選手名を含む文脈)は得られない。このようなケースでは、選手名のクラスを用意した上で、認識させたい(出場予定の)選手名をクラスから出現する確率があるものとして予め適当に設定することで、選手名の単語予測を行う。
文献「北 研二,”確率的言語モデル”,東京大学出版会,1999年,p.72−74」によれば、単語の属性に応じたクラスが与えられたときのn−gram言語モデル(クラス言語モデル)は一般に、以下の式(1)により表される。
Figure 2015141253
式(1)において、wは予測単語、hは予測単語wの直前の単語列、cは予測単語wが所属するクラスである。また、P(w|h)は、直前の単語列hが与えられたときに単語wが出現する事後確率、p(w|c)は、予測単語wがクラスcから生起する確率(クラスからの出現確率)、p(c|h)は、直前の単語列hが与えられたときにクラスcが出現する事後確率である。ただし、式(1)では、単語が属するクラスは高々1つと仮定している。
一方、誤り修正モデルを推定するための従来の方法では、音声認識の誤り傾向を学習するために音声認識結果および正解単語列を学習データとして用いる。したがって、音声認識結果もしくは正解単語列中に認識させたい選手名が出現しなければ、選手名に関する音声認識の誤り傾向は学習できない。この欠点を改善するために、本実施形態の音声認識装置は、単語及び単語のクラスに基づく統計的言語モデルを用いて、現在音声認識している放送音声およびその修正結果(正解単語列)から音声認識の誤り傾向を逐次的に学習し、発話内容に適応した誤り修正モデルを学習する。
ここで、従来の誤り修正モデルについて説明する。
ベイズの定理によれば、音声入力xが与えられたとき、この音声入力xに対して尤もらしい単語列w^(「^」は、「ハット」を表す。)は、以下の式(2)により求めることができる。
Figure 2015141253
音声入力x及び単語列wは、例えば、発話の単位に対応し、P(w|x)は、音声入力xが与えられたときに単語列(文仮説)wが得られる事後確率である。
P(x|w)は、単語列wに対する音響的な尤もらしさを示す尤度であり、そのスコアは隠れマルコフモデル(Hidden Markov Model、HMM)及びガウス混合分布(Gaussian Mixture Model、GMM)に代表される統計的音響モデルに基づいて計算される。
P(w)は、単語列wに対する言語的な尤もらしさであり、そのスコアは、単語またはクラスn−gram言語モデル等の統計的言語モデルにより計算される。なお、単語またはクラスn−gram言語モデルは、N項の単語またはN項の単語及びクラスの連鎖(Nは、例えば1、2、または3である。)の統計に基づいて、(N−1)項の単語または(N−1)項の単語及びクラスの履歴から次の単語またはクラスの生起確率を与えるモデルである。
以下の説明では、統計的音響モデルにHMM−GMMを用い、統計的言語モデルにクラスn−gram言語モデルを用いる。
式(2)のP(x|w)P(w)が最大の場合は、その対数も最大である。そこで、音声認識では、上記の式(2)のベイズの定理に基づいて、音声入力xが与えられたときの文仮説(正解候補)である単語列wの評価関数s(w|x)を以下の式(3)のように定める。
Figure 2015141253
式(3)において、fam(x|w)は統計的音響モデルによる正解候補の単語列wの対数音響スコア、flm(w)は統計的言語モデルによる正解候補の単語列wの対数言語スコア、λlmは音響スコアに対する言語スコアの重みである。
式(3)が定められたとき、以下の式(4)に示すように、音声入力xに対する正解候補の単語列wの集合Wの中から、式(3)が示す評価関数s(w|x)の結果が最大である最尤仮説の単語列w^が、音声入力xの音声認識結果として選択される。
Figure 2015141253
従来法における誤り修正モデルでは、式(4)に代えて、以下の式(5)により最尤仮説の単語列w^を求める。
Figure 2015141253
式(5)におけるΣλ(w)は、単語列wの誤り傾向を反映したスコアであり、単語列wに対するペナルティもしくは報償として働く。f(i=1,...,)はi番目の素性関数であり、λは素性関数fの重み(素性重み)である。素性関数は、与えられた単語列wで言語的ルールが成立すればその数となり、成立しなければ0となるような関数として定められる。
従来法における素性関数fの言語的ルールである素性の例として、以下の(1a)、(1b)に示すような、単語の共起関係に基づくものがある。
(1a)単語列wに含まれる単語2つ組(u,v)の数
(1b)単語列wに含まれる連続しない単語2つ組(u,v)の数
上記のように、音声認識の誤り傾向は、素性関数とその重みにより言語的な特徴に対するペナルティとして表現され、学習データの単語誤りを最小化する評価関数に基づいて推定される。
前述のように、通常の単語n−gram言語モデルでは、学習データ中に認識させたい語が含まれない場合に確率の推定が困難となる。そこで、本実施形態の音声認識装置は、単語及びクラスに基づくn−gram言語モデル(クラスn−gram言語モデル)を統計的言語モデルとして用いる。クラスn−gram言語モデルでは、クラスに属する単語については前記の式(1)を適用してP(w|h)を得、クラスに属していない単語については、単語n−gram言語モデルと同様に予め与えられたP(w|h)を適用する。
なお、単語wが属するクラスcは任意に決めてよい。一般には、単語頻度に基づいて統計的手段によりクラスタリングを行って各単語が属するクラスを決定する。しかし、本実施形態では、音声認識の対象となる単語が学習データ中で観測されないことを前提とするため、ヒューリスティクスに基づいて単語を分類する。例えば、人手により選手名やチーム名といったクラスを定め、そのクラスに属する単語とそのクラスにおける各単語の出現確率とを列挙する。なお、本実施形態では、1つの単語は1つのクラスにのみ属するものと仮定する。
そこで、本実施形態では、従来法に基づく式(5)の誤り修正モデルを以下の式(6)のように変更する。
Figure 2015141253
式(6)において、f、g、hは素性関数であり、λは素性関数fの重み、μは素性関数gの重み、νは素性関数hの重みである。これらの重みλ、μ、νは、誤り修正モデルのモデルパラメータ(素性重み)である。
式(6)の素性関数fは、上述した(a1)、(a2)の例ように、与えられた単語列で言語的ルールが成立すればその数を、成立しなければ0となるような関数として定められる従来の素性関数である。
式(6)の素性関数gは、クラスを用いることにより導入される素性関数であり、単語のクラスと当該単語に隣接する単語列との共起を素性とする。具体的には、素性関数gは、以下の(2a)、(2b)のようなルールを素性とする。
(2a)単語列wに含まれる連続する単語・クラスの2つ組(u,o(v))の数
(2b)単語列wに含まれる連続する単語・クラスの3つ組(u,v,o(z))の数
ここで、o(・)は、ある単語をクラスに写す関数であり、u、v、zは連続する単語である。上記の素性は、直前の単語(品詞または意味カテゴリ)列とクラスとの共起関係を記述した素性関数といえる。なお、ここでの単語列は、1以上の単語からなる。
式(6)の素性関数hは、以下の(3)のようなルールを素性とする新たに定める素性関数である。
(3)単語列wに含まれるクラスcに属する単語uの数
図1は、本実施形態の誤り修正モデルの学習方法と、従来の誤り修正モデルの学習方法との比較を示す図である。従来法においては、単語n−gramに基づく統計的言語モデルの利用を前提としており、そこで利用される素性関数は同図に例示する(鈴木,が,ゴール)のように、単語3つ組など単語列に依存した素性を定義する。
一方、本実施形態では、単語及びクラスに基づく統計的言語モデルの利用を前提としているため、単語の一部がクラスとして表現される。そこで、本実施形態では、クラスを含んだ単語列に基づく素性関数gを用いる。同図の例では、単語「鈴木」がクラス<選手>に置換されており、例えば、単語とクラスの3つ組(<選手>,が,ゴール)を素性とする素性関数gが用いられる。
また、音声認識することにより、これらのクラスは実現値として特定の単語のインスタンスを持つこととなるため、音声認識結果とその修正結果である正解単語列からは、従来の単語3つ組による素性関数fを得ることができる。同図の例では、クラス<選手>のインスタンスは、音声認識結果においては単語「中村」であり、正解単語列では単語「中山」である。そのため、単語3つ組(中村,が,ゴール)、(中山,が,ゴール)を素性とする素性関数fが用いられる。
さらに、クラスから特定の単語のインスタンスが生起する関係が、新たな素性関数hとして定義される。例えば、クラス<選手>に属する単語「中村」が単語列に出現する数、クラス<選手>に属する単語「中山」が単語列に出現する数を素性とする素性関数hが用いられる。
本実施形態の音声認識装置は、これらの素性関数f、g、hを用いて誤り修正モデルを学習するが、この学習を、音声認識結果とその修正結果を用いて逐次的に行う。
音声認識結果をwhyp、音声認識結果の修正結果である正解単語列をwrefとする。音声認識では、ベイズの定理により事後確率が最大となる音声認識結果の単語列を正解として出力する。したがって、音声入力xが与えられたときの正解単語列wrefの事後確率P(wref|x)は、認識誤りを含む音声認識結果whypの事後確率P(whyp|x)よりも大きくなることが望ましい。しかし、音声認識のパフォーマンスは、単語認識率(もしくはこれと等価な単語誤り率)によって測られるため、誤り修正モデルでは、誤りが最小となるように正解単語列wrefの事後確率を最大化することが必要となる。そこで、音声認識対象として音声入力xが与えられたとき、対応する正解単語列をwref、音声入力xの音声認識結果をwhyp∈Wとして、モデルパラメータの集合である素性重みΛ={…,λ,…,μ,…,ν,…}を推定するための目的関数を以下の式(7)のように定める。
Figure 2015141253
式(7)において、R(wref,whyp)は、正解単語列wrefと音声認識結果whypの編集距離を返す関数である。2つの単語列の編集距離は、動的計画法により効率的に求めることができる。編集距離は、正解単語列wrefに対する音声認識結果whypの誤り単語数(置換、脱落、挿入の誤りの総和)を表しており、式(7)の目的関数L(Λ)は、音声認識結果における単語の期待誤り数を表している。音声認識結果における単語の期待誤り数が少ないほど、音声認識において認識誤りを生じることなく認識結果を生成できる。よって、目的関数L(Λ)を最小化するように素性重みΛの各モデルパラメータを推定すれば、音声認識の性能向上が期待できる。つまり、式(7)の目的関数は、正解単語列の事後確率が最大、かつ、音声認識結果の単語列に期待される認識誤りが最小となり、モデルパラメータΛが適切であるかの評価値を算出する評価関数として用いられる。
式(7)の目的関数L(Λ)を最小化するために勾配を計算すると以下の式(8)から式(10)のようになる。
Figure 2015141253
Figure 2015141253
Figure 2015141253
音声入力を…,xt−1,x,…とすれば、(t−1)番目の音声入力xt−1を音声認識した後のパラメータ更新式は、確率的勾配降下法により以下の式(11)から式(13)となる。なお、λ t−1、μ t−1、ν t−1はそれぞれ、音声入力xt−1の音声認識前に得られていたモデルパラメータλ、μ、νである。また、λ 、μ 、ν はそれぞれ、音声入力xt−1の音声認識後に得られる更新後のモデルパラメータλ、μ、νである。κλ、κμ、κνは定数である。
Figure 2015141253
Figure 2015141253
Figure 2015141253
誤り傾向の学習とは、音声データの音声認識結果とその正解単語列を学習データとして用い、式(6)の素性関数f、g、hとそれらそれぞれのモデルパラメータλ、μ、νの集合である素性重みΛを求めることである。
上述のように、本実施形態の音声認識装置は、従来の単語に基づく統計的言語モデルではなく、単語及びクラスに基づく統計的言語モデルを誤り修正モデルに用いる。そして、本実施形態の音声認識装置は、発話内容に適応させるために、音声認識結果を逐次取得して単語及びクラスに基づく誤り修正モデルのモデルパラメータを推定する。本実施形態の音声認識装置は、この逐次推定によって、発話内容に適合し、かつ認識させたい語の誤り傾向を反映した誤り修正モデルを得る。本実施形態の音声認識装置は、逐次推定された誤り修正モデルを用いて音声認識を行うことにより音声認識の誤り傾向を修正し、音声認識性能を改善することが可能となる。
[3. 音声認識装置の構成]
図2は、本発明の一実施形態による音声認識装置1の構成を示す機能ブロック図であり、本実施形態と関係する機能ブロックのみ抽出して示してある。
音声認識装置1は、コンピュータ装置により実現される。同図に示すように、音声認識装置1は、音声言語資源記憶部11、音響モデル記憶部12、言語モデル記憶部13、誤り修正モデル記憶部14、クラスモデル作成部21、音声認識部22、誤り修正部23、整列部24、特徴量抽出部25、及び誤り修正モデル学習部26を備えて構成される。
音声言語資源記憶部11は、学習データとして、音声データと、その音声データの書き起こし(正解単語列)のテキストデータとからなる音声言語資源を記憶する。本実施形態では、音声言語資源として、放送から収集された放送音声及び字幕データD1を用いる。音響モデル記憶部12は、統計的音響モデルを格納する。言語モデル記憶部13は、単語及び単語のクラスに基づく統計的言語モデルとして、クラス言語モデルを格納する。誤り修正モデル記憶部14は、誤り修正モデルを格納する。
クラスモデル作成部21は、音声言語資源記憶部11に記憶されている音声データから統計的音響モデルを作成し、音響モデル記憶部12に書き込む。さらにクラスモデル作成部21は、音声言語資源記憶部11に記憶されている音声言語資源のテキストデータからクラス言語モデルを作成する。クラスモデル作成部21は、各クラスに属する単語とその単語のクラスへの所属確率とを示す単語・クラスリストデータD2の入力を受け、作成したクラス言語モデルに含まれるクラスに属する単語のリストを書き換える。クラスモデル作成部21は、書き換え後のクラス言語モデルを言語モデル記憶部13に書き込む。
音声認識部22は、音響モデル記憶部12に記憶されている統計的音響モデル、言語モデル記憶部13に記憶されているクラス言語モデル、および誤り修正モデル記憶部14に記憶されている誤り修正モデルを用いて、音声データD3を音声認識する。この音声認識により、正解候補の単語列が複数得られる。音声認識部22は、正解候補の単語列である音声認識結果を複数設定した音声認識結果データD4を出力する。本実施形態では、放送字幕の制作を前提としているため、音声認識部22は、この音声認識結果データD4を誤り修正部23に出力する。誤り修正部23は、音声認識結果データD4が示す音声認識結果に対してユーザーの入力に従って人手により修正を行い、正解単語列を得る。誤り修正部23は、正解単語列を設定した正解単語列データD5を出力する。本実施形態では、正解単語列データD5は、放送局内で放送波に重畳され、放送字幕データD6として放送される。
整列部24は、正解単語列データD5が示す正解単語列を音声入力に対して時刻順に整列する。整列部24は、整列させた正解単語列を設定した整列済み正解単語列データD7を出力する。特徴量抽出部25は、音声認識結果データD4が示す音声認識結果と、整列済み正解単語列データD7が示す整列済みの正解単語列から、誤り修正モデルに用いる素性関数を抽出する。特徴量抽出部25は、抽出した素性関数を設定した素性関数データD8と、音声認識結果データD4及び整列済み正解単語列データD7とを出力する。
誤り修正モデル学習部26は、音声認識結果データD4が示す音声認識結果、整列済み正解単語列データD7が示す整列済みの正解単語列、及び、素性関数データD8が示す素性関数を用いて、誤り修正モデルのモデルパラメータΛを学習する。誤り修正モデル学習部26は、学習したモデルパラメータΛを用いた誤り修正モデルにより、誤り修正モデル記憶部14に現在記憶されている誤り修正モデルを更新する。
以下に、本実施形態の、音声認識装置1の各部の処理について詳細を述べる。
[4. 音声認識装置の処理手順]
図3は、音声認識装置1の処理手順を示す図である。同図に示す一連の処理は、音声認識装置1に、音声認識対象の放送番組の音声データD3が入力される度に逐次的に行うものとする。
図3の処理を実行する前にまず、音声言語資源記憶部11は、放送から収集された放送音声及び字幕データD1を蓄積する。この放送音声及び字幕データD1が示す放送字幕などのテキストデータに含まれる単語のうち、クラスに属する単語には、クラスを特定する情報を予め付加しておく。例えば、放送字幕などのテキストに含まれる人名などの固有名詞に、クラスを特定する情報を付与しておく。クラスを特定する情報として例えば、先の例のような“選手名”や“チーム名”といったクラス名を用いる。これらのクラス分類は、音声認識対象となる音声の種類により異なるため、テキストデータを形態素解析した際に得られる品詞に基づくなどして、タスクに応じてユーザーが決定し、付与する。
クラスモデル作成部21は、音声言語資源記憶部11に記憶されている音声データからGMM/HMMなどに基づく統計的音響モデルを作成し、音響モデル記憶部12に書き込む。さらに、クラスモデル作成部21は、音声言語資源記憶部11に蓄積されたテキストデータからクラス言語モデルとして、クラスn−gram言語モデルを生成する。クラスn−gram言語モデルは、クラスに属する単語が含まれない単語列については式(1)におけるP(w|h)を示し、クラスに属する単語が含まれる単語列については、式(1)におけるp(w|c)、及びp(c|h)を示す。ユーザーは、音声認識したい放送番組に関する事前の情報に基づいて、音声認識対象に応じたp(w|c)に相当する単語・クラスリストデータD2を作成し、音声認識装置1に入力する。具体的には、単語・クラスリストデータD2は、音声言語資源記憶部11に蓄積されたテキストデータ(字幕データ)に付随しているクラス名に応じて、そのクラス名のクラスに属する単語と、その単語のクラスへの所属確率との一覧を表形式で並べたものである。クラスモデル作成部21は、生成したクラスn−gram言語モデルに含まれるp(w|c)を、入力された単語・クラスリストデータD2が示すp(w|c)に書き換えて言語モデル記憶部13に書き込む。
[4.1 ステップS1:音声認識]
音声認識部22は、音響モデル記憶部12に記憶されている統計的音響モデル、言語モデル記憶部13に記憶されているクラス言語モデル、及び誤り修正モデル記憶部14に記憶されている式(6)に示すような誤り修正モデルを用いて、音声データD3の音声認識を行う。この際、音声認識部22は、小休止をはさんだ音声区間ごとに音声データD3を分割し、分割した音声区間を1つの処理単位である音声入力xとして音声認識する。このとき、音声認識部22は、クラス言語モデルが示す各クラスに属する単語の情報を用いて、音声認識結果に含まれる単語が属するクラスを得る。また、音声認識部22は、音声認識結果whypのスコアを、式(6)に示す誤り修正モデルのargmaxが対象としている評価関数を用いて算出する。つまり、音声認識部22は、以下の式(14)に示すように、音声認識結果whypについて{fam(x|whyp)+λlmlm(whyp)}により算出される音声認識のスコアを、誤り修正スコアにより修正した(対数)スコアs(whyp)を算出する。なお、誤り修正スコアは、{Σλ(whyp)+Σμ(whyp)+Σν(whyp)}に相当する。
Figure 2015141253
音声認識部22は、複数個の音声認識結果whypのもっともらしさの順序を、スコアs(whyp)の高い順に決定する。音声認識部22は、各音声認識結果whypにもっともらしさの順序と、(対数)音響スコアfam(x|whyp)、(対数)言語スコアflm(whyp)、及び誤り修正スコアを付与した音声認識結果データD4を出力する。このように、音声認識結果データD4が示す音声認識結果は、音声入力から得られた音声認識結果の選択における誤りを修正したものである。
[4.2 ステップS2:音声認識結果の誤り修正]
誤り修正部23は、音声認識部22から出力された音声認識結果データD4が示す音声認識結果whypのうち、もっともらしさの順位が最も高い音声認識結果を、キーボード等の図示しない入力手段によりユーザーが入力した指示に従って修正する。誤り修正部23は、修正結果である正解単語列wrefを設定した正解単語列データD5を出力する。正解単語列データD5は、放送局内で放送波に重畳され、放送字幕データD6として放送される。
[4.3 ステップS3:正解単語列の整列]
整列部24は、既存の技術により、正解単語列データD5が示す正解単語列wrefと、この正解単語列wrefに対応する音声入力xを用いて、正解単語列wrefを構成する各単語が発話された時刻(単語の開始・終了区間)を同定して整列する。この際、整列部24は、整列させた各単語について、音響モデル記憶部12に記憶されている統計的音響モデルによる音響スコア、及び、言語モデル記憶部13に記憶されているクラス言語モデルによる言語スコアを算出する。さらに、整列部24は、整列させた各単語について誤り修正スコアを算出する。具体的には、整列部24は、上述した式(14)の{Σλ(whyp)+Σμ(whyp)+Σν(whyp)}の部分に、音声認識結果whypに代えて正解単語列wrefの各単語を用いて誤り修正スコアを算出する。このとき、整列部24は、は、クラス言語モデルが示す各クラスに属する単語の情報を用いて、正解単語列wrefに含まれる単語が属するクラスを得る。整列部24は、整列させた単語からなる正解単語列wrefに各単語の音響スコア、言語スコア、及び誤り修正スコアを付加した整列済み正解単語列データD7を出力する。
[4.4 ステップS4:特徴量抽出]
特徴量抽出部25は、音声認識結果データD4が示す音声認識結果whypと、整列済み正解単語列データD7が示す整列済みの正解単語列wrefとから、言語的特徴に基づく素性関数を抽出する。本実施形態では、特徴量抽出部25は、以下のルールを素性とする素性関数を定義する。
特徴量抽出部25は、従来法と同様の単語列に基づいた以下の(1−1)、(1−2)のルールを素性とする素性関数fを定義する。
(1−1)正解単語列wrefに含まれる連続する単語2つ組(u,v)、単語3つ組(u,f,z)の数
(1−2)音声認識結果whypに含まれる連続する単語2つ組(u,v)、単語3つ組(u,f,z)の数
さらに、特徴量抽出部25は、以下の(2−1)、(2−2)のルールを素性とする素性関数gを定義する。
(2−1)正解単語列wrefに含まれる連続する単語・クラスの2つ組(u,o(v))、3つ組(u,v,o(z))の数
(2−2)音声認識結果whypに含まれる連続する単語・クラスの2つ組(u,o(v))、3つ組(u,v,o(z))の数
なお、o(・)は、単語をクラスに写す関数である。この関数の値は、言語モデル記憶部13に記憶されているクラス言語モデルが示す、各クラスに属する単語の情報を用いて得られる。例えばこのクラスは、選手名やチーム名などの固有名詞に基づいて分類されるクラスを指す。また、これら固有名詞は1単語につき1つのクラスに分類され、複数のクラスには属さないものと仮定する。
加えて、特徴量抽出部25は、以下の(3−1)、(3−2)に示すルールを素性とする素性関数hを定義する。
(3−1)正解単語列wrefに含まれるクラスo(u)に属する単語uの数
(3−2)音声認識結果whypに含まれるクラスo(u)に属する単語uの数
特徴量抽出部25は、定義した素性関数f、g、hを設定した素性関数データD8と、音声認識結果データD4及び整列済み正解単語列データD7とを誤り修正モデル学習部26に出力する。
[4.5 ステップS5:誤り修正モデル学習]
誤り修正モデル学習部26は、音声認識結果データD4が示す音声認識結果whyp、整列済み正解単語列データD7が示す整列済みの正解単語列wref、および、素性関数データD8が示す素性関数f、g、hを利用して誤り修正モデルを更新(学習)する。
図4は、誤り修正モデル学習部26による誤り修正モデル学習処理を示すフローチャートを示す図である。誤り修正モデルの学習は、音声データD3が与えられるたびに逐次的に行われる。誤り修正モデル学習部26は、学習により得られた誤り修正モデルにより、誤り修正モデル記憶部14に記憶されている誤り修正モデルを更新する。したがって、誤り修正モデル学習部26は、第1回目の素性関数の重み(モデルパラメータ)を学習する際は、モデルパラメータに対して適当な初期値を与えるか、音声言語資源記憶部11のデータを用いて、静的に誤り修正モデルを求めておく。本実施形態では、簡便のためすべてのモデルパラメータをゼロとおき、初期モデルと定める。
誤り修正モデル学習部26は、音声認識結果データD4、整列済み正解単語列データD7、及び素性関数データD8が入力されると、特徴量抽出部25が抽出した素性関数を利用した誤り修正モデルが用いる評価関数として、以下の式(15)を生成する。式(15)における素性関数f、g、hは、これまでに特徴量抽出部25から出力された素性関数データD8に設定された素性関数である。換言すれば、式(15)における素性関数f、g、hは、誤り修正モデル記憶部14に現在記憶されている誤り修正モデルの素性関数f、g、hに、入力された素性関数データD8から取得した新たな素性関数f、g、hを加えたものである。
Figure 2015141253
式(7)の目的関数L(Λ)を計算するために、音声入力xに対するn=1,...,N番目の音声認識結果whypそれぞれについて、正解単語列wrefとの間の編集距離と、事後確率を計算する必要がある。音声入力xが与えられたときの音声認識結果whypの事後確率P(whyp|x)は、以下の式(16)により算出されるスコアの総和Zを用いて、式(17)により算出される。式(17)におけるexp内の式は、式(15)における単語列wを音声認識結果whypとしたものである。
Figure 2015141253
Figure 2015141253
そこでまず、誤り修正モデル学習部26は、nに初期値1を設定する(ステップS51)。また、誤り修正モデル学習部26は、整列済み正解単語列データD7から正解単語列wrefと、正解単語列wrefの各単語の音響スコア及び言語スコアを読み出す。誤り修正モデル学習部26は、読み出した音響スコア及び言語スコアを用いて、式(15)によりスコアs(wref)を算出する。このとき、誤り修正モデル学習部26は、クラス言語モデルが示す各クラスに属する単語の情報を用いて、正解単語列wrefに含まれる単語が属するクラスを得る。誤り修正モデル学習部26は、算出したスコアs(wref)をZの初期値とする。
誤り修正モデル学習部26は、音声認識結果データD4からn番目の音声認識結果whypと、音響スコアfam(x|whyp)及び言語スコア音響スコアflm(whyp)を読み出す。誤り修正モデル学習部26は、音響スコアfam(x|whyp)及び言語スコアflm(whyp)を用いて、式(15)によりスコアs(whyp)を算出する。このとき、誤り修正モデル学習部26は、クラス言語モデルが示す各クラスに属する単語の情報を用いて、音声認識結果whypに含まれる単語が属するクラスを得る。誤り修正モデル学習部26は、現在のZの値を、n番目の音声認識結果whypについて算出したスコアs(whyp)を加算した値に更新し、記憶しておく(ステップS52)。誤り修正モデル学習部26は、n番目の音声認識結果whypと正解単語列wrefとを比較して編集距離R(wref,whyp)を計算し、記憶しておく(ステップS53)。誤り修正モデル学習部26は、nの値がNに達していなければ、nに1を加算し、ステップS52及びステップS53の処理を実行する(ステップS54)。
nの値がNに達し、正解単語列wrefとN個のすべての音声認識結果whypとのスコアの総和Z、および、N個のすべての音声認識結果whypそれぞれと正解単語列wrefとの編集距離R(wref,whyp)を求めた後、誤り修正モデル学習部26は、以下のように事後確率と期待誤り数を計算する。
誤り修正モデル学習部26は、nに初期値1を設定する(ステップS55)。誤り修正モデル学習部26は、n番目の音声認識結果whypとスコアの総和Zを用い、式(17)により事後確率P(whyp|x)を算出する(ステップS56)。誤り修正モデル学習部26は、n番目の音声認識結果whypについてステップS53において計算した編集距離R(wref,whyp)と、ステップS56において算出した事後確率P(whyp|x)とを用い、式(18)により期待誤り数Lを計算する(ステップS57)。
Figure 2015141253
誤り修正モデル学習部26は、nの値がNに達していなければ、nに1を加算し、ステップS56及びステップS57の処理を実行する(ステップS58)。
nの値がNに達した場合、誤り修正モデル学習部26は、ステップS57で計算した期待誤り数Lを用いて、以下の式(19)から式(21)により、各モデルパラメータλ,μ,νそれぞれの変化分(勾配)∂L(Λ)/∂λ、∂L(Λ)/∂μ、∂L(Λ)/∂νを計算する(ステップS59)。なお、誤り修正モデル学習部26は、素性関数f(w’)、g(w’)、h(w’)の値を、w’に相当する音声認識結果whypから算出する。
Figure 2015141253
Figure 2015141253
Figure 2015141253
誤り修正モデル学習部26は、ステップS59において計算した勾配∂L(Λ)/∂λ、∂L(Λ)/∂μ、∂L(Λ)/∂νを用いて、以下の式(22)から式(24)により、モデルパラメータλ ,μ ,ν を計算する。
Figure 2015141253
Figure 2015141253
Figure 2015141253
なお、モデルパラメータλ ,μ ,ν はそれぞれ、更新後のモデルパラメータλ,μ,νである。また、モデルパラメータλ t−1,μ t−1,ν t−1はそれぞれ、前回の推定で求めたモデルパラメータλ,μ,νであり、現在誤り修正モデル記憶部14に記憶されている誤り修正モデルのモデルパラメータである。κλ、κμ、κνは予め決められた定数である。
誤り修正モデル学習部26は、式(15)に、式(22)から式(24)により算出したモデルパラメータλ ,μ ,ν を設定した評価関数を生成する。誤り修正モデル学習部26は、式(6)のargmaxが対象としている評価関数に、生成した評価関数を用いて誤り修正モデルを更新し、誤り修正モデル記憶部14に現在記憶されている誤り修正モデルを、更新した誤り修正モデルに置き換える(ステップS60)。誤り修正モデル学習部26は、図4の処理を終了する。
[5. 効果]
本実施形態によれば、音声認識装置1は、クラスモデルによる素性を用いることで、学習データ中に認識させたい単語が出現しなくても、頑健な誤り修正モデルを構成可能となり、従来よりも認識誤りが削減される。
[6. その他]
なお、上述の音声認識装置1は、内部にコンピュータシステムを有している。そして、音声認識装置1の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいうコンピュータシステムとは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持しているものも含むものとする。また上記プログラムは、前述した機能の一部を実現するためのものであっても良く、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるものであっても良い。
1…音声認識装置、11…音声言語資源記憶部、12…音響モデル記憶部、13…言語モデル記憶部、14…誤り修正モデル記憶部、21…クラスモデル作成部、22…音声認識部、23…誤り修正部、24…整列部、25…特徴量抽出部、26…誤り修正モデル学習部

Claims (5)

  1. 統計的音響モデルを記憶する音響モデル記憶部と、
    統計的言語モデルを記憶する言語モデル記憶部と、
    単語及び単語が属するクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルを記憶する誤り修正モデル記憶部と、
    音声データと正解単語列とを含む学習データから単語及び単語のクラスに基づく統計的言語モデルを学習し、学習した前記統計的言語モデルに含まれるクラスに属する単語のリストを音声認識対象に応じて書き換えて前記言語モデル記憶部に書き込むクラスモデル作成部と、
    入力された音声データを、前記音響モデル記憶部が記憶している前記統計的音響モデル、前記言語モデル記憶部が記憶している前記統計的言語モデル、及び前記誤り修正モデル記憶部が記憶している前記誤り修正モデルを用いて音声認識し、音声認識の結果得られた単語列である音声認識結果を出力する音声認識部と、
    前記音声認識部から出力された前記音声認識結果をユーザーの入力に従って修正し、正解単語列を生成する誤り修正部と、
    前記誤り修正部が生成した前記正解単語列に含まれる各単語を前記音声データに基づいて時刻順に整列する整列部と、
    前記音声データが入力されるたびに、前記音声認識部により前記音声データから得られた前記音声認識結果と前記整列部が整列させた前記正解単語列とのそれぞれに含まれる単語及び単語が属するクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて前記誤り修正モデル記憶部に記憶されている前記誤り修正モデルを逐次更新する誤り修正モデル学習部と、
    を備えることを特徴とする音声認識装置。
  2. 前記言語的な特徴は、単語が属する前記クラスと当該単語に隣接する単語列との共起、あるいは、前記クラスに属する所定の単語の出現数である、
    ことを特徴とする請求項1に記載の音声認識装置。
  3. 前記誤り修正モデルは、前記統計的音響モデルに基づいて得られる前記音声認識結果の音響スコアと、前記統計的言語モデルに基づいて得られる前記音声認識結果の言語スコアとにより算出される前記音声認識結果の音声認識のスコアを、重み付けされた前記言語的な特徴により修正する式である、
    ことを特徴とする請求項1または請求項2に記載の音声認識装置。
  4. 前記誤り修正モデル学習部は、前記正解単語列との比較により得られる前記音声認識結果の単語誤り数と、前記誤り修正モデルにより修正された前記音声認識結果及び前記正解単語列の音声認識のスコアから得られる前記音声認識結果の事後確率とを用いて定められる評価関数により算出される評価値に基づいて、前記正解単語列の事後確率が最大、あるいは、前記音声認識結果の認識誤りが最小となるように前記言語的な特徴の重みを統計的に算出する、
    ことを特徴とする請求項3に記載の音声認識装置。
  5. コンピュータを、
    統計的音響モデルを記憶する音響モデル記憶手段と、
    統計的言語モデルを記憶する言語モデル記憶手段と、
    単語及び単語が属するクラスに基づく言語的な特徴により音声認識における単語の誤り傾向を修正するための誤り修正モデルを記憶する誤り修正モデル記憶手段と、
    音声データと正解単語列とを含む学習データから単語及び単語のクラスに基づく統計的言語モデルを学習し、学習した前記統計的言語モデルに含まれるクラスに属する単語のリストを音声認識対象に応じて書き換えて前記言語モデル記憶手段に書き込むクラスモデル作成手段と、
    入力された音声データを、前記音響モデル記憶手段が記憶している前記統計的音響モデル、前記言語モデル記憶手段が記憶している前記統計的言語モデル、及び前記誤り修正モデル記憶手段が記憶している前記誤り修正モデルを用いて音声認識し、音声認識の結果得られた単語列である音声認識結果を出力する音声認識手段と、
    前記音声認識手段から出力された前記音声認識結果をユーザーの入力に従って修正し、正解単語列を生成する誤り修正手段と、
    前記誤り修正手段が生成した前記正解単語列に含まれる各単語を前記音声データに基づいて時刻順に整列する整列手段と、
    前記音声データが入力されるたびに、前記音声認識手段により前記音声データから得られた前記音声認識結果と前記整列手段が整列させた前記正解単語列とのそれぞれに含まれる単語及び単語が属するクラスに基づく言語的な特徴から単語誤りの傾向を学習し、学習した単語誤りの傾向に応じて前記誤り修正モデル記憶手段に記憶されている前記誤り修正モデルを逐次更新する誤り修正モデル学習手段と、
    を具備する音声認識装置として機能させるためのプログラム。
JP2014012766A 2014-01-27 2014-01-27 音声認識装置、及びプログラム Active JP6366166B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014012766A JP6366166B2 (ja) 2014-01-27 2014-01-27 音声認識装置、及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014012766A JP6366166B2 (ja) 2014-01-27 2014-01-27 音声認識装置、及びプログラム

Publications (2)

Publication Number Publication Date
JP2015141253A true JP2015141253A (ja) 2015-08-03
JP6366166B2 JP6366166B2 (ja) 2018-08-01

Family

ID=53771662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014012766A Active JP6366166B2 (ja) 2014-01-27 2014-01-27 音声認識装置、及びプログラム

Country Status (1)

Country Link
JP (1) JP6366166B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10276151B2 (en) 2016-06-29 2019-04-30 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
CN111652130A (zh) * 2020-06-02 2020-09-11 上海语识信息技术有限公司 一种非特定字体的数字、符号和字母组的识别方法
US20210090576A1 (en) * 2019-09-19 2021-03-25 Giving Tech Labs, LLC Real Time and Delayed Voice State Analyzer and Coach
CN113168836A (zh) * 2018-09-27 2021-07-23 株式会社OPTiM 计算机系统、语音识别方法以及程序

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058341A (ja) * 2006-08-29 2008-03-13 Nippon Hoso Kyokai <Nhk> 単語分類装置及び音声認識装置及び単語分類プログラム
JP2008216341A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 誤り傾向学習音声認識装置及びコンピュータプログラム
JP2011524991A (ja) * 2008-04-15 2011-09-08 モバイル テクノロジーズ,エルエルシー 現場にて音声−音声翻訳をメンテナンスするシステム及び方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008058341A (ja) * 2006-08-29 2008-03-13 Nippon Hoso Kyokai <Nhk> 単語分類装置及び音声認識装置及び単語分類プログラム
JP2008216341A (ja) * 2007-02-28 2008-09-18 Nippon Hoso Kyokai <Nhk> 誤り傾向学習音声認識装置及びコンピュータプログラム
JP2011524991A (ja) * 2008-04-15 2011-09-08 モバイル テクノロジーズ,エルエルシー 現場にて音声−音声翻訳をメンテナンスするシステム及び方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
小林 彰夫 AKIO KOBAYASHI: ""報告 単語誤り最小化に基づく識別的リスコアリングによる音声認識 Discriminative Rescoring Based on Mi", NHK技研R&D NO.131 (2012-01-15), JPN6017041858, 15 January 2012 (2012-01-15), JP, pages 28 - 39, ISSN: 0003673327 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10276151B2 (en) 2016-06-29 2019-04-30 Samsung Electronics Co., Ltd. Electronic apparatus and method for controlling the electronic apparatus
CN113168836A (zh) * 2018-09-27 2021-07-23 株式会社OPTiM 计算机系统、语音识别方法以及程序
CN113168836B (zh) * 2018-09-27 2024-04-23 株式会社OPTiM 计算机系统、语音识别方法以及程序产品
US20210090576A1 (en) * 2019-09-19 2021-03-25 Giving Tech Labs, LLC Real Time and Delayed Voice State Analyzer and Coach
CN111652130A (zh) * 2020-06-02 2020-09-11 上海语识信息技术有限公司 一种非特定字体的数字、符号和字母组的识别方法
CN111652130B (zh) * 2020-06-02 2023-09-15 上海语识信息技术有限公司 一种非特定字体的数字、符号和字母组的识别方法

Also Published As

Publication number Publication date
JP6366166B2 (ja) 2018-08-01

Similar Documents

Publication Publication Date Title
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
Mangu et al. Finding consensus in speech recognition: word error minimization and other applications of confusion networks
US8019602B2 (en) Automatic speech recognition learning using user corrections
JP6047364B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
CN108899013B (zh) 语音搜索方法、装置和语音识别系统
JP6051004B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP4852448B2 (ja) 誤り傾向学習音声認識装置及びコンピュータプログラム
JP5932869B2 (ja) N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
US8494847B2 (en) Weighting factor learning system and audio recognition system
JP6031316B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
Elsner et al. Bootstrapping a unified model of lexical and phonetic acquisition
CN112861521B (zh) 语音识别结果纠错方法、电子设备及存储介质
JP6810580B2 (ja) 言語モデル学習装置およびそのプログラム
JP6366166B2 (ja) 音声認識装置、及びプログラム
JP2004226982A (ja) 隠れ軌跡隠れマルコフモデルを使用した音声認識の方法
JP5180800B2 (ja) 統計的発音変異モデルを記憶する記録媒体、自動音声認識システム及びコンピュータプログラム
JP6183988B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP5437204B2 (ja) 言語モデル処理装置および音声認識装置、ならびにプログラム
JP6300394B2 (ja) 誤り修正モデル学習装置、及びプログラム
JP2013117683A (ja) 音声認識装置、誤り傾向学習方法、及びプログラム
JP5723711B2 (ja) 音声認識装置および音声認識プログラム
JP2016024325A (ja) 言語モデル生成装置、およびそのプログラム、ならびに音声認識装置
JP6086714B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP7039511B2 (ja) モデル間距離を用いた発音評価用のプログラム、装置及び方法
JP2017151198A (ja) 音響モデル生成装置およびそのプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20161128

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171018

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171107

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171225

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180702

R150 Certificate of patent or registration of utility model

Ref document number: 6366166

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250