JPWO2008001486A1 - 音声処理装置およびプログラム、並びに、音声処理方法 - Google Patents

音声処理装置およびプログラム、並びに、音声処理方法 Download PDF

Info

Publication number
JPWO2008001486A1
JPWO2008001486A1 JP2008522291A JP2008522291A JPWO2008001486A1 JP WO2008001486 A1 JPWO2008001486 A1 JP WO2008001486A1 JP 2008522291 A JP2008522291 A JP 2008522291A JP 2008522291 A JP2008522291 A JP 2008522291A JP WO2008001486 A1 JPWO2008001486 A1 JP WO2008001486A1
Authority
JP
Japan
Prior art keywords
feature information
recognition
language
speech
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008522291A
Other languages
English (en)
Other versions
JP5223673B2 (ja
Inventor
山本 仁
山本  仁
三木 清一
清一 三木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2008522291A priority Critical patent/JP5223673B2/ja
Publication of JPWO2008001486A1 publication Critical patent/JPWO2008001486A1/ja
Application granted granted Critical
Publication of JP5223673B2 publication Critical patent/JP5223673B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

音声処理装置101は、入力された音声に対する音声認識処理の結果として得られた音声認識結果15から該音声認識結果15の特徴である認識素性情報を抽出する認識素性抽出部12と、予め登録された言語リソース14から該言語リソース14の特徴である言語素性情報を抽出する言語素性抽出部11と、抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデル16を求めるモデル学習部13とを備える。

Description

本発明は、音声をテキストデータ等の電子データに変換する音声認識技術に関し、特に、音声認識処理の結果を検証するための技術に関する。
音声認識装置は、音声認識処理の結果として、文法に適合しない単語列や正常な意味を成さない単語列である、いわゆる非文を出力することがある。従来、このような非文の原因となる認識誤りを検出するために、信頼度尺度に基づき認識結果の正誤を判別する方式が提案されている。この方式に関する技術として、例えば、後述の特許文献1に記載のものがある。
特許文献1に記載の技術は、認識結果を得る際に用いた音声認識手段に由来する複数の信頼度尺度を統合した信頼度モデルを用いてリスコアリングを行うものである。この技術による音声認識システムは、図6に示すように、入力音声の認識結果と、その特徴とを含む特徴量つき単語ネットワークとから、文仮説生成手段により特徴量つきの文仮説を複数生成する。そして、生成した文仮説と信頼度モデルとから信頼度計算手段によって各文仮説の信頼度を計算し、リスコアリング手段が、この信頼度に基づいて順位を変更した文仮説を音声認識結果として出力する。
一方、音声認識処理では、基準となる言語モデルを用いて音声をデータに変換するが、その言語モデルの精度を高めるために次のような技術が提案されている。例えば、後述の非特許文献1のように、大きく離れた単語の関係を用いる方法や、非特許文献2のように話題情報を用いて文書全体の最適化を図る方法、そして、非特許文献3のように、WWWから得られるコーパスを単語の出現確率の推定に使用する方法などがある。
特開2006−85012号公報 R. Lau, R. Rosenfeld, S. Roukos、"Trigger-Based Language Models: A Maximum Entropy Approach"、1993 IEEE International Conference on Acoustics, Speech, and Signal Processing 予稿集、(米国)、IEEE(Institute of Electrical and Electronics Engineers)、1993年、第2巻、pp.45-48 D. Gildea, T. Hofmann、"Topic-Based Language Models Using EM"、Sixth European Conference on Speech Communication and Technology (EUROSPEECH’99) 予稿集、ISCA(International Speech Communication Association)、1999年、pp.2167-2170 A. Berger and R. Miller、"Just-in-time Language Modeling"、1998 IEEE International Conference on Acoustics, Speech, and Signal Processing 予稿集、(米国)、IEEE(Institute of Electrical and Electronics Engineers)、1998年、第2巻、pp.705-708 J. Lafferty等、"Conditional Random Fields: Probabilistic Models for Segmenting and Labeling Sequence Data"、18th International Conference of Machine Learning 予稿集、2001年、pp.282-289
しかしながら、上記特許文献1に記載の信頼度モデルを利用した場合、音声認識結果の信頼度や言語的な正確度の評価に十分な精度が得られないおそれがある。その理由は、音声認識結果の信頼度評価に用いる特徴値として、認識計算時のスコアや単語ネットワークの複雑度といった、音声認識手段に由来する特徴の一部が考慮されるに過ぎないからである。そのため、現時点の話題や前後の文脈に適合しない単語、あるいは文法的に不適正な単語を含む非文が、音声認識結果に含まれることを回避し難いという問題がある。
また、非特許文献1乃至3に記載の方法には、それぞれ固有の利点があるものの、仮に、実用においてこれらを同時に言語モデルに適用しようとする場合は、モデル化の複雑さや、学習の精度および処理量などの点で取り扱いが容易ではない。
本発明は、上記課題に鑑みてなされたものであり、音声認識処理の認識結果を検証する精度を高め得る検証モデルを提供することを目的とする。
本発明に係る音声処理装置は、入力された音声に対する音声認識処理の結果として得られた認識結果データから該データの特徴である認識素性情報を抽出する手段と、予め登録された言語リソースから該言語リソースの特徴である言語素性情報を抽出する手段と、抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデルを求める手段とを備える。
本発明のプログラムは、コンピュータを上記音声処理装置として機能させる。
本発明の音声処理方法は、音声処理装置が、
入力された音声に対する音声認識処理の結果として得られた認識結果データから該データの特徴である認識素性情報を抽出するステップと、
予め登録された言語リソースから該言語リソースの特徴である言語素性情報を抽出するステップと、
抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデルを求めるステップとを実行する。
なお、以上の構成要素の任意の組合せ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。
上述した目的、およびその他の目的、特徴および利点は、以下に述べる好適な実施の形態、およびそれに付随する以下の図面によってさらに明らかになる。
本発明の実施の形態に係る音声処理装置の構成を示すブロック図である。 図1の音声処理装置の動作手順を示すフローチャートである。 本発明の実施の形態に係る音声処理装置の構成を示すブロック図である。 図3の音声処理装置の動作手順を示すフローチャートである。 本発明の実施形態の音声認識処理により得られた検証モデルを利用する音声処理装置の構成を示すブロック図である。 従来の音声処理装置の構成を示すブロック図である。
以下、本発明の実施の形態について、図面を用いて説明する。尚、すべての図面において、同様な構成要素には同様の符号を付し、適宜説明を省略する。
(第一の実施の形態)
図1に、本発明の実施の形態に係る音声処理装置の構成を示す。本実施形態の音声処理装置101は、入力された音声に対する音声認識処理の結果として得られた認識結果データ(学習用音声認識結果15)から該データの特徴である認識素性情報を抽出する手段(認識素性抽出部12)と、予め登録された言語リソース14から該言語リソース14の特徴である言語素性情報を抽出する手段(言語素性抽出部11)と、抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデル16を求める手段(モデル学習部13)とを備える。
本実施形態の音声処理装置101は、言語素性抽出部11と、認識素性抽出部12と、モデル学習部13と、言語リソース14と、学習用音声認識結果15と、検証モデル16とを備える。言語素性抽出部11、認識素性抽出部12及びモデル学習部13は、音声処理装置101のCPU(図示略)が実行するプログラムに対応する構成要素である。言語リソース14、学習用音声認識結果15及び検証モデル16は、音声処理装置101の記憶デバイス(図示略)に記憶されたデータである。
音声処理装置101の各構成要素は、任意のコンピュータのCPU、メモリ、メモリにロードされた本図の構成要素を実現するプログラム、そのプログラムを格納するハードディスクなどの記憶ユニット、ネットワーク接続用インタフェースを中心にハードウエアとソフトウエアの任意の組合せによって実現される。そして、その実現方法、装置にはいろいろな変形例があることは、当業者には理解されるところである。以下説明する各図は、ハードウエア単位の構成ではなく、機能単位のブロックを示している。
言語リソース14は、言語的な規則や素性を抽出する元データを指す。1つの実施形態において、言語リソース14は、音声認識にて対象とされるドメインごとに登録された文書データの集合、あるいは、文法や意味の観点で区別された正文・非文の集合、もしくはWWWから収集したテキストデータの集合、話題別のキーワード辞書のような、予め用意された言語リソースである。
言語素性抽出部11は、言語リソース14を分析し、所定の言語素性を抽出してモデル学習部13に提供する。1つの実施形態において、言語素性とは、単語の属性(表記、読み、品詞、細品詞、格パタン、活用形、意味属性、類義語など)、距離の大きい単語間の関係(共起、係り受け、照応など)、文の構造(構文構造、文の構成要素、文法パタン、章・節・段落構造、起承転結構造など)、文の意味内容(文書・段落・文の話題語、要約、キーワードなど)などである。
ここで、素性の抽出とは、該当する素性の値を計算することや、素性の出現頻度を求める処理を指す。また、距離の大きい単語間の関係とは、音声認識に用いる言語モデルにおいて、単語間の距離が規定値よりも大きい単語間の関係を指す。具体的には、例えば、Nグラム(N-Gram)において単語間の距離がN個を超える単語同士の関係である。
学習用音声認識結果15は、予め入力音声に対し音声認識手段20が出力した認識仮説を表し、例えば、複数の認識仮説を含む単語グラフまたはNベスト単語列で表現される。また、この学習用音声認識結果15は、入力音声の発声内容と対応付けた上で正誤情報が付与されてもよい。
認識素性抽出部12は、学習用音声認識結果15をデータ分析し、所定の認識素性を抽出してモデル学習部13に提供する。1つの実施形態における認識素性とは、前述の特許文献1に記載されている、音響スコア、言語スコア、単語事後確率、音響安定度、単語仮説密度、アクティブなHMMの数、音素の平均フレーム数、バックオフケース、単語仮説の正誤ラベルの履歴など、認識システムの特徴量、及び、他の認識結果の特徴としての、表記、読み、品詞、活用形、表記や読みの長さ、含まれる音素の数や種類、音素の継続時間長の分布、単語前後でのグラフの分岐数、競合する単語、グラフ密度などの特徴量である。
モデル学習部13は、言語素性抽出部11および認識素性抽出部12により抽出された素性に基づく学習処理により得た検証モデル16を出力する。学習方法はモデルの定式化に依存する。検証モデル16は、1つの実施形態では、識別モデルとしての条件付確率場(CRF:Conditional Random Fields)モデルを用いることができる。このとき、検証モデル16を次の数1のように定義することができる。
Figure 2008001486
数1において、「x」は検証の対象となる観測データであり、例えば音声認識結果15である。また、「y」は検証の結果であり、例えば、正誤ラベルや、用途に応じた重要度などである。「Λ」はモデルパラメタの集合である。「Φ(y,x)」は素性の値の集合であり、言語素性抽出部11及び認識素性抽出部12が抽出した言語素性および認識素性のそれぞれ、もしくはそれらの単語内又は単語間の組み合わせである。「Zx」は正規化項である。検証モデル16としては、この他に、ニューラルネットワーク、隠れマルコフモデル、あるいは、サポートベクタマシンなど、他の識別モデルを用いることができる。
モデル学習部13は、識別モデルとして条件付き確率場モデルを求めることができる。モデル学習部13は、検証モデル16が上記の数1で表される条件付確率場の場合、条件付尤度の最大化に基づくパラメタ更新式を、繰り返し最適化手法によって推定する。推定の詳細については、例えば非特許文献4に記されている。
モデル学習部13により作成された検証モデル16は、その後、音声認識処理の結果として得られたデータの検証に利用される。
図2に示すフローチャートを参照して、上記の音声処理装置101の動作について説明する。音声処理装置101は、記憶デバイスから言語リソース14および学習用音声認識結果15を読み出すと、言語リソース14を言語素性抽出部11へ入力し、学習用音声認識結果15を認識素性抽出部12へ入力する(ステップS11)。
言語素性抽出部11は、入力された言語リソース14から言語素性を抽出し、認識素性抽出部12は、学習用音声認識結果15から認識素性を抽出する(ステップS12)。そして、モデル学習部13が、抽出された認識素性および言語素性を用いた学習処理により検証モデル16を求め、それを記憶デバイスに保存する(ステップS13)。
以上説明した第1の実施形態によれば、認識素性と、音声認識の言語モデルに直接反映させるのが困難とされる数多くの言語素性とを同時に検証モデルに取り入れることができる。これにより、検証モデル16の精度を向上させることができる。また、より多くの言語リソース14を用意することで、より多くの種別の言語素性を確保でき、これによりモデル学習の頑健性を向上させることができる。
本発明によれば、音声認識処理の結果に由来する認識素性情報と、既存の単語列の言語的性質に由来する言語素性情報とを用いて検証モデルを学習することから、精度のよい検証モデルを得ることができる。
なお、上記の言語素性抽出部11の代替処理として、ユーザの行動から間接的に得られた情報をもとに言語素性を抽出してもよい。具体的には、例えば、ある文書の集合に対するユーザの参照頻度や参照履歴などを含む使用履歴に基づいて、その文書(文・単語)の重要度や類似度等の特徴を求め、それを言語素性として学習に用いる。
また、言語素性抽出部11の代替処理として、ユーザの利用目的に応じて予め設定された情報から素性を抽出するようにしてもよい。例えば、言語リソース14や学習用音声認識結果15に対して、単語の重要度(重要・普通・不要)や、文の種類(挨拶文、質問文、回答文)などの情報を予めユーザが設定しておき、それをモデル学習に用いる言語素性とすることができる。また、例えば、既に得られている音声認識結果の単語列から作成された重要度別の単語リスト(辞書)を、言語リソース14として予め登録してもよい。
(第二の実施の形態)
図3に、本発明の実施の形態の音声処理装置の構成を示す。本実施形態の音声処理装置102の構成は、図1の上記実施形態の音声処理装置101の構成に学習制御部31を付加したものである。
学習制御部31は、言語素性抽出部11及び認識素性抽出部12により抽出された素性に対し、モデル学習部13にて使用する素性の種類の選択処理や、素性値に対する重み付け処理を行い、その結果をモデル学習部13に提供する。
素性の種類の選択方法としては、例えば、出現頻度が規定の値より大きい素性を選択するという方法がある。学習制御部31は、学習処理に使用すべき認識素性情報および言語素性情報の種別を当該認識結果データ(音声認識結果15)および言語リソース14における出現頻度に基づき選択することができる。また、素性が共起単語の場合、単語間の距離によって出現頻度の閾値を変える、あるいは、該当する素性のうち、出現頻度の上位のもののみを使用するという方法であってもよい。
学習制御部31は、重み値を認識素性情報および言語素性情報の種別に応じて設定することができる。素性の重みの調整(設定)は、例えば、認識結果が自立語で素性が共起単語の場合、共起単語が自立語であればその素性値を大きくする(付属語ならば値を変化させない)ことによって実現できる。また、単語間の距離に応じて重みを変えてもよい。
また、重みの調整に関する別の方法としては、素性間の階層関係を利用するという方法がある。学習制御部31は、素性間の階層関係を利用して重み値を設定することができる。例えば、段落単位の素性の下位に文単位の素性があるというように、素性間に階層関係がある場合、上位の素性の出現頻度のほうが小さい場合に下位の素性値を大きくする、あるいは、両者の重み付け和を新たな素性値とする、もしくは、両者の出現頻度の比が一定になるように値を調整する。このように学習制御部31は、認識素性情報および言語素性情報のそれぞれに設定した重み値を用いて該認識素性情報および言語素性情報ごとに重み付け和を求め、求めた重み付け和を素性値とすることができる。なお、検証モデル16に前述の条件付確率場を用いる場合、素性の重み調整は、モデルのパラメタ値を調整することにより実現できる。
図4に示すフローチャートを参照して、音声処理装置102の動作について説明する。言語素性抽出部11及び認識素性抽出部12がそれぞれ素性を抽出するまでの処理(ステップS21、S22)は、音声処理装置101に関し図2により説明した手順と同様であり、説明を省略する。
学習制御部31は、抽出された言語素性及び認識素性に基づいて、検証モデル16の学習処理に使用する素性の種別を選択し、また、素性値の重み付けを調整する(ステップS23)。そして、モデル学習部13が、学習制御部31の処理を経た言語素性及び認識素性を用いて検証モデル16の学習処理を行い、それを保存する(ステップS24)。
本実施形態の音声処理装置102によれば、素性の種類の選択や重みの調整を行うことで、学習に使用する素性を絞り込むことから、モデルのパラメタ数に対し適切な量の学習データを確保することができる。これにより、モデル学習部13では効率よく頑健に検証モデル16を学習することができる。
(第三の実施の形態)
図5に、図1または図3の検証モデル16を用いて音声認識結果に検証に関する情報を付与する音声処理装置の一構成例を示す。音声処理装置103は、検証対象として新たに入力された認識結果データ(図5の音声認識部41の出力)を検証モデル16を用いて検証する手段を備え、具体的には、音声認識部41と、素性抽出部42と、検証処理部43と、情報統合部44と、を含む。
図示の構成において、音声認識部41は、図1または図3の音声認識手段20に対応し、素性抽出部42は、言語素性抽出部11及び認識素性抽出部12に対応する機能である。この音声処理装置103により、例えば、単純には、認識仮説の単語列に対して正誤ラベルを付与することができる。音声処理装置103は、次のように動作する。
音声処理装置103に音声が入力されると、音声認識部41が入力音声の認識仮説を生成し、その認識仮説に対し素性抽出部42が所定の認識素性および言語素性を抽出する。検証処理部43は、抽出された素性と、上記実施形態の要領にて予め用意された検証モデル16とを参照し、検証結果やその信頼度スコアを求める。情報統合部44は、音声認識部41が生成した認識仮説と、検証処理部43による検証処理の結果を統合し、それを検証済み音声認識結果として出力する。このようにして、音声処理装置103が、検証対象として新たに入力された認識結果データ(音声認識部41の出力)を検証モデル16を用いて検証するステップを実行することができる。
上記音声処理装置103によれば、音声認識部41が生成した認識仮説の単語列に対して、音声認識結果の用途に応じたラベルの付与、あるいは、その信頼度の付与を精度よく行うことができる。
また、検証モデル16に条件付確率場を使用する場合は、多クラスの識別が可能であること、識別結果の信頼度が得られること、識別結果に順位をつけられること、単語単位ではなく1発声分に相当する単語列ごとに最適化されること等の利点がある。このように、音声処理装置103は、音声認識結果の単語グラフを扱うことに適しており、音声認識部41の後段処理を容易に構成することができる。
以上、本発明を上記実施形態に即して説明したが、本発明は上述の構成のみに制限されるものでなく、本発明の範囲内で当業者によりなし得る各種変形や修正を含むことは勿論である。
この出願は、2006年6月29日に出願された日本出願特願2006−179619号を基礎とする優先権を主張し、その開示の全てをここに取り込む。

Claims (23)

  1. 入力された音声に対する音声認識処理の結果として得られた認識結果データから該データの特徴である認識素性情報を抽出する手段と、
    予め登録された言語リソースから該言語リソースの特徴である言語素性情報を抽出する手段と、
    抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデルを求める手段とを備えることを特徴とする音声処理装置。
  2. 前記学習処理に使用すべき認識素性情報および言語素性情報の種別を選択する手段を備えることを特徴とする請求項1記載の音声処理装置。
  3. 前記選択する手段は、前記学習処理に使用すべき認識素性情報および言語素性情報の種別を当該認識結果データおよび言語リソースにおける出現頻度に基づき選択することを特徴とする請求項2記載の音声処理装置。
  4. 前記学習処理に使用すべき認識素性情報および言語素性情報に対し重み値を設定する手段を備えることを特徴とする請求項1乃至3のいずれか1項に記載の音声処理装置。
  5. 前記重み値を設定する手段は、前記重み値を前記認識素性情報および前記言語素性情報の種別に応じて設定することを特徴とする請求項4記載の音声処理装置。
  6. 前記重み値を設定する手段は、前記認識素性情報および前記言語素性情報のそれぞれに設定した重み値を用いて該認識素性情報および言語素性情報ごとに重み付け和を求め、求めた重み付け和を素性値とすることを特徴とする請求項4記載の音声処理装置。
  7. 検証対象として新たに入力された認識結果データを前記検証モデルを用いて検証する手段を備えることを特徴とする請求項1乃至6のいずれか1項に記載の音声処理装置。
  8. 前記言語素性情報を抽出する手段は、予め登録された言語リソースに対する使用履歴に基づき前記言語素性情報を抽出することを特徴とする請求項1乃至7のいずれか1項に記載の音声処理装置。
  9. 前記検証モデルを求める手段は、前記検証モデルとして識別モデルを求めることを特徴とする請求項1乃至8のいずれか1項に記載の音声処理装置。
  10. 前記検証モデルを求める手段は、前記識別モデルとして条件付確率場モデルを求めることを特徴とする請求項9記載の音声処理装置。
  11. 前記認識素性情報を抽出する手段は、前記認識素性情報として、当該認識結果データが表す表記および品詞ならびに読みに関する属性を抽出することを特徴とする請求項1乃至10のいずれか1項に記載の音声処理装置。
  12. コンピュータを請求項1乃至11記載の音声処理装置として機能させることを特徴とするプログラム。
  13. 音声処理装置が、
    入力された音声に対する音声認識処理の結果として得られた認識結果データから該データの特徴である認識素性情報を抽出するステップと、
    予め登録された言語リソースから該言語リソースの特徴である言語素性情報を抽出するステップと、
    抽出された認識素性情報および言語素性情報に基づく学習処理により検証モデルを求めるステップとを実行することを特徴とする音声処理方法。
  14. 前記音声処理装置が、さらに、前記学習処理に使用すべき認識素性情報および言語素性情報の種別を選択するステップを実行することを特徴とする請求項13記載の音声処理方法。
  15. 前記音声処理装置が、前記種別を選択するステップにおいて、前記認識素性情報および言語素性情報の種別を当該認識結果データおよび言語リソースにおける出現頻度に基づき選択することを特徴とする請求項14記載の音声処理方法。
  16. 前記音声処理装置が、さらに、前記学習処理に使用すべき認識素性情報および言語素性情報に対し重み値を設定するステップを実行することを特徴とする請求項13乃至15のいずれか1項に記載の音声処理方法。
  17. 前記音声処理装置が、前記重み値を設定するステップにおいて、前記重み値を前記認識素性情報および前記言語素性情報の種別に応じて設定することを特徴とする請求項16記載の音声処理方法。
  18. 前記音声処理装置が、前記重み値を設定するステップにおいて、前記認識素性情報および前記言語素性情報のそれぞれに設定した重み値を用いて該認識素性情報および言語素性情報ごとに重み付け和を求め、求めた重み付け和をそれぞれの素性値とすることを特徴とする請求項16記載の音声処理方法。
  19. 前記音声処理装置が、さらに、検証対象として新たに入力された認識結果データを前記検証モデルを用いて検証するステップを実行することを特徴とする請求項13乃至18のいずれか1項に記載の音声処理方法。
  20. 前記音声処理装置が、前記言語素性情報を抽出する前記ステップにおいて、予め登録された言語リソースに対する使用履歴に基づき前記言語素性情報を抽出することを特徴とする請求項13乃至19のいずれか1項に記載の音声処理方法。
  21. 前記音声処理装置が、前記検証モデルを求める前記ステップにおいて、前記検証モデルとして識別モデルを求めることを特徴とする請求項13乃至20のいずれか1項に記載の音声処理方法。
  22. 前記音声処理装置が、前記検証モデルを求める前記ステップにおいて、前記識別モデルとして条件付確率場モデルを求めることを特徴とする請求項21記載の音声処理方法。
  23. 前記音声処理装置が、前記認識素性情報を抽出するステップにおいて、前記認識素性情報として、当該認識結果データが表す表記および品詞ならびに読みに関する属性を抽出することを特徴とする請求項13乃至22のいずれか1項に記載の音声処理方法。
JP2008522291A 2006-06-29 2007-06-18 音声処理装置およびプログラム、並びに、音声処理方法 Active JP5223673B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008522291A JP5223673B2 (ja) 2006-06-29 2007-06-18 音声処理装置およびプログラム、並びに、音声処理方法

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2006179619 2006-06-29
JP2006179619 2006-06-29
JP2008522291A JP5223673B2 (ja) 2006-06-29 2007-06-18 音声処理装置およびプログラム、並びに、音声処理方法
PCT/JP2007/000642 WO2008001486A1 (fr) 2006-06-29 2007-06-18 Dispositif et programme de traitement vocal, et procédé de traitement vocal

Publications (2)

Publication Number Publication Date
JPWO2008001486A1 true JPWO2008001486A1 (ja) 2009-11-26
JP5223673B2 JP5223673B2 (ja) 2013-06-26

Family

ID=38845261

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008522291A Active JP5223673B2 (ja) 2006-06-29 2007-06-18 音声処理装置およびプログラム、並びに、音声処理方法

Country Status (3)

Country Link
US (1) US8751226B2 (ja)
JP (1) JP5223673B2 (ja)
WO (1) WO2008001486A1 (ja)

Families Citing this family (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5447382B2 (ja) * 2008-08-27 2014-03-19 日本電気株式会社 音声認識仮説検証装置、音声認識装置、それに用いられる方法およびプログラム
US20110093263A1 (en) * 2009-10-20 2011-04-21 Mowzoon Shahin M Automated Video Captioning
US8401852B2 (en) 2009-11-30 2013-03-19 Microsoft Corporation Utilizing features generated from phonic units in speech recognition
US20120330662A1 (en) * 2010-01-29 2012-12-27 Nec Corporation Input supporting system, method and program
CN102193936B (zh) * 2010-03-09 2013-09-18 阿里巴巴集团控股有限公司 一种数据分类的方法及装置
CN102411583B (zh) * 2010-09-20 2013-09-18 阿里巴巴集团控股有限公司 一种文本匹配方法及装置
US20140074475A1 (en) * 2011-03-30 2014-03-13 Nec Corporation Speech recognition result shaping apparatus, speech recognition result shaping method, and non-transitory storage medium storing program
US9164983B2 (en) 2011-05-27 2015-10-20 Robert Bosch Gmbh Broad-coverage normalization system for social media language
US8650031B1 (en) * 2011-07-31 2014-02-11 Nuance Communications, Inc. Accuracy improvement of spoken queries transcription using co-occurrence information
JP2013050605A (ja) * 2011-08-31 2013-03-14 Nippon Hoso Kyokai <Nhk> 言語モデル切替装置およびそのプログラム
JP5772585B2 (ja) * 2011-12-28 2015-09-02 トヨタ自動車株式会社 音声認識装置、方法、及びプログラム
US9159319B1 (en) * 2012-12-03 2015-10-13 Amazon Technologies, Inc. Keyword spotting with competitor models
JP6183988B2 (ja) * 2012-12-11 2017-08-23 日本放送協会 音声認識装置、誤り修正モデル学習方法、及びプログラム
GB2552722A (en) * 2016-08-03 2018-02-07 Cirrus Logic Int Semiconductor Ltd Speaker recognition
CN109166570B (zh) * 2018-07-24 2019-11-26 百度在线网络技术(北京)有限公司 一种语音切分的方法、装置、设备和计算机存储介质
US10380997B1 (en) 2018-07-27 2019-08-13 Deepgram, Inc. Deep learning internal state index-based search and classification
US11043214B1 (en) * 2018-11-29 2021-06-22 Amazon Technologies, Inc. Speech recognition using dialog history
US11714833B2 (en) * 2020-09-10 2023-08-01 Capital One Services, Llc Mediums, methods, and systems for classifying columns of a data store based on character level labeling

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883091A (ja) * 1994-09-09 1996-03-26 Matsushita Electric Ind Co Ltd 音声認識装置
JPH10116094A (ja) * 1996-10-01 1998-05-06 Lucent Technol Inc 音声認識方法および音声認識装置
JP2003263187A (ja) * 2002-03-07 2003-09-19 Mitsubishi Electric Corp 言語モデル学習方法、その装置、そのプログラムおよびそのプログラムの記録媒体ならびに言語モデル学習を用いた音声認識方法、その装置、そのプログラムおよびそのプログラムの記録媒体
JP2005084436A (ja) * 2003-09-09 2005-03-31 Advanced Telecommunication Research Institute International 音声認識装置及びコンピュータプログラム

Family Cites Families (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4837831A (en) * 1986-10-15 1989-06-06 Dragon Systems, Inc. Method for creating and using multiple-word sound models in speech recognition
US5835893A (en) * 1996-02-15 1998-11-10 Atr Interpreting Telecommunications Research Labs Class-based word clustering for speech recognition using a three-level balanced hierarchical similarity
US6574597B1 (en) * 1998-05-08 2003-06-03 At&T Corp. Fully expanded context-dependent networks for speech recognition
US6622119B1 (en) * 1999-10-30 2003-09-16 International Business Machines Corporation Adaptive command predictor and method for a natural language dialog system
JP2001134285A (ja) 1999-11-01 2001-05-18 Matsushita Electric Ind Co Ltd 音声認識装置
US6442519B1 (en) * 1999-11-10 2002-08-27 International Business Machines Corp. Speaker model adaptation via network of similar users
JP2003131683A (ja) * 2001-10-22 2003-05-09 Sony Corp 音声認識装置および音声認識方法、並びにプログラムおよび記録媒体
US7379867B2 (en) * 2003-06-03 2008-05-27 Microsoft Corporation Discriminative training of language models for text and speech classification
US7418378B2 (en) * 2003-12-22 2008-08-26 Microsoft Corporation Method and apparatus for training and deployment of a statistical model of syntactic attachment likelihood
JP2005275348A (ja) 2004-02-23 2005-10-06 Nippon Telegr & Teleph Corp <Ntt> 音声認識方法、この方法を実施する装置、プログラムおよび記録媒体
JP4528076B2 (ja) 2004-09-17 2010-08-18 日本放送協会 音声認識装置及び音声認識プログラム
US7627473B2 (en) 2004-10-15 2009-12-01 Microsoft Corporation Hidden conditional random field models for phonetic classification and speech recognition
US7693713B2 (en) * 2005-06-17 2010-04-06 Microsoft Corporation Speech models generated using competitive training, asymmetric training, and data boosting

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0883091A (ja) * 1994-09-09 1996-03-26 Matsushita Electric Ind Co Ltd 音声認識装置
JPH10116094A (ja) * 1996-10-01 1998-05-06 Lucent Technol Inc 音声認識方法および音声認識装置
JP2003263187A (ja) * 2002-03-07 2003-09-19 Mitsubishi Electric Corp 言語モデル学習方法、その装置、そのプログラムおよびそのプログラムの記録媒体ならびに言語モデル学習を用いた音声認識方法、その装置、そのプログラムおよびそのプログラムの記録媒体
JP2005084436A (ja) * 2003-09-09 2005-03-31 Advanced Telecommunication Research Institute International 音声認識装置及びコンピュータプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
坪井祐太他: ""言語処理における識別モデルの発展 - HMMからCRFまで"", 言語処理学会 第12回年次大会 チュートリアル資料(2006-03), JPN6012027760, pages 1 - 10, ISSN: 0002237795 *

Also Published As

Publication number Publication date
WO2008001486A1 (fr) 2008-01-03
US8751226B2 (en) 2014-06-10
JP5223673B2 (ja) 2013-06-26
US20090204390A1 (en) 2009-08-13

Similar Documents

Publication Publication Date Title
JP5223673B2 (ja) 音声処理装置およびプログラム、並びに、音声処理方法
JP6222821B2 (ja) 誤り修正モデル学習装置、及びプログラム
JP5229216B2 (ja) 音声認識装置、音声認識方法及び音声認識プログラム
US8972260B2 (en) Speech recognition using multiple language models
US7925505B2 (en) Adaptation of language models and context free grammar in speech recognition
EP1696421B1 (en) Learning in automatic speech recognition
JP5932869B2 (ja) N−gram言語モデルの教師無し学習方法、学習装置、および学習プログラム
WO2019017462A1 (ja) 満足度推定モデル学習装置、満足度推定装置、満足度推定モデル学習方法、満足度推定方法、およびプログラム
EP3739583A1 (en) Dialog device, dialog method, and dialog computer program
CN110930993A (zh) 特定领域语言模型生成方法及语音数据标注系统
JP6031316B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2014077882A (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
US11615787B2 (en) Dialogue system and method of controlling the same
JP4191021B2 (ja) ドメイン検証器のトレーニング装置、入力データのドメイン検証装置、及びコンピュータプログラム
JP5288378B2 (ja) 音響モデルの話者適応装置及びそのためのコンピュータプログラム
JP6086714B2 (ja) 音声認識装置、誤り修正モデル学習方法、及びプログラム
JP2006107353A (ja) 情報処理装置および方法、記録媒体、並びにプログラム
JP4674609B2 (ja) 情報処理装置および方法、プログラム、並びに記録媒体
JP2007017548A (ja) 音声認識結果の検証装置及びコンピュータプログラム
JP7216348B2 (ja) 音声処理装置、音声処理方法、および音声処理プログラム
JP5812936B2 (ja) アクセント句境界推定装置、アクセント句境界推定方法及びプログラム
JP6000153B2 (ja) フィラー遷移モデル学習装置と言語モデル学習装置とそれらの方法とプログラム
JP5066668B2 (ja) 音声認識装置、およびプログラム
JP7173327B2 (ja) 学習装置、音声認識装置、それらの方法、およびプログラム
CN114783413A (zh) 重打分语言模型训练和语音识别方法、装置、系统及设备

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100514

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120605

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120806

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130225

R150 Certificate of patent or registration of utility model

Ref document number: 5223673

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3