JP6233867B2 - 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム - Google Patents

音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム Download PDF

Info

Publication number
JP6233867B2
JP6233867B2 JP2012042144A JP2012042144A JP6233867B2 JP 6233867 B2 JP6233867 B2 JP 6233867B2 JP 2012042144 A JP2012042144 A JP 2012042144A JP 2012042144 A JP2012042144 A JP 2012042144A JP 6233867 B2 JP6233867 B2 JP 6233867B2
Authority
JP
Japan
Prior art keywords
additional information
speech recognition
dictionary
voice
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012042144A
Other languages
English (en)
Other versions
JP2013178384A (ja
Inventor
敬子 稲垣
敬子 稲垣
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2012042144A priority Critical patent/JP6233867B2/ja
Publication of JP2013178384A publication Critical patent/JP2013178384A/ja
Application granted granted Critical
Publication of JP6233867B2 publication Critical patent/JP6233867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Telephonic Communication Services (AREA)
  • Machine Translation (AREA)

Description

本発明は、音声認識用の辞書登録を行う音声認識用辞書登録システム、音声認識を行う音声認識システム、音声認識サービスシステム、方法およびプログラムに関する。
モバイル端末に入力された音声を認識して日報作成を行うシステムにおいて、音声認識の精度を向上させるためには、ユーザに適した単語を選択可能な辞書データ(以下、単に辞書という)を使用することが重要である。
音声認識に用いられる辞書に登録されている単語が増えすぎると、認識処理の遅延や類似単語への誤認識による精度劣化が起こりやすくなる。また、辞書に登録されている単語が少ない場合には、当該単語を認識することができず、認識精度が劣化する。音声入力の内容は、ユーザ毎に異なる。そのため、一般的には、全てのユーザに適用する共通辞書(以下言語モデル)とは別に、個人別のユーザ辞書が用いられることが多い。
一般的な音声認識システムでは、言語モデルは、認識エンジンと共に提供されている。また、ユーザが単語を登録する場合には、別途ユーザ辞書が作成されている。このユーザ辞書に登録されるのは、単語の表記、読みおよび品詞情報のみである。そのため、言語モデルに単語が登録される時よりも認識精度が落ちるという問題がある。この問題を解決するため、最近では、ユーザが登録したい単語を言語モデルに登録できる仕組みが提供されている。
関連する技術として、例えば特許文献1に記載されたシステムは、携帯端末でメール文を作成する場合に、入力された音声に基づいて文字列の作成を行う。特許文献1に記載されたシステムは、携帯端末とネットワーク上にある音声認識サーバとから構成されている。音声認識サーバは、携帯端末から送信された音声データを認識して文字データを生成し、生成した文字データを携帯端末に送信する。
また、特許文献1には音声認識に用いる辞書を更新する技術が記載されている。特許文献1に記載されたシステムでは、音声認識サーバから携帯端末に送信された認識結果がユーザによって修正された後、修正結果が音声認識サーバに送信されると、音声認識サーバは、修正結果に基づいて音声認識用の辞書を修正する。
特開2009−075582号公報
言語モデルは、学習対象として用意された大量の文章が解析され、所定の統計情報処理が行われることにより作成される。言語モデルは、辞書に記述された各単語について、出現確率や接続確率をデータ化したものである。
通常話し方はユーザ毎に異なるため、各単語の出現確率や接続確率もユーザ毎に異なる。したがって、音声認識の精度の向上を図るためには、このような違いを考慮して音声認識を行うことが望ましい。しかし、言語モデルをユーザ毎に作成することは、システムリソースの問題や運用の問題などから困難である。
そのため、ある特定のグループで共通の言語モデルを使用し、各ユーザが個別にその言語モデルに単語や文章を登録するという運用が考えられている。しかし、この場合には、ユーザが言語モデルに単語を登録し、その単語を認識しやすくするためには、該当する単語が入った大量の文章を登録しないと効果が出にくいという問題がある。また、人により登録したい単語が異なる場合には、その調整ができず、結果的に、大量に登録された単語が出やすくなるという問題がある。
また、日報作成システム等に入力する音声入力の内容は、同じユーザであっても状況(例えば顧客や商談のフェーズなど)によって異なる。したがって、音声認識の精度を向上させるためには、各単語の出現確率や接続確率はそれらを考慮して決められることが必要になる。
特許文献1に記載されたシステムは、辞書を更新する手段を備えているが、文字列を修正した部分からのみ辞書を修正するため、修正していない情報を追加することが出来ない。また、特許文献1に記載されたシステムは、音声入力を行う状況(例えば日報作成時の顧客や商談のフェーズの違い)を考慮して言語モデルを作成することはできない。すなわち、特許文献1に記載されたシステムは、顧客毎に異なる用語や商談フェーズによる用語の使い分けを行うことによって音声認識の精度を向上させることができない。
そこで、本発明は、複数のユーザで共通の言語モデルを使用する構成でありながらも、個々のユーザに適した音声認識を行うことができ、かつ音声入力時の状況を考慮して音声認識の精度を向上させることができる音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、音声認識サービス方法および音声認識サービスプログラムを提供することを目的とする。
本発明による音声認識サービスシステムは、入力された音声に関連する付加情報を収集する付加情報収集手段と、音声認識による音声の認識結果と付加情報収集手段が収集した付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書を更新する辞書更新手段と、音声に対応付けられた付加情報と音声認識用辞書とに基づいて、該音声の音声認識を行う音声認識手段とを備え、音声認識用辞書が、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含み、辞書更新手段が、音声の認識結果と付加情報収集手段が収集した該音声に関連する付加情報とに基づいて、付加情報登録辞書を更新し、声認識手段が、入力された音声に関連する付加情報と付加情報登録辞書の付加情報とが一致している単語について、言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行うことを特徴とする。
本発明による音声認識サービス方法は、入力された音声に関連する付加情報を収集するステップと、音声認識による音声の認識結果と収集した付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書であって、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含む音声認識用辞書を更新するステップと、音声に対応付けられた付加情報と音声認識用辞書とに基づいて、該音声の音声認識を行うステップと、を有し音声認識用辞書を更新するステップでは、音声の認識結果と収集した該音声に関連する付加情報とに基づいて、付加情報登録辞書を更新し、音声認識を行うステップでは、入力された音声に関連する付加情報と付加情報登録辞書の付加情報とが一致している単語について、言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行うことを特徴とする。
本発明による音声認識サービスプログラムは、コンピュータに、入力された音声に関連する付加情報を収集する付加情報収集処理と、音声認識による音声の認識結果と付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書であって、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含む音声認識用辞書を更新する辞書更新処理と、音声に対応付けられた付加情報と音声認識用辞書とに基づいて、該音声の音声認識を行う音声認識処理とを実行させ、辞書更新処理で、音声の認識結果と付加情報収集処理で収集した該音声に関連する付加情報とに基づいて、付加情報登録辞書を更新させ、声認識処理で、入力された音声に関連する付加情報と付加情報登録辞書の付加情報とが一致している単語について、言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行わせることを特徴とする。
本発明によれば、複数のユーザで共通の言語モデルを使用する構成でありながらも、個々のユーザに適した音声認識を行うことができ、かつ音声入力時の状況を考慮して音声認識の精度を向上させることができる。
本発明による音声認識システムと音声認識用辞書登録システムとが適用された音声認識サービスシステムの構成の一例を示すブロック図である。 音声認識システムの音声認識手段および音声認識用辞書の構成例を示すブロック図である。 言語モデル内の単語に付加情報に基づいて出現確率の重み付けをするために用いられる追加単語辞書の具体例を示す説明図である。 音声認識用辞書登録システムの動作手順を示すフローチャートである。 一般的な音声認識システムの構成を示すブロック図である。 音声認識システムと音声認識用辞書登録システムとが適用された営業日報システムの構成の一例を示すブロック図である。 日報データベースに含まれる日報データの具体例を示す説明図である。 音声認識サービスシステムの最小の構成例を示すブロック図である。
以下、本発明の実施形態を図面を参照して説明する。図1は、本発明による音声認識システムと音声認識用辞書登録システムとが適用されたシステムの構成の一例を示すブロック図である。図1に示されるように、本発明による音声認識システムと音声認識用辞書登録システムとが適用されたシステムは、モバイル端末1と音声認識システム2と音声認識用辞書登録システム3とを含む。また、モバイル端末1と音声認識システム2と音声認識用辞書登録システム3とは、LANやインターネット等の通信ネットワークを介して相互に接続されている。
なお、本実施形態では、音声認識システム2と音声認識用辞書登録システム3とが異なるシステムとして構成されている例を説明するが、本発明の適用形態はこれに限られない。例えば、辞書登録可能な音声認識サービスシステムとして、図1の音声認識システム2および音声認識用辞書登録システム3の各手段を全て備えるように構成されていてもよい。
図1に示されるように、モバイル端末1は、音声入力手段11、付加情報取得手段12、データ送信手段13、認識結果表示手段14および認識結果修正手段15を備えている。モバイル端末1は、具体的には、携帯電話機やスマートフォン、ノート型パーソナルコンピュータ等の端末装置によって実現される。
音声入力手段11は、マイクロフォン等によって実現され、モバイル端末1に音声を入力する機能を備えている。
付加情報取得手段12は、音声入力手段11が入力する音声に関連する付加情報として、モバイル端末1の位置情報や端末ログイン情報、仕事のフェーズ情報などを取得する機能を備えている。付加情報取得手段12は、例えば、GPS衛星からからGPS信号を受信することによって位置情報を取得する。また、付加情報取得手段12は、例えば、ユーザがモバイル端末の入力装置を操作することによって入力された端末ログイン情報や仕事のフェーズ情報などの付加情報を取得する。
データ送信手段13は、音声入力手段11が入力した音声データや、付加情報取得手段12が取得した付加情報、認識結果修正手段15が修正した認識結果情報を、ネットワークを介して、音声認識システム2又は音声認識用辞書登録システム3に送信する機能を備えている。データ送信手段13は、例えば、プログラムに従って動作するモバイル端末1のネットワークインタフェース部などによって実現される。
認識結果表示手段14は、音声認識システム2から受信した認識結果情報を表示する機能を備えている。認識結果表示手段14は、例えば、ディスプレイ装置などの表示装置によって実現される。
認識結果修正手段15は、音声認識システム2から受信した認識結果情報の誤りを修正する機能を備えている。認識結果修正手段15は、例えば、ユーザの入力操作に従って、認識結果情報の誤りを修正する。認識結果修正手段15は、具体的には、プログラムに従って動作するモバイル端末1のCPUによって実現される。
また、図1に示されるように、音声認識システム2は、音声認識手段21および音声認識用辞書記憶手段22を含む。音声認識システム2は、具体的には、プログラムに従って動作するサーバ装置などの情報処理装置によって実現される。
音声認識手段21は、モバイル端末1から受信した音声データを分析し、文字データに変換する機能を備えている。具体的には、音声認識手段21は、音声データを分析し、分析結果に基づいて文字データを生成する。音声認識手段21は、プログラムに従って動作する情報処理装置のCPUによって実現される。
音声認識用辞書記憶手段22は、音声認識処理で音声データを分析して文字データを生成する際に用いられる音声認識用辞書を記憶している。音声認識用辞書記憶手段22は、具体的には、光ディスク装置や磁気ディスク装置などの記憶装置によって実現される。
また、図1に示されるように、音声認識用辞書登録システム3は、付加情報収集手段30、辞書更新手段31および認識結果データベース記憶手段32を含む。音声認識用辞書登録システム3は、具体的には、プログラムに従って動作するサーバ装置などの情報処理装置によって実現される。
付加情報収集手段30は、音声の認識結果に対応付けられた付加情報を収集する機能を備えている。付加情報収集手段30は、例えば、モバイル端末1の付加情報取得手段12によって取得され、音声認識用辞書登録システム3に送信された付加情報を受信する。付加情報収集手段30は、例えば、プログラムに従って動作する情報処理装置のCPUやネットワークインタフェース部などによって実現される。
辞書更新手段31は、モバイル端末1で修正された認識結果情報に基づいて、音声認識用辞書記憶手段22が記憶する音声認識用辞書を更新する機能を備えている。辞書更新手段31は、例えば、プログラムに従って動作する情報処理装置のCPUやネットワークインタフェース部などによって実現される。
認識結果データベース記憶手段32は、音声認識用辞書の更新に用いられる認識結果情報が蓄積された認識結果データベースを記憶する。認識結果データベース記憶手段32は、具体的には、光ディスク装置や磁気ディスク装置などの記憶装置によって実現される。
本実施形態では、音声認識手段21は、モバイル端末1から受信した音声データを分析し、音声認識用辞書記憶手段21が記憶する音声認識用辞書を参照して、音声と最も近い語彙を推定し文字に変換する。具体的には、音声認識手段21は、音声データを分析し、音声認識用辞書を参照して、文字データ(すなわち、認識結果情報)を生成する。
音声認識手段21が変換した文字データは、モバイル端末1に送信され、認識結果表示手段14に表示される。そして、ユーザは表示された文字データを確認し、修正がある場合には入力装置を用いて修正操作を行う。すると、認識結果修正手段15は、ユーザの修正操作に従って、認識結果情報の修正を行う。その後、認識結果修正手段15によって修正された認識結果情報は、データ送信手段13よって音声認識用辞書登録システム3に送信され、認識結果データベース記憶手段32に蓄積される。
また、本実施形態では、音声認識用辞書登録システム3は、自動的に(例えば所定期間ごとに)又はユーザの手動操作によって、音声認識用辞書22を更新する。
図2は、図1の音声認識システム2の音声認識手段21および音声認識用辞書22の構成例を示すブロック図である。図2に示すように、音声認識手段21は、音声検出部211、音声分析部212および音声照合部213を含む。また、音声認識用辞書記憶手段22は、音響モデル221、言語モデル222、ユーザ単語辞書223および追加登録辞書224を記憶している。
音声検出部211は、入力された音声データから音声と雑音とを切り分け、音声を含む区間を検出して、音声分析部212に出力する。音声検出部211は、例えば音声データのパワーを使う方法で音声の検出を行う。具体的には、音声検出部211は、音声データのパワーを逐次計算して、音声データのパワーがあらかじめ定められた閾値を一定時間連続して上回る時点を音声の開始時点と判定する。また、音声検出部211は、音声データのパワーがあらかじめ定められた閾値を一定時間連続して下回る時点を音声の終了時点と判定する。音声検出部211は、音声開始時点から音声終了時点までを音声として切り出し、音声分析部212に逐次出力する。
音声分析部212は、音声検出部211により切り出された音声の音響分析を行い、音声の特徴を表す音響的特徴を音声照合部213に出力する。音声分析部212は、例えばスペクトル分析などによって音響分析を行う。本実施形態で音声分析部212によって出力される音響的特徴は、具体的には、後述する音声照合部213において候補としての単語列を検出できる特徴を示す情報である。音声分析部212は、音響的特徴として、例えば、ケプストラムやスペクトルピッチ、パワー等、音声データの音声波形に基づいて抽出される情報を音声照合部213に出力する。
音響モデル221は、日本語の音素毎の標準的なパタンを含む。音響モデル211は、例えば隠れマルコフモデルが適用される。
言語モデル222は、単語の出現確率がデータ化されたものであって、日本語の単語間や音素間の接続関係の規定や単語間の接続関係を規定する文法規則などを含む。本実施形態では、言語モデル222に含まれる単語の出現確率は、追加登録辞書224に基づいて、動的に変化する。
ユーザ辞書223は、ユーザが辞書に単語を登録する時に用いられる辞書である。ユーザ辞書223には、ユーザ自身が単語の表記、読みおよび品詞情報を登録することができる。なお、品詞情報は、あらかじめ定められた品詞の中から選択されて登録される。
追加登録辞書224は、言語モデル222に含まれる単語の出現確率を動的に変化させる際に用いられる。追加登録辞書224は、単語と付加情報とが対応付けられたデータを含む。本実施形態では、追加登録辞書224には、辞書更新手段31によって、認識結果データベース記憶手段32に蓄積されているモバイル端末1で修正された認識結果情報に基づいて、単語の読み、品詞情報および付加情報が登録されている。
図3は、言語モデル222内の単語に付加情報に基づいて出現確率の重み付けをするために用いられる追加単語辞書224の具体例を示す説明図である。図3に示すように、追加単語辞書には、単語の表記、読み、品詞および付加情報(担当情報、位置情報、仕事フェーズなど)が登録されている。図3に示す追加単語辞書224では、表記「検収」と「研修」とは、読みおよび品詞が同じであるが、付加情報に含まれる仕事ステータスが「5」と「6」とで異なっている。
本実施形態では、モバイル端末1は、入力された音声データにも付加情報を付与して音声認識システム2に送信する。そのため、音声認識システム2は、音声認識を行う際に、入力された音声データに付加された付加情報と追加単語辞書224の付加情報とが一致している単語について、言語モデル222中の該当する単語の出現確率に重み付けをして音声認識処理を行う。
例えば、音声データが「ケンシュウが必要です。」である場合を想定する。この場合、一般的な音声認識システムでは、「検収」と「研修」との使い分けは、言語モデル作成時の文例にどちらが多く入っているか(文例中の単語の出現確率)によって決定される。これに対して、本実施形態では、モバイル端末1は、音声データ「ケンシュウが必要です。」とともに付加情報(例えば仕事フェーズ:5)を音声認識システム2に送信する。すると、追加単語辞書224のうち「検収」と「研修」の読みおよび品詞が一致しているが、受信した付加情報と「検収」に対応付けられている付加情報とが一致しているため、言語モデル222中の「検収」の出現確率が上げられ、「研修」ではなく「検収」が選択されるようになる。
上述のように、本実施形態では、言語モデル222に含まれる単語の出現確率は動的に変化する。この出現確率の動的な変化は、例えば次のように実現される。
音声認識手段21は、例えば、言語モデル222における単語の出現確率に重み付けを行う重み付け手段(図示せず)を備える。重み付け手段は、音声認識を行う際に、追加単語辞書224を参照し、受信した音声データと付加情報とに基づいて、読み、品詞および付加情報が一致する単語を選択する。そして、重み付け手段は、選択した単語について、言語モデル222における単語の出現確率に重み付けし、出現確率を上げる。
なお、上記の例に限らず、音声認識手段21は、追加単語辞書224を参照し、受信した音声データと付加情報とに基づいて単語を選択する際に、複数の付加情報のうちのいずれかを優先するようにしてもよい。例えば、あらかじめ付加情報の優先順位を定めておき、音声認識手段21は、読みおよび品詞が一致する場合には、複数の付加情報(例えば、位置情報や仕事フェースなど)のうち、優先順位が高い付加情報(仕事フェーズ)が一致するものを優先する。
また、例えば、音声認識手段21は、複数の付加情報が一致する場合には、一致したものの合計をスコア等として求めて、最もスコアが高いものを優先して音声認識結果を求める際に用いるようにしてもよい。
次に、音声認識システムと音声認識用辞書登録システムとが適用された音声認識サービスシステムの動作を説明する。図4は、音声認識サービスシステムの動作手順を示すフローチャートである。
図4に示す例では、動作を開始するにあたって、ユーザがモバイル端末1の音声入力手段11に音声を入力する。このとき、付加情報取得手段12は、モバイル端末1の位置情報や端末ログイン情報、仕事のフェーズ情報などの付加情報を取得する。付加情報取得手段12は、例えば、ユーザがモバイル端末の入力装置を操作することによって入力された端末ログイン情報や仕事のフェーズ情報などの付加情報を取得する。
音声入力手段11が音声を入力し、付加情報取得手段12が付加情報を取得すると、データ送信手段13は、音声データおよび付加情報を、音声認識手段21に送信する(ステップA1)。
音声認識手段21は、音声データおよび付加情報を受信すると、音声認識用辞書22を参照して、音声と音声認識用辞書のデータとを照合し、音声認識を行う(ステップA2)。上述のように、本実施形態では、音声認識手段21は、音声認識を行う際に、入力された音声データに付加された付加情報と追加単語辞書224の付加情報とが一致している単語について、言語モデル222中の該当する単語の出現確率に重み付けをして音声認識処理を行う。
次いで、音声認識システム2は、ステップA2の音声認識による認識結果として、文字データをモバイル端末1に送信する。モバイル端末1は、音声認識システム2から受信した認識結果を認識結果表示手段14に表示する。そして、モバイル端末1は、認識結果に修正が必要か否かを判断する(ステップA3)。例えば、ユーザが認識結果表示手段14に表示された認識結果を確認し、修正が必要か否かを入力する操作を行うと、モバイル端末1は、ユーザの操作に従って、修正が必要か否かを判断する。
修正が必要であると判断された場合(ステップA3のYES)、認識結果修正手段15は、例えばユーザの修正操作に従って、認識結果の誤りを修正する(ステップA4)。
その後、データ送信手段13は、認識結果修正手段15が修正した認識結果と、ステップA1で入力した付加情報とを、音声認識用辞書登録システム3に送信する(ステップA5)。なお、ステップA3で修正が必要でないと判断された場合には(ステップA3のNo)、データ送信手段13は、音声認識システム2から受信した認識結果と、ステップA1で入力した付加情報とを、音声認識用辞書登録システム3に送信する(ステップA5)。そして、データ送信手段13が送信した認識結果と付加情報とは、音声認識用辞書登録システム3の認識結果データベース記憶手段32に蓄積される。例えば、音声認識用辞書登録システム3の付加情報収集手段30は、データ送信手段13が送信した認識結果と付加情報とを受信し、認識結果データベース記憶手段32に蓄積する。
次いで、音声認識用辞書登録システム3の辞書更新手段31は、認識結果データベース記憶手段32に蓄積された認識結果と認識結果に付加された付加情報とに基づいて、追加登録辞書を作成する。そして、辞書更新手段31は、音声認識システム2の音声認識用辞書22を更新する(ステップA6)。具体的には、辞書更新手段31が作成した追加登録辞書を音声認識システム2に送信すると、音声認識システム2は、受信した追加登録辞書で追加登録辞書224を更新する。
なお、例えば、音声認識用辞書登録システム3は、無制限に付加情報が付加されていくことを防止するため、使用頻度が低い付加情報は音声認識用辞書22から随時削除するようにしてもよい。また、例えば、音声認識用辞書登録システム3は、逆に使用頻度が高いもののみを付加情報として登録していくようにしてもよい。
図5は、一般的な音声認識システムの構成を示すブロック図である。一般的な音声認識システムは、本発明のように、認識結果を用いて音声認識用辞書を更新する際に認識結果に付加情報を収集する手段を備えていない。したがって、図5に示されるような一般的な音声認識システムは、付加情報に基づいて単語の重み付けを行うことができず、同じような言い回しや音が似ている単語を含む文が登録されると、それぞれ区別されることなく出現確率が上がり、該当する単語が出やすくなってしまう。
次に、本発明の他の適用例を図面を参照して説明する。図6は、音声認識システムと音声認識用辞書登録システムとが適用された営業日報システムの構成の一例を示すブロック図である。図6に示す適用例では、図1に示される構成に加えて、営業日報システム4が含まれている。また、営業日報システム4は、日報作成手段41および日報データベース記憶手段42を含む。
図6に示す適用例では、ユーザがモバイル端末1に日報データを入力すると(例えば、図4に示すように音声を入力し、音声認識を行うことによって日報データを入力する)、入力された日報データは、営業日報システム4に送信され、日報データベース42に蓄積される。そして、日報データベース42に蓄積された日報データは、認識結果データベース32に登録され、音声認識用辞書22を作成・更新する際に用いられる。
音声認識用辞書22を作成・更新する具体例を、図7に示される日報データベースに含まれる日報データの一例を参照して説明する。営業日報システム4は、図7に示す日報データベースから、備考欄に含まれるデータを音声認識結果情報として抽出する。また、営業日報システム4は、訪問先やフェーズ、報告者などの情報を付加情報として抽出する。そして、営業日報システム4は、抽出した音声認識結果情報と付加情報とを音声認識用辞書登録システム3の付加情報収集手段30に送信する。すると、付加情報収集手段30は、受信した音声認識結果情報と付加情報とを認識結果データベース32に登録する。これらの処理は、自動的に又はユーザの手動操作に従って行われる。その後、図4のステップA6と同様に、音声認識用辞書登録システム3の辞書更新手段31は、認識結果データベース記憶手段32に蓄積された認識結果と認識結果に付加された付加情報とに基づいて、追加登録辞書を作成する。そして、辞書更新手段31は、音声認識システム2の音声認識用辞書22を更新する。
以上に説明したように、本発明による音声認識用辞書登録システムは、モバイル端末を活用して営業日報等を作成するシステム等において、単語や文章を音声認識用の辞書に登録する際に、その単語を使ったユーザの情報や使われた日時情報、位置情報、商談情報などを付加情報として登録する。また、本発明による音声認識システムは、音声認識を行う際に、それら付加情報を考慮した単語の選択をするため、音声認識システムは、適切な音声認識結果を提示することができる。
したがって、音声認識用辞書登録システムは、複数のユーザが音声認識用の辞書を共同でメンテナンスする場合でも、個々のユーザにあった単語が選択されるような音声認識用の辞書を作成することができる。また、音声認識システムは、音声入力時の状況(顧客や商談フェーズなど)を考慮して異なる単語を選択し、音声認識の精度を向上させることができる。
次に、本発明による音声認識サービスシステムの最小構成を説明する。図8は、音声認識サービスシステムの最小の構成例を示すブロック図である。図8に示されるように、音声認識サービスシステムは、最小の構成要素として、付加情報収集手段30と、辞書更新手段31と、音声認識手段21とを含む。
図10に示す最小構成の音声認識サービスシステムでは、付加情報収集手段30は、入力された音声に関連する付加情報を収集する。また、辞書更新手段31は、音声認識による音声の認識結果と付加情報収集手段30が収集した付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書を更新する。そして、音声認識手段21は、音声に対応付けられた付加情報と音声認識用辞書とに基づいて、該音声の音声認識を行う。
したがって、最小構成の音声認識サービスシステムによれば、複数のユーザで共通の言語モデルを使用する構成であっても、個々のユーザに適した音声認識を行うことができ、かつ音声入力時の状況を考慮して音声認識の精度を向上させることができる。
なお、本実施形態では、以下の(1)〜(5)に示すような音声認識サービスシステムの特徴的構成が示されている。
(1)音声認識サービスシステム(例えば、図1に示される音声認識システム2および音声認識用辞書登録システム3によって実現される)は、入力された音声に関連する付加情報(例えば、位置情報や時間情報、ユーザ情報、顧客情報、仕事フェーズなど)を収集する付加情報収集手段(例えば、付加情報収集手段30によって実現される)と、音声認識による音声の認識結果と付加情報収集手段が収集した付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書(例えば、音声認識辞書記憶手段22が記憶する音声認識辞書)を更新する辞書更新手段(例えば、辞書更新手段31によって実現される)と、音声に対応付けられた付加情報と音声認識用辞書とに基づいて、該音声の音声認識を行う音声認識手段(例えば、音声認識手段21によって実現される)とを備えたことを特徴とする。
(2)音声認識サービスシステムにおいて、辞書更新手段は、音声認識手段による音声の認識結果が修正された修正後の認識結果(例えば、認識結果修正手段15によって修正された修正後の認識結果)と付加情報収集手段が収集した音声に関連する付加情報とに基づいて、音声認識用辞書を更新するように構成されていてもよい。
(3)音声認識サービスシステムにおいて、付加情報収集手段は、入力された音声に関連する複数種類の付加情報を収集し、音声認識手段は、付加情報収集手段が収集した複数種類の付加情報のうち、あらかじめ定められた優先順位にしたがって選択した付加情報と、音声認識用辞書とに基づいて、音声の音声認識を行うように構成されていてもよい。
(4)音声認識サービスシステムにおいて、音声認識用辞書は、単語に対応付けて付加情報を登録するための付加情報登録辞書(例えば、追加登録辞書224)と、言語モデル(例えば、言語モデル222)とを含み、辞書更新手段は、音声の認識結果と付加情報収集手段が収集した該音声に関連する付加情報とに基づいて、付加情報登録辞書を更新し、音声認識手段は、入力された音声に関連する付加情報と付加情報登録辞書および前記言語モデルとに基づいて、該入力された音声の音声認識を行うように構成されていてもよい。
(5)音声認識サービスシステムにおいて、音声認識手段は、入力された音声に関連する付加情報と付加情報登録辞書とに基づいて、言語モデルに含まれる単語の出現確率を更新し(例えば、重み付け手段が処理を実行することによって実現される)、該入力された音声の音声認識を行うように構成されていてもよい。
本発明は、メール文などの文字入力支援、コールセンターでの顧客とオペレータとの会話認識、音声認識による議事録作成など、話題が人や時間、場所によりある程度特定できる領域において、音声認識やテキスト入力支援、コンテンツ配信などを行うシステムに適用可能である。
1 モバイル端末
11 音声入力手段
12 付加情報取得手段
13 データ送信手段
14 認識結果表示手段
15 認識結果修正手段
2 音声認識システム
21 音声認識手段
211 音声検出部
212 音声分析部
213 音声照合部
22 音声認識用辞書記憶手段
221 音響モデル
222 言語モデル
223 ユーザ単語辞書
224 追加登録辞書
3 音声認識用辞書登録システム
30 付加情報収集手段
31 辞書更新手段
32 認識結果データベース記憶手段

Claims (5)

  1. 入力された音声に関連する付加情報を収集する付加情報収集手段と、
    音声認識による前記音声の認識結果と前記付加情報収集手段が収集した前記付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書を更新する辞書更新手段と、
    音声に対応付けられた付加情報と前記音声認識用辞書とに基づいて、該音声の音声認識を行う音声認識手段とを備え、
    前記音声認識用辞書は、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含み、
    前記辞書更新手段は、音声の認識結果と前記付加情報収集手段が収集した該音声に関連する付加情報とに基づいて、前記付加情報登録辞書を更新し、
    記音声認識手段は、入力された音声に関連する付加情報と前記付加情報登録辞書の付加情報とが一致している単語について、前記言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行う
    ことを特徴とする音声認識サービスシステム。
  2. 辞書更新手段は、音声認識手段による音声の認識結果が修正された修正後の認識結果と付加情報収集手段が収集した該音声に関連する付加情報とに基づいて、音声認識用辞書を更新する
    請求項1記載の音声認識サービスシステム。
  3. 付加情報収集手段は、入力された音声に関連する複数種類の付加情報を収集し、
    音声認識手段は、前記付加情報収集手段が収集した複数種類の付加情報のうち、あらかじめ定められた優先順位にしたがって選択した付加情報と、音声認識用辞書とに基づいて、前記音声の音声認識を行う
    請求項1又は請求項2記載の音声認識サービスシステム。
  4. 入力された音声に関連する付加情報を収集するステップと
    音声認識による前記音声の認識結果と収集した前記付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書であって、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含む音声認識用辞書を更新するステップと
    音声に対応付けられた付加情報と前記音声認識用辞書とに基づいて、該音声の音声認識を行うステップと、を有し
    前記音声認識用辞書を更新するステップでは、音声の認識結果と収集した該音声に関連する付加情報とに基づいて、前記付加情報登録辞書を更新し、
    前記音声認識を行うステップでは、入力された音声に関連する付加情報と前記付加情報登録辞書の付加情報とが一致している単語について、前記言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行う
    ことを特徴とする音声認識サービス方法。
  5. コンピュータに、
    入力された音声に関連する付加情報を収集する付加情報収集処理と、
    音声認識による前記音声の認識結果と前記付加情報とに基づいて、音声認識の際に用いられる音声認識用辞書であって、単語に対応付けて付加情報を登録するための付加情報登録辞書と、言語モデルとを含む音声認識用辞書を更新する辞書更新処理と、
    音声に対応付けられた付加情報と前記音声認識用辞書とに基づいて、該音声の音声認識を行う音声認識処理とを実行させ、
    前記辞書更新処理で、音声の認識結果と前記付加情報収集処理で収集した該音声に関連する付加情報とに基づいて、前記付加情報登録辞書を更新させ、
    記音声認識処理で、入力された音声に関連する付加情報と前記付加情報登録辞書の付加情報とが一致している単語について、前記言語モデルに含まれる該当する単語の出現確率に重み付けをして出現確率を上げ、該入力された音声の音声認識を行わせる
    ための音声認識サービスプログラム。
JP2012042144A 2012-02-28 2012-02-28 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム Active JP6233867B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012042144A JP6233867B2 (ja) 2012-02-28 2012-02-28 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012042144A JP6233867B2 (ja) 2012-02-28 2012-02-28 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム

Publications (2)

Publication Number Publication Date
JP2013178384A JP2013178384A (ja) 2013-09-09
JP6233867B2 true JP6233867B2 (ja) 2017-11-22

Family

ID=49270076

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012042144A Active JP6233867B2 (ja) 2012-02-28 2012-02-28 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム

Country Status (1)

Country Link
JP (1) JP6233867B2 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6833203B2 (ja) * 2017-02-15 2021-02-24 フォルシアクラリオン・エレクトロニクス株式会社 音声認識システム、音声認識サーバ、端末装置、及び語句管理方法
KR102369416B1 (ko) 2017-09-18 2022-03-03 삼성전자주식회사 복수의 사용자 각각에 대응하는 개인화 레이어를 이용하여 복수의 사용자 각각의 음성 신호를 인식하는 음성 신호 인식 시스템
WO2020004213A1 (ja) * 2018-06-29 2020-01-02 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
CN111681643A (zh) * 2020-05-29 2020-09-18 标贝(北京)科技有限公司 语音识别后处理方法、装置、系统及存储介质

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249686A (ja) * 2000-03-08 2001-09-14 Matsushita Electric Ind Co Ltd 音声認識方法、音声認識装置、およびナビゲーション装置
JP2002014693A (ja) * 2000-06-30 2002-01-18 Mitsubishi Electric Corp 音声認識システム用辞書提供方法、および音声認識インタフェース
JP2004363871A (ja) * 2003-06-04 2004-12-24 Nippon Telegr & Teleph Corp <Ntt> データ保存装置とその方法、及びそのプログラムとそのプログラムを記録した記録媒体
JPWO2008004663A1 (ja) * 2006-07-07 2009-12-10 日本電気株式会社 言語モデル更新装置、言語モデル更新方法、および言語モデル更新用プログラム

Also Published As

Publication number Publication date
JP2013178384A (ja) 2013-09-09

Similar Documents

Publication Publication Date Title
US10410627B2 (en) Automatic language model update
US9583107B2 (en) Continuous speech transcription performance indication
US8676577B2 (en) Use of metadata to post process speech recognition output
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
JP4705023B2 (ja) 音声認識装置、音声認識方法、及びプログラム
US9020819B2 (en) Recognition dictionary system and recognition dictionary system updating method
JP4709887B2 (ja) 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム
US9484034B2 (en) Voice conversation support apparatus, voice conversation support method, and computer readable medium
US20060149551A1 (en) Mobile dictation correction user interface
JP2018045001A (ja) 音声認識システム、情報処理装置、プログラム、音声認識方法
JP6233867B2 (ja) 音声認識用辞書登録システム、音声認識システム、音声認識サービスシステム、方法およびプログラム
JP4089861B2 (ja) 音声認識文章入力装置
JP5238395B2 (ja) 言語モデル作成装置および言語モデル作成方法
JP2006259641A (ja) 音声認識装置及び音声認識用プログラム
JP2010231149A (ja) 音声認識に仮名漢字変換システムを用いた端末、方法及びプログラム
JP5300576B2 (ja) 検索装置、検索方法、および検索プログラム
JP2015099290A (ja) 発話内重要語抽出装置とその装置を用いた発話内重要語抽出システムと、それらの方法とプログラム
JP6810363B2 (ja) 情報処理装置、情報処理システム、および情報処理プログラム
KR101830210B1 (ko) 적어도 하나의 의미론적 유닛의 집합을 개선하기 위한 방법, 장치 및 컴퓨터 판독 가능한 기록 매체
JP2005049713A (ja) 単音声による文字入力システム
JP2016045796A (ja) 相手方ユーザからの対話文章に対して支援情報を明示する端末、プログラム及び方法
JP2010008764A (ja) 音声認識方法、音声認識システム、および音声認識装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150107

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151222

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160201

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160719

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20171019

R150 Certificate of patent or registration of utility model

Ref document number: 6233867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150