JP2010048890A - クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム - Google Patents
クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム Download PDFInfo
- Publication number
- JP2010048890A JP2010048890A JP2008210849A JP2008210849A JP2010048890A JP 2010048890 A JP2010048890 A JP 2010048890A JP 2008210849 A JP2008210849 A JP 2008210849A JP 2008210849 A JP2008210849 A JP 2008210849A JP 2010048890 A JP2010048890 A JP 2010048890A
- Authority
- JP
- Japan
- Prior art keywords
- recognition
- recognition result
- result
- client device
- unit
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
【解決手段】 クライアント装置110では、サーバ装置120より音声認識の結果を文字列として受信し、この文字列に対してユーザが操作を行い、この操作を検出し、当該検出した操作の内容をサーバ装置120に通知する。サーバ装置120では、音声認識を行うためのモデルを格納し、クライアント装置110より音声を受信し、この音声に対する音声認識を行い、音声認識の結果を保存するとともにクライアント装置110に送信する。また、サーバ装置120では、クライアント装置110より認識結果に対するフィードバックデータを受信し、保存した音声認識結果とフィードバックデータとを照合し、当該照合の結果に基づき、音声認識結果中の正解部分を抽出する。最後に、当該抽出した正解部分のデータを利用し、モデルを更新する。
【選択図】図1
Description
(音声認識システム1の全体構成)
まず、本発明の実施形態に係る音声認識システム1の構成について、図1を参照しながら説明する。図1は、本実施形態のクライアント装置110、およびクライアント装置110から送信された音声を認識し、その結果をクライアント装置110に返信するサーバ装置120を備える、音声認識システム1の構成概要図である。
クライアント装置110について詳細に説明する。図2は、クライアント装置110のハードウェア構成図である。図2に示すように、クライアント装置110は、物理的には、CPU11、主記憶装置であるROM12及びRAM13、操作ボタンなどの入力デバイス14、LCDや有機ELディスプレイなどの出力デバイス15、サーバ装置120との間でデータの送受信を行う通信モジュール16、メモリディバイス等の補助記憶装置17を備えて構成される。後述するクライアント装置110の各機能は、CPU11、ROM12、RAM13等のハードウェア上に所定のソフトウェアを読み込ませることにより、CPU11の制御の元で入力デバイス14、出力デバイス15、通信モジュール16を動作させると共に、主記憶装置12,13や補助記憶装置17におけるデータの読み出し及び書き込みを行うことで実現される。
1.横浜ですっぱいもの食べたい
2.横浜でスパゲティを食べたい
3.横須賀でスパゲティを食べたい
4.横須賀ですっぱいもの食べたい
この中の2番目が正解であるため、ユーザが2番目を選択すると、訂正内容通知部280は番号「2」を通知する。
続いて、サーバ装置120について詳細に説明する。図2はサーバ装置120のハードウェア構成図である。図2に示すように、サーバ装置120は、物理的には、CPU21、ROM22及びRAM23等の主記憶装置、キーボード及びマウス等の入力デバイス24、ディスプレイ等の出力デバイス25、クライアント装置110との間でデータの送受信を行うためのネットワークカード等の通信モジュール26、ハードディスク等の補助記憶装置27などを含む通常のコンピュータシステムとして構成される。後述するサーバ装置120の各機能は、CPU21、ROM22、RAM23等のハードウェア上に所定のコンピュータソフトウェアを読み込ませることにより、CPU21の制御の元で入力デバイス24、出力デバイス25、通信モジュール26を動作させると共に、主記憶装置22,23や補助記憶装置27におけるデータの読み出し及び書き込みを行うことで実現される。
”横浜で”の音素列は、”y o k o h a m a d e”
音素レベルの時間は0 30 5080 100130 16080 200250 300
“食べたい”の音素列は”t a b e t a i”
音素レベルの時間は800 850 910980 10501110 11601200
音素単位の音声データ抽出部1220は、各音素の対応する時間に基づき、音素対応の音声データを抽出する。上記の例では、音素yに対応する部分は1箇所あり、0msから30msの部分である。また、音素oに対応する部分は2箇所あり、30msから50msまで、80msから100msの部分である。
m= m0*weight+(1.0- weight)*X…(1)
a,始点以降のN番目の単語を終点にする方法.この場合はNを通知してもよい。この実施例では誤り単語始点(“すっぱい”)の以降N=1の場合は“もの”である。
b.始点以降の特殊音声単位(ポーズなど)
c,認識結果の文字列の信頼度がある場合信頼度が高い単語を終点にする
始点だけを通知する場合は、その趣旨と終点の検出方法を通知してもよい。
さらに、終点だけを指定し、始点を自動的に指定することもよい。
以下では、第1実施形態の変形例1について説明する。この変形例1の基本構成と処理は第1実施形態と同じであるが、ユーザ操作部260および比較部270(以上、操作手段、キー関連手段、操作検出手段)の構成と処理が第1実施形態と異なる。以下では、図12、図13を参照しながら第1実施形態との違いの部分だけを説明する。図12は変形例1におけるユーザ操作部260および比較部270の構成図であり、図13は変形例1におけるユーザ操作部260および比較部270の機能および動作を説明するためのフローチャートである。
P=M*(downN-upN)+rightN-leftN…(2)
ただし、Mは一行の文字数を示す。downN、upNはそれぞれ下の行と上の行に移動の回数を示す。RightNとleftNはそれぞれ右と左に移動の回数を示す。この式(2)は同じページ内の移動位置の計算例を示すが、複数ページにわたる場合はページの変更キー操作を考慮した計算に直せばいい。ユーザがカーソルを用いて誤り箇所に移動することは、例えば正しい文字列“横浜で”を飛ばす目的でカーソルを右に三回に移動したこととなる。これを式(2)で考えると、rightN=3であり、残りのパラメータ=0であるため、結果的に訂正箇所の開始位置P=3となる。誤り始点計算部730は、この結果を誤り時間変換部740に渡す。
Q=P+K…(3)
ここで、P、Kはそれぞれ誤りの始点位置、削除キーの数を示す。Qは誤り終点の位置を示す。この例ではQ=3+6=9、つまり認識結果の文字列の“の”部分に対応する。誤り終点計算部750は、訂正の始点箇所と終点箇所、或いは訂正した文字数を誤り時間変換部740に通知する。
以下では、第1実施形態の変形例2について説明する。この変形例2の基本構成と処理は第1実施形態と同じであるが、音響モデル修正部1060の構成と処理が第1実施形態と異なる。以下では、図14を参照しながら第1実施形態との違いの部分だけを説明する。図14は変形例2における音響モデル修正部1060の構成図である。
引き続き、本発明の第2実施形態について説明する。この第2実施形態の基本構成と処理は第1実施形態と同じであるが、サーバ装置120に新単語抽出部1410(辞書更新手段)および辞書更新部1420(辞書更新手段)が更に備えられていることが異なる。また、言語モデル保持部1030(格納手段)には音声認識を行うための単語辞書が格納されている。以下では、図15を参照しながら第1実施形態との違いの部分だけを説明する。図15は第2実施形態におけるサーバ装置120の構成図である。
引き続き、本発明の第3実施形態について説明する。第3実施形態は、ユーザからのフィードバックデータにユーザの意図を反映する重要な情報が含まれているため、その情報を他のアプリに有効に利用するための実施形態である。この第3実施形態におけるクライアント装置110およびサーバ装置120については第1実施形態および第2実施形態と同じであるが、音声認識システム1がユーザープロフィールサーバ1510(ユーザデータベース、ユーザデータベース検索手段、ユーザデータベース更新手段)およびアプリサーバ1520を更に備えることが異なる。以下では、図17、図18を参照しながら第1実施形態および第2実施形態との違いの部分だけを説明する。図17は第3実施形態における音声認識システム1の構成図であり、図18は第3実施形態における音声認識システム1の機能および動作を説明するためのフローチャートである。
続いて、第1〜第3実施形態にかかる音声認識システム1の作用及び効果について説明する。音声認識システム1によれば、音声認識を行うサーバ装置120からの音声認識結果に対してユーザが操作を行うことができる。そのため、ユーザは当該音声認識結果に対して誤認識された部分を指摘したり、または正しく直すことが可能となる。これらのユーザの操作をサーバ装置120にフィードバックする。そして、サーバ装置120では、ユーザからのフィードバックを参照して、誤認識された部分を除いてからのデータに基づいてモデル更新を行ったり、または正しく直した部分を更に追加したデータに基づいてモデル更新を行う。このため、モデル更新の精度を高めることができる。このように高い精度で更新された音響モデルや言語モデルを用いれば、より高い性能で音声認識を行うことができる。誤り区間の音声に対して再度認識を行う場合にも、次回入力された音声データに対して初めて認識を行う場合でも、上記高い精度で更新した音響モデルや言語モデルを利用することができる。
Claims (28)
- 音声認識を行うサーバ装置より前記音声認識の結果を文字列として受信する認識結果受信手段と、
前記文字列に対してユーザが操作を行うための操作手段と、
前記操作を検出する操作検出手段と、
当該検出した操作の内容を前記サーバ装置に通知する通知手段と、
を備えることを特徴とするクライアント装置。 - 音声を入力する音声入力手段と、
前記サーバ装置に前記音声を送信する音声送信手段と、
を更に備えることを特徴とする請求項1に記載のクライアント装置。 - 前記操作検出手段は、前記文字列に対した前記ユーザの操作箇所を検出し、
前記通知手段は、当該検出した前記操作箇所を前記サーバ装置に通知する、
ことを特徴とする請求項1または請求項2に記載のクライアント装置。 - 前記操作検出手段は、前記ユーザの操作がなかった場合に、その旨を検出し、
前記通知手段は、前記ユーザの操作がなかった旨を前記サーバ装置に通知する、
ことを特徴とする請求項1〜3の何れか1項に記載のクライアント装置。 - 前記操作手段は、前記文字列に対して前記ユーザが訂正を行うためのものであり、
前記訂正後の文字列と認識結果受信手段が受信した当初の文字列とを比較する比較手段を更に備え、
前記操作検出手段は、前記比較手段の前記比較の結果に基づき、前記操作箇所を検出する、
ことを特徴とする請求項1〜4の何れか1項に記載のクライアント装置。 - 前記操作手段は、前記文字列に対して前記ユーザが訂正を行うためのものであり、
前記訂正後の文字列の内容を判断する判断手段を更に備え、
前記操作検出手段は、前記判断手段の前記判断の結果に基づき、前記操作箇所を検出する、
ことを特徴とする請求項1〜4の何れか1項に記載のクライアント装置。 - 前記ユーザが前記操作のために押すキーの種類を判定し、且つ前記キーを押した回数をカウントするキー関連手段を更に備え、
前記操作検出手段は、前記キー関連手段の前記判定および前記カウントの結果に基づき、前記操作箇所の開始箇所を検出する、
ことを特徴とする請求項1〜6の何れか1項に記載のクライアント装置。 - 前記キー関連手段は、前記ユーザが前記操作のために押したキーが削除キーであることを検出し、
前記操作検出手段は、前記キー関連手段の前記削除キーの検出の結果に基づき、前記操作箇所の終了箇所を検出する、
ことを特徴とする請求項7に記載のクライアント装置。 - 前記通知手段は、前記ユーザの前記操作の内容に対する読み、品詞、文字数の少なくとも一つ以上を通知する、
ことを特徴とする請求項1〜8の何れか1項に記載のクライアント装置。 - 前記操作検出手段は、前記操作箇所の前記開始箇所に基づき、前記操作箇所の終了箇所を検出する、
ことを特徴とする請求項7に記載のクライアント装置。 - 認識結果受信手段が、音声認識を行うサーバ装置より前記音声認識の結果を文字列として受信する認識結果受信ステップと、
操作手段を用いて、前記文字列に対してユーザが操作を行う操作ステップと、
操作検出手段が、前記操作を検出する操作検出ステップと、
通知手段が、当該検出した操作の内容を前記サーバ装置に通知する通知ステップと、
を備えることを特徴とする認識結果フィードバック方法。 - 認識結果受信手段が、音声認識を行うサーバ装置より前記音声認識の結果を文字列として受信する認識結果受信ステップと、
操作手段を用いて、前記文字列に対してユーザが操作を行う操作ステップと、
操作検出手段が、前記操作を検出する操作検出ステップと、
通知手段が、当該検出した操作の内容を前記サーバ装置に通知する通知ステップと、
をコンピュータに実行させることを特徴とする認識結果フィードバックプログラム。 - 音声認識を行うためのモデルを格納する格納手段と、
クライアント装置より音声を受信する音声受信手段と、
前記モデルを用いて前記音声に対する前記音声認識を行う音声認識手段と、
前記音声認識の結果を保存する認識結果保存手段と、
前記結果を前記クライアント装置に送信する認識結果送信手段と、
前記クライアント装置より前記認識結果に対するフィードバックデータを受信するフィードバック受信手段と、
前記認識結果保存手段に保存された音声認識結果と、前記フィードバック受信手段が受信したフィードバックデータを照合し、当該照合の結果に基づき、前記認識結果保存手段に保存された音声認識結果中の正解部分を抽出する抽出手段と、
前記正解部分のデータを利用し、前記モデルを更新する更新手段と、
を備えることを特徴とするサーバ装置。 - 前記フィードバックデータは、前記認識結果に対する認識誤り区間の時間情報である、
ことを特徴とする請求項13に記載のサーバ装置。 - 前記抽出手段は、前記認識誤り区間の時間情報と、前記認識結果保存手段に保存された音声認識結果における各文字の時間情報とを照合し、当該照合の結果に基づき、前記正解部分を抽出する、
ことを特徴とする請求項14に記載のサーバ装置。 - 前記フィードバックデータは、前記認識結果に対する認識誤り区間の時間情報、および訂正後の文字列である、
ことを特徴とする請求項13に記載のサーバ装置。 - 前記抽出手段は、前記認識誤り区間の時間情報と、前記認識結果保存手段に保存された音声認識結果における各文字の時間情報とを照合し、当該照合の結果に基づき、前記正解部分を抽出し、
前記更新手段は、前記正解部分のデータ、および前記訂正後の文字列を利用し、前記モデルを更新する、
ことを特徴とする請求項16に記載のサーバ装置。 - 前記訂正後の文字列と、前記ユーザの元の発生内容との間の一致度を計算する一致度計算手段を更に備え、
前記一致度計算手段は、前記一致度が所定の閾値以下の場合に、前記更新手段に前記訂正後の文字列を前記モデルの更新に利用させない、
ことを特徴とする請求項17に記載のサーバ装置。 - 前記正解部分および前記訂正後の文字列について、各文字に対する時間情報を抽出する時間情報抽出手段を更に備え、
前記更新手段は、前記時間情報を利用し、前記モデルを更新する、
ことを特徴とする請求項17に記載のサーバ装置。 - 前記格納手段には、前記音声認識を行うための単語辞書が更に格納されており、
前記訂正後の文字列のうち、前記単語辞書に含まれていないものを新単語として抽出し、前記新単語を前記単語辞書に追加する辞書更新手段を更に備える、
ことを特徴とする請求項13〜19の何れか1項に記載のサーバ装置。 - 前記ユーザに対する情報が格納されたユーザデータベースと、
前記正解部分および前記訂正後の文字列に含まれた単語を用いて前記ユーザデータベースを検索するユーザデータベース検索手段と、を更に備える
ことを特徴とする請求項13〜20の何れか1項に記載のサーバ装置。 - 前記正解部分に含まれた単語、および前記訂正後の文字列に含まれた単語にそれぞれ個別の重要度を付与し、当該重要度付きの単語を用いて前記ユーザデータベースを更新するユーザデータベース更新手段を更に備える、
ことを特徴とする請求項21に記載のサーバ装置。 - 前記ユーザデータベースには、前記ユーザの利用時間、活動範囲、年齢、性別のうち少なくても一つ以上を表す情報が当該ユーザと関連付けられて格納されている、
ことを特徴とする請求項21または請求項22に記載のサーバ装置。 - 格納手段に、音声認識を行うためのモデルが格納されており、
音声受信手段が、クライアント装置より音声を受信する音声受信ステップと、
音声認識手段が、前記モデルを用いて前記音声に対する前記音声認識を行う音声認識ステップと、
認識結果保存手段が、前記音声認識の結果を保存する認識結果保存ステップと、
認識結果送信手段が、前記結果を前記クライアント装置に送信する認識結果送信ステップと、
フィードバック受信手段が、前記クライアント装置より前記認識結果に対するフィードバックデータを受信するフィードバック受信ステップと、
抽出手段が、前記認識結果保存手段に保存された音声認識結果と、前記フィードバック受信手段が受信したフィードバックデータを照合し、当該照合の結果に基づき、前記認識結果保存手段に保存された音声認識結果中の正解部分を抽出する抽出ステップと、
更新手段が、前記正解部分のデータを利用し、前記モデルを更新する更新ステップと、
を備えることを特徴とする音声認識のモデル更新方法。 - 格納手段に、音声認識を行うためのモデルが格納されており、
音声受信手段が、クライアント装置より音声を受信する音声受信ステップと、
音声認識手段が、前記モデルを用いて前記音声に対する前記音声認識を行う音声認識ステップと、
認識結果保存手段が、前記音声認識の結果を保存する認識結果保存ステップと、
認識結果送信手段が、前記結果を前記クライアント装置に送信する認識結果送信ステップと、
フィードバック受信手段が、前記クライアント装置より前記認識結果に対するフィードバックデータを受信するフィードバック受信ステップと、
抽出手段が、前記認識結果保存手段に保存された音声認識結果と、前記フィードバック受信手段が受信したフィードバックデータを照合し、当該照合の結果に基づき、前記認識結果保存手段に保存された音声認識結果中の正解部分を抽出する抽出ステップと、
更新手段が、前記正解部分のデータを利用し、前記モデルを更新する更新ステップと、
をコンピュータに実行させることを特徴とする音声認識のモデル更新プログラム。 - 請求項1に記載のクライアント装置および請求項13に記載のサーバ装置を備えることを特徴とする音声認識システム。
- 請求項11に記載の認識結果フィードバック方法および請求項24に記載の音声認識のモデル更新方法を備えることを特徴とする音声認識方法。
- 請求項12に記載の認識結果フィードバックプログラムおよび請求項25に記載の音声認識のモデル更新プログラムを備えることを特徴とする音声認識プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210849A JP2010048890A (ja) | 2008-08-19 | 2008-08-19 | クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2008210849A JP2010048890A (ja) | 2008-08-19 | 2008-08-19 | クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2010048890A true JP2010048890A (ja) | 2010-03-04 |
Family
ID=42066045
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2008210849A Pending JP2010048890A (ja) | 2008-08-19 | 2008-08-19 | クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2010048890A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2012081788A1 (ko) * | 2010-12-16 | 2012-06-21 | 엔에이치엔(주) | 온라인 음성인식을 처리하는 음성인식 클라이언트 시스템, 음성인식 서버 시스템 및 음성인식 방법 |
JP2016128924A (ja) * | 2010-05-19 | 2016-07-14 | サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 対話、及び/又は、命令決定プロセスの操作データの変更 |
CN111326136A (zh) * | 2020-02-13 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111382297A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康存储科技有限公司 | 一种用户侧用户数据的上报方法及装置 |
JP2021081527A (ja) * | 2019-11-15 | 2021-05-27 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 音声認識装置、音声認識方法、および、音声認識プログラム |
JP7236570B1 (ja) | 2022-01-11 | 2023-03-09 | ソフトバンク株式会社 | システム、通信端末、及び方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0250198A (ja) * | 1988-05-27 | 1990-02-20 | Toshiba Corp | 音声認識システム |
JP2005234136A (ja) * | 2004-02-18 | 2005-09-02 | Ntt Docomo Inc | 音声認識サーバ、音声入力システム、及び、音声入力方法 |
-
2008
- 2008-08-19 JP JP2008210849A patent/JP2010048890A/ja active Pending
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH0250198A (ja) * | 1988-05-27 | 1990-02-20 | Toshiba Corp | 音声認識システム |
JP2005234136A (ja) * | 2004-02-18 | 2005-09-02 | Ntt Docomo Inc | 音声認識サーバ、音声入力システム、及び、音声入力方法 |
Cited By (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016128924A (ja) * | 2010-05-19 | 2016-07-14 | サノフィ−アベンティス・ドイチュラント・ゲゼルシャフト・ミット・ベシュレンクテル・ハフツング | 対話、及び/又は、命令決定プロセスの操作データの変更 |
US9842591B2 (en) | 2010-05-19 | 2017-12-12 | Sanofi-Aventis Deutschland Gmbh | Methods and systems for modifying operational data of an interaction process or of a process for determining an instruction |
US10629198B2 (en) | 2010-05-19 | 2020-04-21 | Sanofi-Aventis Deutschland Gmbh | Medical apparatuses configured to receive speech instructions and use stored speech recognition operational data |
US11139059B2 (en) | 2010-05-19 | 2021-10-05 | Sanofi-Aventis Deutschland Gmbh | Medical apparatuses configured to receive speech instructions and use stored speech recognition operational data |
WO2012081788A1 (ko) * | 2010-12-16 | 2012-06-21 | 엔에이치엔(주) | 온라인 음성인식을 처리하는 음성인식 클라이언트 시스템, 음성인식 서버 시스템 및 음성인식 방법 |
US9318111B2 (en) | 2010-12-16 | 2016-04-19 | Nhn Corporation | Voice recognition client system for processing online voice recognition, voice recognition server system, and voice recognition method |
CN111382297A (zh) * | 2018-12-29 | 2020-07-07 | 杭州海康存储科技有限公司 | 一种用户侧用户数据的上报方法及装置 |
JP2021081527A (ja) * | 2019-11-15 | 2021-05-27 | エヌ・ティ・ティ・コミュニケーションズ株式会社 | 音声認識装置、音声認識方法、および、音声認識プログラム |
CN111326136A (zh) * | 2020-02-13 | 2020-06-23 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
CN111326136B (zh) * | 2020-02-13 | 2022-10-14 | 腾讯科技(深圳)有限公司 | 语音处理方法、装置、电子设备及存储介质 |
JP7236570B1 (ja) | 2022-01-11 | 2023-03-09 | ソフトバンク株式会社 | システム、通信端末、及び方法 |
JP2023102137A (ja) * | 2022-01-11 | 2023-07-24 | ソフトバンク株式会社 | システム、通信端末、及び方法 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US9947317B2 (en) | Pronunciation learning through correction logs | |
US10210862B1 (en) | Lattice decoding and result confirmation using recurrent neural networks | |
TWI427620B (zh) | A speech recognition result correction device and a speech recognition result correction method, and a speech recognition result correction system | |
US8612212B2 (en) | Method and system for automatically detecting morphemes in a task classification system using lattices | |
JP5480760B2 (ja) | 端末装置、音声認識方法および音声認識プログラム | |
JP5440177B2 (ja) | 単語カテゴリ推定装置、単語カテゴリ推定方法、音声認識装置、音声認識方法、プログラム、および記録媒体 | |
US11682381B2 (en) | Acoustic model training using corrected terms | |
KR101590724B1 (ko) | 음성 인식 오류 수정 방법 및 이를 수행하는 장치 | |
Mandal et al. | Recent developments in spoken term detection: a survey | |
US11024298B2 (en) | Methods and apparatus for speech recognition using a garbage model | |
JP4930379B2 (ja) | 類似文検索方法、類似文検索システム及び類似文検索用プログラム | |
CN101415259A (zh) | 嵌入式设备上基于双语语音查询的信息检索系统及方法 | |
JPWO2005122144A1 (ja) | 音声認識装置、音声認識方法、及びプログラム | |
WO2003010754A1 (fr) | Systeme de recherche a entree vocale | |
JP5753769B2 (ja) | 音声データ検索システムおよびそのためのプログラム | |
JP2010048890A (ja) | クライアント装置、認識結果フィードバック方法、認識結果フィードバックプログラム、サーバ装置、音声認識のモデル更新方法、音声認識のモデル更新プログラム、音声認識システム、音声認識方法、音声認識プログラム | |
JP5396530B2 (ja) | 音声認識装置および音声認識方法 | |
JP4966324B2 (ja) | 音声翻訳装置、および方法 | |
CN100568222C (zh) | 歧义消除语言模型 | |
JP5238395B2 (ja) | 言語モデル作成装置および言語モデル作成方法 | |
JP2004309928A (ja) | 音声認識装置、電子辞書装置、音声認識方法、検索方法、及びプログラム | |
KR102392992B1 (ko) | 음성 인식 기능을 활성화시키는 호출 명령어 설정에 관한 사용자 인터페이싱 장치 및 방법 | |
JP2014137636A (ja) | 情報検索装置及び情報検索方法 | |
KR102217621B1 (ko) | 사용자 발화의 오류를 교정하는 방법 및 장치 | |
Chien et al. | A spoken‐access approach for chinese text and speech information retrieval |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110329 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120424 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120706 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20130129 |