JP6389795B2 - 音声認識結果整形装置、方法及びプログラム - Google Patents
音声認識結果整形装置、方法及びプログラム Download PDFInfo
- Publication number
- JP6389795B2 JP6389795B2 JP2015089493A JP2015089493A JP6389795B2 JP 6389795 B2 JP6389795 B2 JP 6389795B2 JP 2015089493 A JP2015089493 A JP 2015089493A JP 2015089493 A JP2015089493 A JP 2015089493A JP 6389795 B2 JP6389795 B2 JP 6389795B2
- Authority
- JP
- Japan
- Prior art keywords
- sentence
- speech recognition
- similarity
- formatted
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
[第一実施形態]
図1に示すように、音声認識結果整形装置は、音声認識部1と、整形文記憶部2と、類似度計算部3と、整形部4とを例えば備えている。この音声認識結果整形装置が、図2に例示する各ステップの処理を行うことにより音声認識結果整形方法が実現される。
音声認識部1には、音声データ(pcm,wavなど)、及び、必要に応じてユーザによって選択された最大結果出力数Nが入力される。ここで、Nは所定の正の整数である。Nが予め定められている場合には、Nがユーザによって選択及び入力されなくてもよい。音声認識部1は、例えば下記の処理を行い、音声認識結果の上位からN位までの文、及び、必要に応じて各文の各単語に対する信頼度(音声認識アルゴリズムがその単語らしいと判断したスコア)を出力する。
〔参考文献1〕中川聖一,堀部千寿,“音響尤度と言語尤度を用いた音声認識結果の信頼度の算出”,情報処理学会研究報告,音声言語情報処理36-13, pp.87-92, (2001)
信頼度:綺麗な→0.7 風景→0.5 など→0.3 を→0.2 が→0.6 ほしい→0.9
2位:綺麗な風景画像がほしい
信頼度:綺麗な→0.7 風景→0.5 画像→0.2 が→0.6 ほしい→0.9
整形文記憶部2には、複数の整形文が記憶されている。整形文記憶部2に記憶されている整形文の数をDとする。Dは2以上の整数である。整形文は、日本語として文法の誤りが少ないように予め整形された文である。整形文として、例えば、過去の手入力文を用いることができる。また、整形文は、過去の音声入力発話からある閾値以下の信頼度の単語を1つ以上含んでいるような文を削除するなどの方法により生成されてもよい。
類似度計算部3には、最も確からしい音声認識結果を含む確からしさ上位N個の音声認識結果、及び、整形文記憶部2から読み込んだ複数の整形文が入力される。類似度計算部3は、例えば下記の処理を行い、最大類似度整形文を出力する(ステップS2)。
音声認識結果:「綺麗な風景などをがほしい」(「画像」→「などを」と誤認識)
この音声認識結果を、類似した正しい文に置換する。整形文記憶部2には、下記のような多数の整形文を用意しておく。
「綺麗な風景がみれる場所」
「綺麗な風景を教えて」
・・・
まず、類似度計算部3は、音声認識部1が出力した上位N個の音声認識結果の文のそれぞれと、整形文記憶部2から読み込んだ複数の整形文のそれぞれとについて、このままだと言葉の形式になっているものを、特徴ベクトル化する。実用上は、整形文記憶部2に記憶されている整形文はすでに与えられているため、予め以下に示す(1)から(5)の方法によって特徴ベクトル化しておき、入力が与えられたときは音声認識結果の文のみについて特徴ベクトルへの変換を行ってもよい。
第一の方法では、ある文の特徴ベクトルを、その文の各単語の出現頻度を表すベクトルとする。また、ある第一文とある第二文の類似度は、その第一文の特徴ベクトルとその第二文の特徴ベクトルとの距離の近さであるとする。距離の近さとは、例えば後述するコサイン距離(cos距離)である。ある第一文とは複数の整形文の何れかであり、ある第二文とは上位N個の音声認識結果の文の何れかである。
綺麗な→1 風景→1 など→1 を→1 が→1 ほしい→1
となり、他は0となる。この特徴ベクトル化を1位〜N位の音声認識結果の文のそれぞれに対して行う。以下、その特徴ベクトルをxi (1≦i≦N)とする。
綺麗な→2 風景→1 画像→1
となる。
綺麗な→1 風景→1 画像→1 が→1 ほしい→1
であり、他は0となる。この特徴ベクトル化を整形文記憶部2に記憶された複数の整形文のそれぞれに対して行う。以下、その特徴ベクトルをyi (1≦j≦D)とする。Dは、整形文記憶部2に記憶された整形文の数である。
||x||=12 (綺麗な)+12 (風景)+12 (など)+12 (を)+12 (が)+12 (ほしい)=6
||y||=12 (綺麗な)+12 (風景)+12 (画像)+12 (が)+12 (ほしい)=5
であるため、
第二の方法では、ある文の特徴ベクトルを、その文の各単語が整形文記憶部2に記憶されている複数の整形文において出現する頻度を表すベクトルとする。また、ある第一文とある第二文との類似度は、その第一文の特徴ベクトルとその第二文の特徴ベクトルとの距離の近さであるとする。距離の近さとは、例えばcos距離である。ある第一文とは複数の整形文の何れかであり、ある第二文とは上位N個の音声認識結果の文の何れかである。
「綺麗な」が出現する文の数・・・400
「風景」が出現する文の数・・・300
「画像」が出現する文の数・・・2000
「など」が出現する文の数・・・3000
「を」が出現する文の数・・・50000
「が」が出現する文の数・・・40000
「ほしい」が出現する文の数・・・5000
であったとする。このとき、各単語のidfは、
「綺麗な」のidf=log(150000/400)=2.24
「風景」のidf=log(150000/300)=2.70
「画像」のidf=log(150000/2000)=1.88
「など」のidf=log(150000/3000)=1.70
「を」のidf=log(150000/50000)=0.478
「が」のidf=log(150000/40000)=0.57
「ほしい」のidf=log(150000/2000)=1.88
と計算される。
綺麗な→1 風景→1 など→1 を→1 が→1 ほしい→1
であることから、音声認識結果の文における単語の出現頻度の累計数は6である。したがって、各単語のtfは、
綺麗な→1/6 風景→1/6 など→1/6 を→1/6 が→1/6 ほしい→1/6
となる。tfidfはtfとidfの積によって定義されるため、
綺麗な→(1/6)・2.24=0.37 風景→(1/6)・2.70=0.45 など→(1/6)・1.70=0.28 を→(1/6)・0.478=0.080 が→(1/6)・0.57=0.095 ほしい→(1/6)・1.88=0.31
となる。このtfidfの値の意味は、「を」などの一般的な単語は軽視し、「風景」などの珍しい単語は情報が多いと考え大きい値を割り当てるものである。
綺麗な→(1/5)・2.24=0.45 風景→(1/5)・2.70=0.54 画像→(1/5)・1.70=0.34 が→(1/5)・0.57=0.114 ほしい→(1/5)・1.88=0.38
となる。
第三の方法では、ある文の特徴ベクトルを、その文の各単語の出現頻度を表すベクトルとし、ある文の信頼度特徴ベクトルを、その文の各単語の信頼度を表すベクトルとする。また、複数の整形文の何れかである第一文と上位N個の音声認識結果の文の何れかである第二文との類似度は、その第一文の特徴ベクトルとその第二文の信頼度特徴ベクトルとの距離の近さである。距離の近さとは、例えばcos距離である。ある第一文とは複数の整形文の何れかであり、ある第二文とは上位N個の音声認識結果の文の何れかである。
綺麗な→0.7 風景→0.5 など→0.3 を→0.2 が→0.6 ほしい→0.9
であったとする。信頼度特徴ベクトルは、信頼度の値をそのまま用いる。よって、信頼度特徴ベクトルの各次元の値は、
綺麗な→0.7 風景→0.5 など→0.3 を→0.2 が→0.6 ほしい→0.9
となる。
綺麗な→1 風景→1 など→1 画像→1 ほしい→1
と特徴ベクトル化される。
第四の方法では、ある文の特徴ベクトルを、その文を音素列に変換したときの音素の3gramの出現頻度を表すベクトルとする。また、ある第一文とある第二文との類似度は、その第一文の特徴ベクトルとその第二文の特徴ベクトルとの距離の近さであるとする。距離の近さとは、例えばcos距離である。ある第一文とは複数の整形文の何れかであり、ある第二文とは上位N個の音声認識結果の文の何れかである。
kireinahuukeinadowogahosii(・・・A)
となる。整形文記憶部2に記憶された整形文「綺麗な風景画像がほしい」の音素列は、
kireinahuukeigazougahosii(・・・B)
となる。Aの音素列「kireinahuukeinadowogahosii」であれば、特徴ベクトルは全ての音素の3並びの組み合わせの数だけ次元を持ち、特徴ベクトルの各次元の値は、
kir→1, ire→1, rei→1, rin→1, ina→2, nah→1, ahu→1, huu→1, uuk→1, uke→1, kei→1, ein→1, nad→1,ado→1, dow→1, owo→1, wog→1, oga→1,aho→1, hos→1, osi→1, sii→1
であり、他は0となる。Bの音素列「kireinahuukeigazougahosii」であれば、特徴ベクトルの各次元の値は、
kir→1, ire→1, rei→1, rin→1, ina→1, nah→1, ahu→1, huu→1, uuk→1, uke→1, kei→1, ein→1, iga→1, gaz→1,azo→1, zou →1,oug→1,uga→1,aho→1, hos→1, osi→1, sii→1
であり、他は0となる。
第五の方法では、ある文の特徴ベクトルを、その文の各単語を要素とするベクトルとする。また、ある第一文とある第二文との類似度は、その第一文の特徴ベクトルとその第二文の特徴ベクトルとの意味的類似度とする。意味的類似度は、例えば後述するWordNetを用いて求める。ある第一文とは複数の整形文の何れかであり、ある第二文とは上位N個の音声認識結果の文の何れかである。
(オレンジ,りんご)=0.25
(オレンジ,クジラ)=0.02
(オレンジ,オレンジ)=1
となる。この例では、オレンジとりんごは同じ果物であるため類似度0.25となり、オレンジとクジラは特に関連がないため類似度0.02となり、オレンジとオレンジは単語として完全一致しているため類似度1という値が算出されている。WordNetの具体的な仕組みは、例えば参考文献2などを参照されたい。
〔参考文献2〕Francis Bond, Timothy Baldwin, Richard Fothergill, Kiyotaka Uchimoto, “Japanese SemCor: A Sense-tagged Corpus of Japanese”(2012)
「この付近の地図を検索」
であり、整形文yが
「この付近の地図を探す」
であったとする。ここで、xを単語ごとに分けると、
(この,付近,の,地図,を,検索)
となり、yを単語ごとに分けると、
(この,付近,の,地図,を,探す)
となる。
(全ての類似度の値の総和)=1 +0 +0.2+0 +0 +0 +
0 +1 +0 +0 +0 +0 +
0.2+0 +1 +0 +0.3+0 +
0 +0 +0 +1 +0 +0 +
0 +0 +0.3+0 +1 +0 +
0 +0 +0 +0 +0 +0.9
=6.9
(2つの文の単語数の積)=5×5=25
であるため、意味的類似度は、6.9÷25=0.276と算出される。
ここで、λ1,…,λ5は、各値が0以上であり、合計すると1になる(λ1+λ2+λ3+λ4+λ5=1)重み係数である。重み係数λ1,…,λ5は人手で適切な値を設計する。
y1との類似度が高い上位k=5個の特徴ベクトル:y5, y14, y26, y33, y105
y2との類似度が高い上位k=5個の特徴ベクトル:y15, y27, y36, y59, y130
・・・
という対応関係がD通り得られる。この結果得られた対応関係をk-nnグラフと呼ぶ。
〔参考文献3〕Kazuo Aoyama, Kazumi Saito, and Hiroshi Sawada, “Fast Approximate Similarity Search Based on Degree-Reduced Neighborhood Graphs”, KDD2011, pp. 1055-1063
y5, y14, y26, y33, y105
と表記したが、以降では、インデックスのみを用いて、
1: 5 14 26 33 105
と表記することにする。
1: 2 3 7 16 29
2: 3 5 10 15 34
・・・
となる場合は、
1: 2
2:
・・・
↓
1: 2
2: 3
・・・
↓
(同様の手順を続ける)
↓
1: 2 3
2: 3
・・・
↓
1: 2 3
2: 3 5
・・・
↓
(同様の手順を続ける)
↓
1: 2 3 7 16 29
2: 3 5 10 15 34
・・・
ということになる。k-DRグラフは、このような対応表を作る際、余計な数値は載せないことでコンパクトなグラフを作成することができる。
2: 3 5
・・・
5: 8 17
・・・
ここで、通常ならば、?に1との類似度が3番目に高い7を入れるだけである。しかし、(iと3の類似度)<(iと7の類似度)である場合、1:の対応表に7を入れることは無意味である。なぜならば、この対応表を使って探索する過程で1:にたどり着いた場合、少なくとも3は7に比べて必ずiと類似度が高いため、7が次の候補として選ばれることはあり得ないからである。このように無駄な数字が登録されないため、k-DRグラフは効率的なグラフであると言える。後は先に述べたように順々にkを増やして対応表(グラフ)を作ればよい。
整形部4には、音声認識結果の1位の文、及び、最大類似度整形文が入力される。後述する所定の閾値との比較に基づく処理が行われる場合には、最大類似度整形文に対応する類似度である最大類似度も入力される。整形部4は、以下の処理により、整形結果の文を出力する。
類似度計算部3の(1)の方法において、単語そのものではなく単語の2gram,3gramの出現頻度を用いてもよい。2gram,3gramとは、2つまたは3つの連続した並びを指す。例えば、「綺麗な風景などをがほしい」という文において単語の3gramを特徴量に用いるとき、特徴ベクトルは全ての単語の3つ並びのパターン全ての次元を持つ。この場合、特徴ベクトルの各次元の値は、
「綺麗な;風景;など」→1、「風景;など;を」→1、「など;を;が」→1、「を;が;ほしい」→1
となり、他は0となる。単語の2gramについても同様である。
類似度計算部3の(1)の方法において、単語そのものではなく文字の出現頻度を特徴量として用いてもよい。例えば、「綺麗な風景などをがほしい」の文字列を特徴量に用いるとき、特徴ベクトルは全ての単語を1文字にした場合の全文字を次元に持つ。この場合、特徴ベクトルの各次元の値は、
「綺」→1、「麗」→1、「な」→1、「風」→1、「景」→1、「な」→1、「ど」→1、「を」→1、「が」→1、「ほ」→1、「し」→1、「い」→1
となり、他は0となる。
類似度計算部3の(1)の方法において、単語そのものではなく、第三実施形態のように文字を特徴として用い、距離尺度は編集距離を用いた類似度を用いてもよい。編集距離は、ある文字列を別の文字列に変換する際に必要な1文字の挿入・置換・削除の回数の最小値を指し、2つの文字列間の異なり度合いを表す。例えば、2つの文字列が
「綺麗な風景などをがほしい」
「綺麗な風景画像がほしい」
であれば、
「綺麗な風景などをがほしい」
→「綺麗な風景などがほしい」(「を」を削除)
→「綺麗な風景画どがほしい」(「な」→「画」に置換)
→「綺麗な風景画像がほしい」(「ど」→「像」に置換)
という3回の操作が必要である。このとき、編集距離は3となる。編集距離を自動的に計算するためには、動的計画法によるマッチング(DPマッチング)を用いればよい。
類似度計算部3の(4)の方法において、音素の3gramではなく、2gramの頻度を用いてもよい。例えば、上記のA「kireinahuukeinadowogahosii」という音素列であれば、特徴ベクトルは全ての音素の2並びの組み合わせの数だけ次元を持つ。各次元の値は、
ki→1, ir→1, re→1, ei→1, in→2, na→2, ah→1, hu→1, uu→1, uk→1, ke→1, ad→1, do→1, ow→1, wo→1, og→1, ga→1, ho→1, os→1, si→1, ii→1
となり、他は0となる。
類似度計算部3において、各特徴量の値が品詞に応じて重みを積算するものとしてもよい。例えば、重みを名詞→2、動詞→3と設定した場合を考える。この重みは人手で付与する。特徴ベクトルの各次元の値が、
綺麗な→1 風景→1 など→1 を→1 探す→1
となっているとする。このとき、形態素解析を用いることによって、
綺麗な→形容動詞 風景→名詞 など→助詞 を→助詞 探す→動詞
という品詞情報を取得しておく。重み付けした後の特徴ベクトルの各次元の値は、名詞に2、動詞に3を積算し、
綺麗な→1 風景→2 など→1 を→1 探す→3
となる。
綺麗な;風景→(1+2)/2=1.5 風景;など→(2+1)/2=1.5 など;を→(1+1)/2=1 を;探す→(1+3)/2=2
となる。
kirenahuukeinadowosagasu
であり、これを単語で分けると、
kireina huukei nado wo sagasu
となる。各単語の重みは、
綺麗な→2 風景→1 など→1 を→1 探す→3
であるため、
kirena→2 huukei→1 nado→1 wo→1 sagasu→3
とする。各音素に該当する重みは単語の重みをそのまま用いる。この場合は、
k, i, r, e, i, n, a→2 h, u, u, k, e, i→1 n, a, d, o→1 w ,o→1 s ,a ,g ,a ,s, u→3
となる。
ki→2, ir→2, re→2, ei→4, in→2, na→3, ah→1.5, hu→1, uu→1, uk→1, ke→1, in→1, ad→1, do→1, ow→1, wo→1, os→2, sa→3, ag→3, ga→3, as→3, su→3
となる。3gramの場合も同様である。
類似度計算部3の(1)の方法における単語の出現頻度、または(3)の方法における単語の信頼度において、整形文記憶部2に記憶された整形文の単語は、その整形文に出現する単語だけではなく、文中に出現した単語に対応する潜在語を潜在語言語モデル(LWLM: Latent Words Language Model)によって生成し、加えて用いてもよい。LWLMに関する詳細なアルゴリズムは参考文献4を参照されたい。
〔参考文献4〕K. Deschacht, J. D. Belder and M-F. Moens, “The Latent Words Language Model”, Computer Speech and Language, vol. 26, pp. 384-409, 2012
この→0.4 近く→0.5 の→0.1 レストラン→0.7 まで→0.5 の→0.6 道→0.7 を→0.9 教えて→0.4
という値を元々持っていたとする。LWLMの結果、上記の表のような潜在語が付与されたとすると、各次元の値は元の値に潜在語の確率値を積算したうえで使用する。上記の例では、もとの単語「教えて」に関しては、「教えて(0.9), 知りたい(0.1)」という潜在語を持っている。もとの単語「教えて」の重みは0.4であるため、
知りたい→0.4×0.1=0.04 教えて→0.4×0.9=0.36
を値として採用することとする。
この→0.4 近く→0.5 の→0.1 レストラン→0.7 まで→0.5 の→0.6 道→0.7 を→0.9 教えて→0.4
となり、潜在語を考慮した特徴量は、
この→0.4 近く→0.5 の→0.1 レストラン→0.7 まで→0.5 の→0.6 道→0.7 を→0.9 教えて→0.36 知りたい→0.04
となる。単語の頻度を特徴量に用いる(1)の方法においても同様に計算すればよい。
類似度計算部3の(5)の方法において、意味的類似度の尺度として、Wordnetを用いるのではなく、情報検索に基づく類似度(IR-Similarity)を用いてもよい。IR-Similarityについて詳しくは参考文献5(P.164 2.4節)に詳しい。
〔参考文献5〕Davide Buscaldi, Joseph Le Roux, Jorge J. Garcia Flores, Adrian Popesu, “LIPN-CORE: Semantic Text Similarity using n-grams, WordNet, SyntacticAnalysis, ESA and Information Retrieval based Features”, ACL, June 13-14, 2013.
「綺麗な風景などをが惜しい」
「綺麗な風景画像がほしい」を検索クエリ(クエリpとする)として検索エンジンにかけ、検索結果の上位K個のページを取得する。このページからテキスト情報のみを抜き出した文書集合をLp={dp1, dp2, …, dpK}とする。また、「綺麗な風景などをが惜しい」(クエリqとする)に対しても同じ処理をし、その結果として得られた文章集合をLq={dq1, dq2, …, dqK}とする。このとき、類似度を、
〔参考文献6〕Yuanhua Lv, ChengXiang Zhai, “Adaptive Term Frequency Normalization for BM25”, CIKM 2011
類似度計算部3において、最終的に整形文記憶部2から類似度が最大の整形文を出力する際、1位に相当するyjに対応する類似度と整形文を出力するのではなく、上位N個を算出してもよい。その類似度とそれに対応する整形文を整形部4でそのまま出力する。ただし、類似度が予め設定した閾値より小さいものに対応する文は出力しないものとする。こうしてN個の文をユーザに提示し、N個の中からユーザに適切なものを選択させる。Nは人手で適切な値を設計する。例えば、N=5などを用いる。
上記実施形態で説明した各装置における各種の処理機能をコンピュータによって実現する場合、各装置が有すべき機能の処理内容はプログラムによって記述される。そして、このプログラムをコンピュータで実行することにより、上記各装置における各種の処理機能がコンピュータ上で実現される。
2 整形文記憶部
3 類似度計算部
4 整形部
Claims (3)
- 最も確からしい音声認識結果を含む確からしさ上位N個の音声認識結果について音声認識結果整形を行う音声認識結果整形装置において、
複数の整形文が記憶されている整形文記憶部と、
上記整形文記憶部から読み込んだ複数の整形文のそれぞれと上記上位N個の音声認識結果の文のそれぞれとの組み合わせについて複数種類の類似度を重み付けして求めた統合類似度が上記複数の整形文の中で最も高い整形文である最大類似度整形文を出力する類似度計算部と、
上記最大類似度整形文を整形された音声認識結果として出力する整形部と、
を含み、
上記類似度計算部は、上記整形文記憶部に記憶されている複数の整形文それぞれについて上記複数の整形文のうちその整形文との上記統合類似度が高い所定の数の整形文を対応付けた対応表を用いて、上記上位N個の音声認識結果の文それぞれについて上記対応表を探索することで上記最大類似度整形文を求めるものである、
音声認識結果整形装置。 - 最も確からしい音声認識結果を含む確からしさ上位N個の音声認識結果について音声認識結果整形を行う音声認識結果整形方法において、
整形文記憶部に、複数の整形文が記憶されており、
類似度計算部が、上記整形文記憶部から読み込んだ複数の整形文のそれぞれと上記上位N個の音声認識結果の文のそれぞれとの組み合わせについて複数種類の類似度を重み付けして求めた統合類似度が上記複数の整形文の中で最も高い整形文である最大類似度整形文を出力する類似度計算ステップと、
整形部が、上記最大類似度整形文を整形された音声認識結果として出力する整形ステップと、
を含み、
上記類似度計算ステップは、上記整形文記憶部に記憶されている複数の整形文それぞれについて上記複数の整形文のうちその整形文との上記統合類似度が高い所定の数の整形文を対応付けた対応表を用いて、上記上位N個の音声認識結果の文それぞれについて上記対応表を探索することで上記最大類似度整形文を求めるものである、
音声認識結果整形方法。 - 請求項1に記載の音声認識結果整形装置の各部としてコンピュータを機能させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015089493A JP6389795B2 (ja) | 2015-04-24 | 2015-04-24 | 音声認識結果整形装置、方法及びプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015089493A JP6389795B2 (ja) | 2015-04-24 | 2015-04-24 | 音声認識結果整形装置、方法及びプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016206487A JP2016206487A (ja) | 2016-12-08 |
JP6389795B2 true JP6389795B2 (ja) | 2018-09-12 |
Family
ID=57489659
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015089493A Active JP6389795B2 (ja) | 2015-04-24 | 2015-04-24 | 音声認識結果整形装置、方法及びプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6389795B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6763527B2 (ja) * | 2018-08-24 | 2020-09-30 | ソプラ株式会社 | 認識結果補正装置、認識結果補正方法、およびプログラム |
JP2020086364A (ja) * | 2018-11-30 | 2020-06-04 | 株式会社Nttぷらら | 情報提示システム、情報提示装置、情報提示方法及びコンピュータプログラム |
CN111428486B (zh) * | 2019-01-08 | 2023-06-23 | 北京沃东天骏信息技术有限公司 | 物品信息数据处理方法、装置、介质及电子设备 |
JP7096199B2 (ja) * | 2019-05-16 | 2022-07-05 | ヤフー株式会社 | 情報処理装置、情報処理方法、およびプログラム |
JP7334467B2 (ja) * | 2019-05-17 | 2023-08-29 | 富士電機株式会社 | 対応支援装置および対応支援方法 |
CN113707148B (zh) * | 2021-08-05 | 2024-04-19 | 中移(杭州)信息技术有限公司 | 语音识别准确率的确定方法、装置、设备以及介质 |
Family Cites Families (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3716870B2 (ja) * | 1995-05-31 | 2005-11-16 | ソニー株式会社 | 音声認識装置および音声認識方法 |
JP2950823B1 (ja) * | 1998-09-29 | 1999-09-20 | 株式会社エイ・ティ・アール音声翻訳通信研究所 | 音声認識誤り訂正装置 |
JP3444831B2 (ja) * | 1999-11-29 | 2003-09-08 | 株式会社ジャストシステム | 編集処理装置、及び編集処理プログラムが記憶された記憶媒体 |
WO2008114811A1 (ja) * | 2007-03-19 | 2008-09-25 | Nec Corporation | 情報検索システム、情報検索方法及び情報検索用プログラム |
JP5004863B2 (ja) * | 2008-04-30 | 2012-08-22 | 三菱電機株式会社 | 音声検索装置および音声検索方法 |
JP2010256498A (ja) * | 2009-04-22 | 2010-11-11 | Nec Corp | 変換モデル生成装置、音声認識結果変換システム、方法およびプログラム |
JP2012018201A (ja) * | 2010-07-06 | 2012-01-26 | Hitachi Ltd | テキスト補正方法及び認識方法 |
JP5542559B2 (ja) * | 2010-07-16 | 2014-07-09 | 三菱電機株式会社 | 音声検索インタフェース装置及び音声入力検索方法 |
JP5437204B2 (ja) * | 2010-09-03 | 2014-03-12 | 日本放送協会 | 言語モデル処理装置および音声認識装置、ならびにプログラム |
JP5975938B2 (ja) * | 2013-06-18 | 2016-08-23 | 日本電信電話株式会社 | 音声認識装置、音声認識方法及びプログラム |
-
2015
- 2015-04-24 JP JP2015089493A patent/JP6389795B2/ja active Active
Also Published As
Publication number | Publication date |
---|---|
JP2016206487A (ja) | 2016-12-08 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6389795B2 (ja) | 音声認識結果整形装置、方法及びプログラム | |
CN109840287B (zh) | 一种基于神经网络的跨模态信息检索方法和装置 | |
US8504367B2 (en) | Speech retrieval apparatus and speech retrieval method | |
JP6813591B2 (ja) | モデル作成装置、テキスト検索装置、モデル作成方法、テキスト検索方法、及びプログラム | |
KR101543992B1 (ko) | 언어-내 통계적 머신 번역 | |
JP6222821B2 (ja) | 誤り修正モデル学習装置、及びプログラム | |
CN108140019B (zh) | 语言模型生成装置、语言模型生成方法以及记录介质 | |
CN107391614A (zh) | 一种基于wmd的中文问答匹配方法 | |
CN108538286A (zh) | 一种语音识别的方法以及计算机 | |
WO2003010754A1 (fr) | Systeme de recherche a entree vocale | |
JP2004005600A (ja) | データベースに格納された文書をインデックス付け及び検索する方法及びシステム | |
US8356065B2 (en) | Similar text search method, similar text search system, and similar text search program | |
JP2004133880A (ja) | インデックス付き文書のデータベースとで使用される音声認識器のための動的語彙を構成する方法 | |
US10403271B2 (en) | System and method for automatic language model selection | |
US20100100379A1 (en) | Voice recognition correlation rule learning system, voice recognition correlation rule learning program, and voice recognition correlation rule learning method | |
EP2418589A1 (en) | Retrieval device | |
CN110188174B (zh) | 一种基于专业词汇挖掘的专业领域faq智能问答方法 | |
US20200073890A1 (en) | Intelligent search platforms | |
JP2014232268A (ja) | 音声認識における読み精度を改善するシステム、方法、およびプログラム | |
JP2019082931A (ja) | 検索装置、類似度算出方法、およびプログラム | |
CN114154487A (zh) | 文本自动纠错方法、装置、电子设备及存储介质 | |
CN113239666A (zh) | 一种文本相似度计算方法及系统 | |
US7328157B1 (en) | Domain adaptation for TTS systems | |
JP5975938B2 (ja) | 音声認識装置、音声認識方法及びプログラム | |
JP5914054B2 (ja) | 言語モデル作成装置、音声認識装置、およびそのプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170621 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180517 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180605 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180730 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180814 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180820 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6389795 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |