JP3913626B2 - 言語モデル生成方法、その装置及びそのプログラム - Google Patents
言語モデル生成方法、その装置及びそのプログラム Download PDFInfo
- Publication number
- JP3913626B2 JP3913626B2 JP2002208433A JP2002208433A JP3913626B2 JP 3913626 B2 JP3913626 B2 JP 3913626B2 JP 2002208433 A JP2002208433 A JP 2002208433A JP 2002208433 A JP2002208433 A JP 2002208433A JP 3913626 B2 JP3913626 B2 JP 3913626B2
- Authority
- JP
- Japan
- Prior art keywords
- database
- text
- language model
- general
- recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
Images
Description
【発明の属する技術分野】
この発明は、例えば人が発声した文章などの音声を入力信号とし、その音声を音響モデルおよび記号連鎖確率(言語モデル)を用いて認識し、その結果を記号列として出力する音声認識方法に用いられる、前記言語モデルの生成方法、その装置及びプログラムに関するものである。
【0002】
【従来の技術】
音声入力を音声認識により記号列(単語列)に変換する場合、大規模なテキストデータベースから記号(単語)の出現連鎖に関する記号連鎖確率(言語モデル)を生成し、それを利用することで音声認識性能を向上させる手法が従来から知られている。しかし、認識タスク(発声内容)が、記号連鎖確率の生成に用いた大規模なテキストデータベースのタスクと異なったりする場合には有効性が低かった。
そこで、このような問題点を解決するため、特開平04−291399号公報に示すように、認識タスクに類似したテキストデータベースから作成した学習用記号連鎖確率を用いて、大規模なテキストデータベースから生成した記号連鎖確率を適応化し、この適応化された記号連鎖確率を利用して音声認識を行うようにした技術も従来から提案されている。
【0003】
また、特開2002−82690号公報に示すように、認識タスクに関するテキストデータベースに基づいて、大規模なテキストデータベース中の各データに認識タスクとの関連の高さに応じた重みを与えて記号連鎖確率を作成し、この作成された記号連鎖確率を利用して音声認識を行うようにした技術も従来から提案されている。
【0004】
【発明が解決しようとする課題】
上述した認識タスクに関するテキストデータベースを用いる従来の技術は、大規模なテキストデータベースから生成した記号連鎖確率のみを用いる技術に比較して、高い認識性能を実現できるが、この発明の第1の目的は更に高い認識性能を実現可能とする言語モデル生成方法、その装置およびプログラムを提供することにある。
また従来の方法は認識タスクに関するテキストデータベースを用意できない(既存のものがない)場合には利用できないという問題があった。例えば天気予報の問合せに対する音声応答システムを構築する場合に、その天気予報の問合せ音声(認識タスク)に関する各種の問合せ文に関するテキストデータを作成または収集して認識タスクテキストデータベースを作ることになるが、その認識タスクが新しい場合にその認識タスクテキストデータベースを作るのが大変な作業となる。
【0005】
そこで、この発明の第2の目的は、認識タスクに関するテキストデータベースを用いることなく、複数の一般(既存)のテキストデータベースを用いて、記号連鎖確率を生成し、それを認識に用いることにより認識タスクに対して高精度な認識をすることができる言語モデルの生成方法、その装置及びプログラムを提供することにある。
【0006】
【課題を解決するための手段】
この発明の言語モデル生成方法によれば、認識対象のタスク(発声内容)に関するキーワードを格納した認識タスク用キーワードリストを用意し、互いに認識対象を異にする複数のテキストデータベース(以下一般用テキストデータベースという)と、前記キーワードリストを用い、認識タスク用キーワードリストに対する各一般用テキストデータベースの関連(類似性)を示す重みを求め、一般用テキストデータベースを用い、注目する記号(単語)についてそれが属するデータベースの重みを与えて記号連鎖確率を生成する。一般用テキストデータベースは認識対象タスクとは直接関係しなくても構わない。
【0007】
各一般用テキストデータベースの重みを求めるには、例えば認識タスク用キーワードリストから得られる情報に基づいて、各一般用テキストデータベースのテキストデータの関連性(類似度)を検証し、認識タスク用キーワードリストとの関連性の大きい一般用テキストデータベースに大きな重みを与える。認識タスク用キーワードリストと一般用テキストデータベータの関連性(類似度)の検証には、例えば各一般用テキストデータベースについて、認識タスク用キーワードリストのキーワードの出現確率、または認識タスク用キーワードリストのキーワードの属性と同じ属性の単語の出現確率を求めて用いる。
【0008】
この発明の言語モデル生成装置によれば、認識対象のタスクに関するキーワードが格納された認識タスク用キーワードリストと、上記認識対象タスクに限らず様々なタスクに関する一般的なテキストデータが格納された複数の一般用テキストデータベースと、上記認識対象タスクに対する上記各一般用テキストデータベースの関連を示す重みを求める重み決定部と、注目する記号(単語)が入力され、上記複数の一般的なテキストデータベースにおける記号および記号列の出現頻度を、各データベースに上記関連を示す重みを与えて計算して記号連鎖確率(言語モデル)を生成する記号連鎖確率生成部とを具備する。
【0009】
好ましくは上記重み決定部は、上記認識タスク用キーワードリストの各キーワードについて各一般用テキストデータベースにおけるそのキーワードの出現頻度を、すべてのテキストデータベースについて、重み付きで加算し、すべてのキーワードについてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて、上記重みを計算するものである。あるいは上記重み決定部は、上記認識タスク用キーワードリストの各キーワードの属性(クラス)について各一般用テキストデータベースにおけるその属性(クラス)の出現頻度を、すべてのテキストデータベースについて重み付きで加算し、すべてのキーワードの属性(クラス)についてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて上記重みを計算するものである。
【0010】
【発明の実施の形態】
この発明の実施の形態について図面を参照して詳細に説明する。図1にこの発明により生成された言語モデルを用いる音声認識装置の構成例を示す。
音声認識部110と、記号連鎖確率(言語モデル)データベース120と、音声標準パタンデータベース130と、認識タスク用記号連鎖確率生成部140と、認識タスク用キーワードリスト150と、複数の一般用テキストデータベース160−1〜160−Nとを備えている。
音声標準パタンデータベース130は、予め分析された音声の標準パタンを複数保持している。認識タスク用キーワードリスト150には認識対象タスク(発声内容)と関連したキーワードが含まれる。認識対象タスクが例えばレストラン検索の場合、音声認識技術を用いたレストラン検索システムに対して発声される発話文に含まれるキーワード「日本」「フランス」「中華」…,「新宿」「横浜」「浦和」…が認識タスク用キーワードリスト150にコンピュータにより読み取り可能に格納される。一般用テキストデータベース160−1〜160−Nは、例えば新聞記事データベース、小説データベース、天気予報問合せシステム向け発話テキストデータベース、株価問合せシステム向け発話テキストデータベースなど既存のものが用いられ、対象タスクごとに一つの一般用テキストデータベース160−n(n=1,2,…,N)を構成してもよいし、発話テキスト一文ごとにそれぞれ一つの一般用テキストデータベース160−n(n=1,2,…,N)を構成してもよい。これら一般用テキストデータベース160−1〜160−Nはそのテキストデータがそのまま又は単語の区切を付けてコンピュータにより読み取り可能に記憶部に格納されている。
【0011】
認識タスク用記号連鎖確率生成部140は、この発明による記号連鎖確率(言語モデル)生成方法を実行するものであって、認識処理に先立って、認識タスク用キーワードリスト150と、一般用テキストデータベース160−1〜160−Nとから、認識タスクに対する関連性の大きいテキストデータを含む一般用テキストデータベースにより大きな重みを付けて、これら認識タスク用キーワードリストと一般用テキストデータベースを用いて、認識タスクに対して高精度な絞り込みをすることが可能な記号連鎖確率(言語モデル)を生成してそれを記号連鎖確率データベース120にコンピュータにより読み取り可能に格納する。音声認識部110は、入力音声に対して、記号連鎖確率データベース120の記号連鎖確率および音声標準パタンデータベース130の音声標準パタンなどから得られる情報に基づいて記号列候補の絞り込みを行い、認識結果である記号列を出力する。通常、音声標準パタンを用いて、音素、単語などの認識候補をまず求め、これら候補について言語モデルを用いて、最も大きな確率が得られるものを認識記号列とする。
【0012】
図2に、認識タスク用記号連鎖確率生成部140の構成例を示し、この図2を参照してこの発明による言語モデル、つまり記号連鎖確率の生成方法及びその装置の実施例を説明する。重み決定部210では、認識タスク用キーワードリスト150中のキーワードと各一般用テキストデータベース160−nの各テキストデータとを入力し、認識タスクのキーワードと各一般用テキストデータベース160−nのテキストデータとの関連性の大きさからその一般用テキストデータベース160−nに対する重みwn を決定する。この重みwn は関連性の大きいもの程大きくするが、具体的決定手法は後で説明する。複数の一般用テキストデータベース160−1〜160−Nに重みw1 〜wN をそれぞれ格納し、又は重み記憶部211に格納する。
【0013】
記号連鎖確率生成部220では、重み決定部210が出力した重み付きの複数の一般用テキストデータベース160−1〜160−Nの各テキストデータを入力し、記号連鎖確率(言語モデル)を生成して記号連鎖確率データベース120に格納する。この記号連鎖確率、つまり、ユニグラム、バイグラム、トライグラム、一般的にはMグラム(Mは1以上の整数)の生成の基本的な手法は従来の手法と同様であるが、複数の一般的テキストデータベース160−1〜160−Nを1つのテキストデータベースとして、このテキストデータベースから記号連鎖確率を生成するが、その際に、各記号(単語)について、それが属するテキストデータベースの重みを考慮する。例えば単語Aについて、一般用テキストデータベース160−1〜160−Nにおける各出現回数をC1(A)〜CN(A)とすると、これらに対し、そのデータベースの重みを乗じて加算し、
C(A)=w1 ・C1(A)+w2 ・C2(A)+…+wN ・CN(A) (1)
を単語Aの出現回数とし、同様にして他の単語の出現回数を求める。単語Aの出現確率(ユニグラム)P(A)は、単語Aの出現回数C(A)をすべての単語の出現回数ΣkC(k)で割った。
【0014】
P(A)=C(A)/ΣkC(k) (2)
となり、同様にして他の単語の出現確率を求めて記号連鎖確率データベース120に格納する。
あるいは、例えば単語Aの次に単語Bが生じる確率であるバイグラムの場合、単語Aに続いて単語Bが出現する回数について、一般用テキストデータベース160−1〜160−Nにおける各出現回数をC1(A,B)〜CN(A,B)とすると、これらについてそれぞれのデータベースの重みを乗じて加算した
C(A,B)=w1 ・C1(A,B)+w2 ・C2(A,B)+…+wN ・CN(A,B) (3)
を単語連鎖A,Bの出現回数とし、それを単語Aの出現回数C(A)で割った
P(B|A)=C(A,B)/C(A) (4)
を単語Aの次に単語Bが生じるバイグラム確率として、同様にして他の単語連鎖の確率を求めて記号連鎖確率データベース120に格納してもよい。
【0015】
つまり記号連鎖確率生成部220では例えば、出現回数計数部221で、各データベース160−1〜160−Nにおける各出現回数C1(A)〜CN(A)(あるいはC1(A,B)〜CN(A,B))をそれぞれ計数し、これら各出現回数Cn(A)(あるいはCn(A,B))(n=1,…,N)に対応するデータベース160−nの重みwn をそれぞれ重み乗算部222で乗算し、その各乗算結果wn ・Cn(A)(あるいはwn ・Cn(A,B))を累積加算部223で累積加算して、C(A)(あるいはC(A,B))を求め、これら累積加算値はバッファ部224に一時格納され、加算部225ですべての単位についての累積加算値C(k)(k=A,B,…)を加算して、すべての単語の出現回数ΣC(k)を求める。
【0016】
出現確率計算部226で各単語についての式(2)や各単語連鎖についての式(4)をそれぞれ計算する。
次に、認識タスク用記号連鎖確率生成部140中の重み決定部210における処理手順を説明する。例えば、認識タスク用キーワードリスト150に含まれるキーワードの集合がKWで、認識タスク用キーワードリスト150中におけるキーワードAの出現確率がPt(A)で、一般用テキストデータベース160−nにおける単語Aの出現確率(ユニグラム)がPn(A)、そのデータベース160−nのすべての単語数がΣkCn(k)のとき、
【0017】
【数1】
【0018】
を最大とするようなw=w1 ,w2 ,…,wN を最尤推定により求める。キーワードの集合KWのキーワードの数を|KW|とするとキーワードAの出現確率Pt(A)=1/|KW|となり、認識用タスク用キーワードリスト15中のすべてのキーワードのそれぞれの出現確率は1/|KW|となる。
以上の説明より、重み決定部210は出現回数計数部212で各データベース160−nにおける各単語k(k=A,B,…)の数が計数Cn(k)が計数され、これがバッファ部213に格納され、すべてのデータベース160−1〜160−Nにおけるすべての単語の出現回数Cn(k)の計数が終了すると、最尤推定部214で式(5)を最大にする重みw1 ,w2 ,…,wN が最尤推定法により推定される。最尤推定部214には1/|KW|も入力されている。なお出現回数計数部212では各単語kの各データベースごとの出現回数Cn(k)を計数しているためこの計数結果を、記号連鎖確率生成部220内の出現回数計数部221でのCn(k)の計数に利用できる。
【0019】
以上述べたようにこの実施例では、認識タスク用キーワードリスト150と各一般用データベース160−1〜160−Nとの関連性を求めて、各データベース160−1〜160−Nの重みw1 〜wN を求めているため認識タスク用テキストデータベースと一般用データベースとの関連性を求める場合より、キーワードとの関連性が直接的になり、従来技術より関連性をより正確に求めることができ、それだけ認識率を高めることが可能となる。しかも認識タスク用キーワードリスト150の作成は、認識タスク用テキストデータベースを作成する場合と比較して頗る簡単であり、それだけ言語モデルを簡単に作成できることになる。
【0020】
なお、認識タスク用のテキストデータベースが利用可能の場合には、認識タスク用のテキストデータベースを一般用テキストデータベース160−1〜160−Nに含め、認識タスク用キーワードリスト150および認識タスク用のテキストデータベースに含まれる単語の集合をKWとすることで、上記L(w)を最大とするようなw=w1 ,w2 ,…,wN を最尤推定により求めてもよい。この場合は各キーワードkの出現確率Pt(k)がキーワードにより異なってくる場合が多い。この場合も認識タスク用キーワードリストと各テキストデータベースとの関連性を求めているため、従来よりも正確に重みを決定できる。
【0021】
上述の重みw=w1 ,w2 ,…,wN の推定において、キーワードの代わりにキーワードの属性(クラス)を用いてもよい。例えば、キーワードリスト内の「東京」「神奈川」「大阪」…という単語の属性を「都道府県名」と定義しておき、一般用テキストデータベース160−1〜160−Nに出現する「都道府県名」属性の単語の出現回数について、上述の方法で重みを推定してもよい。このようにすれば、例えばキーワードとして「横須賀」があるが、データベース160−1〜160−N中に単語「横須賀」がないものがあると、そのデータベースが有効に利用できなくなる可能性があるが、属性により重みを推定すればそのようなおそれはなくなる。
【0022】
また、認識タスクと関連性の低いデータを排除する(重みを0とする)ことにより、保持する情報を削減して、記号連鎖確率(言語モデル)を格納する記号連鎖確率データベース120の記憶容量を小さくすることができる。
上述した言語モデルの生成及び音声認識はコンピュータによりプログラムを実行させて行うこともできる。例えば図3に示すように各部がバス370に接続され、メモリ340に言語モデル生成プログラムがCD−ROM、ハードディスクなどからあるいは通信回線を介してインストールされてあり、CPU360がこの言語モデル生成プログラムを実行することにより、認識タスク用キーワードリスト150、一般用テキストデータベース160−1〜160−Nを用いて、重みw=w1 ,w2 ,…,wN を上述の方法で求め、その後、重みw=w1 ,w2 ,…,wN を用いて一般用テキストデータベース160−1〜160−Nの単語について記号連鎖確率(言語モデル)を生成して記号連鎖確率データベース120に格納する。
【0023】
その後、音声認識を行うが、メモリ350に音声認識プログラムを前述と同様にインストールしておき、入力部310に音声が入力されると、CPU360が音声認識プログラムを実行し、記号連鎖確率データベース120、音声標準パタンデータベース130を参照して音声認識を行い、その結果の記号列を出力部330から出力する。なお入力部310で入力される音声は例えば線形予測分析されたLPCケプストラム、LPCデルタケプストラム、対数パワーなどの特徴パラメータのベクトルデータ時系列とされたものである。記憶部320は言語モデル生成や、音声認識時に一時にデータを記憶するためなどに用いられる。
【0024】
なおこの発明の言語モデル生成方法は音声認識に利用する場合に限らず、手書文字データの認識にも利用できる。
【0025】
【発明の効果】
以上述べたようにこの発明によれば下記の効果を得ることができる。
一般の大規模データベース群から、認識タスク用キーワードリストに関連したデータに重み付けをすることにより、より正確に関連性と対応した重みを求めることができ、それだけ言語モデルも正しいものとなる。
特に認識タスクに関するテキストデータを用いずに、認識タスクに対して高精度な記号連鎖確率を生成することができ、認識タスクのテキストデータベースが存在しない場合にこれを作る必要がなく、それだけ簡単に言語モデルを作ることができる。
【0026】
重み付けの際に、認識タスク用キーワードリストに対して関連性(類似度)の低いデータに対する重みを0にすれば、高精度かつ記憶容量の小さい記号連鎖確率を生成することができる。
【図面の簡単な説明】
【図1】この発明の言語モデル生成方法を用いた音声認識方法が適用される装置の機能構成例を示すブロック図。
【図2】この発明の言語モデル(記号連鎖確率)生成方法が適用される言語モデル生成装置の機能構成例を示すブロック図。
【図3】この発明による言語モデル生成方法、これを用いる音声認識方法をコンピュータにより実行される場合の機能構成例を示す図。
Claims (7)
- 認識対象のタスクに関するキーワードを格納した認識タスク用キーワードリストと、互いに異なる種類のテキストデータをそれぞれ格納した複数のテキストデータベース(以下、一般用テキストデータベースという)とを用い、
上記認識対象タスクに対する上記各一般用テキストデータベースの関連を示す重みを求め、
上記複数の一般用テキストデータベースを用いて、注目する記号(単語)についてそれを含むテキストデータが格納されているデータベースの上記関連を示す重みを与えて、記号および記号列の出現頻度を計算して記号連鎖確率(言語モデル)を生成する言語モデル生成方法であって、
上記関連を示す重みは、各一般用テキストデータベースについて認識タスク用キーワードリストのキーワードの出現頻度を求め、この出現頻度をすべての一般用テキストデータベースについて、重み付きで加算し、すべてのキーワードについてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて、計算することを特徴とする言語モデル生成方法。 - 認識対象のタスクに関するキーワードを格納した認識タスク用キーワードリストと、互いに異なる種類のテキストデータをそれぞれ格納した複数のテキストデータベース(以下、一般用テキストデータベースという)とを用い、
上記認識対象タスクに対する上記各一般用テキストデータベースの関連を示す重みを求め、
上記複数の一般用テキストデータベースを用いて、注目する記号(単語)についてそれを含むテキストデータが格納されているデータベースの上記関連を示す重みを与えて、記号および記号列の出現頻度を計算して記号連鎖確率(言語モデル)を生成する言語モデル生成方法であって、
上記関連を示す重みは、各一般用テキストデータベースについて認識タスク用キーワードリストのキーワードの属性(クラス)の出現頻度を求め、この出現頻度をすべての一般用テキストデータベースについて、重み付きで加算し、すべてのキーワードの属性(クラス)についてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて、計算することを特徴とする言語モデル生成方法。 - 上記複数の各一般用テキストデータベースは上記認識対象タスクと直接関係しないテキストデータが格納されていることを特徴とする請求項1又は2記載の言語モデル生成方法。
- 認識対象のタスクに関するキーワードが格納された認識タスク用キーワードリストと、
互いに異なる種類のテキストデータが格納された複数の一般用テキストデータベースと、
上記認識対象タスクに対する上記各一般用テキストデータベースの関連を示す重みを求める重み決定部と、
注目する記号(単語)が入力され、上記複数の一般用テキストデータベースにおける記号および記号列の出現頻度を、各データベースに上記関連を示す重みを与えて計算して記号連鎖確率(言語モデル)を生成する記号連鎖確率生成部とを具備する言語モデル生成装置であって、
上記重み決定部は、上記認識タスク用キーワードリストの各キーワードについて各一般用テキストデータベースにおけるそのキーワードの出現頻度を、すべてのテキストデータベースについて、重み付きで加算し、すべてのキーワードについてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて、上記重みを計算する手段であることを特徴とする言語モデル生成装置。 - 認識対象のタスクに関するキーワードが格納された認識タスク用キーワードリストと、
互いに異なる種類のテキストデータが格納された複数の一般用テキストデータベースと、
上記認識対象タスクに対する上記各一般用テキストデータベースの関連を示す重みを求める重み決定部と、
注目する記号(単語)が入力され、上記複数の一般用テキストデータベースにおける記号および記号列の出現頻度を、各データベースに上記関連を示す重みを与えて計算して記号連鎖確率(言語モデル)を生成する記号連鎖確率生成部とを具備する言語モデル生成装置であって、
上記重み決定部は、上記認識タスク用キーワードリストの各キーワードの属性(クラス)について各一般用テキストデータベースにおけるその属性(クラス)の出現頻度を、すべてのテキストデータベースについて重み付きで加算し、すべてのキーワードの属性(クラス)についてキーワードリストにおける出現確率を乗じて加算した値が最大となるように最尤推定を用いて上記重みを計算する手段であることを特徴とする言語モデル生成装置。 - 上記複数の各一般用テキストデータベースは上記認識対象タスクと直接関係しないテキストデータが格納されていることを特徴とする請求項4又は5記載の言語モデル生成装置。
- 請求項1乃至3の何れかに記載の言語モデル生成方法の各手順をコンピュータに実行させるためのプログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002208433A JP3913626B2 (ja) | 2002-07-17 | 2002-07-17 | 言語モデル生成方法、その装置及びそのプログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002208433A JP3913626B2 (ja) | 2002-07-17 | 2002-07-17 | 言語モデル生成方法、その装置及びそのプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004053745A JP2004053745A (ja) | 2004-02-19 |
JP3913626B2 true JP3913626B2 (ja) | 2007-05-09 |
Family
ID=31932579
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002208433A Expired - Lifetime JP3913626B2 (ja) | 2002-07-17 | 2002-07-17 | 言語モデル生成方法、その装置及びそのプログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP3913626B2 (ja) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2005122143A1 (ja) | 2004-06-08 | 2005-12-22 | Matsushita Electric Industrial Co., Ltd. | 音声認識装置および音声認識方法 |
JP4280770B2 (ja) | 2006-01-11 | 2009-06-17 | キヤノン株式会社 | プロセスカートリッジ及び電子写真画像形成装置 |
JP5062171B2 (ja) * | 2006-03-23 | 2012-10-31 | 日本電気株式会社 | 音声認識システム、音声認識方法および音声認識用プログラム |
JP5124012B2 (ja) * | 2010-12-10 | 2013-01-23 | 日本放送協会 | 音声認識装置及び音声認識プログラム |
JP5772585B2 (ja) * | 2011-12-28 | 2015-09-02 | トヨタ自動車株式会社 | 音声認識装置、方法、及びプログラム |
-
2002
- 2002-07-17 JP JP2002208433A patent/JP3913626B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
JP2004053745A (ja) | 2004-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2021208287A1 (zh) | 用于情绪识别的语音端点检测方法、装置、电子设备及存储介质 | |
JP5541035B2 (ja) | 音声検索装置及び音声検索方法 | |
US6754626B2 (en) | Creating a hierarchical tree of language models for a dialog system based on prompt and dialog context | |
CN108831445A (zh) | 四川方言识别方法、声学模型训练方法、装置及设备 | |
US20150371633A1 (en) | Speech recognition using non-parametric models | |
US20020188446A1 (en) | Method and apparatus for distribution-based language model adaptation | |
EP4318463A2 (en) | Multi-modal input on an electronic device | |
US8271282B2 (en) | Voice recognition apparatus, voice recognition method and recording medium | |
CN111145733B (zh) | 语音识别方法、装置、计算机设备和计算机可读存储介质 | |
US11354754B2 (en) | Generating self-support metrics based on paralinguistic information | |
CN102246169A (zh) | 为搜索词分配指标权重 | |
CN111462748B (zh) | 语音识别处理方法、装置、电子设备及存储介质 | |
CN110853630B (zh) | 面向边缘计算的轻量级语音识别方法 | |
CN113807103B (zh) | 基于人工智能的招聘方法、装置、设备及存储介质 | |
Gandhe et al. | Using web text to improve keyword spotting in speech | |
JP7400112B2 (ja) | 自動音声認識のための英数字列のバイアス付加 | |
JP3913626B2 (ja) | 言語モデル生成方法、その装置及びそのプログラム | |
WO2020238681A1 (zh) | 音频处理方法、装置和人机交互系统 | |
CN111640423B (zh) | 一种词边界估计方法、装置及电子设备 | |
JP3628245B2 (ja) | 言語モデル生成方法、音声認識方法及びそのプログラム記録媒体 | |
Li et al. | Construction and analysis of hidden Markov model for piano notes recognition algorithm | |
CN115455142A (zh) | 文本检索方法、计算机设备和存储介质 | |
JP4362054B2 (ja) | 音声認識装置及び音声認識プログラム | |
JP3836607B2 (ja) | 音声認識のための統計的言語モデル作成装置 | |
JP4024614B2 (ja) | 言語モデル生成方法、装置およびプログラム、テキスト分析装置およびプログラム |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20040227 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20060201 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20060221 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060419 |
|
RD03 | Notification of appointment of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7423 Effective date: 20060419 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20070123 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20070131 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 3913626 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110209 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120209 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130209 Year of fee payment: 6 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
EXPY | Cancellation because of completion of term |