JP2001516903A - コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法 - Google Patents
コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法Info
- Publication number
- JP2001516903A JP2001516903A JP2000512197A JP2000512197A JP2001516903A JP 2001516903 A JP2001516903 A JP 2001516903A JP 2000512197 A JP2000512197 A JP 2000512197A JP 2000512197 A JP2000512197 A JP 2000512197A JP 2001516903 A JP2001516903 A JP 2001516903A
- Authority
- JP
- Japan
- Prior art keywords
- language
- probability
- word
- class
- text
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 49
- 238000013507 mapping Methods 0.000 claims description 6
- 238000010606 normalization Methods 0.000 claims description 4
- 230000006978 adaptation Effects 0.000 description 13
- 238000012937 correction Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 3
- 238000013459 approach Methods 0.000 description 1
- 230000015572 biosynthetic process Effects 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 238000002474 experimental method Methods 0.000 description 1
- 238000013519 translation Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/19—Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
- G10L15/197—Probabilistic grammars, e.g. word n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Probability & Statistics with Applications (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Machine Translation (AREA)
Abstract
Description
シーケンスの発生する確率を求める方法に関する。
て通常少なくとも1つの単語から成るシーケンスが有用であることが示されてい
る。この有用性に対する尺度は確率である。
Wに対する確率P(W)は、有利には大きな語彙量を有する言語認識の範囲では
一般に(統計的な)言語モデルである。確率P(W)いわゆるワードシーケンス
確率は、Nグラム言語モデルPN(W)によって近似される。すなわち
メイン)を使用することが知られている。種々のドメインのテキストはそれぞれ
の語彙の点で区別されるだけではなく、それぞれの文構造の点でも区別される。
特定のモデルに対する言語モデルの学習には相応に大量のテキスト(テキスト材
料、テキスト集成体)が必要であるが、これは実際にはめったに存在せず、また
あったとしても高いコストがかかる。
上で使用可能な1つの言語におけるできる限り多数の語であり、言語的な特性を
探索プログラムに即してレファレンスするために用いられる。それぞれの語のエ
ントリ(いわゆる語の本形)ごとに語の本形に関連する言語特徴と該当する割り
当て分(Belegung)すなわち言語値とが取り出される。
の単語には種々のタイプの言語特徴および言語値が割り当てられている。表1に
は例として種々の言語特徴およびこれに属する値が示されている(別の例は文献
[3]に示されている)。
場合次の写像ルールFが適用される。すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) ( 0−4) ここでfmは言語特徴であり、mは言語特徴の数であり、vm1...vmjは言語 特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラスであっってi
=1...kであり、kは言語クラスの数であり、Fは所定の言語クラスにおけ
る言語特徴および言語値の写像ルール(クラス識別子)である。
イグラム確率を以下に例文を用いて説明する。
区別される。次の表2にこの関係を示す。
クラスC7に続いて適切なカテゴリすなわち数、格、性のコンビネーションが例 文に関して示されている。実際に生じたクラスバイグラムの頻度が予め設定され
たテキストから求められる場合、上のクラスバイグラムC1−C7に対してはこの
ようなコンビネーションはドイツ語では頻繁に発生するので多数の発生が結論さ
れ、別のクラスバイグラム、例えばコンビネーションC2−C8に対してはドイ
ツ語では性が異なるために許容されない。このようにして見出された頻度から生
じるクラスバイグラム確率は相応に、頻繁に発生する場合には高く、許容されな
い場合には低い。
ら成るシーケンスの発生する確率を求める方法を提供し、僅かなテキスト材料か
ら成るドメインに対する言語モデルを求めることである。
モデルの適応化も含むことに留意されたい。
ら成るシーケンスの発生する確率を求める方法が提供される。 1つの言語は言 語クラス (C1,...,Ck) (1 ) を (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) (2) により有する。ここでfmは言語特徴であり、mは言語特徴の数であり、vm1. ..vmjは言語特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラ
スであってi=1...kであり、kは言語クラスの数であり、Fは所定の言語
クラスにおける言語特徴および言語値の写像ルール(クラス識別子)である。こ
の場合、1つの単語には少なくとも1つ言語クラスが割り当てられている。少な
くとも2つの単語から成るシーケンスの発生する確率はバイグラムを使用して
生する確率であり、Wは少なくとも2つの単語から成るシーケンスであり、wi はシーケンスWのi番目の単語であってi=1...nであり、nはシーケンス
Wの単語Wiの数であり、Ciは単語Wiに属する言語クラスであり、Ci-1は単語
Wi-1に属する言語クラスであり、ΣCiは単語Wiに属する全ての言語クラスC の和であり、P(wi|Ci)は規定のワード確率であり、P(Ci|Ci-1)はバ
イグラムの確率であり(クラスバイグラム確率とも称する)、P(Ci-1|wi-1 )は規定のクラス確率である。
も1つの言語クラスに関連することに注意されたい。同様のことは相応に用語C i-1 にも相当する。例えばクラスバイグラム確率とは、先行の単語Wi-1が第2の
言語クラスに近似する条件のもとで単語Wiが第1の言語クラスに近似する確率 を意味する(冒頭部の例および説明を参照)。
言語モデルを形成するが、これはテキスト集成体、すなわち予め設定された条件
を有するテキストから求められる。
ここで提供される方法は言語モデルに含まれる言語的な特性を使用している。
に即し、確率P(Ci|Ci-1)が新たなテキストのベース言語モデルへ引き継が
れる。
を参照)は一方では学習テキストの文法構造であり、他方では語彙から独立して
いる。新たなドメインはベース言語モデルのオリジナルの学習テキストに類似し
たテキスト構造(文法構造)であるということに基づいて、クラスバイグラムの
確率P(Ci|Ci-1)をベース言語モデルから変更なしに引き継ぐと有利である
。
ラス識別子Fを使用して式2により処理される。テキスト中の新たな語に対して
自動的に少なくとも1つの言語クラスが求められる。言語クラス、言語特徴およ
び言語値に関する詳細な説明は文献[3]を、言語辞書に関する詳細な説明は文
献[4]および/または冒頭部の説明を参照されたい。
手段に従って求める、すなわち a)確率P(wi|Ci)をテキストに即して求めるか、 b)確率P(wi|Ci)を単語Wiごとに予め設定された確率P(wi)を用いて
求めるか、 c)確率P(wi|Ci)をワードリストを使用して求める。
デルを適応化する。ここで有利には、求められた確率P(wi|Ci)がベース言
語モデル内に取り入れられる。
る場合に、相応の少なくとも1つの単語から成るシーケンスを認識する。そうで
ない場合には予め設定されたアクションを実行する。この予め設定されたアクシ
ョンとはエラーメッセージの出力または当該の方法を中止するトリガである。
るドメインに関連している。
ンの言語モデルを求めるのに僅かな量の新たなテキストしか必要としない。
(wi)のデータを有しても有さなくてもよい。ドメインに関連する言語認識は 実際には重要な役割を果たす。本発明の方法は実際の要求に対処可能であり、実
験では適切かつ有効であると判明している。ベース言語モデルに立ち戻って云え
ば、新たに評価される確率の数はP(wi|Ci)の評価が必要なだけであるた め著しく低減される。
ピュータによる言語認識の際に少なくとも2つのワードから成るシーケンスの発
生する確率を求める方法のステップを含むブロック図が示されている。図2には
確率P(wi|Ci)を求める第1の適応化方法が示されている。図3には確率P
(wi|Ci)を求める第2の適応化方法が示されている。
シーケンスが発生する確率を求める方法の個々のステップが示されている。ステ
ップ101では、言語が言語クラス (C1,...,Ck) (1 ) へ区分される。すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) (2) へ分割される。ここでfmは言語特徴であり、mは言語特徴の数であり、vm1. ..vmjは言語特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラ
スであってi=1...kであり、kは言語クラスの数であり、Fは所定の言語
クラスにおける言語特徴および言語値の写像ルール(クラス識別子)である。
4に記載されており、ここでは言語特徴とこれに属する言語値が種々のカテゴリ
に依存して発生することが例示的に示されている。
。文献[3]に記載されているように、単語には1つまたは複数の言語クラスを
割り当てることができる。
る確率P(W)が
、wiはシーケンスWのi番目の単語であってi=1...nであり、nはシー ケンスWの単語Wiの数であり、Ciは単語Wiに属する言語クラスであり、Ci-1 は単語Wi-1に属する言語クラスであり、ΣCiは単語Wiに属する全ての言語ク ラスCの和であり、P(wi|Ci)は規定の確率であり、P(Ci|Ci-1)はバ
イグラムの確率であり(クラスバイグラム、バイグラム確率とも称する)、P(
Ci-1|wi-1)は規定のクラス確率である。
、P(Ci-1|wi-1)のカスケード乗算から形成される。
式2に示されているように言語クラスが割り当てられる。この場合それぞれ新た
な単語には自動的に少なくとも1つの言語クラスが割り当てられる。ベース言語
モデルは文献[3]に記載のクラスバイグラムに対する確率を有しており、この
確率は一方では文法構造を表し、他方では個々の単語から独立している。ドメイ
ンすなわち特殊な適用領域に関連するテーマ領域がベース言語モデルを基礎とす
る学習テキストと類似したテキスト構造を有することに基づいて、クラスバイグ
ラムの確率P(Ci|Ci-1)はベース言語モデルから変更なしに引き継がれる。
このような自動的な割り当てが可能となるのは、一貫してテキストの内容とは無
関係に、言語特徴および言語値、すなわち言語クラスへの写像(式2を参照)が
1つの言語に固有に対応しており、したがって有利には1つのテーマ領域(ドメ
イン)から他のテーマ領域へ移すことができる点に基づいている。複数の学習テ
キストの文法構造は類似であるかまたは同一であり、それぞれの学習テキストを
基礎とするテーマ領域(ドメイン)から独立している。確率P(Ci|Ci-1)は
ベース言語モデルに対して先行の学習トライアルによって求められ、新たなテキ
ストの語彙のクラス割り当てに関連する基礎知識となる。これは新たに求める必
要はなく、言語モデルが充分な程度に詳細性を有していれば引き継ぐことができ
る。
算し、ベース言語モデルに存在する語彙の単語の確率P(wi|Ci)を有利には
相応に適応化しなければならない。確率P(wi|Ci)を求めるために以下に3
つの異なる方法を説明する。
ら出発し、その際に新たに評価された確率P(wi|Ci)は有利にはベース言語
モデルへ引き継がれ、これによりベース言語モデルは新たなテキストに即して適
応化される。有利にはこの手法は、新たなドメインの新たなテキストが充分な量
を有する場合に使用される。新たなテキストの各単語にはセンテンスコンテクス
トにより求められた少なくとも1つの言語クラスが割り当てられる。これは文献
[3]に記載されている“タグ付けツール”により行われる。新たなそれぞれの
単語Wiに対する確率P(wi|Ci)は新たなテキストに即して評価される。
ス識別子F211と言語辞書206とを用いてタグ付けツール202を使用し(
タグ付けツールの詳細な説明は文献[3]を参照)、大きなテキストのデータベ
ース201から“タグ付きの”大きなテキスト203が求められ、また新たなド
メイン(すなわち新たなテキスト)の小さなテキストのデータベース207から
は“タグ付きの”小さいテキスト208が求められる。“タグ付きの”大きなテ
キスト203からは言語モデル発生器204を用いて、言語クラスに基づくベー
ス言語モデル205が求められる。上述したように、確率P(Ci|Ci-1)は変
更なしで新たなドメインの言語モデルへ導入される。“タグ付きの”小さいテキ
スト208からは、確率P(wi|Ci)の評価を“タグ付きの”小さいテキスト
によって行う適応化ツール209を用いて、有利には適応化された新たな言語モ
デル210が求められる。これは限定的なものではなく、ここで説明した適応化
のほかに別の言語モデルを形成することもできる。
の低減された寄与分が移される。これは新たな単語のそれぞれの値P(wi)に 依存して行われる。
。クラス識別子F311と言語辞書306とを用いてタグ付けツール302に即
して、大きなテキストのデータベース301から“タグ付きの”大きなテキスト
303が求められる。言語モデル発生器304により“タグ付きの”大きなテキ
スト303から言語クラスに基づくベース言語モデル305が求められる。ベー
ス言語モデル305から確率P(Ci|Ci-1)は変更なしで引き継がれる。新た
なドメイン307のワードリストに即して、適応化ツール308により適応化さ
れた言語モデル309が求められる。ここでも適応化という場合、言語モデルの
変更または形成を含む。適応化ツール308では新たな単語の確率P(wi|Ci )が確率P(wi)から計算され、再正規化がベース言語モデルの確率P(wi|
Ci)に対して行われる。以下にこの方法を詳細に説明する。
彙の数であり、NCはベース言語モデルのそれぞれのクラスCの単語数であり、 kはベース言語モデルのクラスの数であり、P(Cj)はベース言語モデルのク ラスに対するユニグラムの確率であってj=0,...,kであり、P(Cj| Ci-1)はベース言語モデルのクラスに対するバイグラム確率であってj=1, ...,kであり、P(wi|Cj(wi))およびP(Cj(wi)|wi)は単 語Wiが言語クラスCjに存在する場合の全ての単語Wi,i=1,...,N、 および全てのクラスCj(wi),j=0,...,kに対するベース言語モデル
の確率である。
語モデルの言語クラスを形成することに相応する。ベース言語モデルのクラス識
別子F(式2を参照)が引き継がれる。したがって言語クラスの数kは変更され
ない。テキストの新たなドメインに対して、ベース言語モデルに基づく学習テキ
ストと類似した構造が出力される。クラスバイグラム確率P(Ci|Ci-1)およ
びベース言語モデルのクラスユニグラム確率P(Cj)は変更されないまま維持 される。
および確率P(Cj(wi)|wi)は維持される。確率P(wi|Cj(wi)) および確率P(Cj(wi)|wi)は新たなドメインのベース言語モデルには含 まれない語に対して計算される。ベース言語モデルの単語に対する既存の確率は
再スケーリングされる。
あり、Lは新たなドメインに対する言語モデルすなわち目標言語モデルの語彙の
数であり、LCはそれぞれの言語クラスCにおける新たな単語Whおよびベース言
語モデルの単語Wiの数であり、P(wh)は新たなドメイン内のクラスに依存し
ない単語の確率である。
ある。
す。
語Wi全体にわたっての合計である。
分と古いワードの語彙の成分との商として解釈される。
[6]を参照)次のように示すことができる。すなわち
ストラテジが引き継がれる。ここでは存在しない新たな単語Whに対する確率P (wh)が近似される。これはそれぞれの単語WhのメインカテゴリHCに依存し
て行われる。近似的に
ース言語モデルのそれぞれの単語Wiが属する全てのクラスCjにわたって行われ
る。
おいて確率P(Ci-1|wi-1)がインデクスi−1を有していることに注意され
たい。以下ではこのインデクスを簡単にインデクスiと設定する。
であり、ここで正規化係数は
んでいる。確率P(Ci)はベース言語モデルから引き継がれる。これはベース 言語モデルのそれぞれの言語クラスに対するユニグラム確率である。
ら成るシーケンスの発生する確率を求める方法を提供し、僅かなテキスト材料か
ら成るドメインに対する言語モデルを求めることである。
る場合に、相応の少なくとも2つの単語から成るシーケンスを認識する。そうで
ない場合には予め設定されたアクションを実行する。この予め設定されたアクシ
ョンとはエラーメッセージの出力または当該の方法を中止するトリガである。
る確率P(W)が
Claims (8)
- 【請求項1】 a)1つの言語は次の言語クラスを有し、すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vm1,...,vmj)) ここでfmは言語特徴であり、mは言語特徴の数であり、vm1,...,vmjは 言語特徴fmの言語値であり、jは言語値の数であり、C1,...,Ckは言語 クラスであり、kは言語クラスの数であり、Fは所定の言語クラスに対する言語
特徴および言語値の写像ルール(クラス識別子)であり、 b)1つの語に前記言語クラスのうち少なくとも1つを割り当て、 c)少なくとも2つの単語から成るシーケンスの発生する確率を次式により求め
る、すなわち 【数1】 ここでP(W)は少なくとも2つの単語から成るシーケンスの発生する確率であ
り、Wは少なくとも2つの単語から成るシーケンスであり、wiはシーケンスW のi番目の単語であってi=1...nであり、nはシーケンスWの単語Wiの 数であり、Ciは単語Wiに属する言語クラスCであり、Ci-1は単語Wi-1に属す
る言語クラスであり、ΣCiは単語wiに属する全ての言語クラスCにわたる和 であり、P(wi|Ci)は規定のワード確率であり、P(Ci|Ci-1)はバイグ
ラムの確率であり(クラスバイグラム、バイグラム確率とも称する)、P(Ci- 1 |wi-1)は規定のクラス確率である、 ことを特徴とするコンピュータによる言語認識の際に少なくとも2つの単語から
成るシーケンスの発生する確率を求める方法。 - 【請求項2】 テキストごとに予め定められたベース言語モデルに即して、
確率P(Ci|Ci-1)をベース言語モデルから引き継ぐことによりテキストごと
の確率P(Ci|Ci-1)を求める、請求項1記載の方法。 - 【請求項3】 確率P(wi|Ci)を以下の手段のうち少なくとも1つの手
段に従って求める、すなわち a)確率P(wi|Ci)をテキストに即して求めるか、 b)確率P(wi|Ci)を単語wiごとに予め設定された確率P(wi)を用いて
求めるか、 c)確率P(wi|Ci)をワードリストを使用して求める、 請求項2記載の方法。 - 【請求項4】 求められた確率P(wi|Ci)に即してベース言語モデルを
適応させる、請求項3記載の方法。 - 【請求項5】 確率P(Ci|wi)を確率P(wi|Ci)に即して次式によ
り求める、すなわち P(Ci|wi)=K×P(wi|Ci)×P(Ci) ここで 【数2】 は正規化係数である、 請求項3または4記載の方法。 - 【請求項6】 少なくとも1つの単語から成るシーケンスが発生する確率P
(W)が予め設定された閾値を上方超過する場合に相応の少なくとも1つの単語
から成るシーケンスを認識し、そうでない場合には予め設定されたアクションを
実行する、請求項1から5までのいずれか1項記載の方法。 - 【請求項7】 前記予め設定されたアクションはエラーメッセージの出力ま
たは当該の方法を中止するトリガである、請求項6記載の方法。 - 【請求項8】 テキストが予め設定された適用領域に関連する、請求項2か
ら7までのいずれか1項記載の方法。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE19740911.3 | 1997-09-17 | ||
DE19740911 | 1997-09-17 | ||
PCT/DE1998/002632 WO1999014740A1 (de) | 1997-09-17 | 1998-09-07 | Verfahren zur bestimmung einer wahrscheinlichkeit für das auftreten einer folge von mindestens zwei wörtern bei einer spracherkennung |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001516903A true JP2001516903A (ja) | 2001-10-02 |
JP4243017B2 JP4243017B2 (ja) | 2009-03-25 |
Family
ID=7842662
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000512197A Expired - Lifetime JP4243017B2 (ja) | 1997-09-17 | 1998-09-07 | コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法 |
Country Status (6)
Country | Link |
---|---|
EP (1) | EP1016077B1 (ja) |
JP (1) | JP4243017B2 (ja) |
CN (1) | CN1111841C (ja) |
DE (1) | DE59800737D1 (ja) |
ES (1) | ES2158702T3 (ja) |
WO (1) | WO1999014740A1 (ja) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006525552A (ja) * | 2003-04-30 | 2006-11-09 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 音声認識における統計的言語モデリング方法 |
JP2008058341A (ja) * | 2006-08-29 | 2008-03-13 | Nippon Hoso Kyokai <Nhk> | 単語分類装置及び音声認識装置及び単語分類プログラム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20040078191A1 (en) * | 2002-10-22 | 2004-04-22 | Nokia Corporation | Scalable neural network-based language identification from written text |
EP1450350A1 (en) * | 2003-02-20 | 2004-08-25 | Sony International (Europe) GmbH | Method for Recognizing Speech with attributes |
CA2486125C (en) | 2003-10-30 | 2011-02-08 | At&T Corp. | A system and method of using meta-data in speech-processing |
DE102004048348B4 (de) * | 2004-10-01 | 2006-07-13 | Daimlerchrysler Ag | Verfahren zur Adaption und/oder Erzeugung statistischer Sprachmodelle |
US20060149553A1 (en) * | 2005-01-05 | 2006-07-06 | At&T Corp. | System and method for using a library to interactively design natural language spoken dialog systems |
US8478589B2 (en) | 2005-01-05 | 2013-07-02 | At&T Intellectual Property Ii, L.P. | Library of existing spoken dialog data for use in generating new natural language spoken dialog systems |
US8185399B2 (en) | 2005-01-05 | 2012-05-22 | At&T Intellectual Property Ii, L.P. | System and method of providing an automated data-collection in spoken dialog systems |
CN101271450B (zh) * | 2007-03-19 | 2010-09-29 | 株式会社东芝 | 裁剪语言模型的方法及装置 |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5418717A (en) * | 1990-08-27 | 1995-05-23 | Su; Keh-Yih | Multiple score language processing system |
EP0481107B1 (en) * | 1990-10-16 | 1995-09-06 | International Business Machines Corporation | A phonetic Hidden Markov Model speech synthesizer |
US5949961A (en) * | 1995-07-19 | 1999-09-07 | International Business Machines Corporation | Word syllabification in speech synthesis system |
-
1998
- 1998-09-07 WO PCT/DE1998/002632 patent/WO1999014740A1/de active IP Right Grant
- 1998-09-07 JP JP2000512197A patent/JP4243017B2/ja not_active Expired - Lifetime
- 1998-09-07 EP EP98954131A patent/EP1016077B1/de not_active Expired - Lifetime
- 1998-09-07 CN CN98809243A patent/CN1111841C/zh not_active Expired - Fee Related
- 1998-09-07 DE DE59800737T patent/DE59800737D1/de not_active Expired - Lifetime
- 1998-09-07 ES ES98954131T patent/ES2158702T3/es not_active Expired - Lifetime
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006525552A (ja) * | 2003-04-30 | 2006-11-09 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 音声認識における統計的言語モデリング方法 |
JP4740837B2 (ja) * | 2003-04-30 | 2011-08-03 | ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング | 音声認識における統計的言語モデリング方法、システム及び記録媒体 |
JP2008058341A (ja) * | 2006-08-29 | 2008-03-13 | Nippon Hoso Kyokai <Nhk> | 単語分類装置及び音声認識装置及び単語分類プログラム |
Also Published As
Publication number | Publication date |
---|---|
WO1999014740A1 (de) | 1999-03-25 |
CN1111841C (zh) | 2003-06-18 |
CN1270687A (zh) | 2000-10-18 |
EP1016077A1 (de) | 2000-07-05 |
JP4243017B2 (ja) | 2009-03-25 |
EP1016077B1 (de) | 2001-05-16 |
DE59800737D1 (de) | 2001-06-21 |
ES2158702T3 (es) | 2001-09-01 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7031101B2 (ja) | 方法、システムおよび有形コンピュータ可読デバイス | |
CN108304372B (zh) | 实体提取方法和装置、计算机设备和存储介质 | |
US6393388B1 (en) | Example-based translation method and system employing multi-stage syntax dividing | |
US8909529B2 (en) | Method and system for automatically detecting morphemes in a task classification system using lattices | |
US6598017B1 (en) | Method and apparatus for recognizing speech information based on prediction | |
EP0838073B1 (en) | Method and apparatus for dynamic adaptation of a large vocabulary speech recognition system and for use of constraints from a database in a large vocabulary speech recognition system | |
US7707027B2 (en) | Identification and rejection of meaningless input during natural language classification | |
US6188976B1 (en) | Apparatus and method for building domain-specific language models | |
US6910004B2 (en) | Method and computer system for part-of-speech tagging of incomplete sentences | |
US7496621B2 (en) | Method, program, and apparatus for natural language generation | |
CN106897439A (zh) | 文本的情感识别方法、装置、服务器以及存储介质 | |
US20010051868A1 (en) | Method and configuration for forming classes for a language model based on linguistic classes | |
CA2621451A1 (en) | Word recognition using ontologies | |
US8099281B2 (en) | System and method for word-sense disambiguation by recursive partitioning | |
JPH06266780A (ja) | 意味パターン認識による文字列検索方法及びその装置 | |
CN111104803B (zh) | 语义理解处理方法、装置、设备及可读存储介质 | |
US20210104235A1 (en) | Arbitration of Natural Language Understanding Applications | |
JP2001516903A (ja) | コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法 | |
CN114144774A (zh) | 问答系统 | |
US20020103837A1 (en) | Method for handling requests for information in a natural language understanding system | |
CN114550718A (zh) | 热词语音识别方法、装置、设备与计算机可读存储介质 | |
López-Cózar et al. | Using knowledge of misunderstandings to increase the robustness of spoken dialogue systems | |
JPH1049543A (ja) | 文書検索装置 | |
US20050086214A1 (en) | Computer system and method for multilingual associative searching | |
JP2004354787A (ja) | 統計情報を用いた対話方法及びその装置と、対話プログラム及びそのプログラムを記録した記録媒体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050906 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20081128 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20081226 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120109 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130109 Year of fee payment: 4 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |