JP2001516903A - コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法 - Google Patents

コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法

Info

Publication number
JP2001516903A
JP2001516903A JP2000512197A JP2000512197A JP2001516903A JP 2001516903 A JP2001516903 A JP 2001516903A JP 2000512197 A JP2000512197 A JP 2000512197A JP 2000512197 A JP2000512197 A JP 2000512197A JP 2001516903 A JP2001516903 A JP 2001516903A
Authority
JP
Japan
Prior art keywords
language
probability
word
class
text
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2000512197A
Other languages
English (en)
Other versions
JP4243017B2 (ja
Inventor
ヴィッチェル ペトラ
ヘーゲ ハーラルト
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Siemens AG
Original Assignee
Siemens AG
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Siemens AG filed Critical Siemens AG
Publication of JP2001516903A publication Critical patent/JP2001516903A/ja
Application granted granted Critical
Publication of JP4243017B2 publication Critical patent/JP4243017B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/19Grammatical context, e.g. disambiguation of the recognition hypotheses based on word sequence rules
    • G10L15/197Probabilistic grammars, e.g. word n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Probability & Statistics with Applications (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 自動言語認識システムの認識率を改善するために、統計的な言語モデルを使用する。ここで提供される方法によれば、テキスト量の僅かな場合ないし全くテキストの無い場合の言語モデルを構築することができる。言語クラスが形成され、言語モデルすなわちワードシーケンスのアプリオリな確率がテキストの文法構造に基づきテキストの語彙に依存して求められる。このために単語についての規定の確率と言語クラスについての規定の確率とが定められる。予め設定された適用領域に対する言語モデルを新たに作成する他に、この方法は同様に既存の言語モデルを新たな適用領域に適応させるための手段を有する。

Description

【発明の詳細な説明】
【0001】 本発明は、コンピュータによる言語認識の際に少なくとも2つの単語から成る
シーケンスの発生する確率を求める方法に関する。
【0002】 言語認識の方法は文献[1]から周知である。ここではワード認識の要素とし
て通常少なくとも1つの単語から成るシーケンスが有用であることが示されてい
る。この有用性に対する尺度は確率である。
【0003】 統計的な言語モデルは文献[2]から周知である。すなわちワードシーケンス
Wに対する確率P(W)は、有利には大きな語彙量を有する言語認識の範囲では
一般に(統計的な)言語モデルである。確率P(W)いわゆるワードシーケンス
確率は、Nグラム言語モデルPN(W)によって近似される。すなわち
【0004】
【数3】
【0005】 ここでwiはシーケンスWのi番目の単語であってi=1...nであり、nは シーケンスWの単語Wiの数である。N=2でこの式0−1からいわゆるバイグ ラムが得られる。
【0006】 さらに有利に商用分野における言語認識では、語彙の制限された適用領域(ド
メイン)を使用することが知られている。種々のドメインのテキストはそれぞれ
の語彙の点で区別されるだけではなく、それぞれの文構造の点でも区別される。
特定のモデルに対する言語モデルの学習には相応に大量のテキスト(テキスト材
料、テキスト集成体)が必要であるが、これは実際にはめったに存在せず、また
あったとしても高いコストがかかる。
【0007】 言語辞書は文献[4]から周知である。ここではこの言語辞書はコンピュータ
上で使用可能な1つの言語におけるできる限り多数の語であり、言語的な特性を
探索プログラムに即してレファレンスするために用いられる。それぞれの語のエ
ントリ(いわゆる語の本形)ごとに語の本形に関連する言語特徴と該当する割り
当て分(Belegung)すなわち言語値とが取り出される。
【0008】 文献[3]から、言語クラスを使用することが周知である。1つのセンテンス
の単語には種々のタイプの言語特徴および言語値が割り当てられている。表1に
は例として種々の言語特徴およびこれに属する値が示されている(別の例は文献
[3]に示されている)。
【0009】 表1:言語特徴および言語値の例
【0010】
【表1】
【0011】 言語特徴 (f1,...,fm) (0−2) と言語値 (v11,...,v1j)...(vm1,...,vmj) (0−3) とに基づいて各単語に少なくとも1つの言語クラスが割り当てられており、この
場合次の写像ルールFが適用される。すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) ( 0−4) ここでfmは言語特徴であり、mは言語特徴の数であり、vm1...vmjは言語 特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラスであっってi
=1...kであり、kは言語クラスの数であり、Fは所定の言語クラスにおけ
る言語特徴および言語値の写像ルール(クラス識別子)である。
【0012】 言語クラス、言語特徴(フィーチャー)、言語値(真理値)、およびクラスバ
イグラム確率を以下に例文を用いて説明する。
【0013】 ドイツ語文“der Bundestag setzt seine Debatte fort”について考察する。
【0014】 冠詞“der”すなわち第1の単語は、ドイツ語では6つの言語クラス(以下単 にクラスと称する)に分割することができる。それぞれのクラスは数、性、格に
区別される。次の表2にこの関係を示す。
【0015】 表2:単語“der”に対するクラスCi
【0016】
【表2】
【0017】 ドイツ語の主語“Bundestag”すなわち上の例文の第2の単語に対しては、類 似の表3が当てはまる。
【0018】 表3:単語“Bundestag”に対するクラスCi
【0019】
【表3】
【0020】 この例ではクラスバイグラム(言語クラスに適用されるバイグラム)に関して
クラスC7に続いて適切なカテゴリすなわち数、格、性のコンビネーションが例 文に関して示されている。実際に生じたクラスバイグラムの頻度が予め設定され
たテキストから求められる場合、上のクラスバイグラムC1−C7に対してはこの
ようなコンビネーションはドイツ語では頻繁に発生するので多数の発生が結論さ
れ、別のクラスバイグラム、例えばコンビネーションC2−C8に対してはドイ
ツ語では性が異なるために許容されない。このようにして見出された頻度から生
じるクラスバイグラム確率は相応に、頻繁に発生する場合には高く、許容されな
い場合には低い。
【0021】 本発明の課題は、コンピュータによる言語認識の際に少なくとも1つの単語か
ら成るシーケンスの発生する確率を求める方法を提供し、僅かなテキスト材料か
ら成るドメインに対する言語モデルを求めることである。
【0022】 ここで言語モデルを求めると云う場合、言語モデルの形成とともに既存の言語
モデルの適応化も含むことに留意されたい。
【0023】 この課題は請求項1に記載の特徴により解決される。
【0024】 本発明によれば、コンピュータによる言語認識の際に少なくとも2つの単語か
ら成るシーケンスの発生する確率を求める方法が提供される。 1つの言語は言 語クラス (C1,...,Ck) (1 ) を (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) (2) により有する。ここでfmは言語特徴であり、mは言語特徴の数であり、vm1. ..vmjは言語特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラ
スであってi=1...kであり、kは言語クラスの数であり、Fは所定の言語
クラスにおける言語特徴および言語値の写像ルール(クラス識別子)である。こ
の場合、1つの単語には少なくとも1つ言語クラスが割り当てられている。少な
くとも2つの単語から成るシーケンスの発生する確率はバイグラムを使用して
【0025】
【数4】
【0026】 から得られる。ここでP(W)は少なくとも2つの単語から成るシーケンスの発
生する確率であり、Wは少なくとも2つの単語から成るシーケンスであり、wi はシーケンスWのi番目の単語であってi=1...nであり、nはシーケンス
Wの単語Wiの数であり、Ciは単語Wiに属する言語クラスであり、Ci-1は単語
i-1に属する言語クラスであり、ΣCiは単語Wiに属する全ての言語クラスC の和であり、P(wi|Ci)は規定のワード確率であり、P(Ci|Ci-1)はバ
イグラムの確率であり(クラスバイグラム確率とも称する)、P(Ci-1|wi-1 )は規定のクラス確率である。
【0027】 この場合、用語CiはワードシーケンスWの単語Wiに割り当てられた少なくと
も1つの言語クラスに関連することに注意されたい。同様のことは相応に用語C i-1 にも相当する。例えばクラスバイグラム確率とは、先行の単語Wi-1が第2の
言語クラスに近似する条件のもとで単語Wiが第1の言語クラスに近似する確率 を意味する(冒頭部の例および説明を参照)。
【0028】 確率P(wi|Ci)、P(Ci|Ci-1)は式3内へ挿入され、いわゆるベース
言語モデルを形成するが、これはテキスト集成体、すなわち予め設定された条件
を有するテキストから求められる。
【0029】 言語クラスに基づく言語モデルは特に適応化に際して決定的な利点を有する。
ここで提供される方法は言語モデルに含まれる言語的な特性を使用している。
【0030】 別の実施形態では、新たなテキストに対して予め求められたベース言語モデル
に即し、確率P(Ci|Ci-1)が新たなテキストのベース言語モデルへ引き継が
れる。
【0031】 ベース言語モデルのクラスバイグラムの確率(文献[3]および冒頭部の説明
を参照)は一方では学習テキストの文法構造であり、他方では語彙から独立して
いる。新たなドメインはベース言語モデルのオリジナルの学習テキストに類似し
たテキスト構造(文法構造)であるということに基づいて、クラスバイグラムの
確率P(Ci|Ci-1)をベース言語モデルから変更なしに引き継ぐと有利である
【0032】 言語モデルを求めるべき新たなドメインの語彙は予め設定された言語辞書とク
ラス識別子Fを使用して式2により処理される。テキスト中の新たな語に対して
自動的に少なくとも1つの言語クラスが求められる。言語クラス、言語特徴およ
び言語値に関する詳細な説明は文献[3]を、言語辞書に関する詳細な説明は文
献[4]および/または冒頭部の説明を参照されたい。
【0033】 別の実施形態では、確率P(wi|Ci)を以下の手段のうち少なくとも1つの
手段に従って求める、すなわち a)確率P(wi|Ci)をテキストに即して求めるか、 b)確率P(wi|Ci)を単語Wiごとに予め設定された確率P(wi)を用いて
求めるか、 c)確率P(wi|Ci)をワードリストを使用して求める。
【0034】 付加的な実施形態では、求められた確率P(wi|Ci)に即してベース言語モ
デルを適応化する。ここで有利には、求められた確率P(wi|Ci)がベース言
語モデル内に取り入れられる。
【0035】 また本発明の別の実施形態では、確率P(Ci-1|wi-1)を確率P(wi|Ci )に即して P(Ci|wi)=K×P(wi|Ci)×P(Ci) (4) により求めることもできる。ここで
【0036】
【数5】
【0037】 は正規化係数である。
【0038】 本発明の別の実施形態では、確率P(W)が予め設定された閾値を上方超過す
る場合に、相応の少なくとも1つの単語から成るシーケンスを認識する。そうで
ない場合には予め設定されたアクションを実行する。この予め設定されたアクシ
ョンとはエラーメッセージの出力または当該の方法を中止するトリガである。
【0039】 別の実施形態の範囲においては、テキストは予め設定された適用領域、いわゆ
るドメインに関連している。
【0040】 本発明の範囲において特に有利には、ここで提供される方法は、新たなドメイ
ンの言語モデルを求めるのに僅かな量の新たなテキストしか必要としない。
【0041】 また有利には新たな単語のリストを使用することもでき、このリストは確率P
(wi)のデータを有しても有さなくてもよい。ドメインに関連する言語認識は 実際には重要な役割を果たす。本発明の方法は実際の要求に対処可能であり、実
験では適切かつ有効であると判明している。ベース言語モデルに立ち戻って云え
ば、新たに評価される確率の数はP(wi|Ci)の評価が必要なだけであるた め著しく低減される。
【0042】 本発明の別の実施形態は従属請求項から得られる。
【0043】 以下に図に即して本発明の実施例を詳細に説明する。図1には、本発明のコン
ピュータによる言語認識の際に少なくとも2つのワードから成るシーケンスの発
生する確率を求める方法のステップを含むブロック図が示されている。図2には
確率P(wi|Ci)を求める第1の適応化方法が示されている。図3には確率P
(wi|Ci)を求める第2の適応化方法が示されている。
【0044】 図1には、コンピュータによる言語認識の際に少なくとも2つの単語から成る
シーケンスが発生する確率を求める方法の個々のステップが示されている。ステ
ップ101では、言語が言語クラス (C1,...,Ck) (1 ) へ区分される。すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vml,...,vmj)) (2) へ分割される。ここでfmは言語特徴であり、mは言語特徴の数であり、vm1. ..vmjは言語特徴fmの言語値であり、jは言語値の数であり、Ciは言語クラ
スであってi=1...kであり、kは言語クラスの数であり、Fは所定の言語
クラスにおける言語特徴および言語値の写像ルール(クラス識別子)である。
【0045】 言語特徴および言語値の詳細な説明については文献[3]の例えば1201頁の表
4に記載されており、ここでは言語特徴とこれに属する言語値が種々のカテゴリ
に依存して発生することが例示的に示されている。
【0046】 ステップ102では1つの単語に少なくとも1つ言語クラスが割り当てられる
。文献[3]に記載されているように、単語には1つまたは複数の言語クラスを
割り当てることができる。
【0047】 さらにステップ103で、少なくとも1つの単語から成るシーケンスの発生す
る確率P(W)が
【0048】
【数6】
【0049】 により求められる。ここでWは少なくとも2つの単語から成るシーケンスであり
、wiはシーケンスWのi番目の単語であってi=1...nであり、nはシー ケンスWの単語Wiの数であり、Ciは単語Wiに属する言語クラスであり、Ci-1 は単語Wi-1に属する言語クラスであり、ΣCiは単語Wiに属する全ての言語ク ラスCの和であり、P(wi|Ci)は規定の確率であり、P(Ci|Ci-1)はバ
イグラムの確率であり(クラスバイグラム、バイグラム確率とも称する)、P(
i-1|wi-1)は規定のクラス確率である。
【0050】 式3は個々に求められた以下の3つの成分P(Ci|Ci-1)、P(wi|Ci
、P(Ci-1|wi-1)のカスケード乗算から形成される。
【0051】確率P(Ci|Ci-1)の決定 新たなドメインのテキストの語彙には言語辞書とクラス識別子Fとを使用して
式2に示されているように言語クラスが割り当てられる。この場合それぞれ新た
な単語には自動的に少なくとも1つの言語クラスが割り当てられる。ベース言語
モデルは文献[3]に記載のクラスバイグラムに対する確率を有しており、この
確率は一方では文法構造を表し、他方では個々の単語から独立している。ドメイ
ンすなわち特殊な適用領域に関連するテーマ領域がベース言語モデルを基礎とす
る学習テキストと類似したテキスト構造を有することに基づいて、クラスバイグ
ラムの確率P(Ci|Ci-1)はベース言語モデルから変更なしに引き継がれる。
このような自動的な割り当てが可能となるのは、一貫してテキストの内容とは無
関係に、言語特徴および言語値、すなわち言語クラスへの写像(式2を参照)が
1つの言語に固有に対応しており、したがって有利には1つのテーマ領域(ドメ
イン)から他のテーマ領域へ移すことができる点に基づいている。複数の学習テ
キストの文法構造は類似であるかまたは同一であり、それぞれの学習テキストを
基礎とするテーマ領域(ドメイン)から独立している。確率P(Ci|Ci-1)は
ベース言語モデルに対して先行の学習トライアルによって求められ、新たなテキ
ストの語彙のクラス割り当てに関連する基礎知識となる。これは新たに求める必
要はなく、言語モデルが充分な程度に詳細性を有していれば引き継ぐことができ
る。
【0052】確率P(wi|Ci)の決定 ベース言語モデルに関する全ての新たな単語の確率P(wi|Ci)を新たに計
算し、ベース言語モデルに存在する語彙の単語の確率P(wi|Ci)を有利には
相応に適応化しなければならない。確率P(wi|Ci)を求めるために以下に3
つの異なる方法を説明する。
【0053】 方法1 新たなドメインの新たな単語Wiに対する確率P(wi|Ci)は、新たなドメ インのテキストに基づいて評価される。言語クラスに基づくベース言語モデルか
ら出発し、その際に新たに評価された確率P(wi|Ci)は有利にはベース言語
モデルへ引き継がれ、これによりベース言語モデルは新たなテキストに即して適
応化される。有利にはこの手法は、新たなドメインの新たなテキストが充分な量
を有する場合に使用される。新たなテキストの各単語にはセンテンスコンテクス
トにより求められた少なくとも1つの言語クラスが割り当てられる。これは文献
[3]に記載されている“タグ付けツール”により行われる。新たなそれぞれの
単語Wiに対する確率P(wi|Ci)は新たなテキストに即して評価される。
【0054】 図2には単語の確率P(wi|Ci)を求める適応化方法が示されている。クラ
ス識別子F211と言語辞書206とを用いてタグ付けツール202を使用し(
タグ付けツールの詳細な説明は文献[3]を参照)、大きなテキストのデータベ
ース201から“タグ付きの”大きなテキスト203が求められ、また新たなド
メイン(すなわち新たなテキスト)の小さなテキストのデータベース207から
は“タグ付きの”小さいテキスト208が求められる。“タグ付きの”大きなテ
キスト203からは言語モデル発生器204を用いて、言語クラスに基づくベー
ス言語モデル205が求められる。上述したように、確率P(Ci|Ci-1)は変
更なしで新たなドメインの言語モデルへ導入される。“タグ付きの”小さいテキ
スト208からは、確率P(wi|Ci)の評価を“タグ付きの”小さいテキスト
によって行う適応化ツール209を用いて、有利には適応化された新たな言語モ
デル210が求められる。これは限定的なものではなく、ここで説明した適応化
のほかに別の言語モデルを形成することもできる。
【0055】 方法2 別の方法ではベース言語モデルによって与えられる個々の単語の確率P(wi |Ci)が低減され、それぞれの言語クラスCi内で補足すべき語彙ないし単語へ
の低減された寄与分が移される。これは新たな単語のそれぞれの値P(wi)に 依存して行われる。
【0056】 図3には単語の確率P(wi|Ci)を求める第2の適応化方法が示されている
。クラス識別子F311と言語辞書306とを用いてタグ付けツール302に即
して、大きなテキストのデータベース301から“タグ付きの”大きなテキスト
303が求められる。言語モデル発生器304により“タグ付きの”大きなテキ
スト303から言語クラスに基づくベース言語モデル305が求められる。ベー
ス言語モデル305から確率P(Ci|Ci-1)は変更なしで引き継がれる。新た
なドメイン307のワードリストに即して、適応化ツール308により適応化さ
れた言語モデル309が求められる。ここでも適応化という場合、言語モデルの
変更または形成を含む。適応化ツール308では新たな単語の確率P(wi|Ci )が確率P(wi)から計算され、再正規化がベース言語モデルの確率P(wi
i)に対して行われる。以下にこの方法を詳細に説明する。
【0057】 次の諸量はベース言語モデルにより与えられている。すなわちwiはベース言 語モデルの語彙であってi=1,...,Nであり、Nはベース言語モデルの語
彙の数であり、NCはベース言語モデルのそれぞれのクラスCの単語数であり、 kはベース言語モデルのクラスの数であり、P(Cj)はベース言語モデルのク ラスに対するユニグラムの確率であってj=0,...,kであり、P(Cj| Ci-1)はベース言語モデルのクラスに対するバイグラム確率であってj=1, ...,kであり、P(wi|Cj(wi))およびP(Cj(wi)|wi)は単 語Wiが言語クラスCjに存在する場合の全ての単語Wi,i=1,...,N、 および全てのクラスCj(wi),j=0,...,kに対するベース言語モデル
の確率である。
【0058】 言語モデルの言語クラスを新たなドメインに対して形成することは、ベース言
語モデルの言語クラスを形成することに相応する。ベース言語モデルのクラス識
別子F(式2を参照)が引き継がれる。したがって言語クラスの数kは変更され
ない。テキストの新たなドメインに対して、ベース言語モデルに基づく学習テキ
ストと類似した構造が出力される。クラスバイグラム確率P(Ci|Ci-1)およ
びベース言語モデルのクラスユニグラム確率P(Cj)は変更されないまま維持 される。
【0059】 注目すべきことに個々の語のそれぞれに関連する確率P(wi|Cj(wi))
および確率P(Cj(wi)|wi)は維持される。確率P(wi|Cj(wi)) および確率P(Cj(wi)|wi)は新たなドメインのベース言語モデルには含 まれない語に対して計算される。ベース言語モデルの単語に対する既存の確率は
再スケーリングされる。
【0060】 新たなドメインに対して次の値が与えられている。すなわち、whは新たなド メインのベース言語モデルには含まれない語彙であって、h=1,...,Lで
あり、Lは新たなドメインに対する言語モデルすなわち目標言語モデルの語彙の
数であり、LCはそれぞれの言語クラスCにおける新たな単語Whおよびベース言
語モデルの単語Wiの数であり、P(wh)は新たなドメイン内のクラスに依存し
ない単語の確率である。
【0061】 確率P(wh)は基礎となるテキストの単語の頻度および量を備えたワードリ ストにより与えられる。
【0062】 確率P(Cj(wh)|wh)の評価について説明する。それぞれ新たな単語Wh の確率P(Cj(wh)|wh)を評価するために、 P(Cj(wh)|wh)が同 じクラスCjに存在するワードにほぼ等しいことから出発する。これにより次の 近似式、
【0063】
【数7】
【0064】 が相当する。ここでwiはクラスCjに存在するベース言語モデルの全ての単語で
ある。
【0065】 以下の実施例では例としてクラスCjを調査する。簡単化のために以下ではク ラスCjをクラスCと称する。
【0066】 既存の確率値は再正規化しなければならない。以下では古い値を波形符号で示
す。
【0067】 式6の別の近似解は、全ての言語クラスと新たな単語のクラスとが一致する単
語Wi全体にわたっての合計である。
【0068】 新たな確率P(wh|C(wh))の計算、または与えられた確率P(wi|C (wi))の再正規化のために以下の方法が適用される。すなわち、 1)ワードシーケンスにおける新たなワード成分αを求める 2)
【0069】
【数8】
【0070】 を
【0071】
【数9】
【0072】 により再正規化し、成分αを式11により求める 3)クラスCの新たなワード成分1−γCを求める 4)式17により
【0073】
【数10】
【0074】 を求める 5)γCを式16により求める 6)確率P(wh|C(wh))を
【0075】
【数11】
【0076】 により求める。式16を参照。この係数は言語クラスCにおける古いワードの成
分と古いワードの語彙の成分との商として解釈される。
【0077】 成分αを求めるために式8により
【0078】
【数12】
【0079】 が得られる。ここから
【0080】
【数13】
【0081】 が結論される。
【0082】 成分γCを求めるためにベイズの法則が式6に適用される(文献[5]を参照 )。これにより
【0083】
【数14】
【0084】 が結論される。式12に即して確率値の正規化特性を適用することにより(文献
[6]を参照)次のように示すことができる。すなわち
【0085】
【数15】
【0086】 である。
【0087】
【数16】
【0088】 に対して、再正規化されていない古い分布としてγC≦1および
【0089】
【数17】
【0090】 により
【0091】
【数18】
【0092】 が成り立つ。ここから式8により
【0093】
【数19】
【0094】 が結論され、ここで
【0095】
【数20】
【0096】 である。
【0097】 方法3 ベース言語モデルに関する新たな単語Wiの確率P(wi|Ci)は相応のワー ドリストを使用して近似される。この方法では「方法2」で説明した方法の解の
ストラテジが引き継がれる。ここでは存在しない新たな単語Whに対する確率P (wh)が近似される。これはそれぞれの単語WhのメインカテゴリHCに依存し
て行われる。近似的に
【0098】
【数21】
【0099】 が得られる。このためにベース言語モデルの単語wiの特性が使用される。NHC はメインカテゴリHCに存在するベース言語モデルの語彙の数である。加算はベ
ース言語モデルのそれぞれの単語Wiが属する全てのクラスCjにわたって行われ
る。
【0100】確率P(Ci-1|wi-1)の決定 さらに確率P(Ci-1|wi-1)が次に説明するようにして求められる。式3に
おいて確率P(Ci-1|wi-1)がインデクスi−1を有していることに注意され
たい。以下ではこのインデクスを簡単にインデクスiと設定する。
【0101】 確率P(Ci|wi)はそれぞれ上述のようにして求められた確率P(w1|Ci )から得られる。すなわち P(Ci|wi)=K×P(wi|Ci)×P(Ci) (4)
であり、ここで正規化係数は
【0102】
【数22】
【0103】 である。言語クラスCiはこの場合単語Wiに対して可能な全ての言語クラスを含
んでいる。確率P(Ci)はベース言語モデルから引き継がれる。これはベース 言語モデルのそれぞれの言語クラスに対するユニグラム確率である。
【0104】 本明細書の範囲で次の刊行物が引用されている。
【0105】
【表4】
【図面の簡単な説明】
【図1】 本発明の方法ステップを表すブロック図である。
【図2】 第1の適応化方法を示す図である。
【図3】 第2の適応化方法を示す図である。
【手続補正書】特許協力条約第34条補正の翻訳文提出書
【提出日】平成12年3月14日(2000.3.14)
【手続補正1】
【補正対象書類名】明細書
【補正対象項目名】請求項6
【補正方法】変更
【補正内容】
【手続補正2】
【補正対象書類名】明細書
【補正対象項目名】0021
【補正方法】変更
【補正内容】
【0021】 本発明の課題は、コンピュータによる言語認識の際に少なくとも1つの単語か
ら成るシーケンスの発生する確率を求める方法を提供し、僅かなテキスト材料か
ら成るドメインに対する言語モデルを求めることである。
【手続補正3】
【補正対象書類名】明細書
【補正対象項目名】0038
【補正方法】変更
【補正内容】
【0038】 本発明の別の実施形態では、確率P(W)が予め設定された閾値を上方超過す
る場合に、相応の少なくとも2つの単語から成るシーケンスを認識する。そうで
ない場合には予め設定されたアクションを実行する。この予め設定されたアクシ
ョンとはエラーメッセージの出力または当該の方法を中止するトリガである。
【手続補正4】
【補正対象書類名】明細書
【補正対象項目名】0047
【補正方法】変更
【補正内容】
【0047】 さらにステップ103で、少なくとも2つの単語から成るシーケンスの発生す
る確率P(W)が

Claims (8)

    【特許請求の範囲】
  1. 【請求項1】 a)1つの言語は次の言語クラスを有し、すなわち (C1,...,Ck)=F((f1,v11,...,v1j)...(fm,vm1,...,vmj)) ここでfmは言語特徴であり、mは言語特徴の数であり、vm1,...,vmjは 言語特徴fmの言語値であり、jは言語値の数であり、C1,...,Ckは言語 クラスであり、kは言語クラスの数であり、Fは所定の言語クラスに対する言語
    特徴および言語値の写像ルール(クラス識別子)であり、 b)1つの語に前記言語クラスのうち少なくとも1つを割り当て、 c)少なくとも2つの単語から成るシーケンスの発生する確率を次式により求め
    る、すなわち 【数1】 ここでP(W)は少なくとも2つの単語から成るシーケンスの発生する確率であ
    り、Wは少なくとも2つの単語から成るシーケンスであり、wiはシーケンスW のi番目の単語であってi=1...nであり、nはシーケンスWの単語Wiの 数であり、Ciは単語Wiに属する言語クラスCであり、Ci-1は単語Wi-1に属す
    る言語クラスであり、ΣCiは単語wiに属する全ての言語クラスCにわたる和 であり、P(wi|Ci)は規定のワード確率であり、P(Ci|Ci-1)はバイグ
    ラムの確率であり(クラスバイグラム、バイグラム確率とも称する)、P(Ci- 1 |wi-1)は規定のクラス確率である、 ことを特徴とするコンピュータによる言語認識の際に少なくとも2つの単語から
    成るシーケンスの発生する確率を求める方法。
  2. 【請求項2】 テキストごとに予め定められたベース言語モデルに即して、
    確率P(Ci|Ci-1)をベース言語モデルから引き継ぐことによりテキストごと
    の確率P(Ci|Ci-1)を求める、請求項1記載の方法。
  3. 【請求項3】 確率P(wi|Ci)を以下の手段のうち少なくとも1つの手
    段に従って求める、すなわち a)確率P(wi|Ci)をテキストに即して求めるか、 b)確率P(wi|Ci)を単語wiごとに予め設定された確率P(wi)を用いて
    求めるか、 c)確率P(wi|Ci)をワードリストを使用して求める、 請求項2記載の方法。
  4. 【請求項4】 求められた確率P(wi|Ci)に即してベース言語モデルを
    適応させる、請求項3記載の方法。
  5. 【請求項5】 確率P(Ci|wi)を確率P(wi|Ci)に即して次式によ
    り求める、すなわち P(Ci|wi)=K×P(wi|Ci)×P(Ci) ここで 【数2】 は正規化係数である、 請求項3または4記載の方法。
  6. 【請求項6】 少なくとも1つの単語から成るシーケンスが発生する確率P
    (W)が予め設定された閾値を上方超過する場合に相応の少なくとも1つの単語
    から成るシーケンスを認識し、そうでない場合には予め設定されたアクションを
    実行する、請求項1から5までのいずれか1項記載の方法。
  7. 【請求項7】 前記予め設定されたアクションはエラーメッセージの出力ま
    たは当該の方法を中止するトリガである、請求項6記載の方法。
  8. 【請求項8】 テキストが予め設定された適用領域に関連する、請求項2か
    ら7までのいずれか1項記載の方法。
JP2000512197A 1997-09-17 1998-09-07 コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法 Expired - Lifetime JP4243017B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
DE19740911.3 1997-09-17
DE19740911 1997-09-17
PCT/DE1998/002632 WO1999014740A1 (de) 1997-09-17 1998-09-07 Verfahren zur bestimmung einer wahrscheinlichkeit für das auftreten einer folge von mindestens zwei wörtern bei einer spracherkennung

Publications (2)

Publication Number Publication Date
JP2001516903A true JP2001516903A (ja) 2001-10-02
JP4243017B2 JP4243017B2 (ja) 2009-03-25

Family

ID=7842662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000512197A Expired - Lifetime JP4243017B2 (ja) 1997-09-17 1998-09-07 コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法

Country Status (6)

Country Link
EP (1) EP1016077B1 (ja)
JP (1) JP4243017B2 (ja)
CN (1) CN1111841C (ja)
DE (1) DE59800737D1 (ja)
ES (1) ES2158702T3 (ja)
WO (1) WO1999014740A1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006525552A (ja) * 2003-04-30 2006-11-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 音声認識における統計的言語モデリング方法
JP2008058341A (ja) * 2006-08-29 2008-03-13 Nippon Hoso Kyokai <Nhk> 単語分類装置及び音声認識装置及び単語分類プログラム

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040078191A1 (en) * 2002-10-22 2004-04-22 Nokia Corporation Scalable neural network-based language identification from written text
EP1450350A1 (en) * 2003-02-20 2004-08-25 Sony International (Europe) GmbH Method for Recognizing Speech with attributes
CA2486125C (en) 2003-10-30 2011-02-08 At&T Corp. A system and method of using meta-data in speech-processing
DE102004048348B4 (de) * 2004-10-01 2006-07-13 Daimlerchrysler Ag Verfahren zur Adaption und/oder Erzeugung statistischer Sprachmodelle
US20060149553A1 (en) * 2005-01-05 2006-07-06 At&T Corp. System and method for using a library to interactively design natural language spoken dialog systems
US8478589B2 (en) 2005-01-05 2013-07-02 At&T Intellectual Property Ii, L.P. Library of existing spoken dialog data for use in generating new natural language spoken dialog systems
US8185399B2 (en) 2005-01-05 2012-05-22 At&T Intellectual Property Ii, L.P. System and method of providing an automated data-collection in spoken dialog systems
CN101271450B (zh) * 2007-03-19 2010-09-29 株式会社东芝 裁剪语言模型的方法及装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5418717A (en) * 1990-08-27 1995-05-23 Su; Keh-Yih Multiple score language processing system
EP0481107B1 (en) * 1990-10-16 1995-09-06 International Business Machines Corporation A phonetic Hidden Markov Model speech synthesizer
US5949961A (en) * 1995-07-19 1999-09-07 International Business Machines Corporation Word syllabification in speech synthesis system

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006525552A (ja) * 2003-04-30 2006-11-09 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 音声認識における統計的言語モデリング方法
JP4740837B2 (ja) * 2003-04-30 2011-08-03 ロベルト・ボッシュ・ゲゼルシャフト・ミト・ベシュレンクテル・ハフツング 音声認識における統計的言語モデリング方法、システム及び記録媒体
JP2008058341A (ja) * 2006-08-29 2008-03-13 Nippon Hoso Kyokai <Nhk> 単語分類装置及び音声認識装置及び単語分類プログラム

Also Published As

Publication number Publication date
WO1999014740A1 (de) 1999-03-25
CN1111841C (zh) 2003-06-18
CN1270687A (zh) 2000-10-18
EP1016077A1 (de) 2000-07-05
JP4243017B2 (ja) 2009-03-25
EP1016077B1 (de) 2001-05-16
DE59800737D1 (de) 2001-06-21
ES2158702T3 (es) 2001-09-01

Similar Documents

Publication Publication Date Title
JP7031101B2 (ja) 方法、システムおよび有形コンピュータ可読デバイス
CN108304372B (zh) 实体提取方法和装置、计算机设备和存储介质
US6393388B1 (en) Example-based translation method and system employing multi-stage syntax dividing
US8909529B2 (en) Method and system for automatically detecting morphemes in a task classification system using lattices
US6598017B1 (en) Method and apparatus for recognizing speech information based on prediction
EP0838073B1 (en) Method and apparatus for dynamic adaptation of a large vocabulary speech recognition system and for use of constraints from a database in a large vocabulary speech recognition system
US7707027B2 (en) Identification and rejection of meaningless input during natural language classification
US6188976B1 (en) Apparatus and method for building domain-specific language models
US6910004B2 (en) Method and computer system for part-of-speech tagging of incomplete sentences
US7496621B2 (en) Method, program, and apparatus for natural language generation
CN106897439A (zh) 文本的情感识别方法、装置、服务器以及存储介质
US20010051868A1 (en) Method and configuration for forming classes for a language model based on linguistic classes
CA2621451A1 (en) Word recognition using ontologies
US8099281B2 (en) System and method for word-sense disambiguation by recursive partitioning
JPH06266780A (ja) 意味パターン認識による文字列検索方法及びその装置
CN111104803B (zh) 语义理解处理方法、装置、设备及可读存储介质
US20210104235A1 (en) Arbitration of Natural Language Understanding Applications
JP2001516903A (ja) コンピュータによる言語認識の際に少なくとも2つの単語から成るシーケンスの発生する確率を求める方法
CN114144774A (zh) 问答系统
US20020103837A1 (en) Method for handling requests for information in a natural language understanding system
CN114550718A (zh) 热词语音识别方法、装置、设备与计算机可读存储介质
López-Cózar et al. Using knowledge of misunderstandings to increase the robustness of spoken dialogue systems
JPH1049543A (ja) 文書検索装置
US20050086214A1 (en) Computer system and method for multilingual associative searching
JP2004354787A (ja) 統計情報を用いた対話方法及びその装置と、対話プログラム及びそのプログラムを記録した記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050906

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081128

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081226

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120109

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130109

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term