JP4741777B2 - データベースのエントリを決定する方法 - Google Patents

データベースのエントリを決定する方法 Download PDF

Info

Publication number
JP4741777B2
JP4741777B2 JP2002118436A JP2002118436A JP4741777B2 JP 4741777 B2 JP4741777 B2 JP 4741777B2 JP 2002118436 A JP2002118436 A JP 2002118436A JP 2002118436 A JP2002118436 A JP 2002118436A JP 4741777 B2 JP4741777 B2 JP 4741777B2
Authority
JP
Japan
Prior art keywords
dictionary
entry
database
speech recognition
recognition result
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP2002118436A
Other languages
English (en)
Other versions
JP2003029784A (ja
Inventor
クラース シュテファニー
ホーダム ヘンリク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Koninklijke Philips NV
Koninklijke Philips Electronics NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Koninklijke Philips NV, Koninklijke Philips Electronics NV filed Critical Koninklijke Philips NV
Publication of JP2003029784A publication Critical patent/JP2003029784A/ja
Application granted granted Critical
Publication of JP4741777B2 publication Critical patent/JP4741777B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/065Adaptation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/242Query formulation
    • G06F16/243Natural language query formulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/14Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
    • G10L15/142Hidden Markov Models [HMMs]
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/183Speech classification or search using natural language modelling using context dependencies, e.g. language models
    • G10L15/187Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/226Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
    • G10L2015/228Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mathematical Physics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • General Health & Medical Sciences (AREA)
  • Acoustics & Sound (AREA)
  • Data Mining & Analysis (AREA)
  • Databases & Information Systems (AREA)
  • Machine Translation (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は自動対話システムによってデータベースのデータベースエントリを決定する方法に関する。
【0002】
【従来の技術】
対話システムの自動的な動作を保証するため、一般的に、辞書エントリ(音声認識装置の語彙)を用いて辞書にアクセスし、隠れマルコフモデルに基づいて動作する自動音声認識装置が用いられる。辞書エントリは、音声認識手順において音声入力と比較される音声認識装置用の音響リファレンスを含む。音響リファレンスは、例えば一連の音素を表わす。本発明による方法は、例えば「イエローページ」サービスに関連する。このようなサービスを用いて、各ユーザは、要求されている地区の利用可能な提供者から、例えば医者、販売者又は他の企業についての情報、また、警察、プール、学校等の公共の設備についての情報を得ることができる。電話を通じたこのような地区情報システム、即ち職業別電話情報の形式のシステムは周知である。
【0003】
更に、例えばインターネット又はイントラネットのためのデータネットワークにおいてかかる情報システムが既に知られている。端末は、情報システムの種別に応じて、電話機、移動電話機、適切な電話機能を有するコンピュータ又はオーガナイザ等であるか、純粋なデータネットワーク中の情報システムが使用される場合は例えばWAP移動電話機といった関連するネットワークへの対応するアクセス機能を有するPC又はオーガナイザ又は移動電話機が使用される。サーチパラメータは、例えば、地区、職業分野、或いは場所、又は、例えば「医師」或いは「ホメオパシー」或いは「ミュンヘン」といった関連するサーチ概念といった種々のサーチ規準である。加入者データは、例えば、情報システムに加入している供給者にユーザが接触すること又は連絡をとることを可能とする電話番号、住所、又は他の情報、即ち情報システムのデータベースに含まれる情報でありうる。公知のシステムでは、辞書は例えば地区の入力といったあるカテゴリの音声入力のために使用され、この辞書は計算上の費用を制限するために音声認識システム上の要求に応じて調整される。
【0004】
【発明が解決しようとする課題】
ここで、当該の音声認識の結果について行われるデータベースのサーチにおいて、ユーザへ出力されうる関連するデータベースエントリが見いだせないという問題が生ずる。本発明は、ユーザによる使い心地ができる限り影響を受けないよう追加的な計算上の費用を最小限としつつ上述の問題を解決することを目的とする。
【0005】
【課題を解決するための手段】
上述の目的は、
(1)音声入力を一時的に記憶する段階と、
(2)音声入力を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
(3)音声認識結果に対応するデータベースエントリについてサーチする段階と、
(4)段階(3)においてデータベースエントリが見つからない場合は、
少なくとも1つの辞書エントリが第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するよう、第1の辞書を適応し、
一時的に記憶された音声発話と適応された第1の辞書とを用いて段階(2)及び(3)を繰り返す段階とを含む上述の方法によって達成される。
【0006】
最初のデータベースのサーチが成功しなかった場合でも、ユーザは音声の発話によって生成される音声入力を繰り返す必要がない。一時的に記憶された音声入力は、適応された辞書を用いた第2の音声認識動作にも使用される。辞書は動的に適応される。辞書の適用の方法は、出来る限り小さい辞書で考慮されている音声認識結果に対してデータベースの入力の割当てが成功する確率を最大とすることを保証するよう選択される。特に、第1の辞書を適応するためにそのエントリが使用されうる総合辞書が使用される(請求項2)。
【0007】
請求項3は、音声入力の質が低く割当て可能なデータベースエントリがない場合に本発明による方法が予め設定された基準に従って中断されることを保証する。
【0008】
請求項4及び請求項5は、音声認識のために使用される第1の辞書がデータベースエントリのカテゴリに関連付けられる実施例を示す。請求項4に記載のように辞書を適応するとき、データベースエントリのカテゴリ(例えば地区)の制限内で、追加的な辞書エントリが追加されるか、辞書エントリが変更される。請求項4は、第1の辞書の適応のために、辞書のエントリがカテゴリの外で適応される実施例を開示する。適応される前の第1の辞書がデータベースエントリの特定のカテゴリに属する辞書エントリを含む場合、適応された後は、第1の辞書は関連するカテゴリ(例えば関連する地区)に属する少なくとも1つの辞書エントリを含む。
【0009】
請求項6に記載の実施例では、音声入力に対してデータベースエントリを割り当てることができない場合、辞書は個々の音声認識結果の選択肢に対して適応されるだけでなく、音声認識の選択肢は辞書が適応されるときにも考慮される。従って、新規な音声認識動作により、データベースエントリが一時的に記憶された音声入力に対して割り当てられうる確率が高まる。
【0010】
本発明による方法は、特に、対話システムへのアクセスが特に電話インタフェース(請求項8)を通じて行われるイエローページのデータの集合(請求項7)においてエントリを決定するために使用される。
【0011】
また、本発明は、本発明による方法を実施するために使用される自動対話システムに関する。
【0012】
【発明の実施の形態】
以下、本発明の実施例について図面を参照して詳述する。図1は、本実施例では電話インタフェースであるインタフェース2を有する対話システム1を示す。
対話システム1は、インタフェース2を通じて、また構内交換機が利用可能であればこれを介して、電話網に接続される。メモリ3が設けられ、これに受信される音声入力が音声ファイルとして一時的に記憶されうる。自動音声認識装置4は、メモリ3に記憶された音声認識の自動認識を行う。音声認識装置4は、音声認識モジュール5と辞書6とを含み、辞書のエントリは音声認識装置4によって利用可能な語彙を構成する。各辞書エントリは、語又は単語を示す少なくとも1つの音響リファレンスを含む。各音響リファレンスは、少なくとも1つの状態を有する隠れマルコフモデル(HMM)に対応する。音声認識モジュール5は、ここでは辞書6を除く音声認識装置4の全ての機能を含む。音声認識装置4は、例えばフィリップス社製のシステム「Speech Pearl」を用いて実施されうる。
【0013】
本発明による対話システム1では、音声認識装置4によって用いられる辞書6は、設定されているものではなく、動的に適応可能である。本例では、辞書6の辞書エントリは、総合辞書7の部分集合を構成する。総合辞書7は、辞書6のための辞書エントリの貯蔵部を構成する。中央対話制御・管理ユニット8は、ユーザとの対話を制御すると共に辞書6の適応を制御する。ユニット8は特定用途向けデータを有するデータベース9にアクセス可能であり、音声出力を生成しこれをインタフェース2を介してユーザへ出力する音声出力ユニット10を制御する。
【0014】
データベース9に記憶された特定用途向けデータは、各用途に対して予め設定されうる対話構造を定義する。従って、例えばユーザとの対話は、挨拶から始まり続いて特定の音声入力のアクティブ化の要求がなされうる。ユーザによる続く音声入力は、インタフェース2を介して受信されメモリ3に一時的に記憶される。一時的に記憶された音声入力3は、自動音声認識装置4によって音声認識結果へ変化され、音声認識結果はユニット8へ与えられ、音声認識結果に応じて、データベース9に記憶されたデータに従って予め指定されたようなユーザとの対話を続けるか、対話を終了する。
【0015】
図2は、本発明の更なる説明のためのフローチャートを示す図である。本発明について、ユーザが地区情報を検索しうるイエローページデータ集合へのアクセスの例を用いて説明する。本例では、地区情報はデータベース9に記憶され、例えば複数の企業名、夫々の場所、関連する地区、通りの名前、電話番号、及び郵便番号を含む。電話の呼によりユーザにより対話システム1へアクセスした後、対話システム1はユーザへの挨拶定型文を出力し、町名を入力するよう求める。ステップ20において町名が入力され正しく検出されると、ステップ21においてユーザに対して地区を入力するよう要求する。ステップ22において音声入力によって地区を入力した後、ステップ23においてこの音声入力はメモリ中に音声ファイルとして一時的に記憶される。ステップ24において、音声認識装置4を用いて一時的に記憶された音声入力に対して音声認識手順が実行される。このために、限られた数の地区名を表わす辞書LEX(1)が使用され、即ち音声認識装置によって使用される語彙はこのようにステップ24において制限される。ステップ24において発生した音声認識結果を用いて、つづくステップ25において、認識されたセクタ名及び町名に対してデータベース9に記憶された企業名を探すために対話制御・管理ユニット8によってデータベース9におけるデータベースサーチが実行される。
【0016】
ステップ26において、認識されたブランチ名に属する少なくとも1つのデータベースエントリが見つかると、ステップ35において対応する企業名及び存在する場合は更なる関連する企業情報がユーザへ出力されるか、必要な情報をより詳細に指定するよう(例えば郵便番号又は通りの名前を入力することによって行われる)ユーザに求める音声出力を用いてユーザとの対話を続ける。しかしながら、ステップ26において、データベース9には認識された町名及びセクタ名に対応するデータベースエントリが見つからない場合、ステップ27において、先行する音声認識手順で使用される辞書6のバージョンを示すために用いられるパラメータnは、n=1に設定される。ステップ28において、辞書6は、辞書バージョンLEX(n)が少なくとも1つの辞書エントリについて辞書バージョンLEX(n)とは異なる辞書バージョンLEX(n+1)へ変形されるよう、適応される。辞書バージョンLEX(n+1)と比較して、辞書バージョンLEX(n)は限られた数のセクタ名を表わす辞書エントリを含み、nが増加するにつれあまり頻繁に探されない地区名も考慮される。辞書の拡張は、データベース9に記憶された割当てテーブルによって決まる。
【0017】
総合辞書7の利用可能な辞書エントリがカテゴリに分割されると、辞書は、カテゴリ内及び/又はカテゴリ間で適応されうる。辞書エントリの特定のカテゴリについての例は、例えば特定の町に対する地区名の数である。カテゴリ内の辞書適応は、その町に割り当てられた他の及び/又は追加的な地区名が辞書6の作成のために考慮された場合に生じうる。カテゴリ間の辞書の適応の場合、すなわち本例では辞書の適応の場合、例えば認識された町に近い他の町に割り当てられた地区名も考慮に入れられる。この場合も、割当てはデータベース9に記憶された割当てテーブル中で定義される。原理的には、当該の用途及び辞書の適応についての要求から生ずる多数のカテゴリが存在することが可能であり、このために最適化される。
【0018】
ステップ28において辞書を適応させた後、ステップ29において、変更された辞書LEX(n+1)を用いて音声認識方法が行われる。既知の地区を表わす音声認識結果が決定され、町が既に知られているときに、対話制御・管理ユニット8によってデータベース9の更なるデータベースサーチが行われる。ステップ31において、データベースのサーチによって認識された町に対するエントリ(地区名)が与えられることがわかると、方法は、ステップ35と同様にデータ出力を行うステップ36へ進む。
【0019】
ステップ31において、やはり割り当てられうるデータベースがないことがわかると、ステップ32においてパラメータnは1ずつインクリメントされる。ステップ33において、中断判定基準が満たされているかチェックする。本例では、中断判定基準は先験的に設定される数字Nによって表わされる。数字Nは、辞書の所望の適応の回数を表わす。ステップ33において中断判定基準がまだ満たされてない場合(n≦N)、システムはステップ28へ戻る。ステップ33において、中断判定基準が満たされた、即ちn>Nであるとわかると、対話システム1によるユーザ入力の処理は中断される。本例では、対話システム1とユーザとの間の対話は中断され、ステップ34において所望のデータをユーザによって利用可能とするために、ユーザは電話オペレータに接続される。
【0020】
本発明の実施例では、音声認識装置1は、個々の音声認識結果を供給するだけでなく、N≧1の最善の認識結果の選択肢の数Nも与える。この場合、辞書6の適応は、音声認識装置4によって供給される1以上の認識結果の選択肢に依存する。このように、音声認識装置6は、例えば地区名の入力の後に認識結果として2つの同様の音の地区名を出力し、2つの音声認識結果の選択肢はそれらの信頼性に従って順序付けられる。データベース9に、その中に記憶された割当てテーブルに、音声認識結果の選択肢として決定された2つの地区名について辞書6の適応のための異なる割当てが与えられ、これらは辞書6の適応にも考慮される。
【図面の簡単な説明】
【図1】対話システムを示すブロック回路図である。
【図2】本発明による方法を説明するためのフローチャートである。
【符号の説明】
1 対話システム
2 インタフェース
3 メモリ
4 音声認識装置
5 音声認識モジュール
6 辞書
7 総合辞書
8 対話制御・管理ユニット
9 データベース
10 音声出力ユニット

Claims (9)

  1. (1)音声入力を一時的に記憶する段階と、
    (2)上記音声入力を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
    (3)上記音声認識結果に対応するデータベースエントリについてサーチする段階と、
    (4)上記段階(3)においてデータベースエントリが見つからない場合は、
    少なくとも1つの辞書エントリが上記第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するように上記第1の辞書を拡張し、
    上記一時的に記憶された音声発話と上記拡張された第1の辞書とを用いて上記段階(2)及び(3)を繰り返す段階とを含む、
    自動対話システムによってデータベースのデータベースエントリを決定する方法。
  2. 上記辞書エントリは総合辞書として用いられる第2の辞書から得られることを特徴とする、請求項1記載の方法。
  3. 上記段階(4)は、中断判定基準に達するまで繰り返されることを特徴とする、請求項1又は2記載の方法。
  4. 書エントリのカテゴリに関して適応された後の第1の辞書は、適応される前の第1の辞書とは異なる少なくとも1つの辞書エントリを含むことを特徴とする、請求項1乃至3のうちいずれか一項記載の方法。
  5. 前記適応される前の第1の辞書が少なくとも部分集合を含む少なくとも1つの辞書エントリのカテゴリに割り当てられ前記適応された後の第1の辞書少なくとも部分集合を含む第2の辞書エントリのカテゴリ割り当てられることを特徴とする、請求項1乃至4のうちいずれか一項記載の方法。
  6. 音声認識装置によって与えられる音声認識結果は、N個(N≧1)の最善の認識結果の選択肢を含み、
    上記辞書の適応は、少なくとも1つの認識結果の選択肢に依存することを特徴とする、請求項1乃至5のうちいずれか一項記載の方法。
  7. 上記データベースエントリはイエローページデータの集まりの部分であることを特徴とする、請求項1乃至6のうちいずれか一項記載の方法。
  8. 上記対話システムは電話インタフェースを有し、前記電話インタフェースを通じて音声入力及び音声出力が伝送されることを特徴とする、請求項1乃至7のうちいずれか一項記載の方法。
  9. (1)入力されるべき音声発話を一時的に記憶する段階と、
    (2)上記音声発話を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
    (3)上記音声認識結果に対応するデータベースエントリについてサーチする段階と、
    (4)上記段階(3)においてデータベースエントリが見つからない場合は、
    少なくとも1つの辞書エントリが上記第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するように上記第1の辞書を拡張し、
    上記一時的に記憶された音声発話と上記拡張された第1の辞書とを用いて上記段階(2)及び(3)を繰り返す段階とを含む方法を実行するためのシステム構成要素を有するデータベースのデータベースエントリを決定する自動対話システム。
JP2002118436A 2001-04-20 2002-04-19 データベースのエントリを決定する方法 Expired - Lifetime JP4741777B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
DE10119677.6 2001-04-20
DE10119677A DE10119677A1 (de) 2001-04-20 2001-04-20 Verfahren zum Ermitteln von Datenbankeinträgen

Publications (2)

Publication Number Publication Date
JP2003029784A JP2003029784A (ja) 2003-01-31
JP4741777B2 true JP4741777B2 (ja) 2011-08-10

Family

ID=7682289

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002118436A Expired - Lifetime JP4741777B2 (ja) 2001-04-20 2002-04-19 データベースのエントリを決定する方法

Country Status (6)

Country Link
US (1) US7496508B2 (ja)
EP (1) EP1251491B1 (ja)
JP (1) JP4741777B2 (ja)
CN (1) CN1326074C (ja)
AT (1) ATE311649T1 (ja)
DE (2) DE10119677A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7958151B2 (en) * 2005-08-02 2011-06-07 Constad Transfer, Llc Voice operated, matrix-connected, artificially intelligent address book system
JP4790024B2 (ja) * 2006-12-15 2011-10-12 三菱電機株式会社 音声認識装置
JP6351562B2 (ja) * 2014-11-12 2018-07-04 株式会社アドバンスト・メディア 情報処理システム、受付サーバ、情報処理方法及びプログラム

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63163496A (ja) * 1986-12-26 1988-07-06 日本電信電話株式会社 並列検索照合型認識システム
JPH01293397A (ja) * 1988-05-23 1989-11-27 Hitachi Ltd 音声応答方式
US5027406A (en) * 1988-12-06 1991-06-25 Dragon Systems, Inc. Method for interactive speech recognition and training
US6073097A (en) * 1992-11-13 2000-06-06 Dragon Systems, Inc. Speech recognition system which selects one of a plurality of vocabulary models
JP3397372B2 (ja) * 1993-06-16 2003-04-14 キヤノン株式会社 音声認識方法及び装置
JPH07219590A (ja) * 1994-01-31 1995-08-18 Canon Inc 音声情報検索装置及び方法
CN1249667C (zh) * 1994-10-25 2006-04-05 英国电讯公司 声控服务
US5758322A (en) * 1994-12-09 1998-05-26 International Voice Register, Inc. Method and apparatus for conducting point-of-sale transactions using voice recognition
US5845246A (en) * 1995-02-28 1998-12-01 Voice Control Systems, Inc. Method for reducing database requirements for speech recognition systems
US5717828A (en) * 1995-03-15 1998-02-10 Syracuse Language Systems Speech recognition apparatus and method for learning
US5852801A (en) * 1995-10-04 1998-12-22 Apple Computer, Inc. Method and apparatus for automatically invoking a new word module for unrecognized user input
JPH09114482A (ja) * 1995-10-17 1997-05-02 Nippon Telegr & Teleph Corp <Ntt> 音声認識のための話者適応化方法
US5765132A (en) * 1995-10-26 1998-06-09 Dragon Systems, Inc. Building speech models for new words in a multi-word utterance
US6601027B1 (en) * 1995-11-13 2003-07-29 Scansoft, Inc. Position manipulation in speech recognition
US5715369A (en) * 1995-11-27 1998-02-03 Microsoft Corporation Single processor programmable speech recognition test system
US5933804A (en) * 1997-04-10 1999-08-03 Microsoft Corporation Extensible speech recognition system that provides a user with audio feedback
JPH1124695A (ja) * 1997-06-27 1999-01-29 Sony Corp 音声認識処理装置および音声認識処理方法
US6018708A (en) * 1997-08-26 2000-01-25 Nortel Networks Corporation Method and apparatus for performing speech recognition utilizing a supplementary lexicon of frequently used orthographies
US6122361A (en) * 1997-09-12 2000-09-19 Nortel Networks Corporation Automated directory assistance system utilizing priori advisor for predicting the most likely requested locality
JP4267081B2 (ja) * 1997-10-20 2009-05-27 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 分散システムにおけるパターン認識登録
US6138100A (en) * 1998-04-14 2000-10-24 At&T Corp. Interface for a voice-activated connection system
US6012030A (en) * 1998-04-21 2000-01-04 Nortel Networks Corporation Management of speech and audio prompts in multimodal interfaces
US6374220B1 (en) * 1998-08-05 2002-04-16 Texas Instruments Incorporated N-best search for continuous speech recognition using viterbi pruning for non-output differentiation states
US6208964B1 (en) * 1998-08-31 2001-03-27 Nortel Networks Limited Method and apparatus for providing unsupervised adaptation of transcriptions
JP2000200093A (ja) * 1999-01-07 2000-07-18 Nec Corp 音声認識装置及びそれに用いる音声認識方法並びにその制御プログラムを記録した記録媒体
JP3420965B2 (ja) * 1999-02-25 2003-06-30 日本電信電話株式会社 対話型データベース検索方法、装置及び対話型データベース検索プログラムを記録した記録媒体
JP2000322088A (ja) * 1999-05-14 2000-11-24 Hitachi Ltd 音声認識マイクおよび音声認識システムならびに音声認識方法
DE60026637T2 (de) * 1999-06-30 2006-10-05 International Business Machines Corp. Verfahren zur Erweiterung des Wortschatzes eines Spracherkennungssystems
US7120582B1 (en) * 1999-09-07 2006-10-10 Dragon Systems, Inc. Expanding an effective vocabulary of a speech recognition system
US20020188447A1 (en) * 2001-04-10 2002-12-12 Coon Bradley S. Generation of grammars from dynamic data structures

Also Published As

Publication number Publication date
DE50205081D1 (de) 2006-01-05
EP1251491B1 (de) 2005-11-30
JP2003029784A (ja) 2003-01-31
US7496508B2 (en) 2009-02-24
EP1251491A3 (de) 2003-12-17
CN1326074C (zh) 2007-07-11
CN1384453A (zh) 2002-12-11
ATE311649T1 (de) 2005-12-15
US20020169751A1 (en) 2002-11-14
DE10119677A1 (de) 2002-10-24
EP1251491A2 (de) 2002-10-23

Similar Documents

Publication Publication Date Title
US7386449B2 (en) Knowledge-based flexible natural speech dialogue system
EP0845774B1 (en) Method and apparatus for automatically generating a speech recognition vocabulary from a white pages listing
US20030149566A1 (en) System and method for a spoken language interface to a large database of changing records
US5732187A (en) Speaker-dependent speech recognition using speaker independent models
CA2202663C (en) Voice-operated services
JP5334178B2 (ja) 音声認識装置およびデータ更新方法
US20040260543A1 (en) Pattern cross-matching
US20080010058A1 (en) Method and apparatus for recognizing large list of proper names in spoken dialog systems
US20080162146A1 (en) Method and device for classifying spoken language in speech dialog systems
US8626506B2 (en) Method and system for dynamic nametag scoring
EP1240642A1 (en) Learning of dialogue states and language model of spoken information system
US20050004799A1 (en) System and method for a spoken language interface to a large database of changing records
CA2419526A1 (en) Voice recognition system
US20030050772A1 (en) Apparatus and method for an automated grammar file expansion tool
US7809567B2 (en) Speech recognition application or server using iterative recognition constraints
KR20060014369A (ko) 화자 종속 음성 인식 방법 및 음성 인식 시스템
US20010056345A1 (en) Method and system for speech recognition of the alphabet
JP4741777B2 (ja) データベースのエントリを決定する方法
JP4890721B2 (ja) 音声対話システムを動作させる方法
Kaspar et al. Faust-a directory assistance demonstrator.
Georgila et al. A speech-based human-computer interaction system for automating directory assistance services
TWI307845B (en) Directory assistant method and apparatus for providing directory entry information, and computer readable medium storing thereon related instructions
JP2003228393A (ja) 音声対話装置及び方法、音声対話プログラム並びにその記録媒体
KR100432373B1 (ko) 독립적 음성처리를 위한 음성인식 시스템
KR101002135B1 (ko) 음절 음성인식기의 음성인식결과 전달 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050415

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20071009

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20080107

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20080110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080409

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090203

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090501

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20090609

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20090717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110311

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110509

R150 Certificate of patent or registration of utility model

Ref document number: 4741777

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140513

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term