JP4741777B2 - データベースのエントリを決定する方法 - Google Patents
データベースのエントリを決定する方法 Download PDFInfo
- Publication number
- JP4741777B2 JP4741777B2 JP2002118436A JP2002118436A JP4741777B2 JP 4741777 B2 JP4741777 B2 JP 4741777B2 JP 2002118436 A JP2002118436 A JP 2002118436A JP 2002118436 A JP2002118436 A JP 2002118436A JP 4741777 B2 JP4741777 B2 JP 4741777B2
- Authority
- JP
- Japan
- Prior art keywords
- dictionary
- entry
- database
- speech recognition
- recognition result
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Lifetime
Links
- 238000000034 method Methods 0.000 claims abstract description 24
- 230000006978 adaptation Effects 0.000 claims description 14
- 230000002452 interceptive effect Effects 0.000 claims description 8
- 230000003044 adaptive effect Effects 0.000 claims 1
- 230000003139 buffering effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 3
- 230000004913 activation Effects 0.000 description 1
- 238000010586 diagram Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/06—Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
- G10L15/065—Adaptation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F16/00—Information retrieval; Database structures therefor; File system structures therefor
- G06F16/20—Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
- G06F16/24—Querying
- G06F16/242—Query formulation
- G06F16/243—Natural language query formulation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/14—Speech classification or search using statistical models, e.g. Hidden Markov Models [HMMs]
- G10L15/142—Hidden Markov Models [HMMs]
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
- G10L15/18—Speech classification or search using natural language modelling
- G10L15/183—Speech classification or search using natural language modelling using context dependencies, e.g. language models
- G10L15/187—Phonemic context, e.g. pronunciation rules, phonotactical constraints or phoneme n-grams
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Mathematical Physics (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Computational Linguistics (AREA)
- General Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Data Mining & Analysis (AREA)
- Databases & Information Systems (AREA)
- Machine Translation (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
【発明の属する技術分野】
本発明は自動対話システムによってデータベースのデータベースエントリを決定する方法に関する。
【0002】
【従来の技術】
対話システムの自動的な動作を保証するため、一般的に、辞書エントリ(音声認識装置の語彙)を用いて辞書にアクセスし、隠れマルコフモデルに基づいて動作する自動音声認識装置が用いられる。辞書エントリは、音声認識手順において音声入力と比較される音声認識装置用の音響リファレンスを含む。音響リファレンスは、例えば一連の音素を表わす。本発明による方法は、例えば「イエローページ」サービスに関連する。このようなサービスを用いて、各ユーザは、要求されている地区の利用可能な提供者から、例えば医者、販売者又は他の企業についての情報、また、警察、プール、学校等の公共の設備についての情報を得ることができる。電話を通じたこのような地区情報システム、即ち職業別電話情報の形式のシステムは周知である。
【0003】
更に、例えばインターネット又はイントラネットのためのデータネットワークにおいてかかる情報システムが既に知られている。端末は、情報システムの種別に応じて、電話機、移動電話機、適切な電話機能を有するコンピュータ又はオーガナイザ等であるか、純粋なデータネットワーク中の情報システムが使用される場合は例えばWAP移動電話機といった関連するネットワークへの対応するアクセス機能を有するPC又はオーガナイザ又は移動電話機が使用される。サーチパラメータは、例えば、地区、職業分野、或いは場所、又は、例えば「医師」或いは「ホメオパシー」或いは「ミュンヘン」といった関連するサーチ概念といった種々のサーチ規準である。加入者データは、例えば、情報システムに加入している供給者にユーザが接触すること又は連絡をとることを可能とする電話番号、住所、又は他の情報、即ち情報システムのデータベースに含まれる情報でありうる。公知のシステムでは、辞書は例えば地区の入力といったあるカテゴリの音声入力のために使用され、この辞書は計算上の費用を制限するために音声認識システム上の要求に応じて調整される。
【0004】
【発明が解決しようとする課題】
ここで、当該の音声認識の結果について行われるデータベースのサーチにおいて、ユーザへ出力されうる関連するデータベースエントリが見いだせないという問題が生ずる。本発明は、ユーザによる使い心地ができる限り影響を受けないよう追加的な計算上の費用を最小限としつつ上述の問題を解決することを目的とする。
【0005】
【課題を解決するための手段】
上述の目的は、
(1)音声入力を一時的に記憶する段階と、
(2)音声入力を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
(3)音声認識結果に対応するデータベースエントリについてサーチする段階と、
(4)段階(3)においてデータベースエントリが見つからない場合は、
少なくとも1つの辞書エントリが第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するよう、第1の辞書を適応し、
一時的に記憶された音声発話と適応された第1の辞書とを用いて段階(2)及び(3)を繰り返す段階とを含む上述の方法によって達成される。
【0006】
最初のデータベースのサーチが成功しなかった場合でも、ユーザは音声の発話によって生成される音声入力を繰り返す必要がない。一時的に記憶された音声入力は、適応された辞書を用いた第2の音声認識動作にも使用される。辞書は動的に適応される。辞書の適用の方法は、出来る限り小さい辞書で考慮されている音声認識結果に対してデータベースの入力の割当てが成功する確率を最大とすることを保証するよう選択される。特に、第1の辞書を適応するためにそのエントリが使用されうる総合辞書が使用される(請求項2)。
【0007】
請求項3は、音声入力の質が低く割当て可能なデータベースエントリがない場合に本発明による方法が予め設定された基準に従って中断されることを保証する。
【0008】
請求項4及び請求項5は、音声認識のために使用される第1の辞書がデータベースエントリのカテゴリに関連付けられる実施例を示す。請求項4に記載のように辞書を適応するとき、データベースエントリのカテゴリ(例えば地区)の制限内で、追加的な辞書エントリが追加されるか、辞書エントリが変更される。請求項4は、第1の辞書の適応のために、辞書のエントリがカテゴリの外で適応される実施例を開示する。適応される前の第1の辞書がデータベースエントリの特定のカテゴリに属する辞書エントリを含む場合、適応された後は、第1の辞書は関連するカテゴリ(例えば関連する地区)に属する少なくとも1つの辞書エントリを含む。
【0009】
請求項6に記載の実施例では、音声入力に対してデータベースエントリを割り当てることができない場合、辞書は個々の音声認識結果の選択肢に対して適応されるだけでなく、音声認識の選択肢は辞書が適応されるときにも考慮される。従って、新規な音声認識動作により、データベースエントリが一時的に記憶された音声入力に対して割り当てられうる確率が高まる。
【0010】
本発明による方法は、特に、対話システムへのアクセスが特に電話インタフェース(請求項8)を通じて行われるイエローページのデータの集合(請求項7)においてエントリを決定するために使用される。
【0011】
また、本発明は、本発明による方法を実施するために使用される自動対話システムに関する。
【0012】
【発明の実施の形態】
以下、本発明の実施例について図面を参照して詳述する。図1は、本実施例では電話インタフェースであるインタフェース2を有する対話システム1を示す。
対話システム1は、インタフェース2を通じて、また構内交換機が利用可能であればこれを介して、電話網に接続される。メモリ3が設けられ、これに受信される音声入力が音声ファイルとして一時的に記憶されうる。自動音声認識装置4は、メモリ3に記憶された音声認識の自動認識を行う。音声認識装置4は、音声認識モジュール5と辞書6とを含み、辞書のエントリは音声認識装置4によって利用可能な語彙を構成する。各辞書エントリは、語又は単語を示す少なくとも1つの音響リファレンスを含む。各音響リファレンスは、少なくとも1つの状態を有する隠れマルコフモデル(HMM)に対応する。音声認識モジュール5は、ここでは辞書6を除く音声認識装置4の全ての機能を含む。音声認識装置4は、例えばフィリップス社製のシステム「Speech Pearl」を用いて実施されうる。
【0013】
本発明による対話システム1では、音声認識装置4によって用いられる辞書6は、設定されているものではなく、動的に適応可能である。本例では、辞書6の辞書エントリは、総合辞書7の部分集合を構成する。総合辞書7は、辞書6のための辞書エントリの貯蔵部を構成する。中央対話制御・管理ユニット8は、ユーザとの対話を制御すると共に辞書6の適応を制御する。ユニット8は特定用途向けデータを有するデータベース9にアクセス可能であり、音声出力を生成しこれをインタフェース2を介してユーザへ出力する音声出力ユニット10を制御する。
【0014】
データベース9に記憶された特定用途向けデータは、各用途に対して予め設定されうる対話構造を定義する。従って、例えばユーザとの対話は、挨拶から始まり続いて特定の音声入力のアクティブ化の要求がなされうる。ユーザによる続く音声入力は、インタフェース2を介して受信されメモリ3に一時的に記憶される。一時的に記憶された音声入力3は、自動音声認識装置4によって音声認識結果へ変化され、音声認識結果はユニット8へ与えられ、音声認識結果に応じて、データベース9に記憶されたデータに従って予め指定されたようなユーザとの対話を続けるか、対話を終了する。
【0015】
図2は、本発明の更なる説明のためのフローチャートを示す図である。本発明について、ユーザが地区情報を検索しうるイエローページデータ集合へのアクセスの例を用いて説明する。本例では、地区情報はデータベース9に記憶され、例えば複数の企業名、夫々の場所、関連する地区、通りの名前、電話番号、及び郵便番号を含む。電話の呼によりユーザにより対話システム1へアクセスした後、対話システム1はユーザへの挨拶定型文を出力し、町名を入力するよう求める。ステップ20において町名が入力され正しく検出されると、ステップ21においてユーザに対して地区を入力するよう要求する。ステップ22において音声入力によって地区を入力した後、ステップ23においてこの音声入力はメモリ中に音声ファイルとして一時的に記憶される。ステップ24において、音声認識装置4を用いて一時的に記憶された音声入力に対して音声認識手順が実行される。このために、限られた数の地区名を表わす辞書LEX(1)が使用され、即ち音声認識装置によって使用される語彙はこのようにステップ24において制限される。ステップ24において発生した音声認識結果を用いて、つづくステップ25において、認識されたセクタ名及び町名に対してデータベース9に記憶された企業名を探すために対話制御・管理ユニット8によってデータベース9におけるデータベースサーチが実行される。
【0016】
ステップ26において、認識されたブランチ名に属する少なくとも1つのデータベースエントリが見つかると、ステップ35において対応する企業名及び存在する場合は更なる関連する企業情報がユーザへ出力されるか、必要な情報をより詳細に指定するよう(例えば郵便番号又は通りの名前を入力することによって行われる)ユーザに求める音声出力を用いてユーザとの対話を続ける。しかしながら、ステップ26において、データベース9には認識された町名及びセクタ名に対応するデータベースエントリが見つからない場合、ステップ27において、先行する音声認識手順で使用される辞書6のバージョンを示すために用いられるパラメータnは、n=1に設定される。ステップ28において、辞書6は、辞書バージョンLEX(n)が少なくとも1つの辞書エントリについて辞書バージョンLEX(n)とは異なる辞書バージョンLEX(n+1)へ変形されるよう、適応される。辞書バージョンLEX(n+1)と比較して、辞書バージョンLEX(n)は限られた数のセクタ名を表わす辞書エントリを含み、nが増加するにつれあまり頻繁に探されない地区名も考慮される。辞書の拡張は、データベース9に記憶された割当てテーブルによって決まる。
【0017】
総合辞書7の利用可能な辞書エントリがカテゴリに分割されると、辞書は、カテゴリ内及び/又はカテゴリ間で適応されうる。辞書エントリの特定のカテゴリについての例は、例えば特定の町に対する地区名の数である。カテゴリ内の辞書適応は、その町に割り当てられた他の及び/又は追加的な地区名が辞書6の作成のために考慮された場合に生じうる。カテゴリ間の辞書の適応の場合、すなわち本例では辞書の適応の場合、例えば認識された町に近い他の町に割り当てられた地区名も考慮に入れられる。この場合も、割当てはデータベース9に記憶された割当てテーブル中で定義される。原理的には、当該の用途及び辞書の適応についての要求から生ずる多数のカテゴリが存在することが可能であり、このために最適化される。
【0018】
ステップ28において辞書を適応させた後、ステップ29において、変更された辞書LEX(n+1)を用いて音声認識方法が行われる。既知の地区を表わす音声認識結果が決定され、町が既に知られているときに、対話制御・管理ユニット8によってデータベース9の更なるデータベースサーチが行われる。ステップ31において、データベースのサーチによって認識された町に対するエントリ(地区名)が与えられることがわかると、方法は、ステップ35と同様にデータ出力を行うステップ36へ進む。
【0019】
ステップ31において、やはり割り当てられうるデータベースがないことがわかると、ステップ32においてパラメータnは1ずつインクリメントされる。ステップ33において、中断判定基準が満たされているかチェックする。本例では、中断判定基準は先験的に設定される数字Nによって表わされる。数字Nは、辞書の所望の適応の回数を表わす。ステップ33において中断判定基準がまだ満たされてない場合(n≦N)、システムはステップ28へ戻る。ステップ33において、中断判定基準が満たされた、即ちn>Nであるとわかると、対話システム1によるユーザ入力の処理は中断される。本例では、対話システム1とユーザとの間の対話は中断され、ステップ34において所望のデータをユーザによって利用可能とするために、ユーザは電話オペレータに接続される。
【0020】
本発明の実施例では、音声認識装置1は、個々の音声認識結果を供給するだけでなく、N≧1の最善の認識結果の選択肢の数Nも与える。この場合、辞書6の適応は、音声認識装置4によって供給される1以上の認識結果の選択肢に依存する。このように、音声認識装置6は、例えば地区名の入力の後に認識結果として2つの同様の音の地区名を出力し、2つの音声認識結果の選択肢はそれらの信頼性に従って順序付けられる。データベース9に、その中に記憶された割当てテーブルに、音声認識結果の選択肢として決定された2つの地区名について辞書6の適応のための異なる割当てが与えられ、これらは辞書6の適応にも考慮される。
【図面の簡単な説明】
【図1】対話システムを示すブロック回路図である。
【図2】本発明による方法を説明するためのフローチャートである。
【符号の説明】
1 対話システム
2 インタフェース
3 メモリ
4 音声認識装置
5 音声認識モジュール
6 辞書
7 総合辞書
8 対話制御・管理ユニット
9 データベース
10 音声出力ユニット
Claims (9)
- (1)音声入力を一時的に記憶する段階と、
(2)上記音声入力を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
(3)上記音声認識結果に対応するデータベースエントリについてサーチする段階と、
(4)上記段階(3)においてデータベースエントリが見つからない場合は、
少なくとも1つの辞書エントリが上記第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するように上記第1の辞書を拡張し、
上記一時的に記憶された音声発話と上記拡張された第1の辞書とを用いて上記段階(2)及び(3)を繰り返す段階とを含む、
自動対話システムによってデータベースのデータベースエントリを決定する方法。 - 上記辞書エントリは総合辞書として用いられる第2の辞書から得られることを特徴とする、請求項1記載の方法。
- 上記段階(4)は、中断判定基準に達するまで繰り返されることを特徴とする、請求項1又は2記載の方法。
- 辞書エントリのカテゴリに関して適応された後の第1の辞書は、適応される前の第1の辞書とは異なる少なくとも1つの辞書エントリを含むことを特徴とする、請求項1乃至3のうちいずれか一項記載の方法。
- 前記適応される前の第1の辞書が少なくとも部分集合を含む少なくとも1つの辞書エントリのカテゴリに割り当てられ、前記適応された後の第1の辞書は少なくとも部分集合を含む第2の辞書エントリのカテゴリに割り当てられることを特徴とする、請求項1乃至4のうちいずれか一項記載の方法。
- 音声認識装置によって与えられる音声認識結果は、N個(N≧1)の最善の認識結果の選択肢を含み、
上記辞書の適応は、少なくとも1つの認識結果の選択肢に依存することを特徴とする、請求項1乃至5のうちいずれか一項記載の方法。 - 上記データベースエントリはイエローページデータの集まりの部分であることを特徴とする、請求項1乃至6のうちいずれか一項記載の方法。
- 上記対話システムは電話インタフェースを有し、前記電話インタフェースを通じて音声入力及び音声出力が伝送されることを特徴とする、請求項1乃至7のうちいずれか一項記載の方法。
- (1)入力されるべき音声発話を一時的に記憶する段階と、
(2)上記音声発話を自動音声認識装置によって処理し、各辞書エントリが少なくとも1つの音響リファレンスを含む第1の辞書エントリ集合を有する第1の辞書を用いて音声認識結果を生成する段階と、
(3)上記音声認識結果に対応するデータベースエントリについてサーチする段階と、
(4)上記段階(3)においてデータベースエントリが見つからない場合は、
少なくとも1つの辞書エントリが上記第1の辞書エントリ集合とは異なる第2の辞書エントリ集合を有するように上記第1の辞書を拡張し、
上記一時的に記憶された音声発話と上記拡張された第1の辞書とを用いて上記段階(2)及び(3)を繰り返す段階とを含む方法を実行するためのシステム構成要素を有するデータベースのデータベースエントリを決定する自動対話システム。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
DE10119677.6 | 2001-04-20 | ||
DE10119677A DE10119677A1 (de) | 2001-04-20 | 2001-04-20 | Verfahren zum Ermitteln von Datenbankeinträgen |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2003029784A JP2003029784A (ja) | 2003-01-31 |
JP4741777B2 true JP4741777B2 (ja) | 2011-08-10 |
Family
ID=7682289
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002118436A Expired - Lifetime JP4741777B2 (ja) | 2001-04-20 | 2002-04-19 | データベースのエントリを決定する方法 |
Country Status (6)
Country | Link |
---|---|
US (1) | US7496508B2 (ja) |
EP (1) | EP1251491B1 (ja) |
JP (1) | JP4741777B2 (ja) |
CN (1) | CN1326074C (ja) |
AT (1) | ATE311649T1 (ja) |
DE (2) | DE10119677A1 (ja) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7958151B2 (en) * | 2005-08-02 | 2011-06-07 | Constad Transfer, Llc | Voice operated, matrix-connected, artificially intelligent address book system |
JP4790024B2 (ja) * | 2006-12-15 | 2011-10-12 | 三菱電機株式会社 | 音声認識装置 |
JP6351562B2 (ja) * | 2014-11-12 | 2018-07-04 | 株式会社アドバンスト・メディア | 情報処理システム、受付サーバ、情報処理方法及びプログラム |
Family Cites Families (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS63163496A (ja) * | 1986-12-26 | 1988-07-06 | 日本電信電話株式会社 | 並列検索照合型認識システム |
JPH01293397A (ja) * | 1988-05-23 | 1989-11-27 | Hitachi Ltd | 音声応答方式 |
US5027406A (en) * | 1988-12-06 | 1991-06-25 | Dragon Systems, Inc. | Method for interactive speech recognition and training |
US6073097A (en) * | 1992-11-13 | 2000-06-06 | Dragon Systems, Inc. | Speech recognition system which selects one of a plurality of vocabulary models |
JP3397372B2 (ja) * | 1993-06-16 | 2003-04-14 | キヤノン株式会社 | 音声認識方法及び装置 |
JPH07219590A (ja) * | 1994-01-31 | 1995-08-18 | Canon Inc | 音声情報検索装置及び方法 |
CN1249667C (zh) * | 1994-10-25 | 2006-04-05 | 英国电讯公司 | 声控服务 |
US5758322A (en) * | 1994-12-09 | 1998-05-26 | International Voice Register, Inc. | Method and apparatus for conducting point-of-sale transactions using voice recognition |
US5845246A (en) * | 1995-02-28 | 1998-12-01 | Voice Control Systems, Inc. | Method for reducing database requirements for speech recognition systems |
US5717828A (en) * | 1995-03-15 | 1998-02-10 | Syracuse Language Systems | Speech recognition apparatus and method for learning |
US5852801A (en) * | 1995-10-04 | 1998-12-22 | Apple Computer, Inc. | Method and apparatus for automatically invoking a new word module for unrecognized user input |
JPH09114482A (ja) * | 1995-10-17 | 1997-05-02 | Nippon Telegr & Teleph Corp <Ntt> | 音声認識のための話者適応化方法 |
US5765132A (en) * | 1995-10-26 | 1998-06-09 | Dragon Systems, Inc. | Building speech models for new words in a multi-word utterance |
US6601027B1 (en) * | 1995-11-13 | 2003-07-29 | Scansoft, Inc. | Position manipulation in speech recognition |
US5715369A (en) * | 1995-11-27 | 1998-02-03 | Microsoft Corporation | Single processor programmable speech recognition test system |
US5933804A (en) * | 1997-04-10 | 1999-08-03 | Microsoft Corporation | Extensible speech recognition system that provides a user with audio feedback |
JPH1124695A (ja) * | 1997-06-27 | 1999-01-29 | Sony Corp | 音声認識処理装置および音声認識処理方法 |
US6018708A (en) * | 1997-08-26 | 2000-01-25 | Nortel Networks Corporation | Method and apparatus for performing speech recognition utilizing a supplementary lexicon of frequently used orthographies |
US6122361A (en) * | 1997-09-12 | 2000-09-19 | Nortel Networks Corporation | Automated directory assistance system utilizing priori advisor for predicting the most likely requested locality |
JP4267081B2 (ja) * | 1997-10-20 | 2009-05-27 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 分散システムにおけるパターン認識登録 |
US6138100A (en) * | 1998-04-14 | 2000-10-24 | At&T Corp. | Interface for a voice-activated connection system |
US6012030A (en) * | 1998-04-21 | 2000-01-04 | Nortel Networks Corporation | Management of speech and audio prompts in multimodal interfaces |
US6374220B1 (en) * | 1998-08-05 | 2002-04-16 | Texas Instruments Incorporated | N-best search for continuous speech recognition using viterbi pruning for non-output differentiation states |
US6208964B1 (en) * | 1998-08-31 | 2001-03-27 | Nortel Networks Limited | Method and apparatus for providing unsupervised adaptation of transcriptions |
JP2000200093A (ja) * | 1999-01-07 | 2000-07-18 | Nec Corp | 音声認識装置及びそれに用いる音声認識方法並びにその制御プログラムを記録した記録媒体 |
JP3420965B2 (ja) * | 1999-02-25 | 2003-06-30 | 日本電信電話株式会社 | 対話型データベース検索方法、装置及び対話型データベース検索プログラムを記録した記録媒体 |
JP2000322088A (ja) * | 1999-05-14 | 2000-11-24 | Hitachi Ltd | 音声認識マイクおよび音声認識システムならびに音声認識方法 |
DE60026637T2 (de) * | 1999-06-30 | 2006-10-05 | International Business Machines Corp. | Verfahren zur Erweiterung des Wortschatzes eines Spracherkennungssystems |
US7120582B1 (en) * | 1999-09-07 | 2006-10-10 | Dragon Systems, Inc. | Expanding an effective vocabulary of a speech recognition system |
US20020188447A1 (en) * | 2001-04-10 | 2002-12-12 | Coon Bradley S. | Generation of grammars from dynamic data structures |
-
2001
- 2001-04-20 DE DE10119677A patent/DE10119677A1/de not_active Withdrawn
-
2002
- 2002-04-17 CN CNB021231192A patent/CN1326074C/zh not_active Expired - Lifetime
- 2002-04-18 EP EP02100391A patent/EP1251491B1/de not_active Expired - Lifetime
- 2002-04-18 AT AT02100391T patent/ATE311649T1/de not_active IP Right Cessation
- 2002-04-18 US US10/125,796 patent/US7496508B2/en active Active
- 2002-04-18 DE DE50205081T patent/DE50205081D1/de not_active Expired - Lifetime
- 2002-04-19 JP JP2002118436A patent/JP4741777B2/ja not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
DE50205081D1 (de) | 2006-01-05 |
EP1251491B1 (de) | 2005-11-30 |
JP2003029784A (ja) | 2003-01-31 |
US7496508B2 (en) | 2009-02-24 |
EP1251491A3 (de) | 2003-12-17 |
CN1326074C (zh) | 2007-07-11 |
CN1384453A (zh) | 2002-12-11 |
ATE311649T1 (de) | 2005-12-15 |
US20020169751A1 (en) | 2002-11-14 |
DE10119677A1 (de) | 2002-10-24 |
EP1251491A2 (de) | 2002-10-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US7386449B2 (en) | Knowledge-based flexible natural speech dialogue system | |
EP0845774B1 (en) | Method and apparatus for automatically generating a speech recognition vocabulary from a white pages listing | |
US20030149566A1 (en) | System and method for a spoken language interface to a large database of changing records | |
US5732187A (en) | Speaker-dependent speech recognition using speaker independent models | |
CA2202663C (en) | Voice-operated services | |
JP5334178B2 (ja) | 音声認識装置およびデータ更新方法 | |
US20040260543A1 (en) | Pattern cross-matching | |
US20080010058A1 (en) | Method and apparatus for recognizing large list of proper names in spoken dialog systems | |
US20080162146A1 (en) | Method and device for classifying spoken language in speech dialog systems | |
US8626506B2 (en) | Method and system for dynamic nametag scoring | |
EP1240642A1 (en) | Learning of dialogue states and language model of spoken information system | |
US20050004799A1 (en) | System and method for a spoken language interface to a large database of changing records | |
CA2419526A1 (en) | Voice recognition system | |
US20030050772A1 (en) | Apparatus and method for an automated grammar file expansion tool | |
US7809567B2 (en) | Speech recognition application or server using iterative recognition constraints | |
KR20060014369A (ko) | 화자 종속 음성 인식 방법 및 음성 인식 시스템 | |
US20010056345A1 (en) | Method and system for speech recognition of the alphabet | |
JP4741777B2 (ja) | データベースのエントリを決定する方法 | |
JP4890721B2 (ja) | 音声対話システムを動作させる方法 | |
Kaspar et al. | Faust-a directory assistance demonstrator. | |
Georgila et al. | A speech-based human-computer interaction system for automating directory assistance services | |
TWI307845B (en) | Directory assistant method and apparatus for providing directory entry information, and computer readable medium storing thereon related instructions | |
JP2003228393A (ja) | 音声対話装置及び方法、音声対話プログラム並びにその記録媒体 | |
KR100432373B1 (ko) | 독립적 음성처리를 위한 음성인식 시스템 | |
KR101002135B1 (ko) | 음절 음성인식기의 음성인식결과 전달 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050415 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20071009 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20080107 |
|
A602 | Written permission of extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A602 Effective date: 20080110 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20080409 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20090203 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090501 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20090609 |
|
A912 | Re-examination (zenchi) completed and case transferred to appeal board |
Free format text: JAPANESE INTERMEDIATE CODE: A912 Effective date: 20090717 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110311 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20110509 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4741777 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140513 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |