JP2000221990A - 音声認識装置 - Google Patents

音声認識装置

Info

Publication number
JP2000221990A
JP2000221990A JP11019555A JP1955599A JP2000221990A JP 2000221990 A JP2000221990 A JP 2000221990A JP 11019555 A JP11019555 A JP 11019555A JP 1955599 A JP1955599 A JP 1955599A JP 2000221990 A JP2000221990 A JP 2000221990A
Authority
JP
Japan
Prior art keywords
dictionary
phoneme
standard dictionary
standard
character string
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11019555A
Other languages
English (en)
Inventor
Masaru Kuroda
勝 黒田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP11019555A priority Critical patent/JP2000221990A/ja
Priority to US09/492,280 priority patent/US6732074B1/en
Publication of JP2000221990A publication Critical patent/JP2000221990A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/06Creation of reference templates; Training of speech recognition systems, e.g. adaptation to the characteristics of the speaker's voice
    • G10L15/063Training
    • G10L2015/0635Training updating or merging of old and new templates; Mean values; Weighting

Landscapes

  • Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 特定話者認識用の辞書を発声者に負担をかけ
ずに、かつ、良好に作成することの可能な音声認識装置
を提供する。 【解決手段】 この音声認識装置は、標準辞書1と、入
力された音声から特徴量を抽出する特徴抽出部2と、特
徴抽出部2で抽出された入力音声の特徴量と標準辞書1
との照合を行なう照合部3と、照合部3における照合結
果を出力する結果出力部4と、標準辞書1の更新を行な
う辞書更新部5とを有している。ここで、標準辞書1
は、初期時においては、不特定話者認識用の辞書として
作成されており、辞書更新部5は、入力音声から抽出さ
れた特徴量と標準辞書1との照合結果に基づいて標準辞
書1を特定話者認識用の辞書に更新するようになってい
る。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識装置に関
する。
【0002】
【従来の技術】一般に、音声認識装置において、特定話
者認識を行なうためには、特定話者に所定の単語等につ
いて発声を行なわせて特定話者用の辞書の作成を行なっ
ていた。この場合、特定話者用の辞書を作成するために
は、特定話者は、1つの単語等について1回から3回発
声する必要がある。
【0003】ここで、1回しか発声しない場合は、発声
者の負担は比較的少なくて済むが、辞書登録時の環境
(例えば、背景の騒音や、周囲の人の発声)によって必ず
しも良い辞書ができない。これは、特定話者が発声した
音声に周囲の音が混入してしまうために、登録された辞
書の品質が下がってしまうためである。
【0004】これに対し、特定話者に複数回(例えば3
回)の発声を行なわせて辞書の作成(登録)を行なう場合
には、例えば、複数回の発声に基づいて平均的な辞書を
作成することができる。あるいは、1回目の発声で辞書
を作成し、2回目あるいは3回目の発声で辞書との照合
を行なって辞書の出来を評価することもできる。いずれ
にしても、1回しか発声しない場合に比べて良い辞書が
できる。
【0005】
【発明が解決しようとする課題】しかしながら、発声者
に同じ単語等を2回あるいは3回繰り返し発声させる場
合、発声者にとって辞書作成が負担となってしまう。例
えば、20単語も30単語も辞書登録することになる
と、非常な負担となる。
【0006】本発明は、特定話者認識用の辞書を発声者
に負担をかけずに、かつ、良好に作成することの可能な
音声認識装置を提供することを目的としている。
【0007】
【課題を解決するための手段】上記目的を達成するため
に、請求項1記載の発明は、標準辞書と、入力された音
声から特徴量を抽出する特徴抽出部と、特徴抽出部で抽
出された入力音声の特徴量と標準辞書との照合を行なう
照合部と、照合部における照合結果を出力する結果出力
部と、標準辞書の更新を行なう辞書更新部とを有し、標
準辞書は、初期時においては、不特定話者認識用の辞書
として作成されており、辞書更新部は、入力音声から抽
出された特徴量と標準辞書との照合結果に基づいて標準
辞書を特定話者認識用の辞書に更新するようになってい
ることを特徴としている。
【0008】また、請求項2記載の発明は、請求項1記
載の音声認識装置において、前記標準辞書は、初期時に
おいて、文字列から音素情報を抽出して不特定話者認識
用の辞書として作成されており、前記照合部は、ある文
字列についての入力音声から抽出された特徴量により決
められる入力音素と標準辞書の前記文字列に対応する音
素情報との照合において、入力音素と標準辞書の前記文
字列に対応する音素情報との音素距離評価を行ない、前
記辞書更新部は、前記音素距離評価結果に基づいて、標
準辞書の前記文字列の対応する音素情報を更新し、標準
辞書を特定話者認識用の辞書に更新することを特徴とし
ている。
【0009】また、請求項3記載の発明は、請求項2記
載の音声認識装置において、前記辞書更新部は、前記音
素距離評価の結果、入力音素と標準辞書の前記文字列に
対応する音素情報との音素距離が所定の閾値を越えたと
きにのみ、標準辞書の前記文字列の対応する音素情報を
更新し、標準辞書を更新することを特徴としている。
【0010】また、請求項4記載の発明は、請求項2記
載の音声認識装置において、前記辞書更新部は、入力音
素と標準辞書の前記文字列に対応する音素情報との音素
距離評価を行ない、入力音素と標準辞書の前記文字列に
対応する音素情報との音素距離が所定の閾値を越えたと
きにのみ、標準辞書の前記文字列の母音に対応する音素
を更新し、標準辞書を更新することを特徴としている。
【0011】
【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。図1は本発明に係る音声認識装置の
構成例を示す図である。図1を参照すると、この音声認
識装置は、標準辞書1と、入力された音声から特徴量を
抽出する特徴抽出部2と、特徴抽出部2で抽出された入
力音声の特徴量と標準辞書1との照合を行なう照合部3
と、照合部3における照合結果を出力する結果出力部4
と、標準辞書1の更新を行なう辞書更新部5とを有して
いる。ここで、標準辞書1は、初期時においては、不特
定話者認識用の辞書として作成されており、辞書更新部
5は、入力音声から抽出された特徴量と標準辞書1との
照合結果に基づいて標準辞書1を特定話者認識用の辞書
に更新するようになっている。
【0012】より具体的に、標準辞書1は、初期時にお
いて、文字列から音素情報を抽出して不特定話者認識用
の辞書として作成されており、照合部3は、ある文字列
についての入力音声から抽出された特徴量により決めら
れる入力音素と標準辞書1の文字列に対応する音素情報
との照合において、入力音素と標準辞書1の文字列に対
応する音素情報との音素距離評価を行ない、辞書更新部
5は、音素距離評価結果に基づいて、標準辞書1の文字
列の対応する音素情報を更新し、標準辞書1を特定話者
認識用の辞書に更新するようになっている。
【0013】ここで、標準辞書1は、初期時において、
文字列から音素情報,経路情報が抽出されて、不特定話
者認識用の辞書として作成されている。例えば、「あ
き」という文字列について標準辞書1を作成したい場合
には、この文字列「あき」を、「a」「a−k」「k」
「k−i」「i」というように音素単位に分ける。これ
ら4個の音素を標準辞書1の中に音素情報として保存す
る。また、経路情報も同様に「a」「a−k」「k」
「k−i」「i」という順序で遷移していくことを標準
辞書1に保存する。なお、この文字列から音素情報,経
路情報への変換は、音声認識装置内で行なっても良い
し、別の文字列変換装置を使用して行なっても良い。
【0014】この場合、入力された音声が例えば「あ
き」であるとすると、照合部3は、入力音声「あき」を
解析した結果の経路情報「a」「a−k」「k」「k−
i」「i」の順序と一致する経路情報が標準辞書1に存
在するかを調べ、いまの場合、「a」「a−k」「k」
「k−i」「i」の順序と一致する経路情報が標準辞書
1に存在するので、入力音声「あき」の音素(入力音素)
「a」「a−k」「k」「k−i」「i」と上記経路情
報が一致した標準辞書1の音素情報「a」「a−k」
「k」「k−i」「i」との音素距離を算出するように
なっている。すなわち、この場合、音素距離Xは、例え
ば、入力音声「あき」の音素「a」「a−k」「k」「k
−i」「i」と標準辞書1の音素「a」「a−k」
「k」「k−i」「i」との各々対応する音素の距離X
(「a」),X(「a−k」),X(「k」),X(「k−
i」),X(「i」)の加算値として算出される。
【0015】そして、辞書更新部5は、音素距離評価の
結果、入力音素と標準辞書1の文字列に対応する音素情
報との音素距離が所定の閾値を越えたときにのみ、標準
辞書1の文字列の対応する音素情報を更新し、標準辞書
1を更新するようになっている。すなわち、上記の例で
は、標準辞書1に現在登録されている音素情報「a」
「a−k」「k」「k−i」「i」を入力音声の音素情
報「a」「a−k」「k」「k−i」「i」に差し替え
るようになっている。
【0016】あるいは、辞書更新部5は、入力音素と標
準辞書1の文字列に対応する音素情報との音素距離評価
を行ない、入力音素と標準辞書の文字列に対応する音素
情報との音素距離が所定の閾値を越えたときにのみ、標
準辞書の文字列の母音に対応する音素を更新し、標準辞
書1を更新することもできる。すなわち、上記の例で
は、標準辞書1に現在登録されている音素情報「a」
「a−k」「k」「k−i」「i」のうち、母音に対応
する音素「a」,「i」を、入力音声の音素情報「a」
「a−k」「k」「k−i」「i」中の母音に対応する
音素「a」,「i」に差し替えることもできる。
【0017】なお、このような標準辞書1の更新処理
は、標準辞書1に登録するための発声がなされる場合に
なされても良いし、音声認識のための発声がなされる場
合になされても良い。すなわち、入力音声は、認識のた
めの発声であっても良いし、登録のための発声であって
も良い。
【0018】次に、図1に示す構成の音声認識装置の動
作について説明する。先ず、標準辞書1に登録するため
の発声がなされる場合について説明する。話者は、ある
文字列について標準辞書1に登録のための音声を1回発
声し、これが装置内に入力されると、入力された音声
は、特徴抽出部2で音声特徴量に変換される。
【0019】特徴抽出部2で変換された音声特徴量は、
照合部3において経路探索,類似度演算がなされる。こ
こで、経路探索の過程において、音素と経路の遷移情報
により、図2に示すように、入力された音声,例えば
「あき」の特徴量の音素(入力音素)と、標準辞書1の音
素情報との対応がとれる。入力音素と標準辞書の音素情
報との対応がとれると、入力音素と標準辞書の対応する
音素情報との音素距離Xが求められる(音素距離評価が
なされる)。このように求められた距離は一時的に保存
する。このようにして、照合部3において、入力音素と
標準辞書1の音素情報との照合が終了した後、辞書更新
部5は、下記手順に従って、標準辞書1の音素情報を更
新する。
【0020】すなわち、辞書更新部5は、先ず、入力音
素と標準辞書1の音素情報との音素距離Xが所定の閾値
を越えたか否かを判断する。この結果、入力音素と標準
辞書1の音素情報との音素距離Xが所定の閾値を越えな
い場合には、標準辞書1の音素情報は、特定話者の入力
音素に類似し、特定話者の音声の特徴を良好に反映して
いるとみなせるので、標準辞書1の音素情報は更新しな
い。
【0021】これに対し、入力音素と標準辞書1の音素
情報との音素距離Xが所定の閾値を越えた場合には、標
準辞書1の音素情報は、特定話者の音声の特徴を良好に
反映しているとはみなせないので、標準辞書1の音素情
報を入力音素に入れ替える。
【0022】また、このとき、母音のみを更新すること
もできる。母音のみを更新するときは、文字列情報によ
りどの音素が母音であるかを判定し、母音と判定された
音素に、母音であることを表わすタグを付け、そのタグ
がある音素について、上述したのと同様の処理を行な
う。
【0023】次に、音声認識のための発声がなされる場
合について説明する。音声認識のための発声がなされる
場合においては、登録のための発声がなされる場合の上
述した手順に、さらに、以下の手順が加わる。すなわ
ち、音声認識のための発声がなされる場合には、音声認
識装置が出力した認識結果を発声者が確認する必要があ
る。すなわち、登録のための発声であれば対象となる単
語は発声する前に決められている(これから発声する単
語は何であるか発声者も音声認識装置もわかっている)
ので、その単語と発声を上述の手順通りに実行すればよ
いが、音声認識のための発声時の場合は、たとえ照合類
似度が大きな値となったとしても音声認識装置が誤認識
する可能性がある。そこで発声者が認識出力結果を確認
したうえで上述の手順を実行する必要がある。
【0024】このように、本発明では、標準辞書1は、
初期時においては、不特定話者認識用の辞書として作成
されており、辞書更新部5は、入力音声から抽出された
特徴量と標準辞書1との照合結果に基づいて標準辞書1
を更新するようになっているので、標準辞書1を更新し
て特定話者認識用の辞書とするのに、発声者は1回の発
声だけで済み、特定話者認識用の辞書を発声者に負担を
かけずに、かつ、良好に作成することができる。
【0025】また、本発明では、認識結果(類似度)によ
って辞書全体を更新するのではなく、辞書の中の音素の
みを更新するようになっているので、これにより、音声
認識装置全体の構成の中で、揮発メモリに蓄えておく容
量が少なくて済む。
【0026】
【発明の効果】以上に説明したように、請求項1乃至請
求項4記載の発明によれば、標準辞書と、入力された音
声から特徴量を抽出する特徴抽出部と、特徴抽出部で抽
出された入力音声の特徴量と標準辞書との照合を行なう
照合部と、照合部における照合結果を出力する結果出力
部と、標準辞書の更新を行なう辞書更新部とを有し、標
準辞書は、初期時においては、不特定話者認識用の辞書
として作成されており、辞書更新部は、入力音声から抽
出された特徴量と標準辞書との照合結果に基づいて標準
辞書を特定話者認識用の辞書に更新するようになってい
るので、特定話者認識用の辞書の作成に必要な発声者の
負担を著しく軽減することができ、さらに、不特定話者
認識用の辞書の情報を使用して、特定話者認識用の辞書
に近い認識辞書が作成できるために、高性能でかつユー
ザインタフェースの優れた音声認識装置を提供すること
ができる。
【0027】特に、請求項4記載の発明では、文字列の
母音に対応する音素のみを更新するので、更新する情報
が少ない割には、更新されたことによる辞書性能を著し
く向上させることができ、音声認識装置の構成を小さ
く、かつ高性能にすることができる。
【図面の簡単な説明】
【図1】本発明に係る音声認識装置の構成例を示す図で
ある。
【図2】入力された音声,例えば「あき」の特徴量の音
素(入力音素)と、標準辞書の音素情報との対応をとる様
子の一例を示す図である。
【符号の説明】
1 標準辞書 2 特徴抽出部 3 照合部 4 結果出力部 5 辞書更新部

Claims (4)

    【特許請求の範囲】
  1. 【請求項1】 標準辞書と、入力された音声から特徴量
    を抽出する特徴抽出部と、特徴抽出部で抽出された入力
    音声の特徴量と標準辞書との照合を行なう照合部と、照
    合部における照合結果を出力する結果出力部と、標準辞
    書の更新を行なう辞書更新部とを有し、前記標準辞書
    は、初期時においては、不特定話者認識用の辞書として
    作成されており、前記辞書更新部は、入力音声から抽出
    された特徴量と標準辞書との照合結果に基づいて標準辞
    書を特定話者認識用の辞書に更新するようになっている
    ことを特徴とする音声認識装置。
  2. 【請求項2】 請求項1記載の音声認識装置において、
    前記標準辞書は、初期時において、文字列から音素情報
    を抽出して不特定話者認識用の辞書として作成されてお
    り、前記照合部は、ある文字列についての入力音声から
    抽出された特徴量により決められる入力音素と標準辞書
    の前記文字列に対応する音素情報との照合において、入
    力音素と標準辞書の前記文字列に対応する音素情報との
    音素距離評価を行ない、前記辞書更新部は、前記音素距
    離評価結果に基づいて、標準辞書の前記文字列の対応す
    る音素情報を更新し、標準辞書を特定話者認識用の辞書
    に更新することを特徴とする音声認識装置。
  3. 【請求項3】 請求項2記載の音声認識装置において、
    前記辞書更新部は、前記音素距離評価の結果、入力音素
    と標準辞書の前記文字列に対応する音素情報との音素距
    離が所定の閾値を越えたときにのみ、標準辞書の前記文
    字列の対応する音素情報を更新し、標準辞書を更新する
    ことを特徴とする音声認識装置。
  4. 【請求項4】 請求項2記載の音声認識装置において、
    前記辞書更新部は、入力音素と標準辞書の前記文字列に
    対応する音素情報との音素距離評価を行ない、入力音素
    と標準辞書の前記文字列に対応する音素情報との音素距
    離が所定の閾値を越えたときにのみ、標準辞書の前記文
    字列の母音に対応する音素を更新し、標準辞書を更新す
    ることを特徴とする音声認識装置。
JP11019555A 1999-01-28 1999-01-28 音声認識装置 Pending JP2000221990A (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP11019555A JP2000221990A (ja) 1999-01-28 1999-01-28 音声認識装置
US09/492,280 US6732074B1 (en) 1999-01-28 2000-01-27 Device for speech recognition with dictionary updating

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11019555A JP2000221990A (ja) 1999-01-28 1999-01-28 音声認識装置

Publications (1)

Publication Number Publication Date
JP2000221990A true JP2000221990A (ja) 2000-08-11

Family

ID=12002575

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11019555A Pending JP2000221990A (ja) 1999-01-28 1999-01-28 音声認識装置

Country Status (2)

Country Link
US (1) US6732074B1 (ja)
JP (1) JP2000221990A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210790A (ja) * 2008-03-04 2009-09-17 Nec Software Kyushu Ltd 選曲歌手分析推薦装置、その方法及びプログラム

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE239966T1 (de) * 2000-11-07 2003-05-15 Ericsson Telefon Ab L M Anwendung von referenzdaten für spracherkennung
WO2003017252A1 (de) * 2001-08-13 2003-02-27 Knittel, Jochen Verfahren und vorrichtung zum erkennen einer phonetischen lautfolge oder zeichenfolge
US20030035518A1 (en) * 2001-08-16 2003-02-20 Fan Rodric C. Voice interaction for location-relevant mobile resource management
JP4017887B2 (ja) * 2002-02-28 2007-12-05 富士通株式会社 音声認識システムおよび音声ファイル記録システム
US7389228B2 (en) * 2002-12-16 2008-06-17 International Business Machines Corporation Speaker adaptation of vocabulary for speech recognition
US20050091308A1 (en) * 2003-09-29 2005-04-28 Peter Bookman Mobility device
US7895039B2 (en) 2005-02-04 2011-02-22 Vocollect, Inc. Methods and systems for optimizing model adaptation for a speech recognition system
US8200495B2 (en) 2005-02-04 2012-06-12 Vocollect, Inc. Methods and systems for considering information about an expected response when performing speech recognition
US7827032B2 (en) * 2005-02-04 2010-11-02 Vocollect, Inc. Methods and systems for adapting a model for a speech recognition system
US7865362B2 (en) 2005-02-04 2011-01-04 Vocollect, Inc. Method and system for considering information about an expected response when performing speech recognition
US7949533B2 (en) * 2005-02-04 2011-05-24 Vococollect, Inc. Methods and systems for assessing and improving the performance of a speech recognition system
US7848928B2 (en) * 2005-08-10 2010-12-07 Nuance Communications, Inc. Overriding default speech processing behavior using a default focus receiver
KR100717385B1 (ko) * 2006-02-09 2007-05-11 삼성전자주식회사 인식 후보의 사전적 거리를 이용한 인식 신뢰도 측정 방법및 인식 신뢰도 측정 시스템
US20110184723A1 (en) * 2010-01-25 2011-07-28 Microsoft Corporation Phonetic suggestion engine
US9798653B1 (en) * 2010-05-05 2017-10-24 Nuance Communications, Inc. Methods, apparatus and data structure for cross-language speech adaptation
US8914290B2 (en) 2011-05-20 2014-12-16 Vocollect, Inc. Systems and methods for dynamically improving user intelligibility of synthesized speech in a work environment
US9348479B2 (en) 2011-12-08 2016-05-24 Microsoft Technology Licensing, Llc Sentiment aware user interface customization
US9378290B2 (en) 2011-12-20 2016-06-28 Microsoft Technology Licensing, Llc Scenario-adaptive input method editor
CN110488991A (zh) 2012-06-25 2019-11-22 微软技术许可有限责任公司 输入法编辑器应用平台
US8959109B2 (en) 2012-08-06 2015-02-17 Microsoft Corporation Business intelligent in-document suggestions
US9767156B2 (en) 2012-08-30 2017-09-19 Microsoft Technology Licensing, Llc Feature-based candidate selection
US9978395B2 (en) 2013-03-15 2018-05-22 Vocollect, Inc. Method and system for mitigating delay in receiving audio stream during production of sound from audio stream
EP3030982A4 (en) 2013-08-09 2016-08-03 Microsoft Technology Licensing Llc INPUT PROCESSORS EDITOR WITH LANGUAGE SUPPORT
US10714121B2 (en) 2016-07-27 2020-07-14 Vocollect, Inc. Distinguishing user speech from background speech in speech-dense environments
US10572586B2 (en) * 2018-02-27 2020-02-25 International Business Machines Corporation Technique for automatically splitting words

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3770892A (en) * 1972-05-26 1973-11-06 Ibm Connected word recognition system
IT1156544B (it) * 1982-11-08 1987-02-04 Olivetti & Co Spa Metodo ed apparecchiatura di riconoscimento fonetico di parole
US4618984A (en) * 1983-06-08 1986-10-21 International Business Machines Corporation Adaptive automatic discrete utterance recognition
US5909666A (en) * 1992-11-13 1999-06-01 Dragon Systems, Inc. Speech recognition system which creates acoustic models by concatenating acoustic models of individual words
US5842168A (en) * 1995-08-21 1998-11-24 Seiko Epson Corporation Cartridge-based, interactive speech recognition device with response-creation capability
US5774841A (en) * 1995-09-20 1998-06-30 The United States Of America As Represented By The Adminstrator Of The National Aeronautics And Space Administration Real-time reconfigurable adaptive speech recognition command and control apparatus and method

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009210790A (ja) * 2008-03-04 2009-09-17 Nec Software Kyushu Ltd 選曲歌手分析推薦装置、その方法及びプログラム

Also Published As

Publication number Publication date
US6732074B1 (en) 2004-05-04

Similar Documents

Publication Publication Date Title
JP2000221990A (ja) 音声認識装置
US8972243B1 (en) Parse information encoding in a finite state transducer
EP2048655B1 (en) Context sensitive multi-stage speech recognition
EP1575030B1 (en) New-word pronunciation learning using a pronunciation graph
US7299179B2 (en) Three-stage individual word recognition
US6973427B2 (en) Method for adding phonetic descriptions to a speech recognition lexicon
US7912721B2 (en) System and method for automatic speech recognition
US7415411B2 (en) Method and apparatus for generating acoustic models for speaker independent speech recognition of foreign words uttered by non-native speakers
JP5200712B2 (ja) 音声認識装置、音声認識方法及びコンピュータプログラム
JP2002304190A (ja) 発音変化形生成方法及び音声認識方法
JP2007047412A (ja) 認識文法モデル作成装置、認識文法モデル作成方法、および、音声認識装置
US5706397A (en) Speech recognition system with multi-level pruning for acoustic matching
JP3039634B2 (ja) 音声認識装置
JP6001944B2 (ja) 音声コマンド制御装置、音声コマンド制御方法及び音声コマンド制御プログラム
JP2006031278A (ja) 音声検索システムおよび方法ならびにプログラム
JP2012255867A (ja) 音声認識装置
JP2002372988A (ja) 認識辞書作成装置及び棄却辞書及び棄却辞書の生成方法
KR20030010979A (ko) 의미어단위 모델을 이용한 연속음성인식방법 및 장치
JP2975542B2 (ja) 音声認識装置
KR100560916B1 (ko) 인식 후 거리를 이용한 음성인식 방법
JP2000242295A (ja) 音声認識装置および音声対話装置
Nakagawa et al. A context‐free grammar‐driven, one‐pass HMM‐based continuous speech recognition method
JP3357752B2 (ja) パターンマッチング装置
KR100445907B1 (ko) 음성언어 식별 장치 및 방법
JPH06337700A (ja) 音声合成装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050728

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050802

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050926

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20051101

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20051226

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060126

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20060217