JPH11153999A - 音声認識装置及びそれを用いた情報処理装置 - Google Patents
音声認識装置及びそれを用いた情報処理装置Info
- Publication number
- JPH11153999A JPH11153999A JP9317919A JP31791997A JPH11153999A JP H11153999 A JPH11153999 A JP H11153999A JP 9317919 A JP9317919 A JP 9317919A JP 31791997 A JP31791997 A JP 31791997A JP H11153999 A JPH11153999 A JP H11153999A
- Authority
- JP
- Japan
- Prior art keywords
- data
- voice
- recognition
- speech
- speech recognition
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 230000010365 information processing Effects 0.000 claims description 28
- 238000011867 re-evaluation Methods 0.000 claims description 21
- 238000004364 calculation method Methods 0.000 claims description 9
- 230000004044 response Effects 0.000 claims description 3
- 238000013500 data storage Methods 0.000 abstract description 13
- 238000000034 method Methods 0.000 description 38
- 238000010586 diagram Methods 0.000 description 27
- 230000008569 process Effects 0.000 description 23
- 238000001228 spectrum Methods 0.000 description 18
- 238000001514 detection method Methods 0.000 description 11
- 238000007405 data analysis Methods 0.000 description 7
- 230000007704 transition Effects 0.000 description 7
- 230000002159 abnormal effect Effects 0.000 description 4
- 230000000694 effects Effects 0.000 description 3
- 230000037433 frameshift Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 2
- 230000006399 behavior Effects 0.000 description 2
- 230000007613 environmental effect Effects 0.000 description 2
- 230000006870 function Effects 0.000 description 2
- 229920006395 saturated elastomer Polymers 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 101000996834 Homo sapiens Linker for activation of T-cells family member 2 Proteins 0.000 description 1
- 102100034238 Linker for activation of T-cells family member 2 Human genes 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 238000001914 filtration Methods 0.000 description 1
- 230000006872 improvement Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L17/00—Speaker identification or verification techniques
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Machine Translation (AREA)
Abstract
易に修正して認識することを可能とし、より広い範囲に
適用することが可能な音声認識装置及びそれを用いた情
報処理装置を提供すること。 【解決手段】 一定期間の音声データを記憶する波形デ
ータ記憶部103を設け、音声認識装置による認識結果
を利用する上位システム108からの要求に基づいて、
波形データ記憶部103に記憶されている音声データを
再評価することにより、一度誤って認識された音声デー
タを溯って評価しなおすことを可能とする。
Description
それを用いた情報処理装置に関する。
中で最も基本的な意味内容に関する情報を、電子計算
機、電子回路などによって自動的に抽出し、決定する意
味内容に関する認識や、音声波に含まれる個人性情報を
抽出する話者認識をいう。
くから研究が行われているが、最近では、音声によって
機械と対話するための音声入力装置が実現され、今後の
進歩が期待されている。
す。同図に示された従来の音声認識装置は、音声入力部
2201、音声区間データ作成部2202、音声区間デ
ータ処理部2203、音声認識辞書格納部2204を備
えている。
ン等の入力装置が用いられる。音声区間データ作成部2
202は、音声入力部2201から入力された音声デー
タから音声区間の検出を行い音声区間データを作成す
る。音声区間の検出の詳細については後述する。
間データ作成部2202によって作成された音声区間デ
ータを分析し、その意味内容を認識する。従来の意味内
容の認識方法については、「ディジタル音声処理」(古
井 貞煕 著、東海大学出版会)に詳しく記載されてい
るが、一般には、音声認識用の辞書として、音声認識辞
書格納部2204に音素辞書と単語辞書とを備える。音
声認識においては、入力音声と標準パターンの短時間ス
ペクトル同士の距離又は類似度を認識の判断の基礎とし
て音声素片を認識し、認識された音声素片列を単語辞書
とマッチングすることによりその意味内容を認識する。
来の音声認識装置においては、音声データの誤認識を修
正することが容易でないという問題点を有していた。
初は正確に認識できなかった音声データを、その後の会
話内容等によって逐次修正して理解し、それに伴い行動
を修正するといったこともあるが、上記従来の音声認識
装置では、一度誤って認識された音声の意味内容を容易
に修正することができない。従って、例えば、音声によ
ってコマンドを入力するような装置において、音声デー
タの誤認識によって誤ったコマンドが入力されてしまっ
た場合等にその動作を修正することは難しく、音声認識
の適用範囲を狭くする原因となっていた。
囲に適用することが可能な音声認識装置及びそれを用い
た情報処理装置を提供することを目的とする。
め、本発明の音声認識装置は、音声データを記憶する記
憶手段と、音声認識の結果を利用する上位システムから
の要求を受けて、前記記憶手段に記憶されている音声デ
ータを再評価する再評価手段とを備えることを特徴とす
る。
から音声区間データを切り出す音声区間データ作成手段
を備え、前記記憶手段は、前記音声区間データ作成手段
により作成された音声区間データを記憶することができ
る。
タ作成手段により作成された音声区間データを複数セッ
ト記憶する複数のデータスロットを備えることが好まし
い。複数のデータスロットに音声データを格納しておく
と、前記再評価手段による再評価の処理効率を向上させ
ることができるからである。
間データ作成手段を複数有し、前記記憶手段は、それぞ
れの音声区間データ作成手段ごとに、音声区間データを
複数セット記憶するデータスロットを備えることもでき
る。そのような構成としておくと、音声を入力する例え
ばマイクロホンが複数存在する場合でも、それぞれのマ
イクロホンから入力される音声データについて、それぞ
れ再評価を行うことが可能となる。
憶手段に記憶されている音声データから、音声パワーを
算出するパワー算出手段を備え、前記再評価手段は、前
記パワー算出手段により算出された音声パワーが所定の
範囲外である場合に、当該音声データを再評価しないよ
うにすることが好ましい。正常な音声認識ができないよ
うな音声データを、再評価の対象から除外することによ
り、音声認識の認識率をより向上させることが可能とな
るからである。
声データから話者の性別を判定する性別認識手段と、前
記性別認識手段による判定結果に基づき、音素認識に用
いる辞書を切り替える音素認識辞書切替手段とを備える
ことが好ましい。性別により音素認識辞書を切り替える
ことにより、さらに認識率を向上させることができるか
らである。
声データから話者の性別を判定する性別認識手段と、前
記性別認識手段による判定結果に基づき、単語認識に用
いる辞書を切り替える単語認識辞書切替手段とを備える
ことが好ましい。性別により通常用いる単語が異なるこ
とから、性別によって単語認識辞書を切り替えることに
より、さらに認識率を向上させることができるからであ
る。
果に基づき、音素認識に用いる辞書を切り替える音素認
識辞書切替手段と、単語認識に用いる辞書を切り替える
単語認識辞書切替手段との双方を備えることも可能であ
る。
声データから話者を判定する話者認識手段を備えること
もできる。また、本発明の情報処理装置は、入力を受け
付ける入力受付手段を備える情報処理装置であって、前
記入力受付手段として請求項1から9のいずれかに記載
の音声認識装置を用いる。音声によりコマンドの入力を
行うことが可能な情報処理装置において、本発明の音声
認識装置を用いると、音声データの再評価を行うことに
より、音声データの誤認識を逐次修正しながら動作させ
ることが可能となり、無駄な処理を軽減することが可能
となる。
音声認識装置を用いる情報処理装置においては、前記音
素認識辞書切替手段により、音素認識辞書が切り替えら
れた際に、前記記憶手段に記憶されている音声データの
再評価を要求するようにすることが好ましい。音素認識
辞書が切り替えられることにより、一般的に認識率は向
上するが、その切替の機会に過去の音声データを再評価
することにより、音声データの誤認識が見つかることも
あるからである。
音声認識装置を用いる情報処理装置において、前記単語
認識辞書切替手段により、単語認識辞書が切り替えられ
た際に、前記記憶手段に記憶されている音声データの再
評価を要求するようにすることも好ましい。
記単語認識辞書切替手段との双方を有する音声認識装置
を用いる情報処理装置では、前記音素認識辞書切替手段
により音素認識辞書が切り替えられた際、又は前記単語
認識辞書切替手段により単語認識辞書が切り替えられた
際に、前記記憶手段に記憶されている音声データの再評
価を要求するようにすることも好ましい。
ら、音声区間データを切り出す切り出しステップと、前
記切り出しステップにおいて切り出された音声区間デー
タを、複数のデータスロットに順次格納する格納ステッ
プと、音声認識の結果を利用する上位システムから、前
記音声区間データの再評価の要求を受け付ける要求受付
ステップと、前記要求に従って、音声区間データの再評
価を行う再評価ステップとを実行するプログラムを記憶
したコンピュータで読み取り可能な記憶媒体である。
て、図面を参照しながら説明する。図1は、本発明の一
実施の形態に係る音声認識装置の構成を示す機能ブロッ
ク図である。
声認識装置は、音声入力部101、波形データ作成部1
02、波形データ記憶部103、音声認識部104、音
素認識辞書格納部105、単語認識辞書格納部106、
話者認識辞書格納部107を備えており、本発明の音声
認識装置による音声認識の結果を利用する上位システム
108が、音声認識部104から音声認識の結果を受け
取る構成となっている。
等、音声入力が可能な入力装置を用いることができる。
波形データ作成部102は、音声入力部101から入力
された音声データについて音声区間の切り出しを行い、
波形データを作成する。
103の記憶領域1032に、波形データの形式で格納
することとしているため、音声区間の切り出しのみを行
うが、記憶領域1032へのデータの格納方式によって
は、音声区間の切り出しの後、格納方式に対応する形式
に変換する処理を行うようにしてもよい。その場合は、
本実施の形態では後述の波形データ分析部1041が行
う処理の一部を波形データ作成部102が行うこともあ
る。
102の詳細な構成を示す機能ブロック図である。同図
に示されるように、波形データ作成部102は、音声デ
ータ入力部201、波形データリングバッファ202、
フィルタ処理部203、パワー計算部204、ノイズレ
ベル学習部205、単語区間検出部206、区間検出閾
値テーブル格納部207を備える。
01より入力された音声データについて、所定の間隔で
サンプリングを行い、その結果を波形データリングバッ
ファ202に順次格納する。図3は、波形データリング
バッファ202の構成の一例を示す図である。同図に示
されるように、本実施の形態では、全長512ワード
(1ワード=4バイト)分のバッファを確保し、サンプ
リングされたデータを順次格納する。本実施の形態で
は、256ポイント(窓幅)のデータが取り込まれた時
点で1フレーム分の処理を行う。同図に示されるフレー
ムシフト(180ポイント)とは、窓幅256ポイント
のうち、フレームシフト180ポイントを除いた部分
は、次のフレームの窓幅に含まれることを意味してお
り、一部を重複させることにより、単語が途中で区切れ
るのを防止している。なお、フレームシフトは必ずしも
180ポイントでなくてもよい。
グバッファ202に格納された波形データに対して15
0HzのHPF(ハイパスフィルタ)で高域強調を行
う。HPFとしては、4次のIIRチェビシェルフィル
タを用いる。図4に、本実施の形態のHPFの特性を示
す。また、高域強調は、z変換である1−z-1の一次差
分を用いる。
W)の計算を行う。音声パワーの計算は窓波形に対する
相対的な値として以下の数1に従って計算する。ここで
いう窓波形は矩形窓である。
算について、より詳細に説明する。まず、i番目の窓の
波形{Si}に対するログパワーlogpow(s)は、下記の数
2で表される。
数3に従って算出することができる。
表し、hは窓自体の波形を表す。ここで、窓自体の波形
のログパワーlogpow(h)は、一定であるので、予め計算
しておくことができる。一方、上記の窓処理後のログパ
ワー1000*log10(Σyi2)については、下記の数4に従
って計算することができる。iは窓のi番目のポイント
であり、ここでは1〜256である。
については、n及びcの値ごとに予め計算し、テーブルに
格納しておくことが可能である。なお、本実施の形態で
は、cは小数点以下5ビットの精度としている。
変動に対処するため一定間隔ごとにノイズレベル(以
下、「nsl」と表記する場合もある。)の学習を行
う。ここで、ノイズレベルとは、無音区間のパワーのこ
とをいう。ノイズレベル学習部204は、一定期間でも
っとも出現頻度の高いパワー値をその期間のノイズレベ
ルとする。学習の際には、学習対象の100フレームの
うちパワーの小さい下位8割のデータからのみノイズレ
ベルを学習する。これは無音区間のみのデータをより正
確に学習するためである。また、学習されたノイズレベ
ルが一定値より小さい場合には、予め定めた最小値を学
習値とする。尚、ここで学習されたノイズレベルは、後
述の区間検出で用いる閾値(th1からth4)の決定
に用いられる。当該閾値は、区間検出閾値テーブル格納
部207に格納される。
め定めた閾値を超えた部分を音声区間として検出する。
その際に区間検出をより正確に行うため、各入力フレー
ムごとに前回の状態を参照し、これに応じて4種の閾値
と音声パワーとの比較を行う。以下、単語区間検出の方
法について詳細に説明する。
る。同図に示されるth1からth4までの4つの閾値
と音声パワーとの比較を行うことにより、音声区間の検
出を行う。ここで、閾値th1からth4は、前述の如
くノイズレベル(nsl)から算出される値を用いる。
本実施の形態では、th1=nsl+200、th2=
nsl+600、th3=nsl+500、th4=n
sl+600としている。
図も参照しながら、図5に示されるAからHまでの各フ
レームについて、その内容を説明する。フレームAにお
いては、音声パワーが閾値th1を上回ることにより状
態1への遷移が発生している。これは、単語区間の語頭
候補が検出されたことを意味するものと考える。しか
し、図5の例では、音声パワーが閾値th2を上回るこ
となく、フレームBにおいて、再び閾値th1より下に
落ちてしまっているので、状態1であった区間が単語区
間と判定されることなく、再び状態0に戻っている。
おいて、音声パワーが閾値th1を上回った場合には状
態1に遷移すること、及び、状態1において、音声パワ
ーが閾値th1以下になった場合、又は状態1である時
間の長さ(wd)が単語最長値wdmaxを上回った場
合には、単語を区切るために、状態0に戻ることが規定
されているからである。ここで、単語最大長wdmax
とは、一つの単語が発音されるであろう最大の時間の長
さとして、規定しておく値をいう。単語最長値wdma
xは予め設定しておく。尚、本実施の形態では、wdm
axは140フレーム分の時間(=約2100ms)と
している。
て音声パワーが閾値th1以下であった場合には、その
まま状態0で継続する。図5に戻って、フレームCにお
いて、再度、音声パワーが閾値th1を上回ったことが
検出され、状態1に遷移する。図6に示されるように状
態1では、音声パワーが閾値th1を上回り、閾値th
2以下であった場合には、状態1でありつづけるが、音
声パワーが閾値th2を上回った場合には、状態2へと
遷移する。
て音声パワーが閾値th2を上回っているため、状態2
に遷移している。状態2とは、音声区間と認識された状
態である。
である場合には、状態2でありつづけるが、音声パワー
が閾値th3を下回った場合には状態3へと遷移する。
また、状態2での時間の長さ(wd)が、前述の単語最
長値wdmaxを上回った場合には、状態0へと遷移す
る。
ワーが閾値th3を下回ったため、状態3へと遷移して
いる。状態3とは、単語の終了が検出されたかもしれな
いという状態を表す。もっとも、図6に示されるよう
に、状態3において音声パワーが再度閾値th4を上回
った場合には、それまでに、後述の条件により状態0へ
と遷移していなければ、単語の終了が検出されたわけで
はないものと判定し、再び状態2へと遷移する。
パワーが閾値th3を下回ることによって状態2から状
態3へと遷移した状態であって、音声パワーが閾値th
1を下回った無音期間の長さ(sl)が無音最長値(s
lmax)を上回った場合、状態2での時間の長さ(w
d)が単語最短値(wdmin)を下回っていた場合、
及び状態2での時間の長さ(wd)が単語最長値(wd
max)を上回った場合である。
minについても、予め設定しておく必要がある。無音
最長値slmaxの意味については、後述する。単語最
短値wdminとは、一つの単語が発音されるであろう
最小の時間の長さとして、規定しておく時間をいう。即
ち、状態2での時間の長さ(wd)が、単語最短値(w
dmin)を下回っていた場合には、状態2の部分は音
声区間とは見なされない。なお、本実施の形態では単語
最短値(wdmin)としては、18フレーム分の時間
(=約270ms)が、また、無音最長値(slma
x)としては、20フレーム分の時間(=約300m
s)が規定されている。状態0へと遷移するまでに音声
パワーが閾値th4以下である場合には、前述の三つの
いずれかの条件を満足させない限りは、状態3でありつ
づける。
るまでに、再度フレームFにおいて音声パワーが閾値t
h2を上回っているため、状態3における無音状態が単
語中の無音部であると判定し、再度状態2へと遷移して
いる。ここで、単語中の無音部とは、例えば「北海道」
の如き促音を含む単語において発生する、単語の中にも
かかわらず音声が途切れる部分をいう。上述の如く、無
音最長値(slmax)として、20フレーム分の時間
が規定されているのは、それだけの時間が経過する前に
再び音声パワーが上昇した場合には、単語中の無音部で
あると判定することを意味する。
音声パワーが閾値th3を下回ることにより、状態3へ
と遷移しており、その後、状態3での長さが無音最長値
(slmax)を上回ったことにより、フレームHにお
いて状態0へと遷移している。
フレームCからフレームGまでの間を単語区間と判定
し、単語区間の切り出しを行う。以上に詳細に説明した
ように、波形データ作成部102において切り出された
波形データは、波形データ記憶部103に格納される。
き込み部1031、記憶領域1032、波形データ読み
出し部1033から構成される。波形データ書き込み部
1031は、波形データ作成部102で切り出された波
形データを記憶領域1032に書き込むインターフェー
ス部分である。また、波形データ読み出し部1033
は、記憶領域1032から波形データを読み出し、音声
認識部104に送るインターフェース部分である。
032の構成の一例を示す図である。同図に示されるよ
うに、本実施の形態では、切り出された波形データを格
納する領域として10個のデータスロットを備えてい
る。また、一個のデータスロットの大きさは64キロバ
イトとしている。これは、一単語最大2秒間と仮定し、
10単語分の情報を保持するとした場合の例であるが、
領域の大きさは特に限定されない。また、データスロッ
トの形式で格納した方が処理効率は良くなるが、データ
スロット以外の形式でも実施することは可能である。な
お、本実施の形態では、10番目のデータスロットにデ
ータを格納した後は、再度、1番目のデータスロットに
戻って、循環してデータを格納する。
03から読み出した波形データを分析し、意味内容の認
識、話者認識等を行う。認識結果は、上位システム10
8により利用される。
声認識部104は、音声入力部101から入力された最
新の音声データを逐次分析して、認識結果を上位システ
ム108に送る他、上位システム108の指示に従っ
て、波形データ記憶部103に格納されている過去の音
声データの再評価を行う。
認識部104は、波形データ分析部1041、話者認識
部1042、性別認識部1043、内容認識部104
4、パワー認識部1045、音素認識辞書切替部104
6、単語認識辞書切替部1047を備えている。
読み出し部1033を介して波形データ記憶部103か
ら読み出した波形データを分析し、各々の認識部に送
る。図8は、本実施の形態の波形データ分析部1041
の詳細な構成を示す機能ブロック図である。同図に示さ
れるように、波形データ分析部1041は、窓処理部8
01、FFT部802、ノイズパターン学習部803、
サブトラクション部804、メルスペクトル計算部80
5、メルスペクトル格納部806、音素認識部807を
備えている。
み出された波形データは、まず、窓処理部801へと送
られる。窓処理部801は、読み出された波形データに
窓波形を乗じる。ここでの窓関数(hi)としては、下
記の数5に示すハミング窓を用いる。なお、同式におい
て使用されている0.56及び0.44の数値は、窓の
形状によって異なる。
がFFT処理を行う際に利便であるように内部RAM等
の記憶手段に格納する。FFT部802は、FFT(高
速フーリエ変換)処理を行う。
(例えば、「ディジタル信号処理」(岩田 彰 著、コ
ロナ社)に開示されている方法)が利用できるので、こ
こでの詳細な説明は省略する。FFT処理の結果として
得られたリニアスペクトルパワー(以下、「linear-spc
-pow」と表す場合もある。)が、その後の計算に用いら
れる。
のスペクトルパターンを一定期間ごとに学習する。本実
施の形態では、当該一定期間を10フレーム分の時間
(=約150ms)に設定している。
対処するため、直前のノイズパターンを以下の数6に示
すようにFFTの分析結果から減ずる。
ペクトルパワーの最小値としたい正の数字又はゼロであ
り、固定ではない。最終的に求めるスペクトルは、以下
の数7に示されるようなログパワーである。結果は、後
の処理のためにRAMに格納しておく。
802で求められたスペクトルパワーを、メル尺度で1
6チャンネルに分割する。分割は、図9に示すテーブル
に従って行う。
8に従って、チャンネルパワーの累積値であるmel-spcj
を計算する。
ンネルの最低周波数ポイント番号、e(j)は、各チャンネ
ルの最高周波数ポイント番号、n(j)は、各チャンネルの
周波数ポイント数である。なお、上記のe(j)及びn(j)
は、テーブルとして保持しておく。次に正規化のため、
16チャンネルの平均スペクトルとの差を求める。この
処理は、下記の数9及び数10に従って行う。
(mel-spcj)は、メルスペクトル格納部806に格納さ
れる。メルスペクトル格納部806に格納されたメルス
ペクトルが、音素認識部807における音素認識の結
果、音声データの集合として認識される。
部806に格納されたメルスペクトルに所定の処理を行
い、音素認識辞書格納部105に格納された音素認識辞
書の内容とマッチングすることにより、いかなる音素で
あるかを認識する。ここでの音素認識とは、例えば、発
声された音声が、「あ」であるか、「い」であるか、
「う」であるか等を認識する処理である。かかる処理の
結果、最終的に切り出された波形データが音声の集合、
即ち単語として認識される。音素認識処理の詳細につい
ては、既に公知の技術となっているので(例えば、電子
情報通信学会論文誌D−II,Vol.J77−D−II,No.3,pp.4
75-482に開示されている。)、ここでの詳細な説明は省
略する。
041の処理によって得られたメルスペクトル及び音素
認識の結果を用いて、各種の音声認識処理が行われる。
以下、各認識部の処理内容について説明する。
ここで、話者認識とは、その音声が誰の発話であるかを
認識する処理である。話者認識における比較処理に用い
る辞書情報は、話者認識辞書格納部107に格納され
る。
に文献等に記載されている(例えば、"A ROBUST, SEGME
NTAL METHOD FOR TEXT INDEPENDENT SPEAKER IDENTIFIC
ATION" by Herbert Gish, Michael Schmidt, and Angel
a Mielke (Proc. ICASSP 94,April 1994, Adelaide, So
uth Australia, pp.145-148)、"IDENTIFICATION OFSPEA
KERS ENGAGED IN DIALOG" by George Yu, and Herbert
Gish (Proc. ICASSP93, April 1993, Minneapolis, Vol
II, pp.383-386)、"Robust Discrimination in Automa
tic Speaker Identification" by Herbert Gish (Proc.
ICASSP 90,April 1990, Albuquerque, pp.289-292)等
に開示されている。)方法が利用できるので、ここでの
詳細な説明は省略する。
を行う。性別の認識は、一般的に知られているピッチの
判定による、男性と、女性又は子供との識別によって行
う。尚、本実施の形態では、性別により単語辞書を切り
替えるため、性別認識の結果は、単語認識辞書切替部1
047へと送られる。
行う。即ち、音素認識の結果、単語として認識された音
声データが、意味をなす単語であるか否かを、単語認識
辞書を参照して認識する。より具体的には、音素認識の
結果として得られた、連続した音声データを、単語認識
辞書に登録されている単語とマッチングすることによ
り、単語認識辞書から、意味のある単語としてもっとも
適切なものを選択する処理を行う。単語認識の方法につ
いても前述の資料(電子情報通信学会論文誌D−II,Vo
l.J77−D−II,No.3,pp.475-482)に開示されている方
法が利用できるので、ここでの詳細な説明は省略する。
切な音声パワーを有する波形データを識別し、そのよう
な不適切な波形データを認識に用いないように波形デー
タ分析部1041に指示する。音声パワーの算出方法に
ついては、既に詳細に説明したので、ここでの詳細な説
明は省略する。尚、ここでいう音声認識に不適切な音声
パワーを有する波形データとは、例えば、音声パワーが
大きすぎるものや、小さすぎるものである。
辞書の切り替えを行う。本実施の形態では、図示はされ
ていないが、性別認識部1043による性別の判定に基
づいて音素認識辞書を切り替えるようにしている。
辞書の切り替えを行う。前述の如く、本実施の形態の音
声認識装置は、性別認識部1043による性別の判定に
基づいて、単語認識辞書を切り替えるようにしているた
め、単語認識辞書切替部1047が、性別認識部104
3の判定結果に基づいて単語認識辞書を切り替える。
結果、単語として認識された音声データが、意味をなす
単語であるか否かを認識することをいう。具体的には、
音素認識の結果として得られた、連続した音声を、単語
認識辞書に登録されている単語とマッチングすることに
より、意味のある単語としてもっとも適切なものを選択
する。性別によって、音素認識辞書及び単語認識辞書を
切り替えるのは、性別により、通常用いられる単語等が
異なることから、例えば、男性用の辞書と、女性又は子
供用の辞書とを切り替えることで認識率の向上を図った
ものである。
格納部106、話者認識辞書格納部107には、それぞ
れ、前述の辞書が格納される。本実施の形態の音声認識
装置は、前述の如く、上位システム108からの再評価
の指示に従って、波形データ記憶部103に記憶されて
いる過去の波形データについて再評価を行う機能を有す
る。以下、上位システム108からの指示に従って波形
データの再評価を行う際の音声認識部104の処理内容
について説明する。
音声認識部104の処理内容を示すフローチャートであ
る。同図に示されるように、音声認識部104は、まず
初期化処理を行う(S1001)。初期化処理とは、具
体的には、メモリ領域のクリア処理等をいう。
ば上位システムからの動作終了通知を受けたか否かを判
定しており(S1002)、終了通知を受けた場合(S
1002:Yes)には、終了処理を行って(S100
3)、動作を終了する。
2:No)、上位システム108からの再評価要求があ
ったか否かを判定し(S1004)、再評価の要求があ
った場合(S1004:Yes)には、まず、再評価す
べきデータ数の確定処理を行う(S1005)。
な処理内容を示すフローチャートである。同図に示され
るように、再評価データ数確定処理では、まず、再評価
要求データ数と再評価可能データ数とを比較する(S1
101)。ここで、再評価要求データ数とは、例えば上
位システム108から再評価を要求されたデータ数をい
い、上位システム108の利用目的等によって異なった
値となる。一方、再評価可能データ数とは、本発明に係
る音声認識装置において再評価が可能な波形データ数を
いい、波形データ記憶部103の記憶領域1032の容
量によって異なった値となる。
数を超えている場合(S1101:No)には、再評価
すべきデータ数は、再評価可能データ数となる(S11
02)。一方、再評価要求データ数が、再評価可能デー
タ数以下である場合(S1101:Yes)には、再評
価を要求されたデータの数だけ再評価することが可能で
あるので、再評価要求データ数が、再評価すべきデータ
数となる(S1103)。
0のフローチャートに戻って、音声認識部104は、有
効音声データの確定処理を行う(S1006)。有効音
声データの確定処理とは、前述の如く、音声パワーが異
常であるため、音声認識に用いない方が良いと思われる
波形データを処理対象から除去する処理である。
な処理内容を示すフローチャートである。音声認識部1
04は、再評価すべきデータ数として確定した分だけ波
形データ記憶部103から波形データを取り出して再評
価を行うが、まず、取り出された分の波形データのう
ち、未処理のデータがなくなるまで、パワー認識部10
45において、波形データの音声パワー時系列を算出す
る(S1201:Yes、S1202)。音声パワーの
時系列の算出方法は、既に詳細に説明したので、ここで
の詳細な説明は省略する。
列を算出すると(S1201:No)、平均音声パワー
が異常な波形データを処理対象のデータから排除する
(S1203)。
を排除する方法について具体的に説明する。本実施の形
態では、平均音声パワーが異常な音声データか否かを以
下の条件で判定する。即ち、1)記憶領域1032のデ
ータスロットに格納されている各々のデータの平均パワ
ーについて、平均音声パワーが、格納されている全ての
データの平均パワーから一定値を減じた値を上回ってい
ること、具体的には、下記の数11の条件を満たすこ
と、
ち、波形データの振幅が一定の範囲内におさまっている
こと、を満たす場合に有効データと判定する。条件1)
は、音声パワーが小さすぎないこと、条件2)は、音声
パワーが大きすぎないことを判定するものである。
均音声パワーの判定の具体例について説明するための図
である。なお、本実施の形態では、上記条件1)におけ
る一定値は2000と規定されているものとする。
2のデータスロットに波形データ1と波形データ2とが
格納されているとする。それぞれの波形データについて
音声パワーを検出した結果、波形データ1の平均パワー
が−3000、波形データ2の平均パワーが−6000
であったとすると、全ての波形データの平均パワーは−
4500となる。ここで、波形データ1と波形データ2
はともに条件1)を満たしているため、それぞれ有効な
音声データと判定されることとなる。
2のデータスロットに波形データ1、波形データ2及び
波形データ3が格納されているとする。それぞれの波形
データについて音声パワーを検出した結果、波形データ
1の平均パワーが−3000、波形データ2の平均パワ
ーが−6000、波形データ3の平均パワーが−300
0であったとすると、全ての波形データの平均パワーは
−4000となる。ここで、波形データ1、波形データ
2及び波形データ3の全てが飽和していないものとして
も、波形データ2は、条件1)を満たさないこととなる
ため、無効な音声データと判定されることとなる。
2に記憶されている波形データのうち、どの波形データ
を再評価するかが確定するので、音声認識部104は、
実際に再評価されるべき波形データに関する情報、例え
ば、何秒前のデータが再評価されるか等の情報を上位シ
ステム108に通知する(S1204)。通知された情
報を如何に利用するかは、上位システム108の利用目
的等によって異なる。
べき波形データが確定すると、図10のフローチャート
に戻って、音声認識部104は、発話内容の再評価を行
う。図15は、発話内容再評価処理の詳細な処理内容を
示すフローチャートである。同図に示されるように、発
話内容再評価処理においては、音声認識部104は、処
理すべき波形データとして確定した波形データ全てにつ
いて処理が終了するまで、発話内容を評価し(S150
2)、結果を上位システム108に通知する(S150
3)。
声認識装置の一適用例としての情報処理装置について説
明する。本適用例は、音声によりコマンドを入力して表
示画面上のアイコンを移動させることが可能な情報処理
装置に、本発明の音声認識装置を適用したものである。
以下、かかる情報処理装置の動作について説明し、本発
明の効果をより具体的に説明する。
た情報処理装置の表示画面の一例を示す図である。この
情報処理装置では、音声により、例えば「Aに行け」、
「Bに行け」又は「Cに行け」等の命令を入力すること
により、画面上のアイコンOがそれぞれ図中に示された
A、B又はCの位置に移動するものとする。
け」、「それから」、「Aに行け」であったにもかかわ
らず、最初の音声認識の結果が「Bに行け」、「Cに行
け」、「Aに行け」であった場合について説明する。図
17は、この際の処理の順序を示した図である。同図に
おいて、「処理A」とは、アイコンOをAに位置に移動
させる処理をいい、「処理B」とは、アイコンOをBに
位置に移動させる処理をいう。また、「処理C」とは、
アイコンOをCに位置に移動させる処理である。同図に
示されるように、発声内容が認識された後に、それぞれ
の処理が開始されるとすると、画面上のアイコンOは、
図18に示されるように、まずBの位置に移動し、その
後、Cの位置に移動した後、Aの位置に移動することに
なる。
用した場合は、音声データの再評価が可能である。即
ち、男女共通の辞書を用いていて、「それから」という
音声データが、「Cに行け」と認識された時点で、性別
認識部1043により性別の判定が行われ、話者が女性
であることが認識されたとすると、女性及び子供用の辞
書に切り替えられる。
上位システム108は、性別が判定されたことによる音
素認識辞書及び単語認識辞書の切り替えが行われたこと
を受けて、音声データの再評価の指示を行う。
ある。上位システム108からの再評価の指示を受け
て、音声データの再評価が行われた結果、「Cに行け」
と認識されていた音声データが、実は「それから」とい
う音声であったということが判明する。その結果、既に
処理Cが開始し、アイコンがBの位置からCの位置に向
かって移動を開始していたとすると、処理Cは中止さ
れ、「Aに行け」との発声が認識された時点から、Aの
位置に向かって移動が開始されることとなる。この場合
の動作は、図20に示すようになる。
装置を適用すると、上位システム108における誤認識
による無駄な処理を少なくすることが可能となる。尚、
本実施の形態では、情報処理装置の例として、画面上の
アイコンを移動させる場合について説明したが、他のも
っと複雑な処理に適用することも、もちろん容易に行え
る。例えば、情報検索のキーワードを音声にて入力する
ような装置に適用した場合には、誤認識に基づく検索処
理を削減することが可能となり、本発明の効果も、より
大きなものとなる。
1が一つの場合について説明したが、例えば音声入力部
101としてのマイクロホンを複数備え、それぞれから
入力された音声データについて音声認識を行うことも可
能である。そのような場合には、記憶領域1032を、
それぞれの音声入力部101に対応させて分割し、波形
データを記憶するようにすればよい。そのような構成に
すると、例えば、複数の話者による発声の認識も容易に
できるようになる。
に、音声認識の結果に基づいて、過去の音声データを理
解しなおすというのは、ある意味で、現実の人間が音声
を認識する際に無意識に行っているものということがで
きる。従って、本発明の音声認識装置は、例えば、仮想
的な生物の挙動をコンピュータに実行させるような場合
に適用することも可能である。
るプログラムを記憶した記憶媒体は、図21の記憶媒体
の例で示すように、CD−ROMやフロッピーディスク
等の可搬型記憶媒体だけでなく、回線先の他の記憶装置
や、コンピュータのハードディスクやRAM等の記憶媒
体のいずれでもよく、プログラム実行時には、プログラ
ムはローディングされ、主メモリ上で実行される。
声認識装置及びそれを用いた情報処理装置によれば、音
声データを記憶する記憶手段に記憶された音声データ
を、上位システムからの指示を受けて再評価することに
より、一度、誤認識された音声データについて、正しい
認識に修正することが可能となるので、音声データの誤
認識に基づく必要でない処理を削減することが可能にな
るという効果を奏する。
構成を示す機能ブロック図である。
成部の詳細な構成を示す機能ブロック図である。
構成を示す図である。
フィルタの特性を示す図である。
一例について説明するための図である。
行う際の状態遷移を示す図である。
の構成の一例を示す図である。
析部の詳細な構成を示す機能ブロック図である。
メル尺度で16チャンネルに分割する際に用いるテーブ
ルの一例を示す図である。
声データの再評価を行う際の音声認識部の処理内容を示
すフローチャートである。
詳細な処理内容を示すフローチャートである。
詳細な処理内容を示すフローチャートである。
具体例について説明するための図である。
具体例について説明するための図である。
な処理内容を示すフローチャートである。
情報処理装置の動作について説明するための図である。
情報処理装置における音声認識について説明するための
図である。
情報処理装置の動作について説明するための図である。
情報処理装置における音声認識について説明するための
図である。
情報処理装置の動作について説明するための図である。
である。
搬型記憶媒体 92−1 CD−ROM 92−2 フロッピーディスク 93 コンピュータ 94 コンピュータ上のRAM/ハードディスク
等の記憶媒体
Claims (14)
- 【請求項1】 音声データを記憶する記憶手段と、音声
認識の結果を利用する上位システムからの要求を受け
て、前記記憶手段に記憶されている音声データを再評価
する再評価手段とを備えることを特徴とする音声認識装
置。 - 【請求項2】 前記音声認識装置は、音声データから音
声区間データを切り出す音声区間データ作成手段を備
え、前記記憶手段は、前記音声区間データ作成手段によ
り作成された音声区間データを記憶する請求項1に記載
の音声認識装置。 - 【請求項3】 前記記憶手段は、前記音声区間データ作
成手段により作成された音声区間データを複数セット記
憶する複数のデータスロットを備える請求項2に記載の
音声認識装置。 - 【請求項4】 前記音声認識装置は、前記音声区間デー
タ作成手段を複数有し、前記記憶手段は、それぞれの音
声区間データ作成手段ごとに、音声区間データを複数セ
ット記憶するデータスロットを備える請求項3に記載の
音声認識装置。 - 【請求項5】 前記音声認識装置はさらに、前記記憶手
段に記憶されている音声データから、音声パワーを算出
するパワー算出手段を備え、前記再評価手段は、前記パ
ワー算出手段により算出された音声パワーが所定の範囲
外である場合に、当該音声データを再評価しない請求項
3又は4に記載の音声認識装置。 - 【請求項6】 前記音声認識装置はさらに、前記音声デ
ータから話者の性別を判定する性別認識手段と、前記性
別認識手段による判定結果に基づき、音素認識に用いる
辞書を切り替える音素認識辞書切替手段とを備える請求
項1から5のいずれかに記載の音声認識装置。 - 【請求項7】 前記音声認識装置はさらに、前記音声デ
ータから話者の性別を判定する性別認識手段と、前記性
別認識手段による判定結果に基づき、単語認識に用いる
辞書を切り替える単語認識辞書切替手段とを備える請求
項1から5のいずれかに記載の音声認識装置。 - 【請求項8】 前記音声認識装置はさらに、前記性別認
識手段による判定結果に基づき、単語認識に用いる辞書
を切り替える単語認識辞書切替手段とを備える請求項6
に記載の音声認識装置。 - 【請求項9】 前記音声認識装置はさらに、前記音声デ
ータから話者を判定する話者認識手段を備える請求項1
から8のいずれかに記載の音声認識装置。 - 【請求項10】 入力を受け付ける入力受付手段を備え
る情報処理装置であって、前記入力受付手段として請求
項1から9のいずれかに記載の音声認識装置を用いる情
報処理装置。 - 【請求項11】 請求項6に記載の音声認識装置を用い
る情報処理装置であって、前記音素認識辞書切替手段に
より、音素認識辞書が切り替えられた際に、前記記憶手
段に記憶されている音声データの再評価を要求する情報
処理装置。 - 【請求項12】 請求項7に記載の音声認識装置を用い
る情報処理装置であって、前記単語認識辞書切替手段に
より、単語認識辞書が切り替えられた際に、前記記憶手
段に記憶されている音声データの再評価を要求する情報
処理装置。 - 【請求項13】 請求項8に記載の音声認識装置を用い
る情報処理装置であって、前記音素認識辞書切替手段に
より、音素認識辞書が切り替えられた際、又は前記単語
認識辞書切替手段により、単語認識辞書が切り替えられ
た際に、前記記憶手段に記憶されている音声データの再
評価を要求する情報処理装置。 - 【請求項14】 音声データから、音声区間データを切
り出す切り出しステップと、前記切り出しステップにお
いて切り出された音声区間データを、複数のデータスロ
ットに順次格納する格納ステップと、音声認識の結果を
利用する上位システムから、前記音声区間データの再評
価の要求を受け付ける要求受付ステップと、前記要求に
従って、音声区間データの再評価を行う再評価ステップ
とを実行するプログラムを記憶したコンピュータで読み
取り可能な記憶媒体。
Priority Applications (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31791997A JP3886024B2 (ja) | 1997-11-19 | 1997-11-19 | 音声認識装置及びそれを用いた情報処理装置 |
US09/046,568 US6122615A (en) | 1997-11-19 | 1998-03-24 | Speech recognizer using speaker categorization for automatic reevaluation of previously-recognized speech data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP31791997A JP3886024B2 (ja) | 1997-11-19 | 1997-11-19 | 音声認識装置及びそれを用いた情報処理装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH11153999A true JPH11153999A (ja) | 1999-06-08 |
JP3886024B2 JP3886024B2 (ja) | 2007-02-28 |
Family
ID=18093517
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP31791997A Expired - Fee Related JP3886024B2 (ja) | 1997-11-19 | 1997-11-19 | 音声認識装置及びそれを用いた情報処理装置 |
Country Status (2)
Country | Link |
---|---|
US (1) | US6122615A (ja) |
JP (1) | JP3886024B2 (ja) |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004502985A (ja) * | 2000-06-29 | 2004-01-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 以後のオフライン音声認識のための音声情報を記録する記録装置 |
JP2007064819A (ja) * | 2005-08-31 | 2007-03-15 | Ho Jinyama | 信号検査方法および信号検査モジュール |
JP2013195823A (ja) * | 2012-03-21 | 2013-09-30 | Toshiba Corp | 対話支援装置、対話支援方法および対話支援プログラム |
JP2018507446A (ja) * | 2015-03-06 | 2018-03-15 | ゼテス・インダストリーズ・エス・ア | 音声認識結果の後処理のための方法およびシステム |
Families Citing this family (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6665644B1 (en) * | 1999-08-10 | 2003-12-16 | International Business Machines Corporation | Conversational data mining |
CH695402A5 (de) * | 2000-04-14 | 2006-04-28 | Creaholic Sa | Verfahren zur Bestimmung eines charakteristischen Datensatzes für ein Tonsignal. |
US6915246B2 (en) * | 2001-12-17 | 2005-07-05 | International Business Machines Corporation | Employing speech recognition and capturing customer speech to improve customer service |
US7058565B2 (en) * | 2001-12-17 | 2006-06-06 | International Business Machines Corporation | Employing speech recognition and key words to improve customer service |
USH2187H1 (en) * | 2002-06-28 | 2007-04-03 | Unisys Corporation | System and method for gender identification in a speech application environment |
EP1567941A2 (en) | 2002-11-28 | 2005-08-31 | Koninklijke Philips Electronics N.V. | Method to assign word class information |
US7340398B2 (en) * | 2003-08-21 | 2008-03-04 | Hewlett-Packard Development Company, L.P. | Selective sampling for sound signal classification |
WO2005062295A1 (ja) * | 2003-12-05 | 2005-07-07 | Kabushikikaisha Kenwood | 機器制御装置、音声認識装置、エージェント装置及び機器制御方法 |
US7873149B2 (en) * | 2004-06-01 | 2011-01-18 | Verizon Business Global Llc | Systems and methods for gathering information |
US8392193B2 (en) * | 2004-06-01 | 2013-03-05 | Verizon Business Global Llc | Systems and methods for performing speech recognition using constraint based processing |
ATE403928T1 (de) * | 2006-12-14 | 2008-08-15 | Harman Becker Automotive Sys | Sprachdialogkontrolle basierend auf signalvorverarbeitung |
JP4812029B2 (ja) * | 2007-03-16 | 2011-11-09 | 富士通株式会社 | 音声認識システム、および、音声認識プログラム |
GB2451907B (en) * | 2007-08-17 | 2010-11-03 | Fluency Voice Technology Ltd | Device for modifying and improving the behaviour of speech recognition systems |
JP5024154B2 (ja) * | 2008-03-27 | 2012-09-12 | 富士通株式会社 | 関連付け装置、関連付け方法及びコンピュータプログラム |
KR101625668B1 (ko) | 2009-04-20 | 2016-05-30 | 삼성전자 주식회사 | 전자기기 및 전자기기의 음성인식방법 |
US8983640B2 (en) | 2009-06-26 | 2015-03-17 | Intel Corporation | Controlling audio players using environmental audio analysis |
EP2518723A4 (en) * | 2009-12-21 | 2012-11-28 | Fujitsu Ltd | VOICE CONTROL DEVICE AND VOICE CONTROL METHOD |
CN102831890A (zh) * | 2011-06-15 | 2012-12-19 | 镇江佳得信息技术有限公司 | 一种对文本无关的声纹进行识别的方法 |
US10706873B2 (en) * | 2015-09-18 | 2020-07-07 | Sri International | Real-time speaker state analytics platform |
DE102017219596A1 (de) * | 2016-12-22 | 2018-06-28 | Volkswagen Aktiengesellschaft | Sprachausgabestimme eines Sprachbediensystems |
US10467339B1 (en) * | 2018-06-28 | 2019-11-05 | Sap Se | Using machine learning and natural language processing to replace gender biased words within free-form text |
JP7458371B2 (ja) * | 2019-03-18 | 2024-03-29 | 富士通株式会社 | 話者識別プログラム、話者識別方法、および話者識別装置 |
Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57104193A (en) * | 1980-12-19 | 1982-06-29 | Matsushita Electric Ind Co Ltd | Voice recognizer |
JPS60129795A (ja) * | 1983-12-16 | 1985-07-11 | 沖電気工業株式会社 | 音声認識方式 |
JPS6127600A (ja) * | 1984-07-17 | 1986-02-07 | 日本電気株式会社 | 音声識別回路 |
JPS6148897A (ja) * | 1984-08-16 | 1986-03-10 | 松下電器産業株式会社 | 音声認識装置 |
JPH06102894A (ja) * | 1992-09-22 | 1994-04-15 | Toshiba Corp | 音声認識装置 |
JPH075891A (ja) * | 1993-06-16 | 1995-01-10 | Canon Inc | 音声対話方法および装置 |
JPH08278797A (ja) * | 1995-04-10 | 1996-10-22 | Fujitsu Ten Ltd | 音声処理装置 |
JPH096389A (ja) * | 1995-06-22 | 1997-01-10 | Seiko Epson Corp | 音声認識対話処理方法および音声認識対話装置 |
JPH0968998A (ja) * | 1995-08-31 | 1997-03-11 | Matsushita Electric Ind Co Ltd | 音声認識方法及び音声認識装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5640490A (en) * | 1994-11-14 | 1997-06-17 | Fonix Corporation | User independent, real-time speech recognition system and method |
US5864810A (en) * | 1995-01-20 | 1999-01-26 | Sri International | Method and apparatus for speech recognition adapted to an individual speaker |
US5855000A (en) * | 1995-09-08 | 1998-12-29 | Carnegie Mellon University | Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input |
US5712957A (en) * | 1995-09-08 | 1998-01-27 | Carnegie Mellon University | Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists |
US5960447A (en) * | 1995-11-13 | 1999-09-28 | Holt; Douglas | Word tagging and editing system for speech recognition |
US5787394A (en) * | 1995-12-13 | 1998-07-28 | International Business Machines Corporation | State-dependent speaker clustering for speaker adaptation |
US5895447A (en) * | 1996-02-02 | 1999-04-20 | International Business Machines Corporation | Speech recognition using thresholded speaker class model selection or model adaptation |
US5857099A (en) * | 1996-09-27 | 1999-01-05 | Allvoice Computing Plc | Speech-to-text dictation system with audio message capability |
GB2303955B (en) * | 1996-09-24 | 1997-05-14 | Allvoice Computing Plc | Data processing method and apparatus |
-
1997
- 1997-11-19 JP JP31791997A patent/JP3886024B2/ja not_active Expired - Fee Related
-
1998
- 1998-03-24 US US09/046,568 patent/US6122615A/en not_active Expired - Lifetime
Patent Citations (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57104193A (en) * | 1980-12-19 | 1982-06-29 | Matsushita Electric Ind Co Ltd | Voice recognizer |
JPS60129795A (ja) * | 1983-12-16 | 1985-07-11 | 沖電気工業株式会社 | 音声認識方式 |
JPS6127600A (ja) * | 1984-07-17 | 1986-02-07 | 日本電気株式会社 | 音声識別回路 |
JPS6148897A (ja) * | 1984-08-16 | 1986-03-10 | 松下電器産業株式会社 | 音声認識装置 |
JPH06102894A (ja) * | 1992-09-22 | 1994-04-15 | Toshiba Corp | 音声認識装置 |
JPH075891A (ja) * | 1993-06-16 | 1995-01-10 | Canon Inc | 音声対話方法および装置 |
JPH08278797A (ja) * | 1995-04-10 | 1996-10-22 | Fujitsu Ten Ltd | 音声処理装置 |
JPH096389A (ja) * | 1995-06-22 | 1997-01-10 | Seiko Epson Corp | 音声認識対話処理方法および音声認識対話装置 |
JPH0968998A (ja) * | 1995-08-31 | 1997-03-11 | Matsushita Electric Ind Co Ltd | 音声認識方法及び音声認識装置 |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004502985A (ja) * | 2000-06-29 | 2004-01-29 | コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ | 以後のオフライン音声認識のための音声情報を記録する記録装置 |
JP4917729B2 (ja) * | 2000-06-29 | 2012-04-18 | ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー | 以後のオフライン音声認識のための音声情報を記録する記録装置 |
JP2007064819A (ja) * | 2005-08-31 | 2007-03-15 | Ho Jinyama | 信号検査方法および信号検査モジュール |
JP2013195823A (ja) * | 2012-03-21 | 2013-09-30 | Toshiba Corp | 対話支援装置、対話支援方法および対話支援プログラム |
JP2018507446A (ja) * | 2015-03-06 | 2018-03-15 | ゼテス・インダストリーズ・エス・ア | 音声認識結果の後処理のための方法およびシステム |
Also Published As
Publication number | Publication date |
---|---|
JP3886024B2 (ja) | 2007-02-28 |
US6122615A (en) | 2000-09-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JPH11153999A (ja) | 音声認識装置及びそれを用いた情報処理装置 | |
US20230409102A1 (en) | Low-power keyword spotting system | |
JP4568371B2 (ja) | 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム | |
JP3284832B2 (ja) | 音声認識対話処理方法および音声認識対話装置 | |
JP3126985B2 (ja) | 音声認識システムの言語モデルのサイズを適応させるための方法および装置 | |
KR101056511B1 (ko) | 실시간 호출명령어 인식을 이용한 잡음환경에서의음성구간검출과 연속음성인식 시스템 | |
US6751595B2 (en) | Multi-stage large vocabulary speech recognition system and method | |
JP5098613B2 (ja) | 音声認識装置及びコンピュータプログラム | |
CN106875936B (zh) | 语音识别方法及装置 | |
US7177810B2 (en) | Method and apparatus for performing prosody-based endpointing of a speech signal | |
WO2010128560A1 (ja) | 音声認識装置、音声認識方法、及び音声認識プログラム | |
EP1376537B1 (en) | Apparatus, method, and computer-readable recording medium for recognition of keywords from spontaneous speech | |
KR101122590B1 (ko) | 음성 데이터 분할에 의한 음성 인식 장치 및 방법 | |
JP5183120B2 (ja) | 平方根ディスカウンティングを使用した統計的言語による音声認識 | |
CN113327596B (zh) | 语音识别模型的训练方法、语音识别方法和装置 | |
CN109065026B (zh) | 一种录音控制方法及装置 | |
KR101122591B1 (ko) | 핵심어 인식에 의한 음성 인식 장치 및 방법 | |
US8140334B2 (en) | Apparatus and method for recognizing voice | |
JP4791857B2 (ja) | 発話区間検出装置及び発話区間検出プログラム | |
KR20210081166A (ko) | 다국어 음성 환경에서의 언어 식별 장치 및 방법 | |
JP5296455B2 (ja) | 話者識別装置、及びコンピュータプログラム | |
KR102418256B1 (ko) | 언어 모델 개량을 통한 짧은 단어 인식 장치 및 방법 | |
JP2011118290A (ja) | 音声認識装置 | |
Heck et al. | Segmentation of telephone speech based on speech and non-speech models | |
JP3493849B2 (ja) | 音声認識装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20050628 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20050705 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20050905 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20060629 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20060828 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20060914 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20061116 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20061117 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20091201 Year of fee payment: 3 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20101201 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111201 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20111201 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121201 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20121201 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20131201 Year of fee payment: 7 |
|
LAPS | Cancellation because of no payment of annual fees |