JPH11153999A - 音声認識装置及びそれを用いた情報処理装置 - Google Patents

音声認識装置及びそれを用いた情報処理装置

Info

Publication number
JPH11153999A
JPH11153999A JP9317919A JP31791997A JPH11153999A JP H11153999 A JPH11153999 A JP H11153999A JP 9317919 A JP9317919 A JP 9317919A JP 31791997 A JP31791997 A JP 31791997A JP H11153999 A JPH11153999 A JP H11153999A
Authority
JP
Japan
Prior art keywords
data
voice
recognition
speech
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9317919A
Other languages
English (en)
Other versions
JP3886024B2 (ja
Inventor
Kenji Yamamoto
健司 山本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP31791997A priority Critical patent/JP3886024B2/ja
Priority to US09/046,568 priority patent/US6122615A/en
Publication of JPH11153999A publication Critical patent/JPH11153999A/ja
Application granted granted Critical
Publication of JP3886024B2 publication Critical patent/JP3886024B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/26Speech to text systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L17/00Speaker identification or verification techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Computational Linguistics (AREA)
  • Machine Translation (AREA)

Abstract

(57)【要約】 【課題】 一度誤って認識された音声の意味内容を、容
易に修正して認識することを可能とし、より広い範囲に
適用することが可能な音声認識装置及びそれを用いた情
報処理装置を提供すること。 【解決手段】 一定期間の音声データを記憶する波形デ
ータ記憶部103を設け、音声認識装置による認識結果
を利用する上位システム108からの要求に基づいて、
波形データ記憶部103に記憶されている音声データを
再評価することにより、一度誤って認識された音声デー
タを溯って評価しなおすことを可能とする。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識装置及び
それを用いた情報処理装置に関する。
【0002】
【従来の技術】音声認識とは、音声波に含まれる情報の
中で最も基本的な意味内容に関する情報を、電子計算
機、電子回路などによって自動的に抽出し、決定する意
味内容に関する認識や、音声波に含まれる個人性情報を
抽出する話者認識をいう。
【0003】音声を自動的に認識する装置については古
くから研究が行われているが、最近では、音声によって
機械と対話するための音声入力装置が実現され、今後の
進歩が期待されている。
【0004】従来の音声認識装置の構成を図22に示
す。同図に示された従来の音声認識装置は、音声入力部
2201、音声区間データ作成部2202、音声区間デ
ータ処理部2203、音声認識辞書格納部2204を備
えている。
【0005】音声入力部2201としては、マイクロホ
ン等の入力装置が用いられる。音声区間データ作成部2
202は、音声入力部2201から入力された音声デー
タから音声区間の検出を行い音声区間データを作成す
る。音声区間の検出の詳細については後述する。
【0006】音声区間データ処理部2203は、音声区
間データ作成部2202によって作成された音声区間デ
ータを分析し、その意味内容を認識する。従来の意味内
容の認識方法については、「ディジタル音声処理」(古
井 貞煕 著、東海大学出版会)に詳しく記載されてい
るが、一般には、音声認識用の辞書として、音声認識辞
書格納部2204に音素辞書と単語辞書とを備える。音
声認識においては、入力音声と標準パターンの短時間ス
ペクトル同士の距離又は類似度を認識の判断の基礎とし
て音声素片を認識し、認識された音声素片列を単語辞書
とマッチングすることによりその意味内容を認識する。
【0007】
【発明が解決しようとする課題】しかしながら、上記従
来の音声認識装置においては、音声データの誤認識を修
正することが容易でないという問題点を有していた。
【0008】即ち、人間が行う現実の音声認識では、最
初は正確に認識できなかった音声データを、その後の会
話内容等によって逐次修正して理解し、それに伴い行動
を修正するといったこともあるが、上記従来の音声認識
装置では、一度誤って認識された音声の意味内容を容易
に修正することができない。従って、例えば、音声によ
ってコマンドを入力するような装置において、音声デー
タの誤認識によって誤ったコマンドが入力されてしまっ
た場合等にその動作を修正することは難しく、音声認識
の適用範囲を狭くする原因となっていた。
【0009】本発明は上記の問題点に鑑み、より広い範
囲に適用することが可能な音声認識装置及びそれを用い
た情報処理装置を提供することを目的とする。
【0010】
【課題を解決するための手段】前記目的を達成するた
め、本発明の音声認識装置は、音声データを記憶する記
憶手段と、音声認識の結果を利用する上位システムから
の要求を受けて、前記記憶手段に記憶されている音声デ
ータを再評価する再評価手段とを備えることを特徴とす
る。
【0011】ここで、前記音声認識装置は、音声データ
から音声区間データを切り出す音声区間データ作成手段
を備え、前記記憶手段は、前記音声区間データ作成手段
により作成された音声区間データを記憶することができ
る。
【0012】また、前記記憶手段は、前記音声区間デー
タ作成手段により作成された音声区間データを複数セッ
ト記憶する複数のデータスロットを備えることが好まし
い。複数のデータスロットに音声データを格納しておく
と、前記再評価手段による再評価の処理効率を向上させ
ることができるからである。
【0013】さらに、前記音声認識装置は、前記音声区
間データ作成手段を複数有し、前記記憶手段は、それぞ
れの音声区間データ作成手段ごとに、音声区間データを
複数セット記憶するデータスロットを備えることもでき
る。そのような構成としておくと、音声を入力する例え
ばマイクロホンが複数存在する場合でも、それぞれのマ
イクロホンから入力される音声データについて、それぞ
れ再評価を行うことが可能となる。
【0014】また、前記音声認識装置はさらに、前記記
憶手段に記憶されている音声データから、音声パワーを
算出するパワー算出手段を備え、前記再評価手段は、前
記パワー算出手段により算出された音声パワーが所定の
範囲外である場合に、当該音声データを再評価しないよ
うにすることが好ましい。正常な音声認識ができないよ
うな音声データを、再評価の対象から除外することによ
り、音声認識の認識率をより向上させることが可能とな
るからである。
【0015】また、前記音声認識装置はさらに、前記音
声データから話者の性別を判定する性別認識手段と、前
記性別認識手段による判定結果に基づき、音素認識に用
いる辞書を切り替える音素認識辞書切替手段とを備える
ことが好ましい。性別により音素認識辞書を切り替える
ことにより、さらに認識率を向上させることができるか
らである。
【0016】また、前記音声認識装置はさらに、前記音
声データから話者の性別を判定する性別認識手段と、前
記性別認識手段による判定結果に基づき、単語認識に用
いる辞書を切り替える単語認識辞書切替手段とを備える
ことが好ましい。性別により通常用いる単語が異なるこ
とから、性別によって単語認識辞書を切り替えることに
より、さらに認識率を向上させることができるからであ
る。
【0017】もちろん、前記性別認識手段による判定結
果に基づき、音素認識に用いる辞書を切り替える音素認
識辞書切替手段と、単語認識に用いる辞書を切り替える
単語認識辞書切替手段との双方を備えることも可能であ
る。
【0018】また、前記音声認識装置はさらに、前記音
声データから話者を判定する話者認識手段を備えること
もできる。また、本発明の情報処理装置は、入力を受け
付ける入力受付手段を備える情報処理装置であって、前
記入力受付手段として請求項1から9のいずれかに記載
の音声認識装置を用いる。音声によりコマンドの入力を
行うことが可能な情報処理装置において、本発明の音声
認識装置を用いると、音声データの再評価を行うことに
より、音声データの誤認識を逐次修正しながら動作させ
ることが可能となり、無駄な処理を軽減することが可能
となる。
【0019】また、前記音素認識辞書切替手段を有する
音声認識装置を用いる情報処理装置においては、前記音
素認識辞書切替手段により、音素認識辞書が切り替えら
れた際に、前記記憶手段に記憶されている音声データの
再評価を要求するようにすることが好ましい。音素認識
辞書が切り替えられることにより、一般的に認識率は向
上するが、その切替の機会に過去の音声データを再評価
することにより、音声データの誤認識が見つかることも
あるからである。
【0020】また、前記単語認識辞書切替手段を有する
音声認識装置を用いる情報処理装置において、前記単語
認識辞書切替手段により、単語認識辞書が切り替えられ
た際に、前記記憶手段に記憶されている音声データの再
評価を要求するようにすることも好ましい。
【0021】さらに、前記音素認識辞書切替手段と、前
記単語認識辞書切替手段との双方を有する音声認識装置
を用いる情報処理装置では、前記音素認識辞書切替手段
により音素認識辞書が切り替えられた際、又は前記単語
認識辞書切替手段により単語認識辞書が切り替えられた
際に、前記記憶手段に記憶されている音声データの再評
価を要求するようにすることも好ましい。
【0022】また、本発明の記憶媒体は、音声データか
ら、音声区間データを切り出す切り出しステップと、前
記切り出しステップにおいて切り出された音声区間デー
タを、複数のデータスロットに順次格納する格納ステッ
プと、音声認識の結果を利用する上位システムから、前
記音声区間データの再評価の要求を受け付ける要求受付
ステップと、前記要求に従って、音声区間データの再評
価を行う再評価ステップとを実行するプログラムを記憶
したコンピュータで読み取り可能な記憶媒体である。
【0023】
【発明の実施の形態】以下、本発明の実施の形態につい
て、図面を参照しながら説明する。図1は、本発明の一
実施の形態に係る音声認識装置の構成を示す機能ブロッ
ク図である。
【0024】同図に示されるように、本実施の形態の音
声認識装置は、音声入力部101、波形データ作成部1
02、波形データ記憶部103、音声認識部104、音
素認識辞書格納部105、単語認識辞書格納部106、
話者認識辞書格納部107を備えており、本発明の音声
認識装置による音声認識の結果を利用する上位システム
108が、音声認識部104から音声認識の結果を受け
取る構成となっている。
【0025】音声入力部101としては、マイクロホン
等、音声入力が可能な入力装置を用いることができる。
波形データ作成部102は、音声入力部101から入力
された音声データについて音声区間の切り出しを行い、
波形データを作成する。
【0026】尚、本実施の形態では、波形データ記憶部
103の記憶領域1032に、波形データの形式で格納
することとしているため、音声区間の切り出しのみを行
うが、記憶領域1032へのデータの格納方式によって
は、音声区間の切り出しの後、格納方式に対応する形式
に変換する処理を行うようにしてもよい。その場合は、
本実施の形態では後述の波形データ分析部1041が行
う処理の一部を波形データ作成部102が行うこともあ
る。
【0027】図2は、本実施の形態の波形データ作成部
102の詳細な構成を示す機能ブロック図である。同図
に示されるように、波形データ作成部102は、音声デ
ータ入力部201、波形データリングバッファ202、
フィルタ処理部203、パワー計算部204、ノイズレ
ベル学習部205、単語区間検出部206、区間検出閾
値テーブル格納部207を備える。
【0028】音声データ入力部201は、音声入力部1
01より入力された音声データについて、所定の間隔で
サンプリングを行い、その結果を波形データリングバッ
ファ202に順次格納する。図3は、波形データリング
バッファ202の構成の一例を示す図である。同図に示
されるように、本実施の形態では、全長512ワード
(1ワード=4バイト)分のバッファを確保し、サンプ
リングされたデータを順次格納する。本実施の形態で
は、256ポイント(窓幅)のデータが取り込まれた時
点で1フレーム分の処理を行う。同図に示されるフレー
ムシフト(180ポイント)とは、窓幅256ポイント
のうち、フレームシフト180ポイントを除いた部分
は、次のフレームの窓幅に含まれることを意味してお
り、一部を重複させることにより、単語が途中で区切れ
るのを防止している。なお、フレームシフトは必ずしも
180ポイントでなくてもよい。
【0029】フィルタ処理部203は、波形データリン
グバッファ202に格納された波形データに対して15
0HzのHPF(ハイパスフィルタ)で高域強調を行
う。HPFとしては、4次のIIRチェビシェルフィル
タを用いる。図4に、本実施の形態のHPFの特性を示
す。また、高域強調は、z変換である1−z-1の一次差
分を用いる。
【0030】パワー計算部204は、音声パワー(PO
W)の計算を行う。音声パワーの計算は窓波形に対する
相対的な値として以下の数1に従って計算する。ここで
いう窓波形は矩形窓である。
【0031】
【数1】
【0032】以下、上記数1に示される音声パワーの計
算について、より詳細に説明する。まず、i番目の窓の
波形{Si}に対するログパワーlogpow(s)は、下記の数
2で表される。
【0033】
【数2】
【0034】従って、上記音声パワー(POW)は、下記の
数3に従って算出することができる。
【0035】
【数3】
【0036】上記数3において、yは窓処理後の波形を
表し、hは窓自体の波形を表す。ここで、窓自体の波形
のログパワーlogpow(h)は、一定であるので、予め計算
しておくことができる。一方、上記の窓処理後のログパ
ワー1000*log10(Σyi2)については、下記の数4に従
って計算することができる。iは窓のi番目のポイント
であり、ここでは1〜256である。
【0037】
【数4】
【0038】上記数4における301*n及び301*log2(c)
については、n及びcの値ごとに予め計算し、テーブルに
格納しておくことが可能である。なお、本実施の形態で
は、cは小数点以下5ビットの精度としている。
【0039】ノイズレベル学習部204は、環境雑音の
変動に対処するため一定間隔ごとにノイズレベル(以
下、「nsl」と表記する場合もある。)の学習を行
う。ここで、ノイズレベルとは、無音区間のパワーのこ
とをいう。ノイズレベル学習部204は、一定期間でも
っとも出現頻度の高いパワー値をその期間のノイズレベ
ルとする。学習の際には、学習対象の100フレームの
うちパワーの小さい下位8割のデータからのみノイズレ
ベルを学習する。これは無音区間のみのデータをより正
確に学習するためである。また、学習されたノイズレベ
ルが一定値より小さい場合には、予め定めた最小値を学
習値とする。尚、ここで学習されたノイズレベルは、後
述の区間検出で用いる閾値(th1からth4)の決定
に用いられる。当該閾値は、区間検出閾値テーブル格納
部207に格納される。
【0040】単語区間検出部205は、音声パワーが予
め定めた閾値を超えた部分を音声区間として検出する。
その際に区間検出をより正確に行うため、各入力フレー
ムごとに前回の状態を参照し、これに応じて4種の閾値
と音声パワーとの比較を行う。以下、単語区間検出の方
法について詳細に説明する。
【0041】図5は、単語区間検出の一例を示す図であ
る。同図に示されるth1からth4までの4つの閾値
と音声パワーとの比較を行うことにより、音声区間の検
出を行う。ここで、閾値th1からth4は、前述の如
くノイズレベル(nsl)から算出される値を用いる。
本実施の形態では、th1=nsl+200、th2=
nsl+600、th3=nsl+500、th4=n
sl+600としている。
【0042】以下、図6に示す単語区間検出の状態遷移
図も参照しながら、図5に示されるAからHまでの各フ
レームについて、その内容を説明する。フレームAにお
いては、音声パワーが閾値th1を上回ることにより状
態1への遷移が発生している。これは、単語区間の語頭
候補が検出されたことを意味するものと考える。しか
し、図5の例では、音声パワーが閾値th2を上回るこ
となく、フレームBにおいて、再び閾値th1より下に
落ちてしまっているので、状態1であった区間が単語区
間と判定されることなく、再び状態0に戻っている。
【0043】これは、図6に示されるように、状態0に
おいて、音声パワーが閾値th1を上回った場合には状
態1に遷移すること、及び、状態1において、音声パワ
ーが閾値th1以下になった場合、又は状態1である時
間の長さ(wd)が単語最長値wdmaxを上回った場
合には、単語を区切るために、状態0に戻ることが規定
されているからである。ここで、単語最大長wdmax
とは、一つの単語が発音されるであろう最大の時間の長
さとして、規定しておく値をいう。単語最長値wdma
xは予め設定しておく。尚、本実施の形態では、wdm
axは140フレーム分の時間(=約2100ms)と
している。
【0044】尚、図6に示されるように、状態0におい
て音声パワーが閾値th1以下であった場合には、その
まま状態0で継続する。図5に戻って、フレームCにお
いて、再度、音声パワーが閾値th1を上回ったことが
検出され、状態1に遷移する。図6に示されるように状
態1では、音声パワーが閾値th1を上回り、閾値th
2以下であった場合には、状態1でありつづけるが、音
声パワーが閾値th2を上回った場合には、状態2へと
遷移する。
【0045】さらに、図5の例では、フレームDにおい
て音声パワーが閾値th2を上回っているため、状態2
に遷移している。状態2とは、音声区間と認識された状
態である。
【0046】状態2では、音声パワーが閾値th3以上
である場合には、状態2でありつづけるが、音声パワー
が閾値th3を下回った場合には状態3へと遷移する。
また、状態2での時間の長さ(wd)が、前述の単語最
長値wdmaxを上回った場合には、状態0へと遷移す
る。
【0047】図5の例では、フレームEにおいて音声パ
ワーが閾値th3を下回ったため、状態3へと遷移して
いる。状態3とは、単語の終了が検出されたかもしれな
いという状態を表す。もっとも、図6に示されるよう
に、状態3において音声パワーが再度閾値th4を上回
った場合には、それまでに、後述の条件により状態0へ
と遷移していなければ、単語の終了が検出されたわけで
はないものと判定し、再び状態2へと遷移する。
【0048】状態3から状態0へと遷移するのは、音声
パワーが閾値th3を下回ることによって状態2から状
態3へと遷移した状態であって、音声パワーが閾値th
1を下回った無音期間の長さ(sl)が無音最長値(s
lmax)を上回った場合、状態2での時間の長さ(w
d)が単語最短値(wdmin)を下回っていた場合、
及び状態2での時間の長さ(wd)が単語最長値(wd
max)を上回った場合である。
【0049】無音最長値slmax及び単語最短値wd
minについても、予め設定しておく必要がある。無音
最長値slmaxの意味については、後述する。単語最
短値wdminとは、一つの単語が発音されるであろう
最小の時間の長さとして、規定しておく時間をいう。即
ち、状態2での時間の長さ(wd)が、単語最短値(w
dmin)を下回っていた場合には、状態2の部分は音
声区間とは見なされない。なお、本実施の形態では単語
最短値(wdmin)としては、18フレーム分の時間
(=約270ms)が、また、無音最長値(slma
x)としては、20フレーム分の時間(=約300m
s)が規定されている。状態0へと遷移するまでに音声
パワーが閾値th4以下である場合には、前述の三つの
いずれかの条件を満足させない限りは、状態3でありつ
づける。
【0050】図5の例では、状態3から状態0に遷移す
るまでに、再度フレームFにおいて音声パワーが閾値t
h2を上回っているため、状態3における無音状態が単
語中の無音部であると判定し、再度状態2へと遷移して
いる。ここで、単語中の無音部とは、例えば「北海道」
の如き促音を含む単語において発生する、単語の中にも
かかわらず音声が途切れる部分をいう。上述の如く、無
音最長値(slmax)として、20フレーム分の時間
が規定されているのは、それだけの時間が経過する前に
再び音声パワーが上昇した場合には、単語中の無音部で
あると判定することを意味する。
【0051】図5の例では、フレームGにおいて、再度
音声パワーが閾値th3を下回ることにより、状態3へ
と遷移しており、その後、状態3での長さが無音最長値
(slmax)を上回ったことにより、フレームHにお
いて状態0へと遷移している。
【0052】本実施の形態の音声認識装置は、最終的に
フレームCからフレームGまでの間を単語区間と判定
し、単語区間の切り出しを行う。以上に詳細に説明した
ように、波形データ作成部102において切り出された
波形データは、波形データ記憶部103に格納される。
【0053】波形データ記憶部103は、波形データ書
き込み部1031、記憶領域1032、波形データ読み
出し部1033から構成される。波形データ書き込み部
1031は、波形データ作成部102で切り出された波
形データを記憶領域1032に書き込むインターフェー
ス部分である。また、波形データ読み出し部1033
は、記憶領域1032から波形データを読み出し、音声
認識部104に送るインターフェース部分である。
【0054】図7は、本実施の形態における記憶領域1
032の構成の一例を示す図である。同図に示されるよ
うに、本実施の形態では、切り出された波形データを格
納する領域として10個のデータスロットを備えてい
る。また、一個のデータスロットの大きさは64キロバ
イトとしている。これは、一単語最大2秒間と仮定し、
10単語分の情報を保持するとした場合の例であるが、
領域の大きさは特に限定されない。また、データスロッ
トの形式で格納した方が処理効率は良くなるが、データ
スロット以外の形式でも実施することは可能である。な
お、本実施の形態では、10番目のデータスロットにデ
ータを格納した後は、再度、1番目のデータスロットに
戻って、循環してデータを格納する。
【0055】音声認識部104は、波形データ記憶部1
03から読み出した波形データを分析し、意味内容の認
識、話者認識等を行う。認識結果は、上位システム10
8により利用される。
【0056】ここで、本実施の形態の音声認識装置の音
声認識部104は、音声入力部101から入力された最
新の音声データを逐次分析して、認識結果を上位システ
ム108に送る他、上位システム108の指示に従っ
て、波形データ記憶部103に格納されている過去の音
声データの再評価を行う。
【0057】図1に示したように、本実施の形態の音声
認識部104は、波形データ分析部1041、話者認識
部1042、性別認識部1043、内容認識部104
4、パワー認識部1045、音素認識辞書切替部104
6、単語認識辞書切替部1047を備えている。
【0058】波形データ分析部1041は、波形データ
読み出し部1033を介して波形データ記憶部103か
ら読み出した波形データを分析し、各々の認識部に送
る。図8は、本実施の形態の波形データ分析部1041
の詳細な構成を示す機能ブロック図である。同図に示さ
れるように、波形データ分析部1041は、窓処理部8
01、FFT部802、ノイズパターン学習部803、
サブトラクション部804、メルスペクトル計算部80
5、メルスペクトル格納部806、音素認識部807を
備えている。
【0059】波形データ読み出し部1033を介して読
み出された波形データは、まず、窓処理部801へと送
られる。窓処理部801は、読み出された波形データに
窓波形を乗じる。ここでの窓関数(hi)としては、下
記の数5に示すハミング窓を用いる。なお、同式におい
て使用されている0.56及び0.44の数値は、窓の
形状によって異なる。
【0060】
【数5】
【0061】窓処理後の波形データは、FFT部802
がFFT処理を行う際に利便であるように内部RAM等
の記憶手段に格納する。FFT部802は、FFT(高
速フーリエ変換)処理を行う。
【0062】FFT処理の方法については、公知の方法
(例えば、「ディジタル信号処理」(岩田 彰 著、コ
ロナ社)に開示されている方法)が利用できるので、こ
こでの詳細な説明は省略する。FFT処理の結果として
得られたリニアスペクトルパワー(以下、「linear-spc
-pow」と表す場合もある。)が、その後の計算に用いら
れる。
【0063】ノイズパターン学習部803は、無音区間
のスペクトルパターンを一定期間ごとに学習する。本実
施の形態では、当該一定期間を10フレーム分の時間
(=約150ms)に設定している。
【0064】サブトラクション部804は、環境雑音に
対処するため、直前のノイズパターンを以下の数6に示
すようにFFTの分析結果から減ずる。
【0065】
【数6】
【0066】ここで、上記数6におけるxは、リニアス
ペクトルパワーの最小値としたい正の数字又はゼロであ
り、固定ではない。最終的に求めるスペクトルは、以下
の数7に示されるようなログパワーである。結果は、後
の処理のためにRAMに格納しておく。
【0067】
【数7】
【0068】メルスペクトル計算部805は、FFT部
802で求められたスペクトルパワーを、メル尺度で1
6チャンネルに分割する。分割は、図9に示すテーブル
に従って行う。
【0069】さらに、各チャンネルについて、下記の数
8に従って、チャンネルパワーの累積値であるmel-spcj
を計算する。
【0070】
【数8】
【0071】ここで、s(j)(j=1〜16)は、各チャ
ンネルの最低周波数ポイント番号、e(j)は、各チャンネ
ルの最高周波数ポイント番号、n(j)は、各チャンネルの
周波数ポイント数である。なお、上記のe(j)及びn(j)
は、テーブルとして保持しておく。次に正規化のため、
16チャンネルの平均スペクトルとの差を求める。この
処理は、下記の数9及び数10に従って行う。
【0072】
【数9】
【0073】
【数10】
【0074】最終的な分析結果であるメルスペクトル
(mel-spcj)は、メルスペクトル格納部806に格納さ
れる。メルスペクトル格納部806に格納されたメルス
ペクトルが、音素認識部807における音素認識の結
果、音声データの集合として認識される。
【0075】音素認識部807は、メルスペクトル格納
部806に格納されたメルスペクトルに所定の処理を行
い、音素認識辞書格納部105に格納された音素認識辞
書の内容とマッチングすることにより、いかなる音素で
あるかを認識する。ここでの音素認識とは、例えば、発
声された音声が、「あ」であるか、「い」であるか、
「う」であるか等を認識する処理である。かかる処理の
結果、最終的に切り出された波形データが音声の集合、
即ち単語として認識される。音素認識処理の詳細につい
ては、既に公知の技術となっているので(例えば、電子
情報通信学会論文誌D−II,Vol.J77−D−II,No.3,pp.4
75-482に開示されている。)、ここでの詳細な説明は省
略する。
【0076】以上に詳細に説明した波形データ分析部1
041の処理によって得られたメルスペクトル及び音素
認識の結果を用いて、各種の音声認識処理が行われる。
以下、各認識部の処理内容について説明する。
【0077】話者認識部1042は、話者認識を行う。
ここで、話者認識とは、その音声が誰の発話であるかを
認識する処理である。話者認識における比較処理に用い
る辞書情報は、話者認識辞書格納部107に格納され
る。
【0078】しかし、話者認識の方法等については、既
に文献等に記載されている(例えば、"A ROBUST, SEGME
NTAL METHOD FOR TEXT INDEPENDENT SPEAKER IDENTIFIC
ATION" by Herbert Gish, Michael Schmidt, and Angel
a Mielke (Proc. ICASSP 94,April 1994, Adelaide, So
uth Australia, pp.145-148)、"IDENTIFICATION OFSPEA
KERS ENGAGED IN DIALOG" by George Yu, and Herbert
Gish (Proc. ICASSP93, April 1993, Minneapolis, Vol
II, pp.383-386)、"Robust Discrimination in Automa
tic Speaker Identification" by Herbert Gish (Proc.
ICASSP 90,April 1990, Albuquerque, pp.289-292)等
に開示されている。)方法が利用できるので、ここでの
詳細な説明は省略する。
【0079】性別認識部1043は、話者の性別の認識
を行う。性別の認識は、一般的に知られているピッチの
判定による、男性と、女性又は子供との識別によって行
う。尚、本実施の形態では、性別により単語辞書を切り
替えるため、性別認識の結果は、単語認識辞書切替部1
047へと送られる。
【0080】内容認識部1044は、会話内容の認識を
行う。即ち、音素認識の結果、単語として認識された音
声データが、意味をなす単語であるか否かを、単語認識
辞書を参照して認識する。より具体的には、音素認識の
結果として得られた、連続した音声データを、単語認識
辞書に登録されている単語とマッチングすることによ
り、単語認識辞書から、意味のある単語としてもっとも
適切なものを選択する処理を行う。単語認識の方法につ
いても前述の資料(電子情報通信学会論文誌D−II,Vo
l.J77−D−II,No.3,pp.475-482)に開示されている方
法が利用できるので、ここでの詳細な説明は省略する。
【0081】パワー認識部1045は、音声認識に不適
切な音声パワーを有する波形データを識別し、そのよう
な不適切な波形データを認識に用いないように波形デー
タ分析部1041に指示する。音声パワーの算出方法に
ついては、既に詳細に説明したので、ここでの詳細な説
明は省略する。尚、ここでいう音声認識に不適切な音声
パワーを有する波形データとは、例えば、音声パワーが
大きすぎるものや、小さすぎるものである。
【0082】音素認識辞書切替部1046は、音素認識
辞書の切り替えを行う。本実施の形態では、図示はされ
ていないが、性別認識部1043による性別の判定に基
づいて音素認識辞書を切り替えるようにしている。
【0083】単語認識辞書切替部1047は、単語認識
辞書の切り替えを行う。前述の如く、本実施の形態の音
声認識装置は、性別認識部1043による性別の判定に
基づいて、単語認識辞書を切り替えるようにしているた
め、単語認識辞書切替部1047が、性別認識部104
3の判定結果に基づいて単語認識辞書を切り替える。
【0084】ここで、単語認識とは、前述の音素認識の
結果、単語として認識された音声データが、意味をなす
単語であるか否かを認識することをいう。具体的には、
音素認識の結果として得られた、連続した音声を、単語
認識辞書に登録されている単語とマッチングすることに
より、意味のある単語としてもっとも適切なものを選択
する。性別によって、音素認識辞書及び単語認識辞書を
切り替えるのは、性別により、通常用いられる単語等が
異なることから、例えば、男性用の辞書と、女性又は子
供用の辞書とを切り替えることで認識率の向上を図った
ものである。
【0085】音素認識辞書格納部105、単語認識辞書
格納部106、話者認識辞書格納部107には、それぞ
れ、前述の辞書が格納される。本実施の形態の音声認識
装置は、前述の如く、上位システム108からの再評価
の指示に従って、波形データ記憶部103に記憶されて
いる過去の波形データについて再評価を行う機能を有す
る。以下、上位システム108からの指示に従って波形
データの再評価を行う際の音声認識部104の処理内容
について説明する。
【0086】図10は、波形データの再評価を行う際の
音声認識部104の処理内容を示すフローチャートであ
る。同図に示されるように、音声認識部104は、まず
初期化処理を行う(S1001)。初期化処理とは、具
体的には、メモリ領域のクリア処理等をいう。
【0087】尚、本実施の形態の音声認識装置は、例え
ば上位システムからの動作終了通知を受けたか否かを判
定しており(S1002)、終了通知を受けた場合(S
1002:Yes)には、終了処理を行って(S100
3)、動作を終了する。
【0088】終了通知を受けていない場合は(S100
2:No)、上位システム108からの再評価要求があ
ったか否かを判定し(S1004)、再評価の要求があ
った場合(S1004:Yes)には、まず、再評価す
べきデータ数の確定処理を行う(S1005)。
【0089】図11は、再評価データ数確定処理の詳細
な処理内容を示すフローチャートである。同図に示され
るように、再評価データ数確定処理では、まず、再評価
要求データ数と再評価可能データ数とを比較する(S1
101)。ここで、再評価要求データ数とは、例えば上
位システム108から再評価を要求されたデータ数をい
い、上位システム108の利用目的等によって異なった
値となる。一方、再評価可能データ数とは、本発明に係
る音声認識装置において再評価が可能な波形データ数を
いい、波形データ記憶部103の記憶領域1032の容
量によって異なった値となる。
【0090】再評価要求データ数が、再評価可能データ
数を超えている場合(S1101:No)には、再評価
すべきデータ数は、再評価可能データ数となる(S11
02)。一方、再評価要求データ数が、再評価可能デー
タ数以下である場合(S1101:Yes)には、再評
価を要求されたデータの数だけ再評価することが可能で
あるので、再評価要求データ数が、再評価すべきデータ
数となる(S1103)。
【0091】再評価すべきデータ数が確定すると、図1
0のフローチャートに戻って、音声認識部104は、有
効音声データの確定処理を行う(S1006)。有効音
声データの確定処理とは、前述の如く、音声パワーが異
常であるため、音声認識に用いない方が良いと思われる
波形データを処理対象から除去する処理である。
【0092】図12は、有効音声データ確定処理の詳細
な処理内容を示すフローチャートである。音声認識部1
04は、再評価すべきデータ数として確定した分だけ波
形データ記憶部103から波形データを取り出して再評
価を行うが、まず、取り出された分の波形データのう
ち、未処理のデータがなくなるまで、パワー認識部10
45において、波形データの音声パワー時系列を算出す
る(S1201:Yes、S1202)。音声パワーの
時系列の算出方法は、既に詳細に説明したので、ここで
の詳細な説明は省略する。
【0093】全ての波形データについて音声パワー時系
列を算出すると(S1201:No)、平均音声パワー
が異常な波形データを処理対象のデータから排除する
(S1203)。
【0094】以下、平均音声パワーが異常な波形データ
を排除する方法について具体的に説明する。本実施の形
態では、平均音声パワーが異常な音声データか否かを以
下の条件で判定する。即ち、1)記憶領域1032のデ
ータスロットに格納されている各々のデータの平均パワ
ーについて、平均音声パワーが、格納されている全ての
データの平均パワーから一定値を減じた値を上回ってい
ること、具体的には、下記の数11の条件を満たすこ
と、
【0095】
【数11】
【0096】及び、2)波形が飽和していないこと、即
ち、波形データの振幅が一定の範囲内におさまっている
こと、を満たす場合に有効データと判定する。条件1)
は、音声パワーが小さすぎないこと、条件2)は、音声
パワーが大きすぎないことを判定するものである。
【0097】図13及び図14は、音声再評価の際の平
均音声パワーの判定の具体例について説明するための図
である。なお、本実施の形態では、上記条件1)におけ
る一定値は2000と規定されているものとする。
【0098】図13に示されるように、記憶領域103
2のデータスロットに波形データ1と波形データ2とが
格納されているとする。それぞれの波形データについて
音声パワーを検出した結果、波形データ1の平均パワー
が−3000、波形データ2の平均パワーが−6000
であったとすると、全ての波形データの平均パワーは−
4500となる。ここで、波形データ1と波形データ2
はともに条件1)を満たしているため、それぞれ有効な
音声データと判定されることとなる。
【0099】一方、図14に示す如く、記憶領域103
2のデータスロットに波形データ1、波形データ2及び
波形データ3が格納されているとする。それぞれの波形
データについて音声パワーを検出した結果、波形データ
1の平均パワーが−3000、波形データ2の平均パワ
ーが−6000、波形データ3の平均パワーが−300
0であったとすると、全ての波形データの平均パワーは
−4000となる。ここで、波形データ1、波形データ
2及び波形データ3の全てが飽和していないものとして
も、波形データ2は、条件1)を満たさないこととなる
ため、無効な音声データと判定されることとなる。
【0100】以上のような処理により、記憶領域103
2に記憶されている波形データのうち、どの波形データ
を再評価するかが確定するので、音声認識部104は、
実際に再評価されるべき波形データに関する情報、例え
ば、何秒前のデータが再評価されるか等の情報を上位シ
ステム108に通知する(S1204)。通知された情
報を如何に利用するかは、上位システム108の利用目
的等によって異なる。
【0101】有効音声データ確定処理により、再評価す
べき波形データが確定すると、図10のフローチャート
に戻って、音声認識部104は、発話内容の再評価を行
う。図15は、発話内容再評価処理の詳細な処理内容を
示すフローチャートである。同図に示されるように、発
話内容再評価処理においては、音声認識部104は、処
理すべき波形データとして確定した波形データ全てにつ
いて処理が終了するまで、発話内容を評価し(S150
2)、結果を上位システム108に通知する(S150
3)。
【0102】次に、以上のように構成された本発明の音
声認識装置の一適用例としての情報処理装置について説
明する。本適用例は、音声によりコマンドを入力して表
示画面上のアイコンを移動させることが可能な情報処理
装置に、本発明の音声認識装置を適用したものである。
以下、かかる情報処理装置の動作について説明し、本発
明の効果をより具体的に説明する。
【0103】図16は、本発明の音声認識装置を適用し
た情報処理装置の表示画面の一例を示す図である。この
情報処理装置では、音声により、例えば「Aに行け」、
「Bに行け」又は「Cに行け」等の命令を入力すること
により、画面上のアイコンOがそれぞれ図中に示された
A、B又はCの位置に移動するものとする。
【0104】ここで、例えば、発声内容が、「Bに行
け」、「それから」、「Aに行け」であったにもかかわ
らず、最初の音声認識の結果が「Bに行け」、「Cに行
け」、「Aに行け」であった場合について説明する。図
17は、この際の処理の順序を示した図である。同図に
おいて、「処理A」とは、アイコンOをAに位置に移動
させる処理をいい、「処理B」とは、アイコンOをBに
位置に移動させる処理をいう。また、「処理C」とは、
アイコンOをCに位置に移動させる処理である。同図に
示されるように、発声内容が認識された後に、それぞれ
の処理が開始されるとすると、画面上のアイコンOは、
図18に示されるように、まずBの位置に移動し、その
後、Cの位置に移動した後、Aの位置に移動することに
なる。
【0105】しかしながら、本発明の音声認識装置を適
用した場合は、音声データの再評価が可能である。即
ち、男女共通の辞書を用いていて、「それから」という
音声データが、「Cに行け」と認識された時点で、性別
認識部1043により性別の判定が行われ、話者が女性
であることが認識されたとすると、女性及び子供用の辞
書に切り替えられる。
【0106】本適用例において音声認識装置を利用する
上位システム108は、性別が判定されたことによる音
素認識辞書及び単語認識辞書の切り替えが行われたこと
を受けて、音声データの再評価の指示を行う。
【0107】図19は、その際の処理の様子を示す図で
ある。上位システム108からの再評価の指示を受け
て、音声データの再評価が行われた結果、「Cに行け」
と認識されていた音声データが、実は「それから」とい
う音声であったということが判明する。その結果、既に
処理Cが開始し、アイコンがBの位置からCの位置に向
かって移動を開始していたとすると、処理Cは中止さ
れ、「Aに行け」との発声が認識された時点から、Aの
位置に向かって移動が開始されることとなる。この場合
の動作は、図20に示すようになる。
【0108】以上に説明したように、本発明の音声認識
装置を適用すると、上位システム108における誤認識
による無駄な処理を少なくすることが可能となる。尚、
本実施の形態では、情報処理装置の例として、画面上の
アイコンを移動させる場合について説明したが、他のも
っと複雑な処理に適用することも、もちろん容易に行え
る。例えば、情報検索のキーワードを音声にて入力する
ような装置に適用した場合には、誤認識に基づく検索処
理を削減することが可能となり、本発明の効果も、より
大きなものとなる。
【0109】また、本実施の形態では、音声入力部10
1が一つの場合について説明したが、例えば音声入力部
101としてのマイクロホンを複数備え、それぞれから
入力された音声データについて音声認識を行うことも可
能である。そのような場合には、記憶領域1032を、
それぞれの音声入力部101に対応させて分割し、波形
データを記憶するようにすればよい。そのような構成に
すると、例えば、複数の話者による発声の認識も容易に
できるようになる。
【0110】また、本発明に係る音声認識装置のよう
に、音声認識の結果に基づいて、過去の音声データを理
解しなおすというのは、ある意味で、現実の人間が音声
を認識する際に無意識に行っているものということがで
きる。従って、本発明の音声認識装置は、例えば、仮想
的な生物の挙動をコンピュータに実行させるような場合
に適用することも可能である。
【0111】なお、本発明である音声認識装置を実現す
るプログラムを記憶した記憶媒体は、図21の記憶媒体
の例で示すように、CD−ROMやフロッピーディスク
等の可搬型記憶媒体だけでなく、回線先の他の記憶装置
や、コンピュータのハードディスクやRAM等の記憶媒
体のいずれでもよく、プログラム実行時には、プログラ
ムはローディングされ、主メモリ上で実行される。
【0112】
【発明の効果】以上に説明したように、本発明に係る音
声認識装置及びそれを用いた情報処理装置によれば、音
声データを記憶する記憶手段に記憶された音声データ
を、上位システムからの指示を受けて再評価することに
より、一度、誤認識された音声データについて、正しい
認識に修正することが可能となるので、音声データの誤
認識に基づく必要でない処理を削減することが可能にな
るという効果を奏する。
【図面の簡単な説明】
【図1】 本発明の一実施の形態に係る音声認識装置の
構成を示す機能ブロック図である。
【図2】 本実施の形態の音声認識装置の波形データ作
成部の詳細な構成を示す機能ブロック図である。
【図3】 本実施の形態の波形データリングバッファの
構成を示す図である。
【図4】 本実施の形態のフィルタ処理部に用いられる
フィルタの特性を示す図である。
【図5】 本実施の形態における音声区間の切り出しの
一例について説明するための図である。
【図6】 本実施の形態において音声区間の切り出しを
行う際の状態遷移を示す図である。
【図7】 本実施の形態の波形データ記憶部の記憶領域
の構成の一例を示す図である。
【図8】 本実施の形態の音声認識装置の波形データ分
析部の詳細な構成を示す機能ブロック図である。
【図9】 FFT部で求められたスペクトルパワーを、
メル尺度で16チャンネルに分割する際に用いるテーブ
ルの一例を示す図である。
【図10】 本実施の形態の音声認識装置において、音
声データの再評価を行う際の音声認識部の処理内容を示
すフローチャートである。
【図11】 本実施の形態の再評価データ数確定処理の
詳細な処理内容を示すフローチャートである。
【図12】 本実施の形態の有効音声データ確定処理の
詳細な処理内容を示すフローチャートである。
【図13】 音声再評価の際の平均音声パワーの判定の
具体例について説明するための図である。
【図14】 音声再評価の際の平均音声パワーの判定の
具体例について説明するための図である。
【図15】 本実施の形態の発話内容再評価処理の詳細
な処理内容を示すフローチャートである。
【図16】 本発明の音声認識装置の一適用例としての
情報処理装置の動作について説明するための図である。
【図17】 本発明の音声認識装置の一適用例としての
情報処理装置における音声認識について説明するための
図である。
【図18】 本発明の音声認識装置の一適用例としての
情報処理装置の動作について説明するための図である。
【図19】 本発明の音声認識装置の一適用例としての
情報処理装置における音声認識について説明するための
図である。
【図20】 本発明の音声認識装置の一適用例としての
情報処理装置の動作について説明するための図である。
【図21】 記憶媒体の例を示す図である。
【図22】 従来の音声認識装置の構成の一例を示す図
である。
【符号の説明】
101 音声入力部 102 波形データ作成部 103 波形データ記憶部 1031 波形データ書き込み部 1032 記憶領域 1033 波形データ読み出し部 104 音声認識部 1041 波形データ分析部 1042 話者認識部 1043 性別認識部 1044 内容認識部 1045 パワー認識部 1046 音素認識辞書切替部 1047 単語認識辞書切替部 105 音素認識辞書格納部 106 単語認識辞書格納部 107 話者認識辞書格納部 108 上位システム 201 音声データ入力部 202 波形データリングバッファ 203 フィルタ処理部 204 パワー計算部 205 ノイズレベル学習部 206 単語区間検出部 207 区間検出閾値テーブル格納部 801 窓処理部 802 FFT部 803 ノイズパターン学習部 804 サブトラクション部 805 メルスペクトル計算部 806 メルスペクトル格納部 807 音素認識部 91 回線先の記憶装置 92 CD−ROMやフロッピーディスク等の可
搬型記憶媒体 92−1 CD−ROM 92−2 フロッピーディスク 93 コンピュータ 94 コンピュータ上のRAM/ハードディスク
等の記憶媒体

Claims (14)

    【特許請求の範囲】
  1. 【請求項1】 音声データを記憶する記憶手段と、音声
    認識の結果を利用する上位システムからの要求を受け
    て、前記記憶手段に記憶されている音声データを再評価
    する再評価手段とを備えることを特徴とする音声認識装
    置。
  2. 【請求項2】 前記音声認識装置は、音声データから音
    声区間データを切り出す音声区間データ作成手段を備
    え、前記記憶手段は、前記音声区間データ作成手段によ
    り作成された音声区間データを記憶する請求項1に記載
    の音声認識装置。
  3. 【請求項3】 前記記憶手段は、前記音声区間データ作
    成手段により作成された音声区間データを複数セット記
    憶する複数のデータスロットを備える請求項2に記載の
    音声認識装置。
  4. 【請求項4】 前記音声認識装置は、前記音声区間デー
    タ作成手段を複数有し、前記記憶手段は、それぞれの音
    声区間データ作成手段ごとに、音声区間データを複数セ
    ット記憶するデータスロットを備える請求項3に記載の
    音声認識装置。
  5. 【請求項5】 前記音声認識装置はさらに、前記記憶手
    段に記憶されている音声データから、音声パワーを算出
    するパワー算出手段を備え、前記再評価手段は、前記パ
    ワー算出手段により算出された音声パワーが所定の範囲
    外である場合に、当該音声データを再評価しない請求項
    3又は4に記載の音声認識装置。
  6. 【請求項6】 前記音声認識装置はさらに、前記音声デ
    ータから話者の性別を判定する性別認識手段と、前記性
    別認識手段による判定結果に基づき、音素認識に用いる
    辞書を切り替える音素認識辞書切替手段とを備える請求
    項1から5のいずれかに記載の音声認識装置。
  7. 【請求項7】 前記音声認識装置はさらに、前記音声デ
    ータから話者の性別を判定する性別認識手段と、前記性
    別認識手段による判定結果に基づき、単語認識に用いる
    辞書を切り替える単語認識辞書切替手段とを備える請求
    項1から5のいずれかに記載の音声認識装置。
  8. 【請求項8】 前記音声認識装置はさらに、前記性別認
    識手段による判定結果に基づき、単語認識に用いる辞書
    を切り替える単語認識辞書切替手段とを備える請求項6
    に記載の音声認識装置。
  9. 【請求項9】 前記音声認識装置はさらに、前記音声デ
    ータから話者を判定する話者認識手段を備える請求項1
    から8のいずれかに記載の音声認識装置。
  10. 【請求項10】 入力を受け付ける入力受付手段を備え
    る情報処理装置であって、前記入力受付手段として請求
    項1から9のいずれかに記載の音声認識装置を用いる情
    報処理装置。
  11. 【請求項11】 請求項6に記載の音声認識装置を用い
    る情報処理装置であって、前記音素認識辞書切替手段に
    より、音素認識辞書が切り替えられた際に、前記記憶手
    段に記憶されている音声データの再評価を要求する情報
    処理装置。
  12. 【請求項12】 請求項7に記載の音声認識装置を用い
    る情報処理装置であって、前記単語認識辞書切替手段に
    より、単語認識辞書が切り替えられた際に、前記記憶手
    段に記憶されている音声データの再評価を要求する情報
    処理装置。
  13. 【請求項13】 請求項8に記載の音声認識装置を用い
    る情報処理装置であって、前記音素認識辞書切替手段に
    より、音素認識辞書が切り替えられた際、又は前記単語
    認識辞書切替手段により、単語認識辞書が切り替えられ
    た際に、前記記憶手段に記憶されている音声データの再
    評価を要求する情報処理装置。
  14. 【請求項14】 音声データから、音声区間データを切
    り出す切り出しステップと、前記切り出しステップにお
    いて切り出された音声区間データを、複数のデータスロ
    ットに順次格納する格納ステップと、音声認識の結果を
    利用する上位システムから、前記音声区間データの再評
    価の要求を受け付ける要求受付ステップと、前記要求に
    従って、音声区間データの再評価を行う再評価ステップ
    とを実行するプログラムを記憶したコンピュータで読み
    取り可能な記憶媒体。
JP31791997A 1997-11-19 1997-11-19 音声認識装置及びそれを用いた情報処理装置 Expired - Fee Related JP3886024B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP31791997A JP3886024B2 (ja) 1997-11-19 1997-11-19 音声認識装置及びそれを用いた情報処理装置
US09/046,568 US6122615A (en) 1997-11-19 1998-03-24 Speech recognizer using speaker categorization for automatic reevaluation of previously-recognized speech data

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP31791997A JP3886024B2 (ja) 1997-11-19 1997-11-19 音声認識装置及びそれを用いた情報処理装置

Publications (2)

Publication Number Publication Date
JPH11153999A true JPH11153999A (ja) 1999-06-08
JP3886024B2 JP3886024B2 (ja) 2007-02-28

Family

ID=18093517

Family Applications (1)

Application Number Title Priority Date Filing Date
JP31791997A Expired - Fee Related JP3886024B2 (ja) 1997-11-19 1997-11-19 音声認識装置及びそれを用いた情報処理装置

Country Status (2)

Country Link
US (1) US6122615A (ja)
JP (1) JP3886024B2 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004502985A (ja) * 2000-06-29 2004-01-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 以後のオフライン音声認識のための音声情報を記録する記録装置
JP2007064819A (ja) * 2005-08-31 2007-03-15 Ho Jinyama 信号検査方法および信号検査モジュール
JP2013195823A (ja) * 2012-03-21 2013-09-30 Toshiba Corp 対話支援装置、対話支援方法および対話支援プログラム
JP2018507446A (ja) * 2015-03-06 2018-03-15 ゼテス・インダストリーズ・エス・ア 音声認識結果の後処理のための方法およびシステム

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6665644B1 (en) * 1999-08-10 2003-12-16 International Business Machines Corporation Conversational data mining
CH695402A5 (de) * 2000-04-14 2006-04-28 Creaholic Sa Verfahren zur Bestimmung eines charakteristischen Datensatzes für ein Tonsignal.
US6915246B2 (en) * 2001-12-17 2005-07-05 International Business Machines Corporation Employing speech recognition and capturing customer speech to improve customer service
US7058565B2 (en) * 2001-12-17 2006-06-06 International Business Machines Corporation Employing speech recognition and key words to improve customer service
USH2187H1 (en) * 2002-06-28 2007-04-03 Unisys Corporation System and method for gender identification in a speech application environment
EP1567941A2 (en) 2002-11-28 2005-08-31 Koninklijke Philips Electronics N.V. Method to assign word class information
US7340398B2 (en) * 2003-08-21 2008-03-04 Hewlett-Packard Development Company, L.P. Selective sampling for sound signal classification
WO2005062295A1 (ja) * 2003-12-05 2005-07-07 Kabushikikaisha Kenwood 機器制御装置、音声認識装置、エージェント装置及び機器制御方法
US7873149B2 (en) * 2004-06-01 2011-01-18 Verizon Business Global Llc Systems and methods for gathering information
US8392193B2 (en) * 2004-06-01 2013-03-05 Verizon Business Global Llc Systems and methods for performing speech recognition using constraint based processing
ATE403928T1 (de) * 2006-12-14 2008-08-15 Harman Becker Automotive Sys Sprachdialogkontrolle basierend auf signalvorverarbeitung
JP4812029B2 (ja) * 2007-03-16 2011-11-09 富士通株式会社 音声認識システム、および、音声認識プログラム
GB2451907B (en) * 2007-08-17 2010-11-03 Fluency Voice Technology Ltd Device for modifying and improving the behaviour of speech recognition systems
JP5024154B2 (ja) * 2008-03-27 2012-09-12 富士通株式会社 関連付け装置、関連付け方法及びコンピュータプログラム
KR101625668B1 (ko) 2009-04-20 2016-05-30 삼성전자 주식회사 전자기기 및 전자기기의 음성인식방법
US8983640B2 (en) 2009-06-26 2015-03-17 Intel Corporation Controlling audio players using environmental audio analysis
EP2518723A4 (en) * 2009-12-21 2012-11-28 Fujitsu Ltd VOICE CONTROL DEVICE AND VOICE CONTROL METHOD
CN102831890A (zh) * 2011-06-15 2012-12-19 镇江佳得信息技术有限公司 一种对文本无关的声纹进行识别的方法
US10706873B2 (en) * 2015-09-18 2020-07-07 Sri International Real-time speaker state analytics platform
DE102017219596A1 (de) * 2016-12-22 2018-06-28 Volkswagen Aktiengesellschaft Sprachausgabestimme eines Sprachbediensystems
US10467339B1 (en) * 2018-06-28 2019-11-05 Sap Se Using machine learning and natural language processing to replace gender biased words within free-form text
JP7458371B2 (ja) * 2019-03-18 2024-03-29 富士通株式会社 話者識別プログラム、話者識別方法、および話者識別装置

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57104193A (en) * 1980-12-19 1982-06-29 Matsushita Electric Ind Co Ltd Voice recognizer
JPS60129795A (ja) * 1983-12-16 1985-07-11 沖電気工業株式会社 音声認識方式
JPS6127600A (ja) * 1984-07-17 1986-02-07 日本電気株式会社 音声識別回路
JPS6148897A (ja) * 1984-08-16 1986-03-10 松下電器産業株式会社 音声認識装置
JPH06102894A (ja) * 1992-09-22 1994-04-15 Toshiba Corp 音声認識装置
JPH075891A (ja) * 1993-06-16 1995-01-10 Canon Inc 音声対話方法および装置
JPH08278797A (ja) * 1995-04-10 1996-10-22 Fujitsu Ten Ltd 音声処理装置
JPH096389A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
JPH0968998A (ja) * 1995-08-31 1997-03-11 Matsushita Electric Ind Co Ltd 音声認識方法及び音声認識装置

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5640490A (en) * 1994-11-14 1997-06-17 Fonix Corporation User independent, real-time speech recognition system and method
US5864810A (en) * 1995-01-20 1999-01-26 Sri International Method and apparatus for speech recognition adapted to an individual speaker
US5855000A (en) * 1995-09-08 1998-12-29 Carnegie Mellon University Method and apparatus for correcting and repairing machine-transcribed input using independent or cross-modal secondary input
US5712957A (en) * 1995-09-08 1998-01-27 Carnegie Mellon University Locating and correcting erroneously recognized portions of utterances by rescoring based on two n-best lists
US5960447A (en) * 1995-11-13 1999-09-28 Holt; Douglas Word tagging and editing system for speech recognition
US5787394A (en) * 1995-12-13 1998-07-28 International Business Machines Corporation State-dependent speaker clustering for speaker adaptation
US5895447A (en) * 1996-02-02 1999-04-20 International Business Machines Corporation Speech recognition using thresholded speaker class model selection or model adaptation
US5857099A (en) * 1996-09-27 1999-01-05 Allvoice Computing Plc Speech-to-text dictation system with audio message capability
GB2303955B (en) * 1996-09-24 1997-05-14 Allvoice Computing Plc Data processing method and apparatus

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS57104193A (en) * 1980-12-19 1982-06-29 Matsushita Electric Ind Co Ltd Voice recognizer
JPS60129795A (ja) * 1983-12-16 1985-07-11 沖電気工業株式会社 音声認識方式
JPS6127600A (ja) * 1984-07-17 1986-02-07 日本電気株式会社 音声識別回路
JPS6148897A (ja) * 1984-08-16 1986-03-10 松下電器産業株式会社 音声認識装置
JPH06102894A (ja) * 1992-09-22 1994-04-15 Toshiba Corp 音声認識装置
JPH075891A (ja) * 1993-06-16 1995-01-10 Canon Inc 音声対話方法および装置
JPH08278797A (ja) * 1995-04-10 1996-10-22 Fujitsu Ten Ltd 音声処理装置
JPH096389A (ja) * 1995-06-22 1997-01-10 Seiko Epson Corp 音声認識対話処理方法および音声認識対話装置
JPH0968998A (ja) * 1995-08-31 1997-03-11 Matsushita Electric Ind Co Ltd 音声認識方法及び音声認識装置

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004502985A (ja) * 2000-06-29 2004-01-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ 以後のオフライン音声認識のための音声情報を記録する記録装置
JP4917729B2 (ja) * 2000-06-29 2012-04-18 ニュアンス コミュニケーションズ オーストリア ゲーエムベーハー 以後のオフライン音声認識のための音声情報を記録する記録装置
JP2007064819A (ja) * 2005-08-31 2007-03-15 Ho Jinyama 信号検査方法および信号検査モジュール
JP2013195823A (ja) * 2012-03-21 2013-09-30 Toshiba Corp 対話支援装置、対話支援方法および対話支援プログラム
JP2018507446A (ja) * 2015-03-06 2018-03-15 ゼテス・インダストリーズ・エス・ア 音声認識結果の後処理のための方法およびシステム

Also Published As

Publication number Publication date
JP3886024B2 (ja) 2007-02-28
US6122615A (en) 2000-09-19

Similar Documents

Publication Publication Date Title
JPH11153999A (ja) 音声認識装置及びそれを用いた情報処理装置
US20230409102A1 (en) Low-power keyword spotting system
JP4568371B2 (ja) 少なくとも2つのイベント・クラス間を区別するためのコンピュータ化された方法及びコンピュータ・プログラム
JP3284832B2 (ja) 音声認識対話処理方法および音声認識対話装置
JP3126985B2 (ja) 音声認識システムの言語モデルのサイズを適応させるための方法および装置
KR101056511B1 (ko) 실시간 호출명령어 인식을 이용한 잡음환경에서의음성구간검출과 연속음성인식 시스템
US6751595B2 (en) Multi-stage large vocabulary speech recognition system and method
JP5098613B2 (ja) 音声認識装置及びコンピュータプログラム
CN106875936B (zh) 语音识别方法及装置
US7177810B2 (en) Method and apparatus for performing prosody-based endpointing of a speech signal
WO2010128560A1 (ja) 音声認識装置、音声認識方法、及び音声認識プログラム
EP1376537B1 (en) Apparatus, method, and computer-readable recording medium for recognition of keywords from spontaneous speech
KR101122590B1 (ko) 음성 데이터 분할에 의한 음성 인식 장치 및 방법
JP5183120B2 (ja) 平方根ディスカウンティングを使用した統計的言語による音声認識
CN113327596B (zh) 语音识别模型的训练方法、语音识别方法和装置
CN109065026B (zh) 一种录音控制方法及装置
KR101122591B1 (ko) 핵심어 인식에 의한 음성 인식 장치 및 방법
US8140334B2 (en) Apparatus and method for recognizing voice
JP4791857B2 (ja) 発話区間検出装置及び発話区間検出プログラム
KR20210081166A (ko) 다국어 음성 환경에서의 언어 식별 장치 및 방법
JP5296455B2 (ja) 話者識別装置、及びコンピュータプログラム
KR102418256B1 (ko) 언어 모델 개량을 통한 짧은 단어 인식 장치 및 방법
JP2011118290A (ja) 音声認識装置
Heck et al. Segmentation of telephone speech based on speech and non-speech models
JP3493849B2 (ja) 音声認識装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20050628

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20050705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050905

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060629

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060828

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20060914

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20061116

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20061117

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091201

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101201

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111201

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121201

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131201

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees