JP3434730B2 - 音声認識方法および装置 - Google Patents

音声認識方法および装置

Info

Publication number
JP3434730B2
JP3434730B2 JP14154899A JP14154899A JP3434730B2 JP 3434730 B2 JP3434730 B2 JP 3434730B2 JP 14154899 A JP14154899 A JP 14154899A JP 14154899 A JP14154899 A JP 14154899A JP 3434730 B2 JP3434730 B2 JP 3434730B2
Authority
JP
Japan
Prior art keywords
noise
pattern
environment
voice
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP14154899A
Other languages
English (en)
Other versions
JP2000330587A (ja
Inventor
隆司 横溝
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Electronics Corp
Original Assignee
NEC Electronics Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Electronics Corp filed Critical NEC Electronics Corp
Priority to JP14154899A priority Critical patent/JP3434730B2/ja
Publication of JP2000330587A publication Critical patent/JP2000330587A/ja
Application granted granted Critical
Publication of JP3434730B2 publication Critical patent/JP3434730B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Navigation (AREA)

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、音声認識方法およ
び装置に関し、特に環境を学習する機能(環境適応)を
持った音声認識において、極端に異なる環境へ急激に遷
移した場合、直前の環境に対応する雑音パターンを蓄え
ておくことにより、急激な認識性能の低下を防止するよ
うにした音声認識方法および装置に関する。
【0002】
【従来の技術】音声認識装置を、非定常雑音の多い環境
で使用する場合、例えば、車載のカーナビゲーション装
置に音声入力で指示するような場合、背景雑音が存在す
るため一般に認識率が低下する。このような環境におい
て認識率を向上させるには、雑音パターンの学習が有効
であることが知られている。
【0003】特に非定常雑音の多い環境で使用される音
声認識の雑音学習方式が、特開平5−46196号公報
に開示されている。この公報に記載の雑音学習方式によ
れば、過去の入力音声パターンから非定常雑音を含む複
数の雑音パターンを学習し、非定常雑音が付加された入
力音声を正しく認識することを目的としたものであり、
非音声区間と判断されたパターンから、定常雑音および
非定常雑音を環境学習している。これを雑音パターン記
憶部に登録し、次に入力された音声に対し、抽出された
音声の特徴と標準パターンとのマッチング処理を行うと
きに、過去の環境学習によって作られ情報を加味し、マ
ッチング処理を行っている。これにより、非定常雑音の
多い環境でも高い認識率が維持可能となる。
【0004】このような方式では、雑音学習は繰り返す
ほどに環境へ収束し、効果が向上するが、複数の雑音環
境が交互に出現する場合には、学習を収束させることが
できない。このため、突発的な環境の変化や複数の環境
が交互に現れるといった環境に対応できず、環境が変化
すると認識性能が低下する。
【0005】このような環境の変化に対応するように、
対雑音性能を向上させた音声認識としては、特開平3−
127099号公報に記載のものが知られている。この
公報に記載の技術によれば、複数の標準パターン記憶手
段のうち、周囲雑音のレベルに適した重みを有する雑音
成分を付加した単語音声の標準パターン群を記憶した標
準パターン記憶手段を選択することにより、音声認識装
置がさまざまな周囲雑音の場所に設置された場合でも、
認識率が向上するようにしている。
【0006】
【発明が解決しようとする課題】前記特開平5−461
96号公報に記載の音声認識装置は、前述したように環
境が変化した場合には認識率が低下するという問題があ
り、また前記特開平3−127099号公報に記載の音
声認識装置では、突発的な環境変化に対応するために
は、さまざまな周囲雑音のレベルに適した重みを有する
雑音成分を付加した単語音声の多量の標準パターン群を
記憶した標準パターンを予め準備しておかなければいけ
ないという問題がある。
【0007】本発明の目的は、雑音成分を付加した標準
パターンを予め準備するのではなく、複数の特定レベル
で区分された雑音パターンのみを学習により、あるいは
予め準備しておくことにより、突発的な環境の変化や複
数の環境が交互に現れるといった環境に対応できる音声
認識装置および方法を提供することにある。
【0008】
【課題を解決するための手段】本発明によれば、マイク
より入力された音声は、音声の切出し,特徴の抽出が行
われる。ここで音声を切出す際に、分析開始から音声の
始端検出までの入力信号をもとに、背景雑音パターンの
検出を行う。検出された背景雑音パターンを、或る閾値
をインデクスとしてn個に分割した環境学習データへ保
管する。これにより、雑音環境毎に適した環境学習デー
タを蓄積する。
【0009】音声の認識は、抽出された音声の特徴と、
標準パターンとをマッチング処理することにより行う。
このとき、n種類ある環境学習データの中から、認識時
の背景雑音レベルに最も近い雑音レベルを持った環境学
習データを用いて、マッチング処理を行う。これによ
り、急激に環境が変わった場合、複数の環境が交互に現
れる場合などでも、認識率の向上を図ることが可能とな
る。
【0010】
【発明の実施の形態】
【0011】
【第1の実施例】図1は、本発明の第1の実施例の音声
認識装置の構成を示す図である。図2は、本実施例の音
声認識処理を示すフローチャートである。本実施例で
は、マイクを1本用い、この1本のマイクにより背景雑
音の含まれた音声を取り込むものとする。
【0012】図1および図2を参照して本実施例の音声
認識装置の構成およびその動作を説明する。なお図3
に、本実施例における背景雑音を含む入力音声の波形を
示す。この入力音声波形は、分析が開始される最初のフ
レームである第1フレームに背景雑音のみ存在し、第2
フレームの途中から音声が始まっている状態を示してい
る。
【0013】マイクからの入力は、入力に先立って入力
開始ボタン等からの入力開始信号(不図示)によって開
始される場合もあり、また、常に入力状態にあって、音
声入力を識別する手段(不図示)によって音声と判断で
きる入力があると音声認識動作を開始する場合もある
が、前者の場合には、入力開始から音声入力開始までに
間隔があるのが通例であり、また、後者の場合には、音
声認識に先立つ入力も記憶しておくのが通例であり、い
ずれの場合にも、音声入力に先立って、背景雑音のみが
存在している時間があることになる。
【0014】マイク10より入力されたアナログの音声
は、音声取込み部12に入力される。音声取込み部12
では、背景雑音を含む入力音声を、ある微小一定時間
(例えば20mS)のフレーム単位で取り込み(ステッ
プS1)、デジタル化を行う。デジタル化された入力音
声は、分析部14に入力される。分析部14では、フレ
ーム単位で特徴の抽出を行う(ステップS2)。特徴の
抽出は、フィルタバンク分析,線形予測分析,離散フー
リエ変換分析等により行うことができる。抽出された特
徴は、入力パターンとして、音声検出部16へ入力さ
れ、音声検出処理される(ステップS3)。
【0015】音声検出部16では、入力パターンについ
て、一定の閾値以上の値のパワーが一定時間以上継続し
たか否かで、音声であるか非音声であるかを判定する
(ステップS4)。すなわち、一定の閾値以上の値のパ
ワーが一定時間以上継続した場合には、音声であるとす
る。音声ならば、入力パターンを認識部18に送り、非
音声ならば入力パターンを雑音環境検出部20へ送る。
【0016】図3の入力音声波形では、第1フレームは
背景雑音のみであるので、入力パターンは雑音環境検出
部20へ送られる。
【0017】雑音環境検出部20では、入力パターンに
ついてのSN比(フレーム内音声区間と背景雑音区間の
SN比),雑音レベル(背景雑音区間のレベル),また
は周波数成分(背景雑音区間の周波数成分)の情報よ
り、雑音パターンを検出し、検出された雑音パターンの
レベルから、雑音環境種別を検出する(ステップS
5)。雑音環境種別は、或る閾値をインデックスとして
区分されたn個の種別に分けられている。
【0018】また、雑音環境検出部20から、雑音パタ
ーンが環境学習部24に送られ、環境学習部24では、
送られてきた雑音パターンを学習し、雑音パターンを前
記雑音環境種別に対応するn個の環境学習データ格納部
26−1,26−2,…,26−nのいずれかに格納す
る(ステップS6)。一方、検出された雑音環境種別
は、雑音環境種別格納部22に格納される(ステップS
7)。
【0019】音声検出部16では、第1フレームは背景
雑音のみであるか否かを判断する(ステップS8)。こ
の場合、背景雑音のみであるので処理は終了する。
【0020】第2フレームでは、音声検出部16は、初
めの部分は背景雑音のみが、続いて音声が入力されてい
ると判断する。ステップS5で第2フレームの背景雑音
により雑音環境種別を検出した後、ステップS8で、第
2フレームは、背景雑音のみではないと判断して、処理
はステップS9に進む。
【0021】ステップS9において、雑音環境検出部2
0が環境種別読出し部28を指示して、第1フレームの
背景雑音にもとづいて雑音環境種別格納部22に格納さ
れている環境種別を読出し(ステップS9)、対応する
雑音パターンが格納されている環境学習データ格納部2
6−1,26−2,…,26−nのいずれかを選択す
る。選択された格納部から雑音パターンが読出されて認
識部18に供給される。
【0022】一方、標準パターン格納部30には、予め
多数話者の音声から抽出・学習した音声単位の標準パタ
ーンが格納されており、認識部18では、音声検出部1
6の出力する第2フレームの入力パターンから雑音パタ
ーンを減算する(ステップS10)。
【0023】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS11)。
【0024】以降、第3フレーム,第4フレーム,…に
ついても同様の処理をして、音声認識を行う。
【0025】本実施例によれば、種々の雑音パターン
が、学習によりそのレベルにより区分されて、それぞれ
対応する格納部に環境学習データとして保存されている
ので、例えばカーナビゲーション装置を搭載した車が走
行している場合、道路の状態や、トンネルを通過すると
きなど背景雑音が急激に変化した場合に、現在の認識時
の背景雑音に近い環境学習データを読出し、これを参照
してマッチング処理を行うことができるので、認識率の
低下を防止することが可能となる。
【0026】
【第2の実施例】図4は、本発明の第2の実施例の音声
認識装置の構成を示す図である。この音声認識装置の構
成は、図1の音声認識装置とほぼ同じであるが、環境種
別読出し部28が、音声検出部16から指示される点が
異なっている。図5は、本実施例の音声認識処理を示す
フローチャートである。
【0027】本実施例では、マイクを1本用い、この1
本のマイクにより背景雑音の含まれた音声を取り込むも
のとする。この実施例が、第1の実施例と異なる点は、
認識処理の第1番目のフレームでは、音声が入力される
以前に必ず背景雑音区間が存在するという前提で、第1
フレーム目の先頭で検出した背景雑音を、認識処理全て
に適応させることである。図6は、背景雑音を含む入力
音声の波形を示す図である。この波形は、第1フレーム
に背景雑音が必ず存在している状態を示している。
【0028】音声取込部12が1本のマイク10より図
6に示す波形の背景雑音を含む音声を取込むと(ステッ
プS1)、分析部14は、第1フレームから特徴の抽出
を行う(ステップS2)。第1フレームの特徴は、入力
パターンとして、音声検出部16へ入力され、音声検出
処理される(ステップS3)。
【0029】音声検出部16では、現在処理しているフ
レームが第1フレーム目であるか否かを判断する(ステ
ップS4)。第1フレーム目であるので、雑音環境検出
部20では、雑音パターンを検出し、検出された雑音パ
ターンのレベルから、雑音環境種別を検出する(ステッ
プS5)。
【0030】また、雑音環境検出部20から雑音パター
ンが環境学習部24に送られ、環境学習部24では、送
られてきた雑音パターンを学習し、雑音パターンを対応
する環境学習データ格納部26−1,26−2,…,2
6−nのいずれかに格納する(ステップS6)。一方、
検出された雑音種別環境は、雑音環境種別格納部22に
格納される(ステップS7)。
【0031】音声検出部16では、第1フレームは背景
雑音のみであるか否かを判断する(ステップS8)。こ
の場合、背景雑音のみであるので処理は終了する。も
し、音声が続いているならば、ステップS9へ進む。
【0032】第2フレームでは、ステップS4で第1フ
レームではないと判断され、ステップS9に進む。ステ
ップS9において、音声検出部16は第1フレームの背
景雑音に基づいて既に検出されている雑音環境種別によ
り環境種別読出し部28を指示して、雑音環境種別格納
部22に格納されている環境種別を読出し(ステップS
9)、対応する雑音パターンが格納されている環境学習
データ格納部26−1,26−2,…,26−nのいず
れかが選択される。選択された格納部から雑音パターン
が読出されて認識部18に供給される。認識部18で
は、音声検出部16の出力する入力パターンから雑音パ
ターンを減算する(ステップS10)。
【0033】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS11)。
【0034】本実施例では、第1フレームに必ず存在す
る背景雑音により背景種別を検出し、第2フレーム以降
では、雑音環境種別の検出を行わないので、第1の実施
例に比べて処理が簡単になるという利点がある。
【0035】
【第3の実施例】図7は、本発明の第3の実施例の音声
認識装置の構成を示す図である。図8は、本実施例の音
声認識処理を示すフローチャートである。本実施例で
は、音声入力用マイク10a(以下、音声マイクとい
う)、背景雑音入力用マイク10b(以下、雑音マイク
という)の2本のマイクを用いて取り込むものとする。
【0036】本実施例の動作を、図7および図8を参照
して説明する。なお、図9は、音声マイクの入力波形,
雑音マイクに波形をそれぞれ示している。
【0037】音声取込部12が音声マイク10aおよび
雑音マイク10bにより図8(a),(b)に示す波形
の背景雑音を含む音声と背景雑音とを取込むと(ステッ
プS1)、分析部14は、それぞれの波形についてフレ
ーム単位で特徴の抽出を行う(ステップS2)。音声マ
イク10aから得られた特徴は、音声検出部16へ、雑
音マイク10bから得られた特徴は、雑音環境検出部2
0へ送られる。
【0038】雑音環境検出部20では、雑音マイクから
得た特徴に基づいて、雑音環境種別を検出する。この検
出は、SN比(音声マイクと雑音マイクとのSN比),
雑音レベル(雑音マイクへの入力レベル),または周波
数成分(雑音マイク信号の周波数分析結果)の情報よ
り、雑音パターンを検出し、検出された雑音パターンの
レベルから、雑音環境種別を検出する(ステップS
3)。
【0039】また、雑音環境検出部20から、雑音パタ
ーンが環境学習部24に送られ、環境学習部24では、
送られてきた雑音パターンを学習し、雑音パターンを対
応する環境学習データ格納部26−1,26−2,…,
26−nのいずれかに格納する(ステップS4)。一
方、検出された雑音環境種別は、雑音環境種別格納部2
2に格納される(ステップS5)。
【0040】音声検出部16は、音声マイクから得られ
た特徴に基づいて、音声が入力されていると判断すると
(ステップS6)、雑音マイク10bにより取込まれ、
ステップS3で検出されている雑音種に基づき環境種
別読出し部28を指示して、雑音環境種別格納部22に
格納されている環境種別を読出し(ステップS7)、対
応する雑音パターンが格納されている環境学習データ格
納部26−1,26−2,…,26−nのいずれかが選
択される。選択された格納部から雑音パターンが読出さ
れて、認識部18に供給される。認識部18では、音声
検出部16の出力する入力パターンから雑音パターンを
減算する(ステップS8)。
【0041】認識部18では、入力パターンから雑音パ
ターンを減算したものと、標準パターンとを比較し、そ
の類似度を算出する。すなわちマッチング処理を行う
(ステップS9)。
【0042】以上の実施例では、背景雑音を専用の雑音
マイクで取込むようにしているので、音声検出部では、
音声のみの検出を行えばよく、処理が簡単になるという
利点がある。また、雑音マイクを取付ける位置は、音声
を取込まないような箇所を選択することにより、より正
確な背景雑音を学習することができるので認識率がさら
に向上する。
【0043】以上の3つの実施例では、環境学習により
雑音パターンを格納するが、学習によることなく、初期
値として予め得た雑音パターンを格納部26−1,26
−2,…,26−nに格納しておくこともできる。この
場合には、環境学習部24は不要となる。
【0044】
【発明の効果】本発明によれば、環境学習データをその
環境の種類毎に複数のデータベースとして保持してお
き、認識処理時に、その時の環境状態に一番適切な環境
学習データを用いて認識処理を行うため、急激に環境が
変わった場合、複数の環境が交互に現れる場合などで
も、認識率の向上を図ることができる。
【図面の簡単な説明】
【図1】本発明の第1の実施例の音声認識装置の構成を
示す図である。
【図2】第1の実施例の動作説明のためのフローチャー
トである。
【図3】背景雑音を含む入力音声の波形を示す図であ
る。
【図4】本発明の第2の実施例の音声認識装置の構成を
示す図である。
【図5】第2の実施例の動作説明のためのフローチャー
トである。
【図6】背景雑音を含む入力音声の波形を示す図であ
る。
【図7】本発明の第3の実施例の音声認識装置の構成を
示す図である。
【図8】第3の実施例の動作説明のためのフローチャー
トである。
【図9】音声マイクの入力波形,雑音マイクの波形をそ
れぞれ示す図である。
【符号の説明】
10 マイク 12 音声取込み部 14 分析部 16 音声検出部 18 認識部 20 雑音環境検出部 22 雑音環境種別格納部 24 環境学習部 26 環境学習データ格納部

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】1本のマイクから背景雑音を含む音声を取
    込む音声取込み部と、 取込まれた前記音声から特徴を抽出して入力パターンと
    して出力する分析部と、 前記入力パターンについて、第1フレームであるか否か
    を判定する音声検出部と、 前記入力パターンが第1フレームである場合には、前記
    入力パターンから雑音パターンを検出し、雑音パターン
    のレベルから雑音環境種別を検出する雑音環境検出部
    と、 検出された雑音環境種別を格納する雑音環境種別格納部
    と、 複数個の環境学習データ格納部と、 前記雑音パターンを学習し、雑音パターンを、前記雑音
    環境種別に対応する前記環境学習データ格納部に格納す
    る環境学習部と、 前記音声検出部が、前記入力パターンは第2フレーム目
    以降であることを検出すると、前記雑音環境種別格納部
    に格納されている雑音環境種別を読出し、対応する前記
    環境学習データ格納部を選択する環境種別読出し部と、 前記音声検出部から出力される入力パターンから前記選
    択された環境学習データ格納部から読出された雑音パタ
    ーンを減算して、予め格納されている標準パターンとパ
    ターンマッチングする認識部と、を備えることを特徴と
    する音声認識装置。
  2. 【請求項2】背景雑音を含む音声を認識する方法におい
    て、 1本のマイクから背景雑音を含む音声を取込むステップ
    と、 取込まれた前記音声から特徴を抽出して入力パターンと
    して出力するステップと、 前記入力パターンについて、第1フレームであるか否か
    を判定するステップと、 前記入力パターンが第1フレームである場合には、前記
    入力パターンから雑音パターンを検出し、雑音パターン
    のレベルから雑音環境種別を検出するステップと、 検出された雑音環境種別を格納するステップと、 前記雑音パターンを学習し、雑音パターンを、前記雑音
    環境種別に対応する環境学習データ格納部に格納するス
    テップと、 前記入力パターンが第2フレーム目以降である場合に
    は、前記格納されている雑音環境種別を読出し、対応す
    る前記環境学習データ格納部を選択するステップと、 前記入力パターンから前記選択された環境学習データ格
    納部から読出された雑音パターンを減算して、予め格納
    されている標準パターンとパターンマッチングするステ
    ップと、を含むことを特徴とする音声認識方法。
JP14154899A 1999-05-21 1999-05-21 音声認識方法および装置 Expired - Fee Related JP3434730B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP14154899A JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP14154899A JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Publications (2)

Publication Number Publication Date
JP2000330587A JP2000330587A (ja) 2000-11-30
JP3434730B2 true JP3434730B2 (ja) 2003-08-11

Family

ID=15294537

Family Applications (1)

Application Number Title Priority Date Filing Date
JP14154899A Expired - Fee Related JP3434730B2 (ja) 1999-05-21 1999-05-21 音声認識方法および装置

Country Status (1)

Country Link
JP (1) JP3434730B2 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3838029B2 (ja) * 2000-12-18 2006-10-25 セイコーエプソン株式会社 音声認識を用いた機器制御方法および音声認識を用いた機器制御システム
US7209881B2 (en) 2001-12-20 2007-04-24 Matsushita Electric Industrial Co., Ltd. Preparing acoustic models by sufficient statistics and noise-superimposed speech data
US7813921B2 (en) 2004-03-31 2010-10-12 Pioneer Corporation Speech recognition device and speech recognition method
JP5388447B2 (ja) * 2005-07-15 2014-01-15 ヤマハ株式会社 発音期間を特定する音信号処理装置および音信号処理方法
WO2009038136A1 (ja) * 2007-09-19 2009-03-26 Nec Corporation 雑音抑圧装置、その方法及びプログラム
KR101628112B1 (ko) * 2014-12-08 2016-06-08 현대자동차 주식회사 차량의 음성인식을 위한 노이즈 제거 장치 및 방법
JP6511897B2 (ja) * 2015-03-24 2019-05-15 株式会社Jvcケンウッド 雑音低減装置、雑音低減方法及びプログラム
US11270074B2 (en) * 2018-01-16 2022-03-08 Sony Corporation Information processing apparatus, information processing system, and information processing method, and program
US11011182B2 (en) * 2019-03-25 2021-05-18 Nxp B.V. Audio processing system for speech enhancement
US11894017B2 (en) * 2019-07-25 2024-02-06 Nippon Telegraph And Telephone Corporation Voice/non-voice determination device, voice/non-voice determination model parameter learning device, voice/non-voice determination method, voice/non-voice determination model parameter learning method, and program
CN113010119B (zh) * 2021-04-27 2022-09-30 宏图智能物流股份有限公司 一种通过主备方式实现语音数据分布式存储的方法
WO2024039102A1 (ko) * 2022-08-18 2024-02-22 삼성전자주식회사 혼합 음원으로부터 타겟 음원을 분리하는 방법 및 그 전자 장치

Also Published As

Publication number Publication date
JP2000330587A (ja) 2000-11-30

Similar Documents

Publication Publication Date Title
CN101149928B (zh) 声音信号处理方法、声音信号处理设备及计算机程序
JP3434730B2 (ja) 音声認識方法および装置
US20070088548A1 (en) Device, method, and computer program product for determining speech/non-speech
JP2768274B2 (ja) 音声認識装置
JPH0990974A (ja) 信号処理方法
CN112397065A (zh) 语音交互方法、装置、计算机可读存储介质及电子设备
JP3493033B2 (ja) 音声認識用回路装置
JPH05134694A (ja) 音声認識装置
JP3069531B2 (ja) 音声認識方法
JPH11231897A (ja) 音声認識装置及び方法
JPS6367197B2 (ja)
WO2009055718A1 (en) Producing phonitos based on feature vectors
JPH03114100A (ja) 音声区間検出装置
KR20000056849A (ko) 음향 기기의 음성인식 방법
JP2891259B2 (ja) 音声区間検出装置
JPH0651792A (ja) 音声認識装置
JP3063855B2 (ja) 音声認識におけるマッチング距離値の極小値探索方法
JP2666296B2 (ja) 音声認識装置
JPS63132300A (ja) 音声認識方法及び装置
JP3125928B2 (ja) 音声認識装置
KR100334238B1 (ko) 음성 파형의 포락선 정보를 이용한 음성/비음성 판별 장치및 그 방법
Hayasaka et al. Noise-Robust Scream Detection Using Wave-U-Net
JP3450972B2 (ja) パターン認識装置
JP2000155600A (ja) 音声認識システムおよび入力音声レベル警告方法
JPS61260299A (ja) 音声認識装置

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees