JPH04264598A - 人間の音声を認識するための方法及び装置 - Google Patents

人間の音声を認識するための方法及び装置

Info

Publication number
JPH04264598A
JPH04264598A JP3278898A JP27889891A JPH04264598A JP H04264598 A JPH04264598 A JP H04264598A JP 3278898 A JP3278898 A JP 3278898A JP 27889891 A JP27889891 A JP 27889891A JP H04264598 A JPH04264598 A JP H04264598A
Authority
JP
Japan
Prior art keywords
frame
human speech
audio
utterance
signature
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP3278898A
Other languages
English (en)
Other versions
JP2980438B2 (ja
Inventor
John W Jackson
ジョン・ダブリュー・ジャクソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH04264598A publication Critical patent/JPH04264598A/ja
Application granted granted Critical
Publication of JP2980438B2 publication Critical patent/JP2980438B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Complex Calculations (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、全般的には音声発声分
析の分野に関するものであり、具体的には未知の音声発
声の認識の分野に関するものである。さらに具体的にい
うと、本発明は、音声発声の経時的出力内容を利用した
、音声の分析及び認識のための方法と装置に関するもの
である。
【0002】
【従来の技術】音声分析及び音声認識のアルゴリズム、
機械及び装置は、従来技術でますます一般的になりつつ
ある。上記システムは、ますます強力で安価になってき
た。音声認識システムは、典型的には「学習式」または
「非学習式」である。学習式の音声認識システムとは、
特定の話者が質問中の語彙を繰り返し発音することによ
る「学習」を行った後に、その話者による音声発声を認
識するのに利用できるシステムである。「非学習式」音
声認識システムとは、未知の話者による未知の音声発声
の様々な音響パラメータを、様々な既知の発声を表すの
に利用される有限個数の前もって記憶されたテンプレー
トと比較することによって、その発声を認識しようとす
るシステムである。
【0003】従来技術の音声認識システムのほとんどは
、フレームをベースとするシステムである、すなわち、
これらのシステムは、それぞれ一連の短い時間間隔の1
つにおける音声発声の音響パラメータを表すフレームの
時間列として、音声を表現する。このようなシステムは
、通常、認識しようとする音声発声をスペクトル・フレ
ームの列として表現する。各フレームは、複数のスペク
トル・パラメータを含み、各スペクトル・パラメータは
、一連の異なる周波数帯域のうちの1つの帯域における
エネルギーを表す。通常、このようなシステムは、認識
しようとするフレームの列を、複数の音響モデルと比較
する。この音響モデルはそれぞれ、音素、単語、句など
、所与の音声発声に関連するフレームを記述またはモデ
ル化したものである。
【0004】人間の声道は、複数の共鳴を同時に発生す
る能力を有する。これらの共鳴の周波数は、話者がその
舌、唇または声道の他の部分を動かすにつれて変化し、
異なる音声音が生じる。これらの共鳴のそれぞれをフォ
ルマントと称するが、音声学者は、多くの個人の音声音
または音素を、最初の3つのフォルマントの周波数によ
って区別できることを発見した。多くの音声認識システ
ムが、これらのフォルマント周波数の分析による未知の
発声の認識を試みたが、音声発声が複雑なため、このよ
うなシステムの実現は困難である。
【0005】音声認識の分野の研究者の多くは、システ
ムが似通った音声音を区別できるようにする上で、周波
数の変化が重要であると考えている。たとえば、2つの
フレームが類似したスペクトル・パラメータを有するに
もかかわらず、一方の音は上昇するフォルマントで発生
し、他方は下降するフォルマントで発生するために、非
常に異なる音に関連づけられることがあり得る。米国特
許出願第4805218号明細書では、音声エネルギー
の音響パラメータの変化に関する情報を利用して、音声
認識システムを実現しようと試みるシステムが開示され
ている。
【0006】従来技術の他のシステムでは、フォルマン
ト追跡によって周波数変化を明示的に検出することが試
みられた。フォルマントの追跡には、連続した時点での
音声エネルギーのスペクトルを分析し、上記の各時点で
の音声信号の主共鳴またはフォルマントの位置を決定す
ることが含まれる。連続した時点でフォルマントを識別
した後、その結果得られる経時的パターンをパターン認
識装置に供給し、パターン認識装置を使って、所与のフ
ォルマント・パターンを選択された音素に関連付ける。
【0007】上記すべての音声認識システムの最終目的
は、話者の広いスペクトルによる未知の音声発声を検出
し理解する際の精度を高められるシステムを作り出すこ
とである。したがって、高い精度で未知の音声発声を分
析し認識するのに利用できる音声認識システムが必要で
あることは、明白である。
【0008】
【発明が解決しようとする課題】したがって、本発明の
目的は、音声発声の分析のための改良された方法と装置
を提供することである。
【0009】本発明のもう1つの目的は、未知の音声発
声の認識のための改良された方法と装置を提供すること
である。
【0010】本発明のもう1つの目的は、発声音声の経
時的出力内容を利用した、音声分析及び認識のための改
良された方法と装置を提供することである。
【0011】
【課題を解決するための手段】前述の目的は、以下に述
べるようにして達成される。本発明の方法及び装置は、
検査中の各音声発声をデジタル式にサンプリングし、そ
の音声発声をデータ・フレームの時間列として表す。そ
の後、各データ・フレームに高速フーリエ変換(FFT
)を適用して分析し、複数の周波数帯域すなわちビン内
の各データ・フレームのエネルギー内容の指示を得る。 その後、エネルギー内容が最大の周波数帯域群の各帯域
の指示を、すべてのデータ・フレームについてビン番号
によってプロットし、図形的に合成して、その音声発声
の出力値シグネチャーを生成する。この出力値シグネチ
ャーは、その発声のオーディオ出力のオーディオ・スペ
クトル内での経時的な移動を、高い精度で表すものであ
る。未知の音声発声の出力値シグネチャーを、それぞれ
既知の発声と関連付けられたいくつかの以前に記憶され
た出力値シグネチャーと比較することによって、未知の
音声発声を高い精度で識別することができる。本発明の
好ましい実施例では、未知の音声発声からの出力値シグ
ネチャーと記憶された出力値シグネチャーの比較は、最
小二乗法または他の適当な技法を利用して行う。
【0012】
【実施例】ここで図面を参照すると、図1には、本発明
の方法及び装置の実施に利用できるコンピュータ・シス
テム10のブロック図が示されている。コンピュータ・
システム10は、適当なデジタル信号プロセッサを内部
に配置した現況技術のどんなデジタル・コンピュータ・
システムを利用しても実施できる。たとえば、コンピュ
ータ・システム10は、IBM音声捕捉/再生アダプタ
(ACPA)を含むIBM  PS/2型コンピュータ
を利用して実施できる。
【0013】コンピュータ・システム10には、表示装
置14も含まれる。当業者には理解される通り、表示装
置14は、デジタル・コンピュータ・システム内の様々
な音声波形の図形指示を表示するのに利用できる。コン
ピュータ・システムには、キーボード16も接続されて
いる。キーボード16は、当技術分野で周知の方式でデ
ータを入力し、コンピュータ・システム10に記憶され
た様々なファイルを選択するのに利用できる。もちろん
、マウスやライト・ペンなどの図形ポインティング・デ
バイスも、コマンドを入力し、コンピュータ・システム
10内の適当なファイルを選択するのに利用できること
が、当業者には理解されよう。
【0014】さらにコンピュータ・システム10を参照
すると、プロセッサ12が図示されている。プロセッサ
12は、コンピュータ・システム10用の中央処理装置
であることが好ましく、本発明の図示の実施例では、本
発明の方法及び装置の実施に利用されるオーディオ・ア
ダプタを含むことが好ましい。上記装置の1例が、IB
M音声捕捉/再生アダプタ(ACPA)である。
【0015】図に示すように、オーディオ・シグネチャ
ー・ファイル20が、プロセッサ12内のメモリに記憶
されている。各ファイルの出力は、インターフェース回
路24に供給される。インターフェース回路24は、本
発明の方法を利用して生成されたオーディオ・シグネチ
ャー・ファイルのアクセスを可能にする、適当なアプリ
ケーション・プログラミング・インターフェースを利用
して実施することが好ましい。
【0016】その後、インターフェース回路24の出力
は、デジタル信号プロセッサ(DSP)26に供給され
る。デジタル信号プロセッサ26は、後で詳細に説明す
るように、本発明の方法及び装置による音声認識のため
に人間の音声発声をデジタル化し分析するのに利用でき
る。アナログ形の人間の音声発声が、通常はオーディオ
入力装置18によってデジタル信号プロセッサ26に供
給される。オーディオ入力装置18は、マイクロフォン
であることが好ましい。
【0017】次に図2を参照すると、本発明の方法及び
装置の実施に利用できるデジタル信号プロセッサ26を
含むオーディオ・アダプタのブロック図が示されている
。上述のように、このオーディオ・アダプタは、市販の
IBM音声捕捉/再生アダプタ(ACPA)を利用して
、簡単に実施することができる。このような実施様態で
は、デジタル信号プロセッサ26として、テキサス・イ
ンストルメンツ社のTMS  320C25または他の
適当なデジタル信号プロセッサを利用する。
【0018】図に示すように、プロセッサ12とデジタ
ル信号プロセッサ26の間のインターフェースは、入出
力バス30である。入出力バス30は、パーソナル・コ
ンピュータ分野の当業者には容易に入手でき理解される
マイクロ・チャネルまたはPC入出力バスを利用して実
施できることが、当業者には理解されよう。プロセッサ
12は、入出力バス30を利用して、ホスト・コマンド
・レジスタ32にアクセスすることができる。プロセッ
サ12は、ホスト・コマンド・レジスタ32とホスト状
況レジスタ34を利用して、コマンドを発行し、図2に
示したオーディオ・アダプタの状況を監視する。
【0019】また、プロセッサ12は、入出力バス30
を利用して、アドレス上位バイト・ラッチ・カウンタと
アドレス下位バイト・ラッチ・カウンタにアクセスする
ことができる。これらのカウンタをプロセッサ12が利
用して、図2に示したオーディオ・アダプタ内の共用メ
モリ48にアクセスする。共用メモリ48は、プロセッ
サ12もデジタル信号プロセッサ26もそのメモリにア
クセスできるという意味で「共用」である、8K×16
高速スタティックRAMであることが好ましい。後で詳
細に述べるように、メモリ調停回路を利用して、プロセ
ッサ12とデジタル信号プロセッサ26が同時に共用メ
モリ48にアクセスするのを防止する。
【0020】図に示すように、デジタル信号プロセッサ
26は、デジタル信号プロセッサ制御レジスタ36とデ
ジタル信号プロセッサ状況レジスタ38をも含むことが
好ましい。これらのレジスタを、ホスト・コマンド・レ
ジスタ32及びホスト状況レジスタ34と同様に利用し
て、デジタル信号プロセッサ26は、コマンドを発行し
、オーディオ・アダプタ内の様々な装置の状況を監視す
ることができる。
【0021】また、プロセッサ12は、当技術分野で周
知の方式でデータ上位バイト両方向ラッチ44とデータ
下位バイト両方向ラッチ46を利用して、入出力バス3
0を介して、共用メモリ48との間でデータをやりとり
するのに利用できる。
【0022】図2のオーディオ・アダプタ内には、サン
プル・メモリ50も示されている。サンプル・メモリ5
0は、デジタル化された人間の音声の入力サンプルのた
めにデジタル信号プロセッサ26が利用できる、2K×
16スタティックRAMであることが好ましい。
【0023】図2のオーディオ・アダプタ内には、制御
論理機構56も示されている。制御論理機構56は、数
あるタスクのうちでも、デジタル信号プロセッサ26の
割込み要求の後にプロセッサ12に割込みを発行し、入
力選択スイッチを制御し、図示のオーディオ・アダプタ
内の様々なラッチやメモリ装置に対して、読取り、書込
み及びイネーブルのストローブを発行する、1ブロック
の論理機構であることが好ましい。制御論理機構56は
、制御バス58を利用してこれらのタスクを実行するこ
とが好ましい。
【0024】図示のアドレス・バス60は、本発明の図
示の実施例では、システム内の様々な出力値シグネチャ
ーのアドレスをシステム内の適当な装置間でやりとりす
るのに利用することが好ましい。図示のデータ・バス6
2は、図示のオーディオ・アダプタ内の様々な装置間で
データをやりとりするのに利用される。
【0025】上述のように、制御論理機構56は、メモ
リ調停論理機構64及び66を使用して共用メモリ48
及びサンプル・メモリ50へのアクセスを制御し、これ
らのメモリのどちらに対しても、プロセッサ12とデジ
タル信号プロセッサ26が同時にアクセスを試みること
がないようにする。この技法は、当技術分野で周知であ
り、メモリ・デッドロックまたは他の類似の症状が発生
しないことを保証するのに必要である。
【0026】図示のデジタル・アナログ・コンバータ(
DAC)52は、コンピュータ・システム10内のデジ
タル・オーディオ信号を、出力すべき適当なアナログ信
号に変換するのに利用できる。デジタル・アナログ・コ
ンバータ52の出力は、適当なフィルタ/増幅回路を含
むことが好ましい、アナログ出力部68に供給される。
【0027】図に示すように、アナログの人間の音声信
号をアナログ入力部70に供給し、そこからアナログ・
デジタル・コンバータ54に供給することによって、図
2に示したオーディオ・アダプタを利用して、アナログ
の人間の音声信号をデジタル化し記憶することができる
。このような装置を用いると、アナログの人間の音声信
号をデジタル化し、その後にその信号に関連するデジタ
ル値を記憶することによって、人間の音声信号の捕捉及
び記憶が可能になることが、当業者には理解されよう。 本発明の好ましい実施例では、人間の音声信号を、88
キロヘルツのデータ転送速度でサンプリングする。
【0028】次に、図3を参照すると、ある音声発声の
未処理の振幅包絡線80のグラフ表示が示されている。 音声発声の振幅が、周波数内容と振幅の両方で、図3の
包絡線80で示されるような複雑な形で経時的に変化す
ることが、当業者には理解されよう。高速フーリエ変換
(FFT)を実行して、一連の異なる周波数帯域の各帯
域でのエネルギー水準を表す値を得ることによって、図
3の包絡線80で表される音声発声をデータ・フレーム
ごとに分析して、各フレームに含まれるスペクトル・パ
ラメータを決定する。フーリエ分析の分野では通常、各
周波数帯域を「ビン」と称し、上記の各信号はそれぞれ
、その周波数での包絡線80の選択されたフレームのエ
ネルギー内容の指示を表す。
【0029】次に、図4を参照すると、高速フーリエ変
換(FFT)を適用した後の、上位8つの包絡線80の
出力振幅周波数ビンのトラックのグラフ表示が示されて
いる。トラック82は、各フレーム内の最大の出力を含
む各周波数ビン番号のグラフ指示を表す。次に、波形8
4は、各フレーム内の上位から2番目の出力を含む周波
数ビン番号のプロットである。同様に、各フレームの、
出力内容が上位8つのビンが、波形86、88、90、
92、94及び96に示されている。各波形の垂直軸は
、その点での実際の振幅ではなくビン番号を表すことに
留意されたい。したがって、各波形のピークは、上位の
周波数ビン内の最大の出力内容が含まれる点を表してい
る。
【0030】次に、図5を参照すると、図4の8つのト
ラックを合成したグラフが示されている。この場合、「
合成」という単語は、波形82、84、86、88、9
0、92、94及び96を1組の軸上でグラフ表示し、
他のすべての波形の包絡線を形成する単一の波形を生成
することを意味する。図に示すように、波形98は、上
述のようにして経時的高速フーリエ変換(FFT)によ
って得られた上位ビン番号群のグラフ表現を表す。すな
わち、波形98は、オーディオ・スペクトル内でのオー
ディオ出力の経時的移動を示す出力値シグネチャーであ
る。図5の垂直軸は、ビン番号に関連付けられており、
したがって、選択された周波数での出力内容を表す。図
5の水平軸は、図3の音声発声中の経過時間を表す。
【0031】本発明者は、高速フーリエ変換(FFT)
の実行後に、上位周波数ビン群の出力内容の変動を追跡
することによって、図5の参照符号98で示されるよう
な出力値シグネチャーが得られ、これが複数話者による
同一の発声に対して同様の形で得られるすべての出力値
シグネチャーと非常に類似していることを発見した。
【0032】次に、図6を参照すると、本発明の方法を
示す、高水準論理流れ図が示されている。図に示すよう
に、処理は、ブロック110で始まり、その後、ブロッ
ク112に進んで音声発声データを収集する。これは、
マイクロフォンなど適当なアナログ入力装置と、図2に
示したようなアナログ・デジタル・コンバータを利用し
て行うことができる。
【0033】次に、デジタル化されたデータの各フレー
ムを分析して、そのフレームのスペクトル・パラメータ
を計算する。これは、当技術分野で周知の方式で高速フ
ーリエ変換(FFT)を利用することによって行う。そ
の後、ブロック116で、各データ・フレームごとに様
々な分析ステップを行う。この処理は、ブロック118
で、各データ・フレーム内の平均出力と総出力を計算す
ることから始まる。
【0034】次に、ブロック120で、あるデータ・フ
レーム内の出力が、所定の閾値水準を超えるか否かを判
定する。本発明者は、本発明の分析及び認識の方法では
、ある音声発声の出力内容の調査によって、その音声発
声の内容が決定されることを発見した。したがって、か
なりの量の出力を含んでいるデータ・フレームでなけれ
ば、この作業には役立たない。
【0035】検討中のフレームに含まれる出力が所定の
閾値水準を超えない場合、処理はブロック122に移り
、検討中のフレームがある発声中の最後のフレームであ
るか否かを判定する。そうでない場合、処理は、本方法
の性質である繰返しを表すブロック124に移り、ブロ
ック118に戻って、その音声発声内の次のフレームの
平均出力と総出力を計算する。
【0036】ブロック120に戻って、検討中のフレー
ムに含まれる出力が所定の閾値水準を超える場合には、
ブロック126で、各周波数ビン内の出力振幅によって
、そのフレーム内の周波数ビンを分類する。すなわち、
周波数ビンを、最大の出力を含む周波数ビンから始めて
、わずかな出力しか含まない、あるいはまったく出力を
含まない周波数ビンまで、順に配列する。
【0037】次に、処理はブロック128に進み、特定
のフレームについて、出力の大半を有する周波数ビン群
を選択する。本発明の図示の実施例では、少なくとも特
定のフレームの出力の75%を表すのに十分な数の周波
数ビンを選択する。次に、ブロック130で、選択され
た周波数ビン群から、出力が最高の周波数ビンを選択す
る。その後、ブロック132で、この周波数ビン番号が
プロットされ、記憶され、本発明の方法と装置を利用し
て生成される出力値シグネチャー上の1点になる。
【0038】次にブロック134に示すようにさらにい
くつかの出力水準について、ブロック136で次に高い
出力の周波数ビンを選択する。ブロック138で、選択
されたビン番号を、もう1つのシグネチャー上の1点と
してプロットし、記憶する。その後、十分な数の出力水
準をプロットし終えるまで、ブロック136とブロック
138を繰り返す。本発明の図示の実施例では、このよ
うにして各フレームの上位8つの出力水準をプロットす
る。
【0039】図4に示したようにして上位8つの周波数
ビン番号をプロットした後に、処理はブロック140に
移り、上述のようにして8つのシグネチャーを1つの出
力値シグネチャーに合成する。その後、処理はブロック
122に戻って、検討中のフレームがある発声中の最後
のフレームであるか否かを判定する。そうでない場合、
処理はブロック124に移り、上述のように繰り返す。
【0040】ブロック122で、検討中のフレームがそ
の音声発声中の最後のフレームである場合には、処理は
ブロック142に移り、得られたシグネチャーを正規化
し記憶する。その後、処理はブロック144に移り、音
声発声の認識を望むか否かを判定する。望む場合、処理
はブロック146に移り、それぞれ既知の音声発声に関
連付けられた複数の記憶済みシグネチャーと、記憶され
たシグネチャーを比較する。最小二乗法または他の適当
な技法を利用して上記2つの波形を比較できることが、
当業者には理解されよう。記憶済みシグネチャーのうち
で、未知の音声発声から得られたシグネチャーに最もよ
く一致するものを決定した後、その発声に一致するもの
を返す。その後、または音声発声の認識を望まない場合
には、処理はブロック148に戻り、終了する。
【0041】前記を参照すれば、ある音声発声に関連す
る新規の出力値シグネチャーを生成し、それを既知の音
声に関連する前もって記憶された出力値シグネチャー群
と比較することによって、音声発声の知的内容を決定で
きる技法を本発明者が開発したことが、当業者には理解
されよう。本明細書に開示した形式の出力値シグネチャ
ーを利用することによって、性別、年齢または地域差に
起因する音声振幅包絡線のばらつきが大幅に除去される
【図面の簡単な説明】
【図1】本発明の方法及び装置の実施に利用できるコン
ピュータ・システムのブロック図である。
【図2】本発明の方法及び装置の実施に利用できるデジ
タル信号プロセッサを含む、オーディオ・アダプタのブ
ロック図である。
【図3】ある音声発声の未処理の振幅包絡線のグラフ表
示である。
【図4】図3の振幅包絡線に高速フーリエ変換(FFT
)を適用した後の、上位8つの出力振幅ビンのトラック
のグラフ表示である。
【図5】図4の8つのトラックを合成したグラフである
【図6】本発明の方法を示す、高水準論理流れ図である
【符号の説明】
10  コンピュータ・システム 12  プロセッサ 14  表示装置 16  キーボード 18  オーディオ入力装置 20  オーディオ・シグネチャー・ファイル24  
インターフェース回路 26  デジタル信号プロセッサ(DSP)32  ホ
スト・コマンド・レジスタ 34  ホスト状況レジスタ 36  デジタル信号プロセッサ制御レジスタ38  
デジタル信号プロセッサ状況レジスタ44  データ上
位バイト両方向ラッチ46  データ下位バイト両方向
ラッチ48  共用メモリ 50  サンプル・メモリ 52  デジタル・アナログ・コンバータ(DAC)5
4  アナログ・デジタル・コンバータ(ADC)56
  制御論理機構 64  メモリ調停論理機構 66  メモリ調停論理機構 68  アナログ出力部 70  アナログ入力部

Claims (19)

    【特許請求の範囲】
  1. 【請求項1】各フレームが一連の短い時間間隔の1つに
    おける音響パラメータを表す、フレームの時間列として
    音声発声を表すステップと、音声の各フレームを分析し
    て、それぞれが一連の異なる周波数ビンのうちの1つに
    おけるエネルギー水準を表す、複数のスペクトル・パラ
    メータを得るステップと、各フレーム内で最大のエネル
    ギー水準を有する、そのフレーム内の選択されたスペク
    トル・パラメータを識別するステップと、前記時間列内
    の各フレームごとに、前記の選択されたスペクトル・パ
    ラメータの指示をプロットして、前記音声発声を表す第
    1のシグネチャーを形成するステップとを含む、人間の
    音声を分析するための方法。
  2. 【請求項2】さらに、各フレーム内で2番目に高いエネ
    ルギー水準を有する第2の選択されたスペクトル・パラ
    メータを識別するステップを含む、請求項1に記載の人
    間の音声を分析するための方法。
  3. 【請求項3】さらに、前記時間列内の各フレームごとに
    、前記第2の選択されたスペクトル・パラメータの指示
    をプロットして、前記音声発声を表す第2のシグネチャ
    ーを形成するステップを含む、請求項2に記載の人間の
    音声を分析するための方法。
  4. 【請求項4】さらに、前記第1シグネチャーと前記第2
    シグネチャーを合成するステップを含む、請求項3に記
    載の人間の音声を分析するための方法。
  5. 【請求項5】さらに、高いエネルギー水準を有する各フ
    レーム内の複数のスペクトル・パラメータを識別するス
    テップを含む、請求項1に記載の人間の音声を分析する
    ための方法。
  6. 【請求項6】さらに、各フレームごとに前記複数のスペ
    クトル・パラメータのそれぞれの指示をプロットして、
    前記音声発声を表す複合シグネチャーを形成するステッ
    プを含む、請求項5に記載の人間の音声を分析するため
    の方法。
  7. 【請求項7】各フレームが一連の短い時間間隔の1つに
    おける音響パラメータを表す、フレームの時間列として
    音声発声を表すステップと、音声の各フレームを分析し
    て、それぞれが一連の異なる周波数ビンのうちの1つに
    おけるエネルギー水準を表す、複数のスペクトル・パラ
    メータを得るステップと、各フレーム内で最大のエネル
    ギー水準を有する、そのフレーム内の選択されたスペク
    トル・パラメータを識別するステップと、前記時間列内
    の各フレームごとに、前記の選択されたスペクトル・パ
    ラメータの指示をプロットして、前記音声発声を表す第
    1のシグネチャーを形成するステップと、前記音声発声
    を表す前記第1シグネチャーを、選択された音声発声を
    表す複数の記憶済みシグネチャーと比較するステップと
    を含む、人間の音声を認識するための方法。
  8. 【請求項8】さらに、各フレーム内で2番目に高いエネ
    ルギー水準を有する第2の選択されたスペクトル・パラ
    メータを識別するステップを含む、請求項7に記載の人
    間の音声を認識するための方法。
  9. 【請求項9】さらに、前記時間列内の各フレームごとに
    、前記第2の選択されたスペクトル・パラメータの指示
    をプロットして、前記音声発声を表す第2のシグネチャ
    ーを形成するステップを含む、請求項8に記載の人間の
    音声を認識するための方法。
  10. 【請求項10】音声発声を受け取るためのオーディオ入
    力手段と、各フレームが一連の短い時間間隔の1つにお
    ける音響パラメータを表す、フレームの時間列を生成す
    るためのサンプリング手段と、それぞれが一連の異なる
    周波数ビンのうちの1つにおけるエネルギー水準を表す
    、複数のスペクトル・パラメータを決定するための変換
    手段と、各フレーム内で最大のエネルギー水準を有する
    、そのフレーム内の選択されたスペクトル・パラメータ
    を識別するためのプロセッサ手段と、前記音声発声を表
    す第1のシグネチャーを形成するため、前記時間列内の
    各フレームごとに、前記の選択されたスペクトル・パラ
    メータの指示をプロットするための手段とを含む、人間
    の音声を分析するための装置。
  11. 【請求項11】前記オーディオ入力手段がマイクロフォ
    ンを含むことを特徴とする、請求項10に記載の人間の
    音声を分析するための装置。
  12. 【請求項12】前記サンプリング手段が、選択されたサ
    ンプリング速度で前記音声発声をデジタル化するための
    デジタル・サンプリング手段を含むことを特徴とする、
    請求項10に記載の人間の音声を分析するための装置。
  13. 【請求項13】前記の選択されたサンプリング速度が、
    88キロヘルツであることを特徴とする、請求項12に
    記載の人間の音声を分析するための装置。
  14. 【請求項14】前記プロセッサ手段が、デジタル信号プ
    ロセッサを含むことを特徴とする、請求項10に記載の
    人間の音声を分析するための装置。
  15. 【請求項15】音声発声を受け取るためのオーディオ入
    力手段と、各フレームが一連の短い時間間隔の1つにお
    ける音響パラメータを表す、フレームの時間列を生成す
    るためのサンプリング手段と、それぞれが一連の異なる
    周波数ビンの1つにおけるエネルギー水準を表す、複数
    のスペクトル・パラメータを決定するための変換手段と
    、各フレーム内で最大のエネルギー水準を有する、その
    フレーム内の選択されたスペクトル・パラメータを識別
    するためのプロセッサ手段と、前記音声発声を表す第1
    のシグネチャーを形成するため、前記時間列内の各フレ
    ームごとに、前記の選択されたスペクトル・パラメータ
    の指示をプロットするための手段と、前記音声発声を表
    す前記第1シグネチャーを、選択された音声発声を表す
    複数の記憶済みシグネチャーと比較するための比較手段
    とを含む、人間の音声を認識するための装置。
  16. 【請求項16】前記オーディオ入力手段がマイクロフォ
    ンを含むことを特徴とする、請求項15に記載の人間の
    音声を認識するための装置。
  17. 【請求項17】前記サンプリング手段が、選択されたサ
    ンプリング速度で前記音声発声をデジタル化するための
    デジタル・サンプリング手段を含むことを特徴とする、
    請求項15に記載の人間の音声を認識するための装置。
  18. 【請求項18】前記の選択されたサンプリング速度が、
    88キロヘルツであることを特徴とする、請求項17に
    記載の人間の音声を認識するための装置。
  19. 【請求項19】前記プロセッサ手段が、デジタル信号プ
    ロセッサを含むことを特徴とする、請求項15に記載の
    人間の音声を認識するための装置。
JP3278898A 1990-11-05 1991-10-01 人間の音声を認識するための方法及び装置 Expired - Lifetime JP2980438B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US07/610,888 US5313531A (en) 1990-11-05 1990-11-05 Method and apparatus for speech analysis and speech recognition
US610888 1990-11-05

Publications (2)

Publication Number Publication Date
JPH04264598A true JPH04264598A (ja) 1992-09-21
JP2980438B2 JP2980438B2 (ja) 1999-11-22

Family

ID=24446817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3278898A Expired - Lifetime JP2980438B2 (ja) 1990-11-05 1991-10-01 人間の音声を認識するための方法及び装置

Country Status (3)

Country Link
US (1) US5313531A (ja)
EP (1) EP0485315A3 (ja)
JP (1) JP2980438B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790754A (en) * 1994-10-21 1998-08-04 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
US5884263A (en) * 1996-09-16 1999-03-16 International Business Machines Corporation Computer note facility for documenting speech training
US5832441A (en) * 1996-09-16 1998-11-03 International Business Machines Corporation Creating speech models
US6665639B2 (en) * 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US6289140B1 (en) * 1998-02-19 2001-09-11 Hewlett-Packard Company Voice control input for portable capture devices
US6480823B1 (en) * 1998-03-24 2002-11-12 Matsushita Electric Industrial Co., Ltd. Speech detection for noisy conditions
US6167376A (en) * 1998-12-21 2000-12-26 Ditzik; Richard Joseph Computer system with integrated telephony, handwriting and speech recognition functions
US6622121B1 (en) 1999-08-20 2003-09-16 International Business Machines Corporation Testing speech recognition systems using test data generated by text-to-speech conversion
CH695402A5 (de) 2000-04-14 2006-04-28 Creaholic Sa Verfahren zur Bestimmung eines charakteristischen Datensatzes für ein Tonsignal.
US7283954B2 (en) * 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7711123B2 (en) * 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
DE60225130T2 (de) * 2001-05-10 2009-02-26 Dolby Laboratories Licensing Corp., San Francisco Verbesserung der transientenleistung bei kodierern mit niedriger bitrate durch unterdrückung des vorgeräusches
DE10339027A1 (de) * 2003-08-25 2005-04-07 Dietmar Kremer Visuelles Hörgerät
JP3827317B2 (ja) * 2004-06-03 2006-09-27 任天堂株式会社 コマンド処理装置
GB2434876B (en) * 2006-02-01 2010-10-27 Thales Holdings Uk Plc Audio signal discriminator
CA2743613C (en) * 2009-11-12 2018-08-14 Paul Reed Smith Guitars Limited Partnership Precision measurement of waveforms
CN107534800B (zh) * 2014-12-01 2020-07-03 构造数据有限责任公司 用于连续介质片段识别的系统和方法
US10373608B2 (en) * 2015-10-22 2019-08-06 Texas Instruments Incorporated Time-based frequency tuning of analog-to-information feature extraction

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5374807A (en) * 1976-12-15 1978-07-03 Fujitsu Ltd Voice recognition matching control system
JPS59219800A (ja) * 1983-05-27 1984-12-11 株式会社リコー 音声パターン比較方法
JPS61236600A (ja) * 1985-04-12 1986-10-21 日本電気株式会社 パタンマツチングボコ−ダ
JPS63142399A (ja) * 1986-12-04 1988-06-14 沖電気工業株式会社 音声分析合成方法及び装置

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3369076A (en) * 1964-05-18 1968-02-13 Ibm Formant locating system
US3588353A (en) * 1968-02-26 1971-06-28 Rca Corp Speech synthesizer utilizing timewise truncation of adjacent phonemes to provide smooth formant transition
US3603738A (en) * 1969-07-07 1971-09-07 Philco Ford Corp Time-domain pitch detector and circuits for extracting a signal representative of pitch-pulse spacing regularity in a speech wave
US4063035A (en) * 1976-11-12 1977-12-13 Indiana University Foundation Device for visually displaying the auditory content of the human voice
AU2944684A (en) * 1983-06-17 1984-12-20 University Of Melbourne, The Speech recognition
JPS61252594A (ja) * 1985-05-01 1986-11-10 株式会社リコー 音声パタ−ン照合方式
US4748670A (en) * 1985-05-29 1988-05-31 International Business Machines Corporation Apparatus and method for determining a likely word sequence from labels generated by an acoustic processor
US4827519A (en) * 1985-09-19 1989-05-02 Ricoh Company, Ltd. Voice recognition system using voice power patterns
EP0243479A4 (en) * 1985-10-30 1989-12-13 Central Inst Deaf LANGUAGE PROCESSING ARRANGEMENT AND METHOD.
US4852170A (en) * 1986-12-18 1989-07-25 R & D Associates Real time computer speech recognition system
EP0364501A4 (en) * 1987-06-09 1993-01-27 Central Institute For The Deaf Speech processing apparatus and methods
US4933973A (en) * 1988-02-29 1990-06-12 Itt Corporation Apparatus and methods for the selective addition of noise to templates employed in automatic speech recognition systems

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5374807A (en) * 1976-12-15 1978-07-03 Fujitsu Ltd Voice recognition matching control system
JPS59219800A (ja) * 1983-05-27 1984-12-11 株式会社リコー 音声パターン比較方法
JPS61236600A (ja) * 1985-04-12 1986-10-21 日本電気株式会社 パタンマツチングボコ−ダ
JPS63142399A (ja) * 1986-12-04 1988-06-14 沖電気工業株式会社 音声分析合成方法及び装置

Also Published As

Publication number Publication date
EP0485315A2 (en) 1992-05-13
US5313531A (en) 1994-05-17
JP2980438B2 (ja) 1999-11-22
EP0485315A3 (en) 1992-12-09

Similar Documents

Publication Publication Date Title
JP2980438B2 (ja) 人間の音声を認識するための方法及び装置
JP3162994B2 (ja) 音声のワードを認識する方法及び音声のワードを識別するシステム
US5325462A (en) System and method for speech synthesis employing improved formant composition
US5623609A (en) Computer system and computer-implemented process for phonology-based automatic speech recognition
US5636325A (en) Speech synthesis and analysis of dialects
US4783807A (en) System and method for sound recognition with feature selection synchronized to voice pitch
US6523005B2 (en) Method and configuration for determining a descriptive feature of a speech signal
US5708759A (en) Speech recognition using phoneme waveform parameters
US6308157B1 (en) Method and apparatus for providing an event-based “What-Can-I-Say?” window
US6553342B1 (en) Tone based speech recognition
US20050209855A1 (en) Speech signal processing apparatus and method, and storage medium
CN104008752B (zh) 语音识别装置及方法、以及半导体集成电路装置
US9390709B2 (en) Voice recognition device and method, and semiconductor integrated circuit device
US4707857A (en) Voice command recognition system having compact significant feature data
JP3846300B2 (ja) 録音原稿作成装置および方法
US10553199B2 (en) Low-dimensional real-time concatenative speech synthesizer
JP2002278579A (ja) 音声データ検索装置
JP5028599B2 (ja) 音声処理装置、およびプログラム
Nye et al. A digital pattern playback for the analysis and manipulation of speech signals
Kritopoulou et al. Optimizing human computer interaction for byzantine music learning: Comparing HMMs with RDFs
CN117995206A (zh) 一种语音转换方法及系统
JP2603920B2 (ja) 音声認識装置
WO1987003127A1 (en) System and method for sound recognition with feature selection synchronized to voice pitch
JP2685429B2 (ja) 音声認識装置
Delgado et al. Deep Embeddings for Robust User-Based Amateur Vocal Percussion Classification