JP2980438B2 - 人間の音声を認識するための方法及び装置 - Google Patents

人間の音声を認識するための方法及び装置

Info

Publication number
JP2980438B2
JP2980438B2 JP3278898A JP27889891A JP2980438B2 JP 2980438 B2 JP2980438 B2 JP 2980438B2 JP 3278898 A JP3278898 A JP 3278898A JP 27889891 A JP27889891 A JP 27889891A JP 2980438 B2 JP2980438 B2 JP 2980438B2
Authority
JP
Japan
Prior art keywords
representing
speech utterance
power
speech
energy level
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3278898A
Other languages
English (en)
Other versions
JPH04264598A (ja
Inventor
ジョン・ダブリュー・ジャクソン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
International Business Machines Corp
Original Assignee
International Business Machines Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by International Business Machines Corp filed Critical International Business Machines Corp
Publication of JPH04264598A publication Critical patent/JPH04264598A/ja
Application granted granted Critical
Publication of JP2980438B2 publication Critical patent/JP2980438B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/06Transformation of speech into a non-audible representation, e.g. speech visualisation or speech processing for tactile aids

Landscapes

  • Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computational Linguistics (AREA)
  • Quality & Reliability (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Complex Calculations (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、全般的には音声発声分
析の分野に関するものであり、具体的には未知の音声発
声の認識の分野に関するものである。さらに具体的にい
うと、本発明は、音声発声の経時的パワーを利用した、
音声の分析及び認識のための方法と装置に関するもので
ある。
【0002】
【従来の技術】音声分析及び音声認識のアルゴリズム、
機械及び装置は、従来技術でますます一般的になりつつ
ある。上記システムは、ますます強力で安価になってき
た。音声認識システムは、典型的には学習式または非学
習式である。学習式の音声認識システムとは、特定の話
者が質問中の語彙を繰り返し発音することによる学習を
行った後に、その話者による音声発声を認識するのに利
用できるシステムである。非学習式音声認識システムと
は、未知の話者による未知の音声発声の様々な音響パラ
メータを、様々な既知の発声を表すのに利用される有限
個数の前もって記憶されたテンプレートと比較すること
によって、その発声を認識しようとするシステムであ
る。
【0003】従来技術の音声認識システムのほとんど
は、フレームをベースとするシステムである、すなわ
ち、これらのシステムは、それぞれ一連の短い時間間隔
の1つにおける音声発声の音響パラメータを表すフレー
ムの時間列として、音声を表現する。このようなシステ
ムは、通常、認識しようとする音声発声をスペクトル・
フレームの列として表現する。各フレームは、複数のス
ペクトル・パラメータを含み、各スペクトル・パラメー
タは、一連の異なる周波数帯域のうちの1つの帯域にお
けるエネルギーを表す。通常、このようなシステムは、
認識しようとするフレームの列を、複数の音響モデルと
比較する。この音響モデルはそれぞれ、音素、単語、句
など、所与の音声発声に関連するフレームを記述または
モデル化したものである。
【0004】人間の声道は、複数の共鳴を同時に発生す
る能力を有する。これらの共鳴の周波数は、話者がその
舌、唇または声道の他の部分を動かすにつれて変化し、
異なる音声音が生じる。これらの共鳴のそれぞれをフォ
ルマントと称するが、音声学者は、多くの個人の音声音
または音素を、最初の3つのフォルマントの周波数によ
って区別できることを発見した。多くの音声認識システ
ムが、これらのフォルマント周波数の分析による未知の
発声の認識を試みたが、音声発声が複雑なため、このよ
うなシステムの実現は困難である。
【0005】音声認識の分野の研究者の多くは、システ
ムが似通った音声音を区別できるようにする上で、周波
数の変化が重要であると考えている。たとえば、2つの
フレームが類似したスペクトル・パラメータを有するに
もかかわらず、一方の音は上昇するフォルマントで発生
し、他方は下降するフォルマントで発生するために、非
常に異なる音に関連づけることができる。米国特許出願
第4805218号明細書では、音声エネルギーの音響
パラメータの変化に関する情報を利用して、音声認識シ
ステムを実現しようと試みるシステムが開示されてい
る。
【0006】従来技術の他のシステムでは、フォルマン
ト追跡によって周波数変化を明示的に検出することが試
みられた。フォルマントの追跡には、連続した時点での
音声エネルギーのスペクトルを分析し、上記の各時点で
の音声信号の主共鳴またはフォルマントの位置を決定す
ることが含まれる。連続した時点でフォルマントを識別
した後、その結果得られる経時的パターンをパターン認
識装置に供給し、パターン認識装置を使って、所与のフ
ォルマント・パターンを選択された音素に関連付ける。
【0007】上記すべての音声認識システムの最終目的
は、話者の広いスペクトルによる未知の音声発声を検出
し理解する際の精度を高められるシステムを作り出すこ
とである。したがって、高い精度で未知の音声発声を分
析し認識するのに利用できる音声認識システムが必要で
あることは、明白である。
【0008】
【発明が解決しようとする課題】したがって、本発明の
目的は、音声発声の分析のための改良された方法と装置
を提供することである。
【0009】本発明のもう1つの目的は、未知の音声発
声の認識のための改良された方法と装置を提供すること
である。
【0010】本発明のもう1つの目的は、発声音声の経
時的パワーを利用した、音声分析及び認識のための改良
された方法と装置を提供することである。
【0011】
【課題を解決するための手段】前述の目的は、以下に述
べるようにして達成される。本発明の方法及び装置は、
検査対象の各音声発声をデジタル式にサンプリングし、
その音声発声をデータ・フレームの時間列として表す。
その後、各データ・フレームに高速フーリエ変換(FF
T)を適用して分析し、複数のデータ・フレーム内の各
周波数帯域すなわちビンのパワーを得る。その後、各フ
レーム内で最大のパワーを有する周波数帯域をそのビン
番号によってプロットしてその音声発声のパワー・シグ
ネチャーを形成する。ここでシグネチャーとは音声発声
パターンの特徴を表すパターンをいう。また、パワー・
シグネチャーとは音声発声のパワーで表したシグネチャ
ーをいう。このパワー・シグネチャーは、その発声のオ
ーディオ・パワーのオーディオ・スペクトル内での経時
的な移動を、高い精度で表すものである。未知の音声発
声のパワー・シグネチャーを、それぞれ既知の発声と関
連付けられたいくつかの以前に記憶されたパワー・シグ
ネチャーと比較することによって、未知の音声発声を高
い精度で識別することができる。本発明の好ましい実施
例では、未知の音声発声からのパワー・シグネチャーと
記憶されたパワー・シグネチャーの比較は、最小二乗法
または他の適当な技法を利用して行う。
【0012】
【実施例】ここで図面を参照すると、図1には、本発明
の方法及び装置の実施に利用できるコンピュータ・シス
テム10のブロック図が示されている。コンピュータ・
システム10は、適当なデジタル信号プロセッサを内部
に配置した現況技術のどんなデジタル・コンピュータ・
システムを利用しても実施できる。たとえば、コンピュ
ータ・システム10は、IBM音声捕捉/再生アダプタ
(ACPA)を含むIBM PS/2型コンピュータを
利用して実施できる。
【0013】コンピュータ・システム10には、表示装
置14も含まれる。当業者には理解される通り、表示装
置14は、デジタル・コンピュータ・システム内の様々
な音声波形の図形を表示するのに利用できる。コンピュ
ータ・システムには、キーボード16も接続されてい
る。キーボード16は、当技術分野で周知の方式でデー
タを入力し、コンピュータ・システム10に記憶された
様々なファイルを選択するのに利用できる。もちろん、
マウスやライト・ペンなどの図形ポインティング・デバ
イスも、コマンドを入力し、コンピュータ・システム1
0内の適当なファイルを選択するのに利用できること
が、当業者には理解されよう。
【0014】さらにコンピュータ・システム10を参照
すると、プロセッサ12が図示されている。プロセッサ
12は、コンピュータ・システム10用の中央処理装置
であることが好ましく、本発明の図示の実施例では、本
発明の方法及び装置の実施に利用されるオーディオ・ア
ダプタを含むことが好ましい。上記装置の1例が、IB
M音声捕捉/再生アダプタ(ACPA)である。
【0015】図に示すように、オーディオ・シグネチャ
ー・ファイル20が、プロセッサ12内のメモリに記憶
されている。各ファイルのパワーは、インターフェース
回路24に供給される。インターフェース回路24は、
本発明の方法を利用して生成されたオーディオ・シグネ
チャー・ファイルのアクセスを可能にする、適当なアプ
リケーション・プログラミング・インターフェースを利
用して実施することが好ましい。
【0016】その後、インターフェース回路24の出力
は、デジタル信号プロセッサ(DSP)26に供給され
る。デジタル信号プロセッサ26は、後で詳細に説明す
るように、本発明の方法及び装置による音声認識のため
に人間の音声発声をデジタル化し分析するのに利用でき
る。アナログ形の人間の音声発声が、通常はオーディオ
入力装置18によってデジタル信号プロセッサ26に供
給される。オーディオ入力装置18は、マイクロフォン
であることが好ましい。
【0017】次に図2を参照すると、本発明の方法及び
装置の実施に利用できるデジタル信号プロセッサ26を
含むオーディオ・アダプタのブロック図が示されてい
る。上述のように、このオーディオ・アダプタは、市販
のIBM音声捕捉/再生アダプタ(ACPA)を利用し
て、簡単に実施することができる。このような実施様態
では、デジタル信号プロセッサ26として、テキサス・
インストルメンツ社のTMS 320C25または他の
適当なデジタル信号プロセッサを利用する。
【0018】図に示すように、プロセッサ12とデジタ
ル信号プロセッサ26の間のインターフェースは、入出
力バス30である。入出力バス30は、パーソナル・コ
ンピュータ分野の当業者には容易に入手でき理解される
マイクロ・チャネルまたはPC入出力バスを利用して実
施できることが、当業者には理解されよう。プロセッサ
12は、入出力バス30を利用して、ホスト・コマンド
・レジスタ32にアクセスすることができる。プロセッ
サ12は、ホスト・コマンド・レジスタ32とホスト状
況レジスタ34を利用して、コマンドを発行し、図2に
示したオーディオ・アダプタの状況を監視する。
【0019】また、プロセッサ12は、入出力バス30
を利用して、アドレス上位バイト・ラッチ・カウンタと
アドレス下位バイト・ラッチ・カウンタにアクセスする
ことができる。これらのカウンタをプロセッサ12が利
用して、図2に示したオーディオ・アダプタ内の共用メ
モリ48にアクセスする。共用メモリ48は、プロセッ
サ12もデジタル信号プロセッサ26もそのメモリにア
クセスできるという意味で「共用」である、8K×16
高速スタティックRAMであることが好ましい。後で詳
細に述べるように、メモリ調停回路を利用して、プロセ
ッサ12とデジタル信号プロセッサ26が同時に共用メ
モリ48にアクセスするのを防止する。
【0020】図に示すように、デジタル信号プロセッサ
26は、デジタル信号プロセッサ制御レジスタ36とデ
ジタル信号プロセッサ状況レジスタ38をも含むことが
好ましい。これらのレジスタを、ホスト・コマンド・レ
ジスタ32及びホスト状況レジスタ34と同様に利用し
て、デジタル信号プロセッサ26は、コマンドを発行
し、オーディオ・アダプタ内の様々な装置の状況を監視
することができる。
【0021】また、プロセッサ12は、当技術分野で周
知の方式でデータ上位バイト両方向ラッチ44とデータ
下位バイト両方向ラッチ46を利用して、入出力バス3
0を介して、共用メモリ48との間でデータをやりとり
するのに利用できる。
【0022】図2のオーディオ・アダプタ内には、サン
プル・メモリ50も示されている。サンプル・メモリ5
0は、デジタル化された人間の音声の入力サンプルのた
めにデジタル信号プロセッサ26が利用できる、2K×
16スタティックRAMであることが好ましい。
【0023】図2のオーディオ・アダプタ内には、制御
論理機構56も示されている。制御論理機構56は、数
あるタスクのうちでも、デジタル信号プロセッサ26の
割込み要求の後にプロセッサ12に割込みを発行し、入
力選択スイッチを制御し、図示のオーディオ・アダプタ
内の様々なラッチやメモリ装置に対して、読取り、書込
み及びイネーブルのストローブを発行する、1ブロック
の論理機構であることが好ましい。制御論理機構56
は、制御バス58を利用してこれらのタスクを実行する
ことが好ましい。
【0024】図示のアドレス・バス60は、本発明の図
示の実施例では、システム内の様々なパワー・シグネチ
ャーのアドレスをシステム内の適当な装置間でやりとり
するのに利用することが好ましい。図示のデータ・バス
62は、図示のオーディオ・アダプタ内の様々な装置間
でデータをやりとりするのに利用される。
【0025】上述のように、制御論理機構56は、メモ
リ調停論理機構64及び66を使用して共用メモリ48
及びサンプル・メモリ50へのアクセスを制御し、これ
らのメモリのどちらに対しても、プロセッサ12とデジ
タル信号プロセッサ26が同時にアクセスを試みること
がないようにする。この技法は、当技術分野で周知であ
り、メモリ・デッドロックまたは他の類似の症状が発生
しないことを保証するのに必要である。
【0026】図示のデジタル・アナログ・コンバータ
(DAC)52は、コンピュータ・システム10内のデ
ジタル・オーディオ信号を、出力すべき適当なアナログ
信号に変換するのに利用できる。デジタル・アナログ・
コンバータ52の出力は、適当なフィルタ/増幅回路を
含むことが好ましい、アナログ出力部68に供給され
る。
【0027】図に示すように、アナログの人間の音声信
号をアナログ入力部70に供給し、そこからアナログ・
デジタル・コンバータ54に供給することによって、図
2に示したオーディオ・アダプタを利用して、アナログ
の人間の音声信号をデジタル化し記憶することができ
る。このような装置を用いると、アナログの人間の音声
信号をデジタル化し、その後にその信号に関連するデジ
タル値を記憶することによって、人間の音声信号の捕捉
及び記憶が可能になることが、当業者には理解されよ
う。本発明の好ましい実施例では、人間の音声信号を、
88キロヘルツのデータ転送速度でサンプリングする。
【0028】次に、図3を参照すると、ある音声発声の
生の振幅包絡線80のグラフ表示が示されている。音声
発声が、周波数と振幅の両方で、図3の包絡線80で示
されるような複雑な形で経時的に変化することが、当業
者には理解されよう。高速フーリエ変換(FFT)を施
して、一連の異なる周波数帯域の各帯域でのエネルギー
・レベルを表す値を得ることによって、図3の包絡線8
0で表される音声発声をデータ・フレームごとに分析し
て、各フレームに含まれるスペクトル・パラメータを決
定する。フーリエ分析の分野では通常、各周波数帯域を
「ビン」と称し、上記の各信号はそれぞれ包絡線80の
選択されたフレームのその周波数でのエネルギーを表
す。
【0029】次に、図4を参照すると、高速フーリエ変
換(FFT)を施した後の、包絡線80の上位8つのパ
ワーを持つ周波数ビンの航跡のグラフ表示が示されてい
る。航跡82は、各フレーム内で最大パワーを有する周
波数ビンの番号のグラフを表す。次に、航跡84は、各
フレーム内で上位から2番目のパワーを有する周波数ビ
ンの番号のプロットである。同様に、各フレーム内の上
位8番目までのパワーを有するビンの番号が波形86、
88、90、92、94及び96に示されている。各波
形の垂直軸は、その点でのパワー振幅ではなくビン番号
を表すことに留意されたい。したがって、各波形のピー
クは、各フレーム内の最大のパワーを有するビン位置を
表している。
【0030】次に、図5を参照すると、図4の8つの航
跡を合成したグラフが示されている。ここで合成とは、
波形82、84、86、88、90、92、94及び9
6を1つの座標上でグラフ表示し、すべての波形の包絡
線を形成する単一の波形を生成することを意味する。図
に示すように、波形98は、上述のようにして経時的高
速フーリエ変換(FFT)によって得られた上位パワー
を有するビンの番号のグラフを表す。すなわち、波形9
8は、オーディオ・スペクトル内でのオーディオ・パワ
ーの経時的移動を示すパワー・シグネチャーである。図
5の垂直軸は、ビン番号に関連付けられており、したが
って、選択された周波数でのパワーを表す。図5の水平
軸は、図3の音声発声中の経過時間を表す。
【0031】本発明者は、高速フーリエ変換(FFT)
の実行後に、上位パワーを有する周波数ビンのパワーの
変動の航跡を得ることによって、図5の参照符号98で
示されるようなパワー・シグネチャーが得られ、これが
同一発声の複数話者に対して同様の方法で得られるすべ
てのパワー・シグネチャーと非常に類似していることを
発見した。
【0032】次に、図6を参照すると、本発明の方法を
示す、高レベル論理流れ図が示されている。図に示すよ
うに、処理は、ブロック110で始まり、その後、ブロ
ック112に進んで音声発声データを収集する。これ
は、マイクロフォンなど適当なアナログ入力装置と、図
2に示したようなアナログ・デジタル・コンバータを利
用して行うことができる。
【0033】次に、デジタル化されたデータの各フレー
ムを分析して、そのフレームのスペクトル・パラメータ
を計算する。これは、当技術分野で周知の方式で高速フ
ーリエ変換(FFT)を利用することによって行う。そ
の後、ブロック116で、各データ・フレームごとに様
々な分析ステップを行う。この処理は、ブロック118
で、各データ・フレーム内の平均パワーと総パワーを計
算することから始まる。
【0034】次に、ブロック120で、あるデータ・フ
レーム内のパワーが、所定の閾値レベルを超えるか否か
を判定する。本発明者は、本発明の分析及び認識の方法
では、ある音声発声のパワーの調査によって、その音声
発声の内容が決定されることを発見した。したがって、
かなりの量のパワーを含んでいるデータ・フレームでな
ければ、この作業には役立たない。
【0035】検討中のフレームに含まれるパワーが所定
の閾値レベルを超えない場合、処理はブロック122に
移り、検討中のフレームがある発声中の最後のフレーム
であるか否かを判定する。そうでない場合、処理は、繰
返しを表すブロック124に移り、ブロック118に戻
って、その音声発声内の次のフレームの平均パワーと総
パワーを計算する。
【0036】ブロック120に戻って、検討中のフレー
ムに含まれるパワーが所定の閾値レベルを超える場合に
は、ブロック126で、各周波数ビン内のパワー振幅に
よって、そのフレーム内の周波数ビンを分類する。すな
わち、周波数ビンを、最大のパワーを含む周波数ビンか
ら始めて、わずかなパワーしか含まない、あるいはまっ
たくパワーを含まない周波数ビンまで、順に配列する。
【0037】次に、処理はブロック128に進み、特定
のフレームについて、パワーの大部分を有する周波数ビ
ン群を選択する。本発明の図示の実施例では、少なくと
も特定のフレームのパワーの75%を表すのに十分な数
の周波数ビンを選択する。次に、ブロック130で、選
択された周波数ビン群から、パワーが最高の周波数ビン
を選択する。その後、ブロック132で、この周波数ビ
ン番号がプロットされ、記憶され、本発明の方法と装置
を利用して生成されるパワー・シグネチャー上の1点に
なる。
【0038】次にブロック134に示すようにさらにい
くつかのパワー・レベルについて、ブロック136で次
に高いパワーの周波数ビンを選択する。ブロック138
で、選択されたビン番号を、もう1つのパワー・シグネ
チャー上の1点としてプロットし、記憶する。その後、
十分な数のパワー・レベルをプロットし終えるまで、ブ
ロック136とブロック138を繰り返す。本発明の図
示の実施例では、このようにして各フレームの上位8つ
のパワー・レベルをプロットする。
【0039】図4に示したようにして上位8つの周波数
ビン番号をプロットした後に、処理はブロック140に
移り、上述のようにして8つのパワー・シグネチャーを
1つのパワー・シグネチャーに合成する。その後、処理
はブロック122に戻って、検討中のフレームがある発
声中の最後のフレームであるか否かを判定する。そうで
ない場合、処理はブロック124に移り、上述のように
繰り返す。
【0040】ブロック122で、検討中のフレームがそ
の音声発声中の最後のフレームである場合には、処理は
ブロック142に移り、得られたパワー・シグネチャー
を正規化し記憶する。その後、処理はブロック144に
移り、音声発声の認識を望むか否かを判定する。望む場
合、処理はブロック146に移り、それぞれ既知の音声
発声に関連付けられた複数の記憶済みパワー・シグネチ
ャーと、記憶されたパワー・シグネチャーを比較する。
最小二乗法または他の適当な技法を利用して上記2つの
波形を比較できることが、当業者には理解されよう。記
憶済みパワー・シグネチャーのうちで、未知の音声発声
から得られたパワー・シグネチャーに最もよく一致する
ものを決定した後、その発声に一致するものを返す。そ
の後、または音声発声の認識を望まない場合には、処理
はブロック148に戻り、終了する。
【0041】前記を参照すれば、ある音声発声に関連す
る新規のパワー・シグネチャーを生成し、それを既知の
音声に関連する前もって記憶されたパワー・シグネチャ
ー群と比較することによって、音声発声の知的内容を決
定できる技法を本発明者が開発したことが、当業者には
理解されよう。本明細書に開示した形式のパワー・シグ
ネチャーを利用することによって、性別、年齢または地
域差に起因する音声振幅包絡線のばらつきが大幅に除去
される。
【図面の簡単な説明】
【図1】本発明の方法及び装置の実施に利用できるコン
ピュータ・システムのブロック図である。
【図2】本発明の方法及び装置の実施に利用できるデジ
タル信号プロセッサを含む、オーディオ・アダプタのブ
ロック図である。
【図3】ある音声発声の生の振幅包絡線のグラフ表示で
ある。
【図4】図3の振幅包絡線に高速フーリエ変換(FF
T)を適用した後の、上位8つのパワー振幅を有するビ
ンの航跡のグラフ表示である。
【図5】図4の8つの航跡を合成したグラフである。
【図6】本発明の方法を示す、高レベル論理流れ図であ
る。
【符号の説明】 10 コンピュータ・システム 12 プロセッサ 14 表示装置 16 キーボード 18 オーディオ入力装置 20 オーディオ・シグネチャー・ファイル 24 インターフェース回路 26 デジタル信号プロセッサ(DSP) 32 ホスト・コマンド・レジスタ 34 ホスト状況レジスタ 36 デジタル信号プロセッサ制御レジスタ 38 デジタル信号プロセッサ状況レジスタ 44 データ上位バイト両方向ラッチ 46 データ下位バイト両方向ラッチ 48 共用メモリ 50 サンプル・メモリ 52 デジタル・アナログ・コンバータ(DAC) 54 アナログ・デジタル・コンバータ(ADC) 56 制御論理機構 64 メモリ調停論理機構 66 メモリ調停論理機構 68 アナログ出力部 70 アナログ入力部
フロントページの続き (56)参考文献 特開 昭53−74807(JP,A) 特開 昭59−219800(JP,A) 特表 昭62−502572(JP,A) (58)調査した分野(Int.Cl.6,DB名) G10L 7/00 - 7/08 G10L 9/00 - 9/04

Claims (2)

    (57)【特許請求の範囲】
  1. 【請求項1】それぞれが一連の短い時間間隔の1つにお
    ける音響パラメータを表す、フレームの時間列として音
    声発声を表すステップと、 音響パラメータの各フレームを分析して、それぞれが一
    連の異なる周波数ビンのうちの1つにおけるエネルギー
    ・レベルを表す、複数のスペクトル・パラメータを得る
    ステップと、 各フレームにおいてエネルギー・レベルが最大のものか
    ら順に周波数ビンを順序付けるステップと、 複数のフレームにわたって、エネルギー・レベルの順位
    が同じである周波数ビンの番号を最大エネルギ・レベル
    から所定順位のレベルまでプロットして、それらを合成
    することにより、前記音声発声を表す第1の連続したパ
    ワー・シグネチャーを形成するステップと、 前記音声発声を表す前記第1の連続したパワー・シグネ
    チャーを、選択された音声発声を表す複数の記憶済みパ
    ワー・シグネチャーと比較するステップとを含む、人間
    の音声を認識するための方法。
  2. 【請求項2】音声発声を受け取るためのオーディオ入力
    手段と、 それぞれが一連の短い時間間隔の1つにおける音響パラ
    メータを表す、フレームの時間列を生成するためのサン
    プリング手段と、 それぞれが一連の異なる周波数ビンの1つにおけるエネ
    ルギー・レベルを表す、複数のスペクトル・パラメータ
    を決定するための変換手段と、 各フレームにおいてエネルギー・レベルが最大のものか
    ら順に周波数ビンを順序付けるためのプロセッサ手段
    と、 複数のフレームにわたって、エネルギー・レベルの順位
    が同じである周波数ビンの番号を最大エネルギ・レベル
    から所定順位のレベルまでプロットして、それらを合成
    することにより、前記音声発声を表す第1の連続したパ
    ワー・シグネチャーを形成する手段と、 前記音声発声を表す第1の連続したパワー・シグネチャ
    ーを、選択された音声発声を表す複数の記憶済みパワー
    ・シグネチャーと比較するための比較手段とを含む人間
    の音声を認識するための装置。
JP3278898A 1990-11-05 1991-10-01 人間の音声を認識するための方法及び装置 Expired - Lifetime JP2980438B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US610888 1990-11-05
US07/610,888 US5313531A (en) 1990-11-05 1990-11-05 Method and apparatus for speech analysis and speech recognition

Publications (2)

Publication Number Publication Date
JPH04264598A JPH04264598A (ja) 1992-09-21
JP2980438B2 true JP2980438B2 (ja) 1999-11-22

Family

ID=24446817

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3278898A Expired - Lifetime JP2980438B2 (ja) 1990-11-05 1991-10-01 人間の音声を認識するための方法及び装置

Country Status (3)

Country Link
US (1) US5313531A (ja)
EP (1) EP0485315A3 (ja)
JP (1) JP2980438B2 (ja)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5790754A (en) * 1994-10-21 1998-08-04 Sensory Circuits, Inc. Speech recognition apparatus for consumer electronic applications
US5832441A (en) * 1996-09-16 1998-11-03 International Business Machines Corporation Creating speech models
US5884263A (en) * 1996-09-16 1999-03-16 International Business Machines Corporation Computer note facility for documenting speech training
US6665639B2 (en) 1996-12-06 2003-12-16 Sensory, Inc. Speech recognition in consumer electronic products
US6289140B1 (en) * 1998-02-19 2001-09-11 Hewlett-Packard Company Voice control input for portable capture devices
US6480823B1 (en) * 1998-03-24 2002-11-12 Matsushita Electric Industrial Co., Ltd. Speech detection for noisy conditions
US6167376A (en) * 1998-12-21 2000-12-26 Ditzik; Richard Joseph Computer system with integrated telephony, handwriting and speech recognition functions
US6622121B1 (en) 1999-08-20 2003-09-16 International Business Machines Corporation Testing speech recognition systems using test data generated by text-to-speech conversion
CH695402A5 (de) 2000-04-14 2006-04-28 Creaholic Sa Verfahren zur Bestimmung eines charakteristischen Datensatzes für ein Tonsignal.
US7461002B2 (en) * 2001-04-13 2008-12-02 Dolby Laboratories Licensing Corporation Method for time aligning audio signals using characterizations based on auditory events
US7711123B2 (en) 2001-04-13 2010-05-04 Dolby Laboratories Licensing Corporation Segmenting audio signals into auditory events
US7283954B2 (en) * 2001-04-13 2007-10-16 Dolby Laboratories Licensing Corporation Comparing audio using characterizations based on auditory events
US7610205B2 (en) * 2002-02-12 2009-10-27 Dolby Laboratories Licensing Corporation High quality time-scaling and pitch-scaling of audio signals
EP1386312B1 (en) * 2001-05-10 2008-02-20 Dolby Laboratories Licensing Corporation Improving transient performance of low bit rate audio coding systems by reducing pre-noise
DE10339027A1 (de) * 2003-08-25 2005-04-07 Dietmar Kremer Visuelles Hörgerät
JP3827317B2 (ja) * 2004-06-03 2006-09-27 任天堂株式会社 コマンド処理装置
GB2434876B (en) * 2006-02-01 2010-10-27 Thales Holdings Uk Plc Audio signal discriminator
WO2011059432A1 (en) * 2009-11-12 2011-05-19 Paul Reed Smith Guitars Limited Partnership Precision measurement of waveforms
CA2968972C (en) * 2014-12-01 2021-06-22 Inscape Data, Inc. System and method for continuous media segment identification
US10373608B2 (en) 2015-10-22 2019-08-06 Texas Instruments Incorporated Time-based frequency tuning of analog-to-information feature extraction

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3369076A (en) * 1964-05-18 1968-02-13 Ibm Formant locating system
US3588353A (en) * 1968-02-26 1971-06-28 Rca Corp Speech synthesizer utilizing timewise truncation of adjacent phonemes to provide smooth formant transition
US3603738A (en) * 1969-07-07 1971-09-07 Philco Ford Corp Time-domain pitch detector and circuits for extracting a signal representative of pitch-pulse spacing regularity in a speech wave
US4063035A (en) * 1976-11-12 1977-12-13 Indiana University Foundation Device for visually displaying the auditory content of the human voice
JPS5374807A (en) * 1976-12-15 1978-07-03 Fujitsu Ltd Voice recognition matching control system
JPS59219800A (ja) * 1983-05-27 1984-12-11 株式会社リコー 音声パターン比較方法
AU2944684A (en) * 1983-06-17 1984-12-20 University Of Melbourne, The Speech recognition
JPS61236600A (ja) * 1985-04-12 1986-10-21 日本電気株式会社 パタンマツチングボコ−ダ
JPS61252594A (ja) * 1985-05-01 1986-11-10 株式会社リコー 音声パタ−ン照合方式
US4748670A (en) * 1985-05-29 1988-05-31 International Business Machines Corporation Apparatus and method for determining a likely word sequence from labels generated by an acoustic processor
US4827519A (en) * 1985-09-19 1989-05-02 Ricoh Company, Ltd. Voice recognition system using voice power patterns
JPS63501603A (ja) * 1985-10-30 1988-06-16 セントラル インステイチユ−ト フオ ザ デフ スピ−チ処理装置および方法
JPH0636158B2 (ja) * 1986-12-04 1994-05-11 沖電気工業株式会社 音声分析合成方法及び装置
US4852170A (en) * 1986-12-18 1989-07-25 R & D Associates Real time computer speech recognition system
WO1988010413A1 (en) * 1987-06-09 1988-12-29 Central Institute For The Deaf Speech processing apparatus and methods
US4933973A (en) * 1988-02-29 1990-06-12 Itt Corporation Apparatus and methods for the selective addition of noise to templates employed in automatic speech recognition systems

Also Published As

Publication number Publication date
JPH04264598A (ja) 1992-09-21
EP0485315A3 (en) 1992-12-09
US5313531A (en) 1994-05-17
EP0485315A2 (en) 1992-05-13

Similar Documents

Publication Publication Date Title
JP2980438B2 (ja) 人間の音声を認識するための方法及び装置
JP3162994B2 (ja) 音声のワードを認識する方法及び音声のワードを識別するシステム
US4783807A (en) System and method for sound recognition with feature selection synchronized to voice pitch
US5325462A (en) System and method for speech synthesis employing improved formant composition
Böck et al. Polyphonic piano note transcription with recurrent neural networks
US6523005B2 (en) Method and configuration for determining a descriptive feature of a speech signal
JP3114975B2 (ja) 音素推定を用いた音声認識回路
US6553342B1 (en) Tone based speech recognition
Nwe et al. Detection of stress and emotion in speech using traditional and FFT based log energy features
JPH0441356B2 (ja)
CN1300049A (zh) 汉语普通话话音识别的方法和设备
Priyadarshani et al. Dynamic time warping based speech recognition for isolated Sinhala words
US4707857A (en) Voice command recognition system having compact significant feature data
Yavuz et al. A Phoneme-Based Approach for Eliminating Out-of-vocabulary Problem Turkish Speech Recognition Using Hidden Markov Model.
Nye et al. A digital pattern playback for the analysis and manipulation of speech signals
WO1987003127A1 (en) System and method for sound recognition with feature selection synchronized to voice pitch
JP2658426B2 (ja) 音声認識方法
Arshad et al. Signal-based feature extraction for Makhraj emission point classification
Yalova et al. Automatic Speech Recognition System with Dynamic Time Warping and Mel-Frequency Cepstral Coefficients.
CN117995206A (zh) 一种语音转换方法及系统
Rabiner et al. Some preliminary experiments in the recognition of connected digits
Macchhi et al. The syllable and speech synthesis
JPS6011898A (ja) 音声認識装置
Dharne et al. OPUS-An Android Based Speech to Musical Notes Converter
Sambur Efficient LPC vocoder