JPS62133500A - 音響信号から導かれた電気信号を区分する方法及び装置 - Google Patents

音響信号から導かれた電気信号を区分する方法及び装置

Info

Publication number
JPS62133500A
JPS62133500A JP61281628A JP28162886A JPS62133500A JP S62133500 A JPS62133500 A JP S62133500A JP 61281628 A JP61281628 A JP 61281628A JP 28162886 A JP28162886 A JP 28162886A JP S62133500 A JPS62133500 A JP S62133500A
Authority
JP
Japan
Prior art keywords
transition
functions
memory
derived
transition functions
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61281628A
Other languages
English (en)
Other versions
JP2527168B2 (ja
Inventor
ステフェン・マイケル・マルクス
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Koninklijke Philips NV
Original Assignee
Philips Gloeilampenfabrieken NV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Philips Gloeilampenfabrieken NV filed Critical Philips Gloeilampenfabrieken NV
Publication of JPS62133500A publication Critical patent/JPS62133500A/ja
Application granted granted Critical
Publication of JP2527168B2 publication Critical patent/JP2527168B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 本発明は、 一時間の関数としての電気信号からいくつかのパラメー
タを導き出し、 一各瞬時の周りの時間間隔内に位置するパラメータの信
号を順次の瞬時毎に取上げ、 −関連する時間間隔内に位置するパラメータの信号から
各瞬時毎に推移関数φを求め、 −当該音響信号を構成する区分に関連する情報を各瞬時
に関連する推移関数から導き出す音響信号から導びかれ
た電気信号を区分する方法に関するものである。
本発明は、また、この方法を実施する装置に関するもの
である。
冒頭に記載したタイプの方法はPCT願第W。
84104194号に開示されている。
このPCT願はビー・ニス・アタル(B、S、^tal
)による音声を経済的に符号化し、次いで伝送するため
に一時的な分解法を記載しているが、この方法は1つの
発声に対し複数個の音響ベクトル及びそれらに関連する
推移関数を決めるものである。
アタルは成る時間間隔内で最も中心に位置する推移関数
を求める手順を述べている。これが求まれば、順次の推
移関数はこの時間を小さな時間ステップだけずらすこと
により求めることができる。
この方法の詳細な説明は、ビー・ニス・アタル(B、S
、Atal)による論文[エフィシエント コーディン
グ オブ エル ビー シー パラメーターズ バイ 
テンポラル デコンポジション(Efficient 
coding of LPCparameters b
y tempolardecomposition) 
(ICASSP 83年のプロシーディンゲス第81〜
84頁所収)及びニス エムマルカス(S、M、Mar
cus)他の論文「テンポラル デコンポジション オ
ブ スピーチJ (Temporal decompo
sition of 5peech) (1984年I
POアンニスアルプログレス レポート第19号 第2
5頁所収)等を参照されたい。
アタルの方法は、数学的手順を用いて推移関数(及び関
連する音響ベクトル)を作るものであるが、実際には音
声信号内の音声に関連する事象にあまり似ていない。
イー・ニー・ズク(E、A、Zuk)は、音声信号内の
音声に関連する事象がこの既知の方法により固定される
場合に特に明白になる相当な欠点をこの既知の方法が有
していることを発見した。イー・ニー・ズク(E、^、
Zuk)の「アン インベスティゲイシッン オプ テ
ンポラル デコンポジシッンオプ スピーチ パラメー
ターズ フォー オートマチイック セグメンティショ
ン オブ スピーチJ (An investigat
ion of ten+poral decompos
ition of 5peech paraa+ete
rs for automatic segmenta
tion of 5peech) (IPOレポート第
459号)参照、ズクは、例えは、時間間隔の長さに小
さな変化があっても、この既知の方法により得られる推
移関数に大きな影響があることを発見した。特に、音声
信号を構成する音響ベクトルと、音声信号内の音声に関
連する事象との間に物理的関係が欲しい場合は、この大
きな影響は非常に望ましくない、事実、これは音声信号
時の所定の瞬時における時間窓の長さの選択が異なる関
連する時間窓内の音響ベクトルも異なることを意味して
いる。
本発明の目的は、この欠点を除去し、例えば、時間間隔
の長さの選択に余り依存せず、従って、音声信号が一層
良好に一時的に重なり合う事象に区分でき、これらの事
象がこの音声信号内の音声に関連する事象に密接に関連
する方法および装置を提供するにある。
この目的を達成するため、本発明方法は、+a)夫々の
近傍の瞬時i及びjに関連する2個の推移関数φiとφ
j間の類似ファクタciJを各々求め、伽)関連する類
似ファクタが基準値Vより大きい2個の推移関数の少な
くとも1つの群の推移関数から置換推移関数を導き出し
、この置換推移関数がそれを導き出す源となった前述の
推移関数と置き換わることを特徴とする。
区分(セグメント)に関連する情報を得るアタルの方法
は、推移関数およびその関連する重心を各瞬時毎に求め
、推移関数が関連していた瞬時間の差及び重心を時間軸
に沿ってプロットするものである。前記WO34104
194号の第11図に示しであるように、こうするとの
こぎり波状の曲線が得られる。所望の情1、例えば一時
的に音声信号を記述するのに必要な推移関数の数はこの
曲線から得られる。
この既知の方法と異なり、今度は全ての推移関数を完全
に蓄え(任意の速度で、推移関数の値が明白にゼロと異
なる時間間隔内の部分)、更に処理する。本発明方法に
より得られる置換推移関数は、例えば、使用される時間
窓のサイズの選択のような測定環境の変化に過敏ではな
い。
このため本発明方法は、音声認識に応用するのに非常に
適している。この分野は既知の方法ではあまり容易では
なかった。
置換推移関数は異なる方法で導かれる。
第1の方法は、複数個の推移関数を組合せ、それらから
組合せ推移関数を計算するものである。
この時置換推移関数は組合せ推移関数と呼ばれる。
例えば、一群の2個の推移関数を組合せることができる
。2個以上の群の推移関数を組合せることもできる。こ
れらの群は全て関連する頻偵ファクタが基準値■より大
きいという条件を満足するものと仮定する。その場合は
3個以上の推移関数を組合せることができる。後に明ら
かとなるように、推移関数を組合せることは、当該推移
関数の(荷重)平均を求めることを意味する。しかし、
これとは異なる推移関数の組合せ方も等しく可能である
ことに注意されたい。
第2の方法は、以下の方法で1個又は複数個の群(2個
以上の推移関数)から置換推移関数を導くものである。
(i)類似ファクタがVより大きい一群の2個の推移関
数の一つをとり、その群の置換推移関数として機能させ
るか、又は(ii)2個以上の群に関連する他の推移関
数に対゛して最大の類似度を呈する基準値Vより関連す
る類似ファクタが大きい2個以上の群の3個以上の推移
関数の組合せ推移関数をとり、置換推移関数として機能
させる。
しかし、以下の記述では、一群の2個の推移関数だけを
組合せ、それらから組合せ推移関数を計算するものとす
る。
本発明方法の一実施例は(c)  組合せ推移関数がそ
の組合せ推移関数を導き出す源となった2個の推移間数
の一方と置き換わり、2個の推移関数の他方を除き、 (d)  次に、この組合せ推移関数と、この組合せ推
移関数が関連する瞬時の近傍の瞬時と関連する推移関数
との間の類似ファクタを求め、少なくとも一方が前記組
合せ推移関数を導き出す源となった2個の推移関数の一
方である2個の推移関数の組合せは全て除去することを
特徴とする。この時重要なことは、2個の推移関数のど
ちらを組合せ推移関数で置き換えるかである。    
8 、  、過去の推移関数を組み合わせる決定は、異
なる方法でとることができる。
例えば、基準値を最初それが最大の類似ファクタの値と
、この最大めMatファクタに次ぐ類似ファクタの値と
の間に入るように選択することができる。その場合は、
事実上最大の類似ファクタを有する2個の推移関数が組
合わされる。
本発明方法の一実施例は、更に、+8)  次に前述し
た基準値より大きな類似ファクタが少なくとも一つある
場合は、この頻偵ファクタに関連する推移関数を組合せ
、前述した2個の推移関数と置き換わる組合せ推移関数
をこれらの2個の推移関数から導出し、その後でステッ
プ(0)に続き、(f)  前述した基準値より大きな
類似ファクタが存在しない場合は、この基準値を一定数
値だけ下げ、fg)  次にこうして得られた基準値が
所定の定数より大きいか否かを判定し、 fh)  基準値が上記定数より大きい場合は、ステッ
プ+e)に続き、 (il  基準値が上記定数より小さい場合は方法を終
了することを特徴とする。
もう一つの方法は、最大の類似度を有する2個の推移関
数を組合せるものである。この場合、前述した基準値が
仮想の数となる。この場合は、本発明の一実施例は、最
大の類似ファクタが所定の定数より大きいか否かを判定
し、 (e)最大の類似ファクタがこの定数より大きい場合は
、この類似ファクタに関連する推移関数から組合せ推移
関数を導き出し、この組合せ推移関数がそれを導き出す
源となった前記2個の推移関数と置き換わり、その後で
ステップ(c)に進み、(f)  最大の類似ファクタ
がこの定数以下の場合は方法を終了することを特徴とす
る。
最初推移関数φiとφjを組合せるべき場合は、組合せ
推移関数は、例えば、下記の式 で計算できる。この場合は実際上組合せ推移関数は元の
推移関数の平均である。
それ自体、夫々、推移関数の組合せ法の前のステップ(
b)と(e)で得られた推移間数φjとφjから組合せ
推移関数φijcを導き出す場合は、この組合せ推移関
数は、例えば、次式で得られる。
fli十llj ここでniとnjは、1個又は複数個の前の組合せステ
ップで2個の推移関数を組合わせることにより、夫々、
推移関数φjとφjを得た時元になった推移関数の数を
示す。
この場合は、実際上φijcはφiとφjの荷重平均に
等しく、従って、ni+ nj個の元の推移関数の平均
に等しい。この組合せ推移関数には新しい数nが付され
る。この目的で本発明方法の一実施例は、組合せ推移関
数φjcにIli + njに等しい数neを付し、こ
の数ncが1個又は複数個の前の組合せステップで2個
の推移関数を組合せることによりこの組合せ推移関数φ
ijcを得る開用いた元の推移関数の数を示し、数nc
が組合せ推移関数φjcにより置き換えられる推移関数
φj又はφjに関連する数ni又はnjと置き換わり、
2個の推移関数φi及びφjのうちの除去される方と関
連する数nc又はniも除去することを特徴とする。
2個の推移関数間の類似ファクタを計算する際、これら
の推移関数を多次元空間でのベクトルと考えることがで
きる。この時一つの方法は、類似ファクタをこれらのベ
クトルの終点間のユークリッド距離の逆数値に等しくす
るものである。もう一つの方法は、これらの2個のベク
トル間の角の余弦に等しくとるものである。後者の場合
は、前記定数を0.5と0.8の間の値とすることがで
きる。
利点は、この範囲内での定数の変化ならば、究極的に得
られる(組合せ)推移関数にほとんど影響しないことで
ある。
この方法を実施するための装置は、 一時間の関数としての電気信号からいくつかのパラメー
タを導き出す第1の手段と、 −各瞬時毎に、関連する時間間隔内に位置するパラメー
タの信号から1個の推移関数を導き出す、第2の手段と
を具え、この装置がまた、−推移関数を蓄わえる第1の
メモリと、−夫々近傍の瞬時i及びjに関連する2個の
推移関数間の類似ファクタを計算する第3の手段と−こ
の類似ファクタを蓄える第2のメモリと、−関連する類
似ファクタが基準値より大きい推移関数の少なくとも一
つの群の推移関数から置換、即ち、組合せ推移関数を導
き出す第4の手段とを具えることを特徴とする。
第1の手段で導かれるパラメータは、例えば、フォルマ
ントパラメータ又は「対数区域」パラメータでよい。こ
れらのフォトマントパラメータ及び「対数区域」パラメ
ータは、文献から既知である。例えば、エル・エル・エ
ム・フォグテン(L、 L、 M、 Vogten)の
「アナリシス・エコノミカル・コーディング・アンド・
スピーチ リシンセシス(Analysis、 eco
nomical coding and 5peech
resynthersis) (1983年オランダ)
及びヨツト・デー・マルケル(J、 D、 Marke
l)及びデー・バー・グレイ(A、H,Gray)の「
リニア・プレディクション・オプ・スピーチJ  (L
inear prediction ofspeech
) (1976年ベルリン、シヱプリンガー社)を参照
されたい。
また、この装置の一実施例は、入力端子が第2のメモリ
の出力端子に接続され、出力端子が第1のメモリのアド
レス入力端子に接続されている判定ユニットを設けたこ
とを特徴とする。この判定ユニットは、例えば、最大の
C4jを決め、その出力端子からこの最大の類似ファク
タの順序数1及びjを供給する。
また、この装置の一実施例は、推移関数φjと関連する
数rBを蓄える第3のメモリを設け、判定ユニットの出
力端子をこの第3のメモリのアドレス入力端子に接続し
、この第3のメモリの出力端子を第4の手段のもう一つ
の入力端子に接続したことを特徴とする。また、この装
置の一実施例は、第4の手段をまた数nc及びncから
数ncを導き出し、この数rlcを第2の出力端子に出
現せしめ得るようにし、且つ、この第2の出力端子を第
3のメモリの入力端子に接続したことを特徴とする。
図面につき本発明の詳細な説明する。
第1図は第1の例の方法を示す。プログラムは、ブロッ
クlでスタートする。ブロック2で音響信号、例えば、
音声信号をとりあげ、この音響信号から時間の関数とし
ていくつかのパラメータを導き出す。前述したように、
これらは「対数区域」パラメータであり得る。ブロック
3で各瞬時を中心とする成る時間間隔内に位置するパラ
メータの信号を順次の瞬時毎にとりあげ、各瞬時毎に関
連する時間間隔内に位置するパラメータの信号から推移
関数φを定める。瞬時は、例えば、l0m5の間隔で離
れている。また、時間間隔としては200ないし300
n+sの間隔をとることができる。全ての推移関数をメ
モリ (第7図のメモリ38)に蓄える。
第3図は、aにおいて、時間の関数として音声信号の一
部を示し、bにおいて、順次の瞬時iに対して推移関数
φiを示す。推移関数の順序数をbの傍らに示す。頂上
の推移関数は順序数85を有する。これは、上述した数
の例では、この推移関数が瞬時850m5と関連するこ
とを意味する。第3図のbで左上部から右下部に走るラ
インlは、異なる推移関数に対応する瞬時を結ぶ線であ
る。
第1図のブロック4では、2個の近接する瞬時i及びj
に関連する2個の推移関数間の類似ファクタC4jを計
算する(第7図の第3の手段41参照)第4図は2個の
推移関数との組合せに対して類似ファクタCijを定め
ることを示す。例えば、下記の類似ファクタが求められ
る。
C3+6’+ C3+6’+ C3+6’+ C4+6
’+ C5+1+’+ Ch+1”(cv、 6)、 
C6,s (=Ce、 6)、 C&、 q(=C*、
 6)、 Cb、 t。
(・CIO,&)及びC6,11(・Ct It 6)
これにより5個の近傍、従って10個の周囲の瞬時i 
(=1〜5及び6〜11)に関連する複数個の推移関数
を伴う1個の所定の瞬時(j=6)に関連する1個の推
移関数の類似ファクタが知られる。
こうして計算された類似ファクタがメモリ (第7図の
メモリ44)に蓄えられる。
類似ファクタは、複数個の推移関数のサンプルφ(1m
)を毎回多次元空間の1個のベクトルの第m番目の成分
と考え、1個の類似ファクタ毎に2個の関連するベクト
ルの端の間のユークリッド距離の逆数値をとることによ
り求めることができる。
もう一つの方法は、M412ファクタ毎に2個の関連す
るベクトル間の角の余弦を取るものである。従、 って
、 Σφ=  (m)  φJ(Ill) ここでφ= (m)及びφj(11)は、同時t=mに
おけるφi及びφjの成分を表す。また、加算は、2個
の関数の少なくとも一方がゼロでない期間について行わ
れる。
式(1)によりC4jを計算することを第5図のa。
b及び第6図のa、bにつき更に説明する。第5図のa
は推移関数φi、第5図のbは推移関数φjをいずれも
時間の関数として示す。推移関数φiは時間間隔(tI
、t3)、推移関数φjは時間間隔(t2.t4)で定
められている。理想的には式(1)での加算は時間間隔
(1+、11)で行うべきであるが、時間間隔(js+
 ji)内の瞬時で推移関数の少なくとも一方が何時で
もゼロではないから、加算はこの時間間隔(ts、ta
)内でだけ行われる。
第6図のaとbは、一層大きな距離に亘って隔たってい
る推移関数φj及びφjを示す。時間間隔(ts、t6
)内の瞬時では少なくとも一つの関数がゼロでない。そ
れ故、加算はこの時間間隔<ts、 t6)で行うべき
である。これは、φiは時間間隔(t、。
t6)ではく仮想的に)ゼロを補なわれ、φjは時間間
隔(ts、 h)では仮想的にゼロを補なわれ、正しい
ベクトルを得てCijを計算することを意味する。
次に第1図のブロック5でどの類似ファクタC4jが最
大であるかを決める。次にブロック6で最大の類似ファ
クタC4j IIIIXと関連する2個の推移関数から
組合された推移関数φ目0を求める。この持久のルール
を考慮に入れねばならない。組合された推移関数は、互
いに重なり合う2個の時間間隔内の位置に対し定められ
る。組合わされた推移関数φi、′は2個の推移関数φ
i及びφjの(荷重)平均から計算される。最初にブロ
ック6を通る時は、これは次のことを意味する。
第5図及び第6図は、式(2)に従ってφijcを計算
する2個の例を示したもので、第5図及び第6図のCが
得られる組合せ推移関数を示す。組合せ推移関数φi、
′は1zとt3の間の時間間隔で計算され、この時間間
隔において、2個の推移間数φiとφjの平均に等しい
(第5図のC参照)。第6図では時間間隔(tm 、 
ti)及び(tz、tm、)が長い距離に亘ってスタガ
されている。組合せ推移関数φijcが納まる時間間隔
(h、tm)は、それ故、第5図の例よりも短い。また
、この時間間隔(tg、tm)内ではφijcがゼロで
ない(第6図のC参照)。
次にブロック7で、2個の推移関数φj及びφjの一方
、例えば、φjを組合わせ推移関数φjcで置き換える
。即ち、 φj(新)=φijc こうして得られる新規の推移関数φiを第7図のメモリ
38の元の推移関数φえが蓄えられていた記憶位置に蓄
える。
この点で注意すべきことは、φiの方をφijcで置き
かえることもできることである。この場合はφ正は消去
される。
この結果、推移関数は2個以上メモリに蓄えられること
はない。ブロック8でこの新規の推移関数φjとその周
囲の推移関数との間の新しい類似ファクタC4kを計算
する(第7図の第3の手段41参照)。
一例を挙げる。ブロック5で065.が値が最大である
と判定されたと仮定する。その場合、φ5.フロを前述
した態様で計算し、元のφ6をφi,7cで置換え、φ
jを消去する。そして次の類似ファクタCI+&’+ 
  C3+&’+   C3+&’+   C4+h’
+   CL&’+   C6+a’+06+ 9’ 
+ ’ C6+ 1゜’lc&+1、及びC&+1□を
再び計算し、次の類4GL7yクタkff’+ ’C1
+’l’+ C4+’l’、+ ’ Cs+7’+C&
+’F’l ’ kll’lc?+9’l ’ Cf+
11及びCff+1□を第4図の表から除去する。これ
は全てφjかもはや存在しないためである。
次にブロック9で最大の類似ファクタを決定し、プッロ
ク10でこの最大の類似ファクタCij□8が成る定数
により大きいか否かをチェックする。もし大きければ、
プログラムは分路11を介してブロック6に戻り、再び
、組合せ推移関数φi4°を計算する。
2個の推移関数を組合せるのだが、その一方又は双方は
依然に過去の推移関数の組合せから得られたものとする
一例を挙げる。C&lllが今最大の類似ファクタであ
るとする。これは、φ6とφjを組合わせるべきで、φ
6は前述した例では元の推移関数φj及びφjの過去の
組合せで得られたものであることを意味する。
新しい組合せ推移関数φ6,8Cを計算するに当たって
は、φ6に大きな重要性を与え、このことを考慮に入れ
ねばならない。これは次のようにして行われる。
これを−硫化すれば、 nc+nj ここでniとnjは、1個又は複数個の過去の組合せス
テップで2個の推移関数を組み合わせることにより、推
移関数φi及びφjを求めた時の元の推移関数の数を示
す。なお、説明を簡明ならしめるため、前の式では時間
依存性を省略した。
それ故、φijcには1個の数ncが関係する。この数
は次のように決められる。
nc   ”  ni 十 nj      (4)n
cは1個又は複数個の過去の組合せステップで2個の推
移関数を組合せることによりφijcを得た時の元の推
移関数の数を示す。次に古いφjの代わりにφijcを
入れると、この古いφiに関係していた値ncに代わっ
てncが登場し、推移関数φjと共に、これに関係する
値ncは省略される。しかし、φ目ゞがφjに代わる場
合は、新しいnjがncに等しくなり、niが省かれる
定数kにより大きな類似ファクタCijが一切なくなる
迄分路11を通るプログラムループを繰り返す。その場
合プログラムはブロック10からブロック12に進み、
終了する。
類似ファクタを式(1)に従って計算する場合、定数に
は0.5と0.8の間の数に等しくとることができる。
第2図は、異なる方法を示す。この方法は、ブロックl
ないし4迄は第1図の方法と同じ道を辿る。ブロック4
で類似ファクタC4jを決めた後、ブロック20で所定
の基準値■より大きな類似ファクタが少なくとも1個存
在するか否かをチェックする。類似ファクタを式(1)
で求める場合は、■は、例えば0.95と等しくとるこ
とができる。■より大きなCijが存在する場合は、プ
ログラムは第1図の方法につき述べたのと同じ道を足り
、ブロック6.7及び8へと進み、分路21を経てブロ
ック20に戻る。■より大きな類似ファクタが一切なく
なる迄毎回分路21を経るプログラムループを辿る。
それが完了したら、プログラムはブロック20からブロ
ック22に進み、基準値Vを所定の量、例えば、0.0
5だけ小さくする。次に、こうして得られた基準値Vが
前述した定数によりおときいか否かを判定する。大きけ
れば、プログラムは、分路24及び21を経てブロック
20に戻る。
ブロック6ないし8を具えるループは、■より大きな類
似ファクタが一切なくなる迄分路21を経て再び辿られ
る。これが完了したらプログラムはブロック20からブ
ロック22に進み、再び基準値を下げる。これをVが定
数に以下となる迄続ける。
これが完了したらプログラムはブロック23を経てブロ
ック12に進み終了する。
初めてブロック20を通る時、基準値■は最大のC4j
とこれより1小さいものとの間になるように選ぶことが
できる。その場合は第1の組合せ推移関数を、あたかも
同じ音声信号に対し第1図の方法が用いられたかのよう
に、同じ2個の推移関数から計算する。
第7図は、前記方法を実施する装置の一例を示すが、こ
の装置はマイクロホン30を具え、そこに音響信号、例
えば、音声信号が加えられる。マイクロホン30を第1
の手段32の入力端子31に接続し、マイクロホン30
から入力端子31に加えられた電気信号から時間の関数
として、例えば、「対数区域」パラメータのようないく
つかのパラメータを取り出す。第1の手段32の出力端
子33を第2の手段35の入力端子34に接続する。こ
の第2の手段35は、各瞬時毎に、各瞬時に関係する時
間間隔内にあるパラメータの信号から関連する推移関数
を導き出す。これらのパラメータは第1の手段から入力
端子34を介して第2の手段に与えられたものである。
第2の手段35の出力端子36を第1のメモリ38の入
力端子37に接続する。このメモリ38には第2の手段
35により計算された推移関数が蓄えられる。各推移関
数の開始時点及び長さもこのメモリ38に蓄える。これ
は、第5図及び第6図の例では、φiについては瞬時t
、及び長さく1+、1+) 、φjについては瞬時t2
及び長さくtz、t4)を蓄えることを意味する。この
第1のメモリ38の出力端子39を第3の手段41の入
力端子40に接続する。この第3の手段41は、2個の
近接する瞬時i及びjに関連する2個の推移関数φiと
φjの間の類似ファクタCijを計算するのに適してい
る。第3の手段41の出力端子42を第2のメモリ44
の入力端子43に接続する。
このメモリ44は、第3の手段41で計算された類似フ
ァクタC4jを蓄える。第2のメモリ44の出力端子4
5を判定ユニット47の入力端子46に接続する。
判定ユニット47は、第1図の方法ではブロック5及び
第2図の方法ではブロック20で示されるステップを実
行する。これは、第1図のブロック5によれば、この判
定ユニットが第2のメモ1月4に蓄えられている類似フ
ァクタC4jから最大のファクタC4jを決めることを
意味する。次に、関連する順序数i及びjが判定ユニッ
ト47の出力端子48に現れる(第9図も参照)。
判定ユニット47が第2図のブロック20のステップを
実行する場合は、この判定ユニットが比較器を具え、・
基準値Vより大きな類似ファクタCijが存在するか否
かを決める。これは類似ファクタC1、上■をこの比較
器の2個の入力端子に加えることにより実現される(第
10図も参照)。■より大きなCijが存在する場合は
、比較器の出力端子から制御信号を出力し、判定ユニッ
ト47の出力端子48に関連する順序数i及びjギ出現
せしめる。
第1のメモリ38の°出力端子39はまた第4のメモI
J50の入力端子49に結合し、第1のメモリから入力
端子49を介して供給される推移関数φi及びφjから
組合わせ推移関数φ3、′を計算する。メモリ38から
の正しい推移関数φj及びφjを読み出すためには、組
合わさるべき推移関数の順序数i及びjに関する情報成
分を担う判定ユニット47の出力端子48をメモリ38
のアドレス入力端子51に結合する。出力端子48は第
3のメモリ53のアドレス入力端子52に結合する。こ
の第3のメモリには推移関数φiに関達す数ncが蓄え
られている。第3のメモリ53の出力端子54を第4の
手段50の第2の入力端子55に結合する。第3のメモ
リ53のアドレス入力端子52に順序数i及びjを加え
ることにより、このメモリ53のアドレスi及びjにあ
る数nc及びnjをこのメモリ53で読出され、出力端
子54を介して第4の手段50の入力端子55に加えら
れる。
式(3)を用いて第4の手段50は、今度は組合せ推移
関数φijcを計算し、式(4)を用いて新しい値nc
・φij  を計算し、これが第1のメモリ38の第2
の入力端子57に結合されている第1の出力端子56に
現れる。
φjjcがメモリ38の位置φiに蓄えられている時は
、ncはメモリ53の位置ncに蓄えられている。推移
関数φj及び数njは、夫々、メモリ38及び53から
消去される。φ目0がメモリ38の位置φiに蓄えられ
ている時はメモリ53でncに代わるrlj並びにφi
及びniが、夫々、メモリ38及び53から消去される
。また、φiIの開始瞬時及び長さは、φijcと共に
メモリに蓄えられる。第5図又は第6図の例では、これ
は瞬時t2及び長さくtg、 t:+)を意味する。
この装置は中央制御装置60から制御される。中央制御
装置60と種々の要素の間には電気リード線61〜68
が設けられており、これらのリード線を介して中央制御
装置から種々の要素へ制御信号が加えられ、又逆に種々
の要素の中央制御装置へ信号が送られる。
中央制御装置60は、プログラムのスタート後、第1の
手段32がリード線61を介して活性化され、「対数区
域」パラメータを導き出す。次に第2の手段35がリー
ド線62を介して活性化され、推移関数を計算する。リ
ード線63上の制御信号の影響の下に、これらの推移関
数は第1のメモリ3日に蓄えられる。次に、リード線6
5上の制御信号の影響の下に第3の手段41が活性化さ
れ、類似ファクタC4jを計算する。それ故、正しい推
移関数はリード線63を介してメモリ38に与えられる
制御信号の影響の下に第1のメモリ38で供給される。
計算された類似ファクタC4jはリード線67を介して
第2のメモリ44に与えられる制御信号の影響の下にこ
のメモリ44に蓄えられる。
リード!1a66を介して第3のメモリ53に与えられ
る制御信号の影響の下に、このメモリ53は全てのiに
対し、nc=1だけを蓄える。
第1図につき述べた方法を実施するために、判定ユニッ
ト47は、リード線68上の制御信号の影響の下に、メ
モリ44に蓄えられている値の中で最大のものを判定す
る。
第2図につき述べた方法を実施するためには、判定ユニ
ット48は、リード線68上の制御信号の影響の下に、
基準値Vより大きい類似ファクタC4jを判定する。こ
れは、例えば、第1O図の回路で実現されるが、このに
ついては後述する。
最大のC4j及びVより大きなC!、に関連する2個の
順序数i及びjはこの時出力端子48に得られる。この
情報はアドレス信号としてリード線69を介して、メモ
リ38のアドレス入力端子51及びメモ1753のアド
レス入力端子52に与えられる。
これらのアドレス信号並びに、夫々、メモリ38、第4
の手段50及び第3のメモリ53にリード線63゜64
及び65を介して与えられる制御信号の影響の下に、順
序数i及びj並びに数ni及びncに関連する推移関数
φi及びφjを第4の手段50に加え、そこで組合せ推
移関数φijc及び数ncを計算する。
リード線63上の制御信号の影響の下に、φj、Cは次
にメモリ38の位置i (又は丁度j)に蓄えられ、位
置j (又は丁度i)がメモリ38内で消去される。同
じ態様でリード線66上の制御信号の影響の下に、nc
がメモリ53の位置i (又は丁度j)に蓄えられ、こ
のメモリで位Wj  (又は丁度i)が消去される。
次に、リード線63.65及び67を介して与えられる
中央制御装置60からの制御信号の影響の下に第3の手
段41で新しい類似ファクタを決め、瞬時iの周りの瞬
時に関連する推移関数で新しい推移関数φiの組合せを
求める。次にこの新しい類似ファクタを第2のメモリに
蓄える。加えて、2個の順序数の一方がjに等しい類似
ファクタをリード線67上の制御信号の影響の下にメモ
リ44から消去する。
第4の手段50は、例えば、第8図で示すように作るこ
とができ、符号50′を付す。
入力端子49は、2個の入力端子部49′及び49″か
ら成り、夫々を介して、推移関数φj及びφjが第4の
手段50”に加えられる。入力端子55も2個の入力端
子部55″及び55#から成り、夫々を介して、数nt
及びncが加えられる。入力端子部49′と55′は乗
算器71の夫々の入力端子に接続される。入力端子部4
9#及び55#は乗算器72の夫々の入力端子に接続さ
れる。入力端子部55′及び55“はまた加算器74の
夫々の入力端子に接続される。
乗算器71と72の出力端子を加算器73の夫々の入力
端子に接続する。加算器73及び74の出力端子を除算
器75の夫々の入力端子に接続する。除算器75及び加
算器74の出力端子を、夫々、手段50’の出力端子5
6及び58に接続する。上述した手段50′は、夫々、
式(3)及び(4)に従ってφijc及びnCを計算で
きる。
第9図は第1図の方法に用いるのに適した判定ユニット
47の一例を示し、符号47′を付する。この判定ユニ
ット47′はメモリ77と比較器78とを有し、これら
が一つになって最大値判定ユニットとして機能する。
第1図のブロック5で初めて最大値C4jの判定をスタ
ートする前に、中央制御装置60からリード&168.
1を介してメモリ77のリセット入力端子81にリセッ
ト信号を加える。こうするとメモリ77の内容はゼロに
等しくなる。次に、第1の類似ファクタC2,(即ち、
C1z)を入力端子46からメモリ77の入力端子及び
比較器の一方の入力端子に加える。
メモリ78の出力端子を比較器78の他方の入力端子に
接続する。
CIZがゼロでないと仮定すると、比較器78の出力端
子は「高」になる。この出力端子をメモリ77の書込み
入力端子82及び2位置めもり80の書込み入力端子8
4に接続する。出力端子85が「高」になるため、値C
1!はメモリ77に書込まれ、リード線68.3及び6
8.4上に存在する順序数i、j(1,2)がメモリ8
0に蓄えられる。今度は比較器78の2個の入力端子に
2個の等しい数が存在するから、出力端子85は再び「
低」になる。
次の類似ファクタ(例えば、C1,3)の順序数がリー
ド線68.3及び68.4に現れ、この類似ファクタが
入力端子46に現れる。この類似ファクタがメモリ77
に蓄えられている値以下である場合は、何も起こらず、
その時点迄最大の類似ファクタに関連する順序数i、j
がメモリ80にとどまり、メモリ78に蓄えられている
値も保たれる。この類似ファクタがメモリ77に蓄えら
れている値より大きい場合は、この類似ファクタが新し
い値としてメモリ77に蓄えられ、関連する順序数をメ
モリ80に蓄える。
これを全てのM(j2ファクタが入力端子46から加え
られ終了迄続ける。次に出力端子48に存在する数1+
J は最大の類似ファクタに関連する順次順序数を示す
。この時C4j m□が定数により大きいか否かもチェ
ックされる。この目的でメモリ77の出力端子を第2の
比較器79の一方の入力端子に接続し、他方の入力端子
83に定数kを加える。C4j 、SAXかに以下であ
ることが判明した場合は、制御信号のリード[68,2
を介して中央制御ニュット60に送り、その後でプログ
ラムを停止する。
第10図は、第2図の方法に使用するのに適した判定ユ
ニット47の一例を示し、符号47″を付した。
初めてブロック20でCijがVより大きいか否かを判
定する前に制御信号を中央制御ユニソ)60からリード
線68.1及び68.5を介して判定ユニット47“に
加える。リード線68.1上の制御信号は短時間スイッ
チ87を閉じる。リード&’168 、5上の制御信号
はメモリ89の書込み入力端子88に加えられる。両方
の制御信号が同時に生ずるから、所期基準値V(即ち、
vi)がメモリ89に書込まれる。vi は例えば0.
95に等しい。
次に、第1の類似ファクタCI+2を入力端子46を介
して比較器78の一方の入力端子に加える。メモリ89
の出力端子を比較器78の他方の入力端子に接続する。
C1+2はり五以下であると仮定する。この時は比較器
78の出力端子85は書込み信号を2位置メモリ80の
書込み入力端子84に加えない。次に類似ファクタCI
+3を入力端子46を介して与える。このCI+3はv
iより大きいと仮定する。比較器78は書込み信号をメ
モリ80に与え、順序数i、J(即ち1、3)はこのメ
モリに蓄えられ、出力端子48で利用できる。加えてこ
の書込み信号はリード線68.6を介して制御ユニット
60に与えられ、この制御ユニットかりiより大きい類
似ファクタが見付かったことを検出する。制御ユニット
は今度はプログラムを第2図のブロック6.7及び8に
進める。
これらのブロックでステップが実行され終わったら、プ
ログラムは20に戻る。
プログラムは今度は次のCi+j、従って01,4をv
i と比較する。もう一つの方法は、再びC1,!から
C19,をV、と比較しはじめるものである。
全てのCi、JがV、と比較され終わり、これらのC4
+jが一つとしてV、より大きくないことが判明した場
合は、リード線68.5を介してメモリ89に書込みパ
ルスを再び与える。
メモリ89の入力端子90は減算器91の出力端子に接
続する。減算器91のもう−っの入力端子92をメモリ
89の出力端子に接続する。もう−っの入力端子93に
は数dを与える(dは、例えば、0.05に等しい)。
書込みパルスが書込み入力端子88に与えられると、V
= V、 −dがメモリ89に、書込まれる(第2図の
ブロック22)。
次に類似ファクタCi+jを新しい基準値Vと比較する
。第2図のブロック22を何回が経た後、所定の瞬時に
Vかに以下になる。比較器79は、一方の入力端子をメ
モリ89の出力端子に接続しであるが、制御信号をり−
゛ド線8.2を介して制御ユニット60に供給し、プロ
グラムが終了する。
第1図ないし第10図につき述べた方法の結果は有限数
の推移関数が残り、それらは一般に2個の近傍の推移関
数だけが一部時間的に互いに重なり合うものである。第
11図のaは普通の音声信号を示し、bは上述した方法
の一方で得られた推移関数を示す。
これらの推移関数から出発して、WO34104194
号の第4頁の式(2)を用いて関連する音響ベクトルを
計算できる。即ち、 Y=Aφ  (5) ここでYは列が種々の瞬時で電気信号から導かれたく「
対数区域」)パラメータを示すマトリックスを表し、φ
は行が上述した推移関数であるマトリックスであり(推
移関数の前後にゼロを加え、全発声時にまたがる関数を
得ている)、Aは列が(計算すべき)音響ベクトルを表
すマトリックスを示す。
こうして得られる音響ベクトル及びそれらの関連する推
移関数は今度は伝送に使用できる。上述した方法の一つ
によれば、非常に効率の高いデータ減少が実現できる。
事実、推移関数は時間的にゆっくりと変わる関数であり
、短時間しかゼロでない値を有するからである。次に小
さいデータ流で伝送が行われる。
音響ベクトルと得られた推移関数の別の用途は、音声認
識の分野である。この用途では多数の異なる発声が何回
も行われる前にこの方法を適用し、会話内の全ての音が
少なくとも何回がで処理され終わらねばならない。これ
でも、例えば、1000個以上の多数の音響ベクトルが
得られる。
例えば、刊行物(アール・エム・グレイ「ベクトル ク
オンタイゼイションJ IEEE ASSP誌1984
年4月第4〜29頁)から既知のベクトル量子化により
、これらの1000個のベクトルをクラスタすることに
より、50と100個の間の一組のベクトルが得られ、
これらは物理的に関連する。蓋し、これらは所定の言語
のスピーチが組立てられる5oないし100個の区別で
きる音に関連するからである。
音声鴫2識はこうすれば未知の発声に本発明方法を受け
させ、次に得られた音響ベクトルを上述した50ないし
100個の物理的に関連するベクトルと比較することに
より得られる。
比較ステラフでは、上述した50ないし100個のベク
トルの一つを認識した後音声ベクトルを割り当てる。各
ベクトルは一つの音に関連する。そして未知の発声の音
響ベクトルがどの音に関連するかが知られ、これにより
、その発声が認識される。
本発明方法は、グイフォーンを経済的に符号化するのに
適している。グイフォーンとは音声合成で使用され且つ
2個の音声音間の推移を記述するセグメントである。
グイフォーンセグメントが導かれる発声が本発明方法に
より解析される場合は、データ減少も得られる。グイフ
ォーンは一般には、例えば、語rnenoone Jの
ような無意味の語から導かれる。
語rnenoone Jに対し本発明方法を用いた後、
この後向の6個の音、即ち音rnj、reJ、rnj、
「00」、rnj及びreJに対応する関連する音響ベ
クトルを有する6個の推移関数が期待できる。
斯くして、グイフォーンrneJに対しては、第1の音
響ベクトルと第2の音響ベクトルとの間の推移が必要と
なる。これは第12図に示す。第12図は時間の関数と
して推移関数φi及びφ2を示すが、これらは式(5)
を用いて、夫々、音響ベクトルA1及びA2を生む。こ
れらの推移関数/音響ベクトルは、夫々、音rnj及び
reJに対応する。
今度は2個の音響ベクトルA1及びA2並びに2個の推
移関数φj及びφ2のtlとt2の間の部分(1+及び
1gは、例えば、推移関数が最大値をとる瞬時を示す)
を蓄えることによりrneJダイフォーンを符号化する
−Jし− 第1図及び第2図のブロックの説明 ブ旦LL1号      −説一皿 l    スタート 2     (対数区域)パラメータの導出3    
推移関数φの計算 4    M4似ファクタCijの計算5.9   最
大のCijの決定 6    組合せ推移関数φijの計算7    元の
φの一つをφijcで置き換え、他の元のφを消去 8    新しい類似ファクタCikの計算10   
 最大のC4jが定数により大きいか?12     
ストップ 20     cijが基準値■より大きいか?22 
    Vを下げる 23     Vは定数により大きいか?
【図面の簡単な説明】
第1図は、本発明方法の第1の例の流れ図、第2図は、
本発明方法の第2の例の流れ図、第3図は、いくつかの
瞬時に関連する推移関数を時間の関数として示す説明図
、 第4図は、計算された類似ファクタを含むマトリックス
の線図、 第5図及び第6図は、2個の推移関数を組合わせる2例
を示す説明図、 第7図は、本発明方法を実施する装置の一例のブロック
図、 第8図は、第7図の第4の手段の一例のブロック図、 第9図は、第7図の判定ユニットの第1の例のブロック
図、 第10図は、第2の例のブロック図、 第11図は、本発明方法で究局的に得られる関連する推
移関数の線図、 第12図は、本発明方法で得られる推移関数及び音響ベ
クトルを用いてグイフォーンを符号化する場合の説明図
である。 30・・・マイクロフォン  31−・・入力端子32
・・・第1の手段    33・・・出力端子34・・
・入力端子     35・・・第2の手段36・・・
出力端子     37・・・入力端子38・・・第1
のメモリ   39・・・出力端子40・・・入力端子
     41・・・第3の手段42・・・出力端子 
    43・・・入力端子44・・・第2のメモリ 
  45・・・出力端子46・・・入力端子     
47・・・判定ユニット48・・・出力端子     
49・・・入力端子50・・・第4の手段    51
・・・アドレス入力端子52・・・アドレス入力端子 
53・・・第3のメモリ54・・・出力端子     
55・・・第2の入力端子56・・・第1の出力端子 
 57・・・第2の入力端子58・・・第2の出力端子
  59・・・入力端子60・・・中央制御装置   
61〜69・・・リード線7、72・・・乗算器   
 73.74・・・加算器75・・・減算器     
 77・・・メモリ78・・・比較器      79
・・・第2の比較器80・・・2位置メモリ   81
・・・リセット入力端子82・・・書込み入力端子  
83・・・他方の入力端子84・・・書込み入力端子 
 85・・・出力端子87・・・スイッチ     8
8・・・書込み入力端子89・・・メモリ      
9o・・・入力端子91・・・減算器      92
・・・入力端子93・・・入力端子 フルーイランペンファブリケン ばつ                αフ() DL
)  口D0

Claims (1)

  1. 【特許請求の範囲】 1、順次に、 −時間の関数としての電気信号からいくつかのパラメー
    タを導き出し、 −各瞬時の周りの時間間隔内に位置するパラメータの信
    号を順次の瞬時毎に取上げ、 −関連する時間間隔内に位置するパラメータの信号から
    各瞬時毎に推移関数φを求め、 −当該音響信号を構成する区分に関連する情報を各瞬時
    に関連する推移関数から導き出 す 音響信号から導びかれた電気信号を区分する方法におい
    て、 (a)夫々の近傍の瞬時i及びjに関連する2個の推移
    関数φ_iとφ_jの類似ファクタC_i_jを各々求
    め、 (b)関連する類似ファクタが基準値Vより大きい2個
    の推移関数の少なくとも1つの群の推移関数から置換推
    移関数を導き出し、この置換推移関数がそれを導き出す
    源となった前述の推移関数と置き換わることを特徴とす
    る音響信号から導びかれた電気信号を区分する方法。 2、基準値Vを最大の類似ファクタとそれに次ぐ類似フ
    ァクタとの間の数とすることを特徴とする特許請求の範
    囲第1項記載の音響信号から導びかれた電気信号を区分
    する方法。 3、ステップ(b)で唯一つの群の2個の推移関数だけ
    を組合せ、組合されできた推移関数がこの組合せ推移関
    数を導き出す源となった前記2個の推移関数と置き換わ
    る特許請求の範囲第1項又は第2項記載の音響信号から
    導かれた電気信号を区分する方法において、 (c)組合せ推移関数がその組合せ推移関数を導き出す
    源となった2個の推移関数の一方と置き換わり、2個の
    推移関数の他方を除き、(d)次に、この組合せ推移関
    数と、この組合せ推移関数が関連する瞬時の近傍の瞬時
    と関連する推移関数との間の類似ファクタを求め、少な
    くとも一方が前記組合せ推移関数を導き出す源となった
    2個の推移関数の一方である2個の推移関数の組合せは
    全て除去することを特徴とする音響信号から導かれた電
    気信号を区分する方法。 4、(e)次に前述した基準値より大きな類似ファクタ
    が少なくとも一つある場合は、この類似ファクタに関連
    する推移関数を組合せ、前述した2個の推移関数と置き
    換わる組合せ推移関数をこれらの2個の推移関数から導
    出し、その後でステップ(c)に続き、 (f)前述した基準値より大きな類似ファクタが存在し
    ない場合は、この基準値を一定数値だけ下げ、 (g)次にこうして得られた基準値が所定の定数より大
    きいか否かを判定し、 (h)基準値が上記定数より大きい場合は、ステップ(
    e)に続き、 (i)基準値が上記定数より小さい場合は方法を終了す
    ることを特徴とする特許請求の範囲第3項記載の音響信
    号から導かれた電気信号を区分する方法。 5、最大の類似ファクタが所定の定数より大きいか否か
    を判定し、 (e)最大の類似ファクタがこの定数より大きい場合は
    、この類似ファクタに関連する推移関数から組合せ推移
    関数を導き出し、この組合せ推移関数がそれを導き出す
    源となった前記2個の推移関数と置き換わり、その後で
    ステップ(c)に進み、 (f)最大の類似ファクタがこの定数以下の場合は方法
    を終了することを特徴とする特許請求の範囲第3項記載
    の音響信号から導かれた電気信号を区分する方法。 6、ステップ(b)で、唯一つの群の2個の推移関数を
    組合せ、上記2個の推移関数と置き換わる組合せ推移関
    数をこれらの2個の推移関数から導き出す特許請求の範
    囲第1項又は第2項記載の音響信号から導かれた電気信
    号を区分する方法において、ステップ(b)で組合せ推
    移関数φ_i_j^cを2個の推移関数φ_i及びφ_
    jから次の態様、即ち、 φ_i_j^c=(φ_i+φ_j)/2 で計算することを特徴とする音響信号から導かれた電気
    信号を区分する方法。 7、ステップ(e)で組合せ推移関数φ_i_j^cを
    2個の推移関数φ_i及びφ_jから次の態様、即ち、
    φ_i_j^c=(n_iφ_i+n_jφ_j)/(
    n_in_j)で計算し、ここでn_i及びn_jが、
    1個又は複数個の前の組合せステップで2個の推移関数
    を組合せることにより、夫々、推移関数φ_i及びφ_
    jを得る際の元の推移関数の数を示すものとすることを
    特徴とする特許請求の範囲第4項又は第5項記載の音響
    信号から導かれた電気信号を区分する方法。 8、組合せ推移関数φ_i_j^cにn_i+n_jに
    等しい数n_cを付し、この数n_cが1個又は複数個
    の前の組合せステップで2個の推移関数を組合せること
    によりこの組合せ推移関数 φ_i_j^cを得る際用いた元の推移関数の数を示し
    、数n_cが組合せ推移関数φ_i_j^cにより置き
    換えられる推移関数φ_i又はφ_jに関連する数n_
    i又はn_jと置き換わり、2個の推移関数φ_i及び
    φ_jのうちの除去される方と関連する数n_j又はn
    _iも除去することを特徴とする特許請求の範囲第7項
    記載の音響信号から導かれた電気信号を区分する方法。 9、2個の推移関数φ_iとφ_jの間の類似ファクタ
    C_i_jを計算するに当たり、これらの2個の推移関
    数φ_i及びφ_jを多次元空間のベクトルと考え、類
    似ファクタをこれらの2個のベクトルの終点間のユーク
    リッド距離の逆数値に等しいとすることを特徴とする特
    許請求の範囲前記各項のいずれか一項に記載の音響信号
    から導かれた電気信号を区分する方法。 10、2個の推移関数φ_iとφ_jの間の類似ファク
    タC_i_jを計算するに当たり、これらの推移関数を
    多次元空間のベクトルと考え、類似ファクタをこれらの
    2個のベクトル間の角度の余弦に等しいとすることを特
    徴とする特許請求の範囲第1項ないし第8項のいずれか
    一項に記載の音響信号から導かれた電気信号を区分する
    方法。 11、前記定数を0.5と0.8の間の値とすることを
    特徴とする特許請求の範囲第4項又は第5項に従属する
    特許請求の範囲第10項記載の音響信号から導かれた電
    気信号を区分する方法。 12、特許請求の範囲前記各項のいずれか一項に記載の
    音響信号から導かれた電気信号を区分する方法を実施す
    るために、 −時間の関数としての電気信号からいくつかのパラメー
    タを導き出す第1の手段と、 −各瞬時毎に、関連する時間間隔内に位置するパラメー
    タの信号から1個の推移関数を 導き出す第2の手段とを具える音響信号か ら導びかれた電気信号を区分する装置にお いて、この装置がまた、 −推移関数を蓄わえる第1のメモリと、 −夫々近傍の瞬時i及びjに関連する2個の推移関数間
    の類似ファクタを計算する第3 の手段と、 −この類似ファクタを蓄える第2のメモリと、−関連す
    る類似ファクタが基準値より大きい推移関数の少なくと
    も一つの群の推移関数 から置換、即ち、組合せ推移関数を導き出 す第4の手段とを具えることを特徴とする 音響信号から導かれた電気信号を区分する 装置。 13、入力端子が第2のメモリの出力端子に接続され、
    出力端子が第1のメモリのアドレス入力端子に接続され
    ている判定ユニットを設けたことを特徴とする特許請求
    の範囲第12項記載の音響信号から導かれた電気信号を
    区分する装置。 14、第1のメモリの出力端子を第4の手段の入力端子
    に接続し、第4の手段の出力端子を第1のメモリの入力
    端子に接続したことを特徴とする特許請求の範囲第12
    項又は第13項に記載の音響信号から導かれた電気信号
    を区分する装置。 15、特許請求の範囲第7項又は第8項に記載の音響信
    号から導かれた電気信号を区分する方法を実施するため
    に、推移関数φ_iと関連する数n_iを蓄える第3の
    メモリを設け、判定ユニットの出力端子をこの第3のメ
    モリのアドレス入力端子に接続し、この第3のメモリの
    出力端子を第4の手段のもう一つの入力端子に接続した
    ことを特徴とする特許請求の範囲第12項、第13項又
    は第14項に記載の音響信号から導かれた電気信号を区
    分する装置。 16、特許請求の範囲第8項に記載の音響信号から導か
    れた電気信号を区分する方法を実施するために、第4の
    手段をまた数n_i及びn_jから数n_cを導き出し
    、この数n_cを第2の出力端子に出現せしめ得るよう
    にし、且つ、この第2の出力端子を第3のメモリの入力
    端子に接続したことを特徴とする特許請求の範囲第15
    項記載の音響信号から導かれた電気信号を区分する装置
JP61281628A 1985-11-29 1986-11-26 音響信号から導かれた電気信号を区分する方法及び装置 Expired - Lifetime JP2527168B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NL8503304 1985-11-29
NL8503304A NL8503304A (nl) 1985-11-29 1985-11-29 Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.

Publications (2)

Publication Number Publication Date
JPS62133500A true JPS62133500A (ja) 1987-06-16
JP2527168B2 JP2527168B2 (ja) 1996-08-21

Family

ID=19846941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61281628A Expired - Lifetime JP2527168B2 (ja) 1985-11-29 1986-11-26 音響信号から導かれた電気信号を区分する方法及び装置

Country Status (6)

Country Link
US (1) US4813074A (ja)
EP (1) EP0227146B1 (ja)
JP (1) JP2527168B2 (ja)
CA (1) CA1296101C (ja)
DE (1) DE3679966D1 (ja)
NL (1) NL8503304A (ja)

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8503304A (nl) * 1985-11-29 1987-06-16 Philips Nv Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.
US5168524A (en) * 1989-08-17 1992-12-01 Eliza Corporation Speech-recognition circuitry employing nonlinear processing, speech element modeling and phoneme estimation
US5729656A (en) * 1994-11-30 1998-03-17 International Business Machines Corporation Reduction of search space in speech recognition using phone boundaries and phone ranking
DE19516106C2 (de) * 1995-05-05 2003-04-03 Philips Corp Intellectual Pty Verfahren zum Bestimmen von Referenzwerten
JPH10510065A (ja) * 1995-08-14 1998-09-29 フィリップス エレクトロニクス ネムローゼ フェンノートシャップ 多言語テキスト音声合成のための二連音を生成及び利用する方法及びデバイス
US6278972B1 (en) * 1999-01-04 2001-08-21 Qualcomm Incorporated System and method for segmentation and recognition of speech signals
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE10031518A1 (de) 2000-06-28 2002-01-10 Basf Ag Verfahren zur Herstellung von Hydroformylierungsprodukten des Propylens und von Acrylsäure und/oder Acrolein
US7643990B1 (en) * 2003-10-23 2010-01-05 Apple Inc. Global boundary-centric feature extraction and associated discontinuity metrics
US7409347B1 (en) * 2003-10-23 2008-08-05 Apple Inc. Data-driven global boundary optimization
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
US9959870B2 (en) 2008-12-11 2018-05-01 Apple Inc. Speech recognition involving a mobile device
WO2010117031A1 (ja) * 2009-04-10 2010-10-14 日本電気株式会社 類型化装置、類型化方法及び類型化プログラム
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
KR20150104615A (ko) 2013-02-07 2015-09-15 애플 인크. 디지털 어시스턴트를 위한 음성 트리거
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
CN105027197B (zh) 2013-03-15 2018-12-14 苹果公司 训练至少部分语音命令系统
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
EP3008641A1 (en) 2013-06-09 2016-04-20 Apple Inc. Device, method, and graphical user interface for enabling conversation persistence across two or more instances of a digital assistant
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
AU2014278595B2 (en) 2013-06-13 2017-04-06 Apple Inc. System and method for emergency calls initiated by voice command
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
TWI566107B (zh) 2014-05-30 2017-01-11 蘋果公司 用於處理多部分語音命令之方法、非暫時性電腦可讀儲存媒體及電子裝置
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179588B1 (en) 2016-06-09 2019-02-22 Apple Inc. INTELLIGENT AUTOMATED ASSISTANT IN A HOME ENVIRONMENT
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0138954B1 (en) * 1983-04-12 1988-10-26 AT&T Corp. Speech pattern processing utilizing speech pattern compression
NL8503304A (nl) * 1985-11-29 1987-06-16 Philips Nv Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.

Also Published As

Publication number Publication date
NL8503304A (nl) 1987-06-16
DE3679966D1 (de) 1991-08-01
JP2527168B2 (ja) 1996-08-21
EP0227146B1 (en) 1991-06-26
US4813074A (en) 1989-03-14
EP0227146A1 (en) 1987-07-01
CA1296101C (en) 1992-02-18

Similar Documents

Publication Publication Date Title
JPS62133500A (ja) 音響信号から導かれた電気信号を区分する方法及び装置
US5220640A (en) Neural net architecture for rate-varying inputs
WO2024021882A1 (zh) 音频数据处理方法、装置、计算机设备和存储介质
CN109739968A (zh) 一种数据处理方法及装置
JPS63259687A (ja) 音声信号認識方法およびその方法を実施する装置
CN113782042A (zh) 语音合成方法、声码器的训练方法、装置、设备及介质
KR20190021421A (ko) 오디오 인식을 위한 방법 및 디바이스
US4790017A (en) Speech processing feature generation arrangement
CN112489687A (zh) 一种基于序列卷积的语音情感识别方法及装置
JP2002372992A (ja) 話者識別方法
JP2003122380A (ja) ピッチマーク付与装置およびその処理方法ならびに記憶媒体
JPS58159599A (ja) 単音節音声認識方式
JPS62144200A (ja) 連続音声認識装置
CN116863953A (zh) 语音分离方法、装置、计算机设备及存储介质
JPH0756597B2 (ja) 音声認識装置
JPS6026399A (ja) 単語認識装置
CN114155884A (zh) 音频精彩点确定方法、装置、电子设备和存储介质
CN118173099A (zh) 会议纪要生成方法、装置、计算机设备和存储介质
JP2569304B2 (ja) 声音認識装置
CN113900730A (zh) 一种基于智能助手多账号共存识别的系统及方法
CN112309428A (zh) 获得歌声检测模型
JPS5882300A (ja) 音声認識方式
JPS61200596A (ja) 連続音声認識装置
JPS59111698A (ja) 音声認識方式
JPS58159598A (ja) 単音節音声認識方式