JP2527168B2 - 音響信号から導かれた電気信号を区分する方法及び装置 - Google Patents

音響信号から導かれた電気信号を区分する方法及び装置

Info

Publication number
JP2527168B2
JP2527168B2 JP61281628A JP28162886A JP2527168B2 JP 2527168 B2 JP2527168 B2 JP 2527168B2 JP 61281628 A JP61281628 A JP 61281628A JP 28162886 A JP28162886 A JP 28162886A JP 2527168 B2 JP2527168 B2 JP 2527168B2
Authority
JP
Japan
Prior art keywords
transition
functions
function
derived
memory
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP61281628A
Other languages
English (en)
Other versions
JPS62133500A (ja
Inventor
ステフェン・マイケル・マルクス
Original Assignee
フィリップス エレクトロニクス ネムローゼ フェンノートシャップ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フィリップス エレクトロニクス ネムローゼ フェンノートシャップ filed Critical フィリップス エレクトロニクス ネムローゼ フェンノートシャップ
Publication of JPS62133500A publication Critical patent/JPS62133500A/ja
Application granted granted Critical
Publication of JP2527168B2 publication Critical patent/JP2527168B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/04Segmentation; Word boundary detection

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】 〔発明の属する技術分野〕 本発明は、音響(acoustic)信号から導かれた1つの
電気信号を、電気信号のセグメントに区分する(segmen
ting)方法であって、電気信号から幾つかのパラメタ
を、幾つかの信号の形で時間の関数として導くこと;各
時点の周囲の或る時間間隔の内部に所在するパラメタの
信号を、順次各時点に対して取り上げること;各時点に
対して、該時点に対応する時間間隔の内部に所在するパ
ラメタの信号から、推移(transition)関数φを定める
こと;及び、上記各時点に係わる推移関数から、音響信
号のセグメントに関する情報を定めること;を順次行う
方法に関する。本発明はまた、この方法を実行する装置
にも関する。
〔従来の技術〕
このような方法はPCT出願国際公開第WO84/04194号(P
CT/US84/00367,なおこれは時願昭59−501,357号に相当
する)に開示されている。
該PCT出願は、音声(speech)を経済的に符号化し次
いでそれを送出するための、B.S.Atalによる時間的分解
方法(temporal decomposition method)を記載し、該
方法は1つの言葉(utterance)に対し音響ベクトル(a
coustic vectors)及びそれらに係わる推移関数を定め
るものである。Atalは、或る時間間隔内でその最も中心
に所在する推移関数を定めるための手順を説明してい
る。時間間隔を小さい時間ステップでシフトすることに
よって、順次引き続く推移関数を定めることができる。
該方法の詳細については、ICASSP 83議事録の81−84ペ
ージ所載のB.S.Atalによる“Bfficient coding of LPC
parameters by temporal decomposition"という文献、
及び1984 IPO annual progress report誌no.19,25ペー
ジ所載のS.M.Marcus他による“Temporal decomposition
of speech"という文献、等を参照されたい。
Atalの方法は、推移関数(及びそれに係わる音響ベク
トル)をもたらす数学的な手順を使用するが、この手順
は実際には音声信号中の音声学的に該当する結果(phon
etically relevant events)には僅かな類似しか示して
いない。
この既知の方法は少なからぬ不都合を有し、その不都
合はもし音声信号中の音声学的に該当する結果がこの既
知の方法を用いて固定されてしまうとするならば特に明
白になる、ということをE.A.Zukが見出した。それにつ
いてはIPO report誌No.459所載のE.A.Zukによる“An in
vestigation of temporal decomposition of speech pa
rameters for automatic segmentation of Speech"とい
う文献を参照されたい。例えば時間間隔の長さの小さな
変動が、この既知の方法を用いて求められた推移関数に
大きな影響を持つ、ということをZukは見出したのであ
る。特にもし、音声信号がそれから構築される音響ベク
トルと、音声信号中の音声学的に該当する結果との間
に、物理的関係が所望されるならば、この大きな影響と
いうのは極めて望ましくない。実際にそのことは、音声
信号中の或る所与の時点における時間ウィンドウの長さ
の選択が異なれば、当該時間ウィンドウ中の音響ベクト
ルが異なるであろうことを意味するのである。
〔発明が解決しようとする課題〕
本発明の目的は、この不都合を未然に防ぎ、例えば時
間間隔の長さの選択に依存する度合いの少ない方法及び
装置を提供して、それによって更によいやり方で音声信
号を時間的に重複する結果にセグメント化することがで
き、それは音声信号中の音声学的に該当する結果に密接
に関連するようにすることである。
〔課題を解決するための手段〕
これを達成するために本発明による方法は、(a)2
つの隣接する時点i及びjに係わる推移関数(φi及び
φj)ごとに、その2つの推移関数の間に類似ファクタ
(similarity factor)Cijを定めること;及び、(b)
それに係わる類似ファクタが或る参照値Vより大きいよ
うな2つの推移関数の少なくとも1グループの推移関数
から、置き換え(replacing)推移関数を導き、該置き
換え繊維関数は、それを導いた元の推移関数と入れ替え
られること;を特徴とする。
セグメントに関する情報を求めるAtalの方法では、各
時点に対して推移関数及びそれに係わる重心(centre o
f gravity)を定め、そして推移関数の係わった時点と
重心との差が時間軸に沿ってプロットされる。それによ
って前掲のPCT出願第WO84/04194号のFig.11に示されて
いる鋸歯形のカーブが得られる。そうすればこのカーブ
から所望の情報、例えば音声信号を時間的に記述するた
めに必要な推移関数の実数が定められる。
既知の方法とは異なり、今度はすべての推移関数が完
全に(その値と0とは明白に異なる時間間隔の中にある
推移関数はいずれにしても)記憶され、更に処理され
る。本発明により求められた置き換え推移関数は、例え
ば使われる時間ウィンドウのサイズの選択というよう
な、測定環境の変動には左右される度合いが少ない、と
いうことが判明する。
これにより本発明の方法は音声認識の分野への応用に
極めて適しているのであって、この分野は従来の方法で
はたやすく可能なものではなかったのである。
置き換え推移関数は種々のやり方で導くことができ
る。
先ず1番目のやり方としては、推移関数を組み合わせ
て、その1つの組み合わされた推移関数を計算する、と
いうものである。このとき、置き換え推移関数は組み合
わされた推移関数と呼ばれる。例えば1つのグループか
ら2つの推移関数が組み合わせられることができる。2
つ又はそれ以上のグループから推移関数が組み合わされ
ることもできる。これらのグループはすべて、関連する
類似ファクタが参照値Vより大きいという条件を満足し
ているものと仮定する。その場合には3つ又はそれ以上
の数の推移関数が組み合わせられることもできる。後に
明らかにされるように、推移関数を組み合わせるという
のは、当該推移関数の(重み付けをした)平均を算定す
るという意味であるとしてよい。但し推移関数を組み合
わせる別のやり方も同様に可能であるということに注意
されたい。
2番目のやり方としては、1つ又はそれ以上のグルー
プ(2つ又はそれ以上の推移関数)から置き換え推移関
数を次のようにして導く: (i)参照値Vより大きい類似ファクタを持つ1つのグ
ループの2つの推移関数のうちの一方をとって、それを
該グループの置き換え推移関数とする;又は (ii)参照値Vより大きい類似ファクタを持つ2つ又は
それ以上のグループの3つ又はそれ以上の数の推移関数
のうちの、該2つ又はそれ以上のグループに関連するそ
の他の推移関数に最大の類似性を示す推移関数をとっ
て、それを該グループの置き換え推移関数とする。
今後この記述中では、1つのグループの2つの推移関
数のみを組み合わせて、その1つの組み合わされた推移
関数を計算するものと、常に仮定する。
本発明によれ方法は更に、(c)組み合わされた推移
関数は、該組み合わされた推移関数がそれから導かれた
2つの推移関数のうちの一方と入れ替わり、該2つの推
移関数のうちの他方は除去されること;(d)それに引
き続いて、組み合わされた推移関数と、該組み合わされ
た推移関数に係わる時点の隣の時点に係わる推移関数と
の間に、類似ファクタが定められること;及び、少なく
ともその一方が組み合わされた推移関数をそれから導い
た2つの推移関数の組合せに係わる類似ファクタは除去
されること;を特徴とする。こうすれば、2つの推移関
数のうちのどちらが組み合わされた推移関数と入れ替わ
るかは、重要でなくなる。
2つの推移関数を組み合わせる(組み合わせなければ
ならない)という判断は様々なやり方が可能である。
例えば、最も大きい類似ファクタの値と、その次に大
きい類似ファクタの値との中間に参照値が来るように、
先ず初めに参照値を選択することができる。この場合に
は実際問題として、最も大きい類似ファクタを持つ2つ
の推移関数が組み合わせられることになる。
本発明による方法は更に、(e)もし引き続いて上記
参照値より大きい類似ファクタが少なくとも1つあるな
らば、そのような類似ファクタに係わる推移関数は組み
合わせられ、上述の2つの推移関数と入れ替わる組み合
わされた推移関数が該2つの推移関数から導かれ、しか
る後に上記(c)のステップに進むこと;(f)もし上
記参照値より大きい類似ファクタがないならば、参照値
をある一定の値だけ減少させること;(g)それに引き
続いて、こうして求められた参照値が或る所与の常数よ
り大きいか否かを判断すること;(h)もし参照値が上
記常数より大きいならば、上記(e)のステップに進む
こと;及び、(i)もし参照値が上記常数より小さいな
らば、終了とすること;を特徴とする。
もう1つ別のやり方として、最大の類似ファクタを持
つ2つの推移関数を組み合わせることができる。そのと
きには、前述の参照値なるものは実在しない数である。
この場合には本発明による方法は、最も大きい類似ファ
クタが或る所与の常数より大きいか否かを判断するこ
と;(e)もし最も大きい類似ファクタが該常数より大
きいならば、この類似ファクタに係わる2つの推移関数
から組み合わされた推移関数が導かれ、該組み合わされ
た推移関数はそれが導かれた上記2つの推移関数と入れ
替わり、しかる後に上記(c)のステップに進むこと;
及び、(f)もし最も大きい類似ファクタが上記常数よ
り小さいか又はそれに等しいならば、終了とすること;
を特徴とするであろう。
もし推移関数φi及びφjが第1回目に組み合わせら
れるものであるならば、組み合わされた推移関数φijc
は、例えば次の式すなわち: φijc=(φi+φj)/2 によって算出されることができよう。この場合には組み
合わされた推移関数は、実際には始めの推移関数φi及
びφjの平均値になる。
もし組み合わされた推移関数φijcが、この方法のこ
れより前のステップ(b)及び(e)でそれ自身それぞ
れ推移関数の組み合わせから求められていた推移関数φ
i及びφjから導かれるものであるならば、該組み合わ
された推移関数φijcは、例えば次の式すなわち: φijc=(niφi+njφj)/(ni+nj) によって求められることができよう。但し茲で、ni及び
njは、このとき以前の1回又はそれ以上の回数の組合せ
ステップで2つの推移関数を組み合わせることにより推
移関数φi及びφjがそれぞれ求められるに至った元の
推移関数の数を表す。
この場合には実際問題として、φijcはφiとφjと
の重み付けをした平均値に等しいので、従って(ni+n
j)個の元の推移関数の平均値に等しい。茲で、ncとい
う新しい数が該組み合わされた推移関数に付帯させられ
る。そのために本発明による方法は、ni+nj=ncとして
定義された数であるncを、組み合わされた推移関数に付
帯させ、このncという数は、その時までに2つの推移関
数を1回又はそれ以上の回数にわたり組み合わせること
により組み合わされた推移関数φijcがそれから求めら
れたところの最初の推移関数の数は幾つであったかを表
す数であること;またncという数が、組み合わされた推
移関数によって入れ替えられた推移関数(φi又はφ
j)に係わる数(ni又はnj)と入れ替えられること;及
び、2つの推移関数のうちの除去された方の推移関数に
係わる方の数(nj又はni)はやはり除去されること;を
特徴とする。
2つの推移関数の間の類似ファクタを計算するため
に、これらの推移関数を多次元空間内のベクトルである
と考えることができる。そのとき1つの考え方として、
類似ファクタはその値が上記両ベクトルの端の間のユー
クリッド距離の逆数に等しいとすることができる。もう
1つの考え方として、類似ファクタはその値が上記両ベ
クトルの間の角の余弦(cosine)に等しいとすることが
できる。後者すなわち、類似ファクタの値が上記両ベク
トルのなす角の余弦に等しいものとした場合には、上記
常数はその値が0.5と0.8の間にあるとすることができ
る。こうすることの利点は、この範囲内の常数の変動
が、最終的に求められた(組み合わされた)推移関数に
対していかなる影響もほぼ持たない、ということであ
る。
本発明による、音響信号から導かれた1つの電気信号
を電気信号のセグメントに区分する装置は:電気信号か
ら信号の形をしている幾つかのパラメタを時間の関数と
して導くための第1の手段と;各時点に対応する或る時
間間隔の内部に所在するパラメタの信号から各時点に対
する推移関数を導くための第2の手段と;を有して成る
装置において、推移関数を記憶するための1番目のメモ
リ;それぞれ隣接する時点i及びjに係わる2つの推移
関数の間の類似ファクタを計算するための第3の手段;
類似ファクタを記憶するための2番目のメモリ;及び、
それに係わる類似ファクタが或る参照値より大きいよう
な2つの推移関数の少なくとも1グループの推移関数か
ら、置き換え推移関数すなわち組み合わされた推移関数
を導くための第4の手段;を更に有して成ることを特徴
とする。
第1の手段中で導かれたパラメタは、例えば:ホルマ
ント(formant)パラメタ又は「ログエリア」(“log a
rea")パラメタである。ホルマント・パラメタ及び「ロ
グエリア」パラメタについては、例えば次の文献:“An
alysis,economical coding and speech resynthesis"
(1983)というL.L.M.Vogtenによるオランダ語の論文
や、ベルリンのSpring書店が1976年刊行のJ.D.Markel及
びA.H.Gray著“Linear prediction of speech"等から既
知である。
上記本発明による装置は、判断ユニットを更に有し、
該判断ユニットは、2番目のメモリの出力に結合する入
力と、1番目のメモリのアドレス入力に結合する出力と
を持つことを特徴とする。判断ユニットは、例えば類似
ファクタCijの最大値を算定し、またその出力に、最も
大きい類似ファクタの序数(順序を示す番号)i及びj
を与える。
上記本発明による装置は、推移関数φiに係わるniと
いう数を記憶するための3番目のメモリと、判断ユニッ
トの出力を3番目のメモリのアドレス入力に結合する手
段と、3番目のメモリの出力を第4の手段のもう1つの
入力に結合する手段と、を更に有することができる。そ
の上、第4の手段は更に、ni及びnjという2つの数から
ncという数を導くのに適するものとし、また、3番目の
メモリの入力の1つに結合している第4の手段のもう1
つの出力に、上記ncという数を与えるのに適するものと
することができる。
〔実施例〕
図面につき本発明を詳細に説明する。
第1図は、本発明の方法の最初の実施例のフローチャ
ートである。プログラムは、ブロック1で開始される。
ブロック2で音響信号、例えば音声信号をとりあげて、
この音響信号から幾つかのパラメタが時間の関数として
導出される。前述の通り、これらは「ログエリア」
(“log area")パラメタであろう。ブロック3で、各
時点の周りに或る時間間隔内に所在するパラメタの信号
を順次の時点ごとに取り上げ、各時点に対して該時点に
対応する時間間隔内に所在するパラメタの信号から推移
関数φを定める。これらの時点は、例えば10msごととい
うふうに、間を空けて配置される。また、上記時間間隔
としては200msないし300msの幅をとることになろう。す
べての推移関数はメモリに記憶される(第7図のメモリ
38)。
第3図は、推移関数を時間の関数として示す説明図で
あっで、第3図aは音声信号の一部を時間の関数として
示し、第3図bは、引き続く各時点iに対する推移関数
φiを示すものである。推移関数の順序を表す数が、第
3図bの右端に示されている。該図の一番上の推移関数
は順序番号85であるが、これは(上記の数値の例では)
この推移関数が時点850msに係わる推移関数であること
を意味するのである。第3図bで左上から右上に向かっ
て走るラインlは、様々の異なる推移関数がそれに係わ
る時点を結ぶ線である。
第1図のブロック4では、2つの隣接する(proximat
e)時点iとjに係わる2つの推移関数の間の類似ファ
クタCijをそれぞれ計算する(第7図中の第3の手段41
を参照のこと)。
第4図は、2つの推移関数のどのような組合せに対し
て、類似ファクタCijが算定されるかを示している。例
えば、下記の類似ファクタ: C1.6,C2.6,C3.6,C4.6,C5.6; C6.7(=C7.6),C6.8(=C8.6),C6.9(=C9.6),C
6.10(=C10.6)及びC6.11)(=C11.6) が算定されている。そうすると、或る所定の時点(j=
6)に係わる推移関数と、その近傍の5つの時点、従っ
て両側で10個の時点i(i=1から5までとi=7から
11までの10個)に係わる推移関数との間の類似ファクタ
が算定されているのである。このようにして計算された
類似ファクタがメモリに記憶される(第7図中のメモリ
44)。
推移関数の時間標本(time sample)φ(m)の各々
を多次元空間のベクトルの第m番目のコンポネントを見
做し、関連する2つのベクトルの端の間のユークリッド
距離の逆数値を類似ファクタとすることによって、類似
ファクタを算定することができる。又は、関連する2つ
のベクトルの間になす角のコサインをとって類似ファク
タとすることもできよう。φi(m)及びφj(m)
を、同一の時点t=mにおけるφi及びφjのコンポネ
ントを表すものとし、また、2つの推移関数のうちの少
なくとも一方が非零(non−zero)の期間について総和
を求めるものとすれば、類似ファクタは: によって計算される。
以下、数式(1)によるCijの計算を第1図のフロー
チャートで更に説明するのであるが、先ず第5図a,第5
図b及び第6図a,第6図bの説明から始める。第5図a
には推移関数φiが、また第5図bには推移関数φj
が、いずれも時間の関数として示されている。推移関数
φiは時間間隔(t1,t3)で、また推移関数φjは時間
間隔(t2,t4)で定義されている。数式(1)による総
和の演算は時間間隔(t1,t4)内で実行されるべきもの
である。だが、少なくとも一方の関数が時間間隔(t5,t
6)内の各時点で常に非零であるから、実際には総和の
演算がこの時間間隔(t5,t6)内でのみ実行される。
第6図a及び第6図bには、更に大きく離れている推
移関数φi及びφjが示されている。時間間隔(t5,
t6)内の各時点では、少なくとも一方の関数が非零であ
る。それ故に、総和の演算はこの時間間隔(t5,t6)で
行われる。このことは、時間間隔(t3,t6)ではφiが
(仮想的に)数値0を補なわれ、また時間間隔(t5,
t2)ではφjが(仮想的に)数値0を補なわれて、Cij
を計算するための適切なベクトルが得られる、というこ
とを意味するのである。
第1図に戻ると、第1のブロック5で、どの類似ファ
クタCijが最大であるかを判定する。次に、ブロック6
で、該最も大きい類似ファクタCijに係わる2つの推移
関数から組み合わされた推移関数φijcが算定される。
このときには次の規約を考慮に入れねばならない:組み
合わされた推移関数は、相互に重なり合っている2つの
時間間隔がその内部にある時間帯に対して算定されるも
のとする。また、組み合わされた推移関数φijcは2個
の推移関数φi及びφjの(重み付けをした)平均値か
ら計算されるものとする。ブロック6が第1回目に実行
されるときには、これは次の算出式: φijc=〔φi(m)+φj(m)〕/2 (2) を意味する。
第5図及び第6図は、算出式(2)に従ってφijc
計算する2つの実例を示したものであって、第5図c及
び第6図cに示すのが、求める組み合わされた推移関数
である。組み合わされた推移関数φijcは時点t2と時点t
3の間の時間間隔で計算され、この時間間隔内では、そ
れは2つの推移関数φi,φjの平均値に等しい(第5図
c参照)。第6図中の時間間隔(t1,t3)と(t2,t4)と
は、かなり長い時間に亘って重なっていない。それ故、
組み合わされた推移関数φijcがその内部で算定される
時間間隔(t2,t3)は、第5図の例よりも短くなる。そ
ればかりでなく、この時間間隔(t2,t3)内ではφijc
非零である(第6図c参照)。
その次に、第1図のブロック7で、2つの推移関数φ
i及びφjの一方、例えば、φiを、組み合わされた推
移関数φijcと入れ替える。すなわち: φi(新)=φijc とするのである。こうして求められた新規の推移関数φ
iが、第7図のメモリ38中の元の推移関数φiの記憶さ
れていた記憶位置に記憶される。更に、もう一方の推移
関数φjは消去される。
この点に関して注意すべきことは、φiではなくφj
の方をφijcと入れ替えてもよいのであって、その場合
はφiが消去される。
その結果、推移関数は2つ以上がメモリに記憶される
ことはない。第1図のブロック8で、新しい類似ファク
タCikが計算されるが、それはこの新しい推移関数φi
と、その周囲の推移関数との間の類似ファクタである
(それについては第7図の第3の手段41を参照のこ
と)。
一例を挙げると:第1図のブロック5で、C6.7の値
が最大であると判定されたと仮定する。この場合には、
φ6,7 を前述のやり方で計算して、元の推移関数φ
をφ6,7 と入れ替え、元の推移関数φを消去する。
そして、次の類似ファクタ:C1.6,C2.6,C3.6,C4.6,C5.6,
C6.8,C6.9,C6.10,C6.11,C6.12;を再計算し、また、次
の類似ファクタ:C2.7,C3.7,C4.7,C5.7,C6.7,C7.8,C7.9,
C7.10,C7.11,C7.12;を第4図の表から除去する。それ
はすべて、もはやφという推移関数が存在しないとい
う理由によるものである。
次に、第1図のブロック9で、最も大きい類似ファク
タを判定し、第1図のブッロク10で、この最大の類似フ
ァクタCij maxが、所与の常数kより大きいか否かをチ
ェックする。もし大きければ、プログラムは分枝11を経
由してブロック6に戻り、組合せ推移関数φijcを再び
計算する。
茲で2つの推移関数を組み合わせなければならない
が、その一方(又は双方)が、それまでの推移関数の組
合せから以前に得られたものだったのである。
一例を挙げると:C6.8が今ここで最大の類似ファクタ
のように見えるとする。このことは、φとφとが組
み合わせられ、φは前述の例での元の推移関数φ
φとの以前の組合せから得られたものであるというこ
とを意味するのである。
このことは、新しく組み合わされた推移関数φ6.8
を計算するに当たって、φにより大きな重要性を与え
ることによって、斟酌されなければならない。それは次
のようにして実行される: φ6.8 =(2×φ+φ)/3 あるいは、これを更に一般化すれば、以前に1回又はそ
れ以上の回数の組合せステップで2つの推移関数を組み
合わせたことにより、推移関数φi及びφjが求められ
たその元の推移関数の数をniとnjと表すと: φijc=(ni φi+nj φj)/(ni+nj) (3) で算出される。なお簡単のために、時間への従属性は以
前の式では省略されている。
従って、φijcには: nc=ni+nj (4) で定義される数ncが関連付けられる。この数は次のよう
に決められる。その結果、ncは以前に1回又はそれ以上
の回数の組合せステップで2つの推移関数を組み合わせ
たことにより、φijcが求められたその元の推移関数の
数を表すものとなる。続いて旧のφiをφijcで置き替
えると、旧のφiに係わる数値niをncで置き替え、また
旧のφjと共にそれに係わる数値njも除去される。しか
し、φijcがφjと入れ替わる場合は、新しいnjがnc
等しいものとされ、niが除去される。
分枝11を経由してプログラム・ループが繰り返され、
常数kより大きな類似ファクタCijがもはや存在しなく
なるまでに至ると、そのときに第1図のプログラムはブ
ロック10からブロック12に進み、終了する。
類似ファクタを数式(1)に従って計算する場合に
は、常数kは0.5と0.8の間に或る数に等しくとることが
できよう。
第2図は、本発明の方法の別の実施例のフローチャー
トである。この場合も、ブロック1からブロック4まで
は第1図の方法と同じである。ブロック4で類似ファク
タCijが定められた後、第2図ではブロック20で、所定
の参照値Vより大きな類似ファクタCijが少なくとも1
つ存在するか否かをチェックする。類似ファクタを数式
(1)に従って算出する場合は、Vの値を、例えば0.95
に等しいとすることができる。参照値Vより大きなCij
が存在する場合は、第2図のプログラムも第1図に示す
方法と同じ道を進み、ブロック6、ブロック7及びブロ
ック8を通ってから、分枝21を経由してブロック20に戻
る。参照値Vより大きな類似ファクタが一切なくなるま
で、毎回このプログラム・ループが繰り返され、それが
完了したら、第2図のプログラムはブロック20からブロ
ック22に進み、そこで参照値Vを所定の量dだけ、例え
ばd=0.05だけ小さくする。次に、こうして得られた参
照値Vが、前に第1図で言及した常数kより大きいか否
かを判断する。もし大きければ、第2図のプログラム
は、分枝24及び分枝21を経由してブロック20に戻る。
第2図では、参照値Vより大きな類似ファクタが一切
なくなるまで、ブロック6からブロック8までを含むル
ープが、分枝21を経由して繰り返し辿られる。それが完
了したら、第2図のプログラムはブロック20からブロッ
ク22に進み、再び参照値を下げる。これは、参照値Vが
常数kに等しいか又はそれより小さくなるまで続けられ
る。それが完了したら第2図のプログラムはブロック23
を経てブロック12に進み、終了する。
第2図のプログラムがブロック20を第1回目に通り時
点で、参照値Vは、最も大きいCijとその次に大きいCij
との間に来るように選定することができたのである。そ
の場合には、第1回目の組み合わされた推移関数は、同
じ2つの推移関数から、同じ音声信号に対してあたかも
第1図の方法が適用されたかのように、計算されたであ
ろう。
第7図は、前述の方法を実行する装置の1つの実施例
を示す。該装置はマイクロホン30を有し、例えば音声信
号のような音響信号がそれに与えられる。マイクロホン
30は第1の手段32の入力31に結合して、第1の手段32で
は、マイクロホン30により入力31に与えられた電気信号
から、例えば「ログエリア」パラメタのような幾つかの
パラメタを、時間の関数として導く。第1の手段32の出
力33は第2の手段35の入力34に結合される。この第2の
手段35は、各時点ごとにそれに係わる推移関数を、該各
時点に関連する時間間隔内に所在するパラメタの信号か
ら導出する。これらのパラメタは、入力34を経由して第
1の手段から第2の手段に与えられたものである。第2
の手段35の出力36を1番目のメモリ38の入力37に接続す
る。このメモリ38には、第2の手段35により計算された
推移関数が記憶される。各推移関数が開始する時点及び
その継続する時間長もこのメモリ38に記憶される。これ
は第5図及び第6図の例で云えば:φiについては時点
t1及び時間長(t1,t3)を、φjについては時点t2及び
時間長(t2,t4)を記憶するという意味である。この1
番目のメモリ38の出力39は第3の手段41の入力40に結合
する。この第3の手段41は、2つの隣接する時点i及び
jに係わる2つの推移関数φi及びφjの間の類似ファ
クタCijを計算するものである。第3の手段41の出力42
は2番目のメモリ44の入力43に結合する。このメモリ44
は、第3の手段41で計算された類似ファクタCijを記憶
する。2番目のメモリ44の出力45を判断ユニット47の入
力46に結合する。判断ユニット47は、第1の方法ではブ
ロック5で示されるステップを、また第2の方法ではブ
ロック20で示されるステップを、それぞれ実行するもの
である。第1のブロック5によるときは、これは該判断
ユニットが2番目のメモリ44に記憶されている類似ファ
クタCijのうちから最も大きい類似ファクタCijを決める
ことを意味する。引き続き、関連の順序を表す数i及び
jが判断ユニット47の出力48に現れる(第9図も参
照)。
判断ユニット47が第2図のブロック20のステップを実
行する場合には、判断ユニットは比較器を具え、参照値
Vより大きな類似ファクタCijが存在するか否かを判断
する。これは類似ファクタCij及び参照値Vをこの比較
器の2つの入力に与えることにより実現できる。第10図
も参照のこと。もしVより大きいCijが存在するなら
ば、比較器の出力から制御信号が供給され、判断ユニッ
ト47の出力48に関連の順序を表す数i及びjが出現す
る。
1番目のメモリから第4のメモリ50に入力49を介して
供給される推移関数φi及びφjから、組み合わされた
推移関数φijcを計算するために、1番目のメモリ38の
出力39は第4のメモリ50の入力49にも結合する。正しい
推移関数φi及びφjをメモリ38から読み出すために、
判断ユニット47の出力48は、組合わされるべき推移関数
の順序を表す数値i及びjに関する情報コンポネントを
伴って、メモリ38のアドレス入力51に結合される。判断
ユニット47の出力48は、3番目のメモリ53のアドレス入
力52にも結合し、推移関数φiに係わる数値niがこの3
番目のメモリに記憶される。3番目のメモリ53の出力54
は、第4の手段50の2番目の入力55に結合する。アドレ
ス入力52にある順序番号i及びjを3番目のメモリ53に
与えることにより、アドレスi及びアドレスjに在るni
及びnjという数がこのメモリ53内で読み出されて、出力
54を経由して第4の手段50の入力55に与えられる。
茲で算出式(3)を用いて、第4の手段50は組み合わ
された推移関数φijcを計算することができ、また、新
しい数値ncも数式(4)を用いて計算できる。組み合わ
された推移関数φijcは第4の手段50の1番目の出力56
に出現し、それは1番目のメモリ38の2番目の入力57に
結合されている。数値ncは第4の手段50の2番目の出力
58に出現し、それは3番目のメモリ53の入力59に結合さ
れる。
1番目のメモリ38中のφiの位置にφijcが記憶され
るとき、3番目のメモリ53中のniの位置にはncが記憶さ
れる。推移関数φj及び数値njは、メモリ38及びメモリ
53からそれぞれ消去される。φijcがメモリ38中のφj
の位置に記憶されるときは、メモリ53中ではnjがncで置
き変えられ、φi及びniがメモリ38及びメモリ53からそ
れぞれ消去される。更にまた、φijcの開始される時点
及びその時間長は、φijcと共に該メモリ中に記憶され
る。これは:第5図又は第6図の例では:時点t2及び時
間長(t2,t3)を意味する。
この装置は中央制御装置60から制御される。中央制御
装置60と種々のコンポネントとの間には電気的リード線
ないし68が設けられて、制御信号はそれらのリード線を
介して中央制御装置から種々のコンポネントに与えら
れ、又逆に種々のコンポネントからは中央制御装置60に
信号が送られる。
プログラムの開始後、中央制御装置60は、リード線61
を介して第1の手段32が起動して、(「ログエリア」)
パラメタを導き出すことを保証する。次に、第2の手段
35がリード線62を介して起動し、推移関数を計算する。
リード線63上の制御信号の影響の下に、これらの推移関
数は1番目のメモリ38に記憶される。続いて、リード線
65上の制御信号の影響の下に第3の手段41が起動し、類
似ファクタCijを計算する。それに対する適切な推移関
数が、リード線63を介してメモリ38に与えられる制御信
号の影響の下に、1番目のメモリ38によって供給され
る。計算された類似ファクタCijは、リード線67を介し
て2番目のメモリ44に与えられる制御信号の影響の下
に、このメモリ44に記憶される。
リード線66を介して3番目のメモリ53に与えられる制
御信号の影響の下に、この3番目のメモリ53には1だけ
を蓄えさせて、すべてのiに対してni=1とする。
第1図で述べた方法を実行するために、判断ユニット
47は、リード線68上の制御信号の影響の下に、メモリ44
に記憶されている数値の中で最大のものを判定する。こ
れは、例えば第9図の回路を用いて実現でき、それにつ
いては後述する。
第2図で述べた方法を実行するために、判断ユニット
47は、リード線68上の制御信号の影響の下に、参照値V
より大きい値をもつ類似ファクタCijを判定する。これ
は、例えば第10図の回路を用いて実現でき、それについ
ては後述する。
そうすると、最も大きいCijに係わる2つの順序数i
及びj、及びVより大きいCijに係わる2つの順序数i
及びjは、それぞれ出力48に得られる。この情報はアド
レス信号として、リード線69を介して、メモリ38のアド
レス入力51及びメモリ53のアドレス入力52にそれそれ与
えられる。
これらのアドレス信号の影響の下に、並びに、リード
線63,64,66を介して1番目のメモリ38、第4の手段50、
及び3番目のメモリ53にそれぞれ与えられる制御信号の
影響の下に、順序数iとjに係わる推移関数φiとφ
j、及び数値niとnjが、第4の手段50に与えられ、そこ
で組み合わされた推移関数φijc及び数値ncが算出され
る。
引き続いて、リード線63上の制御信号の影響の下に、
φijcがメモリ38中のi(又はj)の位置に記憶され、
j(又はi)の位置はメモリ38中で消去される。同じや
り方で、リード線66上の制御信号の影響の下に、ncがメ
モリ53のi(又はj)の位置に記憶され、このメモリの
j(又はi)の位置は消去される。
次に第3の手段41で、リード線63,65,67を介して与え
られる中央制御装置60からの制御信号の影響の下に、新
しい推移関数φiと、時点iの周囲の時点に係わる推移
関数との組合せに対して新しい類似ファクタを算定し、
この新しい類似ファクタを2番目のメモリに記憶する。
更に、リード線67上の制御信号の影響の下に、2つの順
序数のうちの一方がjに等しい類似ファクタをメモリ44
から消去する。
第4の手段50は、例えば第8図で示すように形成する
ことができ、これには図面中の引用番号として50′を付
す。
第7図の入力49は、第8図では2つの入力部49′及び
49′から成り、推移関数φ及び推移関数φjはそれぞ
れこれらを介して、第4の手段50′に与えられる。入力
55も2つの入力部55′及び55″から成り、水地ni及び数
値njは、それぞれこれらを介して第4の手段50′に与え
られる。入力部49′と入力部55′とはそれぞれ乗算器71
の入力に結合する。入力部49″と入力部55″とはそれぞ
れ乗算器72の入力に結合する。また、入力部55′及び入
力部55″は、加算器74のそれぞれの入力にも結合する。
乗算器71の出力と乗算器72の出力とを加算器73のそれぞ
れの入力に結合する。加算器73及び加算器74の出力は除
算器75のそれぞれの入力に結合する。除算器75及び加算
器74の出力は、該第4の手段50′の出力56及び58にそれ
ぞれ接続する。以上説明した手段50′が、φijc及びnc
を数式(3)及び数式(4)に従ってそれぞれ計算する
能力がある。
第9図は、第1図の方法で使用するのに適する判断ユ
ニット47の一例を示し、これには図面中の引用番号とし
て47′を付す。この判断ユニット47′は、メモリ77と比
較器78とを有し、これらが一緒になって最大値を判断す
るユニットとして機能する。
第1図のブロック5で、最も大きいCijの判定を第1
回目に開始する前に、中央制御装置60からメモリ77のリ
セット入力81に、リード線68.1を介してリセット信号が
与えられる。こうするとメモリ77の内容の値が0に等し
くなる。次に、第1番目の類似ファクタCij(すなわち
1.2)が、入力46からメモリ77の入力及び比較器の一
方の入力に供給される。メモリ77の出力は、比較器78の
もう一方の入力に結合する。
1.2が0でないと仮定すれば、比較器78の出力は
「高」になる。この出力は、メモリ77の書き込み入力82
と、2位置(two−position)メモリ80の書き込み入力8
4とに結合する。出力85が「高」になったことにより、
1.2の値がメモリ77に書き込まれ、リード線68.3と、
リード線68.4との上に存在する順序数iとj(この場合
は1と2)がメモリ80に記憶される。今この状態では比
較器78の入力には2つの等しい数が存在するから、出力
85は再び「低」になる。
その次の類似ファクタ(例えばC1.3)の順序数が、
リード線68.3の上とリード線68.4の上とに現れ、また、
この類似ファクタも入力46に現れる。もしこの類似ファ
クタが、メモリ77に記憶されている数値より小さいか又
はそれに等しいならば、ここでは何も起こらず、その時
点まで最も大きい類似ファクタに係わる順序を表す数i
とjがそのままメモリ80に残り、メモリ77に記憶されて
いる数値もそのまま保持される。しかし、該類似ファク
タがメモリ77に記憶されている数値より大きい場合に
は、この類似ファクタが新しい値としてメモリ77に記憶
され、それに係わる順序数もメモリ80に記憶される。入
力46を介して判断ユニット47′にすべての類似ファクタ
Cijを与え終わるまで、この手順は繰り返し続けられ
る。出力48に順次出現する数値iとjは、最も大きい類
似ファクタに係わる順序を表す数を示す。このとき同時
に、Cij maxが常数kより大きいか否かもチェックされ
る。この目的でメモリ77の出力を2番目の比較器79の一
方の入力に結合し、もう一方の入力83には常数kを与え
る。Cij maxが、kより小さいか又はそれに等しいこと
が判明した場合には、リード線68.2を介して制御信号が
中央制御ユニット60に送られて、その後にプログラムは
終了する。
第10図は、第2図の方法で使用するのに適する判断ユ
ニット47の一例を示し、これには図面中の引用番号とし
て47″を付す。第2図のブロック20で、CijがVより大
きいか否かを第1回目に判断する前に、中央制御ユニッ
ト60からリード線68.1及びリード線68.5を介して判断ユ
ニット47″に、制御信号が与えられる。リード線68.1上
の制御信号は、スイッチ87を短時間だけ閉じる。リード
線68.5上の制御信号は、メモリ89の書き込み入力88に与
えられる。両方の制御信号が同時に生じるから、その結
果として当初の参照値V(すなわちVi)がメモリ89に書
き込まれる。Viの値は、例えば0.95に等しい。
次に、第1番目の類似ファクタCij(すなわちC1.2
が、入力46を介して比較器78の入力に与えられる。メモ
リ89の出力は、比較器78のもう一方の入力に結合する。
茲でC1.2がViより小さいか又はそれに等しいと仮定す
る。そのときには、比較器78の出力85は、2位置メモリ
80の書込み入力84に、書き込み信号を与えない。続い
て、類似ファクタC1.3が入力46を介して与えられる。
茲でこの類似ファクタC1.3はViより大きいと仮定す
る。そうすると、比較器78は書き込み信号をメモリ80に
与えて、それにより順序数iとj(すなわちこの場合に
は1と3)がこのメモリに記憶され、出力48に現れる。
また、この書き込み信号はリード線68.6を介して中央制
御ユニット60にも与えられるので、Viより大きい類似フ
ァクタが見出されたことを、制御ユニットが検出する。
そこでこの制御ユニットは、プログラムを第2図のブロ
ック6,ブロック7及びブロック8に進める。これらのブ
ロックの各ステップが実行され終わったら、プログラム
はブロック20に戻る。
プログラムは次のCijに進む、すなわち今度はC1.4
Viと比較する。或いはもう1つの可能性として、CijとV
iとの比較を、再びC1.2から始めることにしてもよい。
すべてのCijをViと比較し終わり、それらのCijが悉く
Viより大きいものはないことが判明した場合は、書き込
みパルスがリード線68.5を介して再びメモリ89に与えら
れる。
メモリ89の入力90は減算器91の出力に結合している。
該減算器91の一方の入力92はメモリ89の出力に結合し、
もう一方の入力93には数値dが与えられる(dの値は例
えば0.05に等しい)。こうして、書き込みパルスが書き
込み入力88に与えられると、V=Vi−dがメモリ89に書
込まれる(第2図のブロック22)。
引き続き類似ファクタCijを新しい参照値Vと比較す
る。第2のブロック22が何回か繰り返されて、ある所与
の時点に、Vがkより小さいか又はそれに等しくなる。
比較器79はその一方の入力がメモリ89の出力に結合して
いるので、そのときリード線68.2を介して制御ユニット
60に制御信号を供給し、それによってプログラムは終了
する。
第1図ないし第10図を用いて説明した方法は、その結
果として或る限定された数の推移関数が依然として残っ
ているが、一般的にそれらのうち唯2つの隣接する推移
関数のみが、時間的に相互に一部分が重なっているだけ
である。それについては第11図を参照されたい;第11図
aは、標準的な音声信号を表しており、第11図bは、上
述の方法のどちらかを用いて求められた該音声信号の推
移関数を表している。
この推移関数から、PCT出願国際公開第WO84/04194号
(PCT/US84/00367)明細書の第4ページ(これに相当す
る特願昭59−501,357号明細書では第5ページ)に記載
されている数式(2),すなわち: Y=AΦ (5) を用いて、関連の音響ベクトルを計算することができ
る。なお、この数式(5)においては:Yはマトリクスで
あって、その各列(column)が種々の時点における電気
信号から導かれた(「ログエリア」)パラメタを表し;
Φもマトリクスを表し、その各行(row)が上述の推移
関数(1つの言葉<utterance>の全期間の関数とする
ため推移関数の前後に0を補ったもの)であり;Aもやは
りマトリクスであって、その各列が音響ベクトル(計算
しようとしているもの)を表している。
こうして求められた音響ベクトル及びそれらに係わる
推移関数は、電送のために使用することができる。上述
の方法の1つを用いれば、極めて効率のよいデータ簡約
(date reduction)が実現する。事実、推移関数は時間
的にゆっくりと変動する関数であり、非零の数値は短時
間しか有することがないのである。伝送は、小さいデー
タの流れ(small data flow)によって順次行うことが
できる。
音響ベクトル及び求められた推移関数の、また別の用
途として、音声認識の分野がある。この用途では、非常
に多くの回数に亙って同じく多数の異なる言葉に前もっ
て適用されており、それにより音声中のすべての音(al
l sounds)が少なくとも何回か処理されていなければな
らない。そうすると、例えば1000を超えるような多数の
音響ベクトルが得られる。
文献により既知の、ベクトル量子化(vector quantiz
ation)の技術を用いて、これら1000個ものベクトルを
結合する(clustering)ことにより、50個から100個の
間のベクトルの集合が得られて、そのベクトルは50ない
し100の識別可能な音に関連することのできる物理的妥
当性を持ち、それから或る所定の言語の音声が構築され
るのである。(上記既知の文献とは:IEEE ASSP誌1984年
4月号4−29ページ所載のR.M.Grayによる“Vector qua
ntization"を参照されたい。) 未知の言葉に本発明の方法を適用し、それに引き続い
て求められた音響ベクトルを上述の50ないし100の物理
的に妥当なベクトルと比較することにより、音声認識が
実現できる。
比較ステップでは、音響ベクトルが、認識の後で上述
の50ないし100のベクトルの内の1つを割り当てる。各
ベクトルが1つの音に関連するのであるから、どの音に
未知の言葉の音響ベクトルが関連するかが分かることに
なり、それによってその言葉が認識されることになる。
本発明の方法は、ダイフォーン(diphones)を経済的
に符号化するのにも適している。ダイフォーンと云うの
は、音声合成で使用されて、2個の音声の間の推移を記
述するセグメントのことである。
本発明の方法を用いて、ダイフォーン・セグメントが
それから導かれる言葉を解析する場合には、データ簡約
も達成される。一般的には、ダイフォーンは無意味な
語、例えば“nenoone"という語から導かれる。
語“nenoone"に対して本発明の方法を用いるならば、
この語の中の“n",“e",“n",“oo",“n",“e"という6
個の音に対応して、6つの推移関数及びそれに係わる音
響ベクトルが得られると期待できる。
従って、ダイフォーン“ne"に対しては、第1の音響
ベクトルと第2の音響ベクトルとの間の推移が必要とな
る。これを第12図に示す。第12図は、推移関数φと推
移関数φとを時間の関数として示し、数式(5)を用
いればそれから音響ベクトルA1及びA2が生じる。これら
の推移関数/音響ベクトルが、“n"と“e"とにそれぞれ
対応する。
次に、2つの音響ベクトルA1及びA2を記憶することに
より、また、t1及びt2を、例えば推移関数が最大値を示
す時点を示すものとするとき、2つの推移関数φ及び
φを記憶することにより、“ne"ダイフォーンが符号
化される。
なお、第1図及び第2図のフローチャートの、各ブロ
ック(プログラムの各ステップ)の説明は、 ブロック1:開始 ブロック2:(ログエリア)パラメタを導出する ブロック3:推移関数φを計算する ブロック4:類似ファクタCijを計算する ブロック5:最も大きいCij(Cij max)を判定する ブロック6:組み合わされた推移関数φijcを計算する ブロック7:元の2つのφのうちの一方をφijcと入れ替
えて他方を消去する ブロック8:新しい類似ファクタCikを計算する ブロック9:最も大きいCijを判定する(ブロック5と同
じ) ブロック10:最も大きい類似ファクタCij maxが所与の常
数kより大きいか? ブロック12:終了 ブロック20:類似ファクタCijは参照値Vより大きいか? ブロック22:Vの値を下げる(V=V−d) ブロック23:Vの値が所与の常数kより大きいか? というものである。
【図面の簡単な説明】
第1図は、本発明による音響信号から導かれた電気信号
をセグメントに区分する方法の、1番目の実施例のフロ
ーチャートを示す図であり、 第2図は、本発明による音響信号から導かれた電子信号
をセグメントに区分する方法の、2番目の実施例のフロ
ーチャートを示す図であり、 第3図は、幾つかの時点に係わる推移関数を時間の関数
として示す説明図であり、 第4図は、計算される類似ファクタCijをマトリクス的
に配列した説明図であり、 第5図及び第6図は、2つの推移関数φi,φjを組み合
わせて組み合わされた推移関数φijcを導く2つの例を
示す説明図であり、 第7図は、本発明による音響信号から導かれた電気信号
をセグメントに区分する装置の、1つの実施例の概略ブ
ロック図であり、 第8図は、第7図の装置中の第4の手段の構成の1つの
例を示すブロック図であり、 第9図は、第7図の装置中の判断ユニットの構成を示す
第1の例のブロック図であり、 第10図は、第7図の装置中の判断ユニットの構成を示す
第2の例のブロック図であり、 第11図は、第11図aに標準的な音声信号を時間の関数と
して示し、これと対比して第11図bに本発明の方法で求
められたそれに係わる推移関数を示した説明図であり、 第12図は、本発明の方法による推移関数及び音響ベクト
ルを用いてダイフォーンを符号化する応用例の説明図で
ある。 30……マイクロフォン 32……第1の手段 35……第2の手段 38……1番目のメモリ 41……第3の手段 44……2番目のメモリ 47,47′,47″……判断ユニット 50,50′……第4の手段 53……3番目のメモリ 60……中央制御装置 71,72……第4の手段内の乗算器 73,74……第4の手段内の加算器 75……第4の手段内の除算器 77,89……判断ユニット内のメモリ 78,79……判断ユニット内の比較器 80……判断ユニット内の2位置(two−position)メモ
リ 91……判断ユニット内の減算器

Claims (18)

    (57)【特許請求の範囲】
  1. 【請求項1】音響信号から導かれた1つの電気信号を、
    電気信号のセグメントに区分する方法であって、 電気信号から、幾つかのパラメタを、幾つかの信号の形
    で時間の関数として導くこと、 各時点の周囲の或る時間間隔の内部に所在するパラメタ
    の信号を、順次各時点に対して取り上げること、 各時点に対して、該時点に対応する時間間隔の内部に所
    在するパラメタの信号から、推移関数φを定めること、
    及び 上記各時点に係わる推移関数から、音響信号のセグメン
    トに関する情報を定めること を順次行う方法において、 (a)2つの隣接する時点i及びjに係わる推移関数
    (φi及びφj)ごとに、その2つの推移関数の間に類
    似ファクタCijを定めること、及び (b)それに係わる類似ファクタが或る参照値Vより大
    きいような2つの推移関数の少なくとも1グループの推
    移関数から、置き換え推移関数を導き、該置き換え推移
    関数は、それを導いた元の推移関数と入れ替えられるこ
    とを特徴とする音響信号から導かれた電気信号をセグメ
    ントに区分する方法。
  2. 【請求項2】特許請求の範囲第1項に記載の方法におい
    て、参照値Vは、最も大きい類似ファクタとその次に大
    きい類似ファクタとの間の或る数であることを特徴とす
    る音響信号から導かれた電気信号をセグメントに区分す
    る方法。
  3. 【請求項3】上記(b)のステップで、唯1つのグルー
    プの2つの推移関数が組み合わせられ、該2つの推移関
    数と入れ替わる組み合わされた推移関数が当該2つの推
    移関数から導かれる特許請求の範囲第1項又は第2項に
    記載の方法において、 (c)組み合わされた推移関数は、該組み合わされた推
    移関数がそれから導かれた2つの推移関数のうちの一方
    と入れ替わり、該2つの推移関数のうちの他方は除去さ
    れること、 (d)それに引き続いて、組み合わされた推移関数と、
    該組み合わされた推移関数に係わる時点の隣の時点に係
    わる推移関数との間に、類似ファクタが定められるこ
    と、及び 少なくともその一方が組み合わされた推移関数をそれか
    ら導いた2つの推移関数の組合せに係わる類似ファクタ
    は除去されること を特徴とする音響信号から導かれた電気信号をセグメン
    トに区分する方法。
  4. 【請求項4】特許請求の範囲第3項に記載の方法におい
    て、 (e)もし引き続いて上記参照値より大きい類似ファク
    タが少なくとも1つあるならば、そのような類似ファク
    タに係わる推移関数は組み合わせられ、上述の2つの繊
    維関数と入れ替わる組み合わされた推移関数が該2つの
    推移関数から導かれ、しかる後に上記(c)のステップ
    に進むこと、 (f)もし上記参照値より大きい類似ファクタがないな
    らば、参照値をある一定の値だけ減少させること、 (g)それに引き続いて、こうして求められた参照値が
    或る所与の常数より大きいか否かを判断すること、 (h)もし参照値が上記常数より大きいならば、上記
    (e)のステップに進むこと、及び (i)もし参照値が上記常数より小さいならば、終了と
    すること を特徴とする音響信号から導かれた電気信号をセグメン
    トに区分する方法。
  5. 【請求項5】特許請求の範囲第3項に記載の方法におい
    て、 最も大きい類似ファクタが或る所与の常数より大きいか
    否かを判断すること、 (e)もし最も大きい類似ファクタが該常数より大きい
    ならば、この類似ファクタに係わる2つの推移関数から
    組み合わされた推移関数が導かれ、該組み合わされた推
    移関数はそれが導かれた上記2つの推移関数と入れ替わ
    り、しかる後に上記(c)のステップに進むこと、及び (f)もし最も大きい類似ファクタが上記常数より小さ
    いか又はそれに等しいならば、終了とすること を特徴とする音響信号から導かれた電気信号をセグメン
    トに区分する方法。
  6. 【請求項6】上記(b)のステップで、唯1つのグルー
    プの2つの推移関数が組み合わせられ、該2つの推移関
    数と入れ替わる組み合わされた推移関数がこれら2つの
    推移関数から導かれる特許請求の範囲第1項又は第2項
    に記載の方法において、 上記(b)のステップで、組み合わされた推移関数φij
    cは2つの推移関数φi及びφjから、次の式すなわ
    ち: φijc=(φi+φj)/2 によって算出されることを特徴とする音響信号から導か
    れた電気信号をセグメントに区分する方法。
  7. 【請求項7】特許請求の範囲第4項又は第5項に記載の
    方法において、 上記(e)のステップで、組み合わされた推移関数φij
    cは、2つの推移関数φi及びφjから、次のやり方す
    なわち: その時までに2つの推移関数を1回又はそれ以上の回数
    にわたり組み合わせることにより上記2つの推移関数φ
    i及びφjがそれぞれ求められるに至った最初の推移関
    数の数をni及びnjとするとき、次の式 φijc=(niφi+njφj)/(ni+nj) によって算出されることを特徴とする音響信号から導か
    れた電気信号をセグメントに区分する方法。
  8. 【請求項8】特許請求の範囲第7項に記載の方法におい
    て、 ni+nj=ncと定義された数ncを、組み合わされた推移関
    数に付帯させ、このncという数は、その時までに2つの
    推移関数を1回又はそれ以上の回数にわたり組み合わせ
    ることにより組み合わされた推移関数φijcがそれらか
    ら求められたところの最初の推移関数の数は幾つであっ
    たかを表す数であること、 ncという数が、組み合わされた推移関数によって入れ替
    えられた推移関数(φi又はφj)に係わる数(ni又は
    nj)と入れ替えられること、及び 2つの推移関数のうちの除去された方の推移関数に係わ
    る方の数(nj又はni)はやはり除去されること を特徴とする音響信号から導かれた電気信号をセグメン
    トに区分する方法。
  9. 【請求項9】特許請求の範囲第1項又は第2項に記載の
    方法において、 2つの推移関数φi及びφjの間の類似ファクタCijを
    計算するために、推移関数を多次元空間内のベクトルと
    考えること、及び、類似ファクタはその値が上記両ベク
    トルの端の間のユークリッド距離の逆数に等しいとする
    ことを特徴とする音響信号から導かれた電気信号をセグ
    メントに区分する方法。
  10. 【請求項10】特許請求の範囲第4項に記載の方法にお
    いて、 2つの推移関数φi及びφjの間の類似ファクタCijを
    計算するために、推移関数を多次元空間内のベクトルと
    考えること、及び、類似ファクタはその値が上記両ベク
    トルの間の角の余弦(コサイン)に等しいとすることを
    特徴とする音響信号から導かれた電気信号をセグメント
    に区分する方法。
  11. 【請求項11】特許請求の範囲第10項に記載の方法にお
    いて、 上記常数はその値が0.5と0.8の間にあることを特徴とす
    る音響信号から導かれた電気信号をセグメントに区分す
    る方法。
  12. 【請求項12】音響信号から導かれた1つの電気信号
    を、電気信号のセグメントに区分する装置であって、 電気信号から、信号の形をしている幾つかのパラメタ
    を、時間の関数として導くための第1の手段と、 各時点に対応する或る時間間隔の内部に所在するパラメ
    タの信号から、各時点に対する推移関数を導くための第
    2の手段と を有して成る装置において、 推移関数を記憶するための1番目のメモリ、 それぞれ隣接する時点i及びjに係わる2つの推移関数
    の間の類似ファクタを計算するための第3の手段、 類似ファクタを記憶するための2番目のメモリ、及び それに係わる類似ファクタが或る参照値より大きいよう
    な2つの推移関数の少なくとも1グループの推移関数か
    ら、置き換え推移関数すなわち組み合わされた推移関数
    を導くための第4の手段 を更に有して成ることを特徴とする音響信号から導かれ
    た電気信号をセグメントに区分する装置。
  13. 【請求項13】特許請求の範囲第12項に記載の装置にお
    いて、判断ユニットを更に有し、該判断ユニットは、2
    番目のメモリの出力に結合する入力と、1番目のメモリ
    のアドレス入力に結合する出力とを持つことを特徴とす
    る音響信号から導かれた電気信号をセグメントに区分す
    る装置。
  14. 【請求項14】特許請求の範囲第12項又は第13項に記載
    の装置において、1番目のメモリの出力が第4の手段の
    入力の1つに結合し、また、第4の手段の出力の1つが
    1番目のメモリの入力に結合していることを特徴とする
    音響信号から導かれた電気信号をセグメントに区分する
    装置。
  15. 【請求項15】特許請求の範囲第12項又は第13項に記載
    の装置において、推移関数φiに係わるniという数を記
    憶するための3番目のメモリと、判断ユニットの出力を
    3番目のメモリのアドレス入力に結合する手段と、3番
    目のメモリの出力を第4の手段のもう1つの入力に結合
    する手段と、を更に有して成ることを特徴とする音響信
    号から導かれた電気信号をセグメントに区分する装置。
  16. 【請求項16】特許請求の範囲第15項に記載の装置にお
    いて、第4の手段は更に、ni及びnjという2つの数から
    ncという数を導くのに適するものであり、また、3番目
    のメモリの入力の1つに結合している第4の手段のもう
    1つの出力を上記nCという数を与えるのに適するもので
    あることを特徴とする音響信号から導かれた電気信号を
    セグメントに区分する装置。
  17. 【請求項17】特許請求の範囲第14項に記載の装置にお
    いて、推移関数φiに係わるniという数を記憶するため
    の3番目のメモリと、判断ユニットの出力を3番目のメ
    モリアドレス入力に結合する手段と、3番目のメモリの
    出力を第4の手段のもう1つの入力に結合する手段と、
    を更に有して成ることを特徴とする音響信号から導かれ
    た電気信号をセグメントに区分する装置。
  18. 【請求項18】特許請求の範囲第17項に記載の装置にお
    いて、上記第4の手段は、ni及びnjという2つの数から
    ncという数を導き、また、3番目のメモリの入力の1つ
    に結合している第4の手段のもう1つの出力に上記nc
    いう数を与えることを特徴とする音響信号から導かれた
    電気信号をセグメントに区分する装置。
JP61281628A 1985-11-29 1986-11-26 音響信号から導かれた電気信号を区分する方法及び装置 Expired - Lifetime JP2527168B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
NL8503304 1985-11-29
NL8503304A NL8503304A (nl) 1985-11-29 1985-11-29 Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.

Publications (2)

Publication Number Publication Date
JPS62133500A JPS62133500A (ja) 1987-06-16
JP2527168B2 true JP2527168B2 (ja) 1996-08-21

Family

ID=19846941

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61281628A Expired - Lifetime JP2527168B2 (ja) 1985-11-29 1986-11-26 音響信号から導かれた電気信号を区分する方法及び装置

Country Status (6)

Country Link
US (1) US4813074A (ja)
EP (1) EP0227146B1 (ja)
JP (1) JP2527168B2 (ja)
CA (1) CA1296101C (ja)
DE (1) DE3679966D1 (ja)
NL (1) NL8503304A (ja)

Families Citing this family (118)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
NL8503304A (nl) * 1985-11-29 1987-06-16 Philips Nv Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.
US5168524A (en) * 1989-08-17 1992-12-01 Eliza Corporation Speech-recognition circuitry employing nonlinear processing, speech element modeling and phoneme estimation
US5729656A (en) * 1994-11-30 1998-03-17 International Business Machines Corporation Reduction of search space in speech recognition using phone boundaries and phone ranking
DE19516106C2 (de) * 1995-05-05 2003-04-03 Philips Corp Intellectual Pty Verfahren zum Bestimmen von Referenzwerten
WO1997007499A2 (en) * 1995-08-14 1997-02-27 Philips Electronics N.V. A method and device for preparing and using diphones for multilingual text-to-speech generating
US6278972B1 (en) * 1999-01-04 2001-08-21 Qualcomm Incorporated System and method for segmentation and recognition of speech signals
US8645137B2 (en) 2000-03-16 2014-02-04 Apple Inc. Fast, language-independent method for user authentication by voice
DE10031518A1 (de) 2000-06-28 2002-01-10 Basf Ag Verfahren zur Herstellung von Hydroformylierungsprodukten des Propylens und von Acrylsäure und/oder Acrolein
US7409347B1 (en) * 2003-10-23 2008-08-05 Apple Inc. Data-driven global boundary optimization
US7643990B1 (en) * 2003-10-23 2010-01-05 Apple Inc. Global boundary-centric feature extraction and associated discontinuity metrics
US8677377B2 (en) 2005-09-08 2014-03-18 Apple Inc. Method and apparatus for building an intelligent automated assistant
US9318108B2 (en) 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US8977255B2 (en) 2007-04-03 2015-03-10 Apple Inc. Method and system for operating a multi-function portable electronic device using voice-activation
US9330720B2 (en) 2008-01-03 2016-05-03 Apple Inc. Methods and apparatus for altering audio output signals
US8996376B2 (en) 2008-04-05 2015-03-31 Apple Inc. Intelligent text-to-speech conversion
US10496753B2 (en) 2010-01-18 2019-12-03 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US20100030549A1 (en) 2008-07-31 2010-02-04 Lee Michael M Mobile device having human language translation capability with positional feedback
WO2010067118A1 (en) 2008-12-11 2010-06-17 Novauris Technologies Limited Speech recognition involving a mobile device
US9075829B2 (en) * 2009-04-10 2015-07-07 Nec Corporation Clustering apparatus, and clustering method
US10241752B2 (en) 2011-09-30 2019-03-26 Apple Inc. Interface for a virtual digital assistant
US10241644B2 (en) 2011-06-03 2019-03-26 Apple Inc. Actionable reminder entries
US10706373B2 (en) 2011-06-03 2020-07-07 Apple Inc. Performing actions associated with task items that represent tasks to perform
US9858925B2 (en) 2009-06-05 2018-01-02 Apple Inc. Using context information to facilitate processing of commands in a virtual assistant
US9431006B2 (en) 2009-07-02 2016-08-30 Apple Inc. Methods and apparatuses for automatic speech recognition
US10679605B2 (en) 2010-01-18 2020-06-09 Apple Inc. Hands-free list-reading by intelligent automated assistant
US10553209B2 (en) 2010-01-18 2020-02-04 Apple Inc. Systems and methods for hands-free notification summaries
US10705794B2 (en) 2010-01-18 2020-07-07 Apple Inc. Automatically adapting user interfaces for hands-free interaction
US10276170B2 (en) 2010-01-18 2019-04-30 Apple Inc. Intelligent automated assistant
WO2011089450A2 (en) 2010-01-25 2011-07-28 Andrew Peter Nelson Jerram Apparatuses, methods and systems for a digital conversation management platform
US8682667B2 (en) 2010-02-25 2014-03-25 Apple Inc. User profiling for selecting user specific voice input processing information
US10762293B2 (en) 2010-12-22 2020-09-01 Apple Inc. Using parts-of-speech tagging and named entity recognition for spelling correction
US9262612B2 (en) 2011-03-21 2016-02-16 Apple Inc. Device access using voice authentication
US10057736B2 (en) 2011-06-03 2018-08-21 Apple Inc. Active transport based notifications
US8994660B2 (en) 2011-08-29 2015-03-31 Apple Inc. Text correction processing
US10134385B2 (en) 2012-03-02 2018-11-20 Apple Inc. Systems and methods for name pronunciation
US9483461B2 (en) 2012-03-06 2016-11-01 Apple Inc. Handling speech synthesis of content for multiple languages
US9280610B2 (en) 2012-05-14 2016-03-08 Apple Inc. Crowd sourcing information to fulfill user requests
US9721563B2 (en) 2012-06-08 2017-08-01 Apple Inc. Name recognition system
US9495129B2 (en) 2012-06-29 2016-11-15 Apple Inc. Device, method, and user interface for voice-activated navigation and browsing of a document
US9576574B2 (en) 2012-09-10 2017-02-21 Apple Inc. Context-sensitive handling of interruptions by intelligent digital assistant
US9547647B2 (en) 2012-09-19 2017-01-17 Apple Inc. Voice-based media searching
CN113470641B (zh) 2013-02-07 2023-12-15 苹果公司 数字助理的语音触发器
US9368114B2 (en) 2013-03-14 2016-06-14 Apple Inc. Context-sensitive handling of interruptions
WO2014144949A2 (en) 2013-03-15 2014-09-18 Apple Inc. Training an at least partial voice command system
WO2014144579A1 (en) 2013-03-15 2014-09-18 Apple Inc. System and method for updating an adaptive speech recognition model
WO2014197334A2 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for user-specified pronunciation of words for speech synthesis and recognition
WO2014197336A1 (en) 2013-06-07 2014-12-11 Apple Inc. System and method for detecting errors in interactions with a voice-based digital assistant
US9582608B2 (en) 2013-06-07 2017-02-28 Apple Inc. Unified ranking with entropy-weighted information for phrase-based semantic auto-completion
WO2014197335A1 (en) 2013-06-08 2014-12-11 Apple Inc. Interpreting and acting upon commands that involve sharing information with remote devices
US10176167B2 (en) 2013-06-09 2019-01-08 Apple Inc. System and method for inferring user intent from speech inputs
KR101772152B1 (ko) 2013-06-09 2017-08-28 애플 인크. 디지털 어시스턴트의 둘 이상의 인스턴스들에 걸친 대화 지속성을 가능하게 하기 위한 디바이스, 방법 및 그래픽 사용자 인터페이스
CN105265005B (zh) 2013-06-13 2019-09-17 苹果公司 用于由语音命令发起的紧急呼叫的系统和方法
CN105453026A (zh) 2013-08-06 2016-03-30 苹果公司 基于来自远程设备的活动自动激活智能响应
US9620105B2 (en) 2014-05-15 2017-04-11 Apple Inc. Analyzing audio input for efficient speech and music recognition
US10592095B2 (en) 2014-05-23 2020-03-17 Apple Inc. Instantaneous speaking of content on touch devices
US9502031B2 (en) 2014-05-27 2016-11-22 Apple Inc. Method for supporting dynamic grammars in WFST-based ASR
US10289433B2 (en) 2014-05-30 2019-05-14 Apple Inc. Domain specific language for encoding assistant dialog
US10078631B2 (en) 2014-05-30 2018-09-18 Apple Inc. Entropy-guided text prediction using combined word and character n-gram language models
US9842101B2 (en) 2014-05-30 2017-12-12 Apple Inc. Predictive conversion of language input
US9430463B2 (en) 2014-05-30 2016-08-30 Apple Inc. Exemplar-based natural language processing
US9760559B2 (en) 2014-05-30 2017-09-12 Apple Inc. Predictive text input
US10170123B2 (en) 2014-05-30 2019-01-01 Apple Inc. Intelligent assistant for home automation
US9734193B2 (en) 2014-05-30 2017-08-15 Apple Inc. Determining domain salience ranking from ambiguous words in natural speech
US9715875B2 (en) 2014-05-30 2017-07-25 Apple Inc. Reducing the need for manual start/end-pointing and trigger phrases
US9785630B2 (en) 2014-05-30 2017-10-10 Apple Inc. Text prediction using combined word N-gram and unigram language models
WO2015184186A1 (en) 2014-05-30 2015-12-03 Apple Inc. Multi-command single utterance input method
US9633004B2 (en) 2014-05-30 2017-04-25 Apple Inc. Better resolution when referencing to concepts
US10659851B2 (en) 2014-06-30 2020-05-19 Apple Inc. Real-time digital assistant knowledge updates
US9338493B2 (en) 2014-06-30 2016-05-10 Apple Inc. Intelligent automated assistant for TV user interactions
US10446141B2 (en) 2014-08-28 2019-10-15 Apple Inc. Automatic speech recognition based on user feedback
US9818400B2 (en) 2014-09-11 2017-11-14 Apple Inc. Method and apparatus for discovering trending terms in speech requests
US10789041B2 (en) 2014-09-12 2020-09-29 Apple Inc. Dynamic thresholds for always listening speech trigger
US10074360B2 (en) 2014-09-30 2018-09-11 Apple Inc. Providing an indication of the suitability of speech recognition
US9886432B2 (en) 2014-09-30 2018-02-06 Apple Inc. Parsimonious handling of word inflection via categorical stem + suffix N-gram language models
US9646609B2 (en) 2014-09-30 2017-05-09 Apple Inc. Caching apparatus for serving phonetic pronunciations
US9668121B2 (en) 2014-09-30 2017-05-30 Apple Inc. Social reminders
US10127911B2 (en) 2014-09-30 2018-11-13 Apple Inc. Speaker identification and unsupervised speaker adaptation techniques
US10552013B2 (en) 2014-12-02 2020-02-04 Apple Inc. Data detection
US9711141B2 (en) 2014-12-09 2017-07-18 Apple Inc. Disambiguating heteronyms in speech synthesis
US9865280B2 (en) 2015-03-06 2018-01-09 Apple Inc. Structured dictation using intelligent automated assistants
US9721566B2 (en) 2015-03-08 2017-08-01 Apple Inc. Competing devices responding to voice triggers
US9886953B2 (en) 2015-03-08 2018-02-06 Apple Inc. Virtual assistant activation
US10567477B2 (en) 2015-03-08 2020-02-18 Apple Inc. Virtual assistant continuity
US9899019B2 (en) 2015-03-18 2018-02-20 Apple Inc. Systems and methods for structured stem and suffix language models
US9842105B2 (en) 2015-04-16 2017-12-12 Apple Inc. Parsimonious continuous-space phrase representations for natural language processing
US10083688B2 (en) 2015-05-27 2018-09-25 Apple Inc. Device voice control for selecting a displayed affordance
US10127220B2 (en) 2015-06-04 2018-11-13 Apple Inc. Language identification from short strings
US10101822B2 (en) 2015-06-05 2018-10-16 Apple Inc. Language input correction
US11025565B2 (en) 2015-06-07 2021-06-01 Apple Inc. Personalized prediction of responses for instant messaging
US10255907B2 (en) 2015-06-07 2019-04-09 Apple Inc. Automatic accent detection using acoustic models
US10186254B2 (en) 2015-06-07 2019-01-22 Apple Inc. Context-based endpoint detection
US10671428B2 (en) 2015-09-08 2020-06-02 Apple Inc. Distributed personal assistant
US10747498B2 (en) 2015-09-08 2020-08-18 Apple Inc. Zero latency digital assistant
US9697820B2 (en) 2015-09-24 2017-07-04 Apple Inc. Unit-selection text-to-speech synthesis using concatenation-sensitive neural networks
US10366158B2 (en) 2015-09-29 2019-07-30 Apple Inc. Efficient word encoding for recurrent neural network language models
US11010550B2 (en) 2015-09-29 2021-05-18 Apple Inc. Unified language modeling framework for word prediction, auto-completion and auto-correction
US11587559B2 (en) 2015-09-30 2023-02-21 Apple Inc. Intelligent device identification
US10691473B2 (en) 2015-11-06 2020-06-23 Apple Inc. Intelligent automated assistant in a messaging environment
US10049668B2 (en) 2015-12-02 2018-08-14 Apple Inc. Applying neural network language models to weighted finite state transducers for automatic speech recognition
US10223066B2 (en) 2015-12-23 2019-03-05 Apple Inc. Proactive assistance based on dialog communication between devices
US10446143B2 (en) 2016-03-14 2019-10-15 Apple Inc. Identification of voice inputs providing credentials
US9934775B2 (en) 2016-05-26 2018-04-03 Apple Inc. Unit-selection text-to-speech synthesis based on predicted concatenation parameters
US9972304B2 (en) 2016-06-03 2018-05-15 Apple Inc. Privacy preserving distributed evaluation framework for embedded personalized systems
US10249300B2 (en) 2016-06-06 2019-04-02 Apple Inc. Intelligent list reading
US10049663B2 (en) 2016-06-08 2018-08-14 Apple, Inc. Intelligent automated assistant for media exploration
DK179309B1 (en) 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10586535B2 (en) 2016-06-10 2020-03-10 Apple Inc. Intelligent digital assistant in a multi-tasking environment
US10192552B2 (en) 2016-06-10 2019-01-29 Apple Inc. Digital assistant providing whispered speech
US10067938B2 (en) 2016-06-10 2018-09-04 Apple Inc. Multilingual word prediction
US10509862B2 (en) 2016-06-10 2019-12-17 Apple Inc. Dynamic phrase expansion of language input
US10490187B2 (en) 2016-06-10 2019-11-26 Apple Inc. Digital assistant providing automated status report
DK179343B1 (en) 2016-06-11 2018-05-14 Apple Inc Intelligent task discovery
DK179049B1 (en) 2016-06-11 2017-09-18 Apple Inc Data driven natural language event detection and classification
DK201670540A1 (en) 2016-06-11 2018-01-08 Apple Inc Application integration with a digital assistant
DK179415B1 (en) 2016-06-11 2018-06-14 Apple Inc Intelligent device arbitration and control
US10593346B2 (en) 2016-12-22 2020-03-17 Apple Inc. Rank-reduced token representation for automatic speech recognition
DK179745B1 (en) 2017-05-12 2019-05-01 Apple Inc. SYNCHRONIZATION AND TASK DELEGATION OF A DIGITAL ASSISTANT
DK201770431A1 (en) 2017-05-15 2018-12-20 Apple Inc. Optimizing dialogue policy decisions for digital assistants using implicit feedback

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1984004194A1 (en) * 1983-04-12 1984-10-25 American Telephone & Telegraph Speech pattern processing utilizing speech pattern compression
NL8503304A (nl) * 1985-11-29 1987-06-16 Philips Nv Werkwijze en inrichting voor het segmenteren van een uit een akoestisch signaal, bij voorbeeld een spraaksignaal, afgeleid elektrisch signaal.

Also Published As

Publication number Publication date
DE3679966D1 (de) 1991-08-01
US4813074A (en) 1989-03-14
JPS62133500A (ja) 1987-06-16
CA1296101C (en) 1992-02-18
NL8503304A (nl) 1987-06-16
EP0227146A1 (en) 1987-07-01
EP0227146B1 (en) 1991-06-26

Similar Documents

Publication Publication Date Title
JP2527168B2 (ja) 音響信号から導かれた電気信号を区分する方法及び装置
EP4118642A1 (en) Cross-speaker style transfer speech synthesis
CN112967713B (zh) 一种基于多次模态融合的视听语音识别方法、装置、设备和存储介质
CN113327575B (zh) 一种语音合成方法、装置、计算机设备和存储介质
CN113781995B (zh) 语音合成方法、装置、电子设备及可读存储介质
CN110570876A (zh) 歌声合成方法、装置、计算机设备和存储介质
CN111930900B (zh) 标准发音生成方法及相关装置
CN115565533A (zh) 语音识别方法、装置、设备及存储介质
CN113793591A (zh) 语音合成方法及相关装置和电子设备、存储介质
CN114387945A (zh) 语音生成方法、装置、电子设备及存储介质
CN113782042A (zh) 语音合成方法、声码器的训练方法、装置、设备及介质
CN117612545A (zh) 语音转换方法、装置、设备及计算机可读介质
US7039584B2 (en) Method for the encoding of prosody for a speech encoder working at very low bit rates
US11915714B2 (en) Neural pitch-shifting and time-stretching
US11830481B2 (en) Context-aware prosody correction of edited speech
CN115497451A (zh) 语音处理方法、装置、电子设备和存储介质
CN111862931B (zh) 一种语音生成方法及装置
CN113990325A (zh) 流式语音识别方法及装置、电子设备、存储介质
CN114446278A (zh) 语音合成方法及装置、设备以及存储介质
CN113409792A (zh) 一种语音识别方法及其相关设备
CN114724547A (zh) 一种用于口音英语的识别方法及系统
CN111899729A (zh) 一种语音模型的训练方法、装置、服务器和存储介质
CN112133311B (zh) 说话人识别方法、相关设备及可读存储介质
KR102704430B1 (ko) 음성 데이터를 군집화 하는 방법 및 장치
CN115331660B (zh) 神经网络训练方法、语音识别方法、装置、设备及介质