JPS62159199A - 音声メツセ−ジ処理装置と方法 - Google Patents

音声メツセ−ジ処理装置と方法

Info

Publication number
JPS62159199A
JPS62159199A JP61198297A JP19829786A JPS62159199A JP S62159199 A JPS62159199 A JP S62159199A JP 61198297 A JP61198297 A JP 61198297A JP 19829786 A JP19829786 A JP 19829786A JP S62159199 A JPS62159199 A JP S62159199A
Authority
JP
Japan
Prior art keywords
signal
time frame
signals
voice message
frame period
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP61198297A
Other languages
English (en)
Other versions
JP2954588B2 (ja
Inventor
ビシュニュー サループ アタル
イサベル マリア マーチンズ トランコソ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
American Telephone and Telegraph Co Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by American Telephone and Telegraph Co Inc filed Critical American Telephone and Telegraph Co Inc
Publication of JPS62159199A publication Critical patent/JPS62159199A/ja
Application granted granted Critical
Publication of JP2954588B2 publication Critical patent/JP2954588B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0212Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using orthogonal transformation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/03Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
    • G10L25/12Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being prediction coefficients
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L2019/0001Codebooks
    • G10L2019/0013Codebook search algorithms
    • G10L2019/0014Selection criteria for distances
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/27Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the analysis technique

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。

Description

【発明の詳細な説明】 発明の背景 本発明は音声処理、よシ詳細にはデジタル音声符号化に
関する。
音声記憶装置及び音声応答設備を含むデジタル音声通信
システムは記憶及び/あるいは伝送に要求されるビット
速度を落すために信号の圧縮を行なう。当技術において
周知のごとく、音声パターンは見掛けの品質には重要で
ない冗長を含む。音声パターンから冗長成分を除去する
ことによって音声のリプリカを構成するのに必要なデジ
タル符号を大きく減少することができる。ただし、音声
リプリカの主観的品質はこの圧縮及び符号化技術に依存
する。
1つの周知のデジタル音声符号化システム、例えば、合
衆国特許第3,624,302号に開示されるシステム
は入力音声信号の線形予測分析を含む。音声信号が5か
ら20ミリ秒の間隔の連続の期間に分割され、この期間
の音声を表わすセットのパラメータが生成される。この
セットのパラメータはその期間内の音声のスペクトルの
包絡線を表わす線形予測係数信号、及びその音声の励起
に対応するピッチ及び発声信号を含む。これらパラメー
タ信号は音声信号の波形自体よシもかなり低いビット速
度にて符号化できる。入力音声信号のリプリカがこのパ
ラメータ信号の符号から合成によって生成される。シン
セサイザ装置は、通常、声帯のモデルを含むが、この中
で個々の連続の期間の励起パルスがオールボール予測フ
ィルタ内のこの期間のスペクトルの包絡線を表わす予測
係数によって修正される。
前述のピッチ励起線形予測符号化は非常に効率的であり
、符号化ビット速度を例えば64 kb/sから2.4
 kb/s  に落とす。しかし、生成された音声リプ
リカの品質が悪く理解が困難となる場合もある。一般的
にいって、この低い音声品質は音声パターンと使用され
る線形予測モデルの間の一致の悪さに起因する。
ピッチ符号のエラーあるいはある音声期間が発声された
か否かの決定のエラーは音声リプリカにひずみあるいは
不自然さを与える。音声のフォーマット符号化において
も同様の問題が存在する。音声励起が予測の後の残留か
ら得られる別の符号化装置、例えば、APCは励起が完
全でないモデルに依存しないため大きな進歩である。し
かし、これらシステムの励起ビット速度は線形予測モデ
ルより少なくとも1桁高い。残留タイプのシステムにお
いて励起ビット速度を落すための試は、多くの場合、品
質を大きく落す結果となる。
通信に関する国際会議−IOC’84の議゛事録(Pr
oceedings of the Internat
ionalConference on Commun
ications −ICC’ 84 ) N1984
年5月、ページ1610−1613に掲載のビスヌS、
アトール(B15hnu S、 Atal )及びマン
フレッド スフローダ(Manfred 5chroe
der )らによる論文〔非常に低ビツト速度での音声
信号の統計的符号化(StochasticCodin
g of 5peech Signals at Ve
ry Low BitRates )は音声励起信号を
生成するための統計的モデルを開示する。この方法にお
いては、音声波形がゆるやかに変化するパワー スペク
トルを持つゼロ平均のガウスの統計的プロセスとして表
わされる。最適ガウス刷新シーケンスが典型的には5ミ
リ秒の期間の音声の波形セグメントと複数のランダムの
ガウスのイノベーション シーケンスから得られる合成
音声の波形が比較される。知覚エラー基準を最小限にす
るイノベーション シーケンスがそのセグメントの音声
の波形を表わすものとして選択される。この論文におい
て説明される統計的モデルは音声波形励起信号を低ビツ
ト速度符号化を実現するが、適切な選択には多数のイノ
ベーション シーケンスが要求される。最良のイノベー
ション シーケンスを選択するために要求される信号処
理はこのイノベーション信号を符号化するための莫大な
探索手順を伴なう。問題は4.8 Kbit/secの
符号生成に対応する符号ビット速度に対するこのような
探索は大きな高速科学コンピュータによって処理したと
しても非常に時間を費やすことである。
発明の概要 この問題は本発明によって音声アナライザのイノベーシ
ョン シーケンスの統計的あるいは他の非定符号の膨大
な探索に代りにこの統計的符号を変換領域符号信号に変
換し個々の時間フレーム期間に対する変換符号からセッ
トの変換領域パターンを生成する装置を使用することに
よって解決される。変換領域の符号パターンが入力音声
から得られた時間期間の音声パターンと比較され、最も
一致する統計的符号が選択され、この最も一致する統計
的符号に対応するインデックス信号がその時間フレーム
期間の音声を表わすものとして出力される。変換領域で
の処理は符号選択のために必要とされる繁雑さ及び所要
時間を削減する。
インデックス信号が音声復号器に加えられる。復号器は
これを使用してそこに格納された統計的符号の1つを選
択する。予測音声シンセサイザ内において、この統計的
符号は時間フレーム期間音声パターン励起信号を表わし
、これによって符号ビット速度が時間フレームのインデ
ックス信号及び予測パラメータに要求されるビット速度
に落される。この統計的符号は記憶要件を減少するため
の統計的数のストリングの所定の重複セグメントであっ
てもよい。
本発明は音声メッセージを処理するための装置に関する
が、この装置内でセットの非定値符号信号、例えば、乱
数並びにこの非定値符号信号を同定するインデックス信
号及び非定値符号の変換されたものを表わす信号が生成
される。音声メッセージが時間フレーム期間の音声パタ
ーンに分割され、個々の連続の時間フレーム期間の音声
パターンを表わす第1の信号がこの分割された音声に応
答して生成される。変換領域の符号信号から生成された
時間フレーム期間のパターンを表わす複数の第2の信号
が生成される。この時間フレーム期間の第1の信号及び
第2の信号の両方に応答して個々の時間フレーム期間に
対して非定値符号信号の1つが選択され、この選択され
た変換領域信号に対応するインデックス信号が出力され
る。
本発明の一面によると、第1の信号の生成には現在の時
間フレーム期間の音声パターンに対応する変換領域の信
号である第3の信号の生成が含まれ、個々の第2の信号
の生成にはこの変換領域の符号信号に応答して1つの時
間フレーム期間のパターンに対応する変換領域の信号で
ある第4の信号の生成が含まれる。非定符号の選択には
この第3の信号と第4の信号の間の一致度を表わす信号
の生成及び最大の一致度を持つ第4の信号に対応するイ
ンデックス信号の決定が含まれる。
本発明のもう一面によると、この変換領域符号信号は非
定符号から得られる周波数領域変換符号である。
本発明のさらにもう一面によると、変換領域符号信号は
非定符号のフーリエ変換符号である。
本発明のさらにもう一面によると、音声メッセージが出
力されたインデックス信号のシーケンスを受信すること
によって生成されるが、このインデックス信号は各々が
所定の非定符号を同定する。個々のインデックス信号は
1つの時間フレーム期間の音声パターンに対応する。こ
の非定符号が受信されるインデックス信号のシーケンス
に応答して連結され、連結された符号に応答して音声メ
ッセージが生成される。
本発明のさらにもう一面によると、音声メッセージがイ
ンデックス信号によって同定される所定のセグメントを
持つ非定値符号信号のストリングを使用して生成される
。このストリングの所定のセグメントを同定する信号の
シーケンスが受信される。このシーケンスの個々の信号
は連続の時間フレーム期間の音声パターンに対応する。
この非定符号ストリングの所定のセグメントが受信され
た同定信号のシーケンスに応答して選択され、選択され
た非定符号が連結されて、音声メッセージのリプリカが
生成される。
本発明のさらにもう一面によると、このストリングの非
定値信号シーケンスは重複するシーケンスである。
概括説明 第1図は励起信号のために統計的符号を使用するように
構成された先行技術によるデジタル音声符号器を示す。
第1図に示されるように、マイクロホン101に加えら
れた音声パターンは、当技術において周知のように、こ
の中で音声信号に変換され、フィルタ/サンプラ105
内でバンド バス フィルタリング及びサンプリングさ
れる。結果としてのサンプルはA/Dコンバータによっ
てデジタル符号化音声信号5(n)を得るためにデジタ
ル符号に変換される。信号5(n)はLPC/ピツチ予
測アナライザ115内で処理される。この処理には符号
化されたサンプルの連続の音声フレーム期間への分割及
び個々の連続フレーム内の信号5(n)に対応するセッ
トのパラメータ信号の生成が含まれる。パラメータ信号
a(1)、a(2)、・・・、a (p)は短時間遅延
相関、つまり、この期間の音声パターンのスペクトルと
関連する特性を表わし、パラメータ信号β(1)、β(
2)、β(3)、及び二は長時間遅延相関、つまり、こ
の音声パターンのピッチと関連する特性を表わす。この
タイプの符号器内においては、音声信号はフレームある
いはブロック、例えば、5ミリ秒の期間あるいは40個
のサンプルに分割される。このブロックに対して、統計
的符号蓄積器120は1024のランダムのホワイト 
ガウス符号語シーケンスを含むが、個々のシーケンスは
一連の40個の乱数から構成される。個々の符号語には
、フィルタリングの前に、スケーラ125内でこの5ミ
リ秒のブロックに対して一定の因子γが掛けられる。音
声適応が遅延予測フィルタ135及び145内で遂行さ
れるが、これは反復的に行なわれる。
フィルタ135は長時間の蓄積(2から15ミリ秒)の
予測子を使用して合成音声信号内に音声の反復性を導入
し、フィルタ145は短時間の蓄積(2ミリ秒以下)の
予測子を使用して合成音声信号内にスペクトル包絡線を
導入する。このフィルタは、IEEEトランザクション
ズ オン コミュニケーションズ(IEEE Tran
sactions on Communication
s )、Vol、 C0M−30,1982年4月、ペ
ージ600−514にB、 S、アトール(B、 S、
 Atal )  らによって紹介の論文[定ビツト速
度での音声の予測符号化(Predicitive c
oding of 5peechat low bit
 rates ) ]  において説明されている。引
き算器150に加えられる元の音声信号5(n)とフィ
ルタ145から加えられる合成音声信号s (n)  
との間の差を表わすエラーがさらに知覚重み付はフィル
タ155内で処理され、このエラーが知覚的にあまり重
要でない周波数成分が減衰され、このエラーが知覚的に
重要である周波数成分が増幅される。
最小平均2乗主観エラー信号E (k)及び対応する最
適スケール因子γを生成する蓄積器120からの統計的
符号シーケンスは蓄積器120内の1024個の符号語
シーケンスの全てが処理された後にはじめてピーク摘出
器170によって選択される。
第1図の回路の符号語処理を分析する目的で、フィルタ
135及び145並びに知覚重み付はフィルタ155は
1つの線形フィルタに結合することもできる。その等価
のフィルタのインパルス応答はシーケンスf (n)に
よって表わすことができる。現在の5ミリ秒期間におい
ては、当技術において周知のごとく、フィルタ出力の一
部が先行フレームに由来する信号と対応するため、この
等価のフィルタ出力の一部のみがその入力と比較される
。先行フレームからのフィルタ蓄積は現在のフレームの
最適イノベーション シーケンスを捜す役割は果さない
。従って、現在のフレームのフィルタ出力への先行蓄積
の寄与が統計的蓄積器120からの最適符号語の決定の
ために音声信号から除去される。先行フレームに由来す
るフィルタ蓄積の寄与を除去した後の残留値は信号X(
n)によって表わされる。現在のフレーム内の蓄積器1
20からのに番目の符号語によって寄与されるフィルタ
出力は以下によって表わされる。
ここで、c(k)(i)はに番目の符号語の1番目のサ
ンプルである。式(1)は行列式にて以下のように書く
ことができる。
△ x(k) = ν(k)Fc(k) 、       
      (2)ここで、FはNxNの行列であり、
n番目の行及びi番目の列内の項はf(n−t)によっ
て与えられる。、 (n)とX(n)の間の差を表わす
2乗されたエラーの総和E (k)は、以下によって与
えられる。
E(k) = If x−ν(k) Fc(k) If
 2.        (3)ここで、ベクトルXはベ
クトル表記法による信号、 (、)を表わし、そして1
12 は2乗されたベクトル成分の総和を表わす。エラ
ーE(k)を最小にする最適スケール因子r (k)は
δE(k)/δγ(k) = 0  とセットすること
によって簡単に決定できるが、これから以下が導かれる
及び 最適符号語はE (k)の最小を発見すること、つまり
式(5)の右側の第2の項の最大を発見することによっ
て得られる。
第1図との関連で説明された信号処理は比較的に単純で
あるが、式(5)の1024個のエラー信号E(k)の
生成は時間のかかる動作であり、現在知られている高速
大規模コンピュータ内でリアル タイムにて達成するこ
とは不可能である。第1図の探索処理の複雑さはエラー
E (k)内の行列Fによって表わされるたたきこみ演
算の存在に起因する。この複雑さは行列Fを直交行列に
よって置換することによって減少される。これは、G、
W、  スチュワート(G、 W、 Stewart 
)  による参考書〔行列計算の初歩(Introdu
ction to Matrix Computati
ons ):]、アカデミツク プレス、1973年、
ページ317−320において説明されているごとく、
特異値分解を使用して行列Fを直交形式によって表わす
ことによって達成できる。
F=UDV  、            (6)であ
ると仮定する。ここで、U及びVは直交行列であり、D
は正の要素を持つ直交行列であり、vtはVの移項を示
す。すると、Uの直交性より、式(3)は以下のように
書くことができる。
E(k)= If Ut(x −ν(k)E’c(k)
 II ” 、     (7)ここで、Fを式(6)
によって表わされる直交形式にて置換すると以下が得ら
れる。
E(k) = If U’x −ν(k)DV’ c(
k) If 2.     (8)または式(8)に z=Utx   及び b(k) = V tc(k)
 、    (9)を代入すると、以下が得られる。
上と同様に、E (k)を最小にする最適γ(k)はδ
E(k)/δγ(0=0 にセットすることによって決
定でき、弐〇〇は以下のように簡素化することができる
式(11)によって表わされるエラー信号は式(5)の
数式よりもかなり速く処理することができる。
Fc(k)がオーダー(p)(典型的には20)の反復
フィルタ内で処理されると、式αυに従かう処理は統計
的符号化に要求される処理時間要件を大きく減少する。
別の方法として、式(5)の演算を時間領域から変換領
域、例えば、周波数領域に拡張することによっても処理
時間を短縮することができる。長時間遅延予測が排除さ
れた合成フイルタと知覚重み付けされたフィルタの結合
インパルス応答がシーケンスh (n)によって表わさ
れるものとすると、現在のフレーム内のに番目の符号語
によって寄与されるフィルタ出力は入力γ(k) e 
(k)(n)とインパルス応答h (n)との間のたた
きこみとして表わすことができる。
フィルタの出力は以下によって与えられる。
このフィルタ出力は周波数領域にて以下のように表わす
ことができる。
交(k)(i)=ν(k)H(i) C(k)(i) 
      (至)ここで、%(k)(i) 、H(i
)及びC(k)(i)はそれぞれx(k) (n)、h
 (n)及びC(k) (n)の離散フーリエ変換(D
FT)である。実施においては、フィルタ出力の期間は
10ミリ秒の期間に限定され外側は0であるとみなすこ
とができる。従つて、80ポイントを持つDFTは弐α
のを表わすのに十分に正確である。2乗されたエラーの
総和は周波数領域表現では以下のように表わされる。
i=1 ここで、X (i)はx (n)のDFTである。ここ
で、H(i)= d(i) e j(pi      
     α均及び ξ、 = X(i) e −jψ1         
αQとすると、式α→は以下のように変換できる。
ここでも、スケール因子γ(k)を式α力から除去する
ことができ、総エラーは以下によって表わすことができ
る。
(至) ここでξ(i)4″はξ(i)の複素共役である。周波
数領域探索は行列Fの特異値分解が離散高速フーリエ変
換値によって置換され、全体的な処理の繁雑さが大きく
減少されるという長所を持つ。特異値分解あるいは離散
フーリエ変換処理を使用する変換領域においては、この
探索をd(i)(あるいはb(i))の大きな値に対応
する周波数(あるいは固有ベクトル)のサブセットに制
限することによって計算負荷の節約がさらに達成される
。本発明によると、処理が大きく削減され、マイクロプ
ロセッサ集積回路によるリアル タイム動作が実現可能
となる。これはイノベーション符号に応答して生成され
る合成音声信号と第1図の入力音声信号との間のエラー
の生成に関与する時間領域処理を前述の変換領域処理と
置換することによって達成される。
細部説明 本発明の一例としての励起信号を励起するための奔走の
符号を使用する変換領域デジタル音声符号器が第2図及
び第3図に示される。
この奔走の符号は乱数シーケンスの形式をとることも、
あるいは、例えば、奔走の順番の+1と−1の変化する
シーケンスでもあシうる。シーケンス全体の平均が小さ
くなるという緩い制約が満たされれば、変化するシーケ
ンスの奔走の配列を使用することができる。
第2図に示されるように、音声パターン、例えば、会話
メッセージがマイクロホン トランジューサ201によ
って受信され、フィルタ/サンプラ203内でバンド制
限されパルス サンプルのシーケンスに変換され、A/
D変換器205を介して線形予測係数(LPC)アナラ
イザ209に供給される。このフィルタリングは当技術
において周知のように4.0KHz  以上の音声信号
の周波数成分を除去するように構成され、サンプリング
は8.0KHzの速度にて行なわれる。回路203から
の1固々のサンプルはA / D変換器内の振幅を表わ
すデジタル符号に変換される。このデジタル符号音声サ
ンプルのシーケンスはLPCアナライザ209に供給さ
れる。アナライザ20Bは、当技術において周知のごと
く、この音声信号を5から20m5 の時間フレーム期
間に分割し、個々のフレームの音声サンプルの予測短時
間スペクトルを表わすセットの線形予測係数信号a (
k)、k=1.2・・・p、を生成する。アナライザは
また以下の式によって表わされる知覚重み付けされた線
形予測係数信号を生成する。
b(k)=ka(k) 、  k=1 、2.−、  
p、  αOここで、pは予測係数の数を表わす。
A/D変換器205からの音声サンプルは遅延回路20
7内で音声パラメータ信号a (k)を形成するための
時間の調節のために遅延された後予測残留信号発生器2
11の入力に供給されろ。予測残留信号発生器は、当技
術において周知のごとく、遅延された音声サンプル5(
n)及び予測パラメータa (k)に応答して音声サン
プルとこれらの予測値の間の差に対応する信号δ(n)
を生成する。予測アナライザ209内での個々のフレー
ムに対する予」1]パラメータ及び予測残留信号の生成
は合衆国特許第3,740,476号において開示され
る装置、あるいは当技術において周知の他の装置によっ
て遂行される。
予測残留信号発生器211は、以下の式に従って、サン
プル信号、 (n)からフレーム信号の予測部分を引く
ことによって信号δ(、)を生成する。
翰 ここで、pは予測係数の数、例えば、12であり、Nは
音声フレーム内のサンプルの数、例えば、40であり、
そしてa (k)はフレームの予測係数である。予測残
留信号δ(n)はそのフレームの音声信号から短期間冗
長を除去したものに相当する。数個の音声フレームのオ
ーダーの長期間冗長がこの予測残留信号内にとどまり、
合衆国特許第4,354,057号において説明される
ように、予測パラメータβ(1)、β(2)、β(3)
及びこれら長期間冗長に対応する二が予測ピッチ アナ
ラオザ220内で生成される。ここで工は以下を最大化
する整数であり Σ σ(、)  σ(n−m) n=1 そして、β(1)、β(2)、β(3)は以下を最小化
する整数である。
周知のごとく、デジタル音声エンコーダは個々の連続の
フレーム、及び予測フレーム残留を復号器に伝送するた
めあるいは後の探索のために格納するために符号化する
ことによって生成される。予測パラメータを符号化する
ためのビット速度は比較的遅が、残留の非冗長特性から
非常に高ビツト速度が要求される。
本発明においては、最適非定符号c(n)がフレーム励
起を表わすように選択され、選択された非定励起符号の
指数を示す信号K“が送信される。この方法によって、
了解度に悪影響を与えることなく、音声符号ビット速度
カ最小限にされる。非定符号が選択プロセスを軽減しマ
イクロプロセッサによってリアルタイマにて遂行できる
ように変換領域内で選択される。
励起に対する非定符号の選択は、予測残留をフレームの
知覚重み付けされた線形予測パラメータと結合して信号
y (n)を生成することからなる。この知覚重み付け
された音声信号に対応する音声パラメータ信号y (n
)は前のフレームに由来する成分y (n)を含む。こ
の前のフレーム成分y (n)は選択プロセスの前に蓄
積された非定符号が現在のフレーム励起に対してのみ比
較されるように除去される。信号y(n)は予測フィル
タ217内でフレームの知覚重み付けされた予測パラメ
ータ及び予測残留信号に応答して、以下の式に従って生
成されy(n)蓄積器227内に蓄積される。
k=1 先行フレーム音声寄与信号y (n) u先行フレーム
寄与信号発生器222内で現在のフレームの知覚重み付
けされた予測パラメータ信号b (k)、ピッチ予測パ
ラメータβ(1)、β(2)、β(3)及び蓄積器23
0から得られるmから生成され、以下に従って選択され
る。
a(n) =β(1) a (n−m−1)+β(2)
 a (n−m)+β(3) a(n−m+1)(24
a) 及び (24b) ここで、合()、≦0及び9()、≦Oは過去のフレー
ム成分を表わす。発生器222は式24の信号を生成す
るための周知のプロセッサから構成される。蓄積器24
0の過去のフレーム音声寄与信号y (n)が引き算回
路247内で蓄積器227の知覚重み付けされた信号か
ら引かれ、過去のフレーム成分が除去された現在のフレ
ーム音声パターン信号が生成される。
x(n) = y(n) −y(n) n=1.2.−
、 N    (25)引き算回路247がらの差信号
x (n)が次に離散フーリエ変換(DFT)発生器2
50内で以下のように周波数領域信号に変換される。
9π ここで、NfはDFTポイントの数、例えば、80であ
る。DFT変換発生器は合衆国特許第3,588,46
0号に開示されるように動作する。
あるいは非電の周知の離散フーリエ回路から構成するこ
ともできる。
現在の音声フレームに対して複数の非定励起符号の1つ
を選択するためには、知覚重み付けされたLPCフィル
タが励起符号に与える影響を考慮することが必要である
。これはフィルタのインパルス応答を表わす信号を以下
の式、つまり h(n) =  Σh(n−k) b(k) 、  n
−1,・=、Nk=1 h(k)=1.   d=o。
h(k) = O,a (0、(27)に従って生成し
、このインパルス応答を以下のように離散フーリエ変換
によって周波数領域信号に変換することによって行なわ
れる。
知覚重み付けされたインパルス応答信号h (n)はイ
ンパルス応答発生器225内で生成され、周波数領域信
号H(+)への変換はDFT発生器245内で遂行され
る。
この周波数領域インパルス応答信号H(i)及び前のフ
レーム寄与を除去された周波数領域知覚重み付は音声信
号X (i)は第3図内の変換パラメータ信号コンバー
タ301に加えられ、ここで、信号d (i)及びξ(
i)が以下に式に従って生成される。
a(i)−l H(i) 1 d (i)及びξ(i)によって表わされる現在の音声
フレーム励起信号と比較される非定符号は統計的符号蓄
積器330内に蓄積される。個々の符号はN個、例えば
、40個のシーケンスのデジタル符号信号C(k)(1
)、C(k)(2)、・・・、c(k)(40)  を
含む。これら信号は総平均が比較的に小さいという緩い
制約内で任意に選択された数のセットであっても、ある
いはランダムに選択されたデジタル符号信号であっても
よい。さらに、この制約を満足すれば、当技術において
周知の他の符号の形式をとることもできる。このセット
の信号C(k) (n)は第2図の符号器装置に悪影響
を与えることなく記憶要件を最小限にするために重複さ
れた個別の符号から構成することもできる。変換領域符
号蓄積器305は蓄積器330内の以下の式に従って生
成されるフーリエ変換周波数領域の符号の形式を持つ。
ここでは、変換符号信号が蓄積されるが、蓄積された非
定符号から変換信号を生成する当技術において周知の他
の装置を使用することもできる。周波数領域符号は実及
び虚数成分の信号を含むため、周波数領域符号C(k)
(i)には対応する時間領域符号c(k)(n)の2倍
の要素が含まれる。
変換領域符号蓄積器305からの個々の符号出力C(k
)(i)はに個の誤シ/スケール因子発生器315−1
から315−にの1つに加えられ、変換された非定符号
がパラメータ信号コンバータ301から得られる時間フ
レームに対する信号d (i)及びξ(i)によって表
わされる時間フレーム音声信号と比較される。第5図は
誤り/スケール因子発生器315−Kに対する誤シ及び
スケール因子を生成するのに使用される装置をブロック
図にて示す。第5図に示されるように、非定符号シーケ
ンスC(k)(1)、C(k)(2)、・・・、C(k
脳が音声パターン相互相関器501及び音声パターン 
エネルギー係数発生器505に供給される。変換パラメ
ータ信号コンバータ301からの信号d(i)は相互相
関器501及び正規化器505に供給され、一方、コン
バータ301からのξ(i)は相互相関器501に供給
される。相互相関器501は以下の式によって表わされ
る信号を生成する。
これは過去のフレーム成分が除去された音声フレーム信
号ξ(i)と変換された非定符号から派生されるフレー
ム音声信号d(i)  C(i)との相関を表わす。一
方、2乗化回路510は以下によって表わされる信号を
生成する。
符号シーケンスc(n)を使用してのエラーが割り算器
回路515内で相互相関器501及び正規化器505の
出力に応答して以下の弐に従って現在の音声時間フレー
ムについて生成される。
そして、スケール因子が割り算器520内で相互相関器
回路501及び正規化器505の出力に応答して以下の
式に従って生成される。
第5図の相互相関器、正規化器及び割り算器回路は周知
の論理回路要素から構成され、後に説明されるように1
つのデジタル信号プロセッサに組立てられる。現在のフ
レームの音声パターンの特性と最も合致する非定符号が
第3図の符号選択器320内で選択され、選択された符
号のインデックスK 並びにその符号に対するスケール
因子λ(K”)がマルチプレクサ325に供給される。
このマルチプレクサは励起符号信号K“及びλ(K ”
)を現在の音声時間フレームLPCパラメータ信号a 
(K)及びピッチ パラメータ信号β(1)、β(2)
、β(3)及びmとを伝送あるいは蓄積するのに適する
形式に結合する。インデックス信号K”も選択器325
に供給され、そのインデックスに対する時間領域符号が
蓄積器330から選択される。こうして選択された時間
領域符号C”(n)は第2図内の先行フレーム寄与発生
器222に供給され、ここでこれは、以下の式に従って
、次の音声時間フレーム処理のための信号y (n)を
生成するのに使用される。
第4図は本発明による音声符号器装置を示す。第2図及
び第3図との関連で説明された演算はプロセッサ435
の制御下において一連のデジタル信号プロセッサ405
.410.415、及び420−1 カら420−KI
Cjつて遂行される。プロセッサ405は第2図のLP
Cアナライザ209、LPG及び重み付けされたLPC
信号蓄積器213及び215、予測残留信号発生器21
1、及びピッチ予測アナライザ220と関連する予測係
数信号処理を遂行するのに使用される。予測残留信号プ
ロセッサ410は予測フィルタ217、先行フレーム寄
与信号発生器222、引き算器247及びインパルス応
答発生器225との関連で説明の機能を遂行する。変換
信号プロセッサ415は第2図のDFT発生器245及
び250、及び第3図の変換パラメータ信号コンバータ
301の演算を遂行する。プロセッサ420−1から4
20−には第3図の誤り/スケール係数発生器315−
1から315−Kから得られるエラー及びスケール因子
信号を生成する。
個々のこれらデジタル信号プロセッサには5tate 
C4rcuits ) 、Vol、  5C20、Nl
 5.1985年10月号、ページ998にP、ハイズ
(P、 Hays )らによって発表の論文〔32ビツ
トVLS Iデジタル信号プロセッサ(A32Bit 
VLSI Digital Processor ) 
] に説明のWEODSデジタル信号プロセッサを使用
することができる。また、制御プロセッサには、   
参考書[MC6800016ビット マイクロプロセツ
サ、ユーザーズマニュアル(MC6800016Bit
 Microprocessor User’ s M
anual ) ]、第2版1モトローラ社(Moto
rola Inc、 )、1980年出版に説明のモト
ローラ タイプの68000  マイクロプロセッサ及
び関連する回路を使用することができる。個々のデジタ
ル信号プロセッサは、それと関連する演算のためにデー
タを格納するためのメモリ、例えば、予漬り係数信号プ
ロセッサ405に接続されたデータ メモリ408を持
つ。共通データメモリ450は他のデジタル プロセッ
サの動作に必要なあるデジタル信号プロセッサからの信
号を格納する。共通プログラム蓄積器430は制御プロ
セッサ435及びデジタル信号プロセッサによってタイ
ミングの目的及び第4図の符号化機能を遂行するために
使用される一連の永久的に内蔵された命令信号を持つ。
統計的符号信号蓄積器440は読出し専用メモリであり
、第3図との関連で説明の乱数符号(n)を含む。変換
符号信号蓄積器445はもう1つの読出し専用メモリで
あり、蓄積器440内の符号と対応するフーリエ変換さ
れた周波数領域符号信号を保持する。
第4図の符号器は通信システムの一部を構成することも
考えられる。この場合は、ここでマイクロホン401に
加えられた会話が低ビツト速度デジタル信号、例えば、
4.8 kb/sに符号化され、通信リンクを介してこ
の非定符号インデックス及びフレーム パラメータ信号
を復号する受信機に送信される。一方、   ゛第4図
の符号器の出力は後に復号するために格納及び前送りシ
ステム内に格納される場合も、あるいは後に説明のタイ
プの音声シンセサイザ内で使用するために読出し専用メ
モリ内に格納される場合もある。第6図の流れ図に示さ
れるように、制御プロセッサ435はスイッチあるいは
他のデバイス(図示なし)からの手操作信号STによっ
て符号器の動作を起動される。第4図のデジタル信号プ
ロセッサの1つの時間フレーム期間に対する予測パラメ
ータ信号及び励起符号信号K”及びγ1を生成する全て
の動作はその時間フレーム期間内に起こる。オフ スイ
ッチがセットされると(ステップ601)、信号TSが
予測係数プロセッサ405を起動するために生成され、
プロセッサ405の動作を制御するために共通プログラ
ム蓄積器430内の命令がアクセスされる。マイクロホ
ン401に加えられる音声がフィルタ/サンプラ406
内でろ波及びサンプリングされ、A / Dコンバータ
404内でデジタル信号のシーケンスに変換される。プ
ロセッサ405はコンバータ404からデジタル的に符
号化されたサンプル信号を受信し、このサンプルを受信
される順に時間フレーム セグメントに分割し、この一
連のフレーム サンプルを第7図のステップ705によ
って示されるようにデータ メモリ408内に格納する
。ステップ710に示されるように、現在の時間フレー
ムに対する短時間遅延係数信号a (k)及び知覚重み
付けされた短時間遅延信号b (k)が前述の特許第4
,133゜476号及び式(19)に従って生成される
。ステップ715において、現在のフレームの予測残留
信号δ(、)が式20に従って現在のフレーム音声サン
プル5(n)及びLPG係数信号a (k)から生成さ
れる。ステップ715の動作が完了すると、制御プロセ
ッサ435に短時間遅延分析終了(5TrLPC)信号
が送くられる(ステップ720)。このS置PC信号は
第6図のステップ615に示されるよりにプロセッサ+
10の動作を開始するのに使用される。次に、ステップ
725に示されるように、式21及び22に従って長時
間遅延係数信号β(1)、β(2)、β(3)及びmが
生成され、予測係数分析終了信号5TEPCAが生成さ
れる(ステップ730)。プロセッサ405は前述の特
許第4,133,976号に説明されるように予測係数
信号を生成するのに使用される。現在の音声フレームの
信号a (k)、b (k)、δCTI)、及びβ(n
)並びに隼は残留信号処理に使用するために共通データ
 メモリ450に送くられる。
プロセッサ405内で現在のフレームのLpc係数信号
が生成されると、制御プロセッサ435はS置PC信号
に応答して第8図のステップ801に示されるように予
測残留信号プロセッサを起動する。プロセッサ410の
動作は第8図の流れ図に示されるように共通プログラム
蓄積器4300制御下で遂行される。第8図に示される
ように、現在のフレームの知覚重み付けされた信号y 
(n)がステップ805において式(23)に従って生
成及び格納される。ステップ81Gにおいて、式(24
)に従って1、長時間遅延予測寄与信号δ(n)が生成
される。ステップ815において、短時間遅延予測寄与
信号9 (n)が生成される。ステップ820において
信号y (n)から信号y (n)を引くことによって
先行フレームの成分が除去された現在のフレームの音声
パターン信号(X(n))が生成され、前述の特許第4
,133,476号に説明されるようにLPC係数信号
a (k)からインパルス応答信号h (n)が生成さ
れる(ステップ825)。信号x (n)及びh (n
)は変換信号プロセッサ415に使用するために共通デ
ータ メモリ450に送ぐられ格納される。
現在の時間フレームに対する信号x(n)、h(n)の
生成が完了すると、制御プロセッサ435はプロセッサ
410から信号5TEPSPを受信する。制御プロセッ
サ435によって信号5TEPSP及びS TEP C
Aの両方が受信されるとC第6図のステップ621)、
変換信号プロセッサ415の動作が第6図のステップ6
25に示されるようにプロセッサ415に5TEPSP
信号を送くることによって開始される。プロセッサ41
5は信号x (n)及びh (n)に関して離散フーリ
エ変換演算を遂行することによって周波数領域音声フレ
ームを表わす信号x (i)及びH(i)を生成する。
第9図に示されるように、信号5TEPSPが検出され
ると(ステップ901)1. (n)及びh (n)信
号が共通データ メモリ450から読み出される(ステ
ップ905)。癌分野において周知のフーリエ変換によ
って信号X (i)が信号X (n)から生成され(ス
テップ910 >、信号H(i)がh (n)信号から
生成される(ステップ915)。DFTは前述の特許第
3,588,460号に開示の原理に従って実現できる
。次にステップ920において式(29)に従って信号
X(i)及びH(i)の音声フレームを表わす信号d 
(i)及びξ(i)への変換がプロセッサ415によっ
て遂行され、信号d (i)及びξ(i)が共通データ
 メモリ450に格納される。現在のフレームの変換予
測処理が終了すると、信号5TETPSが制御プロセッ
サ435に送くられる(ステップ925)。
ステップ630において、信号5TETPSに応答して
、制御プロセッサは誤り/スケール因子信号プロセッサ
420−1から420−Rを起動する(ステップ635
)。
現在のフレームに対する変換領域時間フレーム音声信号
がプロセッサ415内で生成され、共通データ メモリ
450内に格納されると、誤シ/スケール因子信号プロ
セッサ420−1から420−に内で現在のフレームの
音声パターンも最も一致する統計的符号ck*(n)の
探索動作が遂行される。個々のプロセッサは蓄積器44
5内の1つあるいは複数(例えば100個)の変換領域
符号に対応するエラー及びスケール因子信号を生成する
このエラー及びスケール因子信号の生成が第1O図の流
れ図に図解される。第10図に示されるように、制御信
号S T E−T P Sの存在によって(ステップ1
001)、処理される統計的符号を同定するパラメータ
k、現在のフレームに対して選択された統計的符号を同
定するパラメータに1、現在のフレームに対して選択宮
れた符号の相互相関係数信号を同定するパラメータP(
r)”、及び現在のフレームに対して選択された符号の
エネルギー係数信号を同定するパラメータQ (r)”
がセットされる。
現在対象とされる変換領域非定符号C(k)(1)が変
換符号信号蓄積器445から読み出され(ステップ10
10)、変換領域非定符号Ck(i)から得られる現在
のフレームの変換領域音声パターン信号が信号d (i
)及びC(1)から生成される(ステップト015)。
信号d (i) C(k)(i)は非定符号C(n)に
よって生成されたフレームの音声パターンを表わす。符
号信号C(k)(i)はフレーム励起に対応し、信号d
 (i)は人間の音声器官を表わす予測フィルタに対応
する。共通データ メモリ450内に格納される信号ξ
(i)はマイクロホン401から得られる現在のフレー
ムの音声パターンを表わす。
信号d (i) C+(k)(i)及びξ(i)を表わ
す2つの変換領域音声パターンがステップ1020にお
いて信号p (k)を生成するために相互相関され、ス
テップ1022において正規化の目的でエネルギー係数
信号Q (k)が生成される。そのフレームの実際の音
声パターンからの統計的符号フレーム音声パターンの現
在の偏差がステップ1025において計算される。符号
パターンと実際のパターンとの間のエラーが先行符号に
対して計算された最良のものより小さい場合は、インデ
ックス信号K (r)”、相互相関信号P (r)”及
びエネルギー係数信号Q (r)”がステップ1030
において、且、P (k)、及びQ (k)にセットさ
れる。次にステップ1035において、全ての符号が比
較されたか調べられる。終了してない場合は、信号K 
(r)”、P (r)”、及びQ (r)“は変更され
ないままとされ、ステップ1025から直接にステップ
1035に進む。ステップ1035において、k ) 
Kmaxとなるまでインデックス信号kが増分され(ス
テップ1G40)、ステップ1010に再び進む。k 
) K maxとなると、信号に、(r)”が格納され
、ステップ1045にオイて、スケール因子係数信号r
”が生成される。誤シ/スケール因子信号プロセッサ内
で処理された符号に対するインデックス信号K(r)”
及びスケール因子信号γ(r) ”は共通データ メモ
リ450内に格納される。次にステップ1050に入い
fi、5TEER制御信号が制御プロセッサ435に送
くられ、誤り/スケール因子信号プロセッサ内での変換
符号の選択が完了したことが通知される(第6図のステ
ップ640)。
プロセッサ420−1から420−R内での比較の結果
として得られる信号P (r)”、Q(r)”、及びK
(rビは共通データ メモリ450に格納され、最小誤
シ/多重処理装置455に送くられる。プロセッサ45
5は第11図の流れ図に従って動作し、蓄積器440内
のインデックスK”を持つ最も一致する統計的符号を選
択する。このインデックスはプロセッサ420−1から
420−Hに対する信号K“(1)からK”(R)によ
って示される最良の非定符号から選択される。このイン
デックスに′は最小エラーの信号を与える統計的符号に
対応する。第11図のステップ11o1に示されるよう
に、プロセッサ455は制御プロセッサ435からプロ
セッサ420−1から420−1が5TEER信号を送
ったことを示す信号を受信することによって起動される
。信号r、K”、P4′、及びQ”がそれぞれ初期の値
である1にセットされ、信号P(r) ”、Q(r)”
、K (r)”及びγ(r)“が共通データ メモリ4
50から読み出される(ステップ111G)。
ステップ1115によって現在の信号P (r)”及び
Q(r)”が良く一致する統計的符号信号を与えること
が決定されると、これら値は現在のフレームに対するK
”、P”、Q”、及ヒγ”として格納され、次に判定1
125に進む。R番目のセットの信号K(R)”、P(
R)”、Q (R) ”が処理されるまで、ステップ1
110がステップ1130を増分することによって反復
して遂行され、これが最良であると考えられる全ての候
補が評価されるまで行なわれる。R番目のセットの信号
の処理が終わると、現在のフレームに対して選択された
インデックスK“、及び対応するスケール因子信号ばか
共通データ メモリ450内に格納される。
この時点において、共通データ メモリ内に現在の時間
フレーム音声符号を生成するための全ての信号が揃う。
信号プロセッサ内で次の時間フレーム期間において前述
したごとく現在の時1間フレームの先行フレーム成分を
除去するのに使用される現在のフレーム励起に骨 符号の寄与c(n) を生成することが必要である。こ
れはステップ1135において行なわれるが、ここで、
信号δ(、)及びy (n)が更新される。
現在のフレームに対する予測パラメータ信号及び信号に
1及びγ1が次にメモリ450から読み出され(ステッ
プ114G)、次にこれら信号が当技術において周知の
ようにフレーム伝送符号セットに変換される(ステップ
1145)。次に現在のフレーム終了伝送信号FETが
生成され、制御プロセッサ435に送〈られ、プロセッ
サ435に次のフレーム信号の開始が通知される(第6
図のステップ650)。
通信システム内で使用される場合は、この時間フレーム
の符号化音声信号はセットのしPC係数a (k)、セ
ットのピッチ予測係数β(1)、β(2)、β(3)、
及び二、並びに統計的符号インデックス信号K”及びス
ケール因子信号γ“から構成される。当技術において周
知のごとく、予測復号器回路は個々の音声の時間フレー
ムの励起信号を人間の音声器官のモデルである1つある
いは複数のフィルタに送くる。
本発明の一面によると、この励起信号は第2図及び第3
図あるいは第4図の回路の音声符号器との関連において
説明されたごとく、格納された非定符号の1つである。
この統計的符号は個々がレジスタ内に格納された102
4個の乱数g(1)、g(2)、・・・、g (106
3)のシーケンスから得られる40個のセットの乱数を
含む1024個の符号のセットから構成される。
この統計的符号はテーブル1に示されるように重複して
配列された40個の要素を含む。
テーブル 1 統計的符号       統計的符号 インデックスに 1        g (1)、g(2)、・・・、g
 (40)2        g (21、g(3)、
・・・、g (41)3        g (3)、
g(4)、・・・、g (42)4        g
(4)、g(5)、・・・、g (43)1024  
 g (1024)、g(1025)、・・・、g(1
063)第1図に示されるように、個々の符号は40個
の乱数のシーケンスを持ち、これら乱数は個々の連続の
符号が先行符号の第2の数の位置から始まるように重複
される。テーブル1内の第1の項目はインデックスに=
1並びに最初の40個の乱数のストリング、つまり、g
(1)、g(2)、・・・、g (40)  を含む。
従って、後続の39個の位置の符号は重複し、これら乱
数特性に影響を与えることなく蓄積要件を最小限にする
ことができる。この重複の度合いは回路の動作に影響を
与えることなく変更することができる。このストリング
の信号g(1)からg (1063)までの全体の平均
は比較的に小さなことが要求される。この非定符号は必
ずしも乱数である必要はなく、また、これらの符号は必
ずしも重複して配列する必要はない。従って、セットの
一意の符号を定義する+11−1の非電シーケンスを使
用することも可能である。
第12図の復号器あるいはシンセサイザ回路のデマルチ
プレクサ1201内のLPC係数信号a (k)、ピッ
チ予測係数信号β(1)、β(2)、β(3)、及びユ
、並びに統計的符号インデックス信号K及びスケール因
数信号γが分離される。ピッチ予測パラメータ信号β(
k)及びmはピッチ予測フィルタ1220に加えられ、
Lpc係数信号はLPG予測フィルタ1225に加えら
れる。フィルタ1220及び1225は当技術において
周知であり前述の合衆国特許第4,133,976号に
おいて説明されるように動作し、音声器官の特性に従っ
てスケーラ1215からの励起信号を修正する。インデ
ックス信号KI′は選択器1205に加えられるが、こ
れは統計的ストリング レジスタ1210にアドレスす
る。インデックス信号K“に応答して、その音声の時間
フレーム励起を最も良く表わす統計的符号がスケーラ1
215に加えられる。この統計的符号は実際の音声の強
度と無関係に時間フレーム音声パターンに対i応する。
スケーラはこの統計的符号を音声フレームの励起の強度
に従って修正する。この方法による励起信号の生成は伝
送に必要とされる励起ビット速度を最小限に押さえ、ま
た符号が重複して蓄積されることがら復号器の回路要件
が軽減され、広範囲の暗号技術を使用することが可能と
なる。スケーラ1215からの統計的符号信号が予測フ
ィルタ1220及び1225内で修正された結果として
得られるデジタル符号化信号はD/Aコンバータ123
0に加えられ、ここで、一連のアナログ サンプルが生
成される。これらサンプルがロード パス フィルタ1
235内でフィルタされ、第2図及び第3図あるいは第
4図の回路の符号器に加えられた時間フレーム信号5(
n)のリプリカが生成きれる。
本発明は音声合成にも使用できるが、この場合は、音声
パターンが第2図及び第3図あるいは第4図の回路によ
って示される統計的符号方法を使用して符号化される。
音声シンセサイザは第12図の回路を含む。周知のデー
タ処理装置からインデックス信号K”が予測パラメータ
信号とともに、次々と、生成される音声パターンに従っ
て統計的ストリングレジスタ1210に加えられる。重
複する符号配列のために記憶要件が最小限にされ、従っ
て広範囲の音声が生成でき、また統計的符号をインデッ
クス信号にて非常に効率的にアクセスすることが可能で
ある。同様に、本発明による後に再生するための音声メ
ッセージの記憶は連続フレームの予測パラメータ及び励
起インデックス信号の記憶のみが必要であり、再生され
たメッセージの了解度を低下させることなく音声圧縮を
向上できる。
ここでは、本発明は本発明の特定の実施態様との関連で
説明されたが、本発明の精神及び範囲から逸脱すること
なく各種の変更及び修正を加えることができることは勿
論である。
【図面の簡単な説明】
第1図は先行技術による統計的符号化装置を使用する音
声符号化装置を示す図; 第2図及び第3図は本発明による非定符号及び変換領域
処理を使用するデジタル音声符号化装置の全般ブロック
図; 第4図は第2図及び第3図に示される回路の機能を遂行
するデジタル音声符号化信号処理装置の詳細なブロック
図; 第5図は第3図の装置内に使用される誤り/スケール因
子発生器回路のブロック図;第6図から第11図は第4
図の回路の動作を図解する流れ図:そして 第12図は本発明による乱数符号のストリングが統計的
符号の重複シーケンスを形成する符号器回路のブロック
図を示す。 く主要部分の符号の説明〉 インデックス信号格納装置・・・・・・・・・ 120
音声パタ一ン分割装置・・・・・・・・・・・・・・・
 110第1の信号生成装置・・・・・・・・・・・・
・・・・・・・・・ 115変換領域符号信号生成装置
・・・・・・・・・ 305選択装置 ・・・・・・・
・・・・・・・・・・・・・・・・・・・・・・・・・
・・・・・・・ 315−1FIG、 5 d(i)、ξ(i) FIG、 7 FIG、/3 FI6.9 F/に、 10 F/に、 // 手 続祁j 正置(方式) 昭和61年11月7日 特許庁長官  黒 1)明 雄  殿 1 、 )jG件の表示 昭和61年特許願第198297号 2、発明の名称 音声メー、セージ処理装置と方法 3、補正をする者 事件との関係  特許出願人 4、代理人 別紙の通り正式図面を1通提出致します。

Claims (1)

  1. 【特許請求の範囲】 1、各々が非定値の符号を表わすセットの信号及び該非
    定符号信号を同定するセットの インデックス信号を格納するための装置; 音声を時間フレーム時間の音声パターン に分割するための装置;及び 該分割された音声に応答して該音声メッ セージの個々の連続の時間フレーム時間の 音声パターンを表わす第1の信号を生成す るための装置を含む音声メッセージ処理装 置において、該装置がさらに; 個々の非定符号信号に応答してこれから 変換領域符号信号を生成するための装置; 該変換領域符号信号に応答して該変換領 域符号信号に対応する時間フレームパタ ーンを表わす第2の信号を生成し、また個 々の時間期間の該第1の信号及び該第2の 信号の両方に応答して該複数の非定符号信 号の1つを該時間フレーム期間の音声パタ ーンの特性として選択するための装置;及 び 個々の連続の時間フレーム期間に対する 該選択された非定符号信号に対応するイン デックス信号を出力するため装置を含むこ とを特徴とする音声メッセージ処理装置。 2、特許請求の範囲第1項に記載の音声メッセージ処理
    装置において、 該第1の信号を生成するための装置が現 在の時間フレーム期間の音声パターンに応 答して該現在の時間期間の音声パターンの 変換領域値に対応する第3の信号を生成す るための装置を含み; 該第2の信号を生成するための装置が該 変換領域符号信号に応答して各々が該変換 領域符号に対する時間フレーム期間のパタ ーンの変換領域に対応するセットの第4の 信号を生成するための装置を含み;そして 該非定符号信号を選択するための装置が 該第3の信号と個々の該第4の信号との間 の一致度を表わす信号を生成するための装 置、及び該一致度を表わす信号に応答して 最も一致する信号を持つ第4の音声パター ン信号に対応する非定符号インデックス信 号を決定するための装置を持つことを特徴 とする音声メッセージ処理装置。 3、特許請求の範囲第2項に記載の音声メッセージ処理
    装置において、 該非定符号を選択するための装置がさら に該第3の信号及び第4の信号に応答して 該第3の信号に対する該第4の信号の相対 スケールを表わす信号を生成するための装 置及び該スケール信号を出力するための装 置を含むことを特徴とする音声メッセージ 処理装置。 4、特許請求の範囲第3項に記載の音声メッセージ処理
    装置において、 該第3の信号を生成するための装置が: 時間フレーム期間の音声パターンに応答 して現在の時間フレーム期間の音声パター ンの予測パターンを表わすセットの信号を 生成するための装置; 現在の時間期間の音声パターン及び現在 の時間フレーム期間の予測パラメータ信号 に応答して該現在の時間フレーム期間の音 声パターンの予測残留を表わす信号を生成 するための装置; 現在及び先行の時間フレーム期間の予測 残留信号に応答して該現在及び先行の時間 フレーム期間の音声パターンのピッチ予測 パラメータを表わすセットの信号を生成す るための装置;及び 該時間フレーム期間予測パラメータ信号、 該ピッチ予測パラメータ信号、及び該時間 フレーム期間予測残留信号を結合すること によつて現在の時間フレーム期間の音声パ ラメータを表わす信号を生成するための装 置を含むことを特徴とする音声メッセージ 処理装置。 5、特許請求の範囲第4項に記載の音声メッセージ処理
    装置において、 該第3の信号を生成するための装置がさ らに 該連続の時間フレーム期間のインデック ス信号に応答して該インデックス信号に対 応する非定符号信号を選択するための装置;該現在の時
    間フレーム期間に先行する時 間フレーム期間に対する選択された非定符 号信号及び現在の時間フレーム期間の声音 パラメータに対する予測パラメータ信号に 応答して先行時間フレーム期間に由来する 現在の時間フレーム期間の音声パターンの 成分を表わす信号を生成するための装置; 該現在の時間フレーム期間の音声パター ンを表わす信号からの先行時間フレーム期 間に由来する音声パターンの成分を表わす 信号に応答して先行時間フレーム期間の成 分の信号が除去された現在の時間フレーム 期間の音声パターンに対応する信号を生成 するための装置;及び 該先行時間フレーム期間の信号が除去さ れた現在の時間期間の音声パターンに応答 して該現在の時間期間の音声パターンを先 行時間期間の信号が除去された該現在の時 間期間の音声パターンを表わす変換領域信 号に変換するための装置を含むことを特徴 とする音声メッセージ処理装置。 6、特許請求の範囲第5項に記載の音声メッセージ処理
    装置において、 該第4の信号を生成するための装置がさ らに; 現在の時間フレーム期間の予測パラメー タ信号に応答して線形予測フィルタのイン パルス応答を表わす信号を生成するための 装置;及び 該インパルス応答信号に応答して該信号 に対応する変換領域信号を生成するための 装置を含むことを特徴とする音声メッセー ジ処理装置。 7、特許請求の範囲第6項に記載の音声メッセージ処理
    装置において、 該一致度を表わす信号を生成するための 装置が該変換領域符号信号、該変換領域イ ンパルス応答信号、及び該先行時間フレー ム期間の成分が除去された変換領域時間フ レーム期間音声パターン信号に応答して該 先行時間フレーム期間の成分が除去された 変換領域時間フレーム期間音声パターンと 該変換領域非定符号信号から生成された現 在の時間フレーム期間の音声パターンとの 差を表わす信号を生成するための装置を含 むことを特徴とする音声メッセージ処理装 置。 8、特許請求の範囲第7項に記載の音声メッセージ処理
    装置において、 該変換領域が周波数領域であることを特 徴とする音声メッセージ処理装置。 9、特許請求の範囲第8項に記載の音声メッセージ処理
    装置において、 該周波数領域信号がフーリエ変換信号で あることを特徴とする音声メッセージ処理 装置。 10、特許請求の範囲第1項、第2項あるいは第3項に
    記載の音声メッセージ処理装置に おいて、該装置がさらに: 該音声メッセージのリプリカを生成する ための装置を含み、該リプリカを生成する ための装置が: 個々が1つの時間フレーム期間の音声パ ターンに対応し個々が所定の非定信号を同 定する該出力されたインデックス信号のシ ーケンスを受信するための装置; 該受信されたインデックス信号の該シー ケンスに応答して該同定される非定符号信 号を連結するための装置;及び 該連結された非定符号信号に応答して該 音声メッセージを生成するための装置を含 むことを特徴とする音声メッセージ処理装 置。 11、特許請求の範囲第10項に記載の音声メッセージ
    処理装置において、該装置がさら に: 非定符号を格納するための装置を含み、 該記憶装置がさらに: 非定値信号のストリングを格納するため の装置及び該ストリング内の所定の非定値 信号のシーケンスを同定するための装置を 含むことを特徴とする音声メッセージ処理 装置。 12、特許請求の範囲第11項に記載の音声メッセージ
    処理装置において、 該所定の非定値信号のシーケンスが重複 するシーケンスを持つことを特徴とする音 声メッセージ処理装置。 13、特許請求の範囲第12項に記載の音声メッセージ
    処理装置において、 該非定符号が統計的符号であることを特 徴とする音声メッセージ処理装置。 14、音声メッセージを処理するための方法において、
    該方法が: 各々が非定値の符号を表わすセットの信 号及び該非定符号信号を同定するセットの インデックス信号を格納するステップ; 音声メッセージを時間フレーム期間の音 声パターンに分割するステップ; 該分割された音声に応答して該音声メッ セージの個々の連続の時間フレーム期間の 音声パターンを表わす第1の信号を生成す るステップ; 個々の非定符号信号に応答して変換領域 符号信号を生成するステップ; 該変換領域符号信号に応答して該変換領 域符号信号に対応する時間フレームパタ ーンを表わす第2の信号を生成するステッ プ; 個々の時間期間の該第1の信号及び該第 2の信号の両方に応答して該複数の非定符 号信号の1つを選択するステップ;及び 個々の連続の時間フレーム期間に対する 該選択された非定符号信号に対応するイン デックス信号を出力するためステップを含 むことを特徴とする音声メッセージ処理方 法。 15、特許請求の範囲第14項に記載の音声メッセージ
    処理方法において、 該第1の信号を生成するステップが現在 の時間フレーム期間の音声パターンに応答 して現在の時間期間の音声パターンの変換 領域に対応する第3の信号を生成するステ ップを含み; 該第2の信号生成するステップが該変換 領域符号信号に応答して各々が該変換領域 符号に対する時間フレーム期間のパターン の変換領域値に対応するセットの第4の信 号を生成するステップを含み;そして 該非定符号信号を選択するステップが該 第3の信号と個々の該第4の信号との間の 一致度を表わす信号を生成するステップ、 及び該一致度を表わす信号に応答して最も 一致する信号を持つ第4の音声パターン信 号に対応する非定符号インデックス信号を 決定するステップを含むことを特徴とする 音声メッセージ処理方法。 16、特許請求の範囲第15項に記載の音声メッセージ
    処理方法において、 該非定符号を選択するステップがさらに 該第3の信号及び第4の信号に応答して該 第3の信号に対する該第4の信号の相対ス ケールを表わす信号を生成するステップ及 び該スケール信号を出力するステップを含 むことを特徴とする音声メッセージ処理方 法。 17、特許請求の範囲第16項に記載の音声メッセージ
    処理方法において、 該第3の信号を生成するステップが: 時間フレーム期間の音声パターンに応答 して現在の時間フレーム期間の音声パター ンの予測パターンを表わすセットの信号を 生成するステップ; 現在の時間期間の音声パターン及び現在 の時間フレーム期間の予測パラメータ信号 に応答して現在の時間フレーム期間の音声 パターンの予測残留を表わす信号を生成す るステップ; 現在及び先行の時間フレーム期間の予測 残留信号に応答して該現在及び先行の時間 フレーム期間の音声パターンのピッチ予測 パラメータを表わすセットの信号を生成す るステップ; 該連続の時間フレーム期間のインデック ス信号に応答して該インデックス信号に対 応する非定符号信号を選択するステップ; 該現在の時間フレーム期間に先行する時 間フレーム期間に対する選択された非定符 号信号及び現在の時間フレーム期間の音声 パラメータに対する予測パラメータ信号に 応答して先行時間フレーム期間に由来する 現在の時間フレーム期間の音声パターンの 成分を表わす信号を生成するステップ;及 び 該現在の時間フレーム期間の音声パター ンを表わす信号からの先行時間フレーム期 間に由来する音声パターンの成分を表わす 信号に応答して先行時間フレーム期間の成 分の信号が除去された現在の時間フレーム 期間の音声パターンに対応する信号を生成 するステップを含むことを特徴とする音声 メッセージ処理方法。 18、特許請求の範囲第17項に記載の音声メッセージ
    処理方法において、 該第3の信号を生成するステップがさら に 該先行時間フレーム期間の信号が除去さ れた現在の時間期間の音声パターンに応答 して現在の時間期間の音声パターンを先行 時間期間の信号が除去された現在の時間期 間の音声パターンを表わす変換領域信号に 変換するステップを含むことを特徴とする 音声メッセージ処理方法。 19、特許請求の範囲第18項に記載の音声メッセージ
    処理方法において、該第4の信号 を生成するステップがさらに: 現在の時間フレーム期間の予測パラメー タ信号に応答して線形予測フィルタのイン パルス応答を表わす信号を生成するステッ プ;及び 該インパルス応答信号に応答して該信号 に対応する変換領域信号を生成するステッ プを含むことを特徴とする音声メッセージ 処理方法。 20、特許請求の範囲第19項に記載の音声メッセージ
    処理方法において、 該一致度を表わす信号を生成するステッ プが該変換領域符号信号、該変換領域イン パルス応答信号、及び該先行時間フレーム期間の成分が
    除去された変換領域時間フレー ム期間音声パターン信号に応答して該先行 時間フレーム期間の成分が除去された変換 領域時間フレーム期間音声パターンと該変 換領域非定符号信号から生成された該現在 の時間フレーム期間の音声パターンとの差 を表わす信号を生成するステップを含むこ とを特徴とする音声メッセージ処理方法。 21、特許請求の範囲第20項に記載の音声メッセージ
    処理方法において、 該変換領域が周波数領域であることを特 徴とする音声メッセージ処理方法。 22、特許請求の範囲第21項に記載の音声メッセージ
    処理方法において、 該周波数領域信号がフーリエ変換信号で あることを特徴とする音声メッセージ処理 方法。 23、特許請求の範囲第14項、第15項あるいは第1
    6項に記載の音声メッセージ処理 方法において、該方法がさらに: 該音声メッセージのリプリカを生成する ステップを含み、該リプリカを生成するス テップが: 個々が1つの時間フレーム期間の音声パ ターンに対応し個々が所定の非定信号を同 定する該出力されたインデックス信号のシ ーケンスを受信するステップ; 該受信されたインデックス信号の該シー ケンスに応答して該同定される非定符号信 号を連結するステップ;及び 該連結された非定符号信号に応答して該 音声メッセージを生成するステップを含む ことを特徴とする音声メッセージ処理方法。 24、特許請求の範囲第23項に記載の音声メッセージ
    処理方法において、該方法がさら に: 非定符号を格納するステップを含み、該 記憶ステップがさらに: 非定値信号のストリングを格納するステ ップ及び該ストリング内の所定の非定値信 号のシーケンスを同定するステップを含む ことを特徴とする音声メッセージ処理方法。 25、特許請求の範囲第24項に記載の音声メッセージ
    処理方法において、 該所定の非定値信号のシーケンスが重複 するシーケンスを持つことを特徴とする音 声メッセージ処理方法。 26、特許請求の範囲第25項に記載の音声メッセージ
    処理方法において、 該非定符号が統計的符号であることを特 徴とする音声メッセージ処理方法。 27、音声メッセージ符号化装置において、該装置が: セットの非定値符号信号及び該非定符号 信号を同定するセットのインデックス信号 を格納するための装置; 入力音声メッセージに応答して該音声メ ッセージを時間フレーム期間の音声パター ンに分割するための装置; 個々の時間フレーム期間の音声パターン に応答して該時間期間の音声パターンを表 わす第1の変換領域信号を生成するための 装置; 個々の非定値符号信号に応答して該非定 値符号信号に対する時間フレーム期間パタ ーンに対応する第2の変換領域信号を生成 するための装置; 該第1の変換領域信号及び第2の変換領 域信号に応答して該複数の非定符号信号の 1つを選択するための装置;及び 該選択された非定値符号信号に応答して 該時間フレーム期間に対する信号を同定す る該選択された非定値符号を出力するため 装置を含むことを特徴とする音声メッセー ジ符号化装置。 28、特許請求の範囲第27項に記載の音声メッセージ
    符号化装置において、 該非定値符号選択装置がさらに: 該第1の変換領域信号及び該第2の変換 領域信号に応答して該時間フレーム期間の音声パターン
    の該非定値符号信号に対する相 対スケールを表わす信号を生成するための 装置を含み; 該出力装置がさらに該時間フレーム期間 に対して選択された非定値符号に対応する 該スケール信号を出力するための装置を含 むことを特徴とする音声メッセージ符号化 装置。 29、特許請求の範囲第28項に記載の音声メッセージ
    符号装置において、該装置がさら に 該時間期間の音声パターンに応答して該 時間フレーム期間の音声パターンの音響特 性を表わすセットの予測パラメータ信号を 生成するための装置;及び 該予測パラメータ信号を出力するための 装置を含むことを特徴とする音声メッセー ジ符号化装置。 30、特許請求の範囲第27項、第28項あるいは第2
    9項に記載の音声メッセージ符号 化装置において、 該変換領域信号が周波数領域信号である ことを特徴とする音声メッセージ符号化装 置。 31、特許請求の範囲第30項に記載の音声メッセージ
    符号化装置において、 該周波数領域信号がフーリエ変換信号で あることを特徴とする音声メッセージ符号 化装置。 32、特許請求の範囲第27項、第28項あるいは第2
    9項に記載の音声メッセージ符号 化装置において、 該非定値符号格納装置が非定値信号のス トリングを格納するための装置を含み、該 同定装置が該ストリング内の所定の非定値 信号のシーケンスを同定するための装置を 含むことを特徴とする音声メッセージ符号 化装置。 33、特許請求の範囲第32項に記載の音声メッセージ
    符号化装置において、 該所定の非定値信号のシーケンスが重複 する非定値信号のシーケンスであることを 特徴とする音声メッセージ符号化装置。 34、特許請求の範囲第33項に記載の音声メッセージ
    符号化装置において、 該非定値信号が乱数信号であることを特 徴とする音声メッセージ符号化装置。 35、セットの非定値符号信号及び該非定値符号信号を
    同定するセットの信号を格納する ための記憶装置を含む音声符号化装置内に おいて音声メッセージを符号化するための 方法において、該方法が: 入力音声メッセージに応答して該音声メ ッセージを時間フレーム期間の音声パター ンに分割するステップ; 個々の時間フレーム期間の音声パターン に応答して該時間期間の音声パターンを表 わす第1の変換領域信号を生成するステッ プ; 個々の非定値符号信号に応答して該非定 値符号信号に対する時間フレーム期間パタ ーンに対応する第2の変換領域信号を生成 するステップ; 該第1の変換領域信号及び第2の変換領 域信号に応答して該複数の非定符号信号の 1つを選択するステップ;及び 該選択された非定値符号信号に応答して 該時間フレーム期間に対する信号を同定す る該選択された非定値符号を出力するステ ップを含むことを特徴とする方法。 36、特許請求の範囲第35項に記載のセットの非定値
    符号信号及び該非定値符号信号を 同定するセットの信号を格納するための記 憶装置を含む音声符号化装置内において音 声メッセージを符号化するための方法にお いて、 該非定値符号選択ステップがさらに: 該第1の変換領域信号及び該第2の変換 領域信号に応答して該時間フレーム期間の 音声パターンの該非定値符号信号に対する 相対スケールを表わす信号を生成するステ ップを含み; 該出力ステップがさらに該時間フレーム 期間に対して選択された非定値符号に対応 する該スケール信号を出力するステップを 含むことを特徴とする方法。 37、特許請求の範囲第36項に記載のセットの非定値
    符号信号及び該非定値符号信号を 同定するセットの信号を格納するための記 憶装置を含む音声符号化装置内において音 声メッセージを符号化するための方法にお いて、該方法がさらに 該時間期間の音声パターンに応答して該 時間フレーム期間の音声パターンの音響特 性を表わすセットの予測パラメータ信号を 生成するステップ;及び 該予測パラメータ信号を出力するステッ プを含むことを特徴とする方法。 38、特許請求の範囲第35項、第36項あるいは第3
    7項に記載のセットの非定値符号 信号及び該非定値符号信号を同定するセットの信号を格
    納するための記憶装置を含む音 声符号化装置内において音声メッセージを 符号化するための方法において、 該変換領域信号が周波数領域信号である ことを特徴とする方法。 39、特許請求の範囲第38項に記載のセットの非定値
    符号信号及び該非定値符号信号を 同定するセットの信号を格納するための記 憶装置を含む音声符号化装置内において音 声メッセージを符号化するための方法にお いて、 該周波数領域信号がフーリエ変換信号で あることを特徴とする音声メッセージ符号 化装置。 40、特許請求の範囲第35項、第36項、あるいは第
    37項に記載のセットの非定値符 号信号及び該非定値符号信号を同定するセ ットの信号を格納するための記憶装置を含 む音声符号化装置内において音声メッセー ジを符号化するための方法において、 該非定値符号格納装置が非定値信号のス トリング及び該ストリング内の所定の非定 値信号のシーケンスを同定するセットの信 号を格納することを特徴とする方法。 41、特許請求の範囲第40項に記載のセットの非定値
    符号信号及び該非定値符号信号を 同定するセットの信号を格納するための記 憶装置を含む音声符号化装置内において音 声メッセージを符号化するための方法にお いて、 該所定の非定値信号のシーケンスが重複 する非定値信号のシーケンスであることを 特徴とする方法。 42、特許請求の範囲第41項に記載の音声メッセージ
    符号化装置において、 化非定値信号が乱数信号であることを特 徴とする構成。 43、音声メッセージを連続の時間フレーム期間のパタ
    ーンに生成するための回路におい て、該回路が: 非定値信号のストリングを格納するため の装置; 該ストリングの所定のセグメントを同定 するための装置; 該ストリングの所定のセグメントを同定 し該音声メッセージの1つの時間フレーム 期間に対応する信号のシーケンスを受信す るための装置; 該受信された同定信号のシーケンスに応 答して該非定値信号のストリングの同定さ れる所定のセグメントを連結するための装 置;及び 該連結されたセグメントに応答して該音 声メッセージを再生するための装置を含む ことを特徴とする回路。 44、特許請求の範囲第43項に記載の音声メッセージ
    を連続の時間フレーム期間に生成 するための回路において、個々の連続の時 間フレーム期間に対するスケール信号を受 信するための装置がさらに含まれ: 該連結装置がさらに該スケール信号に応 答して個々の時間フレームに対する同定さ れた非定値信号を調節するための装置を含 むことを特徴とする回路。 45、特許請求の範囲第43項あるいは第44項に記載
    の音声メッセージを連続の時間フ レーム期間に生成するための回路において、該非定値信
    号のシーケンスが重複するシ ーケンスであることを特徴とする回路。 46、非定値信号のストリングを格納するための装置を
    持つ装置内で音声メッセージを連 続の時間フレーム期間に生成するための方 法において、該方法が: 該ストリングの所定のセグメントを同定 するステップ; 該ストリングの所定のセグメントを同定 する個々の信号が該音声メッセージの1つ の時間フレーム期間に対応する信号のシー ケンスを受信するステップ; 該受信された同定信号のシーケンスに応 答して該非定値信号ストリングの同定され た所定のセグメントを連結するステップ; 及び 該連結されたセグメントに応答して該音 声メッセージを再生するステップを含むこ とを特徴とする方法。 47、特許請求の範囲第46項に記載の音声メッセージ
    を連続の時間フレーム期間に生成 するための方法において、個々の連続の時 間フレーム期間に対するスケール信号を受 信するステップがさらに含まれ、 該連結ステップがさらに該スケール信号 に応答して個々の時間フレームに対する該 同定された非定値信号セグメントを調節す るステップを含むことを特徴とする方法。 48、特許請求の範囲第46項あるいは第47項に記載
    の音声メッセージを連続の時間フ レーム期間に生成する方法において、 該非定値信号が乱数信号であることを特 徴とする方法。
JP61198297A 1985-12-26 1986-08-26 音声の符号化装置、復号装置及び符号化・復号システム Expired - Fee Related JP2954588B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US06/810,920 US4827517A (en) 1985-12-26 1985-12-26 Digital speech processor using arbitrary excitation coding
US810920 1985-12-26

Publications (2)

Publication Number Publication Date
JPS62159199A true JPS62159199A (ja) 1987-07-15
JP2954588B2 JP2954588B2 (ja) 1999-09-27

Family

ID=25205042

Family Applications (1)

Application Number Title Priority Date Filing Date
JP61198297A Expired - Fee Related JP2954588B2 (ja) 1985-12-26 1986-08-26 音声の符号化装置、復号装置及び符号化・復号システム

Country Status (6)

Country Link
US (1) US4827517A (ja)
EP (1) EP0232456B1 (ja)
JP (1) JP2954588B2 (ja)
KR (1) KR950013372B1 (ja)
CA (1) CA1318976C (ja)
DE (1) DE3685324D1 (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6435499A (en) * 1987-07-30 1989-02-06 Sanyo Electric Co Rule voice synthesizer
JPH05232998A (ja) * 1991-06-28 1993-09-10 Sip Soc It Per Esercizio Delle Telecommun Pa 合成による分析技術に基づく音声コーダの改良

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH02250100A (ja) * 1989-03-24 1990-10-05 Mitsubishi Electric Corp 音声符合化装置
JPH0782359B2 (ja) * 1989-04-21 1995-09-06 三菱電機株式会社 音声符号化装置、音声復号化装置及び音声符号化・復号化装置
JPH0365822A (ja) * 1989-08-04 1991-03-20 Fujitsu Ltd ベクトル量子化符号器及びベクトル量子化復号器
CA2021514C (en) * 1989-09-01 1998-12-15 Yair Shoham Constrained-stochastic-excitation coding
NL8902347A (nl) * 1989-09-20 1991-04-16 Nederland Ptt Werkwijze voor het coderen van een binnen een zeker tijdsinterval voorkomend analoog signaal, waarbij dat analoge signaal wordt geconverteerd in besturingscodes die bruikbaar zijn voor het samenstellen van een met dat analoge signaal overeenkomend synthetisch signaal.
US5235669A (en) * 1990-06-29 1993-08-10 At&T Laboratories Low-delay code-excited linear-predictive coding of wideband speech at 32 kbits/sec
US5138661A (en) * 1990-11-13 1992-08-11 General Electric Company Linear predictive codeword excited speech synthesizer
CA2483322C (en) * 1991-06-11 2008-09-23 Qualcomm Incorporated Error masking in a variable rate vocoder
US5189701A (en) * 1991-10-25 1993-02-23 Micom Communications Corp. Voice coder/decoder and methods of coding/decoding
US5490234A (en) * 1993-01-21 1996-02-06 Apple Computer, Inc. Waveform blending technique for text-to-speech system
TW271524B (ja) 1994-08-05 1996-03-01 Qualcomm Inc
US5742734A (en) * 1994-08-10 1998-04-21 Qualcomm Incorporated Encoding rate selection in a variable rate vocoder
US5715372A (en) * 1995-01-10 1998-02-03 Lucent Technologies Inc. Method and apparatus for characterizing an input signal
US5751901A (en) * 1996-07-31 1998-05-12 Qualcomm Incorporated Method for searching an excitation codebook in a code excited linear prediction (CELP) coder
JPH10124092A (ja) * 1996-10-23 1998-05-15 Sony Corp 音声符号化方法及び装置、並びに可聴信号符号化方法及び装置
US5839098A (en) 1996-12-19 1998-11-17 Lucent Technologies Inc. Speech coder methods and systems
US6714540B1 (en) * 1998-02-25 2004-03-30 Matsushita Electric Industrial Co., Ltd. Data communication method, communication frame generating method, and medium on which program for carrying out the methods are recorded
US6691084B2 (en) 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding
US7835918B2 (en) * 2004-11-04 2010-11-16 Koninklijke Philips Electronics N.V. Encoding and decoding a set of signals
US9349386B2 (en) * 2013-03-07 2016-05-24 Analog Device Global System and method for processor wake-up based on sensor data

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5816297A (ja) * 1981-07-22 1983-01-29 ソニー株式会社 音声合成方式

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3588460A (en) * 1968-07-01 1971-06-28 Bell Telephone Labor Inc Fast fourier transform processor
US3624302A (en) * 1969-10-29 1971-11-30 Bell Telephone Labor Inc Speech analysis and synthesis by the use of the linear prediction of a speech wave
US3740476A (en) * 1971-07-09 1973-06-19 Bell Telephone Labor Inc Speech signal pitch detector using prediction error data
US3982070A (en) * 1974-06-05 1976-09-21 Bell Telephone Laboratories, Incorporated Phase vocoder speech synthesis system
US4022974A (en) * 1976-06-03 1977-05-10 Bell Telephone Laboratories, Incorporated Adaptive linear prediction speech synthesizer
US4092493A (en) * 1976-11-30 1978-05-30 Bell Telephone Laboratories, Incorporated Speech recognition system
US4133976A (en) * 1978-04-07 1979-01-09 Bell Telephone Laboratories, Incorporated Predictive speech signal coding with reduced noise effects
US4184049A (en) * 1978-08-25 1980-01-15 Bell Telephone Laboratories, Incorporated Transform speech signal coding with pitch controlled adaptive quantizing
US4354057A (en) * 1980-04-08 1982-10-12 Bell Telephone Laboratories, Incorporated Predictive signal coding with partitioned quantization
US4472832A (en) * 1981-12-01 1984-09-18 At&T Bell Laboratories Digital speech coder
US4701954A (en) * 1984-03-16 1987-10-20 American Telephone And Telegraph Company, At&T Bell Laboratories Multipulse LPC speech processing arrangement

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5816297A (ja) * 1981-07-22 1983-01-29 ソニー株式会社 音声合成方式

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6435499A (en) * 1987-07-30 1989-02-06 Sanyo Electric Co Rule voice synthesizer
JPH05232998A (ja) * 1991-06-28 1993-09-10 Sip Soc It Per Esercizio Delle Telecommun Pa 合成による分析技術に基づく音声コーダの改良

Also Published As

Publication number Publication date
DE3685324D1 (de) 1992-06-17
JP2954588B2 (ja) 1999-09-27
EP0232456B1 (en) 1992-05-13
EP0232456A1 (en) 1987-08-19
US4827517A (en) 1989-05-02
KR950013372B1 (ko) 1995-11-02
CA1318976C (en) 1993-06-08
KR870006508A (ko) 1987-07-11

Similar Documents

Publication Publication Date Title
JPS62159199A (ja) 音声メツセ−ジ処理装置と方法
KR102125410B1 (ko) 타깃 시간 도메인 포락선을 사용하여 처리된 오디오 신호를 얻도록 오디오 신호를 처리하기 위한 장치 및 방법
US5127053A (en) Low-complexity method for improving the performance of autocorrelation-based pitch detectors
Atal High-quality speech at low bit rates: Multi-pulse and stochastically excited linear predictive coders
US6055496A (en) Vector quantization in celp speech coder
JPH0668680B2 (ja) 改善された多パルス線形予測符号化音声処理装置
JPS6156400A (ja) 音声処理装置
JPH10187196A (ja) 低ビットレートピッチ遅れコーダ
JP3531780B2 (ja) 音声符号化方法および復号化方法
JP2000132193A (ja) 信号符号化装置及び方法、並びに信号復号装置及び方法
JP2003157100A (ja) 音声通信方法及び装置、並びに音声通信プログラム
JP2796408B2 (ja) 音声情報圧縮装置
JP3916934B2 (ja) 音響パラメータ符号化、復号化方法、装置及びプログラム、音響信号符号化、復号化方法、装置及びプログラム、音響信号送信装置、音響信号受信装置
USRE34247E (en) Digital speech processor using arbitrary excitation coding
JP3552201B2 (ja) 音声符号化方法および装置
KR950013373B1 (ko) 음성 메시지 공급 장치와 음성 메시지 생성 방법
JPS6032100A (ja) Lsp型パタンマッチングボコ−ダ
JP3319551B2 (ja) ベクトル量子化装置
JPH11296195A (ja) 音響信号の符号化方法、復号方法、そのプログラム記録媒体、およびこれに用いる符号帳
Atal Speech coding: recognizing what we do not hear in speech
JP3192999B2 (ja) 音声符号化方法および音声符号化方法
JPH0511799A (ja) 音声符号化方式
JP4228630B2 (ja) 音声符号化装置および音声符号化プログラム
EP0119033B1 (en) Speech encoder
JP2000132195A (ja) 信号符号化装置及び方法

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees