JPH0683396A - 音声情報符号化方法およびその装置 - Google Patents
音声情報符号化方法およびその装置Info
- Publication number
- JPH0683396A JPH0683396A JP5183401A JP18340193A JPH0683396A JP H0683396 A JPH0683396 A JP H0683396A JP 5183401 A JP5183401 A JP 5183401A JP 18340193 A JP18340193 A JP 18340193A JP H0683396 A JPH0683396 A JP H0683396A
- Authority
- JP
- Japan
- Prior art keywords
- signal
- speech
- coded
- segment
- coding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 54
- 230000003044 adaptive effect Effects 0.000 claims description 13
- 230000004044 response Effects 0.000 claims description 11
- 230000014509 gene expression Effects 0.000 claims description 3
- 239000002131 composite material Substances 0.000 claims 1
- 238000011156 evaluation Methods 0.000 claims 1
- 230000002194 synthesizing effect Effects 0.000 claims 1
- 230000007774 longterm Effects 0.000 abstract description 26
- 238000004891 communication Methods 0.000 description 29
- 239000000872 buffer Substances 0.000 description 14
- 230000015572 biosynthetic process Effects 0.000 description 8
- 238000003786 synthesis reaction Methods 0.000 description 8
- 238000010586 diagram Methods 0.000 description 6
- 230000005284 excitation Effects 0.000 description 5
- 238000004458 analytical method Methods 0.000 description 4
- 230000005540 biological transmission Effects 0.000 description 4
- 230000005236 sound signal Effects 0.000 description 4
- 230000007704 transition Effects 0.000 description 4
- 239000006096 absorbing agent Substances 0.000 description 3
- 238000007796 conventional method Methods 0.000 description 3
- 238000005070 sampling Methods 0.000 description 3
- 230000035939 shock Effects 0.000 description 3
- 238000009825 accumulation Methods 0.000 description 2
- 230000001747 exhibiting effect Effects 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 230000003139 buffering effect Effects 0.000 description 1
- 230000001413 cellular effect Effects 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000007906 compression Methods 0.000 description 1
- 230000006835 compression Effects 0.000 description 1
- 238000013144 data compression Methods 0.000 description 1
- 230000006837 decompression Effects 0.000 description 1
- 230000001934 delay Effects 0.000 description 1
- 238000010606 normalization Methods 0.000 description 1
- 230000010355 oscillation Effects 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000008054 signal transmission Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 210000001260 vocal cord Anatomy 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/24—Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/097—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using prototype waveform decomposition or prototype waveform interpolative [PWI] coders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/08—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
- G10L19/12—Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
- G10L19/20—Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
Landscapes
- Engineering & Computer Science (AREA)
- Quality & Reliability (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
時間セグメントに音声符号化技術を選択的に適用する音
声情報符号化方法および装置を提供する。 【構成】 複数(N)個の信号セグメントからなる音声
情報信号は、第1音声符号器により符号化することによ
り、N個の信号セグメントのそれぞれについて第1符号
化表現を供給する。N個の信号セグメントの1個以上の
それぞれについて、第1音声符号器により符号化されな
い音声情報を表わす第2音声情報信号が決定される。第
1音声符号器によるN個の第1音声情報信号セグメント
に加えて、M(1≦M≦N−1)個の第2音声情報信号
が第2音声符号器により符号化される。M個の第2音声
情報信号の選択的符号化は、符号化基準に応答して行わ
れる。第2音声符号器の選択的使用により、音声情報を
表現するのに必要なビットの数は削減される。より良い
性能が、ビット伝達速度の増大なしに、得られる。
Description
置に関し、特に、音声圧縮のための音声情報符号化方法
および装置に関する。
はデータ通信網(以下、通信路という)による伝送のた
め音声信号の符号化が含まれることが多い。音声符号化
システムには、通信路による伝送のため、音声信号をコ
ードワードに変換する符号化過程と受信されたコードワ
ードから音声を再構成する復号過程とが含まれる。これ
らの符号化過程と復号過程とは、帯域幅限定通信路によ
る音声信号通信に有用なデータ圧縮およびデータ伸張を
生じる。
ば、当業者に公知の符号励振線形予測(CELP)音声
符号化法)によれば、符号化のための音声信号は、ま
ず、サブフレームと名付けられ、固定持続時間を有する
時間区分に分割される。各サブフレームは、その持続時
間が代表的な場合、2.5〜7.5ミリ秒である。各サ
ブフレームの音声情報の大部分は、該サブフレーム内の
音声信号を特徴づけるパラメタ集合として符号化され
る。幾つか(通常、4個または6個)の隣接した符号化
サブフレームは、フレームと名付けられた群として集め
られる。これらの符号化音声フレームは、通信路を介し
て受信装置に伝えられる。受信装置は、例えば、受信し
たフレーム情報から音声を合成しうる。
帯が緊張し、準周期的に振動している時に発生する原音
声(例えば、有声音)の忠実な再生を行うことである。
時間域においては、有声音信号は、通常、ピッチサイク
ルと名付けられた、類似するがゆっくりと放出される連
続波形として現われる。ピッチサイクル波形は、全体と
して、一連の小振幅振動によって囲まれた主遷移を特徴
とする。これらピッチサイクル波形の一つは、ピッチ周
期と名付けられた持続時間を有する。
サブフレーム基準で動作する音声符号化システムは、サ
ブフレーム内の信号の広範囲に異なる特徴を正確に表現
することを目標とする。音声信号のこれらの特徴が音声
符号化システムによってどのように処理されるかは、シ
ステム性能に影響する。
ッチサイクル波形のような音声情報信号からなる時間区
分に音声符号化技術を選択的に適用する音声情報符号化
方法と装置とを提供することである。
分からなる音声情報信号が第1音声符号器により符号化
され、上記N個の信号区分のそれぞれについて、第1符
号化表現を生じる。第1音声符号器により符号化されな
い音声情報を表わす第2音声情報信号が上記N個の1個
以上のそれぞれについて決定される。第1音声符号器に
よるN個の第1音声情報信号区分の符号化に加えて、M
(ただし、1≦M≦N−1)個の第2音声情報信号の選
択的符号化は、符号化基準に応答して行われる。第2音
声符号器の選択的使用により、音声情報を表現するのに
必要なビットの数が削減されるが、ビット伝送速度を増
大させることなく、より高い性能を得ることができる。
第1音声符号器および第2音声符号器は、当業者に公知
のものであってもよい。
励振線形予測音声符号化システムが得られる。このよう
な改良符号励振線形予測システムは、持続時間が2.5
ミリ秒のサブフレームに備えるように適合される。これ
らのサブフレームは、上記時間区分として動作する。こ
れらの持続時間が与えられると、音声情報信号の多数の
サブフレームは、主遷移を含まない。実施例によれば、
第1音声符号器により、全サブフレームについて符号化
が行われる。主遷移のない、これらのサブフレームにつ
いて、上記符号化は、例えば、しきい値信号エネルギの
ような適用可能符号化基準を満たすのに必要なものとな
りうる。主遷移を含む上記時間区分について、上記適用
可能符号化基準を満たすのに、追加的符号化を採用して
もよい。この方法によれば、音声情報信号符号化が、必
要とされる符号化要件を満たすためにサブフレーム基準
で作られる。
号器による符号化のための第2音声情報信号の選択は、
符号化基準に基づく。本発明の第2実施例によれば、第
2音声情報信号の符号化は、第2音声情報信号の個々の
試結合の符号化と、符号化基準に基づく上記試結合の一
つの選択とからなる。
能ブロックからなるものとして示されている。これらの
機能ブロックが表現する機能は、限定されないが、ソフ
トウェアを実行しうるハードウェアを含めて、共有ハー
ドウェアまたは専用ハードウェアの使用により与えう
る。実施例は、例えば、AT&T DSP16またはD
SP32Cのようなデジタル信号プロセッサ(DSP)
型ハードウェア、および、後に詳述する動作を行うソフ
トウェアを含んでいてもよい。超大規模集積回路(VL
SI)型ハードウェアからなる実施例および混成(ハイ
ブリッド)デジタル信号プロセッ/超大規模集積回路型
実施例であってもよい。
測音声符号化法の改良版である。実施例は、符号励振線
形予測の改良に向けられているので、従来の符号励振線
形予測と変らない面については、詳述しない。従来の符
号励振線形予測、および、これと関連する話題について
検討するためには、譲渡された米国特許出願第07/7
82,686号を参照のこと。この米国特許出願の開示
内容および以下の記載を考慮すれば分かるように、当業
者には、本発明が、広く言えば、合成による分析符号化
システム、狭く言えば、符号励振線形予測符号器だけで
なく、他の種々の音声符号化システムに適用されうると
いうことは、明らかであろう。
択的使用に関する。第1音声符号器は、長期予測器(L
TP)(単独で、または、線形予測フィルタ(LPF)
と組合せて)からなる。第2音声符号器は、固定確率的
コードブック(FSCB)と探索機構とからなる。従来
の符号励振線形予測の場合と同様に、実施例において
は、音声情報信号のサブフレームを符号化する。これら
のサブフレームは、符号化された音声情報フレームとし
て、従来の方法で一緒にパッケージとされ、受信装置に
送給される。各フレームは、その持続時間が20ミリ秒
であり、8個の2.5ミリ秒音声情報サブフレームから
なる。
する。他のタイプの音声信号(沈黙および無声音)の符
号化法は、当業者に公知の従来符号化技術により与えら
れてもよい。このような符号化技術と本発明の実施例と
の切換えは、当業者に公知の従来技術により行なわれう
る。例えば、米国特許証第5,007,093号を参照
のこと。本発明の説明を分かり易くするため、これら周
知技術については、これ以上述べない。本発明の実施例
に使用される通信路は、例えば、電気通信網(例えば、
電話網または無線リンク、または、記憶媒体(例えば、
半導体メモリ、磁気ディスク、またはテープメモリ)、
または、CD−ROMであってもよい(通信網とおよび
記憶媒体との組合せが提供されてもよい)。本明細書内
では、受信装置は、通信路を通して、符号化された音声
信号を受信する装置である。したがって、例えば、受信
器は、CD−ROM読取り器、ディスクもしくはテープ
駆動装置、セルラー電話または従来電話、無線受信器等
からなる。したがって、通信路を介しての信号通信は、
例えば、通信網または通信リンクを通じての信号伝送、
記憶媒体内の信号蓄積、または、これら両方からなる。
れているように、標本化された音声情報信号s(i)
(iは、標本指標である)は、線形予測フィルタ20と
線形予測分析器(LPA)10とは、例えば、従来のア
ナログ音声信号アナログ/デジタル変換によって供給し
てもよい。線形予測分析器10は、信号s(i)に基づ
いて、当業者に周知の従来方法で線形予測係数を算出す
る。線形予測係数は、従来の符号励振線形予測の場合と
同様に、線形予測分析器10によって、フレーム境界に
おいて有効であるように、決定され量子化される。係数
ar(フレーム境界内のサブフレームの中央において有
効である)は、線形予測分析器10によって量子化され
たフレーム境界係数データの従来補間法により決定され
る。係数ar(サブフレームの中央において有効であ
る)は、緩衝装置27と線形予測フィルタ20とに出力
される。フレーム境界において有効な係数arFも通信
路インターフェース55に出力される。サブフレームの
中央において有効なarの値は、線形予測フィルタ20
によって、および緩衝装置27を介して、長期予測器3
0、固定確率的コードブック探索器40によって、従来
方法で使用される。
は、線形予測分析器10によって供給された係数に基づ
いて、線形予測フィルタ20によって、従来方法で形成
される。線形予測フィルタ20入力信号s(i)の逐次的
標本を以下の通り、濾波することにより、一時に1個の
サブフレーム(すなわち、20個の標本)を得るように
して、信号χ(i)の2個のサブフレームは、線形予測フ
ィルタ20によって供給される。
中央において有効である。Rは、通常、約10個の標本
(8kHzの標本化率に対して)であるから、信号χ
(i)は、最初の信号s(i)の長期予測性を保持する。後述
する長期予測器30は、上記冗長性を除去するために設
けられている。
ィルタ20から出力され、サブフレームの分析器25と
緩衝装置29とに供給される。分析器25と緩衝装置2
9とは、それぞれ線形予測フィルタ20によって供給さ
れる情報信号χ(i)のサブフレーム対を蓄積する。本発
明によれば、分析器25は、該分析器25が蓄積した各
サブフレーム対について、第1音声符号器(すなわち、
長期予測器30)のみを使用して、いずれのサブフレー
ムを符号化すべきかを決定し、第1音声符号器と第2音
声符号器(すなわち、長期予測器30および固定確率的
コードブックシステム40,45)との両方を使用し
て、いずれのサブフレームを符号化すべきかを決定す
る。この決定は、サブフレーム対の各サブフレームの音
声情報信号エネルギに基づく。第1音声符号器と第2音
声符号器との両方を使用する符号化のため、高い信号エ
ネルギを示すサブフレームが分析器25により選択され
る。他のサブフレーム(低い信号エネルギを示すもの)
は、第2音声符号器でなく、第1音声符号器の使用によ
り符号化される。サブフレームのエネルギは、分析器2
5により従来方法で決定される。
である(例えば、L=20個)。
フレームのいずれかを符号化する前に、サブフレーム対
の各サブフレームについて、分析器25により決定され
る。サブフレームエネルギの決定がなされたときは、つ
いで、当該サブフレーム対の全サブフレームが符号化さ
れうる。上述した通り、実施例による符号化のために、
これらサブフレームのコピーが緩衝装置29に蓄積され
る。緩衝処理された、これらのサブフレームを符号化す
るのに必要であり、分析器10から出力された線形予測
係数は、緩衝装置27に蓄積される。
遅れを加えない。これは、線形予測係数と、濾波された
音声情報とを決定するために、分析器および通常型線形
予測分析器および通常型線形予測フィルタ(たとえば、
線形予測分析器10および線形予測フィルタ20)がそ
れ自身で音声情報信号値を収集し蓄積しなければならな
いからである。線形予測分析の一の従来形式によれば、
線形予測分析器10は、線形予測係数が算出されるフレ
ーム境界の各側において、音声情報信号標本フレームの
1/2を蓄積する。したがって、与えられたフレームの
第1サブフレームの中央において有効な線形予測係数を
決定する前に、従来型線形予測分析器10は、(1+1
/2)フレームの遅れを追加する。上記線形予測係数の
算出のために、音声情報信号の標本(例えば、全個のサ
ブフレーム)が蓄積されなければならないので、緩衝装
置27内のサブフレームの蓄積は、標本化遅れなしに生
じうる情報のブロック転送として実施されうる。したが
って、いずれの遅れも緩衝装置27内の見掛け蓄積によ
って追加される必要がない。
より音声符号器に供給される)を発生することにより、
緩衝装置29に蓄積された1対のサブフレームの符号化
を制御する。許可信号εが適切に表明されると、緩衝処
理されたサブフレーム対のサブフレームは、第1音声符
号器(長期予測器30)の適用により、一時に1個づつ
符号化される。
励振線形予測適応コードブックと利得λ(i)と遅れd(i)
(iという指標を有するが、d(i)およびλ(i)の値は、
サブフレーム内では全標本に対して一定である)とを決
定する探索機構とからなる。長期予測器30は、許可信
号εが00以外の値を引受けるとき、動作が許可される
(許可信号εについての後述の議論参照)。図1に示さ
れているように、符号化された各サブフレームについて
の遅れおよび利得の計算値は、長期予測器30によって
通信路インタフェース55に供給される。残余音声情報
信号γ(i)(実施例の第2音声情報信号)からなるサブ
フレームは、以下の様にして決定される。
ム内で合成された(または再構成された)音声情報信号
の標本である。数式(3)の実施を容易とするため、長
期予測器30は、量λ(i)×山記号付χ(i−d(i))を減算
回路35に供給する。信号γ(i)は、λ(i)×山記号付χ
(i−d(i))が減算回路35によって、χ(i)から減算され
た後に残る音声情報信号である。γ(i)は、第1音声符
号器により符号化されない音声情報を表わす、ついで、
信号γ(i)は、分析器25の制御を受けて、許可信号ε
により、固定確率的コードブック機構40により符号化
されうる。
率的コードブック探索機構40に供給されることによ
り、1対のサブフレームのうち、高いエネルギを含むよ
う決定されたサブフレームへの固定確率的コードブック
の適用を制御する。許可信号εは、2個のビットで実施
されてもよい。したがって、例えば、許可信号εを形成
するビットが01であるとき、固定確率的コードブック
システム40,45は、サブフレーム対の第1(または
先の)サブフレームを符号化する。許可信号εを形成す
るビットが10のときは、固定確率的コードブックシス
テム40,45は、サブフレーム対の第2サブフレーム
を符号化する(00に等しい許可信号εは、両方の符号
器について待機または遊び状態が音声情報信号の緩衝処
理から始まることを示す)。
10として)、固定確率的コードブック探索機構40
は、固定確率的コードブック45から出力されたベクト
ルと基準化係数μ(i)(組合わさって、符号化されるべ
きサブフレームと関連する信号γ(i)と極めて近似す
る)とを決定するように動作する。固定確率的コードブ
ック45と固定確率的コードブック探索機構40とは、
分析器25により行われる制御を除いて、当業者にとっ
て従来通りである。固定確率的コードブック探索機構4
0は、通信路インタフェース55への出力として、決定
された固定確率的コードブックベクトルを示す指標IFC
と、関連の基準化係数μ(i)とを供給する。分析器25
から出力された許可信号εが表明されなかった(すなわ
ち、εが00)ときは、固定確率的コードブック探索機
構40は、遊び状態のままである。
例によって処理される各サブフレーム対について1個の
ビットを通信路インターフェース55に供給する。この
ビット(サブフレーム選択ビットξと名付けられる)
は、固定確率的コードブック40に供給された許可信号
εの表明値を表わす。許可信号εが01のときは、サブ
フレーム選択ビットξは、0に設定される。許可信号ε
が10に設定されたときは、サブフレーム選択ビットξ
は、1に設定される。通信路インタフェース55が、各
符号化サブフレーム対のサブフレーム選択ビットξに、
サブフレームが両符号器によって符号化されており、お
よび、符号化されていない表示を供給するように要求す
る。
号化が完了すると、分析器25が次のサブフレーム対を
符号化する方法を決定するまで、符号化は、停止され
る。分析器25は、許可信号εを00に等しくすること
により、符号化を停止する。第1および第2音声符号器
は、表明された許可信号εに応答して動作し、ついで、
これがなされた時、許可信号εを検討する。許可信号ε
が00のときは、第1および第2音声符号器は、停止す
る。他の場合には、第1および第2音声符号器は、上述
した通り、次のサブフレーム対を符号化し続ける。
よび29が図1に示された実施例の他の構成要素と常時
共働する方法の理解を容易とするためのものである。図
2は、音声情報信号χ(i)の隣接した複数のフレームを
示す。これらのフレームは、エネルギ決定のため、分析
器25に供給される(信号χ(i)の実標本値は、分り易
くするため示されない)。図2に示されているように、
フレーム(F−1),Fおよび(F+1)のそれぞれ
は、aからhまで符号を付された8個のサブフレームか
らなる。各フレームは、160個の標本(すなわち、8
kHzの標本化率での20ミリ秒の音声情報)からなる
ので、符号を付されたサブフレームのそれぞれは、20
個の標本(すなわち、2.5ミリ秒の音声情報)からな
る。各フレーム内の逐次的サブフレーム対は、1から4
までの番号が付されている。
様に、信号s(i)が図1に示された線形予測分析器10
および線形予測フィルタ20に供給されていると仮定す
る。結果として、線形予測分析器10は、フレーム(F
−1)とフレームFとのフレーム境界において有効な線
形予測係数(すなわち、arF-1 )、および、フレーム
Fとフレーム(F+1)とフレーム境界において有効な
線形予測係数(すなわち、arF )を決定している。こ
れらの線形予測係数は、線形予測分析器10による従来
型補間において使用されることにより、上述したサブフ
レーム係数を生じる。これらのサブフレーム係数は、線
形予測フィルタ20によって従来方法で使用されること
により、信号s(i)のサブフレームを濾波する。
は、線形予測フィルタ20により濾波されることによ
り、フレームFにおいて、信号χ(i)の最初のサブフレ
ーム対のサブフレームaおよびb(すなわち、フレーム
F、サブフレーム対1)を生じる。分析器25と緩衝装
置29とは、フレームFのサブフレームaおよびbを受
信し蓄積する。分析器25により供給された許可信号ビ
ットは、00(符号化システムの遊び状態を表わす)に
設定される。分析器25は、サブフレームaおよびbの
うちいずれが上述した高いエネルギを含むかを決定す
る。この決定に応答して、分析器25は、第1および第
2音声符号器によるサブフレームaおよびbの符号化を
制御する。この制御過程の一部として、分析器25は、
許可信号ε(2個のサブフレームのうちいずれが両音声
符号器により符号化されるべきかを示す)を供給する。
述の通り生じる。これにより、分析器25は、許可信号
εを00にリセットする。分析器25と緩衝装置29と
は、次の隣接したサブフレーム対(フレームF、サブフ
レーム対2であって、サブフレームa及びbからなる)
を蓄積し続ける。この決定に応答する、サブフレームc
及びdの符号化の制御は、その後、分析器25により行
われる。
号器の制御は、音声情報信号の各逐次サブフレーム対に
ついて繰り返される。したがって、例えば、サブフレー
ムcおよびdの符号化後、図1に示された実施例は、フ
レームFのサブフレームeおよびf(すなわち、サブフ
レーム対3)およびサブフレームgおよびh(すなわ
ち、サブフレーム対4)を符号化し続ける。第2音声符
号器による各逐次サブフレーム対の1個のサブフレーム
のみの符号化の結果として、第2音声符号器は、フレー
ムFの全8個のサブフレームのうち4個のみを符号化す
るのに使用された。この点において、線形予測分析器1
0は、追加的フレーム境界線形予測係数(例えば、フレ
ーム(F+1)の右側境界において有効な係数ar
F+1 )を算出する。全過程は、符号化される信号サブフ
レームが存在する限り、一のフレームから次のフレーム
へ繰返される。
化する全過程において、各符号化音声情報を表わす情報
は、通信路56を通じて受信装置に伝送するために、通
信路インタフェース55により収集される。受信装置
は、音声の再構成のため、この情報を使用する。この情
報は、長期予測器パラメタλ(i)及びd(i)と、固定確率
的コードブック指標IFCと、(高いエネルギを有する適
切なサブフレームの)基準化係数μ(i)と、線形予測係
数ar(符号化フレーム(例えば、arF )と関連する
2個のフレーム境界の後の方において有効)とからな
る。この情報は、さらに、サブフレーム選択ビットξ集
合(各逐次符号化サブフレーム対において、いずれのサ
ブフレームが両音声符号器により符号化されているかを
表示する)からなる。通信路インターフェース55は、
フレームの符号化中に受信した全情報を緩衝し、緩衝処
理された情報を通信路56を通じての通信に適した書式
に割当てる(すなわち、組み立てる)。
り組立てられた符号化音声情報フレームの一の書式を示
す。この書式は、音声フレームを再構成するのに、受信
装置により必要とされる種々の量で分割された158個
のビットからなる。これらの量には、フレームの全8個
のサブフレームについての長期予測器30情報(すなわ
ち、遅れ、および、利得)、および、全8個のサブフレ
ームのうち4個についての固定確率的コードブックシス
テム40,45情報(すなわち、コードブックの指標お
よび利得)が含まれる。
ar(1≦r≦10)は、30ビットの欄によって表現
される。これらの30ビットは、当業者に周知の従来方
法で係数を表現するのに使用される。また、符号化フレ
ームの全8個のサブフレームのそれぞれについての長期
予測器遅れおよび利得も表現される。サブフレームの各
長期予測器遅れd(i)は、7ビットの欄によって表現さ
れる。サブフレームの各長期予測器利得λ(i)は、4ビ
ットの欄によって表現される。したがって、全88ビッ
ト(すなわち、8個のサブフレームx(7ビット+4ビ
ット))が第1音声符号器(長期予測器30)によって
供給される符号化音声情報を表現するのに使用される。
他の方法として、4番目のサブフレーム遅れ、または、
5番目のサブフレーム遅れが7ビットで符号化されても
よい。また、他の7個のサブフレーム遅れは、サブフレ
ーム差分遅れ値毎に2ビットを使用して、差分符号化さ
れてもよい。この通常方法は、全35ビットを節約し、
フレームを符号化するのに必要なビットの数を158か
ら123に減らす。
化する(差分または他の方法にかかわらず)他の方法と
して、本発明は、米国特許出願第07/782,686
号に開示された一般的合成分析方法と組合わされてもよ
い。本発明と上記米国特許出願との組合せにより、遅れ
情報は、各符号化フレームについて1回しか送る必要が
ない。このように、全フレームの遅れを表現するのに、
例えば、7個のビットしか使用する必要がない。米国特
許出願第07/782,686号の技術を本発明の技術
と組合せるために、サブフレーム分析は、本発明の第1
実施例に従って行われる。一方、米国特許出願第07/
782,686号の図3および図5に示された複数の実
施例は、それぞれ、信号χ(i)およびパラメタMおよび
anが緩衝処理されてもよい。また、米国特許出願第0
7/782,686号の図3および図5に示された実施
例は、それぞれ、本発明の第2実施例に従う符号化サブ
システムとして使用されてもよい(下記参照)。
ブフレーム対のそれぞれについて、サブフレーム選択ビ
ットξを含む4ビットサブフレーム選択欄を示す。これ
ら4個のビットのそれぞれは、4個のサブフレーム対の
一つを表現する。上述の通り、0となる選択ビットは、
サブフレーム対の2個のサブフレームの第1のもの(す
なわち、先の方)が両音声符号器の使用により符号化さ
れていることを示す。他方、1となる選択ビットは、上
記2個のサブフレームの第2のもの(すなわち、後の
方)がそのように符号化されていることを示す。
のビットの後で、通信路書式は、固定確率的コードブッ
クシステム40,45の情報表現用の欄を含む。この欄
の全ビットは、サブフレーム選択ビット欄により特定さ
れた4個のサブフレーム間に分割される。このように特
定された各サブフレームについて、固定確率的コードブ
ック指標IFC(6ビット)および固定確率的コードブッ
ク基準化係数μ(i)(3ビット)が送られる。したがっ
て、欄は、36ビット(4個のサブフレーム×(3ビッ
ト+6ビット))からなる。
ムは、通信路56を通じて受信装置に送られる。受信装
置は、符号化音声情報フレームから音声情報フレームを
再構成し、または、合成する。本発明にかかる、音声情
報合成用受信装置の実施例が図4に示されている。
述した符号化過程の逆を行う。通信路インターフェース
55により伝送された符号化音声情報の逐次フレーム
は、受信装置通信路インターフェース58により受信さ
れる。受信装置通信路インターフェース58は、受信し
た符号化フレーム書式のビットをアンパックし、受信装
置の他の部材に適切な情報と信号とを供給する。
フェース58により受信されており、該符号化音声情報
フレームが図2に示されたフレームFを表現すると仮定
する。この符号化音声情報フレームの受信に応答して、
通信路インターフェースは、受信された符号化音声情報
フレームから線形予測係数arF を抽出する。これらの
線形予測係数arF は、最新のフレーム境界(すなわ
ち、フレームFの終端に存在するフレーム境界)におい
て有効である。これらの線形予測係数は、先のフレーム
境界(フレーム(F−1)の終端に存在するフレーム境
界)において有効であり、先に受信され蓄積された線形
予測係数arF-1 集合と一緒に使用されることにより、
フレームF内の各音声サブフレームの中央において有効
な係数集合を供給する。これらの係数集合に、当業者に
周知の従来型線形予測係数補間が行われる。すなわち、
通信路インターフェース58により受信された線形予測
係数arF 集合は、後の補間過程での使用のため、緩衝
処理される。上記後の補間過程は、次の符号化音声情報
フレーム(F+1)の受信に応答して行われる。緩衝補
間過程は、通信路インターフェース58により受信され
た各符号化音声フレームについて繰返される。
化音声サブフレームを合成し続ける。通信路インターフ
ェース58は、受信フレームからフレームFの符号化サ
ブフレームaおよびbからなる第1サブフレーム対と関
連するサブフレーム選択ビットξを抽出する。通信路イ
ンターフェース58は、第1音声情報サブフレーム(す
なわち、フレームFのサブフレームa)の合成に固定確
率的コードブック70の適用が必要であるか否かを決定
するために、サブフレーム選択ビットξを審査する。必
要であれば、通信路インターフェース58は、論理的真
のサブフレーム選択制御信号γを受信装置のスイッチ6
0および80に供給する。真として表明されたγによ
り、スイッチ60,80は、サブフレームaの合成過程
に固定確率的コードブック70を効果的に組込む閉じた
状態となる。固定確率的コードブック70の適用がサブ
フレームaについて必要とされないときは、通信路イン
ターフェース58は、論理的偽γをスイッチ60および
80に供給し、スイッチ60および80を開く。これに
より、固定確率的コードブック70は、合成過程から効
果的に分離される。
後、通信路インターフェース58は、固定コードブック
指標IFC(固定確率的コードブックシステム40,45
の使用により符号化されている第1サブフレーム対のサ
ブフレームと関連する)を抽出し、スイッチ60に出力
してもよい。また、通信路インターフェース58は、該
サブフレームに対して、固定確率的コードブック利得μ
(i)を抽出し、乗算回路75に供給してもよい。
れた第1サブフレーム対のサブフレームと仮定すれば、
信号γは、真であり、スイッチ60および80は、閉じ
ることになる。供給された指標IFCおよび利得μ(i)
は、固定確率的コードブック70および乗算器80のそ
れぞれにより使用されることにより、従来通り、合成さ
れた励振信号e(i)を生じる。この励振信号e(i) は、
サブフレームaの合成音声情報信号への固定確率的コー
ドブックシステム70,75の寄与である。励振信号e
(i) は、当該サブフレームの合成音声情報信号への適応
コードブックを増大するため、合計回路100に供給さ
れる。
コードブック遅れ・利得情報d(i)およびλ(i)(符号化
音声サブフレームaと関連する)のそれぞれに基づいて
供給される。適応コードブックは、従来方法で決定され
る。遅れd(i)は、先の合成音声情報フレームを特定
し、利得λ(i)は、乗数として動作する。
ターフェース58により供給された線形予測係数に基づ
いて逆線形予測フィルタ110により完成される。これ
らの係数は、サブフレームaの中央において有効であ
る。
両音声符号器の使用により符号化されたので、サブフレ
ームbは、固定確率的コードブックシステム40,45
なしで符号化されたことになる。したがって、サブフレ
ームbの音声合成を進めるために、通信路インターフェ
ース58は、論理的偽のサブフレーム選択制御信号γを
スイッチ60および80に出力しなければならない。こ
うすることにより、通信路インターフェース58は、固
定確率的コードブックシステム70,75をして、この
サブフレームの音声合成のため何の役割も果させない。
したがって、サブフレームbに関連した音声は、逆線形
予測フィルタ110と一緒に、適応コードブック90お
よび利得乗算回路95を使用することにより合成され
る。スイッチ80が開かれている結果として、励振信号
e(i) は、0である。
レームaおよびbと同一方法で取扱われる。他のサブフ
レーム対が違った方法で符号化されえた(すなわち、2
個のサブフレームの第1のものは、固定確率的コードブ
ックシステム40,45なしで符号化される)ことは、
当然である。このような状況では、サブフレームaおよ
びbについて上述された手続は、逆となる。
第1実施例と同様に、本実施例は、図3に示されたチャ
ネルフォーマットを採用し、図4に示された受信装置と
通信しうる。しかし、第1実施例と異なり、本実施例
は、符号化過程前に、サブフレーム対のうちいずれのサ
ブフレームが一の音声符号器の使用により符号化され、
いずれのサブフレームが両音声符号器の使用により符号
化されるかを決定することは、しない。むしろ、与えら
れたサブフレーム対に対して、本実施例は、以下の符号
化された選択肢を与える。すなわち、(i)サブフレー
ム対の第1サブフレームは、両音声符号器により符号化
されるが、第2サブフレームは、第2音声符号器なしに
符号化される第1選択肢、および、(ii)第1サブフレ
ームは、第2音声符号器なしに符号化されるが、第2サ
ブフレームは、両音声符号器により符号化される第2選
択肢である。これにより、第2実施例は、符号化誤差が
小くなる選択肢を選択する。これにより、選択された選
択肢のパラメタ(すなわち、符号化表現)は、受信装置
へ送るため、通信路インターフェースに供給される。
ルタ20および線形予測分析器10は、標本化された音
声情報信号s(i)を受信する。線形予測分析器10およ
び線形予測フィルタ20は、第1実施例に関して上述さ
れたのと同一の素子である。第1実施例の場合と同様
に、信号s(i)に基づいて、フレーム境界において有効
な線形予測係数arF を算出する。フレーム境界内のサ
ブフレームの中央において有効な線形予測係数arの値
は、線形予測分析器10により、フレーム境界係数の従
来型補間により決定される。サブフレームの中央で有効
な係数arは、線形予測フィルタ20、逆線形予測フィ
ルタ120(逆線形予測フィルタ120は、符号化され
た選択肢の選択に関連して後述される)、長期予測器3
0、および、固定確率的コードブック探索機構40に出
力される。フレーム境界において有効な係数arF も、
セレクタ130に出力される。音声情報信号χ(i)のサ
ブフレームは、第1実施例について上述した通り、線形
予測フィルタ20により、従来通りの方法で形成され
る。
フレーム対に作用する。この場合、χ(i)の各サブフレ
ーム対は、線形予測フィルタ20により、2個の符号化
サブフレーム115,116に相互に平行に供給され
る。
類似した方法で、サブフレーム対のサブフレームを符号
化するように動作する。図6に示されているように、サ
ブシステム115,116は、同一型の符号器(適応コ
ードブック長期予測器30,32および固定確率的コー
ドブックシステム40,45)からなる。上記サブシス
テム115,116間の相違は、符号器が与えられたサ
ブフレーム対のサブフレームに適用される方法に関係す
る。サブシステム115は、両符号器を使用することに
より、サブフレーム対の第1サブフレームを符号化し、
第2サブフレームを第2符号器なしで符号化する。サブ
システム116は、第2符号器なしで同一サブフレーム
対の第1サブフレームを符号化し、符号器で第2サブフ
レームを符号化する。サブシステム115,116の第
2符号器によるサブフレーム符号化の制御は、固定確率
的コードブック制御器37,38(サブフレーム対内の
適切なサブフレームがサブシステム115,116につ
いて常に符号化されるようにεを設定する)により個別
に行われる。
は、一のサブフレームが選択されなければならない、与
えられたサブフレーム対の他の符号化表現を供給する。
これらの択一的表現は、サブシステム115,116に
より、長期予測器遅れ・利得情報d(i)およびλ(i)とし
て、また、固定確率的コードブックシステム指標・利得
情報IFCおよびμ(i)として、それぞれ、セレクタ13
0に供給される。サブフレーム対の2個の符号化表現間
の選択は、各表現によりもたらされる符号化誤差の量に
基づく。各表現によりもたらされる符号化誤差は、逆線
形予測フィルタ120および減算回路125と共働し
て、セレクタ130により評価される。
システム115,116は、推定音声情報信号(山記号
付χ(i))(受信装置がサブシステムによる、原音声情
報信号χ(i)の符号化表現を受信することになっていた
ならば、受信装置により合成されるはずである音声情報
信号に等しい)を出力する。したがって、各サブシステ
ム115,116から出力された推定音声情報(山記号
付χ(i))は、符号化表現によりもたらされた誤差の大
きさを決定するため、原音声情報信号χ(i)と比較して
もよい。
ついて、聴覚重み付き原音声情報信号χ(i)と、各符号
化サブシステムから出力された聴覚重み付き推定音声情
報(山記号付χ(i))との差δを生成することにより、
与えられる。聴覚重み付けは、以下の数式に従って動作
する逆線形予測フィルタ120により行われる。
レームの中央において有効であり、γは、聴覚重み付け
係数(説明のため、0.8に設定される)である。差信
号δ(i)は、減算回路125により生成され、サブフレ
ーム対全体に亘る符号化誤差を表わす。
30に供給される。セレクタ130は、誤差信号エネル
ギを決定するため、上記差信号を二乗してδ(i)2 を生
じる。これらの誤差信号エネルギは、いずれが低いかを
決定するため比較される。低い方の誤差(低い方の誤差
信号エネルギδ(i)2 によって表現される)をもたらす
責務を負う符号化サブシステムは、サブフレーム対の符
号化表現を出力するように選択された符号化サブシステ
ムである。
6は、サブフレーム対の符号化表現をセレクタ130に
供給する。セレクタ130は、いずれのサブシステム1
15,116が、その符号化表現によって、小さい方の
誤差をもたらすかを決定すると、上記表現を通信路イン
ターフェース55に供給する。通信路インターフェース
55は、第1実施例に関して上述したのと同一のもので
ある。通信路インターフェース55は、図3に関連して
上述した方法で受信装置への伝送のための書式にビット
をパックする。
レクタ130は、線形予測係数arF およびサブフレー
ム選択ビットξを通信路インターフェース55に供給す
る。線形予測係数arF は、第1実施例に関連して上述
したのと同一のものである。これらの係数は、当該符号
化サブフレームを含むフレームの終端において有効であ
る。サブフレーム選択ビットξは、第1実施例に関連し
て上述したものとして定義される。ビットの値は、セレ
クタ130により選択されたサブシステム115,11
6のいずれかに基づいて決定される。サブフレーム対の
符号化表現に与えるように、サブシステム115が選択
されたとき(すなわち、サブフレーム対の第1サブフレ
ームがサブシステム115の両符号器により符号化され
たとき)は、サブフレーム選択ビットξは、0に設定さ
れる。サブフレーム対の符号化表現に与えるように、サ
ブシステム116が選択されたとき(すなわち、サブフ
レーム対の第1サブフレームがサブシステム116の両
符号器により符号化されたとき)は、サブフレーム選択
ビットξは、1に設定される。
号化表現が選択された後であって、音声情報フレーム内
の次のサブフレーム対の符号化前に、セレクタ130
は、本実施例の或る一定のメモリの内容を更新する。セ
レクタ130は、更新信号υをサブシステム115,1
16の適応コードブック32、長期予測器30、および
固定確率的コードブック探索機構40に供給することに
より、上記更新を行う。
より出力された推定音声情報信号(山記号付χ(i))に
聴覚重み付けを行う逆線形予測フィルタ120に供給さ
れる。更新信号υにより、適応コードブック32の内容
m1 (選択された表現を与えたサブフレームと関連す
る)は、他のサブシステム116,115の適応コード
ブック32の内容に上書きされる。
と関連する長期予測器30,固定確率的コードブック探
索機構40、および、線形予測フィルタ-1120の信号
メモリ(それぞれ、m2 ,m3 およびm4 )は、他の長
期予測器30,固定確率的コードブック探索機構40お
よび逆線形予測フィルタ120の信号メモリに上書きさ
れる(線形フィルタが入力信号および出力信号のいずれ
か一方、または、両方の重み付き過去値を合計すること
により動作する)。この過程によって上書きされるの
は、上記過去値を保持するメモリ(信号メモリ)であ
る。サブシステム115,116の従来型長期予測器3
0および固定確率的コードブック探索機構40もコード
ブックベクトル誤差を評価するのに使用される逆線形予
測フィルタフィルタを含む(米国特許出願第07/78
2,686号参照)。
選択信号ξと同一値をとる。このようにすれば、システ
ムのメモリは、更新信号υの受信に応答して、正しいメ
モリ更新を行うのに必要な情報(m1 ,m2 ,m3 およ
びm4 )を有する。この更新過程の完了後、音声情報信
号フレーム内の次のサブフレーム対の符号化が生じう
る。
しうる。例えば、第1音声符号器および第2音声符号器
を含み、これら符号器の一方または両方を使用して音声
情報信号セグメントを符号化する実施例も可能である。
これらのセグメントがこの実施例により符号化されるた
めのN個の信号セグメントのときは、第1音声符号器
は、上記セグメントのL個の符号化に適用され、第2音
声符号器は、上記セグメントのL個の符号化に適用され
る(ただし、L+M≧N+1)。この実施例によれば、
N個のセグメントのそれぞれは、2個の符号器のうち少
なくとも1個の使用により符号化される。
ような音声情報信号からなる時間区分に音声符号化技術
を選択的に適用する音声情報符号化方法と装置とが得ら
れる。第2音声符号器の選択的使用により、音声情報を
表現するのに必要とされるビットの数が削減される。ま
たは、ビット伝達速度を増大させることなく、より良い
性能が得られる。
る。
を示す模式図である。
例を示す模式図である。
置の一例を示すブロック線図である。
る。
固定コードブックを備えた音声符号化システムのブロッ
ク線図である。
Claims (22)
- 【請求項1】 N(複数)個の信号セグメントからなる
音声情報信号を符号化する方法において、 上記N個の信号セグメントを第1音声符号器により符号
化することにより、上記N個の信号セグメントのそれぞ
れについて第1符号化表現を供給するステップと、 上記N個の信号セグメントの1個以上のそれぞれについ
て、第1音声符号器により符号化されない音声情報を表
わす第2音声情報信号を形成するステップと、 符号化基準に応答して、M(ただし、1≦M≦N−1)
個の第2音声情報信号を第2音声符号器により符号化す
るステップとからなることを特徴とする音声情報符号化
方法。 - 【請求項2】 上記第2音声情報信号は、信号セグメン
トと上記第1音声符号器により供給された、信号セグメ
ントの量子化表現との差を表わす残余音声情報信号から
なることを特徴とする請求項1記載の方法。 - 【請求項3】 上記M個の第2音声情報信号の上記符号
化ステップは、上記符号化基準に応答する追加的符号化
のために、上記M個の第2音声情報信号の1個以上を選
択するステップを含むことを特徴とする請求項1記載の
方法。 - 【請求項4】 上記M個の第2音声情報信号の1個以上
を選択する上記ステップは、上記第1音声情報信号のN
個の信号セグメントのそれぞれについて、パラメタの数
値を求めるステップを含むことを特徴とする請求項3記
載の方法。 - 【請求項5】 第2音声情報信号は、追加的符号化のた
めに、パラメタに対応する信号セグメントの該パラメタ
と上記符号化基準との比較に応答して、選択されること
を特徴とする請求項4記載の方法。 - 【請求項6】 上記パラメタは、信号エネルギからなる
ことを特徴とする請求項5記載の方法。 - 【請求項7】 上記方法は、後の信号セグメントの符号
化において、上記第1音声符号器によって使用するため
に各信号セグメントについて合成音声信号を形成するス
テップを含むことを特徴とする請求項1記載の方法。 - 【請求項8】 N個の信号セグメントを第1音声符号器
により符号化する上記ステップは、 符号化されるべき信号セグメントに基づいて、複数個の
修正信号セグメントを生成するステップと、 修正信号セグメントを符号化することにより該修正信号
セグメントの符号化表現を生成するステップと、 修正信号セグメントの符号化表現に基づいて、修正信号
セグメントの推定値を合成するステップと、 符号化されるべき上記信号セグメントと上記修正信号セ
グメント合成推定値との誤差を決定するステップと、 誤差評価方法に基づいて、符号化されるべき上記信号セ
グメントの第1符号化表現として、上記修正信号セグメ
ントの符号化表現を選択するステップとからなることを
特徴とする請求項1記載の方法。 - 【請求項9】 信号セグメント集合は、上記第1と第2
音声符号器の使用により複数回符号化されることによ
り、上記信号セグメント集合の複数個の修正符号化表現
を形成し、 修正符号化表現は、上記符号化基準に応答して、上記信
号セグメント集合の符号化表現として選択されることを
特徴とする請求項1記載の方法。 - 【請求項10】 音声情報信号のセグメントを符号化す
る方法において、 信号セグメント集合の複数個の試符号化表現を形成する
ステップであって、各試符号化表現は、第1音声符号器
の使用により上記信号セグメント集合の各信号セグメン
トを符号化することにより、形成されるステップと、 第2音声符号器の使用により上記信号セグメント集合の
全信号セグメントより少ない個数の信号セグメントを符
号化するステップと、 符号化基準に基づいて、上記信号セグメント集合の符号
化表現として、試符号化表現を選択する選択ステップと
からなることを特徴とする音声情報符号化方法。 - 【請求項11】 上記選択ステップは、試符号化表現の
パラメタを決定するステップを含むことを特徴とする請
求項10記載の方法。 - 【請求項12】 上記選択ステップは、さらに、上記試
符号化表現の上記複数個のパラメタを比較するステップ
と、上記符号化基準に基づいて、試符号化表現を選択す
るステップとを含むことを特徴とする請求項11記載の
方法。 - 【請求項13】 上記第1音声符号器の使用により各信
号セグメントを符号化する上記ステップは、 符号化されるべき信号に基づいて、複数個の修正信号セ
グメントを生成するステップと、 修正信号セグメントを符号化することにより、該修正信
号セグメントの符号化表現を生成するステップと、 上記修正信号セグメントの符号化表現に基づいて、上記
修正信号セグメントの推定値を合成するステップと、 符号化されるべき上記修正信号セグメントと上記修正信
号セグメント合推定値との誤差を決定するステップと、 誤差評価方法に基づいて、符号化されるべき上記信号セ
グメントの符号化表現として、関連する誤差を有する、
上記修正信号セグメントの符号化表現を選択するステッ
プとからなることを特徴とする請求項10記載の方法。 - 【請求項14】 N(複数)個の信号セグメントからな
る音声情報信号を符号化する装置において、 上記N個の信号セグメントを符号化することにより、上
記N個の信号セグメントのそれぞれについて第1符号化
表現を供給する第1音声符号器と、 上記N個の信号セグメントの1個以上のそれぞれについ
て、第1音声符号器により符号化されない音声情報を表
わす第2音声情報信号を形成する手段と、 符号
化基準に応答して、M(ただし、1≦M≦N−1)個の
第2音声情報信号を符号化する第2音声符号器とからな
ることを特徴とする音声情報符号化装置。 - 【請求項15】 上記第2音声情報信号は、信号セグメ
ントと、上記第1音声符号器により供給された信号セグ
メントの量子化表現との差を表わす残余音声情報信号か
らなることを特徴とする請求項14記載の装置。 - 【請求項16】 上記装置は、さらに、上記符号化基準
に応答して、追加的符号化のために、上記M個の第2音
声情報信号の1個以上を選択する分析器を含むことを特
徴とする請求項14記載の装置。 - 【請求項17】 上記第1音声情報信号は、線形予測フ
ィルタにより供給されることを特徴とする請求項14記
載の装置。 - 【請求項18】 上記第1音声符号器は、適応コードブ
ックベクトル量子化器を含むことを特徴とする請求項1
4記載の装置。 - 【請求項19】 上記第1音声符号器は、さらに、線形
予測フィルタを含むことを特徴とする請求項18記載の
装置。 - 【請求項20】 上記第2音声符号器は、固定コードブ
ックを含むことを特徴とする請求項14記載の装置。 - 【請求項21】 音声情報信号のセグメントを符号化す
る装置において、該装置は、 信号セグメント集合の複数個の試符号化表現を形成する
形成手段からなり、 上記形成手段は、 上記信号セグメント集合の各信号セグメントの符号化に
使用される第1音声符号器と、 上記信号セグメント集合の全信号セグメントより少ない
個数の信号セグメントの符号化に使用される第2音声符
号器と、 符号化基準に基づいて、上記信号セグメント集合の符号
化表現として、試符号化表現を選択する手段とからなる
ことを特徴とする音声情報符号化装置。 - 【請求項22】 少なくとも2個の音声符号器の使用に
よりN(複数)個の信号セグメントからなる音声情報信
号を符号化する、方法において、 第1音声符号器の使用により上記N個の信号セグメント
のうちL個を符号化するステップと、 第2音声符号器の使用により上記N個の信号セグメント
のうちM個を符号化するステップとからなり、 L+M≧N+1であり、上記N個の信号セグメントのそ
れぞれは、上記2個の音声符号器のうち少なくとも1個
により符号化されることを特徴とする音声情報符号化方
法。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US911850 | 1992-07-10 | ||
US07/911,850 US5513297A (en) | 1992-07-10 | 1992-07-10 | Selective application of speech coding techniques to input signal segments |
Publications (2)
Publication Number | Publication Date |
---|---|
JPH0683396A true JPH0683396A (ja) | 1994-03-25 |
JP3266372B2 JP3266372B2 (ja) | 2002-03-18 |
Family
ID=25430967
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP18340193A Expired - Lifetime JP3266372B2 (ja) | 1992-07-10 | 1993-06-30 | 音声情報符号化方法およびその装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US5513297A (ja) |
EP (1) | EP0578436B1 (ja) |
JP (1) | JP3266372B2 (ja) |
DE (1) | DE69324732T2 (ja) |
ES (1) | ES2132189T3 (ja) |
Families Citing this family (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
GB9408037D0 (en) * | 1994-04-22 | 1994-06-15 | Philips Electronics Uk Ltd | Analogue signal coder |
TW271524B (ja) * | 1994-08-05 | 1996-03-01 | Qualcomm Inc | |
US5774846A (en) | 1994-12-19 | 1998-06-30 | Matsushita Electric Industrial Co., Ltd. | Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus |
US5751903A (en) * | 1994-12-19 | 1998-05-12 | Hughes Electronics | Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset |
WO1997015046A1 (en) * | 1995-10-20 | 1997-04-24 | America Online, Inc. | Repetitive sound compression system |
US5839098A (en) * | 1996-12-19 | 1998-11-17 | Lucent Technologies Inc. | Speech coder methods and systems |
DE19706516C1 (de) | 1997-02-19 | 1998-01-15 | Fraunhofer Ges Forschung | Verfahren und Vorricntungen zum Codieren von diskreten Signalen bzw. zum Decodieren von codierten diskreten Signalen |
DE19729494C2 (de) * | 1997-07-10 | 1999-11-04 | Grundig Ag | Verfahren und Anordnung zur Codierung und/oder Decodierung von Sprachsignalen, insbesondere für digitale Diktiergeräte |
US6044339A (en) * | 1997-12-02 | 2000-03-28 | Dspc Israel Ltd. | Reduced real-time processing in stochastic celp encoding |
US6230129B1 (en) * | 1998-11-25 | 2001-05-08 | Matsushita Electric Industrial Co., Ltd. | Segment-based similarity method for low complexity speech recognizer |
US20040098255A1 (en) * | 2002-11-14 | 2004-05-20 | France Telecom | Generalized analysis-by-synthesis speech coding method, and coder implementing such method |
US8712766B2 (en) * | 2006-05-16 | 2014-04-29 | Motorola Mobility Llc | Method and system for coding an information signal using closed loop adaptive bit allocation |
KR101390110B1 (ko) * | 2007-02-22 | 2014-04-28 | 삼성전자주식회사 | 통신 시스템에서 신호 송수신 방법 및 장치 |
JP5511372B2 (ja) * | 2007-03-02 | 2014-06-04 | パナソニック株式会社 | 適応音源ベクトル量子化装置および適応音源ベクトル量子化方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4876696A (en) * | 1986-07-18 | 1989-10-24 | Nec Corporation | Transmission system for transmitting multifrequency signals or modem signals with speech signals |
US5007093A (en) * | 1987-04-03 | 1991-04-09 | At&T Bell Laboratories | Adaptive threshold voiced detector |
NL8700985A (nl) * | 1987-04-27 | 1988-11-16 | Philips Nv | Systeem voor sub-band codering van een digitaal audiosignaal. |
US4910781A (en) * | 1987-06-26 | 1990-03-20 | At&T Bell Laboratories | Code excited linear predictive vocoder using virtual searching |
DE68922134T2 (de) * | 1988-05-20 | 1995-11-30 | Nippon Electric Co | Überträgungssystem für codierte Sprache mit Codebüchern zur Synthetisierung von Komponenten mit niedriger Amplitude. |
CA1329274C (en) * | 1988-06-08 | 1994-05-03 | Tomohiko Taniguchi | Encoder / decoder apparatus |
US4956871A (en) * | 1988-09-30 | 1990-09-11 | At&T Bell Laboratories | Improving sub-band coding of speech at low bit rates by adding residual speech energy signals to sub-bands |
CA2020084C (en) * | 1989-06-29 | 1994-10-18 | Kohei Iseda | Voice coding/decoding system having selected coders and entropy coders |
JPH0398318A (ja) * | 1989-09-11 | 1991-04-23 | Fujitsu Ltd | 音声符号化方式 |
US5271089A (en) * | 1990-11-02 | 1993-12-14 | Nec Corporation | Speech parameter encoding method capable of transmitting a spectrum parameter at a reduced number of bits |
US5195137A (en) * | 1991-01-28 | 1993-03-16 | At&T Bell Laboratories | Method of and apparatus for generating auxiliary information for expediting sparse codebook search |
US5233660A (en) * | 1991-09-10 | 1993-08-03 | At&T Bell Laboratories | Method and apparatus for low-delay celp speech coding and decoding |
-
1992
- 1992-07-10 US US07/911,850 patent/US5513297A/en not_active Expired - Lifetime
-
1993
- 1993-06-30 EP EP93305133A patent/EP0578436B1/en not_active Expired - Lifetime
- 1993-06-30 DE DE69324732T patent/DE69324732T2/de not_active Expired - Lifetime
- 1993-06-30 JP JP18340193A patent/JP3266372B2/ja not_active Expired - Lifetime
- 1993-06-30 ES ES93305133T patent/ES2132189T3/es not_active Expired - Lifetime
Also Published As
Publication number | Publication date |
---|---|
EP0578436A1 (en) | 1994-01-12 |
DE69324732T2 (de) | 1999-10-07 |
US5513297A (en) | 1996-04-30 |
EP0578436B1 (en) | 1999-05-06 |
DE69324732D1 (de) | 1999-06-10 |
JP3266372B2 (ja) | 2002-03-18 |
ES2132189T3 (es) | 1999-08-16 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR100209454B1 (ko) | 부호화 장치 | |
JP2964344B2 (ja) | 符号化/復号化装置 | |
CN1307614C (zh) | 合成语音的方法和装置 | |
US7444283B2 (en) | Method and apparatus for transmitting an encoded speech signal | |
JP3346765B2 (ja) | 音声復号化方法及び音声復号化装置 | |
JP4005359B2 (ja) | 音声符号化及び音声復号化装置 | |
US20020016161A1 (en) | Method and apparatus for compression of speech encoded parameters | |
JPH10187196A (ja) | 低ビットレートピッチ遅れコーダ | |
JP3266372B2 (ja) | 音声情報符号化方法およびその装置 | |
KR19980080463A (ko) | 코드여기 선형예측 음성코더내에서의 벡터 양자화 방법 | |
KR100275429B1 (ko) | 음성 부호화 장치 | |
US8670982B2 (en) | Method and device for carrying out optimal coding between two long-term prediction models | |
US6330531B1 (en) | Comb codebook structure | |
JPH10177398A (ja) | 音声符号化装置 | |
KR100416363B1 (ko) | 선형 예측 분석 대 합성 엔코딩 방법 및 엔코더 | |
JP3490325B2 (ja) | 音声信号符号化方法、復号方法およびその符号化器、復号器 | |
EP0902421B1 (en) | Voice coder and method | |
JPH08234795A (ja) | 音声符号化装置 | |
JP2968109B2 (ja) | コード励振線形予測符号化器及び復号化器 | |
JP3292227B2 (ja) | 符号励振線形予測音声符号化方法及びその復号化方法 | |
JPH028900A (ja) | 音声符号化復号化方法並びに音声符号化装置及び音声復合化装置 | |
JPH05232996A (ja) | 音声符号化装置 | |
JP3006790B2 (ja) | 音声符号化復号化方法及びその装置 | |
JP3270146B2 (ja) | 音声符号化装置 | |
JP2775533B2 (ja) | 音声の長期予測装置 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20080111 Year of fee payment: 6 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090111 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20090111 Year of fee payment: 7 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20100111 Year of fee payment: 8 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110111 Year of fee payment: 9 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120111 Year of fee payment: 10 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130111 Year of fee payment: 11 |
|
EXPY | Cancellation because of completion of term |