JP3266372B2 - 音声情報符号化方法およびその装置 - Google Patents

音声情報符号化方法およびその装置

Info

Publication number
JP3266372B2
JP3266372B2 JP18340193A JP18340193A JP3266372B2 JP 3266372 B2 JP3266372 B2 JP 3266372B2 JP 18340193 A JP18340193 A JP 18340193A JP 18340193 A JP18340193 A JP 18340193A JP 3266372 B2 JP3266372 B2 JP 3266372B2
Authority
JP
Japan
Prior art keywords
signal
speech
encoded
encoding
segments
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP18340193A
Other languages
English (en)
Other versions
JPH0683396A (ja
Inventor
ビー.クレイン ウィレム
クルーン ピーター
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
AT&T Corp
Original Assignee
AT&T Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by AT&T Corp filed Critical AT&T Corp
Publication of JPH0683396A publication Critical patent/JPH0683396A/ja
Application granted granted Critical
Publication of JP3266372B2 publication Critical patent/JP3266372B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/097Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using prototype waveform decomposition or prototype waveform interpolative [PWI] coders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

【発明の詳細な説明】
【0001】
【産業上の利用分野】本発明は、音声通信方法および装
置に関し、特に、音声圧縮のための音声情報符号化方法
および装置に関する。
【0002】
【従来の技術】音声情報の効率的通信には、通信路また
はデータ通信網(以下、通信路という)による伝送のた
め音声信号の符号化が含まれることが多い。音声符号化
システムには、通信路による伝送のため、音声信号をコ
ードワードに変換する符号化過程と受信されたコードワ
ードから音声を再構成する復号過程とが含まれる。これ
らの符号化過程と復号過程とは、帯域幅限定通信路によ
る音声信号通信に有用なデータ圧縮およびデータ伸張を
生じる。
【0003】合成による分析音声符号化システム(例え
ば、当業者に公知の符号励振線形予測(CELP)音声
符号化法)によれば、符号化のための音声信号は、ま
ず、サブフレームと名付けられ、固定持続時間を有する
時間区分に分割される。各サブフレームは、その持続時
間が代表的な場合、2.5〜7.5ミリ秒である。各サ
ブフレームの音声情報の大部分は、該サブフレーム内の
音声信号を特徴づけるパラメタ集合として符号化され
る。幾つか(通常、4個または6個)の隣接した符号化
サブフレームは、フレームと名付けられた群として集め
られる。これらの符号化音声フレームは、通信路を介し
て受信装置に伝えられる。受信装置は、例えば、受信し
たフレーム情報から音声を合成しうる。
【0004】大部分の音声符号化システムの目標は、声
帯が緊張し、準周期的に振動している時に発生する原音
声(例えば、有声音)の忠実な再生を行うことである。
時間域においては、有声音信号は、通常、ピッチサイク
ルと名付けられた、類似するがゆっくりと放出される連
続波形として現われる。ピッチサイクル波形は、全体と
して、一連の小振幅振動によって囲まれた主遷移を特徴
とする。これらピッチサイクル波形の一つは、ピッチ周
期と名付けられた持続時間を有する。
【0005】有声音信号ピッチサイクルの特質のため、
サブフレーム基準で動作する音声符号化システムは、サ
ブフレーム内の信号の広範囲に異なる特徴を正確に表現
することを目標とする。音声信号のこれらの特徴が音声
符号化システムによってどのように処理されるかは、シ
ステム性能に影響する。
【0006】
【発明が解決しようとする課題】本発明は、例えば、ピ
ッチサイクル波形のような音声情報信号からなる時間区
分に音声符号化技術を選択的に適用する音声情報符号化
方法と装置とを提供することである。
【0007】
【課題を解決するための手段】本発明は、N個の信号区
分からなる音声情報信号が第1音声符号器により符号化
され、上記N個の信号区分のそれぞれについて、第1符
号化表現を生じる。第1音声符号器により符号化されな
い音声情報を表わす第2音声情報信号が上記N個の1個
以上のそれぞれについて決定される。第1音声符号器に
よるN個の第1音声情報信号区分の符号化に加えて、M
(ただし、1≦M≦N−1)個の第2音声情報信号の選
択的符号化は、符号化基準に応答して行われる。第2音
声符号器の選択的使用により、音声情報を表現するのに
必要なビットの数が削減されるが、ビット伝送速度を増
大させることなく、より高い性能を得ることができる。
第1音声符号器および第2音声符号器は、当業者に公知
のものであってもよい。
【0008】本発明の実施例によれば、改良された符号
励振線形予測音声符号化システムが得られる。このよう
な改良符号励振線形予測システムは、持続時間が2.5
ミリ秒のサブフレームに備えるように適合される。これ
らのサブフレームは、上記時間区分として動作する。こ
れらの持続時間が与えられると、音声情報信号の多数の
サブフレームは、主遷移を含まない。実施例によれば、
第1音声符号器により、全サブフレームについて符号化
が行われる。主遷移のない、これらのサブフレームにつ
いて、上記符号化は、例えば、しきい値信号エネルギの
ような適用可能符号化基準を満たすのに必要なものとな
りうる。主遷移を含む上記時間区分について、上記適用
可能符号化基準を満たすのに、追加的符号化を採用して
もよい。この方法によれば、音声情報信号符号化が、必
要とされる符号化要件を満たすためにサブフレーム基準
で作られる。
【0009】本発明の第1実施例によれば、第2音声符
号器による符号化のための第2音声情報信号の選択は、
符号化基準に基づく。本発明の第2実施例によれば、第
2音声情報信号の符号化は、第2音声情報信号の個々の
試結合の符号化と、符号化基準に基づく上記試結合の一
つの選択とからなる。
【0010】
【実施例】
A.実施例への序説 説明を分り易くするため、本発明の実施例は、個々の機
能ブロックからなるものとして示されている。これらの
機能ブロックが表現する機能は、限定されないが、ソフ
トウェアを実行しうるハードウェアを含めて、共有ハー
ドウェアまたは専用ハードウェアの使用により与えう
る。実施例は、例えば、AT&T DSP16またはD
SP32Cのようなデジタル信号プロセッサ(DSP)
型ハードウェア、および、後に詳述する動作を行うソフ
トウェアを含んでいてもよい。超大規模集積回路(VL
SI)型ハードウェアからなる実施例および混成(ハイ
ブリッド)デジタル信号プロセッ/超大規模集積回路型
実施例であってもよい。
【0011】本発明の実施例は、従来の符号励振線形予
測音声符号化法の改良版である。実施例は、符号励振線
形予測の改良に向けられているので、従来の符号励振線
形予測と変らない面については、詳述しない。従来の符
号励振線形予測、および、これと関連する話題について
検討するためには、譲渡された米国特許出願第07/7
82,686号を参照のこと。この米国特許出願の開示
内容および以下の記載を考慮すれば分かるように、当業
者には、本発明が、広く言えば、合成による分析符号化
システム、狭く言えば、符号励振線形予測符号器だけで
なく、他の種々の音声符号化システムに適用されうると
いうことは、明らかであろう。
【0012】本発明の実施例は、2個の音声符号器の選
択的使用に関する。第1音声符号器は、長期予測器(L
TP)(単独で、または、線形予測フィルタ(LPF)
と組合せて)からなる。第2音声符号器は、固定確率的
コードブック(FSCB)と探索機構とからなる。従来
の符号励振線形予測の場合と同様に、実施例において
は、音声情報信号のサブフレームを符号化する。これら
のサブフレームは、符号化された音声情報フレームとし
て、従来の方法で一緒にパッケージとされ、受信装置に
送給される。各フレームは、その持続時間が20ミリ秒
であり、8個の2.5ミリ秒音声情報サブフレームから
なる。
【0013】本発明は、有声音信号の符号化方法を提供
する。他のタイプの音声信号(沈黙および無声音)の符
号化法は、当業者に公知の従来符号化技術により与えら
れてもよい。このような符号化技術と本発明の実施例と
の切換えは、当業者に公知の従来技術により行なわれう
る。例えば、米国特許証第5,007,093号を参照
のこと。本発明の説明を分かり易くするため、これら周
知技術については、これ以上述べない。本発明の実施例
に使用される通信路は、例えば、電気通信網(例えば、
電話網または無線リンク、または、記憶媒体(例えば、
半導体メモリ、磁気ディスク、またはテープメモリ)、
または、CD−ROMであってもよい(通信網とおよび
記憶媒体との組合せが提供されてもよい)。本明細書内
では、受信装置は、通信路を通して、符号化された音声
信号を受信する装置である。したがって、例えば、受信
器は、CD−ROM読取り器、ディスクもしくはテープ
駆動装置、セルラー電話または従来電話、無線受信器等
からなる。したがって、通信路を介しての信号通信は、
例えば、通信網または通信リンクを通じての信号伝送、
記憶媒体内の信号蓄積、または、これら両方からなる。
【0014】B.第1実施例 本発明の第1実施例が図1に示されている。図1に示さ
れているように、標本化された音声情報信号s(i)
(iは、標本指標である)は、線形予測フィルタ20と
線形予測分析器(LPA)10とは、例えば、従来のア
ナログ音声信号アナログ/デジタル変換によって供給し
てもよい。線形予測分析器10は、信号s(i)に基づ
いて、当業者に周知の従来方法で線形予測係数を算出す
る。線形予測係数は、従来の符号励振線形予測の場合と
同様に、線形予測分析器10によって、フレーム境界に
おいて有効であるように、決定され量子化される。係数
ar(フレーム境界内のサブフレームの中央において有
効である)は、線形予測分析器10によって量子化され
たフレーム境界係数データの従来補間法により決定され
る。係数ar(サブフレームの中央において有効であ
る)は、緩衝装置27と線形予測フィルタ20とに出力
される。フレーム境界において有効な係数arFも通信
路インターフェース55に出力される。サブフレームの
中央において有効なarの値は、線形予測フィルタ20
によって、および緩衝装置27を介して、長期予測器3
0、固定確率的コードブック探索器40によって、従来
方法で使用される。
【0015】信号χ(i)(実施例の第1音声情報信号)
は、線形予測分析器10によって供給された係数に基づ
いて、線形予測フィルタ20によって、従来方法で形成
される。線形予測フィルタ20入力信号s(i)の逐次的
標本を以下の通り、濾波することにより、一時に1個の
サブフレーム(すなわち、20個の標本)を得るように
して、信号χ(i)の2個のサブフレームは、線形予測フ
ィルタ20によって供給される。
【0016】
【数1】
【0017】線形予測係数arは、当該サブフレームの
中央において有効である。Rは、通常、約10個の標本
(8kHzの標本化率に対して)であるから、信号χ
(i)は、最初の信号s(i)の長期予測性を保持する。後述
する長期予測器30は、上記冗長性を除去するために設
けられている。
【0018】信号χ(i)のサブフレームは、線形予測フ
ィルタ20から出力され、サブフレームの分析器25と
緩衝装置29とに供給される。分析器25と緩衝装置2
9とは、それぞれ線形予測フィルタ20によって供給さ
れる情報信号χ(i)のサブフレーム対を蓄積する。本発
明によれば、分析器25は、該分析器25が蓄積した各
サブフレーム対について、第1音声符号器(すなわち、
長期予測器30)のみを使用して、いずれのサブフレー
ムを符号化すべきかを決定し、第1音声符号器と第2音
声符号器(すなわち、長期予測器30および固定確率的
コードブックシステム40,45)との両方を使用し
て、いずれのサブフレームを符号化すべきかを決定す
る。この決定は、サブフレーム対の各サブフレームの音
声情報信号エネルギに基づく。第1音声符号器と第2音
声符号器との両方を使用する符号化のため、高い信号エ
ネルギを示すサブフレームが分析器25により選択され
る。他のサブフレーム(低い信号エネルギを示すもの)
は、第2音声符号器でなく、第1音声符号器の使用によ
り符号化される。サブフレームのエネルギは、分析器2
5により従来方法で決定される。
【0019】
【数2】
【0020】数式中、Lは、サブフレーム内の標本の数
である(例えば、L=20個)。
【0021】サブフレームエネルギは、上記2個のサブ
フレームのいずれかを符号化する前に、サブフレーム対
の各サブフレームについて、分析器25により決定され
る。サブフレームエネルギの決定がなされたときは、つ
いで、当該サブフレーム対の全サブフレームが符号化さ
れうる。上述した通り、実施例による符号化のために、
これらサブフレームのコピーが緩衝装置29に蓄積され
る。緩衝処理された、これらのサブフレームを符号化す
るのに必要であり、分析器10から出力された線形予測
係数は、緩衝装置27に蓄積される。
【0022】緩衝装置27,29は、システムに符号化
遅れを加えない。これは、線形予測係数と、濾波された
音声情報とを決定するために、分析器および通常型線形
予測分析器および通常型線形予測フィルタ(たとえば、
線形予測分析器10および線形予測フィルタ20)がそ
れ自身で音声情報信号値を収集し蓄積しなければならな
いからである。線形予測分析の一の従来形式によれば、
線形予測分析器10は、線形予測係数が算出されるフレ
ーム境界の各側において、音声情報信号標本フレームの
1/2を蓄積する。したがって、与えられたフレームの
第1サブフレームの中央において有効な線形予測係数を
決定する前に、従来型線形予測分析器10は、(1+1
/2)フレームの遅れを追加する。上記線形予測係数の
算出のために、音声情報信号の標本(例えば、全個のサ
ブフレーム)が蓄積されなければならないので、緩衝装
置27内のサブフレームの蓄積は、標本化遅れなしに生
じうる情報のブロック転送として実施されうる。したが
って、いずれの遅れも緩衝装置27内の見掛け蓄積によ
って追加される必要がない。
【0023】分析器25は、許可信号ε(分析器25に
より音声符号器に供給される)を発生することにより、
緩衝装置29に蓄積された1対のサブフレームの符号化
を制御する。許可信号εが適切に表明されると、緩衝処
理されたサブフレーム対のサブフレームは、第1音声符
号器(長期予測器30)の適用により、一時に1個づつ
符号化される。
【0024】本実施例の長期予測器30は、従来型符号
励振線形予測適応コードブックと利得λ(i)と遅れd(i)
(iという指標を有するが、d(i)およびλ(i)の値は、
サブフレーム内では全標本に対して一定である)とを決
定する探索機構とからなる。長期予測器30は、許可信
号εが00以外の値を引受けるとき、動作が許可される
(許可信号εについての後述の議論参照)。図1に示さ
れているように、符号化された各サブフレームについて
の遅れおよび利得の計算値は、長期予測器30によって
通信路インタフェース55に供給される。残余音声情報
信号γ(i)(実施例の第2音声情報信号)からなるサブ
フレームは、以下の様にして決定される。
【0025】
【数3】
【0026】山記号付きχ(i−d(i))は、前サブフレー
ム内で合成された(または再構成された)音声情報信号
の標本である。数式(3)の実施を容易とするため、長
期予測器30は、量λ(i)×山記号付χ(i−d(i))を減算
回路35に供給する。信号γ(i)は、λ(i)×山記号付χ
(i−d(i))が減算回路35によって、χ(i)から減算され
た後に残る音声情報信号である。γ(i)は、第1音声符
号器により符号化されない音声情報を表わす、ついで、
信号γ(i)は、分析器25の制御を受けて、許可信号ε
により、固定確率的コードブック機構40により符号化
されうる。
【0027】許可信号εは、分析器25により、固定確
率的コードブック探索機構40に供給されることによ
り、1対のサブフレームのうち、高いエネルギを含むよ
う決定されたサブフレームへの固定確率的コードブック
の適用を制御する。許可信号εは、2個のビットで実施
されてもよい。したがって、例えば、許可信号εを形成
するビットが01であるとき、固定確率的コードブック
システム40,45は、サブフレーム対の第1(または
先の)サブフレームを符号化する。許可信号εを形成す
るビットが10のときは、固定確率的コードブックシス
テム40,45は、サブフレーム対の第2サブフレーム
を符号化する(00に等しい許可信号εは、両方の符号
器について待機または遊び状態が音声情報信号の緩衝処
理から始まることを示す)。
【0028】許可信号εが表明されたとき(01または
10として)、固定確率的コードブック探索機構40
は、固定確率的コードブック45から出力されたベクト
ルと基準化係数μ(i)(組合わさって、符号化されるべ
きサブフレームと関連する信号γ(i)と極めて近似す
る)とを決定するように動作する。固定確率的コードブ
ック45と固定確率的コードブック探索機構40とは、
分析器25により行われる制御を除いて、当業者にとっ
て従来通りである。固定確率的コードブック探索機構4
0は、通信路インタフェース55への出力として、決定
された固定確率的コードブックベクトルを示す指標IFC
と、関連の基準化係数μ(i)とを供給する。分析器25
から出力された許可信号εが表明されなかった(すなわ
ち、εが00)ときは、固定確率的コードブック探索機
構40は、遊び状態のままである。
【0029】分析器25は、また、図1に示された実施
例によって処理される各サブフレーム対について1個の
ビットを通信路インターフェース55に供給する。この
ビット(サブフレーム選択ビットξと名付けられる)
は、固定確率的コードブック40に供給された許可信号
εの表明値を表わす。許可信号εが01のときは、サブ
フレーム選択ビットξは、0に設定される。許可信号ε
が10に設定されたときは、サブフレーム選択ビットξ
は、1に設定される。通信路インタフェース55が、各
符号化サブフレーム対のサブフレーム選択ビットξに、
サブフレームが両符号器によって符号化されており、お
よび、符号化されていない表示を供給するように要求す
る。
【0030】サブフレーム対の2個のサブフレームの符
号化が完了すると、分析器25が次のサブフレーム対を
符号化する方法を決定するまで、符号化は、停止され
る。分析器25は、許可信号εを00に等しくすること
により、符号化を停止する。第1および第2音声符号器
は、表明された許可信号εに応答して動作し、ついで、
これがなされた時、許可信号εを検討する。許可信号ε
が00のときは、第1および第2音声符号器は、停止す
る。他の場合には、第1および第2音声符号器は、上述
した通り、次のサブフレーム対を符号化し続ける。
【0031】図2は、分析器25および緩衝装置27お
よび29が図1に示された実施例の他の構成要素と常時
共働する方法の理解を容易とするためのものである。図
2は、音声情報信号χ(i)の隣接した複数のフレームを
示す。これらのフレームは、エネルギ決定のため、分析
器25に供給される(信号χ(i)の実標本値は、分り易
くするため示されない)。図2に示されているように、
フレーム(F−1),Fおよび(F+1)のそれぞれ
は、aからhまで符号を付された8個のサブフレームか
らなる。各フレームは、160個の標本(すなわち、8
kHzの標本化率での20ミリ秒の音声情報)からなる
ので、符号を付されたサブフレームのそれぞれは、20
個の標本(すなわち、2.5ミリ秒の音声情報)からな
る。各フレーム内の逐次的サブフレーム対は、1から4
までの番号が付されている。
【0032】従来型符号励振線形予測符号器の場合と同
様に、信号s(i)が図1に示された線形予測分析器10
および線形予測フィルタ20に供給されていると仮定す
る。結果として、線形予測分析器10は、フレーム(F
−1)とフレームFとのフレーム境界において有効な線
形予測係数(すなわち、arF-1 )、および、フレーム
Fとフレーム(F+1)とフレーム境界において有効な
線形予測係数(すなわち、arF )を決定している。こ
れらの線形予測係数は、線形予測分析器10による従来
型補間において使用されることにより、上述したサブフ
レーム係数を生じる。これらのサブフレーム係数は、線
形予測フィルタ20によって従来方法で使用されること
により、信号s(i)のサブフレームを濾波する。
【0033】まず、信号s(i)の2個のサブフレーム
は、線形予測フィルタ20により濾波されることによ
り、フレームFにおいて、信号χ(i)の最初のサブフレ
ーム対のサブフレームaおよびb(すなわち、フレーム
F、サブフレーム対1)を生じる。分析器25と緩衝装
置29とは、フレームFのサブフレームaおよびbを受
信し蓄積する。分析器25により供給された許可信号ビ
ットは、00(符号化システムの遊び状態を表わす)に
設定される。分析器25は、サブフレームaおよびbの
うちいずれが上述した高いエネルギを含むかを決定す
る。この決定に応答して、分析器25は、第1および第
2音声符号器によるサブフレームaおよびbの符号化を
制御する。この制御過程の一部として、分析器25は、
許可信号ε(2個のサブフレームのうちいずれが両音声
符号器により符号化されるべきかを示す)を供給する。
【0034】許可信号εが供給されると、符号化は、上
述の通り生じる。これにより、分析器25は、許可信号
εを00にリセットする。分析器25と緩衝装置29と
は、次の隣接したサブフレーム対(フレームF、サブフ
レーム対2であって、サブフレームa及びbからなる)
を蓄積し続ける。この決定に応答する、サブフレームc
及びdの符号化の制御は、その後、分析器25により行
われる。
【0035】サブフレームエネルギの決定および音声符
号器の制御は、音声情報信号の各逐次サブフレーム対に
ついて繰り返される。したがって、例えば、サブフレー
ムcおよびdの符号化後、図1に示された実施例は、フ
レームFのサブフレームeおよびf(すなわち、サブフ
レーム対3)およびサブフレームgおよびh(すなわ
ち、サブフレーム対4)を符号化し続ける。第2音声符
号器による各逐次サブフレーム対の1個のサブフレーム
のみの符号化の結果として、第2音声符号器は、フレー
ムFの全8個のサブフレームのうち4個のみを符号化す
るのに使用された。この点において、線形予測分析器1
0は、追加的フレーム境界線形予測係数(例えば、フレ
ーム(F+1)の右側境界において有効な係数ar
F+1 )を算出する。全過程は、符号化される信号サブフ
レームが存在する限り、一のフレームから次のフレーム
へ繰返される。
【0036】音声フレームの8個のサブフレームを符号
化する全過程において、各符号化音声情報を表わす情報
は、通信路56を通じて受信装置に伝送するために、通
信路インタフェース55により収集される。受信装置
は、音声の再構成のため、この情報を使用する。この情
報は、長期予測器パラメタλ(i)及びd(i)と、固定確率
的コードブック指標IFCと、(高いエネルギを有する適
切なサブフレームの)基準化係数μ(i)と、線形予測係
数ar(符号化フレーム(例えば、arF )と関連する
2個のフレーム境界の後の方において有効)とからな
る。この情報は、さらに、サブフレーム選択ビットξ集
合(各逐次符号化サブフレーム対において、いずれのサ
ブフレームが両音声符号器により符号化されているかを
表示する)からなる。通信路インターフェース55は、
フレームの符号化中に受信した全情報を緩衝し、緩衝処
理された情報を通信路56を通じての通信に適した書式
に割当てる(すなわち、組み立てる)。
【0037】図3は、通信路インターフェース55によ
り組立てられた符号化音声情報フレームの一の書式を示
す。この書式は、音声フレームを再構成するのに、受信
装置により必要とされる種々の量で分割された158個
のビットからなる。これらの量には、フレームの全8個
のサブフレームについての長期予測器30情報(すなわ
ち、遅れ、および、利得)、および、全8個のサブフレ
ームのうち4個についての固定確率的コードブックシス
テム40,45情報(すなわち、コードブックの指標お
よび利得)が含まれる。
【0038】図3に示されているように、線形予測係数
ar(1≦r≦10)は、30ビットの欄によって表現
される。これらの30ビットは、当業者に周知の従来方
法で係数を表現するのに使用される。また、符号化フレ
ームの全8個のサブフレームのそれぞれについての長期
予測器遅れおよび利得も表現される。サブフレームの各
長期予測器遅れd(i)は、7ビットの欄によって表現さ
れる。サブフレームの各長期予測器利得λ(i)は、4ビ
ットの欄によって表現される。したがって、全88ビッ
ト(すなわち、8個のサブフレームx(7ビット+4ビ
ット))が第1音声符号器(長期予測器30)によって
供給される符号化音声情報を表現するのに使用される。
【0039】7ビットでフレームの各遅れを符号化する
他の方法として、4番目のサブフレーム遅れ、または、
5番目のサブフレーム遅れが7ビットで符号化されても
よい。また、他の7個のサブフレーム遅れは、サブフレ
ーム差分遅れ値毎に2ビットを使用して、差分符号化さ
れてもよい。この通常方法は、全35ビットを節約し、
フレームを符号化するのに必要なビットの数を158か
ら123に減らす。
【0040】各フレームについて、複数の遅れ値を符号
化する(差分または他の方法にかかわらず)他の方法と
して、本発明は、米国特許出願第07/782,686
号に開示された一般的合成分析方法と組合わされてもよ
い。本発明と上記米国特許出願との組合せにより、遅れ
情報は、各符号化フレームについて1回しか送る必要が
ない。このように、全フレームの遅れを表現するのに、
例えば、7個のビットしか使用する必要がない。米国特
許出願第07/782,686号の技術を本発明の技術
と組合せるために、サブフレーム分析は、本発明の第1
実施例に従って行われる。一方、米国特許出願第07/
782,686号の図3および図5に示された複数の実
施例は、それぞれ、信号χ(i)およびパラメタMおよび
anが緩衝処理されてもよい。また、米国特許出願第0
7/782,686号の図3および図5に示された実施
例は、それぞれ、本発明の第2実施例に従う符号化サブ
システムとして使用されてもよい(下記参照)。
【0041】図3は、さらに、隣接した4個の符号化サ
ブフレーム対のそれぞれについて、サブフレーム選択ビ
ットξを含む4ビットサブフレーム選択欄を示す。これ
ら4個のビットのそれぞれは、4個のサブフレーム対の
一つを表現する。上述の通り、0となる選択ビットは、
サブフレーム対の2個のサブフレームの第1のもの(す
なわち、先の方)が両音声符号器の使用により符号化さ
れていることを示す。他方、1となる選択ビットは、上
記2個のサブフレームの第2のもの(すなわち、後の
方)がそのように符号化されていることを示す。
【0042】サブフレーム選択のために指定された4個
のビットの後で、通信路書式は、固定確率的コードブッ
クシステム40,45の情報表現用の欄を含む。この欄
の全ビットは、サブフレーム選択ビット欄により特定さ
れた4個のサブフレーム間に分割される。このように特
定された各サブフレームについて、固定確率的コードブ
ック指標IFC(6ビット)および固定確率的コードブッ
ク基準化係数μ(i)(3ビット)が送られる。したがっ
て、欄は、36ビット(4個のサブフレーム×(3ビッ
ト+6ビット))からなる。
【0043】上述した書式による符号化音声情報フレー
ムは、通信路56を通じて受信装置に送られる。受信装
置は、符号化音声情報フレームから音声情報フレームを
再構成し、または、合成する。本発明にかかる、音声情
報合成用受信装置の実施例が図4に示されている。
【0044】一般的に、図4に示された受信装置は、上
述した符号化過程の逆を行う。通信路インターフェース
55により伝送された符号化音声情報の逐次フレーム
は、受信装置通信路インターフェース58により受信さ
れる。受信装置通信路インターフェース58は、受信し
た符号化フレーム書式のビットをアンパックし、受信装
置の他の部材に適切な情報と信号とを供給する。
【0045】符号化音声情報フレームが通信路インター
フェース58により受信されており、該符号化音声情報
フレームが図2に示されたフレームFを表現すると仮定
する。この符号化音声情報フレームの受信に応答して、
通信路インターフェースは、受信された符号化音声情報
フレームから線形予測係数arF を抽出する。これらの
線形予測係数arF は、最新のフレーム境界(すなわ
ち、フレームFの終端に存在するフレーム境界)におい
て有効である。これらの線形予測係数は、先のフレーム
境界(フレーム(F−1)の終端に存在するフレーム境
界)において有効であり、先に受信され蓄積された線形
予測係数arF-1 集合と一緒に使用されることにより、
フレームF内の各音声サブフレームの中央において有効
な係数集合を供給する。これらの係数集合に、当業者に
周知の従来型線形予測係数補間が行われる。すなわち、
通信路インターフェース58により受信された線形予測
係数arF 集合は、後の補間過程での使用のため、緩衝
処理される。上記後の補間過程は、次の符号化音声情報
フレーム(F+1)の受信に応答して行われる。緩衝補
間過程は、通信路インターフェース58により受信され
た各符号化音声フレームについて繰返される。
【0046】線形予測係数の補間後、受信装置は、符号
化音声サブフレームを合成し続ける。通信路インターフ
ェース58は、受信フレームからフレームFの符号化サ
ブフレームaおよびbからなる第1サブフレーム対と関
連するサブフレーム選択ビットξを抽出する。通信路イ
ンターフェース58は、第1音声情報サブフレーム(す
なわち、フレームFのサブフレームa)の合成に固定確
率的コードブック70の適用が必要であるか否かを決定
するために、サブフレーム選択ビットξを審査する。必
要であれば、通信路インターフェース58は、論理的真
のサブフレーム選択制御信号γを受信装置のスイッチ6
0および80に供給する。真として表明されたγによ
り、スイッチ60,80は、サブフレームaの合成過程
に固定確率的コードブック70を効果的に組込む閉じた
状態となる。固定確率的コードブック70の適用がサブ
フレームaについて必要とされないときは、通信路イン
ターフェース58は、論理的偽γをスイッチ60および
80に供給し、スイッチ60および80を開く。これに
より、固定確率的コードブック70は、合成過程から効
果的に分離される。
【0047】適切なサブフレーム選択制御信号γの決定
後、通信路インターフェース58は、固定コードブック
指標IFC(固定確率的コードブックシステム40,45
の使用により符号化されている第1サブフレーム対のサ
ブフレームと関連する)を抽出し、スイッチ60に出力
してもよい。また、通信路インターフェース58は、該
サブフレームに対して、固定確率的コードブック利得μ
(i)を抽出し、乗算回路75に供給してもよい。
【0048】サブフレームaが両音声符号器で符号化さ
れた第1サブフレーム対のサブフレームと仮定すれば、
信号γは、真であり、スイッチ60および80は、閉じ
ることになる。供給された指標IFCおよび利得μ(i)
は、固定確率的コードブック70および乗算器80のそ
れぞれにより使用されることにより、従来通り、合成さ
れた励振信号e(i)を生じる。この励振信号e(i) は、
サブフレームaの合成音声情報信号への固定確率的コー
ドブックシステム70,75の寄与である。励振信号e
(i) は、当該サブフレームの合成音声情報信号への適応
コードブックを増大するため、合計回路100に供給さ
れる。
【0049】この適応コードブックは、抽出された適応
コードブック遅れ・利得情報d(i)およびλ(i)(符号化
音声サブフレームaと関連する)のそれぞれに基づいて
供給される。適応コードブックは、従来方法で決定され
る。遅れd(i)は、先の合成音声情報フレームを特定
し、利得λ(i)は、乗数として動作する。
【0050】サブフレームaの音声合成は、通信路イン
ターフェース58により供給された線形予測係数に基づ
いて逆線形予測フィルタ110により完成される。これ
らの係数は、サブフレームaの中央において有効であ
る。
【0051】第1サブフレーム対のサブフレームaは、
両音声符号器の使用により符号化されたので、サブフレ
ームbは、固定確率的コードブックシステム40,45
なしで符号化されたことになる。したがって、サブフレ
ームbの音声合成を進めるために、通信路インターフェ
ース58は、論理的偽のサブフレーム選択制御信号γを
スイッチ60および80に出力しなければならない。こ
うすることにより、通信路インターフェース58は、固
定確率的コードブックシステム70,75をして、この
サブフレームの音声合成のため何の役割も果させない。
したがって、サブフレームbに関連した音声は、逆線形
予測フィルタ110と一緒に、適応コードブック90お
よび利得乗算回路95を使用することにより合成され
る。スイッチ80が開かれている結果として、励振信号
e(i) は、0である。
【0052】逐次符号化音声サブフレーム対は、サブフ
レームaおよびbと同一方法で取扱われる。他のサブフ
レーム対が違った方法で符号化されえた(すなわち、2
個のサブフレームの第1のものは、固定確率的コードブ
ックシステム40,45なしで符号化される)ことは、
当然である。このような状況では、サブフレームaおよ
びbについて上述された手続は、逆となる。
【0053】C.第2実施例 本発明の第2実施例は、図5に示されている。上述した
第1実施例と同様に、本実施例は、図3に示されたチャ
ネルフォーマットを採用し、図4に示された受信装置と
通信しうる。しかし、第1実施例と異なり、本実施例
は、符号化過程前に、サブフレーム対のうちいずれのサ
ブフレームが一の音声符号器の使用により符号化され、
いずれのサブフレームが両音声符号器の使用により符号
化されるかを決定することは、しない。むしろ、与えら
れたサブフレーム対に対して、本実施例は、以下の符号
化された選択肢を与える。すなわち、(i)サブフレー
ム対の第1サブフレームは、両音声符号器により符号化
されるが、第2サブフレームは、第2音声符号器なしに
符号化される第1選択肢、および、(ii)第1サブフレ
ームは、第2音声符号器なしに符号化されるが、第2サ
ブフレームは、両音声符号器により符号化される第2選
択肢である。これにより、第2実施例は、符号化誤差が
小くなる選択肢を選択する。これにより、選択された選
択肢のパラメタ(すなわち、符号化表現)は、受信装置
へ送るため、通信路インターフェースに供給される。
【0054】図5に示されているように、線形予測フィ
ルタ20および線形予測分析器10は、標本化された音
声情報信号s(i)を受信する。線形予測分析器10およ
び線形予測フィルタ20は、第1実施例に関して上述さ
れたのと同一の素子である。第1実施例の場合と同様
に、信号s(i)に基づいて、フレーム境界において有効
な線形予測係数arF を算出する。フレーム境界内のサ
ブフレームの中央において有効な線形予測係数arの値
は、線形予測分析器10により、フレーム境界係数の従
来型補間により決定される。サブフレームの中央で有効
な係数arは、線形予測フィルタ20、逆線形予測フィ
ルタ120(逆線形予測フィルタ120は、符号化され
た選択肢の選択に関連して後述される)、長期予測器3
0、および、固定確率的コードブック探索機構40に出
力される。フレーム境界において有効な係数arF も、
セレクタ130に出力される。音声情報信号χ(i)のサ
ブフレームは、第1実施例について上述した通り、線形
予測フィルタ20により、従来通りの方法で形成され
る。
【0055】第1実施例と同様に、第2実施例は、サブ
フレーム対に作用する。この場合、χ(i)の各サブフレ
ーム対は、線形予測フィルタ20により、2個の符号化
サブフレーム115,116に相互に平行に供給され
る。
【0056】各符号化サブシステム115,116は、
類似した方法で、サブフレーム対のサブフレームを符号
化するように動作する。図6に示されているように、サ
ブシステム115,116は、同一型の符号器(適応コ
ードブック長期予測器30,32および固定確率的コー
ドブックシステム40,45)からなる。上記サブシス
テム115,116間の相違は、符号器が与えられたサ
ブフレーム対のサブフレームに適用される方法に関係す
る。サブシステム115は、両符号器を使用することに
より、サブフレーム対の第1サブフレームを符号化し、
第2サブフレームを第2符号器なしで符号化する。サブ
システム116は、第2符号器なしで同一サブフレーム
対の第1サブフレームを符号化し、符号器で第2サブフ
レームを符号化する。サブシステム115,116の第
2符号器によるサブフレーム符号化の制御は、固定確率
的コードブック制御器37,38(サブフレーム対内の
適切なサブフレームがサブシステム115,116につ
いて常に符号化されるようにεを設定する)により個別
に行われる。
【0057】したがって、サブシステム115,116
は、一のサブフレームが選択されなければならない、与
えられたサブフレーム対の他の符号化表現を供給する。
これらの択一的表現は、サブシステム115,116に
より、長期予測器遅れ・利得情報d(i)およびλ(i)とし
て、また、固定確率的コードブックシステム指標・利得
情報IFCおよびμ(i)として、それぞれ、セレクタ13
0に供給される。サブフレーム対の2個の符号化表現間
の選択は、各表現によりもたらされる符号化誤差の量に
基づく。各表現によりもたらされる符号化誤差は、逆線
形予測フィルタ120および減算回路125と共働し
て、セレクタ130により評価される。
【0058】再び図5を参照すれば判るように、各サブ
システム115,116は、推定音声情報信号(山記号
付χ(i))(受信装置がサブシステムによる、原音声情
報信号χ(i)の符号化表現を受信することになっていた
ならば、受信装置により合成されるはずである音声情報
信号に等しい)を出力する。したがって、各サブシステ
ム115,116から出力された推定音声情報(山記号
付χ(i))は、符号化表現によりもたらされた誤差の大
きさを決定するため、原音声情報信号χ(i)と比較して
もよい。
【0059】符号化誤差の大きさは、サブフレーム対に
ついて、聴覚重み付き原音声情報信号χ(i)と、各符号
化サブシステムから出力された聴覚重み付き推定音声情
報(山記号付χ(i))との差δを生成することにより、
与えられる。聴覚重み付けは、以下の数式に従って動作
する逆線形予測フィルタ120により行われる。
【0060】
【数4】
【0061】数式中、線形予測係数ar は、当該サブフ
レームの中央において有効であり、γは、聴覚重み付け
係数(説明のため、0.8に設定される)である。差信
号δ(i)は、減算回路125により生成され、サブフレ
ーム対全体に亘る符号化誤差を表わす。
【0062】差信号δ(i) は、比較のため、セレクタ1
30に供給される。セレクタ130は、誤差信号エネル
ギを決定するため、上記差信号を二乗してδ(i)2 を生
じる。これらの誤差信号エネルギは、いずれが低いかを
決定するため比較される。低い方の誤差(低い方の誤差
信号エネルギδ(i)2 によって表現される)をもたらす
責務を負う符号化サブシステムは、サブフレーム対の符
号化表現を出力するように選択された符号化サブシステ
ムである。
【0063】上述の通り、両サブシステム115,11
6は、サブフレーム対の符号化表現をセレクタ130に
供給する。セレクタ130は、いずれのサブシステム1
15,116が、その符号化表現によって、小さい方の
誤差をもたらすかを決定すると、上記表現を通信路イン
ターフェース55に供給する。通信路インターフェース
55は、第1実施例に関して上述したのと同一のもので
ある。通信路インターフェース55は、図3に関連して
上述した方法で受信装置への伝送のための書式にビット
をパックする。
【0064】サブフレーム対の符号化表現に加えて、セ
レクタ130は、線形予測係数arF およびサブフレー
ム選択ビットξを通信路インターフェース55に供給す
る。線形予測係数arF は、第1実施例に関連して上述
したのと同一のものである。これらの係数は、当該符号
化サブフレームを含むフレームの終端において有効であ
る。サブフレーム選択ビットξは、第1実施例に関連し
て上述したものとして定義される。ビットの値は、セレ
クタ130により選択されたサブシステム115,11
6のいずれかに基づいて決定される。サブフレーム対の
符号化表現に与えるように、サブシステム115が選択
されたとき(すなわち、サブフレーム対の第1サブフレ
ームがサブシステム115の両符号器により符号化され
たとき)は、サブフレーム選択ビットξは、0に設定さ
れる。サブフレーム対の符号化表現に与えるように、サ
ブシステム116が選択されたとき(すなわち、サブフ
レーム対の第1サブフレームがサブシステム116の両
符号器により符号化されたとき)は、サブフレーム選択
ビットξは、1に設定される。
【0065】音声情報信号χ(i) のサブフレーム対の符
号化表現が選択された後であって、音声情報フレーム内
の次のサブフレーム対の符号化前に、セレクタ130
は、本実施例の或る一定のメモリの内容を更新する。セ
レクタ130は、更新信号υをサブシステム115,1
16の適応コードブック32、長期予測器30、および
固定確率的コードブック探索機構40に供給することに
より、上記更新を行う。
【0066】信号υも、サブシステム115,116に
より出力された推定音声情報信号(山記号付χ(i))に
聴覚重み付けを行う逆線形予測フィルタ120に供給さ
れる。更新信号υにより、適応コードブック32の内容
m1 (選択された表現を与えたサブフレームと関連す
る)は、他のサブシステム116,115の適応コード
ブック32の内容に上書きされる。
【0067】また、更新信号υにより、選択された表現
と関連する長期予測器30,固定確率的コードブック探
索機構40、および、線形予測フィルタ-1120の信号
メモリ(それぞれ、m2 ,m3 およびm4 )は、他の長
期予測器30,固定確率的コードブック探索機構40お
よび逆線形予測フィルタ120の信号メモリに上書きさ
れる(線形フィルタが入力信号および出力信号のいずれ
か一方、または、両方の重み付き過去値を合計すること
により動作する)。この過程によって上書きされるの
は、上記過去値を保持するメモリ(信号メモリ)であ
る。サブシステム115,116の従来型長期予測器3
0および固定確率的コードブック探索機構40もコード
ブックベクトル誤差を評価するのに使用される逆線形予
測フィルタフィルタを含む(米国特許出願第07/78
2,686号参照)。
【0068】説明のため、更新信号υは、サブフレーム
選択信号ξと同一値をとる。このようにすれば、システ
ムのメモリは、更新信号υの受信に応答して、正しいメ
モリ更新を行うのに必要な情報(m1 ,m2 ,m3 およ
びm4 )を有する。この更新過程の完了後、音声情報信
号フレーム内の次のサブフレーム対の符号化が生じう
る。
【0069】本発明の技術思想は、他の実施例にも適用
しうる。例えば、第1音声符号器および第2音声符号器
を含み、これら符号器の一方または両方を使用して音声
情報信号セグメントを符号化する実施例も可能である。
これらのセグメントがこの実施例により符号化されるた
めのN個の信号セグメントのときは、第1音声符号器
は、上記セグメントのL個の符号化に適用され、第2音
声符号器は、上記セグメントのL個の符号化に適用され
る(ただし、L+M≧N+1)。この実施例によれば、
N個のセグメントのそれぞれは、2個の符号器のうち少
なくとも1個の使用により符号化される。
【0070】
【発明の効果】本発明によれば、ピッチサイクル波形の
ような音声情報信号からなる時間区分に音声符号化技術
を選択的に適用する音声情報符号化方法と装置とが得ら
れる。第2音声符号器の選択的使用により、音声情報を
表現するのに必要とされるビットの数が削減される。ま
たは、ビット伝達速度を増大させることなく、より良い
性能が得られる。
【図面の簡単な説明】
【図1】本発明の第1実施例を示すブロック線図であ
る。
【図2】音声情報信号χ(i)の隣接した3個のフレーム
を示す模式図である。
【図3】一の符号化音声情報フレームのビット書式の一
例を示す模式図である。
【図4】図1に示された第1実施例に使用される受信装
置の一例を示すブロック線図である。
【図5】本発明の第2実施例を示すブロック線図であ
る。
【図6】図5に示された第2実施例に使用される、適応
固定コードブックを備えた音声符号化システムのブロッ
ク線図である。
【符号の説明】
10 線形予測分析器 20 線形予測フィルタ 25 サブフレーム分析器 27 緩衝装置 29 サブフレーム緩衝装置 30 長期予測器 40 固定確率的コードブック探索機構 45 固定確率的コードブック 55 通信路インターフェース 56 通信路 58 通信路インターフェース 70 固定確率的コードブック 75 乗算回路 90 適応コードブック 95 利得乗算回路 110 線形予測フィルタ 115 符号化サブフレーム 116 符号化サブフレーム 120 線形予測フィルタ 130 セレクタ
───────────────────────────────────────────────────── フロントページの続き (72)発明者 ピーター クルーン アメリカ合衆国 08812 ニュージャー ジー グリーンブルック、スワンソン レーン 28 (56)参考文献 特開 昭63−156443(JP,A) 特開 昭64−44499(JP,A) 特開 平1−237699(JP,A) 特開 平2−288739(JP,A) 特開 平3−177900(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 19/00 - 19/14 H03M 7/30 H04B 14/04

Claims (22)

    (57)【特許請求の範囲】
  1. 【請求項1】 音声情報を表す第1信号を所定ビットレ
    ートで符号化する方法において、 前記第1信号は、それぞれN個の信号セグメントからな
    る複数の信号セグメント集合からなり、 前記方法は、 a.1個の信号セグメント集合のN個の信号セグメント
    を第1音声符号器で符号化することにより、該N個の信
    号セグメントのそれぞれについて第1符号化表現を生成
    するステップと、 b.前記N個の信号セグメントの1個以上のそれぞれに
    ついて、前記第1音声符号器で符号化されない音声情報
    を表す第2信号を形成するステップと、 c.1≦M≦N−1として、符号化基準に従い、M個の
    第2信号を第2音声符号器で符号化することにより、該
    M個の第2信号のそれぞれについて第2符号化表現を生
    成するステップとを有し、 符号化される第2信号の個数Mは、前記所定ビットレー
    トに基づいて決定され、 N=P+Mとして、前記N個の信号セグメントのうちの
    P個の信号セグメントは前記第1音声符号器を用いて符
    号化され、前記M個の信号セグメントは前記第1音声符
    号器および前記第2音声符号器を用いて符号化されるこ
    とを特徴とする音声情報符号化方法。
  2. 【請求項2】 前記第2信号は、信号セグメントと、前
    記第1音声符号器で生成される該信号セグメントの量子
    化表現との差を表す残余信号からなることを特徴とする
    請求項1に記載の方法。
  3. 【請求項3】 前記ステップcは、前記符号化基準によ
    る追加的符号化のために、前記M個の第2信号のうちの
    1個以上を選択する選択ステップを含むことを特徴とす
    る請求項1に記載の方法。
  4. 【請求項4】 前記選択ステップは、前記第1信号のN
    個の信号セグメントのそれぞれについて、特徴パラメタ
    を評価する評価ステップを含むことを特徴とする請求項
    3に記載の方法。
  5. 【請求項5】 前記評価ステップは、前記第2信号の対
    応する信号セグメントの特徴パラメタを前記符号化基準
    と比較するステップを含むことを特徴とする請求項4に
    記載の方法。
  6. 【請求項6】 前記特徴パラメタは、信号エネルギから
    なることを特徴とする請求項5に記載の方法。
  7. 【請求項7】 後の信号セグメントを符号化する際に前
    記第1音声符号器で使用するために、各信号セグメント
    について合成音声情報を表す合成信号を形成するステッ
    プをさらに有することを特徴とする請求項1に記載の方
    法。
  8. 【請求項8】 前記ステップaは、 符号化されるべき信号セグメントに基づいて、複数の修
    正信号セグメントを生成するステップと、 修正信号セグメントを符号化することにより該修正信号
    セグメントの符号化表現を生成するステップと、 修正信号セグメントの符号化表現に基づいて、修正信号
    セグメントの推定値を合成するステップと、 前記符号化されるべき信号セグメントと、合成された前
    記修正信号セグメント推定値との間の誤差を決定するス
    テップと、 誤差評価プロセスに基づいて、前記符号化されるべき信
    号セグメントの第1符号化表現として、特定の修正信号
    セグメントの符号化表現を選択するステップとを含むこ
    とを特徴とする請求項1に記載の方法。
  9. 【請求項9】 前記第1音声符号器および前記第2音声
    符号器を用いて前記信号セグメント集合を複数回符号化
    することにより、該信号セグメント集合の複数個の修正
    符号化表現が形成され、 前記符号化基準に従う前記信号セグメント集合の符号化
    表現として特定の修正符号化表現が選択されることを特
    徴とする請求項1に記載の方法。
  10. 【請求項10】 音声情報を表す信号を所定ビットレー
    トで符号化する方法において、 前記信号は、それぞれN個の信号セグメントからなる複
    数の信号セグメント集合からなり、 前記方法は、 a.1個の信号セグメント集合の複数の試行符号化表現
    を形成するステップと、 b.符号化基準に従い、前記信号セグメント集合を表す
    特定の試行符号化表現を選択するステップとを有し、 前記ステップaにおいて、各試行符号化表現は、P>
    0、M>0、N=P+Mとして、 a1.第1音声符号器および第2音声符号器の出力信号
    に基づいて、前記信号セグメント集合のM個の信号セグ
    メントのそれぞれの符号化表現を生成するステップと、 a2.前記第1音声符号器の出力信号に基づいて、残り
    のP個の信号セグメントのそれぞれの符号化表現を生成
    するステップとによって形成され、Mは、前記所定ビッ
    トレートに基づいて決定されることを特徴とする音声情
    報符号化方法。
  11. 【請求項11】 前記ステップbは、各試行符号化表現
    の特徴パラメタを決定するステップを含むことを特徴と
    する請求項10に記載の方法。
  12. 【請求項12】 前記ステップbは、さらに、 前記試行符号化表現の特徴パラメタどうしを比較するス
    テップと、 前記符号化基準に基づいて、特定の試行符号化表現を選
    択するステップとを含むことを特徴とする請求項11に
    記載の方法。
  13. 【請求項13】 前記ステップa2は、P個の信号セグ
    メントのそれぞれについて、 符号化されるべき信号セグメントに基づいて、複数の修
    正信号セグメントを生成するステップと、 修正信号セグメントを符号化することにより該修正信号
    セグメントの符号化表現を生成するステップと、 修正信号セグメントの符号化表現に基づいて、修正信号
    セグメントの推定値を合成するステップと、 前記符号化されるべき信号セグメントと、合成された前
    記修正信号セグメント推定値との間の誤差を決定するス
    テップと、 前記符号化されるべき信号セグメントの符号化表現とし
    て、誤差評価プロセスを満たす誤差を有する特定の修正
    信号セグメントの符号化表現を選択するステップとを含
    むことを特徴とする請求項10に記載の方法。
  14. 【請求項14】 音声情報を表す第1信号を所定ビット
    レートで符号化する装置において、 前記第1信号は、それぞれN個の信号セグメントからな
    る複数の信号セグメント集合からなり、 前記装置は、 1個の信号セグメント集合のN個の信号セグメントを符
    号化することにより、該N個の信号セグメントのそれぞ
    れについて第1符号化表現を生成する第1音声符号器
    と、 前記N個の信号セグメントの1個以上のそれぞれについ
    て、前記第1音声符号器で符号化されない音声情報を表
    す第2信号を形成する手段と、 1≦M≦N−1として、符号化基準に従い、M個の第2
    信号を符号化することにより、該M個の第2信号のそれ
    ぞれについて第2符号化表現を生成する第2音声符号器
    とを有し、 符号化される第2信号の個数Mは、前記所定ビットレー
    トに基づいて決定され、 N=P+Mとして、前記N個の信号セグメントのうちの
    P個の信号セグメントは前記第1音声符号器を用いて符
    号化され、前記M個の信号セグメントは前記第1音声符
    号器および前記第2音声符号器を用いて符号化されるこ
    とを特徴とする音声情報符号化装置。
  15. 【請求項15】 前記第2信号は、信号セグメントと、
    前記第1音声符号器で生成される該信号セグメントの量
    子化表現との差を表す残余信号からなることを特徴とす
    る請求項14に記載の装置。
  16. 【請求項16】 前記符号化基準による追加的符号化の
    ために、前記M個の第2信号のうちの1個以上を選択す
    る分析器をさらに有することを特徴とする請求項14に
    記載の装置。
  17. 【請求項17】 前記第1信号は、線形予測フィルタに
    より供給されることを特徴とする請求項14に記載の装
    置。
  18. 【請求項18】 前記第1音声符号器は、適応コードブ
    ックベクトル量子化器を含むことを特徴とする請求項1
    4に記載の装置。
  19. 【請求項19】 前記第1音声符号器は、さらに、線形
    予測フィルタを含むことを特徴とする請求項18に記載
    の装置。
  20. 【請求項20】 前記第2音声符号器は、固定コードブ
    ックを含むことを特徴とする請求項14に記載の装置。
  21. 【請求項21】 音声情報を表す信号を所定ビットレー
    トで符号化する装置において、 前記信号は、それぞれN個の信号セグメントからなる複
    数の信号セグメント集合からなり、 前記装置は、 1個の信号セグメント集合の複数の試行符号化表現を形
    成する形成手段と、符号化基準に従い、前記信号セグメ
    ント集合を表す特定の試行符号化表現を選択する手段と
    を有し、 前記形成手段は、0<M<Nとして、 前記信号セグメント集合のN個の信号セグメントのそれ
    ぞれの符号化表現を生成する際に使用される第1音声符
    号器と、 前記信号セグメント集合のM個の信号セグメントのそれ
    ぞれの符号化表現を生成する際に使用される第2音声符
    号器とを有し、 前記M個の信号セグメントのそれぞれの符号化表現は、
    前記第1音声符号器および前記第2音声符号器の出力信
    号に基づいて生成され、Mは、前記所定ビットレートに
    基づいて決定されることを特徴とする音声情報符号化装
    置。
  22. 【請求項22】 少なくとも2個の音声符号器を用い
    て、音声情報を表す信号を所定ビットレートで符号化す
    る方法において、 前記信号は、それぞれN個の信号セグメントからなる複
    数の信号セグメント集合からなり、 前記方法は、 第1音声符号器を用いて前記N個の信号セグメントのう
    ちのL個の符号化表現を生成するステップと、 第2音声符号器を用いて前記N個の信号セグメントのう
    ちのK個の符号化表現を生成するステップとを有し、 L>0、K>0、L+K≧N+1、L+K<2Nであ
    り、 L+K−N個の信号セグメントの符号化表現は、前記第
    1音声符号器および前記第2音声符号器の出力信号に基
    づき、 L+K−Nは、前記所定ビットレートに基づいて決定さ
    れることを特徴とする音声情報符号化方法。
JP18340193A 1992-07-10 1993-06-30 音声情報符号化方法およびその装置 Expired - Lifetime JP3266372B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
US911850 1992-07-10
US07/911,850 US5513297A (en) 1992-07-10 1992-07-10 Selective application of speech coding techniques to input signal segments

Publications (2)

Publication Number Publication Date
JPH0683396A JPH0683396A (ja) 1994-03-25
JP3266372B2 true JP3266372B2 (ja) 2002-03-18

Family

ID=25430967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18340193A Expired - Lifetime JP3266372B2 (ja) 1992-07-10 1993-06-30 音声情報符号化方法およびその装置

Country Status (5)

Country Link
US (1) US5513297A (ja)
EP (1) EP0578436B1 (ja)
JP (1) JP3266372B2 (ja)
DE (1) DE69324732T2 (ja)
ES (1) ES2132189T3 (ja)

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB9408037D0 (en) * 1994-04-22 1994-06-15 Philips Electronics Uk Ltd Analogue signal coder
TW271524B (ja) * 1994-08-05 1996-03-01 Qualcomm Inc
US5774846A (en) * 1994-12-19 1998-06-30 Matsushita Electric Industrial Co., Ltd. Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus
US5751903A (en) * 1994-12-19 1998-05-12 Hughes Electronics Low rate multi-mode CELP codec that encodes line SPECTRAL frequencies utilizing an offset
AU727706B2 (en) 1995-10-20 2000-12-21 Facebook, Inc. Repetitive sound compression system
US5839098A (en) 1996-12-19 1998-11-17 Lucent Technologies Inc. Speech coder methods and systems
DE19706516C1 (de) * 1997-02-19 1998-01-15 Fraunhofer Ges Forschung Verfahren und Vorricntungen zum Codieren von diskreten Signalen bzw. zum Decodieren von codierten diskreten Signalen
DE19729494C2 (de) 1997-07-10 1999-11-04 Grundig Ag Verfahren und Anordnung zur Codierung und/oder Decodierung von Sprachsignalen, insbesondere für digitale Diktiergeräte
US6044339A (en) * 1997-12-02 2000-03-28 Dspc Israel Ltd. Reduced real-time processing in stochastic celp encoding
US6230129B1 (en) * 1998-11-25 2001-05-08 Matsushita Electric Industrial Co., Ltd. Segment-based similarity method for low complexity speech recognizer
US20040098255A1 (en) * 2002-11-14 2004-05-20 France Telecom Generalized analysis-by-synthesis speech coding method, and coder implementing such method
US8712766B2 (en) * 2006-05-16 2014-04-29 Motorola Mobility Llc Method and system for coding an information signal using closed loop adaptive bit allocation
KR101390110B1 (ko) * 2007-02-22 2014-04-28 삼성전자주식회사 통신 시스템에서 신호 송수신 방법 및 장치
US8521519B2 (en) * 2007-03-02 2013-08-27 Panasonic Corporation Adaptive audio signal source vector quantization device and adaptive audio signal source vector quantization method that search for pitch period based on variable resolution

Family Cites Families (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4876696A (en) * 1986-07-18 1989-10-24 Nec Corporation Transmission system for transmitting multifrequency signals or modem signals with speech signals
US5007093A (en) * 1987-04-03 1991-04-09 At&T Bell Laboratories Adaptive threshold voiced detector
NL8700985A (nl) * 1987-04-27 1988-11-16 Philips Nv Systeem voor sub-band codering van een digitaal audiosignaal.
US4910781A (en) * 1987-06-26 1990-03-20 At&T Bell Laboratories Code excited linear predictive vocoder using virtual searching
EP0342687B1 (en) * 1988-05-20 1995-04-12 Nec Corporation Coded speech communication system having code books for synthesizing small-amplitude components
US5115469A (en) * 1988-06-08 1992-05-19 Fujitsu Limited Speech encoding/decoding apparatus having selected encoders
US4956871A (en) * 1988-09-30 1990-09-11 At&T Bell Laboratories Improving sub-band coding of speech at low bit rates by adding residual speech energy signals to sub-bands
CA2020084C (en) * 1989-06-29 1994-10-18 Kohei Iseda Voice coding/decoding system having selected coders and entropy coders
JPH0398318A (ja) * 1989-09-11 1991-04-23 Fujitsu Ltd 音声符号化方式
US5271089A (en) * 1990-11-02 1993-12-14 Nec Corporation Speech parameter encoding method capable of transmitting a spectrum parameter at a reduced number of bits
US5195137A (en) * 1991-01-28 1993-03-16 At&T Bell Laboratories Method of and apparatus for generating auxiliary information for expediting sparse codebook search
US5233660A (en) * 1991-09-10 1993-08-03 At&T Bell Laboratories Method and apparatus for low-delay celp speech coding and decoding

Also Published As

Publication number Publication date
DE69324732T2 (de) 1999-10-07
ES2132189T3 (es) 1999-08-16
DE69324732D1 (de) 1999-06-10
US5513297A (en) 1996-04-30
JPH0683396A (ja) 1994-03-25
EP0578436A1 (en) 1994-01-12
EP0578436B1 (en) 1999-05-06

Similar Documents

Publication Publication Date Title
KR100209454B1 (ko) 부호화 장치
JP4064236B2 (ja) 広帯域信号コーディング用の代数コードブック中のパルス位置と符号の索引付け方法
JP4005359B2 (ja) 音声符号化及び音声復号化装置
US5359696A (en) Digital speech coder having improved sub-sample resolution long-term predictor
JP3266372B2 (ja) 音声情報符号化方法およびその装置
JPH09120298A (ja) フレーム消失の間の音声復号に使用する音声の有声/無声分類
JPH10187196A (ja) 低ビットレートピッチ遅れコーダ
KR100275429B1 (ko) 음성 부호화 장치
Kroon et al. Predictive coding of speech using analysis-by-synthesis techniques
JPH09120297A (ja) フレーム消失の間のコードブック利得減衰
JPH0944195A (ja) 音声符号化装置
JP3303580B2 (ja) 音声符号化装置
JP3490325B2 (ja) 音声信号符号化方法、復号方法およびその符号化器、復号器
JP3299099B2 (ja) 音声符号化装置
JP2968109B2 (ja) コード励振線形予測符号化器及び復号化器
JPH028900A (ja) 音声符号化復号化方法並びに音声符号化装置及び音声復合化装置
JP3047761B2 (ja) 音声符号化装置
JPH08510572A (ja) 準周期的信号用の送信システム
JP3089967B2 (ja) 音声符号化装置
JP3292227B2 (ja) 符号励振線形予測音声符号化方法及びその復号化方法
JP3006790B2 (ja) 音声符号化復号化方法及びその装置
JPH1049200A (ja) 音声情報圧縮蓄積方法及び装置
JPH05232995A (ja) 一般化された合成による分析音声符号化方法と装置
JP3229784B2 (ja) 音声符号化復号化装置及び音声復号化装置
JP2775533B2 (ja) 音声の長期予測装置

Legal Events

Date Code Title Description
R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20080111

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090111

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100111

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110111

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120111

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130111

Year of fee payment: 11

EXPY Cancellation because of completion of term