JP2001005474A - 音声符号化装置及び方法、入力信号判定方法、音声復号装置及び方法、並びにプログラム提供媒体 - Google Patents
音声符号化装置及び方法、入力信号判定方法、音声復号装置及び方法、並びにプログラム提供媒体Info
- Publication number
- JP2001005474A JP2001005474A JP11173354A JP17335499A JP2001005474A JP 2001005474 A JP2001005474 A JP 2001005474A JP 11173354 A JP11173354 A JP 11173354A JP 17335499 A JP17335499 A JP 17335499A JP 2001005474 A JP2001005474 A JP 2001005474A
- Authority
- JP
- Japan
- Prior art keywords
- section
- background noise
- parameter
- speech
- decoding
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 59
- 238000001228 spectrum Methods 0.000 claims description 42
- 230000005236 sound signal Effects 0.000 claims description 19
- 230000008859 change Effects 0.000 claims description 16
- 230000002123 temporal effect Effects 0.000 claims description 13
- 230000005284 excitation Effects 0.000 claims description 11
- 230000002194 synthesizing effect Effects 0.000 claims description 8
- 230000005540 biological transmission Effects 0.000 abstract description 38
- 238000001914 filtration Methods 0.000 abstract description 6
- 230000003247 decreasing effect Effects 0.000 abstract 1
- 239000013598 vector Substances 0.000 description 33
- 230000015572 biosynthetic process Effects 0.000 description 25
- 238000003786 synthesis reaction Methods 0.000 description 25
- 238000013139 quantization Methods 0.000 description 22
- 230000006870 function Effects 0.000 description 21
- 230000008569 process Effects 0.000 description 19
- 238000006243 chemical reaction Methods 0.000 description 18
- 238000010586 diagram Methods 0.000 description 18
- 238000012545 processing Methods 0.000 description 9
- 238000004891 communication Methods 0.000 description 7
- 238000004364 calculation method Methods 0.000 description 5
- 101100455541 Drosophila melanogaster Lsp2 gene Proteins 0.000 description 4
- 238000011156 evaluation Methods 0.000 description 4
- 238000012937 correction Methods 0.000 description 3
- 239000011159 matrix material Substances 0.000 description 3
- 230000002159 abnormal effect Effects 0.000 description 2
- 230000015556 catabolic process Effects 0.000 description 2
- 238000001514 detection method Methods 0.000 description 2
- 239000000284 extract Substances 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 230000003595 spectral effect Effects 0.000 description 2
- 238000001308 synthesis method Methods 0.000 description 2
- 230000007704 transition Effects 0.000 description 2
- 206010028735 Nasal congestion Diseases 0.000 description 1
- 238000002940 Newton-Raphson method Methods 0.000 description 1
- 230000002411 adverse Effects 0.000 description 1
- 230000000694 effects Effects 0.000 description 1
- 238000009432 framing Methods 0.000 description 1
- 230000005484 gravity Effects 0.000 description 1
- 230000007257 malfunction Effects 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000009418 renovation Methods 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 230000009466 transformation Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/002—Dynamic bit allocation
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/16—Vocoder architecture
- G10L19/18—Vocoders using multiple modes
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/012—Comfort noise or silence coding
Landscapes
- Engineering & Computer Science (AREA)
- Computational Linguistics (AREA)
- Signal Processing (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Multimedia (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
- Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)
Abstract
な意味合いを持つ有声音に比較的多い伝送ビット量を与
え、以下無声音、背景雑音の順にビット数を減らすこと
により総伝送ビット数を抑制し、平均伝送ビット量を少
なくする。 【解決手段】 入力端子1から入力された、フィルタ処
理が施された上記入力音声信号の実効(root mean squa
re、r.m.s)値を演算するr.m.s演算部2と、上記実効値
rmsから実効値の定常レベルを演算する定常レベル演算
部3と、r.m.s演算部2の出力r.m.sを定常レベル演算部
3の出力min_rmsで除算して後述する除算値rmsgを演算
する除算演算子4と、対数振幅差分演算部8からの対数
振幅差分wdifより判定フラグdecflagを出力するファジ
イ推論部9とを備えてなる。
Description
声音区間と有声音区間とでビットレートを可変して符号
化する符号化装置及び方法に関する。また、上記符号化
装置及び方法により符号化されて伝送されてきた符号化
データを復号する復号装置及び方法に関する。また、上
記符号化方法、復号方法をソフトウェア的に実行させる
ためのプログラム提供媒体に関する。
いては、伝送帯域の有効利用を実現するために、伝送し
ようとする入力信号の種類、例えば有声音と無声音区間
に分けられる音声信号区間と、背景雑音区間のような種
類によって、符号化レートを可変してから伝送すること
が考えられるようになった。
号化パラメータを全く送らずに、復号化装置側では、特
に背景雑音を生成することをせずに、単にミュートする
ことが考えられた。
いればその音声には背景雑音が乗っているが、音声を発
しないときには突然無音になってしまうことになるので
不自然な通話となってしまう。
は、背景雑音区間として判断されると符号化のパラメー
タのいくつかを送らずに、復号化装置側では過去のパラ
メータを繰り返し用いて背景雑音を生成するということ
を行っていた。
うに、過去のパラメータをそのまま繰り返し用いると、
雑音自体がピッチを持つような印象を受け、不自然な雑
音になることが多い。これは、レベルなどを変えても、
線スペクトル対(LSP)パラメータが同じである限り
起こってしまう。
ても、LSPパラメータが同一であると、不自然な感じ
を与えてしまう。
であり、音声コーデックにおいて、音声区間中で重要な
意味合いを持つ有声音に比較的多い伝送ビット量を与
え、以下無声音、背景雑音の順にビット数を減らすこと
により総伝送ビット数を抑制でき、平均伝送ビット量を
少なくできる音声符号化装置及び方法、入力信号判定方
法、復号装置及び方法、並びにプログラム提供媒体の提
供を目的とする。
装置は、上記課題を解決するために、入力音声信号の無
声音区間と有声音区間で可変レートによる符号化を行う
音声符号化装置において、時間軸上での入力音声信号を
所定の単位で区分し、この単位で求めた信号レベルとス
ペクトル包絡の時間的な変化に基づいて無声音区間を背
景雑音区間と音声区間に分けて判定する入力信号判定手
段を備え、上記入力信号判定手段で判定された背景雑音
区間のパラメータと、上記音声区間のパラメータと、有
声音区間のパラメータに対する符号化ビットの割り当て
を異ならせることを特徴とする。
記課題を解決するために、入力音声信号の無声音区間と
有声音区間で可変レートによる符号化を行う音声符号化
方法において、時間軸上での入力音声信号を所定の単位
で区分し、この単位で求めた信号レベルとスペクトル包
絡の時間的な変化に基づいて無声音区間を背景雑音区間
と音声区間に分けて判定する入力信号判定工程を備え、
上記入力信号判定工程で判定された背景雑音区間のパラ
メータと、上記音声区間のパラメータと、有声音区間の
パラメータに対する符号化ビットの割り当てを異ならせ
ることを特徴とする。
題を解決するために、時間軸上での入力音声信号を所定
の単位で区分し、この単位で入力信号の信号レベルの時
間的な変化を求める工程と、上記単位でのスペクトル包
絡の時間的な変化を求める工程と、上記信号レベル及び
スペクトル包絡の時間的な変化から背景雑音か否かを判
定する工程とを備えることを特徴とする。
解決するために、音声区間のパラメータと、有声音区間
のパラメータに対する符号化ビットの割り当てが異なっ
て伝送されてきた符号化ビットを復号する復号装置にお
いて、上記符号化ビットから音声区間であるか、又は背
景雑音区間であるかを判定する判定手段と、上記判定手
段で背景雑音区間を示す情報を取り出したときには現在
又は現在及び過去に受信したLPC係数、現在又は現在
及び過去に受信したCELPのゲインインデクス、及び
内部でランダムに生成したCELPのシェイプインデク
スを用いて上記符号化ビットを復号する復号手段とを備
えることを特徴とする。
解決するために、無声音区間のパラメータと、有声音区
間のパラメータに対する符号化ビットの割り当てが異な
って伝送されてきた符号化ビットを復号する復号方法に
おいて、上記符号化ビットから音声区間であるか、又は
背景雑音区間であるかを判定する判定工程と、上記判定
工程で背景雑音区間を示す情報を取り出したときには現
在又は現在及び過去に受信したLPC係数、現在又は現
在及び過去に受信したCELPのゲインインデクス、及
び内部でランダムに生成したCELPのシェイプインデ
クスを用いて上記符号化ビットを復号する復号工程とを
備えることを特徴とする。
課題を解決するために、入力音声信号の無声音区間と有
声音区間で可変レートによる符号化を行う音声符号化プ
ログラムを提供するプログラム提供媒体において、時間
軸上での入力音声信号を所定の単位で区分し、この単位
で求めた信号レベルとスペクトル包絡の時間的な変化に
基づいて無声音区間を背景雑音区間と音声区間に分けて
判定する入力信号判定工程を備え、上記入力信号判定工
程で判定された背景雑音区間のパラメータと、上記音声
区間のパラメータと、有声音区間のパラメータに対する
符号化ビットの割り当てを異ならせるプログラムを提供
することを特徴とする。
は、上記課題を解決するために、無声音区間のパラメー
タと、有声音区間のパラメータに対する符号化ビットの
割り当てが異なって伝送されてきた符号化ビットを復号
するための復号プログラムを提供するためのプログラム
提供媒体において、上記符号化ビットから音声区間であ
るか、又は背景雑音区間であるかを判定する判定工程
と、上記判定工程で背景雑音区間を示す情報を取り出し
たときには現在又は現在及び過去に受信したLPC係
数、現在又は現在及び過去に受信したCELPのゲイン
インデクス、及び内部でランダムに生成したCELPの
シェイプインデクスを用いて上記符号化ビットを復号す
る復号工程とを備えるプログラムを提供することを特徴
とする。
び方法、並びに音声復号装置及び方法の実施の形態につ
いて図面を参照しながら説明する。
ことにより符号化パラメータを求め、それらを伝送した
後、受信側で音声を合成するシステムが挙げられる。特
に、送信側では入力音声の性質に応じて符号化のモード
分けを行い、ビットレートを可変とすることで伝送ビッ
トレートの平均値を小さくする。
電話装置が挙げられる。この携帯電話装置は、本発明に
係る符号化装置及び方法、並びに復号装置及び方法を図
1に示すような、音声符号化装置20、並びに音声復号
化装置31として用いる。
声音(UnVoiced:UV)区間のビットレートを有声音
(Voiced:V)区間のビットレートより少なくする符号
化を行う。更に、無声音区間において背景雑音区間(非
音声区間)と音声区間を判定し、非音声区間においては
更に低いビットレートにより符号化を行う。また、非音
声区間と音声区間とを判定しフラグにより復号化装置3
1側に伝える。
信号の中の無声音区間又は有声音区間の判定、又は無声
音区間の非音声区間と音声区間の判定は入力信号判定部
21aが行う。この入力信号判定部21aの詳細につい
ては後述する。
ホン1から入力された音声信号は、A/D変換器10に
よりディジタル信号に変換され、音声符号化装置20に
より可変レートの符号化が施され、伝送路符号化器22
により伝送路の品質が音声品質に影響を受けにくいよう
に符号化された後、変調器23で変調され、送信機24
で送信処理が施され、アンテナ共用器25を通して、ア
ンテナ26から送信される。
声区間であるか、非音声区間であるかを示すフラグを受
信するとともに、非音声区間においては、現在又は現在
及び過去に受信したLPC係数、現在又は現在及び過去
に受信したCELP(符号励起線形予測)のゲインイン
デクス、及び復号器内部でランダムに生成したCELP
のシェイプインデクスを用いて復号する。
26で捉えられた電波は、アンテナ共用器25を通じて
受信機27で受信され、復調器29で復調され、伝送路
復号化器30で伝送路誤りが訂正され、音声復号化装置
31で復号され、D/A変換器32でアナログ音声信号
に戻されて、スピーカ33から出力される。
ルし、シンセサイザ28は送受信周波数を送信機24、
及び受信機27に与えている。また、キーパッド35及
びLCD表示器36はマンマシンインターフェースに利
用される。
図2及び図3を用いて説明する。図2は音声符号化装置
20内部にあって、入力信号判定部21aとパラメータ
制御部21bを除いた符号化部の詳細な構成図である。
また、図3は入力信号判定部21aとパラメータ制御部
21bの詳細な構成図である。
ングされた音声信号が供給される。この入力音声信号
は、ハイパスフィルタ(HPF)109にて不要な帯域
の信号を除去するフィルタ処理が施された後、入力信号
判定部21aと、LPC(線形予測符号化)分析・量子
化部113のLPC分析回路132と、LPC逆フィル
タ回路111に送られる。
に、入力端子1から入力された、フィルタ処理が施され
た上記入力音声信号の実効(root mean square、r.m.
s)値を演算するr.m.s演算部2と、上記実効値rmsから
実効値の定常レベルを演算する定常レベル演算部3と、
r.m.s演算部2の出力r.m.sを定常レベル演算部3の出力
min_rmsで除算して後述する除算値rmsgを演算する除算
演算子4と、入力端子1からの入力音声信号をLPC分析
し、LPC係数α(m)を求めるLPC分析部5と、LPC分析部5
からのLPC係数α(m)をLPCケプストラム係数CL(m)に変換
するLPCケプストラム係数演算部6と、LPCケプストラム
係数演算部6のLPCケプストラム係数CL(m)から平均対数
振幅logAmp(i)を求める対数振幅演算部7と、対数振幅
演算部7の平均対数振幅logAmp(i)から対数振幅差分wdi
fを求める対数振幅差分演算部8と、除算演算子4から
のrmsgと、対数振幅差分演算部8からの対数振幅差分wd
ifより判定フラグdecflagを出力するファジイ推論部9
とを備えてなる。なお、図3には説明の都合上、上記入
力音声信号から後述するidVUV判定結果を出力するV/UV
判定部115を含むと共に、各種パラメータを符号化し
て出力する図2に示す符号化部を音声符号化器13とし
て示している。
UV判定部115からのidVUV判定結果と上記ファジイ推
論部9からの判定結果decflagを基に背景雑音カウンタb
gnCnt、背景雑音周期カウンタbgnIntvlをセットするカ
ウンタ制御部11と、カウンタ制御部11からのbgnInt
vlと上記idVUV判定結果よりidVUVパラメータと、更新フ
ラグFlagを決定し、出力端子106から出力するパラメ
ータ生成部12とを備えてなる。
タ制御部21bの上記各部の詳細な動作について説明す
る。先ず、入力信号判定部21aの各部は以下の通りに
動作する。
た上記入力音声信号を20msec毎のフレーム(160サンプ
ル)に分割する。そして、音声分析については互いにオ
ーバーラップする32msec(256サンプル)で実行する。
ここで入力信号s(n)を8分割して区間電力ene(i)を次の
(1)式から求める。
の比ratioを最大にする境界mを次の(2)式又は
(3)式により求める。ここで(2)式は前半が後半よ
り大きいときの比ratioであり、(3)式は後半が前半
より大きいときの比ratioである。
後半の大きいほうの平均電力より信号の実効値rmsを次
の(4)式あるいは(5)式から求める。(4)式は前
半が後半より大きいときの実効値rmsであり、(5)式
は後半が前半より大きいときの実効値rmsである。
ら図4に示すフローチャートにしたがって実効値の定常
レベルを演算する。ステップS1で過去のフレームの実
効値rmsの安定状態に基づくカウンタst_cntが4以上で
あるか否かを判断し、4以上であればステップS2に進
み、過去の連続する4フレームのrmsの中2番目に大き
いものをnear_rmsとする。次に、ステップS3でそれ以
前のrmsであるfar_rms(i)(i=0,1)とnear_rmsより最小
の値minvalを求める。
S4で定常的なrmsである値min_rmsより大きいとき、ス
テップS5に進み、min_rmsを次の(6)式に示す通り
に更新する。
(7)式、(8)式に示すように更新する。
TD_LEVELの内、小さい方をmax_valとする。ここ
で、STD_LEVELは-30dB位の信号レベルに相当
する値とする。これは、現在のrmsがかなりレベルの高
いものであるとき誤動作しないように、上限を決定する
ためのものである。そして、ステップS8でmaxvalをmi
n_rmsと比較してmin_rmsを以下の通り更新する。すなわ
ち、maxvalがmin_rmsより小さいときにはステップS9
で(9)式に示すように、また、maxvalがmin_rms以上
であるときにはステップS10で(10)式に示すよう
にmin_rmsを少しだけ更新する。
ベルMIN_LEVELより小さいときmin_rms=MIN_LEVELとす
る。MIN_LEVELは−66dB位の信号レベルに相当する値と
する。
信号レベルの比ratioが4より小さく、rmsがSTD_LEVEL
より小さいときにはフレームの信号は安定しているので
ステップS13に進んで安定性を示すカウンタst_cntを
1歩進し、そうでないときには安定性が乏しいのでステ
ップS14に進んでst_cnt=0とする。このようにして
目的とする定常のrmsを得ることができる。
を定常レベル演算部3の出力min_rmsで除算してrmsgを
演算する。すなわち、このrmsgは定常的なrmsに対して
今のrmsがどの程度のレベルであるのかを示すものであ
る。
(n)より短期予測(LPC)係数α(m)(m=1,・・・,10)
を求める。なお、音声符号化器13内部でのLPC分析に
より求めたLPC係数α(m)を用いることもできる。LPCケ
プストラム係数演算部6は上記LPC係数α(m)をLPCケプ
ストラム係数CL(m)に変換する。
L(m)より対数二乗振幅特性ln|HL(ejΩ)|2を次の(1
1)式より求めることができる。
上限を無限大でなく16までとし、さらに積分を求める
ことにより区間平均logAmp(i)を次の(12)及び(1
3)式より求める。ところで、CL(0)=0なので省略す
る。
00Hz(=π/8)としている。ここでは、logAmp(i)につい
ては0〜2kHzまでを500Hzずつ4等分したi=0, ,3まで
計算する。
論部9の説明に移る。本発明では、無音、背景雑音の検
出にはファジイ理論を用いる。このファジイ推論部9
は、上記除算演算子4がrmsをmin_rmsで割って得た値rm
sgと、後述する対数振幅差分演算部8からのwdifを用い
て判定フラグdecflagを出力する。
ールを示すが上段(a)については無音、背景雑音(bac
kground noise)についてのルール、中段(b)は主に雑
音パラメータ更新(parameter renovation)のためのルー
ル、下段(c)は音声(speech)のためのルールである。
また、この中で、左列はrmsのためのメンバシップ関
数、中列はスペクトル包絡のためのメンバシップ関数、
右列は推論結果である。
により上記rmsを上記min_rmsで割って得られた値rmsgを
図5の左列に示すメンバシップ関数で分類する。ここ
で、上段からメンバシップ関数μAi1(x1)(i=1,2,3)を図
6に示すように定義する。なお、x1=rmsgとする。すな
わち、図5の左列に示すメンバシップ関数は、上段
(a)、中段(b)、下段(c)の順に、図6に示すμ
A11(x1)、μA21(x1)、μA31(x1)と定義される。
(例えば4)フレーム分のスペクトルの対数振幅logAmp
(i)を保持し、その平均であるaveAmp(i)を求め、それと
現在ののlogAmp(i)の差分の2乗和wdifを次の(14)
式から求める。
8が上記のように求めたwdifを図5の中列に示すメンバ
シップ関数で分類する。ここで、上段からメンバシップ
関数μAi2(x2)(i=1,2,3)を図7に示すように定義する。
なお、x2=wdifとする。すなわち、図5の中列に示すメ
ンバシップ関数は、上段(a)、中段(b)、下段
(c)の順に、図7に示すμA12(x2)、μA22(x2)、μ
A32(x2)と定義される。ところで、ここでもしrmsが既
出の定数MIN_LEVEL(無音レベル)より小さい時には図
7には従わず、μA12(x2)=1、μA22(x2)=μ
A32(x2)=0とする。なぜなら、信号が微妙になると
き、スペクトルの変動が通常以上に大きく、差別の妨げ
となるからである。
Aij(xj)より推論結果であるメンバシップ関数μBi(y)を
以下に説明するように求める。先ず、図5の上中下段そ
れぞれのμAi1(x1)とμAi2(x2)より小さい方を次の(1
5)式に示すようにその段のμBi(y)とする。しかし、
ここで音声を示すメンバシップ関数μA31(x1)とμA32(x
2)のどちらかが1となるとき、μB1(y)=μB2(y)=0,μB3
(y)=1と出力する構成を追加してもよい。
Bi(y)は図5の右列の関数の値に当たるものである。こ
こでメンバシップ関数μBi(y)を図8に示すように定義
する。すなわち、図5の右列に示すメンバシップ関数
は、上段(a)、中段(b)、下段(c)の順に、図8
に示すμB1(y)、μB2(y)、μB3(y)と定義される。
するが、次の(16)式に示すような面積法による判定
を行う。
のメンバシップ関数の重心であり、図5においては上
段、中段、下段の順に、0.1389、0.5、0.8611となって
いる。また、Siは面積にあたる。S1〜S2はメンバシップ
関数μBi(y)を用いて次の(17)、(18)、(1
9)式より求められる。
により判定フラグdecFlagの出力値を次のように定義す
る。
ある。decFlag=2はパラメータを更新すべき背景雑音を
示す結果である。また、decFlag=1は音声を判別した結
果である。
35であったとする。これよりμAij(xj),μAi2(x2),μ
Bi(y)は以下のように求まる。
なり結局y*=0.6785となりdecFlag=1となる。すなわち、
音声とする。
ある。引き続き、パラメータ制御部21bの各部の詳細
な動作について説明する。
15からのidVUV判定結果と上記ファジイ推論部9から
のdecflagを基に背景雑音カウンタbgnCnt、背景雑音周
期カウンタbgnIntvlをセットする。
11からのbgnIntvlと上記idVUV判定結果よりidVUVパラ
メータと、更新フラグFlagを決定し、出力端子106か
ら伝送する。
トを図10及び図11に分けて示す。背景雑音カウンタ
bgnCnt、背景雑音周期カウンタbgnIntvl(いずれも初期
値0)を定義する。先ず、図10のステップS21で入
力信号の分析結果が無声音(idVUV=0)の場合、ステップ
S22及びステップS24を通してdecFlag=0ならステ
ップS25に進んで背景雑音カウンタbgnCntを1歩進
し、decFlag=2ならbgnCntを保持する。ステップS26
でbgnCntが定数BGN_CNT(例えば6)より大きいときステ
ップS27に進み、idVUVが背景雑音を示す値1にセッ
トされる。また、ステップS28でdecFlag=0のときに
はbgnIntvlをステップS29で1歩進させ、ここでステ
ップS31でbgnIntvlが定数BGN_INTVL(例えば16)
に等しいときステップS32に進んでbgnIntvl=0にセッ
トされる。また、ステップS28でdecFlag=2のとき、
ステップS30に進み、bgnIntvl=0にセットされる。
=2,3)の場合、或いはステップS22でdecFlag=1の場
合、ステップS23に進み、bgnCnt=0,bgnIntvl=0にセ
ットされる。
いは背景雑音(idVUV=0,1)の場合、もしステップS35
で無声音(idVUV=0)なら、ステップS36で無声音パラ
メータが出力される。
かつステップS37でbgnIntvl=0なら、ステップS38
から背景雑音パラメータ(BGN=Back Ground Noise)が出
力される。一方、ステップS37でbgnIntvl>0ならば
ステップS39に進みヘッダビッドのみが送信される。
で、上位2ビットはidVUVビットそのものがセットされ
るが、背景雑音期間(idVUV=1)の場合もし更新フレーム
でないなら次の1ビットに0、更新フレームであるなら
次の1ビットに1をセットする。
VXC(Harmonic Vector Excitation Coding)を例にとり、
各条件での符号化ビットの内訳を図12に示す。
時、背景雑音非更新時にそれぞれ2ビット符号化され
る。更新フラグには背景雑音更新時、背景雑音非更新時
にそれぞれ1ビットが割り当てられる。
LSP4,LSP5に分けられる。LSP0は10次のLSPパ
ラメータのコードブックインデクスであり、エンベロー
プの基本的なパラメータとして使われ、20msecのフレ
ームでは5ビットが割り当てられる。LSP2は5次の低
周波数域誤差補正のLSPパラメータのコードブックイ
ンデクスであり、7ビットが割り当てられる。LSP3は
5次の高周波数域誤差補正のLSPパラメータのコード
ブックインデクスであり、5ビットが割り当てられる。
LSP5は10次の全帯域誤差補正のLSPパラメータの
コードブックインデクスであり、8ビットが割り当てら
れる。このうち、LSP2,LSP3及びLSP5は前の段階で
の誤差を埋めてやるために使われるインデクスであり、
特に、LSP2とLSP3はLSP0でエンベロープを表現しき
れなかったときに補助的に用いられる。LSP4は符号化
時の符号化モードが直接モード(straight mode)であ
るか、差分モード(differential mode)であるかの1
ビットの選択フラグである。元々の波形から分析して求
めたオリジナルのLSPパラメータに対する、量子化に
より求めた直接モードのLSPと、量子化された差分に
より求めたLSPの差の少ない方のモードの選択を示
す。LSP4が0であるときには直接モードであり、LSP4
が1であるときには差分モードである。
号化ビットとする。無声音及び背景雑音更新時はLSP
5を除いた符号化ビットとする。背景雑音非更新時はL
SP符号化ビットを送らない。特に、背景雑音更新時の
LSP符号化ビットは直近3フレームのLSPパラメー
タの平均をとったものを量子化して得られた符号化ビッ
トとする。
7ビットの符号化ビットとされる。スペクトルエンベロ
ープのコードブックパラメータidSは、idS0で記される
第0LPC残差スペクトルコードブックインデクスとidS1
で記される第1LPC残差スペクトルコードブックインデ
スクに分けられる。有声音時に共に4ビットの符号化ビ
ットとされる。また、雑音コードブックインデクスidSL
00やidSL01は、無声音時に6ビット符号化される。
ックインデスクidGは有声音時に、5ビットの符号化ビ
ットとされる。また、雑音コードブックゲインインデク
スidGL00やidGL11には無声音時にそれぞれ4ビット
の符号化ビットが割り当てられる。背景雑音更新時には
idGL00に4ビットのみの符号化ビットが割り当てられ
る。この背景雑音更新時のidGL004ビットについても
直近4フレーム(8サブフレーム)のCelpゲインの平均
をとったものを量子化して得られた符号化ビットとす
る。
差スペクトルコードブックインデクスと、idS1_4kで記
される第1拡張LPC残差スペクトルコードブックインデ
クスと、idS2_4kで記される第2拡張LPC残差スペクト
ルコードブックインデクスと、idS3_4kで記される第3
拡張LPC残差スペクトルコードブックインデクスには、
有声音時に、7ビット、10ビット、9ビット、6ビッ
トが符号化ビットとして割り当てられる。
音時は40ビット、背景雑音更新時は25ビット、背景
雑音非更新時は3ビットがトータルビットとして割り当
てられる。
を生成する音声符号化器について上記図2を用いて詳細
に説明する。
ハイパスフィルタ(HPF)109にて不要な帯域の信
号を除去するフィルタ処理が施された後、上述したよう
に入力信号判定部21aに送られると共に、LPC(線
形予測符号化)分析・量子化部113のLPC分析回路
132と、LPC逆フィルタ回路111とに送られる。
回路132は、上述したように入力音声信号波形の25
6サンプル程度の長さを1ブロックとしてハミング窓を
かけて、自己相関法により線形予測係数、いわゆるαパ
ラメータを求める。データ出力の単位となるフレーミン
グの間隔は、160サンプル程度とする。サンプリング
周波数fsが例えば8kHzのとき、1フレーム間隔は1
60サンプルで20msec となる。
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
ラメータは、LSP量子化器134によりマトリクスあ
るいはベクトル量子化される。このとき、フレーム間差
分をとってからベクトル量子化してもよく、複数フレー
ム分をまとめてマトリクス量子化してもよい。ここで
は、20msec を1フレームとし、20msec 毎に算出
されるLSPパラメータを2フレーム分まとめて、マト
リクス量子化及びベクトル量子化している。
力、すなわちLSP量子化のインデクスは、端子102
を介して取り出され、また量子化済みのLSPベクトル
は、LSP補間回路136に送られる。
あるいは40msec 毎に量子化されたLSPのベクトル
を補間し、8倍のレートにする。すなわち、2.5mse
c 毎にLSPベクトルが更新されるようにする。これ
は、残差波形をハーモニック符号化復号化方法により分
析合成すると、その合成波形のエンベロープは非常にな
だらかでスムーズな波形になるため、LPC係数が20
msec 毎に急激に変化すると異音を発生することがある
からである。すなわち、2.5msec 毎にLPC係数が
徐々に変化してゆくようにすれば、このような異音の発
生を防ぐことができる。
のLSPベクトルを用いて入力音声の逆フィルタリング
を実行するために、LSP→α変換回路137により、
LSPパラメータを例えば10次程度の直接型フィルタ
の係数であるαパラメータに変換する。このLSP→α
変換回路137からの出力は、上記LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec 毎に更新されるαパラメータにより逆フィ
ルタリング処理を行って、滑らかな出力を得るようにし
ている。このLPC逆フィルタ111からの出力は、サ
イン波分析符号化部114、具体的には例えばハーモニ
ック符号化回路、の直交変換回路145、例えばDFT
(離散フーリエ変換)回路に送られる。
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付きの合
成フィルタ122とに送られる。
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニクスの振幅Amの算出、有
声音(V)/無声音(UV)の判別を行い、ピッチによ
って変化するハーモニクスのエンベロープあるいは振幅
Amの個数を次元変換して一定数にしている。
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation: マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明中のフレーム毎の
V/UVとは、MBE符号化に適用した場合には全バン
ドがUVのときを当該フレームのUVとしている。ここ
で上記MBEの分析合成手法については、本件出願人が
先に提案した特願平4−91422号明細書及び図面に
詳細な具体例を開示している。
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p) が取り出され、
V/UV(有声音/無声音)判定部115に送られてい
る。
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、上記
粗ピッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な小数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析 (Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、スイッチ118を介して出力端子10
4に送っている。
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニクスの大きさ及びその集合であるスペ
クトルエンベロープが評価され、高精度ピッチサーチ部
146、V/UV(有声音/無声音)判定部115及び
聴覚重み付きのベクトル量子化器116に送られる。
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r(p)
と、ゼロクロスカウンタ142からのゼロクロスカウン
ト値とに基づいて、当該フレームのV/UV判定が行わ
れる。さらに、MBEの場合の各バンド毎のV/UV判
定結果の境界位置も当該フレームのV/UV判定の一条
件としてもよい。このV/UV判定部115からの判定
出力は、出力端子105を介して取り出される。
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、上記ピッチに応じて
周波数軸上での分割帯域数が異なり、データ数が異なる
ことを考慮して、エンベロープの振幅データ|Am|を
一定の個数にするためのものである。すなわち、例えば
有効帯域を3400kHzまでとすると、この有効帯域が
上記ピッチに応じて、8バンド〜63バンドに分割され
ることになり、これらの各バンド毎に得られる上記振幅
データ|Am|の個数mMX+1も8〜63と変化するこ
とになる。このためデータ数変換部119では、この可
変個数mMX+1の振幅データを一定個数M個、例えば4
4個、のデータに変換している。
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの上記一定個数M個(例えば44個)の
振幅データあるいはエンベロープデータが、ベクトル量
子化器116により、所定個数、例えば44個のデータ
毎にまとめられてベクトルとされ、重み付きベクトル量
子化が施される。この重みは、聴覚重み付けフィルタ算
出回路139からの出力により与えられる。ベクトル量
子化器116からの上記エンベロープのインデクスidS
は、スイッチ117を介して出力端子103より取り出
される。なお、上記重み付きベクトル量子化に先だっ
て、所定個数のデータから成るベクトルについて適当な
リーク係数を用いたフレーム間差分をとっておくように
してもよい。
測)符号化構成を有している符号化部について説明す
る。この符号化部は入力音声信号の無声音部分の符号化
のために用いられている。この無声音部分用のCELP
符号化構成において、雑音コードブック、いわゆるスト
キャスティック・コードブック(stochastic code boo
k)121からの代表値出力である無声音のLPC残差
に相当するノイズ出力を、ゲイン回路126を介して、
聴覚重み付きの合成フィルタ122に送っている。重み
付きの合成フィルタ122では、入力されたノイズをL
PC合成処理し、得られた重み付き無声音の信号を減算
器123に送っている。減算器123には、上記入力端
子101からHPF(ハイパスフィルタ)109を介し
て供給された音声信号を聴覚重み付けフィルタ125で
聴覚重み付けした信号が入力されており、合成フィルタ
122からの信号との差分あるいは誤差を取り出してい
る。なお、聴覚重み付けフィルタ125の出力から聴覚
重み付き合成フィルタの零入力応答を事前に差し引いて
おくものとする。この誤差を距離計算回路124に送っ
て距離計算を行い、誤差が最小となるような代表値ベク
トルを雑音コードブック121でサーチする。このよう
な合成による分析(Analysis by Synthesis )法を用い
たクローズドループサーチを用いた時間軸波形のベクト
ル量子化を行っている。
からのUV(無声音)部分用のデータとしては、雑音コ
ードブック121からのコードブックのシェイプインデ
クスidSlと、ゲイン回路126からのコードブックのゲ
インインデクスidGlとが取り出される。雑音コードブッ
ク121からのUVデータであるシェイプインデクスid
Slは、スイッチ127sを介して出力端子107sに送
られ、ゲイン回路126のUVデータであるゲインイン
デクスidGlは、スイッチ127gを介して出力端子10
7gに送られている。
7g及び上記スイッチ117、118は、上記V/UV
判定部115からのV/UV判定結果によりオン/オフ
制御され、スイッチ117、118は、現在伝送しよう
とするフレームの音声信号のV/UV判定結果が有声音
(V)のときオンとなり、スイッチ127s、127g
は、現在伝送しようとするフレームの音声信号が無声音
(UV)のときオンとなる。
り、可変レートで符号化された各パラメータ、すなわ
ち、LSPパラメータLSP、有声音/無声音判定パラメ
ータidVUV、ピッチパラメータPCH、スペクトルエンベロ
ープのコードブックパラメータidS及びゲインインデク
スidG、雑音コードブックパラメータidSl及びゲインイ
ンデクスidGlは、上記図1に示す伝送路符号化器22に
より伝送路の品質が音声品質に影響を受けにくいように
符号化された後、変調器23で変調され、送信機24で
送信処理が施され、アンテナ共用器25を通して、アン
テナ26から送信される。また、上記パラメータは、上
述したようにパラメータ制御部21bのパラメータ生成
部12にも供給される。そして、パラメータ生成部12
は、V/UV判定部115からの判定結果idVUVと、上記パ
ラメータと、カウンタ制御部11からのbgnIntvlを用い
てidVUV、更新フラグを生成する。また、パラメータ制
御部21bは、もしV/UV判定部115から背景雑音であ
るというidVUV=1が送られてきたときには、LSP量子
化部134にLSP量子化の方法である差分モード(LS
P4=1)を禁止し、直接モード(LSP4=0)で量
子化を行うように制御する。
信側の音声復号化装置31について詳細に説明する。音
声復号化装置31には、アンテナ26で捉えられ、アン
テナ共用器25を通じて受信機27で受信され、復調器
29で復調され、伝送路復号化器30で伝送路誤りが訂
正された受信ビットが入力される。
13に示す。この音声復号化装置は、入力端子200か
ら入力された受信ビットからヘッダビットを取り出し、
図16に従ってidVUVと更新フラグを分離すると共に、
符号ビット(code bits)を出力するヘッダビット解釈
部201と、上記idVUVと更新フラグより後述するスイ
ッチ243及びスイッチ248の切り換えを制御する切
り換え制御部241と、後述するシーケンスでLPCパ
ラメータ、もしくはLSPパラメータを決定するLPC
パラメータ再生制御部240と、上記符号ビット中のL
SPインデクスよりLPCパラメータを再生するLPC
パラメータ再生部213と、上記符号ビットを個々のパ
ラメータインデクスに分解する符号ビット解釈部209
と、切り換え制御部241により切り換えが制御され、
背景雑音更新フレームを受信したとき閉じられ、それ以
外は開くスイッチ248と、切り換え制御部241によ
り切り換えが制御され、会計雑音更新フレームを受信し
た場合、RAM244方向に閉じられ、それ以外はヘッ
ダビット解釈部201方向に閉じられるスイッチ243
と、UVシェイプインデクスを乱数により発生する乱数
発生器208と、無声音を合成する無声音合成部220
と、エンベロープインデクスよりエンベロープを逆ベク
トル量子化する逆ベクトル量子化部212と、idVUV、
ピッチ、エンベロープより有声音を合成する有声音合成
部211と、LPC合成フィルタ214と、背景雑音更
新フレーム受信時に符号ビットを保持し、背景雑音非更
新フレーム受信時に符号ビットを供給するRAM244
とを備える。
端子200を介して供給された受信ビットからヘッドビ
ットを取り出し、idVUVと更新フラグFlagを分離して当
フレームのビット数を認識する。また、後続のビットの
存在する場合、符号ビットとして出力する。もし図16
に示したヘッダビット構成の上位2ビットが00なら無声
音(Unvoiced speech)と分かるので次の38ビットを読
み取る。また、上位2ビットが01なら背景雑音(BGN)と
分かるので次の1ビットが0なら背景雑音の非更新フレ
ームであるのでそこで終わり、もち次の1ビットが1な
ら背景雑音の更新フレームを読み取るため次の22ビッ
トを読み取る。もし、上位2ビットが10/11なら有声音
と分かるので次の78ビットを読み取る。
フラグを見て、もしidVUV=1のとき、更新フラグFlag=1
ならば更新なのでスイッチ248を閉じ、符号ビットを
RAM244に供給し、同時にスイッチ243をヘッダ
ビット解釈部201側に閉じ符号ビットを符号ビット解
釈部209に供給し、逆に更新フラグFlag=0ならば非更
新なのでスイッチ248を開き、さらにスイッチ243
をRAM244側に閉じて更新時の符号ビットを供給す
る。idVUV≠0の場合、スイッチ248は開き、スイッチ
243が上方に閉じる。
解釈部201からスイッチ243を介して入力された符
号ビットを個々のパラメータインデクス、すなわちLS
Pインデクス、ピッチ、エンベロープインデクス、UV
ゲインインデクス、UVシェイプインデクスに分解す
る。
クスを乱数により発生するが、スイッチ249がidVUV=
1である背景雑音フレームを受信したとき、切り換え制
御部241より閉じられ、無声音合成部220に供給す
る。idVUV≠1なら符号ビット解釈部209よりスイッチ
249を通じて無声音合成部220にUVシェイプイン
デクスを供給する。
部に図示しない切り換え制御部と、インデクス判定部と
を備え、切り換え制御部にてidVUVを検出し、その検出
結果に基づいてLPCパラメータ再生部213の動作を
制御する。詳細については後述する。
成部220、逆ベクトル量子化部212、有声音合成部
211及びLPC合成フィルタ214は、音声復号化器
31の基本的な部分である。図14に、この基本的な部
分とその周辺の構成を示す。
ル量子化出力、いわゆるコードブックのインデクスが供
給されている。
ータ再生部213に送られる。LPCパラメータ再生部
213は、上述したように符号ビットの内のLSPイン
デクスよりLPCパラメータを再生するが、LPCパラ
メータ再生制御部240の内部の図示しない上記切り換
え制御部によって制御される。
いて説明する。LPCパラメータ再生部213は、LS
Pの逆量子化器231と、切り換えスイッチ251と、
LSP補間回路232(V用)及び233(UV用)
と、LSP→α変換回路234(V用)及び235(U
V用)と、スイッチ252と、RAM253と、フレー
ム補間回路245と、LSP補間回路246(BGN
用)と、LSP→α変換回路247(BGN用)とを備
えてなる。
デクスよりLSPパラメータを逆量子化する。このLS
Pの逆量子化器231における、LSPパラメータの生
成について説明する。ここでは、背景雑音カウンタbgnI
ntvl(初期値0)を導入する。有声音(idVUV=2,3)あるい
は無声音(idVUV=0)の場合、通常の復号処理でLSPパ
ラメータを生成する。
フレームの場合bgnIntvl=0とし、そうでないならbgnInt
vlを1歩進させる。ただし、bgnIntvlを1歩進させるこ
とで後述する定数BGN_INTVL_RXと等しくなる場合は、bg
nIntvlを1歩進させない。
ラメータを生成する。ここで更新フレームの直前に受信
されたLSPパラメータをqLSP(prev)(1, ,10)、更新
フレームで受信されたLSPパラメータをqLSP(curr)(1,
,10)、補間により生成するLSPパラメータをqLSP(1,
,10)とし、次の(20)式により求める。
はbgnIntvlと乱数rnd(=-3, 3)を用いて次の(21)
式により生成するが、もしbgnIntvl’<0のときbgnIntv
l’=bgnIntvl、bgnIntvl'≧BGN_INTVL_RXのとき、bgnIn
tvl’=bgnIntvlとする。
中の図示しない切り換え制御部はV/UVパラメータdV
UV、更新フラグFlagを元にLPCパラメータ再生部21
3内部のスイッチ251及び252を制御する。
方端子に、idVUV=1のとき下方端子に切り換わる。スイ
ッチ252は更新フラグFlag=1、つまり背景雑音更新フ
レームの時、閉じられてLSPパラメータがRAM25
3に供給され、qLSP(prev)がqLSP(curr)により更新され
た後、qLSP(curr)を更新する。RAM253は、qLSP(p
rev)、qLSP(curr)を保持する。
qLSP(prev)より内部カウンタbgnIntvlを用いてqLSPを生
成する。LSP補間回路246は、LSPを補間する。
LSP→α変換回路247はBGN用LSPをαに変換す
る。
によるLPCパラメータ再生部213の制御の詳細につ
いて図15のフローチャートを用いて説明する。
の切り換え制御部においてステップS41でV/UV判
定パラメータidVUVを検出し、0ならステップS42に進
み、LSP補間回路233でLSP補間し、さらにステ
ップS43に進んでLSP→α変換回路235でLSP
をαに変換する。
テップS44で更新フラグFlag=1ならば、更新フレーム
であるので、ステップS45においてフレーム補間回路
245でbgnIntvl=0とする。
り、かつステップS46でbgnIntvl<BGN_INTVL_RX_1
であるなら、ステップS47に進み、bgnIntvlを1歩進
させる。
245によりbgnIntvl’を乱数rndを発生させて求め
る。ただし、ステップS49でbgnIntvl’<0かbgnIntv
l'≧BGN_INTVL_RXのとき、ステップS50でbgnIntvl’
=bgnIntvlとする。
245によりLSPをフレーム補間し、ステップS52
でLSP補間回路246によりLSP補間し、ステップ
S53でLSP→α変換回路247によりLSPをαに
変換する。
なら、ステップS54に進み、LSP補間回路232で
LSP補間し、ステップS55でLSP→α変換回路2
34によりLSPをαに変換する。
部分のLPC合成フィルタ236と、無声音部分のLP
C合成フィルタ237とを分離している。すなわち、有
声音部分と無声音部分とでLPCの係数補間を独立に行
うようにして、有声音から無声音への遷移部や、無声音
から有声音への遷移部で、全く性質の異なるLSP同士
を補間することによる悪影響を防止している。
ルエンベロープ(Am)の重み付けベクトル量子化され
たコードインデクスデータが供給され、入力端子204
には、上記ピッチパラメータPCHのデータが供給され、
入力端子205には、上記V/UV判定データidUVUが
供給されている。
ープAmのベクトル量子化されたインデクスデータは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
が施され、上記データ数変換に対応する逆変換が施され
て、スペクトルエンベロープのデータとなって、有声音
合成部211のサイン波合成回路215に送られてい
る。
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行い、スペクトルエンベ
ロープのデータを得る。
04からのピッチ及び入力端子205からの上記V/U
V判定データidVUVが供給されている。サイン波合成回
路215からは、上記図2に示したLPC逆フィルタ1
11からの出力に相当するLPC残差データが取り出さ
れ、これが加算器218に送られている。このサイン波
合成の具体的な手法については、例えば本件出願人が先
に提案した、特願平4−91422号の明細書及び図
面、あるいは特願平6−198451号の明細書及び図
面に開示されている。
ンベロープのデータと、入力端子204、205からの
ピッチ、V/UV判定データidVUVとは、有声音(V)
部分のノイズ加算のためのノイズ合成回路216に送ら
れている。このノイズ合成回路216からの出力は、重
み付き重畳加算回路217を介して加算器218に送っ
ている。これは、サイン波合成によって有声音のLPC
合成フィルタへの入力となるエクサイテイション(Exci
tation:励起、励振)を作ると、男声等の低いピッチの
音で鼻づまり感がある点、及びV(有声音)とUV(無
声音)とで音質が急激に変化し不自然に感じる場合があ
る点を考慮し、有声音部分のLPC合成フィルタ入力す
なわちエクサイテイションについて、音声符号化データ
に基づくパラメータ、例えばピッチ、スペクトルエンベ
ロープ振幅、フレーム内の最大振幅、残差信号のレベル
等を考慮したノイズをLPC残差信号の有声音部分に加
えているものである。
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
7gには、符号ビット解釈部209で符号ビットから分
解された、UVデータとしてのシェイプインデクス及び
ゲインインデクスがそれぞれ供給される。ゲインインデ
クスは、無声音合成部220に送られている。端子20
7sからのシェイプインデクスは、切り換えスイッチ2
49の被選択端子に送られている。この切り換えスイッ
チ249のもう一つの被選択端子には乱数発生器208
からの出力が供給される。そして、背景雑音フレームを
受信したときには上記図13に示した切り換え制御部2
41の制御により、スイッチ249が乱数発生器208
側に閉じられ、無声音合成部220には乱数発生器20
8からのシェイプインデクスが供給される。また、idVU
V≠1なら符号ビット解釈部209よりスイッチ249を
通してシェイプインデクスが供給される。
声音(idVUV=2,3)或いは無声音(idVUV=0)の場合には通常
の復号処理により励起信号を生成するが、背景雑音(idV
UV=1)の場合にはCelpのシェイプインデクスidSL00,idS
L01を乱数rnd(=0, ,N_SHAPE_L0_1)を発生させて生
成する。ここで、N_SHAPE_L0_1は、Celp シェイプコー
ドベクタの数である。さらに、Celpゲインインデクスid
GL00,idGL01は更新フレーム中のidGL00を両サブフレー
ムに適用する。
例となる符号化装置と、復号装置及び方法の具体例とな
る復号装置を備えた携帯電話装置について説明してきた
が、本発明は携帯電話装置の符号化装置、復号装置にの
み適用が限定されるものではない。例えば、伝送システ
ムにも適用できる。
(システムとは、複数の装置が論理的に集合したものを
いい、各構成の装置が同一筐体中にあるか否かは問わな
い)の一実施の形態の構成例を示している。
ライアント端末63が備え、上記符号化装置をサーバ6
1が備えている。クライアント端末63とサーバ61
は、例えば、インターネットや、ISDN(Integrated
Service Digital Network)、LAN(Local Area Net
work)、PSTN(Public Switched Telephone Networ
k) などのネットワーク62で接続されている。
て、ネットワーク62を介して、例えば、曲などのオー
ディオ信号の要求があると、サーバ61において、その
要求のあった曲に対応するオーディオ信号の符号化パラ
メータを、入力音声の性質に応じて符号化のモード分け
を行い、ネットワーク62を介して、クライアント端末
63に伝送する。クライアント端末63では、上記復号
方法に応じてサーバー61から伝送路誤りに対して保護
されてきた符号化パラメータを復号して例えばスピーカ
のような出力装置から音声として出力する。
ェア構成例を示している。
えば、IPL(Initial Program Loading) プログラム
などが記憶されている。CPU(Central Processing U
nit)72は、例えば、ROM71に記憶されているI
PLプログラムにしたがって、外部記憶装置76に記憶
(記録)されたOS(Operating System)のプログラム
を実行し、さらに、そのOSの制御の下、外部記憶装置
76に記憶された所定のアプリケーションプログラムを
実行することで、入力信号の性質に応じた符号化モード
で符号化を行いビットレートを可変とし、クライアント
端末63への送信処理などを行う。RAM(Random Acc
ess Memory)73は、CPU72の動作上必要なプログ
ラムやデータなどを記憶する。入力装置74は、例え
ば、キーボードやマウス、マイク、外部インターフェー
スなどで構成され、必要なデータやコマンドを入力する
ときに操作される。さらに、入力装置74は、外部か
ら、クライアント端末63に対して提供するディジタル
オーディオ信号の入力を受け付けるインターフェースと
しても機能するようになされている。出力装置75は、
例えば、ディスプレイや、スピーカ、プリンタなどで構
成され、必要な情報を表示、出力する。外部記憶装置7
6は、例えば、ハードディスクなどでなり、上述したO
Sや所定のアプリケーションプログラムなどを記憶して
いる。また、外部記憶装置76は、その他、CPU72
の動作上必要なデータなども記憶する。通信装置77
は、ネットワーク62を介しての通信に必要な制御を行
う。
アプリケーションプログラムとは、上記図1に示した、
音声符号化器3と、伝送路符号化器4と、変調器7の機
能をCPU72に実行させるためのプログラムである。
末63のハードウェア構成例を示している。
通信装置87で構成され、上述したROM71乃至通信
装置77で構成されるサーバ61と基本的に同様に構成
されている。
ションプログラムとして、サーバ61からの符号化デー
タを復号するための、本発明に係る復号方法を実行する
ためのプログラムや、その他の後述するような処理を行
うためのプログラムなどが記憶されており、CPU82
では、これらのアプリケーションプログラムが実行され
ることで、伝送ビットレートが可変とされた符号化デー
タの復号、再生処理などが行われるようになされてい
る。
1に示した、復調器13と、伝送路復号化器14と、音
声復号化器17の機能をCPU82に実行させるための
アプリケーションプログラムが記憶されている。
部記憶装置86に記憶されている復号方法を、上記図1
に示したハードウェア構成を必要とせず、ソフトウェア
として実現することができる。
憶装置86にサーバ61から伝送されてきた上記符号化
データを記憶しておいて所望の時間にその符号化データ
を読み出して上記復号方法を実行し所望の時間に音声を
出力装置85から出力するようにしてもよい。また、上
記符号化データを外部記憶装置86とは別の外部記憶装
置、例えば光磁気ディスクや他の記録媒体に記録してお
いてもよい。
バ61の外部記憶装置76としても、光記録媒体、光磁
気記録媒体、磁気記録媒体等の記録可能な媒体を使用し
て、この記録媒体に符号化された符号化データを記録し
ておいてもよい。
て、音声区間中で重要な意味合いを持つ有声音に比較的
多い伝送ビット量を与え、以下無声音、背景雑音の順に
ビット数を減らすことにより総伝送ビット数を抑制で
き、平均伝送ビット量を少なくできる。
を示すブロック図である。
内部にあって、入力信号判定部とパラメータ制御部を除
いた詳細な構成図である。
成図である。
チャートである。
ための図である。
ンバシップ関数の特性図である。
ンバシップ関数の特性図である。
プ関数の特性図である。
図である。
決める処理の一部を示すフローチャートである。
決める処理の残りの一部を示すフローチャートである。
C(Harmonic Vector Excitation Coding)を例にとり、各
条件での符号化ビットの内訳を示す図である。
図である。
構成を示すブロック図である。
ラメータ再生部の制御の詳細を示すフローチャートであ
る。
図である。
ク図である。
末のブロック図である。
イ推論部、11 カウンタ制御部、12 パラメータ生
成部、21a 入力信号判定部、21b パラメータ制
御部
Claims (15)
- 【請求項1】 入力音声信号の無声音区間と有声音区間
で可変レートによる符号化を行う音声符号化装置におい
て、 時間軸上での入力音声信号を所定の単位で区分し、この
単位で求めた信号レベルとスペクトル包絡の時間的な変
化に基づいて無声音区間を背景雑音区間と音声区間に分
けて判定する入力信号判定手段を備え、 上記入力信号判定手段で判定された背景雑音区間のパラ
メータと、上記音声区間のパラメータと、有声音区間の
パラメータに対する符号化ビットの割り当てを異ならせ
ることを特徴とする音声符号化装置。 - 【請求項2】 上記無声音区間のパラメータに対するビ
ットレートを上記有声音区間のパラメータに対するビッ
トレートより少なくすることを特徴とする請求項1記載
の音声符号化装置。 - 【請求項3】 上記背景雑音区間のパラメータに対する
ビットレートを上記音声区間のパラメータに対するビッ
トレートより少なくすることを特徴とする請求項1記載
の音声符号化装置。 - 【請求項4】 上記背景雑音区間において背景雑音パラ
メータの更新の有無を示す情報を、背景雑音区間の信号
レベル及びスペクトル包絡の時間的な変化に基づいて制
御して生成することを特徴とする請求項1記載の音声符
号化装置。 - 【請求項5】 上記背景雑音区間の信号レベル及びスペ
クトル包絡の時間的な変化量が小さいときには、背景雑
音区間を示す情報及び背景雑音パラメータの非更新を示
す情報を送出し、その変化量が大きいときには背景雑音
区間を示す情報及と更新した背景雑音パラメータと背景
雑音パラメータが更新されたことを示す情報とを送出す
ることを特徴とする請求項1記載の音声符号化装置。 - 【請求項6】 背景雑音区間における背景雑音を表現す
るパラメータの一定時間以上の連続を制限するため、少
なくともある一定時間の長さで背景雑音パラメータを更
新することを特徴とする請求項5記載の音声符号化装
置。 - 【請求項7】 上記背景雑音パラメータはスペクトル包
絡を示すLPC係数、及びCELPの励起信号のゲイン
パラメータのインデクスからなることを特徴とする請求
項6記載の音声符号化装置。 - 【請求項8】 入力音声信号の無声音区間と有声音区間
で可変レートによる符号化を行う音声符号化方法におい
て、 時間軸上での入力音声信号を所定の単位で区分し、この
単位で求めた信号レベルとスペクトル包絡の時間的な変
化に基づいて無声音区間を背景雑音区間と音声区間に分
けて判定する入力信号判定工程を備え、 上記入力信号判定工程で判定された背景雑音区間のパラ
メータと、上記音声区間のパラメータと、有声音区間の
パラメータに対する符号化ビットの割り当てを異ならせ
ることを特徴とする音声符号化方法。 - 【請求項9】 時間軸上での入力音声信号を所定の単位
で区分し、この単位で入力信号の信号レベルの時間的な
変化を求める工程と、 上記単位でのスペクトル包絡の時間的な変化を求める工
程と、 上記信号レベル及びスペクトル包絡の時間的な変化から
背景雑音か否かを判定する工程とを備えることを特徴と
する入力信号判定方法。 - 【請求項10】 ファジイ推論を用いて背景雑音か否か
を判定することを特徴とする請求項9記載の入力信号判
定方法。 - 【請求項11】 音声区間のパラメータと、有声音区間
のパラメータに対する符号化ビットの割り当てが異なっ
て伝送されてきた符号化ビットを復号する復号装置にお
いて、 上記符号化ビットから音声区間であるか、又は背景雑音
区間であるかを判定する判定手段と、 上記判定手段で背景雑音区間を示す情報を取り出したと
きには現在又は現在及び過去に受信したLPC係数、現
在又は現在及び過去に受信したCELPのゲインインデ
クス、及び内部でランダムに生成したCELPのシェイ
プインデクスを用いて上記符号化ビットを復号する復号
手段とを備えることを特徴とする復号装置。 - 【請求項12】 上記復号手段は、上記判定手段で背景
雑音区間と判定された区間においては、過去に受信した
LPC係数と現在受信したLPC係数、または過去に受
信したLPC係数同士を補間して生成したLPC係数を
用いて背景雑音区間の信号を合成するときに、LPC係
数を補間する補間係数の生成に乱数を用いることを特徴
とする請求項11記載の復号装置。 - 【請求項13】 無声音区間のパラメータと、有声音区
間のパラメータに対する符号化ビットの割り当てが異な
って伝送されてきた符号化ビットを復号する復号方法に
おいて、 上記符号化ビットから音声区間であるか、又は背景雑音
区間であるかを判定する判定工程と、 上記判定工程で背景雑音区間を示す情報を取り出したと
きには現在又は現在及び過去に受信したLPC係数、現
在又は現在及び過去に受信したCELPのゲインインデ
クス、及び内部でランダムに生成したCELPのシェイ
プインデクスを用いて上記符号化ビットを復号する復号
工程とを備えることを特徴とする復号方法。 - 【請求項14】 入力音声信号の無声音区間と有声音区
間で可変レートによる符号化を行う音声符号化プログラ
ムを提供するプログラム提供媒体において、 時間軸上での入力音声信号を所定の単位で区分し、この
単位で求めた信号レベルとスペクトル包絡の時間的な変
化に基づいて無声音区間を背景雑音区間と音声区間に分
けて判定する入力信号判定工程を備え、 上記入力信号判定工程で判定された背景雑音区間のパラ
メータと、上記音声区間のパラメータと、有声音区間の
パラメータに対する符号化ビットの割り当てを異ならせ
るプログラムを提供することを特徴とするプログラム提
供媒体。 - 【請求項15】 無声音区間のパラメータと、有声音区
間のパラメータに対する符号化ビットの割り当てが異な
って伝送されてきた符号化ビットを復号するための復号
プログラムを提供するためのプログラム提供媒体におい
て、 上記符号化ビットから音声区間であるか、又は背景雑音
区間であるかを判定する判定工程と、 上記判定工程で背景雑音区間を示す情報を取り出したと
きには現在又は現在及び過去に受信したLPC係数、現
在又は現在及び過去に受信したCELPのゲインインデ
クス、及び内部でランダムに生成したCELPのシェイ
プインデクスを用いて上記符号化ビットを復号する復号
工程とを備えるプログラムを提供することを特徴とする
プログラム提供媒体。
Priority Applications (9)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17335499A JP4438127B2 (ja) | 1999-06-18 | 1999-06-18 | 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体 |
EP05014448A EP1598811B1 (en) | 1999-06-18 | 2000-06-15 | Decoding apparatus and method |
EP00305073A EP1061506B1 (en) | 1999-06-18 | 2000-06-15 | Variable rate speech coding |
DE60038914T DE60038914D1 (de) | 1999-06-18 | 2000-06-15 | Dekodierungsvorrichtung und Dekodierungsverfahren |
DE60027956T DE60027956T2 (de) | 1999-06-18 | 2000-06-15 | Sprachkodierung mit variabler BIT-Rate |
KR1020000033295A KR100767456B1 (ko) | 1999-06-18 | 2000-06-16 | 음성부호화장치 및 방법, 입력신호 판정방법,음성복호장치 및 방법 및 프로그램 제공매체 |
CNB001262777A CN1135527C (zh) | 1999-06-18 | 2000-06-17 | 语音编码方法和装置,输入信号判别方法,语音解码方法和装置以及程序提供介质 |
TW089111963A TW521261B (en) | 1999-06-18 | 2000-06-17 | Speech encoding method and apparatus, input signal verifying method, speech decoding method and apparatus and program furnishing medium |
US09/595,400 US6654718B1 (en) | 1999-06-18 | 2000-06-17 | Speech encoding method and apparatus, input signal discriminating method, speech decoding method and apparatus and program furnishing medium |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP17335499A JP4438127B2 (ja) | 1999-06-18 | 1999-06-18 | 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体 |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2001005474A true JP2001005474A (ja) | 2001-01-12 |
JP4438127B2 JP4438127B2 (ja) | 2010-03-24 |
Family
ID=15958866
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP17335499A Expired - Lifetime JP4438127B2 (ja) | 1999-06-18 | 1999-06-18 | 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体 |
Country Status (7)
Country | Link |
---|---|
US (1) | US6654718B1 (ja) |
EP (2) | EP1598811B1 (ja) |
JP (1) | JP4438127B2 (ja) |
KR (1) | KR100767456B1 (ja) |
CN (1) | CN1135527C (ja) |
DE (2) | DE60038914D1 (ja) |
TW (1) | TW521261B (ja) |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009545778A (ja) * | 2006-07-31 | 2009-12-24 | クゥアルコム・インコーポレイテッド | 非アクティブフレームの広帯域符号化および復号化を行うためのシステム、方法、および装置 |
JP2010515085A (ja) * | 2006-12-27 | 2010-05-06 | インテル・コーポレーション | 音声セグメンテーションの方法および装置 |
JP2013117729A (ja) * | 2005-02-01 | 2013-06-13 | Qualcomm Inc | 背景雑音情報の断続伝送及び正確な再生の方法 |
Families Citing this family (20)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7644003B2 (en) | 2001-05-04 | 2010-01-05 | Agere Systems Inc. | Cue-based audio coding/decoding |
US7386449B2 (en) | 2002-12-11 | 2008-06-10 | Voice Enabling Systems Technology Inc. | Knowledge-based flexible natural speech dialogue system |
EP1630798A4 (en) * | 2003-01-30 | 2008-09-24 | Matsushita Electric Ind Co Ltd | OPTICAL HEAD AND DEVICE AND SYSTEM WITH SUCH OPTICAL HEAD |
US7805313B2 (en) | 2004-03-04 | 2010-09-28 | Agere Systems Inc. | Frequency-based coding of channels in parametric multi-channel coding systems |
US7720230B2 (en) | 2004-10-20 | 2010-05-18 | Agere Systems, Inc. | Individual channel shaping for BCC schemes and the like |
US8204261B2 (en) | 2004-10-20 | 2012-06-19 | Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. | Diffuse sound shaping for BCC schemes and the like |
US7787631B2 (en) | 2004-11-30 | 2010-08-31 | Agere Systems Inc. | Parametric coding of spatial audio with cues based on transmitted channels |
JP5106115B2 (ja) | 2004-11-30 | 2012-12-26 | アギア システムズ インコーポレーテッド | オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング |
DE602005017302D1 (de) | 2004-11-30 | 2009-12-03 | Agere Systems Inc | Synchronisierung von parametrischer raumtonkodierung mit extern bereitgestelltem downmix |
US7903824B2 (en) | 2005-01-10 | 2011-03-08 | Agere Systems Inc. | Compact side information for parametric coding of spatial audio |
JP4572123B2 (ja) | 2005-02-28 | 2010-10-27 | 日本電気株式会社 | 音源供給装置及び音源供給方法 |
JP4793539B2 (ja) * | 2005-03-29 | 2011-10-12 | 日本電気株式会社 | 符号変換方法及び装置とプログラム並びにその記憶媒体 |
EP1984911A4 (en) * | 2006-01-18 | 2012-03-14 | Lg Electronics Inc | DEVICE AND METHOD FOR SIGNAL CODING AND DECODING |
KR101244310B1 (ko) * | 2006-06-21 | 2013-03-18 | 삼성전자주식회사 | 광대역 부호화 및 복호화 방법 및 장치 |
US8725499B2 (en) | 2006-07-31 | 2014-05-13 | Qualcomm Incorporated | Systems, methods, and apparatus for signal change detection |
KR101413967B1 (ko) * | 2008-01-29 | 2014-07-01 | 삼성전자주식회사 | 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치 |
CN101582263B (zh) * | 2008-05-12 | 2012-02-01 | 华为技术有限公司 | 语音解码中噪音增强后处理的方法和装置 |
TWI591620B (zh) * | 2012-03-21 | 2017-07-11 | 三星電子股份有限公司 | 產生高頻雜訊的方法 |
CN103581603B (zh) * | 2012-07-24 | 2017-06-27 | 联想(北京)有限公司 | 一种多媒体数据的传输方法及电子设备 |
US9357215B2 (en) * | 2013-02-12 | 2016-05-31 | Michael Boden | Audio output distribution |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5341456A (en) * | 1992-12-02 | 1994-08-23 | Qualcomm Incorporated | Method for determining speech encoding rate in a variable rate vocoder |
JPH06332492A (ja) * | 1993-05-19 | 1994-12-02 | Matsushita Electric Ind Co Ltd | 音声検出方法および検出装置 |
TW271524B (ja) * | 1994-08-05 | 1996-03-01 | Qualcomm Inc | |
JPH08102687A (ja) * | 1994-09-29 | 1996-04-16 | Yamaha Corp | 音声送受信方式 |
US6148282A (en) * | 1997-01-02 | 2000-11-14 | Texas Instruments Incorporated | Multimodal code-excited linear prediction (CELP) coder and method using peakiness measure |
US6202046B1 (en) * | 1997-01-23 | 2001-03-13 | Kabushiki Kaisha Toshiba | Background noise/speech classification method |
US6167375A (en) * | 1997-03-17 | 2000-12-26 | Kabushiki Kaisha Toshiba | Method for encoding and decoding a speech signal including background noise |
JP3273599B2 (ja) * | 1998-06-19 | 2002-04-08 | 沖電気工業株式会社 | 音声符号化レート選択器と音声符号化装置 |
US6691084B2 (en) * | 1998-12-21 | 2004-02-10 | Qualcomm Incorporated | Multiple mode variable rate speech coding |
-
1999
- 1999-06-18 JP JP17335499A patent/JP4438127B2/ja not_active Expired - Lifetime
-
2000
- 2000-06-15 DE DE60038914T patent/DE60038914D1/de not_active Expired - Lifetime
- 2000-06-15 EP EP05014448A patent/EP1598811B1/en not_active Expired - Lifetime
- 2000-06-15 DE DE60027956T patent/DE60027956T2/de not_active Expired - Lifetime
- 2000-06-15 EP EP00305073A patent/EP1061506B1/en not_active Expired - Lifetime
- 2000-06-16 KR KR1020000033295A patent/KR100767456B1/ko not_active IP Right Cessation
- 2000-06-17 TW TW089111963A patent/TW521261B/zh not_active IP Right Cessation
- 2000-06-17 CN CNB001262777A patent/CN1135527C/zh not_active Expired - Lifetime
- 2000-06-17 US US09/595,400 patent/US6654718B1/en not_active Expired - Lifetime
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2013117729A (ja) * | 2005-02-01 | 2013-06-13 | Qualcomm Inc | 背景雑音情報の断続伝送及び正確な再生の方法 |
JP2009545778A (ja) * | 2006-07-31 | 2009-12-24 | クゥアルコム・インコーポレイテッド | 非アクティブフレームの広帯域符号化および復号化を行うためのシステム、方法、および装置 |
US8260609B2 (en) | 2006-07-31 | 2012-09-04 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband encoding and decoding of inactive frames |
US9324333B2 (en) | 2006-07-31 | 2016-04-26 | Qualcomm Incorporated | Systems, methods, and apparatus for wideband encoding and decoding of inactive frames |
JP2010515085A (ja) * | 2006-12-27 | 2010-05-06 | インテル・コーポレーション | 音声セグメンテーションの方法および装置 |
US8442822B2 (en) | 2006-12-27 | 2013-05-14 | Intel Corporation | Method and apparatus for speech segmentation |
US20130238328A1 (en) * | 2006-12-27 | 2013-09-12 | Robert Du | Method and Apparatus for Speech Segmentation |
US8775182B2 (en) * | 2006-12-27 | 2014-07-08 | Intel Corporation | Method and apparatus for speech segmentation |
Also Published As
Publication number | Publication date |
---|---|
TW521261B (en) | 2003-02-21 |
JP4438127B2 (ja) | 2010-03-24 |
EP1598811B1 (en) | 2008-05-14 |
KR100767456B1 (ko) | 2007-10-16 |
EP1061506B1 (en) | 2006-05-17 |
EP1061506A3 (en) | 2003-08-13 |
KR20010007416A (ko) | 2001-01-26 |
EP1061506A2 (en) | 2000-12-20 |
EP1598811A2 (en) | 2005-11-23 |
DE60038914D1 (de) | 2008-06-26 |
US6654718B1 (en) | 2003-11-25 |
DE60027956D1 (de) | 2006-06-22 |
EP1598811A3 (en) | 2005-12-14 |
DE60027956T2 (de) | 2007-04-19 |
CN1282952A (zh) | 2001-02-07 |
CN1135527C (zh) | 2004-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4438127B2 (ja) | 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体 | |
JP4218134B2 (ja) | 復号装置及び方法、並びにプログラム提供媒体 | |
JP3653826B2 (ja) | 音声復号化方法及び装置 | |
JP4132109B2 (ja) | 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置 | |
US5574823A (en) | Frequency selective harmonic coding | |
JP4121578B2 (ja) | 音声分析方法、音声符号化方法および装置 | |
JP4040126B2 (ja) | 音声復号化方法および装置 | |
JP2002533772A (ja) | 可変レートスピーチコーディング | |
JPH1091194A (ja) | 音声復号化方法及び装置 | |
JPH09127991A (ja) | 音声符号化方法及び装置、音声復号化方法及び装置 | |
WO2014131260A1 (en) | System and method for post excitation enhancement for low bit rate speech coding | |
KR100421648B1 (ko) | 음성코딩을 위한 적응성 표준 | |
JPH10105194A (ja) | ピッチ検出方法、音声信号符号化方法および装置 | |
KR20020039555A (ko) | 음성부호화기의 유/무성음정보 추정방법 | |
JPH10207491A (ja) | 背景音/音声分類方法、有声/無声分類方法および背景音復号方法 | |
JPH10105195A (ja) | ピッチ検出方法、音声信号符号化方法および装置 | |
US7536298B2 (en) | Method of comfort noise generation for speech communication | |
JP4230550B2 (ja) | 音声符号化方法及び装置、並びに音声復号化方法及び装置 | |
JP3232701B2 (ja) | 音声符号化方法 | |
JP3496618B2 (ja) | 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法 | |
JP3896654B2 (ja) | 音声信号区間検出方法及び装置 | |
JP4826580B2 (ja) | 音声信号の再生方法及び装置 | |
JPH09244695A (ja) | 音声符号化装置及び復号化装置 | |
JP3350340B2 (ja) | 音声符号化方法および音声復号化方法 | |
JP2001343984A (ja) | 有音/無音判定装置、音声復号化装置及び音声復号化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20060309 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090526 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20090727 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090929 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091118 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091215 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091228 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130115 Year of fee payment: 3 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 4438127 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130115 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
EXPY | Cancellation because of completion of term |