JP2001005474A - 音声符号化装置及び方法、入力信号判定方法、音声復号装置及び方法、並びにプログラム提供媒体 - Google Patents

音声符号化装置及び方法、入力信号判定方法、音声復号装置及び方法、並びにプログラム提供媒体

Info

Publication number
JP2001005474A
JP2001005474A JP11173354A JP17335499A JP2001005474A JP 2001005474 A JP2001005474 A JP 2001005474A JP 11173354 A JP11173354 A JP 11173354A JP 17335499 A JP17335499 A JP 17335499A JP 2001005474 A JP2001005474 A JP 2001005474A
Authority
JP
Japan
Prior art keywords
section
background noise
parameter
speech
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP11173354A
Other languages
English (en)
Other versions
JP4438127B2 (ja
Inventor
Yuji Maeda
祐児 前田
Masayuki Nishiguchi
正之 西口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP17335499A priority Critical patent/JP4438127B2/ja
Application filed by Sony Corp filed Critical Sony Corp
Priority to DE60027956T priority patent/DE60027956T2/de
Priority to EP05014448A priority patent/EP1598811B1/en
Priority to EP00305073A priority patent/EP1061506B1/en
Priority to DE60038914T priority patent/DE60038914D1/de
Priority to KR1020000033295A priority patent/KR100767456B1/ko
Priority to CNB001262777A priority patent/CN1135527C/zh
Priority to TW089111963A priority patent/TW521261B/zh
Priority to US09/595,400 priority patent/US6654718B1/en
Publication of JP2001005474A publication Critical patent/JP2001005474A/ja
Application granted granted Critical
Publication of JP4438127B2 publication Critical patent/JP4438127B2/ja
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/002Dynamic bit allocation
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding

Landscapes

  • Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Transmission Systems Not Characterized By The Medium Used For Transmission (AREA)

Abstract

(57)【要約】 【課題】 音声コーデックにおいて、音声区間中で重要
な意味合いを持つ有声音に比較的多い伝送ビット量を与
え、以下無声音、背景雑音の順にビット数を減らすこと
により総伝送ビット数を抑制し、平均伝送ビット量を少
なくする。 【解決手段】 入力端子1から入力された、フィルタ処
理が施された上記入力音声信号の実効(root mean squa
re、r.m.s)値を演算するr.m.s演算部2と、上記実効値
rmsから実効値の定常レベルを演算する定常レベル演算
部3と、r.m.s演算部2の出力r.m.sを定常レベル演算部
3の出力min_rmsで除算して後述する除算値rmsgを演算
する除算演算子4と、対数振幅差分演算部8からの対数
振幅差分wdifより判定フラグdecflagを出力するファジ
イ推論部9とを備えてなる。

Description

【発明の詳細な説明】
【0001】
【発明の属する技術分野】本発明は、入力音声信号の無
声音区間と有声音区間とでビットレートを可変して符号
化する符号化装置及び方法に関する。また、上記符号化
装置及び方法により符号化されて伝送されてきた符号化
データを復号する復号装置及び方法に関する。また、上
記符号化方法、復号方法をソフトウェア的に実行させる
ためのプログラム提供媒体に関する。
【0002】
【従来の技術】近年、伝送路を必要とする通信分野にお
いては、伝送帯域の有効利用を実現するために、伝送し
ようとする入力信号の種類、例えば有声音と無声音区間
に分けられる音声信号区間と、背景雑音区間のような種
類によって、符号化レートを可変してから伝送すること
が考えられるようになった。
【0003】例えば、背景雑音区間と判断されると、符
号化パラメータを全く送らずに、復号化装置側では、特
に背景雑音を生成することをせずに、単にミュートする
ことが考えられた。
【0004】しかし、これでは通信相手が音声を発して
いればその音声には背景雑音が乗っているが、音声を発
しないときには突然無音になってしまうことになるので
不自然な通話となってしまう。
【0005】そのため、可変レートコーデックにおいて
は、背景雑音区間として判断されると符号化のパラメー
タのいくつかを送らずに、復号化装置側では過去のパラ
メータを繰り返し用いて背景雑音を生成するということ
を行っていた。
【0006】
【発明が解決しようとする課題】ところで、上述したよ
うに、過去のパラメータをそのまま繰り返し用いると、
雑音自体がピッチを持つような印象を受け、不自然な雑
音になることが多い。これは、レベルなどを変えても、
線スペクトル対(LSP)パラメータが同じである限り
起こってしまう。
【0007】他のパラメータを乱数等で変えるようにし
ても、LSPパラメータが同一であると、不自然な感じ
を与えてしまう。
【0008】本発明は、上記実情に鑑みてなされたもの
であり、音声コーデックにおいて、音声区間中で重要な
意味合いを持つ有声音に比較的多い伝送ビット量を与
え、以下無声音、背景雑音の順にビット数を減らすこと
により総伝送ビット数を抑制でき、平均伝送ビット量を
少なくできる音声符号化装置及び方法、入力信号判定方
法、復号装置及び方法、並びにプログラム提供媒体の提
供を目的とする。
【0009】
【課題を解決するための手段】本発明に係る音声符号化
装置は、上記課題を解決するために、入力音声信号の無
声音区間と有声音区間で可変レートによる符号化を行う
音声符号化装置において、時間軸上での入力音声信号を
所定の単位で区分し、この単位で求めた信号レベルとス
ペクトル包絡の時間的な変化に基づいて無声音区間を背
景雑音区間と音声区間に分けて判定する入力信号判定手
段を備え、上記入力信号判定手段で判定された背景雑音
区間のパラメータと、上記音声区間のパラメータと、有
声音区間のパラメータに対する符号化ビットの割り当て
を異ならせることを特徴とする。
【0010】また、本発明に係る音声符号化方法は、上
記課題を解決するために、入力音声信号の無声音区間と
有声音区間で可変レートによる符号化を行う音声符号化
方法において、時間軸上での入力音声信号を所定の単位
で区分し、この単位で求めた信号レベルとスペクトル包
絡の時間的な変化に基づいて無声音区間を背景雑音区間
と音声区間に分けて判定する入力信号判定工程を備え、
上記入力信号判定工程で判定された背景雑音区間のパラ
メータと、上記音声区間のパラメータと、有声音区間の
パラメータに対する符号化ビットの割り当てを異ならせ
ることを特徴とする。
【0011】本発明に係る入力信号判定方法は、上記課
題を解決するために、時間軸上での入力音声信号を所定
の単位で区分し、この単位で入力信号の信号レベルの時
間的な変化を求める工程と、上記単位でのスペクトル包
絡の時間的な変化を求める工程と、上記信号レベル及び
スペクトル包絡の時間的な変化から背景雑音か否かを判
定する工程とを備えることを特徴とする。
【0012】本発明に係る音声復号装置は、上記課題を
解決するために、音声区間のパラメータと、有声音区間
のパラメータに対する符号化ビットの割り当てが異なっ
て伝送されてきた符号化ビットを復号する復号装置にお
いて、上記符号化ビットから音声区間であるか、又は背
景雑音区間であるかを判定する判定手段と、上記判定手
段で背景雑音区間を示す情報を取り出したときには現在
又は現在及び過去に受信したLPC係数、現在又は現在
及び過去に受信したCELPのゲインインデクス、及び
内部でランダムに生成したCELPのシェイプインデク
スを用いて上記符号化ビットを復号する復号手段とを備
えることを特徴とする。
【0013】本発明に係る音声復号方法は、上記課題を
解決するために、無声音区間のパラメータと、有声音区
間のパラメータに対する符号化ビットの割り当てが異な
って伝送されてきた符号化ビットを復号する復号方法に
おいて、上記符号化ビットから音声区間であるか、又は
背景雑音区間であるかを判定する判定工程と、上記判定
工程で背景雑音区間を示す情報を取り出したときには現
在又は現在及び過去に受信したLPC係数、現在又は現
在及び過去に受信したCELPのゲインインデクス、及
び内部でランダムに生成したCELPのシェイプインデ
クスを用いて上記符号化ビットを復号する復号工程とを
備えることを特徴とする。
【0014】本発明に係るプログラム提供媒体は、上記
課題を解決するために、入力音声信号の無声音区間と有
声音区間で可変レートによる符号化を行う音声符号化プ
ログラムを提供するプログラム提供媒体において、時間
軸上での入力音声信号を所定の単位で区分し、この単位
で求めた信号レベルとスペクトル包絡の時間的な変化に
基づいて無声音区間を背景雑音区間と音声区間に分けて
判定する入力信号判定工程を備え、上記入力信号判定工
程で判定された背景雑音区間のパラメータと、上記音声
区間のパラメータと、有声音区間のパラメータに対する
符号化ビットの割り当てを異ならせるプログラムを提供
することを特徴とする。
【0015】また、本発明に係るプログラム提供媒体
は、上記課題を解決するために、無声音区間のパラメー
タと、有声音区間のパラメータに対する符号化ビットの
割り当てが異なって伝送されてきた符号化ビットを復号
するための復号プログラムを提供するためのプログラム
提供媒体において、上記符号化ビットから音声区間であ
るか、又は背景雑音区間であるかを判定する判定工程
と、上記判定工程で背景雑音区間を示す情報を取り出し
たときには現在又は現在及び過去に受信したLPC係
数、現在又は現在及び過去に受信したCELPのゲイン
インデクス、及び内部でランダムに生成したCELPの
シェイプインデクスを用いて上記符号化ビットを復号す
る復号工程とを備えるプログラムを提供することを特徴
とする。
【0016】
【発明の実施の形態】以下、本発明に係る符号化装置及
び方法、並びに音声復号装置及び方法の実施の形態につ
いて図面を参照しながら説明する。
【0017】基本的には、主に送信側で音声を分析する
ことにより符号化パラメータを求め、それらを伝送した
後、受信側で音声を合成するシステムが挙げられる。特
に、送信側では入力音声の性質に応じて符号化のモード
分けを行い、ビットレートを可変とすることで伝送ビッ
トレートの平均値を小さくする。
【0018】具体例としては、図1に構成を示す、携帯
電話装置が挙げられる。この携帯電話装置は、本発明に
係る符号化装置及び方法、並びに復号装置及び方法を図
1に示すような、音声符号化装置20、並びに音声復号
化装置31として用いる。
【0019】音声符号化装置20は、入力音声信号の無
声音(UnVoiced:UV)区間のビットレートを有声音
(Voiced:V)区間のビットレートより少なくする符号
化を行う。更に、無声音区間において背景雑音区間(非
音声区間)と音声区間を判定し、非音声区間においては
更に低いビットレートにより符号化を行う。また、非音
声区間と音声区間とを判定しフラグにより復号化装置3
1側に伝える。
【0020】この音声符号化装置20内部で、入力音声
信号の中の無声音区間又は有声音区間の判定、又は無声
音区間の非音声区間と音声区間の判定は入力信号判定部
21aが行う。この入力信号判定部21aの詳細につい
ては後述する。
【0021】先ず、送信側の構成を説明する。マイクロ
ホン1から入力された音声信号は、A/D変換器10に
よりディジタル信号に変換され、音声符号化装置20に
より可変レートの符号化が施され、伝送路符号化器22
により伝送路の品質が音声品質に影響を受けにくいよう
に符号化された後、変調器23で変調され、送信機24
で送信処理が施され、アンテナ共用器25を通して、ア
ンテナ26から送信される。
【0022】一方、受信側の音声復号化装置31は、音
声区間であるか、非音声区間であるかを示すフラグを受
信するとともに、非音声区間においては、現在又は現在
及び過去に受信したLPC係数、現在又は現在及び過去
に受信したCELP(符号励起線形予測)のゲインイン
デクス、及び復号器内部でランダムに生成したCELP
のシェイプインデクスを用いて復号する。
【0023】受信側の構成について説明する。アンテナ
26で捉えられた電波は、アンテナ共用器25を通じて
受信機27で受信され、復調器29で復調され、伝送路
復号化器30で伝送路誤りが訂正され、音声復号化装置
31で復号され、D/A変換器32でアナログ音声信号
に戻されて、スピーカ33から出力される。
【0024】また、制御部34は上記各部をコントロー
ルし、シンセサイザ28は送受信周波数を送信機24、
及び受信機27に与えている。また、キーパッド35及
びLCD表示器36はマンマシンインターフェースに利
用される。
【0025】次に、音声符号化装置20の詳細について
図2及び図3を用いて説明する。図2は音声符号化装置
20内部にあって、入力信号判定部21aとパラメータ
制御部21bを除いた符号化部の詳細な構成図である。
また、図3は入力信号判定部21aとパラメータ制御部
21bの詳細な構成図である。
【0026】先ず、入力端子101には8KHzサンプリ
ングされた音声信号が供給される。この入力音声信号
は、ハイパスフィルタ(HPF)109にて不要な帯域
の信号を除去するフィルタ処理が施された後、入力信号
判定部21aと、LPC(線形予測符号化)分析・量子
化部113のLPC分析回路132と、LPC逆フィル
タ回路111に送られる。
【0027】入力信号判定部21aは、図3に示すよう
に、入力端子1から入力された、フィルタ処理が施され
た上記入力音声信号の実効(root mean square、r.m.
s)値を演算するr.m.s演算部2と、上記実効値rmsから
実効値の定常レベルを演算する定常レベル演算部3と、
r.m.s演算部2の出力r.m.sを定常レベル演算部3の出力
min_rmsで除算して後述する除算値rmsgを演算する除算
演算子4と、入力端子1からの入力音声信号をLPC分析
し、LPC係数α(m)を求めるLPC分析部5と、LPC分析部5
からのLPC係数α(m)をLPCケプストラム係数CL(m)に変換
するLPCケプストラム係数演算部6と、LPCケプストラム
係数演算部6のLPCケプストラム係数CL(m)から平均対数
振幅logAmp(i)を求める対数振幅演算部7と、対数振幅
演算部7の平均対数振幅logAmp(i)から対数振幅差分wdi
fを求める対数振幅差分演算部8と、除算演算子4から
のrmsgと、対数振幅差分演算部8からの対数振幅差分wd
ifより判定フラグdecflagを出力するファジイ推論部9
とを備えてなる。なお、図3には説明の都合上、上記入
力音声信号から後述するidVUV判定結果を出力するV/UV
判定部115を含むと共に、各種パラメータを符号化し
て出力する図2に示す符号化部を音声符号化器13とし
て示している。
【0028】また、パラメータ制御部21bは、上記V/
UV判定部115からのidVUV判定結果と上記ファジイ推
論部9からの判定結果decflagを基に背景雑音カウンタb
gnCnt、背景雑音周期カウンタbgnIntvlをセットするカ
ウンタ制御部11と、カウンタ制御部11からのbgnInt
vlと上記idVUV判定結果よりidVUVパラメータと、更新フ
ラグFlagを決定し、出力端子106から出力するパラメ
ータ生成部12とを備えてなる。
【0029】次に、入力信号判定部21a及びパラメー
タ制御部21bの上記各部の詳細な動作について説明す
る。先ず、入力信号判定部21aの各部は以下の通りに
動作する。
【0030】r.m.s演算部2は、8KHzサンプリングされ
た上記入力音声信号を20msec毎のフレーム(160サンプ
ル)に分割する。そして、音声分析については互いにオ
ーバーラップする32msec(256サンプル)で実行する。
ここで入力信号s(n)を8分割して区間電力ene(i)を次の
(1)式から求める。
【0031】
【数1】
【0032】こうして求めたene(i)から信号区間の前後
の比ratioを最大にする境界mを次の(2)式又は
(3)式により求める。ここで(2)式は前半が後半よ
り大きいときの比ratioであり、(3)式は後半が前半
より大きいときの比ratioである。
【0033】
【数2】
【0034】
【数3】
【0035】但し、m=2,・・・6の間に限定する。
【0036】こうして求めた境界mより、前半あるいは
後半の大きいほうの平均電力より信号の実効値rmsを次
の(4)式あるいは(5)式から求める。(4)式は前
半が後半より大きいときの実効値rmsであり、(5)式
は後半が前半より大きいときの実効値rmsである。
【0037】
【数4】
【0038】
【数5】
【0039】定常レベル演算部3は、上記実効値rmsか
ら図4に示すフローチャートにしたがって実効値の定常
レベルを演算する。ステップS1で過去のフレームの実
効値rmsの安定状態に基づくカウンタst_cntが4以上で
あるか否かを判断し、4以上であればステップS2に進
み、過去の連続する4フレームのrmsの中2番目に大き
いものをnear_rmsとする。次に、ステップS3でそれ以
前のrmsであるfar_rms(i)(i=0,1)とnear_rmsより最小
の値minvalを求める。
【0040】こうして求めた最小の値minvalがステップ
S4で定常的なrmsである値min_rmsより大きいとき、ス
テップS5に進み、min_rmsを次の(6)式に示す通り
に更新する。
【0041】
【数6】
【0042】その後、ステップS6でfar_rmsを次の
(7)式、(8)式に示すように更新する。
【0043】
【数7】
【0044】
【数8】
【0045】次に、ステップS7で、rmsと標準レベルS
TD_LEVELの内、小さい方をmax_valとする。ここ
で、STD_LEVELは-30dB位の信号レベルに相当
する値とする。これは、現在のrmsがかなりレベルの高
いものであるとき誤動作しないように、上限を決定する
ためのものである。そして、ステップS8でmaxvalをmi
n_rmsと比較してmin_rmsを以下の通り更新する。すなわ
ち、maxvalがmin_rmsより小さいときにはステップS9
で(9)式に示すように、また、maxvalがmin_rms以上
であるときにはステップS10で(10)式に示すよう
にmin_rmsを少しだけ更新する。
【0046】
【数9】
【0047】
【数10】
【0048】次に、ステップS11でmin_rmsが無音レ
ベルMIN_LEVELより小さいときmin_rms=MIN_LEVELとす
る。MIN_LEVELは−66dB位の信号レベルに相当する値と
する。
【0049】ところでステップS12で信号の前後半の
信号レベルの比ratioが4より小さく、rmsがSTD_LEVEL
より小さいときにはフレームの信号は安定しているので
ステップS13に進んで安定性を示すカウンタst_cntを
1歩進し、そうでないときには安定性が乏しいのでステ
ップS14に進んでst_cnt=0とする。このようにして
目的とする定常のrmsを得ることができる。
【0050】除算演算子4はr.m.s演算部2の出力r.m.s
を定常レベル演算部3の出力min_rmsで除算してrmsg
演算する。すなわち、このrmsgは定常的なrmsに対して
今のrmsがどの程度のレベルであるのかを示すものであ
る。
【0051】次に、LPC分析部5は上記入力音声信号s
(n)より短期予測(LPC)係数α(m)(m=1,・・・,10)
を求める。なお、音声符号化器13内部でのLPC分析に
より求めたLPC係数α(m)を用いることもできる。LPCケ
プストラム係数演算部6は上記LPC係数α(m)をLPCケプ
ストラム係数CL(m)に変換する。
【0052】対数振幅演算部7はLPCケプストラム係数C
L(m)より対数二乗振幅特性ln|HL(ejΩ)|2を次の(1
1)式より求めることができる。
【0053】
【数11】
【0054】しかしここでは近似的に右辺の総和計算の
上限を無限大でなく16までとし、さらに積分を求める
ことにより区間平均logAmp(i)を次の(12)及び(1
3)式より求める。ところで、CL(0)=0なので省略す
る。
【0055】
【数12】
【0056】
【数13】
【0057】ここで、ωは平均区間(ω=Ωi+1i)で5
00Hz(=π/8)としている。ここでは、logAmp(i)につい
ては0〜2kHzまでを500Hzずつ4等分したi=0, ,3まで
計算する。
【0058】次に、対数振幅差分演算部8とファジイ推
論部9の説明に移る。本発明では、無音、背景雑音の検
出にはファジイ理論を用いる。このファジイ推論部9
は、上記除算演算子4がrmsをmin_rmsで割って得た値rm
sgと、後述する対数振幅差分演算部8からのwdifを用い
て判定フラグdecflagを出力する。
【0059】図5に、ファジイ推論部9でのファジイル
ールを示すが上段(a)については無音、背景雑音(bac
kground noise)についてのルール、中段(b)は主に雑
音パラメータ更新(parameter renovation)のためのルー
ル、下段(c)は音声(speech)のためのルールである。
また、この中で、左列はrmsのためのメンバシップ関
数、中列はスペクトル包絡のためのメンバシップ関数、
右列は推論結果である。
【0060】ファジイ推論部9は、先ず、除算演算子4
により上記rmsを上記min_rmsで割って得られた値rmsg
図5の左列に示すメンバシップ関数で分類する。ここ
で、上段からメンバシップ関数μAi1(x1)(i=1,2,3)を図
6に示すように定義する。なお、x1=rmsgとする。すな
わち、図5の左列に示すメンバシップ関数は、上段
(a)、中段(b)、下段(c)の順に、図6に示すμ
A11(x1)、μA21(x1)、μA31(x1)と定義される。
【0061】一方、対数振幅差分演算部8は、過去n
(例えば4)フレーム分のスペクトルの対数振幅logAmp
(i)を保持し、その平均であるaveAmp(i)を求め、それと
現在ののlogAmp(i)の差分の2乗和wdifを次の(14)
式から求める。
【0062】
【数14】
【0063】ファジイ推論部9は、対数振幅差分演算部
8が上記のように求めたwdifを図5の中列に示すメンバ
シップ関数で分類する。ここで、上段からメンバシップ
関数μAi2(x2)(i=1,2,3)を図7に示すように定義する。
なお、x2=wdifとする。すなわち、図5の中列に示すメ
ンバシップ関数は、上段(a)、中段(b)、下段
(c)の順に、図7に示すμA12(x2)、μA22(x2)、μ
A32(x2)と定義される。ところで、ここでもしrmsが既
出の定数MIN_LEVEL(無音レベル)より小さい時には図
7には従わず、μA12(x2)=1、μA22(x2)=μ
A32(x2)=0とする。なぜなら、信号が微妙になると
き、スペクトルの変動が通常以上に大きく、差別の妨げ
となるからである。
【0064】ファジイ推論部9は、こうして求めたμ
Aij(xj)より推論結果であるメンバシップ関数μBi(y)を
以下に説明するように求める。先ず、図5の上中下段そ
れぞれのμAi1(x1)とμAi2(x2)より小さい方を次の(1
5)式に示すようにその段のμBi(y)とする。しかし、
ここで音声を示すメンバシップ関数μA31(x1)とμA32(x
2)のどちらかが1となるとき、μB1(y)=μB2(y)=0,μB3
(y)=1と出力する構成を追加してもよい。
【0065】
【数15】
【0066】この(15)式より得られた各段のμ
Bi(y)は図5の右列の関数の値に当たるものである。こ
こでメンバシップ関数μBi(y)を図8に示すように定義
する。すなわち、図5の右列に示すメンバシップ関数
は、上段(a)、中段(b)、下段(c)の順に、図8
に示すμB1(y)、μB2(y)、μB3(y)と定義される。
【0067】これらの値を基にファジイ推論部9は推論
するが、次の(16)式に示すような面積法による判定
を行う。
【0068】
【数16】
【0069】ここで、y*は推論結果であり、yi *は各段
のメンバシップ関数の重心であり、図5においては上
段、中段、下段の順に、0.1389、0.5、0.8611となって
いる。また、Siは面積にあたる。S1〜S2はメンバシップ
関数μBi(y)を用いて次の(17)、(18)、(1
9)式より求められる。
【0070】
【数17】
【0071】
【数18】
【0072】
【数19】
【0073】これらの値から求められた推論結果y*の値
により判定フラグdecFlagの出力値を次のように定義す
る。
【0074】 0≦y*≦0.34 → decFlag=0 0.34<y*<0.66 → decFlag=2 0.66≦y*≦1 → decFlag=1 ここで、decFlag=0は判定結果が背景雑音を示す結果で
ある。decFlag=2はパラメータを更新すべき背景雑音を
示す結果である。また、decFlag=1は音声を判別した結
果である。
【0075】図9に具体例を示す。今仮にx1=1.6,x2=0.
35であったとする。これよりμAij(xj),μAi2(x2),μ
Bi(y)は以下のように求まる。
【0076】 μA11(x1)=0.4, μA12(x2)=0, μB1(y)=0 μA21(x1)=0.4, μA22(x2)=0.5, μB2(y)=0.4 μA31(x1)=0.6, μA32(x2)=0.5, μB3(y)=0.5 これより面積を計算するとS1=0,S2=0.2133,S3=0.2083に
なり結局y*=0.6785となりdecFlag=1となる。すなわち、
音声とする。
【0077】ここまでが入力信号判定部21aの動作で
ある。引き続き、パラメータ制御部21bの各部の詳細
な動作について説明する。
【0078】カウンタ制御部11は、上記V/UV判定部1
15からのidVUV判定結果と上記ファジイ推論部9から
のdecflagを基に背景雑音カウンタbgnCnt、背景雑音周
期カウンタbgnIntvlをセットする。
【0079】パラメータ生成部12は、カウンタ制御部
11からのbgnIntvlと上記idVUV判定結果よりidVUVパラ
メータと、更新フラグFlagを決定し、出力端子106か
ら伝送する。
【0080】この伝送パラメータを決めるフローチャー
トを図10及び図11に分けて示す。背景雑音カウンタ
bgnCnt、背景雑音周期カウンタbgnIntvl(いずれも初期
値0)を定義する。先ず、図10のステップS21で入
力信号の分析結果が無声音(idVUV=0)の場合、ステップ
S22及びステップS24を通してdecFlag=0ならステ
ップS25に進んで背景雑音カウンタbgnCntを1歩進
し、decFlag=2ならbgnCntを保持する。ステップS26
でbgnCntが定数BGN_CNT(例えば6)より大きいときステ
ップS27に進み、idVUVが背景雑音を示す値1にセッ
トされる。また、ステップS28でdecFlag=0のときに
はbgnIntvlをステップS29で1歩進させ、ここでステ
ップS31でbgnIntvlが定数BGN_INTVL(例えば16)
に等しいときステップS32に進んでbgnIntvl=0にセッ
トされる。また、ステップS28でdecFlag=2のとき、
ステップS30に進み、bgnIntvl=0にセットされる。
【0081】ところで、ステップS21で有声音(idVUV
=2,3)の場合、或いはステップS22でdecFlag=1の場
合、ステップS23に進み、bgnCnt=0,bgnIntvl=0にセ
ットされる。
【0082】図11に移り、ステップS33で無声音或
いは背景雑音(idVUV=0,1)の場合、もしステップS35
で無声音(idVUV=0)なら、ステップS36で無声音パラ
メータが出力される。
【0083】ステップS35で背景雑音(idVUV=1)で、
かつステップS37でbgnIntvl=0なら、ステップS38
から背景雑音パラメータ(BGN=Back Ground Noise)が出
力される。一方、ステップS37でbgnIntvl>0ならば
ステップS39に進みヘッダビッドのみが送信される。
【0084】ヘッダビットの構成を図16に示す。ここ
で、上位2ビットはidVUVビットそのものがセットされ
るが、背景雑音期間(idVUV=1)の場合もし更新フレーム
でないなら次の1ビットに0、更新フレームであるなら
次の1ビットに1をセットする。
【0085】MPEG4にて採用されている音声コーデックH
VXC(Harmonic Vector Excitation Coding)を例にとり、
各条件での符号化ビットの内訳を図12に示す。
【0086】idVUVは有声音、無声音、背景雑音更新
時、背景雑音非更新時にそれぞれ2ビット符号化され
る。更新フラグには背景雑音更新時、背景雑音非更新時
にそれぞれ1ビットが割り当てられる。
【0087】LSPパラメータは、LSP0,LSP2,LSP3,
LSP4,LSP5に分けられる。LSP0は10次のLSPパ
ラメータのコードブックインデクスであり、エンベロー
プの基本的なパラメータとして使われ、20msecのフレ
ームでは5ビットが割り当てられる。LSP2は5次の低
周波数域誤差補正のLSPパラメータのコードブックイ
ンデクスであり、7ビットが割り当てられる。LSP3は
5次の高周波数域誤差補正のLSPパラメータのコード
ブックインデクスであり、5ビットが割り当てられる。
LSP5は10次の全帯域誤差補正のLSPパラメータの
コードブックインデクスであり、8ビットが割り当てら
れる。このうち、LSP2,LSP3及びLSP5は前の段階で
の誤差を埋めてやるために使われるインデクスであり、
特に、LSP2とLSP3はLSP0でエンベロープを表現しき
れなかったときに補助的に用いられる。LSP4は符号化
時の符号化モードが直接モード(straight mode)であ
るか、差分モード(differential mode)であるかの1
ビットの選択フラグである。元々の波形から分析して求
めたオリジナルのLSPパラメータに対する、量子化に
より求めた直接モードのLSPと、量子化された差分に
より求めたLSPの差の少ない方のモードの選択を示
す。LSP4が0であるときには直接モードであり、LSP4
が1であるときには差分モードである。
【0088】有声音時には全てのLSPパラメータを符
号化ビットとする。無声音及び背景雑音更新時はLSP
5を除いた符号化ビットとする。背景雑音非更新時はL
SP符号化ビットを送らない。特に、背景雑音更新時の
LSP符号化ビットは直近3フレームのLSPパラメー
タの平均をとったものを量子化して得られた符号化ビッ
トとする。
【0089】ピッチPCHパラメータは有声音時ときのみ
7ビットの符号化ビットとされる。スペクトルエンベロ
ープのコードブックパラメータidSは、idS0で記される
第0LPC残差スペクトルコードブックインデクスとidS1
で記される第1LPC残差スペクトルコードブックインデ
スクに分けられる。有声音時に共に4ビットの符号化ビ
ットとされる。また、雑音コードブックインデクスidSL
00やidSL01は、無声音時に6ビット符号化される。
【0090】また、LPC残差スペクトルゲインコードブ
ックインデスクidGは有声音時に、5ビットの符号化ビ
ットとされる。また、雑音コードブックゲインインデク
スidGL00やidGL11には無声音時にそれぞれ4ビット
の符号化ビットが割り当てられる。背景雑音更新時には
idGL00に4ビットのみの符号化ビットが割り当てられ
る。この背景雑音更新時のidGL004ビットについても
直近4フレーム(8サブフレーム)のCelpゲインの平均
をとったものを量子化して得られた符号化ビットとす
る。
【0091】また、idS0_4kで記される第0拡張LPC残
差スペクトルコードブックインデクスと、idS1_4kで記
される第1拡張LPC残差スペクトルコードブックインデ
クスと、idS2_4kで記される第2拡張LPC残差スペクト
ルコードブックインデクスと、idS3_4kで記される第3
拡張LPC残差スペクトルコードブックインデクスには、
有声音時に、7ビット、10ビット、9ビット、6ビッ
トが符号化ビットとして割り当てられる。
【0092】これにより、有声音時は80ビット、無声
音時は40ビット、背景雑音更新時は25ビット、背景
雑音非更新時は3ビットがトータルビットとして割り当
てられる。
【0093】ここで、上記図12に示した符号化ビット
を生成する音声符号化器について上記図2を用いて詳細
に説明する。
【0094】入力端子101に供給された音声信号は、
ハイパスフィルタ(HPF)109にて不要な帯域の信
号を除去するフィルタ処理が施された後、上述したよう
に入力信号判定部21aに送られると共に、LPC(線
形予測符号化)分析・量子化部113のLPC分析回路
132と、LPC逆フィルタ回路111とに送られる。
【0095】LPC分析・量子化部113のLPC分析
回路132は、上述したように入力音声信号波形の25
6サンプル程度の長さを1ブロックとしてハミング窓を
かけて、自己相関法により線形予測係数、いわゆるαパ
ラメータを求める。データ出力の単位となるフレーミン
グの間隔は、160サンプル程度とする。サンプリング
周波数fsが例えば8kHzのとき、1フレーム間隔は1
60サンプルで20msec となる。
【0096】LPC分析回路132からのαパラメータ
は、α→LSP変換回路133に送られて、線スペクト
ル対(LSP)パラメータに変換される。これは、直接
型のフィルタ係数として求まったαパラメータを、例え
ば10個、すなわち5対のLSPパラメータに変換す
る。変換は例えばニュートン−ラプソン法等を用いて行
う。このLSPパラメータに変換するのは、αパラメー
タよりも補間特性に優れているからである。
【0097】α→LSP変換回路133からのLSPパ
ラメータは、LSP量子化器134によりマトリクスあ
るいはベクトル量子化される。このとき、フレーム間差
分をとってからベクトル量子化してもよく、複数フレー
ム分をまとめてマトリクス量子化してもよい。ここで
は、20msec を1フレームとし、20msec 毎に算出
されるLSPパラメータを2フレーム分まとめて、マト
リクス量子化及びベクトル量子化している。
【0098】このLSP量子化器134からの量子化出
力、すなわちLSP量子化のインデクスは、端子102
を介して取り出され、また量子化済みのLSPベクトル
は、LSP補間回路136に送られる。
【0099】LSP補間回路136は、上記20msec
あるいは40msec 毎に量子化されたLSPのベクトル
を補間し、8倍のレートにする。すなわち、2.5mse
c 毎にLSPベクトルが更新されるようにする。これ
は、残差波形をハーモニック符号化復号化方法により分
析合成すると、その合成波形のエンベロープは非常にな
だらかでスムーズな波形になるため、LPC係数が20
msec 毎に急激に変化すると異音を発生することがある
からである。すなわち、2.5msec 毎にLPC係数が
徐々に変化してゆくようにすれば、このような異音の発
生を防ぐことができる。
【0100】このような補間が行われた2.5msec 毎
のLSPベクトルを用いて入力音声の逆フィルタリング
を実行するために、LSP→α変換回路137により、
LSPパラメータを例えば10次程度の直接型フィルタ
の係数であるαパラメータに変換する。このLSP→α
変換回路137からの出力は、上記LPC逆フィルタ回
路111に送られ、このLPC逆フィルタ111では、
2.5msec 毎に更新されるαパラメータにより逆フィ
ルタリング処理を行って、滑らかな出力を得るようにし
ている。このLPC逆フィルタ111からの出力は、サ
イン波分析符号化部114、具体的には例えばハーモニ
ック符号化回路、の直交変換回路145、例えばDFT
(離散フーリエ変換)回路に送られる。
【0101】LPC分析・量子化部113のLPC分析
回路132からのαパラメータは、聴覚重み付けフィル
タ算出回路139に送られて聴覚重み付けのためのデー
タが求められ、この重み付けデータが後述する聴覚重み
付きのベクトル量子化器116と、第2の符号化部12
0の聴覚重み付けフィルタ125及び聴覚重み付きの合
成フィルタ122とに送られる。
【0102】ハーモニック符号化回路等のサイン波分析
符号化部114では、LPC逆フィルタ111からの出
力を、ハーモニック符号化の方法で分析する。すなわ
ち、ピッチ検出、各ハーモニクスの振幅Amの算出、有
声音(V)/無声音(UV)の判別を行い、ピッチによ
って変化するハーモニクスのエンベロープあるいは振幅
Amの個数を次元変換して一定数にしている。
【0103】図2に示すサイン波分析符号化部114の
具体例においては、一般のハーモニック符号化を想定し
ているが、特に、MBE(Multiband Excitation: マル
チバンド励起)符号化の場合には、同時刻(同じブロッ
クあるいはフレーム内)の周波数軸領域いわゆるバンド
毎に有声音(Voiced)部分と無声音(Unvoiced)部分と
が存在するという仮定でモデル化することになる。それ
以外のハーモニック符号化では、1ブロックあるいはフ
レーム内の音声が有声音か無声音かの択一的な判定がな
されることになる。なお、以下の説明中のフレーム毎の
V/UVとは、MBE符号化に適用した場合には全バン
ドがUVのときを当該フレームのUVとしている。ここ
で上記MBEの分析合成手法については、本件出願人が
先に提案した特願平4−91422号明細書及び図面に
詳細な具体例を開示している。
【0104】図2のサイン波分析符号化部114のオー
プンループピッチサーチ部141には、上記入力端子1
01からの入力音声信号が、またゼロクロスカウンタ1
42には、上記HPF(ハイパスフィルタ)109から
の信号がそれぞれ供給されている。サイン波分析符号化
部114の直交変換回路145には、LPC逆フィルタ
111からのLPC残差あるいは線形予測残差が供給さ
れている。オープンループピッチサーチ部141では、
入力信号のLPC残差をとってオープンループによる比
較的ラフなピッチのサーチが行われ、抽出された粗ピッ
チデータは高精度ピッチサーチ146に送られて、後述
するようなクローズドループによる高精度のピッチサー
チ(ピッチのファインサーチ)が行われる。また、オー
プンループピッチサーチ部141からは、上記粗ピッチ
データと共にLPC残差の自己相関の最大値をパワーで
正規化した正規化自己相関最大値r(p) が取り出され、
V/UV(有声音/無声音)判定部115に送られてい
る。
【0105】直交変換回路145では例えばDFT(離
散フーリエ変換)等の直交変換処理が施されて、時間軸
上のLPC残差が周波数軸上のスペクトル振幅データに
変換される。この直交変換回路145からの出力は、高
精度ピッチサーチ部146及びスペクトル振幅あるいは
エンベロープを評価するためのスペクトル評価部148
に送られる。
【0106】高精度(ファイン)ピッチサーチ部146
には、オープンループピッチサーチ部141で抽出され
た比較的ラフな粗ピッチデータと、直交変換部145に
より例えばDFTされた周波数軸上のデータとが供給さ
れている。この高精度ピッチサーチ部146では、上記
粗ピッチデータ値を中心に、0.2〜0.5きざみで±数サ
ンプルずつ振って、最適な小数点付き(フローティン
グ)のファインピッチデータの値へ追い込む。このとき
のファインサーチの手法として、いわゆる合成による分
析 (Analysis by Synthesis)法を用い、合成されたパワ
ースペクトルが原音のパワースペクトルに最も近くなる
ようにピッチを選んでいる。このようなクローズドルー
プによる高精度のピッチサーチ部146からのピッチデ
ータについては、スイッチ118を介して出力端子10
4に送っている。
【0107】スペクトル評価部148では、LPC残差
の直交変換出力としてのスペクトル振幅及びピッチに基
づいて各ハーモニクスの大きさ及びその集合であるスペ
クトルエンベロープが評価され、高精度ピッチサーチ部
146、V/UV(有声音/無声音)判定部115及び
聴覚重み付きのベクトル量子化器116に送られる。
【0108】V/UV(有声音/無声音)判定部115
は、直交変換回路145からの出力と、高精度ピッチサ
ーチ部146からの最適ピッチと、スペクトル評価部1
48からのスペクトル振幅データと、オープンループピ
ッチサーチ部141からの正規化自己相関最大値r(p)
と、ゼロクロスカウンタ142からのゼロクロスカウン
ト値とに基づいて、当該フレームのV/UV判定が行わ
れる。さらに、MBEの場合の各バンド毎のV/UV判
定結果の境界位置も当該フレームのV/UV判定の一条
件としてもよい。このV/UV判定部115からの判定
出力は、出力端子105を介して取り出される。
【0109】ところで、スペクトル評価部148の出力
部あるいはベクトル量子化器116の入力部には、デー
タ数変換(一種のサンプリングレート変換)部が設けら
れている。このデータ数変換部は、上記ピッチに応じて
周波数軸上での分割帯域数が異なり、データ数が異なる
ことを考慮して、エンベロープの振幅データ|Am|を
一定の個数にするためのものである。すなわち、例えば
有効帯域を3400kHzまでとすると、この有効帯域が
上記ピッチに応じて、8バンド〜63バンドに分割され
ることになり、これらの各バンド毎に得られる上記振幅
データ|Am|の個数mMX+1も8〜63と変化するこ
とになる。このためデータ数変換部119では、この可
変個数mMX+1の振幅データを一定個数M個、例えば4
4個、のデータに変換している。
【0110】このスペクトル評価部148の出力部ある
いはベクトル量子化器116の入力部に設けられたデー
タ数変換部からの上記一定個数M個(例えば44個)の
振幅データあるいはエンベロープデータが、ベクトル量
子化器116により、所定個数、例えば44個のデータ
毎にまとめられてベクトルとされ、重み付きベクトル量
子化が施される。この重みは、聴覚重み付けフィルタ算
出回路139からの出力により与えられる。ベクトル量
子化器116からの上記エンベロープのインデクスidS
は、スイッチ117を介して出力端子103より取り出
される。なお、上記重み付きベクトル量子化に先だっ
て、所定個数のデータから成るベクトルについて適当な
リーク係数を用いたフレーム間差分をとっておくように
してもよい。
【0111】次に、いわゆるCELP(符号励起線形予
測)符号化構成を有している符号化部について説明す
る。この符号化部は入力音声信号の無声音部分の符号化
のために用いられている。この無声音部分用のCELP
符号化構成において、雑音コードブック、いわゆるスト
キャスティック・コードブック(stochastic code boo
k)121からの代表値出力である無声音のLPC残差
に相当するノイズ出力を、ゲイン回路126を介して、
聴覚重み付きの合成フィルタ122に送っている。重み
付きの合成フィルタ122では、入力されたノイズをL
PC合成処理し、得られた重み付き無声音の信号を減算
器123に送っている。減算器123には、上記入力端
子101からHPF(ハイパスフィルタ)109を介し
て供給された音声信号を聴覚重み付けフィルタ125で
聴覚重み付けした信号が入力されており、合成フィルタ
122からの信号との差分あるいは誤差を取り出してい
る。なお、聴覚重み付けフィルタ125の出力から聴覚
重み付き合成フィルタの零入力応答を事前に差し引いて
おくものとする。この誤差を距離計算回路124に送っ
て距離計算を行い、誤差が最小となるような代表値ベク
トルを雑音コードブック121でサーチする。このよう
な合成による分析(Analysis by Synthesis )法を用い
たクローズドループサーチを用いた時間軸波形のベクト
ル量子化を行っている。
【0112】このCELP符号化構成を用いた符号化部
からのUV(無声音)部分用のデータとしては、雑音コ
ードブック121からのコードブックのシェイプインデ
クスidSlと、ゲイン回路126からのコードブックのゲ
インインデクスidGlとが取り出される。雑音コードブッ
ク121からのUVデータであるシェイプインデクスid
Slは、スイッチ127sを介して出力端子107sに送
られ、ゲイン回路126のUVデータであるゲインイン
デクスidGlは、スイッチ127gを介して出力端子10
7gに送られている。
【0113】ここで、これらのスイッチ127s、12
7g及び上記スイッチ117、118は、上記V/UV
判定部115からのV/UV判定結果によりオン/オフ
制御され、スイッチ117、118は、現在伝送しよう
とするフレームの音声信号のV/UV判定結果が有声音
(V)のときオンとなり、スイッチ127s、127g
は、現在伝送しようとするフレームの音声信号が無声音
(UV)のときオンとなる。
【0114】以上のように構成される音声符号化器によ
り、可変レートで符号化された各パラメータ、すなわ
ち、LSPパラメータLSP、有声音/無声音判定パラメ
ータidVUV、ピッチパラメータPCH、スペクトルエンベロ
ープのコードブックパラメータidS及びゲインインデク
スidG、雑音コードブックパラメータidSl及びゲインイ
ンデクスidGlは、上記図1に示す伝送路符号化器22に
より伝送路の品質が音声品質に影響を受けにくいように
符号化された後、変調器23で変調され、送信機24で
送信処理が施され、アンテナ共用器25を通して、アン
テナ26から送信される。また、上記パラメータは、上
述したようにパラメータ制御部21bのパラメータ生成
部12にも供給される。そして、パラメータ生成部12
は、V/UV判定部115からの判定結果idVUVと、上記パ
ラメータと、カウンタ制御部11からのbgnIntvlを用い
てidVUV、更新フラグを生成する。また、パラメータ制
御部21bは、もしV/UV判定部115から背景雑音であ
るというidVUV=1が送られてきたときには、LSP量子
化部134にLSP量子化の方法である差分モード(LS
P4=1)を禁止し、直接モード(LSP4=0)で量
子化を行うように制御する。
【0115】次に、上記図1に示した携帯電話装置の受
信側の音声復号化装置31について詳細に説明する。音
声復号化装置31には、アンテナ26で捉えられ、アン
テナ共用器25を通じて受信機27で受信され、復調器
29で復調され、伝送路復号化器30で伝送路誤りが訂
正された受信ビットが入力される。
【0116】この音声復号化装置31の詳細な構成を図
13に示す。この音声復号化装置は、入力端子200か
ら入力された受信ビットからヘッダビットを取り出し、
図16に従ってidVUVと更新フラグを分離すると共に、
符号ビット(code bits)を出力するヘッダビット解釈
部201と、上記idVUVと更新フラグより後述するスイ
ッチ243及びスイッチ248の切り換えを制御する切
り換え制御部241と、後述するシーケンスでLPCパ
ラメータ、もしくはLSPパラメータを決定するLPC
パラメータ再生制御部240と、上記符号ビット中のL
SPインデクスよりLPCパラメータを再生するLPC
パラメータ再生部213と、上記符号ビットを個々のパ
ラメータインデクスに分解する符号ビット解釈部209
と、切り換え制御部241により切り換えが制御され、
背景雑音更新フレームを受信したとき閉じられ、それ以
外は開くスイッチ248と、切り換え制御部241によ
り切り換えが制御され、会計雑音更新フレームを受信し
た場合、RAM244方向に閉じられ、それ以外はヘッ
ダビット解釈部201方向に閉じられるスイッチ243
と、UVシェイプインデクスを乱数により発生する乱数
発生器208と、無声音を合成する無声音合成部220
と、エンベロープインデクスよりエンベロープを逆ベク
トル量子化する逆ベクトル量子化部212と、idVUV、
ピッチ、エンベロープより有声音を合成する有声音合成
部211と、LPC合成フィルタ214と、背景雑音更
新フレーム受信時に符号ビットを保持し、背景雑音非更
新フレーム受信時に符号ビットを供給するRAM244
とを備える。
【0117】先ず、ヘッダビット解釈部201は、入力
端子200を介して供給された受信ビットからヘッドビ
ットを取り出し、idVUVと更新フラグFlagを分離して当
フレームのビット数を認識する。また、後続のビットの
存在する場合、符号ビットとして出力する。もし図16
に示したヘッダビット構成の上位2ビットが00なら無声
音(Unvoiced speech)と分かるので次の38ビットを読
み取る。また、上位2ビットが01なら背景雑音(BGN)と
分かるので次の1ビットが0なら背景雑音の非更新フレ
ームであるのでそこで終わり、もち次の1ビットが1な
ら背景雑音の更新フレームを読み取るため次の22ビッ
トを読み取る。もし、上位2ビットが10/11なら有声音
と分かるので次の78ビットを読み取る。
【0118】切り換え制御部241では、idVUVと更新
フラグを見て、もしidVUV=1のとき、更新フラグFlag=1
ならば更新なのでスイッチ248を閉じ、符号ビットを
RAM244に供給し、同時にスイッチ243をヘッダ
ビット解釈部201側に閉じ符号ビットを符号ビット解
釈部209に供給し、逆に更新フラグFlag=0ならば非更
新なのでスイッチ248を開き、さらにスイッチ243
をRAM244側に閉じて更新時の符号ビットを供給す
る。idVUV≠0の場合、スイッチ248は開き、スイッチ
243が上方に閉じる。
【0119】符号ビット解釈部209は、ヘッダビット
解釈部201からスイッチ243を介して入力された符
号ビットを個々のパラメータインデクス、すなわちLS
Pインデクス、ピッチ、エンベロープインデクス、UV
ゲインインデクス、UVシェイプインデクスに分解す
る。
【0120】乱数発生器208は、UVシェイプインデ
クスを乱数により発生するが、スイッチ249がidVUV=
1である背景雑音フレームを受信したとき、切り換え制
御部241より閉じられ、無声音合成部220に供給す
る。idVUV≠1なら符号ビット解釈部209よりスイッチ
249を通じて無声音合成部220にUVシェイプイン
デクスを供給する。
【0121】LPCパラメータ再生制御部240は、内
部に図示しない切り換え制御部と、インデクス判定部と
を備え、切り換え制御部にてidVUVを検出し、その検出
結果に基づいてLPCパラメータ再生部213の動作を
制御する。詳細については後述する。
【0122】LPCパラメータ再生部213、無声音合
成部220、逆ベクトル量子化部212、有声音合成部
211及びLPC合成フィルタ214は、音声復号化器
31の基本的な部分である。図14に、この基本的な部
分とその周辺の構成を示す。
【0123】入力端子202には、上記LSPのベクト
ル量子化出力、いわゆるコードブックのインデクスが供
給されている。
【0124】このLSPのインデクスは、LPCパラメ
ータ再生部213に送られる。LPCパラメータ再生部
213は、上述したように符号ビットの内のLSPイン
デクスよりLPCパラメータを再生するが、LPCパラ
メータ再生制御部240の内部の図示しない上記切り換
え制御部によって制御される。
【0125】先ず、LPCパラメータ再生部213につ
いて説明する。LPCパラメータ再生部213は、LS
Pの逆量子化器231と、切り換えスイッチ251と、
LSP補間回路232(V用)及び233(UV用)
と、LSP→α変換回路234(V用)及び235(U
V用)と、スイッチ252と、RAM253と、フレー
ム補間回路245と、LSP補間回路246(BGN
用)と、LSP→α変換回路247(BGN用)とを備
えてなる。
【0126】LSPの逆量子化器231ではLSPイン
デクスよりLSPパラメータを逆量子化する。このLS
Pの逆量子化器231における、LSPパラメータの生
成について説明する。ここでは、背景雑音カウンタbgnI
ntvl(初期値0)を導入する。有声音(idVUV=2,3)あるい
は無声音(idVUV=0)の場合、通常の復号処理でLSPパ
ラメータを生成する。
【0127】背景雑音(idVUV=1)の場合もしそれが更新
フレームの場合bgnIntvl=0とし、そうでないならbgnInt
vlを1歩進させる。ただし、bgnIntvlを1歩進させるこ
とで後述する定数BGN_INTVL_RXと等しくなる場合は、bg
nIntvlを1歩進させない。
【0128】そして、次の(20)式のようにLSPパ
ラメータを生成する。ここで更新フレームの直前に受信
されたLSPパラメータをqLSP(prev)(1, ,10)、更新
フレームで受信されたLSPパラメータをqLSP(curr)(1,
,10)、補間により生成するLSPパラメータをqLSP(1,
,10)とし、次の(20)式により求める。
【0129】
【数20】
【0130】ここで、BGN_INTVL_RXは定数、bgnIntvl'
はbgnIntvlと乱数rnd(=-3, 3)を用いて次の(21)
式により生成するが、もしbgnIntvl’<0のときbgnIntv
l’=bgnIntvl、bgnIntvl'≧BGN_INTVL_RXのとき、bgnIn
tvl’=bgnIntvlとする。
【0131】
【数21】
【0132】また、LPCパラメータ再生制御部240
中の図示しない切り換え制御部はV/UVパラメータdV
UV、更新フラグFlagを元にLPCパラメータ再生部21
3内部のスイッチ251及び252を制御する。
【0133】スイッチ251は、idVUV=0,2,3のとき上
方端子に、idVUV=1のとき下方端子に切り換わる。スイ
ッチ252は更新フラグFlag=1、つまり背景雑音更新フ
レームの時、閉じられてLSPパラメータがRAM25
3に供給され、qLSP(prev)がqLSP(curr)により更新され
た後、qLSP(curr)を更新する。RAM253は、qLSP(p
rev)、qLSP(curr)を保持する。
【0134】フレーム補間回路245は、qLSP(curr)、
qLSP(prev)より内部カウンタbgnIntvlを用いてqLSPを生
成する。LSP補間回路246は、LSPを補間する。
LSP→α変換回路247はBGN用LSPをαに変換す
る。
【0135】次に、LPCパラメータ再生制御部240
によるLPCパラメータ再生部213の制御の詳細につ
いて図15のフローチャートを用いて説明する。
【0136】先ず、LPCパラメータ再生制御部240
の切り換え制御部においてステップS41でV/UV判
定パラメータidVUVを検出し、0ならステップS42に進
み、LSP補間回路233でLSP補間し、さらにステ
ップS43に進んでLSP→α変換回路235でLSP
をαに変換する。
【0137】ステップS41でidVUV=1であり、かつス
テップS44で更新フラグFlag=1ならば、更新フレーム
であるので、ステップS45においてフレーム補間回路
245でbgnIntvl=0とする。
【0138】ステップS44で更新フラグFlag=0であ
り、かつステップS46でbgnIntvl<BGN_INTVL_RX_1
であるなら、ステップS47に進み、bgnIntvlを1歩進
させる。
【0139】次に、ステップS48でフレーム補間回路
245によりbgnIntvl’を乱数rndを発生させて求め
る。ただし、ステップS49でbgnIntvl’<0かbgnIntv
l'≧BGN_INTVL_RXのとき、ステップS50でbgnIntvl’
=bgnIntvlとする。
【0140】次に、ステップS51でフレーム補間回路
245によりLSPをフレーム補間し、ステップS52
でLSP補間回路246によりLSP補間し、ステップ
S53でLSP→α変換回路247によりLSPをαに
変換する。
【0141】なお、ステップS41でidVUV=2,3である
なら、ステップS54に進み、LSP補間回路232で
LSP補間し、ステップS55でLSP→α変換回路2
34によりLSPをαに変換する。
【0142】またLPC合成フィルタ214は、有声音
部分のLPC合成フィルタ236と、無声音部分のLP
C合成フィルタ237とを分離している。すなわち、有
声音部分と無声音部分とでLPCの係数補間を独立に行
うようにして、有声音から無声音への遷移部や、無声音
から有声音への遷移部で、全く性質の異なるLSP同士
を補間することによる悪影響を防止している。
【0143】また、入力端子203には、上記スペクト
ルエンベロープ(Am)の重み付けベクトル量子化され
たコードインデクスデータが供給され、入力端子204
には、上記ピッチパラメータPCHのデータが供給され、
入力端子205には、上記V/UV判定データidUVUが
供給されている。
【0144】入力端子203からのスペクトルエンベロ
ープAmのベクトル量子化されたインデクスデータは、
逆ベクトル量子化器212に送られて逆ベクトル量子化
が施され、上記データ数変換に対応する逆変換が施され
て、スペクトルエンベロープのデータとなって、有声音
合成部211のサイン波合成回路215に送られてい
る。
【0145】なお、エンコード時にスペクトルのベクト
ル量子化に先だってフレーム間差分をとっている場合に
は、ここでの逆ベクトル量子化後にフレーム間差分の復
号を行ってからデータ数変換を行い、スペクトルエンベ
ロープのデータを得る。
【0146】サイン波合成回路215には、入力端子2
04からのピッチ及び入力端子205からの上記V/U
V判定データidVUVが供給されている。サイン波合成回
路215からは、上記図2に示したLPC逆フィルタ1
11からの出力に相当するLPC残差データが取り出さ
れ、これが加算器218に送られている。このサイン波
合成の具体的な手法については、例えば本件出願人が先
に提案した、特願平4−91422号の明細書及び図
面、あるいは特願平6−198451号の明細書及び図
面に開示されている。
【0147】また、逆ベクトル量子化器212からのエ
ンベロープのデータと、入力端子204、205からの
ピッチ、V/UV判定データidVUVとは、有声音(V)
部分のノイズ加算のためのノイズ合成回路216に送ら
れている。このノイズ合成回路216からの出力は、重
み付き重畳加算回路217を介して加算器218に送っ
ている。これは、サイン波合成によって有声音のLPC
合成フィルタへの入力となるエクサイテイション(Exci
tation:励起、励振)を作ると、男声等の低いピッチの
音で鼻づまり感がある点、及びV(有声音)とUV(無
声音)とで音質が急激に変化し不自然に感じる場合があ
る点を考慮し、有声音部分のLPC合成フィルタ入力す
なわちエクサイテイションについて、音声符号化データ
に基づくパラメータ、例えばピッチ、スペクトルエンベ
ロープ振幅、フレーム内の最大振幅、残差信号のレベル
等を考慮したノイズをLPC残差信号の有声音部分に加
えているものである。
【0148】加算器218からの加算出力は、LPC合
成フィルタ214の有声音用の合成フィルタ236に送
られてLPCの合成処理が施されることにより時間波形
データとなり、さらに有声音用ポストフィルタ238v
でフィルタ処理された後、加算器239に送られる。
【0149】次に、図14の入力端子207s及び20
7gには、符号ビット解釈部209で符号ビットから分
解された、UVデータとしてのシェイプインデクス及び
ゲインインデクスがそれぞれ供給される。ゲインインデ
クスは、無声音合成部220に送られている。端子20
7sからのシェイプインデクスは、切り換えスイッチ2
49の被選択端子に送られている。この切り換えスイッ
チ249のもう一つの被選択端子には乱数発生器208
からの出力が供給される。そして、背景雑音フレームを
受信したときには上記図13に示した切り換え制御部2
41の制御により、スイッチ249が乱数発生器208
側に閉じられ、無声音合成部220には乱数発生器20
8からのシェイプインデクスが供給される。また、idVU
V≠1なら符号ビット解釈部209よりスイッチ249を
通してシェイプインデクスが供給される。
【0150】すなわち、励起信号の生成については、有
声音(idVUV=2,3)或いは無声音(idVUV=0)の場合には通常
の復号処理により励起信号を生成するが、背景雑音(idV
UV=1)の場合にはCelpのシェイプインデクスidSL00,idS
L01を乱数rnd(=0, ,N_SHAPE_L0_1)を発生させて生
成する。ここで、N_SHAPE_L0_1は、Celp シェイプコー
ドベクタの数である。さらに、Celpゲインインデクスid
GL00,idGL01は更新フレーム中のidGL00を両サブフレー
ムに適用する。
【0151】以上、本発明の符号化装置及び方法の具体
例となる符号化装置と、復号装置及び方法の具体例とな
る復号装置を備えた携帯電話装置について説明してきた
が、本発明は携帯電話装置の符号化装置、復号装置にの
み適用が限定されるものではない。例えば、伝送システ
ムにも適用できる。
【0152】図17は、本発明を適用した伝送システム
(システムとは、複数の装置が論理的に集合したものを
いい、各構成の装置が同一筐体中にあるか否かは問わな
い)の一実施の形態の構成例を示している。
【0153】この伝送システムでは、上記復号装置をク
ライアント端末63が備え、上記符号化装置をサーバ6
1が備えている。クライアント端末63とサーバ61
は、例えば、インターネットや、ISDN(Integrated
Service Digital Network)、LAN(Local Area Net
work)、PSTN(Public Switched Telephone Networ
k) などのネットワーク62で接続されている。
【0154】クライアント端末63からサーバ1に対し
て、ネットワーク62を介して、例えば、曲などのオー
ディオ信号の要求があると、サーバ61において、その
要求のあった曲に対応するオーディオ信号の符号化パラ
メータを、入力音声の性質に応じて符号化のモード分け
を行い、ネットワーク62を介して、クライアント端末
63に伝送する。クライアント端末63では、上記復号
方法に応じてサーバー61から伝送路誤りに対して保護
されてきた符号化パラメータを復号して例えばスピーカ
のような出力装置から音声として出力する。
【0155】図18は、図17のサーバ61のハードウ
ェア構成例を示している。
【0156】ROM(Read Only Memory)71には、例
えば、IPL(Initial Program Loading) プログラム
などが記憶されている。CPU(Central Processing U
nit)72は、例えば、ROM71に記憶されているI
PLプログラムにしたがって、外部記憶装置76に記憶
(記録)されたOS(Operating System)のプログラム
を実行し、さらに、そのOSの制御の下、外部記憶装置
76に記憶された所定のアプリケーションプログラムを
実行することで、入力信号の性質に応じた符号化モード
で符号化を行いビットレートを可変とし、クライアント
端末63への送信処理などを行う。RAM(Random Acc
ess Memory)73は、CPU72の動作上必要なプログ
ラムやデータなどを記憶する。入力装置74は、例え
ば、キーボードやマウス、マイク、外部インターフェー
スなどで構成され、必要なデータやコマンドを入力する
ときに操作される。さらに、入力装置74は、外部か
ら、クライアント端末63に対して提供するディジタル
オーディオ信号の入力を受け付けるインターフェースと
しても機能するようになされている。出力装置75は、
例えば、ディスプレイや、スピーカ、プリンタなどで構
成され、必要な情報を表示、出力する。外部記憶装置7
6は、例えば、ハードディスクなどでなり、上述したO
Sや所定のアプリケーションプログラムなどを記憶して
いる。また、外部記憶装置76は、その他、CPU72
の動作上必要なデータなども記憶する。通信装置77
は、ネットワーク62を介しての通信に必要な制御を行
う。
【0157】外部記憶装置76に記憶されている所定の
アプリケーションプログラムとは、上記図1に示した、
音声符号化器3と、伝送路符号化器4と、変調器7の機
能をCPU72に実行させるためのプログラムである。
【0158】また、図19は、図17のクライアント端
末63のハードウェア構成例を示している。
【0159】クライアント端末63は、ROM81乃至
通信装置87で構成され、上述したROM71乃至通信
装置77で構成されるサーバ61と基本的に同様に構成
されている。
【0160】但し、外部記憶装置86には、アプリケー
ションプログラムとして、サーバ61からの符号化デー
タを復号するための、本発明に係る復号方法を実行する
ためのプログラムや、その他の後述するような処理を行
うためのプログラムなどが記憶されており、CPU82
では、これらのアプリケーションプログラムが実行され
ることで、伝送ビットレートが可変とされた符号化デー
タの復号、再生処理などが行われるようになされてい
る。
【0161】すなわち、外部記憶装置86には、上記図
1に示した、復調器13と、伝送路復号化器14と、音
声復号化器17の機能をCPU82に実行させるための
アプリケーションプログラムが記憶されている。
【0162】このため、クライアント端末63では、外
部記憶装置86に記憶されている復号方法を、上記図1
に示したハードウェア構成を必要とせず、ソフトウェア
として実現することができる。
【0163】なお、クライアント端末63では、外部記
憶装置86にサーバ61から伝送されてきた上記符号化
データを記憶しておいて所望の時間にその符号化データ
を読み出して上記復号方法を実行し所望の時間に音声を
出力装置85から出力するようにしてもよい。また、上
記符号化データを外部記憶装置86とは別の外部記憶装
置、例えば光磁気ディスクや他の記録媒体に記録してお
いてもよい。
【0164】また、上述の実施の形態においては、サー
バ61の外部記憶装置76としても、光記録媒体、光磁
気記録媒体、磁気記録媒体等の記録可能な媒体を使用し
て、この記録媒体に符号化された符号化データを記録し
ておいてもよい。
【0165】
【発明の効果】本発明によれば、音声コーデックにおい
て、音声区間中で重要な意味合いを持つ有声音に比較的
多い伝送ビット量を与え、以下無声音、背景雑音の順に
ビット数を減らすことにより総伝送ビット数を抑制で
き、平均伝送ビット量を少なくできる。
【図面の簡単な説明】
【図1】本発明の実施の形態となる携帯電話装置の構成
を示すブロック図である。
【図2】上記携帯電話装置を構成する音声符号化装置の
内部にあって、入力信号判定部とパラメータ制御部を除
いた詳細な構成図である。
【図3】入力信号判定部とパラメータ制御部の詳細な構
成図である。
【図4】rmsの定常レベルを演算する処理を示すフロー
チャートである。
【図5】ファジイ推論部でのファジイルールを説明する
ための図である。
【図6】上記ファジイルールでの信号レベルに関するメ
ンバシップ関数の特性図である。
【図7】上記ファジイルールでのスペクトルに関するメ
ンバシップ関数の特性図である。
【図8】上記ファジイルールでの推論結果のメンバシッ
プ関数の特性図である。
【図9】上記ファイジイ推論部での推論の具体例を示す
図である。
【図10】パラメータ生成部における伝送パラメータを
決める処理の一部を示すフローチャートである。
【図11】パラメータ生成部における伝送パラメータを
決める処理の残りの一部を示すフローチャートである。
【図12】MPEG4にて採用されている音声コーデックHVX
C(Harmonic Vector Excitation Coding)を例にとり、各
条件での符号化ビットの内訳を示す図である。
【図13】音声復号化装置の詳細な構成を示すブロック
図である。
【図14】音声符号化装置の基本的な部分とその周辺の
構成を示すブロック図である。
【図15】LPCパラメータ再生制御部によるLPCパ
ラメータ再生部の制御の詳細を示すフローチャートであ
る。
【図16】ヘッダビットの構成図である。
【図17】本発明を適用できる伝送システムのブロック
図である。
【図18】上記伝送システムを構成するサーバのブロッ
ク図である。
【図19】上記伝送システムを構成するクライアント端
末のブロック図である。
【符号の説明】
2 rms演算部、3 定常レベル演算部、9 ファジ
イ推論部、11 カウンタ制御部、12 パラメータ生
成部、21a 入力信号判定部、21b パラメータ制
御部

Claims (15)

    【特許請求の範囲】
  1. 【請求項1】 入力音声信号の無声音区間と有声音区間
    で可変レートによる符号化を行う音声符号化装置におい
    て、 時間軸上での入力音声信号を所定の単位で区分し、この
    単位で求めた信号レベルとスペクトル包絡の時間的な変
    化に基づいて無声音区間を背景雑音区間と音声区間に分
    けて判定する入力信号判定手段を備え、 上記入力信号判定手段で判定された背景雑音区間のパラ
    メータと、上記音声区間のパラメータと、有声音区間の
    パラメータに対する符号化ビットの割り当てを異ならせ
    ることを特徴とする音声符号化装置。
  2. 【請求項2】 上記無声音区間のパラメータに対するビ
    ットレートを上記有声音区間のパラメータに対するビッ
    トレートより少なくすることを特徴とする請求項1記載
    の音声符号化装置。
  3. 【請求項3】 上記背景雑音区間のパラメータに対する
    ビットレートを上記音声区間のパラメータに対するビッ
    トレートより少なくすることを特徴とする請求項1記載
    の音声符号化装置。
  4. 【請求項4】 上記背景雑音区間において背景雑音パラ
    メータの更新の有無を示す情報を、背景雑音区間の信号
    レベル及びスペクトル包絡の時間的な変化に基づいて制
    御して生成することを特徴とする請求項1記載の音声符
    号化装置。
  5. 【請求項5】 上記背景雑音区間の信号レベル及びスペ
    クトル包絡の時間的な変化量が小さいときには、背景雑
    音区間を示す情報及び背景雑音パラメータの非更新を示
    す情報を送出し、その変化量が大きいときには背景雑音
    区間を示す情報及と更新した背景雑音パラメータと背景
    雑音パラメータが更新されたことを示す情報とを送出す
    ることを特徴とする請求項1記載の音声符号化装置。
  6. 【請求項6】 背景雑音区間における背景雑音を表現す
    るパラメータの一定時間以上の連続を制限するため、少
    なくともある一定時間の長さで背景雑音パラメータを更
    新することを特徴とする請求項5記載の音声符号化装
    置。
  7. 【請求項7】 上記背景雑音パラメータはスペクトル包
    絡を示すLPC係数、及びCELPの励起信号のゲイン
    パラメータのインデクスからなることを特徴とする請求
    項6記載の音声符号化装置。
  8. 【請求項8】 入力音声信号の無声音区間と有声音区間
    で可変レートによる符号化を行う音声符号化方法におい
    て、 時間軸上での入力音声信号を所定の単位で区分し、この
    単位で求めた信号レベルとスペクトル包絡の時間的な変
    化に基づいて無声音区間を背景雑音区間と音声区間に分
    けて判定する入力信号判定工程を備え、 上記入力信号判定工程で判定された背景雑音区間のパラ
    メータと、上記音声区間のパラメータと、有声音区間の
    パラメータに対する符号化ビットの割り当てを異ならせ
    ることを特徴とする音声符号化方法。
  9. 【請求項9】 時間軸上での入力音声信号を所定の単位
    で区分し、この単位で入力信号の信号レベルの時間的な
    変化を求める工程と、 上記単位でのスペクトル包絡の時間的な変化を求める工
    程と、 上記信号レベル及びスペクトル包絡の時間的な変化から
    背景雑音か否かを判定する工程とを備えることを特徴と
    する入力信号判定方法。
  10. 【請求項10】 ファジイ推論を用いて背景雑音か否か
    を判定することを特徴とする請求項9記載の入力信号判
    定方法。
  11. 【請求項11】 音声区間のパラメータと、有声音区間
    のパラメータに対する符号化ビットの割り当てが異なっ
    て伝送されてきた符号化ビットを復号する復号装置にお
    いて、 上記符号化ビットから音声区間であるか、又は背景雑音
    区間であるかを判定する判定手段と、 上記判定手段で背景雑音区間を示す情報を取り出したと
    きには現在又は現在及び過去に受信したLPC係数、現
    在又は現在及び過去に受信したCELPのゲインインデ
    クス、及び内部でランダムに生成したCELPのシェイ
    プインデクスを用いて上記符号化ビットを復号する復号
    手段とを備えることを特徴とする復号装置。
  12. 【請求項12】 上記復号手段は、上記判定手段で背景
    雑音区間と判定された区間においては、過去に受信した
    LPC係数と現在受信したLPC係数、または過去に受
    信したLPC係数同士を補間して生成したLPC係数を
    用いて背景雑音区間の信号を合成するときに、LPC係
    数を補間する補間係数の生成に乱数を用いることを特徴
    とする請求項11記載の復号装置。
  13. 【請求項13】 無声音区間のパラメータと、有声音区
    間のパラメータに対する符号化ビットの割り当てが異な
    って伝送されてきた符号化ビットを復号する復号方法に
    おいて、 上記符号化ビットから音声区間であるか、又は背景雑音
    区間であるかを判定する判定工程と、 上記判定工程で背景雑音区間を示す情報を取り出したと
    きには現在又は現在及び過去に受信したLPC係数、現
    在又は現在及び過去に受信したCELPのゲインインデ
    クス、及び内部でランダムに生成したCELPのシェイ
    プインデクスを用いて上記符号化ビットを復号する復号
    工程とを備えることを特徴とする復号方法。
  14. 【請求項14】 入力音声信号の無声音区間と有声音区
    間で可変レートによる符号化を行う音声符号化プログラ
    ムを提供するプログラム提供媒体において、 時間軸上での入力音声信号を所定の単位で区分し、この
    単位で求めた信号レベルとスペクトル包絡の時間的な変
    化に基づいて無声音区間を背景雑音区間と音声区間に分
    けて判定する入力信号判定工程を備え、 上記入力信号判定工程で判定された背景雑音区間のパラ
    メータと、上記音声区間のパラメータと、有声音区間の
    パラメータに対する符号化ビットの割り当てを異ならせ
    るプログラムを提供することを特徴とするプログラム提
    供媒体。
  15. 【請求項15】 無声音区間のパラメータと、有声音区
    間のパラメータに対する符号化ビットの割り当てが異な
    って伝送されてきた符号化ビットを復号するための復号
    プログラムを提供するためのプログラム提供媒体におい
    て、 上記符号化ビットから音声区間であるか、又は背景雑音
    区間であるかを判定する判定工程と、 上記判定工程で背景雑音区間を示す情報を取り出したと
    きには現在又は現在及び過去に受信したLPC係数、現
    在又は現在及び過去に受信したCELPのゲインインデ
    クス、及び内部でランダムに生成したCELPのシェイ
    プインデクスを用いて上記符号化ビットを復号する復号
    工程とを備えるプログラムを提供することを特徴とする
    プログラム提供媒体。
JP17335499A 1999-06-18 1999-06-18 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体 Expired - Lifetime JP4438127B2 (ja)

Priority Applications (9)

Application Number Priority Date Filing Date Title
JP17335499A JP4438127B2 (ja) 1999-06-18 1999-06-18 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体
EP05014448A EP1598811B1 (en) 1999-06-18 2000-06-15 Decoding apparatus and method
EP00305073A EP1061506B1 (en) 1999-06-18 2000-06-15 Variable rate speech coding
DE60038914T DE60038914D1 (de) 1999-06-18 2000-06-15 Dekodierungsvorrichtung und Dekodierungsverfahren
DE60027956T DE60027956T2 (de) 1999-06-18 2000-06-15 Sprachkodierung mit variabler BIT-Rate
KR1020000033295A KR100767456B1 (ko) 1999-06-18 2000-06-16 음성부호화장치 및 방법, 입력신호 판정방법,음성복호장치 및 방법 및 프로그램 제공매체
CNB001262777A CN1135527C (zh) 1999-06-18 2000-06-17 语音编码方法和装置,输入信号判别方法,语音解码方法和装置以及程序提供介质
TW089111963A TW521261B (en) 1999-06-18 2000-06-17 Speech encoding method and apparatus, input signal verifying method, speech decoding method and apparatus and program furnishing medium
US09/595,400 US6654718B1 (en) 1999-06-18 2000-06-17 Speech encoding method and apparatus, input signal discriminating method, speech decoding method and apparatus and program furnishing medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17335499A JP4438127B2 (ja) 1999-06-18 1999-06-18 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体

Publications (2)

Publication Number Publication Date
JP2001005474A true JP2001005474A (ja) 2001-01-12
JP4438127B2 JP4438127B2 (ja) 2010-03-24

Family

ID=15958866

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17335499A Expired - Lifetime JP4438127B2 (ja) 1999-06-18 1999-06-18 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体

Country Status (7)

Country Link
US (1) US6654718B1 (ja)
EP (2) EP1598811B1 (ja)
JP (1) JP4438127B2 (ja)
KR (1) KR100767456B1 (ja)
CN (1) CN1135527C (ja)
DE (2) DE60038914D1 (ja)
TW (1) TW521261B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009545778A (ja) * 2006-07-31 2009-12-24 クゥアルコム・インコーポレイテッド 非アクティブフレームの広帯域符号化および復号化を行うためのシステム、方法、および装置
JP2010515085A (ja) * 2006-12-27 2010-05-06 インテル・コーポレーション 音声セグメンテーションの方法および装置
JP2013117729A (ja) * 2005-02-01 2013-06-13 Qualcomm Inc 背景雑音情報の断続伝送及び正確な再生の方法

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7644003B2 (en) 2001-05-04 2010-01-05 Agere Systems Inc. Cue-based audio coding/decoding
US7386449B2 (en) 2002-12-11 2008-06-10 Voice Enabling Systems Technology Inc. Knowledge-based flexible natural speech dialogue system
EP1630798A4 (en) * 2003-01-30 2008-09-24 Matsushita Electric Ind Co Ltd OPTICAL HEAD AND DEVICE AND SYSTEM WITH SUCH OPTICAL HEAD
US7805313B2 (en) 2004-03-04 2010-09-28 Agere Systems Inc. Frequency-based coding of channels in parametric multi-channel coding systems
US7720230B2 (en) 2004-10-20 2010-05-18 Agere Systems, Inc. Individual channel shaping for BCC schemes and the like
US8204261B2 (en) 2004-10-20 2012-06-19 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Diffuse sound shaping for BCC schemes and the like
US7787631B2 (en) 2004-11-30 2010-08-31 Agere Systems Inc. Parametric coding of spatial audio with cues based on transmitted channels
JP5106115B2 (ja) 2004-11-30 2012-12-26 アギア システムズ インコーポレーテッド オブジェクト・ベースのサイド情報を用いる空間オーディオのパラメトリック・コーディング
DE602005017302D1 (de) 2004-11-30 2009-12-03 Agere Systems Inc Synchronisierung von parametrischer raumtonkodierung mit extern bereitgestelltem downmix
US7903824B2 (en) 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
JP4572123B2 (ja) 2005-02-28 2010-10-27 日本電気株式会社 音源供給装置及び音源供給方法
JP4793539B2 (ja) * 2005-03-29 2011-10-12 日本電気株式会社 符号変換方法及び装置とプログラム並びにその記憶媒体
EP1984911A4 (en) * 2006-01-18 2012-03-14 Lg Electronics Inc DEVICE AND METHOD FOR SIGNAL CODING AND DECODING
KR101244310B1 (ko) * 2006-06-21 2013-03-18 삼성전자주식회사 광대역 부호화 및 복호화 방법 및 장치
US8725499B2 (en) 2006-07-31 2014-05-13 Qualcomm Incorporated Systems, methods, and apparatus for signal change detection
KR101413967B1 (ko) * 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화 방법 및 복호화 방법, 및 그에 대한 기록 매체, 오디오 신호의 부호화 장치 및 복호화 장치
CN101582263B (zh) * 2008-05-12 2012-02-01 华为技术有限公司 语音解码中噪音增强后处理的方法和装置
TWI591620B (zh) * 2012-03-21 2017-07-11 三星電子股份有限公司 產生高頻雜訊的方法
CN103581603B (zh) * 2012-07-24 2017-06-27 联想(北京)有限公司 一种多媒体数据的传输方法及电子设备
US9357215B2 (en) * 2013-02-12 2016-05-31 Michael Boden Audio output distribution

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5341456A (en) * 1992-12-02 1994-08-23 Qualcomm Incorporated Method for determining speech encoding rate in a variable rate vocoder
JPH06332492A (ja) * 1993-05-19 1994-12-02 Matsushita Electric Ind Co Ltd 音声検出方法および検出装置
TW271524B (ja) * 1994-08-05 1996-03-01 Qualcomm Inc
JPH08102687A (ja) * 1994-09-29 1996-04-16 Yamaha Corp 音声送受信方式
US6148282A (en) * 1997-01-02 2000-11-14 Texas Instruments Incorporated Multimodal code-excited linear prediction (CELP) coder and method using peakiness measure
US6202046B1 (en) * 1997-01-23 2001-03-13 Kabushiki Kaisha Toshiba Background noise/speech classification method
US6167375A (en) * 1997-03-17 2000-12-26 Kabushiki Kaisha Toshiba Method for encoding and decoding a speech signal including background noise
JP3273599B2 (ja) * 1998-06-19 2002-04-08 沖電気工業株式会社 音声符号化レート選択器と音声符号化装置
US6691084B2 (en) * 1998-12-21 2004-02-10 Qualcomm Incorporated Multiple mode variable rate speech coding

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013117729A (ja) * 2005-02-01 2013-06-13 Qualcomm Inc 背景雑音情報の断続伝送及び正確な再生の方法
JP2009545778A (ja) * 2006-07-31 2009-12-24 クゥアルコム・インコーポレイテッド 非アクティブフレームの広帯域符号化および復号化を行うためのシステム、方法、および装置
US8260609B2 (en) 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
US9324333B2 (en) 2006-07-31 2016-04-26 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
JP2010515085A (ja) * 2006-12-27 2010-05-06 インテル・コーポレーション 音声セグメンテーションの方法および装置
US8442822B2 (en) 2006-12-27 2013-05-14 Intel Corporation Method and apparatus for speech segmentation
US20130238328A1 (en) * 2006-12-27 2013-09-12 Robert Du Method and Apparatus for Speech Segmentation
US8775182B2 (en) * 2006-12-27 2014-07-08 Intel Corporation Method and apparatus for speech segmentation

Also Published As

Publication number Publication date
TW521261B (en) 2003-02-21
JP4438127B2 (ja) 2010-03-24
EP1598811B1 (en) 2008-05-14
KR100767456B1 (ko) 2007-10-16
EP1061506B1 (en) 2006-05-17
EP1061506A3 (en) 2003-08-13
KR20010007416A (ko) 2001-01-26
EP1061506A2 (en) 2000-12-20
EP1598811A2 (en) 2005-11-23
DE60038914D1 (de) 2008-06-26
US6654718B1 (en) 2003-11-25
DE60027956D1 (de) 2006-06-22
EP1598811A3 (en) 2005-12-14
DE60027956T2 (de) 2007-04-19
CN1282952A (zh) 2001-02-07
CN1135527C (zh) 2004-01-21

Similar Documents

Publication Publication Date Title
JP4438127B2 (ja) 音声符号化装置及び方法、音声復号装置及び方法、並びに記録媒体
JP4218134B2 (ja) 復号装置及び方法、並びにプログラム提供媒体
JP3653826B2 (ja) 音声復号化方法及び装置
JP4132109B2 (ja) 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
US5574823A (en) Frequency selective harmonic coding
JP4121578B2 (ja) 音声分析方法、音声符号化方法および装置
JP4040126B2 (ja) 音声復号化方法および装置
JP2002533772A (ja) 可変レートスピーチコーディング
JPH1091194A (ja) 音声復号化方法及び装置
JPH09127991A (ja) 音声符号化方法及び装置、音声復号化方法及び装置
WO2014131260A1 (en) System and method for post excitation enhancement for low bit rate speech coding
KR100421648B1 (ko) 음성코딩을 위한 적응성 표준
JPH10105194A (ja) ピッチ検出方法、音声信号符号化方法および装置
KR20020039555A (ko) 음성부호화기의 유/무성음정보 추정방법
JPH10207491A (ja) 背景音/音声分類方法、有声/無声分類方法および背景音復号方法
JPH10105195A (ja) ピッチ検出方法、音声信号符号化方法および装置
US7536298B2 (en) Method of comfort noise generation for speech communication
JP4230550B2 (ja) 音声符号化方法及び装置、並びに音声復号化方法及び装置
JP3232701B2 (ja) 音声符号化方法
JP3496618B2 (ja) 複数レートで動作する無音声符号化を含む音声符号化・復号装置及び方法
JP3896654B2 (ja) 音声信号区間検出方法及び装置
JP4826580B2 (ja) 音声信号の再生方法及び装置
JPH09244695A (ja) 音声符号化装置及び復号化装置
JP3350340B2 (ja) 音声符号化方法および音声復号化方法
JP2001343984A (ja) 有音/無音判定装置、音声復号化装置及び音声復号化方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20060309

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20090727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20090929

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20091215

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20091228

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 4438127

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130115

Year of fee payment: 3

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

EXPY Cancellation because of completion of term