JP3670217B2 - 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法 - Google Patents

雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法 Download PDF

Info

Publication number
JP3670217B2
JP3670217B2 JP2001070148A JP2001070148A JP3670217B2 JP 3670217 B2 JP3670217 B2 JP 3670217B2 JP 2001070148 A JP2001070148 A JP 2001070148A JP 2001070148 A JP2001070148 A JP 2001070148A JP 3670217 B2 JP3670217 B2 JP 3670217B2
Authority
JP
Japan
Prior art keywords
noise
model
noise spectrum
encoding
decoding
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2001070148A
Other languages
English (en)
Other versions
JP2002156999A (ja
Inventor
文忠 板倉
幸司 吉田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya University NUC
Panasonic Mobile Communications Co Ltd
Tokai National Higher Education and Research System NUC
Original Assignee
Nagoya University NUC
Matsushita Communication Industrial Co Ltd
Tokai National Higher Education and Research System NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya University NUC, Matsushita Communication Industrial Co Ltd, Tokai National Higher Education and Research System NUC filed Critical Nagoya University NUC
Priority to JP2001070148A priority Critical patent/JP3670217B2/ja
Priority to AU2001282616A priority patent/AU2001282616A1/en
Priority to US10/129,076 priority patent/US6934650B2/en
Priority to PCT/JP2001/007630 priority patent/WO2002021091A1/ja
Priority to EP01961335A priority patent/EP1258715B1/en
Publication of JP2002156999A publication Critical patent/JP2002156999A/ja
Application granted granted Critical
Publication of JP3670217B2 publication Critical patent/JP3670217B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/012Comfort noise or silence coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L25/00Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
    • G10L25/48Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 specially adapted for particular use

Description

【0001】
【発明の属する技術分野】
本発明は、音声信号に重畳されている背景雑音信号の分析および合成を行う雑音信号の分析・合成装置に関し、また、この分析・合成装置を用いて雑音信号の符号化を行う雑音符号化装置および音声信号の符号化を行う音声符号化装置に関する。
【0002】
【従来の技術】
ディジタル移動通信や音声蓄積の分野においては、電波や記憶媒体の有効利用のために、音声情報を圧縮して低いビットレートで符号化する音声符号化装置が用いられている。このような音声符号化装置における従来の技術として、ITU-T勧告のG.729 AnnexB("A silence compression scheme for G.729 optimized for terminals conforming to Recommendation V.70")のDTX(Discontinuous Transmission)制御付きのCS−ACELP符号化方式がある。
【0003】
図19は、従来のDTX制御付きCS−ACELP符号化方式を採用した符号化装置の構成を示すブロック図である。図19において、入力音声信号は、有音/無音判定器11、CS−ACELP音声符号器12および無音区間符号器13に入力される。まず、有音/無音判定器11において、入力音声信号が有音区間か無音区間(背景雑音のみの区間)かの判定が行われる。
【0004】
有音/無音判定器11により有音と判定された場合には、CS−ACELP音声符号器12では、有音区間に対する音声符号化が行われる。有音区間の符号化データは、DTX制御および多重化器14に出力される。
【0005】
一方、有音/無音判定器11により無音と判定された場合には、無音区間符号器13では、無音区間に対する雑音信号の符号化が行われる。この無音区間符号器13においては、入力音声信号を用いて、有音区間の符号化におけるものと同様のLPC係数、および、入力音声信号のLPC予測残差エネルギーが算出され、これらが無音区間の符号化データとしてDTX制御および多重化器14に出力される。ただし、無音区間の符号化データは、入力信号の特性(LPC係数やエネルギー)に所定の変化が検出された区間において間欠的に送信されるものである。
【0006】
DTX制御および多重化器14では、有音/無音判定器11、CS−ACELP音声符号器12および無音区間符号器13の出力を用いて、送信データとして送信すべきデータが、制御および多重化された後、送信データとして出力される。
【0007】
上記のような従来の音声符号化装置においては、入力音声信号における有音区間についてのみ、CS−ACELP音声符号器を用いて符号化を行い、入力音声信号における無音区間(雑音のみの区間)については、専用の無音区間符号器を用いて音声符号器より少ないビット数でかつ間欠的に符号化を行うことにより、伝送する信号の平均ビットレートを低減できる効果がある。
【0008】
【発明が解決しようとする課題】
しかしながら、上記従来の音声符号化方式においては、以下に示すような要因により、送信側装置により符号化されたデータを受信する受信側装置では、無音区間中の雑音信号に対する復号信号の品質が劣化するという問題がある。すなわち、まず第1の要因として、送信側装置における無音区間符号器(雑音信号の分析・符号化部)が、音声符号器と同様な信号モデル(短区間(10〜50ms程度)毎にAR型の合成フィルタ(LPC合成フィルタ)を雑音信号で駆動することで復号信号を生成する)により符号化を行っていることが挙げられる。
【0009】
第2の要因として、受信側装置は、送信側装置において入力雑音信号を間欠的に分析することにより得られた符号化データを用いて、雑音を合成(生成)していることが挙げられる。
【0010】
本発明は、かかる点に鑑みてなされたものであり、背景雑音信号を聴感的に高い品質で合成できる装置を提供することを目的とする。
【0011】
【課題を解決するための手段】
本発明の雑音符号化装置は、音声信号の無音区間のスペクトルをモデル化して複数の雑音スペクトルモデルを取得するモデル取得手段と、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得手段と、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得手段と、前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を符号化する符号化手段と、を具備する構成を採る。
【0013】
この構成によれば、雑音信号を統計的モデルで表現した信号に変換することにより聴感的に劣化の少ない雑音信号を合成することができる。
【0036】
【発明の実施の形態】
本発明の骨子は、雑音信号を統計的モデルで表現することである。具体的には、雑音信号を用いて、振幅スペクトル時系列に関する統計的情報および前記振幅スペクトル時系列の継続時間長に関する統計的情報を含む定常雑音モデルに関する統計的情報と、前記定常雑音モデル間の遷移に関する統計的情報と、を生成することである。
【0037】
以下、本発明の実施の形態について、図面を参照して詳細に説明する。
【0038】
(実施の形態1)
本発明においては、雑音信号を統計的なモデルで表現する。すなわち、ある統計的分布に従う継続時間長からなる別の統計的分布に従う振幅スペクトル時系列で表された複数の定常雑音モデルを用いて、その定常雑音モデル間を統計的に遷移するスペクトル系列として雑音信号を表現する。
【0039】
より具体的には、定常雑音スペクトルは、ある継続時間長(フレーム数)LiからなるM個の振幅スペクトル時系列[Si(n)] (n=1,...,Li, i=1,...,M)で表現し、かつ[Si(n)]およびLiは各々正規分布に従うものとする。そして、そのスペクトル時系列モデル[Si(n)]間を遷移確率p(i,j) (i,j=1,...,M)で遷移するスペクトル系列として背景雑音を表現する。
【0040】
図1は、本発明の実施の形態1にかかる雑音信号分析装置の構成を示すブロック図である。図1に示す雑音信号分析装置において、窓かけ部101は、一定区間(以下「フレーム」という。)毎に入力された第mフレーム(m=0,1,2,...)に対する入力雑音信号x(j)(j=0,...,N-1; N:分析長)に対して、ハニング窓等による窓かけを行う。FFT(高速フーリエ変換)部102は、窓かけがなされた入力雑音信号を周波数スペクトルに変換して、第mフレームの入力振幅スペクトルX(m)を算出する。
【0041】
スペクトルモデル系列算出部104は、スペクトルモデル記憶部103に蓄えられているスペクトルモデルSi (i=1,...,M)に関するモデル情報を用いて、入力雑音信号の振幅スペクトル系列[X(m)] (m=0,1,2,...)に対応するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m=0,1,2,...)を算出する。ここで、スペクトルモデルSi (i=1,...,M)に関するモデル情報は、Siの統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#iを含むものである。これらは、予め学習により用意しておくことが可能である。また、対応するスペクトルモデル番号系列の算出は、入力振幅スペクトルX(m)からの距離が最も小さい平均振幅Sav#iを有するスペクトルモデルSiの番号iを求めることにより、なされる。
【0042】
継続長モデル・遷移確率算出部105は、スペクトルモデル系列算出部104により得られたスペクトルモデル番号系列[index(m)]を用いて、Si各々に対する継続フレーム数Liに関する統計パラメータ(Liの平均値Lav#iおよび標準偏差値Ldv#i)およびSi間の遷移確率p(i,j)を算出し、それらを入力雑音信号に対するモデルパラメータとして出力する。なお、これらのモデルパラメータは、ある一定期間毎あるいは任意の間隔で算出・伝送される。
【0043】
図2は、本発明の実施の形態1にかかる雑音信号合成装置の構成を示すブロック図である。図2に示す雑音信号合成装置において、遷移系列生成部201は、図1に示した雑音信号分析装置により得られたモデルパラメータ(Liの平均値Lav#i,標準偏差値Ldv#iおよびSi間の遷移確率p(i,j))のうちSi間の遷移確率p(i,j)を用いて、スペクトルモデルSiの遷移がその与えられた遷移確率p(i,j)となるようなスペクトルモデル番号遷移系列[index'(l)](1≦index'(l)≦M, l=0,1,2,...)を生起させる。
【0044】
スペクトル生成部205は、遷移系列生成部201により得られたモデル番号index'(l)、および、スペクトルモデル記憶部202に保持されているスペクトルモデルSi (i=1,...,M)に関するモデル情報(Siの平均振幅Sav#iおよび標準偏差Sdv#i)用いて、次式で示されるindex'(l)に対するスペクトル振幅時系列[X'(n)]を生成する。
【0045】
{X'(n)]=[S index'(l)(n)], n=1,2,...,L −(1)
ここで、S index'(l)は、i=index'(l)に対する平均振幅Sav#i、標準偏差Sdv#iを有する正規分布に従うものとし、また継続フレーム数Lは、継続長制御部203において、雑音信号分析装置から出力されたスペクトルモデルSiに対する継続フレーム数Liの統計モデルパラメータ(Liの平均値Lav#i,標準偏差値Ldv#i)を用いて、i=index'(l)に対する平均値Lav#i、標準偏差Ldv#iを有する正規分布に従うように制御されたものである。
【0046】
さらに、スペクトル生成部205は、上記の方法により、遷移系列[index'(l)]に沿って生成した所定の時間長(フレーム数)のスペクトル振幅時系列に対して、乱数位相生成部204により生成された乱数位相を与えて、スペクトル時系列を作成する。なお、スペクトル生成部205において、生成された振幅スペクトル時系列に対してスペクトルが滑らかに変化するよう平滑化を行ってもよい。
【0047】
IFFT(逆高速フーリエ変換)部206は、スペクトル生成部205により作成されたスペクトル時系列を時間領域の波形に変換する。重ね合わせ加算部207は、フレーム間の信号の重ね合わせ加算を行うことにより、最終的な合成雑音信号を出力する。
【0048】
次いで、上記構成を有する雑音信号分析装置および雑音信号合成装置の動作について、さらに図3および図4を参照して説明する。図3は、本発明の実施の形態1にかかる雑音信号分析装置の動作を示すフロー図である。図4は、本発明の実施の形態1にかかる雑音信号合成装置の動作を示すフロー図である。
【0049】
まず、本実施の形態にかかる雑音信号分析装置の動作について、図3を参照して説明する。まず、工程(以下「ST」という。)301において、フレーム毎の雑音信号x(j)(j=0,...,N-1; N:分析長)が、窓かけ部101に入力される。ST302において、第mフレーム(m=0,1,2,...)に対する入力雑音信号に対してハニング窓等による窓かけが、窓かけ部101によりなされる。ST303において、窓かけがなされた入力雑音信号は、FFT部102により、FFT(高速フーリエ変換)がなされて、周波数スペクトルに変換される。これにより、第mフレームの入力振幅スペクトルX(m)が算出される。
【0050】
ST304において、スペクトルモデル系列算出部104により、スペクトルモデルSi (i=1,...,M)に関するモデル情報を用いて、入力雑音信号の振幅スペクトル系列[X(m)] (m=0,1,2,...)に対応するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m=0,1,2,...)が算出される。
【0051】
ここで、スペクトルモデルSi (i=1,...,M)に関するモデル情報は、Siの統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#iを含むものである。これらは、予め学習により用意しておくことが可能なものである。また、対応するスペクトルモデル番号系列の算出は、入力振幅スペクトルX(m)からの距離が最も小さい平均振幅Sav#iを有するスペクトルモデルSiの番号iを求めることにより、なされる。以上のST301〜ST304の処理がフレーム単位で行われる。
【0052】
ST305では、ST304で得られたスペクトルモデル番号系列[index(m)]を用いて、継続長モデル・遷移確率算出部105により、Si各々に対する継続フレーム数Liに関する統計パラメータ(Liの平均値Lav#iおよび標準偏差値Ldv#i)およびSi間の遷移確率p(i,j)が算出される。ST306において、これらは、入力雑音信号に対するモデルパラメータとして出力される。なお、これらのモデルパラメータは、ある一定期間毎あるいは任意の間隔で算出・伝送される。
【0053】
本実施の形態にかかる雑音信号合成装置の動作について、図4を参照して説明する。まず、ST401において、雑音信号分析装置により得られたモデルパラメータ(Liの平均値Lav#i,標準偏差値Ldv#iおよびSi間の遷移確率p(i,j))が、遷移系列生成部201および継続長制御部203に入力される。
【0054】
ST402において、入力されたモデルパラメータのうちSi間の遷移確率p(i,j)を用いて、遷移系列生成部201により、スペクトルモデルSiの遷移がその与えられた遷移確率p(i,j)となるようなスペクトルモデル番号遷移系列[index'(l)](1≦index'(l)≦M, l=0,1,2,...)が生起される。
【0055】
次に、ST403において、入力されたモデルパラメータのうちスペクトルモデルSiに対する継続フレーム数Liの統計モデルパラメータ(Liの平均値Lav#i,標準偏差値Ldv#i)を用いて、i=index'(l)に対して平均値Lav#i、標準偏差Ldv#iを有する正規分布に従うように制御された継続フレーム数Lが、継続長制御部203により生成される。また、ST404において、乱数位相生成部204により乱数位相が生成される。
【0056】
ST405において、ST402で得られたモデル番号index'(l)および予め用意されているスペクトルモデルSi (i=1,...,M)に関するモデル情報(Siの平均振幅Sav#iおよび標準偏差Sdv#i)を用いて、スペクトル生成部205により、▲1▼式で示したindex'(l)に対するスペクトル振幅時系列[X'(n)]が生成される。なお、生成された振幅スペクトル時系列に対してスペクトルが滑らかに変化するよう平滑化を行っても良い。
【0057】
ここで、S index'(l)は、i=index'(l)に対する平均振幅Sav#i、標準偏差Sdv#iを有する正規分布に従うものとし、継続フレーム数Lは、ST404において生成されたものである。
【0058】
さらに、遷移系列[index'(l)]に沿って生成した所定の時間長(フレーム数)のスペクトル振幅時系列に対して、ST404により生成された乱数位相が与えられて、スペクトル時系列が作成される。
【0059】
ST406において、作成されたスペクトル時系列は、IFFT部206により時間領域の波形に変換された後、ST407において、重ね合わせ加算部207によりフレーム間の信号の重ねあわせ加算が行われる。ST408において、重ね合わせ加算された信号が最終的な合成雑音信号として出力される。
【0060】
このように、本実施の形態においては、背景雑音信号を統計的モデルで表現している。すなわち、雑音信号分析装置(送信側装置)において、雑音信号を用いて、雑音信号スペクトルのスペクトル変化を含めた統計的情報(統計モデルパラメータ)を生成し、生成した情報を雑音信号合成装置(受信側装置)に送信している。また、雑音信号合成装置(受信側装置)においては、雑音信号分析装置(送信側装置)から送信された上記情報(統計モデルパラメータ)を用いて、雑音信号を合成している。これにより、雑音信号合成装置(受信側装置)においては、間欠的に分析された雑音信号のスペクトルではなく、雑音信号スペクトルのスペクトル変化を含めた統計的情報を用いて、雑音信号を合成することができるので、聴感的に劣化の少ない雑音信号を合成することができる。
【0061】
なお、本実施の形態では、図1および図2に示す構成の雑音信号分析装置・合成装置、および図3および図4に示す雑音信号分析方法・合成方法を用いて、上記に示した内容で説明したが、本発明の主旨に逸脱することなく別の実現手段にて実現することも可能である。たとえば、上記実施の形態では、スペクトルモデル情報として、スペクトルSの統計モデル(Sの平均と標準偏差)は予め学習により用意したものとして説明したが、入力雑音信号に対して実時間的に学習する、またはLPC係数等別のスペクトル表現パラメータで量子化して合成側に伝送する形態にすることもできる。また、スペクトル継続長の統計パラメータ(Lの平均Lav,標準偏差Ldv)やスペクトルモデルSi間の統計遷移パラメータを予めパターン化しておき、その中から適切なものを、ある一定期間中の入力雑音信号に対して選択して伝送し、それに基づき合成することも可能である。
【0062】
(実施の形態2)
本実施の形態では、実施の形態1で説明した雑音信号分析装置を用いて音声符号化装置を実現し、また、実施の形態1で説明した雑音信号合成装置を用いて音声復号装置を実現する場合について説明する。
【0063】
まず、本実施の形態にかかる音声符号化装置について、図5を参照して説明する。図5は、本発明の実施の形態2にかかる音声符号化装置の構成を示すブロック図である。図5において、入力音声信号は、有音/無音判定器501、音声符号器502および雑音信号符号器503に入力される。
【0064】
有音/無音判定器501は、入力音声信号に対して有音区間か無音区間(雑音のみの区間)かを判定しその判定結果を出力する。有音/無音判定器501は、任意のものでよく、一般には、入力信号のパワー、スペクトルやピッチ周期などの複数のパラメータの瞬時量または変化量等を用いて判定を行うものである。
【0065】
音声符号器502は、有音/無音判定器501による判定結果が有音である場合に、入力音声信号に対して音声符号化を行いその符号化データを、DTX制御および多重化器504に出力する。この音声符号器502は、有音区間用の符号器であり、音声を高能率に符号化する任意の符号器である。
【0066】
雑音信号符号器503は、有音/無音判定器501による判定結果が無音である場合に、入力音声信号に対して雑音信号の符号化を行い入力雑音信号に対するモデルパラメータを出力する。この雑音信号符号器503は、実施の形態1で説明した雑音信号分析装置(図1参照)に対して、出力モデルパラメータを量子化・符号化して符号化パラメータとして出力する構成を付加したものである。
【0067】
DTX制御および多重化器504は、有音/無音判定器501、音声符号器502および雑音信号符号器503からの出力を用いて送信データとして送信すべき情報の制御と送信情報の多重化を行い、送信データを出力する。
【0068】
次に、本発明の実施の形態2にかかる音声復号装置について、図6を参照して説明する。図6は、本発明の実施の形態2にかかる音声復号装置の構成を示すブロック図である。図6において、図5に示した音声符号化装置により送信された送信データは、受信データとして分離およびDTX制御器601に入力される。
【0069】
分離およびDTX制御器601は、受信データを、音声復号および雑音生成に必要な、音声符号化データまたは雑音モデル符号化パラメータおよび有音/無音判定フラグに分離する。
【0070】
音声復号器602は、前記有音/無音判定フラグが有音区間を示す場合に、前記音声符号化データを用いて音声復号を行い復号音声を出力する。雑音信号復号器603は、前記有音/無音判定フラグが無音区間を示す場合に、前記雑音モデル符号化パラメータを用いて雑音信号の生成を行い、雑音信号を出力する。この雑音信号復号器603は、実施の形態1で説明した雑音信号合成装置(図2)に対して、入力されたモデル符号化パラメータを各々のモデルパラメータに復号する構成を付加したものである。
【0071】
出力切り替え器604は、音声復号器602の出力と雑音信号復号器603の出力を、有音/無音判定フラグの結果に応じて切り替えて出力し、出力信号とする。
【0072】
次に、上記構成を有する音声符号化装置および音声復号装置の動作について説明する。まず、音声符号化装置の動作について、図7を参照して説明する。図7は、本発明の実施の形態2にかかる音声符号化装置の動作を示すフロー図である。
【0073】
まず、ST701において、フレーム毎の音声信号が入力され、ST702において、入力音声信号に対して有音区間か無音区間(雑音のみの区間)かが判定されその判定結果が出力される。この有音/無音判定は任意の方法でよく、一般には、入力信号のパワー、スペクトルやピッチ周期などの複数のパラメータの瞬時量または変化量等を用いて判定が行われる。
【0074】
ST702における有音/無音判定結果が有音である場合には、ST704において入力音声信号に対する音声符号化が行われ、その符号化データが出力される。この音声符号化処理は有音区間用の符号化で、音声を高能率に符号化する任意の方法でよい。
【0075】
一方、前記有音/無音判定結果が無音である場合には、ST705において、入力音声信号に対する雑音信号の符号化が行われ、入力雑音信号に対するモデルパラメータが出力される。この雑音信号符号化は、実施の形態1にて説明した雑音信号の分析方法に対して、出力モデルパラメータを量子化・符号化して符号化パラメータとして出力する工程を追加したものである。
【0076】
ST706において、前記有音/無音判定結果、音声符号化および雑音信号符号化からの出力を用いて送信データとして送信すべき情報の制御(DTX制御)と送信情報の多重化が行われ、ST707において送信データとして出力される。
【0077】
次に、音声復号装置の動作について、図8を参照して説明する。図8は、本発明の実施の形態2にかかる音声復号装置の動作を示すフロー図である。
【0078】
まず、ST801において、符号化側で入力信号に対して符号化され送信された送信データが受信データとして受信される。ST802において、受信データは、音声復号および雑音生成に必要な、音声符号化データまたは雑音モデル符号化パラメータおよび有音/無音判定フラグに分離される。
【0079】
前記有音/無音判定フラグが有音区間を示す場合には、ST804において前記音声符号化データを用いて音声復号が行われ、復号音声が出力される。一方、前記有音/無音判定フラグが無音区間を示す場合には、ST805において前記雑音モデル符号化パラメータを用いて雑音信号の生成が行われ、雑音信号が出力される。この雑音信号復号処理は、実施の形態1で説明した雑音信号の合成方法に対して、入力されたモデル符号化パラメータを各々のモデルパラメータに復号する工程を追加したものである。
【0080】
ST806において、有音/無音判定フラグの結果に応じてST804における音声復号またはST805における雑音信号復号の出力が、復号信号として出力される。
【0081】
このように、本実施の形態によれば、有音区間では音声信号を高品質で符号化できる音声符号化で、無音区間では聴感的に劣化が少ない雑音信号分析装置および合成装置を用いて雑音信号の符号化および復号を行うことにより、背景雑音環境下においても高品質な符号化を行える。また、実際の周囲騒音下での雑音信号の統計的な特性は比較的長期間(例えば数秒〜十数秒)に渡り一定であることが想定されることから、モデルパラメータの伝送周期もその程度の長期間周期で良いため、復号側に伝送すべき雑音信号のモデルパラメータの情報量は少なくて済み、効率的な伝送を実現できる。
【0082】
(実施の形態3)
図9は、本発明の実施の形態3にかかる雑音信号分析装置の構成を示すブロック図である。
【0083】
本実施の形態においても、実施の形態1と同様、定常雑音スペクトルをある継続時間長(フレーム数)LiからなるM個の振幅スペクトル時系列[Si(n)] (n=1,...,Li, i=1,...,M)で表現([Si(n)]およびLiは各々正規分布に従うものとする)し、そのスペクトル時系列モデル[Si(n)]間を遷移確率p(i,j) (i,j=1,...,M)で遷移するスペクトル系列として背景雑音を表現する。
【0084】
図9に示す雑音信号分析装置において、窓かけ部901は、一定区間(以下「フレーム」という。)毎に入力された第mフレーム(m=0,1,2,...)に対する入力雑音信号x(j)(j=0,...,N-1; N:分析長)に対して、ハニング窓等による窓かけを行う。FFT(高速フーリエ変換)部902は、窓かけがなされた入力雑音信号を周波数スペクトルに変換して、第mフレームの入力振幅スペクトルX(m)を算出する。スペクトルモデルパラメータ算出・量子化部903は、入力雑音信号の振幅スペクトル系列[X(m)] (m=0,1,2,...)を一定フレーム数の区間、または何らかの指標により適応的に定められたフレーム数からなる区間をモデル化を行う単位区間(モデル化区間)として区切り、そのモデル化区間におけるスペクトルモデルパラメータの算出および量子化を行い、スペクトルモデルパラメータの量子化インデクスを出力すると共に、入力雑音信号の振幅スペクトル系列[X(m)]に対応するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m=mk,mk+1,mk+2,...,mk+NFRM-1; mkは当該モデル化区間の先頭フレーム番号、NFRMはモデル化区間のフレーム数)を出力する。ここで、スペクトルモデルパラメータとは、スペクトルモデルSi (i=1,...,M)の統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#iを含むものである。このスペクトルモデルパラメータ算出・量子化部903の構成については、図10により詳細に説明する。
【0085】
継続長モデル・遷移確率算出・量子化部904は、スペクトルモデルパラメータ算出・量子化部903により得られたモデル化区間のスペクトルモデル番号系列[index(m)]を用いて、Si各々に対する継続フレーム数Liに関する統計パラメータ(継続長モデルパラメータ)(Liの平均値Lav#iおよび標準偏差値Ldv#i)およびSi-Sj間の遷移確率p(i,j)を算出・量子化し、それらの量子化インデクスを出力する。量子化方法は任意であるが、Lav#i、Ldv#i、およびp(i,j)の各要素を各々スカラ量子化してもよい。
【0086】
以上の、スペクトルモデルパラメータ、継続長モデルパラメータおよび遷移確率パラメータの量子化インデクスを、モデル化区間の入力雑音信号の統計モデルパラメータ量子化インデクスとして出力する。
【0087】
図10は、図9のスペクトルモデルパラメータ算出・量子化部903の詳細構成を示すブロック図である。本実施例におけるスペクトルモデルパラメータ算出・量子化部903は、予め用意した雑音信号を表す振幅スペクトルの代表ベクトル集合の中から、入力雑音のモデル化区間における入力振幅スペクトル時系列を表すのに適切な代表ベクトルをモデル数(=M)個選択し、それをベースにスペクトルモデルパラメータを算出・量子化する。
【0088】
まず、モデル化区間内のフレーム単位の入力振幅スペクトルX(m) (m=mk,mk+1,mk+2,...,mk+NFRM-1)に対して、パワ算出部1001で算出されたパワ値を用いて、パワ正規化部1002でパワの正規化を行う。そして、そのパワ正規化された入力振幅スペクトルに対して、クラスタ化部1004において、雑音スペクトル代表ベクトル記憶部1003の各代表ベクトルをクラスタ中心とするクラスタ化(ベクトル量子化)を行い、各入力スペクトルがどのクラスタに所属するかの情報を出力する。ここで、雑音スペクトル代表ベクトル記憶部1003には、代表的な雑音信号の振幅スペクトルを代表ベクトルとして予め学習により作成し、記憶しているもので、代表ベクトルの数は雑音モデル数(M)以上とする。そして、クラスタ別平均スペクトル算出部1005において、クラスタ化部1004で得られた所属するクラスタ(代表ベクトル)番号の系列に対して、モデル化区間で所属頻度の高い上位M個のクラスタ(対応する代表ベクトルをCi(i=1,2,…,M)とする)を選択し、その各クラスタに所属する入力雑音振幅スペクトルの平均スペクトルをクラスタ毎に算出し、それらをスペクトルモデルの平均振幅スペクトルSav#i(i=1,2,…,M)とする。また、入力雑音信号の振幅スペクトル系列[X(m)]に対するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m=mk,mk+1,mk+2,...,mk+NFRM-1)をあわせて出力する。この番号系列は、クラスタ化部1004で得られた所属するクラスタ(代表ベクトル)番号の系列をベースに,上位M個のクラスタに属す番号系列として生成する。すなわち、上位M個のクラスタに属さないフレームに対しては、任意の方法(例えば、再度のクラスタ化や前フレームのクラスタ番号に置換するなど)で上記M個のクラスタの番号に対応付けるか、またはそのフレームは系列から削除するなどを行う。次に、モデル化区間平均パワ量子化部1006において、パワ算出部1001で算出されたフレーム毎のパワ値を、モデル化区間全体で平均し、その平均パワに対してスカラ量子化など任意の方法で量子化を行い、パワインデクスおよびモデル化区間平均パワ値(量子化値)Eを出力する。そして、誤差スペクトル・パワ補正値量子化部1007において、Sav#iを(2)式のように、対応する代表ベクトルCi,Ciからの誤差スペクトルdi,モデル化区間平均パワEおよび各スペクトルモデル別のEに対するパワ補正値eiで表し、di, eiをスカラ量子化等任意の方法で量子化する。
【0089】
Sav#i = sqrt(E)・ei・(Ci+di) (i=1,…,M) −(2)
ここで、誤差スペクトルdiの量子化は、diを複数の帯域に分割し、帯域毎に各帯域の平均値のスカラ量子化を行う構成としてもよい。以上、クラスタ別平均スペクトル算出部1005で得られたM個の代表ベクトルインデクス、誤差スペクトル・パワ補正値量子化部1007で得られた、誤差スペクトル量子化インデクスおよびパワ補正値量子化インデクス、モデル区間平均パワ量子化部1006で得られたパワ量子化インデクスを、スペクトルモデルパラメータの量子化インデクスとして出力する。
【0090】
なお、スペクトルモデルパラメータのうち標準偏差Sdv#iは、雑音スペクトル代表ベクトル学習時に得られるCiに対するクラスタ内標準偏差値をそのまま使用する。この値に関しては雑音スペクトル代表ベクトル記憶部に予め記憶させておくことで、量子化インデクスの出力は不要である。また、クラスタ別平均スペクトル算出部1005で、平均スペクトル算出時に、クラスタ内の標準偏差も算出し、その量子化を行ってもよい。この場合は、その量子化インデクスをスペクトルモデルパラメータの量子化インデクスの一部として出力する。
【0091】
なお、上記実施の形態では、誤差スペクトルの量子化を帯域別のスカラ量子化により説明したが、全帯域のベクトル量子化等他の方法で量子化することも可能である。また、パワ情報をモデル化区間の平均パワとモデル別の平均パワに対する補正値により表現した構成を説明したが、モデル別のパワのみでの表現や、モデル化区間の平均パワで全モデルのパワを代表するようにしてもよい。
【0092】
次に、図11は、本発明の実施の形態3にかかる雑音信号合成装置の構成を示すブロック図である。図11に示す雑音信号合成装置において、まず遷移系列生成部1101にて、図9に示した雑音信号分析装置により得られた統計モデルパラメータ量子化インデクスのうち、Si-Sj間の遷移確率p(i,j)の量子化インデクスを用いて遷移確率p(i,j)を復号し、スペクトルモデルSiの遷移が与えられた遷移確率p(i,j)となるようなスペクトルモデル番号遷移系列[index'(l)](1≦index'(l)≦M, l=0,1,2,...)を生起させる。次に、スペクトルモデルパラメータ復号部1103においてスペクトルモデルパラメータの量子化インデクスからスペクトルモデルSiの統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#i(i=1,...,M)を復号する。ここで、平均振幅Sav#iの復号は、符号化装置のスペクトルパラメータ算出・量子化部903で得られた量子化インデクスおよび、スペクトルモデルパラメータ復号部1103内に備えられた符号化側と同一の雑音スペクトル代表ベクトル記憶部内の代表ベクトルを用い、(2)式に基き復号する。また、標準偏差Sdv#iに関しては、符号化装置にて雑音スペクトル代表ベクトル学習時に得られるCiに対するクラスタ内標準偏差値をそのまま使用した場合には、該当する値を雑音スペクトル代表ベクトル記憶部1003から得ることで復号する。そして、スペクトル生成部1105は、遷移系列生成部1101により得られたモデル番号index'(l)、および、スペクトルモデルパラメータ復号部1103で得られたスペクトルモデルSi (i=1,...,M)に関するモデル情報(Siの平均振幅Sav#iおよび標準偏差Sdv#i)用いて、次式で示されるindex'(l)に対するスペクトル振幅時系列[X'(n)]を生成する。
【0093】
{X'(n)}=[S index'(l)(n)], n=1,2,...,L −(3)
ここで、S index'(l)は、i=index'(l)に対する平均振幅Sav#i、標準偏差Sdv#iを有する正規分布に従うものとし、また継続フレーム数Lは、継続長制御部1102において、雑音信号分析装置から出力されたスペクトルモデルSiに対する継続フレーム数Liの統計モデルパラメータの量子化インデクスからの復号値(Liの平均値Lav#i,標準偏差値Ldv#i)を用いて、i=index'(l)に対する平均値Lav#i、標準偏差Ldv#iを有する正規分布に従うように制御されたものである。
【0094】
さらに、スペクトル生成部1105は、上記の方法により、遷移系列[index'(l)]に沿って生成した所定の時間長(=当該モデル化区間のフレーム数NFRM)のスペクトル振幅時系列に対して、乱数位相生成部1104により生成された乱数位相を与えて、スペクトル時系列を作成する。なお、スペクトル生成部1105において、生成された振幅スペクトル時系列に対してスペクトルが滑らかに変化するよう平滑化を行ってもよい。
【0095】
IFFT(逆高速フーリエ変換)部1106は、スペクトル生成部1105により作成されたスペクトル時系列を時間領域の波形に変換する。重ね合わせ加算部1107は、フレーム間の信号の重ね合わせ加算を行うことにより、最終的な合成雑音信号を出力する。
【0096】
次いで、上記構成を有する雑音信号分析装置および雑音信号合成装置の動作について、さらに図12〜図14を参照して説明する。
【0097】
まず、本実施の形態にかかる雑音信号分析装置の動作について、図12を参照して説明する。まず、工程(以下「ST」という。)1201において、フレーム毎の雑音信号x(j)(j=0,...,N-1; N:分析長)が、窓かけ部901に入力される。ST1202において、第mフレーム(m=0,1,2,...)に対する入力雑音信号に対してハニング窓等による窓かけが、窓かけ部901によりなされる。次に、ST1203において、窓かけがなされた入力雑音信号に対して、FFT部902によりFFT(高速フーリエ変換)がなされて周波数スペクトルに変換される。これにより第mフレームの入力振幅スペクトルX(m)が算出される。ST1204において、スペクトルモデルパラメータ算出・量子化部903により、入力雑音信号の振幅スペクトル系列[X(m)] (m=0,1,2,...)を一定フレーム数の区間、または何らかの指標により適応的に定められたフレーム数からなる区間をモデル化を行う単位区間(モデル化区間)として区切り、そのモデル化区間におけるスペクトルモデルパラメータの算出および量子化が行われ、スペクトルモデルパラメータの量子化インデクスが出力されると共に、入力雑音信号の振幅スペクトル系列[X(m)]に対応するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m= mk,mk+1,mk+2,...,mk+NFRM-1; mkは当該モデル化区間の先頭フレーム番号、NFRMはモデル化区間のフレーム数)が出力される。ここで、スペクトルモデルパラメータとは、スペクトルモデルSi (i=1,...,M)の統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#iを含むものである。このST1204におけるスペクトルモデルパラメータ算出・量子化部903の動作については、図13により詳細に説明する。
【0098】
次に、ST1205において、継続長モデル・遷移確率算出・量子化部904により、ST1204にて得られたモデル化区間のスペクトルモデル番号系列[index(m)]を用いて、Si各々に対する継続フレーム数Liに関する統計パラメータ(継続長モデルパラメータ)(Liの平均値Lav#iおよび標準偏差値Ldv#i)およびSi-Sj間の遷移確率p(i,j)が算出・量子化され、それらの量子化インデクスが出力される。量子化方法は任意であるが、Lav#i、Ldv#i、およびp(i,j)の各要素を各々スカラ量子化してもよい。
【0099】
そして、ST1206において、以上の、スペクトルモデルパラメータ、継続長モデルパラメータおよび遷移確率パラメータの量子化インデクスが、モデル化区間の入力雑音信号の統計モデルパラメータ量子化インデクスとして出力される。
【0100】
図13は、図12のST1204におけるスペクトルモデルパラメータ算出・量子化部903の詳細動作を示すフロー図である。本実施例におけるスペクトルモデルパラメータ算出・量子化部903は、予め用意した雑音信号を表す振幅スペクトルの代表ベクトル集合の中から、入力雑音のモデル化区間における入力振幅スペクトル時系列を表すのに適切な代表ベクトルをモデル数(=M)個選択し、それをベースにスペクトルモデルパラメータを算出・量子化する。
【0101】
まず、ST1301において、モデル化区間内のフレーム単位の入力振幅スペクトルX(m) (m= mk,mk+1,mk+2,...,mk+NFRM-1)が入力される。そして、ST1302において、入力振幅スペクトルに対して、パワ算出部1001により当該フレームのパワが算出され、ST1303において、パワ算出部1001で算出されたパワ値を用いて、パワ正規化部1002によりパワの正規化が行われる。次に、ST1304において、そのパワ正規化された入力振幅スペクトルに対して、クラスタ化部1004により、雑音スペクトル代表ベクトル記憶部1003の各代表ベクトルをクラスタ中心とするクラスタ化(ベクトル量子化)が行われ、各入力スペクトルがどのクラスタに所属するかの情報が出力される。そして、ST1305において、クラスタ別平均スペクトル算出部1005により、クラスタ化部1004で得られた所属するクラスタ(代表ベクトル)番号の系列に対して、モデル化区間で所属頻度の高い上位M個のクラスタ(対応する代表ベクトルをCi(i=1,2,…,M)とする)が選択される。その各クラスタに所属する入力雑音振幅スペクトルの平均スペクトルがクラスタ毎に算出され、それらをスペクトルモデルの平均振幅スペクトルSav#i(i=1,2,…,M)とする。また、入力雑音信号の振幅スペクトル系列[X(m)]に対するスペクトルモデル番号系列[index(m)](1≦index(m)≦M, m= mk,mk+1,mk+2,...,mk+NFRM-1)があわせて出力される。この番号系列は、クラスタ化部1004で得られた所属するクラスタ(代表ベクトル)番号の系列をベースに、上位M個のクラスタに属す番号系列として生成される。すなわち、上位M個のクラスタに属さないフレームに対しては、任意の方法(例えば、再度のクラスタ化や前フレームのクラスタ番号に置換するなど)で上記M個のクラスタの番号に対応付けるか、またはそのフレームは系列から削除するなどが行われる。次に、ST1306において、モデル化区間平均パワ量子化部1006により、1001で算出されたフレーム毎のパワ値が、モデル化区間全体で平均され、その平均パワに対してスカラ量子化など任意の方法で量子化が行われ、パワインデクスおよびモデル化区間平均パワ値(量子化値)Eが出力される。そして、ST1307において、誤差スペクトル・パワ補正値量子化部1007により、(2)式に示すように、対応する代表ベクトルCi,Ciからの誤差スペクトルdi、モデル化区間平均パワEおよび各スペクトルモデル別のEに対するパワ補正値eiで表されたSav#iに対して、di, eiがスカラ量子化等任意の方法で量子化される。
【0102】
ここで、誤差スペクトルdiの量子化は、diを複数の帯域に分割し、帯域毎に各帯域の平均値をスカラ量子化を行うようにしてもよい。そして、ST1308において、上記、ST1305にて得られたM個の代表ベクトルインデクス、ST1307にて得られた誤差スペクトル量子化インデクス、および、パワ補正値量子化インデクス、ST1306にて得られたパワ量子化インデクスが、スペクトルモデルパラメータの量子化インデクスとして出力される。
【0103】
なお、スペクトルモデルパラメータのうち標準偏差Sdv#iは、雑音スペクトル代表ベクトル学習時に得られるCiに対するクラスタ内標準偏差値がそのまま使用される。この値に関しては雑音スペクトル代表ベクトル記憶部に予め記憶させておくことで、量子化インデクスの出力は不要である。また、ST1305において、クラスタ別平均スペクトル算出部1005による平均スペクトル算出時にクラスタ内の標準偏差も算出し、その量子化を行ってもよい。この場合は、その量子化インデクスが、スペクトルモデルパラメータの量子化インデクスの一部として出力される。
【0104】
なお、上記実施の形態では、誤差スペクトルの量子化を帯域別のスカラ量子化により説明したが、全帯域のベクトル量子化等他の方法で量子化することも可能である。また、パワ情報をモデル化区間の平均パワとモデル別の平均パワに対する補正値により表現した構成を説明したが、モデル別のパワのみでの表現や、モデル化区間の平均パワで全モデルのパワを代表するようにしてもよい。
【0105】
次に、本実施の形態にかかる雑音信号合成装置の動作について、図14を参照して説明する。まず、ST1401において、雑音信号分析装置により得られた統計モデルパラメータの各量子化インデクスが入力される。そして、ST1402において、スペクトルモデルパラメータ復号部1103によりスペクトルモデルパラメータの量子化インデクスからスペクトルモデルSiの統計パラメータである平均振幅Sav#iおよび標準偏差Sdv#i(i=1,...,M)を復号する。次に、ST1403において、遷移系列生成部1101により、Si-Sj間の遷移確率p(i,j)の量子化インデクスを用いて遷移確率p(i,j)が復号され、スペクトルモデルSiの遷移が与えられた遷移確率p(i,j)となるようなスペクトルモデル番号遷移系列[index'(l)](1≦index'(l)≦M, l=0,1,2,...)が生起される。
【0106】
次に、ST1404において、スペクトルモデルSiに対する継続フレーム数Liの統計モデルパラメータの量子化インデクスからの復号値(Liの平均値Lav#i,標準偏差値Ldv#i)を用いて、i=index'(l)に対して平均値Lav#i、標準偏差Ldv#iを有する正規分布に従うように制御された継続フレーム数Lが、継続長制御部1102により生成される。また、ST1405において、乱数位相生成部1104により乱数位相が生成される。
【0107】
そして、ST1406において、スペクトル生成部1105により、ST1403において得られたモデル番号index'(l)、および、ST1402において得られたスペクトルモデルSi (i=1,...,M)に関するモデル情報(Siの平均振幅Sav#iおよび標準偏差Sdv#i)を用いて、(3)式で示されるindex'(l)に対するスペクトル振幅時系列[X'(n)]が生成される。
【0108】
ここで、S index'(l)は、i=index'(l)に対する平均振幅Sav#i、標準偏差Sdv#iを有する正規分布に従うものとし、また継続フレーム数Lは、ST1404において生成されたものである。なお、生成された振幅スペクトル時系列に対してスペクトルが滑らかに変化するよう平滑化を行ってもよい。さらに、遷移系列[index'(l)]に沿って生成した所定の時間長(=当該モデル化区間のフレーム数NFRM)のスペクトル振幅時系列に対して、ST1405において生成された乱数位相を与えて、スペクトル時系列を作成する。
【0109】
ST1407において、IFFT部1106により、作成されたスペクトル時系列が時間領域の波形に変換された後、ST1408において、重ね合わせ加算部1107によりフレーム間の信号の重ね合わせ加算が行なわれる。ST1409において、重ね合わせ加算された信号が最終的な合成雑音信号として出力される。
【0110】
このように、本実施の形態においては、背景雑音信号を統計的モデルで表現している。すなわち、雑音信号分析装置(送信側装置)において、雑音信号を用いて、雑音信号スペクトルのスペクトル変化を含めた統計的情報(統計モデルパラメータ)を生成し、生成した情報を雑音信号合成装置(受信側装置)に送信している。また、雑音信号合成装置(受信側装置)においては、雑音信号分析装置(送信側装置)から送信された上記情報(統計モデルパラメータ)を用いて、雑音信号を合成している。これにより、雑音信号合成装置(受信側装置)においては、間欠的に分析された雑音信号のスペクトルではなく、雑音信号スペクトルのスペクトル変化を含めた統計的情報を用いて、雑音信号を合成することができるので、聴感的に劣化の少ない雑音信号を合成することができる。また、実際の周囲騒音下での雑音信号の統計的な特性は比較的長期間(例えば数秒〜十数秒)に渡り一定であることが想定されることから、モデルパラメータの伝送周期もその程度の長期間周期で良いため、復号側に伝送すべき雑音信号のモデルパラメータの情報量は少なくて済み、効率的な伝送を実現できる。
【0111】
(実施の形態4)
本実施の形態では、実施の形態3で説明した雑音信号分析装置を用いて音声符号化装置を実現し、また、実施の形態3で説明した雑音信号合成装置を用いて音声復号装置を実現する場合について説明する。
【0112】
まず、本実施の形態にかかる音声符号化装置について、図15を参照して説明する。図15は、本発明の実施の形態4にかかる音声符号化装置の構成を示すブロック図である。図15において、入力音声信号は、有音/無音判定器1501、音声符号器1502および雑音信号符号器1503に入力される。
【0113】
有音/無音判定器1501は、入力音声信号に対して有音区間か無音区間(雑音のみの区間)かを判定しその判定結果を出力する。有音/無音判定器1501は、任意のものでよく、一般には、入力信号のパワー、スペクトルやピッチ周期などの複数のパラメータの瞬時量または変化量等を用いて判定を行うものである。
【0114】
音声符号器1502は、有音/無音判定器1501による判定結果が有音である場合に、入力音声信号に対して音声符号化を行い、その符号化データをDTX制御および多重化器1504に出力する。この音声符号器1502は、有音区間用の符号器であり、音声を高能率に符号化する任意の符号器である。
【0115】
雑音信号符号器1503は、有音/無音判定器1501による判定結果が無音である場合に、入力音声信号に対して雑音信号の符号化を行い入力雑音信号に対する統計モデルパラメータの量子化インデクスを符号化データとして出力する。この雑音符号器1503として、実施の形態3で説明した雑音分析装置(図9)を用いる。
【0116】
DTX制御および多重化器1504は、有音/無音判定器1501、音声符号器1502および雑音信号符号器1503からの出力を用いて送信データとして送信すべき情報の制御と送信情報の多重化を行い、送信データを出力する。
【0117】
次に、本発明の実施の形態4にかかる音声復号装置について、図16を参照して説明する。図16は、本発明の実施の形態4にかかる音声復号装置の構成を示すブロック図である。図16において、図15に示した音声符号化装置により送信された送信データは、受信データとして分離およびDTX制御器1601に入力される。
【0118】
分離およびDTX制御器1601は、受信データを音声復号および雑音生成に必要な音声符号化データ、または雑音モデル符号化データ、および有音/無音判定フラグに分離する。
【0119】
音声復号器1602は、前記有音/無音判定フラグが有音区間を示す場合に、前記音声符号化データを用いて音声復号を行い復号音声を出力する。雑音信号復号器1603は、前記有音/無音判定フラグが無音区間を示す場合に、前記雑音モデル符号化データを用いて雑音信号の生成を行い、雑音信号を出力する。この雑音信号復号器1603として、実施の形態3で説明した雑音信号合成装置(図11)を用いる。
【0120】
出力切り替え器1604は、音声復号器1602の出力と雑音信号復号器1603の出力を、有音/無音判定フラグの結果に応じて切り替えて出力し、出力信号とする。
【0121】
次に、上記構成を有する音声符号化装置および音声復号装置の動作について説明する。まず、音声符号化装置の動作について、図17を参照して説明する。図17は、本発明の実施の形態4にかかる音声符号化装置の動作を示すフロー図である。
【0122】
まず、ST1701において、フレーム毎の音声信号が入力され、ST1702、ST1703において、入力音声信号に対して有音区間か無音区間(雑音のみの区間)かが判定されその判定結果が出力される。この有音/無音判定は任意の方法でよく、一般には、入力信号のパワー、スペクトルやピッチ周期などの複数のパラメータの瞬時量または変化量等を用いて判定が行われる。
【0123】
ST1702における有音/無音判定結果が有音である場合には、ST1704において入力音声信号に対する音声符号化が行われ、その符号化データが出力される。この音声符号化処理は有音区間用の符号化で、音声を高能率に符号化する任意の方法でよい。
【0124】
一方、前記有音/無音判定結果が無音である場合には、ST1705において、入力音声信号に対する雑音信号の符号化が行われ、入力雑音信号に対するモデルパラメータが出力される。この雑音信号符号化として、実施の形態3にて説明した雑音信号の分析方法を用いる。
【0125】
ST1706において、前記有音/無音判定結果、音声符号化および雑音信号符号化からの出力を用いて送信データとして送信すべき情報の制御(DTX制御)と送信情報の多重化が行われ、ST1707において送信データとして出力される。
【0126】
次に、音声復号装置の動作について、図18を参照して説明する。図18は、本発明の実施の形態4にかかる音声復号装置の動作を示すフロー図である。
【0127】
まず、ST1801において、符号化側で入力信号に対して符号化され送信されたデータが受信データとして受信される。ST1802において、受信データは、音声復号および雑音生成に必要な音声符号化データ、または雑音モデル符号化パラメータ、および有音/無音判定フラグに分離される。
【0128】
前記有音/無音判定フラグが有音区間を示す場合には、ST1804において前記音声符号化データを用いて音声復号が行われ、復号音声が出力される。一方、前記有音/無音判定フラグが無音区間を示す場合には、ST1805において前記雑音モデル符号化パラメータを用いて雑音信号の生成が行われ、雑音信号が出力される。この雑音信号復号処理として、実施の形態4で説明した雑音信号の合成方法を用いる。
【0129】
ST1806において、有音/無音判定フラグの結果に応じてST1804における音声復号またはST1805における雑音信号復号の出力が、復号信号として出力される。
【0130】
なお、上記実施の形態においては、復号信号の出力を有音区間と無音区間で復号音声信号と合成雑音信号の切り替えで出力されるものとして説明したが、別の形態として、無音区間で合成した雑音信号を有音区間においても復号音声信号に加算して出力するようにしてもよい。さらに、音声符号化側で雑音信号を含む入力音声信号を、雑音信号と雑音を含まない音声信号とに分離する手段を設けて、分離後の音声信号および雑音信号を符号化したデータを用いて、復号側で無音区間で合成した雑音信号を、上記と同様に有音区間においても復号音声信号に加算して出力するようにしてもよい。
【0131】
このように、本実施の形態によれば、有音区間では音声信号を高品質で符号化できる音声符号化を、無音区間では聴感的に劣化が少ない雑音信号分析装置および合成装置を用いて雑音信号の符号化および復号を行うことにより、背景雑音環境下においても高品質な符号化を行える。また、実際の周囲騒音下での雑音信号の統計的な特性は比較的長期間(例えば数秒〜十数秒)に渡り一定であることが想定されることから、モデルパラメータの伝送周期もその程度の長期間周期で良いため、復号側に伝送すべき雑音信号のモデルパラメータの情報量は少なくて済み、効率的な伝送を実現できる。
【0132】
なお、上記実施の形態1および3で説明した雑音信号分析装置および雑音信号合成装置によりなされる処理、ならびに、上記実施の形態2および4で説明した音声符号化装置および音声復号装置によりなされる処理をソフトウェア(プログラム)により実現し、このソフトウェア(プログラム)を、コンピュータにより読み取ることが可能な記録媒体に格納することが可能である。
【0133】
【発明の効果】
以上説明したように、本発明によれば、雑音信号を統計的モデルで表現することにより、聴感的に劣化の少ない雑音信号を合成することができる。
【図面の簡単な説明】
【図1】本発明の実施の形態1にかかる雑音信号分析装置の構成を示すブロック図
【図2】本発明の実施の形態1にかかる雑音信号合成装置の構成を示すブロック図
【図3】本発明の実施の形態1にかかる雑音信号分析装置の動作を示すフロー図
【図4】本発明の実施の形態1にかかる雑音信号合成装置の動作を示すフロー図
【図5】本発明の実施の形態2にかかる音声符号化装置の構成を示すブロック図
【図6】本発明の実施の形態2にかかる音声復号装置の構成を示すブロック図
【図7】本発明の実施の形態2にかかる音声符号化装置の動作を示すフロー図
【図8】本発明の実施の形態2にかかる音声復号装置の動作を示すフロー図
【図9】本発明の実施の形態3にかかる雑音信号分析装置の構成を示すブロック図
【図10】本発明の実施の形態3にかかるスペクトルモデルパラメータ算出・量子化部の構成を示すブロック図
【図11】本発明の実施の形態3にかかる雑音信号合成装置の構成を示すブロック図
【図12】本発明の実施の形態3にかかる雑音信号分析装置の動作を示すフロー図
【図13】本発明の実施の形態3にかかるスペクトルモデルパラメータ算出・量子化部の動作を示すフロー図
【図14】本発明の実施の形態3にかかる雑音信号合成装置の動作を示すフロー図
【図15】本発明の実施の形態4にかかる音声符号化装置の構成を示すブロック図
【図16】本発明の実施の形態4にかかる音声復号装置の構成を示すブロック図
【図17】本発明の実施の形態4にかかる音声符号化装置の動作を示すフロー図
【図18】本発明の実施の形態4にかかる音声復号装置の動作を示すフロー図
【図19】従来のDTX制御付きCS−ACELP符号化方式を採用した符号化装置の構成を示すブロック図
【符号の説明】
101 窓かけ部
102 FFT部
103 スペクトルモデル記憶部
104 スペクトルモデル系列算出部
105 継続長モデル・遷移確率算出部
201 遷移系列生成部
202 スペクトルモデル記憶部
203 継続長制御部
204 乱数位相生成部
205 スペクトル生成部
206 IFFT部
207 重ね合わせ加算部

Claims (14)

  1. 音声信号の無音区間のスペクトルをモデル化して複数の雑音スペクトルモデルを取得するモデル取得手段と、
    複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得手段と、
    前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得手段と、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を符号化する符号化手段と、
    を具備することを特徴とする雑音符号化装置。
  2. 前記符号化手段は、
    前記継続時間情報として、当該継続時間情報に関する統計パラメータを符号化する、
    ことを特徴とする請求項1記載の雑音符号化装置。
  3. 前記符号化手段は、
    前記雑音スペクトルモデルの振幅として、当該振幅が従う統計分布を示す統計パラメータを符号化する、
    ことを特徴とする請求項1記載の雑音符号化装置。
  4. 音声信号の有音区間に対し音声信号用の符号化を行う音声符号化手段と、
    前記音声信号の無音区間に対し雑音信号用の符号化を行う雑音符号化手段と、
    を具備し、
    前記雑音符号化手段は、
    前記音声信号の無音区間のスペクトルをモデル化して複数の雑音スペクトルモデルを取得するモデル取得手段と、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得手段と、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得手段と、前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を符号化する符号化手段と、を具備する、
    ことを特徴とする音声符号化装置。
  5. 前記音声符号化手段は、前記有音区間において第1区間ごとに符号化を行い、
    前記雑音符号化手段は、前記無音区間において第2区間ごとに符号化を行い、
    前記第2区間は、前記第1区間よりも長い、
    ことを特徴とする請求項4記載の音声符号化装置。
  6. 音声信号の無音区間の符号化パラメータを復号する雑音復号装置であって、
    前記符号化パラメータから、前記音声信号の無音区間のスペクトルをモデル化して得られる複数の雑音スペクトルモデルを取得するモデル取得手段と、
    前記符号化パラメータから、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得手段と、
    前記符号化パラメータから、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得手段と、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を用いて前記音声信号の無音区間を復号する復号手段と、
    を具備することを特徴とする雑音復号装置。
  7. 前記継続時間情報取得手段は、
    前記継続時間情報として、当該継続時間情報に関する統計パラメータを取得する、
    ことを特徴とする請求項6記載の雑音復号装置。
  8. 前記モデル取得手段は、
    前記雑音スペクトルモデルの振幅として、当該振幅が従う統計分布を示す統計パラメータを取得する、
    ことを特徴とする請求項6記載の雑音復号装置。
  9. 音声信号の有音区間の符号化パラメータに対し音声信号用の復号を行う音声復号手段と、
    前記音声信号の無音区間の符号化パラメータに対し雑音信号用の復号を行う雑音復号手段と、
    を具備し、
    前記雑音復号手段は、
    前記符号化パラメータから、前記音声信号の無音区間のスペクトルをモデル化して得られる複数の雑音スペクトルモデルを取得するモデル取得手段と、前記符号化パラメータから、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得手段と、前記符号化パラメータから、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得手段と、前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を用いて前記音声信号の無音区間を復号する復号手段と、を具備する、
    ことを特徴とする音声復号装置。
  10. 前記音声復号手段は、前記有音区間の符号化パラメータに対し第1区間ごとに復号を行い、
    前記雑音復号手段は、前記無音区間の符号化パラメータに対し第2区間ごとに復号を行い、
    前記第2区間は、前記第1区間よりも長い、
    ことを特徴とする請求項9記載の音声復号装置。
  11. 音声信号の無音区間のスペクトルをモデル化して複数の雑音スペクトルモデルを取得するモデル取得ステップと、
    複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得ステップと、
    前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得ステップと、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を符号化する符号化ステップと、
    を具備することを特徴とする雑音符号化方法。
  12. 音声信号の無音区間の符号化パラメータを復号する雑音復号方法であって、
    前記符号化パラメータから、前記音声信号の無音区間のスペクトルをモデル化して得られる複数の雑音スペクトルモデルを取得するモデル取得ステップと、
    前記符号化パラメータから、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得ステップと、
    前記符号化パラメータから、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得ステップと、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を用いて前記音声信号の無音区間を復号する復号ステップと、
    を具備することを特徴とする雑音復号方法。
  13. 音声信号の無音区間のスペクトルをモデル化して複数の雑音スペクトルモデルを取得するモデル取得ステップと、
    複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得ステップと、
    前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得ステップと、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を符号化する符号化ステップと、
    をコンピュータに実行させることを特徴とする雑音符号化プログラム。
  14. 音声信号の無音区間の符号化パラメータを復号する雑音復号プログラムであって、
    前記符号化パラメータから、前記音声信号の無音区間のスペクトルをモデル化して得られる複数の雑音スペクトルモデルを取得するモデル取得ステップと、
    前記符号化パラメータから、複数の前記雑音スペクトルモデルのうちの任意の雑音スペクトルモデルから他の雑音スペクトルモデルへの遷移確率を、前記他の雑音スペクトルモデルの全てについて取得する遷移確率取得ステップと、
    前記符号化パラメータから、前記雑音スペクトルモデルを継続使用する時間を示す継続時間情報を、前記雑音スペクトルモデルの全てについて取得する継続時間情報取得ステップと、
    前記雑音スペクトルモデル、前記遷移確率、および前記継続時間情報を用いて前記音声信号の無音区間を復号する復号ステップと、
    をコンピュータに実行させることを特徴とする雑音復号プログラム。
JP2001070148A 2000-09-06 2001-03-13 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法 Expired - Fee Related JP3670217B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2001070148A JP3670217B2 (ja) 2000-09-06 2001-03-13 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法
AU2001282616A AU2001282616A1 (en) 2000-09-06 2001-09-04 Noise signal analyzer, noise signal synthesizer, noise signal analyzing method, and noise signal synthesizing method
US10/129,076 US6934650B2 (en) 2000-09-06 2001-09-04 Noise signal analysis apparatus, noise signal synthesis apparatus, noise signal analysis method and noise signal synthesis method
PCT/JP2001/007630 WO2002021091A1 (fr) 2000-09-06 2001-09-04 Analyseur de signal de bruit, synthetiseur de signal de bruit, procede d'analyse de signal de bruit et procede de synthese de signal de bruit
EP01961335A EP1258715B1 (en) 2000-09-06 2001-09-04 Noise signal analyzer, noise signal synthesizer, noise signal analyzing method, and noise signal synthesizing method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2000-270588 2000-09-06
JP2000270588 2000-09-06
JP2001070148A JP3670217B2 (ja) 2000-09-06 2001-03-13 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法

Publications (2)

Publication Number Publication Date
JP2002156999A JP2002156999A (ja) 2002-05-31
JP3670217B2 true JP3670217B2 (ja) 2005-07-13

Family

ID=26599385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001070148A Expired - Fee Related JP3670217B2 (ja) 2000-09-06 2001-03-13 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法

Country Status (5)

Country Link
US (1) US6934650B2 (ja)
EP (1) EP1258715B1 (ja)
JP (1) JP3670217B2 (ja)
AU (1) AU2001282616A1 (ja)
WO (1) WO2002021091A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7171356B2 (en) * 2002-06-28 2007-01-30 Intel Corporation Low-power noise characterization over a distributed speech recognition channel
JP2004029674A (ja) * 2002-06-28 2004-01-29 Matsushita Electric Ind Co Ltd 雑音信号符号化装置及び雑音信号復号化装置
EP1768106B8 (en) * 2004-07-23 2017-07-19 III Holdings 12, LLC Audio encoding device and audio encoding method
CN1815550A (zh) * 2005-02-01 2006-08-09 松下电器产业株式会社 可识别环境中的语音与非语音的方法及系统
CN1953052B (zh) * 2005-10-20 2010-09-08 株式会社东芝 训练时长预测模型、时长预测和语音合成的方法及装置
KR100785471B1 (ko) 2006-01-06 2007-12-13 와이더댄 주식회사 통신망을 통해 가입자 단말기로 전송되는 오디오 신호의출력 품질 개선을 위한 오디오 신호의 처리 방법 및 상기방법을 채용한 오디오 신호 처리 장치
US20080312916A1 (en) * 2007-06-15 2008-12-18 Mr. Alon Konchitsky Receiver Intelligibility Enhancement System
US8190440B2 (en) * 2008-02-29 2012-05-29 Broadcom Corporation Sub-band codec with native voice activity detection
EP2151821B1 (en) * 2008-08-07 2011-12-14 Nuance Communications, Inc. Noise-reduction processing of speech signals
JP6053272B2 (ja) * 2011-10-19 2016-12-27 オリンパス株式会社 顕微鏡装置
US10066962B2 (en) 2013-07-01 2018-09-04 Battelle Energy Alliance, Llc Apparatus, system, and method for sensor authentication
CN113066472A (zh) * 2019-12-13 2021-07-02 科大讯飞股份有限公司 合成语音处理方法及相关装置

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2102254B (en) * 1981-05-11 1985-08-07 Kokusai Denshin Denwa Co Ltd A speech analysis-synthesis system
US4720802A (en) * 1983-07-26 1988-01-19 Lear Siegler Noise compensation arrangement
US4897878A (en) * 1985-08-26 1990-01-30 Itt Corporation Noise compensation in speech recognition apparatus
US4852181A (en) * 1985-09-26 1989-07-25 Oki Electric Industry Co., Ltd. Speech recognition for recognizing the catagory of an input speech pattern
JPH0636158B2 (ja) * 1986-12-04 1994-05-11 沖電気工業株式会社 音声分析合成方法及び装置
JPH01502779A (ja) 1987-04-03 1989-09-21 アメリカン テレフォン アンド テレグラフ カムパニー 適応多変数推定装置
DE3874471T2 (de) 1987-04-03 1993-02-25 American Telephone & Telegraph Abstandsmessungskontrolle eines multidetektorsystems.
US5761639A (en) * 1989-03-13 1998-06-02 Kabushiki Kaisha Toshiba Method and apparatus for time series signal recognition with signal variation proof learning
US5148489A (en) * 1990-02-28 1992-09-15 Sri International Method for spectral estimation to improve noise robustness for speech recognition
US5465317A (en) * 1993-05-18 1995-11-07 International Business Machines Corporation Speech recognition system with improved rejection of words and sounds not in the system vocabulary
KR100330290B1 (ko) * 1993-11-04 2002-08-27 소니 가부시끼 가이샤 신호부호화장치,신호복호화장치,및신호부호화방법
US5774846A (en) * 1994-12-19 1998-06-30 Matsushita Electric Industrial Co., Ltd. Speech coding apparatus, linear prediction coefficient analyzing apparatus and noise reducing apparatus
JP3522012B2 (ja) 1995-08-23 2004-04-26 沖電気工業株式会社 コード励振線形予測符号化装置
US5794199A (en) 1996-01-29 1998-08-11 Texas Instruments Incorporated Method and system for improved discontinuous speech transmission
JP3866793B2 (ja) 1996-05-21 2007-01-10 ヒューレット・パッカード・カンパニー ネットワークシステム
SE507370C2 (sv) * 1996-09-13 1998-05-18 Ericsson Telefon Ab L M Metod och anordning för att alstra komfortbrus i linjärprediktiv talavkodare
JP4006770B2 (ja) 1996-11-21 2007-11-14 松下電器産業株式会社 ノイズ推定装置、ノイズ削減装置、ノイズ推定方法、及びノイズ削減方法
JP3464371B2 (ja) 1996-11-15 2003-11-10 ノキア モービル フォーンズ リミテッド 不連続伝送中に快適雑音を発生させる改善された方法
US5960389A (en) * 1996-11-15 1999-09-28 Nokia Mobile Phones Limited Methods for generating comfort noise during discontinuous transmission
US5924065A (en) * 1997-06-16 1999-07-13 Digital Equipment Corporation Environmently compensated speech processing
US6144937A (en) * 1997-07-23 2000-11-07 Texas Instruments Incorporated Noise suppression of speech by signal processing including applying a transform to time domain input sequences of digital signals representing audio information
JP4216364B2 (ja) 1997-08-29 2009-01-28 株式会社東芝 音声符号化/復号化方法および音声信号の成分分離方法
JP3249457B2 (ja) 1997-11-28 2002-01-21 沖電気工業株式会社 ディジタル通信用音声送受信装置
US6182033B1 (en) * 1998-01-09 2001-01-30 At&T Corp. Modular approach to speech enhancement with an application to speech coding
US6453285B1 (en) * 1998-08-21 2002-09-17 Polycom, Inc. Speech activity detector for use in noise reduction system, and methods therefor
US20020116196A1 (en) * 1998-11-12 2002-08-22 Tran Bao Q. Speech recognizer

Also Published As

Publication number Publication date
EP1258715A4 (en) 2005-10-12
US6934650B2 (en) 2005-08-23
EP1258715A1 (en) 2002-11-20
US20020165681A1 (en) 2002-11-07
JP2002156999A (ja) 2002-05-31
AU2001282616A1 (en) 2002-03-22
WO2002021091A1 (fr) 2002-03-14
EP1258715B1 (en) 2008-01-30

Similar Documents

Publication Publication Date Title
US7996233B2 (en) Acoustic coding of an enhancement frame having a shorter time length than a base frame
KR101000345B1 (ko) 음성 부호화 장치, 음성 복호화 장치 및 그 방법
JP4132109B2 (ja) 音声信号の再生方法及び装置、並びに音声復号化方法及び装置、並びに音声合成方法及び装置
CN101496098A (zh) 用于以与音频信号相关联的帧修改窗口的系统及方法
CN103594090A (zh) 使用时间分辨率能选择的低复杂性频谱分析/合成
JP2014016628A (ja) オーディオ及び/またはスピーチ信号符号化及び/または復号化方法及び装置
JP3670217B2 (ja) 雑音符号化装置、雑音復号装置、雑音符号化方法および雑音復号方法
CN105745703A (zh) 信号编码方法和装置以及信号解码方法和装置
US6778953B1 (en) Method and apparatus for representing masked thresholds in a perceptual audio coder
JP2000357000A (ja) 雑音信号符号化装置および音声信号符号化装置
JP2003108197A (ja) オーディオ信号復号化装置およびオーディオ信号符号化装置
KR101403340B1 (ko) 변환 부호화 방법 및 장치
KR102052144B1 (ko) 음성 신호의 대역 선택적 양자화 방법 및 장치
US8000975B2 (en) User adjustment of signal parameters of coded transient, sinusoidal and noise components of parametrically-coded audio before decoding
CN115171709B (zh) 语音编码、解码方法、装置、计算机设备和存储介质
JP4578145B2 (ja) 音声符号化装置、音声復号化装置及びこれらの方法
JP2006047561A (ja) オーディオ信号符号化装置およびオーディオ信号復号化装置
JP2016035501A (ja) 音声符号化装置、音声符号化方法、音声符号化用コンピュータプログラム、音声復号装置、音声復号方法及び音声復号用コンピュータプログラム
KR20080034819A (ko) 부호화/복호화 장치 및 방법
KR20080092823A (ko) 부호화/복호화 장치 및 방법
JP5724338B2 (ja) 符号化装置および符号化方法、復号装置および復号方法、並びにプログラム
JPH10111700A (ja) 音声圧縮符号化方法および音声圧縮符号化装置
JP2002169595A (ja) 固定音源符号帳及び音声符号化/復号化装置
JPH06102900A (ja) 音声符号化方式および音声復号化方式
Liu The perceptual impact of different quantization schemes in G. 719

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040330

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040531

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20040520

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040816

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20040816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20040816

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20041214

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20050209

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20050412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20050413

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090422

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100422

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110422

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120422

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130422

Year of fee payment: 8

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees