JP5977176B2 - 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム - Google Patents
音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム Download PDFInfo
- Publication number
- JP5977176B2 JP5977176B2 JP2012558016A JP2012558016A JP5977176B2 JP 5977176 B2 JP5977176 B2 JP 5977176B2 JP 2012558016 A JP2012558016 A JP 2012558016A JP 2012558016 A JP2012558016 A JP 2012558016A JP 5977176 B2 JP5977176 B2 JP 5977176B2
- Authority
- JP
- Japan
- Prior art keywords
- frequency band
- time envelope
- envelope
- low frequency
- time
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/02—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L19/00—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
- G10L19/04—Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
- G10L19/26—Pre-filtering or post-filtering
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/038—Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
- G10L21/0388—Details of processing therefor
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/21—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being power information
Description
Coding)などを挙げることができる。
Mirror Filter)バンクによって周波数領域に変換された信号に対し、低周波帯域から高周波帯域へのスペクトル係数の複写を行うことにより高周波成分を生成した後、複写された係数のスペクトル包絡とトーナリティを調整することによって高周波成分の調整を行う。以下、スペクトル包絡とトーナリティの調整を、「周波数エンベロープの調整」と称する。このような帯域拡張技術を利用した音声符号化方式は、信号の高周波成分を少量の補助情報のみを用いて再生することができるため、音声符号化の低ビットレート化のために有効である。
envelope time segment)に対応してもよい。なお、本実施形態においては、上記フレームが規定する時間間隔は、上記の例には限定されない。上記インデックスiは、“ISO/IEC 14496-3”に規定される“MPEG4 AAC”で利用されるSBRにおける、QMFサブバンドサブサンプル(QMF subband subsample)、または、それを束ねるタイムスロット(time slot)、に対応してもよい。
上記条件を満たす、可能な整数の組(kl、kh)は、全部でnmax=kx(kx+1)/2個ある。これらの整数の組の内の任意の一つを選べば、上記副周波数帯が指定できる。
上記式中、sc(j)、0≦j≦dは平滑化係数であり、dは平滑化の次数である。sc(j)は例えば、下記式;
によって設定されるが、本実施形態においてsc(j)の値は上記式には限定されない。
さらには、上記L0(k.i)は例えば下記式で計算してもよい。
ただし、εはゼロ割を回避する緩和係数である。またさらには、上記L0(k.i)は例えば下記式で計算してもよい。
により求める。上記平均を用いて、変位ベクトルを下記式で定義する。
これらの変位ベクトルから、サイズD×Dの分散共分散行列Covを下記式で算出する。
を満たす互いに直交する、行列Covの固有ベクトルV(k)を算出する。ここで、上記V(k) iは固有ベクトルV(k)の成分であり、λ(k)はV(k)に対応する行列Covの固有値である。ここで、上記ベクトルV(k)の各々は、正規化されていてもよい。ただし、正規化の方法は本発明においては限定されない。以降、記述の簡便化のため、λ(1)≧λ(2)≧・・・≧λ(D)とする。
一方、D<m(=n−1)なら、上記固有ベクトルを用いて、下記式により算出する。
ここで、αは定数であり、例えば、α=0としてもよい。また、同じくD<m(=n−1)の場合、下記式により算出してもよい。
なる係数を含むものであってもよく、その場合は、上記gdec(l,i)が、下記式;
によって与えられてもよい。
で与えられる係数を含むものであってもよく、その場合は、上記gdec(l,i)が、下記式;
あるいは、下記式;
によって与えられるとしても良い。ここで、U(k,i){1≦k≦g、t(s)≦i<t(s+1)、0≦s<sE}は所定の係数、あるいは、所定の関数である。例えば、上記U(k,i)は、下記式で与えられる関数でもよい。
ここで、Ωは所定の係数である。
Audio Coding”)。
その後、符号化系列復号/逆量子化部1eによって与えられるノイズフロアー・スケールファクターQ(m,i)を下記式で変換する。
ただし、M=F(nH+1)−F(1)である。また、ゲインを下記式で算出する。
ここで、下記式;
により表される量を定義する。
ここで、V0、V1はノイズ成分を規定する配列であり、fは、インデックスiを上記配列上のインデックスに写像する関数である(具体例については、“ISO/IEC 14496-3 4.B.18”を参照。)。
次に、上記高周波数帯域の第l(1≦l≦nH)番目の周波数帯域の参照時間エンベロープを、H(l、i){t(s)≦i<t(s+1)}と表すことにすると、参照時間エンベロープH(l、i)は、下記式;
又は、下記式;
によって算出される。
によって計算される。また、この誤差は、下記式を利用して重みつき誤差として計算されてもよい。
さらには、誤差は下記式によって計算されてもよい。
ここで、重みw(l,i)は時間インデックスiにより変化する重みとしても、あるいは、周波数インデックスlにより変化する重みとしても定義してよく、さらに時間インデックスi及び周波数インデックスlにより変化する重みとして定義してもよい。なお、本実施形態においては、上記誤差の形態、および、上記例にある重みの形態には限定されない。
とする)(ステップS36)に、帯域合成フィルタバンク部1jに送られる。一方、時間エンベロープ算出制御部1kは、低周波数帯域信号の電力が所定の閾値よりも大きい場合には、低周波数帯域時間エンベロープ算出部1f1〜1fnには低周波数帯域時間エンベロープ算出制御信号を、時間エンベロープ算出部1gには時間エンベロープ算出制御信号を出力して、低周波数帯域時間エンベロープ算出部1f1〜1fnおよび時間エンベロープ算出部1gは時間エンベロープの算出処理を実施するように制御する。この場合、時間エンベロープ調整部1iにて上記時間エンベロープに基づいて時間エンベロープが調整された高周波数帯域信号は帯域合成フィルタバンク部1jに送られる。
0≦s<sE
ここで、αk(s)、k=1,2,・・・,Num、0≦s<sEは符号化系列復号/逆量子化部1eから与えられる時間エンベロープ情報であり、Flk(x1,x2,・・・,xNum)、1≦l≦nH、1≦k≦nは、Num個の変数を引数とする所定の関数である。その後、上記の方法で取得された係数Al,k(s)を用いて、数式18、数式21、数式23、あるいは、数式24により、時間エンベロープを算出する。
ここで、λ、ωは所定の係数である。
ここで、上記sfdec(k,s)(ただし、1≦k≦mH、0≦s<sE)は、副周波数帯B(F) kに対応するスケールファクタである。
ここで、C=0としてもよいが、本実施形態においては、Cの値は規定されない。そして、周波数エンベロープ重畳部1qは、整数1が集合Ncに含まれなければ、周波数エンベロープ情報から、スケールファクタsfdec(1、s)、0≦s<sを取得する。
(ステップk)
整数kが集合Ncに含まれなければ、周波数エンベロープ情報から、スケールファクタの差分dsfdec(k、s)、0≦s<sを取得し、下記式;
によりスケールファクタを算出し、整数kに1を加算して次の(ステップk)の処理に進む。一方、整数kが集合Ncに含まれる場合は、そのまま、整数kに1を加算して次の(ステップk)の処理に進む。
ただし、この場合、初期値に対応する、sfdec(k、0)、1≦k≦mHは上記の方法等、別の手段を用いて取得する。
また、音声復号装置101側に対応して、下記式;
によって設定しても良い。
により定義し、上記dsf(k、s)とsf(1、s)(0≦s<sE)を周波数エンベロープ情報としてもよい。
14496-3 4.B.18”に記載の方法に従い、上記式のsf(k,s)を用いて、下記式;
によってEDelta(k,s)を算出し、EDelta(k,s)をハフマン符号化してもよい。
本変形例では、第1の実施形態にかかる音声復号装置1の時間エンベロープ算出部1gでは、算出した時間エンベロープに所定の関数に基づく処理を施す。例えば、時間エンベロープ算出部1gは、時間エンベロープを時間的に正規化する処理をし、下記式にて時間エンベロープET’(l, i)を算出する。
本変形例では、時間エンベロープET’(l,
i)を算出した後では、それ以降の処理において量ET(l,i)を量ET’(l,i)に置き換えて処理することができる。
本変形例では、第1の実施形態にかかる音声復号装置1の第1〜第n低周波数帯域時間エンベロープ算出部1f1〜1fnにおいて、量L0(k, i)を時間方向に平滑化して時間エンベロープL1(k, i)を取得する際には、フレームs−1からフレームsに移行する際にL0(k,i)(t(s)-d≦i<t(s))を保持しておく。本変形例によれば、フレームs−1との境界に近いフレームsの量L0(k, i)(より具体的には、L0(k,i) (t(s)≦i<t(s)+d))に対しても平滑化ができる。
本変形例では、第1の実施形態の音声符号化装置2にかかる時間エンベロープ情報算出部2fにおける時間エンベロープ情報の算出は、参照時間エンベロープH(l,i)と上記g(l,i)の相関に基づいて実施される。例えば、時間エンベロープ情報算出部2fは、以下のように時間エンベロープ情報を算出する。
上記相関係数corr(l)を所定の閾値と比較し、その比較結果に基づいて時間エンベロープ情報を算出する。さらには、corr2(l)に相当する値を求めて所定の閾値と比較し、その比較結果に基づいて時間エンベロープ情報を算出することでも実現できる。
本変形例では、第2の実施形態の音声復号装置101にかかる周波数エンベロープ重畳部1qにおいて、周波数エンベロープEF,dec(k,s)に所定の関数に基づく処理を施す。例えば、周波数エンベロープ重畳部1qは、下記式にて与えられる周波数エンベロープEF,dec(k,s)を平滑化する関数に基づく処理を施す。
ただし、
であり、sch(j)、dhは、それぞれ所定の平滑化係数、平滑化次数である。この際には、以降の処理において、EF,dec,Filt(k,i)をEF,dec(k,s)として置き換えて処理を進めればよい。
第2の実施形態の音声復号装置101にかかる周波数エンベロープ重畳部1qにおいては、量E(m, i)はC(s)によりE2(m, i)を補正した値になっている(数式60)。また、数式61によると、フレームsの帯域kx≦m≦kmaxにおける時間/周波数エンベロープ調整後の高周波数帯域信号のエネルギーが、フレームsの帯域kx≦m≦kmaxにおける時間エンベロープE0(m,i)の総和になるように補正されている。一方、数式62によると、フレームsの帯域kx≦m≦kmaxにおける時間/周波数エンベロープ調整後の高周波数帯域信号のエネルギーは、フレームsの帯域kx≦m≦kmaxにおける周波数エンベロープE1(m,i)の総和になるように補正されている。本変形例では、C(s)は、フレームsの帯域kx≦m≦kmaxにおける時間/周波数エンベロープ調整後の高周波数帯域信号のエネルギーが時間/周波数エンベロープ調整後も保持されるように、下記式によって与えられる。
adjustment)と同様に、符号化系列復号/逆量子化部1eによって与えられるフレームsにおけるノイズフロアー・スケールファクターQ(m,s)は下記式で変換する。
また、下記式によっても定義できる。
また、S’(m,s)は、フレームsにおいて、インデックスmが表す周波数を含む副周波数帯B(F) k(GH(k)≦m<GH(k+1))内に付加されるシヌソイドがあるか否かを表す関数であり、付加されるシヌソイドがある場合は“1”、それ以外の場合は“0”となる。
ただし、sch(j)、dhは、それぞれ所定の平滑化係数、平滑化次数である。また、GTemp(m,i)、QTemp(m,i)は下記式にて与えられる。
ただし、wold(m,i)、wcurr(m,i)は、それぞれ所定の重み係数である。また、GTemp(m,i)、QTemp(m,i)は下記式にて与えられる。
上記所定の関数に基づく処理を施した場合は、以降の処理において、G3(m,s),Q4(m,s)に代わって、GFilt(m,s),QFilt(m,s)を用いる。
ここで、V0、V1はノイズ成分を規定する配列であり、fは、インデックスiを上記配列上のインデックスに写像する関数であり、φRe,sin、φIm,sinはシヌソイド成分の位相を規定する配列であり、fsinは、インデックスiを上記配列上のインデックスに写像する関数である(具体例については、“ISO/IEC 14496-3 4.6.18”を参照)。
AAC”のSBRにおけるHFアジャストメントのゲインブースタを本発明の第2の実施形態の音声復号装置101にかかる周波数エンベロープ重畳部1qにて適用すると、副周波数帯域B(F) k(GH(k)≦j<GH(k+1))ごとにフレームs単位で、ゲイン制限によるエネルギーの損失の補償をすることになる。一方で下記式によれば、副周波数帯域B(F) k(GH(k)≦j<GH(k+1))ごとに高周波数帯域信号XH(j,i)については時間インデックスi単位で、ゲイン制限によるエネルギーの損失の補償をすることになる。
Adjustment)と類似の手段により行われる。そのため、MPEG4 AAC”のSBRにおけるHFアジャストメント(HF adjustment)と同様に、ゲイン,ノイズフロアー・スケールファクター,シヌソイドレベルに対し、不必要なノイズの付加を避けるためのゲイン制限(ゲインリミッタ Gain limiter)、ゲイン制限によるエネルギーの損失の補償(ゲインブースタ Gain booster)の関数に基づく処理をする場合,当該処理を時間インデックスi(t(s)≦i<t(s+1))に対して実施する。一方、本変形例によると、ゲイン,ノイズフロアー・スケールファクター,シヌソイドレベルに対し、不必要なノイズの付加を避けるためのゲイン制限(ゲインリミッタ Gain limiter)、ゲイン制限によるエネルギーの損失の補償(ゲインブースタ Gain booster)の関数に基づく処理をする場合に、当該処理のうち少なくとも1つの処理はフレームsに対して実施すればよい。従って、本変形例では第2の実施形態の音声復号装置101に比べ、上記の処理の演算量を削減することができる。
上記変形例において、第1の実施形態の音声復号装置1の第1、第2、第3の変形例、及び当該変形例の処理を少なくとも一つ以上実行する第1の実施形態の音声復号装置1の第5の変形例を適用した場合には、時間エンベロープ算出部1gが時間エンベロープET(l,i)を算出しない場合が生じる。このような場合は、E0(m,i)が必要な演算処理では、E0(m,i)を1に置き換えて実行する。この方法により、E0(m,i)、E0(m,i)のべき乗、E0(m,i)の平方根を乗じる処理を省略することができ、演算量を削減できる。なお、上記の方法を用いた処理では、時間/周波数エンベロープ調整部1pはE0(m,i)を算出する必要がない。
時間エンベロープ情報算出部2fは、帯域分割フィルタバンク部2cから得られる周波数領域の信号X(j,i)、音声符号化装置2の通信装置を介して受信された外部からの入力信号、および、ダウンサンプリング部2aからの出力として得られるダウンサンプルされた低周波数帯域の時間領域信号、のうちの少なくとも1つ以上の信号の特性に基づき、時間エンベロープ情報を算出する。上記信号の特性としては、例えば信号の、過渡性、トーナリティ、雑音性などがあるが、本変形例において、信号特性は、これらの具体例に限定されない。
時間エンベロープ算出制御情報生成部2jは、帯域分割フィルタバンク部2cから得られる周波数領域の信号X(j,i)、音声符号化装置2の通信装置を介して受信された外部からの入力信号、および、ダウンサンプリング部2aからの出力として得られるダウンサンプルされた低周波数帯域の時間領域信号、のうちの少なくとも1つ以上の信号の信号特性に応じて、音声復号装置1における低周波数帯域時間エンベロープ算出方法に関する時間エンベロープ算出制御情報を生成する。上記信号の特性としては、例えば信号の、過渡性、トーナリティ、雑音性などがあるが、本変形例において、信号特性は、これらの具体例に限定されない。
第1〜第4の実施形態の音声符号化装置の量子化/符号化部2gについては、ノイズフロアー・スケールファクターや、シヌソイドを付加するか否かを決めるパラメータも量子化・符号化してもよいことは明白である。
Claims (21)
- 音声信号を符号化した符号化系列を復号する音声復号装置であって、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段と、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段と、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段と、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段と、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段と、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段と、
前記時間エンベロープ算出手段で取得された前記時間エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープを調整する時間エンベロープ調整手段と、
前記時間エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段と、
を備え、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号装置。 - 音声信号を符号化した符号化系列を復号する音声復号装置であって、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段と、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段と、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段と、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段と、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段と、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段と、
前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を、前記高周波数帯域の時間エンベロープに重畳して時間周波数エンベロープを取得する周波数エンベロープ重畳手段と、
前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ重畳手段で取得された時間周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整手段と、
前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段と、
を備え、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号装置。 - 音声信号を符号化した符号化系列を復号する音声復号装置であって、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段と、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段と、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段と、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段と、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段と、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段と、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段と、
前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を用いて、周波数エンベロープを算出する周波数エンベロープ算出手段と、
前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ算出手段で取得された周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整手段と、
前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段と、
を備え、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号装置。 - 前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を用いて、前記第1〜第Nの低周波数帯域時間エンベロープ算出手段における低周波数帯域の時間エンベロープの算出、および前記時間エンベロープ算出手段における高周波数帯域の時間エンベロープの算出のうち少なくとも1つを制御する時間エンベロープ算出制御手段をさらに備える、
ことを特徴とする請求項1〜3のいずれか1項に記載の音声復号装置。 - 前記符号化系列復号逆量子化手段によって取得した前記時間エンベロープ情報を用いて、前記第1〜第Nの低周波数帯域時間エンベロープ算出手段における低周波数帯域の時間エンベロープの算出、および前記時間エンベロープ算出手段における高周波数帯域の時間エンベロープの算出のうち少なくとも1つを制御する時間エンベロープ算出制御手段をさらに備える、
ことを特徴とする請求項1〜3のいずれか1項に記載の音声復号装置。 - 前記高周波数帯域符号化系列解析手段は、時間エンベロープ算出制御情報をさらに取得し、
前記高周波数帯域符号化系列解析手段によって取得した時間エンベロープ算出制御情報を用いて、前記第1〜第Nの低周波数帯域時間エンベロープ算出手段における低周波数帯域の時間エンベロープの算出、および前記時間エンベロープ算出手段における高周波数帯域の時間エンベロープの算出のうち少なくとも1つを制御する時間エンベロープ算出制御手段をさらに備える、
ことを特徴とする請求項1〜3のいずれか1項に記載の音声復号装置。 - 前記高周波数帯域符号化系列解析手段は、時間エンベロープ算出制御情報をさらに取得し、
前記符号化系列復号逆量子化手段は、第2の周波数エンベロープ情報をさらに取得し、
前記時間エンベロープ算出制御情報を基に、高周波数帯域成分の周波数エンベロープを前記第2の周波数エンベロープ情報を基に調整するか否かを判断し、当該周波数エンベロープを調整すると判断した場合には、前記第1〜第Nの低周波数帯域時間エンベロープ算出手段における低周波数帯域の時間エンベロープの算出、および前記時間エンベロープ算出手段における高周波数帯域の時間エンベロープの算出を行わないように制御する時間エンベロープ算出制御手段をさらに備える、
ことを特徴とする請求項1〜3のいずれか1項に記載の音声復号装置。 - 前記時間周波数エンベロープ調整手段は、前記高周波数帯域生成手段で生成された音声信号の高周波数帯域成分を所定の関数に基づき処理することを特徴とする請求項2又は3に記載の音声復号装置。
- 前記低周波数帯域時間エンベロープ算出手段は、取得した複数の低周波数帯域の時間エンベロープを所定の関数に基づき処理することを特徴とする請求項1〜8のいずれか1項に記載の音声復号装置。
- 音声信号を符号化する音声符号化装置であって、
前記音声信号を周波数領域に変換する周波数変換手段と、
前記音声信号をダウンサンプリングして低周波数帯域信号を取得するダウンサンプリング手段と、
前記ダウンサンプリング手段で取得した低周波数帯域信号を符号化する低周波数帯域符号化手段と、
前記周波数変換手段によって周波数領域に変換された前記音声信号の低周波数帯域成分の時間エンベロープを複数算出する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段と、
前記第1〜第Nの低周波数帯域時間エンベロープ算出手段により算出された低周波数帯域成分の前記時間エンベロープを用いて、前記周波数変換手段によって変換された前記音声信号の高周波数帯域成分の時間エンベロープを取得するために必要な時間エンベロープ情報を算出する時間エンベロープ情報算出手段と、
前記音声信号を分析し低周波数帯域信号から高周波数帯域成分を生成するために用いる高周波数帯域生成用補助情報を算出する補助情報算出手段と、
前記補助情報算出手段によって生成された前記高周波数帯域生成用補助情報、および前記時間エンベロープ情報算出手段によって算出された前記時間エンベロープ情報を量子化および符号化する量子化符号化手段と、
前記量子化符号化手段によって量子化および符号化された前記高周波数帯域生成用補助情報および前記時間エンベロープ情報を高周波数帯域符号化系列へと構成する符号化系列構成手段と、
前記低周波数帯域符号化手段によって取得された低周波数帯域符号化系列と、前記符号化系列構成手段によって構成された前記高周波数帯域符号化系列とが多重化された符号化系列を生成する多重化手段と、
を備え、
前記時間エンベロープ情報算出手段は、前記高周波数帯域成分の時間エンベロープを取得するための複数の所定の処理を切り替えるための前記時間エンベロープ情報を算出する、
音声符号化装置。 - 前記周波数変換手段によって周波数領域に変換された前記音声信号の高周波数帯域成分の周波数エンベロープ情報を算出する周波数エンベロープ算出手段をさらに備え、
前記量子化符号化手段は、前記周波数エンベロープ情報をさらに量子化および符号化し、
前記符号化系列構成手段は、前記量子化符号化手段によって量子化および符号化された前記周波数エンベロープ情報をさらに加えて高周波数帯域符号化系列を構成する、
ことを特徴とする請求項10に記載の音声符号化装置。 - 前記周波数変換手段によって周波数領域に変換された前記音声信号と、前記時間エンベロープ情報算出手段にて算出された時間エンベロープ情報のうち少なくとも1つを用いて、音声復号装置における時間エンベロープ算出を制御する時間エンベロープ算出制御情報を生成する制御情報生成手段をさらに備え、
前記符号化系列構成手段は、前記制御情報生成手段にて生成された前記時間エンベロープ算出制御情報をさらに加えて高周波数帯域符号化系列を構成する、
ことを特徴とする請求項10又は11に記載の音声符号化装置。 - 前記時間エンベロープ情報算出手段は、前記周波数変換手段によって周波数領域に変換された前記音声信号の高周波数帯域成分の時間エンベロープを算出し、
前記第1〜第Nの低周波数帯域成分の時間エンベロープから算出した時間エンベロープと、上記高周波数帯域成分の時間エンベロープとの相関に基づいて、時間エンベロープ情報を算出することを特徴とする請求項10〜12のいずれか1項に記載の音声符号化装置。 - 音声信号を符号化した符号化系列を復号する音声復号方法であって、
非多重化手段が、前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化ステップと、
低周波数帯域復号手段が、前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号ステップと、
周波数変換手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換ステップと、
高周波数帯域符号化系列解析手段が、前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報および時間エンベロープ情報を取得する高周波数帯域符号化系列解析ステップと、
符号化系列復号逆量子化手段が、前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化ステップと、
高周波数帯域生成手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成ステップと、
第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段が、前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第Nの低周波数帯域時間エンベロープ算出ステップと、
時間エンベロープ算出手段が、前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出ステップと、
時間エンベロープ調整手段が、前記時間エンベロープ算出手段で取得された前記時間エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープを調整する時間エンベロープ調整ステップと、
信号出力手段が、前記時間エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力ステップと、
を備え、
前記時間エンベロープ算出ステップでは、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号方法。 - 音声信号を符号化した符号化系列を復号する音声復号方法であって、
非多重化手段が、前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化ステップと、
低周波数帯域復号手段が、前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号ステップと、
周波数変換手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換ステップと、
高周波数帯域符号化系列解析手段が、前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析ステップと、
符号化系列復号逆量子化手段が、前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化ステップと、
高周波数帯域生成手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成ステップと、
第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段が、前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第Nの低周波数帯域時間エンベロープ算出ステップと、
時間エンベロープ算出手段が、前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出ステップと、
周波数エンベロープ重畳手段が、前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を、前記高周波数帯域の時間エンベロープに重畳して時間周波数エンベロープを取得する周波数エンベロープ重畳ステップと、
時間周波数エンベロープ調整手段が、前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ重畳手段で取得された時間周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整ステップと、
信号出力手段が、前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力ステップと、
を備え、
前記時間エンベロープ算出ステップでは、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号方法。 - 音声信号を符号化した符号化系列を復号する音声復号方法であって、
非多重化手段が、前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化ステップと、
低周波数帯域復号手段が、前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号ステップと、
周波数変換手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換ステップと、
高周波数帯域符号化系列解析手段が、前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析ステップと、
符号化系列復号逆量子化手段が、前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化ステップと、
高周波数帯域生成手段が、前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成ステップと、
低周波数帯域時間エンベロープ算出手段が、前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出ステップと、
時間エンベロープ算出手段が、前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出ステップと、
周波数エンベロープ算出手段が、前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を用いて、周波数エンベロープを算出する周波数エンベロープ算出ステップと、
時間周波数エンベロープ調整手段が、前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ算出手段で取得された周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整ステップと、
信号出力手段が、前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力ステップと、
を備え、
前記時間エンベロープ算出ステップでは、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号方法。 - 音声信号を符号化する音声符号化方法であって、
周波数変換手段が、前記音声信号を周波数領域に変換する周波数変換ステップと、
ダウンサンプリング手段が、前記音声信号をダウンサンプリングして低周波数帯域信号を取得するダウンサンプリングステップと、
低周波数帯域符号化手段が、前記ダウンサンプリング手段で取得した低周波数帯域信号を符号化する低周波数帯域符号化ステップと、
第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段が、前記周波数変換手段によって周波数領域に変換された前記音声信号の低周波数帯域成分の時間エンベロープを複数算出する第1〜第Nの低周波数帯域時間エンベロープ算出ステップと、
時間エンベロープ情報算出手段が、前記第1〜第Nの低周波数帯域時間エンベロープ算出手段により算出された低周波数帯域成分の前記時間エンベロープを用いて、前記周波数変換手段によって変換された前記音声信号の高周波数帯域成分の時間エンベロープを取得するために必要な時間エンベロープ情報を算出する時間エンベロープ情報算出ステップと、
補助情報算出手段が、前記音声信号を分析し低周波数帯域信号から高周波数帯域成分を生成するために用いる高周波数帯域生成用補助情報を算出する補助情報算出ステップと、
量子化符号化手段が、前記補助情報算出手段によって生成された前記高周波数帯域生成用補助情報、および前記時間エンベロープ情報算出手段によって算出された前記時間エンベロープ情報を量子化および符号化する量子化符号化ステップと、
符号化系列構成手段が、前記量子化符号化手段によって量子化および符号化された前記高周波数帯域生成用補助情報および前記時間エンベロープ情報を高周波数帯域符号化系列へと構成する符号化系列構成ステップと、
多重化手段が、前記低周波数帯域符号化手段によって取得された低周波数帯域符号化系列と、前記符号化系列構成手段によって構成された前記高周波数帯域符号化系列とが多重化された符号化系列を生成する多重化ステップと、
を備え、
前記時間エンベロープ情報算出ステップでは、前記高周波数帯域成分の時間エンベロープを取得するための複数の所定の処理を切り替えるための前記時間エンベロープ情報を算出する、
音声符号化方法。 - 音声信号を符号化した符号化系列を復号する音声復号プログラムであって、
コンピュータを、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段、
前記時間エンベロープ算出手段で取得された前記時間エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープを調整する時間エンベロープ調整手段、及び
前記時間エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段、
として機能させ、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号プログラム。 - 音声信号を符号化した符号化系列を復号する音声復号プログラムであって、
コンピュータを、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段、
前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を、前記高周波数帯域の時間エンベロープに重畳して時間周波数エンベロープを取得する周波数エンベロープ重畳手段、
前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ重畳手段で取得された時間周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整手段、及び
前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段、
として機能させ、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号プログラム。 - 音声信号を符号化した符号化系列を復号する音声復号プログラムであって、
コンピュータを、
前記符号化系列を、低周波数帯域符号化系列と高周波数帯域符号化系列とに非多重化する非多重化手段、
前記非多重化手段によって非多重化された前記低周波数帯域符号化系列を復号して低周波数帯域信号を得る低周波数帯域復号手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号を、周波数領域に変換する周波数変換手段、
前記非多重化手段によって非多重化された前記高周波数帯域符号化系列を解析して、符号化された高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を取得する高周波数帯域符号化系列解析手段、
前記高周波数帯域符号化系列解析手段によって取得された前記高周波数帯域生成用補助情報、周波数エンベロープ情報、および時間エンベロープ情報を復号および逆量子化する符号化系列復号逆量子化手段、
前記低周波数帯域復号手段によって得られた前記低周波数帯域信号から、前記符号化系列復号逆量子化手段で復号された前記高周波数帯域生成用補助情報を用いて、前記音声信号の高周波数帯域成分を生成する高周波数帯域生成手段、
前記周波数変換手段によって周波数領域に変換された前記低周波数帯域信号を分析して、複数の低周波数帯域の時間エンベロープを取得する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段、
前記符号化系列復号逆量子化手段によって取得された前記時間エンベロープ情報、および前記低周波数帯域時間エンベロープ算出手段により取得された前記複数の低周波数帯域の時間エンベロープを用いて、高周波数帯域の時間エンベロープを算出する時間エンベロープ算出手段、
前記符号化系列復号逆量子化手段によって取得された前記周波数エンベロープ情報を用いて、周波数エンベロープを算出する周波数エンベロープ算出手段、
前記時間エンベロープ算出手段で取得された前記時間エンベロープ、および前記周波数エンベロープ算出手段で取得された周波数エンベロープを用いて、前記高周波数帯域生成手段で生成された高周波数帯域成分の時間エンベロープと周波数エンベロープを調整する、時間周波数エンベロープ調整手段、及び
前記時間周波数エンベロープ調整手段により調整された前記高周波数帯域成分と、前記低周波数帯域復号手段によって復号された前記低周波数帯域信号とを加算し、全周波数帯域成分を含む時間領域信号を出力する信号出力手段、
として機能させ、
前記時間エンベロープ算出手段は、予め複数用意された前記複数の低周波数帯域の時間エンベロープを用いた所定の処理を前記時間エンベロープ情報を基に切り替えて実施することにより、前記高周波数帯域の時間エンベロープを算出する、
音声復号プログラム。 - 音声信号を符号化する音声符号化プログラムであって、
コンピュータを、
前記音声信号を周波数領域に変換する周波数変換手段、
前記音声信号をダウンサンプリングして低周波数帯域信号を取得するダウンサンプリング手段、
前記ダウンサンプリング手段で取得した低周波数帯域信号を符号化する低周波数帯域符号化手段、
前記周波数変換手段によって周波数領域に変換された前記音声信号の低周波数帯域成分の時間エンベロープを複数算出する第1〜第N(Nは2以上の整数)の低周波数帯域時間エンベロープ算出手段、
前記第1〜第Nの低周波数帯域時間エンベロープ算出手段により算出された低周波数帯域成分の前記時間エンベロープを用いて、前記周波数変換手段によって変換された前記音声信号の高周波数帯域成分の時間エンベロープを取得するために必要な時間エンベロープ情報を算出する時間エンベロープ情報算出手段、
前記音声信号を分析し低周波数帯域信号から高周波数帯域成分を生成するために用いる高周波数帯域生成用補助情報を算出する補助情報算出手段、
前記補助情報算出手段によって生成された前記高周波数帯域生成用補助情報、および前記時間エンベロープ情報算出手段によって算出された前記時間エンベロープ情報を量子化および符号化する量子化符号化手段、
前記量子化符号化手段によって量子化および符号化された前記高周波数帯域生成用補助情報および前記時間エンベロープ情報を高周波数帯域符号化系列へと構成する符号化系列構成手段、及び
前記低周波数帯域符号化手段によって取得された低周波数帯域符号化系列と、前記符号化系列構成手段によって構成された前記高周波数帯域符号化系列とが多重化された符号化系列を生成する多重化手段、
として機能させ、
前記時間エンベロープ情報算出手段は、前記高周波数帯域成分の時間エンベロープを取得するための複数の所定の処理を切り替えるための前記時間エンベロープ情報を算出する、
音声符号化プログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011033917 | 2011-02-18 | ||
JP2011033917 | 2011-02-18 | ||
JP2011215591 | 2011-09-29 | ||
JP2011215591 | 2011-09-29 | ||
PCT/JP2012/053700 WO2012111767A1 (ja) | 2011-02-18 | 2012-02-16 | 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム |
Related Child Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016143386A Division JP6189498B2 (ja) | 2011-02-18 | 2016-07-21 | 音声復号装置、音声符号化装置、音声復号方法、及び音声符号化方法 |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2012111767A1 JPWO2012111767A1 (ja) | 2014-07-07 |
JP5977176B2 true JP5977176B2 (ja) | 2016-08-24 |
Family
ID=46672679
Family Applications (7)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012558016A Active JP5977176B2 (ja) | 2011-02-18 | 2012-02-16 | 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、及び音声符号化プログラム |
JP2016143386A Active JP6189498B2 (ja) | 2011-02-18 | 2016-07-21 | 音声復号装置、音声符号化装置、音声復号方法、及び音声符号化方法 |
JP2017149772A Active JP6510593B2 (ja) | 2011-02-18 | 2017-08-02 | 音声符号化装置、及び音声符号化方法 |
JP2019027315A Active JP6664526B2 (ja) | 2011-02-18 | 2019-02-19 | 音声符号化装置、及び音声符号化方法 |
JP2020025455A Active JP6810292B2 (ja) | 2011-02-18 | 2020-02-18 | 音声符号化装置、及び音声符号化方法 |
JP2020204854A Active JP7009602B2 (ja) | 2011-02-18 | 2020-12-10 | 音声復号装置 |
JP2022003269A Active JP7252381B2 (ja) | 2011-02-18 | 2022-01-12 | 音声復号装置 |
Family Applications After (6)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2016143386A Active JP6189498B2 (ja) | 2011-02-18 | 2016-07-21 | 音声復号装置、音声符号化装置、音声復号方法、及び音声符号化方法 |
JP2017149772A Active JP6510593B2 (ja) | 2011-02-18 | 2017-08-02 | 音声符号化装置、及び音声符号化方法 |
JP2019027315A Active JP6664526B2 (ja) | 2011-02-18 | 2019-02-19 | 音声符号化装置、及び音声符号化方法 |
JP2020025455A Active JP6810292B2 (ja) | 2011-02-18 | 2020-02-18 | 音声符号化装置、及び音声符号化方法 |
JP2020204854A Active JP7009602B2 (ja) | 2011-02-18 | 2020-12-10 | 音声復号装置 |
JP2022003269A Active JP7252381B2 (ja) | 2011-02-18 | 2022-01-12 | 音声復号装置 |
Country Status (19)
Country | Link |
---|---|
US (1) | US8756068B2 (ja) |
EP (5) | EP3998607B1 (ja) |
JP (7) | JP5977176B2 (ja) |
KR (7) | KR20140005256A (ja) |
CN (2) | CN103370742B (ja) |
AU (1) | AU2012218409B2 (ja) |
BR (2) | BR122019027753B1 (ja) |
CA (4) | CA3147525A1 (ja) |
DK (5) | DK3567589T3 (ja) |
ES (4) | ES2745141T3 (ja) |
FI (2) | FI4020466T3 (ja) |
HU (3) | HUE058847T2 (ja) |
MX (2) | MX2013009464A (ja) |
PL (4) | PL3407352T3 (ja) |
PT (4) | PT3407352T (ja) |
RU (8) | RU2630379C1 (ja) |
SG (1) | SG192796A1 (ja) |
TW (3) | TWI576830B (ja) |
WO (1) | WO2012111767A1 (ja) |
Families Citing this family (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CA3147525A1 (en) * | 2011-02-18 | 2012-08-23 | Ntt Docomo, Inc. | Speech decoder, speech encoder, speech decoding method, speech encoding method, speech decoding program, and speech encoding program |
JP5997592B2 (ja) * | 2012-04-27 | 2016-09-28 | 株式会社Nttドコモ | 音声復号装置 |
US11037923B2 (en) | 2012-06-29 | 2021-06-15 | Intel Corporation | Through gate fin isolation |
TWI477789B (zh) * | 2013-04-03 | 2015-03-21 | Tatung Co | 資訊擷取裝置及其發送頻率調整方法 |
RU2688247C2 (ru) * | 2013-06-11 | 2019-05-21 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство и способ для расширения диапазона частот для акустических сигналов |
RU2662693C2 (ru) | 2014-02-28 | 2018-07-26 | Фраунхофер-Гезелльшафт Цур Фердерунг Дер Ангевандтен Форшунг Е.Ф. | Устройство декодирования, устройство кодирования, способ декодирования и способ кодирования |
JP2016038435A (ja) * | 2014-08-06 | 2016-03-22 | ソニー株式会社 | 符号化装置および方法、復号装置および方法、並びにプログラム |
MX371223B (es) * | 2016-02-17 | 2020-01-09 | Fraunhofer Ges Forschung | Post-procesador, pre-procesador, codificador de audio, decodificador de audio y metodos relacionados para mejorar el procesamiento de transitorios. |
TWI602173B (zh) * | 2016-10-21 | 2017-10-11 | 盛微先進科技股份有限公司 | 音訊處理方法與非暫時性電腦可讀媒體 |
EP3396670B1 (en) * | 2017-04-28 | 2020-11-25 | Nxp B.V. | Speech signal processing |
US10650834B2 (en) | 2018-01-10 | 2020-05-12 | Savitech Corp. | Audio processing method and non-transitory computer readable medium |
JP7139628B2 (ja) * | 2018-03-09 | 2022-09-21 | ヤマハ株式会社 | 音処理方法および音処理装置 |
EP3576088A1 (en) * | 2018-05-30 | 2019-12-04 | Fraunhofer Gesellschaft zur Förderung der Angewand | Audio similarity evaluator, audio encoder, methods and computer program |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006243644A (ja) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 雑音低減方法、装置、プログラム及び記録媒体 |
WO2010114123A1 (ja) * | 2009-04-03 | 2010-10-07 | 株式会社エヌ・ティ・ティ・ドコモ | 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、音声符号化プログラム及び音声復号プログラム |
Family Cites Families (25)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US3982070A (en) * | 1974-06-05 | 1976-09-21 | Bell Telephone Laboratories, Incorporated | Phase vocoder speech synthesis system |
SE512719C2 (sv) * | 1997-06-10 | 2000-05-02 | Lars Gustaf Liljeryd | En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion |
JP2000122698A (ja) * | 1998-10-19 | 2000-04-28 | Mitsubishi Electric Corp | 音声符号化装置 |
US7260523B2 (en) * | 1999-12-21 | 2007-08-21 | Texas Instruments Incorporated | Sub-band speech coding system |
JP2001318698A (ja) * | 2000-05-10 | 2001-11-16 | Nec Corp | 音声符号化装置及び音声復号化装置 |
JP3404024B2 (ja) * | 2001-02-27 | 2003-05-06 | 三菱電機株式会社 | 音声符号化方法および音声符号化装置 |
SE0202159D0 (sv) * | 2001-07-10 | 2002-07-09 | Coding Technologies Sweden Ab | Efficientand scalable parametric stereo coding for low bitrate applications |
US20030187663A1 (en) * | 2002-03-28 | 2003-10-02 | Truman Michael Mead | Broadband frequency translation for high frequency regeneration |
US7987095B2 (en) * | 2002-09-27 | 2011-07-26 | Broadcom Corporation | Method and system for dual mode subband acoustic echo canceller with integrated noise suppression |
KR100587953B1 (ko) * | 2003-12-26 | 2006-06-08 | 한국전자통신연구원 | 대역-분할 광대역 음성 코덱에서의 고대역 오류 은닉 장치 및 그를 이용한 비트스트림 복호화 시스템 |
KR100657916B1 (ko) * | 2004-12-01 | 2006-12-14 | 삼성전자주식회사 | 주파수 대역간의 유사도를 이용한 오디오 신호 처리 장치및 방법 |
KR100721537B1 (ko) * | 2004-12-08 | 2007-05-23 | 한국전자통신연구원 | 광대역 음성 부호화기의 고대역 음성 부호화 장치 및 그방법 |
KR100708121B1 (ko) * | 2005-01-22 | 2007-04-16 | 삼성전자주식회사 | 음성 신호의 대역 확장 방법 및 장치 |
ES2350494T3 (es) * | 2005-04-01 | 2011-01-24 | Qualcomm Incorporated | Procedimiento y aparatos para codificar y decodificar una parte de banda alta de una señal de habla. |
TWI319565B (en) * | 2005-04-01 | 2010-01-11 | Qualcomm Inc | Methods, and apparatus for generating highband excitation signal |
WO2006108543A1 (en) * | 2005-04-15 | 2006-10-19 | Coding Technologies Ab | Temporal envelope shaping of decorrelated signal |
US7953605B2 (en) * | 2005-10-07 | 2011-05-31 | Deepen Sinha | Method and apparatus for audio encoding and decoding using wideband psychoacoustic modeling and bandwidth extension |
CA2704812C (en) * | 2007-11-06 | 2016-05-17 | Nokia Corporation | An encoder for encoding an audio signal |
CN101483495B (zh) * | 2008-03-20 | 2012-02-15 | 华为技术有限公司 | 一种背景噪声生成方法以及噪声处理装置 |
JP5203077B2 (ja) * | 2008-07-14 | 2013-06-05 | 株式会社エヌ・ティ・ティ・ドコモ | 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法 |
PT2146344T (pt) * | 2008-07-17 | 2016-10-13 | Fraunhofer Ges Forschung | Esquema de codificação/descodificação de áudio com uma derivação comutável |
US8352279B2 (en) * | 2008-09-06 | 2013-01-08 | Huawei Technologies Co., Ltd. | Efficient temporal envelope coding approach by prediction between low band signal and high band signal |
PL3598447T3 (pl) * | 2009-01-16 | 2022-02-14 | Dolby International Ab | Transpozycja harmonicznych rozszerzona o iloczyn wektorowy |
EP2239732A1 (en) * | 2009-04-09 | 2010-10-13 | Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. | Apparatus and method for generating a synthesis audio signal and for encoding an audio signal |
CA3147525A1 (en) * | 2011-02-18 | 2012-08-23 | Ntt Docomo, Inc. | Speech decoder, speech encoder, speech decoding method, speech encoding method, speech decoding program, and speech encoding program |
-
2012
- 2012-02-16 CA CA3147525A patent/CA3147525A1/en active Pending
- 2012-02-16 ES ES12747551T patent/ES2745141T3/es active Active
- 2012-02-16 AU AU2012218409A patent/AU2012218409B2/en active Active
- 2012-02-16 CN CN201280009009.8A patent/CN103370742B/zh active Active
- 2012-02-16 FI FIEP22157013.8T patent/FI4020466T3/fi active
- 2012-02-16 PT PT181813973T patent/PT3407352T/pt unknown
- 2012-02-16 EP EP21217818.0A patent/EP3998607B1/en active Active
- 2012-02-16 PT PT12747551T patent/PT2677519T/pt unknown
- 2012-02-16 BR BR122019027753-2A patent/BR122019027753B1/pt active IP Right Grant
- 2012-02-16 KR KR1020137021900A patent/KR20140005256A/ko active Search and Examination
- 2012-02-16 RU RU2016135412A patent/RU2630379C1/ru active
- 2012-02-16 HU HUE18181397A patent/HUE058847T2/hu unknown
- 2012-02-16 KR KR1020177016245A patent/KR20170070286A/ko active Application Filing
- 2012-02-16 CN CN201510324219.1A patent/CN104916290B/zh active Active
- 2012-02-16 KR KR1020197038948A patent/KR102208914B1/ko active IP Right Grant
- 2012-02-16 ES ES19181294T patent/ES2913760T3/es active Active
- 2012-02-16 HU HUE22157013A patent/HUE062540T2/hu unknown
- 2012-02-16 EP EP22157013.8A patent/EP4020466B1/en active Active
- 2012-02-16 CA CA2984936A patent/CA2984936C/en active Active
- 2012-02-16 DK DK19181294.0T patent/DK3567589T3/da active
- 2012-02-16 PL PL18181397.3T patent/PL3407352T3/pl unknown
- 2012-02-16 JP JP2012558016A patent/JP5977176B2/ja active Active
- 2012-02-16 SG SG2013062187A patent/SG192796A1/en unknown
- 2012-02-16 PL PL12747551T patent/PL2677519T3/pl unknown
- 2012-02-16 ES ES22157013T patent/ES2949240T3/es active Active
- 2012-02-16 DK DK21217818.0T patent/DK3998607T3/da active
- 2012-02-16 BR BR112013020987-9A patent/BR112013020987B1/pt not_active IP Right Cessation
- 2012-02-16 CA CA2827482A patent/CA2827482C/en active Active
- 2012-02-16 EP EP19181294.0A patent/EP3567589B1/en active Active
- 2012-02-16 DK DK12747551.5T patent/DK2677519T3/da active
- 2012-02-16 PL PL19181294T patent/PL3567589T3/pl unknown
- 2012-02-16 CA CA3055514A patent/CA3055514C/en active Active
- 2012-02-16 WO PCT/JP2012/053700 patent/WO2012111767A1/ja active Application Filing
- 2012-02-16 KR KR1020227024860A patent/KR102565287B1/ko active IP Right Grant
- 2012-02-16 PT PT221570138T patent/PT4020466T/pt unknown
- 2012-02-16 EP EP12747551.5A patent/EP2677519B1/en active Active
- 2012-02-16 KR KR1020187022218A patent/KR102068112B1/ko active IP Right Grant
- 2012-02-16 KR KR1020207035595A patent/KR102375912B1/ko active IP Right Grant
- 2012-02-16 PT PT191812940T patent/PT3567589T/pt unknown
- 2012-02-16 ES ES18181397T patent/ES2916257T3/es active Active
- 2012-02-16 RU RU2013142349/08A patent/RU2599966C2/ru active
- 2012-02-16 MX MX2013009464A patent/MX2013009464A/es active IP Right Grant
- 2012-02-16 KR KR1020227008061A patent/KR102424902B1/ko active IP Right Grant
- 2012-02-16 DK DK18181397.3T patent/DK3407352T3/da active
- 2012-02-16 PL PL22157013.8T patent/PL4020466T3/pl unknown
- 2012-02-16 MX MX2015001940A patent/MX339764B/es unknown
- 2012-02-16 HU HUE19181294A patent/HUE058682T2/hu unknown
- 2012-02-16 EP EP18181397.3A patent/EP3407352B9/en active Active
- 2012-02-16 FI FIEP21217818.0T patent/FI3998607T3/fi active
- 2012-02-16 DK DK22157013.8T patent/DK4020466T3/da active
- 2012-02-17 TW TW105135127A patent/TWI576830B/zh active
- 2012-02-17 TW TW105117200A patent/TW201637001A/zh unknown
- 2012-02-17 TW TW101105268A patent/TWI547941B/zh active
-
2013
- 2013-08-16 US US13/968,898 patent/US8756068B2/en active Active
-
2016
- 2016-07-21 JP JP2016143386A patent/JP6189498B2/ja active Active
-
2017
- 2017-08-02 JP JP2017149772A patent/JP6510593B2/ja active Active
- 2017-08-24 RU RU2017129882A patent/RU2651193C1/ru active
-
2018
- 2018-03-29 RU RU2018111244A patent/RU2674922C1/ru active
- 2018-03-29 RU RU2018111242A patent/RU2679973C1/ru active
-
2019
- 2019-02-07 RU RU2019103408A patent/RU2707931C1/ru active
- 2019-02-19 JP JP2019027315A patent/JP6664526B2/ja active Active
- 2019-11-18 RU RU2019136868A patent/RU2718425C1/ru active
-
2020
- 2020-02-18 JP JP2020025455A patent/JP6810292B2/ja active Active
- 2020-03-19 RU RU2020111421A patent/RU2742199C1/ru active
- 2020-12-10 JP JP2020204854A patent/JP7009602B2/ja active Active
-
2022
- 2022-01-12 JP JP2022003269A patent/JP7252381B2/ja active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2006243644A (ja) * | 2005-03-07 | 2006-09-14 | Nippon Telegr & Teleph Corp <Ntt> | 雑音低減方法、装置、プログラム及び記録媒体 |
WO2010114123A1 (ja) * | 2009-04-03 | 2010-10-07 | 株式会社エヌ・ティ・ティ・ドコモ | 音声符号化装置、音声復号装置、音声符号化方法、音声復号方法、音声符号化プログラム及び音声復号プログラム |
Also Published As
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6810292B2 (ja) | 音声符号化装置、及び音声符号化方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20141217 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150206 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20151124 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160122 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160621 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160721 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5977176 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |