JP5224017B2 - オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム - Google Patents

オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム Download PDF

Info

Publication number
JP5224017B2
JP5224017B2 JP2006552903A JP2006552903A JP5224017B2 JP 5224017 B2 JP5224017 B2 JP 5224017B2 JP 2006552903 A JP2006552903 A JP 2006552903A JP 2006552903 A JP2006552903 A JP 2006552903A JP 5224017 B2 JP5224017 B2 JP 5224017B2
Authority
JP
Japan
Prior art keywords
signal
frequency
high frequency
correction coefficient
noise
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2006552903A
Other languages
English (en)
Other versions
JPWO2006075563A1 (ja
Inventor
修 嶋田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Priority to JP2006552903A priority Critical patent/JP5224017B2/ja
Publication of JPWO2006075563A1 publication Critical patent/JPWO2006075563A1/ja
Application granted granted Critical
Publication of JP5224017B2 publication Critical patent/JP5224017B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Quality & Reliability (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)

Description

本発明は、オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラムに関し、特に、広帯域なオーディオ信号を少ない情報量で高品質に符号化するオーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラムに関する。
一般的な音響信号を、少ない情報量で符号化でき、かつ高品質な再生信号を得られる技術として、帯域分割符号化を利用する方法が広く知られている。このような帯域分割を利用した符号化の代表例としては、ISO/IECの国際標準方式であるMPEG−2 AAC(Advanced Audio Coding)があり、96kbps程度のビットレートにおいて、16kHz以上の広帯域ステレオ信号を高品質に符号化することが可能である。
しかしながら、ビットレートを例えば48kbps程度に低下させた場合、高品質に符号化できる帯域は10kHz程度以下となり、主観的には高域信号成分に不足を感じる音となる。このような帯域制限による音質劣化を補償する方法としては、たとえば、非特許文献1に記載がある、SBR(Spectral Band Replication)と呼ばれる技術がある。同様の技術は、例えば、非特許文献2においても開示されている。
SBRは、AAC等のオーディオ符号化処理、もしくはそれに準じる帯域制限処理によって失われる高い周波数帯域の信号(高域成分)を補償することを目的としており、SBRによって補償される帯域よりも低い周波数帯域の信号(低域成分)については、他の手段を用いて伝送する必要がある。SBRによって符号化された情報には、他の手段を用いて伝送される低域成分を基に、擬似的な高域成分を生成するための情報が含まれており、前記低域成分に擬似的な高域成分を加算することにより、帯域制限による音質劣化を補償する。
以下、図6を参照しながら、SBRの動作を詳しく説明する。図6は、SBRを用いた帯域拡張符号化復号装置の一例を示す図である。符号化側は、入力信号分割部100、低域成分符号化部101、高域成分符号化部102、ビットストリーム多重化部103から構成され、復号側は、ビットストリーム分離部200、低域成分復号部201、サブバンド分割部202、帯域拡張部203、サブバンド合成部204から構成される。
符号化側では、入力信号分割部100が、入力信号1000を分析し、複数の高周波数帯域に分割した高域サブバンド信号1001と低域成分を含む低域信号1002を出力する。低域信号1002は上述のAAC等の符号化方式を用いて低域成分符号化部101により低域成分情報1004に符号化され、ビットストリーム多重化部103に伝達される。また、高域成分符号化部102は、高域サブバンド信号1001から高域エネルギ情報1102及び付加信号情報1103を抽出し、ビットストリーム多重化部103に伝達する。ビットストリーム多重化部103は低域成分情報1004と高域エネルギ情報1102及び付加信号情報1103から構成される高域成分情報を多重化し、多重化ビットストリーム1005として出力する。
ここで、高域エネルギ情報1102及び付加信号情報1103は、例えば、サブバンド毎にフレーム単位で算出される。入力信号1000の時間及び周波数方向の特性を考慮して、時間方向にはフレームをさらに細分割した時間単位で、周波数方向には複数のサブバンドをまとめたバンド単位で算出しても良い。高域エネルギ情報1102及び付加信号情報1103を、時間方向のフレームをさらに細分割した時間単位で算出する場合には、高域サブバンド信号1001の時間変化をより詳細に表すことができる。高域エネルギ情報1102及び付加信号情報1103を、複数のサブバンドをまとめたバンド単位で算出する場合には、高域エネルギ情報1102及び付加信号情報1103を符号化するために必要な総ビット数を削減できる。高域エネルギ情報1102及び付加信号情報1103の算出に利用する時間及び周波数方向の分割単位を時間周波数グリッドと呼び、その情報は高域エネルギ情報1102及び付加信号情報1103に含まれる。
このような構成では、高域エネルギ情報1102及び付加信号情報1103に含まれる情報が、高域エネルギ情報と付加信号情報だけとなる。このため、狭帯域信号の波形情報及びスペクトル情報を含む低域成分情報と比較して、少ない情報量(総ビット数)しか必要としない。したがって、広帯域信号の低ビットレート符号化に適している。
復号側では、多重化ビットストリーム1005がビットストリーム分離部200において、低域成分情報1007、高域エネルギ情報1105及び付加信号情報1106に分離される。低域成分情報1007は、例えばAAC等の符号化方式を用いて符号化された情報であり、低域成分復号部201において復号されて、低域成分を表す狭帯域信号1008を生成する。狭帯域信号1008は、サブバンド分割部202において低域サブバンド信号1009に分割され、帯域拡張部203に入力される。低域サブバンド信号1009は、同時にサブバンド合成部204にも供給される。帯域拡張部203は、低域サブバンド信号1009を高域のサブバンドに複写することによって、帯域制限によって失われた高域成分を再生する。
帯域拡張部203に入力される高域エネルギ情報1105には、再生される高域サブバンドのエネルギ情報が含まれる。高域エネルギ情報1105を用いて低域サブバンド信号1009のエネルギを調整した後、高域成分として利用する。また、帯域拡張部203は、付加信号情報1106に含まれる付加信号情報にしたがって付加信号を生成する。ここで、生成される付加信号としては、正弦波トーン信号やノイズ信号が用いられる。前記エネルギ調整後の高域成分に前記付加信号を加算して、高域サブバンド信号1010としてサブバンド合成部204に供給する。サブバンド合成部204は、サブバンド分割部202から供給された低域サブバンド信号1009と帯域拡張部203から供給された高域サブバンド信号1010を帯域合成し、出力信号1011を生成する。
ここで、帯域拡張部203におけるエネルギ調整の動作について詳細に説明する。高域サブバンド信号1010のエネルギが高域エネルギ情報1105の表すエネルギ値(以下、目標エネルギとする)となるように、複写された低域サブバンド信号1009と付加信号の利得を調整してからエネルギ調整後の高域成分に加算して、高域サブバンド信号1010を生成する。複写された低域サブバンド信号1009と付加信号の利得は、例えば、次の手順で決定することができる。
まず、複写された低域サブバンド信号1009と付加信号とのうちいずれかを高域サブバンド信号1010の主成分とし、他方を副成分とする。低域サブバンド信号1009を主成分、付加信号を副成分とする場合は、次式で利得を決定する。
main=sqrt(R/E/(1+Q))
sub=sqrt(R*Q/N(1+Q))
ここで、Gmainは主成分の振幅調整用利得、Gsubは副成分の振幅調整用利得、EとNは、それぞれ、低域サブバンド信号1009と付加信号のエネルギを表す。付加信号のエネルギが1に正規化されている場合は、N=1とする。また、Rは高域サブバンド信号1010の目標エネルギ、Qは主成分と副成分のエネルギ比を表し、RとQは高域エネルギ情報1105及び付加信号情報1106に含まれている。なお、sqrt(・)は平方根を求める演算子とする。一方、付加信号を主成分、低域サブバンド信号1009を主成分とする場合は、次式で利得を決定する。
main=sqrt(R/N/(1+Q))
sub=sqrt(R*Q/E/(1+Q))
以上の手続きによって算出した利得を用いて、低域サブバンド信号1009と付加信号を重み付け加算し、高域サブバンド信号1010を算出する。
オーディオ信号を低ビットレートで高品質に符号化するためには、高域成分を少ない情報量に圧縮することが必要である。従って、高域成分符号化部102において、正確な高域エネルギ情報1102及び付加信号情報1103を抽出することが重要となる。例えば、弦楽器など低域成分より高域成分のノイズレベルが高い信号を符号化する場合、低域サブバンド信号1009を高周波数帯域にコピーした信号に適切な大きさのノイズ信号を付加することにより品質を向上させることが可能である。適切な大きさのノイズ信号を復号側で付加するためには、符号化側において生成する付加信号情報1103に、低域サブバンド信号1009と付加するノイズ信号の正確なエネルギ比Qを含む必要がある。このため、高域成分符号化部102において、入力信号における高域成分のノイズレベルを正確に算出する必要がある。
高域成分のノイズレベルを算出する高域成分符号化部102の第一の従来例が、非特許文献3に開示されている。図7に示す高域成分符号化部は、時間/周波数グリッド生成部300、スペクトル包絡算出部301、ノイズレベル算出部302、ノイズレベル統合部303から構成される。
時間/周波数グリッド生成部300は、高域サブバンド信号1001を用いて、時間及び周波数方向の複数のサブバンド信号をグループ化し、時間/周波数グリッド情報1100を生成する。スペクトル包絡算出部301は、時間/周波数グリッド単位で高域サブバンド信号の目標エネルギRを抽出し、高域エネルギ情報1102としてビットストリーム多重化部103に供給する。ノイズレベル算出部302は、各サブバンド単位で、サブバンド信号に含まれるノイズ成分の割合をノイズレベル1101として出力する。ノイズレベル統合部303は複数のサブバンドにおける前記ノイズレベルの平均値を用いて、時間/周波数グリッド単位で前述のエネルギ比Qを表す付加信号情報1103を求め、ビットストリーム多重化部103に供給する。
ノイズレベル算出部302におけるノイズレベル1101の算出方法としては、予測残差を用いた方法が知られており、サブバンドkのノイズレベルT(k)は、次の式に従って算出できる。
Figure 0005224017
ここでX(k,l)とY(k,l)はそれぞれサブバンドkのサブバンド信号と予測サブバンド信号を表す。予測サブバンド信号を算出する方法としては共分散法や自己相関法を用いて線形予測する方法が知られている。サブバンド信号にノイズ成分が少ないとき、サブバンド信号Xと予測サブバンド信号Yの差分は小さくなり、ノイズレベルT(k)の値は大きくなる。逆にノイズ成分が多く含まれるとき、予測サブバンド信号Yとサブバンド信号Xの差分は大きくなり、ノイズレベルT(k)の値は小さくなる。このように、サブバンド信号に含まれているノイズ成分の大きさに基づいてノイズレベルT(k)を算出することができる。
ノイズレベル統合部303は、時間/周波数グリッド情報1100に基づき、複数のサブバンド単位で、低域サブバンド信号とノイズ信号のエネルギ比Qを算出する。これは、各サブバンド単位でエネルギ比Qを算出し符号化するよりも、複数のサブバンド単位でエネルギ比Qを算出したほうが、付加信号情報1103に必要なビット数を削減できるためである。例えば、サブバンドk0からサブバンドk0+N−1までのNサブバンドを同一のエネルギ比Q(fNoise)で表す場合を考える。付加信号情報1103は、サブバンドk0からサブバンドk0+N−1までNサブバンドのノイズレベル1101を平均化することにより算出される。Q(fNoise)は、以下の式で表される。
Figure 0005224017
ここで、fNoiseは付加信号情報1103の周波数番号を表し、cは定数である。
高域成分のノイズレベルを算出する高域成分符号化部102の第二の従来例として、特許文献1で開示されている方法がある。第二の従来例では、入力信号に高分解能FFTを適用して算出されるスペクトル包絡の最大値と最小値の差を計算し、時間と周波数で平滑化した結果をノイズレベルとしている。
特表2002−536679号公報 "Digital Radio Mondiale(DRM);System Specification",ETSI,TS 101 980 V1.1.1,5.2.6節,2001年9月 "AES(Audio Engineering Society) Convention Paper 5553",112th AES Convention,2002年5月 "Enhanced aacPlus general audio codec;Enhanced aacPlus encoder SBR part"、3GPP,TS 26.404 V6.0.0,2004年9月
従来の付加信号情報算出方法は、各サブバンド単位で独立に算出したノイズレベルを平均化しているため、サブバンドの聴感的な優先度が考慮されていない。そのため、聴感的に重要なサブバンドのノイズレベルがその重要度に応じて付加信号情報に反映されず、高品質なオーディオ信号符号化装置を実現できないという問題があった。
また、スペクトル包絡を用いて付加信号情報を算出する方法は、高分解能な周波数解析や平滑化処理を必要とするために、演算量が増加するという問題があった。さらに、平滑化の程度によってノイズレベルの値が大きく異なり、平滑化程度の最適化が困難であるという問題もあった。
そこで、本発明は上記課題に鑑みて発明されたものであって、その目的は、聴感的に重要なサブバンドのノイズレベルを重要度に応じて反映した付加信号情報を少ない演算量で算出することのできる、高品質なオーディオ信号符号化に関する技術を提供することにある。
上記課題を解決する第1の発明は、入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化装置であって、 前記高域信号の高域周波帯域毎の聴感的な重要度を表す補正係数を算出する重要度算出手段と、前記高域周波帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正するノイズ信号情報補正手段とを備えることを特徴とするオーディオ符号化装置である。
上記課題を解決する第2の発明は、上記第1の発明において、前記ノイズ信号情報補正手段は、前記高域周波数帯域毎の補正係数に基づいて補正された周波数帯域毎のノイズ信号情報を統合して、複数の周波数帯域で共通に使用するノイズ信号情報を算出することを特徴とする。
上記課題を解決する第3の発明は、上記第1の発明において、前記重要度算出手段は、前記高域信号の高域周波数帯域毎のエネルギを算出し、前記周波数帯域毎のエネルギに基づいて前記補正係数を算出することを特徴とする。
上記課題を解決する第4の発明は、上記第1の発明において、前記重要度算出手段は、高周波数帯域になるほど小さい値を有するような前記補正係数を算出することを特徴とする。
上記課題を解決する第5の発明は、上記第1又は第2の発明において、前記ノイズ信号情報補正手段は、前記高域信号の各高域周波数成分の重要度を反映させて求めたノイズ信号情報を少なくとも時間方向または周波数方向に平滑化することを特徴とする。
上記課題を解決する第6の発明は、上記第1から第4のいずれかの発明において、前記重要度算出手段は、前記高域信号の各高域周波数成分に応じて算出した前記補正係数を少なくとも時間方向または周波数方向に平滑化することを特徴とする。
上記課題を解決する第7の発明は、上記第1、2および第5のいずれかの発明において、前記ノイズ信号情報が、前記高域信号に対するノイズ信号の割合を表すノイズレベルであることを特徴とする。
上記課題を解決する第8の発明は、入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化方法であって、前記高域信号の高域周波帯域毎の聴感的な重要度を表す補正係数を算出し、前記高域周波帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正することを特徴とするオーディオ符号化方法である。
上記課題を解決する第9の発明は、上記第8の発明において、前記ノイズ信号情報を求める際に、前記高域周波数帯域毎の補正係数に基づいて補正された周波数帯域毎のノイズ信号情報を統合して、複数の周波数帯域で共通に使用するノイズ信号情報を算出することを特徴とする。
上記課題を解決する第10の発明は、上記第8の発明において、前記補正係数を求める際に、前記高域信号の高域周波数帯域毎のエネルギを算出し、前記周波数帯域毎のエネルギに基づいて前記補正係数を算出することを特徴とする。
上記課題を解決する第11の発明は、上記第8の発明において、前記補正係数を求める際に、高周波数帯域になるほど小さい値を有するような前記補正係数を算出することを特徴とする。
上記課題を解決する第12の発明は、上記第8又は第9の発明において、前記ノイズ信号情報を求める際に、前記高域信号の各高域周波数成分の重要度を反映させて求めたノイズ信号情報を少なくとも時間方向または周波数方向に平滑化することを特徴とする。
上記課題を解決する第13の発明は、上記第8から第11のいずれかの発明において、前記補正係数を求める際に、前記高域信号の各高域周波数成分に応じて算出した前記補正係数を少なくとも時間方向または周波数方向に平滑化することを特徴とする。
上記課題を解決する第14の発明は、上記第8、9、および第12の発明において、前記ノイズ信号情報が、前記高域信号に対するノイズ信号の割合を表すノイズレベルであることを特徴とする。
上記課題を解決する第15の発明は、入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化プログラムであって、前記高域信号の高域周波帯域毎の聴感的な重要度を表す補正係数を算出する処理、前記高域周波帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正する処理を情報処理装置に実行させることを特徴とするオーディオ符号化プログラムである。
本発明は、高域サブバンド信号を用いて、聴感的な重要度に対応した補正係数を算出し、ノイズレベルを補正し、付加信号情報を生成するように構成されているため、聴感的に重要なサブバンドのノイズレベルを正確に反映することができる。このため、高品質のオーディオ符号化装置を実現することができる。
また、一般的なオーディオ信号の特性に基づく補正係数を用いるようにすれば、更に演算量を削減することができる。
本発明によれば、入力信号の聴感的な重要度に基づいた補正係数を算出し、各サブバンドのノイズレベルを補正することができる。
また、本発明の補正係数算出では、通常分解能の周波数解析を行うので、高分解能な周波数解析に必要な演算量を削減しつつ、聴感的な重要度を反映したサブバンドのノイズレベルを求めることができる。その結果、高品質なオーディオ符号化装置を実現することが可能となる。
本発明の第1の発明を実施するための最良の形態の構成を示すブロック図である。 本発明における補正係数算出部の動作概念を示す説明図である。 入力信号分割部の構成を表すブロック図である。 本発明の第2の発明を実施するための最良の形態の構成を示すブロック図である。 本発明の第3の発明を実施するための最良の形態の構成を示すブロック図である。 帯域拡張符号化復号装置を示すブロック図である。 高域成分符号化部の構成を示すブロック図である。
符号の説明
100 入力信号分割部
101 低域成分符号化部
102、500、501 高域成分符号化部
103 ビットストリーム多重化部
110、202 サブバンド分割部
111、204 サブバンド合成部
112 ダウンサンプリングフィルタ
200 ビットストリーム分離部
201 低域成分復号部
203 帯域拡張部
300 時間/周波数グリッド生成部
301 スペクトル包絡算出部
302 ノイズレベル算出部
303、402 ノイズレベル統合部
400、403 補正係数算出部
401 ノイズレベル補正部
1000 入力信号
1001 高域サブバンド信号
1002 低域信号
1004、1007 低域成分情報
1005 ビットストリーム
1008 低域成分復号信号
1009 低域サブバンド信号
1010 高域サブバンド信号
1011 帯域拡張信号
1100 時間/周波数グリッド情報
1101 ノイズレベル
1102、1105 高域エネルギ情報
1103、1106 付加信号情報
1200、1202 補正係数
1201 補正ノイズレベル
次に、本発明を実施するための最良の形態について図面を参照して詳細に説明する。
まず、第1の実施の形態について説明する。
図1を参照すると、本発明の第1の実施の形態のオーディオ符号化装置は、入力信号分割部100、低域成分符号化部101、時間/周波数グリッド生成部300、スペクトル包絡算出部301、ノイズレベル算出部302、補正係数算出部400、ノイズレベル補正部401、ノイズレベル統合部402、ビットストリーム多重化部103から構成される。図1と図6は、高域成分符号化部102と高域成分符号化部500が異なる。これらの構成要素を図1と図7を用いてさらに詳細に比較すると、補正係数算出部400及びノイズレベル補正部401が高域成分符号化部500には付加されており、ノイズレベル統合部300がノイズレベル統合部402に置換されている。以下、補正係数算出部400、ノイズレベル補正部401及びノイズレベル統合部402に関して詳細な動作を説明する。
高域サブバンド信号1001を用いて、時間/周波数グリッド生成部300で、時間及び周波数方向の複数のサブバンド信号をグループ化して得られた時間/周波数グリッド情報1100を、補正係数算出部400に伝達する。補正係数算出部400は、高域サブバンド信号1001と時間/周波数グリッド情報1100を用いて、各サブバンドの聴感的な重要度を算出し、各サブバンドの補正係数1200をノイズレベル補正部401に伝達する。
ノイズレベル補正部401には、高域サブバンド信号1001を用いてノイズレベル算出部302で算出された各サブバンドのノイズレベル1101も、伝達される。ノイズレベル補正部401は、補正係数1200に基づいて、各サブバンドのノイズレベル1101を補正し、補正ノイズレベル1201をノイズレベル統合部402に出力する。
ノイズレベル統合部402は、時間/周波数グリッド情報1100に基づいて、複数のサブバンドにおける補正ノイズレベル1103の平均値を計算する。時間/周波数グリッド単位でノイズ成分のエネルギ比を算出し、付加信号情報1103として出力する。
図2は、入力信号1000を周波数分析したときのスペクトルの一部を表しており、横軸が周波数、縦軸がエネルギである。
図2において、サブバンドkからサブバンドk+N−1までのN個のサブバンドに対して、ノイズ信号のエネルギ比Qを1つ算出することを考える。これは、復号側においてサブバンドkからサブバンドk+N−1までのN個のサブバンド全てに同一のエネルギ比Qを適用することを意味する。このように、複数のサブバンドに対して共通のエネルギ比Qを用いると、各サブバンドに対して異なるエネルギ比を適用するよりも付加信号情報1103に必要なビット数を削減できる。
ここで、図2に示すようなエネルギ分布を有する信号の場合、領域2のエネルギは領域1や領域3のエネルギよりも大きい。エネルギの大きい信号はエネルギの小さい信号よりも聴感的に重要となるため、領域2の信号をより正確に符号化する必要がある。
高品質な符号化を可能にするためには、領域2におけるノイズ成分のエネルギ比Qが付加信号情報1103に、領域2の重要度に応じて反映されていなければならない。そのためには、各サブバンドの聴感的な重要度をあらかじめ算出しておく必要がある。
各サブバンドの聴感的な重要度を表す補正係数1200は、例えば、高域サブバンド信号1001のエネルギに応じて算出することができる。サブバンドkからサブバンドk+N−1−1までのNサブバンドから、ノイズ信号のエネルギ比Qを1つ算出するとしたとき、サブバンドkの補正係数a(k)は、例えば、以下の式で表すことができる。
Figure 0005224017
ここで、Eは各サブバンドのエネルギを表す。なお、各サブバンドのエネルギは、時間/周波数グリッド情報1100に含まれる時間グリッド単位に算出してもよいし、複数の時間グリッドに含まれるサブバンド信号を用いて算出してもよい。
上述の手法では、高域サブバンド信号1001のエネルギをそのまま用いているが、サブバンド信号1101のエネルギを修正したものを用いてもよい。例えば、人間の聴覚特性として、音の強さの知覚は対数に比例していることが知られている。このため、サブバンド信号のエネルギをそのまま用いるのではなく、対数化してから補正係数算出に用いることもできる。単なる対数ばかりでなく、より複雑な関数や多項式などを用いて、エネルギを修正することも可能である。対数を近似する多項式は、これらの例の一つであり、演算量削減に貢献する。
さらに、聴覚の特性を積極的に用いて補正係数を算出してもよい。例えば、大きな音と同時に存在する小さな音が知覚できなくなる同時マスキングや、時間方向に発生する継時マスキングの影響を考慮した補正係数を算出することもできる。マスキング閾値よりも小さな音は知覚できないため、聴感上無視できるサブバンドの補正係数を相対的に小さくすることにより、聴感的な重要度に応じた補正係数を算出することができる。逆に、マスキング閾値よりも大きいサブバンドの補正係数を相対的に大きくしてもよい。
これまでの説明では、サブバンドのエネルギを用いて補正係数1200を表すa(k)を算出する例について説明してきた。しかし、聴感的な重要度に応じて変化する指標となるものであれば、いかなる指標を用いてもよいことは明らかである。また、補正係数1200を表すa(k)を時間方向に対して平滑化し、急激な値の変化を避けるようにしてもよい。
次に、ノイズレベル補正部401の動作について詳細に説明する。ノイズレベル補正部401は、補正係数算出部で算出した補正係数1200に基づいて、ノイズレベル算出部で算出した各サブバンドのノイズレベル1101を補正し、補正ノイズレベル1201をノイズレベル統合部303に出力する。
補正の方法としては、例えば、補正係数1200とノイズレベル1101の積を補正ノイズレベル1201とすることができる。すなわち、補正ノイズレベルT(k)は、次式で与えられる。
T(k)=a(k)×T(k)
また、前記積に定数を加算した結果を補正ノイズレベルとすることもできる。さらに、補正係数1200及びノイズレベル1101の任意の関数として、補正ノイズレベルを定義することもできる。
ノイズレベル統合部402は、補正ノイズレベル1201を用いて、時間/周波数グリッド情報1100に含まれる周波数グリッド単位で付加信号のエネルギ比Qを算出し、付加信号情報1103として出力する。例えば、サブバンドkからサブバンドk+N−1までのNサブバンドから、ノイズ信号のエネルギ比Qを1つ算出するとしたとき、補正ノイズレベルT(k)を用いたエネルギ比Qは、以下の式で与えられる。
Figure 0005224017
ここで、fNoiseは付加信号情報の周波数指標を表し、cは定数である。
入力信号分割部100は、図3(a)に示すように、サブバンド分割部110とサブバンド合成部111で構成することができる。サブバンド分割部110は、入力信号1000をN個のサブバンドに分割し、高域サブバンド信号1001を出力する。サブバンド合成部111は、前記サブバンド信号の低域のM(M<N)個のサブバンド信号を用いてサブバンド合成することにより、低域信号1002を生成する。低域信号1002を生成するための別の方法として、例えば、図3(b)のように、ダウンサンプリングフィルタ112を用いて入力信号1000をダウンサンプリングすることもできる。ダウンサンプリングフィルタ112は、低域信号1002の帯域に相当する通過帯域を有する低域通過フィルタを含み、ダウンサンプリング処理の前に低域フィルタによる高域抑圧処理を行う。また、図3(c)のように、入力信号1000を加工せずに低域信号1002として出力してもよい。
本実施の形態では、高域サブバンド信号1001を用いて、聴感的な重要度に対応した補正係数1200を算出し、ノイズレベル1101を補正し、付加信号情報1103を生成するように構成されているため、聴感的に重要なサブバンドのノイズレベルを正確に反映することができる。このため、高品質のオーディオ符号化装置を実現することができる。
次に、本発明の第2の実施の形態について図4を用いて詳細に説明する。
図4を参照すると、本発明の第2の発明を実施するための最良の形態は、入力信号分割部100、低域成分符号化部101、時間/周波数グリッド生成部300、スペクトル包絡算出部301、ノイズレベル算出部302、補正係数算出部403、ノイズレベル補正部401、ノイズレベル統合部402、ビットストリーム多重化部103とを含む。
本発明の第2の実施の形態は、本発明の第1の実施の形態と比較して、補正係数算出部400が補正係数算出部403に置き換わっているだけであり、他の部分については全く同一である。そこで、補正係数算出部403について詳細に説明する。
補正係数算出部403は、時間/周波数グリッド情報1100に基づき、予め定められた手法で補正係数1202を算出し、ノイズレベル補正部401へ出力する。
補正係数1202の算出方法は、例えば、高い周波数に対して補正係数1202が小さい値をとるようにすることができる。周波数と補正係数1202の対応関係は、最も簡単な例として線形関数で表されるように定めることもできるし、非線形関数で表されるように定めてもよい。オーディオ信号の一般的な特性として、高周波数の信号成分は低周波数の信号成分より減衰していることが多いため、上述の方法を用いて高品質な付加信号情報1103を算出することができる。
本実施の形態は、一般的なオーディオ信号の特性に基づく補正係数1202を用いるために、本発明の第1の実施の形態と比較して、演算量を削減することができる。
次に、本発明の第3の実施の形態ついて図面を参照して詳細に説明する。
図5を参照すると、本発明の第3の実施の形態は、上述した本発明の第1および第2の実施の形態をプログラム601により構成した場合に、そのプログラム601により動作するコンピュータ600の構成図である。
プログラム601は、コンピュータ600(中央処理装置;プロセッサ;データ処理装置)に読み込まれ、コンピュータ600(中央処理装置;プロセッサ;データ処理装置)の動作を制御する。コンピュータ600(中央処理装置;プロセッサ;データ処理装置)はプログラム601の制御により、上述した本発明の第1及び第2の発明において説明した処理と同一の処理を実行し、入力信号1000からビットストリーム1005を出力する。
なお、本発明が上記各実施形態に限定されず、本発明の技術思想の範囲内において、各実施形態が適宜変更され得ることは明らかである。

Claims (13)

  1. 入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化装置であって、
    前記高域信号の高周波数帯域毎の聴感的な重要度を表す補正係数を算出する重要度算出手段と、
    前記高周波数帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正するノイズ信号情報補正手段と
    を備え、
    前記重要度算出手段は、高周波数帯域になるほど小さい値を有するような前記補正係数を算出する
    ことを特徴とするオーディオ符号化装置。
  2. 前記ノイズ信号情報補正手段は、前記高域周波数帯域毎の補正係数に基づいて補正された周波数帯域毎のノイズ信号情報を統合して、複数の周波数帯域で共通に使用するノイズ信号情報を算出することを特徴とする請求項1に記載のオーディオ符号化装置。
  3. 前記重要度算出手段は、前記高域信号の高域周波数帯域毎のエネルギを算出し、前記周波数帯域毎のエネルギに基づいて前記補正係数を算出することを特徴とする請求項1に記載のオーディオ符号化装置。
  4. 前記ノイズ信号情報補正手段は、前記高域信号の各高域周波数成分の重要度を反映させて求めたノイズ信号情報を少なくとも時間方向または周波数方向に平滑化することを特徴とする請求項1又は請求項2に記載のオーディオ符号化装置。
  5. 前記重要度算出手段は、前記高域信号の各高域周波数成分に応じて算出した前記補正係数を少なくとも時間方向または周波数方向に平滑化することを特徴とする請求項1から請求項のいずれかに記載のオーディオ符号化装置。
  6. 前記ノイズ信号情報が、前記高域信号に対するノイズ信号の割合を表すノイズレベルであることを特徴とする請求項1、請求項2、および請求項のいずれかに記載のオーディオ符号化装置。
  7. 入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化方法であって、
    前記高域信号の高周波数帯域毎の聴感的な重要度を表す補正係数を算出し、
    前記高周波数帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正し、
    前記補正係数を求める際に、高周波数帯域になるほど小さい値を有するような前記補正係数を算出する
    ことを特徴とするオーディオ符号化方法。
  8. 前記ノイズ信号情報を求める際に、前記高域周波数帯域毎の補正係数に基づいて補正された周波数帯域毎のノイズ信号情報を統合して、複数の周波数帯域で共通に使用するノイズ信号情報を算出することを特徴とする請求項に記載のオーディオ符号化方法。
  9. 前記補正係数を求める際に、前記高域信号の高域周波数帯域毎のエネルギを算出し、前記周波数帯域毎のエネルギに基づいて前記補正係数を算出することを特徴とする請求項に記載のオーディオ符号化方法。
  10. 前記ノイズ信号情報を求める際に、前記高域信号の各高域周波数成分の重要度を反映させて求めたノイズ信号情報を少なくとも時間方向または周波数方向に平滑化することを特徴とする請求項又は請求項に記載のオーディオ符号化方法。
  11. 前記補正係数を求める際に、前記高域信号の各高域周波数成分に応じて算出した前記補正係数を少なくとも時間方向または周波数方向に平滑化することを特徴とする請求項から請求項のいずれかに記載のオーディオ符号化方法。
  12. 前記ノイズ信号情報が、前記高域信号に対するノイズ信号の割合を表すノイズレベルであることを特徴とする請求項、請求項、および請求項10のいずれかに記載のオーディオ符号化方法。
  13. 入力信号を低周波数帯域の低域信号と高周波数帯域の高域信号に分割し、前記低域信号を変換した信号とノイズ信号とを混合して高域信号を表現する際に使用されるノイズ信号情報を符号化するオーディオ符号化プログラムであって、
    前記高域信号の高周波数帯域毎の聴感的な重要度を表す補正係数を算出する処理、
    前記高周波数帯域毎の補正係数に基づいて、前記ノイズ信号情報を補正する処理
    を情報処理装置に実行させ、
    前記補正係数を算出する処理では、高周波数帯域になるほど小さい値を有するような前記補正係数を算出する
    ことを特徴とするオーディオ符号化プログラム。
JP2006552903A 2005-01-11 2006-01-06 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム Active JP5224017B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2006552903A JP5224017B2 (ja) 2005-01-11 2006-01-06 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2005003291 2005-01-11
JP2005003291 2005-01-11
JP2006552903A JP5224017B2 (ja) 2005-01-11 2006-01-06 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム
PCT/JP2006/300112 WO2006075563A1 (ja) 2005-01-11 2006-01-06 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム

Publications (2)

Publication Number Publication Date
JPWO2006075563A1 JPWO2006075563A1 (ja) 2008-08-07
JP5224017B2 true JP5224017B2 (ja) 2013-07-03

Family

ID=36677588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006552903A Active JP5224017B2 (ja) 2005-01-11 2006-01-06 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム

Country Status (4)

Country Link
US (1) US8082156B2 (ja)
EP (1) EP1840874B1 (ja)
JP (1) JP5224017B2 (ja)
WO (1) WO2006075563A1 (ja)

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005111568A1 (ja) * 2004-05-14 2005-11-24 Matsushita Electric Industrial Co., Ltd. 符号化装置、復号化装置、およびこれらの方法
WO2008053970A1 (fr) * 2006-11-02 2008-05-08 Panasonic Corporation Dispositif de codage de la voix, dispositif de décodage de la voix et leurs procédés
US7840516B2 (en) * 2007-02-26 2010-11-23 International Business Machines Corporation Preserving privacy of one-dimensional data streams by perturbing data with noise and using dynamic autocorrelation
US7853545B2 (en) * 2007-02-26 2010-12-14 International Business Machines Corporation Preserving privacy of one-dimensional data streams using dynamic correlations
KR101411900B1 (ko) * 2007-05-08 2014-06-26 삼성전자주식회사 오디오 신호의 부호화 및 복호화 방법 및 장치
JP2009044268A (ja) * 2007-08-06 2009-02-26 Sharp Corp 音声信号処理装置、音声信号処理方法、音声信号処理プログラム、及び、記録媒体
US8190440B2 (en) * 2008-02-29 2012-05-29 Broadcom Corporation Sub-band codec with native voice activity detection
JP5754899B2 (ja) * 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
JP5928539B2 (ja) * 2009-10-07 2016-06-01 ソニー株式会社 符号化装置および方法、並びにプログラム
WO2011043020A1 (ja) * 2009-10-07 2011-04-14 日本電気株式会社 マルチバンドコンプレッサ、その調整方法
WO2011086924A1 (ja) * 2010-01-14 2011-07-21 パナソニック株式会社 音声符号化装置および音声符号化方法
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5652658B2 (ja) 2010-04-13 2015-01-14 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
US8560330B2 (en) * 2010-07-19 2013-10-15 Futurewei Technologies, Inc. Energy envelope perceptual correction for high band coding
JP5777041B2 (ja) * 2010-07-23 2015-09-09 沖電気工業株式会社 帯域拡張装置及びプログラム、並びに、音声通信装置
JP5707842B2 (ja) * 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP5743137B2 (ja) * 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
US9117440B2 (en) 2011-05-19 2015-08-25 Dolby International Ab Method, apparatus, and medium for detecting frequency extension coding in the coding history of an audio signal
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
EP3288033B1 (en) * 2012-02-23 2019-04-10 Dolby International AB Methods and systems for efficient recovery of high frequency audio content
CN105531762B (zh) 2013-09-19 2019-10-01 索尼公司 编码装置和方法、解码装置和方法以及程序
CA3162763A1 (en) 2013-12-27 2015-07-02 Sony Corporation Decoding apparatus and method, and program
US9542955B2 (en) * 2014-03-31 2017-01-10 Qualcomm Incorporated High-band signal coding using multiple sub-bands
KR20210111603A (ko) * 2020-03-03 2021-09-13 삼성전자주식회사 음질 개선 방법 및 그 장치

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537395A (ja) * 1991-07-31 1993-02-12 Matsushita Electric Ind Co Ltd 帯域分割符号化方法
JPH05313694A (ja) * 1992-05-07 1993-11-26 Sony Corp データ圧縮伸張装置
JPH08123490A (ja) * 1994-10-24 1996-05-17 Matsushita Electric Ind Co Ltd スペクトル包絡量子化装置
JPH08162963A (ja) * 1994-11-30 1996-06-21 Sony Corp データ符号化装置および復号装置
JPH09261066A (ja) * 1996-03-27 1997-10-03 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH1130998A (ja) * 1997-05-15 1999-02-02 Matsushita Electric Ind Co Ltd オーディオ信号符号化装置,及び復号化装置、オーディオ信号符号化・復号化方法
JP2001521648A (ja) * 1997-06-10 2001-11-06 コーディング テクノロジーズ スウェーデン アクチボラゲット スペクトル帯域複製を用いた原始コーディングの強化
JP2001525079A (ja) * 1997-05-15 2001-12-04 ヒューレット・パッカード・カンパニー 音声符号化システム及び方法
JP2002536679A (ja) * 1999-01-27 2002-10-29 コーディング テクノロジーズ スウェーデン アクチボラゲット 情報源符号化システムの性能向上方法と装置
JP2003216190A (ja) * 2001-11-14 2003-07-30 Matsushita Electric Ind Co Ltd 符号化装置および復号化装置

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3186315B2 (ja) * 1993-02-27 2001-07-11 ソニー株式会社 信号圧縮装置、信号伸張装置、信号送信装置、信号受信装置及び信号送受信装置
JP3477735B2 (ja) 1993-03-05 2003-12-10 ソニー株式会社 圧縮データ変換装置及び方法
JPH06313694A (ja) * 1993-04-28 1994-11-08 Toshiba Corp 熱交換器および空調換気扇
BR9610290A (pt) 1995-09-14 1999-03-16 Ericsson Ge Mobile Inc Processo para aumentar a inteligibilidade de voz em sinais de áudio aparelho para reduzir ruído em quadros recebidos de sinais de áudio digitalizados e sistema de telecomunicações
JPH09127986A (ja) 1995-10-26 1997-05-16 Sony Corp 符号化信号の多重化方法及び信号符号化装置
TW321810B (ja) 1995-10-26 1997-12-01 Sony Co Ltd
EP0880235A1 (en) 1996-02-08 1998-11-25 Matsushita Electric Industrial Co., Ltd. Wide band audio signal encoder, wide band audio signal decoder, wide band audio signal encoder/decoder and wide band audio signal recording medium
AUPR647501A0 (en) * 2001-07-19 2001-08-09 Vast Audio Pty Ltd Recording a three dimensional auditory scene and reproducing it for the individual listener
US7333929B1 (en) * 2001-09-13 2008-02-19 Chmounk Dmitri V Modular scalable compressed audio data stream
US7469206B2 (en) * 2001-11-29 2008-12-23 Coding Technologies Ab Methods for improving high frequency reconstruction
EP1527442B1 (en) * 2002-08-01 2006-04-05 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and audio decoding method based on spectral band replication
JP3861770B2 (ja) * 2002-08-21 2006-12-20 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
EP1543307B1 (en) * 2002-09-19 2006-02-22 Matsushita Electric Industrial Co., Ltd. Audio decoding apparatus and method
JP4380174B2 (ja) * 2003-02-27 2009-12-09 沖電気工業株式会社 帯域補正装置
JP4212591B2 (ja) * 2003-06-30 2009-01-21 富士通株式会社 オーディオ符号化装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0537395A (ja) * 1991-07-31 1993-02-12 Matsushita Electric Ind Co Ltd 帯域分割符号化方法
JPH05313694A (ja) * 1992-05-07 1993-11-26 Sony Corp データ圧縮伸張装置
JPH08123490A (ja) * 1994-10-24 1996-05-17 Matsushita Electric Ind Co Ltd スペクトル包絡量子化装置
JPH08162963A (ja) * 1994-11-30 1996-06-21 Sony Corp データ符号化装置および復号装置
JPH09261066A (ja) * 1996-03-27 1997-10-03 Matsushita Electric Ind Co Ltd ロスレス符号装置とロスレス記録媒体とロスレス復号装置とロスレス符号復号装置
JPH1130998A (ja) * 1997-05-15 1999-02-02 Matsushita Electric Ind Co Ltd オーディオ信号符号化装置,及び復号化装置、オーディオ信号符号化・復号化方法
JP2001525079A (ja) * 1997-05-15 2001-12-04 ヒューレット・パッカード・カンパニー 音声符号化システム及び方法
JP2001521648A (ja) * 1997-06-10 2001-11-06 コーディング テクノロジーズ スウェーデン アクチボラゲット スペクトル帯域複製を用いた原始コーディングの強化
JP2002536679A (ja) * 1999-01-27 2002-10-29 コーディング テクノロジーズ スウェーデン アクチボラゲット 情報源符号化システムの性能向上方法と装置
JP2003216190A (ja) * 2001-11-14 2003-07-30 Matsushita Electric Ind Co Ltd 符号化装置および復号化装置

Also Published As

Publication number Publication date
JPWO2006075563A1 (ja) 2008-08-07
US20080140425A1 (en) 2008-06-12
EP1840874A4 (en) 2008-05-28
WO2006075563A1 (ja) 2006-07-20
US8082156B2 (en) 2011-12-20
EP1840874A1 (en) 2007-10-03
EP1840874B1 (en) 2019-04-10

Similar Documents

Publication Publication Date Title
JP5224017B2 (ja) オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム
JP4934427B2 (ja) 音声信号復号化装置及び音声信号符号化装置
KR101278546B1 (ko) 대역폭 확장 출력 데이터를 생성하기 위한 장치 및 방법
JP5203077B2 (ja) 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
JP3579047B2 (ja) オーディオ復号装置と復号方法およびプログラム
KR101747918B1 (ko) 고주파수 신호 복호화 방법 및 장치
JP4740260B2 (ja) 音声信号の帯域幅を疑似的に拡張するための方法および装置
JP5970014B2 (ja) オーディオエンコーダおよび帯域幅拡張デコーダ
JP6229957B2 (ja) 音声信号を再生するための装置および方法、符号化音声信号を生成するための装置および方法、コンピュータプログラム、および符号化音声信号
KR100728428B1 (ko) 오디오 디코딩 장치 및 오디오 디코딩 방법
JP5485909B2 (ja) オーディオ信号処理方法及び装置
US10255928B2 (en) Apparatus, medium and method to encode and decode high frequency signal
JP5426680B2 (ja) 信号処理方法及び装置
KR101375582B1 (ko) 대역폭 확장 부호화 및 복호화 방법 및 장치
CN104170009A (zh) 感知音频编解码器中的谐波信号的相位相干性控制
JP4313993B2 (ja) オーディオ復号化装置およびオーディオ復号化方法
JP6663996B2 (ja) 符号化されたオーディオ信号を処理するための装置および方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20081212

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110914

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111110

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120704

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120831

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130213

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130226

R150 Certificate of patent or registration of utility model

Ref document number: 5224017

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160322

Year of fee payment: 3