JP2008129541A - 復号化装置および復号化方法 - Google Patents

復号化装置および復号化方法 Download PDF

Info

Publication number
JP2008129541A
JP2008129541A JP2006317646A JP2006317646A JP2008129541A JP 2008129541 A JP2008129541 A JP 2008129541A JP 2006317646 A JP2006317646 A JP 2006317646A JP 2006317646 A JP2006317646 A JP 2006317646A JP 2008129541 A JP2008129541 A JP 2008129541A
Authority
JP
Japan
Prior art keywords
data
frequency component
high frequency
aac
audio signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2006317646A
Other languages
English (en)
Other versions
JP5103880B2 (ja
Inventor
Takashi Makiuchi
孝志 牧内
Masanao Suzuki
政直 鈴木
Yoshiteru Tsuchinaga
義照 土永
Miyuki Shirakawa
美由紀 白川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2006317646A priority Critical patent/JP5103880B2/ja
Priority to US11/902,732 priority patent/US8249882B2/en
Priority to EP07020285.8A priority patent/EP1926086B1/en
Priority to CN2007101668462A priority patent/CN101188111B/zh
Publication of JP2008129541A publication Critical patent/JP2008129541A/ja
Application granted granted Critical
Publication of JP5103880B2 publication Critical patent/JP5103880B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques

Landscapes

  • Engineering & Computer Science (AREA)
  • Quality & Reliability (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)
  • Telephone Function (AREA)

Abstract

【課題】符号化されたオーディオ信号の高域成分を補正して適切にオーディオ信号を復号化すること。
【解決手段】デコーダ100は、データ分離部110がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部120がAACデータを復号化してAAC出力音データを出力し、分析フィルタ130が低域成分データを出力する。そして、過渡性判定部150がアタック音を検出した場合に、高域補正部160が、高域生成部140によって生成された高域成分データを低域成分データの時間幅を基にして補正し、合成フィルタ170が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力する。
【選択図】 図2

Description

この発明は、オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化装置および復号化方法に関し、特に、符号化されたオーディオ信号の高域成分を補正して適切にオーディオ信号を復号化することができる復号化装置および復号化方法に関するものである。
近年、音声や音楽を符号化する方式として、HE−AAC(High-Efficiency Advanced Audio Coding)方式が利用されている。このHE−AAC方式は、主に、映像圧縮規格MPEG−2(Moving Picture Experts Group phase 2)またはMPEG−4(Moving Picture Experts Group phase 4)などで使われる音声圧縮方式である。
HE−AAC方式による符号化は、符号化対象となるオーディオ信号(音声や音楽などに関する信号)の周波数の低域成分をAAC(Advanced Audio Coding)方式で符号化し、周波数の高域成分をSBR(Spectral Band Replication;帯域複製技術)方式で符号化する。SBR方式は、オーディオ信号の周波数の低域成分から予測できない部分のみを符号化することにより通常よりも少ないビット数によってオーディオ信号の周波数の高域成分を符号化することができる。以下、AAC方式によって符号化したデータをAACデータと表記し、SBR方式によって符号化したデータをSBRデータと表記する。
ここで、HE−AAC方式によって符号化されたデータ(以下、HE−AACデータと表記する)を復号化(デコード)するデコーダの一例について説明する。図14は、従来のデコーダの構成を示す機能ブロック図である。同図に示すように、このデコーダ10は、データ分離部11と、AAC復号部12と、分析フィルタ13と、高域生成部14と、合成フィルタ15とを備えて構成される。
ここで、データ分離部11は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部12に出力し、SBRデータを高域生成部14に出力する処理部である。
AAC復号部12は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ13に出力する処理部である。分析フィルタ13は、AAC復号部12から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ15および高域生成部14に出力する処理部である。以下、分析フィルタ13から出力される算出結果を低域成分データと表記する。
高域生成部14は、データ分離部11から取得するSBRデータと分析フィルタ13から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部14は、生成した高域成分のデータを高域成分データとして合成フィルタ15に出力する。
合成フィルタ15は、分析フィルタ13から取得する低域成分データと高域生成部14から取得する高域成分データとを合成し、合成したデータをHE−AAC出力音データとして出力する処理部である。
図15は、デコーダ10の処理の概要を説明するための説明図である。図15の左側に示すように、分析フィルタ13によって低域成分データが生成され、図15の右側に示すように、高域生成部14によって低域成分データから高域成分データが生成され、かかる低域成分データと高域成分データとが合成フィルタ15によって合成され、HE−AAC出力音データが生成される。このように、HE−AAC方式によって符号化されたオーディオ信号は、デコーダ10によってHE−AAC出力音データに復号化されている。
なお、特許文献1では、オーディオ信号の入力を受け付け、かかるオーディオ信号に急激な振幅変化が含まれている場合に、オーディオ信号の周波数スペクトルを複数のグループに分割し、グループ毎にビット割り当てと量子化処理とを実行する符号化方式が公開されている。
特開2006−126372号公報
しかしながら、上述した従来の技術では、アタック音(急激な振幅変化を有する信号)が含まれるオーディオ信号を符号化(例えば、HE−AAC方式によって符号化)した後、かかる符号化されたオーディオ信号を復号化する場合に、オーディオ信号の周波数の高域成分を適切に復号化することができないという問題があった。
従来技術の問題点について具体的に説明する。図16は、従来技術の問題点を説明するための説明図である。同図に示すように、極めて短い時間幅で急激に振幅変化するアタック音を含むオーディオ信号をSBR方式によって符号化する場合には、SBR方式の特性上、SBR方式によって分割される時間領域と比較してアタック音の発生した時間領域が極めて短くなる場合(あるいはAAC方式にかかる時間分解能よりもSBR方式にかかる時間分解能が粗くなる場合)があり、アタック音を含む時間領域のパワーが平均化され、アタック音が時間的に間延びした状態で符号化されてしまうからである。
ここで、AAC方式にかかる時間分解能よりもSBR方式にかかる時間分解能が粗くなる場合について説明する。HE−AAC方式によるオーディオ信号の符号化は、SBR方式による符号化を行った後に、AAC方式による符号化を行う。SBR方式およびAAC方式による符号化は、どちらの方式においてもオーディオ信号にアタック音が含まれるか否かを判定し、判定結果に基づいて時間分解能を調整(アタック音が含まれる場合には時間分解能を細かくし、アタック音が含まれない場合には時間分解能を粗くする)し、符号化を行っている。しかし、オーディオ信号にアタック音が含まれているにも関わらず、SBR方式による符号化を行う時点では、アタック音が検出されない場合があり、このような場合に、AAC方式にかかる時間分解能よりもSBR方式にかかる時間分解能が粗くなってしまう。
すなわち、HE−AAC方式によってアタック音を含むオーディオ信号の高域成分が適切に符号化されていない場合であっても、符号化されたオーディオ信号の高域成分を補正して適切にオーディオ信号を復号化することが極めて重要な課題となっている。
この発明は、上述した従来技術による問題点を解消するためになされたものであり、符号化されたオーディオ信号の高域成分を補正して適切にオーディオ信号を復号化することができる復号化装置および復号化方法を提供することを目的とする。
上述した課題を解決し、目的を達成するため、本発明は、オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化装置であって、前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正手段と、前記高域成分補正手段によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化手段と、を備えたことを特徴とする。
また、本発明は、上記発明において、前記高域成分補正手段は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする。
また、本発明は、上記発明において、前記高域成分補正手段は、前記第1の時間幅と前記第2の時間幅との差分が閾値以下となるように当該第2の時間幅を変更し、変更前の第2の時間幅に対応する高域成分を変更後の第2の時間幅に対応させて集約することを特徴とする。
また、本発明は、上記発明において、所定の時間幅で前記オーディオ信号の成分が閾値以上で変動するアタック音が当該オーディオ信号に含まれているか否かを判定するアタック音判定手段をさらに備え、前記高域成分補正手段は、前記オーディオ信号に前記アタック音が含まれる場合に、前記高域成分を補正することを特徴とする。
また、本発明は、上記発明において、前記アタック音判定手段は、前記第1の符号化データの復号結果を基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする。
また、本発明は、上記発明において、前記第1の符号化データは、前記アタック音が前記オーディオ信号に含まれているか否かを示すアタック音有無データを含み、前記アタック音判定手段は、前記アタック音有無データを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする。
また、本発明は、上記発明において、所定期間における前記低域成分のデータを記憶する低域成分記憶手段をさらに備え、前記アタック音判定手段は、前記第1の符号化データを復号化した低域成分と前記低域成分記憶手段に記憶された低域成分とを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする。
また、本発明は、上記発明において、前記アタック音判定手段は、前記高域成分をさらに用いて前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする。
また、本発明は、オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化方法であって、前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正工程と、前記高域成分補正工程によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化工程と、を含んだことを特徴とする。
また、本発明は、上記発明において、前記高域成分補正工程は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする。
本発明によれば、第2の符号化データから生成される高域成分を第1の時間幅に基づいて補正し、補正した高域成分と第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化するので、オーディオ信号を適切に復号化することができ、高域成分の音質を改善することができる。
また、本発明によれば、第2の時間幅に対応する高域成分を第1の時間幅に対応させて集約するので、高域成分を適切に補正することができる。
また、本発明によれば、第1の時間幅と第2の時間幅との差分が閾値以下となるように第2の時間幅を変更し、変更前の第2の時間幅に対応する高域成分を変更後の第2の時間幅に対応させて集約するので、高域成分を適切に補正することができる。
また、本発明によれば、所定の時間幅でオーディオ信号の成分が閾値以上で変動するアタック音が当該オーディオ信号に含まれているか否かを判定し、オーディオ信号にアタック音が含まれる場合に、高域成分を補正するので、復号化装置の負担を軽減するとともに、オーディオ信号を適切に復号化することができる。
また、本発明によれば、第1の符号化データの復号結果を基にしてオーディオ信号にアタック音が含まれているか否かを判定するので、効率よくアタック音を検出することができる。
また、本発明によれば、第1の符号化データは、アタック音がオーディオ信号に含まれているか否かを示すアタック音有無データを含み、アタック音有無データを基にしてオーディオ信号にアタック音が含まれているか否かを判定するので、復号化装置の負担を軽減するとともに、効率よくアタック音を検出することができる。
また、本発明によれば、所定期間における低域成分のデータを記憶し、第1の符号化データを復号化した低域成分と、記憶された低域成分とを基にしてオーディオ信号にアタック音が含まれているか否かを判定するので、効率よくアタック音を検出することができる。
また、本発明によれば、高域成分をさらに用いてオーディオ信号にアタック音が含まれているか否かを判定するので、アタック音の誤検出を防止し、より正確にアタック音を検出することができる。
以下に添付図面を参照して、この発明に係る復号化装置および復号化方法の好適な実施の形態を詳細に説明する。
まず、本実施例1にかかるデコーダの概要および特徴について説明する。図1は、本実施例1にかかるデコーダの概要および特徴を説明するための図である。同図に示すように、本実施例1にかかるデコーダは、HE−AAC(High-Efficiency Advanced Audio Coding)方式によって符号化されたオーディオ信号(以下、HE−AACデータと表記する)を取得して復号化する場合に、HE−AACデータに含まれる高域成分のデータの時間幅をHE−AACデータに含まれる低域成分のデータの時間幅に修正し、修正前の時間幅で平均化されていた高域成分のパワーを修正後の時間幅によって補正する。
ここで、高域成分のデータの時間幅は、SBR(Spectral Band Replication;帯域複製技術)方式によって符号化を行う場合の時間分解能に対応し、低域成分のデータの時間幅は、AAC(Advanced Audio Coding)方式によって符号化を行う場合の時間分解能に対応する。なお、SBR方式によって符号化されたデータをSBRデータと表記し、AAC方式によって符号化されたデータをAACデータと表記する。このSBRデータおよびAACデータは、HE−AACデータに含まれている。
このように、高域成分のデータの時間幅を低域成分のデータの時間幅に修正し、修正前の時間幅で平均化されていた高域成分のパワーを修正後の時間幅によって補正するので、HE−AAC方式によってオーディオ信号の高域成分(SBRデータ)が適切に符号化されていない場合であっても、適切にオーディオ信号を復号化することができる。
つぎに、本実施例1にかかるデコーダの構成について説明する。図2は、本実施例1にかかるデコーダの構成を示す機能ブロック図である。同図に示すように、このデコーダ100は、データ分離部110と、AAC復号部120と、分析フィルタ130と、高域生成部140と、過渡性判定部150と、高域補正部160と、合成フィルタ170とを備えて構成される。
このうち、データ分離部110は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部120に出力し、SBRデータを高域生成部140に出力する処理部である。
AAC復号部120は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ130および過渡性判定部150に出力する処理部である。分析フィルタ130は、AAC復号部120から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ170および高域生成部140に出力する処理部である。以下、分析フィルタ130から出力される算出結果を低域成分データと表記する。
高域生成部140は、データ分離部110から取得するSBRデータと分析フィルタ130から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部140は、生成した高域成分のデータを高域成分データとして高域補正部160に出力する。
過渡性判定部150は、AAC復号部120からAAC出力音データを取得してHE−AACデータにアタック音(急激な振幅変化を有する信号)が含まれているか否かを判定し、判定結果を高域補正部160に出力する処理部である。
高域補正部160は、過渡性判定部150から判定結果を取得し、取得した判定結果に基づいて高域成分データを補正する処理部である。高域補正部160は、アタック音が含まれる旨の判定結果を取得した場合には、高域成分データを補正し、補正した高域成分データを合成フィルタ170に出力する。一方、高域補正部160は、アタック音が含まれない旨の判定結果を取得した場合には、高域成分データを補正することなくそのまま合成フィルタ170に高域成分データを出力する。
ここで、高域補正部160が行う高域成分データの補正について説明する。図3は、高域補正部160が行う高域成分データの補正を説明するための説明図である。高域補正部160は、高域成分データの時間幅を低域成分データの時間幅と等しくなるように補正する。図3では、分析フィルタ130から得られる低域成分データと高域生成部140から得られる高域成分データとを時間−周波数平面上に同時に描いた場合の一例を示している。
同図において、低域成分データのスペクトル(低域スペクトル)が時間iのみに存在し、高域成分データのスペクトル(高域スペクトル)が時間iおよび時間i+1に存在する場合について説明する。なお、各領域のEは、時間tと周波数fとによって特定される低域成分あるいは高域成分の電力値(パワー)を示す。
E(ti、f0)は、補正前の低域成分の電力値を示し、E'(ti、f0)は、補正後の低域成分の電力値を示す。なお、低域成分については補正を行わないので、
E(ti、f0)=E'(ti、f0
となる。
E(ti、f1)、E(ti、f2)、E(ti+1、f1)、E(ti+1、f2)は、補正前の高域成分の電力値を示し、E'(ti、f1)、E'(ti、f2)、E'(ti+1、f1)、E'(ti+1、f2)は、補正後の高域成分の電力値を示す。
高域成分に対する補正は、低域成分と同じ時間幅(図3に示す例では時間幅i)に、補正前に存在する高域成分の全時間幅の電力値を集約させる。低域成分の時間幅上に存在しない高域成分の電力値はゼロとする。高域成分にかかる補正を数式で示すと、
'(ti、f1)=E(ti、f1)+E(ti+1、f1
'(ti、f2)=E(ti、f2)+E(ti+1、f2
'(ti+1、f1)=0
'(ti+1、f2)=0
となる。
なお、本実施例1では、補正前の時間幅をiおよびi+1の2個としたが、これに限定されるものではなく、時間幅が2個以上の場合でも同様に、高域成分の電力値を低域成分の時間幅に集約させる。また、高域成分の電力値を補正する方法は、上記した方法に限られるものではなく、例えば、各時間幅に重み付けを行い、電力値の補正を行うこともできる。
図2の説明に戻ると、合成フィルタ170は、分析フィルタ130から取得する低域成分データおよび高域補正部160から取得する高域成分データ(アタック音が含まれていた場合には補正後の高域成分データ)を合成し、合成したデータをHE−AAC出力音データとして出力する。このHE−AAC出力音データは、HE−AACデータの復号結果となる。
つぎに、本実施例1にかかるデコーダ100の処理手順について説明する。図4は、本実施例1にかかるデコーダ100の処理手順を示すフローチャートである。図4に示すように、デコーダ100は、データ分離部110がHE−AACデータを取得し(ステップS101)、AACデータおよびSBRデータに分離させる(ステップS102)。
そして、AAC復号部120は、AACデータを復号化してAAC出力音データを生成し(ステップS103)、分析フィルタ130がAAC出力音データから低域成分データを生成する(ステップS104)。
高域生成部140は、SBRデータおよび低域成分データから高域成分データを生成し(ステップS105)、過渡性判定部150は、AAC出力音データに基づいてアタック音が含まれるか否かを判定する(ステップS106)。
過渡性判定部150が、アタック音が含まれると判定した場合には(ステップS107,Yes)、高域補正部160が低域成分データの時間幅に基づいて高域成分データを補正する(ステップS108)。
そして、合成フィルタ170は、低域成分データと高域成分データとを合成し、HE−AAC出力音データを生成し(ステップS109)、HE−AAC出力音データを出力する(ステップS110)。一方、過渡性判定部150がアタック音が含まれないと判定した場合には(ステップS107,No)、そのままステップS109に移行する。
このように、過渡性判定部150がアタック音を検出した場合に、高域補正部160が高域成分データを補正するので、HE−AACデータの高域成分が適切に符号化されていない場合であっても、かかる高域成分を補正してHE−AACデータを適切に復号化することができる。
上述してきたように、本実施例1にかかるデコーダ100は、データ分離部110がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部120がAACデータを復号化してAAC出力音データを出力し、分析フィルタ130が低域成分データを出力する。そして、過渡性判定部150がアタック音を検出した場合に、高域補正部160が、高域生成部140によって生成された高域成分データを低域成分データの時間幅を基にして補正し、合成フィルタ170が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力するので、HE−AACデータの高域成分が適切に符号化されていない場合であっても、HE−AACデータの高域成分を補正し、HE−AAC出力音データの音質を改善することができる。
また、本実施例1にかかるデコーダ100は、HE−AACデータの高域成分が適切に符号化されないというエンコーダ側の欠点を補うことができるので、かかるエンコーダの問題点を改善する必要がなくなり、エンコーダにかかる設計コストを削減することができる。
なお、本実施例1にかかるデコーダ100は、高域補正部160が高域成分データを補正する場合に、高域成分データの時間幅を低域成分データの時間幅に修正していたが、これに限定されるものではない。例えば、高域成分データの時間幅と低域成分データの時間幅との差分が閾値以下となるように高域成分データの時間幅を変更し、変更前の時間幅に対応する高域成分データを変更後の時間幅に対応させて集約させてもよい。
つぎに、本実施例2にかかるデコーダの概要および特徴について説明する。本実施例2にかかるデコーダは、HE−AACデータに含まれる窓データを基にしてHE−AACデータにアタック音が含まれるか否かを判定し、アタック音が含まれると判定した場合に、高域成分を低域成分の時間幅によって補正する。
ここで、窓データは、エンコーダ(オーディオ信号を符号化するエンコーダ;図示略)がAAC方式によってオーディオ信号の低域成分を符号化する場合に、かかるオーディオ信号にアタック音が含まれるか否かを判定した判定結果となるデータである。窓データがLONGの場合には、アタック音がオーディオ信号に含まれておらず、AACデータの時間分解能(時間幅)が広い。一方、窓データがSHORTの場合には、アタック音がオーディオ信号に含まれ、AACデータの時間分解能(時間幅)が狭い。
このように、本実施例2にかかるデコーダは、HE−AACデータに含まれる窓データを基にして、HE−AACデータにアタック音が含まれているか否か(符号化前のオーディオ信号にアタック音が含まれているか否か)を判定するので、アタック音検出にかかる処理負荷が軽減され、効率よく高域成分を補正することができる。
つぎに、本実施例2にかかるデコーダの構成について説明する。図5は、本実施例2にかかるデコーダ200の構成を示す機能ブロック図である。同図に示すように、このデコーダ200は、データ分離部210と、AAC復号部220と、分析フィルタ230と、高域生成部240と、過渡性判定部250と、高域補正部260と、合成フィルタ270とを備えて構成される。
このうち、データ分離部210は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部220に出力し、SBRデータを高域生成部240に出力する処理部である。
AAC復号部220は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ230に出力し、AACデータに含まれる窓データを過渡性判定部250に出力する処理部である。
分析フィルタ230は、AAC復号部220から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ270および高域生成部240に出力する処理部である。以下、分析フィルタ230から出力される算出結果を低域成分データと表記する。
高域生成部240は、データ分離部210から取得するSBRデータと分析フィルタ230から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部240は、生成した高域成分のデータを高域成分データとして高域補正部260に出力する。
過渡性判定部250は、AAC復号部220から窓データを取得してHE−AACデータにアタック音(急激な振幅変化を有する信号)が含まれているか否かを判定し、判定結果を高域補正部260に出力する処理部である。具体的に、過渡性判定部250は、窓データがLONGの場合には、アタック音が含まれていないと判定し、窓データがSHORTの場合には、アタック音が含まれていると判定する。
高域補正部260は、過渡性判定部250から判定結果を取得し、取得した判定結果に基づいて高域成分データを補正する処理部である。高域補正部260は、アタック音が含まれる旨の判定結果を取得した場合には、高域成分データを補正し、補正した高域成分データを合成フィルタ270に出力する。一方、高域補正部260は、アタック音が含まれない旨の判定結果を取得した場合には、高域成分データを補正することなくそのまま合成フィルタ270に高域成分データを出力する。
合成フィルタ270は、分析フィルタ230から取得する低域成分データおよび高域補正部260から取得する高域成分データ(アタック音が含まれていた場合には補正後の高域成分データ)を合成し、合成したデータをHE−AAC出力音データとして出力する。このHE−AAC出力音データは、HE−AACデータの復号結果となる。
つぎに、本実施例2にかかるデコーダ200の処理手順について説明する。図6は、本実施例2にかかるデコーダ200の処理手順を示すフローチャートである。図6に示すように、デコーダ200は、データ分離部210がHE−AACデータを取得し(ステップS201)、AACデータおよびSBRデータに分離させる(ステップS202)。
そして、AAC復号部220は、AACデータを復号化してAAC出力音データを生成し(ステップS203)、分析フィルタ230がAAC出力音データから低域成分データを生成する(ステップS204)。
高域生成部240は、SBRデータおよび低域成分データから高域成分データを生成し(ステップS205)、過渡性判定部250は、窓データに基づいてアタック音が含まれるか否かを判定する(ステップS206)。
過渡性判定部250が、アタック音が含まれると判定した場合(窓データがSHORTの場合)には(ステップS207,Yes)、高域補正部260が低域成分データの時間幅に基づいて高域成分データを補正する(ステップS208)。
そして、合成フィルタ270は、低域成分データと高域成分データとを合成し、HE−AAC出力音データを生成し(ステップS209)、HE−AAC出力音データを出力する(ステップS210)。一方、過渡性判定部250は、アタック音が含まれないと判定した場合(窓データがLONGの場合)には(ステップS207,No)、そのままステップS209に移行する。
このように、過渡性判定部250が窓データに基づいてアタック音が含まれるか否かを判定するので、効率よくアタック音検出を行うことができる。
上述してきたように、本実施例2にかかるデコーダ200は、データ分離部210がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部220がAACデータを復号化してAAC出力音データを出力し、分析フィルタ230が低域成分データを出力する。そして、過渡性判定部250が窓データを基にしてアタック音検出を行い、高域補正部260が、高域生成部240によって生成された高域成分データを低域成分データの時間幅を基にして補正し、合成フィルタ270が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力するので、HE−AACデータの高域成分が適切に符号化されていない場合であっても、HE−AACデータの高域成分を補正し、HE−AAC出力音データの音質を効率よく改善することができる。
つぎに、本実施例3にかかるデコーダの概要および特徴について説明する。本実施例3にかかるデコーダは、HE−AACデータに含まれるグルーピングデータを基にして、アタック音の発生した時間幅を検出する。そして、デコーダは、グルーピングデータから検出された時間幅に基づいて高域成分の時間幅を修正し、修正前の時間幅で平均化されていた高域成分のパワー(電力値)を修正後の時間幅によって補正する。以下、グルーピングデータから検出される時間幅を検出時間幅と表記する。
ここで、グルーピングデータは、オーディオ信号の1フレームを所定数のサンプル(例えば1024サンプル)に分割したデータであり、HE−AACデータに含まれているものとする。なお、この1フレームには、例えば、1フレーム分のオーディオ信号の時間とパワーとの関係などが含まれる。
このように、本実施例3にかかるデコーダは、HE−AACデータに含まれるグルーピングデータの検出時間幅を基にして、高域成分の時間幅を修正し、修正前の時間幅で平均化されていた高域成分のパワーを修正後の時間幅によって補正するので、高域成分をより的確に補正することができ、復号化したHE−AAC出力音データの音質を向上させることができる。
つぎに、本実施例3にかかるデコーダの構成について説明する。図7は、本実施例3にかかるデコーダ300の構成を示す機能ブロック図である。同図に示すように、このデコーダ300は、データ分離部310と、AAC復号部320と、分析フィルタ330と、高域生成部340と、過渡性判定部350と、高域補正部360と、合成フィルタ370とを備えて構成される。
このうち、データ分離部310は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部320に出力し、SBRデータを高域生成部340に出力する処理部である。
AAC復号部320は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ330に出力すると共に、AACデータに含まれる窓データおよびグルーピングデータを過渡性判定部350に出力する処理部である。ここで、窓データは、実施例2において説明した窓データと同様であるため説明を省略する。
分析フィルタ330は、AAC復号部320から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ370および高域生成部340に出力する処理部である。以下、分析フィルタ330から出力される算出結果を低域成分データと表記する。
高域生成部340は、データ分離部310から取得するSBRデータと分析フィルタ330から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部340は、生成した高域成分のデータを高域成分データとして高域補正部360に出力する。
過渡性判定部350は、AAC復号部320から窓データを取得してHE−AACデータにアタック音(急激な振幅変化を有する信号)が含まれているか否かを判定し、判定結果を高域補正部360に出力する処理部である。具体的に、過渡性判定部350は、窓データがLONGの場合には、アタック音が含まれていないと判定し、窓データがSHORTの場合には、アタック音が含まれていると判定する。
また、過渡性判定部350は、窓データがSHORTの場合に、グルーピングデータを基にして検出時間幅を検出し、検出した検出時間幅のデータを高域補正部360に出力する。図8は、検出時間幅の検出にかかる過渡性判定部350の処理を説明するための説明図である。
図8に示すように、まず、過渡性判定部350は、1024サンプルからなるグルーピングデータを128サンプルごとのサブフレーム#0〜#7に分割する。そして、過渡性判定部350は、隣接するサブフレームを比較して、各サブフレームをグループ分けする。
例えば、隣接するサブフレームを比較し、比較対象となるサブフレームの値(例えば、オーディオ信号の電力値)の差分が閾値以上となる変化点によってグループ分けをする。図8において、サブフレーム#2の値とサブフレーム#3の値との差分が閾値以上となり、サブフレーム#3の値とサブフレーム#4の値との差分が閾値以上となった場合には、サブフレーム#0〜サブフレーム#2をグループ1、サブフレーム#3をグループ2、サブフレーム#4〜サブフレーム#7をグループ3とする。
そして、過渡性判定部350は、グループ2に対応する時間幅(図8に示す例では、128サンプル分の時間幅)を検出時間幅として検出し、かかる検出時間幅のデータを高域補正部360に出力する。
図7の説明に戻ると、高域補正部360は、過渡性判定部350から判定結果を取得し、取得した判定結果に基づいて高域成分データを補正する処理部である。高域補正部360は、アタック音が含まれる旨の判定結果を取得した場合には、高域成分データを検出時間幅に基づいて補正し、補正した高域成分データを合成フィルタ370に出力する。一方、高域補正部360は、アタック音が含まれない旨の判定結果を取得した場合には、高域成分データを補正することなくそのまま合成フィルタ370に高域成分データを出力する。
なお、高域補正部360が高域成分データを検出時間幅に基づいて補正する方法は、実施例1に示した高域補正部160が高域成分データを低域成分データの時間幅に基づいて補正する方法と同様(低域成分データの時間幅が検出時間幅に代わる)であるため説明を省略する。
合成フィルタ370は、分析フィルタ330から取得する低域成分データおよび高域補正部360から取得する高域成分データ(アタック音が含まれていた場合には補正後の高域成分データ)を合成し、合成したデータをHE−AAC出力音データとして出力する。このHE−AAC出力音データは、HE−AACデータの復号結果となる。
つぎに、本実施例3にかかるデコーダ300の処理手順について説明する。図9は、本実施例3にかかるデコーダ300の処理手順を示すフローチャートである。同図に示すように、デコーダ300は、データ分離部310がHE−AACデータを取得し(ステップS301)、AACデータおよびSBRデータに分離させる(ステップS302)。
そして、AAC復号部320は、AACデータを復号化してAAC出力音データを生成し(ステップS303)、分析フィルタ330がAAC出力音データから低域成分データを生成する(ステップS304)。
高域生成部340は、SBRデータおよび低域成分データから高域成分データを生成し(ステップS305)、過渡性判定部350は、窓データに基づいてアタック音が含まれるか否かを判定する(ステップS306)。
過渡性判定部350が、窓データがSHORTの場合には(ステップS307,Yes)、高域補正部360がグルーピングデータに基づいて検出時間幅を検出し(ステップS308)、検出時間幅に基づいて高域成分データを補正する(ステップS309)。
そして、合成フィルタ370は、低域成分データと高域成分データとを合成し、HE−AAC出力音データを生成し(ステップS310)、HE−AAC出力音データを出力する(ステップS311)。一方、過渡性判定部350は、窓データがLONGの場合には(ステップS307,No)、そのままステップS310に移行する。
このように、過渡性判定部350がグルーピングデータに基づいてアタック音が含まれる正確な時間幅を検出し、かかる時間幅に基づいて高域成分データを補正するので、HE−AAC出力音データの音質を向上させることができる。
上述してきたように、本実施例3にかかるデコーダ300は、データ分離部310がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部320がAACデータを復号化してAAC出力音データを出力し、分析フィルタ330が低域成分データを出力する。そして、過渡性判定部350が窓データを基にしてアタック音検出を行い、グルーピングデータに基づいて検出時間幅を検出し、高域補正部360が、高域生成部340によって生成された高域成分データを検出時間幅を基にして補正し、合成フィルタ370が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力するので、高域成分をより的確に補正することができ、復号化したHE−AAC出力音データの音質を向上させることができる。
つぎに、本実施例4にかかるデコーダの概要および特徴について説明する。本実施例4にかかるデコーダは、所定期間におけるMDCT(Modified Discrete Cosine Transform)係数を記憶し、記憶したMDCT係数とHE−AACデータに含まれるMDCT係数とを比較して、比較したMDCT係数の差分が閾値以上となる場合にアタック音がHE−AACデータに含まれるものとして高域成分を低域成分の時間幅によって補正する。
ここで、MDCT係数は、例えば、オーディオ信号の低域成分のパワー(電力値)と周波数との関係を間欠的に抽出した値である。本実施例4にかかるデコーダは、所定期間におけるMDCT係数の平均値を予め記憶している。以下、デコーダが予め記憶しているMDCT係数を基準MDCT係数と表記し、HE−AACデータに含まれるMDCT係数を比較MDCT係数と表記する。
このように、本実施例4にかかるデコーダは、HE−AACデータに含まれる比較MDCT係数と基準MDCT係数とを基にして、HE−AACデータにアタック音が含まれているか否か(符号化前のオーディオ信号にアタック音が含まれているか否か)を判定するので、アタック音検出にかかる処理負荷が軽減され、効率よく高域成分を補正することができる。
つぎに、本実施例4にかかるデコーダの構成について説明する。図10は、本実施例4にかかるデコーダ400の構成を示す機能ブロック図である。同図に示すように、このデコーダ400は、データ分離部410と、AAC復号部420と、分析フィルタ430と、高域生成部440と、過渡性判定部450と、MDCT記憶部455と、高域補正部460と、合成フィルタ470とを備えて構成される。
このうち、データ分離部410は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部420に出力し、SBRデータを高域生成部440に出力する処理部である。
AAC復号部420は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ430に出力し、AACデータに含まれる比較MDCT係数を過渡性判定部450に出力する処理部である。
分析フィルタ430は、AAC復号部420から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ470および高域生成部440に出力する処理部である。以下、分析フィルタ430から出力される算出結果を低域成分データと表記する。
高域生成部440は、データ分離部410から取得するSBRデータと分析フィルタ430から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部440は、生成した高域成分のデータを高域成分データとして高域補正部460に出力する。
過渡性判定部450は、AAC復号部420から比較MDCT係数を取得してHE−AACデータにアタック音(急激な振幅変化を有する信号)が含まれているか否かを判定し、判定結果を高域補正部460に出力する処理部である。具体的に、過渡性判定部450は、比較MDCT係数とMDCT記憶部455に記憶された基準MDCT係数とを比較し、比較した差分が閾値以上の場合にアタック音が含まれると判定する。一方、過渡性判定部450は、比較MDCT係数と基準MDCT係数との差分が閾値未満の場合には、アタック音が含まれないと判定する。MDCT記憶部455は、基準MDCT係数を記憶する記憶部である。
合成フィルタ470は、分析フィルタ430から取得する低域成分データおよび高域補正部460から取得する高域成分データ(アタック音が含まれていた場合には補正後の高域成分データ)を合成し、合成したデータをHE−AAC出力音データとして出力する。このHE−AAC出力音データは、HE−AACデータの復号結果となる。
つぎに、本実施例4にかかるデコーダ400の処理手順について説明する。図11は、本実施例4にかかるデコーダ400の処理手順を示すフローチャートである。図11に示すように、デコーダ400は、データ分離部410がHE−AACデータを取得し(ステップS401)、AACデータおよびSBRデータに分離させる(ステップS402)。
そして、AAC復号部420は、AACデータを復号化してAAC出力音データを生成し(ステップS403)、分析フィルタ430がAAC出力音データから低域成分データを生成する(ステップS404)。
高域生成部440は、SBRデータおよび低域成分データから高域成分データを生成し(ステップS405)、過渡性判定部450は、比較MDCT係数を取得し(ステップS406)、比較MDCT係数と基準MDCT係数とを比較してアタック音が含まれるか否かを判定する(ステップS407)。
過渡性判定部450が、アタック音が含まれると判定した場合には(ステップS408,Yes)、高域補正部460が低域成分データの時間幅に基づいて高域成分データを補正する(ステップS409)。
そして、合成フィルタ470は、低域成分データと高域成分データとを合成し、HE−AAC出力音データを生成し(ステップS410)、HE−AAC出力音データを出力する(ステップS411)。一方、過渡性判定部450は、アタック音が含まれないと判定した場合には(ステップS408,No)、そのままステップS410に移行する。
このように、過渡性判定部450が比較MDCT係数および基準MDCT係数に基づいてアタック音が含まれるか否かを判定するので、効率よくアタック音検出を行うことができる。
上述してきたように、本実施例4にかかるデコーダ400は、基準MDCT係数をMDCT記憶部455に記憶し、データ分離部410がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部420がAACデータを復号化してAAC出力音データを出力し、分析フィルタ430が低域成分データを出力する。そして、過渡性判定部450が比較MDCT係数および基準MDCT係数を基にしてアタック音検出を行い、高域補正部460が、高域生成部440によって生成された高域成分データを低域成分データの時間幅を基にして補正し、合成フィルタ470が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力するので、HE−AACデータの高域成分が適切に符号化されていない場合であっても、HE−AACデータの高域成分を補正し、HE−AAC出力音データの音質を効率よく改善することができる。
なお、過渡性判定部450は、比較MDCT係数と基準MDCT係数との比較結果が閾値未満であった場合に、AAC復号部420から取得した比較MDCT係数を基にしてMDCT記憶部455に記憶された基準MDCT係数を更新してもよい。更新方法はどのような方法を用いても構わないが、例えば、比較MDCT係数と基準MDCT係数との平均値を新たな基準MDCT係数とすることができる。
このように、MDCT記憶部455に記憶された基準MDCT係数を更新することによって、アタック音検出をより正確に行うことができる。
つぎに、本実施例5にかかるデコーダの概要および特徴について説明する。本実施例5にかかるデコーダは、HE−AACデータに含まれる低域成分および高域成分のデータに基づいてHE−AACデータにアタック音が含まれるか否かを判定し、アタック音が含まれると判定した場合に、高域成分を低域成分の時間幅によって補正する。
このように、本実施例5にかかるデコーダは、低域成分および高域成分のデータに基づいてHE−AACデータにアタック音が含まれているか否かを判定するので、アタック音をより正確に検出することができる。
つぎに、本実施例5にかかるデコーダの構成について説明する。図12は、本実施例5にかかるデコーダの構成を示す機能ブロック図である。同図に示すように、このデコーダ500は、データ分離部510と、AAC復号部520と、分析フィルタ530と、高域生成部540と、過渡性判定部550と、高域成分データ記憶部555と、高域補正部560と、合成フィルタ570とを備えて構成される。
このうち、データ分離部510は、HE−AACデータを取得した場合に、取得したHE−AACデータに含まれるAACデータおよびSBRデータをそれぞれ分離させ、AACデータをAAC復号部520に出力し、SBRデータを高域生成部540に出力する処理部である。
AAC復号部520は、AACデータを復号化し、復号化したAACデータをAAC出力音データとして分析フィルタ530および過渡性検出部550に出力する処理部である。分析フィルタ530は、AAC復号部520から取得するAAC出力音データを基にして、オーディオ信号の低域成分にかかる時間と周波数との特性を算出し、算出結果を合成フィルタ570および高域生成部540に出力する処理部である。以下、分析フィルタ530から出力される算出結果を低域成分データと表記する。
高域生成部540は、データ分離部510から取得するSBRデータと分析フィルタ530から取得する低域成分データとを基にして、オーディオ信号の高域成分を生成する処理部である。そして、高域生成部540は、生成した高域成分のデータを高域成分データとして高域補正部560に出力する。
過渡性判定部550は、AAC復号部520からAAC出力音データおよび高域生成部540から高域成分データを取得して、HE−AACデータにアタック音(急激な振幅変化を有する信号)が含まれているか否かを判定し、判定結果を高域補正部560に出力する処理部である。
具体的に、過渡性判定部550は、AAC出力音データを基にしてアタック音が含まれていると判定し、かつ、高域成分データを基にしてアタック音が含まれていると判定した場合に、アタック音が含まれていると最終的に判定する。過渡性判定部550は、AAC出力音データあるいは高域成分データのどちらか一方においてアタック音が含まれていないと判定した場合には、アタック音が含まれていないと最終的に判定する。AAC出力音データに基づいてアタック音が含まれているか否かの判定手法は、実施例1〜4に示した判定方法と同様であるため説明を省略する。
ここで、過渡性判定部550が、高域成分データを基にしてアタック音が含まれるか否かを判定する方法について説明する。過渡性判定部550は、高域成分データ記憶部555に記憶された過去一定期間内の高域成分データの平均値(以下、基準高域成分データと表記する)を取得し、取得した基準高域成分データと、高域生成部540から出力される高域成分データとを比較して、比較した結果の差分が閾値以上となる場合に、アタック音が含まれると判定する。高域成分データ記憶部555は、基準高域成分データを記憶する記憶部である。
なお、過渡性判定部550は、高域生成部540から出力される高域成分データと基準高域成分データとの差分が閾値未満である場合には、高域成分データ記憶部555に記憶された基準高域成分データを高域生成部540から取得した高域成分データに基づいて更新する。例えば、過渡性判定部550は、基準高域成分データと高域生成部540から取得した高域成分データとの平均値を新たな基準高域成分データとする。
高域補正部560は、過渡性判定部550から判定結果を取得し、取得した判定結果に基づいて高域成分データを補正する処理部である。高域補正部560は、アタック音が含まれる旨の判定結果を取得した場合には、高域成分データを補正し、補正した高域成分データを合成フィルタ570に出力する。一方、高域補正部560は、アタック音が含まれない旨の判定結果を取得した場合には、高域成分データを補正することなくそのまま合成フィルタ570に高域成分データを出力する。
合成フィルタ570は、分析フィルタ530から取得する低域成分データおよび高域補正部560から取得する高域成分データ(アタック音が含まれていた場合には補正後の高域成分データ)を合成し、合成したデータをHE−AAC出力音データとして出力する。このHE−AAC出力音データは、HE−AACデータの復号結果となる。
つぎに、本実施例5にかかるデコーダ500の処理手順について説明する。図13は、本実施例5にかかるデコーダ500の処理手順を示すフローチャートである。同図に示すように、デコーダ500は、データ分離部510がHE−AACデータを取得し(ステップS501)、AACデータおよびSBRデータに分離させる(ステップS502)。
そして、AAC復号部520は、AACデータを復号化してAAC出力音データを生成し(ステップS503)、分析フィルタ530がAAC出力音データから低域成分データを生成する(ステップS504)。
高域生成部540は、SBRデータおよび低域成分データから高域成分データを生成し(ステップS505)、過渡性判定部550は、AAC出力音データに基づいてアタック音が含まれるか否かを判定する(ステップS506)。
過渡性判定部550が、AAC出力音データに基づいてアタック音が含まれていると判定した場合には(ステップS507,Yes)、高域成分データに基づいてアタック音が含まれているか否かを判定し(ステップS508)、高域成分データに基づいてアタック音が含まれていると判定した場合に(ステップS509,Yes)、低域成分データの時間幅に基づいて高域成分データを補正する(ステップS510)。
そして、合成フィルタ570は、低域成分データと高域成分データとを合成し、HE−AAC出力音データを生成し(ステップS511)、HE−AAC出力音データを出力する(ステップS512)。一方、AAC出力音データに基づいてアタック音が含まれていないと判定した場合には(ステップS507,No)、そのままステップS511に移行する。なお、高域成分データに基づいてアタック音が含まれていないと判定した場合(ステップS509,No)には、基準高域成分データを更新し(ステップS513)、ステップS511に移行する。
このように、過渡性判定部550がAAC出力音データおよび高域成分データに基づいてアタック音が含まれるか否かを判定するので、アタック音が含まれるか否かをより的確に判定することができる。
上述してきたように、本実施例5にかかるデコーダ500は、基準高域成分データを高域成分データ記憶部555に記憶し、データ分離部510がHE−AACデータに含まれるAACデータとSBRデータとを分離し、AAC復号部520がAACデータを復号化してAAC出力音データを出力し、分析フィルタ530が低域成分データを出力する。そして、過渡性判定部550がAAC出力音データおよび高域成分データを基にしてアタック音検出を行い、高域補正部560が、高域生成部540によって生成された高域成分データを低域成分データの時間幅を基にして補正し、合成フィルタ570が補正された高域成分データと低域成分データとを合成してHE−AAC出力音データを出力するので、アタック音を正確に検出し、HE−AACデータの高域成分を補正し、HE−AAC出力音データの音質を効率よく改善することができる。
さて、これまで本発明の実施例について説明したが、本発明は上述した実施例以外にも、特許請求の範囲に記載した技術的思想の範囲内において種々の異なる実施例にて実施されてもよいものである。
また、本実施例において説明した各処理のうち、自動的におこなわれるものとして説明した処理の全部または一部を手動的におこなうこともでき、あるいは、手動的におこなわれるものとして説明した処理の全部または一部を公知の方法で自動的におこなうこともできる。
この他、上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示のように構成されていることを要しない。すなわち、各装置の分散・統合の具体的形態は図示のものに限られず、その全部または一部を、各種の負荷や使用状況などに応じて、任意の単位で機能的または物理的に分散・統合して構成することができる。
(付記1)オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化装置であって、
前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正手段と、
前記高域成分補正手段によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化手段と、
を備えたことを特徴とする復号化装置。
(付記2)前記高域成分補正手段は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする付記1に記載の復号化装置。
(付記3)前記高域成分補正手段は、前記第1の時間幅と前記第2の時間幅との差分が閾値以下となるように当該第2の時間幅を変更し、変更前の第2の時間幅に対応する高域成分を変更後の第2の時間幅に対応させて集約することを特徴とする付記1に記載の復号化装置。
(付記4)所定の時間幅で前記オーディオ信号の成分が閾値以上で変動するアタック音が当該オーディオ信号に含まれているか否かを判定するアタック音判定手段をさらに備え、前記高域成分補正手段は、前記オーディオ信号に前記アタック音が含まれる場合に、前記高域成分を補正することを特徴とする付記1、2または3に記載の復号化装置。
(付記5)前記アタック音判定手段は、前記第1の符号化データの復号結果を基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記4に記載の復号化装置。
(付記6)前記第1の符号化データは、前記アタック音が前記オーディオ信号に含まれているか否かを示すアタック音有無データを含み、前記アタック音判定手段は、前記アタック音有無データを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記4に記載の復号化装置。
(付記7)所定期間における前記低域成分のデータを記憶する低域成分記憶手段をさらに備え、前記アタック音判定手段は、前記第1の符号化データを復号化した低域成分と前記低域成分記憶手段に記憶された低域成分とを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記4に記載の復号化装置。
(付記8)前記アタック音判定手段は、前記高域成分をさらに用いて前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記4〜7のいずれか一つに記載の復号化装置。
(付記9)オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化方法であって、
前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正工程と、
前記高域成分補正工程によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化工程と、
を含んだことを特徴とする復号化方法。
(付記10)前記高域成分補正工程は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする付記9に記載の復号化方法。
(付記11)前記高域成分補正工程は、前記第1の時間幅と前記第2の時間幅との差分が閾値以下となるように当該第2の時間幅を変更し、変更前の第2の時間幅に対応する高域成分を変更後の第2の時間幅に対応させて集約することを特徴とする付記9に記載の復号化方法。
(付記12)所定の時間幅で前記オーディオ信号の成分が閾値以上で変動するアタック音が当該オーディオ信号に含まれているか否かを判定するアタック音判定工程をさらに含み、前記高域成分補正工程は、前記オーディオ信号に前記アタック音が含まれる場合に、前記高域成分を補正することを特徴とする付記9、10または11に記載の復号化方法。
(付記13)前記アタック音判定工程は、前記第1の符号化データの復号結果を基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記12に記載の復号化方法。
(付記14)前記第1の符号化データは、前記アタック音が前記オーディオ信号に含まれているか否かを示すアタック音有無データを含み、前記アタック音判定工程は、前記アタック音有無データを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記12に記載の復号化方法。
(付記15)所定期間における前記低域成分のデータを記憶装置に記憶する低域成分記憶工程をさらに含み、前記アタック音判定工程は、前記第1の符号化データを復号化した低域成分と前記記憶装置に記憶された低域成分とを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記12に記載の復号化方法。
(付記16)前記アタック音判定工程は、前記高域成分をさらに用いて前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする付記12〜15のいずれか一つに記載の復号化方法。
以上のように、本発明にかかる復号化装置および復号化方法は、符号化された低域成分および高域成分からオーディオ信号を復号化する復号化装置などに有用であり、特に、高域成分を正確に復号化する場合に適している。
本実施例1にかかるデコーダの概要および特徴を説明するための図である。 本実施例1にかかるデコーダの構成を示す機能ブロック図である。 高域補正部が行う高域成分データの補正を説明するための説明図である。 本実施例1にかかるデコーダの処理手順を示すフローチャートである。 本実施例2にかかるデコーダの構成を示す機能ブロック図である。 本実施例2にかかるデコーダの処理手順を示すフローチャートである。 本実施例3にかかるデコーダの構成を示す機能ブロック図である。 検出時間幅の検出にかかる過渡性判定部の処理を説明するための説明図である。 本実施例3にかかるデコーダの処理手順を示すフローチャートである。 本実施例4にかかるデコーダの構成を示す機能ブロック図である。 本実施例4にかかるデコーダの処理手順を示すフローチャートである。 本実施例5にかかるデコーダの構成を示す機能ブロック図である。 本実施例5にかかるデコーダの処理手順を示すフローチャートである。 従来のデコーダの構成を示す機能ブロック図である。 デコーダの処理の概要を説明するための説明図である。 従来技術の問題点を説明するための説明図である。
符号の説明
10,100,200,300,400,500 デコーダ
11,110,210,310,410,510 データ分離部
12,120,220,320,420,520 AAC復号部
13,130,230,330,430,530 分析フィルタ
14,140,240,340,440,540 高域生成部
150,250,350,450,550 過渡性判定部
160,260,360,460,560 高域補正部
15,170,270,370,470,570 合成フィルタ
455 MDCT記憶部
555 高域成分データ記憶部

Claims (10)

  1. オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化装置であって、
    前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正手段と、
    前記高域成分補正手段によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化手段と、
    を備えたことを特徴とする復号化装置。
  2. 前記高域成分補正手段は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする請求項1に記載の復号化装置。
  3. 前記高域成分補正手段は、前記第1の時間幅と前記第2の時間幅との差分が閾値以下となるように当該第2の時間幅を変更し、変更前の第2の時間幅に対応する高域成分を変更後の第2の時間幅に対応させて集約することを特徴とする請求項1に記載の復号化装置。
  4. 所定の時間幅で前記オーディオ信号の成分が閾値以上で変動するアタック音が当該オーディオ信号に含まれているか否かを判定するアタック音判定手段をさらに備え、前記高域成分補正手段は、前記オーディオ信号に前記アタック音が含まれる場合に、前記高域成分を補正することを特徴とする請求項1、2または3に記載の復号化装置。
  5. 前記アタック音判定手段は、前記第1の符号化データの復号結果を基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする請求項4に記載の復号化装置。
  6. 前記第1の符号化データは、前記アタック音が前記オーディオ信号に含まれているか否かを示すアタック音有無データを含み、前記アタック音判定手段は、前記アタック音有無データを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする請求項4に記載の復号化装置。
  7. 所定期間における前記低域成分のデータを記憶する低域成分記憶手段をさらに備え、前記アタック音判定手段は、前記第1の符号化データを復号化した低域成分と前記低域成分記憶手段に記憶された低域成分とを基にして前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする請求項4に記載の復号化装置。
  8. 前記アタック音判定手段は、前記高域成分をさらに用いて前記オーディオ信号に前記アタック音が含まれているか否かを判定することを特徴とする請求項4〜7のいずれか一つに記載の復号化装置。
  9. オーディオ信号の低域成分を第1の時間幅で符号化した第1の符号化データおよび前記低域成分から前記オーディオ信号の高域成分を生成する場合に利用され第2の時間幅で符号化した第2の符号化データからオーディオ信号を復号化する復号化方法であって、
    前記第2の符号化データから生成される高域成分を前記第1の時間幅に基づいて補正する高域成分補正工程と、
    前記高域成分補正工程によって補正された高域成分と前記第1の符号化データから復号化される低域成分とを合成してオーディオ信号を復号化する復号化工程と、
    を含んだことを特徴とする復号化方法。
  10. 前記高域成分補正工程は、前記第2の時間幅に対応する前記高域成分を前記第1の時間幅に対応させて集約することを特徴とする請求項9に記載の復号化方法。
JP2006317646A 2006-11-24 2006-11-24 復号化装置および復号化方法 Expired - Fee Related JP5103880B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2006317646A JP5103880B2 (ja) 2006-11-24 2006-11-24 復号化装置および復号化方法
US11/902,732 US8249882B2 (en) 2006-11-24 2007-09-25 Decoding apparatus and decoding method
EP07020285.8A EP1926086B1 (en) 2006-11-24 2007-10-17 Decoding apparatus and decoding method
CN2007101668462A CN101188111B (zh) 2006-11-24 2007-10-22 解码装置和解码方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2006317646A JP5103880B2 (ja) 2006-11-24 2006-11-24 復号化装置および復号化方法

Publications (2)

Publication Number Publication Date
JP2008129541A true JP2008129541A (ja) 2008-06-05
JP5103880B2 JP5103880B2 (ja) 2012-12-19

Family

ID=38829573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2006317646A Expired - Fee Related JP5103880B2 (ja) 2006-11-24 2006-11-24 復号化装置および復号化方法

Country Status (4)

Country Link
US (1) US8249882B2 (ja)
EP (1) EP1926086B1 (ja)
JP (1) JP5103880B2 (ja)
CN (1) CN101188111B (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013050543A (ja) * 2011-08-30 2013-03-14 Fujitsu Ltd 符号化方法、符号化装置および符号化プログラム
JP2014002393A (ja) * 2010-01-19 2014-01-09 Dolby International Ab サブバンドブロックに基づく高調波移調の改善
JP2016027411A (ja) * 2011-05-25 2016-02-18 ▲ホア▼▲ウェイ▼技術有限公司 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
JP2016048391A (ja) * 2010-04-13 2016-04-07 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP2022521188A (ja) * 2019-02-21 2022-04-06 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Mdct係数からのスペクトル形状予測

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9177569B2 (en) 2007-10-30 2015-11-03 Samsung Electronics Co., Ltd. Apparatus, medium and method to encode and decode high frequency signal
KR101373004B1 (ko) * 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
MX2011000367A (es) * 2008-07-11 2011-03-02 Fraunhofer Ges Forschung Un aparato y un metodo para calcular una cantidad de envolventes espectrales.
EP3998606B8 (en) * 2009-10-21 2022-12-07 Dolby International AB Oversampling in a combined transposer filter bank
CN103928029B (zh) * 2013-01-11 2017-02-08 华为技术有限公司 音频信号编码和解码方法、音频信号编码和解码装置
CN103065641B (zh) 2013-02-01 2014-12-10 飞天诚信科技股份有限公司 一种解析音频数据的方法
US9613628B2 (en) * 2015-07-01 2017-04-04 Gopro, Inc. Audio decoder for wind and microphone noise reduction in a microphone array system
US10375131B2 (en) * 2017-05-19 2019-08-06 Cisco Technology, Inc. Selectively transforming audio streams based on audio energy estimate
CN112767954B (zh) * 2020-06-24 2024-06-14 腾讯科技(深圳)有限公司 音频编解码方法、装置、介质及电子设备

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521648A (ja) * 1997-06-10 2001-11-06 コーディング テクノロジーズ スウェーデン アクチボラゲット スペクトル帯域複製を用いた原始コーディングの強化
JP2002041097A (ja) * 2000-06-02 2002-02-08 Lucent Technol Inc 符号化方法、復号化方法、符号化器、及び復号化器
JP2003255973A (ja) * 2002-02-28 2003-09-10 Nec Corp 音声帯域拡張システムおよび方法
JP2003529787A (ja) * 1999-10-01 2003-10-07 コーディング テクノロジーズ スウェーデン アクチボラゲット 可変時間/周波数分解能および時間/周波数切り替えを使用する効率的なスペクトルエンベロープ符号化
JP2004350077A (ja) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd アナログオーディオ信号送信装置および受信装置並びにアナログオーディオ信号伝送方法
WO2005036527A1 (ja) * 2003-10-07 2005-04-21 Matsushita Electric Industrial Co., Ltd. スペクトル包絡線符号化のための時間境界及び周波数分解能の決定方法

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5956674A (en) * 1995-12-01 1999-09-21 Digital Theater Systems, Inc. Multi-channel predictive subband audio coder using psychoacoustic adaptive bit allocation in frequency, time and over the multiple channels
US5848164A (en) * 1996-04-30 1998-12-08 The Board Of Trustees Of The Leland Stanford Junior University System and method for effects processing on audio subband data
CN100395817C (zh) * 2001-11-14 2008-06-18 松下电器产业株式会社 编码设备、解码设备和解码方法
US7469206B2 (en) * 2001-11-29 2008-12-23 Coding Technologies Ab Methods for improving high frequency reconstruction
CN1288625C (zh) * 2002-01-30 2006-12-06 松下电器产业株式会社 音频编码与解码设备及其方法
US20030187663A1 (en) * 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
CN1328707C (zh) * 2002-07-19 2007-07-25 日本电气株式会社 音频解码设备以及解码方法
SE0301273D0 (sv) * 2003-04-30 2003-04-30 Coding Technologies Sweden Ab Advanced processing based on a complex-exponential-modulated filterbank and adaptive time signalling methods
DE10328777A1 (de) * 2003-06-25 2005-01-27 Coding Technologies Ab Vorrichtung und Verfahren zum Codieren eines Audiosignals und Vorrichtung und Verfahren zum Decodieren eines codierten Audiosignals
CN1914668B (zh) * 2004-01-28 2010-06-16 皇家飞利浦电子股份有限公司 用于信号时间标度的方法及设备
CN102280109B (zh) * 2004-05-19 2016-04-27 松下电器(美国)知识产权公司 编码装置、解码装置及它们的方法
JP2006126372A (ja) 2004-10-27 2006-05-18 Canon Inc オーディオ信号符号化装置、方法及びプログラム
SE0402652D0 (sv) * 2004-11-02 2004-11-02 Coding Tech Ab Methods for improved performance of prediction based multi- channel reconstruction
KR100803205B1 (ko) * 2005-07-15 2008-02-14 삼성전자주식회사 저비트율 오디오 신호 부호화/복호화 방법 및 장치
KR100717058B1 (ko) * 2005-11-28 2007-05-14 삼성전자주식회사 고주파 성분 복원 방법 및 그 장치
US7869994B2 (en) * 2007-01-30 2011-01-11 Qnx Software Systems Co. Transient noise removal system using wavelets

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001521648A (ja) * 1997-06-10 2001-11-06 コーディング テクノロジーズ スウェーデン アクチボラゲット スペクトル帯域複製を用いた原始コーディングの強化
JP2005173607A (ja) * 1997-06-10 2005-06-30 Coding Technologies Ab 時間的に離散した音声信号のアップサンプリングした信号を発生する方法と装置
JP2003529787A (ja) * 1999-10-01 2003-10-07 コーディング テクノロジーズ スウェーデン アクチボラゲット 可変時間/周波数分解能および時間/周波数切り替えを使用する効率的なスペクトルエンベロープ符号化
JP2002041097A (ja) * 2000-06-02 2002-02-08 Lucent Technol Inc 符号化方法、復号化方法、符号化器、及び復号化器
JP2003255973A (ja) * 2002-02-28 2003-09-10 Nec Corp 音声帯域拡張システムおよび方法
JP2004350077A (ja) * 2003-05-23 2004-12-09 Matsushita Electric Ind Co Ltd アナログオーディオ信号送信装置および受信装置並びにアナログオーディオ信号伝送方法
WO2005036527A1 (ja) * 2003-10-07 2005-04-21 Matsushita Electric Industrial Co., Ltd. スペクトル包絡線符号化のための時間境界及び周波数分解能の決定方法

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10109296B2 (en) 2010-01-19 2018-10-23 Dolby International Ab Subband block based harmonic transposition
US9741362B2 (en) 2010-01-19 2017-08-22 Dolby International Ab Subband block based harmonic transposition
US11341984B2 (en) 2010-01-19 2022-05-24 Dolby International Ab Subband block based harmonic transposition
US11646047B2 (en) 2010-01-19 2023-05-09 Dolby International Ab Subband block based harmonic transposition
US11935555B2 (en) 2010-01-19 2024-03-19 Dolby International Ab Subband block based harmonic transposition
US9431025B2 (en) 2010-01-19 2016-08-30 Dolby International Ab Subband block based harmonic transposition
JP2014002393A (ja) * 2010-01-19 2014-01-09 Dolby International Ab サブバンドブロックに基づく高調波移調の改善
US9858945B2 (en) 2010-01-19 2018-01-02 Dolby International Ab Subband block based harmonic transposition
US10699728B2 (en) 2010-01-19 2020-06-30 Dolby International Ab Subband block based harmonic transposition
JP2016048391A (ja) * 2010-04-13 2016-04-07 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP7177185B2 (ja) 2011-05-25 2022-11-22 ▲ホア▼▲ウェイ▼技術有限公司 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
JP2017191341A (ja) * 2011-05-25 2017-10-19 ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
JP2021060618A (ja) * 2011-05-25 2021-04-15 ▲ホア▼▲ウェイ▼技術有限公司Huawei Technologies Co.,Ltd. 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
JP2016027411A (ja) * 2011-05-25 2016-02-18 ▲ホア▼▲ウェイ▼技術有限公司 信号分類方法および信号分類デバイス、ならびに符号化/復号化方法および符号化/復号化デバイス
US9406311B2 (en) 2011-08-30 2016-08-02 Fujitsu Limited Encoding method, encoding apparatus, and computer readable recording medium
JP2013050543A (ja) * 2011-08-30 2013-03-14 Fujitsu Ltd 符号化方法、符号化装置および符号化プログラム
JP2022521188A (ja) * 2019-02-21 2022-04-06 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Mdct係数からのスペクトル形状予測
JP7335968B2 (ja) 2019-02-21 2023-08-30 テレフオンアクチーボラゲット エルエム エリクソン(パブル) Mdct係数からのスペクトル形状予測
US11862180B2 (en) 2019-02-21 2024-01-02 Telefonaktiebolaget Lm Ericsson (Publ) Spectral shape estimation from MDCT coefficients

Also Published As

Publication number Publication date
CN101188111B (zh) 2012-02-22
CN101188111A (zh) 2008-05-28
EP1926086B1 (en) 2013-09-04
EP1926086A3 (en) 2011-09-21
EP1926086A2 (en) 2008-05-28
JP5103880B2 (ja) 2012-12-19
US8249882B2 (en) 2012-08-21
US20080288262A1 (en) 2008-11-20

Similar Documents

Publication Publication Date Title
JP5103880B2 (ja) 復号化装置および復号化方法
AU2024203054B2 (en) Audio encoder and decoder
JP4967618B2 (ja) 復号化装置および復号化方法
EP2693430B1 (en) Encoding apparatus and method, and program
AU2012297804B2 (en) Encoding device and method, decoding device and method, and program
CN105408956B (zh) 用于获取音频信号的替换帧的频谱系数的方法及相关产品
KR101427863B1 (ko) 오디오 신호 코딩 방법 및 장치
JPWO2006075563A1 (ja) オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム
JP2006508384A (ja) 音声信号符号化
JP5098530B2 (ja) 復号化装置、復号化方法および復号化プログラム
JP5302190B2 (ja) オーディオ復号装置、オーディオ復号方法、プログラム及び集積回路
US20130156112A1 (en) Decoding device, encoding device, decoding method, and encoding method
US10896684B2 (en) Audio encoding apparatus and audio encoding method
JP2004325633A (ja) 信号符号化方法、信号符号化プログラム及びその記録媒体
JP6904209B2 (ja) オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム
JP2007304258A (ja) オーディオ信号符号化およびその復号化装置、方法ならびにプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20090810

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20110526

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110607

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110808

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20120306

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120606

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20120614

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120904

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120917

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151012

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees