JP2012145895A - 信号処理装置および方法、並びにプログラム - Google Patents

信号処理装置および方法、並びにプログラム Download PDF

Info

Publication number
JP2012145895A
JP2012145895A JP2011006233A JP2011006233A JP2012145895A JP 2012145895 A JP2012145895 A JP 2012145895A JP 2011006233 A JP2011006233 A JP 2011006233A JP 2011006233 A JP2011006233 A JP 2011006233A JP 2012145895 A JP2012145895 A JP 2012145895A
Authority
JP
Japan
Prior art keywords
sine wave
signal
information
envelope
high frequency
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011006233A
Other languages
English (en)
Other versions
JP2012145895A5 (ja
JP5743137B2 (ja
Inventor
Mitsuyuki Hatanaka
光行 畠中
Toru Chinen
徹 知念
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2011006233A priority Critical patent/JP5743137B2/ja
Priority to TW100142973A priority patent/TWI498885B/zh
Priority to AU2012206122A priority patent/AU2012206122B2/en
Priority to KR1020197022968A priority patent/KR102048672B1/ko
Priority to KR1020197011892A priority patent/KR102010220B1/ko
Priority to PCT/JP2012/050173 priority patent/WO2012096230A1/ja
Priority to EP12734067.7A priority patent/EP2665061B1/en
Priority to CA2820195A priority patent/CA2820195C/en
Priority to US13/978,175 priority patent/US20130275142A1/en
Priority to KR1020137017522A priority patent/KR101975066B1/ko
Priority to MX2013007895A priority patent/MX345045B/es
Priority to EP21158857.9A priority patent/EP3849087A1/en
Priority to CN201280004776.XA priority patent/CN103314407B/zh
Priority to BR112013017427-7A priority patent/BR112013017427B1/pt
Priority to RU2013130742/08A priority patent/RU2604338C2/ru
Publication of JP2012145895A publication Critical patent/JP2012145895A/ja
Publication of JP2012145895A5 publication Critical patent/JP2012145895A5/ja
Application granted granted Critical
Publication of JP5743137B2 publication Critical patent/JP5743137B2/ja
Priority to US15/424,741 priority patent/US10431229B2/en
Priority to US16/526,215 priority patent/US10643630B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/04Time compression or expansion
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • G10L19/0208Subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/093Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters using sinusoidal excitation models
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • HELECTRICITY
    • H03ELECTRONIC CIRCUITRY
    • H03MCODING; DECODING; CODE CONVERSION IN GENERAL
    • H03M7/00Conversion of a code where information is represented by a given sequence or number of digits to a code where the same, similar or subset of information is represented by a different sequence or number of digits
    • H03M7/30Compression; Expansion; Suppression of unnecessary data, e.g. redundancy reduction
    • H03M7/40Conversion to or from variable length codes, e.g. Shannon-Fano code, Huffman code, Morse code

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Computational Linguistics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Theoretical Computer Science (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Signal Processing For Digital Recording And Reproducing (AREA)
  • Electrophonic Musical Instruments (AREA)
  • Stereophonic System (AREA)
  • Soundproofing, Sound Blocking, And Sound Damping (AREA)

Abstract

【課題】音声信号を復号する場合に、より高音質な音声が得られるようにする。
【解決手段】包絡情報生成部24は、符号化対象の音声信号の高域成分の包絡形状を示す包絡情報を生成する。正弦波情報生成部26は、音声信号の高域成分から正弦波信号を検出し、正弦波信号の出現開始位置を示す正弦波情報を生成する。符号化ストリーム生成部27は、包絡情報、正弦波情報、および符号化された音声信号の低域成分を多重化して、その結果得られた符号化ストリームを出力する。これにより、符号化ストリームの受信側においては、包絡情報と正弦波情報から、正弦波信号が含まれる高域成分をより高精度に予測することができる。本発明は、信号処理装置に適用することができる。
【選択図】図1

Description

本発明は信号処理装置および方法、並びにプログラムに関し、特に、符号化された音声信号を復号する場合に、より高音質な音声が得られるようにした信号処理装置および方法、並びにプログラムに関する。
従来、音声信号の符号化手法として、HE-AAC(High Efficiency MPEG(Moving Picture Experts Group)4 AAC(Advanced Audio Coding))(国際標準規格ISO/IEC14496-3)等が知られている。このような符号化手法では、SBR(Spectral Band Replication)と呼ばれる高域特徴符号化技術が用いられている(例えば、特許文献1参照)。
SBRでは、音声信号の符号化時に、符号化された音声信号の低域成分(以下、低域信号と称する)とともに、音声信号の高域成分(以下、高域信号と称する)を生成するためのSBR情報が出力される。復号装置では、符号化された低域信号を復号するとともに、復号により得られた低域信号とSBR情報とを用いて高域信号を生成し、低域信号と高域信号からなる音声信号を得る。
このようなSBR情報には、主に高域成分の包絡形状を示す包絡情報と、復号装置において高域成分を生成するために付加されるノイズ信号を得るためのノイズ包絡情報とが含まれている。
ここでノイズ包絡情報には、高域成分に含まれるノイズ信号の各SBRフレームを2つの区間に分割する境界位置(以下、ノイズ境界位置と称する)を示す情報と、各区間におけるノイズ信号のゲインを示す情報とが含まれる。したがって、復号装置では、ノイズ包絡情報に基づいて、予め定められたノイズ信号に対して、ノイズ境界位置で区切られる各区間のゲイン調整が行なわれ、最終的なノイズ信号とされる。なお、SBRでは、ノイズ信号のSBRフレームを2つの区間に分割せずに、SBRフレーム全体に対してゲインを設定することも可能となっている。
復号装置は、音声信号の復号時において、低域信号および包絡情報から得られる擬似的な高域信号と、ノイズ包絡情報から得られるノイズ信号とを合成することで高域成分を生成し、得られた高域成分と低域信号とから音声信号を生成する。
ところでSBRでは、トーン性の高い音声信号に対しては、さらに正弦波合成を用いた符号化が行われている。すなわち、復号側での高域成分の生成時において、擬似的な高域信号に対して、ノイズ信号だけでなく、特定周波数の正弦波信号も加算される。このような場合、擬似的な高域信号、ノイズ信号、および正弦波信号を合成して得られる信号が、予測により得られた高域信号とされることになる。
高域成分の予測に正弦波信号を用いる場合、SBR情報には、SBRフレームにおける正弦波信号の有無を示す正弦波情報も含まれることになる。具体的には、復号時における正弦波信号の合成開始位置は、SBRフレームの開始位置、またはノイズ境界位置とされ、ノイズ境界位置により分割されるSBRフレームの各区間について、それらの区間における正弦波信号の合成の有無を示す2値情報が、正弦波情報とされる。
このようにして擬似的な高域信号に付加されるノイズ信号や正弦波信号は、原音声信号の高域成分のうち、包絡情報からは再現することが困難である成分である。したがって、擬似的な高域信号の適切な位置にノイズ信号や正弦波信号を合成することで、精度よく高域成分を予測できるようになり、予測により得られた高域成分を用いて帯域拡張を行なえば、より高音質な音声を再生することができる。
特表2001−521648号公報
ところが、高域成分の予測に正弦波信号を用いる場合、正弦波信号の合成開始位置は、SBRフレームの開始位置、またはノイズ境界位置とされることから、原音声信号における正弦波成分の出現開始位置に対してずれが生じてしまうことがある。そうすると、高域成分を精度よく再現できなくなり、復号により得られた音声信号に聴感上の劣化が生じてしまうことになる。
特に、SBRでは、符号化対象となる音声信号のサンプリングレートによらずフレーム長が一定であるので、サンプリングレートが低い場合には、1フレーム当たりの絶対時間長が長くなる。そのため、原音声信号における正弦波成分の出現開始位置と、復号時に合成される正弦波信号の合成開始位置との絶対時間のずれ量(差分)が大きくなり、そのずれの区間で発生した量子化雑音が目立ち易くなってしまう。
本技術は、このような状況に鑑みてなされたものであり、音声信号を復号する場合に、より高音質な音声が得られるようにするものである。
本発明の第1の側面の信号処理装置は、音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報を抽出する抽出部と、前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号を生成する擬似高域生成部と、前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号を生成する正弦波生成部と、前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成する合成部とを備える。
前記正弦波情報には、前記高域成分のフレームの開始位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれるようにすることができる。
信号処理装置には、ノイズ包絡情報により示されるノイズ境界位置で分割された各区間について、所定の信号の前記区間を、前記ノイズ包絡情報により示される前記区間のゲインを示す情報に基づいてゲイン調整することで、前記高域成分を構成するノイズ信号を生成するノイズ生成部をさらに設け、前記抽出部には、前記ノイズ包絡情報をさらに抽出させ、前記正弦波情報には、前記ノイズ境界位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれており、前記合成部には、前記低域信号、前記擬似高域信号、前記正弦波信号、および前記ノイズ信号を合成して音声信号を生成させることができる。
前記正弦波情報には、前記高域成分の包絡のピーク位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれるようにすることができる。
前記正弦波情報を、フレームごとに抽出させ、前記正弦波生成部には、前記高域成分のフレームごとに、前記正弦波信号を生成させることができる。
前記正弦波情報を、前記高域成分を構成する帯域ごとに抽出させ、前記正弦波生成部には、前記帯域ごとに、前記正弦波信号を生成させることができる。
本発明の第1の側面の信号処理方法またはプログラムは、音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報を抽出し、前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号を生成し、前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号を生成し、前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成するステップを含む。
本発明の第1の側面においては、音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報が抽出され、前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号が生成され、前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号が生成され、前記低域信号、前記擬似高域信号、および前記正弦波信号が合成されて音声信号が生成される。
本発明の第2の側面の信号処理装置は、音声信号の高域成分である高域信号の包絡を示す包絡情報を生成する包絡情報生成部と、前記高域信号に含まれる正弦波信号を検出し、前記正弦波信号の周波数および出現位置を特定するための正弦波情報を生成する正弦波情報生成部と、前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力する出力部とを備える。
前記正弦波情報には、前記高域成分のフレームの開始位置から、前記正弦波信号の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれるようにすることができる。
信号処理装置には、前記高域信号に含まれるノイズ信号を検出し、前記ノイズ信号をいくつかの区間に分割するノイズ境界位置を示す情報と、前記区間における前記ノイズ信号のゲインを示す情報とからなるノイズ包絡情報を生成するノイズ包絡情報生成部をさらに設け、前記正弦波情報には、前記ノイズ境界位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれるようにし、前記出力部には、前記低域信号、前記包絡情報、前記正弦波情報、および前記ノイズ包絡情報からなるデータを生成させて出力させることができる。
前記正弦波情報には、前記高域成分の包絡のピーク位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれるようにすることができる。
前記正弦波情報は、フレームごとに生成されるようにすることができる。
前記正弦波情報は、前記高域成分を構成する帯域ごとに生成されるようにすることができる。
本発明の第2の側面の信号処理方法またはプログラムは、音声信号の高域成分である高域信号の包絡を示す包絡情報を生成し、前記高域信号に含まれる正弦波信号を検出し、前記正弦波信号の周波数および出現位置を特定するための正弦波情報を生成し、前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力するステップを含む。
本発明の第2の側面においては、音声信号の高域成分である高域信号の包絡を示す包絡情報が生成され、前記高域信号に含まれる正弦波信号が検出され、前記正弦波信号の周波数および出現位置を特定するための正弦波情報が生成され、前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータが生成されて出力される。
本技術の第1の側面および第2の側面によれば、音声信号を復号する場合に、より高音質な音声を得ることができる。
符号化装置の一実施の形態の構成例を示す図である。 符号化処理を説明するフローチャートである。 正弦波信号の合成開始位置について説明する図である。 正弦波信号の合成開始位置について説明する図である。 復号装置の一実施の形態の構成例を示す図である。 復号処理を説明するフローチャートである。 正弦波信号生成処理を説明するフローチャートである。 符号化装置の他の構成例を示す図である。 符号化処理を説明するフローチャートである。 正弦波信号の合成開始位置について説明する図である。 復号装置の他の構成例を示す図である。 復号処理を説明するフローチャートである。 正弦波信号生成処理を説明するフローチャートである。 符号化装置の他の構成例を示す図である。 符号化処理を説明するフローチャートである。 正弦波信号の合成開始位置について説明する図である。 復号装置の他の構成例を示す図である。 復号処理を説明するフローチャートである。 正弦波信号生成処理を説明するフローチャートである。 符号化装置の他の構成例を示す図である。 符号化処理を説明するフローチャートである。 復号装置の他の構成例を示す図である。 復号処理を説明するフローチャートである。 正弦波信号生成処理を説明するフローチャートである。 コンピュータの構成例を示す図である。
以下、図面を参照して、本技術を適用した実施の形態について説明する。
〈第1の実施の形態〉
[符号化装置の構成例]
図1は、本技術を適用した符号化装置の一実施の形態の構成例を示す図である。
符号化装置11は、ダウンサンプラ21、低域符号化部22、帯域分割フィルタ23、包絡情報生成部24、ノイズ包絡情報生成部25、正弦波情報生成部26、および符号化ストリーム生成部27から構成される。符号化装置11は、入力された音声信号を符号化して出力するものであり、符号化装置11に入力された音声信号は、ダウンサンプラ21および帯域分割フィルタ23に供給される。
ダウンサンプラ21は、入力された音声信号をダウンサンプリングすることで、音声信号の低域成分である低域信号を抽出し、低域符号化部22およびノイズ包絡情報生成部25に供給する。なお、以下、音声信号の特定の周波数以下の周波数帯域成分を低域成分と称し、音声信号の低域成分よりも高い周波数帯域の成分を高域成分と称することとする。
低域符号化部22は、ダウンサンプラ21から供給された低域信号を符号化し、符号化ストリーム生成部27に供給する。
帯域分割フィルタ23は、入力された音声信号に対してフィルタ処理を施して、音声信号の帯域分割を行なう。この帯域分割により、音声信号は複数の帯域成分の信号に分割される。なお、以下、帯域分割により得られた各帯域の信号のうち、高域成分を構成する帯域の信号を高域信号と称することとする。帯域分割フィルタ23は、帯域分割により得られた高域側の各帯域の高域信号を、包絡情報生成部24、ノイズ包絡情報生成部25、および正弦波情報生成部26に供給する。
包絡情報生成部24は、帯域分割フィルタ23から供給された高域信号に基づいて、高域側の帯域ごとに、その帯域の高域信号の包絡(エンベロープ)形状を示す包絡情報を生成し、ノイズ包絡情報生成部25に供給する。また、包絡情報生成部24は、符号化部41を備えており、符号化部41は、包絡情報生成部24により生成された包絡情報を符号化して、符号化ストリーム生成部27に供給する。
ノイズ包絡情報生成部25は、帯域分割フィルタ23からの高域信号と、包絡情報生成部24からの包絡情報とに基づいて、必要に応じて正弦波情報生成部26と情報を授受しながら、ノイズ包絡情報を生成する。
ここでノイズ包絡情報とは、音声信号の高域成分に含まれるノイズ信号を分割する境界位置(ノイズ境界位置)を示す情報と、ノイズ境界位置で分割される各区間におけるノイズ信号のゲインを示す情報とからなる情報である。なお、ノイズ信号は、予め定められた信号であるものとする。
また、ノイズ包絡情報生成部25は、信号生成部51、境界算出部52、および符号化部53を備えている。信号生成部51は、ノイズ包絡情報の生成時において、ダウンサンプラ21からの低域信号と、包絡情報生成部24からの包絡情報とに基づいて、音声信号の高域側の各帯域成分を予測する。
境界算出部52は、ノイズ包絡情報の生成時において、高域側の各帯域成分の予測結果である擬似高域信号と高域信号から得られるノイズ信号の包絡に基づいて、ノイズ信号を複数区間に分割するためのノイズ境界位置を決定する。符号化部53は、ノイズ包絡情報生成部25により生成されたノイズ包絡情報を符号化し、符号化ストリーム生成部27に供給する。
正弦波情報生成部26は、必要に応じてノイズ包絡情報生成部25と情報を授受しながら、帯域分割フィルタ23から供給された高域信号に基づいて、高域側の帯域ごとに、その帯域に含まれる正弦波信号を得るための正弦波情報を生成する。
ここで正弦波情報とは、音声信号の高域成分に含まれる正弦波信号の有無を示す情報、およびその正弦波信号の出現開始位置を特定するための情報からなる情報である。換言すれば、正弦波情報は、音声信号の復号時に、擬似的な高域成分に合成される正弦波信号の有無を示す情報、および正弦波信号の合成開始位置を示す情報からなる情報であるということができる。
また、正弦波情報生成部26は、正弦波検出部61、位置検出部62、および符号化部63を備えている。正弦波検出部61は、正弦波情報の生成時において、高域信号から正弦波成分の有無を検出する。
位置検出部62は、正弦波情報の生成時において、帯域分割フィルタ23からの高域信号に基づいて、正弦波信号の合成を開始すべき合成開始位置、すなわち正弦波信号の出現開始位置を検出する。符号化部63は、正弦波情報生成部26により生成された正弦波情報を符号化し、符号化ストリーム生成部27に供給する。
符号化ストリーム生成部27は、低域符号化部22からの低域信号、包絡情報生成部24からの包絡情報、ノイズ包絡情報生成部25からのノイズ包絡情報、および正弦波情報生成部26からの正弦波情報を符号化し、符号化により得られた符号化ストリームを出力する。すなわち、低域信号、包絡情報、ノイズ包絡情報、および正弦波情報が多重化されて符号化ストリームとされる。
[符号化処理の説明]
次に、符号化装置11の動作について説明する。
符号化装置11に音声信号が入力されて、音声信号の符号化が指示されると、符号化装置11は符号化処理を行って、音声信号の符号化を行い、その結果得られた符号化ストリームを出力する。以下、図2のフローチャートを参照して、符号化装置11による符号化処理について説明する。
ステップS11において、ダウンサンプラ21は、入力された音声信号をダウンサンプリングして低域信号を生成し、ノイズ包絡情報生成部25および低域符号化部22に供給する。
ステップS12において、低域符号化部22は、ダウンサンプラ21から供給された低域信号を符号化し、符号化ストリーム生成部27に供給する。例えば、低域信号は、MPEG4 AAC、MPEG2 AAC、CELP(Code Excited Linear Prediction)、TCX(Transform Coded Excitation)、AMR(Adaptive Multi-Rate)などの符号化方式で符号化される。
ステップS13において、帯域分割フィルタ23は、入力された音声信号を帯域分割し、その結果得られた高域成分を包絡情報生成部24乃至正弦波情報生成部26に供給する。例えば、高域成分として、64個の帯域のそれぞれの高域信号が得られる。
ステップS14において、包絡情報生成部24は、帯域分割フィルタ23から供給された各帯域の高域信号に基づいて、帯域ごとに包絡情報を生成する。例えば、包絡情報生成部24は、高域信号の32サンプルからなる区間を1フレームとして、フレームごとに各帯域の包絡情報を生成する。
具体的には、包絡情報生成部24は、1フレームにおける高域信号の時間方向に隣接する2つのサンプルのサンプル値の平均値を求め、それらの平均値を新たな高域信号のサンプル値とする。これにより、1フレーム分の高域信号は、32サンプルから16サンプルの信号に変換されることになる。
次に、包絡情報生成部24は、16サンプルとされた高域信号に対して差分符号化を行い、その結果得られた情報を包絡情報とする。例えば、差分符号化では、処理対象の高域信号の時間方向に隣接する2つのサンプルのサンプル値の差分が求められて、それらの差分が包絡情報とされる。また、例えば、処理対象の帯域の高域信号のサンプルのサンプル値と、その帯域に隣接する帯域の高域信号の同じ位置にあるサンプルのサンプル値との差分が包絡情報とされるようにしてもよい。
このようにして得られた包絡情報は、高域信号の1フレーム分の包絡の形状を示す情報である。符号化部41は、生成された包絡情報に対して、ハフマン符号化等の可変長符号化を行い、符号化された包絡情報を符号化ストリーム生成部27に供給する。また、包絡情報生成部24は、包絡情報をノイズ包絡情報生成部25に供給する。
なお、以下においては、高域信号は、32サンプルから構成される1フレームを単位として処理されるものとして説明を続ける。また、以下においては、高域信号(音声信号)の2つのサンプルから構成される区間を1タイムスロットと呼ぶこととする。
ステップS15において、ノイズ包絡情報生成部25の信号生成部51は、包絡情報生成部24から供給された包絡情報と、ダウンサンプラ21から供給された低域信号とに基づいて、高域側の帯域ごとに擬似高域信号を生成する。
例えば、信号生成部51は低域信号の所定の帯域の1フレーム分の区間を抽出し、抽出した低域信号を、包絡情報により示される包絡の形状に加工する。すなわち、低域信号のサンプルのサンプル値が、包絡情報により示される包絡における、そのサンプルに対応する位置のゲインとなるように増減され、その結果得られた信号が擬似高域信号とされる。
このようにして得られた擬似高域信号は、包絡情報により示される実際の高域信号の包絡とほぼ同じ包絡形状を有する信号である。つまり、低域信号と包絡情報とから生成された、擬似的な高域信号である。
ステップS16において、ノイズ包絡情報生成部25は、高域側の帯域ごとに、高域信号と擬似高域信号との差分を算出し、ノイズ信号の包絡(以下、ノイズ包絡とも称する)を求める。
なお、より詳細には、ステップS16において求められるノイズ包絡は、仮のノイズ包絡である。符号化装置11から出力される符号化ストリームの受信側では、音声信号の復号時において、音声信号の高域成分が予測されるが、その予測は擬似高域信号、ノイズ信号、および正弦波信号を合成することにより行なわれる。
つまり、実際の音声信号の高域成分には、擬似高域信号、ノイズ信号、および正弦波信号が含まれているものと仮定される。ここで、ステップS16では、高域信号と擬似高域信号との差分が求められるため、その差分は、ノイズ信号と正弦波信号を合成したものであるはずである。そこで、このようにして得られた差分は、正弦波信号が含まれているノイズ信号の包絡であるとされる。
ノイズ包絡情報生成部25は、以上のようにして得られた高域側の各帯域の仮のノイズ包絡を正弦波情報生成部26に供給する。
ステップS17において、正弦波情報生成部26の正弦波検出部61は、ノイズ包絡情報生成部25から供給された仮のノイズ包絡に基づいて、帯域ごとに、高域信号から正弦波成分を検出する。
例えば、正弦波検出部61は、仮のノイズ包絡に対して周波数変換を施して、ノイズ包絡を周波数成分に変換する。そして、正弦波検出部61は、得られた周波数成分のなかに、突出してパワーの大きい周波数がある場合、その周波数の成分が正弦波成分であるとする。具体的には、注目する周波数のパワーと、その周囲の他の周波数のパワーとの差分のそれぞれが所定の閾値以上である場合、注目している周波数が正弦波成分とされる。このようにして検出された周波数の正弦波の信号が、実際の高域成分に含まれる正弦波信号であるとされる。
ステップS18において、正弦波情報生成部26の位置検出部62は、帯域分割フィルタ23から供給された高域信号に基づいて、帯域ごとに、検出された正弦波成分である正弦波信号を合成すべき合成開始位置を検出する。
例えば、位置検出部62は、タイムスロットを単位として、高域信号の1タイムスロットに含まれるサンプルのサンプル値の平均値と、検出された正弦波信号の1タイムスロットに含まれるサンプルのサンプル値の平均値との差分を求める。そして、位置検出部62は、1フレームの区間の先頭のからみて、求めた差分の値が所定の閾値以上となる最後の位置(タイムスロットの開始位置または終了位置のサンプル)を、合成開始位置とする。これは、合成開始位置は、実際の高域信号に含まれる正弦波信号の出現開始位置であり、合成開始位置以降の時刻では、高域信号と正弦波信号との平均的なサンプル値の差分が小さくなるはずだからである。
また、正弦波情報生成部26は、高域側の帯域ごとに、その帯域から正弦波信号が検出されたか否かを示す情報、検出された正弦波信号の周波数およびパワーを示す情報、並びに合成開始位置を、ノイズ包絡情報生成部25に供給する。
ステップS19において、正弦波情報生成部26は、高域側の帯域ごとに正弦波情報を生成し、符号化ストリーム生成部27に供給する。
例えば、正弦波情報生成部26は、高域の帯域から正弦波信号が検出されたか否かを示す情報と合成開始位置とからなる情報を正弦波情報とする。また、正弦波情報の生成時において、正弦波情報生成部26の符号化部63は、合成開始位置を示す情報を可変長符号化する。
ここで、正弦波信号が検出されたか否かを示す情報は、より詳細には、高域の帯域のどの周波数の正弦波成分が検出されたかを示す情報とされる。例えば、高域の帯域から、複数の正弦波信号が検出された場合には、それらの正弦波信号の周波数を特定するための情報が、正弦波信号が検出されたか否かを示す情報とされる。また、高域の帯域から複数の正弦波信号が検出された場合には、それらの正弦波信号ごとに、合成開始位置を示す情報が生成されることになる。
また、高域の帯域から正弦波成分が検出されなかった場合には、正弦波信号が検出されたか否かを示す情報のみからなる正弦波情報が復号側に送信されることになる。つまり、合成開始位置を示す情報が含まれない正弦波情報が送信されることになる。
なお、符号化装置11は、フレームごとに正弦波情報を復号側に伝送するか否かを選択することができる。このように、正弦波情報の送信の要否を選択可能とすることで、符号化ストリームの伝送効率を向上させると同時に、正弦波合成の時間情報のリセットを行なうことができる。これにより、符号化ストリームの復号側において、ストリームの途中の任意のフレームから復号処理を開始する場合において、合成開始位置を示す情報が含まれているフレームから正弦波合成を開始することができる。
さらに例えば図3に示すように、従来、復号側での合成開始位置は、フレームの開始位置、またはノイズ境界位置の何れかとされていた。なお、図中、横方向は時間方向を示している。また、図3において矢印FS1および矢印FE1は、それぞれフレームの開始位置および終了位置を示している。
図3の例では、矢印N1により示される位置がノイズ境界位置となっており、正弦波信号の合成開始位置もノイズ境界位置と同じ位置とされている。したがって、矢印N1により示される位置から、フレームの終了位置までの区間に、正弦波信号が合成されることになる。
ところが、例えば実際に高域成分に含まれる正弦波信号が出現する位置が、矢印N1により示されるノイズ境界位置よりも後の位置にある場合、復号側では、ノイズ境界位置から、実際の正弦波信号の出現開始位置までの間に、不要な正弦波成分が付加されてしまうことになる。そうすると、復号により得られた音声信号に聴感上の違和感が生じ、高音質な音声を得ることができなくなってしまう。
これに対して、符号化装置11では、図4に示すように、復号側に出力される合成開始位置は、ノイズ境界位置と同じになるとは限らない。なお、図中、横方向は時間方向を示している。また、図4において矢印FS2および矢印FE2は、それぞれフレームの開始位置および終了位置を示している。
図4の例では、矢印N2により示される位置がノイズ境界位置となっている。また、正弦波信号の合成開始位置は、矢印G1により示される位置となっており、合成開始位置はノイズ境界位置よりも前に位置している。この例では、矢印G1により示される合成開始位置からフレームの終了位置までの区間に、正弦波信号が合成されることになる。
またこの場合、矢印FS2により示されるフレームの開始位置から、矢印G1により示される合成開始位置までの時間の長さ(時間距離)を示す情報が、合成開始位置を示す情報とされる。ここで、フレーム先頭から合成開始位置までの時間は、タイムスロット長の整数倍の時間となる。
このように、ノイズ境界位置とは独立に合成開始位置を指定することによって、音声信号の復号時に、不要な信号が合成されてしまうことを防止することができ、より高音質な音声を得ることができるようになる。
なお、以上においては、正弦波情報として、高域側の帯域ごとに合成開始位置を示す情報を生成すると説明したが、それらの帯域の合成開始位置の代表値が、高域を構成する各帯域に対して共通して用いられる正弦波情報とされるようにしてもよい。そのような場合、例えば、高域を構成する複数の帯域のうち、最も正弦波信号のパワーが大きい帯域の合成開始位置を示す情報が、正弦波情報とされる。
また、以上においては、合成開始位置を示す情報が可変長符号化されて正弦波情報とされると説明したが、合成開始位置を示す情報が符号化されないようにしてもよい。
図2のフローチャートの説明に戻り、ステップS19で正弦波情報が生成されると、その後、処理はステップS20へと進む。
ステップS20において、ノイズ包絡情報生成部25の境界算出部52は、高域側の帯域ごとにノイズ境界位置を検出する。
例えば、境界算出部52は、正弦波情報生成部26から供給された、正弦波信号が検出されたか否かを示す情報、正弦波信号の周波数およびパワーを示す情報、並びに合成開始位置に基づいて、高域を構成する帯域のフレームに含まれる正弦波信号を生成する。例えば、正弦波信号が検出された場合、フレームの先頭から合成開始位置までの区間は無音区間とされ、それ以降の区間は、検出された周波数の所定振幅の正弦波成分からなる区間とされる。このとき、正弦波信号の振幅は、正弦波情報生成部26から供給された、正弦波信号のパワーを示す情報から定められる。また、正弦波信号が検出されなかった場合には、正弦波信号の振幅は0とされる。
次に、境界算出部52は、このようにして求めた正弦波信号を、ステップS16で求めた仮のノイズ包絡から減算して、最終的なノイズ包絡を求める。そして、境界算出部52は、最終的なノイズ包絡のゲインの分布に応じてノイズ境界位置を定める。
すなわち、境界算出部52は、最終的なノイズ包絡のゲインの分布に基づいて、必要に応じてフレームを2つの区間に分割する。具体的には、処理対象の帯域のフレーム全体において、ノイズ包絡のゲインがほぼ同じ値となっている場合には、フレームの分割は行なわれない。つまり、ノイズ境界位置はないとされる。
また、フレームにおける所定の位置で、その位置より前の区間と後の区間とで、ノイズ包絡のゲイン分布が大きく異なる場合には、その位置がノイズ境界位置とされる。なお、ノイズ境界位置は、タイムスロットの境界位置とされる。
ステップS21において、ノイズ包絡情報生成部25は、高域側の帯域ごとにノイズ包絡情報を生成し、符号化ストリーム生成部27に供給する。
例えば、ノイズ包絡情報生成部25は、ノイズ境界位置と、そのノイズ境界位置により分割されるフレーム内の各区間におけるノイズ信号のゲインとからなる情報を、ノイズ包絡情報とする。このとき、符号化部53は、ノイズ境界位置を示す情報の符号化、および分割された各区間のゲインを示す情報の可変長符号化を行なう。
ここで、分割された各区間のゲインは、例えばそれらの区間におけるノイズ包絡のゲインの平均値などとされる。すなわち、例えば処理対象のフレームが、ノイズ境界位置により2つの区間に分割されたとする。この場合、フレーム先頭からノイズ境界位置までの区間のゲインは、その区間における最終的なノイズ包絡の各位置におけるゲインの平均値とされる。
ステップS22において、符号化ストリーム生成部27は、低域符号化部22からの低域信号、包絡情報生成部24からの包絡情報、ノイズ包絡情報生成部25からのノイズ包絡情報、および正弦波情報生成部26からの正弦波情報を符号化し、符号化ストリームを生成する。そして、符号化ストリーム生成部27は、符号化により得られた符号化ストリームを復号装置等に送信し、符号化処理は終了する。
以上のようにして、符号化装置11は、低域信号、包絡情報、ノイズ包絡情報、および正弦波情報からなる符号化ストリームを生成して出力する。このとき、より正確な正弦波信号の合成開始位置を検出して、その合成開始位置を含む正弦波情報を生成することで、音声信号の復号側において、より正確に正弦波信号の合成を行なうことができるようになり、より高音質な音声を得ることができるようになる。
なお、以上においては、ダウンサンプラ21により生成された低域信号がノイズ包絡情報生成部25に供給されると説明したが、ノイズ包絡情報生成部25に供給される低域信号は、帯域分割フィルタ23による帯域分割で得られる低域信号であってもよい。また、低域符号化部22で符号化された低域信号を復号して得られたものが、ノイズ包絡情報生成部25に供給されるようにしてもよい。
[復号装置の構成例]
次に、図1の符号化装置11から出力された符号化ストリームを受信して、符号化ストリームから音声信号を得る復号装置について説明する。そのような復号装置は、例えば図5に示すように構成される。
図5の復号装置91は、符号化ストリーム復号部101、低域復号部102、包絡情報復号部103、ノイズ包絡情報復号部104、正弦波情報復号部105、および帯域合成フィルタ106から構成される。
符号化ストリーム復号部101は、符号化装置11から送信されてきた符号化ストリームを受信して復号する。すなわち、符号化ストリーム復号部101は、符号化ストリームを非多重化し、これにより得られた低域信号、包絡情報、ノイズ包絡情報、および正弦波情報を、低域復号部102、包絡情報復号部103、ノイズ包絡情報復号部104、および正弦波情報復号部105に供給する。
低域復号部102は、符号化ストリーム復号部101から供給された低域信号を復号して、包絡情報復号部103および帯域合成フィルタ106に供給する。
包絡情報復号部103は、符号化ストリーム復号部101から供給された包絡情報を復号するとともに、復号された包絡情報を正弦波情報復号部105に供給する。また、包絡情報復号部103は生成部121を備えており、生成部121は、包絡情報と、低域復号部102からの低域信号とに基づいて擬似高域信号を生成し、帯域合成フィルタ106に供給する。
ノイズ包絡情報復号部104は、符号化ストリーム復号部101から供給されたノイズ包絡情報を復号する。また、ノイズ包絡情報復号部104は生成部131を備えており、生成部131は、ノイズ包絡情報に基づいてノイズ信号を生成し、帯域合成フィルタ106に供給する。
正弦波情報復号部105は、符号化ストリーム復号部101から供給された正弦波情報を復号する。また、正弦波情報復号部105は生成部141を備えており、生成部141は、包絡情報復号部103からの包絡情報と正弦波情報に基づいて正弦波信号を生成し、帯域合成フィルタ106に供給する。
帯域合成フィルタ106は、低域復号部102からの低域信号、包絡情報復号部103からの擬似高域信号、ノイズ包絡情報復号部104からのノイズ信号、および正弦波情報復号部105からの正弦波信号を帯域合成し、音声信号を生成する。帯域合成フィルタ106は、帯域合成により得られた信号を、復号された音声信号として後段の再生部等に出力する。
[復号処理の説明]
図5に示した復号装置91に、符号化装置11からの符号化ストリームが送信されてくると、復号装置91はフレーム単位で復号処理を行い、音声信号を復号する。以下、図6のフローチャートを参照して、復号装置91による復号処理について説明する。
ステップS51において、符号化ストリーム復号部101は、符号化装置11から受信した符号化ストリームを復号し、その結果得られた低域信号、包絡情報、ノイズ包絡情報、および正弦波情報を、低域復号部102乃至正弦波情報復号部105に供給する。
ステップS52において、低域復号部102は、符号化ストリーム復号部101からの低域信号を復号し、包絡情報復号部103および帯域合成フィルタ106に供給する。
ステップS53において、包絡情報復号部103は、符号化ストリーム復号部101からの包絡情報を復号する。また、包絡情報復号部103は、復号された包絡情報を正弦波情報復号部105に供給する。
ステップS54において、包絡情報復号部103の生成部121は、高域側の帯域ごとに、包絡情報と低域復号部102からの低域信号とに基づいて擬似高域信号を生成し、帯域合成フィルタ106に供給する。例えば生成部121は、低域信号の所定帯域の1フレームの区間を抽出し、抽出した低域信号のサンプルのサンプル値が、包絡情報で示される包絡における、そのサンプルに対応する位置のゲインとなるように低域信号を増減させることで、擬似高域信号を生成する。
ステップS55において、ノイズ包絡情報復号部104は、符号化ストリーム復号部101からのノイズ包絡情報を復号する。
ステップS56において、ノイズ包絡情報復号部104の生成部131は、高域側の帯域ごとに、ノイズ包絡情報に基づいてノイズ信号を生成し、帯域合成フィルタ106に供給する。すなわち生成部131は、予め定められた信号に対して、ノイズ包絡情報により示されるノイズ境界位置で分割される区間ごとに、その信号のゲインがノイズ包絡情報により示されるゲインとなるようにゲイン調整を行なうことで、ノイズ信号を生成する。
ステップS57において、正弦波情報復号部105は、符号化ストリーム復号部101からの正弦波情報を復号する。例えば、正弦波情報に含まれている合成開始位置を示す情報が、必要に応じて復号される。
ステップS58において、正弦波情報復号部105は正弦波信号生成処理を行なって、高域側の帯域ごとに正弦波信号を生成し、帯域合成フィルタ106に供給する。なお、正弦波信号生成処理の詳細は後述する。
ステップS59において、帯域合成フィルタ106は、低域復号部102からの低域信号、包絡情報復号部103からの擬似高域信号、ノイズ包絡情報復号部104からのノイズ信号、および正弦波情報復号部105からの正弦波信号を帯域合成する。
すなわち、低域復号部102乃至正弦波情報復号部105から入力されてくる低域信号、各帯域の擬似高域信号、各帯域のノイズ信号、および各帯域の正弦波信号の各時刻のサンプルを加算することで帯域合成を行ない、音声信号を生成する。ここで、擬似高域信号、ノイズ信号、および正弦波信号からなる信号が、予測により得られた高域成分である。
帯域合成フィルタ106は、帯域合成により音声信号が得られると、その音声信号を後段の再生部等に出力し、復号処理は終了する。この復号処理はフレームごとに行なわれ、復号装置91は、次のフレームの符号化ストリームが入力されると、そのフレームの符号化ストリームに対して、復号処理を行なう。
このようにして、復号装置91は、低域信号と、包絡情報、ノイズ包絡情報、および正弦波情報に基づいて高域成分を予測し、予測により得られた高域信号と、復号された低域信号とから帯域拡張された音声信号を生成する。このとき、より正確な正弦波信号の合成開始位置が示される正弦波情報を用いることで、より正確に正弦波信号の合成を行なうことができ、より高音質な音声を得ることができる。
[正弦波信号生成処理の説明]
次に、図7のフローチャートを参照して、図6のステップS58の処理に対応する正弦波信号生成処理について説明する。
ステップS81において、正弦波情報復号部105の生成部141は、正弦波情報に含まれる、正弦波信号が検出されたか否かを示す情報と合成開始位置とに基づいて、正弦波合成処理の開始時刻となったか否かを判定する。
例えば、生成部141は、高域成分を構成する正弦波成分として、フレームの先頭を出現開始位置とし、フレームの終端を出現終了位置とする正弦波信号を生成する。
ここで、高域成分を構成する正弦波成分とされる正弦波信号の周波数は、正弦波情報に含まれている、正弦波信号が検出されたか否かを示す情報により特定される。また、正弦波情報により特定される周波数の正弦波信号の振幅は、包絡情報復号部103から正弦波情報復号部105に供給された包絡情報から特定される。例えば、生成部141は、包絡情報を周波数変換して、その結果得られた各周波数のパワーのうちの、正弦波信号の周波数のパワーに基づいて、正弦波信号の振幅を求める。
次に、生成部141は、1フレーム分の正弦波信号におけるタイムスロットの開始位置にあるサンプルを、フレームの先頭から順番に処理対象のサンプル(タイムスロット)として選択していく。そして、生成部141は、選択したサンプルの位置が、合成開始位置により示されるサンプル位置、つまり正弦波信号の合成を開始すべき時刻であるかを判定する。例えば、正弦波情報に、正弦波信号が検出されなかった旨の情報が含まれている場合には、継続して正弦波合成処理の開始時刻となっていないと判定される。
ステップS81において、開始時刻となっていないと判定された場合、ステップS82において、生成部141は、生成した正弦波信号を1タイムスロット分だけ時間方向における後方向側にシフトする。これにより、正弦波信号の出現開始位置が、時間方向の後方側にシフトされることになる。正弦波信号のシフトが行なわれると、処理対象となっているタイムスロットの区間では、正弦波はまだ出現していないので、正弦波信号が正弦波情報復号部105から帯域合成フィルタ106には出力されない。
ステップS83において、生成部141は、1フレームの終端に到達したか否かを判定する。例えば、フレームを構成する最後のタイムスロットの区間が処理対象とされた場合、つまりフレーム内の全てのタイムスロットが処理された場合、フレームの終端に到達したと判定される。
ステップS83において、フレームの終端に到達していないと判定された場合、次のタイムスロットが処理対象として選択されて処理はステップS81に戻り、上述した処理が繰り返される。この場合、既に生成された正弦波信号に対してシフト処理等が行われる。
これに対して、ステップS83において、フレームの終端に到達したと判定された場合、正弦波信号生成処理は終了し、その後、処理は図6のステップS59へと進む。この場合には、正弦波信号の合成が行なわれないことになる。
また、ステップS81において、正弦波合成処理の開始時刻となったと判定された場合、ステップS84において、生成部141は、正弦波合成処理を行なう。すなわち、生成部141は、適宜シフト処理された正弦波信号の処理対象となっているタイムスロットを構成するサンプルのサンプル値を、帯域合成フィルタ106に出力する。これにより、出力された正弦波信号のサンプルのサンプル値が、高域成分を構成する正弦波成分として、低域信号に合成されることになる。
ステップS85において、生成部141は、1フレームの終端に到達したか否かを判定する。例えば、フレームを構成する最後のタイムスロットの区間が処理された場合、フレームの終端に到達したと判定される。
ステップS85において、フレームの終端に到達していないと判定された場合、次のタイムスロットが処理対象として選択されて処理はステップS84に戻り、上述した処理が繰り返される。これに対して、ステップS85において、フレームの終端に到達したと判定された場合、正弦波信号生成処理は終了し、その後、処理は図6のステップS59に進む。
このようにして、正弦波情報復号部105は、正弦波情報に基づいて、正弦波信号の出現開始位置を合成開始位置までシフトさせ、シフトされた正弦波信号を出力する。これにより、1フレームにおけるより正確な位置から正弦波信号の合成が開始されることになり、より高音質な音声を得ることができる。
〈第2の実施の形態〉
[符号化装置の構成例]
なお、以上においては、正弦波情報には、フレームの先頭位置から、正弦波信号の合成を開始すべき位置までの時間(サンプル数)を示す合成開始位置が含まれると説明したが、合成開始位置とノイズ境界位置との差分情報が含まれるようにしてもよい。
そのような場合、符号化装置は、例えば図8に示すように構成される。なお、図8において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図8の符号化装置171と符号化装置11とは、符号化装置171の正弦波情報生成部26に、新たに差分算出部181が設けられている点で異なり、その他の点では同じである。
正弦波情報生成部26の差分算出部181は、位置検出部62により検出された正弦波信号の合成開始位置と、ノイズ境界位置との差分を算出する。正弦波情報生成部26は、差分算出部181により算出されたノイズ境界位置との差分を示す差分情報、および正弦波信号が検出されたか否かを示す情報からなる情報を、正弦波情報として符号化ストリーム生成部27に供給する。
[符号化処理の説明]
次に、図9のフローチャートを参照して、符号化装置171による符号化処理を説明する。なお、ステップS111乃至ステップS118の処理は、図2のステップS11乃至ステップS18の処理のそれぞれと同様であるので、その説明は省略する。
ステップS119において、ノイズ包絡情報生成部25の境界算出部52は、高域側の帯域ごとにノイズ境界位置を検出する。そして、ステップS120において、ノイズ包絡情報生成部25は、高域側の帯域ごとにノイズ包絡情報を生成し、符号化ストリーム生成部27に供給する。なお、ステップS119およびステップS120では、図2のステップS20およびステップS21と同様の処理が行なわれる。
ステップS121において、正弦波情報生成部26の差分算出部181は、高域側の帯域ごとに、位置検出部62により検出された正弦波信号の合成開始位置と、ノイズ境界位置との差分を算出する。
例えば、図10に示すように、正弦波合成の開始位置からノイズ境界位置までの時間(サンプル数)が差分として算出される。なお、図中、横方向は時間方向を示している。また、図10において矢印FS11および矢印FE11は、それぞれフレームの開始位置および終了位置を示している。
図10の例では、フレーム内における矢印N11により示される位置がノイズ境界位置となっている。また、正弦波信号の合成開始位置は、矢印G11により示される位置となっており、合成開始位置はノイズ境界位置よりも前に位置している。したがって、矢印G11により示される合成開始位置からフレームの終了位置までの区間に、正弦波信号が合成されることになる。
この例では、矢印G11により示される合成開始位置から、矢印N11により示されるノイズ境界位置までの時間の長さ(時間距離)が、ノイズ境界位置との差分情報とされる。ここで、合成開始位置からノイズ境界位置までの時間は、タイムスロット長の整数倍の時間となる。
このようにして求められた、合成開始位置からノイズ境界位置までの時間を示す差分情報によっても、音声信号の復号側において、より正確な合成開始位置を特定することができ、より高音質な音声を得ることができるようになる。
図9のフローチャートの説明に戻り、ステップS121において、ノイズ境界位置との差分情報が得られると、処理はステップS122に進む。
ステップS122において、正弦波情報生成部26は、高域側の帯域ごとに正弦波情報を生成し、符号化ストリーム生成部27に供給する。
例えば、正弦波情報生成部26は、高域の帯域から正弦波信号が検出されたか否かを示す情報、および合成開始位置とノイズ境界位置との差分情報からなる情報を正弦波情報とする。このとき、正弦波情報生成部26の符号化部63は、ノイズ境界位置との差分情報を可変長符号化する。正弦波情報生成部26は、可変長符号化された差分情報と、正弦波信号が検出されたか否かを示す情報とからなる正弦波情報を、符号化ストリーム生成部27に供給する。
正弦波情報が生成されると、その後、ステップS123の処理が行なわれて符号化処理は終了するが、ステップS123の処理は図2のステップS22の処理と同様であるので、その説明は省略する。
以上のようにして、符号化装置171は、低域信号、包絡情報、ノイズ包絡情報、および正弦波情報からなる符号化ストリームを生成して出力する。このとき、より正確な正弦波信号の合成開始位置を検出して、その合成開始位置を特定するための差分情報が含まれる正弦波情報を生成することで、音声信号の復号側において、より正確に正弦波信号の合成を行なうことができるようになる。これにより、より高音質な音声を得ることができる。
[復号装置の構成例]
また、符号化装置171から送信された符号化ストリームを受信して、符号化ストリームから音声信号を得る復号装置は、例えば図11に示すように構成される。なお、図11において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図11の復号装置211と復号装置91とは、復号装置211の正弦波情報復号部105に、新たに位置算出部221が設けられている点で異なり、その他の点では同じである。
復号装置211の位置算出部221は、ノイズ包絡情報復号部104から供給されたノイズ境界位置と、正弦波情報から得られる差分情報とから、正弦波信号の合成開始位置を算出する。
[復号処理の説明]
次に、図12のフローチャートを参照して、復号装置211により行なわれる復号処理について説明する。なお、ステップS151乃至ステップS157の処理は、図6のステップS51乃至ステップS57の処理と同様であるため、その説明は省略する。但し、ステップS155において、ノイズ包絡情報復号部104は、復号により得られたノイズ包絡情報に含まれているノイズ境界位置を示す情報を、正弦波情報復号部105に供給する。
ステップS158において、正弦波情報復号部105は正弦波信号生成処理を行なって、高域側の帯域ごとに正弦波信号を生成し、帯域合成フィルタ106に供給する。なお、正弦波信号生成処理の詳細は後述する。
正弦波信号生成処理が行なわれると、その後、ステップS159の処理が行なわれて復号処理は終了するが、ステップS159の処理は、図6のステップS59の処理と同様であるため、その説明は省略する。
[正弦波信号生成処理の説明]
また、図12のステップS158において、正弦波情報復号部105は、図13に示す正弦波信号生成処理を行なう。以下、図13のフローチャートを参照して、ステップS158の処理に対応する正弦波信号生成処理について説明する。
ステップS181において、正弦波情報復号部105の位置算出部221は、ノイズ包絡情報復号部104から供給されたノイズ境界位置と、正弦波情報から得られた差分情報とから、正弦波信号の合成開始位置を算出する。すなわち、処理対象のフレームの開始位置からノイズ境界位置までの時間から、合成開始位置とノイズ境界位置との時間の差分が減算されて、フレームの開始位置から正弦波信号の合成開始位置までの時間が求められ、合成開始位置の時刻(サンプル)が特定される。
合成開始位置が算出されると、その後、ステップS182乃至ステップS186の処理が行なわれて、正弦波信号生成処理は終了するが、これらの処理は図7のステップS81乃至ステップS85の処理と同様であるので、その説明は省略する。このようにして正弦波信号生成処理が終了すると、その後、処理は図12のステップS159へと進む。
以上のようにして、正弦波情報復号部105は、正弦波情報に含まれる差分情報とノイズ境界位置とから、より正確な正弦波信号の合成開始位置を算出する。これにより、1フレームにおけるより正確な位置から正弦波信号の合成を開始することができ、より高音質な音声を得ることができる。
〈第3の実施の形態〉
[符号化装置の構成例]
なお、第2の実施の形態においては、正弦波情報に合成開始位置とノイズ境界位置との差分情報が含まれる例について説明したが、正弦波情報に、合成開始位置と高域信号の包絡のピーク位置との差分情報が含まれるようにしてもよい。
そのような場合、符号化装置は、例えば図14に示すように構成される。なお、図14において、図1における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図14の符号化装置251と符号化装置11とは、符号化装置251の正弦波情報生成部26に、新たにピーク検出部261および差分算出部262が設けられている点で異なり、その他の点では同じである。
符号化装置251では、包絡情報生成部24からノイズ包絡情報生成部25に供給された包絡情報が、さらにノイズ包絡情報生成部25から正弦波情報生成部26にも供給される。ピーク検出部261は、ノイズ包絡情報生成部25から供給された包絡情報に基づいて、高域信号の包絡のピーク位置を検出する。
差分算出部262は、位置検出部62により検出された正弦波信号の合成開始位置と、高域信号の包絡のピーク位置との差分を算出する。正弦波情報生成部26は、差分算出部262により算出されたピーク位置との差分を示す差分情報、および正弦波信号が検出されたか否かを示す情報からなる情報を、正弦波情報として符号化ストリーム生成部27に供給する。
[符号化処理の説明]
次に、図15のフローチャートを参照して、符号化装置251による符号化処理を説明する。なお、ステップS211乃至ステップS218の処理は、図2のステップS11乃至ステップS18の処理のそれぞれと同様であるので、その説明は省略する。但し、ステップS214では、生成された包絡情報が、包絡情報生成部24からノイズ包絡情報生成部25を介して、正弦波情報生成部26にも供給される。
ステップS219において、正弦波情報生成部26のピーク検出部261は、高域側の帯域ごとにノイズ包絡情報生成部25から供給された包絡情報に基づいて、高域信号の包絡のピーク位置を検出する。例えば、包絡情報により示される高域信号の包絡においてゲインが最大となる位置が、高域信号の包絡のピーク位置として検出される。
ステップS220において、差分算出部262は、高域側の帯域ごとに、位置検出部62により検出された正弦波信号の合成開始位置と、ピーク検出部261により検出された包絡のピーク位置との差分を算出する。
例えば、図16に示すように、正弦波合成の開始位置から包絡のピーク位置までの時間(サンプル数)が差分として算出される。なお、図中、横方向は時間方向を示している。また、図16において矢印FS21および矢印FE21は、それぞれフレームの開始位置および終了位置を示している。
図16の例では、高域信号の包絡が点線で表されており、矢印P1により示される位置が、その包絡のピーク位置となっている。また、正弦波信号の合成開始位置は、矢印G21により示される位置となっており、合成開始位置は包絡のピーク位置よりも前に位置している。復号時には、矢印G21により示される合成開始位置からフレームの終了位置までの区間に、正弦波信号が合成されることになる。
この例では、矢印G21により示される合成開始位置から、矢印P1により示される高域信号の包絡のピーク位置までの時間の長さ(時間距離)が、ピーク位置との差分情報とされる。ここで、合成開始位置からピーク位置までの時間は、タイムスロット長の整数倍の時間となる。
このようにして求められた、合成開始位置からピーク位置までの時間を示す差分情報によっても、音声信号の復号側において、より正確な合成開始位置を特定することができ、より高音質な音声を得ることができるようになる。
図15のフローチャートの説明に戻り、ステップS220において、ピーク位置との差分情報が得られると、処理はステップS221に進む。
ステップS221において、正弦波情報生成部26は、高域側の帯域ごとに正弦波情報を生成し、符号化ストリーム生成部27に供給する。
例えば、正弦波情報生成部26は、高域の帯域から正弦波信号が検出されたか否かを示す情報、および合成開始位置とピーク位置との差分情報からなる情報を正弦波情報とする。このとき、正弦波情報生成部26の符号化部63は、ピーク位置との差分情報を可変長符号化する。正弦波情報生成部26は可変長符号化された差分情報と、正弦波信号が検出されたか否かを示す情報とからなる正弦波情報を、符号化ストリーム生成部27に供給する。
正弦波情報が生成されると、その後、ステップS222乃至ステップS224の処理が行なわれて符号化処理は終了するが、これらの処理は図2のステップS20乃至ステップS22の処理と同様であるので、その説明は省略する。
以上のようにして、符号化装置251は、低域信号、包絡情報、ノイズ包絡情報、および正弦波情報からなる符号化ストリームを生成して出力する。このとき、より正確な正弦波信号の合成開始位置を検出して、その合成開始位置を特定するための差分情報が含まれる正弦波情報を生成することで、音声信号の復号側において、より正確に正弦波信号の合成を行なうことができるようになる。これにより、より高音質な音声を得ることができる。
[復号装置の構成例]
また、符号化装置251から送信された符号化ストリームを受信して、符号化ストリームから音声信号を得る復号装置は、例えば図17に示すように構成される。なお、図17において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図17の復号装置301と復号装置91とは、復号装置301の正弦波情報復号部105に、新たに位置算出部311が設けられている点で異なり、その他の点では同じである。
復号装置301の位置算出部311は、包絡情報復号部103から供給された包絡情報と、正弦波情報から得られる差分情報とから、正弦波信号の合成開始位置を算出する。
[復号処理の説明]
次に、図18のフローチャートを参照して、復号装置301により行なわれる復号処理について説明する。なお、ステップS251乃至ステップS257の処理は、図6のステップS51乃至ステップS57の処理と同様であるため、その説明は省略する。
ステップS258において、正弦波情報復号部105は正弦波信号生成処理を行なって、高域側の帯域ごとに正弦波信号を生成し、帯域合成フィルタ106に供給する。なお、正弦波信号生成処理の詳細は後述する。
正弦波信号生成処理が行なわれると、その後、ステップS259の処理が行なわれて復号処理は終了するが、ステップS259の処理は、図6のステップS59の処理と同様であるため、その説明は省略する。
[正弦波信号生成処理の説明]
また、図18のステップS258において、正弦波情報復号部105は、図19に示す正弦波信号生成処理を行なう。以下、図19のフローチャートを参照して、ステップS258の処理に対応する正弦波信号生成処理について説明する。
ステップS281において、正弦波情報復号部105の位置算出部311は、包絡情報復号部103から供給された包絡情報と、正弦波情報から得られた差分情報とから、正弦波信号の合成開始位置を算出する。
すなわち、位置算出部311は、包絡情報により示される高域信号の包絡においてゲインが最大となる位置を、高域信号の包絡のピーク位置として検出する。そして、位置算出部311は、処理対象のフレームの開始位置からピーク位置までの時間から、合成開始位置とピーク位置との時間の差分を減算して、フレームの開始位置から正弦波信号の合成開始位置までの時間を求め、合成開始位置の時刻(サンプル)を特定する。
合成開始位置が算出されると、その後、ステップS282乃至ステップS286の処理が行なわれて、正弦波信号生成処理は終了するが、これらの処理は図7のステップS81乃至ステップS85の処理と同様であるので、その説明は省略する。このようにして正弦波信号生成処理が終了すると、その後、処理は図18のステップS259へと進む。
以上のようにして、正弦波情報復号部105は、正弦波情報に含まれる差分情報と高域信号の包絡のピーク位置とから、より正確な正弦波信号の合成開始位置を算出する。これにより、1フレームにおけるより正確な位置から正弦波信号の合成を開始することができ、より高音質な音声を得ることができる。
なお、以上においては、復号装置301側でも包絡のピーク位置の検出を行なうと説明したが、正弦波情報にピーク位置を示す情報が含まれるようにしてもよい。そのような場合、符号化装置251の正弦波情報生成部26は、ピーク位置を示す情報を含む正弦波情報を生成し、復号装置301の位置算出部311は、正弦波情報に含まれる差分情報とピーク位置を示す情報とから、合成開始位置を算出する。
〈第4の実施の形態〉
[符号化装置の構成例]
また、以上においては合成開始位置、ノイズ境界位置との差分情報、またはピーク位置との差分情報のうちの予め定めた情報が正弦波情報に含まれると説明したが、これらのうちの最も符号量が少ないものが選択されて正弦波情報に含まれるようにしてもよい。
そのような場合、符号化装置は、例えば図20に示すように構成される。なお、図20において、図1または図14における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図20の符号化装置341と図1の符号化装置11とは、符号化装置341の正弦波情報生成部26に、新たにピーク検出部261、差分算出部351、および選択部352が設けられている点で異なり、その他の点では同じである。
符号化装置341では、包絡情報生成部24からノイズ包絡情報生成部25に供給された包絡情報が、さらにノイズ包絡情報生成部25から正弦波情報生成部26にも供給され、ピーク検出部261は、包絡情報に基づいて高域信号の包絡のピーク位置を検出する。
差分算出部351は、位置検出部62により検出された正弦波信号の合成開始位置と、高域信号の包絡のピーク位置との差分を算出する。また、差分算出部351は、合成開始位置と、ノイズ境界位置との差分も算出する。
選択部352は、合成開始位置、ピーク位置との差分情報、およびノイズ境界位置との差分情報のうち、可変長符号化したときに最も符号量が少なくなる情報を選択する。正弦波情報生成部26は、選択分352による選択結果を示す情報、選択部352により選択された情報、および正弦波信号が検出されたか否かを示す情報からなる情報を、正弦波情報として符号化ストリーム生成部27に供給する。
[符号化処理の説明]
次に、図21のフローチャートを参照して、符号化装置341による符号化処理を説明する。なお、ステップS311乃至ステップS321の処理は、図9のステップS111乃至ステップS121の処理のそれぞれと同様であるので、その説明は省略する。
但し、ステップS321では、正弦波情報生成部26の差分算出部351が、高域側の帯域ごとに、位置検出部62により検出された正弦波信号の合成開始位置と、ノイズ境界位置との差分を算出する。また、ステップS314では、生成された包絡情報が、包絡情報生成部24からノイズ包絡情報生成部25を介して、正弦波情報生成部26にも供給される。
ステップS322において、正弦波情報生成部26のピーク検出部261は、高域側の帯域ごとにノイズ包絡情報生成部25から供給された包絡情報に基づいて、高域信号の包絡のピーク位置を検出する。
ステップS323において、差分算出部351は、高域側の帯域ごとに、位置検出部62により検出された正弦波信号の合成開始位置と、ピーク検出部261により検出された包絡のピーク位置との差分を算出する。
なお、これらのステップS322およびステップS323では、図15のステップS219およびステップS220と同様の処理が行なわれる。
ステップS324において、選択部352は高域側の帯域ごとに、合成開始位置、合成開始位置とピーク位置との差分情報、および合成開始位置とノイズ境界位置との差分情報のうち、可変長符号化したときに最も符号量が少なくなる情報を選択する。そして、選択部352は、その選択結果を示す選択情報を生成する。このとき、合成開始位置等の符号量のみが算出されて比較されてもよいし、実際に合成開始位置等の情報が可変長符号化されて、その符号量が比較されてもよい。
ステップS325において、正弦波情報生成部26は、高域側の帯域ごとに正弦波情報を生成し、符号化ストリーム生成部27に供給する。
具体的には、正弦波情報生成部26は、高域の帯域から正弦波信号が検出されたか否かを示す情報、選択情報、および選択情報により示される情報からなる情報を正弦波情報とする。このとき、正弦波情報生成部26の符号化部63は、選択情報、および選択情報により示される情報を可変長符号化する。正弦波情報生成部26は可変長符号化された選択情報、および選択情報により示される情報と、正弦波信号が検出されたか否かを示す情報とからなる正弦波情報を、符号化ストリーム生成部27に供給する。
例えば、選択情報により示される情報が、合成開始位置とピーク位置との差分情報である場合、選択情報、ピーク位置との差分情報、および正弦波信号が検出されたか否かを示す情報からなる情報が、正弦波情報とされる。このように、正弦波信号の合成開始位置を特定する情報のうち、最も符号量の少ないものが含まれる正弦波情報を生成することで、符号化ストリームの符号量をより少なくすることができる。
正弦波情報が生成されると、その後、ステップS326の処理が行なわれて符号化処理は終了するが、この処理は図15のステップS224の処理と同様であるので、その説明は省略する。
以上のようにして、符号化装置341は、低域信号、包絡情報、ノイズ包絡情報、および正弦波情報からなる符号化ストリームを生成して出力する。このとき、合成開始位置を特定するための情報のうち、最も符号量が少ない情報が含まれる正弦波情報を生成することで、伝送されるストリームのデータ量を削減するとともに、音声信号の復号側において、より正確に正弦波信号の合成を行なうことができる。これにより、より高音質な音声を得ることができる。
[復号装置の構成例]
また、符号化装置341から送信された符号化ストリームを受信して、符号化ストリームから音声信号を得る復号装置は、例えば図22に示すように構成される。なお、図22において、図5における場合と対応する部分には同一の符号を付してあり、その説明は適宜省略する。図22の復号装置381と復号装置91とは、復号装置381の正弦波情報復号部105に、新たに位置算出部391が設けられている点で異なり、その他の点では同じである。
復号装置381の位置算出部391は、正弦波情報に含まれる選択情報に応じて、正弦波情報から得られるピーク位置との差分情報、またはノイズ境界位置との差分情報から、正弦波信号の合成開始位置を算出する。
[復号処理の説明]
次に、図23のフローチャートを参照して、復号装置381により行なわれる復号処理について説明する。なお、ステップS351乃至ステップS356の処理は、図6のステップS51乃至ステップS56の処理と同様であるため、その説明は省略する。
但し、ステップS355において、ノイズ包絡情報復号部104は、復号により得られたノイズ包絡情報に含まれているノイズ境界位置を示す情報を、正弦波情報復号部105に供給する。
ステップS357において、正弦波情報復号部105は、符号化ストリーム復号部101からの正弦波情報を復号する。例えば、正弦波情報に含まれている選択情報と、その選択情報により特定される合成開始位置を得るための情報が復号される。
ステップS358において、正弦波情報復号部105は正弦波信号生成処理を行なって、高域側の帯域ごとに正弦波信号を生成し、帯域合成フィルタ106に供給する。なお、正弦波信号生成処理の詳細は後述する。
正弦波信号生成処理が行なわれると、その後、ステップS359の処理が行なわれて復号処理は終了するが、ステップS359の処理は、図6のステップS59の処理と同様であるため、その説明は省略する。
[正弦波信号生成処理の説明]
また、図23のステップS358において、正弦波情報復号部105は、図24に示す正弦波信号生成処理を行なう。以下、図24のフローチャートを参照して、ステップS358に対応する正弦波信号生成処理について説明する。
ステップS381において、位置算出部391は、選択情報により示される、正弦波信号の合成開始位置を得るための情報が、合成開始位置そのものを示す情報であるか否かを判定する。すなわち、正弦波情報に合成開始位置が含まれているか否かが判定される。
ステップS381において、選択情報により示される情報が、合成開始位置を示す情報であると判定された場合、処理はステップS385に進む。
一方、ステップS381において、選択情報により示される情報が、合成開始位置を示す情報でないと判定された場合、処理はステップS382に進む。
ステップS382において、位置算出部391は、選択情報により示される、正弦波信号の合成開始位置を得るための情報が、合成開始位置とノイズ境界位置との差分情報であるか否かを判定する。すなわち、正弦波情報にノイズ境界位置との差分情報が含まれているか否かが判定される。
ステップS382において、選択情報により示される情報が、ノイズ境界位置との差分情報であると判定された場合、処理はステップS383に進む。
ステップS383において、正弦波情報復号部105の位置算出部391は、ノイズ包絡情報復号部104から供給されたノイズ境界位置と、正弦波情報から得られたノイズ境界位置との差分情報とから、正弦波信号の合成開始位置を算出する。合成開始位置が算出されると、その後、処理はステップS385へと進む。
また、ステップS382において、選択情報により示される情報がノイズ境界位置との差分情報でないと判定された場合、すなわち、選択情報により示される情報が合成開始位置とピーク位置との差分情報である場合、処理はステップS384に進む。
ステップS384において、正弦波情報復号部105の位置算出部391は、包絡情報復号部103から供給された包絡情報、および正弦波情報から得られた高域信号の包絡のピーク位置との差分情報から、正弦波信号の合成開始位置を算出する。
すなわち、位置算出部391は、包絡情報により示される高域信号の包絡においてゲインが最大となる位置を、高域信号の包絡のピーク位置として検出する。そして、位置算出部391は、処理対象のフレームの開始位置からピーク位置までの時間から、合成開始位置とピーク位置との時間の差分を減算して、フレームの開始位置から正弦波信号の合成開始位置までの時間を求め、合成開始位置の時刻(サンプル)を特定する。合成開始位置が算出されると、その後、処理はステップS385へと進む。
ステップS381において、選択情報により示される情報が合成開始位置を示す情報であると判定されたか、ステップS383において合成開始位置が算出されたか、またはステップS384において合成開始位置が算出されると、処理はステップS385に進む。そして、ステップS385乃至ステップS389の処理が行なわれて、正弦波信号生成処理は終了するが、これらの処理は図7のステップS81乃至ステップS85の処理と同様であるので、その説明は省略する。このようにして正弦波信号生成処理が終了すると、その後、処理は図23のステップS359へと進む。
以上のようにして、正弦波情報復号部105は、選択情報から正弦波情報に含まれている情報を特定し、その特定結果に応じて、適宜、正確な正弦波信号の合成開始位置を算出する。これにより、1フレームにおけるより正確な位置から正弦波信号の合成を開始することができ、より高音質な音声を得ることができる。
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、プログラム記録媒体からインストールされる。
図25は、上述した一連の処理をプログラムにより実行するコンピュータのハードウェアの構成例を示すブロック図である。
コンピュータにおいて、CPU501,ROM(Read Only Memory)502,RAM(Random Access Memory)503は、バス504により相互に接続されている。
バス504には、さらに、入出力インターフェース505が接続されている。入出力インターフェース505には、キーボード、マウス、マイクロホンなどよりなる入力部506、ディスプレイ、スピーカなどよりなる出力部507、ハードディスクや不揮発性のメモリなどよりなる記録部508、ネットワークインターフェースなどよりなる通信部509、磁気ディスク、光ディスク、光磁気ディスク、或いは半導体メモリなどのリムーバブルメディア511を駆動するドライブ510が接続されている。
以上のように構成されるコンピュータでは、CPU501が、例えば、記録部508に記録されているプログラムを、入出力インターフェース505及びバス504を介して、RAM503にロードして実行することにより、上述した一連の処理が行われる。
コンピュータ(CPU501)が実行するプログラムは、例えば、磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)、光磁気ディスク、もしくは半導体メモリなどよりなるパッケージメディアであるリムーバブルメディア511に記録して、あるいは、ローカルエリアネットワーク、インターネット、デジタル衛星放送といった、有線または無線の伝送媒体を介して提供される。
そして、プログラムは、リムーバブルメディア511をドライブ510に装着することにより、入出力インターフェース505を介して、記録部508にインストールすることができる。また、プログラムは、有線または無線の伝送媒体を介して、通信部509で受信し、記録部508にインストールすることができる。その他、プログラムは、ROM502や記録部508に、あらかじめインストールしておくことができる。
なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。
なお、本技術の実施の形態は、上述した実施の形態に限定されるものではなく、本技術の要旨を逸脱しない範囲において種々の変更が可能である。
11 符号化装置, 22 低域符号化部, 24 包絡情報生成部, 25 ノイズ包絡情報生成部, 26 正弦波情報生成部, 52 境界算出部, 61 正弦波検出部, 62 位置検出部, 91 復号装置, 102 低域復号部, 103 包絡情報復号部, 104 ノイズ包絡情報復号部, 105 正弦波情報復号部, 141 生成部, 181 差分算出部, 221 位置算出部, 261 ピーク検出部, 262 差分算出部, 311 位置検出部, 351 差分算出部, 352 選択部, 391 位置算出部

Claims (16)

  1. 音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報を抽出する抽出部と、
    前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号を生成する擬似高域生成部と、
    前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号を生成する正弦波生成部と、
    前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成する合成部と
    を備える信号処理装置。
  2. 前記正弦波情報には、前記高域成分のフレームの開始位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれている
    請求項1に記載の信号処理装置。
  3. ノイズ包絡情報により示されるノイズ境界位置で分割された各区間について、所定の信号の前記区間を、前記ノイズ包絡情報により示される前記区間のゲインを示す情報に基づいてゲイン調整することで、前記高域成分を構成するノイズ信号を生成するノイズ生成部をさらに備え、
    前記抽出部は、前記ノイズ包絡情報をさらに抽出し、
    前記正弦波情報には、前記ノイズ境界位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれており、
    前記合成部は、前記低域信号、前記擬似高域信号、前記正弦波信号、および前記ノイズ信号を合成して音声信号を生成する
    請求項1に記載の信号処理装置。
  4. 前記正弦波情報には、前記高域成分の包絡のピーク位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれている
    請求項1に記載の信号処理装置。
  5. 前記正弦波情報は、フレームごとに抽出され、前記正弦波生成部は、前記高域成分のフレームごとに、前記正弦波信号を生成する
    請求項1に記載の信号処理装置。
  6. 前記正弦波情報は、前記高域成分を構成する帯域ごとに抽出され、前記正弦波生成部は、前記帯域ごとに、前記正弦波信号を生成する
    請求項1に記載の信号処理装置。
  7. 音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報を抽出する抽出部と、
    前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号を生成する擬似高域生成部と、
    前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号を生成する正弦波生成部と、
    前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成する合成部と
    を備える信号処理装置の信号処理方法であって、
    前記抽出部が、前記低域成分、前記包絡情報、および前記正弦波情報を抽出し、
    前記擬似高域生成部が、前記擬似高域信号を生成し、
    前記正弦波生成部が、前記正弦波信号を生成し、
    前記合成部が、前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成する
    ステップを含む信号処理方法。
  8. 音声信号の低域成分、前記音声信号の高域成分の包絡を示す包絡情報、並びに前記高域成分に含まれる正弦波成分の周波数および出現位置を特定するための正弦波情報を抽出し、
    前記低域成分としての低域信号と前記包絡情報とに基づいて、前記高域成分を構成する擬似高域信号を生成し、
    前記正弦波情報により示される周波数であり、かつ前記正弦波情報から特定される前記出現位置を開始位置とする正弦波信号を生成し、
    前記低域信号、前記擬似高域信号、および前記正弦波信号を合成して音声信号を生成する
    ステップを含む処理をコンピュータに実行させるプログラム。
  9. 音声信号の高域成分である高域信号の包絡を示す包絡情報を生成する包絡情報生成部と、
    前記高域信号に含まれる正弦波信号を検出し、前記正弦波信号の周波数および出現位置を特定するための正弦波情報を生成する正弦波情報生成部と、
    前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力する出力部と
    を備える信号処理装置。
  10. 前記正弦波情報には、前記高域成分のフレームの開始位置から、前記正弦波信号の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれている
    請求項9に記載の信号処理装置。
  11. 前記高域信号に含まれるノイズ信号を検出し、前記ノイズ信号をいくつかの区間に分割するノイズ境界位置を示す情報と、前記区間における前記ノイズ信号のゲインを示す情報とからなるノイズ包絡情報を生成するノイズ包絡情報生成部をさらに備え、
    前記正弦波情報には、前記ノイズ境界位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれており、
    前記出力部は、前記低域信号、前記包絡情報、前記正弦波情報、および前記ノイズ包絡情報からなるデータを生成して出力する
    請求項9に記載の信号処理装置。
  12. 前記正弦波情報には、前記高域成分の包絡のピーク位置から、前記正弦波成分の出現開始位置までの距離を示す情報が、前記出現位置を特定するための情報として含まれている
    請求項9に記載の信号処理装置。
  13. 前記正弦波情報は、フレームごとに生成される
    請求項9に記載の信号処理装置。
  14. 前記正弦波情報は、前記高域成分を構成する帯域ごとに生成される
    請求項9に記載の信号処理装置。
  15. 音声信号の高域成分である高域信号の包絡を示す包絡情報を生成する包絡情報生成部と、
    前記高域信号に含まれる正弦波信号を検出し、前記正弦波信号の周波数および出現位置を特定するための正弦波情報を生成する正弦波情報生成部と、
    前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力する出力部と
    を備える信号処理装置の信号処理方法であって、
    前記包絡情報生成部が、前記包絡情報を生成し、
    前記正弦波情報生成部が、前記正弦波情報を生成し、
    前記出力部が、前記低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力する
    ステップを含む信号処理方法。
  16. 音声信号の高域成分である高域信号の包絡を示す包絡情報を生成し、
    前記高域信号に含まれる正弦波信号を検出し、前記正弦波信号の周波数および出現位置を特定するための正弦波情報を生成し、
    前記音声信号の低域成分である低域信号、前記包絡情報、および前記正弦波情報からなるデータを生成して出力する
    ステップを含む処理をコンピュータに実行させるプログラム。
JP2011006233A 2011-01-14 2011-01-14 信号処理装置および方法、並びにプログラム Active JP5743137B2 (ja)

Priority Applications (17)

Application Number Priority Date Filing Date Title
JP2011006233A JP5743137B2 (ja) 2011-01-14 2011-01-14 信号処理装置および方法、並びにプログラム
TW100142973A TWI498885B (zh) 2011-01-14 2011-11-23 The signal processing apparatus and method, and a signal processing program
BR112013017427-7A BR112013017427B1 (pt) 2011-01-14 2012-01-06 Dispositivo de processamento de sinal, método de processamento de sinal para controlar um dispositivode processamento de sinal, e meio de armazenamento legível por computador
KR1020197011892A KR102010220B1 (ko) 2011-01-14 2012-01-06 신호 처리 장치 및 방법, 및 컴퓨터 판독가능 기록 매체
PCT/JP2012/050173 WO2012096230A1 (ja) 2011-01-14 2012-01-06 信号処理装置および方法、並びにプログラム
EP12734067.7A EP2665061B1 (en) 2011-01-14 2012-01-06 Signal processing device, method and program
CA2820195A CA2820195C (en) 2011-01-14 2012-01-06 Signal processing device, method, and program
US13/978,175 US20130275142A1 (en) 2011-01-14 2012-01-06 Signal processing device, method, and program
KR1020137017522A KR101975066B1 (ko) 2011-01-14 2012-01-06 신호 처리 장치 및 방법, 및 컴퓨터 판독가능 기록 매체
MX2013007895A MX345045B (es) 2011-01-14 2012-01-06 Dispositivo, metodo y programa para procesamiento de señales.
AU2012206122A AU2012206122B2 (en) 2011-01-14 2012-01-06 Signal processing device, method and program
CN201280004776.XA CN103314407B (zh) 2011-01-14 2012-01-06 信号处理装置和方法
KR1020197022968A KR102048672B1 (ko) 2011-01-14 2012-01-06 신호 처리 장치 및 방법, 및 컴퓨터 판독가능 기록 매체
RU2013130742/08A RU2604338C2 (ru) 2011-01-14 2012-01-06 Устройство обработки сигналов, способ и программа
EP21158857.9A EP3849087A1 (en) 2011-01-14 2012-01-06 Signal processing device, method, and program
US15/424,741 US10431229B2 (en) 2011-01-14 2017-02-03 Devices and methods for encoding and decoding audio signals
US16/526,215 US10643630B2 (en) 2011-01-14 2019-07-30 High frequency replication utilizing wave and noise information in encoding and decoding audio signals

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011006233A JP5743137B2 (ja) 2011-01-14 2011-01-14 信号処理装置および方法、並びにプログラム

Publications (3)

Publication Number Publication Date
JP2012145895A true JP2012145895A (ja) 2012-08-02
JP2012145895A5 JP2012145895A5 (ja) 2014-02-27
JP5743137B2 JP5743137B2 (ja) 2015-07-01

Family

ID=46507130

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011006233A Active JP5743137B2 (ja) 2011-01-14 2011-01-14 信号処理装置および方法、並びにプログラム

Country Status (12)

Country Link
US (3) US20130275142A1 (ja)
EP (2) EP3849087A1 (ja)
JP (1) JP5743137B2 (ja)
KR (3) KR102048672B1 (ja)
CN (1) CN103314407B (ja)
AU (1) AU2012206122B2 (ja)
BR (1) BR112013017427B1 (ja)
CA (1) CA2820195C (ja)
MX (1) MX345045B (ja)
RU (1) RU2604338C2 (ja)
TW (1) TWI498885B (ja)
WO (1) WO2012096230A1 (ja)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109667A (ja) * 2012-11-30 2014-06-12 Kddi Corp 音声合成装置、音声合成方法および音声合成プログラム
JP2016509257A (ja) * 2013-01-29 2016-03-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオエンコーダ、オーディオデコーダ、符号化されたオーディオ情報を生成する方法、復号されたオーディオ情報を生成する方法、コンピュータプログラム及び信号適応帯域幅拡張を用いる符号化表現
CN108564958A (zh) * 2013-02-05 2018-09-21 瑞典爱立信有限公司 音频帧丢失隐藏
JP2020024440A (ja) * 2016-02-17 2020-02-13 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 過渡処理を高めるためのポストプロセッサ、プレプロセッサ、オーディオ符号器、オーディオ復号器、及び関連する方法

Families Citing this family (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP6075743B2 (ja) * 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP6037156B2 (ja) 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JPWO2014007097A1 (ja) 2012-07-02 2016-06-02 ソニー株式会社 復号装置および方法、符号化装置および方法、並びにプログラム
KR20150032649A (ko) 2012-07-02 2015-03-27 소니 주식회사 복호 장치 및 방법, 부호화 장치 및 방법, 및 프로그램
CN103748629B (zh) 2012-07-02 2017-04-05 索尼公司 解码装置和方法、编码装置和方法以及程序
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
EP2950308B1 (en) 2013-01-22 2020-02-19 Panasonic Corporation Bandwidth expansion parameter-generator, encoder, decoder, bandwidth expansion parameter-generating method, encoding method, and decoding method
US9666202B2 (en) * 2013-09-10 2017-05-30 Huawei Technologies Co., Ltd. Adaptive bandwidth extension and apparatus for the same
US9875746B2 (en) 2013-09-19 2018-01-23 Sony Corporation Encoding device and method, decoding device and method, and program
CN104517610B (zh) * 2013-09-26 2018-03-06 华为技术有限公司 频带扩展的方法及装置
JP6345780B2 (ja) * 2013-11-22 2018-06-20 クゥアルコム・インコーポレイテッドQualcomm Incorporated ハイバンドコーディングにおける選択的位相補償
CA3162763A1 (en) 2013-12-27 2015-07-02 Sony Corporation Decoding apparatus and method, and program
US10887395B2 (en) * 2016-11-21 2021-01-05 Ecosteer Srl Processing signals from a sensor group
JP6769299B2 (ja) * 2016-12-27 2020-10-14 富士通株式会社 オーディオ符号化装置およびオーディオ符号化方法
EP3435376B1 (en) * 2017-07-28 2020-01-22 Fujitsu Limited Audio encoding apparatus and audio encoding method
CN113948094A (zh) * 2020-07-16 2022-01-18 华为技术有限公司 音频编解码方法和相关装置及计算机可读存储介质
CN112233685B (zh) * 2020-09-08 2024-04-19 厦门亿联网络技术股份有限公司 基于深度学习注意力机制的频带扩展方法及装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053940A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd オーディオ復号化装置およびオーディオ復号化方法
JP2007187905A (ja) * 2006-01-13 2007-07-26 Sony Corp 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
WO2010003544A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft Zur Förderung Der Angewandtern Forschung E.V. An apparatus and a method for generating bandwidth extension output data
WO2010024371A1 (ja) * 2008-08-29 2010-03-04 ソニー株式会社 周波数帯域拡大装置及び方法、符号化装置及び方法、復号化装置及び方法、並びにプログラム

Family Cites Families (47)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
RU2049456C1 (ru) * 1993-06-22 1995-12-10 Вячеслав Алексеевич Сапрыкин Способ передачи речевых сигналов
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
US6266644B1 (en) * 1998-09-26 2001-07-24 Liquid Audio, Inc. Audio encoding apparatus and methods
KR20010101924A (ko) * 1999-12-01 2001-11-15 요트.게.아. 롤페즈 사운드 신호들을 코딩하고 디코딩하는 방법 및 시스템
DE60119378T8 (de) * 2000-12-27 2007-03-29 Pola Chemical Industries, Inc. Benzofuranderivate und pharmazeutische zusammensetzungen, die diese enthalten
ES2237706T3 (es) * 2001-11-29 2005-08-01 Coding Technologies Ab Reconstruccion de componentes de alta frecuencia.
AU2002307884A1 (en) * 2002-04-22 2003-11-03 Nokia Corporation Method and device for obtaining parameters for parametric speech coding of frames
DE60304479T2 (de) * 2002-08-01 2006-12-14 Matsushita Electric Industrial Co., Ltd., Kadoma Audiodekodierungsvorrichtung und audiodekodierungsverfahren auf der basis der spektralband duplikation
JP3861770B2 (ja) * 2002-08-21 2006-12-20 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
ES2259158T3 (es) * 2002-09-19 2006-09-16 Matsushita Electric Industrial Co., Ltd. Metodo y aparato decodificador audio.
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
JP4355745B2 (ja) * 2004-03-17 2009-11-04 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ オーディオ符号化
JP5224017B2 (ja) * 2005-01-11 2013-07-03 日本電気株式会社 オーディオ符号化装置、オーディオ符号化方法およびオーディオ符号化プログラム
JP5129115B2 (ja) * 2005-04-01 2013-01-23 クゥアルコム・インコーポレイテッド 高帯域バーストの抑制のためのシステム、方法、および装置
US7548853B2 (en) * 2005-06-17 2009-06-16 Shmunk Dmitry V Scalable compressed audio bit stream and codec using a hierarchical filterbank and multichannel joint coding
KR100684029B1 (ko) * 2005-09-13 2007-02-20 엘지전자 주식회사 푸리에 변환을 이용한 배음 생성 방법 및 이를 위한 장치,다운 샘플링에 의한 배음 생성 방법 및 이를 위한 장치와소리 보정 방법 및 이를 위한 장치
BRPI0520729B1 (pt) * 2005-11-04 2019-04-02 Nokia Technologies Oy Método para a codificação e decodificação de sinais de áudio, codificador para codificação e decodificador para decodificar sinais de áudio e sistema para compressão de áudio digital.
US7775528B2 (en) * 2006-02-13 2010-08-17 Freudenberg-Nok General Partnership Bi-directional pattern for dynamic seals
US8041578B2 (en) * 2006-10-18 2011-10-18 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Encoding an information signal
JP4918841B2 (ja) * 2006-10-23 2012-04-18 富士通株式会社 符号化システム
KR101149449B1 (ko) * 2007-03-20 2012-05-25 삼성전자주식회사 오디오 신호의 인코딩 방법 및 장치, 그리고 오디오 신호의디코딩 방법 및 장치
CA2704812C (en) * 2007-11-06 2016-05-17 Nokia Corporation An encoder for encoding an audio signal
ES2898865T3 (es) * 2008-03-20 2022-03-09 Fraunhofer Ges Forschung Aparato y método para sintetizar una representación parametrizada de una señal de audio
US8725502B2 (en) * 2008-06-05 2014-05-13 Qualcomm Incorporated System and method of an in-band modem for data communications over digital wireless communication networks
PL2304723T3 (pl) * 2008-07-11 2013-03-29 Fraunhofer Ges Forschung Urządzenie i sposób dekodowania zakodowanego sygnału audio
US8380498B2 (en) * 2008-09-06 2013-02-19 GH Innovation, Inc. Temporal envelope coding of energy attack signal by using attack point location
RU2493618C2 (ru) * 2009-01-28 2013-09-20 Долби Интернешнл Аб Усовершенствованное гармоническое преобразование
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5652658B2 (ja) 2010-04-13 2015-01-14 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5704397B2 (ja) 2011-03-31 2015-04-22 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5975243B2 (ja) 2011-08-24 2016-08-23 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP6037156B2 (ja) 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5845760B2 (ja) 2011-09-15 2016-01-20 ソニー株式会社 音声処理装置および方法、並びにプログラム
US20150088528A1 (en) 2012-04-13 2015-03-26 Sony Corporation Decoding apparatus and method, audio signal processing apparatus and method, and program
CN103748629B (zh) 2012-07-02 2017-04-05 索尼公司 解码装置和方法、编码装置和方法以及程序
KR20150032649A (ko) 2012-07-02 2015-03-27 소니 주식회사 복호 장치 및 방법, 부호화 장치 및 방법, 및 프로그램
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
JPWO2014007097A1 (ja) 2012-07-02 2016-06-02 ソニー株式会社 復号装置および方法、符号化装置および方法、並びにプログラム
JP2014123011A (ja) 2012-12-21 2014-07-03 Sony Corp 雑音検出装置および方法、並びに、プログラム
US9875746B2 (en) 2013-09-19 2018-01-23 Sony Corporation Encoding device and method, decoding device and method, and program
CA3162763A1 (en) 2013-12-27 2015-07-02 Sony Corporation Decoding apparatus and method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004053940A (ja) * 2002-07-19 2004-02-19 Matsushita Electric Ind Co Ltd オーディオ復号化装置およびオーディオ復号化方法
JP2007187905A (ja) * 2006-01-13 2007-07-26 Sony Corp 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
WO2010003544A1 (en) * 2008-07-11 2010-01-14 Fraunhofer-Gesellschaft Zur Förderung Der Angewandtern Forschung E.V. An apparatus and a method for generating bandwidth extension output data
JP2011527448A (ja) * 2008-07-11 2011-10-27 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ 帯域幅拡張出力データを生成するための装置および方法
WO2010024371A1 (ja) * 2008-08-29 2010-03-04 ソニー株式会社 周波数帯域拡大装置及び方法、符号化装置及び方法、復号化装置及び方法、並びにプログラム

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014109667A (ja) * 2012-11-30 2014-06-12 Kddi Corp 音声合成装置、音声合成方法および音声合成プログラム
JP2016509257A (ja) * 2013-01-29 2016-03-24 フラウンホーファー−ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン オーディオエンコーダ、オーディオデコーダ、符号化されたオーディオ情報を生成する方法、復号されたオーディオ情報を生成する方法、コンピュータプログラム及び信号適応帯域幅拡張を用いる符号化表現
US9646624B2 (en) 2013-01-29 2017-05-09 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio encoder, audio decoder, method for providing an encoded audio information, method for providing a decoded audio information, computer program and encoded representation using a signal-adaptive bandwidth extension
CN108564958A (zh) * 2013-02-05 2018-09-21 瑞典爱立信有限公司 音频帧丢失隐藏
US11482232B2 (en) 2013-02-05 2022-10-25 Telefonaktiebolaget Lm Ericsson (Publ) Audio frame loss concealment
JP2020024440A (ja) * 2016-02-17 2020-02-13 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 過渡処理を高めるためのポストプロセッサ、プレプロセッサ、オーディオ符号器、オーディオ復号器、及び関連する方法
JP7007344B2 (ja) 2016-02-17 2022-01-24 フラウンホファー ゲセルシャフト ツール フェールデルンク ダー アンゲヴァンテン フォルシュンク エー.ファオ. 過渡処理を高めるためのポストプロセッサ、プレプロセッサ、オーディオ符号器、オーディオ復号器、及び関連する方法

Also Published As

Publication number Publication date
CA2820195A1 (en) 2012-07-19
KR101975066B1 (ko) 2019-05-03
BR112013017427B1 (pt) 2021-06-15
US20190355368A1 (en) 2019-11-21
KR20130141634A (ko) 2013-12-26
CA2820195C (en) 2021-05-25
EP2665061A4 (en) 2016-12-14
MX2013007895A (es) 2013-08-27
KR20190095530A (ko) 2019-08-14
RU2604338C2 (ru) 2016-12-10
TW201230012A (en) 2012-07-16
CN103314407A (zh) 2013-09-18
AU2012206122A1 (en) 2013-07-04
TWI498885B (zh) 2015-09-01
US20130275142A1 (en) 2013-10-17
RU2013130742A (ru) 2015-01-10
US20170148452A1 (en) 2017-05-25
US10643630B2 (en) 2020-05-05
US10431229B2 (en) 2019-10-01
BR112013017427A2 (pt) 2016-09-27
KR102010220B1 (ko) 2019-08-12
EP3849087A1 (en) 2021-07-14
EP2665061A1 (en) 2013-11-20
MX345045B (es) 2017-01-16
EP2665061B1 (en) 2021-03-03
KR20190047114A (ko) 2019-05-07
KR102048672B1 (ko) 2019-11-25
CN103314407B (zh) 2016-06-15
JP5743137B2 (ja) 2015-07-01
WO2012096230A1 (ja) 2012-07-19
AU2012206122B2 (en) 2017-04-20

Similar Documents

Publication Publication Date Title
JP5743137B2 (ja) 信号処理装置および方法、並びにプログラム
JP5942358B2 (ja) 符号化装置および方法、復号装置および方法、並びにプログラム
AU2012297804B2 (en) Encoding device and method, decoding device and method, and program
JP6075743B2 (ja) 信号処理装置および方法、並びにプログラム
KR101586317B1 (ko) 신호 처리 방법 및 장치
JP6465020B2 (ja) 復号装置および方法、並びにプログラム
JP2003108197A (ja) オーディオ信号復号化装置およびオーディオ信号符号化装置
JP6439843B2 (ja) 信号処理装置および方法、並びにプログラム
JP6210338B2 (ja) 信号処理装置および方法、並びにプログラム
JP2007178529A (ja) 符号化オーディオ信号再生装置及び符号化オーディオ信号再生方法

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140109

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20140109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141201

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20150409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150422

R151 Written notification of patent or utility model registration

Ref document number: 5743137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250