CN106133829A - 声音解码装置、声音编码装置、声音解码方法、声音编码方法、声音解码程序以及声音编码程序 - Google Patents

声音解码装置、声音编码装置、声音解码方法、声音编码方法、声音解码程序以及声音编码程序 Download PDF

Info

Publication number
CN106133829A
CN106133829A CN201580015128.8A CN201580015128A CN106133829A CN 106133829 A CN106133829 A CN 106133829A CN 201580015128 A CN201580015128 A CN 201580015128A CN 106133829 A CN106133829 A CN 106133829A
Authority
CN
China
Prior art keywords
decoding
signal
temporal envelope
information
coded sequence
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201580015128.8A
Other languages
English (en)
Other versions
CN106133829B (zh
Inventor
菊入圭
山口贵史
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Priority to CN201710975669.6A priority Critical patent/CN107767876B/zh
Publication of CN106133829A publication Critical patent/CN106133829A/zh
Application granted granted Critical
Publication of CN106133829B publication Critical patent/CN106133829B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/26Pre-filtering or post-filtering
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/0204Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders using subband decomposition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/028Noise substitution, i.e. substituting non-tonal spectral components by noisy source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/032Quantisation or dequantisation of spectral components
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/08Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters
    • G10L19/12Determination or coding of the excitation function; Determination or coding of the long-term prediction parameters the excitation function being a code excitation, e.g. in code excited linear prediction [CELP] vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/038Speech enhancement, e.g. noise reduction or echo cancellation using band spreading techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/24Variable rate codecs, e.g. for generating different qualities using a scalable representation such as hierarchical encoding or layered encoding

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Quality & Reliability (AREA)
  • Mathematical Physics (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Stereo-Broadcasting Methods (AREA)
  • Reduction Or Emphasis Of Bandwidth Of Signals (AREA)

Abstract

目的在于减轻利用少量的比特数来编码后的频带的分量在时域中的失真而改善质量。在对编码后的声音信号进行解码而输出声音信号的声音解码装置(10)中,解码部(10a)对包含编码后的声音信号的编码序列进行解码而获得解码信号。选择性时间包络整形部(10b)基于与编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。

Description

声音解码装置、声音编码装置、声音解码方法、声音编码方法、 声音解码程序以及声音编码程序
技术领域
本发明涉及声音解码装置、声音编码装置、声音解码方法、声音编码方法、声音解码程序以及声音编码程序。
背景技术
将声音信号、音响信号的数据量压缩成几十分之一的声音编码技术是在信号的传送/储存中极其重要的技术。作为广泛利用的声音编码技术的例子,能够举出在频域中对信号进行编码的变换编码方式。
在变换编码中,为了以低比特率来获得高质量,广泛使用根据输入信号按照每个频带分配编码所需要的比特的自适应比特分配。使编码所造成的失真最小化的比特分配方法是与各频带的信号功率相应的分配,也进行在该分配的基础上考虑了人类的听觉的形式的比特分配。
另一方面,有一种用于改善分配比特数非常少的频带的质量的技术。在专利文献1中公开了如下方法:对所分配的比特数比规定的阈值少的频带的变换系数利用其他频带的变换系数来进行近似化。另外,在专利文献2中公开了如下方法:针对在频带内因为功率较小而量化成零的分量生成伪噪声信号;复制其他频带的未量化成零的分量的信号。
此外,对于声音信号、音响信号来说,一般与高频带相比功率偏集中于低频带,考虑到对主观质量带来的影响也大的情况,也广泛使用频带扩展技术,在该频带扩展技术中使用编码后的低频带来生成输入信号的高频带。在频带扩展技术中,能够利用少量的比特数来生成高频带,因此能够以低比特率来获得高质量。在专利文献3中公开了如下方法:将低频带的频谱复制到高频带后,基于从编码器发送的与高频带频谱的性质相关的信息,调整频谱形状来生成高频带。
现有技术文献
专利文献
专利文献1:日本特开平9-153811号公报
专利文献2:美国特许第7447631号说明书
专利文献3:日本特许第5203077号公报
发明内容
发明要解决的课题
在上述技术中,利用少量的比特数来编码后的频带的分量生成为在频域中与基音的该分量相似。另一方面,有时在时域中失真明显而质量劣化。
鉴于上述问题,本发明的目的在于提供一种减轻利用少量的比特数来编码后的频带的分量在时域中的失真而能够改善质量的声音解码装置、声音编码装置、声音解码方法、声音编码方法、声音解码程序以及声音编码程序。
用于解决课题的手段
为了解决上述课题,本发明的一个方面的声音解码装置对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:解码部,其对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及选择性时间包络整形部,其基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。信号的时间包络表示信号的能量或功率(以及与它们等价的参数)对时间方向的变动。根据本结构,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
另外,本发明的另一个方面的声音解码装置对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:逆复用部,其分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;解码部,其对所述编码序列进行解码而获得解码信号;以及选择性时间包络整形部,其基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。根据本结构,基于在生成输出所述声音信号的编码序列的声音编码装置中参照输入到该声音编码装置的声音信号而生成的时间包络信息,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,解码部具有:解码/逆量化部,其对所述编码序列进行解码或者/以及逆量化而获得频域的解码信号;解码相关信息输出部,其输出所述解码/逆量化部在解码或者/以及逆量化的过程中获得的信息和对所述编码序列进行解析而获得的信息中的至少一个作为解码相关信息;以及时间频率逆变换部,其将所述频域的解码信号变换成时域的信号而输出。根据本结构,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
另外,也可以为,解码部具有:编码序列解析部,其将所述编码序列分离成第1编码序列和第2编码序列;第1解码部,其对所述第1编码序列进行解码或者/以及逆量化而获得第1解码信号,且获得第1解码相关信息作为所述解码相关信息;以及第2解码部,其使用所述第2编码序列和第1解码信号中的至少一个来获得第2解码信号而输出,且输出第2解码相关信息作为所述解码相关信息。根据本结构,即使由多个解码部进行解码而生成解码信号时,也能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,第1解码部具有:第1解码/逆量化部,其对所述第1编码序列进行解码或者/以及逆量化而获得第1解码信号;以及第1解码相关信息输出部,其输出所述第1解码/逆量化部在解码或者/以及逆量化的过程中获得的信息和对所述第1编码序列进行解析而获得的信息中的至少一个作为第1解码相关信息。根据本结构,当由多个解码部进行解码而生成解码信号时,至少基于与第1解码部相关的信息,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,第2解码部具有:第2解码/逆量化部,其使用所述第2编码序列和所述第1解码信号中的至少一个来获得第2解码信号;以及第2解码相关信息输出部,其输出所述第2解码/逆量化部在获得第2解码信号的过程中获得的信息和对所述第2编码序列进行解析而获得的信息中的至少一个作为第2解码相关信息。根据本结构,当由多个解码部进行解码而生成解码信号时,至少基于与第2解码部相关的信息,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,选择性时间包络整形部具有:时间/频率变换部,其将所述解码信号变换成频域的信号;频率选择性时间包络整形部,其基于所述解码相关信息,对所述频域的解码信号进行各频带的时间包络的整形;以及时间/频率逆变换部,其将对所述各频带的时间包络进行了整形后的频域的解码信号变换成时域的信号。根据本结构,能够在频域中将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,解码相关信息是与各频带的编码比特数相关的信息。根据本结构,能够根据各频带的编码比特数将该频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,解码相关信息是与各频带的量化步长相关的信息。根据本结构,能够根据各频带的量化步长将该频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,解码相关信息是与各频带的编码方式相关的信息。根据本结构,能够根据各频带的编码方式将该频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,解码相关信息是与注入到各频带的噪声分量相关的信息。根据本结构,能够根据注入到各频带的噪声分量将该频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,频率选择性时间包络整形部使用滤波器将与对时间包络进行整形的频带对应的所述解码信号整形成期望的时间包络,其中,该滤波器使用了在频域中对该解码信号进行线性预测分析而获得的线性预测系数。根据本结构,能够使用频域中的解码信号将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
也可以为,频率选择性时间包络整形部在频域中将与不对时间包络进行整形的频带对应的所述解码信号置换成其他信号之后,使用滤波器在频域中对与对时间包络进行整形的频率和不对时间包络进行整形的频率对应的解码信号进行滤波处理,由此整形成期望的时间包络,在时间包络整形后,使所述与不对时间包络进行整形的频带对应的解码信号恢复至置换成其他信号之前的原来的信号,其中,该滤波器使用了在频域中对所述与对时间包络进行整形的频率和不对时间包络进行整形的频率对应的解码信号进行线性预测分析而获得的线性预测系数。根据本结构,能够以较少的运算量,使用频域中的解码信号,将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
另外,本发明的另一个方面的声音解码装置对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:解码部,其对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及时间包络整形部,其使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,该滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。根据本结构,能够使用频域中的解码信号将该利用少量的比特数来编码后的解码信号的时间包络整形成期望的时间包络而改善质量。
另外,本发明的另一个方面的声音编码装置对所输入的声音信号进行编码而输出编码序列,该声音编码装置具有:编码部,其对所述声音信号进行编码而获得包含所述声音信号的编码序列;时间包络信息编码部,其对与所述声音信号的时间包络相关的信息进行编码;以及复用部,其对由所述编码部获得的编码序列和由所述时间包络信息编码部获得的与时间包络相关的信息的编码序列进行复用。
另外,本发明的一个方面的方式如下所述地能够作为声音解码方法、声音编码方法、声音解码程序以及声音编码程序来掌握。
即,本发明的一个方面的声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:解码步骤,对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及选择性时间包络整形步骤,基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。
另外,本发明的一个方面的声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:逆复用步骤,分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;解码步骤,对所述编码序列进行解码而获得解码信号;以及选择性时间包络整形步骤,基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。
另外,本发明的一个方面的声音解码程序,使计算机执行下述步骤:解码步骤,对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及选择性时间包络整形步骤,基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。
另外,本发明的一个方面的声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,其使计算机执行下述步骤:逆复用步骤,分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;解码步骤,对所述编码序列进行解码而获得解码信号;以及选择性时间包络整形步骤,基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。
另外,本发明的一个方面的声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:解码步骤,对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及时间包络整形步骤,使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,该滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。
另外,本发明的一个方面的声音编码方法对所输入的声音信号进行编码而输出编码序列的声音编码装置的声音编码方法,该声音编码方法包括:编码步骤,对所述声音信号进行编码而获得包含所述声音信号的编码序列;时间包络信息编码步骤,对与所述声音信号的时间包络相关的信息进行编码;以及复用步骤,对在所述编码步骤中获得的编码序列和在所述时间包络信息编码步骤中获得的与时间包络相关的信息的编码序列进行复用。
另外,本发明的一个方面的声音解码程序使计算机执行下述步骤:解码步骤,对包含编码后的声音信号的编码序列进行解码而获得解码信号;以及时间包络整形步骤,使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,该滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。
另外,本发明的一个方面的声音编码程序使计算机执行下述步骤:编码步骤,对声音信号进行编码而获得包含所述声音信号的编码序列;时间包络信息编码步骤,对与所述声音信号的时间包络相关的信息进行编码;以及复用步骤,对在所述编码步骤中获得的编码序列和在所述时间包络信息编码步骤中获得的与时间包络相关的信息的编码序列进行复用。
发明效果
根据本发明,能够将利用少量的比特数来编码后的频带的解码信号的时间包络整形成期望的时间包络而改善质量。
附图说明
图1是示出第1实施方式的声音解码装置10的结构的图。
图2是示出第1实施方式的声音解码装置10的动作的流程图。
图3是示出第1实施方式的声音解码装置10的解码部10a的第1例的结构的图。
图4是示出第1实施方式的声音解码装置10的解码部10a的第1例的动作的流程图。
图5是示出第1实施方式的声音解码装置10的解码部10a的第2例的结构的图。
图6是示出第1实施方式的声音解码装置10的解码部10a的第2例的动作的流程图。
图7是示出第1实施方式的声音解码装置10的解码部10a的第2例的第1解码部的结构的图。
图8是示出第1实施方式的声音解码装置10的解码部10a的第2例的第1解码部的动作的流程图。
图9是示出第1实施方式的声音解码装置10的解码部10a的第2例的第2解码部的结构的图。
图10是示出第1实施方式的声音解码装置10的解码部10a的第2例的第2解码部的动作的流程图。
图11是示出第1实施方式的声音解码装置10的选择性时间包络整形部10b的第1例的结构的图。
图12是示出第1实施方式的声音解码装置10的选择性时间包络整形部10b的第1例的动作的流程图。
图13是示出时间包络整形处理的说明图。
图14是示出第2实施方式的声音解码装置11的结构的图。
图15是示出第2实施方式的声音解码装置11的动作的流程图。
图16是示出第2实施方式的声音编码装置21的结构的图。
图17是示出第2实施方式的声音编码装置21的动作的流程图。
图18是示出第3实施方式的声音解码装置12的结构的图。
图19是示出第3实施方式的声音解码装置12的动作的流程图。
图20是示出第4实施方式的声音解码装置13的结构的图。
图21是示出第4实施方式的声音解码装置13的动作的流程图。
图22是示出作为本实施方式的声音解码装置或声音编码装置发挥作用的计算机的硬件结构的图。
图23是示出用于作为声音解码装置发挥作用的程序结构的图。
图24是示出用于作为声音编码装置发挥作用的程序结构的图。
具体实施方式
参照附图说明本发明的实施方式。在可能的情况下,对相同的部分标注相同的标号,并省略重复的说明。
[第1实施方式]
图1是示出第1实施方式的声音解码装置10的结构的图。声音解码装置10的通信装置接收对声音信号进行编码而得到的编码序列,进而将解码后的声音信号输出到外部。如图1所示,声音解码装置10功能性地具有解码部10a和选择性时间包络整形部10b。
图2是示出第1实施方式的声音解码装置10的动作的流程图。
解码部10a对编码序列进行解码而生成解码信号(步骤S10-1)。
选择性时间包络整形部10b从上述解码部接收作为对编码序列进行解码时获得的信息的解码相关信息和解码信号,且将解码信号的分量的时间包络选择性地整形成期望的时间包络(步骤S10-2)。此外,在以后的记载中,信号的时间包络表示信号的能量或功率(以及与它们等价的参数)对时间方向的变动。
图3是示出第1实施方式的声音解码装置10的解码部10a的第1例的结构的图。如图3所示,解码部10a功能性地具有解码/逆量化部10aA、解码相关信息输出部10aB以及时间频率逆变换部10aC。
图4是示出第1实施方式的声音解码装置10的解码部10a的第1例的动作的流程图。
解码/逆量化部10aA根据编码序列的编码方式对编码序列实施解码、逆量化中的至少一个而生成频域解码信号(步骤S10-1-1)。
解码相关信息输出部10aB接收由上述解码/逆量化部10aA生成解码信号时获得的解码相关信息,且输出解码相关信息(步骤S10-1-2)。此外,也可以接收并解析编码序列来获得解码相关信息,且输出解码相关信息。作为解码相关信息,例如既可以是按照每个频带的编码比特数,也可以是与其同等的信息(例如按照每个频带的每1个频率分量的平均编码比特数)。此外,也可以是按照每个频率分量的编码比特数。此外,也可以是按照每个频带的量化步长大小。此外,也可以是频率分量的量化值。在此,频率分量是例如规定的时间频率变换的变换系数。此外,也可以是按照每个频带的能量或功率。此外,也可以是提示规定的频带(也可以是频率分量)的信息。此外,例如在进行解码信号生成时包含其他的时间包络整形相关的处理的情况下,可以是与该时间包络整形处理相关的信息,例如也可以是下述信息中的至少一个信息:是否进行该时间包络整形处理的信息;与通过该时间包络整形处理整形的时间包络相关的信息;该时间包络整形处理的时间包络整形的强度的信息。将上述例中的至少一个信息作为解码相关信息来输出。
时间频率逆变换部10aC将上述频域解码信号通过规定的时间频率逆变换而变换成时域的解码信号而输出(步骤S10-1-3)。不过,也可以不对频域解码信号实施时间频率逆变换而输出。例如,相应于选择性时间包络整形部10b请求频域的信号作为输入信号的情况。
图5是示出第1实施方式的声音解码装置10的解码部10a的第2例的结构的图。如图5所示,解码部10a功能性地具有编码序列解析部10aD、第1解码部10aE以及第2解码部10aF。
图6是示出第1实施方式的声音解码装置10的解码部10a的第2例的动作的流程图。
编码序列解析部10aD对编码序列进行解析而分离成第1编码序列和第2编码序列(步骤S10-1-4)。
第1解码部10aE通过第1解码方式对第1编码序列进行解码而生成第1解码信号,且输出作为与该解码相关的信息的第1解码相关信息(步骤S10-1-5)。
第2解码部10aF使用上述第1解码信号通过第2解码方式对第2编码序列进行解码而生成解码信号,且输出作为与该解码相关的信息的第2解码相关信息(步骤S10-1-6)。在本例中,将该第1解码相关信息和第2解码相关信息加在一起得到的是解码相关信息。
图7是示出第1实施方式的声音解码装置10的解码部10a的第2例的第1解码部的结构的图。如图7所示,第1解码部10aE功能性地具有第1解码/逆量化部10aE-a和第1解码相关信息输出部10aE-b。
图8是示出第1实施方式的声音解码装置10的解码部10a的第2例的第1解码部的动作的流程图。
第1解码/逆量化部10aE-a根据第1编码序列的编码方式对第1编码序列实施解码、逆量化中的至少一个而生成第1解码信号而输出(步骤S10-1-5-1)。
第1解码相关信息输出部10aE-b接收由上述第1解码/逆量化部10aE-a生成第1解码信号时获得的第1解码相关信息,且输出第1解码相关信息(步骤S10-1-5-2)。此外,也可以接收且解析第1编码序列而获得第1解码相关信息,且输出第1解码相关信息。作为第1解码相关信息的例子,也可以与上述解码相关信息输出部10aB输出的解码相关信息的例子相同。此外,也可以将表示第1解码部的解码方式是第1解码方式的信息作为第1解码相关信息。此外,也可以将表示第1解码信号所包含的频带(也可以是频率分量)(在第1编码序列中编码后的声音信号的频带(也可以是频率分量))的信息作为第1解码相关信息。
图9是示出第1实施方式的声音解码装置10的解码部10a的第2例的第2解码部的结构的图。如图9所示,第2解码部10aF功能性地具有第2解码/逆量化部10aF-a、第2解码相关信息输出部10aF-b以及解码信号合成部10aF-c。
图10是示出第1实施方式的声音解码装置10的解码部10a的第2例的第2解码部的动作的流程图。
第2解码/逆量化部10aF-1根据第2编码序列的编码方式对第2编码序列实施解码、逆量化中的至少一个而生成第2解码信号而输出(步骤s10-1-6-1)。当生成第2解码信号时,也可以使用第1解码信号。第2解码部的解码方式(第2解码方式)可以是频带扩展方式,也可以是使用了第1解码信号的频带扩展方式。此外,也可以是如专利文献1(日本特开平9-153811号公报)所示那样与对通过第1编码方式分配的比特数比规定的阈值少的频带的变换系数通过第2编码方式利用其他频带的变换系数来进行近似化的编码方式对应的解码方式。另外,还可以是如专利文献2(美国特许第7447631)所示那样与针对通过第1编码方式量化为零的频率的分量通过第2编码方式生成伪噪声信号或者复制其他频率分量的信号的编码方式对应的解码方式。此外,也可以是与对该频率的分量通过第2编码方式使用其他频率分量的信号来进行近似化的编码方式对应的解码方式。另外,通过第1编码方式量化为零的频率的分量也可以解释成未通过第1编码方式编码的频率的分量。在这些情况下,可以设为:与第1编码方式对应的解码方式是作为第1解码部的解码方式的第1解码方式,与第2编码方式对应的解码方式是作为第2解码部的解码方式的第2解码方式。
第2解码相关信息输出部10aF-b接收由上述第2解码/逆量化部10aF-a生成第2解码信号时获得的第2解码相关信息,且输出第2解码相关信息(步骤S10-1-6-2)。此外,也可以接收且解析第2编码序列而获得第2解码相关信息,且输出第2解码相关信息。作为第2解码相关信息的例子,也可以与上述解码相关信息输出部10aB输出的解码相关信息的例子相同。
此外,也可以将表示第2解码部的解码方式是第2解码方式的信息作为第2解码相关信息。例如,也可以将表示第2解码方式是频带扩展方式的信息作为第2解码相关信息。此外,例如也可以将表示针对通过频带扩展方式生成的第2解码信号的各频带的频带扩展方式的信息作为第2解码信息。作为表示针对该各频带的频带扩展方式的信息,例如也可以是从其他频带复制了信号的、利用其他频带的信号对该频率的信号进行了近似化的、生成了伪噪声信号的、附加了正弦波信号等的信息。此外,例如也可以是利用其他频带的信号对该频率的信号进行近似化时与近似化方法相关的信息。此外,例如在利用其他频带的信号对该频率的信号进行近似化时采用了白化的情况下,也可以将与白化的强度相关的信息作为第2解码信息。此外,例如在利用其他频带的信号对该频率的信号进行近似化时附加了伪噪声信号的情况下,也可以将与伪噪声信号的电平相关的信息作为第2解码信息。此外,例如在生成了伪噪声信号的情况下,也可以将与伪噪声信号的电平相关的信息作为第2解码信息。
此外,例如也可以将下述信息作为第2解码相关信息:该下述信息表示第2解码方式是与对通过第1编码方式分配的比特数比规定的阈值少的频带的变换系数进行利用其他频带的变换系数的近似化以及伪噪声信号的变换系数的附加(也可以是置换)中的任一方或者双方的编码方式对应的解码方式。例如,也可以将与该频带的变换系数的近似化方法相关的信息作为第2解码相关信息。例如,在作为近似化方法使用了对其他频带的变换系数进行白化的方法的情况下,也可以将与白化的强度相关的信息作为第2解码信息。例如,也可以将与该伪噪声信号的电平相关的信息作为第2解码信息。
此外,例如,也可以将下述信息作为第2解码相关信息:该下述信息表示第2编码方式是针对通过第1编码方式量化为零的(即未通过第1编码方式编码的)频率的分量生成伪噪声信号或者复制其他频率分量的信号的编码方式。例如,也可以将针对各频率分量表示是否为通过第1编码方式量化为零的(即未通过第1编码方式编码的)频率的分量的信息作为第2解码相关信息。例如,也可以将表示针对该频率分量生成伪噪声信号还是复制其他频率分量的信号的信息作为第2解码相关信息。此外,例如在针对该频率分量复制其他频率分量的信号的情况下,也可以将与复制方法相关的信息作为第2解码相关信息。作为与复制方法相关的信息,例如也可以是复制源的频率。此外,例如也可以是进行复制时对复制源的频率分量是否施加处理、在此之上与所施加的处理相关的信息。此外,例如在对该复制源的频率分量施加的处理是白化的情况下,也可以是与白化的强度相关的信息。此外,例如在对该复制源的频率分量施加的处理是伪噪声信号附加的情况下,也可以是与伪噪声信号的电平相关的信息。
解码信号合成部10aF-c由第1解码信号和第2解码信号合成解码信号而输出(步骤S10-1-6-3)。在第2编码方式是频带扩展方式的情况下,一般来讲,第1解码信号是低频带的信号,第2解码信号是高频带的信号,从而解码信号具有这些双方的频带。
图11是示出第1实施方式的声音解码装置10的选择性时间包络整形部10b的第1例的结构的图。如图11所示,选择性时间包络整形部10b功能性地具有时间频率变换部10bA、频率选择部10bB、频率选择性时间包络整形部10bC以及时间频率逆变换部10bD。
图12是示出第1实施方式的声音解码装置10的选择性时间包络整形部10b的第1例的动作的流程图。
时间频率变换部10bA通过规定的时间频率变换将时域的解码信号变换成频域的解码信号(步骤S10-2-1)。不过,在解码信号是频域的信号的情况下,可省略该时间频率变换部10bA和该处理步骤S10-2-1。
频率选择部10bB使用频域的解码信号和解码相关信息中的至少一个,选择在频域的解码信号中实施时间包络整形处理的频带(步骤S10-2-2)。上述频率选择处理也可以选择实施时间包络整形处理的频率分量。该被选择的频带(也可以是频率分量)可以是解码信号中的一部分的频带(也可以是频率分量),还可以是解码信号的所有的频带(也可以是频率分量)。
例如,在解码相关信息是按照每个频带的编码比特数的情况下,也可以选择该编码比特数比规定的阈值小的频带作为实施时间包络整形处理的频带。即使在与上述按照每个频带的编码比特数同等的信息的情况下,也同样地通过与规定的阈值进行比较而能够选择实施时间包络整形处理的频带是明确的。此外,例如,在解码相关信息是按照每个频率分量的编码比特数的情况下,也可以选择该编码比特数比规定的阈值小的频率分量作为实施时间包络整形处理的频率分量。例如,也可以选择未对变换系数进行编码的频率分量作为实施时间包络整形处理的频率分量。此外,例如在解码相关信息是按照每个频带的量化步长大小的情况下,也可以选择该量化步长大小比规定的阈值大的频带作为实施时间包络整形处理的频带。此外,例如在解码相关信息是频率分量的量化值的情况下,也可以对该量化值与规定的阈值比较而选择实施时间包络整形处理的频带。例如,也可以选择量化变换系数比规定的阈值小的分量作为实施时间包络整形处理的频率分量。此外,例如在解码相关信息是按照每个频带的能量或功率的情况下,也可以对该能量或功率与规定的阈值进行比较而选择实施时间包络整形处理的频带。例如,在作为选择性时间包络整形处理对象的频带的能量或功率比规定的阈值小的情况下,也可以对该频带不实施时间包络整形处理。
此外,例如在解码相关信息是其他的时间包络整形处理相关的信息的情况下,也可以选择未实施该时间包络整形处理的频带作为本发明中的实施时间包络整形处理的频带。
此外,例如在解码部10a是解码部10a的第2例中记载的结构、且解码相关信息是第2解码部的编码方式的情况下,也可以选择根据第2解码部的编码方式由第2解码部解码的频带作为实施时间包络整形处理的频带。例如,在第2解码部的编码形式是频带扩展方式的情况下,也可以选择由第2解码部解码的频带作为实施时间包络整形处理的频带。例如,在第2解码部的编码形式是时域中的频带扩展方式的情况下,也可以选择由第2解码部解码的频带作为实施时间包络整形处理的频带。例如,在第2解码部的编码形式是频域中的频带扩展方式的情况下,也可以选择由第2解码部解码的频带作为实施时间包络整形处理的频带。例如,也可以选择通过频带扩展方式利用其他频带复制了信号的频带作为实施时间包络整形处理的频带。例如,也可以选择通过频带扩展方式使用其他频带的信号对该频率的信号进行了近似化的频带作为实施时间包络整形处理的频带。例如,也可以选择通过频带扩展方式生成了伪噪声信号的频带作为实施时间包络整形处理的频带。例如,也可以选择除了通过频带扩展方式附加了正弦波信号的频带以外的频带作为实施时间包络整形处理的频带。
此外,例如在解码部10a是解码部10a的第2例中记载的结构、且第2编码方式是对通过第1编码方式分配的比特数比规定的阈值少的频带或分量(也可以是未通过第1编码方式编码的频带或分量)的变换系数进行使用了其他频带或分量的变换系数的近似化以及伪噪声信号的变换系数的附加(也可以是置换)中的任一方或者双方的编码方式的情况下,也可以选择对变换系数使用其他频带或分量的变换系数来进行了近似化的频带或分量作为实施时间包络整形处理的频带或分量。例如,也可以选择附加(也可以是置换)了伪噪声信号的变换系数的频带或分量作为实施时间包络整形处理的频带或分量。例如,也可以根据对变换系数使用其他频带或分量的变换系数来进行近似化时的近似化方法,作为实施时间包络整形处理的频带或分量进行选择。例如,在作为近似化方法使用了对其他频带或分量的变换系数进行白化的方法的情况下,也可以根据白化的强度来选择实施时间包络整形处理的频带或分量。例如,在附加(也可以是置换)伪噪声信号的变换系数的情况下,也可以根据该伪噪声信号的电平来选择实施时间包络整形处理的频带或分量。
此外,例如在解码部10a是解码部10a的第2例中记载的结构、且第2编码方式是针对通过第1编码方式量化为零的(即未通过第1编码方式编码的)频率的分量生成伪噪声信号或者复制(也可以是使用了其他频率分量的信号的近似化)其他频率分量的信号的编码方式的情况下,也可以选择生成了伪噪声信号的频率分量作为实施时间包络整形处理的频率分量。例如,也可以选择复制(也可以是使用其他频率分量的信号进行的近似化)了其他频率分量的信号的频率分量作为实施时间包络整形处理的频率分量。例如,在针对该频率分量复制(也可以使用其他频率分量的信号进行的近似化)其他频率分量的信号的情况下,也可以根据复制源(近似化源)的频率来选择实施时间包络整形处理的频率分量。例如,也可以根据进行复制时是否对复制源的频率分量施加处理来选择实施时间包络整形处理的频率分量。例如,也可以根据进行复制(也可以是近似化)时对复制源(近似化源)的频率分量施加的处理来选择实施时间包络整形处理的频率分量。例如,在对该复制源(近似化源)的频率分量施加的处理是白化的情况下,也可以根据白化的强度来选择实施时间包络整形处理的频率分量。例如,也可以根据进行近似化时的近似化方法来选择实施时间包络整形处理的频率分量。
频率分量或频带的选择方法也可以组合上述例子。另外,使用频域的解码信号和解码相关信息中的至少一个来选择在频域的解码信号中实施时间包络整形处理的频率分量或频带即可,频率分量或频带的选择方法不限于上述例子。
频率选择性时间包络整形部10bC将解码信号的上述频率选择部10bB所选择的频带的时间包络整形成期望的时间包络(步骤S10-2-3)。上述时间包络整形的实施也可以是频率分量单位。
时间包络的整形方法例如也可以是通过由使用了对所选择的频带的变换系数进行线性预测分析而获得的线性预测系数的线性预测逆滤波器进行滤波而使时间包络平坦的方法。该线性预测逆滤波器的传递函数A(z)是表示离散时间系统中的该线性预测逆滤波器的应答的函数,可由
[数学式1]
A ( z ) = 1 + Σ i = 1 p a 1 z - 1 ... ( 1 )
表示。p是预测次数,αi(i=1,..,p)是线性预测系数。例如,也可以是通过由使用了该线性预测系数的线性预测滤波器对所选择的频带的变换系数进行滤波而使时间包络上升或者/以及下降的方法。该线性预测滤波器的传递函数可由
[数学式2]
1 A ( z ) = 1 1 + Σ i = 1 p α i z - i ... ( 2 )
表示。
在使用上述线性预测系数的时间包络整形处理中,也可以使用带宽放大率ρ来调整使时间包络平坦或者上升或者/以及下降的强度。
[数学式3]
A ( z ) = 1 + Σ i = 1 p α i ρ i z - i ... ( 3 )
[数学式4]
1 A ( z ) = 1 1 + Σ i = 1 p α i ρ i z - i ... ( 4 )
在上述例子中,也可以不仅对将解码信号进行时间频率变换而得到的变换系数进行处理,还对通过滤波器组(filter bank)将解码信号变换成频域的信号而获得的子带信号在任意时间t的子样本(sub sample)进行处理。在上述例子中,通过在频域中对解码信号实施基于线性预测分析的滤波,来改变解码信号在时域中的功率的分布,能够对时间包络进行整形。
此外,例如,也可以通过使利用滤波器组将解码信号变换成频域的信号而得到的子带信号的振幅在任意的时间片段中成为实施时间包络整形处理的频率分量(或频带)的平均振幅,使时间包络平坦。由此,能够在原样保持时间包络整形处理前的该时间片段的该频率分量(或频带)的能量的状态下,使时间包络平坦。同样,也可以在原样保持时间包络整形处理前的该时间片段的该频率分量(或频带)的能量的状态下,通过变更子带信号的振幅而使时间包络上升/下降。
此外,例如如图13所示,也可以在包含未被上述频率选择部10bB选择作为对时间包络进行整形的频率分量或频带的频率分量或频带(称为非选择频率分量或非选择频带)在内的频带中,将解码信号的非选择频率分量(也可以是非选择频带)的变换系数(或子样本)置换成其他值之后,通过上述时间包络整形方法实施了时间包络整形处理之后,使该非选择频率分量(也可以是非选择频带)的变换系数(或子样本)恢复到置换前的原来的值,由此,对除了非选择频率分量(也可以是非选择频带)以外的频率分量(频带)实施时间包络整形处理。
由此,即使在由于非选择频率分量(或非选择频带)零散而实施时间包络整形处理的频率分量(或频带)被细密分割的情况下,也能够对被分割的频率分量(或频带)集中地进行时间包络整形处理,能够削减运算量。例如,在使用上述线性预测分析的时间包络整形方法中,对被细密地分割的实施时间包络整形处理的频率分量(或频带)进行线性预测分析,与此相对,对该被分割的频率分量(或频带)还包含非选择频率分量(或非选择频带)而集中地进行一次线性预测分析即可,此外,关于使用线性预测逆滤波器(也可以是线性预测滤波器)的滤波处理,也可以对该被分割的频率分量(或频带)还包含非选择频率分量(或非选择频带)而集中地通过一次滤波进行,能够实现低运算量。
关于该非选择频率分量(也可以是非选择频带)的变换系数(或子样本)的置换,例如也可以使用包含该非选择频率分量(也可以是非选择频带)的变换系数(或子样本)和其邻近的频率分量(或者也可以是频带)的振幅的平均值,置换该非选择频率分量(也可以是非选择频带)的变换系数(或子样本)的振幅。此时,例如,变换系数的符号可以维持原来的变换系数的符号,子样本的相位可以维持原来的子样本的相位。此外,例如,在未对该频率分量(也可以是频带)的变换系数(或子样本)进行量化/编码、且通过利用其他频率分量(也可以是频带)的变换系数(或子样本)进行的复制/近似化、或者/以及伪噪声信号的生成/附加、以及/或者正弦波信号的附加而生成的频率分量(也可以是频带)被选择为实施时间包络整形处理的情况下,也可以将非选择频率分量(也可以是非选择频带)的变换系数(或子样本)伪置换成通过利用其他频率分量(也可以是频带)的变换系数(或子样本)进行的复制/近似化、或者/以及伪噪声信号的生成/附加、以及/或者正弦波信号的附加而生成的变换系数(或子样本)。所选择的频带的时间包络的整形方法也可以组合上述方法,时间包络整形方法不限于上述例子。
时间频率逆变换部10bD将频率选择性地实施了时间包络整形的解码信号变换成时域的信号而输出(步骤S10-2-4)。
[第2实施方式]
图14是示出第2实施方式的声音解码装置11的结构的图。声音解码装置11的通信装置接收对声音信号进行编码而得到的编码序列,进而将解码后的声音信号输出到外部。如图14所示,声音解码装置11功能性地具有逆复用部11a、解码部10a以及选择性时间包络整形部11b。
图15是示出第2实施方式的声音解码装置11的动作的流程图。
逆复用部11a分离成对编码序列进行解码/逆量化而获得解码信号的编码序列和时间包络信息(步骤S11-1)。解码部10a对编码序列进行解码而生成解码信号(步骤S10-1)。在对时间包络信息进行了编码或者/以及量化的情况下,进行解码或者/以及逆量化而获得时间包络信息。
作为时间包络信息,例如,也可以是表示由编码装置编码后的输入信号的时间包络是平坦的信息。例如,也可以是表示该输入信号的时间包络是上升的信息。例如,也可以是表示该输入信号的时间包络是下降的信息。
此外,例如,时间包络信息可以是表示该输入信号的时间包络的平坦的程度的信息,例如既可以是表示该输入信号的时间包络的上升的程度的信息,例如也可以是表示该输入信号的时间包络的下降的程度的信息。
此外,例如,时间包络信息也可以是表示是否由选择性时间包络整形对时间包络进行整形的信息。
选择性时间包络整形部11b从解码部10a接收作为对编码序列进行解码时获得的信息的解码相关信息和解码信号,且从上述逆复用部接收时间包络信息,且根据这些中的至少一个,将解码信号的分量的时间包络选择性地整形成期望的时间包络(步骤S11-2)。
选择性时间包络整形部11b中的选择性时间包络整形的方法,例如可以与选择性时间包络整形部10b相同,还可以考虑时间包络信息而实施选择性时间包络整形。例如,在时间包络信息是表示由编码装置编码后的输入信号的时间包络是平坦的信息的情况下,可基于该信息,将时间包络整形成平坦。例如,在时间包络信息是表示该输入信号的时间包络是上升的信息的情况下,可基于该信息,将时间包络整形成上升。例如,在时间包络信息是表示该输入信号的时间包络是下降的信息的情况下,可基于该信息,将时间包络整形成下降。
此外,例如,在时间包络信息是表示该输入信号的时间包络的平坦的程度的信息的情况下,可基于该信息,调整使时间包络平坦的强度。例如,在时间包络信息是表示该输入信号的时间包络的上升的程度的信息的情况下,可基于该信息,调整使时间包络上升的强度。例如,在时间包络信息是表示该输入信号的时间包络的下降的程度的信息的情况下,可基于该信息,调整使时间包络下降的强度。
此外,例如,在时间包络信息是表示是否由选择性时间包络整形部11b对时间包络进行整形的信息的情况下,可基于该信息,决定是否实施时间包络整形处理。
此外,例如,每当利用上述例子的时间包络信息基于该时间包络信息实施时间包络整形处理时,也可以与第1实施方式同样地选择实施时间包络整形的频带(也可以是频率分量),且将解码信号中的该被选择的频带(也可以是频率分量)的时间包络整形成期望的时间包络。
图16是示出第2实施方式的声音编码装置21的结构的图。声音编码装置21的通信装置从外部接收作为编码对象的声音信号,进而向外部输出进行编码而得到的编码序列。如图16所示,声音编码装置21功能性地具有编码部21a、时间包络信息编码部21b以及复用部21c。
图17是示出第2实施方式的声音编码装置21的动作的流程图。
编码部21a对所输入的声音信号进行编码而生成编码序列(步骤S21-1)。编码部21a中的声音信号的编码方式是与上述解码部10a的解码方式对应的编码方式。
时间包络信息编码部21b根据所输入的声音信号和由上述编码部21a对声音信号进行编码时获得的信息中的至少一个,生成时间包络信息。也可以对所生成的时间包络信息进行编码/量化(步骤S21-2)。时间包络信息例如也可以是由上述声音解码装置11的逆复用部11a获得的时间包络信息。
此外,例如当由声音解码装置11的解码部生成解码信号时进行与不同于本发明的时间包络整形相关的处理、且在声音编码装置21中保持与该时间包络整形处理相关的信息的情况下,也可以使用该信息来生成时间包络信息。例如,也可以基于是否进行不同于本发明的时间包络处理的信息,生成表示是否由声音解码装置11的选择性时间包络整形部11b对时间包络进行整形的信息。
此外,例如当在上述声音解码装置11的选择性时间包络整形部11b中实施上述第1实施方式的声音解码装置10的选择性时间包络整形部10b的第1例所记载的使用了线性预测分析的时间包络整形的处理的情况下,也可以使用与该时间包络整形处理中的线性预测分析同样地对所输入的声音信号的变换系数(也可以是子带样本)进行线性预测分析而得到的结果来生成时间包络信息。具体而言,例如也可以计算基于该线性预测分析的预测增益,且基于该预测增益生成时间包络信息。当计算预测增益时,可以对所输入的声音信号的所有频带的变换系数(也可以是子带样本)进行线性预测分析,还可以对所输入的声音信号的一部分频带的变换系数(也可以是子带样本)进行线性预测分析。此外,也可以将所输入的声音信号分割成多个频带且按照每个该频带进行变换系数(也可以是子带样本)的线性预测分析,此时,能够计算多个预测增益,也可以使用该多个预测增益来生成时间包络信息。
此外,例如,关于由上述编码部21a对声音信号进行编码时获得的信息,在解码部10a是上述第2例的结构的情况下,也可以是通过与第1解码方式对应的编码方式(第1编码方式)进行编码时获得的信息和通过与第2解码方式对应的编码方式(第2编码方式)进行编码时获得的信息中的至少一个。
复用部21c对由上述编码部获得的编码序列和由上述时间包络信息编码部获得的时间包络信息进行复用而输出(步骤S21-3)。
[第3实施方式]
图18是示出第3实施方式的声音解码装置12的结构的图。声音解码装置12的通信装置接收对声音信号进行编码而得到的编码序列,进而将解码后的声音信号输出到外部。如图18所示,声音解码装置12功能性地具有解码部10a以及时间包络整形部12a。
图19是示出第3实施方式的声音解码装置12的动作的流程图。解码部10a对编码序列进行解码而生成解码信号(步骤S10-1)。此外,时间包络整形部12a将从上述解码部10a输出的解码信号的时间包络整形成期望的时间包络(步骤S12-1)。时间包络的整形方法与上述第1实施方式同样地可以是通过由使用了对解码信号的变换系数进行线性预测分析而获得的线性预测系数的线性预测逆滤波器进行滤波而使时间包络平坦的方法,也可以是通过由使用了该线性预测系数的线性预测滤波器进行滤波而使时间包络上升或者/以及下降的方法,还可以使用带宽放大率来控制平坦/上升/下降的强度,此外,也可以代替解码信号的变换系数而对利用滤波器组将解码信号变换成频域的信号而获得的子带信号的任意在时间t的子样本实施上述例子的时间包络整形。此外,可以与上述第1实施方式同样地在任意的时间片段修正该子带信号的振幅以使成为期望的时间包络,例如也可以通过设为实施时间包络整形处理的频率分量(或频带)的平均振幅而使时间包络平坦。上述时间包络整形可以在解码信号的所有频带中实施,也可以在规定的频带中实施。
[第4实施方式]
图20是示出第4实施方式的声音解码装置13的结构的图。声音解码装置13的通信装置接收对声音信号进行编码而得到的编码序列,进而将解码后的声音信号输出到外部。如图20所示,声音解码装置13功能性地具有逆复用部11a、解码部10a以及时间包络整形部13a。
图21是示出第4实施方式的声音解码装置13的动作的流程图。逆复用部11a分离成对编码序列进行解码/逆量化而获得解码信号的编码序列和时间包络信息(步骤S11-1),解码部10a对编码序列进行解码而生成解码信号(步骤S10-1)。此外,时间包络整形部13a从逆复用部11a接收时间包络信息,且基于该时间包络信息将从解码部10a输出的解码信号的时间包络整形成期望的时间包络(步骤S13-1)。
该时间包络信息与上述第2实施方式同样地可以是表示由编码装置编码后的输入信号的时间包络是平坦的信息,也可以是表示该输入信号的时间包络是上升的信息、表示该输入信号的时间包络是下降的信息,此外,例如可以是表示该输入信号的时间包络的平坦的程度的信息、表示该输入信号的时间包络的上升的程度的信息、表示该输入信号的时间包络的下降的程度的信息,还可以是表示是否由时间包络整形部13a对时间包络进行整形的信息。
[硬件结构]
上述声音解码装置10、11、12、13以及声音编码装置21分别由CPU等硬件构成。图11是示出声音解码装置10、11、12、13以及声音编码装置21各自的硬件结构的一例的图。如图11所示,声音解码装置10、11、12、13以及声音编码装置21作为计算机系统构成,该计算机系统在物理上分别包含CPU 100、作为主存储装置的RAM 101和ROM 102、显示器等输入输出装置103、通信模块104以及辅助存储装置105等。
关于声音解码装置10、11、12、13以及声音编码装置21各自的各功能块的功能,分别通过如下方式实现:在图22所示的CPU 100、RAM 101等硬件上读入规定的计算机软件,由此,在CPU 100的控制下使输入输出装置103、通信模块104以及辅助存储装置105进行动作,并且进行RAM 101中的数据的读出及写入。
[程序结构]
接着,说明用于使计算机执行上述声音解码装置10、11、12、13以及声音编码装置21各自的处理的声音解码程序50和声音编码程序60。
如图23所示,声音解码程序50储存于插入到计算机中而被访问的、或者计算机所具有的存储介质40中形成的程序储存区域41内。更具体而言,声音解码程序50储存于声音解码装置10所具有的存储介质40中形成的程序储存区域41内。
声音解码程序50通过执行解码模块50a、选择性时间包络整形模块50b而实现的功能分别与上述声音解码装置10的解码部10a、选择性时间包络整形部10b的功能相同。此外,解码模块50a具有用于作为解码/逆量化部10aA、解码相关信息输出部10aB以及时间频率逆变换部10aC发挥作用的模块。另外,解码模块50a也可以具有用于作为编码序列解析部10aD、第1解码部10aE以及第2解码部10aF发挥作用的模块。
另外,选择性时间包络整形模块50b具有用于作为时间频率变换部10bA、频率选择部10bB、频率选择性时间包络整形部10bC、时间频率逆变换部10bD发挥作用的模块。
另外,声音解码程序50为了作为上述声音解码装置11发挥作用,而具有用于作为逆复用部11a、解码部10a以及选择性时间包络整形部11b发挥作用的模块。
另外,声音解码程序50为了作为上述声音解码装置12发挥作用,而具有用于作为解码部10a以及时间包络整形部12a发挥作用的模块。
另外,声音解码程序50为了作为声音解码装置13发挥作用,而具有用于作为逆复用部11a、解码部10a以及时间包络整形部13a发挥作用的模块。
另外,如图24所示,声音编码程序60储存于插入到计算机中而被访问的、或者计算机所具有的存储介质40中形成的程序储存区域41内。更具体而言,声音编码程序60储存于声音编码装置20所具有的存储介质40中形成的程序储存区域41内。
声音编码程序60构成为具有编码模块60a、时间包络信息编码模块60b以及复用模块60c。通过执行编码模块60a、时间包络信息编码模块60b以及复用模块60c而实现的功能分别与上述声音编码装置21的编码部21a、时间包络信息编码部21b以及复用部21c的功能相同。
此外,也可以是将声音解码程序50和声音编码程序60各自其一部分或全部经由通信线路等传送介质进行传送而由其他设备进行接收并记录(包括安装)的结构。另外,声音解码程序50和声音编码程序60各自的各模块也可以安装于多台计算机中的任意台而不是1台计算机。在该情况下,由该多台计算机的计算机系统执行上述声音解码程序50和声音编码程序60各自的处理。
标号说明
10aF-1:逆量化部;10:声音解码装置;10a:解码部;10aA:解码/逆量化部;10aB:解码相关信息输出部;10aC:时间频率逆变换部;10aD:编码序列解析部;10aE:第1解码部;10aE-a:第1解码/逆量化部;10aE-b:第1解码相关信息输出部;10aF:第2解码部;10aF-a:第2解码/逆量化部;10aF-b:第2解码相关信息输出部;10aF-c:解码信号合成部;10b:选择性时间包络整形部;10bA:时间频率变换部;10bB:频率选择部;10bC:频率选择性时间包络整形部;10bD:时间频率逆变换部;11:声音解码装置;11a:逆复用部;11b:选择性时间包络整形部;12:声音解码装置;12a:时间包络整形部;13:声音解码装置;13a:时间包络整形部;21:声音编码装置;21a:编码部;21b:时间包络信息编码部;21c:复用部。

Claims (23)

1.一种声音解码装置,其对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:
解码部,其对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及
选择性时间包络整形部,其基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。
2.一种声音解码装置,其对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:
逆复用部,其分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;
解码部,其对所述编码序列进行解码而获得解码信号;以及
选择性时间包络整形部,其基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。
3.根据权利要求1或2所述的声音解码装置,其中,
所述解码部具有:
解码/逆量化部,其对所述编码序列执行解码和逆量化中的至少任一方的处理而获得频域的解码信号;
解码相关信息输出部,其输出所述解码/逆量化部在解码和逆量化中的至少任一方的处理的过程中获得的信息和对所述编码序列进行解析而获得的信息中的至少一个作为解码相关信息;以及
时间频率逆变换部,其将所述频域的解码信号变换成时域的信号而输出。
4.根据权利要求1或2所述的声音解码装置,其中,
所述解码部具有:
编码序列解析部,其将所述编码序列分离成第1编码序列和第2编码序列;
第1解码部,其对所述第1编码序列执行解码和逆量化中的至少任一方的处理而获得第1解码信号,且获得第1解码相关信息作为所述解码相关信息;以及
第2解码部,其使用所述第2编码序列和第1解码信号中的至少一个来获得第2解码信号而输出,且输出第2解码相关信息作为所述解码相关信息。
5.根据权利要求4所述的声音解码装置,其中,
所述第1解码部具有:
第1解码/逆量化部,其对所述第1编码序列执行解码和逆量化中的至少任一方的处理而获得第1解码信号;以及
第1解码相关信息输出部,其输出所述第1解码/逆量化部在解码和逆量化中的至少任一方的处理的过程中获得的信息和对所述第1编码序列进行解析而获得的信息中的至少一个作为第1解码相关信息。
6.根据权利要求4所述的声音解码装置,其中,
所述第2解码部具有:
第2解码/逆量化部,其使用所述第2编码序列和所述第1解码信号中的至少一个来获得第2解码信号;以及
第2解码相关信息输出部,其输出所述第2解码/逆量化部在获得第2解码信号的过程中获得的信息和对所述第2编码序列进行解析而获得的信息中的至少一个作为第2解码相关信息。
7.根据权利要求1至6中任一项所述的声音解码装置,其中,
所述选择性时间包络整形部具有:
时间/频率变换部,其将所述解码信号变换成频域的信号;
频率选择性时间包络整形部,其基于所述解码相关信息,对所述频域的解码信号进行各频带的时间包络的整形;以及
时间/频率逆变换部,其将对所述各频带的时间包络进行了整形后的频域的解码信号变换成时域的信号。
8.根据权利要求1至7中任一项所述的声音解码装置,其中,
所述解码相关信息是与各频带的编码比特数相关的信息。
9.根据权利要求1至7中任一项所述的声音解码装置,其中,
所述解码相关信息是与各频带的量化步长相关的信息。
10.根据权利要求1至7中任一项所述的声音解码装置,其中,
所述解码相关信息是与各频带的编码方式相关的信息。
11.根据权利要求1至7中任一项所述的声音解码装置,其中,
所述解码相关信息是与注入到各频带的噪声分量相关的信息。
12.根据权利要求1至11中任一项所述的声音解码装置,其中,
所述选择性时间包络整形部使用滤波器将与对时间包络进行整形的频带对应的所述解码信号整形成期望的时间包络,其中,所述滤波器使用了在频域中对该解码信号进行线性预测分析而获得的线性预测系数。
13.根据权利要求1至11中任一项所述的声音解码装置,其中,
所述选择性时间包络整形部在频域中将与不对时间包络进行整形的频带对应的所述解码信号置换成其他信号之后,使用滤波器在频域中对与对时间包络进行整形的频率和不对时间包络进行整形的频率对应的解码信号进行滤波处理,由此整形成期望的时间包络,在时间包络整形后,使所述与不对时间包络进行整形的频带对应的解码信号恢复至置换成其他信号之前的原来的信号,其中,所述滤波器使用了在频域中对所述与对时间包络进行整形的频率和不对时间包络进行整形的频率对应的解码信号进行线性预测分析而获得的线性预测系数。
14.一种声音解码装置,其对编码后的声音信号进行解码而输出声音信号,该声音解码装置具有:
解码部,其对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及
时间包络整形部,其使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,所述滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。
15.一种声音编码装置,其对所输入的声音信号进行编码而输出编码序列,该声音编码装置具有:
编码部,其对所述声音信号进行编码而获得包含所述声音信号的编码序列;
时间包络信息编码部,其对与所述声音信号的时间包络相关的信息进行编码;以及
复用部,其对由所述编码部获得的编码序列和由所述时间包络信息编码部获得的与时间包络相关的信息的编码序列进行复用。
16.一种声音解码方法,该声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:
解码步骤,对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及
选择性时间包络整形步骤,基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。
17.一种声音解码方法,该声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:
逆复用步骤,分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;
解码步骤,对所述编码序列进行解码而获得解码信号;以及
选择性时间包络整形步骤,基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。
18.一种声音解码方法,该声音解码方法是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,该声音解码方法包括:
解码步骤,对包含所述编码后的声音信号的编码序列进行解码而获得解码信号;以及
时间包络整形步骤,使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,所述滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。
19.一种声音编码方法,该声音编码方法是对所输入的声音信号进行编码而输出编码序列的声音编码装置的声音编码方法,该声音编码方法包括:
编码步骤,对所述声音信号进行编码而获得包含所述声音信号的编码序列;
时间包络信息编码步骤,对与所述声音信号的时间包络相关的信息进行编码;以及
复用步骤,对在所述编码步骤中获得的编码序列和在所述时间包络信息编码步骤中获得的与时间包络相关的信息的编码序列进行复用。
20.一种声音解码程序,其使计算机执行下述步骤:
解码步骤,对包含编码后的声音信号的编码序列进行解码而获得解码信号;以及
选择性时间包络整形步骤,基于与所述编码序列的解码相关的解码相关信息,对解码信号中的频带的时间包络进行整形。
21.一种声音解码程序,其是对编码后的声音信号进行解码而输出声音信号的声音解码装置的声音解码方法,其使计算机执行下述步骤:
逆复用步骤,分离包含所述编码后的声音信号的编码序列和与该声音信号的时间包络相关的时间包络信息;
解码步骤,对所述编码序列进行解码而获得解码信号;以及
选择性时间包络整形步骤,基于所述时间包络信息和与所述编码序列的解码相关的解码相关信息中的至少一个,对解码信号中的频带的时间包络进行整形。
22.一种声音解码程序,其使计算机执行下述步骤:
解码步骤,对包含编码后的声音信号的编码序列进行解码而获得解码信号;以及
时间包络整形步骤,使用滤波器在频域中对所述解码信号进行滤波处理,由此整形成期望的时间包络,其中,所述滤波器使用了在频域中对所述解码信号进行线性预测分析而获得的线性预测系数。
23.一种声音编码程序,其使计算机执行下述步骤:
编码步骤,对声音信号进行编码而获得包含所述声音信号的编码序列;
时间包络信息编码步骤,对与所述声音信号的时间包络相关的信息进行编码;以及
复用步骤,对在所述编码步骤中获得的编码序列和在所述时间包络信息编码步骤中获得的与时间包络相关的信息的编码序列进行复用。
CN201580015128.8A 2014-03-24 2015-03-20 声音解码装置、声音编码装置、声音解码方法以及声音编码方法 Active CN106133829B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201710975669.6A CN107767876B (zh) 2014-03-24 2015-03-20 声音编码装置以及声音编码方法

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2014-060650 2014-03-24
JP2014060650A JP6035270B2 (ja) 2014-03-24 2014-03-24 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
PCT/JP2015/058608 WO2015146860A1 (ja) 2014-03-24 2015-03-20 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201710975669.6A Division CN107767876B (zh) 2014-03-24 2015-03-20 声音编码装置以及声音编码方法

Publications (2)

Publication Number Publication Date
CN106133829A true CN106133829A (zh) 2016-11-16
CN106133829B CN106133829B (zh) 2017-11-10

Family

ID=54195375

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201710975669.6A Active CN107767876B (zh) 2014-03-24 2015-03-20 声音编码装置以及声音编码方法
CN201580015128.8A Active CN106133829B (zh) 2014-03-24 2015-03-20 声音解码装置、声音编码装置、声音解码方法以及声音编码方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201710975669.6A Active CN107767876B (zh) 2014-03-24 2015-03-20 声音编码装置以及声音编码方法

Country Status (20)

Country Link
US (3) US10410647B2 (zh)
EP (3) EP4293667A3 (zh)
JP (1) JP6035270B2 (zh)
KR (7) KR102208915B1 (zh)
CN (2) CN107767876B (zh)
AU (7) AU2015235133B2 (zh)
BR (1) BR112016021165B1 (zh)
CA (2) CA2990392C (zh)
DK (2) DK3125243T3 (zh)
ES (2) ES2772173T3 (zh)
FI (1) FI3621073T3 (zh)
HU (1) HUE065961T2 (zh)
MX (1) MX354434B (zh)
MY (1) MY165849A (zh)
PH (1) PH12016501844A1 (zh)
PL (2) PL3125243T3 (zh)
PT (2) PT3125243T (zh)
RU (7) RU2654141C1 (zh)
TW (6) TWI608474B (zh)
WO (1) WO2015146860A1 (zh)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111314778A (zh) * 2020-03-02 2020-06-19 北京小鸟科技股份有限公司 基于多种压缩制式的视频编解码融合处理方法

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5997592B2 (ja) 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
JP6035270B2 (ja) * 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム
EP2980795A1 (en) * 2014-07-28 2016-02-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio encoding and decoding using a frequency domain processor, a time domain processor and a cross processor for initialization of the time domain processor
DE102017204181A1 (de) 2017-03-14 2018-09-20 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Sender zum Emittieren von Signalen und Empfänger zum Empfangen von Signalen
EP3382700A1 (en) 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using a transient location detection
EP3382701A1 (en) * 2017-03-31 2018-10-03 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for post-processing an audio signal using prediction based shaping
WO2020031483A1 (ja) * 2018-08-08 2020-02-13 ソニー株式会社 復号装置、復号方法、プログラム

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020152085A1 (en) * 2001-03-02 2002-10-17 Mineo Tsushima Encoding apparatus and decoding apparatus
US20060212290A1 (en) * 2005-03-18 2006-09-21 Casio Computer Co., Ltd. Audio coding apparatus and audio decoding apparatus
CN101405792A (zh) * 2006-03-20 2009-04-08 法国电信公司 用于在音频解码器中对信号进行后处理的方法
CN101436406A (zh) * 2008-12-22 2009-05-20 西安电子科技大学 音频编解码器
JP2013242514A (ja) * 2012-04-27 2013-12-05 Ntt Docomo Inc 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE2100747B2 (de) 1970-01-08 1973-01-04 Trw Inc., Redondo Beach, Calif. (V.St.A.) Anordnung zur digitalen Geschwindigkeitsregelung zur Aufrechterhaltung einer gewählten konstanten Geschwindigkeit eines Kraftfahrzeuges
JPS5913508B2 (ja) 1975-06-23 1984-03-30 オオツカセイヤク カブシキガイシヤ アシルオキシ置換カルボスチリル誘導体の製造法
JP3155560B2 (ja) 1991-05-27 2001-04-09 株式会社コガネイ マニホールドバルブ
JP3283413B2 (ja) 1995-11-30 2002-05-20 株式会社日立製作所 符号化復号方法、符号化装置および復号装置
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
WO2004008437A2 (en) * 2002-07-16 2004-01-22 Koninklijke Philips Electronics N.V. Audio coding
JP2004134900A (ja) * 2002-10-09 2004-04-30 Matsushita Electric Ind Co Ltd 符号化信号復号化装置および復号化方法
US7672838B1 (en) * 2003-12-01 2010-03-02 The Trustees Of Columbia University In The City Of New York Systems and methods for speech recognition using frequency domain linear prediction polynomials to form temporal and spectral envelopes from frequency domain representations of signals
CA2457988A1 (en) * 2004-02-18 2005-08-18 Voiceage Corporation Methods and devices for audio compression based on acelp/tcx coding and multi-rate lattice vector quantization
TWI497485B (zh) * 2004-08-25 2015-08-21 Dolby Lab Licensing Corp 用以重塑經合成輸出音訊信號之時域包絡以更接近輸入音訊信號之時域包絡的方法
WO2006051451A1 (en) * 2004-11-09 2006-05-18 Koninklijke Philips Electronics N.V. Audio coding and decoding
JP5129117B2 (ja) * 2005-04-01 2013-01-23 クゥアルコム・インコーポレイテッド 音声信号の高帯域部分を符号化及び復号する方法及び装置
CN101138274B (zh) * 2005-04-15 2011-07-06 杜比国际公司 用于处理去相干信号或组合信号的设备和方法
DE602006021347D1 (de) * 2006-03-28 2011-05-26 Fraunhofer Ges Forschung Verbessertes verfahren zur signalformung bei der mehrkanal-audiorekonstruktion
US8260609B2 (en) * 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
BRPI0818927A2 (pt) * 2007-11-02 2015-06-16 Huawei Tech Co Ltd Método e aparelho para a decodificação de áudio
DE102008009719A1 (de) * 2008-02-19 2009-08-20 Siemens Enterprise Communications Gmbh & Co. Kg Verfahren und Mittel zur Enkodierung von Hintergrundrauschinformationen
CN101335000B (zh) * 2008-03-26 2010-04-21 华为技术有限公司 编码的方法及装置
JP5203077B2 (ja) 2008-07-14 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
JP4921611B2 (ja) 2009-04-03 2012-04-25 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
JP4932917B2 (ja) 2009-04-03 2012-05-16 株式会社エヌ・ティ・ティ・ドコモ 音声復号装置、音声復号方法、及び音声復号プログラム
EP3764356A1 (en) * 2009-06-23 2021-01-13 VoiceAge Corporation Forward time-domain aliasing cancellation with application in weighted or original signal domain
CA2777073C (en) * 2009-10-08 2015-11-24 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Multi-mode audio signal decoder, multi-mode audio signal encoder, methods and computer program using a linear-prediction-coding based noise shaping
WO2011048117A1 (en) * 2009-10-20 2011-04-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio signal encoder, audio signal decoder, method for encoding or decoding an audio signal using an aliasing-cancellation
JP5695074B2 (ja) * 2010-10-18 2015-04-01 パナソニック インテレクチュアル プロパティ コーポレーション オブアメリカPanasonic Intellectual Property Corporation of America 音声符号化装置および音声復号化装置
JP2012163919A (ja) * 2011-02-09 2012-08-30 Sony Corp 音声信号処理装置、および音声信号処理方法、並びにプログラム
BR112013020482B1 (pt) * 2011-02-14 2021-02-23 Fraunhofer Ges Forschung aparelho e método para processar um sinal de áudio decodificado em um domínio espectral
KR101897455B1 (ko) * 2012-04-16 2018-10-04 삼성전자주식회사 음질 향상 장치 및 방법
JP6035270B2 (ja) 2014-03-24 2016-11-30 株式会社Nttドコモ 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020152085A1 (en) * 2001-03-02 2002-10-17 Mineo Tsushima Encoding apparatus and decoding apparatus
US20060212290A1 (en) * 2005-03-18 2006-09-21 Casio Computer Co., Ltd. Audio coding apparatus and audio decoding apparatus
CN101405792A (zh) * 2006-03-20 2009-04-08 法国电信公司 用于在音频解码器中对信号进行后处理的方法
CN101436406A (zh) * 2008-12-22 2009-05-20 西安电子科技大学 音频编解码器
JP2013242514A (ja) * 2012-04-27 2013-12-05 Ntt Docomo Inc 音声復号装置、音声符号化装置、音声復号方法、音声符号化方法、音声復号プログラム、および音声符号化プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111314778A (zh) * 2020-03-02 2020-06-19 北京小鸟科技股份有限公司 基于多种压缩制式的视频编解码融合处理方法

Also Published As

Publication number Publication date
EP3125243A1 (en) 2017-02-01
CA2990392C (en) 2021-08-03
WO2015146860A1 (ja) 2015-10-01
DK3621073T3 (da) 2024-03-11
MX2016012393A (es) 2016-11-30
CN106133829B (zh) 2017-11-10
TW201603007A (zh) 2016-01-16
AU2021200604B2 (en) 2022-03-17
BR112016021165B1 (pt) 2020-11-10
ES2974029T3 (es) 2024-06-25
RU2718421C1 (ru) 2020-04-02
KR20160119252A (ko) 2016-10-12
PT3125243T (pt) 2020-02-14
KR20200030125A (ko) 2020-03-19
KR20180110244A (ko) 2018-10-08
KR20200028512A (ko) 2020-03-16
KR20200074279A (ko) 2020-06-24
KR102038077B1 (ko) 2019-10-29
PH12016501844B1 (en) 2016-12-19
RU2732951C1 (ru) 2020-09-24
TW202242854A (zh) 2022-11-01
TWI696994B (zh) 2020-06-21
FI3621073T3 (fi) 2024-03-13
RU2751150C1 (ru) 2021-07-08
EP4293667A2 (en) 2023-12-20
KR102089602B1 (ko) 2020-03-16
PL3621073T3 (pl) 2024-05-20
US10410647B2 (en) 2019-09-10
PL3125243T3 (pl) 2020-05-18
TW201937483A (zh) 2019-09-16
AU2015235133A1 (en) 2016-10-06
KR102126044B1 (ko) 2020-07-08
RU2654141C1 (ru) 2018-05-16
AU2021200607A1 (en) 2021-03-04
EP3621073A1 (en) 2020-03-11
MX354434B (es) 2018-03-06
ES2772173T3 (es) 2020-07-07
RU2018115787A (ru) 2019-10-28
KR101906524B1 (ko) 2018-10-10
PH12016501844A1 (en) 2016-12-19
EP4293667A3 (en) 2024-06-12
RU2018115787A3 (zh) 2019-10-28
AU2021200603A1 (en) 2021-03-04
AU2021200603B2 (en) 2022-03-10
TW202338789A (zh) 2023-10-01
DK3125243T3 (da) 2020-02-17
TW201810251A (zh) 2018-03-16
KR102124962B1 (ko) 2020-07-07
TWI773992B (zh) 2022-08-11
JP6035270B2 (ja) 2016-11-30
CA2942885A1 (en) 2015-10-01
KR102208915B1 (ko) 2021-01-27
RU2741486C1 (ru) 2021-01-26
AU2019257487A1 (en) 2019-11-21
KR101782935B1 (ko) 2017-09-28
KR20190122896A (ko) 2019-10-30
RU2707722C2 (ru) 2019-11-28
PT3621073T (pt) 2024-03-12
EP3125243B1 (en) 2020-01-08
CA2942885C (en) 2018-02-20
EP3125243A4 (en) 2017-05-17
TWI666632B (zh) 2019-07-21
US11437053B2 (en) 2022-09-06
AU2018201468A1 (en) 2018-03-22
EP3621073B1 (en) 2024-02-14
TWI608474B (zh) 2017-12-11
JP2015184470A (ja) 2015-10-22
AU2019257495A1 (en) 2019-11-21
RU2631155C1 (ru) 2017-09-19
HUE065961T2 (hu) 2024-06-28
TW202036541A (zh) 2020-10-01
AU2019257487B2 (en) 2020-12-24
AU2015235133B2 (en) 2017-11-30
US20190355371A1 (en) 2019-11-21
US20220366924A1 (en) 2022-11-17
AU2021200604A1 (en) 2021-03-04
US20170117000A1 (en) 2017-04-27
CN107767876A (zh) 2018-03-06
AU2019257495B2 (en) 2020-12-24
CN107767876B (zh) 2022-08-09
AU2018201468B2 (en) 2019-08-29
TWI807906B (zh) 2023-07-01
AU2021200607B2 (en) 2022-03-24
CA2990392A1 (en) 2015-10-01
KR20170110175A (ko) 2017-10-10
MY165849A (en) 2018-05-17

Similar Documents

Publication Publication Date Title
CN106133829A (zh) 声音解码装置、声音编码装置、声音解码方法、声音编码方法、声音解码程序以及声音编码程序
KR101343267B1 (ko) 주파수 세그먼트화를 이용한 오디오 코딩 및 디코딩을 위한 방법 및 장치
CN100587807C (zh) 增强信源解码器的设备和增强信源解码方法的方法
JP4272897B2 (ja) 符号化装置、復号化装置およびその方法
US6091773A (en) Data compression method and apparatus
JP6691251B2 (ja) 音声復号装置、音声復号方法、および音声復号プログラム
JP6511033B2 (ja) 音声符号化装置および音声符号化方法
JP6872056B2 (ja) 音声復号装置および音声復号方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
REG Reference to a national code

Ref country code: HK

Ref legal event code: DE

Ref document number: 1225493

Country of ref document: HK

GR01 Patent grant
GR01 Patent grant
REG Reference to a national code

Ref country code: HK

Ref legal event code: GR

Ref document number: 1225493

Country of ref document: HK