CN104681029A - 立体声相位参数的编码方法及装置 - Google Patents

立体声相位参数的编码方法及装置 Download PDF

Info

Publication number
CN104681029A
CN104681029A CN201310632664.5A CN201310632664A CN104681029A CN 104681029 A CN104681029 A CN 104681029A CN 201310632664 A CN201310632664 A CN 201310632664A CN 104681029 A CN104681029 A CN 104681029A
Authority
CN
China
Prior art keywords
present frame
stereo
parameter
value
itd
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201310632664.5A
Other languages
English (en)
Other versions
CN104681029B (zh
Inventor
张兴涛
苗磊
吴文海
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Huawei Technologies Co Ltd
Original Assignee
Huawei Technologies Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Huawei Technologies Co Ltd filed Critical Huawei Technologies Co Ltd
Priority to CN201310632664.5A priority Critical patent/CN104681029B/zh
Priority to KR1020167014661A priority patent/KR101798559B1/ko
Priority to EP14866259.6A priority patent/EP3057095B1/en
Priority to JP2016534977A priority patent/JP6335301B2/ja
Priority to PCT/CN2014/074673 priority patent/WO2015078123A1/zh
Publication of CN104681029A publication Critical patent/CN104681029A/zh
Priority to US15/154,655 priority patent/US10008211B2/en
Application granted granted Critical
Publication of CN104681029B publication Critical patent/CN104681029B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/005Correction of errors induced by the transmission channel, if related to the coding algorithm
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • G10L19/022Blocking, i.e. grouping of samples in time; Choice of analysis windows; Overlap factoring
    • G10L19/025Detection of transients or attacks for time/frequency resolution switching

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Computational Linguistics (AREA)
  • Signal Processing (AREA)
  • Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Mathematical Physics (AREA)
  • Spectroscopy & Molecular Physics (AREA)
  • Stereophonic System (AREA)
  • Compression, Expansion, Code Conversion, And Decoders (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)

Abstract

本发明实施例公开了一种立体声相位参数的编码方法及装置,涉及信息技术领域,可以提高立体声音频相位信息的效果。所述方法包括:首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。本发明实施例适用于恢复立体声相位信息。

Description

立体声相位参数的编码方法及装置
技术领域
本发明涉及信息技术领域,特别涉及一种立体声相位参数的编码方法及装置。
背景技术
随着人们物质生活水平的不断提高,人们对音频效果的要求越来越高。与单声道音频相比,立体声音频具有各声源的方位感和分布感,能够提高音频信息的清晰度,因此立体声音频可以更好地满足人们对音频效果的需求。
目前,获取立体声音频信号时,通过提取Global(全局)参数,根据Global参数恢复立体声相位信息。其中,Global参数包括G_ITD(Global Inter-ChannelTime Difference,群时延)及G_IPD(Global Inter-Channel Phase Difference,群相位)。
然而,通过提取Global参数直接恢复立体声相位信息,提取的G_ITD及G_IPD准确度较低,无法根据G_ITD及G_IPD恢复原始立体声相位信息,从而导致立体声音频信息的效果较差。
发明内容
本发明实施例提供一种立体声相位参数的编码方法及装置,可以提高立体声音频信息的效果。
本发明实施例采用的技术方案为:
第一方面,本发明提实施例供一种立体声相位参数的编码方法,包括:
获取当前帧的立体声全局相位参数;
确定所述当前帧的立体声全局相位参数的值;
根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
对调整后的当前帧的立体声全局相位参数的值进行编码。
在第一方面的第一种实现方式中,所述根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
获取所述当前帧的各个子带的声道间时间差;
根据所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,在第一方面的第二种实现方式中,在所述当前帧不是数据流的第一个数据帧时,所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整前进一步包括:
对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,在第一方面的第三种实现方式中,所述立体声全局相位参数包括群时延G_ITD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,在第一方面的第四种实现方式中,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整具体为:
根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,在第一方面的第五种实现方式中,fac1=0.5。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,在第一方面的第六种实现方式中,所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,在第一方面的第七种实现方式中,在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,在第一方面的第八种实现方式中,fac3=0.75。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,在第一方面的第九种实现方式中,在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
将所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,或者第一方面的第九种实现方式,在第一方面的第十种实现方式中,所述对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值包括:
根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
结合第一方面或者第一方面的第一种实现方式,或者第一方面的第二种实现方式,或者第一方面的第三种实现方式,或者第一方面的第四种实现方式,或者第一方面的第五种实现方式,或者第一方面的第六种实现方式,或者第一方面的第七种实现方式,或者第一方面的第八种实现方式,或者第一方面的第九种实现方式,或者第一方面的第十种实现方式,在第一方面的第十一种实现方式中,fac5=0.9844。
第二方面,本发明实施例提供一种立体声相位参数的编码装置,包括:
获取单元,用于获取当前帧的立体声全局相位参数;
确定单元,用于确定所述获取单元获取的所述当前帧的立体声全局相位参数的值;
调整单元,用于根据所述确定单元确定的所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
编码单元,用于对所述调整单元调整后的当前帧的立体声全局相位参数的值进行编码。
在第二方面的第一种实现方式中,所述调整单元包括:
获取模块,用于获取所述当前帧的各个子带的声道间时间差;
计算模块,用于根据所述获取模块获取的所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
调整模块,用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,在第二方面的第二种实现方式中,所述调整单元还包括:
处理模块,用于对所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理;
所述获取模块,还用于获取所述当前帧的各个子带的所述处理模块平滑处理后的声道间时间差的绝对值均值;
所述调整模块,还用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,在第二方面的第三种实现方式中,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,在第二方面的第四种实现方式中,
所述调整模块,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,在第二方面的第五种实现方式中,
所述调整模块调整时的平滑因子fac1=0.5。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,在第二方面的第六种实现方式中,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,在第二方面的第七种实现方式中,
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,在第二方面的第八种实现方式中,
所述调整模块调整时的平滑因子fac3=0.75。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,在第二方面的第九种实现方式中,所述调整单元还包括:
配置模块,用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,将所述当前帧的各个子带的所述处理模块平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,或者第二方面的第九种实现方式,在第二方面的第十种实现方式中,
所述处理模块,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
结合第二方面或者第二方面的第一种实现方式,或者第二方面的第二种实现方式,或者第二方面的第三种实现方式,或者第二方面的第四种实现方式,或者第二方面的第五种实现方式,或者第二方面的第六种实现方式,或者第二方面的第七种实现方式,或者第二方面的第八种实现方式,或者第二方面的第九种实现方式,或者第二方面的第十种实现方式,在第二方面的第十一种实现方式中,
所述处理模块平滑处理时的平滑因子fac5=0.9844。
本发明实施例提供的立体声相位参数的编码方法及装置,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
附图说明
为了更清楚地说明本发明实施例中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其它的附图。
图1为本发明实施例提供的一种立体声相位参数的编码方法流程图;
图2为本发明实施例提供的另一种立体声相位参数的编码方法流程图;
图3为本发明实施例提供的又一种立体声相位参数的编码方法流程图;
图4为本发明实施例提供的再一种立体声相位参数的编码方法流程图;
图5为本发明实施例提供的一种立体声相位参数的编码装置的结构示意图;
图6为本发明实施例提供的一种服务器的结构示意图;
图7为本发明实施例提供的另一种立体声相位参数的编码装置的结构示意图;
图8为本发明实施例提供的另一种服务器的结构示意图。
具体实施方式
下面将结合本发明实施例中的附图,对本发明实施例中的技术方案进行清楚、完整地描述,显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动前提下所获得的所有其它实施例,都属于本发明保护的范围。
为使本发明技术方案的优点更加清楚,下面结合附图和实施例对本发明作详细说明。
本发明实施例提供一种立体声相位参数的编码方法,如图1所示,所述方法包括:
101、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
102、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
103、服务器根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
对于本发明实施例,当提取的当前帧的立体声全局相位参数G_ITD及G_IPD准确度较低时,服务器无法根据立体声相位参数恢复原始立体声相位信息,从而无法恢复立体声音频信号。在本发明实施例中,服务器通过对G_ITD或G_IPD进行调整,从而能够避免根据与原始立体声相位参数存在较大差别的G_ITD及G_IPD,恢复立体声相位信息的情况进而可以提高立体声音频信息的效果。
104、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供另一种立体声相位参数的编码方法,如图2所示,所述方法包括:
201、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
202、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
203、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
204、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
205、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤205可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,执行步骤206a、服务器根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
具体地,步骤206a可以为,在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,服务器根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
对于本发明实施例,平滑因子fac1的值可以为fac1=0.5,对应的平滑因子fac2可以为fac2=1-0.5=0.5。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,执行步骤206b、服务器根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
对于本发明实施例,平滑因子fac3的值可以为fac3=0.75,对应的平滑因子fac4可以为fac4=1-0.75=0.25。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,执行步骤206c、服务器将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
对于本发明实施例,服务器可以根据公式计算当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。其中,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
207、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供又一种立体声相位参数的编码方法,适用于对当前帧的G_ITD参数及G_IPD参数的值均为0的情况进行调整,如图3所示,所述方法包括:
301、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
302、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
303、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
304、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
305、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤305可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
306、在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,服务器将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
对于本发明实施例,服务器可以根据公式计算当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。其中,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
307、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供再一种立体声相位参数的编码方法,适用于对当前帧的G_ITD参数及G_IPD参数的值不都为0的情况进行调整,如图4所示,所述方法包括:
401、服务器获取当前帧的立体声全局相位参数。
其中,立体声全局相位参数包括群时延G_ITD及群相位G_IPD。在本发明实施例中,群时延G_ITD表示立体声的左右声道之间的时间延时,计量单位为样点。群相位G_IPD表示立体声的左右声道在时间对齐后的波形相似性,计量单位为弧度,取值范围为(-π,π]。
402、服务器确定当前帧的立体声全局相位参数的值。
其中,当前帧的立体声全局相位参数的值的确定结果包括:当前帧的G_ITD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值不为0、当前帧的G_ITD参数的值为0并且当前帧的G_IPD参数的值为0。
403、服务器获取当前帧的各个子带的声道间时间差。
其中,当前帧的各个子带可以由服务器预先进行划分。例如,服务器可以将频带划分为12个子带,每个子带均存在对应的声道间时间差。
对于本发明实施例,声道间时间差用于表示声音分别到达左右耳的时间差,当ITD为大于0的数时,声音到达左耳的时间比声音到达右耳的时间早;当ITD为小于0的数时,声音到达左耳的时间比声音到达右耳的时间晚;当ITD等于0时,声音到达左耳的时间与声音到达右耳的时间相同。在本发明实施例中,ITD可以通过样点进行表示。例如,ITD的时间区间为(-5ms,5ms),计量单位为ms(millisecond,毫秒),服务器通过16kHz的带宽进行采样之后,对应的样点区间为(-80,80),计量单位为样点。
404、服务器根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
对于本发明实施例,服务器可以按照公式计算当前帧的各个子带的声道间时间差的绝对值均值。其中,ITD为各个子带的绝对值均值,ITD(b)为第b个子带的声道间时间差,b为大于或者等于1并且小于或者等于L的整数,L为子带总数。
405、服务器对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
具体地,步骤405可以为,服务器根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
对于本发明实施例,平滑因子fac5的值可以为fac5=0.9844,对应的平滑因子fac6可以为fac6=1-0.9844=0.0156。
对于本发明实施例,服务器通过对当前帧的相邻数据帧之间进行平滑处理,从而可以避免当前帧的相邻数据帧对应的立体声相位信息发生突变时,立体声音频信号存在突变现象,进而可以提高立体声音频效果。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,执行步骤406a、服务器根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
具体地,步骤406a可以为,在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值不为0时,服务器根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
对于本发明实施例,平滑因子fac1的值可以为fac1=0.5,对应的平滑因子fac2可以为fac2=1-0.5=0.5。
在当前帧的立体声全局相位参数的值的确定结果为当前帧的G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,执行步骤406b、服务器根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
对于本发明实施例,平滑因子fac3的值可以为fac3=0.75,对应的平滑因子fac4可以为fac4=1-0.75=0.25。
407、服务器对调整后的当前帧的立体声全局相位参数的值进行编码。
其中,服务器可以采用5bit(比特)量化编码方式对调整后的当前帧的立体声全局相位参数的值进行编码,第1位为立体声相位参数标志位flag,第2位至第5位为对调整后的当前帧的立体声全局相位参数的值进行编码处理之后的值。具体地,当flag=1时,服务器传输当前帧的G_ITD量化值;当flag=0时,服务器传输当前帧的G_IPD量化值。
本发明实施例提供的立体声相位参数的编码方法,首先获取当前帧的立体声全局相位参数,然后确定当前帧的立体声全局相位参数的值,并根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整,最后对调整后的当前帧的立体声全局相位参数的值进行编码。与目前通过提取Global参数直接恢复立体声相位信息相比,本发明实施例通过调整后的Global参数恢复立体声相位信息,能够提高立体声相位信息的准确度,从而可以提高立体声音频信息的效果。
本发明实施例提供了一种立体声相位参数的编码装置,如图5所示,所述装置的实体可以为服务器,所述装置包括:获取单元51、确定单元52、调整单元53、编码单元54。
获取单元51,用于获取当前帧的立体声全局相位参数。
确定单元52,用于确定获取单元51获取的当前帧的立体声全局相位参数的值。
调整单元53,用于根据确定单元52确定的当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
编码单元54,用于对调整单元53调整后的当前帧的立体声全局相位参数的值进行编码。
进一步地,所述立体声相位参数的编码装置的实体可以为服务器,如图6所示,所述服务器可以包括:处理器61、输入设备62、输出设备63、存储器64,所述输入设备62、输出设备63及存储器64分别与处理器61相连接。
处理器61,用于获取当前帧的立体声全局相位参数。
处理器61,还用于确定当前帧的立体声全局相位参数的值。
处理器61,还用于根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
处理器61,还用于对调整后的当前帧的立体声全局相位参数的值进行编码。
需要说明的是,本发明实施例中提供的立体声相位参数的调整装置中各功能单元所对应的其他相应描述,可以参考图1中的对应描述,在此不再赘述。
本发明实施例提供了另一种立体声相位参数的编码装置,如图7所示,所述装置的实体可以为服务器,所述装置包括:获取单元71、确定单元72、调整单元73、编码单元74。
获取单元71,用于获取当前帧的立体声全局相位参数。
确定单元72,用于确定获取单元71获取的当前帧的立体声全局相位参数的值。
调整单元73,用于根据确定单元72确定的当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
编码单元74,用于对调整单元73调整后的当前帧的立体声全局相位参数的值进行编码。
调整单元73包括:获取模块7301、计算模块7302、调整模块7303。
获取模块7301,用于获取当前帧的各个子带的声道间时间差。
计算模块7302,用于根据获取模块7301获取的当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
调整模块7303,用于根据当前帧的立体声全局相位参数的值的确定结果以及计算模块7302计算的当前帧的各个子带的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
调整单元73还包括:处理模块7304。
处理模块7304,用于对计算模块7302计算的当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理。
获取模块7301,还用于获取当前帧的各个子带的处理模块7304平滑处理后的声道间时间差的绝对值均值。
调整模块7303,还用于根据当前帧的立体声全局相位参数的值的确定结果以及获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
获取单元71获取的立体声全局相位参数包括群时延G_ITD参数。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值不为0时,根据获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
调整模块7303,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。
其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
调整模块7303调整时的平滑因子fac1=0.5。
获取单元71获取的立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0时,根据获取模块7301获取的当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_IPD参数的值进行调整。
调整模块7303,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整。
其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
调整模块7303调整时的平滑因子fac3=0.75。
调整单元73还包括:配置模块7305。
配置模块7305,用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,将当前帧的各个子带的处理模块7304平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
处理模块7304,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理。
其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
处理模块7304平滑处理时的平滑因子fac5=0.9844。
进一步地,所述立体声相位参数的编码装置的实体可以为服务器,如图8所示,所述服务器可以包括:处理器81、输入设备82、输出设备83、存储器84,所述输入设备82、输出设备83及存储器84分别与处理器81相连接。
处理器81,用于获取当前帧的立体声全局相位参数。
处理器81,还用于确定当前帧的立体声全局相位参数的值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果,对当前帧的立体声全局相位参数的值进行调整。
处理器81,还用于对调整后的当前帧的立体声全局相位参数的值进行编码。
处理器81,还用于获取当前帧的各个子带的声道间时间差。
处理器81,还用于根据当前帧的各个子带的声道间时间差,计算当前帧的各个子带的声道间时间差的绝对值均值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果以及当前帧的各个子带的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
处理器81,还用于对当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理。
处理器81,还用于获取当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值。
处理器81,还用于根据当前帧的立体声全局相位参数的值的确定结果以及当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的立体声全局相位参数的值进行调整。
处理器81获取的立体声全局相位参数包括群时延G_ITD参数。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值不为0时,根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_ITD参数的值进行调整。
处理器81,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对当前帧的G_ITD参数的值的绝对值进行调整。
其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
处理器81调整时的平滑因子fac1=0.5。
处理器81获取的立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0时,根据当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对当前帧的G_IPD参数的值进行调整。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对G_IPD参数的值的绝对值进行调整。
其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
处理器81调整时的平滑因子fac3=0.75。
处理器81,还用于在当前帧的立体声全局相位参数的值的确定结果为G_ITD参数的值为0,且当前帧的G_IPD参数的值为0时,将当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为当前帧的G_IPD参数的绝对值,将当前帧的前一帧的G_IPD参数的符号作为当前帧的G_IPD参数的符号。
处理器81,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理。
其中,ITD_sm(k)为当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
处理器81平滑处理时的平滑因子fac5=0.9844。需要说明的是,本发明实施例中提供的立体声相位参数的调整装置中各功能单元所对应的其他相应描述,可以参考图2中的对应描述,在此不再赘述。
本发明实施例提供的立体声相位参数的编码装置可以实现上述提供的方法实施例,具体功能实现请参见方法实施例中的说明,在此不再赘述。本发明实施例提供的立体声相位参数的编码方法及装置可以适用于恢复立体声相位信息,但不仅限于此。
本领域普通技术人员可以理解实现上述实施例方法中的全部或部分流程,是可以通过计算机程序来指令相关的硬件来完成,所述的程序可存储于一计算机可读取存储介质中,该程序在执行时,可包括如上述各方法的实施例的流程。其中,所述的存储介质可为磁碟、光盘、只读存储记忆体(Read-Only Memory,ROM)或随机存储记忆体(Random Access Memory,RAM)等。
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到的变化或替换,都应涵盖在本发明的保护范围之内。因此,本发明的保护范围应该以权利要求的保护范围为准。

Claims (24)

1.一种立体声相位参数的编码方法,其特征在于,包括:
获取当前帧的立体声全局相位参数;
确定所述当前帧的立体声全局相位参数的值;
根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
对调整后的当前帧的立体声全局相位参数的值进行编码。
2.根据权利要求1所述的立体声相位参数的编码方法,其特征在于,所述根据所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
获取所述当前帧的各个子带的声道间时间差;
根据所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
3.根据权利要求2所述的立体声相位参数的编码方法,其特征在于,在所述当前帧不是数据流的第一个数据帧时,所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整前进一步包括:
对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整具体包括:
根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
4.根据权利要求3所述的立体声相位参数的编码方法,其特征在于,所述立体声全局相位参数包括群时延G_ITD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值不为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
5.根据权利要求4所述的立体声相位参数的编码方法,其特征在于,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整具体为:
根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
6.根据权利要求5所述的立体声相位参数的编码方法,其特征在于,fac1=0.5。
7.根据权利要求3至6任一所述的立体声相位参数的编码方法,其特征在于,所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述根据所述当前帧的立体声全局相位参数的值的确定结果以及所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整包括:
在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
8.根据权利要求7所述的立体声相位参数的编码方法,其特征在于,在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
9.根据权利要求8所述的立体声相位参数的编码方法,其特征在于,fac3=0.75。
10.根据权利要求7所述的立体声相位参数的编码方法,其特征在于,在所述当前帧的立体声全局相位参数的值的确定结果为所述当前帧的G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,所述根据所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整具体包括:
将所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
11.根据权利要求3至10任一所述的立体声相位参数的编码方法,其特征在于,所述对所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理,获取所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值包括:
根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
12.根据权利要求11所述的立体声相位参数的编码方法,其特征在于,fac5=0.9844。
13.一种立体声相位参数的编码装置,其特征在于,包括:
获取单元,用于获取当前帧的立体声全局相位参数;
确定单元,用于确定所述获取单元获取的所述当前帧的立体声全局相位参数的值;
调整单元,用于根据所述确定单元确定的所述当前帧的立体声全局相位参数的值的确定结果,对所述当前帧的立体声全局相位参数的值进行调整;
编码单元,用于对所述调整单元调整后的当前帧的立体声全局相位参数的值进行编码。
14.根据权利要求13所述的立体声相位参数的编码装置,其特征在于,所述调整单元包括:
获取模块,用于获取所述当前帧的各个子带的声道间时间差;
计算模块,用于根据所述获取模块获取的所述当前帧的各个子带的声道间时间差,计算所述当前帧的各个子带的声道间时间差的绝对值均值;
调整模块,用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
15.根据权利要求14所述的立体声相位参数的编码装置,其特征在于,所述调整单元还包括:
处理模块,用于对所述计算模块计算的所述当前帧的各个子带的声道间时间差的绝对值均值进行帧间平滑处理;
所述获取模块,还用于获取所述当前帧的各个子带的所述处理模块平滑处理后的声道间时间差的绝对值均值;
所述调整模块,还用于根据所述当前帧的立体声全局相位参数的值的确定结果以及所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的立体声全局相位参数的值进行调整。
16.根据权利要求15所述的立体声相位参数的编码装置,其特征在于,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值不为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_ITD参数的值进行调整。
17.根据权利要求16所述的立体声相位参数的编码装置,其特征在于,
所述调整模块,还用于根据公式|G_ITD'|=fac1×|G_ITD|+fac2×ITD_sm,对所述当前帧的G_ITD参数的值的绝对值进行调整,其中,|G_ITD'|为调整之后的G_ITD参数的值的绝对值,|G_ITD|为G_ITD参数的值的绝对值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac1与fac2为平滑因子,并且fac1>0,fac2>0,fac1+fac2=1。
18.根据权利要求17所述的立体声相位参数的编码装置,其特征在于,
所述调整模块调整时的平滑因子fac1=0.5。
19.根据权利要求15至18任一所述的立体声相位参数的编码装置,其特征在于,
所述获取单元获取的所述立体声全局相位参数包括群时延G_ITD参数和群相位G_IPD参数;
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0时,根据所述获取模块获取的所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,对所述当前帧的G_IPD参数的值进行调整。
20.根据权利要19所述的立体声相位参数的编码装置,其特征在于,
所述调整模块,还用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值不为0时,根据公式|G_IPD'|=fac3×|G_IPD|+fac4×IPD_sm,对所述G_IPD参数的值的绝对值进行调整,其中,|G_IPD'|为调整之后的G_IPD参数的值的绝对值,|G_IPD|为G_IPD参数的值的绝对值,fac3与fac4为平滑因子,并且fac3>0,fac4>0,fac3+fac4=1,FFT_LEN为变换长度,K为频点值,ITD_sm为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,IPD_sm为所述当前帧的各个子带的平滑处理后的声道间相位差的绝对值均值。
21.根据权利要求20所述的立体声相位参数的编码装置,其特征在于,
所述调整模块调整时的平滑因子fac3=0.75。
22.根据权利要求19所述的立体声相位参数的编码装置,其特征在于,所述调整单元还包括:
配置模块,用于在所述当前帧的立体声全局相位参数的值的确定结果为所述G_ITD参数的值为0,且所述当前帧的G_IPD参数的值为0时,将所述当前帧的各个子带的所述处理模块平滑处理后的声道间相位差的绝对值均值作为所述当前帧的G_IPD参数的绝对值,将所述当前帧的前一帧的G_IPD参数的符号作为所述当前帧的G_IPD参数的符号。
23.根据权利要求15至22任一所述的立体声相位参数的编码装置,其特征在于,
所述处理模块,还用于根据公式ITD_sm(k)=fac5×ITD_sm(k-1)+fac6×ITD进行帧间平滑处理,其中,ITD_sm(k)为所述当前帧的各个子带的平滑处理后的声道间时间差的绝对值均值,ITD_sm(k-1)为所述当前帧的前一帧的各个子带的平滑处理后的声道间时间差的绝对值均值,fac5与fac6为平滑因子,并且fac5>0,fac6>0,fac5+fac6=1。
24.根据权利要求23所述的立体声相位参数的编码装置,其特征在于,
所述处理模块平滑处理时的平滑因子fac5=0.9844。
CN201310632664.5A 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置 Active CN104681029B (zh)

Priority Applications (6)

Application Number Priority Date Filing Date Title
CN201310632664.5A CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置
KR1020167014661A KR101798559B1 (ko) 2013-11-29 2014-04-02 스테레오 위상 파라미터 인코딩 방법 및 장치
EP14866259.6A EP3057095B1 (en) 2013-11-29 2014-04-02 Method and device for encoding stereo phase parameter
JP2016534977A JP6335301B2 (ja) 2013-11-29 2014-04-02 ステレオ位相パラメータを符号化する方法及び装置
PCT/CN2014/074673 WO2015078123A1 (zh) 2013-11-29 2014-04-02 立体声相位参数的编码方法及装置
US15/154,655 US10008211B2 (en) 2013-11-29 2016-05-13 Method and apparatus for encoding stereo phase parameter

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN201310632664.5A CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置

Publications (2)

Publication Number Publication Date
CN104681029A true CN104681029A (zh) 2015-06-03
CN104681029B CN104681029B (zh) 2018-06-05

Family

ID=53198276

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201310632664.5A Active CN104681029B (zh) 2013-11-29 2013-11-29 立体声相位参数的编码方法及装置

Country Status (6)

Country Link
US (1) US10008211B2 (zh)
EP (1) EP3057095B1 (zh)
JP (1) JP6335301B2 (zh)
KR (1) KR101798559B1 (zh)
CN (1) CN104681029B (zh)
WO (1) WO2015078123A1 (zh)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017193549A1 (zh) * 2016-05-10 2017-11-16 华为技术有限公司 多声道信号的编码方法和编码器
WO2017193550A1 (zh) * 2016-05-10 2017-11-16 华为技术有限公司 多声道信号的编码方法和编码器
WO2017206794A1 (zh) * 2016-05-31 2017-12-07 华为技术有限公司 一种声道间相位差参数的提取方法及装置
WO2017222871A1 (en) * 2016-06-20 2017-12-28 Qualcomm Incorporated Encoding and decoding of interchannel phase differences between audio signals
WO2018209942A1 (zh) * 2017-05-16 2018-11-22 华为技术有限公司 一种立体声信号处理方法及装置
WO2019001142A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种声道间相位差参数的编码方法及装置
WO2019020045A1 (zh) * 2017-07-25 2019-01-31 华为技术有限公司 立体声信号的编解码方法和编解码装置
WO2019029680A1 (zh) * 2017-08-10 2019-02-14 华为技术有限公司 时域立体声参数的编码方法和相关产品

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107731238B (zh) 2016-08-10 2021-07-16 华为技术有限公司 多声道信号的编码方法和编码器
US10217468B2 (en) * 2017-01-19 2019-02-26 Qualcomm Incorporated Coding of multiple audio signals
US10366695B2 (en) 2017-01-19 2019-07-30 Qualcomm Incorporated Inter-channel phase difference parameter modification

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020103637A1 (en) * 2000-11-15 2002-08-01 Fredrik Henn Enhancing the performance of coding systems that use high frequency reconstruction methods
WO2006027717A1 (en) * 2004-09-06 2006-03-16 Koninklijke Philips Electronics N.V. Audio signal enhancement
CN102157152A (zh) * 2010-02-12 2011-08-17 华为技术有限公司 立体声编码的方法、装置
CN102165520A (zh) * 2008-09-25 2011-08-24 Lg电子株式会社 处理信号的方法和装置
US20110255714A1 (en) * 2009-04-08 2011-10-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
US20130195276A1 (en) * 2009-12-16 2013-08-01 Pasi Ojala Multi-Channel Audio Processing
WO2013120531A1 (en) * 2012-02-17 2013-08-22 Huawei Technologies Co., Ltd. Parametric encoder for encoding a multi-channel audio signal

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7006636B2 (en) * 2002-05-24 2006-02-28 Agere Systems Inc. Coherence-based audio coding and synthesis
CN101221763B (zh) * 2007-01-09 2011-08-24 昆山杰得微电子有限公司 针对子带编码音频的三维声场合成方法
US8385556B1 (en) 2007-08-17 2013-02-26 Dts, Inc. Parametric stereo conversion system and method
GB2453117B (en) * 2007-09-25 2012-05-23 Motorola Mobility Inc Apparatus and method for encoding a multi channel audio signal
KR101444102B1 (ko) * 2008-02-20 2014-09-26 삼성전자주식회사 스테레오 오디오의 부호화, 복호화 방법 및 장치
WO2010036062A2 (en) 2008-09-25 2010-04-01 Lg Electronics Inc. A method and an apparatus for processing a signal
EP2395504B1 (en) 2009-02-13 2013-09-18 Huawei Technologies Co., Ltd. Stereo encoding method and apparatus
US9053701B2 (en) 2009-02-26 2015-06-09 Panasonic Intellectual Property Corporation Of America Channel signal generation device, acoustic signal encoding device, acoustic signal decoding device, acoustic signal encoding method, and acoustic signal decoding method
WO2013149671A1 (en) * 2012-04-05 2013-10-10 Huawei Technologies Co., Ltd. Multi-channel audio encoder and method for encoding a multi-channel audio signal

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20020103637A1 (en) * 2000-11-15 2002-08-01 Fredrik Henn Enhancing the performance of coding systems that use high frequency reconstruction methods
WO2006027717A1 (en) * 2004-09-06 2006-03-16 Koninklijke Philips Electronics N.V. Audio signal enhancement
CN102165520A (zh) * 2008-09-25 2011-08-24 Lg电子株式会社 处理信号的方法和装置
US20110255714A1 (en) * 2009-04-08 2011-10-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for upmixing a downmix audio signal using a phase value smoothing
US20130195276A1 (en) * 2009-12-16 2013-08-01 Pasi Ojala Multi-Channel Audio Processing
CN102157152A (zh) * 2010-02-12 2011-08-17 华为技术有限公司 立体声编码的方法、装置
WO2013120531A1 (en) * 2012-02-17 2013-08-22 Huawei Technologies Co., Ltd. Parametric encoder for encoding a multi-channel audio signal

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CHRISTOF FALLER: "《PARAMETRIC CODING OF SPATIAL AUDIO》", 《ECOLE POLYTECHNIQUE FEDERALE DE LAUSANNE》 *
CHRISTOF FALLER: "《PARAMETRIC CODING OF SPATIAL AUDIO》", 《PROC.OF THE 7TH INT.CONFERENCE ON DIGITAL AUDIO EFFECTS(DAFX`04)》 *

Cited By (32)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017193550A1 (zh) * 2016-05-10 2017-11-16 华为技术有限公司 多声道信号的编码方法和编码器
WO2017193549A1 (zh) * 2016-05-10 2017-11-16 华为技术有限公司 多声道信号的编码方法和编码器
CN107452387B (zh) * 2016-05-31 2019-11-12 华为技术有限公司 一种声道间相位差参数的提取方法及装置
WO2017206794A1 (zh) * 2016-05-31 2017-12-07 华为技术有限公司 一种声道间相位差参数的提取方法及装置
CN107452387A (zh) * 2016-05-31 2017-12-08 华为技术有限公司 一种声道间相位差参数的提取方法及装置
US11915709B2 (en) 2016-05-31 2024-02-27 Huawei Technologies Co., Ltd. Inter-channel phase difference parameter extraction method and apparatus
CN108475509A (zh) * 2016-05-31 2018-08-31 华为技术有限公司 一种声道间相位差参数的提取方法及装置
CN108475509B (zh) * 2016-05-31 2022-10-04 华为技术有限公司 一种声道间相位差参数的提取方法及装置
US11393480B2 (en) 2016-05-31 2022-07-19 Huawei Technologies Co., Ltd. Inter-channel phase difference parameter extraction method and apparatus
US10672406B2 (en) 2016-06-20 2020-06-02 Qualcomm Incorporated Encoding and decoding of interchannel phase differences between audio signals
US11127406B2 (en) 2016-06-20 2021-09-21 Qualcomm Incorproated Encoding and decoding of interchannel phase differences between audio signals
CN109313906A (zh) * 2016-06-20 2019-02-05 高通股份有限公司 音频信号之间的声道间相位差的编码和解码
WO2017222871A1 (en) * 2016-06-20 2017-12-28 Qualcomm Incorporated Encoding and decoding of interchannel phase differences between audio signals
US10217467B2 (en) 2016-06-20 2019-02-26 Qualcomm Incorporated Encoding and decoding of interchannel phase differences between audio signals
CN109313906B (zh) * 2016-06-20 2023-07-28 高通股份有限公司 音频信号之间的声道间相位差的编码和解码
CN111133509A (zh) * 2017-05-16 2020-05-08 华为技术有限公司 一种立体声信号处理方法及装置
US11763825B2 (en) 2017-05-16 2023-09-19 Huawei Technologies Co., Ltd. Stereo signal processing method and apparatus
US11200907B2 (en) 2017-05-16 2021-12-14 Huawei Technologies Co., Ltd. Stereo signal processing method and apparatus
WO2018209942A1 (zh) * 2017-05-16 2018-11-22 华为技术有限公司 一种立体声信号处理方法及装置
WO2019001142A1 (zh) * 2017-06-30 2019-01-03 华为技术有限公司 一种声道间相位差参数的编码方法及装置
CN109215668B (zh) * 2017-06-30 2021-01-05 华为技术有限公司 一种声道间相位差参数的编码方法及装置
US11031021B2 (en) 2017-06-30 2021-06-08 Huawei Technologies Co., Ltd. Inter-channel phase difference parameter encoding method and apparatus
CN109215668A (zh) * 2017-06-30 2019-01-15 华为技术有限公司 一种声道间相位差参数的编码方法及装置
US11568882B2 (en) 2017-06-30 2023-01-31 Huawei Technologies Co., Ltd. Inter-channel phase difference parameter encoding method and apparatus
CN109300480A (zh) * 2017-07-25 2019-02-01 华为技术有限公司 立体声信号的编解码方法和编解码装置
US20220108710A1 (en) * 2017-07-25 2022-04-07 Huawei Technologies Co., Ltd. Encoding and Decoding Methods, and Encoding and Decoding Apparatuses for Stereo Signal
US11238875B2 (en) 2017-07-25 2022-02-01 Huawei Technologies Co., Ltd. Encoding and decoding methods, and encoding and decoding apparatuses for stereo signal
WO2019020045A1 (zh) * 2017-07-25 2019-01-31 华为技术有限公司 立体声信号的编解码方法和编解码装置
US11741974B2 (en) 2017-07-25 2023-08-29 Huawei Technologies Co., Ltd. Encoding and decoding methods, and encoding and decoding apparatuses for stereo signal
CN109300480B (zh) * 2017-07-25 2020-10-16 华为技术有限公司 立体声信号的编解码方法和编解码装置
US11727943B2 (en) 2017-08-10 2023-08-15 Huawei Technologies Co., Ltd. Time-domain stereo parameter encoding method and related product
WO2019029680A1 (zh) * 2017-08-10 2019-02-14 华为技术有限公司 时域立体声参数的编码方法和相关产品

Also Published As

Publication number Publication date
US20160254002A1 (en) 2016-09-01
JP2017503190A (ja) 2017-01-26
KR101798559B1 (ko) 2017-12-12
EP3057095A1 (en) 2016-08-17
KR20160077201A (ko) 2016-07-01
JP6335301B2 (ja) 2018-05-30
US10008211B2 (en) 2018-06-26
EP3057095B1 (en) 2019-11-20
EP3057095A4 (en) 2016-11-23
WO2015078123A1 (zh) 2015-06-04
CN104681029B (zh) 2018-06-05

Similar Documents

Publication Publication Date Title
CN104681029A (zh) 立体声相位参数的编码方法及装置
JP6626581B2 (ja) 1つの広帯域アライメント・パラメータと複数の狭帯域アライメント・パラメータとを使用して、多チャネル信号を符号化又は復号化する装置及び方法
US8355921B2 (en) Method, apparatus and computer program product for providing improved audio processing
US7573912B2 (en) Near-transparent or transparent multi-channel encoder/decoder scheme
TWI541797B (zh) 使用時間雜訊修補成形以編碼及解碼已被編碼音訊的裝置及方法
KR101049751B1 (ko) 오디오 코딩
CN104471641B (zh) 用于改善对多声道音频信号的呈现的方法和设备
EP2973551B1 (en) Reconstruction of audio scenes from a downmix
JP5418930B2 (ja) 音声復号化方法および音声復号化器
JP2022137052A (ja) マルチチャネル信号の符号化方法およびエンコーダ
EP3186807B1 (en) Apparatus and method for generating an enhanced audio signal using independent noise-filling
CN109410966B (zh) 音频编码器和解码器
KR20140139591A (ko) 채널간 차이 추정 방법 및 공간적 오디오 코딩 장치
US20230395083A1 (en) Stereo Signal Processing Method and Apparatus
CN110660401A (zh) 一种基于高低频域分辨率切换的音频对象编解码方法
EP2595147B1 (en) Audio data encoding method and device
KR101786863B1 (ko) 고 주파수 복원 알고리즘들을 위한 주파수 대역 테이블 설계
US8781134B2 (en) Method and apparatus for encoding and decoding stereo audio
CN105336334B (zh) 多声道声音信号编码方法、解码方法及装置
RU2798009C2 (ru) Стереофонический кодер и декодер аудиосигналов

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant