CN105531762B - 编码装置和方法、解码装置和方法以及程序 - Google Patents

编码装置和方法、解码装置和方法以及程序 Download PDF

Info

Publication number
CN105531762B
CN105531762B CN201480050373.8A CN201480050373A CN105531762B CN 105531762 B CN105531762 B CN 105531762B CN 201480050373 A CN201480050373 A CN 201480050373A CN 105531762 B CN105531762 B CN 105531762B
Authority
CN
China
Prior art keywords
gain
difference
yield value
code string
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN201480050373.8A
Other languages
English (en)
Other versions
CN105531762A (zh
Inventor
本间弘幸
知念彻
史润宇
畠中光行
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Publication of CN105531762A publication Critical patent/CN105531762A/zh
Application granted granted Critical
Publication of CN105531762B publication Critical patent/CN105531762B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/008Systems employing more than two channels, e.g. quadraphonic in which the audio signals are in digital form, i.e. employing more than two discrete digital channels
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/13Aspects of volume control, not necessarily automatic, in stereophonic sound systems

Abstract

本发明涉及一种可以利用较小代码量获得适当音量的音频的编码装置和方法、解码装置和方法以及程序。第一增益计算电路计算用于输入时序信号的音量校正的第一增益,并且第二增益计算电路计算用于通过对输入时序信号进行缩混而获得的缩混信号的音量校正的第二增益。增益编码电路计算第一增益与第二增益之间的增益差、时间帧之间的增益差以及时间帧内的增益差,并且对第一增益和第二增益进行编码。本发明可以应用于编码装置和解码装置。

Description

编码装置和方法、解码装置和方法以及程序
技术领域
本技术涉及一种编码装置和方法、解码装置和方法以及程序,并且具体地涉及一种可以利用较小的代码量获得适当音量的声音的编码装置和方法、解码装置和方法以及程序。
背景技术
在过去,根据MPEG(运动图片专家组)AAC(高级声音编码)(ISO/IEC 14496-3:2001)多声道声音编码技术,诸如缩混(downmix)和DRC(动态范围压缩)的辅助信息记录在比特流中,并且再现侧可以根据环境而使用辅助信息(例如,参见非专利文献1)。
通过使用这样的辅助信息,再现侧可以对声音信号进行缩混并且通过DRC控制音量以获得更适当的水平。
非专利文献1:Information technology Coding of audiovisual objects Part3:Audio(ISO/IEC 14496-3:2001)
发明内容
本发明要解决的问题
然而,当再现诸如11.1声道(下文中声道有时称为ch)的超多声道信号时,由于再现环境可具有诸如2ch、5.1ch和7.1ch的各种情况,因此可能难以获得足够的声音压力或者声音可能利用单个缩混系数被剪辑(clip)。
例如,在上述MPEG AAC中,诸如缩混和DRC的辅助信息被编码作为MDCT(改进型离散余弦变换)域中的增益。由于此,例如,11.1ch比特流在11.1ch按原样进行再现或者被缩混为2ch并被再现,由此声音压力水平可能减小,或者相反,大量会被剪辑,并且所获得的声音的音量可能不是适当的。
此外,如果辅助信息是针对每个再现环境而编码和传送的,则比特流的代码量会增加。
本技术是鉴于上述情形而做出的,并且目的是利用较小代码量获得适当音量的声音。
用于解决问题的手段
根据本技术的第一方面,一种编码装置包括:增益计算器,针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及增益编码器,获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码。
可使得增益编码器获得帧中的多个位置处的第一增益值与第二增益值之间的第一差值,或者获得帧中的多个位置处的第一增益值之间或帧中的多个位置处的第一差值之间的第二差值。
可使得增益编码器基于增益改变点而获得第二差值,其中,在该增益改变点处,帧中的第一增益值或第一差值的倾斜度发生改变。
可使得增益编码器获得增益改变点与另一增益改变点之间的差,从而获得第二差值。
可使得增益编码器获得增益改变点与通过基于另一增益点的一阶预测所预测的值之间的差,从而获得第二差值。
可使得增益编码器对帧中的增益改变点的数量和基于增益改变点处的第二差值的信息进行编码。
可使得增益编码器针对通过缩混获得的不通声道的数量的每个声音信号而计算第二增益值。
可使得增益编码器基于第一增益值与第二增益值之间的关联而选择是否要获得第一差值。
可使得增益编码器对第一差值或第二差值进行可变长度编码。
根据本技术的第一方面,一种编码方法或程序包括以下步骤:针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码。
根据本技术的第一方面,针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码。
根据本技术的第二方面,一种解码装置包括:解复用器,将输入代码串解复用成增益代码串和信号代码串,增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码,信号代码串是通过对声音信号进行编码而获得的;信号解码器,对信号代码串进行解码;以及增益解码器,对增益代码串进行解码,并且输出用于音量校正的第一增益值或第二增益值。
第一差值可通过获得帧中的多个位置处的第一增益值与第二增益值之间的差值来编码,并且第二差值可通过获得帧中的多个位置处的第一增益值之间或帧中的多个位置处的第一差值之间的差值来编码。
第二差值可基于增益改变点来获得,从而对第二差值进行编码,其中,在该增益改变点处,帧中的第一增益值或第一差值的倾斜度发生改变。
第二差值可基于增益改变点与另一增益改变点之间的差来获得,从而对第二差值进行编码。
第二差值可基于增益改变点与通过基于另一增益改变点的一阶预测所预测的值之间的差来获得,从而对第二差值进行编码。
帧中的增益改变点的数量和基于增益改变点处的第二差值的信息可被编码作为第二差值。
根据本技术的第二方面,一种解码方法或程序包括以下步骤:将输入代码串解复用成增益代码串和信号代码串,增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码,信号代码串是通过对声音信号进行编码而获得的;对信号代码串进行解码;以及对增益代码串进行解码,并且输出用于音量校正的第一增益值或第二增益值。
根据本技术的第二方面,将输入代码串解复用成增益代码串和信号代码串,增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得第一增益值与第二增益值之间的第一差值,或者获得第一增益值与相邻帧的第一增益值之间或第一差值与相邻帧的第一差值之间的第二差值,并且对基于第一差值或第二差值的信息进行编码,信号代码串是通过对声音信号进行编码而获得的;对信号代码串进行解码;以及对增益代码串进行解码,并且输出用于音量校正的第一增益值或第二增益值。
发明的效果
根据本技术的第一方面和第二方面,可以利用较小的代码量获得具有适当音量的声音。
注意,这里描述的效果不是限制,而是可获得本公开中描述的任何效果。
附图说明
图1是示出通过对声音信号进行编码获得的1帧的代码串的示例的图。
图2是示出解码装置的图。
图3是示出应用本技术的编码装置的配置的示例的图。
图4是示出DRC特性的图。
图5是示出信号的增益的关联的图。
图6是示出增益序列之间的差的图。
图7是示出输出代码串的示例的图。
图8是示出增益编码模式头部的示例的图。
图9是示出增益序列模式的示例的图。
图10是示出增益代码串的示例的图。
图11是示出0阶预测差分模式的图。
图12是示出位置信息的编码的图。
图13是示出码书的示例的图。
图14是示出一阶预测差分模式的图。
图15是示出时间帧之间的差的图。
图16是示出时间帧之间的差的概率密度分布的图。
图17是示出编码处理的流程图。
图18是示出增益编码处理的流程图。
图19是示出应用本技术的解码装置的配置的示例的图。
图20是示出解码处理的流程图。
图21是示出增益解码处理的流程图。
图22是示出编码装置的配置的示例的图。
图23是示出编码处理的流程图。
图24是示出编码装置的配置示例的图。
图25是示出编码处理的流程图。
图26是示出增益编码处理的流程图。
图27是示出解码装置的配置示例的图。
图28是示出解码处理的流程图。
图29是示出解码处理的流程图。
图30是示出计算机的配置示例的图。
具体实施方式
在下文中,参照附图,将描述应用本技术的实施例。
<第一实施例>
<本技术的概要>
首先,将描述MPEG AAC的一般DRC处理。
图1是示出包含在通过对声音信号进行编码获得的比特流中的1帧的信息的图。
根据图1的示例,1帧的信息包含辅助信息和主信息。
主信息是用于配置输出时序信号的主要信息,该输出时序信号是基于比例因子、MDCT系数等而编码的声音信号。辅助信息是有助于将输出时序信号(一般称为元数据)用于各种目的的次要信息。辅助信息包含增益信息和缩混信息。
通过使用增益因子以指标形式对例如11.1ch等的多个声道的声音信号进行编码而获得缩混信息,该增益因子用于将声音信号转换成较小数量声道的声音信号。当对声音信号进行解码时,各个声道的MDCT系数与基于缩混信息获得的增益因子相乘,并且将与增益因子相乘的各个声道的MDCT系数相加,从而获得缩混后的输出声道的MDCT系数。
同时,通过以指标形式对增益因子进行编码而获得增益信息,该增益因子用于将所有声道或预定声道的组对转换成另一信号水平。对于增益信息,与缩混增益因子类似,当解码时,各个声道的MDCT系数与基于增益信息获得的增益因子相乘,从而获得经DRC处理后的MDCT系数。
接下来,将描述包含图1的上述信息的比特流(即,MPEG AAC)的解码处理。
图2是示出执行MPEG AAC的DRC处理的解码装置的配置的图。
在图2的解码装置11中,1帧的输入比特流的输入代码串被提供到解复用电路21,然后解复用电路21对输入代码串进行解复用从而获得与主信息对应的信号代码串以及与辅助信息对应的增益信息和缩混信息。
解码器/逆量化器电路22对从解复用电路21提供的信号代码串进行解码和逆量化,并且将作为其结果获得的MDCT系数提供到增益应用电路23。此外,增益应用电路23基于缩混控制信息和DRC控制信息而将MDCT系数与增益因子相乘,并且输出所获得的经增益应用的MDCT系数,其中,增益因子是基于从解复用电路21提供的增益信息和缩混信息而获得的。
这里,缩混控制信息和DRC控制信息中的每个均是从上层控制设备提供的信息,并且示出是否要执行缩混或DRC处理。
逆MDCT电路24对来自增益应用电路23的经增益应用的MDCT系数执行逆MDCT处理,并且将所获得的逆MDCT信号提供到加窗/OLA电路25。此外,加窗/OLA电路25对所提供的逆MDCT信号执行加窗和叠加处理,从而获得从MPEG AAC的解码装置11输出的输出时序信号。
如上所述,在MPEG AAC中,诸如缩混和DRC的辅助信息被编码作为MDCT域中的增益。由于此,例如,11.1ch比特流在11.1ch按原样再现或者被缩混为2ch并被再现,从而声音压力水平会减小,或者相反,大量会被剪辑,并且所获得的声音的音量可能是不适当的。
例如,根据MPEG AAC(ISO/IEC14496-3:2001),章节4.5.1.2.2的矩阵缩混处理描述了如以下数学式(1)所示的从5.1ch到2ch的缩混方法。
[数学式1]
注意,在数学式(1)中,L、R、C、Sl和Sr分别表示5.1声道信号的左声道信号、右声道信号、中心声道信号、侧左声道信号和侧右声道信号。此外,Lt和Rt分别表示2ch缩混后的左声道信号和右声道信号。
此外,在数学式(1)中,k是用于调整侧声道的混合率的系数,并且1/sqrt(2)、1/2、(1/2sqrt(2))和0之一可以被选作系数k。
这里,如果所有声道的信号具有最大幅度,则缩混后的信号被剪辑。换言之,如果根据数学式(1)所有L、R、C、Sl和Sr声道的信号的幅度都是1.0,则Lt信号和Rt信号的幅度是1.0,而与k值无关。换言之,保证了没有产生剪辑失真的缩混公式。
注意,如果系数k=1/sqrt(2),则在数学式(1)中,L或R增益是-7.65dB,C增益是-10.65dB,并且Sl或Sr增益是-10.65dB。因此,作为用于不产生剪辑失真的折中,与待缩混信号水平相比,信号水平大大降低。
为了防止如上所述信号水平会降低,在采用MPEG AAC的日本的地面数字广播中,根据数字广播接收器设备标准ARIB(无线电工业和商业协会)STD-B21的第5.0版本的章节6.2.1(7-1),缩混方法被描述为如以下数学式(2)所示。
[数学式2]
注意,在数学式(2)中,L、R、C、Sl、Sr、Lt、Rt和k与数学式(1)中相同。
在该示例中,作为系数k,与数学式(1)类似,可以选择1/sqrt(2)、1/2、(1/2sqrt(2))和0之一。
根据数学式(2),如果k=1/sqrt(2),则数学式(2)的L或R增益是-3dB,C增益是-6dB,并且Sl或Sr增益是-6dB,这表示待缩混信号的水平与缩混后信号的水平的差小于数学式(1)的差。
注意,在该情况下,如果L、R、C、Sl和Sr都是1.0,则信号被剪辑。然而,根据ARIBSTD-B21第5.0版本的附录4的描述,如果使用该缩混公式,则在一般信号中很难产生剪辑失真,并且在上溢的情况下,如果信号被所谓的软剪辑,由此符号没有被翻转,则在听觉上信号没有大大失真。
然而,在上述示例中,声道的数量是5.1声道。如果11.1声道或更大数量的声道被编码和缩混,则产生较大的剪辑失真,并且水平差均较大。
鉴于此,例如,取代将DRC辅助信息编码为增益,可采用对已知DRC特性的指标进行编码的方法。在该情况下,当解码时,执行DRC处理以使得解码后的PCM(脉冲编码调制)信号(即,上述输出时序信号)具有该指标的DRC特性,从而可以防止由于缩混的存在/不存在而声音压力水平降低以及防止产生剪辑。
然而,根据该方法,由于解码装置侧具有DRC特性信息,因此内容创建者侧无法自由地表示DRC特性,并且由于解码装置侧自己执行DRC处理,因此计算量大。
同时,为了防止缩混后的信号水平降低以及防止产生剪辑失真,可采用根据缩混的存在/不存在而应用不同的DRC增益因子的方法。
然而,如果声道的数量远远大于传统的5.1声道,则缩混后的声道的数量的模态数量也增加。例如,在一种情况下,11.1ch信号可被缩混为7.1ch、5.1ch或2ch。为了发送如上所述的多个增益,代码量是传统情况的4倍大。
此外,近年来,在DRC领域中,根据收听环境而应用不同范围的DRC系数的需求正增加。例如,在家收听所需的动态范围与利用移动终端进行收听所需的动态范围不同,并且优选地应用不同的DRC系数。在该情况下,如果两个不同范围的DRC系数被发送到对于每个缩混情况的解码器侧,则代码量是当发送一个DRC系数时的8倍大。
此外,根据对于每个时间帧编码一个(在短窗口中为八个)DRC增益因子的方法(诸如MPEG AAC(ISO/IEC 14496-3:2001)),时间分辨率是不适当的,并且需要等于或小于1毫秒的时间分辨率。鉴于此,期望DRC增益因子的数量可增加更多,并且如果仅通过使用已知方法对DRC增益因子进行编码,则代码量将是传统情况的大约8倍至几十倍。
鉴于此,根据本技术,编码装置侧的内容创建者能够自由地设置DRC增益,减轻了解码装置的计算负荷,并且同时,可以减少传输所需的代码量。换言之,根据本技术,可以利用较小的代码量获得适当音量的声音。
<编码装置的配置的示例>
接下来,将描述应用本技术的具体实施例。
图3是示出应用本技术的根据一个实施例的编码装置的功能配置的示例的图。
图3的编码装置51包括第一声音压力水平计算电路61、第一增益计算电路62、缩混电路63、第二声音压力水平计算电路64、第二增益计算电路65、增益编码电路66、信号编码电路67和复用电路68。
第一声音压力水平计算电路61基于输入时序信号(即,所提供的多声道声音信号)而计算输入时序信号的声道的声音压力水平,并且获得这些声道的声音压力水平的代表值作为第一声音压力水平。
例如,计算声音压力水平的方法基于每个时间帧的输入时序信号的每个声道的声音信号的最大值、RMS(均方根)等,并且针对输入时序信号的每个时间帧、针对构成输入时序信号的每个声道而获得声音压力水平。
此外,作为计算代表值(即,第一声音压力水平)的方法,可采用例如采用每个声道的声音压力水平的最大值作为代表值的方法、通过使用预定计算公式基于每个声道的声音压力水平而计算一个代表值的方法等。具体地,例如,可以通过使用在ITU-R BS.1770-2(03/2011)中描述的响度计算公式来计算代表值。
注意,针对输入时序信号的每个时间帧而获得声音压力水平的代表值。此外,时间帧(即,要由第一声音压力水平计算电路61处理的单位)与由下述信号编码电路67处理的输入时序信号的时间帧同步,并且是等于或短于信号编码单元67处理的时间帧的时间帧。
第一声音压力水平计算电路61将所获得的第一声音压力水平提供到第一增益计算电路62。如上所述获得的第一声音压力水平示出了输入时序信号的声道的代表声音压力水平,该输入时序信号包含例如诸如11.1ch的预定数量的声道的声音信号。
第一增益计算电路62基于从第一声音压力水平计算电路61提供的第一声音压力水平而计算第一增益,并且将第一增益提供到增益编码电路66。
这里,第一增益示出了如下增益:其用于对输入时序信号的音量进行校正,以便在解码装置侧再现输入时序信号时获得具有适当音量的声音。换言之,如果输入时序信号没有被缩混,则通过基于第一增益对输入时序信号的音量进行校正,再现侧能够获得具有适当音量的声音。
存在获得第一增益的各种方法,并且例如,可使用图4的DRC特性。
注意,在图4中,水平轴示出了输入声音压力水平(dBFS),即,第一声音压力水平,并且垂直轴示出了输出声音压力水平(dBFS),即,在借助于DRC处理对输入时序信号的声音压力水平进行校正(对音量进行校正)之后的校正后声音压力水平。
折线C1和折线C2中的每个示出了输入/输出声音压力水平的关系。例如,根据折线C1的DRC特性,如果输入了0dBFS的第一声音压力水平,则对音量进行校正,从而输入时序信号的声音压力水平变为-27dBFS。因此,在该情况下,第一增益是-27dBFS。
同时,例如,根据折线C2的DRC特性,如果输入了0dBFS的第一声音压力水平,则对音量进行校正,从而输入时序信号的声音压力水平变为-21dBFS。因此,在该情况下,第一增益是-21dBFS。
在下文中,基于折线C1的DRC特性对音量进行校正的模式将被称为DRC_MODE1。此外,基于折线C2的DRC特性对音量进行校正的模式将被称为DRC_MODE2。
第一增益计算电路62基于指定模式(诸如DRC_MODE1和DRC_MODE2)的DRC特性而确定第一增益。第一增益被输出作为与信号编码电路67的时间帧同步的增益波形。换言之,第一增益计算电路62针对处理后的输入时序信号的时间帧的每个样本而计算第一增益。
再次参照图3,缩混电路63通过使用从上层控制设备提供的缩混信息而对提供到编码装置51的输入时序信号进行缩混,并且将作为其结果获得的缩混信号提供到第二声音压力水平计算电路64。
注意,缩混电路63可输出一个缩混信号或者可输出多个缩混信号。例如,对11.1ch的输入时序信号进行缩混,并且可生成2ch的声音信号的缩混信号、5.1ch的声音信号的缩混信号和7.1ch的声音信号的缩混信号。
第二声音压力水平计算电路64基于缩混信号(即,从缩混电路63提供的多声道声音信号)而计算第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路65。
第二声音压力水平计算电路64使用与第一声音压力水平计算电路61计算第一声音压力水平的方法相同的方法,并且针对每个缩混信号而计算第二声音压力水平。
第二增益计算电路65基于第二声音压力水平而针对每个缩混信号计算从第二声音压力水平计算电路64提供的每个缩混信号的第二声音压力水平的第二增益,并且将第二增益提供到增益编码电路66。
这里,第二增益计算电路65基于第一增益计算电路62使用的DRC特性和增益计算方法而计算第二增益。
换言之,第二增益示出了如下增益:其用于对缩混信号的音量进行校正,以便在解码装置侧对输入时序信号进行缩混和再现时获得具有适当音量的声音。换言之,如果输入时序信号被缩混,则通过基于第二增益对所获得的缩混信号的音量进行校正,可以获得具有适当音量的声音。
这样的第二增益可以是如下增益:其用于基于DRC特性对声音的音量进行校正从而获得更适当的音量,并且另外,用于对在被缩混时改变的声音压力水平进行校正。
这里,将具体描述由第一增益计算电路62和第二增益计算电路65中的每个获得第一增益或第二增益的增益波形的方法的示例。
可以基于以下数学式(3)的计算而获得时间帧k的增益波形g(k,n)。
[数学式3]
g(k,n)=A×Gt(k)+(1-A)×g(k,n-1)...(3)
注意,在数学式(3)中,n是具有值0至N-1的时间样本,其中,N是时间帧长度,并且Gt(k)是时间帧k的目标增益。
此外,在数学式(3)中,A是基于以下数学式(4)确定的值。
[数学式4]
A=1-exp(-1/(2×Fs×Tc(k))...(4)
在数学式(4)中,Fs是采样频率(Hz),Tc(k)是时间帧k的时间常数,并且exp(k)是指数函数。
此外,在数学式(3)中,作为n=0时的g(k,n-1),使用先前时间帧的终端增益值g(k-1,N-1)。
首先,可以基于由上述第一声音压力水平计算电路61或第二声音压力水平计算电路64获得的第一声音压力水平或第二声音压力水平、并且基于图4的DRC特性来获得Gt(k)。
例如,如果使用图4的DRC_MODE2特性并且如果声音压力水平是-3dBFS,由于输出声音压力水平是-21dBFS,则Gt(k)是-18dB(分贝值)。接下来,可以基于上述Gt(k)与先前时间帧的增益g(k-1,N-1)之间的差来获得时间常数Tc(k)。
作为DRC的一般特征,输入大的声音压力水平,从而增益减小,这被称为起音(attack),并且已知由于增益急剧减小,因此采用较短的时间常数。同时,输入相对小的声音压力水平从而返回增益,这称为释音(release),并且已知由于增益缓慢返回以便减小声音摆动,因此采用较长的时间常数。
一般地,时间常数根据期望DRC特性而不同。例如,一般地,针对记录/再现人话音的设备(诸如话音记录器)设置较短的时间常数,相反,对于记录/再现音乐的设备(诸如便携式音乐播放器)设置较长的释音时间常数。在上述该示例中,为了使得描述简单,如果Gt(k)-g(k-1,N-1)小于零,则作为起音的时间常数是20毫秒,并且如果Gt(k)-g(k-1,N-1)等于或大于零,则作为释音的时间常数是2秒。
如上所述,根据基于数学式(3)的计算,可以获得增益波形g(k,n)作为第一增益或第二增益。
再次参照图3,增益编码电路66对从第一增益计算电路62提供的第一增益和从第二增益计算电路65提供的第二增益进行编码,并且将作为其结果获得的增益代码串提供到复用电路68。
这里,当对第一增益和第二增益进行编码时,任意地对同一时间帧的这些增益之间的差、不同时间帧的同一增益之间的差或者同一(对应)时间帧的不同增益之间的差进行计算和编码。注意,不同增益之间的差表示第一增益与第二增益之间的差或者不同第二增益之间的差。
信号编码电路67基于预定编码方法(例如,诸如MPEG AAC的编码方法的一般编码方法)对所提供的输入时序信号进行编码,并且将作为其结果获得的信号代码串提供到复用电路68。复用电路68对从增益编码电路66提供的增益代码串、从上层控制设备提供的缩混信息和从信号编码电路67提供的信号代码串进行复用,并且输出作为其结果获得的输出代码串。
<第一增益和第二增益>
这里,将描述提供到增益编码电路66的第一增益和第二增益以及从增益编码电路66输出的增益代码串的示例。
例如,假设获得图5的增益波形作为提供到增益编码电路66的第一增益和第二增益。注意,在图5中,水平轴表示时间,并且垂直轴表示增益(dB)。
在图5的示例中,折线C21表示作为第一增益获得的11.1ch的输入时序信号的增益,并且折线C22表示作为第二增益获得的5.1ch的缩混信号的增益。这里,5.1ch的缩混信号是通过对11.1ch的输入时序信号进行缩混而获得的声音信号。
此外,折线C23表示第一增益与第二增益之间的差。
由于如从折线C21至折线C23明显的是第一增益与第二增益的关联高,因此与独立地对第一增益和第二增益进行编码相比,通过使用其关联更高效地对第一增益和第二增益进行编码。鉴于此,编码装置51获得增益信息中的两个增益(诸如第一增益和第二增益)之间的差,并且高效地对获得其差的增益中的一个增益以及该差进行编码。
在下文中,在诸如第一增益或第二增益的增益信息中,从其减去其它增益信息的主增益信息将有时被称为主增益序列,并且从主增益序列减去的增益信息将有时被称为从增益序列。此外,如果不彼此区分,则主增益序列和从增益序列将被称为增益序列。
<输出代码串>
此外,在上述示例中,第一增益是11.1ch的输入时序信号的增益,并且第二增益是5.1ch的缩混信号的增益。为了详细地描述主增益序列与从增益序列之间的关系,在以下将假设如下来进行描述:此外,通过对11.1ch的输入时序信号进行缩混来获得7.1ch的缩混信号的增益和2ch的缩混信号的增益。换言之,7.1ch增益和2ch增益两者都是第二增益计算电路65获得的第二增益。因此,在该示例中,第二增益计算电路65计算三个第二增益。
图6是示出主增益序列与从增益序列之间的关系的示例的图。注意,在图6中,水平轴表示时间帧,并且垂直轴表示每个增益序列。
在该示例中,GAIN_SEQ 0表示11.1ch的增益序列的第一增益,即,11.1ch的未缩混的输入时序信号。此外,GAIN_SEQ 1表示7.1ch的增益序列,即,作为缩混结果获得的7.1ch的缩混信号的第二增益。
此外,GAIN_SEQ 2表示5.1ch的增益序列,即,5.1ch的缩混信号的第二增益,并且GAIN_SEQ 3表示2ch的增益序列,即,2ch的缩混信号的第二增益。
此外,在图6中,“M1”表示第一主增益序列,并且“M2”表示第二主增益序列。此外,在图6中,由“M1”或“M2”指示的每个箭头的端点表示与“M1”或“M2”指示的主增益序列对应的从增益序列。
对于时间帧J,在时间帧J中,11.1ch的增益序列是主增益序列。此外,7.1ch、5.1ch和2ch的其它增益序列是对于11.1ch的增益序列的从增益序列。
因此,在时间帧J中,11.1ch的增益序列(即,主增益序列)按原样进行编码。此外,获得主增益序列与7.1ch、5.1ch和2ch的增益序列(即,从增益序列)之间的差,并且对差进行编码。通过如上所述对增益序列进行编码获得的信息被视为增益代码串。
此外,在时间帧J中,表示增益编码模式的信息(即,主增益序列与从增益序列之间的关系)被编码,因此获得增益编码模式头部HD11,并且增益编码模式头部HD11和增益代码串被添加到输出代码串。
如果处理后的时间帧的增益编码模式与先前时间帧的增益编码模式不同,则生成增益编码模式头部并且将其添加到输出代码串。
因此,由于时间帧J的增益编码模式与作为时间帧J接下来的帧的时间帧J+1的增益编码模式相同,因此不对时间帧J+1的增益编码模式头部进行编码。
相反,由于时间帧K的主增益序列与从增益序列之间的对应关系改变并且增益编码模式与先前时间帧不同,因此增益编码模式头部HD12被添加到输出代码串。
在该示例中,11.1ch的增益序列是主增益序列,并且7.1ch的增益序列是对于11.1ch的增益序列的从增益序列。此外,5.1ch的增益序列是第二主增益序列,并且2ch的增益序列是对于5.1ch的增益序列的从增益序列。
接下来,将具体描述如果如图6所示增益编码模式根据时间帧改变则从编码装置51输出的比特流(即,时间帧的输出代码串)的示例。
例如,如图7所示,从编码装置51输出的比特流包含各个时间帧的输出代码串,并且每个输出代码串包含辅助信息和主信息。
例如,在时间帧J中,与图6的增益编码模式头部HD11对应的增益编码模式头部、增益代码串和缩混信息包含在输出代码串中作为辅助信息的分量。
这里,在图6的示例中,增益代码串是通过对11.1ch至2ch的四个增益序列进行编码而获得的信息。此外,缩混信息与图1的缩混信息相同,并且是用于获得增益因子的信息(指标),该增益因子是解码装置侧对输入时序信号进行缩混所需的。
此外,时间帧J的输出代码串包含信号代码串作为主信息。
在时间帧J接下来的时间帧J+1中,由于增益编码模式没有改变,因此辅助信息不包含增益编码模式头部,并且输出代码串包含作为辅助信息的增益代码串和缩混信息以及作为主信息的信号代码串。
在时间帧K中,由于增益编码模式再次改变,因此输出代码串包含作为辅助信息的增益编码模式头部、增益代码串和缩混信息以及作为主信息的信号代码串。
此外,在下文中,将详细描述图7的增益编码模式头部和增益代码串。
包含在输出代码串中的增益编码模式头部具有例如图8的配置。
图8的增益编码模式头部包含GAIN_SEQ_NUM、GAIN_SEQ0、GAIN_SEQ1、GAIN_SEQ2和GAIN_SEQ3,并且每个数据均被编码从而具有2字节。
GAIN_SEQ_NUM表示编码后的增益序列的数量,并且在图6的示例中,由于四个增益序列被编码,因此GAIN_SEQ_NUM=4。此外,GAIN_SEQ0至GAIN_SEQ3中的每个是表示每个增益序列的内容的数据,即,增益序列模式的数据,并且在图6的示例中,存储了11.1ch、7.1ch、5.1ch和2ch的每个增益序列的信息。
GAIN_SEQ0至GAIN_SEQ3中的每个的每个增益序列模式的数据具有例如图9的配置。
增益序列模式的数据包含MASTER_FLAG、DIFF_SEQ_ID、DMIX_CH_CFG_ID和DRC_MODE_ID,并且四个元素中的每个均被编码因而具有4比特。
MASTER_FLAG是表示在增益序列模式的数据中描述的增益序列是否是主增益序列的标识符。
例如,如果MASTER_FLAG值是“1”,则表示增益序列是主增益序列,并且如果MASTER_FLAG值是“0”,则表示增益序列是从增益序列。
DIFF_SEQ_ID是表示要计算在增益序列模式的数据中描述的增益序列与哪个主增益序列之间的差的标识符,并且如果MASTER_FLAG值是“0”则DIFF_SEQ_ID被读出。
DMIX_CH_CFG_ID是与增益序列对应的声道的配置信息,即,表示例如11.1ch、7.1ch等的多声道声音信号的声道数量的信息。
DRC_MODE_ID是表示用于由第一增益计算电路62或第二增益计算电路65计算增益的DRC的特性的标识符,并且在图4的示例中,DRC_MODE_ID是表示例如DRC_MODE1或DRC_MODE2的信息。
注意,主增益序列的DRC_MODE_ID有时与从增益序列的DRC_MODE_ID不同。换言之,有时获得增益序列之间的差,这些增益序列的增益是基于不同DRC特性而获得的。
这里,例如,在图6的时间帧J中,11.1ch的增益序列的信息存储在图8的GAIN_SEQ0(增益序列模式)中。
此外,在该增益序列模式中,MASTER_FLAG是1,DIFF_SEQ_ID是0,DMIX_CH_CFG_ID是表示11.1ch的标识符,DRC_MODE_ID是表示例如DRC_MODE1的标识符,并且增益序列模式被编码。
类似地,在存储7.1ch的增益序列的信息的GAIN_SEQ1中,MASTER_FLAG是0,DIFF_SEQ_ID是0,DMIX_CH_CFG_ID是表示7.1ch的标识符,DRC_MODE_ID是表示例如DRC_MODE1的标识符,并且增益序列模式被编码。
此外,在GAIN_SEQ2中,MASTER_FLAG是0,DIFF_SEQ_ID是0,DMIX_CH_CFG_ID是表示5.1ch的标识符,DRC_MODE_ID是表示例如DRC_MODE1的标识符,并且增益序列模式被编码。
此外,在GAIN_SEQ3中,MASTER_FLAG是0,DIFF_SEQ_ID是0,DMIX_CH_CFG_ID是表示2ch的标识符,DRC_MODE_ID是表示例如DRC_MODE1的标识符,并且增益序列模式被编码。
此外,如上所述,在时间帧J+1及以后,如果主增益序列与从增益序列之间的对应关系没有改变,则不将增益编码模式头部插入在比特流中。
同时,如果主增益序列与从增益序列的对应关系改变,则对增益编码模式头部进行编码。
例如,在图6的时间帧K中,已作为从增益序列的5.1ch的增益序列(GAIN_SEQ2)变为第二主增益序列。此外,2ch的增益序列(GAIN_SEQ3)变为5.1ch的增益序列的从增益序列。
因此,虽然时间帧K的增益编码模式头部的GAIN_SEQ0和GAIN_SEQ1与时间帧J相同,但是GAIN_SEQ2和GAIN_SEQ3改变。
换言之,在GAIN_SEQ2中,例如,MASTER_FLAG是1,DIFF_SEQ_ID是0,DMIX_CH_CFG_ID是表示5.1ch的标识符,并且DRC_MODE_ID是表示DRC_MODE1的标识符。此外,在GAIN_SEQ3中,MASTER_FLAG是0,DIFF_SEQ_ID是2,DMIX_CH_CFG_ID是表示2ch的标识符,并且DRC_MODE_ID是表示例如DRC_MODE1的标识符。这里,对于作为主增益序列的5.1ch的增益序列,不需要读取DIFF_SEQ_IED,因此DIFF_SEQ_ID可以是任意值。
此外,包含在图7的输出代码串的辅助信息中的增益代码串被配置为例如如图10所示。
在图10的增益代码串中,GAIN_SEQ_NUM表示针对增益编码模式头部所编码的增益序列的数量。此外,其数量由GAIN_SEQ_NUM表示的增益序列的信息被描述在GAIN_SEQ_NUM及之后。
挨在GAIN_SEQ_NUM之后布置的hld_mode是表示在时间方面的先前时间帧的增益是否要被保持的标志,其被编码并且具有1比特。注意,在图10中,uimsbf表示无符号整数最高有效位在先(Unsigned Integer Most Significant Bit First),并且表示无符号整数被编码,其中,MSB侧是第一位。
例如,如果hld_mode值是1,则先前时间帧的增益(即,例如,通过解码获得的第一增益或第二增益)按原样用作当前时间帧的增益。因此,在该情况下,表示获得不同时间帧的第一增益或第二增益之间的差,并且对其进行编码。
同时,如果hld_mode值是0,则基于在hld_mode及之后描述的信息获得的增益用作当前时间帧的增益。
如果hld_mode值是0,则接在hld_mode之后,cmode以2比特描述,并且gpnum以6比特描述。
cmode是用于根据要在其及之后编码的增益改变点生成增益波形的编码方法。
具体地,cmode1的较低1比特表示增益改变点的差分编码模式。具体地,如果cmode的较低1比特的值是0,则表示增益编码方法是0阶预测差分模式(下文中有时称为DIFF1模式),并且如果cmode的较低1比特的值是1,则表示增益编码方法是一阶预测差分模式(下文中有时称为DIFF2模式)。
这里,增益改变点表示如下时间:在包含时间帧中的各个时间(样本)处的增益的增益波形中,在该时间处,在该时间之后的增益的倾斜度从该时间之前的增益的倾斜度改变。注意,在下文中,将假设如下进行描述:时间(样本)被预定作为对于增益改变点的候选点,并且在候选点当的、候选点之后的增益的倾斜度从候选点之前的增益的倾斜度改变的候选点被确定为增益改变点。此外,如果处理后的增益序列是从增益序列,则增益改变点是如下时间:在相对于主增益序列的增益差分波形中,在该时间处,在该时间之后的增益(差)的倾斜度从该时间之前的增益(差)的倾斜度改变。
0阶预测差分模式表示如下模式:为了对包含各个时间(即,各个样本)处的增益的增益波形进行编码,获得每个增益改变点处的增益与先前增益改变点处的增益之间的差,从而对增益波形进行编码。换言之,0阶预测差分模式表示如下模式:为了对增益波形进行解码,通过使用各个时间处的增益与另一时间的增益之间的差而对增益波形进行解码。
相反,一阶预测差分模式表示如下模式:为了对增益波形进行编码,基于通过先前增益改变点的线性函数而预测每个增益改变点的增益,即,一阶预测,获得预测值(一阶预测值)与真实增益之间的差,从而对增益波形进行编码。
同时,cmode的较高1比特表示是否要对时间帧的起始处的增益进行编码。具体地,如果cmode的较高1比特是0,则对时间帧的起始处的增益进行编码以具有12比特的固定长度,并且其被描述为图10的gval_abs_id0。
gval_abs_id0的MSB1比特是符号位,并且剩余11比特表示基于以下数学式(5)、以0.25dB的步长确定的“gval_abs_id0”的值(增益)。
[数学式5]
gain_abs_linear=2^((0×7FF&gval_abs_id0)/24)···5)
注意,在数学式(5)中,gain_abs_linear表示线性值的增益,即,作为主增益序列的增益的第一增益或第二增益,或者表示主增益序列的增益与从增益序列的增益之间的差。这里,gain_abs_linear是时间帧的起始处的样本位置处的增益。此外,在数学式(5)中,“^”表示幂。
此外,如果cmode的较高1比特是1,则表示当解码时先前时间帧的末端处的增益值被视为当前时间帧的起始处的增益值。
此外,在图10中,增益代码串的gpnum表示增益改变点的数量。
此外,在增益代码串中,gloc_id[k]和gval_diff_id[k]挨在gpnum或gval_abs_id0之后被描述,gloc_id[k]和gval_diff_id[k]的数量与gpnum的增益改变点的数量相同。
这里,gloc_id[k]和gval_diff_id[k]表示增益改变点和增益改变点处的编码增益。注意,gloc_id[k]和gval_diff_id[k]的k是标识增益改变点的指标,并且表示增益改变点的顺序。
在该示例中,gloc_id[k]以3比特描述,并且gval_diff_id[k]以1比特至11比特中的任一个描述。注意,在图10中,vlclbf表示可变长度代码左比特在先(Variable LengthCode Left Bit First),并且表示编码的起始是可变长度代码的左比特。
这里,将更具体地描述0阶预测差分模式(DIFF1模式)和一阶预测差分模式(DIFF2模式)。
首先,参照图11,将描述0阶预测差分模式。注意,在图11中,水平轴表示时间(样本),并且垂直轴表示增益。
在图11中,折线C31表示处理后的增益序列的增益,更具体地,主增益序列的增益(第一增益或第二增益)或者主增益序列的增益与从增益序列的增益之间的差值。
此外,在该示例中,在处理后的时间帧J中检测到两个增益改变点G11和G12,并且PREV11表示时间帧J的起始位置,即,时间帧J-1的末端位置。
首先,增益改变点G11处的位置gloc[0]被编码并且具有3比特作为表示从时间帧J的起始起的时间样本值的位置信息。
具体地,基于图12的表格对增益改变点进行编码。
在图12中,gloc_id表示被描述为图10的增益代码串的gloc_id[k]的值,gloc[gloc_id]表示对于增益改变点的候选点的位置,即,从时间帧的起始处的样本或先前增益改变点到作为候选点的样本的样本的数量。
在该示例中,从时间帧的起始起的第0、16、32、64、128、256、512和1024个样本是对于增益改变点的候选点,这些样本在时间帧中不均匀地间隔开。
因此,例如,如果增益改变点G11是从时间帧J的起始处的样本开始的第512个位置处的样本,则与gloc[gloc_id]=512对应的gloc_id值“6”在增益代码串中被描述为gloc_id[0],其表示k=0的增益改变点处的位置。
再次参照图11,随后,对增益改变点G11处的增益值gval[0]与时间帧J的起始位置处的PREV11的增益值之间的差进行编码。该差利用1比特至11比特的可变长度代码被编码为图10的增益代码串gval_diff_id[k]。
例如,基于图13的编码表(码书)对增益改变点G11处的增益值gval[0]与起始位置PREV11处的增益值之间的差进行编码。
在该示例中,如果增益值之间的差是0,则“1”被描述为gval_diff_id[k],如果增益值之间的差是+0.1,则“01”被描述为gval_diff_id[k],并且如果增益值之间的差是+0.2,则“001”被描述为gval_diff_id[k]。
此外,如果增益值之间的差是+0.3或更大或者0或更小,则代码“000”被描述为gval_diff_id[k],并且挨着该代码之后描述表示增益值之间的差的8比特的固定长度代码。
如上所述,对第一增益改变点G11处的位置和增益值进行编码,随后,对接下来的增益改变点G12的位置与先前增益改变点G11的位置之间的差、以及接下来的增益改变点G12的增益值与先前增益改变点G11的增益值之间的差进行编码。
换言之,基于图12的表格,与增益改变点G11处的位置类似,增益改变点G12处的位置gloc[1]被编码为具有3比特,作为表示从先前增益改变点G11的位置gloc[0]起的时间样本值的位置信息。例如,如果增益改变点G12是位于从先前增益改变点G11的位置gloc[0]起的第256个点处的样本,则与gloc[gloc_id]=256对应的gloc_id值“5”被描述在增益代码串中作为gloc_id[1],gloc_id[1]表示k=第一的增益改变点处的位置。
此外,基于图13的编码表,与增益改变点G11处的增益值类似,增益改变点G12处的增益值gval[1]与增益改变点G11处的增益值gval[0]之间的差被编码为具有1比特至11比特的可变长度代码。换言之,基于图13的编码表对增益值gval[1]与增益值gval[0]之间的差值进行编码,并且所获得的代码被描述在增益代码串中作为k=第一时的gval_diff_id[1]。
注意,gloc表格可不限于图12的表格,并且可使用gloc(对于增益改变点的候选点)的最小间隔是1从而时间分辨率增加的表格。此外,在可以保证高比特率的应用中,当然,还可以获得增益波形的每一个样本的差。
接下来,参照图14,将描述一阶预测差分模式(DIFF2模式)。注意,在图14中,水平轴表示时间(样本),并且垂直轴表示增益。
在图14中,折线C32表示处理后的增益序列的增益,更具体地,主增益序列的增益(第一增益或第二增益)、或者主增益序列的增益与从增益序列的增益之间的差。
此外,在该示例中,在处理后的时间帧J中检测到两个增益改变点G21和G22,并且PREV21表示时间帧J的起始位置。
首先,增益改变点G21处的位置gloc[0]被编码并且具有3比特作为表示从时间帧J的起始起的时间样本值的位置信息。该编码与参照图11描述的增益改变点G11处的处理类似。
接下来,对增益改变点G21处的增益值gval[0]与增益值gval[0]的一阶预测值之间的差进行编码。
具体地,时间帧J-1的增益波形从时间帧J的起始位置PREV21延伸,并且获得在延伸的线上的位置gloc[0]处的点P11。此外,点P11处的增益值被视为增益值gval[0]的一阶预测值。
换言之,通过起始位置PREV21的直线被视为通过延伸时间帧J-1的增益波形而获得的直线,该直线的倾斜度与时间帧J-1中的增益波形的端部的倾斜度相同,并且通过使用表示直线的线性函数来计算增益值gval[0]的一阶预测值。
此外,获得如此获得的一阶预测值与真实增益值gval[0]之间的差,并且基于例如图13的编码表,该差被编码为具有从1比特至11比特的可变长度代码。此外,基于可变长度编码所获得的代码被描述在图10的增益代码串的gval_diff_id[0]中作为表示当k=0时的增益改变点G21处的增益值的信息。
随后,对接下来的增益改变点G22的位置与先前增益改变点G21的位置之间的差、以及接下来的增益改变点G22的增益值与先前增益改变点G21的增益值之间的差进行编码。
换言之,与增益改变点G21处的位置类似,基于图12的表格,增益改变点G22处的位置gloc[1]被编码为具有3比特作为表示从先前增益改变点G21的位置gloc[0]起的时间样本值的位置信息。
此外,对增益改变点G22处的增益改变值gval[1]与增益值gval[1]的一阶预测值之间的差进行编码。
具体地,以连接(通过)起始位置PREV21和先前增益改变点G21的直线的倾斜度更新用于获得一阶预测值的倾斜度,并且获得直线上的位置gloc[1]处的点P12。此外,点P12处的增益值被视为增益值gval[1]的一阶预测值。
换言之,通过使用表示具有更新后的倾斜度的、通过先前增益改变点G21的直线的线性函数来计算增益值gval[1]的一阶预测值。此外,获得如此获得的一阶预测值与真实增益值gval[1]之间的差,并且基于例如图13的编码表,该差被编码为具有从1比特至11比特的可变长度代码。此外,通过可变长度编码获得的代码被描述在图10的增益代码串的gval_diff_id[1]中作为表示当k=第一时的增益改变点G22处的增益值的信息。
如上所述,针对每个时间帧对每个增益序列的增益进行编码。然而,用于对每个增益改变点处的增益值进行可变长度编码的编码表不限于图13的编码表,并且可使用任何编码表。
具体地,作为用于可变长度编码的编码表,可根据缩混声道的数量、图4的上述DRC特性的差、差分编码模式(诸如0阶预测差分模式和一阶预测差分模式)等而使用不同的编码表。结果,可以更高效地对每个增益序列的增益进行编码。
这里,例如,将描述利用DRC和一般人类听觉特性来配置编码表的方法。如果输入大的声音,则需要减小增益以获得期望的DRC特性,并且如果此后没有输入大的声音则返回增益。
一般地,前者称为起音,并且后者称为释音。根据人类听觉特性,声音变得不稳定,并且人可听见不方便的声音摆动,除非提高起音的速度并且与起音的速度相比大大减小释音的速度。
鉴于这样的特性,通过使用一般使用的起音/释音DRC特性获得与上述0阶预测差分模式对应的时间帧的DRC增益之间的差,由此获得图15的波形。
注意,在图15中,水平轴表示时间帧,并且垂直轴表示增益的差值(dB)。在该示例中,关于时间帧差,负方向上的差不是频繁地出现,但是绝对值大。同时,正方向上的差频繁出现,但是绝对值小。
一般地,这样的时间帧差的概率密度分布如图16的分布所示。注意,在图16中,水平轴表示时间帧差,并且垂直轴表示时间帧差的出现概率。
根据图16的概率密度分布,正值的出现概率从0附近起极其高,但是出现概率从特定水平(时间帧差)起极低。同时,负方向上的出现概率低,但是即使值小也维持出现概率的特定水平。
在该示例中,描述了时间帧之间的特性。然而,时间帧中的样本(时间)之间的特性与时间帧之间的特性类似。
这样的概率密度分布根据执行编码的0阶预测差分模式或一阶预测差分模式以及增益编码模式头部的内容而改变。因此,通过据此配置可变长度代码,可以高效地对增益信息进行编码。
在上述,描述了如下方法的示例:从主增益序列和从增益序列的增益波形提取增益改变点,获得差,通过使用可变长度代码对差进行编码,从而有效地压缩增益。在允许相对高比特率并且取而代之需要增益波形的高准确率的应用示例中,当然,也可以获得主增益序列与从增益序列之间的差并且直接对其增益波形进行编码。此时,由于增益波形表示时序离散信号,因此可以通过对时序信号使用公知的无损压缩方法而对增益波形进行编码。
<编码处理的描述>
接下来,将描述编码装置51的行为。
当1个时间帧的输入时序信号被提供到编码装置51时,编码装置51对输入时序信号进行编码并且对输出代码串进行输出,即,执行编码处理。在下文中,参照图17的流程图,将描述编码装置51的编码处理。
在步骤S11中,第一声音压力水平计算电路61基于所提供的输入时序信号而计算输入时序信号的第一声音压力水平,并且将第一声音压力水平提供到第一增益计算电路62。
在步骤S12中,第一增益计算电路62基于从第一声音压力水平计算电路61提供的第一声音压力水平而计算第一增益,并且将第一增益提供到增益编码电路66。例如,第一增益计算电路62基于上层控制设备指定的模式(诸如DRC_MODE1和DRC_MODE2)的DRC特性而计算第一增益。
在步骤S13中,缩混电路63通过使用从上层控制设备提供的缩混信息而对所提供的输入时序信号进行缩混,并且将作为其结果获得的缩混信号提供到第二声音压力水平计算电路64。
在步骤S14中,第二声音压力水平计算电路64基于从缩混电路63提供的缩混信号而计算第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路65。
在步骤S15中,第二增益计算电路65针对每个缩混信号计算从第二声音压力水平计算电路64提供的第二声音压力水平的第二增益,并且将第二增益提供到增益编码电路66。
在步骤S16中,增益编码电路66执行增益编码处理从而对从第一增益计算电路62提供的第一增益和从第二增益计算电路65提供的第二增益进行编码。此外,增益编码电路66将作为增益编码处理的结果获得的增益编码模式头部和增益代码串提供到复用电路68。
注意,稍后将详细地描述增益编码处理。在增益编码处理中,对于诸如第一增益和第二增益的增益序列,获得增益序列之间的差、时间帧之间的差或者时间帧中的差并且对其进行编码。此外,仅当需要时才生成增益编码模式头部。
在步骤S17中,信号编码电路67基于预定编码方法对所提供的输入时序信号进行编码,并且将作为其结果获得的信号代码串提供到复用电路68。
在步骤S18中,复用电路68对从增益编码电路66提供的增益编码模式头部和增益代码串、从上层控制设备提供的缩混信息以及从信号编码电路67提供的信号代码串进行复用,并且输出作为其结果获得的输出代码串。以此方式,1个时间帧的输出代码串被输出作为比特流,然后编码处理结束。然后,执行下一时间帧的编码处理。
如上所述,编码装置51计算待缩混的原始输入时序信号的第一增益和缩混后的缩混信号的第二增益,并且任意地获得和编码这些增益之间的差。结果,可以以较小的代码量获得适当音量的声音。
换言之,由于编码装置51侧可以自由地设置DRC特性,因此解码器侧可以获得具有更适当的音量的声音。此外,通过获得增益之间的差以及有效地对其进行编码,可以以较小的代码量传送更多的信息以及减轻解码装置侧的计算负荷。
<增益编码处理的描述>
接下来,参照图18的流程图,将描述与图17的步骤S16的处理对应的增益编码处理。
在步骤S41中,增益编码电路66基于来自上层控制设备的指令而确定增益编码模式。换言之,对于每个增益序列,确定该增益序列作为主增益序列还是从增益序列、要计算其与增益序列(即,从增益序列)的差的增益序列等。
具体地,增益编码电路66实际上计算各个增益序列的增益(第一增益或第二增益)之间的差,并且获得增益的关联。此外,增益编码电路66基于例如增益之间的差而将其与其它增益序列的增益关联高(增益之间的差小)的增益序列视为主增益序列,并且将其它增益序列视为从增益序列。
注意,所有增益序列都可被视为主增益序列。
在步骤S42中,增益编码电路66确定处理后的当前时间帧的增益编码模式是否与先前时间帧的增益编码模式相同。
如果在步骤S42中确定它们不相同,则在步骤S43中,增益编码电路66生成增益编码模式头部,并且将增益编码模式头部添加到辅助信息。例如,增益编码电路66生成图8的增益编码模式头部。
此后,在步骤S43中生成增益编码模式头部,然后处理进行到步骤S44。
此外,如果在步骤S42中确定增益编码模式相同,则不将增益编码模式头部添加到输出代码串,因此不执行步骤S43的处理,并且处理进行到步骤S44。
如果在步骤S43中生成增益编码模式头部,或者如果在步骤S42中确定增益编码模式相同,则增益编码电路66在步骤S44中根据增益编码模式而获得增益序列之间的差。
例如,假设作为第二增益的7.1ch增益序列是从增益序列,并且与从增益序列对应的主增益序列是作为第一增益的11.1ch增益序列。
在该情况下,增益编码电路66获得7.1ch增益序列与11.1ch增益序列之间的差。注意,此时,不计算作为主增益序列的11.1ch增益序列之间的差,并且在稍后处理中11.1ch增益序列按原样进行编码。
如上所述,通过获得增益序列之间的差,获得增益序列之间的差并且对增益序列进行编码。
在步骤S45中,增益编码电路66选择一个增益序列作为处理后的增益序列,并且确定增益在该增益序列中是否恒定以及增益是否与先前时间帧的增益相同。
例如,假设在时间帧J中,作为主增益序列的11.1ch增益序列被选作处理后的增益序列。在该情况下,如果时间帧J中的11.1ch增益序列的样本的增益(第一增益或第二增益)是大致恒定的值,则增益编码电路66确定增益在增益序列中是恒定的。
此外,如果时间帧J中的11.1ch增益序列的各个样本处的增益与时间帧J-1(即,先前时间帧)中的11.1ch增益序列的各个样本处的增益之间的差大致是0,则增益编码电路66确定增益与先前时间帧中相同。
注意,如果处理后的增益是从增益序列,则确定在步骤S44中获得的增益之间的差在时间帧中是否恒定、以及该差是否与先前时间帧中的增益之间的差相同。
如果在步骤S45中确定增益在增益序列中是恒定的并且增益与先前时间帧中的增益相同,则增益编码电路66在步骤S46中将值1设置为hld_mode,并且处理进行到步骤S51。换言之,1被描述为增益代码串中的hld_mode。
如果确定增益在增益序列中是恒定的并且增益与先前时间帧中的增益相同,则在先前时间帧和当前时间帧中增益不改变,因此解码器侧按原样使用先前时间帧中的增益并且对增益进行解码。因此,在该情况下,理解获得时间帧之间的差并且对增益进行编码。
相反,如果在步骤S45中确定增益在增益序列中不恒定并且增益与先前时间帧中的增益不同,则增益编码电路66在步骤S47中将值0设置为hld_mode。换言之,0被描述为增益代码串中的hld_mode。
在步骤S48中,增益编码电路66提取处理后的增益序列的增益改变点。
例如,如以上参照图12描述的,增益编码电路66确定在时间帧中的预定样本位置之后的增益的时间波形的倾斜度是否从样本位置之前的增益的时间波形的倾斜度改变,从而确定样本位置是否是增益改变点。
注意,更具体地,如果处理后的增益序列是从增益序列,则从时间波形提取增益改变点,该时间波形表示针对增益序列获得的处理后的增益序列与主增益序列之间的增益差。
在增益编码电路66提取了增益改变点之后,增益编码电路66将所提取的增益改变点的数量描述为图10的增益代码串中的gpnum。
在步骤S49中,增益编码电路66确定cmode。
例如,增益编码电路66实际上通过使用0阶预测差分模式以及通过使用一阶预测差分模式而对处理后的增益序列进行编码,并且选择作为编码结果获得的代码量较小的一种差分编码模式。此外,增益编码电路66基于例如来自上层控制设备的指令而确定是否要对时间帧的起始处的增益进行编码。结果,确定cmode。
在确定了cmode之后,增益编码电路66在图10的增益代码串中描述表示所确定的cmode的值。此时,如果cmode的较高1比特是0,则增益编码电路66通过使用上述数学式(5)而计算针对处理后的增益序列的“gval_abs_id0”,并且在图10的增益代码串的gval_abs_id0中描述作为其结果获得的“gval_abs_id0”和符号位。
相反,如果cmode的较高1比特是1,则执行先前时间帧的末端处的增益值用作当前时间帧的起始处的增益值的解码,因此这表示获得时间帧之间的差并且对其进行编码。
在步骤S50中,增益编码电路66通过使用在步骤S49的处理中选择的差分编码模式对在步骤S48中提取的增益改变点处的增益进行编码。此外,增益编码电路66在图10的增益代码串的gloc_id[k]和gval_diff_id[k]中描述对增益改变点处的增益进行编码的结果。
当对增益改变点处的增益进行编码时,增益编码电路66的熵编码电路对增益值进行编码,同时切换诸如图13的编码表的熵码书,该熵码书是针对每个差分编码模式等而适当地确定的。
如上所述,基于0阶预测差分模式或一阶预测差分模式而执行编码,因此获得增益序列的时间帧中的差并且对增益进行编码。
如果在步骤S46中1被设置为hld_mode或者如果在步骤S50中执行编码,则在步骤S51中,增益编码电路66确定是否对所有增益序列进行了编码。例如,如果处理了所有待处理的增益序列,则确定对所有增益序列进行了编码。
如果在步骤S51中确定没有对所有增益序列进行编码,则处理返回到步骤S45,并且重复上述处理。换言之,未处理的增益序列要被编码为接下来要处理的增益序列。
相反,如果在步骤S51中对所有增益序列进行了编码,则表示获得了增益代码串。因此,增益编码电路66将所生成的增益编码模式头部和增益代码串提供到复用电路68。注意,如果没有生成增益编码模式头部,则仅输出增益代码串。
在如上所述输出增益编码模式头部和增益代码串之后,增益编码处理结束,并且此后,处理进行到图17的步骤S17。
如上所述,编码装置51获得增益序列之间的差、增益序列的时间帧之间的差或者增益序列的时间帧中的差,对增益进行编码,并且生成增益代码串。如上所述,通过获得增益序列之间的差、增益序列的时间帧之间的差或者增益序列的时间帧的差,并且通过对增益进行编码,可以更高效地对第一增益和第二增益进行编码。换言之,可以减少作为编码的结果获得的较大代码量。
<解码装置的配置的示例>
接下来,将描述对输入代码串进行解码的解码装置,其中,从编码装置51输出的输出代码串被输入作为输入代码串。
图19是示出应用本技术的根据一个实施例的解码装置的功能配置的示例的图。
图19的解码装置91包括解复用电路101、信号解码电路102、增益解码电路103和增益应用电路104。
解复用电路101对所提供的输入代码串(即,从编码装置51接收的输出代码串)进行解复用。解复用电路101将通过对输入代码串进行解复用获得的增益编码模式头部和增益代码串提供到增益解码电路103,并且另外,将信号代码串和缩混信息提供到信号解码电路102。注意,如果输入代码串不包含增益编码模式头部,则不将增益编码模式头部提供到增益解码电路103。
信号解码电路102基于从解复用电路101提供的缩混信息以及基于从上层控制设备提供的缩混控制信息,对从解复用电路101提供的信号代码串进行解码和解复用,并且将所获得的时序信号提供到增益应用电路104。这里,时序信号是例如11.1ch或7.1ch的声音信号,并且时序信号的每个声道的声音信号是PCM信号。
增益解码电路103对从解复用电路101提供的增益编码模式头部和增益代码串进行解码,并且将增益信息提供到增益应用电路104,该增益信息是作为其结果获得的增益信息当中的、基于从上层控制设备提供的缩混控制信息和DRC控制信息而确定的。这里,从增益解码电路103输出的增益信息是与上述第一增益或第二增益对应的信息。
增益应用电路104基于从增益解码电路103提供的增益信息而调整从信号解码电路102提供的时序信号的增益,并且输出所获得的输出时序信号。
<解码处理的描述>
接下来,将描述解码装置91的行为。
当1个时间帧的输入代码串被提供到解码装置91时,解码装置91对输入代码串进行解码,并且对输出时序信号进行输出,即,执行解码处理。在下文中,参照图20的流程图,将描述解码装置91的解码处理。
在步骤S81中,解复用电路101对输入代码串进行解复用,将作为其结果获得的增益编码模式头部和增益代码串提供到增益解码电路103,并且另外,将信号代码串和缩混信息提供到信号解码电路102。
在步骤S82中,信号解码电路102对从解复用电路101提供的信号代码串进行解码。
例如,信号解码电路102对信号代码串进行解码和逆量化,并且获得声道的MDCT系数。此外,基于从上层控制设备提供的缩混控制信息,信号解码电路102将声道的MDCT系数与基于从解复用电路101提供的缩混信息获得的增益因子相乘,并且对结果相加,由此计算每个缩混后的声道的经增益应用后的MDCT系数。
此外,信号解码电路102对每个声道的经增益应用后的MDCT系数执行逆MDCT处理,对所获得的逆MDCT信号执行加窗和叠加处理,从而生成包含每个缩混后的声道的信号的时序信号。注意,可针对MDCT域或时域执行缩混处理。
信号解码电路102将如此获得的时序信号提供到增益应用电路104。
在步骤S83中,增益解码电路103执行增益解码处理,即,对从解复用电路101提供的增益编码模式头部和增益代码串进行解码,并且将增益信息提供到增益应用电路104。注意,稍后将详细增益解码处理。
在步骤S84中,增益应用电路104基于从增益解码电路103提供的增益信息而调整从信号解码电路102提供的时序信号的增益,并且输出所获得的输出时序信号。
当输出了输出时序信号时,解码处理结束。
如上所述,解码装置91对增益编码模式头部和增益代码串进行解码,对时序信号施加所获得的增益信息,并且针对时域而调整增益。
通过获得增益序列之间的差、增益序列的时间帧之间的差或者增益序列的时间帧中的差、通过对增益进行编码来获得增益代码串。因此,解码装置91可以通过使用具有较小代码量的增益代码串而获得更适当的增益信息。或者,可以以较小的代码量获得适当音量的声音。
<增益解码处理的描述>
随后,参照图21的流程图,将描述与图20的步骤S83的处理对应的增益解码处理。
在步骤S121中,增益解码电路103确定输入代码串是否包含增益编码模式头部。例如,如果从解复用电路101提供了增益编码模式头部,则确定包含增益编码模式头部。
如果在步骤S121中确定包含增益编码模式头部,则在步骤S122中,增益解码电路103对从解复用电路101提供的增益编码模式头部进行解码。结果,获得诸如增益编码模式的每个增益序列的信息。
在对增益编码模式头部进行解码之后,处理进行到步骤S123。
同时,如果在步骤S121中确定不包含增益编码模式头部,则处理进行到步骤S123。
在步骤S122中对增益编码模式头部进行解码之后或者如果在步骤S121中确定不包含增益编码模式头部,在步骤S123中,增益解码电路103对所有增益序列进行解码。换言之,增益解码电路103对图10的增益代码串进行解码,并且提取获得每个增益序列的增益波形所需的信息,即,第一增益或第二增益。
在步骤S124中,增益解码电路103确定要处理的一个增益序列,并且确定一个增益序列的hld_mode值是否是0。
如果在步骤S124中确定hld_mode值不是0而是1,则处理进行到步骤S125。
在步骤S125中,增益解码电路103按原样将先前时间帧的增益波形用作当前时间帧的增益波形。
在获得当前时间帧的增益波形之后,则处理进行到步骤S129。
相反,如果在步骤S124中确定hld_mode值是0,则在步骤S126中,增益解码电路103确定cmode是否大于1,即,cmode的较高1比特是否是1。
如果在步骤S126中确定cmode大于1,即,cmode的较高1比特是1,则先前时间帧的末端的增益值被视为当前时间帧的起始处的增益值,并且处理进行到步骤S128。
这里,增益解码电路103将时间帧的末端处的增益值保持为prev。当对增益进行解码时,prev值任意用作当前时间帧的起始处的增益值,并且获得增益序列的增益。
相反,如果在步骤S126中确定cmode等于或小于1,即,cmode的较高1比特是0,则执行步骤S127的处理。
换言之,在步骤S127中,增益解码电路103将通过对增益代码串进行解码而获得的gval_abs_id0代入上述数学式(5)中从而计算当前时间帧的起始处的增益值,并且更新prev值。换言之,通过数学式(5)的计算获得的增益值被视为新的prev值。注意,更具体地,如果处理后的增益序列是从增益序列,则prev值是当前时间帧的起始处的主增益序列与处理后的增益序列之间的差值。
在步骤S127中对prev值进行更新之后或者如果在步骤S126中确定cmode大于1,则在步骤S128中,增益解码电路103生成处理后的增益序列的增益波形。
具体地,增益解码电路103参考通过对增益代码串进行解码而获得的cmode,确定0阶预测差分模式或一阶预测差分模式。此外,增益解码电路103通过使用prev值以及通过使用经由对增益代码串进行解码而获得的每个增益改变点处的gloc_id[k]和gval_diff_id[k],根据所确定的差分编码模式而获得当前时间帧中的每个样本位置的增益,并且将结果视为增益波形。
例如,如果确定采用0阶预测差分模式,则增益解码电路103将gval_diff_id[0]表示的增益值(差分值)与prev值相加,并且将所获得的值视为gloc_id[0]标识的样本位置处的增益值。此时,在从时间帧的起始到gloc_id[0]标识的样本位置的每个位置处,从prev值到gloc_id[0]标识的样本位置处的增益值获得每个样本位置处的增益值,其中,假设增益值线性地改变。
此后,以类似方式,基于先前增益改变点的增益值以及基于所关注的增益改变点的gloc_id[k]和gval_diff_id[k],获得所关注的增益改变点的增益值,并且获得包含时间帧中的样本位置的增益值的增益波形。
这里,如果处理后的增益序列是从增益序列,则作为上述处理的结果获得的增益值(增益波形)是处理后的增益序列的增益波形与主增益序列的增益波形之间的差值。
鉴于此,参照处理后的增益序列的增益序列模式的图9的MASTER_FLAG和DIFF_SEQ_ID,增益解码电路103确定处理后的增益序列是否是从增益序列并且确定相应的主增益序列。
然后,如果处理后的增益序列是主增益序列,则增益解码电路103将作为上述处理的结果获得的增益波形视为处理后的增益序列的最终增益信息。
同时,如果处理后的增益序列是从增益序列,则增益解码电路103将关于与处理后的增益序列对应的主增益序列的增益信息(增益波形)与作为上述处理的结果获得的增益波形相加,并且将结果视为处理后的增益序列的最终增益信息。
在如上所述获得处理后的增益序列的增益波形(增益信息)之后,然后处理进行到步骤S129。
在步骤S128或步骤S125中生成增益波形之后,则执行步骤S129的处理。
在步骤S129中,增益解码电路103将处理后的增益序列的增益波形的当前时间帧的末端的增益值保持为接下来的时间帧的prev值。注意,如果处理后的增益序列是从增益序列,则基于0阶预测差分模式或一阶预测差分模式获得的增益波形的时间帧的末端(即,处理后的增益序列的增益波形与主增益序列的增益波形之间的差的时间波形的时间帧的末端)处的值被视为prev值。
在步骤S130中,增益解码电路103确定是否获得了所有增益序列的增益波形。例如,如果增益编码模式头部表示的所有增益序列都被视为处理后的增益序列并且获得了增益波形(增益信息),则确定获得了所有增益序列的增益波形。
如果在步骤S130中确定没有获得所有增益序列的增益波形,则处理返回到步骤S124,并且重复上述处理。换言之,对接下来的增益序列进行处理,并且获得增益波形(增益信息)。
相反,如果在步骤S130中获得了所有增益序列的增益波形,则结束解码处理,此后处理进行到图20的步骤S84。
注意,在该情况下,增益解码电路103将增益序列当中的如下增益序列的增益信息提供到增益应用电路104:其中,缩混声道的数量由缩混控制信息表示并且增益是基于DRC控制信息表示的DRC特性而计算的。换言之,参考图9的每个增益序列模式的DMIX_CH_CFG_ID和DRC_MODE_ID,输出由缩混控制信息和DRC控制信息标识的增益序列的增益信息。
如上所述,解码装置91对增益编码模式头部和增益代码串进行解码,并且计算每个增益序列的增益信息。以此方式,通过对增益代码串进行解码以及获得增益信息,可以以较小的代码量获得适当音量的声音。
顺便提及,如图6、图11和图14所示,主增益序列有时针对每个时间帧而改变,并且解码装置91通过使用prev值而对增益序列进行解码。因此,解码装置91需要计算对于每个时间帧的除解码装置91实际使用的缩混模态增益之外的增益波形。
计算和获得这样的增益波形是容易的,因此施加于解码装置91侧的计算负荷不大。然而,如果需要减轻例如移动终端等中的计算负荷,则可在一定程度上牺牲增益波形的再现能力以减小计算量。
根据DRC起音/释音时间常数特性,一般地,增益急剧减小并且慢慢返回。由于此,从编码效率的观点来看,在许多情况下,通常使用0阶预测差分模式,时间帧中的增益改变点的数量gpnum小至两个或更小,并且增益改变点处的增益之间的差值(即,gval_diff_id[k])较小。
例如,在图11的示例中,增益改变点G11处的增益值gval[0]与起始位置PREV11处的增益值之间的差值是gval_diff[0],并且增益改变点G11处的增益值gval[0]与增益改变点G12处的增益值gval[1]之间的差值是gval_diff[1]。
此时,解码装置91以分贝将起始位置PREV11处的增益值(即,prev值)与差值gval_diff[0]相加,并且进一步将差值gval_diff[1]与加法结果相加。结果,获得增益改变点G12处的增益值gval[1]。在下文中,如此获得的将起始位置PREV11处的增益值、差值gval_diff[0]和差值gval_diff[1]相加的结果有时将称为增益相加值。
在该情况下,增益改变点G11处的位置gloc[0]与增益改变点G12处的位置gloc[1]之间的间隔线性地内插有线性值,直线延伸到作为时间帧J+1的起始的时间帧J中的第N个样本的位置,并且获得第N个样本的增益值作为接下来的时间帧J+1的prev值。如果连接增益改变点G11和增益改变点G12的直线的倾斜度小,则通过如上所述将直到差值gval_diff[1]的差值相加而获得的增益相加值可被视为时间帧J+1的prev值,这不会导致特殊的问题。
注意,可以通过使用每个增益改变点的位置gloc[k]是2的幂的事实而容易地获得连接增益改变点G11和增益改变点G12的直线的倾斜度。换言之,在图11的示例中,取代根据位置gloc[1]的样本的数量执行除法,差值的上述相加值向右偏移与样本数量对应的位数,从而获得直线的倾斜度。
如果倾斜度小于特定阈值,则增益相加值被视为接下来的时间帧J+1的prev值。如果倾斜度等于或大于阈值,则通过使用在上述第一实施例中描述的方法,获得增益波形,并且时间帧的末端的增益值可被视为prev值。
此外,如果使用一阶预测差分模式,则通过使用在第一实施例中描述的方法而直接获得增益波形,并且时间帧的末端处的值可被视为prev值。
通过采用这样的方法,可以减轻解码装置91的计算负荷。
<第二实施例>
<编码装置的配置的示例>
注意,在上文中,编码装置51实际上执行缩混,并且计算所获得的缩混信号的声音压力水平作为第二声音压力水平。替选地,在没有执行缩混的情况下,可基于每个声道的声音压力水平而直接获得缩混后的声音压力水平。在该情况下,声音压力水平根据输入时序信号的声道的关联而在一定程度上变化,但是可以减少计算量。
以此方式,如果在没有执行缩混的情况下直接获得缩混后的声音压力水平,则编码装置例如如图22所示配置。注意,在图22中,与图3的部件对应的部件以相同的附图标记来表示,并且将任意省略其描述。
图22的编码装置131包括第一声音压力水平计算电路61、第一增益计算电路62、第二声音压力水平计估计电路141、第二增益计算电路65、增益编码电路66、信号编码电路67和复用电路68。
第一声音压力水平计算电路61基于输入时序信号而计算输入时序信号的声道的声音压力水平,将声音压力水平提供到第二声音压力水平估计电路141,并且将声道的声音压力水平的代表值作为第一声音压力水平提供到第一增益计算电路62。
此外,基于从第一声音压力水平计算电路61提供的声道的声音压力水平,第二声音压力水平估计电路141计算估计第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路65。
<编码处理的描述>
随后,将描述编码装置131的行为。在下文中,参照图23的流程图,将描述编码装置131执行的编码处理。
注意,步骤S161和步骤S162的处理与图17的步骤S11和步骤S12的处理相同,并且因此将省略其描述。注意,在步骤S161中,第一声音压力水平计算电路61将输入时序信号的每个声道的声音压力水平(即,从输入时序信号获得的第一声音压力水平)提供到第二声音压力水平估计电路141。
在步骤S163中,第二声音压力水平估计电路141基于从第一声音压力水平计算电路61提供的每个声道的声音压力水平而计算第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路65。例如,第二声音压力水平估计电路141通过使用准备系数而获得各个声道的声音压力水平的加权和(线性耦合),由此计算一个第二声音压力水平。
在获得第二声音压力水平之后,然后,执行步骤S164至步骤S167的处理,并且编码处理结束。处理与图17的步骤S15至步骤S18的处理类似,并且因此将省略其描述。
如上所述,编码装置131基于输入时序信号的声道的声音压力水平而计算第二声音压力水平,基于第二声音压力水平而任意获得第二增益,任意获得与第一增益的差,并且对差进行编码。结果,可以以较小的代码量获得适当音量的声音,并且另外,可以以较小的计算量执行编码。
<第三实施例>
<编码装置的配置的示例>
此外,在上文中,描述了在时域中执行DRC处理的示例。替选地,可在MDCT域中执行DRC处理。在该情况下,例如,编码装置被配置为图24所示。
图24的编码装置171包括窗长度选择/加窗电路181、MDCT电路182、第一声音压力水平计算电路183、第一增益计算电路184、缩混电路185、第二声音压力水平计算电路186、第二增益计算电路187、增益编码电路189、适应比特分配电路190、量化/编码电路191和复用电路192。
窗长度选择/加窗电路181选择窗长度,另外,通过使用所选择的窗长度而对所提供的输入时序信号而执行加窗处理,并且将作为其结果获得的时间帧信号提供到MDCT电路182。
MDCT电路182对从窗长度选择/加窗电路181提供的时间帧信号执行MDCT处理,并且将作为其结果获得的MDCT系数提供到第一声音压力水平计算电路183、缩混电路185和适应比特分配电路190。
第一声音压力水平计算电路183基于从MDCT电路182提供的MDCT系数而计算输入时序信号的第一声音压力水平,并且将第一声音压力水平提供到第一增益计算电路184。第一增益计算电路184基于从第一声音压力水平计算电路183提供的第一声音压力水平而计算第一增益,并且将第一增益提供到增益编码电路189。
缩混电路185基于从上层控制设备提供的缩混信息和从MDCT电路182提供的输入时序信号的每个声道的MDCT系数而计算缩混后的每个声道的MDCT系数,并且将该MDCT系数提供到第二声音压力水平计算电路186。
第二声音压力水平计算电路186基于从缩混电路185提供的MDCT系数而计算第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路187。第二增益计算电路187基于从第二声音压力水平计算电路186提供的第二声音压力水平而计算第二增益,并且将第二增益提供到增益编码电路189。
增益编码电路189对从第一增益计算电路184提供的第一增益和从第二增益计算电路187提供的第二增益进行编码,并且将作为其结果获得的增益代码串提供到复用电路192。
适应比特分配电路190基于从MDCT电路182提供的MDCT系数而计算作为当对MDCT系数进行编码时的目标的、表示代码量的比特分配信息,并且将MDCT系数和比特分配信息提供到量化/编码电路191。
量化/编码电路191基于从适应比特分配电路190提供的比特分配信息而对来自适应比特分配电路190的MDCT系数进行量化和编码,并且将作为其结果获得的信号代码串提供到复用电路192。复用电路192对从增益编码电路189提供的增益代码串、从上层控制设备提供的缩混信息和从量化/编码电路191提供的信号代码串进行复用,并且输出作为其结果获得的输出代码串。
<编码处理的描述>
接下来,将描述编码装置171的行为。在下文中,参照图25的流程图,将描述编码装置171的编码处理。
在步骤S191中,窗长度选择/加窗电路181选择窗长度,另外,通过使用所选择的窗长度对所提供的输入时序信号执行加窗处理,并且将作为其结果获得的时间帧信号提供到MDCT电路182。结果,输入时序信号的每个声道的信号被划分成多个时间帧信号,即,以时间帧为单位的信号。
在步骤S192中,MDCT电路182对从窗长度选择/加窗电路181提供的时间帧信号执行MDCT处理,并且将作为其结果获得的MDCT系数提供到第一声音压力水平计算电路183、缩混电路185和适应比特分配电路190。
在步骤S193中,第一声音压力水平计算电路183基于从MDCT电路182提供的MDCT系数而计算输入时序信号的第一声音压力水平,并且将第一声音压力水平提供到第一增益计算电路184。这里,第一声音压力水平计算电路183计算的第一声音压力水平与图3的第一声音压力水平计算电路61计算的相同。但是,在步骤S193中,在MDCT域中计算输入时序信号的声音压力水平。
在步骤S194中,第一增益计算电路184基于从第一声音压力水平计算电路183提供的第一声音压力水平而计算第一增益,并且将第一增益提供到增益编码电路189。例如,基于图4的DRC特性而计算第一增益。
在步骤S195中,缩混电路185基于从上层控制设备提供的缩混信息以及基于从MDCT电路182提供的输入时序信号的每个声道的MDCT系数而进行缩混,计算缩混后的每个声道的MDCT系数,并且将该MDCT系数提供到第二声音压力水平计算电路186。
例如,将声道的各个MDCT系数与基于缩混信息获得的增益因子相乘,并且将乘以增益因子的各个MDCT系数相加,从而计算缩混后的声道的MDCT系数。
在步骤S196中,第二声音压力水平计算电路186基于从缩混电路185提供的MDCT系数而计算第二声音压力水平,并且将第二声音压力水平提供到第二增益计算电路187。注意,与获得第一声音压力水平的计算类似地计算第二声音压力水平。
在步骤S197中,第二增益计算电路187基于从第二声音压力水平计算电路186提供的第二声音压力水平而计算第二增益,并且将第二增益提供到增益编码电路189。例如,基于图4的DRC特性而计算第二增益。
在步骤S198中,增益编码电路189执行增益编码处理从而对从第一增益计算电路184提供的第一增益和从第二增益计算电路187提供的第二增益进行编码。此外,增益编码电路189将作为增益编码处理的结果获得的增益编码模式头部和增益代码串提供到复用电路192。
注意,稍后将详细地描述增益编码处理。在增益编码处理中,对于诸如第一增益和第二增益的增益序列,获得时间帧之间的差并且对每个增益进行编码。此外,仅在必要时才生成增益编码模式头部。
在步骤S199中,适应比特分配电路190基于从MDCT电路182提供的MDCT系数而生成比特分配信息,并且将MDCT系数和比特分配信息提供到量化/编码电路191。
在步骤S200中,量化/编码电路191基于从适应比特分配电路190提供的比特分配信息而对来自适应比特分配电路190的MDCT系数进行量化和编码,并且将作为其结果获得的信号代码串提供到复用电路192。
在步骤S201中,复用电路192对从增益编码电路189提供的增益编码模式头部和增益代码串、从上层控制设备提供的缩混信息和从量化/编码电路191提供的信号代码串进行复用,并且输出作为其结果获得的输出代码串。结果,例如,获得图7的输出代码串。注意,增益代码串与图10的增益代码串不同。
以此方式,1个时间帧的输出代码串被输出作为比特流,然后编码处理结束。然后执行下一时间帧的编码处理。
如上所述,编码装置1711计算MDCT域中(即,基于MDCT系数)的第一增益和第二增益,并且获得这些增益之间的差并对其进行编码。结果,可以以较小代码量获得适当音量的声音。
<增益编码处理的描述>
接下来,参照图26的流程图,将描述与图25的步骤S198的处理对应的增益编码处理。注意,步骤S231至步骤S234的处理与图18的步骤S41至步骤S44的处理类似,因此将省略其描述。
在步骤S235中,增益编码电路189选择一个增益序列作为处理后的增益序列,并且获得该增益序列的当前时间帧的增益(增益波形)与先前时间帧的增益之间的差值。
具体地,获得处理后的增益序列的当前时间帧的每个样本位置处的增益值与在处理后的增益序列的当前时间帧之前的先前时间帧的每个样本位置处的增益值之间的差。换言之,获得增益序列的时间帧之间的差。
注意,如果处理后的增益序列是从增益序列,则获得表示在步骤S234中获得的从增益序列与主增益序列之间的差的、时间波形的时间帧之间的差值。换言之,获得表示当前时间帧的从增益序列与主增益序列之间的差的时间波形与表示先前时间帧的从增益序列与主增益序列之间的差的时间波形之间的差值。
在步骤S236中,增益编码电路189确定是否对所有增益序列进行了编码。例如,如果处理了所有待处理增益序列,则确定是否对所有增益序列进行了编码。
如果在步骤S236中确定没有对所有增益序列进行编码,则处理返回到步骤S235,并且重复上述处理。换言之,未处理的增益序列被编码为接下来要处理的增益序列。
相反,如果在步骤S236中确定对所有增益序列进行了编码,则增益编码电路189将在步骤S235中获得的每个增益序列的增益时间帧之间的差值视为增益代码串。此外,增益编码电路189将所生成的增益编码模式头部和增益代码串提供到复用电路129。注意,如果没有生成增益编码模式头部,则仅输出增益代码串。
如上所述,当输出增益编码模式头部和增益代码串时,增益编码处理结束,此后处理进行到图25的步骤S199。
如上所述,编码装置171获得增益序列之间的差或者增益序列的时间帧之间的差从而对增益进行编码,并且生成增益代码串。如上所述,通过获得增益序列之间的差或者增益序列的时间帧之间的差从而对增益进行编码,可以更高效地对第一增益和第二增益进行编码。换言之,可以减少作为编码结果获得的较大代码量。
<解码装置的配置的示例>
接下来,将描述对输入代码串进行解码的解码装置,在该解码装置中,从编码装置171输出的输出代码串被输入作为输入代码串。
图27是示出应用本技术的、根据一个实施例的解码装置的功能配置的示例的图。
图27的解码装置231包括解复用电路241、解码器/逆量化器电路242、增益解码电路243、增益应用电路244、逆MDCT电路245和加窗/OLA电路246。
解复用电路241对所提供的输入代码串进行解复用。解复用电路241将通过对输入代码串进行解复用而获得的增益编码模式头部和增益代码串提供到增益解码电路243,将信号代码串提供到解码器/逆量化器电路242,并且另外,将缩混信息提供到增益应用电路244。
解码器/逆量化器电路242对从解复用电路241提供的信号代码串进行解码和逆量化,并且将作为其结果获得的MDCT系数提供到增益应用电路244。
增益解码电路243对从解复用电路241提供的增益编码模式头部和增益代码串进行解码,并且将作为其结果获得的增益信息提供到增益应用电路244。
基于从上层控制设备提供的缩混控制信息和DRC控制信息,增益应用电路244将从解码器/逆量化器电路242提供的MDCT系数与基于从解复用电路241提供的缩混信息和从增益解码电路243提供的增益信息而获得的增益因子相乘,并且将所获得的经增益应用后的MDCT系数提供到逆MDCT电路245。
逆MDCT电路245对从增益应用电路244提供的经增益应用的MDCT系数执行逆MDCT处理,并且将所获得的逆MDCT信号提供到加窗/OLA电路246。加窗/OLA电路246对从逆MDCT电路245提供的逆MDCT信号执行加窗和叠加处理,并且输出作为其结果获得的输出时序信号。
<解码处理的描述>
随后,将描述解码装置231的行为。
当1个时间帧的输入代码串被提供到解码装置231时,解码装置231对输入代码串进行解码并且对输出时序信号进行输出,即,执行解码处理。在下文中,参照图28的流程图,将描述解码装置231的解码处理。
在步骤S261中,解复用电路241对所提供的输入代码串进行解复用。此外,解复用电路241将通过对输入代码串进行解复用而获得的增益编码模式头部和增益代码串提供到增益解码电路243,将信号代码串提供到解码器/逆量化器电路242,并且另外,将缩混信息提供到增益应用电路244。
在步骤S262中,解码器/逆量化器电路242对从解复用电路241提供的信号代码串进行解码和逆量化,并且将作为其结果获得的MDCT系数提供到增益应用电路244。
在步骤S263中,增益解码电路243执行增益解码处理从而对从解复用电路241提供的增益编码模式头部和增益代码串进行解码,并且将作为其结果获得的增益信息提供到增益应用电路244。注意,以下将详细描述增益解码处理。
在步骤S264中,基于来自上层控制设备的缩混控制信息和DRC控制信息,增益应用电路244将来自解码器/逆量化器电路242的MDCT系数与基于来自解复用电路241的缩混信息和来自增益解码电路243的增益信息而获得的增益因子相乘,从而对增益进行调整。
具体地,根据缩混控制信息,增益应用电路244将MDCT系数和基于从解复用电路241提供的缩混信息获得的增益因子相乘。此外,增益应用电路244将每个均乘以了增益因子的MDCT系数相加,从而计算缩混后的声道的MDCT系数。
此外,根据DRC控制信息,增益应用电路244将每个缩混后的声道的MDCT系数与从增益解码电路243提供的增益信息相乘,从而获得经增益应用的MDCT系数。
增益应用电路244将如此获得的经增益应用的MDCT系数提供到逆MDCT电路245。
在步骤S265中,逆MDCT电路245对从增益应用电路244提供的经增益应用的MDCT系数执行逆MDCT处理,并且将所获得的逆MDCT信号提供到加窗/OLA电路246。
在步骤S266中,加窗/OLA电路246对从逆MDCT电路245提供的逆MDCT信号执行加窗和叠加处理,并且输出作为其结果获得的输出时序信号。当输出了时序信号时,解码处理结束。
如上所述,解码装置231对增益编码模式头部和增益代码串进行解码,对MDCT系数应用所获得的增益信息,并且对增益进行调整。
通过计算增益序列之间的差或者增益序列的时间帧之间的差来获得增益代码串。由于此,解码装置231可以从具有较小代码量的增益代码串获得更适当的增益信息。换言之,可以以较小代码量获得适当音量的声音。
<增益解码处理的描述>
随后,参照图29的流程图,将描述与图28的步骤S263的处理对应的增益解码处理。
注意,步骤S291至步骤S293的处理与图21的步骤S121至步骤S123的处理类似,并且因此将省略其描述。注意,在步骤S293中,通过解码来获得增益代码串中包含的每个增益序列的时间帧中的各个样本位置处的增益之间的差值。
在步骤S294中,增益解码电路243确定要处理的一个增益序列,并且基于在增益序列的当前时间帧之前的先前时间帧的增益值与当前时间帧的增益之间的差值而获得当前时间帧的增益值。
或者,参照处理后的增益序列的增益序列代码的图9的MASTER_FLAG和DIFF_SEQ_ID,增益解码电路243确定处理后的增益序列是否是从增益序列,并且确定相应的主增益序列。
此外,如果处理后的增益序列是主增益序列,则增益解码电路243将在处理后的增益序列的当前时间帧之前的先前时间帧的每个样本位置处的增益值与通过对增益代码串进行解码而获得的处理后增益序列的当前时间帧的各个样本位置处的差值相加。此外,作为其结果获得的当前时间帧的每个样本位置处的增益值被视为当前时间帧的增益的时间波形,即,处理后增益序列的最终增益信息。
同时,如果处理后的增益序列是从增益序列,则增益解码电路243获得在处理后的增益序列的当前时间帧之前的先前时间帧的主增益序列的各个样本位置处的增益与先前时间帧的处理后增益序列的各个样本位置处的增益之间的差值。
此外,增益解码电路243将如此获得的差值与通过对增益代码串进行解码而获得的处理后增益序列的当前时间帧中的每个样本位置处的差值相加。此外,增益解码电路243将关于与处理后增益序列对应的当前时间帧的主增益序列的增益信息(增益波形)与作为相加结果获得的增益波形相加,并且将该结果视为处理后增益序列的最终增益信息。
在步骤S295中,增益解码电路243确定是否获得了所有增益序列的增益波形。例如,如果增益编码模式头部表示的所有增益序列都被视为处理后的增益序列并且获得了增益波形(增益信息),则确定获得了所有增益序列的增益波形。
在步骤S295中,如果确定没有获得所有增益序列的增益波形,则处理返回到步骤S294,并且重复上述处理。换言之,对接下来的增益序列进行处理,并且获得增益波形(增益信息)。
相反,如果在步骤S295中确定获得了所有增益序列的增益波形,则增益解码处理结束,并且此后,处理进行到图28的步骤S264。
如上所述,解码装置231对增益编码模式头部和增益代码串进行解码,并且计算每个增益序列的增益信息。以此方式,通过对增益代码串进行解码以及获得增益信息,可以以较小代码量获得适当音量的声音。
如上所述,根据本技术,可以在包括缩混的存在/不存在的各种再现环境下以适当音量再现编码后的声音,并且可以在各种再现环境下不产生剪辑噪声。此外,由于所需的代码量小,因此可以高效地对大量增益信息进行编码。此外,根据本技术,由于解码装置的所需计算量小,因此本技术适用于移动终端等。
注意,根据以上描述,为了对输入时序信号的音量进行校正,则借助于DRC对增益进行校正。替选地,为了对音量进行校正,可执行通过使用响度等的其它校正处理。具体地,根据MPEG AAC,作为辅助信息,可以针对每个帧描述表示整个内容的声音压力水平的响度值,并且这样的校正后的响度值也被编码为增益值。
鉴于此,响度校正的增益也可以被编码,包含在增益代码串中,并且被发送。为了对响度进行校正,与DRC类似,需要与缩混模态对应的增益值。
此外,当对第一增益和第二增益进行编码时,可获得时间帧之间的增益改变点之间的差并对其进行编码。
顺便提及,上述系列处理可以通过使用软件来执行或者可以通过使用软件来执行。在通过使用软件来执行系列处理时,构成该软件的程序安装在计算机中。这里,计算机的示例包括嵌入在专用硬件中的计算机、通用计算机等,其中,例如,通用计算机中可以安装各种程序并且可以执行各种功能。
图30是示出执行用于执行上述系列处理的程序的计算机的硬件配置的示例的框图。
在计算机中,CPU(中央处理单元)501、ROM(只读存储器)502和RAM(随机存取存储器)503经由总线504连接到彼此。
此外,输入/输出接口505连接到总线504。输入单元506、输出单元507、记录单元508、通信单元509和驱动器510连接到输入/输出接口505。
输入单元506包括键盘、鼠标、麦克风、图像传感器等。输出单元507包括显示器、扬声器等。记录单元508包括硬盘、非易失性存储器等。通信单元509包括网络接口等。驱动器510驱动可拆卸介质511,诸如磁盘、光盘、磁光盘、半导体存储器等。
在如此配置的计算机中,CPU 501经由输入/输出接口505和总线504将记录在记录单元508中程序加载在RAM 503上,并且执行该程序,从而执行上述系列处理。
计算机(CPU 501)执行的程序可例如记录在可拆卸介质511(即,封装介质等)中并且被提供。此外,程序可经由有线或无线传输介质(诸如局域网、因特网或数字卫星广播)来提供。
在计算机中,可拆卸介质511加载在驱动器510上,从而程序可以经由输入/输出接口505而被安装在记录单元508中。此外,程序可由通信单元509经由有线或无线传输介质来接收并且被安装在记录单元508中。替选地,程序可预先安装在ROM 502或记录单元508中。
注意,计算机执行的程序可以是要按照在该说明书中描述的顺序以时序处理的程序、要并行处理的程序或者要在必要的定时(例如,当被调用时)处理的程序。
此外,本技术的实施例不限于上述实施例,并且可在本技术的主旨的范围内而可变地进行修改。
例如,本技术可采用云计算配置,其中,设备经由网络共享一个功能并且配合地对功能进行处理。
此外,以上参照流程图描述的步骤可由一个设备来执行,或者可由多个设备来共享和和执行。
此外,如果一个步骤包括多个处理,则这一个步骤的多个处理可由一个设备来执行,或者可由多个设备来共享和执行。
此外,该说明书中描述的效果仅是示例而非限制,并且可获得其它效果。
此外,本技术可采用以下配置。
(1)一种编码装置,包括:
增益计算器,针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及
增益编码器,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
(2)根据(1)所述的编码装置,其中,
所述增益编码器获得所述帧中的多个位置处的所述第一增益值与所述第二增益值之间的所述第一差值,或者获得所述帧中的多个位置处的所述第一增益值之间或所述帧中的多个位置处的所述第一差值之间的所述第二差值。
(3)根据(1)或(2)所述的编码装置,其中,
所述增益编码器基于增益改变点而获得所述第二差值,其中,在所述增益改变点处,所述帧中的所述第一增益值或所述第一差值的倾斜度发生改变。
(4)根据(3)所述的编码装置,其中,
所述增益编码器获得所述增益改变点与另一增益改变点之间的差,从而获得所述第二差值。
(5)根据(3)所述的编码装置,其中,
所述增益编码器获得所述增益改变点与通过基于另一增益改变点的一阶预测所预测的值之间的差,从而获得所述第二差值。
(6)根据(3)所述的编码装置,其中,
所述增益编码器对所述帧中的所述增益改变点的数量和基于所述增益改变点处的所述第二差值的信息进行编码。
(7)根据(1)至(6)中任一项所述的编码装置,其中,
所述增益计算器针对通过缩混获得的不同声道的数量的每个声音信号而计算所述第二增益值。
(8)根据(1)至(7)中任一项所述的编码装置,其中,
所述增益编码器基于所述第一增益值与所述第二增益值之间的关联而选择是否要获得所述第一差值。
(9)根据(1)至(8)中任一项所述的编码装置,其中,
所述增益编码器对所述第一差值或所述第二差值进行可变长度编码。
(10)一种编码方法,包括以下步骤:
针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及
获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
(11)一种使得计算机执行包括以下步骤的处理的程序:
针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值;以及
获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
(12)一种解码装置,包括:
解复用器,将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的;
信号解码器,对所述信号代码串进行解码;以及
增益解码器,对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
(13)根据(12)所述的解码装置,其中,
所述第一差值是通过获得所述帧中的多个位置处的所述第一增益值与所述第二增益值之间的差值而编码的,以及
所述第二差值是通过获得所述帧中的多个位置处的所述第一增益值之间的差值或所述帧中的多个位置处的所述第一差值之间的差值而编码的。
(14)根据(12)或(13)所述的解码装置,其中,
所述第二差值是基于增益改变点而获得的,由此对所述第二差值进行编码,其中,在所述增益改变点处,所述帧中的所述第一增益值或所述第一差值的倾斜度发生改变。
(15)根据(14)所述的解码装置,其中,
所述第二差值是基于所述增益改变点与另一增益改变点之间的差而获得的,由此对所述第二差值进行编码。
(16)根据(14)所述的解码装置,其中,
所述第二差值是基于所述增益改变点与通过基于另一增益改变点的一阶预测所预测的值之间的差而获得的,由此对所述第二差值进行编码。
(17)根据(14)至(16)中任一项所述的解码装置,其中,
所述帧中的所述增益改变点的数量和基于所述增益改变点处的所述第二差值的信息被编码作为所述第二差值。
(18)一种解码方法,包括以下步骤:
将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的;
对所述信号代码串进行解码;以及
对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
(19)一种使得计算机执行包括以下步骤的处理的程序:
将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻所述帧的所述第一增益值之间或所述第一差值与相邻所述帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的;
对所述信号代码串进行解码;以及
对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
附图标记描述
51 编码装置
62 第一增益计算电路
65 第二增益计算电路
66 增益编码电路
67 信号编码电路
68 复用电路
91 解码装置
101 解复用电路
102 信号解码电路
103 增益解码电路
104 增益应用电路
141 第二声音压力水平估计电路

Claims (18)

1.一种编码装置,包括:
增益计算器,针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值,其中,所述增益计算器针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;以及
增益编码器,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
2.根据权利要求1所述的编码装置,其中,
所述增益编码器获得所述帧中的多个位置处的所述第一增益值与所述第二增益值之间的所述第一差值,或者获得所述帧中的多个位置处的所述第一增益值之间或所述帧中的多个位置处的所述第一差值之间的所述第二差值。
3.根据权利要求1所述的编码装置,其中,
所述增益编码器基于增益改变点而获得所述第二差值,其中,在所述增益改变点处,所述帧中的所述第一增益值或所述第一差值的倾斜度发生改变。
4.根据权利要求3所述的编码装置,其中,
所述增益编码器获得所述增益改变点与另一增益改变点之间的差,从而获得所述第二差值。
5.根据权利要求3所述的编码装置,其中,
所述增益编码器获得所述增益改变点与通过基于另一增益改变点的一阶预测所预测的值之间的差,从而获得所述第二差值。
6.根据权利要求3所述的编码装置,其中,
所述增益编码器对所述帧中的所述增益改变点的数量和基于所述增益改变点处的所述第二差值的信息进行编码。
7.根据权利要求1所述的编码装置,其中,
所述增益编码器基于所述第一增益值与所述第二增益值之间的关联而选择是否要获得所述第一差值。
8.根据权利要求1所述的编码装置,其中,
所述增益编码器对所述第一差值或所述第二差值进行可变长度编码。
9.一种编码方法,包括以下步骤:
针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值,其中,针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;以及
获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
10.一种记录有程序的可拆卸介质,所述程序使得计算机执行包括以下步骤的处理:
针对声音信号的每个帧而计算用于音量校正的第一增益值和第二增益值,其中,针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;以及
获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码。
11.一种解码装置,包括:
解复用器,将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的,其中,针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;
信号解码器,对所述信号代码串进行解码;以及
增益解码器,对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
12.根据权利要求11所述的解码装置,其中,
所述第一差值是通过获得所述帧中的多个位置处的所述第一增益值与所述第二增益值之间的差值而编码的,以及
所述第二差值是通过获得所述帧中的多个位置处的所述第一增益值之间的差值或所述帧中的多个位置处的所述第一差值之间的差值而编码的。
13.根据权利要求11所述的解码装置,其中,
所述第二差值是基于增益改变点而获得的,由此对所述第二差值进行编码,其中,在所述增益改变点处,所述帧中的所述第一增益值或所述第一差值的倾斜度发生改变。
14.根据权利要求13所述的解码装置,其中,
所述第二差值是基于所述增益改变点与另一增益改变点之间的差而获得的,由此对所述第二差值进行编码。
15.根据权利要求13所述的解码装置,其中,
所述第二差值是基于所述增益改变点与通过基于另一增益改变点的一阶预测所预测的值之间的差而获得的,由此对所述第二差值进行编码。
16.根据权利要求13所述的解码装置,其中,
所述帧中的所述增益改变点的数量和基于所述增益改变点处的所述第二差值的信息被编码作为所述第二差值。
17.一种解码方法,包括以下步骤:
将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的,其中,针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;
对所述信号代码串进行解码;以及
对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
18.一种记录有程序的可拆卸介质,所述程序使得计算机执行包括以下步骤的处理:
将输入代码串解复用成增益代码串和信号代码串,所述增益代码串是通过如下生成的:对于针对声音信号的每个帧而计算的用于音量校正的第一增益值和第二增益值,获得所述第一增益值与所述第二增益值之间的第一差值,或者获得所述第一增益值与相邻帧的所述第一增益值之间或所述第一差值与相邻帧的所述第一差值之间的第二差值,并且对基于所述第一差值或所述第二差值的信息进行编码,所述信号代码串是通过对所述声音信号进行编码而获得的,其中,针对通过缩混获得的不同声道的数量的声音信号而计算所述第二增益值;
对所述信号代码串进行解码;以及
对所述增益代码串进行解码,并且输出用于所述音量校正的所述第一增益值或所述第二增益值。
CN201480050373.8A 2013-09-19 2014-09-05 编码装置和方法、解码装置和方法以及程序 Active CN105531762B (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013193787 2013-09-19
JP2013-193787 2013-09-19
PCT/JP2014/073465 WO2015041070A1 (ja) 2013-09-19 2014-09-05 符号化装置および方法、復号化装置および方法、並びにプログラム

Publications (2)

Publication Number Publication Date
CN105531762A CN105531762A (zh) 2016-04-27
CN105531762B true CN105531762B (zh) 2019-10-01

Family

ID=52688721

Family Applications (1)

Application Number Title Priority Date Filing Date
CN201480050373.8A Active CN105531762B (zh) 2013-09-19 2014-09-05 编码装置和方法、解码装置和方法以及程序

Country Status (5)

Country Link
US (1) US9875746B2 (zh)
EP (1) EP3048609A4 (zh)
JP (1) JP6531649B2 (zh)
CN (1) CN105531762B (zh)
WO (1) WO2015041070A1 (zh)

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5101292B2 (ja) 2004-10-26 2012-12-19 ドルビー ラボラトリーズ ライセンシング コーポレイション オーディオ信号の感知音量及び/又は感知スペクトルバランスの計算と調整
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
TWI447709B (zh) 2010-02-11 2014-08-01 Dolby Lab Licensing Corp 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
CN103325380B (zh) 2012-03-23 2017-09-12 杜比实验室特许公司 用于信号增强的增益后处理
CN112185399A (zh) 2012-05-18 2021-01-05 杜比实验室特许公司 用于维持与参数音频编码器相关联的可逆动态范围控制信息的系统
US10844689B1 (en) 2019-12-19 2020-11-24 Saudi Arabian Oil Company Downhole ultrasonic actuator system for mitigating lost circulation
CA2843263A1 (en) 2012-07-02 2014-01-09 Sony Corporation Decoding device, decoding method, encoding device, encoding method, and program
CN109036443B (zh) 2013-01-21 2023-08-18 杜比实验室特许公司 用于在不同回放设备之间优化响度和动态范围的系统和方法
KR102192755B1 (ko) 2013-01-21 2020-12-18 돌비 레버러토리즈 라이쎈싱 코오포레이션 프로그램 라우드니스 및 경계 메타데이터를 가진 오디오 인코더 및 디코더
EP3582218A1 (en) 2013-02-21 2019-12-18 Dolby International AB Methods for parametric multi-channel encoding
CN107093991B (zh) 2013-03-26 2020-10-09 杜比实验室特许公司 基于目标响度的响度归一化方法和设备
US9635417B2 (en) 2013-04-05 2017-04-25 Dolby Laboratories Licensing Corporation Acquisition, recovery, and matching of unique information from file-based media for automated file detection
TWM487509U (zh) 2013-06-19 2014-10-01 杜比實驗室特許公司 音訊處理設備及電子裝置
CN110648677B (zh) 2013-09-12 2024-03-08 杜比实验室特许公司 用于下混合音频内容的响度调整
US10095468B2 (en) 2013-09-12 2018-10-09 Dolby Laboratories Licensing Corporation Dynamic range control for a wide variety of playback environments
MX2016008172A (es) 2013-12-27 2016-10-21 Sony Corp Metodo y aparato de decodificacion, y programa.
CN110808723A (zh) 2014-05-26 2020-02-18 杜比实验室特许公司 音频信号响度控制
WO2016057530A1 (en) 2014-10-10 2016-04-14 Dolby Laboratories Licensing Corporation Transmission-agnostic presentation-based program loudness
CN111713016B (zh) * 2018-02-15 2023-11-28 杜比实验室特许公司 响度控制方法和装置
CN110428381B (zh) * 2019-07-31 2022-05-06 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、移动终端及存储介质
CN112992159B (zh) * 2021-05-17 2021-08-06 北京百瑞互联技术有限公司 一种lc3音频编解码方法、装置、设备及存储介质
WO2022250772A1 (en) * 2021-05-28 2022-12-01 Dolby Laboratories Licensing Corporation Dynamic range adjustment of spatial audio objects

Family Cites Families (168)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4628529A (en) 1985-07-01 1986-12-09 Motorola, Inc. Noise suppression system
JPH03254223A (ja) 1990-03-02 1991-11-13 Eastman Kodak Japan Kk アナログデータ伝送方式
JP2655485B2 (ja) 1994-06-24 1997-09-17 日本電気株式会社 音声セル符号化装置
JP3498375B2 (ja) 1994-07-20 2004-02-16 ソニー株式会社 ディジタル・オーディオ信号記録装置
JP3189598B2 (ja) 1994-10-28 2001-07-16 松下電器産業株式会社 信号合成方法および信号合成装置
JPH1020888A (ja) 1996-07-02 1998-01-23 Matsushita Electric Ind Co Ltd 音声符号化・復号化装置
US6073100A (en) 1997-03-31 2000-06-06 Goodridge, Jr.; Alan G Method and apparatus for synthesizing signals using transform-domain match-output extension
SE512719C2 (sv) 1997-06-10 2000-05-02 Lars Gustaf Liljeryd En metod och anordning för reduktion av dataflöde baserad på harmonisk bandbreddsexpansion
KR20000068538A (ko) 1997-07-11 2000-11-25 이데이 노부유끼 정보 복호 방법 및 장치, 정보 부호화 방법 및 장치, 및 제공매체
SE9903553D0 (sv) 1999-01-27 1999-10-01 Lars Liljeryd Enhancing percepptual performance of SBR and related coding methods by adaptive noise addition (ANA) and noise substitution limiting (NSL)
EP1126620B1 (en) 1999-05-14 2005-12-21 Matsushita Electric Industrial Co., Ltd. Method and apparatus for expanding band of audio signal
JP3454206B2 (ja) 1999-11-10 2003-10-06 三菱電機株式会社 雑音抑圧装置及び雑音抑圧方法
CA2290037A1 (en) 1999-11-18 2001-05-18 Voiceage Corporation Gain-smoothing amplifier device and method in codecs for wideband speech and audio signals
SE0004163D0 (sv) 2000-11-14 2000-11-14 Coding Technologies Sweden Ab Enhancing perceptual performance of high frequency reconstruction coding methods by adaptive filtering
JP2002268698A (ja) 2001-03-08 2002-09-20 Nec Corp 音声認識装置と標準パターン作成装置及び方法並びにプログラム
SE0101175D0 (sv) 2001-04-02 2001-04-02 Coding Technologies Sweden Ab Aliasing reduction using complex-exponential-modulated filterbanks
JP4231987B2 (ja) * 2001-06-15 2009-03-04 日本電気株式会社 音声符号化復号方式間の符号変換方法、その装置、そのプログラム及び記憶媒体
CN1272911C (zh) 2001-07-13 2006-08-30 松下电器产业株式会社 音频信号解码装置及音频信号编码装置
US6988066B2 (en) 2001-10-04 2006-01-17 At&T Corp. Method of bandwidth extension for narrow-band speech
US6895375B2 (en) 2001-10-04 2005-05-17 At&T Corp. System for bandwidth extension of Narrow-band speech
KR100935961B1 (ko) 2001-11-14 2010-01-08 파나소닉 주식회사 부호화 장치 및 복호화 장치
JP3926726B2 (ja) 2001-11-14 2007-06-06 松下電器産業株式会社 符号化装置および復号化装置
PT1423847E (pt) 2001-11-29 2005-05-31 Coding Tech Ab Reconstrucao de componentes de frequencia elevada
EP1470550B1 (en) 2002-01-30 2008-09-03 Matsushita Electric Industrial Co., Ltd. Audio encoding and decoding device and methods thereof
JP2003255973A (ja) 2002-02-28 2003-09-10 Nec Corp 音声帯域拡張システムおよび方法
US20030187663A1 (en) 2002-03-28 2003-10-02 Truman Michael Mead Broadband frequency translation for high frequency regeneration
JP2003316394A (ja) 2002-04-23 2003-11-07 Nec Corp 音声復号システム、及び、音声復号方法、並びに、音声復号プログラム
US7447631B2 (en) 2002-06-17 2008-11-04 Dolby Laboratories Licensing Corporation Audio coding system using spectral hole filling
JP3579047B2 (ja) 2002-07-19 2004-10-20 日本電気株式会社 オーディオ復号装置と復号方法およびプログラム
JP4728568B2 (ja) 2002-09-04 2011-07-20 マイクロソフト コーポレーション レベル・モードとラン・レングス/レベル・モードの間での符号化を適応させるエントロピー符号化
JP3881943B2 (ja) 2002-09-06 2007-02-14 松下電器産業株式会社 音響符号化装置及び音響符号化方法
SE0202770D0 (sv) 2002-09-18 2002-09-18 Coding Technologies Sweden Ab Method for reduction of aliasing introduces by spectral envelope adjustment in real-valued filterbanks
CN100492492C (zh) 2002-09-19 2009-05-27 松下电器产业株式会社 音频解码设备和方法
US7330812B2 (en) 2002-10-04 2008-02-12 National Research Council Of Canada Method and apparatus for transmitting an audio stream having additional payload in a hidden sub-channel
AU2003219430A1 (en) 2003-03-04 2004-09-28 Nokia Corporation Support of a multichannel audio extension
US7318035B2 (en) 2003-05-08 2008-01-08 Dolby Laboratories Licensing Corporation Audio coding systems and methods using spectral component coupling and spectral component regeneration
US20050004793A1 (en) 2003-07-03 2005-01-06 Pasi Ojala Signal adaptation for higher band coding in a codec utilizing band split coding
KR20050027179A (ko) 2003-09-13 2005-03-18 삼성전자주식회사 오디오 데이터 복원 방법 및 그 장치
US7844451B2 (en) 2003-09-16 2010-11-30 Panasonic Corporation Spectrum coding/decoding apparatus and method for reducing distortion of two band spectrums
CN100507485C (zh) 2003-10-23 2009-07-01 松下电器产业株式会社 频谱编码装置和频谱解码装置
KR100587953B1 (ko) 2003-12-26 2006-06-08 한국전자통신연구원 대역-분할 광대역 음성 코덱에서의 고대역 오류 은닉 장치 및 그를 이용한 비트스트림 복호화 시스템
BRPI0510014B1 (pt) 2004-05-14 2019-03-26 Panasonic Intellectual Property Corporation Of America Dispositivo de codificação, dispositivo de decodificação e método do mesmo
US8463602B2 (en) 2004-05-19 2013-06-11 Panasonic Corporation Encoding device, decoding device, and method thereof
WO2006000842A1 (en) 2004-05-28 2006-01-05 Nokia Corporation Multichannel audio extension
KR100608062B1 (ko) 2004-08-04 2006-08-02 삼성전자주식회사 오디오 데이터의 고주파수 복원 방법 및 그 장치
US7716046B2 (en) 2004-10-26 2010-05-11 Qnx Software Systems (Wavemakers), Inc. Advanced periodic signal enhancement
US20060106620A1 (en) 2004-10-28 2006-05-18 Thompson Jeffrey K Audio spatial environment down-mixer
SE0402651D0 (sv) 2004-11-02 2004-11-02 Coding Tech Ab Advanced methods for interpolation and parameter signalling
KR20070084002A (ko) 2004-11-05 2007-08-24 마츠시타 덴끼 산교 가부시키가이샤 스케일러블 복호화 장치 및 스케일러블 부호화 장치
CN101048814B (zh) 2004-11-05 2011-07-27 松下电器产业株式会社 编码装置、解码装置、编码方法及解码方法
KR100657916B1 (ko) 2004-12-01 2006-12-14 삼성전자주식회사 주파수 대역간의 유사도를 이용한 오디오 신호 처리 장치및 방법
US8082156B2 (en) 2005-01-11 2011-12-20 Nec Corporation Audio encoding device, audio encoding method, and audio encoding program for encoding a wide-band audio signal
US8484036B2 (en) 2005-04-01 2013-07-09 Qualcomm Incorporated Systems, methods, and apparatus for wideband speech coding
CN102163429B (zh) 2005-04-15 2013-04-10 杜比国际公司 用于处理去相干信号或组合信号的设备和方法
US20070005351A1 (en) 2005-06-30 2007-01-04 Sathyendra Harsha M Method and system for bandwidth expansion for voice communications
JP4899359B2 (ja) 2005-07-11 2012-03-21 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
KR100813259B1 (ko) 2005-07-13 2008-03-13 삼성전자주식회사 입력신호의 계층적 부호화/복호화 장치 및 방법
KR101228630B1 (ko) 2005-09-02 2013-01-31 파나소닉 주식회사 에너지 정형 장치 및 에너지 정형 방법
JP5089394B2 (ja) 2005-09-30 2012-12-05 パナソニック株式会社 音声符号化装置および音声符号化方法
EP1953737B1 (en) 2005-10-14 2012-10-03 Panasonic Corporation Transform coder and transform coding method
AU2005337961B2 (en) 2005-11-04 2011-04-21 Nokia Technologies Oy Audio compression
JP4876574B2 (ja) 2005-12-26 2012-02-15 ソニー株式会社 信号符号化装置及び方法、信号復号装置及び方法、並びにプログラム及び記録媒体
JP4863713B2 (ja) 2005-12-29 2012-01-25 富士通株式会社 雑音抑制装置、雑音抑制方法、及びコンピュータプログラム
US7953604B2 (en) 2006-01-20 2011-05-31 Microsoft Corporation Shape and scale parameters for extended-band frequency coding
US7590523B2 (en) 2006-03-20 2009-09-15 Mindspeed Technologies, Inc. Speech post-processing using MDCT coefficients
JP4976381B2 (ja) 2006-03-31 2012-07-18 パナソニック株式会社 音声符号化装置、音声復号化装置、およびこれらの方法
US20100161323A1 (en) 2006-04-27 2010-06-24 Panasonic Corporation Audio encoding device, audio decoding device, and their method
WO2007129728A1 (ja) 2006-05-10 2007-11-15 Panasonic Corporation 符号化装置及び符号化方法
JP2007316254A (ja) 2006-05-24 2007-12-06 Sony Corp オーディオ信号補間方法及びオーディオ信号補間装置
KR20070115637A (ko) 2006-06-03 2007-12-06 삼성전자주식회사 대역폭 확장 부호화 및 복호화 방법 및 장치
JP2007333785A (ja) 2006-06-12 2007-12-27 Matsushita Electric Ind Co Ltd オーディオ信号符号化装置およびオーディオ信号符号化方法
US8010352B2 (en) 2006-06-21 2011-08-30 Samsung Electronics Co., Ltd. Method and apparatus for adaptively encoding and decoding high frequency band
US8260609B2 (en) 2006-07-31 2012-09-04 Qualcomm Incorporated Systems, methods, and apparatus for wideband encoding and decoding of inactive frames
EP2063418A4 (en) 2006-09-15 2010-12-15 Panasonic Corp AUDIO CODING DEVICE AND AUDIO CODING METHOD
JP4918841B2 (ja) 2006-10-23 2012-04-18 富士通株式会社 符号化システム
US8295507B2 (en) 2006-11-09 2012-10-23 Sony Corporation Frequency band extending apparatus, frequency band extending method, player apparatus, playing method, program and recording medium
JP5141180B2 (ja) 2006-11-09 2013-02-13 ソニー株式会社 周波数帯域拡大装置及び周波数帯域拡大方法、再生装置及び再生方法、並びに、プログラム及び記録媒体
KR101565919B1 (ko) 2006-11-17 2015-11-05 삼성전자주식회사 고주파수 신호 부호화 및 복호화 방법 및 장치
JP4930320B2 (ja) 2006-11-30 2012-05-16 ソニー株式会社 再生方法及び装置、プログラム並びに記録媒体
CN101548318B (zh) 2006-12-15 2012-07-18 松下电器产业株式会社 编码装置、解码装置以及其方法
JP4984983B2 (ja) 2007-03-09 2012-07-25 富士通株式会社 符号化装置および符号化方法
JP2008261978A (ja) 2007-04-11 2008-10-30 Toshiba Microelectronics Corp 再生音量自動調整方法
US8015368B2 (en) 2007-04-20 2011-09-06 Siport, Inc. Processor extensions for accelerating spectral band replication
KR101355376B1 (ko) 2007-04-30 2014-01-23 삼성전자주식회사 고주파수 영역 부호화 및 복호화 방법 및 장치
WO2009001874A1 (ja) * 2007-06-27 2008-12-31 Nec Corporation オーディオ符号化方法、オーディオ復号方法、オーディオ符号化装置、オーディオ復号装置、プログラム、およびオーディオ符号化・復号システム
JP5071479B2 (ja) 2007-07-04 2012-11-14 富士通株式会社 符号化装置、符号化方法および符号化プログラム
JP5045295B2 (ja) * 2007-07-30 2012-10-10 ソニー株式会社 信号処理装置及び方法、並びにプログラム
US8041577B2 (en) 2007-08-13 2011-10-18 Mitsubishi Electric Research Laboratories, Inc. Method for expanding audio signal bandwidth
ES2526333T3 (es) 2007-08-27 2015-01-09 Telefonaktiebolaget L M Ericsson (Publ) Frecuencia de transición adaptativa entre el rellenado con ruido y la extensión del ancho de banda
US9495971B2 (en) 2007-08-27 2016-11-15 Telefonaktiebolaget Lm Ericsson (Publ) Transient detector and method for supporting encoding of an audio signal
WO2009029036A1 (en) 2007-08-27 2009-03-05 Telefonaktiebolaget Lm Ericsson (Publ) Method and device for noise filling
JP5409377B2 (ja) 2007-10-23 2014-02-05 クラリオン株式会社 高域補間装置および高域補間方法
KR101373004B1 (ko) 2007-10-30 2014-03-26 삼성전자주식회사 고주파수 신호 부호화 및 복호화 장치 및 방법
JP4733727B2 (ja) 2007-10-30 2011-07-27 日本電信電話株式会社 音声楽音擬似広帯域化装置と音声楽音擬似広帯域化方法、及びそのプログラムとその記録媒体
WO2009057329A1 (ja) 2007-11-01 2009-05-07 Panasonic Corporation 符号化装置、復号装置およびこれらの方法
EP2207166B1 (en) 2007-11-02 2013-06-19 Huawei Technologies Co., Ltd. An audio decoding method and device
US20090132238A1 (en) 2007-11-02 2009-05-21 Sudhakar B Efficient method for reusing scale factors to improve the efficiency of an audio encoder
KR101161866B1 (ko) 2007-11-06 2012-07-04 노키아 코포레이션 오디오 코딩 장치 및 그 방법
JP2009116275A (ja) 2007-11-09 2009-05-28 Toshiba Corp 雑音抑圧、音声スペクトル平滑化、音声特徴抽出、音声認識及び音声モデルトレーニングための方法及び装置
WO2009066959A1 (en) 2007-11-21 2009-05-28 Lg Electronics Inc. A method and an apparatus for processing a signal
US8688441B2 (en) 2007-11-29 2014-04-01 Motorola Mobility Llc Method and apparatus to facilitate provision and use of an energy value to determine a spectral envelope shape for out-of-signal bandwidth content
CN101903945B (zh) 2007-12-21 2014-01-01 松下电器产业株式会社 编码装置、解码装置以及编码方法
JPWO2009084221A1 (ja) 2007-12-27 2011-05-12 パナソニック株式会社 符号化装置、復号装置およびこれらの方法
EP2077550B8 (en) 2008-01-04 2012-03-14 Dolby International AB Audio encoder and decoder
WO2009093466A1 (ja) 2008-01-25 2009-07-30 Panasonic Corporation 符号化装置、復号装置およびこれらの方法
KR101413968B1 (ko) 2008-01-29 2014-07-01 삼성전자주식회사 오디오 신호의 부호화, 복호화 방법 및 장치
US8433582B2 (en) 2008-02-01 2013-04-30 Motorola Mobility Llc Method and apparatus for estimating high-band energy in a bandwidth extension system
US20090201983A1 (en) 2008-02-07 2009-08-13 Motorola, Inc. Method and apparatus for estimating high-band energy in a bandwidth extension system
RU2455709C2 (ru) 2008-03-03 2012-07-10 ЭлДжи ЭЛЕКТРОНИКС ИНК. Способ и устройство для обработки аудиосигнала
KR101449434B1 (ko) * 2008-03-04 2014-10-13 삼성전자주식회사 복수의 가변장 부호 테이블을 이용한 멀티 채널 오디오를부호화/복호화하는 방법 및 장치
ES2898865T3 (es) 2008-03-20 2022-03-09 Fraunhofer Ges Forschung Aparato y método para sintetizar una representación parametrizada de una señal de audio
KR20090122142A (ko) 2008-05-23 2009-11-26 엘지전자 주식회사 오디오 신호 처리 방법 및 장치
JP5588976B2 (ja) 2008-06-20 2014-09-10 ラムバス・インコーポレーテッド 周波数応答バス符号化
AU2009267525B2 (en) 2008-07-11 2012-12-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio signal synthesizer and audio signal encoder
MY178597A (en) 2008-07-11 2020-10-16 Fraunhofer Ges Forschung Audio encoder, audio decoder, methods for encoding and decoding an audio signal, and a computer program
JP5203077B2 (ja) 2008-07-14 2013-06-05 株式会社エヌ・ティ・ティ・ドコモ 音声符号化装置及び方法、音声復号化装置及び方法、並びに、音声帯域拡張装置及び方法
US8731909B2 (en) 2008-08-08 2014-05-20 Panasonic Corporation Spectral smoothing device, encoding device, decoding device, communication terminal device, base station device, and spectral smoothing method
JP2010079275A (ja) 2008-08-29 2010-04-08 Sony Corp 周波数帯域拡大装置及び方法、符号化装置及び方法、復号化装置及び方法、並びにプログラム
US8532983B2 (en) 2008-09-06 2013-09-10 Huawei Technologies Co., Ltd. Adaptive frequency prediction for encoding or decoding an audio signal
US8407046B2 (en) 2008-09-06 2013-03-26 Huawei Technologies Co., Ltd. Noise-feedback for spectral envelope quantization
US8352279B2 (en) 2008-09-06 2013-01-08 Huawei Technologies Co., Ltd. Efficient temporal envelope coding approach by prediction between low band signal and high band signal
US8798776B2 (en) 2008-09-30 2014-08-05 Dolby International Ab Transcoding of audio metadata
GB2466201B (en) 2008-12-10 2012-07-11 Skype Ltd Regeneration of wideband speech
GB0822537D0 (en) 2008-12-10 2009-01-14 Skype Ltd Regeneration of wideband speech
CN101770776B (zh) 2008-12-29 2011-06-08 华为技术有限公司 瞬态信号的编码方法和装置、解码方法和装置及处理系统
US8818541B2 (en) 2009-01-16 2014-08-26 Dolby International Ab Cross product enhanced harmonic transposition
US8457975B2 (en) 2009-01-28 2013-06-04 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Audio decoder, audio encoder, methods for decoding and encoding an audio signal and computer program
JP4945586B2 (ja) 2009-02-02 2012-06-06 株式会社東芝 信号帯域拡張装置
US8463599B2 (en) 2009-02-04 2013-06-11 Motorola Mobility Llc Bandwidth extension method and apparatus for a modified discrete cosine transform audio coder
JP5564803B2 (ja) 2009-03-06 2014-08-06 ソニー株式会社 音響機器及び音響処理方法
CN101853663B (zh) 2009-03-30 2012-05-23 华为技术有限公司 比特分配方法、编码装置及解码装置
EP2239732A1 (en) 2009-04-09 2010-10-13 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for generating a synthesis audio signal and for encoding an audio signal
CO6440537A2 (es) 2009-04-09 2012-05-15 Fraunhofer Ges Forschung Aparato y metodo para generar una señal de audio de sintesis y para codificar una señal de audio
JP5223786B2 (ja) 2009-06-10 2013-06-26 富士通株式会社 音声帯域拡張装置、音声帯域拡張方法及び音声帯域拡張用コンピュータプログラムならびに電話機
US8515768B2 (en) 2009-08-31 2013-08-20 Apple Inc. Enhanced audio decoder
JP5754899B2 (ja) 2009-10-07 2015-07-29 ソニー株式会社 復号装置および方法、並びにプログラム
US8600749B2 (en) 2009-12-08 2013-12-03 At&T Intellectual Property I, L.P. System and method for training adaptation-specific acoustic models for automatic speech recognition
US8447617B2 (en) 2009-12-21 2013-05-21 Mindspeed Technologies, Inc. Method and system for speech bandwidth extension
EP2357649B1 (en) 2010-01-21 2012-12-19 Electronics and Telecommunications Research Institute Method and apparatus for decoding audio signal
TWI447709B (zh) * 2010-02-11 2014-08-01 Dolby Lab Licensing Corp 用以非破壞地正常化可攜式裝置中音訊訊號響度之系統及方法
JP5375683B2 (ja) 2010-03-10 2013-12-25 富士通株式会社 通信装置および電力補正方法
JP5598536B2 (ja) 2010-03-31 2014-10-01 富士通株式会社 帯域拡張装置および帯域拡張方法
JP5609737B2 (ja) 2010-04-13 2014-10-22 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5850216B2 (ja) 2010-04-13 2016-02-03 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
JP5652658B2 (ja) 2010-04-13 2015-01-14 ソニー株式会社 信号処理装置および方法、符号化装置および方法、復号装置および方法、並びにプログラム
CN103069484B (zh) 2010-04-14 2014-10-08 华为技术有限公司 时/频二维后处理
US9047875B2 (en) 2010-07-19 2015-06-02 Futurewei Technologies, Inc. Spectrum flatness control for bandwidth extension
US8560330B2 (en) 2010-07-19 2013-10-15 Futurewei Technologies, Inc. Energy envelope perceptual correction for high band coding
KR102632248B1 (ko) 2010-07-19 2024-02-02 돌비 인터네셔널 에이비 고주파 복원 동안 오디오 신호들의 프로세싱
JP6075743B2 (ja) 2010-08-03 2017-02-08 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP2012058358A (ja) 2010-09-07 2012-03-22 Sony Corp 雑音抑圧装置、雑音抑圧方法およびプログラム
JP5707842B2 (ja) 2010-10-15 2015-04-30 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
WO2012052802A1 (en) 2010-10-18 2012-04-26 Nokia Corporation An audio encoder/decoder apparatus
JP5743137B2 (ja) 2011-01-14 2015-07-01 ソニー株式会社 信号処理装置および方法、並びにプログラム
JP5704397B2 (ja) 2011-03-31 2015-04-22 ソニー株式会社 符号化装置および方法、並びにプログラム
JP6024077B2 (ja) 2011-07-01 2016-11-09 ヤマハ株式会社 信号送信装置および信号処理装置
JP5942358B2 (ja) 2011-08-24 2016-06-29 ソニー株式会社 符号化装置および方法、復号装置および方法、並びにプログラム
JP6037156B2 (ja) 2011-08-24 2016-11-30 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5975243B2 (ja) 2011-08-24 2016-08-23 ソニー株式会社 符号化装置および方法、並びにプログラム
JP5845760B2 (ja) 2011-09-15 2016-01-20 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2013045693A2 (en) 2011-09-29 2013-04-04 Dolby International Ab High quality detection in fm stereo radio signals
WO2013154027A1 (ja) 2012-04-13 2013-10-17 ソニー株式会社 復号装置および方法、オーディオ信号処理装置および方法、並びにプログラム
JP5997592B2 (ja) 2012-04-27 2016-09-28 株式会社Nttドコモ 音声復号装置
CN103748629B (zh) 2012-07-02 2017-04-05 索尼公司 解码装置和方法、编码装置和方法以及程序
RU2652468C2 (ru) 2012-07-02 2018-04-26 Сони Корпорейшн Декодирующее устройство, способ декодирования, кодирующее устройство, способ кодирования и программа
CA2843263A1 (en) 2012-07-02 2014-01-09 Sony Corporation Decoding device, decoding method, encoding device, encoding method, and program
TWI517142B (zh) 2012-07-02 2016-01-11 Sony Corp Audio decoding apparatus and method, audio coding apparatus and method, and program
JP2014123011A (ja) 2012-12-21 2014-07-03 Sony Corp 雑音検出装置および方法、並びに、プログラム

Also Published As

Publication number Publication date
JP6531649B2 (ja) 2019-06-19
WO2015041070A1 (ja) 2015-03-26
US9875746B2 (en) 2018-01-23
EP3048609A4 (en) 2017-05-03
EP3048609A1 (en) 2016-07-27
JPWO2015041070A1 (ja) 2017-03-02
US20160225376A1 (en) 2016-08-04
CN105531762A (zh) 2016-04-27

Similar Documents

Publication Publication Date Title
CN105531762B (zh) 编码装置和方法、解码装置和方法以及程序
AU2019246882B2 (en) Loudness control for user interactivity in audio coding systems
CN107851440B (zh) 经编码音频扩展的基于元数据的动态范围控制
JP6753499B2 (ja) 復号化装置および方法、並びにプログラム
CN103649706B (zh) 三维音频音轨的编码及再现
JP5273858B2 (ja) データストリームおよびマルチチャネル表現を生成するための装置および方法
JP5455647B2 (ja) オーディオデコーダ
CN103119846B (zh) 利用对白水平归一化对音频流进行混合
KR101108060B1 (ko) 신호 처리 방법 및 이의 장치
CN111542877B (zh) 空间音频参数编码和相关联的解码的确定
KR20080063155A (ko) 부가정보 비트스트림 변환을 포함하는 다양한 채널로구성된 다객체 오디오 신호의 부호화 및 복호화 장치 및방법
JP2015527609A (ja) オーディオ信号の符号化及び復号
WO2016203994A1 (ja) 符号化装置および方法、復号装置および方法、並びにプログラム
CN102779519A (zh) 用于同步多声道扩展数据与音频信号以及用于处理音频信号的装置和方法
EP3707706A1 (en) Determination of spatial audio parameter encoding and associated decoding
JP7405962B2 (ja) 空間オーディオパラメータ符号化および関連する復号化の決定
JP2022509440A (ja) 空間オーディオパラメータの符号化及び対応する復号の決定
KR100636145B1 (ko) 확장된 고해상도 오디오 신호 부호화 및 복호화 장치
TW202123220A (zh) 使用方向性元資料之多通道音頻編碼及解碼
GB2578603A (en) Determination of spatial audio parameter encoding and associated decoding
RU2797457C1 (ru) Определение кодирования параметров пространственного звука и соответствующего декодирования
KR20240032746A (ko) 부호화 장치 및 방법, 복호 장치 및 방법, 그리고 프로그램
JP2002304198A (ja) 信号処理装置および信号処理方法

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant