CN105580070A - 根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器 - Google Patents

根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器 Download PDF

Info

Publication number
CN105580070A
CN105580070A CN201480041457.5A CN201480041457A CN105580070A CN 105580070 A CN105580070 A CN 105580070A CN 201480041457 A CN201480041457 A CN 201480041457A CN 105580070 A CN105580070 A CN 105580070A
Authority
CN
China
Prior art keywords
sound
signal
impulse response
room impulse
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201480041457.5A
Other languages
English (en)
Other versions
CN105580070B (zh
Inventor
西蒙·法格
简·普洛格施蒂斯
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Priority to CN201910939317.4A priority Critical patent/CN110648651B/zh
Publication of CN105580070A publication Critical patent/CN105580070A/zh
Application granted granted Critical
Publication of CN105580070B publication Critical patent/CN105580070B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/305Electronic adaptation of stereophonic audio signals to reverberation of the listening space
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01HMEASUREMENT OF MECHANICAL VIBRATIONS OR ULTRASONIC, SONIC OR INFRASONIC WAVES
    • G01H7/00Measuring reverberation time ; room acoustic measurements
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10KSOUND-PRODUCING DEVICES; METHODS OR DEVICES FOR PROTECTING AGAINST, OR FOR DAMPING, NOISE OR OTHER ACOUSTIC WAVES IN GENERAL; ACOUSTICS NOT OTHERWISE PROVIDED FOR
    • G10K15/00Acoustics not otherwise provided for
    • G10K15/08Arrangements for producing a reverberation or echo sound
    • G10K15/12Arrangements for producing a reverberation or echo sound using electronic time-delay networks
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • H04S3/004For headphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/01Multi-channel, i.e. more than two input channels, sound reproduction with two speakers wherein the multi-channel information is substantially preserved
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/03Aspects of down-mixing multi-channel audio to configurations with lower numbers of playback channels, e.g. 7.1 -> 5.1
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/301Automatic calibration of stereophonic sound system, e.g. with test microphone

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • General Physics & Mathematics (AREA)
  • Mathematical Physics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Stereophonic System (AREA)
  • Circuit For Audible Band Transducer (AREA)

Abstract

描述了一种根据室内脉冲响应(434)处理音频信号(400)的方法。将音频信号(400)与室内脉冲响应(434)的早期部分和后期混响音分别地处理(422,424),并结合(432)音频信号的处理的早期部分(428)和混响信号(430)。当相关性测量到达阈值时,则室内脉冲响应中从早期部分至后期混响音的过渡达到,阈值根据从室内脉冲响应的早期部分中的早期反射音中选择的一个的相关性测量来设定。

Description

根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器
技术领域
本发明涉及音频编码/解码领域,特别是涉及空间音频编码和空间音频对象编码,例如,3D音频编解码系统领域。本发明的实施例涉及根据室内脉冲响应处理音频信号的方法,以及在这种室内脉冲响应中确定从早期反射音至后期混响音的过渡的方法。
背景技术
空间音频编码在技术领域被熟知且被标准化,例如,在MPEG环绕标准中。空间音频编码从多个原始输入开始,例如,五个或七个输入声道,其通过再现设置中的布置来识别,例如,左声道、中间声道、右声道、左环绕声道、右环绕声道和低频增强声道。空间音频编码器可以从原始声道获得一个或多个降混声道,另外可以获得关于空间线索的参数数据,例如,声道相干值中的声道间位准差异、声道间相位差异、声道间时间差异等。一个或多个降混声道和指示空间线索的参数边信息一起传输至空间音频解码器,空间音频解码器用于解码降混声道和相关联的参数数据,以最后获得与原始输入声道的近似版本的输出声道。声道在输出设置中的布置可以是固定的,例如,5.1格式或7.1格式等。
空间音频对象编码工具也在技术领域被熟知且被标准化,例如,在MPEGSAOC标准(SAOC=spatialaudioobjectcoding,空间音频对象编码)中。相比于空间音频编码从原始声道开始,空间音频对象编码从非自动专用为特定渲染再现设置的音频对象开始。相反地,音频对象在再现场景中的布置是可变化的并且可以由用户设定,例如,通过输入特定渲染信息到空间音频对象编码的解码器。可选地或附加地,渲染信息可作为附加边信息或元数据(metadata)传输;渲染信息可以包括特定音频对象所布置在再现设置中的位置的信息(例如,时间方面)。为了获得特定的数据压缩,使用SAOC编码器来编码一定数量的音频对象,SAOC编码器根据特定的降混信息来降混对象以从输入对象计算出一个或多个运输声道。此外,SAOC编码器计算代表对象间线索的参数边信息,例如,对象位准差异(OLD)、对象相干数值等。当在SAC(SAC=SpatialAudioCoding)中,对象间参数数据针对各个时间平铺(timetiles)/频率平铺(frequencytiles)来计算。针对音频信号的特定帧(例如1024或2048个取样值),考虑多个频带(例如24、32或64个频带)使得参数数据能提供给每个帧和每个频带。例如,当音频片具有20个帧且当每个帧细分成32个频带时,时间/频率平铺的数量为640。
在3D音频系统中,可能期望提供音频信号的空间印象,仿佛音频信号在特定空间中被聆听。在这样的情况下,例如在测量基础上提供特定空间的室内脉冲响应,用于进行将音频信号表现给听众的处理。可能期望处理直达声音以及与后期混响音分开表现的早期反射音。需要确定早期反射音的结束处以及后期混响音的开始处。
发明内容
本发明的目的是提供用于根据室内脉冲响应处理音频信号的改良方法。
该目的通过权利要求1所述的方法、权利要求16所述的信号处理单元、权利要求18所述的音频编码器、权利要求20所述的音频解码器以及权利要求24所述的立体声渲染器来达成。
本发明根据发明人发现在传统方法中确定出从早期反射音到后期混响音的过渡有过早的问题,因为在第一反射发生或撞击之前用来判断过渡的发生的相关性已经到达阈值。基于这些发现以及已知过渡时间必须大于第一反射的到达时间,因为第一反射清楚明显且能确定不是后期散播混响音,发明人发现有必要避开固定阈值的使用;相反地,根据本发明的方法,阈值的定义取决于早期反射音中的其中一个的撞击时间上的相关性。确保第一反射总会在过渡时间之前。
(1)本发明提供一种用于根据室内脉冲响应处理音频信号的方法,该方法包括:
将音频信号进行分别地与室内脉冲响应的早期部分和后期混响音一起处理;以及
将与室内脉冲响应的早期部分一起处理的音频信号和混响信号结合,
其中在室内脉冲响应中从早期部分至后期混响音的过渡通过到达阈值的相关性测量来确定,阈值根据从室内脉冲响应的早期部分中的早期反射音中选择的一个的相关性测量来设定。
本发明方法的优点在于允许基于鲁棒过渡点进行音频信号的改良处理。本发明方法无关房间,无关是否使用双声道方法以及入射角。相比于现有技术方法,本发明方法的进一步优点在于其并非强烈地依赖于双声道脉冲响应的方位角以及直达声音与第一撞击反射的振幅之间的关系。
(2)根据实施例,相关性测量描述关于室内脉冲响应的、在包括初期状态的声能中的衰变的相似点以及在初期状态之后的任何时间开始的在预定义频率范围的声能中的衰变的相似点。
(3)根据实施例,确定过渡包括基于室内脉冲响应确定声能的分布,以及确定多个相关性测量,多个相关性测量用于为确定的分布的多个部分指示在确定的分布的各个部分中的声能和在初期状态的声能之间的相关性。
(4)根据实施例,确定分布包括确定声能的时间-频率分布,其中分布的部分包括预定义长度的时间块,初期状态通过时间-频率分布的多个时间块中的第一个来定义。
该优点在于允许在不同时间分析频率分布,从而提供频率分布的特性在时间上的表示。
(5)根据实施例,确定分布包括从室内脉冲响应计算能量衰变救援(energydecayrelief,EDR),其中EDR如下所示计算:
E ( t , ω ) = | ∫ t ∞ h ( τ ) e - j ω τ d τ | 2
其中
E(t,ω)=能量衰变救援,
h(τ)=室内脉冲响应,
ω=2πf。
(6)根据实施例,室内脉冲响应具有预定义的有效长度,其中确定时间-频率分布包括使用具有对应于室内脉冲响应的有效长度的长度的窗来计算室内脉冲响应的FFT光谱。
该优点在于FFT/DFT能够良好定义且存在有效算法来计算频谱值。如果窗中的数值是已知的,则FFT/DFT可以在不复杂方式下计算。
(7)根据实施例,在初期状态的声能通过采取室内脉冲响应的全部有效长度、计算FFT光谱、采取绝对值的平方来确定,时间块的声能通过将窗移动与时间块相关联的时间、将窗取样补零至有效长度、计算FFT以及采取绝对值的平方来确定。
该优点在于不需要附加滤波器组或其他相似装置用于EDR的窄频带计算;仅需要进行窗的移动。
(8)根据实施例,相关性测量为用来描述在包含初期状态的声能中的衰变的相似点和在初期状态之后任何时间开始的声能中的衰变的相似点的相关性测量。相关性测量可以如下所示计算:
ρ ( t ) = Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) 2 · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) 2
其中
ρ(t)=相关性测量,
E(1,ω)=在频率f的全部频率范围的能量衰变救援,
E(t,ω)=从时间t开始在频率f处的能量衰变救援,
ω=2πf。
该优点在于上述公式参考熟知的Pearson的相关性系数(Pearson的积差相关)。相关性系数可以直接从EDR计算而得。
(9)根据实施例,阈值根据常数值和早期反射音中选择的一个的相关性测量来确定。阈值可以如下所示定义:
ρ(t)=c·ρ(tF)
其中
ρ(tF)=早期反射音中选择的一个的相关性测量,
tF=在直达声音撞击之后的早期反射音中选择的一个的时间索引,
c=基于的常数值,e为欧拉数(Eulernumber)。
该优点在于阈值并非恒定的,而取决于所选的早期反射音,以确保相关性不会太早落在阈值以下。
(10)根据实施例,确定早期反射音中选择的一个的时间,例如,通过运行的峰度运算符、通过阈值检测或通过攻击检测来确定。
该优点在于反射的撞击时间可以直接且自动地从脉冲响应的时域样本中计算。
(11)根据实施例,早期反射音中选择的一个是直达声音之后的第一个反射音。
(12)本发明提供一种信号处理单元,包括用于接收音频信号的输入端、被配置或被程序化用于依本发明方法根据室内脉冲响应处理接收的音频信号的处理器、以及用于结合接收的音频信号的处理的早期部分和混响信号成输出音频信号的输出端。信号处理单元可以包括用于根据室内脉冲响应的早期部分处理接收的音频信号的早期部分处理器、以及用于根据室内脉冲响应的后期混响音处理接收的音频信号的后期混响音处理器。
(13)本发明提供用于编码音频信号的音频编码器,其中音频编码器被配置或被程序化用于依本发明方法根据室内脉冲响应处理待编码音频信号。音频编码器可以包括本发明的信号处理单元。
(14)本发明提供用于解码编码音频信号的音频解码器,其中音频解码器被配置或被程序化用于依本发明方法根据室内脉冲响应处理解码音频信号。音频解码器可以包括本发明的信号处理单元。音频解码器可以包括渲染器,其相似于立体声渲染器,被配置或被程序化用于接收解码音频信号,并在室内脉冲响应的基础上渲染输出信号。
(15)本发明提供立体声渲染器,包括本发明的信号处理单元。
附图说明
本发明的实施例将参考附图进行描述,其中
图1显示3D音频系统的3D音频编码器的概要图;
图2显示3D音频系统的3D音频解码器的概要图;
图3显示用于实施格式转换器的示例,该格式转换器可以实施在图2的3D音频解码器中;
图4显示立体声渲染器的实施例,该立体声渲染器可以实施在图2的3D音频解码器中;
图5显示室内脉冲响应h(t)的示例;
图6(A)显示根据本发明实施例的用于分别地与室内脉冲响应的早期部分和后期混响音一起处理音频信号的信号处理单元(例如在图4的立体声渲染器中)的方块图;
图6(B)显示根据本发明进一步实施例的用于分别地与室内脉冲响应的早期部分和后期混响音一起处理音频信号的另一信号处理单元(例如在图4的立体声渲染器中)的方块图;
图7显示根据本发明实施例的用于确定在室内脉冲响应中早期反射音和后期混响音之间的过渡时间的方法的流程图;
图8显示达成的用于根据基于FFT的方法所确定的脉冲响应的能量衰变救援(EDR);
图9显示根据本发明实施例的过渡时间的确定;
图10显示使用现有方法所确定的测量的双声道室内脉冲响应的左声道和右声道的过渡时间;
图11显示使用本发明方法所确定的测量的双声道室内脉冲响应的左声道和右声道的过渡时间;
图12大略地显示根据本发明实施例的立体声渲染器中的音频信号的双声道处理;
图13大略地显示根据本发明实施例的图12的立体声渲染器的频域混响器中的处理。
具体实施方式
以下描述用于根据室内脉冲响应处理音频信号本发明方法的实施例,以及用于在室内脉冲响应中确定从早期反射音至后期混响音的过渡的本发明方法的实施例。下面的描述将从可以实现本发明方法的3D音频编解码系统的系统概要开始。
图1和图2显示根据实施例的3D音频系统的算法框图。更具体地,图1显示3D编码器100的概要。音频编码器100在可选择地提供的预渲染器/混合器电路102处接收输入信号,更具体地,多个输入声道提供给音频编码器100多个声道信号104、多个对象信号106以及相对应的对象元数据108。通过预渲染器/混合器102(参见信号110)所处理的对象信号106可提供至SAOC编码器112。SAOC编码器112产生被提供至USAC(USAC=UnifiedSpeechandAudioCoding,统一语音和音频编码)编码器116的SAOC运输声道114。此外,信号SAOC-SI(SAOC-SI=SAOCsideinformation,SAOC边信息)118也提供至USAC编码器116。USAC编码器116进一步不仅接收直接来自预渲染器/混合器的对象信号120,还接收声道信号以及预渲染的对象信号122。对象元数据信息108施加至OAM(OAM=objectmetadata,对象元数据)编码器124,该OAM编码器124提供压缩的对象元数据信息126至USAC编码器。基于上述输入信号,USAC编码器116产生压缩的输出信号mp4,其标示为128。
图2显示3D音频系统的3D音频解码器200的概要。音频解码器200接收图1的音频编码器100所产生的编码信号128(mp4),更具体地,在USAC解码器202处接收。USAC解码器202将所接收的信号128解码成声道信号204、预渲染的对象信号206、对象信号208以及SAOC运输声道信号210。进一步,USAC解码器202输出压缩的对象元数据信息212以及信号SAOC-SI214。对象信号208提供至用于输出渲染的对象信号218的对象渲染器216。SAOC运输声道信号210应用至用于输出渲染的对象信号222的SAOC解码器220。压缩的对象元数据信息212应用至OAM解码器224,OAM解码器224用于输出各个控制信号至对象渲染器216以及SAOC解码器220,用于产生渲染的对象信号218以及渲染的对象信号222。解码器进一步包括混合器226,如图2所示,混合器226接收输入信号204、206、218以及222,并输出声道信号228。声道信号可以直接输出至扬声器,例如32声道的扬声器,其标示为230。信号228可以提供至格式转换电路232,格式转换电路232作为控制输入端接收再现布局信号,再现布局信号指示声道信号228的转换方式。图2绘示的实施例中,假设转换以这样的方式完成,信号可以提供至5.1扬声器系统,其标示为234。而且,声道信号228可以提供至立体声渲染器236以产生两个输出信号,例如用于头戴式耳机,其标示为238。
在本发明的实施例中,在图1和图2所绘示的编码/解码系统基于MPEG-DUSAC编解码,来编码声道和对象信号(参见信号104以及106)。为了增加编码大量对象的效率,可使用MPEGSAOC技术。三种类型的渲染器可执行渲染对象至声道、渲染声道至头戴式耳机或渲染声道至不同扬声器设置的任务(参见图2,标号230、234以及238)。当对象信号明确地传输或使用SAOC作参数编码,相对应的对象元数据信息108被压缩(参见信号126)以及被多路复用至3D音频比特流128。
以下将进一步详细地描述图1以及图2所示的整体3D音频系统的算法方块。
预渲染器/混合器102可选择地提供,以在编码之前将声道加对象输入场景转换成声道场景。功能上,其相同于下面段落将描述的对象渲染器/混合器。需要对象的预渲染,以确保在编码器输入端的确定性的信号熵,基本上无关于同步主动对象信号的数量。根据对象的预渲染,不需要传输对象元数据。离散对象信号渲染至编码器使用的声道布局。从相关联的对象元数据(OAM)针对每个声道获得对象的权重。
USAC编码器116用于扬声器声道信号、离散对象信号、对象降混信号以及预渲染信号的核心编解码。其基于MPEG-DUSAC技术。其根据输入声道以及对象分配的几何以及语义信息,通过创建声道以及对象映像信息来处理上述信号的编码。该映像信息描述输入声道以及对象如何映像至USAC声道组件,如声道对组件(CPEs)、单声道组件(SCEs)、低频效果(LFEs)和四声道组件(QCEs),而CPEs、SCEs以及LFEs以及相对应的信息传输到解码器。编码器的比率控制考虑所有附加酬载(payloads)如SAOC数据114与118、或对象元数据126。对象的编码可能用不同的方式,取决于对渲染器的比率/失真需求以及交互性需求。根据实施例,后续的对象编码变体可能为:
·预渲染对象:在编码之前,对象信号预渲染并混合至22.2声道信号。后续的编码链可参见22.2声道信号。
·离散对象波形:对象作为单声道波形应用至编码器。编码器使用单声道组件(SCEs)传输除了声道信号的对象。解码的对象在接收器侧渲染并混合。压缩的对象元数据信息传输到接收器/渲染器。
·参数对象波形:对象属性以及其彼此关系通过SAOC参数的方式来描述。对象信号的降混与USAC一起编码。参数信息并排传输。降混声道的数量的选择取决于对象的数量以及整体数据率。压缩的对象元数据信息传输到SAOC渲染器。
用于对象信号的SAOC编码器112以及SAOC解码器220可以基于MPEGSAOC技术。系统能够根据较小量的传输声道以及附加的参数数据,例如OLDs、IOCs(InterObjectCoherence,对象间相干性),DMGs(downmixgain,降混增益)来重建、修改以及渲染大量的音频对象。比起需要单独地传送所有对象,附加的参数数据展示显著较低数据率,使得编码非常有效率。SAOC编码器112以对象/声道信号作为单声道波形,并输出参数信息(其被打包成3D音频比特流128)以及SAOC运输声道(其使用单声道组件编码并传输)。SAOC解码器220从解码的SAOC运输声道210以及参数信息214,重建对象/声道信号,并基于再现布局、解压缩的对象元数据信息,可选择性基于用户互动信息,产生输出音频场景。
提供对象元数据编解码(参见OAM编码器124以及OAM解码器224),使得对于每个对象,指定3D空间中对象的几何位置以及容量相关联的元数据能通过对象属性在时间以及空间上的量化而有效地编码。压缩的对象元数据cOAM126传输到接收器200作为边信息。
对象渲染器216根据给定的再现格式,利用压缩的对象元数据以产生对象波形。每个对象根据其元数据而渲染至特定的输出声道。部分结果的总和导致该方块的输出。如果基于声道的内容以及离散/参数对象被解码,则在输出结果波形228之前或在提供到与立体声渲染器236或扬声器渲染器232相似的后处理器模块之前,基于声道的波形以及渲染对象波形通过混合器226混合。
立体声渲染器模块236产生多声道音频素材的双声道降混,使得每个输入声道以虚拟声音源来表现。该处理在QMF(QuadratureMirrorFilterbank,正交镜像滤波器组)域中以帧方式进行,而立体声(binauralization)是基于测量的双声道室内脉冲响应。
扬声器渲染器232在传输的声道配置228以及所需的再现格式之间转换。其也可被称为“格式转换器”。格式转换器执行至较低数量的输出声道的转换,即,其执行降混。
图3显示用于实施格式转换器232的示例。格式转换器232,也被称为扬声器渲染器,在传输的声道配置以及所需的再现格式之间转换。格式转换器232执行至较低数量的输出声道的转换,即其执行降混(DMX)处理240。降混器240,其优选地运作在QMF域,接收混合器输出信号228并输出扬声器信号234。配置器242,也被称为控制器,可提供作为控制输入端接收信号246和信号248,信号246代表混合器输出布局,即,确定由混合器输出信号228所呈现数据的布局,信号248代表期望的再现布局。根据该信息,控制器242,优选地自动,产生用于输入与输出格式的给定结合的优化的降混矩阵,以及应用这些矩阵至降混合器240。格式转换器232允许标准扬声器配置以及具有非标准扬声器的位置的任意配置。
图4显示图2的立体声渲染器236的实施例。立体声渲染器模块可提供多声道音频素材的双声道降混。立体声可基于测量的双声道室内脉冲响应。室内脉冲响应可被认为是真实房间的声学特征的“指纹”。测量以及储存室内脉冲响应,而任意的声学信号可有此“指纹”,从而允许听众处的与室内脉冲响应相关联的空间的声学特征的仿真。立体声渲染器236被程序化或被配置用于使用头部相关传输功能或双声道室内脉冲响应(BRIR)将输出声道渲染成两个双声道。例如,针对移动装置,附设于移动装置上的头戴式耳机或扬声器需要双声道渲染。在该种移动装置中,由于多种约束,其必须限制解码器以及渲染的复杂度。除了省略处理方案中的解相关,其较佳的首先使用降混器250执行降混至中间降混信号252,即,降混至较少数量的输出声道,其导致较少数量输入声道用于实际的双声道转换器254。例如,22.2声道素材可通过降混器250降混至5.1中间降混,或者,可选地,在“快捷(shorycut)”模式下可通过图2中的SAOC解码器220直接计算中间降混。如果22.2输入声道将被直接渲染,则相比于施加44HRTF(HeadRelatedTransferFunctions,头部相关传输)或BRIR功能,双声道渲染仅须施加10HRTF功能或用于在不同位置渲染五个独立声道的BRIR功能。对于双声道渲染所必须的卷积操作需要许多大量的处理功率,因此,减少处理功率而仍然可获得可接受的音频质量对移动装置特别地有用。立体声渲染器236产生多声道音频素材228的双声道降混238,使得每个输入声道(排除LFE声道)通过虚拟音源来表现。该处理可在QMF域中以帧方式产生。立体声基于测量的双声道室内脉冲响应,而当后期混响音可分别地处理时,在QMF域的上侧(on-top)使用快速卷积经由伪FFT领域中的卷积方法将直达声音以及早期反射音可留印在音频素材中。
图5显示室内脉冲响应h(t)300的示例。室内脉冲响应包括三部分:直达声音301、早期反射音302以及后期混响音304。如此,当播放脉冲时,室内脉冲响应描述密闭混响声学空间的反射行为。早期反射音302是具有增加密度的离散反射,不会再区别各个反射的脉冲响应的部分则被称为后期混响音304。直达声音301在室内脉冲响应中容易识别,以及可以与早期反射音相分离,然而,从早期反射音302到后期混响音304的过渡不太明显。
本发明方法的后续实施例将更详细地描述。根据本发明的实施例,音频信号分别地与室内脉冲响应的早期部分和后期混响音一起处理。将与室内脉冲响应的早期部分一起处理的音频信号和室内脉冲响应的混响信号相结合,并输出作为输出音频信号。为了独立处理,室内脉冲响应中从早期部分到后期混响音的过渡必须已知。该过渡通过达到阈值的相关性测量来确定,其中阈值根据从室内脉冲响应的早期部分中的早期反射音中所选择的一个的相关性测量来设定。相关性测量可以描述关于室内脉冲响应的、在包括初期状态的声能中的衰变的相似点以及在初期状态之后的任何时间开始的在预定义频率范围的声能中的衰变的相似点。
根据实施例,音频信号的单独处理包括在第一初期期间将音频信号和室内脉冲响应的早期反射音部301,302一起处理,以及在第二处理期间将音频信号和室内脉冲响应的扩散混响音304一起处理,第二处理不同于第一处理且与第一处理相分离。从第一处理到第二处理的改变出现在过渡时间。根据进一步的实施例,在第二处理中扩散(后期)混响音304可替换成合成混响音。在该情形中,所提供的室内脉冲响应可仅包括早期反射音部301,302(参见图5),且不包括后期扩散混响音304。
图6(A)显示根据本发明实施例的用于分别地与室内脉冲响应的早期部分和后期混响音一起处理音频信号的第一示例性信号处理单元的方块图。可在上述的立体声渲染器236中执行根据室内脉冲响应的不同部分的音频信号的处理。音频输入信号400可为非混响音频素材,例如多声道音频输入信号,其与室内脉冲响应相卷积;或例如使用仿真头或耳道式麦克风测量到的室内脉冲响应。卷积允许增益原始的非混响音频素材的空间印象,仿佛是在与室内脉冲响应相关联的空间中聆听该音频素材。例如,在上述的立体声渲染器236中,期望在室内脉冲响应中分别地将音频信号和直达声音301以及早期反射音一起处理,将音频信号和后期混响音304一起处理。为了处理音频输入信号400,方块402用于处理直达声音,方块404用于处理早期反射音以及方块406用于处理后期混响音。通过第一加法器412将各个方块402至406的输出信号408至410相结合,以产生早期处理信号414。处理器406提供的早期处理信号414以及混响信号416通过第二加法器418结合,以产生音频输出信号420,其提供给听众仿佛音频信号在与该室内脉冲响应相关联的空间中聆听的印象。
将后期混响音302与直达声音以及早期反射音分开处理的优点在于减少计算复杂度。更具体地,对全部脉冲响应使用卷积计算是非常昂贵的。因此,为了模拟后期混响音,通常使用具有较低复杂度的混响音算法来处理音频信号。脉冲响应的直达声音部以及早期反射音部通过,例如卷积计算,更精确地进行计算。进一步的优点在于对混响音控制的可能性。后期混响音可取决于使用者的输入或音频信号的内容而修改测量的空间参数。为了达成上述优点,必须已知早期反射音302结束且后期混响音304开始的过渡位置(例如时间点)。当后期混响音处理开始的太早,则音频信号可能会有较低的质量而人听力能发现明显消失的早期反射音。另一方面,如果过渡时间发现的太晚,则计算效率将不会被利用,造成早期反射音处理通常比后期混响音处理更昂贵。例如,在时域取样的过渡可提供至立体声渲染器作为输入参数,然后根据接收的过渡,该输入参数控制处理器402至406用于分别地处理音频信号。
图6(B)显示根据本发明另一实施例的用于分别地与室内脉冲响应的早期部分和后期混响音一起处理音频信号的另一信号处理单元的方块图。接收输入信号400,例如多声道音频输入信号,并施加至第一处理器422用于处理早期部分,即根据图5所示的室内脉冲响应300中的直达声音301以及早期反射音302处理音频信号。多声道音频输入信号400也施加至第二处理器424用于根据室内脉冲响应的后期混响音304处理音频信号。在立体声渲染器中,如上所述,主要因为降低计算复杂度,所以理想的是处理直达声音以及从后期混响音区分出早期反射音。例如,直达声音以及早期反射音的处理可通过第一处理器422执行的卷积方法留印至音频信号,而后期混响音可被替换成第二处理器424提供的合成混响音。整体双声道输出信号420为处理器422提供的卷积结果428以及处理器424提供的合成混响信号430的结合。根据实施例,加法器432结合信号428以及430以输出整体双声道输出信号420。
如上所述,第一处理器422可将音频输入信号400与室内脉冲响应的直达声音以及早期反射音进行卷积运算,可从具有多个纪录的双声道室内脉冲响应的外部数据库434中提供该室内脉冲响应给第一处理器422。第二处理器或混响器424可基于混响器参数如混响音RT60以及混响音能量进行操作,混响器参数可通过分析436从储存的双声道室内脉冲响应获得。应注意的是,分析436并非渲染器的必要部分,相反地,表示各个混响音参数可从储存在数据库434中的各个响应获得;此可在外部完成。可通过计算在八音度或1/3八音度滤波器组分析中的能量以及RT60混响音时间来决定混响器参数;或者以多个脉冲响应分析的结果的平均值来确定混响器参数。
此外,处理器422以及424从数据库434直接接收或经由分析436接收输入参数,也接收关于在室内脉冲响应中从早期部分到后期混响音的过渡的信息。以下将更详细地描述确定过渡的方法。
根据实施例,过渡分析可用于区别早期反射音以及后期混响音。其可提供至立体声渲染器作为输入参数(例如,其可从有用于配置混响器的RT60数值以及能量数值的专用文档/界面中读取)。分析可根据一组双声道室内脉冲响应(一组用于多个方位角以及仰角的BRIR对)。分析可为预处理步骤,其针对每个脉冲响应分别地执行,然后获得所有过渡数值的中位数作为该组BRIR的整体过渡数值。然后,整体过渡数值可用于在双声道输出信号的计算中从后期混响音中分离早期反射音。
有几个已知的方法用于确定过渡,然而,现在将描述这些方法的缺点。在现有技术参考文献[1]中,所述的方法使用能量衰变救援(EDR)以及相关性测量来确定从早期反射音到后期混响音的过渡时间。然而,现有技术参考文献[1]所述的方法有缺点。
1.该方法强烈地取决于双声道脉冲响应的方位角以及直达声音与第一撞击反射的振幅之间的关系。
2.过渡时间在任意频带中进行计算。没有一般的知识有关于哪个频带可用于整体脉冲响应的正确的过渡时间。
3.没有信息有关于该方法的必要相关性步骤。
另一已知的方法是通过空间中回音的散布来描述早期反射音,例如通过每秒反射的平均数量,并且当该数量超过预定义的阈值(参见现有技术参考文献[2])时,确定为后期混响音的开始。该方法依赖空间特性,即空间体积,但其通常是未知的。空间体积不能容易地从测量的脉冲响应得出。因此,该方法并非适合应用于从测量的脉冲响应计算过渡。而且,目前关于反射音必须多密才被称为后期混响音没有常识。
另一可能性,在技术参考文献[3]中所描述的是比较在脉冲响应窗中一时间上的实际分布与时域的高斯分布。假设后期混响音具有正态分布。在正态分布中大约1/3(精确地为1/e)的取样在平均值的标准偏差外,而大约2/3的取样在平均值的标准偏差内。明显地,早期反射音有更多取样在一个标准偏差之内,而较少取样在一个标准偏差之外。在一个标准偏差之外的取样对在一个标准偏差之内的取样之间的比率可用于定义过渡时间。然而,该方法的缺点在于因为该比率有时在阈值附近波动所以该过渡也难以用此手段定义。该手段也强烈地取决于用于计算比率的滑行窗的尺寸以及类型。
除了上述方法,峰态(Kurtosis)(随机信号的更阶累积量)可用于确定过渡时间。当向脉冲响应的后期部接近时,其可快速降低,如现有技术参考文献[4]所概述。然而,针对过渡(使用当其第一次到达零时迅速降低或时间)的阈值的定义并非清楚。
另有一方法,其不依赖测量的脉冲响应的分析,但是依赖空间体积,如同文献[2]所描述。该方法假设过渡时间仅取决于体积,但是其不考虑边界的扩散属性。因此,当不需要精确地确定过渡转换时间时,结果仅是过渡时间的近似值,并非为了避免上述缺点而所需的精确值。进一步,空间的体积通常不是已知的且不容易地从测量的脉冲响应中得到。
其他已知的方法则完全地忽略环境且定义过渡时间为简单的80ms,例如,请参见现有技术参考文献[5]。然而,该数值完全脱离空间特性或测量的脉冲响应,因此对于从脉冲响应的提醒分隔出后期混响音的目的而言太不准确。
除了改良的音频信号处理之外,根据本发明的实施例也提供确定在室内脉冲响应中早期反射音以及后期混响音之间的过渡时间的改良方法,以产生更精确的过渡时间的确定。将于下面段落描述的实施例,提供简单且有效可能以使用FFT分析从测量的脉冲响应中计算出过渡时间。
图7显示根据本发明实施例的用于确定在室内脉冲响应中早期反射音和后期混响音之间的过渡时间的方法的流程图。为了确定从早期反射音到后期混响音的过渡时间,在第一步骤500中确定声能的时间-频率分布。例如,根据实施例,能量衰变救援(E(t,f),EDR)可在步骤500中计算。EDR可为直接从测量的(例如双声道)室内脉冲响应中计算,以及可解释成共享能量衰变曲线(SchroederintegrationEDC(d))的频域扩张,该曲线显示在时间t.之后在脉冲响应中的剩余能量。取代使用宽带脉冲响应,EDR从时间-频率表示获得,且为此目的,可使用许多不同时间-频率表示。一旦声能的时间-频率分布已经在步骤500所确定,则在步骤502确定时间-频率分布的时间块上的声能以及在初期状态的整体声能之间的相关性测量。在步骤504中确定相关性测量是否到达定义的阈值(例如,落在定义阈值的下方)。如果未达到阈值,本方法进行步骤506,选择下一个时间块以及目前时间块的后续分布,并针对下一个时间块重复进行步骤502以及504。如此,根据步骤502至506,相关性测量用于计算步骤500确定的EDR的每个时间块和初期状态的整体能量之间的相关性数值。当相关性测量达到定义的阈值(例如,落在定义阈值之下)时,则表示到达过渡时间。换句话说,当在步骤504中对于目前时间块确定相关性测量低于阈值,则本方法进行步骤508将目前时间块的时间输出作为过渡时间。
以下将更详细地描述本发明方法的实施例。最初,可将测量的双声道脉冲响应作为输入用于过渡时间的计算。然后,Page分布或Levin分布用于能量衰变救援(EDR)的计算。Page分布是指参考过去执行光谱的衍生物,而时间反转信号的Page分布被称为Levin分布(也参见现有技术参考文献[2])。该分布描述瞬间功率谱,以及脉冲响应h(t)(例如,参加图5)的EDR如下所示计算:
E ( t , ω ) = | ∫ t ∞ h ( τ ) e - j ω τ d τ | 2
其中
E(t,ω)=能量衰变救援,
h(τ)=室内脉冲响应,
ω=2πf。
根据上述公式的计算在直达声音301(参见图5)处开始,而随着时间增加能量衰变救援包括更不明显的反射以及更多随机混响音。根据所述的实施例,为了容易计算,能量衰变救援以1毫秒长度的时间块进行计算。通过上述功能,确定声能的时间-频率分布,如图7中已经描述的关于步骤500。
接着,在图7中已经描述的关于步骤502至步骤506,根据Pearson积差相关(也称为相关性系数)确定相关性测量ρ(t)。具体而言,根据如下所示的实施例,在初期状态时整体能量中每个时间块的声能的相关性为:
ρ ( t ) = Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) 2 · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) 2
其中
E(1,ω)=在频率f的全部频率范围的能量衰变救援,
E(t,ω)=从时间t开始在频率f的能量衰变救援,
ω=2πf。
上述相关性描述包括初期状态的衰变的相似性以及在任何时间t开始的衰变的相似性。其从宽带EDR计算,使用EDR的全部频率范围用于计算,从而比较完全最初的能量状况与在时间t的状况。
本发明不限于对所有频率的相关性的计算。相反地,相关性也可对预定义的频率范围计算。频率范围可从待处理的音频信号中确定。例如,对于特定的音频信号,频率范围可限制于预定义的范围,例如,可听见频率的范围。根据实施例,频率范围可为20Hz至20kHz。应注意的是也可选择其他范围,例如根据实证研究。
根据实施例,可使用EDR的有效基于FFT的工具。可应用具有测量的脉冲响应的有效长度的窗,而假设测量的脉冲响应的有效长度213等于8192个频率窗。在计算期间,窗移动单时间块的离散长度,而窗的一端为零。根据实施例,使用1ms长度的时间块,而为了EDR的简单以及有效的计算,应用后续的方法:
(1)测量的脉冲响应的全部有效长度被带进以计算FFT光谱,而绝对值为对E(1,ω)的平方。
(2)窗以1ms的离散时间方块长度向脉冲响应的末端移动,直到到达脉冲响应的末端。窗取样垫零至有效长度(即超过有效长度的取样被设定为零),然后计算FFT光谱产生E(1,ω)。
上述方法的优点在于,不需要附加滤波器组或其他相似装置做EDR的窄频带计算;仅需要进行窗的移动。图8显示根据上述基于FFT的方法为了达成脉冲响应的能量衰变救援的示例。
如在图7已经描述关于步骤504以及步骤508,根据上述方式确定的相关性与预定义的阈值进行比较。阈值越小,则越多过渡时间向脉冲响应的末端移动。例如,对于双声道脉冲响应,如果阈值选为1/e≈0.3679(也参见现有技术参考文献[2]),因为在第一反射发生或撞击之前相关性已落在阈值下,所以在一些方位角度会太早过渡。然而,因为第一反射是清楚明显的且确定不是后期扩散混响音,所以已知过渡时间必须在第一反射的到达时间之后。根据实施例,阈值并非定义为固定阈值。相反地,根据本发明方法,阈值的定义取决于在第一反射的撞击时间的相关性。依此定义,可确保第一反射总会在过渡时间之前。根据实施例,如步骤508所示,当以下等式成立时,过渡时间被视为到达:
ρ(t)=c·ρ(tF)
其中
ρ(tF)=早期反射音中选择的一个的相关性测量,
tF=从直达声音撞击之后的早期反射音中选择的一个的时间索引,
根据实施例,常数值可为然而本发明不限于该数值。根据实施例,常数值可近似于例如在预定义的小数位置(参见下方)对做舍入。
在所述的实施例中,tF是直达声音撞击后的第一反射的时间块索引。
图9显示根据本发明方法的过渡时间确定,阈值通过在第一反射的撞击点以及1/e的常数值的相关性的相乘,取决于脉冲响应来计算。室内脉冲响应600的振幅以取样的数量所表示,并且标示第一反射602。波形604指示采用公式(2)获得的相关性数值。在606,显示在第一反射的相关性数值,在示例显示为0.58的数值。而且,在608显示传统使用的固定阈值1/e。用于第一反射的相关性数值606以及原始固定数值1/e应用至输入乘法器610,其产生根据在第一反射的相关性数值的新阈值,其在所述的实施例中显示在612,为数值0.21。如此,相比于现有方法,过渡点614进一步向右边移动,使得所有在过渡点614之后的取样视为后期混响音304,而在之前的取样视为早期反射音302。可以看出的是,导致的决定时间614是鲁棒的。例如,在双声道室内脉冲响应中,其代表所计算的过渡时间在方位角更稳定许多。可从图10以及图11的比较看出。图10显示当使用现有技术参考文献[1]所述的方法对左声道700以及右声道702使用EDC工具以及固定阈值1/e来测量双声道室内脉冲响应的过渡时间。在耳朵以及方位角的相关性清楚可见,在过渡时间有深降至10ms,其由于在第一反射撞击的前相关性ρ(t)落在阈值下面。图11显示根据本发明方法所计算出的左声道700以及右声道702的过渡时间。相比于图10说明的现有方法,可观察到导致的过渡时间更少取决于耳朵以及方位角。
根据实施例,当相关性第一次落于阈值下方或等于阈值时视为到达过渡时间,且之后不再增加阈值。在所计算的相关性功能中与取样相关的时间数值是脉冲响应的后期混响音被视为开始的时间。根据本发明的方法,第一反射的撞击时间可通过执行峰态运算符来决定,如现有技术参考文献[6]所描述。或者,第一反射可通过其他方法检测,例如,通过阈值检测或,例如现有技术参考文献[7]所述的通过攻击检测。
根据实施例,e-1=0.3679用为指示随机流程中低相关性的数值,例如现有技术参考文献[1]中所标示。根据实施例,该数值使用小数点后的四位数,使得e-1近似0.3679。根据其他实施例,也可使用更多或更少小数点后的位数,明显的是所检测的过渡时间根据与e-1的精确值之间的差异而改变。例如,当使用数值0.368,其导致过渡时间的最小改变低于1ms。
根据进一步的实施例,脉冲响应可为有限频带,而在此情况下,EDR可在有限的频率范围中计算,也可计算EDR的有限频率范围的相关性。也可使用相替换的频率过渡或滤波器组,例如,完全在FFT域操作的方法,从而当使用基于FFT的滤波/卷积计算时可节省附加转换。
应注意的是,上述的实施例已参考第一反射的相关性数值。然而,其他实施例可使用针对早期反射音中的另一个来计算相关性数值。
如上所述,根据实施例,本发明的方法可用于双声道处理器中对音频信号作双声道处理。后续的实施例将描述音频信号的双声道处理。双声道处理可执行作为解码器处理,用于将解码信号转换成双声道降混信号,其当以头戴式耳机聆听时可提供环绕声音体验。
图12显示根据本发明的实施例的用于音频信号双声道处理的立体声渲染器800的示意图。图12也提供在立体声渲染器中进行QMF域处理的概要。在输入端802,立体声渲染器800接收待处理的音频信号,例如,包括N个声道以及64个QMF频带的输入信号。此外,立体声渲染器800接收用于控制音频信号的处理的多个输入参数。输入参数包括用于2xN个声道以及64个QMF频带的双声道室内脉冲响应(BRIR)804、最高频带的指示Kmax806,用于音频输入信号与BRIRs804的早期反射音部卷以及上述的混响器参数808以及810(RT60以及混响音能量)的卷积计算。立体声渲染器800包括快速卷积处理器812,用于对输入音频信号802以及所接收的BRIRs804的早期部分进行处理。处理器812在输出端产生包括两个声道以及KmaxQMF频带的初期处理信号814。除了具有快速卷积处理器812的初期处理分支,立体声渲染器800也包括包括每个用于接收RT60信息808和混响能量信息810作为输入参数的两个混响器816a与816b的混响音分支。混响音分支进一步包括立体声降混处理器818以及相关性分析处理器820,两者都接收音频信号802。此外,两个增益级821a与821b提供在立体声降混处理器818以及各个混响器816a与816b之间,用于控制立体声降混处理器818所提供的降混信号822的增益。立体声降混处理器818基于输入信号802提供具有两个频带以及64个QMF频带的降混信号822。增益级821a与821b的增益通过相关性分析处理器820所提供的各个控制信号824a与824b所控制。增益控制降混信号输入至各个混响器816a与816b以产生各个混响信号826a与826b。早期处理信号814以及混响信号826a与826b由混合器828所接收,其将所接收的信号组合成具有两个声道以及64个QMF频带的输出音频信号830。此外,根据本发明,快速卷积处理器812以及混响器816a与816b接收附加的输入参数832,其指示如上文所述的确定的在室内脉冲响应804中从早期部分到后期混响音的过渡。
双声道渲染器模块800(例如,图2或图4的立体声渲染器236)具有作为输入802的解码数据流。通过QMF分析滤波器组处理的信号,在ISO/IEC14496-3:2009第4.B.18.2小节,其修改的说明在ISO/IEC14496-3:2009,第8.6.4.2小节。渲染器模块800也可处理QMF域输入数据;在此情况下,可省略分析滤波器组。双声道室内脉冲响应(BRIRs)804以复数值QMF域滤波器来表示。从时域双声道室内脉冲响应到复数值QMF滤波表示的转换概述在ISO/IEC23003-1:2006附录B。BRIRs804受限于复数值QMF域中的时隙的特定数量,使得其仅包括早期反射音部301、302(参见图5),而不包括后期扩散混响音304。从早期反射音到后期混响音的过渡点832如上所述来确定,例如,通过在双声道处理的预处理步骤中的BRIRs804的分析。然后,通过带状快速卷积812处理QMF域音频信号802以及QMF域BRIRs804,以执行双声道处理。QMF域混响器816a与816b用于产生两声道QMF域后期混响音826a与826b。混响音模块816a与816b使用一组基于频率的混响音时间808以及能量数值810,以适应混响音的特性。混响音的波形基于音频输入信号802的立体声降混818,其根据多频道音频信号802的相关性分析820适应性地缩放振幅821a与821b。然后,两声道QMF域卷积结果814以及两声道QMF域混响音816a与816b相结合828,最后,两个QMF合成滤波器组计算双声道时域输出信号830,如ISO/IEC14496-3:2009第4.6.18.4.2小节所概述。渲染器也可产生QMF域输出数据;然后,可省略合成滤波器组。
定义
馈入双声道渲染器模块800的音频信号802在后续被称为输入信号。双声道处理结果的音频信号830被称为输出信号。双声道渲染器模块800的输入信号802是核心解码器(例如,请参见图2所示的信号228)的音频输出信号。可使用的后续的变量定义为:
处理
以下描述输入信号的处理。双声道渲染器模块在输入音频信号的长度L=2048个时域取样的邻近未重迭的帧上运作,并在针对每个模块处理长度L的输入帧输出L个取样的帧。
(1)初始化以及预处理
在开始处理核心解码器(例如,参见图2所示的解码器200)传送的音频取样之前,进行双声道处理方块的初始化。初始化包括几个处理步骤。
(a)读取分析数值
混响器模块816a与816b采取混响音时间808以及能量数值810的频率相关集作为输入参数。这些数值从双声道处理模块800的初始化界面读取。此外,读取在时域取样值中从早期反射音到后期混响音的过渡时间832。对于每个取样,这些数值可储存在二进制文件中,其以32位、浮动数值、little-endian顺序写入。处理所需的读取数值在下面的表格描述:
(b)读取以及预处理BRIRs
从分别存储左耳和右耳BRIRs的两个专用文件中读取双声道室内脉冲响应804。BRIRs的时域取样值储存在整数波形文件(wave-file)中,且波形文件(wave-file)中每个取样值具有24位的分辨率以及32个声道。文件中的BRIRs的顺序在后续的表格描述:
如果没有BRIR在扬声器位置中的其中一个被测量,则波形文件中相对应的声道包括零值。LFE声道不用于双声道处理。
在预处理步骤,双声道室内脉冲响应(BRIRs)的给定集从时域滤波器转换成复数值QMF域滤波器。在复数值QMF域中的给定时域滤波器的执行是根据ISO/IECFDIS23003-1:2006AnnexB执行。根据ISO/IECFDIS23003-1:2006,附加B,表格B.1,使用滤波器转换的原型滤波器系数。对时域表示1≤v≤Ltrans被处理以得到复数值QMF域滤波器1≤n≤Ltrans,n
(2)音频信号处理
双声道渲染器模块800的音频处理方块从核心解码器获得用于Nin输入声道的时域音频取样值802,并产生由Nout=2声道组成的双声道输出信号830。
处理以下列数据作为输入
·来自核心解码器的解码音频数据802,
·BRIR集804的早期反射音部的复数QMF域表示,以及
·频率相关参数集808、810、832,其由QMF域混响器816a与816b使用以产生后期混响音826a与826b。
(a)音频信号的QMF分析
在第一处理步骤,双声道渲染器模块将Nin声道时域输入信号(来自核心解码器)的L=2048个时域取样值转换成维度Ln=32个QMF时隙(时隙索引n)和K=64个频带(频带索引K)的Nin声道QMF域信号表示802。
如ISO/IEC14496-3:2009第4.B.18.2小节所述的QMF分析,以及在ISO/IEC14496-3:2009第8.6.4.2小节所述的修改,在时域信号的帧上执行以得到QMF域信号(1≤v≤L且1≤n≤Ln)的帧。
(b)QMF域音频信号以及QMF域BRIRs的快速卷积计算
接着,执行带状快速卷积812以处理QMF域音频信号802以及QMF域BRIRs804。可对输入信号802以及每个BRIR804的每个声道的每个QMF频带执行FFT分析。
由于QMF域的复数值,一个FFT分析是在QMF域信号表示的实部上执行以及一个FFT分析是在QMF域信号表示的虚部上执行。然后,结合结果以形成最后的带状复数值伪FFT域信号
以及带状复数值BRIRs
针对左耳
针对右耳
根据复数值QMF域BRIR滤波器Ltrans,n的长度以及QMF域时隙Ln的帧长度决定FFT转换的长度,使得
LFFT=Ltrans,n+Ln-1。
然后,将复数值伪FFT域信号与复数值伪FFT域信号BRIR滤波器相乘以形成快速卷积结果。向量mconv用于对应BRIR数据集中的BRIR对的输入信号的声道的信号。针对所有QMF频带k(1≤k≤Kmax)带状完成相乘处理。通过代表18kHz或出现在来自核心解码器的音频信号中的最大信号频率的QMF频带来确定最高频带Kmax,fmax=min(fmax,decoder,18kHz)。
在每个QMF频带k(1≤k≤Kmax),加总每个音频输入声道与每个BRIR对的相乘结果,以产生中间两声道Kmax频带伪FFT域信号。
是在QMF域频带k的伪FFT卷积结果
接着,执行带状FFT合成将卷积结果转换回QMF域,以产生具有LFFT个时隙
(1≤n≤LFFT且1≤k≤Kmax)的中间双声道Kmax频带QMF域信号。
针对每个具有L=32个时隙的QMF域输入信号帧,返回具有L=32个时隙的卷积结果信号帧。剩余的LFFT-32个时隙储存以及在后续的帧执行重迭相加处理。
(c)产生后期混响音
第二中间信号826a与826b,又称混响音信号,通过频域混响器模块816a与816b产生频域混响器816a与816b以下列数据作为输入:
·输入信号的一个帧的QMF域立体声降混822,
·包括频率相关混响音时间808以及能量值810的参数集。
频域混响器816a与816b回传两声道QMF域后期混响音尾部。
根据最高频率计算频率相关参数集的最高使用频带数量。
首先,通过输入信号声道的加权总和,执行输入信号的一个帧的QMF域立体声降混818以形成混响器的输入。降混矩阵MDMX包括权重增益。其是实数值以及非负值,而降混矩阵的维度为Nout×Nin。其包括非零数值,其中输入信号的声道映像至两个输出声道中的其中一个。
代表左半边扬声器位置的声道映像至左输出声道,而代表位于右半边上的声道映射至右输出声道。这些声道的信号以系数1做加权。代表扬声器在中间平面的声道映像至双声道信号的两个输出声道。这些声道的输入信号以系数
a = 0.7071 ≈ 1 2
做加权。
此外,在降混中执行能量等化步骤。其适应一个降混声道的带状能量,使其等于包括在降混声道中的输入信号声道的带状能量的总和。通过与实数系数带状相乘以产生能量等化
c e q , k = P i n k / P o u t k + ϵ .
因子ceq,k受限于在[0.5,2]的区间内。引进常数ε以避免除零的情形发生。降混也在频率fmax上限制带宽;所有高频频带的数值设定为零。
图13大略地表示根据本发明的实施例的双声道渲染器800的频域混响器816a与816b的处理。
在频域混响器,使用输入混合器900来计算立体声输入的单声道降混。其在第二输入声道上不相干地应用90°相移来完成。
然后,在每个频率频带k,单声道信号送入反馈延迟回路902,以产生脉冲的衰减序列。接着,相并联的FIR解相关器以衰减方式分配信号能量至脉冲之间的间隔中,并建立输出声道之间的非相关性。衰减滤波振实密度应用以建立能量衰减。滤波振实阶段操作受限于四个选项以实施稀疏且无乘法器的解相关器。
在混响音的计算之后,声道间相干(ICC)修正904被包括至每个QMF频带的混响器模块。在ICC修正步骤中,频率相关直接增益gdirect和交混增益gcross用于适应该ICC。
针对不同频带,能量以及混响音时间的数量包含在输入参数集中。数值给定在频率点的数量,其内部地映射至K=64个QMF频带。
使用两个频域混响器的实例以计算最后的中间信号信号是混响器的第一实例的第一输出声道,而是混响器的第二实例的第二输出声道。其结合至具有2个声道、64个频带以及32个时隙的维度的最后混响音信号帧。
根据输入信号帧的相关性测量820,立体声降混822进行两个时间缩放821a与821b,以确保混响器输出的正确的缩放比例。比例因子定义为的间隔内的值,其线性决定于在0以及1之间的相关性系数ccorr的数值,
c c o r r = 1 N i n 2 · Σ A = 1 A = N D M X , a c t Σ B = 1 B = N D M X , a c t c c o r r A , B 并且
c c o r r A , B = | 1 K - 1 · Σ k Σ n y ^ ^ c h , A n , k · y ^ ^ c h , B n , k * Σ n σ y ^ ^ c h , A n · σ y ^ ^ c h , B n |
其中表示跨过声道A的一个时隙n的标准差,运算符{*}表示复共轭而为实际的信号帧中QMF域信号的零平均值。
ccorr计算两次:一次是包括在立体声降混的左声道的所有在实际的信号帧F活跃的声道A,B,而另一次是包括在立体声降混的右声道的所有在实际的信号帧F活跃的声道A,B。
NDMX,act是输入声道的数量,其降混至一个降混声道A(在降混矩阵MDMX的第Ath列中的矩阵元素的数量不等于零),而且在目前帧活跃。
然后比例因子是:
c s c a l e = [ c s c a l e , 1 , c s c a l e , 2 ] = [ N D M X , a c t , 1 + c c o r r · ( N D M X , a c t , 1 - N D M X , a c t , 1 ) , N D M X , a c t , 2 + c o r r · ( N D M X , a c t , 2 - N D M X , a c t , 2 ) ] .
通过第一级低通滤波器将比例因子平滑于音频信号帧,该第一级低通滤波器导致平滑的比例因子
以相同方式,通过时域相关性分析在第一音频输入数据帧中初始化比例因子。
第一混响器实例的输入以比例因子缩放,而第二混响器实例的输入以比例因子缩放。
(d)结合卷积结果以及后期混响音
接着,通过混合处理828,其带状相加两个信号,以结合卷积结果814,以及用于一个QMF域音频输入帧的混响器826a、826b的输出应注意的是,因为卷积仅产生在上至Kmax的频带,所以在高于Kmax的上频带在中为零。
通过混合处理中的时隙数量d=((Ltrans-20·64+1)/64+0.5)+1延迟后期混响音输出。
延迟d考虑到BRIRs中从早期反射音道后期反射音的过渡时间,以及20个QMF时隙的混响器的最初延迟,和用于BRIRs的QMF分析的0.5个QMF时隙的分析延迟,以确保后期混响音插入在合理的时隙。通过计算在一个时隙n中的结合信号
(e)双声道QMF域信号的QMF合成
根据ISO/IEC14496-3:2009第4.6.18.4.2小节,通过QMF合成,将QMF域输出信号的32个时隙的一个两声道帧转换成具有长度L的两声道时域信号帧。最后产生时域输出信号830,
虽然一些方面已经在装置的内容中描述,清楚的是这些方面也代表相对应的方法的描述,而方块或装置对应方法步骤或方法步骤的特征。同样地,在方法步骤的内容中描述的方面也代表相对应的方块或项目或相对应装置的特征的描述。一些或所有的方法步骤可通过(或使用)硬件装置执行,例如像是微处理器、可编程计算机或电子电路。在一些实施例中,一些最重要的方法步骤可通过该种装置执行。
取决于特定的实施需求,本发明的实施例可在硬件或在软件上实施。该实施可使用非暂时性储存媒体,例如数字储存媒体,例如储存有电子可读取控制信号的软盘、DVD、蓝光(Blu-Ray)、CD、ROM、PROM以及EPROM、EEPROM或FLASH内存,其能与可编程计算机系统合作(或能够配合)以执行上述方法。因此,数字储存媒体是计算机可读取的。
根据本发明的一些实施例包括具有电子可读取控制信号的数据载体,其能够与可编程计算机系统配合,以执行上述方法中的其中一个。
一般而言,本发明的实施例可实施为具有程序代码的计算机程序产品,当计算机程序产品在计算机上执行时该程序代码操作以执行上述方法中的其中一个。例如,该程序代码可储存在机器可读取载体上。
其他实施例包括用于执行上述方法中的其中一个的计算机程序,其储存在机器可读取载体上。
换句话说,因此发明的方法的实施例为具有当此计算机程序在计算机上执行时,能执行上述方法中的其中一个的程序代码的计算机程序。
因此,本发明的方法的另一实施例数据载体(或数字储存媒体或计算机可读取媒体)包括纪录用于执行上述方法中的其中一个的计算机程序。数据载体,数字储存媒体或纪录媒体为有形实体及/或非暂时性的。
因此,本发明的方法的另一实施例为数据流或串信号,其代表用于执行上述方法中的其中一个的计算机程序。例如,数据流或串信号可配置经由数据通信连接传输,例如因特网。
另一实施例包括处理方式,例如,计算机或可编程逻辑设备,被配置用于或被程序化用于执行上述方法中的其中一个。
另一实施例包括安装有用于执行上述方法中的其中一个的计算机程序的计算机。
根据本发明的另一实施例包括用于传输(例如电性或光学)用于执行上述方法中的其中一个的计算机程序到接收器的装置或系统。例如,接收器可为计算机、移动装置、内存装置或其他相似装置。例如,该装置或系统可包括用于传输计算机程序至接收器的文件服务器。
在一些实施例中,可编程逻辑设备(例如现场可编程门阵列)可用于执行上述方法的部分或全部功能。在一些实施例中,为了执行上述方法中的其中一个,现场可编程门阵列可配合微处理器。通常,该方法可通过任何硬件装置较佳执行。
虽然本发明描述了数个实施例,但对其进行变更、置换及等同均落入本发明的围之内。还有应当注意的是,有很多替换本发明的实施方法及组成的方式。因此,下文所附的权利项应当被理解为包含所有此类的变更、置换及等同,这些均未脱离实施例的精神与范畴。
参考文献:
[1]T.Hidakaetal:“Anewdefinitionofboundarypointbetweenearlyreflectionsandlatereverberationinroomimpulseresponses”.ForumAcusticum,2005.
[2]Jotetal:“Analysisandsynthesisofroomreverberationbasedonastatisticaltimefrequencymodel”.
[3]J.S.Abel,P.Huang:“ASimple,RobustMeasureofReverberationEchoDensity”.AESConvention,SanFrancisco,2006.
[4]R.Stewart,M.Sandler:“StatisticalMeasuresofEarlyReflectionsofRoomImpulseResponses”.DAFx,2007.
[5]Reillyetal:“UsingAuralisationforCreatingAnimated3-DSoundFieldsAcrossMultipleSpeakers”.AESConvention,NewYork,1995.
[6]Usher,J.:“Animprovedmethodtodeterminetheonsettimingsofreflectionsinanacousticimpulseresponse”.JournaloftheAcousticalSocietyofAmerica,(2010,volume127)band4,p.172-177.
[7]Masri,P.:,,ComputerModellingofSoundforTransformationandSynthesisofMusicalSignals“.PhDthesis,UniversityofBristol,1996.

Claims (24)

1.一种用于根据室内脉冲响应(300,804)处理音频信号(400,802)的方法,所述方法包括:
将所述音频信号(400,802)分别地与所述室内脉冲响应(300,804)的早期部分(301,302)和后期混响音(304)一起处理(402,404,406,422,424,812,816a,816b);以及
将与所述室内脉冲响应(300,804)的所述早期部分(414,428,814)一起处理的所述音频信号和所述混响信号(416,430,826a,826b)结合,
其中所述室内脉冲响应(300,804)中从所述早期部分(301,302)至所述后期混响音(304)的过渡通过到达阈值的相关性测量来确定,所述阈值根据从所述室内脉冲响应(300,804)的所述早期部分(301,302)中的所述早期反射音(302,602)中选择的一个的所述相关性测量来设定。
2.根据权利要求1所述的方法,其中所述相关性测量描述关于室内脉冲响应(300,804)的、在包括所述初期状态的声能中的所述衰变的所述相似点以及在所述初期状态之后的任何时间开始的在预定义频率范围的声能中的所述衰变的所述相似点。
3.根据权利要求1或2所述的方法,其中确定所述过渡包括:
基于所述室内脉冲响应(300,804)确定(500)声能的分布;以及
确定(502)多个相关性测量,所述多个相关性测量用于为所述确定的分布的多个部分指示在所述确定的分布的各个部分中的所述声能和在初期状态的所述声能之间的相关性。
4.根据权利要求3所述的方法,其中
确定所述分布包括确定所述声能的时间-频率分布,以及
所述分布的部分包括预定义长度的时间块,所述初期状态通过所述时间-频率分布的所述多个时间块中的第一个来定义。
5.根据权利要求3或4所述的方法,其中确定所述分布包括从所述室内脉冲响应(300,804)计算所述能量衰变救援(EDR)。
6.根据权利要求5所述的方法,其中所述EDR如下所示计算:
E ( t , ω ) = | ∫ t ∞ h ( τ ) e - j ω τ d τ | 2
其中
E(t,ω)=能量衰变救援,
h(τ)=室内脉冲响应(300,804),
ω=2πf。
7.根据权利要求4至6中任一项所述的方法,其中所述室内脉冲响应(300,804)具有预定义的有效长度,其中确定所述时间-频率分布包括使用具有对应于所述室内脉冲响应的所述有效长度的长度的窗来计算所述室内脉冲响应(300,804)的所述FFT光谱。
8.根据权利要求7所述的方法,其中
在所述初期状态的所述声能通过采取所述室内脉冲响应(300,804)的所述全部有效长度、计算所述FFT光谱以及采取所述绝对值的所述平方来确定;以及
时间块的所述声能通过将所述窗移动与所述时间块相关联的时间、将所述窗取样补零至所述有效长度、计算所述FFT以及采取所述绝对值的所述平方来确定。
9.根据权利要求1至8中任一项所述的方法,其中所述相关性测量如下所示计算:
ρ ( t ) = Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) Σ ω ( E ( 1 , ω ) - E ‾ ( 1 , ω ) ) 2 · Σ ω ( E ( t , ω ) - E ‾ ( t , ω ) ) 2
其中
ρ(t)=相关性测量,
E(1,ω)=在频率f的全部频率范围的能量衰变救援,
E(t,ω)=从时间t开始在频率f处的能量衰变救援,
ω=2πf。
10.根据权利要求1至9中任一项所述的方法,其中所述阈值根据常数值和所述早期发射音(302,602)的所述选择的一个的所述相关性测量来确定。
11.根据权利要求10所述的方法,其中所述常数为1/e,其中所述阈值如下所示定义:
ρ(t)=c·ρ(tF)
其中
ρ(tF)=所述早期发射音(302,602)的所述选择的一个的相关性测量,
tF=在所述直达声音(300)撞击之后的所述早期发射音(302,602)的所述选择的一个的时间索引,
12.根据权利要求1至11中任一项所述的方法,其中确定所述过渡包括:
确定所述早期发射音(302,602)的所述选择的一个的所述时间。
13.根据权利要求12所述的方法,其中所述早期发射音(302,602)的所述选择的一个的所述时间通过运行的峰度运算符、通过阈值检测或通过攻击检测来确定。
14.根据权利要求1至13中任一项所述的方法,其中所述早期发射音(302,602)的所述选择的一个是第一反射音(602)。
15.一种无形的计算机程序产品,包括储存指令的计算机可读媒介,当所述计算机可读媒介在计算机上执行时,执行权利要求1至14中任一项所述的方法。
16.一种信号处理单元,包括:
输入端,用于接收音频信号(400,802);
处理器,被配置用于依权利要求1至14中任一项所述的方法,根据室内脉冲响应(300,804)处理所述接收的音频信号(400,802);以及
输出端,用于将所述接收的音频信号的所述处理的早期部分(414,428,814)和所述混响信号(416,430,826a,826b)结合(418,432,828)成输出音频信号。
17.根据权利要求16所述的信号处理单元,包括:
早期部分处理器(402,404,422,812),用于根据所述室内脉冲响应(300,804)的所述早期部分(301,302,602)处理所述接收的音频信号(400,802);以及
后期混响音处理器(406,424,816a,816b),用于根据所述室内脉冲响应(300,804)的所述后期混响音(304)处理所述接收的音频信号(400,802)。
18.一种用于编码音频信号的音频编码器,其中
所述音频编码器被配置用于依权利要求1至13任一项所述的方法根据室内脉冲响应(300,804)处理待编码音频信号。
19.根据权利要求18所述的音频编码器,其中所述音频编码器包括权利要求16或17所述的信号处理单元。
20.一种用于解码编码音频信号的音频解码器,其中
所述音频解码器被配置用于依权利要求1至14任一项所述的方法根据室内脉冲响应(300,804)处理解码音频信号(400,802)。
21.根据权利要求20所述的音频解码器,其中所述音频解码器包括根据权利要求16或17所述的信号处理单元。
22.根据权利要求20或21所述的音频解码器,包括渲染器,被配置用于接收所述编码音频信号(400,802),并在所述室内脉冲响应(300,804)的基础上渲染输出信号。
23.根据权利要求22所述的音频解码器,其中所述渲染器包括立体声渲染器。
24.一种立体声渲染器,包括根据权利要求16或17所述的信号处理单元。
CN201480041457.5A 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器 Active CN105580070B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN201910939317.4A CN110648651B (zh) 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
EP13177362.4 2013-07-22
EP13177362 2013-07-22
EP13189230.9A EP2830043A3 (en) 2013-07-22 2013-10-18 Method for Processing an Audio Signal in accordance with a Room Impulse Response, Signal Processing Unit, Audio Encoder, Audio Decoder, and Binaural Renderer
EP13189230.9 2013-10-18
PCT/EP2014/065227 WO2015010983A1 (en) 2013-07-22 2014-07-16 Method for processing an audio signal in accordance with a room impulse response, signal processing unit, audio encoder, audio decoder, and binaural renderer

Related Child Applications (1)

Application Number Title Priority Date Filing Date
CN201910939317.4A Division CN110648651B (zh) 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元

Publications (2)

Publication Number Publication Date
CN105580070A true CN105580070A (zh) 2016-05-11
CN105580070B CN105580070B (zh) 2019-10-29

Family

ID=48874134

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201910939317.4A Active CN110648651B (zh) 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元
CN201480041457.5A Active CN105580070B (zh) 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201910939317.4A Active CN110648651B (zh) 2013-07-22 2014-07-16 根据室内脉冲响应处理音频信号的方法、信号处理单元

Country Status (20)

Country Link
US (6) US10433097B2 (zh)
EP (4) EP2830043A3 (zh)
JP (1) JP6205493B2 (zh)
KR (1) KR101838623B1 (zh)
CN (2) CN110648651B (zh)
AR (1) AR096995A1 (zh)
AU (1) AU2014295254B2 (zh)
BR (1) BR112016001249B1 (zh)
CA (1) CA2918855C (zh)
ES (2) ES2933375T3 (zh)
FI (1) FI3594939T3 (zh)
MX (1) MX359218B (zh)
MY (1) MY176181A (zh)
PL (2) PL3594939T3 (zh)
PT (2) PT3594939T (zh)
RU (1) RU2643867C2 (zh)
SG (1) SG11201600367RA (zh)
TW (1) TWI549119B (zh)
WO (1) WO2015010983A1 (zh)
ZA (1) ZA201601114B (zh)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN109846477A (zh) * 2019-01-29 2019-06-07 北京工业大学 一种基于频带注意力残差网络的脑电分类方法
CN111107481A (zh) * 2018-10-26 2020-05-05 华为技术有限公司 一种音频渲染方法及装置
CN111123202A (zh) * 2020-01-06 2020-05-08 北京大学 一种室内早期反射声定位方法及系统
CN111179958A (zh) * 2020-01-08 2020-05-19 厦门亿联网络技术股份有限公司 一种语音晚期混响抑制方法及系统

Families Citing this family (24)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2014112793A1 (ko) 2013-01-15 2014-07-24 한국전자통신연구원 채널 신호를 처리하는 부호화/복호화 장치 및 방법
CN109166588B (zh) * 2013-01-15 2022-11-15 韩国电子通信研究院 处理信道信号的编码/解码装置及方法
CN104982042B (zh) * 2013-04-19 2018-06-08 韩国电子通信研究院 多信道音频信号处理装置及方法
CN108806704B (zh) 2013-04-19 2023-06-06 韩国电子通信研究院 多信道音频信号处理装置及方法
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
US9584938B2 (en) * 2015-01-19 2017-02-28 Sennheiser Electronic Gmbh & Co. Kg Method of determining acoustical characteristics of a room or venue having n sound sources
US10149082B2 (en) 2015-02-12 2018-12-04 Dolby Laboratories Licensing Corporation Reverberation generation for headphone virtualization
EA202090186A3 (ru) 2015-10-09 2020-12-30 Долби Интернешнл Аб Кодирование и декодирование звука с использованием параметров преобразования представления
US9786298B1 (en) 2016-04-08 2017-10-10 Source Digital, Inc. Audio fingerprinting based on audio energy characteristics
US10187740B2 (en) * 2016-09-23 2019-01-22 Apple Inc. Producing headphone driver signals in a digital audio signal processing binaural rendering environment
US10555107B2 (en) * 2016-10-28 2020-02-04 Panasonic Intellectual Property Corporation Of America Binaural rendering apparatus and method for playing back of multiple audio sources
WO2019004524A1 (ko) * 2017-06-27 2019-01-03 엘지전자 주식회사 6자유도 환경에서 오디오 재생 방법 및 오디오 재생 장치
JP6886890B2 (ja) * 2017-08-08 2021-06-16 株式会社竹中工務店 減衰時間分析方法、装置、及びプログラム
US10388268B2 (en) 2017-12-08 2019-08-20 Nokia Technologies Oy Apparatus and method for processing volumetric audio
BR112020012648A2 (pt) 2017-12-19 2020-12-01 Dolby International Ab métodos e sistemas de aparelhos para aprimoramentos de decodificação de fala e áudio unificados
JP7447533B2 (ja) * 2020-02-19 2024-03-12 ヤマハ株式会社 音信号処理方法および音信号処理装置
CN112146745B (zh) * 2020-09-09 2023-01-03 中国船舶重工集团公司第七一五研究所 一种水池混响时间的精确测量方法
WO2022103290A1 (en) 2020-11-12 2022-05-19 "Stc"-Innovations Limited" Method for automatic quality evaluation of speech signals using neural networks for selecting a channel in multimicrophone systems
AT523644B1 (de) * 2020-12-01 2021-10-15 Atmoky Gmbh Verfahren für die Erzeugung eines Konvertierungsfilters für ein Konvertieren eines multidimensionalen Ausgangs-Audiosignal in ein zweidimensionales Hör-Audiosignal
CN112652290B (zh) * 2020-12-14 2023-01-20 北京达佳互联信息技术有限公司 产生混响音频信号的方法及音频处理模型的训练方法
CN115250412A (zh) * 2021-04-26 2022-10-28 Oppo广东移动通信有限公司 音频处理方法、装置、无线耳机及计算机可读介质
CN113375788B (zh) * 2021-05-31 2022-05-20 哈尔滨工程大学 一种基于矩阵填充的水声传感器网络环境数据采集方法
US11705148B2 (en) * 2021-06-11 2023-07-18 Microsoft Technology Licensing, Llc Adaptive coefficients and samples elimination for circular convolution
CN116160955B (zh) * 2023-04-25 2023-08-29 科大讯飞(苏州)科技有限公司 一种车辆主动声浪增强方法、装置、存储介质及设备

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371799A (en) * 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
WO1999049574A1 (en) * 1998-03-25 1999-09-30 Lake Technology Limited Audio signal processing method and apparatus
US6188769B1 (en) * 1998-11-13 2001-02-13 Creative Technology Ltd. Environmental reverberation processor
US20080175396A1 (en) * 2007-01-23 2008-07-24 Samsung Electronics Co., Ltd. Apparatus and method of out-of-head localization of sound image output from headpones
EP2028884A1 (en) * 2007-08-24 2009-02-25 Gwangju Institute of Science and Technology Method and apparatus for modeling room impulse response
US20100119075A1 (en) * 2008-11-10 2010-05-13 Rensselaer Polytechnic Institute Spatially enveloping reverberation in sound fixing, processing, and room-acoustic simulations using coded sequences
US20120140938A1 (en) * 2010-12-07 2012-06-07 Chul Jae Yoo Apparatus and method for generating audio signal having sound enhancement effect
CN102592606A (zh) * 2012-03-23 2012-07-18 福建师范大学福清分校 一种补偿小空间听音声环境的均衡信号处理方法
CN102928067A (zh) * 2012-10-16 2013-02-13 华南理工大学 一种用于测量房间声学参数的系统及方法

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7107110B2 (en) * 2001-03-05 2006-09-12 Microsoft Corporation Audio buffers with audio effects
US8041045B2 (en) 2004-10-26 2011-10-18 Richard S. Burwen Unnatural reverberation
US8284947B2 (en) * 2004-12-01 2012-10-09 Qnx Software Systems Limited Reverberation estimation and suppression system
US7715575B1 (en) * 2005-02-28 2010-05-11 Texas Instruments Incorporated Room impulse response
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
JP4769238B2 (ja) * 2007-08-24 2011-09-07 日本電信電話株式会社 信号分離装置、信号分離方法、プログラム及び記録媒体
US8150051B2 (en) * 2007-12-12 2012-04-03 Bose Corporation System and method for sound system simulation
WO2010000878A2 (en) * 2009-10-27 2010-01-07 Phonak Ag Speech enhancement method and system
TWI557723B (zh) 2010-02-18 2016-11-11 杜比實驗室特許公司 解碼方法及系統
EP2389016B1 (en) * 2010-05-18 2013-07-10 Harman Becker Automotive Systems GmbH Individualization of sound signals
EP2656640A2 (en) 2010-12-22 2013-10-30 Genaudio, Inc. Audio spatialization and environment simulation
US9462387B2 (en) 2011-01-05 2016-10-04 Koninklijke Philips N.V. Audio system and method of operation therefor
EP2541542A1 (en) * 2011-06-27 2013-01-02 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for determining a measure for a perceived level of reverberation, audio processor and method for processing a signal
KR101174111B1 (ko) * 2012-02-16 2012-09-03 래드손(주) 오디오 신호의 디지털 노이즈를 저감시키는 장치 및 방법
WO2014085510A1 (en) * 2012-11-30 2014-06-05 Dts, Inc. Method and apparatus for personalized audio virtualization
MX346825B (es) * 2013-01-17 2017-04-03 Koninklijke Philips Nv Procesamiento de audio biaural.
US9420393B2 (en) * 2013-05-29 2016-08-16 Qualcomm Incorporated Binaural rendering of spherical harmonic coefficients

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5371799A (en) * 1993-06-01 1994-12-06 Qsound Labs, Inc. Stereo headphone sound source localization system
WO1999049574A1 (en) * 1998-03-25 1999-09-30 Lake Technology Limited Audio signal processing method and apparatus
US6188769B1 (en) * 1998-11-13 2001-02-13 Creative Technology Ltd. Environmental reverberation processor
US20080175396A1 (en) * 2007-01-23 2008-07-24 Samsung Electronics Co., Ltd. Apparatus and method of out-of-head localization of sound image output from headpones
EP2028884A1 (en) * 2007-08-24 2009-02-25 Gwangju Institute of Science and Technology Method and apparatus for modeling room impulse response
US20100119075A1 (en) * 2008-11-10 2010-05-13 Rensselaer Polytechnic Institute Spatially enveloping reverberation in sound fixing, processing, and room-acoustic simulations using coded sequences
US20120140938A1 (en) * 2010-12-07 2012-06-07 Chul Jae Yoo Apparatus and method for generating audio signal having sound enhancement effect
CN102592606A (zh) * 2012-03-23 2012-07-18 福建师范大学福清分校 一种补偿小空间听音声环境的均衡信号处理方法
CN102928067A (zh) * 2012-10-16 2013-02-13 华南理工大学 一种用于测量房间声学参数的系统及方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIDAKA ET AL: ""A new definition of boundary point between early reflection and late reverberation in room impulse response"", 《JASA》 *
胡跃辉: ""有混响条件下的室内语音定向研究"", 《万方数据库》 *

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111107481A (zh) * 2018-10-26 2020-05-05 华为技术有限公司 一种音频渲染方法及装置
US11445324B2 (en) 2018-10-26 2022-09-13 Huawei Technologies Co., Ltd. Audio rendering method and apparatus
CN109846477A (zh) * 2019-01-29 2019-06-07 北京工业大学 一种基于频带注意力残差网络的脑电分类方法
CN109846477B (zh) * 2019-01-29 2021-08-06 北京工业大学 一种基于频带注意力残差网络的脑电分类方法
CN111123202A (zh) * 2020-01-06 2020-05-08 北京大学 一种室内早期反射声定位方法及系统
CN111123202B (zh) * 2020-01-06 2022-01-11 北京大学 一种室内早期反射声定位方法及系统
CN111179958A (zh) * 2020-01-08 2020-05-19 厦门亿联网络技术股份有限公司 一种语音晚期混响抑制方法及系统

Also Published As

Publication number Publication date
US10433097B2 (en) 2019-10-01
EP2830043A3 (en) 2015-02-18
MX2016000849A (es) 2016-04-27
EP3025327A1 (en) 2016-06-01
KR101838623B1 (ko) 2018-03-14
US11265672B2 (en) 2022-03-01
RU2016105519A (ru) 2017-08-25
EP2830043A2 (en) 2015-01-28
AR096995A1 (es) 2016-02-10
PL3594939T3 (pl) 2023-03-06
MY176181A (en) 2020-07-24
EP3594939B1 (en) 2022-11-02
JP6205493B2 (ja) 2017-09-27
MX359218B (es) 2018-09-19
CN110648651A (zh) 2020-01-03
US10972858B2 (en) 2021-04-06
PT3025327T (pt) 2020-01-06
US20240129687A1 (en) 2024-04-18
US10721582B2 (en) 2020-07-21
WO2015010983A1 (en) 2015-01-29
CA2918855C (en) 2018-07-31
US20220159405A1 (en) 2022-05-19
AU2014295254A1 (en) 2016-03-10
CN110648651B (zh) 2023-08-25
TWI549119B (zh) 2016-09-11
CN105580070B (zh) 2019-10-29
SG11201600367RA (en) 2016-02-26
US20200322750A1 (en) 2020-10-08
EP4125087A1 (en) 2023-02-01
RU2643867C2 (ru) 2018-02-06
US20190387353A1 (en) 2019-12-19
JP2016532149A (ja) 2016-10-13
US20160142854A1 (en) 2016-05-19
TW201523585A (zh) 2015-06-16
PT3594939T (pt) 2022-12-07
EP3594939A1 (en) 2020-01-15
ZA201601114B (en) 2017-11-29
EP3025327B1 (en) 2019-10-02
FI3594939T3 (fi) 2023-01-31
US20210289311A1 (en) 2021-09-16
ES2933375T3 (es) 2023-02-06
AU2014295254B2 (en) 2017-01-19
BR112016001249B1 (pt) 2022-03-15
BR112016001249A2 (zh) 2017-07-25
ES2758757T3 (es) 2020-05-06
CA2918855A1 (en) 2015-01-29
PL3025327T3 (pl) 2020-04-30
KR20160039201A (ko) 2016-04-08
US11856388B2 (en) 2023-12-26

Similar Documents

Publication Publication Date Title
CN105580070A (zh) 根据室内脉冲响应处理音频信号的方法、信号处理单元、音频编码器、音频解码器及立体声渲染器
JP6879979B2 (ja) オーディオ信号を処理するための方法、信号処理ユニット、バイノーラルレンダラ、オーディオエンコーダおよびオーディオデコーダ
JP5081838B2 (ja) オーディオ符号化及び復号
KR102710843B1 (ko) 객체 오디오 신호의 잔향 신호를 이용한 오디오 부/복호화 장치
CN112823534B (zh) 信号处理设备和方法以及程序

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
C10 Entry into substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant