CN101263741B - 产生和处理表示hrtf的参数的方法和设备 - Google Patents
产生和处理表示hrtf的参数的方法和设备 Download PDFInfo
- Publication number
- CN101263741B CN101263741B CN2006800337199A CN200680033719A CN101263741B CN 101263741 B CN101263741 B CN 101263741B CN 2006800337199 A CN2006800337199 A CN 2006800337199A CN 200680033719 A CN200680033719 A CN 200680033719A CN 101263741 B CN101263741 B CN 101263741B
- Authority
- CN
- China
- Prior art keywords
- frequency
- parameter
- signal
- head
- impulse response
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S1/00—Two-channel systems
- H04S1/002—Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R25/00—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
- H04R25/55—Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception using an external connection, either wireless or wired
- H04R25/552—Binaural
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/01—Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Computer Networks & Wireless Communication (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Neurosurgery (AREA)
- Otolaryngology (AREA)
- Stereophonic System (AREA)
- Compression, Expansion, Code Conversion, And Decoders (AREA)
Abstract
一种产生表示头部相关传递函数的参数的方法,该方法包括步骤:a)使用一个采样率(fs)以一定采样长度(n)采样第一时域HRTF冲激响应信号产生第一时间离散信号;b)将该第一时间离散信号变换到频域产生第一频域信号;c)将该第一频域信号分解成子带;以及d)根据这些子带的值的统计度量产生这些子带的第一参数。
Description
技术领域
本发明涉及一种产生表示头部相关传递函数的参数的方法。
本发明还涉及一种用于产生表示头部相关传递函数的参数的设备。
本发明进一步还涉及一种处理表示头部相关传递函数的参数的方法。
而且,本发明涉及一种程序元件。
此外,本发明还涉及一种计算机可读介质。
背景技术
随着虚拟空间中声音的操作开始吸引人们的注意,音频声音,尤其是3D音频声音在例如结合了图像的各种游戏软件和多媒体应用中提供人造真实感方面变得越来越重要。在音乐中大量使用的许多效应中,声场效应被认为是重建特定空间中听到的声音的一种尝试。
在这种情况下,将通常称为空间声音的3D声音理解为这样的声音,其经过处理向听众提供(虚拟)声源在三维环境中的一定位置处的印象。
从一定方向到达听众的听觉信号在该信号到达听众双耳中的耳膜之前与听众身体的一些部分发生交互作用。这种交互作用的结果是,到达耳膜的声音通过从听众肩膀的反射、通过与头部的交互作用、通过耳廓响应以及通过耳道内的共鸣而发生改变。可以说,身体对于进入的声音具有滤波效应。具体的滤波性质取决于声源(相对于头部)的位置。此外,由于声音在空气中的速度有限,因而可能觉察到两耳间存在明显的时延,这取决于声源的位置。这里,头部相关传递函数(HRTF)发挥了作用。这些头部相关传递函数近来被称为解剖学传递函数(ATF:Anatomicalt ransfer function),它们是声源位置的方位角和仰角的函数,描述了从一定声源方向到听众耳膜的滤波效应。
HRTF数据库是通过相对于声源测量从一大组位置到两耳的传递函数而构建的。这种数据库可以针对各种声学条件来获得。例如,在无回声的环境中,由于不存在反射,因此HRTF只是获取了从某个位置到耳膜的直接传递。HRTF也可以在有回声条件下进行测量。如果也获取了反射,那么这种HRTF数据库就是与特定房间有关的。
在美国专利US 2003/035553公开了使用HRTF来产生空间音频信号的音频系统的实例。
HRTF数据库通常用来定位“虚拟”声源。通过将声音信号与一对HRTF卷积并且在耳机上呈现得到的声音,听众可以感知声音来自与该HRTF对相应的方向,这与感知声音“在头部”是对立的,感知声音“在头部”发生在将未经处理的声音呈现在耳机上的时候。在这点上,HRTF数据库是一种用于定位虚拟声源的通行方式。
发明内容
本发明的一个目的是改善头部相关传递函数的表示和处理。
为了实现上面定义的目的,提供了产生如独立权利要求中所限定的表示头部相关传递函数的参数的方法、用于产生表示头部相关传递函数的参数的设备、处理表示头部相关传递函数的参数的方法、程序元件和计算机可读介质。
依照本发明的一个实施例,提供了一种产生表示头部相关传递函数的参数的方法,该方法包括步骤:将表示第一头部相关冲激响应信号的第一频域信号分解成至少两个子带;根据这些子带的值的统计度量产生这些子带中的至少一个子带的至少一个第一参数。
此外,依照本发明的另一个实施例,提供了一种用于产生表示头部相关传递函数的参数的设备,该设备包括:分解单元,其适用于将表示第一头部相关冲激响应信号的第一频域信号分解成至少两个子带;参数生成单元,其适用于根据这些子带的值的统计度量产生这些子带中的至少一个子带的至少一个第一参数。
依照本发明的另一个实施例,提供了一种计算机可读介质,其中存储了用于产生表示头部相关传递函数的参数的计算机程序,所述计算机程序在由处理器执行时,适用于控制或实现上述方法步骤。
而且,依照本发明的又一个实施例,提供了一种用于处理音频数据的程序元件,所述程序元件在由处理器执行时,适用于控制或实现上述方法步骤。
依照本发明,处理音频信号以产生表示头部相关传递函数的参数可以通过计算机程序即通过软件来实现,或者通过使用一个或多个专用电子优化电路即用硬件来实现,或者以混合形式即通过软件部件和硬件部件来实现。这些软件或软件部件可以事先存储在数据载体上或者通过信号传输系统来传送。
依照本发明的特性的优点尤其在于,当应用到音频信号时,头部相关传递函数(HRTF)通过简单的参数来表示,使得计算复杂度降低。
以信息量而论,常规的HRTF数据库通常相对较大。每个时域冲激响应可能包括大约64个样本(对于低复杂度、无回声条件而言)乃至数千个样本长(在交混回响的房间中)。如果在竖直和水平方向上以10度的分辨率测量HRTF对,那么要存储的系数的数量高达至少360/10*180/10*64=41472个系数(假定冲激响应为64个样本),但是很容易为更大的数量级。对称的头部将需要(180/10)*(180/10)*64个系数(这是41472个系数的一半)。
依照本发明的一个有利的方面,可以用与单声源的处理复杂度近似相等的处理复杂度来合成多个同时发生的声源。由于处理复杂度降低,因而有利的是,即使对于大量的声源,也有可能实现实时处理。
在另一个方面,已知上述参数是针对一组固定的频率范围来确定的,这一事实导致与采样率无关的参数化。不同的采样率只需要有关如何将参数频带与信号表示关联起来的不同的表。
此外,显著降低了表示HRTF的数据量,导致存储要求降低,这事实上是移动应用中的一个重要问题。
本发明的其他实施例将在下文中参照从属权利要求来描述。
现在描述所述产生表示头部相关传递函数的参数的方法的实施例。这些实施例对于所述用于产生表示头部相关传递函数的参数的设备、对于所述计算机可读介质以及对于所述程序元件也是适用的。
将表示第二头部相关冲激响应信号的第二频域信号分解成该第二头部相关冲激响应信号的至少两个子带;根据这些子带的值的统计度量产生该第二头部相关冲激响应信号的这些子带中的至少一个子带的至少一个第二参数;以及产生表示每子带所述第一频域信号和所述第二频域信号之间的相位角的第三参数。
换言之,依照本发明,一对头部相关冲激响应信号即第一头部相关冲激响应信号和第二头部相关冲激响应信号,是通过该冲激响应对的相应头部相关冲激响应信号之间的延迟参数或相差参数以及通过一组频率子带中的每个冲激响应的平均均方根(rms)来描述的。该延迟参数或相差参数可以是单一(频率无关)值或者可以是依赖于频率的。
在这个方面,如果所述头部相关冲激响应信号对即所述第一头部相关冲激响应信号和所述第二头部相关冲激响应信号,属于同一空间位置,那么从感性认识上讲是有利的。
在例如出于优化目的的定制之类的特殊情况下,如果所述第一频域信号是通过使用某个采样率以一定采样长度采样第一时域头部相关冲激响应信号产生第一时间离散信号并且将该第一时间离散信号变换到频域产生所述第一频域信号而得到的,那么这可能是有利的。
所述第一时间离散信号到频域的变换适宜基于快速傅立叶变换(FFT),并且将所述第一频域信号分解成子带依据的是对FFT分块(bin)进行分组。换言之,用于确定比例因子和/或时差/相差的频带优选地被组织成(但不限于)所谓的等价矩形带宽(ERB)带。
HRTF数据库通常包括一组有限的虚拟声源位置(一般情况下,距离是固定的并且空间分辨率为5-10度)。在许多情况下,必须针对测量位置之间的位置产生声源(尤其在虚拟声源随时间移动的情况下)。这种在测量位置之间的位置的产生需要对可用的冲激响应进行插值。如果HRTF数据库包括对于竖直和水平方向的响应,那么必须对每个输出信号执行双线性插值。因此,对于每个声源来说,需要针对每个耳机输出信号的四个冲激响应的组合。如果必须同时“虚拟化”更多的声源,那么所需冲激响应的数量变得甚至更加重要。
在本发明的一个方面,通常使用10个和40个之间的频带。依照本发明的技术措施,可以有利地直接在参数域中执行插值,从而需要10-40个参数的插值而不是时域中的全长HRTF冲激响应。而且,由于通道间相位(或时间)和幅度分开进行插值这一事实,因而有利的是,相位抵消伪像显著减少了或者可能并不发生。
在本发明的另一个方面,在主频率范围内处理所述第一参数和第二参数,并且在该主频率范围的子频率范围内处理表示相位角的所述第三参数。经验结果和科学证据两者都表明,对于一定频率界限之上的频率而言,相位信息从感性认识上讲实际上是冗余的。
在这个方面,所述子频率范围的频率上限适宜位于2kHz-3kHz的范围内。因此,通过忽略这个频率界限之上的任何时间或相位信息可以达到进一步的信息减少和复杂度降低。
依照本发明的技术措施的一个主要的应用领域在于处理音频数据的领域中。然而,这些技术措施可以嵌入到这样的技术方案中,其中除了音频数据之外,也处理例如与视觉内容有关的附加数据。因此,可以在视频数据处理系统的框架中实现本发明。
依照本发明的应用可以实现为包括便携式音频播放器、便携式视频播放器、头盔显示器、移动电话、DVD播放器、CD播放器、基于硬盘的媒体播放器、因特网无线电设备、车载音频系统、公共娱乐设备和MP 3播放器的组中的一个设备。这些设备的应用优选地被设计用于游戏、虚拟现实系统或者合成器。虽然提到的这些设备涉及本发明的主要应用领域,但是其他应用也是可能的,例如:应用于电话会议和远程出席(telepresence);针对弱视者的音频显示器;远程教学系统和针对电视电影的专业声像编辑以及喷气式战斗机(3D音频可能有助于飞行员)和基于pc的音频播放器。
在本发明的又一个方面,上面提到的参数可以跨设备传送。其优点在于,每个音频再现设备(PC、膝上型电脑、移动播放器等等)可以个人化。换言之,所获得的某人自己的参数数据与他或她自身的耳朵匹配,而不需要像常规的HRTF一样传送大量的数据。人们甚至可以想象通过移动电话网络来下载参数组。在这个域中,传送大量的数据仍然是相对昂贵的,参数化方法将是一种非常合适的(有损)压缩类型。
在又一个实施例中,如果用户和听众喜欢,他们也可以经由交换接口交换他们的HRTF参数组。按照这种方式可以轻易使得通过其他人的耳朵去听成为可能。
根据下文中描述的实施例,本发明的上面定义的方面和其他方面是显而易见的,并且将参照这些实施例进行解释。
附图说明
下面将参照实施例的示例更详细地描述本发明,本发明并不限于这些实施例。
图1表示依照本发明的一个优选实施例用于处理音频数据的设备。
图2表示依照本发明的另一个实施例用于处理音频数据的设备。
图3表示依照本发明的一个实施例用于处理音频数据的设备,其包括存储单元。
图4详细表示图1或图2中所示用于处理音频数据的设备中实现的滤波器单元。
图5表示依照本发明的一个实施例的另一个滤波器单元。
图6表示依照本发明的一个优选实施例用于产生表示头部相关传递函数(HRTF)的参数的设备。
图7表示依照本发明的一个优选实施例用于处理表示头部相关传递函数(HRTF)的参数的设备。
具体实施方式
附图中的图解是示意性的。在不同的附图中,相似或相同的元件用相同的附图标记来表示。
现在将参照图6来描述用于产生表示头部相关传递函数(HRTF)的参数的设备600。
设备600包括HRTF表601、采样单元602、变换单元603、分解单元604和参数生成单元605。
HRTF表601存储了至少第一时域HRTF冲激响应信号l(α,ε,t)和第二时域HRTF冲激响应信号r(α,ε,t),两者都属于同一空间位置。换言之,HRTF表对于虚拟声源位置存储了至少一个时域HRTF冲激响应对(l(α,ε,t),r(α,ε,t))。每个冲激响应信号由方位角α和仰角ε表示。可替换地,可以在远程服务器上存储HRTF表601,并且可以经由合适的网络连接提供HRTF冲激响应对。
在采样单元602中,使用采样率fs以采样长度n对这些时域信号采样以得到其数字(离散)表示,即在当前情况下得到第一时间离散信号l(α,ε)[n]和第二时间离散信号r(α,ε)[n]:
在当前情况下,使用的采样率为fs=44.1kHz。可替换地,可以使用另外的采样率,例如16kHz或者22.05kHz或者32kHz或者48kHz。
随后在变换单元603中,使用傅立叶变换将这些离散时间表示变换到频域,得到其复值频域表示,即第一频域信号L(α,ε)[k]和第二频域信号R(α,ε)[k](k=0...K-1):
接下来,在分解单元604中,通过对相应的频域信号的FFT分块k进行分组来将这些频域信号分解成子带b。这样一来,子带b包括FFT分块k∈kb。这种分组过程优选以如下方式执行:使得到的频带具有符合心理听觉原理的非线性频率分辨率,换言之,该频率分辨率优选地与人类听觉系统的非均匀频率分辨率匹配。在当前情况下,使用了20个频带。可以指出的是,可以使用更多的频带,例如40个频带,或者更少的频带,例如10个频带。
此外,在参数生成单元605中,分别产生和计算基于这些子带的值的统计度量的子带参数。在当前情况下,将均方根运算用作统计度量。可替换地,依照本发明,也可以利用子带中的功率谱值的模(mode)或中值作为统计度量或者随子带中的(平均)信号水平单调递增的任何其他度量(或范式)。
在当前情况下,信号L(α,ε)[k]的子带b中的均方根信号参数Pl,b(α,ε)由下式给出:
类似地,信号R(α,ε)[k]的子带b中的均方根信号参数Pr,b(α,ε)由下式给出:
这里,(*)表示复共轭算子,|kb|表示与子带b相应的FFT分块k的数量。
最后,在参数生成单元605中,产生子带b的信号L(α,ε)[k]和R(α,ε)[k]之间的平均相位角参数φb(α,ε),其在当前情况下由下式给出:
依照本发明的另一个实施例,根据图6,提供了HRTF表601’。与图6的HRTF表601形成对照的是,这个HRTF表601’提供了已经在频域中的HRTF冲激响应;例如,在表中存储了HRTF的FFT。所述频域表示被直接提供给分解单元604’,并且通过对相应频域信号的FFT分块k进行分组来将这些频域信号分解成子带b。接下来,提供了参数生成单元605’,并且以与上述参数生成单元605相似的方式对其进行调节。
现在参照图1来描述依照本发明的一个实施例用于处理输入音频数据Xi和表示头部相关传递函数的参数的设备100。
该设备100包括求和单元102,所述求和单元102适用于接收许多音频输入信号X1...Xi以便通过对所有这些音频输入信号X1...Xi进行求和来产生求和信号SUM。将求和信号SUM提供给滤波器单元103,所述滤波器单元103适用于根据滤波器系数对所述求和信号SUM进行滤波,得到第一音频输出信号OS1和第二音频输出信号OS2,所述滤波器系数在当前情况下即第一滤波器系数SF1和第二滤波器系数SF2。下面给出了有关滤波器单元103的详细描述。
此外,如图1所示,设备100包括参数转换单元104,所述参数转换单元104适用于一方面接收代表所述音频输入信号Xi的声源空间位置的位置信息Vi,另一方面接收代表所述音频输入信号Xi的谱功率的谱功率信息Si,其中该参数转换单元104适用于根据与输入信号i相应的位置信息Vi和谱功率信息Si产生所述滤波器系数SF1、SF2,并且其中该参数转换单元104还适用于接收传递函数参数以及还根据所述传递函数参数产生所述滤波器系数。
图2表示了本发明的另一个实施例中的一种装置200。装置200包括依照图1中所示实施例的设备100,并且还包括适用于根据增益因子gi来缩放音频输入信号Xi的缩放单元201。在这个实施例中,参数转换单元104还适用于接收代表音频输入信号的声源距离的距离信息,根据所述距离信息产生增益因子gi,并且将这些增益因子gi提供给缩放单元201。因此,借助于简单的技术措施就可靠地实现了距离的效果。
现在将参照图3来更详细地描述依照本发明的系统或设备的一个实施例。
在图3的实施例中,显示了系统300,其包括依照图2中所示实施例的装置200,并且还包括存储单元301、音频数据接口302、位置数据接口303、谱功率数据接口304和HRTF参数接口305。
存储单元301适用于存储音频波形数据,音频数据接口302适用于根据所存储的音频波形数据提供所述许多音频输入信号Xi。
在当前情况下,针对每个声源以脉冲编码调制(PCM)波表的形式来存储音频波形数据。然而,波形数据还可以附加地或者单独地以另一种形式来存储,所述形式例如符合MPEG-1层3(MP3)、高级音频编码(AAC)、AAC-Plus等标准的压缩格式。
在存储单元301中,对于每个声源还存储了位置信息Vi,并且位置数据接口303适用于提供所存储的位置信息Vi。
在当前情况下,这个优选的实施例针对的是计算机游戏应用。在这种计算机游戏应用中,位置信息Vi随着时间而变化,并且取决于经过编程的绝对空间位置(即计算机游戏场景中的虚拟空间位置),但它也取决于用户的动作,例如,当游戏场景中的虚拟个人或用户旋转或改变他的虚拟位置时,相对于该用户的声源位置也发生改变或者也应该发生改变。
在这样的计算机游戏中,从单声源(例如来自后面的枪炮声)到其中每个乐器位于计算机游戏场景中的不同空间位置的复调音乐,每种事情都是可能发生的。同时发生的声源数可以是例如高达64个,因此音频输入信号Xi的范围将从X1到X64。
接口单元302根据大小为n的帧中所存储的音频波形数据来提供所述许多音频输入信号Xi。在当前情况下,每个音频输入信号Xi是以11kHz采样率来提供的。对于每个音频输入信号Xi,也可以使用其他采样率,例如44kHz。
在缩放单元201中,依照方程(1)使用每通道的增益因子或权重gi将大小为n的输入信号Xi即Xi[n]组合成求和信号SUM,即单声道(mono)信号m[n]:
增益因子gi由参数转换单元104根据如前所述伴随位置信息Vi而产生的被存储的距离信息来提供。一般情况下,位置信息Vi和谱功率信息Si参数具有低得多的更新率,例如每11毫秒更新一次。在当前情况下,每声源的位置信息Vi由方位角、仰角和距离信息的三元组组成。可替换地,可以使用笛卡尔坐标(x,y,z)或者其他坐标。可选地,位置信息可以包括组合或子集即形如仰角信息和/或方位角信息和/或距离信息中的信息。
原则上,增益因子gi[n]是依赖于时间的。然而,由于这些增益因子的所需更新率远远小于输入音频信号Xi的音频采样率,因而假定这些增益因子gi[n]对于短的时间段(如前所述,大约11毫秒到23毫秒)而言是恒定不变的。这个性质允许进行基于帧的处理,其中增益因子gi是恒定不变的,并且求和信号m[n]由方程(2)表示:
现在将参照图4和5来解释滤波器单元103。
图4中所示的滤波器单元103包括分割单元401、快速傅立叶变换(FFT)单元402、第一子带分组单元403、第一混频器404、第一组合单元405、第一反FFT单元406、第一叠加单元407、第二子带分组单元408、第二混频器409、第二组合单元410、第二反FFT单元411以及第二叠加单元412。第一子带分组单元403、第一混频器404和第一组合单元405构成第一混频单元413。类似地,第二子带分组单元408、第二混频器409和第二组合单元410构成第二混频单元414。
分割单元401适用于将输入信号分割成重叠的帧并且给每帧加窗,所述输入信号在当前情况下分别为求和信号SUM和信号m[n]。在当前情况下,Hanning窗用于加窗操作。也可以使用其他方法,例如Welch或三角形窗。
随后,FFT单元402适用于使用FFT将每个加窗的信号变换到频域。
在所给出的示例中,使用FFT将长度为N(n=0...N-1)的每个帧m[n]变换到频域:
将这个频域表示M[k]拷贝到进一步也称为左通道L的第一通道以及进一步也称为右通道R的第二通道。然后,通过对每个通道的FFT分块进行分组来将该频域信号分解成子带b(b=0..B-1),即借助于用于左通道L的第一子带分组单元403以及借助于用于右通道R的第二子带分组单元408来进行分组。其后逐带产生(FFT域中的)左输出帧L[k]和右输出帧R[k]。
实际的处理包括依照针对与当前FFT分块相应的频率范围而存储的各比例因子来修改(缩放)每个FFT分块,以及依照所存储的时差或相差来修改相位。关于相差,可以以任意的方式应用该差值(例如应用到两个通道(除以2)或者仅应用到一个通道)。每个FFT分块的各个比例因子是借助于滤波器系数矢量来提供的,所述滤波器系数矢量在当前情况下即提供给第一混频器404的第一滤波器系数SF1和提供给第二混频器409的第二滤波器系数SF2。
在当前情况下,所述滤波器系数矢量对于每个输出信号的频率子带都提供复值比例因子。
接着在缩放之后,由反FFT单元406将被修改的左输出帧L[k]变换到时域,得到左时域信号;由反FFT单元411对右输出帧R[k]进行变换,得到右时域信号。最后,在获得的时域信号上进行的叠加运算得到每个输出通道的最终时域,即通过第一叠加单元407得到第一输出通道信号OS1以及通过第二叠加单元412得到第二输出通道信号OS2。
图5中示出的滤波器单元103’与图4中示出的滤波器单元103的不同之处在于,提供了适用于向每个输出通道提供去相关信号的去相关单元501,所述去相关信号是根据从FFT单元402获得的频域信号而导出的。在图5中示出的滤波器单元103’中,提供了类似于图4中示出的第一混频单元413的第一混频单元413’,但是该第一混频单元413’还适用于处理去相关信号。同样地,提供了类似于图4中示出的第二混频单元414的第二混频单元414’,所述图5的第二混频单元414’也附加地适用于处理去相关信号。
在这种情况下,其后如下逐带产生(FFT域中的)两个输出信号L[k]和R[k]:
这里,D[k]表示依照下列性质从频域表示M[k]获得的去相关信号:
式中,<..>表示期望值算子:
这里,(*)表示复共轭。
去相关单元501包括延迟时间的量级为10-20ms(一般情况下为一帧)的简单延迟,其使用FIFO缓冲器来实现。在另一些实施例中,去相关单元可以基于随机化幅度或相位响应,或者可以包括FFT子带或时域中的IIR或全通状结构。Heiko Purnhagen,JonasLars Lil jeryd 2004年发表于proc.116th AES convention,Berlin的文章“参数立体编码中的合成氛围(Synthetic ambiance inparametric stereo coding)”给出了这样的去相关方法的例子,这篇文章的公开内容在此引入以供参考。
去相关滤波器的目的在于在某些频带下建立起一种“弥漫性”感受。如果到达人类听众的双耳的输出信号除了时差或级差之外是相同的,那么人类听众将感觉声音来自某个方向(其取决于时差和级差)。在这种情况下,所述方向非常清楚,即该信号是空间“紧凑的”。
然而,如果来自不同方向的多个声源同时到达,那么每只耳朵将接收到声源的不同混合体。因此,不能将双耳的差异建模成简单的(依赖于频率的)时差和/或级差。在这种情况下,由于不同的声源已经混合成单个声源,因而不可能重建不同的混合体。不过,这种重建基本上是不需要的,因为已知人类听觉系统难于根据空间性质来分离各个声源。这种情况下占优的知觉方面在于,如果对时差和级差的波形进行了补偿,那么双耳处的波形如何不同。已经证明,通道间相干性(或归一化互相关函数的最大值)这样的数学概念是与空间“紧凑性”知觉紧密匹配的度量。
主要的方面在于,必须重建正确的通道间相干性,以便即使在双耳处的混合体有误的情况下也引起虚拟声源的类似知觉。这种知觉可以描述为“空间弥漫性”或缺乏“紧凑性”。此即去相关滤波器与混频单元一道所重建的。
参数转换单元104决定,在规则HRTF系统的情况下,如果波形已经基于单声源处理,那么这些波形将会如何不同。于是,通过在两个输出信号中有差别地混合直接和去相关信号,就可能重建不能归因于简单缩放和时延的信号中的这种差异。有利的是,通过重建这种弥散性参数,获得了一种实际声级(sound stage)。
如已经所提到的,参数转换单元104适用于针对每个音频输入信号Xi根据位置矢量Vi和谱功率信息Si来产生滤波器系数SF1、SF2。在当前情况下,这些滤波器系数由复值混频因子hxx,b来表示。这些复值混频因子是有利的,特别是在低频区中。可以指出的是,可以使用实值混频因子,特别是在处理高频时。
在当前情况下,复值混频因子hxx,b的值首先取决于表示头部相关传递函数(HRTF)模型参数Pl,b(α,ε)、Pr,b(α,ε)和θb(α,ε)的传递函数参数:这里,HRTF模型参数Pl,b(α,ε)表示针对左耳的每个子带b中的均方根(rms)功率,HRTF模型参数Pr,b(α,ε)表示针对右耳的每个子带b中的rms功率,HRTF模型参数θb(α,ε)表示左耳和右耳HRTF之间的平均复值相位角。给出的所有HRTF模型参数都是方位角(α)和仰角(ε)的函数。因此,在这个应用中只需要HRTF参数Pl,b(α,ε)、Pr,b(α,ε)和θb(α,ε),而不需要实际的HRTF(其存储为有限冲激响应表,由大量不同的方位角和仰角值进行索引)。
存储的这些HRTF模型参数用于一组有限的虚拟声源位置,在当前情况下用于水平和竖直两个方向上20度的空间分辨率。其他分辨率也是可能的或合适的,例如10或30度的空间分辨率。
在一个实施例中,可以提供插值单元,其适用于对空间分辨率之间的被存储的HRTF模型参数进行插值。优选地,应用双线性插值,但是其他的(非线性)插值方案可能是合适的。
相对于常规的HRTF表,通过提供依照本发明的HRTF模型参数,可以实现有益的更快的处理。特别是在计算机游戏应用中,如果考虑了头部的运动,那么音频声源的回放需要所存储HRTF数据之间的快速插值。
在又一个实施例中,提供给参数转换单元的这些传递函数参数可以基于并且表示球形头部模型。
在当前情况下,谱功率信息Si表示与输入信号Xi的当前帧相应的每频率子带线性域中的功率值。这样,可以将Si解释为每子带功率或能量值σ2的矢量:
当前情况下的频率子带(b)数为10。这里应当指出的是,谱功率信息Si可以由幂或对数域中的功率值表示,频率子带数的值可以达到30或40个频率子带。
功率信息Si基本上描述了某个声源在一定频带和子带中分别具有多少能量。如果某个声源在一定频带中相对于所有其他声源是(能量上)占优的,那么这个占优声源的空间参数就在由滤波器操作所应用的“复合”空间参数上得到更大的权重。换言之,通过使用频带中每个声源的能量来对每个声源的空间参数进行加权,以便计算一组平均空间参数。对这些空间参数的重要扩展是,不仅产生了每通道的相差和水平,而且也产生了相干值。该值描述了由两个滤波器操作产生的波形应该如何相似。
为了解释用于滤波器因子或复值混频因子hxx,b的准则,引入了一对可替换的输出信号,即L’和R’,所述输出信号L’、R’将通过依照HRTF参数Pl,b(α,ε)、Pr,b(α,ε)和θb(α,ε)对每个输入信号Xi进行独立修改,接着对输出进行求和来得到:
然后依照下列准则获得混频因子hxx,b:
1.假定输入信号Xi在每个频带b中是互相独立的:
2.每个子带b中输出信号L[k]的功率应该等于信号L’[k]的同一子带中的功率:
3.每个子带b中输出信号R[k]的功率应该等于信号R’[k]的同一子带中的功率:
4.对于每个频带b,信号L[k]和M[k]之间的平均复角度应该等于信号L’[k]和M[k]之间的平均复相位角:
5.对于每个频带b,信号R[k]和M[k]之间的平均复角度应该等于信号R’[k]和M[k]之间的平均复相位角:
6.对于每个频带b,信号L[k]和R[k]之间的相干性应该等于信号L’[k]和R’[k]之间的相干性:
可以证明,下面的(非唯一的)答案满足上述准则:
其中
这里,σb,i表示信号Xi的子带b中的能量或功率,δi表示声源i的距离。
在又一个实施例中,滤波器单元103可替换地基于实值或复值滤波器组,即模仿hxy,b的频率依赖性的IIR滤波器或FIR滤波器,结果不再需要FFT方法了。
在听觉显示器中,音频输出或者经过扬声器或者经过听众所戴的耳机传送给听众。耳机和扬声器两者既有优点又有缺点,一个或另一个可能产生更加令人喜欢的结果,这取决于应用。在另一个实施例中,例如对于耳机通过每只耳朵使用不止一个扬声器或者使用扬声器回放配置可以提供更多的输出通道。
现在将参照图7描述依照本发明的一个优选实施例用于处理表示头部相关传递函数(HRTF)的参数的设备700a。设备700a包括:输入级700b,其适用于接收声源的音频信号;确定装置700c,其适用于接收表示头部相关传递函数的基准参数,并且还适用于根据所述音频信号确定表示声源的位置和/或方向的位置信息;处理装置,其用于处理所述音频信号;影响装置700d,其适用于基于所述位置信息影响所述音频信号的处理,得到受过影响的输出音频信号。
在当前情况下,用于处理表示HRTF的参数的设备700a用作助听器700。
助听器700还包括适用于向输入级700b提供声源的声音信号或音频数据的至少一个声音传感器。在当前情况下,提供了两个声音传感器,其用作第一麦克风701和第二麦克风702。第一麦克风701适用于检测来自环境的声音信号,所述声音信号在当前情况下位于靠近人702的左耳的位置。此外,第二麦克风703适用于检测来自靠近人702的右耳的位置处的环境的声音信号。第一麦克风701耦合到第一放大单元704以及位置估计单元705。按照相似的方式,第二麦克风703耦合到第二放大单元706以及位置估计单元705。第一放大单元704适用于向第一再现装置提供经过放大的音频信号,所述第一再现装置在当前情况下即第一扬声器707。按照相似的方式,第二放大单元706适用于向第二再现装置提供经过放大的音频信号,所述第二再现装置在当前情况下即第二扬声器708。这里应当指出的是,在放大单元704和706之前可以设置用于各种已知的音频处理方法的其他音频信号处理装置,例如DSP处理单元、存储单元等等。
在当前情况下,位置估计单元705表示确定装置700c,其适用于接收表示头部相关传递函数的基准参数并且还适用于根据所述音频信号确定表示声源的位置和/或方向的位置信息。
沿这个位置信息单元705向下,助听器700还包括增益计算单元710,其适用于向第一放大单元704和第二放大单元706提供增益信息。在当前情况下,增益计算单元710与放大单元704、706一起构成影响装置700d,其适用于基于所述位置信息影响音频信号的处理,得到受过影响的输出音频信号。
位置信息单元705适用于确定由第一麦克风710提供的第一音频信号和由第二麦克风703提供的第二音频信号的位置信息。在当前情况下,如上面在图6和用于产生表示HRTF的参数的设备600的情况下所描述的,表示HRTF的参数被确定为位置信息。换言之,如同通常根据HRTF冲激响应进行的测量那样,可以根据进入的信号帧测量相同的参数。结果,代替将HRTF冲激响应作为到设备600的参数估计级的输入的是,分析左、右输入麦克风信号的一定长度(例如44.1kHz的1024个音频样本)的音频帧。
位置信息单元705还适用于接收表示HRTF的基准参数。在当前情况下,基准参数存储在优选地被设置在助听器700内的参数表709中。可替换地,参数表709可以是以有线或无线方式经由接口装置连接的远程数据库。
换言之,测量进入助听器700的麦克风701、703中的声音信号的参数可以对声源的方向或位置进行分析。其后,将这些参数与存储在参数表709中的参数进行比较。如果针对一定基准位置的、来自参数表709中存储的基准参数组的参数与来自进入的声源信号的参数之间匹配度高,那么很可能声源来自同一位置。在接下来的步骤中,将根据当前帧中确定的参数与存储在参数表709中(并且基于实际的HRTF)的参数进行比较。例如:假定某个输入帧导致参数P_frame。在参数表709中,参数P_HRTF(α,ε)是方位角(α)和仰角(ε)的函数。然后,匹配过程通过最小化误差函数E(α,ε)来估计声源位置,所述误差函数为E(α,ε)=|P_frame-P_HRTF(α,ε)|^2,它是方位角(α)和仰角(ε)的函数。对于E给出最小值的方位角(α)和仰角(ε)的那些值相应于声源位置的估计。
在下一个步骤中,将匹配过程的结果提供给用于计算增益信息的增益计算单元710,所述增益信息随后提供给第一放大单元704和第二放大单元706。
换言之,根据表示HRTF的参数,分别估计进入的声源声音信号的方向和位置,随后根据估计出的位置信息衰减或放大该声音。例如,可以放大来自人702的前方的所有声音;可以分别衰减其他方向的所有声音和音频信号。
应当指出的是,可以使用增强的匹配算法,例如每参数使用一个权重的加权方法。于是在误差函数E(α,ε)中,有些参数的“重量”可以不同于其他参数。
应当指出的是,动词“包括”及其变体的使用并没有排除其他的元件或步骤,冠词“一”的使用并没有排除多个元件或步骤。结合不同实施例描述的元件也可以加以组合。
还应当指出的是,权利要求中的附图标记不应当被视为限制了这些权利要求的范围。
Claims (12)
1.一种产生表示头部相关传递函数的参数的方法,该方法包括步骤:
将表示第一头部相关冲激响应信号的第一频域信号分解成至少两个子带;以及
根据这些子带的值的统计度量产生这些子带中的至少一个子带的至少一个第一参数,其特征在于还包括步骤:
将表示第二头部相关冲激响应信号的第二频域信号分解成该第二头部相关冲激响应信号的至少两个子带;
根据这些子带的值的统计度量产生该第二头部相关冲激响应信号的这些子带中的至少一个予带的至少一个第二参数;以及
产生表示每子带所述第一频域信号和所述第二频域信号之间的相位角的第三参数。
2.如权利要求1所述的方法,其中
第一频域信号是通过使用一个采样率以一定采样长度采样第一时域头部相关冲激响应信号产生第一时间离散信号并且将该第一时间离散信号变换到频域产生所述第一频域信号而得到的。
3.如权利要求1所述的方法,其中
第二频域信号是通过使用一个采样率以一定采样长度采样第二时域头部相关冲激响应信号产生第二时间离散信号并且将该第二时间离散信号变换到频域产生所述第二频域信号而得到的。
4.如权利要求1-3中任何一项所述的方法,其中
统计度量是频域信号的子带信号水平的均方根表示。
5.如权利要求2或3所述的方法,其中
基于FFT而将时间离散信号变换到频域,以及
基于对FFT分块进行分组而将频域信号分解成至少两个子带。
6.如权利要求1所述的方法,其中
在主频率范围内处理所述第一参数和第二参数,并且在该主频率范围的子频率范围内处理表示相位角的所述第三参数。
7.如权利要求6所述的方法,其中
所述子频率范围的频率上限位于2kHz和3kHz之间的范围内。
8.如权利要求1或3所述的方法,其中
第一头部相关冲激响应信号和第二头部相关冲激响应信号属于同一空间位置。
9.如权利要求1所述的方法,其中
产生至少两个子带的操作以如下方式被执行:使得这些子带具有符合心理听觉原理的非线性频率分辨率。
10.一种用于产生表示头部相关传递函数的参数的设备(600),该设备包括:
分解单元(604),其适用于将表示第一头部相关冲激响应信号的第一频域信号分解成至少两个子带;
参数生成单元(605),其适用于根据这些子带的值的统计度量产生这些子带中的至少一个子带的至少一个第一参数,其特征在于
该分解单元(604)还适用于将表示第二头部相关冲激响应信号的第二频域信号分解成该第二头部相关冲激响应信号的至少两个子带;
该参数生成单元(605)还适用于根据这些子带的值的统计度量产生该第二头部相关冲激响应信号的这些子带中的至少一个子带的至少一个第二参数,并且产生表示每子带所述第一频域信号和所述第二频域信号之间的相位角的第三参数。
11.如权利要求10所述的设备(600),包括
采样单元(602),其适用于使用一个采样率以一定采样长度采样第一时域头部相关冲激响应信号产生第一时间离散信号;以及
变换单元(603),其适用于将该第一时间离散信号变换到频域产生所述第一频域信号。
12.如权利要求10所述的设备(600),其中
采样单元(602)还适用于通过使用一个采样率以一定采样长度采样第二时域头部相关冲激响应信号得到第二时间离散信号来产生第二频域信号,并且变换单元(603)还适用于将该第二时间离散信号变换到频域产生所述第二频域信号。
Applications Claiming Priority (4)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
EP05108404 | 2005-09-13 | ||
EP051084044 | 2005-09-13 | ||
EP05108404.4 | 2005-09-13 | ||
PCT/IB2006/053125 WO2007031905A1 (en) | 2005-09-13 | 2006-09-06 | Method of and device for generating and processing parameters representing hrtfs |
Publications (2)
Publication Number | Publication Date |
---|---|
CN101263741A CN101263741A (zh) | 2008-09-10 |
CN101263741B true CN101263741B (zh) | 2013-10-30 |
Family
ID=37671087
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN2006800337199A Active CN101263741B (zh) | 2005-09-13 | 2006-09-06 | 产生和处理表示hrtf的参数的方法和设备 |
Country Status (6)
Country | Link |
---|---|
US (2) | US8243969B2 (zh) |
EP (1) | EP1927264B1 (zh) |
JP (1) | JP4921470B2 (zh) |
KR (1) | KR101333031B1 (zh) |
CN (1) | CN101263741B (zh) |
WO (1) | WO2007031905A1 (zh) |
Families Citing this family (38)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007031905A1 (en) * | 2005-09-13 | 2007-03-22 | Koninklijke Philips Electronics N.V. | Method of and device for generating and processing parameters representing hrtfs |
DE602007004451D1 (de) | 2006-02-21 | 2010-03-11 | Koninkl Philips Electronics Nv | Audiokodierung und audiodekodierung |
KR101431253B1 (ko) * | 2007-06-26 | 2014-08-21 | 코닌클리케 필립스 엔.브이. | 바이노럴 오브젝트―지향 오디오 디코더 |
CN101483797B (zh) * | 2008-01-07 | 2010-12-08 | 昊迪移通(北京)技术有限公司 | 一种针对耳机音响系统的人脑音频变换函数(hrtf)的生成方法和设备 |
KR100932791B1 (ko) | 2008-02-21 | 2009-12-21 | 한국전자통신연구원 | 음상 외재화를 위한 머리전달함수 생성 방법과, 그를이용한 3차원 오디오 신호 처리 장치 및 그 방법 |
US9485589B2 (en) | 2008-06-02 | 2016-11-01 | Starkey Laboratories, Inc. | Enhanced dynamics processing of streaming audio by source separation and remixing |
US8705751B2 (en) * | 2008-06-02 | 2014-04-22 | Starkey Laboratories, Inc. | Compression and mixing for hearing assistance devices |
WO2010070016A1 (en) | 2008-12-19 | 2010-06-24 | Dolby Sweden Ab | Method and apparatus for applying reverb to a multi-channel audio signal using spatial cue parameters |
JP5397131B2 (ja) * | 2009-09-29 | 2014-01-22 | 沖電気工業株式会社 | 音源方向推定装置及びプログラム |
KR20120004909A (ko) * | 2010-07-07 | 2012-01-13 | 삼성전자주식회사 | 입체 음향 재생 방법 및 장치 |
US20130208909A1 (en) * | 2010-09-14 | 2013-08-15 | Phonak Ag | Dynamic hearing protection method and device |
US8855322B2 (en) * | 2011-01-12 | 2014-10-07 | Qualcomm Incorporated | Loudness maximization with constrained loudspeaker excursion |
WO2012168765A1 (en) * | 2011-06-09 | 2012-12-13 | Sony Ericsson Mobile Communications Ab | Reducing head-related transfer function data volume |
FR2976759B1 (fr) * | 2011-06-16 | 2013-08-09 | Jean Luc Haurais | Procede de traitement d'un signal audio pour une restitution amelioree. |
JP5704013B2 (ja) * | 2011-08-02 | 2015-04-22 | ソニー株式会社 | ユーザ認証方法、ユーザ認証装置、およびプログラム |
JP6007474B2 (ja) * | 2011-10-07 | 2016-10-12 | ソニー株式会社 | 音声信号処理装置、音声信号処理方法、プログラムおよび記録媒体 |
CN104205878B (zh) | 2012-03-23 | 2017-04-19 | 杜比实验室特许公司 | 用于通过头相关传输函数的线性混合生成头相关传输函数的方法及系统 |
JP5954147B2 (ja) | 2012-12-07 | 2016-07-20 | ソニー株式会社 | 機能制御装置およびプログラム |
DK2822301T3 (da) * | 2013-07-04 | 2019-07-01 | Gn Hearing As | Bestemmelse af individuelle HRTF |
US9426589B2 (en) | 2013-07-04 | 2016-08-23 | Gn Resound A/S | Determination of individual HRTFs |
EP3767970B1 (en) | 2013-09-17 | 2022-09-28 | Wilus Institute of Standards and Technology Inc. | Method and apparatus for processing multimedia signals |
WO2015060654A1 (ko) | 2013-10-22 | 2015-04-30 | 한국전자통신연구원 | 오디오 신호의 필터 생성 방법 및 이를 위한 파라메터화 장치 |
WO2015099429A1 (ko) | 2013-12-23 | 2015-07-02 | 주식회사 윌러스표준기술연구소 | 오디오 신호 처리 방법, 이를 위한 파라메터화 장치 및 오디오 신호 처리 장치 |
EP3122073B1 (en) | 2014-03-19 | 2023-12-20 | Wilus Institute of Standards and Technology Inc. | Audio signal processing method and apparatus |
KR101856540B1 (ko) | 2014-04-02 | 2018-05-11 | 주식회사 윌러스표준기술연구소 | 오디오 신호 처리 방법 및 장치 |
CN106999788A (zh) | 2014-11-30 | 2017-08-01 | 杜比实验室特许公司 | 社交媒体链接的大幅面剧院设计 |
US9551161B2 (en) | 2014-11-30 | 2017-01-24 | Dolby Laboratories Licensing Corporation | Theater entrance |
US10237678B2 (en) | 2015-06-03 | 2019-03-19 | Razer (Asia-Pacific) Pte. Ltd. | Headset devices and methods for controlling a headset device |
CN105959877B (zh) * | 2016-07-08 | 2020-09-01 | 北京时代拓灵科技有限公司 | 一种虚拟现实设备中声场的处理方法及装置 |
CN106231528B (zh) * | 2016-08-04 | 2017-11-10 | 武汉大学 | 基于分段式多元线性回归的个性化头相关传递函数生成系统及方法 |
EP3607548A4 (en) * | 2017-04-07 | 2020-11-18 | Dirac Research AB | NEW PARAMETRIC EQUALIZATION FOR AUDIO APPLICATIONS |
US10149089B1 (en) * | 2017-05-31 | 2018-12-04 | Microsoft Technology Licensing, Llc | Remote personalization of audio |
CN107480100B (zh) * | 2017-07-04 | 2020-02-28 | 中国科学院自动化研究所 | 基于深层神经网络中间层特征的头相关传输函数建模系统 |
CN110012384A (zh) * | 2018-01-04 | 2019-07-12 | 音科有限公司 | 一种便携式测量头相关变换函数(hrtf)参数的方法、系统和设备 |
CN109618274B (zh) * | 2018-11-23 | 2021-02-19 | 华南理工大学 | 一种基于角度映射表的虚拟声重放方法、电子设备及介质 |
CN112566008A (zh) * | 2020-12-28 | 2021-03-26 | 科大讯飞(苏州)科技有限公司 | 音频上混方法、装置、电子设备和存储介质 |
CN113806679B (zh) * | 2021-09-13 | 2024-05-28 | 中国政法大学 | 一种基于预训练模型的头相关传输函数的个性化方法 |
KR102661374B1 (ko) | 2023-06-01 | 2024-04-25 | 김형준 | 사운드 소스의 선택적 콘트롤을 통한 입체 음향 출력 시스템 |
Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659619A (en) * | 1994-05-11 | 1997-08-19 | Aureal Semiconductor, Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
Family Cites Families (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659A (en) | 1848-07-05 | Machine foe | ||
EP0593228B1 (en) * | 1992-10-13 | 2000-01-05 | Matsushita Electric Industrial Co., Ltd. | Sound environment simulator and a method of analyzing a sound space |
US5440639A (en) * | 1992-10-14 | 1995-08-08 | Yamaha Corporation | Sound localization control apparatus |
JP2827777B2 (ja) * | 1992-12-11 | 1998-11-25 | 日本ビクター株式会社 | 音像定位制御における中間伝達特性の算出方法並びにこれを利用した音像定位制御方法及び装置 |
JP2723001B2 (ja) * | 1993-07-16 | 1998-03-09 | ヤマハ株式会社 | 音響特性補正装置 |
US5438623A (en) * | 1993-10-04 | 1995-08-01 | The United States Of America As Represented By The Administrator Of National Aeronautics And Space Administration | Multi-channel spatialization system for audio signals |
ATE208120T1 (de) * | 1994-02-25 | 2001-11-15 | Henrik Moller | Binaurale synthese, kopfbezogene übertragungsfunktion, und ihre verwendung |
EP0760197B1 (en) | 1994-05-11 | 2009-01-28 | Aureal Semiconductor Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
US6072877A (en) * | 1994-09-09 | 2000-06-06 | Aureal Semiconductor, Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
AU1527197A (en) | 1996-01-04 | 1997-08-01 | Virtual Listening Systems, Inc. | Method and device for processing a multi-channel signal for use with a headphone |
GB9603236D0 (en) * | 1996-02-16 | 1996-04-17 | Adaptive Audio Ltd | Sound recording and reproduction systems |
US6243476B1 (en) * | 1997-06-18 | 2001-06-05 | Massachusetts Institute Of Technology | Method and apparatus for producing binaural audio for a moving listener |
WO1999034527A1 (en) * | 1997-12-27 | 1999-07-08 | Sgs-Thomson Microelectronics Asia Pacific (Pte) Ltd. | Method and apparatus for estimation of coupling parameters in a transform coder for high quality audio |
GB2351213B (en) * | 1999-05-29 | 2003-08-27 | Central Research Lab Ltd | A method of modifying one or more original head related transfer functions |
JP2002044798A (ja) * | 2000-07-31 | 2002-02-08 | Sony Corp | 音声再生装置 |
US20030035553A1 (en) * | 2001-08-10 | 2003-02-20 | Frank Baumgarte | Backwards-compatible perceptual coding of spatial cues |
US7006636B2 (en) * | 2002-05-24 | 2006-02-28 | Agere Systems Inc. | Coherence-based audio coding and synthesis |
US7333622B2 (en) * | 2002-10-18 | 2008-02-19 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction |
US20040105550A1 (en) * | 2002-12-03 | 2004-06-03 | Aylward J. Richard | Directional electroacoustical transducing |
EP1595247B1 (en) | 2003-02-11 | 2006-09-13 | Koninklijke Philips Electronics N.V. | Audio coding |
JP2004361573A (ja) * | 2003-06-03 | 2004-12-24 | Mitsubishi Electric Corp | 音響信号処理装置 |
KR100608024B1 (ko) * | 2004-11-26 | 2006-08-02 | 삼성전자주식회사 | 다중 채널 오디오 입력 신호를 2채널 출력으로 재생하기위한 장치 및 방법과 이를 수행하기 위한 프로그램이기록된 기록매체 |
WO2007031905A1 (en) * | 2005-09-13 | 2007-03-22 | Koninklijke Philips Electronics N.V. | Method of and device for generating and processing parameters representing hrtfs |
US8515082B2 (en) * | 2005-09-13 | 2013-08-20 | Koninklijke Philips N.V. | Method of and a device for generating 3D sound |
KR100739776B1 (ko) * | 2005-09-22 | 2007-07-13 | 삼성전자주식회사 | 입체 음향 생성 방법 및 장치 |
ATE532350T1 (de) * | 2006-03-24 | 2011-11-15 | Dolby Sweden Ab | Erzeugung räumlicher heruntermischungen aus parametrischen darstellungen mehrkanaliger signale |
US20110026745A1 (en) * | 2009-07-31 | 2011-02-03 | Amir Said | Distributed signal processing of immersive three-dimensional sound for audio conferences |
-
2006
- 2006-09-06 WO PCT/IB2006/053125 patent/WO2007031905A1/en active Application Filing
- 2006-09-06 EP EP06795919.7A patent/EP1927264B1/en active Active
- 2006-09-06 US US12/066,507 patent/US8243969B2/en active Active
- 2006-09-06 JP JP2008529746A patent/JP4921470B2/ja active Active
- 2006-09-06 KR KR1020087008722A patent/KR101333031B1/ko active IP Right Grant
- 2006-09-06 CN CN2006800337199A patent/CN101263741B/zh active Active
-
2012
- 2012-07-11 US US13/546,314 patent/US8520871B2/en active Active
Patent Citations (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5659619A (en) * | 1994-05-11 | 1997-08-19 | Aureal Semiconductor, Inc. | Three-dimensional virtual audio display employing reduced complexity imaging filters |
Also Published As
Publication number | Publication date |
---|---|
WO2007031905A1 (en) | 2007-03-22 |
JP4921470B2 (ja) | 2012-04-25 |
KR20080045281A (ko) | 2008-05-22 |
US8243969B2 (en) | 2012-08-14 |
US20120275606A1 (en) | 2012-11-01 |
US20080253578A1 (en) | 2008-10-16 |
JP2009508158A (ja) | 2009-02-26 |
EP1927264B1 (en) | 2016-07-20 |
KR101333031B1 (ko) | 2013-11-26 |
EP1927264A1 (en) | 2008-06-04 |
CN101263741A (zh) | 2008-09-10 |
US8520871B2 (en) | 2013-08-27 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN101263741B (zh) | 产生和处理表示hrtf的参数的方法和设备 | |
CN102395098B (zh) | 生成3d声音的方法和设备 | |
CN101341793B (zh) | 从立体声信号产生多声道音频信号的方法 | |
KR101358700B1 (ko) | 오디오 인코딩 및 디코딩 | |
CN101366321A (zh) | 双声道音频信号的解码 | |
CN105378826A (zh) | 音频场景装置 | |
Farina et al. | Ambiophonic principles for the recording and reproduction of surround sound for music | |
CN103355001A (zh) | 用以利用下变频混频器来分解输入信号的装置和方法 | |
CN105874820A (zh) | 响应于多通道音频通过使用至少一个反馈延迟网络产生双耳音频 | |
Pihlajamäki et al. | Projecting simulated or recorded spatial sound onto 3D-surfaces | |
Picinali et al. | Chapter Reverberation and its Binaural Reproduction: The Trade-off between Computational Efficiency and Perceived Quality | |
Vilkamo | Spatial sound reproduction with frequency band processing of b-format audio signals | |
Verron et al. | Analysis/synthesis and spatialization of noisy environmental sounds | |
Kan et al. | Psychoacoustic evaluation of different methods for creating individualized, headphone-presented virtual auditory space from B-format room impulse responses | |
Zea | Binaural monitoring for live music performances | |
Vilkamo | Tilaäänen toistaminen B-formaattiäänisignaaleista taajuuskaistaprosessoinnin avulla | |
ACOUSTICS | AES 131st Convention Program | |
KAN et al. | PSYCHOACOUSTIC EVALUATION OF DIFFERENT METHODS FOR CREATING INDIVIDUALIZED, HEADPHONE-PRESENTED VAS FROM B-FORMAT RIRS | |
Kim et al. | 3D Sound Techniques for Sound Source Elevation in a Loudspeaker Listening Environment | |
MX2008008829A (en) | Decoding of binaural audio signals | |
MX2008008424A (es) | Decodificacion de señales de audio binaurales |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C14 | Grant of patent or utility model | ||
GR01 | Patent grant |