CN111246363B - 一种基于听觉匹配的虚拟声定制方法及装置 - Google Patents
一种基于听觉匹配的虚拟声定制方法及装置 Download PDFInfo
- Publication number
- CN111246363B CN111246363B CN202010019433.7A CN202010019433A CN111246363B CN 111246363 B CN111246363 B CN 111246363B CN 202010019433 A CN202010019433 A CN 202010019433A CN 111246363 B CN111246363 B CN 111246363B
- Authority
- CN
- China
- Prior art keywords
- auditory
- hrtf
- virtual sound
- user
- physiological characteristic
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S3/00—Systems employing more than two channels, e.g. quadraphonic
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S7/00—Indicating arrangements; Control arrangements, e.g. balance control
- H04S7/30—Control circuits for electronic adaptation of the sound field
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Biomedical Technology (AREA)
- Biophysics (AREA)
- Computational Linguistics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- Life Sciences & Earth Sciences (AREA)
- Molecular Biology (AREA)
- Artificial Intelligence (AREA)
- General Engineering & Computer Science (AREA)
- General Physics & Mathematics (AREA)
- Mathematical Physics (AREA)
- Software Systems (AREA)
- Health & Medical Sciences (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- Stereophonic System (AREA)
Abstract
本发明公开了一种基于听觉匹配的虚拟声定制方法及装置。本发明的方法包括:从用户头部3D模型中提取HRTF相关的生理特征值;输入听觉评估神经网络,预测听觉分数;从已知HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,得到用户定制的双耳虚拟声信号。本发明利用现有移动终端的3D传感装置,涵盖了HRTF相关的生理特征量;同时,直接建立生理特征值和主观听感的非线性关系,提高了HRTF匹配以及虚拟声定制的精度,有助于降低虚拟声重放设备的定位误差、提高用户沉浸感。
Description
技术领域
本发明涉及3D虚拟声技术领域,具体涉及一种基于听觉匹配的3D虚拟声定制的方法及装置,其生成为满足个体听觉特性的虚拟声。
背景技术
头相关传输函数(head-related transfer function,HRTF)是3D虚拟声技术的核心数据。HRTF与原始单通路信号以及房间脉冲响应进行运算所合成的双耳虚拟声信号,从物理的角度重构了真实3D声场景中某声源所对应的双耳声压信号,经耳机重放可以使用户获得和真实声源相同或相似的主观感受(即现场感和沉浸感)。
从物理起源上看,HRTF表征了从声源到双耳的传输过程中声波与人体生理结构(如头部、耳廓)的相互作用。一方面,每个空间声源方位对应一对HRTF数据(左耳HRTF和右耳HRTF);3D虚拟声重放需要大量空间方位的HRTF数据。另一方面,不同个体的生理结构具有不同的生理特征(如不同的头部尺寸和耳廓精细结构),因此HRTF是一个因人而异的个性化物理量。现有研究表明,为了获得高质量的3D虚拟声重放效果,需要采用听者自己的个性化HRTF数据进行虚拟声合成;而采用非个性化HRTF可能引起定位精度下降、头中率和前后混乱率增高的不良现象。个性化HRTF可以通过实验室测量或数值计算获取。然而,这两种方法都需要专业设备、场地且非常耗时,很难将其用于获取虚拟声产品潜在用户的个性化HRTF数据(Xie B.S.,Head-Related Transfer Function and Virtual AuditoryDisplay,J.Ross Publishing,USA,2013)。
依据现有的HRTF数据库(部分数据库已在互联网公开,例如美国CIPIC数据库、奥地利ARI数据库等),有研究提出采用匹配的方法获取个性化HRTF的近似。该方法的基本思路是:依据特定的匹配因子,从HRTF数据库中挑选出和用户匹配的HRTF数据,作为用户个性化HRTF的近似。HRTF匹配法的精度主要取决于匹配因子的选择。目前的匹配因子主要有两种:1)生理特征值;2)少量空间方位的HRTF。虽然生理特征值的异同是HRTF异同的主要原因,然而HRTF相关生理特征值的选取以及权重赋值,都是尚未完全解决并取得共识的问题。这将直接影响基于生理特征值的HRTF匹配的精度。另一方面,由于声波和生理结构相互作用的复杂性,采用少量空间方位的HRTF匹配出大量空间方位的HRTF的思路可能会出现“以偏概全”的错误。整体来看,最终的虚拟声重放是一个从生理到物理(即HRTF)再到心理(即听觉感知)的复杂过程,无论是基于生理特征值还是基于少量空间方位HRTF的匹配方法都未能直接和听觉感知效果关联。这也是现有HRTF匹配法精度有限的主要原因。而有限精度的HRTF匹配效果也将直接影响后续基于HRTF的虚拟声定制的效果。
发明内容
本发明为解决上述现有个性化HRTF匹配以及虚拟声定制方法的缺陷,提供一种基于听觉匹配的虚拟声定制方法及装置。本发明以神经网络预测的听觉分数为匹配因子,从已有的HRTF数据库中挑选出对应最高听觉分数的HRTF数据,作为用户听觉匹配的HRTF数据进行虚拟声合成。该方法可提升现有基于匹配的HRTF以及虚拟声的定制效果,包括仰角定位精度的提高以及头中率和前后混乱率的下降。
本发明的目的至少通过以下技术方案之一实现。
一种基于听觉匹配的虚拟声定制方法,其包括如下步骤:
步骤1、获取用户头部的3D模型;
步骤2、从3D模型中提取HRTF相关的生理特征值;
步骤3、将生理特征值输入听觉评估神经网络,预测听觉分数;
步骤4、从已知HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
步骤5、将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,得到用户定制的双耳虚拟声信号;
步骤6、采用耳机播放双耳虚拟声信号。
进一步地,步骤1中的所述用户头部的3D模型能通过移动终端自带的3D传感装置直接获取,或通过移动终端拍摄的2D图像的3D重构间接获取。
进一步地,步骤2中HRTF相关的生理特征值包括:两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角和斐波那契偏离度等。
进一步地,采用公式(1)计算斐波那契偏离度:
公式(1)中的34和55分别是斐波那契数列(Fibonacci sequence)的第九项和第十项。
进一步地,步骤3中听觉评估神经网络的输入是用户的M个生理特征值,输出是用户对N类HRTF数据的听觉分数。
进一步地,步骤3中听觉评估神经网络已事先构造和训练完毕,步骤如下:
1、选取一个已知的HRTF数据库,包括N名受试者的多个空间方向的HRTF数据(即N类HRTF数据);
2、选取K个听音者,采用3D扫描的方式获取听音者头部的3D模型。进一步,利用软件从3D模型中提取HRTF相关的M个生理特征值,进行离差标准化,获得M×K的生理特征值矩阵P=[pm,k](m=1,2,…,M;k=1,2,…,K);
3、采用N类HRTF数据制作虚拟声信号,用K个听音者进行虚拟声的听觉实验,得到N×K的听觉分数矩阵S=[sn,k](n=1,2,…,N;k=1,2,…,K),其中
(2)式中an,k表示第k个听音者对第n类HRTF虚拟声信号的头中率,bn,k表示第k个听音者对第n类HRTF虚拟声信号的前后混乱率,cn,k表示第k个听音者对第n类HRTF虚拟声信号的仰角定位准确率;
4、构造一个广义回归神经网络,生理特征值作为网络输入,听觉分数作为网络输出,上述{P=[pm,k],S=[sn,k]}构成训练集。采用留一法确定网络的平滑因子。
5、保存训练好的神经网络模型。
进一步地,步骤2和步骤3中所述的涉及双耳的生理特征值,都是先分别对双耳提取特征值,然后再取平均值。
进一步地,步骤4中,如果有多类HRTF数据都对应最高听觉分数,则根据应用场景的需求,按照公式(2)中的三个听觉指标(头中率、前后混乱率、仰角定位准确率)再进行排序,直至可以唯一确定听觉匹配的HRTF类别。
一种用于实现权利要求1至权利要求8中任一项所述方法的装置,其特征在于,包括:
3D头模获取模块,用于采集用户头面部的3D结构信息;
运算控制模块,用于从已知HRTF数据库中,依据神经网络根据用户生理特征值所预测的听觉分数,找出用户听觉匹配的HRTF数据进行虚拟声合成;
虚拟声播放模块,由声卡和耳机组成,用于播放合成的虚拟声信号。
进一步地,所述的运算控制模块包括:
生理特征值提取模块,用于从3D头模中提取出M个生理特征值,包括(但不限于)两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角、斐波那契偏离度;
HRTF听觉匹配模块,将用户生理特征值输入事先训练好的听觉评估神经网络,预测用户对N类HRTF的听觉分数;从HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
虚拟声信号合成模块,用于将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,合成得到特定声场景下的双耳虚拟声信号,输出到耳机进行重放。
本发明的原理是:从听觉形成的全链条来看,虚拟声重放是一个从生理到物理再到心理的复杂过程。无论是从生理到心理的过程,还是从物理到心理的过程,都涉及高阶的非线性映射关系。由于现有的基于生理特征值(即生理角度)和少量空间方位HRTF(即物理角度)的匹配方法都是基于线性映射假设,因此其定制效果有限。本发明利用神经网络强大的非线性映射功能,将生理特征值和听觉效果直接关联,即将用户生理特征值输入已训练好的神经网络即可预测出用户可能给出的听觉分数。这种HRTF听觉匹配的方法直接采用听觉分数作为匹配因子,理应比现有采于非听觉因子的HRTF匹配法更为准确,相应的虚拟声定制效果也更优。需要指出的是:如果不使用神经网络预测听觉分数,那么用户就需要对HRTF数据库中的多类HRTF数据逐个进行听觉实验(包括仰角方位的判断、头中现象的判断、前后混乱现象的判断),获得每类HRTF数据的听觉分数,然后再依据最高听觉分数进行库中HRTF数据的挑选。如此繁琐和冗长的HRTF匹配是用户所无法接受的。因此,本发明中采用神经网络进行预测是降低实际用户负担的必要环节。此外,HRTF相关的生理特征值尚无定论,本发明一方面采用3D头模尽可能多的提取可能的HRTF相关生理特征值;另一方面提出了一个反映耳廓整体特征的特征值——斐波那契偏离度。本发明在匹配因子的选取、HRTF相关生理特征值的遴选以及听觉分数获取方面的优点都将有助于实际虚拟声产品效果的提升。在一定程度上,现有移动终端(特别是手机)3D成像功能以及神经网络运算的发展为本发明的实现提供了有力支持。
本发明与现有技术相比,具有如下优点和有益效果:
1.采用听觉分数作为HRTF的匹配因子,将匹配效果直接和听觉效果关联起来,使最终的虚拟声定制效果更加符合用户的听觉感知,从而提高仰角定位准确性,减少前后虚拟声像的混淆,增强3D虚拟声重放的现场感和沉浸感。
2.采用神经网络建立生理特征值和听觉分数之间的高度非线性映射关系,提高了HRTF匹配的效率和精度。
3.充分利用现有3D成像设备的普及化,在HRTF相关生理特征值的选取上更为全面。同时,提出的斐波那契偏离度可以反映耳廓整体的形态特征。
4.本发明可采用算法语言编制的软件在多媒体计算机上实现,也可以采用通用信号处理芯片(DSP硬件)电路或专用的集成电路实现,用于各种便携式播放设备包括智能手机、虚拟头盔等方面的声音重放。
附图说明
图1是本发明实施例中基于听觉匹配的虚拟声定制方法的原理图;
图2是本发明实施例中听觉匹配HRTF的获取过程示意图;
图3是本发明实施例的模块连接示意图。
具体实施方式
下面结合附图对本发明作进一步的说明,但本发明要求保护范围并不局限于实施例表示的范围。
图1是本发明的一种基于听觉匹配的虚拟声定制方法的原理方框图。它采用神经网络建立了生理特征值和听觉分数之间的非线性映射关系;进一步的,以神经网络预测的听觉分数为匹配因子,从已知HRTF数据库中挑选出和用户听觉匹配的HRTF数据,作为个性化HRTF的近似;最后,采用听觉匹配的HRTF进行双耳虚拟声合成,实现虚拟声的用户定制。该方法优于现有的采用非听觉因子的HRTF匹配以及虚拟声定制的方法,表现为仰角定位准确性的提高、头中以及前后混淆现象的减少,最终可增强3D虚拟声重放的现场感和沉浸感。
一种基于听觉匹配的虚拟声定制方法,其包括如下步骤:
步骤1、获取用户头部的3D模型;
具体而言,步骤1中的所述用户头部的3D模型能通过移动终端(例如手机)自带的3D传感装置直接获取,或通过移动终端拍摄的2D图像的3D重构间接获取。
根据厂家发布的信息,OPPO Find X智能手机自带全隐藏式3D摄像头装置,VIVONEX智能手机搭载TOF 3D超感应深度摄像技术等。这些移动终端自带的3D传感装置可以在数十秒内获取头面部的3D模型。此外,对于普通的智能手机,可以通过3D建模软件app(例如Qlone、Altizure等),实现基于多张普通2D图像的3D重构。虽然移动终端采集头面部3D模型的初衷是进行人脸识别以及扫脸支付等功能,但是这里也可以借用以提升虚拟声定制的效果。
步骤2、从3D模型中提取HRTF相关的生理特征值;
具体而言,步骤2中HRTF相关的生理特征值包括:两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角和斐波那契偏离度等。
采用成熟的图像处理软件(例如solidworks)和图像特征提取算法(例如方向梯度直方图HOG法、局部二值模式LBP法、Haar-like特征法)可以得到3D头模的生理特征值。原则上,可提取的特征量有无限多。考虑到目前HRTF相关的生理特征值尚无定论,本发明的HRTF相关生理特征值不仅涵盖了现有研究中认为比较重要的头部和耳部主要特征量(两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角),同时提出了一个反映耳廓整体形态的斐波那契偏离度。
具体而言,采用公式(1)计算斐波那契偏离度:
公式(1)中的34和55分别是斐波那契数列(Fibonacci sequence)的第九项和第十项。人耳整体上呈现为一个斐波那契偏离度螺旋线(即黄金螺旋线),它可以通过一个斐波那契数列构造,其中第九项和第十项的比例对应耳廓最大宽和耳廓最大长的比例。斐波那契偏离度可以表征真人耳廓整体上相对于理想的斐波那契偏离度螺旋线的偏离程度,而与耳廓的绝对尺寸无关。
步骤3、将生理特征值输入听觉评估神经网络,预测听觉分数;
具体而言,步骤3中听觉评估神经网络的输入是用户的M个生理特征值,输出是用户对N类HRTF数据的听觉分数。
具体而言,步骤3中听觉评估神经网络已事先构造和训练完毕,训练步骤包括:
1、选取一个已知的HRTF数据库,包括N名受试者的多个空间方向的HRTF数据(即N类HRTF数据);
理论上,N越大越好;实际应用中,综合考虑可用的HRTF数据库以及后续听音者的听觉实验工作量,N一般取30~100之间。
目前国际上已有多个公开的HRTF数据库,例如美国CIPIC HRTF数据库、奥地利ARIHRTF数据库等。
2、选取K个听音者,采用3D扫描的方式获取听音者头部的3D模型。进一步,利用软件从3D模型中提取HRTF相关的M个生理特征值,进行离差标准化,获得M×K的生理特征值矩阵P=[pm,k](m=1,2,…,M;k=1,2,…,K);
3、采用N类HRTF数据制作虚拟声信号,用K个听音者进行虚拟声的听觉实验,得到N×K的听觉分数矩阵S=[sn,k](n=1,2,…,N;k=1,2,…,K),其中
(2)式中an,k表示第k个听音者对第n类HRTF虚拟声信号的头中率,bn,k表示第k个听音者对第n类HRTF虚拟声信号的前后混乱率,cn,k表示第k个听音者对第n类HRTF虚拟声信号的仰角定位准确率;
4、构造一个广义回归神经网络,生理特征值作为网络输入,听觉分数作为网络输出,上述{P=[pm,k],S=[sn,k]}构成训练集。采用留一法确定网络的平滑因子。
5、保存训练好的神经网络模型。
具体而言,步骤2和步骤3中所述的涉及双耳的生理特征值,都是先分别对双耳提取特征值,然后再取平均值。
步骤4、从HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
图2是用户听觉匹配HRTF获取的具体流程图,涵盖步骤3和步骤4。图2中,如果有多类HRTF数据都对应最高听觉分数,则根据应用场景的需求,按照公式(2)中的三个听觉指标(头中率、前后混乱率、仰角定位准确率)再进行排序,直至可以唯一确定听觉匹配的HRTF类别。
步骤5、将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,得到用户定制的双耳虚拟声信号;
房间脉冲响应用来模拟特定的室内效果,例如音乐厅、报告厅、餐厅等。如果不计房间脉冲响应,则最终合成的是自由场(即不含反射声)双耳虚拟声信号。
步骤6、采用耳机播放双耳虚拟声信号。
如图3所示,一种用于实现所述方法的装置,包括:
3D头模获取模块,用于采集用户头面部的3D结构信息;
运算控制模块,用于从已知HRTF数据库中,依据神经网络根据用户生理特征值所预测的听觉分数,找出用户听觉匹配的HRTF数据进行虚拟声合成;
虚拟声播放模块,由声卡和耳机组成,用于播放合成的虚拟声信号。
其中,所述的运算控制模块包括:
生理特征值提取模块,用于从3D头模中提取出M个生理特征值,包括两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角和斐波那契偏离度等;
HRTF听觉匹配模块,将用户生理特征值输入事先训练好的听觉评估神经网络,预测用户对N类HRTF的听觉分数;从HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
虚拟声信号合成模块,用于将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,合成得到特定声场景下的双耳虚拟声信号,输出到耳机进行重放。
其中,3D头模获取模块可以采用移动终端的3D传感装置直接获取(例如OPPO FindX智能手机、VIVO NEX智能手机),也可以通过移动终端拍摄的2D图像的3D重构间接获取(例如Qlone、Altizure)。上述方式获取的3D头模可以在移动终端进行后续处理,也可以导入个人多媒体计算机进行后续处理。如果后续的运算控制模块采用个人多媒体计算机实现,其中的三个模块(生理特征值提取模块、HRTF听觉匹配模块、虚拟声信号合成模块)可以采用Matlab、C++或者Python语言编程。运算控制模块也可以设计成专用的集成电路芯片实现,还可以利用通用信号处理芯片所做成的硬件电路实现,应用于各种手持移动终端。
本发明的上述实施例仅仅是为清楚地说明本发明所作的举例,而并非是对本发明的实施方式的限定。对于所属领域的普通技术人员来说,在上述说明的基础上还可以做出其它不同形式的变化或变动。这里无需也无法对所有的实施方式予以穷举。凡在本发明的精神和原则之内所作的任何修改、等同替换和改进等,均应包含在本发明权利要求的保护范围之内。
Claims (9)
1.一种基于听觉匹配的虚拟声定制方法,其特征在于,包括如下步骤:
步骤1、获取用户头部的3D模型;
步骤2、从3D模型中提取HRTF相关的生理特征值;
步骤3、将生理特征值输入听觉评估神经网络,预测听觉分数;
步骤4、从已知HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
步骤5、将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,得到用户定制的双耳虚拟声信号;
步骤6、采用耳机播放双耳虚拟声信号。
2.根据权利要求1所述的一种基于听觉匹配的虚拟声定制方法,其特征在于:步骤1中的所述用户头部的3D模型能通过移动终端自带的3D传感装置直接获取,或通过移动终端拍摄的2D图像的3D重构间接获取。
4.根据权利要求1所述的一种基于听觉匹配的虚拟声定制方法,其特征在于:步骤3中听觉评估神经网络的输入是用户的M个生理特征值,输出是用户对N类HRTF数据的听觉分数。
5.根据权利要求1所述的一种基于听觉匹配的虚拟声定制方法,其特征在于:步骤3中听觉评估神经网络已事先构造和训练完毕,步骤如下:
步骤601、选取一个已知的HRTF数据库,包括N名受试者的多个空间方向的HRTF数据,即N类HRTF数据;
步骤602、选取K个听音者,采用3D扫描的方式获取听音者头部的3D模型;利用软件从3D模型中提取HRTF相关的M个生理特征值,进行离差标准化,获得M×K的生理特征值矩阵P=[p m,k ],其中,m=1, 2,…, M;k=1, 2,…, K;
步骤603、采用N类HRTF数据制作虚拟声信号,用K个听音者进行虚拟声的听觉实验,得到N×K的听觉分数矩阵S=[s n,k ],其中,n=1, 2,…, N;k=1, 2,…, K,
(2)式中a n,k 表示第k个听音者对第n类HRTF虚拟声信号的头中率,b n,k 表示第k个听音者对第n类HRTF虚拟声信号的前后混乱率,c n,k 表示第k个听音者对第n类HRTF虚拟声信号的仰角定位准确率;
步骤604、构造一个广义回归神经网络,生理特征值作为网络输入,听觉分数作为网络输出,上述{ P=[p m,k ],S=[s n,k ]}构成训练集;采用留一法确定网络的平滑因子;
步骤605、保存训练好的神经网络模型。
6.根据权利要求5所述的一种基于听觉匹配的虚拟声定制方法,其特征在于:步骤4中,如果有多类HRTF数据都对应最高听觉分数,则根据应用场景的需求,按照公式(2)中的三个听觉指标即头中率、前后混乱率、仰角定位准确率,再进行排序,直至能唯一确定听觉匹配的HRTF类别。
7.根据权利要求1所述的一种基于听觉匹配的虚拟声定制方法,其特征在于:步骤2和步骤3中提取所述的生理特征值,都是先分别对双耳提取特征值,然后再取平均值。
8.一种用于实现权利要求1至权利要求7中任一项所述方法的装置,其特征在于,包括:
3D头模获取模块,用于采集用户头面部的3D结构信息;
运算控制模块,用于从已知HRTF数据库中,依据神经网络根据用户生理特征值所预测的听觉分数,找出用户听觉匹配的HRTF数据进行虚拟声合成;
虚拟声播放模块,由声卡和耳机组成,用于播放合成的虚拟声信号。
9.根据权利要求8所述的装置,其特征在于,所述的运算控制模块包括:
生理特征值提取模块,用于从3D头模中提取出M个生理特征值,包括两耳屏间宽、耳甲腔高度、耳甲腔宽度、耳甲腔深度、耳前后偏转角、耳凸起角和斐波那契偏离度,其中,所述斐波那契偏离度的计算方式如下:
HRTF听觉匹配模块,将用户生理特征值输入事先训练好的听觉评估神经网络,预测用户对N类HRTF的听觉分数;从已知HRTF数据库中挑选出最高听觉分数所对应的HRTF数据,作为用户听觉匹配的HRTF数据;
虚拟声信号合成模块,用于将原始单通路信号、听觉匹配HRTF数据、房间脉冲响应依次进行时间域卷积处理或等价地频率域滤波处理,合成得到特定声场景下的双耳虚拟声信号,输出到耳机进行重放。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010019433.7A CN111246363B (zh) | 2020-01-08 | 2020-01-08 | 一种基于听觉匹配的虚拟声定制方法及装置 |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN202010019433.7A CN111246363B (zh) | 2020-01-08 | 2020-01-08 | 一种基于听觉匹配的虚拟声定制方法及装置 |
Publications (2)
Publication Number | Publication Date |
---|---|
CN111246363A CN111246363A (zh) | 2020-06-05 |
CN111246363B true CN111246363B (zh) | 2021-07-20 |
Family
ID=70872483
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN202010019433.7A Active CN111246363B (zh) | 2020-01-08 | 2020-01-08 | 一种基于听觉匹配的虚拟声定制方法及装置 |
Country Status (1)
Country | Link |
---|---|
CN (1) | CN111246363B (zh) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN115412808B (zh) * | 2022-09-05 | 2024-04-02 | 天津大学 | 基于个性化头相关传递函数的虚拟听觉重放方法及系统 |
Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN106535043A (zh) * | 2016-11-18 | 2017-03-22 | 华南理工大学 | 一种基于生理特征的全频段3d虚拟声定制方法及装置 |
CN107113523A (zh) * | 2014-11-17 | 2017-08-29 | 微软技术许可有限责任公司 | 根据用户发声感知来确定头部相关变换函数数据 |
CN107480100A (zh) * | 2017-07-04 | 2017-12-15 | 中国科学院自动化研究所 | 基于深层神经网络中间层特征的头相关传输函数建模系统 |
CN107942290A (zh) * | 2017-11-16 | 2018-04-20 | 东南大学 | 基于bp神经网络的双耳声源定位方法 |
US10038966B1 (en) * | 2016-10-20 | 2018-07-31 | Oculus Vr, Llc | Head-related transfer function (HRTF) personalization based on captured images of user |
CN108596016A (zh) * | 2018-03-06 | 2018-09-28 | 北京大学 | 一种基于深度神经网络的个性化头相关传输函数建模方法 |
CN108616789A (zh) * | 2018-04-11 | 2018-10-02 | 北京理工大学 | 基于双耳实时测量的个性化虚拟音频回放方法 |
CN109145360A (zh) * | 2018-06-29 | 2019-01-04 | 中国科学院自动化研究所 | 基于稀疏约束的头相关传输函数个性化建模系统 |
CN109164415A (zh) * | 2018-09-07 | 2019-01-08 | 东南大学 | 一种基于卷积神经网络的双耳声源定位方法 |
CN109618274A (zh) * | 2018-11-23 | 2019-04-12 | 华南理工大学 | 一种基于角度映射表的虚拟声重放方法、电子设备及介质 |
CN110457646A (zh) * | 2019-06-26 | 2019-11-15 | 中国政法大学 | 一种基于参数迁移学习低资源头相关传输函数个性化方法 |
CN110501673A (zh) * | 2019-08-29 | 2019-11-26 | 北京大学深圳研究生院 | 一种基于多任务时频卷积神经网络的双耳听觉声源空间方向估计方法和系统 |
-
2020
- 2020-01-08 CN CN202010019433.7A patent/CN111246363B/zh active Active
Patent Citations (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107113523A (zh) * | 2014-11-17 | 2017-08-29 | 微软技术许可有限责任公司 | 根据用户发声感知来确定头部相关变换函数数据 |
US10038966B1 (en) * | 2016-10-20 | 2018-07-31 | Oculus Vr, Llc | Head-related transfer function (HRTF) personalization based on captured images of user |
CN106535043A (zh) * | 2016-11-18 | 2017-03-22 | 华南理工大学 | 一种基于生理特征的全频段3d虚拟声定制方法及装置 |
CN107480100A (zh) * | 2017-07-04 | 2017-12-15 | 中国科学院自动化研究所 | 基于深层神经网络中间层特征的头相关传输函数建模系统 |
CN107942290A (zh) * | 2017-11-16 | 2018-04-20 | 东南大学 | 基于bp神经网络的双耳声源定位方法 |
CN108596016A (zh) * | 2018-03-06 | 2018-09-28 | 北京大学 | 一种基于深度神经网络的个性化头相关传输函数建模方法 |
CN108616789A (zh) * | 2018-04-11 | 2018-10-02 | 北京理工大学 | 基于双耳实时测量的个性化虚拟音频回放方法 |
CN109145360A (zh) * | 2018-06-29 | 2019-01-04 | 中国科学院自动化研究所 | 基于稀疏约束的头相关传输函数个性化建模系统 |
CN109164415A (zh) * | 2018-09-07 | 2019-01-08 | 东南大学 | 一种基于卷积神经网络的双耳声源定位方法 |
CN109618274A (zh) * | 2018-11-23 | 2019-04-12 | 华南理工大学 | 一种基于角度映射表的虚拟声重放方法、电子设备及介质 |
CN110457646A (zh) * | 2019-06-26 | 2019-11-15 | 中国政法大学 | 一种基于参数迁移学习低资源头相关传输函数个性化方法 |
CN110501673A (zh) * | 2019-08-29 | 2019-11-26 | 北京大学深圳研究生院 | 一种基于多任务时频卷积神经网络的双耳听觉声源空间方向估计方法和系统 |
Also Published As
Publication number | Publication date |
---|---|
CN111246363A (zh) | 2020-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10284992B2 (en) | HRTF personalization based on anthropometric features | |
US11601775B2 (en) | Method for generating a customized/personalized head related transfer function | |
Hu et al. | HRTF personalization based on artificial neural network in individual virtual auditory space | |
JP5543571B2 (ja) | 頭部伝達関数を決定するシステムおよび方法 | |
US6996244B1 (en) | Estimation of head-related transfer functions for spatial sound representative | |
US8489371B2 (en) | Method and device for determining transfer functions of the HRTF type | |
JP7396607B2 (ja) | オーディオ体験をカスタマイズするためのシステムおよび処理方法 | |
US20080306720A1 (en) | Hrtf Individualization by Finite Element Modeling Coupled with a Corrective Model | |
Geronazzo et al. | Do we need individual head-related transfer functions for vertical localization? The case study of a spectral notch distance metric | |
CN106535043B (zh) | 一种基于生理特征的全频段3d虚拟声定制方法及装置 | |
US10917735B2 (en) | Head-related transfer function personalization using simulation | |
EP2611216B1 (en) | Systems and methods for determining head related transfer functions | |
CN108596016A (zh) | 一种基于深度神经网络的个性化头相关传输函数建模方法 | |
Hu et al. | Head related transfer function personalization based on multiple regression analysis | |
CN112381707B (zh) | 图像生成方法、装置、设备以及存储介质 | |
CN111246363B (zh) | 一种基于听觉匹配的虚拟声定制方法及装置 | |
Guo et al. | Anthropometric-based clustering of pinnae and its application in personalizing HRTFs | |
CN110473176A (zh) | 图像处理方法及装置、眼底图像处理方法、电子设备 | |
Huang et al. | Modeling individual HRTF tensor using high-order partial least squares | |
WO2019094114A1 (en) | Personalized head related transfer function (hrtf) based on video capture | |
Liu et al. | Median-Plane Head-Related Transfer Function Personalization Using Two-Dimensional Independent Component Analysis | |
CN117669007B (zh) | 一种家具设计方法、装置及系统 | |
WO2023242205A1 (en) | Rule-based method for 3d mesh deformation | |
Ko et al. | PRTFNet: HRTF Individualization for Accurate Spectral Cues Using a Compact PRTF | |
Alotaibi et al. | Modeling of Individual Head-Related Transfer Functions (HRTFs) Based on Spatiotemporal and Anthropometric Features Using Deep Neural Networks |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |