CN113574912A - 声信号处理装置、声信号处理系统、声信号处理方法和程序 - Google Patents

声信号处理装置、声信号处理系统、声信号处理方法和程序 Download PDF

Info

Publication number
CN113574912A
CN113574912A CN202080021565.1A CN202080021565A CN113574912A CN 113574912 A CN113574912 A CN 113574912A CN 202080021565 A CN202080021565 A CN 202080021565A CN 113574912 A CN113574912 A CN 113574912A
Authority
CN
China
Prior art keywords
user
hrtf
unit
signal processing
acoustic signal
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
CN202080021565.1A
Other languages
English (en)
Inventor
渡边隆太郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Group Corp
Original Assignee
Sony Group Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Group Corp filed Critical Sony Group Corp
Publication of CN113574912A publication Critical patent/CN113574912A/zh
Pending legal-status Critical Current

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • H04S7/303Tracking of listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S7/00Indicating arrangements; Control arrangements, e.g. balance control
    • H04S7/30Control circuits for electronic adaptation of the sound field
    • H04S7/302Electronic adaptation of stereophonic sound system to listener position or orientation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/12Circuits for transducers, loudspeakers or microphones for distributing signals to two or more loudspeakers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S3/00Systems employing more than two channels, e.g. quadraphonic
    • H04S3/002Non-adaptive circuits, e.g. manually adjustable or static, for enhancing the sound image or the spatial distribution
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2499/00Aspects covered by H04R or H04S not otherwise provided for in their subgroups
    • H04R2499/10General applications
    • H04R2499/13Acoustic transducers and sound field adaptation in vehicles
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R5/00Stereophonic arrangements
    • H04R5/02Spatial or constructional arrangements of loudspeakers
    • H04R5/023Spatial or constructional arrangements of loudspeakers in a chair, pillow
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2400/00Details of stereophonic systems covered by H04S but not provided for in its groups
    • H04S2400/11Positioning of individual sound objects, e.g. moving airplane, within a sound field
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/01Enhancing the perception of the sound image or of the spatial distribution using head related transfer functions [HRTF's] or equivalents thereof, e.g. interaural time difference [ITD] or interaural level difference [ILD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04SSTEREOPHONIC SYSTEMS 
    • H04S2420/00Techniques used stereophonic systems covered by H04S but not provided for in its groups
    • H04S2420/03Application of parametric coding in stereophonic audio systems

Abstract

本发明实现了以下配置:应用与由用户识别所识别的用户相对应的头部相关传递函数(HRTF)执行声音定位处理;并针对每个用户位置从输出单元进行输出。该配置包括执行用户识别和用户位置识别处理的用户识别单元;和使用特定于用户的头部相关传递函数(HRTF)作为处理参数执行声音定位处理的声像定位处理单元。声像定位处理单元执行将特定于所识别用户的HRTF作为处理参数的声音定位处理,并将通过声音定位处理获得的信号输出到用于所识别用户位置的输出单元。在用户识别单元识别多个用户的情况下,声像定位处理单元使用多个用户中的每个用户的HRTF并行地执行声音定位处理,并将经处理的信号输出到用于每个用户位置的输出单元。

Description

声信号处理装置、声信号处理系统、声信号处理方法和程序
技术领域
本公开涉及一种声信号处理装置、声信号处理系统、声信号处理方法和程序。更具体地,本公开涉及一种执行信号处理以为每个用户(听者)设置最佳虚拟声源位置的声信号处理装置、声信号处理系统、声信号处理方法和程序。
背景技术
例如,存在这样的系统,其中扬声器嵌入在诸如车辆驾驶员的用户所坐的座椅的头枕部分的左右位置处,并且从扬声器输出声音。
然而,在头枕部分中提供扬声器的情况下,诸如驾驶员的用户(听者)听到来自耳后的声音,这可能会感觉不自然,并且在某些情况下,一些用户可能会感到听力疲劳。
声音定位处理是解决此类问题的技术。声音定位处理是音频信号处理,其使得用户感知声音,如同声音来自与实际扬声器位置不同的虚拟声源位置,例如将虚拟声源位置设置到听者前面的位置。
例如,如果从用户(听者)耳后的扬声器输出经过声音定位处理的音频信号,则用户将感知声音如同声源在用户前面一样。
关于声音定位处理的相关技术的公开技术的一个示例是专利文献1(日本专利申请公开第2003-111200号)。
注意,上述专利文献公开了一种配置,该配置通过执行考虑了从扬声器到听者的耳朵的头部相关传递函数(HRTF)的信号处理,来产生从扬声器输出的声音。
基于头部相关传递函数(HRTF)执行信号处理使得能够控制听者的最佳虚拟声源位置。
引用列表
专利文献
专利文献1:日本专利申请公开第2003-111200号。
发明内容
本公开要解决的问题
如上所述,通过从扬声器输出基于头部相关传递函数(HRTF)的经处理信号,可以执行针对收听者设置最佳虚拟声源位置的声像位置控制。
然而,头部相关传递函数(HRTF)对于每个个体是不同的。因此,在从扬声器输出应用了对应于特定用户的头部相关传递函数(HRTF)的经处理信号的情况下,存在虚拟声源位置是该特定用户的最佳位置,但不一定是另一用户的最佳虚拟声源位置的问题。
本公开解决了这样的问题,并提供了一种能够控制从扬声器输出的应用了特定于用户(听者)的头部相关传递函数(HRTF)的经处理信号的声信号处理装置、声信号处理系统、声信号处理方法和程序,以及针对每个用户(听者)设置理想的虚拟声源位置。
问题的解决方案
根据本公开的第一方面,
提供了一种声信号处理装置,包括:
用户识别单元,其执行用户识别处理;
获取单元,其从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
声像定位处理单元,其使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
此外,根据本公开的第二方面,
提供了一种声信号处理装置,包括:
存储单元,其存储用户独有的头部相关传递函数(HRTF);
获取单元,其从存储单元获取用户独有的头部相关传递函数(HRTF);以及
声像定位处理单元,其使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
此外,根据本公开的第三方面,
提供了一种包括用户终端和服务器的声信号处理系统,其中
服务器
向用户终端发送音频信号,以及
用户终端包括
存储单元,其存储用户独有的头部相关传递函数(HRTF),
获取单元,其从存储单元获取用户独有的头部相关传递函数(HRTF),以及
声像定位处理单元,使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数,对从服务器接收的音频信号执行声音定位处理。
此外,根据本公开的第四方面,
提供了一种在声信号处理装置中执行的声信号处理方法,该方法包括:
由用户识别单元执行用户识别处理;
由获取单元从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
由声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数执行声音定位处理。
此外,根据本公开的第五方面,
提供了一种在声信号处理装置中执行的声信号处理方法,
声信号处理装置包括存储单元,该存储单元存储用户独有的头部相关传递函数(HRTF),该方法包括:
由获取单元从存储单元获取用户独有的头部相关传递函数(HRTF);以及
由声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数执行声音定位处理。
此外,根据本公开的第六方面,
提供了一种使声信号处理装置执行声信号处理的程序,该程序包括:
使用户识别单元执行用户识别处理;
使获取单元从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
使声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
注意,例如,根据本公开的程序可以由用于以计算机可读格式向能够执行各种程序代码的信息处理设备或计算机系统提供程序的存储介质或通信介质提供。由于这样的程序以计算机可读格式提供,因此在信息处理设备或计算机系统上执行根据该程序的处理。
根据基于本公开的实施例和稍后描述的附图的详细描述,本公开的其他目的、特征和优点将变得显而易见。注意,在本说明书中,系统是指包括多个设备的逻辑集配置,并且该配置的设备不一定包括在相同的外壳中。
本发明的效果
根据本公开的示例性方面的配置,实现了应用与由用户识别单元识别的用户相对应的头部相关传递函数(HRTF)执行声音定位处理,并针对每个用户位置从输出单元进行输出的配置。
具体地,例如,包括有执行用户识别和用户位置识别处理的用户识别单元、和使用特定于用户的头部相关传递函数(HRTF)作为处理参数执行声音定位处理的声像定位处理单元。声像定位处理单元执行将特定于所识别用户的HRTF作为处理参数进行处理的声音定位处理,并将通过声音定位处理获得的信号输出到用于所识别用户位置的输出单元。在用户识别单元识别多个用户的情况下,声像定位处理单元使用多个用户中的每个用户的HRTF并行地执行声音定位处理,并将经处理的信号输出到针对每个用户位置的输出单元。
根据本配置,实现了应用与由用户识别而识别的用户相对应的头部相关传递函数(HRTF)执行声音定位处理,并针对每个用户位置从输出单元进行输出的配置。
注意,本说明书中描述的效果仅仅是非限制性示例,并且可以存在附加效果。
附图说明
图1是用于描述基于声音定位处理和头部相关传递函数(HRTF)的音频信号处理的概述的示图。
图2是用于描述测量被视为应用于声音定位处理的参数的头部相关传递函数(HRTF)的处理的示例的示图。
图3是示出了使用头部相关传递函数(HRTF)执行声音定位处理的设备的示例性配置的示图。
图4是用于描述基于对应于每个用户的头部相关传递函数(HRTF)执行信号处理的示例的示图。
图5是用于说明本公开的实施例1的配置和处理的示图。
图6是用于描述根据本公开的声信号处理装置的示例性配置的示图。
图7是用于描述HRTF数据库被放置在外部服务器上的示例性配置的示图。
图8是示出了用于描述由根据本公开的声信号处理装置执行的处理的序列的流程图的示图。
图9是用于描述执行根据用户的存在或不存在的输出控制的实施例的示图。
图10是示出了用于描述由根据本公开的声信号处理装置执行的处理的序列的流程图的示图。
图11是用于描述将根据本公开的声信号处理装置应用于飞机上的座位的实施例的示图。
图12是用于描述将根据本公开的声信号处理装置应用于飞机上的座位的实施例的示图。
图13是示出了用于描述由根据本公开的声信号处理装置执行的处理的序列的流程图的示图。
图14是用于描述将根据本公开的声信号处理装置应用于游乐园的景点的实施例的示图。
图15是示出了用于描述由根据本公开的声信号处理装置执行的处理的序列的流程图的示图。
图16是用于描述将根据本公开的声信号处理装置应用于艺术博物馆的实施例的示图。
图17是示出了用于描述由根据本公开的声信号处理装置执行的处理的序列的流程图的示图。
图18是用于描述在用户终端中存储特定于用户的头部相关传递函数(HRTF)的实施例的示图。
图19是用于描述在用户终端中存储特定于用户的头部相关传递函数(HRTF)的实施例的示图。
图20是用于描述声信号处理装置、用户终端、服务器等的示例性硬件配置的示图。
具体实施方式
在下文中,将参考附图详细描述根据本公开的声信号处理装置、声信号处理系统、声信号处理方法和程序。请注意,将在以下部分中进行描述。
1.基于声音定位处理和头部相关传递函数(HRTF)的音频信号处理的概述
2.根据本公开的声信号处理装置的配置和处理
3.执行根据用户的存在或不存在的输出控制的实施例
4.其他实施例
5.在用户终端中存储特定于用户的头部相关传递函数(HRTF)的实施例
6.声信号处理装置、用户终端、服务器等的示例性硬件配置
7.根据本公开的配置概要
[1.基于声音定位处理和头部相关传递函数(HRTF)的音频信号处理的概述]
首先,参照图1和后续附图,将描述基于声音定位处理和头部相关传递函数(HRTF)的音频信号处理的概述。
图1示出了汽车1。用户(听者)10坐在驾驶员座位中。左扬声器21和右扬声器22安装在驾驶员座位的头枕部分中,并且来自诸如未示出的CD的声源的立体声信号(LR信号)从这两个扬声器输出。
在头枕部分中提供扬声器并且以这种方式简单地从声源输出立体声信号(LR信号)的情况下,用户(听者)10听到来自耳后的声音,这可能会感觉不自然,并且在某些情况下,一些用户可能会经历听力疲劳。
为了解决这样的问题,汽车1内部的声信号处理装置对从诸如CD的声源输出的LR信号执行信号处理,并从左扬声器21和右扬声器22输出通过信号处理获得的信号。该信号处理是声音定位处理。
如上所述,声音定位处理是使用户(听者)感知声音如同声源存在于与实际扬声器位置不同的虚拟声源位置的信号处理。
在图1所示的示例中,可以使得用户感知声音,如同声源的L信号正在从虚拟左扬声器31输出并且声源的R信号正在从用户(听者)10前面的位置(虚拟声源位置)处的虚拟右扬声器32输出一样。
将参考图2来描述测量被视为应用于声音定位处理的参数的头部相关传递函数(HRTF)的处理的示例。注意,图2是记录在专利文献1(日本专利申请公开第2003-111200号)中的示图,该专利文献是先前描述作为有关声音定位处理的相关技术的公开技术。可以通过使用专利文献1等中描述的现有声音定位处理来执行根据本公开的处理。
如图2所示,在例如演播室的预定回放声场中,真实左扬声器41和真实右扬声器42实际安装在针对用户10的左和右虚拟扬声器位置(期望扬声器存在的位置)。
此后,在靠近用户10的任一耳朵的部分拾取由真实左扬声器41和真实右扬声器42发出的声音,以及测量头部相关传递函数(HRTF),该HRTF指示当到达靠近用户10的任一耳朵的部分时从真实左扬声器41和真实右扬声器42发出的声音如何改变。
在图2所示的示例中,M11是从真实左扬声器41到用户10的左耳的声音的头部相关传递函数,M12是从真实左扬声器41到用户10的右耳的声音的头部相关传递函数。类似地,M21是从真实右扬声器42到用户10的左耳的声音的头部相关传递函数,M22是从真实右扬声器42到用户10的右耳的声音的头部相关传递函数。
这些头部相关传递函数(HRTF)是应用于对从声源(例如CD)输出的LR信号执行的信号处理的参数。通过使用这些参数的信号处理获得的信号从图1所示的驾驶员座位的头枕部分中的左扬声器L21和右扬声器22输出。这种布置可以使得用户感知声音,如同从头枕部分中的扬声器发出的声音正在从虚拟扬声器位置输出一样。
换句话说,可以使得用户10感知声音,如同从图1所示的用户(听者)10前面的位置(虚拟声源位置)处声源的L信号正在从虚拟左扬声器31输出并且声源的R信号正在虚拟右扬声器32输出一样。
图3是示出了使用头部相关传递函数(HRTF)执行声音定位处理的设备的示例性配置的示图。
L信号和R信号被再现为来自诸如CD的声音源50的立体声信号。将再现的信号输入(Lin,Rin)到应用HRTF的声像定位处理单元60。
应用HRTF的声像定位处理单元60从HRTF存储单元70获取由前面参照图2描述的测量处理测量的头部相关传递函数(HRTF),应用所获得的数据执行信号处理,并生成输出信号(Lout,Rout)例如输出至头枕部分的左扬声器21和右扬声器22。
左扬声器21输出在应用HRTF的声像定位处理单元60中处理的输出信号(Lout)。
此外,右扬声器22输出在应用HRTF的声像定位处理单元60中处理的输出信号(Rout)。
以这种方式,当在应用HRTF的声像定位处理单元60中经过声音定位处理的信号被输出到头枕部分中的左扬声器21和右扬声器22时,用户10能够感知声音,好像从头枕部分中的扬声器发出的声音位于虚拟扬声器位置,或者换句话说,如同声源的L信号正在从虚拟左扬声器31输出并且声源的R信号正在从图3所示的用户10前面的位置(虚拟声源位置)处的虚拟右扬声器32输出一样。
因此,基于头部相关传递函数(HRTF)执行信号处理,使得能够控制听者的最佳虚拟声音位置。
然而,如上所述,头部相关传递函数(HRTF)对于每个个体是不同的。因此,在从扬声器输出应用了对应于特定用户的头部相关传递函数(HRTF)的经处理信号的情况下,存在虚拟声源位置可以是该特定用户的最佳位置,但不一定是另一用户的最佳虚拟声源位置的问题。
例如,如图1所示,预计多个不同用户将坐在汽车1的驾驶员座位上。
在这种情况下,图3所示的应用HRTF的声像定位处理单元60需要基于对应于每个用户的头部相关传递函数(HRTF)执行信号处理。
如图4所示,在三个用户A到C改变位置的情况下,需要应用对应于每个用户的头部相关传递函数(HRTF)执行信号处理。
在图4的示例中,从时间t1开始,用户A 11坐在驾驶员座位上,并且在这种情况下,需要应用用户A 11的头部相关传递函数(HRTF)执行信号处理,以从扬声器输出。
从时间t2开始,用户B12坐在驾驶员座位上,在这种情况下,需要应用用户B12的头部相关传递函数(HRTF)执行信号处理,以从扬声器进行输出。
此外,从时间t3开始,用户C13坐在驾驶员座位上,并且在这种情况下,将需要应用用户C13的头部相关传递函数(HRTF)执行信号处理,以从扬声器进行输出。
[2.根据本公开的声信号处理装置的配置和处理]
接着,将描述根据本公开的声信号处理装置的配置和处理。
如上所述,头部相关传递函数(HRTF)对于每个用户是不同的,并且除非执行应用作为听者的用户独有的头部相关传递函数(HRTF)的声音定位处理,否则不能设置最佳虚拟声源位置。
下面描述的根据本公开的声信号处理装置执行用户识别处理和用户位置识别处理,基于识别信息确定要应用于声音定位处理的头部相关传递函数(HRTF),以及应用对应于每个用户的头部相关传递函数(HRTF)执行信号处理。此外,从在具有应用于信号处理的头部相关传递函数(HRTF)的用户的位置处提供的扬声器,输出作为输出而获得的信号处理结果。
首先,将参考图5和后续附图描述根据本公开的实施例1的配置和处理。
图5示出了汽车80。根据本公开的声信号处理装置100安装在汽车80上。注意,稍后将描述根据本公开的声信号处理装置100的配置的具体示例。
四个用户,即用户A 110a、用户B 110b、用户C 110c和用户D 110d,在汽车80上。
对应于每个用户的LR扬声器安装在每个用户座位的头枕部分中。
在用于用户A 110a的头枕部分中,安装了用户A左扬声器122aL和用户A右扬声器122aR。
在用于用户B 110b的头枕部分中,安装了用户B左扬声器122bL和用户B右扬声器122bR。
在用于用户C 110c的头枕部分中,安装了用户C左扬声器122cL和用户C右扬声器122cR。
在用于用户D 110d的头枕部分中,安装了用户D左扬声器122dL和用户D右扬声器122dR。
此外,在汽车80上安装捕获用户A到D中的每一个的面部的图像的传感器(照相机)101。
由传感器(照相机)101获取的用户A到D中的每一个的面部的捕获图像被输入到根据本公开的声信号处理装置100中。
根据本公开的声信号处理装置100基于由传感器(照相机)101获取的用户A到D中的每一个的面部的捕获图像,来执行用户识别和用户位置识别。
根据本公开的声信号处理装置100基于用户识别信息从数据库获取用户A到D中的每一个的头部相关传递函数(HRTF),并且应用所获取的用户A到D中的每一个的头部相关传递函数(HRTF)并行地执行信号处理(声音定位处理)。
此外,从基于用户位置识别信息指定的每个用户的位置处的LR扬声器,输出通过应用用户A到D中的每一个的头部相关传递函数(HRTF)的信号处理(声音定位处理)获得的四对输出LR信号。
通过这些处理,用户A到D中的每一个可以从头枕部分中的扬声器单独地收听通过应用该用户自己的头部相关传递函数(HRTF)的信号处理(声音定位处理)获得的输出信号,并且每一个用户可以收听来自理想的虚拟声源位置的声音。
图6是示出了根据本公开的声信号处理装置100的示例性配置的示图。
如图6所示,根据本公开的声信号处理装置100包括传感器(例如照相机)101、用户和用户位置识别单元102、用户对应的HRTF获取单元103、HRTF数据库104和应用HRTF的声像定位处理单元105。
应用HRTF的声像定位处理单元105包括能够并行执行处理的多个用户对应的应用HRTF的声像定位处理单元105-1至105-n。
传感器(例如照相机)101是获取可用于识别用户和用户位置的信息的传感器,并且包括例如照相机。
由传感器(例如照相机)101获取的传感器检测信息,例如由照相机捕获的图像,被输入用户和用户位置识别单元102。
用户和用户位置识别单元102基于由传感器(例如照相机)101获取的传感器检测信息(例如由照相机捕获的图像)来识别用户和用户位置。
例如,用户和用户位置识别单元102通过比较由照相机捕获的图像中包含的面部图像和存储在未示出的用户数据库中的用户面部图像信息,来识别用户。
此外,用户和用户位置识别单元102还识别每个所识别的用户的位置。用户位置的识别作为确定每个用户所在的位置以听到从哪个扬声器输出的声音的处理而执行的。
由用户和用户位置识别单元102生成的用户识别信息和用户位置识别信息被输入到用户对应的HRTF获取单元103。
用户对应的HRTF获取单元103基于从用户和用户位置识别单元102输入的用户识别信息,从HRTF数据库104获取对应于每个所识别的用户的头部相关传递函数(HRTF)。
预先测量的对应于每个用户的头部相关传递函数(HRTF)存储在HRTF数据库104中。
在HRTF数据库104中,与每个用户对应的头部相关传递函数(HRTF)与用户标识符相关联地存储。注意,与每个用户相对应的头部相关传递函数(HRTF)可通过参考上述图2描述的处理来测量。
用户对应的HRTF获取单元103输出与从用户和用户位置识别单元102输入的用户识别信息和用户位置识别信息相关联的、从HRTF数据库104获取的与每个识别的用户相对应的头部相关传递函数(HRTF)。
如上所述,应用HRTF的声像定位处理单元105包括多个用户对应的应用HRTF的声像定位处理单元105-1至105-n。
多个用户对应的应用HRTF的声像定位处理单元105-1至105-n中的每个与分别输出经处理的信号(Lout、R-out)的LR扬声器预先相关联。
例如,用户对应的应用HRTF的声像定位处理单元105-1连接到驾驶员座位的LR扬声器,即图5所示的用户A 110a所坐的驾驶员座位的用户左扬声器122aL和用户右扬声器122aR。
以这种方式,用户对应的应用HRTF的声像定位处理单元105-1至105-n中的每个与分别输出经处理的信号(Lout、R-out)的LR扬声器预先相关联。
应用HRTF的声像定位处理单元105基于与从具有与每个识别的用户相对应的头部相关传递函数(HRTF)的用户对应的HRTF获取单元103输入的与用户识别信息和用户位置识别信息相关联的数据,在用户对应的应用HRTF的声像定位处理单元105-1至105-n中应用与每个用户相对应的HRTF,执行信号处理。
具体地,例如,用户对应的应用HRTF的声像定位处理单元105-1,其连接到用户A110a所坐的驾驶员座位的用户A左扬声器122aL和用户A右扬声器122aR,执行接收与用户A相对应的头部相关传递函数(HRTF)作为输入的信号处理(声音定位处理)。
由信号处理产生输出信号(Lout-a,Rout-a)。生成的输出信号(Lout-a、Rout-a)从用户A 110a所坐的驾驶员座位的用户A左扬声器122aL和用户A右扬声器122aR输出。
类似地,用户对应的应用HRTF的声像定位处理单元105-n,其连接到图6所示的用户N 110n所坐的驾驶员座位的用户N左扬声器122nL和用户N右扬声器122nR,执行接收与用户N相对应的头部相关传递函数(HRTF)作为输入的信号处理(声音定位处理)。
由信号处理产生输出信号(Lout-n,Rout-n)。所生成的输出信号(Lout-n、Rout-n)从用户N 110n所坐的驾驶员座位的用户N左扬声器122nL和用户N右扬声器122nR输出。
这同样适用于其他用户,并且通过应用对应于每个用户的头部相关传递函数(HRTF)的信号处理(声音定位处理)生成的输出信号(Lout-x,Rout-x)从每个用户位置处的扬声器输出。
通过这些处理,所有用户能够从每个用户所坐的位置处的头枕部分中的扬声器收听通过应用每个用户自己的头部相关传递函数(HRTF)执行声音定位处理而获得的信号(Lout-x,Rout-x),并收听来自针对每个用户的最佳虚拟声源位置的声音。
注意,图6所示的声信号处理装置100的示例性配置是示例,并且其他配置也是可行的。
例如,也可以将图6所示的声信号处理装置100的HRTF数据库104放置在外部服务器上。
该示例性配置在图7中示出。
如图7所示,内置于汽车中的声音输出设备100被配置成通过网络130连接并且能够与管理服务器120通信。
内置于汽车中的声音输出设备100不包括参考图6描述的HRTF数据库104。
HRTF数据库104保存在管理服务器120中。
管理服务器120包括存储预先测量的与每个用户相对应的头部相关传递函数(HRTF)的HRTF数据库104。在HRTF数据库104中,与每个用户相对应的头部相关传递函数(HRTF)与用户标识符相关联地存储。
声音输出设备100基于由用户和用户位置识别单元102生成的用户识别信息,执行在管理服务器120中搜索HRTF数据库104的处理,以获取对应于每个用户的头部相关传递函数(HRTF)。
此后的处理类似于参考图6描述的处理。
以这种方式,通过将HRTF数据库104放置在管理服务器120中,可以应用更多用户的头部相关传递函数(HRTF)执行信号处理。
接着,将参考图8所示的流程图来描述由根据本公开的声信号处理装置执行的处理序列。
注意,可以根据例如存储在声信号处理装置的存储单元中的程序,来执行遵循图8和下文所述的后续附图中的流程的处理,并且在具有程序执行功能(例如CPU)的控制单元的控制下执行这些处理。在下文中,将连续地描述图8所示的流程的每个步骤中的处理。
(步骤S101)
首先,在步骤S101中,声信号处理装置执行用户识别和用户位置识别。
该处理由图6所示的用户和用户位置识别单元102执行。
用户和用户位置识别单元102基于由传感器(例如照相机)101获取的传感器检测信息(例如由照相机捕获的图像)来识别用户和用户位置。
例如,用户和用户位置识别单元102通过比较由照相机捕获的图像中包含的面部图像和存储在未示出的用户数据库中的用户面部图像信息,来识别用户。
此外,用户和用户位置识别单元102还识别每个所识别的用户的位置。用户位置的识别作为确定每个用户所在的位置以听到从哪个扬声器输出的声音的处理而执行的。
(步骤S102)
接着,在步骤S102中,声信号处理装置从数据库获取每个识别的用户的头部相关传递函数(HRTF)。
该处理由图6所示的用户对应的HRTF获取单元103执行。
用户对应的HRTF获取单元103基于从用户和用户位置识别单元102输入的用户识别信息,从HRTF数据库104获取对应于每个所识别的用户的头部相关传递函数(HRTF)。
在HRTF数据库104中,与每个用户相对应的头部相关传递函数(HRTF)与用户标识符相关联地存储。
用户对应的HRTF获取单元103基于从用户和用户位置识别单元102输入的用户识别信息执行数据库搜索处理,并获取对应于每个识别的用户的头部相关传递函数(HRTF)。
(步骤S103)
接着,在步骤S103中,声信号处理装置将每个用户的头部相关传递函数(HRTF)输入到各个用户对应的应用HRTF的声像定位处理单元,并生成对应于每个用户的输出信号。
该处理由图6所示的应用HRTF的声像定位处理单元105执行。
如参考图6所述,应用HRTF的声像定位处理单元105包括多个用户对应的应用HRTF的声像定位处理单元105-1到105-n。
多个用户对应的应用HRTF的声像定位处理单元105-1至105-n中的每个预先分配有分别输出经处理的信号(Lout、R-out)的LR扬声器。
应用HRTF的声像定位处理单元105基于与从具有与每个识别的用户相对应的头部相关传递函数(HRTF)的用户对应的HRTF获取单元103输入的用户识别信息和用户位置识别信息相关联的数据,在用户对应的应用HRTF的声像定位处理单元105-1至105-n中应用与每个用户相对应的HRTF,执行信号处理。
(步骤S104)
最后,在步骤S104中,声信号处理装置将对应于每个用户的生成的输出信号输出到安装在对应于每个生成的信号的用户位置处的扬声器。
该处理也由图6所示的应用HRTF的声像定位处理单元105执行。
通过应用对应于每个用户的头部相关传递函数(HRTF)的信号处理(声音定位处理)生成的输出信号(Lout-x,Rout-x),从每个用户位置处的扬声器输出。
通过这些处理,所有用户能够从每个用户所坐的位置处的头枕部分中的扬声器收听通过应用每个用户自己的头部相关传递函数(HRTF)执行声音定位处理而获得的信号(Lout-x,Rout-x),并收听来自针对每个用户的最佳虚拟声源位置的声音。
[3.执行根据用户的存在或不存在的输出控制的实施例]
接着,作为实施例2,将描述执行根据用户的存在或不存在的实施例输出控制。
在上面参照图5描述的示例中,所有用户(听者)都坐在安装了扬声器的汽车80的座位上。然而,实际上,在许多情况下,例如,如图9所示,一些座位可能是空的。
在这种情况下,从空座位上的扬声器输出声音会导致功耗增加。此外,如果来自这些扬声器的输出声音进入坐在另一个座位上的用户的耳朵,则该用户会将这些声音视为不需要的噪音。
下面描述的实施例解决了这样的问题,并且是控制在没有用户存在的位置处的扬声器的输出停止或静音的实施例。
将参照图10所示的流程图来描述根据实施例2的处理序列。
在下文中,将连续地描述图10所示的流程的每个步骤中的处理。
通过在上述图8所示的流程的步骤S101和步骤S102之间添加步骤S101a和S101b来获得图10所示的流程。
其他步骤(步骤S101和步骤S102至S104)中的处理类似于参考图8描述的处理,因此省略描述。
在下文中,将描述步骤S101a中的处理和步骤S101b中的处理。
(步骤S101a)
在步骤S101中,声信号处理装置执行用户识别和用户位置识别,然后执行步骤S101a的处理。
在步骤S101a中,声信号处理装置确定是否存在无用户的安装扬声器的座位。
该处理由图6所示的用户和用户位置识别单元102执行。
用户和用户位置识别单元102基于由传感器(例如照相机)101获取的传感器检测信息(例如由照相机捕获的图像)来识别用户和用户位置。此时,确定是否存在无用户的安装扬声器的座位。
在不存在无用户的安装扬声器的座位的情况下,流程进行到步骤S102,并且执行步骤S102到S104中的处理。
这些处理类似于上面参照图8描述的处理,并且通过执行与每个用户对应的信号处理(声音定位处理)而获得的信号从所有座位中的扬声器输出。
另一方面,如果在步骤S101a的确定处理中确定存在无用户的安装扬声器的座位,则流程进行到步骤S101b。
(步骤S101b)
如果在步骤S101a的确定处理中确定存在无用户的安装扬声器的座位,则流程进行到步骤S101b。
在步骤S101b中,声信号处理装置在无用户的情况下停止每个安装扬声器的座位的输出或对来自每个安装扬声器的座位的输出执行静音控制。
该处理由图6所示的应用HRTF的声像定位处理单元105执行。
在停止输出的情况下,也不为这些座位中的扬声器执行输出声音的生成。在图6所示的应用HRTF的声像定位处理单元105的用户对应的应用HRTF的声像定位处理单元105-1到105-n中,为无用户的扬声器生成输出声音的处理单元不执行任何处理。
另外,在执行静音控制的情况下,输出声音被生成为限于附近用户的耳朵听不到的水平的回放声音。注意,在这种情况下应用于信号处理(声音定位处理)的HRTF是存储在HRTF数据库104中的标准类型的HRTF。或者,可以不执行信号处理(声音定位处理)而直接从声源输出回放声音。
此后,在步骤S102至S104中,仅对用户位于座位上的位置处的扬声器执行回放声音的信号处理和输出。
通过执行这些处理,在无用户的位置处的扬声器的输出被停止或静音,并且实现了功耗的降低。此外,可以减少进入其他座位的用户耳朵的噪声。
[4.其他实施例]
上面描述的实施例描述了汽车内部的声音输出控制配置,但是根据本公开的处理在其他方面可用于各种场所。
在下文中,将描述将本公开应用于飞机上的座位的实施例、将本公开应用于游乐园的景点的实施例以及将本公开应用于艺术博物馆的实施例。
(a)将本公开应用于飞机上的座位的实施例
首先,参考图11和后续附图,将描述将根据本公开的声信号处理装置应用于飞机上的座位的实施例。
飞机上的座位都配有用于插入耳机的插座(耳机插孔),坐在座位上的用户(乘客)可以通过插入耳机收听音乐等。
如图11所示,一些座位被用户(乘客)占用,而另一些座位是空的。此外,一些用户正在使用耳机,而其他用户则没有。
座位是分配的,并且每个用户所坐的座位是预定的。
在登机预约系统的数据库中记录哪个用户坐哪个座位的记录。
在这种设置的情况下,飞机上的声信号处理装置能够基于登机预约系统中的记录数据来检查每个用户(乘客)的座位位置。
图12示出了根据本实施例的示例性系统配置。
飞机上的声信号处理装置200通过网络连接到登机预约系统201和管理服务器202。
注意,管理服务器202包括HRTF数据库210,其中记录了每个用户(乘客)的头部相关传递函数(HRTF)。飞机上的声信号处理装置200具有基本上类似于上面参考图6描述的配置的配置。
然而,该配置省略了HRTF数据库104,并且也不包括传感器101。使用通过网络连接的登机预约系统201中的记录数据,来执行用户识别和用户位置识别。
飞机上的声信号处理装置200的用户和用户位置识别单元(即,图6所示的用户和用户位置识别单元102)基于通过网络连接的登机预约系统201来识别每个座位位置处的用户。具体地,获取预定每个座位位置的用户的用户标识符。
此外,声信号处理装置200的用户对应的HRTF获取单元(即,图6所示的用户对应的HRTF获取单元103)基于每个座位位置的用户标识符从管理服务器202的HRTF数据库210获取对应于每个用户的头部相关传递函数(HRTF)。
接着,声信号处理装置200通过每个座位中的耳机插孔产生输出声音。输出声音的生成是由声信号处理装置200的应用HRTF的声像定位处理单元(即,图6所示的应用HRTF的声像定位处理单元105)执行的处理。
如参考图6所述,应用HRTF的声像定位处理单元105包括多个用户对应的应用HRTF的声像定位处理单元105-1到105-n。
多个用户对应的应用HRTF的声像定位处理单元105-1至105-n中的每个预先分配有分别输出经处理的信号(Lout、R-out)的耳机插孔。
应用HRTF的声像定位处理单元105基于与从具有与每个识别的用户相对应的头部相关传递函数(HRTF)的用户对应的HRTF获取单元103输入的用户(座位)识别信息和用户位置识别信息相关联的数据,在用户对应的应用HRTF的声像定位处理单元105-1至105-n中执行信号处理。
在用户对应的应用HRTF的声像定位处理单元105-1的每一个中,执行应用对应于每个识别的用户的HRTF的信号处理,以生成对应于每个用户的声音定位处理信号。对应于每个用户的信号作为输出声音从每个用户的座位位置处的耳机插孔输出。
通过该处理,作为飞机上的乘客的用户能够收听经过基于每个用户自己的头部相关传递函数(HRTF)处理(声音定位处理)的信号,并且能够收听来自理想的虚拟声源位置的声音。
接着,将参考图13所示的流程图来描述由根据本公开的声信号处理装置执行的处理序列。
在下文中,将连续地描述图13所示的流程的每个步骤中的处理。
(步骤S201)
首先,在步骤S201中,声信号处理装置基于签到信息执行用户识别和用户位置识别。
该处理由图12所示的飞机上的声信号处理装置200的用户和用户位置识别单元(即,图6所示的用户和用户位置识别单元102)执行。
声信号处理装置200的用户和用户位置识别单元基于通过网络连接的登机预约系统201来识别每个座位位置处的用户。具体地,获取预定每个座位位置的用户的用户标识符。
(步骤S202)
接着,在步骤S202中,声信号处理装置从数据库获取每个识别的用户的头部相关传递函数(HRTF)。
该处理由声信号处理装置200的用户对应的HRTF获取单元(即,图6所示的用户对应的HRTF获取单元103)执行。
用户对应的HRTF获取单元基于预订每个座位的用户的用户标识符,从管理服务器202的HRTF数据库210获取与每个用户相对应的头部相关传递函数(HRTF)。
(步骤S203)
接着,在步骤S203中,声信号处理装置将每个用户的头部相关传递函数(HRTF)输入到各个用户对应的应用HRTF的声像定位处理单元,并生成对应于每个用户的输出信号。
该处理由图6所示的应用HRTF的声像定位处理单元105执行。
多个用户对应的应用HRTF的声像定位处理单元105-1到105-n的中的每一个通过执行将对应于每个座位位置处的每个用户的头部相关传递函数(HRTF)视为处理参数的信号处理(声音定位处理),来生成对应于用户的输出信号。
(步骤S204)
最后,在步骤S204中,声信号处理装置将与每个用户相对应的生成的输出信号输出,作为来自与所生成的信号相对应的每个用户的座位位置处的耳机插孔的输出信号。
来自每个用户的座位位置处的耳机插孔的输出,是通过应用对应于每个用户的头部相关传递函数(HRTF)的信号处理(声音定位处理)生成的输出信号(Lout-x,Rout-x)。
通过这些处理,所有用户(乘客)能够在每个用户所坐的座位位置处收听通过应用每个用户自己的头部相关传递函数(HRTF)执行声音定位处理而获得的信号(Lout-x,Rout-x),并收听来自每个用户的最佳虚拟声源位置的声音。
(b)将本公开应用于游乐园的景点的实施例
接着,参考图14,将描述将根据本公开的声信号处理装置应用于游乐园的景点的实施例。
图14示出了在游乐园景点游玩的用户251。
当用户251在游乐园的入口购买门票时,用户信息被注册,并且在注册过程中,用户接收存储有用户标识符的传感器252佩戴在用户手臂上。
传感器252与安装在游乐园内部的各个位置的通信设备263通信,并且将用户标识符发送到布置在游乐园的管理中心中的声信号处理装置。布置在游乐园的管理中心中的声信号处理装置具有基本上类似于上面参考图6描述的配置的配置。
然而,用户和用户位置识别单元102通过通信设备263从由图14所示的用户251佩戴的传感器252接收用户识别信息和用户位置信息,并且识别每个用户和每个用户的位置。
如图14所示,在每个景点中安装多个扬声器,例如扬声器L 261和扬声器R 262。
布置在游乐园的管理中心中的声信号处理装置使用来自这些扬声器的输出作为处理信号(声音定位处理信号),其中在扬声器前面的用户251的头部相关传递函数(HRTF)已被应用作为处理参数。
将参考图15所示的流程图来描述由根据本公开的声信号处理装置执行的处理序列。
在下文中,将连续地描述图15所示的流程的每个步骤中的处理。
(步骤S301)
首先,在步骤S301,声信号处理装置基于从用户佩戴的传感器252接收到的信号执行用户识别和用户位置识别。
该处理由游乐园的管理中心中的声信号处理装置的用户和用户位置识别单元(即,图6所示的用户和用户位置识别单元102)执行。
声信号处理装置的用户和用户位置识别单元通过通信设备263接收由图14所示的用户佩戴的传感器252的输出,来执行用户识别和用户位置识别。
(步骤S302)
接着,在步骤S302中,声信号处理装置从数据库获取每个识别的用户的头部相关传递函数(HRTF)。
该处理由游乐园的管理中心中的声信号处理装置的用户对应的HRTF获取单元(即,图6所示的用户对应的HRTF获取单元103)执行。
用户对应的HRTF获取单元基于每个景点中的用户的用户标识符从HRTF数据库获取对应于每个用户的头部相关传递函数(HRTF)。
注意,HRTF数据库在某些情况下可以存储在游乐园的管理中心中的声信号处理装置中,或者在其它情况下可以存储在通过网络连接的管理服务器中。
(步骤S303)
接着,在步骤S303中,声信号处理装置将每个用户的头部相关传递函数(HRTF)输入到各个用户对应的应用HRTF的声像定位处理单元,并生成对应于每个用户的输出信号。
该处理由图6所示的应用HRTF的声像定位处理单元105执行。
多个用户对应的应用HRTF的声像定位处理单元105-1到105-n的中的每一个通过执行将在每个景点位置处的对应于每个用户的头部相关传递函数(HRTF)视为处理参数的信号处理(声音定位处理),来生成对应于用户的输出信号。
(步骤S304)
最后,在步骤S304中,声信号处理装置将与每个用户相对应的生成的输出信号输出,作为来自与所生成的信号相对应的每个用户的景点位置处的扬声器的输出信号。
来自每个景点处的扬声器的输出,是通过应用与在景点游玩的用户相对应的头部相关传递函数(HRTF)的信号处理(声音定位处理)生成的输出信号(Lout-x,Rout-x)。
通过这些处理,在景点游玩的用户能够收听通过应用每个用户自己的头部相关传递函数(HRTF)执行声音定位处理而获得的信号(Lout-x,Rout-x),并且收听来自每个用户的最佳虚拟声源位置的声音。
(c)将本公开应用于艺术博物馆的实施例
接着,参考图16和后续附图,将描述将根据本公开的声信号处理装置应用于艺术博物馆的实施例。
图16示出了参观艺术博物馆的用户271。
当用户271在艺术博物馆的入口处购买门票时,用户信息被注册,并且在注册过程中,用户接收存储用户标识符的用户终端272。
用户终端272设置有耳机插孔,并且通过将耳机273的插头插入耳机插孔,用户271能够从耳机收听各种评论。
用户终端272能够与布置在艺术博物馆的管理中心中的声信号处理装置通信。
布置在艺术博物馆的管理中心中的声信号处理装置具有基本上类似于上面参考图6描述的配置的配置。
然而,用户和用户位置识别单元102从图16所示的用户271所佩戴的用户终端272接收用户识别信息和用户位置信息,并且识别每个用户和每个用户的位置。
注意,例如,在存在存储注册的成员信息的成员数据库的情况下,数据库注册信息也可以用于用户识别。
此外,布置在艺术博物馆的管理中心中的声信号处理装置使用来自用户271使用的耳机273的输出,作为处理信号(声音定位处理信号),其中用户271的头部相关传递函数(HRTF)已被应用作为处理参数。
将参考图17所示的流程图来描述由根据本公开的声信号处理装置执行的处理序列。
在下文中,将连续地描述图17所示的流程的每个步骤中的处理。
(步骤S401)
首先,在步骤S401中,声信号处理装置基于从用户佩戴的用户终端272或注册的成员信息接收到的信号,执行用户识别和用户位置识别。
该处理由艺术博物馆的管理中心中的声信号处理装置的用户和用户位置识别单元(即,图6所示的用户和用户位置识别单元102)执行。
声信号处理装置的用户和用户位置识别单元通过接收由图16所示的用户佩戴的用户终端272的输出,来执行用户识别和用户位置识别。注意,还可以使用注册的成员信息(例如,在进入艺术博物馆时的检查期间参考的成员数据库)来执行用户识别。
(步骤S402)
接着,在步骤S402中,声信号处理装置从数据库获取每个识别的用户的头部相关传递函数(HRTF)。
该处理由艺术博物馆的管理中心中的声信号处理装置的用户对应的HRTF获取单元(即,图6所示的用户对应的HRTF获取单元103)执行。
用户对应的HRTF获取单元基于用户的用户标识符从HRTF数据库获取对应于每个用户的头部相关传递函数(HRTF)。
注意,HRTF数据库在某些情况下可以存储在艺术博物馆的管理中心中的声信号处理装置中,或者在其它情况下可以存储在通过网络连接的管理服务器中。
(步骤S403)
接着,在步骤S403中,声信号处理装置将每个用户的头部相关传递函数(HRTF)输入到各个用户对应的应用HRTF的声像定位处理单元,并生成对应于每个用户的输出信号。
该处理由图6所示的应用HRTF的声像定位处理单元105执行。
多个用户对应的应用HRTF的声像定位处理单元105-1到105-n的中的每一个通过执行将在艺术博物馆中不同位置处的对应于每个用户的头部相关传递函数(HRTF)视为处理参数的信号处理(声音定位处理),来生成对应于用户的输出信号。
(步骤S304)
最后,在步骤S404中,声信号处理装置将对应于每个用户的生成的输出信号发送到对应于所生成的信号的用户的用户终端272,作为来自插入用户终端272的耳机273的输出信号。
来自插入由在艺术博物馆内的不同位置处的用户携带的用户终端272的耳机273的输出,是通过应用与用户相对应的头部相关传递函数(HRTF)的信号处理(声音定位处理)生成的输出信号(Lout-x,Rout-x)。
通过这些处理,艺术博物馆内的不同位置处的用户能够收听通过应用每个用户自己的头部相关传递函数(HRTF)执行声音定位处理而获得的信号(Lout-x,Rout-x),并且能够收听来自每个用户的最佳虚拟声源位置的声音。
注意,尽管上述实施例示出了布置在艺术博物馆的管理中心中的声信号处理装置生成声音定位处理信号的示例,应用与每个用户相对应的头部相关传递函数(HRTF)的信号处理(声音定位处理)也可以被配置为例如在由每个用户携带的用户终端272中执行。
(d)执行使用除头部相关传递函数(HRTF)之外的信号处理的声音定位处理的实施例
尽管前述描述了执行使用头部相关传递函数(HRTF)的声音定位处理的实施例,但是也可以通过使用除头部相关传递函数(HRTF)之外的数据的信号处理来执行声音定位处理。
例如,确定头部相关传递函数(HRTF)或其近似值的参数适用于信号处理。参数是,例如:
(1)头部相关传递函数(HRTF)的近似,
(2)确定头部相关传递函数(HRTF)的参数,以及
(3)确定头部相关的传递函数(HRTF)的近似的参数。
具体地,在通过EQ再现HRTF的情况下,可以使用诸如Fq、增益和Q的信息。
另外,还可以使用基于在除声音定位处理之外的信号处理中使用的个体物理特性的数据,例如用于噪声消除的个体优化的滤波器。
此外,还可以使用基于个体偏好的数据,例如用于调整音质和音量的EQ参数。
[5.在用户终端中存储特定于用户的头部相关传递函数(HRTF)的实施例]
接着,参考图18和后续附图,将描述在用户终端中存储特定于用户的头部相关传递函数(HRTF)的实施例。
前面描述了多个用户的头部相关传递函数(HRTF)被存储在HRTF数据库中的实施例。
相比之下,参考图18和后续附图描述的实施例是特定用户301独有的头部相关传递函数(HRTF)311被存储在用户301携带的用户终端310中的实施例。
用户终端310无线地或通过耳机插孔向耳机303输出音频信号。用户301从耳机303收听音频输出。
来自耳机303的输出声音是通过应用用户301独有的头部相关传递函数(HRTF)311的信号处理(声音定位处理)处理的信号。
例如,用户301通过下载或流式传输到用户终端310来接收由音乐传送服务器322提供的音乐。
用户终端310执行将存储在用户终端310中的用户301独有的用户对应的头部相关传递函数(HRTF)311应用于从音乐传送服务器322获取的音频信号的信号处理(声音定位处理),并将处理后的音频信号输出到耳机303。
通过这种布置,可以听到已经进行了应用用户独有的头部相关传递函数(HRTF)的声音定位处理的音频信号。
然而,在用户终端310内部的信号处理单元中执行信号处理(声音定位处理)的情况下,在某些情况下,可能需要从管理服务器321获取授权信息。
将参考图19描述本实施例的配置和处理。
如图19所示,用户终端310包括携带用户终端310的用户独有的用户对应的头部相关传递函数(HRTF)311、应用用户独有的头部相关传递函数(HRTF)执行信号处理(声音定位处理)的信号处理单元312、以及将处理后的信号从信号处理单元312输出到耳机303的通信单元313。
由音乐传送服务器322提供的音乐351的音频信号(Lin、Rin)被输入到用户终端310的信号处理单元312中。
信号处理单元312执行将存储在用户终端310的存储单元中的用户对应的头部相关传递函数(HRTF)311应用于从音乐传送服务器322获取的音频信号的信号处理(声音定位处理)。
然而,在信号处理单元312中执行信号处理(声音定位处理)的情况下,在某些情况下,需要从管理服务器321获取授权信息。
用户终端310从管理服务器321获取授权信息371。授权信息371是例如能够在信号处理单元312中执行信号处理(声音定位处理)程序的关键信息等。
在从管理服务器321获取授权信息371的条件下,用户终端310执行将用户对应的头部相关传递函数(HRTF)311应用于从音乐传送服务器322传送的音频信号的信号处理(声音定位处理)。
经处理的音频信号(Lout、Rout)通过耳机插孔或通信单元313输出到耳机303。
通过这种布置,用户能够收听已经进行了应用用户独有的头部相关传递函数(HRTF)的声音定位处理的音频信号。
注意,作为在用户终端310中存储用于多个不同用户的头部相关传递函数(HRTF)的配置,用户终端可以被配置为使得正在使用的用户选择哪个头部相关传递函数(HRTF)进行使用。
或者,用户终端可以设置有用户识别单元,并且用户识别单元可以被配置成应用与识别的用户相对应的头部相关传递函数(HRTF)来执行音频输出控制。
作为另一示例,在诸如车内音频系统的音频输出系统与用户终端310通信的配置中,音频输出系统获取存储在用户终端310中的头部相关传递函数(HRTF),并且可以在音频输出系统侧执行根据所获取的头部相关传递函数(HRTF)的音频输出控制。
注意,尽管通过将立体声信号作为声源的示例来描述上述实施例,但是根据本公开的处理也适用于对立体声信号以外的信号执行的处理,例如多声道信号、以对象为单位回放声音的基于对象的信号、以及复制声场的高保真度立体声像复制(Ambisonic)信号或高阶Ambisonic信号。
[6.声信号处理装置、用户终端、服务器等的示例性硬件配置]
接着,将对上述实施例中描述的声信号处理装置、用户终端、服务器等的示例性硬件配置进行说明。
参照图20描述的硬件是上述实施例中描述的声信号处理装置、用户终端、服务器等的示例性硬件配置。
中央处理单元(CPU)501用作根据存储在只读存储器(ROM)502或存储单元508中的程序执行各种处理的控制单元和数据处理单元。例如,执行根据上述实施例中描述的序列的处理。随机存取存储器(RAM)503存储由CPU 501执行的程序、数据等。CPU 501、ROM 502和RAM 503通过总线504相互连接。
CPU 501经由总线504连接到输入/输出接口505,并且输入/输出接口505连接到包括各种开关、键盘、鼠标、麦克风、传感器等的输入单元506和包括显示器、扬声器等的输出单元507。CPU 501响应于从输入单元506输入的指令执行各种处理,并将处理结果输出到例如输出单元507。
连接到输入/输出接口505的存储单元508包括例如硬盘等,并且存储由CPU 501执行的程序和各种数据。通信单元509用作Wi-Fi通信、蓝牙(注册商标)(BT)通信和经由诸如互联网和局域网的网络的其他数据通信的发送/接收单元,并且与外部装置通信。
连接到输入/输出接口505的驱动器510驱动诸如磁盘、光盘、磁光盘的可移动介质511或诸如存储卡的半导体存储器,并记录或读取数据。
[7.根据本公开的配置概要]
已经参照上述具体实施例详细描述了本公开的实施例。然而,显而易见,本领域技术人员可以在不脱离本公开的要点的情况下对实施例进行修改和替换。换言之,本公开已经以示例的形式公开,并且没有限制性地解释。为了确定本公开的要点,应当考虑权利要求。
此外,本说明书中公开的本技术可以包括以下配置。
(1)一种声信号处理装置,包括:
用户识别单元,执行用户识别处理;
获取单元,从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
声像定位处理单元,使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
(2)根据(1)的声信号处理装置,其中
用户识别单元附加地
执行用户位置识别处理,以及
声像定位处理单元
从靠近在用户识别单元中识别的用户位置的扬声器输出通过声音定位处理获得的信号。
(3)根据(1)或(2)的声信号处理装置,其中
用户识别单元
针对多个用户执行用户识别处理,以及
声像定位处理单元
使用在用户识别单元中识别的多个用户中的每个用户的头部相关传递函数(HRTF)作为处理参数,并行地执行声音定位处理。
(4)根据(1)至(3)中任一项的声信号处理装置,其中
用户识别单元
基于由照相机捕获的图像或用户识别处理和用户位置识别处理二者来执行用户识别处理。
(5)根据(1)至(4)中任一项的声信号处理装置,其中
用户识别单元
基于传感器信息或用户识别处理和用户位置识别处理二者来执行用户识别处理。
(6)根据(1)至(5)中任一项的声信号处理装置,还包括
存储对应于每个用户的头部相关传递函数(HRTF)的头部相关传递函数(HRTF)数据库。
(7)根据(1)至(6)中任一项的声信号处理装置,其中
获取单元
接受来自用户识别单元的用户识别信息作为输入,基于该用户识别信息从声信号处理装置的内部的数据库获取用户独有的头部相关传递函数(HRTF),并输出到声像定位处理单元。
(8)根据(1)至(7)中任一项的声信号处理装置,其中
获取单元
接受来自用户识别单元的用户识别信息作为输入,基于该用户识别信息从外部服务器中的数据库获取用户独有的头部相关传递函数(HRTF),并输出到声像定位处理单元。
(9)根据(1)至(8)中任一项的声信号处理装置,其中
声像定位处理单元
执行停止输出信号到用户识别单元确定用户不存在的位置或减少输出信号到用户识别单元确定用户不存在的位置的处理。
(10)根据(1)至(9)中任一项的声信号处理装置,其中
用户识别单元
参考登机预约系统中的注册数据,以执行用户识别处理或用户识别处理和用户位置识别处理二者。
(11)根据(1)至(10)中任一项的声信号处理装置,其中
用户识别单元
基于用户佩戴的传感器或从用户终端接收到的信息,执行用户识别处理或用户识别处理和用户位置识别处理二者。
(12)根据(1)至(11)中任一项的声信号处理装置,其中
用户识别单元
参考预先注册的用户成员信息以执行用户识别处理。
(13)一种声信号处理装置,包括:
存储单元,存储用户独有的头部相关传递函数(HRTF);
获取单元,从存储单元获取用户独有的头部相关传递函数(HRTF);以及
声像定位处理单元,使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
(14)根据(13)的声信号处理装置,其中
声像定位处理单元
对从外部服务器获取的声信号执行声音定位处理。
(15)一种包括用户终端和服务器的声信号处理系统,其中
服务器
向用户终端发送音频信号,以及
用户终端包括
存储单元,存储用户独有的头部相关传递函数(HRTF),
获取单元,从存储单元获取用户独有的头部相关传递函数(HRTF),以及
声像定位处理单元,使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数,对从服务器接收的音频信号执行声音定位处理。
(16)一种在声信号处理装置中执行的声信号处理方法,该方法包括:
由用户识别单元执行用户识别处理;
由获取单元从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
由声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数执行声音定位处理。
(17)一种在声信号处理装置中执行的声信号处理方法,
声信号处理装置包括存储用户独有的头部相关传递函数(HRTF)的存储单元,该方法包括:
由获取单元从存储单元获取用户独有的头部相关传递函数(HRTF);以及
由声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数执行声音定位处理。
(18)一种使声信号处理装置执行声信号处理的程序,该程序包括:
使用户识别单元执行用户识别处理;
使获取单元从一个或多个头部相关传递函数(HRTF)中获取由用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
使声像定位处理单元使用由获取单元获取的用户独有的头部相关传递函数(HRTF)作为处理参数来执行声音定位处理。
此外,本文描述的一系列处理可以通过硬件、软件或其组合配置来执行。在由软件执行处理的情况下,记录有处理序列的程序可以在被安装在并入计算机的专用硬件的存储器中之后执行,或者可以在被安装在能够进行各种处理的通用计算机中之后执行。例如,这种程序可以预先记录在记录介质中。该程序可以从记录介质安装在计算机中。或者,可以通过诸如LAN(局域网)或互联网的网络来接收该程序,并将其安装在诸如内部硬盘的记录介质中。
注意,本文描述的处理不一定以所描述的时间序列顺序执行,并且可以根据需要或根据执行这些处理的设备的处理能力并行地或单独地执行这些处理。此外,在本说明书中,系统是指包括多个设备的逻辑集配置,并且各个配置的设备不一定包括在相同的外壳中。
工业实用性
如上所述,根据本公开的示例性方面的配置,实现了应用与由用户识别所识别的用户相对应的头部相关传递函数(HRTF)执行声音定位处理,并针对每个用户位置从输出单元进行输出的配置。
具体地,例如,包括有执行用户识别和用户位置识别处理的用户识别单元、和使用特定于用户的头部相关传递函数(HRTF)作为处理参数执行声音定位处理的声像定位处理单元。声像定位处理单元执行将特定于所识别用户的HRTF作为处理参数的声音定位处理,并将通过声音定位处理获得的信号输出到用于所识别用户位置的输出单元。在用户识别单元识别多个用户的情况下,声像定位处理单元使用多个用户中的每个用户的HRTF并行地执行声音定位处理,并将经处理的信号输出到用于每个用户位置的输出单元。
根据本配置,实现了应用与由用户识别所识别的用户相对应的头部相关传递函数(HRTF)执行声音定位处理,并针对每个用户位置从输出单元进行输出的配置。
附图标记列表
1 汽车
10 用户
21 左扬声器
22 右扬声器
31 虚拟左扬声器
32 虚拟右扬声器
41 真实左扬声器
42 真实右扬声器
50 声音源
60 应用HRTF的声像定位处理单元
70 HRTF存储单元
80 汽车
100 声信号处理装置
101 传感器
102 用户和用户位置识别单元
103 用户对应的HRTF获取单元
104 用户对应的HRTF数据库
105 应用HRTF的声像定位处理单元
110 用户
120 管理服务器
124 HRTF数据库
200 声信号处理装置
201 登机预约系统
202 管理服务器
210 HRTF数据库
251 用户
252 传感器
261 扬声器L
262 扬声器R
263 通信设备
271 用户
272 用户终端
273 耳机
301 用户
303 耳机
310 用户终端
311 用户对应的HRTF数据库
312 信号处理单元
313 通信单元
321 管理服务器
322 音乐传送服务器
501 CPU
502 ROM
503 RAM
504 总线
505 输入/输出接口
506 输入单元
507 输出单元
508 存储单元
509 通信单元
510 驱动器
511 可移动介质。

Claims (18)

1.一种声信号处理装置,包括:
用户识别单元,执行用户识别处理;
获取单元,从一个或多个头部相关传递函数(HRTF)中获取由所述用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
声像定位处理单元,使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,来执行声像定位处理。
2.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元还执行用户位置识别处理,以及
所述声像定位处理单元从靠近所述用户识别单元所识别的用户位置的扬声器,输出通过所述声像定位处理获得的信号。
3.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元针对多个用户执行所述用户识别处理,以及
所述声像定位处理单元使用在所述用户识别单元中识别的所述多个用户中的每个用户的所述头部相关传递函数(HRTF)作为处理参数,并行地执行所述声像定位处理。
4.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元基于由相机捕获的图像或所述用户识别处理和用户位置识别处理二者,来执行所述用户识别处理。
5.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元
基于传感器信息或所述用户识别处理和用户位置识别处理二者,来执行所述用户识别处理。
6.根据权利要求1所述的声信号处理装置,还包括
头部相关传递函数(HRTF)数据库,存储用户对应的所述头部相关传递函数(HRTF)。
7.根据权利要求1所述的声信号处理装置,其中
所述获取单元
接受来自所述用户识别单元的用户识别信息作为输入,基于所述用户识别信息从所述声信号处理装置的内部的数据库获取所述用户独有的所述头部相关传递函数(HRTF),并输出到所述声像定位处理单元。
8.根据权利要求1所述的声信号处理装置,其中
所述获取单元
接受来自所述用户识别单元的用户识别信息作为输入,基于所述用户识别信息从外部服务器中的数据库获取所述用户独有的所述头部相关传递函数(HRTF),并输出到所述声像定位处理单元。
9.根据权利要求1所述的声信号处理装置,其中
所述声像定位处理单元
执行停止向所述用户识别单元确定不存在所述用户的位置输出信号或减少向所述用户识别单元确定不存在所述用户的位置输出信号的处理。
10.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元
参考登机预约系统中的注册数据,以执行所述用户识别处理或所述用户识别处理和用户位置识别处理二者。
11.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元
基于所述用户佩戴的传感器或从用户终端接收到的信息,执行所述用户识别处理或所述用户识别处理和用户位置识别处理二者。
12.根据权利要求1所述的声信号处理装置,其中
所述用户识别单元
参考预先注册的用户成员信息以执行所述用户识别处理。
13.一种声信号处理装置,包括:
存储单元,存储用户独有的头部相关传递函数(HRTF);
获取单元,从所述存储单元获取所述用户独有的所述头部相关传递函数(HRTF);以及
声像定位处理单元,使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,来执行声像定位处理。
14.根据权利要求13所述的声信号处理装置,其中
所述声像定位处理单元
对从外部服务器获取的声信号执行所述声像定位处理。
15.一种包括用户终端和服务器的声信号处理系统,其中
所述服务器向所述用户终端发送音频信号,以及
所述用户终端包括:
存储单元,存储用户独有的头部相关传递函数(HRTF),
获取单元,从所述存储单元获取所述用户独有的所述头部相关传递函数(HRTF),以及
声像定位处理单元,使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,对从所述服务器接收的所述音频信号执行声像定位处理。
16.一种在声信号处理装置中执行的声信号处理方法,所述方法包括:
由用户识别单元执行用户识别处理;
由获取单元从一个或多个头部相关传递函数(HRTF)中获取由所述用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
由声像定位处理单元使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,执行声像定位处理。
17.一种在声信号处理装置中执行的声音信号处理方法,
所述声信号处理装置包括存储用户独有的头部相关传递函数(HRTF)的存储单元,所述方法包括:
由获取单元从所述存储单元获取所述用户独有的所述头部相关传递函数(HRTF);以及
由声像定位处理单元使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,执行声像定位处理。
18.一种使声信号处理装置执行声信号处理的程序,所述声信号处理包括:
使用户识别单元执行用户识别处理;
使获取单元从一个或多个头部相关传递函数(HRTF)中获取由所述用户识别单元识别的用户独有的头部相关传递函数(HRTF);以及
使声像定位处理单元使用由所述获取单元获取的所述用户独有的所述头部相关传递函数(HRTF)作为处理参数,来执行声像定位处理。
CN202080021565.1A 2019-03-22 2020-01-24 声信号处理装置、声信号处理系统、声信号处理方法和程序 Pending CN113574912A (zh)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2019-054090 2019-03-22
JP2019054090 2019-03-22
PCT/JP2020/002538 WO2020195084A1 (ja) 2019-03-22 2020-01-24 音響信号処理装置、音響信号処理システム、および音響信号処理方法、並びにプログラム

Publications (1)

Publication Number Publication Date
CN113574912A true CN113574912A (zh) 2021-10-29

Family

ID=72609718

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202080021565.1A Pending CN113574912A (zh) 2019-03-22 2020-01-24 声信号处理装置、声信号处理系统、声信号处理方法和程序

Country Status (6)

Country Link
US (1) US20220174446A1 (zh)
EP (1) EP3944639A4 (zh)
JP (1) JPWO2020195084A1 (zh)
KR (1) KR20210143174A (zh)
CN (1) CN113574912A (zh)
WO (1) WO2020195084A1 (zh)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240015460A1 (en) * 2020-11-25 2024-01-11 Sony Group Corporation Information processing device and information processing method
FR3116934B1 (fr) 2020-11-27 2023-05-19 Faurecia Clarion Electronics Europe Procédé et système de traitement audio pour un système audio d’appui-tête de siège

Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061197A (ja) * 2001-08-15 2003-02-28 Sony Corp 音響機器、シート、交通機関
JP2003111200A (ja) * 2001-09-28 2003-04-11 Sony Corp 音響処理装置
JP2007030732A (ja) * 2005-07-28 2007-02-08 Clarion Co Ltd 音響システム
JP2007053622A (ja) * 2005-08-18 2007-03-01 Clarion Co Ltd シートスピーカー用音響システム
US20080273723A1 (en) * 2007-05-04 2008-11-06 Klaus Hartung System and method for directionally radiating sound
JP2009260574A (ja) * 2008-04-15 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
CN101873522A (zh) * 2009-04-21 2010-10-27 索尼公司 声音处理设备、声像定位方法和声像定位程序
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
CN105681968A (zh) * 2014-12-08 2016-06-15 哈曼国际工业有限公司 使用面部识别调节扬声器
US20160311348A1 (en) * 2015-04-22 2016-10-27 Panasonic Avionics Corporation Passenger seat pairing system
JP2016225764A (ja) * 2015-05-28 2016-12-28 アルパイン株式会社 車載システム
JP2017135669A (ja) * 2016-01-29 2017-08-03 沖電気工業株式会社 音響再生装置及びプログラム
US20180091921A1 (en) * 2016-09-27 2018-03-29 Intel Corporation Head-related transfer function measurement and application
US10038966B1 (en) * 2016-10-20 2018-07-31 Oculus Vr, Llc Head-related transfer function (HRTF) personalization based on captured images of user
US10149089B1 (en) * 2017-05-31 2018-12-04 Microsoft Technology Licensing, Llc Remote personalization of audio

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006095688A1 (ja) * 2005-03-11 2006-09-14 Pioneer Corporation 情報再生装置、情報再生方法、情報再生プログラムおよびコンピュータに読み取り可能な記録媒体

Patent Citations (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003061197A (ja) * 2001-08-15 2003-02-28 Sony Corp 音響機器、シート、交通機関
JP2003111200A (ja) * 2001-09-28 2003-04-11 Sony Corp 音響処理装置
JP2007030732A (ja) * 2005-07-28 2007-02-08 Clarion Co Ltd 音響システム
JP2007053622A (ja) * 2005-08-18 2007-03-01 Clarion Co Ltd シートスピーカー用音響システム
US20080273723A1 (en) * 2007-05-04 2008-11-06 Klaus Hartung System and method for directionally radiating sound
JP2009260574A (ja) * 2008-04-15 2009-11-05 Sony Ericsson Mobilecommunications Japan Inc 音声信号処理装置、音声信号処理方法及び音声信号処理装置を備えた携帯端末
CN101873522A (zh) * 2009-04-21 2010-10-27 索尼公司 声音处理设备、声像定位方法和声像定位程序
US20120183161A1 (en) * 2010-09-03 2012-07-19 Sony Ericsson Mobile Communications Ab Determining individualized head-related transfer functions
CN105681968A (zh) * 2014-12-08 2016-06-15 哈曼国际工业有限公司 使用面部识别调节扬声器
US20160311348A1 (en) * 2015-04-22 2016-10-27 Panasonic Avionics Corporation Passenger seat pairing system
JP2016225764A (ja) * 2015-05-28 2016-12-28 アルパイン株式会社 車載システム
JP2017135669A (ja) * 2016-01-29 2017-08-03 沖電気工業株式会社 音響再生装置及びプログラム
US20180091921A1 (en) * 2016-09-27 2018-03-29 Intel Corporation Head-related transfer function measurement and application
US10038966B1 (en) * 2016-10-20 2018-07-31 Oculus Vr, Llc Head-related transfer function (HRTF) personalization based on captured images of user
US10149089B1 (en) * 2017-05-31 2018-12-04 Microsoft Technology Licensing, Llc Remote personalization of audio

Also Published As

Publication number Publication date
KR20210143174A (ko) 2021-11-26
US20220174446A1 (en) 2022-06-02
EP3944639A1 (en) 2022-01-26
EP3944639A4 (en) 2022-05-18
JPWO2020195084A1 (zh) 2020-10-01
WO2020195084A1 (ja) 2020-10-01

Similar Documents

Publication Publication Date Title
EP2288178A1 (en) A device for and a method of processing audio data
US8014884B2 (en) Audio conversation apparatus
EP3231166B1 (en) Enhanced conversational communications in shared acoustic space
US20070263823A1 (en) Automatic participant placement in conferencing
US20050213786A1 (en) Acoustic system for vehicle and corresponding device
KR102081336B1 (ko) 오디오 시스템, 오디오 장치 및 오디오 장치의 채널 맵핑 방법
JP2002209300A (ja) 音像定位装置、並びに音像定位装置を用いた会議装置、携帯電話機、音声再生装置、音声記録装置、情報端末装置、ゲーム機、通信および放送システム
KR20170122717A (ko) 자동차에서 3 차원 사운드 재생을 위한 라우드 스피커 배치
US11221820B2 (en) System and method for processing audio between multiple audio spaces
US20220174446A1 (en) Acoustic signal processing device, acoustic signal processing system, acoustic signal processing method, and program
CN107135301A (zh) 一种音频数据处理方法及装置
CN112397084A (zh) 自适应调整多媒体音量方法、车载终端及计算机存储介质
CN114402631A (zh) 分离和渲染话音信号和周围环境信号
US11438721B2 (en) Out-of-head localization system, filter generation device, method, and program
CN115777203A (zh) 信息处理装置、输出控制方法和程序
CN111768791A (zh) 一种音频播放方法、装置和车辆
CN108650592B (zh) 一种实现颈带式环绕立体声的方法及立体声控制系统
CN116405837A (zh) 一种立体声转多通道声音的虚拟环绕方法及系统
KR102613035B1 (ko) 위치보정 기능의 이어폰 및 이를 이용하는 녹음방법
JP7188545B2 (ja) 頭外定位処理システム及び頭外定位処理方法
CN112954548B (zh) 一种将终端麦克风及耳麦采集的声音结合的方法及装置
US11218832B2 (en) System for modelling acoustic transfer functions and reproducing three-dimensional sound
US20240147184A1 (en) Apparatus and method for supplying sound in a space
JP6972858B2 (ja) 音響処理装置、プログラム及び方法
WO2020090456A1 (ja) 信号処理装置、信号処理方法、および、プログラム

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination