CN116913328B - 音频处理方法、电子设备及存储介质 - Google Patents

音频处理方法、电子设备及存储介质 Download PDF

Info

Publication number
CN116913328B
CN116913328B CN202311166555.9A CN202311166555A CN116913328B CN 116913328 B CN116913328 B CN 116913328B CN 202311166555 A CN202311166555 A CN 202311166555A CN 116913328 B CN116913328 B CN 116913328B
Authority
CN
China
Prior art keywords
audio
angle
interest
user
sound source
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
CN202311166555.9A
Other languages
English (en)
Other versions
CN116913328A (zh
Inventor
许剑峰
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Honor Device Co Ltd
Original Assignee
Honor Device Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Honor Device Co Ltd filed Critical Honor Device Co Ltd
Priority to CN202311166555.9A priority Critical patent/CN116913328B/zh
Publication of CN116913328A publication Critical patent/CN116913328A/zh
Application granted granted Critical
Publication of CN116913328B publication Critical patent/CN116913328B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10037A/D conversion, D/A conversion, sampling, slicing and digital quantisation or adjusting parameters thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/011Arrangements for interaction with the human body, e.g. for user immersion in virtual reality
    • GPHYSICS
    • G11INFORMATION STORAGE
    • G11BINFORMATION STORAGE BASED ON RELATIVE MOVEMENT BETWEEN RECORD CARRIER AND TRANSDUCER
    • G11B20/00Signal processing not specific to the method of recording or reproducing; Circuits therefor
    • G11B20/10Digital recording or reproducing
    • G11B20/10009Improvement or modification of read or write signals
    • G11B20/10046Improvement or modification of read or write signals filtering or equalising, e.g. setting the tap weights of an FIR filter

Landscapes

  • Engineering & Computer Science (AREA)
  • Signal Processing (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Stereophonic System (AREA)

Abstract

本申请实施例涉及数据处理领域,尤其涉及一种音频处理方法、电子设备及存储介质。在该方法中,电子设备获取用户的兴趣角度;用户的兴趣角度用于表征用户感兴趣的方向;响应于用户的兴趣角度为第一兴趣角度,播放目标音频;目标音频包括多个音源角度的音频;响应于所述用户的兴趣角度从所述第一兴趣角度变化为第二兴趣角度,播放调整后的所述目标音频;调整后的目标音频中处于第一音源角度的音频的信号强度大于调整前处于第一音源角度的音频的信号强度。通过这种方法,可以提升用户感兴趣的音频的声音的清晰程度,可以提升用户的使用体验。

Description

音频处理方法、电子设备及存储介质
技术领域
本申请实施例涉及数据处理领域,尤其涉及一种音频处理方法、电子设备及存储介质。
背景技术
随着科学技术的飞速发展以及人们对于更佳音效的追求,越来越多的电子设备使用空间音频技术,为用户营造多维度的音响效果,以使用户产生身临其境的听觉体验。
用户在使用电子设备时,如果电子设备同时播放了多个声音,这会导致用户听到的声音比较嘈杂,用户会难以听清电子设备同时播放的多个声音,用户体验比较差。
发明内容
本申请实施例提供一种音频处理方法、电子设备及存储介质,可以提升用户感兴趣的音频的声音的清晰程度,提升用户体验。
为达到上述目的,本申请的实施例采用如下技术方案:
第一方面,提供了一种音频处理方法,该方法可以应用于电子设备,该电子设备可以是扩展现实设备、增强现实设备、混合现实设备等等具有空间音频播放能力的电子设备。该方法包括:电子设备获取用户的兴趣角度;用户的兴趣角度用于表征该用户感兴趣的方向;如,该用户注视的方向,该用户进行交互的方向等等。之后,电子设备响应于用户的兴趣角度为第一兴趣角度,播放目标音频。接下来,电子设备响应于用户的兴趣角度从第一兴趣角度变化为第二兴趣角度,播放调整后的目标音频;调整后的目标音频中处于第一音源角度的音频的信号强度大于调整前处于第一音源角度的音频的信号强度。音源角度用于表征发出音频的音源与用户之间的位置关系,如表征发出音频的音源对象与用户之间的方向关系。其中,第一音源角度与第二兴趣角度相匹配,第一音源角度与第一兴趣角度不匹配;第二音源角度与第二兴趣角度、第一兴趣角度不匹配。
在上述方法中,目标音频中的音频会跟随用户的兴趣角度变化。当用户的兴趣角度与第一音源角度匹配时,也就表示用户对该第一音源角度的音频比较感兴趣,电子设备就会增强第一音源角度的音频。这样,用户感兴趣的音频就会在目标音频中被凸显出来;那么,用户感兴趣的音频的清晰程度就会被提升,用户就可以将其感兴趣的音频听得更加清楚,可以提升用户的使用体验。
在第一方面的一种可能的设计中,上述调整后的目标音频中处于第二音源角度的音频的信号强度保持不变;或者,调整后的目标音频中处于第二音源角度的音频的信号强度变小。其中,第二音源角度与第一兴趣角度、第二兴趣角度不匹配。
在这种设计中,通过在目标音频中未与用户兴趣角度匹配的音频的信号强度(如,第二兴趣角度的音频)保持不变。这样可以使得目标音频中用户感兴趣的音频被凸显得更加明显;用户感兴趣的音频的清晰程度就会被提升,用户就可以将其感兴趣的音频听得更加清楚。
在第一方面的一种可能的设计中,上述第一音源角度与第一兴趣角度相匹配包括:第一音源角度与第一兴趣角度之间的差异小于或等于预设角度阈值。上述第二音源角度与第一兴趣角度不匹配包括:第二音源角度与第一兴趣角度之间的差异大于预设角度阈值。
在第一方面的一种可能的设计中,上述方法还包括:电子设备响应于用户的兴趣角度从第二兴趣角度变化为第三兴趣角度,增大目标音频包括的音频的信号强度,并播放增大后的目标音频。其中,第三兴趣角度与第一音源角度之间的差异,小于第二兴趣角度与第一音源角度之间的差异,增大后的目标音频中处于第一音源角度的音频的信号强度大于增大前处于第一音源角度的音频的信号强度。
在这种设计中,音频的信号强度还会基于用户的兴趣角度与音频的音源角度之间的差异进行不同程度的增大。在用户的兴趣角度与音频的音源角度之间的差异不断减小的过程中,用户感兴趣的音频的声音强度也会不断增大。这样,用户就会在听觉上感受到,音频的声音是持续、稳定增大的,不会突然变大。由此,既可以使用户将用户感兴趣的音频听得更加清楚,又可以使得用户感兴趣的音频的变化比较稳定,不会产生突变,可以进一步地提升用户的使用体验。
在第一方面的一种可能的设计中,上述方法还包括:电子设备响应于用户的兴趣角度从第二角度变化为第四角度,播放减小后的目标音频。第四兴趣角度与第一音源角度未匹配。减小后的目标音频中处于的第一音源角度的音频的信号强度小于减小前处于第一音源角度的音频的信号强度。
在第一方面的一种可能的设计中,目标音频包括多个声道的音频数据(如,包括左声道的音频数据和右声道的音频数据)。上述电子设备响应于用户的兴趣角度为第一兴趣角度,播放目标音频,包括:电子设备从目标音频中分离得到每个声道的音频数据。电子设备对于任一声道进行子带划分得到多个子带的音频数据。对于多个子带中的每个子带,电子设备根据子带的音源角度,对子带的音频数据进行强度处理,得到强度处理后的目标音频。之后,电子设备播放强度处理后的目标音频。其中,子带的音源角度可以用于表征子带对应的音频与用户之间的位置关系。上述强度处理包括:在子带的音源角度与第一兴趣角度的差值小于或等于预设角度阈值的情况下,电子设备增强子带的音频信号强度,在子带的音源角度与第一兴趣角度的差值大于预设角度阈值的情况下,子带的音频信号强度保持不变。
在这种设计中,电子设备播放的强度处理后的目标音频中,与用户的兴趣角度匹配的子带的音频信号强度就会被增大。也就是说,用户感兴趣的子带的音频就会被凸显出来,用户就可以将其感兴趣的子带的音频听得更加清楚,可以提升用户的使用体验。
在第一方面的一种可能的设计中,上述子带的音源角度是根据子带对应的每个声道之间的音频差异以及三角函数关系确定的;上述音频差异包括:相位差异、振幅差异、频率差异、能量差异和波形差异之中的一种或多种。
在这种设计中,电子设备可以通过子带在每个声道上的音频差异准确地得到子带的音源角度。
在第一方面的一种可能的设计中,上述电子设备增强子带的音频信号强度,包括:基于子带的音源角度与第一兴趣角度之间的差异,得到子带的声音强度的增益,增益与差异负相关,基于增益增强子带的音频信号强度。
在这种设计中,电子设备可以基于子带的音源角度与第一兴趣角度之间的差异,得到子带的声音强度的增益。差异越小,增益越大,也就是说用户感兴趣的子带的声音强度也就越大。这会使得,在第一兴趣角度与音源角度之间的差异不断减小的过程中,用户感兴趣的子带的声音是持续、稳定增大的,不会突然变大。由此,既可以使用户将其感兴趣的子带的音频听得更加清楚,又可以使得子带的音频强度变化得比较稳定,不会产生突变,可以进一步地提升用户的使用体验。
在第一方面的一种可能的设计中,电子设备响应于用户的兴趣角度为第一兴趣角度,播放目标音频,包括:电子设备从目标音频中分离得到每个音源的音频数据;每个音源对应多个声道的音频数据;对于多个音源中每个音源,电子设备根据音源的音源角度,对音源的音频数据进行强度处理;强度处理包括:在音源的音源角度与第一兴趣角度的差值小于或等于预设角度阈值的情况下,增强音源对应的每个声道的音频信号强度,在音源的音源角度与第一兴趣角度的差值大于预设角度阈值的情况下,音源的音频信号强度保持不变。接下来,电子设备播放强度处理后的目标音频。
在这种设计中,电子设备播放的强度处理后的目标音频中,与用户的兴趣角度匹配的音源的音频信号强度就会被增大。也就是说,用户感兴趣的音源的音频就会被凸显出来,用户就可以将其感兴趣的音源的音频听得更加清楚,可以提升用户的使用体验。
在第一方面的一种可能的设计中,音源的音源角度根据音源对应的多个声道之间的音频差异以及三角函数关系确定;音频差异包括:相位差异、振幅差异、频率差异、能量差异和波形差异之中的一种或多种。
在这种设计中,电子设备可以通过音源在每个声道上的音频差异准确地得到子带的音源角度。
在第一方面的一种可能的设计中,增强音源对应的每个声道的音频信号强度,包括:电子设备基于音源的音源角度与第一兴趣角度之间的差异,得到音源的声音强度的增益,增益与差异负相关。之后电子设备基于增益增强每个声道的音频信号强度。
在这种设计中,电子设备可以基于音源的音源角度与第一兴趣角度之间的差异,得到子带的声音强度的增益。差异越小,增益越大,也就是说用户感兴趣的子带的声音强度也就越大。这会使得,在第一兴趣角度与音源角度之间的差异不断减小的过程中,用户感兴趣的音源的声音是持续、稳定增大的,不会突然变大。由此,既可以使用户将其感兴趣的音源的声音听得更加清楚,又可以使得子带的音频强度变化得比较稳定,不会产生突变,可以进一步地提升用户的使用体验。
在第一方面的又一种可能的设计中,上述电子设备获取用户的兴趣角度,包括:电子设备响应于用户的交互操作得到用户的兴趣角度。其中,上述交互操作包括用户的指示操作,以及用户的语音识别操作。在这种设计中,用户可以通过交互操作向电子设备输入该用户感兴趣的方向,这样,电子设备就可以准确地获取到用户的兴趣方向。
在第一方面的另一种可能的设计中,电子设备包括摄像头。上述用户的兴趣角度包括用户的交互角度,用户的交互角度用于表征与用户产生交互的方向。上述电子设备获取用户的兴趣角度,包括:电子设备通过摄像头拍摄视场图片,基于视场图片得到交互角度。
在这种设计中,考虑到与用户进行互动的方向可以在一定程度上反应出用户感兴趣的方向。基于此,电子设备可以通过摄像头拍摄视场图片,并从视场图片中得到交互角度。这样,可以比较准确地获取到用户的兴趣方向。
在第一方面的又一种可能的设计中,电子设备还可以基于摄像头拍摄得到的视场图片对眼动跟踪传感器采集到的注视角度进行校正。这样,感觉准确地确定出用户的注视方向,也就是说,可以提高电子设备获取的注视角度的准确程度。
在第一方面的另一种可能的设计中,上述电子设备获取用户的兴趣角度包括:电子设备基于音频在电子设备坐标系中的坐标,得到用户的兴趣角度。
第二方面,提供了一种音频处理方法,该方法可以应用于电子设备,该电子设备可以是扩展现实设备、增强现实设备、混合现实设备等等具有空间音频播放能力的电子设备。该方法包括:电子设备获取用户的兴趣角度;用户的兴趣角度用于表征该用户感兴趣的方向;如,该用户注视的方向,该用户进行交互的方向等等。之后,电子设备响应于用户的兴趣角度为第一兴趣角度,播放目标音频。接下来,电子设备响应于用户的兴趣角度从第一兴趣角度变化为第二兴趣角度,调整目标音频包括的音频的信号强度,并播放调整后的目标音频;
调整后的目标音频中处于第三音源角度的音频的信号强度小于调整后处于第三音源角度的音频的信号强度。音源角度用于表征发出音频的音源与用户之间的位置关系,如表征发出音频的音源对象与用户之间的方向关系。其中,第一音源角度与第二兴趣角度相匹配,第一音源角度与第一兴趣角度不匹配;第三音源角度与第二兴趣角度、第一兴趣角度不匹配。
在上述方法中,目标音频中的音频会跟随用户的兴趣角度变化。当用户的兴趣角度与第一音源角度匹配时,也就表示用户对该第一音源角度的音频比较感兴趣,电子设备就会减弱其他音源角度如第三音源角度的音频。这样,相对来讲,第一音源角度的音频就会在目标音频中被凸显出来;那么,用户感兴趣的音频的清晰程度就会被提升,用户就可以将其感兴趣的音频听得更加清楚,可以提升用户的使用体验。
第三方面,提供了一种电子设备,该电子设备包括存储器、一个或多个处理器,存储器与处理器耦合;其中,存储器中存储有计算机程序代码,计算机程序代码包括计算机指令。当计算机指令被处理器执行时,使得电子设备可以执行上述第一方面及第一方面任一种可能的设计所提供的方法;或者使得电子设备可以执行上述第二方面及第二方面任一种可能的设计所提供的方法。
第四方面,提供了一种计算机可读存储介质,该计算机可读存储介质包括计算机指令,当计算机指令在电子设备上运行时,使得电子设备可以执行上述第一方面及第一方面任一种可能的设计所提供的方法;或者使得电子设备可以执行上述第二方面及第二方面任一种可能的设计所提供的方法。
第五方面,提供了一种包含指令的计算机程序产品,该计算机程序产品在电子设备上运行时,使得电子设备可以执行上述第一方面及第一方面任一种可能的设计所提供的方法;或者使得电子设备可以执行上述第二方面及第二方面任一种可能的设计所提供的方法。
第六方面,提供了一种音频处理芯片,该音频处理芯片应用于包括存储器和扬声器的电子设备,该芯片包括至少一个处理器和至少一个接口电路,处理器和接口电路可以通过线路互联,接口电路用于从电子设备的存储器中接收信号,并向处理器发送信号,该信号包括存储器中存储的计算机指令;当处理器执行该计算机指令时,电子设备执行上述第一方面及第一方面任一种可能的设计所提供的方法;或者执行上述第二方面及第二方面任一种可能的设计所提供的方法。
第七方面,提供了一种音频模组,该音频模组包括上述第六方面提供的音频处理芯片和扬声器。
其中,第二方面至第七方面中任一种设计方式所带来的技术效果可以参见第一方面中不同设计方式所带来的技术效果,此处不再赘述。
附图说明
图1为本申请实施例提供的虚拟演唱会场景的示意图;
图2为本申请实施例提供的一种音频处理方法的使用场景示意图;
图3为本申请实施例提供的一种电子设备的硬件结构示意图;
图4为本申请实施例提供的一种电子设备的结构示意图;
图5为本申请实施例提供的一种音频处理方法的应用场景示意图;
图6为本申请实施例提供的一种空间音频技术的原理示意图;
图7为本申请实施例提供的一种音频处理方法的流程示意图;
图8为本申请实施例提供的一种XR眼镜坐标系的示意图;
图9为本申请实施例提供的一种用户的交互操作的示意图;
图10为本申请实施例提供的一种注视角度校准的示意图;
图11为本申请实施例提供的一种发声角度获取的流程的示意图;
图12为本申请实施例提供的又一种发声角度获取的流程示意图;
图13为本申请实施例提供的一种音源分离神经网络的原理示意图;
图14为本申请实施例提供的一种目标对象确定原理示意图;
图15为本申请实施例提供的一种音频处理方法音频处理效果示意图;
图16为本申请实施例提供的又一种音频处理方法音频处理效果示意图;
图17为本申请实施例提供的另一种音频处理方法音频处理效果示意图;
图18为本申请实施例提供的一种音频处理装置结构示意图;
图19为本申请实施例提供的又一种音频处理装置结构示意图;
图20为本申请实施例提供的一种音频处理芯片的结构示意图;
图21为本申请实施例提供的另一种电子设备的硬件结构示意图。
具体实施方式
下面将结合本申请实施例中的附图,对本申请实施例中的技术方案进行描述。其中,在本申请的描述中,除非另有说明,“/”表示前后关联的对象是一种“或”的关系,例如,A/B可以表示A或B;本申请中的“和/或”仅仅是一种描述关联对象的关联关系,表示可以存在三种关系,例如,A和/或B,可以表示:单独存在A,同时存在A和B,单独存在B这三种情况,其中A,B可以是单数或者复数。并且,在本申请实施例的描述中,除非另有说明,“多个”是指两个或多于两个。“以下至少一项(个)”或其类似表达,是指的这些项中的任意组合,包括单项(个)或复数项(个)的任意组合。例如,a,b,或c中的至少一项(个),可以表示:a,b,c,a-b,a-c,b-c,或a-b-c,其中a,b,c可以是单个,也可以是多个。另外,为了便于清楚描述本申请实施例的技术方案,在本申请的实施例中,采用了“第一”、“第二”等字样对功能和作用基本相同的相同项或相似项进行区分。本领域技术人员可以理解“第一”、“第二”等字样并不对数量和执行次序进行限定,并且“第一”、“第二”等字样也并不限定一定不同。
同时,在本申请实施例中,“示例性的”或者“例如”等词用于表示作例子、例证或说明。本申请实施例中被描述为“示例性的”或者“例如”的任何实施例或设计方案不应被解释为比其它实施例或设计方案更优选或更具优势。确切而言,使用“示例性的”或者“例如”等词旨在以具体方式呈现相关概念,便于理解。
随着科学技术的飞速发展以及人们对于更佳音效的追求,越来越多的电子设备使用空间音频技术,为用户营造多维度的音响效果,以使用户产生身临其境的听觉体验。
其中,空间音频技术是一种通过操控立体声扬声器、环绕声扬声器、扬声器阵列或者耳机等发音设备所产生的声音,来实现让用户感受到声音似乎是从多维度的空间中虚拟的位置发出的一种技术。
用户在使用电子设备时,如果电子设备同时播放了多个声音(如,风声、鸟叫声、说话声等等),这会导致用户听到的声音比较嘈杂,用户会难以听清,用户体验比较差。
示例性的,参见图1,用户在使用电子设备观看虚拟演唱会。此时,电子设备上会同时播放多个声音,如舞台上演奏者的声音,乐器的声音(如,贝斯、鼓、吉他等等)。此时,由于电子设备会同时播放多个声音,比较嘈杂,上述多个声音用户都难以听清,用户的使用体验比较差。
有鉴于此,本申请提供一种音频处理方法。在该方法中,电子设备获取用户的兴趣角度,兴趣角度用于表征用户感兴趣的方向。之后,电子设备基于用户的兴趣角度播放音频。在电子设备播放的音频中,与上述兴趣角度匹配的音频(如,演奏者101)被增强,和/或,与上述兴趣角度未匹配的音频(如,舞台上除101外的演奏者,或者乐器)减弱。这样,用户在听觉体验上就会感觉到,来自用户感兴趣的方向上的音频被凸显出来,会被用户听得更加清楚、清晰,可以提升用户的使用体验。
本申请实施例提供的音频处理方法,可以应用于用户对电子设备的使用过程中。
示例性的,参见图2。用户可以佩戴电子设备100,以及在听觉上体验的到电子设备100提供的多维度音响效果。
其中,上述电子设备100可以是,扩展现实(extended reality,XR)设备,如XR眼镜、XR头戴设备等;增强现实(augmented reality,AR)设备如,AR眼镜、AR头戴设备;虚拟现实(virtual reality,VR)设备如,VR眼镜、VR头戴设备等;混合现实(mixed reality,MR)设备如,MR眼镜、MR头戴设备等等,具有空间音频播放能力的电子设备,本申请实施例对电子设备的产品形态不做特殊限制。
在详细说明本申请实施例提供的音频处理方法前,先在此介绍电子设备的结构。
如图3所示,电子设备100可以包括处理器110,外部存储器接口120,内部存储器121,通用串行总线(universal serial bus,USB)接口130,电源管理模块141,天线,无线通信模块150,显示装置140,眼动跟踪传感器142,摄像头193,视图方向传感器143,音频模块170,扬声器170A,麦克风170B,耳机接口170C等。
可以理解的是,本发明实施例示意的结构并不构成对电子设备100的具体限定。在本申请另一些实施例中,电子设备100可以包括比图示更多或更少的部件,或者组合某些部件,或者拆分某些部件,或者不同的部件布置。图示的部件可以以硬件,软件或软件和硬件的组合实现。
处理器110可以包括一个或多个处理单元,例如:处理器110可以包括应用处理器(application processor,AP),调制解调处理器,图形处理器(graphics processingunit,GPU),图像信号处理器(image signal processor,ISP),控制器,存储器,视频编解码器,数字信号处理器(digital signal processor,DSP),基带处理器,和/或神经网络处理器(neural-network processing unit,NPU)等。其中,不同的处理单元可以是独立的器件,也可以集成在一个或多个处理器中。
其中,控制器可以是电子设备100的神经中枢和指挥中心。控制器可以根据指令操作码和时序信号,产生操作控制信号,完成取指令和执行指令的控制。
处理器110中还可以设置存储器,用于存储指令和数据。在一些实施例中,处理器110中的存储器为高速缓冲存储器。该存储器可以保存处理器110刚用过或循环使用的指令或数据。如果处理器110需要再次使用该指令或数据,可从所述存储器中直接调用。避免了重复存取,减少了处理器110的等待时间,因而提高了系统的效率。
无线通信模块150可以提供应用在电子设备100上的包括无线局域网(wirelesslocal area networks,WLAN)(如无线保真(wireless fidelity,Wi-Fi)网络),蓝牙(bluetooth,BT),全球导航卫星系统(global navigation satellite system,GNSS),调频(frequency modulation,FM),近距离无线通信技术(near field communication,NFC),红外技术(infrared,IR)等无线通信的解决方案。
显示装置140可以包括显示屏或投影仪等等,可以用于显示图像,视频等。显示屏包括显示面板。显示面板可以采用液晶显示屏(liquid crystal display,LCD),有机发光二极管(organic light-emitting diode,OLED),有源矩阵有机发光二极体或主动矩阵有机发光二极体(active-matrix organic light emitting diode的,AMOLED),柔性发光二极管(flex light-emitting diode,FLED),Miniled,MicroLed,Micro-oLed,量子点发光二极管(quantum dot light emitting diodes,QLED)等。
外部存储器接口120可以用于连接外部存储卡,例如Micro SD卡,实现扩展电子设备100的存储能力。外部存储卡通过外部存储器接口120与处理器110通信,实现数据存储功能。例如将音乐,视频等文件保存在外部存储卡中。
内部存储器121可以用于存储计算机可执行程序代码,所述可执行程序代码包括指令。处理器110通过运行存储在内部存储器121的指令,从而执行电子设备100的各种功能应用以及数据处理。例如,在本申请实施例中,处理器110可以通过执行存储在内部存储器121中的指令,内部存储器121可以包括存储程序区和存储数据区。其中,存储程序区可存储操作系统,至少一个功能所需的应用程序(比如声音播放功能,图像播放功能等)等。
USB接口130是符合USB标准规范的接口,具体可以是Mini USB接口,Micro USB接口,USB Type C接口等。USB接口130可以用于连接充电器为电子设备100提供电能,也可以用于电子设备100与外围设备之间传输数据。也可以用于连接耳机,通过耳机播放音频。该接口还可以用于连接其他电子设备,例如AR设备等。
摄像头193用于捕获静态图像或视频。物体通过镜头生成光学图像投射到感光元件。感光元件可以是电荷耦合器件(charge coupled device,CCD)或互补金属氧化物半导体(complementary metal-oxide-semiconductor,CMOS)光电晶体管。或者,感光元件也可以是光电二极管(photodiode)等等,具有将光信号转换为电信号能力的器件。
音频模块170用于将数字音频信息转换成模拟音频信号输出,也用于将模拟音频输入转换为数字音频信号。音频模块170还可以用于对音频信号编码和解码。在一些实施例中,音频模块170可以设置于处理器110中,或将音频模块170的部分功能模块设置于处理器110中。
扬声器170A,也称“喇叭”,用于将音频电信号转换为声音信号。电子设备100可以通过扬声器170A播放音频。其中,电子设备可以有设置至少两个位置不同的扬声器170A,以实现空间音频技术。
麦克风170B,也称“话筒”,“传声器”,用于将声音信号转换为电信号。电子设备100可以设置至少一个麦克风170B。在另一些实施例中,电子设备100可以设置两个麦克风170B,除了采集声音信号,还可以实现降噪功能。在另一些实施例中,电子设备100还可以设置三个,四个或更多麦克风170B,实现采集声音信号,降噪,还可以识别声音来源,实现定向录音功能等。
耳机接口170C用于连接有线耳机。耳机接口170C可以是USB接口130,也可以是3.5mm的开放移动电子设备平台(open mobile terminal platform,OMTP)标准接口,美国蜂窝电信工业协会(cellular telecommunications industry association of the USA,CTIA)标准接口。
其中,摄像头193还可以包括:眼动跟踪传感器142、视图方向传感器143等。
眼动跟踪传感器142也称“眼动仪”、“双目眼动仪”等等,用于拍摄使用电子设备100的用户的眼球得到眼动数据,以获得用户的注视角度。
视图方向传感器143也称视场(field of view,FOV)相机,用于拍摄使用电子设备100的用户的视野中的图像得到FOV图像。
在一些实施例中,电子设备100也可以通过视图方向传感器143,拍摄得到FOV图像,并通过电子设备的显示装置140显示FOV图像;这样,用户就可以在显示装置140上看到真实环境中的图像。
示例性的,电子设备100可以通过显示装置140,显示虚拟影像。并通过音频模块170中的扬声器170A输出空间音频。这样,用户就可以在电子设备100上看到电子设备100的处理器110基于存储器中的代码生成的虚拟对象,以及用户还可以听到虚拟对象的音频。
又示例性的,电子设备100还可以通过麦克风170B采集电子设备100的真实环境的音频,并通过扬声器170A输出,真实环境的音频。可以理解的,对于一些电子设备,由于其密封性较好,真实环境中的音频可能会被削弱,这会导致用户无法听清真实环境中的音频。因此,电子设备可以通过麦克风170B采集真实环境中的音频,之后,再通过扬声器170A输出。这样,使用电子设备的用户就可以清楚地听到真实环境中的音频。
以下,将以电子设备100是扩展现实(XR)眼镜200为例,对电子设备100的结构进行进一步介绍。
示例性的,参见图4中的A部分,图4的A部分中示出了XR眼镜200的外侧结构示意图。XR眼镜200的每个镜腿上设置有扬声器170A1、扬声器170A2。并通过扬声器170A1和扬声器170A2,输出两个声道的音频数据,以使得XR眼镜200具有空间音频能力。XR眼镜的镜框的中心处设置有视图方向传感器143,并通过视图方向传感器143,拍摄得到FOV图像。其中,扬声器170A1、扬声器170A2可以用于,播放通过本申请实施例提供的音频处理方法,处理后的音频数据。
又示例性的,参见图4中的B部分,图4的B部分中示出了XR眼镜200内侧结构示意图。XR眼镜200的镜框的内侧有眼动跟踪传感器142。其中,眼动跟踪传感器142的数量可以设置为一个或更多(图4的B部分中仅示出两个),眼动跟踪传感器142可以拍摄使用XR眼镜200的用户的眼球得到眼动数据,并根据眼动数据得到用户的注视角度。如,拍摄用户的左眼球得到用户的左眼眼动数据,并根据左眼眼动数据得到左眼视线,之后根据左眼视线得到用户的注视角度。
需要指出的是,图4中仅示出了XR眼镜200的结构的一种示例,并不构成对XR眼镜200的结构的限定。XR眼镜200的结构也可以有其他更多的设计方式。具体可以根据实际的使用情况对XR眼镜的结构进行设计,本申请对此不做任何限制。
示例性的,参见图5,图5的A部分示出了,虚拟视频会议场景;假如用户使用XR眼镜正在进行虚拟视频会议,用户通过XR眼镜看到的虚拟视频会议的图像400。图像400中包括了,虚拟对象401和真实对象402。
其中,虚拟对象401可以理解为,XR眼镜通过处理器生成的对象;该虚拟对象401不存在于用户当前所处的空间中,也就是说,如果用户摘下XR眼镜,用户不会看到虚拟对象401。真实对象402可以理解为,用户当前所处的空间中包括的对象,也就是说,如果用户摘下XR眼镜,用户可以看到真实对象402。对于真实对象402来讲,其可以是由XR眼镜的视野相机拍摄,经过处理器处理后,在XR眼镜的显示装置上显示的;也可以是用户透过XR眼镜的眼镜镜片观察到的。具体的,可以根据实际的使用情况进行设计,本申请实施例对此不做任何限制。
参见图5的B部分,图5的B部分示出了,虚拟演唱会场景;假如用户使用XR眼镜正在观看虚拟演唱会,用户可以通过XR眼镜看到虚拟演唱会的图像410。图像410中包括了,多个演奏者和多个乐器(如贝斯、吉他、鼓)。参见图5的C部分,图5的C部分中示出了,虚拟景区场景;加入用户使用XR眼镜正在游览虚拟景区,用户可以通过XR眼镜看到虚拟景区的图像420。图像420中包括了,山峰、太阳、云朵。
需要指出的是,图5的A部分示出的虚拟视频会议场景,仅为用户对电子设备的一种使用示例,电子设备还具有其他应用场景,如观看演唱会(图5的B部分所示),游览景区(如5的C部分所示)等等。具体的,可以根据实际的使用情况对电子设备的应用场景进行设计,本申请对此不做任何限制。
接下来,结合上述虚拟视频会议场景,对XR眼镜上的空间音频技术进行简要介绍。
示例性的,参见图6;假设XR眼镜具有两个音频输出通道(声道),也就是说,XR眼镜具有至少两个扬声器。用户500佩戴XR眼镜正在与虚拟对象501和真实对象502进行虚拟视频会议。虚拟对象501位于用户500的正前方,真实对象502位于用户500的左前方。由于虚拟对象501位于用户500的正前方,因此XR眼镜的两个声道(如,左声道和右声道)的音频,二者的音量大小是一致的。这样,用户500就可以在听觉上感受到虚拟对象501是位于该用户500的正前方。由于真实对象502位于用户500的左前方,因此XR眼镜的两个声道的音频,二者的音量大小是不一致的,如左声道音频的音量会大于右声道音频的音量。这样,用户500就可以在听觉上感受到真实对象502是位于该用户500的左前方(如,左前方45°)。基于此,通过空间音频技术,用户就可以在XR眼镜上感受到多维度的音响效果,就可以产生身临其境的听觉体验。其中,真实对象502的声音可以是,由真实对象502佩戴的XR眼镜采集后,由用户500的XR眼镜的扬声器播放的。或者,真实对象502的声音也可以是,由用户500的XR眼镜的麦克风采集后,通过用户500的XR眼镜的扬声器播放的。本申请实施例对此不做任何限制。
可以理解的是,对于不同的电子设备、不同的声道数量,空间音频技术也会有不同的应用方式,具体可以根据实际使用需要进行设计,本申请实施例对此不做任何限制。
下面,将结合图5示出的虚拟视频会议场景,以电子设备是图4所示的眼镜为例,对本申请实施例提供的音频处理方法进行详细介绍。
参见图7,本申请实施例提供的音频处理方法可以包括步骤S600-步骤S603。
S600.在XR眼镜播放音频的过程中,XR眼镜获取用户的兴趣角度。
其中,兴趣角度用于表征使用XR眼镜的用户的兴趣方向。兴趣方向可以理解为,用户感兴趣的方向;也就是说,用户对兴趣方向上的音频对象比较感兴趣,用户对兴趣方向上的音频更加关注,用户也就更想要听清楚来自兴趣方向上的声音。其中,音频对象可以理解为,发出声音的对象。如,音频对象可以包括,真实对象或虚拟对象。例如,音频对象可以是,上述图5的A部分中正在进行会议的与会者(如,真实对象402、虚拟对象401)。也可以是,图5的B部分中舞台上的演奏者,或者乐器(如,贝斯、吉他、鼓)。
如,某音频对象与用户进行交互(如,与用户交谈、与用户互动、向用户展示表情等等),则用户就会对该音频对象比较感兴趣;由用户指向该音频对象的方向即为该用户的兴趣方向。
又如,用户的注意力集中在某音频对象上,则可以表示用户对该音频对象比较感兴趣,用户会比较关注该音频对象;由用户指向该音频对象的方向即为该用户的兴趣方向。
可以理解的,角度是一个相对的概念,同一个角度对于不同的坐标系、参照物,角度会发生变化的。接下来,在详细介绍兴趣角度前,先对XR眼镜的坐标系进行举例介绍。
示例性的,参见图8,图8示出了,用户佩戴XR眼镜状态下的俯视图。其中,用户的前后方向为XR眼镜的坐标系的y轴,y轴的正方向为:由用户的后方指向用户的前方的方向;用户的左右方向为XR眼镜的坐标系的x轴,x轴的正方向为:由用户的左侧指向用户的右侧的方向;用户头部的中心点为XR眼镜的坐标系的原点。其中,兴趣角度可以是,兴趣方向与y轴的正半轴(正方向)的夹角。并且,当兴趣方向在XR眼镜坐标系的第一象限时,该兴趣方向的兴趣角度为正值,当兴趣方向在XR眼镜坐标系的第二象限时,该兴趣方向的兴趣角度为负值。
可以理解的,对于XR眼镜的坐标系,还可以有其他的建立方式。在其他的建立方式下,兴趣角度也可以有不同的定义方式以及划分方式。具体可以根据实际的使用需要对此进行设计,本申请实施例对此不做任何限制。
在一些实施例中,XR眼镜可以通过用户的交互操作(如,指示操作、语音输入操作等等)得到用户的兴趣方向。
在一些实施例中,XR眼镜可以基于用户的指示操作得到用户指定的兴趣方向。
示例性的,参见图9,用户可以通过指示操作(如,手指指向某个方向),向XR眼镜输入该用户指定的兴趣方向。之后,XR眼镜通过摄像头确定手指指向的方向,并基于手指指向的方向和XR眼镜坐标系y轴正方向的夹角,得到用户指定的兴趣方向。
在一些实施例中,XR眼镜还可以通过识别用户的语音,得到用户指定的兴趣方向。
又示例性的,用户可以通过XR眼镜的语音识别功能,向XR眼镜输入该用户指定的兴趣方向。再次参见图9,用户可以通过预设的唤醒词,唤醒XR眼镜的语音识别功能。之后,用户通过虚拟视频会议的图像800中虚拟对象(如虚拟对象801B、虚拟对象801A)或真实对象(如真实对象802B、真实对象802A)的昵称,去指定兴趣方向。例如,在用户通过唤醒词,唤醒XR眼镜的语音识别功能后,通过真实对象802B的昵称,去指定兴趣方向。接下来,XR眼镜可以基于真实对象802B和XR眼镜坐标系原点的连线与y轴正方向的夹角,得到用户指定的兴趣方向。
在一些实施例中,上述兴趣角度可以包括:注视角度或交互角度。
其中,注视角度,可以理解为用户目光注视的角度,可以用来表征用户注意力集中的方向,如用来表征注视方向。交互角度,可以理解为用户与该交互角度上的音频对象进行交互,可以用来表征与用户发生交互的方向,如交互方向。
在一些实施例中,XR眼镜可以通过眼动跟踪传感器,跟踪用户的眼睛(如,左眼、右眼、双眼)来获取注视角度。
示例性的,XR眼镜可以通过眼动跟踪传感器,跟踪用户的左眼,得到用户左眼的视线方向。接下来,基于用户左眼的视线方向与XR眼镜坐标系y轴正方向的夹角,得到注视角度。
在另一些实施例中,XR眼镜也可以通过摄像头,拍摄用户的眼睛图像。之后,XR眼镜通过图像识别技术,从眼睛图像中识别得到注视角度。
示例性的,XR眼镜可以通过图像识别技术,从眼睛图像中识别得到用户双眼的视线焦点。接下来,基于视线焦点和XR眼镜坐标系原点的连线与y轴正方向的夹角,得到注视角度。
在一些实施例中,XR眼镜还可以通过眼动跟踪传感器,获取注视角度。之后,基于FOV相机拍摄的FOV图像,对注视角度进行校正。
示例性的,参见图10;XR眼镜通过眼动跟踪传感器,获取到的注视角度如图中所示。接下来,XR眼镜根据FOV相机拍摄FOV图像,如,拍摄得到真实对象902B和真实对象902A。之后,XR眼镜从真实对象902B和真实对象902A中确定与注视角度匹配的真实对象。接下来,基于与注视角度匹配的真实对象对注视角度进行校正。其中,上述与注视角度匹配的真实对象可以是,真实对象与坐标系原点的连线与y轴正方向的夹角,与注视角度最接近的真实对象。考虑到,在用户使用XR眼镜时,用户的视线上应具有对象;也就是说,用户的注视角度上会存在真实对象;因此,在一些实施例中XR设备还可以通过FOV图像对注视角度进行校准,这样,可以提高XR眼镜获取的注视角度的准确程度。
在一些实施例中,XR眼镜可以通过FOV相机,拍摄FOV图像。之后,XR眼镜通过图像识别技术,从FOV图像中识别得到交互角度。
示例性的,XR眼镜可以通过图像识别技术,从FOV图像中识别得到与用户交互的真实对象(如,面向用户的且正在开口说话的真实对象)。之后,基于该真实对象和XR眼镜坐标系原点的连线与y轴正方向的夹角,得到交互角度。
在一些实施例中XR眼镜可以在步骤S600之后,执行步骤S601。在另一些实施例中,XR眼镜也可以先执行步骤S601再执行步骤S600。在另一些实施例中,也可以并行执行步骤S600和步骤S601,本申请实施例对步骤S600和步骤S601间的执行顺序不做任何限制。
S601.XR眼镜获取播放的音频中音频对象的发声角度。
其中,发声角度用于表征音频对象与佩戴XR眼镜的用户,二者间的方向关系。音频对象是指发出音频的对象。音频对象包括真实对象或虚拟对象,在一些实施例中发声角度也可以被称为声源角度、音源角度、子带偏移角度等等。播放的音频是指用户在使用XR眼镜的过程中,XR眼镜播放的音频。
示例性的,发声角度可以是音频对象与XR眼镜坐标系原点间的连线,与XR眼镜坐标系y轴正半轴的夹角。
在一些实施例中,XR眼镜可以根据音频对象在XR眼镜坐标系统与用户的位置关系得到音频对象的发声角度。
示例性的,XR眼镜可以根据FOV相机,拍摄得到FOV图片。之后,通过图片识别技术,从FOV图片中识别得到真实对象的位置(如,在XR眼镜坐标系中的位置坐标);接下来,基于真实对象的位置得到发声角度。
又示例性的,XR眼镜也可以根据虚拟对象在XR眼镜坐标系中的位置坐标,得到虚拟对象的发声角度。
可以理解的,由于虚拟对象是由XR眼镜,或者与XR眼镜连接的服务器(XR服务器)生成的;因此XR眼镜可以获取到虚拟对象的位置坐标。那么,XR眼镜就能够基于该位置坐标得到发声角度。
在一些实施例中,考虑到XR眼镜的处理器性能不是十分强大,处理器的功率也不是很高。也就是说,在XR眼镜上,可能不会执行生成虚拟对象的步骤。XR眼镜,负责播放虚拟对象的音频、视频,真实对象的音频、视频,以及采集用户的输入等等;与XR眼镜连接的服务器负责生成,虚拟对象的音频、视频,真实对象的音频、视频。基于此,考虑到XR眼镜可能获取不到音频对象的位置坐标。在一些实施例中,XR眼镜可以根据音频数据获取音频对象的发声角度。
其中,音频数据可以是多声道音频数据。示例性的,多声道音频数据与XR眼镜的声道数相对应。若XR眼镜具有左右两个声道,则多声道音频数据可以是左声道音频数据和右声道音频数据。若XR眼镜具有上、下、左、右四个声道,则多声道音频数据可以是,上、下、左、右四个声道音频数据。本申请实施例对音频数据的声道数量不做任何限制。
下面,以XR眼镜具有两个声道的音频数据;如,左声道音频数据和右声道音频数据。对步骤S601-S603进行详细介绍。
由于XR眼镜具有左右两个声道的音频数据,也就是说,用户在使用XR眼镜所能听到的声音均来自上述左声道音频数据和右声道音频数据。那么,左声道音频数据和右声道音频数据对应了多个音频对象的声音。基于此,可以分别从左声道音频数据和右声道音频数据中,分离出每个音频对象在左、右声道上的音频数据。之后,根据音频对象在左、右声道上音频数据的关系(如,在相位、振幅、频率、波形、能量等等上的差异),得到音频对象的发声角度。其中,可以通过频域分析的方式分离得到每个音频对象在左、右声道上的音频数据;或者,也可以通过神经网络分离得到每个音频对象在左、右声道上的音频数据。
在一些实施例中,可以通过互相关方法、广义互相关方法、广义互相关-相位变换(generalized cross correlation-phase transform,GCC-PHAT)方法、延迟相加(delayand sum)算法、最小方差无失真响应(minimum variance distortionless response,MVDR)算法等等,得到音频对象与用户的方向关系,并通过三角函数关系,得到音频对象的发声角度。
示例性的,XR眼镜可以通过频域分析的方式,从左、声道音频数据中,分离得到每个音频对象在左、右声道上的音频数据,接下来,基于音频对象在左、右声道上音频数据振幅之间的关系,得到音频对象的发声角度。参见图11,步骤S601可以包括:步骤S601A1-S601A3。
S601A1.XR眼镜分别对左声道音频数据和右声道音频数据进行时频转换,得到左声道频域数据和右声道频域数据。
示例性的,XR眼镜可以通过离散傅里叶变换(discrete fourier transform,DFT)、快速傅里叶变化(fast fourier transform,FFT)、修改的离散余弦变换(modifieddiscrete cosine transform ,MDCT)、梅尔倒谱、小波变换之中的任一种,进行时频转换。
例如,XR眼镜可以采用下述表达式1对左声道音频数据按照音帧,逐帧进行时频转换,得到左声道频域数据。
其中,音帧是音频数据的组成单位。也就是说,音频数据是由多个音帧组成的。在音帧中包括多个音频样点,音帧中的音频样点个数与音频数据的采样率,以及帧长相关。例如,音频样点个数=音频数据的采样率*帧长。示例性的,在格式为48000赫兹(hertz,Hz)采样率,帧长0.01秒的音频数据的音帧中;一个音帧包括480音频样点。可以理解的,音频数据还可以有其他格式;如采样率为32000Hz、16000Hz、8000Hz等等,如帧长为0.005秒、0.02秒等等。本申请实施例对此不做任何限制。
表达式1。
其中,X L 表示,左声道频域数据;n表示,音频样点编号;运算符“DFT”表示离散傅里叶变换;x L 表示,左声道音频数据;N表示,DFT每次处理输入的连续时域样点数,如上述音频样点的个数为480。
然后,XR眼镜可以采用下述表达式2对右声道音频数据按照音帧,逐帧进行时频转换,得到右声道频域数据。
表达式2。
其中,X R 表示,右声道频域数据;x R 表示,右声道音频数据。
在进行时频转换之后,XR眼镜就得到了左声道频域数据和右声道频域数据;二者均为复数频域数据,均可以按照实部和虚部的形式表示。
示例性的,左声道频域数据可以通过下述表达式3表征。
表达式3。
其中,X L,R 表示,左声道频域数据的实部,X L,I 表示,左声道频域数据的虚部。
右声道频域数据可以通过下述表达式4表征。
表达式4。
其中,X R,R 表示,右声道频域数据的实部,X R,I 表示,右声道频域数据的虚部。
示例性的,假定计算过程都用浮点数表示。和/>的取值范围是[-1.0,1.0]。/>和/>的取值范围也是[-1.0, 1.0]。
接下来,XR眼镜可以基于实部和虚部的形式表示的左声道频域数据,得到左声道频域数据的频谱幅度。
示例性的,可以通过下述表达式5计算左声道频域数据的频谱幅度。
表达式5。
其中,|X L k)|,表示左声道频域数据的频谱幅度。
示例性的,可以通过下述表达式6计算右声道频域数据的频谱幅度。
表达式6。
其中,|X R k)|,表示右声道频域数据的频谱幅度。
S601A2.XR眼镜分别计算左声道频域数据和右声道频域数据的子带能量,得到左声道子带能量和右声道子带能量。
在一些实施例中可以根据巴克(bark)谱、等效矩阵带宽(equivalent matrixbandwidth,ERB)、倍频程、1/3倍频程、均匀子带宽度等子带划分方法,分别将左声道音频数据和右声道音频数据划分为多个子带。
可以理解的,对于不同的音频对象来讲,其声音的频率大多会在一个范围内。因此通过对子带的划分,可以区分出每个音频对象的左、右声道频域数据。接下来,基于音频对象的左、右声道频域数据的差异,得到音频对象的发声角度。
示例性的,XR眼镜可以根据bark谱分别将左声道频域数据和右声道频域数据划分为多个子带。
例如,bark谱的划分可以参照下述表1所示。
表1
接下来,XR眼镜可以基于表1示出的bark谱的划分,分别计算左声道频域数据和右声道频域数据中,各个子带的(频域)能量。
示例性的,XR眼镜可以根据下述表达式7计算左声道频域数据的子带能量。
表达式7。
其中,E L 表示,左声道频域数据的子带能量;i表示,bark子带索引号。
又示例性的,XR眼镜可以根据下述表达式8计算右声道频域数据的子带能量。
表达式8。
其中,E R 表示,右声道频域数据的子带能量。
S601A3.XR眼镜基于左声道子带能量和右声道子带能量计算发声角度。
参见上述图6对应的相关描述;在音频对象位于用户正前方时,音频对象在左右声道上的音量大小应是一至的;也就是说,左声道子带能量和右声道子带能量相等时,音频对象应位于用户正前方的。在音频对象位于用户左侧时,音频对象左声道上的音量应大于音频对象右声道上的音量,也就是说,左声道子带能量大于右声道子带能量时,音频对象应位于用户左侧。在音频对象位于用户右侧时,音频对象右声道上的音量应大于音频对象左声道上的音量,也就是说,右声道子带能量大于左声道子带能量时,音频对象应位于用户右侧。
可以理解的,当音频对象的发声角度是0时,也就是说,音频对象位于用户的前方;左声道子带能量与右声道子带能量相等。
在一些实施例中,XR眼镜可以根据左声道子带能量和右声道子带能量大小关系(如,比例关系),通过三角函数关系,得到音频对象的发声角度。其中,三角函数关系可以包括:反三角函数(如反正切函数、反余切函数、反正弦函数、反余弦函数、反正割函数、反余割函数)。
示例性的,XR眼镜可以根据下述表达式9计算得到音频对象的发声角度。
表达式9。
其中,θ i 表示,发声角度。示例性的,θ i 的取值范围可以是[-π/2,π/2]。ε是一个很小的正实数,例如,0.00001、0.00003等等,用于避免在计算发声角度时,表达式9中出现分母为0的情况。可选的,在另外一些实施例中,表达式9也可以不包括ε,本申请实施例对此不做限定。
又示例性的,XR眼镜可以通过神经网络(neural network,NN),从左、声道音频数据中,分离得到每个音频对象在左、右声道上的音频数据,接下来,基于音频对象在左、右声道上音频数据之间的差异,得到音频对象的发声角度。参见图12,步骤S601可以包括:步骤S601B1-S601B3。
S601B1.XR眼镜基于音源分离神经网络分别对左声道音频数据和右声道音频数据进行处理,得到音频对象的左声道音频数据和右声道音频数据。
其中,音源分离神经网络用于对输入的音频数据进行分离,分离得到音频数据中每个音频对象的音频数据。示例性的,音源分离神经网络可以包括:TASNET神经网络、CONV-TASNET神经网络、TDCN神经网络或时域NN网络等等。
示例性的,参见图13;XR眼镜可以基于时域NN网络分别对左声道音频数据和右声道音频数据进行处理,得到音频对象的左声道音频数据和右声道音频数据。其中,时域NN网络可以包括:编码网络、分离网络、和解码网络。具体的,XR眼镜可以将左声道音频数据和右声道音频数据输入时域NN网络的编码网络中,通过编码网络分别提取左声道音频数据和右声道音频数据的特征。接下来,将左声道音频数据和右声道音频数据的特征通过分离网络进行归类,得到分离掩码矩阵。之后,将分离掩码矩阵分别与左声道音频数据和右声道音频数据的特征相乘,之后通过解码网络进行解码,得到音频对象的左声道音频数据和右声道音频数据。
S601B2.XR眼镜基于音频对象的左声道音频数据和右声道音频数据,计算音频对象的左声道(音频)能量和右声道(音频)能量。
示例性的,XR眼镜可以通过下述表达式10,基于音频对象的左声道音频数据,计算音频对象的左声道能量。
表达式10。
其中,E m,L 表示,第m个对象的左声道能量,m为对象的索引值;M表示,从左声道音频数据中分离出的音频对象的个数;x m,L 表示,第m个对象的左声道音频数据。
又示例性的,XR眼镜可以通过下述表达式11,基于音频对象的右声道音频数据,计算音频对象的右声道能量。
表达式11。
其中,E m,R 表示,第m个对象的右声道能量;x m,R 表示,第m个对象的右声道音频数据。
S601B3.XR眼镜基于音频对象的左声道能量和右声道能量计算音频对象的发声角度。
再次参见上述图6对应的相关描述;在音频对象位于用户正前方时,音频对象在左右声道上的音量大小应是一至的;也就是说,左声道能量和右声道能量相等时,音频对象应位于用户正前方的。在音频对象位于用户左侧时,音频对象左声道上的音量应大于音频对象右声道上的音量,也就是说,左声道能量大于右声道能量时,音频对象应位于用户左侧。在音频对象位于用户右侧时,音频对象右声道上的音量应大于音频对象左声道上的音量,也就是说,右声道能量大于左声道能量时,音频对象应位于用户右侧。
可以理解的,当音频对象的发声角度是0时,也就是说,音频对象位于用户的前方;左声道能量与右声道能量相等。
在一些实施例中,XR眼镜可以通过左声道能量和右声道能量的比值,通过三角函数关系,得到发声角度。
示例性的,XR眼镜可以通过下述表达式12,基于音频对象的左声道能量和右声道能量大小关系(如,比例关系),通过三角函数关系得到发声角度。其中,三角函数关系可以包括:反三角函数(如反正切函数、反余切函数、反正弦函数、反余弦函数、反正割函数、反余割函数)。
表达式12。
其中,θ m 表示,发声角度。示例性的,θ m 的取值范围可以是[-π/2,π/2]。ε是一个很小的正实数,例如,0.00001、0.00003等等,用于避免在计算发声角度时,表达式9中出现分母为0的情况。可选的,在另外一些实施例中,表达式12也可以不包括ε,本申请实施例对此不做限定。
可以理解的,在一些实施例中,XR眼镜也可以通过上述方式如步骤S601A1-S601A3,步骤S601B1-S601B3,来获取音频的声源角度。
S602.XR眼镜基于发声角度与兴趣角度从音频对象中确定目标对象。
在一些实施例中,XR眼镜可以将发声角度与兴趣角度相等的音频对象作为目标对象。
可以理解的,如果发声角度与兴趣角度相等,则该音频对象是在用户的兴趣方向上的对象。也就是说,可能是在与用户进行互动的对象(如,与用户交谈、与用户互动、向用户展示表情等等),或者,是用户注意力集中的对象(如,用户视线焦点的对象)。基于此,XR眼镜将该对象作为目标对象。并在后续对目标对象的音频进行增强处理;这样,目标对象的响度就会提升,目标对象的音频的清晰程度也就会提升。
在另一些实施例中,XR眼镜也可以将发声角度与兴趣角度匹配的音频对象作为目标对象。
示例性的,XR眼镜可以将发声角度与兴趣角度差值的绝对值小于预设的角度阈值的音频对象作为目标对象。考虑到,有时兴趣角度的获取可能不是十分精确;以及,有时用户的视线不会仅仅聚焦在一条直线上,用户的视线会覆盖一个范围方向。基于此,可以将发声角度与兴趣角度的差值小于预设角度阈值的音频对象作为目标对象,这样,可以使得目标对象的确定更加真实、准确。
示例性的,参见图14。兴趣角度,和角度阈值如图14中所示。从图14中可知,由于音频对象1402B以及音频对象1401B,均在角度阈值内(也就是,发声角度与兴趣角度的差值小于角度阈值);基于此,XR眼镜可以将音频对象1402B和音频对象1401B作为目标对象。并且,由于音频对象1401A未在角度阈值内(也就是,发声角度与兴趣角度的差值大于预设角度阈值),XR眼镜可以将音频对象1401A作为非目标对象。
例如,可以通过下述表达式13或表达式14,计算发声角度与兴趣角度差值的绝对值。
θ i =|θ-θ i |表达式13。
其中,△θ i 表示,发声角度与兴趣角度差值的绝对值;θ表示,兴趣角度;θ i 表示,发声角度。
示例性的,如果△θ i 小于或等于预设的角度阈值θ th ,则将该音频对象作为目标对象。其中,角度阈值θ th ,可以是π/6,或者π/12等等。
θ m =|θ-θ m |表达式14。
其中,△θ m 表示,发声角度与兴趣角度的差值;θ m 表示,发声角度。
示例性的,如果△θ m 小于或等于预设的角度阈值θ th ,则将该音频对象作为目标对象。其中,角度阈值θ th ,可以是π/6,或者π/12等等。
S603.XR眼镜对目标对象的音频数据进行增强处理,和/或,对非目标对象的音频数据进行减弱处理。
其中,对目标对象的音频数据进行增强处理,可以理解为,增大目标对象的音频数据的响度,或者,增高目标对象的音频数据的振幅。对非目标对象的音频数据进行减弱处理,可以理解为,减小非目标对象的音频数据的响度,或者,降低非目标对象的音频数据的振幅。
在一些实施例中,上述步骤S603可以包括:XR眼镜对目标对象的音频数据的响度增大预设倍数(如,1.2倍、1.5倍等等),和/或,XR眼镜对非目标对象的音频数据的响度减小预设倍数。
示例性的,参见图15。在图15中,音频对象1301A、1301B、1302A、1302B,两侧示出了该对象左、右声道音频数据的响度。如,音频对象1301A左侧的虚线表示音频对象1301A左声道音频数据的响度,音频对象1301A右侧的虚线表示音频对象1301A右声道音频数据的响度。图15中,以虚线的长度,示出了响度的大小。在图15的1300部分中,用户的兴趣角度未与图中的音频对象匹配。接下来,用户的兴趣角度变化为图15中的1310部分所示,XR眼镜确定音频对象1302B为目标对象。然后,XR眼镜对音频对象1302B的左、右声道音频数据进行增强处理,以及对非目标对象(如,音频对象1301B、1302A、1301A)的左、右声道音频数据进行减弱处理。XR眼镜音频处理后各音频对象如图15中1310部分所示。从1310部分中可见,对于目标对象1302B的左、右声道音频数据的响度,均被增强。对于非目标对象的左、右声道音频数据的响度,均被减弱。这样,通过本申请实施例提供的音频数据处理方法,用户在使用XR眼镜时,就会感受到目标对象1302B的声音被突出。那么,用户也就可以更加清晰地听到,该用户感兴趣的对象也就是目标对象1302B的声音。从而,可以提升用户感兴趣的对象,也就是目标对象的声音的清晰程度。用户在使用XR眼镜时,就可以清楚地听到该用户感兴趣的音频对象的声音,可以提升用户的使用体验。
在一些实施例中,XR眼镜可以仅增大上述图15中的目标对象1302B的声音强度。这样,由于音频对象1302B的声音强度被增大,用户在听觉上就会感受到目标对象1302B被突出。那么,用户就可以更加清晰地听到,该用户感兴趣的对象也就是目标对象1302B的声音。从而,可以提升用户感兴趣的对象,也就是目标对象的声音的清晰程度。
在另一些实施例中,XR眼镜也可以仅减小上述图15中非目标对象(如,音频对象1301B、音频对象1302A、音频对象1301A、等)。这样,由于非目标对象的声音强度被减小了。那么,相对来讲,目标音频对象的声音强度也就被增大了。用户在听觉上就会感受到目标对象1302B被突出。那么,用户就可以更加清晰地听到,该用户感兴趣的对象也就是目标对象1302B的声音。从而,可以提升用户感兴趣的对象,也就是目标对象的声音的清晰程度。
在一些实施例中,XR眼镜可以基于目标对象的发声角度与兴趣角度,二者间的大小关系(如,差值的绝对值),确定目标对象的增益,并基于目标对象的增益增大目标对象的左、右音频数据的响度。其中,目标对象的增益与目标对象的发声角度与兴趣角度,二者间差值的绝对值负相关;也就是说,二者间差值的绝对值越大,目标对象的增益越小,二者间差值的绝对值越小,目标对象的增益越大。
示例性的,参见图16。在图16中,音频对象1501A、1501B、1502A、1502B,两侧示出了该对象左、右声道音频数据的响度。如,音频对象1501A左侧的虚线表示音频对象1501A左声道音频数据的响度,音频对象1501A右侧的虚线表示音频对象1501A右声道音频数据的响度。图16中,以虚线的长度,示出了响度的大小。XR眼镜音频处理前各音频对象如图16中1500部分所示。XR眼镜获取到的兴趣角度如1500部分中所示。接下来,XR眼镜确定音频对象1502B、音频对象1501B为目标对象。然后,XR眼镜可以基于目标对象的发声角度与兴趣角度,二者间差值的绝对值,确定目标对象的增益,并基于目标对象的增益增大目标对象的左、右音频数据的响度。其中,由于音频对象1502B的发声角度与兴趣角度的差值的绝对值比较小;因此,音频对象1502B的增益比较大。由于音频对象1501B的发声角度与兴趣角度的差值的绝对值比较大;因此,音频对象1501B的增益比较小。XR眼镜音频处理后各音频对象如图16中1510部分所示。从1510部分中可见,对于目标对象1502B的左、右声道音频数据的响度,均被增强,以及对于目标对象1501B的左、右声道音频数据的响度,也均被增强。其中,目标对象1502B的响度增强幅度大于,目标对象1501B的响度增强幅度。
这样,通过本申请实施例提供的音频数据处理方法,用户在使用XR眼镜时,就会感受到目标对象1502B的声音,和目标对象1501A的声音被突出。并且目标对象1502B的声音的突出的会比目标对象1502A的声音突出得更加明显。那么,用户就可以清晰地听到,用户感兴趣的对象,也就是目标对象1501B的声音;以及,用户就可以更加清晰地听到,用户感兴趣的对象,也就是目标对象1502A的声音。从而,可以提升用户感兴趣的对象,也就是目标对象的声音的清晰程度。用户在使用XR眼镜时,就可以清楚地听到该用户感兴趣的音频对象的声音,可以提升用户的使用体验。
又示例性的,参见图17,音频对象1601A、1601B、1602A、1602B,两侧示出了该对象左、右声道音频数据的响度。如,音频对象1601A左侧的虚线表示音频对象1601A左声道音频数据的响度,音频对象1601A右侧的虚线表示音频对象1601A右声道音频数据的响度。图16中,以虚线的长度,示出了响度的大小。用户在使XR眼镜的过程中,视线从音频对象1602B,经过音频对象1601B,移动至音频对象1602A。也就是说,用户在使用XR眼镜的过程中,注视方向由音频对象1602B,经过音频对象1601B,移动至音频对象1602A。基于注视方向的变化,XR眼镜获取到的兴趣角度也发生了变化。
在图17的1600部分中,XR眼镜确定音频对象1602B,和音频对象1601B为目标对象。然后,XR眼镜基于目标对象的发声角度与兴趣角度,二者间差值的绝对值,确定目标对象的增益,并基于目标对象的增益,增大目标对象的左、右音频数据的响度。XR眼镜对目标对象左、右声道音频数据增益后的响度如1600部分所示。
接下来,在图17的1610部分中,由于用户的视线发生了变化,也就是注视方向发生了变化。XR眼镜确定音频对象1602B,音频对象1601B和音频对象1602A为目标对象。然后,XR眼镜基于目标对象的发声角度与兴趣角度,二者间差值的绝对值,确定目标对象的增益,并基于目标对象的增益,增大目标对象的左、右音频数据的响度。XR眼镜对目标对象左、右声道音频数据增益后的响度如1610部分所示。
然后,在图17的1620部分中,由于用户的视线发生了变化,也就是注视方向发生了变化。XR眼镜确定音频对象1601A,音频对象1602A为目标对象。然后,XR眼镜基于目标对象的发声角度与兴趣角度,二者间差值的绝对值,确定目标对象的增益,并基于目标对象的增益,增大目标对象的左、右音频数据的响度。XR眼镜对目标对象左、右声道音频数据增益后的响度如1620部分所示。
这样,在用户的视线移动的过程中;用户就会感受到,音频对象1602A的声音的音量由不变,到小幅度增大,直至大幅度增大。对于,音频对象1602A来讲,其音量在用户的视线移动的过程中,是均匀稳定变化的,不会突然增大,在听感上会更和谐,可以提升用户的使用体验。
由此可见,通过基于目标对象的发声角度与兴趣角度,二者间差值的绝对值,确定目标对象的增益,并基于目标对象的增益增大目标对象的左、右音频数据的响度;可以使得目标对象,也就是用户感兴趣的音频对象的声音更加清晰;同时,对于目标对象的响度的变化更加均匀、稳定,可以大大提升用户的使用体验。
在一些实施例中,若XR眼镜在上述步骤S602中未确定目标对象,则XR眼镜不进行增强也不进行减弱。
例如,XR眼镜可以通过下述表达式15基于目标对象的发声角度与兴趣角度的差值△θ i ,计算目标对象的增益
表达式15。
其中,为最大增益,是一个预设值(如,1.5、2.0、3.2等等)。
又例如,XR眼镜可以通下述表达式16基于目标对象的发声角度与兴趣角度的差值△θ m ,计算目标对象的增益
表达式16。
其中,为最大增益,是一个预设值(如,1.5、2.0、3.2等等)。
接下来,XR眼镜基于目标对象的增益,对目标对象的音频数据进行放大(增益)。
示例性的,XR眼镜可以通过下述表达式组1,基于增益,对目标对象的音频数据进行增益。
表达式组1。
其中,X · R 表示,增益后的右声道频域数据;X · L 表示,增益后的左声道频域数据。
又示例性的,XR眼镜可以通过下述表达式组2,基于增益,对目标对象的音频数据进行放大。
表达式组2。
其中,x · m,L 表示,第m个音频对象的放大后的左声道音频数据,x · m,R 表示,第m个音频对象的放大后的右声道音频数据。
在XR眼镜对目标对象的音频数据放大后,XR眼镜基于放大后的目标对象的音频数据,得到放大后的左声道音频数据,和放大后的右声道音频数据。
示例性的,XR眼镜可以通过下述表达式组3,分别对增益后的右声道频域数据和增益后的左声道频域数据,进行频时转换,得到增益后的左声道音频数据,和增益后的右声道音频数据。
其中,频时转换是时频转换的逆变换,可以将频域转换到时域。如DFT的逆变换是,反离散傅里叶变换(inverse discrete fourier transform,IDFT)。
表达式组3。
其中,x L `表示,增益后的左声道音频数据;x R `表示,增益后的右声道音频数据;运算符“IDFT”表示,反离散傅里叶变换。
又示例性的,XR眼镜可以通过下述表达式组4,对每个音频对象放大后的左声道音频数据和右声道音频数据进行叠加,得到放大后的左声道音频数据和放大后的右声道音频数据。
表达式组4。
在另一些实施例中,在上述步骤S600之后,XR眼镜可以获取XR眼镜上待播放的音频。接下来,XR眼镜基于兴趣角度,增强待播放的音频中与兴趣角度方向匹配的音频。然后,XR眼镜播放增强后的音频。
其中,XR眼镜可以通过上述表达式1、表达式2,将待播放的音频由时域转换为频域,得到频域音频。接下来,XR眼镜可以通过上述表1将频域音频划分为多个子带频域音频。之后,XR眼镜可以通过上述表达式7、表达式8计算每个子带频域音频的能量。接下来,XR眼镜可以基于上述表达式9,基于每个子带频域音频的能量,得到每个子带频域音频的发声角度。之后,XR眼镜从每个子带频域音频的发声角度中,确定与兴趣角度匹配的子带频域音频(如发声角度与兴趣角度相等,或者发声角度与兴趣角度的差值小于角度阈值)。然后,XR眼镜将与兴趣角度方向匹配的音频增强,和/或,将未与兴趣角度方向匹配的音频减弱。
下面,将通过一个或多个实施例对本申请实施例提供的音频处理方法进行整体性地介绍。
一种音频处理方法,该方法可以应用于XR眼镜。该方法包括:XR眼镜播放第一目标音频,第一目标音频包括第一音频,用户的兴趣角度为第一兴趣角度,第一音频的声源角度未与第一兴趣角度匹配。在XR眼镜播放第一目标音频的过程中,响应于用户的兴趣角度为第一兴趣角度,播放第一强度的第一音频;响应于用户的兴趣角度为第二兴趣角度,播放第二强度的第一音频;其中,第一音频的声源角度与第一兴趣角度相匹配,第一音频的声源角度与第二兴趣角度不匹配,第一强度大于第二强度。例如,在图15的1310部分中用户的兴趣角度为第一兴趣角度,在图15的1300部分中用户的兴趣角度为第二兴趣角度,在图15中的1310部分中,声源角度与第一兴趣角度匹配的第一音频(如音频对象1302B的音频)的声音强度为第一强度,在图15中的1300部分中,声源角度与第二兴趣角度不匹配的第一音频(如音频对象1302B的音频)的声音强度为第二强度。用户的角度由第二兴趣角度变化为第一兴趣角度,第一音频的声音强度由第二强度变化为第一强度,也就是音频的声音强度被增强。
其中,第一目标音频是XR眼镜播放的音频,第一音频是第一目标音频的一部分。声源角度用于表征声音来源方向与用户之间的相对位置关系。第一音频是第一目标音频中声源角度在某个角度(如第一角度)的音频。例如,第一音频可以是第一目标音频中,子带的频率范围在某个特定范围(如第一频率范围)内的音频;声源角度是指第一频率范围的音频与用户之间的相对位置关系。再例如,第一音频可以是第一目标音频中,某个或某几个音频对象的音频;声源角度是指音频对象的音频和用户之间的相对位置关系。
假设,第一目标音频是包括了流水声和篝火声的音频,第一音频可以是流水声,流水声的声源角度表征了该流水声的来源方向和用户之间的相对位置关系(如左前方)。可以理解的,由于流水声和篝火声,这两个音频的频率范围是不相同的(如,流水声在上述子带索引号为18的bark子带,篝火声在上述子带索引号为3的bark子带),基于此,第一音频也可以理解成子带索引号为18的bark子带;第一音频的声源角度也就表征了子带索引号为18的bark子带与用户之间的相对位置关系。以及,由于第一目标音频包括了流水声和篝火声,也就是说,第一目标音频包括了音频对象水流和音频对象篝火二者的音频。由此,第一音频还可以理解为音频对象篝火对应的音频;第一音频的声源角度也就表征了音频对象篝火与用户之间的相对位置关系。
在上述方法中,第一音频的声音强度会跟随着用户的兴趣角度变化。当用户的兴趣角度与第一音频的声源角度匹配时,也就说明用户对该第一音频比较感兴趣。此时,XR眼镜播放的第一目标音频中的第一音频的声音强度会变大(如由第二强度,变为第一强度)。由于第一音频的声音强度变大了,第一音频的声音就会在第一目标音频中被凸显出来;这样,第一音频的清晰程度就会被提升,用户就可以将第一音频听得更加清楚,可以提升用户的使用体验。
在一些实施例中,上述第一目标音频还包括第二音频;第二音频的声源角度与第一兴趣角度不匹配,所述第二音频的声源角度与二兴趣角度不匹配。上述方法还包括:在电子设备播放第一目标音频的过程中,响应于用户的兴趣角度为第一兴趣角度,播放第三强度的第二音频;响应于用户的兴趣角度为第二兴趣角度,播放第三强度的第二音频。
在第二音频的声源角度未与用户的兴趣角度匹配时,第二音频的声音强度不发生变化。也就是说,在第一音频的声音强度为第一强度,和第一音频的声音强度为第二强度时,第二音频的声音强度是相同的。这样,由于第一强度大于第二强度,第一音频的声音就会进一步地在第一目标音频中被凸显出来;由此,第一音频的清晰程度就会被提升,用户就可以将第一音频听得更加清楚,可以提升用户的使用体验。
在一些实施例中,上述声源角度与兴趣角度相匹配包括声源角度与兴趣角度之间的差异小于或者等于预设角度阈值。上述方法还包括:在电子设备播放第一目标音频的过程中,响应于用户的兴趣角度为为第三兴趣角度,播放第四强度的第一音频。第三兴趣角度与第一音频的声源角度之间的差异,小于第一兴趣角度与第一音频的声源角度之间的差异,第四强度大于第一强度。例如,在图17的1600部分中,用户的兴趣角度为第一兴趣角度,在图17的1610部分中,用户的兴趣角度为第三兴趣角度;第一音频(如音频对象1601B的音频)的声音强度在图17的1600部分中为第一强度,在图17的1610部分中为第四强度。用户的兴趣角度由图17的1600部分中的第一兴趣角度变化为1610部分中的第三兴趣角度,第一音频(如音频对象1601B的音频)的声音强度由第一强度变化为第四强度。也就是,与用户的兴趣角度匹配的音频对象1601B的音频的声音强度变大。
在上述实施例中,第一音频的声音强度还会基于用户的兴趣角度与第一音频的声源角度的差异进行不同程度的变化;这样,可以使得第一音频的声音强度的变化更加均匀。在用户的兴趣角度与第一音频的声源角度的差异不断减小的过程中,第一音频的声音强度也会不断增大;这样,用户就会在听觉上感受到,第一音频的声音强度是持续、稳定增大的,不会突然变大。这样,既可以使用户将第一音频听得更加清楚,又可以使得第一音频声音强度的变化比较稳定,不会产生突变,可以进一步地提升用户的使用体验。
在另一些实施例中,上述方法还包括:在XR播放第一目标音频的过程中,响应于用户的兴趣角度为第四兴趣角度,第一音频的声源角度未与第四兴趣角度匹配,第一音频的声音强度变化为第七强度,第七强度小于第一强度。例如,在图17的1620部分中,用户的兴趣角度为第四兴趣角度,第一音频(如,音频对象1601B的音频)的声音强度为第七强度。用户的兴趣角度由图17的1600部分中的第一兴趣角度变化为1620部分中的第四兴趣角度,音频对象1601B不再与用户的兴趣角度匹配,音频对象1601B的音频的声音强度由第一强度变化为第七强度,也就是,音频对象1601B的音频的声音强度变小。
在又一些实施例中,上述方法还包括:XR眼镜获取用户的兴趣角度;用户的兴趣角度用于表征用户感兴趣的方向。之后,XR眼镜获取第一音频的声源角度。上述响应于用户的兴趣角度为第一兴趣角度,播放第一强度的第一音频,包括:若获取到用户的兴趣角度为第一兴趣角度,则基于第一兴趣角度与第一音频的声源角度对第一音频进行增强处理,以使得播放第一强度的第一音频。
其中,XR眼镜获取用户的兴趣角度的具体实现,可以参见上述步骤S600的相关介绍,在此不再赘述。以及。XR眼镜获取第一音频的声源角度的具体实现,可以参见上述步骤S601的相关介绍,在此不再赘述。以及,XR眼镜基于第二兴趣角度与第一音频的声源角度对第一音频进行增强处理的具体实现,可以参见上述步骤S603的相关介绍,在此不再赘述。
在一些实施例中,上述第一目标音频可以包括第一音频和第二音频。在电子设备播放第一目标音频的过程中,响应于用户的兴趣角度为第一兴趣角度,播放第五强度的第二音频;响应于用户的兴趣角度为第二兴趣角度,播放第六强度的第二音频。
其中,第一音频的声源角度与第一兴趣角度相匹配,第一音频的声源角度与第二兴趣角度不匹配,第二音频的声源角度与第一兴趣角度不匹配,第二音频的声源角度与第二兴趣角度不匹配。音频的声源角度用于表征音频与用户的位置关系,第五强度小于第六强度,用户的兴趣角度用于表征所述用户感兴趣的方向。
例如,在图15的1300部分中用户的兴趣角度为第二兴趣角度,第二音频(如音频对象1301B的音频)的声音强度为第六强度;在图15的1310部分中用户的兴趣角度为第一兴趣角度,第二音频(如音频对象1301B的音频)的声音强度为第五强度。在第二兴趣角度变化为第一兴趣角度后,第二音频的声音强度由第六强度变为第五强度,也就是说,第二音频的音频的声音强度变小。
在上述实施例中,第二音频的声音强度会跟随着用户的兴趣角度变化。当用户的兴趣角度与第一音频的声源角度匹配时,也就说明用户对该第一音频比较感兴趣。此时,电子设备播放的第一目标音频中的第二音频的声音强度会变小(如由第六强度变为第五强度)。由于第二音频的声音强度变小了,相对来讲,在第一目标音频中第一音频的声音就可以在听觉上被凸显。这样,第一音频的清晰程度就会被提升,用户就可以将第一音频听得更加清楚,可以提升用户的使用体验。
本申请的另外一些实施例中又提供了一种音频处理方法,该方法可以应用于XR眼镜。该方法包括:XR眼镜获取用户的兴趣角度。兴趣角度用于表征使用XR眼镜的用户的兴趣方向。兴趣方向可以理解为,用户感兴趣的方向;也就是说,用户对兴趣方向上的音频对象比较感兴趣,用户对兴趣方向上的音频更加关注,用户也就更想要听清楚来自兴趣方向上的声音。兴趣角度可以包括:注视角度或交互角度。其中,注视角度,可以理解为用户目光注视的角度,可以用来表征用户注意力集中的方向,如用来表征注视方向。交互角度,可以理解为用户与该交互角度上的音频对象进行交互,可以用来表征与用户发生交互的方向,如交互方向。
示例性的,XR眼镜可以通过用户的交互操作获取用户的兴趣角度;又示例性的,XR眼镜也可以通过眼动跟踪传感器获取用户的注视角度;再示例性的,XR眼镜还可以通过FOV相机获取用户的交互角度。
接下来,XR眼镜响应于用户的兴趣角度为兴趣角度1,播放第二目标音频。
然后,XR眼镜响应于用户的兴趣角度从兴趣角度1变化为兴趣角度2,调整第二目标音频包括的音频的信号强度,并播放调整后的第二目标音频;调整后的第二目标音频中处于第一音源角度的音频的信号强度大于调整前处于第一音源角度的音频的信号强度,调整后的第二目标音频中处于第二音源角度的音频的信号强度保持不变。音源角度用于表征发出音频的音源与用户之间的位置关系,如表征发出音频的音源对象与用户之间的方向关系。其中,第一音源角度与兴趣角度2相匹配,第一音源角度与兴趣角度1不匹配;第二音源角度与兴趣角度2、兴趣角度1不匹配。
例如,参见上述图17;在图17的1600中用户的兴趣角度为兴趣角度1,音频1602A的声源角度为第一声源角度,音频1601A的声源角度为第二声源角度;在图17的1610中用户的兴趣角度为兴趣角度2。XR眼镜响应于用户的兴趣角度从兴趣角度1变化为兴趣角度2,播放调整后的第二目标音频。在调整后的第二目标音频中,音频对象1602A的声音强度是变大的(如,图17的1610部分中音频对象1602A的声音强度大于图17中1600部分中音频对象1602A的声音强度),音频对象1601A的声音强度不变。在上述过程中,第二目标音频中的音频会跟随用户的兴趣角度变化。当用户的兴趣角度与第一音源角度匹配时,也就表示用户对该第一音源角度的音频比较感兴趣,XR眼镜就会增强第一音源角度的音频。以及,保持在第二目标音频中未与用户兴趣角度匹配的音频的信号强度(如,兴趣角度2的音频)不变。这样,用户感兴趣的音频(如,音频对象1602A的音频)就会在第二目标音频中被凸显出来;那么,用户感兴趣的音频的清晰程度就会被提升,用户就可以将其感兴趣的音频听得更加清楚,可以提升用户的使用体验。
接下来,XR眼镜响应于用户的兴趣角度从兴趣角度2变化为兴趣角度3,并播放增大后的第二目标音频。其中,兴趣角度3与第一音源角度之间的差异,小于兴趣角度2与第一音源角度之间的差异,增大后的第二目标音频中处于第一音源角度的音频的信号强度大于增大前处于第一音源角度的音频的信号强度。
例如,参见上述图17;在图17的1610中用户的兴趣角度为兴趣角度2,在图17的1620中用户的兴趣角度为兴趣角度3。XR眼镜响应于用户的兴趣角度2变化为兴趣角度3播放增大后的第二目标音频。在增大后的第二目标音频中音频对象1602A的声音强度大于增大前的第二目标音频中音频对象1602A的声音强度(如,图17的1620部分中音频对象1602A的声音强度大于图17中1610部分中音频对象1602A的声音强度)。在上述过程中,音频的信号强度还会基于用户的兴趣角度与音频的音源角度之间的差异进行不同程度的增大。在用户的兴趣角度与音频的音源角度之间的差异不断减小的过程中,用户感兴趣的音频的声音强度也会不断增大。这样,用户就会在听觉上感受到其感兴趣的音频的声音是持续、稳定增大的,不会突然变大。由此,既可以使用户将其感兴趣的音频听得更加清楚,又可以使得其感兴趣的音频的变化比较稳定,不会产生突变,可以进一步地提升用户的使用体验。
然后,XR眼镜响应于用户的兴趣角度从兴趣角度2变化为兴趣角度4,XR眼镜播放减小后的第二目标音频。减小后的第二目标音频中处于第一音源角度的音频的信号强度小于减小前处于第一音源角度的音频的信号强度。兴趣角度4与第一音源角度未匹配。
例如,参见上述图17,用户的兴趣角度由图17的1610部分中的兴趣角度2变化为图17的1600部分中的兴趣角度4。音频对象1602A的音源角度(也就是第一音源角度)与兴趣角度2匹配变化为与兴趣角度4未匹配。此时XR眼镜播放的目标音频中处于第一音源角度的音频的信号强度小于减小前处于第一音源角度的音频的信号强度,也就是说,在图17的1600部分中音频对象1602A的声音强度小于在图17的1610部分中音频对象1602A的声音强度。
其中,XR眼镜获取用户的兴趣角度的具体实现,可以参见上述步骤S600的相关介绍,在此不再赘述。以及。XR眼镜播放第二目标音频的具体实现,可以参见上述步骤S601、S602和S603的相关介绍,在此不再赘述。
可以理解的是,为了实现上述功能,XR眼镜包含了执行各个功能相应的硬件和/或软件模块。结合本文中所公开的实施例描述的各示例的算法步骤,本申请能够以硬件或硬件和计算机软件的结合形式来实现。某个功能究竟以硬件还是计算机软件驱动硬件的方式来执行,取决于技术方案的特定应用和设计约束条件。本领域技术人员可以结合实施例对每个特定的应用来使用不同方法来实现所描述的功能,但是这种实现不应认为超出本申请的范围。
本实施例可以根据上述方法示例对XR眼镜进行功能模块的划分,例如,可以对应各个功能划分各个功能模块,也可以将两个或两个以上的功能集成在一个处理模块中。上述集成的模块可以采用硬件的形式实现。需要说明的是,本实施例中对模块的划分是示意性的,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式。
参见图18,本申请实施例还提供一种音频处理装置,该装置包括:兴趣角度获取模块,时频变换模块,子带能量计算模块、发声角度计算模块、目标对象确定模块、音频响度增强模块和频时变换模块。
其中,兴趣角度获取模块用于执行上述步骤S600,获取用户的兴趣角度。时频转换模块用于执行上述步骤S601A1,得到左声道频域数据和右声道频域数据。子带能量计算模块用于执行上述步骤S601A2,得到左声道频域数据的子带能量和右声道频域数据的子带能量。发声角度计算模块用于执行上述步骤S601A3,得到发声角度。目标对象确定模块,用于执行上述步骤S602,确定目标对象。音频响度增益模块,用于执行上述表达式组1对应的方案,得到增益后的右声道频域数据和增益后的左声道频域数据。频时变换模块,用于执行上述表达式组3对应的方案,得到增益后的左声道音频数据和增益后的右声道音频数据。
在一些实施例中,上述音频处理装置还包括:多声道音频播放模块,该多声道音频播放模块用于播放上述增益后的左声道音频数据域和增益后的右声道音频数据。
参见图19,本申请实施还提供一种音频处理装置,该装置包括:音源分离神经网络、能量计算模块、发声角度计算模块、目标对象确定模块、音频响度放大模块、音频融合模块和兴趣角度获取模块。
其中,兴趣角度获取模块用于执行上述步骤S600,获取用户的兴趣角度。音源分离神经网络用于执行上述步骤S601B1,得到音频对象的右声道音频数据和音频对象的左声道音频数据。能量计算模块用于执行上述步骤S601B2,得到音频对象的右声道能量和音频对象的左声道能量。发声角度计算模块,用于执行上述步骤S601B3,得到发声角度。目标对象确定模块,用于执行上述步骤S602,确定目标对象。音频响度放大模块,用于执行上述表达式组2对应的方案,得到放大后的目标对象的右声道音频数据和放大后的目标对象的左声道音频数据。音频融合模块用于执行上述表达式组4对应的方案,得到放大后的右声道音频数据和放大后的左声道音频数据。
在一些实施例中,上述音频处理模块还包括,多声道音频播放模块,该多声道音频播放模块用于播放上述放大后的右声道音频数据和放大后的左声道音频数据。
本申请实施例还提供一种音频处理芯片,如图20所示,该音频处理芯片包括至少一个处理器1901和至少一个接口电路1902。处理器1901和接口电路1902可通过线路互联。例如,接口电路1902可用于从其它装置(例如,存储器)接收信号。又例如,接口电路1902可用于向其它装置(例如处理器1901)发送信号。例如,接口电路1902可读取存储器中存储的指令,并将该指令发送给处理器1901。当该指令被处理器1901执行时,可使得音频处理芯片可以执行上述各实施例中的各个步骤。
本申请实施例还提供一种音频模组,该音频模组可以包括上述音频处理芯片和至少两个扬声器。其中,音频处理芯片用于执行上述方法实施例,得到处理后的音频数据。接下来,扬声器播放上述处理后的音频数据。
本申请实施例还提供一种电子设备,如图21所示,该电子设备可以包括一个或者多个处理器2001、存储器2002和通信接口2003。
其中,存储器2002、通信接口2003与处理器2001耦合。例如,存储器2002、通信接口2003与处理器2001可以通过总线2004耦合在一起。
其中,通信接口2003用于与其他设备进行数据传输。存储器2002中存储有计算机程序代码。计算机程序代码包括计算机指令,当计算机指令被处理器2001执行时,使得电子设备执行本申请实施例中的设备认证。
其中,处理器2001可以是处理器或控制器,例如可以是中央处理器(centralprocessing unit,CPU),通用处理器,数字信号处理器(digital signal processor,DSP),专用集成电路(application-specific integrated circuit,ASIC),现场可编程门阵列(field programmable gate array,FPGA)或者其他可编程逻辑器件、晶体管逻辑器件、硬件部件或者其任意组合。其可以实现或执行结合本公开内容所描述的各种示例性的逻辑方框,模块和电路。所述处理器也可以是实现计算功能的组合,例如包含一个或多个微处理器组合,DSP和微处理器的组合等等。
其中,总线2004可以是外设部件互连标准(peripheral componentinterconnect,PCI)总线或扩展工业标准结构(extended industry standardarchitecture,EISA)总线等。上述总线2004可以分为地址总线、数据总线、控制总线等。为便于表示,图21中仅用一条粗线表示,但并不表示仅有一根总线或一种类型的总线。
本申请实施例还提供一种计算机可读存储介质,该计算机存储介质中存储有计算机程序代码,当上述处理器执行该计算机程序代码时,电子设备执行上述方法实施例中的相关方法步骤。
本申请实施例还提供了一种计算机程序产品,当该计算机程序产品在计算机上运行时,使得计算机执行上述方法实施例中的相关方法步骤。
其中,本申请提供的电子设备、计算机可读存储介质或者计算机程序产品均用于执行上文所提供的对应的方法,因此,其所能达到的有益效果可参考上文所提供的对应的方法中的有益效果,此处不再赘述。
通过以上实施方式的描述,所属领域的技术人员可以清楚地了解到,为描述的方便和简洁,仅以上述各功能模块的划分进行举例说明,实际应用中,可以根据需要而将上述功能分配由不同的功能模块完成,即将装置的内部结构划分成不同的功能模块,以完成以上描述的全部或者部分功能。
在本申请所提供的几个实施例中,应该理解到,所揭露的装置和方法,可以通过其它的方式实现。例如,以上所描述的装置实施例仅仅是示意性的,例如,所述模块或单元的划分,仅仅为一种逻辑功能划分,实际实现时可以有另外的划分方式,例如多个单元或组件可以结合或者可以集成到另一个装置,或一些特征可以忽略,或不执行。另一点,所显示或讨论的相互之间的耦合或直接耦合或通信连接可以是通过一些接口,装置或单元的间接耦合或通信连接,可以是电性,机械或其它的形式。
所述作为分离部件说明的单元可以是或者也可以不是物理上分开的,作为单元显示的部件可以是一个物理单元或多个物理单元,即可以位于一个地方,或者也可以分布到多个不同地方。可以根据实际的需要选择其中的部分或者全部单元来实现本实施例方案的目的。
另外,在本申请各个实施例中的各功能单元可以集成在一个处理单元中,也可以是各个单元单独物理存在,也可以两个或两个以上单元集成在一个单元中。上述集成的单元既可以采用硬件的形式实现,也可以采用软件功能单元的形式实现。
所述集成的单元如果以软件功能单元的形式实现并作为独立的产品销售或使用时,可以存储在一个可读取存储介质中。基于这样的理解,本申请实施例的技术方案本质上或者说做出贡献的部分或者该技术方案的全部或部分可以以软件产品的形式体现出来,该软件产品存储在一个存储介质中,包括若干指令用以使得一个设备(可以是单片机,芯片等)或处理器(processor)执行本申请各个实施例所述方法的全部或部分步骤。而前述的存储介质包括:U盘、移动硬盘、只读存储器(read only memory,ROM)、随机存取存储器(random access memory,RAM)、磁碟或者光盘等各种可以存储程序代码的介质。
以上内容,仅为本申请的具体实施方式,但本申请的保护范围并不局限于此,任何在本申请揭露的技术范围内的变化或替换,都应涵盖在本申请的保护范围之内。因此,本申请的保护范围应以所述权利要求的保护范围为准。

Claims (15)

1.一种音频处理方法,其特征在于,所述方法包括:
获取用户的兴趣角度;所述用户的兴趣角度用于表征所述用户感兴趣的方向;
响应于所述用户的兴趣角度为第一兴趣角度,播放目标音频;所述目标音频按照音频划分包括多个音源角度的音频,所述目标音频按照声道划分包括多个声道的音频数据;
音源角度用于表征发出音频的音源与所述用户之间的位置关系;
响应于所述用户的兴趣角度从所述第一兴趣角度变化为第二兴趣角度,播放调整后的所述目标音频;所述调整后的所述目标音频中处于第一音源角度的音频的信号强度大于调整前处于所述第一音源角度的音频的信号强度;所述第一音源角度与所述第二兴趣角度相匹配,所述第一音源角度与所述第一兴趣角度不匹配;
其中,所述响应于所述用户的兴趣角度为第一兴趣角度,播放目标音频,包括:
从所述目标音频中分离得到音频对象在每个声道上的音频数据,所述音频对象与所述音源具有对应关系;
基于所述音频对象的音源角度,对所述音频对象的音频数据进行强度处理,得到强度处理后的所述目标音频;所述音频对象的音源角度根据所述音频对象在每个声道之间的音频差异以及三角函数关系确定,所述音频差异包括:相位差异、振幅差异、频率差异、能量差异和波形差异之中的一种或多种;
播放所述强度处理后的所述目标音频。
2.根据权利要求1所述的方法,其特征在于,所述调整后的所述目标音频中处于第二音源角度的音频的信号强度保持不变;或者,所述调整后的所述目标音频中处于所述第二音源角度的音频的信号强度变小;所述第二音源角度与所述第一兴趣角度、所述第二兴趣角度不匹配。
3.根据权利要求1所述的方法,其特征在于,所述第一音源角度与所述第二兴趣角度相匹配包括:所述第一音源角度与所述第二兴趣角度之间的差异小于或等于预设角度阈值;
所述第一音源角度与所述第一兴趣角度不匹配包括:所述第一音源角度与所述第一兴趣角度之间的差异大于所述预设角度阈值。
4.根据权利要求3所述的方法,其特征在于,所述方法还包括:
响应于所述用户的兴趣角度从所述第二兴趣角度变化为第三兴趣角度,播放增大后的所述目标音频;
其中,所述第三兴趣角度与所述第一音源角度之间的差异,小于所述第二兴趣角度与所述第一音源角度之间的差异,所述增大后的所述目标音频中处于所述第一音源角度的音频的信号强度大于增大前处于所述第一音源角度的音频的信号强度。
5.根据权利要求1所述的方法,其特征在于,所述方法还包括:
响应于所述用户的兴趣角度从所述第二兴趣角度变化为第四兴趣角度,播放减小后的所述目标音频;所述第四兴趣角度与所述第一音源角度未匹配;
所述减小后的所述目标音频中处于所述第一音源角度的音频的信号强度小于减小前处于所述第一音源角度的音频的信号强度。
6.根据权利要求1-5任一项所述的方法,其特征在于,所述音频对象与子带具有对应关系;所述从所述目标音频中分离得到音频对象在每个声道上的音频数据,包括:
从所述目标音频中分离得到每个声道的音频数据;
对于所述每个声道的音频数据进行子带划分得到多个子带在每个声道上的音频数据;
所述基于所述音频对象的音源角度,对所述音频对象的音频数据进行强度处理,得到强度处理后的所述目标音频,包括:
对于所述多个子带中的每个子带,根据所述子带的音源角度,对所述子带的音频数据进行强度处理,得到强度处理后的所述目标音频;所述对所述子带的音频数据进行强度处理包括:在所述子带的音源角度与所述第一兴趣角度的差值小于或等于预设角度阈值的情况下,增强所述子带的音频信号强度,在所述子带的音源角度与所述第一兴趣角度的差值大于所述预设角度阈值的情况下,所述子带的音频信号强度保持不变。
7.根据权利要求6所述的方法,其特征在于,所述增强所述子带的音频信号强度,包括:
基于所述子带的音源角度与所述第一兴趣角度之间的差异,得到所述子带的声音强度的增益,所述增益与所述差异负相关;
基于所述增益增强所述子带的音频信号强度。
8.根据权利要求1-5任一项所述的方法,其特征在于,所述从所述目标音频中分离得到音频对象在每个声道上的音频数据,包括:
从所述目标音频中分离得到每个音源的音频数据;每个音源对应多个声道的音频数据;
所述基于所述音频对象的音源角度,对所述音频对象的音频数据进行强度处理,得到强度处理后的所述目标音频,包括:
对于所述多个音源中每个音源,根据所述音源的音源角度,对所述音源的音频数据进行强度处理,得到强度处理后的所述目标音频;所述对所述音源的音频数据进行强度处理包括:在所述音源的音源角度与所述第一兴趣角度的差值小于或等于预设角度阈值的情况下,增强所述音源对应的每个声道的音频信号强度,在所述音源的音源角度与所述第一兴趣角度的差值大于所述预设角度阈值的情况下,所述音源的音频信号强度保持不变。
9.根据权利要求8所述的方法,其特征在于,所述增强所述音源对应的每个声道的音频信号强度,包括:
基于所述音源的音源角度与所述第一兴趣角度之间的差异,得到所述音源的声音强度的增益,所述增益与所述差异负相关;
基于所述增益增强所述每个声道的音频信号强度。
10.根据权利要求9所述的方法,其特征在于,所述多个声道包括左声道和右声道。
11.根据权利要求1-5任一项所述的方法,其特征在于,所述获取用户的兴趣角度,包括:
响应于所述用户的交互操作得到所述用户的兴趣角度。
12.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于包括眼动跟踪传感器的电子设备;所述用户的兴趣角度包括所述用户的注视角度,所述用户的注视角度用于表征所述用户的注视方向;
所述获取用户的兴趣角度,包括:
通过所述眼动跟踪传感器检测所述用户的注视角度。
13.根据权利要求1-5任一项所述的方法,其特征在于,所述方法应用于包括摄像头的电子设备;所述用户的兴趣角度包括所述用户的交互角度,所述用户的交互角度用于表征与所述用户产生交互的方向;
所述获取用户的兴趣角度,包括:
通过所述摄像头拍摄视场图片,基于所述视场图片检测所述用户的交互角度。
14.一种电子设备,其特征在于,所述电子设备包括存储器、一个或多个处理器,所述存储器与所述处理器耦合;其中,所述存储器中存储有计算机程序代码,所述计算机程序代码包括计算机指令;当所述计算机指令被所述处理器执行时,使得所述电子设备执行如权利要求1-13任一项所述的方法。
15.一种计算机可读存储介质,其特征在于,包括计算机指令,当所述计算机指令在电子设备上运行时,使得所述电子设备执行如权利要求1-13任一项所述的方法。
CN202311166555.9A 2023-09-11 2023-09-11 音频处理方法、电子设备及存储介质 Active CN116913328B (zh)

Priority Applications (1)

Application Number Priority Date Filing Date Title
CN202311166555.9A CN116913328B (zh) 2023-09-11 2023-09-11 音频处理方法、电子设备及存储介质

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
CN202311166555.9A CN116913328B (zh) 2023-09-11 2023-09-11 音频处理方法、电子设备及存储介质

Publications (2)

Publication Number Publication Date
CN116913328A CN116913328A (zh) 2023-10-20
CN116913328B true CN116913328B (zh) 2023-11-28

Family

ID=88356851

Family Applications (1)

Application Number Title Priority Date Filing Date
CN202311166555.9A Active CN116913328B (zh) 2023-09-11 2023-09-11 音频处理方法、电子设备及存储介质

Country Status (1)

Country Link
CN (1) CN116913328B (zh)

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483921A (zh) * 2009-08-18 2012-05-30 三星电子株式会社 用于对多声道音频信号进行编码的方法和设备以及用于对多声道音频信号进行解码的方法和设备
CN109872710A (zh) * 2019-03-13 2019-06-11 腾讯音乐娱乐科技(深圳)有限公司 音效调制方法、装置及存储介质
US10667073B1 (en) * 2019-06-10 2020-05-26 Bose Corporation Audio navigation to a point of interest
CN112492380A (zh) * 2020-11-18 2021-03-12 腾讯科技(深圳)有限公司 音效调整方法、装置、设备及存储介质
CN113516989A (zh) * 2020-03-27 2021-10-19 浙江宇视科技有限公司 声源音频的管理方法、装置、设备和存储介质
CN115620727A (zh) * 2022-11-14 2023-01-17 北京探境科技有限公司 音频处理方法、装置、存储介质及智能眼镜

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180270571A1 (en) * 2015-01-21 2018-09-20 Harman International Industries, Incorporated Techniques for amplifying sound based on directions of interest
US11482238B2 (en) * 2020-07-21 2022-10-25 Harman International Industries, Incorporated Audio-visual sound enhancement

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102483921A (zh) * 2009-08-18 2012-05-30 三星电子株式会社 用于对多声道音频信号进行编码的方法和设备以及用于对多声道音频信号进行解码的方法和设备
CN109872710A (zh) * 2019-03-13 2019-06-11 腾讯音乐娱乐科技(深圳)有限公司 音效调制方法、装置及存储介质
US10667073B1 (en) * 2019-06-10 2020-05-26 Bose Corporation Audio navigation to a point of interest
CN113516989A (zh) * 2020-03-27 2021-10-19 浙江宇视科技有限公司 声源音频的管理方法、装置、设备和存储介质
CN112492380A (zh) * 2020-11-18 2021-03-12 腾讯科技(深圳)有限公司 音效调整方法、装置、设备及存储介质
CN115620727A (zh) * 2022-11-14 2023-01-17 北京探境科技有限公司 音频处理方法、装置、存储介质及智能眼镜

Also Published As

Publication number Publication date
CN116913328A (zh) 2023-10-20

Similar Documents

Publication Publication Date Title
US20220159403A1 (en) System and method for assisting selective hearing
CN108369811B (zh) 分布式音频捕获和混合
JP6367258B2 (ja) オーディオ処理装置
US10585486B2 (en) Gesture interactive wearable spatial audio system
US11068668B2 (en) Natural language translation in augmented reality(AR)
US11184723B2 (en) Methods and apparatus for auditory attention tracking through source modification
JP2015019371A5 (zh)
JP2022521886A (ja) サウンドシーン分析とビームフォーミングとを使用する音響伝達関数のパーソナライゼーション
US11284211B2 (en) Determination of targeted spatial audio parameters and associated spatial audio playback
JP7210602B2 (ja) オーディオ信号の処理用の方法及び装置
US20230164509A1 (en) System and method for headphone equalization and room adjustment for binaural playback in augmented reality
US20220232342A1 (en) Audio system for artificial reality applications
US20230260525A1 (en) Transform ambisonic coefficients using an adaptive network for preserving spatial direction
He et al. Towards Bone-Conducted Vibration Speech Enhancement on Head-Mounted Wearables
CN116913328B (zh) 音频处理方法、电子设备及存储介质
CN114220454B (zh) 一种音频降噪方法、介质和电子设备
CN114501297B (zh) 一种音频处理方法以及电子设备
CN116126132A (zh) 一种ar眼镜及其音频增强方法和装置、可读存储介质
US20220021998A1 (en) Method for generating sound and devices for performing same
Moon et al. Multi-channel audio source separation using azimuth-frequency analysis and convolutional neural network
US11683634B1 (en) Joint suppression of interferences in audio signal
KR20200054083A (ko) 사운드 생성 방법 및 이를 수행하는 장치들
US20200145748A1 (en) Method of decreasing the effect of an interference sound and sound playback device
Amin et al. Impact of microphone orientation and distance on BSS quality within interaction devices
CN117373459A (zh) 头戴式电子设备、显示方法、介质及程序产品

Legal Events

Date Code Title Description
PB01 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
GR01 Patent grant
GR01 Patent grant