CN109906616A - 用于确定一或多个音频源的一或多个音频表示的方法、系统和设备 - Google Patents
用于确定一或多个音频源的一或多个音频表示的方法、系统和设备 Download PDFInfo
- Publication number
- CN109906616A CN109906616A CN201780067860.9A CN201780067860A CN109906616A CN 109906616 A CN109906616 A CN 109906616A CN 201780067860 A CN201780067860 A CN 201780067860A CN 109906616 A CN109906616 A CN 109906616A
- Authority
- CN
- China
- Prior art keywords
- microphone
- audio
- signal
- source
- array
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims abstract description 148
- 238000003491 array Methods 0.000 claims abstract description 45
- 239000002775 capsule Substances 0.000 claims abstract description 39
- OKTJSMMVPCPJKN-UHFFFAOYSA-N Carbon Chemical compound [C] OKTJSMMVPCPJKN-UHFFFAOYSA-N 0.000 claims abstract description 21
- 229910052799 carbon Inorganic materials 0.000 claims abstract description 21
- 230000005236 sound signal Effects 0.000 claims description 58
- 230000006870 function Effects 0.000 claims description 22
- 241000209140 Triticum Species 0.000 claims description 12
- 235000021307 Triticum Nutrition 0.000 claims description 12
- 239000003610 charcoal Substances 0.000 claims description 4
- 238000010801 machine learning Methods 0.000 claims description 3
- 230000009467 reduction Effects 0.000 claims description 2
- 230000010415 tropism Effects 0.000 claims description 2
- 230000001537 neural effect Effects 0.000 claims 1
- 238000012545 processing Methods 0.000 description 10
- 238000013528 artificial neural network Methods 0.000 description 8
- 238000009792 diffusion process Methods 0.000 description 6
- 230000003993 interaction Effects 0.000 description 4
- 238000000926 separation method Methods 0.000 description 4
- 238000012732 spatial analysis Methods 0.000 description 4
- 238000003860 storage Methods 0.000 description 4
- 230000000007 visual effect Effects 0.000 description 4
- 230000004913 activation Effects 0.000 description 3
- 238000004458 analytical method Methods 0.000 description 3
- 230000008901 benefit Effects 0.000 description 3
- 210000005069 ears Anatomy 0.000 description 3
- 230000008569 process Effects 0.000 description 3
- 230000009471 action Effects 0.000 description 2
- 230000005540 biological transmission Effects 0.000 description 2
- 230000015572 biosynthetic process Effects 0.000 description 2
- 230000008859 change Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 230000001965 increasing effect Effects 0.000 description 2
- 238000005457 optimization Methods 0.000 description 2
- 238000013519 translation Methods 0.000 description 2
- 240000006409 Acacia auriculiformis Species 0.000 description 1
- 241000271532 Crotalus Species 0.000 description 1
- PEDCQBHIVMGVHV-UHFFFAOYSA-N Glycerine Chemical compound OCC(O)CO PEDCQBHIVMGVHV-UHFFFAOYSA-N 0.000 description 1
- 238000012897 Levenberg–Marquardt algorithm Methods 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 210000004556 brain Anatomy 0.000 description 1
- 244000309464 bull Species 0.000 description 1
- 238000006243 chemical reaction Methods 0.000 description 1
- 238000005520 cutting process Methods 0.000 description 1
- 230000007423 decrease Effects 0.000 description 1
- 238000013461 design Methods 0.000 description 1
- 238000005538 encapsulation Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000002708 enhancing effect Effects 0.000 description 1
- 230000004927 fusion Effects 0.000 description 1
- 238000011478 gradient descent method Methods 0.000 description 1
- 238000007654 immersion Methods 0.000 description 1
- 238000004519 manufacturing process Methods 0.000 description 1
- 238000005259 measurement Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 210000002569 neuron Anatomy 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000008447 perception Effects 0.000 description 1
- 239000000700 radioactive tracer Substances 0.000 description 1
- 238000004088 simulation Methods 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
- 238000000527 sonication Methods 0.000 description 1
- 238000003786 synthesis reaction Methods 0.000 description 1
- 238000012549 training Methods 0.000 description 1
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01S—RADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
- G01S5/00—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
- G01S5/18—Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
- G01S5/20—Position of source determined by a plurality of spaced direction-finders
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L25/00—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00
- G10L25/03—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters
- G10L25/18—Speech or voice analysis techniques not restricted to a single one of groups G10L15/00 - G10L21/00 characterised by the type of extracted parameters the extracted parameters being spectral information of each sub-band
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R1/00—Details of transducers, loudspeakers or microphones
- H04R1/20—Arrangements for obtaining desired frequency or directional characteristics
- H04R1/32—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
- H04R1/40—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
- H04R1/406—Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2201/00—Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
- H04R2201/40—Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
- H04R2201/401—2D or 3D arrays of transducers
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R2430/00—Signal processing covered by H04R, not provided for in its groups
- H04R2430/20—Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
- H04R2430/21—Direction finding using differential microphone array [DMA]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/11—Positioning of individual sound objects, e.g. moving airplane, within a sound field
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2400/00—Details of stereophonic systems covered by H04S but not provided for in its groups
- H04S2400/15—Aspects of sound capture and related signal processing for recording or reproduction
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04S—STEREOPHONIC SYSTEMS
- H04S2420/00—Techniques used stereophonic systems covered by H04S but not provided for in its groups
- H04S2420/11—Application of ambisonics in stereophonic audio systems
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Otolaryngology (AREA)
- Acoustics & Sound (AREA)
- Signal Processing (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Computational Linguistics (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Spectroscopy & Molecular Physics (AREA)
- Circuit For Audible Band Transducer (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
Abstract
本文献描述一种用于确定至少一个音频源(200)的位置的方法(700)。所述方法(700)包含在两个或更多个麦克风阵列(210、220、230)处捕获(701)第一麦克风信号和第二麦克风信号,其中所述两个或更多个麦克风阵列(210、220、230)置放在不同位置处。所述两个或更多个麦克风阵列(210、220、230)各自至少包括捕获第一麦克风信号的第一麦克风炭精盒和捕获第二麦克风信号的第二麦克风炭精盒,其中所述第一麦克风炭精盒与所述第二麦克风炭精盒具有以不同方式定向的空间方向性。此外,所述方法(700)包括针对每一麦克风阵列(210、220、230)且基于所述各别第一和第二麦克风信号来确定(702)所述各别麦克风阵列(210、220、230)处的至少一个音频源(200)的入射方向(211、221、231)。另外,所述方法(700)包括基于所述两个或更多个麦克风阵列(210、220、230)处的所述入射方向(211、221、231)来确定(703)所述音频源(200)的所述位置。
Description
相关申请的交叉引用
本申请主张2017年5月25日提交的美国临时专利申请第62/510,898号和2016年9月29日提交的美国临时专利申请第62/401,636号的优先权权益,所述两个申请以全文引用的方式并入本文中。
技术领域
本公开涉及立体音频捕获、建模和表示以及提供一或多个音频对象的立体音频表示(其包含位置和/或音频特征)的方法、设备和过程。
背景技术
虚拟现实(VR)、扩增现实(AR)和混合现实(MR)应用快速发展为包含声音源的逐渐细化声学模型和可从不同视点/视角欣赏到的场景。两个不同类别的柔性音频表示可用于VR应用:声场表示和基于对象的表示。声场表示是基于物理的方法,其编码收听者位置处的入射波前。举例来说,如B格式或高阶立体混响(Higher-Order Ambisonics;HOA)的方法表示使用球面谐波分解的空间波前。基于对象的方法将复杂听觉场景表示为单个要素的集合,其包括可能随时间变化的音频波形和相关参数或元数据。
享受VR、AR和MR应用可包含用户经历不同听觉视点或视角。举例来说,可基于使用6个自由度(degrees of freedom;DOF)的机制来提供基于空间的VR。图1说明展示平移移动(向前/向后、向上/向下和向左/向右)和旋转移动(纵倾、侧转和横转)的6DOF交互的实例。不同于限于头部旋转的3DOF球面视频体验,为6DOF交互创建的内容除了头部旋转之外还允许虚拟环境的导航(例如,在室内行走)。这可基于位置追踪器(例如,基于相机)和定向追踪器(例如,陀螺仪和/或加速计)而实现。6DOF追踪技术可在较高端桌面VR系统(例如,VR、Oculus Rift、HTC Vive)上以及在高端移动VR平台(例如,Google Tango)上可用。用户对声音或音频源的方向性和空间范围的体验对6DOF体验的现实性极为重要,确切地说对贯穿场景和在虚拟音频源周围的导航的体验。
尽管存在允许重构来自多个相机(例如,基于摄影测量)的3D场景的视觉技术,所述相机允许与立体3D模型的交互,但缺乏可与这些立体视频方法匹配的音频方案。举例来说,声场捕获、建模和重构(例如,波场合成(WFS)或较高阶立体混响(HOA))当前在于相对大区域内提供引人注目的6DOF交互和提供方向特性方面受到限制。为在相对大面积或相对宽频率范围内实现良好重构,需要相对大量的单声道麦克风。因此,此类方法受个别麦克风炭精盒的质量或SNR困扰。此外,在单声道麦克风可捕获音频场景信息时,每个点处的空间信息的缺乏使其难以将不同录音融合到相干的音频场景中。
发明内容
本文献以高效和精确方式解决确定包括一或多个音频源的音频场景的立体音频表示的技术问题。
根据一方面,描述一种用于确定至少一个音频源的位置的方法。方法包含在两个或更多个麦克风阵列处接收第一麦克风信号和第二麦克风信号,其中两个或更多个麦克风阵列置放在不同位置处(例如,在至少一个音频源周围的不同位置处两个或更多个麦克风阵列各自至少包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒,其中第一麦克风炭精盒与第二麦克风炭精盒具有以不同方式定向的空间方向性。此外,方法包含针对每一麦克风阵列且基于各别第一和第二麦克风信号来确定各别麦克风阵列处的至少一个音频源的入射方向。另外,方法包含基于两个或更多个麦克风阵列处的入射方向来确定音频源的位置。
根据另一方面,描述一种用于确定至少一个音频源的位置的方法。方法经调适以捕获两个或更多个麦克风阵列处的第一麦克风信号和第二麦克风信号,其中两个或更多个麦克风阵列置放在不同位置处。两个或更多个麦克风阵列各自至少包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒,其中第一麦克风炭精盒与第二麦克风炭精盒具有以不同方式定向的空间方向性。方法经进一步调适以针对每一麦克风阵列且基于各别第一和第二麦克风信号来确定各别麦克风阵列处的至少一个音频源的入射方向。另外,方法经调适以基于两个或更多个麦克风阵列处的入射方向来确定音频源的位置。
方法经进一步调适以基于音频源的位置来确定核心单声道音频信号且构建音频方向性的球面谐波表示。方法可进一步基于音频源的位置、核心单声道信号和音频方向性的球面谐波表示来确定音频表示。
根据另一方面,描述一种可执行上述方法的系统。
根据另一方面,描述一种软件程序。所述软件程序可适合于在处理器上执行且当在处理器上执行时适合于执行本文献中概述的方法步骤。
根据另一方面,描述一种存储媒体。存储媒体可包括适用于在处理器上执行且当在处理器上执行时适用于执行本文献中概述的方法步骤的软件程序。
根据另一方面,描述一种计算机程序产品。计算机程序可包括当在计算机上执行时执行本文献中概述的方法步骤的可执行指令。
应注意,如本专利申请中所概述的包含其优选实施例的方法和系统可单独或与本文献中所公开的其它方法和系统组合使用。此外,本专利申请中概述的方法和系统的所有方面可任意组合。确切地说,权利要求书的特征可以任意方式彼此组合。
附图说明
参考附图在下文以示范性方式解释本发明,其中
图1说明包含平移移动(向前/向后、向上/向下和向左/向右)和旋转移动(纵倾、侧转和横转)的基于示范性6自由度(DOF)空间的VR;
图2说明用于捕获由一或多个音频源发射的音频信号的多个麦克风阵列的图式;
图3说明音频源的实例方向性图案;
图4展示在麦克风阵列处捕获的音频信号的声道间特征与音频源的方向参数之间的实例函数关系;
图5展示用于从在麦克风阵列处捕获的麦克风信号的声道间特征推导音频源的方向参数的实例神经网络;
图6说明用于确定一或多个立体音频表示的示范性方法的流程图;
图7展示用于确定音频源的位置的示范性方法的流程图;
图8展示用于确定音频源的方向性图案的示范性方法的流程图;以及
图9展示用于确定虚拟收听者位置处的收听信号的示范性方法的流程图。
具体实施方式
如所属领域的技术人员将了解,完全沉浸在虚拟世界中“欺骗”人的大脑去相信所感测的东西。当视线受到视野限制时,声音为不可见的东西增加维度。举例来说,声音可指示什么时候公牛从后面向前冲、响尾蛇正向右移动,或甚至什么时候耳语从人的左耳移动到其头部后面然后传到右耳。通过利用声音来导引用户的视线,内容创建者可更有效地说谎。
现在电影院和家庭式影院中正经由基于对象的声音形成、封装和内容回放来提供沉浸式音频体验。这已为VR声音铺平了道路,所述VR声音需要声音精确度才能完全沉浸在虚拟世界中。VR内容的创建者需要能够在三维空间中创建基于对象的声音。此外,此类内容需要通过(头戴式耳机上的)双耳和扬声器精确和高效地进行编码、传送和再现从而使用户享受内容。通常假设良好VR音频内容可通过与相机视角匹配的直接捕获来实现。然而,制作引人注目的混合通常需要超越现实从而基于操作提供增强视角。从内容创建到消费必须保留必要的艺术意图和创作完整性,从而确保完整沉浸到虚拟世界中。
本文中所描述的实例实施例描述经调适以利用相对少量的(高质量、低阶)方向性麦克风阵列(例如,立体声XY麦克风、XY+全向麦克风或A格式麦克风)记录音频场景且重构立体音频表示的方法、设备和过程,所述立体音频表示估计一或多个音频对象(即,从一或多个位置发射音频信号的一或多个音频源)的位置和音频特征。音频特征包含例如音频源的音频信号、音频信号的方向特性和/或用于音频信号的直接/漫射元数据标识符。
本文中所描述的额外实例实施例提出一种有效方案,所述方案通过将参数对象音频编码和空间集群方法扩展为包含方向信息来对方向音频源进行编码和空间写码。本文中所公开的实例实施例可采用各种捕获技术。举例来说,在一个实例实施例中,可通过将多个单点方向录音(例如,立体声、B格式、HOA)合并到单个3D音频场景中来创建VR、AR和/或MR环境。
图6说明用于确定立体音频表示的示范性方法600。在601处,声音可由一或多个麦克风或麦克风阵列捕获。替代地,在601处,预捕获声音可由方法600接收。声音可由音频信号表示,且此外,可由一或多个麦克风位姿(即,麦克风位置和定向数据)表示。
可基于计算机视觉技术或传感器(例如,陀螺仪、结构光传感器等)或基于音频源(例如,小扩音器)的平面布置经由声学测量来捕获麦克风位姿,其中音频源的几何形状已事先知道。举例来说,麦克风位姿可借由较高端VR系统(例如,VR、Oculus VR、Oculus Rift、HTC Vive)中以及移动VR平台(例如,Google Tango)上可用的追踪器捕获。麦克风或麦克风阵列可以是或可包含方向性麦克风(例如,XY麦克风或B格式麦克风)。
替代地,可进一步基于到达时间差(a time difference of arrival;TDOA)分析来以声学方式获得麦克风位姿。举例来说,位置可通过求解将麦克风位置链接到全部麦克风对之间的TDOA(即,麦克风间距离)的非线性等式的集合来恢复。方向追踪可恢复麦克风的定向。替代地或另外,可基于具有已知几何形状的空间音频源来确定麦克风位姿。可逐个地或一次完全确定多个麦克风或麦克风阵列中的每一个的位姿。在一个实例中,可在601处根据结合图7的方法700(例如,图7的块701)所描述的原理来捕获声音。
在602处,可处理所捕获的麦克风信息(即,麦克风信号)。举例来说,在602处,可基于所捕获的麦克风信息来执行降噪和时间对准,所述所捕获的麦克风信息如(即,一或多个麦克风信号集合上的)全部所捕获的麦克风输入。输入可取决于对应麦克风阵列的麦克风位姿。可对一或多个麦克风信号集合(还称为麦克风声道)采用空间分析。可例如使用提交为PCT/US2016/040836的从立体声记录确定方位角和仰角(Determining Azimuth andElevation Angles from Stereo Recordings)中所描述的XY上转换方法来针对不同频率子带(例如,时间/频率图像块)确定入射的直接/漫射分量和一或多个主方向。还可使用额外源分离方法或信号分类从而不限于子带分析。
举例来说,在XY上转换技术期间,一对重合、竖直堆叠的方向性麦克风炭精盒可输出第一麦克风音频信号和第二麦克风音频信号。所述麦克风炭精盒对(其形成麦克风阵列)可经组配使得所述重合、竖直堆叠的方向性麦克风炭精盒对是XY立体声麦克风系统。一些方法可涉及接收包含由一对重合、竖直堆叠的方向性麦克风炭精盒输出的第一麦克风音频信号和第二麦克风音频信号的输入音频数据。可至少部分地基于第一麦克风音频信号与第二麦克风音频信号之间的强度差来确定对应于声音源位置的方位角。可根据两个麦克风音频信号之间的时间差来估计仰角。可基于方位角和仰角信息来确定对由麦克风阵列捕获的声音的入射(在本文中又称为入射方向)的3D方向的估计。可针对不同频率子带和/或分离音频源或音频分量执行这一过程。
可相对于全部输入来在所有频率上实施宽带时间对准。可在上混/方向估计后对直接声音的每一子带执行空间平均。在一个实例中,可根据结合图7的方法700(例如,图7的块702)所描述的原理来处理声音。
在603处,使用麦克风阵列的已知位姿,可基于由每一麦克风阵列估计的入射方向来确定每一子带音频源再投影到每一麦克风“视点”中的位置(针对每一子带和/或针对每一分离音频分量)。图2中说明一实例。举例来说,可例如使用梯度下降通过使表示每一麦克风阵列210、220、230的位置估计的再投影误差的成本函数最小化来获得位置估计从而确定每一音频源200(例如,每一子带)的所估计位置。图2说明根据本文中所公开的实例实施例的具有所估计方向211、221、231和音频源200的所估计方位的多个麦克风阵列210、220、230的图式。在一个实例中,可根据结合图7的方法700(例如,图7的块703)或图6的方法600(例如图6的块603)所描述的原理来确定位置。
在604处,可重构每一音频源200(例如,每一子带)的单声道核心信号(即,音频信号)。基于对由音频源200发射到环境中的原始信号的估算来确定这种核心信号或音频信号。举例来说,可基于麦克风音频信号的线性组合(例如,由所估计源位置与每一麦克风位置之间的距离加权的和)来确定单声道核心信号。更一般来说,可将音频源200的单声道核心信号(即,音频信号)确定为由多个麦克风阵列210、220、230捕获的全部麦克风信号的加权平均。可基于麦克风阵列210、220、230的相对位置与音频源200的估计位置的函数来确定用于确定加权平均的权重。
在605处,可进一步最佳地构建音频源200的音频信号的球面谐波表示。可确定每一音频源200(例如,每一子带)的方向“残余”信号。可基于在604处重构的单声道音频信号的能量与由多个麦克风阵列210、220、230捕获的麦克风信号的能量之间的差来确定这一信息。知晓可通过将球面谐波系数的集合与由每一麦克风记录的能量级拟合来(例如针对每一音频源200)确定麦克风位姿以及每一音频源200(例如,每一子带或分离音频分量)的所估计位置、如图3中所展示的方向性图案302。图3说明根据本文中所公开的实例实施例的对与多个拟合球面谐波分量301重叠的多个麦克风阵列210、220、230的拟合方向性图案302的模拟。可相对于在604处确定的全向/平均音频信号将这一方向性图案302编码为分贝(Decibel;dB)增量。在一个实例中,可根据结合图8中展示的方法800所描述的原理来执行605处的处理。
在606处,基于来自603、604和605的信息来确定音频表示。更具体地,可基于(i)来自603的位置输出、(ii)来自604的核心音频信号和(iii)来自605的方向性函数输出来确定音频表示。可如先前所提及针对不同子带来估计那些要素。可随后输出且传输音频表示以用于进一步处理,(例如,通过图9中展示的方法900),如用于重新再现到新的收听有利点。
本文中所公开的实例实施例还可采用各种工具和GUI,所述各种工具和GUI可另外组合上混、自动融合和通过将输入链接/解链接进行的手动混合,生成对象音频输出(同时保持直接/漫射分量分离),调整随收听者距离而变的直接/漫射分量增益(在编码之前或在编码后)。GUI要素可包含移动收听者,移动音频源200,以及在输入与世界视图之间改变。
实例实施例指向借助于对方向声音对象的参数编码和解码或借助于将方向源动态地分组到具有代表性位置的代表性方向集群(如新全向信号和新方向的方向性增量)中进行的编码和传送。
本文献的列举实例是:
列举实例1.一种立体音频捕获、表示和编码方法,其包括:从一或多个麦克风捕获或确定一或多个麦克风位姿以模拟相对于一或多个麦克风位姿的方向性的音频信息;根据从每一麦克风“视点”获得的方向估计来使子带音频对象的再投影位置最小化;估算所记录场景中的实体声音源的3D位置;以及重构每一子带对象的单声道核心和方向残余信号从而估算由所记录场景中的实体声音源发射的信号。
列举实例2.根据列举实例1所述的方法,其中捕获一或多个麦克风位姿包括使用位置追踪器或基于已知源几何形状的音频分析。
列举实例3.根据列举实例1所述的方法,其中通过恢复针对不同频率子带的入射的直接/漫射分量和一或多个主方向来对一或多个麦克风输入声道集合采用空间分析。
列举实例4.根据列举实例1所述的方法,其中与借助于空间分析的一或多个麦克风输入的捕获组合来采用源分离方法,所述空间分析不限于子带分析。
列举实例5.根据列举实例1所述的方法,其中估计源3D位置采用梯度下降以获得位置估计。
列举实例6.根据列举实例1所述的方法,其中重构针对每一子带对象的单声道核心加上方向残余信号采用基于相对于每一或多个麦克风的所估计源距离/方向的麦克风信号的线性组合。
列举实例7.根据列举实例5所述的方法,其中重构针对每一子带对象的单声道核心加上方向残余信号包含优化用于每一子带对象的球面谐波表示。
列举实例8.根据列举实例6所述的方法,其中相对于全向/平均源将方向性编码为分贝(dB)增量。
列举实例9.根据列举实例6所述的方法,其进一步包括以下步骤:将高阶空间谐波转换为稀疏余弦瓣的和;以及将核心全向和方向残余解码为对象重要性函数。
列举实例10.根据列举实例1所述的方法,其中在多个子带对象中在舍弃了漫射分量的一些估计后基于每一子带对象到每一直接麦克风信号的所估计距离由全部麦克风的加权/时间对准的总和来重构对象信号的估算。
列举实例11.根据列举实例1所述的方法,其中非暂时性计算机可读媒体具有储存于其上的指令,在所述指令由一或多个处理器执行时,执行本文献中所描述的方法。
列举实例12.一种设备,其经配置用于立体音频捕获、表示和编码,所述设备包括:至少一个处理器和至少一个存储器,所述处理器和存储器经配置以:从一或多个麦克风捕获一或多个麦克风位姿以模拟相对于一或多个麦克风位姿的方向性的信息;使对应于每一麦克风“视点”的子带对象的再投影位置最小化;且重构针对每一子带对象的单声道核心加上方向残余信号。
图7展示用于确定至少一个音频源(例如,音频源200)的位置的实例方法700的流程图。在一个实例中,方法700可包含结合图6中所示的方法600的块602和603执行的处理。方法700可指向确定由至少一个音频源200发射的音频信号。另外,方法700可指向生成独立于收听者位置(即可对位于任意收听位置处的收听者重新再现)的音频表示。确切地说,可生成由至少一个音频源200发射的音频信号的音频表示。
这一音频表示可由方法900使用以再现不同收听位置处的收听信号,其中收听信号指示收听者如何感知由不同收听位置处的至少一个音频源200发射的音频信号。为了能够生成此类收听信号,可基于本文献中所描述的方法600、700或800来确定音频表示(即,一或多个音频源200的位置、所发射音频信号和/或方向性图案302)。
方法(700)可包含在701处捕获两个或更多个麦克风阵列210、220、230处的第一麦克风信号和第二麦克风信号,其中两个或更多个麦克风阵列210、220、230置放在不同位置处。换句话说,两个或更多个麦克风阵列210、220、230(例如,三个或更多个麦克风阵列210、220、230)可置放在三维环境内的不同位置处。尽管本方法说明三个麦克风阵列,但可实施三个以上麦克风阵列。麦克风阵列210、220、230可置放在一或多个音频源200周围。麦克风阵列210、220、230中的每一个可捕获第一麦克风信号和第二麦克风信号,其中麦克风阵列210、220、230的麦克风信号指示如何在麦克风阵列210、220、230的位置处感知由音频源200发射的音频信号。
两个或更多个麦克风阵列210、220、230通常至少各自包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒。第一麦克风炭精盒与第二麦克风炭精盒通常具有不同定向。换句话说,第一麦克风炭精盒和第二麦克风炭精盒可经配置以捕获不同空间方向上或具有不同方向性的声音。借助于实例,麦克风阵列(例如,210、220、230)可包括或可以是包括第一麦克风炭精盒和第二麦克风炭精盒的XY麦克风阵列,其中麦克风炭精盒经配置以捕获不同角度处(例如,相对于彼此的90°角度处)的声音。替代地或另外,麦克风阵列210、220、230可包括声场麦克风(例如,B格式麦克风)。
如此,麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号指示由至少一个音频源200发射的音频信号的不同角度。所述不同角度可处于相对于彼此的90°角度。不同角度可用于确定由麦克风阵列210、220、230处的至少一个音频源200发射的音频信号的入射方向211、221、231。
麦克风阵列210、220、230可如此以使得麦克风阵列210、220、230的两个或更多个麦克风炭精盒的位置对于麦克风阵列210、220、230的两个或更多个麦克风炭精盒而言大体上相同。在另一方面,麦克风阵列210、220、230的麦克风炭精盒的空间方向性的定向可大体上不同。因此,可简化用于确定由音频源200发射的音频信号的入射方向211、221、231的处理。
可(例如,经由包括多个麦克风阵列210、220、230的系统设计)事先知道麦克风阵列210、220、230的空间方向性的位置和定向。替代地,方法700可包含例如使用图像处理,例如使用固定在麦克风阵列210、220、230处的位置传感器和/或例如使用红外(infrared;IR)追踪来确定麦克风阵列210、220、230的位置。此外,方法700可包括(例如,使用定向传感器)确定麦克风阵列210、220、230的定向(即,不同麦克风炭精盒的空间方向性的定向)。可随后基于麦克风阵列210、220、230的位置和/或定向来确定由麦克风阵列210、220、230处的音频源200发射的音频信号的入射方向211、221、231。
如此,方法700可包含在702处针对每一麦克风阵列210、220、230且基于各别第一和第二麦克风信号来确定各别麦克风阵列210、220、230处的至少一个音频源200的入射方向211、221、231。确切地说,可基于由麦克风阵列210、220、230捕获的第一麦克风信号和第二麦克风信号来确定由麦克风阵列210、220、230处的音频源200发射的音频信号的入射方向211、221、231。入射方向211、221、231可通过处理第一麦克风信号和第二麦克风信号而确定。确切地说,第一麦克风信号和第二麦克风信号的声级差和/或相位差(即,声道间声级差和/或相位/时间差)可用于确定入射方向211、221、231。
麦克风阵列210、220、230处的音频源200(或由音频源200发射的音频信号)的入射方向211、221、231可指示方向,音频信号从所述方向到达麦克风阵列210、220、230的位置。使用两个或更多个(例如,三个或更多个)麦克风阵列210、220、230,可确定音频源200的两个或更多个(例如,三个或更多个)入射方向211、221、231。换句话说,可使用K个麦克风阵列210、220、230,其中K是K>1的整数(例如,K>2)。K个麦克风阵列210、220、230可各自经调适以捕获指示由音频源200发射的音频信号的第一麦克风信号和第二麦克风信号,借此提供第一麦克风信号与第二麦克风信号的K个集合。使用第一麦克风信号与第二麦克风信号的集合,可确定入射方向211、221、231。因此,可确定单个音频源200的用于K个麦克风阵列210、220、230的K个入射方向211、221、231。
方法700可进一步包括在703处基于两个或更多个麦克风阵列210、220、230处的入射方向211、221、231来确定音频源200的位置。换句话说,用于K个麦克风阵列210、220、230的K个入射方向211、221、231可用于确定音频源200的位置。出于此目的,由音频源200发射的音频信号通常从单个位置(即,从音频源200的位置)发射可加以利用。因此,K个麦克风阵列210、220、230的K个位置处的K个入射方向211、221、231应彼此相关。K个入射方向211、221、231应指向音频源200的独特位置。借助于实例,三角测量技术可用于从K个入射方向211、221、231确定音频源200的这一独特位置。
使用图7的方法700,可以高效和精确方式确定音频源200的位置。确切地说,仅相对低数目的(方向)麦克风阵列210、220、230(例如,K=3)需要用以捕获由音频源200发射的声音。由(相对低数目的)麦克风阵列210、220、230捕获的麦克风信号可随后用于以精确方式确定音频源200的位置。
如上文所指出,音频源200的K个入射方向211、221、231应指向音频源200的位置。这说明于图2中。麦克风阵列210、220、230处的入射方向211、221、231指示起源于麦克风阵列210、220、230的位置处且(大致)指向音频源200的位置方向的直线或射线。在703处,为了确定音频源200的位置,可减小成本函数或使成本函数最小化。成本函数可指示音频源200的(待确定)位置与起源于K个麦克风阵列210、220、230的K个位置的K条直线的平均距离(例如,平均平方距离),其中K条直线分别根据K个入射方向211、221、231而定向。换句话说,成本函数可指示音频源200的(待确定)位置到先前确定的K个入射方向211、221、231上的(平均)重投影误差。如此,可确定与K条直线最近(平均上,相对于某一距离测量值,例如平均平方距离或平均绝对距离)的音频源200的位置,所述直线分别由K个入射方向211、221、231限定且由K个麦克风阵列210、220、230的K个位置(或位姿)限定。借此,可以精确方式确定音频源200的位置。
方法700可包含基于麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来确定声道间声级差(inter-channel level difference;ICLD)和声道间时间差(inter-channel time difference;ICTD)。在一个实例中,可在图7中展示的方法700的702处确定或接收ICLD和/或ICTD。ICLD可指示第一麦克风信号和第二麦克风信号的声级和/或能量的差。ICTD可指示第一麦克风信号的相位与第二麦克风信号的相位之间的相位差。换句话说,ICTD可指示第一麦克风信号的到达时间与第二麦克风信号的到达时间之间的到达时间差。可随后基于声道间声级差且基于声道间时间差来确定麦克风阵列210、220、230处的入射方向211、221、231。借此,可以精确方式确定入射方向211、221、231,从而改进音频源200的所确定位置的精确度。
麦克风阵列210、220、230处的入射方向211、221、231可指示三维环境内的方位角和仰角。可相对于麦克风阵列210、220、230的位置和/或相对于麦克风阵列210、220、230的定向(即,相对于麦克风阵列210、220、230的位姿)来限定角度。换句话说,麦克风阵列210、220、230处的入射方向211、221、231可指示起源于麦克风阵列210、220、230的位置处且指向音频源200的估计位置的直线的方位角411和仰角412。
图4展示可用于基于声道间声级差401和/或基于声道间时间差来确定入射方向211、221、231的方位角411和仰角412的实例函数关系420。借助于实例,可基于声道间声级差(ICLD)401来确定方位角411。出于此目的,可假设在平面内捕获第一麦克风信号和第二麦克风信号且方位角411指示这一平面内的入射方向211、221、231的角度。在另一方面,可基于声道间时间差来确定仰角412。如可从图4看出,方位角411与ICLD401之间的函数关系420通常还取决于仰角412。如此,可有益地从一对ICLD 401和ICTD确定用于入射方向211、221、231的一对仰角412与方位角411,借此能够精确地确定多个麦克风阵列210、220、230处的入射方向211、221、231。
可基于麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来使用分类器500确定麦克风阵列210、220、230处的入射方向211、221、231,其中分类器500可包含或可以是机器学习分类器(例如,神经网络)。通过利用分类器(例如,机器学习分类器),可以精确方式确定入射方向211、221、231。
分类器500可经配置以将由麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号衍生的声道间声级差401和声道间时间差501映射到麦克风阵列210、220、230处的入射方向211、221、231,尤其映射到方位角411和仰角412。图5展示实例分类器500,尤其具有多个隐藏层510的神经网络。图5中展示的神经网络的输入层用于输入ICLD 401与ICTD501的集合,且神经网络的输出层用于提供方位角411与仰角412的对应集合。神经网络可以是前馈神经网络。隐藏层510的数目可以是1、2、3或多个(例如,4)。神经网络的不同神经元可利用相同类型或不同类型的激活函数。确切地说,tan-sigmoid函数可用作激活函数。可使用训练数据(例如,使用Levenberg-Marquardt演算法)来训练激活函数的权重和偏置值。
方法700可包含从麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号确定直接分量和间接分量。在一个实例中,在图7中展示的方法700的702处,直接和间接分量可用于确定用于每一麦克风阵列的入射方向。确切地说,可确定第一麦克风信号的第一直接分量和第二麦克风信号的第二直接分量。可基于第一麦克风信号与第二麦克风信号之间的相关性来确定直接分量。第一和第二麦克风信号的直接分量可指示从音频源发射的直接接收的音频信号(而不考虑发射的音频信号的反射且不考虑周围的杂讯)。可随后基于麦克风阵列210、220、230处捕获的麦克风信号的直接分量,尤其基于第一直接分量和第二直接分量来确定麦克风阵列210、220、230处的入射方向211、221、231。通过从麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号提取直接分量,可确定具有增大精确度的在麦克风阵列210、220、230处的入射方向211、221、231。
方法700可包含从麦克风阵列210、220、230的第一麦克风信号确定N个第一子带信号,其中N是N>1的整数(尤其N>5、10,例如N=13)。可在图7中展示的方法700的702处确定N个子带信号。此外,可从麦克风阵列210、220、230的第二麦克风信号确定N个第二子带信号。N个第一子带信号和N个第二子带信号对应于第一麦克风信号和第二麦克风信号的总体频率范围的N个不同子范围。如此,麦克风210、220、230的麦克风信号可分别细分为N个子带信号,其中N个子带信号覆盖麦克风信号的不同频率范围。在一个实例中,总体频率范围可介于0Hz到24kHz范围内。可使用时域到频域变换,如快速傅里叶变换(Fast FourierTransform;FFT)或滤波器组来确定子带信号。
N个不同子带可视为对应于N个不同音频源200。如此,在麦克风阵列210、220、230处,可分别基于N个第一子带信号和N个第二子带信号来确定N个不同音频源200的N个入射方向211、221、231。换句话说,可假设由N个不同音频源200发射的N个不同音频信号到达麦克风阵列210、220、230处。可随后分别基于N个第一子带信号和N个第二子带信号来确定由N个音频源200发射的N个音频信号的N个入射方向211、221、231。使用用于K个不同麦克风阵列210、220、230处的各别子带的各别入射方向211、221、231,可以精确方式确定N个不同音频源200的N个位置。
如此,通过使用子带处理,可以精确方式识别不同音频源200。出于此目的,可基于分离子带的第一子带信号和第二子带信号来执行本文献中所描述的处理。换句话说,本文献中所描述的用于第一麦克风信号与第二麦克风信号的集合的处理可由在第一子带信号和第二子带信号的分离集合上执行的处理替换。
可基于两个或更多个(即,K个)麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号(或基于由第一麦克风信号和第二麦克风信号衍生的第一子带信号和第二子带信号)来确定音频源200的方向性图案302。音频源200的方向性图案302可指示由音频源200发射的音频信号的空间方向性。方向性图案302可通过图8中展示的方法800而确定。
通常,音频源200的声压级随着与音频源200的距离d成比例地减小。基于音频源200的位置和K个麦克风阵列210、220、230的位置,可确定K个麦克风阵列210、220、230与音频源200之间的K个距离dk,k=1…K。使用由K个麦克风阵列210、220、230捕获的麦克风信号,可确定音频源200的K个声压级Ek。在第k个麦克风阵列210、220、230的方向Dk 211、221、231上,用于第k个麦克风阵列210、220、230的声压级Ek可以认为与由音频源200发射的声音的声压级Sk成比例,其中比例因子对应于第k个麦克风阵列210、220、230与音频源200的距离dk。因此,可将在第k个麦克风阵列210、220、230的方向Dk 211、221、231上的音频源200的声压级Sk确定为Sk=Ek*dk。
可使用于K个麦克风阵列210、220、230的K个方向Dk 211、221、231的声压级Sk,k=1…K标准化。借助于实例,可使用声压级Sk的平均值使声压级Sk,k=1…K标准化。如下文将概述,可有益地将K个麦克风阵列210、220、230中的单个一个的麦克风信号指派为音频源200的单声道音频信号。借助于实例,可将第一麦克风阵列210、220、230的麦克风信号指派为音频源200的单声道音频信号。如此,可优选地通过S1(通过第一麦克风阵列210、220、230的声压级)使声压级Sk,k=1…K标准化,例如,对于k=1…K,gk=Sk/S1。(标准化)声压级Sk或增益gk指示音频源200的方向性。确切地说,声压级Sk或增益gk可以认为是针对不同入射方向Dk 211、221、231的音频源200的方向性图案的样本点。
可使用多个方向性点310、320、330(如图3中所说明)来描述或说明空间方向性,其中(出于说明的目的)方向性点310、320、330置放在与音频信号200的(先前确定的)位置的不同距离处。方向性点310、320、330可定位在音频源200的位置周围。方向性点310、320、330与音频源200的位置之间的距离可指示从音频源200朝向方向性点310、320、330发射的音频信号的能量有多少。换句话说,方向性点310、320、330与音频源200的位置之间的距离可指示在方向性点310、320、330的方向Dk 211、221、231上由音频源200发射的声音的声压级Sk。如此,更大距离可指示增大的声压级Sk(且反之亦然)。因此,音频源200的方向性可由多个样本点310、320、330所描述或说明,所述多个样本点根据由每一麦克风阵列210、220、230从音频源200的估计位置的方向Dk 211、221、231接收的能量和/或声压级而定位。
方向性点310、320、330(如图3中所说明)的距离可对应于应用于全向、均一音频源的方向相依增益gk。增大的距离可对应于增大的增益,而减小的距离可对应于减小的增益。因此,方向性图案302可限定待应用于全向、均一音频源的方向相依增益gk。应注意,方向性点310、320、330与音频源200的位置的的距离(其用于说明方向性图案302)不同于不同麦克风阵列210、220、230与音频源200的位置的实体距离dk。
音频源200的方向性图案302可用于以增大精确度在收听环境内确定不同收听位置处感知到的声音。
可分别基于两个或更多个麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来确定用于音频源200的两个或更多个能量或声压级值。换句话说,可分别针对K个麦克风阵列210、220、230处的K个麦克风信号集合来确定K个能量值或声压级值(例如,Ek)。可例如基于麦克风信号的(平均)能量或声级来确定麦克风信号集合的能量值或声压级值。可例如使用K个麦克风信号集合的能量或声级(尤其能量或声级的平均值总和)或使用麦克风信号集合中的所选一个的能量或声级来使能量值或声压级值标准化。标准化能量或声压级值可用作方向相依增益以应用于全向、均一音频源。
可随后基于K个入射方向Dk 211、221、231且基于K个能量值或声压级值(例如声压级Ek)来确定音频源200的方向性图案302。此外,可考虑不同麦克风阵列210、220、230与音频源200的估计位置之间的距离dk。确切地说,可确定方向性图案302以使得方向性点310、320、330与音频源200的位置之间的距离(如图3中所说明)指示在方向性点310、320、330的入射方向211、221、231上由音频源200发射的声音的强度或声压级。因此,可以精确和高效方式确定音频源200的方向性图案302。
确定音频源200的方向性图案302可包括分别基于两个或更多个麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来确定用于两个或更多个麦克风阵列210、220、230的两个或更多个(所捕获)能量值或声压级值Ek。确切地说,可分别基于不同麦克风阵列210、220、230的麦克风信号来确定不同麦克风阵列210、220、230处捕获的声音的能量和/或声压级Ek。
此外,可分别基于(所捕获)两个或更多个能量值或声压级值Ek且基于两个或更多个麦克风阵列210、220、230与音频源200的位置之间的各别距离dk来确定在两个或更多个麦克风阵列210、220、230的入射方向211、221、231上由音频源200发射的声音的两个或更多个能量值或声压级值Sk。确切地说,可通过将各别(所捕获)声压级Ek乘以各别距离dk来确定由音频源200发射的声音的(所发射)声压级Sk。可随后分别基于两个或更多个(所发射)能量值或声压级值Sk来确定用于两个或更多个入射方向211、221、231的方向性图案302的样本点310、320、330(其可说明为如图3中所展示的方向性点)。
此外,确定音频源200的方向性图案302可包括使用所指派麦克风阵列210、220、230的能量值或声压级值S1使能量值或声压级值Sk标准化。可随后基于两个或更多个标准化能量值或声压级值(例如,Sk/S1)来确定用于两个或更多个入射方向211、221、231的方向性图案302的样本点310、320、330。
此外,可使用用于内插在用于两个或更多个入射方向211、221、231的样本点310、320、330之间的内插技术来确定并不位于音频源200的位置与麦克风阵列210、220、230的位置之间的直线上一或多个样本点310、320、330(即,用于除麦克风阵列210、220、230的入射方向211、221、231以外的方向的样本点)。内插技术可利用球面谐波函数301的线性组合。借此,可以高效和精确方式确定完整(三维)方向性图案302。三维方向性图案302可用作方向相依增益(例如以dB为单位经缩放)以应用于全向、均一音频源。
如上文所指出,可使用球面谐波函数301的线性组合来估算方向性图案302。可使用优化方法(例如,梯度下降法)来确定球面谐波函数301的最佳组合。确切地说,可确定球面谐波函数301的组合从而最佳拟合已知的方向性样本点310、320、330。借助于实例,可确定且最小化来自样本点310、320、330的球面谐波函数301的组合的平均(平方)偏差以确定球面谐波函数301的最优组合。
因此,确定方向性图案302可包括确定,尤其减小或最小化用于由球面谐波函数301的线性组合估算的两个或更多个入射方向211、221、231的方向性图案302的估算样本点与用于两个或更多个入射方向211、221、231的方向性图案(302)的(实际)样本点310、320、330之间的(有可能平方)距离。
图8展示用于确定音频源的方向性图案(例如,音频源200的方向性图案302)的示范性方法800的流程图。在一个实例中,可根据结合图6所示的块605描述的原理执行方法800。方法800包括在801处确定由K个不同麦克风阵列210、220、230处的音频源200发射的音频信号的能量信息(例如,能量值和/或声压级)。换句话说,可确定关于由K个不同麦克风阵列210、220、230捕获的麦克风信号的能量信息。此外,方法800包括在802处基于能量信息来确定方向性图案302的样本点310、320、330。出于此目的,可如上文所概述使能量信息(例如,能量值和/或声压级)标准化。另外,方法800包括在803处基于样本点310、320、330来确定音频源200的(所估算)方向性图案302。确切地说,可将球面谐波301的总和拟合到样本点310、320、330以确定方向性图案302。
对于k=1…K,增益gk=Sk/S1和/或由音频源200的所估算方向性图案302指示的增益可在回放时间期间使用以生成针对由音频源200发射的信号的收听(即再现)信号。这一收听信号可指示位于特定收听位置处的收听者如何感知由音频源200发射的信号。因此,方向性图案302的增益可用于在音频源200周围的不同收听位置处重构由音频源200发射的信号。
如此,方法700可用于确定N个不同音频源200的位置和方向性图案302。此外,方法700可包含确定用于音频源200的音频信号步骤,尤其确定用于N个不同音频源200的N个音频信号的步骤。出于此目的,方法700可包含基于两个或更多个能量值310、320、330将两个或更多个麦克风阵列210、220、230中的一个的第一麦克风信号和/或第二麦克风信号指派到音频源200。确切地说,可将具有最高能量值的麦克风信号集合指派至音频源200。可随后使用麦克风信号的单个集合(尤其具有最高能量值的麦克风信号的集合)来确定由音频信号200发射的音频信号。借此,可将高质量音频信号指派到音频源200。
如上文所概述,可基于子带来执行处理以确定用于N个不同音频源200的位置和/或方向性图案302。以对应方式,可比较子带信号的K个不同集合的能量值以选择用于特定音频源200的子带信号的集合。
可将两个或更多个麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号划分为具有帧持续时间(例如,20ms或更小)的帧序列。可针对来自帧序列的每一帧确定音频源200的位置、方向性图案302和/或音频信号。借此,可以精确方式追踪移动的音频源200。
如上文所概述,可基于两个或更多个麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来确定由音频源200发射的音频信号。确切地说,方法700可允许仅使用由K个以不同方式定位的麦克风阵列210、220、230捕获的麦克风信号来确定音频源200的位置、方向性图案302和/或音频信号。这一信息可用于生成独立于收听位置的音频表示。可再现这一音频表示以用于三维(3D)环境内的任意收听位置处的收听者。确切地说,音频源200的所确定的音频信号、所确定的位置和/或所确定的方向性图案302可用于确定收听者如何感知由3D环境内的任意收听位置处的音频源200发射的音频信号。因此,提供一种高效和精确的音频表示方案(例如,用于VR应用)。
可从麦克风阵列210、220、230的第一麦克风信号和第二麦克风信号来确定间接分量。音频表示也可包含一或多个麦克风阵列210、220、230的间接分量。为了生成音频表示的这些间接分量,可假设麦克风阵列210、220、230的间接分量起源于与麦克风阵列210、220、230的位置相关联的位置。借助于实例,麦克风阵列210、220、230的间接分量的虚拟源可对应于或可等于麦克风阵列210、220、230的位置。通过考虑间接分量,当生成音频表示时,可改善音频表示的感知质量。
本文献中描述的特征中的任一个可以是用于确定至少一个音频源200的位置的对应系统的部分。所述系统可包括用于执行本文献中概述的方法步骤的处理器。确切地说,系统可经调适以捕获两个或更多个麦克风阵列210、220、230处的第一麦克风信号和第二麦克风信号,其中两个或更多个麦克风阵列210、220、230置放在不同位置处。两个或更多个麦克风阵列210、220、230可至少各自包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒。此外,第一麦克风炭精盒和第二麦克风炭精盒可呈现以不同方式定向的空间方向性。
系统可经进一步调适以针对每一麦克风阵列210、220、230且基于各别第一和第二麦克风信号来确定各别麦克风阵列210、220、230处的至少一个音频源200(由所述至少一个音频源发射的声音)的入射方向211、221、231。此外,系统可经调适以基于两个或更多个麦克风阵列210、220、230处的入射方向211、221、231来确定音频源200的位置。
图9展示用于确定音频源200的收听信号的实例方法900的流程图。在一个实例中,可在图6所示的块606之后执行方法900。可针对再现环境内的每一音频源200(例如,针对每一子带)来确定收听信号。音频源信号可由图6所示的方法600的块606提供。可随后通过重叠用于不同音频源200(例如,用于不同子带)的收听信号来确定总体上收听信号。
方法900包括在901处设置或确定用于收听者的虚拟收听者位置。虚拟收听者位置可置于距音频源200的位置某一距离d处。此外,虚拟收听者位置可呈现相对于音频源200的位置的某一虚拟入射方向。方法900进一步包括在902处(例如,使用上述方案)确定用于音频源200的音频信号。举例来说,在902处,来自图6的方法600的核心音频信息可用于确定音频信号。另外,方法900包括在903处基于音频源200的方向性图案302来确定虚拟收听者位置处的收听信号的能量信息。举例来说,在903处,来自图6的方法600的方向性可用于确定能量信息。确切地说,可基于方向性图案302且基于虚拟收听者位置与音频源200的位置的距离d来确定在虚拟收听者位置处由音频源200发射的音频信号的能量值和/或声压级。确切地说,1/d增益可应用于由音频源200发射的音频信号。
此外,方法900包括在904处执行对由音频源发射的单声道音频信号的空间音频处理(例如,立体声处理)。举例来说,在904处,来自图6的方法600的位置可用于执行空间音频处理。出于此目的,可考虑虚拟收听者位置处的音频信号的虚拟入射方向。使用空间音频处理,虚拟收听者位置处的收听者可能能够感知来自虚拟入射方向的收听信号。可随后将由音频源200发射的音频信号的空间化收听信号再现到收听者(例如,与其它音频源200的其它收听信号组合)。方法900可随后输出空间化信号(例如,以立体声或多声道格式)。可将空间化信号格式化以在扬声器或头戴式耳机上的双耳上回放。
本公开中所描述的实施方案的各种修改可以是对所属领域的技术人员显而易见的。在不脱离本发明的精神或范围的情况下,本文中所定义的一般原理可应用于其它实施方案。因此,权力要求书并不希望限于本文中所展示的实施方案,而应符合与本公开、本文中所公开的原理和新颖特征相一致的最广泛范围。
本文献中描述的方法和系统可实施为软件、固件和/或硬件。某些组件可例如实施为在数字信号处理器或微处理器上运行的软件。其它组件可例如实施为硬件和/或实施为专用集成电路。所描述方法和系统中遇到的信号可存储于如随机存取存储器或光学存储媒体的媒体上。所述信号可经由网络传送,如收音机网络、卫星网络、无线网络或有线网络,例如因特网。利用本文献中描述的方法和系统的典型装置是用于存储和/或再现音频信号的便携式电子装置或其它消费者设备。
Claims (26)
1.一种用于确定至少一个音频源(200)的音频表示的方法(600),所述方法包括,在两个或更多个麦克风阵列(210、220、230)处接收第一麦克风信号和第二麦克风信号;其中所述两个或更多个麦克风阵列(210、220、230)置放在不同位置处;其中所述两个或更多个麦克风阵列(210、220、230)各自至少包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒;其中所述第一麦克风炭精盒与所述第二麦克风炭精盒具有以不同方式定向的空间方向性;
针对每一麦克风阵列(210、220、230)且基于所述各别第一和第二麦克风信号来确定(602)所述各别麦克风阵列(210、220、230)处的至少一个音频源(200)的入射方向(211、221、231);以及
基于所述两个或更多个麦克风阵列(210、220、230)处的所述入射方向(211、221、231)来确定(603)所述音频源(200)的所述位置。
2.根据权利要求1所述的方法,其进一步包括
基于所述音频源的所述位置来确定核心单声道音频信号(604)、构建音频方向性的球面谐波表示(605);以及
基于所述音频源的所述位置、所述核心单声道信号和所述音频方向性的所述球面谐波表示来确定音频表示(606)。
3.根据权利要求1所述的方法(600),其中所述方法(600)包括
基于麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来确定声道间声级差和声道间时间差;以及
基于所述声道间声级差且基于所述声道间时间差来确定所述麦克风阵列(210、220、230)处的所述入射方向(211、221、231)。
4.根据任何前述权利要求所述的方法,其中基于所述麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来使用分类器(500)确定麦克风阵列(210、220、230)处的所述入射方向(211、221、231)。
5.根据权利要求3所述的方法,其中所述分类器(500)包括机器学习分类器,尤其神经网络。
6.根据权利要求3至4中任一权利要求所述的方法,其中所述分类器(500)经配置以将由所述麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号衍生的声道间声级差和声道间时间差映射到所述麦克风阵列(210、220、230)处的所述入射方向(211、221、231)。
7.根据任何前述权利要求所述的方法,其中麦克风阵列(210、220、230)处的所述入射方向(211、221、231)指示方位角(411)以及所述麦克风阵列(210、220、230)的所述位置与所述音频源(200)的所述位置之间的直线的仰角(412)。
8.根据任何前述权利要求所述的方法,其中所述方法包括
确定来自麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号的直接分量和间接分量;以及
基于所述直接分量来确定所述麦克风阵列(210、220、230)处的所述入射方向(211、221、231)。
9.根据权利要求7所述的方法,其中基于所述第一麦克风信号与所述第二麦克风信号之间的相关性来确定所述直接分量。
10.根据任何前述权利要求所述的方法,其中所述方法包括
确定来自麦克风阵列(210、220、230)的所述第一麦克风信号的N个第一子带信号,其中N>1;
确定来自所述麦克风阵列(210、220、230)的所述第二麦克风信号的N个第二子带信号,其中所述N个第一子带信号和所述N个第二子带信号对应于所述第一麦克风信号和所述第二麦克风信号的总体频率范围的N个不同子范围;以及
分别基于所述N个第一子带信号和所述N个第二子带信号来确定所述麦克风阵列(210、220、230)处的N个不同音频源(200)的N个入射方向(211、221、231)。
11.根据任何前述权利要求所述的方法,其中
在K个麦克风阵列(210、220、230)处捕获第一麦克风信号和第二麦克风信号,其中K>1;
确定用于K个麦克风阵列(210、220、230)的K个入射方向(211、221、231)以用于所述音频源(200);且
确定(603、703)音频源(200)的所述位置包括基于减小成本函数来确定角距离,所述成本函数分别指示所述音频源(200)的所述位置与K条直线的平均距离,所述K条直线起源于所述K个入射方向(211、221、231)处的所述K个麦克风阵列(210、220、230)的所述K个位置。
12.根据任何前述权利要求所述的方法,其中所述方法包括基于所述两个或更多个麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来确定所述音频源(200)的方向性图案(302)。
13.根据权利要求11所述的方法,其中
所述方法包括分别基于所述两个或更多个麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来确定所述音频源(200)的两个或更多个能量或声压级值;且
基于所述两个或更多个入射方向(211、221、231)且基于所述两个或更多个能量或声压级值来确定所述音频源(200)的所述方向性图案(302)。
14.根据权利要求13所述的方法,其中所述方法包括基于所述两个或更多个能量或声压级值来将所述两个或更多个麦克风阵列(210、220、230)中的一个的所述第一麦克风信号及/或所述第二麦克风信号指派到所述音频源(200)。
15.根据权利要求13至14中任一权利要求所述的方法,其中
所述方向性图案(302)指示所述音频源(200)周围的多个方向性点(310、320、330);
确定所述方向性图案(302)使得方向性点(310、320、330)与所述音频源(200)的所述位置之间的距离指示在所述方向性点(310、320、330)的方向上由所述音频源(200)发射的声音的强度或声压级。
16.根据权利要求12至15中任一权利要求所述的方法,其中确定所述音频源(200)的方向性图案(302)包括
分别基于所述两个或更多个麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来确定所述两个或更多个麦克风阵列(210、220、230)的两个或更多个能量或声压级值Ek;
基于所述两个或更多个能量或声压级值Ek且基于所述两个或更多个麦克风阵列(210、220、230)与所述音频源(200)的所述位置之间的各别距离dk来确定在所述两个或更多个麦克风阵列(210、220、230)的所述方向上由所述音频源(200)发射的声音的两个或更多个能量或声压级值Sk;以及
基于所述两个或更多个能量或声压级值Sk来确定用于所述两个或更多个入射方向(211、221、231)的所述方向性图案(302)的样本点(310、320、330)。
17.根据引用权利要求14的权利要求16所述的方法,其中
确定所述音频源(200)的方向性图案(302)包括使用所述所指派麦克风阵列(210、220、230)的所述能量或声压级值S1来使所述能量或声压级值Sk标准化;
基于所述两个或更多个标准化能量或声压级值Sk来确定用于所述两个或更多个入射方向(211、221、231)的所述方向性图案(302)的样本点(310、320、330)。
18.根据权利要求16至17中任一权利要求所述的方法,其中
使用用于内插在所述两个或更多个入射方向(211、221、231)的所述样本点(310、320、330)之间的内插技术来确定所述方向性图案(302)的并不位于所述音频源(200)的所述位置与所述麦克风阵列(210、220、230)的所述位置之间的直线上的一或多个样本点(310、320、330);且
所述内插技术尤其包括球面谐波函数(301)的线性组合。
19.根据权利要求17至18中任一权利要求所述的方法,其中确定所述方向性图案(302)包括确定、尤其减小用于由球面谐波函数(301)的线性组合估算的所述两个或更多个入射方向(211、221、231)的所述方向性图案(302)的所估算样本点与用于所述两个或更多个入射方向(211、221、231)的所述方向性图案(302)的所述样本点(310、320、330)之间的距离。
20.根据任何前述权利要求所述的方法,其中
将所述两个或更多个麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号划分为具有帧持续时间的帧序列;且
对所述帧序列的每一帧确定所述音频源(200)的所述位置。
21.根据任何前述权利要求所述的方法,其中麦克风阵列(210、220、230)包括
XY麦克风阵列(210、220、230),其包括经配置而以不同角度捕获声音的第一麦克风炭精盒和第二麦克风炭精盒;和/或
B格式麦克风。
22.根据任何前述权利要求所述的方法,其中所述方法包括使用图像处理、使用固定在所述麦克风阵列(210、220、230)处的位置传感器和/或使用IR追踪来确定麦克风阵列(210、220、230)的所述位置。
23.根据任何前述权利要求所述的方法,其中
所述方法包括尤其使用定向传感器来确定麦克风阵列(210、220、230)的定向;
基于所述麦克风阵列(210、220、230)的所述定向来确定所述麦克风阵列(210、220、230)处的所述音频源(200)的所述入射方向(211、221、231)。
24.根据任何前述权利要求所述的方法,其中所述方法进一步包括
基于所述两个或更多个麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号来确定由所述音频源(200)发射的音频信号(901);以及
基于所述所确定的音频信号且基于所述音频源(200)的所述所确定的位置来确定用于收听位置处的收听者的收听信号(904)。
25.根据权利要求24所述的方法,其中所述方法包括
确定来自麦克风阵列(210、220、230)的所述第一麦克风信号和所述第二麦克风信号的间接分量;以及
还基于起源于与所述麦克风阵列(210、220、230)的所述位置相关联的位置的所述间接分量来确定所述收听信号。
26.一种用于确定至少一个音频源(200)的位置的系统,其中所述系统经配置以
在两个或更多个麦克风阵列(210、220、230)处捕获第一麦克风信号和第二麦克风信号;其中所述两个或更多个麦克风阵列(210、220、230)置放在不同位置处;其中所述两个或更多个麦克风阵列(210、220、230)各自至少包括用于捕获第一麦克风信号的第一麦克风炭精盒和用于捕获第二麦克风信号的第二麦克风炭精盒;其中所述第一麦克风炭精盒与所述第二麦克风炭精盒具有以不同方式定向的空间方向性;
针对每一麦克风阵列(210、220、230)且基于所述各别第一和第二麦克风信号来确定所述各别麦克风阵列(210、220、230)处的至少一个音频源(200)的入射方向(211、221、231);且
基于所述两个或更多个麦克风阵列(210、220、230)处的所述入射方向(211、221、231)来确定所述音频源(200)的所述位置。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662401636P | 2016-09-29 | 2016-09-29 | |
US62/401,636 | 2016-09-29 | ||
US201762510898P | 2017-05-25 | 2017-05-25 | |
US62/510,898 | 2017-05-25 | ||
PCT/US2017/053946 WO2018064296A1 (en) | 2016-09-29 | 2017-09-28 | Method, systems and apparatus for determining audio representation(s) of one or more audio sources |
Publications (2)
Publication Number | Publication Date |
---|---|
CN109906616A true CN109906616A (zh) | 2019-06-18 |
CN109906616B CN109906616B (zh) | 2021-05-21 |
Family
ID=60120140
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CN201780067860.9A Active CN109906616B (zh) | 2016-09-29 | 2017-09-28 | 用于确定一或多个音频源的一或多个音频表示的方法、系统和设备 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10820097B2 (zh) |
EP (1) | EP3520437A1 (zh) |
CN (1) | CN109906616B (zh) |
WO (1) | WO2018064296A1 (zh) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905302A (zh) * | 2021-10-11 | 2022-01-07 | Oppo广东移动通信有限公司 | 触发提示信息的方法、装置以及耳机 |
CN114727212A (zh) * | 2022-03-10 | 2022-07-08 | 荣耀终端有限公司 | 音频的处理方法及电子设备 |
Families Citing this family (30)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US9554207B2 (en) | 2015-04-30 | 2017-01-24 | Shure Acquisition Holdings, Inc. | Offset cartridge microphones |
US9565493B2 (en) | 2015-04-30 | 2017-02-07 | Shure Acquisition Holdings, Inc. | Array microphone system and method of assembling the same |
PL3338462T3 (pl) * | 2016-03-15 | 2020-03-31 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Urządzenie, sposób lub program komputerowy do generowania opisu pola dźwięku |
US10367948B2 (en) | 2017-01-13 | 2019-07-30 | Shure Acquisition Holdings, Inc. | Post-mixing acoustic echo cancellation systems and methods |
GB201710093D0 (en) * | 2017-06-23 | 2017-08-09 | Nokia Technologies Oy | Audio distance estimation for spatial audio processing |
GB201710085D0 (en) | 2017-06-23 | 2017-08-09 | Nokia Technologies Oy | Determination of targeted spatial audio parameters and associated spatial audio playback |
WO2019115612A1 (en) * | 2017-12-14 | 2019-06-20 | Barco N.V. | Method and system for locating the origin of an audio signal within a defined space |
JP7261807B2 (ja) * | 2018-02-01 | 2023-04-20 | フラウンホーファー-ゲゼルシャフト・ツール・フェルデルング・デル・アンゲヴァンテン・フォルシュング・アインゲトラーゲネル・フェライン | ハイブリッドエンコーダ/デコーダ空間解析を使用する音響シーンエンコーダ、音響シーンデコーダおよびその方法 |
GB2573537A (en) | 2018-05-09 | 2019-11-13 | Nokia Technologies Oy | An apparatus, method and computer program for audio signal processing |
CN112335261B (zh) | 2018-06-01 | 2023-07-18 | 舒尔获得控股公司 | 图案形成麦克风阵列 |
US11297423B2 (en) | 2018-06-15 | 2022-04-05 | Shure Acquisition Holdings, Inc. | Endfire linear array microphone |
WO2020061353A1 (en) | 2018-09-20 | 2020-03-26 | Shure Acquisition Holdings, Inc. | Adjustable lobe shape for array microphones |
US11019449B2 (en) | 2018-10-06 | 2021-05-25 | Qualcomm Incorporated | Six degrees of freedom and three degrees of freedom backward compatibility |
CN113841419A (zh) | 2019-03-21 | 2021-12-24 | 舒尔获得控股公司 | 天花板阵列麦克风的外壳及相关联设计特征 |
WO2020191380A1 (en) | 2019-03-21 | 2020-09-24 | Shure Acquisition Holdings,Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition functionality |
US11558693B2 (en) | 2019-03-21 | 2023-01-17 | Shure Acquisition Holdings, Inc. | Auto focus, auto focus within regions, and auto placement of beamformed microphone lobes with inhibition and voice activity detection functionality |
CN114051738B (zh) | 2019-05-23 | 2024-10-01 | 舒尔获得控股公司 | 可操纵扬声器阵列、系统及其方法 |
US11302347B2 (en) | 2019-05-31 | 2022-04-12 | Shure Acquisition Holdings, Inc. | Low latency automixer integrated with voice and noise activity detection |
WO2021041275A1 (en) | 2019-08-23 | 2021-03-04 | Shore Acquisition Holdings, Inc. | Two-dimensional microphone array with improved directivity |
US12028678B2 (en) | 2019-11-01 | 2024-07-02 | Shure Acquisition Holdings, Inc. | Proximity microphone |
GB2588801A (en) * | 2019-11-08 | 2021-05-12 | Nokia Technologies Oy | Determination of sound source direction |
US11552611B2 (en) | 2020-02-07 | 2023-01-10 | Shure Acquisition Holdings, Inc. | System and method for automatic adjustment of reference gain |
US11900412B2 (en) * | 2020-03-25 | 2024-02-13 | Applied Minds, Llc | Audience participation application, system, and method of use |
CN111679248B (zh) * | 2020-05-15 | 2023-04-21 | 黑龙江工程学院 | 一种基于海底水平l型阵列的目标方位和距离联合稀疏重构定位方法 |
WO2021243368A2 (en) | 2020-05-29 | 2021-12-02 | Shure Acquisition Holdings, Inc. | Transducer steering and configuration systems and methods using a local positioning system |
CN112019971B (zh) * | 2020-08-21 | 2022-03-22 | 安声(重庆)电子科技有限公司 | 声场构建方法、装置、电子设备及计算机可读存储介质 |
GB2602148A (en) * | 2020-12-21 | 2022-06-22 | Nokia Technologies Oy | Audio rendering with spatial metadata interpolation and source position information |
EP4285605A1 (en) | 2021-01-28 | 2023-12-06 | Shure Acquisition Holdings, Inc. | Hybrid audio beamforming system |
GB2607934A (en) * | 2021-06-17 | 2022-12-21 | Nokia Technologies Oy | Apparatus, methods and computer programs for obtaining spatial metadata |
US12047739B2 (en) | 2022-06-01 | 2024-07-23 | Cisco Technology, Inc. | Stereo sound generation using microphone and/or face detection |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101188464A (zh) * | 2006-11-16 | 2008-05-28 | 云义科技股份有限公司 | 从公开音频源搜集音频的系统及其方法 |
CN101202593A (zh) * | 2006-11-30 | 2008-06-18 | 美国博通公司 | 用于处理来自多个音频处理源的多速率音频的方法和系统 |
US20080199024A1 (en) * | 2005-07-26 | 2008-08-21 | Honda Motor Co., Ltd. | Sound source characteristic determining device |
US20130142341A1 (en) * | 2011-12-02 | 2013-06-06 | Giovanni Del Galdo | Apparatus and method for merging geometry-based spatial audio coding streams |
US20160066086A1 (en) * | 2014-09-03 | 2016-03-03 | Gesellschaft zur Förderung angewandter Informatik e.V. | Method and arrangement for detecting acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium |
Family Cites Families (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6130949A (en) | 1996-09-18 | 2000-10-10 | Nippon Telegraph And Telephone Corporation | Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor |
US20080056517A1 (en) * | 2002-10-18 | 2008-03-06 | The Regents Of The University Of California | Dynamic binaural sound capture and reproduction in focued or frontal applications |
FI118247B (fi) | 2003-02-26 | 2007-08-31 | Fraunhofer Ges Forschung | Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa |
US8213623B2 (en) | 2007-01-12 | 2012-07-03 | Illusonic Gmbh | Method to generate an output audio signal from two or more input audio signals |
JP4897519B2 (ja) | 2007-03-05 | 2012-03-14 | 株式会社神戸製鋼所 | 音源分離装置,音源分離プログラム及び音源分離方法 |
US20080232601A1 (en) | 2007-03-21 | 2008-09-25 | Ville Pulkki | Method and apparatus for enhancement of audio reconstruction |
EP2154910A1 (en) | 2008-08-13 | 2010-02-17 | Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. | Apparatus for merging spatial audio streams |
US9313599B2 (en) | 2010-11-19 | 2016-04-12 | Nokia Technologies Oy | Apparatus and method for multi-channel signal playback |
CN103460285B (zh) | 2010-12-03 | 2018-01-12 | 弗劳恩霍夫应用研究促进协会 | 用于以几何为基础的空间音频编码的装置及方法 |
EP2592846A1 (en) * | 2011-11-11 | 2013-05-15 | Thomson Licensing | Method and apparatus for processing signals of a spherical microphone array on a rigid sphere used for generating an Ambisonics representation of the sound field |
US9020262B2 (en) | 2012-07-31 | 2015-04-28 | Hewlett-Packard Development Company, L.P. | Symbol compression using conditional entropy estimation |
EP2840807A1 (en) * | 2013-08-19 | 2015-02-25 | Oticon A/s | External microphone array and hearing aid using it |
EP3318070B1 (en) | 2015-07-02 | 2024-05-22 | Dolby Laboratories Licensing Corporation | Determining azimuth and elevation angles from stereo recordings |
-
2017
- 2017-09-28 EP EP17785080.7A patent/EP3520437A1/en not_active Withdrawn
- 2017-09-28 WO PCT/US2017/053946 patent/WO2018064296A1/en unknown
- 2017-09-28 CN CN201780067860.9A patent/CN109906616B/zh active Active
- 2017-09-28 US US16/337,923 patent/US10820097B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080199024A1 (en) * | 2005-07-26 | 2008-08-21 | Honda Motor Co., Ltd. | Sound source characteristic determining device |
CN101188464A (zh) * | 2006-11-16 | 2008-05-28 | 云义科技股份有限公司 | 从公开音频源搜集音频的系统及其方法 |
CN101202593A (zh) * | 2006-11-30 | 2008-06-18 | 美国博通公司 | 用于处理来自多个音频处理源的多速率音频的方法和系统 |
US20130142341A1 (en) * | 2011-12-02 | 2013-06-06 | Giovanni Del Galdo | Apparatus and method for merging geometry-based spatial audio coding streams |
US20160066086A1 (en) * | 2014-09-03 | 2016-03-03 | Gesellschaft zur Förderung angewandter Informatik e.V. | Method and arrangement for detecting acoustic and optical information as well as a corresponding computer program and a corresponding computer-readable storage medium |
Cited By (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN113905302A (zh) * | 2021-10-11 | 2022-01-07 | Oppo广东移动通信有限公司 | 触发提示信息的方法、装置以及耳机 |
CN113905302B (zh) * | 2021-10-11 | 2023-05-16 | Oppo广东移动通信有限公司 | 触发提示信息的方法、装置以及耳机 |
CN114727212A (zh) * | 2022-03-10 | 2022-07-08 | 荣耀终端有限公司 | 音频的处理方法及电子设备 |
CN114727212B (zh) * | 2022-03-10 | 2022-10-25 | 北京荣耀终端有限公司 | 音频的处理方法及电子设备 |
Also Published As
Publication number | Publication date |
---|---|
EP3520437A1 (en) | 2019-08-07 |
US10820097B2 (en) | 2020-10-27 |
US20190230436A1 (en) | 2019-07-25 |
CN109906616B (zh) | 2021-05-21 |
WO2018064296A1 (en) | 2018-04-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN109906616A (zh) | 用于确定一或多个音频源的一或多个音频表示的方法、系统和设备 | |
KR102491818B1 (ko) | 다중-지점 음장 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념 | |
CN110168638B (zh) | 用于虚拟现实、增强现实及混合现实的音频位差 | |
CN109644314B (zh) | 渲染声音程序的方法、音频回放系统和制造制品 | |
RU2740703C1 (ru) | Принцип формирования улучшенного описания звукового поля или модифицированного описания звукового поля с использованием многослойного описания | |
EP3197182B1 (en) | Method and device for generating and playing back audio signal | |
KR100964353B1 (ko) | 오디오 데이터를 처리하기 위한 방법 및 이에 따른 사운드수집 장치 | |
CN109891503B (zh) | 声学场景回放方法和装置 | |
CN109314832A (zh) | 音频信号处理方法和设备 | |
Nicol | Sound field | |
JPWO2017209196A1 (ja) | スピーカシステム、音声信号レンダリング装置およびプログラム | |
US20240282320A1 (en) | Spacing-based audio source group processing | |
WO2023085186A1 (ja) | 情報処理装置、情報処理方法及び情報処理プログラム | |
O’Dwyer | Sound Source Localization and Virtual Testing of Binaural Audio | |
CN116866817A (zh) | 一种空间音频内容的呈现装置和方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
PB01 | Publication | ||
PB01 | Publication | ||
SE01 | Entry into force of request for substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
GR01 | Patent grant | ||
GR01 | Patent grant |