CN103583054A - 经由根据抵达方向估算提取几何信息的声音获取 - Google Patents

经由根据抵达方向估算提取几何信息的声音获取 Download PDF

Info

Publication number
CN103583054A
CN103583054A CN201180066792.7A CN201180066792A CN103583054A CN 103583054 A CN103583054 A CN 103583054A CN 201180066792 A CN201180066792 A CN 201180066792A CN 103583054 A CN103583054 A CN 103583054A
Authority
CN
China
Prior art keywords
microphone
sound
virtual
signal
place
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
CN201180066792.7A
Other languages
English (en)
Other versions
CN103583054B (zh
Inventor
于尔根·赫莱
法比安·库奇
马库斯·卡琳格尔
乔瓦尼·德尔加尔多
奥利弗·蒂尔加特
迪尔克·玛赫内
阿希姆·昆茨
米夏埃尔·克拉奇默
亚历山大拉·克拉琼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Original Assignee
Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Friedrich Alexander Univeritaet Erlangen Nuernberg FAU
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV, Friedrich Alexander Univeritaet Erlangen Nuernberg FAU filed Critical Fraunhofer Gesellschaft zur Forderung der Angewandten Forschung eV
Publication of CN103583054A publication Critical patent/CN103583054A/zh
Application granted granted Critical
Publication of CN103583054B publication Critical patent/CN103583054B/zh
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/02Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using spectral analysis, e.g. transform vocoders or subband vocoders
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/167Audio streaming, i.e. formatting and decoding of an encoded audio signal representation into a data stream for transmission or storage purposes
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/04Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis using predictive techniques
    • G10L19/16Vocoder architecture
    • G10L19/18Vocoders using multiple modes
    • G10L19/20Vocoders using multiple modes using sound class specific coding, hybrid encoders or object based coding
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/326Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only for microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L19/00Speech or audio signals analysis-synthesis techniques for redundancy reduction, e.g. in vocoders; Coding or decoding of speech or audio signals, using source filter models or psychoacoustic analysis
    • G10L19/008Multichannel audio signal coding or decoding using interchannel correlation to reduce redundancy, e.g. joint-stereo, intensity-coding or matrixing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/21Direction finding using differential microphone array [DMA]

Abstract

一种用于产生音频输出信号以对环境中可配置的虚拟位置处的虚拟麦克风的记录进行仿真的装置。该装置包括声音事件位置估算器及信息计算模块(120)。声音事件位置估算器(110)适于估算表明环境中声源的位置的声源位置;其中,声音事件位置估算器(110)适于根据由位于环境中的第一真实麦克风位置的第一真实空间麦克风提供的第一方向信息,并根据由位于环境中的第二真实麦克风位置的第二真实空间麦克风提供的第二方向信息,来估算声源位置。信息计算模块(120)适于根据第一已记录音频输入信号、根据第一真实麦克风位置、根据虚拟麦克风的虚拟位置、及根据声源位置,来产生音频输出信号。

Description

经由根据抵达方向估算提取几何信息的声音获取
技术领域
本发明涉及音频处理,特别是关于用于经由根据抵达方向估算提取几何信息的声音获取的装置及方法。
背景技术
传统空间声音记录旨在使用多个麦克风捕获声场,以使得在再生端,收听者如在记录位置一样感知声像。空间声音记录的标准方法通常使用例如AB立体声的间隔的全向麦克风,或例如强度立体声的重合定向麦克风,或例如Ambisonics的更高级麦克风,诸如B格式麦克风,参见,例如:
[1]R.K.Furness,「Ambisonics-An overview,」in AES8thInternationalConference,April1990,pp.181-189.
对于声音再生,这些非参数方法直接从已记录的麦克风信号中导出期望的音频回放信号(例如,要发送至扬声器的信号)。
可选地,可应用基于声场的参数表示的方法,这些方法称为参数空间音频编码器。这些方法常常使用麦克风阵列,来确定一个或多个音频降混信号以及描述空间声音的空间旁侧信息。实例为定向音频编码(DirAC)或所谓的空间音频麦克风(SAM)方法。DirAC的更多细节可见:
[2]Pulkki,V.,「Directional audio coding in spatial sound reproductionand stereo upmixing,」in Proceedings of the AES28thInternationalConference,pp.251-258,
Figure BDA00003614359800011
Sweden,June30-July2,2006,
[3]V.Pulkki,「Spatial sound reproduction with directional audiocoding,」J.Audio Eng.Soc.,vol.55,no.6,pp.503-516,June2007.
空间音频麦克风方法的更多细节,参阅:
[4]C.Faller:「Microphone Front-Ends for Spatial Audio Coders」,inProceedings of the AES125thInternational Convention,San Francisco,Oct.2008.
在DirAC中,例如,空间信号信息包括声音的抵达方向(DOA)及以时频域计算的声场的扩散度。对于声音再生,可根据参数描述导出音频回放信号。在一些应用中,空间声音获取旨在捕获整个声音场景。在其他应用中,空间声音获取仅旨在捕获某些期望分量。近讲麦克风常常用于记录具有高信噪比(SNR)及低混响的个别声源,而诸如XY立体声的更远配置表示用于捕获整个声音场景的空间镜象(image,图像)的方式。可使用波束成形获得关于定向的更多灵活性,其中可使用麦克风阵列来实现可操纵拾取模式。通过以上所提及方法可提供甚至更多的灵活性,诸如定向音频编码(DirAC)(参见[2]、[3]),其中,可使用任意拾取模式实现空间滤波器,如下文中所描述:
[5]M.Kallinger,H.Ochsenfeld,G.Del Galdo,F.Küch,D.Mahne,R.Schultz-Amling.and O.Thiergart,「A spatial filtering approach for directionalaudio coding,」in Audio Engineering Society Convention126,Munich,Germany,May2009,
此外,声音场景的其他信号处理操控,参见,例如:
[6]R.Schultz-Amling,F.Küch,O.Thiergart,and M.Kallinger,「Acoustical zooming based on a parametric sound field representation,」inAudio Engineering Society Convention128,London UK,May2010,
[7]J.Herre,C.Falch,D.Mahne,G.Del Galdo,M.Kallinger,and O.Thiergart,「Interactive teleconferencing combining spatial audio object codingand DirAC technology,」in Audio Engineering Society Convention128,London UK,May2010.
所有上述概念的共同处在于麦克风被以固定的已知几何形状配置。麦克风之间的间隔尽可能小以实现一致的颤噪效应(microphonics,微音扩大技术),反之该间隔常规地为几厘米以用于其他方法。在下文中,将用于记录空间声音、能够检索声音的抵达方向的任何装置(例如定向麦克风的组合或麦克风阵列等)称为空间麦克风。
另外,所有上述方法的共同处在于这些方法限于关于仅一个点(即测量位置)的声场表示。因此,必须将所需麦克风放置在例如,接近源的或使之可最优地捕获空间镜象的极其特别、精选的位置。
然而,在许多应用中,此举不可行,因此,将若干麦克风远离声源放置且仍能够依需求捕获声音将是有益的。
存在用于在空间中的点而非在测量声场处估算声场的若干场重建方法。一种方法为声全息术,如下文中所描述:
[8]E.G.Williams,Fourier Acoustics:Sound Radiation and NearfieldAcoustical Holography,Academic Press,1999.
在已知体积的整个表面上的声压及质点速度的情况下,声全息术允许计算具有任意体积的任何点处的声场。因此,当体积大时,需要大得不切实际的数量的传感器。另外,该方法假设在体积内不存在声源,这使得对于我们的需要,该算法不可行。相关波场外推法(亦参见[8])旨在将体积的表面上的已知声场外推至外部区域。然而,对于较大外推距离以及对于向正交于声音的传播方向的方向的外推,外推准确度迅速降低,参见:
[9]A.Kuntz and R.Rabenstein,「Limitations in the extrapolation ofwave fields from circular measurements,」in15thEuropean Signal ProcessingConference(EUSIPCO2007),2007。
[10]A.Walther and C.Faller,「Linear simulation of spaced microphonearrays using b-format recordings,」in Audio Engineering Society Convention128,London UK,May2010,
描述平面波模型,其中仅在远离实际声源,例如接近测量点的点处,场外推法才是可能的。
传统方法的主要缺点是所记录的空间镜象总是相关于所使用的空间麦克风。在许多应用中,将空间麦克风放置在例如接近声源的期望位置,是不可能或不可行的。在此情况下,将多个空间麦克风远离声音场景放置且仍能够依需求捕获声音将是更有益的。
[11]US61/287,596:An Apparatus and a Method for Converting a FirstParametric Spatial Audio Signal into a Second Parametric Spatial AudioSignal,
提出一种用于当在扬声器或头戴式耳机上再生时,将真实记录位置虚拟移动至另一位置的方法。然而,该方法限于简单声音场景,其中假设所有声音对象到用于记录的真实空间麦克风距离相等。另外,该方法仅可利用一个空间麦克风。
发明内容
本发明的目标是提供对经由提取几何信息的声音获取的改良的概念。通过根据权利要求1的装置、通过根据权利要求24的方法及通过根据权利要求25的计算机程序,来解决本发明的目标。
根据一个实施方式,本发明提供了一种用于产生音频输出信号以仿真环境中可配置虚拟位置处的虚拟麦克风的记录的装置。该装置包括声音事件位置估算器和信息计算模块。声音事件位置估算器适于估算表明环境中声源的位置的声源位置,其中,声音事件位置估算器适于根据由位于环境中第一真实麦克风位置的第一真实空间麦克风提供的第一方向信息,及根据由位于环境中第二真实麦克风位置的第二真实空间麦克风提供的第二方向信息,来估算声源位置。
信息计算模块适于根据由第一真实空间麦克风记录的第一已记录音频输入信号、根据第一真实麦克风位置、根据虚拟麦克风的虚拟位置、及根据声源位置,来产生音频输出信号。
在一个实施方式中,信息计算模块包括传播补偿器,其中,传播补偿器适于通过调整第一已记录音频输入信号的振幅值、量值或相位值,根据声源与第一真实空间麦克风之间的第一振幅衰减及根据声源与虚拟麦克风之间的第二振幅衰减,来通过修改第一已记录音频输入信号,产生第一修改后的音频信号,以获得音频输出信号。在实施方式中,第一振幅衰减可是由声源发出的声波的振幅衰减,且第二振幅衰减可为由声源发出的声波的振幅衰减。
根据另一实施方式,信息计算模块包括传播补偿器,该传播补偿器适于通过调整第一已记录音频输入信号的振幅值、量值或相位值,来通过补偿由声源发出的声波在第一真实空间麦克风处的抵达与声波在虚拟麦克风处的抵达之间的第一延迟,来通过修改第一已记录音频输入信号,产生第一已修改音频信号,以获得音频输出信号。
根据一个实施方式,假设使用两个以上的空间麦克风,这些空间麦克风在下文中被称为真实空间麦克风。对于各真实空间麦克风,可以时频域估算声音的DOA。从通过真实空间麦克风收集的信息,以及对这些真实空间麦克风相对位置的认识,可构成环境中随意虚拟放置的任意空间麦克风的输出信号。该空间麦克风在下文中称为虚拟空间麦克风。
注意,若在2D空间,则抵达方向(DOA)可表示为方位角,或在3D中为方位角与仰角对。等效地,可使用指向DOA的单位规范向量。
在一些实施方式中,提供构件来以空间选择的方式捕获声音,例如,可拾取源自特定目标位置的声音,犹如在该位置处安装了近距离“点麦克风”一样。然而,代替真实地安装该点麦克风,可通过使用放置在其他、远位置处的两个以上的空间麦克风,仿真该点麦克风的输出信号。
术语“空间麦克风”指用于空间声音的获取、能够检索声音的抵达方向的任何装置(例如,定向麦克风的组合、麦克风阵列等)。
术语“非空间麦克风”指不适于检索声音的抵达方的任何装置,诸如单个全向或定向麦克风。
应注意,术语“真实空间麦克风”指如以上所定义的物理存在的空间麦克风。
关于虚拟空间麦克风,应注意,虚拟空间麦克风可表示任何期望麦克风类型或麦克风组合,例如,该虚拟空间麦克风可,例如,表示单个全向麦克风、定向麦克风、如常见立体声麦克风中所使用的定向麦克风对,以及麦克风阵列。
本发明基于发现当使用两个以上真实空间麦克风时,可估算2D或3D空间中声音事件的位置,因此,可实现位置定位。使用声音事件的已确定位置,可计算由空间中任意放置及定向的虚拟空间麦克风所记录的声音信号,以及相应空间旁侧信息,诸如从虚拟空间麦克风的视点的抵达方向。
为达此目的,可假设各声音事件表示点类声源,例如各向同性点类的声源。在下文中,“真实声源”指记录环境中物理存在的实际声源,诸如通话器或乐器等。相反,在下文中,使用“声源”或“声音事件”指有效声源,该有效声源在某一时刻或在某一时频频段是有效的,其中,声源可例如表示真实声源或镜像源。根据实施方式,隐性地假设声音场景可建模为多个这样的声音事件或点类声源。另外,在预定时频表示中,可假设各源仅在特定时间及频率隙(slot)是有效的。真实空间麦克风之间的距离使得所得传播时间的时间差异短于时频表示的时间解析度。后面的假设保证了由相同时隙内的所有空间麦克风拾取某声音事件。这暗示对于相同时频隙,在不同空间麦克风处所估算的DOA的确对应于相同声音事件。即使在大房间(诸如,客厅或会议室)中距彼此几公尺均匀放置、具有几毫秒的时间解析度的真实空间麦克风也不难满足该假设。
可使用麦克风阵列来定位声源。被定位声源可根据该被定位声源的性质具有不同的物理解释。当麦克风阵列接收直接声音时,这些麦克风阵列可能够定位正确声源(例如,通话器)的位置。当麦克风阵列接收反射时,这些麦克风阵列可定位镜像源的位置。镜像源亦为声源。
本发明提供了一种能够估算放置在任意位置的虚拟麦克风的声音信号的参数方法。与之前所描述的方法相反,所提出的方法不直接旨在重建声场,而是旨在提供感知上类似于由物理放置在该位置的麦克风拾取的声音声音。此可通过使用基于点类声源,例如,各向同性点类声源(IPLS)声场参数模型来实现。所需几何信息,即所有IPLS的实时位置,可通过使用两个以上的分布式麦克风阵列,实施所估算的抵达方向的三角测量来获得。这可通过获得对阵列的相对位置及方位的认识来实现。尽管如此,对实际声源(例如通话器)数量及位置的预先认识不是必需的。给定所提出概念(例如所提出装置或方法)的参数性质,虚拟麦克风可具有任意定向模式以及任意物理或非物理行为,例如关于随距离的压力衰减。已通过基于混响环境中的测量研究参数估算准确度,来核实所提供的方法。
而只要所获得空间镜象总是相关于物理放置麦克风的位置,空间音频的传统记录技术即是受到限制的,本发明的实施方式将以下情况纳入考虑,在许多应用中,期望将麦克风放置在声音场景外且仍能够从任意层次捕获声音。根据实施方式,若已将麦克风物理放置在声音场景中,则通过计算感知上类似于已拾取信号的信号,来提供将虚拟麦克风虚拟放置在空间中任意点的概念。实施方式可应用可使用基于点类声源(例如,点类各向同性声源)的声场的参数模型的概念。可通过两个或两个以上分布式麦克风阵列收集所需几何信息。
根据一个实施方式,声音事件位置估算器可适于根据由声源发出的声波在第一真实麦克风位置处的第一抵达方向作为第一方向信息,及根据声波在第二真实麦克风位置处的第二抵达方向作为第二方向信息,来估算声源位置。
在另一实施方式中,信息计算模块可包括用于计算空间旁侧信息的空间旁侧信息计算模块。信息计算模块可适于根据虚拟麦克风位置向量及根据声音事件位置向量,来估算虚拟麦克风处的抵达方向或有效声音强度作为空间旁侧信息。
根据另一实施方式,传播补偿器可适于通过调整以时频域表示的第一已记录音频输入信号的该量值,来通过补偿由声源发出的声波在第一真实空间麦克风处的抵达与声波在虚拟麦克风处的抵达之间的第一延迟或振幅衰减,以在时频域产生第一修改后的音频信号。
在实施方式中,传播补偿器可适于通过应用以下公式,来通过产生第一修改后的音频信号的修改后的量值来实施传播补偿,该公式如下:
P v ( k , n ) = d 1 ( k , n ) s ( k , n ) P ref ( k , n )
其中d1(k,n)为第一真实空间麦克风的位置与声音事件的位置之间的距离,其中s(k,n)为虚拟麦克风的虚拟位置与声音事件的声源位置之间的距离,其中Pref(k,n)为以时频域表示的第一已记录音频输入信号的量值,且其中Pv(k,n)为修改后的量值。
在另一实施方式中,信息计算模块可另外包括组合器,其中,传播补偿器可进一步适于通过调整由第二真实空间麦克风记录之一第二已记录音频输入信号的振幅值、量值或相位值,来通过补偿由声源发出的声波在第二真实空间麦克风处的抵达与声波在虚拟麦克风处的抵达之间的第二延迟或振幅衰减,修改第二已记录音频输入信号,以获得第二修改后的音频信号,且其中组合器可适于通过将第一修改后的音频信号及第二修改后的音频信号组合,产生组合信号,以获得音频输出信号。
根据另一实施方式,传播补偿器可进一步适于通过补偿声波在虚拟麦克风处的抵达与由声源发出的声波在其他真实空间麦克风中的每一个处的抵达之间的延迟,来修改由一个或多个其他真实空间麦克风记录的一个或多个其他已记录音频输入信号。可通过调整其他已记录音频输入信号中的每一个的振幅值、量值或相位值,补偿各延迟或振幅衰减,以获得多个第三修改后的音频信号。组合器可适于通过将第一修改后的音频信号及第二修改后的音频信号及多个第三修改后的音频信号组合,产生组合信号,以获得音频输出信号。
在另一实施方式中,信息计算模块可包括频谱加权单元,该频谱加权单元取决于声波在虚拟麦克风的虚拟位置处的抵达方向及取决于虚拟麦克风的虚拟方位,通过修改第一修改后的音频信号,产生加权后的音频信号,以获得音频输出信号,其中,可在时频域来修改第一修改后的音频信号。
另外,信息计算模块可包括频谱加权单元,该频谱加权单元根据抵达方向或虚拟麦克风的虚拟位置处的声波及虚拟麦克风的虚拟方位,通过修改组合信号,产生加权后的音频信号,以获得音频输出信号,其中,可在时频域来修改组合信号。
根据另一实施方式,频谱加权单元可适于将加权因子
Figure BDA00003614359800081
或加权因子
Figure BDA00003614359800082
应用在加权后的音频信号上,
其中,
Figure BDA00003614359800083
表明由声源发出的声波在虚拟麦克风的虚拟位置处的抵达方向向量。
在一个实施方式中,传播补偿器进一步适于通过调整由全向麦克风记录的第三已记录音频输入信号的振幅值、量值或相位值,来通过补偿由声源发出的声波在全向麦克风处的抵达与声波在虚拟麦克风处的抵达之间的第三延迟或振幅衰减,来通过修改第三已记录音频输入信号,而产生第三修改后的音频信号,以获得音频输出信号。
在另一实施方式中,声音事件位置估算器可适于估算三维环境中的声源位置。
另外,根据另一实施方式,信息计算模块可进一步包括扩散度计算单元,该扩散度计算单元适于估算虚拟麦克风处之扩散声音能量或虚拟麦克风处之直接声音能量。
根据另一实施方式,扩散度计算单元可适于通过应用以下公式,估算虚拟麦克风处的扩散声音能量该公式如下:
E diff ( VM ) = 1 N Σ i = 1 N E diff ( SMi )
其中N为包括第一及第二真实空间麦克风的多个真实空间麦克风的数量,且其中
Figure BDA00003614359800096
为第i个真实空间麦克风处的扩散声音能量。
在另一实施方式中,扩散度计算单元可适于通过应用以下公式,估算直接声音能量,该公式如下:
Figure BDA00003614359800093
其中“距离Smi-IPLS”为第i个真实麦克风的位置与声源位置之间的距离,其中“距离VM-IPLS”为虚拟位置与声源位置之间的距离,且其中
Figure BDA00003614359800094
为第i个真实空间麦克风处的直接能量。
另外,根据另一实施方式,扩散度计算单元可进一步适于通过估算虚拟麦克风处的扩散声音能量及虚拟麦克风处的直接声音能量,及通过应用以下公式,来估算虚拟麦克风处的扩散度,该公式如下:
Ψ ( VM ) = E diff ( VM ) E diff ( VM ) + E dir ( VM )
其中ψ(VM)表明所估算虚拟麦克风处的扩散度,其中
Figure BDA00003614359800101
表明所估算扩散声音能量且其中
Figure BDA00003614359800102
表明所估算直接声音能量。
附图说明
图1示出根据实施方式的用于产生音频输出信号的装置,
图2示出根据实施方式的用于产生音频输出信号的装置及方法的输入及输出,
图3示出根据实施方式包括声音事件位置估算器及信息计算模块的装置的基本结构,
图4示出示例性情形,其中真实空间麦克风被示出为各3个麦克风的均匀的线性阵列,
图5示出用于估算3D空间中抵达方向的3D中的两个空间麦克风,
图6示出图标几何形状配置,其中当前时频段(time-frequency bin,时频点)(k,n)的各向同性点类声源位于位置pIPLS(k,n),
图7示出根据实施方式的信息计算模块,
图8示出根据另一实施方式的信息计算模块,
图9示出两个真实空间麦克风、已定位的声音事件及虚拟空间麦克风的位置,以及相应延迟及振幅衰减,
图10示出如何根据实施方式获得相关于虚拟麦克风的抵达方向,
图11示出根据实施方式的由虚拟麦克风的视点导出声音的DOA的可能方式,
图12示出根据实施方式的额外包括扩散度计算单元的信息计算块,
图13示出根据实施方式的扩散度计算单元,
图14示出不可能估算声音事件位置的情形,以及
图15a-15c示出两个麦克风阵列接收直接声音、由墙反射的声音及扩散声音的情形。
具体实施方式
图1示出用于产生音频输出信号,以仿真环境中可配置虚拟位置posVmic处的虚拟麦克风的记录的装置。该装置包括声音事件位置估算器110及信息计算模块120。声音事件位置估算器110接收来自第一真实空间麦克风的第一方向信息di1及来自第二真实空间麦克风的第二方向信息di2。声音事件位置估算器110适于估算表明环境中发出声波的声源的位置的声源位置ssp,其中,声音事件位置估算器110适于根据由位于环境中第一真实麦克风位置pos1mic的第一真实空间麦克风提供的第一方向信息di1,及根据由位于环境中第二真实麦克风位置的第二真实空间麦克风提供的第二方向信息di2,估算声源位置ssp。信息计算模块120适于根据由第一真实空间麦克风记录的第一已记录音频输入信号is1、根据第一真实麦克风位置pos1mic及根据虚拟麦克风的虚拟位置posVmic,产生音频输出信号。信息计算模块120包括传播补偿器,该传播补偿器适于通过调整第一已记录音频输入信号is1的振幅值、量值或相位值,来通过补偿由第一真实空间麦克风处的声源发出的声波的抵达与虚拟麦克风处的声波的抵达之间的第一延迟或振幅衰减,来通过修改第一已记录音频输入信号is1,产生第一修改后的音频信号。
图2示出根据实施方式的装置及方法的输入及输出。将来自两个以上真实空间麦克风111、112、...、11N的信息馈送至装置/通过此方法处理。该信息包括由真实空间麦克风拾取的音频信号以及来自真实空间麦克风的方向信息,例如,抵达方向(DOA)估算。可在时频域表示音频信号及诸如抵达方向估算的方向信息。若,例如,期望2D几何重建且选择传统短时间傅立叶变换(STFT)域用于信号的表示,则DOA可表示为依赖于k及n(即频率及时间指数)的方位角。
在一些实施方式中,可根据常见坐标系中真实及虚拟空间麦克风的位置及方位,来实施空间中声音事件定位,以及虚拟麦克风的位置的描述。可以第2图中输入121...12N及输入104来表示该信息。如下文将论述,输入104可额外说明虚拟空间麦克风的特征,例如,该虚拟空间麦克风的位置及拾取模式。若虚拟空间麦克风包括多个虚拟传感器,则可考虑这些虚拟传感器的位置及相应不同拾取模式。
当期望时,装置或相应方法的输出可为可通过按照由104说明进行定义及放置的空间麦克风拾取的一个或多个声音信号105。另外,装置(更确切地说,方法)可提供可通过使用虚拟空间麦克风估算的相应空间旁侧信息106作为输出。
图3示出根据实施方式的装置,该装置包括两个主处理单元:声音事件位置估算器201及信息计算模块202。声音事件位置估算器201可根据输入111...11N中包括的DOA及根据对计算DOA的真实空间麦克风的位置及方位的认识,来执行几何重建。声音事件位置估算器的输出205包括声源的位置估算(在2D或3D中),其中每个时频频段发生声音事件。第二处理方块202为信息计算模块。根据图3的实施方式,第二处理方块202计算虚拟麦克风信号及空间旁侧信息。因此,该第二处理方块202亦称为虚拟麦克风信号及旁侧信息计算块202。虚拟麦克风信号及旁侧信息计算块202使用声音事件的位置205,来处理111…11N中包括的音频信号,以输出虚拟麦克风音频信号105。若需要,方块202也可计算对应于虚拟空间麦克风的空间旁侧信息106。以下实施方式图示方块201及202可如何操作的可能性。
在下文中,更详细地描述根据实施方式的声音事件位置估算器的位置估算。
根据问题的维数(2D或3D)及空间麦克风的数量,位置估算的若干方案是可能的。
若在2D中存在两个空间麦克风,则(最简单的可能情况)简单三角测量是可能的。图4示出真实空间麦克风被示出为各3个麦克风的均匀线性阵列(ULA)的示例性情形。计算时频段(k,n)的表示为方位角al(k,n)及a2(k,n)的DOA。这通过使用适当DOA估算器来实现,诸如ESPRIT:
[13]R.Roy,A.Paulraj,and T.Kailath,「Direction-of-arrival estimationby subspace rotation methods–ESPRIT,」in IEEE International Conferenceon Acoustics,Speech,and Signal Processing(ICASSP),Stanford,CA,USA,April1986,
或(根)MUSIC,参见:
[14]R.Schmidt,「Multiple emitter location and signal parameterestimation,」IEEE Transactions on Antennas and Propagation,vol.34,no.3,pp.276-280,1986
至转变成为时频域的压力信号。
在图4中,示出两个真实空间麦克风,这里示出为两个真实空间麦克风阵列410、420。通过两条线表示两个经估算DOA al(k,n)及a2(k,n),第一线430表示DOA al(k,n)且第二线440表示DOA a2(k,n)。经由简单的几何思考,进而了解每个阵列的位置及方位,三角测量是可能的。
当两条线430、440完全平行时,三角测量失败。然而,在实际应用中,此状况不太可能。然而,并非所有三角测量结果对应于所考虑空间中声音事件的物理或可行位置。举例而言,声音事件的已估算位置可离假设空间非常远或甚至位于假设空间外,表明DOA可能不对应于可用所使用的模型物理解释的任何声音事件。可由传感器噪声或非常强的房间混响造成这些结果。因此,根据实施方式,将标记这些不期望结果,以使得信息计算模块202可适当地处理这些结果。
图5示出在3D空间中估算声音事件位置的情形。使用了适当空间麦克风,例如,平面或3D麦克风阵列。在图5中,示出第一空间麦克风510(例如,第一3D麦克风阵列),及第二空间麦克风520(例如,第一3D麦克风阵列)。3D空间中的DOA可例如,表示为方位角及仰角。可使用单位向量530、540来表示DOA。根据DOA投影两条线550、560。在3D中,即使以非常可靠估算,根据DOA所投影的两条线550、560也不可能相交。然而,可例如通过选择连接两条线的最小线段的中点,来仍执行三角测量。
类似于2D的情况,三角测量可能失败或可产生某些方向组合的不可行结果,可然后也将这些不可行结果标记,例如,至图3的信息计算模块202。
若存在多于两个空间麦克风,则若干方案为可能的。举例而言,可对所有真实空间麦克风对(若N=3,则1与2,1与3,及2与3)执行以上所阐释的三角测量。然后可将所得位置平均(沿x及y,及,若考虑到3D,z)。
可选地,可使用更复杂的概念。举例而言,可应用机率方法,如下文中所描述:
[15]J.Michael Steele,「Optimal Triangulation of Random Samples inthe Plane」,The Annals of Probability,Vol.10,No.3(Aug.,1982),pp.548-553.
根据一个实施方式,可以例如,经由短时间傅立叶变换(STFT)所获得的时频域分析声场,其中k及n分别表示频率指数k及时间指数n。某一k及n的任意位置pv处的复合压力Pv(k,n)建模为由窄带各向同性点类源发出的单个球面波,例如,通过使用以下公式:
Pv(k,n)=PIPLS(k,n)·γ(k,pIPLS(k,n),pv),    (1)
其中PIPLS(k,n)为由IPLS在该IPLS的位置pIPLS(k,n)处发出的信号。复合因子γ(k,pIPLS,pv)表示从pIPLS(k,n)至pv的传播,例如,该复合因子γ引入合适相位及量值修改。此处,可应用假设:在每个时频频段中仅一个IPLS为有效的。然而,在单一时间物理处,位于不同位置的多个窄带IPLS也可为有效的。
每个IPLS对直接声音或清楚的房间反射建模。该IPLS的位置pIPLS(k,n)可理想地分别对应于位于房间内部的实际声源,或位于外面的镜像声源。因此,位置pIPLS(k,n)亦可表明声音事件的位置。
请注意,术语“真实声源”表示物理存在于记录环境中的实际声源,诸如通话器或乐器。相反,我们使用“声源”或“声音事件”或“IPLS”指有效声源,这些有效声源在某些时刻或在某些时频段为有效的,其中声源可,例如,表示真实际声源或镜像源。
图15a-15b示出定位声源的麦克风阵列。被定位声源可取决于这些被定位声源的性质具有不同的物理解释。当麦克风阵列接收直接声音时,这些麦克风阵列可能够定位正确声源(例如,通话器)的位置。当麦克风阵列接收反射时,这些麦克风阵列可定位镜像源的位置。镜像源亦为声源。
图15a示出两个麦克风阵列151及152接收来自实际声源(物理存在声源)153的直接声音的情形。
图15b示出两个麦克风阵列161、162接收反射声音的情形,其中声音由墙反射。由于反射,麦克风阵列161、162定位声音似乎来自的、镜像源165的位置处的位置,该位置不同于话筒163的位置。
第15a图的实际声源153以及镜像源165两者均为声源。
图15c示出两个麦克风阵列171、172接收扩散声音且不能够定位声源的情形。
在源信号满足W分离正交性(WDO)条件的情况下,亦即,时频重叠足够小,则该单波模型只有在柔和混响环境中是准确的。此对于语音信号通常是正确的,参见例如:
[12]S.Rickard and Z.Yilmaz,「On the approximate W-disjointorthogonality of speech,」in Acoustics,Speech and Signal Processing,2002.ICASSP2002.IEEE International Conference on,April2002,vol.1.
然而,此模型亦提供对于其他环境的良好估算且因此亦适用于这些环境。
在下文中,阐释了根据实施方式的位置pIPLS(k,n)估算。有效IPLS的位置pIPLS(k,n)处于某一时频段,且因此,经由根据在至少两个不同观测点测量的声音的抵达方向(DOA)的三角测量来估算时频段中声音事件的估算。
图6示出几何形状配置,其中,当前时频隙(k,n)的IPLS位于未知位置pIPLS(k,n)。为确定所需DOA信息,使用具有已知几何、位置及方位的两个真实空间麦克风,此处是两个麦克风阵列,该两个真实空间麦克风分别放置在位置610及620。向量p1及p2分别指向位置610、620。通过单位向量c1及c2定义阵列方位。对于每个(k,n),使用例如,如由DirAC分析(参见[2]、[3])所提供的DOA估算算法,来确定位置610及620中声音的DOA。由此,可提供关于麦克风阵列的视点的第一视点单位向量
Figure BDA00003614359800151
及第二视点单位向量
Figure BDA00003614359800152
(在第6图中均未图示)作为DirAC分析的输出。举例而言,当在2D中操作时,第一视点单位向量结果得:
Figure BDA00003614359800153
如第6图中所描绘,此处,
Figure BDA00003614359800164
表示第一麦克风阵列处之所估算DOA之方位角。当在2D中操作且c1=[c1,x,c1,y]T时,可通过应用以下公式,计算关于原点处的整体坐标系的相应DOA单位向量e1(k,n)及e2(k,n),该公式如下:
e 1 ( k , n ) = R 1 · e 1 POV ( k , n ) , e 2 ( k , n ) = R 2 · e 2 POV ( k , n ) , - - - ( 3 )
其中R为坐标变换矩阵,例如:
R 1 = c 1 , x - c 1 , y c 1 , y c 1 , x , - - - ( 4 )
为执行三角测量,方向向量d1(k,n)及d2(k,n)可计算为:
d1(k,n)=d1(k,n)e1(k,n),
d2(k,n)=d2(k,n)e2(k,n),    (5)
其中d1(k,n)=||d1(k,n)||及d2(k,n)=||d2(k,n)||为IPLS与两个麦克风阵列之间的未知距离。以下等式:
p1+d1(k,n)=p2+d2(k,n)    (6)
可求出d1(k,n)。最后,由以下等式给出IPLS的位置pIPLS(k,n),这些式如下:
pIPLS(k,n)=d1(k,n)e1(k,n)+p1.    (7)
在另一实施方式中,等式(6)可求出d2(k,n)且使用d2(k,n)类似地计算pIPLS(k,n)。
除非e1(k,n)与e2(k,n)平行,否则等式(6)总是提供当在2D中操作时的方案。然而,当使用多于两个麦克风阵列或当在3D中操作时,当方向向量d不相交时,方案不可获得。根据实施方式,在此情况下,计算出最靠近所有方向向量d的点且结果可用作IPLS的位置。
在一个实施方式中,应设置所有观测点p1、p2…,以使得由IPLS发出的声音落入相同时间块n。当观测点中的任何两者之间的距离Δ小于
Δ max = c n FFT ( 1 - R ) f s , - - - ( 8 )
时,可简单地满足该要求,其中nFFT为STFT时间窗口长度,0≦R<1说明连续时间讯框之间的重叠且fs为取样频率。举例而言,对于48kHz、具有50%重叠(R=0.5)的1024点STFT,满足上述要求的阵列之间的最大间隔为Δ=3.65m。
在下文中,更详细地描述根据实施方式的信息计算模块202,例如虚拟麦克风信号及旁侧信息计算模块。
第7图图标根据实施方式的信息计算模块202的示意性概观。信息计算单元包括传播补偿器500、组合器510及频谱加权单元520。信息计算模块202接收由声音事件位置估算器所估算的声源位置估算ssp,通过真实空间麦克风中的一个或多个、真实空间麦克风中的一个或多个的位置posRealMic,及虚拟麦克风的虚拟位置posVmic,来记录一个或多个音频输入信号。该信息计算模块202输出表示虚拟麦克风的音频信号的音频输出信号os。
图8示出根据另一实施方式的信息计算模块。图8的信息计算模块包括传播补偿器500、组合器510及频谱加权单元520。传播补偿器500包括传播参数计算模块501及传播补偿模块504。组合器510包括组合因子计算模块502及组合模块505。频谱加权单元520包括频谱加权计算单元503、频谱加权应用模块506及空间旁侧信息计算模块507。
为计算虚拟麦克风的音频信号,将几何信息,例如,真实空间麦克风121...12N的位置及方位、虚拟空间麦克风的位置、方位及特征104,及声音事件的位置估算205馈至信息计算模块202中,详言之,馈至传播补偿器500的传播参数计算模块501中、馈至组合器510的组合因子计算模块502中及馈送至频谱加权单元520的频谱加权计算单元503中。传播参数计算模块501、组合因子计算模块502及频谱加权计算单元503计算在传播补偿模块504、组合模块505及频谱加权应用模块506的音频信号111...11N的修改中所使用的参数。
在信息计算模块202中,可首先修改音频信号111...11N,以补偿由声音事件位置与真实空间麦克风之间的不同传播长度造成的效果。然后可将信号组合以改良例如信噪比(SNR)。最后,则可光谱地加权所得信号,以将虚拟麦克风的定向拾取模式、以及任何距离依赖增益函数纳入考虑。下文更详细地论述该三个步骤。
现更详细地阐释传播补偿。在图9的上部部分中,图示出两个真实空间麦克风(第一麦克风阵列910及第二麦克风阵列920)、时频段(k,n)的被定位的声音事件930的位置,及虚拟空间麦克风940的位置。
图9的下部部分描绘时间轴。假设声音事件在时间t0处发出,且然后传播至真实及虚拟空间麦克风。抵达时间延迟以及振幅随距离而改变,使得传播长度越远,振幅越弱且抵达时间延迟越长。
只有当两个真实阵列之间的相对延迟Dt12小时,该两个真实阵列的信号才是可比较的。否则,两个信号中的一个必须短暂地重新对准以补偿相对延迟Dt12,且可能地,按比例调整以补偿不同衰减。
补偿虚拟麦克风处的抵达与真实麦克风阵列(真实空间麦克风中的一个)处的抵达之间的延迟,改变独立于声音事件的定位的延迟,进而使得对于大多数应用,该补偿为多余的。
回阅图8,传播参数计算模块501适于计算各真实空间麦克风及各声音事件的待校正的延迟。若期望,则该传播参数计算模块501亦计算待考虑以补偿不同振幅衰减的增益因子。
传播补偿模块504被配置为使用该信息来据此修改音频信号。若欲将信号移位少量时间(与滤波器组的时间窗口相比),则简单的相位旋转就足够了。若延迟较大,则需要更复杂的实现方式。
传播补偿模块504的输出是在初始时频域中表示的修改后的音频信号。
在下文中,将参照图6描述根据实施方式的虚拟麦克风的传播补偿的特定估算,其中,图6特别示出第一真实空间麦克风的位置610及第二真实空间麦克风的位置620。
在现所阐释的实施方式中,假设至少一个第一已记录音频输入信号,例如真实空间麦克风(例如麦克风阵列)中的至少一个的压力信号为可得的,例如第一真实空间麦克风的压力信号。我们将把所考虑的麦克风称为参考麦克风,把该麦克风的位置称为参考位置pref且把该麦克风的压力信号称为参考压力信号Pref(k,n)。然而,传播补偿不仅可关于仅一个压力信号实施,而且可关于多个或所有真实空间麦克风的压力信号实施。
由IPLS发出的压力信号PIPLS(k,n)与位于Pref的参考麦克风的参考压力信号Pref(k,n)之间的关系可以公式(9)表示:
Pref(k,n)=PIPLS(k,n)·γ(k,pIPLS,pref),    (9)
通常,复合因子γ(k,pa,pb)表示由从pa中球面波的原点至pb的球面波的传播引入的相位旋转及振幅衰减。然而,实践测试表明,与亦考虑到相位旋转相比,仅考虑到γ中的振幅衰减导致虚拟麦克风信号的具有少数假像的看似可信的印象。
可在空间中的某一点处测量的声能很大程度上取决于与声源(在第6图中是与声源的位置pIPLS)的距离r。在许多情况下,可以足够准确度使用熟知物理原理建模该依赖性,例如在点源的远场中的声压的1/r衰减。当参考麦克风,例如第一真实麦克风,距声源的距离已知时,且当虚拟麦克风距声源的距离也已知时,则可由参考麦克风(例如第一真实空间麦克风)的信号及能量来估算虚拟麦克风的位置处的声能。这意味着,可通过将适当增益施加至参考压力信号来获得虚拟麦克风的输出信号。
假设第一真实空间麦克风是参考麦克风,则pref=p1。在图6中,虚拟麦克风位于pv。由于详细已知图6中的几何形状配置,故可易于确定参考麦克风(第6图:第一真实空间麦克风)与IPLS之间的距离d1(k,n)=||d1(k,n)||,以及虚拟麦克风与IPLS之间的距离s(k,n)=||s(k,n)||,即:
s(k,n)=||s(k,n)||=||p1+d1(k,n)-pv||.     (10)
通过将公式(1)及(9)组合,计算虚拟麦克风的位置处的声压Pv(k,n),产生:
P v ( k , n ) = γ ( k , p IPLS , p v ) γ ( k , p IPLS , p ref ) P ref ( k , n ) . - - - ( 11 )
如上所述,在一些实施方式中,因子γ可仅考虑由于传播造成的振幅衰减。假设,例如,声压以1/r减小,则:
P v ( k , n ) = d 1 ( k , n ) s ( k , n ) P ref ( k , n ) . - - - ( 12 )
当公式(1)中的模型保持时,例如,当仅存在直接声音时,则公式(12)可准确地重建量信息。然而,在纯扩散声场的情况下,例如,当不满足模型假设时,当将虚拟麦克风移动远离传感器阵列的位置时,所提供方法产生信号之隐性去混响。实际上,如以上所论述,在扩散声场中,我们预期大多数IPLS经定位接近两个传感器阵列。因此,当将虚拟麦克风移动远离这些位置时,我们可增加图6中的距离s=||s||。因此,当根据公式(11)应用加权时,参考压力的量值减少。相应地,当将虚拟麦克风移动接近于实际声源时,将放大对应于直接声音的时频段,以使得将较少扩散地感知全部音频信号。通过调整公式(12)中的规则,可随意控制直接声音放大及扩散声音抑制。
通过实施第一真实空间麦克风的已记录音频输入信号(例如,压力信号)的传播补偿,获得第一修改后的音频信号。
在一些实施方式中,可通过实施第二真实空间麦克风的已记录第二音频输入信号(第二压力信号)的传播补偿,获得第二修改后的音频信号。
在其他实施方式中,可通过实施另外真实空间麦克风的已记录的其他音频输入信号(其他压力信号)的传播补偿,获得其他音频信号。
现更详细地阐释根据实施方式的图8中的方块502与505的组合。假设已修改来自多个不同真实空间麦克风中的两个以上的音频信号,来补偿不同传播路径,以获得两个以上的修改后的音频信号。一旦已修改来自不同真实空间麦克风的音频信号,来补偿不同传播路径,则可将这些音频信号组合以改良音频质量。通过如此做,例如,可增加SNR或可减少混响感。
可能的组合方案包括:
-加权平均,例如,考虑SNR,或至虚拟麦克风的距离,或由真实空间麦克风估算的扩散度。传统方案,例如,可使用最大比值组合(MRC)或均等增益组合(EQC),或
-线性组合一些或所有修改后的音频信号,以获得组合信号。修改后的音频信号可以线性组合加权,以获得组合信号,或
-选择,例如,(例如)根据SNR或距离或扩散度,仅使用一个信号。
模块502的任务是,在适用的情况下,计算用于在模块505中执行的组合的参数。
现更详细地描述根据实施方式的频谱加权。为此,参照图8的方块503及506。在该最后步骤处,根据如由输入104所说明的虚拟空间麦克风的空间特征及/或根据所重建几何形状配置(在205中给出),将由组合或由输入音频信号的传播补偿所得的音频信号在时频域中加权。
如第10图所示,对于每个时频频段,几何重建允许方便地获得相关于虚拟麦克风的DOA。另外,亦可方便地计算虚拟麦克风与声音事件的位置之间的距离。
然后考虑期望虚拟麦克风的类型,计算用于时频段的加权。
在定向麦克风的情况下,可根据预定拾取模式计算频谱加权。举例而言,根据实施方式,心形麦克风可具有由函数g(theta)定义的拾取模式,
g(theta)=0.5+0.5cos(theta),
其中theta为虚拟空间麦克风的探视方向与从虚拟麦克风的视点的声音的DOA之间的角度。
另一可能性是艺术(非物理)衰减函数。在某些应用中,可期望抑制声音事件远离具有大于表征自由场传播的因子的因子的虚拟麦克风。为达此目的,一些实施方式引入取决于虚拟麦克风与声音事件之间的距离的其他加权函数。在实施方式中,仅应拾取距虚拟麦克风某一距离(例如,以公尺计)内的声音事件。
关于虚拟麦克风定向,虚拟麦克风可应用任意定向模式。如此做时,可将源与复合声音场景分开。
由于可以虚拟麦克风的位置pv计算声音的DOA,即:
Figure BDA00003614359800211
                                                 (13)
其中cv为描述虚拟麦克风的方位的单位向量,可实现虚拟麦克风的任意定向。举例而言,假设Pv(k,n)表明组合信号或经传播补偿的修改后的音频信号,则公式:
Figure BDA00003614359800221
计算具有心形定向的虚拟麦克风的输出。可潜在地以此方式产生的定向模式取决于位置估算的准确度。
在数个实施方式中,除真实空间麦克风之外,将一个或多个真实、非空间麦克风,例如,全向麦克风或诸如心形的定向麦克风,放置在声音场景中,以进一步改良图8中虚拟麦克风信号105的声音质量。这些麦克风不用以收集任何几何信息,而是仅用以提供更平整的音频信号。可将这些麦克风放置得比空间麦克风更接近声源。在此情况下,根据实施方式,将真实、非空间麦克风的音频信号及这些麦克风的位置,而非真实空间麦克风的音频信号,简单地馈送至图8的传播补偿模块504,进行处理。然后关于一个或多个非空间麦克风的位置,实施非空间麦克风的一个或多个记录音频信号的传播补偿。通过此举,使用其他非空间麦克风实现实施方式。
在另一实施方式中,实现了虚拟麦克风的空间旁侧信息的计算。为计算麦克风的空间旁侧信息106,图8的信息计算模块202包括空间旁侧信息计算模块507,该空间旁侧信息计算模块507适于接收声源的位置205及虚拟麦克风的位置、方位及特征104作为输入。在某些实施方式中,根据需要计算的旁侧信息106,亦可将虚拟麦克风的音频信号105作为向空间旁侧信息计算模块507的输入纳入考虑。
空间旁侧信息计算模块507的输出是虚拟麦克风的旁侧信息106。该旁侧信息可为,例如,从虚拟麦克风的视点的每个时频段(k,n)的声音的DOA或扩散度。另一可能的旁侧信息可例如是已在虚拟麦克风的位置测量的有效声音强度向量Ia(k,n)。现将描述如何导出这些参数。
根据一个实施方式,实现了虚拟空间麦克风的DOA估算。如图11所示,信息计算模块120适于根据虚拟麦克风位置向量及根据声音事件位置向量,估算虚拟麦克风处的抵达方向作为空间旁侧信息。
图11示出导出来自虚拟麦克风的视点的声音的DOA的可能方式。可使用位置向量r(k,n),即声音事件位置向量来描述每个时频频段(k,n)的由第8图中方块205所提供的声音事件的位置。类似地,可使用位置向量s(k,n),即虚拟麦克风位置向量,来描述第8图中作为输入104所提供的虚拟麦克风的位置。可通过向量v(k,n)描述虚拟麦克风的探视方向。通过a(k,n)给出关于虚拟麦克风的DOA。a(k,n)表示v与声音传播路径h(k,n)之间的角度。可通过使用以下公式计算h(k,n),该公式如下:
h(k,n)=s(k,n)–r(k,n)。
现可计算各(k,n)的期望DOA a(k,n),例如经由h(k,n)及v(k,n)的内积的定义,即:
a(k,n)=arcos(h(k,n)·v(k,n)/(||h(k,n)||||v(k,n)||)。
如第11图所示,在另一实施方式中,信息计算模块120可适于根据虚拟麦克风位置向量及根据声音事件位置向量,估算虚拟麦克风处的有效声音强度作为空间旁侧信息。
由以上所定义的DOA a(k,n),我们可导出虚拟麦克风的位置处的有效声音强度Ia(k,n)。为此,假设第8图中虚拟麦克风音频信号105对应于全向麦克风的输出,例如,我们假设,虚拟麦克风为全向麦克风。另外,假设第11图中的探视方向v平行于坐标系的x轴。由于期望有效声音强度向量Ia(k,n)描述经由虚拟麦克风的位置的能量的净流量,故我们可计算Ia(k,n),例如,根据以下公式:
Ia(k,n)=-(1/2rho)|Pv(k,n)|2*[cos a(k,n),sin a(k,n)]T
其中,[]T表示转置向量,rho为空气密度,且Pv(k,n)为由虚拟空间麦克风,例如,图8中方块506的输出105所测量的声压。
若要计算在一般坐标系中的表示,但仍处于虚拟麦克风的位置处的有效强度向量,则可应用以下公式:
Ia(k,n)=(1/2rho)|Pv(k,n)|2h(k,n)/||h(k,n)||。
声音的扩散度表示在给定时频隙中,声场扩散得如何(参见,例如,[2])。以值ψ表示扩散度,其中0≦ψ≦1。扩散度1表明声场的总声场能量完全扩散。例如,在空间声音的再生中,该信息极其重要。传统地,在放置麦克风阵列的空间中的特定点处计算扩散度。
根据一个实施方式,可将扩散度作为可随意放置在声音场景中任意位置处的虚拟麦克风(VM)的所产生旁侧信息的附加参数来计算。通过此举,由于可产生DirAC串流,即声音场景中任意点处的音频信号、抵达方向及扩散度,故除计算虚拟麦克风的虚拟位置处的音频信号之外、还计算扩散度的装置可视为虚拟DirAC前端。可在任意多扬声器配置上进一步处理、储存、传输,及回放DirAC串流。在此情况下,收听者体验声音场景,犹如他或她在由虚拟麦克风说明的位置且以由虚拟麦克风的方位确定的方向探视。
图12示出根据实施方式的包括用于计算虚拟麦克风处的扩散度的扩散度计算单元801的信息计算块。信息计算块202适于接收除第3图的输入之外,亦包括真实空间麦克风处的扩散度的输入111至11N。令ψ(SM1)至ψ(SMN)表示这些值。这些额外输入馈送至信息计算模块202。扩散度计算单元801的输出103是在虚拟麦克风的位置处计算的扩散度参数。
在描绘更多细节的第13图中示出实施方式的扩散度计算单元801。根据一个实施方式,估算N个空间麦克风中的每一个处的直接及扩散声音的能量。然后,使用IPLS的位置处的信息,及空间及虚拟麦克风的位置处的信息,获得虚拟麦克风的位置处的这些能量的N个估算。最后,可将估算组合以改良估算准确度且可易于计算虚拟麦克风处的扩散度参数。
Figure BDA00003614359800247
Figure BDA00003614359800248
Figure BDA00003614359800249
Figure BDA000036143598002410
表示由能量分析单元810计算的N个空间麦克风的直接及扩散声音的能量的估算。若Pi为复合压力信号且ψi为第i个空间麦克风的扩散度,则可例如根据以下公式计算能量,该公式如下:
E dir ( SMi ) = ( 1 - Ψ i ) · | P i | 2
E diff ( SMi ) = Ψ i · | P i | 2
在所有位置,扩散声音的能量应相等,因此,虚拟麦克风处的扩散声音能量的估算
Figure BDA00003614359800243
可例如在扩散度组合单元820中,例如根据以下公式,简单地通过将
Figure BDA00003614359800244
平均来计算,该公式如下:
E diff ( VM ) = 1 N Σ i = 1 N E diff ( SMi )
可通过考虑估算器的差异,例如通过考虑SNR,来执行估算
Figure BDA00003614359800251
的更有效组合。
由于传播,直接声音的能量取决于到源的距离。因此,可修改
Figure BDA00003614359800253
Figure BDA00003614359800254
以将此纳入考虑。此可例如,通过直接声音传播调整单元830来执行。举例而言,若假设直接声场的能量随距离平方衰减1,则可根据以下公式计算第i个空间麦克风的虚拟麦克风处的直接声音的估算,该公式如下:
Figure BDA00003614359800255
类似于扩散度组合单元820,可例如,通过直接声音组合单元840将在不同空间麦克风处所获得的直接声能的估算组合。结果为
Figure BDA00003614359800256
例如,在虚拟麦克风处的直接声能的估算。可例如,通过扩散度子计算器850,例如根据以下公式,计算虚拟麦克风处的扩散度ψ(VM),该公式如下:
Ψ ( VM ) = E diff ( VM ) E diff ( VM ) + E dir ( VM )
如上所述,在一些情况下,声音事件位置估算器来执行的声音事件位置估算失败,例如,在错误的抵达方向估算的情况下。图14示出该情形。在这些情况下,不管在不同空间麦克风处所估算的扩散度参数且由于接收作为输入111至11N,由于不可能有空间连贯再生,虚拟麦克风的扩散度103可设置为1(亦即,完全扩散)。
另外,可考虑在N个空间麦克风处的DOA估算的可靠性。此可例如,按照DOA估算器的差异或SNR来表示。可由扩散度子计算器850将该信息纳入考虑,以便在DOA估算不可靠的情况下,可人为地增加VM扩散度103。实际上,因此,位置估算205亦将是不可靠的。
虽然在装置的上下文中已描述了多个方面,但是很明显这些方面也表示对应方法的描述,其中,方块或设备对应于方法步骤或方法步骤的特征结构。类似地,在方法步骤的上下文中描述的方面也表示对应方块或项目或对应装置的特征的描述。
可将发明的已分解信号储存于数字储存介质上或可传送于诸如无线传输介质的传输介质上或诸如因特网的有线传输介质上。
本发明的实施方式可取决于某些实施的要求而在硬件或软件中实施。可使用数字储存介质来执行实施,数字储存介质例如软盘、DVD、CD、ROM、PROM、EPROM、EEPROM或闪存,数字储存介质上储存有电子可读取控制信号,这些电子可读取控制信号与可编程计算机系统合作(或能够合作),以执行相应的方法。
根据本发明的多个实施方式包括具有电子可读取控制信号的非瞬态数据载体,这些电子可读取控制信号能够与可编程计算机系统合作,以执行本文所述方法中中的一个。
大体而言,本发明的实施方式可作为具有程序代码的计算机程序产品来实施,当计算机程序产品执行在计算机上时,该程序代码可操作以执行方法中的一个。程序代码可例如储存于机器可读取载体上。
其他实施方式包括用于执行本文所述方法中的一个且储存于机器可读取载体上的计算机程序。
换言之,本发明方法的实施方式因此为具有程序代码的计算机程序,当计算机程序执行在计算机上时,计算机程序用于执行本文所述的方法中的一个。
因此,本发明方法的又一实施方式为包括用于执行本文所述方法中的一个的计算机程序、且记录有计算机程序的数据载体(或数字储存介质,或计算机可读取介质)。
因此,本发明方法的又一实施方式为表示用于执行本文所述方法中的一个的计算机程序的数据串流或信号序列。数据串流或信号序列可例如被配置为经由数据通讯连接,例如经由因特网来进行传送。
又一实施方式包括被配置为或适于执行本文所述方法中的一个的处理构件,例如计算机或可程序逻辑设备。
又一实施方式包括安装有用于执行本文所述方法中的一个的计算机程序的计算机。
在一些实施方式中,可编程逻辑设备(例如现场可编程门阵列)可用来执行本文所述方法的功能中的某些或全部。在一些实施方式中,现场可编程门阵列可与微处理器合作以执行本文所述方法中的一个。大体而言,方法最好由任何硬件装置执行。
上述实施方式仅为说明本发明的原理。应理解,配置的修改及变化及本文所述的细节对于本领域技术人员来说将是显而易见的。因此,本发明仅由所附权利要求的范围限制,且非由以描述和阐释本文实施方式的方式示出的特定细节来限制。
参考文献:
[1]R.K.Furness,「Ambisonics-An overview,」in AES8thInternationalConference,April1990,pp.181-189.
[2]V.Pulkki,「Directional audio coding in spatial sound reproductionand stereo upmixing,」in Proceedings of the AES28thInternationalConference,pp.251-258,
Figure BDA00003614359800271
Sweden,June30-July2,2006.
[3]V.Pulkki,「Spatial sound reproduction with directional audiocoding,」J.Audio Eng.Soc.,vol.55,no.6,pp.503-516,June2007.
[4]C.Faller:「Microphone Front-Ends for Spatial Audio Coders」,inProceedings of the AES125thInternational Convention,San Francisco,Oct.2008.
[5]M.Kallinger,H.Ochsenfeld,G.Del Galdo,F.Küch,D.Mahne,R.Schultz-Amling.and O.Thiergart,「A spatial filtering approach for directionalaudio coding,」in Audio Engineering Society Convention126,Munich,Germany,May2009.
[6]R.Schultz-Amling,F.Küch,O.Thiergart,and M.Kallinger,「Acoustical zooming based on a parametric sound field representation,」inAudio Engineering Society Convention128,London UK,May2010.
[7]J.Herre,C.Falch,D.Mahne,G.Del Galdo,M.Kallinger,and O.Thiergart,「Interactive teleconferencing combining spatial audio object codingand DirAC technology,」in Audio Engineering Society Convention128,London UK,May2010.
[8]E.G.Williams,Fourier Acoustics:Sound Radiation and NearfieldAcoustical Holography,Academic Press,1999.
[9]A.Kuntz and R.Rabenstein,「Limitations in the extrapolation ofwave fields from circular measurements,」in15th European Signal ProcessingConference(EUSIPCO2007),2007.
[10]A.Walther and C.Faller,「Linear simulation of spaced microphonearrays using b-format recordings,」in Audio Engineering Society Convention128,London UK,May2010.
[11]US61/287,596:An Apparatus and a Method for Converting a FirstParametric Spatial Audio Signal into a Second Parametric Spatial AudioSignal.
[12]S.Rickard and Z.Yilmaz,「On the approximate W-disjointorthogonality of speech,」in Acoustics,Speech and Signal Processing,2002.ICASSP2002.IEEE International Conference on,April2002,vol.1.
[13]R.Roy,A.Paulraj,and T.Kailath,「Direction-of-arrival estimationby subspace rotation methods–ESPRIT,」in IEEE International Conference onAcoustics,Speech,and Signal Processing(ICASSP),Stanford,CA,USA,April1986.
[14]R.Schmidt,「Multiple emitter location and signal parameterestimation,」IEEE Transactions on Antennas and Propagation,vol.34,no.3,pp.276-280,1986.
[15]J.Michael Steele,「Optimal Triangulation of Random Samples inthe Plane」,The Annals of Probability,Vol.10,No.3(Aug.,1982),pp.548-553.
[16]F.J.Fahy,Sound Intensity,Essex:Elsevier Science Publishers Ltd.,1989.
[17]R.Schultz-Amling,F.Küch,M.Kallinger,G.Del Galdo,T.Ahonenand V.Pulkki,「Planar microphone array processing for the analysis andreproduction of spatial audio using directional audio coding,」in AudioEngineering Society Convention124,Amsterdam,The Netherlands,May2008.
[18]M.Kallinger,F.Küch,R.Schultz-Amling,G.Del Galdo,T.Ahonenand V.Pulkki,「Enhanced direction estimation using microphone arrays fordirectional audio coding;」in Hands-Free Speech Communication andMicrophone Arrays,2008.HSCMA2008,May2008,pp.45-48.

Claims (25)

1.一种用于产生音频输出信号以对环境中可配置的虚拟位置处的虚拟麦克风的记录进行仿真的装置,包括:
声音事件位置估算器(110),用于估算表明所述环境中的声源的位置的声源位置,其中,所述声音事件位置估算器(110)适于根据由位于所述环境中的第一真实麦克风位置的第一真实空间麦克风所提供的第一方向信息,并根据由位于所述环境中的第二真实麦克风位置的第二真实空间麦克风所提供的第二方向信息,来估算所述声源位置;以及
信息计算模块(120),用于根据第一已记录音频输入信号、根据所述第一真实麦克风位置、根据所述虚拟麦克风的所述虚拟位置、以及根据所述声源位置,来产生所述音频输出信号。
2.根据权利要求1所述的装置,其中,所述信息计算模块(120)包括传播补偿器(500),其中,所述传播补偿器(500)适于通过调整所述第一已记录音频输入信号的振幅值、量值或相位值,根据所述声源与所述第一真实空间麦克风之间的第一振幅衰减及根据所述声源与所述虚拟麦克风之间的第二振幅衰减,来修改所述第一已记录音频输入信号,产生第一修改后的音频信号,以获得所述音频输出信号。
3.根据权利要求1所述的装置,其中,所述信息计算模块(120)包括传播补偿器(500),其中,所述传播补偿器(500)适于通过调整所述第一已记录音频输入信号的振幅值、量值或相位值来补偿由所述声源发出的声波在所述第一真实空间麦克风处的抵达与所述声波在所述虚拟麦克风处的抵达之间的第一延迟,以修改所述第一已记录音频输入信号来产生第一修改后的音频信号,从而获得所述音频输出信号。
4.根据权利要求2或3所述的装置,其中,所述第一真实空间麦克风被配置为记录所述第一已记录音频输入信号。
5.根据权利要求2到3所述的装置,其中,第三麦克风被配置为记录所述第一已记录音频输入信号。
6.根据权利要求2到5中任一项所述的装置,其中,所述声音事件位置估算器(110)适于根据由所述声源发出的所述声波在所述第一真实麦克风位置处的第一抵达方向作为所述第一方向信息并根据所述声波在所述第二真实麦克风位置处的第二抵达方向作为所述第二方向信息,来估算所述声源位置。
7.根据权利要求2到6中任一项所述的装置,其中,所述信息计算模块(120)包括用于计算空间旁侧信息的空间旁侧信息计算模块(507)。
8.根据权利要求7所述的装置,其中,所述信息计算模块(120)适于根据所述虚拟麦克风的位置向量并根据所述声音事件的位置向量,来估算所述虚拟麦克风处的所述抵达方向或有效声音强度作为空间旁侧信息。
9.根据权利要求2所述的装置,其中,所述传播补偿器(500)适于通过调整以时频域表示的所述第一已记录音频输入信号的所述量值,根据所述声源与所述第一真实空间麦克风之间的所述第一振幅衰减并根据所述声源与所述虚拟麦克风之间的所述第二振幅衰减,来产生在时频域上的所述第一修改后的音频信号。
10.根据权利要求3所述的装置,其中,所述传播补偿器(500)适于通过调整以时频域表示的所述第一已记录音频输入信号的所述量值,来补偿由所述声源发出的所述声波在所述第一真实空间麦克风处的所述抵达与所述声波在所述虚拟麦克风处的所述抵达之间的所述第一延迟,以产生在时频域上的所述第一修改后的音频信号。
11.根据权利要求2到10中任一项所述的装置,其中,所述传播补偿器(500)适于通过应用以下公式产生所述第一修改后的音频信号的修改后的量值来实施传播补偿:
P v ( k , n ) = d 1 ( k , n ) s ( k , n ) P ref ( k , n )
其中,d1(k,n)是所述第一真实空间麦克风的位置与所述声音事件的位置之间的距离,其中,s(k,n)是所述虚拟麦克风的虚拟位置与所述声音事件的所述声源位置之间的距离,其中,Pref(k,n)是以时频域表示的所述第一已记录音频输入信号的量值,且其中Pv(k,n)是与所述虚拟麦克风的所述信号对应的所述修改后的量值。
12.根据权利要求2到11中任一项所述的装置,
其中,所述信息计算模块(120)还包括组合器(510),
其中,所述传播补偿器(500)还适于通过调整由所述第二真实空间麦克风记录的第二已记录音频输入信号的振幅值、量值或相位值来补偿由所述声源发出的所述声波在所述第二真实空间麦克风处的抵达与所述声波在所述虚拟麦克风处的抵达之间的第二延迟或第二振幅衰减,以修改所述第二已记录音频输入信号,从而获得第二修改后的音频信号,以及
其中,所述组合器(510)适于通过将所述第一修改后的音频信号及所述第二修改后的音频信号的组合,产生组合信号,以获得所述音频输出信号。
13.根据权利要求12所述的装置,
其中,所述传播补偿器(500)还适于通过补偿所述声波在所述虚拟麦克风处的抵达与由所述声源发出的所述声波在一个或多个其他真实空间麦克风中的每一个处的抵达之间的延迟或振幅衰减,来修改由所述一个或多个其他真实空间麦克风所记录的一个或多个其他已记录音频输入信号,其中,所述传播补偿器(500)适于通过调整所述其他已记录音频输入信号中的每一个的振幅值、量值或相位值,来补偿所述延迟或所述振幅衰减中的每一个,以获得多个第三修改后的音频信号,以及
其中,所述组合器(510)适于通过将所述第一修改后的音频信号及所述第二修改后的音频信号及这些多个第三修改后的音频信号组合,产生组合信号,以获得该音频输出信号。
14.根据权利要求2到11中所述的装置,其中,所述信息计算模块(120)包括频谱加权单元(520),所述频谱加权单元用于根据所述声波在所述虚拟麦克风的所述虚拟位置处的抵达方向并根据所述虚拟麦克风的虚拟方位,通过修改所述第一修改后的音频信号来产生加权后的音频信号,以获得所述音频输出信号,其中,所述第一修改后的音频信号在时频域中被修改。
15.根据权利要求12或13所述的装置,其中,所述信息计算模块(120)包括频谱加权单元(520),所述频谱加权单元用于根据所述声波在所述虚拟麦克风的所述虚拟位置处的抵达方向和所述虚拟麦克风的虚拟方位,通过修改所述组合信号来产生加权后的音频信号,以获得所述音频输出信号,其中,所述组合信号在时频域中被修改。
16.根据权利要求14或15所述的装置,其中,所述频谱加权单元(520)适于将加权因子
Figure FDA00003614359700041
或加权因子
Figure FDA00003614359700042
Figure FDA00003614359700043
应用在所述加权后的音频信号上,
其中,
Figure FDA00003614359700054
表明由所述声源发出的所述声波在所述虚拟麦克风的所述虚拟位置处的抵达方向向量。
17.根据权利要求2到16中所述的装置,其中,所述传播补偿器(500)还适于通过调整由第四麦克风记录的第三已记录音频输入信号的振幅值、量值或相位值,来补偿由所述声源发出的所述声波在所述第四麦克风处的抵达与所述声波在所述虚拟麦克风处的抵达之间的第三延迟或第三振幅衰减,以修改所述第三已记录音频输入信号来产生第三修改后的音频信号,从而获得所述音频输出信号。
18.根据前述权利要求中任一项所述的装置,其中,所述声音事件位置估算器(110)适于估算三维环境中的声源位置。
19.根据前述权利要求中任一项所述的装置,其中,所述信息计算模块(120)还包括扩散度计算单元(801),所述扩散度计算单元(801)适于估算所述虚拟麦克风处的扩散声音能量或所述虚拟麦克风处的直接声音能量。
20.根据权利要求19所述的装置,其中,所述扩散度计算单元(801)适于根据所述第一真实空间麦克风和所述第二真实空间麦克风处的扩散声音能量,估算所述虚拟麦克风处的所述扩散声音能量。
21.根据权利要求20所述的装置,其中,所述扩散度计算单元(801)适于通过应用以下公式估算所述虚拟麦克风处的所述扩散声音能量
Figure FDA00003614359700051
E diff ( VM ) = 1 N Σ i = 1 N E diff ( SMi )
其中,N是包括所述第一真实空间麦克风和所述第二真实空间麦克风的多个真实空间麦克风的数量,且其中,
Figure FDA00003614359700053
是第i个真实空间麦克风处的所述扩散声音能量。
22.根据权利要求20或21所述的装置,其中,所述扩散度计算单元(801)适于通过应用以下公式估算所述直接声音能量:
其中,“距离SMi-IPLS”是所述第i个真实麦克风的位置与所述声源位置之间的距离,其中,“距离VM-IPLS”是所述虚拟位置与所述声源位置之间的距离,且其中,是所述第i个真实空间麦克风处的直接能量。
23.根据权利要求19到22中任一项所述的装置,其中,所述扩散度计算单元(801)适于通过估算所述虚拟麦克风处的所述扩散声音能量及所述虚拟麦克风处的所述直接声音能量且通过应用以下公式估算所述虚拟麦克风处的扩散度:
Ψ ( VM ) = E diff ( VM ) E diff ( VM ) + E dir ( VM )
其中,ψ(VM)表明所估算的所述虚拟麦克风处的所述扩散度,其中,
Figure FDA00003614359700063
表明所估算的所述扩散声音能量,且其中,
Figure FDA00003614359700064
表明所估算的所述直接声音能量。
24.一种用于产生音频输出信号以对环境中可配置的虚拟位置处的虚拟麦克风的记录进行仿真的方法,所述方法包括以下步骤:
根据由位于所述环境中第一真实麦克风位置的第一真实空间麦克风提供的第一方向信息,并根据由位于所述环境中的第二真实麦克风位置的第二真实空间麦克风提供的第二方向信息,来估算表明所述环境中的声源的位置的声源位置;以及
根据第一已记录音频输入信号、根据所述第一真实麦克风位置、根据所述虚拟麦克风的所述虚拟位置、及根据所述声源位置,产生所述音频输出信号。
25.一种计算机程序,用于当在计算机或信号处理器上执行时,实施根据权利要求24所述的方法。
CN201180066792.7A 2010-12-03 2011-12-02 用于产生音频输出信号的装置和方法 Active CN103583054B (zh)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US41962310P 2010-12-03 2010-12-03
US61/419,623 2010-12-03
US42009910P 2010-12-06 2010-12-06
US61/420,099 2010-12-06
PCT/EP2011/071629 WO2012072798A1 (en) 2010-12-03 2011-12-02 Sound acquisition via the extraction of geometrical information from direction of arrival estimates

Publications (2)

Publication Number Publication Date
CN103583054A true CN103583054A (zh) 2014-02-12
CN103583054B CN103583054B (zh) 2016-08-10

Family

ID=45406686

Family Applications (2)

Application Number Title Priority Date Filing Date
CN201180066795.0A Active CN103460285B (zh) 2010-12-03 2011-12-02 用于以几何为基础的空间音频编码的装置及方法
CN201180066792.7A Active CN103583054B (zh) 2010-12-03 2011-12-02 用于产生音频输出信号的装置和方法

Family Applications Before (1)

Application Number Title Priority Date Filing Date
CN201180066795.0A Active CN103460285B (zh) 2010-12-03 2011-12-02 用于以几何为基础的空间音频编码的装置及方法

Country Status (16)

Country Link
US (2) US9396731B2 (zh)
EP (2) EP2647005B1 (zh)
JP (2) JP5878549B2 (zh)
KR (2) KR101619578B1 (zh)
CN (2) CN103460285B (zh)
AR (2) AR084091A1 (zh)
AU (2) AU2011334857B2 (zh)
BR (1) BR112013013681B1 (zh)
CA (2) CA2819502C (zh)
ES (2) ES2643163T3 (zh)
HK (1) HK1190490A1 (zh)
MX (2) MX2013006068A (zh)
PL (1) PL2647222T3 (zh)
RU (2) RU2570359C2 (zh)
TW (2) TWI530201B (zh)
WO (2) WO2012072798A1 (zh)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104637495A (zh) * 2013-11-08 2015-05-20 宏达国际电子股份有限公司 电子装置以及音频信号处理方法
CN105376691A (zh) * 2014-08-29 2016-03-02 杜比实验室特许公司 感知方向的环绕声播放
CN106465027A (zh) * 2014-05-13 2017-02-22 弗劳恩霍夫应用研究促进协会 用于边缘衰落幅度平移的装置和方法
CN108370470A (zh) * 2015-12-04 2018-08-03 森海塞尔电子股份有限及两合公司 具有麦克风阵列系统的会议系统以及会议系统中的语音获取方法
CN109791769A (zh) * 2016-09-28 2019-05-21 诺基亚技术有限公司 使用自适应捕捉从麦克风阵列生成空间音频信号格式
US11064291B2 (en) 2015-12-04 2021-07-13 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
CN113424257A (zh) * 2018-12-07 2021-09-21 弗劳恩霍夫应用研究促进协会 用于使用直达分量补偿进行与基于DirAC的空间音频编码有关的编码、解码、场景处理和其他过程的装置、方法和计算机程序

Families Citing this family (94)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9558755B1 (en) 2010-05-20 2017-01-31 Knowles Electronics, Llc Noise suppression assisted automatic speech recognition
EP2600637A1 (en) * 2011-12-02 2013-06-05 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for microphone positioning based on a spatial power density
WO2013093565A1 (en) * 2011-12-22 2013-06-27 Nokia Corporation Spatial audio processing apparatus
JP2015509212A (ja) * 2012-01-19 2015-03-26 コーニンクレッカ フィリップス エヌ ヴェ 空間オーディオ・レンダリング及び符号化
EP2893532B1 (en) * 2012-09-03 2021-03-24 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. Apparatus and method for providing an informed multichannel speech presence probability estimation
EP2898506B1 (en) * 2012-09-21 2018-01-17 Dolby Laboratories Licensing Corporation Layered approach to spatial audio coding
US10175335B1 (en) 2012-09-26 2019-01-08 Foundation For Research And Technology-Hellas (Forth) Direction of arrival (DOA) estimation apparatuses, methods, and systems
US9549253B2 (en) * 2012-09-26 2017-01-17 Foundation for Research and Technology—Hellas (FORTH) Institute of Computer Science (ICS) Sound source localization and isolation apparatuses, methods and systems
US9955277B1 (en) 2012-09-26 2018-04-24 Foundation For Research And Technology-Hellas (F.O.R.T.H.) Institute Of Computer Science (I.C.S.) Spatial sound characterization apparatuses, methods and systems
US10149048B1 (en) 2012-09-26 2018-12-04 Foundation for Research and Technology—Hellas (F.O.R.T.H.) Institute of Computer Science (I.C.S.) Direction of arrival estimation and sound source enhancement in the presence of a reflective surface apparatuses, methods, and systems
US20160210957A1 (en) * 2015-01-16 2016-07-21 Foundation For Research And Technology - Hellas (Forth) Foreground Signal Suppression Apparatuses, Methods, and Systems
US10136239B1 (en) 2012-09-26 2018-11-20 Foundation For Research And Technology—Hellas (F.O.R.T.H.) Capturing and reproducing spatial sound apparatuses, methods, and systems
US9554203B1 (en) 2012-09-26 2017-01-24 Foundation for Research and Technolgy—Hellas (FORTH) Institute of Computer Science (ICS) Sound source characterization apparatuses, methods and systems
US9640194B1 (en) 2012-10-04 2017-05-02 Knowles Electronics, Llc Noise suppression for speech processing based on machine-learning mask estimation
FR2998438A1 (fr) * 2012-11-16 2014-05-23 France Telecom Acquisition de donnees sonores spatialisees
EP2747451A1 (en) 2012-12-21 2014-06-25 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Filter and method for informed spatial filtering using multiple instantaneous direction-of-arrivial estimates
CN104010265A (zh) 2013-02-22 2014-08-27 杜比实验室特许公司 音频空间渲染设备及方法
CN104019885A (zh) 2013-02-28 2014-09-03 杜比实验室特许公司 声场分析系统
WO2014151813A1 (en) 2013-03-15 2014-09-25 Dolby Laboratories Licensing Corporation Normalization of soundfield orientations based on auditory scene analysis
WO2014171791A1 (ko) 2013-04-19 2014-10-23 한국전자통신연구원 다채널 오디오 신호 처리 장치 및 방법
US10075795B2 (en) 2013-04-19 2018-09-11 Electronics And Telecommunications Research Institute Apparatus and method for processing multi-channel audio signal
US20140355769A1 (en) 2013-05-29 2014-12-04 Qualcomm Incorporated Energy preservation for decomposed representations of a sound field
CN104240711B (zh) * 2013-06-18 2019-10-11 杜比实验室特许公司 用于生成自适应音频内容的方法、系统和装置
CN104244164A (zh) 2013-06-18 2014-12-24 杜比实验室特许公司 生成环绕立体声声场
EP2830050A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for enhanced spatial audio object coding
EP2830052A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio decoder, audio encoder, method for providing at least four audio channel signals on the basis of an encoded representation, method for providing an encoded representation on the basis of at least four audio channel signals and computer program using a bandwidth extension
EP2830045A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Concept for audio encoding and decoding for audio channels and audio objects
EP2830049A1 (en) 2013-07-22 2015-01-28 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus and method for efficient object metadata coding
US9319819B2 (en) 2013-07-25 2016-04-19 Etri Binaural rendering method and apparatus for decoding multi channel audio
JP6055576B2 (ja) 2013-07-30 2016-12-27 ドルビー・インターナショナル・アーベー 任意のスピーカー・レイアウトへのオーディオ・オブジェクトのパン
CN103618986B (zh) * 2013-11-19 2015-09-30 深圳市新一代信息技术研究院有限公司 一种3d空间中音源声像体的提取方法及装置
EP3072315B1 (en) * 2013-11-22 2021-11-03 Apple Inc. Handsfree beam pattern configuration
US9620137B2 (en) * 2014-05-16 2017-04-11 Qualcomm Incorporated Determining between scalar and vector quantization in higher order ambisonic coefficients
US10770087B2 (en) 2014-05-16 2020-09-08 Qualcomm Incorporated Selecting codebooks for coding vectors decomposed from higher-order ambisonic audio signals
WO2016033364A1 (en) * 2014-08-28 2016-03-03 Audience, Inc. Multi-sourced noise suppression
CN104168534A (zh) * 2014-09-01 2014-11-26 北京塞宾科技有限公司 一种全息音频装置及控制方法
US9774974B2 (en) * 2014-09-24 2017-09-26 Electronics And Telecommunications Research Institute Audio metadata providing apparatus and method, and multichannel audio data playback apparatus and method to support dynamic format conversion
CN104378570A (zh) * 2014-09-28 2015-02-25 小米科技有限责任公司 录音方法及装置
JP6604331B2 (ja) * 2014-10-10 2019-11-13 ソニー株式会社 音声処理装置および方法、並びにプログラム
WO2016123572A1 (en) * 2015-01-30 2016-08-04 Dts, Inc. System and method for capturing, encoding, distributing, and decoding immersive audio
TWI579835B (zh) * 2015-03-19 2017-04-21 絡達科技股份有限公司 音效增益方法
EP3079074A1 (fr) * 2015-04-10 2016-10-12 B<>Com Procédé de traitement de données pour l'estimation de paramètres de mixage de signaux audio, procédé de mixage, dispositifs, et programmes d'ordinateurs associés
US9609436B2 (en) 2015-05-22 2017-03-28 Microsoft Technology Licensing, Llc Systems and methods for audio creation and delivery
US9530426B1 (en) 2015-06-24 2016-12-27 Microsoft Technology Licensing, Llc Filtering sounds for conferencing applications
US9601131B2 (en) * 2015-06-25 2017-03-21 Htc Corporation Sound processing device and method
US10375472B2 (en) 2015-07-02 2019-08-06 Dolby Laboratories Licensing Corporation Determining azimuth and elevation angles from stereo recordings
HK1255002A1 (zh) 2015-07-02 2019-08-02 杜比實驗室特許公司 根據立體聲記錄確定方位角和俯仰角
GB2543275A (en) * 2015-10-12 2017-04-19 Nokia Technologies Oy Distributed audio capture and mixing
TWI577194B (zh) * 2015-10-22 2017-04-01 山衛科技股份有限公司 環境音源辨識系統及其環境音源辨識之方法
WO2017073324A1 (ja) * 2015-10-26 2017-05-04 ソニー株式会社 信号処理装置、信号処理方法、並びにプログラム
US10206040B2 (en) * 2015-10-30 2019-02-12 Essential Products, Inc. Microphone array for generating virtual sound field
EP3174316B1 (en) * 2015-11-27 2020-02-26 Nokia Technologies Oy Intelligent audio rendering
CN112218211B (zh) 2016-03-15 2022-06-07 弗劳恩霍夫应用研究促进协会 用于生成声场描述的装置、方法或计算机程序
US9956910B2 (en) * 2016-07-18 2018-05-01 Toyota Motor Engineering & Manufacturing North America, Inc. Audible notification systems and methods for autonomous vehicles
US9986357B2 (en) 2016-09-28 2018-05-29 Nokia Technologies Oy Fitting background ambiance to sound objects
WO2018064296A1 (en) 2016-09-29 2018-04-05 Dolby Laboratories Licensing Corporation Method, systems and apparatus for determining audio representation(s) of one or more audio sources
US9980078B2 (en) 2016-10-14 2018-05-22 Nokia Technologies Oy Audio object modification in free-viewpoint rendering
US10531220B2 (en) 2016-12-05 2020-01-07 Magic Leap, Inc. Distributed audio capturing techniques for virtual reality (VR), augmented reality (AR), and mixed reality (MR) systems
CN106708041B (zh) * 2016-12-12 2020-12-29 西安Tcl软件开发有限公司 智能音箱、智能音箱定向移动方法及装置
US11096004B2 (en) 2017-01-23 2021-08-17 Nokia Technologies Oy Spatial audio rendering point extension
US10362393B2 (en) 2017-02-08 2019-07-23 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10229667B2 (en) 2017-02-08 2019-03-12 Logitech Europe S.A. Multi-directional beamforming device for acquiring and processing audible input
US10366700B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Device for acquiring and processing audible input
US10366702B2 (en) 2017-02-08 2019-07-30 Logitech Europe, S.A. Direction detection device for acquiring and processing audible input
US10531219B2 (en) 2017-03-20 2020-01-07 Nokia Technologies Oy Smooth rendering of overlapping audio-object interactions
US10397724B2 (en) 2017-03-27 2019-08-27 Samsung Electronics Co., Ltd. Modifying an apparent elevation of a sound source utilizing second-order filter sections
US11074036B2 (en) 2017-05-05 2021-07-27 Nokia Technologies Oy Metadata-free audio-object interactions
US10165386B2 (en) 2017-05-16 2018-12-25 Nokia Technologies Oy VR audio superzoom
US10602296B2 (en) 2017-06-09 2020-03-24 Nokia Technologies Oy Audio object adjustment for phase compensation in 6 degrees of freedom audio
US10334360B2 (en) * 2017-06-12 2019-06-25 Revolabs, Inc Method for accurately calculating the direction of arrival of sound at a microphone array
GB2563606A (en) 2017-06-20 2018-12-26 Nokia Technologies Oy Spatial audio processing
GB201710085D0 (en) 2017-06-23 2017-08-09 Nokia Technologies Oy Determination of targeted spatial audio parameters and associated spatial audio playback
GB201710093D0 (en) * 2017-06-23 2017-08-09 Nokia Technologies Oy Audio distance estimation for spatial audio processing
KR102491818B1 (ko) 2017-07-14 2023-01-26 프라운호퍼 게젤샤프트 쭈르 푀르데룽 데어 안겐반텐 포르슝 에. 베. 다중-지점 음장 묘사를 이용하여 증강된 음장 묘사 또는 수정된 음장 묘사를 생성하기 위한 개념
AR112556A1 (es) 2017-07-14 2019-11-13 Fraunhofer Ges Forschung Concepto para generar una descripción mejorada de campo de sonido o un campo de sonido modificado
AR112504A1 (es) 2017-07-14 2019-11-06 Fraunhofer Ges Forschung Concepto para generar una descripción mejorada de campo de sonido o un campo de sonido modificado utilizando una descripción multi-capa
US10264354B1 (en) * 2017-09-25 2019-04-16 Cirrus Logic, Inc. Spatial cues from broadside detection
US11395087B2 (en) 2017-09-29 2022-07-19 Nokia Technologies Oy Level-based audio-object interactions
CN111201784B (zh) 2017-10-17 2021-09-07 惠普发展公司,有限责任合伙企业 通信系统、用于通信的方法和视频会议系统
US10542368B2 (en) 2018-03-27 2020-01-21 Nokia Technologies Oy Audio content modification for playback audio
TWI690921B (zh) * 2018-08-24 2020-04-11 緯創資通股份有限公司 收音處理裝置及其收音處理方法
US11017790B2 (en) * 2018-11-30 2021-05-25 International Business Machines Corporation Avoiding speech collisions among participants during teleconferences
EP3928315A4 (en) * 2019-03-14 2022-11-30 Boomcloud 360, Inc. SPATIALLY SENSITIVE MULTIBAND COMPRESSION SYSTEM WITH PRIORITY
KR102154553B1 (ko) * 2019-09-18 2020-09-10 한국표준과학연구원 지향성이 향상된 마이크로폰 어레이 및 이를 이용한 음장 취득 방법
EP3963902A4 (en) 2019-09-24 2022-07-13 Samsung Electronics Co., Ltd. METHODS AND SYSTEMS FOR MIXED AUDIO SIGNAL RECORDING AND DIRECTIONAL AUDIO CONTENT REPRODUCTION
TW202123220A (zh) 2019-10-30 2021-06-16 美商杜拜研究特許公司 使用方向性元資料之多通道音頻編碼及解碼
CN113284504A (zh) 2020-02-20 2021-08-20 北京三星通信技术研究有限公司 姿态检测方法、装置、电子设备及计算机可读存储介质
US11277689B2 (en) 2020-02-24 2022-03-15 Logitech Europe S.A. Apparatus and method for optimizing sound quality of a generated audible signal
US11425523B2 (en) * 2020-04-10 2022-08-23 Facebook Technologies, Llc Systems and methods for audio adjustment
CN112083379B (zh) * 2020-09-09 2023-10-20 极米科技股份有限公司 基于声源定位的音频播放方法、装置、投影设备及介质
WO2022162878A1 (ja) * 2021-01-29 2022-08-04 日本電信電話株式会社 信号処理装置、信号処理方法、信号処理プログラム、学習装置、学習方法及び学習プログラム
CN116918350A (zh) * 2021-04-25 2023-10-20 深圳市韶音科技有限公司 声学装置
US20230035531A1 (en) * 2021-07-27 2023-02-02 Qualcomm Incorporated Audio event data processing
DE202022105574U1 (de) 2022-10-01 2022-10-20 Veerendra Dakulagi Ein System zur Klassifizierung mehrerer Signale für die Schätzung der Ankunftsrichtung

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1452851A (zh) * 2000-04-19 2003-10-29 音响方案公司 保持三维中的空间谐波的多通道环绕声母版制作和再现技术
US20050281410A1 (en) * 2004-05-21 2005-12-22 Grosvenor David A Processing audio data
US20060104451A1 (en) * 2003-08-07 2006-05-18 Tymphany Corporation Audio reproduction system
CN101485233A (zh) * 2006-03-01 2009-07-15 兰开斯特大学商企有限公司 信号表示方法和装置

Family Cites Families (67)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01109996A (ja) * 1987-10-23 1989-04-26 Sony Corp マイクロホン装置
JPH04181898A (ja) * 1990-11-15 1992-06-29 Ricoh Co Ltd マイクロホン
JPH1063470A (ja) * 1996-06-12 1998-03-06 Nintendo Co Ltd 画像表示に連動する音響発生装置
US6577738B2 (en) * 1996-07-17 2003-06-10 American Technology Corporation Parametric virtual speaker and surround-sound system
US6072878A (en) 1997-09-24 2000-06-06 Sonic Solutions Multi-channel surround sound mastering and reproduction techniques that preserve spatial harmonics
JP3344647B2 (ja) * 1998-02-18 2002-11-11 富士通株式会社 マイクロホンアレイ装置
JP3863323B2 (ja) 1999-08-03 2006-12-27 富士通株式会社 マイクロホンアレイ装置
KR100387238B1 (ko) * 2000-04-21 2003-06-12 삼성전자주식회사 오디오 변조 기능을 갖는 오디오 재생 장치 및 방법, 그장치를 적용한 리믹싱 장치 및 방법
GB2364121B (en) 2000-06-30 2004-11-24 Mitel Corp Method and apparatus for locating a talker
JP4304845B2 (ja) * 2000-08-03 2009-07-29 ソニー株式会社 音声信号処理方法及び音声信号処理装置
EP1552724A4 (en) * 2002-10-15 2010-10-20 Korea Electronics Telecomm METHOD FOR GENERATING AND USING A 3D AUDIOSCENCE WITH EXTENDED EFFICIENCY OF SOUND SOURCE
KR100626661B1 (ko) * 2002-10-15 2006-09-22 한국전자통신연구원 공간성이 확장된 음원을 갖는 3차원 음향 장면 처리 방법
EP1562403B1 (en) * 2002-11-15 2012-06-13 Sony Corporation Audio signal processing method and processing device
JP2004193877A (ja) * 2002-12-10 2004-07-08 Sony Corp 音像定位信号処理装置および音像定位信号処理方法
AU2003285787A1 (en) 2002-12-28 2004-07-22 Samsung Electronics Co., Ltd. Method and apparatus for mixing audio stream and information storage medium
KR20040060718A (ko) 2002-12-28 2004-07-06 삼성전자주식회사 오디오 스트림 믹싱 방법, 그 장치 및 그 정보저장매체
JP3639280B2 (ja) * 2003-02-12 2005-04-20 任天堂株式会社 ゲームメッセージ表示方法およびゲームプログラム
FI118247B (fi) 2003-02-26 2007-08-31 Fraunhofer Ges Forschung Menetelmä luonnollisen tai modifioidun tilavaikutelman aikaansaamiseksi monikanavakuuntelussa
JP4133559B2 (ja) 2003-05-02 2008-08-13 株式会社コナミデジタルエンタテインメント 音声再生プログラム、音声再生方法及び音声再生装置
MXPA06011397A (es) * 2004-04-05 2006-12-20 Koninkl Philips Electronics Nv Metodo, dispositivo, aparato codificador, aparato decodificador y sistema de audio.
KR100586893B1 (ko) 2004-06-28 2006-06-08 삼성전자주식회사 시변 잡음 환경에서의 화자 위치 추정 시스템 및 방법
WO2006006935A1 (en) 2004-07-08 2006-01-19 Agency For Science, Technology And Research Capturing sound from a target region
US7617501B2 (en) 2004-07-09 2009-11-10 Quest Software, Inc. Apparatus, system, and method for managing policies on a computer having a foreign operating system
US7903824B2 (en) * 2005-01-10 2011-03-08 Agere Systems Inc. Compact side information for parametric coding of spatial audio
DE102005010057A1 (de) 2005-03-04 2006-09-07 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung und Verfahren zum Erzeugen eines codierten Stereo-Signals eines Audiostücks oder Audiodatenstroms
WO2006105105A2 (en) 2005-03-28 2006-10-05 Sound Id Personal sound system
JP4273343B2 (ja) * 2005-04-18 2009-06-03 ソニー株式会社 再生装置および再生方法
US20070047742A1 (en) 2005-08-26 2007-03-01 Step Communications Corporation, A Nevada Corporation Method and system for enhancing regional sensitivity noise discrimination
WO2007046288A1 (ja) * 2005-10-18 2007-04-26 Pioneer Corporation 定位制御装置、定位制御方法、定位制御プログラムおよびコンピュータに読み取り可能な記録媒体
US8705747B2 (en) 2005-12-08 2014-04-22 Electronics And Telecommunications Research Institute Object-based 3-dimensional audio service system using preset audio scenes
DE602007004451D1 (de) 2006-02-21 2010-03-11 Koninkl Philips Electronics Nv Audiokodierung und audiodekodierung
WO2007099318A1 (en) 2006-03-01 2007-09-07 The University Of Lancaster Method and apparatus for signal presentation
US8374365B2 (en) * 2006-05-17 2013-02-12 Creative Technology Ltd Spatial audio analysis and synthesis for binaural reproduction and format conversion
EP2369836B1 (en) * 2006-05-19 2014-04-23 Electronics and Telecommunications Research Institute Object-based 3-dimensional audio service system using preset audio scenes
US20080004729A1 (en) * 2006-06-30 2008-01-03 Nokia Corporation Direct encoding into a directional audio coding format
JP4894386B2 (ja) * 2006-07-21 2012-03-14 ソニー株式会社 音声信号処理装置、音声信号処理方法および音声信号処理プログラム
US8229754B1 (en) * 2006-10-23 2012-07-24 Adobe Systems Incorporated Selecting features of displayed audio data across time
EP2097895A4 (en) * 2006-12-27 2013-11-13 Korea Electronics Telecomm DEVICE AND METHOD FOR ENCODING AND DECODING MULTI-OBJECT AUDIO SIGNAL WITH DIFFERENT CHANNELS WITH INFORMATION BIT RATE CONVERSION
JP4449987B2 (ja) * 2007-02-15 2010-04-14 ソニー株式会社 音声処理装置、音声処理方法およびプログラム
US9015051B2 (en) * 2007-03-21 2015-04-21 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Reconstruction of audio channels with direction parameters indicating direction of origin
JP4221035B2 (ja) * 2007-03-30 2009-02-12 株式会社コナミデジタルエンタテインメント ゲーム音出力装置、音像定位制御方法、および、プログラム
KR101497644B1 (ko) 2007-04-19 2015-03-02 에포스 디벨롭먼트 리미티드 음성 및 위치 국부화
FR2916078A1 (fr) * 2007-05-10 2008-11-14 France Telecom Procede de codage et decodage audio, codeur audio, decodeur audio et programmes d'ordinateur associes
US8180062B2 (en) * 2007-05-30 2012-05-15 Nokia Corporation Spatial sound zooming
US20080298610A1 (en) 2007-05-30 2008-12-04 Nokia Corporation Parameter Space Re-Panning for Spatial Audio
CN101884065B (zh) * 2007-10-03 2013-07-10 创新科技有限公司 用于双耳再现和格式转换的空间音频分析和合成的方法
JP5294603B2 (ja) * 2007-10-03 2013-09-18 日本電信電話株式会社 音響信号推定装置、音響信号合成装置、音響信号推定合成装置、音響信号推定方法、音響信号合成方法、音響信号推定合成方法、これらの方法を用いたプログラム、及び記録媒体
KR101415026B1 (ko) 2007-11-19 2014-07-04 삼성전자주식회사 마이크로폰 어레이를 이용한 다채널 사운드 획득 방법 및장치
WO2009089353A1 (en) 2008-01-10 2009-07-16 Sound Id Personal sound system for display of sound pressure level or other environmental condition
JP5686358B2 (ja) * 2008-03-07 2015-03-18 学校法人日本大学 音源距離計測装置及びそれを用いた音響情報分離装置
KR101461685B1 (ko) * 2008-03-31 2014-11-19 한국전자통신연구원 다객체 오디오 신호의 부가정보 비트스트림 생성 방법 및 장치
JP2009246827A (ja) * 2008-03-31 2009-10-22 Nippon Hoso Kyokai <Nhk> 音源及び仮想音源の位置特定装置、方法及びプログラム
US8457328B2 (en) * 2008-04-22 2013-06-04 Nokia Corporation Method, apparatus and computer program product for utilizing spatial information for audio signal enhancement in a distributed network environment
EP2154910A1 (en) * 2008-08-13 2010-02-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Apparatus for merging spatial audio streams
ES2425814T3 (es) 2008-08-13 2013-10-17 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Aparato para determinar una señal de audio espacial convertida
US8023660B2 (en) * 2008-09-11 2011-09-20 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus, method and computer program for providing a set of spatial cues on the basis of a microphone signal and apparatus for providing a two-channel audio signal and a set of spatial cues
JP5520300B2 (ja) * 2008-09-11 2014-06-11 フラウンホッファー−ゲゼルシャフト ツァ フェルダールング デァ アンゲヴァンテン フォアシュンク エー.ファオ マイクロホン信号に基づいて一組の空間手がかりを供給する装置、方法およびコンピュータ・プログラムと2チャンネルのオーディオ信号および一組の空間手がかりを供給する装置
EP2374123B1 (fr) * 2008-12-15 2019-04-10 Orange Codage perfectionne de signaux audionumeriques multicanaux
JP5309953B2 (ja) * 2008-12-17 2013-10-09 ヤマハ株式会社 収音装置
EP2205007B1 (en) * 2008-12-30 2019-01-09 Dolby International AB Method and apparatus for three-dimensional acoustic field encoding and optimal reconstruction
JP5620689B2 (ja) 2009-02-13 2014-11-05 本田技研工業株式会社 残響抑圧装置及び残響抑圧方法
JP5197458B2 (ja) * 2009-03-25 2013-05-15 株式会社東芝 受音信号処理装置、方法およびプログラム
JP5314129B2 (ja) * 2009-03-31 2013-10-16 パナソニック株式会社 音響再生装置及び音響再生方法
KR20120006060A (ko) * 2009-04-21 2012-01-17 코닌클리케 필립스 일렉트로닉스 엔.브이. 오디오 신호 합성
EP2249334A1 (en) * 2009-05-08 2010-11-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Audio format transcoder
EP2346028A1 (en) 2009-12-17 2011-07-20 Fraunhofer-Gesellschaft zur Förderung der Angewandten Forschung e.V. An apparatus and a method for converting a first parametric spatial audio signal into a second parametric spatial audio signal
KR20120059827A (ko) * 2010-12-01 2012-06-11 삼성전자주식회사 다중 음원 위치추적장치 및 그 위치추적방법

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN1452851A (zh) * 2000-04-19 2003-10-29 音响方案公司 保持三维中的空间谐波的多通道环绕声母版制作和再现技术
US20060104451A1 (en) * 2003-08-07 2006-05-18 Tymphany Corporation Audio reproduction system
US20050281410A1 (en) * 2004-05-21 2005-12-22 Grosvenor David A Processing audio data
CN101485233A (zh) * 2006-03-01 2009-07-15 兰开斯特大学商企有限公司 信号表示方法和装置

Cited By (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104637495B (zh) * 2013-11-08 2019-03-26 宏达国际电子股份有限公司 电子装置以及音频信号处理方法
CN104637495A (zh) * 2013-11-08 2015-05-20 宏达国际电子股份有限公司 电子装置以及音频信号处理方法
CN106465027A (zh) * 2014-05-13 2017-02-22 弗劳恩霍夫应用研究促进协会 用于边缘衰落幅度平移的装置和方法
US10021499B2 (en) 2014-05-13 2018-07-10 Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V. Apparatus and method for edge fading amplitude panning
CN106465027B (zh) * 2014-05-13 2019-06-04 弗劳恩霍夫应用研究促进协会 用于边缘衰落幅度平移的装置和方法
US11330372B2 (en) 2014-08-29 2022-05-10 Dolby Laboratories Licensing Corporation Orientation-aware surround sound playback
US10362401B2 (en) 2014-08-29 2019-07-23 Dolby Laboratories Licensing Corporation Orientation-aware surround sound playback
CN105376691B (zh) * 2014-08-29 2019-10-08 杜比实验室特许公司 感知方向的环绕声播放
US10848873B2 (en) 2014-08-29 2020-11-24 Dolby Laboratories Licensing Corporation Orientation-aware surround sound playback
US11902762B2 (en) 2014-08-29 2024-02-13 Dolby Laboratories Licensing Corporation Orientation-aware surround sound playback
CN105376691A (zh) * 2014-08-29 2016-03-02 杜比实验室特许公司 感知方向的环绕声播放
US11765498B2 (en) 2015-12-04 2023-09-19 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
CN108370470A (zh) * 2015-12-04 2018-08-03 森海塞尔电子股份有限及两合公司 具有麦克风阵列系统的会议系统以及会议系统中的语音获取方法
US10834499B2 (en) 2015-12-04 2020-11-10 Sennheiser Electronic Gmbh & Co. Kg Conference system with a microphone array system and a method of speech acquisition in a conference system
CN108370470B (zh) * 2015-12-04 2021-01-12 森海塞尔电子股份有限及两合公司 会议系统以及会议系统中的语音获取方法
US11064291B2 (en) 2015-12-04 2021-07-13 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
US11381906B2 (en) 2015-12-04 2022-07-05 Sennheiser Electronic Gmbh & Co. Kg Conference system with a microphone array system and a method of speech acquisition in a conference system
US11509999B2 (en) 2015-12-04 2022-11-22 Sennheiser Electronic Gmbh & Co. Kg Microphone array system
US11671781B2 (en) 2016-09-28 2023-06-06 Nokia Technologies Oy Spatial audio signal format generation from a microphone array using adaptive capture
CN109791769A (zh) * 2016-09-28 2019-05-21 诺基亚技术有限公司 使用自适应捕捉从麦克风阵列生成空间音频信号格式
CN113424257B (zh) * 2018-12-07 2024-01-19 弗劳恩霍夫应用研究促进协会 从包括至少两个声道的信号产生声场描述的装置、方法
CN113424257A (zh) * 2018-12-07 2021-09-21 弗劳恩霍夫应用研究促进协会 用于使用直达分量补偿进行与基于DirAC的空间音频编码有关的编码、解码、场景处理和其他过程的装置、方法和计算机程序
US11937075B2 (en) 2018-12-07 2024-03-19 Fraunhofer-Gesellschaft Zur Förderung Der Angewand Forschung E.V Apparatus, method and computer program for encoding, decoding, scene processing and other procedures related to DirAC based spatial audio coding using low-order, mid-order and high-order components generators

Also Published As

Publication number Publication date
EP2647222A1 (en) 2013-10-09
MX338525B (es) 2016-04-20
KR20140045910A (ko) 2014-04-17
AR084091A1 (es) 2013-04-17
AU2011334851B2 (en) 2015-01-22
JP5728094B2 (ja) 2015-06-03
EP2647005B1 (en) 2017-08-16
KR20130111602A (ko) 2013-10-10
MX2013006068A (es) 2013-12-02
CA2819502C (en) 2020-03-10
US20130259243A1 (en) 2013-10-03
RU2556390C2 (ru) 2015-07-10
JP2014502109A (ja) 2014-01-23
AU2011334857A1 (en) 2013-06-27
CA2819394A1 (en) 2012-06-07
TW201237849A (en) 2012-09-16
EP2647005A1 (en) 2013-10-09
JP5878549B2 (ja) 2016-03-08
KR101619578B1 (ko) 2016-05-18
CN103460285B (zh) 2018-01-12
ES2643163T3 (es) 2017-11-21
WO2012072804A1 (en) 2012-06-07
HK1190490A1 (zh) 2014-11-21
RU2013130233A (ru) 2015-01-10
EP2647222B1 (en) 2014-10-29
WO2012072798A1 (en) 2012-06-07
CA2819394C (en) 2016-07-05
CN103460285A (zh) 2013-12-18
AU2011334857B2 (en) 2015-08-13
US20130268280A1 (en) 2013-10-10
US9396731B2 (en) 2016-07-19
TWI530201B (zh) 2016-04-11
CN103583054B (zh) 2016-08-10
TW201234873A (en) 2012-08-16
RU2570359C2 (ru) 2015-12-10
CA2819502A1 (en) 2012-06-07
KR101442446B1 (ko) 2014-09-22
ES2525839T3 (es) 2014-12-30
JP2014501945A (ja) 2014-01-23
MX2013006150A (es) 2014-03-12
TWI489450B (zh) 2015-06-21
BR112013013681A2 (pt) 2017-09-26
RU2013130226A (ru) 2015-01-10
AU2011334851A1 (en) 2013-06-27
BR112013013681B1 (pt) 2020-12-29
AR084160A1 (es) 2013-04-24
PL2647222T3 (pl) 2015-04-30
US10109282B2 (en) 2018-10-23

Similar Documents

Publication Publication Date Title
CN103583054B (zh) 用于产生音频输出信号的装置和方法
KR101591220B1 (ko) 공간적 전력 밀도에 기초하여 마이크 위치 결정을 위한 장치 및 방법
KR101510576B1 (ko) 방향 정보를 도출하는 장치 및 방법과 컴퓨터 프로그램 제품

Legal Events

Date Code Title Description
C06 Publication
PB01 Publication
SE01 Entry into force of request for substantive examination
SE01 Entry into force of request for substantive examination
ASS Succession or assignment of patent right

Free format text: FORMER OWNER: UNIVERSITY OF ERLANGEN-FRIEDRICH-ALEXANDER

Effective date: 20140416

C41 Transfer of patent application or patent right or utility model
TA01 Transfer of patent application right

Effective date of registration: 20140416

Address after: Munich, Germany

Applicant after: Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V.

Address before: Munich, Germany

Applicant before: Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V.

Applicant before: Friedrich-Alexander-Universitat Erlangen-Nurnberg

CB02 Change of applicant information

Address after: Munich, Germany

Applicant after: Fraunhofer Application and Research Promotion Association

Address before: Munich, Germany

Applicant before: Fraunhofer-Gesellschaft Zur Foerderung Der Angewandten Forschung E.V.

COR Change of bibliographic data
C14 Grant of patent or utility model
GR01 Patent grant