CN1831554A - 声音信号处理设备和声音信号处理方法 - Google Patents
声音信号处理设备和声音信号处理方法 Download PDFInfo
- Publication number
- CN1831554A CN1831554A CNA2006100594908A CN200610059490A CN1831554A CN 1831554 A CN1831554 A CN 1831554A CN A2006100594908 A CNA2006100594908 A CN A2006100594908A CN 200610059490 A CN200610059490 A CN 200610059490A CN 1831554 A CN1831554 A CN 1831554A
- Authority
- CN
- China
- Prior art keywords
- sound source
- sound
- frequency
- straight line
- ballot
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
- 230000005236 sound signal Effects 0.000 title claims abstract description 32
- 238000012545 processing Methods 0.000 title claims description 47
- 238000003672 processing method Methods 0.000 title claims description 4
- 239000000203 mixture Substances 0.000 claims description 50
- 230000009021 linear effect Effects 0.000 claims description 37
- 230000014509 gene expression Effects 0.000 claims description 29
- 238000001514 detection method Methods 0.000 claims description 25
- 230000003044 adaptive effect Effects 0.000 claims description 15
- 230000009466 transformation Effects 0.000 claims description 15
- 239000000284 extract Substances 0.000 claims description 10
- 238000000354 decomposition reaction Methods 0.000 claims description 7
- 230000015572 biosynthetic process Effects 0.000 claims description 6
- 230000001932 seasonal effect Effects 0.000 claims description 3
- 238000000605 extraction Methods 0.000 claims description 2
- 238000000034 method Methods 0.000 abstract description 101
- 230000008569 process Effects 0.000 abstract description 19
- 230000002123 temporal effect Effects 0.000 abstract 1
- 230000006870 function Effects 0.000 description 17
- 238000007792 addition Methods 0.000 description 12
- 238000010586 diagram Methods 0.000 description 9
- 238000006243 chemical reaction Methods 0.000 description 8
- 238000000926 separation method Methods 0.000 description 7
- 239000000523 sample Substances 0.000 description 4
- 230000008859 change Effects 0.000 description 3
- 238000012937 correction Methods 0.000 description 3
- 239000004744 fabric Substances 0.000 description 3
- 230000008676 import Effects 0.000 description 3
- 239000004615 ingredient Substances 0.000 description 3
- 230000004807 localization Effects 0.000 description 3
- 238000005259 measurement Methods 0.000 description 3
- 238000012986 modification Methods 0.000 description 3
- 230000004048 modification Effects 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 241001269238 Data Species 0.000 description 2
- 244000287680 Garcinia dulcis Species 0.000 description 2
- 238000004891 communication Methods 0.000 description 2
- 230000007423 decrease Effects 0.000 description 2
- 238000013461 design Methods 0.000 description 2
- 230000000694 effects Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011160 research Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000001228 spectrum Methods 0.000 description 2
- NCGICGYLBXGBGN-UHFFFAOYSA-N 3-morpholin-4-yl-1-oxa-3-azonia-2-azanidacyclopent-3-en-5-imine;hydrochloride Chemical compound Cl.[N-]1OC(=N)C=[N+]1N1CCOCC1 NCGICGYLBXGBGN-UHFFFAOYSA-N 0.000 description 1
- 238000004458 analytical method Methods 0.000 description 1
- 238000003491 array Methods 0.000 description 1
- 238000013473 artificial intelligence Methods 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 230000003750 conditioning effect Effects 0.000 description 1
- 230000008094 contradictory effect Effects 0.000 description 1
- 230000003247 decreasing effect Effects 0.000 description 1
- 230000002950 deficient Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000012407 engineering method Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010354 integration Effects 0.000 description 1
- 238000011835 investigation Methods 0.000 description 1
- 230000007246 mechanism Effects 0.000 description 1
- 238000002156 mixing Methods 0.000 description 1
- 230000001915 proofreading effect Effects 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 238000012797 qualification Methods 0.000 description 1
- 238000012552 review Methods 0.000 description 1
- 238000005070 sampling Methods 0.000 description 1
- 238000012163 sequencing technique Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 230000001360 synchronised effect Effects 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04R—LOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
- H04R3/00—Circuits for transducers, loudspeakers or microphones
- H04R3/005—Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0272—Voice signal separating
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L21/00—Speech or voice signal processing techniques to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
- G10L21/02—Speech enhancement, e.g. noise reduction or echo cancellation
- G10L21/0208—Noise filtering
- G10L21/0216—Noise filtering characterised by the method used for estimating noise
- G10L2021/02161—Number of inputs available containing the signal or the noise to be suppressed
- G10L2021/02165—Two microphones, one receiving mainly the noise signal and the other one mainly the speech signal
Landscapes
- Engineering & Computer Science (AREA)
- Signal Processing (AREA)
- Acoustics & Sound (AREA)
- Physics & Mathematics (AREA)
- Health & Medical Sciences (AREA)
- Quality & Reliability (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Otolaryngology (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Stereophonic System (AREA)
Abstract
频率分解器分析从麦克风输入到声音信号输入单元的两个振幅数据,且二维数据形成单元对每一频率获得这两个振幅数据之间的相位差。对每一频率的这个相位差给定二维坐标值以形成二维数据。图形探测器分析在X-Y平面上所产生的二维数据以探测图形。声源信息发生器处理所探测到的图形的信息以产生声源信息,所述声源信息包含作为声音信号的发生源的声源的数量、每一声源的空间存在范围、由每一声源产生的声音的时间存在期间、每一源声的成分、每一声源的分离声音和每一源声的符号内容。
Description
技术领域
本发明涉及声音信号处理,且特别地,涉及对例如在介质中传播的声波的发射源数量、每一个发射源的方向以及来自每一发射源的声波的频率成分的估测。
背景技术
近些年来,在机器人听觉研究的领域中,提出一种在噪音环境下估测多个目标声源的数量和方向(声源定位)并且分离和提取每一源声(声源分离)的方法。
例如,Futoshi Asano在“Separating Sounds(声音分离)”(Mesurement and Control,Vol.43,No.4,pp.325-330,April 2004)中描述了一种方法,该方法在具有背景噪音的环境下通过M个麦克风来测量N个声源、从利用FFT(快速傅立叶变换)处理每一麦克风的输出而获得的数据中产生空间相关矩阵、将矩阵分解成本征值以获得大的主本征值(main eigenvalue)、并将声源的数量N估测为主本征值的数量。该方法利用了以下特性,即,具有方向性的信号诸如源声(source sound)映射到主本征值,而没有方向性的背景噪音映射到所有本征值。相应于主本征值的本征向量为由来自声源的信号展布(spread)的信号部分空间(partial space)的基向量,而相应于剩余本征值的本征向量为由背景噪音信号展布的噪音部分空间的基向量。可以通过利用噪音部分空间的基向量实施多信号分类(MUSIC)方法来搜索每一个声源的位置向量。可以通过给定了在通过搜索获得的方向上的方向性的光束成形器提取来自发现的声源的声音。然而,如果声源的数量N与麦克风的数量M相同,则不能限定噪音部分空间。同样,如果声源的数量N超过M,则会存在不可探测的声源。因此,能够估测的声源数量小于麦克风的数量M。该方法不特别地对声源施加任何大的限制,且还在数学上很完美。然而,为了处理大数量的声源,需要比声源多的麦克风。
同样,Kazuhiro Nakadai等在“Real-time Active Person Trackingby Hierarchical Integration of Audiovisual Information”(ArtificialIntelligence Society AI Challenge Research Meeting,SIG-Challenge-0113-5,pp.35-42,June 2001)描述了一种利用一个麦克风来执行声源定位和声源分离的方法。该方法以一种谐波结构(由基频和其谐波组成的频率结构)为基础,该谐波结构对于通过管子(发音物)发出的诸如人声的声音是特有的。在该方法中,从对麦克风拾取的声音信号进行傅立叶变换获得的数据中探测具有不同基频的谐波结构。所探测的谐波结构的数量被用作说话者的数量,以通过利用其IPD(耳间相位差)和IID(耳间声强差)来准确地估测每一谐波结构的方向。如此,通过其谐波结构来估测每一源声。通过从傅立叶变换数据中探测多个谐波结构,该方法可以处理多于麦克风的声源。然而,声源的数量和方向的估测与源声的估测以谐波结构为基础,因此可处理的声源仅限于具有谐波结构的声源,诸如人声。即,该方法不能处理各种声音。
如上所述,存在矛盾(自相矛盾)的问题:(1)如果声源不受限制,则声源的数量不能大于麦克风的数量;和(2)如果声源的数量大于麦克风的数量,则这些声源仅限于,例如,谐波结构。即,还没有设计出能够处理比麦克风多的声源而不限制这些声源的方法。
发明内容
考虑到上述情形,做出了本发明,且其目的是提供用于声源定位和声源分离的声音信号处理设备和声音信号处理方法,该设备和方法可以减少对声源的限制且可以处理多于麦克风的声源。
根据本发明一个方案的声音信号处理设备包括:声音信号输入器件,构造成用于输入在不少于两个空间上不同的点处拾取的多个声音信号;频率分解器,构造成将多个声音信号中的每一个分解以获得多个表示每一频率的相位值的频率分解数据组;相位差计算器,构造成对于多个频率分解数据组中的一对不同频率分解数据组来计算每一频率的相位差值;二维数据形成器件,构造成对于每一对,产生表示具有在二维坐标系上的坐标值的点的二维数据,在该二维坐标系中,频率的函数作为第一轴,而通过相位差计算器所计算的相位差值的函数为第二轴;图形探测器,构造成从二维数据中探测表现出来自相同声源的频率与相位差之间的比例关系的图形;声源信息产生器件,构造成根据该图形来产生声源信息,该声源信息含有以下内容的至少一种,与声音信号的发生源相应的声源数量、每一声源的空间存在范围、由每一声源产生的声音的时间存在期间、由每一声源产生的声音的分量构成、对于每一声源分离出的分离声音,和由每一声源产生的声音的符号内容,该符号内容与彼此相互区别的声源相关;以及输出器件,构造成输出声源信息。
附图简述
图1是根据本发明实施例的声音信号处理设备的功能框图;
图2A和2B是示出在声音信号中所观察到的声源方向和到时差的示图;
图3是示出帧与帧移动量之间的关系的示图;
图4A至4C是示出FFT顺序和FFT数据的示图;
图5是示出二维数据形成单元和图形探测器的内部设置的功能框图;
图6是示出相位差计算的顺序的示图;
图7是示出坐标值计算的顺序的示图;
图8A和8B是示出对于相同时间间隔的频率与相位之间的比例关系和对于相同时间差的相位差与频率之间的比例关系的示图;
图9是用于解释相位差的循环(circularity)的示图;
图10A和10B是当存在多个声源时频率与相位差的示图;
图11是用于解释线性霍夫变换的图;
图12是用于解释通过霍夫变换由点探测直线的示图;
图13是示出要被投票(voted)的平均功率的函数(方程式)的示图;
图14是示出从实际声音中产生的频率成分、相位差绘图和霍夫投票结果的示图;
图15是示出从实际霍夫投票结果中获得的峰值位置和直线的示图;
图16是示出θ与Δρ之间的关系的示图;
图17是示出当两个人同时发声时由实际声音产生的频率成分、相位差图和霍夫投票结果的示图;
图18是示出仅利用θ轴上投票执行的峰值位置检索结果的示图;
图19是示出通过在由Δρ分离的几个部分中将票数相加来执行的峰值位置检索结果的示图;
图20是示出声源信息发生器的内部设置的功能框图;
图21A至21D是用于解释方向估测的示图;
图22是示出θ与ΔT之间的关系的示图;
图23A至23C是用于解释在存在多个声源时的声源成分估测(间隔阂值方法)的示图;
图24是用于解释最近邻法的示图;
图25是示出用于计算系数α的方程式的实例和其图表的示图;
图26是用于解释φ在时间轴上的踪迹的示图;
图27是示出由声音信号处理设备执行的处理流程的流程图;
图28A和28B是示出可以被表述的频率与时间差之间的关系的示图;
图29是在产生冗余点时的时间差图;
图30是根据包括N个麦克风的变型例的声音信号处理设备的功能框图;
图31是根据一个实施例的功能框图,该实施例使用通用计算机来执行根据本发明的声音信号处理功能;和
图32是示出一种记录介质的实施例的示图,该记录介质记录用于执行根据本发明的声音信号处理功能的程序。
发明详述
下面将参考附图来详述根据本发明的声音信号处理设备的实施例。
图1是根据本发明实施例的声音信号处理设备的功能框图。该声音信号处理设备包括:麦克风1a、麦克风1b、声音信号输入单元2、频率分解器3、二维数据形成单元4、图形探测器5、声源信息发生器6、输出单元7和用户界面单元8。
[根据每一频率成分的相位差的声源估测的基本原理]
麦克风1a和1b为在诸如空气的介质中间隔预定距离的两个麦克风。麦克风1a和1b为用于将在两个不同点处的介质振动(声波)转换成电信号(声音信号)的装置。麦克风1a和1b在一起被提及时被称为麦克风对。
声音信号输入单元2是这样一种装置,用于以预定的取样周期Fr周期性地对由麦克风1a和1b获得的两个声音信号进行A/D转换,来以时间顺序的方式产生这两个声音信号的数字振幅数据。
假设一个声源位于远远大于麦克风的间距的距离处,如图2A所示,由声源100产生并到达麦克风对的声波的波前(wave front)101基本上为平面。当利用麦克风1a和1b在两个不同的点处观察到该平面波时,根据声源100相对于连接麦克风1a和1b的线段102(下文称之为基线)的方向R,可能观察到在由麦克风对所转换的声音信号之间的预定到达时间差ΔT。值得注意的是,当声源足够远时,如果声源100存在于与基线102垂直的平面上时,到时差ΔT为0,且将该方向定义为麦克风对的正面方向(front direction)。
参考文件1“Kaoru Suzuki et al.,“Realization of“It Comes WhenIt’s Called”Function of Home Robot by Audio-Visual Interlocking”,The 4th Automatic Measurement Control Society System IntegrationDepartment Lecture Meeting(SI2003)Papers,2F4-5,2003”描述了一种方法,该方法通过利用图形校对(pattem collation)来探测一个振幅数据的哪一部分与另一振幅数据的哪一部分相似,来推导出两个声音信号(图2B中的103和104)之间的到时差ΔT。仅当存在一个强的声源时该方法有效。然而,如果存在强的背景噪音或存在多个声源,则在其中多个方向上的强声音混合的波形上不出现明显相似的部分,并且图形校对有时会失败。
因此,在根据本发明的这个实施例中,当将输入振幅数据分解成每一频率成分的相位差时,分析该输入振幅数据。当存在多个声源时,对于这些声源的每一频率成分可以观察到两个数据之间与声源方向相应的相位差。如果不对声源做强制限制而可以将单个频率成分的各个相位差划分成各单个方向的组,则能够估测声源的数量、这些声源的方向以及主要由每一声源产生的声波的频率成分的特性。虽然该理论本身非常简单,但是当实际分析数据时,存在一些待解决的问题。下面将解释这些问题和用于执行该分组的功能块(频率分解器3、二维数据形成单元4和图形探测器5)。
[频率分解器3]
FFT(快速傅立叶变换)为一种将振幅数据分解成频率成分的常见方法。一个公知的典型算法为例如Cooley-Turkey DFT算法。
如图3中所示,频率分解器3从由声音信号输入单元2输入的振幅数据110中提取N个连续振幅数据作为一帧(第T个帧111),对所提取的帧执行FFT,并通过将提取位置移动帧移动量113来重复该处理(提取第(T+1)个帧112)。
如图4A中所示,组成帧的振幅数据被加窗(windowing)120,且然后进行FFT 121。结果,在实部缓冲器R[N]和虚部缓冲器I[N](122)中产生输入帧的FFT数据。图4B示出窗函数(加汉明(Hamming)窗或加汉宁(Hanning)窗)124的实例。
通过将这一帧的振幅数据分解成N/2个频率成分来获得如此产生的FFT数据。如图4C中所示,对于第k个频率成分fk,在缓冲器122中的实部R[k]和虚部I[k]的数字值表示在复坐标系123中的点Pk。Pk离原点O的距离的平方为该频率成分的功率Po(fk)。Pk离实轴的带正负号的旋转角θ(θ:-π>θ≥π(弧度))为该频率成分的相位Ph(fk)。
当取样频率为Fr[Hz]且帧的长度为N[采样点]时,k取从0到(N/2)-1的整数值。在这种情况下,k=0表示0[Hz](直流电),k=(N/2)-1表示Fr/2[Hz](最高频率成分),且通过以频率分辨率Δf=(Fr/2)÷((N/2)-1)[Hz]相等地划分这两个值之间的部分来获得每一个k的频率。这一频率由fk=k·Δf表示。
值得注意的是,如先前所述,频率分解器3以预定间隔(帧移动量Fs)来连续执行这一处理,由此按照时间顺列方式为输入振幅数据的每一频率产生包括功率值和相位值的频率分解数据组。
(二维数据形成单元4&图形探测器5)
如图5中所示,二维数据形成单元4包括相位差计算器301和坐标值测定仪302。图形探测器5包括投票单元303和直线探测器304。
[相位差计算器301]
相位差计算器301为用于比较由频率分解器3在相同定时获得的两个频率分解数据组a和b,并通过对于每一个频率成分计算数据组a和b的相位值之间的差来产生a-b相位差数据的装置。例如,如图6所示,通过计算在麦克风1a处的相位值Ph1(fk)与在麦克风1b处的相位值Ph2(fk)之间的差来获得特定频率成分fk的作为2π余数系统的相位差ΔPh(fk),从而这一差值满足{ΔPh(fk):-π<ΔPh(fk)≤π}。
[坐标值测定仪302]
坐标值测定仪302是这样一种装置,用于根据由相位差计算器301获得的相位差数据,来确定用于处理通过计算每一个频率成分的两个数据组的相位值之间的差而获得的相位差数据的坐标值,作为预定X-Y坐标系上的一个点。由图7中示出的方程式来确定与特定频率成分fk的相位差ΔPh(fk)相应的X坐标值x(fk)和Y坐标值y(fk)。X坐标值为相位差ΔPh(fk),而Y坐标值为频率成分号k。
[相位差对相同时间差的频率比例]
通过如图6中示出的相位差计算器301计算的单个频率成分的相位差被认为表示相同的到时差,如果它们来自相同的声源(相同方向)的话。通过FFT获得的特定频率的相位值和各麦克风之间的相位差为通过将频率的周期设定为2π所计算的值。如果频率加倍,则即使对于相同的时间差,相位差也加倍。图8A和8B示出该比例关系。如图8A中所示,对于相同的时间T,具有频率fk[Hz]的波130包含1/2周期,即,相位间隔为π,而具有加倍频率2fk[Hz]的波131包含一个周期,即,相位间隔为2π。这类似地适用于相位差。即,对于相同的时间差ΔT,相位差与频率成比例地增加。图8B示出相位差与频率之间的这种比例关系。当通过如图7中所示的坐标值计算将从相同的声源产生且具有共同的ΔT的单个频率成分的相位差绘制在二维坐标系上时,表示单个频率成分的这些相位差的坐标点132布置在直线133上。随着ΔT增加,即,随着麦克风至声源的距离间的差增加,该直线的倾斜度增加。
[相位差的循环]
值得注意的是,从作为分析目标的最低频率到最高频率,仅当真实的相位差落入±π范围内时,如图8所示,各麦克风之间的相位差在整个区域中与频率成比例。这一条件是ΔT小于最高频率(采样频率的一半)Fr/2[Hz]的1/2周期的时间,即,小于1/Fr[sec]。如果ΔT为1/Fr或更大,则如下所述,相位差仅可以获得为具有循环性的值。
可以仅在2π的宽度(在这一实施例中,-π与π之间的2π宽度)内获得每一频率成分的相位值作为旋转角θ的值,如图4C中所示。这意味着:即使当各麦克风之间该频率成分中的实际相位差为一个周期或更多时,其不能从作为频率分解结果所获得的相位值中获知。因此,在本实施例中,在-π与π之间获得相位差,如图6中所示。然而,由ΔT产生的真实相位差可以是通过向所获得的相位差值添加2π或从所获得的相位差值中减去2π、或者进一步向所获得的值添加4π或6π或从其中减去4π或6π所计算的值。这在图9中示意性示出。参考图9,当频率fk的相位差ΔPh(fk)为+π时,如实心圆140所示,相邻的较高的频率fk+1的相位差超过+π,如空心圆141所示。然而,通过从原始的相位差中减去2π所获得的计算得到的相位差ΔPh(fk+1)稍微大于-π,如实心圆142所示。虽然未示出,即使三重频率(three-fold frequency)也显示出通过从实际相位差中减去4π所获得的相似值。因此,随着频率上升,相位差作为2π余数系统在-π与π之间循环。如果ΔT像在这一实例中那样增加,当频率为特定频率fk+1或更高时,则由空心圆表示的真实相位差循环到由实心圆表示的相反一侧。
[当存在多个声源时的相位差]
另一方面,当从多个声源产生声波时,频率与相位差的绘图如图10A和10B中示意性示出的那样。图10A和10B示出其中两个声源存在于相对于麦克风对的不同方向上的情况。图10A示出其中两个源声不包含相同频率成分的情况。图10B示出一些相同的频率成分均包含在两个源声中的情况。参考图10A,每一个频率成分的相位差呈现于多条共同具有ΔT的直线中的一条上。即,五个点布置在具有小倾角的直线150上,而六个点布置在具有大倾角的直线151(包括循环直线152)上。参考图10B,在包含于两个源声的两个频率成分153和154中,由于波的混合,不能正确地获得相位差,所以相位差不在任何直线上。特别地,仅三个点布置在具有小倾角的直线155上。
估测声源数量和方向的问题将其自身转变为在如图10A和10B中所示的绘图中寻找直线。同样,估测每一个声源的频率成分的问题将其自身转变为选择布置在所探测的直线附近的频率成分。在该实施例中,从二维数据形成单元4中输出的二维数据为通过利用由频率分解器3获得的两个频率分解数据组来被确定为频率和相位差的函数的点群(dot group),或者是通过将该点群中的点布置(绘制)在二维坐标系上所获得的图像。值得注意的是,这个二维数据由不包括时间轴的两个轴来定义,因此可以定义作为二维数据的时间序列的三维数据。作为图形,图形探测器5从给定为该二维数据(或作为二维数据的时间序列的三维数据)的点的布置中探测直线的布置。
[投票单元303]
投票单元303是这样一种装置,用于如稍后介绍的对由坐标值确定器302给定(x,y)坐标的每一频率成分实施线性霍夫变换,并通过预定方法在霍夫投票空间中对所获得的轨迹投票。虽然霍夫变换在参考文件2000年10月20日出版的“Akio Okazaki,“First Step in ImageProcessing”,Industrial Investigation Society,pp.100-102”中描述过,但下面将再次对其进行解释。
[线性霍夫变换]
如图11中示意性示出,诸如直线160、161和162的无数直线可以穿过二维坐标系中的点P(x,y)。然而,当从原点O引出到每一直线的垂线163的倾角为θ,而垂线163的长度为ρ时,对于一条直线而言,θ和ρ是唯一确定的。穿过某个点(x,y)的直线的多对θ和ρ可以在θ-ρ坐标系中绘制相对于(x,y)的值唯一的轨迹164(ρ=xcosθ+ysinθ)。这种从(x,y)坐标值到穿过(x,y)的直线的(θ,ρ)的轨迹的变换被称之为线性霍夫变换。值得注意的是,当直线向左倾斜,θ为正值,当直线竖直时,θ为0,而当直线向右倾斜,θ为负值。还值得注意的是,θ的值域不超出{θ:-π<θ≤π}。
对于X-Y坐标系上的每一个点,可以独立地获得霍夫曲线。然而,如图12中所示,例如,可以获得穿过三个点p1、p2和p3的直线170作为由点174的坐标(θ0,ρ0)限定的直线,在点174处,分别相应于点p1、p2和p3的轨迹171、172和173彼此相交。随着直线穿过的点的数量增加,穿过表示该直线的位置θ和ρ的轨迹数量增加。如上所述,霍夫变换适合于从点中探测直线。
[霍夫投票]
被称为霍夫投票的工程方法用于从点中探测直线。在该方法中,在以θ和ρ作为其坐标轴的二维霍夫投票空间中,每一轨迹穿过的θ和ρ对被投票,由此明示出有大量轨迹穿过的θ和ρ对,即,在霍夫投票空间中具有许多得票的位置上存在直线。通常,首先准备具有用于θ和ρ的必要检索范围的尺寸的二维阵列(霍夫投票空间),并用0将其初始化。然后,通过霍夫变换来获得每个点的轨迹,对该轨迹通过的阵列上的值加1。这被称为霍夫投票。当完成对所有点的轨迹的投票时,在没有得票的位置(没有轨迹通过它)不存在穿过一个点的直线,在具有一票的位置(一个轨迹通过它)存在通过一个点的直线,在具有两票的位置(两个轨迹通过它)存在通过两个点的直线,而在具有n票的位置(n个轨迹通过它)存在通过n个点的直线。如果霍夫投票空间的分辨率可以是无限的,则由多个轨迹穿过的点仅获得相应于穿过该点的轨迹数量的投票。然而,由于实际霍夫投票空间以θ和ρ的适当分辨率被量化,所以在多个轨迹彼此相交的位置周围产生高的投票分布。因此,需要通过从霍夫投票空间的投票分布中搜索具有最大值的位置来精确获得多个轨迹彼此相交的位置。
投票单元303对都满足下述投票条件的频率成分执行霍夫投票。在该条件下,仅对在预定频带中且其功率等于或高于预定阈值的频率成分执行投票。
即,投票条件1为频率落入预定范围(低频界限与高频界限)内。投票条件2为频率成分fk的功率P(fk)等于或高于预定阈值。
投票条件1用于去掉通常携带暗噪音的低频,以及去掉FFT精确度下降的高频。根据操作可以调节低频界限和高频界限的范围。当使用最宽的频带时,优选仅去掉作为低频的DC成分并且仅去掉作为高频的最大值频率。
对于诸如暗噪音的非常弱的频率成分,FFT结果的可靠性可能很低。通过利用功率的阈值处理,投票条件2用于防止该低可靠性频率成分参与投票。假设麦克风1a具有功率值Po1(fk),而麦克风1b具有功率值Po2(fk),则可以使用下述三个条件来确定要被估测的功率P(fk)。值得注意的是,可以根据操作来选择要使用的条件。
(平均值):使用Po1(fk)和Po2(fk)的平均值。该条件需要两个功率都适当地强。
(最小值):使用Po1(fk)和Po2(fk)中较小的一个。该条件要求这两个功率都至少等于阈值。
(最大值):使用Po1(fk)和Po2(fk)中较大的一个。在该条件下,即使当一个小于阈值时,如果另一个足够强则可以执行投票。
同样,投票单元303可以在投票中执行下述两种加法的方法。
即,在加法方法1中,向轨迹穿过的一个位置添加预定的固定值(例如,1)。在加法方法2中,向轨迹穿过的一个位置添加频率成分fk的功率P(fk)的函数值。
加法方法1通常用于霍夫变换直线探测问题。因为与穿过的点的数量成比例地整理投票,所以加法方法1适合于优先探测含有许多频率成分的直线(即,声源)。在该方法中,包含在直线中的频率成分不必具有任何谐波结构(在其中所包含的频率被相等地隔开)。因此,可以探测各种类型的声源以及人的声音。
在加法方法2中,即使当通过的点的数量很小时,如果含有高功率频率成分,则可以获得较高位置中的最大值。加法方法2适合于探测含有小量的频率成分但具有高功率、有影响力的成分的直线(即,声源)。在加法方法2中,功率P(fk)的函数值被作为G(P(fk))计算。图13示出在P(fk)为Po1(fk)和Po2(fk)的平均值时用于计算G(P(fk))的方程式。此外,如同在投票条件2中,P(fk)还可以计算为Po1(fk)和Po2(fk)中的最小值或最大值。即,可以独立于投票条件2而根据操作来设定加法方法2。将中间参数V的值作为通过向P(fk)的对数值log10(P(fk))添加预定偏移量α而获得的值来计算。如果V为正,则将V+1的值用作函数G(P(fk))的值,而如果V为零或更小,则使用1。通过这样至少投票1,也可以将加法方法1的由大多数决定的特性赋予加法方法2,即,不仅含有高功率频率成分的直线(声源)浮置在较高位置,而且含有许多频率成分的直线(声源)浮置在较高位置。投票单元303可以根据设定来执行加法方法1或加法方法2。然而,当采用后一种方法时,还可以同时探测具有少量频率成分的声源。因此,可以探测更多种类型的声源。
[多个FFT结果的共同投票]
此外,虽然无论何时执行FFT,投票单元303就可以投票,但是其通常对m(m≥1)个连续的时间序列FFT结果执行共同投票(collective voting)。声源的频率成分在长时间内发生变化。然而,通过这样执行共同投票,通过利用在频率成分保持稳定的适当短周期期间内的多个时刻从FFT结果中获得的大量数据,可以获得具有较高可靠性的霍夫投票结果。值得注意的是,可以将m设定为根据操作的参数。
[直线探测器304]
直线探测器304是用于通过分析由投票单元303在霍夫投票空间上产生的投票分布来探测高功率直线的装置。值得注意的是,在这一情况下,通过考虑该问题的特有情形,例如参考图9所阐释的相位差的循环,可以以更高的精确度来探测直线。
图14示出当在室内噪音环境下处理由在相对于离麦克风对的前方的左侧大约20°角处的人发出的实际声音时频率成分的功率谱、从五个(m(上述的)=5)连续的FFT结果中获得的每一频率成分的相位差图、以及从相同的五个FFT结果中获得的霍夫投票结果(投票分布)。一直到此的处理是通过从声音信号输入单元2至投票单元303的一系列功能模块执行的。
利用频率分解器3,对于每一个频率成分,将通过麦克风对获得的振幅数据转换为功率值和相位值的数据。参考图14,180和181是这样的示图,在其每一幅中,以横轴为时间,由亮度表示每一频率成分的功率值的对数(指示越暗,值越大)。一个垂直线相应于一个FFT结果,且这些线形成为沿着时间流逝(向右)的曲线图。上部180示出处理来自麦克风1a的信号的结果,而下部181示出处理来自麦克风1b的信号的结果。许多频率成分在上部和下部都被探测到。根据这些频率分解结果,相位差计算器301计算每一频率成分的相位差,而坐标值确定器302计算相位差的(x,y)坐标值。参考图14,182为绘制了通过从特定时刻183的五个连续FFT处理中获得的相位差的示图。在该图中,沿着从原点向左侧倾斜的直线184显示出点分布。然而,该分布没有精确地存在于直线184上,且存在与直线184分离的大量点。投票单元303在霍夫投票空间内对这样分布的点投票以形成投票分布185。值得注意的是,该投票分布185是利用加法方法2产生的。
[限制ρ=0]
当通过声音信号输入单元2对来自麦克风1a和1b的信号进行相互同相的A/D转换时,则要探测的直线总是满足ρ=0,即,总是通过X-Y坐标系的原点。因此,声源估测问题将其自身转化为在霍夫投票空间中从ρ=0的θ轴上的投票分布中检索最大值的问题。图15示出从图14示出的数据中检索θ轴上的最大值的结果。
图15中示出的投票分布190与图14中示出的投票分布185相同。通过提取θ轴191上的投票分布S(θ,0)作为H(θ)来获得条线图192。投票分布H(θ)具有一些峰值部分(突出部分)。只要相同的点其自身在投票分布H(θ)的某个位置的左和右侧连续,直线探测器304(1)就执行检索,并留下一个部分,在该部分中最后仅出现少于其自身的更少量的投票。结果,提取了投票分布H(θ)中的峰值部分。由于该峰值部分包括具有平坦峰值的部分,在象这样的部分中最大值连续。因此,直线探测器304(2)通过线细化处理(line thinning process)仅留下峰值部分的中央位置作为峰值位置193。最后,作为直线,直线探测器304(3)仅探测其中投票数量等于或大于预定阈值的峰值位置。这样,可以精确地发现具有足够投票的直线的θ。在图15中示出的实例中,上述在(2)中探测到的峰值位置194、195和196中,峰值位置194是通过线细化处理从平坦峰值部分中留下的中央位置(如果有偶数个峰值位置连续,则右侧位置优先)。而且,仅峰值位置196为通过获得比阈值大的投票数量探测到的直线。通过由峰值位置196给定的θ和ρ(=0)来定义直线(参考直线)197。值得注意的是,作为线细化处理的运算法则,可以使用在用于解释霍夫变换的参考文件2的第89至92页中描述的“Tamura’s Method”的一维形式。当这样探测一个或多个峰值位置(投票数量等于或大于预定阈值的中央位置)时,直线探测器304按照投票的递减顺序排列这些位置,并输出每一个峰值位置的θ和ρ的值。
[考虑相位差循环的直线组的定义]
图15中示出的直线197穿过由峰值位置196,即(θ0,0)定义的X-Y坐标原点。然而,实际上,由于相位差的循环,直线198也示出与直线197相同的到时差。当图15中示出的直线197平行移动Δρ199并从X轴的相反侧循环时获得直线198。当直线197延伸且从X值区延伸出的部分从相反侧循环出现时所获得的诸如直线198的直线在下文中被称之为“循环延伸线”,且作为参考的直线197在下文中被称为“参考直线”。如果参考直线197进一步倾斜,循环延伸线的数量进一步增加。如果系数a为0或0以上的整数,则具有相同到时差的所有直线形成直线组(θ0,a Δρ),该直线组(θ0,aΔρ)是由(θ0,0)限定的参考直线197一次平行移动Δρ时所获得的。此外,如果通过去掉限制ρ=0将作为起点的ρ推广为ρ=ρ0,则该直线组可以被表述为(θ0,a Δρ+ρ0)。在这种情况下,Δρ为由图16中示出的作为直线的倾角θ的函数Δρ(θ)的方程式限定的带正负号的值。
参考图16,可以由(θ,0)定义参考直线200。由于该参考直线向右倾斜,所以根据该限定,θ具有负值。然而,在图16中,将θ在图16中作为绝对值处理。图16中示出的直线201为参考直线200的循环延伸线,且在点R处与X轴相交。而且,参考直线200与循环延伸线201之间的间隔为由辅助线202表示的Δρ。辅助线202在点O处与参考直线200垂直相交,并且在点U处与循环延伸线201垂直相交。由于该参考直线向右倾斜,所以根据定义,Δρ具有负值。然而,在图16中将Δρ作为绝对值处理。图16中的ΔOQP为其中边OQ的长度为π的直角三角形。与ΔOQP全等的三角形为ΔRTS。因此,边RT的长度也为π,而ΔOUR的斜边OR的长度为2π。由于Δρ为边OU的长度,所以Δρ=2cosθ。通过考虑θ和Δρ的正负号来推导出图16中示出的方程式。
[考虑到相位差循环的峰值位置探测]
如上所述,由于相位差的循环,不应该将表示声源的直线作为一个直线处理,而应该作为包括参考直线和循环延伸线的直线组来处理。当要从投票分布中探测峰值位置时,也必须考虑这个问题。当仅在麦克风对的前方(front)附近中探测声源时,在那里不发生相位差循环,或即使发生相位差循环,其规模也很小,仅通过在ρ=0(或ρ=ρ0)条件下的投票数量(即参考直线的投票数量)来检索峰值位置的上述方法不仅在性能上是令人满意的,而且还具有缩短检索时间和增加检索精确度的效果。然而,当要探测较宽范围内的声源时,需要将在相对于特定θ的几个彼此间隔Δρ的部分中的投票数量加起来来检索峰值位置。下面将解释这种不同。
图17示出当处理室内噪音环境中由离麦克风对的前方向左呈大约20°角和向右呈大约45°角的两个人同时发出的实际声音时所获得的频率成分的功率频谱、从五个(m=5)FFT结果中获得的每一频率成分的相位差图、以及从相同的五个FFT结果中获得的霍夫投票结果(投票分布)。
通过频率分解器3,对于每一频率成分,将由麦克风对获得的振幅数据转换成功率值和相位值的数据。参考图17,210和211是这样的示图,在其中每一幅中,以频率为纵坐标轴而以时间为横坐标轴,每一频率成分的功率值的对数由亮度表示(指示越暗,值越大)。一条垂直线相应于一个FFT结果,且这些线沿着时间流逝(向右)形成一幅图。上部210示出来自麦克风1a的信号的处理结果,而下部211示出来自麦克风1b的信号的处理结果。在上和下部中都探测到许多频率成分。根据这些频率分解结果,相位差计算器301计算每一频率成分的相位差,而坐标值确定器302计算相位差的(x,y)坐标值。在示图212中,绘制通过从特定时刻213的五个连续FFT处理获得的相位差。示图212示出沿着从原点向左侧倾斜的直线214的点分布、以及沿着向右倾斜的参考直线215的点分布。投票单元303在霍夫投票空间内对这样分布的点投票以形成投票分布216。值得注意的是,通过利用加法方法2来产生投票分布216。
图18是示出仅通过θ轴上的投票数量来检索峰值位置的结果的示图。图18中的投票分布220与图17中示出的投票分布216相同。通过提取θ轴221上的投票分布S(θ,0)作为H(θ)来获得条线图222。投票分布H(θ)具有一些峰值部分(突出部分)。通常,θ的绝对值越大,投票数量越小。从投票分布H(θ)中,探测到四个峰值位置224、225、226和227,如峰值位置示图223所示。在这些峰值位置中,仅峰值位置227具有大于阈值的投票数量。以这种方式,探测到一个直线组(参考直线228和循环延伸线229)。通过探测从麦克风对的正面向左呈约20°角的声音来获得该直线组。然而,没有探测从麦克风对的正面向右呈约45°角的声音。随着穿过原点的参考直线的角度增大,该参考直线在超出X值域之前能够穿过的频带数量减小。因此,该参考直线穿过的频带的宽度随着θ而改变(即,存在不公平)。限制ρ=0仅使参考直线的投票数量在该不公平的条件下相互竞争。因此,直线的角度越大,投票竞争的缺陷越大。这就是为什么不能探测向右呈约45°角的声音的原因。
图19示出通过将在几个彼此分离Δρ的部分中的投票数量加起来来检索峰值位置的结果。在图19的240中,在图17所示的投票分布216上,穿过原点的直线一次平行移动Δρ时所得到的ρ的位置由点线242至249示出。θ轴241和点线242至245与θ轴241和点线246至249以Δρ(θ)的自然数倍数相等地间隔开。值得注意的是,对于θ=0的条件,没有点线存在,在该条件下所述直线不超过X值域,而是可靠地延伸至该示图的顶部。
当在θ=θ0的位置垂直观察时,将特定的θ0的投票H(θ0)作为在θ轴241上以及点线242至249上的投票总值来计算,即,H(θ0)=∑{S(θ0,aΔρ(θ0))}。该处理等同于将θ=θ0时的参考直线的投票和其循环延伸线的投票加合起来。图19中的250示出作为条线图的投票分布H(θ)。与图18的222中不同,在这一分布中,即使当θ的绝对值增加,投票的数量也不减少。这是因为:通过在投票计算中加入循环延伸线,可以对所有的θ值使用相同的频带。在投票分布250中,探测到在图19的251中示出的十个峰值位置。在这些峰值位置中,峰值位置252和253各自获得大于阈值的投票数量,并且探测到两个直线组。即,通过探测从麦克风对的前方向左呈约20°角的声音来探测一个直线组(与峰值位置253相应的参考直线254和循环延伸线255),并通过探测从麦克风对的前方向右呈约45°角的声音来探测另一个直线组(与峰值位置252相应的参考直线256和循环延伸线257和258)。通过加合在彼此分开Δρ的部分中的投票来如此检索峰值位置,能够稳定地从具有小角度的直线到具有大角度的直线中探测直线。
[考虑到不同相的峰值位置探测:一般化]
如果没有通过声音信号输入单元2将来自麦克风1a和1b的信号进行相互同相的A/D转换,则要被探测的直线为ρ=0,即,不穿过X-Y坐标原点。在这种情况下,必须通过除去限制ρ=0来检索峰值位置。
当将从其中除去限制ρ=0的参考线一般性地描述为(θ0,ρ0)时,可以将其直线组(参考直线和循环延伸线)描述为(θ0,aΔρ(θ0)+ρ0)。Δρ(θ0)为由θ0确定的循环延伸线的平行移动量。当声源来自特定方向时,对于相应于声源的θ0,仅存在一个最强的直线组。通过使用ρ0的值ρ0max,将该直线组表示为(θ0,aΔρ(θ0)+ρ0max),其中ρ0max表示,当ρ0有各种改变时该直线组的投票∑{S(θ0,aΔρ(θ0)+ρ0)}为最大值。因此,通过利用每一个θ的投票H(θ)作为该θ的最大投票∑{S(θ0,aΔρ(θ0)+ρ0)},能够利用与施加限制ρ=0时所使用的算法相同的峰值位置探测算法来执行直线探测。
值得注意的是,这样探测的直线组的数量为声源的数量。
[声源信息发生器6]
如图20中所示,声源信息发生器6包括方向估测器311、声源成分估测器312、声源再合成器313、时间序列跟踪单元314、持续时间鉴别器315、相位匹配单元316、自适应阵列处理器317和语音识别单元318。
[方向估测器311]
方向估测器311是用于接收通过上述直线探测器304获得的直线探测结果的装置,即,接收每一个直线组的θ值,并计算与每一直线组相应的声源的存在范围。所探测的直线组的数量为声源的数量(所有候选项)。如果离声源的距离远远长于麦克风对的基线,则声源存在范围为与该麦克风对的基线成特定角度的圆锥。下面参考图21将对其进行阐释。
麦克风1a和1b之间的到时差ΔT可以在±ΔTmax的范围内改变。当声音从前方入射,如图21A中所示,则ΔT为0,而该声源距离前方的方位角φ为0°。当声音从右侧呈直角入射时,即,在如图21B中所示的麦克风1b的方向上入射时,ΔT等于+ΔTmax,而当假设从前方顺时针旋转为正方向时,声源的方位角φ为+90°。同样,当声音从左侧呈直角入射时,即,在如图21C中所示的麦克风1a的方向上入射时,ΔT等于-ΔTmax,而方位角φ为-90°。如上所述,如此定义ΔT以便于当声音从右侧入射时其为正,而当声音从左侧入射时其为负。
根据上述定义,下面将描述如图21D中所示的一般情况。假设麦克风1a的位置为A,麦克风1b的位置为B,而声音从线段PA的方向入射,则ΔPAB为直角三角形,其顶点P为直角。在这种情况下,假设麦克风之间的中心为O,线段OC为麦克风对的前方方向,且OC方向的方位角为0°,将逆时针旋转为正的角定义为方位角φ。由于ΔQOB相似于ΔPAB,所以方位角φ的绝对值等于∠OBQ,即,∠ABP,且其符号与ΔT的符号匹配。同样,可以将∠ABP作为PA与AB的比率的sin-1来计算。当线段PA的长度由相应的ΔT来表示时,线段AB的长度等同于ΔTmax。因此,可以通过φ=sin-1(ΔT/ΔTmax)来计算该方位角和其正负号。将声源存在范围估测为圆锥260,该圆锥260以点O作为其顶点,并以基线AB作为其轴,并张开(90-φ)°。声源在圆锥260上的某处。
如图22中所示,通过将麦克风间距离L[m]除以声速Vs[m/sec]来计算ΔTmax。声速Vs可以近似为温度t[℃]的函数。假设通过直线探测器304探测到的直线270具有霍夫倾角θ。由于直线270向右倾斜,所以θ为负值。如果y=k(频率fk),则可以通过k和θ的函数k·tan(-θ)来计算由直线270表示的相位差ΔPh。在这种情况下,ΔT[sec]为通过将频率fk的周期(1/fk)[sec]乘以相位差ΔPh(θ,k)与2π的比率而获得的时间。由于θ为带正负号的量,所以ΔT也为带正负号的量。即,当声音从图21D中的右侧入射时(当相位差ΔPh具有正值时),θ具有负值。同样,当声音从图21D中的左侧入射时(当相位差ΔPh具有负值时),θ具有正值。因此,θ的正负号被颠倒。值得注意的是,实际计算仅需要通过利用k=1(刚刚高于DC成分k=0的频率)来执行。
[声源成分估测器312]
声源成分估测器312是这样一种装置,用于估测由坐标值确定器302给定的每一频率成分的(x,y)坐标值与由直线探测器304所探测的直线之间的距离,由此探测位于直线附近的点(即频率成分)作为该直线(即声源)的频率成分,并根据该探测结果来估测每一声源的频率成分。
[通过距离阈值方法的探测]
图23A至23C示意性示出在存在多个声源时声源成分估测的原理。图23A是与图9相同的频率与相位差的示图,并示出了在相对于麦克风对的不同方向上存在两个声源的情况。在图23A中,参考数字280表示一个直线组;而281和282表示另一直线组。图23A中的实心圆表示单个频率成分的相位差位置。
如图23B中所示,与直线组280相应的声源的频率成分被探测为位于夹在直线284与285之间的区286中的频率成分(实心圆),直线284与285分别从直线280向左和向右偏离水平距离283。当特定频率成分被探测为特定直线的成分时,在下面的说明中将使用这种表达,即,该频率成分归属于(或属于)该直线。
相似地,如图23C中所示,与直线组281相应的声源的频率成分被探测为位于夹在从左和从右面与直线281分离水平距离283的直线之间的区287中的频率成分(实心圆),而与直线组282相应的声源的频率成分被探测为位于夹在从左和从右面与直线282分离水平距离283的直线之间的区288中的频率成分(实心圆)。
值得注意的是,两个点,即频率成分289和原点(DC成分)包含在区286和288中,所以它们被两次探测为这两个声源的成分(多重归属)。下文将该方法称为“距离阈值方法”,即,通过对各频率成分与各直线之间的水平距离执行阈值处理来为每一直线组(声源)选择存在于阈值范围内的频率成分,并直接使用所获得的功率和相位作为该源声的成分。
[通过最近邻法的探测]
图24是示出处理结果的示图,通过该处理,允许图23B中示出的多重归属的频率成分289仅归属到到最近的直线组。当比较频率成分289离直线280和282的水平距离时,发现频率成分289最接近直线282。在这种情况下,频率成分289包含在接近直线282的区288中。因此,如图24B中所示,频率成分289被探测为属于直线组(281和282)的成分。对于每一频率成分选择具有最短水平距离的直线(声源)、且如果该水平距离存在于预定阈值范围内,则直接使用该频率成分的功率和相位作为该源声的成分的这种方法在下文中被称为“最近邻法”。值得注意的是,作为例外,允许DC成分(原点)归属到这两个直线组(声源)。
[通过距离系数方法的探测]
在上述两种方法中,仅选择相对于形成直线组的直线在预定水平距离阈值范围内的频率成分,并且直接将所选择的频率成分的功率和相位用作与该直线组相应的源声的频率成分。另一方面,在下述的“距离系数方法”中,计算随着频率成分与直线之间的水平距离d的增加而单调下降的非负系数α,并将该频率成分的功率乘以该非负系数α。因此,一个成分离一个直线的水平距离越长,该成分贡献于该源声的功率越弱。
在该方法中,不需要利用水平距离执行任何阈值处理。即,获得每一频率成分相对于特定直线组的水平距离d(到直线组中最近直线的水平距离),并将通过将该频率成分的功率乘以根据水平距离d确定的系数α而计算得到的值用作该直线组中的该频率成分的功率。用于计算随着水平距离d增加而单调下降的非负系数α的表达式可以为任意表达式。一个实例为在图25中示出的S形(S形曲线)函数α=exp(-(B·d)C)。如图25中所示,如果B为正值(在图25中为1.5)而C为大于1的值(在图25中为2.0),则当d=0时α=1,而当d→∞时α→0。如果非负系数α中的下降陡峭,即,如果B很大,则可以容易地排除直线组外侧的成分,而这加强了声源方向的方向性。另一方面,如果非负系数α的下降缓和,即如果B小,则方向性降低。
[多个FFT结果的处理]
如上面已经描述过的,投票单元303可以对每一个FFT执行投票,且还可以对m个(m≥1)连续的FFT结果共同投票。因此,在直线探测器304之后的处理霍夫投票结果的那些功能块,在每一个执行一次霍夫变换的周期内运行。如果在m≥2的条件下执行霍夫投票,则将在多个时间点的FFT结果分类为每一源声的成分,所以不同时刻的相同频率成分可能归属到不同的源声。为了防止这一情形,不论m值如何,坐标值确定器302向每一个频率成分(即,图24中示出的实心圆)给定帧起始时间作为获取时间信息,在该帧中获取了该频率成分。这使得能够查阅在哪一时刻的哪一频率成分归属到哪一声源。即,将源声作为其频率成分的时间序列数据来单独提取。
[功率保存选项]
在上述每一种方法中,对于属于多个(N)直线组(声源)的频率成分(在最近邻法中只有DC成分,而在距离系数方法中的所有频率成分),还可以将在相同时刻下被分布到单独声源的这些频率成分的功率归一化并将其划分成N个部分,以便于这些功率的总和等于在该分布之前的相同时刻下的功率值Po(fk)。以这种方式,可以将整个声源的总功率保持为与在相同时刻下的单独频率成分的输入相同。这被称为“功率保存选项”。该分布方法具有下述两种方式:
(1)分割成N等分(可适用于距离阈值方法和最近邻法),和(2)相应于到每一直线组的距离的分布(可适用于距离阈值方法和距离系数方法)。
(1)是通过分割成N等分来自动达到归一化的分布方法。方法(1)可适用于距离阈值方法和最近邻法,这两种方法中的每一种不考虑距离而确定分布。
(2)是这样一种分布方法,其通过与距离系数方法中相同的方式确定系数,然后将这些系数归一化以使系数的总和等于1,从而保存总功率。方法(2)可适用于距离阈值方法和距离系数方法,在这两种方法中的每一种中,除原点之外发生多重归属。
值得注意的是,声源成分估测器312可以根据设置来执行距离阈值方法、最近邻法和距离系数方法中的任何一种。还能够在距离阈值方法和最近邻法中选择上述功率保存选项。
[声源再合成器313]
声源再合成器313在相同的获取时间对形成每一源声的频率成分执行反FFT,由此在帧的间隔中再合成源声(振幅数据),其起始时间为所述获取时间。如图3所示,一个帧与下一帧重叠,其时间差与它们之间的帧移动量相对应。在其中多个帧这样彼此重叠的间隔内,可以将所有重叠帧的振幅数据平均为最终的振幅数据。通过该处理,可以分离地提取源声作为其振幅数据。
[时间序列跟踪单元314]
如上所述,每当投票单元303执行霍夫投票,直线探测器304都获得直线组。对m(m≥1)个连续FFT结果执行一次霍夫投票。结果,在m个帧的时间的周期内(下文称之为“图形探测周期”)按照时间序列方式获得直线组。同样,与通过方向估测器305计算的声源方向φ一一对应地获得直线组的θ。因此,无论声源静止或移动,与稳定声源相应的θ(或φ)的时间轴上的轨迹可推定为是连续的。另一方面,取决于阈值的设定,由直线探测器304探测的直线组有时包括与背景噪音相应的直线组(下文中被称之为“噪音直线组”)。然而,该噪音直线组的θ(或φ)的时间轴上的轨迹被认为是不连续的,或者即使连续也很短。
时间序列跟踪单元314是用于将在每一个图形探测周期中这样获得的φ分割成在时间轴上连续的多个组,由此获得φ在时间轴上的轨迹。下面参考图26将阐述分割成多个组的该方法。
(1)准备轨迹数据缓冲器。该轨迹数据缓冲器为一个轨迹数据阵列。一个轨迹数据Kd可以保存起始时间Ts、结束时间Te、形成该轨迹的直线组数据Ld的阵列(直线组列表)和标签号Ln。一个直线组数据Ld为包含形成该轨迹的一个直线组的θ值和ρ值(由直线探测器304获得)、表示相应于该直线组的声源方向的φ值(由方向估测器311获得)、相应于该直线组的频率成分(通过声源成分估测器312获得)、以及这些频率成分的获取时间的数据组。值得注意的是,轨迹数据缓冲器初始为空。还值得注意的是,准备新的标签号作为用于发行标签号的参数,且将该新的标签号的初始值设定为0。
(2)在特定时刻T,对于每一个新获得的φ(下文中称之为φn;在图26中,获得由实心圆303和304表示的两个φn),参考保持在轨迹数据缓冲器中的轨迹数据Kd(图26中的矩形301或302)的直线组数据Ld(图26中的每一矩形中布置的实心圆),由此探测具有Ld的轨迹数据,其中φ值与φn之间的差(图26中的305或306)等于或小于预定的角阈值Δφ,而获取时间之间的差(图26中的307或308)等于或小于预定的时间阈值Δt。结果,对于实心圆303探测到轨迹数据301。然而,对于实心圆304,即使最接近的轨迹数据302也不满足上述条件。
(3)如果像实心圆303的情况那样发现满足条件(2)的轨迹数据,则确定φn形成与该轨迹相同的轨迹,所以将该φn和相应于φn的θ值、ρ值、频率成分以及当前时间(present time)T作为轨迹Kd的新直线组数据添加到直线组列表,并将当前时间T设置为该轨迹的新的结束时间Te。如果发现多个轨迹,则确定所有这些轨迹形成相同轨迹,所以这些轨迹集成为具有最小标签号的轨迹数据,并从轨迹数据缓冲器中删去剩余的轨迹。该集成轨迹数据的起始时间Ts为在集成之前的单个轨迹数据的最早起始时间,该集成轨迹数据的结束时间Te为在集成之前的单个轨迹数据的最后结束时间,而该直线组列表为在集成之前的单个轨迹数据的直线组列表的并集。结果,将实心圆303添加到轨迹数据301中。
(4)如果像实心圆304的情况那样没有发现满足条件(2)的轨迹数据,则确定新轨迹开始,所以在轨迹数据缓冲器的空区域中形成新的轨迹数据。另外,将起始时间Ts和结束时间Te设定在当前时间T,将φn和相应于φn的θ值、φ值、频率成分以及当前时间T设置为直线组列表中的第一直线组数据,将新标签号的值定为这一轨迹的标签号Ln,且将该新标签号增加1。值得注意的是,如果新标签号达到预定最大值,则其返回到0。结果,将实心圆304作为新的轨迹数据寄存在轨迹数据缓冲器中。
(5)如果对于保持在轨迹数据缓冲器中的轨迹数据,在最新更新轨迹数据之后(即,在轨迹数据的结束时间Te之后)和在当前时间T之前已经流逝上述预定时间Δt,则确定该轨迹数据为没有发现对其要添加的新φn的轨迹,即,该轨迹数据为被完全跟踪的轨迹。因此,在下一个阶段被输出到持续时间评估器315之后,从轨迹数据缓冲器中删除该轨迹数据。参考图26,轨迹数据302就是这样一个轨迹数据。
[持续时间评估器315]
根据轨迹数据的起始时间和结束时间,持续时间评估器315计算由从时间序列跟踪单元314中输出的被完全跟踪的轨迹数据表示的轨迹的持续时间。如果该持续时间超过预定阈值,则持续时间评估器315确定该轨迹数据是基于源声;否则,持续时间评估器315确定该轨迹数据是基于噪音的。基于源声的轨迹数据在下文中被称为声源流信息。该声源流信息包含源声的起始时间Ts和结束时间Te,以及θ、ρ和表示声源方向的φ的时间序列轨迹数据。值得注意的是,通过图形探测器5获得的直线组的数量给出了声源的数量,但是该数量包括噪音源。通过持续时间评估器315获得的多条声源流信息的数量给出了除基于噪音的那些声源之外的可靠声源的数量。
[相位匹配单元316]
相位匹配单元316参照通过时间序列跟踪单元314获得的声源流信息,并获得在声源方向φ上的该流的时间转换。根据φ的最大值φmax和最小值φmin,相位匹配单元316计算中间值φmid=(φmax+φmin)/2以获得宽度φw=φmax-φmid。然后,相位匹配单元316从比该流的起始时间Ts早预定时间的时间到比结束时间Te晚预定时间的时间中提取两个频率分解数据组a和b的时间序列数据,作为该声源流信息的基础。相位匹配单元316通过校正这些时间序列数据的相位来将它们匹配,以便于消除通过利用中间值φmid的反操作所计算的到时差。
通过利用由方向估测器311获得的在每一时刻下的声源方向φ作为φmid,还能够总是将两个频率分解数据的时间序列数据的相位匹配。通过操作模式来确定是参照声源流信息还是参照每一时刻的φ,并且该操作模式可以作为参数被设置和改变。
[自适应阵列处理器317]
自适应阵列处理将其中心方向性指向前方0°,且具有通过向±φw添加预定余量而获得的值以作为跟踪范围。自适应阵列处理器317对那些被提取的并且相互同相位的两个频率分解数据组a和b的时间序列数据执行这一自适应阵列处理,由此精确地分离和提取这一流的源声的频率成分的时间序列数据。虽然所述各方法是不同的,但是该处理以与声源成分估测器312相同的方式运行,即,其中频率成分的时间序列数据被分离地提取。因此,源声再合成器313也可以从通过自适应阵列处理器317获得的源声的频率成分的时间序列数据中再合成源声的振幅数据。
值得注意的是,作为自适应阵列处理,通过使用被称为成束器(beam former)形成方法的“Griffith-Jim type generalized side lobcanceller”作为两个消除器(主和次消除器)中的每一个,可以采用在设定的方向性范围内清晰地分离和提取声音的方法,如参考文件3“2004年的Toshiba Review 2004,Vol.59,No.9中的Tadashi Amada等人的“Microphone Array Technique for Voice Recognition””中所述。
自适应阵列处理通常用于接收仅在预设跟踪范围的方向上的声音。因此,需要准备大量的具有不同跟踪范围的自适应阵列,以便于接收所有方向上的声音。然而,在该实施例中,在实际获得声源的数量和方向后,仅可以操作数量与声源相同的自适应阵列。因为还可以将跟踪范围设置在与声源方向相应的预定狭窄范围内,所以可以高质量地有效地分离和提取数据。
同样,由于两个频率分解数据组a和b的时间序列数据的相位预先被匹配,所以可以仅通过将自适应阵列的跟踪范围设置在前方附近来处理所有方向上的声音。
[语音识别单元318]
语音识别单元318分析并校对由声源成分估测器312或自适应阵列处理器317所提取的源声的频率成分的时间序列数据,由此提取该流的符号内容,即提取表示语言含义、声源类型或讲话者身份的符号(序列)。
值得注意的是,如果需要,从方向估测器311到语音识别单元318的功能块可以通过图20中未示出的连接来交换信息。
[输出单元7]
输出单元7是用于输出作为通过声源信息发生器6获得的声源信息的信息的装置,该输出的信息包含以下内容中的至少一种,所述内容包括通过图形探测器5获得的作为直线组数量的声源数量、由方向估测器311估测的作为声音信号产生源的每一个声源的空间存在范围(确定圆锥的角φ)、由声源成分估测器312估测的由每一声源产生的声音的成分(每一频率成分的功率和相位的时间序列数据)、由源声再合成器313合成的对于每一声源分离的分离声音(振幅值的时间序列数据)、根据时间序列跟踪单元314和持续时间评估器315来确定的除噪音源之外的声源数量、通过时间序列跟踪单元314和持续时间评估器315确定的由每一声源产生的声音的时间存在期间、通过相位匹配单元316和自适应阵列处理器317获得的每一声源的分离声音(振幅值的时间序列数据)、以及通过语音识别单元318获得的每一源声的那些符号内容。
[用户界面单元8]
用户界面单元8是用于向用户呈现上述声音信号处理所需要的各种设置内容、接受由用户输入的设置、将设置内容保存在外部存储器件中、从该外部存储器件中读出设置内容、以及通过使它们可视化来向用户呈现各种处理结果和中间结果的装置。例如,用户界面单元8(1)显示每一麦克风的频率成分,(2)显示相位差(或者时间差)示图(即,显示二维数据),(3)显示各种投票分布,(4)显示峰值位置,和(5)在如图17或19中所示的示图上显示直线组,(6)如图23或24所示,显示归属到直线组的频率成分,和(7)如图26中所示,显示轨迹数据。用户界面单元8还是用于允许用户选择期望的数据并使所选择的数据详细地可视化的装置。用户界面单元8允许用户,例如,检验根据该实施例的声音信号处理设备的操作、调节设备以能够执行期望的操作,并随后在该调节状态下使用设备。
[处理的流程图]
图27是示出根据本实施例的声音信号处理设备执行的处理的流程的流程图。该处理包括初始化步骤S1、声音信号输入步骤S2、频率分解步骤S3、二维数据形成步骤S4、图形探测步骤S5、声源信息产生步骤S6、输出步骤S7、终止确定步骤S8、确认确定步骤S9、信息呈现/设置接收步骤S10以及终止步骤S11。
初始化步骤S1是执行上述用户界面单元8的部分处理的处理步骤。在该步骤中,从外部存储器件中读取声音信号处理所需的各种设置内容,以将设备初始化为预定设置状态。
声音信号输入步骤S2是执行上述声音信号输入单元2的处理的处理步骤。在该步骤中,输入在空间上不同的两个位置处拾取的两个声音信号。
频率分解步骤S3是执行上述频率分解器3的处理的处理步骤。在该步骤中,在声音信号输入步骤S2中输入的每一个声音信号被分解为频率成分,并至少计算每一频率的相位值(和功率值,如果需要)。
二维数据形成步骤S4是执行上述二维数据形成单元4的处理的处理步骤。在该步骤中,将在频率分解步骤S3中计算的输入声音信号的单个频率的那些相位值进行比较,以计算所述两个信号的每个频率的相位差值。将每个频率的该相位差值转换成由所述频率和其相位差唯一确定的(x,y)坐标值作为X-Y坐标系上的一个点,在该X-Y坐标系中,频率的函数为Y轴而相位差值的函数为X轴。
图形探测步骤S5是执行上述图形探测器5的处理的处理步骤。在该步骤中,从在二维数据形成步骤S4中形成的二维数据中探测预定图形。
声源信号产生步骤S6是执行上述声源信息发生器6的处理的处理步骤。在该步骤中,根据在图形探测步骤S5中探测到的图形的信息来产生声源信息。该声源信息包含作为声音信号的产生源的声源的数量、每一声源的空间存在范围、每一声源产生的声音的成分、每一声源的分离声音、由每一声源产生的声音的时间存在期间、以及由每一声源产生的声音的符号内容中的至少一种。
输出步骤S7是执行上述输出单元7的处理的处理步骤。在该步骤中,输出在声源信息产生步骤S6中产生的声源信息。
终止确定步骤S8是执行用户界面单元8的部分处理的处理步骤。在该步骤中,检验来自用户的终止命令的存在/不存在。如果存在终止命令,则流程前进到终止步骤S11(向左的分支)。如果不存在终止命令,则流程前进到确认确定步骤S9(向上的分支)。
确认确定步骤S9是执行用户界面单元8的部分处理的处理步骤。在该步骤中,检验来自用户的确认命令的存在/不存在。如果存在确认命令,则流程前进到信息呈现/设定接收步骤S10(向左的分支)。如果没有确认命令存在,则流程返回到声音信号输入步骤S2(向上的分支)。
信息呈现/设定接收步骤S10是响应于来自用户的确认命令来执行用户界面单元8的部分处理的处理步骤。在该步骤中,向用户呈现声音信号处理所需的各种设置内容,接收用户输入的设置,通过保存命令将设置内容保存在外部存储器件中,通过读取命令从外部存储器件中读取设置内容、使各种处理结果和中间结果可视化并将其呈现给用户,并且由用户选择期望的数据并使其详细地可视化。如此,用户可以检查声音信号处理的操作、调整处理以能够执行期望的操作、并随后在调节后的状态下继续处理。
终止步骤S11是响应于来自用户的终止命令来执行用户界面单元8的部分处理的处理步骤。在该步骤中,将声音信号处理所需的各种设置内容自动保存在外部存储器件中。
[变型]下面将阐述上述实施例的变型。
[垂直线的探测]
如图7中所示,二维数据形成单元4的坐标值确定器302通过利用作为相位差ΔPh(fk)的X坐标值并利用作为频率成分号k的Y坐标值来产生点。X坐标值还可以是根据相位差ΔPh(fk)对每一频率计算的到时差的估测值ΔT(fk)=(ΔPh(fk)/2π)×(1/fk)。当使用到时差来代替相位差时,具有相同到时的点,即来自相同声源的点被布置在垂直直线上。
在该情况下,频率越高,可以通过ΔPh(fk)表达的时间差ΔT(fk)越小。如图28A中示意性地示出,令字母T为由具有频率fk的波290的一个周期表示的时间,可以由具有两倍频率2fk的波291的一个周期表示的时间为T/2。当如图28A中所示将时间差绘制在X轴上时,时间差的范围为±Tmax,而在该范围外没有观察到时间差。在等于或低于阈值频率292的低频处,从相位差ΔPh(fk)中唯一获得到时差ΔT(fk),其中在该阈值频率292,Tmax为1/2周期(即,π)或更小。然而,在超出阈值频率292的高频下,所计算的ΔT(fk)小于理论上可能的Tmax。因此,如图28B中所示,仅可以表达直线293与294之间的范围。这是与先前描述的相位差循环问题相同的问题。
因此,为了解决该相位差循环问题,如图29中示意性示出,对于超出阈值频率292的频率区,坐标值确定器302在±Tmax范围内通过相对一个ΔP(fk)添加或减去例如2π、4π或6π,来在对应于相位差的ΔT的位置中产生冗余点,由此形成二维数据。所产生的点为图29中示出的实心圆。在超出阈值频率292的频率区中,对于一个频率绘制多个实心圆。
在这种情况下,根据作为相对于一个相位差值的一个或多个点而产生的二维数据,投票单元303和直线探测器304可以通过霍夫投票来探测大体上穿过许多点的垂直线(图29中的295)。由于该垂直线为在霍夫投票空间中θ=0的直线,通过在霍夫投票之后的投票分布中探测投票数量等于或大于θ=0的ρ轴上的预定阈值的峰值位置,可以解决探测垂直线的问题。所探测的峰值位置的ρ值给出了垂直线与X轴的交点,即到时差ΔT的估测值。值得注意的是,在对投票单元303的解释中描述的投票条件和加法方法可以直接用于投票中。还值得注意的是,与声源相应的直线不是直线组而是单个垂直线。
还可以通过在一维投票分布(在Y轴方向上投影投票的外围分布)中探测投票数量等于或大于预定阈值的峰值位置,来解决获取峰值位置的这个问题,其中,在该一维投票分布中上述冗余点的X坐标值被投票。当由此使用到时差来替换相位差作为X轴时,所有表示存在于不同方向上的声源的根据(evidence)被投影在具有相同倾角的直线上(即垂直线上)。这使得可以通过外围分布而不利用任何霍夫变换而容易地进行探测。
通过垂直线获得的声源方向的信息是作为ρ而非θ所获得的到时差ΔT。因此,方向估测器311可从ΔT立即计算出声源方向φ,而不使用θ。
如上所述,由二维数据形成单元4形成的二维数据不限于一种类型,且图形探测器5的图形探测方法也不限于一种类型。值得注意的是,图29中示出的利用到时差的点的绘图和所探测的垂直线也是要通过用户界面单元8呈现给用户的信息。
[多个系统的并行布置]
通过包括两个麦克风的最简单布置来阐述上述实施例。然而,如图30中所示,还能够通过利用N(N≥3)个麦克风来布置最多M(1≤M≤NC2)个麦克风对。
在图30中,参考数字11至13表示N个麦克风;20表示用于输入通过N个麦克风获得的N个声音信号的装置;21表示用于分解所输入的N个声音信号的频率的装置;22为用于对N个声音信号的M(1≤M≤NC2)个对中的每一个产生二维数据的装置;23为用于从所产生的M个二维数据对中的每一个中探测预定图形的装置;24为用于根据所探测的M对图形信息中的每一个来产生声源信息的装置;25为用于输出所产生的声源信息的装置;和26为用于向用户呈现包含形成每一对的麦克风信息的各种设定值、接收由用户输入的设置、将设定值保存在外部存储器件中、从外部存储器件中读取设定值以及向用户呈现各种处理结果的装置。对于每一个麦克风对的处理与上述实施例中的相同,且对于多个麦克风对并行执行该处理。
在该布置中,虽然一个麦克风对不能覆盖所有方向,但是通过由多个麦克风对覆盖所有方向,可以减小不能获得正确声源信息的可能性。
[利用通用计算机的执行:程序]
如图31中所示,根据本发明的这一实施例还可以作为能够执行用于实施根据本发明的声音信号处理功能的程序的通用计算机来实践。在图31中,参考数字31至33表示N个麦克风;40表示用于输入通过N个麦克风获得的N个声音信号的A/D转换装置;41表示执行程序命令以处理所输入的N个声音信号的CPU;而42至47表示形成计算机的标准装置,即,RAM 42、ROM 43、HDD 44、鼠标/键盘45、显示器46和LAN 47。参考数字50至52表示用于从外部经由存储介质向计算机提供程序和数据的驱动器,即CDROM 50、FDD 51和CF/SD卡52;48表示用于输出声音信号的D/A转换装置;而49表示连接到D/A转换装置48的输出端子的扬声器。通过存储用于执行图27中示出的处理步骤的声音信号处理程序、将程序读出到RAM 42、并通过CPU 41执行该程序,该计算机设备用作声音信号处理设备。通过利用作为外部存储器件的HDD 44、用于接收输入操作的鼠标/键盘45和作为信息呈现装置的显示器46和扬声器49,该计算机设备还实施上述用户界面单元8的功能。此外,该计算机设备将通过声音信号处理所获得的声源信息保存在RAM 42、ROM 43和HDD 44中,或通过经由LAN 47的通信来输出该信息。
[记录介质]
如图32中所示,还能够将本发明作为计算机可读记录介质来实现。在图32中,参考数字61表示记录根据本发明的声音信号处理程序的、由CD-ROM、CF或SD卡、或软盘来实现的记录介质。通过将该记录介质61插入诸如电视或计算机的电子设备62或63、或插入机器人64中来执行该程序。通过通信将该程序从提供了该程序的电子设备63输送到另一个电子设备65或机器人64,还可以在所述电子设备65或机器人64上执行该程序。
[通过温度传感器的声速修正]
还可以通过将用于测量大气温度的温度传感器附着于该设备、并根据温度传感器所测量的温度数据来修正图22中示出的声速Vs,由此获得精确的Tmax,从而来实现本发明。
或者,可以通过将以预定间隔分隔开的声波发射装置和接收装置附着到该设备、并利用测量装置来测量通过发射装置产生的声波到达接收装置所需要的时间、由此直接计算并修正声速Vs且获得精确的Tmax,从而来实现本发明。
[使θ的间隔不等以获得相等的φ间隔]
在本发明中,当执行霍夫变换以获得直线组的倾角时,θ被量化为例如间隔1°。然而,当这样以相等间隔量化θ时,可以被估测的声源方向φ的值以不等的间隔被量化。为了防止这样的情况,本发明还可以如此实施,通过量化θ以使得φ以相等间隔被量化,从而声源方向的估测精确度不轻易改变。
在2001年6月的Artifical Intelligence Society AI ChallengeResearch Meeting,SIG-Challenge-0113-5的第35-42页中的KazuhiroNakadai等人的“Real-time Active Person Tracking by HierarchicalIntegration of Audiovisual Information”中描述的方法通过从频率分解数据中探测形成谐波结构的基频成分和其谐波成分来估测声源的数量、方向和成分。由于假设了谐波结构,所以该方法专用于人的声音。然而,在实际环境中,存在许多不具有谐波结构的声源,例如门打开和关闭的声音。该方法不能处理这种源声。
而且,在2004年4月的Measurement and Control,Vol.43,No.4的第325-330页中的Futoshi Asano的“Separating Sounds”中描述的方法不限于任何具体模型。然而,只要使用两个麦克风,则可以被处理的声源的数量被限制为1个。
另一方面,通过采用霍夫变换将频率成分的相位差分割成独立声源的组,本发明的实施例可以通过利用两个麦克风来实施定位和分离两个或多个声源的功能。由于不使用像谐波结构这样的限制模型,所以本发明可适用于具有各种特性的声源。
下面将概述通过本发明的实施例获得的其他功能和效果。
·当执行霍夫投票时,通过利用适合于探测具有许多频率成分的声源或大功率的声源的投票方法,可以稳定地探测各种类型的声源。
·通过施加限制ρ=0并在直线探测期间考虑相位差循环,可以有效且精确地探测声源。
·通过利用直线探测结果可以获得有用的声源信息,该信息包括作为声音信号的产生源的声源的空间存在范围、由该声源产生的源声的时间存在期间、源声的成分、源声的分离声音以及源声的符号内容。
·当要估测单个源声的频率成分时,通过简单地选择直线附近的成分、确定哪一成分归属到哪一直线、并执行与每一直线与成分之间的距离相应的系数乘法运算,可以将这些源声容易地分离。
·通过预先探测每一声源的方向来自适应地设置自适应阵列处理的方向性范围,可以更加精确地分离声源。
·通过精确地分离和识别源声,可以确定每一个源声的符号内容。
·用户可以检查该设备的操作、调节该设备以能够执行期望的操作、然后在调节后的状态下使用该设备。
另外的优点和变型对于本领域技术人员来说是容易想到的。因此,在更广的方面,本发明不限于这里示出和描述的具体细节和代表性实施例。相应地,在不脱离由附属权利要求及其等同物限定的总的发明原理的精神和范围的情况下,可以做出各种变形。
Claims (22)
1、一种声音信号处理设备,包括:
声音信号输入器件,输入在至少两个点处拾取的多个声音信号,该至少两个点在空间中是不同的;
频率分解器,构造成将所述多个声音信号中的每一个分解以获得表示每一频率的相位值的多个频率分解数据组;
相位差计算器,构造成对于所述多个频率分解数据组中的不同频率分解数据组计算每一频率的相位差值;
二维数据形成器件,构造成对于每一对产生表示点群的二维数据,所述点具有在二维坐标系中的坐标值,在该二维坐标系中,频率的函数为第一轴,而通过相位差计算器所计算的相位差值的函数为第二轴;
图形探测器,构造成从该二维数据中探测表现出来自相同声源的频率与相位差之间的比例关系的图形;
声源信息产生器件,构造成根据所述图形来产生声源信息,该声源信息至少含有与声音信号的发生源相应的声源的数量、每一声源的空间存在范围、由每一声源产生的声音的时间存在期间、由每一声源产生的声音的分量构成、对于每一声源分离的分离声音和由每一声源产生的声音的符号内容中的一种,且该声源信息涉及彼此相互区分的各个声源;和
输出器件,输出所述声源信息。
2、根据权利要求1的设备,其中该二维数据形成器件包括构造成在二维坐标系上确定坐标值的坐标值确定器件,在该二维坐标系中,频率的标量倍数为该第一轴,而该相位差值的标量倍数为该第二轴。
3、根据权利要求1的设备,其中该二维数据形成器件包括构造成在二维坐标系上确定坐标值的坐标值确定器件,在该二维坐标系中,所述频率的函数为第一轴,而根据由所述相位差计算器所计算的相位差值计算到时差的函数为第二轴。
4、根据权利要求2的设备,其中该图形探测器包括:
投票器件,构造成通过对具有由该坐标值确定器件确定的坐标值的点进行线性霍夫变换,在投票空间中投票来产生投票分布;和
直线探测器件,构造成根据该投票器件产生的所述投票分布来检测投票数量在预定阈值以上的峰值位置,并且根据检测的峰值位置确定直线。
5、根据权利要求3的设备,其中该图形探测器包括:
投票器件,构造成通过在预定方向上投影具有由该坐标值确定器件确定的坐标值的点,在投票空间中投票来产生作为投影投票的外围分布的投票分布;和
直线探测器件,构造成根据该投票器件产生的所述投票分布检测投票数量在预定阈值以上的峰值位置,并且根据检测的峰值位置确定直线。
6、根据权利要求4的设备,其中
该投票器件在该投票空间中投票固定值,和
该直线探测器件探测穿过所述二维坐标系中的每一频率的许多点的直线。
7、根据权利要求4的设备,其中
该频率分解器不仅计算每一频率的相位值还计算每一频率的功率值;
该投票器件投票根据所述功率值的数值,并且
该直线探测器件探测穿过二维坐标系中的每一频率的许多大功率的点的直线。
8、根据权利要求4的设备,其中当从所述投票分布中探测具有不小于预定阈值的投票数量的峰值位置时,该直线探测器件仅获取投票空间中的位置的峰值位置,该位置对应于所述二维坐标系中穿过特定位置的直线。
9、根据权利要求4的设备,其中
当从所述投票分布中探测具有不小于预定阈值的投票数量的峰值位置时,为了探测多个平行直线,该直线探测器件计算相应于构成多个平行直线的各直线的投票合计值,并探测该合计值在预定阈值以上的峰值位置,所述多个平行直线具有相同倾角,且彼此分离开根据所述倾角计算的预定距离。
10、根据权利要求4的设备,其中该声源信息产生器件包括方向估测器件,该方向估测器件构造成根据由该直线探测器探测的所述直线的倾角来计算作为相对于线段的角度的声源的空间存在范围,该线段连接拾取所述声音信号的两个点。
11、根据权利要求4的设备,其中该声源信息产生器件包括声源成分估测器件,该声源成分估测器件构造成对于每一频率,计算所述坐标值与由该直线探测器件所探测的直线之间的距离,并根据该距离,估测由相应于该直线的声源所产生的声音的频率成分。
12、根据权利要求4的设备,其中所述声源信息产生器件包括:
声源成分估测器件,构造成对于每一频率计算所述坐标值与由所述直线探测器件所探测的直线之间的距离,并根据该距离,估测由相应于该直线的声源所产生的声音的频率成分;和
分离声音提取器件,构造成从所述声音的所述估测频率成分中合成由所述声源产生的声音信号数据。
13、根据权利要求11的设备,其中该声源成分估测器件确定一个频率为由相应于所述直线的声源产生的声音的频率成分,根据所述一个频率的所述坐标值到所述直线的距离不大于预定阈值。
14、根据权利要求11的设备,其中所述声源成分估测器件将所述坐标值到所述直线的距离在预定阈值内的频率作为由相应于所述直线的声源产生的声音的频率成分的候选项,并使该频率成分归属于最近的直线。
15、根据权利要求11的设备,其中
所述频率分解器不仅计算每一频率的相位值还计算每一频率的功率值,并且
所述声源成分估测器件计算随着所述坐标值到所述直线的距离中的增加而单调下降的非负系数,并确定通过将频率的功率乘以该非负系数所获得的值为由相应于所述直线的声源产生的声音的频率成分的功率值。
16、根据权利要求4的设备,其中所述声源信息产生器件包括:
方向估测器件,构造成根据由所述直线探测器件探测的所述直线的倾角来计算作为相对于线段的角度的声源的空间存在范围,该线段连接拾取所述声音信号的两个点;和
自适应阵列处理器件,构造成根据所述角度设定属于声源方向的跟踪范围,并且仅允许来自存在于该跟踪范围内的声源的声音穿过,由此提取由该声源产生的声音的声音信号的数据。
17、根据权利要求1的设备,还包括用户界面器件,该用户界面器件构造成使用户来检验和改变关于该设备操作的设定信息。
18、根据权利要求1的设备,还包括用户界面器件,该用户界面器件构造成使用户来保存和读取关于该设备操作的设定信息。
19、根据权利要求1的设备,还包括用户界面器件,该用户界面器件构造成向用户呈现所述二维数据或图形。
20、根据权利要求1的设备,还包括用户界面器件,该用户界面器件构造成向用户呈现所述声源信息。
21、根据权利要求1的设备,其中所述图形探测器从作为所述二维数据组的时间序列的三维数据组中探测图形。
22、一种声音信号处理方法,包括:
输入在至少两个点处拾取的多个声音信号,所述至少两个点在空间中是不同的;
将所述多个声音信号中的每一个分解以获得表示每一频率的相位值的多个频率分解数据组;
对于所述多个频率分解数据组中的不同频率分解数据组计算每一频率的相位差值;
对于每一对,产生表示点群的二维数据,所述点群具有在二维坐标系中的坐标值,在该二维坐标系中,频率的函数为第一轴,而所计算的相位差值的函数为第二轴;
从该二维数据中探测表现出来自相同声源的频率与相位差之间的比例关系的图形;
根据所述图形来产生声源信息,该声源信息至少含有与所述声音信号的发生源相应的声源的数量、每一声源的空间存在范围、由每一声源产生的声音的时间存在期间、由每一声源产生的声音的分量构成、对于每一声源分离的分离声音和由每一声源产生的声音的符号内容中的一种,且该声源信息涉及彼此相互区分的各个声源;和
输出所述声源信息。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP069824/2005 | 2005-03-11 | ||
JP2005069824A JP3906230B2 (ja) | 2005-03-11 | 2005-03-11 | 音響信号処理装置、音響信号処理方法、音響信号処理プログラム、及び音響信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体 |
Publications (1)
Publication Number | Publication Date |
---|---|
CN1831554A true CN1831554A (zh) | 2006-09-13 |
Family
ID=36579432
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
CNA2006100594908A Pending CN1831554A (zh) | 2005-03-11 | 2006-03-13 | 声音信号处理设备和声音信号处理方法 |
Country Status (4)
Country | Link |
---|---|
US (1) | US20060204019A1 (zh) |
EP (1) | EP1701587A3 (zh) |
JP (1) | JP3906230B2 (zh) |
CN (1) | CN1831554A (zh) |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101246690B (zh) * | 2007-02-15 | 2011-07-13 | 索尼株式会社 | 声音处理设备及声音处理方法 |
CN103000183A (zh) * | 2011-09-14 | 2013-03-27 | 财团法人工业技术研究院 | 语音增强方法 |
CN103189915A (zh) * | 2010-10-25 | 2013-07-03 | 高通股份有限公司 | 使用具有时间演化信息的基底函数来分解音乐信号 |
CN103688187A (zh) * | 2011-07-14 | 2014-03-26 | 微软公司 | 使用相位谱的声音源定位 |
CN104041075A (zh) * | 2012-01-17 | 2014-09-10 | 皇家飞利浦有限公司 | 音频源位置估计 |
CN104715753A (zh) * | 2013-12-12 | 2015-06-17 | 联想(北京)有限公司 | 一种数据处理的方法及电子设备 |
CN106170681A (zh) * | 2014-03-18 | 2016-11-30 | 罗伯特·博世有限公司 | 自适应声学强度分析仪 |
CN106842131A (zh) * | 2017-03-17 | 2017-06-13 | 浙江宇视科技有限公司 | 麦克风阵列声源定位方法及装置 |
CN108597508A (zh) * | 2018-03-28 | 2018-09-28 | 京东方科技集团股份有限公司 | 用户识别方法、用户识别装置和电子设备 |
Families Citing this family (54)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US7697024B2 (en) * | 2005-11-03 | 2010-04-13 | Broadcom Corp. | Method and system of tracking and stabilizing an image transmitted using video telephony |
US7728866B2 (en) * | 2005-11-03 | 2010-06-01 | Broadcom Corp. | Video telephony image processing |
JP4234746B2 (ja) | 2006-09-25 | 2009-03-04 | 株式会社東芝 | 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム |
JP4854533B2 (ja) * | 2007-01-30 | 2012-01-18 | 富士通株式会社 | 音響判定方法、音響判定装置及びコンピュータプログラム |
US20100098266A1 (en) * | 2007-06-01 | 2010-04-22 | Ikoa Corporation | Multi-channel audio device |
EP2202531A4 (en) * | 2007-10-01 | 2012-12-26 | Panasonic Corp | DETECTOR FOR SOUND SOUND ALIGNMENT |
WO2009069184A1 (ja) * | 2007-11-26 | 2009-06-04 | Fujitsu Limited | 音処理装置、補正装置、補正方法及びコンピュータプログラム |
KR101600354B1 (ko) * | 2009-08-18 | 2016-03-07 | 삼성전자주식회사 | 사운드에서 오브젝트 분리 방법 및 장치 |
US20110125497A1 (en) * | 2009-11-20 | 2011-05-26 | Takahiro Unno | Method and System for Voice Activity Detection |
JP5493850B2 (ja) * | 2009-12-28 | 2014-05-14 | 富士通株式会社 | 信号処理装置、マイクロホン・アレイ装置、信号処理方法、および信号処理プログラム |
CN102111697B (zh) * | 2009-12-28 | 2015-03-25 | 歌尔声学股份有限公司 | 一种麦克风阵列降噪控制方法及装置 |
US8309834B2 (en) * | 2010-04-12 | 2012-11-13 | Apple Inc. | Polyphonic note detection |
US9025782B2 (en) | 2010-07-26 | 2015-05-05 | Qualcomm Incorporated | Systems, methods, apparatus, and computer-readable media for multi-microphone location-selective processing |
JP5198530B2 (ja) | 2010-09-28 | 2013-05-15 | 株式会社東芝 | 音声付き動画像呈示装置、方法およびプログラム |
US20120089392A1 (en) * | 2010-10-07 | 2012-04-12 | Microsoft Corporation | Speech recognition user interface |
JP5974901B2 (ja) * | 2011-02-01 | 2016-08-23 | 日本電気株式会社 | 有音区間分類装置、有音区間分類方法、及び有音区間分類プログラム |
JP5994639B2 (ja) * | 2011-02-01 | 2016-09-21 | 日本電気株式会社 | 有音区間検出装置、有音区間検出方法、及び有音区間検出プログラム |
CN102809742B (zh) | 2011-06-01 | 2015-03-18 | 杜比实验室特许公司 | 声源定位设备和方法 |
EP2551849A1 (en) * | 2011-07-29 | 2013-01-30 | QNX Software Systems Limited | Off-axis audio suppression in an automobile cabin |
US8818800B2 (en) | 2011-07-29 | 2014-08-26 | 2236008 Ontario Inc. | Off-axis audio suppressions in an automobile cabin |
US9966088B2 (en) * | 2011-09-23 | 2018-05-08 | Adobe Systems Incorporated | Online source separation |
JP5810903B2 (ja) * | 2011-12-27 | 2015-11-11 | 富士通株式会社 | 音声処理装置、音声処理方法及び音声処理用コンピュータプログラム |
US9373320B1 (en) | 2013-08-21 | 2016-06-21 | Google Inc. | Systems and methods facilitating selective removal of content from a mixed audio recording |
JP6289936B2 (ja) | 2014-02-26 | 2018-03-07 | 株式会社東芝 | 音源方向推定装置、音源方向推定方法およびプログラム |
US10667069B2 (en) * | 2016-08-31 | 2020-05-26 | Dolby Laboratories Licensing Corporation | Source separation for reverberant environment |
WO2019002831A1 (en) | 2017-06-27 | 2019-01-03 | Cirrus Logic International Semiconductor Limited | REPRODUCTIVE ATTACK DETECTION |
GB2563953A (en) | 2017-06-28 | 2019-01-02 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201713697D0 (en) | 2017-06-28 | 2017-10-11 | Cirrus Logic Int Semiconductor Ltd | Magnetic detection of replay attack |
US10354632B2 (en) * | 2017-06-28 | 2019-07-16 | Abu Dhabi University | System and method for improving singing voice separation from monaural music recordings |
GB201801526D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
GB201801528D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
GB201801532D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for audio playback |
GB201801530D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Methods, apparatus and systems for authentication |
GB201801527D0 (en) | 2017-07-07 | 2018-03-14 | Cirrus Logic Int Semiconductor Ltd | Method, apparatus and systems for biometric processes |
US10264354B1 (en) * | 2017-09-25 | 2019-04-16 | Cirrus Logic, Inc. | Spatial cues from broadside detection |
GB201801663D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB2567503A (en) | 2017-10-13 | 2019-04-17 | Cirrus Logic Int Semiconductor Ltd | Analysing speech signals |
GB201801874D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Improving robustness of speech processing system against ultrasound and dolphin attacks |
GB201804843D0 (en) | 2017-11-14 | 2018-05-09 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201803570D0 (en) | 2017-10-13 | 2018-04-18 | Cirrus Logic Int Semiconductor Ltd | Detection of replay attack |
GB201801661D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic International Uk Ltd | Detection of liveness |
GB201801664D0 (en) | 2017-10-13 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of liveness |
GB201801659D0 (en) | 2017-11-14 | 2018-03-21 | Cirrus Logic Int Semiconductor Ltd | Detection of loudspeaker playback |
US11475899B2 (en) | 2018-01-23 | 2022-10-18 | Cirrus Logic, Inc. | Speaker identification |
US11264037B2 (en) | 2018-01-23 | 2022-03-01 | Cirrus Logic, Inc. | Speaker identification |
US11735189B2 (en) | 2018-01-23 | 2023-08-22 | Cirrus Logic, Inc. | Speaker identification |
US10529356B2 (en) | 2018-05-15 | 2020-01-07 | Cirrus Logic, Inc. | Detecting unwanted audio signal components by comparing signals processed with differing linearity |
US10692490B2 (en) | 2018-07-31 | 2020-06-23 | Cirrus Logic, Inc. | Detection of replay attack |
JP6661710B2 (ja) * | 2018-08-02 | 2020-03-11 | Dynabook株式会社 | 電子機器および電子機器の制御方法 |
US10915614B2 (en) | 2018-08-31 | 2021-02-09 | Cirrus Logic, Inc. | Biometric authentication |
US11037574B2 (en) | 2018-09-05 | 2021-06-15 | Cirrus Logic, Inc. | Speaker recognition and speaker change detection |
JP7226107B2 (ja) * | 2019-05-31 | 2023-02-21 | 富士通株式会社 | 話者方向判定プログラム、話者方向判定方法、及び、話者方向判定装置 |
JP7469032B2 (ja) | 2019-12-10 | 2024-04-16 | 株式会社荏原製作所 | 研磨方法および研磨装置 |
CN114900195B (zh) * | 2022-07-11 | 2022-09-20 | 山东嘉通专用汽车制造有限公司 | 一种用于粉罐车的安全状态监测系统 |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4333170A (en) * | 1977-11-21 | 1982-06-01 | Northrop Corporation | Acoustical detection and tracking system |
JPH1196374A (ja) * | 1997-07-23 | 1999-04-09 | Sanyo Electric Co Ltd | 3次元モデリング装置、3次元モデリング方法および3次元モデリングプログラムを記録した媒体 |
JP4868671B2 (ja) * | 2001-09-27 | 2012-02-01 | 中部電力株式会社 | 音源探査システム |
JP2003337164A (ja) * | 2002-03-13 | 2003-11-28 | Univ Nihon | 音到来方向検出方法及びその装置、音による空間監視方法及びその装置、並びに、音による複数物体位置検出方法及びその装置 |
JP3945279B2 (ja) * | 2002-03-15 | 2007-07-18 | ソニー株式会社 | 障害物認識装置、障害物認識方法、及び障害物認識プログラム並びに移動型ロボット装置 |
JP4247037B2 (ja) * | 2003-01-29 | 2009-04-02 | 株式会社東芝 | 音声信号処理方法と装置及びプログラム |
-
2005
- 2005-03-11 JP JP2005069824A patent/JP3906230B2/ja not_active Expired - Fee Related
- 2005-09-27 US US11/235,307 patent/US20060204019A1/en not_active Abandoned
- 2005-09-27 EP EP05256004A patent/EP1701587A3/en not_active Withdrawn
-
2006
- 2006-03-13 CN CNA2006100594908A patent/CN1831554A/zh active Pending
Cited By (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN101246690B (zh) * | 2007-02-15 | 2011-07-13 | 索尼株式会社 | 声音处理设备及声音处理方法 |
CN103189915B (zh) * | 2010-10-25 | 2015-06-10 | 高通股份有限公司 | 使用具有时间演化信息的基底函数来分解音乐信号 |
CN103189915A (zh) * | 2010-10-25 | 2013-07-03 | 高通股份有限公司 | 使用具有时间演化信息的基底函数来分解音乐信号 |
US8805697B2 (en) | 2010-10-25 | 2014-08-12 | Qualcomm Incorporated | Decomposition of music signals using basis functions with time-evolution information |
CN103688187A (zh) * | 2011-07-14 | 2014-03-26 | 微软公司 | 使用相位谱的声音源定位 |
CN103688187B (zh) * | 2011-07-14 | 2016-05-11 | 微软技术许可有限责任公司 | 使用相位谱的声音源定位 |
US9435873B2 (en) | 2011-07-14 | 2016-09-06 | Microsoft Technology Licensing, Llc | Sound source localization using phase spectrum |
US9817100B2 (en) | 2011-07-14 | 2017-11-14 | Microsoft Technology Licensing, Llc | Sound source localization using phase spectrum |
CN103000183B (zh) * | 2011-09-14 | 2014-12-31 | 财团法人工业技术研究院 | 语音增强方法 |
CN103000183A (zh) * | 2011-09-14 | 2013-03-27 | 财团法人工业技术研究院 | 语音增强方法 |
US9026436B2 (en) | 2011-09-14 | 2015-05-05 | Industrial Technology Research Institute | Speech enhancement method using a cumulative histogram of sound signal intensities of a plurality of frames of a microphone array |
CN104041075B (zh) * | 2012-01-17 | 2017-10-24 | 皇家飞利浦有限公司 | 音频源位置估计 |
CN104041075A (zh) * | 2012-01-17 | 2014-09-10 | 皇家飞利浦有限公司 | 音频源位置估计 |
CN104715753B (zh) * | 2013-12-12 | 2018-08-31 | 联想(北京)有限公司 | 一种数据处理的方法及电子设备 |
CN104715753A (zh) * | 2013-12-12 | 2015-06-17 | 联想(北京)有限公司 | 一种数据处理的方法及电子设备 |
CN106170681A (zh) * | 2014-03-18 | 2016-11-30 | 罗伯特·博世有限公司 | 自适应声学强度分析仪 |
CN106842131B (zh) * | 2017-03-17 | 2019-10-18 | 浙江宇视科技有限公司 | 麦克风阵列声源定位方法及装置 |
CN106842131A (zh) * | 2017-03-17 | 2017-06-13 | 浙江宇视科技有限公司 | 麦克风阵列声源定位方法及装置 |
CN108597508A (zh) * | 2018-03-28 | 2018-09-28 | 京东方科技集团股份有限公司 | 用户识别方法、用户识别装置和电子设备 |
Also Published As
Publication number | Publication date |
---|---|
JP2006254226A (ja) | 2006-09-21 |
EP1701587A2 (en) | 2006-09-13 |
EP1701587A3 (en) | 2009-04-29 |
US20060204019A1 (en) | 2006-09-14 |
JP3906230B2 (ja) | 2007-04-18 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN1831554A (zh) | 声音信号处理设备和声音信号处理方法 | |
CN1837846A (zh) | 用于处理声音信号的装置和方法 | |
JP4234746B2 (ja) | 音響信号処理装置、音響信号処理方法及び音響信号処理プログラム | |
CN112074901B (zh) | 语音识别登入 | |
CN1423487A (zh) | 使用多种线索对多个人的自动探测和追踪 | |
CN1196103C (zh) | 语音识别设备和方法以及记录了语音识别程序的记录媒体 | |
CN1238833C (zh) | 语音识别装置以及语音识别方法 | |
CN1194337C (zh) | 语音识别设备和方法以及记录了语音识别程序的记录媒体 | |
CN1794266A (zh) | 生物特征融合的身份识别和认证方法 | |
CN1924897A (zh) | 图像处理装置和方法以及程序 | |
CN1864176A (zh) | 用于估计对象状态的估计系统、估计方法和估计程序 | |
CN101625675B (zh) | 信息处理装置、信息处理方法和计算机程序 | |
CN1601417A (zh) | 用于支持金属板加工的集成支持系统 | |
CN1818927A (zh) | 指纹识别方法与系统 | |
CN1834607A (zh) | 检查装置及检查方法 | |
CN1484814A (zh) | 用于建立不随传感器状态的系统性变换而变化的激励表示的自参照方法和装置 | |
CN101038623A (zh) | 特征点检测装置、特征点检测方法及特征点检测程序 | |
CN1151465C (zh) | 利用候选表进行分类的模式识别设备及其方法 | |
CN1185698A (zh) | 运动方向测量设备和跟踪设备 | |
JP4455551B2 (ja) | 音響信号処理装置、音響信号処理方法、音響信号処理プログラム、及び音響信号処理プログラムを記録したコンピュータ読み取り可能な記録媒体 | |
CN104423543A (zh) | 一种信息处理方法及装置 | |
Oya et al. | Do we need sound for sound source localization? | |
Huijbregts et al. | Speaker diarization error analysis using oracle components | |
Ferras et al. | Speaker diarization and linking of meeting data | |
Das et al. | HLT-NUS submission for 2019 NIST multimedia speaker recognition evaluation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
C06 | Publication | ||
PB01 | Publication | ||
C10 | Entry into substantive examination | ||
SE01 | Entry into force of request for substantive examination | ||
C02 | Deemed withdrawal of patent application after publication (patent law 2001) | ||
WD01 | Invention patent application deemed withdrawn after publication |
Open date: 20060913 |