KR20060124443A - Sound source localization method using head related transfer function database - Google Patents

Sound source localization method using head related transfer function database Download PDF

Info

Publication number
KR20060124443A
KR20060124443A KR1020050046371A KR20050046371A KR20060124443A KR 20060124443 A KR20060124443 A KR 20060124443A KR 1020050046371 A KR1020050046371 A KR 1020050046371A KR 20050046371 A KR20050046371 A KR 20050046371A KR 20060124443 A KR20060124443 A KR 20060124443A
Authority
KR
South Korea
Prior art keywords
sound source
transfer function
phase
sound
head transfer
Prior art date
Application number
KR1020050046371A
Other languages
Korean (ko)
Other versions
KR100730297B1 (en
Inventor
박영진
황성목
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020050046371A priority Critical patent/KR100730297B1/en
Publication of KR20060124443A publication Critical patent/KR20060124443A/en
Application granted granted Critical
Publication of KR100730297B1 publication Critical patent/KR100730297B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Abstract

A sound source localization method using a head related transfer function database is provided to accurately locate the sound source by simultaneously estimating horizontal and vertical angles of the sound source in a 3D space. Sound signals are acquired by two microphones while varying the location of a sound source in a 3D space(S1). A database of HRTF(Head Related Transfer Function) of the sound signals is formed in a predetermined range of an audible frequency range through a signal process scheme(S2). A sound signal generated by the sound source to be tracked is acquired by using two microphones(S3). The phase difference between the signals is calculated within the predetermined range(S4). The difference between the phase difference of the stored HRTF functions and that of the acquired sound signals is acquired, and the result is multiplied by the square of a coherence function. Then, the result is integrated over the predetermined range to obtain a phase scale(S5). The position of the sound source having a phase scale relatively smaller than the other phase scales is determined as a target sound source position(S6).

Description

머리전달함수 데이터베이스를 이용한 음원 위치 추정 방법{Sound source localization method using Head Related Transfer Function database}Sound source location estimation method using head transfer function database {Sound source localization method using Head Related Transfer Function database}

도 1a는 종래의 음원위치 추정 방법의 개념도, 도 1b는 원추형 혼동면의 개념도이다.1A is a conceptual diagram of a conventional sound source position estimation method, and FIG. 1B is a conceptual diagram of a conical conical surface.

도 2는 머리전달함수의 개념도이다.2 is a conceptual diagram of a head transfer function.

도 3은 1m 거리의 음원에 대해 고도각 0°인 경우, 수평각 변화에 따른 양 귀의 HRTF 크기를 보여주는 실험 데이터이다.3 is an experimental data showing the HRTF size of both ears according to the horizontal angle change when the altitude angle is 0 ° for a sound source at a distance of 1m.

도 4는 1m 거리의 음원에 대해 수평각이 30°인 경우, 고도각 변화에 따른 왼쪽 귀의 HRTF 크기를 보여주는 실험 데이터이다.4 is an experimental data showing the HRTF size of the left ear according to the change of the altitude angle when the horizontal angle is 30 ° for the sound source at a distance of 1m.

도 5a는 고도각 0°인 경우 수평각 변화에 따른 음원의 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 5b는 자유음장을 고려하여 계산한 위상척도이다.FIG. 5A is a phase scale calculated using HRTF data of a sound source according to a horizontal angle change at an elevation angle of 0 °, and FIG. 5B is a phase scale calculated in consideration of a free sound field.

도 6a는 수평각이 30°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도, 도 6b는 크기척도이다. 도 6c는 수평각이 60°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 6d는 크기척도이다.6A is a phase scale calculated using HRTF data according to a change in elevation angle when the horizontal angle is 30 °, and FIG. 6B is a size scale. 6C is a phase scale calculated using HRTF data according to a change in elevation angle when the horizontal angle is 60 °, and FIG. 6D is a size scale.

도 7은 본 발명의 일실시예에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 흐름도이다.7 is a flowchart illustrating a sound source position estimation method using a head transfer function database according to an embodiment of the present invention.

<도면의 주요부분에 대한 설명><Description of main parts of drawing>

10 : 음파,10: sound waves,

20 : 마이크로폰,20: microphone,

30 : 원추형 혼동면,30: conical conical surface,

40 : 음원,40: sound source,

50 : 플랫폼,50: platform,

54 : 제 1 마이크로폰,54: first microphone,

55 : 제 2 마이크로폰,55: second microphone,

100 : 흐름도.100: flow chart.

본 발명은 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계, 데이터베이스를 구축하는 제 2 단계, 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계, 이 신호들의 위상차 및/또는 크기비를 계산하는 제 4 단계, 위상척도 및/또는 크기척도를 계산하는 제 5 단계, 및 추적 대상 음원 위치를 추정하는 제 6 단계를 포함하여 구성되는 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법에 관한 것이다.The present invention provides a first step of acquiring a signal for constructing a database, a second step of constructing a database, a third step of acquiring a sound wave signal generated by a tracked sound source through a microphone, and a phase difference and / or magnitude ratio of these signals. And a fifth step of calculating a phase scale and / or a size scale, and a sixth step of estimating a track target sound source position. The present invention relates to a sound source position estimation method using a head transfer function database. .

도 1a는 종래의 음원위치 추정 방법의 개념도이다. 도 1a에 도시된 바와 같이, 이 분야의 종래기술에는 자유음장을 가정하여 각 마이크로폰(20)에 들어오는 음파(10) 신호의 지연시간으로부터 3차원 공간상의 음원의 위치를 추정하는 방법이 주를 이룬다. 이때 음원의 위치각도와 지연시간

Figure 112005029003159-PAT00001
사이의 관계는 다음과 같다.1A is a conceptual diagram of a conventional sound source position estimation method. As shown in FIG. 1A, the prior art in this field is a method of estimating the position of the sound source in three-dimensional space from the delay time of the sound wave 10 signal entering each microphone 20 assuming a free sound field. . At this time, the position angle and delay time of sound source
Figure 112005029003159-PAT00001
The relationship between

Figure 112005029003159-PAT00002
Figure 112005029003159-PAT00002

여기서, c는 음속이고, d는 지연거리이며, 2a는 두마이크로폰 사이의 거리며, 파이는 음원이 존재하는 각도이다. 따라서, 지연시간을 추정하면 음원의 존재 각도를 알 수가 있다. 이때 각 마이크로폰(20)의 출력신호간의 지연시간의 추정을 위해서는 일반화된 상호상관함수법(GCC: Generalized Cross-Correlation method)이 널리 사용되고 있다. 이는 각 마이크로폰(20)에 들어온 음파(10) 신호들의 상호상관계수를 구하여 최대값을 가지는 시간 지연를 구함으로써 지연시간을 추정하는 방법이다.Where c is the speed of sound, d is the delay distance, 2a is the distance between the two microphones, and pi is the angle at which the sound source exists. Therefore, by estimating the delay time, the existence angle of the sound source can be known. In this case, the generalized cross-correlation method (GCC) is widely used to estimate the delay time between the output signals of the microphones 20. This is a method of estimating the delay time by obtaining a correlation of the sound wave 10 signals input to each microphone 20 to obtain a time delay having a maximum value.

이런 종래기술은 마이크로폰(20)이 장착되어 있는 플랫폼의 형상을 고려하지 않는 방법이다. 그러나 실제 로봇과 같은 대상 플랫폼은 특정 형상을 가지고 있고, 음원에서 방사된 음파(10)가 각 마이크로폰(20)에 도달하기까지는 이러한 플랫폼의 형상으로 인해 반사, 회절, 산란 등이 발생하게 된다. 따라서 이런 원인들로 인해 위상과 크기의 왜곡이 발생하게 되는데, 종래기술과 같이 플랫폼의 형상을 고려하지 않고 단순히 자유음장만을 가정할 경우 정확한 음원위치 추정이 안되는 경우가 발생한다. This prior art is a method that does not take into account the shape of the platform on which the microphone 20 is mounted. However, the target platform such as a real robot has a specific shape, and the reflection, diffraction, scattering, etc. occur due to the shape of the platform until the sound wave 10 radiated from the sound source reaches each microphone 20. Therefore, these causes cause distortion of phase and magnitude. When assuming only a free sound field without considering the shape of a platform as in the prior art, accurate sound source position estimation may not occur.

또한 같은 지연시간을 가지는 음원의 위치는 3차원 공간상에 무수히 많으므로, 도1b와 같은 원추형 혼동면(cone of confusion)(30)이 발생하게 된다. 즉, 지 연시간차에만 근거하여 음원의 위치를 추정하면 앞-뒤 구분, 위-아래 구분이 안 되는 문제점이 있다. 즉, 두개의 마이크로폰(20)만으로는 음원이 존재하는 수평각과 고도각을 동시에 추정할 수 없다는 문제점이 있다. In addition, since the location of the sound source having the same delay time is numerous in the three-dimensional space, a cone of confusion 30 as shown in FIG. 1B is generated. In other words, when estimating the position of the sound source based only on the delay time difference, there is a problem in that the front-rear separation and the upper-low classification cannot be made. That is, there is a problem in that only two microphones 20 cannot simultaneously estimate the horizontal angle and the altitude angle at which the sound source exists.

본 발명의 목적은 머리전달함수를 미리 측정하여 데이터베이스화 한 후 이를 이용함으로써, 3차원 공간상에 있는 음원의 수평각 및 고도각을 동시에 추정할 수 있는 지능로봇 산업이나 방범용 CCTV, 원격회의용 카메라 등에 활용가능한 음원위치 추정 방법을 제공하기 위한 것이다.The object of the present invention is to measure the head transfer function in advance and use it as a database, and then use it to intelligently estimate the horizontal and altitude angles of sound sources in a three-dimensional space. It is to provide a sound source position estimation method that can be utilized.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예가 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings such that those skilled in the art can easily implement the present invention.

본 발명에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법은 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계, 제 1 단계에서 습득된 신호를 처리하여 데이터베이스를 구축하는 제 2 단계, 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계, 제 3 단계에서 습득된 신호들을 처리하여 위상차 및/또는 크기비를 계산하는 제 4 단계, 위상척도 및/또는 크기척도를 계산하는 제 5 단계, 및 추적 대상 음원 위치를 추정하는 제 6 단계를 포함하여 구성된다.In the sound source position estimation method using the head transfer function database according to the present invention, a first step of acquiring a signal for constructing a database, a second step of constructing a database by processing a signal acquired in the first step, and a target sound source are generated. A third step of acquiring a sound wave signal through a microphone, a fourth step of processing the signals acquired in the third step to calculate a phase difference and / or a magnitude ratio, a fifth step of calculating a phase scale and / or a magnitude scale, And a sixth step of estimating the track target sound source position.

도 2는 머리전달함수의 개념도이다. 도 2에 도시된 바와 같이, 음원(40)에서 발생한 음파는 플랫폼(50)의 머리중심점, 두개의 측정점인 제 1 마이크호폰(54), 제 2 마이크로폰(55)에 도달한다. 머리전달함수(Head Related Transfer Function)의 정의는 다음과 같다.2 is a conceptual diagram of a head transfer function. As shown in FIG. 2, sound waves generated from the sound source 40 reach the head center point of the platform 50, two measurement points, the first microphone call phone 54 and the second microphone 55. The definition of the head related transfer function is as follows.

Figure 112005029003159-PAT00003
Figure 112005029003159-PAT00003

Figure 112005029003159-PAT00004
Figure 112005029003159-PAT00005
,
Figure 112005029003159-PAT00004
Figure 112005029003159-PAT00005
,

여기서, PS는 음원에서의 음압이고, Pff는 머리중심점에서의 음압이며, PS는 측정점에서 음압이다. 즉, HRTF는 플랫폼(50)이 있을 때 음원(40)에서 방사된 음파가 플랫폼(50)의 제 1, 2 마이크로폰(54, 55)에 도달하여 맺히는 음압과 플랫폼(50)의 형상이 없을 때 음원(40)에서 방사된 음파가 플랫폼(50)의 머리중심점 위치에 도달하여 맺히는 음압(free-filed pressure)의 비이다. 따라서, HRTF에는 플랫폼(50)의 형상에 따른 반사, 회절, 산란 등의 영향이 반영되어 있다. HRTF는 음원(40)이 존재하는 위치 즉, 수평각, 고도각, 거리에 의존하여 달라진다.Where P S is the sound pressure at the sound source, P ff is the sound pressure at the head center point, and P S is the sound pressure at the measurement point. That is, the HRTF is when the sound wave emitted from the sound source 40 reaches the first and second microphones 54 and 55 of the platform 50 and there is no shape of the platform 50 when the platform 50 is present. The sound wave radiated from the sound source 40 reaches the head center position of the platform 50 and is a ratio of free-filed pressure. Therefore, the HRTF reflects the influence of reflection, diffraction, scattering, etc. according to the shape of the platform 50. The HRTF varies depending on the position where the sound source 40 exists, that is, the horizontal angle, the altitude angle, and the distance.

도 3은 1m 거리의 음원에 대해 고도각 0°에서 수평각 변화에 따른 양 귀의 HRTF 크기를 보여주는 실험 데이터이다. 도 4는 1m 거리의 음원에 대해 수평각 30°에서 고도각 변화에 따른 왼쪽 귀의 HRTF 크기를 보여주는 실험 데이터이다. 즉, 도 3 및 도 4는 플랫폼(더미헤드)(50)에 대해 무향실에서 음원의 수평각, 고도각 변화에 따른 HRTF 측정 결과를 보여준다. 종축은 주파수이고, 횡축은 HRTF의 크기이다.3 is experimental data showing the HRTF size of both ears according to the horizontal angle change at an altitude of 0 ° for a sound source at a distance of 1 m. 4 is experimental data showing the HRTF size of the left ear according to the elevation angle change at a horizontal angle of 30 ° for a sound source at a distance of 1m. That is, FIG. 3 and FIG. 4 show HRTF measurement results according to changes in the horizontal angle and the elevation angle of the sound source in the anechoic chamber with respect to the platform (dummy head) 50. The vertical axis is frequency and the horizontal axis is the size of HRTF.

도 3 및 도 4에 도시된 바와 같이, HRTF는 수평각과 고도각에 의존하는 성질을 가진다. 본 발명에서는 이런 특징을 미리 측정하여 데이터베이스화 한 후, 실제 각 마이크로폰에 들어온 신호의 위상차와 크기비를 HRTF 데이터베이스와 비교하여 음원의 위치를 추정한다. 측정한 결과와 보유하고 있는 HRTF 데이터와의 정량적인 비교를 위해 본 발명에서는 위상척도와 크기척도를 사용한다.As shown in Figures 3 and 4, HRTF has a property that depends on the horizontal angle and the elevation angle. In the present invention, after measuring these characteristics in advance and making a database, the position of the sound source is estimated by comparing the phase difference and magnitude ratio of the signal actually input to each microphone with the HRTF database. In the present invention, the phase scale and the size scale are used for the quantitative comparison between the measured result and the retained HRTF data.

Figure 112005029003159-PAT00006
Figure 112005029003159-PAT00006

Figure 112005029003159-PAT00007
,
Figure 112005029003159-PAT00007
,

여기서,

Figure 112005029003159-PAT00008
은 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 코히어런스 함수(coherence function),
Figure 112005029003159-PAT00009
는 오른쪽 머리전달함수와 왼쪽 머리전달함수의 위상차,
Figure 112005029003159-PAT00010
는 오른쪽 머리전달함수와 왼쪽 머리전달함수의 크기비,
Figure 112005029003159-PAT00011
는 추적 대상 음원에 대한 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 위상차,
Figure 112005029003159-PAT00012
: 추적 대상 음원에 대한 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 크기비이다. 적분 기호는 추정하고자 하는 음원의 주파수 대역만을 선택하여 더하는 것을 의미한다. 한예로, 사람의 음성을 추정하는 경우 음성주파수 대역인 300Hz~3.4kHz 대역의 차이만을 더하는 것이 된다. 이렇게 함으로써 원치 않는 주파수대역의 신호를 배제하고 음원의 위치를 추정할 수 있게 된다. 또한, 코히어런스 함수는 두 신호간의 일관성 혹은 데이터의 신뢰성을 나타내는 척도로써, 측정 신호의 위상차(크기비)와 HRTF 데이터의 위상차(크기비)간의 차이에 상관 함수를 곱해줌으로 인해 신뢰성 있는 정보만을 이용하게 되는 결과를 가져온다. here,
Figure 112005029003159-PAT00008
Is the coherence function of the right and left microphone output signals,
Figure 112005029003159-PAT00009
Is the phase difference between the right head transfer function and the left head transfer function,
Figure 112005029003159-PAT00010
Is the size ratio of the right head transfer function and the left head transfer function,
Figure 112005029003159-PAT00011
Is the phase difference between the right and left microphone output signals for the sound source to be tracked,
Figure 112005029003159-PAT00012
: The ratio of the right and left microphone output signals to the sound source to be tracked. The integral symbol means selecting and adding only a frequency band of a sound source to be estimated. For example, when estimating a human voice, only the difference between the 300 Hz and 3.4 kHz bands of the voice frequency band is added. This makes it possible to estimate the position of the sound source, excluding signals in unwanted frequency bands. In addition, the coherence function is a measure of the consistency or reliability of data between two signals. This results in using the bay.

만약 추적 대상 음원의 위치에 해당하는 HRTF 데이터를 사용할 경우 측정 신호간의 위상차(크기비)와 HRTF 데이터를 이용한 위상차(크기비)의 차이가 작아지므로, 보유하고 있는 음원의 위치별 HRTF 데이터베이스에 대해 위상척도와 크기척도를 각각 구하여 위상척도와 크기척도를 최소화하는 HRTF 데이터 셋을 찾음으로써 음원의 위치(수평각, 고도각)를 추정할 수 있다.If the HRTF data corresponding to the position of the sound source to be tracked is used, the difference between the phase difference (magnitude ratio) between the measured signals and the phase difference (magnitude ratio) using the HRTF data is reduced, so that the phase of the HRTF database by position of the sound source is retained We can estimate the position of the sound source (horizontal angle, elevation angle) by finding the HRTF data set that minimizes the phase scale and the size scale by obtaining the scale and the size scale respectively.

도 5a는 고도각 0°인 경우 수평각 변화에 따른 음원의 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 5b는 자유음장을 고려하여 계산한 위상척도이다. 비교를 위해 자유음장을 가정한 경우의 결과를 함께 나타내었다. 도 5a의 첫번째 그림의 횡축은 위상척도이고, 종축중 일축은 HRTF 각도, 타축은 실제각도이다. 두번째 그림의 횡축은 HRTF 각도이고 종축은 실제각도이다. 도 b도 위와 같다.FIG. 5A is a phase scale calculated using HRTF data of a sound source according to a horizontal angle change at an elevation angle of 0 °, and FIG. 5B is a phase scale calculated in consideration of a free sound field. The results of assuming a free sound field for comparison are also shown. The horizontal axis of the first figure of FIG. 5A is a phase scale, one axis of the vertical axis is an HRTF angle, and the other axis is an actual angle. The horizontal axis in the second figure is the HRTF angle and the vertical axis is the actual angle. B is also the same as above.

도 5a 및 도 5b를 참조하면, 실제 음원 위치 부근의 머리전달함수를 이용했을 때 위상척도의 값이 적게 나오는 것을 확인할 수 있다. 즉, 실제 음원의 각도에 대해 머리전달함수 각도(HRTF angle)을 변화시켜가며 위상척도를 계산했을 때, 머리전달함수 각도와 실제 음원의 각도가 같을 때 위상척도 값이 가장 작게 나온다. 이는 위상척도를 최소화하는 머리전달함수 각도를 구함으로써 음원의 위치를 추정할 수 있음을 보여준다. 그러나 실제 음원 위치와 대칭되는 각도에서도 위상척도의 값이 작게 나오는데, 이는 위상차만을 이용하면 앞-뒤 구분이 모호해지는 프런트-백 컨퓨젼(front-back confusion) 현상이 발생함을 의미한다. 사람과 마찬가지로 더미헤드의 앞-뒤가 거의 대칭에 가깝기 때문에 나타나는 결과이며, 자유 음장(free-field)을 가정했을 때 역시 이와 같은 현상이 발생한다. 그러나 위 결과에 나타난 것처럼 머리전달함수를 고려하여 수평각을 추정한 것이 단순히 자유 음장에서 수평각을 추정한 것 보다 음원 위치 추정 성능이 향상된다. 특히 음원이 한쪽 귀에 치우쳐 있는 약 부근에서 더욱 확실해 지는데, 음원이 이 위치에 있을 때 음원에서 방사된 음파가 더미헤드의 머리 부분에 부딪혀 반대쪽 마이크로폰까지 돌아가는 길이가 가장 길기 때문이다.5A and 5B, it can be seen that the value of the phase scale is less when the head transfer function near the actual sound source position is used. That is, when the phase scale is calculated by changing the HRTF angle with respect to the actual sound source angle, the phase scale value is the smallest when the angle of the head transfer function and the actual sound source are the same. This shows that the position of the sound source can be estimated by obtaining the angle of the head transfer function that minimizes the phase scale. However, even at an angle symmetrical with the actual sound source position, the value of the phase scale is small, which means that the front-back confusion phenomenon occurs that the front and back distinctions are blurred by using only the phase difference. As with humans, the result is that the front and rear of the dummy head are almost symmetrical, and this phenomenon also occurs when a free-field is assumed. However, as shown in the above results, the estimation of the horizontal angle in consideration of the head transfer function improves the sound source position estimation performance rather than simply estimating the horizontal angle in the free sound field. This is especially true in the vicinity of the medicine, where the sound source is biased to one ear, because when the sound source is in this position, the sound waves radiated from the sound source hit the head of the dummy head and travel the longest to the opposite microphone.

도 6a는 수평각이 30°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도, 도 6b는 크기척도이다. 도 6c는 수평각이 60°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 6d는 크기척도이다. 도 6a, 도 6b, 도 6c, 및 도 6d의 횡축은 HRTF 각도이고, 종축은 실제각도이다.6A is a phase scale calculated using HRTF data according to a change in elevation angle when the horizontal angle is 30 °, and FIG. 6B is a size scale. 6C is a phase scale calculated using HRTF data according to a change in elevation angle when the horizontal angle is 60 °, and FIG. 6D is a size scale. 6A, 6B, 6C, and 6D, the abscissa axis represents the HRTF angle, and the ordinate axis represents the actual angle.

도 6a 및 도 6c에 도시된 바와 같이, 위상척도를 사용할 경우에는 수평각 추 정에서 앞-뒤 구분이 모호해지는 현상이 발생하듯이, 고도각 추정에서도 상-하 구별이 안 되는 현상이 발생함을 결과에서 알 수 있다. 그러나 수평각 변화의 경우처럼 명확하게 보이지 않는 이유는 사람이 양귀를 기준으로 상하가 대칭이 아니듯이, 마이크로폰을 기준으로 더미헤드가 상하 대칭이 아니기 때문이다. 더미헤드의 외이, 코, 헤드의 형태 등을 고려하더라도 더미헤드의 앞과 뒤는 거의 대칭성을 가지지만, 상하는 몸통(torso) 등으로 인해 대칭적이지 않고, 이런 영향이 머리전달함수의 크기 정보에 담겨있다.As shown in FIG. 6A and FIG. 6C, when the phase scale is used, the front-and-back distinction occurs in the horizontal angle estimation, so that the phenomenon that cannot be distinguished from the upper and lower sides also occurs in the elevation angle estimation. This can be seen from the results. However, the reason why it is not obvious as in the case of the horizontal angle change is that the dummy head is not symmetrical with respect to the microphone, just as a person is not symmetrical with respect to both ears. Considering the outer ear, nose and head shape of the dummy head, the front and rear of the dummy head are almost symmetrical, but the upper and lower bodies are not symmetrical due to the torso, and the influence is contained in the size information of the head transfer function. have.

도 6b 및 도 6d에 도시된 바와 같이, 고도각 추정에는 크기척도를 사용하는 것이 더 나은 추정성능을 보여준다. 그리고 종래 기술인 자유음장에서 각 마이크로폰의 지연시간을 이용해서는 앞서 서술한 것처럼 수평각과 고도각을 동시에 추정할 수가 없다.As shown in Figs. 6B and 6D, it is better to use the size scale for the elevation angle estimation. In the conventional free sound field, the delay time of each microphone cannot be used to estimate the horizontal and altitude angles as described above.

도 7은 본 발명의 일실시예에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 흐름도이다. 도 7에 도시된 바와 같이, 본 발명에 따른 음원 위치 추정 방법은 크게 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계(S1), 제 1 단계(S1)에서 습득된 신호를 처리하여 데이터베이스를 구축하는 제 2 단계(S2), 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계(S3), 제 3 단계에서 습득된 신호들을 처리하여 위상차 및/또는 크기비를 계산하는 제 4 단계(S4), 위상척도 및/또는 크기척도를 계산하는 제 5 단계(S5), 및 추적 대상 음원 위치를 추정하는 제 6 단계(S6)를 포함하여 구성된다.7 is a flowchart illustrating a sound source position estimation method using a head transfer function database according to an embodiment of the present invention. As shown in FIG. 7, the sound source position estimation method according to the present invention processes a signal acquired in a first step S1 and a first step S1 to acquire a signal for constructing a database. A second step S2, a third step S3 of acquiring a sound wave signal generated by the sound source to be tracked through the microphone, and a fourth step of processing the signals acquired in the third step to calculate a phase difference and / or a magnitude ratio (S4), a fifth step (S5) of calculating a phase scale and / or a size scale, and a sixth step (S6) of estimating a track target sound source position.

제 1단계(S1)에서는 적용하고자 하는 플랫폼(로봇, 더미헤드 등)(50)에 대해 3차원 공간(예를들어, 무향실) 상에서 음원(40)의 위치(예를들어, 수평각, 고도각)를 달리하면서 음파 신호를 두개의 제 1, 2 마이크로폰(54, 55)을 통하여 습득한다.In the first step S1, the position (eg, horizontal angle, elevation angle) of the sound source 40 in a three-dimensional space (eg, an anechoic chamber) with respect to the platform (robot, dummy head, etc.) 50 to be applied. Acquisition of the sound wave signals through the two first and second microphones 54 and 55 while different.

제 2 단계(S2)에서는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 제 1단계(S1)에서 습득된 신호들의 머리전달함수를 구하여 데이터베이스를 구축한다.In the second step S2, a database is constructed by obtaining a head transfer function of signals acquired in the first step S1 in a predetermined range of the audible frequency bands by signal processing.

제 3단계(S3)에서는 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득한다.In the third step S3, the sound wave signals generated by the sound source to be tracked are acquired through two microphones.

제 4 단계(S4)에서는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차, 크기비, 또는 위상차 및 크기비를 계산한다. 제 4 단계(S4)에서는 코히어런스 함수, 오토-스펙트럴 밀도 함수(auto-spectral density function), 크로스-스펙트럴 밀도 함수(cross-spectral density function)를 구할 수 있고, 이 함수들을 이용하여 위상차 또는 크기비를 구함이 바람직하다.In the fourth step S4, phase difference, magnitude ratio, or phase difference and magnitude ratio between the signals acquired in the third step are calculated in a predetermined range of the audible frequency band by signal processing. In the fourth step S4, a coherence function, an auto-spectral density function, and a cross-spectral density function can be found, and the phase difference is used using these functions. Or it is preferable to obtain the size ratio.

제 5단계(S5)에서는 제 2 단계(S2)에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 제 4단계(S4)에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구한다. 또한, 제 5단계에서는 제 2 단계(S2)에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 크기비들과 제 4단계(S4)에서 구해진 크기비의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파 수 대역에서 적분하여 크기척도를 구할 수 있다. 또는, 위상척도와 크기척도를 모두 구할 수도 있다.In the fifth step S5, the square of the coherence function is the square of the difference between the phase differences of the head transfer function for each sound source position stored in the database in the second step S2 and the phase difference obtained in the fourth step S4. The phase scale is obtained by integrating the value multiplied by in a range of audible frequency bands. Further, in the fifth step, the square of the coherence function is the square of the difference between the size ratios of the head transfer function for each sound source position stored in the database in the second step S2 and the size ratio obtained in the fourth step S4. The magnitude scale can be obtained by integrating the value multiplied by in a range of audible frequencies. Alternatively, both phase and magnitude scales can be obtained.

제 6 단계(S6)에서는 제 5단계(S5)에서 구해진 위상척도, 크기척도들 중 다른 위상척도, 크기척도들보다 상대적으로 작은 위상척도, 크기척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정한다.In the sixth step S6, the sound source position in the database having the phase scale obtained in the fifth step S5, the other phase scales among the size scales, the phase scale relatively smaller than the size scales, and the size scale is used as the target sound source position. Estimate.

상기와 같은 구성으로 되는 본 발명에 의한 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 작용을 설명한다.The operation of the sound source position estimation method using the head transfer function database according to the present invention having the above configuration will be described.

먼저, 도 2 및 도 3에 보여진 실험의 결과는 음파 신호의 습득 및 처리를 위해 통상의 신호증폭기, 마이크로폰, 주파수분석기 등을 사용하였으나, 신호 습득 및 처리가 가능한 대체 장비와 주파수분석 소프트웨어를 이용할 수도 있다.First, the results of the experiments shown in FIGS. 2 and 3 used conventional signal amplifiers, microphones, and frequency analyzers for acquiring and processing sound wave signals, but alternative equipment and frequency analysis software capable of signal acquisition and processing may be used. have.

본 발명에 따르면 추적 대상 음원이 위치하는 곳에서 측정된 머리전달함수를 사용하여 구한 위상척도와 크기척도는 머리전달함수 구축 과정의 음장(예를들어, 무한평면)과 음원 위치 추적 대상이 되는 음원이 놓인 음장(예를들어, 무한 평면)이 완전히 같고 신호 습득 및 처리에 있어 오차가 발생하지 않는다고 가정하면, 이론상으로 0이 된다. 위상척도와 크기척도는 작다는 것은 추적 대상 음원이 머리전달함수 측정시의 음원 위치 가까이에 있다는 것을 의미한다. 음장의 차이나 신호 처리상의 작은 오차 등을 고려하더라도 이러한 척도들의 기능은 충분히 유지된다.According to the present invention, the phase scale and the size scale obtained by using the head transfer function measured at the location of the track target sound source are the sound field (for example, infinite plane) and the sound source position tracking target of the head transfer function construction process. Assuming that this sound field (e.g., infinite plane) is exactly the same and there is no error in signal acquisition and processing, it is theoretically zero. The small phase and magnitude scales mean that the tracked sound source is near the sound source location when the head transfer function is measured. Even if the difference in sound field or small error in signal processing is taken into consideration, the function of these measures is sufficiently maintained.

발명은 상술한 실시예를 기준으로 주로 설명되었으나, 발명의 요지와 범위를 벗어나지 않고 많은 다른 가능한 수정과 변형이 이루어질 수 있다. 예컨대, 위상척도를 구하면서 제 2 단계에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수 의 위상차들과 제 4단계에서 구해진 위상차와의 차이의 제곱값이 아닌 상기 차이의 절대값을 이용하는 등은 본 발명의 상술한 실시예로부터 당업자가 용이하게 도출할 수 있는 변경일 것이다.Although the invention has been described primarily with reference to the above-described embodiments, many other possible modifications and variations can be made without departing from the spirit and scope of the invention. For example, using the absolute value of the difference, not the square value of the difference between the phase differences of the head transfer function for each sound source position stored in the database in the second step and the phase difference obtained in the fourth step while obtaining the phase scale. It will be a change that can be easily derived by those skilled in the art from the above-described embodiment.

본 발명에 따른 머리전달함수를 이용한 음원 위치 추적 방법을 사용하는 경우, 3차원 공간상에 있는 음원의 수평각 및 고도각을 동시에 추정할 수 있다. 따라서, 지능로봇 산업이나 방범용 CCTV, 원격회의용 카메라 등에 활용가능한 음원위치 추정 방법을 제공된다. 또한, 위상척도와 크기척도를 이용하면 앞서 언급한 종래기술의 문제점을 해결하며 종래 기술보다 더 정확한 음원 위치 추정을 할 수 있다.When using the sound source position tracking method using the head transfer function according to the present invention, it is possible to estimate the horizontal angle and the altitude angle of the sound source in the three-dimensional space at the same time. Accordingly, a sound source position estimation method that can be utilized for the intelligent robot industry, security CCTV, teleconferencing camera, or the like is provided. In addition, the use of the phase scale and the size scale solves the above-mentioned problems of the prior art and enables more accurate sound source position estimation than the prior art.

전술한 발명에 대한 권리범위는 이하의 청구범위에서 정해지는 것으로서, 명세서 본문의 기재에 구속되지 않으며, 청구범위의 균등범위에 속하는 변형과 변경은 모두 본 발명의 범위에 속할 것이다.The scope of the above-described invention is defined in the following claims, not bound by the description in the text of the specification, all modifications and variations belonging to the equivalent scope of the claims will fall within the scope of the invention.

Claims (6)

음원 위치 추적 방법에 있어서,In the sound source position tracking method, 적용하고자 하는 플랫폼(50)에 대해 3차원 공간 상에서 음원의 위치를 달리하면서 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 1단계;A first step of acquiring a sound wave signal through two microphones while changing a position of a sound source in a three-dimensional space with respect to the platform 50 to be applied; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 음파 신호들의 머리전달함수를 구하여 데이터베이스를 구축하는 제 2 단계;A second step of constructing a database by obtaining a head transfer function of the sound wave signals in a predetermined range of an audible frequency band by signal processing; 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 3단계;A third step of acquiring a sound wave signal generated by the sound source to be tracked through two microphones; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차를 계산하는 제 4 단계;A fourth step of calculating a phase difference between the signals acquired in the third step in a predetermined range of the audible frequency bands by signal processing; 상기 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 제 4단계에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구하는 제 5단계; 및The phase scale is obtained by integrating the square value of the difference between the phase differences of the head transfer function for each sound source location stored in the database and the phase difference obtained in the fourth step by the square of the coherence function in a range of audio frequencies. Obtaining a fifth step; And 상기 위상척도들 중 다른 위상척도들보다 상대적으로 작은 위상척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정하는 제 6 단계;를 포함하여 구성되는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.A sixth step of estimating a sound source position in a database having a phase scale relatively smaller than other phase scales among the phase scales as a target sound source position; and tracking the sound source position using the head transfer function Way. 제 1항에 있어서,The method of claim 1, 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.The fourth step is to obtain a coherence function, auto-spectral density function, cross-spectral density function further characterized in that the sound source position tracking method using the head transfer function. 음원 위치 추적 방법에 있어서,In the sound source position tracking method, 적용하고자 하는 플랫폼(50)에 대해 3차원 공간 상에서 음원(40)의 위치를 달리하면서 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 1단계;A first step of acquiring sound wave signals through two microphones while varying the position of the sound source 40 in a three-dimensional space with respect to the platform 50 to be applied; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 음파 신호들의 머리전달함수를 구하여 데이터베이스를 구축하는 제 2 단계;A second step of constructing a database by obtaining a head transfer function of the sound wave signals in a predetermined range of an audible frequency band by signal processing; 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 3단계;A third step of acquiring a sound wave signal generated by the sound source to be tracked through two microphones; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 크기비를 계산하는 제 4 단계;A fourth step of calculating a magnitude ratio between the signals acquired in the third step in a predetermined range of the audible frequency bands by signal processing; 상기 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 크기비들과 제 4단계에서 구해진 크기비의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 크기척도를 구하는 제 5단계; 및The magnitude scale by integrating a square value of the difference between the size ratios of the head transfer function for each sound source location and the size ratio obtained in the fourth step by the square of the coherence function in a range of audible frequency bands stored in the database. Obtaining a fifth step; And 상기 크기척도들 중 다른 크기척도들보다 상대적으로 작은 크기척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정하는 제 6 단계;를 포함하여 구성되는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.A sixth step of estimating a location of a sound source on a database having a size scale relatively smaller than other size scales among the size scales as a target sound source position; and tracking the sound source position using the head transfer function Way. 제 3항에 있어서,The method of claim 3, wherein 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.The fourth step is to obtain a coherence function, auto-spectral density function, cross-spectral density function further characterized in that the sound source position tracking method using the head transfer function. 제 3 항에 있어서,The method of claim 3, wherein 상기 제 4 단계는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차를 계산하는 단계;를 더 포함하고,The fourth step may further include calculating a phase difference between the signals acquired in the third step in a predetermined range of the audible frequency band by signal processing. 상기 제 5 단계는 상기 제 2 단계에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 상기 제 4단계에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구하는 단계;를 더 포함하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.In the fifth step, the square value of the difference between the phase differences of the head transfer function for each sound source position stored in the database in the second step and the phase difference obtained in the fourth step is multiplied by the square of the coherence function. Obtaining a phase scale by integrating in an audible frequency band of the sound source position tracking method using a head transfer function further comprising. 제 5항에 있어서,The method of claim 5, 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.The fourth step is to obtain a coherence function, auto-spectral density function, cross-spectral density function further characterized in that the sound source position tracking method using the head transfer function.
KR1020050046371A 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database KR100730297B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Publications (2)

Publication Number Publication Date
KR20060124443A true KR20060124443A (en) 2006-12-05
KR100730297B1 KR100730297B1 (en) 2007-06-19

Family

ID=37729195

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Country Status (1)

Country Link
KR (1) KR100730297B1 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101982793A (en) * 2010-10-20 2011-03-02 武汉大学 Mobile sound source positioning method based on stereophonic signals
CN106405501A (en) * 2015-07-29 2017-02-15 中国科学院声学研究所 Single sound source location method based on phase difference regression
CN106768284A (en) * 2016-12-20 2017-05-31 西安科技大学 A kind of abnormal sound source judges and alignment system and method
CN110493701A (en) * 2019-07-16 2019-11-22 西北工业大学 HRTF personalization method based on sparse principal component analysis
CN115460526A (en) * 2022-11-11 2022-12-09 荣耀终端有限公司 Method for determining hearing model, electronic equipment and system

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR0185021B1 (en) * 1996-11-20 1999-04-15 한국전기통신공사 Auto regulating apparatus and method for multi-channel sound system
KR100194811B1 (en) * 1996-12-21 1999-06-15 정선종 Standard Head Transfer Function Measuring Device
KR100340043B1 (en) * 1999-12-23 2002-06-12 오길록 3d sound generation using compensated head related transfer function

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101982793A (en) * 2010-10-20 2011-03-02 武汉大学 Mobile sound source positioning method based on stereophonic signals
CN106405501A (en) * 2015-07-29 2017-02-15 中国科学院声学研究所 Single sound source location method based on phase difference regression
CN106405501B (en) * 2015-07-29 2019-05-17 中国科学院声学研究所 A kind of simple sund source localization method returned based on phase difference
CN106768284A (en) * 2016-12-20 2017-05-31 西安科技大学 A kind of abnormal sound source judges and alignment system and method
CN106768284B (en) * 2016-12-20 2021-04-20 西安科技大学 Abnormal sound source judging and positioning system and method
CN110493701A (en) * 2019-07-16 2019-11-22 西北工业大学 HRTF personalization method based on sparse principal component analysis
CN115460526A (en) * 2022-11-11 2022-12-09 荣耀终端有限公司 Method for determining hearing model, electronic equipment and system

Also Published As

Publication number Publication date
KR100730297B1 (en) 2007-06-19

Similar Documents

Publication Publication Date Title
TWI556654B (en) Apparatus and method for deriving a directional information and systems
TWI530201B (en) Sound acquisition via the extraction of geometrical information from direction of arrival estimates
US9351071B2 (en) Audio source position estimation
Ba et al. L1 regularized room modeling with compact microphone arrays
JP5686358B2 (en) Sound source distance measuring device and acoustic information separating device using the same
Grobler et al. Sound based localization and identification in industrial environments
Pourmohammad et al. N-dimensional N-microphone sound source localization
Hon et al. Audio fingerprinting for multi-device self-localization
Wu et al. Locating arbitrarily time-dependent sound sources in three dimensional space in real time
US8369550B2 (en) Artificial ear and method for detecting the direction of a sound source using the same
KR20060124443A (en) Sound source localization method using head related transfer function database
Atmoko et al. Accurate sound source localization in a reverberant environment using multiple acoustic sensors
Ollivier et al. Noise robust bird call localisation using the generalised cross-correlation with phase transform in the wavelet domain
Paulose et al. Acoustic source localization
KR20090128221A (en) Method for sound source localization and system thereof
US10375501B2 (en) Method and device for quickly determining location-dependent pulse responses in signal transmission from or into a spatial volume
EP3182734B1 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
KR100931401B1 (en) Artificial ear causing spectral distortion and sound source direction detection method using same
Al-Sheikh et al. Sound source direction estimation in horizontal plane using microphone array
CN114830686A (en) Improved localization of sound sources
Zhao et al. Design and evaluation of a prototype system for real-time monitoring of vehicle honking
Ding et al. DOA estimation of multiple speech sources by selecting reliable local sound intensity estimates
Ghamdan et al. Position estimation of binaural sound source in reverberant environments
KR101483271B1 (en) Method for Determining the Representative Point of Cluster and System for Sound Source Localization
Suo et al. Single acoustic vector sensor DOA enhanced by unsaturated bistable stochastic resonance with linear amplitude response constrained

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120605

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee