KR100730297B1 - Sound source localization method using Head Related Transfer Function database - Google Patents

Sound source localization method using Head Related Transfer Function database Download PDF

Info

Publication number
KR100730297B1
KR100730297B1 KR1020050046371A KR20050046371A KR100730297B1 KR 100730297 B1 KR100730297 B1 KR 100730297B1 KR 1020050046371 A KR1020050046371 A KR 1020050046371A KR 20050046371 A KR20050046371 A KR 20050046371A KR 100730297 B1 KR100730297 B1 KR 100730297B1
Authority
KR
South Korea
Prior art keywords
sound source
phase
sound
database
transfer function
Prior art date
Application number
KR1020050046371A
Other languages
Korean (ko)
Other versions
KR20060124443A (en
Inventor
박영진
황성목
Original Assignee
한국과학기술원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술원 filed Critical 한국과학기술원
Priority to KR1020050046371A priority Critical patent/KR100730297B1/en
Publication of KR20060124443A publication Critical patent/KR20060124443A/en
Application granted granted Critical
Publication of KR100730297B1 publication Critical patent/KR100730297B1/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S5/00Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations
    • G01S5/18Position-fixing by co-ordinating two or more direction or position line determinations; Position-fixing by co-ordinating two or more distance determinations using ultrasonic, sonic, or infrasonic waves
    • G01S5/30Determining absolute distances from a plurality of spaced points of known location
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones

Abstract

본 발명은 머리전달함수를 이용한 음원 위치 추적 방법에 관한 것이다. 좀 더 구체적으로, 플랫폼(50)에 대해 3차원 공간(예를 들어, 무향실) 상에서 음원의 위치를 달리하면서 음파 신호를 두개의 마이크로폰(54, 55)을 통하여 습득하는 제 1단계; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 제 1단계에서 습득된 신호들의 머리전달함수를 구하여 데이터베이스를 구축하는 제 2 단계; 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 3단계; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 제 3단계에서 습득된 신호들 사이의 위상차를 계산하는 제 4 단계; 제 2 단계에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 제 4단계에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구하는 제 5단계; 및 제 5단계에서 구해진 위상척도들 중 다른 위상척도들보다 상대적으로 작은 위상척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정하는 제 6 단계;를 포함하여 구성되는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법에 관한 것이다.The present invention relates to a sound source location tracking method using a head transfer function. More specifically, a first step of acquiring a sound wave signal through two microphones 54, 55 while varying the position of a sound source on a three-dimensional space (for example, an anechoic room) with respect to the platform 50; A second step of constructing a database by obtaining a head transfer function of signals acquired in the first step in a certain range of the audio frequency band by signal processing; A third step of acquiring a sound wave signal generated by the sound source to be tracked through two microphones; A fourth step of calculating a phase difference between signals acquired in the third step in a certain range of the audio frequency band by signal processing; In the second step, the value obtained by multiplying the square of the difference between the phase differences of the head transfer function and the phase difference obtained in the fourth step stored in the database by the square of the coherence function is integrated in a certain range of the audio frequency band A fifth step of obtaining a phase scale; And a sixth step of estimating a position of a sound source on a database having a phase scale relatively smaller than that of the other phase measures obtained in the fifth step to a position of the subject sound source to be traced. To a sound source location tracking method using the same.

음원, 위치 추적, 머리전달함수, 위상척도, 크기척도, 마이크로폰 Sound source, position tracking, head transfer function, phase scale, size scale, microphone

Description

머리전달함수 데이터베이스를 이용한 음원 위치 추정 방법{Sound source localization method using Head Related Transfer Function database}[0001] The present invention relates to a sound source localization method using a head transfer function database,

도 1a는 종래의 음원위치 추정 방법의 개념도, 도 1b는 원추형 혼동면의 개념도이다.FIG. 1A is a conceptual diagram of a conventional method for estimating a sound source position, and FIG. 1B is a conceptual diagram of a cone-shaped confusion plane.

도 2는 머리전달함수의 개념도이다.2 is a conceptual diagram of a head transfer function.

도 3은 1m 거리의 음원에 대해 고도각 0°인 경우, 수평각 변화에 따른 양 귀의 HRTF 크기를 보여주는 실험 데이터이다.FIG. 3 is experimental data showing the HRTF magnitude of the ears according to the horizontal angle change when the altitude angle is 0 ° for a sound source at a distance of 1m.

도 4는 1m 거리의 음원에 대해 수평각이 30°인 경우, 고도각 변화에 따른 왼쪽 귀의 HRTF 크기를 보여주는 실험 데이터이다.FIG. 4 is experimental data showing the HRTF size of the left ear according to the altitude change when the horizontal angle is 30 ° with respect to a sound source at a distance of 1m.

도 5a는 고도각 0°인 경우 수평각 변화에 따른 음원의 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 5b는 자유음장을 고려하여 계산한 위상척도이다.5A is a phase scale calculated by using HRTF data of a sound source according to a horizontal angle change at an altitude angle of 0 DEG, and FIG. 5B is a phase scale calculated by considering a free sound field.

도 6a는 수평각이 30°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도, 도 6b는 크기척도이다. 도 6c는 수평각이 60°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 6d는 크기척도이다.FIG. 6A is a phase scale calculated using HRTF data according to elevation angle change when the horizontal angle is 30 DEG, and FIG. 6B is a scale scale. FIG. 6C is a phase scale calculated using HRTF data according to the elevation angle change when the horizontal angle is 60 DEG, and FIG. 6D is a size scale.

도 7은 본 발명의 일실시예에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 흐름도이다.7 is a flowchart illustrating a sound source position estimation method using a head transfer function database according to an embodiment of the present invention.

<도면의 주요부분에 대한 설명>DESCRIPTION OF THE EMBODIMENTS

10 : 음파,10: sound waves,

20 : 마이크로폰,20: microphone,

30 : 원추형 혼동면,30: cone confusion plane,

40 : 음원,40: Sound source,

50 : 플랫폼,50: Platform,

54 : 제 1 마이크로폰,54: first microphone,

55 : 제 2 마이크로폰,55: second microphone,

100 : 흐름도.100: Flowchart.

본 발명은 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계, 데이터베이스를 구축하는 제 2 단계, 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계, 이 신호들의 위상차 및/또는 크기비를 계산하는 제 4 단계, 위상척도 및/또는 크기척도를 계산하는 제 5 단계, 및 추적 대상 음원 위치를 추정하는 제 6 단계를 포함하여 구성되는 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법에 관한 것이다.A second step of acquiring a signal for database construction, a second step of building a database, a third step of acquiring a sound wave signal generated by the sound source to be tracked through a microphone, a phase difference and / A fifth step of calculating a phase scale and / or a scale of scale, and a sixth step of estimating a location of a sound source to be traced, to a method of estimating a sound source position using a head transfer function database .

도 1a는 종래의 음원위치 추정 방법의 개념도이다. 도 1a에 도시된 바와 같이, 이 분야의 종래기술에는 자유음장을 가정하여 각 마이크로폰(20)에 들어오는 음파(10) 신호의 지연시간으로부터 3차원 공간상의 음원의 위치를 추정하는 방법이 주를 이룬다. 이때 음원의 위치각도와 지연시간

Figure 112005029003159-pat00001
사이의 관계는 다음과 같다.FIG. 1A is a conceptual diagram of a conventional sound source position estimation method. As shown in FIG. 1A, the prior art of this field is based on the assumption of a free sound field and a method for estimating the position of a sound source on a three-dimensional space from the delay time of a sound wave 10 signal input to each microphone 20 . At this time, the position angle of the sound source and the delay time
Figure 112005029003159-pat00001
The relationship between the two is as follows.

Figure 112005029003159-pat00002
Figure 112005029003159-pat00002

여기서, c는 음속이고, d는 지연거리이며, 2a는 두마이크로폰 사이의 거리며, 파이는 음원이 존재하는 각도이다. 따라서, 지연시간을 추정하면 음원의 존재 각도를 알 수가 있다. 이때 각 마이크로폰(20)의 출력신호간의 지연시간의 추정을 위해서는 일반화된 상호상관함수법(GCC: Generalized Cross-Correlation method)이 널리 사용되고 있다. 이는 각 마이크로폰(20)에 들어온 음파(10) 신호들의 상호상관계수를 구하여 최대값을 가지는 시간 지연를 구함으로써 지연시간을 추정하는 방법이다.Where c is the sound velocity, d is the delay distance, 2a is the distance between the two microphones, and Pi is the angle at which the sound source is present. Therefore, by estimating the delay time, the angle of presence of the sound source can be known. At this time, a generalized cross-correlation method (GCC) is widely used for estimating the delay time between output signals of the respective microphones 20. This is a method of estimating the delay time by obtaining a cross-correlation coefficient of the signals of the sound waves 10 entering each microphone 20 and obtaining a time delay having a maximum value.

이런 종래기술은 마이크로폰(20)이 장착되어 있는 플랫폼의 형상을 고려하지 않는 방법이다. 그러나 실제 로봇과 같은 대상 플랫폼은 특정 형상을 가지고 있고, 음원에서 방사된 음파(10)가 각 마이크로폰(20)에 도달하기까지는 이러한 플랫폼의 형상으로 인해 반사, 회절, 산란 등이 발생하게 된다. 따라서 이런 원인들로 인해 위상과 크기의 왜곡이 발생하게 되는데, 종래기술과 같이 플랫폼의 형상을 고려하지 않고 단순히 자유음장만을 가정할 경우 정확한 음원위치 추정이 안되는 경우가 발생한다. This conventional technique does not take into consideration the shape of the platform on which the microphone 20 is mounted. However, a target platform such as an actual robot has a specific shape, and reflection, diffraction, scattering, etc. occur due to the shape of the platform until the sound waves 10 radiated from the sound source reach each microphone 20. Therefore, phase and size distortions occur due to these causes. In case of assuming only a free sound field without considering the platform shape as in the prior art, accurate sound source position estimation may not be performed.

또한 같은 지연시간을 가지는 음원의 위치는 3차원 공간상에 무수히 많으므로, 도1b와 같은 원추형 혼동면(cone of confusion)(30)이 발생하게 된다. 즉, 지 연시간차에만 근거하여 음원의 위치를 추정하면 앞-뒤 구분, 위-아래 구분이 안 되는 문제점이 있다. 즉, 두개의 마이크로폰(20)만으로는 음원이 존재하는 수평각과 고도각을 동시에 추정할 수 없다는 문제점이 있다. Also, since the positions of the sound sources having the same delay time are numerous in the three-dimensional space, a cone of confusion 30 as shown in FIG. 1B is generated. That is, if the location of the sound source is estimated based only on the delay time difference, there is a problem in that it can not be divided into the forward-backward division and the up-down division. That is, there is a problem in that it is impossible to simultaneously estimate the horizontal angle and the altitude angle in which the sound sources exist using only two microphones 20.

본 발명의 목적은 머리전달함수를 미리 측정하여 데이터베이스화 한 후 이를 이용함으로써, 3차원 공간상에 있는 음원의 수평각 및 고도각을 동시에 추정할 수 있는 지능로봇 산업이나 방범용 CCTV, 원격회의용 카메라 등에 활용가능한 음원위치 추정 방법을 제공하기 위한 것이다.An object of the present invention is to provide an intelligent robot industry which can simultaneously estimate the horizontal angle and altitude angle of a sound source in a three-dimensional space by measuring a head transfer function in advance, And to provide a method for estimating an available sound source position.

이하, 본 발명이 속하는 기술분야에서 통상의 지식을 가진 자가 본 발명을 용이하게 실시할 수 있을 정도로 본 발명의 바람직한 실시예가 첨부된 도면을 참조하여 상세하게 설명하면 다음과 같다.DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings, so that those skilled in the art can easily carry out the present invention.

본 발명에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법은 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계, 제 1 단계에서 습득된 신호를 처리하여 데이터베이스를 구축하는 제 2 단계, 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계, 제 3 단계에서 습득된 신호들을 처리하여 위상차 및/또는 크기비를 계산하는 제 4 단계, 위상척도 및/또는 크기척도를 계산하는 제 5 단계, 및 추적 대상 음원 위치를 추정하는 제 6 단계를 포함하여 구성된다.A sound source location estimation method using a head transfer function database according to the present invention includes a first step of acquiring a signal for building a database, a second step of processing a signal acquired in the first step to construct a database, A fifth step of calculating a phase scale and / or a scale scale by calculating a phase difference and / or a magnitude ratio by processing the signals acquired in the third stage, a fourth step of acquiring a sound wave signal through a microphone, And a sixth step of estimating a sound source location to be tracked.

도 2는 머리전달함수의 개념도이다. 도 2에 도시된 바와 같이, 음원(40)에서 발생한 음파는 플랫폼(50)의 머리중심점, 두개의 측정점인 제 1 마이크호폰(54), 제 2 마이크로폰(55)에 도달한다. 머리전달함수(Head Related Transfer Function)의 정의는 다음과 같다.2 is a conceptual diagram of a head transfer function. 2, the sound waves generated in the sound source 40 reach the center of the head of the platform 50, the first microphone microphone 54, and the second microphone 55, which are two measurement points. The definition of the head related transfer function is as follows.

Figure 112005029003159-pat00003
Figure 112005029003159-pat00003

Figure 112005029003159-pat00004
Figure 112005029003159-pat00005
,
Figure 112005029003159-pat00004
Figure 112005029003159-pat00005
,

여기서, PS는 음원에서의 음압이고, Pff는 머리중심점에서의 음압이며, PS는 측정점에서 음압이다. 즉, HRTF는 플랫폼(50)이 있을 때 음원(40)에서 방사된 음파가 플랫폼(50)의 제 1, 2 마이크로폰(54, 55)에 도달하여 맺히는 음압과 플랫폼(50)의 형상이 없을 때 음원(40)에서 방사된 음파가 플랫폼(50)의 머리중심점 위치에 도달하여 맺히는 음압(free-filed pressure)의 비이다. 따라서, HRTF에는 플랫폼(50)의 형상에 따른 반사, 회절, 산란 등의 영향이 반영되어 있다. HRTF는 음원(40)이 존재하는 위치 즉, 수평각, 고도각, 거리에 의존하여 달라진다.Here, P S is the pressure in the sound source, sound pressure P ff is the center point of the head, P S is the pressure at the measuring point. That is, when the platform 50 is present, the sound waves radiated from the sound source 40 reach the first and second microphones 54 and 55 of the platform 50 and there is no sound pressure and the shape of the platform 50 And the ratio of the free-filed pressure caused by the sound waves radiated from the sound source 40 reaching the center of the head of the platform 50. Therefore, the HRTF reflects the influence of reflection, diffraction, scattering, and the like depending on the shape of the platform 50. The HRTF depends on the position where the sound source 40 is present, that is, the horizontal angle, the altitude angle, and the distance.

도 3은 1m 거리의 음원에 대해 고도각 0°에서 수평각 변화에 따른 양 귀의 HRTF 크기를 보여주는 실험 데이터이다. 도 4는 1m 거리의 음원에 대해 수평각 30°에서 고도각 변화에 따른 왼쪽 귀의 HRTF 크기를 보여주는 실험 데이터이다. 즉, 도 3 및 도 4는 플랫폼(더미헤드)(50)에 대해 무향실에서 음원의 수평각, 고도각 변화에 따른 HRTF 측정 결과를 보여준다. 종축은 주파수이고, 횡축은 HRTF의 크기이다.Fig. 3 is experimental data showing the HRTF magnitude of the ears according to the horizontal angle change at an altitude angle of 0 DEG for a sound source at a distance of 1 m. 4 is experimental data showing the HRTF size of the left ear according to the elevation angle change at a horizontal angle of 30 degrees with respect to a sound source at a distance of 1 m. 3 and 4 show HRTF measurement results of the platform (dummy head) 50 according to the horizontal angle and altitude angle of the sound source in the anechoic room. The vertical axis is the frequency, and the horizontal axis is the size of the HRTF.

도 3 및 도 4에 도시된 바와 같이, HRTF는 수평각과 고도각에 의존하는 성질을 가진다. 본 발명에서는 이런 특징을 미리 측정하여 데이터베이스화 한 후, 실제 각 마이크로폰에 들어온 신호의 위상차와 크기비를 HRTF 데이터베이스와 비교하여 음원의 위치를 추정한다. 측정한 결과와 보유하고 있는 HRTF 데이터와의 정량적인 비교를 위해 본 발명에서는 위상척도와 크기척도를 사용한다.As shown in Figs. 3 and 4, the HRTF has a property of being dependent on the horizontal angle and the altitude angle. According to the present invention, after these features are measured in advance and stored in a database, the positions of the sound sources are estimated by comparing the phase difference and the magnitude ratio of the signals input to the respective microphones with the HRTF database. In order to quantitatively compare the measurement results with the retained HRTF data, the present invention uses a phase scale and a size scale.

Figure 112005029003159-pat00006
Figure 112005029003159-pat00006

Figure 112005029003159-pat00007
,
Figure 112005029003159-pat00007
,

여기서,

Figure 112005029003159-pat00008
은 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 코히어런스 함수(coherence function),
Figure 112005029003159-pat00009
는 오른쪽 머리전달함수와 왼쪽 머리전달함수의 위상차,
Figure 112005029003159-pat00010
는 오른쪽 머리전달함수와 왼쪽 머리전달함수의 크기비,
Figure 112005029003159-pat00011
는 추적 대상 음원에 대한 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 위상차,
Figure 112005029003159-pat00012
: 추적 대상 음원에 대한 오른쪽 마이크로폰과 왼쪽 마이크로폰 출력신호의 크기비이다. 적분 기호는 추정하고자 하는 음원의 주파수 대역만을 선택하여 더하는 것을 의미한다. 한예로, 사람의 음성을 추정하는 경우 음성주파수 대역인 300Hz~3.4kHz 대역의 차이만을 더하는 것이 된다. 이렇게 함으로써 원치 않는 주파수대역의 신호를 배제하고 음원의 위치를 추정할 수 있게 된다. 또한, 코히어런스 함수는 두 신호간의 일관성 혹은 데이터의 신뢰성을 나타내는 척도로써, 측정 신호의 위상차(크기비)와 HRTF 데이터의 위상차(크기비)간의 차이에 상관 함수를 곱해줌으로 인해 신뢰성 있는 정보만을 이용하게 되는 결과를 가져온다. here,
Figure 112005029003159-pat00008
Is the coherence function of the right and left microphone output signals,
Figure 112005029003159-pat00009
Is the phase difference between the right head transfer function and the left head transfer function,
Figure 112005029003159-pat00010
The ratio of the size of the right head transfer function to the size of the left head transfer function,
Figure 112005029003159-pat00011
The phase difference between the right microphone and the left microphone output signal for the tracked sound source,
Figure 112005029003159-pat00012
: The ratio of the size of the right microphone and left microphone output signal to the source being tracked. The integral symbol means that only the frequency band of the sound source to be estimated is selected and added. For example, when estimating a human voice, only the difference of the frequency band of 300 Hz to 3.4 kHz is added. By doing this, it is possible to exclude the signal of the undesired frequency band and to estimate the position of the sound source. The coherence function is a measure of consistency between two signals or reliability of data. The coherence function multiplies the difference between the phase difference (magnitude ratio) of the measurement signal and the phase difference (magnitude ratio) of the HRTF data, It is possible to use only the result.

만약 추적 대상 음원의 위치에 해당하는 HRTF 데이터를 사용할 경우 측정 신호간의 위상차(크기비)와 HRTF 데이터를 이용한 위상차(크기비)의 차이가 작아지므로, 보유하고 있는 음원의 위치별 HRTF 데이터베이스에 대해 위상척도와 크기척도를 각각 구하여 위상척도와 크기척도를 최소화하는 HRTF 데이터 셋을 찾음으로써 음원의 위치(수평각, 고도각)를 추정할 수 있다.If the HRTF data corresponding to the position of the sound source to be tracked is used, the difference between the phase difference (size ratio) of the measurement signals and the phase difference (size ratio) using the HRTF data becomes small, The location (horizontal angle, altitude) of the sound source can be estimated by finding the HRTF dataset which minimizes the phase and size scales by obtaining the scale and size scales, respectively.

도 5a는 고도각 0°인 경우 수평각 변화에 따른 음원의 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 5b는 자유음장을 고려하여 계산한 위상척도이다. 비교를 위해 자유음장을 가정한 경우의 결과를 함께 나타내었다. 도 5a의 첫번째 그림의 횡축은 위상척도이고, 종축중 일축은 HRTF 각도, 타축은 실제각도이다. 두번째 그림의 횡축은 HRTF 각도이고 종축은 실제각도이다. 도 b도 위와 같다.5A is a phase scale calculated by using HRTF data of a sound source according to a horizontal angle change at an altitude angle of 0 DEG, and FIG. 5B is a phase scale calculated by considering a free sound field. The results of the assumption of free field for comparison are also shown. In the first figure of Fig. 5A, the abscissa axis is the phase scale, the ordinate axis is the HRTF angle, and the other axis is the actual angle. In the second figure, the horizontal axis is the HRTF angle and the vertical axis is the actual angle. Figure b is the same as above.

도 5a 및 도 5b를 참조하면, 실제 음원 위치 부근의 머리전달함수를 이용했을 때 위상척도의 값이 적게 나오는 것을 확인할 수 있다. 즉, 실제 음원의 각도에 대해 머리전달함수 각도(HRTF angle)을 변화시켜가며 위상척도를 계산했을 때, 머리전달함수 각도와 실제 음원의 각도가 같을 때 위상척도 값이 가장 작게 나온다. 이는 위상척도를 최소화하는 머리전달함수 각도를 구함으로써 음원의 위치를 추정할 수 있음을 보여준다. 그러나 실제 음원 위치와 대칭되는 각도에서도 위상척도의 값이 작게 나오는데, 이는 위상차만을 이용하면 앞-뒤 구분이 모호해지는 프런트-백 컨퓨젼(front-back confusion) 현상이 발생함을 의미한다. 사람과 마찬가지로 더미헤드의 앞-뒤가 거의 대칭에 가깝기 때문에 나타나는 결과이며, 자유 음장(free-field)을 가정했을 때 역시 이와 같은 현상이 발생한다. 그러나 위 결과에 나타난 것처럼 머리전달함수를 고려하여 수평각을 추정한 것이 단순히 자유 음장에서 수평각을 추정한 것 보다 음원 위치 추정 성능이 향상된다. 특히 음원이 한쪽 귀에 치우쳐 있는 약 부근에서 더욱 확실해 지는데, 음원이 이 위치에 있을 때 음원에서 방사된 음파가 더미헤드의 머리 부분에 부딪혀 반대쪽 마이크로폰까지 돌아가는 길이가 가장 길기 때문이다.Referring to FIGS. 5A and 5B, it can be seen that the value of the phase scale is smaller when the head transfer function near the actual sound source position is used. That is, when the phase scale is calculated by changing the HRTF angle with respect to the angle of the actual sound source, the phase scale value becomes smallest when the angle of the head transfer function is equal to the angle of the actual sound source. This shows that the position of the sound source can be estimated by obtaining the head transfer function angle that minimizes the phase scale. However, the value of the phase scale is small even at an angle symmetric to the actual sound source position, which means that front-back confusion occurs when the phase difference is used only when the front-back division becomes ambiguous. Similar to humans, the front-rear of the dummy head is almost symmetrical, resulting in a free-field. However, as shown in the above results, estimating the horizontal angle by considering the head transfer function improves the sound source localization performance than simply estimating the horizontal angle at the free field. Especially when the sound source is in this position, the sound emitted from the sound source hits the head of the dummy head and returns to the opposite microphone for the longest time.

도 6a는 수평각이 30°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도, 도 6b는 크기척도이다. 도 6c는 수평각이 60°인 경우, 고도각 변화에 따른 HRTF 데이터를 사용하여 계산한 위상척도이고, 도 6d는 크기척도이다. 도 6a, 도 6b, 도 6c, 및 도 6d의 횡축은 HRTF 각도이고, 종축은 실제각도이다.FIG. 6A is a phase scale calculated using HRTF data according to elevation angle change when the horizontal angle is 30 DEG, and FIG. 6B is a scale scale. FIG. 6C is a phase scale calculated using HRTF data according to the elevation angle change when the horizontal angle is 60 DEG, and FIG. 6D is a size scale. 6A, 6B, 6C, and 6D are the HRTF angles and the ordinate is the actual angle.

도 6a 및 도 6c에 도시된 바와 같이, 위상척도를 사용할 경우에는 수평각 추 정에서 앞-뒤 구분이 모호해지는 현상이 발생하듯이, 고도각 추정에서도 상-하 구별이 안 되는 현상이 발생함을 결과에서 알 수 있다. 그러나 수평각 변화의 경우처럼 명확하게 보이지 않는 이유는 사람이 양귀를 기준으로 상하가 대칭이 아니듯이, 마이크로폰을 기준으로 더미헤드가 상하 대칭이 아니기 때문이다. 더미헤드의 외이, 코, 헤드의 형태 등을 고려하더라도 더미헤드의 앞과 뒤는 거의 대칭성을 가지지만, 상하는 몸통(torso) 등으로 인해 대칭적이지 않고, 이런 영향이 머리전달함수의 크기 정보에 담겨있다.As shown in Figs. 6A and 6C, when the phase scale is used, the front-to-rear distinction becomes ambiguous in the horizontal angle estimation, Results can be seen. However, the reason why it is not clear as in the case of the horizontal angle change is that the dummy head is not up-and-down symmetrical with respect to the microphone, as a person is not symmetrical up and down with respect to the poppy. Even though the dummy head has almost symmetry before and after the dummy head, it is not symmetrical due to the torso or the like, and the influence is included in the size information of the head transfer function have.

도 6b 및 도 6d에 도시된 바와 같이, 고도각 추정에는 크기척도를 사용하는 것이 더 나은 추정성능을 보여준다. 그리고 종래 기술인 자유음장에서 각 마이크로폰의 지연시간을 이용해서는 앞서 서술한 것처럼 수평각과 고도각을 동시에 추정할 수가 없다.As shown in Figs. 6B and 6D, using the magnitude scale for altitude angle estimation shows better estimation performance. In the conventional free sound field, the horizontal angle and the altitude angle can not be estimated at the same time using the delay time of each microphone.

도 7은 본 발명의 일실시예에 따른 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 흐름도이다. 도 7에 도시된 바와 같이, 본 발명에 따른 음원 위치 추정 방법은 크게 데이터베이스 구축을 위한 신호를 습득하는 제 1 단계(S1), 제 1 단계(S1)에서 습득된 신호를 처리하여 데이터베이스를 구축하는 제 2 단계(S2), 추적 대상 음원이 발생시키는 음파 신호를 마이크로폰을 통해 습득하는 제 3 단계(S3), 제 3 단계에서 습득된 신호들을 처리하여 위상차 및/또는 크기비를 계산하는 제 4 단계(S4), 위상척도 및/또는 크기척도를 계산하는 제 5 단계(S5), 및 추적 대상 음원 위치를 추정하는 제 6 단계(S6)를 포함하여 구성된다.7 is a flowchart illustrating a sound source position estimation method using a head transfer function database according to an embodiment of the present invention. As shown in FIG. 7, the sound source position estimation method according to the present invention includes a first step (S1) of acquiring a signal for building a database, a signal processing step (S1) A second step S2, a third step S3 of acquiring a sound wave signal generated by the sound source to be tracked through a microphone, a fourth step of processing the signals learned in the third step to calculate a phase difference and / A fifth step S5 of calculating a phase scale and / or a size scale, and a sixth step S6 of estimating a sound source location to be tracked.

제 1단계(S1)에서는 적용하고자 하는 플랫폼(로봇, 더미헤드 등)(50)에 대해 3차원 공간(예를들어, 무향실) 상에서 음원(40)의 위치(예를들어, 수평각, 고도각)를 달리하면서 음파 신호를 두개의 제 1, 2 마이크로폰(54, 55)을 통하여 습득한다.In the first step S1, the position (for example, the horizontal angle and the altitude angle) of the sound source 40 on a three-dimensional space (for example, an anechoic room) with respect to a platform (robot, dummy head, And acquires the sound wave signal through the two first and second microphones 54 and 55 while varying the frequency.

제 2 단계(S2)에서는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 제 1단계(S1)에서 습득된 신호들의 머리전달함수를 구하여 데이터베이스를 구축한다.In the second step S2, a head transfer function of signals acquired in the first step S1 in a certain range of the audio frequency band is obtained by signal processing, and a database is constructed.

제 3단계(S3)에서는 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득한다.In the third step S3, a sound wave signal generated by the sound source to be tracked is acquired through two microphones.

제 4 단계(S4)에서는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차, 크기비, 또는 위상차 및 크기비를 계산한다. 제 4 단계(S4)에서는 코히어런스 함수, 오토-스펙트럴 밀도 함수(auto-spectral density function), 크로스-스펙트럴 밀도 함수(cross-spectral density function)를 구할 수 있고, 이 함수들을 이용하여 위상차 또는 크기비를 구함이 바람직하다.In the fourth step S4, a phase difference, a magnitude ratio, or a phase difference and a magnitude ratio between the signals acquired in the third step in a certain range of the audible frequency band are calculated by the signal processing. In the fourth step S4, a coherence function, an auto-spectral density function, and a cross-spectral density function can be obtained. Using these functions, Or the size ratio is preferably obtained.

제 5단계(S5)에서는 제 2 단계(S2)에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 제 4단계(S4)에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구한다. 또한, 제 5단계에서는 제 2 단계(S2)에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 크기비들과 제 4단계(S4)에서 구해진 크기비의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파 수 대역에서 적분하여 크기척도를 구할 수 있다. 또는, 위상척도와 크기척도를 모두 구할 수도 있다.In the fifth step S5, the square of the difference between the phase differences of the head transfer function for each sound source position stored in the database and the phase difference obtained in the fourth step S4 in the second step S2 is multiplied by the square of the coherence function Is integrated in a range of audio frequency bands to obtain a phase scale. In the fifth step, the squared value of the difference between the magnitude ratios of the head transfer function per sound source location stored in the database and the magnitude ratio obtained in the fourth step S4 in the second step S2 is used as the square of the coherence function Can be integrated in a range of audible frequency bands to obtain a magnitude scale. Alternatively, both the phase scale and the magnitude scale may be obtained.

제 6 단계(S6)에서는 제 5단계(S5)에서 구해진 위상척도, 크기척도들 중 다른 위상척도, 크기척도들보다 상대적으로 작은 위상척도, 크기척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정한다.In the sixth step S6, the position of the sound source on the database having the phase scale, the phase scale, the phase scale, and the size scale, which are relatively smaller than the size scale and the scale scale, obtained in the fifth step S5, .

상기와 같은 구성으로 되는 본 발명에 의한 머리전달함수 데이터베이스를 이용한 음원위치 추정 방법의 작용을 설명한다.The operation of the sound source position estimation method using the head transfer function database according to the present invention having the above-described structure will be described.

먼저, 도 2 및 도 3에 보여진 실험의 결과는 음파 신호의 습득 및 처리를 위해 통상의 신호증폭기, 마이크로폰, 주파수분석기 등을 사용하였으나, 신호 습득 및 처리가 가능한 대체 장비와 주파수분석 소프트웨어를 이용할 수도 있다.2 and 3, a conventional signal amplifier, a microphone, and a frequency analyzer are used for acquiring and processing a sound signal, but alternatively, alternate equipment capable of signal acquisition and processing and frequency analysis software may be used have.

본 발명에 따르면 추적 대상 음원이 위치하는 곳에서 측정된 머리전달함수를 사용하여 구한 위상척도와 크기척도는 머리전달함수 구축 과정의 음장(예를들어, 무한평면)과 음원 위치 추적 대상이 되는 음원이 놓인 음장(예를들어, 무한 평면)이 완전히 같고 신호 습득 및 처리에 있어 오차가 발생하지 않는다고 가정하면, 이론상으로 0이 된다. 위상척도와 크기척도는 작다는 것은 추적 대상 음원이 머리전달함수 측정시의 음원 위치 가까이에 있다는 것을 의미한다. 음장의 차이나 신호 처리상의 작은 오차 등을 고려하더라도 이러한 척도들의 기능은 충분히 유지된다.According to the present invention, a phase scale and a size scale obtained by using a head transfer function measured at a location of a sound source to be tracked include a sound field (for example, an infinite plane) Assuming that the sound field (for example, the infinite plane) on which it lies is exactly the same and there is no error in signal acquisition and processing, theoretically zero. The small phase scale and size scale mean that the source being tracked is near the source location of the head transfer function measurement. Even considering the differences in the sound field and small errors in the signal processing, the functions of these measures are sufficiently maintained.

발명은 상술한 실시예를 기준으로 주로 설명되었으나, 발명의 요지와 범위를 벗어나지 않고 많은 다른 가능한 수정과 변형이 이루어질 수 있다. 예컨대, 위상척도를 구하면서 제 2 단계에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수 의 위상차들과 제 4단계에서 구해진 위상차와의 차이의 제곱값이 아닌 상기 차이의 절대값을 이용하는 등은 본 발명의 상술한 실시예로부터 당업자가 용이하게 도출할 수 있는 변경일 것이다.Although the invention has been described primarily with reference to the above embodiments, many other possible modifications and variations can be made without departing from the spirit and scope of the invention. For example, in the second step, the absolute value of the difference, which is not the square of the difference between the phase differences of the head transfer function for each sound source position stored in the database and the phase difference obtained in the fourth step, It will be readily apparent to those skilled in the art from the above-described embodiments of the invention.

본 발명에 따른 머리전달함수를 이용한 음원 위치 추적 방법을 사용하는 경우, 3차원 공간상에 있는 음원의 수평각 및 고도각을 동시에 추정할 수 있다. 따라서, 지능로봇 산업이나 방범용 CCTV, 원격회의용 카메라 등에 활용가능한 음원위치 추정 방법을 제공된다. 또한, 위상척도와 크기척도를 이용하면 앞서 언급한 종래기술의 문제점을 해결하며 종래 기술보다 더 정확한 음원 위치 추정을 할 수 있다.When the sound source location tracking method using the head transfer function according to the present invention is used, the horizontal angle and the altitude angle of a sound source in a three-dimensional space can be simultaneously estimated. Accordingly, a sound source position estimation method applicable to the intelligent robot industry, security CCTV, and remote conference camera is provided. In addition, by using the phase scale and the size scale, it is possible to solve the above-mentioned problems of the conventional art and to estimate the sound source position more accurately than in the prior art.

전술한 발명에 대한 권리범위는 이하의 청구범위에서 정해지는 것으로서, 명세서 본문의 기재에 구속되지 않으며, 청구범위의 균등범위에 속하는 변형과 변경은 모두 본 발명의 범위에 속할 것이다.The scope of the present invention is defined by the following claims, and is not limited to the description of the specification, and all variations and modifications falling within the scope of the claims are included in the scope of the present invention.

Claims (6)

음원 위치 추적 방법에 있어서,A method for tracking a sound source location, 적용하고자 하는 플랫폼(50)에 대해 3차원 공간 상에서 음원의 위치를 달리하면서 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 1단계;A first step of acquiring a sound wave signal through two microphones with different positions of sound sources on a three-dimensional space with respect to a platform 50 to be applied; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 음파 신호들의 머리전달함수를 구하여 데이터베이스를 구축하는 제 2 단계;A second step of constructing a database by obtaining a head transfer function of the sound signals in a certain range of the audio frequency band by signal processing; 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 3단계;A third step of acquiring a sound wave signal generated by the sound source to be tracked through two microphones; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차를 계산하는 제 4 단계;A fourth step of calculating a phase difference between signals obtained in the third step in a certain range of the audio frequency band by signal processing; 상기 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 제 4단계에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구하는 제 5단계; 및A value obtained by multiplying the square of the difference between the phase differences of the head transfer function and the phase difference obtained in the fourth step stored in the database by the square of the coherence function is integrated in a range of audio frequency bands, A fifth step of obtaining; And 상기 위상척도들 중 최소값의 위상척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정하는 제 6 단계;를 포함하여 구성되는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.And estimating a position of a sound source on a database having a phase measure of a minimum value among the phase measures as a location of a sound source to be tracked. 제 1항에 있어서,The method according to claim 1, 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.Wherein the fourth step further obtains a coherence function, an auto-spectral density function, and a cross-spectral density function. 음원 위치 추적 방법에 있어서,A method for tracking a sound source location, 적용하고자 하는 플랫폼(50)에 대해 3차원 공간 상에서 음원(40)의 위치를 달리하면서 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 1단계;A first step of acquiring a sound wave signal through two microphones while changing the position of the sound source 40 in a three-dimensional space with respect to a platform 50 to be applied; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 음파 신호들의 머리전달함수를 구하여 데이터베이스를 구축하는 제 2 단계;A second step of constructing a database by obtaining a head transfer function of the sound signals in a certain range of the audio frequency band by signal processing; 추적 대상 음원이 발생시키는 음파 신호를 두개의 마이크로폰을 통하여 습득하는 제 3단계;A third step of acquiring a sound wave signal generated by the sound source to be tracked through two microphones; 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 크기비를 계산하는 제 4 단계;A fourth step of calculating a size ratio between signals acquired in the third step in a certain range of the audio frequency band by signal processing; 상기 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 크기비들과 제 4단계에서 구해진 크기비의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 크기척도를 구하는 제 5단계; 및A value obtained by multiplying the squared value of the difference between the magnitude of the head transfer function for each sound source position stored in the database and the magnitude ratio obtained in the fourth step by the square of the coherence function is integrated in a certain range of the audio frequency band, (5) And 상기 크기척도들 중 최소값의 크기척도를 가지는 데이터베이스 상의 음원 위치를 추적 대상 음원 위치로 추정하는 제 6 단계;를 포함하여 구성되는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.And estimating a position of a sound source on a database having a scale of a minimum value among the size scales as a location of a sound source to be tracked. 제 3항에 있어서,The method of claim 3, 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.Wherein the fourth step further obtains a coherence function, an auto-spectral density function, and a cross-spectral density function. 제 3 항에 있어서,The method of claim 3, 상기 제 4 단계는 신호 처리에 의해 가청 주파수 대역 중 일정범위에서 상기 제 3단계에서 습득된 신호들 사이의 위상차를 계산하는 단계;를 더 포함하고,The fourth step further comprises calculating a phase difference between the signals acquired in the third step in a certain range of the audio frequency band by the signal processing, 상기 제 5 단계는 상기 제 2 단계에서 데이터베이스 상에 저장된 음원 위치별 머리전달함수의 위상차들과 상기 제 4단계에서 구해진 위상차와의 차이의 제곱값에 코히어런스 함수의 제곱을 곱한 값을 일정범위의 가청 주파수 대역에서 적분하여 위상척도를 구하는 단계;를 더 포함하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.The fifth step is to multiply the squared value of the difference between the phase differences of the head transfer function for each sound source location stored in the database and the phase difference obtained in the fourth step by the square of the coherence function, And obtaining a phase scale by integrating the frequency of the sound source in the audio frequency band of the sound source. 제 5항에 있어서,6. The method of claim 5, 상기 제 4 단계는 코히어런스 함수, 오토-스펙트럴 밀도 함수, 크로스-스펙트럴 밀도 함수를 더 구하는 것을 특징으로 하는 머리전달함수를 이용한 음원 위치 추적 방법.Wherein the fourth step further obtains a coherence function, an auto-spectral density function, and a cross-spectral density function.
KR1020050046371A 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database KR100730297B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Publications (2)

Publication Number Publication Date
KR20060124443A KR20060124443A (en) 2006-12-05
KR100730297B1 true KR100730297B1 (en) 2007-06-19

Family

ID=37729195

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020050046371A KR100730297B1 (en) 2005-05-31 2005-05-31 Sound source localization method using Head Related Transfer Function database

Country Status (1)

Country Link
KR (1) KR100730297B1 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101982793B (en) * 2010-10-20 2012-07-04 武汉大学 Mobile sound source positioning method based on stereophonic signals
CN106405501B (en) * 2015-07-29 2019-05-17 中国科学院声学研究所 A kind of simple sund source localization method returned based on phase difference
CN106768284B (en) * 2016-12-20 2021-04-20 西安科技大学 Abnormal sound source judging and positioning system and method
CN110493701B (en) * 2019-07-16 2020-10-27 西北工业大学 HRTF (head related transfer function) personalization method based on sparse principal component analysis
CN115460526B (en) * 2022-11-11 2023-03-28 荣耀终端有限公司 Method for determining hearing model, electronic equipment and system

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980037014A (en) * 1996-11-20 1998-08-05 양승택 Automatic control device of multi-channel sound system and its method
KR19980050965A (en) * 1996-12-21 1998-09-15 양승택 Standard Head Transfer Function Measuring Device
KR20010057764A (en) * 1999-12-23 2001-07-05 오길록 3d sound generation using compensated head related transfer function

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR19980037014A (en) * 1996-11-20 1998-08-05 양승택 Automatic control device of multi-channel sound system and its method
KR19980050965A (en) * 1996-12-21 1998-09-15 양승택 Standard Head Transfer Function Measuring Device
KR20010057764A (en) * 1999-12-23 2001-07-05 오길록 3d sound generation using compensated head related transfer function

Also Published As

Publication number Publication date
KR20060124443A (en) 2006-12-05

Similar Documents

Publication Publication Date Title
TWI530201B (en) Sound acquisition via the extraction of geometrical information from direction of arrival estimates
KR101591220B1 (en) Apparatus and method for microphone positioning based on a spatial power density
JP6225118B2 (en) Sound source position estimation
US20190104357A1 (en) Machine learning based sound field analysis
JP6788272B2 (en) Sound source detection method and its detection device
JP5156934B2 (en) Acoustic measuring device
Grobler et al. Sound based localization and identification in industrial environments
JP5686358B2 (en) Sound source distance measuring device and acoustic information separating device using the same
US10674261B2 (en) Transfer function generation apparatus, transfer function generation method, and program
Kotus et al. Calibration of acoustic vector sensor based on MEMS microphones for DOA estimation
Pourmohammad et al. N-dimensional N-microphone sound source localization
KR100730297B1 (en) Sound source localization method using Head Related Transfer Function database
US9081083B1 (en) Estimation of time delay of arrival
Paulose et al. Acoustic source localization
KR20090128221A (en) Method for sound source localization and system thereof
EP3182734B1 (en) Method for using a mobile device equipped with at least two microphones for determining the direction of loudspeakers in a setup of a surround sound system
Raykar et al. Position calibration of audio sensors and actuators in a distributed computing platform
KR20090049761A (en) Artificial ear inducing spectral distortion and method for detecting the direction of a sound source using the same
JP3862685B2 (en) Sound source direction estimating device, signal time delay estimating device, and computer program
Handzel et al. A biomimetic apparatus for sound-source localization
Canclini et al. Distributed 3D source localization from 2D DOA measurements using multiple linear arrays
Fujii et al. A simple and robust binaural sound source localization system using interaural time difference as a cue
Sánchez-Hevia et al. Indoor self-localization and orientation estimation of smartphones using acoustic signals
Liaquat et al. Sound Localization for Ad-Hoc Microphone Arrays. Energies 2021, 14, 3446
CN110487282B (en) Time delay estimation correction method and system for improving baseline positioning robustness

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20120605

Year of fee payment: 6

LAPS Lapse due to unpaid annual fee