KR100931401B1 - Artificial ear causing spectral distortion and sound source direction detection method using same - Google Patents

Artificial ear causing spectral distortion and sound source direction detection method using same Download PDF

Info

Publication number
KR100931401B1
KR100931401B1 KR1020070116031A KR20070116031A KR100931401B1 KR 100931401 B1 KR100931401 B1 KR 100931401B1 KR 1020070116031 A KR1020070116031 A KR 1020070116031A KR 20070116031 A KR20070116031 A KR 20070116031A KR 100931401 B1 KR100931401 B1 KR 100931401B1
Authority
KR
South Korea
Prior art keywords
sound source
artificial
ears
microphone
artificial ear
Prior art date
Application number
KR1020070116031A
Other languages
Korean (ko)
Other versions
KR20090049761A (en
Inventor
최종석
김문상
박영진
황성목
Original Assignee
한국과학기술연구원
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 한국과학기술연구원 filed Critical 한국과학기술연구원
Priority to KR1020070116031A priority Critical patent/KR100931401B1/en
Publication of KR20090049761A publication Critical patent/KR20090049761A/en
Application granted granted Critical
Publication of KR100931401B1 publication Critical patent/KR100931401B1/en

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R1/00Details of transducers, loudspeakers or microphones
    • H04R1/20Arrangements for obtaining desired frequency or directional characteristics
    • H04R1/32Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only
    • H04R1/40Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers
    • H04R1/406Arrangements for obtaining desired frequency or directional characteristics for obtaining desired directional characteristic only by combining a number of identical transducers microphones
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R25/00Deaf-aid sets, i.e. electro-acoustic or electro-mechanical hearing aids; Electric tinnitus maskers providing an auditory perception
    • H04R25/40Arrangements for obtaining a desired directivity characteristic
    • H04R25/407Circuits for combining signals of a plurality of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R3/00Circuits for transducers, loudspeakers or microphones
    • H04R3/005Circuits for transducers, loudspeakers or microphones for combining the signals of two or more microphones
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2430/00Signal processing covered by H04R, not provided for in its groups
    • H04R2430/20Processing of the output signals of the acoustic transducers of an array for obtaining a desired directivity characteristic
    • H04R2430/21Direction finding using differential microphone array [DMA]

Abstract

본 발명은 스펙트럼 왜곡을 유발하는 인공귀 및 이를 이용한 음원 방향 검지 방법에 관한 것이다. 본 발명에 의하면, 음원의 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀를 설계하고, 음원 방향에 따른 스펙트럼 왜곡 정보에 대한 데이터베이스를 구축한 후, 실제 측정된 양 귀 출력신호의 스펙트럼 왜곡 정보를 상기 데이터베이스와 비교하여 음원의 방향을 추정한다. 구체적으로는, 양 귀 출력신호의 지연시간과 마이크로폰이 부착된 플랫폼의 형상정보를 이용하여 음원의 수평각을 추정하며, 양 귀 출력신호 사이의 주파수 영역 전달함수의 피크, 노치 정보를 상기 데이터베이스의 정보와 비교함으로써 음원 위치의 앞-뒤 구분 및 고도각을 추정한다. 이로써 두 마이크로폰만을 사용하여 음원 위치의 앞-뒤 구분, 수평각 및 고도각을 추정할 수 있고, 다수의 마이크로폰으로 구성된 마이크로폰 어레이를 사용하는 것에 비해 플랫폼에 마이크로폰을 배치하는 것이 자유로워지며, 처리해야 할 출력 신호의 양이 줄어들어 실시간 방향 검지가 용이해진다.The present invention relates to an artificial ear that causes spectral distortion and a sound source direction detection method using the same. According to the present invention, after designing an artificial ear that causes spectral distortion of the output signal that changes according to the direction of the sound source, and after building a database of spectral distortion information according to the direction of the sound source, the spectrum of the actual measured both ears output signal The distortion information is compared with the database to estimate the direction of the sound source. Specifically, the horizontal angle of the sound source is estimated by using the delay time of the both ears output signal and the shape information of the platform on which the microphone is attached, and the peak and notch information of the frequency domain transfer function between the both ears output signal is obtained from the information in the database. By comparing with, we estimate the front-rear division and elevation angle of sound source location. This allows the use of only two microphones to estimate the front-rear separation, horizontal and altitude angles of the sound source position, and frees the microphone to place on the platform compared to using a microphone array consisting of multiple microphones. The amount of output signal is reduced to facilitate real-time direction detection.

음원 방향 검지, 스펙트럼 왜곡, 인공귀, 마이크로폰 Sound source direction detection, spectral distortion, artificial ear, microphone

Description

스펙트럼 왜곡을 유발하는 인공귀 및 이를 이용한 음원 방향 검지 방법 {Artificial Ear Inducing Spectral Distortion and Method for Detecting the Direction of a Sound Source Using the Same}Artificial Ear Inducing Spectral Distortion and Method for Detecting the Direction of a Sound Source Using the Same}

본 발명은 스펙트럼 왜곡을 유발하는 인공귀 및 이를 이용한 음원 방향 검지 방법에 관한 것이다. 본 발명에 의하면, 음원의 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀를 설계하고, 음원 방향에 따른 스펙트럼 왜곡 정보에 대한 데이터베이스를 구축한 후, 실제 측정된 양 귀 출력신호의 스펙트럼 왜곡 정보를 상기 데이터베이스와 비교하여 음원의 방향을 추정한다. 구체적으로는, 양 귀 출력신호의 지연시간과 마이크로폰이 부착된 플랫폼의 형상정보를 이용하여 음원의 수평각을 추정하며, 양 귀 출력신호 사이의 주파수 영역 전달함수의 피크, 노치 정보를 상기 데이터베이스의 정보와 비교함으로써 음원 위치의 앞-뒤 구분 및 고도각을 추정한다. 이로써 두 마이크로폰만을 사용하여 음원 위치의 앞-뒤 구분, 수평각 및 고도각을 추정할 수 있고, 다수의 마이크로폰으로 구성된 마이크로폰 어레이를 사용하는 것에 비해 플랫폼에 마이크로폰을 배치하는 것이 자유로워지며, 처리해야 할 출력 신호의 양이 줄어들어 실시간 방향 검지가 용이해진다.The present invention relates to an artificial ear that causes spectral distortion and a sound source direction detection method using the same. According to the present invention, after designing an artificial ear that causes spectral distortion of the output signal that changes according to the direction of the sound source, and after building a database of spectral distortion information according to the direction of the sound source, the spectrum of the actual measured both ears output signal The distortion information is compared with the database to estimate the direction of the sound source. Specifically, the horizontal angle of the sound source is estimated by using the delay time of the both ears output signal and the shape information of the platform on which the microphone is attached, and the peak and notch information of the frequency domain transfer function between the both ears output signal is obtained from the information in the database. By comparing with, we estimate the front-rear division and elevation angle of sound source location. This allows the use of only two microphones to estimate the front-rear separation, horizontal and altitude angles of the sound source position, and frees the microphone to place on the platform compared to using a microphone array consisting of multiple microphones. The amount of output signal is reduced to facilitate real-time direction detection.

근래 들어 인간과 상호작용할 수 있는 지능형 로봇산업이 많은 관심의 대상이 되고 있다. 인간과 로봇 간의 상호작용(Human-Robot Interaction; HRI)이 효과적으로 이루어지기 위해서는 로봇이 대화 상대인 화자의 위치를 정확하게 파악하는 것이 중요하다. 따라서 청각 센서를 이용하여 음원의 방향을 파악하는 음원 방향 검지 기술이 HRI를 위한 필수 기술 중의 하나이다.   In recent years, the intelligent robot industry that can interact with human beings has been attracting much attention. In order for the human-robot interaction (HRI) to be effective, it is important for the robot to accurately locate the talker. Therefore, the sound source direction detection technology to detect the direction of the sound source using the auditory sensor is one of the essential technology for HRI.

종래의 음원 방향 검지 기술로는 빔형성 방법, 고해상도 스펙트럼 방법(spectral analysis), 도착지연시간 방법(Time Delay Of Arrival; TDOA), 회전형 구조를 가지는 마이크로폰을 이용한 방법 등이 있다. Conventional sound source direction detection techniques include a beam forming method, a high resolution spectral method, a time delay method (TDOA), a method using a microphone having a rotatable structure, and the like.

빔형성 방법은 가상의 음원 벡터를 회전시키면서 실제 음원의 위치 벡터와 맞춰가는 것을 기본원리로 하는 방법으로, 다수의 센서가 고정된 어레이를 이루어야 한다는 단점을 지닌다. The beamforming method is based on the principle that the virtual sound source vector is rotated to match the position vector of the actual sound source, and has a disadvantage in that a plurality of sensors must form a fixed array.

고해상도 스펙트럼 방법은 해상도를 높이기 위하여 사용되는 방법으로, 대표적인 알고리즘으로는 MUSIC(MUltiple SIgnal Classification) 방법, ESPRIT (Estimation of Signal Parameters via Rotational Invariance Technique) 방법 등이 있다. 고해상도 스펙트럼 방법은 음원을 찾기 위한 스캔 절차를 거치지 않고 음압 신호의 상관 행렬의 고유치와 고유벡터를 이용하는 방법으로, 계산량이 많아 실시간 음원 위치 추정에는 한계가 있고, 평면파를 가정하기 때문에 구면파 모델로 확장하는 것이 어렵다는 단점이 있다. The high-resolution spectral method is a method used to increase resolution, and typical algorithms include a mulitple SIgnal classification (MUSIC) method and an estimation of signal parameters via rotational invariance technique (ESPRIT). The high-resolution spectral method uses the eigenvalues and eigenvectors of the correlation matrix of the sound pressure signal without going through the scan procedure to find the sound source. The disadvantage is that it is difficult.

도착지연시간 방법은 각 센서에 도달하는 지연시간을 이용하여 음원의 위치 를 추정하는 방법으로, 알고리즘이 간단하고 계산량이 적어 실시간 음원 위치 추정에 많이 사용되고 있다. 그러나, 두 개의 마이크로폰만을 사용할 경우 같은 지연시간을 가지는 음원의 위치는 3차원 공간상에 무수히 많기 때문에 원추형 혼동면(cone of confusion)이 발생하게 된다. 즉, 두 개의 마이크로폰만을 사용할 경우 지연시간차에만 근거하여 음원의 위치를 추정하면, 앞-뒤, 위-아래 구분이 불가능한 문제점이 있다. The arrival delay time method is a method of estimating the position of a sound source using the delay time reaching each sensor. The algorithm is simple and has a small amount of calculation, which is widely used for real-time sound source position estimation. However, when only two microphones are used, since the positions of sound sources having the same delay time are numerous in three-dimensional space, a cone of confusion occurs. That is, when only two microphones are used, if the position of the sound source is estimated based only on the delay time difference, there is a problem that it is impossible to distinguish between front and rear and up and down.

회전형 구조를 가지는 마이크로폰을 이용한 방법은 마이크로폰 어레이를 회전시킬 수 있는 부가적인 하드웨어와 구동 알고리즘을 요구하기 때문에, 지능형 로봇에 적용하는데 한계가 있다. The method using a microphone having a rotatable structure requires additional hardware and driving algorithms capable of rotating the microphone array, and thus is limited in application to an intelligent robot.

이처럼 종래 기술들은, 실시간 방향 검지를 요구하고, 플랫폼의 형상으로 인해 마이크로폰의 배치가 자유롭지 못한 지능형 로봇에 적용하는데 어려움이 있다. As such, the prior arts are difficult to apply to intelligent robots that require real-time direction detection and are not free to place microphones due to the shape of the platform.

본 발명은 전술한 바와 같은 문제점을 해결하기 위하여 안출된 것으로, 본 발명에서는, 음원의 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀 및 상기 인공귀를 이용하여 음원 방향에 따른 스펙트럼 왜곡 정보에 대한 데이터베이스를 구축한 후, 실제 측정된 양 귀 출력신호의 스펙트럼 왜곡 정보를 상기 데이터베이스와 비교하여 음원의 방향을 추정하는 음원 방향 검지 방법을 제공하고자 한다. The present invention has been made to solve the problems described above, in the present invention, the artificial ear and the spectral distortion in accordance with the direction of the sound source using the artificial ear causing the spectral distortion of the output signal changes in accordance with the direction of the sound source After building a database of information, it is to provide a sound source direction detection method for estimating the direction of the sound source by comparing the spectral distortion information of the actually measured both ears output signal with the database.

본 발명은 스펙트럼 왜곡을 유발하는 인공귀에 관한 것이다. 상기 인공귀는 음원 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀로서, 마이크로폰이 부착되는 마이크로폰 홀; 및 음원 방향에 따라 상기 마이크로폰과의 거리가 단조적으로 변화하도록 설계된 구조물을 포함한다. The present invention relates to an artificial ear that causes spectral distortion. The artificial ear is an artificial ear that causes spectral distortion of an output signal that changes according to a sound source direction, and includes a microphone hole to which a microphone is attached; And a structure designed to monotonically change a distance from the microphone according to a sound source direction.

또한, 본 발명은 상기 인공귀를 이용한 음원 방향 검지 방법에 관한 것이다. 상기 방법은 두 개의 마이크로폰 및 두 개의 상기 인공귀가 로봇 플랫폼에 부착되는 단계(a); 상기 두 개의 인공귀 간의 시간차로부터 음원의 수평각을 추정하는 단계(b); 및 상기 두 개의 인공귀의 신호 사이의 주파수 영역 전달함수로부터 음원 위치의 앞-뒤 구분 및 음원의 고도각을 추정하는 단계(c)를 포함한다.The present invention also relates to a sound source direction detection method using the artificial ear. The method comprises the steps of (a) attaching two microphones and two said artificial ears to a robotic platform; (B) estimating a horizontal angle of a sound source from the time difference between the two artificial ears; And (c) estimating the front-rear division of the sound source position and the elevation angle of the sound source from the frequency domain transfer function between the signals of the two artificial ears.

본 발명에 의하면, 두 마이크로폰만을 사용하여 음원 위치의 앞-뒤 구분, 수평각 및 고도각을 동시에 추정할 수 있다. 또한, 다수의 마이크로폰으로 구성된 마이크로폰 어레이를 사용하는 것에 비해 플랫폼에 마이크로폰을 배치하는 것이 자유로워지며, 처리해야 할 출력 신호의 양이 줄어들어 실시간 방향 검지가 용이해진다. According to the present invention, it is possible to simultaneously estimate the front-rear division, the horizontal angle and the altitude angle of the sound source location using only two microphones. In addition, compared to using a microphone array consisting of a large number of microphones, it is free to place the microphone on the platform, and the amount of output signals to be processed is reduced, which facilitates real-time direction detection.

이하에서는, 도면을 참조하여 본 발명의 실시예를 구체적으로 설명한다. 그러나, 본 발명이 하기의 실시예에 의하여 제한되는 것은 아니다. Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings. However, the present invention is not limited by the following examples.

인간의 경우 두 귀만으로 음원의 수평각과 고도각을 동시에 추정할 수 있는데, 이를 가능케 하는 주요인자는 양이간 시간차(Interaural Time Difference; ITD), 양이간 레벨차(Interaural Level Difference; ILD) 및 외이에 의한 스펙트럼 왜곡이다. 특히, 양이간 시간차 및 양이간 레벨차는 수평각의 추정에 사용되며, 외이에 의한 스펙트럼 왜곡은 음원의 고도각 추정 및 음원의 방향 추정에 효과적으로 사용된다. In humans, it is possible to estimate the horizontal and altitude angles of a sound source with only two ears at the same time. The main factors that make this possible are Interaural Time Difference (ITD), Interaural Level Difference (ILD) Spectral distortion caused by the outer ear. In particular, the time difference between the two ears and the level difference between the ears is used for estimating the horizontal angle, and the spectral distortion by the outer ear is effectively used for estimating the elevation angle of the sound source and the direction of the sound source.

도 1은 수직 극좌표계(vertical-polar coordinates)를 도시한 도면이고, 도 2는 도 1에 도시된 수직 극좌표계를 기반으로 하여 수평각이 0도인 중앙면상(median plane)에서 음원의 고도각 변화에 따라 측정한 인간의 머리전달함 수(Head-Related Transfer Function; HRTF)의 크기를 도시한 도면이다. FIG. 1 is a diagram showing vertical-polar coordinates, and FIG. 2 is a diagram illustrating a change in the elevation angle of a sound source in a median plane having a horizontal angle of 0 degrees based on the vertical polar coordinate system shown in FIG. The figure shows the size of the head-related transfer function (HRTF) of the human measured according to.

인간의 머리전달함수는 음원의 음압과 고막에 도달한 음파의 음압 사이의 주파수영역 전달함수로서, 수학식 1과 같이 표현될 수 있다. 여기서 f는 주파수를 의미하고, Psource는 음원의 음압을, Pear는 고막에 도달한 음파의 음압을 나타낸다.The human head transfer function is a frequency domain transfer function between the sound pressure of a sound source and the sound pressure of a sound wave reaching the tympanic membrane, and can be expressed as Equation (1). Where f is the frequency, P source is the sound pressure of the sound source , and P ear is the sound pressure of the sound waves reaching the eardrum.

Figure 112007081648008-pat00001
Figure 112007081648008-pat00001

도 2는 구체적으로 중앙면상에서 음원의 고도각이 변화함에 따른 왼쪽 귀의 HRTF 크기를 dB 단위로 나타낸 것이다. 고도각이 0도 일 때는, 음원이 정면에 존재하는 경우이고, 고도각이 90도 및 180도 일 때는, 각각 음원이 머리 바로 위쪽 및 머리 뒷면에 존재하는 경우이다. 2 illustrates the HRTF size of the left ear in dB units as the elevation angle of the sound source changes on the center plane. When the elevation angle is 0 degrees, the sound source exists in the front, and when the elevation angles are 90 degrees and 180 degrees, the sound sources exist directly above and behind the head, respectively.

중앙면상에서는 고도각이 변하더라도 양이간 시간차와 양이간 레벨차가 0이 되므로, 이를 이용하여 고도각을 인지할 수 없다. 그러나, 도 2에 도시된 바와 같이 고도각의 변화에 따라 스펙트럼 왜곡(Spectral Notch; N으로 표시)이 발생하므로, 인간은 이에 근거하여 음원의 고도각을 인지할 수 있다.On the central plane, even if the altitude angle changes, the time difference between the two and the level difference between the two becomes zero, so it is not possible to recognize the altitude angle using this. However, as shown in FIG. 2, since a spectral distortion (denoted by N) occurs according to the change of the elevation angle, a human can recognize the elevation angle of the sound source based on this.

본 발명은 이와 같은 인간의 청각 메커니즘을 활용함으로써, 두 개의 마이크로폰만을 이용하여 음원 방향을 검지하고자 한다. The present invention intends to detect the sound source direction using only two microphones by utilizing the human hearing mechanism.

우선, 도 3 내지 도 7d를 참조하여 본 발명에 따라 스펙트럼 왜곡을 유발하는 인공귀의 설계에 대해 설명한다. First, a design of an artificial ear for inducing spectral distortion according to the present invention will be described with reference to FIGS. 3 to 7D.

본 발명에 따른 인공귀는 마이크로폰이 부착되는 마이크로폰 홀과 음원 방향에 따라 상기 마이크로폰과의 거리가 단조적으로 변화하도록 설계된 구조물을 포함한다. 이때, 상기 구조물은 방향 검지의 대상이 되는 음원에서 방사되는 음파를 반사 및 회절시킴으로써, 음원 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발한다. The artificial ear according to the present invention includes a microphone hole to which the microphone is attached and a structure designed to monotonously change the distance between the microphone according to the direction of the sound source. In this case, the structure reflects and diffracts sound waves emitted from a sound source that is a target of direction detection, thereby causing spectral distortion of an output signal that varies according to the direction of the sound source.

본 발명의 바람직한 실시예에 따르면, 상기 구조물은 인간의 귀에서 음파를 반사 및 회절시키는 역할을 하는 외이와 유사한 형상을 가지도록 설계되며, 이하 상기 구조물을 외이벽으로 지칭한다. According to a preferred embodiment of the present invention, the structure is designed to have a shape similar to the outer ear that serves to reflect and diffract sound waves in the human ear, hereinafter referred to as the outer ear wall.

도 3에 도시된 바와 같이 마이크로폰과 외이벽 사이의 거리가 음원의 방향에 따라 변화하도록 인공귀를 설계하는 것이 바람직하다. 도 2에서 도시된 음원의 방향에 따라 변화하는 스펙트럼 왜곡은, 음원에서 방사된 음파가 외이의 영향을 받지 않고 고막으로 전달되는 직접음과 외이의 구조에 의해 반사 및 회절되어 고막으로 전달되는 반사음의 상쇄간섭으로 발생하는 것이기 때문이다. As shown in FIG. 3, it is preferable to design the artificial ear so that the distance between the microphone and the outer ear wall varies with the direction of the sound source. Spectral distortion that changes in accordance with the direction of the sound source shown in Figure 2 is the sound of the sound emitted from the sound source is reflected and diffracted by the structure of the external ear and the direct sound that is transmitted to the eardrum without being affected by the eardrum This is because it is caused by offset interference.

도 4a 및 도 4b는 음원 방향에 따라 마이크로폰과 외이벽 사이의 거리가 단조적으로 변화하도록 설계된 인공귀를 도시한 도면으로, 인공귀는 마이크로폰이 위치하는 마이크로폰 홀과 음원 방향에 따라 상기 마이크로폰 홀과의 거리가 단조적으로 변화하도록 설계된 외이벽으로 구성된다.4A and 4B illustrate an artificial ear designed to monotonously change a distance between a microphone and an outer ear wall according to a sound source direction, wherein the artificial ear includes a microphone hole where a microphone is located and the microphone hole according to a sound source direction; It consists of an outer ear wall designed to change monotonically.

도 5a 및 도 5b는 각각 도 4a 및 도 4b에 도시된 인공귀를 이용하여 무향실 환경에서 수평각이 0도인 중앙면상에서 음원 고도각을 변화시키면서 HRTF의 크기를 측정한 결과를 도시한다. 고도각이 0도 일 때는 음원이 정면에 위치하는 경우이고, 고도각이 90도(-270도) 일 때는 음원이 바로 머리 위에 위치하는 경우이다. 또한, 고도각이 -90도 및 -180도 일 때는 음원이 각각 머리 바로 아래와 머리 뒷면에 위치하는 경우를 나타낸다. 5A and 5B show the results of measuring the size of HRTF while varying the sound source elevation angle on the center plane where the horizontal angle is 0 degrees in an anechoic chamber environment using the artificial ears shown in FIGS. 4A and 4B, respectively. When the altitude angle is 0 degrees, the sound source is located in the front, and when the altitude angle is 90 degrees (-270 degrees), the sound source is directly above the head. In addition, when the altitude angle is -90 degrees and -180 degrees, the sound source is located directly under the head and the back of the head, respectively.

도 5a 및 도 5b에 도시된 바와 같이, 도 4a 및 도 4b에 도시된 인공귀를 이용한 경우에도 도 2에 도시된 인간의 HRTF와 같이 음원의 고도각이 변화함에 따라 스펙트럼 왜곡 현상이 나타나며, 이러한 왜곡이 나타나는 주파수가 음원의 방향에 따라 단조롭게 변화함을 알 수 있다. As shown in FIGS. 5A and 5B, even when the artificial ear shown in FIGS. 4A and 4B is used, the spectral distortion phenomenon occurs as the elevation angle of the sound source changes as in the HRTF of FIG. 2. It can be seen that the frequency at which distortion occurs varies monotonically according to the direction of the sound source.

한편, 도 5a 및 도 5b에서 볼 수 있는 스펙트럼 왜곡 현상은 약 5kHz 이상의 고주파 대역에 분포한다. 따라서, 도 5a 및 도 5b에 도시된 인공귀, 즉 지름이 30mm인 크기를 갖는 인공귀는 5kHz 이상의 고주파 성분을 가지는 음원의 방향을 추정하는 데 적당하다. 이처럼, 음원의 관심 주파수 대역에 따라 인공귀의 크기를 조절하여야 한다. 일반적으로, 4kHz 이하의 주파수 성분으로 이루어진 음성 신호의 경우, 음원의 방향에 따라 변화하는 스펙트럼 왜곡을 유발하기 위해 인공귀의 크기를 키우는 것이 바람직하다. Meanwhile, the spectral distortion phenomenon seen in FIGS. 5A and 5B is distributed in the high frequency band of about 5 kHz or more. Therefore, the artificial ear shown in FIGS. 5A and 5B, that is, the artificial ear having a size of 30 mm in diameter, is suitable for estimating the direction of a sound source having a high frequency component of 5 kHz or more. As such, the size of the artificial ear should be adjusted according to the frequency band of interest of the sound source. In general, in the case of a voice signal consisting of a frequency component of 4kHz or less, it is preferable to increase the size of the artificial ear in order to cause spectral distortion that varies depending on the direction of the sound source.

도 6a는 본 발명의 일 실시예에 따라 음성 신호로부터 화자의 방향을 추정하는데 사용하기 위해 설계된 인공귀를 도시한 도면이고, 도 6b는 도 6a에 도시된 인공귀가 부착되는 로봇의 머리 플랫폼을 도시한 도면이다. 여기서, A, B, C 및 D는 각각 마이크로폰의 위치를 나타낸다. FIG. 6A illustrates an artificial ear designed for use in estimating a speaker's direction from a voice signal in accordance with an embodiment of the present invention, and FIG. 6B illustrates a head platform of a robot to which the artificial ear shown in FIG. 6A is attached. One drawing. Here, A, B, C and D represent the positions of the microphones, respectively.

도 7a 내지 도 7d는 도 6a 및 도 6b에 도시된 인공귀와 머리 플랫폼을 이용하여 측정한 머리전달함수의 크기를 도시한 도면으로, 마이크로폰의 위치를 각각 달리하여(도 7a는 A, 도 7b는 B, 도 7c는 C, 도 7d는 D) 측정한 결과를 나타낸다. 마이크로폰의 위치가 달라짐에 따라 마이크로폰과 외이벽 사이의 거리가 변화하기 때문에, 각 마이크로폰의 위치마다 상이한 스펙트럼 왜곡 현상이 발생한다. 그러나 마이크로폰의 위치와 상관없이 스펙트럼 왜곡은 4kHz 이하의 음성 주파수 대역에 분포하므로, 도 6a 및 도 6b에 도시된 인공귀와 머리 플랫폼은 음성 신호로부터 화자의 방향을 추정하기에 적당하다. 7A to 7D are diagrams illustrating the size of the head transfer function measured by using the artificial ear and the head platform shown in FIGS. 6A and 6B. B, FIG. 7C shows C, and FIG. 7D shows the measurement result of D). Since the distance between the microphone and the outer ear wall changes as the position of the microphone changes, different spectral distortion occurs for each microphone position. However, since the spectral distortion is distributed in the voice frequency band below 4 kHz regardless of the position of the microphone, the artificial ear and head platform shown in Figs. 6A and 6B are suitable for estimating the speaker's direction from the voice signal.

다음으로, 마이크로폰의 배치에 대해 상세히 설명한다. 두 귀의 출력신호만을 이용하여 음원의 수평각 및 고도각을 추정하기 위해서는 양귀 신호 사이의 주파수 영역 전달함수(Interaural Transfer Function; ITF)를 사용한다. ITF는 수학식 2와 같이 표현될 수 있으며, 여기서 Pear1과 Pear2는 양 귀에 도달한 음파의 음압을 나타낸다.Next, the arrangement of the microphone will be described in detail. In order to estimate the horizontal angle and the altitude angle of a sound source using only the output signals of two ears, an Interaural Transfer Function (ITF) between both ears signals is used. ITF can be expressed as Equation 2, where P ear1 and P ear2 represent sound pressures of sound waves reaching both ears.

Figure 112007081648008-pat00002
Figure 112007081648008-pat00002

무향실 환경과 같이 노이즈의 영향을 무시할 수 있다면, ITF는 수학식 3과 같이 양 귀의 HRTF의 비로서 표현될 수 있다.If the effect of noise can be neglected, such as in an anechoic chamber environment, ITF can be expressed as the ratio of HRTF of both ears as in Equation 3.

Figure 112007081648008-pat00003
Figure 112007081648008-pat00003

ITF는 ITD 및 ILD 정보를 모두 포함하고 있으며, ITD와 ILD는 각각 ITF의 위상과 크기로부터 구할 수 있다. 그런데 두 개의 마이크로폰이 좌우 대칭적인 위치에 배치된다면, 수평각이 0도인 중앙면상에는 음원의 고도각이 변화하더라도 HRTFear1과 HRTFear2가 동일하므로 ITD 및 ILD는 0이 되고, 이에 따라 ITF의 크기는 항상 1이 되어 음원의 고도각을 추정할 수 없게 된다. 따라서, 본 발명에서는 양 인공귀의 모양 또는 크기를 비대칭적으로 설계하거나 두 마이크로폰을 비대칭적인 위치에 배치한다.The ITF contains both ITD and ILD information, which can be obtained from the ITF phase and size respectively. However, if two microphones are placed in the symmetrical position, the ITD and ILD become zero because the HRTF ear1 and HRTF ear2 are the same even if the elevation angle of the sound source is changed on the center plane where the horizontal angle is 0 degrees. It becomes 1 and it becomes impossible to estimate the altitude angle of the sound source. Therefore, in the present invention, the shape or size of both artificial ears is asymmetrically designed or the two microphones are placed in an asymmetrical position.

도 8은 도 6a 및 도 6b에 도시된 인공귀와 머리 플랫폼을 이용하여 중앙면상에서 음원의 고도각을 변화시키면서 측정한 양귀간 주파수 영역 전달함수의 크기를 도시한 도면이다. 구체적으로는, 도 6b에 도시된 머리 플랫폼에서 우측 및 좌측 마이크로폰을 각각 B 및 C 위치에 배치한 상태로 중앙면상에서 음원의 고도각에 따른 ITF의 크기를 측정한 것이다. 전방 음원(고도각이 -30도 내지 90도)의 경우, 고도각의 변화에 따라 스펙트럼 왜곡, 예를 들어 노치 또는 피크가 음성 주파수 대역에서 단조롭게 변화하며, 후방 음원(고도각이 90도 내지 210도)의 경우 사라짐은 알 수 있다. 이처럼 두 개의 마이크로폰을 비대칭적 위치에 배치함으로써, 양 귀 출력신호로부터 구한 ITF로부터 음원의 앞-뒤 구분이 가능하고, 전방음원의 경우 음원의 고도각 추정이 가능하다.  FIG. 8 is a diagram showing the magnitudes of the frequency domain transfer function between the ears, measured by varying the elevation angle of the sound source on the center plane by using the artificial ear and the head platform shown in FIGS. 6A and 6B. Specifically, the size of the ITF according to the altitude angle of the sound source is measured on the center plane with the right and left microphones disposed at positions B and C, respectively, in the head platform shown in FIG. 6B. In the case of the front sound source (at an altitude of -30 degrees to 90 degrees), the spectral distortion, for example, a notch or a peak, changes monotonically in the voice frequency band according to the change of the altitude angle, and the rear sound source (altitude is 90 to 210 degrees). Disappearance can be seen. By placing the two microphones in an asymmetrical position, the front and rear of the sound source can be distinguished from the ITF obtained from both ears output signals, and the elevation angle of the sound source can be estimated in the case of the front sound source.

다음으로, 도 9 및 도 10을 참조하여 본 발명에 따른 인공귀를 이용한 음원 방향 검지 방법에 대해 상세히 설명한다. Next, with reference to Figures 9 and 10 will be described in detail the sound source direction detection method using an artificial ear according to the present invention.

도 9는 본 발명에 따른 인공귀를 이용하여 음원 방향을 검지하는 과정을 도시한 흐름도이다.9 is a flowchart illustrating a process of detecting a sound source direction using an artificial ear according to the present invention.

우선, 도 3 내지 도 7d를 참조하여 상세히 설명한 바와 같이, 음원의 방향에 따라 스펙트럼 왜곡을 유발하는 인공귀의 설계한다(S10). 이 때, 마이크로폰과 외이벽 사이의 거리가 음원의 방향에 따라 단조적으로 변화하도록 인공귀를 설계하는 것이 바람직하다. 또한, 음원의 관심 주파수 대역에 따라 인공귀의 크기를 조절한다. 본 발명의 일 실시예에 따라 음성 신호로부터 화자의 방향을 추정하는데 사용되기 위해서는, 인공귀는 도 6a에 도시된 바와 같이 15cm의 크기로 설계되는 것이 바람직하다.First, as described in detail with reference to FIGS. 3 to 7D, an artificial ear for inducing spectral distortion according to the direction of the sound source is designed (S10). At this time, it is preferable to design the artificial ear so that the distance between the microphone and the outer ear wall monotonously changes according to the direction of the sound source. In addition, the size of the artificial ear is adjusted according to the frequency band of interest of the sound source. In order to be used to estimate the direction of the speaker from the speech signal according to an embodiment of the present invention, the artificial ear is preferably designed to have a size of 15 cm as shown in FIG. 6A.

이 후, 음원 방향에 따른 스펙트럼 왜곡 정보에 대한 데이터베이스를 구축한다(S20). 스펙트럼 왜곡 정보는, 상기 단계 S10에서 설계된 인공귀를 이용하여 무향실 환경에서 측정하거나 또는 음향학적 이론에 기반한 시뮬레이션으로부터 얻은 음원의 방향에 따른 ITF의 피크 및 노치 정보이다. Thereafter, a database of spectral distortion information according to the sound source direction is constructed (S20). The spectral distortion information is the peak and notch information of the ITF according to the direction of the sound source measured in an anechoic chamber environment using the artificial ear designed in step S10 or obtained from a simulation based on acoustic theory.

이 후, 두 개의 마이크로폰과 상기 단계 S10에서 설계된 인공귀를 로봇 플랫폼에 부착한다(S30). 이 때, 모양 또는 크기가 비대칭적인 두 개의 인공귀를 로봇 플랫폼의 양 측면에 부착하거나, 또는 마이크로폰의 위치를 비대칭적으로 배치하여야 한다. Thereafter, the two microphones and the artificial ear designed in step S10 are attached to the robot platform (S30). At this time, two artificial ears which are asymmetric in shape or size should be attached to both sides of the robot platform, or the microphones should be positioned asymmetrically.

이 후, 음원의 수평각을 추정한다(S40). 음원의 수평각은 양이간 시간차를 이용하여 추정할 수 있다. ITD는 다양한 방법으로 추정할 수 있으며, 대표적인 ITD 추정 방법으로는 상호상관함수법(Generalized Cross-Correlation)과 위상함수를 이용하는 방법이 있다. Thereafter, the horizontal angle of the sound source is estimated (S40). The horizontal angle of the sound source can be estimated using the time difference between the two ears. ITD can be estimated by various methods, and typical ITD estimation methods include generalized cross-correlation and phase functions.

수학식 4는 상호상관함수법을 나타낸 것으로,

Figure 112007081648008-pat00004
은 두 출력신호 사이의 상호상관함수이고,
Figure 112007081648008-pat00005
는 양 귀 출력신호 사이의 상호 스펙트럼 밀도함수(cross-spectral density function)이고, W는 주파수 영역 가중치함수이다. 즉, 상호상관함수법은 가중치가 부여된
Figure 112007081648008-pat00006
의 역 퓨리에 변환(Inverse Fourier Transform)으로 구한 상호상관함수의 최대 피크를 찾음으로써 ITD를 구하는 방법이다.Equation 4 shows the cross-correlation function,
Figure 112007081648008-pat00004
Is the cross-correlation function between the two output signals,
Figure 112007081648008-pat00005
Is the cross-spectral density function between both ears output signal, and W is the frequency domain weighting function. In other words, the cross-correlation method is weighted
Figure 112007081648008-pat00006
It is a method of calculating the ITD by finding the maximum peak of the cross-correlation function obtained by the inverse Fourier transform.

Figure 112007081648008-pat00007
Figure 112007081648008-pat00007

수학식 5는 위상함수를 이용하는 방법을 나타낸 것으로,

Figure 112007081648008-pat00008
는 ITF의 위상을 나타낸다. 즉, ITF 위상함수의 기울기로써 ITD를 구하는 방법이다.Equation 5 shows a method using a phase function,
Figure 112007081648008-pat00008
Represents the phase of the ITF. That is, it is a method of calculating the ITD by the slope of the ITF phase function.

Figure 112007081648008-pat00009
Figure 112007081648008-pat00009

상기와 같은 방법에 의해 구한 ITD로부터 음원의 수평각을 추정할 때, 두 마이크로폰이 머리 형상 플랫폼의 양 측면에 배치된 것을 고려하여야 한다. 즉, 머리에 의해 한 쪽 마이크로폰이 가려진 경우, 음원에서 방사된 음파가 가려진 마이크로폰에 도달할 때까지 머리에 의해 받는 영향을 고려해야 한다. 이를 고려하는 방 법의 일 예로, Woodworth와 Schlosberg에 의해 제안된 방법이 있으며, 수학식 6과 같이 표현될 수 있다. When estimating the horizontal angle of the sound source from the ITD obtained by the above method, it is necessary to consider that the two microphones are arranged on both sides of the head platform. In other words, if one microphone is obscured by the head, the effects of the head must be considered until the sound waves emitted from the sound source reach the obscured microphone. An example of a method to consider this is the method proposed by Woodworth and Schlosberg, it can be expressed as Equation 6.

Figure 112007081648008-pat00010
Figure 112007081648008-pat00010

상기 방법은 ITD로부터 음원의 수평각을 추정하는 것으로, d(θ)는 수평각이 θ일 때 음원에서 방사된 음파가 양 귀에 도달하는 경로의 차이를 나타내며, c는 음파의 전파속도를 나타낸다. 즉, 도 10에 도시된 바와 같이, 머리의 형상정보와 ITD를 이용하여 수평각θ를 추정할 수 있다.The method estimates the horizontal angle of the sound source from the ITD, where d (θ) represents the difference in the path of sound waves emitted from the sound source to both ears when the horizontal angle is θ, and c represents the propagation speed of the sound waves. That is, as shown in FIG. 10, the horizontal angle θ may be estimated using the shape information of the head and the ITD.

이 후, 음원 위치의 앞뒤 구분 및 고도각 추정을 위해 상기한 바와 같이 양귀 신호 사이의 주파수 영역 전달함수(ITF)를 측정한 후(S50), ITF로부터 음원 위치의 앞-뒤 구분 및 고도각을 추정한다(S60).Then, after measuring the frequency domain transfer function (ITF) between the both ears signal as described above to estimate the front and rear division and altitude angle of the sound source position (S50), the front and rear division and altitude angle of the sound source position from the ITF are measured. It is estimated (S60).

음원 위치 방향, 즉 음원 위치의 앞-뒤는 ITF의 크기함수로부터 구분할 수 있다. 도 8을 참조하여 설명한 바와 같이, ITF에서 피크와 노치의 존재유무로부터 음원 위치의 앞-뒤를 구분한다. The direction of the sound source position, i.e., the front and back of the sound source position can be distinguished from the size function of the ITF. As described with reference to FIG. 8, in the ITF, the front and rear of the sound source position are distinguished from the presence of peaks and notches.

또한, 음원의 고도각 역시 ITF에서의 피크와 노치 정보로부터 추정할 수 있다. 실제 측정한 ITF의 피크와 노치 정보를 상기 단계S20에서 구축된 음원 방향에 따른 스펙트럼 왜곡 정보에 대한 데이터베이스와 비교함으로써 음원의 고도각을 추정한다. 수학식 7 및 수학식 8은 음원의 고도각 추정에 사용될 수 있는 방법의 예시이다. In addition, the elevation angle of the sound source can also be estimated from the peak and notch information in the ITF. The altitude angle of the sound source is estimated by comparing the peak and notch information of the actually measured ITF with a database of spectral distortion information according to the sound source direction constructed in step S20. Equations 7 and 8 are examples of methods that can be used for estimating an elevation angle of a sound source.

Figure 112007081648008-pat00011
Figure 112007081648008-pat00011

이 때, R은 ITF 데이터베이스(ITFDB)와 측정된 ITF(ITFmeasured) 사이의 상관계수(correlation coefficient)를 나타낸다. 즉, 수학식 7에 의하면, 보유하고 있는 ITF 데이터베이스 중에서 측정된 ITF와 상관계수가 가장 큰 ITF를 찾음으로써 음원의 고도각을 추정한다. In this case, R represents a correlation (correlation coefficient) between the ITF database (DB ITF) and measuring the ITF (ITF measured). That is, according to Equation 7, the altitude angle of the sound source is estimated by finding the ITF having the largest ITF and the correlation coefficient among the ITF databases.

Figure 112007081648008-pat00012
Figure 112007081648008-pat00012

이 때, fn과 fp는 각각 ITF의 노치와 피크가 나타나는 주파수이고, N과 M은 각각 노치와 피크의 총 개수를 나타낸다. 즉, 수학식 8에 의하면, 측정된 ITF의 피크 및 노치 주파수를 데이터베이스와 비교함으로써 음원의 고도각을 추정한다. 한 편, 수학식 8에서 데이터베이스의 노치 및 피크 주파수와 측정된 ITF의 노치 및 피크 주파수의 차이의 제곱 값이 아니라 상기 차이의 절대값을 이용하여 계산할 수도 있다. In this case, f n and f p are frequencies at which the notches and peaks of the ITF appear, respectively, and N and M represent the total number of notches and peaks, respectively. That is, according to Equation 8, the altitude angle of the sound source is estimated by comparing the measured peak and notch frequency with the database. Meanwhile, in Equation 8, the absolute value of the difference may be calculated, not the square of the difference between the notch and peak frequency of the database and the measured notch and peak frequency of the ITF.

본 발명에 따른 실시예는 상술한 것으로 한정되지 않고, 본 발명과 관련하여 통상의 지식을 가진 자에게 자명한 범위 내에서 여러 가지의 대안, 수정 및 변경하 여 실시할 수 있다.The embodiment according to the present invention is not limited to the above, and may be implemented by various alternatives, modifications, and changes within the scope obvious to those skilled in the art.

본 발명에 의하면, 두 마이크로폰만을 사용하여 음원 위치의 앞-뒤 구분, 수평각 및 고도각을 동시에 추정할 수 있다. 또한, 다수의 마이크로폰으로 구성된 마이크로폰 어레이를 사용하는 것에 비해 플랫폼에 마이크로폰을 배치하는 것이 자유로워지며, 처리해야 할 출력 신호의 양이 줄어들어 실시간 방향 검지가 용이해진다.According to the present invention, it is possible to simultaneously estimate the front-rear division, the horizontal angle and the altitude angle of the sound source location using only two microphones. In addition, compared to using a microphone array consisting of a large number of microphones, it is free to place the microphone on the platform, and the amount of output signals to be processed is reduced, which facilitates real-time direction detection.

도 1은 수직 극좌표계를 도시한 도면.1 shows a vertical polar coordinate system.

도 2는 수평각이 0도인 중앙면상에서 음원의 고도각 변화에 따른 인간의 머리전달함수의 크기를 도시한 도면.Figure 2 is a diagram showing the size of the human head transfer function according to the change in the elevation angle of the sound source on the center plane of the horizontal angle 0 degrees.

도 3은 음원 방향에 따른 마이크로폰과 외이벽 사이의 거리를 도시한 도면.3 is a diagram showing the distance between the microphone and the outer ear wall along the sound source direction;

도 4a 및 도 4b는 음원 방향에 따라 마이크로폰과 외이벽 사이의 거리가 단조적으로 변화하도록 설계된 인공귀를 도시한 도면.4A and 4B show artificial ears designed to monotonously change the distance between the microphone and the outer ear wall according to the sound source direction.

도 5a 및 도 5b는 수평각이 0도인 중앙면상에서 음원의 고도각 변화에 따른, 도 4a 및 도 4b에 도시된 인공귀의 머리전달함수의 크기를 도시한 도면.5A and 5B are diagrams showing the size of the head transfer function of the artificial ear shown in FIGS. 4A and 4B according to the change in the elevation angle of the sound source on the center plane of which the horizontal angle is 0 degrees.

도 6a는 본 발명의 일 실시예에 따른 인공귀를 도시한 도면.6A illustrates an artificial ear according to an embodiment of the present invention.

도 6b는 도 6a에 도시된 인공귀가 부착되는 로봇의 머리 플랫폼을 도시한 도면.FIG. 6B shows the head platform of the robot to which the artificial ear shown in FIG. 6A is attached;

도 7a 내지 도 7d는 도 6a 및 도 6b에 도시된 인공귀와 머리 플랫폼을 이용하여 측정한 머리전달함수의 크기를 도시한 도면.7a to 7d are diagrams showing the size of the head transfer function measured using the artificial ear and the head platform shown in FIGS. 6a and 6b.

도 8은 도 6a 및 도 6b에 도시된 인공귀와 머리 플랫폼을 이용하여 중앙면상에서 음원의 고도각을 변화시키면서 측정한 양귀간 주파수 영역 전달함수의 크기를 도시한 도면.8 is a view showing the magnitude of the frequency domain transfer function between the ears measured while varying the elevation angle of the sound source on the center plane using the artificial ear and the head platform shown in FIGS. 6A and 6B.

도 9는 본 발명에 따른 인공귀를 이용하여 음원 방향을 검지하는 과정을 도시한 흐름도.9 is a flowchart illustrating a process of detecting a sound source direction using an artificial ear according to the present invention.

도 10은 음원에서 방사된 음파가 양 귀에 도달하는 경로의 차이 도시한 도 면.10 is a diagram showing the difference in the path of sound waves emitted from the sound source to both ears.

Claims (9)

음원 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀로서,An artificial ear that causes spectral distortion of an output signal that changes according to the direction of the sound source, 마이크로폰이 부착되는 마이크로폰 홀; 및A microphone hole to which a microphone is attached; And 곡면 형상의 구조물을 포함하되, 음원의 위치가 변경됨에 따라 상기 구조물의 곡면과 상기 마이크로폰 사이의 거리가, 음원 방향에 따라 증가 또는 감소하도록 설계된 것을 특징으로 하는 인공귀.An artificial ear, comprising a curved structure, wherein the distance between the curved surface of the structure and the microphone is designed to increase or decrease according to the direction of the sound source as the position of the sound source is changed. 제 1 항에 있어서,The method of claim 1, 상기 구조물은 방향 검지 대상 음원에서 방사되는 음파를 반사 및 회절시켜 스펙트럼 왜곡을 유발하는 것을 특징으로 하는 인공귀.The structure is an artificial ear, characterized in that for reflecting and diffracting the sound waves emitted from the direction target sound source to cause spectral distortion. 제 1 항에 있어서,The method of claim 1, 상기 인공귀의 크기는 방향 검지 대상 음원에서 발생하는 신호의 주파수 대역에 따라 상이한 것을 특징으로 하는 인공귀.The artificial ear, characterized in that the size of the artificial ear is different depending on the frequency band of the signal generated in the direction target sound source. 음원 방향에 따라 변화하는 출력신호의 스펙트럼 왜곡을 유발하는 인공귀를 이용한 음원 방향 검지 방법으로서,A sound source direction detection method using an artificial ear that causes spectral distortion of an output signal that changes according to the sound source direction, 두 개의 마이크로폰 및 두 개의 상기 인공귀가 로봇 플랫폼에 부착되는 단계(a);(A) attaching two microphones and two said artificial ears to a robotic platform; 상기 두 개의 인공귀 간의 시간차로부터 음원의 수평각을 추정하는 단계(b); 및(B) estimating a horizontal angle of a sound source from the time difference between the two artificial ears; And 상기 두 개의 인공귀의 신호 사이의 주파수 영역 전달함수로부터 음원 위치의 앞-뒤 구분 및 음원의 고도각을 추정하는 단계(c)를 포함하며, 상기 주파수 영역 전달 함수는 f가 주파수, Pear1과 Pear2가 각각 상기 두 개의 인공귀에 도달한 음파의 음압을 나타낼 때,
Figure 112009062725713-pat00029
의 수학식인 것을 특징으로 하는 음원 방향 검지 방법.
Estimating the front-rear separation of the sound source position and the elevation angle of the sound source from the frequency-domain transfer function between the signals of the two artificial ears, wherein the frequency-domain transfer function includes f is the frequency, P ear1 and P When ear2 each represents the sound pressure of sound waves reaching the two artificial ears,
Figure 112009062725713-pat00029
Sound source direction detection method characterized in that the equation.
제 4 항에 있어서,The method of claim 4, wherein 상기 단계(a)에서 상기 두 개의 마이크로폰은 각각 상기 두 개의 인공귀의 마이크로폰 홀에 부착되며, 상기 두 개의 마이크로폰은 서로 비대칭적인 위치에 부착되는 것을 특징으로 하는 음원 방향 검지 방법.And the two microphones are respectively attached to the microphone holes of the two artificial ears, and the two microphones are attached to the asymmetrical positions of the two artificial ears in the step (a). 제 4 항에 있어서,The method of claim 4, wherein 상기 단계(a)에서 상기 두 개의 인공귀의 모양 또는 크기가 서로 상이한 것을 특징으로 하는 음원 방향 검지 방법.Sound source direction detection method, characterized in that in the step (a) the shape or size of the two artificial ears are different from each other. 제 4 항에 있어서,The method of claim 4, wherein 상기 단계(b)에서 상기 두 개의 마이크로폰이 부착되는 상기 로봇 플랫폼의 형상 및 상기 두 개의 마이크로폰이 부착된 위치를 고려하여 음원의 수평각을 추정하는 것을 특징으로 하는 음원 방향 검지 방법.And (b) estimating a horizontal angle of a sound source in consideration of the shape of the robot platform to which the two microphones are attached and the position where the two microphones are attached. 제 4 항에 있어서,The method of claim 4, wherein 상기 단계(c)에서 상기 두 개의 인공귀의 신호 사이의 주파수 영역 전달함수에서 피크와 노치의 존재유무로부터 음원 위치의 앞-뒤를 구분하는 것을 특징으로 하는 음원 방향 검지 방법.And (c) in the frequency domain transfer function between the signals of the two artificial ears, distinguishing the front and back of the sound source position from the presence of a peak and a notch. 제 4 항에 있어서,The method of claim 4, wherein 상기 단계(c)에서 상기 두 개의 인공귀의 신호 사이의 주파수 영역 전달함수에서 피크와 노치 정보로부터 음원의 고도각을 추정하는 것을 특징으로 하는 음원 방향 검지 방법.And (c) estimating an elevation angle of a sound source from peak and notch information in a frequency domain transfer function between the signals of the two artificial ears.
KR1020070116031A 2007-11-14 2007-11-14 Artificial ear causing spectral distortion and sound source direction detection method using same KR100931401B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
KR1020070116031A KR100931401B1 (en) 2007-11-14 2007-11-14 Artificial ear causing spectral distortion and sound source direction detection method using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
KR1020070116031A KR100931401B1 (en) 2007-11-14 2007-11-14 Artificial ear causing spectral distortion and sound source direction detection method using same

Publications (2)

Publication Number Publication Date
KR20090049761A KR20090049761A (en) 2009-05-19
KR100931401B1 true KR100931401B1 (en) 2009-12-11

Family

ID=40858406

Family Applications (1)

Application Number Title Priority Date Filing Date
KR1020070116031A KR100931401B1 (en) 2007-11-14 2007-11-14 Artificial ear causing spectral distortion and sound source direction detection method using same

Country Status (1)

Country Link
KR (1) KR100931401B1 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101081752B1 (en) * 2009-11-30 2011-11-09 한국과학기술연구원 Artificial Ear and Method for Detecting the Direction of a Sound Source Using the Same
KR101217254B1 (en) 2012-01-13 2012-12-31 한국과학기술연구원 Generation technique of inter-channel time delay(itd) maps for shifted robot artificial ear, the use of estimation of sound source direction
KR101244617B1 (en) 2012-01-13 2013-03-18 한국과학기술연구원 Technique of inter-channel time delay(itd) map customization for robot artificial ear, the use of estimation of sound source direction
KR20150097085A (en) 2014-02-18 2015-08-26 주식회사 일리시스 Security data collection appatatusand method collection method of the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101115366B1 (en) * 2011-01-12 2012-02-15 한국과학기술원 Method and apparatus for estimating sound source direction, and method for hearing sound

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4143244A (en) 1975-12-26 1979-03-06 Victor Company Of Japan, Limited Binaural sound reproducing system
KR20060130919A (en) * 2005-06-09 2006-12-20 한국과학기술원 Artificial ear having the combination of microphones with different directivities and sound source localization method using this artificial ear
KR20070121570A (en) * 2006-06-22 2007-12-27 혼다 리서치 인스티튜트 유럽 게엠베하 Robot head with artificial ears

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US4143244A (en) 1975-12-26 1979-03-06 Victor Company Of Japan, Limited Binaural sound reproducing system
KR20060130919A (en) * 2005-06-09 2006-12-20 한국과학기술원 Artificial ear having the combination of microphones with different directivities and sound source localization method using this artificial ear
KR20070121570A (en) * 2006-06-22 2007-12-27 혼다 리서치 인스티튜트 유럽 게엠베하 Robot head with artificial ears

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101081752B1 (en) * 2009-11-30 2011-11-09 한국과학기술연구원 Artificial Ear and Method for Detecting the Direction of a Sound Source Using the Same
US8369550B2 (en) 2009-11-30 2013-02-05 Korea Institute Of Science And Technology Artificial ear and method for detecting the direction of a sound source using the same
KR101217254B1 (en) 2012-01-13 2012-12-31 한국과학기술연구원 Generation technique of inter-channel time delay(itd) maps for shifted robot artificial ear, the use of estimation of sound source direction
KR101244617B1 (en) 2012-01-13 2013-03-18 한국과학기술연구원 Technique of inter-channel time delay(itd) map customization for robot artificial ear, the use of estimation of sound source direction
KR20150097085A (en) 2014-02-18 2015-08-26 주식회사 일리시스 Security data collection appatatusand method collection method of the same

Also Published As

Publication number Publication date
KR20090049761A (en) 2009-05-19

Similar Documents

Publication Publication Date Title
US11330388B2 (en) Audio source spatialization relative to orientation sensor and output
Argentieri et al. A survey on sound source localization in robotics: From binaural to array processing methods
JP5657127B2 (en) Apparatus and method for obtaining direction information, system, and computer program
Mohan et al. Localization of multiple acoustic sources with small arrays using a coherence test
US9351071B2 (en) Audio source position estimation
Pourmohammad et al. N-dimensional N-microphone sound source localization
KR100931401B1 (en) Artificial ear causing spectral distortion and sound source direction detection method using same
Jackson et al. Sound field planarity characterized by superdirective beamforming
Padois et al. Acoustic source localization using a polyhedral microphone array and an improved generalized cross-correlation technique
KR101086304B1 (en) Signal processing apparatus and method for removing reflected wave generated by robot platform
US8369550B2 (en) Artificial ear and method for detecting the direction of a sound source using the same
KR20090128221A (en) Method for sound source localization and system thereof
Lee et al. Estimation of multiple sound source directions using artificial robot ears
Zempo et al. Direction of arrival estimation based on delayed-sum method in reverberation environment
Mabande et al. On 2D localization of reflectors using robust beamforming techniques
Shujau et al. Designing acoustic vector sensors for localisation of sound sources in air
Silverman et al. Factors affecting the performance of large-aperture microphone arrays
Rizzo et al. Localization of sound sources by means of unidirectional microphones
Nguyen et al. Multiple sound sources localization with perception sensor network
Brutti et al. An environment aware ML estimation of acoustic radiation pattern with distributed microphone pairs
Papež et al. Enhanced MVDR beamforming for mems microphone array
Ono et al. Sound Source Localization with Front-Back Judgement by Two Microphones Asymmetrically Mounted on a Sphere.
JPH0466887A (en) Decision of number of sound sources
Yamamoto et al. Localization of multiple environmental sound sources by MUSIC method with weighted histogram
Saidi et al. Bearing and range estimation using wide-band music method

Legal Events

Date Code Title Description
A201 Request for examination
E902 Notification of reason for refusal
E701 Decision to grant or registration of patent right
GRNT Written decision to grant
FPAY Annual fee payment

Payment date: 20121203

Year of fee payment: 4

FPAY Annual fee payment

Payment date: 20131129

Year of fee payment: 5

LAPS Lapse due to unpaid annual fee