WO2008056649A1 - Sound source position detector - Google Patents

Sound source position detector Download PDF

Info

Publication number
WO2008056649A1
WO2008056649A1 PCT/JP2007/071524 JP2007071524W WO2008056649A1 WO 2008056649 A1 WO2008056649 A1 WO 2008056649A1 JP 2007071524 W JP2007071524 W JP 2007071524W WO 2008056649 A1 WO2008056649 A1 WO 2008056649A1
Authority
WO
WIPO (PCT)
Prior art keywords
sound
sound source
microphones
frequency
frequency signal
Prior art date
Application number
PCT/JP2007/071524
Other languages
French (fr)
Japanese (ja)
Inventor
Shinichi Yoshizawa
Yoshihisa Nakatoh
Original Assignee
Panasonic Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corporation filed Critical Panasonic Corporation
Priority to DE602007011807T priority Critical patent/DE602007011807D1/en
Priority to US12/094,724 priority patent/US8184827B2/en
Priority to EP07831256A priority patent/EP2090895B1/en
Priority to JP2008504286A priority patent/JP4177452B2/en
Priority to CN2007800321570A priority patent/CN101512374B/en
Publication of WO2008056649A1 publication Critical patent/WO2008056649A1/en

Links

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S3/00Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received
    • G01S3/80Direction-finders for determining the direction from which infrasonic, sonic, ultrasonic, or electromagnetic waves, or particle emission, not having a directional significance, are being received using ultrasonic, sonic or infrasonic waves
    • G01S3/802Systems for determining direction or deviation from predetermined direction
    • G01S3/808Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems
    • G01S3/8083Systems for determining direction or deviation from predetermined direction using transducers spaced apart and measuring phase or time difference between signals therefrom, i.e. path-difference systems determining direction of source
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS OR SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING; SPEECH OR AUDIO CODING OR DECODING
    • G10L21/00Processing of the speech or voice signal to produce another audible or non-audible signal, e.g. visual or tactile, in order to modify its quality or its intelligibility
    • G10L21/02Speech enhancement, e.g. noise reduction or echo cancellation
    • G10L21/0208Noise filtering
    • G10L21/0216Noise filtering characterised by the method used for estimating noise
    • G10L2021/02161Number of inputs available containing the signal or the noise to be suppressed
    • G10L2021/02166Microphone arrays; Beamforming
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2201/00Details of transducers, loudspeakers or microphones covered by H04R1/00 but not provided for in any of its subgroups
    • H04R2201/40Details of arrangements for obtaining desired directional characteristic by combining a number of identical transducers covered by H04R1/40 but not provided for in any of its subgroups
    • H04R2201/403Linear arrays of transducers
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04RLOUDSPEAKERS, MICROPHONES, GRAMOPHONE PICK-UPS OR LIKE ACOUSTIC ELECTROMECHANICAL TRANSDUCERS; DEAF-AID SETS; PUBLIC ADDRESS SYSTEMS
    • H04R2410/00Microphones

Abstract

A sound source position detector capable of detecting a sound source position of an extracted sound comprises at least two microphones; an analysis section (103) which performs a frequency analysis of mixed sound including a noise inputted to each of the microphones and outputs frequency signals; and an extraction section (105) which generates a plurality of sound source candidate positions of the extracted sound contained in the mixed sound, adjusts the time-axis of the frequency signals corresponding to the two microphones so as to eliminate a time difference between mixed sound reaching the two microphones from the sound source candidate position for each of the sound source candidate positions, determines frequency signals in which a difference distance indicating the difference degree of frequency signals between the two microphones out of the frequency signals corresponding to the two microphones after the adjustment of the time-axis is not greater than a threshold value, and extracts the sound source position of the extracted sound from the sound source candidate positions depending on the matching degree of the frequency signals corresponding to the two microphones out of the determined frequency signals.

Description

明 細 書  Specification
音源位置検知装置  Sound source position detector
技術分野  Technical field
[0001] 本発明は、所定の雑音の影響を除去して上記雑音以外の音の音源方向または音 源位置を検知する音源位置検知装置、音源位置検知方法、及び、プログラムに関す る。特に、自車両のエンジン音の影響を除去して自車両の周辺に存在する他車両の 音源方向または音源位置を検知する車載用の音源位置検知装置等に関する。 背景技術  [0001] The present invention relates to a sound source position detection device, a sound source position detection method, and a program for detecting a sound source direction or a sound source position of sound other than the noise by removing the influence of predetermined noise. In particular, the present invention relates to a vehicle-mounted sound source position detection device that detects the sound source direction or the sound source position of another vehicle existing around the host vehicle by removing the influence of the engine sound of the host vehicle. Background art
[0002] 音源位置を検知する第 1の従来技術として、複数のマイクロホンに入力された音響 信号を相互に遅延させて畳み込み、二乗誤差を求めて、二乗誤差の値が最小にな る時の遅延量から上記音源信号の音源方向を特定するものが提案されて!/、る(例え ば、特許文献 1参照)。  [0002] As a first conventional technique for detecting the position of a sound source, acoustic signals input to a plurality of microphones are mutually delayed and convolved to obtain a square error, and a delay when the square error value is minimized. There has been proposed one that specifies the sound source direction of the sound source signal based on the quantity! (For example, see Patent Document 1).
[0003] 雑音を含む混合音から抽出の対象とする抽出音の音源位置を検知する第 2の従来 技術として、自車両のエンジン回転数を検知して、エンジン回転数の基本波成分お よび高調波成分を除去することにより、自車両のエンジン音の影響を軽減するものが 提案されている(例えば、特許文献 2参照)。  [0003] As a second conventional technique for detecting the sound source position of the extracted sound to be extracted from the mixed sound including noise, the fundamental speed component and the harmonics of the engine speed are detected by detecting the engine speed of the host vehicle. There has been proposed one that reduces the influence of the engine sound of the host vehicle by removing the wave component (see, for example, Patent Document 2).
[0004] 図 1は、第 2の従来技術による自車両のエンジン音を除去する方法を説明するため の図である。  [0004] FIG. 1 is a diagram for explaining a method of removing engine sound of a host vehicle according to a second conventional technique.
[0005] 第 2の従来技術では、はじめに、自車両のエンジン回転数を検知するセンサを用い てエンジン音の基本波成分 fkHzを決定する。次に、基本波成分 f kHzを用いてェン ジン音の高調波成分を 2fkHz、 3fkHz、…を求める。図 1 (a)には、音響マイクロホン により採集された音の波形の周波数信号が示されて!/、る。横軸は周波数を示してお り縦軸は信号レベルを示している。ここで、先ほど求めた基本波成分 fkHzおよび高 調波成分 2fkHz、 3fkHz、…の周波数帯域の信号(図 1 (b)参照)を図 1 (a)に示した 周波数信号から除去する。その結果、図 1 (c)に示されるように、エンジン音の基本波 成分 fkHzと高調波成分 2fkHz、 3fkHz、…の周波数帯域の信号が除去された周波 数信号が得られる。この除去後の周波数信号を用いて自車両周辺の車両の音源位 置が求められる。 [0005] In the second prior art, first, a fundamental wave component fkHz of engine sound is determined using a sensor that detects the engine speed of the host vehicle. Next, 2 fkHz, 3 fkHz, and so on are calculated as harmonic components of the engine sound using the fundamental wave component f kHz. Figure 1 (a) shows the frequency signal of the waveform of the sound collected by the acoustic microphone! The horizontal axis shows the frequency and the vertical axis shows the signal level. Here, the signal in the frequency band of the fundamental wave component fkHz and harmonic components 2fkHz, 3fkHz, etc. (see Fig. 1 (b)) obtained earlier is removed from the frequency signal shown in Fig. 1 (a). As a result, as shown in Fig. 1 (c), a frequency signal is obtained by removing signals in the frequency band of the fundamental component fkHz and harmonic components 2fkHz, 3fkHz, ... of the engine sound. Using this frequency signal after removal, the sound source position of the vehicle around the vehicle Is required.
特許文献 1 :特開平 6— 83371号公報 (請求項 2)  Patent Document 1: JP-A-6-83371 (Claim 2)
特許文献 2 :特開平 5— 85288号公報 (請求項 2、図 4)  Patent Document 2: JP-A-5-85288 (Claim 2, Fig. 4)
発明の開示  Disclosure of the invention
発明が解決しょうとする課題  Problems to be solved by the invention
[0006] しかしながら、第 1の従来技術では、雑音を含む混合音の中から抽出の対象とする 抽出音を区別する手段がないため、混合音から抽出音の音源位置を検知することが 困難であった。 [0006] However, in the first prior art, since there is no means for distinguishing the extracted sound to be extracted from the mixed sound including noise, it is difficult to detect the sound source position of the extracted sound from the mixed sound. there were.
[0007] また、第 2の従来技術では、エンジンの回転数から求めたエンジン音の基本波成分 および高調波成分の周波数領域の信号を単純に除去して!/、るだけである。このため 、 自車両のエンジン音の影響を完全に除去することはできない。その具体例につい て、以下に説明する。  [0007] In the second prior art, the fundamental frequency component and the harmonic component of the engine sound obtained from the engine speed are simply removed! /. Therefore, the effect of the engine sound of the vehicle cannot be completely removed. Specific examples will be described below.
[0008] 図 2は、車載用のマイクロホンが入力した自車両のエンジン音(アイドリング音)を、 スペクトログラムにより表示したものである。このスペクトログラムは、縦軸が周波数、横 軸が時間を示している。また、このスペクトログラムでは、色の薄い点ほど音圧レベル (信号レベル)が大きぐ色の濃い点ほど音圧レベルが小さい。  FIG. 2 shows a spectrogram of the engine sound (idling sound) of the host vehicle input by the in-vehicle microphone. In the spectrogram, the vertical axis represents frequency and the horizontal axis represents time. Also, in this spectrogram, the light pressure level (signal level) is larger as the color is lighter and the sound pressure level is smaller as the color is darker.
[0009] 図 2に示すスペクトログラムによると、エンジン音の基本波成分および高調波成分だ けが単純に現れるのではなぐその他の周波数帯域にも信号成分が複雑に現れてい ること力 Sわ力、る。この原因の一つとして、エンジンルームからマイクロホンにエンジン音 が伝達するときに、ボンネットなどの影響で波形が歪んだとも考えられる。このため、 エンジン音の基本波成分および高調波成分を単純に除去するだけでは自車両のェ ンジン音の影響を完全に除去することはできない。なお、スペクトログラムを把握しや すくするために、図 2に示したスペクトログラムの濃淡値を二値化したものを図 3に示 す。  [0009] According to the spectrogram shown in Fig. 2, not only the fundamental and harmonic components of the engine sound simply appear, but also the signal components appear complicatedly in other frequency bands. . One of the reasons for this is thought to be that the waveform was distorted by the influence of the hood when the engine sound was transmitted from the engine room to the microphone. For this reason, the influence of the engine sound of the vehicle cannot be completely removed by simply removing the fundamental and harmonic components of the engine sound. In order to make it easier to understand the spectrogram, Fig. 3 shows the binarized gray value of the spectrogram shown in Fig. 2.
[0010] 本発明は、このような問題点に鑑みてなされたものであり、所定の雑音の影響を除 去して上記雑音以外の音の音源方向または音源位置を検知することができる音源位 置検知装置等を提供することを目的とする。  [0010] The present invention has been made in view of such problems, and it is possible to detect a sound source direction or a sound source position of a sound other than the noise by removing the influence of predetermined noise. An object is to provide a position detection device and the like.
[0011] 特に、自車両のエンジン音の影響を除去して自車両の周辺に存在する他車両の音 源方向または音源位置を検知することができる車載用の音源位置検知装置等を提 供することを目的とする。 [0011] In particular, the influence of the engine sound of the host vehicle is removed, and the sound of other vehicles existing around the host vehicle is removed. The purpose is to provide a vehicle-mounted sound source position detection device that can detect the source direction or the sound source position.
課題を解決するための手段  Means for solving the problem
[0012] 上記目的を達成するために、本発明に係る音源位置検知装置は、雑音を含む混 合音から、抽出の対象とする抽出音の音源方向または音源位置を検知する音源位 置検知装置であって、離間して配置された複数のマイクロホンから、各々入力される 雑音を含む混合音を周波数分析し、周波数信号を出力する分析手段と、前記混合 音に含まれる抽出音の複数の音源方向または音源位置の候補の各々について、(a )当該音源方向または音源位置の候補から前記複数のマイクロホンに到達する前記 混合音の時間差がなくなるように前記複数のマイクロホンに対応する周波数信号の 時間軸を調整し、 (b)時間軸調整後の前記複数のマイクロホンに対応する周波数信 号のうち前記複数のマイクロホン間での前記周波数信号の異なり度合を示す差分距 離がしきい値以下となる周波数信号を求め、(c)求められた周波数信号のうち前記複 数のマイクロホンに対応する周波数信号同士の一致度合により、音源方向または音 源位置の候補の中から前記抽出音の音源方向または音源位置を抽出する抽出手段 とを備え、前記しきい値は、前記複数のマイクロホンに前記抽出音が入力された場合 に、当該抽出音を周波数分析した周波数信号の前記複数のマイクロホン間での前記 差分距離が前記しきい値以下になるように定められ、かつ、前記しきい値は、当該複 数のマイクロホンに除去の対象とする所定の雑音が入力された場合に、当該所定の 雑音を周波数分析した周波数信号の前記複数のマイクロホン間での前記差分距離 が前記しきい値よりも大きくなるように定められていることを特徴とする。  [0012] In order to achieve the above object, a sound source position detection device according to the present invention detects a sound source direction or a sound source position of an extracted sound to be extracted from a mixed sound including noise. An analysis means for analyzing a frequency of a mixed sound including noise input from each of a plurality of microphones arranged separately and outputting a frequency signal, and a plurality of sound sources of the extracted sound included in the mixed sound For each of the direction or sound source position candidates, (a) the time axis of the frequency signal corresponding to the plurality of microphones so that there is no time difference between the mixed sounds reaching the plurality of microphones from the sound source direction or sound source position candidates. (B) The difference distance indicating the degree of difference in the frequency signals among the plurality of microphones among the frequency signals corresponding to the plurality of microphones after the time axis adjustment. A frequency signal whose separation is less than or equal to a threshold value is obtained. (C) Among the obtained frequency signals, the frequency signals corresponding to the plurality of microphones are matched with each other from the sound source direction or sound source position candidates. Extraction means for extracting a sound source direction or a sound source position of the extracted sound, and when the extracted sound is input to the plurality of microphones, the threshold is the frequency signal obtained by frequency analysis of the extracted sound. The difference distance between a plurality of microphones is determined to be equal to or less than the threshold value, and the threshold value is determined when predetermined noise to be removed is input to the plurality of microphones. The difference distance between the plurality of microphones of the frequency signal obtained by frequency analysis of the predetermined noise is determined to be larger than the threshold value.
[0013] これによつて、しきい値処理により差分距離の大小を比較することで、除去の対象と する雑音と抽出の対象とする抽出音とを区別できるため、上記雑音に対応する周波 数信号の部分をマイクロホンが入力した混合音の周波数信号に基づいて選択的に 除去することで、上記雑音の影響を除去して上記抽出音の音源方向または音源位 置を検知することができる。  [0013] Thus, by comparing the difference distance by threshold processing, it is possible to distinguish between the noise to be removed and the extracted sound to be extracted, and therefore the frequency corresponding to the noise. By selectively removing the signal portion based on the frequency signal of the mixed sound input by the microphone, the influence of the noise can be removed and the sound source direction or the sound source position of the extracted sound can be detected.
[0014] 図 4Aに、雑音(自車両のエンジン音)の各々のマイクロホンにおけるスぺクトログラ ムの一例を示す。図 4Bに雑音の各々のマイクロホンにおける周波数信号 (パワース ぺクトル)の一例を示す。また、図 5Aに、抽出音(自車両の周辺に存在するバイク音) の各々のマイクロホンにおけるスペクトログラムを示す。図 5B及び図 5Cの各々に、抽 出音の各々のマイクロホンにおける周波数信号 (パワースペクトル)の一例を示す。各 々のマイクロホンは、 自車両の前方バンパーの左側と右側に備え付けられている。 [0014] FIG. 4A shows an example of a spectrogram in each microphone of noise (engine sound of the host vehicle). Figure 4B shows the frequency signal (powers in each microphone) of noise. An example of a spectrum is shown. Fig. 5A shows the spectrogram of each extracted sound (bike sound existing around the vehicle) at each microphone. Each of FIG. 5B and FIG. 5C shows an example of a frequency signal (power spectrum) in each microphone of the extracted sound. Each microphone is installed on the left and right sides of the front bumper of the vehicle.
[0015] 図 4Aと図 5Aは、スペクトログラムを表しており、縦軸が周波数を横軸が時間を示し ている。このスペクトログラムでは、色の薄い点ほど音圧レベル(信号レベル)が大きく 、色の濃い点ほど音圧レベルが小さい。図 4B、図 5B、図 5Cは、パワースペクトルを 表しており、縦軸がパワースペクトルを横軸は周波数を示している。図中の 2本の実 線は各々のマイクロホンでのパワースペクトルを示して!/、る。  [0015] FIG. 4A and FIG. 5A show spectrograms, with the vertical axis indicating frequency and the horizontal axis indicating time. In this spectrogram, the light pressure level (signal level) is higher as the color is lighter, and the sound pressure level is lower as the color is darker. Figures 4B, 5B, and 5C show the power spectrum, with the vertical axis representing the power spectrum and the horizontal axis representing the frequency. The two solid lines in the figure indicate the power spectrum at each microphone!
[0016] 図 4Bは、図 4Aの時刻 Aにおけるパワースペクトルを表しており、雑音(自車両のェ ンジン音)が存在する周波数である、周波数 A1と周波数 A2におけるパワースぺタト ルの各々のマイクロホンにおける値が大きく異なっていることがわかる。また、図 5Bは 、図 5Aの時刻 B (バイク位置は自車両から距離力 0m離れた地点)におけるパワー スペクトルを表しており、抽出音(自車両の周辺に存在するバイク音)が存在する周波 数である、周波数 B1と周波数 B2におけるパワースペクトルの各々のマイクロホンに おける値がほぼ同一になっていることがわかる。また、図 5Cは、図 5Aの時刻 C (バイ ク位置は自車両から距離が 10m離れた地点)におけるパワースペクトルを表しており 、抽出音(自車両の周辺に存在するバイク音)が存在する周波数である、周波数 C1と 周波数 C2におけるパワースペクトルの各々のマイクロホンにおける値がほぼ同一に なっていることがわかる。このこと力、ら、しきい値処理により差分距離の大小を比較す ることで雑音と抽出音とを区別できることがわかる。この例では、雑音は自車両のェン ジン音であり、自車両に搭載された各々のマイクロホンには、ボンネットの影響や伝 播距離の違いなどにより異なる周波数信号の雑音が入力される。このため差分距離 が大きくなつている。一方、抽出音は各々のマイクロホンから離れた位置に存在する バイク音でありバイク位置と各々のマイクロホンまでの距離が同一と近似できるため、 距離減衰による音圧レベルの差が小さぐさらに空気中を伝播するため伝達歪みが 少なぐ各々のマイクロホンには類似した周波数信号のバイク音が入力される。このた め差分距離が小さくなつてレ、る。 [0017] なお、図 5Bと図 5Cの破線で囲まれた喑騒音部分のスペクトルパワーを見ると、各 々のマイクロホンにおける値が大きく異なっていることがわかる。このこと力 、喑騒音 の部分も雑音として除去することが可能であることがわかる。 [0016] FIG. 4B shows a power spectrum at time A in FIG. 4A. Each microphone of the power spectrum at frequency A1 and frequency A2 is a frequency where noise (engine sound of the host vehicle) exists. It can be seen that the values at are significantly different. FIG. 5B shows the power spectrum at time B in FIG. 5A (the bike position is a point at a distance of 0 m from the host vehicle), and the frequency at which the extracted sound (the motorbike sound existing around the host vehicle) is present. It can be seen that the values at the microphones of the power spectrum at frequency B1 and frequency B2 are almost the same. Fig. 5C shows the power spectrum at time C in Fig. 5A (the bike position is a point 10m away from the vehicle), and there is an extracted sound (motorcycle sound that exists around the vehicle). It can be seen that the power spectrum values at frequencies C1 and C2 are almost the same for each microphone. From this, it can be seen that the noise and the extracted sound can be distinguished by comparing the difference distances by threshold processing. In this example, the noise is the engine sound of the host vehicle, and noise of different frequency signals is input to each microphone mounted on the host vehicle due to the influence of the bonnet or the difference in propagation distance. For this reason, the difference distance is increasing. On the other hand, the extracted sound is a motorcycle sound that exists at a position away from each microphone, and since the distance between the motorcycle position and each microphone can be approximated to be the same, the difference in sound pressure level due to distance attenuation is small, and further in the air A similar frequency signal of the motorcycle sound is input to each microphone that has low transmission distortion due to propagation. For this reason, the difference distance is reduced. [0017] Note that, when the spectrum power of the soot noise portion surrounded by the broken line in FIGS. 5B and 5C is observed, it can be seen that the values in the respective microphones are greatly different. From this, it can be seen that the power noise part can also be removed as noise.
[0018] 好ましくは、前記各々のマイクロホンは、前記雑音の音源位置と前記各々のマイクロ ホンとの距離につ!/、て距離が大き!/、ものを距離が小さ!/、もので割ったときの比率が、 前記抽出音の音源位置と前記各々のマイクロホンとの距離について距離が大きいも のを距離が小さ!/、もので割ったときの比率と比較して大きくなる位置に配置されて!/、 ることを特徴とする。 [0018] Preferably, each of the microphones is divided by the distance between the noise source position and each of the microphones! /, The distance is large! /, And the object is divided by the object! When the ratio between the sound source position of the extracted sound and each of the microphones is larger than the ratio when the distance is smaller! ! /,
[0019] これによつて、雑音が各々のマイクロホンに到達したときの周波数信号 (パワースぺ タトル)の異なり度合を、抽出音が各々のマイクロホンに到達したときの周波数信号( ノ ヮ一スペクトル)の異なり度合 (遠方の音源の場合は近似的にゼロとみなせる)より も大きくすること力できる。このことは、音圧レベルは距離 (又は距離の二乗)に反比 例して減衰するとレ、う技術的知見に基づレ、て!/、る。雑音の近傍に異なる距離で配置 されたマイクロホン (雑音と各々のマイクロホンとの距離の比率は 1よりも大きい)で遠 方の抽出音を検知する場合は、遠方の抽出音と各々のマイクロホンとの距離の比率 は近似的に 1とみなせるためこの条件に当てはまる。  [0019] Thus, the degree of difference in the frequency signal (power spectrum) when noise reaches each microphone is determined by the frequency signal (no spectrum) when the extracted sound reaches each microphone. It can be made larger than the degree of difference (in the case of a distant sound source, it can be regarded as approximately zero). This means that the sound pressure level decays in inverse proportion to the distance (or the square of the distance), based on technical knowledge. When detecting distant extracted sound with microphones arranged at different distances near the noise (the ratio of the distance between the noise and each microphone is greater than 1), the distance between the distant extracted sound and each microphone is detected. This is true because the distance ratio can be approximated as 1.
[0020] 好ましくは、前記雑音が各々のマイクロホンに伝播する媒質の一部にマイクロホン 間で異なる伝達特性をもつ物質が用いられていることを特徴とする。  [0020] Preferably, a substance having a transfer characteristic different between the microphones is used as a part of a medium through which the noise propagates to each microphone.
[0021] これによつて、雑音が各々のマイクロホンに到達したときの周波数信号 (パワースぺ タトルや位相スペクトル)の異なり度合を大きくすることができるため、しきい値の設定 が容易になる。例えば、雑音と各々のマイクロホンとの間に音圧レベルの減衰率の異 なる物質を挟んだ場合、雑音が各々のマイクロホンに到達したときの周波数信号 (パ ヮースペクトル)の異なり度合を大きくすることができる。例えば、密度の異なる金属と プラスチックを雑音源と各々のマイクロホンの間に挟むことで実現することができる。 また、雑音と各々のマイクロホンとの間に位相特性の異なる物質を挟んだ場合、雑音 が各々のマイクロホンに到達したときの周波数信号 (位相スペクトル)の異なり度合を 大きくすることも可能である。  [0021] This makes it possible to increase the degree of difference in frequency signals (power spectrum and phase spectrum) when noise reaches each microphone, making it easy to set a threshold value. For example, when a substance with a different sound pressure level attenuation rate is sandwiched between noise and each microphone, the degree of difference in frequency signal (power spectrum) when noise reaches each microphone is increased. Can do. For example, it can be realized by sandwiching metals and plastics with different densities between a noise source and each microphone. In addition, when a substance with different phase characteristics is sandwiched between noise and each microphone, it is possible to increase the degree of difference in frequency signal (phase spectrum) when the noise reaches each microphone.
[0022] 好ましくは、前記差分距離は、各マイクロホン間での前記周波数信号のパワースぺ タトルの異なり度合であることを特徴とする。 [0022] Preferably, the difference distance is a power spectrum of the frequency signal between the microphones. It is characterized by a different degree of tuttle.
[0023] これによつて、雑音の近傍に異なる距離で配置されたマイクロホンで遠方の抽出音 を検知する場合に、音圧レベルは距離 (又は距離の二乗)に反比例して減衰すると いう技術的知見に基づいた音圧レベルの異なり度合を直接判断することができる。ま た、雑音と各々のマイクロホンとの間に音圧レベルの減衰率の異なる物質を挟んだ場 合にも、音圧レベルの異なり度合を直接判断することができる。  [0023] This makes it possible to detect the sound pressure level in inverse proportion to the distance (or the square of the distance) when detecting far-field extracted sounds with microphones arranged at different distances in the vicinity of the noise. It is possible to directly determine the degree of difference in sound pressure level based on knowledge. In addition, when a substance with a different sound pressure level attenuation rate is sandwiched between noise and each microphone, the degree of difference in sound pressure level can be directly determined.
[0024] 好ましくは、前記差分距離は、所定の時間幅を有する時間区間ごとに求められるこ とを特徴とする。  [0024] Preferably, the difference distance is obtained for each time interval having a predetermined time width.
[0025] これによつて、マイクロホン間での周波数信号力 たまたま短時間だけ一致した部 分を除去すること力 Sできる。図 6には、 2つのマイクロホンの 800Hzにおける周波数信 号 (複素スペクトル)が示されている。点線はマイクロホン Aにおける周波数信号を示 しており、実線はマイクロホン Bにおける周波数信号を示している。ここでは周波数信 号は複素スペクトルであるため実部と虚部とを別々のグラフで表している。この例では 、音源方向の候補を + 30度とした場合の結果が示されている。図 6の破線で囲まれ た部分 602は、時刻ごとでの複素空間での差分距離が小さい部分の周波数信号で ある。図 6より、時刻ごとに差分距離を求めた場合には、マイクロホン間での周波数信 号力 たまたま短時間だけ一致した部分を除去することができないことがわかる。しか し、時間区間ごとに差分距離を求めた場合には、たまたま短時間だけ一致した部分 を除去すること力 Sできる。  [0025] Thus, the frequency signal force between the microphones can be removed by force S. Figure 6 shows the frequency signal (complex spectrum) of two microphones at 800 Hz. The dotted line shows the frequency signal in microphone A, and the solid line shows the frequency signal in microphone B. Here, since the frequency signal is a complex spectrum, the real part and the imaginary part are represented by separate graphs. In this example, the result when the sound source direction candidate is +30 degrees is shown. A portion 602 surrounded by a broken line in FIG. 6 is a frequency signal of a portion where the difference distance in the complex space for each time is small. From Fig. 6, it can be seen that when the difference distance is obtained for each time, the frequency signal power between the microphones, or the part that coincides only for a short time cannot be removed. However, when the difference distance is obtained for each time interval, it is possible to remove the portion that coincides only for a short time.
[0026] 好ましくは、前記差分距離は、前記複数のマイクロホンの前記周波数信号のパワー スペクトルの平均値で正規化された前記周波数信号の異なり度合であることを特徴と する。  [0026] Preferably, the difference distance is a degree of difference between the frequency signals normalized by an average value of a power spectrum of the frequency signals of the plurality of microphones.
[0027] これによつて、差分距離は音圧レベルに依存しないため、しきい値の設定が容易に なる。例えば、音圧レベルの大きい抽出音と音圧レベルの小さい抽出音に対しても、 しき!/、値の設定を容易に行うことができる。  Accordingly, the difference distance does not depend on the sound pressure level, so that the threshold value can be easily set. For example, the threshold value can be easily set for the extracted sound having a high sound pressure level and the extracted sound having a low sound pressure level.
[0028] また、上記目的を達成するために、本発明に係る車載用の音源位置検知装置は、 自車両が発生する雑音を含む混合音から、自車両の周辺に存在する車両音の音源 方向または音源位置を検知する音源位置検知装置であって、自車両に離間して配 置された複数のマイクロホンから、各々入力される雑音を含む混合音を周波数分析 して、周波数信号を出力する分析手段と、前記混合音に含まれる自車両の周辺に存 在する車両音の複数の音源方向または音源位置の候補の各々について、(a)当該 音源方向または音源位置の候補から前記複数のマイクロホンに到達する前記混合 音の時間差がなくなるように前記複数のマイクロホンに対応する周波数信号の時間 軸を調整し、 (b)時間軸調整後の前記複数のマイクロホンに対応する周波数信号の うち前記複数のマイクロホン間での前記周波数信号の異なり度合を示す差分距離が しきい値以下となる周波数信号を求め、(c)求められた周波数信号のうち前記複数の マイクロホンに対応する周波数信号同士の一致度合により、前記複数の音源方向ま たは音源位置の候補の中から前記車両音の音源方向または音源位置を抽出する抽 出手段とを備え、前記しきい値は、前記複数のマイクロホンに前記車両音が入力され た場合に、当該車両音を周波数分析した周波数信号の前記複数のマイクロホン間で の前記差分距離が前記しきい値以下となるように定められ、かつ、前記しきい値は、 前記複数のマイクロホンに自車両が発生する雑音が入力された場合に、当該雑音を 周波数分析した周波数信号の前記複数のマイクロホン間での前記差分距離が前記 しきい値より大きくなるように定められていることを特徴とする。 [0028] In order to achieve the above object, a vehicle-mounted sound source position detection device according to the present invention provides a sound source direction of a vehicle sound existing around the host vehicle from a mixed sound including noise generated by the host vehicle. Alternatively, a sound source position detection device that detects a sound source position and is arranged away from the host vehicle. Analyzing means for performing frequency analysis on a mixed sound including noise input from each of a plurality of microphones and outputting a frequency signal; and a plurality of vehicle sounds existing around the host vehicle included in the mixed sound For each of the sound source direction or sound source position candidates, (a) the frequency signal corresponding to the plurality of microphones is eliminated so that there is no time difference between the mixed sounds reaching the plurality of microphones from the sound source direction or sound source position candidate. (B) a frequency at which a difference distance indicating a degree of difference of the frequency signal among the plurality of microphones is equal to or less than a threshold value among frequency signals corresponding to the plurality of microphones after the time axis adjustment. (C) of the obtained frequency signals, the frequency signals corresponding to the plurality of microphones are matched according to the degree of coincidence between the plurality of sound source directions. Or extraction means for extracting the sound source direction or sound source position of the vehicle sound from the sound source position candidates, and the threshold value is determined when the vehicle sound is input to the plurality of microphones. The difference distance between the plurality of microphones of the frequency signal obtained by analyzing the frequency of the vehicle sound is determined to be equal to or less than the threshold value, and the threshold value is generated by the own vehicle in the plurality of microphones. When noise is input, the difference distance between the plurality of microphones of a frequency signal obtained by frequency analysis of the noise is determined to be larger than the threshold value.
これによつて、しきい値処理により差分距離の大小を比較することで、自車両が発 生する雑音と自車両の周辺に存在する車両音とを区別できるため、上記雑音に対応 する周波数信号の部分をマイクロホンが入力した混合音の周波数信号に基づいて 選択的に除去することで、 自車両が発生する雑音(自車両のエンジン音など)の影響 を除去して自車両の周辺に存在する車両音の音源方向または音源位置を検知する こと力 Sできる。例えば、ボンネットの材質としてエンジン位置と各々のマイクロホンまで の間に異なる密度をもつ物質や異なる形状をもつ物質を用いることにより、各マイクロ ホン間でのエンジン音の周波数信号の差分距離を大きくすることができる。また、各 々のマイクロホンをバンパーなどに埋め込んだ場合、マイクロホンとバンパーとの接合 部分(マイクロホンが自車両の外に出ている部分以外の全体部分)にマイクロホン間 で異なる伝達特性をもつ物質を用いることでも、各マイクロホン間でのエンジン音の 周波数信号の差分距離を大きくすることができる。そしてしきい値を容易に設定する こと力 Sでさる。 As a result, the noise generated by the host vehicle and the vehicle sound existing around the host vehicle can be distinguished by comparing the magnitudes of the difference distances by threshold processing, and therefore, the frequency signal corresponding to the noise. By selectively removing this part based on the frequency signal of the mixed sound input by the microphone, the influence of the noise generated by the host vehicle (such as the engine sound of the host vehicle) is removed and it exists around the host vehicle. The ability to detect the sound source direction or position of the vehicle sound. For example, by using a material with a different density between the engine position and each microphone or a material with a different shape as the material of the bonnet, the difference distance of the frequency signal of the engine sound between each microphone is increased. Can do. In addition, when each microphone is embedded in a bumper, etc., a substance having different transfer characteristics between the microphones is used at the junction between the microphone and the bumper (the entire portion other than the portion where the microphone is outside the vehicle). In other words, the difference distance of the frequency signal of the engine sound between the microphones can be increased. And set the threshold easily That's the power S.
[0030] なお、本発明は、このような特徴的な手段を備える音源位置検知装置として実現す ることができるだけでなぐ音源位置検知装置に含まれる特徴的な手段をステップと する音源位置検知方法として実現したり、音源位置検知方法に含まれる特徴的なス テツプをコンピュータに実行させるプログラムとして実現したりすることもできる。そして [0030] It should be noted that the present invention can be realized as a sound source position detecting device including such characteristic means, and a sound source position detecting method including the characteristic means included in the sound source position detecting device as a step. Or a program that causes a computer to execute the characteristic steps included in the sound source position detection method. And
、そのようなプログラムは、 CD— ROM (Compact Disc-Read Only Memory)等の記 録媒体やインターネット等の通信ネットワークを介して流通させることができるのは言う までもない。 Needless to say, such a program can be distributed via a recording medium such as a CD-ROM (Compact Disc-Read Only Memory) or a communication network such as the Internet.
発明の効果  The invention's effect
[0031] 以上のように、差分距離の大小を比較することで除去の対象とする雑音と抽出の対 象とする抽出音とを区別できる。このため、上記雑音に対応する周波数信号の部分 をマイクロホンが入力した混合音の周波数信号に基づいて選択的に除去することで [0031] As described above, by comparing the difference distances, it is possible to distinguish between noise to be removed and extracted sound to be extracted. For this reason, the portion of the frequency signal corresponding to the noise is selectively removed based on the frequency signal of the mixed sound input by the microphone.
、上記雑音の影響を除去して上記抽出音の音源方向または音源位置を検知すること 力できる。特に、車載用のマイクロホンを用いたときに問題となる自車両が発生するェ ンジン音の影響を除去できるため、その効果は極めて大きい。 Therefore, it is possible to detect the sound source direction or the sound source position of the extracted sound by removing the influence of the noise. In particular, the effect of the engine noise generated by the subject vehicle, which is a problem when using a vehicle-mounted microphone, can be eliminated, so the effect is extremely large.
図面の簡単な説明  Brief Description of Drawings
[0032] [図 1]図 1は、従来技術におけるエンジン音の除去方法を説明するための図である。  [0032] FIG. 1 is a diagram for explaining a method for removing engine sound in the prior art.
[図 2]図 2は、自車両のエンジン音のスペクトログラムの一例を示した図である。  FIG. 2 is a diagram showing an example spectrogram of the engine sound of the host vehicle.
[図 3]図 3は、図 2に示したスペクトログラムの濃淡値を二値化した図である。  [FIG. 3] FIG. 3 is a diagram in which the gray value of the spectrogram shown in FIG. 2 is binarized.
[図 4A]図 4Aは、雑音のスペクトログラムの一例を示した図である。  FIG. 4A is a diagram showing an example of a spectrogram of noise.
[図 4B]図 4Bは、雑音の周波数信号 (パワースペクトル)の一例を示した図である。  FIG. 4B is a diagram showing an example of a noise frequency signal (power spectrum).
[図 5A]図 5Aは、抽出音のスペクトログラムの一例を示した図である。  FIG. 5A is a diagram showing an example of a spectrogram of extracted sound.
[図 5B]図 5Bは、抽出音の周波数信号 (パワースペクトル)の一例を示した図である。  FIG. 5B is a diagram showing an example of a frequency signal (power spectrum) of the extracted sound.
[図 5C]図 5Cは、抽出音の周波数信号 (パワースペクトル)の一例を示した図である。  FIG. 5C is a diagram showing an example of a frequency signal (power spectrum) of the extracted sound.
[図 6]図 6は、混合音の周波数信号の一例を示した図である。  FIG. 6 is a diagram showing an example of a mixed sound frequency signal.
[図 7]図 7は、本発明の実施の形態における音源位置検知装置の全体構成を示すブ ロック図である。  FIG. 7 is a block diagram showing an overall configuration of a sound source position detection device according to an embodiment of the present invention.
[図 8]図 8は、マイクロホンの配置の仕方を説明する図である。 [図 9]図 9は、自車両のマイクロホン間で、異なる伝達特性をもつ物質を用いる構成の 例を示す図である。 FIG. 8 is a diagram for explaining how to arrange microphones. FIG. 9 is a diagram showing an example of a configuration using substances having different transfer characteristics between the microphones of the host vehicle.
[図 10]図 10は、ラジェータを備える自車両の構成を示す図である。  FIG. 10 is a diagram showing a configuration of a host vehicle including a radiator.
[図 11A]図 11 Aは、自車両のエンジン音のスペクトログラムを示した図である。  FIG. 11A is a diagram showing a spectrogram of the engine sound of the host vehicle.
[図 11B]図 11Bは、自車両のエンジン音のスペクトログラムを示した図である。  FIG. 11B is a diagram showing a spectrogram of the engine sound of the host vehicle.
[図 12A]図 12Aは、図 11Aに示したスペクトログラムの濃淡値を二値化した図である。  FIG. 12A is a diagram obtained by binarizing the grayscale value of the spectrogram shown in FIG. 11A.
[図 12B]図 12Bは、図 11Bに示したスペクトログラムの濃淡値を二値化した図である。  FIG. 12B is a diagram obtained by binarizing the gray value of the spectrogram shown in FIG. 11B.
[図 13]図 13は、音源方向を説明するための図である。  FIG. 13 is a diagram for explaining a sound source direction.
[図 14]図 14は、音源位置検知装置の動作手順を示すフローチャートである。  FIG. 14 is a flowchart showing an operation procedure of the sound source position detection device.
園 15A]図 15Aは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 15A] FIG. 15A is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the host vehicle.
園 15B]図 15Bは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 15B] FIG. 15B is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the own vehicle.
[図 16A]図 16Aは、図 15Aに示したグラフの濃淡値を二値化した図である。  FIG. 16A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 15A.
[図 16B]図 16Bは、図 15Bに示したグラフの濃淡値を二値化した図である。  FIG. 16B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 15B.
園 17A]図 17Aは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 17A] FIG. 17A is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the own vehicle.
園 17B]図 17Bは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 17B] FIG. 17B is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the own vehicle.
[図 18A]図 18Aは、図 17Aに示したグラフの濃淡値を二値化した図である。  FIG. 18A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 17A.
[図 18B]図 18Bは、図 17Bに示したグラフの濃淡値を二値化した図である。  FIG. 18B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 17B.
園 19A]図 19Aは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 19A] FIG. 19A is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the host vehicle.
園 19B]図 19Bは、自車両のエンジン音の音源方向を分析した結果の一例を示す図 である。 19B] FIG. 19B is a diagram showing an example of the result of analyzing the sound source direction of the engine sound of the host vehicle.
[図 20A]図 20Aは、図 19Aに示したグラフの濃淡値を二値化した図である。  FIG. 20A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 19A.
[図 20B]図 20Bは、図 19Bに示したグラフの濃淡値を二値化した図である。 FIG. 20B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 19B.
[図 21]図 21は、混合音の周波数信号の一例を示した図である。 図 22]図 22は、混合音の周波数信号の一例を示した図である。 FIG. 21 is a diagram showing an example of a mixed sound frequency signal. FIG. 22 is a diagram showing an example of the frequency signal of the mixed sound.
図 23A]図 23Aは、混合音を用いて音源方向を抽出した結果の一例を示す図である 園 23B]図 23Bは、混合音を用いて音源方向を抽出した結果の一例を示す図である  23A] FIG. 23A is a diagram showing an example of the result of extracting the sound source direction using the mixed sound. FIG. 23B] FIG. 23B is a diagram showing an example of the result of extracting the sound source direction using the mixed sound.
[図 24A]図 24Aは、図 23Aに示したグラフの濃淡値を二値化した図である。 FIG. 24A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 23A.
[図 24B]図 24Bは、図 23Bに示したグラフの濃淡値を二値化した図である。 FIG. 24B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 23B.
園 25A]図 25Aは、混合音を用いて音源方向を抽出した結果の一例を示す図である 園 25B]図 25Bは、混合音を用いて音源方向を抽出した結果の一例を示す図である 25A] FIG. 25A is a diagram showing an example of the result of extracting the sound source direction using the mixed sound. FIG. 25B] FIG. 25B is a diagram showing an example of the result of extracting the sound source direction using the mixed sound.
[図 26A]図 26Aは、図 25Aに示したグラフの濃淡値を二値化した図である。 FIG. 26A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 25A.
[図 26B]図 26Bは、図 25Bに示したグラフの濃淡値を二値化した図である。 FIG. 26B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 25B.
園 27A]図 27Aは、混合音を用いて音源方向を抽出した結果の一例を示す図である 園 27B]図 27Bは、混合音を用いて音源方向を抽出した結果の一例を示す図である Fig. 27A is a diagram showing an example of the result of extracting the sound source direction using the mixed sound. Fig. 27B is a diagram showing an example of the result of extracting the sound source direction using the mixed sound.
[図 28A]図 28Aは、図 27Aに示したグラフの濃淡値を二値化した図である。 FIG. 28A is a diagram obtained by binarizing the gray value of the graph shown in FIG. 27A.
[図 28B]図 28Bは、図 27Bに示したグラフの濃淡値を二値化した図である。 FIG. 28B is a diagram obtained by binarizing the gray value of the graph shown in FIG. 27B.
[図 29]図 29は、バイクのエンジン音の音源位置を示した図である。 FIG. 29 is a diagram showing the sound source position of the engine sound of a motorcycle.
符号の説明 Explanation of symbols
100 音源位置検知装置 100 Sound source position detector
101a 自車両のエンジン音 101a Engine sound of own vehicle
101b バイクのエンジン音 101b Bike engine sound
102a~102n マイクロホン 102a ~ 102n microphone
103 分析部 103 Analysis Department
104 しき!/ヽィ直 発明を実施するための最良の形態 104 Shiki! BEST MODE FOR CARRYING OUT THE INVENTION
[0034] 以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
[0035] 図 7は、本発明の実施の形態における音源位置検知装置の構成を示すブロック図 である。ここでは、本発明に係る音源位置検知装置を車載用途で用いる場合を例に して説明する。 FIG. 7 is a block diagram showing a configuration of the sound source position detection apparatus in the embodiment of the present invention. Here, a case where the sound source position detection device according to the present invention is used for in-vehicle use will be described as an example.
[0036] 音源位置検知装置 100は、自車両の周辺に存在する他車両の音源方向または音 源位置を検知する装置であり、 2以上のマイクロホン 102a〜102nと、分析部 103と、 抽出部 105とを備える。ここでいうマイクロホンとは、媒質 (気体、固体、液体)を伝播 してくる音響信号を電気信号に変換するものである。  The sound source position detection device 100 is a device that detects the sound source direction or the sound source position of other vehicles existing around the host vehicle, and includes two or more microphones 102a to 102n, an analysis unit 103, and an extraction unit 105. With. The microphone here refers to a device that converts an acoustic signal propagating through a medium (gas, solid, liquid) into an electrical signal.
[0037] マイクロホン 102a〜; 102ηは、マイクロホン 102a〜102nの各々に到達する時間差 がゼロになるように時間軸が調整された自車両のエンジン音 101a (除去の対象とす る音)を周波数分析した周波数信号において、時間軸が調整された周波数信号のマ イク口ホン間での差分距離がしき!/、値 104 (しきレ、値)より大きくなるように配置されて いる。「差分距離」の求め方については、後で詳細に説明する。  [0037] Microphones 102a ~; 102η is a frequency analysis of the engine sound 101a (the sound to be removed) of the host vehicle whose time axis is adjusted so that the time difference to reach each of the microphones 102a ~ 102n is zero In the frequency signal, the difference distance between the microphone ports of the frequency signal whose time axis is adjusted is arranged to be larger than the threshold! /, Value 104 (threshold, value). The method for obtaining the “difference distance” will be described in detail later.
[0038] 図 8は、自車両の前方部のバンパーに 4つのマイクロホンを配置した一例を示す図 である。この例では、マイクロホン Aと Bとの間隔およびマイクロホン Cと Dとの間隔を 1 7. 5cmとして、マイクロホン Bと Cとの間隔を約 lmとしている。  [0038] Fig. 8 is a diagram showing an example in which four microphones are arranged in the bumper in the front part of the host vehicle. In this example, the distance between the microphones A and B and the distance between the microphones C and D are 17.5 cm, and the distance between the microphones B and C is about lm.
[0039] 音圧レベルは、距離が 2倍になると 6dBずつ減衰する。また、 自車両のエンジンとマ イク口ホンとの距離は近い。このことより、音源と各マイクロホンとの距離の比が大きく なり、 4つのマイクロホン A、 B、 C、 Dに入力される自車両のエンジン音の音圧レベル は異なることになる。  [0039] The sound pressure level attenuates by 6 dB when the distance is doubled. Also, the distance between the vehicle's engine and the microphone is close. As a result, the ratio of the distance between the sound source and each microphone increases, and the sound pressure levels of the vehicle's engine sound input to the four microphones A, B, C, and D differ.
[0040] これに対して、マイクロホンとの間の距離が遠いバイクのエンジン音は、音源と各マ イク口ホンとの距離の比がほぼ 1となり、 4つのマイクロホンでの音圧レベルはほぼ等 しくなる。  [0040] On the other hand, in the sound of a motorcycle engine that is far from the microphone, the ratio of the distance between the sound source and each microphone is approximately 1, and the sound pressure levels of the four microphones are approximately equal. I will be.
[0041] また、自車両のエンジン音はボンネットの影響などでも 4つのマイクロホンに入力さ れる波形に歪みが生じると考えられる。さらに意図的に 4つのマイクロホンと自車両と の接続部分に音の伝達特性が異なる物質を用いることでも 4つのマイクロホンに入力 される波形に歪みを生じさせること力でさる。 [0042] エンジン位置から各マイクロホンまでのエンジン音の伝達経路において、ボンネット を通過する経路とボンネットを通過しない経路とがある場合やボンネットを通過する距 離が違う場合、各マイクロホンの受信する周波数信号が異なる。なぜなら、ボンネット を通過する経路は密度が高ぐボンネットを通過しない経路 (例えば、空気を伝搬す る)では密度が低いなどの伝搬経路に存在する物質の密度の違いによって、ェンジ ン音の減衰率が異なるためである。 [0041] Further, it is considered that the engine sound of the host vehicle is distorted in the waveforms input to the four microphones due to the influence of the bonnet. In addition, intentionally using substances with different sound transmission characteristics at the connection between the four microphones and the host vehicle can be used to distort the waveforms input to the four microphones. [0042] In the engine sound transmission path from the engine position to each microphone, if there is a path that passes through the bonnet and a path that does not pass through the bonnet, or if the distance through the bonnet is different, the frequency signal received by each microphone Is different. Because of the difference in the density of substances present in the propagation path, such as the path passing through the bonnet does not pass through the bonnet where the density is high (for example, it propagates air), the attenuation rate of the engine sound This is because they are different.
[0043] したがって、エンジン位置から各マイクロホンまでのエンジン音の伝達経路の距離 がほぼ等しい距離であっても、エンジン位置と各々のマイクロホンまでの間に異なる 密度をもつ物質や異なる形状をもつ物質を用いる構成にすることで、各マイクロホン が受信する波形に歪みを生じさせることができ、差分距離を大きくすることができる。  [0043] Therefore, even if the distance of the engine sound transmission path from the engine position to each microphone is substantially equal, a substance having a different density or a substance having a different shape is required between the engine position and each microphone. By using the configuration, distortion can be caused in the waveform received by each microphone, and the difference distance can be increased.
[0044] また、各々のマイクロホンをバンパーなどに埋め込んだ場合、マイクロホンとバンバ 一との接合部分(マイクロホンが自車両の外に出ている部分以外の全体部分)にマイ クロホン間で異なる伝達特性をもつ物質を用いる構成にする。ここで、「異なる伝達特 性」とは、音響インピーダンス (媒質の密度 X媒質中を伝搬する音波の速度)の異な ることをいう。音波は異なる音響インピーダンスを有する物質間を伝搬する際に、その 境界で反射する。この反射の度合は、伝搬する物質間の音響インピーダンスの差が 大きいほど大きぐ音響インピーダンスの差によって変わる。したがって、エンジン位 置と各マイクロホンとの間で、異なる伝達特性を有する物質を用いることによって、各 マイクロホンが受信する波形に歪みを生じさせることができ、差分距離を大きくするこ と力 Sできる。  [0044] In addition, when each microphone is embedded in a bumper or the like, transfer characteristics that differ between the microphones are present at the joint between the microphone and the bumper (the entire portion other than the portion where the microphone is outside the vehicle). Use a material that has the same material. Here, “different transmission characteristics” means that the acoustic impedance (density of the medium X velocity of the sound wave propagating in the medium) is different. Sound waves are reflected at their boundaries when propagating between materials with different acoustic impedances. The degree of reflection varies depending on the difference in acoustic impedance that increases as the difference in acoustic impedance between the propagating materials increases. Therefore, by using substances having different transfer characteristics between the engine position and each microphone, the waveform received by each microphone can be distorted and the difference distance can be increased.
[0045] 図 9には、自車両のマイクロホン間で、異なる伝達特性をもつ物質を用いる構成の 例を示す。 自車両はエンジンと、そのエンジン力 発生するエンジン音を受信するマ には金属、エンジンとマイクロホン Bとの間にはプラスチックを備えている。エンジンか らマイクロホン A、又はマイクロホン Bまでエンジン音(波線)が伝搬して!/、るとする。 エンジン音は金属に伝搬する時とプラスチックに伝搬する時とで、その反射の度合が 異なるため、マイクロホン Aとマイクロホン Bとが受信する波形間で歪みを生じさせるこ とができ、差分距離を大きくできる。ここでは、金属とプラスチックとしたが、異なる伝 達特性を有する物質であれば、差分距離を大きくできる効果を有する。ここでは、一 方に金属、他方にプラスチックを備えた例を記載した力 一方のみに金属やプラスチ ック等を備えたり、一方に金属とプラスチック、他方にプラスチックを備えても同様の 効果を有する。 [0045] Fig. 9 shows an example of a configuration using substances having different transfer characteristics between the microphones of the host vehicle. The host vehicle is equipped with an engine, metal that receives the engine sound generated by the engine force, and plastic between the engine and microphone B. It is assumed that engine sound (wave line) propagates from the engine to microphone A or microphone B! /. The engine sound propagates to the metal and to the plastic because the degree of reflection differs, so that distortion can occur between the waveforms received by microphone A and microphone B, increasing the difference distance. it can. Here we used metal and plastic, but different transmissions. If it is a substance which has a reachable characteristic, it has the effect that a difference distance can be enlarged. Here, the force described is an example with metal on one side and plastic on the other side. Even if only one side has metal or plastic, etc., one side has metal and plastic, and the other side has plastic, it has the same effect. .
[0046] 図 10には、図 9にと同様に、エンジンと、マイクロホン Aと、マイクロホン Bとを備えて いる。図 10では、エンジンとマイクロホン Aとの間にラジェータを備え、エンジンとマイ クロホン Bとの間には意図的には何も備えていない。エンジンからマイクロホン Aに伝 搬するエンジン音は、ラジェータの存在により、その一部が反射する。これは、ラジェ ータ内の液体と、エンジン音が伝搬してきた空気中との間の音響インピーダンスの差 が大きいことにより、エンジン音がラジェータにより反射されるからである。この反射に よって、マイクロホン Aとマイクロホン Bとが受信する波形間で歪みを生じさせることが でき、差分距離を大きくできる。したがって、一方のマイクロホンとエンジンの間には 空気と音響インピーダンスの差が大き!/、物質を備え、他方のマイクロホンとエンジン の間には空気以外は何も物質を挟まないか、空気とほぼ音響インピーダンスが変わ らなレ、物質しか挟まな!/、ことで、差分距離を大きくすることができる。  FIG. 10 includes an engine, a microphone A, and a microphone B, as in FIG. In FIG. 10, a radiator is provided between the engine and the microphone A, and nothing is intentionally provided between the engine and the microphone B. A part of the engine sound transmitted from the engine to the microphone A is reflected due to the presence of the radiator. This is because the engine sound is reflected by the radiator due to the large difference in acoustic impedance between the liquid in the radiator and the air in which the engine sound has propagated. This reflection can cause distortion between the waveforms received by microphone A and microphone B, thereby increasing the difference distance. Therefore, there is a large difference between air and acoustic impedance between one microphone and the engine! /, And there is a substance between the other microphone and the engine. If the impedance changes, only the substance is sandwiched! /, The difference distance can be increased.
[0047] 図 11A及び図 11Bには、自車両のエンジン音 101a (アイドリング音)におけるマイ クロホン Aとマイクロホン Dとの間での差分距離がしきい値 104より大きくなるように配 置した場合の実験結果の一例が示されている。図 11Aは、マイクロホン Aに入力され た自車両のエンジン音 101aのスペクトログラムを示しており、図 11Bは、マイクロホン Dに入力された自車両のエンジン音 101aのスペクトログラムを示している。各スぺタト ログラムの横軸は時間軸を示しており、縦軸は周波数軸を示している。また、スぺタト ログラムの各点は、色が薄いほど音圧レベル (信号レベル)が大きぐ色が濃いほど音 圧レベルが小さい。  [0047] FIGS. 11A and 11B show the case where the difference distance between the microphone A and the microphone D in the engine sound 101a (idling sound) of the host vehicle is set to be larger than the threshold value 104. An example of the experimental results is shown. FIG. 11A shows a spectrogram of the engine sound 101a of the own vehicle input to the microphone A, and FIG. 11B shows a spectrogram of the engine sound 101a of the own vehicle input to the microphone D. The horizontal axis of each spectrogram indicates the time axis, and the vertical axis indicates the frequency axis. At each point of the spectrogram, the lighter the sound pressure level (signal level) the greater the color and the darker the color, the lower the sound pressure level.
[0048] 図 11Aに示すスペクトログラムと図 11Bに示すスペクトログラムとを比較すると、 2つ のスペクトログラムは全体的に異なっている。特に、破線で囲まれた領域では、 2つの スペクトログラム間で自車両のエンジン音 101aの周波数信号が歪んで異なっている ことが肉眼でも分かる。なお、スペクトログラムを把握しやすくするために、図 11A及 び図 11Bに示したスペクトログラムの濃淡値を二値化したものを図 12A及び図 12B にそれぞれ示す。 [0048] When the spectrogram shown in FIG. 11A and the spectrogram shown in FIG. 11B are compared, the two spectrograms are totally different. In particular, in the region surrounded by the broken line, it can be seen with the naked eye that the frequency signal of the engine sound 101a of the own vehicle is distorted and different between the two spectrograms. In order to make it easy to grasp the spectrogram, the binarized values of the spectrogram shown in Fig. 11A and Fig. 11B are shown in Fig. 12A and Fig. 12B. Respectively.
[0049] 分析部 103は、マイクロホン 102a〜102nが入力した自車両のエンジン音 101a ( 除去の対象とする音)とバイクのエンジン音 101b (抽出の対象とする音)とを含む混 合音を周波数分析して各マイクロホンに対応した周波数信号を作成する。  [0049] The analysis unit 103 generates a mixed sound including the engine sound 101a of the own vehicle (the sound to be removed) and the engine sound 101b of the motorcycle (the sound to be extracted) input by the microphones 102a to 102n. Frequency analysis is performed to generate a frequency signal corresponding to each microphone.
[0050] 抽出部 105は、バイクのエンジン音 101b (抽出の対象とする音)の音源方向の候補 力、らマイクロホン 102a〜; 102ηの各々に到達する時間差がゼロになるように分析部 1 03が分析した周波数信号の時間軸を調整する。時間軸の調整は、言い換えると、バ イクからのバイク音が各々のマイクロホン 102a〜102nに到達すると仮定したときの到 達時間差がなくなるように、各々のマイクロホン 102a〜102nに対応する周波数信号 の時間軸を調整することである。  [0050] The extraction unit 105 analyzes the sound source direction candidate force of the motorcycle engine sound 101b (the sound to be extracted), the microphones 102a to 102η, so that the time difference to reach each of 102η becomes zero. Adjusts the time axis of the analyzed frequency signal. In other words, the adjustment of the time axis means that the time of the frequency signal corresponding to each microphone 102a to 102n is eliminated so that there is no difference in arrival time when it is assumed that the motorcycle sound from the bike reaches each microphone 102a to 102n. Is to adjust the axis.
[0051] また、抽出部 105は、時間軸を調整した周波数信号のマイクロホン間での差分距離 力 Sしきい値 104より大きくなる部分の周波数信号を除去し、残りの部分の周波数信号 を用いて音源方向を抽出する。  [0051] In addition, the extraction unit 105 removes the frequency signal in the portion where the differential distance force S between the microphones of the frequency signal with the time axis adjusted becomes larger than the S threshold 104, and uses the frequency signal in the remaining portion. Extract sound source direction.
[0052] ここで、音源方向は、 90度から 90度までの方向(角度)で示されるものとする。図 13は、音源方向を説明するための図である。音源方向は、自車両の直進方向およ び後進方向を 0度としたときに、直進方向に対して直交する軸のうち、右手方向を 90 度とし、左手方向を 90度とする。  [0052] Here, the sound source direction is indicated by a direction (angle) from 90 degrees to 90 degrees. FIG. 13 is a diagram for explaining the sound source direction. The sound source direction is 90 degrees for the right-hand direction and 90 degrees for the left-hand direction among the axes orthogonal to the straight direction when the straight and reverse directions of the host vehicle are 0 degrees.
[0053] また、しきいィ直 104は、バイクのエンジン音 101b (抽出の対象とする音)に対応する 差分距離がしきい値 104以下になるように設定されている。他の見方をすれば、バイ クのエンジン音 101b (抽出の対象とする音)に対応する差分距離が、設定されたしき い値 104以下になるようにマイクロホン 102a〜; 102ηが配置されている。この例では、 マイクロホンの配置と、その配置における自車両のエンジン音 101aに対応する差分 距離と、バイクのエンジン音 101bに対応する差分距離とを比較して、バイクのェンジ ン音 101bの音源方向が検知できるようにしきい値 104の値を実験的に求めている。  [0053] Further, the threshold straight 104 is set such that the difference distance corresponding to the engine sound 101b of the motorcycle (the sound to be extracted) is equal to or less than the threshold value 104. From another viewpoint, the microphones 102a to 102η are arranged so that the difference distance corresponding to the engine sound 101b (the sound to be extracted) is equal to or less than the set threshold value 104. . In this example, the microphone arrangement, the difference distance corresponding to the engine sound 101a of the own vehicle in that arrangement, and the difference distance corresponding to the engine sound 101b of the bike are compared, and the sound source direction of the engine sound 101b of the bike is compared. The threshold 104 is experimentally determined so that can be detected.
[0054] このように、音源位置検知装置 100を用いることで、 自車両のエンジン音の影響を 除去して、接近するバイク等の音源方向を抽出して運転者に知らせることが可能にな る。このため、音源位置検知装置 100は、安全運転支援の一機能として極めて有用 である。 [0055] 次に、以上のように構成された音源位置検知装置 100の動作について説明する。 As described above, by using the sound source position detection device 100, it becomes possible to remove the influence of the engine sound of the host vehicle and extract the direction of the sound source of the approaching motorcycle or the like to notify the driver. . For this reason, the sound source position detection device 100 is extremely useful as one function of safe driving support. Next, the operation of the sound source position detection device 100 configured as described above will be described.
[0056] 図 14は、音源位置検知装置 100の動作手順を示すフローチャートである。 FIG. 14 is a flowchart showing an operation procedure of the sound source position detection apparatus 100.
[0057] この例では、図 8に示すように、 自車両の前方部のバンパーに 4つのマイクロホン A 、 B、 C、 Dが配置されている。また、図 8に示したマイクロホンの配置に対して、 自車 両のエンジン音 101 aに対応する差分距離とバイクのエンジン音 10 lbに対応する差 分距離とからしきい値 104を実験的に求める(ステップ S901)。この例ではしきい値 1 04を 30%とする。 In this example, as shown in FIG. 8, four microphones A, B, C, and D are arranged in the bumper in the front part of the host vehicle. Further, for the microphone arrangement shown in FIG. 8, the threshold 104 is experimentally obtained from the difference distance corresponding to the engine sound 101a of the own vehicle and the difference distance corresponding to 10 lb of the engine sound of the motorcycle. (Step S901). In this example, the threshold 104 is set to 30%.
[0058] 図 15A及び図 15Bに、図 8に示すマイクロホン Aとマイクロホン Dとを用いて、しきい 値処理を用いずに従来の方法で自車両のエンジン音 101aの音源方向を分析した 結果の一例を示す。  FIG. 15A and FIG. 15B show the results of analyzing the sound source direction of the engine sound 101a of the host vehicle by the conventional method using the microphone A and the microphone D shown in FIG. 8 without using threshold processing. An example is shown.
[0059] 図 15Aおよび図 15Bに示すグラフは、横軸が時間、縦軸が音源方向( 90度〜 9 0度)を示している。また、このグラフでは、色の濃い点ほどその点で示される音源方 向に音源が存在する確率が高ぐ色の薄い点ほどその点で示される音源方向に音源 が存在する確率が低レ、ことを示して!/、る。  In the graphs shown in FIGS. 15A and 15B, the horizontal axis represents time, and the vertical axis represents the sound source direction (90 degrees to 90 degrees). In this graph, the darker the point, the higher the probability that a sound source exists in the direction of the sound source indicated by that point, and the lower the color, the lower the probability that a sound source exists in the sound source direction indicated by that point. Show me! /
[0060] 図 15Aには、自車両のエンジン音 101aに対応する差分距離がしきい値 104より大 きくなる部分と小さくなる部分との両方の部分の周波数信号を用いて(しきレヽ値処理 を用いずに)、マイクロホン Aとマイクロホン Dとの間の自車両のエンジン音 101aの到 達時間差により音源方向を分析した結果が示されている。図 15Aより、 90度〜 90 度の幅広い方向に自車両のエンジン音 101aが現れることがわかる。  [0060] In FIG. 15A, the frequency signal of both the portion where the difference distance corresponding to the engine sound 101a of the own vehicle becomes larger than the threshold 104 and the portion where it becomes smaller (the threshold value processing is performed). The result of analyzing the sound source direction by the difference in arrival time of the engine sound 101a of the own vehicle between the microphone A and the microphone D is shown. From FIG. 15A, it can be seen that the engine sound 101a of the host vehicle appears in a wide range of 90 to 90 degrees.
[0061] 図 15Bには、自車両のエンジン音 101aに対応する差分距離がしきい値 104より大 きくなる部分を除去した残りの部分の周波数信号を用いて (本発明のしきレ、値処理を 用いて)、マイクロホン Aとマイクロホン Dとの間の自車両のエンジン音 101aの到達時 間差により音源方向を分析した結果が示されている。図 15Aと図 15Bを比較すると、 自車両のエンジン音 101aに対応する差分距離がしきい値 104より大きくなる部分を 除去することで、自車両のエンジン音 101aの影響を大幅に除去できることがわかる。 なお、グラフを把握しやすくするために、図 15A及び図 15Bに示したグラフの濃淡値 を二値化したものを図 16A及び図 16Bにそれぞれ示す。  FIG. 15B shows the remaining frequency signal from which the difference distance corresponding to the engine sound 101a of the host vehicle is larger than the threshold value 104 (the threshold and value processing of the present invention). The result of analyzing the sound source direction by the difference in arrival time of the engine sound 101a of the vehicle between microphone A and microphone D is shown. Comparing Fig. 15A and Fig. 15B, it can be seen that the influence of the engine sound 101a of the own vehicle can be largely eliminated by removing the portion where the difference distance corresponding to the engine sound 101a of the own vehicle is larger than the threshold 104. . In order to make the graph easier to understand, the gray values in the graph shown in FIGS. 15A and 15B are binarized and shown in FIGS. 16A and 16B, respectively.
[0062] 図 17A及び図 17Bに、図 8に示すマイクロホン Aとマイクロホン Bを用いて、自車両 のエンジン音 101aの音源方向を分析した結果の一例を示す。図 17Aおよび図 17B に示すグラフの意味は、図 15A及び図 15Bで説明したものと同様である。 FIG. 17A and FIG. 17B use the microphone A and the microphone B shown in FIG. An example of the result of analyzing the sound source direction of the engine sound 101a is shown. The meanings of the graphs shown in FIGS. 17A and 17B are the same as those described in FIGS. 15A and 15B.
[0063] 図 17Aには、自車両のエンジン音 101aに対応する差分距離がしきい値 104より大 きくなる部分と小さくなる部分との両方の部分の周波数信号を用いて(しきレヽ値処理 を用いずに)、マイクロホン Aとマイクロホン Bとの間の自車両のエンジン音 101aの到 達時間差により音源方向を分析した結果が示されている。図 17Bには、自車両のェ ンジン音 101aに対応する差分距離がしきい値 104より大きくなる部分を除去した残り の部分の周波数信号を用いて(本発明のしき!/、値処理を用いて)、マイクロホン Aとマ イク口ホン Bとの間の自車両のエンジン音 101aの到達時間差により音源方向を分析 した結果が示されている。図 17Aと図 17Bとを比較すると、 自車両のエンジン音 101 aに対応する差分距離がしきい値 104より大きくなる部分を除去することで、自車両の エンジン音 101aの影響を大幅に除去できることがわかる。なお、グラフを把握しやす くするために、図 17A及び図 17Bに示したグラフの濃淡値を二値化したものを図 18 A及び図 18Bにそれぞれ示す。  [0063] In FIG. 17A, the frequency signal of both the part where the difference distance corresponding to the engine sound 101a of the own vehicle becomes larger than the threshold value 104 and the part where it becomes smaller (the threshold value processing is performed). The result of analyzing the sound source direction by the difference in arrival time of the engine sound 101a of the own vehicle between the microphone A and the microphone B is shown. In FIG. 17B, the frequency signal of the remaining part from which the difference distance corresponding to the engine sound 101a of the own vehicle is larger than the threshold value 104 is removed (using the threshold / value processing of the present invention). The result of analyzing the sound source direction by the difference in arrival time of the engine sound 101a of the own vehicle between the microphone A and the microphone mouthphone B is shown. Comparing Fig. 17A and Fig. 17B, the effect of the engine sound 101a of the own vehicle can be largely eliminated by removing the portion where the difference distance corresponding to the engine sound 101a of the own vehicle is larger than the threshold 104. I understand. In order to make it easier to grasp the graph, binarized values of the graphs shown in FIGS. 17A and 17B are shown in FIGS. 18A and 18B, respectively.
[0064] 図 19A及び図 19Bに、図 8に示すマイクロホン Cとマイクロホン Dを用いて、 自車両 のエンジン音 101aの音源方向を分析した結果の一例を示す。図 19Aおよび図 19B に示すグラフの意味は、図 15A及び図 15Bで説明したものと同様である。  FIGS. 19A and 19B show an example of the result of analyzing the sound source direction of the engine sound 101a of the host vehicle using the microphone C and the microphone D shown in FIG. The meanings of the graphs shown in FIGS. 19A and 19B are the same as those described in FIGS. 15A and 15B.
[0065] 図 19Aには、自車両のエンジン音 101aに対応する差分距離がしきい値 104より大 きくなる部分と小さくなる部分との両方の部分の周波数信号を用いて(しきレヽ値処理 を用いずに)、マイクロホン Cとマイクロホン Dとの間の自車両のエンジン音 101aの到 達時間差により音源方向を分析した結果が示されている。図 19Bには、自車両のェ ンジン音 101aに対応する差分距離がしきい値 104より大きくなる部分を除去した残り の部分の周波数信号を用いて(しきレ、値処理を用いて)、マイクロホン Cとマイクロホン Dとの間の自車両のエンジン音 101aの到達時間差により音源方向を分析した結果 が示されている。図 19Aと図 19Bとを比較すると、自車両のエンジン音 101aに対応 する差分距離がしきい値 104より大きくなる部分を除去することで、自車両のエンジン 音 101aの影響を大幅に除去できることがわかる。なお、グラフを把握しやすくするた めに、図 19A及び図 19Bに示したグラフの濃淡値を二値化したものを図 20A及び図 20Bにそれぞれ示す。 [0065] In FIG. 19A, the frequency signal of both the portion where the difference distance corresponding to the engine sound 101a of the own vehicle becomes larger than the threshold 104 and the portion where it becomes smaller is used (the threshold value processing is performed). The result of analyzing the sound source direction based on the arrival time difference of the engine sound 101a of the own vehicle between the microphone C and the microphone D is shown. In FIG. 19B, a microphone is used by using the frequency signal of the remaining part from which the difference distance corresponding to the engine sound 101a of the own vehicle is larger than the threshold value 104 (using threshold and value processing). The result of analyzing the sound source direction by the difference in arrival time of the engine sound 101a of the own vehicle between C and microphone D is shown. Comparing FIG. 19A and FIG. 19B, it is possible to largely eliminate the influence of the engine sound 101a of the own vehicle by removing the portion where the difference distance corresponding to the engine sound 101a of the own vehicle is larger than the threshold 104. Recognize. In order to make the graph easier to understand, the gray values in the graphs shown in FIGS. 19A and 19B are binarized and shown in FIGS. 20A and 20B. Each is shown in 20B.
[0066] このことから、図 8に示したマイクロホンの配置は、自車両のエンジン音 101aに対応 する差分距離がしきい値 104より大きくなる配置であったことがわかる。ただし、図 15 B、図 17B、図 19Bからわかるように、この例では、 自車両のエンジン音 101aの影響 を完全には除去できていないため、除去できた自車両のエンジン音 101aの部分をこ の例では除去の対象とする所定の雑音としている。そして、ここでは、バイクのェンジ ン音の音源方向が除去されな!/、ようにしき!/、値を設定して!/、る。  From this, it can be seen that the microphone arrangement shown in FIG. 8 is an arrangement in which the difference distance corresponding to the engine sound 101a of the host vehicle is larger than the threshold value 104. However, as can be seen from FIG. 15B, FIG. 17B, and FIG. 19B, in this example, the influence of the engine sound 101a of the own vehicle has not been completely removed. In this example, the predetermined noise to be removed is used. And here, the direction of the sound of the engine sound of the bike is not removed! /, Like! /, Set the value! /,
[0067] なお、自車両のエンジンと各々のマイクロホンとの距離の比率(距離が大きいものを 距離が小さいもので割ったときの比率)が大きくなるように、片方のマイクロホンをェン ジンに近レ、位置に、片方のマイクロホンをエンジンから遠!/、位置に配置することで、 自車両のエンジン音に対する差分距離を大きくしてしきい値の設定を容易にすること 力できる。また、ボンネットの材質としてエンジン位置と各々のマイクロホンまでの間に 異なる密度をもつ物質や異なる形状をもつ物質を用いる構成することでも自車両の エンジン音に対する差分距離を大きくでき、しきい値の設定を容易にすることができ  [0067] It should be noted that one microphone is placed closer to the engine so that the ratio of the distance between the engine of the vehicle and each microphone (the ratio when the distance is large divided by the distance is small) is large. By placing one microphone far away from the engine at the position, it is possible to increase the difference distance from the engine sound of the vehicle and facilitate the threshold setting. Also, by using a material with a different density or a material with a different shape between the engine position and each microphone as the bonnet material, the difference distance to the engine sound of the vehicle can be increased, and a threshold value can be set. Can facilitate
[0068] 次に、マイクロホン 102a〜102nは、自車両のエンジン音 101a (除去の対象とする 音)とバイクのエンジン音 101b (抽出の対象とする音)とを含む混合音を入力する (ス テツプ S 902)。 [0068] Next, the microphones 102a to 102n input mixed sounds including the engine sound 101a of the own vehicle (the sound to be removed) and the engine sound 101b of the motorcycle (the sound to be extracted) (sound). Tape S 902).
[0069] 次に、分析部 103は、マイクロホン 102a〜102nが入力した混合音を周波数分析し て各マイクロホンに対応した周波数信号を作成する(ステップ S903)。ここでは、サン プリング周波数 44. 1kHzの混合音を、離散フーリエ変換の窓長を 128ポイントとして 、 20Hz間隔で 0〜2000Hzの周波数帯域にお!/、て各マイクロホンに対して周波数 信号を作成する。  [0069] Next, the analysis unit 103 performs frequency analysis on the mixed sound input by the microphones 102a to 102n and creates a frequency signal corresponding to each microphone (step S903). Here, a mixed sound with a sampling frequency of 44.1 kHz is created with a discrete Fourier transform window length of 128 points in a frequency band of 0 to 2000 Hz at 20 Hz intervals! .
[0070] 次に、抽出部 105は、バイクのエンジン音 101b (抽出の対象とする音)の音源方向 の候補からマイクロホン 102a〜; 102ηの各々に到達する時間差がゼロになるように分 析部 103が分析した周波数信号の時間軸を調整する。さらに、抽出部 105は、時間 軸を調整した周波数信号のマイクロホン間での差分距離がしきい値 104より大きくな る部分の周波数信号を除去した残りの部分の周波数信号を用いて音源方向を抽出 する(ステップ S904)。 [0070] Next, the extraction unit 105 performs analysis so that the time difference from the candidate of the sound source direction of the engine sound 101b (the sound to be extracted) of the motorcycle to each of the microphones 102a to 102η becomes zero. 103 adjusts the time axis of the frequency signal analyzed. Further, the extraction unit 105 extracts the direction of the sound source by using the remaining frequency signal from which the frequency signal in which the difference distance between the microphones of the frequency signal adjusted in time axis is larger than the threshold 104 is removed. (Step S904).
[0071] 図 21には、マイクロホン Aとマイクロホン Bとが入力した混合音に対して、 800Hzの 周波数帯域における周波数信号を、音源方向の候補( + 50度)からマイクロホンの 各々に到達する時間差がゼロになるように時間軸を調整した周波数信号が示されて いる。  [0071] In FIG. 21, the time difference between the frequency signal in the 800 Hz frequency band from the sound source direction candidate (+50 degrees) to each of the microphones for the mixed sound input by microphone A and microphone B is shown in FIG. A frequency signal with the time axis adjusted to zero is shown.
[0072] 点線はマイクロホン Aにおける周波数信号を示しており、実線はマイクロホン Bにお ける周波数信号を示している。横軸は時間軸を示しており、縦軸は振幅を示している 。ここでは周波数信号は複素信号であるため、実部と虚部とを別々のグラフで示して いる。  A dotted line indicates a frequency signal in microphone A, and a solid line indicates a frequency signal in microphone B. The horizontal axis indicates the time axis, and the vertical axis indicates the amplitude. Here, since the frequency signal is a complex signal, the real part and the imaginary part are shown in separate graphs.
[0073] ここで差分距離の求め方の一例について説明する。この例では、図 21に示した時 間区間 (所定の時間幅をもつ時間区間)において、各時刻での周波数信号の差分値 が所定の値より大きい時刻の部分 300が時間区間全体に占める割合を「差分距離」 とする。ここでの所定の値は実験的に求めたものを用いる。また、ここでの差分値は 振幅の大きさで正規化された値である。例えば、振幅値の歪み度合は、振幅値が大 きいほど、歪む振幅値の絶対量は大きくなると考えられる。例えば、音圧レベルが半 分に減衰した場合には、減衰前の振幅値が 10の場合には、減衰後の振幅値は 5と なり差分は 5である。また、減衰前の振幅値が 2の場合には、減衰後の振幅値は 1で あり差分は 1である。よって、振幅値が大きいほど、歪む振幅値の絶対量は大きい。こ れによって、周波数信号の大きさで正規化された差分値を用いることで、振幅の大き さによる影響を除去できると考えられる。この例では、「差分値」を以下の式で求める。 これによつて、差分距離は音圧レベルに依存しないため、例えば、音圧レベルの大き V、抽出音と音圧レベルの小さレ、抽出音に対しても、しきレ、値の設定を容易に行うこと ができる。  Here, an example of how to obtain the difference distance will be described. In this example, in the time interval shown in FIG. 21 (time interval having a predetermined time width), the proportion of the time portion 300 in which the difference value of the frequency signal at each time is greater than the predetermined value occupies the entire time interval. Is the “difference distance”. The predetermined value here is obtained experimentally. Also, the difference value here is a value normalized by the magnitude of the amplitude. For example, regarding the degree of distortion of the amplitude value, it is considered that the larger the amplitude value, the larger the absolute amount of the distorted amplitude value. For example, if the sound pressure level is attenuated by half, and the amplitude value before attenuation is 10, the amplitude value after attenuation is 5 and the difference is 5. When the amplitude value before attenuation is 2, the amplitude value after attenuation is 1 and the difference is 1. Therefore, the larger the amplitude value, the larger the absolute amount of the distorted amplitude value. In this way, it is considered that the influence of the magnitude of the amplitude can be eliminated by using the difference value normalized by the magnitude of the frequency signal. In this example, the “difference value” is obtained by the following equation. As a result, since the difference distance does not depend on the sound pressure level, for example, it is easy to set the threshold and the value for the large sound pressure level V, the small amount of the extracted sound and the sound pressure level, and the extracted sound. Can be done.
[0074] 國  [0074] country
Figure imgf000020_0001
Figure imgf000020_0001
[0075] 差分値は 周波数信号のパワースペクトルの平均 値で正規化されているため、分析する周波数による音圧レベルの大小に依存せずに しきいィ直を設定すること力 Sできる。ここで、 Xと yとは、マイクロホン Aにおける周波数 [0075] The difference value is the average of the power spectrum of the frequency signal Since it is normalized by the value, it is possible to set the threshold straight without depending on the sound pressure level depending on the frequency to be analyzed. Where X and y are the frequencies in microphone A
A A  A A
信号のある時刻の実部と虚部との値をそれぞれ表しており、 xと yとはマイクロホン B  Represents the real and imaginary parts of the signal at times, where x and y are microphones B
B B  B B
における周波数信号の対応する時刻の実部と虚部との値をそれぞれ表している。ま た、この例での所定の値は 0. 5であり、しきい値 104は 30%であった。差分値はパヮ 一スペクトルの大きさで正規化してあるため、周波数帯域に対するパワースペクトル の大小は考慮する必要がない。このため、所定の値は全ての周波数帯域で同じ値と した。図 21の破線で囲まれた部分 300は、差分値が所定の値より大きい部分の周波 数信号である。図 21より、 + 50度の方向に音源位置が存在すると仮定して周波数信 号の時間軸を合わせた場合は、破線で囲まれた部分 300が時間区間全体に占める 割合が大きいことがわかる。この差分距離である割合が、しきい値 104である 30%よ り大きい場合はこの時間区間全体の周波数信号を除去して音源の方向を求めること になる。このとき、 800Hzの周波数帯域に対して + 50度の方向には抽出の対象とす る音源が存在しなレ、と解釈される。  Represents the values of the real part and the imaginary part of the corresponding time of the frequency signal in FIG. In addition, the predetermined value in this example is 0.5, and the threshold value 104 is 30%. Since the difference value is normalized by the size of the spectrum, it is not necessary to consider the magnitude of the power spectrum with respect to the frequency band. For this reason, the predetermined value is the same for all frequency bands. A portion 300 surrounded by a broken line in FIG. 21 is a frequency signal of a portion where the difference value is larger than a predetermined value. From Fig. 21, it can be seen that when the time axis of the frequency signal is adjusted assuming that the sound source position exists in the direction of +50 degrees, the portion 300 surrounded by the broken line occupies a large proportion of the entire time interval. If the ratio, which is the difference distance, is larger than the threshold 104, which is 30%, the direction of the sound source is determined by removing the frequency signal for the entire time interval. At this time, it is interpreted that there is no sound source to be extracted in the direction of +50 degrees with respect to the 800 Hz frequency band.
[0076] 図 22には、マイクロホン Aとマイクロホン Bとが入力した混合音に対して、 800Hzの 周波数帯域における周波数信号を、他の音源方向の候補(一 30度)からマイクロホ ンの各々に到達する時間差がゼロになるように時間軸を調整した周波数信号が示さ れている。 [0076] In Fig. 22, the frequency signal in the frequency band of 800Hz is reached for each of the microphones from other sound source direction candidates (130 degrees) for the mixed sound input by microphone A and microphone B. The frequency signal is shown with the time axis adjusted so that the time difference is zero.
[0077] 点線はマイクロホン Aにおける周波数信号を示しており、実線はマイクロホン Bにお ける周波数信号を示している。横軸は時間軸を示しており、縦軸は振幅を示している 。ここでは周波数信号は複素信号であるため、実部と虚部とを別々のグラフで表して いる。  A dotted line indicates a frequency signal in the microphone A, and a solid line indicates a frequency signal in the microphone B. The horizontal axis indicates the time axis, and the vertical axis indicates the amplitude. Since the frequency signal is a complex signal here, the real part and the imaginary part are represented by separate graphs.
[0078] ここでも、図 21に示した時間区間と同じ時間区間(所定の時間幅をもつ時間区間) において、同様の定義を用いて差分距離を求める。破線で囲まれた部分 302は、差 分値が所定の値より大きい部分の周波数信号である。図 22より、—30度の方向に音 源位置が存在すると仮定して周波数信号の時間軸を合わせた場合は、破線で囲ま れた部分 302が時間区間全体に占める割合が小さいことがわかる。この差分距離で ある割合がしきい値 104である 30%より小さい場合はこの時間区間全体の周波数信 号を除去せずに音源の方向を求めることになる。この例では、音源方向を求めるとき に、この時間区間における各時刻における差分値が所定の値以下である部分のマイ クロホン間での相関値 (一致度合)が、除去されずに残った全ての音源方向(角度) での相互相関値の中で最も大きい値をもつ場合に、 800Hzの周波数帯域に対して 30度の方向に抽出の対象とする音源が存在すると判定する。例えば、 800Hzの 周波数帯域に対して、 30度、 40度、 50度の候補が音源方向の候補が残った とものとすると、各候補における相互相関値のうち、最大のものに対応する音源方向 の候補を、抽出音の音源方向と特定する。なお、相関値が第 2の所定のしきい値を 超えたものに対応する音源方向の候補を抽出音の音源方向と特定しても良い。この 場合は、複数の音源の方向を求めるのに対応できる。また、音源方向の軸に対して 相関値が極大値をとるものに対応する音源方向の候補を抽出音の音源方向と特定 しても良い。また、別の一致度合として差分距離がしきい値以下の全ての方向を音源 方向としても良い。また、差分距離が最小値または極小値をとる方向を音源方向とし ても良い。 Again, in the same time interval (time interval having a predetermined time width) as the time interval shown in FIG. 21, the difference distance is obtained using the same definition. A portion 302 surrounded by a broken line is a frequency signal of a portion whose difference value is larger than a predetermined value. As can be seen from FIG. 22, when the time axis of the frequency signal is adjusted assuming that the sound source position exists in the direction of −30 degrees, the portion 302 surrounded by the broken line occupies a small proportion of the entire time interval. If the percentage of this difference distance is less than 30%, which is the threshold 104, the frequency signal for this entire time interval The direction of the sound source is obtained without removing the signal. In this example, when obtaining the sound source direction, all the correlation values (degrees of coincidence) between the microphones in the portion where the difference value at each time in this time interval is less than or equal to a predetermined value are not removed. If the cross-correlation value in the sound source direction (angle) has the largest value, it is determined that there is a sound source to be extracted in the direction of 30 degrees with respect to the 800 Hz frequency band. For example, assuming that candidates for sound source direction remain at 30 degrees, 40 degrees, and 50 degrees for the frequency band of 800 Hz, the sound source direction corresponding to the maximum of the cross-correlation values in each candidate Are identified as the sound source direction of the extracted sound. Note that the sound source direction candidate corresponding to the correlation value exceeding the second predetermined threshold may be specified as the sound source direction of the extracted sound. In this case, it can cope with the direction of multiple sound sources. Further, the sound source direction candidate corresponding to the one having the maximum correlation value with respect to the axis of the sound source direction may be specified as the sound source direction of the extracted sound. Also, as another degree of coincidence, all directions where the difference distance is equal to or less than the threshold may be set as the sound source direction. The direction in which the difference distance takes the minimum value or the minimum value may be set as the sound source direction.
[0079] 図 23A、図 23B、図 25A、図 25B、図 27A及び図 27Bに、従来の方法と本発明に よる方法とで求めた音源の方向を 0〜2000Hzに含まれる 100個の周波数帯域に対 してヒストグラムをとつたものを示す。図 23A及び図 23Bでは、マイクロホン Aとマイク 口ホン Dを用いた結果を、図 25A及び図 25Bでは、マイクロホン Aとマイクロホン Bを 用いた結果を、図 27A及び図 27Bでは、マイクロホン Cとマイクロホン Dを用いた結果 を示す。  [0079] FIG. 23A, FIG. 23B, FIG. 25A, FIG. 25B, FIG. 27A and FIG. 27B show 100 frequency bands in which the direction of the sound source obtained by the conventional method and the method according to the present invention is included in 0 to 2000 Hz. A histogram is shown for. Figures 23A and 23B show the results using microphone A and microphone mouthphone D, Figures 25A and 25B show results using microphone A and microphone B, and Figures 27A and 27B show microphone C and microphone D. The results using are shown.
[0080] 横軸は時間軸を示しており、縦軸は音源方向を示す。色の濃さは度数の大きさを 表しており、色の濃い部分ほど度数が大きい部分である。図 23A、図 25A、図 27A は、しきレ、値より大きレ、部分と小さレ、部分の両方を用いて(しきレ、値処理を用いず)音 源方向を抽出した従来技術での結果である。また、図 23B、図 25B、図 27Bは、しき V、値より大きレ、部分を除去した周波数信号を用いて(しきレ、値処理を用いて)音源方 向を抽出した本発明での結果である。なお、グラフを把握しやすくするために、図 23 A、図 23B、図 25A、図 25B、図 27A及び図 27Bに示したグラフの濃淡値を二値化 したものを図 24A、図 24B、図 26A、図 26B、図 28A及び図 28Bにそれぞれ示す。 [0081] 図 29に、時刻に対応するバイクのエンジン音 10 lbの音源位置を模式的に示す。 時刻 3秒あたりでマイクロホン Aとマイクロホン Bからみた音源方向は約 0度の方向で あり(マイクロホン Cとマイクロホン Dからみた音源方向は約 + 30度の方向)、時刻 5秒 あたりでマイクロホン Aとマイクロホン Bからみた音源方向は約 + 90度の方向であり、 その後に 0度の方向に向かう。 [0080] The horizontal axis represents the time axis, and the vertical axis represents the sound source direction. The darkness of the color represents the frequency, and the darker the part, the higher the frequency. Figures 23A, 25A, and 27A show the results of the prior art in which the sound source direction was extracted by using both threshold, larger than value, part and small, and part (without using threshold and value processing). It is. Figures 23B, 25B, and 27B show the results of the present invention in which the direction of the sound source was extracted using the threshold V, the frequency signal larger than the value, and the frequency signal from which the portion was removed (using the threshold and value processing). It is. To make it easier to grasp the graph, the gray values in the graphs shown in FIGS. 23A, 23B, 25A, 25B, 27A, and 27B are binarized, as shown in FIGS. 24A, 24B, and 24 It is shown in FIG. 26A, FIG. 26B, FIG. 28A and FIG. 28B, respectively. FIG. 29 schematically shows the sound source position of the motorcycle engine sound 10 lb corresponding to the time. The direction of the sound source seen from microphone A and microphone B is about 0 degrees per 3 seconds (the direction of the sound source seen from microphone C and microphone D is about +30 degrees), and microphone A and microphone are taken every 5 seconds. The direction of the sound source seen from B is about +90 degrees, and then goes to 0 degrees.
[0082] 図 15A、図 17A、図 19Aには、自車両のエンジン音 101a (アイドリング音)の音源 方向が示されており、図 23B、図 25B、図 27Bの結果をみると、本発明のポイントとな るしきい値の処理を行うことにより自車両のエンジン音 101aの音源方向が除去され て、バイクのエンジン音 101bの音源方向が抽出できることがわかる。また、図 19Aと 図 27Bとをみると、自車両のエンジン音 101aの音源方向とバイクのエンジン音 101b の音源方向が重なっているにも係わらず、自車両のエンジン音 101aの影響を除去 できていることもわかる。  FIG. 15A, FIG. 17A, and FIG. 19A show the sound source direction of the engine sound 101a (idling sound) of the host vehicle. The results of FIGS. 23B, 25B, and 27B show the results of the present invention. It can be seen that the sound source direction of the engine sound 101a of the own vehicle is removed by processing the threshold value as a point, and the sound source direction of the engine sound 101b of the motorcycle can be extracted. 19A and 27B, the influence of the engine sound 101a of the own vehicle can be removed even though the sound source direction of the engine sound 101a of the own vehicle and the sound source direction of the engine sound 101b of the motorcycle overlap. You can see that
[0083] 以上のように、差分距離の大小を比較してしきい値処理することで除去の対象とす る雑音と抽出の対象とする抽出音とを区別できることがわかる。このため、雑音に対応 する周波数信号の部分をマイクロホンが入力した混合音の周波数信号に基づいて 選択的に除去することにより、雑音の影響を除去して抽出音の音源方向を正確に検 知すること力 Sできる。特に、車載用のマイクロホンを用いたときに問題となる自車両が 発生するエンジン音の影響を除去できるため、その効果は極めて大きい。  As described above, it can be seen that the noise to be removed and the extracted sound to be extracted can be distinguished by performing threshold processing by comparing the difference distances. For this reason, the portion of the frequency signal corresponding to noise is selectively removed based on the frequency signal of the mixed sound input by the microphone, thereby removing the influence of noise and accurately detecting the sound source direction of the extracted sound. That power S. In particular, the effect of the engine sound generated by the host vehicle, which is a problem when using a vehicle-mounted microphone, can be eliminated, so the effect is extremely great.
[0084] この例では、差分距離を、所定の時間幅をもつ時間区間において、各時刻での周 波数信号の振幅値の差分値が所定の値より大きい時刻の部分の時間区間全体に占 める割合としたが、別の差分距離として、所定の時間幅をもつ時間区間において、時 間的に連続する振幅形状をベクトル表現して、べ外ル間の差分値を差分距離として 定義することもできる。この場合も、差分距離を所定の時間幅をもつ時間区間で求め ている。このため、マイクロホン間での周波数信号の振幅値力 周波数信号の振幅変 動によりたまたま短時間だけ一致した部分を除去することができる。また、この例では 、複素スペクトル空間での差分距離を用いた力 パワースペクトルや位相スペクトル の差分距離を用いることもできる。  [0084] In this example, the difference distance is occupied over the entire time interval of the time portion where the difference value of the amplitude value of the frequency signal at each time is greater than the predetermined value in the time interval having a predetermined time width. However, as another difference distance, a temporally continuous amplitude shape is represented as a vector in a time interval with a predetermined time width, and the difference value between the outer loops is defined as the difference distance. You can also. Also in this case, the difference distance is obtained in a time interval having a predetermined time width. For this reason, it is possible to remove the coincident part for a short time due to the amplitude fluctuation of the frequency signal between the microphones. In this example, a force power spectrum using a difference distance in a complex spectrum space or a difference distance of a phase spectrum can also be used.
[0085] 以上のように、時間幅をもつ時間区間ごとに差分距離を算出することで、マイクロホ ン間での周波数信号の振幅値が、周波数信号の振幅変動によりたまたま短時間だ け一致した部分を除去することができる。また、複数の音の混合による振幅値の歪み の影響を除去することができる。 As described above, by calculating the difference distance for each time interval having a time width, It is possible to remove the portion where the amplitude value of the frequency signal between the signals coincides only for a short time due to the amplitude fluctuation of the frequency signal. In addition, the influence of distortion of the amplitude value due to the mixing of multiple sounds can be eliminated.
[0086] また、バイクは移動するため、自車両から遠方では音圧レベルが小さぐ自車両に 近づいた時は音圧レベルが大きくなるため、各マイクロホン間での周波数信号のパヮ 一スペクトルの平均値で正規化された差分距離を用いることは有効であると考えられ [0086] Also, since the motorcycle moves, the sound pressure level increases when approaching the host vehicle with a low sound pressure level in the distance from the host vehicle. Therefore, the average of the spectrum of frequency signals between the microphones is averaged. It is considered effective to use the difference distance normalized by the value.
Dからの抽出結果とから三角測量により音源位置を求めることができる。また、音源位 置の候補から各マイクロホンへの到達時間差を調整して一致度合を比較することで、 直接、音源位置を求めることもできる。 The sound source position can be obtained by triangulation from the extraction result from D. It is also possible to directly find the sound source position by adjusting the arrival time difference from the sound source position candidate to each microphone and comparing the degree of coincidence.
[0088] 以上説明したように、差分距離の大小を比較してしきい値処理することで除去の対 象とする雑音と抽出の対象とする抽出音とを区別できるため、雑音に対応する周波 数信号の部分をマイクロホンが入力した混合音の周波数信号に基づいて選択的に 除去することで、雑音の影響を除去して抽出音の音源方向を検知することができる。 特に、車載用のマイクロホンを用いたときに問題となる自車両が発生するエンジン音 の影響を除去できるため、その効果は極めて大きい。  [0088] As described above, since the noise to be removed and the extracted sound to be extracted can be distinguished by comparing the difference distances and thresholding them, the frequency corresponding to the noise can be distinguished. By selectively removing the several signal parts based on the frequency signal of the mixed sound input by the microphone, it is possible to remove the influence of noise and detect the sound source direction of the extracted sound. In particular, the effect of the engine sound generated by the host vehicle, which is a problem when using an on-vehicle microphone, can be eliminated, and the effect is extremely large.
[0089] なお、抽出部 105の結果(例えば、 自車両のエンジン音 101aの音源方向の除去の 度合や、ノイクのエンジン音 101bの音源方向の抽出結果)から判断して、しきい値 1 04の値をさらに調節してもよい。  It should be noted that the threshold value 104 is determined based on the result of the extraction unit 105 (for example, the degree of removal of the sound source direction of the engine sound 101a of the own vehicle or the result of extraction of the sound source direction of the noisy engine sound 101b). The value of may be further adjusted.
[0090] なお、喑騒音や風雑音も各々のマイクロホンで周波数信号が異なると考えられるた め、これらの音も雑音として除去できると考えられる。また、各マイクロホン間で異なる 音が入力された場合も、各々のマイクロホンで周波数信号が異なるため、この場合の 音も雑音として除去でき誤った音源方向または音源位置を出力することを防ぐことが できる。  [0090] It should be noted that since the noise signal and wind noise are considered to have different frequency signals in each microphone, it is considered that these sounds can also be removed as noise. Also, even when different sounds are input between the microphones, the frequency signals are different for each microphone, so the sound in this case can also be removed as noise, preventing the wrong sound source direction or sound source position from being output. .
産業上の利用可能性  Industrial applicability
[0091] 本発明に係る音源位置検知装置は、(例えば、自車両のエンジン音の影響を除去 して)接近車両を音で検知する安全運転支援装置、(例えば、カメラのモータ音の影 響を除去して)物音の音源位置に自動的にカメラを向けるセキュリティカメラ、(テレビ 会議での相手側の発話の影響を除去して)発話者の方向に指向性を向けて収音で きるテレビ会議装置など幅広い製品に展開でき実用的価値は極めて高い。 The sound source position detection device according to the present invention is a safe driving support device that detects an approaching vehicle by sound (for example, by removing the influence of the engine sound of the host vehicle), (for example, a shadow of a motor sound of a camera). A security camera that automatically directs the camera to the sound source position (with the sound removed), and can collect sound with directivity in the direction of the speaker (removing the influence of the other party's utterance in the video conference) It can be applied to a wide range of products such as video conferencing equipment, and its practical value is extremely high.

Claims

請求の範囲 The scope of the claims
[1] 雑音を含む混合音から、抽出の対象とする抽出音の音源方向または音源位置を検 知する音源位置検知装置であって、  [1] A sound source position detection device for detecting a sound source direction or a sound source position of an extracted sound to be extracted from a mixed sound including noise,
離間して配置された複数のマイクロホンから、各々入力される雑音を含む混合音を 周波数分析し、周波数信号を出力する分析手段と、  Analyzing means for frequency-analyzing a mixed sound including noise inputted from each of a plurality of microphones arranged apart from each other and outputting a frequency signal;
前記混合音に含まれる抽出音の複数の音源方向または音源位置の候補の各々に ついて、(a)当該音源方向または音源位置の候補から前記複数のマイクロホンに到 達する前記混合音の時間差がなくなるように前記複数のマイクロホンに対応する周波 数信号の時間軸を調整し、 (b)時間軸調整後の前記複数のマイクロホンに対応する 周波数信号のうち前記複数のマイクロホン間での前記周波数信号の異なり度合を示 す差分距離がしきい値以下となる周波数信号を求め、(c)求められた周波数信号の うち前記複数のマイクロホンに対応する周波数信号同士の一致度合により、音源方 向または音源位置の候補の中から前記抽出音の音源方向または音源位置を抽出す る抽出手段とを備え、  For each of a plurality of sound source directions or sound source position candidates of the extracted sound included in the mixed sound, (a) the time difference of the mixed sound reaching the plurality of microphones from the sound source direction or sound source position candidate is eliminated. (B) adjusting the time axis of the frequency signal corresponding to the plurality of microphones, and (b) the degree of difference of the frequency signal between the plurality of microphones among the frequency signals corresponding to the plurality of microphones after the time axis adjustment. (C) Among the obtained frequency signals, a candidate of a sound source direction or a sound source position is determined based on the degree of coincidence of the frequency signals corresponding to the plurality of microphones. Extraction means for extracting the sound source direction or the sound source position of the extracted sound from
前記しきい値は、前記複数のマイクロホンに前記抽出音が入力された場合に、当該 抽出音を周波数分析した周波数信号の前記複数のマイクロホン間での前記差分距 離が前記しきい値以下になるように定められ、  When the extracted sound is input to the plurality of microphones, the threshold is such that the difference distance between the plurality of microphones of the frequency signal obtained by frequency analysis of the extracted sound is equal to or less than the threshold. Is defined as
かつ、前記しきい値は、当該複数のマイクロホンに除去の対象とする所定の雑音が 入力された場合に、当該所定の雑音を周波数分析した周波数信号の前記複数のマ イク口ホン間での前記差分距離が前記しきい値よりも大きくなるように定められている ことを特徴とする音源位置検知装置。  In addition, when the predetermined noise to be removed is input to the plurality of microphones, the threshold value is the frequency signal obtained by frequency analysis of the predetermined noise between the plurality of microphones. The sound source position detection device, wherein the difference distance is determined to be larger than the threshold value.
[2] 前記各々のマイクロホンは、前記雑音の音源位置と前記各々のマイクロホンとの距 離につ!/、て距離が大き!/、ものを距離が小さ!/、もので割ったときの比率力 前記抽出 音の音源位置と前記各々のマイクロホンとの距離につ!/、て距離が大き!/、ものを距離 が小さいもので割ったときの比率と比較して大きくなる位置に配置されている ことを特徴とする請求項 1に記載の音源位置検知装置。 [2] Each microphone has a distance between the noise source position and each microphone! /, The distance is large! /, And the distance is small! / The distance between the sound source position of the extracted sound and each of the microphones! /, The distance is large! /, And the distance is larger than the ratio when the distance is divided by the smaller distance. The sound source position detection device according to claim 1, wherein
[3] 前記雑音が各々のマイクロホンに伝播する媒質の一部にマイクロホン間で異なる伝 達特性をもつ物質が用いられてレ、る ことを特徴とする請求項 1に記載の音源位置検知装置。 [3] A substance having different transmission characteristics between microphones is used as a part of a medium through which the noise propagates to each microphone. The sound source position detection device according to claim 1, wherein:
[4] 前記差分距離は、各マイクロホン間での前記周波数信号のパワースペクトルの異な り度合である [4] The difference distance is the degree of difference in the power spectrum of the frequency signal between the microphones.
ことを特徴とする請求項 1に記載の音源位置検知装置。  The sound source position detection device according to claim 1, wherein:
[5] 前記差分距離は、所定の時間幅を有する時間区間ごとに求められる [5] The difference distance is obtained for each time interval having a predetermined time width.
ことを特徴とする請求項 1に記載の音源位置検知装置。  The sound source position detection device according to claim 1, wherein:
[6] 前記差分距離は、前記複数のマイクロホンの前記周波数信号のパワースぺクトノレ の平均値で正規化された前記周波数信号の異なり度合である [6] The difference distance is a degree of difference between the frequency signals normalized by an average value of a power spectrum of the frequency signals of the plurality of microphones.
ことを特徴とする請求項 1に記載の音源位置検知装置。  The sound source position detection device according to claim 1, wherein:
[7] 自車両が発生する雑音を含む混合音から、自車両の周辺に存在する車両音の音 源方向または音源位置を検知する音源位置検知装置であって、 自車両に離間して 配置された複数のマイクロホンから、各々入力される雑音を含む混合音を周波数分 祈して、周波数信号を出力する分析手段と、 [7] A sound source position detection device that detects a sound source direction or a sound source position of a vehicle sound existing around the own vehicle from a mixed sound including noise generated by the own vehicle, and is disposed apart from the own vehicle. Analyzing means for frequency-splitting the mixed sound including noise input from each of the plurality of microphones and outputting a frequency signal;
前記混合音に含まれる自車両の周辺に存在する車両音の複数の音源方向または 音源位置の候補の各々について、 ω当該音源方向または音源位置の候補から前 記複数のマイクロホンに到達する前記混合音の時間差がなくなるように前記複数の マイクロホンに対応する周波数信号の時間軸を調整し、 (b)時間軸調整後の前記複 数のマイクロホンに対応する周波数信号のうち前記複数のマイクロホン間での前記 周波数信号の異なり度合を示す差分距離がしきい値以下となる周波数信号を求め、 (C)求められた周波数信号のうち前記複数のマイクロホンに対応する周波数信号同 士の一致度合により、前記複数の音源方向または音源位置の候補の中から前記車 両音の音源方向または音源位置を抽出する抽出手段とを備え、  For each of a plurality of sound source directions or sound source position candidates for vehicle sound existing in the vicinity of the host vehicle included in the mixed sound, the mixed sound that reaches the plurality of microphones from the sound source direction or sound source position candidates. The time axis of the frequency signal corresponding to the plurality of microphones is adjusted so as to eliminate the time difference of (b), and (b) the frequency signal corresponding to the plurality of microphones after the time axis adjustment is set between the plurality of microphones. A frequency signal having a difference distance indicating a degree of difference between frequency signals equal to or less than a threshold value is obtained. Extraction means for extracting the sound source direction or sound source position of the vehicle sound from the sound source direction or sound source position candidates;
前記しきい値は、前記複数のマイクロホンに前記車両音が入力された場合に、当該 車両音を周波数分析した周波数信号の前記複数のマイクロホン間での前記差分距 離が前記しきい値以下となるように定められ、  When the vehicle sound is input to the plurality of microphones, the threshold value is such that the difference distance between the plurality of microphones of a frequency signal obtained by frequency analysis of the vehicle sound is equal to or less than the threshold value. Is defined as
かつ、前記しきい値は、前記複数のマイクロホンに自車両が発生する雑音が入力さ れた場合に、当該雑音を周波数分析した周波数信号の前記複数のマイクロホン間で の前記差分距離が前記しきレ、値より大きくなるように定められて!/、る ことを特徴とする車載用の音源位置検知装置。 In addition, when the noise generated by the host vehicle is input to the plurality of microphones, the threshold value is the threshold value of the difference distance between the plurality of microphones of a frequency signal obtained by frequency analysis of the noise. , Determined to be larger than the value! / A vehicle-mounted sound source position detection device characterized by the above.
[8] 雑音を含む混合音から、抽出の対象とする抽出音の音源方向または音源位置を検 知する音源位置検知方法であって、 [8] A sound source position detection method for detecting a sound source direction or a sound source position of an extracted sound to be extracted from a mixed sound including noise,
離間して配置された複数のマイクロホンから、各々入力される雑音を含む混合音を 周波数分析し、周波数信号を出力する分析ステップと、  An analysis step of frequency-analyzing a mixed sound including noise input from each of a plurality of spaced microphones and outputting a frequency signal;
前記混合音に含まれる抽出音の複数の音源方向または音源位置の候補の各々に ついて、(a)当該音源方向または音源位置の候補から前記複数のマイクロホンに到 達する前記混合音の時間差がなくなるように前記複数のマイクロホンに対応する周波 数信号の時間軸を調整し、 (b)時間軸調整後の前記複数のマイクロホンに対応する 周波数信号のうち前記複数のマイクロホン間での前記周波数信号の異なり度合を示 す差分距離がしきい値以下となる周波数信号を求め、(c)求められた周波数信号の うち前記複数のマイクロホンに対応する周波数信号同士の一致度合により、音源方 向または音源位置の候補の中から前記抽出音の音源方向または音源位置を抽出す る抽出ステップとを含み、  For each of a plurality of sound source directions or sound source position candidates of the extracted sound included in the mixed sound, (a) the time difference of the mixed sound reaching the plurality of microphones from the sound source direction or sound source position candidate is eliminated. (B) adjusting the time axis of the frequency signal corresponding to the plurality of microphones, and (b) the degree of difference of the frequency signal between the plurality of microphones among the frequency signals corresponding to the plurality of microphones after the time axis adjustment. (C) Among the obtained frequency signals, a candidate of a sound source direction or a sound source position is determined based on the degree of coincidence of the frequency signals corresponding to the plurality of microphones. Extracting a sound source direction or a sound source position of the extracted sound from
前記しきい値は、前記複数のマイクロホンに前記抽出音が入力された場合に、当該 抽出音を周波数分析した周波数信号の前記複数のマイクロホン間での前記差分距 離が前記しきい値以下になるように定められ、  When the extracted sound is input to the plurality of microphones, the threshold is such that the difference distance between the plurality of microphones of the frequency signal obtained by frequency analysis of the extracted sound is equal to or less than the threshold. Is defined as
かつ、前記しきい値は、当該複数のマイクロホンに除去の対象とする所定の雑音が 入力された場合に、当該所定の雑音を周波数分析した周波数信号の前記複数のマ イク口ホン間での前記差分距離が前記しきい値よりも大きくなるように定められている ことを特徴とする音源位置検知方法。  In addition, when the predetermined noise to be removed is input to the plurality of microphones, the threshold value is the frequency signal obtained by frequency analysis of the predetermined noise between the plurality of microphones. The sound source position detection method, wherein the difference distance is determined to be larger than the threshold value.
[9] 雑音を含む混合音から、抽出の対象とする抽出音の音源方向または音源位置を検 知するプログラムであって、 [9] A program for detecting a sound source direction or a sound source position of an extracted sound to be extracted from a mixed sound including noise,
離間して配置された複数のマイクロホンから、各々入力される雑音を含む混合音を 周波数分析し、周波数信号を出力する分析ステップと、  An analysis step of frequency-analyzing a mixed sound including noise input from each of a plurality of spaced microphones and outputting a frequency signal;
前記混合音に含まれる抽出音の複数の音源方向または音源位置の候補の各々に ついて、(a)当該音源方向または音源位置の候補から前記複数のマイクロホンに到 達する前記混合音の時間差がなくなるように前記複数のマイクロホンに対応する周波 数数信信号号のの時時間間軸軸をを調調整整しし、、 ((bb))時時間間軸軸調調整整後後のの前前記記複複数数ののママイイククロロホホンンにに対対応応すするる 周周波波数数信信号号ののううちち前前記記複複数数ののママイイククロロホホンン間間ででのの前前記記周周波波数数信信号号のの異異ななりり度度合合をを示示 すす差差分分距距離離ががししききいい値値以以下下ととななるる周周波波数数信信号号をを求求めめ、、((cc))求求めめらられれたた周周波波数数信信号号のの ううちち前前記記複複数数ののママイイククロロホホンンにに対対応応すするる周周波波数数信信号号同同士士のの一一致致度度合合にによよりり、、音音源源方方 向向ままたたはは音音源源位位置置のの候候補補のの中中かからら前前記記抽抽出出音音のの音音源源方方向向ままたたはは音音源源位位置置をを抽抽出出すす るる抽抽出出スステテッッププととををココンンピピュューータタにに実実行行ささせせ、、 For each of a plurality of sound source directions or sound source position candidates of the extracted sound included in the mixed sound, (a) the time difference of the mixed sound reaching the plurality of microphones from the sound source direction or sound source position candidate is eliminated. Frequency corresponding to the plurality of microphones After adjusting the time axis of the numerical signal, and after adjusting the axis adjustment of the time ((bb)) The frequency frequency signal signal of the frequency frequency signal between the plurality of microphones in front of the frequency signal signal corresponding to The difference frequency distance indicating the degree of difference in the difference of the distance difference distance is determined to obtain a frequency signal that is less than or equal to the threshold value, and (( cc)) The frequency signal of the frequency signal corresponding to the plural number of microphone signals before the above-mentioned frequency signal of the determined frequency signal. Depending on the degree of match of each other, depending on the degree of match of the sound source, it remains in the direction of the sound source source or from the middle candidate of the sound source source position candidate Extraction extraction Let the computer execute the extraction step to extract the sound source source position or the sound source source position of the sound. ,,
前前記記ししききいい値値はは、、前前記記複複数数ののママイイククロロホホンンにに前前記記抽抽出出音音がが入入力力さされれたた場場合合にに、、当当該該 抽抽出出音音をを周周波波数数分分析析ししたた周周波波数数信信号号のの前前記記複複数数ののママイイククロロホホンン間間ででのの前前記記差差分分距距 離離がが前前記記ししききいい値値以以下下ににななるるよよううにに定定めめらられれ、、  The above-mentioned threshold value is obtained when the above-mentioned extracted extracted sound is input / inputted to a plurality of microphones. In addition, before the frequency frequency signal obtained by analyzing the extracted and extracted sound by frequency frequency analysis, between the plurality of microphone chlorophones. Before the difference difference distance is determined to be less than or equal to the above threshold value,
かかつつ、、前前記記ししききいい値値はは、、当当該該複複数数ののママイイククロロホホンンにに除除去去のの対対象象ととすするる所所定定のの雑雑音音がが 入入力力さされれたた場場合合にに、、当当該該所所定定のの雑雑音音をを周周波波数数分分析析ししたた周周波波数数信信号号のの前前記記複複数数ののママ イイクク口口ホホンン間間ででのの前前記記差差分分距距離離がが前前記記ししききいい値値よよりりもも大大ききくくななるるよよううにに定定めめらられれてていいるる *  However, the above-mentioned threshold value is a predetermined value that is to be removed and removed from the plurality of mama chlorophophones. In the case where the noise signal of the noise is input / input force, the frequency signal of the frequency signal obtained by analyzing the noise signal of the predetermined frequency is analyzed for the frequency frequency. In front of the number, the difference between the plurality of mama's mouths is larger than the threshold value. It has been determined to become a *
PCT/JP2007/071524 2006-11-09 2007-11-06 Sound source position detector WO2008056649A1 (en)

Priority Applications (5)

Application Number Priority Date Filing Date Title
DE602007011807T DE602007011807D1 (en) 2006-11-09 2007-11-06 SOUND SOURCE POSITION DETECTOR
US12/094,724 US8184827B2 (en) 2006-11-09 2007-11-06 Sound source position detector
EP07831256A EP2090895B1 (en) 2006-11-09 2007-11-06 Sound source position detector
JP2008504286A JP4177452B2 (en) 2006-11-09 2007-11-06 Sound source position detector
CN2007800321570A CN101512374B (en) 2006-11-09 2007-11-06 Sound source position detector

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2006304507 2006-11-09
JP2006-304507 2006-11-09

Publications (1)

Publication Number Publication Date
WO2008056649A1 true WO2008056649A1 (en) 2008-05-15

Family

ID=39364464

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2007/071524 WO2008056649A1 (en) 2006-11-09 2007-11-06 Sound source position detector

Country Status (6)

Country Link
US (1) US8184827B2 (en)
EP (1) EP2090895B1 (en)
JP (1) JP4177452B2 (en)
CN (1) CN101512374B (en)
DE (1) DE602007011807D1 (en)
WO (1) WO2008056649A1 (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2202531A1 (en) * 2007-10-01 2010-06-30 Panasonic Corporation Sound source direction detector
JP2011085904A (en) * 2009-10-15 2011-04-28 Honda Research Inst Europe Gmbh Sound separated from noise with reference information
JP2011233090A (en) * 2010-04-30 2011-11-17 Toyota Motor Corp Vehicle exterior noise detection device
JP2011232292A (en) * 2010-04-30 2011-11-17 Toyota Motor Corp Vehicle exterior sound detection device
WO2012098844A1 (en) * 2011-01-18 2012-07-26 パナソニック株式会社 Vehicle-direction identification device, vehicle-direction identification method, and program therefor
WO2012105386A1 (en) * 2011-02-01 2012-08-09 日本電気株式会社 Sound segment detection device, sound segment detection method, and sound segment detection program
WO2012105385A1 (en) * 2011-02-01 2012-08-09 日本電気株式会社 Sound segment classification device, sound segment classification method, and sound segment classification program
WO2013020380A1 (en) * 2011-08-10 2013-02-14 歌尔声学股份有限公司 Communication headset speech enhancement method and device, and noise reduction communication headset
JP2013511045A (en) * 2009-11-12 2013-03-28 ポール リード スミス ギターズ、リミテッド パートナーシップ Method, computer readable storage medium and signal processing system for digital signal processing
JP2013068434A (en) * 2011-09-20 2013-04-18 Toyota Motor Corp Sound source detection device
CN103731768A (en) * 2013-12-25 2014-04-16 深圳Tcl新技术有限公司 Sound pickup method and device
WO2016013286A1 (en) * 2014-07-25 2016-01-28 シャープ株式会社 Phase difference calculation device, sound source direction detection device, and phase difference calculation method
US9390066B2 (en) 2009-11-12 2016-07-12 Digital Harmonic Llc Precision measurement of waveforms using deconvolution and windowing
US9600445B2 (en) 2009-11-12 2017-03-21 Digital Harmonic Llc Precision measurement of waveforms
KR20180131155A (en) * 2017-05-31 2018-12-10 네이버랩스 주식회사 Method, system and computer program for translation
US10618466B2 (en) 2016-03-10 2020-04-14 Hyundai Motor Company Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same
JP2022172184A (en) * 2019-08-06 2022-11-15 直之 村上 Computer eye (pceye)

Families Citing this family (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006037014A2 (en) 2004-09-27 2006-04-06 Nielsen Media Research, Inc. Methods and apparatus for using location information to manage spillover in an audience monitoring system
JP4527204B2 (en) * 2008-09-26 2010-08-18 パナソニック株式会社 Blind spot vehicle detection apparatus and method
KR101081752B1 (en) * 2009-11-30 2011-11-09 한국과학기술연구원 Artificial Ear and Method for Detecting the Direction of a Sound Source Using the Same
US8129606B2 (en) * 2009-12-04 2012-03-06 Roland Corporation Musical tone signal-processing apparatus
CN101957442B (en) * 2010-06-04 2013-04-10 河北工业大学 Sound source positioning device
AT510359B1 (en) * 2010-09-08 2015-05-15 Akg Acoustics Gmbh METHOD FOR ACOUSTIC SIGNAL TRACKING
US8922645B1 (en) * 2010-12-22 2014-12-30 Google Inc. Environmental reproduction system for representing an environment using one or more environmental sensors
JP5516455B2 (en) * 2011-02-23 2014-06-11 トヨタ自動車株式会社 Approaching vehicle detection device and approaching vehicle detection method
JP5310760B2 (en) * 2011-03-04 2013-10-09 トヨタ自動車株式会社 Approaching vehicle detection device
US9435873B2 (en) 2011-07-14 2016-09-06 Microsoft Technology Licensing, Llc Sound source localization using phase spectrum
US8548494B2 (en) 2011-08-23 2013-10-01 Microsoft Corporation Localization of mobile computing devices in indoor environments
CN103119461B (en) * 2011-09-20 2015-08-26 丰田自动车株式会社 Sound source detection device
CN103988090A (en) * 2011-11-24 2014-08-13 丰田自动车株式会社 Sound source detection device
CN102539084A (en) * 2012-01-03 2012-07-04 北京爱社时代科技发展有限公司 Time-of-arrival location principle-based gas leakage point scanner
JP6225118B2 (en) * 2012-01-17 2017-11-01 コーニンクレッカ フィリップス エヌ ヴェKoninklijke Philips N.V. Sound source position estimation
WO2013145216A1 (en) * 2012-03-29 2013-10-03 トヨタ自動車株式会社 Driving assistance system
US9421969B2 (en) * 2012-05-25 2016-08-23 Toyota Jidosha Kabushiki Kaisha Approaching vehicle detection apparatus and drive assist system
US20150117652A1 (en) * 2012-05-31 2015-04-30 Toyota Jidosha Kabushiki Kaisha Sound source detection device, noise model generation device, noise reduction device, sound source direction estimation device, approaching vehicle detection device and noise reduction method
US20150331095A1 (en) * 2012-12-26 2015-11-19 Toyota Jidosha Kabushiki Kaisha Sound detection device and sound detection method
US9736287B2 (en) * 2013-02-25 2017-08-15 Spreadtrum Communications (Shanghai) Co., Ltd. Detecting and switching between noise reduction modes in multi-microphone mobile devices
US9021516B2 (en) 2013-03-01 2015-04-28 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by measuring a crest factor
US9118960B2 (en) 2013-03-08 2015-08-25 The Nielsen Company (Us), Llc Methods and systems for reducing spillover by detecting signal distortion
US9191704B2 (en) 2013-03-14 2015-11-17 The Nielsen Company (Us), Llc Methods and systems for reducing crediting errors due to spillover using audio codes and/or signatures
US9197930B2 (en) * 2013-03-15 2015-11-24 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover in an audience monitoring system
JP6146470B2 (en) * 2013-07-11 2017-06-14 トヨタ自動車株式会社 Object detection apparatus and object detection method
JP6156012B2 (en) * 2013-09-20 2017-07-05 富士通株式会社 Voice processing apparatus and computer program for voice processing
US9924224B2 (en) 2015-04-03 2018-03-20 The Nielsen Company (Us), Llc Methods and apparatus to determine a state of a media presentation device
TWI660160B (en) * 2015-04-27 2019-05-21 維呈顧問股份有限公司 Detecting system and method of movable noise source
US10726863B2 (en) * 2015-04-27 2020-07-28 Otocon Inc. System and method for locating mobile noise source
JP6603919B2 (en) * 2015-06-18 2019-11-13 本田技研工業株式会社 Speech recognition apparatus and speech recognition method
US9848222B2 (en) 2015-07-15 2017-12-19 The Nielsen Company (Us), Llc Methods and apparatus to detect spillover
KR20170017401A (en) * 2015-08-06 2017-02-15 엘지이노텍 주식회사 Apparatus for processing Images
US10320964B2 (en) * 2015-10-30 2019-06-11 Mitsubishi Electric Corporation Hands-free control apparatus
CN105487047A (en) * 2015-11-23 2016-04-13 浙江大学 Method for determining noise source position and noise directivity of high-parameter pressure-reducing valve
US9996080B2 (en) 2016-02-26 2018-06-12 Ford Global Technologies, Llc Collision avoidance using auditory data
KR101759143B1 (en) 2016-03-10 2017-07-18 현대자동차주식회사 Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same
KR101807616B1 (en) * 2016-04-21 2017-12-11 현대자동차주식회사 Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same
KR101898663B1 (en) * 2017-01-02 2018-09-13 경희대학교 산학협력단 Apparatus method of extended input of portable device by using sound
JP7013789B2 (en) * 2017-10-23 2022-02-01 富士通株式会社 Computer program for voice processing, voice processing device and voice processing method
JP7245034B2 (en) * 2018-11-27 2023-03-23 キヤノン株式会社 SIGNAL PROCESSING DEVICE, SIGNAL PROCESSING METHOD, AND PROGRAM
US10811032B2 (en) * 2018-12-19 2020-10-20 Cirrus Logic, Inc. Data aided method for robust direction of arrival (DOA) estimation in the presence of spatially-coherent noise interferers
KR20190103086A (en) * 2019-08-15 2019-09-04 엘지전자 주식회사 Intelligent inspection devices and refrigerator with same
US20220326366A1 (en) * 2019-09-13 2022-10-13 Citizen Watch Co., Ltd. Detection device and detection system
DE102020107777A1 (en) 2020-03-20 2021-09-23 Bayerische Motoren Werke Aktiengesellschaft LOCATION OF ACOUSTIC SIGNALS
KR20210136569A (en) * 2020-05-08 2021-11-17 삼성전자주식회사 Alarm device, alarm system including the same, and alarm method
CN112367495B (en) * 2021-01-13 2021-04-13 北京电信易通信息技术股份有限公司 Image processing system and method based on multiple cameras

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0585288A (en) 1991-09-27 1993-04-06 Nissan Motor Co Ltd Vehicle alarm
JPH0592767U (en) * 1992-05-18 1993-12-17 株式会社豊田中央研究所 Approaching vehicle recognition device
JPH0683371A (en) 1992-08-31 1994-03-25 Sanyo Electric Co Ltd Sound collecting and correcting device
JPH07192183A (en) * 1993-12-27 1995-07-28 Nec Corp Abnormal sound inspection device
JP2000098015A (en) * 1998-09-25 2000-04-07 Honda Motor Co Ltd Device and method for detecting approaching vehicle
JP2000099853A (en) * 1998-09-25 2000-04-07 Honda Motor Co Ltd Approaching vehicle detector and its method
JP2000105274A (en) * 1998-09-30 2000-04-11 Honda Motor Co Ltd Approaching vehicle detecting device and method
JP2004537057A (en) * 2001-07-30 2004-12-09 ダイムラークライスラー・アクチェンゲゼルシャフト Method and apparatus for determining stationary and / or moving objects

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US2496031A (en) * 1947-12-30 1950-01-31 Rca Corp Dual microphone sound detector system
US3794766A (en) * 1973-02-08 1974-02-26 Bell Telephone Labor Inc Delay equalizing circuit for an audio system using multiple microphones
US4283767A (en) 1979-05-03 1981-08-11 Raytheon Company Multiple correlator reference processor
JP3146233B2 (en) 1991-10-03 2001-03-12 ヤマハ発動機株式会社 Carrier structure of snowmobile
US5657393A (en) * 1993-07-30 1997-08-12 Crow; Robert P. Beamed linear array microphone system
US5581620A (en) * 1994-04-21 1996-12-03 Brown University Research Foundation Methods and apparatus for adaptive beamforming
US5778082A (en) * 1996-06-14 1998-07-07 Picturetel Corporation Method and apparatus for localization of an acoustic source
US6987856B1 (en) * 1996-06-19 2006-01-17 Board Of Trustees Of The University Of Illinois Binaural signal processing techniques
US6130949A (en) * 1996-09-18 2000-10-10 Nippon Telegraph And Telephone Corporation Method and apparatus for separation of source, program recorded medium therefor, method and apparatus for detection of sound source zone, and program recorded medium therefor
JP3355598B2 (en) 1996-09-18 2002-12-09 日本電信電話株式会社 Sound source separation method, apparatus and recording medium
JP3797751B2 (en) * 1996-11-27 2006-07-19 富士通株式会社 Microphone system
JP2000111633A (en) * 1998-10-01 2000-04-21 Honda Motor Co Ltd Approaching vehicle detecting device
JP2000121719A (en) 1998-10-20 2000-04-28 Oki Systec Tokai:Kk Sound source position standardization equipment
DK1133899T3 (en) * 1998-11-16 2009-01-12 Univ Illinois Binaural signal processing techniques
US6556564B2 (en) * 2000-02-08 2003-04-29 Cetacean Networks, Inc. Scheduled internet protocol telephone instrument system
US20010028718A1 (en) * 2000-02-17 2001-10-11 Audia Technology, Inc. Null adaptation in multi-microphone directional system
US7236838B2 (en) * 2000-08-29 2007-06-26 Matsushita Electric Industrial Co., Ltd. Signal processing apparatus, signal processing method, program and recording medium
US20040001597A1 (en) * 2002-07-01 2004-01-01 Tandberg Asa Audio communication system and method with improved acoustic characteristics
NO318096B1 (en) * 2003-05-08 2005-01-31 Tandberg Telecom As Audio source location and method
TWI230023B (en) * 2003-11-20 2005-03-21 Acer Inc Sound-receiving method of microphone array associating positioning technology and system thereof
KR101086398B1 (en) * 2003-12-24 2011-11-25 삼성전자주식회사 Speaker system for controlling directivity of speaker using a plurality of microphone and method thereof
CN1727911A (en) * 2004-07-26 2006-02-01 松下电器产业株式会社 Acoustic control positioning system and method thereof
JP2006060720A (en) * 2004-08-24 2006-03-02 Hitachi Ltd Sound collection system
JP4247195B2 (en) * 2005-03-23 2009-04-02 株式会社東芝 Acoustic signal processing apparatus, acoustic signal processing method, acoustic signal processing program, and recording medium recording the acoustic signal processing program
US8233353B2 (en) * 2007-01-26 2012-07-31 Microsoft Corporation Multi-sensor sound source localization

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0585288A (en) 1991-09-27 1993-04-06 Nissan Motor Co Ltd Vehicle alarm
JPH0592767U (en) * 1992-05-18 1993-12-17 株式会社豊田中央研究所 Approaching vehicle recognition device
JPH0683371A (en) 1992-08-31 1994-03-25 Sanyo Electric Co Ltd Sound collecting and correcting device
JPH07192183A (en) * 1993-12-27 1995-07-28 Nec Corp Abnormal sound inspection device
JP2000098015A (en) * 1998-09-25 2000-04-07 Honda Motor Co Ltd Device and method for detecting approaching vehicle
JP2000099853A (en) * 1998-09-25 2000-04-07 Honda Motor Co Ltd Approaching vehicle detector and its method
JP2000105274A (en) * 1998-09-30 2000-04-11 Honda Motor Co Ltd Approaching vehicle detecting device and method
JP2004537057A (en) * 2001-07-30 2004-12-09 ダイムラークライスラー・アクチェンゲゼルシャフト Method and apparatus for determining stationary and / or moving objects

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2090895A4

Cited By (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2202531A4 (en) * 2007-10-01 2012-12-26 Panasonic Corp Sound source direction detector
EP2202531A1 (en) * 2007-10-01 2010-06-30 Panasonic Corporation Sound source direction detector
JP2011085904A (en) * 2009-10-15 2011-04-28 Honda Research Inst Europe Gmbh Sound separated from noise with reference information
US9600445B2 (en) 2009-11-12 2017-03-21 Digital Harmonic Llc Precision measurement of waveforms
US9390066B2 (en) 2009-11-12 2016-07-12 Digital Harmonic Llc Precision measurement of waveforms using deconvolution and windowing
US9279839B2 (en) 2009-11-12 2016-03-08 Digital Harmonic Llc Domain identification and separation for precision measurement of waveforms
JP2013511045A (en) * 2009-11-12 2013-03-28 ポール リード スミス ギターズ、リミテッド パートナーシップ Method, computer readable storage medium and signal processing system for digital signal processing
JP2011233090A (en) * 2010-04-30 2011-11-17 Toyota Motor Corp Vehicle exterior noise detection device
JP2011232292A (en) * 2010-04-30 2011-11-17 Toyota Motor Corp Vehicle exterior sound detection device
US9147347B2 (en) 2011-01-18 2015-09-29 Panasonic Intellectual Property Management Co., Ltd. Vehicle direction identification device, vehicle direction identification method and program therefor
WO2012098844A1 (en) * 2011-01-18 2012-07-26 パナソニック株式会社 Vehicle-direction identification device, vehicle-direction identification method, and program therefor
JP5079934B2 (en) * 2011-01-18 2012-11-21 パナソニック株式会社 Vehicle direction identification device, vehicle direction identification method, and program thereof
US9245539B2 (en) 2011-02-01 2016-01-26 Nec Corporation Voiced sound interval detection device, voiced sound interval detection method and voiced sound interval detection program
WO2012105385A1 (en) * 2011-02-01 2012-08-09 日本電気株式会社 Sound segment classification device, sound segment classification method, and sound segment classification program
WO2012105386A1 (en) * 2011-02-01 2012-08-09 日本電気株式会社 Sound segment detection device, sound segment detection method, and sound segment detection program
US9530435B2 (en) 2011-02-01 2016-12-27 Nec Corporation Voiced sound interval classification device, voiced sound interval classification method and voiced sound interval classification program
JP5994639B2 (en) * 2011-02-01 2016-09-21 日本電気株式会社 Sound section detection device, sound section detection method, and sound section detection program
US9484042B2 (en) 2011-08-10 2016-11-01 Goertek Inc. Speech enhancing method, device for communication earphone and noise reducing communication earphone
WO2013020380A1 (en) * 2011-08-10 2013-02-14 歌尔声学股份有限公司 Communication headset speech enhancement method and device, and noise reduction communication headset
US9299334B2 (en) 2011-09-20 2016-03-29 Toyota Jidosha Kabushiki Kaisha Sound source detecting system and sound source detecting method
JP2013068434A (en) * 2011-09-20 2013-04-18 Toyota Motor Corp Sound source detection device
CN103731768A (en) * 2013-12-25 2014-04-16 深圳Tcl新技术有限公司 Sound pickup method and device
JP2016031243A (en) * 2014-07-25 2016-03-07 シャープ株式会社 Phase difference calculation device, sound source direction detection device, and phase difference calculation method
WO2016013286A1 (en) * 2014-07-25 2016-01-28 シャープ株式会社 Phase difference calculation device, sound source direction detection device, and phase difference calculation method
US10618466B2 (en) 2016-03-10 2020-04-14 Hyundai Motor Company Method for providing sound detection information, apparatus detecting sound around vehicle, and vehicle including the same
KR20180131155A (en) * 2017-05-31 2018-12-10 네이버랩스 주식회사 Method, system and computer program for translation
KR101989127B1 (en) 2017-05-31 2019-09-30 네이버랩스 주식회사 Method, system and computer program for translation
JP2022172184A (en) * 2019-08-06 2022-11-15 直之 村上 Computer eye (pceye)
JP7291451B2 (en) 2019-08-06 2023-06-15 直之 村上 Computer eyes (PCEYE)

Also Published As

Publication number Publication date
DE602007011807D1 (en) 2011-02-17
EP2090895A4 (en) 2009-12-09
EP2090895B1 (en) 2011-01-05
JP4177452B2 (en) 2008-11-05
US20090285409A1 (en) 2009-11-19
US8184827B2 (en) 2012-05-22
JPWO2008056649A1 (en) 2010-02-25
CN101512374B (en) 2012-04-11
CN101512374A (en) 2009-08-19
EP2090895A1 (en) 2009-08-19

Similar Documents

Publication Publication Date Title
WO2008056649A1 (en) Sound source position detector
US8370140B2 (en) Method of filtering non-steady lateral noise for a multi-microphone audio device, in particular a “hands-free” telephone device for a motor vehicle
CN103002170B (en) Comprise the audio frequency apparatus of the device being filtered noisy speech signal of making a return journey by fractional delay
EP2309499B1 (en) Method for optimised filtering of non-stationary interference captured by a multi-microphone audio device, in particular a hands-free telephone device for an automobile.
US7246058B2 (en) Detecting voiced and unvoiced speech using both acoustic and nonacoustic sensors
JP3812887B2 (en) Signal processing system and method
WO2006059806A1 (en) Voice recognition system
US9467775B2 (en) Method and a system for noise suppressing an audio signal
CN106653044B (en) Dual microphone noise reduction system and method for tracking noise source and target sound source
JP2007183202A (en) Method and apparatus for determining sound source direction
US9699549B2 (en) Audio capturing enhancement method and audio capturing system using the same
JP2008236077A (en) Target sound extracting apparatus, target sound extracting program
Al-Karawi et al. Early reflection detection using autocorrelation to improve robustness of speaker verification in reverberant conditions
KR20150035038A (en) System and method for removing noise of ultrasonic system
CN112824925A (en) Lightweight full 360 degree audio source location detection using two microphones
KR20150059983A (en) Device for improving the detection performance of ultrasonic sensors of vehicle and method thereof
CN100370516C (en) Input sound processor
EP2362390A1 (en) Noise suppression
Okopal et al. Dispersion-invariant features for classification
KR20110038447A (en) Apparatus for detecting target signal by using statistical model and its method
JP2001154688A (en) Voice inputting device for vehicle
CN110020520B (en) Face recognition auxiliary authentication method and system based on sound signals
JP2001296359A (en) Bistatic processing apparatus
TWI402531B (en) Method for locating sound sorce and sound source locating system and computer program product using the same
WO2019178802A1 (en) Method and device for estimating direction of arrival and electronics apparatus

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200780032157.0

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 2008504286

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 12094724

Country of ref document: US

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 07831256

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2007831256

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE