JP2009109868A - Sound source localization apparatus - Google Patents

Sound source localization apparatus Download PDF

Info

Publication number
JP2009109868A
JP2009109868A JP2007283742A JP2007283742A JP2009109868A JP 2009109868 A JP2009109868 A JP 2009109868A JP 2007283742 A JP2007283742 A JP 2007283742A JP 2007283742 A JP2007283742 A JP 2007283742A JP 2009109868 A JP2009109868 A JP 2009109868A
Authority
JP
Japan
Prior art keywords
neuron
sound
sound source
detection unit
output
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007283742A
Other languages
Japanese (ja)
Other versions
JP4958172B2 (en
Inventor
Akira Iwata
彰 岩田
Susumu Kuroyanagi
奨 黒柳
Kaname Iwasa
要 岩佐
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nagoya Institute of Technology NUC
Original Assignee
Nagoya Institute of Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nagoya Institute of Technology NUC filed Critical Nagoya Institute of Technology NUC
Priority to JP2007283742A priority Critical patent/JP4958172B2/en
Publication of JP2009109868A publication Critical patent/JP2009109868A/en
Application granted granted Critical
Publication of JP4958172B2 publication Critical patent/JP4958172B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sound source localization apparatus advantageous in hardware mounting. <P>SOLUTION: The sound source localization apparatus 1 includes: two microphones 2 and 3, each of which has front directivity, and which are horizontally arranged with an interval, with one facing forward, while the other facing backward; a time difference detecting section 8 for detecting time difference information of sound collected by the microphones 2 and 3, by a pulse neuron model; a sound pressure difference detecting section 9 for detecting sound pressure difference information of the sound collected by the microphones 2 and 3, by the pulse neuron model; a horizontal direction detecting section 10 for detecting sound source direction information in a horizontal direction based on the time difference information of the sound; and a back and forth direction detecting section 11 for detecting sound source direction information in a back and forth direction based on the sound pressure information of the sound. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、音源方向を識別する音源定位装置に関し、特に、パルス信号(単に「パルス」ともいう。)を入出力するニューロンモデルであるパルスニューロンモデルを用いた音源定位装置に関する。   The present invention relates to a sound source localization apparatus that identifies a sound source direction, and more particularly, to a sound source localization apparatus that uses a pulse neuron model that is a neuron model that inputs and outputs a pulse signal (also simply referred to as “pulse”).

音源定位のためにパルスニューロンモデル(以下、「PNモデル」又は「ニューロン」ともいう。)を用いる技術が、下記特許文献1及び非特許文献1〜3に開示されている。特許文献1には、音源定位のための時間差検出器が開示され、非特許文献1には、PNモデルを用いて、両耳に入って来る音の時間差、音圧差を抽出する音源方向知覚モデルが開示され、非特許文献2には、聴覚情報処理システムのためのPNモデルを用いた競合学習ニューラルネットワークが開示され、非特許文献3には、PNモデルのハードウェアへの実装方法が開示されている。   Techniques using a pulse neuron model (hereinafter also referred to as “PN model” or “neuron”) for sound source localization are disclosed in Patent Document 1 and Non-Patent Documents 1 to 3 below. Patent Document 1 discloses a time difference detector for sound source localization, and Non-Patent Document 1 discloses a sound source direction perception model that extracts a time difference and a sound pressure difference of sounds coming into both ears using a PN model. Non-Patent Document 2 discloses a competitive learning neural network using a PN model for an auditory information processing system, and Non-Patent Document 3 discloses a method of mounting a PN model on hardware. ing.

図1に、PNモデルの模式図を示す。同じPNモデルが非特許文献1〜3にも示されているので詳説しないが、PNモデルでは、時刻t(tは離散値で、ここではdt=1とする。)にn番目の入力チャンネルからパルスin(t)=1がn番目のシナプス部に入力されると、n番目のシナプス部の局所膜電位pn(t)が結合重み(単に「重み」ともいう。)wn分上昇し、その後時定数τで静止電位まで減衰する。時刻tのPNモデルの内部電位I(t)は、その時刻の各局所膜電位pn(t)の総和として表される。PNモデルは、内部電位I(t)が閾値θ以上となった時発火(すなわち、出力パルス「1」を発生)する。但し、神経細胞には発火に関する不応期RPが存在するため、PNモデルにおいても、ある発火からRPの間は内部電位が閾値を超えた場合でも発火しない。 FIG. 1 shows a schematic diagram of the PN model. Since the same PN model is also shown in Non-Patent Documents 1 to 3, it will not be described in detail. However, in the PN model, from the nth input channel at time t (t is a discrete value, here, dt = 1). When the pulse i n (t) = 1 is input to the n-th synapse portion, the local membrane potential p n (t) of the n-th synapse portion is increased by the connection weight (also simply referred to as “weight”) w n . After that, it decays to a static potential with a time constant τ. The internal potential I (t) of the PN model at time t is expressed as the sum of the local membrane potentials p n (t) at that time. The PN model ignites (that is, generates an output pulse “1”) when the internal potential I (t) becomes equal to or greater than the threshold θ. However, since there is a refractory period RP related to firing in nerve cells, even in the PN model, even if the internal potential exceeds a threshold value during a certain firing to RP, firing does not occur.

PNモデルはディジタル回路によりハードウェア化可能である。図2に、PNモデルのディジタル回路による構成例を示す。同様の構成例が非特許文献3にも記載されているので詳説しないが、この構成例では、通常は加算処理を行い、加算処理数回の後にレジスタの値をビットシフトした値を引くこと(すなわち、ビットシフトと補数表現)で減衰を近似的に実現しており、減衰処理の機構に乗算器を用いないため、ディジタル回路で実現するのに適している。   The PN model can be implemented by hardware using a digital circuit. FIG. 2 shows a configuration example of a PN model digital circuit. A similar configuration example is also described in Non-Patent Document 3 and will not be described in detail. However, in this configuration example, an addition process is usually performed, and a value obtained by bit-shifting the register value is subtracted after several addition processes ( That is, attenuation is approximately realized by bit shift and complement expression), and a multiplier is not used for the attenuation processing mechanism, so that it is suitable for realization by a digital circuit.

ところで、図3に示すように、両耳に相当する2つのマイクロホン101、102を同方向に向けて左右に配置し、マイクロホン101によって集音された音とマイクロホン102によって集音された音を用いて、音源の方向を識別しようとすると、左右方向は、音源からマイクロホン101、102までの距離の違いから生じる音の時間差により識別可能であるが、音源がマイクロホン101、102の集音部を結ぶ線(図中の1点鎖線)を挟んで前後方向のどちらにあるのかは、識別不可能であった。図3で言えば、音源が図中の1点鎖線について対称的なPの位置とP´の位置のどちらにあっても、同様の時間差が生じてしまうからである。   By the way, as shown in FIG. 3, two microphones 101 and 102 corresponding to both ears are arranged on the left and right in the same direction, and the sound collected by the microphone 101 and the sound collected by the microphone 102 are used. Thus, when trying to identify the direction of the sound source, the left and right direction can be identified by the time difference of the sound resulting from the difference in the distance from the sound source to the microphones 101 and 102, but the sound source connects the sound collection parts of the microphones 101 and 102. It was impossible to discriminate whether it was in the front-rear direction across the line (dashed line in the figure). If it says in FIG. 3, it is because the same time difference will arise even if a sound source exists in the position of P symmetrical about the dashed-dotted line in a figure, and the position of P '.

このため、下記非特許文献4に記載された音源定位システムでは、同文献の3.4節で説明しているように、右のマイクロホンを前方に、左のマイクロホンを後方に向けて配置し(同文献のFigure 5参照)、後方からの音は前方からの音よりもこもることから、左右のマイクロホンから入った音の周波数スペクトルの重心をそれぞれ計算して、右の重心が左の重心よりも大きければ前方、左の重心が右の重心よりも大きければ後方と判断している。
特開2007−164027号公報 黒柳奨、岩田彰、「パルス伝達型聴覚神経回路モデルによる音源方向知覚−時間差・音圧差の抽出−」、電子情報通信学会技術研究報告、社団法人電子情報通信学会、1993年3月、NC92−149、p.163−170 黒柳奨、岩田彰、「聴覚情報処理システムのためのパルスニューロンモデルを用いた競合学習ニューラルネットワーク」、電子情報通信学会論文誌(D−II)、2004年7月、第J87−D−II巻、第7号、p.1496−1504 二俣宣義、黒柳奨、岩田彰、「FPGAのためのパルスニューロンモデルの実装方法」、電子情報通信学会NC研究会技術研究報告、社団法人電子情報通信学会、2002年3月、NC2001−211、p.121−128 シャウアー(Schauer)、グロス(Gross)、「バイノーラル360度音源定位システムのモデルとアプリケーション(Model and Application of a Binaural 360°Sound Localization System)」、国際ニューラルネットワーク・ジョイント学会論文集(Proceedings of the International Joint Conference on Neural Networks)、アイ・トリプル・イー・コンピュータ学会(IEEE Computer Society)、2001年、第2巻、p.1132−1137
For this reason, in the sound source localization system described in Non-Patent Document 4 below, as described in section 3.4 of the same document, the right microphone is disposed forward and the left microphone is disposed rearward ( Since the sound from the back is more muffled than the sound from the front, calculate the centroid of the frequency spectrum of the sound coming from the left and right microphones, and the right centroid is more than the left centroid. If it is larger, it is determined to be forward, and if the left centroid is larger than the right centroid, it is determined to be rearward.
JP 2007-164027 A Kuroyanagi Shu, Akira Iwata, "Sound source direction perception by pulse transmission type auditory neural circuit model-Extraction of time difference and sound pressure difference-" Technical report of IEICE, IEICE, March 1993, NC92- 149, p. 163-170 Kuroyanagi Shu, Akira Iwata, “Competitive Learning Neural Network Using Pulsed Neuron Model for Auditory Information Processing System”, IEICE Transactions (D-II), July 2004, Vol. J87-D-II No. 7, p. 1496-1504 Noriyoshi Futaki, Susumu Kuroyanagi, Akira Iwata, “Implementation Method of Pulsed Neuron Model for FPGA”, IEICE NC Research Technical Report, The Institute of Electronics, Information and Communication Engineers, March 2002, NC2001-211, p . 121-128 Schauer, Gross, “Model and Application of a Binaural 360 ° Sound Localization System”, Proceedings of the International Joint Conference on Neural Networks), IEEE Computer Society, 2001, Vol. 2, p. 1132-1137

しかし、非特許文献4の音源定位システムでは、周波数スペクトルの重心を計算するためにFFT(高速フーリエ変換)を行っており、FFT計算機が必要であるため、ハードウェア実装上不利であった。   However, the sound source localization system of Non-Patent Document 4 is disadvantageous in terms of hardware implementation because it performs FFT (Fast Fourier Transform) to calculate the center of gravity of the frequency spectrum and requires an FFT calculator.

この発明は、上述した問題を解決するものであり、ハードウェア実装上有利な音源定位装置を提供することを目的とする。   The present invention solves the above-described problems, and an object thereof is to provide a sound source localization apparatus that is advantageous in terms of hardware implementation.

本発明の音源定位装置は、それぞれ前方指向性を有し、左右に間隔をおいて配設されるとともに、一方は前方に向けて他方は後方に向けて配置された2つのマイクロホンと、前記各マイクロホンで集音された音の時間差情報を、パルスニューロンモデルにより検出する時間差検出手段と、前記各マイクロホンで集音された音の音圧差情報を、パルスニューロンモデルにより検出する音圧差検出手段と、前記時間差検出手段で検出された音の時間差情報に基づいて、左右方向における音源の方向情報をパルスニューロンモデルにより検出する左右方向検出手段と、前記音圧差検出手段で検出された音の音圧差情報に基づいて、前後方向における音源の方向情報をパルスニューロンモデルにより検出する前後方向検出手段と、を備えることを特徴とする。   Each of the sound source localization apparatuses of the present invention has a front directivity, and is disposed with a space between left and right, one of which is directed forward and the other of which is disposed rearward, Time difference detection means for detecting the time difference information of the sound collected by the microphone using a pulse neuron model, and sound pressure difference detection means for detecting the sound pressure difference information of the sound collected by each microphone using the pulse neuron model; Based on the time difference information of the sound detected by the time difference detection means, the left / right direction detection means for detecting the direction information of the sound source in the left / right direction by a pulse neuron model, and the sound pressure difference information of the sound detected by the sound pressure difference detection means And a front-rear direction detecting means for detecting the direction information of the sound source in the front-rear direction by using a pulse neuron model. To.

また、前記左右方向検出手段で検出された左右方向における音源の方向情報と、前記前後方向検出手段で検出された前後方向における音源の方向情報とに基づいて、周囲の複数方向における音源の方向情報をパルスニューロンモデルにより検出する周囲方向検出手段を備えることが好ましい。   In addition, based on the direction information of the sound source in the left-right direction detected by the left-right direction detection unit and the direction information of the sound source in the front-rear direction detected by the front-rear direction detection unit, the direction information of the sound source in a plurality of surrounding directions It is preferable to include a surrounding direction detecting means for detecting the signal using a pulse neuron model.

本発明の音源定位装置は、時間差検出手段がパルスニューロンモデルにより音の時間差情報を検出し、音圧差検出手段がパルスニューロンモデルにより音圧差情報を検出し、左右方向検出手段がパルスニューロンモデルにより左右方向における音源の方向情報を検出し、前後方向検出手段がパルスニューロンモデルにより前後方向における音源の方向情報を検出しており、パルスニューロンモデルは簡単なディジタル回路により実現可能であるため、ハードウェア実装上有利である。   In the sound source localization apparatus of the present invention, the time difference detecting means detects sound time difference information using a pulse neuron model, the sound pressure difference detecting means detects sound pressure difference information using a pulse neuron model, and the left-right direction detecting means detects left and right information using a pulse neuron model. Since the direction information of the sound source in the direction is detected and the direction detection means detects the direction information of the sound source in the front and back direction by the pulse neuron model, and the pulse neuron model can be realized by a simple digital circuit, hardware implementation This is advantageous.

以下、本発明の一実施形態について図面に基づいて説明する。   Hereinafter, an embodiment of the present invention will be described with reference to the drawings.

音源定位装置1は、図4に示すように、左右のマイクロホン2、3と、マクロフォン2、3が接続された本体部4とを備えている。本体部4は、定位結果を表示する表示装置5に接続されている。   As shown in FIG. 4, the sound source localization apparatus 1 includes left and right microphones 2 and 3 and a main body 4 to which the microphones 2 and 3 are connected. The main body 4 is connected to a display device 5 that displays the localization result.

マイクロホン2、3は前方指向性(すなわち、前方側の感度がよい単一指向性)を有している。マイクロホン2、3は、左右に間隔をおいて、マイクロホン2、3の集音部2a、3aが左右方向に並ぶように配置されるとともに、左のマイクロホン2は前方に向けて、右のマイクロホン3は後方に向けて配置されている。マイクロホン2、3は集音部2a、3aで集音した音を電気信号に変換する。音量が大きい程すなわち音圧が大きい程、変換された電気信号の電圧値は高くなる。なお、集音部2a、3aは必ずしも左右方向の一直線上に並ばなくてもよい。かかる場合には、得られたデータに対して適当な補正をすればよい。   The microphones 2 and 3 have forward directivity (that is, unidirectional with good forward sensitivity). The microphones 2 and 3 are arranged so that the sound collecting portions 2a and 3a of the microphones 2 and 3 are arranged in the left and right direction with an interval left and right, and the left microphone 2 faces the front and the right microphone 3 Are arranged facing backwards. The microphones 2 and 3 convert the sound collected by the sound collection units 2a and 3a into electric signals. The greater the volume, that is, the greater the sound pressure, the higher the voltage value of the converted electrical signal. Note that the sound collection units 2a and 3a do not necessarily have to be arranged on a straight line in the left-right direction. In such a case, an appropriate correction may be made on the obtained data.

本体部4は、図5に示すように、左のマイクロホン2に接続された左の入力信号処理部6と、右のマイクロホン3に接続された右の入力信号処理部7と、入力信号処理部6、7の両方に接続された時間差検出部(時間差検出手段に相当。)8と、入力信号処理部6、7の両方に接続された音圧差検出部(音圧差検出手段に相当。)9と、時間差検出部8に接続された左右方向検出部(左右方向検出手段に相当。)10と、音圧差検出部9に接続された前後方向検出部(前後方向検出手段に相当。)11と、左右方向検出部10及び前後方向検出部11の両方に接続された8方向検出部(周囲方向検出手段に相当。)12とを備えている。   As shown in FIG. 5, the main unit 4 includes a left input signal processing unit 6 connected to the left microphone 2, a right input signal processing unit 7 connected to the right microphone 3, and an input signal processing unit. 6 and 7, a time difference detection unit (corresponding to a time difference detection unit) 8, and a sound pressure difference detection unit (corresponding to a sound pressure difference detection unit) 9 connected to both of the input signal processing units 6 and 7. And a left-right direction detection unit (corresponding to the left-right direction detection means) 10 connected to the time difference detection unit 8, and a front-rear direction detection unit (corresponding to the front-rear direction detection means) 11 connected to the sound pressure difference detection unit 9. , An eight-direction detection unit (corresponding to a surrounding direction detection means) 12 connected to both the left-right direction detection unit 10 and the front-rear direction detection unit 11.

入力信号処理部6、7は、左右の入力信号の各々を、周波数帯域毎に、信号強度に応じたすなわち音圧に応じたパルス頻度を持つパルス列に変換するものである。時間差検出部8は、入力信号処理部6、7が出力した左右のパルス列から、左右の音(左右のマイクロホン2、3から入った音)の時間差情報を検出するものである。音圧差検出部9は、左右のパルス列から、左右の音の音圧差情報を検出するものである。左右方向検出部10は、音源が左方にあるときは右のマイクロホン3よりも左のマイクロホン2から早く、右方にあるときは左のマイクロホン2よりも右のマイクロホン3から早く音が入ってくることを利用して、時間差検出部8が検出した時間差情報から、左右方向における音源の方向情報を検出するものである。前後方向検出部11は、音源の方を向いているマイクロホンから入った音よりも音源の方を向いていないマイクロホンから入った音の方が音圧が小さくなることを利用して、音圧差検出部9が検出した音圧差情報から、前後方向における音源の方向情報を検出するものである。8方向検出部12は、左右方向検出部10及び前後方向検出部11から出力された情報に基づいて、周囲の8方向における音源の方向情報(音源が8方向のうちのいずれの方向にあるかを示す情報)を出力するものである。   The input signal processing units 6 and 7 convert each of the left and right input signals into a pulse train having a pulse frequency corresponding to the signal intensity, that is, the sound pressure, for each frequency band. The time difference detection unit 8 detects time difference information of left and right sounds (sounds from the left and right microphones 2 and 3) from the left and right pulse trains output from the input signal processing units 6 and 7. The sound pressure difference detection unit 9 detects sound pressure difference information of left and right sounds from the left and right pulse trains. When the sound source is on the left side, the left / right direction detection unit 10 receives sound from the left microphone 2 faster than the right microphone 3 and when it is on the right side, the sound enters from the right microphone 3 faster than the left microphone 2. Using this, the direction information of the sound source in the left-right direction is detected from the time difference information detected by the time difference detection unit 8. The front-rear direction detection unit 11 detects the difference in sound pressure by using the fact that the sound pressure from the microphone not facing the sound source is smaller than the sound entering from the microphone facing the sound source. The sound source direction information in the front-rear direction is detected from the sound pressure difference information detected by the unit 9. The eight-direction detection unit 12 is based on the information output from the left-right direction detection unit 10 and the front-rear direction detection unit 11 and the direction information of the sound source in the surrounding eight directions (whether the sound source is in one of the eight directions). Information) is output.

表示部5は、8方向検出部12から出力された方向情報に基づいて、音源の方向を表示するものである。   The display unit 5 displays the direction of the sound source based on the direction information output from the 8-direction detection unit 12.

入力信号処理部6、7は、図6に示すように、AD変換部14L、14Rと、人の聴覚系の蝸牛に相当する周波数分解部15L、15Rと、有毛細胞に相当する非線形変換部16L、16Rと、蝸牛神経に相当するパルス変換部17L、17Rとを備えている。AD変換部14L、14Rは、マイクロホン2、3から入力された信号をAD変換する。周波数分解部15L、15Rは、バンドパスフィルタ(BPF)群により構成され、AD変換された信号を所定の周波数範囲について対数スケールで複数(N個)の周波数帯域(周波数チャンネル)の信号に分解する。非線形変換部16L、16Rは、周波数分解部15L、15Rから入力された各周波数帯域の信号に対して、それぞれ、非線形変換を行うことによりその正の成分だけを取り出すとともに、ローパスフィルタ(LPF)によりエンベロープ検出を行う。パルス変換部17L、17Rは、非線形変換部16L、16Rから入力された各周波数帯域の信号を、それぞれ、信号強度に比例したパルス頻度を持つパルス列に変換する。これらの処理により、入力信号処理部6、7は、左右の入力信号の各々を、周波数帯域毎に、信号強度に応じたパルス頻度を持つパルス列に変換する。   As shown in FIG. 6, the input signal processing units 6 and 7 include AD conversion units 14L and 14R, frequency resolving units 15L and 15R corresponding to human cochleas, and nonlinear conversion units corresponding to hair cells. 16L and 16R, and pulse converters 17L and 17R corresponding to the cochlear nerve. The AD converters 14L and 14R AD convert the signals input from the microphones 2 and 3. The frequency resolving units 15L and 15R are configured by a band pass filter (BPF) group, and decompose the AD-converted signals into signals of a plurality of (N) frequency bands (frequency channels) on a logarithmic scale for a predetermined frequency range. . The non-linear transformation units 16L and 16R take out only the positive components by performing non-linear transformation on the signals of the respective frequency bands input from the frequency decomposition units 15L and 15R, and also by a low-pass filter (LPF). Perform envelope detection. The pulse converters 17L and 17R convert the signals in the respective frequency bands input from the nonlinear converters 16L and 16R into pulse trains each having a pulse frequency proportional to the signal intensity. Through these processes, the input signal processing units 6 and 7 convert each of the left and right input signals into a pulse train having a pulse frequency corresponding to the signal intensity for each frequency band.

入力信号部6、7をハードウェア化する場合は、AD変換部14L、14RはAD変換回路で、周波数分解部15L、15R、非線形変換部16L、16R、パルス変換部17L、17Rは、それぞれディジタル回路で構成可能である。   When the input signal units 6 and 7 are implemented as hardware, the AD conversion units 14L and 14R are AD conversion circuits, and the frequency resolution units 15L and 15R, the nonlinear conversion units 16L and 16R, and the pulse conversion units 17L and 17R are digital, respectively. It can be configured with a circuit.

時間差検出部8における時間差情報の検出、音圧差検出部9における音圧差情報の検出、左右方向検出部10における方向情報の検出、前後方向検出部11における方向情報の検出、及び、8方向検出部12における方向情報の検出は、いずれも、複数のPNモデルにより構成されたパルスニューラルネットワークで行われる。パルスニューラルネットワークは、独立かつ非同期に並列動作可能な複数のPNモデルを電子回路として実装することにより実現され、高速処理が可能である。   Detection of time difference information in the time difference detection unit 8, detection of sound pressure difference information in the sound pressure difference detection unit 9, detection of direction information in the left-right direction detection unit 10, detection of direction information in the front-rear direction detection unit 11, and 8-direction detection unit The detection of the direction information in 12 is performed by a pulse neural network constituted by a plurality of PN models. The pulse neural network is realized by mounting a plurality of PN models that can operate independently and asynchronously in parallel as an electronic circuit, and can perform high-speed processing.

時間差検出部8は、図7に示すようなPNモデルからなる時間差検出モデルと、パルス列をシフトさせつつ時間差検出モデルに入力するための時間遅れ素子19(図8参照)の列とから構成されている。時間差検出モデルは、非特許文献1等に記載されているものと同様であるので詳説しないが、図8に示すように時間差検出ニューロン(以下、「MSOニューロン」ともいう。)20を複数(但し、奇数個)並べたMSOニューロン列を、周波数チャンネル毎に設けたものである。各MSOニューロン20は、左のパルス信号が入力される左入力端子21と、右のパルス信号が入力される右入力端子22と、出力端子23とを備え、全MSOニューロン20において、左右の入力に対する重みを共通の固定値とし、閾値を重みの2倍又は重みの2倍に内部電位の基準値を加えた値とすること等により、パルス信号が左右から略同時に入力されたときに出力端子23からパルス信号を出力するように構成される。なお、「略同時」とは、勿論、同時である場合を含む。   The time difference detection unit 8 is composed of a time difference detection model composed of a PN model as shown in FIG. 7 and a sequence of time delay elements 19 (see FIG. 8) for inputting to the time difference detection model while shifting the pulse train. Yes. Since the time difference detection model is the same as that described in Non-Patent Document 1, etc., it will not be described in detail. However, as shown in FIG. 8, a plurality of time difference detection neurons (hereinafter also referred to as “MSO neurons”) 20 are provided. , An odd number) of MSO neuron rows arranged for each frequency channel. Each MSO neuron 20 includes a left input terminal 21 to which a left pulse signal is input, a right input terminal 22 to which a right pulse signal is input, and an output terminal 23. When the pulse signal is input almost simultaneously from the left and right by setting the weight to the common fixed value and the threshold value to be twice the weight or the value obtained by adding the reference value of the internal potential to the double weight, etc. 23 is configured to output a pulse signal. Note that “substantially simultaneous” includes, of course, simultaneous.

そして、時間差検出部8は、時間遅れ素子19により、1クロック(単位時間)毎に、左のパルス列を右にシフトさせるとともに右のパルス列を左にシフトさせつつ、左右のパルス列を対応する周波数チャンネルのMSOニューロン列に入力する。すなわち、左のパルス信号はMSOニューロン列の一端(図8では左端)から他端(同右端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力され、右のパルス信号はMSOニューロン列の他端(同右端)から一端(同左端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力される。   Then, the time difference detector 8 shifts the left pulse train to the right and the right pulse train to the left and shifts the left and right pulse trains to the corresponding frequency channel for each clock (unit time) by the time delay element 19. To the MSO neuron array. That is, the left pulse signal is sequentially input to each MSO neuron 20 while being shifted from one end (left end in FIG. 8) to the other end (right end) of the MSO neuron train for each unit time, and the right pulse signal is input to the MSO neuron train. Are sequentially input to each MSO neuron 20 while being shifted every other unit time from the other end (same right end) to one end (same left end).

例えば各MSOニューロン列内のMSOニューロン20を2J+1個とし、各MSOニューロン20に−JからJまでの番号を付すと、時刻tに、各MSOニューロン20は下記[数1]に従って内部電位IMSO ji(t)を演算し、この内部電位が所定の閾値を超えた場合にはyji(t)=1を出力し、超えない場合にはyji(t)=0を出力する。なお、jはMSOニューロン20の番号、iは周波数チャンネルの番号(i=1〜N)とする。下記[数1]において、pleft ji(t)は左の入力信号に対する局所膜電位、pright ji(t)は右の入力信号に対する局所膜電位であり、wは全ニューロン20で共通の結合重み、τは減衰時定数である。 For example, if the number of MSO neurons 20 in each MSO neuron array is 2J + 1 and each MSO neuron 20 is assigned a number from −J to J, at time t, each MSO neuron 20 has an internal potential I MSO according to the following [Equation 1]. ji (t) is calculated, and y ji (t) = 1 is output when the internal potential exceeds a predetermined threshold, and y ji (t) = 0 is output when it does not exceed the predetermined threshold. Note that j is the number of the MSO neuron 20, and i is the frequency channel number (i = 1 to N). In the following [Equation 1], p left ji (t) is a local membrane potential for the left input signal, p right ji (t) is a local membrane potential for the right input signal, and w is a common connection in all neurons 20. The weight, τ, is the decay time constant.

これにより、時間差検出モデルは、左右からパルス信号が略同時に入ってきた場合にはMSOニューロン列における中央付近のニューロン20が発火し、パルス信号が右よりも左から早く入ってきた場合にはMSOニューロン列における右側のニューロン20が発火し、パルス信号が左よりも右から早く入ってきた場合にはMSOニューロン列における左側のニューロン20が発火するというように、左右の入力信号間の時間差によって変化する発火パターンを、音の時間差情報として出力する。 Thus, in the time difference detection model, the neuron 20 near the center in the MSO neuron array fires when a pulse signal enters from the left and right substantially simultaneously, and when the pulse signal enters earlier from the left than the right, the MSO The right neuron 20 in the neuron array fires, and when the pulse signal comes in from the right earlier than the left, the left neuron 20 in the MSO neuron array fires. The firing pattern is output as sound time difference information.

上述したように各MSOニューロン列内の各MSOニューロン20に−JからJまでの番号を付すと、時刻tに、周波数チャンネルiに対応するMSOニューロン列からは出力パルス列(y-Ji(t),…,y0i(t),…,yJi(t))が出力され、時間差検出モデルからは全体として次のようなベクトルyMSO(t)が時間差情報として出力される。 As described above, when each MSO neuron 20 in each MSO neuron train is assigned a number from −J to J, the output pulse train (y −Ji (t)) is output from the MSO neuron train corresponding to the frequency channel i at time t. ,..., Y 0i (t),..., Y Ji (t)) are output, and the following vector y MSO (t) is output as time difference information as a whole from the time difference detection model.

MSO(t)=(y-J1(t),…,y01(t),…,yJ1(t),
-J2(t),…,y02(t),…,yJ2(t),
…,
-JN(t),…,y0N(t),…,yJN(t))
時間差検出部8は、例えば図9に示すように、ディジタル回路で構成可能である。なお、図9(a)は1クロックの前半の動作を、(b)は後半の動作を説明するための図である。この例は、非特許文献3の第5章にも記載されているので詳説しないが、時間差検出部8の各MSOニューロン20は、AND回路24L、24Rと、加算器25、26と、レジスタ27と、比較器28と、減衰生成部29とを備えている。図9(a)に示すように、減衰生成部29は、内部電位(内部ポテンシャル)に対してビットシフトと補数表現を行うことにより、内部電位の減衰分を生成して加算器26に入力し、加算器26は内部電位とその減衰分との加算を行って、レジスタ27内の内部電位を更新する。そして、図9(b)に示すように、AND回路24L、24Rは、入力信号が「1」のときのみ結合重みを加算器25に入力し、加算器25は入力された結合重みとレジスタ27に保持されている内部電位との加算を行って、レジスタ27内の内部電位を更新する。比較器28は、自らが保持している閾値と、レジスタ27が保持している内部電位との比較を行って、内部電位が閾値以上であれば信号「1」を出力し、閾値未満であれば信号「0」を出力する。なお、不応期の実装は、不応期をカウントするカウンタを設け、発火から不応期の間は発火しないようにして、発火とともにカウンタをリセットすることにより実現可能である。
y MSO (t) = (y -J1 (t), ..., y 01 (t), ..., y J1 (t),
y -J2 (t), ..., y 02 (t), ..., y J2 (t),
…,
y -JN (t), ..., y 0N (t), ..., y JN (t))
The time difference detection unit 8 can be configured with a digital circuit, for example, as shown in FIG. FIG. 9A is a diagram for explaining the operation of the first half of one clock, and FIG. 9B is a diagram for explaining the operation of the second half. This example is also described in Chapter 5 of Non-Patent Document 3 and will not be described in detail. However, each MSO neuron 20 of the time difference detection unit 8 includes AND circuits 24L and 24R, adders 25 and 26, and a register 27. And a comparator 28 and an attenuation generator 29. As shown in FIG. 9A, the attenuation generation unit 29 generates an attenuation amount of the internal potential by inputting a bit shift and a complement expression to the internal potential (internal potential), and inputs it to the adder 26. The adder 26 adds the internal potential and its attenuation, and updates the internal potential in the register 27. Then, as shown in FIG. 9B, the AND circuits 24L and 24R input the coupling weight to the adder 25 only when the input signal is “1”, and the adder 25 inputs the input coupling weight and the register 27. Is added to the internal potential held in the register 27 to update the internal potential in the register 27. The comparator 28 compares the threshold value held by itself with the internal potential held by the register 27, and outputs a signal “1” if the internal potential is equal to or greater than the threshold value. Signal “0” is output. Note that the implementation of the refractory period can be realized by providing a counter that counts the refractory period and not firing during the period from ignition to resetting the counter along with the ignition.

音圧差検出部9は、図10に示すようなPNモデルからなる音圧差検出モデルから構成されている。音圧差検出モデルは、上記非特許文献1等に記載されているものと同様であるので詳説しないが、図11に示すように音圧差検出ニューロン(以下、「LSOニューロン」ともいう。)40を複数(但し、奇数個)並べたLSOニューロン列を、周波数チャンネル毎に設けたものである。各LSOニューロン40は、左のパルス信号が入力される左入力端子41と、右のパルス信号が入力される右入力端子42と、出力端子43とを備えている。   The sound pressure difference detection unit 9 is composed of a sound pressure difference detection model composed of a PN model as shown in FIG. The sound pressure difference detection model is the same as that described in Non-Patent Document 1 and the like and will not be described in detail. However, as shown in FIG. 11, a sound pressure difference detection neuron (hereinafter also referred to as “LSO neuron”) 40 is used. A plurality (however, odd number) of LSO neuron rows arranged are provided for each frequency channel. Each LSO neuron 40 includes a left input terminal 41 to which a left pulse signal is input, a right input terminal 42 to which a right pulse signal is input, and an output terminal 43.

図11に示すように、時刻tに、各LSOニューロン列の各LSOニューロン40の左入力端子41、右入力端子42には、それぞれ、入力信号処理部6から出力された対応する周波数チャンネルi(i=1〜N)の左のパルス信号xleft i(t)、右のパルス信号xright i(t)が入力される。なお、kは各LSOニューロン列内で各ニューロン40に付された番号であり、−K≦k≦Kである。 As shown in FIG. 11, at time t, the left input terminal 41 and the right input terminal 42 of each LSO neuron 40 in each LSO neuron string are respectively connected to the corresponding frequency channel i ( The left pulse signal x left i (t) of i = 1 to N) and the right pulse signal x right i (t) are input. Note that k is a number assigned to each neuron 40 in each LSO neuron array, and −K ≦ k ≦ K.

すると、各LSOニューロン40は、下記[数2]に従って内部電位ILSO ki(t)を演算し、この内部電位が所定の閾値を超えた場合にはyki(t)=1を出力し、閾値以下である場合にはyki(t)=0を出力する。なお、閾値は各LSOニューロン40で共通の値とする。下記[数2]において、pleft ki(t)は左の入力信号に対する局所膜電位、pright ki(t)は右の入力信号に対する局所膜電位であり、wleft kiは左の入力信号に対する結合重み、wright kiは右の入力信号に対する結合重みである。また、τは減衰時定数、b、α、βは定数である。 Then, each LSO neuron 40 calculates an internal potential I LSO ki (t) according to the following [Equation 2], and outputs y ki (t) = 1 when the internal potential exceeds a predetermined threshold value. If it is below the threshold, y ki (t) = 0 is output. The threshold value is a value common to each LSO neuron 40. In [Equation 2] below, p left ki (t) is the local membrane potential for the left input signal, p right ki (t) is the local membrane potential for the right input signal, and w left ki is for the left input signal. The coupling weight, w right ki, is the coupling weight for the right input signal. Further, τ is an attenuation time constant, and b, α, and β are constants.

上記[数2]に示すように、音圧差検出モデルは、左右の入力信号に対する結合重みが徐々に変化しており、左右の音圧が略同等のときは中央部(番号−bからbまでのニューロン。但し、番号0のニューロンは発火しない。)のニューロン40しか発火せず、左側の音圧が右側の音圧よりも大きければ中央部から左側のニューロン40まで、右側の音圧が左側の音圧よりも大きければ中央部から右側のニューロン40まで発火し、左右の音圧差が大きいほど中央部から離れたニューロンまで発火するように構成されている。なお、結合重みを適当に定めることにより、上記のように各周波数チャンネルにおける中心のLSOニューロン40は全く発火しないようにしてもよく、また、中心のLSOニューロン40の両隣の幾つかのニューロン40は常に発火するようにしてもよい。 As shown in the above [Equation 2], in the sound pressure difference detection model, the coupling weight with respect to the left and right input signals gradually changes, and when the left and right sound pressures are substantially equal, the central portion (from number -b to b) (However, the neuron number 0 does not fire.) If only the neuron 40 is fired and the left sound pressure is greater than the right sound pressure, the right sound pressure is from the center to the left neuron 40. If the sound pressure is larger than the sound pressure, the neuron 40 is fired from the center to the right neuron 40, and as the sound pressure difference between the left and right is larger, the neuron far from the center is fired. It should be noted that by appropriately determining the connection weight, the central LSO neuron 40 in each frequency channel may not fire at all as described above, and some neurons 40 on both sides of the central LSO neuron 40 You may make it always ignite.

上述したように各LSOニューロン列内の各LSOニューロン40に−KからKまでの番号を付すと、時刻tに、周波数チャンネルiに対応するLSOニューロン列からは出力パルス列(y-Ki(t),…,y0i(t),…,yKi(t))が出力され、音圧差検出モデルからは全体として次のようなベクトルyLSO(t)が音圧差情報として出力される。 As described above, when each LSO neuron 40 in each LSO neuron train is assigned a number from −K to K, the output pulse train (y −Ki (t)) is output from the LSO neuron train corresponding to the frequency channel i at time t. ,..., Y 0i (t),..., Y Ki (t)) are output, and the following vector y LSO (t) is output as sound pressure difference information as a whole from the sound pressure difference detection model.

LSO(t)=(y-K1(t),…,y01(t),…,yK1(t),
-K2(t),…,y02(t),…,yK2(t),
…,
-KN(t),…,y0N(t),…,yKN(t))
各LSOニューロン40は、図9のMSOニューロン20と同様の構成において結合重みや閾値等を適当に変更することにより、ディジタル回路で実現可能である。
y LSO (t) = (y −K1 (t),..., y 01 (t),..., y K1 (t),
y -K2 (t), ..., y 02 (t), ..., y K2 (t),
…,
y -KN (t), ..., y 0N (t), ..., y KN (t))
Each LSO neuron 40 can be realized by a digital circuit by appropriately changing the connection weight, threshold value, and the like in the same configuration as the MSO neuron 20 of FIG.

左右方向検出部10、前後方向検出部11、及び、8方向検出部12は、いずれも、上記非特許文献2に記載された競合学習ニューラルネットワーク(以下、「CONP」という。)から構成されている。CONPは、各競合学習ニューロンの閾値を調整することにより競合学習ニューロンが毎回1個だけ発火するように構成されたパルスニューラルネットワークであり、入力ベクトルの量子化を目的とするものである。CONPの構成を図12に示す。CONPは、競合学習ニューロン群50と制御ニューロン群60とから構成され、競合学習ニューロン群50は複数の競合学習ニューロン(以下、「CLニューロン」ともいう。)51から構成され、制御ニューロン群はCLニューロン51が1つも発火していないときに発火する無発火検出ニューロン(以下、「NFDニューロン」ともいう。)61とCLニューロン51が複数発火しているときに発火する複数発火検出ニューロン(以下、「MFDニューロン」ともいう。)62とから構成されている。   The left-right direction detection unit 10, the front-rear direction detection unit 11, and the 8-direction detection unit 12 are all configured by a competitive learning neural network (hereinafter referred to as “CONP”) described in Non-Patent Document 2. Yes. The CONP is a pulse neural network configured so that only one competitive learning neuron fires each time by adjusting the threshold value of each competitive learning neuron, and is intended for quantization of an input vector. The configuration of CONP is shown in FIG. The CONP is composed of a competitive learning neuron group 50 and a control neuron group 60. The competitive learning neuron group 50 is composed of a plurality of competitive learning neurons (hereinafter also referred to as “CL neurons”) 51, and the control neuron group is CL. Multiple firing detection neurons (hereinafter, referred to as “NFD neurons”) 61 and multiple firing detection neurons (hereinafter referred to as “NFD neurons”) 61 that fire when no neurons 51 are fired. It is also referred to as “MFD neuron”) 62.

NFDニューロン61とMFDニューロン62は、それらの発火状況に応じて各CLニューロン51の閾値を一律に変化させる(実際には、各CLニューロン51の内部電位を一律に変化させる)ことで、CLニューロン群50内でCLニューロン51が1個だけ発火する状況を保持するためのPNモデルである。NFDニューロン61とMFDニューロン62は、CLニューロン群50内のCLニューロン51の数に応じた入力端子と、出力端子とを備え、各CLニューロン51から出力されたパルス信号を各入力端子で受け取って、NFDニューロン61は、全てのCLニューロン51からの信号が「0」の場合にのみ出力端子から「1」を出力し、MFDニューロン62は、複数のCLニューロン51から信号「1」を受け取った場合にのみ出力端子から「1」を出力する。   The NFD neuron 61 and the MFD neuron 62 change the threshold value of each CL neuron 51 uniformly according to their firing status (actually, the internal potential of each CL neuron 51 is changed uniformly), so that the CL neuron This is a PN model for maintaining a situation where only one CL neuron 51 is fired in the group 50. Each of the NFD neuron 61 and the MFD neuron 62 includes an input terminal corresponding to the number of CL neurons 51 in the CL neuron group 50 and an output terminal. The pulse signal output from each CL neuron 51 is received by each input terminal. The NFD neuron 61 outputs “1” from the output terminal only when the signals from all the CL neurons 51 are “0”, and the MFD neuron 62 receives the signal “1” from the plurality of CL neurons 51. Only in this case, “1” is output from the output terminal.

各CLニューロン51は、図13に示すように、入力パルスx1(t),x2(t),…,xi(t),…,xn(t)がそれぞれ入力される入力端子551、552、…、55i、…、55nと、NFDニューロン61、MFDニューロン62から出力されたパルス信号ynfd(t)、ymfd(t)がそれぞれ入力される入力端子56、57と、出力端子58とを備えている。各入力端子55i(i=1〜n)は2つに分岐して、一方は可変の結合重みwhiを有するシナプス部53iに、他方は固定の結合重み「1」を有するシナプス部54iに接続されている。なお、hは、CLニューロン群50内で各CLニューロン51に付された番号であり、h=1〜Mとする。 Each CL neuron 51, as shown in FIG. 13, the input pulse x 1 (t), x 2 (t), ..., x i (t), ..., the input terminal x n (t) are respectively input 551 , 552, ..., 55i, ..., 55n, and input terminals 56 and 57 to which pulse signals y nfd (t) and y mfd (t) output from the NFD neuron 61 and the MFD neuron 62 are input, respectively, and output terminals 58. Each input terminal 55i (i = 1 to n) branches into two, one connected to the synapse unit 53i having a variable coupling weight w hi and the other connected to the synapse unit 54i having a fixed coupling weight “1”. Has been. Note that h is a number assigned to each CL neuron 51 in the CL neuron group 50, and h = 1 to M.

CONPの動作について、図14−1、14−2に基づいて説明する。CLニューロン群50内の各CLニューロン51には、単位時間毎に、n個の入力パルスからなる入力ベクトルx(t)=(x1(t),x2(t),…,xi(t),…,xn(t))(t:時刻)が入力される(S101)。すると、NFDニューロン61、MFDニューロン62は、それぞれ、保持しておいた時刻(t−1)における各CLニューロン51からの出力yh(t−1)に基づいて、時刻tにおける出力値ynfd(t)、ymfd(t)を演算して、各CLニューロン51に出力する(S102、S103)。なお、NFDニューロン61、MFDニューロン62において、それぞれ、時刻(t−1)に各CLニューロン51からの出力yh(t−1)を用いて出力値ynfd(t)、ymfd(t)を演算して保持しておき、時刻tになったらynfd(t)、ymfd(t)を各CLニューロン51に出力するようにしてもよい。 The operation of CONP will be described based on FIGS. 14-1 and 14-2. Each CL neuron 51 in the CL neuron group 50 has an input vector x (t) = (x 1 (t), x 2 (t) ,. t),..., x n (t)) (t: time) are input (S101). Then, the NFD neuron 61 and the MFD neuron 62 respectively output the output value y nfd at the time t based on the output y h (t−1) from each CL neuron 51 at the held time (t−1). (T), y mfd (t) are calculated and output to each CL neuron 51 (S102, S103). Note that, in the NFD neuron 61 and the MFD neuron 62, output values y nfd (t) and y mfd (t) using the output y h (t−1) from each CL neuron 51 at time (t−1), respectively. May be calculated and held, and y nfd (t) and y mfd (t) may be output to each CL neuron 51 at time t.

次に、各CLニューロン51は、それぞれ、内部電位Ih(t)(h=1〜M)を演算し(S104)(下記[数6]参照)、内部電位Ih(t)が閾値THを超え、かつ、前回の発火時から不応期を経過している場合にはyh(t)=1を出力し、それ以外の場合にはyh(t)=0を出力する(S105)。 Next, each CL neuron 51 calculates an internal potential I h (t) (h = 1 to M) (S104) (see [Expression 6] below), and the internal potential I h (t) is a threshold TH. Is exceeded and y h (t) = 1 is output if the refractory period has elapsed since the previous ignition, and y h (t) = 0 is output otherwise (S105) .

そして、学習時には、「1」を出力したCLニューロン51について、シナプス部54iにおける局所膜電位pcwiを用いて結合重みwiを更新するとともに(S106)、そのCLニューロン51の周辺のCLニューロン51についても同様に結合重みを更新する(S107)。周辺のCLニューロン51(すなわち、結合重みの更新範囲)の決定方法としては、例えば、最初は全部のCLニューロン51を更新範囲とし、線形的に範囲を縮小して、最後は勝者ニューロンの結合重みだけを更新するような、次第に縮小する方法がある。そして、結合重みを更新したCLニューロン51について結合重みのノルム(参照ベクトルのノルム)を1に正規化する(S108)。すなわち、このCONPにおいては、勝者ニューロンのみならずその周辺のニューロンも学習を行うことにより、自己組織化マップ(SOM)のアルゴリズムを実現している。 At the time of learning, for the CL neuron 51 that has output “1”, the connection weight w i is updated using the local membrane potential pcw i in the synapse 54 i (S 106), and the CL neurons 51 around the CL neuron 51 are also updated. Similarly, the connection weight is updated (S107). As a method of determining the peripheral CL neurons 51 (that is, the connection weight update range), for example, all CL neurons 51 are initially set as the update range, the range is linearly reduced, and finally the connection weights of the winner neurons are determined. There is a way to gradually reduce, such as updating only. Then, the norm of the connection weight (norm of the reference vector) is normalized to 1 for the CL neuron 51 whose connection weight has been updated (S108). That is, in this CONP, a self-organizing map (SOM) algorithm is realized by learning not only the winner neuron but also the neighboring neurons.

一方、学習時でない場合(認識時)は、結合重みの更新は行わない。そして、結合重みの更新のための係数αを定数γ(0≦γ)を乗じることにより更新し(S109)、次の入力ベクトルについてステップS101〜108の処理を行う。   On the other hand, when it is not at the time of learning (at the time of recognition), the connection weight is not updated. Then, the coefficient α for updating the connection weight is updated by multiplying by a constant γ (0 ≦ γ) (S109), and the processing of steps S101 to S108 is performed for the next input vector.

ここで、CONPにおける内部電位Ih(t)の演算方法について説明する。まず、引数として、時刻t、減衰時定数τ、結合重みw、時刻tにおける入力信号x(t)の4つを持つ関数Fを導入し、下記[数3]のように定義する。なお、△t=1/Fs(Fs:サンプリング周波数)とする。 Here, a method of calculating the internal potential I h (t) in CONP will be described. First, as an argument, a function F having four parameters of time t, decay time constant τ, coupling weight w, and input signal x (t) at time t is introduced and defined as [Equation 3] below. Note that Δt = 1 / Fs (Fs: sampling frequency).

すると、時刻tにおけるPNモデルの内部電位I(t)は、局所膜電位pi(t)(i=1〜n)の総和として、下記[数4]のように記述できる。τはpi(t)の減衰時定数である。 Then, the internal potential I (t) of the PN model at time t can be described as the following [Equation 4] as the sum of the local membrane potentials p i (t) (i = 1 to n). τ is the decay time constant of p i (t).

PNモデルの不応期をRP、時刻tにおける前回発火からの経過時間をET(t)とし、ET(0)>RPとすると、PNモデルの出力値y(t)は、以下のアルゴリズムにより計算される。 If the refractory period of the PN model is RP, the elapsed time from the previous firing at time t is ET (t), and ET (0)> RP, the output value y (t) of the PN model is calculated by the following algorithm: The

if I(t)≧TH and ET(t)>RP
then y(t)=1,ET(t)=0
else y(t)=0,ET(t)=ET(t−△t)+△t
パラメータτ、w1、w2、…、wn、THは、各PNモデルにより可変の値であり、この組合せにより各PNモデルの動作は決定される。
if I (t) ≧ TH and ET (t)> RP
then y (t) = 1, ET (t) = 0
else y (t) = 0, ET (t) = ET (t−Δt) + Δt
Parameters τ, w 1 , w 2 ,..., W n , TH are variable values depending on each PN model, and the operation of each PN model is determined by this combination.

ここで、時刻tにおけるNFDニューロン61、MFDニューロン62の出力をそれぞれynfd(t)、ymfd(t)、各CLニューロン51のNFDニューロン61、MFDニューロン62に対する結合重みをそれぞれwfd、−wfd(但し、wfd>0)とすると、時刻tにおける番号hのCLニューロン51の内部電位Ih(t)は前述の関数Fを用いて下記[数5]のように記述できる。CONPでは、pnfd(t)、pmfd(t)を閾値の動的変化量として扱う(但し、閾値THを変化させる代りに、閾値THと比較する内部電位Ih(t)をpnfd(t)、pmfd(t)により調整する)ことでCLニューロン51が1個だけ発火する状態を保持する。このため、減衰時定数τfdは時定数τに対して充分大きいものとする。 Here, the outputs of the NFD neuron 61 and the MFD neuron 62 at time t are y nfd (t) and y mfd (t), respectively, and the connection weights of the CL neurons 51 to the NFD neuron 61 and the MFD neuron 62 are w fd and − Assuming w fd (where w fd > 0), the internal potential I h (t) of the CL neuron 51 of number h at time t can be described using the function F as shown in [Formula 5] below. In CONP, p nfd (t) and p mfd (t) are treated as dynamic variations of the threshold (however, instead of changing the threshold TH, the internal potential I h (t) to be compared with the threshold TH is changed to p nfd ( t) and p mfd (t) to maintain the state in which only one CL neuron 51 is fired. For this reason, the decay time constant τ fd is sufficiently large with respect to the time constant τ.

ところで、入力パルス列によって発生する内部電位の総量が大きく変動する場合、この変動量を吸収するために閾値の変化が生じることになり、閾値の変化が入力ベクトルの方向変化に追従できない場合がある。そこで、CONPでは内部電位に対して、結合重みを1に固定したシナプス部54i(i=1〜n)における局所膜電位pcwi(t)の総和を一定の比率βpcw(但し、0≦βpcw≦1)であらかじめ差引くことで、入力信号のノルム変動に対する内部電位の変化を抑制している。これにより上記[数5]のIh(t)は下記[数6]のように修正され、各CLニューロン51は[数6]に従って内部電位Ih(t)を演算する。なお、pcwi(t)=F(t,τ,1,xi(t))である。 By the way, when the total amount of the internal potential generated by the input pulse train fluctuates greatly, a change in the threshold value occurs to absorb this fluctuation amount, and the change in the threshold value may not follow the change in the direction of the input vector. Therefore, in the CONP, the total sum of local membrane potentials pcw i (t) in the synapse portions i (i = 1 to n) with the coupling weight fixed to 1 is set to a constant ratio β pcw (where 0 ≦ β By subtracting in advance with pcw ≦ 1), the change in the internal potential with respect to the norm fluctuation of the input signal is suppressed. As a result, I h (t) in the above [Equation 5] is corrected as shown in the following [Equation 6], and each CL neuron 51 calculates the internal potential I h (t) according to [Equation 6]. Note that pcw i (t) = F (t, τ, 1, x i (t)).

CONPも簡単なディジタル回路によりハードウェア化可能であり、その例を図15に示す。この例では、CONPは、それぞれCLニューロン51に相当するM個のCLニューロン部51Hと、NFDニューロン61に相当する1個のNFDニューロン部61Hと、MFDニューロン62に相当する1個のMFDニューロン部62Hとを備え、さらに、閾値変化量生成部63、64と内部電位抑制量生成部65とを1個ずつ備えている。 CONP can also be implemented by hardware using a simple digital circuit, and an example is shown in FIG. In this example, CONP includes M CL neuron units 51H corresponding to CL neurons 51, one NFD neuron unit 61H corresponding to NFD neuron 61, and one MFD neuron unit corresponding to MFD neuron 62, respectively. 62H, and further includes one threshold change amount generators 63 and 64 and one internal potential suppression amount generator 65.

各CLニューロン部51Hは、CLニューロン51の入力端子511、…、51nに相当するn個の入力端子と、それらの入力端子から入力されたn個の入力パルスx1(t),x2(t),…,xn(t)に対してそれぞれ重みを乗じるn個のAND回路71と、各AND回路71からの出力を内部電位に加算する加算器72と、ビットシフトと補数表現とにより内部電位を減衰して加算器72に出力する減衰生成部73と、加算器72から出力された内部電位と閾値とを比較する比較器74とを備え、比較器74は、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合にはyh(t)=1、それ以外の場合にはyh(t)=0を出力する。なお、比較器74には、後述するように、動的な閾値変化量としてpnfd(t)、pmfd(t)が、内部電位の抑制量としてSpcw(t)が入力され、比較器74は、これらの値で上記[数6]のように内部電位を調整してから閾値と比較する。 Each CL neuron unit 51H includes n input terminals corresponding to the input terminals 511,..., 51n of the CL neuron 51 and n input pulses x 1 (t), x 2 ( t),..., x n (t), each of which is multiplied by n AND circuits 71, an adder 72 for adding the output from each AND circuit 71 to the internal potential, and bit shift and complement expression. An attenuation generation unit 73 that attenuates the internal potential and outputs the same to the adder 72 and a comparator 74 that compares the internal potential output from the adder 72 with a threshold value are provided. If the refractory period has passed since the last firing, y h (t) = 1 is output, and y h (t) = 0 is output otherwise. As will be described later, the comparator 74 receives p nfd (t) and p mfd (t) as dynamic threshold change amounts and S pcw (t) as a suppression amount of the internal potential. In 74, after adjusting the internal potential with these values as in [Formula 6], it is compared with the threshold value.

NFDニューロン部61Hは、M個のCLニューロン部51Hの出力端子にそれぞれ接続されたM個の入力端子と、それらの入力端子から入力されたM個の入力パルスy1(t),y2(t),…,yM(t)に対してそれぞれ重みを乗じるM個のAND回路76と、各AND回路76からの出力を内部電位に加算する加算器77と、ビットシフトと補数表現とにより内部電位を減衰して加算器77に出力する減衰生成部78と、加算器77から出力された内部電位と閾値とを比較して、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合には1、それ以外の場合には0を出力する比較器79とを備え、M個の入力パルスが全て0のとき発火するように構成されている。 The NFD neuron unit 61H includes M input terminals respectively connected to the output terminals of the M CL neuron units 51H, and M input pulses y 1 (t), y 2 ( t),..., y M (t) are multiplied by M AND circuits 76, an adder 77 for adding the output from each AND circuit 76 to the internal potential, and bit shift and complement expression. The attenuation generation unit 78 that attenuates the internal potential and outputs it to the adder 77 is compared with the internal potential output from the adder 77 and the threshold value, and the internal potential exceeds the threshold value and has not been detected since the previous ignition. The comparator 79 outputs 1 when the deadline has passed and 0 otherwise, and is configured to ignite when all the M input pulses are 0.

MFDニューロン部62Hは、NFDニューロン部61Hと同様の構成であるが、重みや閾値を変更することにより、M個の入力パルスのうち複数が1のとき発火するように構成されている。   The MFD neuron unit 62H has the same configuration as that of the NFD neuron unit 61H, but is configured to fire when a plurality of M input pulses are 1 by changing weights and thresholds.

閾値変化量生成部63、64は、それぞれ各CLニューロン部51HにおけるNFDニューロン部61Hからの出力に対する局所膜電位pnfd(t)、pmfd(t)を生成する部分であり、本来は各CLニューロン部51Hが共通に備える部分であるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。 The threshold value change amount generation units 63 and 64 are portions that generate local membrane potentials p nfd (t) and p mfd (t) for the output from the NFD neuron unit 61H in each CL neuron unit 51H. Although the neuron unit 51H is provided in common, the weight and the decay time constant are not changed by the CL neuron unit 51H. Therefore, the neuron unit 51H is extracted from each CL neuron unit 51H to be one unit as a whole.

閾値変化量生成部63は、NFDニューロン部61Hからの出力に対して重みwfdを乗じるAND回路81と、AND回路81からの出力を局所膜電位に加算する加算器82と、ビットシフトと補数表現とにより局所膜電位を減衰して加算器82に出力する減衰生成部83とを備え、閾値の動的変化量として、加算器82から局所膜電位pnfd(t)を各CLニューロン部51Hの比較器74に出力する。 The threshold value change amount generation unit 63 includes an AND circuit 81 that multiplies the output from the NFD neuron unit 61H by a weight w fd , an adder 82 that adds the output from the AND circuit 81 to the local membrane potential, bit shift and complement An attenuation generation unit 83 that attenuates the local membrane potential according to the expression and outputs the attenuated local membrane potential to the adder 82. The CL membrane unit 51H receives the local membrane potential p nfd (t) from the adder 82 as the dynamic change amount of the threshold. Output to the comparator 74.

閾値変化量生成部64は、閾値変化量生成部63と同様の構成を有し、各CLニューロン部51HにおけるMFDニューロン部62Hからの出力に対する局所膜電位pmfd(t)を生成して、閾値の動的変化量として、各CLニューロン部51Hの比較器74に出力する。 The threshold variation generator 64 has the same configuration as the threshold variation generator 63, generates a local membrane potential p mfd (t) for the output from the MFD neuron 62H in each CL neuron 51H, Is output to the comparator 74 of each CL neuron unit 51H.

内部電位抑制量生成部65は、上述した入力信号のノルム変動に対する内部電位の変化の抑制量Spcw(t)を生成する部分であり、本来は、各CLニューロン部51Hにおいて、固定重み1のシナプス部54iにおける局所膜電位pcwi(t)の総和に一定の比率βpcwを乗じて生成するものであるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。内部電位抑制量生成部65は、n個の入力パルスに対してそれぞれ固定の重みを乗じるAND回路86と、AND回路86からの出力を内部電位に加算する加算器87と、ビットシフトと補数表現とにより内部電位を減衰して加算器87に出力する減衰生成部88とを備え、内部電位を抑制量Spcw(t)として、加算器87から各CLニューロン部51Hの比較器74に出力する。なお、各AND回路86における重みを上記比率βpcwとすることで、比率βpcwの乗算を実現している。 The internal potential suppression amount generation unit 65 is a portion that generates the suppression amount S pcw (t) of the change in internal potential with respect to the norm fluctuation of the input signal described above. Originally, each CL neuron unit 51H has a fixed weight of 1 The total sum of local membrane potentials pcw i (t) in the synapse part 54i is generated by multiplying by a constant ratio β pcw , but the weight and the decay time constant are not changed by the CL neuron part 51H, so each CL neuron part 51H It is taken out from the whole to make one. The internal potential suppression amount generation unit 65 includes an AND circuit 86 that multiplies each of n input pulses by a fixed weight, an adder 87 that adds the output from the AND circuit 86 to the internal potential, bit shift, and complement expression. And an attenuation generation unit 88 that attenuates the internal potential and outputs it to the adder 87, and outputs the internal potential as a suppression amount S pcw (t) from the adder 87 to the comparator 74 of each CL neuron unit 51H. . Note that multiplication by the ratio β pcw is realized by setting the weight in each AND circuit 86 to the ratio β pcw .

なお、図15に示すCONPのハードウェア構成例では、学習機構(各CLニューロン部51Hにおける重みの更新機構)は搭載されていない。これは、学習は後述するようなソフトウェアによるシミュレーションで行って、重みを決定しておき、その重みをハードウェア上に設定すればよいからである。勿論、学習機構のハードウェア化も可能であるが、回路構成の容易化や回路サイズの縮小のためには、学習をソフトウェア上で行って重みを決定する方がよい。   Note that the CONNP hardware configuration example shown in FIG. 15 does not include a learning mechanism (a weight update mechanism in each CL neuron unit 51H). This is because learning may be performed by software simulation as will be described later, weights are determined, and the weights are set on the hardware. Of course, the learning mechanism can be implemented in hardware, but in order to facilitate the circuit configuration and reduce the circuit size, it is better to perform learning on software and determine the weight.

左右方向検出部10は、図16に示すように、CLニューロン51を複数(ここでは16個)有するCONPから構成されている。16個のCLニューロン51は、番号1のものから番号16のものまで1列に並べられており、番号が近いものほど距離が近いとする。各CLニューロン51には、時間差検出部8から出力された時間差情報(ここではベクトルyMSO(t))が入力される。左右方向検出部10は、学習の結果、入力ベクトルyMSO(t)をその類似関係を保持したまま量子化可能となる。すなわち、左右方向検出部10は、認識時には、互いに類似度の高いベクトルが入力されたときは互いに近いCLニューロン51が発火し、互いに類似度の低いベクトルが入力されたときは互いに遠いCLニューロン51が発火することとなる。これにより、認識時には、左右方向検出部10からは、音源の左右方向における方向情報が、どのCLニューロン51が発火するかで示されることとなる。 As shown in FIG. 16, the left-right direction detection unit 10 includes a CONP having a plurality (16 in this case) of CL neurons 51. The 16 CL neurons 51 are arranged in a line from number 1 to number 16, and the closer the number, the closer the distance. Each CL neuron 51 receives time difference information (here, vector y MSO (t)) output from the time difference detection unit 8. As a result of learning, the left-right direction detection unit 10 can quantize the input vector y MSO (t) while maintaining the similarity relationship. That is, at the time of recognition, the left and right direction detection unit 10 fires CL neurons 51 that are close to each other when vectors having a high degree of similarity are input, and CL neurons 51 that are far from each other when vectors having a low degree of similarity are input. Will be ignited. Thereby, at the time of recognition, the direction information in the left-right direction of the sound source is indicated from the left-right direction detection unit 10 according to which CL neuron 51 fires.

前後方向検出部11も、図16に示すように、左右方向検出部10と同様に1列に並べられた16個のCLニューロン51を有するCONPから構成され、各CLニューロン51には、音圧差検出部9から出力された音圧差情報(ここではベクトルyLSO(t))が入力される。前後方向検出部11は、左右方向検出部10と同様に、学習の結果、入力ベクトルyLSO(t)をその類似関係を保持したまま量子化可能となり、認識時には、音源の前後方向における方向情報が、どのCLニューロン51が発火するかで示されることとなる。 As shown in FIG. 16, the front-rear direction detection unit 11 is also composed of a CONP having 16 CL neurons 51 arranged in a line, like the left-right direction detection unit 10, and each CL neuron 51 includes a sound pressure difference. The sound pressure difference information (here, vector y LSO (t)) output from the detector 9 is input. As in the case of the left / right direction detection unit 10, the front / rear direction detection unit 11 can quantize the input vector y LSO (t) while maintaining the similarity as a result of learning. Is indicated by which CL neuron 51 fires.

8方向検出部12は、図16に示すように、CLニューロン51を複数(ここでは、識別しようとする方向に応じて8個)有したCONPから構成されている。8個のCLニューロン51は、番号1のものから番号8のものまで1列に並べられており、番号が近いものほど距離が近いものとする。各CLニューロン51には、左右方向検出部10から出力された16個のパルスと、前後方向検出部11から出力された16個のパルスとからなる32個のパルスを要素とするベクトルが入力される。8方向検出部12は、学習の結果、入力ベクトルをその類似関係を保持したまま量子化可能となり、認識時には、8方向検出部12からは、周囲の8方向における音源の方向情報が、どのCLニューロン51が発火するかで示されることとなる。   As shown in FIG. 16, the eight-direction detection unit 12 includes a CONP having a plurality of CL neurons 51 (here, eight in accordance with the direction to be identified). The eight CL neurons 51 are arranged in a line from number 1 to number 8, and the closer the number, the closer the distance. Each CL neuron 51 is input with a vector whose elements are 32 pulses including 16 pulses output from the left-right direction detection unit 10 and 16 pulses output from the front-rear direction detection unit 11. The As a result of learning, the 8-direction detection unit 12 can quantize the input vector while maintaining the similarity, and at the time of recognition, the 8-direction detection unit 12 receives the direction information of the sound source in the surrounding 8 directions from which CL. This is indicated by whether the neuron 51 fires.

上述したようにCONPは簡単なディジタル回路で実現可能であることから、左右方向検出部10、前後方向検出部11、及び、8方向検出部12も簡単なディジタル回路で実現可能である。   Since the CONP can be realized with a simple digital circuit as described above, the left-right direction detection unit 10, the front-rear direction detection unit 11, and the 8-direction detection unit 12 can also be realized with a simple digital circuit.

以下に、音源定位装置1の本体部4をコンピュータ上にソフトウェアで実現し、シミュレーションを行った結果について説明する。実験は無響室で、スピーカである音源Sを前方指向性のマイクロホン2、3に対して図17に示すように配置して行った。なお、マイクロホン2、3間の間隔を30cm、図17(a)のように置いたときのマイクロホン2、3の中間点Cから音源Sまでの距離を100cm、図中の矢印方向を音源定位装置1にとっての前方とした。そして、音源Sのマイクロホン2、3に対する位置を、図17(a)〜(h)のように45°ずつ変化させた各位置において、コンピュータにより生成したホワイトノイズを音源Sから発し、マイクロホン2、3から集音した音を本体部4に入力した。実験パラメータを表1〜5に示す。   Below, the result of having performed the simulation by realizing the main body 4 of the sound source localization apparatus 1 on a computer with software will be described. The experiment was performed in an anechoic chamber with the sound source S as a speaker arranged as shown in FIG. It should be noted that the distance between the microphones 2 and 3 is 30 cm, the distance from the midpoint C of the microphones 2 and 3 to the sound source S when placed as shown in FIG. 17A is 100 cm, and the direction of the arrow in FIG. It was the front for 1. Then, the white noise generated by the computer is emitted from the sound source S at each position where the position of the sound source S with respect to the microphones 2 and 3 is changed by 45 ° as shown in FIGS. The sound collected from 3 was input to the main unit 4. Experimental parameters are shown in Tables 1-5.

また、音源を0°〜315°の各位置においたときの時間差検出部8の出力結果を図18−1〜18−8に、音圧差検出部9の出力結果を図19−1〜19−8に示す。これらの出力結果において各マスの濃淡はニューロンの発火頻度を表す。 Further, the output results of the time difference detection unit 8 when the sound source is placed at each position of 0 ° to 315 ° are shown in FIGS. 18-1 to 18-8, and the output results of the sound pressure difference detection unit 9 are shown in FIGS. It is shown in FIG. In these output results, the shade of each square represents the firing frequency of neurons.

なお、左右方向検出部10及び前後方向検出部11における学習は、図14−2で示したようなSOMに基づく教師なし学習を行い、8方向検出部12における学習は、一般的な教師あり学習であるLVQに基づく学習を行った。すなわち、8方向検出部12においては、番号1〜8のCLニューロン51をそれぞれ0°〜315°の方向を示すCLニューロン51と決め、データを入力した場合に発火したCLニューロン51が正しければ(例えば、0°のデータを入力した場合に発火したCLニューロン51が番号1であれば)、そのCLニューロン51の参照ベクトルを入力ベクトルに近づけ、間違っていればそのCLニューロン51の参照ベクトルを入力ベクトルから遠ざける学習を行った。学習は勝者ニューロンのみが行うものとした。   The learning in the left-right direction detection unit 10 and the front-rear direction detection unit 11 performs unsupervised learning based on the SOM as shown in FIG. 14-2, and the learning in the 8-direction detection unit 12 is general supervised learning. Learning based on LVQ was performed. That is, in the 8-direction detection unit 12, the CL neurons 51 of numbers 1 to 8 are determined as the CL neurons 51 indicating directions of 0 ° to 315 °, respectively, and if the CL neurons 51 fired when data is input are correct ( For example, if the CL neuron 51 fired when data of 0 ° is input is number 1), the reference vector of the CL neuron 51 is brought close to the input vector, and if it is incorrect, the reference vector of the CL neuron 51 is input. We learned to keep away from the vector. Learning was performed only by the winner neuron.

学習後、図17(a)〜(h)の各位置において音源Sからホワイトノイズを発し、音源定位装置1に認識を行わせたときの左右方向検出部10、前後方向検出部11、8方向検出部12からの出力結果を、それぞれ、表6、7、8に示す。   After learning, white noise is emitted from the sound source S at each position in FIGS. 17A to 17H, and the left / right direction detection unit 10 and the front / rear direction detection units 11 and 8 when the sound source localization apparatus 1 performs recognition are used. The output results from the detection unit 12 are shown in Tables 6, 7, and 8, respectively.

表6〜8は、各方向から入力信号(ホワイトノイズ)をある時間発し続けた場合の各CLニューロン51の発火率を示している。なお、表6、7によれば、左右方向検出部10と前後方向検出部11のいずれか一方の出力のみで全周方向における識別が可能に見えるが、これは人工的に生成されたホワイトノイズを入力音に用いたからであって、実際の音ではいずれか一方の出力のみでは識別は困難である。 Tables 6 to 8 show the firing rate of each CL neuron 51 when an input signal (white noise) is continuously emitted from each direction for a certain period of time. According to Tables 6 and 7, although it seems that identification in the entire circumferential direction is possible only with the output of either the left-right direction detection unit 10 or the front-rear direction detection unit 11, this is an artificially generated white noise Is used as an input sound, and in an actual sound, it is difficult to identify only one of the outputs.

表8においてNo.1〜8は8方向検出部12のCLニューロン51の番号である。例えば0°の方向(図17(a)に示す位置)から入力信号を発した場合、CLニューロン51の発火率はNo.1が99.4%、No.2〜7が0.0%、No.8が0.6%である。同様に、45°の方向(図17(b)に示す位置)の場合には、No.2の発火率が86.1%、90°の方向(図17(c)に示す位置)の場合には、No.3の発火率が92.6%である等、8方向検出部12では、入力信号の方向に応じたCLニューロン51の発火頻度が最高となっていることが分かり、周囲の8方向におけるいずれの方向から入力信号が来たかが、CLニューロン51の発火により識別できることが分かる。   In Table 8, Nos. 1 to 8 are the numbers of the CL neurons 51 of the eight-direction detection unit 12. For example, when an input signal is emitted from the direction of 0 ° (position shown in FIG. 17A), the firing rate of the CL neuron 51 is 99.4% for No. 1, 0.0% for No. 2 to 7, and No. 8 for No. 8. 0.6%. Similarly, in the case of 45 ° direction (position shown in FIG. 17B), the firing rate of No. 2 is 86.1%, and in the case of 90 ° direction (position shown in FIG. 17C). It can be seen that the firing rate of the CL neuron 51 corresponding to the direction of the input signal is the highest in the 8-direction detection unit 12 such that the firing rate of No. 3 is 92.6%. It can be seen from the firing of the CL neuron 51 whether the input signal has come from the direction of.

以上述べたように、音源定位装置1は、時間差検出部8が音の時間差の検出を行い、音圧差検出部9が音圧差の検出を行い、左右方向検出部10が時間差情報のベクトル量子化を行って左右方向における方向情報として出力し、前後方向検出部11が音圧差情報のベクトル量子化を行って前後方向における方向情報として出力し、8方向検出部12が左右方向及び前後方向における方向情報のベクトル量子化を行って周囲の8方向における方向情報として出力する。これらの検出はPNモデルで行われ、ベクトル量子化はPNモデルからなるCONPにより行われる。PNモデルは上述したように簡単なディジタル回路で実現可能であるため、時間差検出部8、音圧差検出部9、左右方向検出部10、前後方向検出部11、及び、8方向検出部12も簡単なディジタル回路で実現可能であり、FPGAへの搭載も容易である。したがって、音源定位装置1はハードウェア実装上有利である。そして、時間差検出部8等をディジタル回路で実現すれば、各PNモデルにおける演算はディジタル回路上で並列的に実行されることとなるため、実用的な演算速度を実現可能である。   As described above, in the sound source localization apparatus 1, the time difference detection unit 8 detects the time difference of the sound, the sound pressure difference detection unit 9 detects the sound pressure difference, and the left / right direction detection unit 10 performs vector quantization of the time difference information. Are output as direction information in the left-right direction, the front-rear direction detection unit 11 performs vector quantization of the sound pressure difference information and outputs it as direction information in the front-rear direction, and the 8-direction detection unit 12 is a direction in the left-right direction and the front-rear direction. Vector quantization of the information is performed and output as direction information in the surrounding eight directions. These detections are performed using a PN model, and vector quantization is performed using a CONP including a PN model. Since the PN model can be realized by a simple digital circuit as described above, the time difference detection unit 8, the sound pressure difference detection unit 9, the left / right direction detection unit 10, the front / rear direction detection unit 11, and the eight direction detection unit 12 are also simple. It can be realized with a simple digital circuit and can be easily mounted on an FPGA. Therefore, the sound source localization apparatus 1 is advantageous in terms of hardware implementation. If the time difference detection unit 8 or the like is realized by a digital circuit, the calculation in each PN model is executed in parallel on the digital circuit, so that a practical calculation speed can be realized.

なお、音源定位装置1では、8方向検出部12を設けて、左右方向検出部10及び前後方向検出部11からの出力を8方向検出部12に入力し、8方向検出部12から周囲の複数方向における音源の方向情報を出力するようにしたが、8方向検出部12を設けるか否かは任意である。例えば8方向検出部12を設けずに、左右方向検出部10から出力された方向情報に基づいて左右方向における方向を推定し、前後方向検出部11から出力された方向情報に基づいて前後方向における方向を推定して、それらの推定結果をそのまま表示装置5に出力して表示するようにしてもよい。但し、8方向検出部12のような周囲方向検出手段を設ければ、音源の方向識別が容易である。   In the sound source localization apparatus 1, an 8-direction detection unit 12 is provided, and outputs from the left-right direction detection unit 10 and the front-rear direction detection unit 11 are input to the 8-direction detection unit 12. Although the direction information of the sound source in the direction is output, whether or not the eight-direction detection unit 12 is provided is arbitrary. For example, without providing the 8-direction detection unit 12, the direction in the left-right direction is estimated based on the direction information output from the left-right direction detection unit 10, and in the front-rear direction based on the direction information output from the front-rear direction detection unit 11. The direction may be estimated, and those estimation results may be directly output to the display device 5 and displayed. However, if a surrounding direction detection unit such as the 8-direction detection unit 12 is provided, the direction of the sound source can be easily identified.

PNモデルの模式図である。It is a schematic diagram of a PN model. PNモデルをディジタル回路で構成した例である。This is an example in which the PN model is configured by a digital circuit. 従来の音源定位の方法を説明するための図である。It is a figure for demonstrating the method of the conventional sound source localization. 本発明の一実施形態に係る音源定位装置の平面図である。It is a top view of the sound source localization apparatus which concerns on one Embodiment of this invention. 同音源定位装置の構成を示すブロック図である。It is a block diagram which shows the structure of the sound source localization apparatus. 入力信号処理部の構成を示すブロック図である。It is a block diagram which shows the structure of an input signal processing part. 時間差検出モデルの模式図である。It is a schematic diagram of a time difference detection model. MSOニューロン列の構成を示す図である。It is a figure which shows the structure of a MSO neuron row | line | column. 時間差検出部をディジタル回路で構成した例であり、(a)は1クロックの前半の動作を、(b)は後半の動作を説明するための図である。It is the example which comprised the time difference detection part with the digital circuit, (a) is the figure for demonstrating operation | movement of the first half of 1 clock, (b) is operation | movement for the latter half. 音圧差検出モデルの模式図である。It is a schematic diagram of a sound pressure difference detection model. LSOニューロン列の構成を示す図である。It is a figure which shows the structure of a LSO neuron row | line | column. CONPの模式図である。It is a schematic diagram of CONP. CONPにおけるCLニューロンの模式図である。It is a schematic diagram of CL neuron in CONP. CONPの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of CONP. CONPの動作を示すフローチャートである。It is a flowchart which shows the operation | movement of CONP. CONPをディジタル回路で構成した例である。This is an example in which CONP is configured by a digital circuit. 時間差検出部、音圧差検出部、左右方向検出部、前後方向検出部、及び、8方向検出部の模式図である。It is a schematic diagram of a time difference detection part, a sound pressure difference detection part, a left-right direction detection part, a front-back direction detection part, and an 8-direction detection part. 実験における音源の位置を示す図である。It is a figure which shows the position of the sound source in experiment. 音源を0°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the 0 degree position. 音源を45°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the 45 degree position. 音源を90°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the 90-degree position. 音源を135°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the position of 135 degrees. 音源を180°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the position of 180 degrees. 音源を225°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the position of 225 degrees. 音源を270°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the position of 270 degrees. 音源を315°の位置に置いた場合の時間差検出部の出力を示す図である。It is a figure which shows the output of the time difference detection part at the time of putting a sound source in the position of 315 degrees. 音源を0°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the 0 degree position. 音源を45°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the 45-degree position. 音源を90°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the 90 degree position. 音源を135°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the position of 135 degrees. 音源を180°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the position of 180 degrees. 音源を225°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the position of 225 degrees. 音源を270°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the position of 270 degrees. 音源を315°の位置に置いた場合の音圧差検出部の出力を示す図である。It is a figure which shows the output of the sound pressure difference detection part at the time of putting a sound source in the position of 315 degrees.

符号の説明Explanation of symbols

1…音源定位装置
2、3…マイクロホン
8…時間差検出部
9…音圧差検出部
10…左右方向検出部
11…前後方向検出部
12…8方向検出部
DESCRIPTION OF SYMBOLS 1 ... Sound source localization apparatus 2, 3 ... Microphone 8 ... Time difference detection part 9 ... Sound pressure difference detection part 10 ... Left-right direction detection part 11 ... Front-back direction detection part 12 ... 8 direction detection part

Claims (2)

それぞれ前方指向性を有し、左右に間隔をおいて配設されるとともに、一方は前方に向けて他方は後方に向けて配置された2つのマイクロホンと、
前記各マイクロホンで集音された音の時間差情報を、パルスニューロンモデルにより検出する時間差検出手段と、
前記各マイクロホンで集音された音の音圧差情報を、パルスニューロンモデルにより検出する音圧差検出手段と、
前記時間差検出手段で検出された音の時間差情報に基づいて、左右方向における音源の方向情報をパルスニューロンモデルにより検出する左右方向検出手段と、
前記音圧差検出手段で検出された音の音圧差情報に基づいて、前後方向における音源の方向情報をパルスニューロンモデルにより検出する前後方向検出手段と、
を備えることを特徴とする音源定位装置。
Two microphones each having front directivity, spaced apart from each other on the left and right, one facing forward and the other facing backward;
Time difference detection means for detecting time difference information of the sound collected by each microphone using a pulse neuron model;
Sound pressure difference detection means for detecting the sound pressure difference information of the sound collected by each microphone using a pulse neuron model;
Based on the time difference information of the sound detected by the time difference detection means, left and right direction detection means for detecting the direction information of the sound source in the left and right direction by a pulse neuron model,
Based on the sound pressure difference information of the sound detected by the sound pressure difference detection means, the front-rear direction detection means for detecting the direction information of the sound source in the front-rear direction by a pulse neuron model;
A sound source localization apparatus comprising:
前記左右方向検出手段で検出された左右方向における音源の方向情報と、前記前後方向検出手段で検出された前後方向における音源の方向情報とに基づいて、周囲の複数方向における音源の方向情報をパルスニューロンモデルにより検出する周囲方向検出手段を備えることを特徴とする請求項1記載の音源定位装置。
Based on the direction information of the sound source in the left-right direction detected by the left-right direction detection unit and the direction information of the sound source in the front-rear direction detected by the front-rear direction detection unit, the direction information of the sound source in a plurality of surrounding directions is pulsed 2. The sound source localization apparatus according to claim 1, further comprising a surrounding direction detection means for detecting by a neuron model.
JP2007283742A 2007-10-31 2007-10-31 Sound source localization device Expired - Fee Related JP4958172B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007283742A JP4958172B2 (en) 2007-10-31 2007-10-31 Sound source localization device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007283742A JP4958172B2 (en) 2007-10-31 2007-10-31 Sound source localization device

Publications (2)

Publication Number Publication Date
JP2009109868A true JP2009109868A (en) 2009-05-21
JP4958172B2 JP4958172B2 (en) 2012-06-20

Family

ID=40778394

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007283742A Expired - Fee Related JP4958172B2 (en) 2007-10-31 2007-10-31 Sound source localization device

Country Status (1)

Country Link
JP (1) JP4958172B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN102819009A (en) * 2012-08-10 2012-12-12 汽车零部件研究及发展中心有限公司 Driver sound localization system and method for automobile
KR20130137916A (en) * 2012-06-08 2013-12-18 삼성전자주식회사 Neuromorphic signal processing device for locating sound source using a plurality of neuron circuits and method thereof
US8855331B2 (en) 2011-09-27 2014-10-07 Fuji Xerox Co., Ltd. Audio analysis apparatus
US9129611B2 (en) 2011-12-28 2015-09-08 Fuji Xerox Co., Ltd. Voice analyzer and voice analysis system
US11295755B2 (en) 2018-08-08 2022-04-05 Fujitsu Limited Storage medium, sound source direction estimation method, and sound source direction estimation device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61105198A (en) * 1984-10-29 1986-05-23 Kiyoaki Kakegawa Sound signal having directional information in vertical direction as tone characteristic of regenerative sound and its detection method
JPH10207490A (en) * 1997-01-22 1998-08-07 Toshiba Corp Signal processor
JP2000322074A (en) * 1999-05-13 2000-11-24 Denso Corp Voice input section determination device, aural data extraction device, speech recognition device, vehicle navigation device and input microphone
JP2002084590A (en) * 2000-09-06 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> Sound pickup device, sound pickup and sound source separating device and method for picking up sound, method for picking up sound and separating sound source and recording medium for recording sound pickup program, sound pickup and sound source separating program
JP2003140671A (en) * 2001-11-05 2003-05-16 Honda Motor Co Ltd Separating device for mixed sound
JP2007164027A (en) * 2005-12-16 2007-06-28 Nagoya Institute Of Technology Time difference detector

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61105198A (en) * 1984-10-29 1986-05-23 Kiyoaki Kakegawa Sound signal having directional information in vertical direction as tone characteristic of regenerative sound and its detection method
JPH10207490A (en) * 1997-01-22 1998-08-07 Toshiba Corp Signal processor
JP2000322074A (en) * 1999-05-13 2000-11-24 Denso Corp Voice input section determination device, aural data extraction device, speech recognition device, vehicle navigation device and input microphone
JP2002084590A (en) * 2000-09-06 2002-03-22 Nippon Telegr & Teleph Corp <Ntt> Sound pickup device, sound pickup and sound source separating device and method for picking up sound, method for picking up sound and separating sound source and recording medium for recording sound pickup program, sound pickup and sound source separating program
JP2003140671A (en) * 2001-11-05 2003-05-16 Honda Motor Co Ltd Separating device for mixed sound
JP2007164027A (en) * 2005-12-16 2007-06-28 Nagoya Institute Of Technology Time difference detector

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8855331B2 (en) 2011-09-27 2014-10-07 Fuji Xerox Co., Ltd. Audio analysis apparatus
US9129611B2 (en) 2011-12-28 2015-09-08 Fuji Xerox Co., Ltd. Voice analyzer and voice analysis system
KR20130137916A (en) * 2012-06-08 2013-12-18 삼성전자주식회사 Neuromorphic signal processing device for locating sound source using a plurality of neuron circuits and method thereof
KR101963440B1 (en) * 2012-06-08 2019-03-29 삼성전자주식회사 Neuromorphic signal processing device for locating sound source using a plurality of neuron circuits and method thereof
CN102819009A (en) * 2012-08-10 2012-12-12 汽车零部件研究及发展中心有限公司 Driver sound localization system and method for automobile
US11295755B2 (en) 2018-08-08 2022-04-05 Fujitsu Limited Storage medium, sound source direction estimation method, and sound source direction estimation device

Also Published As

Publication number Publication date
JP4958172B2 (en) 2012-06-20

Similar Documents

Publication Publication Date Title
Geirnaert et al. Electroencephalography-based auditory attention decoding: Toward neurosteered hearing devices
ES2373511T3 (en) VOCAL ACTIVITY DETECTOR IN MULTIPLE MICROPHONES.
Ma et al. Exploiting deep neural networks and head movements for robust binaural localization of multiple sources in reverberant environments
JP4982743B2 (en) Sound source localization / identification device
JP4958172B2 (en) Sound source localization device
Dietz et al. Auditory model based direction estimation of concurrent speakers from binaural signals
JP5279010B2 (en) Wearable sound recognition device
US20130294611A1 (en) Source separation by independent component analysis in conjuction with optimization of acoustic echo cancellation
Lu et al. Motion strategies for binaural localisation of speech sources in azimuth and distance by artificial listeners
US11696079B2 (en) Hearing device comprising a recurrent neural network and a method of processing an audio signal
CN110111807B (en) Microphone array-based indoor sound source following and enhancing method
CN103428609A (en) Apparatus and method for removing noise
Li et al. Primitive auditory memory is correlated with spatial unmasking that is based on direct-reflection integration
US6442510B1 (en) Method and apparatus for determining transit-time differentials for signal waveforms for real-time pattern recognition, localization and monitoring of optical and acoustic signals
Liu et al. Head‐related transfer function–reserved time‐frequency masking for robust binaural sound source localization
WO2020129231A1 (en) Sound source direction estimation device, sound source direction estimation method and sound source direction estimation program
CN116155319A (en) Electromagnetic situation monitoring and analyzing system and method
Reddy et al. A joint sparsity and linear regression based method for customization of median plane HRIR
Sasikala et al. Efficient digit serial architecture for sign based least mean square adaptive filter for denoising of artefacts in ECG signals
Geirnaert et al. EEG-based auditory attention decoding: Towards neuro-steered hearing devices
EP1395080A1 (en) Device and method for filtering electrical signals, in particular acoustic signals
JP2009230337A (en) Multiple sound discriminating apparatus
JP2007085734A (en) Sound source direction detection device and method
Paul et al. Digital implementation of hyperbolic calculation unit for electronic cochlea on FPGA
EP4226370A1 (en) Systems and methods for brain-informed speech separation

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101027

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20101104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120221

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120314

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees