JP4958172B2 - Sound source localization device - Google Patents
Sound source localization device Download PDFInfo
- Publication number
- JP4958172B2 JP4958172B2 JP2007283742A JP2007283742A JP4958172B2 JP 4958172 B2 JP4958172 B2 JP 4958172B2 JP 2007283742 A JP2007283742 A JP 2007283742A JP 2007283742 A JP2007283742 A JP 2007283742A JP 4958172 B2 JP4958172 B2 JP 4958172B2
- Authority
- JP
- Japan
- Prior art keywords
- neuron
- sound source
- sound
- detection unit
- output
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Landscapes
- Obtaining Desirable Characteristics In Audible-Bandwidth Transducers (AREA)
- Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)
Description
本発明は、音源方向を識別する音源定位装置に関し、特に、パルス信号(単に「パルス」ともいう。)を入出力するニューロンモデルであるパルスニューロンモデルを用いた音源定位装置に関する。 The present invention relates to a sound source localization apparatus that identifies a sound source direction, and more particularly, to a sound source localization apparatus that uses a pulse neuron model that is a neuron model that inputs and outputs a pulse signal (also simply referred to as “pulse”).
音源定位のためにパルスニューロンモデル(以下、「PNモデル」又は「ニューロン」ともいう。)を用いる技術が、下記特許文献1及び非特許文献1〜3に開示されている。特許文献1には、音源定位のための時間差検出器が開示され、非特許文献1には、PNモデルを用いて、両耳に入って来る音の時間差、音圧差を抽出する音源方向知覚モデルが開示され、非特許文献2には、聴覚情報処理システムのためのPNモデルを用いた競合学習ニューラルネットワークが開示され、非特許文献3には、PNモデルのハードウェアへの実装方法が開示されている。 Techniques using a pulse neuron model (hereinafter also referred to as “PN model” or “neuron”) for sound source localization are disclosed in Patent Document 1 and Non-Patent Documents 1 to 3 below. Patent Document 1 discloses a time difference detector for sound source localization, and Non-Patent Document 1 discloses a sound source direction perception model that extracts a time difference and a sound pressure difference of sounds coming into both ears using a PN model. Non-Patent Document 2 discloses a competitive learning neural network using a PN model for an auditory information processing system, and Non-Patent Document 3 discloses a method of mounting a PN model on hardware. ing.
図1に、PNモデルの模式図を示す。同じPNモデルが非特許文献1〜3にも示されているので詳説しないが、PNモデルでは、時刻t(tは離散値で、ここではdt=1とする。)にn番目の入力チャンネルからパルスin(t)=1がn番目のシナプス部に入力されると、n番目のシナプス部の局所膜電位pn(t)が結合重み(単に「重み」ともいう。)wn分上昇し、その後時定数τで静止電位まで減衰する。時刻tのPNモデルの内部電位I(t)は、その時刻の各局所膜電位pn(t)の総和として表される。PNモデルは、内部電位I(t)が閾値θ以上となった時発火(すなわち、出力パルス「1」を発生)する。但し、神経細胞には発火に関する不応期RPが存在するため、PNモデルにおいても、ある発火からRPの間は内部電位が閾値を超えた場合でも発火しない。 FIG. 1 shows a schematic diagram of the PN model. Since the same PN model is also shown in Non-Patent Documents 1 to 3, it will not be described in detail. However, in the PN model, from the nth input channel at time t (t is a discrete value, here, dt = 1). When the pulse i n (t) = 1 is input to the n-th synapse portion, the local membrane potential p n (t) of the n-th synapse portion is increased by the connection weight (also simply referred to as “weight”) w n . After that, it decays to a static potential with a time constant τ. The internal potential I (t) of the PN model at time t is expressed as the sum of the local membrane potentials p n (t) at that time. The PN model ignites (that is, generates an output pulse “1”) when the internal potential I (t) becomes equal to or greater than the threshold θ. However, since there is a refractory period RP related to firing in nerve cells, even in the PN model, even if the internal potential exceeds a threshold value during a certain firing to RP, firing does not occur.
PNモデルはディジタル回路によりハードウェア化可能である。図2に、PNモデルのディジタル回路による構成例を示す。同様の構成例が非特許文献3にも記載されているので詳説しないが、この構成例では、通常は加算処理を行い、加算処理数回の後にレジスタの値をビットシフトした値を引くこと(すなわち、ビットシフトと補数表現)で減衰を近似的に実現しており、減衰処理の機構に乗算器を用いないため、ディジタル回路で実現するのに適している。 The PN model can be implemented by hardware using a digital circuit. FIG. 2 shows a configuration example of a PN model digital circuit. A similar configuration example is also described in Non-Patent Document 3 and will not be described in detail. However, in this configuration example, an addition process is usually performed, and a value obtained by bit-shifting the register value is subtracted after several addition processes ( That is, attenuation is approximately realized by bit shift and complement expression), and a multiplier is not used for the attenuation processing mechanism, so that it is suitable for realization by a digital circuit.
ところで、図3に示すように、両耳に相当する2つのマイクロホン101、102を同方向に向けて左右に配置し、マイクロホン101によって集音された音とマイクロホン102によって集音された音を用いて、音源の方向を識別しようとすると、左右方向は、音源からマイクロホン101、102までの距離の違いから生じる音の時間差により識別可能であるが、音源がマイクロホン101、102の集音部を結ぶ線(図中の1点鎖線)を挟んで前後方向のどちらにあるのかは、識別不可能であった。図3で言えば、音源が図中の1点鎖線について対称的なPの位置とP´の位置のどちらにあっても、同様の時間差が生じてしまうからである。 By the way, as shown in FIG. 3, two microphones 101 and 102 corresponding to both ears are arranged on the left and right in the same direction, and the sound collected by the microphone 101 and the sound collected by the microphone 102 are used. Thus, when trying to identify the direction of the sound source, the left and right direction can be identified by the time difference of the sound resulting from the difference in the distance from the sound source to the microphones 101 and 102, but the sound source connects the sound collection parts of the microphones 101 and 102. It was impossible to discriminate whether it was in the front-rear direction across the line (dashed line in the figure). If it says in FIG. 3, it is because the same time difference will arise even if a sound source exists in the position of P symmetrical about the dashed-dotted line in a figure, and the position of P '.
このため、下記非特許文献4に記載された音源定位システムでは、同文献の3.4節で説明しているように、右のマイクロホンを前方に、左のマイクロホンを後方に向けて配置し(同文献のFigure 5参照)、後方からの音は前方からの音よりもこもることから、左右のマイクロホンから入った音の周波数スペクトルの重心をそれぞれ計算して、右の重心が左の重心よりも大きければ前方、左の重心が右の重心よりも大きければ後方と判断している。
しかし、非特許文献4の音源定位システムでは、周波数スペクトルの重心を計算するためにFFT(高速フーリエ変換)を行っており、FFT計算機が必要であるため、ハードウェア実装上不利であった。 However, the sound source localization system of Non-Patent Document 4 is disadvantageous in terms of hardware implementation because it performs FFT (Fast Fourier Transform) to calculate the center of gravity of the frequency spectrum and requires an FFT calculator.
この発明は、上述した問題を解決するものであり、ハードウェア実装上有利な音源定位装置を提供することを目的とする。 The present invention solves the above-described problems, and an object thereof is to provide a sound source localization apparatus that is advantageous in terms of hardware implementation.
本発明の音源定位装置は、それぞれ前方指向性を有し、左右に間隔をおいて配設されるとともに、一方は前方に向けて他方は後方に向けて配置された2つのマイクロホンと、前記各マイクロホンで集音された音の時間差情報を、パルスニューロンモデルにより検出する時間差検出手段と、前記各マイクロホンで集音された音の音圧差情報を、パルスニューロンモデルにより検出する音圧差検出手段と、前記時間差検出手段で検出された音の時間差情報に基づいて、左右方向における音源の方向情報をパルスニューロンモデルにより検出する左右方向検出手段と、前記音圧差検出手段で検出された音の音圧差情報に基づいて、前後方向における音源の方向情報をパルスニューロンモデルにより検出する前後方向検出手段と、を備えることを特徴とする。 Each of the sound source localization apparatuses of the present invention has a front directivity, and is disposed with a space between left and right, one of which is directed forward and the other of which is disposed rearward, Time difference detection means for detecting the time difference information of the sound collected by the microphone using a pulse neuron model, and sound pressure difference detection means for detecting the sound pressure difference information of the sound collected by each microphone using the pulse neuron model; Based on the time difference information of the sound detected by the time difference detection means, the left / right direction detection means for detecting the direction information of the sound source in the left / right direction by a pulse neuron model, and the sound pressure difference information of the sound detected by the sound pressure difference detection means And a front-rear direction detecting means for detecting the direction information of the sound source in the front-rear direction by using a pulse neuron model. To.
また、前記左右方向検出手段で検出された左右方向における音源の方向情報と、前記前後方向検出手段で検出された前後方向における音源の方向情報とに基づいて、周囲の複数方向における音源の方向情報をパルスニューロンモデルにより検出する周囲方向検出手段を備えることが好ましい。 In addition, based on the direction information of the sound source in the left-right direction detected by the left-right direction detection unit and the direction information of the sound source in the front-rear direction detected by the front-rear direction detection unit, the direction information of the sound source in a plurality of surrounding directions It is preferable to include a surrounding direction detecting means for detecting the signal using a pulse neuron model.
本発明の音源定位装置は、時間差検出手段がパルスニューロンモデルにより音の時間差情報を検出し、音圧差検出手段がパルスニューロンモデルにより音圧差情報を検出し、左右方向検出手段がパルスニューロンモデルにより左右方向における音源の方向情報を検出し、前後方向検出手段がパルスニューロンモデルにより前後方向における音源の方向情報を検出しており、パルスニューロンモデルは簡単なディジタル回路により実現可能であるため、ハードウェア実装上有利である。 In the sound source localization apparatus of the present invention, the time difference detecting means detects sound time difference information using a pulse neuron model, the sound pressure difference detecting means detects sound pressure difference information using a pulse neuron model, and the left-right direction detecting means detects left and right information using a pulse neuron model. Since the direction information of the sound source in the direction is detected and the direction detection means detects the direction information of the sound source in the front and back direction by the pulse neuron model, and the pulse neuron model can be realized by a simple digital circuit, hardware implementation This is advantageous.
以下、本発明の一実施形態について図面に基づいて説明する。 Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
音源定位装置1は、図4に示すように、左右のマイクロホン2、3と、マクロフォン2、3が接続された本体部4とを備えている。本体部4は、定位結果を表示する表示装置5に接続されている。 As shown in FIG. 4, the sound source localization apparatus 1 includes left and right microphones 2 and 3 and a main body 4 to which the microphones 2 and 3 are connected. The main body 4 is connected to a display device 5 that displays the localization result.
マイクロホン2、3は前方指向性(すなわち、前方側の感度がよい単一指向性)を有している。マイクロホン2、3は、左右に間隔をおいて、マイクロホン2、3の集音部2a、3aが左右方向に並ぶように配置されるとともに、左のマイクロホン2は前方に向けて、右のマイクロホン3は後方に向けて配置されている。マイクロホン2、3は集音部2a、3aで集音した音を電気信号に変換する。音量が大きい程すなわち音圧が大きい程、変換された電気信号の電圧値は高くなる。なお、集音部2a、3aは必ずしも左右方向の一直線上に並ばなくてもよい。かかる場合には、得られたデータに対して適当な補正をすればよい。 The microphones 2 and 3 have forward directivity (that is, unidirectional with good forward sensitivity). The microphones 2 and 3 are arranged so that the sound collecting portions 2a and 3a of the microphones 2 and 3 are arranged in the left and right direction with an interval left and right, and the left microphone 2 faces the front and the right microphone 3 Are arranged facing backwards. The microphones 2 and 3 convert the sound collected by the sound collection units 2a and 3a into electric signals. The greater the volume, that is, the greater the sound pressure, the higher the voltage value of the converted electrical signal. Note that the sound collection units 2a and 3a do not necessarily have to be arranged on a straight line in the left-right direction. In such a case, an appropriate correction may be made on the obtained data.
本体部4は、図5に示すように、左のマイクロホン2に接続された左の入力信号処理部6と、右のマイクロホン3に接続された右の入力信号処理部7と、入力信号処理部6、7の両方に接続された時間差検出部(時間差検出手段に相当。)8と、入力信号処理部6、7の両方に接続された音圧差検出部(音圧差検出手段に相当。)9と、時間差検出部8に接続された左右方向検出部(左右方向検出手段に相当。)10と、音圧差検出部9に接続された前後方向検出部(前後方向検出手段に相当。)11と、左右方向検出部10及び前後方向検出部11の両方に接続された8方向検出部(周囲方向検出手段に相当。)12とを備えている。 As shown in FIG. 5, the main unit 4 includes a left input signal processing unit 6 connected to the left microphone 2, a right input signal processing unit 7 connected to the right microphone 3, and an input signal processing unit. 6 and 7, a time difference detection unit (corresponding to a time difference detection unit) 8, and a sound pressure difference detection unit (corresponding to a sound pressure difference detection unit) 9 connected to both of the input signal processing units 6 and 7. And a left-right direction detection unit (corresponding to the left-right direction detection means) 10 connected to the time difference detection unit 8, and a front-rear direction detection unit (corresponding to the front-rear direction detection means) 11 connected to the sound pressure difference detection unit 9. , An eight-direction detection unit (corresponding to a surrounding direction detection means) 12 connected to both the left-right direction detection unit 10 and the front-rear direction detection unit 11.
入力信号処理部6、7は、左右の入力信号の各々を、周波数帯域毎に、信号強度に応じたすなわち音圧に応じたパルス頻度を持つパルス列に変換するものである。時間差検出部8は、入力信号処理部6、7が出力した左右のパルス列から、左右の音(左右のマイクロホン2、3から入った音)の時間差情報を検出するものである。音圧差検出部9は、左右のパルス列から、左右の音の音圧差情報を検出するものである。左右方向検出部10は、音源が左方にあるときは右のマイクロホン3よりも左のマイクロホン2から早く、右方にあるときは左のマイクロホン2よりも右のマイクロホン3から早く音が入ってくることを利用して、時間差検出部8が検出した時間差情報から、左右方向における音源の方向情報を検出するものである。前後方向検出部11は、音源の方を向いているマイクロホンから入った音よりも音源の方を向いていないマイクロホンから入った音の方が音圧が小さくなることを利用して、音圧差検出部9が検出した音圧差情報から、前後方向における音源の方向情報を検出するものである。8方向検出部12は、左右方向検出部10及び前後方向検出部11から出力された情報に基づいて、周囲の8方向における音源の方向情報(音源が8方向のうちのいずれの方向にあるかを示す情報)を出力するものである。 The input signal processing units 6 and 7 convert each of the left and right input signals into a pulse train having a pulse frequency corresponding to the signal intensity, that is, the sound pressure, for each frequency band. The time difference detection unit 8 detects time difference information of left and right sounds (sounds from the left and right microphones 2 and 3) from the left and right pulse trains output from the input signal processing units 6 and 7. The sound pressure difference detection unit 9 detects sound pressure difference information of left and right sounds from the left and right pulse trains. When the sound source is on the left side, the left / right direction detection unit 10 receives sound from the left microphone 2 faster than the right microphone 3 and when it is on the right side, the sound enters from the right microphone 3 faster than the left microphone 2. Using this, the direction information of the sound source in the left-right direction is detected from the time difference information detected by the time difference detection unit 8. The front-rear direction detection unit 11 detects the difference in sound pressure by using the fact that the sound pressure from the microphone not facing the sound source is smaller than the sound entering from the microphone facing the sound source. The sound source direction information in the front-rear direction is detected from the sound pressure difference information detected by the unit 9. The eight-direction detection unit 12 is based on the information output from the left-right direction detection unit 10 and the front-rear direction detection unit 11 and the direction information of the sound source in the surrounding eight directions (whether the sound source is in one of the eight directions). Information) is output.
表示部5は、8方向検出部12から出力された方向情報に基づいて、音源の方向を表示するものである。 The display unit 5 displays the direction of the sound source based on the direction information output from the 8-direction detection unit 12.
入力信号処理部6、7は、図6に示すように、AD変換部14L、14Rと、人の聴覚系の蝸牛に相当する周波数分解部15L、15Rと、有毛細胞に相当する非線形変換部16L、16Rと、蝸牛神経に相当するパルス変換部17L、17Rとを備えている。AD変換部14L、14Rは、マイクロホン2、3から入力された信号をAD変換する。周波数分解部15L、15Rは、バンドパスフィルタ(BPF)群により構成され、AD変換された信号を所定の周波数範囲について対数スケールで複数(N個)の周波数帯域(周波数チャンネル)の信号に分解する。非線形変換部16L、16Rは、周波数分解部15L、15Rから入力された各周波数帯域の信号に対して、それぞれ、非線形変換を行うことによりその正の成分だけを取り出すとともに、ローパスフィルタ(LPF)によりエンベロープ検出を行う。パルス変換部17L、17Rは、非線形変換部16L、16Rから入力された各周波数帯域の信号を、それぞれ、信号強度に比例したパルス頻度を持つパルス列に変換する。これらの処理により、入力信号処理部6、7は、左右の入力信号の各々を、周波数帯域毎に、信号強度に応じたパルス頻度を持つパルス列に変換する。 As shown in FIG. 6, the input signal processing units 6 and 7 include AD conversion units 14L and 14R, frequency resolving units 15L and 15R corresponding to human cochleas, and nonlinear conversion units corresponding to hair cells. 16L and 16R, and pulse converters 17L and 17R corresponding to the cochlear nerve. The AD converters 14L and 14R AD convert the signals input from the microphones 2 and 3. The frequency resolving units 15L and 15R are configured by a band pass filter (BPF) group, and decompose the AD-converted signals into signals of a plurality of (N) frequency bands (frequency channels) on a logarithmic scale for a predetermined frequency range. . The non-linear transformation units 16L and 16R take out only the positive components by performing non-linear transformation on the signals of the respective frequency bands input from the frequency decomposition units 15L and 15R, and also by a low-pass filter (LPF). Perform envelope detection. The pulse converters 17L and 17R convert the signals in the respective frequency bands input from the nonlinear converters 16L and 16R into pulse trains each having a pulse frequency proportional to the signal intensity. Through these processes, the input signal processing units 6 and 7 convert each of the left and right input signals into a pulse train having a pulse frequency corresponding to the signal intensity for each frequency band.
入力信号部6、7をハードウェア化する場合は、AD変換部14L、14RはAD変換回路で、周波数分解部15L、15R、非線形変換部16L、16R、パルス変換部17L、17Rは、それぞれディジタル回路で構成可能である。 When the input signal units 6 and 7 are implemented as hardware, the AD conversion units 14L and 14R are AD conversion circuits, and the frequency resolution units 15L and 15R, the nonlinear conversion units 16L and 16R, and the pulse conversion units 17L and 17R are digital, respectively. It can be configured with a circuit.
時間差検出部8における時間差情報の検出、音圧差検出部9における音圧差情報の検出、左右方向検出部10における方向情報の検出、前後方向検出部11における方向情報の検出、及び、8方向検出部12における方向情報の検出は、いずれも、複数のPNモデルにより構成されたパルスニューラルネットワークで行われる。パルスニューラルネットワークは、独立かつ非同期に並列動作可能な複数のPNモデルを電子回路として実装することにより実現され、高速処理が可能である。 Detection of time difference information in the time difference detection unit 8, detection of sound pressure difference information in the sound pressure difference detection unit 9, detection of direction information in the left-right direction detection unit 10, detection of direction information in the front-rear direction detection unit 11, and 8-direction detection unit The detection of the direction information in 12 is performed by a pulse neural network constituted by a plurality of PN models. The pulse neural network is realized by mounting a plurality of PN models that can operate independently and asynchronously in parallel as an electronic circuit, and can perform high-speed processing.
時間差検出部8は、図7に示すようなPNモデルからなる時間差検出モデルと、パルス列をシフトさせつつ時間差検出モデルに入力するための時間遅れ素子19(図8参照)の列とから構成されている。時間差検出モデルは、非特許文献1等に記載されているものと同様であるので詳説しないが、図8に示すように時間差検出ニューロン(以下、「MSOニューロン」ともいう。)20を複数(但し、奇数個)並べたMSOニューロン列を、周波数チャンネル毎に設けたものである。各MSOニューロン20は、左のパルス信号が入力される左入力端子21と、右のパルス信号が入力される右入力端子22と、出力端子23とを備え、全MSOニューロン20において、左右の入力に対する重みを共通の固定値とし、閾値を重みの2倍又は重みの2倍に内部電位の基準値を加えた値とすること等により、パルス信号が左右から略同時に入力されたときに出力端子23からパルス信号を出力するように構成される。なお、「略同時」とは、勿論、同時である場合を含む。 The time difference detection unit 8 is composed of a time difference detection model composed of a PN model as shown in FIG. 7 and a sequence of time delay elements 19 (see FIG. 8) for inputting to the time difference detection model while shifting the pulse train. Yes. Since the time difference detection model is the same as that described in Non-Patent Document 1, etc., it will not be described in detail. However, as shown in FIG. 8, a plurality of time difference detection neurons (hereinafter also referred to as “MSO neurons”) 20 are provided. , An odd number) of MSO neuron rows arranged for each frequency channel. Each MSO neuron 20 includes a left input terminal 21 to which a left pulse signal is input, a right input terminal 22 to which a right pulse signal is input, and an output terminal 23. When the pulse signal is input almost simultaneously from the left and right by setting the weight to the common fixed value and the threshold value to be twice the weight or the value obtained by adding the reference value of the internal potential to the double weight, etc. 23 is configured to output a pulse signal. Note that “substantially simultaneous” includes, of course, simultaneous.
そして、時間差検出部8は、時間遅れ素子19により、1クロック(単位時間)毎に、左のパルス列を右にシフトさせるとともに右のパルス列を左にシフトさせつつ、左右のパルス列を対応する周波数チャンネルのMSOニューロン列に入力する。すなわち、左のパルス信号はMSOニューロン列の一端(図8では左端)から他端(同右端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力され、右のパルス信号はMSOニューロン列の他端(同右端)から一端(同左端)まで単位時間毎にシフトされつつ順次各MSOニューロン20に入力される。 Then, the time difference detector 8 shifts the left pulse train to the right and the right pulse train to the left and shifts the left and right pulse trains to the corresponding frequency channel for each clock (unit time) by the time delay element 19. To the MSO neuron array. That is, the left pulse signal is sequentially input to each MSO neuron 20 while being shifted from one end (left end in FIG. 8) to the other end (right end) of the MSO neuron train for each unit time, and the right pulse signal is input to the MSO neuron train. Are sequentially input to each MSO neuron 20 while being shifted every other unit time from the other end (same right end) to one end (same left end).
例えば各MSOニューロン列内のMSOニューロン20を2J+1個とし、各MSOニューロン20に−JからJまでの番号を付すと、時刻tに、各MSOニューロン20は下記[数1]に従って内部電位IMSO ji(t)を演算し、この内部電位が所定の閾値を超えた場合にはyji(t)=1を出力し、超えない場合にはyji(t)=0を出力する。なお、jはMSOニューロン20の番号、iは周波数チャンネルの番号(i=1〜N)とする。下記[数1]において、pleft ji(t)は左の入力信号に対する局所膜電位、pright ji(t)は右の入力信号に対する局所膜電位であり、wは全ニューロン20で共通の結合重み、τは減衰時定数である。 For example, if the number of MSO neurons 20 in each MSO neuron array is 2J + 1 and each MSO neuron 20 is assigned a number from −J to J, at time t, each MSO neuron 20 has an internal potential I MSO according to the following [Equation 1]. ji (t) is calculated, and y ji (t) = 1 is output when the internal potential exceeds a predetermined threshold, and y ji (t) = 0 is output when it does not exceed the predetermined threshold. Note that j is the number of the MSO neuron 20, and i is the frequency channel number (i = 1 to N). In the following [Equation 1], p left ji (t) is a local membrane potential for the left input signal, p right ji (t) is a local membrane potential for the right input signal, and w is a common connection in all neurons 20. The weight, τ, is the decay time constant.
上述したように各MSOニューロン列内の各MSOニューロン20に−JからJまでの番号を付すと、時刻tに、周波数チャンネルiに対応するMSOニューロン列からは出力パルス列(y-Ji(t),…,y0i(t),…,yJi(t))が出力され、時間差検出モデルからは全体として次のようなベクトルyMSO(t)が時間差情報として出力される。 As described above, when each MSO neuron 20 in each MSO neuron train is assigned a number from −J to J, the output pulse train (y −Ji (t)) is output from the MSO neuron train corresponding to the frequency channel i at time t. ,..., Y 0i (t),..., Y Ji (t)) are output, and the following vector y MSO (t) is output as time difference information as a whole from the time difference detection model.
yMSO(t)=(y-J1(t),…,y01(t),…,yJ1(t),
y-J2(t),…,y02(t),…,yJ2(t),
…,
y-JN(t),…,y0N(t),…,yJN(t))
時間差検出部8は、例えば図9に示すように、ディジタル回路で構成可能である。なお、図9(a)は1クロックの前半の動作を、(b)は後半の動作を説明するための図である。この例は、非特許文献3の第5章にも記載されているので詳説しないが、時間差検出部8の各MSOニューロン20は、AND回路24L、24Rと、加算器25、26と、レジスタ27と、比較器28と、減衰生成部29とを備えている。図9(a)に示すように、減衰生成部29は、内部電位(内部ポテンシャル)に対してビットシフトと補数表現を行うことにより、内部電位の減衰分を生成して加算器26に入力し、加算器26は内部電位とその減衰分との加算を行って、レジスタ27内の内部電位を更新する。そして、図9(b)に示すように、AND回路24L、24Rは、入力信号が「1」のときのみ結合重みを加算器25に入力し、加算器25は入力された結合重みとレジスタ27に保持されている内部電位との加算を行って、レジスタ27内の内部電位を更新する。比較器28は、自らが保持している閾値と、レジスタ27が保持している内部電位との比較を行って、内部電位が閾値以上であれば信号「1」を出力し、閾値未満であれば信号「0」を出力する。なお、不応期の実装は、不応期をカウントするカウンタを設け、発火から不応期の間は発火しないようにして、発火とともにカウンタをリセットすることにより実現可能である。
y MSO (t) = (y -J1 (t), ..., y 01 (t), ..., y J1 (t),
y -J2 (t), ..., y 02 (t), ..., y J2 (t),
…,
y -JN (t), ..., y 0N (t), ..., y JN (t))
The time difference detection unit 8 can be configured with a digital circuit, for example, as shown in FIG. FIG. 9A is a diagram for explaining the operation of the first half of one clock, and FIG. 9B is a diagram for explaining the operation of the second half. This example is also described in Chapter 5 of Non-Patent Document 3 and will not be described in detail. However, each MSO neuron 20 of the time difference detection unit 8 includes AND circuits 24L and 24R, adders 25 and 26, and a register 27. And a comparator 28 and an attenuation generator 29. As shown in FIG. 9A, the attenuation generation unit 29 generates an attenuation amount of the internal potential by inputting a bit shift and a complement expression to the internal potential (internal potential), and inputs it to the adder 26. The adder 26 adds the internal potential and its attenuation, and updates the internal potential in the register 27. Then, as shown in FIG. 9B, the AND circuits 24L and 24R input the coupling weight to the adder 25 only when the input signal is “1”, and the adder 25 inputs the input coupling weight and the register 27. Is added to the internal potential held in the register 27 to update the internal potential in the register 27. The comparator 28 compares the threshold value held by itself with the internal potential held by the register 27, and outputs a signal “1” if the internal potential is equal to or greater than the threshold value. Signal “0” is output. Note that the implementation of the refractory period can be realized by providing a counter that counts the refractory period and not firing during the period from ignition to resetting the counter along with the ignition.
音圧差検出部9は、図10に示すようなPNモデルからなる音圧差検出モデルから構成されている。音圧差検出モデルは、上記非特許文献1等に記載されているものと同様であるので詳説しないが、図11に示すように音圧差検出ニューロン(以下、「LSOニューロン」ともいう。)40を複数(但し、奇数個)並べたLSOニューロン列を、周波数チャンネル毎に設けたものである。各LSOニューロン40は、左のパルス信号が入力される左入力端子41と、右のパルス信号が入力される右入力端子42と、出力端子43とを備えている。 The sound pressure difference detection unit 9 is composed of a sound pressure difference detection model composed of a PN model as shown in FIG. The sound pressure difference detection model is the same as that described in Non-Patent Document 1 and the like and will not be described in detail. However, as shown in FIG. 11, a sound pressure difference detection neuron (hereinafter also referred to as “LSO neuron”) 40 is used. A plurality (however, odd number) of LSO neuron rows arranged are provided for each frequency channel. Each LSO neuron 40 includes a left input terminal 41 to which a left pulse signal is input, a right input terminal 42 to which a right pulse signal is input, and an output terminal 43.
図11に示すように、時刻tに、各LSOニューロン列の各LSOニューロン40の左入力端子41、右入力端子42には、それぞれ、入力信号処理部6から出力された対応する周波数チャンネルi(i=1〜N)の左のパルス信号xleft i(t)、右のパルス信号xright i(t)が入力される。なお、kは各LSOニューロン列内で各ニューロン40に付された番号であり、−K≦k≦Kである。 As shown in FIG. 11, at time t, the left input terminal 41 and the right input terminal 42 of each LSO neuron 40 in each LSO neuron string are respectively connected to the corresponding frequency channel i ( The left pulse signal x left i (t) of i = 1 to N) and the right pulse signal x right i (t) are input. Note that k is a number assigned to each neuron 40 in each LSO neuron array, and −K ≦ k ≦ K.
すると、各LSOニューロン40は、下記[数2]に従って内部電位ILSO ki(t)を演算し、この内部電位が所定の閾値を超えた場合にはyki(t)=1を出力し、閾値以下である場合にはyki(t)=0を出力する。なお、閾値は各LSOニューロン40で共通の値とする。下記[数2]において、pleft ki(t)は左の入力信号に対する局所膜電位、pright ki(t)は右の入力信号に対する局所膜電位であり、wleft kiは左の入力信号に対する結合重み、wright kiは右の入力信号に対する結合重みである。また、τは減衰時定数、b、α、βは定数である。 Then, each LSO neuron 40 calculates an internal potential I LSO ki (t) according to the following [Equation 2], and outputs y ki (t) = 1 when the internal potential exceeds a predetermined threshold value. If it is below the threshold, y ki (t) = 0 is output. The threshold value is a value common to each LSO neuron 40. In [Equation 2] below, p left ki (t) is the local membrane potential for the left input signal, p right ki (t) is the local membrane potential for the right input signal, and w left ki is for the left input signal. The coupling weight, w right ki, is the coupling weight for the right input signal. Further, τ is an attenuation time constant, and b, α, and β are constants.
上述したように各LSOニューロン列内の各LSOニューロン40に−KからKまでの番号を付すと、時刻tに、周波数チャンネルiに対応するLSOニューロン列からは出力パルス列(y-Ki(t),…,y0i(t),…,yKi(t))が出力され、音圧差検出モデルからは全体として次のようなベクトルyLSO(t)が音圧差情報として出力される。 As described above, when each LSO neuron 40 in each LSO neuron train is assigned a number from −K to K, the output pulse train (y −Ki (t)) is output from the LSO neuron train corresponding to the frequency channel i at time t. ,..., Y 0i (t),..., Y Ki (t)) are output, and the following vector y LSO (t) is output as sound pressure difference information as a whole from the sound pressure difference detection model.
yLSO(t)=(y-K1(t),…,y01(t),…,yK1(t),
y-K2(t),…,y02(t),…,yK2(t),
…,
y-KN(t),…,y0N(t),…,yKN(t))
各LSOニューロン40は、図9のMSOニューロン20と同様の構成において結合重みや閾値等を適当に変更することにより、ディジタル回路で実現可能である。
y LSO (t) = (y −K1 (t),..., y 01 (t),..., y K1 (t),
y -K2 (t), ..., y 02 (t), ..., y K2 (t),
…,
y -KN (t), ..., y 0N (t), ..., y KN (t))
Each LSO neuron 40 can be realized by a digital circuit by appropriately changing the connection weight, threshold value, and the like in the same configuration as the MSO neuron 20 of FIG.
左右方向検出部10、前後方向検出部11、及び、8方向検出部12は、いずれも、上記非特許文献2に記載された競合学習ニューラルネットワーク(以下、「CONP」という。)から構成されている。CONPは、各競合学習ニューロンの閾値を調整することにより競合学習ニューロンが毎回1個だけ発火するように構成されたパルスニューラルネットワークであり、入力ベクトルの量子化を目的とするものである。CONPの構成を図12に示す。CONPは、競合学習ニューロン群50と制御ニューロン群60とから構成され、競合学習ニューロン群50は複数の競合学習ニューロン(以下、「CLニューロン」ともいう。)51から構成され、制御ニューロン群はCLニューロン51が1つも発火していないときに発火する無発火検出ニューロン(以下、「NFDニューロン」ともいう。)61とCLニューロン51が複数発火しているときに発火する複数発火検出ニューロン(以下、「MFDニューロン」ともいう。)62とから構成されている。 The left-right direction detection unit 10, the front-rear direction detection unit 11, and the 8-direction detection unit 12 are all configured by a competitive learning neural network (hereinafter referred to as “CONP”) described in Non-Patent Document 2. Yes. The CONP is a pulse neural network configured so that only one competitive learning neuron fires each time by adjusting the threshold value of each competitive learning neuron, and is intended for quantization of an input vector. The configuration of CONP is shown in FIG. The CONP is composed of a competitive learning neuron group 50 and a control neuron group 60. The competitive learning neuron group 50 is composed of a plurality of competitive learning neurons (hereinafter also referred to as “CL neurons”) 51, and the control neuron group is CL. Multiple firing detection neurons (hereinafter, referred to as “NFD neurons”) 61 and multiple firing detection neurons (hereinafter referred to as “NFD neurons”) 61 that fire when no neurons 51 are fired. It is also referred to as “MFD neuron”) 62.
NFDニューロン61とMFDニューロン62は、それらの発火状況に応じて各CLニューロン51の閾値を一律に変化させる(実際には、各CLニューロン51の内部電位を一律に変化させる)ことで、CLニューロン群50内でCLニューロン51が1個だけ発火する状況を保持するためのPNモデルである。NFDニューロン61とMFDニューロン62は、CLニューロン群50内のCLニューロン51の数に応じた入力端子と、出力端子とを備え、各CLニューロン51から出力されたパルス信号を各入力端子で受け取って、NFDニューロン61は、全てのCLニューロン51からの信号が「0」の場合にのみ出力端子から「1」を出力し、MFDニューロン62は、複数のCLニューロン51から信号「1」を受け取った場合にのみ出力端子から「1」を出力する。 The NFD neuron 61 and the MFD neuron 62 change the threshold value of each CL neuron 51 uniformly according to their firing status (actually, the internal potential of each CL neuron 51 is changed uniformly), so that the CL neuron This is a PN model for maintaining a situation where only one CL neuron 51 is fired in the group 50. Each of the NFD neuron 61 and the MFD neuron 62 includes an input terminal corresponding to the number of CL neurons 51 in the CL neuron group 50 and an output terminal. The pulse signal output from each CL neuron 51 is received by each input terminal. The NFD neuron 61 outputs “1” from the output terminal only when the signals from all the CL neurons 51 are “0”, and the MFD neuron 62 receives the signal “1” from the plurality of CL neurons 51. Only in this case, “1” is output from the output terminal.
各CLニューロン51は、図13に示すように、入力パルスx1(t),x2(t),…,xi(t),…,xn(t)がそれぞれ入力される入力端子551、552、…、55i、…、55nと、NFDニューロン61、MFDニューロン62から出力されたパルス信号ynfd(t)、ymfd(t)がそれぞれ入力される入力端子56、57と、出力端子58とを備えている。各入力端子55i(i=1〜n)は2つに分岐して、一方は可変の結合重みwhiを有するシナプス部53iに、他方は固定の結合重み「1」を有するシナプス部54iに接続されている。なお、hは、CLニューロン群50内で各CLニューロン51に付された番号であり、h=1〜Mとする。 Each CL neuron 51, as shown in FIG. 13, the input pulse x 1 (t), x 2 (t), ..., x i (t), ..., the input terminal x n (t) are respectively input 551 , 552, ..., 55i, ..., 55n, and input terminals 56 and 57 to which pulse signals y nfd (t) and y mfd (t) output from the NFD neuron 61 and the MFD neuron 62 are input, respectively, and output terminals 58. Each input terminal 55i (i = 1 to n) branches into two, one connected to the synapse unit 53i having a variable coupling weight w hi and the other connected to the synapse unit 54i having a fixed coupling weight “1”. Has been. Note that h is a number assigned to each CL neuron 51 in the CL neuron group 50, and h = 1 to M.
CONPの動作について、図14−1、14−2に基づいて説明する。CLニューロン群50内の各CLニューロン51には、単位時間毎に、n個の入力パルスからなる入力ベクトルx(t)=(x1(t),x2(t),…,xi(t),…,xn(t))(t:時刻)が入力される(S101)。すると、NFDニューロン61、MFDニューロン62は、それぞれ、保持しておいた時刻(t−1)における各CLニューロン51からの出力yh(t−1)に基づいて、時刻tにおける出力値ynfd(t)、ymfd(t)を演算して、各CLニューロン51に出力する(S102、S103)。なお、NFDニューロン61、MFDニューロン62において、それぞれ、時刻(t−1)に各CLニューロン51からの出力yh(t−1)を用いて出力値ynfd(t)、ymfd(t)を演算して保持しておき、時刻tになったらynfd(t)、ymfd(t)を各CLニューロン51に出力するようにしてもよい。 The operation of CONP will be described based on FIGS. 14-1 and 14-2. Each CL neuron 51 in the CL neuron group 50 has an input vector x (t) = (x 1 (t), x 2 (t) ,. t),..., x n (t)) (t: time) are input (S101). Then, the NFD neuron 61 and the MFD neuron 62 respectively output the output value y nfd at the time t based on the output y h (t−1) from each CL neuron 51 at the held time (t−1). (T), y mfd (t) are calculated and output to each CL neuron 51 (S102, S103). Note that, in the NFD neuron 61 and the MFD neuron 62, output values y nfd (t) and y mfd (t) using the output y h (t−1) from each CL neuron 51 at time (t−1), respectively. May be calculated and held, and y nfd (t) and y mfd (t) may be output to each CL neuron 51 at time t.
次に、各CLニューロン51は、それぞれ、内部電位Ih(t)(h=1〜M)を演算し(S104)(下記[数6]参照)、内部電位Ih(t)が閾値THを超え、かつ、前回の発火時から不応期を経過している場合にはyh(t)=1を出力し、それ以外の場合にはyh(t)=0を出力する(S105)。 Next, each CL neuron 51 calculates an internal potential I h (t) (h = 1 to M) (S104) (see [Expression 6] below), and the internal potential I h (t) is a threshold TH. Is exceeded and y h (t) = 1 is output if the refractory period has elapsed since the previous ignition, and y h (t) = 0 is output otherwise (S105) .
そして、学習時には、「1」を出力したCLニューロン51について、シナプス部54iにおける局所膜電位pcwiを用いて結合重みwiを更新するとともに(S106)、そのCLニューロン51の周辺のCLニューロン51についても同様に結合重みを更新する(S107)。周辺のCLニューロン51(すなわち、結合重みの更新範囲)の決定方法としては、例えば、最初は全部のCLニューロン51を更新範囲とし、線形的に範囲を縮小して、最後は勝者ニューロンの結合重みだけを更新するような、次第に縮小する方法がある。そして、結合重みを更新したCLニューロン51について結合重みのノルム(参照ベクトルのノルム)を1に正規化する(S108)。すなわち、このCONPにおいては、勝者ニューロンのみならずその周辺のニューロンも学習を行うことにより、自己組織化マップ(SOM)のアルゴリズムを実現している。 At the time of learning, for the CL neuron 51 that has output “1”, the connection weight w i is updated using the local membrane potential pcw i at the synapse 54 i (S 106), and the CL neurons 51 around the CL neuron 51 are also updated. Similarly, the connection weight is updated (S107). As a method for determining the peripheral CL neurons 51 (that is, the connection weight update range), for example, all CL neurons 51 are initially set as update ranges, the range is linearly reduced, and finally the connection weights of the winner neurons are determined. There is a way to gradually reduce, such as updating only. Then, the norm of the connection weight (norm of the reference vector) is normalized to 1 for the CL neuron 51 whose connection weight has been updated (S108). That is, in this CONP, a self-organizing map (SOM) algorithm is realized by learning not only the winner neuron but also the neighboring neurons.
一方、学習時でない場合(認識時)は、結合重みの更新は行わない。そして、結合重みの更新のための係数αを定数γ(0≦γ)を乗じることにより更新し(S109)、次の入力ベクトルについてステップS101〜108の処理を行う。 On the other hand, when it is not at the time of learning (at the time of recognition), the connection weight is not updated. Then, the coefficient α for updating the connection weight is updated by multiplying by a constant γ (0 ≦ γ) (S109), and the processing of steps S101 to S108 is performed for the next input vector.
ここで、CONPにおける内部電位Ih(t)の演算方法について説明する。まず、引数として、時刻t、減衰時定数τ、結合重みw、時刻tにおける入力信号x(t)の4つを持つ関数Fを導入し、下記[数3]のように定義する。なお、△t=1/Fs(Fs:サンプリング周波数)とする。 Here, a method of calculating the internal potential I h (t) in CONP will be described. First, as an argument, a function F having four parameters of time t, decay time constant τ, coupling weight w, and input signal x (t) at time t is introduced and defined as [Equation 3] below. Note that Δt = 1 / Fs (Fs: sampling frequency).
if I(t)≧TH and ET(t)>RP
then y(t)=1,ET(t)=0
else y(t)=0,ET(t)=ET(t−△t)+△t
パラメータτ、w1、w2、…、wn、THは、各PNモデルにより可変の値であり、この組合せにより各PNモデルの動作は決定される。
if I (t) ≧ TH and ET (t)> RP
then y (t) = 1, ET (t) = 0
else y (t) = 0, ET (t) = ET (t−Δt) + Δt
Parameters τ, w 1 , w 2 ,..., W n , TH are variable values depending on each PN model, and the operation of each PN model is determined by this combination.
ここで、時刻tにおけるNFDニューロン61、MFDニューロン62の出力をそれぞれynfd(t)、ymfd(t)、各CLニューロン51のNFDニューロン61、MFDニューロン62に対する結合重みをそれぞれwfd、−wfd(但し、wfd>0)とすると、時刻tにおける番号hのCLニューロン51の内部電位Ih(t)は前述の関数Fを用いて下記[数5]のように記述できる。CONPでは、pnfd(t)、pmfd(t)を閾値の動的変化量として扱う(但し、閾値THを変化させる代りに、閾値THと比較する内部電位Ih(t)をpnfd(t)、pmfd(t)により調整する)ことでCLニューロン51が1個だけ発火する状態を保持する。このため、減衰時定数τfdは時定数τに対して充分大きいものとする。 Here, the outputs of the NFD neuron 61 and the MFD neuron 62 at time t are y nfd (t) and y mfd (t), respectively, and the connection weights of the CL neurons 51 to the NFD neuron 61 and the MFD neuron 62 are w fd and − Assuming w fd (where w fd > 0), the internal potential I h (t) of the CL neuron 51 of number h at time t can be described using the function F as shown in [Formula 5] below. In CONP, p nfd (t) and p mfd (t) are treated as dynamic variations of the threshold (however, instead of changing the threshold TH, the internal potential I h (t) to be compared with the threshold TH is changed to p nfd ( t) and p mfd (t) to maintain the state in which only one CL neuron 51 is fired. For this reason, the decay time constant τ fd is sufficiently large with respect to the time constant τ.
各CLニューロン部51Hは、CLニューロン51の入力端子511、…、51nに相当するn個の入力端子と、それらの入力端子から入力されたn個の入力パルスx1(t),x2(t),…,xn(t)に対してそれぞれ重みを乗じるn個のAND回路71と、各AND回路71からの出力を内部電位に加算する加算器72と、ビットシフトと補数表現とにより内部電位を減衰して加算器72に出力する減衰生成部73と、加算器72から出力された内部電位と閾値とを比較する比較器74とを備え、比較器74は、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合にはyh(t)=1、それ以外の場合にはyh(t)=0を出力する。なお、比較器74には、後述するように、動的な閾値変化量としてpnfd(t)、pmfd(t)が、内部電位の抑制量としてSpcw(t)が入力され、比較器74は、これらの値で上記[数6]のように内部電位を調整してから閾値と比較する。 Each CL neuron unit 51H includes n input terminals corresponding to the input terminals 511,..., 51n of the CL neuron 51 and n input pulses x 1 (t), x 2 ( t),..., x n (t) each multiplied by n AND circuits 71, an adder 72 for adding the output from each AND circuit 71 to the internal potential, and bit shift and complement expression. An attenuation generation unit 73 that attenuates the internal potential and outputs the same to the adder 72 and a comparator 74 that compares the internal potential output from the adder 72 with a threshold value are provided. If the refractory period has passed since the last firing, y h (t) = 1 is output, and y h (t) = 0 is output otherwise. As will be described later, the comparator 74 receives p nfd (t) and p mfd (t) as dynamic threshold change amounts and S pcw (t) as a suppression amount of the internal potential. In 74, after adjusting the internal potential with these values as in [Formula 6], it is compared with the threshold value.
NFDニューロン部61Hは、M個のCLニューロン部51Hの出力端子にそれぞれ接続されたM個の入力端子と、それらの入力端子から入力されたM個の入力パルスy1(t),y2(t),…,yM(t)に対してそれぞれ重みを乗じるM個のAND回路76と、各AND回路76からの出力を内部電位に加算する加算器77と、ビットシフトと補数表現とにより内部電位を減衰して加算器77に出力する減衰生成部78と、加算器77から出力された内部電位と閾値とを比較して、内部電位が閾値を超え、かつ、前回の発火時から不応期を経過している場合には1、それ以外の場合には0を出力する比較器79とを備え、M個の入力パルスが全て0のとき発火するように構成されている。 The NFD neuron unit 61H includes M input terminals respectively connected to the output terminals of the M CL neuron units 51H, and M input pulses y 1 (t), y 2 ( t),..., y M (t) are multiplied by M AND circuits 76, an adder 77 for adding the output from each AND circuit 76 to the internal potential, and bit shift and complement expression. The attenuation generation unit 78 that attenuates the internal potential and outputs it to the adder 77 is compared with the internal potential output from the adder 77 and the threshold value, and the internal potential exceeds the threshold value and has not been detected since the previous ignition. The comparator 79 outputs 1 when the deadline has passed and 0 otherwise, and is configured to ignite when all the M input pulses are 0.
MFDニューロン部62Hは、NFDニューロン部61Hと同様の構成であるが、重みや閾値を変更することにより、M個の入力パルスのうち複数が1のとき発火するように構成されている。 The MFD neuron unit 62H has the same configuration as that of the NFD neuron unit 61H, but is configured to fire when a plurality of M input pulses are 1 by changing weights and thresholds.
閾値変化量生成部63、64は、それぞれ各CLニューロン部51HにおけるNFDニューロン部61Hからの出力に対する局所膜電位pnfd(t)、pmfd(t)を生成する部分であり、本来は各CLニューロン部51Hが共通に備える部分であるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。 The threshold value change amount generation units 63 and 64 are portions that generate local membrane potentials p nfd (t) and p mfd (t) for the output from the NFD neuron unit 61H in each CL neuron unit 51H. Although the neuron unit 51H is provided in common, the weight and the decay time constant are not changed by the CL neuron unit 51H. Therefore, the neuron unit 51H is extracted from each CL neuron unit 51H to be one unit as a whole.
閾値変化量生成部63は、NFDニューロン部61Hからの出力に対して重みwfdを乗じるAND回路81と、AND回路81からの出力を局所膜電位に加算する加算器82と、ビットシフトと補数表現とにより局所膜電位を減衰して加算器82に出力する減衰生成部83とを備え、閾値の動的変化量として、加算器82から局所膜電位pnfd(t)を各CLニューロン部51Hの比較器74に出力する。 The threshold value change amount generation unit 63 includes an AND circuit 81 that multiplies the output from the NFD neuron unit 61H by a weight w fd , an adder 82 that adds the output from the AND circuit 81 to the local membrane potential, bit shift and complement An attenuation generation unit 83 that attenuates the local membrane potential according to the expression and outputs the attenuated local membrane potential to the adder 82. The CL membrane unit 51H receives the local membrane potential p nfd (t) from the adder 82 as the dynamic change amount of the threshold. Output to the comparator 74.
閾値変化量生成部64は、閾値変化量生成部63と同様の構成を有し、各CLニューロン部51HにおけるMFDニューロン部62Hからの出力に対する局所膜電位pmfd(t)を生成して、閾値の動的変化量として、各CLニューロン部51Hの比較器74に出力する。 The threshold variation generator 64 has the same configuration as the threshold variation generator 63, generates a local membrane potential p mfd (t) for the output from the MFD neuron 62H in each CL neuron 51H, Is output to the comparator 74 of each CL neuron unit 51H.
内部電位抑制量生成部65は、上述した入力信号のノルム変動に対する内部電位の変化の抑制量Spcw(t)を生成する部分であり、本来は、各CLニューロン部51Hにおいて、固定重み1のシナプス部54iにおける局所膜電位pcwi(t)の総和に一定の比率βpcwを乗じて生成するものであるが、CLニューロン部51Hによって重みや減衰時定数は変わらないので、各CLニューロン部51Hから取り出して全体で1個としたものである。内部電位抑制量生成部65は、n個の入力パルスに対してそれぞれ固定の重みを乗じるAND回路86と、AND回路86からの出力を内部電位に加算する加算器87と、ビットシフトと補数表現とにより内部電位を減衰して加算器87に出力する減衰生成部88とを備え、内部電位を抑制量Spcw(t)として、加算器87から各CLニューロン部51Hの比較器74に出力する。なお、各AND回路86における重みを上記比率βpcwとすることで、比率βpcwの乗算を実現している。 The internal potential suppression amount generation unit 65 is a portion that generates the suppression amount S pcw (t) of the change in internal potential with respect to the norm fluctuation of the input signal described above. Originally, each CL neuron unit 51H has a fixed weight of 1 The total sum of local membrane potentials pcw i (t) in the synapse part 54i is generated by multiplying by a constant ratio β pcw , but the weight and the decay time constant are not changed by the CL neuron part 51H, so each CL neuron part 51H It is taken out from the whole to make one. The internal potential suppression amount generation unit 65 includes an AND circuit 86 that multiplies each of n input pulses by a fixed weight, an adder 87 that adds the output from the AND circuit 86 to the internal potential, bit shift, and complement expression. And an attenuation generation unit 88 that attenuates the internal potential and outputs it to the adder 87, and outputs the internal potential as a suppression amount S pcw (t) from the adder 87 to the comparator 74 of each CL neuron unit 51H. . Note that multiplication by the ratio β pcw is realized by setting the weight in each AND circuit 86 to the ratio β pcw .
なお、図15に示すCONPのハードウェア構成例では、学習機構(各CLニューロン部51Hにおける重みの更新機構)は搭載されていない。これは、学習は後述するようなソフトウェアによるシミュレーションで行って、重みを決定しておき、その重みをハードウェア上に設定すればよいからである。勿論、学習機構のハードウェア化も可能であるが、回路構成の容易化や回路サイズの縮小のためには、学習をソフトウェア上で行って重みを決定する方がよい。 Note that the CONNP hardware configuration example shown in FIG. 15 does not include a learning mechanism (a weight update mechanism in each CL neuron unit 51H). This is because learning may be performed by software simulation as will be described later, weights are determined, and the weights are set on the hardware. Of course, the learning mechanism can be implemented in hardware, but in order to facilitate the circuit configuration and reduce the circuit size, it is better to perform learning on software and determine the weight.
左右方向検出部10は、図16に示すように、CLニューロン51を複数(ここでは16個)有するCONPから構成されている。16個のCLニューロン51は、番号1のものから番号16のものまで1列に並べられており、番号が近いものほど距離が近いとする。各CLニューロン51には、時間差検出部8から出力された時間差情報(ここではベクトルyMSO(t))が入力される。左右方向検出部10は、学習の結果、入力ベクトルyMSO(t)をその類似関係を保持したまま量子化可能となる。すなわち、左右方向検出部10は、認識時には、互いに類似度の高いベクトルが入力されたときは互いに近いCLニューロン51が発火し、互いに類似度の低いベクトルが入力されたときは互いに遠いCLニューロン51が発火することとなる。これにより、認識時には、左右方向検出部10からは、音源の左右方向における方向情報が、どのCLニューロン51が発火するかで示されることとなる。 As shown in FIG. 16, the left-right direction detection unit 10 includes a CONP having a plurality (16 in this case) of CL neurons 51. The 16 CL neurons 51 are arranged in a line from number 1 to number 16, and the closer the number, the closer the distance. Each CL neuron 51 receives time difference information (here, vector y MSO (t)) output from the time difference detection unit 8. As a result of learning, the left-right direction detection unit 10 can quantize the input vector y MSO (t) while maintaining the similarity relationship. That is, at the time of recognition, the left and right direction detection unit 10 fires CL neurons 51 that are close to each other when vectors having a high degree of similarity are input, and CL neurons 51 that are far from each other when vectors having a low degree of similarity are input. Will be ignited. Thereby, at the time of recognition, the direction information in the left-right direction of the sound source is indicated from the left-right direction detection unit 10 according to which CL neuron 51 fires.
前後方向検出部11も、図16に示すように、左右方向検出部10と同様に1列に並べられた16個のCLニューロン51を有するCONPから構成され、各CLニューロン51には、音圧差検出部9から出力された音圧差情報(ここではベクトルyLSO(t))が入力される。前後方向検出部11は、左右方向検出部10と同様に、学習の結果、入力ベクトルyLSO(t)をその類似関係を保持したまま量子化可能となり、認識時には、音源の前後方向における方向情報が、どのCLニューロン51が発火するかで示されることとなる。 As shown in FIG. 16, the front-rear direction detection unit 11 is also composed of a CONP having 16 CL neurons 51 arranged in a line, like the left-right direction detection unit 10, and each CL neuron 51 includes a sound pressure difference. The sound pressure difference information (here, vector y LSO (t)) output from the detector 9 is input. As in the case of the left / right direction detection unit 10, the front / rear direction detection unit 11 can quantize the input vector y LSO (t) while maintaining the similarity as a result of learning. Is indicated by which CL neuron 51 fires.
8方向検出部12は、図16に示すように、CLニューロン51を複数(ここでは、識別しようとする方向に応じて8個)有したCONPから構成されている。8個のCLニューロン51は、番号1のものから番号8のものまで1列に並べられており、番号が近いものほど距離が近いものとする。各CLニューロン51には、左右方向検出部10から出力された16個のパルスと、前後方向検出部11から出力された16個のパルスとからなる32個のパルスを要素とするベクトルが入力される。8方向検出部12は、学習の結果、入力ベクトルをその類似関係を保持したまま量子化可能となり、認識時には、8方向検出部12からは、周囲の8方向における音源の方向情報が、どのCLニューロン51が発火するかで示されることとなる。 As shown in FIG. 16, the eight-direction detection unit 12 includes a CONP having a plurality of CL neurons 51 (here, eight in accordance with the direction to be identified). The eight CL neurons 51 are arranged in a line from number 1 to number 8, and the closer the number, the closer the distance. Each CL neuron 51 is input with a vector whose elements are 32 pulses including 16 pulses output from the left-right direction detection unit 10 and 16 pulses output from the front-rear direction detection unit 11. The As a result of learning, the 8-direction detection unit 12 can quantize the input vector while maintaining the similarity, and at the time of recognition, the 8-direction detection unit 12 receives the direction information of the sound source in the surrounding 8 directions from which CL. This is indicated by whether the neuron 51 fires.
上述したようにCONPは簡単なディジタル回路で実現可能であることから、左右方向検出部10、前後方向検出部11、及び、8方向検出部12も簡単なディジタル回路で実現可能である。 Since the CONP can be realized with a simple digital circuit as described above, the left-right direction detection unit 10, the front-rear direction detection unit 11, and the 8-direction detection unit 12 can also be realized with a simple digital circuit.
以下に、音源定位装置1の本体部4をコンピュータ上にソフトウェアで実現し、シミュレーションを行った結果について説明する。実験は無響室で、スピーカである音源Sを前方指向性のマイクロホン2、3に対して図17に示すように配置して行った。なお、マイクロホン2、3間の間隔を30cm、図17(a)のように置いたときのマイクロホン2、3の中間点Cから音源Sまでの距離を100cm、図中の矢印方向を音源定位装置1にとっての前方とした。そして、音源Sのマイクロホン2、3に対する位置を、図17(a)〜(h)のように45°ずつ変化させた各位置において、コンピュータにより生成したホワイトノイズを音源Sから発し、マイクロホン2、3から集音した音を本体部4に入力した。実験パラメータを表1〜5に示す。 Below, the result of having performed the simulation by realizing the main body 4 of the sound source localization apparatus 1 on a computer with software will be described. The experiment was performed in an anechoic chamber with the sound source S as a speaker arranged as shown in FIG. It should be noted that the distance between the microphones 2 and 3 is 30 cm, the distance from the midpoint C of the microphones 2 and 3 to the sound source S when placed as shown in FIG. 17A is 100 cm, and the direction of the arrow in FIG. It was the front for 1. Then, the white noise generated by the computer is emitted from the sound source S at each position where the position of the sound source S with respect to the microphones 2 and 3 is changed by 45 ° as shown in FIGS. The sound collected from 3 was input to the main unit 4. Experimental parameters are shown in Tables 1-5.
なお、左右方向検出部10及び前後方向検出部11における学習は、図14−2で示したようなSOMに基づく教師なし学習を行い、8方向検出部12における学習は、一般的な教師あり学習であるLVQに基づく学習を行った。すなわち、8方向検出部12においては、番号1〜8のCLニューロン51をそれぞれ0°〜315°の方向を示すCLニューロン51と決め、データを入力した場合に発火したCLニューロン51が正しければ(例えば、0°のデータを入力した場合に発火したCLニューロン51が番号1であれば)、そのCLニューロン51の参照ベクトルを入力ベクトルに近づけ、間違っていればそのCLニューロン51の参照ベクトルを入力ベクトルから遠ざける学習を行った。学習は勝者ニューロンのみが行うものとした。 The learning in the left-right direction detection unit 10 and the front-rear direction detection unit 11 performs unsupervised learning based on the SOM as shown in FIG. 14-2, and the learning in the 8-direction detection unit 12 is general supervised learning. Learning based on LVQ was performed. That is, in the 8-direction detection unit 12, the CL neurons 51 of numbers 1 to 8 are determined as the CL neurons 51 indicating directions of 0 ° to 315 °, respectively, and if the CL neurons 51 fired when data is input are correct ( For example, if the CL neuron 51 fired when data of 0 ° is input is number 1), the reference vector of the CL neuron 51 is brought close to the input vector, and if it is incorrect, the reference vector of the CL neuron 51 is input. We learned to keep away from the vector. Learning was performed only by the winner neuron.
学習後、図17(a)〜(h)の各位置において音源Sからホワイトノイズを発し、音源定位装置1に認識を行わせたときの左右方向検出部10、前後方向検出部11、8方向検出部12からの出力結果を、それぞれ、表6、7、8に示す。 After learning, white noise is emitted from the sound source S at each position in FIGS. 17A to 17H, and the left / right direction detection unit 10 and the front / rear direction detection units 11 and 8 when the sound source localization apparatus 1 performs recognition are used. The output results from the detection unit 12 are shown in Tables 6, 7, and 8, respectively.
表8においてNo.1〜8は8方向検出部12のCLニューロン51の番号である。例えば0°の方向(図17(a)に示す位置)から入力信号を発した場合、CLニューロン51の発火率はNo.1が99.4%、No.2〜7が0.0%、No.8が0.6%である。同様に、45°の方向(図17(b)に示す位置)の場合には、No.2の発火率が86.1%、90°の方向(図17(c)に示す位置)の場合には、No.3の発火率が92.6%である等、8方向検出部12では、入力信号の方向に応じたCLニューロン51の発火頻度が最高となっていることが分かり、周囲の8方向におけるいずれの方向から入力信号が来たかが、CLニューロン51の発火により識別できることが分かる。 In Table 8, Nos. 1 to 8 are the numbers of the CL neurons 51 of the eight-direction detection unit 12. For example, when an input signal is emitted from the direction of 0 ° (position shown in FIG. 17A), the firing rate of the CL neuron 51 is 99.4% for No. 1, 0.0% for No. 2 to 7, and No. 8 for No. 8. 0.6%. Similarly, in the case of 45 ° direction (position shown in FIG. 17B), the firing rate of No. 2 is 86.1%, and in the case of 90 ° direction (position shown in FIG. 17C). It can be seen that the firing rate of the CL neuron 51 corresponding to the direction of the input signal is the highest in the 8-direction detection unit 12 such that the firing rate of No. 3 is 92.6%. It can be seen from the firing of the CL neuron 51 whether the input signal has come from the direction of.
以上述べたように、音源定位装置1は、時間差検出部8が音の時間差の検出を行い、音圧差検出部9が音圧差の検出を行い、左右方向検出部10が時間差情報のベクトル量子化を行って左右方向における方向情報として出力し、前後方向検出部11が音圧差情報のベクトル量子化を行って前後方向における方向情報として出力し、8方向検出部12が左右方向及び前後方向における方向情報のベクトル量子化を行って周囲の8方向における方向情報として出力する。これらの検出はPNモデルで行われ、ベクトル量子化はPNモデルからなるCONPにより行われる。PNモデルは上述したように簡単なディジタル回路で実現可能であるため、時間差検出部8、音圧差検出部9、左右方向検出部10、前後方向検出部11、及び、8方向検出部12も簡単なディジタル回路で実現可能であり、FPGAへの搭載も容易である。したがって、音源定位装置1はハードウェア実装上有利である。そして、時間差検出部8等をディジタル回路で実現すれば、各PNモデルにおける演算はディジタル回路上で並列的に実行されることとなるため、実用的な演算速度を実現可能である。 As described above, in the sound source localization apparatus 1, the time difference detection unit 8 detects the time difference of the sound, the sound pressure difference detection unit 9 detects the sound pressure difference, and the left / right direction detection unit 10 performs vector quantization of the time difference information. Are output as direction information in the left-right direction, the front-rear direction detection unit 11 performs vector quantization of the sound pressure difference information and outputs it as direction information in the front-rear direction, and the 8-direction detection unit 12 is a direction in the left-right direction and the front-rear direction. Vector quantization of the information is performed and output as direction information in the surrounding eight directions. These detections are performed using a PN model, and vector quantization is performed using a CONP including a PN model. Since the PN model can be realized by a simple digital circuit as described above, the time difference detection unit 8, the sound pressure difference detection unit 9, the left / right direction detection unit 10, the front / rear direction detection unit 11, and the eight direction detection unit 12 are also simple. It can be realized with a simple digital circuit and can be easily mounted on an FPGA. Therefore, the sound source localization apparatus 1 is advantageous in terms of hardware implementation. If the time difference detection unit 8 or the like is realized by a digital circuit, the calculation in each PN model is executed in parallel on the digital circuit, so that a practical calculation speed can be realized.
なお、音源定位装置1では、8方向検出部12を設けて、左右方向検出部10及び前後方向検出部11からの出力を8方向検出部12に入力し、8方向検出部12から周囲の複数方向における音源の方向情報を出力するようにしたが、8方向検出部12を設けるか否かは任意である。例えば8方向検出部12を設けずに、左右方向検出部10から出力された方向情報に基づいて左右方向における方向を推定し、前後方向検出部11から出力された方向情報に基づいて前後方向における方向を推定して、それらの推定結果をそのまま表示装置5に出力して表示するようにしてもよい。但し、8方向検出部12のような周囲方向検出手段を設ければ、音源の方向識別が容易である。 In the sound source localization apparatus 1, an 8-direction detection unit 12 is provided, and outputs from the left-right direction detection unit 10 and the front-rear direction detection unit 11 are input to the 8-direction detection unit 12. Although the direction information of the sound source in the direction is output, whether or not the eight-direction detection unit 12 is provided is arbitrary. For example, without providing the 8-direction detection unit 12, the direction in the left-right direction is estimated based on the direction information output from the left-right direction detection unit 10, and in the front-rear direction based on the direction information output from the front-rear direction detection unit 11. The direction may be estimated, and those estimation results may be directly output to the display device 5 and displayed. However, if a surrounding direction detection unit such as the 8-direction detection unit 12 is provided, the direction of the sound source can be easily identified.
1…音源定位装置
2、3…マイクロホン
8…時間差検出部
9…音圧差検出部
10…左右方向検出部
11…前後方向検出部
12…8方向検出部
DESCRIPTION OF SYMBOLS 1 ... Sound source localization apparatus 2, 3 ... Microphone 8 ... Time difference detection part 9 ... Sound pressure difference detection part 10 ... Left-right direction detection part 11 ... Front-back direction detection part 12 ... 8 direction detection part
Claims (2)
前記各マイクロホンで集音された音の時間差情報を、パルスニューロンモデルにより検出する時間差検出手段と、
前記各マイクロホンで集音された音の音圧差情報を、パルスニューロンモデルにより検出する音圧差検出手段と、
前記時間差検出手段で検出された音の時間差情報に基づいて、左右方向における音源の方向情報をパルスニューロンモデルにより検出する左右方向検出手段と、
前記音圧差検出手段で検出された音の音圧差情報に基づいて、前後方向における音源の方向情報をパルスニューロンモデルにより検出する前後方向検出手段と、
を備えることを特徴とする音源定位装置。 Two microphones each having front directivity, spaced apart from each other on the left and right, one facing forward and the other facing backward;
Time difference detection means for detecting time difference information of the sound collected by each microphone using a pulse neuron model;
Sound pressure difference detection means for detecting the sound pressure difference information of the sound collected by each microphone using a pulse neuron model;
Based on the time difference information of the sound detected by the time difference detection means, left and right direction detection means for detecting the direction information of the sound source in the left and right direction by a pulse neuron model,
Based on the sound pressure difference information of the sound detected by the sound pressure difference detection means, the front-rear direction detection means for detecting the direction information of the sound source in the front-rear direction by a pulse neuron model;
A sound source localization apparatus comprising:
Based on the direction information of the sound source in the left-right direction detected by the left-right direction detection unit and the direction information of the sound source in the front-rear direction detected by the front-rear direction detection unit, the direction information of the sound source in a plurality of surrounding directions is pulsed 2. The sound source localization apparatus according to claim 1, further comprising a surrounding direction detection means for detecting by a neuron model.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007283742A JP4958172B2 (en) | 2007-10-31 | 2007-10-31 | Sound source localization device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007283742A JP4958172B2 (en) | 2007-10-31 | 2007-10-31 | Sound source localization device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2009109868A JP2009109868A (en) | 2009-05-21 |
JP4958172B2 true JP4958172B2 (en) | 2012-06-20 |
Family
ID=40778394
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007283742A Expired - Fee Related JP4958172B2 (en) | 2007-10-31 | 2007-10-31 | Sound source localization device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4958172B2 (en) |
Families Citing this family (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5772447B2 (en) | 2011-09-27 | 2015-09-02 | 富士ゼロックス株式会社 | Speech analyzer |
JP6031761B2 (en) | 2011-12-28 | 2016-11-24 | 富士ゼロックス株式会社 | Speech analysis apparatus and speech analysis system |
KR101963440B1 (en) * | 2012-06-08 | 2019-03-29 | 삼성전자주식회사 | Neuromorphic signal processing device for locating sound source using a plurality of neuron circuits and method thereof |
CN102819009B (en) * | 2012-08-10 | 2014-10-01 | 香港生产力促进局 | Driver sound localization system and method for automobile |
JP7052630B2 (en) | 2018-08-08 | 2022-04-12 | 富士通株式会社 | Sound source direction estimation program, sound source direction estimation method, and sound source direction estimation device |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS61105198A (en) * | 1984-10-29 | 1986-05-23 | Kiyoaki Kakegawa | Sound signal having directional information in vertical direction as tone characteristic of regenerative sound and its detection method |
JP3795610B2 (en) * | 1997-01-22 | 2006-07-12 | 株式会社東芝 | Signal processing device |
JP2000322074A (en) * | 1999-05-13 | 2000-11-24 | Denso Corp | Voice input section determination device, aural data extraction device, speech recognition device, vehicle navigation device and input microphone |
JP3599653B2 (en) * | 2000-09-06 | 2004-12-08 | 日本電信電話株式会社 | Sound pickup device, sound pickup / sound source separation device and sound pickup method, sound pickup / sound source separation method, sound pickup program, recording medium recording sound pickup / sound source separation program |
JP4119112B2 (en) * | 2001-11-05 | 2008-07-16 | 本田技研工業株式会社 | Mixed sound separator |
JP2007164027A (en) * | 2005-12-16 | 2007-06-28 | Nagoya Institute Of Technology | Time difference detector |
-
2007
- 2007-10-31 JP JP2007283742A patent/JP4958172B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2009109868A (en) | 2009-05-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4982743B2 (en) | Sound source localization / identification device | |
ES2373511T3 (en) | VOCAL ACTIVITY DETECTOR IN MULTIPLE MICROPHONES. | |
CN107864440B (en) | Hearing aid system comprising an EEG recording and analysis system | |
JP4958172B2 (en) | Sound source localization device | |
EP4033784A1 (en) | A hearing device comprising a recurrent neural network and a method of processing an audio signal | |
US11696079B2 (en) | Hearing device comprising a recurrent neural network and a method of processing an audio signal | |
JP5279010B2 (en) | Wearable sound recognition device | |
US20130294611A1 (en) | Source separation by independent component analysis in conjuction with optimization of acoustic echo cancellation | |
WO2005029467A1 (en) | A method for recovering target speech based on amplitude distributions of separated signals | |
CN103428609A (en) | Apparatus and method for removing noise | |
Furnon et al. | DNN-based mask estimation for distributed speech enhancement in spatially unconstrained microphone arrays | |
US6442510B1 (en) | Method and apparatus for determining transit-time differentials for signal waveforms for real-time pattern recognition, localization and monitoring of optical and acoustic signals | |
Pu et al. | A joint auditory attention decoding and adaptive binaural beamforming algorithm for hearing devices | |
Brendel et al. | Spatially guided independent vector analysis | |
Liu et al. | Head‐related transfer function–reserved time‐frequency masking for robust binaural sound source localization | |
WO2020129231A1 (en) | Sound source direction estimation device, sound source direction estimation method and sound source direction estimation program | |
CN110441730B (en) | Microphone array sound source orientation system based on analog signal processing architecture | |
Reddy et al. | A joint sparsity and linear regression based method for customization of median plane HRIR | |
Geirnaert et al. | EEG-based auditory attention decoding: Towards neuro-steered hearing devices | |
EP1395080A1 (en) | Device and method for filtering electrical signals, in particular acoustic signals | |
JP5658588B2 (en) | Hearing presence evaluation device and hearing presence evaluation program | |
Sasikala et al. | Efficient digit serial architecture for sign based least mean square adaptive filter for denoising of artefacts in ECG signals | |
Xiao et al. | A biologically plausible spiking model for interaural level difference processing auditory pathway in human brain | |
KR20150097167A (en) | An electrocardiogram (ecg) sensor and a method of operating the same | |
Hemmert et al. | Temporal sound processing by cochlear nucleus octopus neurons |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101027 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120206 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120221 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120314 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150330 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |