JP2001272458A - Data time-series merging method - Google Patents

Data time-series merging method

Info

Publication number
JP2001272458A
JP2001272458A JP2000088335A JP2000088335A JP2001272458A JP 2001272458 A JP2001272458 A JP 2001272458A JP 2000088335 A JP2000088335 A JP 2000088335A JP 2000088335 A JP2000088335 A JP 2000088335A JP 2001272458 A JP2001272458 A JP 2001272458A
Authority
JP
Japan
Prior art keywords
sound source
information
frequency
period
source information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2000088335A
Other languages
Japanese (ja)
Inventor
Mitsuru Yamada
充 山田
Yoshio Okita
芳雄 沖田
Hiroshi Manzouji
博 萬造寺
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2000088335A priority Critical patent/JP2001272458A/en
Publication of JP2001272458A publication Critical patent/JP2001272458A/en
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a data time-series merging method which is higher in the accuracy of merging than before and reduces the load of operation on an operator by automation. SOLUTION: According to the output data from a sound source which have been passed through a signal processor 1 including a sound sensor, a signal detecting and tracking device 2, a data integrating device 3, a target discriminating device 4, and a target movement analyzing device 5, a data merging decision device 6 merges two pieces of sound source information succeeding in the undetactable period of sound source information temporally on condition that two entity names found from the sound source information in the observation periods before and after the undetectable period of the sound source information match each other and are both larger in accuracy than a prescribed value and the azimuth component of the sound source information detected in the observation period after the undetectable period is included in the detection predicted azimuth range of the sound source which is found in the observation period of the undetectable period and a specific time later.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、音響センサを用い
て一音源から得られる複数の信号を自動的に検出・追尾
する処理において、ある音源の観測期間中にそれまで検
出していた音源情報が一旦検出不能となり、その後一定
の期間内に再び音源情報が検出された場合、音源情報の
検出不能期間の前と後のタイミングの2つの音源情報が
同一目標であるか否かの判別を自動的に行い、この判別
結果に基づき2つの音源情報を時間的に結合するデータ
時系列結合方法に関すものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a process for automatically detecting and tracking a plurality of signals obtained from a single sound source using an acoustic sensor. If the sound source information is once detected and the sound source information is detected again within a certain period thereafter, it is automatically determined whether or not the two sound source information before and after the sound source information undetectable period have the same target. The present invention relates to a data time series combining method for temporally combining two sound source information based on a result of the determination.

【0002】[0002]

【従来の技術】音響センサを用いて一音源から得られる
複数の信号を自動的に検出・追尾する処理において、本
来同一音源であるその処理結果のデータが、その観測時
間により、複数の同一目標だと認識されるような場合、
従来は主に自動検出追尾処理の結果により、センサシス
テムの操作員が手動で複数目標を指定することにより、
データの時系列結合が行われていた。
2. Description of the Related Art In a process of automatically detecting and tracking a plurality of signals obtained from one sound source by using an acoustic sensor, data of a processing result which is originally the same sound source is set to a plurality of same targets by an observation time. Is recognized as
Conventionally, the operator of the sensor system manually specifies multiple targets mainly based on the result of the automatic detection and tracking process,
Time-series joining of data was performed.

【0003】図5は従来の検出目標の結合操作の説明図
である。自動検出追尾処理では、音源の周波数に関する
情報、方位に関する情報が得られるが、操作員は特に方
位に関する情報を見ながら結合操作を行っている。図5
の説明図のように、操作員は時系列に並ぶその方位情報
から異なる2目標である目標Aと目標Cは同一目標であ
ると認識し、データの結合の操作を行う。なお、図の枠
内の太い矢印は、“矢印の左側は右側を意味する”、ま
たは“矢印の左側であるなら矢印の右側である”と読
む。
FIG. 5 is an explanatory view of a conventional operation for joining detection targets. In the automatic detection and tracking processing, information relating to the frequency of the sound source and information relating to the azimuth can be obtained. However, the operator performs the combining operation while particularly viewing the information relating to the azimuth. FIG.
The operator recognizes that the two different targets A and C are the same target based on the azimuth information arranged in chronological order, and performs an operation of combining data. Note that the thick arrow in the figure frame reads “the left side of the arrow means the right side” or “if the left side of the arrow is the right side of the arrow”.

【0004】[0004]

【発明が解決しようとする課題】しかしながら上記のよ
うな従来の目標結合方法では下記(1),(2)の問題
があった。 (1)結合する目標の候補が複数あった場合の結合の正
確性の向上の問題 図6は従来の目標結合における課題の説明図である。従
来の方法では図6に示すように、方位情報のみでは結合
できる可能性のある目標が複数存在する場合、本来目標
Aと目標Cを結合するものを操作員の誤認識、誤操作に
より目標Aと目標Dを結合してしまう場合がある。そこ
で従来操作員が行っていた方位情報に基づく結合操作の
ほかに、自動検出追尾処理で得られる周波数情報による
データ処理を加える事により、複数存在する結合候補の
中から組み合わせとしてより確からしいものを絞り込む
処理が必要となった。
However, the conventional target combining method as described above has the following problems (1) and (2). (1) Problem of Improving the Accuracy of Combining When There Are Multiple Target Candidates to be Combined FIG. 6 is an explanatory diagram of a problem in the conventional target combining. In the conventional method, as shown in FIG. 6, when there are a plurality of targets that can be combined only with the azimuth information, the operator who originally couples the target A and the target C is erroneously recognized as the target A due to erroneous recognition and erroneous operation. The target D may be combined. Therefore, in addition to the joining operation based on the azimuth information, which was conventionally performed by the operator, by adding data processing based on the frequency information obtained by the automatic detection and tracking process, a more plausible combination as a combination from multiple existing joining candidates Processing to narrow down was required.

【0005】(2)操作の自動化の問題 従来操作員が行っていた操作を計算機上で自動的に行う
ことにより、操作員の負担を軽減したいという課題があ
る。従来データ結合操作を行う上で、自動検出追尾して
いる目標の周波数情報は操作員に対して提供してきた。
しかしその情報を操作員が参照するには、画面の切り替
えなどによる視点の変更や画面を呼び出す際の操作、デ
ータの複雑度が増すことによる操作員に与える情報量の
増大など、操作員に対しての負荷が増大する傾向にあ
る。従って操作員に対するこれらの負荷を軽減するため
に、操作を自動化する必要に迫られてきた。
(2) Problem of Automation of Operation There is a problem that the burden on the operator should be reduced by automatically performing the operation conventionally performed by the operator on a computer. Conventionally, in performing a data combining operation, frequency information of a target automatically detected and tracked has been provided to an operator.
However, the operator can refer to the information by changing the viewpoint by switching screens, performing an operation when calling the screen, or increasing the amount of information given to the operator due to the increased complexity of data. Load tends to increase. Therefore, in order to reduce these loads on the operator, it has been necessary to automate the operation.

【0006】[0006]

【課題を解決するための手段】本発明に係るデータ時系
列結合方法は、観測期間中は、指向性を有する音響セン
サを介して受波した音源からの音響信号を周波数分析し
て各受波方位及び周波数毎の信号強度データを求め、該
データに基づき音源情報の検出と追尾を行い、同一音源
と判定された方位情報及び周波数情報を統合し、該統合
周波数情報に基づき音源の実体名及びその確信度を求め
ると共に、時系列に得られる方位及び周波数情報に基づ
く目標運動解析により音源の所定時間後の検出予測方位
範囲及び予測精度を求めるようにし、前記観測期間中に
それまで検出していた音源情報が一旦検出不能となり、
その後一定の期間内に再び検出可能となった音源情報が
有る場合、前記音源情報の検出不能期間の前と後の観測
期間にそれぞれ検出された2つの音源情報を時間的に結
合できるか否かの判定条件として、 (1)前記音源情報の検出不能期間の前後の観測期間に
それぞれ音源情報から求めた2つの実体名が一致し且つ
各実体名についての確信度が共に規定値以上であるこ
と。 (2)前記音源情報の検出不能期間の前の観測期間に求
めた音源の所定時間後の検出予測方位範囲内に検出不能
期間の後の観測期間に検出した音源情報の方位成分が含
まれること。の上記(1),(2)の判定条件を共に満
足する場合に前記音源情報の検出不能期間の前後の観測
期間にそれぞれ検出された2つの音源情報を時間的に結
合するものである。
According to the data time series combining method of the present invention, during the observation period, the frequency of an acoustic signal from a sound source received via an acoustic sensor having directivity is analyzed and each received signal is analyzed. Obtain signal strength data for each direction and frequency, perform detection and tracking of sound source information based on the data, integrate direction information and frequency information determined to be the same sound source, and based on the integrated frequency information, the entity name of the sound source and In addition to obtaining the certainty factor, the target motion analysis based on the azimuth and frequency information obtained in time series is used to obtain the detection prediction azimuth range and the prediction accuracy of the sound source after a predetermined time, and the detection has been performed during the observation period. Sound source information once becomes undetectable,
If there is sound source information that can be detected again within a certain period thereafter, whether or not the two sound source information detected respectively in the observation periods before and after the undetectable period of the sound source information can be temporally combined is determined. (1) The two entity names obtained from the sound source information match during the observation period before and after the sound source information cannot be detected, and the certainty factor for each entity name is both a specified value or more. . (2) The azimuth component of the sound source information detected in the observation period after the undetectable period is included in the detection azimuth range after a predetermined time of the sound source obtained in the observation period before the undetectable period of the sound source information. . When both of the above-mentioned determination conditions (1) and (2) are satisfied, the two pieces of sound source information detected respectively in the observation periods before and after the non-detection period of the sound source information are temporally combined.

【0007】[0007]

【発明の実施の形態】実施形態1 図1は本発明の実施形態1に係るデータ時系列結合装置
の構成図である。図1において、1は音響センサを内蔵
し、音源からの音響信号を音響センサの各ビーム毎に入
力し、フーリエ変換等により信号強度分布を得る信号処
理装置である。2は信号検出追尾装置である。信号検出
追尾装置2は、例えば「特開平9−15032号公報、
信号周波数追尾方法」に記述されているニューラルネッ
トワークを用いたピーク検出、イベント検出の処理及び
信号の周波数追尾、方位追尾を行う装置である。3はデ
ータ統合装置である。データ統合装置3は、例えば「特
開平9−49871号公報、データ統合方法及びその装
置」に記述されているデータ統合方法に基づき、複数検
出されている音源からの信号を、信号検出追尾装置2の
結果である方位情報によるマハラノビス距離に基づき同
一音源からの信号かを判定し、同一と判定された場合に
は方位情報、周波数情報を統合する装置である。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Embodiment 1 FIG. 1 is a configuration diagram of a data time series combining device according to Embodiment 1 of the present invention. In FIG. 1, reference numeral 1 denotes a signal processing device having a built-in acoustic sensor, inputting an acoustic signal from a sound source for each beam of the acoustic sensor, and obtaining a signal intensity distribution by Fourier transform or the like. Reference numeral 2 denotes a signal detection and tracking device. The signal detection and tracking device 2 is described in, for example, Japanese Patent Application Laid-Open No. 9-15032,
This is a device that performs peak detection and event detection processing using a neural network described in "Signal Frequency Tracking Method", and performs signal frequency tracking and azimuth tracking. 3 is a data integration device. The data integration device 3 converts a signal from a plurality of detected sound sources into a signal detection and tracking device 2 based on a data integration method described in, for example, Japanese Patent Application Laid-Open No. 9-49871, a data integration method and its device. This is a device that determines whether the signals are from the same sound source based on the Mahalanobis distance based on the azimuth information which is the result of the above, and integrates the azimuth information and the frequency information when it is determined that they are the same.

【0008】4は目標類識別装置である。目標類識別装
置4は、例えば「特開平9−329661号公報、目標
自動類別・識別方法」に記述されている機構別カタログ
との照合による音源の目標別確信度を算出する目標自動
類別・識別を行う(その音源が何であるかを確信度であ
らわす)装置である。5は目標運動解析装置である。目
標運動解析装置5は、例えば「特開平9−90012号
公報、目標運動解析方法」に記述されているように、デ
ータ統合装置3の処理結果である周波数情報、方位情報
を元に音源(移動体)の位置、速度に関する内部状態量
の推定を非線形最小自乗法やカルマンフィルタによって
行う、目標運動解析処理を行う装置である。6は本発明
に係るデータ結合判定装置である。データ結合判定装置
6は、目標類識別装置4の類識別結果を保持し、目標運
動解析装置5において、その対象となっている音源が一
旦検出出来なくなっていても、それまでの運動解析結果
が得られていたならば、その結果から音源が再検出され
た場合の存在範囲を予測する。この類識別結果と予測存
在範囲から、再検出した音源の中からデータの結合が可
能かどうか判定する装置である。
Reference numeral 4 denotes a target class identification device. The target class identification device 4 calculates a target target certainty factor of a sound source by comparing with a mechanism-specific catalog described in, for example, Japanese Patent Application Laid-Open No. 9-329661, a target automatic classification / identification method. (Representing the sound source as a certainty factor). Reference numeral 5 denotes a target motion analyzer. As described in, for example, “Japanese Unexamined Patent Application Publication No. 9-90012, Target Motion Analysis Method”, the target motion analysis device 5 generates a sound source (movement) based on frequency information and azimuth information that are the processing results of the data integration device 3. This is a device that performs a target motion analysis process in which the internal state quantities relating to the position and velocity of the body are estimated by a nonlinear least squares method or a Kalman filter. Reference numeral 6 denotes a data combination determination device according to the present invention. The data combination determination device 6 holds the classification result of the target classification device 4, and even if the target sound source cannot be detected once in the target motion analysis device 5, the motion analysis result up to that time is retained. If it has been obtained, the existence range when the sound source is detected again is predicted from the result. An apparatus that determines whether data can be combined from re-detected sound sources based on the classification result and the predicted existence range.

【0009】図2は図1の装置構成図に入出力信号を記
入した動作説明図であり、同図を参照し、最初に、信号
処理装置1から目標運動解析装置5までの動作概要を説
明する。信号処理装置1は、音響センサ(例えば、複数
の受波振動子がアレイ配列されて構成されるもの)を内
蔵し、この音響センサによって指向性を持った受波ビー
ムを形成する。そしてこの受波ビームの形成方位を走査
させ連続する方位範囲を監視すると、これらの受波ビー
ム群によって音源からの受波信号が得られる。信号処理
装置1では、前記受波ビーム群によって受波した信号に
ついて、フーリエ変換等の周波数分析を行い、各受波ビ
ーム(即ち各方位)及び周波数毎に信号強度データが得
られる。そして各方位及び周波数毎の信号強度データは
信号検出追尾装置2へ供給される。
FIG. 2 is an operation explanatory diagram in which input and output signals are entered in the device configuration diagram of FIG. 1. First, an outline of the operation from the signal processing device 1 to the target motion analysis device 5 will be described with reference to FIG. I do. The signal processing device 1 has a built-in acoustic sensor (for example, one in which a plurality of receiving transducers are arranged in an array), and forms a directional receiving beam using the acoustic sensor. When the formation direction of the received beam is scanned to monitor a continuous azimuth range, a received signal from a sound source is obtained by the received beam group. The signal processing device 1 performs frequency analysis such as Fourier transform on a signal received by the received beam group, and obtains signal intensity data for each received beam (that is, each direction) and each frequency. The signal strength data for each direction and frequency is supplied to the signal detection and tracking device 2.

【0010】信号検出追尾装置2では、入力する前記信
号強度データを用いて、音源の信号を検出し、周波数及
び方位方向のデータとして個々に追尾する。この検出し
た周波数及び方位方向の信号のデータを(f1 ,θ
1 ),(f2 ,θ2 ),……,(fn ,θn )とする。
データ統合装置3では、周波数及び方位方向のデータか
らマハラノビス距離に関する統合判定処理により、同一
音源からの信号だと判定されるデータを統合する。ここ
である時刻tのその統合結果のデータは((f1 ,f
2 ,……,fm ),θ)t となる。ここでθは、統合対
象となった個々の追尾データのうちの方位成分(θ1
θ2 ,……,θn )から得られる音源の代表方位であ
る。また、データ統合装置3では、時間的に連続する同
一音源からの統合結果データを統合結果データベースで
管理する。そのデータを次式(1)であらわす。ここで
0 は音源が最初に自動検出された時刻、t1 は音源が
自動検出された最新時刻である。
The signal detection and tracking device 2 detects a signal of a sound source using the input signal strength data and individually tracks the signals as frequency and azimuth data. The data of the detected frequency and azimuth signals is represented by (f 1 , θ
1 ), (f 2 , θ 2 ),..., (F n , θ n ).
The data integration device 3 integrates data determined to be signals from the same sound source from the data in the frequency and azimuth directions by an integration determination process regarding the Mahalanobis distance. Here, the data of the integration result at the time t is ((f 1 , f
2 ,..., F m ), θ) t . Here, θ is the azimuth component (θ 1 ,
θ 2 ,..., θ n ). The data integration device 3 manages integration result data from the same sound source that is continuous in time in an integration result database. The data is represented by the following equation (1). Here, t 0 is the time when the sound source is automatically detected first , and t 1 is the latest time when the sound source is automatically detected.

【0011】[0011]

【数1】 (Equation 1)

【0012】目標類識別装置4では、データ統合装置3
の結果のうちの周波数成分(f1 ,f2 ,……,fm
に着目し、デンプスター・シェファーの理論に基づい
て、音源の実体が何か(音源として、その周波数成分を
もつ実体は何か)を推定する。その結果の実体名を
bj、推定の根拠となった確からしさ(確信度)をCL
とする。
In the target class identifying device 4, the data integrating device 3
(F 1 , f 2 ,..., F m )
Based on Dempster-Scheffer's theory, what is the entity of the sound source (what is the entity having the frequency component as the sound source) is estimated. The entity name of the result is Obj , and the likelihood (confidence) that was the basis of the estimation is CL
And

【0013】一方、目標運動解析装置5では、時系列に
ならんでいるデータ統合結果データベースに格納されて
いるデータから、音源のT秒(例えば後述する60秒)
後の予測検出方位並びにその予測精度を算出する。この
目標運動解析処理は、一定の処理周期T毎に行う。いま
時刻t1で得られた情報Aから運動解析処理を行うと、
T秒後の時刻t2 で得られた新たな情報Bを前記Aに加
えて、それによって再び目標運動解析を行う。ここで、
前記音源のT秒後の予測検出方位におけるT秒と処理周
期Tとは同一時間であり、例えば1分(60秒)を用い
る。
On the other hand, in the target motion analysis device 5, the data stored in the time-series data integration result database is used to determine T seconds (for example, 60 seconds described later) of the sound source.
The later predicted detection direction and its prediction accuracy are calculated. This target motion analysis processing is performed at regular processing intervals T. Doing motion analysis processing from the information A obtained in now time t 1,
The new information B obtained at the time t 2 after T seconds is added to the above A, and thereby the target motion analysis is performed again. here,
T seconds in the predicted detection direction after T seconds of the sound source and the processing cycle T are the same time, and for example, 1 minute (60 seconds) is used.

【0014】時系列のデータΣ((f1 ,f2 ,……,
m ),θ)t の周波数成分のうち、代表的な1周波数
に着目し、非線形最小自乗法によるデータ処理を施すこ
とにより、以下の時系列データを得る事ができる。 Σ(θ,Δθ,Δd/d,1/d,F)t ここで、 θ:音響の検出方位(Σ((f1,f2,……,fm),
θ)tのθと同値) Δθ:音源の方位変化率 Δd:音源と音響センサとの距離変化率 d:音源と音響センサとの距離 F:音源の検出周波数群(f1 ,f2 ,……,fm )の
代表周波数である。 なお、代表周波数の選び方としては、次の(a)又は
(b)の周波数が用いられる。 (a)周波数群のうち、最も長時間連続して検出されて
いる周波数 (b)周波数群のうち、最も信号強度が高い周波数 この時系列データから、音源のT秒(例えば前記の60
秒)後の予測検出方位θt と予測精度σθt が算出でき
る。ここで予測精度σθt とは、観測域の雑音による方
位の観測誤差を考慮した値である。
The time-series data Σ ((f 1 , f 2 ,...,
f m), theta) of the frequency components of t, focusing on the typical first frequency, by performing data processing by the nonlinear least square method, it is possible to obtain the following time-series data. Σ (θ, Δθ, Δd / d, 1 / d, F) t where θ: sound detection direction (Σ ((f 1 , f 2 ,..., F m ),
θ) Equivalent to θ of t ) Δθ: Rate of change in direction of sound source Δd: Rate of change in distance between sound source and acoustic sensor d: Distance between sound source and acoustic sensor F: Detection frequency group of sound source (f 1 , f 2 ,...) , F m ). The following frequency (a) or (b) is used as a method of selecting the representative frequency. (A) Among the frequency groups, the frequency detected continuously for the longest time. (B) Among the frequency groups, the frequency with the highest signal strength. From this time-series data, T seconds of the sound source (for example,
Prediction and detection orientation theta t the prediction accuracy Shigumashita t after sec) can be calculated. Here, the prediction accuracy σθ t, is a value in consideration of the observation error of the orientation due to noise observation area.

【0015】次にデータ結合判定装置6の動作を説明す
る。以上の説明のように、データ結合判定装置6には、
信号処理装置1から目標類識別装置4、目標運動解析装
置5までのデータ処理の結果である、音源の実体名Obj
とそれに関する確信度、音源の検出予測方位θt と予測
精度σθt が供給される。この時の音源を目標Aとす
る。この状態における時刻t1 で目標Aの音源からの信
号が一旦途絶え、一定の期間内(例えば後述する30分
以内)のある時刻t2 に音源からの信号が再び検出され
たとする。この時刻t2 の時点からのデータ統合装置6
の結果を目標Bとし、方位成分に着目し図示したものが
図3であるとする。即ち図3は時系列に並ぶ2目標(目
標AとB)の方位情報を示す図である。ここで上記一定
の期間について説明する。目標類識別装置4内には、図
3のように目標方位×時間の2次元データを記憶するメ
モリがあるが、このメモリ容量から時間軸上の最大時間
が決まることになり、例えば30分である。従って30
分経過した時点でメモリのデータは消去されてしまうの
で、図3の時刻t1 からt2 までの最大許容時間(音源
情報の検出不能時間の上限値)は、この場合30分とな
る。
Next, the operation of the data combination judging device 6 will be described. As described above, the data combination determination device 6 includes:
The entity name O bj of the sound source, which is the result of data processing from the signal processing device 1 to the target class identification device 4 and the target motion analysis device 5
And confidence associated therewith, detection prediction orientation theta t the prediction accuracy Shigumashita t of the sound source are supplied. The sound source at this time is set as a target A. It is assumed that the signal from the sound source of the target A temporarily stops at time t 1 in this state, and the signal from the sound source is detected again at a certain time t 2 within a certain period (for example, within 30 minutes described later). The data integration device 6 from the time t 2
It is assumed that the result shown in FIG. 3 is the target B, and FIG. That is, FIG. 3 is a diagram showing azimuth information of two targets (targets A and B) arranged in time series. Here, the fixed period will be described. The target class identification device 4 has a memory for storing two-dimensional data of target direction × time as shown in FIG. 3, but the maximum time on the time axis is determined from this memory capacity. is there. Therefore 30
Since the memory is the data at the time of the minute elapsed is erased, (the upper limit of undetectable time of the sound source information) maximum allowable time from time t 1 in FIG. 3 to t 2 will be in this case 30 minutes.

【0016】目標Aが実体Objと推定された過程と同様
に、目標Bについても、信号処理装置1からデータ統合
装置3までの処理の過程を経て、統合結果のデータ
((f'1,f'2 ,……,f'l ),θ')および時系列
データΣ((f'1 ,f'2 ,……,f'l ),θ')t
得られる。ここで、目標Bに関して目標類識別装置4で
処理する事により、音源の実体O bj'、確信度CL' が
得られる。この状態で、データ結合判定装置6では以下
の情報が得られている。 目標Aの情報が途絶えるまでの実体名:Obj 目標AがObjである確信度 :CL 目標Aの検出予測方位情報 :θt 目標Aの予測精度 :σθt 再検出後目標Bの実体名 :Obj' 目標BがObj' である確信度 :CL' 目標Bの統合結果の方位成分 :θ'
Target A is entity ObjSame as the process estimated
Also, for the target B, the data is integrated from the signal processing device 1.
Through the process of processing up to the device 3, the data of the integration result
((F '1, F 'Two , ……, f 'l ), Θ ') and time series
Data Σ ((f '1 , F 'Two , ……, f 'l ), Θ ')t But
can get. Here, with respect to the target B, the target class identification device 4
By processing, the sound source entity O bj ', The confidence CL '
can get. In this state, the data combination determination device 6
Information has been obtained. Entity name until information on target A is discontinued: Obj Goal A is ObjIs certainty: CL Detection predicted azimuth information of target A: θt Prediction accuracy of target A: σθt Entity name of target B after re-detection: Obj ' Goal B is Obj'Confidence: CL' Azimuth component of integration result of target B: θ '

【0017】データ結合判定装置6は、上記の情報につ
いて下記の判定条件(1),(2)が共に成立するか否
かを判別する。 (1)音源情報の検出不能期間の前後の観測期間にそれ
ぞれの音源情報から求めた2つの実体名Obj,Obj' が
一致し且つ各実体名についての確信度CL,CL'が共
に規定値以上であること。 (2)前記音源情報の検出不能期間の前の観測期間に求
めた音源の所定時間後の検出予測方位範囲内に検出不能
期間の後の観測期間と検出した音源情報の方位成分が含
まれること。即ち以下の式(2),(3)が共に成立す
るか否かを判定する。 Obj=Obj'かつCL,CL'>X …(2) θt−α<θ'<θt +α …(3) ここで、X:システムの特性により決定する類識別結果
として有効といえる確信度の下限 α:検出予測方位の誤差範囲である。 そして上記式(2),(3)が成立する場合、データ結
合判別装置6は、次式(4)のように目標Aの統合結果
データと目標Bの統合結果データを結合する。
The data combination determination device 6 determines whether or not the following determination conditions (1) and (2) are both satisfied for the above information. (1) The two entity names Obj and Obj 'obtained from the respective sound source information match during the observation period before and after the period during which the sound source information cannot be detected, and both the certainty factors CL and CL' for each entity name are defined. Must be greater than or equal to the value. (2) The azimuth component of the detected sound source information and the observation period after the undetectable period are included in the detection predicted azimuth range after a predetermined time of the sound source obtained in the observation period before the undetectable period of the sound source information. . That is, it is determined whether or not the following equations (2) and (3) hold. Obj = Obj 'and CL, CL'> X (2) [theta] t- [ alpha] <[theta] <[theta] t + [alpha] (3) where X is effective as a classification result determined by the characteristics of the system. Lower limit of certainty factor α: Error range of detected predicted orientation. When the above equations (2) and (3) are satisfied, the data combination determination device 6 combines the integration result data of the target A and the integration result data of the target B as in the following equation (4).

【0018】[0018]

【数2】 (Equation 2)

【0019】以上のように本実施形態1によれば、デー
タ結合判定装置6を使用する事により、以下の効果が得
られる。 (1)結合の正確性の向上 目標を結合する際に、これまで操作員が行ってきた(判
断してきた)方位情報のみによるものに比べ、類識別結
果の実体が同一かどうかの判断を加える事により正確性
の向上(誤結合の抑制)をはかる事が出来る。 (2)操作員の操作軽減 従来操作員本人がディスプレイ等の表示装置上で目標を
認識、統合操作と行ってきた手順が計算機上で自動的に
行うことにより省略でき、操作員の操作を軽減する事が
できる。 (3)目標運動解析装置のデータ処理性能の向上 データの結合前は、図3の時刻t0 〜t1 までのデータ
による演算処理しか行えなかったが、データ結合判定装
置の基づくデータ結合を行うことにより、時刻t0 〜t
3 までの長時間に渡るデータを演算に用いることがで
き、演算結果の誤差が少なくなり、結果として、データ
処理性能が向上する。
As described above, according to the first embodiment, the following effects can be obtained by using the data combination determination device 6. (1) Improving the accuracy of the combination When combining the targets, a judgment is made as to whether or not the entities of the class identification result are the same as compared with those based on only the azimuth information that the operator has performed (determined) so far. In this way, it is possible to improve the accuracy (suppress the erroneous connection). (2) Reduction of operator operations Conventional operators themselves can recognize targets on a display device such as a display, and the steps that have been performed as integrated operations can be omitted by automatically performing operations on a computer, reducing operator operations. You can do it. (3) target motion analysis before binding of improving data in the data processing performance of the device did not perform only processing by the data up to time t 0 ~t 1 in FIG. 3, performs data combination based the data binding determination device As a result, the time t 0 to t
Data for a long time up to 3 can be used for the calculation, and errors in the calculation result are reduced, and as a result, data processing performance is improved.

【0020】図1,2の装置構成では、信号処理装置
1、信号検出追尾装置2、データ統合装置3、目標類識
別装置4及び目標運動解析装置5にデータ結合判定装置
6を適用した例を示したが、目標運動解析装置5からの
情報が一旦見失った目標の予測方位であった事から、目
標運動解析装置5の代わりに、データ統合装置3からの
データを使用し、同様にその目標のT秒後の出現方位を
予測するような装置を使用してもデータ結合判定装置6
は変更せずに同様の効果が得られる。また、目標運動解
析装置5は、本説明では、方位及び周波数による演算を
行う装置について説明したきたが、「特開平9−900
12号公報、目標運動解析装置」には方位情報のみによ
る目標運動解析装置についても提案されているので、こ
れらの装置を使用してもよい。
In the device configuration shown in FIGS. 1 and 2, an example in which a data combination determination device 6 is applied to a signal processing device 1, a signal detection and tracking device 2, a data integration device 3, a target class identification device 4, and a target motion analysis device 5 is shown. As shown, since the information from the target motion analysis device 5 was the predicted orientation of the target that was once lost, the data from the data integration device 3 was used instead of the target motion analysis device 5, and the target Data combination determination device 6 even if a device that predicts the appearance direction after T seconds is used.
The same effect can be obtained without changing. Further, in the present description, the target motion analysis device 5 has been described as a device that performs a calculation based on an azimuth and a frequency.
No. 12, Japanese Patent Publication No. 12-207, a target motion analysis device using only azimuth information is also proposed, and these devices may be used.

【0021】実施形態2 図4は本発明の実施形態2に係るデータ時系列結合装置
の構成図である。図4においては、図1の目標類識別装
置4の代りにスペクトル相関判定装置4Aを用いた場合
の構成を示しており、その他の装置は図1と同様のもの
である。図4のスペクトル相関判定装置4Aは、データ
統合装置3の統合結果のうちの周波数成分に着目し、そ
のスペクトル情報から、入力されるスペクトル間の相関
をとり、同一音源か否かを判定する装置である。
Embodiment 2 FIG. 4 is a configuration diagram of a data time series combining device according to Embodiment 2 of the present invention. FIG. 4 shows a configuration in which a spectrum correlation determination device 4A is used instead of the target class identification device 4 in FIG. 1, and the other devices are the same as those in FIG. The spectrum correlation determination device 4A of FIG. 4 focuses on the frequency component in the integration result of the data integration device 3, takes the correlation between the input spectra from the spectrum information, and determines whether or not the sound sources are the same. It is.

【0022】図4の装置の動作を説明する。図4の信号
処理装置1からデータ統合装置3までの処理は、実施形
態1の場合と同様である。従ってここでは、スペクトル
相関判定装置4Aの動作とそれに伴って変更されるデー
タ結合判定装置6の動作のみについて述べる。
The operation of the apparatus shown in FIG. 4 will be described. The processing from the signal processing device 1 to the data integration device 3 in FIG. 4 is the same as in the first embodiment. Therefore, here, only the operation of the spectrum correlation determination device 4A and the operation of the data combination determination device 6 changed accordingly will be described.

【0023】スペクトル相関判定装置4Aでは、データ
統合装置3からの入力情報である周波数と方位情報
((f1 ,f2 ,……,fm ),θ)t のうちの周波数
成分((f1 ,f2 ,……,fmt に着目する。ある
時刻t0において、入力される周波数情報F1(f11
f12,……,f1it0と、別の時刻t1での周波数情報
F2(f21,f22,……,f2jt1に対して、以下の
式(5),(6)が成立するようなUF1,UF2の部
分集合が存在するか否かを判定する。 UF1=UF2 …(5) すなわち、 UF1=(f11,f12,……,flk) UF2=(f21,f22,……,f2l) k=l 式(5)はUF1の構成要素とUF2の構成要素が一致
していることを示す。 RUF1,RUF2>R …(6) ここで RUF1:F1のうち部分集合UF1が占める割
合 RUF2:F2のうち部分集合UF2が占める割合 R:システムにより設定する部分集合が有効であると判
定される下限値である。 そして上記式(5),(6)が成立する場合、スペクト
ル相関判定装置4Aは、2つの周波数情報F1とF2の
間にスペクトル相関があるとする。
[0023] In spectral correlation determination device 4A, frequency and orientation information which is input information from the data integration unit 3 ((f 1, f 2 , ......, f m), θ) frequency component of the t ((f 1, f 2, ......, attention is paid to the f m) t. at a certain time t 0, the frequency information F1 (f1 1 input,
f1 2, ......, f1 i) and t0, frequency information at a different time t 1 F2 (f2 1, f2 2, ......, relative to f2 j) t1, the following equation (5), (6) It is determined whether there is a subset of UF1 and UF2 such that UF1 = UF2 ... (5) In other words, UF1 = (f1 1, f1 2, ......, fl k) UF2 = (f2 1, f2 2, ......, f2 l) k = l (5) the configuration of UF1 Indicates that the element and the component of UF2 match. R UF1, R UF2> R ... (6) wherein R UF1: ratio R UF2 occupied subset UF1 of F1: Percentage is a subset UF2 of F2 R: a subset of setting by the system are valid This is the lower limit value to be determined. When the above equations (5) and (6) hold, the spectrum correlation determination device 4A assumes that there is a spectrum correlation between the two pieces of frequency information F1 and F2.

【0024】以上により、スペクトル相関が認められる
目標と時刻の組み合わせ情報が得られる。ここで、デー
タ結合判定装置6においては、実施形態1の場合と異な
り、スペクトル相関判定装置4Aから、スペクトル相関
度の高い目標と時刻の組み合わせを入力する事により、
以下の情報が得られている。 目標Aの検出されていた時刻範囲 :T0〜T1 目標Bの検出されていた時刻範囲 :T2〜T3 相関が成り立つ時刻目標組み合わせ:((A,Ti),
(B,Tj)) 目標Aの検出予測方位情報 :θt 目標Bの統合結果の方位成分 :θ' データ結合判定装置6では、上記の情報について下記の
判定条件(1),(2)が共に成立するか否かを判別す
る。 (1)前記音源情報の検出不能期間の前後の観測期間に
それぞれ音源情報から求めた2つ統合周波数情報の間に
周波数スペクトルの相関が得られること。 (2)前記音源情報の検出不能期間の前の観測期間に求
めた音源の所定時間後の検出予測方位範囲内に検出不能
期間の後の観測期間に検出した音源情報の方位成分が含
まれること。即ち以下の式(7),(8)が共に成立す
るか否かを判定する。 T0≦Ti≦T1、かつT2≦Tj≦T3 …(7) θt −α<θ'<θt +α …(8) ここで α:検出予測方位の誤差範囲である。そして上
記式(7),(8)が成立する場合、データ結合判定装
置6は前記式(4)のように目標Aの統合結果データと
目標Bの統合結果データを結合する。
As described above, the combination information of the target and the time at which the spectrum correlation is recognized can be obtained. Here, unlike the case of the first embodiment, the data combination determination device 6 inputs a combination of a target having a high degree of spectral correlation and a time from the spectrum correlation determination device 4A,
The following information has been obtained: Time range in which target A was detected: T 0 to T 1 Time range in which target B was detected: T 2 to T 3 Time target combination in which correlation is established: ((A, T i ),
(B, T j )) Target predicted azimuth information of target A: θ t Direction component of integration result of target B: θ ′ The data combination determination device 6 determines the above information with the following determination conditions (1) and (2). It is determined whether or not both are satisfied. (1) A correlation of a frequency spectrum can be obtained between two integrated frequency information obtained from the sound source information during an observation period before and after the sound source information cannot be detected. (2) The azimuth component of the sound source information detected in the observation period after the undetectable period is included in the detection azimuth range after a predetermined time of the sound source obtained in the observation period before the undetectable period of the sound source information. . That is, it is determined whether or not the following equations (7) and (8) hold. T 0 ≦ T i ≦ T 1 , and T 2 ≦ T j ≦ T 3 (7) θ t −α <θ ′ <θ t + α (8) where α is an error range of the detected prediction azimuth. When the above equations (7) and (8) are satisfied, the data combination determination device 6 combines the integration result data of the target A and the integration result data of the target B as in the above equation (4).

【0025】[0025]

【数3】 (Equation 3)

【0026】以上の説明のように本実施形態2によれ
ば、スペクトル相関判定装置4Aを使用する事で以下の
効果が得られる。 (1)情報量の軽減による資源の節約 実施形態1の場合、周波数情報から音源の確信度を求め
る際、音源の情報のデータをあらかじめ保持しておかな
ければならない。一方、実施形態2では、音源が何かの
特定は行わないので、データを保持しておく必要がな
く、資源が節約できる。 (2)演算量の軽減 実施形態1の場合、デンプスター・シェファーの理論に
基づく音源の確信度を算出する処理は、検出されている
周波数情報に加え、先に述べた音源の情報データの量に
より、演算量が加速度的に増大するが、スペクトル相関
を求める演算は、そのスペクトルの組み合わせにのみ依
存するため、実施形態1の場合に比べ演算量が軽減でき
る。
As described above, according to the second embodiment, the following effects can be obtained by using the spectrum correlation determination device 4A. (1) Resource Saving by Reducing the Amount of Information In the case of the first embodiment, when obtaining the certainty factor of the sound source from the frequency information, the data of the information of the sound source must be held in advance. On the other hand, in the second embodiment, since the sound source is not specified, there is no need to hold data, and resources can be saved. (2) Reduction of Calculation Amount In the case of the first embodiment, the process of calculating the certainty factor of the sound source based on the Dempster-Scheffer theory depends on the amount of information information of the sound source described above in addition to the detected frequency information. Although the amount of calculation increases at an accelerated rate, the calculation for obtaining the spectrum correlation depends only on the combination of the spectra, so that the amount of calculation can be reduced as compared with the case of the first embodiment.

【0027】図4の装置構成では、信号処理装置1、信
号検出追尾装置2、データ統合装置3、スペクトル相関
装置4A及び目標運動解析装置5にデータ結合判定装置
6を適用した例を示したが、目標運動解析装置5からの
情報が一旦見失った目標の予測方位であった事から、目
標運動解析装置5の代わりに、データ統合装置3からの
データを使用し、同様にその目標のT秒後の出現方位を
予測するような装置を使用しても同様の効果が得られ
る。
In the apparatus configuration shown in FIG. 4, an example is shown in which the data combination determination device 6 is applied to the signal processing device 1, the signal detection and tracking device 2, the data integration device 3, the spectrum correlation device 4A and the target motion analysis device 5. Since the information from the target motion analysis device 5 is the predicted orientation of the target that has once been lost, the data from the data integration device 3 is used instead of the target motion analysis device 5, and similarly, the target T seconds The same effect can be obtained by using a device that predicts the later appearance direction.

【0028】[0028]

【発明の効果】以上のように本発明によれば、観測期間
中は、指向性を有する音響センサを介して受波した音源
からの音響信号を周波数分析して各受波方位及び周波数
毎の信号強度データを求め、該データに基づき音源情報
の検出と追尾を行い、同一音源と判定された方位情報及
び周波数情報を統合し、該統合周波数情報に基づき音源
の実体名及びその確信度を求めると共に、時系列に得ら
れる方位及び周波数情報に基づく目標運動解析により音
源の所定時間後の検出予測方位範囲及び予測精度を求め
るようにし、前記観測期間中にそれまで検出していた音
源情報が一旦検出不能となり、その後一定の期間内に再
び検出可能となった音源情報が有る場合、前記音源情報
の検出不能期間の前と後の観測期間にそれぞれ検出され
た2つの音源情報を時間的に結合できるか否かの判定条
件として、 (1)前記音源情報の検出不能期間の前後の観測期間に
それぞれ音源情報から求めた2つの実体名が一致し且つ
各実体名についての確信度が共に規定値以上であるこ
と。 (2)前記音源情報の検出不能期間の前の観測期間に求
めた音源の所定時間後の検出予測方位範囲内に検出不能
期間の後の観測期間に検出した音源情報の方位成分が含
まれること。の上記(1),(2)の判定条件を共に満
足する場合に前記音源情報の検出不能期間の前後の観測
期間にそれぞれ検出された2つの音源情報を時間的に結
合するようにしたので、従来の方法に比較して、誤結合
が抑制され結合の正確性が向上し、自動化によって操作
員の作業負荷は軽減され、また目標運動解析のデータ処
理性能が向上する。
As described above, according to the present invention, during the observation period, the frequency of the acoustic signal from the sound source received through the acoustic sensor having directivity is analyzed, and Signal strength data is obtained, sound source information is detected and tracked based on the data, direction information and frequency information determined as the same sound source are integrated, and the entity name of the sound source and its certainty are obtained based on the integrated frequency information. At the same time, a target motion analysis based on azimuth and frequency information obtained in a time series is used to obtain a detection prediction azimuth range and a prediction accuracy of a sound source after a predetermined time, and the sound source information detected so far during the observation period is once obtained. If there is sound source information that has become undetectable and can be detected again within a certain period thereafter, the two sound source information detected during the observation period before and after the non-detection period of the sound source information, respectively. (1) Two entity names obtained from the sound source information match during an observation period before and after the sound source information undetectable period, and a certainty factor for each entity name Must be equal to or greater than the specified value. (2) The azimuth component of the sound source information detected in the observation period after the undetectable period is included in the detection azimuth range after a predetermined time of the sound source obtained in the observation period before the undetectable period of the sound source information. . When both the above conditions (1) and (2) are satisfied, the two sound source information detected in the observation periods before and after the non-detection period of the sound source information are temporally combined. Compared with the conventional method, erroneous coupling is suppressed, the coupling accuracy is improved, the workload of the operator is reduced by automation, and the data processing performance of target motion analysis is improved.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の実施形態1に係るデータ時系列結合装
置の構成図である。
FIG. 1 is a configuration diagram of a data time-series combination device according to Embodiment 1 of the present invention.

【図2】図1の装置構成図に入出力信号を記入した動作
説明図である。
FIG. 2 is an operation explanatory diagram in which input / output signals are entered in the device configuration diagram of FIG. 1;

【図3】時系列に並ぶ2目標の方位情報を示す図であ
る。
FIG. 3 is a diagram showing azimuth information of two targets arranged in time series.

【図4】本発明の実施形態2に係るデータ時系列結合装
置の構成図である。
FIG. 4 is a configuration diagram of a data time-series combination device according to Embodiment 2 of the present invention.

【図5】従来の検出目標の結合操作の説明図である。FIG. 5 is an explanatory diagram of a conventional detection target combining operation.

【図6】従来の目標結合における課題の説明図である。FIG. 6 is an explanatory diagram of a problem in the conventional target combination.

【符号の説明】 1 信号処理装置 2 信号検出追尾装置 3 データ統合装置 4 目標類識別装置 4A スペクトル相関判定装置 5 目標運動解析装置 6 データ結合判定装置[Description of Signs] 1 signal processing device 2 signal detection and tracking device 3 data integration device 4 target class identification device 4A spectrum correlation determination device 5 target motion analysis device 6 data connection determination device

───────────────────────────────────────────────────── フロントページの続き (72)発明者 萬造寺 博 東京都港区虎ノ門1丁目7番12号 沖電気 工業株式会社内 Fターム(参考) 5J083 AA05 AB10 AC17 AC40 AD18 AE07 AF15 BC01 BE41 BE45 BE60  ────────────────────────────────────────────────── ─── Continuing on the front page (72) Inventor Hiroshi Manzoji F-term (reference) in Oki Electric Industry Co., Ltd. 1-7-12 Toranomon, Minato-ku, Tokyo 5J083 AA05 AB10 AC17 AC40 AD18 AE07 AF15 BC01 BE41 BE45 BE60

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 観測期間中は、指向性を有する音響セン
サを介して受波した音源からの音響信号を周波数分析し
て各受波方位及び周波数毎の信号強度データを求め、該
データに基づき音源情報の検出と追尾を行い、同一音源
と判定された方位情報及び周波数情報を統合し、該統合
周波数情報に基づき音源の実体名及びその確信度を求め
ると共に、時系列に得られる方位及び周波数情報に基づ
く目標運動解析により音源の所定時間後の検出予測方位
範囲及び予測精度を求めるようにし、前記観測期間中に
それまで検出していた音源情報が一旦検出不能となり、
その後一定の期間内に再び検出可能となった音源情報が
有る場合、前記音源情報の検出不能期間の前と後の観測
期間にそれぞれ検出された2つの音源情報を時間的に結
合できるか否かの判定条件として、(1)前記音源情報
の検出不能期間の前後の観測期間にそれぞれ音源情報か
ら求めた2つの実体名が一致し且つ各実体名についての
確信度が共に規定値以上であること、(2)前記音源情
報の検出不能期間の前の観測期間に求めた音源の所定時
間後の検出予測方位範囲内に検出不能期間の後の観測期
間に検出した音源情報の方位成分が含まれること、の上
記(1),(2)の判定条件を共に満足する場合に前記
音源情報の検出不能期間の前後の観測期間にそれぞれ検
出された2つの音源情報を時間的に結合することを特徴
とするデータ時系列結合方法。
During an observation period, an acoustic signal from a sound source received through an acoustic sensor having directivity is subjected to frequency analysis to obtain signal strength data for each receiving direction and frequency, and based on the data, Detects and tracks sound source information, integrates direction information and frequency information determined to be the same sound source, obtains the entity name of the sound source and its certainty based on the integrated frequency information, and obtains the direction and frequency obtained in time series. The target motion analysis based on the information to determine the detection prediction azimuth range and the prediction accuracy after a predetermined time of the sound source, the sound source information that has been detected so far during the observation period becomes temporarily undetectable,
If there is sound source information that can be detected again within a certain period thereafter, whether or not the two sound source information detected respectively in the observation periods before and after the undetectable period of the sound source information can be temporally combined is determined. (1) The two entity names obtained from the sound source information match during the observation period before and after the sound source information cannot be detected period, and the certainty factor for each entity name is both a specified value or more. (2) The azimuth component of the sound source information detected in the observation period after the undetectable period is included in the detection azimuth range after a predetermined time of the sound source obtained in the observation period before the undetectable period of the sound source information. When both of the above-mentioned conditions (1) and (2) are satisfied, the two pieces of sound source information respectively detected in the observation periods before and after the non-detection period of the sound source information are temporally combined. Data time series Coupling methods.
【請求項2】 前記時系列に得られる方位及び周波数情
報に基づく目標運動解析は、非線形最小自乗法またはカ
ルマンフィルタを用いた目標運動解析処理を行うもので
あることを特徴とする請求項1記載のデータ時系列結合
方法。
2. The target motion analysis based on the azimuth and frequency information obtained in the time series includes performing a target motion analysis process using a nonlinear least squares method or a Kalman filter. Data time series join method.
【請求項3】 前記時系列に得られる方位及び周波数情
報に基づく目標運動解析は、前記周波数情報について最
も長時間検出されている周波数または最も信号強度が大
きい周波数を代表周波数として選定し、非線形最小自乗
法またはカルマンフィルタを用いた目標運動解析処理を
行うものであることを特徴とする請求項1記載のデータ
時系列結合方法。
3. The target motion analysis based on the azimuth and frequency information obtained in the time series, the frequency information that has been detected for the longest time or the frequency with the highest signal strength is selected as the representative frequency, and the nonlinear minimum is selected. 2. The data time series combining method according to claim 1, wherein a target motion analysis process using a square method or a Kalman filter is performed.
【請求項4】 観測期間中は、指向性を有する音響セン
サを介して受波した音源からの音響信号を周波数分析し
て各受波方位及び周波数毎の信号強度データを求め、該
データに基づき音源情報の検出と追尾を行い、同一音源
と判定された方位情報及び周波数情報を統合し、該統合
周波数情報に対して周波数スペクトルの相関の有無を判
別して相関が有ると認められる音源と時刻との組合せ情
報を求めると共に、時系列に得られる方位及び周波数情
報に基づく目標運動解析により音源の所定時間後の検出
予測方位範囲及び予測精度を求めるようにし、前記観測
期間中にそれまで検出していた音源情報が一旦検出不能
となり、その後一定の期間内に再び検出可能となった音
源情報が有る場合、前記音源情報の検出不能期間の前と
後の観測期間にそれぞれ検出された2つの音源情報を時
間的に結合できるか否かの判定条件として、(1)前記
音源情報の検出不能期間の前後の観測期間にそれぞれ音
源情報から求めた2つの統合周波数情報の間に周波数ス
ペクトルの相関が得られること、(2)前記音源情報の
検出不能期間の前の観測期間に求めた音源の所定時間後
の検出予測方位範囲内に検出不能期間の後の観測期間に
検出した音源情報の方位成分が含まれること、の上記
(1),(2)の判定条件を共に満足する場合に前記音
源情報の検出不能期間の前後の観測期間にそれぞれ検出
された2つの音源情報を時間的に結合することを特徴と
するデータ時系列結合方法。
4. During the observation period, an acoustic signal from a sound source received through an acoustic sensor having directivity is subjected to frequency analysis to obtain signal strength data for each receiving direction and frequency, and based on the data, Detects and tracks sound source information, integrates azimuth information and frequency information determined to be the same sound source, determines whether or not there is a frequency spectrum correlation with the integrated frequency information, and determines a sound source and a time that are recognized as having a correlation. While obtaining the combination information with, the target motion analysis based on the azimuth and frequency information obtained in time series to obtain the detection prediction azimuth range and the prediction accuracy after a predetermined time of the sound source, and have been detected so far during the observation period. If the sound source information was once undetectable, and then there is sound source information that can be detected again within a certain period after that, the sound source information is not detected during the observation period before and after the undetectable period of the sound source information. Conditions for determining whether the two detected sound source information can be temporally combined include: (1) two integrated frequency information obtained from the sound source information in observation periods before and after an undetectable period of the sound source information, respectively. (2) an observation period after a non-detection period within a detection prediction azimuth range after a predetermined time period of the sound source obtained in an observation period before the non-detection period of the sound source information. When both of the above-described determination conditions (1) and (2) that the azimuth component of the detected sound source information is included, the two detections are performed during the observation periods before and after the non-detection period of the sound source information. A data time-series combining method characterized by temporally combining sound source information.
【請求項5】 前記時系列に得られる方位及び周波数情
報に基づく目標運動解析は、非線形最小自乗法またはカ
ルマンフィルタを用いた目標運動解析処理を行うもので
あることを特徴とする請求項4記載のデータ時系列結合
方法。
5. The target motion analysis based on the azimuth and frequency information obtained in a time series, the target motion analysis processing using a nonlinear least squares method or a Kalman filter is performed. Data time series join method.
【請求項6】 前記時系列に得られる方位及び周波数情
報に基づく目標運動解析は、前記周波数情報について最
も長時間検出されている周波数または最も信号強度が大
きい周波数を代表周波数として選定し、非線形最小自乗
法またはカルマンフィルタを用いた目標運動解析処理を
行うものであることを特徴とする請求項4記載のデータ
時系列結合方法。
6. The target motion analysis based on the azimuth and frequency information obtained in the time series, selects the frequency detected for the longest time or the frequency with the highest signal strength as the representative frequency for the frequency information, 5. The data time series combining method according to claim 4, wherein a target motion analysis process using a square method or a Kalman filter is performed.
JP2000088335A 2000-03-28 2000-03-28 Data time-series merging method Pending JP2001272458A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000088335A JP2001272458A (en) 2000-03-28 2000-03-28 Data time-series merging method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000088335A JP2001272458A (en) 2000-03-28 2000-03-28 Data time-series merging method

Publications (1)

Publication Number Publication Date
JP2001272458A true JP2001272458A (en) 2001-10-05

Family

ID=18604227

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000088335A Pending JP2001272458A (en) 2000-03-28 2000-03-28 Data time-series merging method

Country Status (1)

Country Link
JP (1) JP2001272458A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011757A (en) * 2004-06-24 2006-01-12 Sony Corp Data transfer device, data transfer method and computer program
CN105807273A (en) * 2016-04-20 2016-07-27 北京百度网讯科技有限公司 Method and device for tracking sound source
JPWO2014102938A1 (en) * 2012-12-26 2017-01-12 トヨタ自動車株式会社 Sound detection device and sound detection method
CN110764092A (en) * 2019-10-24 2020-02-07 中国科学院声学研究所 Underwater sound target orientation tracking method and system based on orientation history map
CN115269594A (en) * 2022-07-20 2022-11-01 清云智通(北京)科技有限公司 Industrial data processing method and system and computing equipment

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006011757A (en) * 2004-06-24 2006-01-12 Sony Corp Data transfer device, data transfer method and computer program
JPWO2014102938A1 (en) * 2012-12-26 2017-01-12 トヨタ自動車株式会社 Sound detection device and sound detection method
CN105807273A (en) * 2016-04-20 2016-07-27 北京百度网讯科技有限公司 Method and device for tracking sound source
CN110764092A (en) * 2019-10-24 2020-02-07 中国科学院声学研究所 Underwater sound target orientation tracking method and system based on orientation history map
CN110764092B (en) * 2019-10-24 2022-01-25 中国科学院声学研究所 Underwater sound target orientation tracking method and system based on orientation history map
CN115269594A (en) * 2022-07-20 2022-11-01 清云智通(北京)科技有限公司 Industrial data processing method and system and computing equipment

Similar Documents

Publication Publication Date Title
US11398235B2 (en) Methods, apparatuses, systems, devices, and computer-readable storage media for processing speech signals based on horizontal and pitch angles and distance of a sound source relative to a microphone array
US7933455B2 (en) Grouping items in video stream images into events
CN110717403B (en) Face multi-target tracking method
CN1664609B (en) System and method for improving the precision of localization estimates
CN111639551A (en) Online multi-target tracking method and system based on twin network and long-short term clues
US20120093398A1 (en) System and method for multi-agent event detection and recognition
CN110545396A (en) Voice recognition method and device based on positioning and denoising
JP2001272458A (en) Data time-series merging method
CN111178205A (en) Method and system for identifying target object in area range
WO2022009944A1 (en) Video analysis device, wide-area monitoring system, and method for selecting camera
CN112862640A (en) Digital school zone cloud platform management system
CN111784750A (en) Method, device and equipment for tracking moving object in video image and storage medium
CN113158953B (en) Personnel searching method, device, equipment and medium
CN114819110A (en) Method and device for identifying speaker in video in real time
US7184590B2 (en) Algorithm selector
RU2694139C1 (en) Method for determining deviant behavior of a person in a mode of simultaneous operation of a group of video cameras
Carro-Lagoa et al. Multicamera edge-computing system for persons indoor location and tracking
JP2776781B2 (en) Automatic multi-target signal separation method
CN110544270A (en) method and device for predicting human face tracking track in real time by combining voice recognition
CN109740525A (en) The determination method and device of object in a kind of video
JP2784513B2 (en) Target automatic classification and identification method
CN117558059A (en) Motion trail processing method and device, electronic equipment and readable storage medium
CN112926823B (en) Intelligent traffic service data detection method and device and electronic equipment
CN115641567B (en) Target object detection method and device for vehicle, vehicle and medium
JPH0325390A (en) Body identification device