JP2004077400A - Sensor information integrating system - Google Patents

Sensor information integrating system Download PDF

Info

Publication number
JP2004077400A
JP2004077400A JP2002241300A JP2002241300A JP2004077400A JP 2004077400 A JP2004077400 A JP 2004077400A JP 2002241300 A JP2002241300 A JP 2002241300A JP 2002241300 A JP2002241300 A JP 2002241300A JP 2004077400 A JP2004077400 A JP 2004077400A
Authority
JP
Japan
Prior art keywords
sensor
observation
sensors
target signal
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002241300A
Other languages
Japanese (ja)
Inventor
Isao Tazawa
田澤 功
Kazuhiko Hino
日野 一彦
Kenichi Asano
浅野 健一
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2002241300A priority Critical patent/JP2004077400A/en
Publication of JP2004077400A publication Critical patent/JP2004077400A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Radar Systems Or Details Thereof (AREA)
  • Measurement Of Velocity Or Position Using Acoustic Or Ultrasonic Waves (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sensor information integrating system to work with an integration processing device for sensor signals having a finite computing ability and communication ability, capable of reducing the data transmitting amount to the integration processing device without reducing the target rate of sensing and of reducing the processing load of the integration processing device. <P>SOLUTION: The sensor information integrating system comprises a observation part to analyze the observation signal(s) from one or more sensors and determine the observation signal value in each position within the observing region of each sensor, a sensor information processing part to sense a signal possible to be the target signal (target signal candidate) on the basis of the obtained observation signal value, and the integration processing part to integrate the observation information of the target signal candidates. Therein a plurality of such sensors, a plurality of sensor information processing parts, and a plurality of integration processing parts are connected in stories, and the observation signals of the sensors are integrated in hierarchy. Among the target signal candidates given by a plurality of sensor information processing parts or a plurality of other integration processing parts, the integration processing part concerned selects only the target signal candidates having a high correlation and integrates them, and emits the data in which unnecessary observation information is reduced through integration to the next stage integration processing part. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、複数のセンサの観測信号を統合的に処理するセンサ情報処理分野に属する。
【0002】
【従来の技術】
従来、複数のセンサ情報を用いて目標を検出する方法としては、(1)特開2000−41113記載の遠隔監視装置、遠隔監視システム、遠隔監視方法および記憶媒体や、(2)特開2002−32879記載の監視システムなどがある。
【0003】
(1)では、カメラなどを使用して、監視対象の事象が発生するのを監視する。
【0004】
何らかの事象が発生すると、あらかじめ決められた条件に従って事象の判定を行う。注目事象であると判定された場合、事象の通知や事象の保存などを行う。その結果、不要な事象の通知による人的負担の低減や、様々な事象への対応の改善が期待される。
【0005】
(2)では、画像による監視を行う際に、異常発生箇所の特定に使用する検出画像、異常発生箇所の追尾時に記録される証拠画像、異常通知に使用する伝送画像の3種類の画像を生成する。
【0006】
証拠画像としては高解像度の画像、伝送画像としては低解像度の画像などと設定することにより、伝送速度、安定性の向上、および証拠力の高い画像情報の取得、保存が期待される。
【0007】
【発明が解決しようとする課題】
上記従来技術(1)では、不要な事象の通知を減少させることはできるが、事象の通知後はカメラ等の制御を行うまでにとどまっている。そのため、事象を誤検出していたとしても、その判定はオペレータに任されるため、事象の誤検出率が増加することもある。
【0008】
上記従来技術(2)についても、検出した異常だけを迅速に通知することはできるが、その異常の検出率の向上や誤検出率の低減に関する特別な処理は行っていない。
【0009】
そこで、本発明では、計算処理能力および通信能力の限られた複数センサ信号の統合処理装置に関して、目標検出率を低減することなく、統合処理装置へのデータ伝送量を低減し、統合処理装置の処理負荷を低減することができるセンサ情報処理装置を提供する。
【0010】
【課題を解決するための手段】
上記目的を達成するために、本発明では以下の手段を設ける。
単一もしくは複数のセンサの観測信号を解析して、センサの観測領域内の各位置における観測信号値を求める観測部と、得られた観測信号値に基づいて、目標の信号である可能性のある信号(以下、目標信号候補)を検出するセンサ情報処理部と、目標信号候補の観測情報(観測位置、信号強度など)を統合する統合処理部により、センサ情報統合装置を構成する。複数のセンサ、および複数のセンサ情報処理部、統合処理部を階層的に接続し、センサの観測信号を階層的に統合する。
【0011】
統合処理部では、複数のセンサ情報処理部や他の複数の統合処理部から出力される観測情報の同一性を判定し、同一であると判定された目標信号候補の観測情報だけを統合する。
【0012】
上記センサ情報統合装置にセンサ管理部を設ける。センサ管理部では、管理しているセンサ間の関連度を算出し、他のセンサとの関連度が小さいセンサを選択する。選択したセンサの観測信号から検出される目標信号候補を破棄し、他のセンサとの関連度が大きいセンサの観測信号から得られる目標信号候補だけを統合処理部で処理する。
【0013】
上記センサ管理部を設けたセンサ情報統合装置に統合センサ管理部を設ける。統合センサ管理部では、各センサ管理部において選択されたセンサと、異なるセンサ管理部の管理するセンサとの関連度を算出し、算出した関連度に基づいてセンサの再グループ化を行う。同一のグループに属するセンサを一つのセンサ管理部に割り当てる。
【0014】
【発明の実施の形態】
本発明は、分散配置された一つ以上のセンサの観測情報を統合して、目標を検出する装置に関する。具体的には、下記の方法を実施するソフトウェア、またはハードウェアを作成することにより実現できる。
【0015】
(第1の実施形態)
第1の実施形態は、複数のセンサの観測信号を解析して目標信号候補を検出後、各目標信号候補の同一性を判定して統合することにより目標を検出する装置に関する。
【0016】
図1は、本実施例における複数センサを用いた目標の観測例である。
【0017】
以降、センサとしては音響センサを仮定するが、画像センサ、レーダなど位置に対する観測値が得られる各種センサを使用することが可能である。また、図1ではセンサ数を3としているが、任意の数とすることができる。図1において、音響センサC101cでは音波103を発信し、音響センサA101a、B101bにより静止もしくは移動している目標104での反射波を受信する。領域102a、102bは、音響センサA101a、B101bの観測領域を示す。本実施例では、音響センサA101a、B101bは受波器、音響センサC101cは送波器としているが、音響センサA101aからC101cは送波器、受波器、および送受波器のどの形式でも良い。ただし、送波器か送受波器、および受波器か送受波器は、それぞれ一つ以上必要である。
【0018】
図2は、本実施例におけるセンサ情報統合装置の構成図である。
【0019】
装置はサブ装置210a、210b、210cから構成され、それらは有線もしくは無線のネットワークで接続される。各サブ装置は、センサ101とのインタフェース201、一連の処理を行うCPU202、プログラムやデータを格納するメモリ203、外部機器とのインタフェース204、外部のサブ装置との通信インタフェース206、およびこれらを結合するバス207と、センサ101、データベース205、通信機器208から構成される。図2ではサブ装置数210は3であるが、サブ装置210をさらに追加してより多段の構成とすることが可能である。
【0020】
図3は、センサ情報統合装置における処理のブロック図である。
【0021】
観測部301では、各音響センサ101の観測信号を解析して、音響センサ101の観測領域102内の各位置における観測信号値(反射波の信号強度)を求める。センサ情報処理部302では、各音響センサ101により得られた各位置における観測信号値に基づいて、目標の信号である可能性のある信号(以下、目標信号候補)を検出し、検出した目標信号候補に関する観測情報を統合処理部303へ送信する。
【0022】
ここで、観測情報とは、信号を観測した位置や信号強度を意味する。観測情報としては、過去の観測位置や速度なども使用することができる。統合処理部303では、複数のセンサ情報処理部302や他の複数の統合処理部303から出力される目標信号候補の観測情報の同一性を判定し、同一であると判定された目標信号候補の観測情報を統合する。図3では各観測部に対して一つのセンサを接続しているが、複数のセンサを接続することもできる。また、サブ装置数に応じて各処理部の構成も変化する。
【0023】
以下、観測部301、センサ情報処理部302、統合処理部303における処理の具体例を示す。本処理はサブ装置210のメモリ203内に格納され、CPU202により実行される。以下の具体例では、観測情報として、現時点における信号の観測位置、および信号強度を使用する。
【0024】
観測部301では、音響センサ101の観測信号を相関処理などの信号解析法を用いて解析する。図4は観測部301の解析結果例である。画像401a、401bは、それぞれ音響センサA101a、B101bの各位置における観測信号値を輝度値とした画像である。点403は観測信号、領域402a、402bは音響センサA101a、B101bの観測領域、点404a、404bはセンサ位置である。信号解析方法としては、文献1(Richard O.Nielsen、“Sonar Signal Processing”、Artech House、1991)に記載されているような各種信号解析方法を使用することができる。
【0025】
図5はセンサ情報処理部302における具体的な処理手順である。以下、図5の番号をステップ番号として、センサ情報処理部302における処理手順を示す。
【0026】
ステップ501(観測信号格納)では、観測部301で得られた観測画像をセンサ情報処理部のデータベース205に格納する。
【0027】
ステップ502(目標信号候補検出)では、データベース内の過去の観測画像、および新たに観測された観測画像について以下の処理を実行する。目標の運動を仮定して各時刻における画像上の位置を算出し、その位置における画素値を累加する。累加した輝度値に対してしきい値Tdのしきい値処理を行い、目標信号候補を検出する。
【0028】
ステップ503(信頼度算出)では、検出した目標信号候補の信頼度rbを算出する。信頼度としては、同一の目標信号候補を観測している継続時間を使用する。そのほか、目標信号候補以外の信号を雑音と仮定したときの信号対雑音比、目標信号候補の観測位置におけるセンサの探知確率などを信頼度として使用することができる。
【0029】
ステップ504(信頼度判定)では、信頼度rbに対してしきい値Tbのしきい値処理を実行する。具体的には、信頼度rb≧Tbである場合、以下のステップ505の処理を実行する。信頼度rb<Tbである場合、処理を終了する。
【0030】
ステップ505(観測情報送信)では、ステップ502で検出した目標信号候補の観測情報を統合処理部303に出力する。
【0031】
図6は統合処理部303における具体的な処理手順を示す。
【0032】
図7は、その相関値の説明図である。
【0033】
図7において、点z1(k)601、z2(k)602、z3(k)603は時刻t(k)において新たに検出された目標信号候補、軌跡{z(k−3)、z(k−2)、z(k−1)}604は時刻t(k−1)までに検出された目標の軌跡である。以下、図6の番号をステップ番号として、統合処理部303における処理手順を示す。
【0034】
ステップ601(観測情報取得)では、時刻t(k)および時刻t(k)以前に検出された目標信号候補の観測情報をデータベース205より取得する。
【0035】
ステップ602(相関値算出)では、センサ情報処理部より出力された目標信号候補の観測情報と検索した目標信号候補の観測情報の相関値rを算出する。
【0036】
具体的には、カルマンフィルタにより、過去の観測情報から時刻t(k)における目標の存在分布を推定し、目標信号候補の観測位置誤差分布とのマハラノビス距離mdを算出する。この距離mdの逆数を相関値rとする。同じ時刻に観測された目標信号候補については、目標信号候補の観測位置誤差分布間のマハラノビス距離mdの逆数を相関値rとする。ただし、同一の目標信号候補間の相関値rはr=−∞とする。カルマンフィルタ、およびマハラノビス距離については、文献2(中野道雄、西山清、“カルマンフィルタ”、丸善、1993)、3(鳥脇順一郎、“認識工学”、コロナ社、1993)に記載されている。
【0037】
ステップ603(相関値判定)では、相関値rについて、しきい値Trのしきい値処理を実行する。r≧Trの場合、以下のステップ504を実行する。r<Trの場合、処理を終了する。
【0038】
ステップ602、603からなる相関処理としては、上記以外に文献4(David L. Hall、“Mathematical Techiques in Multsensor Data Fusion”、Artech House、1992)に記載されている各種相関処理を使用することができる。
【0039】
ステップ604(目標位置算出)では、センサ情報処理部より出力された目標信号候補の観測情報と、検索した目標候補の観測情報を用いて目標位置を推定する。具体的には、カルマンフィルタを使用する。
【0040】
ステップ605(目標信号強度算出)では、静止している目標など、目標の過去の観測位置が不変の場合、その目標の信号強度を更新する。具体的には、重み付き平均値を算出し、目標の信号強度とする。そのほか、目標の信号強度の算出方法としては上記文献4などに記載の種々の方法を使用することができる。
【0041】
ステップ606(統合観測情報格納)では、統合した観測情報、すなわち統合した目標信号候補の位置、および信号強度をデータベース205に格納する。
【0042】
ステップ607(統合観測情報送信)では、統合して得られた目標信号候補の観測情報をより上位の統合処理部303bに出力する。
【0043】
以上のように、誤検出の次段の処理への出力を減少させ、信頼度の高い情報だけを階層的に統合、出力することにより、目標の検出率を低減することなく、統合処理装置における処理負荷を低減することが期待できる。
【0044】
(第2の実施形態)
第2の実施形態は、センサの管理部を備えたセンサ情報統合装置に関する。上記の実施例との相違点は、使用するセンサを選択するセンサ管理部が加わった点である。
【0045】
図8は、本実施例におけるセンサ情報統合装置のブロック図である。
【0046】
矢印810は各装置からのデータフローを示す。センサ管理部801では、センサの観測領域間の関連度に基づいて、統合処理部に出力する観測情報の取捨選択を行う。観測情報の選択は、センサ情報処理部302より目標信号候補が検出され、次段の処理部に出力された時に行う。また、所定の時刻にセンサ間の関連度を算出し、あらかじめ目標の観測に使用するセンサを選択することも可能である。センサ数については、2以上の任意の数とすることが可能であり、各観測部に対して複数のセンサを接続することができる。
【0047】
図9は、センサ管理部801における具体的な処理手順であり、
図10は、センサ管理部801における処理の説明図である。
【0048】
図10において、領域1002は音響センサD1001の観測領域、領域1003は音響センサA101aおよびB101bの観測領域が重なる領域である。以下、図9の番号をステップ番号として、センサ管理部801における処理手順を示す。
【0049】
ステップ901(センサパラメータ取得)では、各センサ101のパラメータをデータベース205より取得する。ここで、パラメータとは、センサの姿勢、位置、およびセンサ自身のスペックを意味する。
【0050】
ステップ902(関連度算出)では、全ての異なるセンサのペアに対して、二つのセンサの関連の度合いを表す関連度rdを算出する。関連度としては、センサのパラメータより算出される各センサの観測領域の重なり面積やセンサ間の距離、種類などを使用する。関連度rdはその値が大きいほどセンサ間の関連性が高いとする。図10の例では、関連度rdを領域の重なり面積Sで定義する。音響センサA101aとB101bの観測領域の重なり領域1002の面積Sが、音響センサA101aとD901、および音響センサB101aとD901の重なり領域の面積(=0)より大きいため、二つの音響センサA101a、B101bの関連性はそれ以外のセンサのペアに比べて高くなる。
【0051】
ステップ903(センサのグループ化)では、各センサ間の関連度rdについて、しきい値Tdのしきい値処理を実行し、他のすべてのセンサとの関連度rdに関してrd≧Tdの関係が成立するセンサのグループを形成する。
【0052】
ステップ804(観測情報送信)では、センサ情報処理部302より出力された目標信号候補が、グループのメンバとして選択されたセンサの観測信号である場合、その目標信号候補を出力し、統合処理部303の処理対象とする。
【0053】
以上のように、関連性の高いセンサの観測信号だけを統合処理部303で処理することにより、目標の検出率を低減することなく、統合処理装置における処理負荷を低減することが期待できる。
【0054】
(第3の実施形態)
第3の実施形態は、統合センサ管理部を備えたセンサ情報統合装置に関する。上記の実施例との相違点は、センサ情報処理部や統合処理部の出力送信先を変更する統合センサ管理部を設けた点である。
【0055】
図11は、本実施例におけるセンサ情報統合装置のブロック図である。
【0056】
矢印1110はサブ装置210d、210eとサブ装置1102間のデータフローを示す。サブ装置1102は、サブ装置210のメモリ203内のプログラムを変更することにより実現する。統合センサ管理部1101では各センサ管理部801の管理、およびセンサ管理部801とセンサ101の組合せの変更を行う。なお、センサ数は2以上の任意の数とすることが可能であり、観測部に対しては複数のセンサを接続することができる。また、各処理部をさらに追加してより多段の構成とすることが可能である。
【0057】
図12は、統合センサ管理部1101における具体的な処理手順である。以下、図12の番号をステップ番号として、統合センサ管理部1101における処理手順を示す。
【0058】
ステップ1201(センサのサブグループ化)では、センサ管理部801ごとに、ステップ901から903と同様の方法によりセンサ101をグループ化する。
【0059】
ステップ1202(センサ選択)では、各センサ管理部801で生成したセンサ101のサブグループに属さないセンサを選択し、そのパラメータをデータベース205より取得する。
【0060】
ステップ1303(他グループとの関連度算出)では、選択したセンサと各サブグループ内のセンサとの関連度rdをステップ902と同様の方法により算出する。
【0061】
ステップ1304(再グループ化)では、関連度rdについてしきい値Tdのしきい値処理を実行し、選択したセンサとサブグループ内のすべてのセンサについてrd≧Tdの関係が成立するサブグループを選択する。サブグループが複数存在する場合には、関連度rdが最大となるサブグループを選択する。選択したセンサとサブグループにより新たにグループを形成し、一つのセンサ管理部801にその管理を割り当てる。
【0062】
以上のように、有効なセンサを再グループ化して関連性の高いセンサの観測信号だけを統合処理部303で処理することにより、目標の検出率を低減することなく、統合処理装置における処理負荷を低減することが期待できる。
【0063】
【発明の効果】
本発明によれば、複数センサの観測信号を階層的に統合することにより、目標検出率を低減することなく、統合処理装置へのデータ伝送量を低減し、統合処理装置の処理負荷を低減できるセンサ情報処理装置を提供することができる。
【図面の簡単な説明】
【図1】複数の音響センサを用いた目標の観測例。
【図2】センサ情報統合装置の構成図。
【図3】センサ情報統合装置における処理のブロック図。
【図4】観測部の解析結果例。
【図5】センサ情報処理部における処理手順。
【図6】統合処理部における処理手順。
【図7】相関値の説明図。
【図8】センサ管理部を設けたセンサ情報統合装置における処理のブロック図。
【図9】センサ管理部における処理手順。
【図10】センサ管理部における処理の説明図。
【図11】統合センサ管理部を設けたセンサ情報統合装置における処理のブロック図。
【図12】センサ管理部における処理手順。
【符号の説明】
101a、101b、101c:音響センサ
102a、102b:音響センサの観測領域
201a、201b、201c:センサ用インタフェース
202a、202b、202c:CPU
203a、203b、203c:メモリ
204a、204b、204c:外部機器用インタフェース
206a、206b、206c:通信用インタフェース
301a、301b、301c:観測部
302a、302b、302c:センサ情報処理部
303a、303b:統合処理部
401a、401b:反射波の信号強度を輝度値とする画像
701、702、703:新たに観測された目標信号候補
704:過去に検出された目標信号候補の軌跡
801a、801b:センサ管理部
1003:二つの音響センサに共通の観測領域
1101:統合センサ管理部
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention belongs to the field of sensor information processing for integrally processing observation signals of a plurality of sensors.
[0002]
[Prior art]
Conventionally, methods for detecting a target using a plurality of pieces of sensor information include: (1) a remote monitoring device, a remote monitoring system, a remote monitoring method, and a storage medium described in JP-A-2000-41113; 32879.
[0003]
In (1), the occurrence of an event to be monitored is monitored using a camera or the like.
[0004]
When an event occurs, the event is determined according to a predetermined condition. When it is determined that the event is the event of interest, notification of the event, storage of the event, and the like are performed. As a result, reduction of human burden by notification of unnecessary events and improvement of response to various events are expected.
[0005]
In (2), when performing monitoring using images, three types of images are generated: a detected image used to identify an abnormal location, an evidence image recorded when tracking the abnormal location, and a transmission image used for anomaly notification. I do.
[0006]
By setting a high-resolution image as a proof image and a low-resolution image as a transmission image, it is expected to improve transmission speed, stability, and acquire and store image information with high proof.
[0007]
[Problems to be solved by the invention]
In the above-mentioned prior art (1), the notification of an unnecessary event can be reduced, but after the notification of the event, only the control of the camera or the like is performed. Therefore, even if an event is erroneously detected, the determination is left to the operator, and the erroneous event detection rate may increase.
[0008]
Also in the above-mentioned prior art (2), it is possible to promptly notify only the detected abnormality, but no special processing is performed for improving the abnormality detection rate or reducing the erroneous detection rate.
[0009]
Therefore, in the present invention, for an integrated processing device of a plurality of sensor signals having limited calculation processing capability and communication capability, the data transmission amount to the integrated processing device is reduced without reducing the target detection rate, and Provided is a sensor information processing device capable of reducing a processing load.
[0010]
[Means for Solving the Problems]
In order to achieve the above object, the present invention provides the following means.
An observation unit that analyzes the observation signals of one or more sensors and obtains the observation signal value at each position in the observation area of the sensor. Based on the obtained observation signal value, the possibility of the target signal A sensor information integration device is configured by a sensor information processing unit that detects a certain signal (hereinafter, a target signal candidate) and an integration processing unit that integrates observation information (observation position, signal strength, and the like) of the target signal candidate. A plurality of sensors, a plurality of sensor information processing units, and an integration processing unit are hierarchically connected, and the observation signals of the sensors are integrated hierarchically.
[0011]
The integration processing unit determines the identity of the observation information output from the plurality of sensor information processing units and the other plurality of integration processing units, and integrates only the observation information of the target signal candidate determined to be the same.
[0012]
A sensor management unit is provided in the sensor information integration device. The sensor management unit calculates the degree of association between the managed sensors and selects a sensor having a small degree of association with another sensor. The target signal candidate detected from the observation signal of the selected sensor is discarded, and only the target signal candidate obtained from the observation signal of the sensor having a high degree of association with another sensor is processed by the integration processing unit.
[0013]
An integrated sensor management unit is provided in the sensor information integration device provided with the sensor management unit. The integrated sensor management unit calculates the degree of association between the sensor selected by each sensor management unit and the sensor managed by a different sensor management unit, and regroups the sensors based on the calculated degree of association. Sensors belonging to the same group are assigned to one sensor management unit.
[0014]
BEST MODE FOR CARRYING OUT THE INVENTION
The present invention relates to an apparatus for detecting a target by integrating observation information of one or more distributed sensors. Specifically, it can be realized by creating software or hardware for implementing the following method.
[0015]
(1st Embodiment)
The first embodiment relates to an apparatus for detecting targets by analyzing observation signals of a plurality of sensors to detect target signal candidates, determining the identity of each target signal candidate, and integrating them.
[0016]
FIG. 1 is an example of target observation using a plurality of sensors in the present embodiment.
[0017]
Hereinafter, an acoustic sensor is assumed as a sensor, but various sensors such as an image sensor and a radar that can obtain an observation value with respect to a position can be used. Further, in FIG. 1, the number of sensors is three, but may be any number. In FIG. 1, the acoustic sensor C101c transmits a sound wave 103, and the acoustic sensors A101a and B101b receive a reflected wave from a stationary or moving target 104. The areas 102a and 102b indicate the observation areas of the acoustic sensors A101a and B101b. In the present embodiment, the acoustic sensors A101a and B101b are receivers, and the acoustic sensor C101c is a transmitter. However, the acoustic sensors A101a to C101c may be transmitters, receivers, and transmitters / receivers. However, one or more transmitters or transmitters and receivers or receivers are required.
[0018]
FIG. 2 is a configuration diagram of the sensor information integration device in the present embodiment.
[0019]
The device is composed of sub-devices 210a, 210b, 210c, which are connected by a wired or wireless network. Each sub-device includes an interface 201 with the sensor 101, a CPU 202 for performing a series of processes, a memory 203 for storing programs and data, an interface 204 with an external device, a communication interface 206 with an external sub-device, and coupling these. It comprises a bus 207, a sensor 101, a database 205, and a communication device 208. In FIG. 2, the number of sub-devices 210 is three, but the number of sub-devices 210 can be further increased to provide a multi-stage configuration.
[0020]
FIG. 3 is a block diagram of a process in the sensor information integration device.
[0021]
The observation unit 301 analyzes the observation signal of each acoustic sensor 101 and obtains an observation signal value (reflected wave signal intensity) at each position in the observation area 102 of the acoustic sensor 101. The sensor information processing unit 302 detects a signal that may be a target signal (hereinafter, a target signal candidate) based on the observed signal value at each position obtained by each acoustic sensor 101, and detects the detected target signal. The observation information on the candidate is transmitted to the integration processing unit 303.
[0022]
Here, the observation information means the position at which the signal is observed and the signal strength. As the observation information, past observation positions and velocities can also be used. The integration processing unit 303 determines the identity of the observation information of the target signal candidates output from the plurality of sensor information processing units 302 and the other plurality of integration processing units 303, and determines whether the target signal candidates determined to be the same are the same. Integrate observation information. In FIG. 3, one sensor is connected to each observation unit, but a plurality of sensors can be connected. Also, the configuration of each processing unit changes according to the number of sub devices.
[0023]
Hereinafter, specific examples of processing in the observation unit 301, the sensor information processing unit 302, and the integration processing unit 303 will be described. This processing is stored in the memory 203 of the sub device 210 and executed by the CPU 202. In the following specific example, the observation position of the signal and the signal strength at the current time are used as the observation information.
[0024]
The observation unit 301 analyzes the observation signal of the acoustic sensor 101 using a signal analysis method such as a correlation process. FIG. 4 is an example of an analysis result of the observation unit 301. The images 401a and 401b are images in which the observed signal values at the respective positions of the acoustic sensors A101a and B101b are luminance values. A point 403 is an observation signal, areas 402a and 402b are observation areas of the acoustic sensors A101a and B101b, and points 404a and 404b are sensor positions. As a signal analysis method, various signal analysis methods as described in Document 1 (Richard O. Nielsen, "Sonar Signal Processing", Arttech House, 1991) can be used.
[0025]
FIG. 5 shows a specific processing procedure in the sensor information processing unit 302. Hereinafter, a processing procedure in the sensor information processing unit 302 will be described using the numbers in FIG. 5 as step numbers.
[0026]
In step 501 (storage signal storage), the observation image obtained by the observation unit 301 is stored in the database 205 of the sensor information processing unit.
[0027]
In step 502 (target signal candidate detection), the following processing is performed on the past observed image and the newly observed image in the database. The position on the image at each time is calculated assuming the target motion, and the pixel value at that position is added. Threshold processing of the threshold value Td is performed on the accumulated luminance value, and a target signal candidate is detected.
[0028]
In step 503 (reliability calculation), the reliability rb of the detected target signal candidate is calculated. As the reliability, the duration of observing the same target signal candidate is used. In addition, a signal-to-noise ratio when a signal other than the target signal candidate is assumed to be noise, a detection probability of a sensor at an observation position of the target signal candidate, and the like can be used as reliability.
[0029]
In step 504 (reliability determination), threshold value processing of the threshold value Tb is performed on the reliability rb. Specifically, when the reliability rb ≧ Tb, the following step 505 is executed. If the reliability rb <Tb, the process ends.
[0030]
In step 505 (transmission of observation information), the observation information of the target signal candidate detected in step 502 is output to the integration processing unit 303.
[0031]
FIG. 6 shows a specific processing procedure in the integration processing unit 303.
[0032]
FIG. 7 is an explanatory diagram of the correlation value.
[0033]
In FIG. 7, points z1 (k) 601, z2 (k) 602, and z3 (k) 603 are target signal candidates newly detected at time t (k), trajectories {z (k−3), z (k). −2), z (k−1)} 604 is the trajectory of the target detected until time t (k−1). Hereinafter, the processing procedure in the integration processing unit 303 will be described using the numbers in FIG. 6 as step numbers.
[0034]
In step 601 (obtain observation information), the observation information of the target signal candidates detected at time t (k) and before time t (k) is obtained from the database 205.
[0035]
In step 602 (correlation value calculation), a correlation value r between the target signal candidate observation information output from the sensor information processing unit and the retrieved target signal candidate observation information is calculated.
[0036]
Specifically, the Kalman filter estimates the target existence distribution at time t (k) from past observation information, and calculates the Mahalanobis distance md from the observation position error distribution of the target signal candidate. The reciprocal of the distance md is defined as a correlation value r. For a target signal candidate observed at the same time, the reciprocal of the Mahalanobis distance md between the observed position error distributions of the target signal candidate is defined as the correlation value r. However, the correlation value r between the same target signal candidates is r = −∞. The Kalman filter and the Mahalanobis distance are described in Literature 2 (Michio Nakano, Kiyoshi Nishiyama, "Kalman Filter", Maruzen, 1993), and 3 (Junichiro Towaki, "Recognition Engineering", Corona Co., 1993).
[0037]
In step 603 (correlation value determination), threshold value processing of a threshold value Tr is performed on the correlation value r. If r ≧ Tr, the following step 504 is executed. If r <Tr, the process ends.
[0038]
In addition to the above, various correlation processes described in Reference 4 (David L. Hall, "Material Technologies in Multisensor Data Fusion", Art House, 1992) can be used as the correlation process including steps 602 and 603. .
[0039]
In step 604 (target position calculation), the target position is estimated using the observation information of the target signal candidate output from the sensor information processing unit and the retrieved target candidate observation information. Specifically, a Kalman filter is used.
[0040]
In step 605 (target signal strength calculation), if the past observation position of the target is unchanged, such as a stationary target, the signal strength of the target is updated. Specifically, a weighted average value is calculated and used as a target signal strength. In addition, as a method of calculating a target signal strength, various methods described in the above-mentioned reference 4 and the like can be used.
[0041]
In step 606 (integrated observation information storage), the integrated observation information, that is, the position of the integrated target signal candidate and the signal strength are stored in the database 205.
[0042]
In step 607 (integrated observation information transmission), the observation information of the target signal candidate obtained by integration is output to the higher-level integration processing unit 303b.
[0043]
As described above, the output to the processing at the next stage of erroneous detection is reduced, and only highly reliable information is hierarchically integrated and output, thereby reducing the target detection rate. It can be expected that the processing load will be reduced.
[0044]
(Second embodiment)
The second embodiment relates to a sensor information integration device including a sensor management unit. The difference from the above embodiment is that a sensor management unit for selecting a sensor to be used is added.
[0045]
FIG. 8 is a block diagram of the sensor information integration device in the present embodiment.
[0046]
Arrow 810 indicates the data flow from each device. The sensor management unit 801 selects observation information to be output to the integration processing unit based on the degree of association between sensor observation areas. The selection of the observation information is performed when a target signal candidate is detected by the sensor information processing unit 302 and output to the next processing unit. It is also possible to calculate the degree of association between sensors at a predetermined time and select a sensor to be used for target observation in advance. The number of sensors can be an arbitrary number of 2 or more, and a plurality of sensors can be connected to each observation unit.
[0047]
FIG. 9 shows a specific processing procedure in the sensor management unit 801.
FIG. 10 is an explanatory diagram of processing in the sensor management unit 801.
[0048]
In FIG. 10, an area 1002 is an observation area of the acoustic sensor D1001, and an area 1003 is an area where the observation areas of the acoustic sensors A101a and B101b overlap. Hereinafter, the processing procedure in the sensor management unit 801 will be described using the numbers in FIG. 9 as step numbers.
[0049]
In step 901 (obtain sensor parameters), the parameters of each sensor 101 are obtained from the database 205. Here, the parameters mean the orientation and position of the sensor and the specifications of the sensor itself.
[0050]
In step 902 (calculation of the degree of association), the degree of association rd indicating the degree of association between the two sensors is calculated for all pairs of different sensors. As the degree of association, the overlapping area of the observation area of each sensor, the distance between the sensors, the type, and the like, which are calculated from the parameters of the sensors, are used. It is assumed that the greater the value of the degree of association rd, the higher the degree of association between sensors. In the example of FIG. 10, the degree of association rd is defined by the overlapping area S of the regions. Since the area S of the overlap area 1002 of the observation area of the acoustic sensors A101a and B101b is larger than the area (= 0) of the overlap area of the acoustic sensors A101a and D901 and the acoustic sensor B101a and D901, the two acoustic sensors A101a and B101b The relevance is higher than for the other sensor pairs.
[0051]
In step 903 (sensor grouping), a threshold value process of a threshold value Td is executed for the degree of association rd between the sensors, and a relationship of rd ≧ Td is established for the degrees of association rd with all other sensors. To form a group of sensors.
[0052]
In step 804 (transmission of observation information), when the target signal candidate output from the sensor information processing unit 302 is an observation signal of the sensor selected as a member of the group, the target signal candidate is output, and the integration processing unit 303 To be processed.
[0053]
As described above, by processing only the observation signals of highly relevant sensors by the integration processing unit 303, it is expected that the processing load on the integrated processing apparatus can be reduced without reducing the target detection rate.
[0054]
(Third embodiment)
The third embodiment relates to a sensor information integration device including an integrated sensor management unit. The difference from the above embodiment is that an integrated sensor management unit that changes the output destination of the sensor information processing unit and the integrated processing unit is provided.
[0055]
FIG. 11 is a block diagram of the sensor information integration device in the present embodiment.
[0056]
Arrow 1110 indicates the data flow between sub-devices 210d, 210e and sub-device 1102. The sub device 1102 is realized by changing a program in the memory 203 of the sub device 210. The integrated sensor management unit 1101 manages each sensor management unit 801 and changes the combination of the sensor management unit 801 and the sensor 101. Note that the number of sensors can be an arbitrary number of 2 or more, and a plurality of sensors can be connected to the observation unit. Further, each processing unit can be further added to form a multi-stage configuration.
[0057]
FIG. 12 shows a specific processing procedure in the integrated sensor management unit 1101. Hereinafter, the processing procedure in the integrated sensor management unit 1101 will be described using the numbers in FIG. 12 as step numbers.
[0058]
In step 1201 (subgrouping of sensors), the sensors 101 are grouped by the same method as in steps 901 to 903 for each sensor management unit 801.
[0059]
In step 1202 (sensor selection), a sensor that does not belong to the subgroup of the sensor 101 generated by each sensor management unit 801 is selected, and its parameters are acquired from the database 205.
[0060]
In step 1303 (calculation of the degree of association with another group), the degree of association rd between the selected sensor and the sensor in each subgroup is calculated by the same method as in step 902.
[0061]
In step 1304 (regrouping), a threshold value process of a threshold value Td is performed on the degree of association rd, and a subgroup that satisfies the relationship of rd ≧ Td is selected for all sensors in the subgroup with the selected sensor. I do. If there are a plurality of subgroups, the subgroup with the highest relevance rd is selected. A new group is formed by the selected sensors and subgroups, and the management is assigned to one sensor management unit 801.
[0062]
As described above, by regrouping valid sensors and processing only observation signals of highly relevant sensors in the integration processing unit 303, the processing load on the integrated processing apparatus can be reduced without reducing the target detection rate. It can be expected to be reduced.
[0063]
【The invention's effect】
According to the present invention, by hierarchically integrating observation signals of a plurality of sensors, the amount of data transmitted to the integrated processing device can be reduced without reducing the target detection rate, and the processing load on the integrated processing device can be reduced. A sensor information processing device can be provided.
[Brief description of the drawings]
FIG. 1 is a target observation example using a plurality of acoustic sensors.
FIG. 2 is a configuration diagram of a sensor information integration device.
FIG. 3 is a block diagram of processing in the sensor information integration device.
FIG. 4 is an example of an analysis result of an observation unit.
FIG. 5 is a processing procedure in a sensor information processing unit.
FIG. 6 is a processing procedure in an integrated processing unit.
FIG. 7 is an explanatory diagram of a correlation value.
FIG. 8 is a block diagram of processing in a sensor information integration device provided with a sensor management unit.
FIG. 9 is a processing procedure in a sensor management unit.
FIG. 10 is an explanatory diagram of processing in a sensor management unit.
FIG. 11 is a block diagram of processing in a sensor information integration device provided with an integrated sensor management unit.
FIG. 12 shows a processing procedure in a sensor management unit.
[Explanation of symbols]
101a, 101b, 101c: Acoustic sensor 102a, 102b: Observation area 201a, 201b, 201c of acoustic sensor: Sensor interface 202a, 202b, 202c: CPU
203a, 203b, 203c: memories 204a, 204b, 204c: external device interfaces 206a, 206b, 206c: communication interfaces 301a, 301b, 301c: observation units 302a, 302b, 302c: sensor information processing units 303a, 303b: integration processing Units 401a and 401b: Images 701, 702, and 703 in which the intensity of the reflected wave signal is a luminance value: Newly observed target signal candidates 704: Trajectories 801a and 801b of target signal candidates detected in the past: Sensor management unit 1003 : Observation area common to two acoustic sensors 1101: Integrated sensor management unit

Claims (3)

分散配置された複数のセンサと、既センサの観測信号を解析して既センサの観測領域内の各位置における観測信号値を求める観測部と、既観測部から出力される既観測信値に基づいて目標の信号と推定される目標信号候補を検出するセンサ情報処理部と、既センサ情報処理部から出力される既目標信号候補の観測情報を統合する統合処理部から成るセンサ情報統合装置において、複数の既センサ、複数の既観測部、複数の既センサ情報処理部、および複数の既統合処理部を階層的に接続し、既統合処理部では、複数の既センサ情報処理部、および他の複数の既統合処理部から出力される既目標信号候補の相関を算出し、既相関の高い既目標信号候補の既観測情報のみを統合し、統合した既観測情報を次段の既統合処理部に出力することを特徴とするセンサ情報統合装置。Based on a plurality of distributed sensors, an observation unit that analyzes the observation signals of the existing sensors and obtains observation signal values at each position in the observation area of the existing sensors, and based on the observed signal values output from the already observed units A sensor information processing unit that detects a target signal candidate estimated as a target signal, and a sensor information integration device including an integration processing unit that integrates observation information of a target signal candidate output from the sensor information processing unit. A plurality of already-sensored, a plurality of already-observed units, a plurality of already-sensored information processing units, and a plurality of already-integrated processing units are hierarchically connected, and the already-integrated processing unit includes a plurality of already-sensored information processing units and other Calculates the correlation of the target signal candidates output from the multiple integrated processing units, integrates only the observed information of the target signal candidates with high correlation, and integrates the integrated existing information into the next integrated processing unit. Output to Sensor information integration apparatus. 請求項1においてセンサ管理部を備え、既センサ管理部では複数の既センサ間の関連度を算出し、他の既センサとの既関連度が小さい既センサを選択し、選択した既センサの既観測信号から得られる既目標候補を破棄し、既統合処理部では既関連度の大きい既センサの既観測信号から検出される既目標信号候補だけを統合的に処理することを特徴とするセンサ情報統合装置。The sensor management unit according to claim 1, wherein the sensor management unit calculates a degree of association between the plurality of sensors, selects an existing sensor having a small degree of association with another existing sensor, and selects an existing sensor of the selected sensor. Sensor information characterized by discarding the target candidate obtained from the observed signal, and the integrated processing unit integrally processing only the target signal candidate detected from the observed signal of the sensor having a high degree of relevance. Integrated device. 請求項2において統合センサ管理部を備え、既統合センサ管理部では、既センサ管理部において選択された既センサと、異なる既センサ管理部の管理する複数の既センサとの既関連度を算出し、算出した既関連度に基づいて既選択したセンサと既複数のセンサから複数のセンサのサブグループを形成し、同一の既サブグループに属する既センサを一つの既センサ管理部に割り当てることを特徴とするセンサ情報統合装置。The integrated sensor management unit according to claim 2, wherein the integrated sensor management unit calculates a degree of association between the existing sensor selected by the existing sensor management unit and a plurality of existing sensors managed by different existing sensor management units. Forming a sub-group of a plurality of sensors from a selected sensor and a plurality of sensors based on the calculated degree of relevance, and allocating existing sensors belonging to the same existing sub-group to one existing sensor management unit. Sensor information integration device.
JP2002241300A 2002-08-22 2002-08-22 Sensor information integrating system Pending JP2004077400A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002241300A JP2004077400A (en) 2002-08-22 2002-08-22 Sensor information integrating system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002241300A JP2004077400A (en) 2002-08-22 2002-08-22 Sensor information integrating system

Publications (1)

Publication Number Publication Date
JP2004077400A true JP2004077400A (en) 2004-03-11

Family

ID=32023820

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002241300A Pending JP2004077400A (en) 2002-08-22 2002-08-22 Sensor information integrating system

Country Status (1)

Country Link
JP (1) JP2004077400A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047050A (en) * 2004-08-03 2006-02-16 Mitsubishi Electric Corp Tracking system and tracking processing method
JP2007093461A (en) * 2005-09-29 2007-04-12 Toyota Central Res & Dev Lab Inc Reliability calculator
JP2008089315A (en) * 2006-09-29 2008-04-17 Mitsubishi Electric Corp Positioning system, detection apparatus, positioning apparatus, positioning method for positioning system, detection method for detection apparatus, positioning method for positioning apparatus, detection program for detection apparatus, and positioning program for positioning apparatus
JP2011185617A (en) * 2010-03-04 2011-09-22 Furuno Electric Co Ltd Device for determination of bottom sediment, fish finder, bottom sediment determination method, and bottom sediment determination program
JP2014528132A (en) * 2011-09-23 2014-10-23 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method and apparatus for coupling a first sensor with at least one second sensor

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006047050A (en) * 2004-08-03 2006-02-16 Mitsubishi Electric Corp Tracking system and tracking processing method
JP4684591B2 (en) * 2004-08-03 2011-05-18 三菱電機株式会社 Tracking device and tracking processing method
JP2007093461A (en) * 2005-09-29 2007-04-12 Toyota Central Res & Dev Lab Inc Reliability calculator
JP2008089315A (en) * 2006-09-29 2008-04-17 Mitsubishi Electric Corp Positioning system, detection apparatus, positioning apparatus, positioning method for positioning system, detection method for detection apparatus, positioning method for positioning apparatus, detection program for detection apparatus, and positioning program for positioning apparatus
JP2011185617A (en) * 2010-03-04 2011-09-22 Furuno Electric Co Ltd Device for determination of bottom sediment, fish finder, bottom sediment determination method, and bottom sediment determination program
JP2014528132A (en) * 2011-09-23 2014-10-23 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツングRobert Bosch Gmbh Method and apparatus for coupling a first sensor with at least one second sensor
US9665524B2 (en) 2011-09-23 2017-05-30 Robert Bosch Gmbh Method and device for coupling a first sensor to at least one second sensor

Similar Documents

Publication Publication Date Title
US6525658B2 (en) Method and device for event detection utilizing data from a multiplicity of sensor sources
US20030214400A1 (en) Monitoring system realizing high performance with reduced processing loads
US20060077759A1 (en) Ultrasonic locating system
US20140022107A1 (en) Method and apparatus for managing tracking information using unique id in vessel traffic system
CN112418557A (en) Data analysis and prediction system and method based on cloud service
US7460949B2 (en) Method and system for detecting the presence of a disruptive object and activation module for this system
US10848425B2 (en) Method, system and program product for data transmission with a reduced data volume
KR101813790B1 (en) Apparatus and Method for multi-sensor information fusion based on feature information
US8410445B2 (en) Human body sensing apparatus with improved accuracy
JP2004077400A (en) Sensor information integrating system
CN109996205B (en) Sensor data fusion method and device, electronic equipment and storage medium
JP4726772B2 (en) Sensor system
CN111275087A (en) Data processing method and device, electronic equipment and motor vehicle
CN110398735B (en) Multi-radar-based perception data processing method and system
KR101396888B1 (en) Sensor network and target detection decision method thereof
US20110270578A1 (en) Method and device for operating a system with distributed sensors
JP5120199B2 (en) Video patrol monitoring system
JP6531356B2 (en) Target tracking device, target tracking method, program
Dakhlallah et al. Type-2 Fuzzy Kalman Hybrid Application for Dynamic Security Monitoring Systems based on Multiple Sensor Fusion
WO2019160070A1 (en) Abnormal-sound detection device and abnormal-sound detection method
KR101206822B1 (en) Detection apparutus for guard and the method
JPH03245081A (en) Main sensor determining apparatus
JP2008051599A (en) Communication control method and radar system using it
JP2004037262A (en) Target tracking system
Lecornu et al. Reliability evaluation of incomplete AIS trajectories