JP5990449B2 - Estimation system, estimation device, estimation method, and program - Google Patents

Estimation system, estimation device, estimation method, and program Download PDF

Info

Publication number
JP5990449B2
JP5990449B2 JP2012255709A JP2012255709A JP5990449B2 JP 5990449 B2 JP5990449 B2 JP 5990449B2 JP 2012255709 A JP2012255709 A JP 2012255709A JP 2012255709 A JP2012255709 A JP 2012255709A JP 5990449 B2 JP5990449 B2 JP 5990449B2
Authority
JP
Japan
Prior art keywords
estimation
shape
size
sensor
parameter relating
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2012255709A
Other languages
Japanese (ja)
Other versions
JP2014102214A (en
Inventor
斎藤 洋
洋 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2012255709A priority Critical patent/JP5990449B2/en
Publication of JP2014102214A publication Critical patent/JP2014102214A/en
Application granted granted Critical
Publication of JP5990449B2 publication Critical patent/JP5990449B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)

Description

本発明は、大きさ、外周長等の形状パラメータが時刻とともに変わり得る対象物に対して、その大きさ、外周長等の形状パラメータを、適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない2値センサのセンシング結果により、推定する技術に関するものである。ここで、推定対象としては、特殊なガスや、特定の気象条件にある領域、動物群れの様な多くの個体からなる集合物などがある。   In the present invention, shape parameters such as size and outer circumference length are appropriately dispersed for an object whose shape parameters such as size and outer circumference length can change with time (or many third parties The present invention relates to a technique for estimating from a sensing result of a binary sensor that does not have a positioning function. Here, as the estimation target, there are special gas, a region in a specific weather condition, an aggregate made up of many individuals such as a group of animals.

無線通信機能をもつセンサ(センサノードと呼ぶ)をばらまいて、多様な目的に利用するセンサネットワークの研究開発が盛んである。その応用分野として、対象物の大きさや形状の推定、それらによる種別同定などがある。例えば、ある領域に入ってきた車両の大きさや形状を把握すること、有毒ガスの広がりを観測し、推定することなどがこれに該当する。こうしたセンサネットワークでは、個々のセンサノードの位置をGPS等により把握する、あるいは、事前に設置位置を設計し、それに合わせて、センサノードを設置するということが前提となっている。   Research and development of sensor networks that can be used for various purposes by dispersing sensors (referred to as sensor nodes) having wireless communication functions. As an application field thereof, there are estimation of the size and shape of a target object, classification identification by them, and the like. For example, grasping the size and shape of a vehicle entering a certain area, observing and estimating the spread of a toxic gas, and the like correspond to this. In such a sensor network, it is assumed that the position of each sensor node is grasped by GPS or the like, or the installation position is designed in advance and the sensor node is installed in accordance with the design.

特開2010−60319号公報JP 2010-60319 A 特開2011−164084号公報JP 2011-164084 A H. Saito, S. Tanaka, and S. Shioda, Estimating Size and Shape of Non-convex Target Object Using Networked Binary Sensors, IEEE SUTC 2010, Newport Beach, California, USA.H. Saito, S. Tanaka, and S. Shioda, Estimating Size and Shape of Non-convex Target Object Using Networked Binary Sensors, IEEE SUTC 2010, Newport Beach, California, USA. Hiroshi Saito, Sadaharu Tanaka, and Shigeo Shioda, Stochastic Geometric Filter and Its Application to Shape Estimation for Target Objects, IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 59, NO. 10, OCTOBER 2011Hiroshi Saito, Sadaharu Tanaka, and Shigeo Shioda, Stochastic Geometric Filter and Its Application to Shape Estimation for Target Objects, IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 59, NO. 10, OCTOBER 2011

しかしながら、非常に多くのセンサを用いる場合、事前に無数のセンサの位置を設計し、配備することは、設計・配備コストが、個々のセンサに測位機能を付けることは、センサコストが、各々、膨大となるため、望ましくない。   However, when a large number of sensors are used, designing and deploying a myriad of sensor positions in advance is a design / deployment cost, and attaching a positioning function to each sensor is a sensor cost. It is not desirable because it becomes enormous.

大きさ、外周長が固定である対象の大きさ、外周長を適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない2値センサのセンシング結果により、推定することは、特許文献1(特開2010−60319号公報)により提案されている。また、適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない複合センサノード(各センサは2値センサで、それがある決まったレイアウトで複数並べられたセンサノード)のセンシング結果により、対象物の頂点の角度を推定することについては、特許文献2(特開2011−164084号公報)により提案されている。   Estimated based on the sensing results of a binary sensor that does not have a positioning function in which the size and circumference of the object with a fixed size and circumference are appropriately distributed (or installed by many third parties) This is proposed by Patent Document 1 (Japanese Patent Laid-Open No. 2010-60319). In addition, a composite sensor node that does not have a positioning function that is properly distributed (or installed by many third parties without permission) (each sensor is a binary sensor, and multiple sensors are arranged in a certain layout) The estimation of the angle of the vertex of the object based on the sensing result of the node is proposed in Patent Document 2 (Japanese Patent Application Laid-Open No. 2011-164084).

対象物が、特殊なガスや、特定の気象条件にある領域、動物群れの様な多くの個体からなる集合物、などの場合、時間的に、大きさや形状が変わらないということは、現実的な仮定ではない。このような時変対象に対して、設計・配備コスト、センサコストを抑制して、大きさ、形状を推定する従来技術はなかった。   It is realistic that the size and shape do not change over time when the target object is a special gas, an area in a specific weather condition, or an aggregate consisting of many individuals such as a group of animals. This is not an assumption. For such time-varying objects, there has been no prior art for estimating the size and shape while suppressing the design / deployment cost and the sensor cost.

本発明は上記の点に鑑みてなされたものであり、設置場所が特定されずに分散して配置された複数のセンサノードによるセンシング結果を用いて、時間的に、大きさや形状が変わる時変対象に対して、設計・配備コスト、センサコストを抑制して、大きさ、形状を推定する技術を提供することを目的とする。   The present invention has been made in view of the above points, and uses time-varying changes in size and shape by using sensing results from a plurality of sensor nodes arranged in a distributed manner without specifying installation locations. An object of the present invention is to provide a technique for estimating the size and shape of a target while suppressing design / deployment cost and sensor cost.

上記の課題を解決するために、本発明は、複数のセンサノードと1つのセンタサーバを備え、時々刻々変化し得る対象物の大きさ、及び形状に関するパラメータを推定する推定システムであって、
前記センサノードは、クラスに分かれ、ランダムに配備され、
前記対象物に対するセンシング手段と、
当該センシング手段によるセンシング結果とクラス番号を特定することができる情報とを前記センタサーバに送信する通信手段と、を備え、
前記センタサーバは、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備えることを特徴とする推定システムとして構成される。
In order to solve the above problems, the present invention is an estimation system that includes a plurality of sensor nodes and one center server, and estimates parameters related to the size and shape of an object that can change from time to time.
The sensor nodes are divided into classes, randomly deployed,
Sensing means for the object;
A communication means for transmitting a sensing result by the sensing means and information capable of specifying a class number to the center server,
The center server is
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, Based on the above, the estimation system is configured to include estimation means for estimating parameters related to the size and shape of the object.

前記形状に関するパラメータは、例えば、対象物の外周長であり、前記センサノードのセンシング結果は対象物の検出の有無である。また、前記対象物の大きさと形状に関するパラメータを含む状態変数の状態方程式と前記クラスごとのセンシング結果に基づく観測値を用いた観測方程式とに基づき推定を行う推定手段は、例えばカルマンフィルタである。   The parameter relating to the shape is, for example, the outer peripheral length of the object, and the sensing result of the sensor node is whether or not the object is detected. Moreover, the estimation means for performing estimation based on the state equation of the state variable including parameters related to the size and shape of the object and the observation equation using the observation value based on the sensing result for each class is, for example, a Kalman filter.

また、前記形状に関するパラメータとして、対象物の外周長と、もう1つの特性量でを用いる構成も可能である。   Moreover, the structure which uses the outer periphery length of a target object and another characteristic quantity as a parameter regarding the said shape is also possible.

更に、前記センサノードを、センサを2列、等間隔に並べて構成された複合センサノードとし、前記形状に関するパラメータとして、対象物の外周長と各頂点の角度を用いる構成とすることも可能である。   Further, the sensor node may be a composite sensor node configured by arranging the sensors in two rows at equal intervals, and the configuration may be configured to use the outer peripheral length of the object and the angle of each vertex as the parameters relating to the shape. .

また、本発明は、上記推定システムにおける推定装置、当該推定装置が実行する推定方法として構成することも可能である。更に、本発明は、記憶手段と通信手段とを備えるコンピュータを、上記推定システムにおける推定装置のデータ処理手段として機能させるためのプログラムとして構成することもできる。   The present invention can also be configured as an estimation device in the above estimation system and an estimation method executed by the estimation device. Furthermore, the present invention can also be configured as a program for causing a computer including a storage unit and a communication unit to function as a data processing unit of an estimation device in the estimation system.

本発明によれば、センサを多数配備し、それらのセンシング結果を収集することで、センサの位置不明であっても、また、対象物の大きさ、形状が時刻と共に変化する場合であっても、それらの推定が可能となる。これにより、利用シーンが大幅に増加する。   According to the present invention, by arranging a large number of sensors and collecting the sensing results, even if the position of the sensor is unknown or the size and shape of the object changes with time, , Estimation of them becomes possible. This greatly increases the usage scene.

第1の実施の形態に係る時変系形状推定システムの構成図である。It is a block diagram of the time-varying shape estimation system which concerns on 1st Embodiment. 第1の実施の形態に係る時変系形状推定システムの処理のフローチャートである。It is a flowchart of a process of the time-varying shape estimation system according to the first embodiment. センサの配置を示す図である。It is a figure which shows arrangement | positioning of a sensor. 関連技術においてセンサノードを配備して監視する対象領域を説明するための図である。It is a figure for demonstrating the object area | region which arrange | positions and monitors a sensor node in related technology. 関連技術においてクラス4のセンサノードが対象物を検出する範囲を説明するための図である。It is a figure for demonstrating the range which a sensor node of a class 4 detects a target object in related technology. 本発明の実施の形態及び関連技術におけるデータ処理部302の概要構成図である。It is a schematic block diagram of the data processing part 302 in embodiment of this invention and related technology. 本発明の技術を関連技術に適用する場合のデータ処理部302の例を示す図である。It is a figure which shows the example of the data processing part 302 in the case of applying the technique of this invention to a related technique. 第3の実施の形態に係る時変系形状推定システムの処理のフローチャートである。It is a flowchart of the process of the time-varying system shape estimation system which concerns on 3rd Embodiment.

以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。   Embodiments of the present invention will be described below with reference to the drawings. The embodiment described below is only an example, and the embodiment to which the present invention is applied is not limited to the following embodiment.

[第1の実施の形態]
<システム構成>
図1に、本発明の第1の実施の形態に係る時変系形状推定システムの構成図を示す。また、図2に、時変系形状推定システムの処理のフローチャートを示す。図1に示すように、本実施の形態に係る時変系形状推定システムは、複数のセンサノード201と1つのセンタサーバ401を備える。本実施の形態において、各センサノードはランダムに配備され、測位機能もないため、その配備場所は特定されていない。なお、図1には、例として2つのセンサノード201が示されているが、実際には多数のセンサノード201が配備される。
[First Embodiment]
<System configuration>
FIG. 1 shows a configuration diagram of a time-varying shape estimation system according to the first embodiment of the present invention. FIG. 2 shows a flowchart of processing of the time-varying shape estimation system. As shown in FIG. 1, the time-varying shape estimation system according to the present embodiment includes a plurality of sensor nodes 201 and one center server 401. In the present embodiment, each sensor node is randomly deployed and does not have a positioning function, so its deployment location is not specified. In FIG. 1, two sensor nodes 201 are shown as an example, but a large number of sensor nodes 201 are actually provided.

センサノード201は、対象物の有無を検出するセンサである検出部101、センシング結果(対象物の検出の有無)とクラス番号を特定することができる情報をセンタサーバ401に送信する無線通信部102、電源を供給する電源部103を備える。センサである検出部101は、センシングエリアサイズ等により2種類以上のクラスに分類される。本実施の形態における対象物は、時々刻々変化し得る対象物である。検出部101は、対象物が一部でも検出エリア内にあるとき対象物を検出するが、対象物がセンサに近いほど、検出力が高まる。ここでは、第j種類のセンサのセンシングエリアは、   The sensor node 201 includes a detection unit 101 that is a sensor that detects the presence or absence of an object, and a wireless communication unit 102 that transmits information that can specify a sensing result (whether or not an object is detected) and a class number to the center server 401. And a power supply unit 103 for supplying power. The detection unit 101 that is a sensor is classified into two or more types of classes according to the sensing area size and the like. The object in the present embodiment is an object that can change from moment to moment. The detection unit 101 detects the target object even when the target object is within the detection area, but the detection power increases as the target object is closer to the sensor. Here, the sensing area of the jth type sensor is

Figure 0005990449
の形に検出確率で段階分けされ、Αj,i-1にかからないがΑj,iにかかる対象物についてはαj,iの検出確率であるとする(図3)。
Figure 0005990449
It is assumed that the detection probability of α j, i for an object related to Α j, i is not applied to 段 階j, i-1 (FIG. 3).

図1に示すように、センタサーバ401は、センサノード201からのセンシング結果を受信するための無線通信部301、受信したセンシング結果をもとに対象物の大きさや形状の推定を行うデータ処理部302、データ処理に際して利用する既知のパラメータ値を記憶する記憶部303、結果の出力や実行指示の入力、既知パラメータ値の入力を行う入出力部304、電源を供給する電源部305を備える。なお、センタサーバ401を推定装置と称してもよい。   As shown in FIG. 1, the center server 401 includes a wireless communication unit 301 for receiving a sensing result from the sensor node 201, and a data processing unit for estimating the size and shape of the object based on the received sensing result. 302, a storage unit 303 for storing known parameter values used in data processing, an input / output unit 304 for inputting results and execution instructions, and inputting known parameter values, and a power source unit 305 for supplying power. The center server 401 may be referred to as an estimation device.

センタサーバ401は、例えば、通信機能を備えるコンピュータに、各実施の形態で説明するデータ処理部302の処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、データ処理部302は、センタサーバ401を構成するコンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、処理内容に対応するプログラムを実行することによって実現することが可能である。このプログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。また、各実施の形態で説明するデータ処理部302をハードウェア回路として実現し、当該ハードウェア回路を搭載することによりセンタサーバ401を構成することもできる。   The center server 401 can be realized, for example, by causing a computer having a communication function to execute a program describing the processing contents of the data processing unit 302 described in each embodiment. That is, the data processing unit 302 can be realized by executing a program corresponding to the processing content using hardware resources such as a CPU, a memory, and a hard disk built in a computer constituting the center server 401. is there. This program can be recorded on a computer-readable recording medium (portable memory or the like), stored, or distributed. It is also possible to provide the program through a network such as the Internet or electronic mail. The center server 401 can also be configured by realizing the data processing unit 302 described in each embodiment as a hardware circuit and mounting the hardware circuit.

<システムの動作>
次に、図1に示す構成を備える本実施の形態に係る時変系形状推定システムの処理動作について、図2のフローチャートの手順に沿って詳細に説明する。
<System operation>
Next, the processing operation of the time-varying shape estimation system according to the present embodiment having the configuration shown in FIG. 1 will be described in detail along the procedure of the flowchart of FIG.

ステップS201、S202)大きさや形状の推定を実行しようとする者は、センサ情報(センサノードに関するパラメータ)と、対象物の時変モデル情報(対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータ)と、推定の初期条件に関するパラメータを入出力部304から入力し、記憶部303にて保持させる。上記センサ情報とは、第j種類のセンシングエリアサイズをもつセンサについての、センサ(ノード)の平均密度λj、Αj,iのサイズと外周長である(j=1,2…, i=1,2,…, kj)。また、対象物の時変モデル情報とは、時刻tの対象物サイズを||T(t)||、周囲長を|T(t)|と表記した場合に、 Steps S201 and S202) A person who intends to execute size or shape estimation uses sensor information (parameters related to sensor nodes) and time-varying model information of objects (parameters related to time-varying models of parameters related to the size and shape of objects). ) And parameters related to the initial condition for estimation are input from the input / output unit 304 and stored in the storage unit 303. The sensor information includes the sensor (node) average density λ j , the size of Α j, i and the outer peripheral length of the sensor having the j-th type sensing area size (j = 1, 2,..., I = 1,2, ..., k j ). In addition, the time-varying model information of the object is the object size at time t expressed as || T (t) || and the perimeter as | T (t) |

Figure 0005990449
のモデルであり、具体的には、ma, mbと(es(t), el(t))の分散行列Vx(t)である。なお、上記の式において、es(t)、el(t)は誤差項、ak、bkは推定すべき定数項、||T(t)||、|T(t)|は推定すべき変数、ma、mbはモデルの一部として与えられる定数である。
Figure 0005990449
Specifically, m a , m b and a dispersion matrix V x (t) of (e s (t), e l (t)). In the above equation, e s (t) and e l (t) are error terms, a k and b k are constant terms to be estimated, and || T (t) || and | T (t) | The variables to be estimated, m a and m b are constants given as part of the model.

対象物各センサの個体識別番号と、当該センサがいずれの種類のセンサであるかも、記憶部303に記憶保持させる。   The storage unit 303 stores and holds the individual identification number of each sensor of the target object and which type of sensor the sensor is.

ステップS203)上記の情報をもとに、あらかじめ、次の諸量を計算、保持しておく。ただし、0i,jは、i行j列の零行列である。 Step S203) Based on the above information, the following quantities are calculated and held in advance. However, 0 i, j is a zero matrix of i rows and j columns.

Figure 0005990449
ステップS204)そして、入出力部304から実行指示を入力する。
Figure 0005990449
Step S204) Then, an execution instruction is input from the input / output unit 304.

ステップS205)各センサノード201は、各時刻tで対象物の検出(センシング)を検出部101にて実施する。   Step S205) Each sensor node 201 performs detection (sensing) of an object at each time t by the detection unit 101.

ステップS206)各センサノード201は、センシング結果をセンサ番号とともにセンタサーバ401に送信する。   Step S206) Each sensor node 201 transmits the sensing result together with the sensor number to the center server 401.

ステップS207)各センサノード201から送信された情報を通信部301が受信する。   Step S207) The communication unit 301 receives the information transmitted from each sensor node 201.

ステップS208)同情報を得たセンタサーバ401のデータ処理部302では、記憶部303に保持してあるセンサ番号ごとの種類の情報から、受信情報をセンサ種別ごとに分ける。時刻tにおいて、第i種類のセンサで対象物を検出したセンサ数をn(i;t)と表記する。各iについて、n(i;t)を計算する。n(i;t)を並べた縦ベクトルをn(t)と表記する。   Step S208) The data processing unit 302 of the center server 401 that has obtained the information separates the received information for each sensor type from the type information for each sensor number stored in the storage unit 303. The number of sensors in which the object is detected by the i-th type sensor at time t is expressed as n (i; t). For each i, calculate n (i; t). A vertical vector in which n (i; t) is arranged is expressed as n (t).

状態変数ベクトルx(t)を   State variable vector x (t)

Figure 0005990449
で定義する。すると、
Figure 0005990449
Defined in Then

Figure 0005990449
但し、Inはn行n列の単位行列、
Figure 0005990449
Where I n is an n-by-n identity matrix,

Figure 0005990449
のシステムとなることが示せるから、既知の技術であるカルマンフィルタにより状態変数の推定予測が可能となる。
Figure 0005990449
Therefore, it is possible to estimate and predict state variables using a Kalman filter that is a known technique.

すなわち、データ処理部302は、対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式(式1)と、センサクラス(センサ種別)ごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、カルマンフィルタにより状態変数の推定予測を行う推定器を備える。   That is, the data processing unit 302 has a state equation (Equation 1) based on a time variable model of a state variable including parameters related to the size and shape of an object, and an observed value and a state based on a sensing result for each sensor class (sensor type). An estimator for estimating and predicting a state variable by a Kalman filter is provided based on an observation equation describing the relationship between variables.

ステップS209、S210)データ処理部302は、記憶部303にある必要情報を読み出し、カルマンフィルタを実行する。   Steps S209 and S210) The data processing unit 302 reads necessary information stored in the storage unit 303 and executes a Kalman filter.

ステップ211)カルマンフィルタの実行結果を入出力部304にて出力することにより、対象物の大きさ、形状の情報を得ることができる。   Step 211) By outputting the execution result of the Kalman filter at the input / output unit 304, information on the size and shape of the object can be obtained.

<関連出願の技術について>
本願に関連する出願として特願2012−246677がある。本発明に係る技術は、当該関連出願の技術(以下、「関連技術」と呼ぶ)に適用することができる。まず、この関連技術の実施例について以下に説明する。
<Related application technology>
There is Japanese Patent Application No. 2012-246677 as an application related to the present application. The technology according to the present invention can be applied to the technology of the related application (hereinafter referred to as “related technology”). First, an embodiment of this related technique will be described below.

関連技術におけるシステム構成は、本発明の実施の形態に係るシステム構成と同じであり、図1に示すとおりである。   The system configuration in the related art is the same as the system configuration according to the embodiment of the present invention, as shown in FIG.

図4は、関連技術においてセンサノードを配備して監視する対象領域を説明するための図である。図4に示すとおり、関連技術では、x軸が1,…,2n_x、y軸が1,….,2n_yの整数からなる長方形の領域をセンサノードを配備して監視する対象領域とする。また、センサノードの配備、対象物は格子上の点をとるものとする。   FIG. 4 is a diagram for explaining a target area where a sensor node is deployed and monitored in the related art. As shown in FIG. 4, in the related technology, a rectangular area composed of integers with an x-axis of 1,..., 2n_x and a y-axis of 1,. Further, it is assumed that the sensor node is arranged and the object takes a point on the grid.

関連技術でもセンサノードは複数種類のクラスに分類される。クラスkのセンサノードが、点(i,j)に配備された場合のセンシング領域は、(i,j)を中心とする一辺あたりの格子点数が2L_k+1の正方領域、すなわち、x軸がi-L_kからi+L_kまで、y軸がj-L_kからj+L_kまでの領域とする。N_s(k)をクラスkの配備センサノード数、p_{k,(i,j)}をクラスkのセンサが(i,j)に配備される確率(場所に依存した確率)とし、各センサノードの位置は各々独立に決めるとする。   In related technology, sensor nodes are classified into a plurality of types of classes. When a sensor node of class k is deployed at a point (i, j), the sensing area is a square area with 2L_k + 1 lattice points per side centered at (i, j), that is, the x axis is The area from i-L_k to i + L_k and the y-axis from j-L_k to j + L_k. N_s (k) is the number of deployed sensor nodes of class k, p_ {k, (i, j)} is the probability that a class k sensor will be deployed at (i, j) (location-dependent probability), and each sensor Assume that the position of each node is determined independently.

以下では、簡単のため、例としてセンサノードのクラス数は4、L_1=L_2=L_3=0、L_4=L(Lは1以上の整数)の場合について説明する。また、
p_{1,(i,j)}=d_1N_s(1)/(4n_x*n_y) (i=1,,,n_xの場合)、
p_{1,(i,j)}=(2-d_1)N_s(1)/(4n_x*n_y) (i=n_x+1,,,2n_xの場合)
とする。上記の式において、d_1(0≦d_1≦2)をd_1≠1にとって、監視領域でのx軸上でn_xを境にセンサ配備密度を変える。同様に、
p_{2,(i,j)}=d_2N_s(2)/(4n_x*n_y) (j=1,,,n_xの場合)
p_{2,(i,j)}=(2-d_2)N_s(2)/(4n_x*n_y) (j=n_y+1,,,2n_yの場合)
とする。上記の式において、d_2(0≦d_2≦2)をd_2≠1にとって、監視領域でのy軸上でn_yを境にセンサ配備密度を変える。一方、p_{k,(i,j)}=N_s(k)/(4n_x*n_y)、(k=3,4)、すなわち、クラス3,4については等確率で各格子点に配備する。
In the following, for the sake of simplicity, a case where the number of sensor node classes is 4, L_1 = L_2 = L_3 = 0, and L_4 = L (L is an integer of 1 or more) will be described as an example. Also,
p_ {1, (i, j)} = d_1N_s (1) / (4n_x * n_y) (if i = 1 ,,, n_x),
p_ {1, (i, j)} = (2-d_1) N_s (1) / (4n_x * n_y) (when i = n_x + 1 ,,, 2n_x)
And In the above formula, d_1 (0 ≦ d_1 ≦ 2) is set to d_1 ≠ 1, and the sensor deployment density is changed with n_x as a boundary on the x axis in the monitoring region. Similarly,
p_ {2, (i, j)} = d_2N_s (2) / (4n_x * n_y) (when j = 1 ,,, n_x)
p_ {2, (i, j)} = (2-d_2) N_s (2) / (4n_x * n_y) (when j = n_y + 1 ,,, 2n_y)
And In the above formula, d_2 (0 ≦ d_2 ≦ 2) is set to d_2 ≠ 1, and the sensor deployment density is changed with n_y as a boundary on the y axis in the monitoring region. On the other hand, p_ {k, (i, j)} = N_s (k) / (4n_x * n_y), (k = 3,4), that is, classes 3 and 4 are deployed at each lattice point with equal probability.

当該監視領域のどこかに対象物Tがあるとする。対象物は、監視領域内を移動している。対象物の大きさ、形状、位置、移動速度、移動方向は未知である。但し、対象物は、穴や幅L以下の窪みの無い形状であることを仮定する。   Assume that the object T is located somewhere in the monitoring area. The object is moving in the monitoring area. The size, shape, position, moving speed, and moving direction of the object are unknown. However, it is assumed that the object has a shape without a hole or a recess having a width L or less.

S(T)を対象物Tの大きさ(本実施の形態では面積)、|T|を対象物Tの外周長とすると、クラス4のセンサノードが対象物を検出する範囲は、図5に点線で示す範囲であるから、その大きさ(本実施の形態では面積)は、
S(T)+|T|*L+((凸頂点数)−(凹頂点数))*L*L
で表される。対象物は格子上の点を頂点とすることから、常に、(凸頂点数)−(凹頂点数)=4となる。よって、時刻tで対象物を検出するクラス4のセンサ数n_4(t)は、
n_4(t)=(S(T)+|T|*L+4*L*L)N_s(4)/(4n_x*n_y)+e_4(t)
と表せる。ここでe_k(t)は期待値からの誤差項である(E[e_k(t)]=0、k=1,..,4)。対象物を検出するクラス3のセンサ数n_3(t)は、
n_3(t)=S(T)*N_s(3)/(4n_x*n_y)+e_3(t)
と表せる。
If S (T) is the size of the object T (area in this embodiment) and | T | is the outer peripheral length of the object T, the range in which the sensor node of class 4 detects the object is shown in FIG. Since it is a range indicated by a dotted line, its size (area in this embodiment) is
S (T) + | T | * L + ((number of convex vertices) − (number of concave vertices)) * L * L
It is represented by Since the object has vertices at points on the grid, the number of convex vertices minus the number of concave vertices is always 4. Therefore, the number n_4 (t) of class 4 sensors that detect an object at time t is
n_4 (t) = (S (T) + | T | * L + 4 * L * L) N_s (4) / (4n_x * n_y) + e_4 (t)
It can be expressed. Here, e_k (t) is an error term from the expected value (E [e_k (t)] = 0, k = 1,..., 4). The number of class 3 sensors n_3 (t) for detecting an object is
n_3 (t) = S (T) * N_s (3) / (4n_x * n_y) + e_3 (t)
It can be expressed.

一方、対象物を検出するクラスk(k=1,2)のセンサ数n_k(t)は、c_1(t)をTのうち、時刻tでx軸の値が1,..,n_xに入る割合、c_2(t)をTのうち、時刻tでy軸の値が1,..,n_yに入る割合、として
n_1(t)=Σ_{i=1,…,n_x}Σ_{j=1,…,2n_y} p_{1,(i,j)}*IF((i,j) in T)
+Σ_{i=n_x+1,…,2n_x}Σ_{j=1,…,2n_y} p_{1,(i,j)}*IF((i,j) in T)+e_1(t)
=(c_1(t)*S(T)*d_1N_s(1)+(1-c_1(t))*S(T)*(2-d_1)N_s(1))/(4n_x*n_y)+e_1(t)
n_2(t)=Σ_{i=1,…,2n_x}Σ_{j=1,…,n_y} p_{2,(i,j)}*IF((i,j) in T)
+Σ_{i=1,…,2n_x}Σ_{j=n_y+1,…,2n_y} p_{2,(i,j)}*IF((i,j) in T)+e_2(t)
=(c_2(t)*S(T)*d_2N_s(2)+(1-c_2(t))*S(T)*(2-d_2)N_s(2))/(4n_x*n_y)+e_2(t)
となる。なお、IF((i,j) in T)は、(i,j)がTの範囲にある場合に1となり、(i,j)がTの範囲にない場合に0になる。
On the other hand, the number of sensors n_k (t) of class k (k = 1, 2) for detecting an object is c_1 (t) of T, and the value of the x-axis enters 1, .., n_x at time t. The ratio, c_2 (t), is the ratio of the y-axis value entering 1, .., n_y at time t.
n_1 (t) = Σ_ {i = 1,…, n_x} Σ_ {j = 1,…, 2n_y} p_ {1, (i, j)} * IF ((i, j) in T)
+ Σ_ {i = n_x + 1,…, 2n_x} Σ_ {j = 1,…, 2n_y} p_ {1, (i, j)} * IF ((i, j) in T) + e_1 (t)
= (c_1 (t) * S (T) * d_1N_s (1) + (1-c_1 (t)) * S (T) * (2-d_1) N_s (1)) / (4n_x * n_y) + e_1 ( t)
n_2 (t) = Σ_ {i = 1,…, 2n_x} Σ_ {j = 1,…, n_y} p_ {2, (i, j)} * IF ((i, j) in T)
+ Σ_ {i = 1,…, 2n_x} Σ_ {j = n_y + 1,…, 2n_y} p_ {2, (i, j)} * IF ((i, j) in T) + e_2 (t)
= (c_2 (t) * S (T) * d_2N_s (2) + (1-c_2 (t)) * S (T) * (2-d_2) N_s (2)) / (4n_x * n_y) + e_2 ( t)
It becomes. Note that IF ((i, j) in T) is 1 when (i, j) is in the range of T, and is 0 when (i, j) is not in the range of T.

以下、
c_k(t)=c_k(t-1)+e'_k(t)
E[e'_k(t)]=0
であるとし、e'_k(t)は、分散既知、独立な正規性確率変数とする。
Less than,
c_k (t) = c_k (t-1) + e'_k (t)
E [e'_k (t)] = 0
And e′_k (t) is an independent normality random variable with known variance.

各時刻tにおいて、センタサーバ401は各センサノード201からのセンシング結果を、クラス番号とともに、無線通信部301で受信し、データ処理部302に送り、データ処理部302が、対象物の大きさ、外周長、位置の推定を行う。   At each time t, the center server 401 receives the sensing result from each sensor node 201 together with the class number by the wireless communication unit 301 and sends it to the data processing unit 302. The data processing unit 302 determines the size of the object, Peripheral length and position are estimated.

関連技術におけるデータ処理部302の概要構成を図6に示す。なお、図6に示すデータ処理部302の構成は、本発明の実施の形態におけるデータ処理部302の構成の例でもある。図6に示すように、データ処理部302は、センサのクラス(種別)毎の加算器312と推定器322を備える。   FIG. 6 shows a schematic configuration of the data processing unit 302 in the related technology. The configuration of the data processing unit 302 illustrated in FIG. 6 is also an example of the configuration of the data processing unit 302 in the embodiment of the present invention. As shown in FIG. 6, the data processing unit 302 includes an adder 312 and an estimator 322 for each sensor class.

各加算器312は、対応するクラスのセンサノードのセンシング結果(検出の場合は1、検出しない場合は0)を受信し、これらを加算した結果を推定器322に出力する。加算器312の出力がn_k(t)の実現値に相当する。(以下、これをn_k(t)と表記する。)
前述したn_k(t) (k=1,2,3,4)の式からわかるように、未知変数は、S(T)、|T|、c_1(t)、c_2(t)である。また、記憶部303が保持し、データ処理部302に送るパラメータは、N_s(k)、L、n_x、n_y、d_k、およびe_k(t)、e'_k(t)の分散、初期条件である。推定器322は、これらのパラメータとn_k(t)の実現値とに基づいて、S(T)、|T|、c_1(t)、c_2(t)を推定し、出力する。例えば、推定器322を拡張カルマンフィルタ等で構成し、拡張カルマンフィルタ等によりS(T)、|T|、c_1(t)、c_2(t)を推定することが可能である。
Each adder 312 receives the sensing result of the sensor node of the corresponding class (1 in the case of detection, 0 if not detected), and outputs the result of adding these to the estimator 322. The output of the adder 312 corresponds to an actual value of n_k (t). (Hereafter, this is expressed as n_k (t).)
As can be seen from the above-described expression n_k (t) (k = 1, 2, 3, 4), the unknown variables are S (T), | T |, c_1 (t), and c_2 (t). Parameters stored in the storage unit 303 and sent to the data processing unit 302 are N_s (k), L, n_x, n_y, d_k, and e_k (t) and e′_k (t) distributions and initial conditions. . The estimator 322 estimates and outputs S (T), | T |, c_1 (t), and c_2 (t) based on these parameters and the realized value of n_k (t). For example, the estimator 322 may be composed of an extended Kalman filter or the like, and S (T), | T |, c_1 (t), and c_2 (t) can be estimated using the extended Kalman filter or the like.

推定器322は、拡張カルマンフィルタ等よりも簡便な、図7に示す構成とすることが可能である。なお、本関連技術の例において、図7のkは4である。図7に示す構成では、推定器322は、推定器322−1と推定器322−2を有する。図7の構成において、推定器322−1にn_3(t)とn_4(t)が入力され、推定器322−1が対象物の大きさS(T)と外周長|T|をn_3(t)とn_4(t)のみで推定し、その推定結果を推定器322−2に与え、推定器322−2が、S(T)、外周長|T|、n_1(t)、n_2(t)を用いて、位置情報であるc_1(t)、c_2(t)を推定する。より詳細には以下のとおりである。   The estimator 322 can be configured as shown in FIG. 7, which is simpler than an extended Kalman filter or the like. Note that k in FIG. In the configuration illustrated in FIG. 7, the estimator 322 includes an estimator 322-1 and an estimator 322-2. In the configuration of FIG. 7, n_3 (t) and n_4 (t) are input to the estimator 322-1, and the estimator 322-1 sets the object size S (T) and the perimeter length | T | to n_3 (t ) And n_4 (t) only, and the estimation result is given to the estimator 322-2. The estimator 322-2 includes S (T), outer circumference length | T |, n_1 (t), n_2 (t) Is used to estimate c_1 (t) and c_2 (t) as position information. More details are as follows.

n_3(t)とn_4(t)に関し、十分大きなmに対して、
Σ_{t=1,…,m}n_4(t)/m=(S(T)+|T|*L+4*L*L)N_s(4)/(4n_x*n_y)
Σ_{t=1,…,m}n_3(t)/m=S(T)*N_s(3)/(4n_x*n_y)
が成り立つ。従って、
S(T)=4n_x*n_yΣ_{t=1,…,m}n_3(t)/(m*N_s(3))
|T|=(4n_x*n_y/L){Σ_{t=1,…,m}(n_4(t)/(m*N_s(4))−n_3(t)/(m*N_s(3)))−4L*L}
となる。推定器322−1は、順次入力されるn_3(t)とn_4(t)、及び記憶部303から取得したパラメータを用いて上記の計算を行うことでS(T)、|T|を推定する。
For n_3 (t) and n_4 (t), for sufficiently large m,
Σ_ {t = 1,…, m} n_4 (t) / m = (S (T) + | T | * L + 4 * L * L) N_s (4) / (4n_x * n_y)
Σ_ {t = 1,…, m} n_3 (t) / m = S (T) * N_s (3) / (4n_x * n_y)
Holds. Therefore,
S (T) = 4n_x * n_yΣ_ {t = 1,…, m} n_3 (t) / (m * N_s (3))
| T | = (4n_x * n_y / L) {Σ_ {t = 1,…, m} (n_4 (t) / (m * N_s (4)) − n_3 (t) / (m * N_s (3)) ) −4L * L}
It becomes. The estimator 322-1 estimates S (T) and | T | by performing the above calculation using n_3 (t) and n_4 (t) sequentially input and the parameters acquired from the storage unit 303. .

このS(T)、|T|を真値として、推定器322−2に与える。これにより、n_k(t) (k=1,2)は、c_k(t)の線形関数となるため、推定器322−2をカルマンフィルタで構成することで、カルマンフィルタによりc_k(t)を推定する。   The S (T) and | T | are given as true values to the estimator 322-2. As a result, n_k (t) (k = 1, 2) becomes a linear function of c_k (t). Therefore, by configuring the estimator 322-2 with a Kalman filter, c_k (t) is estimated by the Kalman filter.

これらの推定結果(S(T)、|T|、c_k(t))は時々刻々、入出力部304に送られ、表示される。   These estimation results (S (T), | T |, c_k (t)) are sent to the input / output unit 304 every moment and displayed.

この関連技術によれば、設置位置不明のバイナリセンサを用いることで、対象物のサイズ、外周長に加えて、存在場所の推定が可能となる。なお、関連技術では、説明を分かりよくするために、領域をx軸に沿い2分割、y軸に沿い2分割した例を挙げたが、より細かく分割して、場所を推定することは、容易に類推可能である。また、本関連技術では、センサ種別数を4としているが、センサ種別数は4に限定されるわけではなく、他の任意の種別数を適用できる。また、位置推定に2種のセンサを用いているが、これも2種である必要は無い。一般的に、位置を細かく特定するなら、より多くのセンサ種別が必要となる。   According to this related technology, by using a binary sensor whose installation position is unknown, it is possible to estimate the location of the object in addition to the size and the outer peripheral length of the object. In addition, in the related technology, in order to make the explanation easy to understand, an example was given in which the region was divided into two along the x axis and divided into two along the y axis. However, it is easy to estimate the location by dividing more finely. It can be inferred. In this related technique, the number of sensor types is four, but the number of sensor types is not limited to four, and any other number of types can be applied. Moreover, although two types of sensors are used for position estimation, it is not necessary that these are also two types. Generally, if the position is specified in detail, more sensor types are required.

<本発明の関連技術への適用について>
図7のデータ処理部302における点線、上半分において対象物サイズ、及び外周長を推定するが、この部分に本発明の技術を適用することができる。
<Application of the present invention to related technologies>
The object size and the outer peripheral length are estimated in the dotted line and the upper half in the data processing unit 302 in FIG. 7, and the technique of the present invention can be applied to this portion.

関連技術では、時不変のシステムに対して、大きさと外周長を推定する推定器が推定器322−1となっていたが、本発明に係る推定器を推定器322−1として用いることで、時変な対象についても、位置推定も可能となる。すなわち、図7の点線、上半分を、本発明に係る推定器を用いて構成したデータ処理部302を備えるセンタサーバ401は、本発明の推定装置の実施の形態の1つである。なお、関連技術では、センサの検出力が段階分けされていないが、これも、本発明との組み合わせにおいては、本質的な問題とはならない。   In the related art, the estimator 322-1 is the estimator for estimating the size and the outer perimeter for a time-invariant system. Position estimation is also possible for time-varying objects. That is, the center server 401 provided with the data processing part 302 which comprised the dotted line of FIG. 7, and the upper half using the estimator which concerns on this invention is one of the embodiments of the estimation apparatus of this invention. In the related art, the detection power of the sensor is not divided into stages, but this is not an essential problem in combination with the present invention.

<本願と関連技術との関係について>
位置不変であれば、本願の技術だけで、時変対象物のサイズ、外周長の推定が可能である。加えて、監視領域にセンサが一様に撒かれているのであれば、位置が変わっても、本願の技術だけで、時変対象物のサイズ、外周長の推定が可能である。ただし、位置推定はできない。監視領域に撒かれたセンサの平均密度に濃淡があり、それを推定者が知っている場合に、本願の技術と関連技術とを組み合わせ、時変対象物のサイズ、外周長の推定とともに、位置推定ができる。
<Relationship between this application and related technologies>
If the position does not change, it is possible to estimate the size and outer peripheral length of the time-varying object only with the technique of the present application. In addition, if the sensors are evenly spread over the monitoring area, the size and the outer peripheral length of the time-varying object can be estimated only by the technique of the present application even if the position changes. However, position estimation is not possible. When the average density of the sensors sown in the monitoring area is shaded and the estimator knows this, combine the technology of this application and related technology, and estimate the size and circumference length of the time-varying object. Can be estimated.

[第2の実施の形態]
第1の実施の形態は、対象物が凸である場合の対象物の大きさや外周長の推定、予測を行う例であった。多くの場合、凸でない対象物でも、推定はうまくいく場合が多いが、第2の実施の形態では、必ずしも凸とは限らない対象物の大きさや外周長の推定、予測をより複雑なモデルを導入することで適用範囲を広げる例について、説明する。第2の実施の形態においては、適用範囲は広がるが、状態変数が増える、対象物の内角の大きさの変化の影響を対象物の大きさや外周長の推定、予測が受ける、などの点に留意する必要がある。
[Second Embodiment]
The first embodiment is an example of estimating and predicting the size and outer peripheral length of an object when the object is convex. In many cases, estimation is successful even with non-convex objects, but in the second embodiment, a more complicated model is used for estimating and predicting the size and outer circumference of an object that is not necessarily convex. An example of expanding the application range by introducing the system will be described. In the second embodiment, the range of application is widened, but the state variables increase, the influence of the change in the size of the inner angle of the target is affected by the estimation and prediction of the size and outer circumference of the target, and the like. It is necessary to keep in mind.

以下、第2の実施の形態における、第1の実施の形態との差分について説明する。以下で説明すること以外は、第1の実施の形態と同様である。   Hereinafter, differences in the second embodiment from the first embodiment will be described. Except as described below, the second embodiment is the same as the first embodiment.

対象物の、πより小さい内角をν12…..,とし、ν=Σiνi、πより大きい第i内角の関数をβi、β=Σiβiとする。νおよびβを状態変数ベクトルの要素に加え、状態変数ベクトルを The interior angles of the object are smaller than π, ν 1 , ν 2 ..., Ν = Σ i ν i , and the i-th interior angle function larger than π is β i , β = Σ i β i . ν and β are added to the elements of the state variable vector, and the state variable vector is

Figure 0005990449
とする。
Figure 0005990449
And

図2のステップS203において、あらかじめ計算しておくものとして、   In step S203 of FIG.

Figure 0005990449
を加える。
Figure 0005990449
Add

すると、新たな状態方程式は、   Then the new equation of state is

Figure 0005990449
新たな観測方程式は、
Figure 0005990449
The new observation equation is

Figure 0005990449
となることが、非特許文献1の近似式(式4)を用いることで示せる。ここで、
Figure 0005990449
This can be shown by using the approximate expression (Expression 4) of Non-Patent Document 1. here,

Figure 0005990449
である。
Figure 0005990449
It is.

図2のステップS210において、これを用いてカルマンフィルタによる状態変数の推定、予測を行う。ex'(t)の分散については、適当なものが設定できない場合は、適応カルマンフィルタなどの適当な既存技術を用いる。 In step S210 of FIG. 2, state variables are estimated and predicted using the Kalman filter. If an appropriate value cannot be set for the distribution of e x '(t), an appropriate existing technique such as an adaptive Kalman filter is used.

[第3の実施の形態]
第1、第2の実施の形態では、センサは、対象物の有無だけをレポートしたが、多くのセンサでは、センシングエリア内の特性量をセンシング結果とすることができる。本実施の形態では、対象物の基準点が(x0, y0)、基準角度がθ0のときの、(x,y)における特性量をh((x,y)|x0, y0, θ0)と表記し、第j種センサのセンシング値qj(t)は、
[Third Embodiment]
In the first and second embodiments, the sensor reports only the presence or absence of an object. However, in many sensors, the characteristic amount in the sensing area can be used as a sensing result. In the present embodiment, when the reference point of the object is (x 0 , y 0 ) and the reference angle is θ 0 , the characteristic quantity at (x, y) is represented by h ((x, y) | x 0 , y 0 , θ 0 ), and the sensing value q j (t) of the type j sensor is

Figure 0005990449
と書ける場合を発明の対象とする。ただし、h((x,y)|x0, y0, θ0)>0、wj,k>0である。ここで、T(t)は、時刻tにおいて、対象物が占める2次元空間上の領域である。特性量h((x,y)|x0, y0, θ0)とは、対象物の(x,y)での高さや、対象物が微細物の集合体の場合は密度など、が考えられる。
Figure 0005990449
Is the subject of the invention. However, h ((x, y) | x 0 , y 0 , θ 0 )> 0 and w j, k > 0. Here, T (t) is an area on the two-dimensional space occupied by the object at time t. The characteristic quantity h ((x, y) | x 0 , y 0 , θ 0 ) is the height of the object at (x, y) or the density if the object is an aggregate of fine objects. Conceivable.

本実施の形態では、対象物上のある点(x,y)におけるh((x,y)|.)の平均値hm(t)を第1、第2の実施の形態で推定した対象物のサイズや外周長をもとに推定する方法について説明する。 In the present embodiment, an object in which the average value h m (t) of h ((x, y) |.) At a certain point (x, y) on the object is estimated in the first and second embodiments. A method for estimation based on the size and outer circumference of an object will be described.

上記定義式のqj(t)は、センシングエリアにおける特性量の加重平均とみなすことができる。上記定義式で分かるように、対象物がセンシングエリアに無い場合は0、ある場合は正の値をとるので、当該センサは2値センサを含む。 Q j (t) in the above definition can be regarded as a weighted average of the characteristic quantities in the sensing area. As can be seen from the above definition formula, when the object is not in the sensing area, it takes 0, and when it has a positive value, the sensor includes a binary sensor.

本実施の形態における処理のフローチャートを図8に示す。   FIG. 8 shows a flowchart of processing in the present embodiment.

図8のステップS401に示すように、まず、前述したステップS201〜S207を実行するが、若干の修正がある。まず、ステップS201で記憶すべきセンサ情報として、wj,kを(j=1,2,…,k=1,…,kj)を追加する。第j種センサがステップS205で実施し、ステップS206で送信するセンシング結果は、qj(t)である。 As shown in step S401 in FIG. 8, first, the above-described steps S201 to S207 are executed, but there are some modifications. First, w j, k (j = 1, 2,..., K = 1,..., K j ) is added as sensor information to be stored in step S201. The sensing result transmitted by the j-th type sensor in step S205 and transmitted in step S206 is q j (t).

次に、ステップS402で、各種別ごとに、センサ値qj(t)の算術平均をとり、 Next, in step S402, the arithmetic average of the sensor values q j (t) is taken for each type,

Figure 0005990449
を計算する。
Figure 0005990449
Calculate

ステップS403で記憶部303の情報を読み出し、ステップS404でカルマンフィルタ等の方法で、状態変数ベクトルの推定、予測を行う。状態変数ベクトルには、時刻tにおける対象物のサイズ、外周長が含まれることから、その推定値   In step S403, information in the storage unit 303 is read, and in step S404, state variable vectors are estimated and predicted by a method such as a Kalman filter. Since the state variable vector includes the size of the object at the time t and the outer perimeter, its estimated value

Figure 0005990449
を得ることができるので、この値を読み出す(ステップS405)。
Figure 0005990449
This value is read out (step S405).

幾何確率を用いると以下の方程式が成立することが分かる。   It can be seen that the following equation holds when the geometric probability is used.

Figure 0005990449
このことから、ステップS406において、hm(t)の推定値を次の式で計算する。
Figure 0005990449
Therefore, in step S406, an estimated value of h m (t) is calculated by the following equation.

Figure 0005990449
そして、ステップS407において、その結果を入出力部304にて出力する。
Figure 0005990449
In step S407, the input / output unit 304 outputs the result.

[第4の実施の形態]
特許文献2(特開2011−164084号公報)により提案されている、センサを2列、等間隔に並べて構成された複合センサにより、時変対象物の大きさ、外周長、頂点の角度、について推定する場合について説明する。すなわち、本実施の形態では、形状に関するパラメータは対象物の外周長と、各頂点の角度を含み、センサノードは、センサを2列、等間隔に並べて構成された複合センサノードである点がこれまでの実施の形態と異なる。複合センサノードの各センサのセンシング結果は、対象物の検出の有無である。
[Fourth Embodiment]
About the size of the time-varying object, the outer peripheral length, and the angle of the apex by a composite sensor proposed by Patent Document 2 (Japanese Patent Application Laid-Open No. 2011-164084), in which the sensors are arranged in two rows at equal intervals. A case of estimation will be described. That is, in the present embodiment, the shape-related parameters include the outer peripheral length of the object and the angle of each vertex, and the sensor node is a complex sensor node configured by arranging the sensors in two rows at equal intervals. Different from the previous embodiments. The sensing result of each sensor of the composite sensor node is the presence or absence of detection of an object.

この場合も、基本的には、これまでの実施の形態で説明したように、
1)推定対象パラメータの時変モデルを仮定し、それに基づく状態方程式を構成する。状態変数は、推定対象パラメータを含む。
In this case as well, basically, as described in the previous embodiments,
1) Assuming a time-varying model of parameters to be estimated, a state equation based on the model is constructed. The state variable includes an estimation target parameter.

2)観測値と状態変数の関係を導出し、それに基づき、観測方程式を構成する。   2) Derive the relationship between the observed value and the state variable, and construct the observation equation based on it.

3)状態方程式を観測方程式から、適切な推定器を構成する。
という手順で推定を行う。
3) An appropriate estimator is constructed from the state equation from the observation equation.
Estimate according to the procedure.

1)については、これまでに説明した実施の形態と同様なものが構成できる。特に、頂点数が不変と言う前提で、時刻tでの第i頂点の角度をξi(t)とし、その時間変化モデルを As for 1), the same configuration as that of the embodiments described so far can be configured. In particular, assuming that the number of vertices is unchanged, the angle of the i-th vertex at time t is ξ i (t), and the time variation model is

Figure 0005990449
と仮定する。すると、状態変数を
Figure 0005990449
Assume that Then the state variable

Figure 0005990449
とすれば、式1と同様の線形の状態方程式が構成可能である。
これに対して、観測方程式は、式2とは大きく異なる。非特許文献2に示されているように、頂点の角度と、センシング結果との関係は、非常に複雑な非線形関係となる。このため、観測方程式は、非線形方程式となる。上記非特許文献2の結果を用いれば、当該非線形観測方程式を導出することは容易である。観測方程式が非線形であることから、状態推定器は、通常、非線形となる。非線形ではあるが、状態方程式、観測方程式が導出されていることから、従来技術で推定器は構成可能であり、複合センサにより、時変対象物の大きさ、外周長、頂点の角度を推定することができる。
Figure 0005990449
Then, a linear equation of state similar to Equation 1 can be constructed.
On the other hand, the observation equation is greatly different from Equation 2. As shown in Non-Patent Document 2, the relationship between the vertex angle and the sensing result is a very complicated non-linear relationship. For this reason, the observation equation is a nonlinear equation. If the result of the said nonpatent literature 2 is used, it will be easy to derive | lead-out the said nonlinear observation equation. Since the observation equation is nonlinear, the state estimator is usually nonlinear. Although it is non-linear, the state equation and observation equation are derived, so the estimator can be configured with the conventional technology, and the size, outer circumference length, and vertex angle of the time-varying object are estimated by the composite sensor. be able to.

本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。例えば、センサそれ自体は、第3者によって配備され、そのセンシング結果をオペレータが収集することでもよい。   The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims. For example, the sensor itself may be deployed by a third party and the sensing results collected by the operator.

201 センサノード
101 検出部
102 無線通信部
103、305 電源部
301 無線通信部
302 データ処理部
303 記憶部
304 入出力部
312 加算器
322、322−1、322−2 推定器
401 センタサーバ
201 sensor node 101 detection unit 102 wireless communication unit 103, 305 power supply unit 301 wireless communication unit 302 data processing unit 303 storage unit 304 input / output unit 312 adder 322, 322-1, 322-2 estimator 401 center server

Claims (8)

複数のセンサノードと1つのセンタサーバを備え、時々刻々変化し得る対象物の大きさ、及び形状に関するパラメータを推定する推定システムであって、
前記センサノードは、
クラスに分かれ、ランダムに配備され、
前記対象物に対するセンシング手段と、
当該センシング手段によるセンシング結果とクラス番号を特定することができる情報とを前記センタサーバに送信する通信手段と、を備え、
前記センタサーバは、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備える
ことを特徴とする推定システム。
An estimation system that includes a plurality of sensor nodes and a center server, and estimates parameters related to the size and shape of an object that can change from moment to moment,
The sensor node is
Divided into classes, randomly deployed,
Sensing means for the object;
A communication means for transmitting a sensing result by the sensing means and information capable of specifying a class number to the center server,
The center server is
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation system comprising: estimation means for estimating parameters related to the size and shape of the object based on the above.
前記形状に関するパラメータは対象物の外周長であり、前記センサノードのセンシング結果は対象物の検出の有無である
ことを特徴とする請求項1に記載の推定システム。
The estimation system according to claim 1, wherein the parameter relating to the shape is an outer peripheral length of an object, and a sensing result of the sensor node is presence or absence of detection of the object.
前記対象物の大きさと形状に関するパラメータを含む状態変数の状態方程式と前記クラスごとのセンシング結果に基づく観測値を用いた観測方程式とに基づき推定を行う推定手段は、カルマンフィルタである
ことを特徴とする請求項1に記載の推定システム。
The estimation means for performing estimation based on a state equation of a state variable including parameters related to the size and shape of the object and an observation equation using an observation value based on a sensing result for each class is a Kalman filter. The estimation system according to claim 1.
前記形状に関するパラメータは対象物の外周長と、もう1つの特性量であり、前記センサノードのセンシング結果は対象物の検出の有無である
ことを特徴とする請求項1に記載の推定システム。
The estimation system according to claim 1, wherein the parameter relating to the shape is an outer peripheral length of the object and another characteristic amount, and a sensing result of the sensor node is whether or not the object is detected.
前記形状に関するパラメータは対象物の外周長と各頂点の角度であり、前記センサノードは、センサを2列、等間隔に並べて構成された複合センサノードであり、当該複合センサノードの各センサのセンシング結果は、対象物の検出の有無である
ことを特徴とする請求項1に記載の推定システム。
The parameter relating to the shape is the outer peripheral length of the object and the angle of each vertex, and the sensor node is a composite sensor node configured by arranging the sensors in two rows at equal intervals, and sensing of each sensor of the composite sensor node The estimation system according to claim 1, wherein the result is presence or absence of detection of an object.
クラスに分かれ、ランダムに配備される複数のセンサノードによる、時々刻々変化し得る対象物のセンシング結果に基づいて、当該対象物の大きさ、及び形状に関するパラメータを推定する推定装置であって、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備える
ことを特徴とする推定装置。
An estimation device for estimating parameters related to the size and shape of an object based on sensing results of the object that can be changed from moment to moment by a plurality of sensor nodes that are randomly divided into classes,
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation device comprising: estimation means for estimating parameters related to the size and shape of the object based on the above.
クラスに分かれ、ランダムに配備される複数のセンサノードによる、時々刻々変化し得る対象物のセンシング結果に基づいて、当該対象物の大きさ、及び形状に関するパラメータを推定する推定装置が実行する推定方法であって、
前記推定装置は、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、を備え、
前記推定方法は、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理ステップ、を備え、
前記データ処理ステップにおいて、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する
ことを特徴とする推定方法。
An estimation method executed by an estimation device that estimates parameters related to the size and shape of an object based on the sensing result of the object that can be changed from time to time by a plurality of sensor nodes that are randomly divided into classes. Because
The estimation device includes:
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes,
The estimation method is:
A data processing step of performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object,
In the data processing step, a state equation based on a time variable model of a state variable including parameters related to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation method characterized by estimating parameters related to the size and shape of the object based on the above.
記憶手段と通信手段とを備えるコンピュータを、請求項1ないし5のうちいずれか1項に記載の推定システムにおける推定装置のデータ処理手段として機能させるためのプログラム。   The program for functioning a computer provided with a memory | storage means and a communication means as a data processing means of the estimation apparatus in the estimation system of any one of Claims 1 thru | or 5.
JP2012255709A 2012-11-21 2012-11-21 Estimation system, estimation device, estimation method, and program Active JP5990449B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012255709A JP5990449B2 (en) 2012-11-21 2012-11-21 Estimation system, estimation device, estimation method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012255709A JP5990449B2 (en) 2012-11-21 2012-11-21 Estimation system, estimation device, estimation method, and program

Publications (2)

Publication Number Publication Date
JP2014102214A JP2014102214A (en) 2014-06-05
JP5990449B2 true JP5990449B2 (en) 2016-09-14

Family

ID=51024823

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012255709A Active JP5990449B2 (en) 2012-11-21 2012-11-21 Estimation system, estimation device, estimation method, and program

Country Status (1)

Country Link
JP (1) JP5990449B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6713953B2 (en) * 2017-06-15 2020-06-24 日本電信電話株式会社 Shape estimating device, shape estimating method and program

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3386107B2 (en) * 1997-11-25 2003-03-17 日本電信電話株式会社 One-dimensional quantity prediction device
JP2009063554A (en) * 2007-08-15 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Size estimation system, and shape estimation system
AU2008322797B2 (en) * 2007-11-12 2013-01-24 Bae Systems Plc Sensor control
JP5084671B2 (en) * 2008-09-01 2012-11-28 日本電信電話株式会社 Shape estimation system, center server, shape estimation method, and shape estimation program
JP2011069637A (en) * 2009-09-24 2011-04-07 Nippon Telegr & Teleph Corp <Ntt> Shape estimation system, server device, method and program for estimating shape
JP5300797B2 (en) * 2010-01-12 2013-09-25 日本電信電話株式会社 Shape estimation system, angle estimation method, and object number estimation method
JP5371907B2 (en) * 2010-08-13 2013-12-18 日本電信電話株式会社 Shape estimation system, center server, shape estimation method, and shape estimation program

Also Published As

Publication number Publication date
JP2014102214A (en) 2014-06-05

Similar Documents

Publication Publication Date Title
Dai et al. A wavelet support vector machine‐based neural network metamodel for structural reliability assessment
Mendez et al. Data interpolation for participatory sensing systems
Soltani et al. Enhancing Cluster-based RFID Tag Localization using artificial neural networks and virtual reference tags
Meruane et al. Structural damage assessment using linear approximation with maximum entropy and transmissibility data
CN112363251A (en) Weather prediction model generation method, weather prediction method and device
Liu et al. Localization-oriented coverage in wireless camera sensor networks
JP2017091278A (en) Learning device, prediction device, learning method, prediction method, and program
Yang et al. Parameter identification for structural dynamics based on interval analysis algorithm
Tang et al. Geospatial interpolation analytics for data streams in eventshop
Nguyen et al. Spatial sensor selection via Gaussian Markov random fields
Vakilzadeh et al. Stochastic finite element model calibration based on frequency responses and bootstrap sampling
CN117473312A (en) Bearing state prediction method, bearing state prediction device, computer equipment and storage medium
Kumar et al. Fault identification model using IIoT for industrial application
Dong et al. Anomaly detection in cognitive radio networks exploiting singular spectrum analysis
JP5990449B2 (en) Estimation system, estimation device, estimation method, and program
Qian et al. An evolutionary nested sampling algorithm for Bayesian model updating and model selection using modal measurement
Roy et al. Situational awareness for dynamical network processes using incidental measurements
JP6906769B2 (en) High-resolution device, high-resolution method, spatial data high-resolution method, and program
US20160292302A1 (en) Methods and systems for inferred information propagation for aircraft prognostics
Volosencu et al. Efficiency improvement in multi-sensor wireless network based estimation algorithms for distributed parameter systems with application at the heat transfer
Zhang et al. WSN sensing coverage based on correlation
Ram et al. Localization and intensity tracking of diffusing point sources using sensor networks
Madhag et al. A distributed navigation strategy for mobile sensor networks with the probabilistic wireless links
Yang et al. Sensor placement for detecting propagative sources in populated environments
Donato et al. Decimation of fast states and weak nodes: topological variation via persistent homology

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160122

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20160809

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20160815

R150 Certificate of patent (=grant) or registration of utility model

Ref document number: 5990449

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150