JP5990449B2 - Estimation system, estimation device, estimation method, and program - Google Patents
Estimation system, estimation device, estimation method, and program Download PDFInfo
- Publication number
- JP5990449B2 JP5990449B2 JP2012255709A JP2012255709A JP5990449B2 JP 5990449 B2 JP5990449 B2 JP 5990449B2 JP 2012255709 A JP2012255709 A JP 2012255709A JP 2012255709 A JP2012255709 A JP 2012255709A JP 5990449 B2 JP5990449 B2 JP 5990449B2
- Authority
- JP
- Japan
- Prior art keywords
- estimation
- shape
- size
- sensor
- parameter relating
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Length Measuring Devices With Unspecified Measuring Means (AREA)
Description
本発明は、大きさ、外周長等の形状パラメータが時刻とともに変わり得る対象物に対して、その大きさ、外周長等の形状パラメータを、適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない2値センサのセンシング結果により、推定する技術に関するものである。ここで、推定対象としては、特殊なガスや、特定の気象条件にある領域、動物群れの様な多くの個体からなる集合物などがある。 In the present invention, shape parameters such as size and outer circumference length are appropriately dispersed for an object whose shape parameters such as size and outer circumference length can change with time (or many third parties The present invention relates to a technique for estimating from a sensing result of a binary sensor that does not have a positioning function. Here, as the estimation target, there are special gas, a region in a specific weather condition, an aggregate made up of many individuals such as a group of animals.
無線通信機能をもつセンサ(センサノードと呼ぶ)をばらまいて、多様な目的に利用するセンサネットワークの研究開発が盛んである。その応用分野として、対象物の大きさや形状の推定、それらによる種別同定などがある。例えば、ある領域に入ってきた車両の大きさや形状を把握すること、有毒ガスの広がりを観測し、推定することなどがこれに該当する。こうしたセンサネットワークでは、個々のセンサノードの位置をGPS等により把握する、あるいは、事前に設置位置を設計し、それに合わせて、センサノードを設置するということが前提となっている。 Research and development of sensor networks that can be used for various purposes by dispersing sensors (referred to as sensor nodes) having wireless communication functions. As an application field thereof, there are estimation of the size and shape of a target object, classification identification by them, and the like. For example, grasping the size and shape of a vehicle entering a certain area, observing and estimating the spread of a toxic gas, and the like correspond to this. In such a sensor network, it is assumed that the position of each sensor node is grasped by GPS or the like, or the installation position is designed in advance and the sensor node is installed in accordance with the design.
しかしながら、非常に多くのセンサを用いる場合、事前に無数のセンサの位置を設計し、配備することは、設計・配備コストが、個々のセンサに測位機能を付けることは、センサコストが、各々、膨大となるため、望ましくない。 However, when a large number of sensors are used, designing and deploying a myriad of sensor positions in advance is a design / deployment cost, and attaching a positioning function to each sensor is a sensor cost. It is not desirable because it becomes enormous.
大きさ、外周長が固定である対象の大きさ、外周長を適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない2値センサのセンシング結果により、推定することは、特許文献1(特開2010−60319号公報)により提案されている。また、適当にばらまかれた(あるいは、多くの第三者が勝手に設置した)測位機能を有しない複合センサノード(各センサは2値センサで、それがある決まったレイアウトで複数並べられたセンサノード)のセンシング結果により、対象物の頂点の角度を推定することについては、特許文献2(特開2011−164084号公報)により提案されている。 Estimated based on the sensing results of a binary sensor that does not have a positioning function in which the size and circumference of the object with a fixed size and circumference are appropriately distributed (or installed by many third parties) This is proposed by Patent Document 1 (Japanese Patent Laid-Open No. 2010-60319). In addition, a composite sensor node that does not have a positioning function that is properly distributed (or installed by many third parties without permission) (each sensor is a binary sensor, and multiple sensors are arranged in a certain layout) The estimation of the angle of the vertex of the object based on the sensing result of the node is proposed in Patent Document 2 (Japanese Patent Application Laid-Open No. 2011-164084).
対象物が、特殊なガスや、特定の気象条件にある領域、動物群れの様な多くの個体からなる集合物、などの場合、時間的に、大きさや形状が変わらないということは、現実的な仮定ではない。このような時変対象に対して、設計・配備コスト、センサコストを抑制して、大きさ、形状を推定する従来技術はなかった。 It is realistic that the size and shape do not change over time when the target object is a special gas, an area in a specific weather condition, or an aggregate consisting of many individuals such as a group of animals. This is not an assumption. For such time-varying objects, there has been no prior art for estimating the size and shape while suppressing the design / deployment cost and the sensor cost.
本発明は上記の点に鑑みてなされたものであり、設置場所が特定されずに分散して配置された複数のセンサノードによるセンシング結果を用いて、時間的に、大きさや形状が変わる時変対象に対して、設計・配備コスト、センサコストを抑制して、大きさ、形状を推定する技術を提供することを目的とする。 The present invention has been made in view of the above points, and uses time-varying changes in size and shape by using sensing results from a plurality of sensor nodes arranged in a distributed manner without specifying installation locations. An object of the present invention is to provide a technique for estimating the size and shape of a target while suppressing design / deployment cost and sensor cost.
上記の課題を解決するために、本発明は、複数のセンサノードと1つのセンタサーバを備え、時々刻々変化し得る対象物の大きさ、及び形状に関するパラメータを推定する推定システムであって、
前記センサノードは、クラスに分かれ、ランダムに配備され、
前記対象物に対するセンシング手段と、
当該センシング手段によるセンシング結果とクラス番号を特定することができる情報とを前記センタサーバに送信する通信手段と、を備え、
前記センタサーバは、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備えることを特徴とする推定システムとして構成される。
In order to solve the above problems, the present invention is an estimation system that includes a plurality of sensor nodes and one center server, and estimates parameters related to the size and shape of an object that can change from time to time.
The sensor nodes are divided into classes, randomly deployed,
Sensing means for the object;
A communication means for transmitting a sensing result by the sensing means and information capable of specifying a class number to the center server,
The center server is
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, Based on the above, the estimation system is configured to include estimation means for estimating parameters related to the size and shape of the object.
前記形状に関するパラメータは、例えば、対象物の外周長であり、前記センサノードのセンシング結果は対象物の検出の有無である。また、前記対象物の大きさと形状に関するパラメータを含む状態変数の状態方程式と前記クラスごとのセンシング結果に基づく観測値を用いた観測方程式とに基づき推定を行う推定手段は、例えばカルマンフィルタである。 The parameter relating to the shape is, for example, the outer peripheral length of the object, and the sensing result of the sensor node is whether or not the object is detected. Moreover, the estimation means for performing estimation based on the state equation of the state variable including parameters related to the size and shape of the object and the observation equation using the observation value based on the sensing result for each class is, for example, a Kalman filter.
また、前記形状に関するパラメータとして、対象物の外周長と、もう1つの特性量でを用いる構成も可能である。 Moreover, the structure which uses the outer periphery length of a target object and another characteristic quantity as a parameter regarding the said shape is also possible.
更に、前記センサノードを、センサを2列、等間隔に並べて構成された複合センサノードとし、前記形状に関するパラメータとして、対象物の外周長と各頂点の角度を用いる構成とすることも可能である。 Further, the sensor node may be a composite sensor node configured by arranging the sensors in two rows at equal intervals, and the configuration may be configured to use the outer peripheral length of the object and the angle of each vertex as the parameters relating to the shape. .
また、本発明は、上記推定システムにおける推定装置、当該推定装置が実行する推定方法として構成することも可能である。更に、本発明は、記憶手段と通信手段とを備えるコンピュータを、上記推定システムにおける推定装置のデータ処理手段として機能させるためのプログラムとして構成することもできる。 The present invention can also be configured as an estimation device in the above estimation system and an estimation method executed by the estimation device. Furthermore, the present invention can also be configured as a program for causing a computer including a storage unit and a communication unit to function as a data processing unit of an estimation device in the estimation system.
本発明によれば、センサを多数配備し、それらのセンシング結果を収集することで、センサの位置不明であっても、また、対象物の大きさ、形状が時刻と共に変化する場合であっても、それらの推定が可能となる。これにより、利用シーンが大幅に増加する。 According to the present invention, by arranging a large number of sensors and collecting the sensing results, even if the position of the sensor is unknown or the size and shape of the object changes with time, , Estimation of them becomes possible. This greatly increases the usage scene.
以下、図面を参照して本発明の実施の形態を説明する。なお、以下で説明する実施の形態は一例に過ぎず、本発明が適用される実施の形態は、以下の実施の形態に限られるわけではない。 Embodiments of the present invention will be described below with reference to the drawings. The embodiment described below is only an example, and the embodiment to which the present invention is applied is not limited to the following embodiment.
[第1の実施の形態]
<システム構成>
図1に、本発明の第1の実施の形態に係る時変系形状推定システムの構成図を示す。また、図2に、時変系形状推定システムの処理のフローチャートを示す。図1に示すように、本実施の形態に係る時変系形状推定システムは、複数のセンサノード201と1つのセンタサーバ401を備える。本実施の形態において、各センサノードはランダムに配備され、測位機能もないため、その配備場所は特定されていない。なお、図1には、例として2つのセンサノード201が示されているが、実際には多数のセンサノード201が配備される。
[First Embodiment]
<System configuration>
FIG. 1 shows a configuration diagram of a time-varying shape estimation system according to the first embodiment of the present invention. FIG. 2 shows a flowchart of processing of the time-varying shape estimation system. As shown in FIG. 1, the time-varying shape estimation system according to the present embodiment includes a plurality of
センサノード201は、対象物の有無を検出するセンサである検出部101、センシング結果(対象物の検出の有無)とクラス番号を特定することができる情報をセンタサーバ401に送信する無線通信部102、電源を供給する電源部103を備える。センサである検出部101は、センシングエリアサイズ等により2種類以上のクラスに分類される。本実施の形態における対象物は、時々刻々変化し得る対象物である。検出部101は、対象物が一部でも検出エリア内にあるとき対象物を検出するが、対象物がセンサに近いほど、検出力が高まる。ここでは、第j種類のセンサのセンシングエリアは、
The
図1に示すように、センタサーバ401は、センサノード201からのセンシング結果を受信するための無線通信部301、受信したセンシング結果をもとに対象物の大きさや形状の推定を行うデータ処理部302、データ処理に際して利用する既知のパラメータ値を記憶する記憶部303、結果の出力や実行指示の入力、既知パラメータ値の入力を行う入出力部304、電源を供給する電源部305を備える。なお、センタサーバ401を推定装置と称してもよい。
As shown in FIG. 1, the
センタサーバ401は、例えば、通信機能を備えるコンピュータに、各実施の形態で説明するデータ処理部302の処理内容を記述したプログラムを実行させることにより実現可能である。すなわち、データ処理部302は、センタサーバ401を構成するコンピュータに内蔵されるCPUやメモリ、ハードディスクなどのハードウェア資源を用いて、処理内容に対応するプログラムを実行することによって実現することが可能である。このプログラムは、コンピュータが読み取り可能な記録媒体(可搬メモリ等)に記録して、保存したり、配布したりすることが可能である。また、上記プログラムをインターネットや電子メールなど、ネットワークを通して提供することも可能である。また、各実施の形態で説明するデータ処理部302をハードウェア回路として実現し、当該ハードウェア回路を搭載することによりセンタサーバ401を構成することもできる。
The
<システムの動作>
次に、図1に示す構成を備える本実施の形態に係る時変系形状推定システムの処理動作について、図2のフローチャートの手順に沿って詳細に説明する。
<System operation>
Next, the processing operation of the time-varying shape estimation system according to the present embodiment having the configuration shown in FIG. 1 will be described in detail along the procedure of the flowchart of FIG.
ステップS201、S202)大きさや形状の推定を実行しようとする者は、センサ情報(センサノードに関するパラメータ)と、対象物の時変モデル情報(対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータ)と、推定の初期条件に関するパラメータを入出力部304から入力し、記憶部303にて保持させる。上記センサ情報とは、第j種類のセンシングエリアサイズをもつセンサについての、センサ(ノード)の平均密度λj、Αj,iのサイズと外周長である(j=1,2…, i=1,2,…, kj)。また、対象物の時変モデル情報とは、時刻tの対象物サイズを||T(t)||、周囲長を|T(t)|と表記した場合に、
Steps S201 and S202) A person who intends to execute size or shape estimation uses sensor information (parameters related to sensor nodes) and time-varying model information of objects (parameters related to time-varying models of parameters related to the size and shape of objects). ) And parameters related to the initial condition for estimation are input from the input /
対象物各センサの個体識別番号と、当該センサがいずれの種類のセンサであるかも、記憶部303に記憶保持させる。
The
ステップS203)上記の情報をもとに、あらかじめ、次の諸量を計算、保持しておく。ただし、0i,jは、i行j列の零行列である。 Step S203) Based on the above information, the following quantities are calculated and held in advance. However, 0 i, j is a zero matrix of i rows and j columns.
ステップS205)各センサノード201は、各時刻tで対象物の検出(センシング)を検出部101にて実施する。
Step S205) Each
ステップS206)各センサノード201は、センシング結果をセンサ番号とともにセンタサーバ401に送信する。
Step S206) Each
ステップS207)各センサノード201から送信された情報を通信部301が受信する。
Step S207) The
ステップS208)同情報を得たセンタサーバ401のデータ処理部302では、記憶部303に保持してあるセンサ番号ごとの種類の情報から、受信情報をセンサ種別ごとに分ける。時刻tにおいて、第i種類のセンサで対象物を検出したセンサ数をn(i;t)と表記する。各iについて、n(i;t)を計算する。n(i;t)を並べた縦ベクトルをn(t)と表記する。
Step S208) The
状態変数ベクトルx(t)を State variable vector x (t)
すなわち、データ処理部302は、対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式(式1)と、センサクラス(センサ種別)ごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、カルマンフィルタにより状態変数の推定予測を行う推定器を備える。
That is, the
ステップS209、S210)データ処理部302は、記憶部303にある必要情報を読み出し、カルマンフィルタを実行する。
Steps S209 and S210) The
ステップ211)カルマンフィルタの実行結果を入出力部304にて出力することにより、対象物の大きさ、形状の情報を得ることができる。
Step 211) By outputting the execution result of the Kalman filter at the input /
<関連出願の技術について>
本願に関連する出願として特願2012−246677がある。本発明に係る技術は、当該関連出願の技術(以下、「関連技術」と呼ぶ)に適用することができる。まず、この関連技術の実施例について以下に説明する。
<Related application technology>
There is Japanese Patent Application No. 2012-246677 as an application related to the present application. The technology according to the present invention can be applied to the technology of the related application (hereinafter referred to as “related technology”). First, an embodiment of this related technique will be described below.
関連技術におけるシステム構成は、本発明の実施の形態に係るシステム構成と同じであり、図1に示すとおりである。 The system configuration in the related art is the same as the system configuration according to the embodiment of the present invention, as shown in FIG.
図4は、関連技術においてセンサノードを配備して監視する対象領域を説明するための図である。図4に示すとおり、関連技術では、x軸が1,…,2n_x、y軸が1,….,2n_yの整数からなる長方形の領域をセンサノードを配備して監視する対象領域とする。また、センサノードの配備、対象物は格子上の点をとるものとする。 FIG. 4 is a diagram for explaining a target area where a sensor node is deployed and monitored in the related art. As shown in FIG. 4, in the related technology, a rectangular area composed of integers with an x-axis of 1,..., 2n_x and a y-axis of 1,. Further, it is assumed that the sensor node is arranged and the object takes a point on the grid.
関連技術でもセンサノードは複数種類のクラスに分類される。クラスkのセンサノードが、点(i,j)に配備された場合のセンシング領域は、(i,j)を中心とする一辺あたりの格子点数が2L_k+1の正方領域、すなわち、x軸がi-L_kからi+L_kまで、y軸がj-L_kからj+L_kまでの領域とする。N_s(k)をクラスkの配備センサノード数、p_{k,(i,j)}をクラスkのセンサが(i,j)に配備される確率(場所に依存した確率)とし、各センサノードの位置は各々独立に決めるとする。 In related technology, sensor nodes are classified into a plurality of types of classes. When a sensor node of class k is deployed at a point (i, j), the sensing area is a square area with 2L_k + 1 lattice points per side centered at (i, j), that is, the x axis is The area from i-L_k to i + L_k and the y-axis from j-L_k to j + L_k. N_s (k) is the number of deployed sensor nodes of class k, p_ {k, (i, j)} is the probability that a class k sensor will be deployed at (i, j) (location-dependent probability), and each sensor Assume that the position of each node is determined independently.
以下では、簡単のため、例としてセンサノードのクラス数は4、L_1=L_2=L_3=0、L_4=L(Lは1以上の整数)の場合について説明する。また、
p_{1,(i,j)}=d_1N_s(1)/(4n_x*n_y) (i=1,,,n_xの場合)、
p_{1,(i,j)}=(2-d_1)N_s(1)/(4n_x*n_y) (i=n_x+1,,,2n_xの場合)
とする。上記の式において、d_1(0≦d_1≦2)をd_1≠1にとって、監視領域でのx軸上でn_xを境にセンサ配備密度を変える。同様に、
p_{2,(i,j)}=d_2N_s(2)/(4n_x*n_y) (j=1,,,n_xの場合)
p_{2,(i,j)}=(2-d_2)N_s(2)/(4n_x*n_y) (j=n_y+1,,,2n_yの場合)
とする。上記の式において、d_2(0≦d_2≦2)をd_2≠1にとって、監視領域でのy軸上でn_yを境にセンサ配備密度を変える。一方、p_{k,(i,j)}=N_s(k)/(4n_x*n_y)、(k=3,4)、すなわち、クラス3,4については等確率で各格子点に配備する。
In the following, for the sake of simplicity, a case where the number of sensor node classes is 4, L_1 = L_2 = L_3 = 0, and L_4 = L (L is an integer of 1 or more) will be described as an example. Also,
p_ {1, (i, j)} = d_1N_s (1) / (4n_x * n_y) (if i = 1 ,,, n_x),
p_ {1, (i, j)} = (2-d_1) N_s (1) / (4n_x * n_y) (when i = n_x + 1 ,,, 2n_x)
And In the above formula, d_1 (0 ≦ d_1 ≦ 2) is set to d_1 ≠ 1, and the sensor deployment density is changed with n_x as a boundary on the x axis in the monitoring region. Similarly,
p_ {2, (i, j)} = d_2N_s (2) / (4n_x * n_y) (when j = 1 ,,, n_x)
p_ {2, (i, j)} = (2-d_2) N_s (2) / (4n_x * n_y) (when j = n_y + 1 ,,, 2n_y)
And In the above formula, d_2 (0 ≦ d_2 ≦ 2) is set to d_2 ≠ 1, and the sensor deployment density is changed with n_y as a boundary on the y axis in the monitoring region. On the other hand, p_ {k, (i, j)} = N_s (k) / (4n_x * n_y), (k = 3,4), that is, classes 3 and 4 are deployed at each lattice point with equal probability.
当該監視領域のどこかに対象物Tがあるとする。対象物は、監視領域内を移動している。対象物の大きさ、形状、位置、移動速度、移動方向は未知である。但し、対象物は、穴や幅L以下の窪みの無い形状であることを仮定する。 Assume that the object T is located somewhere in the monitoring area. The object is moving in the monitoring area. The size, shape, position, moving speed, and moving direction of the object are unknown. However, it is assumed that the object has a shape without a hole or a recess having a width L or less.
S(T)を対象物Tの大きさ(本実施の形態では面積)、|T|を対象物Tの外周長とすると、クラス4のセンサノードが対象物を検出する範囲は、図5に点線で示す範囲であるから、その大きさ(本実施の形態では面積)は、
S(T)+|T|*L+((凸頂点数)−(凹頂点数))*L*L
で表される。対象物は格子上の点を頂点とすることから、常に、(凸頂点数)−(凹頂点数)=4となる。よって、時刻tで対象物を検出するクラス4のセンサ数n_4(t)は、
n_4(t)=(S(T)+|T|*L+4*L*L)N_s(4)/(4n_x*n_y)+e_4(t)
と表せる。ここでe_k(t)は期待値からの誤差項である(E[e_k(t)]=0、k=1,..,4)。対象物を検出するクラス3のセンサ数n_3(t)は、
n_3(t)=S(T)*N_s(3)/(4n_x*n_y)+e_3(t)
と表せる。
If S (T) is the size of the object T (area in this embodiment) and | T | is the outer peripheral length of the object T, the range in which the sensor node of class 4 detects the object is shown in FIG. Since it is a range indicated by a dotted line, its size (area in this embodiment) is
S (T) + | T | * L + ((number of convex vertices) − (number of concave vertices)) * L * L
It is represented by Since the object has vertices at points on the grid, the number of convex vertices minus the number of concave vertices is always 4. Therefore, the number n_4 (t) of class 4 sensors that detect an object at time t is
n_4 (t) = (S (T) + | T | * L + 4 * L * L) N_s (4) / (4n_x * n_y) + e_4 (t)
It can be expressed. Here, e_k (t) is an error term from the expected value (E [e_k (t)] = 0, k = 1,..., 4). The number of class 3 sensors n_3 (t) for detecting an object is
n_3 (t) = S (T) * N_s (3) / (4n_x * n_y) + e_3 (t)
It can be expressed.
一方、対象物を検出するクラスk(k=1,2)のセンサ数n_k(t)は、c_1(t)をTのうち、時刻tでx軸の値が1,..,n_xに入る割合、c_2(t)をTのうち、時刻tでy軸の値が1,..,n_yに入る割合、として
n_1(t)=Σ_{i=1,…,n_x}Σ_{j=1,…,2n_y} p_{1,(i,j)}*IF((i,j) in T)
+Σ_{i=n_x+1,…,2n_x}Σ_{j=1,…,2n_y} p_{1,(i,j)}*IF((i,j) in T)+e_1(t)
=(c_1(t)*S(T)*d_1N_s(1)+(1-c_1(t))*S(T)*(2-d_1)N_s(1))/(4n_x*n_y)+e_1(t)
n_2(t)=Σ_{i=1,…,2n_x}Σ_{j=1,…,n_y} p_{2,(i,j)}*IF((i,j) in T)
+Σ_{i=1,…,2n_x}Σ_{j=n_y+1,…,2n_y} p_{2,(i,j)}*IF((i,j) in T)+e_2(t)
=(c_2(t)*S(T)*d_2N_s(2)+(1-c_2(t))*S(T)*(2-d_2)N_s(2))/(4n_x*n_y)+e_2(t)
となる。なお、IF((i,j) in T)は、(i,j)がTの範囲にある場合に1となり、(i,j)がTの範囲にない場合に0になる。
On the other hand, the number of sensors n_k (t) of class k (k = 1, 2) for detecting an object is c_1 (t) of T, and the value of the x-axis enters 1, .., n_x at time t. The ratio, c_2 (t), is the ratio of the y-axis value entering 1, .., n_y at time t.
n_1 (t) = Σ_ {i = 1,…, n_x} Σ_ {j = 1,…, 2n_y} p_ {1, (i, j)} * IF ((i, j) in T)
+ Σ_ {i = n_x + 1,…, 2n_x} Σ_ {j = 1,…, 2n_y} p_ {1, (i, j)} * IF ((i, j) in T) + e_1 (t)
= (c_1 (t) * S (T) * d_1N_s (1) + (1-c_1 (t)) * S (T) * (2-d_1) N_s (1)) / (4n_x * n_y) + e_1 ( t)
n_2 (t) = Σ_ {i = 1,…, 2n_x} Σ_ {j = 1,…, n_y} p_ {2, (i, j)} * IF ((i, j) in T)
+ Σ_ {i = 1,…, 2n_x} Σ_ {j = n_y + 1,…, 2n_y} p_ {2, (i, j)} * IF ((i, j) in T) + e_2 (t)
= (c_2 (t) * S (T) * d_2N_s (2) + (1-c_2 (t)) * S (T) * (2-d_2) N_s (2)) / (4n_x * n_y) + e_2 ( t)
It becomes. Note that IF ((i, j) in T) is 1 when (i, j) is in the range of T, and is 0 when (i, j) is not in the range of T.
以下、
c_k(t)=c_k(t-1)+e'_k(t)
E[e'_k(t)]=0
であるとし、e'_k(t)は、分散既知、独立な正規性確率変数とする。
Less than,
c_k (t) = c_k (t-1) + e'_k (t)
E [e'_k (t)] = 0
And e′_k (t) is an independent normality random variable with known variance.
各時刻tにおいて、センタサーバ401は各センサノード201からのセンシング結果を、クラス番号とともに、無線通信部301で受信し、データ処理部302に送り、データ処理部302が、対象物の大きさ、外周長、位置の推定を行う。
At each time t, the
関連技術におけるデータ処理部302の概要構成を図6に示す。なお、図6に示すデータ処理部302の構成は、本発明の実施の形態におけるデータ処理部302の構成の例でもある。図6に示すように、データ処理部302は、センサのクラス(種別)毎の加算器312と推定器322を備える。
FIG. 6 shows a schematic configuration of the
各加算器312は、対応するクラスのセンサノードのセンシング結果(検出の場合は1、検出しない場合は0)を受信し、これらを加算した結果を推定器322に出力する。加算器312の出力がn_k(t)の実現値に相当する。(以下、これをn_k(t)と表記する。)
前述したn_k(t) (k=1,2,3,4)の式からわかるように、未知変数は、S(T)、|T|、c_1(t)、c_2(t)である。また、記憶部303が保持し、データ処理部302に送るパラメータは、N_s(k)、L、n_x、n_y、d_k、およびe_k(t)、e'_k(t)の分散、初期条件である。推定器322は、これらのパラメータとn_k(t)の実現値とに基づいて、S(T)、|T|、c_1(t)、c_2(t)を推定し、出力する。例えば、推定器322を拡張カルマンフィルタ等で構成し、拡張カルマンフィルタ等によりS(T)、|T|、c_1(t)、c_2(t)を推定することが可能である。
Each
As can be seen from the above-described expression n_k (t) (k = 1, 2, 3, 4), the unknown variables are S (T), | T |, c_1 (t), and c_2 (t). Parameters stored in the
推定器322は、拡張カルマンフィルタ等よりも簡便な、図7に示す構成とすることが可能である。なお、本関連技術の例において、図7のkは4である。図7に示す構成では、推定器322は、推定器322−1と推定器322−2を有する。図7の構成において、推定器322−1にn_3(t)とn_4(t)が入力され、推定器322−1が対象物の大きさS(T)と外周長|T|をn_3(t)とn_4(t)のみで推定し、その推定結果を推定器322−2に与え、推定器322−2が、S(T)、外周長|T|、n_1(t)、n_2(t)を用いて、位置情報であるc_1(t)、c_2(t)を推定する。より詳細には以下のとおりである。
The
n_3(t)とn_4(t)に関し、十分大きなmに対して、
Σ_{t=1,…,m}n_4(t)/m=(S(T)+|T|*L+4*L*L)N_s(4)/(4n_x*n_y)
Σ_{t=1,…,m}n_3(t)/m=S(T)*N_s(3)/(4n_x*n_y)
が成り立つ。従って、
S(T)=4n_x*n_yΣ_{t=1,…,m}n_3(t)/(m*N_s(3))
|T|=(4n_x*n_y/L){Σ_{t=1,…,m}(n_4(t)/(m*N_s(4))−n_3(t)/(m*N_s(3)))−4L*L}
となる。推定器322−1は、順次入力されるn_3(t)とn_4(t)、及び記憶部303から取得したパラメータを用いて上記の計算を行うことでS(T)、|T|を推定する。
For n_3 (t) and n_4 (t), for sufficiently large m,
Σ_ {t = 1,…, m} n_4 (t) / m = (S (T) + | T | * L + 4 * L * L) N_s (4) / (4n_x * n_y)
Σ_ {t = 1,…, m} n_3 (t) / m = S (T) * N_s (3) / (4n_x * n_y)
Holds. Therefore,
S (T) = 4n_x * n_yΣ_ {t = 1,…, m} n_3 (t) / (m * N_s (3))
| T | = (4n_x * n_y / L) {Σ_ {t = 1,…, m} (n_4 (t) / (m * N_s (4)) − n_3 (t) / (m * N_s (3)) ) −4L * L}
It becomes. The estimator 322-1 estimates S (T) and | T | by performing the above calculation using n_3 (t) and n_4 (t) sequentially input and the parameters acquired from the
このS(T)、|T|を真値として、推定器322−2に与える。これにより、n_k(t) (k=1,2)は、c_k(t)の線形関数となるため、推定器322−2をカルマンフィルタで構成することで、カルマンフィルタによりc_k(t)を推定する。 The S (T) and | T | are given as true values to the estimator 322-2. As a result, n_k (t) (k = 1, 2) becomes a linear function of c_k (t). Therefore, by configuring the estimator 322-2 with a Kalman filter, c_k (t) is estimated by the Kalman filter.
これらの推定結果(S(T)、|T|、c_k(t))は時々刻々、入出力部304に送られ、表示される。
These estimation results (S (T), | T |, c_k (t)) are sent to the input /
この関連技術によれば、設置位置不明のバイナリセンサを用いることで、対象物のサイズ、外周長に加えて、存在場所の推定が可能となる。なお、関連技術では、説明を分かりよくするために、領域をx軸に沿い2分割、y軸に沿い2分割した例を挙げたが、より細かく分割して、場所を推定することは、容易に類推可能である。また、本関連技術では、センサ種別数を4としているが、センサ種別数は4に限定されるわけではなく、他の任意の種別数を適用できる。また、位置推定に2種のセンサを用いているが、これも2種である必要は無い。一般的に、位置を細かく特定するなら、より多くのセンサ種別が必要となる。 According to this related technology, by using a binary sensor whose installation position is unknown, it is possible to estimate the location of the object in addition to the size and the outer peripheral length of the object. In addition, in the related technology, in order to make the explanation easy to understand, an example was given in which the region was divided into two along the x axis and divided into two along the y axis. However, it is easy to estimate the location by dividing more finely. It can be inferred. In this related technique, the number of sensor types is four, but the number of sensor types is not limited to four, and any other number of types can be applied. Moreover, although two types of sensors are used for position estimation, it is not necessary that these are also two types. Generally, if the position is specified in detail, more sensor types are required.
<本発明の関連技術への適用について>
図7のデータ処理部302における点線、上半分において対象物サイズ、及び外周長を推定するが、この部分に本発明の技術を適用することができる。
<Application of the present invention to related technologies>
The object size and the outer peripheral length are estimated in the dotted line and the upper half in the
関連技術では、時不変のシステムに対して、大きさと外周長を推定する推定器が推定器322−1となっていたが、本発明に係る推定器を推定器322−1として用いることで、時変な対象についても、位置推定も可能となる。すなわち、図7の点線、上半分を、本発明に係る推定器を用いて構成したデータ処理部302を備えるセンタサーバ401は、本発明の推定装置の実施の形態の1つである。なお、関連技術では、センサの検出力が段階分けされていないが、これも、本発明との組み合わせにおいては、本質的な問題とはならない。
In the related art, the estimator 322-1 is the estimator for estimating the size and the outer perimeter for a time-invariant system. Position estimation is also possible for time-varying objects. That is, the
<本願と関連技術との関係について>
位置不変であれば、本願の技術だけで、時変対象物のサイズ、外周長の推定が可能である。加えて、監視領域にセンサが一様に撒かれているのであれば、位置が変わっても、本願の技術だけで、時変対象物のサイズ、外周長の推定が可能である。ただし、位置推定はできない。監視領域に撒かれたセンサの平均密度に濃淡があり、それを推定者が知っている場合に、本願の技術と関連技術とを組み合わせ、時変対象物のサイズ、外周長の推定とともに、位置推定ができる。
<Relationship between this application and related technologies>
If the position does not change, it is possible to estimate the size and outer peripheral length of the time-varying object only with the technique of the present application. In addition, if the sensors are evenly spread over the monitoring area, the size and the outer peripheral length of the time-varying object can be estimated only by the technique of the present application even if the position changes. However, position estimation is not possible. When the average density of the sensors sown in the monitoring area is shaded and the estimator knows this, combine the technology of this application and related technology, and estimate the size and circumference length of the time-varying object. Can be estimated.
[第2の実施の形態]
第1の実施の形態は、対象物が凸である場合の対象物の大きさや外周長の推定、予測を行う例であった。多くの場合、凸でない対象物でも、推定はうまくいく場合が多いが、第2の実施の形態では、必ずしも凸とは限らない対象物の大きさや外周長の推定、予測をより複雑なモデルを導入することで適用範囲を広げる例について、説明する。第2の実施の形態においては、適用範囲は広がるが、状態変数が増える、対象物の内角の大きさの変化の影響を対象物の大きさや外周長の推定、予測が受ける、などの点に留意する必要がある。
[Second Embodiment]
The first embodiment is an example of estimating and predicting the size and outer peripheral length of an object when the object is convex. In many cases, estimation is successful even with non-convex objects, but in the second embodiment, a more complicated model is used for estimating and predicting the size and outer circumference of an object that is not necessarily convex. An example of expanding the application range by introducing the system will be described. In the second embodiment, the range of application is widened, but the state variables increase, the influence of the change in the size of the inner angle of the target is affected by the estimation and prediction of the size and outer circumference of the target, and the like. It is necessary to keep in mind.
以下、第2の実施の形態における、第1の実施の形態との差分について説明する。以下で説明すること以外は、第1の実施の形態と同様である。 Hereinafter, differences in the second embodiment from the first embodiment will be described. Except as described below, the second embodiment is the same as the first embodiment.
対象物の、πより小さい内角をν1,ν2…..,とし、ν=Σiνi、πより大きい第i内角の関数をβi、β=Σiβiとする。νおよびβを状態変数ベクトルの要素に加え、状態変数ベクトルを The interior angles of the object are smaller than π, ν 1 , ν 2 ..., Ν = Σ i ν i , and the i-th interior angle function larger than π is β i , β = Σ i β i . ν and β are added to the elements of the state variable vector, and the state variable vector is
図2のステップS203において、あらかじめ計算しておくものとして、 In step S203 of FIG.
すると、新たな状態方程式は、 Then the new equation of state is
図2のステップS210において、これを用いてカルマンフィルタによる状態変数の推定、予測を行う。ex'(t)の分散については、適当なものが設定できない場合は、適応カルマンフィルタなどの適当な既存技術を用いる。 In step S210 of FIG. 2, state variables are estimated and predicted using the Kalman filter. If an appropriate value cannot be set for the distribution of e x '(t), an appropriate existing technique such as an adaptive Kalman filter is used.
[第3の実施の形態]
第1、第2の実施の形態では、センサは、対象物の有無だけをレポートしたが、多くのセンサでは、センシングエリア内の特性量をセンシング結果とすることができる。本実施の形態では、対象物の基準点が(x0, y0)、基準角度がθ0のときの、(x,y)における特性量をh((x,y)|x0, y0, θ0)と表記し、第j種センサのセンシング値qj(t)は、
[Third Embodiment]
In the first and second embodiments, the sensor reports only the presence or absence of an object. However, in many sensors, the characteristic amount in the sensing area can be used as a sensing result. In the present embodiment, when the reference point of the object is (x 0 , y 0 ) and the reference angle is θ 0 , the characteristic quantity at (x, y) is represented by h ((x, y) | x 0 , y 0 , θ 0 ), and the sensing value q j (t) of the type j sensor is
本実施の形態では、対象物上のある点(x,y)におけるh((x,y)|.)の平均値hm(t)を第1、第2の実施の形態で推定した対象物のサイズや外周長をもとに推定する方法について説明する。 In the present embodiment, an object in which the average value h m (t) of h ((x, y) |.) At a certain point (x, y) on the object is estimated in the first and second embodiments. A method for estimation based on the size and outer circumference of an object will be described.
上記定義式のqj(t)は、センシングエリアにおける特性量の加重平均とみなすことができる。上記定義式で分かるように、対象物がセンシングエリアに無い場合は0、ある場合は正の値をとるので、当該センサは2値センサを含む。 Q j (t) in the above definition can be regarded as a weighted average of the characteristic quantities in the sensing area. As can be seen from the above definition formula, when the object is not in the sensing area, it takes 0, and when it has a positive value, the sensor includes a binary sensor.
本実施の形態における処理のフローチャートを図8に示す。 FIG. 8 shows a flowchart of processing in the present embodiment.
図8のステップS401に示すように、まず、前述したステップS201〜S207を実行するが、若干の修正がある。まず、ステップS201で記憶すべきセンサ情報として、wj,kを(j=1,2,…,k=1,…,kj)を追加する。第j種センサがステップS205で実施し、ステップS206で送信するセンシング結果は、qj(t)である。 As shown in step S401 in FIG. 8, first, the above-described steps S201 to S207 are executed, but there are some modifications. First, w j, k (j = 1, 2,..., K = 1,..., K j ) is added as sensor information to be stored in step S201. The sensing result transmitted by the j-th type sensor in step S205 and transmitted in step S206 is q j (t).
次に、ステップS402で、各種別ごとに、センサ値qj(t)の算術平均をとり、 Next, in step S402, the arithmetic average of the sensor values q j (t) is taken for each type,
ステップS403で記憶部303の情報を読み出し、ステップS404でカルマンフィルタ等の方法で、状態変数ベクトルの推定、予測を行う。状態変数ベクトルには、時刻tにおける対象物のサイズ、外周長が含まれることから、その推定値
In step S403, information in the
幾何確率を用いると以下の方程式が成立することが分かる。 It can be seen that the following equation holds when the geometric probability is used.
[第4の実施の形態]
特許文献2(特開2011−164084号公報)により提案されている、センサを2列、等間隔に並べて構成された複合センサにより、時変対象物の大きさ、外周長、頂点の角度、について推定する場合について説明する。すなわち、本実施の形態では、形状に関するパラメータは対象物の外周長と、各頂点の角度を含み、センサノードは、センサを2列、等間隔に並べて構成された複合センサノードである点がこれまでの実施の形態と異なる。複合センサノードの各センサのセンシング結果は、対象物の検出の有無である。
[Fourth Embodiment]
About the size of the time-varying object, the outer peripheral length, and the angle of the apex by a composite sensor proposed by Patent Document 2 (Japanese Patent Application Laid-Open No. 2011-164084), in which the sensors are arranged in two rows at equal intervals. A case of estimation will be described. That is, in the present embodiment, the shape-related parameters include the outer peripheral length of the object and the angle of each vertex, and the sensor node is a complex sensor node configured by arranging the sensors in two rows at equal intervals. Different from the previous embodiments. The sensing result of each sensor of the composite sensor node is the presence or absence of detection of an object.
この場合も、基本的には、これまでの実施の形態で説明したように、
1)推定対象パラメータの時変モデルを仮定し、それに基づく状態方程式を構成する。状態変数は、推定対象パラメータを含む。
In this case as well, basically, as described in the previous embodiments,
1) Assuming a time-varying model of parameters to be estimated, a state equation based on the model is constructed. The state variable includes an estimation target parameter.
2)観測値と状態変数の関係を導出し、それに基づき、観測方程式を構成する。 2) Derive the relationship between the observed value and the state variable, and construct the observation equation based on it.
3)状態方程式を観測方程式から、適切な推定器を構成する。
という手順で推定を行う。
3) An appropriate estimator is constructed from the state equation from the observation equation.
Estimate according to the procedure.
1)については、これまでに説明した実施の形態と同様なものが構成できる。特に、頂点数が不変と言う前提で、時刻tでの第i頂点の角度をξi(t)とし、その時間変化モデルを As for 1), the same configuration as that of the embodiments described so far can be configured. In particular, assuming that the number of vertices is unchanged, the angle of the i-th vertex at time t is ξ i (t), and the time variation model is
これに対して、観測方程式は、式2とは大きく異なる。非特許文献2に示されているように、頂点の角度と、センシング結果との関係は、非常に複雑な非線形関係となる。このため、観測方程式は、非線形方程式となる。上記非特許文献2の結果を用いれば、当該非線形観測方程式を導出することは容易である。観測方程式が非線形であることから、状態推定器は、通常、非線形となる。非線形ではあるが、状態方程式、観測方程式が導出されていることから、従来技術で推定器は構成可能であり、複合センサにより、時変対象物の大きさ、外周長、頂点の角度を推定することができる。
On the other hand, the observation equation is greatly different from Equation 2. As shown in Non-Patent Document 2, the relationship between the vertex angle and the sensing result is a very complicated non-linear relationship. For this reason, the observation equation is a nonlinear equation. If the result of the said nonpatent literature 2 is used, it will be easy to derive | lead-out the said nonlinear observation equation. Since the observation equation is nonlinear, the state estimator is usually nonlinear. Although it is non-linear, the state equation and observation equation are derived, so the estimator can be configured with the conventional technology, and the size, outer circumference length, and vertex angle of the time-varying object are estimated by the composite sensor. be able to.
本発明は、上記の実施の形態に限定されることなく、特許請求の範囲内において、種々変更・応用が可能である。例えば、センサそれ自体は、第3者によって配備され、そのセンシング結果をオペレータが収集することでもよい。 The present invention is not limited to the above-described embodiments, and various modifications and applications are possible within the scope of the claims. For example, the sensor itself may be deployed by a third party and the sensing results collected by the operator.
201 センサノード
101 検出部
102 無線通信部
103、305 電源部
301 無線通信部
302 データ処理部
303 記憶部
304 入出力部
312 加算器
322、322−1、322−2 推定器
401 センタサーバ
201
Claims (8)
前記センサノードは、
クラスに分かれ、ランダムに配備され、
前記対象物に対するセンシング手段と、
当該センシング手段によるセンシング結果とクラス番号を特定することができる情報とを前記センタサーバに送信する通信手段と、を備え、
前記センタサーバは、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備える
ことを特徴とする推定システム。 An estimation system that includes a plurality of sensor nodes and a center server, and estimates parameters related to the size and shape of an object that can change from moment to moment,
The sensor node is
Divided into classes, randomly deployed,
Sensing means for the object;
A communication means for transmitting a sensing result by the sensing means and information capable of specifying a class number to the center server,
The center server is
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation system comprising: estimation means for estimating parameters related to the size and shape of the object based on the above.
ことを特徴とする請求項1に記載の推定システム。 The estimation system according to claim 1, wherein the parameter relating to the shape is an outer peripheral length of an object, and a sensing result of the sensor node is presence or absence of detection of the object.
ことを特徴とする請求項1に記載の推定システム。 The estimation means for performing estimation based on a state equation of a state variable including parameters related to the size and shape of the object and an observation equation using an observation value based on a sensing result for each class is a Kalman filter. The estimation system according to claim 1.
ことを特徴とする請求項1に記載の推定システム。 The estimation system according to claim 1, wherein the parameter relating to the shape is an outer peripheral length of the object and another characteristic amount, and a sensing result of the sensor node is whether or not the object is detected.
ことを特徴とする請求項1に記載の推定システム。 The parameter relating to the shape is the outer peripheral length of the object and the angle of each vertex, and the sensor node is a composite sensor node configured by arranging the sensors in two rows at equal intervals, and sensing of each sensor of the composite sensor node The estimation system according to claim 1, wherein the result is presence or absence of detection of an object.
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理手段と、を備え、
前記データ処理手段は、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する推定手段を備える
ことを特徴とする推定装置。 An estimation device for estimating parameters related to the size and shape of an object based on sensing results of the object that can be changed from moment to moment by a plurality of sensor nodes that are randomly divided into classes,
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes;
Data processing means for performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object, and
The data processing means includes a state equation based on a time variable model of a state variable including parameters relating to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation device comprising: estimation means for estimating parameters related to the size and shape of the object based on the above.
前記推定装置は、
前記センサノードに関するパラメータと、前記対象物の大きさと形状に関するパラメータの時間変化モデルに関するパラメータと、推定の初期条件に関するパラメータとを記憶する記憶手段と、
前記複数のセンサノードからの前記センシング結果を受信する通信手段と、を備え、
前記推定方法は、
前記複数のセンサノードからの前記センシング結果と前記記憶手段から読み出したパラメータを用いて演算を行い、前記対象物の大きさ、及び形状に関するパラメータを推定するデータ処理ステップ、を備え、
前記データ処理ステップにおいて、前記対象物の大きさと形状に関するパラメータを含む状態変数の時間変化モデルに基づく状態方程式と、前記クラスごとのセンシング結果に基づく観測値と状態変数の関係を記述した観測方程式とに基づき、前記対象物の大きさ、及び形状に関するパラメータを推定する
ことを特徴とする推定方法。 An estimation method executed by an estimation device that estimates parameters related to the size and shape of an object based on the sensing result of the object that can be changed from time to time by a plurality of sensor nodes that are randomly divided into classes. Because
The estimation device includes:
Storage means for storing a parameter relating to the sensor node, a parameter relating to a time variation model of a parameter relating to the size and shape of the object, and a parameter relating to an initial condition of estimation;
Communication means for receiving the sensing results from the plurality of sensor nodes,
The estimation method is:
A data processing step of performing calculation using the sensing results from the plurality of sensor nodes and parameters read from the storage means, and estimating parameters relating to the size and shape of the object,
In the data processing step, a state equation based on a time variable model of a state variable including parameters related to the size and shape of the object, an observation equation describing a relationship between an observed value based on a sensing result for each class and the state variable, An estimation method characterized by estimating parameters related to the size and shape of the object based on the above.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012255709A JP5990449B2 (en) | 2012-11-21 | 2012-11-21 | Estimation system, estimation device, estimation method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012255709A JP5990449B2 (en) | 2012-11-21 | 2012-11-21 | Estimation system, estimation device, estimation method, and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014102214A JP2014102214A (en) | 2014-06-05 |
JP5990449B2 true JP5990449B2 (en) | 2016-09-14 |
Family
ID=51024823
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012255709A Active JP5990449B2 (en) | 2012-11-21 | 2012-11-21 | Estimation system, estimation device, estimation method, and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5990449B2 (en) |
Families Citing this family (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6713953B2 (en) * | 2017-06-15 | 2020-06-24 | 日本電信電話株式会社 | Shape estimating device, shape estimating method and program |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3386107B2 (en) * | 1997-11-25 | 2003-03-17 | 日本電信電話株式会社 | One-dimensional quantity prediction device |
JP2009063554A (en) * | 2007-08-15 | 2009-03-26 | Nippon Telegr & Teleph Corp <Ntt> | Size estimation system, and shape estimation system |
AU2008322797B2 (en) * | 2007-11-12 | 2013-01-24 | Bae Systems Plc | Sensor control |
JP5084671B2 (en) * | 2008-09-01 | 2012-11-28 | 日本電信電話株式会社 | Shape estimation system, center server, shape estimation method, and shape estimation program |
JP2011069637A (en) * | 2009-09-24 | 2011-04-07 | Nippon Telegr & Teleph Corp <Ntt> | Shape estimation system, server device, method and program for estimating shape |
JP5300797B2 (en) * | 2010-01-12 | 2013-09-25 | 日本電信電話株式会社 | Shape estimation system, angle estimation method, and object number estimation method |
JP5371907B2 (en) * | 2010-08-13 | 2013-12-18 | 日本電信電話株式会社 | Shape estimation system, center server, shape estimation method, and shape estimation program |
-
2012
- 2012-11-21 JP JP2012255709A patent/JP5990449B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014102214A (en) | 2014-06-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
Dai et al. | A wavelet support vector machine‐based neural network metamodel for structural reliability assessment | |
Mendez et al. | Data interpolation for participatory sensing systems | |
Soltani et al. | Enhancing Cluster-based RFID Tag Localization using artificial neural networks and virtual reference tags | |
Meruane et al. | Structural damage assessment using linear approximation with maximum entropy and transmissibility data | |
CN112363251A (en) | Weather prediction model generation method, weather prediction method and device | |
Liu et al. | Localization-oriented coverage in wireless camera sensor networks | |
JP2017091278A (en) | Learning device, prediction device, learning method, prediction method, and program | |
Yang et al. | Parameter identification for structural dynamics based on interval analysis algorithm | |
Tang et al. | Geospatial interpolation analytics for data streams in eventshop | |
Nguyen et al. | Spatial sensor selection via Gaussian Markov random fields | |
Vakilzadeh et al. | Stochastic finite element model calibration based on frequency responses and bootstrap sampling | |
CN117473312A (en) | Bearing state prediction method, bearing state prediction device, computer equipment and storage medium | |
Kumar et al. | Fault identification model using IIoT for industrial application | |
Dong et al. | Anomaly detection in cognitive radio networks exploiting singular spectrum analysis | |
JP5990449B2 (en) | Estimation system, estimation device, estimation method, and program | |
Qian et al. | An evolutionary nested sampling algorithm for Bayesian model updating and model selection using modal measurement | |
Roy et al. | Situational awareness for dynamical network processes using incidental measurements | |
JP6906769B2 (en) | High-resolution device, high-resolution method, spatial data high-resolution method, and program | |
US20160292302A1 (en) | Methods and systems for inferred information propagation for aircraft prognostics | |
Volosencu et al. | Efficiency improvement in multi-sensor wireless network based estimation algorithms for distributed parameter systems with application at the heat transfer | |
Zhang et al. | WSN sensing coverage based on correlation | |
Ram et al. | Localization and intensity tracking of diffusing point sources using sensor networks | |
Madhag et al. | A distributed navigation strategy for mobile sensor networks with the probabilistic wireless links | |
Yang et al. | Sensor placement for detecting propagative sources in populated environments | |
Donato et al. | Decimation of fast states and weak nodes: topological variation via persistent homology |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150218 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160122 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160126 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20160815 |
|
R150 | Certificate of patent (=grant) or registration of utility model |
Ref document number: 5990449 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |