JP2012042232A - Shape estimation system, center server, shape estimation method, and shape estimation program - Google Patents

Shape estimation system, center server, shape estimation method, and shape estimation program Download PDF

Info

Publication number
JP2012042232A
JP2012042232A JP2010181297A JP2010181297A JP2012042232A JP 2012042232 A JP2012042232 A JP 2012042232A JP 2010181297 A JP2010181297 A JP 2010181297A JP 2010181297 A JP2010181297 A JP 2010181297A JP 2012042232 A JP2012042232 A JP 2012042232A
Authority
JP
Japan
Prior art keywords
detection
sensing area
intensity
estimation
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2010181297A
Other languages
Japanese (ja)
Other versions
JP5371907B2 (en
Inventor
Hiroshi Saito
洋 斎藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2010181297A priority Critical patent/JP5371907B2/en
Publication of JP2012042232A publication Critical patent/JP2012042232A/en
Application granted granted Critical
Publication of JP5371907B2 publication Critical patent/JP5371907B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Length Measuring Devices With Unspecified Measuring Means (AREA)
  • Geophysics And Detection Of Objects (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a shape estimation system that precisely estimates information associated with an object of detection, a center server, a shape estimation method, and a shape estimation program.SOLUTION: Each of a plurality of sensor terminals 201-1 to 201-m includes a detection part 101 which detects the object of detection in a sensing area, and also detects an intensity corresponding to the distance to the object of detection, and a communication part 102 which transmits a detection result obtained by the detection part to the center server 401. The center server includes a communication part 301 which receives the detection results transmitted from the plurality of sensor terminals, and a data processing part 302 which finds estimation equations by a plurality of classes demarcated corresponding to the intensities using the detection results transmitted from the plurality of sensor terminals and sensing area information read out of a storage part 303, and solves simultaneous equations based upon the plurality of estimation equations to compute detection object information representing the object of detection.

Description

本発明は、センサネットワークにおける各センサ端末の検出結果により、検出対象の周長や大きさなどの検出対象の形状に関する情報である形状情報を推定する形状推定システム、センタサーバ、形状推定方法、及び、形状推定プログラムに関する。   The present invention relates to a shape estimation system, a center server, a shape estimation method, and a shape estimation method for estimating shape information that is information related to a shape of a detection target such as a circumference and size of the detection target based on a detection result of each sensor terminal in the sensor network. The present invention relates to a shape estimation program.

小型の無線通信機能を備えるセンサ端末(以下、センサノードとも称する)をさまざまな場所に数多く分散させ、センサネットワークを構成し、さまざまな場所の状態を計測して、計測結果を色々なアプリケーションに使おうという試みが盛んに行われている(例えば、非特許文献1、2)。
そのような状況下において、検出対象物の大きさや、形状の推定、及び推定した情報に基づき検出対象物の種別を判定することが考えられている。例えば、ある領域に進入する車両の大きさや、形状を推定し、推定した情報に基づき、検出対象物の車両の種別を判定することや、有毒ガスを検出することにより、有毒ガスの広がりを推定することなどがある。
このようなセンサネットワークにおいて、センサの位置を予め定めて配備するか、あるいは、配備後にGPS(Global Positioning System)などを用いてセンサが配置された位置が特定できていれば、分散配置された各センサの検出結果により形状推定を行うことができる。
Many sensor terminals (hereinafter also referred to as sensor nodes) with small wireless communication functions are distributed in various locations to form a sensor network, measure the status of various locations, and use the measurement results for various applications. Many attempts have been made (for example, Non-Patent Documents 1 and 2).
Under such circumstances, it is considered to determine the type of the detection target based on the size and shape estimation of the detection target and the estimated information. For example, the size and shape of a vehicle entering a certain area are estimated, and based on the estimated information, the type of vehicle to be detected is determined, or the spread of toxic gas is estimated by detecting toxic gas. There are things to do.
In such a sensor network, if the positions of the sensors are predetermined and deployed, or if the positions where the sensors are disposed can be identified using GPS (Global Positioning System) after deployment, Shape estimation can be performed based on the detection result of the sensor.

また、分散配置された各センサの位置が特定できなくても、各センサが配置されている密度(以下、センサ密度という)が既知であれば、検出対象物の大きさ等を推定することができる(例えば、特許文献1)。   Even if the positions of the sensors arranged in a distributed manner cannot be specified, if the density at which the sensors are arranged (hereinafter referred to as the sensor density) is known, the size of the detection target can be estimated. (For example, Patent Document 1).

Ian. F. Akyildiz他著、”A survey on sensor networks”、IEEE Communication Magazine、第40号第8集、pp.102−114、2002年8月Ian. F. Akyildiz et al., “A survey on sensor networks”, IEEE Communication Magazine, No. 40, 8th pp. 102-114, August 2002

Ben. W. Cook他著、”SoC Issues for RF Smart Dust”、Proceedings of the IEEE、第94号第6集、pp.1177−1196、2006年6月Ben. W. Cook et al., “SoC Issues for RF Smart Dust”, Proceedings of the IEEE, No. 94, Vol. 6, pp. 1177-1196, June 2006

特開2010−60319号公報JP 2010-60319 A

上述したようなセンサネットワークにおいて、個々の決められた位置にセンサを配備する場合、センサ設置時に位置を把握しなければならないという手間が生じる。また、個々のセンサを適当に配備後、センサに付随するGPSなどで、自律的にセンサ位置を特定し、登録する場合、個々のセンサにGPSが必要となるなどの付加コストが発生する。
また、個々のセンサ位置が特定できない状況下における検出対象物の形状推定を行う場合、例えば、個々のセンサが配置されている密度(センサ密度)が既知であればその位置が特定できなくても検出対象物の大きさ等を推定できる。しかし、複数のセンサを一様に配備することは困難であるため、検出対象物がセンサ密度の高い領域に存在する場合と、低い領域に存在する場合とでは、その推定精度に偏りが生じる問題がある。
In the sensor network as described above, when a sensor is arranged at each predetermined position, there is a trouble that the position must be grasped when the sensor is installed. In addition, when each sensor is appropriately deployed and the position of the sensor is autonomously specified and registered by using the GPS or the like attached to the sensor, an additional cost such as the necessity of the GPS for each sensor occurs.
In addition, when estimating the shape of a detection target in a situation where individual sensor positions cannot be specified, for example, if the density at which the individual sensors are arranged (sensor density) is known, the position cannot be specified. The size of the detection target can be estimated. However, since it is difficult to deploy a plurality of sensors uniformly, there is a problem that the estimation accuracy is biased between the case where the detection target is present in a high sensor density region and the case where the detection target is present in a low region. There is.

本発明は、上記課題を解決するものであり、精度よく検出対象物に関する情報を推定する形状推定システム、センタサーバ、形状推定方法、及び、形状推定プログラムを提供することを目的とする。   The present invention solves the above-described problems, and an object thereof is to provide a shape estimation system, a center server, a shape estimation method, and a shape estimation program that accurately estimate information about a detection target.

上述の課題を鑑み、本発明に係る形状推定システムは、複数のセンサ端末と1つのセンタサーバを備える形状推定システムであって、前記複数のセンサ端末のそれぞれは、センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出する検出部と、前記検出部による検出結果を前記センタサーバに送信する通信部とを有し、前記センタサーバは、前記複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出部による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶部と、前記複数のセンサ端末から送信される前記検出結果を受信する受信部と、前記複数のセンサ端末から送信される前記検出結果と前記記憶部から読み出したセンシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理部と、を有することをと特徴とする。   In view of the above-described problems, a shape estimation system according to the present invention is a shape estimation system including a plurality of sensor terminals and one center server, and each of the plurality of sensor terminals is a detection target in a sensing area. And detecting a strength corresponding to the distance to the detection object, and a communication unit for transmitting a detection result by the detection unit to the center server, wherein the center server includes the plurality of Sensing area information related to a sensing area determined in advance according to the intensity of the detection result of the sensor terminal, a detection result by the detection unit, an estimation equation representing a relationship between the sensing area information and the detection object A storage unit for storing; a receiving unit for receiving the detection results transmitted from the plurality of sensor terminals; and the plurality of sensor terminals. The estimation result is obtained for each of a plurality of classes classified according to the intensity using the detection result transmitted from the sensing unit and the sensing area information read from the storage unit, and the simultaneous equations are solved based on the plurality of estimation equations. And a data processing unit for calculating detection object information representing the detection object.

上述の形状推定システムは、前記推定方程式が、前記検出部の存在する密度を示すセンサ密度を未知数として含み、前記データ処理部が、前記連立方程式を解くことにより、前記センサ密度を算出することを特徴とする。   In the above-described shape estimation system, the estimation equation includes a sensor density indicating a density at which the detection unit exists as an unknown, and the data processing unit calculates the sensor density by solving the simultaneous equations. Features.

上述の形状推定システムは、前記検出対象物情報が、前記検出対象物の大きさを表わす情報と周長を表わす情報とを含むことを特徴とする。   The above-described shape estimation system is characterized in that the detection target information includes information indicating the size of the detection target and information indicating a circumference.

上述の形状推定システムは、前記推定方程式が、   In the shape estimation system described above, the estimation equation is

Figure 2012042232
であり、但し、iはクラス、N(i)はクラスiの検出結果を得た前記センサ端末の数、Ls(i)は、クラスiに対応するセンシングエリアSAの周長、Ss(i)は、クラスiに対応するセンシングエリアSAの大きさ、λはセンサ密度、Lは前記検出対象物の周長、Sは前記検出対象物Xの大きさであることを特徴とする。
Figure 2012042232
Where i is the class, N (i) is the number of sensor terminals that have obtained the detection result of class i, Ls (i) is the circumference of the sensing area SA corresponding to class i, and Ss (i) Is the size of the sensing area SA corresponding to class i, λ is the sensor density, L is the circumference of the detection object, and S is the size of the detection object X.

上述の課題を鑑み、本発明に係るセンタサーバは、複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出部による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶部と、前記複数のセンサ端末から送信される前記検出結果を受信する受信部と、前記複数のセンサ端末から送信される前記検出結果と前記記憶部から読み出したセンシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理部と、を有することをと特徴とする。   In view of the above-described problems, the center server according to the present invention includes sensing area information relating to a sensing area determined in advance according to the intensity of detection results from a plurality of sensor terminals, detection results from the detection unit, and the sensing area information. And a storage unit that stores an estimation equation that represents the relationship between the detection object, a reception unit that receives the detection results transmitted from the plurality of sensor terminals, and the transmission unit that is transmitted from the plurality of sensor terminals. The detection result is obtained by obtaining the estimation equation for each of a plurality of classes classified according to the intensity using the detection result and sensing area information read from the storage unit, and solving the simultaneous equations based on the plurality of estimation equations. And a data processing unit for calculating detected object information representing the object.

上述の課題を鑑み、本発明に係る形状推定方法は、複数のセンサ端末のそれぞれが、センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出し、前記検出した結果を示す検出結果をセンタサーバに送信し、前記センタサーバが、前記複数のセンサ端末から送信される前記検出結果を受信し、前記複数のセンサ端末から送信される前記検出結果と、前記複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報とを用いて、前記強度に応じて区分される複数のクラス毎に、前記検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出することをと特徴とする。   In view of the above-described problems, the shape estimation method according to the present invention detects a detection object in the sensing area and detects an intensity according to the distance from the detection object. A detection result indicating the detected result is transmitted to a center server, the center server receives the detection result transmitted from the plurality of sensor terminals, and the detection result transmitted from the plurality of sensor terminals; The sensing result and the sensing for each of a plurality of classes classified according to the intensity using sensing area information related to a sensing area determined in advance according to the intensity of the detection result by the plurality of sensor terminals. By obtaining an estimation equation representing the relationship between the area information and the detection object, and solving the simultaneous equations based on the plurality of estimation equations, Calculating a detection target information representing the serial detection object and characterized.

上述の課題を鑑み、本発明に係る形状推定プログラムは、コンピュータを、センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出する検出手段、前記検出手段による検出結果を送信する通信手段、前記検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出手段による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶手段、前記検出結果を受信する受信手段、前記検出結果と前記記憶手段から読み出した前記センシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理手段、として機能させるための形状推定プログラムであることを特徴とする。   In view of the above-described problems, the shape estimation program according to the present invention uses a detection unit that detects a detection target in a sensing area and detects an intensity according to a distance from the detection target. Communication means for transmitting a detection result by the means, sensing area information regarding a sensing area determined in advance according to the intensity of the detection result, and a relationship between the detection result by the detection means, the sensing area information, and the detection object Storage means for storing an estimation equation representing the detection result, receiving means for receiving the detection result, and a plurality of classes classified according to the intensity using the detection result and the sensing area information read from the storage means Obtaining the estimation equation and solving the simultaneous equations based on the plurality of estimation equations. Characterized in that it is a shape estimation program for functioning as a data processing means for calculating a detection object information representing an object.

本発明によれば、精度よく検出対象物に関する情報を推定することができる。   According to the present invention, information about a detection target can be estimated with high accuracy.

本発明の実施形態に係る形状推定システムの構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the shape estimation system which concerns on embodiment of this invention. 本発明の実施形態に係るセンサ端末のセンシングエリアの一例を説明するための図であるIt is a figure for demonstrating an example of the sensing area of the sensor terminal which concerns on embodiment of this invention. 本発明の実施形態に係る形状推定方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the shape estimation method which concerns on embodiment of this invention.

以下、本発明の一実施形態による形状推定システム1について図1を参照して説明する。
図1は、本実施形態による形状推定システム1の構成を示す概略ブロック図である。形状推定システム1は、センタサーバ401と、検出対象物の有無を検出するセンサ端末としてのm個のセンサ端末201−1〜201−mとを備え、検出対象物の形状情報を推定する。ここで、形状情報(検出対象物情報)とは、例えば、検出対象物の面積(サイズ)や、検出対象物の外周の長さ、検出対象物の凹凸の数など、検出対象物の形状に関する情報である。以下、形状推定システム1における検出対象物の面積を面積S、外周の長さを周長Lと表す。
Hereinafter, a shape estimation system 1 according to an embodiment of the present invention will be described with reference to FIG.
FIG. 1 is a schematic block diagram showing the configuration of a shape estimation system 1 according to this embodiment. The shape estimation system 1 includes a center server 401 and m sensor terminals 201-1 to 201-m as sensor terminals that detect the presence or absence of a detection target, and estimates the shape information of the detection target. Here, the shape information (detection target information) relates to the shape of the detection target, such as the area (size) of the detection target, the length of the outer periphery of the detection target, and the number of irregularities of the detection target. Information. Hereinafter, the area of the detection target in the shape estimation system 1 is represented as an area S, and the outer circumference is represented as a circumferential length L.

m個のセンサ端末201−1〜201−mは、それぞれ、センシングエリア内にある検出対象物を検出するとともに、自端末と検出対象物との距離に応じた強度を検出するセンサである検出部101と、検出部101による検出結果を示す情報(以下、検出結果情報)をセンタサーバ401に送信する通信部102と、電源供給を行う電源部103とを備える。なお、各センサ端末201−1〜201−mには、固有の識別番号(以下、端末IDという)が割り当てられており、自端末の記憶部(図示せず)に記憶されている。通信部102は、検出結果情報を送信する際、当該端末IDを対応付けてセンタサーバ401に送信する。   The m sensor terminals 201-1 to 201-m each detect a detection target in the sensing area and detect a strength corresponding to the distance between the terminal and the detection target. 101, a communication unit 102 that transmits information indicating a detection result by the detection unit 101 (hereinafter, detection result information) to the center server 401, and a power supply unit 103 that supplies power. Each sensor terminal 201-1 to 201-m is assigned a unique identification number (hereinafter referred to as a terminal ID) and stored in a storage unit (not shown) of the terminal itself. When transmitting the detection result information, the communication unit 102 associates the terminal ID and transmits it to the center server 401.

検出部101は、所定の面積のセンシングエリアSAを検出可能範囲として、このセンシングエリアSA内に検出対象物Xの一部でも含まれている場合、センシングエリアSAに検出対象物Xがあることを検出する。この検出部101は、センシングエリアSA内にある検出対象物Xを検出すると、検出対象物Xとの距離に応じた強度Mをセンシング結果として得る。本実施形態では、距離が0になると強度Mは1、遠ざかるにつれ(検出対象物Xと検出部101とが離れるに従って)、強度Mは0に近づくという特性をもつとする。
本実施形態において、センサ端末201−1〜201−mにそれぞれ搭載される全ての検出部101は同じ特性をもつとし、この特性は既知とし、この特性に基づき距離に応じた強度が予め決めておく。
The detection unit 101 determines that the sensing area X is in the sensing area SA when the sensing area SA having a predetermined area is set as a detectable range and a part of the detection object X is included in the sensing area SA. To detect. When the detection unit 101 detects the detection target X in the sensing area SA, the detection unit 101 obtains an intensity M corresponding to the distance from the detection target X as a sensing result. In the present embodiment, it is assumed that the intensity M is 1 when the distance becomes 0, and the intensity M approaches 0 as the distance from the detection object X and the detection unit 101 increases.
In this embodiment, it is assumed that all the detection units 101 mounted on the sensor terminals 201-1 to 201-m have the same characteristics, the characteristics are known, and the strength corresponding to the distance is determined in advance based on the characteristics. deep.

例えば、検出部101の一例として、図2に示すような特性を有するセンサを利用することができる。図2は、本実施形態に係る検出部101の特性の一例を説明するための図である。
図2に示す通り、検出部101は、自装置から半径r1のセンシングエリアSs1の範囲内に検出対象物Xがある場合、強度M1の検出結果を得る。つまり、検出部101は、検出対象物Xとの距離がr1未満の場合、強度M1の検出結果を得る。
また、検出部101は、自装置から半径r2のセンシングエリアSs2の範囲(センシングエリアSs1の範囲を除く)内に検出対象物Xがある場合、強度M2の検出結果を得る。つまり、検出部101は、検出対象物Xとの距離がr1以上かつr2未満の場合、強度M2の検出結果を得る。
さらに、検出部101は、自装置から半径r3のセンシングエリアSs3の範囲(センシングエリアSs1、Ss2の範囲を除く)内に検出対象物Xがある場合、強度M3の検出結果を得る。つまり、検出部101は、検出対象物Xとの距離がr2以上かつr3未満の場合、強度M3の検出結果を得る。
なお、検出部101は、自装置から半径r3以上はなれたところに検出対象物Xがある場合、センシングエリアSA内に当該検出対象物Xがないため、当該検出対象物Xを検出することはできない。この自装置から半径r3の範囲が、本実施形態におけるセンシングエリアSAである。
For example, a sensor having characteristics as shown in FIG. 2 can be used as an example of the detection unit 101. FIG. 2 is a diagram for explaining an example of characteristics of the detection unit 101 according to the present embodiment.
As illustrated in FIG. 2, the detection unit 101 obtains the detection result of the intensity M1 when the detection target object X is within the sensing area Ss1 having the radius r1 from the device itself. That is, the detection unit 101 obtains the detection result of the intensity M1 when the distance from the detection target object X is less than r1.
Moreover, the detection part 101 obtains the detection result of intensity | strength M2, when the detection target object X exists in the range (except the range of sensing area Ss1) of sensing area Ss2 of radius r2 from an own apparatus. That is, the detection unit 101 obtains the detection result of the intensity M2 when the distance to the detection target X is not less than r1 and less than r2.
Furthermore, the detection unit 101 obtains the detection result of the intensity M3 when the detection target object X is within the range of the sensing area Ss3 having a radius r3 (excluding the ranges of the sensing areas Ss1 and Ss2) from the device itself. That is, the detection unit 101 obtains the detection result of the intensity M3 when the distance to the detection target X is not less than r2 and less than r3.
The detection unit 101 cannot detect the detection target object X because the detection target object X does not exist in the sensing area SA when the detection target object X is located at a radius r3 or more away from the device itself. . The range of radius r3 from this device is the sensing area SA in this embodiment.

また、本実施形態において、強度M(i)は、ある範囲内の数値を検出部101が検出結果として得た場合のレベルを示すものであって、この強度に応じて区分される複数のクラスC(i)に等しい。しかし、本発明はこれに限られず、図1に示すセンシングエリアAs(i)がこのクラスC(i)毎にそれぞれ定義されており、このクラスC(i)として予め決められている範囲内の強度Mを検出部101が検出するものであってよい。   In the present embodiment, the intensity M (i) indicates a level when the detection unit 101 obtains a numerical value within a certain range as a detection result, and a plurality of classes classified according to the intensity. Equal to C (i). However, the present invention is not limited to this, and the sensing area As (i) shown in FIG. 1 is defined for each class C (i), and is within a range determined in advance as the class C (i). The intensity M may be detected by the detection unit 101.

仮に検出部101に指向性がある場合、その強度が方向によって異なる特性(性質)に基づき、方向に応じた距離毎の強度を予め決めておく。
以下、m個のセンサ端末201−1〜201−mの総称として、センサ端末201とも記載する。
If the detection unit 101 has directivity, the intensity for each distance corresponding to the direction is determined in advance based on characteristics (properties) whose intensity varies depending on the direction.
Hereinafter, the sensor terminal 201 is also described as a general term for the m sensor terminals 201-1 to 201-m.

センタサーバ401は、通信部301と、データ処理部302と、記憶部303と、入出力部304と、電源部305とを備えるコンピュータ端末である。
通信部301は、センサ端末201−1〜201−mから送信される検出結果情報を受信する通信処理を行う。この通信部301は、受信した検出結果情報を端末ID毎に記憶部303に記憶させる。
データ処理部302は、通信部301が受信した検出結果情報に基づき、検出対象物Xの形状情報の推定値を算出する検出対象物の形状情報の推定値の算出処理部である。
このデータ処理部302は、以下の式(1)に示す推定方程式を強度毎{i=1、2、3・・・}に求め、これら推定方程式に基づき線形連立方程式を解くことにより、検出対象物Xの形状情報の推定値として、検出対象物Xの大きさ(面積)Sと、周長Lと、センサ密度λを算出する。
The center server 401 is a computer terminal that includes a communication unit 301, a data processing unit 302, a storage unit 303, an input / output unit 304, and a power supply unit 305.
The communication unit 301 performs communication processing for receiving detection result information transmitted from the sensor terminals 201-1 to 201-m. The communication unit 301 stores the received detection result information in the storage unit 303 for each terminal ID.
The data processing unit 302 is a calculation processing unit for the estimated value of the shape information of the detection target object that calculates the estimated value of the shape information of the detection target object X based on the detection result information received by the communication unit 301.
The data processing unit 302 obtains an estimation equation represented by the following expression (1) for each intensity {i = 1, 2, 3,...}, And solves the linear simultaneous equations based on these estimation equations, thereby detecting objects of detection. As an estimated value of the shape information of the object X, the size (area) S, the circumference L, and the sensor density λ of the detection object X are calculated.

Figure 2012042232
なお、N(i)は、強度(クラス)iの検出結果を得たセンサ端末の数である。Ls(i)は、強度(クラス)iに対応するセンシングエリアSAの周長であり、Ss(i)は、強度(クラス)iに対応するセンシングエリアSAの大きさ(面積)である。λは、センサ密度である。Lは、検出対象物Xの周長であり、Sは、検出対象物Xの大きさ(面積)である。
また、センシングエリアSAの周長Ls(i)と大きさSs(i)は、検出部101が指向性を有する場合、保持している「距離r(i)に対応する検出部101からの範囲の大きさと周長」である。無指向性の場合は、保持している「距離r(i)に対応する強度M(i)」データを用いて、2πr(i)、π{r(i)}により与えておくこともできる。
Figure 2012042232
N (i) is the number of sensor terminals that have obtained the detection result of intensity (class) i. Ls (i) is the circumference of the sensing area SA corresponding to the intensity (class) i, and Ss (i) is the size (area) of the sensing area SA corresponding to the intensity (class) i. λ is the sensor density. L is the circumference of the detection object X, and S is the size (area) of the detection object X.
In addition, the circumferential length Ls (i) and the size Ss (i) of the sensing area SA are stored in the range from the detection unit 101 corresponding to the “distance r (i)” when the detection unit 101 has directivity. Size and circumference ". In the case of non-directionality, 2πr (i), π {r (i)} 2 may be given using the stored “intensity M (i) corresponding to distance r (i)” data. it can.

記憶部303は、データ処理部302による形状情報の推定値の算出処理に用いられる情報(パラメータ)を記憶する。この記憶部303が記憶するパラメータとして、各センサ端末201−1〜201−mに搭載される検出部101のセンシングエリアSAの周長Ls(i)、面積Ss(i)、強度M(i)などがあり、推定対象の形状情報に応じて入出力部304を介して入力される。例えば、センシングエリアSAのパラメータは、図2を用いて説明した例によると、強度M(i)毎に、それぞれ予め決められている。
入出力部304は、例えば、キーボード、マウス、タッチパネル、ボタンやキーなどによりユーザからの情報の入力を受け付ける入力部と、LCD(Liquid Crystal Display)などのディスプレイへの表示を行う出力部とを備える入出力装置である。
電源部305は、センタサーバ装置401の各部を駆動させるための電力を供給する。
The storage unit 303 stores information (parameters) used for the calculation processing of the estimated value of the shape information by the data processing unit 302. As parameters stored in the storage unit 303, the circumference Ls (i), the area Ss (i), and the intensity M (i) of the sensing area SA of the detection unit 101 mounted on each of the sensor terminals 201-1 to 201-m. Are input via the input / output unit 304 according to the shape information of the estimation target. For example, the parameters of the sensing area SA are determined in advance for each intensity M (i) according to the example described with reference to FIG.
The input / output unit 304 includes, for example, an input unit that receives input of information from a user using a keyboard, mouse, touch panel, buttons, keys, and the like, and an output unit that performs display on a display such as an LCD (Liquid Crystal Display). I / O device.
The power supply unit 305 supplies power for driving each unit of the center server device 401.

本実施形態において、センササーバ401は、検出対象物Xの面積Sと周長L、および、センサ端末201−1〜201−mの設置位置(すなわちセンサ端末201−1〜201−mのセンサ密度λ)の推定値を算出するものである。
なお、既知な情報としては、センサ端末201の検出部101のセンサ特性(例えば、検出対象物Xとの距離に応じたセンシングエリアSAの面積Ss(1)、Ss(2)、Ss(3)毎の強度M(1)、M(2)、M(3))である。なお、センシングエリアSAの周長Ls(i){i=1、2、3}も既知である。また、無指向性の場合、センシングエリアSAの面積Ss(i)、周長Ls(i)の変わりに、半径r(i)を既知として、センシングエリアSAの面積Ss(i)、周長Ls(i)を計算することもできる。
In the present embodiment, the sensor server 401 includes the area S and the circumference L of the detection target X, and the installation positions of the sensor terminals 201-1 to 201-m (that is, the sensor density of the sensor terminals 201-1 to 201-m). The estimated value of λ) is calculated.
The known information includes sensor characteristics of the detection unit 101 of the sensor terminal 201 (for example, areas Ss (1), Ss (2), Ss (3) of the sensing area SA corresponding to the distance to the detection target X). The intensity M (1), M (2), M (3)) for each. The circumferential length Ls (i) {i = 1, 2, 3} of the sensing area SA is also known. In the case of non-directionality, instead of the area Ss (i) and the circumferential length Ls (i) of the sensing area SA, the radius r (i) is known and the area Ss (i) and the circumferential length Ls of the sensing area SA are known. (I) can also be calculated.

以下、図3を参照して、これら検出対象物Xの面積Sと周長L、および、センサ端末201−1〜201−mの設置位置(すなわちセンサ端末201−1〜201−mのセンサ密度λ)がいずれも未知である場合に、センササーバ401による検出対象物Xについての形状情報を推定する推定方法の一例について説明する。図3は、本実施形態に係る形状推定方法の一例を説明するためのフローチャートである。   Hereinafter, with reference to FIG. 3, the area S and circumference L of these detection objects X and the installation positions of the sensor terminals 201-1 to 201-m (that is, the sensor density of the sensor terminals 201-1 to 201-m). An example of an estimation method for estimating the shape information about the detection target X by the sensor server 401 when both λ) are unknown will be described. FIG. 3 is a flowchart for explaining an example of the shape estimation method according to the present embodiment.

図3に示す通り、センタサーバ装置401の入出力部304が、オペレータの操作に応じて、既知の情報であるセンシングエリアSAの半径r(1)、r(2)r(3)(無指向性の場合)、またはセンサ特性{例えば、強度M(1)、M(2)、M(3)に対応するセンシングエリアの面積Ss(1)、Ss(2)、Ss(3)と周長Ls(1)、Ls(2)、Ls(3)}を、推定値パラメータとして入力を受け付け(ステップST101)、記憶部303に書き込む(ステップST102)。
なお、検出部101に指向性がある場合、方向と距離に応じた強度をセンサ特性として入力される。
As shown in FIG. 3, the input / output unit 304 of the center server device 401 responds to an operator's operation with the radii r (1), r (2) r (3) (omnidirectional) of the sensing area SA that is known information. ) Or sensor characteristics (for example, the area Ss (1), Ss (2), Ss (3) and the circumference of the sensing area corresponding to the intensity M (1), M (2), M (3) Ls (1), Ls (2), and Ls (3)} are received as estimated value parameters (step ST101) and written to the storage unit 303 (step ST102).
In addition, when the detection part 101 has directivity, the intensity | strength according to a direction and distance is input as a sensor characteristic.

そして、入出力部304は、オペレータからの操作による検出処理の実行指示の入力を受け付けると、センシング処理の実行要求を通信部301を介してセンサ端末201に送信する(ステップST103)。センサ端末201−k(ただし、kは、1からmの整数)において検出部101は、検出対象物Xの検出処理(センシング)を実行し(ステップST104)、検出結果をセンシング結果J(k)としてセンタサーバ装置401に送信する(ステップS105)。センシング結果J(k)>0であれば、「検出対象物を検出した」ことを示し、センシング結果J(k)=0は、「検出対象物を検出しなかった」ことを示す。なお、センシング結果J(k)=1であれば、強度Mが最大であって、例えば、1>強度M1>M2>M3>0という関係が成立つ。   When the input / output unit 304 receives an input of the detection processing execution instruction from the operator, the input / output unit 304 transmits a sensing processing execution request to the sensor terminal 201 via the communication unit 301 (step ST103). In the sensor terminal 201-k (where k is an integer from 1 to m), the detection unit 101 performs detection processing (sensing) of the detection target X (step ST104), and the detection result is converted to the sensing result J (k). To the center server device 401 (step S105). If the sensing result J (k)> 0, it indicates that “the detection target has been detected”, and the sensing result J (k) = 0 indicates that “the detection target has not been detected”. If the sensing result J (k) = 1, the intensity M is maximum, and for example, the relationship 1> intensity M1> M2> M3> 0 is established.

センタサーバ装置401において、通信部301がセンサノード装置201からセンシング結果J(k)を受信し(ステップS106)、データ処理部302は、検出対象物Xを検出した検出センサ数N(i)を、強度M(1)、M(2)、・・・毎に算出する(ステップS107)。つまり、データ処理部302は、各強度毎に検出されたセンサの数の和を算出し、各強度に応じたクラスC(i)毎の推定方程式を生成する。   In the center server device 401, the communication unit 301 receives the sensing result J (k) from the sensor node device 201 (step S106), and the data processing unit 302 calculates the number N (i) of detection sensors that have detected the detection target X. , Intensity M (1), M (2),... Are calculated (step S107). That is, the data processing unit 302 calculates the sum of the number of sensors detected for each intensity, and generates an estimation equation for each class C (i) corresponding to each intensity.

具体的に説明すると、データ処理部302は、センシング結果J(k)の値が強度M(1)よりも大きいか否かを判断する(ステップST108)。ここで、センシング結果J(k)>強度M(1)の場合(ステップST108−YES)、データ処理部302は、クラス1のセンサ数N(1)に1を加算する(ステップST109)。
一方、センシング結果J(k)≦強度M(1)の場合(ステップST108−NO)、データ処理部302は、センシング結果J(k)の値が強度M(2)よりも大きいか否かを判断する(ステップST110)。ここで、センシング結果J(k)>強度M(2)の場合(ステップST110−YES)、データ処理部302は、クラス2のセンサ数N(2)に1を加算する(ステップST111)。
Specifically, the data processing unit 302 determines whether or not the value of the sensing result J (k) is larger than the intensity M (1) (step ST108). Here, if the sensing result J (k)> the intensity M (1) (step ST108—YES), the data processing unit 302 adds 1 to the number of class N sensors N (1) (step ST109).
On the other hand, when the sensing result J (k) ≦ the intensity M (1) (step ST108—NO), the data processing unit 302 determines whether or not the value of the sensing result J (k) is larger than the intensity M (2). Judgment is made (step ST110). Here, when the sensing result J (k)> the intensity M (2) (step ST110-YES), the data processing unit 302 adds 1 to the number of class N sensors N (2) (step ST111).

一方、センシング結果J(k)≦強度M(2)の場合(ステップST110−NO)、データ処理部302は、センシング結果J(k)の値が強度M(3)よりも大きいか否かを判断する(ステップST112)。ここで、センシング結果J(k)>強度M(3)の場合(ステップST112−YES)、データ処理部302は、クラス3のセンサ数N(3)に1を加算する(ステップST113)。
一方、センシング結果J(k)≦強度M(3)の場合(ステップST112−NO)、データ処理部302は、クラス4のセンサ数N(4)に1を加算する(ステップST114)。
On the other hand, when the sensing result J (k) ≦ the intensity M (2) (step ST110—NO), the data processing unit 302 determines whether or not the value of the sensing result J (k) is larger than the intensity M (3). Judgment is made (step ST112). Here, when the sensing result J (k)> the intensity M (3) (step ST112—YES), the data processing unit 302 adds 1 to the number of class N sensors N (3) (step ST113).
On the other hand, when the sensing result J (k) ≦ intensity M (3) (step ST112—NO), the data processing unit 302 adds 1 to the number of class N sensors N (4) (step ST114).

データ処理部302は、全てのセンサ端末201−1〜201−mからのセンシング結果J(k)に対してクラス分けを行う。全てのセンサ端末201−1〜201−mに対してクラス分けを行った後(ステップST115−YES)、データ処理部302は、パラメータや推定方程式を示す情報を記憶部303から読み出し、各クラス毎に生成されたセンサ数N(i)を示す推定方程式を生成する(ステップST116)。
具体的には、データ処理部302が、記憶部303の記憶するパラメータとして、センシングエリアSAの周長Ls(i)、面積Ss(i)と、上述の式(1)に示す推定方程式を記憶部303から読み出す。そして、データ処理部302は、読み出したパラメータLs(i)とSs(i)と、クラス毎に算出した検出対象物Xの検出センサ数N(i)とに基づき式(1)に示す推定方程式をクラス毎{i=1、2、3・・・}に求め、これら推定方程式に基づき線形連立方程式を解くことにより、検出対象物Xの形状情報の推定値として、検出対象物Xの大きさ(面積)Sと、周長Lと、センサ密度λを算出する(ステップST117)。
The data processing unit 302 classifies the sensing results J (k) from all the sensor terminals 201-1 to 201-m. After classifying all the sensor terminals 201-1 to 201-m (step ST115-YES), the data processing unit 302 reads information indicating parameters and estimation equations from the storage unit 303, and sets each class. An estimation equation indicating the number N (i) of sensors generated in step ST116 is generated (step ST116).
Specifically, the data processing unit 302 stores the circumference Ls (i), the area Ss (i) of the sensing area SA, and the estimation equation shown in the above equation (1) as parameters stored in the storage unit 303. Read from the unit 303. Then, the data processing unit 302 uses the parameters Ls (i) and Ss (i) that have been read and the number N (i) of detection sensors for the detection target X calculated for each class, and the estimation equation shown in Expression (1). For each class {i = 1, 2, 3,...}, And solving the linear simultaneous equations based on these estimation equations, the size of the detection object X is obtained as an estimated value of the shape information of the detection object X. (Area) S, circumference L, and sensor density λ are calculated (step ST117).

具体的には、データ処理部302は、合計を算出したクラスC(i)毎のセンサ数N(i)を、式(1)に基づく次式の連立方程式により、形状情報の推定値を算出する。
センサ数N(1)=λ{1/2π・L・Ls(1)+S+Ss(1)}・・・式(2)
センサ数N(2)=λ{1/2π・L・Ls(2)+S+Ss(2)}・・・式(3)
センサ数N(3)=λ{1/2π・L・Ls(3)+S+Ss(3)}・・・式(4)
Specifically, the data processing unit 302 calculates the estimated value of the shape information from the total number of sensors N (i) for each class C (i) by the following simultaneous equations based on the equation (1). To do.
Number of sensors N (1) = λ {1 / 2π · L·Ls (1) + S + Ss (1)} (2)
Number of sensors N (2) = λ {1 / 2π · L·Ls (2) + S + Ss (2)} Equation (3)
Number of sensors N (3) = λ {1 / 2π · L·Ls (3) + S + Ss (3)} Equation (4)

次いで、データ処理部302は、算出した検出対象物Xの大きさ(面積)S、周長L、センサ密度λを形状情報として入出力部304に出力し、入出力部304の出力部が形状情報を出力する(ステップS118)。   Next, the data processing unit 302 outputs the calculated size (area) S, circumference L, and sensor density λ of the detection object X to the input / output unit 304 as shape information, and the output unit of the input / output unit 304 has a shape. Information is output (step S118).

上述の通り、データ処理部302は、検出部101による検出結果として、強度Mに応じて区分けされるクラス毎に、複数の推定方程式を生成することができる。これにより、この推定方程式を少なくとも未知数の数以上用意することにより、連立方程式を用いて、未知数を算出することができる。
よって、上述のように、検出対象物Xの周長Lや大きさSの未知数を算出する推定方程式にセンサ密度λが含まれている場合であっても、クラスを3以上用意して、推定方程式をクラス毎に複数生成することで、未知数のセンサ密度λを算出することができる。従って、センサ端末の位置が特定されていなくても、また、センサ密度λが未知であっても、検出対象物Xの形状情報を算出することができる。
As described above, the data processing unit 302 can generate a plurality of estimation equations for each class classified according to the intensity M as a detection result by the detection unit 101. As a result, by preparing at least the number of unknowns for this estimation equation, the unknowns can be calculated using simultaneous equations.
Therefore, as described above, even if the estimation equation for calculating the circumference L or the size S of the detection target X includes the sensor density λ, three or more classes are prepared and estimated. By generating a plurality of equations for each class, an unknown number of sensor densities λ can be calculated. Therefore, even if the position of the sensor terminal is not specified and the sensor density λ is unknown, the shape information of the detection target X can be calculated.

よって、センサ設置時に位置を把握していない場合であっても、個々のセンサを適当に配備後、センサに付随するGPSなどで、自律的にセンサ位置を特定し、登録する必要がなく、個々のセンサにGPSが必要となるなどの付加コストを削減することができる。
また、個々のセンサ位置が特定できない状況下における検出対象物の形状推定を行う場合、例えば、個々のセンサが配置されているセンサ密度が未知であって、複数のセンサが一様に配備されていない場合であっても、センサ密度λを推定することができるため、検出対象物がセンサ密度の高い領域に存在する場合と低い領域に存在する場合により生じる偏りを軽減することができる。
Therefore, even if the position is not grasped at the time of sensor installation, it is not necessary to identify and register the sensor position autonomously with GPS or the like attached to the sensor after appropriately deploying each sensor. Additional costs such as the need for GPS for the sensors can be reduced.
In addition, when estimating the shape of a detection object in a situation where individual sensor positions cannot be specified, for example, the sensor density at which the individual sensors are arranged is unknown, and a plurality of sensors are uniformly deployed. Even in the absence of the sensor, the sensor density λ can be estimated, so that it is possible to reduce the bias caused by the case where the detection target exists in the high sensor density region and the low detection region.

以上、上述したように、データ処理部302は、センサノード装置201−1〜201−mのセンシングエリアの周長Ls、面積Ss、検出対象物Xを検出したセンサ数N(i)の情報に基づき、上述の方程式により、推定対象の検出対象物Xに関する形状情報の推定値を算出することができる。形状推定システム1は、検出対象物の検出部分の面積Sを測定する機能を備えるセンサではなく、検出対象物Xの有無と距離に応じた強度M(i)を検出するセンサをセンサノード装置201−1〜201−mに適用して検出対象物の形状情報の推定値を算出することができるため、センサ密度が未知であったとしても連立方程式を解くことにより、検出対象物Xの大きさと周長を算出することができる。また、検出対象物の形状情報を推定する場合の判定関数を用いずに直接検出対象物の周長や面積の推定値を算出することができるため、検出対象物の形状を予め絞り込める場合や、推定値の算出の処理時間が短いような単純な判定関数である場合に限られず、広く応用、適用が可能になる。   As described above, as described above, the data processing unit 302 uses information on the perimeter Ls, the area Ss of the sensing area of the sensor node devices 201-1 to 201-m, and the number N (i) of sensors that detect the detection target X. Based on the above equation, it is possible to calculate the estimated value of the shape information regarding the detection target object X to be estimated. The shape estimation system 1 is not a sensor having a function of measuring the area S of the detection portion of the detection target, but a sensor that detects the intensity M (i) according to the presence and absence of the detection target X and the distance. Since the estimated value of the shape information of the detection object can be calculated by applying to −1 to 201-m, the size of the detection object X can be calculated by solving simultaneous equations even if the sensor density is unknown. The perimeter can be calculated. In addition, since the estimated value of the circumference or area of the detection target can be directly calculated without using the determination function when estimating the shape information of the detection target, the shape of the detection target can be narrowed down in advance or The application is not limited to a simple determination function with a short processing time for calculating the estimated value, and can be widely applied and applied.

なお、上述のセンタサーバ401、センサ端末201−1〜201−mは、内部にコンピュータシステムを有している。そして、センタサーバ401の通信部301、データ処理部302、センサ端末201−1〜201−mの検出部101、通信部102の動作の過程は、プログラムの形式でコンピュータ読み取り可能な記録媒体に記憶されており、このプログラムをコンピュータシステムが読み出して実行することによって、上記処理が行われる。ここでいう「コンピュータシステム」とは、CPU及び各種メモリやOS、周辺機器等のハードウェアを含むものである。
また、「コンピュータシステム」は、WWWシステムを利用している場合であれば、ホームページ提供環境(あるいは表示環境)も含むものとする。
The above-described center server 401 and sensor terminals 201-1 to 201-m have a computer system therein. The operation processes of the communication unit 301 of the center server 401, the data processing unit 302, the detection units 101 of the sensor terminals 201-1 to 201-m, and the communication unit 102 are stored in a computer-readable recording medium in the form of a program. The computer system reads out and executes this program, and the above processing is performed. The “computer system” herein includes a CPU, various memories, an OS, and hardware such as peripheral devices.
Further, the “computer system” includes a homepage providing environment (or display environment) if a WWW system is used.

また、図3に示す各ステップを実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、また、図1に示すセンタサーバ装置401の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより、検出対象物の形状情報の推定値を算出する処理を行ってもよい。
また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、フラッシュメモリ等の書き込み可能な不揮発性メモリ、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。
Further, a program for realizing each step shown in FIG. 3 is recorded on a computer-readable recording medium, and a program for realizing the function of the center server device 401 shown in FIG. A process of calculating an estimated value of the shape information of the detection target may be performed by recording the program on the medium, causing the computer system to read and execute the program recorded on the recording medium.
The “computer-readable recording medium” means a flexible disk, a magneto-optical disk, a ROM, a writable nonvolatile memory such as a flash memory, a portable medium such as a CD-ROM, a hard disk built in a computer system, etc. This is a storage device.

さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(例えばDRAM(Dynamic Random Access Memory))のように、一定時間プログラムを保持しているものも含むものとする。
また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。
また、上記プログラムは、前述した機能の一部を実現するためのものであっても良い。さらに、前述した機能をコンピュータシステムに既に記録されているプログラムとの組合せで実現できるもの、いわゆる差分ファイル(差分プログラム)であっても良い。
Further, the “computer-readable recording medium” means a volatile memory (for example, DRAM (Dynamic DRAM) in a computer system that becomes a server or a client when a program is transmitted through a network such as the Internet or a communication line such as a telephone line. Random Access Memory)), etc., which hold programs for a certain period of time.
The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line.
The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

101・・・検出部、102・・・通信部、103・・・電源部、201_1〜202_m・・・センサ端末、301・・・通信部、302・・・データ処理部、303・・・記憶部、304・・・入出力部、305・・・電源部、402・・・センタサーバ   DESCRIPTION OF SYMBOLS 101 ... Detection part, 102 ... Communication part, 103 ... Power supply part, 201_1-202_m ... Sensor terminal, 301 ... Communication part, 302 ... Data processing part, 303 ... Memory | storage , 304 ... I / O unit, 305 ... Power supply unit, 402 ... Center server

Claims (7)

複数のセンサ端末と1つのセンタサーバを備える形状推定システムであって、
前記複数のセンサ端末のそれぞれは、
センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出する検出部と、
前記検出部による検出結果を前記センタサーバに送信する通信部とを有し、
前記センタサーバは、
前記複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出部による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶部と、
前記複数のセンサ端末から送信される前記検出結果を受信する受信部と、
前記複数のセンサ端末から送信される前記検出結果と前記記憶部から読み出したセンシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理部と、
を有することをと特徴とする形状推定システム。
A shape estimation system comprising a plurality of sensor terminals and one center server,
Each of the plurality of sensor terminals is
A detection unit that detects a detection object in the sensing area and detects an intensity according to a distance from the detection object;
A communication unit that transmits a detection result by the detection unit to the center server,
The center server is
Sensing area information related to a sensing area determined in advance according to the intensity of detection results from the plurality of sensor terminals, and an estimation equation representing a relationship between a detection result by the detection unit, the sensing area information, and the detection object A storage unit for storing
A receiving unit for receiving the detection results transmitted from the plurality of sensor terminals;
Using the detection results transmitted from the plurality of sensor terminals and sensing area information read from the storage unit, the estimation equation is obtained for each of a plurality of classes divided according to the intensity, and the plurality of estimation equations A data processing unit that calculates detection object information representing the detection object by solving simultaneous equations based on the equation;
A shape estimation system characterized by comprising:
前記推定方程式は、
前記検出部の存在する密度を示すセンシング密度を未知数として含み、
前記データ処理部は、
前記連立方程式を解くことにより、前記センシング密度を算出することを特徴とする請求項1に記載の形状推定システム。
The estimation equation is
Including the sensing density indicating the density of the detection unit as an unknown,
The data processing unit
The shape estimation system according to claim 1, wherein the sensing density is calculated by solving the simultaneous equations.
前記検出対象物情報は、
前記検出対象物の大きさを表わす情報と周長を表わす情報とを含むことを特徴とする請求項1あるいは2に記載の形状推定システム。
The detection object information is:
The shape estimation system according to claim 1, comprising information representing a size of the detection target and information representing a circumference.
前記推定方程式は、
Figure 2012042232
であり、
但し、iはクラス、N(i)はクラスiの検出結果を得た前記センサ端末の数、Ls(i)は、クラスiに対応するセンシングエリアSAの周長、Ss(i)は、クラスiに対応するセンシングエリアSAの大きさ、λはセンサ密度、Lは前記検出対象物の周長、Sは前記検出対象物Xの大きさであることを特徴とする請求項1から3のいずれか一項に記載の形状推定システム。
The estimation equation is
Figure 2012042232
And
Where i is the class, N (i) is the number of sensor terminals that have obtained the detection result of class i, Ls (i) is the circumference of the sensing area SA corresponding to class i, and Ss (i) is the class The size of the sensing area SA corresponding to i, λ is the sensor density, L is the circumference of the detection object, and S is the size of the detection object X. The shape estimation system according to claim 1.
複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出部による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶部と、
前記複数のセンサ端末から送信される前記検出結果を受信する受信部と、
前記複数のセンサ端末から送信される前記検出結果と前記記憶部から読み出したセンシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理部と、
を有することをと特徴とするセンタサーバ。
Sensing area information relating to a sensing area determined in advance according to the intensity of detection results by a plurality of sensor terminals, a detection result by the detection unit, an estimation equation representing a relationship between the sensing area information and the detection object, A storage unit for storing
A receiving unit for receiving the detection results transmitted from the plurality of sensor terminals;
Using the detection results transmitted from the plurality of sensor terminals and sensing area information read from the storage unit, the estimation equation is obtained for each of a plurality of classes divided according to the intensity, and the plurality of estimation equations A data processing unit that calculates detection object information representing the detection object by solving simultaneous equations based on the equation;
A center server characterized by comprising:
複数のセンサ端末のそれぞれが、
センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出し、
前記検出した結果を示す検出結果をセンタサーバに送信し、
前記センタサーバが、
前記複数のセンサ端末から送信される前記検出結果を受信し、
前記複数のセンサ端末から送信される前記検出結果と、前記複数のセンサ端末による検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報とを用いて、前記強度に応じて区分される複数のクラス毎に、前記検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出することをと特徴とする形状推定方法。
Each of the plurality of sensor terminals
While detecting the detection object in the sensing area, the intensity according to the distance from the detection object is detected,
Sending a detection result indicating the detected result to the center server;
The center server is
Receiving the detection results transmitted from the plurality of sensor terminals;
The detection results transmitted from the plurality of sensor terminals and the sensing area information related to the sensing area determined in advance according to the intensity of the detection results by the plurality of sensor terminals are classified according to the intensity. For each of a plurality of classes, an estimation equation representing a relationship between the detection result, the sensing area information, and the detection object is obtained, and the detection object is obtained by solving simultaneous equations based on the plurality of estimation equations. A shape estimation method characterized by calculating detection object information to be represented.
コンピュータを、
センシングエリア内にある検出対象物を検出するとともに、当該検出対象物との距離に応じた強度を検出する検出手段、
前記検出手段による検出結果を送信する通信手段、
前記検出結果の強度に応じて予め決められているセンシングエリアに関するセンシングエリア情報と、前記検出手段による検出結果と前記センシングエリア情報と前記検出対象物との関係を表わした推定方程式とを記憶する記憶手段、
前記検出結果を受信する受信手段、
前記検出結果と前記記憶手段から読み出した前記センシングエリア情報を用いて前記強度に応じて区分される複数のクラス毎に前記推定方程式を求め、当該複数の推定方程式に基づき連立方程式を解くことにより、前記検出対象物を表わす検出対象物情報を算出するデータ処理手段、
として機能させるための形状推定プログラム。
Computer
A detecting means for detecting a detection object in the sensing area and detecting an intensity according to a distance from the detection object;
A communication means for transmitting a detection result by the detection means;
A memory for storing sensing area information related to a sensing area determined in advance according to the intensity of the detection result, a detection result by the detection means, and an estimation equation representing a relationship between the sensing area information and the detection object. means,
Receiving means for receiving the detection result;
By obtaining the estimation equation for each of a plurality of classes classified according to the intensity using the sensing area information read from the detection result and the storage means, by solving the simultaneous equations based on the plurality of estimation equations, Data processing means for calculating detection object information representing the detection object;
Shape estimation program to function as
JP2010181297A 2010-08-13 2010-08-13 Shape estimation system, center server, shape estimation method, and shape estimation program Expired - Fee Related JP5371907B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2010181297A JP5371907B2 (en) 2010-08-13 2010-08-13 Shape estimation system, center server, shape estimation method, and shape estimation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2010181297A JP5371907B2 (en) 2010-08-13 2010-08-13 Shape estimation system, center server, shape estimation method, and shape estimation program

Publications (2)

Publication Number Publication Date
JP2012042232A true JP2012042232A (en) 2012-03-01
JP5371907B2 JP5371907B2 (en) 2013-12-18

Family

ID=45898752

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2010181297A Expired - Fee Related JP5371907B2 (en) 2010-08-13 2010-08-13 Shape estimation system, center server, shape estimation method, and shape estimation program

Country Status (1)

Country Link
JP (1) JP5371907B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102214A (en) * 2012-11-21 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> Estimation system, estimation device, estimation method and program
JP2017156286A (en) * 2016-03-03 2017-09-07 日本電信電話株式会社 Shape estimation device, shape estimation method, and program
JP2019002790A (en) * 2017-06-15 2019-01-10 日本電信電話株式会社 Shape estimating device, shape estimation method, and program
JP2019020151A (en) * 2017-07-12 2019-02-07 日本電信電話株式会社 Shape estimating apparatus, shape estimating method, and program
JP2020085566A (en) * 2018-11-20 2020-06-04 日本電信電話株式会社 Shape estimation device, shape estimation method, and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147953A (en) * 2003-11-18 2005-06-09 Asaza Kikin Environmental data instrumentation system, method, and program, summarizing server and sensor terminal used for the environmental data instrumentation system
JP2006064385A (en) * 2004-08-24 2006-03-09 Ricoh Co Ltd Apparatus and method for measuring shape
JP2009063554A (en) * 2007-08-15 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Size estimation system, and shape estimation system
JP2010060319A (en) * 2008-09-01 2010-03-18 Nippon Telegr & Teleph Corp <Ntt> Shape estimating system, center server, shape estimating method, and shape estimating program

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005147953A (en) * 2003-11-18 2005-06-09 Asaza Kikin Environmental data instrumentation system, method, and program, summarizing server and sensor terminal used for the environmental data instrumentation system
JP2006064385A (en) * 2004-08-24 2006-03-09 Ricoh Co Ltd Apparatus and method for measuring shape
JP2009063554A (en) * 2007-08-15 2009-03-26 Nippon Telegr & Teleph Corp <Ntt> Size estimation system, and shape estimation system
JP2010060319A (en) * 2008-09-01 2010-03-18 Nippon Telegr & Teleph Corp <Ntt> Shape estimating system, center server, shape estimating method, and shape estimating program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014102214A (en) * 2012-11-21 2014-06-05 Nippon Telegr & Teleph Corp <Ntt> Estimation system, estimation device, estimation method and program
JP2017156286A (en) * 2016-03-03 2017-09-07 日本電信電話株式会社 Shape estimation device, shape estimation method, and program
JP2019002790A (en) * 2017-06-15 2019-01-10 日本電信電話株式会社 Shape estimating device, shape estimation method, and program
JP2019020151A (en) * 2017-07-12 2019-02-07 日本電信電話株式会社 Shape estimating apparatus, shape estimating method, and program
JP2020085566A (en) * 2018-11-20 2020-06-04 日本電信電話株式会社 Shape estimation device, shape estimation method, and program
JP7105447B2 (en) 2018-11-20 2022-07-25 日本電信電話株式会社 Shape estimation device, shape estimation method and program

Also Published As

Publication number Publication date
JP5371907B2 (en) 2013-12-18

Similar Documents

Publication Publication Date Title
JP5371907B2 (en) Shape estimation system, center server, shape estimation method, and shape estimation program
US10365357B2 (en) Location estimation method and apparatus using access point in wireless communication system
JP2019537394A (en) Site detection
Sivers et al. Indoor positioning in WiFi and NanoLOC networks
JP2017123124A (en) Radio communication abnormality detection method, radio communication abnormality detection program, and radio communication abnormality detection device
CN112904295A (en) Method and apparatus for measuring three-dimensional position using radar sensor
JPWO2006077803A1 (en) Key storage device, key storage method, and program
US11822996B2 (en) Monitoring a door position to determine a status of a radio frequency identification tag
US7414582B1 (en) Method and apparatus for all-polarization direction finding
JP6484577B2 (en) Shape estimation apparatus, shape estimation method, and program
KR101472690B1 (en) Relay node for resotring a segmented wireless sensor network, and method for operation of the relay node
JP2008294593A (en) Location estimation system, device and method for estimating location used therefor, and program therefor
JP5084671B2 (en) Shape estimation system, center server, shape estimation method, and shape estimation program
US20220205955A1 (en) Identification apparatus, identification method, identification processing program, generation apparatus, generation method, and generation processing program
KR101726677B1 (en) Wireless sensor network device and method for controlling the same
JP2008515265A (en) Neighborhood evaluation method and system
WO2019058478A1 (en) Vibration determination device, vibration determination method, and program
CN109041093B (en) Blind signal source power position joint estimation method and system
JP2009063554A (en) Size estimation system, and shape estimation system
US20130093628A1 (en) Geolocation of wireless access points for wireless platforms
Nelson et al. Locating and tracking data center assets using active RFID tags and a mobile robot
JP2007259402A (en) System and method for determining wireless tag
Menaka et al. Target prophecy in an underwater environment using a KNN algorithm
CN114286306A (en) Indoor signal positioning method and device, computer equipment and storage medium
JP2020085567A (en) Shape estimation device, shape estimation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120831

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130605

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130611

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130625

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130725

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130823

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130910

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130917

R150 Certificate of patent or registration of utility model

Ref document number: 5371907

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees