JP5792473B2 - Sensor network system, information providing method and program - Google Patents

Sensor network system, information providing method and program Download PDF

Info

Publication number
JP5792473B2
JP5792473B2 JP2011013589A JP2011013589A JP5792473B2 JP 5792473 B2 JP5792473 B2 JP 5792473B2 JP 2011013589 A JP2011013589 A JP 2011013589A JP 2011013589 A JP2011013589 A JP 2011013589A JP 5792473 B2 JP5792473 B2 JP 5792473B2
Authority
JP
Japan
Prior art keywords
information
imaging
unit
detection device
notification
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011013589A
Other languages
Japanese (ja)
Other versions
JP2012156737A (en
Inventor
裕介 奈良
裕介 奈良
健吾 田向
健吾 田向
基康 田中
基康 田中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
MegaChips Corp
Original Assignee
MegaChips Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by MegaChips Corp filed Critical MegaChips Corp
Priority to JP2011013589A priority Critical patent/JP5792473B2/en
Publication of JP2012156737A publication Critical patent/JP2012156737A/en
Application granted granted Critical
Publication of JP5792473B2 publication Critical patent/JP5792473B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、センサネットワークシステムにおいて収集される情報をユーザにわかりやすく提供するとともに、ユーザが楽しみながらセンサネットワークシステムを利用できるようにする技術に関する。   The present invention relates to a technology for providing information collected in a sensor network system to a user in an easy-to-understand manner and enabling a user to use a sensor network system while enjoying the information.

従来より、現実世界の様々な監視対象に応じたセンサノード(検出装置)をネットワークで接続し、当該センサノードにより検出された情報をパソコン等に収集するシステム(以下、「センサネットワークシステム」と称する。)が提案されている。センサネットワークシステムの一例としては、家庭内に配置された電化製品に電力測定装置(電力測定センサ)を取り付け、これらをネットワークで接続し、それぞれの電化製品において消費された電力を情報としてパソコン等に収集するシステムが知られている。   Conventionally, a system (hereinafter referred to as a “sensor network system”) in which sensor nodes (detection devices) corresponding to various monitoring targets in the real world are connected via a network and information detected by the sensor nodes is collected in a personal computer or the like. .) Has been proposed. As an example of a sensor network system, power measurement devices (power measurement sensors) are attached to electrical appliances installed in the home, and these are connected via a network, and the power consumed by each electrical appliance is used as information in a personal computer. A collection system is known.

一方、現実世界に存在するARマーカ(バーコードやQRコード(登録商標)のような二次元画像)をWebカメラ等で撮像し、撮像されたARマーカを画像解析することにより、撮像画像におけるARマーカの近傍にキャラクタを表示させるAR(Augmented Reality:誇張現実)技術も提案されている。AR技術では、ARマーカに画像として埋め込まれている識別子によりキャラクタを特定するとともに、撮像画像におけるARマーカの大きさや向きにより表示させるキャラクタの大きさや向きを変化させる。これにより、AR技術では、現実世界には実際には存在しないキャラクタを現実世界を撮像した撮像画像にオーバーレイさせて、あたかもそのようなキャラクタが存在しているかのような画像を合成することができる。   On the other hand, an AR marker (two-dimensional image such as a barcode or QR code (registered trademark)) existing in the real world is imaged with a Web camera or the like, and the captured AR marker is subjected to image analysis, whereby an AR in the captured image is obtained. AR (Augmented Reality) technology for displaying a character in the vicinity of a marker has also been proposed. In the AR technique, a character is specified by an identifier embedded as an image in the AR marker, and the size and orientation of the character to be displayed are changed depending on the size and orientation of the AR marker in the captured image. Thereby, in the AR technology, a character that does not actually exist in the real world can be overlaid on a captured image obtained by imaging the real world, and an image as if such a character exists can be synthesized. .

さらには、ARマーカを用いないAR技術も提案されている。例えば、そのような技術が特許文献1に記載されている。特許文献1に記載されている技術では、カメラに搭載されているGPSセンサやジャイロセンサによって、撮像位置や撮像方向を検出し、地図情報を参照して、撮像画像に撮像されている被写体を特定する。そして、特定された当該被写体に関するメッセージを、キャラクタの代わりに、撮像画像にオーバーレイさせることにより、ユーザに被写体に関する情報提供を行うものである。   Furthermore, an AR technique that does not use an AR marker has also been proposed. For example, such a technique is described in Patent Document 1. In the technique described in Patent Document 1, the imaging position and the imaging direction are detected by a GPS sensor or a gyro sensor mounted on the camera, and the subject imaged in the captured image is specified by referring to the map information. To do. Then, a message relating to the subject is provided to the user by overlaying a message relating to the identified subject on the captured image instead of the character.

特開2010−171664号公報JP 2010-171664 A

従来のセンサネットワークシステムにおいては、センサノードにより取得され収集された情報を表示したとしても、一般に、センサノードから得られる情報は、時系列で取得された数値の羅列であり、ユーザが容易に理解できないという問題があった。   In a conventional sensor network system, even if information acquired and collected by a sensor node is displayed, generally, information obtained from the sensor node is an enumeration of numerical values acquired in time series, and is easily understood by the user. There was a problem that I could not.

このような問題を解決する1つの手法として、センサノードから得られた情報をグラフや図形等に加工して表示することも可能である。しかし、そのような工夫がされたとしても、ユーザにとって、センサノードから得られる情報を逐一確認し、状況を把握して、必要な対応を決定し、行動を起こすことは、困難で面白みのない退屈な作業であるという問題があった。特に、一般家庭に設置されるセンサネットワークシステムにおいては、いかにユーザに飽きさせず、使用を継続させるかが重要なポイントになる。   As one method for solving such a problem, it is also possible to process and display information obtained from the sensor node into a graph or a graphic. However, even if such a contrivance is made, it is difficult and interesting for the user to check the information obtained from the sensor node one by one, grasp the situation, decide the necessary response, and take action There was a problem of being tedious work. In particular, in a sensor network system installed in a general home, how to keep using the user without getting bored becomes an important point.

本発明は、上記課題に鑑みてなされたものであり、センサネットワークシステムにおいて収集される情報をユーザにわかりやすく提供するとともに、ユーザが楽しみながらセンサネットワークシステムを利用できるようにする技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for providing information collected in a sensor network system to a user in an easy-to-understand manner and enabling the user to use the sensor network system while enjoying the user. With the goal.

上記の課題を解決するため、請求項1の発明は、センサネットワークシステムであって、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、前記検出装置により取得された監視情報を収集する情報処理システムとを備え、前記情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段とを備え、前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、前記撮像手段は、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得するIn order to solve the above problems, the invention of claim 1 is a sensor network system, wherein one or more detection devices that acquire information representing the real world as monitoring information, and the monitoring information acquired by the detection device An information processing system that collects information about a character, a storage unit that stores information about the character, an imaging unit that images the real world and acquires imaging information, and the imaging information acquired by the imaging unit A specifying unit for specifying a detection device to be notified from among the one or more detection devices by image analysis, and creation for generating notification information corresponding to the detection device to be notified specified by the specifying unit And output means for outputting notification information created by the creating means together with imaging information acquired by the imaging means, Broadcast information, see contains the information about the stored corresponding detection effect information and the storage means corresponding to the obtained monitoring information by the device a character, said imaging means, for each of the one or more detection devices The imaging information is acquired by imaging the board that lists the markers .

また、請求項2の発明は、請求項1の発明に係るセンサネットワークシステムであって、前記1以上の検出装置との間で、直接的な無線通信を行う通信手段と、前記通信手段における無線通信の状態を評価し、当該評価に基づいて前記特定手段により特定された報知対象となる検出装置と前記撮像手段との間の距離を推定する評価手段とをさらに備え、前記撮像手段は、前記通信手段と一体的な構造物を構成しており、前記作成手段は、前記評価手段により推定された距離に応じて前記報知対象となる検出装置に対応して作成すべき報知情報を作成するとともに、前記評価手段により推定された距離に応じて前記1以上の検出装置の中から報知対象となる検出装置を特定するとともに、当該特定した報知対象となる検出装置に対応して作成すべき報知情報を作成するThe invention of claim 2 is a sensor network system according to the invention of claim 1, wherein a communication means for performing direct wireless communication with the one or more detection devices, and a wireless in the communication means. Evaluation means for evaluating a communication state and estimating a distance between the detection device to be notified specified by the specifying means based on the evaluation and the imaging means, and the imaging means A structure integrated with the communication means is formed, and the creation means creates notification information to be created corresponding to the detection device to be notified according to the distance estimated by the evaluation means. The detection device to be notified is specified from the one or more detection devices according to the distance estimated by the evaluation means, and is created corresponding to the specified detection device to be notified. To create a can broadcast information.

また、請求項3の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、前記検出装置により取得された監視情報を収集する情報処理システムとを備え、前記情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、前記1以上の検出装置との間で、直接的な無線通信を行う通信手段と、前記通信手段における無線通信の状態を評価し、当該評価に基づいて前記1以上の検出装置と前記撮像手段との間の距離を推定する評価手段と、前記通信手段と一体的な構造物を構成し、現実世界を撮像して撮像情報を取得する撮像手段と、前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段とを備え、前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、前記作成手段は、前記評価手段により推定された距離に応じて前記特定手段により特定された報知対象となる検出装置に対応して作成すべき報知情報を作成するとともに、前記評価手段により推定された距離に応じて前記1以上の検出装置の中から報知対象となる検出装置を特定するとともに当該特定した報知対象となる検出装置に対応して作成すべき報知情報を作成するThe invention of claim 3 includes one or more detection devices that acquire information representing the real world as monitoring information, and an information processing system that collects the monitoring information acquired by the detection device. The system evaluates the state of wireless communication in the communication means, the communication means for performing direct wireless communication between the storage means for storing information about the character, the one or more detection devices, and the evaluation is performed. An evaluation unit that estimates a distance between the one or more detection devices and the imaging unit, and an imaging unit that forms an integral structure with the communication unit and that captures imaging information by imaging the real world And specifying means for specifying a detection device to be notified from among the one or more detection devices by performing image analysis on the imaging information acquired by the imaging means, and specifying by the specification means. A notification unit that generates notification information corresponding to the detection device that is the notification target; and an output unit that outputs the notification information generated by the generation unit together with the imaging information acquired by the imaging unit. Includes production information according to the monitoring information acquired by the corresponding detection device and information about the character stored in the storage means, and the creation means determines the specific according to the distance estimated by the evaluation means Detection information to be generated corresponding to the detection device to be notified specified by the means, and detection to be notified from the one or more detection devices according to the distance estimated by the evaluation means In addition to specifying the device, notification information to be generated corresponding to the specified detection device to be notified is generated .

また、請求項4の発明は、請求項1ないし3のいずれかの発明に係るセンサネットワークシステムであって、前記出力手段は、前記撮像手段により撮像された撮像画像に含まれるマーカを他の画像に置換するThe invention of claim 4 is the sensor network system according to any one of claims 1 to 3, wherein the output means uses a marker included in the captured image captured by the imaging means as another image. Replace with .

また、請求項5の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、前記検出装置により取得された監視情報を収集する情報処理システムとを備え、前記情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段とを備え、前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、前記出力手段は、前記撮像手段により撮像された撮像画像に含まれるマーカを他の画像に置換するFurther, the invention of claim 5 includes one or more detection devices that acquire information representing the real world as monitoring information, and an information processing system that collects the monitoring information acquired by the detection device. The system includes: a storage unit that stores information relating to the character; an imaging unit that captures imaging information by capturing an image of the real world; and an image analysis of the imaging information acquired by the imaging unit. A specifying means for specifying a detection device to be notified from among, a creation means for creating notification information corresponding to the detection device to be notified specified by the specifying means, and the imaging information acquired by the imaging means Output means for outputting the notification information created by the creation means, and the notification information is included in the monitoring information acquired by the corresponding detection device. And a information about the effect information and the character stored in the storing means Flip was, the output unit replaces the marker contained in the captured image captured by the imaging means to another image.

また、請求項6の発明は、請求項1ないし5のいずれかに記載のセンサネットワークシステムであって、前記出力手段により出力された報知情報を報知履歴情報として保存する保存手段をさらに備える
また、請求項7の発明は、請求項1ないし6のいずれかの発明に係るセンサネットワークシステムであって、前記特定手段は、特定した報知対象となる検出装置と前記撮像手段との間の距離を、前記撮像手段により取得した撮像情報を解析することにより推定し、前記作成手段は、前記特定手段により特定された報知対象となる検出装置に対応して作成すべき報知情報を、前記特定手段により推定された距離に応じて作成する
The invention according to claim 6 is the sensor network system according to any one of claims 1 to 5, further comprising storage means for storing the notification information output by the output means as notification history information .
The invention of claim 7 is the sensor network system according to any one of claims 1 to 6 , wherein the specifying means is a distance between the specified detection device to be notified and the imaging means. Is estimated by analyzing the imaging information acquired by the imaging unit, and the creating unit generates notification information to be created corresponding to the detection device to be notified specified by the specifying unit. Created according to the distance estimated by .

また、請求項8の発明は、情報提供方法であって、キャラクタに関する情報を記憶手段に記憶する工程と、現実世界を表現した監視情報を1以上の検出装置によって取得する工程と、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得する工程と、現実世界を撮像して撮像情報を取得する工程と、取得された前記撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する工程と、特定された前記報知対象となる検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含むとともに、前記報知対象となる検出装置に対応した報知情報を作成する工程と、取得された前記撮像情報とともに作成された前記報知情報を出力する工程とを有する。 Further, the invention of claim 8 is an information providing method, the step of storing information about the character in the storage means, the step of acquiring the monitoring information representing the real world by one or more detection devices, and the one or more of the above Imaging a board listing a marker corresponding to each of the detection devices, acquiring imaging information, imaging the real world and acquiring imaging information, and analyzing the acquired imaging information Thus, the step of specifying the detection device to be notified from among the one or more detection devices, the production information according to the monitoring information acquired by the specified detection device to be notified and stored in the storage means And a process of creating notification information corresponding to the detection device that is the notification target and the acquired imaging information. And a step of outputting the notification information.

また、請求項9の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置とネットワークを介して接続されるコンピュータによって実行されるプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、前記特定手段により特定された報知対象となる検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含むとともに、前記報知対象となる検出装置に対応した報知情報を作成する作成手段と、前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段とを備えるコンピュータとして機能させ、前記撮像手段は、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像するThe invention according to claim 9 is a program executed by a computer connected via a network to one or more detection devices that acquire information representing the real world as monitoring information. The execution is performed by causing the computer to store the information relating to the character, the imaging means for imaging the real world and acquiring imaging information, and analyzing the imaging information acquired by the imaging means by performing image analysis on the one or more. Specific means for specifying the detection device to be notified from among the detection devices, the effect information according to the monitoring information acquired by the detection device to be notified specified by the specification means, and the storage means Information related to the detected character and the notification information corresponding to the detection device to be notified And creating means, to function as a computer and output means for outputting the broadcast information created by the creation means along with the obtained imaging information by the imaging means, the imaging means, each of said one or more detection devices Image a board that lists the corresponding markers .

請求項1に記載の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、検出装置により取得された監視情報を収集する情報処理システムとを備え、情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、撮像手段により取得された撮像情報を画像解析することにより1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、撮像手段により取得された撮像情報とともに作成手段により作成された報知情報を出力する出力手段とを備え、報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と記憶手段に記憶されたキャラクタに関する情報とを含む。これにより、現実世界を撮像した撮像情報とともに、現実世界の状況に応じて動的に変化する演出情報が出力されるので、例えば監視情報に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステムを使用することができる。また、演出情報を工夫することにより、検出手段により収集された監視情報を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。また、撮像手段は、1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得するので、管理が容易になる。
また、請求項3に記載の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、検出装置により取得された監視情報を収集する情報処理システムとを備え、情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、1以上の検出装置との間で、直接的な無線通信を行う通信手段と、通信手段における無線通信の状態を評価し、当該評価に基づいて1以上の検出装置と撮像手段との間の距離を推定する評価手段と、通信手段と一体的な構造物を構成し、現実世界を撮像して撮像情報を取得する撮像手段と、撮像手段により取得された撮像情報を画像解析することにより1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、撮像手段により取得された撮像情報とともに作成手段により作成された報知情報を出力する出力手段とを備え、報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と記憶手段に記憶されたキャラクタに関する情報とを含み、作成手段は、評価手段により推定された距離に応じて特定手段により特定された報知対象となる検出装置に対応して作成すべき報知情報を作成するとともに、評価手段により推定された距離に応じて1以上の検出装置の中から報知対象となる検出装置を特定するとともに当該特定した報知対象となる検出装置に対応して作成すべき報知情報を作成する。これにより、現実世界を撮像した撮像情報とともに、現実世界の状況に応じて動的に変化する演出情報が出力されるので、例えば監視情報に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステムを使用することができる。また、演出情報を工夫することにより、検出手段により収集された監視情報を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。また、特定手段による特定が困難な場合でも、評価手段によって推定される距離の違いに応じて、演出情報を選択できる。
また、請求項5に記載の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置と、検出装置により取得された監視情報を収集する情報処理システムとを備え、情報処理システムは、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、撮像手段により取得された撮像情報を画像解析することにより1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、撮像手段により取得された撮像情報とともに作成手段により作成された報知情報を出力する出力手段とを備え、報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と記憶手段に記憶されたキャラクタに関する情報とを含む。これにより、現実世界を撮像した撮像情報とともに、現実世界の状況に応じて動的に変化する演出情報が出力されるので、例えば監視情報に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステムを使用することができる。また、演出情報を工夫することにより、検出手段により収集された監視情報を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。また、出力手段は、撮像手段により撮像された撮像画像に含まれるマーカを他の画像に置換するので、報知情報がより見えやすくなる。
また、請求項8に記載の発明は、キャラクタに関する情報を記憶手段に記憶する工程と、現実世界を表現した監視情報を1以上の検出装置によって取得する工程と、1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得する工程と、現実世界を撮像して撮像情報を取得する工程と、取得された撮像情報を画像解析することにより1以上の検出装置の中から報知対象となる検出装置を特定する工程と、特定された報知対象となる検出装置により取得された監視情報に応じた演出情報と記憶手段に記憶されたキャラクタに関する情報とを含むとともに、報知対象となる検出装置に対応した報知情報を作成する工程と、取得された撮像情報とともに作成された報知情報を出力する工程とを有する。これにより、現実世界を撮像した撮像情報とともに、現実世界の状況に応じて動的に変化する演出情報が出力されるので、例えば監視情報に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステムを使用することができる。また、演出情報を工夫することにより、検出手段により収集された監視情報を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。また、管理が容易になる。
また、請求項9に記載の発明は、現実世界を表現した情報を監視情報として取得する1以上の検出装置とネットワークを介して接続されるコンピュータによって実行されるプログラムであって、プログラムのコンピュータによる実行は、コンピュータを、キャラクタに関する情報を記憶する記憶手段と、現実世界を撮像して撮像情報を取得する撮像手段と、撮像手段により取得された撮像情報を画像解析することにより1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、特定手段により特定された報知対象となる検出装置により取得された監視情報に応じた演出情報と記憶手段に記憶されたキャラクタに関する情報とを含むとともに、報知対象となる検出装置に対応した報知情報を作成する作成手段と、撮像手段により取得された撮像情報とともに作成手段により作成された報知情報を出力する出力手段とを備えるコンピュータとして機能させ、撮像手段は、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像する。これにより、現実世界を撮像した撮像情報とともに、現実世界の状況に応じて動的に変化する演出情報が出力されるので、例えば監視情報に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステムを使用することができる。また、演出情報を工夫することにより、検出手段により収集された監視情報を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。また、管理が容易になる。
The invention according to claim 1 includes one or more detection devices that acquire information representing the real world as monitoring information, and an information processing system that collects the monitoring information acquired by the detection device. A storage means for storing information relating to the character; an imaging means for imaging the real world to acquire imaging information; and an object to be notified from one or more detection devices by performing image analysis on the imaging information acquired by the imaging means Created by the creating means together with the identifying means for identifying the detecting device to be, the creating means for creating the notification information corresponding to the detection device to be notified identified by the identifying means, and the imaging information acquired by the imaging means and output means for outputting the broadcast information, broadcast information, storage of the corresponding detection effect information storage means corresponding to the obtained monitoring information by the device It was including the information about the character. As a result, together with imaging information that captures the real world, production information that changes dynamically according to the situation in the real world is output. For example, the presence of the monitoring information is enhanced, and the sensor network system is used while the user is enjoying can do. In addition, by devising the production information, the monitoring information collected by the detection means can be intuitively grasped, so that the user can easily understand the situation in the real world. In addition, since the imaging unit captures the board that lists the markers corresponding to each of the one or more detection devices and acquires the imaging information, management is facilitated.
The invention described in claim 3 includes one or more detection devices that acquire information representing the real world as monitoring information, and an information processing system that collects the monitoring information acquired by the detection device. The system evaluates the state of wireless communication in the communication means, the communication means that performs direct wireless communication between the storage means that stores information about the character, and one or more detection devices, and based on the evaluation An imaging unit that estimates a distance between one or more detection devices and an imaging unit, an imaging unit that forms an integral structure with the communication unit, captures imaging information in the real world, and an imaging unit Corresponding to a specifying unit that specifies a detection device to be notified from one or more detection devices by performing image analysis on the acquired imaging information, and a detection device that is to be notified by the specifying unit. A creation unit that creates notification information, and an output unit that outputs the notification information created by the creation unit together with the imaging information acquired by the imaging unit. The notification information is included in the monitoring information acquired by the corresponding detection device. And creating means corresponding to the detection device to be notified specified by the specifying means according to the distance estimated by the evaluating means. The notification information to be generated is generated, and the detection device to be notified is specified from one or more detection devices according to the distance estimated by the evaluation unit, and is generated corresponding to the specified detection device to be the notification target Create broadcast information to be used. As a result, together with imaging information that captures the real world, production information that changes dynamically according to the situation in the real world is output. For example, the presence of the monitoring information is enhanced, and the sensor network system is used while the user is enjoying can do. In addition, by devising the production information, the monitoring information collected by the detection means can be intuitively grasped, so that the user can easily understand the situation in the real world. Further, even when it is difficult to specify by the specifying unit, the effect information can be selected according to the difference in distance estimated by the evaluation unit.
The invention according to claim 5 includes one or more detection devices that acquire information representing the real world as monitoring information, and an information processing system that collects the monitoring information acquired by the detection device. The system includes a storage unit that stores information about the character, an imaging unit that captures imaging information by capturing an image of the real world, and an image analysis performed on the imaging information acquired by the imaging unit. Created by the creating means together with the specifying means for specifying the detection device to be notified, the creating means for creating the notification information corresponding to the detection device to be notified specified by the specifying means, and the imaging information acquired by the imaging means Output means for outputting the notification information, and the notification information is stored in the effect information and storage means according to the monitoring information acquired by the corresponding detection device. Including information about憶by the character. As a result, together with imaging information that captures the real world, production information that changes dynamically according to the situation in the real world is output. can do. In addition, by devising the production information, the monitoring information collected by the detection means can be intuitively grasped, so that the user can easily understand the situation in the real world. Moreover, since the output unit replaces the marker included in the captured image captured by the imaging unit with another image, the notification information is more easily visible.
According to an eighth aspect of the present invention, each of the step of storing information relating to the character in the storage means, the step of acquiring monitoring information representing the real world by one or more detection devices, and the one or more detection devices One or more detection devices by imaging a board listing corresponding markers and acquiring imaging information, imaging a real world and acquiring imaging information, and analyzing the acquired imaging information Including a step of identifying a detection device to be notified from among the above, production information according to the monitoring information acquired by the specified detection device to be notified, and information on the character stored in the storage means, A step of creating notification information corresponding to the detection device to be notified, and a step of outputting the notification information generated together with the acquired imaging information. As a result, together with imaging information that captures the real world, production information that changes dynamically according to the situation in the real world is output. can do. In addition, by devising the production information, the monitoring information collected by the detection means can be intuitively grasped, so that the user can easily understand the situation in the real world. Moreover, management becomes easy.
The invention according to claim 9 is a program executed by a computer connected via a network to one or more detection devices that acquire information representing the real world as monitoring information. The execution includes one or more detection devices by performing image analysis on a computer, storage means for storing information about the character, imaging means for imaging the real world and acquiring imaging information, and imaging information acquired by the imaging means. Specifying means for specifying the detection device to be notified from among the above, effect information according to the monitoring information acquired by the detection device to be notified specified by the specifying means, information about the character stored in the storage means, And creating means for creating notification information corresponding to the detection device to be notified, and imaging means And an output unit that outputs notification information created by the creation unit together with the acquired imaging information. The imaging unit images a board listing a marker corresponding to each of the one or more detection devices. To do. As a result, together with imaging information that captures the real world, production information that changes dynamically according to the situation in the real world is output. can do. In addition, by devising the production information, the monitoring information collected by the detection means can be intuitively grasped, so that the user can easily understand the situation in the real world. Moreover, management becomes easy.

第1の実施の形態におけるセンサネットワークシステムの構成を示す図である。It is a figure which shows the structure of the sensor network system in 1st Embodiment. 第1の実施の形態におけるセンサノードのブロック図である。It is a block diagram of the sensor node in a 1st embodiment. 第1の実施の形態における情報処理端末の構成を示すブロック図である。It is a block diagram which shows the structure of the information processing terminal in 1st Embodiment. 第1の実施の形態における情報処理端末が備える機能ブロックをデータの流れとともに示す図である。It is a figure which shows the functional block with which the information processing terminal in 1st Embodiment is provided with the flow of data. 演出元情報の構造を例示する図である。It is a figure which illustrates the structure of direction information. 登録情報の構造を例示する図である。It is a figure which illustrates the structure of registration information. 特定情報の構造を例示する図である。It is a figure which illustrates the structure of specific information. 第1の実施の形態における情報提供方法を示す流れ図である。It is a flowchart which shows the information provision method in 1st Embodiment. ステップS2における情報提供処理を示す流れ図である。It is a flowchart which shows the information provision process in step S2. 特定情報作成処理を示す流れ図である。It is a flowchart which shows specific information creation processing. 距離情報作成処理を示す流れ図である。It is a flowchart which shows distance information creation processing. 第1出力処理を示す流れ図である。It is a flowchart which shows a 1st output process. 登録処理を示す流れ図である。It is a flowchart which shows a registration process. 第2出力処理を示す流れ図である。It is a flowchart which shows a 2nd output process. 指示情報受付処理を示す流れ図である。It is a flowchart which shows instruction information reception processing. 報知情報として、監視情報の詳細な情報が表示される例を示した図である。It is the figure which showed the example by which the detailed information of monitoring information is displayed as alerting | reporting information. 複数のセンサノードが撮像部の撮像範囲に存在する場合に出力される報知情報を例示する図である。It is a figure which illustrates the alerting | reporting information output when a some sensor node exists in the imaging range of an imaging part. 表現媒体が操作ボタンである場合に出力される報知情報を例示する図である。It is a figure which illustrates the alerting | reporting information output when an expression medium is an operation button. 第2の実施の形態におけるセンサネットワークシステムを示す図である。It is a figure which shows the sensor network system in 2nd Embodiment. 第3の実施の形態におけるセンサネットワークシステムを示す図である。It is a figure which shows the sensor network system in 3rd Embodiment.

以下、本発明の好適な実施の形態について、添付の図面を参照しつつ、詳細に説明する。   DESCRIPTION OF EXEMPLARY EMBODIMENTS Hereinafter, preferred embodiments of the invention will be described in detail with reference to the accompanying drawings.

<1. 第1の実施の形態>
図1は、第1の実施の形態におけるセンサネットワークシステム1の構成を示す図である。なお、第1の実施の形態におけるセンサネットワークシステム1は、家庭内に配置された電化製品において消費された電力量(情報)を収集するシステムを例に説明する。すなわち、詳細は後述するが、第1の実施の形態におけるセンサネットワークシステム1を構成するセンサノード2は、いわゆる電力測定センサであり、通常は家庭内に設置される。
<1. First Embodiment>
FIG. 1 is a diagram illustrating a configuration of a sensor network system 1 according to the first embodiment. The sensor network system 1 according to the first embodiment will be described by taking as an example a system that collects the amount of power (information) consumed in the appliances installed in the home. That is, although details will be described later, the sensor node 2 constituting the sensor network system 1 according to the first embodiment is a so-called power measurement sensor and is usually installed in a home.

ただし、センサネットワークシステム1としては、例えば、家庭で育成されている動植物の近傍に環境センサ(気温センサや土壌センサ、湿度センサ等)を配置し、これらの環境センサから得られた情報を収集して動植物の育成を支援するシステムや、ガスや水漏れ、施錠状態等を監視するセンサを用いたセキュリティシステムなどであってもよい。すなわち、センサネットワークシステム1の用途は本実施の形態に示すものに限定されるものではない。そして、センサネットワークシステム1の用途に応じて、どのような機能を有するセンサノードがセンサノード2として採用されてもよい。   However, as the sensor network system 1, for example, environmental sensors (such as an air temperature sensor, a soil sensor, and a humidity sensor) are arranged in the vicinity of animals and plants grown at home, and information obtained from these environmental sensors is collected. It may be a system that supports the growth of plants and animals, or a security system that uses a sensor that monitors gas, water leakage, locked state, and the like. That is, the application of the sensor network system 1 is not limited to that shown in the present embodiment. A sensor node having any function may be employed as the sensor node 2 according to the application of the sensor network system 1.

図1に示すように、センサネットワークシステム1は、センサノード2と情報処理システム3とを備えている。ただし、センサネットワークシステム1が備えるセンサノード2の数は、図1に示すように1つに限定されるものではなく、通常は、多数のセンサノード2によってセンサネットワークシステム1が形成される。   As shown in FIG. 1, the sensor network system 1 includes a sensor node 2 and an information processing system 3. However, the number of sensor nodes 2 included in the sensor network system 1 is not limited to one as shown in FIG. 1, and the sensor network system 1 is normally formed by a large number of sensor nodes 2.

図2は、第1の実施の形態におけるセンサノード2のブロック図である。第1の実施の形態におけるセンサノード2は、家庭内に配置された、対応する電化製品(例えば、冷蔵庫や電子レンジ、電気ポット、テレビ、電気カーペット等)に取り付けられ、当該対応する電化製品の消費電力量を測定し、情報処理システム3に送信する機能を有している。   FIG. 2 is a block diagram of the sensor node 2 according to the first embodiment. The sensor node 2 in the first embodiment is attached to a corresponding electrical appliance (for example, a refrigerator, a microwave oven, an electric kettle, a television, an electric carpet, etc.) disposed in the home, and the corresponding electrical appliance It has a function of measuring power consumption and transmitting it to the information processing system 3.

図2に示すように、センサノード2は、CPU20、記憶装置21、検出部22および通信部23を備えており、主に家庭内に設置される。   As illustrated in FIG. 2, the sensor node 2 includes a CPU 20, a storage device 21, a detection unit 22, and a communication unit 23, and is mainly installed in the home.

CPU20は、記憶装置21に記憶されているプログラム210に従って動作することにより、センサノード2が備える各構成を制御する機能を有している。CPU20が提供する機能としては、例えば、記憶装置21へのデータの読み書き(アクセス制御)、検出部22に対するセンシング制御、通信部23を介してのゲートウェイ4あるいは情報処理端末7との間の通信制御等がある。   The CPU 20 has a function of controlling each component included in the sensor node 2 by operating according to the program 210 stored in the storage device 21. The functions provided by the CPU 20 include, for example, data reading / writing (access control) to the storage device 21, sensing control for the detection unit 22, and communication control with the gateway 4 or the information processing terminal 7 via the communication unit 23. Etc.

記憶装置21は、各種データを記憶・保存しておく機能を有しており、特に、プログラム210および監視情報211を記憶する。また、図2において図示を省略しているが、記憶装置21には、センサノード2を個別に識別するための情報(以下、「センサ識別子」と称する。)が記憶されている。センサノード2にセンサ識別子が付与されていることにより、センサネットワークシステム1において複数のセンサノード2が存在したとしても、それぞれのセンサノード2を識別しつつ、通信や監視情報211の管理等を行うことができる。   The storage device 21 has a function of storing and saving various data, and particularly stores a program 210 and monitoring information 211. Although not shown in FIG. 2, the storage device 21 stores information for individually identifying the sensor nodes 2 (hereinafter referred to as “sensor identifier”). Since sensor identifiers are assigned to the sensor nodes 2, even if there are a plurality of sensor nodes 2 in the sensor network system 1, communication and management of the monitoring information 211 are performed while identifying each sensor node 2. be able to.

このように、第1の実施の形態におけるセンサノード2は、CPU20および記憶装置21を備えることにより、コンピュータとしての機能および構成を備えている。なお、センサノード2がMCUを備え、マイクロコンピュータとして構成されていてもよい。   As described above, the sensor node 2 according to the first embodiment includes the CPU 20 and the storage device 21 and thereby has a function and a configuration as a computer. The sensor node 2 may include an MCU and be configured as a microcomputer.

検出部22は、センサノード2に対応する電化製品において消費された電力を測定し、監視情報211を作成する。検出部22により作成された監視情報211は、CPU20により、一旦、記憶装置21に記憶される。このようにセンサノード2が検出部22を備えることにより、センサノード2は、現実世界において、当該センサノード2に対応する電化製品によって消費された電力を表現した情報(消費電力量を表現した数値など)を監視情報211として取得する機能を発揮する。   The detection unit 22 measures the power consumed in the electrical appliance corresponding to the sensor node 2 and creates monitoring information 211. The monitoring information 211 created by the detection unit 22 is temporarily stored in the storage device 21 by the CPU 20. As the sensor node 2 includes the detection unit 22 as described above, the sensor node 2 is configured to obtain information representing power consumed by the electrical appliance corresponding to the sensor node 2 in the real world (a numerical value representing power consumption). Etc.) as monitoring information 211.

通信部23は、センサノード2が情報処理システム3との間でデータ通信を行う機能を提供する。第1の実施の形態における通信部23は、ゲートウェイ4との間では、無線通信および商用電力線8を用いたPLCによる有線通信を行うことができるように構成されている。   The communication unit 23 provides a function in which the sensor node 2 performs data communication with the information processing system 3. The communication unit 23 according to the first embodiment is configured to be able to perform wireless communication and wired communication by PLC using the commercial power line 8 with the gateway 4.

一方、通信部23は、情報処理端末7との間では直接的な無線通信が可能となっている。ここにいう「直接的な無線通信」とは、センサノード2と情報処理端末7との間に、無線基地局や中継機等の装置を介在させることなく、データ通信が可能となる無線通信という意味である。いいかえれば、センサノード2の通信部23から送信された信号(電波信号や赤外線信号等が想定される)が、直接、情報処理端末7に受信される方式の無線通信を意味するものである。   On the other hand, the communication unit 23 can perform direct wireless communication with the information processing terminal 7. “Direct wireless communication” here refers to wireless communication that enables data communication without interposing a device such as a wireless base station or a relay between the sensor node 2 and the information processing terminal 7. Meaning. In other words, a signal transmitted from the communication unit 23 of the sensor node 2 (a radio wave signal, an infrared signal, or the like is assumed) means a wireless communication in which the information processing terminal 7 directly receives the signal.

センサノード2と情報処理端末7との間で直接的な無線通信を実現する方式としては、従来から提案されているどのような無線方式が採用されてもよいが、例えば、IrDA(赤外線無線通信)やBluetooth、WiFi(Wireless Fidelity)などの規格が採用可能である。また、これらの無線通信方式は、センサノード2とゲートウェイ4との間の無線通信にも共通して採用されてもよい。   As a method for realizing direct wireless communication between the sensor node 2 and the information processing terminal 7, any conventionally proposed wireless method may be adopted. For example, IrDA (infrared wireless communication) ), Bluetooth, WiFi (Wireless Fidelity), etc. can be adopted. In addition, these wireless communication methods may be commonly used for wireless communication between the sensor node 2 and the gateway 4.

このように、第1の実施の形態におけるセンサノード2は、情報処理端末7が無線通信の通信可能エリア内に存在すれば、直接的な無線通信を用いて情報処理端末7との間でデータ通信を行うことが可能である。また、情報処理端末7が無線通信の通信可能エリア内に存在しない場合には、センサノード2は、ゲートウェイ4およびルータ5を介して、情報処理端末7との間でデータ通信を行うことができる。   As described above, the sensor node 2 according to the first embodiment transmits data to and from the information processing terminal 7 using direct wireless communication if the information processing terminal 7 exists in the wireless communicable area. Communication is possible. When the information processing terminal 7 does not exist in the wireless communication area, the sensor node 2 can perform data communication with the information processing terminal 7 via the gateway 4 and the router 5. .

なお、センサノード2と情報処理端末7との間で、どのルートを使用してデータ通信を行うかは、送受信する情報の種類によって選択されてもよい。例えば、監視情報211やセンサノード2に対する制御情報等はゲートウェイ4およびルータ5を介して送受信する。その一方で、センサノード2の存在を報知するビーコン信号等は直接的な無線通信により情報処理端末7に送信するようにしてもよい。   Note that which route is used for data communication between the sensor node 2 and the information processing terminal 7 may be selected depending on the type of information to be transmitted and received. For example, the monitoring information 211 and the control information for the sensor node 2 are transmitted / received via the gateway 4 and the router 5. On the other hand, a beacon signal or the like for notifying the presence of the sensor node 2 may be transmitted to the information processing terminal 7 by direct wireless communication.

第1の実施の形態では、センサノード2(検出部22)によって取得された監視情報211は、一旦、記憶装置21に記憶された後、通信スケジュールに従って、通信部23によりサーバ6に向けて送信される。   In the first embodiment, the monitoring information 211 acquired by the sensor node 2 (detection unit 22) is temporarily stored in the storage device 21, and then transmitted to the server 6 by the communication unit 23 according to the communication schedule. Is done.

さらに、センサノード2の外面には、ARマーカ24が貼付されている。ARマーカ24とは、AR(Augmented Reality)技術において、画像合成や音声出力等の対象となる物体を識別するためのマーカであり、一般的には二次元画像として提供される。ARマーカ24については、従来から提案されているAR技術を適宜採用することができるので、ここでは詳細な説明を省略する。ただし、少なくとも、ARマーカ24には、当該ARマーカ24が撮像された画像を画像解析することにより、当該ARマーカ24を特定(識別)するための識別子(以下、「マーカ識別子」と称する。)が含まれている。   Further, an AR marker 24 is attached to the outer surface of the sensor node 2. The AR marker 24 is a marker for identifying an object to be subjected to image synthesis, audio output, or the like in AR (Augmented Reality) technology, and is generally provided as a two-dimensional image. For the AR marker 24, since conventionally proposed AR technology can be appropriately employed, detailed description thereof is omitted here. However, at least the AR marker 24 is an identifier for identifying (identifying) the AR marker 24 by image analysis of an image obtained by capturing the AR marker 24 (hereinafter referred to as a “marker identifier”). It is included.

なお、ARマーカ24は必ずしもセンサノード2に貼付されていなければならないわけではない。例えば、冷蔵庫の消費電力を測定するためには、センサノード2を冷蔵庫の裏側に配置するのがよい場合がある。このような場合、冷蔵庫の裏側に配置されたセンサノード2に貼付されたARマーカ24を容易に撮像することはできない。したがって、このようにセンサノード2を直接撮像することが困難な場合などにおいては、ARマーカ24を当該冷蔵庫の外面等に貼付してもよい。また、例えば、複数のセンサノード2を一元的に管理するためのボードを作成し、当該ボードに全てのセンサノード2のARマーカ24を掲載するようにしてもよい。このような場合には、当該ボードを撮像するだけで、全てのセンサノード2のARマーカ24を撮像することが可能となり、管理が容易になる。   The AR marker 24 does not necessarily have to be attached to the sensor node 2. For example, in order to measure the power consumption of a refrigerator, it may be desirable to arrange the sensor node 2 on the back side of the refrigerator. In such a case, the AR marker 24 attached to the sensor node 2 disposed on the back side of the refrigerator cannot be easily imaged. Therefore, when it is difficult to directly image the sensor node 2 as described above, the AR marker 24 may be attached to the outer surface of the refrigerator. Further, for example, a board for managing a plurality of sensor nodes 2 may be created, and the AR markers 24 of all the sensor nodes 2 may be posted on the board. In such a case, it is possible to image the AR markers 24 of all the sensor nodes 2 simply by imaging the board, and management becomes easy.

また、ARマーカ24は、1つのセンサノード2について複数存在してもよい。上記例では、センサノード2の外面、冷蔵庫の外面および管理ボードのそれぞれにARマーカ24が貼付されていてもよい。また、その場合、ARマーカ24は完全に同一でなくてもよい。   A plurality of AR markers 24 may exist for one sensor node 2. In the above example, the AR marker 24 may be attached to each of the outer surface of the sensor node 2, the outer surface of the refrigerator, and the management board. In that case, the AR marker 24 may not be completely the same.

さらに、ARマーカ24をセンサノード2に貼付する手法は、接着剤が塗布されたシールを用いてもよいし、マグネット等により着脱自在に貼付してもよい。   Further, the AR marker 24 may be attached to the sensor node 2 by using a seal coated with an adhesive, or may be attached detachably with a magnet or the like.

以上が、センサノード2についての説明である。なお、図1には特に図示していないが、センサノード2は、電源部(商用電源から電力の供給を受けるための構成や太陽光発電パネル、電池等)を備えており、当該電源部から供給される電力により動作する。また、センサノード2は、ユーザによって操作される操作部(電源ボタンや設定ボタン、テンキー等)や、ユーザに状況を知らせる出力部(LEDやブザー等)等を備えていてもよい。   The above is the description of the sensor node 2. Although not particularly illustrated in FIG. 1, the sensor node 2 includes a power supply unit (a configuration for receiving power supply from a commercial power supply, a solar power generation panel, a battery, and the like). Operates with supplied power. The sensor node 2 may also include an operation unit (power button, setting button, numeric keypad, etc.) operated by the user, an output unit (LED, buzzer, etc.) that informs the user of the situation.

図1に示す情報処理システム3は、ゲートウェイ4、ルータ5、サーバ6および情報処理端末7から構成されている。そして、情報処理システム3は、各装置(ゲートウェイ4、ルータ5、サーバ6および情報処理端末7)が、ネットワーク(インターネット9等)を介してデータ通信が可能な状態で接続された構成を有している。すなわち、情報処理システム3自体も、各装置がネットワークで接続されたネットワークシステムを構成している。これにより、詳細は後述するが、情報処理システム3は、センサノード2(より詳細には検出部22)により取得された監視情報211をネットワーク(商用電力線8や無線通信)を介して収集し、管理・分析する機能を有している。   An information processing system 3 shown in FIG. 1 includes a gateway 4, a router 5, a server 6, and an information processing terminal 7. The information processing system 3 has a configuration in which each device (gateway 4, router 5, server 6 and information processing terminal 7) is connected in a state where data communication is possible via a network (Internet 9 or the like). ing. That is, the information processing system 3 itself constitutes a network system in which each device is connected by a network. Thereby, although details will be described later, the information processing system 3 collects the monitoring information 211 acquired by the sensor node 2 (more specifically, the detection unit 22) via the network (commercial power line 8 or wireless communication), Has management and analysis functions.

ゲートウェイ4は、センサノード2との通信をインターネット網に接続できる通信に変換する機能を有している。また、ルータ5は、ネットワークアドレス等を用いて、家庭内の装置(センサノード2や情報処理端末7等)を外部のインターネット9に接続する機能を提供する。なお、センサノード2が直接インターネット網に接続する機能を有する場合には、ゲートウェイ4を備えないシステム構成とすることもできる。   The gateway 4 has a function of converting communication with the sensor node 2 into communication that can be connected to the Internet network. In addition, the router 5 provides a function of connecting home devices (such as the sensor node 2 and the information processing terminal 7) to the external Internet 9 using a network address or the like. When the sensor node 2 has a function of directly connecting to the Internet network, a system configuration without the gateway 4 can be adopted.

サーバ6は、主にセンサネットワークシステム1を提供する企業等に設置されるコンピュータシステム(複数のコンピュータやネットワークから構成されてもよい。)であり、通常は、サービスが提供されている間は随時起動されている。また、サーバ6は、インターネット9を介して家庭内に配置された各装置とデータ通信が可能となるように接続されている。なお、図1では、1つの家庭に設置されるシステムのみを図示しているが、一般には、各家庭にルータ5が設置され、複数の家庭においてサーバ6を共用するようにセンサネットワークシステム1が構築される。   The server 6 is a computer system (may be composed of a plurality of computers and networks) installed mainly in a company or the like that provides the sensor network system 1 and is usually at any time while services are provided. Has been activated. The server 6 is connected via the Internet 9 so that data communication can be performed with each device arranged in the home. In FIG. 1, only a system installed in one home is illustrated, but in general, the router 5 is installed in each home, and the sensor network system 1 is configured to share the server 6 in a plurality of homes. Built.

第1の実施の形態におけるサーバ6は、センサノード2から送信された監視情報211を受信し、格納しておくデータベース(図示せず)を備えている。また、サーバ6は、情報処理端末7からの要求に応じて、データベースに格納している監視情報211を情報処理端末7に向けて送信する機能も有している。   The server 6 in the first embodiment includes a database (not shown) that receives and stores the monitoring information 211 transmitted from the sensor node 2. The server 6 also has a function of transmitting the monitoring information 211 stored in the database to the information processing terminal 7 in response to a request from the information processing terminal 7.

一般にセンサノード2における記憶装置21の記憶容量を大きくすることには限界があり、監視情報211を記憶装置21に格納しておける時間には限界がある。したがって、センサノード2は、所定の通信間隔で監視情報211を情報処理システム3に向けて送信しなければ、データのオーバーフローを起こすことになる。しかし、センサネットワークシステム1がサーバ6(常時起動状態にある)を備えていることにより、ユーザが情報処理端末7をスタンバイさせていない期間においても、センサノード2によって取得された監視情報211を随時受け付けて蓄積することができる。   In general, there is a limit to increasing the storage capacity of the storage device 21 in the sensor node 2, and there is a limit to the time during which the monitoring information 211 can be stored in the storage device 21. Therefore, if the sensor node 2 does not transmit the monitoring information 211 to the information processing system 3 at a predetermined communication interval, data overflow occurs. However, since the sensor network system 1 includes the server 6 (always activated), the monitoring information 211 acquired by the sensor node 2 can be obtained from time to time even during a period when the user does not place the information processing terminal 7 on standby. Accept and accumulate.

また、サーバ6が、各家庭から送信される監視情報211を一元的に管理することにより、各家庭における監視情報211を比較分析あるいは統計学的に分析することもできる。したがって、個々の監視情報211に対する客観的で的確な状況判断が可能となり、それらをティーチング情報として監視情報211とともに情報処理端末7に送信することもできる。これによりユーザは、質のよいサービスの提供を受けることができるとともに、他人と競い合うという楽しみを得ることもでき、センサネットワークシステム1の利用が促進される。   Further, the server 6 can centrally manage the monitoring information 211 transmitted from each home, so that the monitoring information 211 in each home can be analyzed comparatively or statistically. Therefore, objective and accurate situation determination for each piece of monitoring information 211 can be performed, and these can be transmitted to the information processing terminal 7 together with the monitoring information 211 as teaching information. Accordingly, the user can receive provision of a high-quality service and can enjoy the pleasure of competing with others, and the use of the sensor network system 1 is promoted.

図3は、第1の実施の形態における情報処理端末7の構成を示すブロック図である。情報処理端末7は、各種データの演算を行うCPU70、プログラム710を記憶する記憶装置71、操作部72および表示部73を備えており、一般的なコンピュータとしての構成および機能を有している。また、情報処理端末7は、スピーカ74、撮像部75および通信部76を備えている。   FIG. 3 is a block diagram illustrating a configuration of the information processing terminal 7 according to the first embodiment. The information processing terminal 7 includes a CPU 70 that calculates various data, a storage device 71 that stores a program 710, an operation unit 72, and a display unit 73, and has a configuration and functions as a general computer. In addition, the information processing terminal 7 includes a speaker 74, an imaging unit 75, and a communication unit 76.

CPU70は、記憶装置71に記憶されているプログラム710に従って動作することにより、様々な情報処理を実行するとともに、情報処理端末7が備える各構成を制御する。なお、CPU70の動作については後述する。   The CPU 70 operates in accordance with the program 710 stored in the storage device 71, thereby executing various information processing and controlling each component included in the information processing terminal 7. The operation of the CPU 70 will be described later.

記憶装置71は、様々な情報を適宜記憶しておく装置である。例えば、記憶装置71は、プログラム710や演出元情報711、撮像部75によって取得された撮像情報712、操作部72により入力された指示情報714、通信部76により受信された監視情報211を記憶する。   The storage device 71 is a device that appropriately stores various information. For example, the storage device 71 stores the program 710, the rendering source information 711, the imaging information 712 acquired by the imaging unit 75, the instruction information 714 input by the operation unit 72, and the monitoring information 211 received by the communication unit 76. .

図3に示す演出元情報711とは、主に監視情報211を表現する媒体(以下、「表現媒体」と称する。)ごとに1つのレコードを構成する情報であって、当該レコードには、少なくとも表現媒体を識別するための識別子(以下、「表現媒体識別子」と称する。)が含まれている。表現媒体とは、主に動物や人物、擬人化された物体等のキャラクタが想定されるが、このような疑似生物に限定されるものではなく、例えば、操作ボタン等の物体が表現媒体であってもよいし、単なるメッセージであってもよい。演出元情報711についての詳細は後述する。   The production source information 711 shown in FIG. 3 is information that constitutes one record for each medium (hereinafter referred to as “expression medium”) that mainly expresses the monitoring information 211, and the record includes at least An identifier for identifying the expression medium (hereinafter referred to as “expression medium identifier”) is included. An expression medium is mainly assumed to be a character such as an animal, a person, or an anthropomorphic object, but is not limited to such an artificial creature. For example, an object such as an operation button is an expression medium. It may be a simple message. Details of the production source information 711 will be described later.

また、記憶装置71は、CPU70により作成される報知履歴情報713を保存する機能も有している。報知履歴情報713とは、表示部73およびスピーカ74によって、実際にユーザに向けて報知された情報であるが詳細は後述する。   The storage device 71 also has a function of storing the notification history information 713 created by the CPU 70. The notification history information 713 is information that is actually notified to the user by the display unit 73 and the speaker 74, but will be described in detail later.

図3において記憶装置71は1つのハードウェアとして図示しているが、実際の記憶装置71は、読み取り専用のROM(例えばブートROMなど)や、CPU70の一時的なワーキングエリアとして使用される比較的高速アクセス可能なRAM、あるいは、不揮発性の読み書き可能な比較的大容量のメモリ等、様々なハードウェアから構成されている。また、記憶装置71は、スロット等に装着されたメモリカードや記録カセット、CD−ROM等の可搬性の記録媒体が含まれてもよい。   In FIG. 3, the storage device 71 is illustrated as one piece of hardware, but the actual storage device 71 is a read-only ROM (for example, a boot ROM) or a relatively working area used as a temporary working area for the CPU 70. It is composed of various hardware such as a RAM that can be accessed at high speed, or a non-volatile readable / writable relatively large-capacity memory. The storage device 71 may include a portable recording medium such as a memory card, a recording cassette, or a CD-ROM mounted in a slot.

操作部72は、情報処理端末7に対して情報を入力するために、ユーザによって操作される。操作部72としては、各種ボタンやキー等が該当する。なお、第1の実施の形態における操作部72は、表示部73の画面に設けられた接触検出器(タッチパネル)を備えている。   The operation unit 72 is operated by the user in order to input information to the information processing terminal 7. The operation unit 72 corresponds to various buttons and keys. Note that the operation unit 72 in the first embodiment includes a contact detector (touch panel) provided on the screen of the display unit 73.

特に、操作部72は、センサノード2に対する制御情報(センシング間隔や検出感度、通信スケジュール等を決定するための情報)となる指示情報714を取得する機能を有している。これにより、ユーザは、情報処理端末7の操作部72を操作して、センサノード2を意図したとおりに動作させることが可能とされている。   In particular, the operation unit 72 has a function of acquiring instruction information 714 that is control information for the sensor node 2 (information for determining a sensing interval, detection sensitivity, communication schedule, and the like). Thereby, the user can operate the sensor node 2 as intended by operating the operation unit 72 of the information processing terminal 7.

表示部73は、撮像部75により取得される撮像情報712とともにCPU70により作成される報知情報717(図4参照)を画面に表示することにより、これらの情報をユーザに向けて出力する。表示部73は、画像を表示することが可能な表示装置(液晶パネル等)を備えているが、これ以外にも、ランプやLED等が表示部73として含まれていてもよい。   The display unit 73 displays notification information 717 (see FIG. 4) created by the CPU 70 together with the imaging information 712 acquired by the imaging unit 75, and outputs the information to the user. The display unit 73 includes a display device (liquid crystal panel or the like) that can display an image, but other than this, a lamp, an LED, or the like may be included as the display unit 73.

スピーカ74は、音声を再生する装置である。詳細は後述するが、スピーカ74は、報知情報717に含まれる音声情報を再生することにより、これらの情報をユーザに向けて出力する。   The speaker 74 is a device that reproduces sound. Although details will be described later, the speaker 74 reproduces the audio information included in the notification information 717, and outputs the information to the user.

撮像部75は、レンズや光学素子等から構成される一般的なデジタルカメラであり、現実世界を撮像して撮像情報712を取得する。詳細は後述するが、特に、撮像部75は、センサノード2の外面に貼付されたARマーカ24を撮像するために使用される。また、本実施の形態では、情報処理端末7が撮像部75および通信部76を備えていることにより、撮像部75は通信部76と一体的な構造物を構成している。   The imaging unit 75 is a general digital camera including lenses, optical elements, and the like, and acquires imaging information 712 by imaging the real world. Although details will be described later, in particular, the imaging unit 75 is used for imaging the AR marker 24 attached to the outer surface of the sensor node 2. In the present embodiment, since the information processing terminal 7 includes the imaging unit 75 and the communication unit 76, the imaging unit 75 forms an integral structure with the communication unit 76.

通信部76は、センサノード2との間で、直接的な無線通信を行う機能を有している。また、通信部76は、ルータ5との間で、無線通信を行う機能も有している。これにより、情報処理端末7は、ユーザにより入力された指示情報714をセンサノード2に向けて送信することが可能であるとともに、センサノード2またはサーバ6から監視情報211を受信することも可能である。   The communication unit 76 has a function of performing direct wireless communication with the sensor node 2. The communication unit 76 also has a function of performing wireless communication with the router 5. As a result, the information processing terminal 7 can transmit the instruction information 714 input by the user toward the sensor node 2 and can also receive the monitoring information 211 from the sensor node 2 or the server 6. is there.

また、通信部76が無線通信機能を有しているため、情報処理端末7は、携帯性のある装置として実現されており、ユーザは情報処理端末7を任意の場所に携帯して撮像部75による撮像を実行することができる。したがって、図示は省略しているが、情報処理端末7は、電池による駆動が可能なように構成されている。   In addition, since the communication unit 76 has a wireless communication function, the information processing terminal 7 is realized as a portable device, and the user carries the information processing terminal 7 in an arbitrary place and the imaging unit 75. The imaging by can be executed. Accordingly, although not shown, the information processing terminal 7 is configured to be driven by a battery.

図4は、第1の実施の形態における情報処理端末7が備える機能ブロックをデータの流れとともに示す図である。図4に示す特定部700、評価部701、作成部702および入出力制御部703は、CPU70がプログラム710に従って動作することにより実現される機能ブロックである。   FIG. 4 is a diagram illustrating functional blocks included in the information processing terminal 7 according to the first embodiment, together with a data flow. The specifying unit 700, the evaluation unit 701, the creation unit 702, and the input / output control unit 703 illustrated in FIG. 4 are functional blocks realized by the CPU 70 operating according to the program 710.

ここで、情報処理端末7が備える機能ブロックの説明を行う前に、演出元情報711と登録情報719について説明する。   Here, the production source information 711 and the registration information 719 will be described before the functional blocks included in the information processing terminal 7 are described.

図5は、演出元情報711の構造を例示する図である。演出元情報711は、先述のように、表現媒体識別子(すなわち、表現媒体)ごとに1つのレコードを構成している。   FIG. 5 is a diagram illustrating the structure of the effect source information 711. The effect source information 711 constitutes one record for each expression medium identifier (that is, expression medium) as described above.

演出元情報711の各レコードにおいて、表現媒体識別子と、当該表現媒体識別子によって特定される表現媒体による演出情報718とが関連づけられている。演出情報718とは、当該表現媒体による演出パターンを表現した情報であり、例えば、あるキャラクタにおいて、当該キャラクタが全力で疾走している画像やそのときの音声、台詞あるいはBGM等を表現した情報である。   In each record of the effect source information 711, the expression medium identifier and the effect information 718 by the expression medium specified by the expression medium identifier are associated with each other. The effect information 718 is information that expresses an effect pattern by the expression medium. For example, in a certain character, the image that the character is sprinting at full power, and information that expresses voice, dialogue, BGM, or the like at that time. is there.

演出元情報711において、1つの表現媒体識別子には、1以上の演出情報718が関連づけられている。図5に示す例では、CHR0001という表現媒体識別子に対して、event1〜event(n)の演出情報718が関連づけられている。すなわち、図5では、CHR0001という表現媒体識別子によって特定される表現媒体について、event1〜event(n)(すなわちn通り)の演出が用意されていることを示している。   In the effect source information 711, one expression medium identifier is associated with one or more effect information 718. In the example shown in FIG. 5, event1 to event (n) effect information 718 is associated with the expression medium identifier CHR0001. That is, FIG. 5 shows that the effects of event1 to event (n) (that is, n ways) are prepared for the expression medium specified by the expression medium identifier of CHR0001.

さらに、各演出情報718には、それぞれの演出情報718が選択される際の条件(以下、「演出選択条件」と称する。)が設定されており、これらの演出選択条件も、演出元情報711において各演出情報718と関連づけて格納されている。図5に示す例では、event1が選択される条件として、「0≦vol<5」という演出選択条件が関連づけられている。ここで、「vol」とは、監視情報211の値であり、第1の実施の形態においては、電化製品の消費電力量である。   Furthermore, each production information 718 is set with conditions for selecting each production information 718 (hereinafter referred to as “production selection conditions”), and these production selection conditions are also included in the production source information 711. Are stored in association with each piece of effect information 718. In the example illustrated in FIG. 5, an effect selection condition “0 ≦ vol <5” is associated as a condition for selecting event1. Here, “vol” is the value of the monitoring information 211, and in the first embodiment, is the amount of power consumption of the electrical appliance.

すなわち、詳細は後述するが、1つの表現主体識別子に関連づけられた1以上の演出情報718は、演出選択条件が決定されれば、それに対応する1つの演出情報718を特定することができるようにされている。そして、監視情報211に応じて演出選択条件が設定されていることにより、センサネットワークシステム1においては、監視情報211(センサノード2において取得された情報であり、現実世界の状況に応じて動的に変化する。)に応じて、演出情報718を選択することができる。   That is, although details will be described later, one or more pieces of production information 718 associated with one expression subject identifier can specify one piece of production information 718 corresponding to the production selection condition if the production selection condition is determined. Has been. Since the production selection conditions are set according to the monitoring information 211, in the sensor network system 1, the monitoring information 211 (information acquired at the sensor node 2 and dynamically depending on the situation in the real world). Production information 718 can be selected.

図5では、演出選択条件として、監視情報211に関わる部分のみ示しているが、実際には、さらに多くの演出選択条件が設定されている。例えば、後述する特定情報715に含まれるARマーカ24の大きさ、向き等に関する情報や距離情報716の値などが演出選択条件に設定されており、これらの違いによって選択される演出情報718が変化するように設定されている。したがって、例えば、監視情報211の値が同じであっても、ARマーカ24の向きが異なれば、表現媒体(キャラクタ)の向きが異なる画像となるように演出情報718が選択される。   In FIG. 5, only the portion related to the monitoring information 211 is shown as the effect selection condition, but actually, more effect selection conditions are set. For example, information related to the size and orientation of the AR marker 24 included in the specific information 715 described later, the value of the distance information 716, and the like are set as the effect selection conditions, and the effect information 718 selected by these differences changes. It is set to be. Therefore, for example, even if the value of the monitoring information 211 is the same, if the direction of the AR marker 24 is different, the effect information 718 is selected so that the direction of the expression medium (character) is different.

なお、1つの表現媒体識別子に関連づけられる演出情報718の数は、各表現媒体識別子ごとに異なっていてもよい。また、各表現媒体識別子ごとに、演出選択条件が異なっていてもよい。   Note that the number of effect information 718 associated with one expression medium identifier may be different for each expression medium identifier. Further, the production selection conditions may be different for each expression medium identifier.

図6は、登録情報719の構造を例示する図である。詳細は後述するが、本実施の形態における登録情報719は、図4に示す作成部702により作成され更新がされる。   FIG. 6 is a diagram illustrating the structure of registration information 719. Although details will be described later, the registration information 719 in this embodiment is created and updated by the creation unit 702 shown in FIG.

登録情報719は、図6に示すように、表現媒体識別子ごとに1つのレコードが作成される。ここに格納される表現媒体識別子は、演出元情報711に格納されている表現媒体識別子である。言い換えれば、演出元情報711が格納されている情報処理端末7が、当該演出元情報711によって使用することができる表現媒体の一覧である。   As shown in FIG. 6, in the registration information 719, one record is created for each expression medium identifier. The expression medium identifier stored here is an expression medium identifier stored in the effect source information 711. In other words, the information processing terminal 7 in which the production source information 711 is stored is a list of expression media that can be used by the production source information 711.

そして、登録情報719の各レコードにおいて、表現媒体識別子とセンサ識別子とマーカ識別子とが互いに関連づけられる。図6に示す例では、表現媒体識別子「CHR0001」が格納されているレコードには、センサ識別子「SEN0001」と、マーカ識別子「MRK0001」とが格納されており、これらが互いに関連づけられていることを示している。これは、センサ識別子「SEN0001」で示されるセンサノード2には、マーカ識別子「MRK0001」で示されるARマーカ24が貼付されて(対応して)おり、当該センサノード2により取得される監視情報211は表現媒体識別子「CHR0001」で示される表現媒体によって表現されることを意味する。   Then, in each record of the registration information 719, the expression medium identifier, the sensor identifier, and the marker identifier are associated with each other. In the example shown in FIG. 6, the sensor identifier “SEN0001” and the marker identifier “MRK0001” are stored in the record in which the expression medium identifier “CHR0001” is stored, and these are associated with each other. Show. This is because the AR marker 24 indicated by the marker identifier “MRK0001” is attached to (corresponding to) the sensor node 2 indicated by the sensor identifier “SEN0001”, and the monitoring information 211 acquired by the sensor node 2 Means to be expressed by the expression medium indicated by the expression medium identifier “CHR0001”.

なお、登録情報719に格納されていないセンサ識別子で示されるセンサノード2は、未だ、センサネットワークシステム1に登録されていないことを意味する。また、図6において「−」は、その項目には関連づけがされていないことを示す。すなわち、図6に示す例では、表現媒体識別子「CHR0002」には、対応するセンサノード2が未だ割り当てられておらず、いわば未使用の表現媒体識別子であることを示す。また、「other」は、登録情報719に登録されていない識別子(センサ識別子またはマーカ識別子)については、表現媒体識別子「CHR(X)」で示される表現媒体が関連づけられることを意味するが詳細は後述する。   Note that the sensor node 2 indicated by the sensor identifier not stored in the registration information 719 means that it has not been registered in the sensor network system 1 yet. In FIG. 6, “-” indicates that the item is not associated. That is, in the example shown in FIG. 6, the corresponding sensor node 2 is not yet assigned to the expression medium identifier “CHR0002”, which is an unused expression medium identifier. “Other” means that an identifier not registered in the registration information 719 (sensor identifier or marker identifier) is associated with the expression medium indicated by the expression medium identifier “CHR (X)”. It will be described later.

図4に戻って、特定部700は、撮像部75により取得された撮像情報712を画像解析することにより複数のセンサノード2の中から報知対象となるセンサノード2を特定する。言い換えれば、センサネットワークシステム1は、特定部700により、報知対象となるセンサノード2が特定されたときには、ユーザに対して、当該センサノード2により取得された監視情報211に基づく報知を行う。   Returning to FIG. 4, the identifying unit 700 identifies the sensor node 2 to be notified from the plurality of sensor nodes 2 by performing image analysis on the imaging information 712 acquired by the imaging unit 75. In other words, the sensor network system 1 notifies the user based on the monitoring information 211 acquired by the sensor node 2 when the specifying unit 700 specifies the sensor node 2 to be notified.

報知対象となるセンサノード2を特定するための具体手法としては、特定部700が画像解析により撮像情報712からARマーカ24の画像を抽出する。撮像情報712からARマーカ24が抽出された場合には、特定部700は、当該ARマーカ24の画像からマーカ識別子を読み取る。そして、登録情報719を参照し、読み取ったマーカ識別子に関連づけられているセンサ識別子が存在する場合には、当該センサ識別子を取得して、読み取ったマーカ識別子とともに特定情報715におけるレコードを作成する。すなわち、特定情報715におけるレコードにセンサ識別子が格納されていれば、当該格納されているセンサ識別子により、報知対象となるセンサノード2が特定されていることを意味する。一方、読み取ったマーカ識別子に関連づけられているセンサ識別子が登録情報719において存在しない場合、特定部700は、読み取ったマーカ識別子により特定情報715におけるレコードを作成する。   As a specific method for specifying the sensor node 2 to be notified, the specifying unit 700 extracts the image of the AR marker 24 from the imaging information 712 by image analysis. When the AR marker 24 is extracted from the imaging information 712, the specifying unit 700 reads the marker identifier from the image of the AR marker 24. Then, with reference to the registration information 719, if there is a sensor identifier associated with the read marker identifier, the sensor identifier is acquired, and a record in the specific information 715 is created together with the read marker identifier. That is, if a sensor identifier is stored in the record in the specifying information 715, it means that the sensor node 2 to be notified is specified by the stored sensor identifier. On the other hand, when the sensor identifier associated with the read marker identifier does not exist in the registration information 719, the specifying unit 700 creates a record in the specific information 715 with the read marker identifier.

また、第1の実施の形態における特定部700は、ARマーカ24が抽出された撮像情報712に基づいて、当該撮像情報712に撮像されているARマーカ24の状態を画像解析により判定する機能も有している。これにより、ARマーカ24の撮像情報712における画像内の位置や大きさ(例えば画素数)、向き等を認識し、これらの情報をマーカ識別子に関連づけて特定情報715に含める。   The identifying unit 700 according to the first embodiment also has a function of determining the state of the AR marker 24 imaged in the imaging information 712 based on the imaging information 712 from which the AR marker 24 is extracted by image analysis. Have. Accordingly, the position, size (for example, the number of pixels), orientation, and the like in the image information 712 of the AR marker 24 are recognized, and these pieces of information are associated with the marker identifier and included in the specific information 715.

また、特定部700は、取得したARマーカ24の大きさと撮像部75の撮像範囲とに基づいて、ARマーカ24(センサノード2)と撮像部75(情報処理端末7)との距離を推定し、当該距離に関する情報をマーカ識別子に関連づけて特定情報715に含める。以下の説明では、特定部700によって推定されたセンサノード2と情報処理端末7との間の距離を「第1推定距離」と称する。   Further, the specifying unit 700 estimates the distance between the AR marker 24 (sensor node 2) and the imaging unit 75 (information processing terminal 7) based on the acquired size of the AR marker 24 and the imaging range of the imaging unit 75. The information related to the distance is included in the specific information 715 in association with the marker identifier. In the following description, the distance between the sensor node 2 and the information processing terminal 7 estimated by the specifying unit 700 is referred to as “first estimated distance”.

なお、撮像情報712に撮像されているARマーカ24に基づいてどのような情報を取得するかは、ここに示したものに限定されるものではなく、また、これらを全て取得しなければならないわけでもない(ただし、先述のようにマーカ識別子を読み取ることは必要。)。撮像されたARマーカ24からどのような情報をどのような手法により読み取るかは、従来のAR技術に提案されている技術を適宜適用することができる。   Note that what information is acquired based on the AR marker 24 imaged in the imaging information 712 is not limited to the information shown here, and all of the information must be acquired. However (but it is necessary to read the marker identifier as described above). The technique proposed for the conventional AR technique can be applied as appropriate to determine what information is read from the captured AR marker 24 by what technique.

さらに、特定部700は、撮像情報712から画像が抽出されなくなったARマーカ24のマーカ識別子を特定し、当該マーカ識別子によって特定されるレコードを特定情報715から削除する機能も有している。このように、特定部700によって定期的に更新されることにより、特定情報715は、撮像情報712に撮像されている状態のARマーカ24に関する情報となる。   Further, the specifying unit 700 has a function of specifying the marker identifier of the AR marker 24 for which no image is extracted from the imaging information 712 and deleting the record specified by the marker identifier from the specifying information 715. As described above, the specific information 715 is periodically updated by the specifying unit 700, and the specific information 715 becomes information regarding the AR marker 24 in a state of being imaged in the imaging information 712.

図7は、特定情報715の構造を例示する図である。図7に示す例では、撮像情報712において、マーカ識別子「MRK0001」で示されるARマーカ24と、マーカ識別子「MRK0002」で示されるARマーカ24とが抽出されたことを示している。すなわち、これらのARマーカ24が撮像情報712に撮像されていることがわかる。   FIG. 7 is a diagram illustrating the structure of the specific information 715. In the example illustrated in FIG. 7, the imaging information 712 indicates that the AR marker 24 indicated by the marker identifier “MRK0001” and the AR marker 24 indicated by the marker identifier “MRK0002” have been extracted. That is, it can be seen that these AR markers 24 are imaged in the imaging information 712.

また、マーカ識別子「MRK0001」で示されるARマーカ24は、センサ識別子「SEN0001」で示されるセンサノード2に対応したARマーカであることが分かる。さらに、マーカ識別子「MRK0002」で示されるARマーカ24は、未だ登録されていない未知のセンサノード2のARマーカであることも分かる。   Further, it can be seen that the AR marker 24 indicated by the marker identifier “MRK0001” is an AR marker corresponding to the sensor node 2 indicated by the sensor identifier “SEN0001”. Further, it can be seen that the AR marker 24 indicated by the marker identifier “MRK0002” is an AR marker of an unknown sensor node 2 that has not been registered yet.

評価部701は、通信部76における無線通信の状態を評価する。より詳細には、通信部76が直接的な無線通信を介してセンサノード2から受信した情報(図4においてはセンサノード2から受信した監視情報211を例に示す。)について、そのときの無線通信における受信信号強度(RSSI:Received Signal Strength Indicator)を評価し、当該受信信号強度に応じて情報処理端末7(撮像部75および通信部76)とセンサノード2との距離を推定する。評価部701は、センサノード2から受信した情報に含まれているセンサ識別子と、当該受信した情報における受信信号強度に応じて推定した距離とを関連づけて距離情報716を作成する。以下の説明では、評価部701によって推定されたセンサノード2と情報処理端末7との間の距離を「第2推定距離」と称する。   The evaluation unit 701 evaluates the state of wireless communication in the communication unit 76. More specifically, regarding the information received from the sensor node 2 by the communication unit 76 via direct wireless communication (in FIG. 4, the monitoring information 211 received from the sensor node 2 is shown as an example), the wireless at that time A received signal strength indicator (RSSI) in communication is evaluated, and a distance between the information processing terminal 7 (the imaging unit 75 and the communication unit 76) and the sensor node 2 is estimated according to the received signal strength. The evaluation unit 701 creates the distance information 716 by associating the sensor identifier included in the information received from the sensor node 2 with the distance estimated according to the received signal strength in the received information. In the following description, the distance between the sensor node 2 and the information processing terminal 7 estimated by the evaluation unit 701 is referred to as “second estimated distance”.

また、評価部701は、直接的な無線通信がとぎれたセンサノード2(例えば、所定の期間、応答のないセンサノード2)のセンサ識別子と、当該センサ識別子に関連づけられている第2推定距離とを距離情報716から削除する機能も有している。このように、評価部701によって定期的に更新されることにより、距離情報716は、情報処理端末7との間で、直接的な無線通信が確立されている状態のセンサノード2を示すセンサ識別子と、当該センサノード2における第2推定距離とを示す情報となる。   In addition, the evaluation unit 701 includes the sensor identifier of the sensor node 2 (for example, the sensor node 2 that has not responded for a predetermined period) with which direct wireless communication is interrupted, and the second estimated distance associated with the sensor identifier. Is also deleted from the distance information 716. As described above, the distance information 716 is periodically updated by the evaluation unit 701, so that the distance information 716 indicates a sensor identifier indicating the sensor node 2 in a state in which direct wireless communication is established with the information processing terminal 7. And the second estimated distance in the sensor node 2.

作成部702は、図4において図示を省略しているが、演出元情報711における表現媒体識別子と、センサ識別子と、マーカ識別子とを互いに関連づけ、図3に示す登録情報719を作成する機能を有している。なお、登録情報719については、後述する。   Although not shown in FIG. 4, the creating unit 702 has a function of creating the registration information 719 shown in FIG. 3 by associating the expression medium identifier, the sensor identifier, and the marker identifier in the effect source information 711 with each other. doing. The registration information 719 will be described later.

作成部702は、特定部700により特定された報知対象となるセンサノード2に対応した報知情報717を作成する。より詳細には、作成部702は、特定情報715を参照して、センサ識別子を取得し、当該センサ識別子を通信部76に伝達して、当該センサ識別子によって識別されるセンサノード2(報知対象となるセンサノード2)により取得された監視情報211を送信するように通信部76に要求させる。   The creation unit 702 creates notification information 717 corresponding to the sensor node 2 to be notified specified by the specifying unit 700. More specifically, the creation unit 702 refers to the specific information 715, acquires the sensor identifier, transmits the sensor identifier to the communication unit 76, and detects the sensor node 2 (notification target and notification target) identified by the sensor identifier. The communication unit 76 is requested to transmit the monitoring information 211 acquired by the sensor node 2).

通信部76が監視情報211を受信すると、特定情報715から取得したセンサ識別子により登録情報719を参照し、当該センサ識別子に関連づけられている表現媒体識別子を取得する。そして、演出元情報711を参照し、取得した表現媒体識別子に関連づけられている演出情報718の中から、受信した監視情報211に応じて(当該監視情報211を演出選択条件の1つとして設定して)、演出情報718を選択し、選択した演出情報718を含む報知情報717を作成する。作成部702がこのようにして報知情報717を作成することにより、報知情報717は、対応するセンサノード2により取得された監視情報211に応じた演出情報718を含む情報として作成される。   When the communication unit 76 receives the monitoring information 211, the registration information 719 is referred to by the sensor identifier acquired from the specific information 715, and the expression medium identifier associated with the sensor identifier is acquired. Then, referring to the production source information 711, the production information 718 associated with the acquired expression medium identifier is set according to the received monitoring information 211 (the monitoring information 211 is set as one of the production selection conditions. The production information 718 is selected, and the notification information 717 including the selected production information 718 is created. When the creation unit 702 creates the notification information 717 in this way, the notification information 717 is created as information including the effect information 718 corresponding to the monitoring information 211 acquired by the corresponding sensor node 2.

なお、報知情報717は、センサネットワークシステム1がユーザに向けて報知すべきと判定した情報である。したがって、監視情報211によらない情報(例えば、単に定期的に表示するメッセージ)や、演出元情報711から選択された演出情報718以外の情報(例えば、サーバ6からのティーチング情報)、あるいは、監視情報211自体やその一部等を含んでいてもよい。   The notification information 717 is information that the sensor network system 1 determines to notify the user. Accordingly, information that is not based on the monitoring information 211 (for example, a message that is simply displayed periodically), information other than the production information 718 selected from the production source information 711 (for example, teaching information from the server 6), or monitoring. The information 211 itself or a part thereof may be included.

また、作成部702は、演出元情報711から演出情報718を選択する際の演出選択条件として、特定情報715に含まれるマーカ識別子以外の情報や、距離情報716等の情報を設定する。したがって、これらの情報によっても、選択される演出情報718が変化するため、よりバラエティーに富んだ表現(情報提供)が可能となる。   In addition, the creation unit 702 sets information other than the marker identifier included in the specific information 715, information such as the distance information 716, and the like as an effect selection condition when selecting the effect information 718 from the effect source information 711. Therefore, since the selected presentation information 718 also changes depending on these pieces of information, a more varied expression (information provision) becomes possible.

入出力制御部703は、表示部73を制御して表示部73に様々な情報を視覚情報として表示させるとともに、スピーカ74を制御してスピーカ74に様々な情報を音声として再生させる。また、入出力制御部703は、ユーザにより操作部72に対する操作がされた場合に、当該操作に応じて指示情報714を作成する。すなわち、入出力制御部703は、情報処理端末7において、一種のGUIを提供する機能をも有している。   The input / output control unit 703 controls the display unit 73 to display various information on the display unit 73 as visual information, and controls the speaker 74 to cause the speaker 74 to reproduce various information as sound. In addition, when the user performs an operation on the operation unit 72, the input / output control unit 703 creates instruction information 714 according to the operation. That is, the input / output control unit 703 also has a function of providing a kind of GUI in the information processing terminal 7.

特に、入出力制御部703は、撮像部75により取得された撮像情報712とともに作成部702により作成された報知情報717を、表示部73およびスピーカ74に出力させる。より詳細には、入出力制御部703は、報知情報717に含まれる画像に関する情報を撮像情報712にオーバーレイ(画像合成)させて表示部73の画面に表示させる。一方、入出力制御部703は、報知情報717に含まれる音声に関する情報をスピーカ74に再生させる。   In particular, the input / output control unit 703 causes the display unit 73 and the speaker 74 to output the notification information 717 created by the creation unit 702 together with the imaging information 712 acquired by the imaging unit 75. More specifically, the input / output control unit 703 displays information on the image included in the notification information 717 on the screen of the display unit 73 by overlaying (image composition) on the imaging information 712. On the other hand, the input / output control unit 703 causes the speaker 74 to reproduce information related to audio included in the notification information 717.

また、入出力制御部703は、入力された指示情報714によっては、当該指示情報714を作成部702に伝達する。これにより、作成部702は、ユーザの操作に応じて、報知情報717を更新する。例えば、報知情報717として、一旦、特定の演出のキャラクタを表示した後、ユーザが当該キャラクタの画像に触れる(タッチパネル操作に相当する)と、当該キャラクタが監視情報211について説明するような演出(あらたな演出情報718)の報知情報717を作成する。   Further, the input / output control unit 703 transmits the instruction information 714 to the creating unit 702 depending on the input instruction information 714. Thereby, the creation unit 702 updates the notification information 717 according to the user's operation. For example, as the notification information 717, after a character with a specific effect is displayed once, when the user touches the image of the character (corresponding to a touch panel operation), the character explains the monitoring information 211 (new) Notification information 717 of the production information 718).

また、入出力制御部703は、表示部73およびスピーカ74に出力された情報を報知履歴情報713として記憶装置71に保存するとともに、保存された報知履歴情報713を表示部73やスピーカ74に再生させる機能も有している。報知履歴情報713としては、主に報知情報717が想定されるが、好ましくは当該報知情報717とともに出力された撮像情報712を含む。すなわち、入出力制御部703は、報知情報717を報知履歴情報713としてアーカイブする機能を有している。   Further, the input / output control unit 703 saves the information output to the display unit 73 and the speaker 74 in the storage device 71 as the notification history information 713 and reproduces the stored notification history information 713 on the display unit 73 and the speaker 74. It also has a function to make it. As the notification history information 713, notification information 717 is mainly assumed, but preferably includes imaging information 712 output together with the notification information 717. That is, the input / output control unit 703 has a function of archiving the notification information 717 as the notification history information 713.

これにより、ユーザは、例えば、出現した演出(レアな演出など)を保存しておくことができ、他のユーザに見せて自慢したり、他のアプリケーションと連携させて利用したり、あるいは、サーバ6を介して特典を得たりすることができる。すなわち、ユーザに様々なバリエーションの楽しみ方を提供できる。なお、報知履歴情報713に含まれる報知情報717は、実際に出力された報知情報717の一部のみ(例えば演出情報718のみ)であってもよい。また、このような選択は、操作部72から入力される指示情報714に応じて決定されてもよい。   As a result, the user can, for example, save the appearing effects (rare effects, etc.), show them to other users, be proud of, use in cooperation with other applications, or use a server Benefits can be obtained through 6. That is, it is possible to provide the user with various ways of enjoying. Note that the notification information 717 included in the notification history information 713 may be only a part of the notification information 717 actually output (for example, only the effect information 718). Such selection may be determined according to instruction information 714 input from the operation unit 72.

以上が、第1の実施の形態におけるセンサネットワークシステム1の構成および機能の説明である。   The above is description of the structure and function of the sensor network system 1 in 1st Embodiment.

次に、センサネットワークシステム1を用いて、監視情報211を提供する方法について説明する。   Next, a method for providing the monitoring information 211 using the sensor network system 1 will be described.

図8は、第1の実施の形態における情報提供方法を示す流れ図である。図8は、主に、情報処理端末7の処理を示している。なお、図8に示す処理が開始されるまでに、情報処理端末7は電源が投入されており、ルータ5との間の通信が確保されているものとする。また、以下の説明では説明を省略するが、センサネットワークシステム1では、センサノード2における監視情報211の取得、および、センサノード2からサーバ6への監視情報211の送信は、所定のスケジュールに従って実行されているものとする。   FIG. 8 is a flowchart showing an information providing method according to the first embodiment. FIG. 8 mainly shows the processing of the information processing terminal 7. It is assumed that the information processing terminal 7 is powered on and communication with the router 5 is ensured by the time the processing shown in FIG. 8 is started. Although not described in the following description, in the sensor network system 1, the acquisition of the monitoring information 211 in the sensor node 2 and the transmission of the monitoring information 211 from the sensor node 2 to the server 6 are executed according to a predetermined schedule. It is assumed that

図8に示す処理が開始されると、情報処理端末7は、消費電力量を確認するためのアプリケーションが起動されたか(ステップS1)、および、ユーザにより全ての処理を終了するように指示がされたか(ステップS4)を監視する状態となる。   When the processing shown in FIG. 8 is started, the information processing terminal 7 is instructed to start an application for confirming the power consumption (step S1) and to end all processing by the user. (Step S4) is monitored.

この状態において、消費電力量を確認するためのアプリケーションが起動されると、CPU70は、ステップS1においてYesと判定し、情報提供処理を実行する(ステップS2)。なお、当該アプリケーションが起動される契機として想定されるものとしては、例えば、ユーザによる起動指示、サーバ6からの警報受信(監視情報211による異常検出等)、センサノード2からの登録要求受信、当該アプリケーションを格納した記憶媒体の情報処理端末7への装着、情報処理端末7の電源投入などがある。   In this state, when an application for confirming the power consumption is started, the CPU 70 determines Yes in step S1, and executes information provision processing (step S2). Note that the triggers for starting the application include, for example, an activation instruction by the user, an alarm reception from the server 6 (abnormality detection by the monitoring information 211, etc.), a registration request reception from the sensor node 2, For example, the storage medium storing the application is attached to the information processing terminal 7 and the information processing terminal 7 is turned on.

図8に示すように、ステップS2の情報提供処理は、一旦、アプリケーションが起動されると、当該アプリケーションの終了が指示されるまで(ステップS3においてYesと判定されるまで)継続される。また、当該アプリケーションが起動されている状況において、全ての処理を終了するように指示がされた場合は、情報処理端末7は、まず、ステップS3においてYesと判定し、アプリケーションを終了した後、ステップS4においてYesと判定し、全ての処理を終了するものとする。   As shown in FIG. 8, once the application is started, the information providing process in step S2 is continued until the end of the application is instructed (Yes in step S3). In the situation where the application is activated, if an instruction is given to end all processing, the information processing terminal 7 first determines Yes in step S3, ends the application, It is determined as Yes in S4, and all the processes are finished.

図9は、ステップS2における情報提供処理を示す流れ図である。情報提供処理とは、特定情報作成処理(ステップS11)、距離情報作成処理(ステップS12)、第1出力処理(ステップS13)、第2出力処理(ステップS14)、および、指示受付処理(ステップS15)が、それぞれ並列処理される処理である。   FIG. 9 is a flowchart showing the information providing process in step S2. The information provision processing includes specific information creation processing (step S11), distance information creation processing (step S12), first output processing (step S13), second output processing (step S14), and instruction reception processing (step S15). ) Are processes that are processed in parallel.

先述のように、情報提供処理は、アプリケーションの終了が指示されるまで継続される処理である。したがって、ステップS11ないしS15における処理は、情報提供処理が継続される間、随時、実行される処理である。   As described above, the information providing process is a process that continues until an application termination instruction is given. Therefore, the processes in steps S11 to S15 are processes that are executed as needed while the information providing process is continued.

図10は、特定情報作成処理を示す流れ図である。特定情報作成処理では、まず、撮像部75によって撮像情報712が取得される(ステップS110)。次に、特定部700によって、ステップS110において取得された撮像情報712に対する画像解析が実行される(ステップS111)。   FIG. 10 is a flowchart showing specific information creation processing. In the specific information creation process, first, imaging information 712 is acquired by the imaging unit 75 (step S110). Next, the identifying unit 700 performs image analysis on the imaging information 712 acquired in step S110 (step S111).

ステップS111では、撮像情報712からARマーカ24の画像を抽出する処理が行われ、ARマーカ24の画像が抽出された場合には、当該抽出されたARマーカの画像から、さらに、マーカ識別子、ARマーカ24の大きさ、向き、第1推定距離、位置等の情報が取得される。ステップS111では、複数のARマーカ24について画像が抽出された場合は、それぞれについてマーカ識別子、ARマーカ24の大きさ、向き、第1推定距離、位置等の情報の取得がされる。   In step S111, the process of extracting the image of the AR marker 24 from the imaging information 712 is performed. When the image of the AR marker 24 is extracted, the marker identifier, AR is further extracted from the extracted AR marker image. Information such as the size, orientation, first estimated distance, and position of the marker 24 is acquired. In step S111, when images are extracted for a plurality of AR markers 24, information such as a marker identifier, the size, orientation, first estimated distance, and position of the AR marker 24 is acquired for each.

ステップS111の画像解析が終了すると、特定部700は、1つでもARマーカ24の画像が抽出されたか否かを判定する(ステップS112)。   When the image analysis in step S111 ends, the identifying unit 700 determines whether or not at least one image of the AR marker 24 has been extracted (step S112).

ARマーカ24の画像がまったく抽出されなかった場合、特定部700はステップS112においてNoと判定し、ステップS113ないしS118の処理をスキップし、特定情報715においてステップS117が実行されなかったレコード(この場合は全レコード)を特定情報715から削除する(ステップS119)。すなわち、撮像情報712に、ARマーカ24がまったく撮像されていない場合には、ステップS112においてNoと判定され、特定情報715の全レコードが削除される。   When the image of the AR marker 24 is not extracted at all, the specifying unit 700 determines No in step S112, skips the processing of steps S113 to S118, and does not execute step S117 in the specifying information 715 (in this case) Are deleted from the specific information 715 (step S119). That is, when the AR marker 24 is not imaged at all in the imaging information 712, it is determined No in step S112, and all records of the specific information 715 are deleted.

ステップS111においてARマーカ24の画像が少なくとも1つ抽出された場合、特定部700はステップS112においてYesと判定し、抽出されたいずれかのARマーカ24の画像から認識されたマーカ識別子を取得する(ステップS113)。次に、特定部700は、特定情報715を参照し、ステップS113で取得したマーカ識別子が格納されているレコードが存在するか否かを判定する(ステップS114)。   When at least one image of the AR marker 24 is extracted in step S111, the specifying unit 700 determines Yes in step S112, and acquires a marker identifier recognized from any of the extracted images of the AR marker 24 ( Step S113). Next, the specifying unit 700 refers to the specifying information 715 and determines whether or not there is a record storing the marker identifier acquired in Step S113 (Step S114).

該当するレコードが存在する場合は、当該レコードを特定し(ステップS115)、当該レコードに、ステップS113で取得されたマーカ識別子とともに、ステップS111における画像解析において取得されたARマーカ24の大きさ、向き、第1推定距離、位置等の情報が上書きで格納される(ステップS117)。   When the corresponding record exists, the record is specified (step S115), and the size and direction of the AR marker 24 acquired in the image analysis in step S111 are included in the record together with the marker identifier acquired in step S113. The information such as the first estimated distance and the position is overwritten and stored (step S117).

一方、ステップS114において該当するレコードが存在しない場合、特定部700は、特定情報715の新たなレコードを作成し、当該レコードに、ステップS113で取得されたマーカ識別子とともに、ステップS111における画像解析において取得されたARマーカ24の大きさ、向き、第1推定距離、位置等の情報を格納する(ステップS117)。   On the other hand, if there is no corresponding record in step S114, the specifying unit 700 creates a new record of the specific information 715 and acquires it in the image analysis in step S111 together with the marker identifier acquired in step S113. Information such as the size, direction, first estimated distance, and position of the AR marker 24 is stored (step S117).

特定部700は、ステップS111における画像解析において抽出された全てのARマーカについてステップS113ないしステップS117の処理が終了したか否かを判定する(ステップS118)。   The identifying unit 700 determines whether or not the processing from step S113 to step S117 has been completed for all AR markers extracted in the image analysis in step S111 (step S118).

ステップS118において、全てのARマーカ24についての処理が未だ終了していない場合は、それらのARマーカ24についてステップS113からの処理を繰り返す。一方、全てのARマーカ24についての処理が終了している場合は、特定情報715のレコードのうち、今回の特定情報作成処理においてステップS117が実行されなかったレコードを特定情報715から削除する(ステップS119)。   If the processes for all the AR markers 24 have not been completed in step S118, the processes from step S113 are repeated for those AR markers 24. On the other hand, when the processes for all AR markers 24 have been completed, the record for which step S117 has not been executed in the current specific information creation process is deleted from the specific information 715 among the records of the specific information 715 (step S115). S119).

特定情報715のレコードについて、ステップS117が実行されなかったレコードとは、直前までの撮像情報712には撮像されていたが、今回の特定情報作成処理においては、撮像情報712に撮像されなくなったARマーカ24に関するレコードである。したがって、ステップS119において、このようなレコードを削除することにより、特定情報715には、最新の撮像情報712に撮像されているARマーカ24に関するレコードのみ存在する状態となる。   Regarding the record of the specific information 715, the record in which step S117 has not been executed is captured in the imaging information 712 until immediately before, but in the current specific information creation process, the AR that is no longer captured in the imaging information 712 It is a record related to the marker 24. Therefore, by deleting such a record in step S119, the specific information 715 is in a state in which only the record related to the AR marker 24 imaged in the latest imaging information 712 exists.

ステップS119を実行すると、特定部700は特定情報作成処理を一旦終了して、図9に示す処理に戻る。   When step S119 is executed, the specifying unit 700 once ends the specific information creation process and returns to the process shown in FIG.

図11は、距離情報作成処理を示す流れ図である。距離情報作成処理では、まず、情報処理端末7とセンサノード2との間の直接的な無線通信についてリンクが張られているか否かの確認がされる(ステップS121)。言い換えれば、情報処理端末7との直接的な無線通信が可能なセンサノード2がステップS121において検出される。   FIG. 11 is a flowchart showing the distance information creation process. In the distance information creation process, first, it is confirmed whether or not a link is established for direct wireless communication between the information processing terminal 7 and the sensor node 2 (step S121). In other words, the sensor node 2 capable of direct wireless communication with the information processing terminal 7 is detected in step S121.

ステップS121における処理は、無線通信のネゴシエーションに関する従来の技術を適用できるが、例えば、情報処理端末7から周囲のセンサノード2に対して応答要求を送信し、これに応答したセンサノード2を検出するという方法が考えられる。   For the processing in step S121, a conventional technique related to wireless communication negotiation can be applied. For example, a response request is transmitted from the information processing terminal 7 to the surrounding sensor nodes 2, and the sensor node 2 responding thereto is detected. The method can be considered.

次に、評価部701が、通信部76が直接的な無線通信によりセンサノード2から受信した情報が存在していることを確認することにより、少なくとも1つのセンサノード2との間で、リンクが確認できたか否かを判定する(ステップS121)。   Next, the evaluation unit 701 confirms that the information received from the sensor node 2 by the communication unit 76 through direct wireless communication is present, so that a link is established with at least one sensor node 2. It is determined whether or not it has been confirmed (step S121).

直接的な無線通信が可能なセンサノード2が1つも存在しないときは、評価部701は、ステップS121においてNoと判定し、距離情報716のレコードのうち、ステップS127が実行されなかったレコード(この場合は全レコード)を距離情報716から削除する(ステップS129)。すなわち、直接的な無線通信が可能なセンサノード2が周囲に存在しないとき、ステップS121においてNoと判定され、距離情報716の全レコードが削除される。   When there is no sensor node 2 capable of direct wireless communication, the evaluation unit 701 determines No in step S121, and among the records of distance information 716, the record in which step S127 has not been executed (this In this case, all records) are deleted from the distance information 716 (step S129). That is, when the sensor node 2 capable of direct wireless communication does not exist in the vicinity, it is determined No in step S121, and all records of the distance information 716 are deleted.

ステップS120において、少なくとも1つのセンサノード2との間にリンクが確認でた場合、評価部701は、ステップS121においてYesと判定し、確認されたいずれかのセンサノード2から受信した情報からセンサ識別子を取得する(ステップS122)。   In step S120, when the link is confirmed with at least one sensor node 2, the evaluation unit 701 determines Yes in step S121, and determines the sensor identifier from the information received from any of the confirmed sensor nodes 2. Is acquired (step S122).

次に、評価部701は、ステップS122においてセンサ識別子を取得した情報の受信信号強度に基づいて、当該情報を送信したセンサノード2(すなわちステップS122において取得したセンサ識別子で示されるセンサノード2)と、情報処理端末7との間の第2推定距離を推定する(ステップS123)。   Next, the evaluation unit 701, based on the received signal strength of the information for which the sensor identifier is acquired in step S122, the sensor node 2 that transmitted the information (that is, the sensor node 2 indicated by the sensor identifier acquired in step S122). The second estimated distance from the information processing terminal 7 is estimated (step S123).

さらに、評価部701は、距離情報716を参照し、ステップS122において取得したセンサ識別子が格納されているレコードが距離情報716に存在しているか否かを判定する(ステップS124)。   Furthermore, the evaluation unit 701 refers to the distance information 716 and determines whether or not a record storing the sensor identifier acquired in step S122 exists in the distance information 716 (step S124).

そして、該当するレコードが存在する場合(ステップS124においてYes)、当該レコードを特定し、当該レコードに、ステップS123において推定した第2推定距離を上書きで格納する(ステップS127)。   If the corresponding record exists (Yes in step S124), the record is specified, and the second estimated distance estimated in step S123 is stored in the record by overwriting (step S127).

一方、ステップS124において該当するレコードが存在しない場合(ステップS124においてNo)、評価部701は、距離情報716の新たなレコードを作成し、当該レコードに、ステップS123で推定した第2推定距離を格納する(ステップS127)。   On the other hand, when there is no corresponding record in step S124 (No in step S124), the evaluation unit 701 creates a new record of the distance information 716 and stores the second estimated distance estimated in step S123 in the record. (Step S127).

ステップS127を実行すると、評価部701は、ステップS120においてリンクが確認できた全てのセンサノード2について、ステップS122ないしS127の処理が終了したか否かを判定する(ステップS128)。   When step S127 is executed, the evaluation unit 701 determines whether or not the processing of steps S122 to S127 has been completed for all sensor nodes 2 whose links have been confirmed in step S120 (step S128).

ステップS128において、未だ、全てのセンサノード2についての処理が終了していない場合は、ステップS122に戻って処理を繰り返す。一方、ステップS128において、すでに全てのセンサノード2についての処理が終了している場合は、今回の距離情報作成処理においてステップS127が実行されなかった距離情報716のレコードを削除する(ステップS129)。   In step S128, when the processes for all the sensor nodes 2 have not been completed yet, the process returns to step S122 and is repeated. On the other hand, if the processing for all the sensor nodes 2 has already been completed in step S128, the record of distance information 716 for which step S127 has not been executed in the current distance information creation processing is deleted (step S129).

距離情報716のレコードについて、ステップS127の処理が実行されなかったレコードとは、直前の距離情報作成処理においては直接的な無線通信が可能であったが、今回の距離情報作成処理においては直接的な無線通信が不能になったセンサノード2に関するレコードである。したがって、ステップS129において、このようなレコードを距離情報716から削除することにより、距離情報716は、情報処理端末7との間の直接的な無線通信が可能な状態のセンサノード2に関するレコードのみとなる。   With respect to the record of the distance information 716, a direct wireless communication was possible in the previous distance information creation process with the record in which the process in step S127 was not executed, but in the current distance information creation process, This is a record relating to the sensor node 2 where wireless communication has become impossible. Therefore, by deleting such a record from the distance information 716 in step S129, the distance information 716 includes only the record related to the sensor node 2 in a state where direct wireless communication with the information processing terminal 7 is possible. Become.

ステップS129を実行すると、評価部701は、距離情報作成処理を一旦終了し、図9に示す処理に戻る。   If step S129 is performed, the evaluation part 701 will once complete | finish a distance information creation process, and will return to the process shown in FIG.

図12は、第1出力処理を示す流れ図である。第1出力処理とは、撮像情報712に撮像されているARマーカ24に対応したセンサノード2について、当該センサノード2により取得された監視情報211に応じた演出情報718を、表示部73およびスピーカ74に出力する処理である。   FIG. 12 is a flowchart showing the first output process. In the first output process, with respect to the sensor node 2 corresponding to the AR marker 24 imaged in the imaging information 712, the effect information 718 corresponding to the monitoring information 211 acquired by the sensor node 2 is displayed on the display unit 73 and the speaker. 74 is a process of outputting to 74.

第1出力処理では、まず、作成部702が特定情報715を参照し、当該特定情報715に未処理のレコードが存在するか否かを判定する(ステップS130)。ここで、未処理とは、後述するステップS131ないしS139に示す処理が実行されていないレコードのことである。   In the first output process, first, the creation unit 702 refers to the specific information 715 and determines whether or not an unprocessed record exists in the specific information 715 (step S130). Here, “unprocessed” refers to a record for which processing shown in steps S131 to S139 described later has not been executed.

すでに特定情報作成処理で説明したように、本実施の形態では、特定情報715に存在するレコードは、最新の撮像情報712において、ARマーカ24が撮像されているセンサノード2に関するレコードである。情報処理端末7は、このようなセンサノード2については、後述するステップS131ないしS139に示す処理を実行し、入出力制御部703が表示部73およびスピーカ74に報知情報717を出力させる。   As already described in the specific information creation processing, in the present embodiment, the record that exists in the specific information 715 is a record related to the sensor node 2 in which the AR marker 24 is imaged in the latest imaging information 712. The information processing terminal 7 executes processing shown in steps S131 to S139 described later for such a sensor node 2, and the input / output control unit 703 causes the display unit 73 and the speaker 74 to output the notification information 717.

ステップS130においてNoと判定された場合、特定情報715に未処理のレコードがすでに存在しない状態であるので、作成部702は、第1出力処理を一旦終了して図9の処理に戻る。   When it is determined No in step S130, since there is no unprocessed record in the specific information 715, the creation unit 702 once ends the first output process and returns to the process of FIG.

一方、ステップS130においてYesと判定された場合、作成部702は、当該レコードからマーカ識別子を取得する(ステップS131)。次に、特定情報715において、当該マーカ識別子にセンサ識別子が関連づけられているか否かを判定することにより、当該マーカ識別子により示されるARマーカ24(撮像されているARマーカ24)に対応するセンサノード2が、すでにセンサネットワークシステム1に登録されているか否かを判定する(ステップS132)。   On the other hand, when it determines with Yes in step S130, the production | generation part 702 acquires a marker identifier from the said record (step S131). Next, the sensor node corresponding to the AR marker 24 (AR marker 24 being imaged) indicated by the marker identifier is determined by determining whether or not the sensor identifier is associated with the marker identifier in the specific information 715. 2 determines whether it is already registered in the sensor network system 1 (step S132).

ステップS131において取得したマーカ識別子により示されるARマーカ24に対応するセンサノード2が、未だセンサネットワークシステム1に登録されていない場合、作成部702は登録処理を実行し(ステップS133)、ステップS130の処理に戻る。なお、登録処理とは、未だセンサネットワークシステム1に登録されていないセンサノード2を、センサネットワークシステム1に登録する処理であるが、詳細は後述する。   When the sensor node 2 corresponding to the AR marker 24 indicated by the marker identifier acquired in step S131 has not been registered in the sensor network system 1 yet, the creation unit 702 executes a registration process (step S133). Return to processing. The registration process is a process for registering the sensor node 2 that has not been registered in the sensor network system 1 in the sensor network system 1, and details thereof will be described later.

ステップS132においてYesと判定すると、作成部702は、登録情報719を参照し、ステップS131において取得したマーカ識別子に関連づけられているセンサ識別子および表現媒体識別子を取得する(ステップS134)。これにより、当該マーカ識別子により示されるARマーカ24に対応するセンサノード2が特定されるとともに、当該センサノード2に割り当てられた表現媒体が特定される。   If it determines with Yes in step S132, the production | generation part 702 will acquire the sensor identifier and expression medium identifier linked | related with the marker identifier acquired in step S131 with reference to the registration information 719 (step S134). Thus, the sensor node 2 corresponding to the AR marker 24 indicated by the marker identifier is specified, and the expression medium assigned to the sensor node 2 is specified.

次に、作成部702は、ステップS134で取得したセンサ識別子を通信部76に伝達する。これにより、通信部76は、当該センサ識別子により示されるセンサノード2により取得された監視情報211を送信するように、センサノード2(あるいはサーバ6)に要求する。この要求に対しては、センサノード2から最新の監視情報211が送信されることが好ましいが、例えば、サーバ6のデータベースに蓄積されている監視情報211の中から最新の監視情報211が送信されてもよい。   Next, the creation unit 702 transmits the sensor identifier acquired in step S134 to the communication unit 76. Thereby, the communication unit 76 requests the sensor node 2 (or the server 6) to transmit the monitoring information 211 acquired by the sensor node 2 indicated by the sensor identifier. In response to this request, it is preferable that the latest monitoring information 211 is transmitted from the sensor node 2. For example, the latest monitoring information 211 is transmitted from the monitoring information 211 stored in the database of the server 6. May be.

通信部76からの要求に対して送信された監視情報211を受信すると(ステップS135)、作成部702は受信した監視情報211を取得して演出選択条件とするとともに、ステップS134において取得したセンサ識別子が格納されているレコードが距離情報716に存在するか否かを判定する(ステップS136)。   When the monitoring information 211 transmitted in response to the request from the communication unit 76 is received (step S135), the creation unit 702 acquires the received monitoring information 211 as an effect selection condition, and the sensor identifier acquired in step S134. Is stored in the distance information 716 (step S136).

本実施の形態では、ステップS135において受信した監視情報211が、センサノード2から送信されたものであったとしても、ゲートウェイ4およびルータ5を介して受信されている場合もありうる。すなわち、必ずしも直接的な無線通信により受信されるとは限らず、当該無線通信が情報処理端末7との間で確立できているとも限らない。そこで、作成部702は、距離情報716を参照して、当該センサ識別子で示されるセンサノード2との間に、直接的な無線通信が確立されているか否かを判定するのである。   In the present embodiment, even if the monitoring information 211 received in step S135 is transmitted from the sensor node 2, it may be received through the gateway 4 and the router 5. That is, it is not always received by direct wireless communication, and the wireless communication is not necessarily established with the information processing terminal 7. Therefore, the creation unit 702 refers to the distance information 716 to determine whether direct wireless communication is established with the sensor node 2 indicated by the sensor identifier.

ステップS136においてYesと判定すると、作成部702は、距離情報716から当該センサ識別子に関連づけられている第2推定距離を取得して、演出選択条件とする。   If it determines with Yes in step S136, the creation part 702 will acquire the 2nd estimated distance linked | related with the said sensor identifier from the distance information 716, and let it be an effect selection condition.

一方、ステップS136においてNoと判定すると、作成部702は、ステップS137をスキップする。すなわち、第2推定距離は演出選択条件とはされない。ただし、当該センサノード2との間に、「直接的な無線通信が確立できていない」という事象は演出選択条件とされてもよい。   On the other hand, if it determines with No in step S136, the creation part 702 will skip step S137. That is, the second estimated distance is not set as an effect selection condition. However, an event that “direct wireless communication cannot be established” with the sensor node 2 may be set as an effect selection condition.

センサノード2とARマーカ24とが比較的近距離に存在する場合であれば、ARマーカ24が撮像されている(特定情報715のレコードが存在する)にも関わらず、センサノード2との間の直接的な無線通信が確立できていない(距離情報716のレコードが存在しない)ということは、なんらかのトラブルが考えられる。しかし、センサノード2と離れた場所に設置された管理ボード等にARマーカ24が貼付されている場合、このような現象は、ただちにトラブルを示すものとはいえない。   If the sensor node 2 and the AR marker 24 exist at a relatively short distance, the distance between the sensor node 2 and the sensor node 2 even though the AR marker 24 is captured (the record of the specific information 715 exists). If no direct wireless communication is established (the record of the distance information 716 does not exist), some trouble may be considered. However, when the AR marker 24 is affixed to a management board or the like installed at a location distant from the sensor node 2, such a phenomenon cannot be said to indicate a trouble immediately.

次に、作成部702は、特定情報715を参照し、ステップS131において取得したマーカ識別子に関連づけて格納されている情報(ARマーカ24の大きさ、向き、第1推定距離、位置等)を取得し、これらを演出選択条件とする。そして、ステップS134で取得した表現媒体識別子と、これまでに設定した演出選択条件によって、演出元情報711の当該表現媒体識別子に関連づけられている演出情報718の中から、当該演出選択条件に合致する演出情報718を選択する(ステップS138)。   Next, the creation unit 702 refers to the specific information 715 and acquires information (the size, orientation, first estimated distance, position, etc. of the AR marker 24) stored in association with the marker identifier acquired in step S131. These are the production selection conditions. Then, according to the expression medium identifier acquired in step S134 and the effect selection conditions set so far, the effect selection condition is matched from the effect information 718 associated with the expression medium identifier of the effect source information 711. The effect information 718 is selected (step S138).

すでに説明したように、ステップS135において、監視情報211は演出選択条件に設定されている。したがって、作成部702がステップS138を実行することにより、演出情報718は、監視情報211に応じて選択される。   As already described, in step S135, the monitoring information 211 is set as an effect selection condition. Therefore, the production information 718 is selected according to the monitoring information 211 when the creation unit 702 executes step S138.

なお、本実施の形態では、第1推定距離および第2推定距離の両方が求まるときには両者の平均値を演出選択条件として設定する。ただし、これらの値を重畳的に演出選択条件として設定してもよいし、いずれか一方を優先的に採用してもよい。このように、演出選択条件に、情報処理端末7(撮像部75)とセンサノード2との距離が設定されることにより、当該距離の変化によって選択される演出情報718を変更でき、表現媒体による演出を変化させることができる。   In the present embodiment, when both the first estimated distance and the second estimated distance are obtained, the average value of both is set as the effect selection condition. However, these values may be set as an effect selection condition in a superimposed manner, or either one may be preferentially adopted. In this way, by setting the distance between the information processing terminal 7 (imaging unit 75) and the sensor node 2 as the effect selection condition, the effect information 718 selected by the change in the distance can be changed, and depending on the expression medium The production can be changed.

演出情報718の選択が終了すると、作成部702は、選択した演出情報718を含む報知情報717を作成する。そして、入出力制御部703が、作成された報知情報717を撮像情報712とともに表示部73およびスピーカ74に出力させる(ステップS139)。より詳細には、報知情報717のうち画像に関する情報については撮像情報712に画像合成して表示部73に表示させるとともに、報知情報717のうち音声に関する情報についてはスピーカ74に再生させる。   When the selection of the effect information 718 is completed, the creating unit 702 creates notification information 717 including the selected effect information 718. Then, the input / output control unit 703 outputs the created notification information 717 together with the imaging information 712 to the display unit 73 and the speaker 74 (step S139). More specifically, the information related to the image in the notification information 717 is combined with the imaging information 712 and displayed on the display unit 73, and the information related to the sound in the notification information 717 is reproduced on the speaker 74.

このように、情報処理端末7の撮像部75によって、センサノード2(ARマーカ24)を撮像することにより、当該ARマーカ24が撮像されている位置(主にセンサノード2の近傍)に、当該センサノード2により取得された監視情報211に応じた演出情報718を表示することができる。したがって、例えば、撮像しているセンサノード2に割り当てられた仮想的なキャラクタを、現実世界を表現した撮像情報712に合成して表示することができるとともに、当該キャラクタに現実世界の状況に応じて動的に変化する監視情報211を表現させることにより、仮想(バーチャル)と現実(リアル)との融合を図ることができる。これにより、センサネットワークシステム1は、ユーザが把握しやすい状態で監視情報211を提供できるとともに、ユーザを楽しませることができ、飽きさせないアプリケーションを提供することができる。   Thus, by imaging the sensor node 2 (AR marker 24) by the imaging unit 75 of the information processing terminal 7, the position where the AR marker 24 is imaged (mainly near the sensor node 2) The effect information 718 corresponding to the monitoring information 211 acquired by the sensor node 2 can be displayed. Therefore, for example, a virtual character assigned to the sensor node 2 that is imaging can be displayed by being combined with the imaging information 712 representing the real world and displayed on the character according to the situation in the real world. By expressing the monitoring information 211 that dynamically changes, it is possible to achieve a fusion of virtual and real. Thereby, the sensor network system 1 can provide the monitoring information 211 in a state that is easy for the user to grasp, and can provide an application that can entertain the user and does not get bored.

なお、撮像情報712において抽出されたARマーカ24の画像は、当該撮像情報712において、入出力制御部703により他の画像に置換(あるいは修正)されてもよい。ARマーカ24の画像が表示部73に表示されたとしても、ユーザは当該画像を意味のある情報として認識することは困難である。それどころか、ARマーカ24の画像が表示されることによって、表示部73により提供される報知情報717が見づらくなるおそれもある。したがって、ARマーカ24の画像を、例えば、センサノード2の外面色で塗りつぶす等の画像処理を施すことにより、報知情報717がより見やすくなる効果がある。   Note that the image of the AR marker 24 extracted in the imaging information 712 may be replaced (or corrected) with another image by the input / output control unit 703 in the imaging information 712. Even if the image of the AR marker 24 is displayed on the display unit 73, it is difficult for the user to recognize the image as meaningful information. On the contrary, when the image of the AR marker 24 is displayed, the notification information 717 provided by the display unit 73 may be difficult to see. Therefore, by performing image processing such as painting the image of the AR marker 24 with the outer color of the sensor node 2, there is an effect that the notification information 717 becomes easier to see.

次に、ステップS133の登録処理について説明する。   Next, the registration process in step S133 will be described.

図13は、登録処理を示す流れ図である。登録処理が開始されると、まず、作成部702は、ステップS131において取得されたマーカ識別子に関連づけられている表現媒体識別子を登録情報719から取得する(ステップS21)。   FIG. 13 is a flowchart showing the registration process. When the registration process is started, first, the creation unit 702 acquires the expression medium identifier associated with the marker identifier acquired in step S131 from the registration information 719 (step S21).

なお、当該マーカ識別子に対応するセンサノード2は、未だセンサネットワークシステム1に登録されていないので、ステップS21が実行されるときにおいて、当該マーカ識別子に一致するマーカ識別子は登録情報719には存在していない。しかし、このような場合、作成部702は、マーカ識別子「other(図6参照)」に関連づけられている表現媒体識別子「CHR(X)」を取得する。すなわち、表現媒体識別子「CHR(X)」は、登録情報719において未登録のマーカ識別子(一致するマーカ識別子が存在しないマーカ識別子)対応する表現媒体識別子である。   Since the sensor node 2 corresponding to the marker identifier has not been registered in the sensor network system 1 yet, the marker identifier matching the marker identifier does not exist in the registration information 719 when step S21 is executed. Not. However, in such a case, the creation unit 702 acquires the expression medium identifier “CHR (X)” associated with the marker identifier “other (see FIG. 6)”. That is, the expression medium identifier “CHR (X)” is an expression medium identifier corresponding to an unregistered marker identifier (a marker identifier for which no matching marker identifier exists) in the registration information 719.

次に、作成部702は、ステップS134において取得したマーカ識別子に関連づけて格納されている情報(ARマーカ24の大きさ、向き、第1推定距離、位置等)を、特定情報715から取得して演出選択条件として設定する。そして、ステップS21において取得した表現媒体識別子に関連づけられている演出情報718の中から、当該演出選択条件に応じて演出情報718を選択する(ステップS22)。   Next, the creation unit 702 acquires information (the size, orientation, first estimated distance, position, and the like of the AR marker 24) stored in association with the marker identifier acquired in step S134 from the specific information 715. Set as production selection conditions. Then, the effect information 718 is selected from the effect information 718 associated with the expression medium identifier acquired in step S21 according to the effect selection condition (step S22).

演出情報718の選択が完了すると、作成部702は、ステップS22において選択した演出情報718を含む報知情報717を作成する(ステップS23)。さらに、入出力制御部703が、撮像情報712とともに、ステップS23において作成された報知情報717を出力させる。   When the selection of the effect information 718 is completed, the creating unit 702 creates notification information 717 including the effect information 718 selected in Step S22 (Step S23). Further, the input / output control unit 703 causes the notification information 717 created in step S23 to be output together with the imaging information 712.

表現媒体識別子「CHR(X)」で示される表現媒体は、いわば未登録のセンサノード2に割り当てられる表現媒体である。このような表現媒体として、例えば、表情等が判然としない影としてのキャラクタ等が考えられる。そして、このような正体不明のキャラクタが撮像情報712に合成されて、表示されることによって、ユーザは、当該センサノード2(ARマーカ24)が未登録であることを容易に理解する。   The expression medium indicated by the expression medium identifier “CHR (X)” is an expression medium assigned to an unregistered sensor node 2. As such an expression medium, for example, a character as a shadow whose facial expression or the like is unclear can be considered. Then, such an unidentified character is combined with the imaging information 712 and displayed, so that the user easily understands that the sensor node 2 (AR marker 24) is not registered.

ステップS24が実行されて、当該ARマーカ24が貼付されているセンサノード2が未登録であることを知らせる報知情報717が出力されると、入出力制御部703は当該センサノード2を登録するか否かの指示を受け付ける状態となる。この状態で、操作部72か操作され、登録することが指示されると、入出力制御部703はステップS25においてYesと判定する。一方、登録しないことが指示された場合は、入出力制御部703は、ステップS26ないしS29の処理をスキップして、登録処理を終了し、図12の処理に戻る。   When step S24 is executed and notification information 717 is output to notify that the sensor node 2 to which the AR marker 24 is attached is not registered, the input / output control unit 703 registers the sensor node 2 or not. It will be in the state which receives the instruction | indication of no. In this state, when the operation unit 72 is operated and registration is instructed, the input / output control unit 703 determines Yes in step S25. On the other hand, if it is instructed not to register, the input / output control unit 703 skips steps S26 to S29, ends the registration process, and returns to the process of FIG.

ステップS25においてYesと判定されると、作成部702が、登録処理を行うことを演出選択条件に設定して、演出情報718の選択を行い、ステップS22において選択された演出情報718が変更される(ステップS26)。この変更された演出情報718に基づいて、ステップS23およびS24と同等の処理が実行され、表示部73の表示が変更される。例えば、このとき表示される表示媒体としては、ペアリングするための操作ボタン等が想定される。   If it determines with Yes in step S25, the production | generation part 702 will set registration effect to the effect selection conditions, will select the effect information 718, and the effect information 718 selected in step S22 will be changed. (Step S26). Based on the changed effect information 718, processing equivalent to steps S23 and S24 is executed, and the display on the display unit 73 is changed. For example, an operation button for pairing is assumed as a display medium displayed at this time.

次に、CPU70は、未登録のセンサノード2から登録要求を示す信号を受信するまで待機する状態となる(ステップS27)。なお、この待機状態にはタイムアウト等のエラー処理が設けられていることが望ましい。   Next, the CPU 70 waits until a signal indicating a registration request is received from the unregistered sensor node 2 (step S27). It is desirable that error processing such as timeout is provided in this standby state.

ステップS27により待機状態にある間に、操作部72が操作されると(上記例における表示媒体としての操作ボタンがタッチされる等)、実質的に、撮像範囲内に存在するセンサノード2のみが受信できるレベルで、通信部76が登録要求の送信要求を送信する。これに応答して登録要求が受信されると(ステップS27においてYes)、作成部702は、当該受信された登録要求に含まれている当該登録要求を送信したセンサノード2を示すセンサ識別子を取得する(ステップS28)。   When the operation unit 72 is operated while in the standby state in step S27 (such as when an operation button as a display medium in the above example is touched), substantially only the sensor node 2 existing within the imaging range is detected. The communication unit 76 transmits a registration request transmission request at a receivable level. When a registration request is received in response to this (Yes in step S27), the creation unit 702 acquires a sensor identifier indicating the sensor node 2 that has transmitted the registration request included in the received registration request. (Step S28).

このようにして新たに登録されるべきセンサノード2を示すセンサ識別子が取得されると、作成部702は、登録情報719を参照して、未だ、センサ識別子と関連づけられていない表現媒体識別子を特定する。さらに、特定した当該表現媒体識別子が格納されているレコード(登録情報719のレコード)に、ステップS131で取得したマーカ識別子とステップS28で取得したセンサ識別子とを格納することにより登録情報719を更新する(ステップS29)。これによって、新しく登録されたセンサノード2のセンサ識別子がセンサネットワークシステム1に取得されるとともに、当該センサノード2に、1つの表現媒体が割り当てられ、当該センサノード2に対応するARマーカ24のマーカ識別子も関連づけられる。   When the sensor identifier indicating the sensor node 2 to be newly registered is acquired in this way, the creation unit 702 refers to the registration information 719 and specifies an expression medium identifier that is not yet associated with the sensor identifier. To do. Furthermore, the registration information 719 is updated by storing the marker identifier acquired in step S131 and the sensor identifier acquired in step S28 in the record (record of registration information 719) in which the specified expression medium identifier is stored. (Step S29). As a result, the sensor identifier of the newly registered sensor node 2 is acquired by the sensor network system 1, and one expression medium is assigned to the sensor node 2, and the marker of the AR marker 24 corresponding to the sensor node 2 An identifier is also associated.

ステップS29を実行すると、作成部702は、登録処理を終了して、図12に示す処理に戻る。   When step S29 is executed, the creation unit 702 ends the registration process and returns to the process illustrated in FIG.

図14は、第2出力処理を示す流れ図である。第2出力処理とは、直接的な無線通信が確立しており、情報処理端末7の周囲にセンサノード2が存在している蓋然性が高いにもかかわらず、撮像情報712にはARマーカ24が撮像されていない場合において、報知情報717を出力する処理である。   FIG. 14 is a flowchart showing the second output process. In the second output process, although direct wireless communication has been established and there is a high probability that the sensor node 2 exists around the information processing terminal 7, the AR marker 24 is included in the imaging information 712. This is a process of outputting notification information 717 when no image is taken.

一般的なAR技術においては、ARマーカ24が撮像されない限り、報知情報717を表示することはできない。しかし、第1の実施の形態におけるセンサネットワークシステム1では、情報処理端末7とセンサノード2とが、直接的な無線通信を行う機能を有しているため、このような場合でも、適切な報知情報717を出力することが可能である。   In general AR technology, the notification information 717 cannot be displayed unless the AR marker 24 is imaged. However, in the sensor network system 1 according to the first embodiment, the information processing terminal 7 and the sensor node 2 have a function of performing direct wireless communication. Information 717 can be output.

第2出力処理では、まず、作成部702が距離情報716を参照し、未処理のレコードが存在するか否かを判定する(ステップS141)。ステップS141において未処理のレコードとは、ステップS142ないしS149の処理がされていないレコードのことである。   In the second output process, first, the creation unit 702 refers to the distance information 716 and determines whether there is an unprocessed record (step S141). An unprocessed record in step S141 is a record that has not been processed in steps S142 to S149.

未処理のレコードが存在しない場合には、作成部702は、ステップS141においてNoと判定し、第2出力処理を一旦終了して図9の処理に戻る。   If there is no unprocessed record, the creating unit 702 determines No in step S141, temporarily ends the second output process, and returns to the process of FIG.

一方、未処理のレコードが存在する場合には、作成部702は、当該レコードに格納されているセンサ識別子を取得する(ステップS142)。このとき取得されるセンサ識別子は、情報処理端末7との間で、直接的な無線通信が確立されている状態のセンサノード2のセンサ識別子である。   On the other hand, when there is an unprocessed record, the creation unit 702 acquires a sensor identifier stored in the record (step S142). The sensor identifier acquired at this time is the sensor identifier of the sensor node 2 in a state where direct wireless communication is established with the information processing terminal 7.

次に、作成部702は、ステップS142において取得されたセンサ識別子が特定情報715に格納されているか否かを判定する(ステップS143)。特定情報715に格納されているセンサ識別子とは、対応するARマーカ24が撮像情報712において撮像されているセンサノード2を示すセンサ識別子である。   Next, the creating unit 702 determines whether or not the sensor identifier acquired in step S142 is stored in the specific information 715 (step S143). The sensor identifier stored in the specific information 715 is a sensor identifier indicating the sensor node 2 in which the corresponding AR marker 24 is imaged in the imaging information 712.

ステップS143においてYesと判定すると、作成部702は、当該センサ識別子で示されるセンサノード2が、撮像情報712によって特定可能であり、このようなセンサノード2に対しては、すでに説明した第1出力処理を優先させるべく、第2出力処理による報知情報717の出力(後述するステップS149)をスキップして、ステップS141の処理に戻る。   If it is determined Yes in step S143, the creation unit 702 can identify the sensor node 2 indicated by the sensor identifier by the imaging information 712. For such a sensor node 2, the first output described above is possible. In order to give priority to the process, the output of the notification information 717 by the second output process (step S149 described later) is skipped, and the process returns to the process of step S141.

ステップS142において取得したセンサ識別子が特定情報715に格納されていない場合(ステップS143においてNo)、作成部702は、登録情報719を参照して、当該センサ識別子が登録情報719に登録されているか否かをさらに判定する(ステップS144)。なお、このときのセンサ識別子は評価部701により特定されたセンサ識別子であり、当該センサ識別子は特定情報715には格納されていない(特定部700によっては特定されていない。)。したがって、評価部701は、後に作成される報知情報717の対象となるセンサノード2を、特定部700に代わって特定する場合があり、特定部700の機能を補う機能を有している。   When the sensor identifier acquired in step S142 is not stored in the specific information 715 (No in step S143), the creation unit 702 refers to the registration information 719 and determines whether or not the sensor identifier is registered in the registration information 719. Is further determined (step S144). Note that the sensor identifier at this time is the sensor identifier specified by the evaluation unit 701, and the sensor identifier is not stored in the specification information 715 (not specified by the specification unit 700). Therefore, the evaluation unit 701 may specify the sensor node 2 that is the target of the notification information 717 created later, instead of the specifying unit 700, and has a function of supplementing the function of the specifying unit 700.

ステップS144においてNoと判定すると、作成部702は、登録されていないセンサノード2からの情報をたまたま受信したものと判定し、当該センサノード2については無視するため、やはりステップS149をスキップし、ステップS141の処理に戻る。このような場合にも登録処理を実行するとすると、例えば、別の家で稼働中のセンサノード2の電波が混信等により、当該情報処理端末7に誤って受信された場合に、不都合を生じる。したがって、センサネットワークシステム1では、先述のように、このようなセンサノード2(直接的な無線通信は確立しているが、ARマーカ24が撮像されてもおらず、かつ、登録もされていないセンサノード2)に関しては、無視するように扱う。   If it is determined No in step S144, the creating unit 702 determines that the information from the sensor node 2 that is not registered has been received by chance, and ignores the sensor node 2, and thus skips step S149, The process returns to S141. If the registration process is executed even in such a case, for example, when the radio wave of the sensor node 2 operating in another house is erroneously received by the information processing terminal 7 due to interference or the like, inconvenience occurs. Therefore, as described above, in the sensor network system 1, such a sensor node 2 (direct wireless communication has been established, but the AR marker 24 has not been imaged and has not been registered. The sensor node 2) is handled so as to be ignored.

ステップS144においてYesと判定すると、作成部702は、登録情報719を参照して、ステップS142において取得されたセンサ識別子に関連づけられている表現媒体識別子を取得する(ステップS145)。これにより、当該センサノード2の表現媒体が特定される。   If it determines with Yes in step S144, the production | generation part 702 will refer to the registration information 719, and will acquire the expression medium identifier linked | related with the sensor identifier acquired in step S142 (step S145). Thereby, the expression medium of the sensor node 2 is specified.

次に、作成部702は、距離情報716を参照し、当該センサ識別子に関連づけられている第2推定距離を取得して演出選択条件として設定する(ステップS146)。そして、演出元情報711を参照して、ステップS145で取得した表現媒体識別子に関連づけられている演出情報718の中から、設定されている演出選択条件に応じた演出情報718を選択する(ステップS147)。このように、センサネットワークシステム1では、例え、撮像情報712にARマーカ24が撮像されておらず、特定部700による各種状況の取得ができない場合であっても、評価部701によって推定される第2推定距離の違いに応じて、演出情報718を選択できる。すなわち、距離に応じた演出を出力できる。   Next, the creating unit 702 refers to the distance information 716, acquires the second estimated distance associated with the sensor identifier, and sets it as an effect selection condition (step S146). Then, with reference to the effect source information 711, effect information 718 corresponding to the set effect selection condition is selected from the effect information 718 associated with the expression medium identifier acquired in step S145 (step S147). ). As described above, in the sensor network system 1, for example, even when the AR marker 24 is not captured in the imaging information 712 and various conditions cannot be acquired by the specifying unit 700, the first estimated by the evaluation unit 701. 2. The effect information 718 can be selected according to the difference in the estimated distance. That is, an effect according to the distance can be output.

なお、センサノード2との間の通信が確立されていれば、ARマーカ24が撮像されていないセンサノード2についても監視情報211を受信することは可能である。したがって、ステップS147を実行する前に、当該監視情報211に応じて演出選択条件を設定してもよい。すなわち、第2推定距離のみならず、監視情報211に応じて演出情報718が選択されるようにしてもよい。   Note that if communication with the sensor node 2 is established, it is possible to receive the monitoring information 211 even for the sensor node 2 in which the AR marker 24 is not imaged. Therefore, before executing step S147, an effect selection condition may be set according to the monitoring information 211. That is, the effect information 718 may be selected according to the monitoring information 211 as well as the second estimated distance.

演出情報718の選択が完了すると、作成部702は、選択した演出情報718を含む報知情報717を作成する(ステップS148)。そして、入出力制御部703が、撮像情報712とともに、ステップS148において作成された報知情報717を出力させる(ステップS149)。この場合、撮像情報712にはARマーカ24が撮像されていないので、報知情報717を撮像情報712におけるどの位置に表示させるかを決定する必要がある。しかし、このような場合の表示位置を予め設定しておけば、表示位置を容易に決定できるとともに、そのような位置に報知情報717が表示された場合には、ユーザは該当するセンサノード2(ARマーカ24)が撮像情報712に撮像されていなくとも、当該センサノード2が近傍に存在することを認識できる。なお、予め設定しておく表示位置としては、例えば、撮像範囲の端部付近等が考えられる。   When the selection of the effect information 718 is completed, the creating unit 702 creates the notification information 717 including the selected effect information 718 (step S148). Then, the input / output control unit 703 outputs the notification information 717 created in step S148 together with the imaging information 712 (step S149). In this case, since the AR marker 24 is not captured in the imaging information 712, it is necessary to determine at which position in the imaging information 712 the notification information 717 is displayed. However, if the display position in such a case is set in advance, the display position can be easily determined. If the notification information 717 is displayed at such a position, the user can select the corresponding sensor node 2 ( Even if the AR marker 24) is not imaged in the imaging information 712, it can be recognized that the sensor node 2 exists in the vicinity. Note that the display position set in advance may be, for example, the vicinity of the end of the imaging range.

ARマーカ24を撮像しようと思えば、ユーザはARマーカ24の現実世界における存在場所をある程度知っている必要がある。しかし、他人が設置したセンサノード2について監視情報211を確認したい場合など、ユーザは必ずしもARマーカ24の存在場所を知っているとは限らない。しかし、センサネットワークシステム1は、例え、ARマーカ24を撮像できない状況であっても、ユーザに報知情報717(演出情報718)を出力することができる。直接的な無線通信が確立できる範囲は、撮像部75による撮像範囲より一般的に広いので、ユーザはセンサノード2の存在場所を正確に知っていなくても、センサノード2に関する何らかの情報を得ることができる。   In order to capture the AR marker 24, the user needs to know to some extent the location of the AR marker 24 in the real world. However, the user does not necessarily know the location of the AR marker 24 when the user wants to check the monitoring information 211 for the sensor node 2 installed by another person. However, the sensor network system 1 can output the notification information 717 (effect information 718) to the user even if the AR marker 24 cannot be imaged. Since the range in which direct wireless communication can be established is generally wider than the imaging range by the imaging unit 75, the user can obtain some information about the sensor node 2 even if the user does not know the location of the sensor node 2 accurately. Can do.

また、このときに出力される報知情報717は、第2推定距離に応じて変化させることができる。したがって、例えば、センサノード2に近づくほど当該センサノード2に割り当てられた表現媒体の表示サイズを大きくする、あるいは、距離に応じて表現媒体の反応に変化をつけるといった演出変更を行えば、ユーザは存在場所を知らないセンサノード2を報知情報717に従って探索するという楽しみ方もできる。また、楽しみながらセンサノード2を探索することにより、自然と、必要な監視情報211の収集、確認等が行えるという利点もあり、センサネットワークシステム1の利用が促進される。   Also, the notification information 717 output at this time can be changed according to the second estimated distance. Therefore, for example, if the display change of the expression medium allocated to the sensor node 2 is increased as the sensor node 2 is approached, or the presentation medium is changed according to the distance, the user can change the presentation. It can be enjoyed to search for the sensor node 2 that does not know the location according to the notification information 717. Further, by searching the sensor node 2 while having fun, there is an advantage that necessary monitoring information 211 can be collected and confirmed naturally, and the use of the sensor network system 1 is promoted.

図15は、指示情報受付処理を示す流れ図である。指示情報受付処理とは、ユーザによる操作部72に対する操作を、状況に応じて解釈し、ユーザの意図した処理を実行する処理である。   FIG. 15 is a flowchart showing instruction information reception processing. The instruction information receiving process is a process of interpreting an operation on the operation unit 72 by the user according to a situation and executing a process intended by the user.

指示情報受付処理では、まず、入出力制御部703が操作部72が操作されたか否かを監視しており(ステップS151)、操作部72が操作されると、ステップS151においてYesと判定する。操作部72が操作されていないときは、入出力制御部703はステップS151においてNoと判定し、指示受付処理を一旦終了して図9に示す処理に戻る。   In the instruction information reception process, first, the input / output control unit 703 monitors whether or not the operation unit 72 has been operated (step S151), and when the operation unit 72 is operated, it is determined Yes in step S151. When the operation unit 72 is not operated, the input / output control unit 703 determines No in step S151, temporarily ends the instruction receiving process, and returns to the process shown in FIG.

ステップS151においてYesと判定すると、入出力制御部703は、ユーザの操作部72に対する操作と、当該操作がされたときの状況(表示部73に表示されていた画像の種別や、タッチパネルに対する接触位置等)に応じて、指示情報714を作成する(ステップS152)。指示情報714が作成されると、当該指示情報714が意図するところの処理を実行し(ステップS153)、指示受付処理を終了して図9に示す処理に戻る。   If it is determined Yes in step S151, the input / output control unit 703 determines the operation of the user on the operation unit 72, the situation when the operation is performed (the type of image displayed on the display unit 73, and the touch position on the touch panel). Etc.), the instruction information 714 is created (step S152). When the instruction information 714 is created, the process intended by the instruction information 714 is executed (step S153), the instruction receiving process is terminated, and the process returns to the process shown in FIG.

情報提供処理が継続している間に操作部72を操作することにより、ユーザが意図する処理としては様々な処理が考えられる。   By operating the operation unit 72 while the information providing process continues, various processes can be considered as a process intended by the user.

例えば、演出情報718を選択しなおす処理である。キャラクタの表情により監視情報211が誇張された演出で出力されている状況で、当該キャラクタの画像が表示されている領域に触れると、キャラクタの表情を決定している演出情報718が他の演出情報718に選択しなおされる場合などである。そして、新たに選択された演出情報718を含む報知情報717が作成され出力されることにより、監視情報211の詳細が表示されたり、過去からの比較や他のユーザとの比較等が表示されたりする例が考えられる。   For example, this is a process of selecting the production information 718 again. In the situation where the monitoring information 211 is output in an exaggerated effect due to the character's facial expression, when the area where the image of the character is displayed is touched, the effect information 718 determining the character's facial expression is the other effect information. This is the case when the item is reselected to 718. Then, by creating and outputting the notification information 717 including the newly selected effect information 718, details of the monitoring information 211 are displayed, comparisons from the past, comparisons with other users, and the like are displayed. An example is conceivable.

また、第1の実施の形態では、電化製品の消費電力量が監視情報211として収集されるため、表示媒体を、対応する電化製品で表現することも考えられる。あるいは、さらに、キャラクタが当該電化製品を使用している態様で演出が出力されてもよい。   In the first embodiment, since the power consumption amount of the electrical appliance is collected as the monitoring information 211, it may be possible to express the display medium with the corresponding electrical appliance. Alternatively, the effect may be output in a mode in which the character uses the electrical appliance.

また、センサノード2やサーバ6に送信する情報を指示情報714として作成し、当該指示情報714を通信部76に送信させる処理である。例えば、ユーザは、センサノード2のセンシング間隔や通信スケジュール、ロック等を制御する指示情報714を、通信部76からセンサノード2に向けて送信させることで、センサノード2を意図したように操作できる。   In addition, information to be transmitted to the sensor node 2 or the server 6 is created as instruction information 714, and the instruction information 714 is transmitted to the communication unit 76. For example, the user can operate the sensor node 2 as intended by transmitting instruction information 714 for controlling the sensing interval, communication schedule, lock, and the like of the sensor node 2 from the communication unit 76 to the sensor node 2. .

さらに、操作部72が操作されることにより意図される処理としては、出力された報知情報717を報知履歴情報713として保存する処理もある。あるいは、保存されている報知履歴情報713を表示部73やスピーカ74に再生する処理もある。これにより、ユーザは、任意のタイミングで、報知情報717(演出情報718)をアーカイブし、後に、これを再生して楽しむことができる。   Further, as a process intended by operating the operation unit 72, there is a process of saving the output notification information 717 as notification history information 713. Alternatively, there is a process of reproducing the stored notification history information 713 on the display unit 73 or the speaker 74. Thereby, the user can archive the notification information 717 (effect information 718) at an arbitrary timing, and later reproduce and enjoy it.

以上が、第1の実施の形態におけるセンサネットワークシステム1により提供される、いわばシステムのプラットホームの説明である。   The above is the description of the so-called system platform provided by the sensor network system 1 according to the first embodiment.

次に、このようなプラットホームを用いて、どのようなアプリケーションが具体的に実現できるかについて説明する。ただし、すでに説明したものは省略する。   Next, what kind of application can be specifically realized using such a platform will be described. However, those already described are omitted.

例えば、消費電力を測定するセンサノード2には、雷神の外観を有するキャラクタを表現媒体として割り当てる、そして、消費電力量に応じて選択される演出情報718としては、消費電力が大きいときには雷神が顔を真っ赤にして太鼓をたたき、消費電力が小さいときには昼寝をしている等の演出を行うとユーザは直感的に監視情報211の内容を理解しやすい。あるいは、土壌水分、温度、湿度、日照などを検出するそれぞれのセンサノード2については、それぞれの監視情報211の属性を表現する妖精のキャラクタを表現媒体として割り当てるとよい。   For example, a sensor node 2 that measures power consumption is assigned a character having the appearance of a thunder god as an expression medium, and the presentation information 718 selected according to the amount of power consumption includes a thunder god face when power consumption is large. If the user performs an effect such as taking a nap when the power consumption is low, and the user taps a drum, the user can easily understand the contents of the monitoring information 211 intuitively. Or about each sensor node 2 which detects soil moisture, temperature, humidity, sunlight, etc., it is good to allocate the fairy character expressing the attribute of each monitoring information 211 as an expression medium.

また、サーバ6から得られる過去からの経過に応じて、表現媒体としてのキャラクタが異なる状態に成長したり、イベントが発生したりすることも考えられる。   It is also conceivable that the character as the expression medium grows in a different state or an event occurs according to the progress from the past obtained from the server 6.

また、上記実施の形態では、情報処理端末7の内部に設けられた記憶装置71に演出元情報711が記憶されていた。しかし、例えば、メモリカードのような着脱自在の記憶媒体により演出元情報711を提供し、当該メモリカードによって提供されるアプリケーションごとに、あるいは、当該メモリカードごとに、キャラクタが変更されるなどしてもよい。このような構成の具体例としては、あるアプリケーションを記憶したメモリカードが情報処理端末7に装着されているときには、当該アプリケーションに登場するキャラクタが各センサノード2に割り当てられたり、逆に、当該アプリケーションの進行にセンサノード2により取得される監視情報211が影響を与えたりすることも考えられる。   In the above embodiment, the production source information 711 is stored in the storage device 71 provided in the information processing terminal 7. However, for example, the production source information 711 is provided by a removable storage medium such as a memory card, and the character is changed for each application provided by the memory card or for each memory card. Also good. As a specific example of such a configuration, when a memory card storing an application is attached to the information processing terminal 7, a character appearing in the application is assigned to each sensor node 2, or conversely, It is also conceivable that the monitoring information 211 acquired by the sensor node 2 affects the progress of the process.

また、情報処理端末7とセンサノード2との距離に応じて演出を変更することができることを利用して、距離が遠いほど音声や鳴き声、BGM等の音量が小さくなったり、ある閾値よりも距離が遠い場合にはキャラクタがユーザに気づかず反応しない等の演出変化も考えられる。   In addition, by using the fact that the presentation can be changed according to the distance between the information processing terminal 7 and the sensor node 2, the volume of voice, cry, BGM, etc. decreases as the distance increases, or the distance exceeds a certain threshold. If the character is far away, there may be a production change such that the character does not notice the user and does not react.

なお、キャラクタが反応しないような状況では、一見、監視情報211の確認が遅れる場合も想定されうるが、アプリケーションを楽しむという意味では、監視情報211が直ちに出力されない方がリアリティがあって好ましい場合もある。このような場合としては、例えば、キャラクタの表情によって監視情報211が表現されている場合において、ユーザがARマーカ24を後ろから撮像していてキャラクタの後ろ姿のみが表示され、肝心の表情が確認できない場合などである。   In a situation where the character does not react, it may be assumed that confirmation of the monitoring information 211 is delayed at first glance. However, in the sense of enjoying the application, it is preferable that the monitoring information 211 is not output immediately because there is reality. is there. In such a case, for example, when the monitoring information 211 is expressed by the facial expression of the character, the user is capturing the AR marker 24 from behind and only the back of the character is displayed, and the essential facial expression cannot be confirmed. Such as the case.

また、見えないものを可視化するアプリケーションとしては、室内のイオン濃度や、臭い、消費電力の量に応じてCO2の発生量として可視化する。あるいは、湿度をウイルスや細菌の量で表現した演出による可視化等が考えられる。   In addition, as an application for visualizing the invisible, it is visualized as the amount of CO2 generated according to the indoor ion concentration, odor, and power consumption. Or the visualization by the production | presentation which expressed humidity with the quantity of the virus and bacteria etc. can be considered.

図16は、報知情報717として、監視情報211の詳細な情報(監視情報211の過去との比較をグラフ化した画像情報)が表示される例を示した図である。ここまでは、主に、監視情報211を簡素化表現する、あるいは、誇張表現する報知情報717を撮像情報712にオーバーレイさせる例について説明したが、例えば、そのような報知情報717を表示した後に、ユーザからの指示があれば、図16に示すように、詳細な監視情報211を表現した演出が出力されてもよい。   FIG. 16 is a diagram illustrating an example in which detailed information of the monitoring information 211 (image information obtained by graphing the comparison of the monitoring information 211 with the past) is displayed as the notification information 717. Up to this point, an example in which the notification information 717 that simplifies or exaggerates the monitoring information 211 is overlaid on the imaging information 712 has been described. For example, after displaying such notification information 717, If there is an instruction from the user, as shown in FIG. 16, an effect expressing the detailed monitoring information 211 may be output.

図17は、複数のセンサノード2(ARマーカ24)が撮像部75の撮像範囲に存在する場合に出力される報知情報717を例示する図である。これまでにも説明したように、撮像情報712に撮像されるARマーカ24は、1つに限定されるものではない。図17に示すように、複数のセンサノード2(ARマーカ24)を同時に撮像する場合には、各センサノード2間の通信経路や通信速度、あるいは、RSSI値、センサノード2間の相関関係等を表示してもよい。   FIG. 17 is a diagram illustrating notification information 717 output when a plurality of sensor nodes 2 (AR markers 24) are present in the imaging range of the imaging unit 75. As described above, the AR marker 24 imaged in the imaging information 712 is not limited to one. As shown in FIG. 17, when imaging a plurality of sensor nodes 2 (AR marker 24) at the same time, the communication path and communication speed between the sensor nodes 2, the RSSI value, the correlation between the sensor nodes 2, etc. May be displayed.

すなわち、複数のセンサノード2のARマーカ24が撮像されていることや、メンテナンスに関する情報等(すなわち、監視情報211ではない情報)のみを演出選択条件として設定してもよい。例えば、通信速度やRSSI値は、監視情報211と同様に現実世界の状況に応じて動的に変化する情報であるが、これらはセンサノード2により取得される情報ではないので、監視情報211には該当しない。   That is, it may be set as an effect selection condition that only the AR markers 24 of a plurality of sensor nodes 2 have been imaged, information related to maintenance (that is, information that is not the monitoring information 211), or the like. For example, the communication speed and RSSI value are information that dynamically changes according to the situation in the real world, similar to the monitoring information 211, but these are not information acquired by the sensor node 2. Is not applicable.

図18は、表現媒体が操作ボタンである場合に出力される報知情報717を例示する図である。第1の実施の形態では、図13に示した登録処理において、ペアリングのための操作ボタンが表現媒体として表示される例を説明した。図18に示すように、装置等の遷移状態(演出選択条件として設定する)に応じて報知情報717として表示される画像は、あたかもソフトウェアスイッチを構成する画像であってもよい。このような報知情報717を出力することにより、充実した高機能の操作部を設けることのできないセンサノード2に、操作容易な擬似的な操作部を提供できる。これにより、センサノード2のハードウェア構成をさらに簡素化できる。   FIG. 18 is a diagram illustrating notification information 717 output when the expression medium is an operation button. In the first embodiment, the example in which the operation buttons for pairing are displayed as the expression medium in the registration process illustrated in FIG. 13 has been described. As shown in FIG. 18, the image displayed as the notification information 717 according to the transition state (set as the effect selection condition) of the device or the like may be an image constituting a software switch. By outputting such notification information 717, it is possible to provide a pseudo operation unit that is easy to operate for the sensor node 2 that cannot be provided with a complete and highly functional operation unit. Thereby, the hardware configuration of the sensor node 2 can be further simplified.

また、あらゆる遷移状態に対応できるように、多くのキーやボタンを設けると操作が複雑になるという問題がある。しかし、図18に示すように、装置の遷移状態に応じて、現状で入力可能な情報にのみ対応する操作ボタンのみをユーザに示すことが可能となり、操作が簡素化される。   In addition, if many keys and buttons are provided so as to cope with all transition states, there is a problem that the operation becomes complicated. However, as shown in FIG. 18, according to the transition state of the apparatus, it is possible to show the user only operation buttons corresponding only to information that can be input at present, and the operation is simplified.

以上のように、第1の実施の形態におけるセンサネットワークシステム1は、現実世界を表現した情報を監視情報211として取得する1以上のセンサノード2と、センサノード2により取得された監視情報211を収集する情報処理システム3とを備え、情報処理システム3は、現実世界を撮像して撮像情報712を取得する撮像部75と、撮像部75により取得された撮像情報712を画像解析することにより1以上のセンサノード2の中から報知対象となるセンサノード2を特定する特定部700と、特定部700により特定された報知対象となるセンサノード2に対応した報知情報717を作成する作成部702と、撮像部75により取得された撮像情報712とともに作成部702により作成された報知情報717を出力する入出力制御部703とを備え、報知情報717は、対応するセンサノード2により取得された監視情報211に応じた演出情報718を含む。これにより、現実世界を撮像した撮像情報712とともに、現実世界の状況に応じて動的に変化する演出情報718が出力されるので、例えば監視情報211に対する臨場感が高まり、ユーザが楽しみながらセンサネットワークシステム1を使用することができる。また、演出情報718を工夫することにより、センサノード2により収集された監視情報211を直感的に把握できるようになるため、ユーザは現実世界の状況を容易に理解することができるようになる。   As described above, the sensor network system 1 according to the first embodiment includes one or more sensor nodes 2 that acquire information representing the real world as the monitoring information 211, and the monitoring information 211 acquired by the sensor node 2. An information processing system 3 that collects the information, and the information processing system 3 captures the real world and acquires the imaging information 712, and performs image analysis on the imaging information 712 acquired by the imaging unit 75. A specifying unit 700 for specifying the sensor node 2 to be notified from the sensor nodes 2 described above, and a creating unit 702 for generating notification information 717 corresponding to the sensor node 2 to be notified specified by the specifying unit 700 , Which outputs the notification information 717 created by the creation unit 702 together with the imaging information 712 acquired by the imaging unit 75 And a control unit 703, broadcast information 717 includes effect information 718 corresponding to the corresponding sensor node 2 monitoring information 211 acquired by. As a result, production information 718 that dynamically changes depending on the situation in the real world is output together with the imaging information 712 obtained by imaging the real world. System 1 can be used. Further, by devising the presentation information 718, the monitoring information 211 collected by the sensor node 2 can be intuitively grasped, so that the user can easily understand the situation in the real world.

また、キャラクタに関する情報である演出元情報711を記憶する記憶装置71をさらに備え、報知情報717は、記憶装置71に記憶されたキャラクタに関する情報を含むことにより、例えば、監視情報211をキャラクタにより表現した演出情報718が出力されるので、ユーザの親近感が増大する。   Moreover, the storage device 71 that stores the production source information 711 that is information related to the character is further provided, and the notification information 717 includes information related to the character stored in the storage device 71, so that the monitoring information 211 is expressed by the character, for example. Since the effect information 718 is output, the familiarity of the user increases.

また、記憶装置71に記憶されるキャラクタに関する情報は、1以上のセンサノード2ごとに、登録情報719により、それぞれ割り当てられていることにより、報知情報717として出力されるキャラクタの違いによって、どのセンサノード2を表現しているのかが容易に判断できる。   In addition, the information related to the character stored in the storage device 71 is assigned to each of the one or more sensor nodes 2 by the registration information 719. It can be easily determined whether the node 2 is expressed.

また、報知情報717を報知履歴情報713として保存する記憶装置71を備え、監視情報211に応じた演出情報718を含む報知情報717を保存することにより、例えば、ユーザは他人に珍しい演出情報718を自慢することができる。   In addition, the storage device 71 that stores the notification information 717 as the notification history information 713 is provided, and by storing the notification information 717 including the effect information 718 corresponding to the monitoring information 211, for example, the user can store the effect information 718 that is unusual for others. I can be proud of.

また、1以上のセンサノード2との間で、直接的な無線通信を行う通信部76と、通信部76における無線通信の状態を評価する評価部701とをさらに備え、撮像部75は、通信部76と一体的な構造物を構成しており、作成部702は、評価部701による評価に基づいて評価部701により特定された報知対象となるセンサノード2と撮像部75との間の第2推定距離を推定し、当該第2推定距離に応じて、報知対象となるセンサノード2に対応して作成すべき報知情報717を作成する。これにより、撮像情報712に撮像されていないときでも、第2推定距離に応じて演出情報718を選択することができる。したがって、例えば、撮像部75により撮像ができない状況であっても、センサノード2を探索したり、監視情報211を確認したりすることができる。   Moreover, the communication unit 76 that performs direct wireless communication with one or more sensor nodes 2 and an evaluation unit 701 that evaluates the state of wireless communication in the communication unit 76 are further included. The creation unit 702 includes a first structure between the image sensor 75 and the sensor node 2 that is a notification target specified by the evaluation unit 701 based on the evaluation by the evaluation unit 701. 2 Estimate the estimated distance, and create notification information 717 to be created corresponding to the sensor node 2 to be notified according to the second estimated distance. Thereby, even when the imaging information 712 is not imaged, the effect information 718 can be selected according to the second estimated distance. Therefore, for example, even if the imaging unit 75 cannot capture an image, the sensor node 2 can be searched or the monitoring information 211 can be confirmed.

なお、本実施の形態では、特定部700が第2推定距離を求めて、これに応じて、撮像情報712にオーバーレイさせる画像の大きさを決定すると説明した。しかしながら、撮像情報712にオーバーレイさせる画像の大きさを決定するためには、必ずしも第2推定距離を求める必要はない。例えば、撮像情報712におけるARマーカ24の大きさと、撮像情報712にオーバーレイさせる画像の大きさとの比率(拡大縮小比率)を予め決定しておけば、ARマーカ24の大きさが検出された時点で、撮像情報712にオーバーレイさせる画像の大きさを決定できる。   In the present embodiment, it has been described that the specifying unit 700 obtains the second estimated distance and determines the size of the image to be overlaid on the imaging information 712 according to the second estimated distance. However, in order to determine the size of an image to be overlaid on the imaging information 712, it is not always necessary to obtain the second estimated distance. For example, if the ratio (enlargement / reduction ratio) between the size of the AR marker 24 in the imaging information 712 and the size of the image to be overlaid on the imaging information 712 is determined in advance, the size of the AR marker 24 is detected. The size of the image to be overlaid on the imaging information 712 can be determined.

また、第1の実施の形態では、センサノード2に対応したARマーカ24を撮像することにより、対象となるセンサノード2の特定を行っていた。しかし、例えば、撮像されたセンサノード2の外観(形状や色彩)を画像認識することにより特定を行ってもよい。その場合は、ARマーカ24に相当する構成が不要となる利点がある。ただし、各センサノード2ごとの外観を異なるものとすることが好ましい。あるいは、外観で検出する場合において、同一の外観のセンサノード2が複数存在する場合には、RSSIの値が高いセンサノード2が撮像されているセンサノード2であるとして特定してもよい。また、例えば、センサノード2の外面にLEDを設け、撮像情報712における当該LEDの発光パターン(色パターンや配置パターン、点滅パターン等)によって特定するとしてもよい。また、発光パターンで検出する場合には、情報処理端末7からのビーコン等を受信してから発光させるように構成すれば、消費電力を抑制することができる。   In the first embodiment, the target sensor node 2 is specified by imaging the AR marker 24 corresponding to the sensor node 2. However, for example, the identification may be performed by recognizing the appearance (shape or color) of the imaged sensor node 2. In that case, there is an advantage that a configuration corresponding to the AR marker 24 is not required. However, it is preferable that the appearance of each sensor node 2 is different. Alternatively, when a plurality of sensor nodes 2 having the same appearance exist in the case of detection by appearance, the sensor node 2 having a high RSSI value may be specified as the sensor node 2 being imaged. Further, for example, an LED may be provided on the outer surface of the sensor node 2 and specified by the light emission pattern (color pattern, arrangement pattern, blinking pattern, etc.) of the LED in the imaging information 712. Moreover, when detecting with a light emission pattern, if it comprises so that it may light-emit after receiving the beacon etc. from the information processing terminal 7, power consumption can be suppressed.

<2. 第2の実施の形態>
第1の実施の形態におけるセンサネットワークシステム1は、情報処理端末7が、センサノード2との間で直接的な無線通信を行う構成および機能を有していた。しかし、このような構成および機能がなくても、本発明は実現可能である。
<2. Second Embodiment>
The sensor network system 1 according to the first embodiment has a configuration and a function in which the information processing terminal 7 performs direct wireless communication with the sensor node 2. However, the present invention can be realized without such a configuration and function.

図19は、第2の実施の形態におけるセンサネットワークシステム1aを示す図である。センサネットワークシステム1aは、情報処理端末7の代わりに、情報処理端末7aを備えている点がセンサネットワークシステム1と異なっている。以下の説明では、第2の実施の形態におけるセンサネットワークシステム1aについて、第1の実施の形態におけるセンサネットワークシステム1と同様の機能を有する構成には同一の符号を付し、適宜、説明を省略する。   FIG. 19 is a diagram illustrating a sensor network system 1a according to the second embodiment. The sensor network system 1 a is different from the sensor network system 1 in that an information processing terminal 7 a is provided instead of the information processing terminal 7. In the following description, for the sensor network system 1a in the second embodiment, components having the same functions as those in the sensor network system 1 in the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate. To do.

第2の実施の形態における情報処理端末7aは、センサノード2との間で、直接的な無線通信を行うことができないことを除いては、第1の実施の形態における情報処理端末7とほぼ同様の構成である。   The information processing terminal 7a in the second embodiment is almost the same as the information processing terminal 7 in the first embodiment, except that direct wireless communication with the sensor node 2 cannot be performed. It is the same composition.

このような情報処理端末7aによれば、センサノード2から送信される情報は、すべてゲートウェイ4およびルータ5を介して受信される。したがって、RSSI値に基づいて、第1の実施の形態における第2推定距離を求めることはできない。すなわち、情報処理端末7aは、評価部701に相当する構成は実現できない。   According to such an information processing terminal 7a, all information transmitted from the sensor node 2 is received via the gateway 4 and the router 5. Therefore, the second estimated distance in the first embodiment cannot be obtained based on the RSSI value. That is, the information processing terminal 7a cannot realize a configuration corresponding to the evaluation unit 701.

このため、第2推定距離に応じて演出情報718を選択することはできず、センサノード2と情報処理端末7aとの間の距離は第1推定距離によって演出を変更することしかできない。   For this reason, the effect information 718 cannot be selected according to the second estimated distance, and the distance between the sensor node 2 and the information processing terminal 7a can only change the effect according to the first estimated distance.

しかし、第2の実施の形態におけるセンサネットワークシステム1aは、それ以外の点については、第1の実施の形態におけるセンサネットワークシステム1と同様の効果を得ることができる。   However, the sensor network system 1a according to the second embodiment can obtain the same effects as the sensor network system 1 according to the first embodiment with respect to other points.

<3. 第3の実施の形態>
上記実施の形態におけるセンサネットワークシステム1,1aは、いずれもゲートウェイ4を備えており、センサノード2とサーバ6との間の通信を中継するように構成されていた。
<3. Third Embodiment>
Each of the sensor network systems 1 and 1a in the above embodiment includes the gateway 4 and is configured to relay communication between the sensor node 2 and the server 6.

図20は、第3の実施の形態におけるセンサネットワークシステム1bを示す図である。第3の実施の形態におけるセンサネットワークシステム1bは、ゲートウェイ4が存在していない。そして、センサノード2とゲートウェイ4との間の無線通信および有線通信(商用電力線8による通信)がなく、センサノード2とルータ5(サーバ6)との間の通信は、すべて情報処理端末7を介して行われる点が、第1の実施の形態におけるセンサネットワークシステム1と異なっている。以下の説明では、第3の実施の形態におけるセンサネットワークシステム1bについて、第1の実施の形態におけるセンサネットワークシステム1と同様の構成および機能については同符号を付し、適宜説明を省略する。   FIG. 20 is a diagram illustrating a sensor network system 1b according to the third embodiment. In the sensor network system 1b in the third embodiment, the gateway 4 does not exist. There is no wireless communication or wired communication (communication by the commercial power line 8) between the sensor node 2 and the gateway 4, and all communication between the sensor node 2 and the router 5 (server 6) is performed by the information processing terminal 7. This is different from the sensor network system 1 in the first embodiment. In the following description, for the sensor network system 1b in the third embodiment, the same configurations and functions as those in the sensor network system 1 in the first embodiment are denoted by the same reference numerals, and description thereof is omitted as appropriate.

一般に、任意の場所に移動して撮像を行う装置として構成される情報処理端末7は携帯型の装置として構成されることが好ましい。その一方で、携帯型の装置は、所在が不確定であり、情報処理端末7が遠方に存在しているときには、センサノード2との間の直接的な無線通信が確立できないことも想定される。また、情報処理端末7は、常時起動されていることを期待することも困難であり、ユーザが使用していない期間は電源がOFFされることが頻繁に想定される。   In general, it is preferable that the information processing terminal 7 configured as a device that moves to an arbitrary place and performs imaging is configured as a portable device. On the other hand, when the location of the portable device is indeterminate and the information processing terminal 7 is located far away, it is assumed that direct wireless communication with the sensor node 2 cannot be established. . Further, it is difficult to expect that the information processing terminal 7 is always activated, and it is frequently assumed that the power is turned off during a period when the user is not using it.

一方で、第3の実施の形態におけるセンサノード2は、ゲートウェイ4との間の通信を実現する構成を省略することができることから、第1の実施の形態におけるセンサノード2よりもコスト抑制効果が期待できる。また、複数の通信相手を有する場合、通信制御も複雑になるという問題があるから、その点でも第3の実施の形態は第2の実施の形態に比べて有利である。   On the other hand, since the sensor node 2 in the third embodiment can omit the configuration for realizing communication with the gateway 4, the cost is more effective than the sensor node 2 in the first embodiment. I can expect. Further, when there are a plurality of communication partners, there is a problem that the communication control is complicated, so that the third embodiment is advantageous over the second embodiment in that respect.

これに対して、ゲートウェイ4のような装置は、据え置き型の装置として構成され、通常は、電源が投入されたままで運用される。したがって、上記実施の形態におけるセンサネットワークシステム1,1aにおいては、センサノード2とゲートウェイ4との間の通信は比較的安定している。   On the other hand, a device such as the gateway 4 is configured as a stationary device, and is normally operated with the power on. Therefore, in the sensor network systems 1 and 1a in the above embodiment, the communication between the sensor node 2 and the gateway 4 is relatively stable.

このことから、ゲートウェイ4に相当する構成が存在しない第3の実施の形態におけるセンサネットワークシステム1bでは、センサノード2と情報処理端末7との間の通信が途切れている期間は、センサノード2はサーバ6に対して監視情報211を送信し、データベースに保管させることができない。したがって、センサノード2が比較的大容量の記憶装置21を備えていなければ、情報のオーバーフローにより、監視情報211のログが正常に記録されないおそれがある。   Therefore, in the sensor network system 1b according to the third embodiment in which a configuration corresponding to the gateway 4 does not exist, the sensor node 2 is in a period during which communication between the sensor node 2 and the information processing terminal 7 is interrupted. The monitoring information 211 cannot be transmitted to the server 6 and stored in the database. Therefore, if the sensor node 2 does not include the storage device 21 having a relatively large capacity, the log of the monitoring information 211 may not be normally recorded due to the information overflow.

以上のような利害特性を考慮して、センサネットワークシステムの目的や構成に応じて、適宜、選択すれば、第3の実施の形態におけるセンサネットワークシステム1bも、第1の実施の形態におけるセンサネットワークシステム1と同様の効果を得ることができる。   The sensor network system 1b according to the third embodiment can be selected from the sensor network according to the first embodiment by appropriately selecting according to the purpose and configuration of the sensor network system in consideration of the above-described interest characteristics. An effect similar to that of the system 1 can be obtained.

<4. 変形例>
以上、本発明の実施の形態について説明してきたが、本発明は上記実施の形態に限定されるものではなく様々な変形が可能である。
<4. Modification>
Although the embodiments of the present invention have been described above, the present invention is not limited to the above embodiments, and various modifications can be made.

例えば、上記実施の形態に示した各工程は、あくまでも例示であって、同様の効果が得られるならば、適宜、順序や処理内容が変更されてもよい。   For example, each step shown in the above embodiment is merely an example, and the order and processing content may be changed as appropriate as long as the same effect can be obtained.

また、上記実施の形態に示した機能ブロック(特定部700や作成部702等)はソフトウェアにより実現されていると説明した。しかし、これら機能の一部または全部を専用の論理回路(ハードウェア)で実現してもよい。例えば、特定部700における画像解析を行う機能については、専用の画像処理ボード等によって実現すれば、処理を高速化できる。   Further, it has been described that the functional blocks (the specifying unit 700, the creating unit 702, etc.) shown in the above embodiment are realized by software. However, some or all of these functions may be realized by a dedicated logic circuit (hardware). For example, if the function of performing image analysis in the specifying unit 700 is realized by a dedicated image processing board or the like, the processing speed can be increased.

また、情報処理端末7において実現されていた機能または情報処理端末7において記憶されていた情報について、その一部が、サーバ6において実現され、記憶されていてもよい。すなわち、情報処理システム3のいずれで実現されていてもよい。   Further, part of the functions realized in the information processing terminal 7 or information stored in the information processing terminal 7 may be realized and stored in the server 6. That is, the information processing system 3 may be realized.

また、情報処理端末7に、マイクおよび音声認識機能を搭載することにより、ユーザの声による、キャラクタとのコミュニケーションを実現してもよい。このように構成することにより、ユーザのキャラクタ(表現媒体)に対する親近感が増幅される。   Moreover, you may implement | achieve communication with a character by a user's voice by carrying in the information processing terminal 7 a microphone and a voice recognition function. By comprising in this way, the familiarity with respect to a user's character (expression medium) is amplified.

1,1a,1b センサネットワークシステム
2 センサノード
211 監視情報
22 検出部
23 通信部
24 ARマーカ
3 情報処理システム
4 ゲートウェイ
5 ルータ
6 サーバ
7,7a 情報処理端末
70 CPU
700 特定部
701 評価部
702 作成部
703 入出力制御部
71 記憶装置
710 プログラム
711 演出元情報
712 撮像情報
713 報知履歴情報
714 指示情報
715 特定情報
716 距離情報
717 報知情報
718 演出情報
719 登録情報
72 操作部
73 表示部
74 スピーカ
75 撮像部
76 通信部
9 インターネット
DESCRIPTION OF SYMBOLS 1, 1a, 1b Sensor network system 2 Sensor node 211 Monitoring information 22 Detection part 23 Communication part 24 AR marker 3 Information processing system 4 Gateway 5 Router 6 Server 7, 7a Information processing terminal 70 CPU
700 Identification Unit 701 Evaluation Unit 702 Creation Unit 703 Input / Output Control Unit 71 Storage Device 710 Program 711 Production Source Information 712 Imaging Information 713 Broadcast History Information 714 Instruction Information 715 Specific Information 716 Distance Information 717 Broadcast Information 718 Production Information 719 Registration Information 72 Operation Unit 73 Display unit 74 Speaker 75 Imaging unit 76 Communication unit 9 Internet

Claims (9)

現実世界を表現した情報を監視情報として取得する1以上の検出装置と、
前記検出装置により取得された監視情報を収集する情報処理システムと、
を備え、
前記情報処理システムは、
キャラクタに関する情報を記憶する記憶手段と、
現実世界を撮像して撮像情報を取得する撮像手段と、
前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、
前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、
前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段と、
を備え、
前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、
前記撮像手段は、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得するセンサネットワークシステム。
One or more detection devices for acquiring information representing the real world as monitoring information;
An information processing system for collecting monitoring information acquired by the detection device;
With
The information processing system includes:
Storage means for storing information about the character;
Imaging means for imaging the real world and acquiring imaging information;
A specifying unit that specifies a detection device to be notified from the one or more detection devices by performing image analysis on the imaging information acquired by the imaging unit;
Creating means for creating notification information corresponding to the detection device to be notified specified by the specifying means;
Output means for outputting notification information created by the creation means together with imaging information acquired by the imaging means;
With
The broadcast information, see contains the information about stored in effect information and the storage means in accordance with the monitoring information obtained by the corresponding detector characters,
The image pickup means is a sensor network system for picking up image pickup information by picking up an image of a board listing markers corresponding to each of the one or more detection devices .
請求項1に記載のセンサネットワークシステムであって、
前記1以上の検出装置との間で、直接的な無線通信を行う通信手段と、
前記通信手段における無線通信の状態を評価し、当該評価に基づいて前記特定手段により特定された報知対象となる検出装置と前記撮像手段との間の距離を推定する評価手段と、
をさらに備え、
前記撮像手段は、前記通信手段と一体的な構造物を構成しており、
前記作成手段は、前記評価手段により推定された距離に応じて前記報知対象となる検出装置に対応して作成すべき報知情報を作成するとともに、前記評価手段により推定された距離に応じて前記1以上の検出装置の中から報知対象となる検出装置を特定するとともに、当該特定した報知対象となる検出装置に対応して作成すべき報知情報を作成するセンサネットワークシステム。
The sensor network system according to claim 1,
Communication means for performing direct wireless communication with the one or more detection devices;
An evaluation unit that evaluates a state of wireless communication in the communication unit, and that estimates a distance between a detection device that is a notification target identified by the identification unit based on the evaluation and the imaging unit;
Further comprising
The imaging means constitutes an integral structure with the communication means,
The creating means creates notifying information to be created corresponding to the detecting device to be notified according to the distance estimated by the evaluating means, and the 1 according to the distance estimated by the evaluating means. A sensor network system that specifies a detection device to be notified from the above detection devices and generates notification information to be generated corresponding to the specified detection device to be notified .
現実世界を表現した情報を監視情報として取得する1以上の検出装置と、
前記検出装置により取得された監視情報を収集する情報処理システムと、
を備え、
前記情報処理システムは、
キャラクタに関する情報を記憶する記憶手段と、
前記1以上の検出装置との間で、直接的な無線通信を行う通信手段と、
前記通信手段における無線通信の状態を評価し、当該評価に基づいて前記1以上の検出装置と前記撮像手段との間の距離を推定する評価手段と、
前記通信手段と一体的な構造物を構成し、現実世界を撮像して撮像情報を取得する撮像手段と、
前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、
前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、
前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段と、
を備え、
前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、
前記作成手段は、前記評価手段により推定された距離に応じて前記特定手段により特定された報知対象となる検出装置に対応して作成すべき報知情報を作成するとともに、前記評価手段により推定された距離に応じて前記1以上の検出装置の中から報知対象となる検出装置を特定するとともに当該特定した報知対象となる検出装置に対応して作成すべき報知情報を作成するセンサネットワークシステム。
One or more detection devices for acquiring information representing the real world as monitoring information;
An information processing system for collecting monitoring information acquired by the detection device;
With
The information processing system includes:
Storage means for storing information about the character;
Communication means for performing direct wireless communication with the one or more detection devices;
Evaluation means for evaluating a state of wireless communication in the communication means, and estimating a distance between the one or more detection devices and the imaging means based on the evaluation;
An imaging means that constitutes a structure integrated with the communication means, images the real world, and acquires imaging information;
A specifying unit that specifies a detection device to be notified from the one or more detection devices by performing image analysis on the imaging information acquired by the imaging unit;
Creating means for creating notification information corresponding to the detection device to be notified specified by the specifying means;
Output means for outputting notification information created by the creation means together with imaging information acquired by the imaging means;
With
The notification information includes effect information according to the monitoring information acquired by the corresponding detection device and information about the character stored in the storage means,
The creating means creates notifying information to be created corresponding to the detecting device to be notified specified by the specifying means according to the distance estimated by the evaluating means, and is estimated by the evaluating means A sensor network system that specifies a detection device to be notified from among the one or more detection devices according to a distance and generates notification information to be generated corresponding to the specified detection device to be notified .
請求項1ないし3のいずれかに記載のセンサネットワークシステムであって、
前記出力手段は、前記撮像手段により撮像された撮像画像に含まれるマーカを他の画像に置換するセンサネットワークシステム。
The sensor network system according to any one of claims 1 to 3,
The sensor network system in which the output unit replaces a marker included in a captured image captured by the imaging unit with another image .
現実世界を表現した情報を監視情報として取得する1以上の検出装置と、
前記検出装置により取得された監視情報を収集する情報処理システムと、
を備え、
前記情報処理システムは、
キャラクタに関する情報を記憶する記憶手段と、
現実世界を撮像して撮像情報を取得する撮像手段と、
前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、
前記特定手段により特定された報知対象となる検出装置に対応した報知情報を作成する作成手段と、
前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段と、
を備え、
前記報知情報は、対応する検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含み、
前記出力手段は、前記撮像手段により撮像された撮像画像に含まれるマーカを他の画像に置換するセンサネットワークシステム。
One or more detection devices for acquiring information representing the real world as monitoring information;
An information processing system for collecting monitoring information acquired by the detection device;
With
The information processing system includes:
Storage means for storing information about the character;
Imaging means for imaging the real world and acquiring imaging information;
A specifying unit that specifies a detection device to be notified from the one or more detection devices by performing image analysis on the imaging information acquired by the imaging unit;
Creating means for creating notification information corresponding to the detection device to be notified specified by the specifying means;
Output means for outputting notification information created by the creation means together with imaging information acquired by the imaging means;
With
The notification information includes effect information according to the monitoring information acquired by the corresponding detection device and information about the character stored in the storage means,
The sensor network system in which the output unit replaces a marker included in a captured image captured by the imaging unit with another image .
請求項1ないし5のいずれかに記載のセンサネットワークシステムであって、
前記出力手段により出力された報知情報を報知履歴情報として保存する保存手段をさらに備えるセンサネットワークシステム。
A sensor network system according to any one of claims 1 to 5,
A sensor network system further comprising storage means for storing the notification information output by the output means as notification history information .
請求項1ないし6のいずれかに記載のセンサネットワークシステムであって、
前記特定手段は、特定した報知対象となる検出装置と前記撮像手段との間の距離を、前記撮像手段により取得した撮像情報を解析することにより推定し、
前記作成手段は、前記特定手段により特定された報知対象となる検出装置に対応して作成すべき報知情報を、前記特定手段により推定された距離に応じて作成するセンサネットワークシステム。
The sensor network system according to any one of claims 1 to 6 ,
The specifying unit estimates a distance between the specified detection device to be notified and the imaging unit by analyzing imaging information acquired by the imaging unit,
The sensor network system in which the creation means creates notification information to be created corresponding to the detection device to be notified specified by the specification means according to the distance estimated by the specification means .
キャラクタに関する情報を記憶手段に記憶する工程と、Storing information about the character in the storage means;
現実世界を表現した監視情報を1以上の検出装置によって取得する工程と、Acquiring monitoring information representing the real world with one or more detection devices;
前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像して撮像情報を取得する工程と、Imaging a board listing markers corresponding to each of the one or more detection devices to obtain imaging information;
現実世界を撮像して撮像情報を取得する工程と、Imaging the real world and obtaining imaging information;
取得された前記撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する工程と、Identifying a detection device to be notified from among the one or more detection devices by performing image analysis on the acquired imaging information;
特定された前記報知対象となる検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含むとともに、前記報知対象となる検出装置に対応した報知情報を作成する工程と、In addition to the production information according to the monitoring information acquired by the specified detection device as the notification target and information about the character stored in the storage unit, the notification information corresponding to the detection device as the notification target is included. Creating a process;
取得された前記撮像情報とともに作成された前記報知情報を出力する工程と、Outputting the notification information created together with the acquired imaging information;
を有する情報提供方法。A method for providing information.
現実世界を表現した情報を監視情報として取得する1以上の検出装置とネットワークを介して接続されるコンピュータによって実行されるプログラムであって、前記プログラムの前記コンピュータによる実行は、前記コンピュータを、
キャラクタに関する情報を記憶する記憶手段と、
現実世界を撮像して撮像情報を取得する撮像手段と、
前記撮像手段により取得された撮像情報を画像解析することにより前記1以上の検出装置の中から報知対象となる検出装置を特定する特定手段と、
前記特定手段により特定された報知対象となる検出装置により取得された監視情報に応じた演出情報と前記記憶手段に記憶されたキャラクタに関する情報とを含むとともに、前記報知対象となる検出装置に対応した報知情報を作成する作成手段と、
前記撮像手段により取得された撮像情報とともに前記作成手段により作成された報知情報を出力する出力手段と、
を備えるコンピュータとして機能させ、
前記撮像手段は、前記1以上の検出装置のそれぞれに対応したマーカを一覧掲載するボードを撮像するプログラム
A program that is executed by a computer connected via a network with one or more detection devices that acquire information representing the real world as monitoring information.
Storage means for storing information about the character;
Imaging means for imaging the real world and acquiring imaging information;
A specifying unit that specifies a detection device to be notified from the one or more detection devices by performing image analysis on the imaging information acquired by the imaging unit;
It includes presentation information corresponding to the monitoring information acquired by the detection device that is the notification target specified by the specifying means and information about the character stored in the storage means, and corresponds to the detection device that is the notification target. Creating means for creating broadcast information;
Output means for outputting notification information created by the creation means together with imaging information acquired by the imaging means;
Function as a computer with
The imaging means is a program for imaging a board that lists a marker corresponding to each of the one or more detection devices .
JP2011013589A 2011-01-26 2011-01-26 Sensor network system, information providing method and program Expired - Fee Related JP5792473B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011013589A JP5792473B2 (en) 2011-01-26 2011-01-26 Sensor network system, information providing method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011013589A JP5792473B2 (en) 2011-01-26 2011-01-26 Sensor network system, information providing method and program

Publications (2)

Publication Number Publication Date
JP2012156737A JP2012156737A (en) 2012-08-16
JP5792473B2 true JP5792473B2 (en) 2015-10-14

Family

ID=46838022

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011013589A Expired - Fee Related JP5792473B2 (en) 2011-01-26 2011-01-26 Sensor network system, information providing method and program

Country Status (1)

Country Link
JP (1) JP5792473B2 (en)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2973071B1 (en) * 2013-03-15 2020-05-06 Fluke Corporation Automatic recording and graphing of measurement data
JP5927242B2 (en) * 2014-06-25 2016-06-01 株式会社デジタル Image data creation device and portable terminal device
JP6687835B2 (en) * 2016-02-10 2020-04-28 株式会社Jvcケンウッド Mobile terminal device and program
JP6844887B2 (en) * 2017-03-28 2021-03-17 Necソリューションイノベータ株式会社 Sensor node installation system and sensor node installation method
JP2022139816A (en) * 2021-03-12 2022-09-26 オムロン株式会社 Sensor, communication terminal, method for controlling sensor, and control program
JP7025583B1 (en) * 2021-06-21 2022-02-24 東京瓦斯株式会社 Sensor network system

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10133438B2 (en) * 2008-09-17 2018-11-20 Nokia Technologies Oy User interface for augmented reality

Also Published As

Publication number Publication date
JP2012156737A (en) 2012-08-16

Similar Documents

Publication Publication Date Title
JP5792473B2 (en) Sensor network system, information providing method and program
JP6410119B2 (en) Information display method
US10868692B2 (en) Monitoring device using automation network
CN105222773B (en) Air navigation aid and device
JP6773037B2 (en) Information processing equipment, information processing methods and programs
JP5526860B2 (en) Spatial information visualization system
KR101814600B1 (en) Method and apparatus for connecting communication
CN108348119A (en) Robot cleaner and its control method
US20090085762A1 (en) Information transmitting device, information acquiring terminal, and information distributing system
CN105279898A (en) Alarm method and device
JPWO2018198319A1 (en) Wearable terminal display system, wearable terminal display method and program
CN105372999A (en) Data processing method and device
KR101894389B1 (en) Method and apparatus for connecting between devices
US10989426B2 (en) Information processing device, electronic apparatus, method, and program
JP2021152928A (en) Terminal device, method, and program
CN108600062B (en) Control method, device and system of household appliance
EP3762906A1 (en) System and method for preventing false alarms due to display images
CN105488965A (en) Alarm method and device
CN109492515B (en) Information processing apparatus, data structure of image file, and computer-readable medium
CN106161540B (en) General multifunctional sensor service platform
CN115174299B (en) Binding method of household equipment and electronic equipment
JP2018115915A (en) Dust sensor system, and method and program for determining need for cleaning
CN113012805B (en) Health self-diagnosis method, system and related equipment
JP6169408B2 (en) measuring device
CN115314826A (en) Microphone calibration method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130319

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131129

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140107

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140219

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140805

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141029

A911 Transfer of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141107

A912 Removal of reconsideration by examiner before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20150109

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150806

R150 Certificate of patent or registration of utility model

Ref document number: 5792473

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees