JP2016038703A - Sensor control device, sensor control method and sensor control program - Google Patents

Sensor control device, sensor control method and sensor control program Download PDF

Info

Publication number
JP2016038703A
JP2016038703A JP2014161191A JP2014161191A JP2016038703A JP 2016038703 A JP2016038703 A JP 2016038703A JP 2014161191 A JP2014161191 A JP 2014161191A JP 2014161191 A JP2014161191 A JP 2014161191A JP 2016038703 A JP2016038703 A JP 2016038703A
Authority
JP
Japan
Prior art keywords
sensor
query
identifier
data
attribute
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2014161191A
Other languages
Japanese (ja)
Other versions
JP6301779B2 (en
Inventor
聡 小柴
Satoshi Koshiba
聡 小柴
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Communications Corp
Original Assignee
NTT Communications Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Communications Corp filed Critical NTT Communications Corp
Priority to JP2014161191A priority Critical patent/JP6301779B2/en
Publication of JP2016038703A publication Critical patent/JP2016038703A/en
Application granted granted Critical
Publication of JP6301779B2 publication Critical patent/JP6301779B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)

Abstract

PROBLEM TO BE SOLVED: To assist a user in search for a desired sensor.SOLUTION: A sensor control device 1 comprises: a storage device 10 which stores sensor attribute data 11 in which a sensor identifier, sensor positional information, a sensor attribute and an identifier of a site where detection data on the sensor is disclosed are associated with each other; and search means 22 which, when query including positional information and application is input, according to the sensor attribute data 11, acquires an identifier of a sensor which is associated with positional information within predetermined distance from the sensor positional information and associated with an attribute corresponding to the application of the query, and outputs an identifier of a site corresponding to the acquired identifier of a sensor.SELECTED DRAWING: Figure 1

Description

本発明は、センサの情報を管理するセンサ制御装置、センサ制御方法およびセンサ制御プログラムに関する。   The present invention relates to a sensor control device, a sensor control method, and a sensor control program for managing sensor information.

昨今の情報機器および通信ネットワークの発達に伴い、ライブカメラ、環境気象センサなど、様々なセンサが配置され、通信ネットワークを介して配信される(例えば、特許文献1参照。)。また多くの場所にライブカメラや環境気象センサが設置されていることから、これらの情報をまとめて提供するサイトも存在する。ライブカメラの情報を提供するサイトでは、ライブカメラの撮影データのURLへのリンクを表示したり、ライブカメラの撮影データを取り込んで表示したりする。   With the recent development of information devices and communication networks, various sensors such as live cameras and environmental weather sensors are arranged and distributed via the communication network (for example, see Patent Document 1). In addition, since live cameras and environmental weather sensors are installed in many places, there are sites that provide this information together. On a site that provides live camera information, a link to the URL of live camera shooting data is displayed, or live camera shooting data is captured and displayed.

このようなセンサの検知データの公開においては、企業などが提供する大規模な配信サービスのみならず、小規模団体や個人が提供する小規模な配信サービスもある。また、個人などに小規模なライブ映像の提供を募って、主要都市の空模様をライブ映像で提供するサービスもある。   Such disclosure of sensor detection data includes not only large-scale distribution services provided by companies, but also small-scale distribution services provided by small groups and individuals. There is also a service that invites individuals and others to provide small-scale live images and provides sky images of major cities as live images.

特開2003−125389号公報JP 2003-125389 A

しかしながら、ユーザが所望のセンサを検索することが難しい場合がある。   However, it may be difficult for the user to search for a desired sensor.

具体的には、大規模な配信サービスにおいては、サービス提供者が各センサの情報をデータベースに登録する必要があるので、小規模な配信サービスに用いられるセンサまでは網羅することが難しい。また、所望の位置のみならず、所望の用途も適合するセンサを検索することが困難な場合もある。   Specifically, in a large-scale distribution service, since it is necessary for the service provider to register information of each sensor in a database, it is difficult to cover even the sensors used for the small-scale distribution service. In addition, it may be difficult to search for a sensor that matches not only a desired position but also a desired application.

従って本発明の目的は、ユーザによる所望のセンサの検索を支援するセンサ制御装置、センサ制御方法およびセンサ制御プログラムを提供することである。   Accordingly, an object of the present invention is to provide a sensor control device, a sensor control method, and a sensor control program that assist a user in searching for a desired sensor.

上記課題を解決するために、本発明の第1の特徴は、センサの情報を管理するセンサ制御装置に関する。本発明の第1の特徴に係るセンサ制御装置は、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶装置と、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索手段を備える。   In order to solve the above problems, a first feature of the present invention relates to a sensor control device that manages sensor information. The sensor control device according to the first aspect of the present invention stores sensor attribute data in which sensor identifiers, sensor position information, sensor attributes, and site identifiers that disclose detection data of the sensors are associated with each other. When a query including a device, position information, and use is input, the sensor attribute data is associated with position information within a predetermined distance from the position information of the query, and is associated with an attribute corresponding to the use of the query. Search means for acquiring a sensor identifier and outputting a site identifier corresponding to the acquired sensor identifier is provided.

検索手段はさらに、サイトの識別子に基づいて、サイトからセンサの検知データを取得して、クエリの位置情報と、取得した検知データを対応づけて、出力しても良い。   The search means may further acquire sensor detection data from the site based on the site identifier, and output the query position information and the acquired detection data in association with each other.

クエリの位置情報が、2点を結ぶルートの情報である場合、検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得しても良い。   When the position information of the query is information on a route connecting two points, the search means associates the position information within a predetermined distance from the route with the sensor associated with the attribute corresponding to the use of the query. An identifier may be acquired.

センサは、カメラで、検知データは、撮影データであって、センサの属性は、カメラが撮影する方向または被写体を含み、クエリの用途が、道路の混雑状況の場合、検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ属性が、当該カメラが道路を撮影することを示すカメラの識別子を取得しても良い。   When the sensor is a camera, the detection data is shooting data, the sensor attribute includes the direction or subject to be shot by the camera, and the usage of the query is road congestion, the search means A camera identifier associated with position information within a predetermined distance and having an attribute indicating that the camera captures a road may be acquired.

センサは、カメラで、検知データは、撮影データであって、検索手段は、取得したカメラの識別子に対応する撮影データのサイトの識別子から、所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力するとともに、所定時間より短い時間間隔毎に新たな撮影データを取得し、新たな撮影データにおける動体の位置を、静止画データに重畳して、出力しても良い。   The sensor is a camera, the detection data is shooting data, and the search means acquires shooting data at predetermined time intervals from the identifier of the shooting data site corresponding to the acquired camera identifier. May be output as still image data, new shooting data may be acquired at intervals shorter than a predetermined time, and the position of a moving object in the new shooting data may be superimposed on the still image data and output.

センサは、環境気象センサで、センサの属性は、当該センサが検知可能な環境気象種別で、検知データは、環境気象センサが検知した値であって、検索手段において、クエリの用途に適する属性は、クエリの用途に対応する環境気象種別であっても良い。   The sensor is an environmental weather sensor, and the sensor attribute is an environmental weather type that can be detected by the sensor. The detection data is a value detected by the environmental weather sensor. The environmental weather type corresponding to the use of the query may be used.

検索手段は検知データを要求する要求ユーザ端末と、検知データを提供可能な提供ユーザ端末に接続し、要求ユーザ端末から、クエリが入力されると、センサ属性データを検索してクエリに対応するセンサが検索されない場合、提供ユーザ端末にクエリを通知し、提供ユーザ端末のうち、クエリに対応するセンサの検知データを提供する提供ユーザ端末から検知データを受信して、要求ユーザ端末に送信しても良い。   The search means is connected to a requesting user terminal that requests detection data and a providing user terminal that can provide the detection data. When a query is input from the requesting user terminal, a sensor corresponding to the query is searched by searching sensor attribute data. Is not searched, the query is sent to the providing user terminal, and the detection data is received from the providing user terminal that provides the detection data of the sensor corresponding to the query, and transmitted to the requesting user terminal. good.

本発明の第2の特徴は、センサ制御装置が、センサの情報を管理するセンサ制御方法に関する。本発明の第2の特徴に係るセンサ制御方法は、センサ制御装置が、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、センサ制御装置が、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索ステップを備える。   A second feature of the present invention relates to a sensor control method in which a sensor control device manages sensor information. In the sensor control method according to the second aspect of the present invention, the sensor control device associates the identifier of the sensor, the sensor position information, the attribute of the sensor, and the identifier of the site where the detection data of the sensor is disclosed. When a query including the storage step for storing data and the sensor control device receives the position information and the application, the sensor attribute data is associated with the position information within a predetermined distance from the position information of the query, and the query A search step of obtaining an identifier of a sensor associated with an attribute corresponding to a use and outputting an identifier of a site corresponding to the obtained identifier of the sensor is provided.

本発明の第3の特徴は、センサの情報を管理するセンサ制御プログラムに関する。本発明の第3の特徴に係るセンサ制御プログラムは、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索ステップを、コンピュータに実行させる。   A third feature of the present invention relates to a sensor control program for managing sensor information. A sensor control program according to a third aspect of the present invention stores a sensor attribute data in which a sensor identifier, sensor position information, a sensor attribute, and a site identifier that discloses detection data of the sensor are associated with each other. When a query including a step, position information, and use is input, the sensor attribute data is associated with position information within a predetermined distance from the query position information, and is associated with an attribute corresponding to the query use. The computer is caused to execute a search step of acquiring a sensor identifier and outputting a site identifier corresponding to the acquired sensor identifier.

本発明によれば、ユーザによる所望のセンサの検索を支援するセンサ制御装置、センサ制御方法およびセンサ制御プログラムを提供することができる。   ADVANTAGE OF THE INVENTION According to this invention, the sensor control apparatus, the sensor control method, and sensor control program which assist the search of the desired sensor by a user can be provided.

図1は、センサ制御装置のハードウェア構成および機能ブロックを説明する図である。FIG. 1 is a diagram illustrating a hardware configuration and functional blocks of a sensor control device. 図2は、センサ属性データのデータ構造とデータの一例を示す図である。FIG. 2 is a diagram illustrating an example of the data structure and data of sensor attribute data. 図3は、検索手段による空模様の表示画面の一例を説明する図である(その1)。FIG. 3 is a diagram for explaining an example of a sky display screen by the search means (part 1). 図4は、検索手段による空模様の表示画面の一例を説明する図である(その2)。FIG. 4 is a diagram for explaining an example of a sky display screen by the search means (part 2). 図5は、ルート表示手段による表示画面の一例を説明する図である(その1)。FIG. 5 is a diagram for explaining an example of a display screen by the route display means (part 1). 図6は、ルート表示手段による表示画面の一例を説明する図である(その2)。FIG. 6 is a diagram for explaining an example of a display screen by the route display means (part 2). 図7は、ルート表示手段による表示画面の一例を説明する図である(その3)。FIG. 7 is a view for explaining an example of a display screen by the route display means (part 3). 図8は、動線表示手段による動線表示処理を説明するフローチャートである。FIG. 8 is a flowchart for explaining the flow line display processing by the flow line display means. 図9は、動線表示手段による表示画面の一例を説明する図である(その1)。FIG. 9 is a diagram for explaining an example of a display screen by the flow line display means (part 1). 図10は、動線表示手段による表示画面の一例を説明する図である(その2)。FIG. 10 is a diagram for explaining an example of a display screen by the flow line display means (part 2). 図11は、動線表示手段による表示画面の一例を説明する図である(その3)。FIG. 11 is a diagram for explaining an example of a display screen by the flow line display means (part 3). 図12は、動線表示手段による表示画面の一例を説明する図である(その4)。FIG. 12 is a view for explaining an example of a display screen by the flow line display means (No. 4). 図13は、センサ要求処理手段を説明するシーケンス図である。FIG. 13 is a sequence diagram for explaining the sensor request processing means.

次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。   Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.

(センサ制御システム)
図1を参照して、本発明の実施の形態に係るセンサ制御システム100を説明する。センサ制御システム100は、センサ制御装置1、検知データ提供サーバ2、カメラ3a、環境気象センサ3bおよびユーザ端末4を備える。センサ制御装置1は、通信ネットワーク5を介して、検知データ提供サーバ2およびユーザ端末4と相互に通信可能に接続される。
(Sensor control system)
A sensor control system 100 according to an embodiment of the present invention will be described with reference to FIG. The sensor control system 100 includes a sensor control device 1, a detection data providing server 2, a camera 3a, an environmental weather sensor 3b, and a user terminal 4. The sensor control device 1 is connected to the detection data providing server 2 and the user terminal 4 via the communication network 5 so as to be able to communicate with each other.

センサ3は、カメラ3aや環境気象センサ3bである。カメラ3aは、典型的には、所定位置に設置され、動画で配信するライブカメラであるが、所定時間おきに静止画を撮影するデジタルカメラでもよいし、スマートフォンなどの可搬性端末に備えられるカメラでも良い。環境気象センサ3bは、二酸化窒素、光化学オキシダント、PM2.5、紫外線などの有害物質を測定するセンサである。   The sensor 3 is a camera 3a or an environmental weather sensor 3b. The camera 3a is typically a live camera installed at a predetermined position and distributed as a moving image. However, the camera 3a may be a digital camera that captures a still image every predetermined time, or a camera provided in a portable terminal such as a smartphone. But it ’s okay. The environmental weather sensor 3b is a sensor that measures harmful substances such as nitrogen dioxide, photochemical oxidant, PM2.5, and ultraviolet rays.

センサ3は検知データを出力する。センサ3がカメラ3aの場合、検知データは、動画データや静止画データなどの撮影データである。センサ3が環境気象センサ3bの場合、検知データは、各有害物質について、環境気象センサ3bが検知した値のデータである。   The sensor 3 outputs detection data. When the sensor 3 is the camera 3a, the detection data is shooting data such as moving image data or still image data. When the sensor 3 is the environmental weather sensor 3b, the detection data is data of values detected by the environmental weather sensor 3b for each harmful substance.

なお、本発明の実施の形態においては、センサ3がカメラ3aや環境気象センサ3bの場合を説明するが、これに限られない。   In the embodiment of the present invention, the case where the sensor 3 is the camera 3a or the environmental weather sensor 3b will be described, but the present invention is not limited to this.

検知データ提供サーバ2は、例えばウェブサーバやストリーミング配信サーバであって、センサ3から検知データを取得して、検知データを提供する。検知データ提供サーバ2は、検知データ提供サーバ2に接続するセンサ制御装置1、ユーザ端末4等のコンピュータに、検知データを提供する。なお、センサ3と検知データ提供サーバ2は、同一筐体で実装されても良い。例えば、センサ3が、可搬性端末に備えられるカメラ3aの場合、検知データ提供サーバ2は、そのカメラ3aを備える可搬性端末であっても良い。   The detection data providing server 2 is, for example, a web server or a streaming distribution server, and acquires detection data from the sensor 3 and provides the detection data. The detection data providing server 2 provides detection data to computers such as the sensor control device 1 and the user terminal 4 connected to the detection data providing server 2. The sensor 3 and the detection data providing server 2 may be mounted in the same housing. For example, when the sensor 3 is a camera 3a provided in a portable terminal, the detection data providing server 2 may be a portable terminal provided with the camera 3a.

ユーザ端末4は、ユーザが利用する端末であって、例えば、スマートフォン、タブレット端末、ノートパソコン、デスクトップパソコンなどである。ユーザ端末4は、可搬性を備えていても良いし、備えていなくても良い。ユーザ端末4は、ユーザの操作等により、センサ制御装置1に、センサ3を検索するためのクエリ等を入力する。ユーザ端末4は、センサ制御装置1から検知データを取得しても良いし、センサ制御装置1から検知データを提供している検知データ提供サーバ2のURLを取得して、検知データ提供サーバ2から所望のセンサ3の検知データを取得しても良い。   The user terminal 4 is a terminal used by the user, and is, for example, a smartphone, a tablet terminal, a notebook computer, or a desktop personal computer. The user terminal 4 may or may not have portability. The user terminal 4 inputs a query or the like for searching for the sensor 3 to the sensor control device 1 by a user operation or the like. The user terminal 4 may acquire the detection data from the sensor control device 1, or may acquire the URL of the detection data providing server 2 that provides the detection data from the sensor control device 1, from the detection data providing server 2. Detection data of the desired sensor 3 may be acquired.

またユーザ端末4は、カメラ3aや環境気象センサ3bなどのセンサ3を備えても良い。ユーザ端末4は、断続的に、或いは所定のタイミングで、センサ3の検知データを、検知データ提供サーバ2を介して、または、検知データ提供サーバ2を介すことなく、センサ制御装置1に送信しても良い。   The user terminal 4 may include a sensor 3 such as a camera 3a or an environmental weather sensor 3b. The user terminal 4 transmits the detection data of the sensor 3 intermittently or at a predetermined timing to the sensor control apparatus 1 via the detection data providing server 2 or without passing through the detection data providing server 2. You may do it.

(センサ制御装置)
センサ制御装置1は、センサの情報を管理する。センサ制御装置1は、検知データ提供サーバ2およびユーザ端末4等に接続して、センサを検索するためのクエリを受信し、クエリに適するセンサの情報を取得して、ユーザ端末4等に提供する。センサ制御装置1は、記憶装置10、処理制御装置20および通信制御装置30を備える一般的なコンピュータである。一般的なコンピュータが所定の処理を実行するためのセンサ制御プログラムを実行することにより、図1に示す各機能を実現する。
(Sensor control device)
The sensor control device 1 manages sensor information. The sensor control device 1 is connected to the detection data providing server 2 and the user terminal 4 or the like, receives a query for searching for a sensor, acquires sensor information suitable for the query, and provides it to the user terminal 4 or the like. . The sensor control device 1 is a general computer including a storage device 10, a processing control device 20, and a communication control device 30. The functions shown in FIG. 1 are realized by a general computer executing a sensor control program for executing predetermined processing.

通信制御装置30は、センサ制御装置1を通信ネットワーク5に接続するためのインタフェースである。   The communication control device 30 is an interface for connecting the sensor control device 1 to the communication network 5.

記憶装置10は、センサ制御プログラムを記憶するとともに、センサ属性データ11およびユーザデータ12を記憶する。センサ属性データ11およびユーザデータ12は、データベースとして構築され、APIアクセスを可能としても良い。この場合、APIで定められた入力があれば、このAPIで定められた通りに出力する。   The storage device 10 stores a sensor control program and also stores sensor attribute data 11 and user data 12. The sensor attribute data 11 and the user data 12 may be constructed as a database and allow API access. In this case, if there is an input defined by the API, it is output as defined by the API.

センサ属性データ11は、図2(a)に示すように、センサ3の識別子、センサ3の位置情報、センサ3の属性、およびセンサ3の検知データを公開するサイトの識別子を対応づけたデータである。センサの識別子は、センサの名称であっても良いし、センサ制御装置1が個々のセンサを識別可能なコードであっても良い。センサ3の位置情報は、センサが設置された緯度経度、住所、地名、駅名、通り名などである。センサ3が可搬性を備える場合、センサ3の位置情報に、この位置で検知データを提供可能な時間が対応づけられても良い。サイトの識別子は、センサ3の検知データを公開する検知データ提供サーバ2のURLである。ここでセンサ3がカメラ3aの場合、サイトの識別子は、サムネイル用と、縮小されていない画像用とで、異なるURLが設定されても良い。   As shown in FIG. 2A, the sensor attribute data 11 is data in which the identifier of the sensor 3, the position information of the sensor 3, the attribute of the sensor 3, and the identifier of the site that discloses the detection data of the sensor 3 are associated with each other. is there. The sensor identifier may be a name of the sensor or a code that allows the sensor control device 1 to identify each sensor. The position information of the sensor 3 includes latitude / longitude, address, place name, station name, street name, etc. where the sensor is installed. When the sensor 3 has portability, the position information of the sensor 3 may be associated with the time during which the detection data can be provided at this position. The site identifier is the URL of the detection data providing server 2 that discloses the detection data of the sensor 3. Here, when the sensor 3 is the camera 3a, different URLs may be set as the site identifiers for thumbnails and unreduced images.

センサ3の属性は、クエリに適合する用途に合致するか否かを判定するために参照されるデータである。センサ3の属性は、図2(a)に示すように、種別、キーワード、動作ステータス、利用者評価などである。種別は、カメラ3a、環境気象センサ3bなどのセンサ3の種類である。キーワードは、センサ3の特徴を示す用語であって、例えば近隣のランドマークや地名などである。動作ステータスは、センサ3が現在動作中であるか否か、具体的には、センサ制御装置1またはユーザ端末4が、このセンサ3の検知データを取得可能であるか否かを示す。利用者評価は、例えば点数形式のセンサ3の評価である。利用者評価は、センサの検知データを参照したユーザ端末4のユーザが、検知データやセンサ3を評価することにより、設定されても良い。また利用者評価は、ユーザが複数のセンサ3から選択したセンサ3についてプラス評価を付したりすることにより設定されても良い。   The attribute of the sensor 3 is data that is referred to in order to determine whether or not the application conforms to the query. As shown in FIG. 2A, the attributes of the sensor 3 include a type, a keyword, an operation status, a user evaluation, and the like. The type is the type of the sensor 3 such as the camera 3a or the environmental weather sensor 3b. The keyword is a term indicating the characteristics of the sensor 3 and is, for example, a nearby landmark or a place name. The operation status indicates whether or not the sensor 3 is currently operating, specifically, whether or not the sensor control device 1 or the user terminal 4 can acquire the detection data of the sensor 3. User evaluation is evaluation of the sensor 3 of a score format, for example. The user evaluation may be set by the user of the user terminal 4 referring to the detection data of the sensor by evaluating the detection data and the sensor 3. The user evaluation may be set by giving a positive evaluation to the sensor 3 selected by the user from the plurality of sensors 3.

センサ3がカメラ3aの場合、属性は、図2(a)に示すように、解像度、転送レート、撮影データの圧縮方式、配信方式、カメラの方向、角度、被写体、カメラ種別なども含む。撮影データの圧縮方式は、JPEG、MPEGなどであって、撮影データのデコート方法を示すとともに、動画、静止画などの撮影データの別を示す。配信方法は、撮影データをダウンロードするか、ストリーミングで配信するかの別である。カメラの方向は、例えば、「真北から時計回りに90度」など、水平方向でのカメラの角度を意味し、カメラの角度は、例えば、「水平から上方に30度」など、垂直方向でのカメラの角度を意味する。カメラ種別は、固定カメラか可搬性を備えるカメラかの別である。   When the sensor 3 is the camera 3a, the attributes include resolution, transfer rate, shooting data compression method, distribution method, camera direction, angle, subject, camera type, and the like, as shown in FIG. The shooting data compression method is JPEG, MPEG, etc., and indicates the shooting data decoding method, and indicates the shooting data such as moving images and still images. The distribution method is different depending on whether the shooting data is downloaded or distributed by streaming. The camera direction means a camera angle in the horizontal direction, for example, “90 degrees clockwise from true north”, and the camera angle is, for example, “30 degrees upward from the horizontal” in the vertical direction. Means the angle of the camera. The camera type is a fixed camera or a camera having portability.

センサ3が環境気象センサ3bの場合、属性は、図2(a)に示すように、この環境気象センサ3bが検知可能な環境気象種別であって、具体的には、二酸化窒素、光化学オキシダント、PM2.5、紫外線などである。例えば図2に示すように、環境気象センサ3bの属性として、この環境気象センサ3bが検知可能な環境気象種別にTRUEがセットされ、検知不可能な環境気象種別にFALSEがセットされても良い。   When the sensor 3 is an environmental weather sensor 3b, as shown in FIG. 2A, the attribute is an environmental weather type that can be detected by the environmental weather sensor 3b, specifically, nitrogen dioxide, photochemical oxidant, PM2.5, ultraviolet rays and the like. For example, as shown in FIG. 2, as the attribute of the environmental weather sensor 3b, TRUE may be set for the environmental weather type that can be detected by the environmental weather sensor 3b, and FALSE may be set for the environmental weather type that cannot be detected.

なお、図2(a)に示すように、属性として、上記に示した属性の各項目に加えて、各センサが、どのような用途に適しているかを示す用途フラグを設けても良い。例えば、屋外を撮影するカメラ3aは、空の様子や、傘をさしている人の数などから降雨状況を確認可能である。従って、屋外を撮影するカメラ3aのうち、降雨状況を確認できる解像度を持つカメラ3aの識別子に、「空模様」の用途フラグにTRUEがセットされる。また、屋外を撮影するカメラ3aが、道路を撮影する場合、道路の混雑状況を確認可能である。従って、屋外を撮影するカメラ3aのうち、被写体に道路を含むカメラ3aの識別子に、「道路の混雑状況」の用途フラグにTRUEがセットされる。   As shown in FIG. 2A, in addition to the above-described attribute items, an application flag indicating which application each sensor is suitable for may be provided as an attribute. For example, the camera 3a that shoots outdoors can check the rain condition from the sky and the number of people wearing umbrellas. Therefore, TRUE is set to the use flag of “sky pattern” in the identifier of the camera 3 a having a resolution capable of confirming the rain condition among the cameras 3 a that photograph the outdoors. In addition, when the camera 3a that captures the outdoors captures a road, it is possible to check the congestion of the road. Accordingly, TRUE is set to the use flag of “road congestion” in the identifier of the camera 3a that includes a road as a subject among the cameras 3a that photograph the outdoors.

またセンサ属性データ11の他の例として、図2(b)に示すように、上記に示した属性の各項目に代えて、用途フラグが設けられても良い。   As another example of the sensor attribute data 11, as shown in FIG. 2B, a usage flag may be provided instead of each item of the attribute shown above.

ユーザデータ12は、センサ制御システム100を利用するユーザ端末4のリストである。ユーザデータ12は、ユーザ端末4の識別子に、このユーザ端末4が有するセンサ3の識別子およびユーザ端末4の位置を対応づけて記憶しても良い。さらにユーザデータ12は、各ユーザのセンサ制御システム100における貢献度等に応じて付与された評価を対応づけて記憶しても良い。ここでユーザ端末4の位置は、ユーザ端末4が可搬性を有する場合、所定のタイミングでユーザ端末4等からユーザの位置を取得することにより、逐次更新される。   The user data 12 is a list of user terminals 4 that use the sensor control system 100. The user data 12 may be stored by associating the identifier of the user terminal 4 with the identifier of the sensor 3 included in the user terminal 4 and the position of the user terminal 4. Further, the user data 12 may be stored in association with evaluations given according to the degree of contribution or the like in the sensor control system 100 of each user. Here, when the user terminal 4 has portability, the position of the user terminal 4 is sequentially updated by acquiring the user's position from the user terminal 4 or the like at a predetermined timing.

処理制御装置20は、センサ制御プログラムを実行することにより、センサ管理手段21および検索手段22による機能を実現する。   The processing control device 20 implements the functions of the sensor management means 21 and the search means 22 by executing a sensor control program.

(センサ管理手段)
センサ管理手段21は、センサ属性データ11に、新たなセンサの情報を追加したり、センサの属性、特に動作ステータス、利用者評価などを更新したりする。
(Sensor management means)
The sensor management means 21 adds new sensor information to the sensor attribute data 11 and updates sensor attributes, particularly operation status, user evaluation, and the like.

センサ管理手段21は、ウェブをクローリングして、ウェブ上で公開されているセンサ3の情報を収集して、センサ属性データ11に新たなセンサの情報を追加する。具体的には、センサ管理手段21は、ウェブのタイトル、キーワード要素、ボディ部内のテキスト検索から、公開されるセンサ3の情報を取得する。さらにセンサ管理手段21は、JavaScript(登録商標)のスクリプトを参照して、撮影データの配信に用いられるプラグイン呼び出しや制御文の有無を確認して、センサ3があると判断すると、そのセンサ3の情報、具体的には、センサ属性データ11の各データのうち取得可能なデータを取得する。ここで、「撮影データの配信に用いられるプラグイン呼び出しや制御文」は、例えば、JavaScript(登録商標)中の、RTSPの呼び出しや、動画プレーヤの呼び出しなどである。   The sensor management unit 21 crawls the web, collects information on the sensor 3 disclosed on the web, and adds new sensor information to the sensor attribute data 11. Specifically, the sensor management means 21 acquires information on the sensor 3 to be disclosed from a text search in the web title, keyword element, and body part. Further, the sensor management unit 21 refers to a JavaScript (registered trademark) script, checks the presence or absence of a plug-in call or control statement used for the delivery of shooting data, and determines that the sensor 3 is present. Information, specifically, data that can be acquired from each data of the sensor attribute data 11 is acquired. Here, “a plug-in call or control statement used for shooting data distribution” is, for example, an RTSP call or a video player call in JavaScript (registered trademark).

センサ管理手段21は、センサ3の情報を取得すると、センサ3の識別子、センサ3の位置情報、センサ3の属性、およびセンサ3の検知データを公開するサイトのURL等を対応づけたレコードを生成し、センサ属性データ11に挿入する。ここで、クローリングによりセンサの属性を特定できない場合、他のシステムとの連携やオペレータ等の操作により、属性値が登録されても良い。   When the sensor management unit 21 acquires the information of the sensor 3, the sensor management unit 21 generates a record in which the identifier of the sensor 3, the position information of the sensor 3, the attribute of the sensor 3, the URL of the site where the detection data of the sensor 3 is disclosed, and the like are associated with each other. And inserted into the sensor attribute data 11. Here, if the sensor attribute cannot be specified by crawling, the attribute value may be registered through cooperation with another system or an operator's operation.

またセンサ管理手段21は、各センサ3の動作ステータスおよび利用者評価を逐次更新する。センサ管理手段21は、所定のタイミングで各センサ3のサイトのURLに接続し、センサ3の動作を確認し、そのセンサ3の識別子に対応づけられた動作ステータスを更新する。また、ユーザ端末4からセンサ3の評価が入力されると、センサ管理手段21は、入力された評価に基づいて、利用者評価を更新する。   Further, the sensor management means 21 sequentially updates the operation status and user evaluation of each sensor 3. The sensor management unit 21 connects to the URL of each sensor 3 site at a predetermined timing, confirms the operation of the sensor 3, and updates the operation status associated with the identifier of the sensor 3. Further, when the evaluation of the sensor 3 is input from the user terminal 4, the sensor management unit 21 updates the user evaluation based on the input evaluation.

さらにセンサ管理手段21は、各センサ3の属性が用途のフラグを含む場合、各センサの属性値から対応可能な用途に、フラグをセットして更新しても良い。   Furthermore, when the attribute of each sensor 3 includes a usage flag, the sensor management unit 21 may set and update the flag for a usage that can be handled from the attribute value of each sensor.

(検索手段)
検索手段22は、位置情報および用途を含むクエリが入力されると、センサ属性データ11から、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサ3の識別子を取得して、取得したセンサ3の識別子に対応するサイトの識別子を出力する。クエリは、例えばユーザ端末4から入力されても良いし、他のシステムから入力されても良い。検索手段22は、クエリに対応するセンサ3の識別子に基づいて、このセンサ3の検知データを公開する検知データ提供サーバ2のURLを取得し、クエリの入力元に返す。ここで所定距離は、クエリの位置情報や用途によって適宜定められても良いし、ユーザが定めても良い。
(Search means)
When a query including position information and use is input, the search means 22 is associated with position information within a predetermined distance from the position information of the query and corresponds to an attribute corresponding to the use of the query from the sensor attribute data 11. The identifier of the attached sensor 3 is acquired, and the identifier of the site corresponding to the acquired identifier of the sensor 3 is output. The query may be input from the user terminal 4, for example, or may be input from another system. Based on the identifier of the sensor 3 corresponding to the query, the search means 22 acquires the URL of the detection data providing server 2 that discloses the detection data of the sensor 3, and returns it to the input source of the query. Here, the predetermined distance may be determined as appropriate depending on the position information and usage of the query, or may be determined by the user.

ここで、検索手段22は、例えばユーザ端末4に、クエリに対応するセンサの検知データを公開する検知データ提供サーバ2のURLを出力し、ユーザ端末4においてこの検知データ提供サーバ2のウェブページを表示するようにリダイレクトしても良い。また検索手段22は、検知データ提供サーバ2のURLに基づいて、検知データ提供サーバ2のサイトからセンサ3の検知データを取得して、クエリの位置情報と、取得した検知データを対応づけて、出力する場合もある。ここで検索手段22は、クエリの入力元のユーザ端末4が、検知データを再生できない場合、検索手段22は、検知データを、ユーザ端末4が再生可能な形式に変換してユーザ端末4に出力しても良い。具体的には、ユーザ端末4が、オペレーションシステムの制約等により特定の動画形式を再生できない場合で、出力対象の検知データがその動画形式の場合、検索手段22は、その動画形式の検知データを、他の動画形式に変換して、ユーザ端末4に出力する。   Here, the search means 22 outputs, for example, the URL of the detection data providing server 2 that publishes the detection data of the sensor corresponding to the query to the user terminal 4, and the web page of the detection data providing server 2 is displayed on the user terminal 4. You may redirect to display. Further, the search means 22 acquires the detection data of the sensor 3 from the site of the detection data providing server 2 based on the URL of the detection data providing server 2, and associates the query position information with the acquired detection data, It may be output. Here, when the user terminal 4 that is the input source of the query cannot reproduce the detection data, the search unit 22 converts the detection data into a format that can be reproduced by the user terminal 4 and outputs it to the user terminal 4. You may do it. Specifically, when the user terminal 4 cannot reproduce a specific moving image format due to an operation system restriction or the like, and the output target detection data is the moving image format, the search unit 22 uses the moving image format detection data. , Converted into another moving image format and output to the user terminal 4.

クエリの位置情報の特定方法として、様々な方法が考えられる。例えば、ユーザ端末4において地図上の所定地点がクリックされたことを検知すると、クリックされた所定位置の緯度経度を、クエリの位置情報として特定しても良い。また、ユーザ端末4において入力されたキーワードから、キーワードに対応する緯度経度や、キーワードに対応する地名やランドマークなどをクエリの位置情報として特定しても良い。   Various methods are conceivable as a method for specifying the query position information. For example, when the user terminal 4 detects that a predetermined point on the map has been clicked, the latitude and longitude of the clicked predetermined position may be specified as the position information of the query. Further, the latitude / longitude corresponding to the keyword and the place name or landmark corresponding to the keyword may be specified as the position information of the query from the keyword input in the user terminal 4.

検索手段22は、入力されたクエリに従って検索した結果、複数のセンサ3が検索された場合、これらの複数のセンサ3の情報を、サムネイルとして、一覧表示する。このとき検索手段22は、円形に配置する円形UIを利用して表示したり、スクロールに連動してサムネイルを追加するカード型UIを利用して表示したりしても良い。このとき、利用者評価の高いセンサ3が、優先的に表示されるように制御されても良い。   When a plurality of sensors 3 are searched as a result of searching according to the input query, the search means 22 displays a list of information on the plurality of sensors 3 as thumbnails. At this time, the search means 22 may display using a circular UI arranged in a circle, or may display using a card-type UI that adds a thumbnail in conjunction with scrolling. At this time, the sensor 3 having a high user evaluation may be controlled to be displayed preferentially.

図3を参照して、ユーザ端末4から、クエリとして、位置情報として、「東京都」、用途として、「空模様」が入力された場合を説明する。検索手段22は、センサ属性データ11から、東京都に位置するカメラ3aで、「空模様」を示す用途に適切なカメラ3aを特定して、各カメラ3aから撮影データを取得する。検索手段22は、クエリの位置情報「東京都」と、各カメラ3aから取得した撮影データを対応づけて、ユーザ端末4に出力する。   With reference to FIG. 3, a case where “Tokyo” as the position information and “sky” as the application are input from the user terminal 4 as a query will be described. The search means 22 specifies the camera 3a suitable for the application indicating “sky pattern” from the sensor attribute data 11 with the camera 3a located in Tokyo, and obtains shooting data from each camera 3a. The search means 22 associates the position information “Tokyo” of the query with the shooting data acquired from each camera 3 a and outputs it to the user terminal 4.

ここで、クエリの位置情報「東京都」のカメラ3aを検索する際、検索手段22は、センサ属性データ11から、動作ステータスが、動作中のカメラ3aであって、位置情報が、東京都の緯度経度を示すカメラ3a、またはキーワード等で「東京都」に関連する用語が対応づけられたカメラ3aを特定する。さらに「東京都」から数キロ離れたとしても、空模様が大きく変わらない場合もある。そこで検索手段22は、センサ属性データ11から、東京都から数キロ離れた隣接県であったとしても、カメラ3aの方向が東京都方向のカメラ3aも検索しても良い。検索手段22は、このように検索されたカメラ3aのうち、「空模様」を示す用途に適切なカメラ3aを検索する。   Here, when searching for the camera 3a of the query position information “Tokyo”, the search means 22 uses the sensor attribute data 11 to indicate that the operation status is the camera 3a in operation and the position information is “Tokyo”. The camera 3a indicating the latitude and longitude, or the camera 3a associated with a term related to “Tokyo” with a keyword or the like is specified. In addition, even if you are several kilometers away from Tokyo, the sky may not change significantly. Therefore, the search means 22 may also search for the camera 3a in which the direction of the camera 3a is in the direction of Tokyo, even if it is an adjacent prefecture several kilometers away from Tokyo from the sensor attribute data 11. The search means 22 searches the camera 3a searched in this way for a camera 3a suitable for an application showing “sky pattern”.

図3(a)に示す画面V11は、所定のタイミングの東京都のアメダス表示部M11と、東京都のカメラ3aのうち、「空模様」を示す用途に適切なカメラ3aの撮影データP11、P12、P13およびP14を備える。図3(b)に示す画面V12および図3(c)に示す画面V13は、それぞれ、図3(a)に示す画面V11と同様の構成を備える。   The screen V11 shown in FIG. 3 (a) includes the AMeDAS display unit M11 in Tokyo at a predetermined timing and the shooting data P11, P12 of the camera 3a suitable for the purpose of showing the “sky pattern” among the Tokyo cameras 3a. P13 and P14 are provided. A screen V12 shown in FIG. 3B and a screen V13 shown in FIG. 3C each have the same configuration as the screen V11 shown in FIG.

ここで、クエリとして、更に、「10分毎に撮影」など、検知データを取得するタイミングを含んでも良い。検索手段22は、同じクエリで10分おきに検索することにより、図3に示すように、時系列の雨模様の撮影データを出力することができる。ここでは、図3(a)の撮影データP12では、雨が降っていないところ、図3(b)から図3(c)と時間が経つに従って、撮影データP12において、多くの雨が降ることを認識できる。図3に示す各図において、各撮影データのカメラ3aの位置を、アメダス表示部M11上に対応づけて表示しても良い。   Here, the query may further include timing for acquiring detection data such as “shooting every 10 minutes”. The search means 22 can output time-sequential rain pattern image data as shown in FIG. 3 by searching every 10 minutes with the same query. Here, in the shooting data P12 of FIG. 3A, it is not raining. However, as time passes from FIG. 3B to FIG. 3C, a lot of rain falls in the shooting data P12. Can be recognized. In each figure shown in FIG. 3, the position of the camera 3a of each photographing data may be displayed in association with the AMeDAS display unit M11.

図3に示す各撮影データP11、P12、P13およびP14は、センサ制御装置1が、各検知データ提供サーバ2から取得して、ユーザ端末4に出力しても良いし、ユーザ端末4に各検知データ提供サーバ2から取得させるようにリダイレクトしても良い。   3 may be acquired from each detection data providing server 2 and output to the user terminal 4, or each detection data P11, P12, P13 and P14 shown in FIG. You may redirect so that it may be acquired from the data provision server 2. FIG.

図3においては、カメラ3aでの撮影データを検索する例を示したが、環境気象センサ3bが測定した値を検索する場合も同様である。   Although FIG. 3 shows an example in which image data taken by the camera 3a is searched, the same applies to a case where a value measured by the environmental weather sensor 3b is searched.

図1に示すように、検索手段22は、ルート表示手段23、動線表示手段24およびセンサ要求処理手段25を備える。ルート表示手段23、動線表示手段24およびセンサ要求処理手段25は、ユーザの用途に適合するように検知データ等を加工して、センサ3の情報を出力する。   As shown in FIG. 1, the search unit 22 includes a route display unit 23, a flow line display unit 24, and a sensor request processing unit 25. The route display unit 23, the flow line display unit 24, and the sensor request processing unit 25 process the detection data and the like so as to suit the user's application, and output the information of the sensor 3.

(ルート表示手段)
ルート表示手段23は、クエリの位置情報が、2点を結ぶルートの情報である場合に、ルート近くのセンサの情報を出力する。ここでクエリのルートの情報、ルートの始点および終点が設定されても良いし、始点および終点を結ぶルートが設定されても良い。ルート表示手段23は、クエリのルートから所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得する。
(Route display means)
The route display unit 23 outputs information on sensors near the route when the position information of the query is information on a route connecting two points. Here, the query route information, the start point and the end point of the route may be set, or the route connecting the start point and the end point may be set. The route display unit 23 acquires the identifier of the sensor associated with the position information within a predetermined distance from the query route and associated with the attribute corresponding to the use of the query.

図4を参照して、ルート表示手段23の処理を説明する。クエリの位置情報として、ルートの始点および終点が設定されている場合、ステップS101においてルート表示手段23は、始点および終点を結ぶルートを検索する。ルート表示手段23は、経路探索サーバ(図示せず)等に、始点および終点を入力して、この2点を結ぶルートを取得しても良い。クエリの位置情報として、ルートが設定されている場合、ステップS101の処理は割愛される。   With reference to FIG. 4, the process of the route display means 23 will be described. When the start point and end point of the route are set as the position information of the query, the route display unit 23 searches for a route connecting the start point and the end point in step S101. The route display means 23 may input a start point and an end point to a route search server (not shown) or the like, and obtain a route connecting these two points. When a route is set as the query position information, the process of step S101 is omitted.

ステップS102においてルート表示手段23は、ステップS101で検索されたルートから所定距離内のセンサ3を検索する。ここでルート表示手段23は、ルートの経路上の各地点の位置情報に従って、複数のセンサ3を検索しても良い。ステップS103においてルート表示手段23は、ステップS102で検索されたセンサ3の検知データを表示する。   In step S102, the route display means 23 searches for the sensor 3 within a predetermined distance from the route searched in step S101. Here, the route display means 23 may search for a plurality of sensors 3 in accordance with the position information of each point on the route. In step S103, the route display means 23 displays the detection data of the sensor 3 searched in step S102.

図5ないし図7を参照して、ルート表示手段23による、カメラ3aの撮影データの表示画面の一例を説明する。   With reference to FIG. 5 thru | or FIG. 7, an example of the display screen of the imaging | photography data of the camera 3a by the route display means 23 is demonstrated.

図5に示す画面V21は、東京から大阪までのルート上の空模様の撮影データを示す。画面V21は、東京から大阪までのルートR21を表示する地図表示部M21と、ルート上の空模様を示す撮影データP21ないしP26とを、並べて表示する。   A screen V21 shown in FIG. 5 shows empty shooting data on the route from Tokyo to Osaka. The screen V21 displays a map display unit M21 that displays a route R21 from Tokyo to Osaka, and shooting data P21 to P26 that indicate a sky pattern on the route side by side.

図6に示す画面V22は、図5に示す撮影データおよび地図と同様であるが、表示方法が異なる。画面V22は、東京から大阪までのルートR21を表示する地図表示部M21に、ルート上の空模様を示す撮影データP21ないしP26を重畳して表示する。ここで、各撮影データP21ないしP26は、撮影データP21ないしP26のそれぞれのカメラ3aの位置に対応した位置、具体的には、ルートR21上近傍に表示される。   Screen V22 shown in FIG. 6 is similar to the shooting data and map shown in FIG. 5, but the display method is different. The screen V22 superimposes and displays the shooting data P21 to P26 indicating the sky pattern on the route on the map display unit M21 that displays the route R21 from Tokyo to Osaka. Here, the respective photographing data P21 to P26 are displayed at positions corresponding to the positions of the respective cameras 3a of the photographing data P21 to P26, specifically, near the route R21.

また、クエリの用途において、道路の混雑状況が設定された場合も、図5および図6と同様に表示することができる。この場合、ルート表示手段23は、センサ3が、カメラ3aであって、センサ属性データ11のセンサ3の属性は、カメラ3aが撮影する方向または被写体を含む。ルート表示手段23は、クエリの位置情報のルートから所定距離内の位置情報に対応づけられ、かつ属性が、カメラ3aが道路を撮影することを示すカメラ3aの識別子を取得する。ここでルート表示手段23は、カメラ3aの位置情報とルートの位置情報との関係から、カメラ3aの方向および角度がルートの道路を撮影しているカメラ3aの識別子を取得する。またルート表示手段23は、カメラ3aの被写体として、ルートの道路が設定されているカメラ3aの識別子を取得する。ルート表示手段23は、このように取得したカメラ3aの識別子から、そのカメラ3aの撮影データを取得する。ここで、道路の上り方向および下り方向が隣接して走行していない場合や、カメラ3aが上り方向および下り方向のうちのいずれかのみを撮影している場合、ルート表示手段23は、始点から終点に向かう方向の道路を撮影しているカメラ3aの識別子、およびその撮影データを取得する。   Further, even when a road congestion state is set in the query application, it can be displayed in the same manner as in FIGS. In this case, in the route display means 23, the sensor 3 is the camera 3a, and the attribute of the sensor 3 in the sensor attribute data 11 includes the direction or subject to be photographed by the camera 3a. The route display unit 23 acquires an identifier of the camera 3a that is associated with the position information within a predetermined distance from the route of the position information of the query and whose attribute indicates that the camera 3a captures the road. Here, the route display means 23 acquires the identifier of the camera 3a that is shooting the road whose direction and angle are the route from the relationship between the position information of the camera 3a and the position information of the route. Further, the route display means 23 acquires the identifier of the camera 3a in which the route road is set as the subject of the camera 3a. The route display means 23 acquires the shooting data of the camera 3a from the acquired identifier of the camera 3a. Here, when the road is not traveling adjacent to the up and down directions, or when the camera 3a is shooting only one of the up and down directions, the route display means 23 starts from the starting point. The identifier of the camera 3a that is shooting the road in the direction toward the end point, and its shooting data are acquired.

次に図7を参照して、ルート表示手段23による、環境気象センサ3bの値の表示画面の一例を説明する。ルート表示手段23は、センサ属性データ11から、ルートから所定の範囲内の環境気象センサ3bであって、クエリの用途に適する環境気象種別を有する環境気象センサ3bの識別子を取得し、さらにこの環境気象センサ3bの値を取得して、ルートに重畳して表示する。画面V31は、ルート上の環境気象センサの値を示す。図7においてルート表示手段23は、ルートR31を表示する地図表示部M31に、ルート近傍の環境気象センサ3bの値を重畳して表示する。ここで、環境気象センサ3bの値は、測定値そのものが設定されても良いし、測定値が基準値よりも超えているか否かを示す記号で示されても良い。環境気象センサ3bの値を表示する際も、道路の空模様や混雑状況を表示する際と同様に、各環境気象センサ3bの値は、各値の環境気象センサ3bの位置に対応した位置、具体的には、ルートR31上近傍に表示される。   Next, an example of the display screen of the value of the environmental weather sensor 3b by the route display means 23 will be described with reference to FIG. The route display means 23 acquires, from the sensor attribute data 11, an identifier of the environmental weather sensor 3b within the predetermined range from the route and having an environmental weather type suitable for the use of the query. The value of the weather sensor 3b is acquired and displayed superimposed on the route. Screen V31 shows the value of the environmental weather sensor on the route. In FIG. 7, the route display means 23 superimposes and displays the value of the environmental weather sensor 3b in the vicinity of the route on the map display unit M31 that displays the route R31. Here, as the value of the environmental weather sensor 3b, the measurement value itself may be set, or may be indicated by a symbol indicating whether or not the measurement value exceeds the reference value. When displaying the value of the environmental weather sensor 3b, the value of each environmental weather sensor 3b is the position corresponding to the position of the environmental weather sensor 3b of each value, as in the case of displaying the sky pattern of the road and the congestion state. Specifically, it is displayed near the route R31.

(動線表示手段)
次に図8ないし図12を参照して、動線表示手段24の処理を説明する。動線表示手段24は、ユーザ端末4において、リアルタイムで動体を確認する際に用いられる。動線表示手段24は、特に、センサ制御装置1およびユーザ端末4間の通信速度が遅い、またはユーザ端末4における処理能力が低い場合で、道路の混雑状況等の撮影データにおける動体の多さを確認する用途に好適である。
(Flow line display means)
Next, processing of the flow line display means 24 will be described with reference to FIGS. The flow line display means 24 is used when the moving object is confirmed in real time in the user terminal 4. The flow line display unit 24 displays the number of moving objects in photographing data such as road congestion in particular when the communication speed between the sensor control device 1 and the user terminal 4 is slow or the processing capacity of the user terminal 4 is low. Suitable for confirmation.

動線表示手段24は、クエリの位置情報および用途から、所望のカメラ識別子を取得する。その後動線表示手段24は、動体の位置や移動量を、ヒートマップとして表す。具体的には動線表示手段24は、取得したカメラの識別子に対応する撮影データのサイトの識別子から、5秒などの所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力する。さらに動線表示手段24は、0.5秒などの、所定時間5秒より短い時間間隔毎に新たな撮影データを取得し、新たな撮影データにおける動体の位置を、静止画データに重畳して、出力する。ここで動線表示手段24の表示対象のカメラ3aは、動画を撮影しても良いし、静止画を撮影してもよい。   The flow line display unit 24 acquires a desired camera identifier from the position information and usage of the query. Thereafter, the flow line display means 24 represents the position and moving amount of the moving object as a heat map. Specifically, the flow line display unit 24 acquires shooting data at predetermined time intervals such as 5 seconds from the site identifier of the shooting data corresponding to the acquired camera identifier, and uses the acquired shooting data as still image data. Output. Further, the flow line display unit 24 acquires new shooting data at intervals of a time shorter than 5 seconds, such as 0.5 seconds, and superimposes the position of the moving object in the new shooting data on the still image data. ,Output. Here, the display target camera 3a of the flow line display means 24 may shoot a moving image or a still image.

図8を参照して、動線表示手段24による動線表示処理を説明する。図8に示す例では、動線表示手段24は、ライブカメラから取得したストリーミング画像に基づいて、5秒ごとに静止画を更新し、0.5秒ごとに動体の位置を重畳して、ユーザ端末4に表示する処理を説明する。   With reference to FIG. 8, the flow line display process by the flow line display means 24 is demonstrated. In the example shown in FIG. 8, the flow line display unit 24 updates the still image every 5 seconds based on the streaming image acquired from the live camera, and superimposes the position of the moving body every 0.5 seconds. Processing to be displayed on the terminal 4 will be described.

まずステップS201において動線表示手段24は、所望のライブカメラを検索する。次にステップS202において動線表示手段24は、最初に静止画を表示する必要があるので、静止画の更新タイミングと判定し、ステップS203において、表示を初期化する。ステップS204において動線表示手段24は、ライブカメラからストリーミング画像の1フレームを、静止画として、ユーザ端末4に表示する。ここで動線表示手段24は、静止画中にプライバシー保護の観点等により表示対象外の被写体があれば、モザイクや黒塗りなどでその被写体を消去する加工をする。   First, in step S201, the flow line display unit 24 searches for a desired live camera. Next, in step S202, the flow line display unit 24 needs to display a still image first, so it is determined as a still image update timing, and in step S203, the display is initialized. In step S204, the flow line display unit 24 displays one frame of the streaming image from the live camera on the user terminal 4 as a still image. Here, the flow line display means 24 performs a process of erasing the subject by mosaic or black painting if there is a subject not to be displayed in the still image from the viewpoint of privacy protection.

次に、ステップS205において動線表示手段24は、動線の更新タイミングであるか否かを判定する。ステップS202において静止画の更新タイミングから0.5秒経過したタイミング、あるいは、ステップS205において動線の前回の更新タイミングから0.5秒経過したタイミングにおいて、動線表示手段24は、動線の更新タイミングであると判定する。動線の更新タイミングでない場合、動線表示手段24は、動線の更新タイミングに到達するまで待機する。動線の更新タイミングが到達すると、ステップS206において動線表示手段24は、ライブカメラの映像の1フレームを取得する。ステップS207において動線表示手段24は、ステップS204で表示した静止画に、ステップS206において取得した1フレームの画像における動体の位置をヒートマップとして、マーク表示する。   Next, in step S205, the flow line display unit 24 determines whether or not it is the flow line update timing. The flow line display means 24 updates the flow line at the timing when 0.5 seconds have elapsed from the update timing of the still image at step S202 or at the timing when 0.5 seconds have elapsed from the previous update timing of the flow line at step S205. It is determined that it is timing. If it is not the flow line update timing, the flow line display unit 24 stands by until the flow line update timing is reached. When the flow line update timing arrives, in step S206, the flow line display means 24 acquires one frame of the video of the live camera. In step S207, the flow line display unit 24 displays a mark on the still image displayed in step S204, using the position of the moving object in the one-frame image acquired in step S206 as a heat map.

次に動線表示手段24は、ステップS202に戻り、静止画の更新タイミングか否かを判定する。静止画の更新タイミングでない場合、ステップS205に進み、動線の更新タイミングであるか否かを判定する。動線の更新タイミングが到達すると、ステップS206において動線表示手段24は、ライブカメラの映像の1フレームを取得する。ステップS207において動線表示手段24は、ステップS204で表示した静止画に、ステップS206の前回の処理で取得した1フレームの画像と、今回新たに取得した1フレームの画像との差分から、動体を特定し、特定された動体の位置をヒートマップとして、マーク表示する。ここで、動体が動く速度等によって、マークの色や形状を変えても良い。   Next, the flow line display means 24 returns to step S202, and determines whether or not it is a still image update timing. If it is not the still image update timing, the process advances to step S205 to determine whether it is the flow line update timing. When the flow line update timing arrives, in step S206, the flow line display means 24 acquires one frame of the video of the live camera. In step S207, the flow line display unit 24 adds the moving object to the still image displayed in step S204 based on the difference between the one frame image acquired in the previous process in step S206 and the one frame image newly acquired this time. The position of the identified moving object is identified and displayed as a heat map. Here, the color and shape of the mark may be changed according to the moving speed of the moving object.

このように図8の処理により、5秒ごとに背景となる静止画が更新され、さらに0.5秒ごとに動体の位置がマークされるヒートマップを生成することができる。   As described above, the process shown in FIG. 8 can generate a heat map in which a still image as a background is updated every 5 seconds and the position of a moving object is marked every 0.5 seconds.

図9ないし図12を参照して、ヒートマップを利用して表示される画面V41ないしV44を説明する。画面V41ないしV44は、交差点での車および人の動きを示す。   Screens V41 to V44 displayed using the heat map will be described with reference to FIGS. Screens V41 to V44 show the movement of cars and people at the intersection.

まず動線表示するタイミングで動線表示手段24は、所望のライブカメラの1フレームから静止画を取得して、図9に示すようにユーザ端末4の画面に表示する。図9に示す画面V41は、車C1、C2、C3および人P1を含む。また図9に示す例において、交差点に隣接して設けられるビル等は、ハッチにより、ビル等を表示しないように加工されている。   First, the flow line display means 24 obtains a still image from one frame of a desired live camera at the timing of displaying a flow line, and displays it on the screen of the user terminal 4 as shown in FIG. Screen V41 shown in FIG. 9 includes cars C1, C2, C3 and person P1. Moreover, in the example shown in FIG. 9, the building etc. which are provided adjacent to the intersection are processed so as not to display the building etc. by hatching.

図10を参照して、画面V41のフレームを取得して数秒後の画面V42を示す。車C1および車C2に、それぞれ動体の移動を示すマークB11およびB21が重畳される。ここで、車C2は、車C1よりも早く移動していることから、マークB21は、マークB11とは異なる濃い色のマークで描画される。一方、人P1はほとんど動いていないので、マークB31は1点で描画される。車C3は全く動いていないので、マークは表示されない。   Referring to FIG. 10, screen V42 after a few seconds after acquiring the frame of screen V41 is shown. Marks B11 and B21 indicating movement of the moving body are superimposed on the car C1 and the car C2, respectively. Here, since the car C2 moves faster than the car C1, the mark B21 is drawn with a dark color mark different from the mark B11. On the other hand, since the person P1 hardly moves, the mark B31 is drawn at one point. Since the car C3 is not moving at all, the mark is not displayed.

図11を参照して、画面V42の数秒後の画面V43を示す。この間、動いた車C1および車C2について、マークB12およびマークB22は、図10のマークB11およびマークB21よりも左側方向に伸びて描画される。一方、人P1および車C3については、動きがないので、図10の画面V42とは変わらない。このように、動きのある車C1およびC2について、マークが逐次変更され、動きのない人P1や車C3については、マークは変更されない。   Referring to FIG. 11, screen V43 after a few seconds of screen V42 is shown. During this period, the mark B12 and the mark B22 are drawn extending in the left direction from the mark B11 and the mark B21 in FIG. On the other hand, since the person P1 and the car C3 do not move, the screen V42 in FIG. 10 is not changed. As described above, the marks are sequentially changed for the moving cars C1 and C2, and the mark is not changed for the person P1 and the car C3 that are not moving.

さらに、図10に示す画面V41のフレームを取得してから5秒が経過した後、動線表示手段24は、所望のライブカメラの1フレームから静止画を新たに取得して、図12に示すようにユーザ端末4の画面に表示する。図12に示す画面V44は、車C1、C2、C3、および人P1を含むが、図9に示す各位置と比べて、動体の位置、具体的には、車C1、C2および人P1の位置が変更されている。さらに、交差点における車の流れに従って、新たな車C4が表示される。一方、動きのない車C3は、図9の画面V41と同じ位置に表示される。   Furthermore, after 5 seconds have elapsed since the frame of the screen V41 shown in FIG. 10 has been acquired, the flow line display means 24 newly acquires a still image from one frame of the desired live camera, and is shown in FIG. As shown on the screen of the user terminal 4. The screen V44 shown in FIG. 12 includes the cars C1, C2, C3 and the person P1, but compared with the positions shown in FIG. 9, the position of the moving object, specifically, the positions of the cars C1, C2 and the person P1. Has been changed. Furthermore, a new car C4 is displayed according to the flow of cars at the intersection. On the other hand, the non-moving car C3 is displayed at the same position as the screen V41 in FIG.

この後動線表示手段24は、図10および図11における処理と同様に、動体にマークを重畳して、ヒートマップを表示する。   After this, the flow line display means 24 displays the heat map by superimposing the mark on the moving object, as in the processing in FIGS. 10 and 11.

上述したように、動画をストリーミングで配信する際には、800kbpsなどの大きい帯域幅が必要になる場合でも、動線表示手段24により動体の位置のみを重畳することにより、32kbpsなどの小さい帯域幅で動体の動きを知らせることができる。また、撮影データにプライバシー保護が必要となる被写体を含む場合でも、静止画でのみモザイク処理や、黒塗り処理をすれば足りるので、動画でのモザイク処理に比べ処理の負担が少ない。   As described above, when a moving image is distributed by streaming, even if a large bandwidth such as 800 kbps is required, a small bandwidth such as 32 kbps is obtained by superimposing only the position of the moving object by the flow line display unit 24. Can inform the movement of the moving object. Further, even when the shooting data includes a subject that needs privacy protection, it is sufficient to perform mosaic processing or black painting processing only on a still image, so that the processing load is less than that of moving image mosaic processing.

(センサ要求処理手段)
センサ要求処理手段25は、センサ3の検知データを要求する要求ユーザ端末4aと、検知データを提供可能な提供ユーザ端末4bに接続する。要求ユーザ端末4aは、図1に示すユーザ端末4の一つであって、提供ユーザ端末4bは、図1に示すユーザ端末4のうち要求ユーザ端末4a以外のユーザ端末4である。
(Sensor request processing means)
The sensor request processing means 25 is connected to the requesting user terminal 4a that requests detection data of the sensor 3 and the providing user terminal 4b that can provide the detection data. The requesting user terminal 4a is one of the user terminals 4 shown in FIG. 1, and the providing user terminal 4b is a user terminal 4 other than the requesting user terminal 4a among the user terminals 4 shown in FIG.

センサ要求処理手段25は、要求ユーザ端末4aが要求するクエリを、提供ユーザ端末4bに提供させる。具体的には、センサ要求処理手段25は、要求ユーザ端末4aから、クエリが入力されると、センサ属性データ11を検索してクエリに対応するセンサが検索されない場合、提供ユーザ端末4bにクエリを通知する。センサ要求処理手段25は、クエリを通知した提供ユーザ端末4bのうち、クエリに対応するセンサの検知データを提供する提供ユーザ端末4bから検知データを受信して、要求ユーザ端末4aに送信する。   The sensor request processing means 25 causes the providing user terminal 4b to provide a query requested by the requesting user terminal 4a. Specifically, when a query is input from the requesting user terminal 4a, the sensor request processing means 25 searches the sensor attribute data 11 and, if a sensor corresponding to the query is not searched, sends a query to the providing user terminal 4b. Notice. The sensor request processing means 25 receives the detection data from the providing user terminal 4b that provides sensor detection data corresponding to the query among the providing user terminals 4b that have notified the query, and transmits the detection data to the requesting user terminal 4a.

図13を参照して、要求ユーザ端末4aが所定位置のライブ映像を要求する場合の処理を説明する。   With reference to FIG. 13, a process when the requesting user terminal 4a requests a live video at a predetermined position will be described.

ステップS501において要求ユーザ端末4aから、所定位置のライブ映像を要求するクエリを受信すると、センサ制御装置1のセンサ要求処理手段25は、ステップS502において、センサ属性データ11を検索して、クエリに適合するライブ映像を提供できるか否かを判定する。提供できる場合、センサ制御装置1は、そのライブ映像を、要求ユーザ端末4aに提供する(図示せず)。   When a query requesting a live video at a predetermined position is received from the requesting user terminal 4a in step S501, the sensor request processing means 25 of the sensor control device 1 searches the sensor attribute data 11 in step S502 and matches the query. It is determined whether or not a live video can be provided. If it can be provided, the sensor control device 1 provides the live video to the requesting user terminal 4a (not shown).

一方、クエリに適合するライブ映像を提供できない場合、ステップS503a、503b、および503cにおいてセンサ制御装置1は、提供ユーザ端末4bに、クエリをプッシュ通信で送信する。ここでセンサ制御装置1は、ユーザデータ12を参照して、クエリで指定された位置の近傍に位置する提供ユーザ端末4bのみに、クエリを送信しても良い。   On the other hand, when live video that matches the query cannot be provided, the sensor control device 1 transmits the query to the providing user terminal 4b by push communication in steps S503a, 503b, and 503c. Here, the sensor control apparatus 1 may refer to the user data 12 and transmit the query only to the providing user terminal 4b located in the vicinity of the position specified by the query.

クエリがプッシュ通信で送信されると、提供ユーザ端末4bのユーザは、クエリを確認して、クエリで指定される場所の映像を提供可能であるか否かを判定する。ここで、第1の提供ユーザ端末4bおよび第3の提供ユーザ端末4bが提供可能な場合、第1の提供ユーザ端末4bおよび第3の提供ユーザ端末4bは、ステップS504aおよびステップS504bにおいて、その旨をセンサ制御装置1に通知する。ここで、「今すぐ提供できます」や「10分ほどで提供できます」など、提供ユーザ端末4bが映像を提供可能なタイミングを含むコメントも、併せて、センサ制御装置1に送信されても良い。   When the query is transmitted by push communication, the user of the providing user terminal 4b checks the query and determines whether or not it is possible to provide the video at the location specified by the query. Here, if the first providing user terminal 4b and the third providing user terminal 4b can provide, the first providing user terminal 4b and the third providing user terminal 4b indicate that in steps S504a and S504b. To the sensor control device 1. Here, even if a comment including a timing at which the providing user terminal 4b can provide an image such as “I can provide it now” or “I can provide it in about 10 minutes” is also sent to the sensor control device 1 good.

センサ制御装置1は、ステップS504aおよびステップS504bにおいて、提供可能と返信した提供ユーザ端末4bの識別子のリストを受信すると、ステップS505において受信したリストを要求ユーザ端末4aに送信する。ここでセンサ制御装置1は、コメントがあればそのコメント、提供ユーザ端末4bの位置情報、ユーザの評価等を対応づけて要求ユーザ端末4aに送信しても良い。   In step S504a and step S504b, the sensor control device 1 receives the list of identifiers of the providing user terminal 4b that has returned that it can be provided, and transmits the received list to the requesting user terminal 4a in step S505. Here, if there is a comment, the sensor control apparatus 1 may associate the comment, the location information of the providing user terminal 4b, the user's evaluation, and the like, and transmit them to the requesting user terminal 4a.

要求ユーザ端末4aは、ステップS505で提供されたリストから、ライブ映像の提供を要求するユーザを特定し、ステップS506において、特定したユーザの識別子を含む提供リクエストを、センサ制御装置1に送信する。センサ制御装置1は、ステップS507において、ライブ映像の提供を要求された提供ユーザ端末4bに、要求ユーザ端末4aから受信した提供リクエストを送信する。   The requesting user terminal 4a specifies a user who requests the provision of live video from the list provided in step S505, and transmits a provision request including the identified user identifier to the sensor control apparatus 1 in step S506. In step S507, the sensor control device 1 transmits the provision request received from the requesting user terminal 4a to the provisioning user terminal 4b requested to provide the live video.

提供ユーザ端末4bが、ステップS508においてライブ映像の提供を開始すると、センサ制御装置1は、ステップS509において、そのライブ映像を要求ユーザ端末4aに提供する。このときセンサ制御装置1は、ライブ映像を提供する提供ユーザ端末4bのユーザについて、評価を上げるようにユーザデータ12を更新しても良いし、ポイントなどのその他のインセンティブを与えても良い。   When the providing user terminal 4b starts providing the live video in step S508, the sensor control device 1 provides the live video to the requesting user terminal 4a in step S509. At this time, the sensor control device 1 may update the user data 12 so as to improve the evaluation of the user of the providing user terminal 4b that provides the live video, or may give other incentives such as points.

なお、要求ユーザ端末4aが、ライブ映像の動画形式で再生できない場合、センサ制御装置1は、要求ユーザ端末4aが再生可能な動画形式に変換して、ライブ映像を提供しても良い。また要求ユーザ端末4aとの通信速度が遅い、あるいは要求ユーザ端末4aの処理速度が遅い場合、センサ制御装置1は、動線表示手段24によって、動画を静止画と動線で表現したデータを、要求ユーザ端末4aに提供しても良い。さらに、図13では、要求ユーザ端末4aが、ライブ映像を要求する場合を説明したが、静止画を要求する場合や環境気象センサ3bを要求する場合も同様に処理できる。   When the requesting user terminal 4a cannot reproduce the moving image format of the live video, the sensor control device 1 may convert the moving image format to be reproducible by the requesting user terminal 4a and provide the live image. When the communication speed with the requesting user terminal 4a is low or the processing speed of the requesting user terminal 4a is low, the sensor control device 1 uses the flow line display unit 24 to display data representing a moving image as a still image and a flow line. You may provide to the request | requirement user terminal 4a. Furthermore, although the case where the requesting user terminal 4a requests a live video has been described in FIG. 13, the same processing can be performed when a still image is requested or when the environmental weather sensor 3b is requested.

このように、所望のライブカメラがセンサ属性データ11に登録されていない場合でも、他のユーザが有するユーザ端末4のカメラ等を用いて、ライブ映像の協力を呼びかけることができる。これにより、列車運行遅延により、駅の混雑度を知りたい場合、その駅に偶然居合わせた他のユーザからライブ映像の提供を受けることができる。   In this way, even when a desired live camera is not registered in the sensor attribute data 11, it is possible to call for cooperation of live video using the camera of the user terminal 4 possessed by another user. Thereby, when it is desired to know the congestion level of a station due to a delay in train operation, it is possible to receive a live video from another user who happens to be at the station.

上述したように、本発明の実施の形態に係るセンサ制御装置1は、通信ネットワーク5を介して提供されるセンサの位置情報と、その属性とを、センサ属性データ11として格納し管理する。これによりセンサ制御装置1は、所望の位置情報と用途を特定したクエリから、そのクエリに合致する所望のセンサを特定し、そのセンサの検知データを出力することができる。   As described above, the sensor control device 1 according to the embodiment of the present invention stores and manages sensor position information and its attributes provided via the communication network 5 as sensor attribute data 11. Thereby, the sensor control apparatus 1 can specify a desired sensor that matches the query from the query specifying the desired position information and application, and can output detection data of the sensor.

(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.

例えば、本発明の実施の形態に記載したセンサ制御装置は、図1に示すように一つのハードウェア上に構成されても良いし、その機能や処理数に応じて複数のハードウェア上に構成されても良い。また、既存の情報処理システム上に実現されても良い。   For example, the sensor control device described in the embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 1, or may be configured on a plurality of pieces of hardware according to the function and the number of processes. May be. Moreover, you may implement | achieve on the existing information processing system.

本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。   It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.

1 センサ制御装置
2 検知データ提供サーバ
3 センサ
3a カメラ
3b 環境気象センサ
4 ユーザ端末
4a 要求ユーザ端末
4b 提供ユーザ端末
5 通信ネットワーク
10 記憶装置
11 センサ属性データ
12 ユーザデータ
20 処理制御装置
21 センサ管理手段
22 検索手段
23 ルート表示手段
24 動線表示手段
25 センサ要求処理手段
100 センサ制御システム
DESCRIPTION OF SYMBOLS 1 Sensor control apparatus 2 Detection data provision server 3 Sensor 3a Camera 3b Environmental weather sensor 4 User terminal 4a Request user terminal 4b Provision user terminal 5 Communication network 10 Memory | storage device 11 Sensor attribute data 12 User data 20 Processing control apparatus 21 Sensor management means 22 Search means 23 Route display means 24 Flow line display means 25 Sensor request processing means 100 Sensor control system

Claims (9)

センサの情報を管理するセンサ制御装置であって、
前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶装置と、
位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索手段
を備えることを特徴とするセンサ制御装置。
A sensor control device that manages sensor information,
A storage device that stores sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including location information and usage is input, the sensor attribute data is associated with location information within a predetermined distance from the location information of the query, and is associated with an attribute corresponding to the usage of the query. A sensor control apparatus comprising: a search unit that acquires a sensor identifier and outputs the site identifier corresponding to the acquired sensor identifier.
前記検索手段はさらに、
前記サイトの識別子に基づいて、前記サイトから前記センサの検知データを取得して、前記クエリの位置情報と、取得した検知データを対応づけて、出力する
ことを特徴とする請求項1に記載のセンサ制御装置。
The search means further includes
The detection data of the sensor is acquired from the site based on the identifier of the site, the positional information of the query is associated with the acquired detection data, and is output. Sensor control device.
前記クエリの位置情報が、2点を結ぶルートの情報である場合、
前記検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得する
ことを特徴とする請求項1または2に記載のセンサ制御装置。
When the location information of the query is information on a route connecting two points,
3. The sensor according to claim 1, wherein the retrieval unit obtains an identifier of a sensor associated with position information within a predetermined distance from the route and associated with an attribute corresponding to the use of the query. The sensor control device described.
前記センサは、カメラで、前記検知データは、撮影データであって、
前記センサの属性は、前記カメラが撮影する方向または被写体を含み、
前記クエリの用途が、道路の混雑状況の場合、
前記検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ属性が、当該カメラが前記道路を撮影することを示すカメラの識別子を取得する
ことを特徴とする請求項3に記載のセンサ制御装置。
The sensor is a camera, and the detection data is photographing data,
The attribute of the sensor includes a direction or a subject taken by the camera,
If the query is used for road congestion,
The said search means is matched with the positional information within the predetermined distance from the said route, and an attribute acquires the identifier of the camera which shows that the said camera image | photographs the said road. Sensor control device.
前記センサは、カメラで、前記検知データは、撮影データであって、
前記検索手段は、前記取得したカメラの識別子に対応する撮影データのサイトの識別子から、所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力するとともに、前記所定時間より短い時間間隔毎に新たな撮影データを取得し、前記新たな撮影データにおける動体の位置を、前記静止画データに重畳して、出力する
ことを特徴とする請求項1ないし3のいずれか1項に記載のセンサ制御装置。
The sensor is a camera, and the detection data is photographing data,
The search means acquires shooting data at predetermined time intervals from an identifier of a shooting data site corresponding to the acquired camera identifier, outputs the acquired shooting data as still image data, and is shorter than the predetermined time. The new photographing data is acquired at every time interval, and the position of the moving object in the new photographing data is superimposed on the still image data and output. The sensor control device described.
前記センサは、環境気象センサで、
前記センサの属性は、当該センサが検知可能な環境気象種別で、
前記検知データは、環境気象センサが検知した値であって、
前記検索手段において、前記クエリの用途に適する属性は、前記クエリの用途に対応する環境気象種別である
ことを特徴とする請求項1または2に記載のセンサ制御装置。
The sensor is an environmental weather sensor,
The attribute of the sensor is the environmental weather type that the sensor can detect,
The detection data is a value detected by an environmental weather sensor,
The sensor control apparatus according to claim 1, wherein in the search unit, an attribute suitable for the use of the query is an environmental weather type corresponding to the use of the query.
前記検索手段は、検知データを要求する要求ユーザ端末と、検知データを提供可能な提供ユーザ端末に接続し、
前記要求ユーザ端末から、前記クエリが入力されると、前記センサ属性データを検索して前記クエリに対応するセンサが検索されない場合、前記提供ユーザ端末に前記クエリを通知し、前記提供ユーザ端末のうち、前記クエリに対応するセンサの検知データを提供する提供ユーザ端末から検知データを受信して、前記要求ユーザ端末に送信する
ことを特徴とする請求項1ないし6のいずれか1項に記載のセンサ制御装置。
The search means is connected to a requesting user terminal requesting detection data and a providing user terminal capable of providing detection data,
When the query is input from the requesting user terminal, when the sensor attribute data is searched and a sensor corresponding to the query is not searched, the providing user terminal is notified of the query, and among the providing user terminals The sensor according to claim 1, wherein detection data is received from a providing user terminal that provides detection data of the sensor corresponding to the query, and is transmitted to the requesting user terminal. Control device.
センサ制御装置が、センサの情報を管理するセンサ制御方法であって、
前記センサ制御装置が、前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、
前記センサ制御装置が、位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索ステップ
を備えることを特徴とするセンサ制御方法。
A sensor control device is a sensor control method for managing sensor information,
A storage step in which the sensor control device stores sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including position information and usage is input, the sensor control device associates the sensor attribute data with location information within a predetermined distance from the location information of the query, and corresponds to the usage of the query. A sensor control method comprising: a search step of acquiring an identifier of a sensor associated with an attribute and outputting an identifier of the site corresponding to the acquired identifier of the sensor.
センサの情報を管理するセンサ制御プログラムであって、
前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、
位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索ステップ
を、コンピュータに実行させるためのセンサ制御プログラム。
A sensor control program for managing sensor information,
A storage step of storing sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including location information and usage is input, the sensor attribute data is associated with location information within a predetermined distance from the location information of the query, and is associated with an attribute corresponding to the usage of the query. A sensor control program for causing a computer to execute a search step of acquiring a sensor identifier and outputting the site identifier corresponding to the acquired sensor identifier.
JP2014161191A 2014-08-07 2014-08-07 SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM Active JP6301779B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2014161191A JP6301779B2 (en) 2014-08-07 2014-08-07 SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014161191A JP6301779B2 (en) 2014-08-07 2014-08-07 SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2016038703A true JP2016038703A (en) 2016-03-22
JP6301779B2 JP6301779B2 (en) 2018-03-28

Family

ID=55529733

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014161191A Active JP6301779B2 (en) 2014-08-07 2014-08-07 SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM

Country Status (1)

Country Link
JP (1) JP6301779B2 (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6126759B1 (en) * 2016-06-16 2017-05-10 株式会社オプティム Information provision system
US20180097886A1 (en) * 2015-03-27 2018-04-05 Nec Corporation Sensor network system
JP2018116425A (en) * 2017-01-17 2018-07-26 株式会社日立製作所 Data providing system and data providing method
JP2018152053A (en) * 2017-03-09 2018-09-27 株式会社デンソー Data acquisition system and server
JP6451908B1 (en) * 2017-08-01 2019-01-16 オムロン株式会社 Sensing device management device
WO2019026602A1 (en) * 2017-08-01 2019-02-07 オムロン株式会社 Sensing device management apparatus

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160090A (en) * 1997-11-26 1999-06-18 Aisin Aw Co Ltd Navigation device
JP2004120390A (en) * 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd Live video acquisition support service server
JP2007108119A (en) * 2005-10-17 2007-04-26 Alpine Electronics Inc Navigation system
JP2011215929A (en) * 2010-03-31 2011-10-27 Honda Motor Co Ltd Device and system for processing weather information
JP2012004629A (en) * 2010-06-14 2012-01-05 Kddi Corp Relay distribution method of live image contents, server and program
JP2013026933A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing apparatus, image processing method, and program
WO2013153890A1 (en) * 2012-04-12 2013-10-17 オムロン株式会社 Device management apparatus and device search method
JP2014064241A (en) * 2012-09-24 2014-04-10 Hitachi Kokusai Electric Inc Monitor camera location disclosure system

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH11160090A (en) * 1997-11-26 1999-06-18 Aisin Aw Co Ltd Navigation device
JP2004120390A (en) * 2002-09-26 2004-04-15 Fuji Photo Film Co Ltd Live video acquisition support service server
JP2007108119A (en) * 2005-10-17 2007-04-26 Alpine Electronics Inc Navigation system
JP2011215929A (en) * 2010-03-31 2011-10-27 Honda Motor Co Ltd Device and system for processing weather information
JP2012004629A (en) * 2010-06-14 2012-01-05 Kddi Corp Relay distribution method of live image contents, server and program
JP2013026933A (en) * 2011-07-23 2013-02-04 Canon Inc Image processing apparatus, image processing method, and program
WO2013153890A1 (en) * 2012-04-12 2013-10-17 オムロン株式会社 Device management apparatus and device search method
JP2014064241A (en) * 2012-09-24 2014-04-10 Hitachi Kokusai Electric Inc Monitor camera location disclosure system

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180097886A1 (en) * 2015-03-27 2018-04-05 Nec Corporation Sensor network system
JP6126759B1 (en) * 2016-06-16 2017-05-10 株式会社オプティム Information provision system
WO2017216920A1 (en) * 2016-06-16 2017-12-21 株式会社オプティム Information provision system
US10423836B2 (en) 2016-06-16 2019-09-24 Optim Corporation Information providing system
JP2018116425A (en) * 2017-01-17 2018-07-26 株式会社日立製作所 Data providing system and data providing method
JP2018152053A (en) * 2017-03-09 2018-09-27 株式会社デンソー Data acquisition system and server
JP7000884B2 (en) 2017-03-09 2022-02-04 株式会社デンソー Data acquisition system and server
JP6451908B1 (en) * 2017-08-01 2019-01-16 オムロン株式会社 Sensing device management device
WO2019026602A1 (en) * 2017-08-01 2019-02-07 オムロン株式会社 Sensing device management apparatus

Also Published As

Publication number Publication date
JP6301779B2 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6301779B2 (en) SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM
JP6208654B2 (en) Method and system for pushing point of interest information
US8483715B2 (en) Computer based location identification using images
CN105637530A (en) 3d model updates using crowdsourced video
US9600932B2 (en) Three dimensional navigation among photos
KR20120099928A (en) Method and apparatus for sharing media based on social network in communication system
CN107193820B (en) Position information acquisition method, device and equipment
CN105956091A (en) Extended information acquisition method and device
KR102107207B1 (en) Image Searching Method, and Media Recorded with Program Executing Image Searching Method
WO2015197908A1 (en) A method and technical equipment for determining a pose of a device
JP2015018421A (en) Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system
US20160155253A1 (en) Electronic device and method of displaying images on electronic device
JP2009134333A (en) Digital photograph sharing system device
KR102168110B1 (en) Camera system
KR100853379B1 (en) Method for transforming based position image file and service server thereof
JP5578719B2 (en) Information system, terminal device, advertisement output method, and program
JP5272107B2 (en) Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method
JP2011095867A (en) Highlight spot distribution method and device
US9596404B2 (en) Method and apparatus for generating a media capture request using camera pose information
KR102012503B1 (en) Method and apparatus for providing travel products information
JP2018205570A (en) Information processing device, information processing system and information processing method
KR101152024B1 (en) Method for advertising using image and apparatus for performing the same
KR20120072033A (en) Method and apparatus for automatic tagging of picture and video contents
KR20090064677A (en) Apparatus and method for servicing map contents based on information of position and direction
JP2019057246A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170209

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20171120

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20171128

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180301

R150 Certificate of patent or registration of utility model

Ref document number: 6301779

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250