JP2016038703A - Sensor control device, sensor control method and sensor control program - Google Patents
Sensor control device, sensor control method and sensor control program Download PDFInfo
- Publication number
- JP2016038703A JP2016038703A JP2014161191A JP2014161191A JP2016038703A JP 2016038703 A JP2016038703 A JP 2016038703A JP 2014161191 A JP2014161191 A JP 2014161191A JP 2014161191 A JP2014161191 A JP 2014161191A JP 2016038703 A JP2016038703 A JP 2016038703A
- Authority
- JP
- Japan
- Prior art keywords
- sensor
- query
- identifier
- data
- attribute
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- Two-Way Televisions, Distribution Of Moving Picture Or The Like (AREA)
Abstract
Description
本発明は、センサの情報を管理するセンサ制御装置、センサ制御方法およびセンサ制御プログラムに関する。 The present invention relates to a sensor control device, a sensor control method, and a sensor control program for managing sensor information.
昨今の情報機器および通信ネットワークの発達に伴い、ライブカメラ、環境気象センサなど、様々なセンサが配置され、通信ネットワークを介して配信される(例えば、特許文献1参照。)。また多くの場所にライブカメラや環境気象センサが設置されていることから、これらの情報をまとめて提供するサイトも存在する。ライブカメラの情報を提供するサイトでは、ライブカメラの撮影データのURLへのリンクを表示したり、ライブカメラの撮影データを取り込んで表示したりする。 With the recent development of information devices and communication networks, various sensors such as live cameras and environmental weather sensors are arranged and distributed via the communication network (for example, see Patent Document 1). In addition, since live cameras and environmental weather sensors are installed in many places, there are sites that provide this information together. On a site that provides live camera information, a link to the URL of live camera shooting data is displayed, or live camera shooting data is captured and displayed.
このようなセンサの検知データの公開においては、企業などが提供する大規模な配信サービスのみならず、小規模団体や個人が提供する小規模な配信サービスもある。また、個人などに小規模なライブ映像の提供を募って、主要都市の空模様をライブ映像で提供するサービスもある。 Such disclosure of sensor detection data includes not only large-scale distribution services provided by companies, but also small-scale distribution services provided by small groups and individuals. There is also a service that invites individuals and others to provide small-scale live images and provides sky images of major cities as live images.
しかしながら、ユーザが所望のセンサを検索することが難しい場合がある。 However, it may be difficult for the user to search for a desired sensor.
具体的には、大規模な配信サービスにおいては、サービス提供者が各センサの情報をデータベースに登録する必要があるので、小規模な配信サービスに用いられるセンサまでは網羅することが難しい。また、所望の位置のみならず、所望の用途も適合するセンサを検索することが困難な場合もある。 Specifically, in a large-scale distribution service, since it is necessary for the service provider to register information of each sensor in a database, it is difficult to cover even the sensors used for the small-scale distribution service. In addition, it may be difficult to search for a sensor that matches not only a desired position but also a desired application.
従って本発明の目的は、ユーザによる所望のセンサの検索を支援するセンサ制御装置、センサ制御方法およびセンサ制御プログラムを提供することである。 Accordingly, an object of the present invention is to provide a sensor control device, a sensor control method, and a sensor control program that assist a user in searching for a desired sensor.
上記課題を解決するために、本発明の第1の特徴は、センサの情報を管理するセンサ制御装置に関する。本発明の第1の特徴に係るセンサ制御装置は、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶装置と、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索手段を備える。 In order to solve the above problems, a first feature of the present invention relates to a sensor control device that manages sensor information. The sensor control device according to the first aspect of the present invention stores sensor attribute data in which sensor identifiers, sensor position information, sensor attributes, and site identifiers that disclose detection data of the sensors are associated with each other. When a query including a device, position information, and use is input, the sensor attribute data is associated with position information within a predetermined distance from the position information of the query, and is associated with an attribute corresponding to the use of the query. Search means for acquiring a sensor identifier and outputting a site identifier corresponding to the acquired sensor identifier is provided.
検索手段はさらに、サイトの識別子に基づいて、サイトからセンサの検知データを取得して、クエリの位置情報と、取得した検知データを対応づけて、出力しても良い。 The search means may further acquire sensor detection data from the site based on the site identifier, and output the query position information and the acquired detection data in association with each other.
クエリの位置情報が、2点を結ぶルートの情報である場合、検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得しても良い。 When the position information of the query is information on a route connecting two points, the search means associates the position information within a predetermined distance from the route with the sensor associated with the attribute corresponding to the use of the query. An identifier may be acquired.
センサは、カメラで、検知データは、撮影データであって、センサの属性は、カメラが撮影する方向または被写体を含み、クエリの用途が、道路の混雑状況の場合、検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ属性が、当該カメラが道路を撮影することを示すカメラの識別子を取得しても良い。 When the sensor is a camera, the detection data is shooting data, the sensor attribute includes the direction or subject to be shot by the camera, and the usage of the query is road congestion, the search means A camera identifier associated with position information within a predetermined distance and having an attribute indicating that the camera captures a road may be acquired.
センサは、カメラで、検知データは、撮影データであって、検索手段は、取得したカメラの識別子に対応する撮影データのサイトの識別子から、所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力するとともに、所定時間より短い時間間隔毎に新たな撮影データを取得し、新たな撮影データにおける動体の位置を、静止画データに重畳して、出力しても良い。 The sensor is a camera, the detection data is shooting data, and the search means acquires shooting data at predetermined time intervals from the identifier of the shooting data site corresponding to the acquired camera identifier. May be output as still image data, new shooting data may be acquired at intervals shorter than a predetermined time, and the position of a moving object in the new shooting data may be superimposed on the still image data and output.
センサは、環境気象センサで、センサの属性は、当該センサが検知可能な環境気象種別で、検知データは、環境気象センサが検知した値であって、検索手段において、クエリの用途に適する属性は、クエリの用途に対応する環境気象種別であっても良い。 The sensor is an environmental weather sensor, and the sensor attribute is an environmental weather type that can be detected by the sensor. The detection data is a value detected by the environmental weather sensor. The environmental weather type corresponding to the use of the query may be used.
検索手段は検知データを要求する要求ユーザ端末と、検知データを提供可能な提供ユーザ端末に接続し、要求ユーザ端末から、クエリが入力されると、センサ属性データを検索してクエリに対応するセンサが検索されない場合、提供ユーザ端末にクエリを通知し、提供ユーザ端末のうち、クエリに対応するセンサの検知データを提供する提供ユーザ端末から検知データを受信して、要求ユーザ端末に送信しても良い。 The search means is connected to a requesting user terminal that requests detection data and a providing user terminal that can provide the detection data. When a query is input from the requesting user terminal, a sensor corresponding to the query is searched by searching sensor attribute data. Is not searched, the query is sent to the providing user terminal, and the detection data is received from the providing user terminal that provides the detection data of the sensor corresponding to the query, and transmitted to the requesting user terminal. good.
本発明の第2の特徴は、センサ制御装置が、センサの情報を管理するセンサ制御方法に関する。本発明の第2の特徴に係るセンサ制御方法は、センサ制御装置が、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、センサ制御装置が、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索ステップを備える。 A second feature of the present invention relates to a sensor control method in which a sensor control device manages sensor information. In the sensor control method according to the second aspect of the present invention, the sensor control device associates the identifier of the sensor, the sensor position information, the attribute of the sensor, and the identifier of the site where the detection data of the sensor is disclosed. When a query including the storage step for storing data and the sensor control device receives the position information and the application, the sensor attribute data is associated with the position information within a predetermined distance from the position information of the query, and the query A search step of obtaining an identifier of a sensor associated with an attribute corresponding to a use and outputting an identifier of a site corresponding to the obtained identifier of the sensor is provided.
本発明の第3の特徴は、センサの情報を管理するセンサ制御プログラムに関する。本発明の第3の特徴に係るセンサ制御プログラムは、センサの識別子、センサの位置情報、センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、位置情報および用途を含むクエリが入力されると、センサ属性データから、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得したセンサの識別子に対応するサイトの識別子を出力する検索ステップを、コンピュータに実行させる。 A third feature of the present invention relates to a sensor control program for managing sensor information. A sensor control program according to a third aspect of the present invention stores a sensor attribute data in which a sensor identifier, sensor position information, a sensor attribute, and a site identifier that discloses detection data of the sensor are associated with each other. When a query including a step, position information, and use is input, the sensor attribute data is associated with position information within a predetermined distance from the query position information, and is associated with an attribute corresponding to the query use. The computer is caused to execute a search step of acquiring a sensor identifier and outputting a site identifier corresponding to the acquired sensor identifier.
本発明によれば、ユーザによる所望のセンサの検索を支援するセンサ制御装置、センサ制御方法およびセンサ制御プログラムを提供することができる。 ADVANTAGE OF THE INVENTION According to this invention, the sensor control apparatus, the sensor control method, and sensor control program which assist the search of the desired sensor by a user can be provided.
次に、図面を参照して、本発明の実施の形態を説明する。以下の図面の記載において、同一または類似の部分には同一または類似の符号を付している。 Next, embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are denoted by the same or similar reference numerals.
(センサ制御システム)
図1を参照して、本発明の実施の形態に係るセンサ制御システム100を説明する。センサ制御システム100は、センサ制御装置1、検知データ提供サーバ2、カメラ3a、環境気象センサ3bおよびユーザ端末4を備える。センサ制御装置1は、通信ネットワーク5を介して、検知データ提供サーバ2およびユーザ端末4と相互に通信可能に接続される。
(Sensor control system)
A
センサ3は、カメラ3aや環境気象センサ3bである。カメラ3aは、典型的には、所定位置に設置され、動画で配信するライブカメラであるが、所定時間おきに静止画を撮影するデジタルカメラでもよいし、スマートフォンなどの可搬性端末に備えられるカメラでも良い。環境気象センサ3bは、二酸化窒素、光化学オキシダント、PM2.5、紫外線などの有害物質を測定するセンサである。
The
センサ3は検知データを出力する。センサ3がカメラ3aの場合、検知データは、動画データや静止画データなどの撮影データである。センサ3が環境気象センサ3bの場合、検知データは、各有害物質について、環境気象センサ3bが検知した値のデータである。
The
なお、本発明の実施の形態においては、センサ3がカメラ3aや環境気象センサ3bの場合を説明するが、これに限られない。
In the embodiment of the present invention, the case where the
検知データ提供サーバ2は、例えばウェブサーバやストリーミング配信サーバであって、センサ3から検知データを取得して、検知データを提供する。検知データ提供サーバ2は、検知データ提供サーバ2に接続するセンサ制御装置1、ユーザ端末4等のコンピュータに、検知データを提供する。なお、センサ3と検知データ提供サーバ2は、同一筐体で実装されても良い。例えば、センサ3が、可搬性端末に備えられるカメラ3aの場合、検知データ提供サーバ2は、そのカメラ3aを備える可搬性端末であっても良い。
The detection
ユーザ端末4は、ユーザが利用する端末であって、例えば、スマートフォン、タブレット端末、ノートパソコン、デスクトップパソコンなどである。ユーザ端末4は、可搬性を備えていても良いし、備えていなくても良い。ユーザ端末4は、ユーザの操作等により、センサ制御装置1に、センサ3を検索するためのクエリ等を入力する。ユーザ端末4は、センサ制御装置1から検知データを取得しても良いし、センサ制御装置1から検知データを提供している検知データ提供サーバ2のURLを取得して、検知データ提供サーバ2から所望のセンサ3の検知データを取得しても良い。
The
またユーザ端末4は、カメラ3aや環境気象センサ3bなどのセンサ3を備えても良い。ユーザ端末4は、断続的に、或いは所定のタイミングで、センサ3の検知データを、検知データ提供サーバ2を介して、または、検知データ提供サーバ2を介すことなく、センサ制御装置1に送信しても良い。
The
(センサ制御装置)
センサ制御装置1は、センサの情報を管理する。センサ制御装置1は、検知データ提供サーバ2およびユーザ端末4等に接続して、センサを検索するためのクエリを受信し、クエリに適するセンサの情報を取得して、ユーザ端末4等に提供する。センサ制御装置1は、記憶装置10、処理制御装置20および通信制御装置30を備える一般的なコンピュータである。一般的なコンピュータが所定の処理を実行するためのセンサ制御プログラムを実行することにより、図1に示す各機能を実現する。
(Sensor control device)
The
通信制御装置30は、センサ制御装置1を通信ネットワーク5に接続するためのインタフェースである。
The
記憶装置10は、センサ制御プログラムを記憶するとともに、センサ属性データ11およびユーザデータ12を記憶する。センサ属性データ11およびユーザデータ12は、データベースとして構築され、APIアクセスを可能としても良い。この場合、APIで定められた入力があれば、このAPIで定められた通りに出力する。
The
センサ属性データ11は、図2(a)に示すように、センサ3の識別子、センサ3の位置情報、センサ3の属性、およびセンサ3の検知データを公開するサイトの識別子を対応づけたデータである。センサの識別子は、センサの名称であっても良いし、センサ制御装置1が個々のセンサを識別可能なコードであっても良い。センサ3の位置情報は、センサが設置された緯度経度、住所、地名、駅名、通り名などである。センサ3が可搬性を備える場合、センサ3の位置情報に、この位置で検知データを提供可能な時間が対応づけられても良い。サイトの識別子は、センサ3の検知データを公開する検知データ提供サーバ2のURLである。ここでセンサ3がカメラ3aの場合、サイトの識別子は、サムネイル用と、縮小されていない画像用とで、異なるURLが設定されても良い。
As shown in FIG. 2A, the
センサ3の属性は、クエリに適合する用途に合致するか否かを判定するために参照されるデータである。センサ3の属性は、図2(a)に示すように、種別、キーワード、動作ステータス、利用者評価などである。種別は、カメラ3a、環境気象センサ3bなどのセンサ3の種類である。キーワードは、センサ3の特徴を示す用語であって、例えば近隣のランドマークや地名などである。動作ステータスは、センサ3が現在動作中であるか否か、具体的には、センサ制御装置1またはユーザ端末4が、このセンサ3の検知データを取得可能であるか否かを示す。利用者評価は、例えば点数形式のセンサ3の評価である。利用者評価は、センサの検知データを参照したユーザ端末4のユーザが、検知データやセンサ3を評価することにより、設定されても良い。また利用者評価は、ユーザが複数のセンサ3から選択したセンサ3についてプラス評価を付したりすることにより設定されても良い。
The attribute of the
センサ3がカメラ3aの場合、属性は、図2(a)に示すように、解像度、転送レート、撮影データの圧縮方式、配信方式、カメラの方向、角度、被写体、カメラ種別なども含む。撮影データの圧縮方式は、JPEG、MPEGなどであって、撮影データのデコート方法を示すとともに、動画、静止画などの撮影データの別を示す。配信方法は、撮影データをダウンロードするか、ストリーミングで配信するかの別である。カメラの方向は、例えば、「真北から時計回りに90度」など、水平方向でのカメラの角度を意味し、カメラの角度は、例えば、「水平から上方に30度」など、垂直方向でのカメラの角度を意味する。カメラ種別は、固定カメラか可搬性を備えるカメラかの別である。
When the
センサ3が環境気象センサ3bの場合、属性は、図2(a)に示すように、この環境気象センサ3bが検知可能な環境気象種別であって、具体的には、二酸化窒素、光化学オキシダント、PM2.5、紫外線などである。例えば図2に示すように、環境気象センサ3bの属性として、この環境気象センサ3bが検知可能な環境気象種別にTRUEがセットされ、検知不可能な環境気象種別にFALSEがセットされても良い。
When the
なお、図2(a)に示すように、属性として、上記に示した属性の各項目に加えて、各センサが、どのような用途に適しているかを示す用途フラグを設けても良い。例えば、屋外を撮影するカメラ3aは、空の様子や、傘をさしている人の数などから降雨状況を確認可能である。従って、屋外を撮影するカメラ3aのうち、降雨状況を確認できる解像度を持つカメラ3aの識別子に、「空模様」の用途フラグにTRUEがセットされる。また、屋外を撮影するカメラ3aが、道路を撮影する場合、道路の混雑状況を確認可能である。従って、屋外を撮影するカメラ3aのうち、被写体に道路を含むカメラ3aの識別子に、「道路の混雑状況」の用途フラグにTRUEがセットされる。
As shown in FIG. 2A, in addition to the above-described attribute items, an application flag indicating which application each sensor is suitable for may be provided as an attribute. For example, the
またセンサ属性データ11の他の例として、図2(b)に示すように、上記に示した属性の各項目に代えて、用途フラグが設けられても良い。
As another example of the
ユーザデータ12は、センサ制御システム100を利用するユーザ端末4のリストである。ユーザデータ12は、ユーザ端末4の識別子に、このユーザ端末4が有するセンサ3の識別子およびユーザ端末4の位置を対応づけて記憶しても良い。さらにユーザデータ12は、各ユーザのセンサ制御システム100における貢献度等に応じて付与された評価を対応づけて記憶しても良い。ここでユーザ端末4の位置は、ユーザ端末4が可搬性を有する場合、所定のタイミングでユーザ端末4等からユーザの位置を取得することにより、逐次更新される。
The
処理制御装置20は、センサ制御プログラムを実行することにより、センサ管理手段21および検索手段22による機能を実現する。 The processing control device 20 implements the functions of the sensor management means 21 and the search means 22 by executing a sensor control program.
(センサ管理手段)
センサ管理手段21は、センサ属性データ11に、新たなセンサの情報を追加したり、センサの属性、特に動作ステータス、利用者評価などを更新したりする。
(Sensor management means)
The sensor management means 21 adds new sensor information to the
センサ管理手段21は、ウェブをクローリングして、ウェブ上で公開されているセンサ3の情報を収集して、センサ属性データ11に新たなセンサの情報を追加する。具体的には、センサ管理手段21は、ウェブのタイトル、キーワード要素、ボディ部内のテキスト検索から、公開されるセンサ3の情報を取得する。さらにセンサ管理手段21は、JavaScript(登録商標)のスクリプトを参照して、撮影データの配信に用いられるプラグイン呼び出しや制御文の有無を確認して、センサ3があると判断すると、そのセンサ3の情報、具体的には、センサ属性データ11の各データのうち取得可能なデータを取得する。ここで、「撮影データの配信に用いられるプラグイン呼び出しや制御文」は、例えば、JavaScript(登録商標)中の、RTSPの呼び出しや、動画プレーヤの呼び出しなどである。
The
センサ管理手段21は、センサ3の情報を取得すると、センサ3の識別子、センサ3の位置情報、センサ3の属性、およびセンサ3の検知データを公開するサイトのURL等を対応づけたレコードを生成し、センサ属性データ11に挿入する。ここで、クローリングによりセンサの属性を特定できない場合、他のシステムとの連携やオペレータ等の操作により、属性値が登録されても良い。
When the
またセンサ管理手段21は、各センサ3の動作ステータスおよび利用者評価を逐次更新する。センサ管理手段21は、所定のタイミングで各センサ3のサイトのURLに接続し、センサ3の動作を確認し、そのセンサ3の識別子に対応づけられた動作ステータスを更新する。また、ユーザ端末4からセンサ3の評価が入力されると、センサ管理手段21は、入力された評価に基づいて、利用者評価を更新する。
Further, the sensor management means 21 sequentially updates the operation status and user evaluation of each
さらにセンサ管理手段21は、各センサ3の属性が用途のフラグを含む場合、各センサの属性値から対応可能な用途に、フラグをセットして更新しても良い。
Furthermore, when the attribute of each
(検索手段)
検索手段22は、位置情報および用途を含むクエリが入力されると、センサ属性データ11から、クエリの位置情報から所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサ3の識別子を取得して、取得したセンサ3の識別子に対応するサイトの識別子を出力する。クエリは、例えばユーザ端末4から入力されても良いし、他のシステムから入力されても良い。検索手段22は、クエリに対応するセンサ3の識別子に基づいて、このセンサ3の検知データを公開する検知データ提供サーバ2のURLを取得し、クエリの入力元に返す。ここで所定距離は、クエリの位置情報や用途によって適宜定められても良いし、ユーザが定めても良い。
(Search means)
When a query including position information and use is input, the search means 22 is associated with position information within a predetermined distance from the position information of the query and corresponds to an attribute corresponding to the use of the query from the
ここで、検索手段22は、例えばユーザ端末4に、クエリに対応するセンサの検知データを公開する検知データ提供サーバ2のURLを出力し、ユーザ端末4においてこの検知データ提供サーバ2のウェブページを表示するようにリダイレクトしても良い。また検索手段22は、検知データ提供サーバ2のURLに基づいて、検知データ提供サーバ2のサイトからセンサ3の検知データを取得して、クエリの位置情報と、取得した検知データを対応づけて、出力する場合もある。ここで検索手段22は、クエリの入力元のユーザ端末4が、検知データを再生できない場合、検索手段22は、検知データを、ユーザ端末4が再生可能な形式に変換してユーザ端末4に出力しても良い。具体的には、ユーザ端末4が、オペレーションシステムの制約等により特定の動画形式を再生できない場合で、出力対象の検知データがその動画形式の場合、検索手段22は、その動画形式の検知データを、他の動画形式に変換して、ユーザ端末4に出力する。
Here, the search means 22 outputs, for example, the URL of the detection
クエリの位置情報の特定方法として、様々な方法が考えられる。例えば、ユーザ端末4において地図上の所定地点がクリックされたことを検知すると、クリックされた所定位置の緯度経度を、クエリの位置情報として特定しても良い。また、ユーザ端末4において入力されたキーワードから、キーワードに対応する緯度経度や、キーワードに対応する地名やランドマークなどをクエリの位置情報として特定しても良い。
Various methods are conceivable as a method for specifying the query position information. For example, when the
検索手段22は、入力されたクエリに従って検索した結果、複数のセンサ3が検索された場合、これらの複数のセンサ3の情報を、サムネイルとして、一覧表示する。このとき検索手段22は、円形に配置する円形UIを利用して表示したり、スクロールに連動してサムネイルを追加するカード型UIを利用して表示したりしても良い。このとき、利用者評価の高いセンサ3が、優先的に表示されるように制御されても良い。
When a plurality of
図3を参照して、ユーザ端末4から、クエリとして、位置情報として、「東京都」、用途として、「空模様」が入力された場合を説明する。検索手段22は、センサ属性データ11から、東京都に位置するカメラ3aで、「空模様」を示す用途に適切なカメラ3aを特定して、各カメラ3aから撮影データを取得する。検索手段22は、クエリの位置情報「東京都」と、各カメラ3aから取得した撮影データを対応づけて、ユーザ端末4に出力する。
With reference to FIG. 3, a case where “Tokyo” as the position information and “sky” as the application are input from the
ここで、クエリの位置情報「東京都」のカメラ3aを検索する際、検索手段22は、センサ属性データ11から、動作ステータスが、動作中のカメラ3aであって、位置情報が、東京都の緯度経度を示すカメラ3a、またはキーワード等で「東京都」に関連する用語が対応づけられたカメラ3aを特定する。さらに「東京都」から数キロ離れたとしても、空模様が大きく変わらない場合もある。そこで検索手段22は、センサ属性データ11から、東京都から数キロ離れた隣接県であったとしても、カメラ3aの方向が東京都方向のカメラ3aも検索しても良い。検索手段22は、このように検索されたカメラ3aのうち、「空模様」を示す用途に適切なカメラ3aを検索する。
Here, when searching for the
図3(a)に示す画面V11は、所定のタイミングの東京都のアメダス表示部M11と、東京都のカメラ3aのうち、「空模様」を示す用途に適切なカメラ3aの撮影データP11、P12、P13およびP14を備える。図3(b)に示す画面V12および図3(c)に示す画面V13は、それぞれ、図3(a)に示す画面V11と同様の構成を備える。
The screen V11 shown in FIG. 3 (a) includes the AMeDAS display unit M11 in Tokyo at a predetermined timing and the shooting data P11, P12 of the
ここで、クエリとして、更に、「10分毎に撮影」など、検知データを取得するタイミングを含んでも良い。検索手段22は、同じクエリで10分おきに検索することにより、図3に示すように、時系列の雨模様の撮影データを出力することができる。ここでは、図3(a)の撮影データP12では、雨が降っていないところ、図3(b)から図3(c)と時間が経つに従って、撮影データP12において、多くの雨が降ることを認識できる。図3に示す各図において、各撮影データのカメラ3aの位置を、アメダス表示部M11上に対応づけて表示しても良い。
Here, the query may further include timing for acquiring detection data such as “shooting every 10 minutes”. The search means 22 can output time-sequential rain pattern image data as shown in FIG. 3 by searching every 10 minutes with the same query. Here, in the shooting data P12 of FIG. 3A, it is not raining. However, as time passes from FIG. 3B to FIG. 3C, a lot of rain falls in the shooting data P12. Can be recognized. In each figure shown in FIG. 3, the position of the
図3に示す各撮影データP11、P12、P13およびP14は、センサ制御装置1が、各検知データ提供サーバ2から取得して、ユーザ端末4に出力しても良いし、ユーザ端末4に各検知データ提供サーバ2から取得させるようにリダイレクトしても良い。
3 may be acquired from each detection
図3においては、カメラ3aでの撮影データを検索する例を示したが、環境気象センサ3bが測定した値を検索する場合も同様である。
Although FIG. 3 shows an example in which image data taken by the
図1に示すように、検索手段22は、ルート表示手段23、動線表示手段24およびセンサ要求処理手段25を備える。ルート表示手段23、動線表示手段24およびセンサ要求処理手段25は、ユーザの用途に適合するように検知データ等を加工して、センサ3の情報を出力する。
As shown in FIG. 1, the
(ルート表示手段)
ルート表示手段23は、クエリの位置情報が、2点を結ぶルートの情報である場合に、ルート近くのセンサの情報を出力する。ここでクエリのルートの情報、ルートの始点および終点が設定されても良いし、始点および終点を結ぶルートが設定されても良い。ルート表示手段23は、クエリのルートから所定距離内の位置情報に対応づけられ、かつクエリの用途に対応する属性に対応づけられたセンサの識別子を取得する。
(Route display means)
The route display unit 23 outputs information on sensors near the route when the position information of the query is information on a route connecting two points. Here, the query route information, the start point and the end point of the route may be set, or the route connecting the start point and the end point may be set. The route display unit 23 acquires the identifier of the sensor associated with the position information within a predetermined distance from the query route and associated with the attribute corresponding to the use of the query.
図4を参照して、ルート表示手段23の処理を説明する。クエリの位置情報として、ルートの始点および終点が設定されている場合、ステップS101においてルート表示手段23は、始点および終点を結ぶルートを検索する。ルート表示手段23は、経路探索サーバ(図示せず)等に、始点および終点を入力して、この2点を結ぶルートを取得しても良い。クエリの位置情報として、ルートが設定されている場合、ステップS101の処理は割愛される。 With reference to FIG. 4, the process of the route display means 23 will be described. When the start point and end point of the route are set as the position information of the query, the route display unit 23 searches for a route connecting the start point and the end point in step S101. The route display means 23 may input a start point and an end point to a route search server (not shown) or the like, and obtain a route connecting these two points. When a route is set as the query position information, the process of step S101 is omitted.
ステップS102においてルート表示手段23は、ステップS101で検索されたルートから所定距離内のセンサ3を検索する。ここでルート表示手段23は、ルートの経路上の各地点の位置情報に従って、複数のセンサ3を検索しても良い。ステップS103においてルート表示手段23は、ステップS102で検索されたセンサ3の検知データを表示する。
In step S102, the route display means 23 searches for the
図5ないし図7を参照して、ルート表示手段23による、カメラ3aの撮影データの表示画面の一例を説明する。
With reference to FIG. 5 thru | or FIG. 7, an example of the display screen of the imaging | photography data of the
図5に示す画面V21は、東京から大阪までのルート上の空模様の撮影データを示す。画面V21は、東京から大阪までのルートR21を表示する地図表示部M21と、ルート上の空模様を示す撮影データP21ないしP26とを、並べて表示する。 A screen V21 shown in FIG. 5 shows empty shooting data on the route from Tokyo to Osaka. The screen V21 displays a map display unit M21 that displays a route R21 from Tokyo to Osaka, and shooting data P21 to P26 that indicate a sky pattern on the route side by side.
図6に示す画面V22は、図5に示す撮影データおよび地図と同様であるが、表示方法が異なる。画面V22は、東京から大阪までのルートR21を表示する地図表示部M21に、ルート上の空模様を示す撮影データP21ないしP26を重畳して表示する。ここで、各撮影データP21ないしP26は、撮影データP21ないしP26のそれぞれのカメラ3aの位置に対応した位置、具体的には、ルートR21上近傍に表示される。
Screen V22 shown in FIG. 6 is similar to the shooting data and map shown in FIG. 5, but the display method is different. The screen V22 superimposes and displays the shooting data P21 to P26 indicating the sky pattern on the route on the map display unit M21 that displays the route R21 from Tokyo to Osaka. Here, the respective photographing data P21 to P26 are displayed at positions corresponding to the positions of the
また、クエリの用途において、道路の混雑状況が設定された場合も、図5および図6と同様に表示することができる。この場合、ルート表示手段23は、センサ3が、カメラ3aであって、センサ属性データ11のセンサ3の属性は、カメラ3aが撮影する方向または被写体を含む。ルート表示手段23は、クエリの位置情報のルートから所定距離内の位置情報に対応づけられ、かつ属性が、カメラ3aが道路を撮影することを示すカメラ3aの識別子を取得する。ここでルート表示手段23は、カメラ3aの位置情報とルートの位置情報との関係から、カメラ3aの方向および角度がルートの道路を撮影しているカメラ3aの識別子を取得する。またルート表示手段23は、カメラ3aの被写体として、ルートの道路が設定されているカメラ3aの識別子を取得する。ルート表示手段23は、このように取得したカメラ3aの識別子から、そのカメラ3aの撮影データを取得する。ここで、道路の上り方向および下り方向が隣接して走行していない場合や、カメラ3aが上り方向および下り方向のうちのいずれかのみを撮影している場合、ルート表示手段23は、始点から終点に向かう方向の道路を撮影しているカメラ3aの識別子、およびその撮影データを取得する。
Further, even when a road congestion state is set in the query application, it can be displayed in the same manner as in FIGS. In this case, in the route display means 23, the
次に図7を参照して、ルート表示手段23による、環境気象センサ3bの値の表示画面の一例を説明する。ルート表示手段23は、センサ属性データ11から、ルートから所定の範囲内の環境気象センサ3bであって、クエリの用途に適する環境気象種別を有する環境気象センサ3bの識別子を取得し、さらにこの環境気象センサ3bの値を取得して、ルートに重畳して表示する。画面V31は、ルート上の環境気象センサの値を示す。図7においてルート表示手段23は、ルートR31を表示する地図表示部M31に、ルート近傍の環境気象センサ3bの値を重畳して表示する。ここで、環境気象センサ3bの値は、測定値そのものが設定されても良いし、測定値が基準値よりも超えているか否かを示す記号で示されても良い。環境気象センサ3bの値を表示する際も、道路の空模様や混雑状況を表示する際と同様に、各環境気象センサ3bの値は、各値の環境気象センサ3bの位置に対応した位置、具体的には、ルートR31上近傍に表示される。
Next, an example of the display screen of the value of the
(動線表示手段)
次に図8ないし図12を参照して、動線表示手段24の処理を説明する。動線表示手段24は、ユーザ端末4において、リアルタイムで動体を確認する際に用いられる。動線表示手段24は、特に、センサ制御装置1およびユーザ端末4間の通信速度が遅い、またはユーザ端末4における処理能力が低い場合で、道路の混雑状況等の撮影データにおける動体の多さを確認する用途に好適である。
(Flow line display means)
Next, processing of the flow line display means 24 will be described with reference to FIGS. The flow line display means 24 is used when the moving object is confirmed in real time in the
動線表示手段24は、クエリの位置情報および用途から、所望のカメラ識別子を取得する。その後動線表示手段24は、動体の位置や移動量を、ヒートマップとして表す。具体的には動線表示手段24は、取得したカメラの識別子に対応する撮影データのサイトの識別子から、5秒などの所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力する。さらに動線表示手段24は、0.5秒などの、所定時間5秒より短い時間間隔毎に新たな撮影データを取得し、新たな撮影データにおける動体の位置を、静止画データに重畳して、出力する。ここで動線表示手段24の表示対象のカメラ3aは、動画を撮影しても良いし、静止画を撮影してもよい。
The flow
図8を参照して、動線表示手段24による動線表示処理を説明する。図8に示す例では、動線表示手段24は、ライブカメラから取得したストリーミング画像に基づいて、5秒ごとに静止画を更新し、0.5秒ごとに動体の位置を重畳して、ユーザ端末4に表示する処理を説明する。
With reference to FIG. 8, the flow line display process by the flow line display means 24 is demonstrated. In the example shown in FIG. 8, the flow
まずステップS201において動線表示手段24は、所望のライブカメラを検索する。次にステップS202において動線表示手段24は、最初に静止画を表示する必要があるので、静止画の更新タイミングと判定し、ステップS203において、表示を初期化する。ステップS204において動線表示手段24は、ライブカメラからストリーミング画像の1フレームを、静止画として、ユーザ端末4に表示する。ここで動線表示手段24は、静止画中にプライバシー保護の観点等により表示対象外の被写体があれば、モザイクや黒塗りなどでその被写体を消去する加工をする。
First, in step S201, the flow
次に、ステップS205において動線表示手段24は、動線の更新タイミングであるか否かを判定する。ステップS202において静止画の更新タイミングから0.5秒経過したタイミング、あるいは、ステップS205において動線の前回の更新タイミングから0.5秒経過したタイミングにおいて、動線表示手段24は、動線の更新タイミングであると判定する。動線の更新タイミングでない場合、動線表示手段24は、動線の更新タイミングに到達するまで待機する。動線の更新タイミングが到達すると、ステップS206において動線表示手段24は、ライブカメラの映像の1フレームを取得する。ステップS207において動線表示手段24は、ステップS204で表示した静止画に、ステップS206において取得した1フレームの画像における動体の位置をヒートマップとして、マーク表示する。
Next, in step S205, the flow
次に動線表示手段24は、ステップS202に戻り、静止画の更新タイミングか否かを判定する。静止画の更新タイミングでない場合、ステップS205に進み、動線の更新タイミングであるか否かを判定する。動線の更新タイミングが到達すると、ステップS206において動線表示手段24は、ライブカメラの映像の1フレームを取得する。ステップS207において動線表示手段24は、ステップS204で表示した静止画に、ステップS206の前回の処理で取得した1フレームの画像と、今回新たに取得した1フレームの画像との差分から、動体を特定し、特定された動体の位置をヒートマップとして、マーク表示する。ここで、動体が動く速度等によって、マークの色や形状を変えても良い。
Next, the flow line display means 24 returns to step S202, and determines whether or not it is a still image update timing. If it is not the still image update timing, the process advances to step S205 to determine whether it is the flow line update timing. When the flow line update timing arrives, in step S206, the flow line display means 24 acquires one frame of the video of the live camera. In step S207, the flow
このように図8の処理により、5秒ごとに背景となる静止画が更新され、さらに0.5秒ごとに動体の位置がマークされるヒートマップを生成することができる。 As described above, the process shown in FIG. 8 can generate a heat map in which a still image as a background is updated every 5 seconds and the position of a moving object is marked every 0.5 seconds.
図9ないし図12を参照して、ヒートマップを利用して表示される画面V41ないしV44を説明する。画面V41ないしV44は、交差点での車および人の動きを示す。 Screens V41 to V44 displayed using the heat map will be described with reference to FIGS. Screens V41 to V44 show the movement of cars and people at the intersection.
まず動線表示するタイミングで動線表示手段24は、所望のライブカメラの1フレームから静止画を取得して、図9に示すようにユーザ端末4の画面に表示する。図9に示す画面V41は、車C1、C2、C3および人P1を含む。また図9に示す例において、交差点に隣接して設けられるビル等は、ハッチにより、ビル等を表示しないように加工されている。
First, the flow line display means 24 obtains a still image from one frame of a desired live camera at the timing of displaying a flow line, and displays it on the screen of the
図10を参照して、画面V41のフレームを取得して数秒後の画面V42を示す。車C1および車C2に、それぞれ動体の移動を示すマークB11およびB21が重畳される。ここで、車C2は、車C1よりも早く移動していることから、マークB21は、マークB11とは異なる濃い色のマークで描画される。一方、人P1はほとんど動いていないので、マークB31は1点で描画される。車C3は全く動いていないので、マークは表示されない。 Referring to FIG. 10, screen V42 after a few seconds after acquiring the frame of screen V41 is shown. Marks B11 and B21 indicating movement of the moving body are superimposed on the car C1 and the car C2, respectively. Here, since the car C2 moves faster than the car C1, the mark B21 is drawn with a dark color mark different from the mark B11. On the other hand, since the person P1 hardly moves, the mark B31 is drawn at one point. Since the car C3 is not moving at all, the mark is not displayed.
図11を参照して、画面V42の数秒後の画面V43を示す。この間、動いた車C1および車C2について、マークB12およびマークB22は、図10のマークB11およびマークB21よりも左側方向に伸びて描画される。一方、人P1および車C3については、動きがないので、図10の画面V42とは変わらない。このように、動きのある車C1およびC2について、マークが逐次変更され、動きのない人P1や車C3については、マークは変更されない。 Referring to FIG. 11, screen V43 after a few seconds of screen V42 is shown. During this period, the mark B12 and the mark B22 are drawn extending in the left direction from the mark B11 and the mark B21 in FIG. On the other hand, since the person P1 and the car C3 do not move, the screen V42 in FIG. 10 is not changed. As described above, the marks are sequentially changed for the moving cars C1 and C2, and the mark is not changed for the person P1 and the car C3 that are not moving.
さらに、図10に示す画面V41のフレームを取得してから5秒が経過した後、動線表示手段24は、所望のライブカメラの1フレームから静止画を新たに取得して、図12に示すようにユーザ端末4の画面に表示する。図12に示す画面V44は、車C1、C2、C3、および人P1を含むが、図9に示す各位置と比べて、動体の位置、具体的には、車C1、C2および人P1の位置が変更されている。さらに、交差点における車の流れに従って、新たな車C4が表示される。一方、動きのない車C3は、図9の画面V41と同じ位置に表示される。
Furthermore, after 5 seconds have elapsed since the frame of the screen V41 shown in FIG. 10 has been acquired, the flow line display means 24 newly acquires a still image from one frame of the desired live camera, and is shown in FIG. As shown on the screen of the
この後動線表示手段24は、図10および図11における処理と同様に、動体にマークを重畳して、ヒートマップを表示する。 After this, the flow line display means 24 displays the heat map by superimposing the mark on the moving object, as in the processing in FIGS. 10 and 11.
上述したように、動画をストリーミングで配信する際には、800kbpsなどの大きい帯域幅が必要になる場合でも、動線表示手段24により動体の位置のみを重畳することにより、32kbpsなどの小さい帯域幅で動体の動きを知らせることができる。また、撮影データにプライバシー保護が必要となる被写体を含む場合でも、静止画でのみモザイク処理や、黒塗り処理をすれば足りるので、動画でのモザイク処理に比べ処理の負担が少ない。
As described above, when a moving image is distributed by streaming, even if a large bandwidth such as 800 kbps is required, a small bandwidth such as 32 kbps is obtained by superimposing only the position of the moving object by the flow
(センサ要求処理手段)
センサ要求処理手段25は、センサ3の検知データを要求する要求ユーザ端末4aと、検知データを提供可能な提供ユーザ端末4bに接続する。要求ユーザ端末4aは、図1に示すユーザ端末4の一つであって、提供ユーザ端末4bは、図1に示すユーザ端末4のうち要求ユーザ端末4a以外のユーザ端末4である。
(Sensor request processing means)
The sensor request processing means 25 is connected to the requesting
センサ要求処理手段25は、要求ユーザ端末4aが要求するクエリを、提供ユーザ端末4bに提供させる。具体的には、センサ要求処理手段25は、要求ユーザ端末4aから、クエリが入力されると、センサ属性データ11を検索してクエリに対応するセンサが検索されない場合、提供ユーザ端末4bにクエリを通知する。センサ要求処理手段25は、クエリを通知した提供ユーザ端末4bのうち、クエリに対応するセンサの検知データを提供する提供ユーザ端末4bから検知データを受信して、要求ユーザ端末4aに送信する。
The sensor request processing means 25 causes the providing
図13を参照して、要求ユーザ端末4aが所定位置のライブ映像を要求する場合の処理を説明する。
With reference to FIG. 13, a process when the requesting
ステップS501において要求ユーザ端末4aから、所定位置のライブ映像を要求するクエリを受信すると、センサ制御装置1のセンサ要求処理手段25は、ステップS502において、センサ属性データ11を検索して、クエリに適合するライブ映像を提供できるか否かを判定する。提供できる場合、センサ制御装置1は、そのライブ映像を、要求ユーザ端末4aに提供する(図示せず)。
When a query requesting a live video at a predetermined position is received from the requesting
一方、クエリに適合するライブ映像を提供できない場合、ステップS503a、503b、および503cにおいてセンサ制御装置1は、提供ユーザ端末4bに、クエリをプッシュ通信で送信する。ここでセンサ制御装置1は、ユーザデータ12を参照して、クエリで指定された位置の近傍に位置する提供ユーザ端末4bのみに、クエリを送信しても良い。
On the other hand, when live video that matches the query cannot be provided, the
クエリがプッシュ通信で送信されると、提供ユーザ端末4bのユーザは、クエリを確認して、クエリで指定される場所の映像を提供可能であるか否かを判定する。ここで、第1の提供ユーザ端末4bおよび第3の提供ユーザ端末4bが提供可能な場合、第1の提供ユーザ端末4bおよび第3の提供ユーザ端末4bは、ステップS504aおよびステップS504bにおいて、その旨をセンサ制御装置1に通知する。ここで、「今すぐ提供できます」や「10分ほどで提供できます」など、提供ユーザ端末4bが映像を提供可能なタイミングを含むコメントも、併せて、センサ制御装置1に送信されても良い。
When the query is transmitted by push communication, the user of the providing
センサ制御装置1は、ステップS504aおよびステップS504bにおいて、提供可能と返信した提供ユーザ端末4bの識別子のリストを受信すると、ステップS505において受信したリストを要求ユーザ端末4aに送信する。ここでセンサ制御装置1は、コメントがあればそのコメント、提供ユーザ端末4bの位置情報、ユーザの評価等を対応づけて要求ユーザ端末4aに送信しても良い。
In step S504a and step S504b, the
要求ユーザ端末4aは、ステップS505で提供されたリストから、ライブ映像の提供を要求するユーザを特定し、ステップS506において、特定したユーザの識別子を含む提供リクエストを、センサ制御装置1に送信する。センサ制御装置1は、ステップS507において、ライブ映像の提供を要求された提供ユーザ端末4bに、要求ユーザ端末4aから受信した提供リクエストを送信する。
The requesting
提供ユーザ端末4bが、ステップS508においてライブ映像の提供を開始すると、センサ制御装置1は、ステップS509において、そのライブ映像を要求ユーザ端末4aに提供する。このときセンサ制御装置1は、ライブ映像を提供する提供ユーザ端末4bのユーザについて、評価を上げるようにユーザデータ12を更新しても良いし、ポイントなどのその他のインセンティブを与えても良い。
When the providing
なお、要求ユーザ端末4aが、ライブ映像の動画形式で再生できない場合、センサ制御装置1は、要求ユーザ端末4aが再生可能な動画形式に変換して、ライブ映像を提供しても良い。また要求ユーザ端末4aとの通信速度が遅い、あるいは要求ユーザ端末4aの処理速度が遅い場合、センサ制御装置1は、動線表示手段24によって、動画を静止画と動線で表現したデータを、要求ユーザ端末4aに提供しても良い。さらに、図13では、要求ユーザ端末4aが、ライブ映像を要求する場合を説明したが、静止画を要求する場合や環境気象センサ3bを要求する場合も同様に処理できる。
When the requesting
このように、所望のライブカメラがセンサ属性データ11に登録されていない場合でも、他のユーザが有するユーザ端末4のカメラ等を用いて、ライブ映像の協力を呼びかけることができる。これにより、列車運行遅延により、駅の混雑度を知りたい場合、その駅に偶然居合わせた他のユーザからライブ映像の提供を受けることができる。
In this way, even when a desired live camera is not registered in the
上述したように、本発明の実施の形態に係るセンサ制御装置1は、通信ネットワーク5を介して提供されるセンサの位置情報と、その属性とを、センサ属性データ11として格納し管理する。これによりセンサ制御装置1は、所望の位置情報と用途を特定したクエリから、そのクエリに合致する所望のセンサを特定し、そのセンサの検知データを出力することができる。
As described above, the
(その他の実施の形態)
上記のように、本発明の実施の形態によって記載したが、この開示の一部をなす論述および図面はこの発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例および運用技術が明らかとなる。
(Other embodiments)
As described above, the embodiments of the present invention have been described. However, it should not be understood that the descriptions and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples, and operational techniques will be apparent to those skilled in the art.
例えば、本発明の実施の形態に記載したセンサ制御装置は、図1に示すように一つのハードウェア上に構成されても良いし、その機能や処理数に応じて複数のハードウェア上に構成されても良い。また、既存の情報処理システム上に実現されても良い。 For example, the sensor control device described in the embodiment of the present invention may be configured on one piece of hardware as shown in FIG. 1, or may be configured on a plurality of pieces of hardware according to the function and the number of processes. May be. Moreover, you may implement | achieve on the existing information processing system.
本発明はここでは記載していない様々な実施の形態等を含むことは勿論である。従って、本発明の技術的範囲は上記の説明から妥当な特許請求の範囲に係る発明特定事項によってのみ定められるものである。 It goes without saying that the present invention includes various embodiments not described herein. Therefore, the technical scope of the present invention is defined only by the invention specifying matters according to the scope of claims reasonable from the above description.
1 センサ制御装置
2 検知データ提供サーバ
3 センサ
3a カメラ
3b 環境気象センサ
4 ユーザ端末
4a 要求ユーザ端末
4b 提供ユーザ端末
5 通信ネットワーク
10 記憶装置
11 センサ属性データ
12 ユーザデータ
20 処理制御装置
21 センサ管理手段
22 検索手段
23 ルート表示手段
24 動線表示手段
25 センサ要求処理手段
100 センサ制御システム
DESCRIPTION OF
Claims (9)
前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶装置と、
位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索手段
を備えることを特徴とするセンサ制御装置。 A sensor control device that manages sensor information,
A storage device that stores sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including location information and usage is input, the sensor attribute data is associated with location information within a predetermined distance from the location information of the query, and is associated with an attribute corresponding to the usage of the query. A sensor control apparatus comprising: a search unit that acquires a sensor identifier and outputs the site identifier corresponding to the acquired sensor identifier.
前記サイトの識別子に基づいて、前記サイトから前記センサの検知データを取得して、前記クエリの位置情報と、取得した検知データを対応づけて、出力する
ことを特徴とする請求項1に記載のセンサ制御装置。 The search means further includes
The detection data of the sensor is acquired from the site based on the identifier of the site, the positional information of the query is associated with the acquired detection data, and is output. Sensor control device.
前記検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得する
ことを特徴とする請求項1または2に記載のセンサ制御装置。 When the location information of the query is information on a route connecting two points,
3. The sensor according to claim 1, wherein the retrieval unit obtains an identifier of a sensor associated with position information within a predetermined distance from the route and associated with an attribute corresponding to the use of the query. The sensor control device described.
前記センサの属性は、前記カメラが撮影する方向または被写体を含み、
前記クエリの用途が、道路の混雑状況の場合、
前記検索手段は、当該ルートから所定距離内の位置情報に対応づけられ、かつ属性が、当該カメラが前記道路を撮影することを示すカメラの識別子を取得する
ことを特徴とする請求項3に記載のセンサ制御装置。 The sensor is a camera, and the detection data is photographing data,
The attribute of the sensor includes a direction or a subject taken by the camera,
If the query is used for road congestion,
The said search means is matched with the positional information within the predetermined distance from the said route, and an attribute acquires the identifier of the camera which shows that the said camera image | photographs the said road. Sensor control device.
前記検索手段は、前記取得したカメラの識別子に対応する撮影データのサイトの識別子から、所定時間毎に撮影データを取得し、取得した撮影データを静止画データとして出力するとともに、前記所定時間より短い時間間隔毎に新たな撮影データを取得し、前記新たな撮影データにおける動体の位置を、前記静止画データに重畳して、出力する
ことを特徴とする請求項1ないし3のいずれか1項に記載のセンサ制御装置。 The sensor is a camera, and the detection data is photographing data,
The search means acquires shooting data at predetermined time intervals from an identifier of a shooting data site corresponding to the acquired camera identifier, outputs the acquired shooting data as still image data, and is shorter than the predetermined time. The new photographing data is acquired at every time interval, and the position of the moving object in the new photographing data is superimposed on the still image data and output. The sensor control device described.
前記センサの属性は、当該センサが検知可能な環境気象種別で、
前記検知データは、環境気象センサが検知した値であって、
前記検索手段において、前記クエリの用途に適する属性は、前記クエリの用途に対応する環境気象種別である
ことを特徴とする請求項1または2に記載のセンサ制御装置。 The sensor is an environmental weather sensor,
The attribute of the sensor is the environmental weather type that the sensor can detect,
The detection data is a value detected by an environmental weather sensor,
The sensor control apparatus according to claim 1, wherein in the search unit, an attribute suitable for the use of the query is an environmental weather type corresponding to the use of the query.
前記要求ユーザ端末から、前記クエリが入力されると、前記センサ属性データを検索して前記クエリに対応するセンサが検索されない場合、前記提供ユーザ端末に前記クエリを通知し、前記提供ユーザ端末のうち、前記クエリに対応するセンサの検知データを提供する提供ユーザ端末から検知データを受信して、前記要求ユーザ端末に送信する
ことを特徴とする請求項1ないし6のいずれか1項に記載のセンサ制御装置。 The search means is connected to a requesting user terminal requesting detection data and a providing user terminal capable of providing detection data,
When the query is input from the requesting user terminal, when the sensor attribute data is searched and a sensor corresponding to the query is not searched, the providing user terminal is notified of the query, and among the providing user terminals The sensor according to claim 1, wherein detection data is received from a providing user terminal that provides detection data of the sensor corresponding to the query, and is transmitted to the requesting user terminal. Control device.
前記センサ制御装置が、前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、
前記センサ制御装置が、位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索ステップ
を備えることを特徴とするセンサ制御方法。 A sensor control device is a sensor control method for managing sensor information,
A storage step in which the sensor control device stores sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including position information and usage is input, the sensor control device associates the sensor attribute data with location information within a predetermined distance from the location information of the query, and corresponds to the usage of the query. A sensor control method comprising: a search step of acquiring an identifier of a sensor associated with an attribute and outputting an identifier of the site corresponding to the acquired identifier of the sensor.
前記センサの識別子、前記センサの位置情報、前記センサの属性、および当該センサの検知データを公開するサイトの識別子を対応づけたセンサ属性データを記憶する記憶ステップと、
位置情報および用途を含むクエリが入力されると、前記センサ属性データから、前記クエリの位置情報から所定距離内の位置情報に対応づけられ、かつ前記クエリの用途に対応する属性に対応づけられたセンサの識別子を取得して、取得した前記センサの識別子に対応する前記サイトの識別子を出力する検索ステップ
を、コンピュータに実行させるためのセンサ制御プログラム。 A sensor control program for managing sensor information,
A storage step of storing sensor attribute data in which the identifier of the sensor, the position information of the sensor, the attribute of the sensor, and the identifier of a site that publishes detection data of the sensor are associated;
When a query including location information and usage is input, the sensor attribute data is associated with location information within a predetermined distance from the location information of the query, and is associated with an attribute corresponding to the usage of the query. A sensor control program for causing a computer to execute a search step of acquiring a sensor identifier and outputting the site identifier corresponding to the acquired sensor identifier.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014161191A JP6301779B2 (en) | 2014-08-07 | 2014-08-07 | SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014161191A JP6301779B2 (en) | 2014-08-07 | 2014-08-07 | SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2016038703A true JP2016038703A (en) | 2016-03-22 |
JP6301779B2 JP6301779B2 (en) | 2018-03-28 |
Family
ID=55529733
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014161191A Active JP6301779B2 (en) | 2014-08-07 | 2014-08-07 | SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6301779B2 (en) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6126759B1 (en) * | 2016-06-16 | 2017-05-10 | 株式会社オプティム | Information provision system |
US20180097886A1 (en) * | 2015-03-27 | 2018-04-05 | Nec Corporation | Sensor network system |
JP2018116425A (en) * | 2017-01-17 | 2018-07-26 | 株式会社日立製作所 | Data providing system and data providing method |
JP2018152053A (en) * | 2017-03-09 | 2018-09-27 | 株式会社デンソー | Data acquisition system and server |
JP6451908B1 (en) * | 2017-08-01 | 2019-01-16 | オムロン株式会社 | Sensing device management device |
WO2019026602A1 (en) * | 2017-08-01 | 2019-02-07 | オムロン株式会社 | Sensing device management apparatus |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11160090A (en) * | 1997-11-26 | 1999-06-18 | Aisin Aw Co Ltd | Navigation device |
JP2004120390A (en) * | 2002-09-26 | 2004-04-15 | Fuji Photo Film Co Ltd | Live video acquisition support service server |
JP2007108119A (en) * | 2005-10-17 | 2007-04-26 | Alpine Electronics Inc | Navigation system |
JP2011215929A (en) * | 2010-03-31 | 2011-10-27 | Honda Motor Co Ltd | Device and system for processing weather information |
JP2012004629A (en) * | 2010-06-14 | 2012-01-05 | Kddi Corp | Relay distribution method of live image contents, server and program |
JP2013026933A (en) * | 2011-07-23 | 2013-02-04 | Canon Inc | Image processing apparatus, image processing method, and program |
WO2013153890A1 (en) * | 2012-04-12 | 2013-10-17 | オムロン株式会社 | Device management apparatus and device search method |
JP2014064241A (en) * | 2012-09-24 | 2014-04-10 | Hitachi Kokusai Electric Inc | Monitor camera location disclosure system |
-
2014
- 2014-08-07 JP JP2014161191A patent/JP6301779B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH11160090A (en) * | 1997-11-26 | 1999-06-18 | Aisin Aw Co Ltd | Navigation device |
JP2004120390A (en) * | 2002-09-26 | 2004-04-15 | Fuji Photo Film Co Ltd | Live video acquisition support service server |
JP2007108119A (en) * | 2005-10-17 | 2007-04-26 | Alpine Electronics Inc | Navigation system |
JP2011215929A (en) * | 2010-03-31 | 2011-10-27 | Honda Motor Co Ltd | Device and system for processing weather information |
JP2012004629A (en) * | 2010-06-14 | 2012-01-05 | Kddi Corp | Relay distribution method of live image contents, server and program |
JP2013026933A (en) * | 2011-07-23 | 2013-02-04 | Canon Inc | Image processing apparatus, image processing method, and program |
WO2013153890A1 (en) * | 2012-04-12 | 2013-10-17 | オムロン株式会社 | Device management apparatus and device search method |
JP2014064241A (en) * | 2012-09-24 | 2014-04-10 | Hitachi Kokusai Electric Inc | Monitor camera location disclosure system |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20180097886A1 (en) * | 2015-03-27 | 2018-04-05 | Nec Corporation | Sensor network system |
JP6126759B1 (en) * | 2016-06-16 | 2017-05-10 | 株式会社オプティム | Information provision system |
WO2017216920A1 (en) * | 2016-06-16 | 2017-12-21 | 株式会社オプティム | Information provision system |
US10423836B2 (en) | 2016-06-16 | 2019-09-24 | Optim Corporation | Information providing system |
JP2018116425A (en) * | 2017-01-17 | 2018-07-26 | 株式会社日立製作所 | Data providing system and data providing method |
JP2018152053A (en) * | 2017-03-09 | 2018-09-27 | 株式会社デンソー | Data acquisition system and server |
JP7000884B2 (en) | 2017-03-09 | 2022-02-04 | 株式会社デンソー | Data acquisition system and server |
JP6451908B1 (en) * | 2017-08-01 | 2019-01-16 | オムロン株式会社 | Sensing device management device |
WO2019026602A1 (en) * | 2017-08-01 | 2019-02-07 | オムロン株式会社 | Sensing device management apparatus |
Also Published As
Publication number | Publication date |
---|---|
JP6301779B2 (en) | 2018-03-28 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6301779B2 (en) | SENSOR CONTROL DEVICE, SENSOR CONTROL METHOD, AND SENSOR CONTROL PROGRAM | |
JP6208654B2 (en) | Method and system for pushing point of interest information | |
US8483715B2 (en) | Computer based location identification using images | |
CN105637530A (en) | 3d model updates using crowdsourced video | |
US9600932B2 (en) | Three dimensional navigation among photos | |
KR20120099928A (en) | Method and apparatus for sharing media based on social network in communication system | |
CN107193820B (en) | Position information acquisition method, device and equipment | |
CN105956091A (en) | Extended information acquisition method and device | |
KR102107207B1 (en) | Image Searching Method, and Media Recorded with Program Executing Image Searching Method | |
WO2015197908A1 (en) | A method and technical equipment for determining a pose of a device | |
JP2015018421A (en) | Terminal device, contribution information transmission method, contribution information transmission program, and contribution information sharing system | |
US20160155253A1 (en) | Electronic device and method of displaying images on electronic device | |
JP2009134333A (en) | Digital photograph sharing system device | |
KR102168110B1 (en) | Camera system | |
KR100853379B1 (en) | Method for transforming based position image file and service server thereof | |
JP5578719B2 (en) | Information system, terminal device, advertisement output method, and program | |
JP5272107B2 (en) | Information providing apparatus, information providing processing program, recording medium on which information providing processing program is recorded, and information providing method | |
JP2011095867A (en) | Highlight spot distribution method and device | |
US9596404B2 (en) | Method and apparatus for generating a media capture request using camera pose information | |
KR102012503B1 (en) | Method and apparatus for providing travel products information | |
JP2018205570A (en) | Information processing device, information processing system and information processing method | |
KR101152024B1 (en) | Method for advertising using image and apparatus for performing the same | |
KR20120072033A (en) | Method and apparatus for automatic tagging of picture and video contents | |
KR20090064677A (en) | Apparatus and method for servicing map contents based on information of position and direction | |
JP2019057246A (en) | Information processing apparatus and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20170209 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20171120 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20171128 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180115 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180220 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180301 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6301779 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S531 | Written request for registration of change of domicile |
Free format text: JAPANESE INTERMEDIATE CODE: R313531 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |