JP2010123069A - Sensing data retrieval device and retrieval image creation method - Google Patents

Sensing data retrieval device and retrieval image creation method Download PDF

Info

Publication number
JP2010123069A
JP2010123069A JP2008298445A JP2008298445A JP2010123069A JP 2010123069 A JP2010123069 A JP 2010123069A JP 2008298445 A JP2008298445 A JP 2008298445A JP 2008298445 A JP2008298445 A JP 2008298445A JP 2010123069 A JP2010123069 A JP 2010123069A
Authority
JP
Japan
Prior art keywords
flow line
image
auxiliary
sensing data
graphic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2008298445A
Other languages
Japanese (ja)
Inventor
Takeshi Ishihara
健 石原
Mikio Morioka
幹夫 森岡
Masaki Sugiura
雅貴 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2008298445A priority Critical patent/JP2010123069A/en
Publication of JP2010123069A publication Critical patent/JP2010123069A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a sensing data retrieval device quickly and properly selecting a desired reproduction point by use of a flow line. <P>SOLUTION: The retrieval device 110 has, in addition to a flow line creation part 111 and a reproduction time setting part 115 controlling reproduction of sensing data corresponding to a flow line section and a flow line part designated by a user; an auxiliary figure creation part 112 creating an auxiliary figure related to the flow line not appearing in the flow line based on a position measurement result; and a flow line retrieval image creation part 113 creating a retrieval image including the flow line and the auxiliary figure, and displaying the retrieval image on a display part 160. The user can select the reproduction point in reference to the auxiliary figure related to the flow line as well as the flow line, so that the user can quickly and properly select the desired reproduction point by use of the flow line. <P>COPYRIGHT: (C)2010,JPO&INPIT

Description

本発明は、センシングデータ検索装置及び検索画像作成方法に関し、特に動線を見ながら動画などのセンシングデータを検索する技術に関する。   The present invention relates to a sensing data retrieval apparatus and a retrieval image creation method, and more particularly to a technique for retrieving sensing data such as a moving image while viewing a flow line.

従来、例えば特許文献1には、監視対象者に付帯された無線タグからの無線信号を用いて監視対象者の位置を計測し、その計測履歴に基づいて監視対象者の移動履歴を示す動線を作成し、その動線を表示する技術が開示されている。また、特許文献1では、監視対象者を監視カメラによって撮影しておき、監視対象者が不審者であると判定した場合に、不審者の動画を再生する技術が開示されている。   Conventionally, for example, Patent Literature 1 discloses a flow line that measures a position of a monitoring target person using a wireless signal from a wireless tag attached to the monitoring target person and indicates a movement history of the monitoring target person based on the measurement history. And a technique for displaying the flow line is disclosed. Japanese Patent Application Laid-Open No. 2005-228561 discloses a technique for reproducing a suspicious person's video when a person to be monitored is photographed by a monitoring camera and it is determined that the person to be monitored is a suspicious person.

特許文献2には、例えば車両にGPS装置とビデオカメラとを搭載することで、車両の走行軌跡(動線)と走行時の映像とを記録しておき、ユーザによって指定された走行軌跡上の区間に対応する映像を検索して再生する映像検索装置が開示されている。   In Patent Document 2, for example, by mounting a GPS device and a video camera on a vehicle, a travel locus (traffic line) of the vehicle and an image at the time of travel are recorded, and on the travel locus specified by the user. A video search device that searches for and plays back video corresponding to a section is disclosed.

特許文献3には、ディスプレイ画面上に、移動軌跡(動線)と方向指示要素とを表示し、移動軌跡上の座標とその座標での方向とを指定することで、指定された座標における指定された方向の画像を再生して表示する画像表示装置が開示されている。
特開2004−5511号公報 特開2001−290820号公報 特開2001−215941号公報
In Patent Document 3, a movement trajectory (flow line) and a direction indicating element are displayed on a display screen, and the coordinates at the designated coordinates are designated by designating coordinates on the movement trajectory and directions at the coordinates. An image display device that reproduces and displays an image in a specified direction is disclosed.
Japanese Patent Laid-Open No. 2004-5511 JP 2001-290820 A JP 2001-215941 A

ところで、特許文献1には、不審者の動画を再生する技術が開示されているが、不審者の動画が必ずしもユーザが見たい動画とは限らない。よって、ユーザが見たい動画を自由に選択できない点で、不便である。   By the way, although the technique which reproduces a suspicious person's animation is indicated by patent documents 1, a suspicious person's animation is not necessarily the animation which a user wants to watch. Therefore, it is inconvenient in that the user cannot freely select the moving image that he wants to see.

また、特許文献2及び特許文献3に開示された、動線を用いて再生画像を検索する技術は、ユーザが動線を見ながら視覚的に再生ポイントを指定できるので、便利である。   In addition, the technique disclosed in Patent Document 2 and Patent Document 3 for retrieving a reproduction image using a flow line is convenient because the user can visually designate a reproduction point while viewing the flow line.

しかしながら、ユーザが動線上で再生ポイントを指定する場合、ユーザの再生ポイントの選択基準となるのは、移動体(監視対象)の座標のみであり、ユーザが所望の再生画像を選択する上で、不十分であると考えられる。つまり、ユーザは、動線上で選択した再生ポイントの再生画像が自分の見たかった再生画像でなかった場合には、新たに動線上で再生ポイントを選択する作業が必要となり、迅速に所望の再生画像を得ることが困難である。つまり、見たい再生画像が動線のみから判断できれば問題ないが、見たい再生画像が動線のみから判断できない場合は、実際に再生画像を確認しながら、何度も再生ポイントを選択し直す作業が必要となる。   However, when the user designates a playback point on the flow line, the user's playback point selection criterion is only the coordinates of the moving object (monitoring target). When the user selects a desired playback image, It is considered insufficient. In other words, if the playback image at the playback point selected on the flow line is not the playback image that he / she wanted to see, the user needs to newly select a playback point on the flow line, so that the desired playback can be quickly performed. It is difficult to obtain an image. In other words, there is no problem if the playback image you want to view can be determined from the flow line alone, but if you cannot determine the playback image you want to view from the flow line alone, you can reselect the playback point many times while actually checking the playback image. Is required.

例えば、ナビゲーションシステムのように、自分の動線から再生ポイントを選択する場合には動線から比較的速やかに希望する再生ポイントを選択できるが、特に、監視システムのように、自分とは異なる複数の監視対象が存在し、複数の動線が存在し又は自分の動線とは異なる動線が存在する場合には、希望する再生ポイントを動線のみから速やかに選択することは困難となる。   For example, when a playback point is selected from its own flow line as in a navigation system, a desired playback point can be selected relatively quickly from the flow line. If there is a monitoring target, and there are a plurality of flow lines or a flow line different from the own flow line, it is difficult to quickly select a desired reproduction point only from the flow line.

本発明は、かかる点を考慮してなされたものであり、動線を用いて再生ポイントを選択する場合に、従来と比較して、迅速かつ的確に所望の再生ポイントを選択できるセンシングデータ検索装置及び検索画像作成方法を提供する。   The present invention has been made in consideration of such points, and when selecting a playback point using a flow line, a sensing data search device capable of selecting a desired playback point more quickly and accurately than in the past. And a search image creation method.

本発明のセンシングデータ検索装置の一つの態様は、監視対象についての測位結果に基づいて、当該監視対象の移動軌跡である動線を作成する動線作成手段と、ユーザによって指定された動線箇所又は動線区間に対応するセンシングデータが再生されるように、再生手段による再生区間を制御する再生制御手段と、前記測位結果に基づいて、前記動線に関する補助図形を作成する補助図形作成手段と、前記動線と前記補助図形とを含む検索画像を作成し、当該検索画像を表示手段に表示させる検索画像作成手段と、を具備する構成を採る。   One aspect of the sensing data search device of the present invention is a flow line creation means for creating a flow line that is a movement trajectory of a monitoring target based on a positioning result for the monitoring target, and a flow line location designated by the user Alternatively, reproduction control means for controlling the reproduction section by the reproduction means so that sensing data corresponding to the flow line section is reproduced, and auxiliary figure creation means for creating an auxiliary figure related to the flow line based on the positioning result. And a search image creating means for creating a search image including the flow line and the auxiliary graphic and displaying the search image on a display means.

本実施の形態の検索画像作成方法の一つの態様は、測位結果に基づいて、監視対象の移動軌跡である動線を作成するステップと、前記測位結果に基づいて、前記動線に関する補助図形を作成するステップと、前記動線と前記補助図形とを含む検索画像を作成するステップと、を含む。   One aspect of the search image creation method of the present embodiment includes a step of creating a flow line that is a movement trajectory of a monitoring target based on a positioning result, and an auxiliary figure related to the flow line based on the positioning result. Creating a search image including the flow line and the auxiliary figure.

本発明によれば、ユーザは、動線だけでなく、動線に関する補助図形を参照しながら、再生ポイントを選択できるので、迅速かつ的確に所望の再生ポイントを選択できるようになる。   According to the present invention, the user can select a reproduction point while referring to not only the flow line but also the auxiliary graphic related to the flow line, so that a desired reproduction point can be selected quickly and accurately.

本発明の一つの特徴は、監視対象の移動軌跡である動線に加えて、動線に関する補助図形を追加した検索画像を作成し表示するようにしたことである。これにより、再生画像を検索するユーザは、動線だけでなく、動線に関する補助図形を参考にして再生ポイントを選択できるので、迅速かつ的確に所望の再生ポイントを選択できるようになる。   One feature of the present invention is that a search image in which an auxiliary figure related to a flow line is added and displayed in addition to a flow line that is a movement locus of a monitoring target. As a result, a user who searches for a reproduction image can select a reproduction point with reference to not only a flow line but also an auxiliary figure related to the flow line, so that a desired reproduction point can be selected quickly and accurately.

また、発明者らは、補助図形として、どのような図形を作成すれば、ユーザが迅速かつ的確に所望の再生ポイントを選択できるのかを、鋭意検討した。その際、発明者らは、動線上には、動線には現れない(又はユーザが動線のみからは判断し難い)、特徴的な箇所が存在することに着目した。そして、発明者らは、そのような特徴的箇所とはどのようなものかを鋭意検討することで、補助図形の好ましい配置及び内容を見出した。本発明の一つの特徴は、動線に加えて表示する補助図形の配置及び内容である。   Further, the inventors diligently studied what kind of figure should be created as the auxiliary figure so that the user can select a desired reproduction point quickly and accurately. At that time, the inventors focused on the fact that there is a characteristic part on the flow line that does not appear on the flow line (or that it is difficult for the user to determine from the flow line alone). And the inventors discovered the preferable arrangement | positioning and content of an auxiliary figure by earnestly examining what such a characteristic location is. One feature of the present invention is the arrangement and content of auxiliary graphics to be displayed in addition to the flow lines.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
[構成]
図1に、本発明の実施の形態1に係るセンシングデータ検索システムの構成を示す。
(Embodiment 1)
[Constitution]
FIG. 1 shows a configuration of a sensing data search system according to Embodiment 1 of the present invention.

センシングデータ検索システム100は、大きく分けて、検索装置110と、センシングデータDB(DBはデータベースを意味する)120と、測位結果DB130と、事故情報DB140と、センシングデータ再生部150と、表示部160と、を有する。   The sensing data search system 100 is roughly divided into a search device 110, a sensing data DB (DB means a database) 120, a positioning result DB 130, an accident information DB 140, a sensing data reproducing unit 150, and a display unit 160. And having.

センシングデータDB120には、再生用のセンシングデータが格納されている。再生用センシングデータは、例えば監視カメラによって取得された動画である。また再生用センシングデータは、生体データ(心拍数、体温など)や、温度・湿度等の環境データなどであってもよい。   Sensing data for reproduction is stored in the sensing data DB 120. The sensing data for reproduction is, for example, a moving image acquired by a surveillance camera. Also, the sensing data for reproduction may be biological data (heart rate, body temperature, etc.), environmental data such as temperature / humidity.

測位結果DB130には、監視対象の測位結果データが格納されている。測位結果データは、例えば監視対象に付帯された無線タグからの無線信号に基づいて取得されたものであり、例えば監視対象のユーザIDと、時刻と、位置のリストである。すなわち、各監視対象について、各時刻の位置が格納されている。測位結果データは、センシングデータと同期が取れているデータである。なお、測位結果データは、無線タグからの無線信号に基づいて取得されたものに限らない。測位結果データは、例えばナビゲーションシステムのGPS装置によって取得されたものや撮影画像を画像処理して監視対象の位置情報を取得したものでもよい。   The positioning result DB 130 stores the positioning result data to be monitored. The positioning result data is acquired based on, for example, a wireless signal from a wireless tag attached to the monitoring target, and is, for example, a list of monitoring target user ID, time, and position. That is, the position of each time is stored for each monitoring target. The positioning result data is data that is synchronized with the sensing data. Note that the positioning result data is not limited to data acquired based on a wireless signal from the wireless tag. The positioning result data may be, for example, data acquired by a GPS device of a navigation system or data obtained by processing a captured image and acquiring position information of a monitoring target.

事故情報DB140には、センシングデータDB120のデータを取得したセンサと、測位結果DB130のデータを取得したセンサとは、異なる別のセンサによって取得された事故情報(例えば、時刻、事故内容、ユーザID、位置)が格納されている。   The accident information DB 140 includes accident information (for example, time, accident content, user ID, user ID, sensor acquired from the sensing data DB 120 and sensor acquired from the positioning result DB 130). Position) is stored.

検索装置110は、ユーザが、センシングデータ再生部150による再生ポイントを選択するための検索画像を作成して表示部160に表示させる。また検索装置110は、ユーザによって選択指定された再生ポイントに基づいて、センシングデータ再生部150の再生動作を制御する。   The search device 110 creates a search image for the user to select a playback point by the sensing data playback unit 150 and causes the display unit 160 to display the search image. The search device 110 controls the reproduction operation of the sensing data reproduction unit 150 based on the reproduction point selected and designated by the user.

検索装置110の構成を詳しく説明する。   The configuration of the search device 110 will be described in detail.

検索装置110は、動線検索画像作成部113に測位結果DBの測位データを入力する。動線作成部111は、測位データに基づいて、監視対象の移動軌跡を示す動線を作成する。監視対象が複数存在する場合、動線作成部111は、複数の動線を作成する。動線作成部111は、作成した動線データS1を動線検索画像作成部113、選択状況作成部114及び再生時刻設定部115に送出する。動線データS1は、ベクトルデータと、時刻のメタデータとから構成されるデータであり、ベクトルデータは、動線を表示させるために用いられ、時刻のメタデータは、ユーザがセンシングデータの開始/終了位置選択時にマウスの位置から座標を逆引きするために用いられる。   The search device 110 inputs the positioning data of the positioning result DB to the flow line search image creation unit 113. The flow line creation unit 111 creates a flow line indicating the movement trajectory of the monitoring target based on the positioning data. When there are a plurality of monitoring targets, the flow line creation unit 111 creates a plurality of flow lines. The flow line creation unit 111 sends the created flow line data S1 to the flow line search image creation unit 113, the selection status creation unit 114, and the reproduction time setting unit 115. The flow line data S1 is data composed of vector data and time metadata. The vector data is used to display a flow line. The time metadata is used by the user to start / start sensing data. Used to reverse the coordinates from the mouse position when selecting the end position.

補助図形作成部112は、動線に関する補助図形を作成する。本実施の形態の場合、補助図形作成部112は、測位結果DB130の測位データと、事故情報DB140の事故情報とを用いて、補助図形情報S2を作成し、これを動線検索画像作成部113及び選択状況作成部114に送出する。補助図形は、動線には現れない(又はユーザが動線のみからは判断し難い)、特徴的な箇所を示す図形であり、例えば監視対象の滞留や、危険箇所などを示す図形である。   The auxiliary figure creating unit 112 creates an auxiliary figure related to the flow line. In the case of the present embodiment, the auxiliary figure creating unit 112 creates auxiliary figure information S2 using the positioning data in the positioning result DB 130 and the accident information in the accident information DB 140, and uses this as the flow line search image creating unit 113. And sent to the selection status creation unit 114. The auxiliary graphic is a graphic that indicates a characteristic part that does not appear on the flow line (or that it is difficult for the user to determine from the flow line alone).

また、本発明においては、補助図形について種々の工夫を加えており、その詳細については、実施の形態2以降で詳しく説明する。   Further, in the present invention, various ideas are added to the auxiliary figure, and details thereof will be described in detail in the second embodiment and later.

動線検索画像作成部113は、動線データS1と、補助図形情報S2と、選択状況作成部114によって作成された入力状況情報S4と、を合成することで、検索画像情報S5を作成し、これを表示部160に送出する。   The flow line search image creation unit 113 creates the search image information S5 by combining the flow line data S1, the auxiliary graphic information S2, and the input situation information S4 created by the selection situation creation unit 114. This is sent to the display unit 160.

ユーザ入力受付部116は、キーボードやマウス等を用いてユーザによって入力されたユーザ入力情報を受け付け、当該ユーザ入力情報からマウスの現在座標やクリック状況を示すユーザ選択情報S3を作成し、これを選択状況作成部114及び再生時刻設定部115に送出する。   The user input reception unit 116 receives user input information input by the user using a keyboard, a mouse, or the like, creates user selection information S3 indicating the current coordinates of the mouse and click status from the user input information, and selects this. It is sent to the situation creation unit 114 and the reproduction time setting unit 115.

選択状況作成部114は、ユーザ選択情報S3と、動線データS1と、補助図形情報S2とを用いて、入力状況情報S4を作成し、これを動線検索画像作成部113に送出する。入力状況情報S4は、ユーザによって選択された位置にマウスカーソルを表示させるための情報を含む。また、入力状況情報S4は、ユーザによって選択された動線及び補助図形の色等を制御するための情報を含む。また、入力状況情報S4は、補助図形を表示するか否か、補助図形をどの位置に表示するか等を示す情報を含んでもよい。   The selection status creation unit 114 creates input status information S4 using the user selection information S3, the flow line data S1, and the auxiliary graphic information S2, and sends this to the flow line search image creation unit 113. The input status information S4 includes information for displaying a mouse cursor at a position selected by the user. The input status information S4 includes information for controlling the flow line selected by the user, the color of the auxiliary graphic, and the like. Further, the input status information S4 may include information indicating whether or not the auxiliary graphic is displayed, in which position the auxiliary graphic is displayed.

再生時刻設定部115は、ユーザ選択情報S3と、動線データS1とに基づいて、再生時刻を求め、この再生時刻を含む再生制御信号S6をセンシングデータ再生部150に送出する。具体的には、再生時刻設定部115は、ユーザ選択情報S3に含まれるユーザによって指定された動線上の座標と、動線データS1に含まれる動線の座標データ及び時刻のメタデータとを用いて、指定された動線座標に対応する時刻データを再生時刻として求める。   The reproduction time setting unit 115 obtains a reproduction time based on the user selection information S3 and the flow line data S1, and sends a reproduction control signal S6 including the reproduction time to the sensing data reproduction unit 150. Specifically, the reproduction time setting unit 115 uses the coordinates on the flow line specified by the user included in the user selection information S3, the coordinate data of the flow line included in the flow line data S1, and the time metadata. Thus, time data corresponding to the designated flow line coordinates is obtained as the reproduction time.

センシングデータ再生部150は、再生時刻に対応する再生区間のセンシングデータを再生し、この再生画像情報S7を表示部160に送出する。   The sensing data reproduction unit 150 reproduces the sensing data of the reproduction section corresponding to the reproduction time, and sends the reproduction image information S7 to the display unit 160.

表示部160は、動線検索画像作成部113によって作成された検索画像と、センシングデータ再生部150によって再生された再生画像とを表示する。なお、表示部160は、検索画像と再生画像とを同一のディスプレイに表示してもよく、異なるディスプレイに表示してもよい。   The display unit 160 displays the search image created by the flow line search image creation unit 113 and the playback image played back by the sensing data playback unit 150. Note that the display unit 160 may display the search image and the reproduction image on the same display, or may display them on different displays.

[表示画像]
図2に、センシングデータ検索システム100の表示部160に表示される表示画像の例を示す。図2Aは、動線検索画像作成部113によって作成された検索画像の例であり、図2B、図2Cは、センシングデータ再生部150によって再生された再生画像の例(この例の場合、カメラにより撮像された動画)である。
[Display image]
FIG. 2 shows an example of a display image displayed on the display unit 160 of the sensing data search system 100. 2A is an example of a search image created by the flow line search image creation unit 113, and FIGS. 2B and 2C are examples of a reproduction image reproduced by the sensing data reproduction unit 150 (in this example, by a camera). Captured moving image).

図2Aからも明らかなように、検索画像には、監視対象の移動軌跡である動線L1と、動線に関する補助図形F1、F2と、マウスカーソルとが表示される。因みに、これらは、動線L1の近傍の構造物の平面配置を示すマップ上に表示される。図1の構成では、この平面配置を示すマップについては言及しなかったが、マップデータを格納したデータベースを設け、動線L1の座標に基づいて、その近傍のマップデータを動線と共に表示すれることで容易に実現できる。   As is clear from FIG. 2A, the search image displays a flow line L1 that is the movement locus of the monitoring target, auxiliary figures F1 and F2 related to the flow line, and a mouse cursor. Incidentally, these are displayed on the map which shows the plane arrangement | positioning of the structure of the vicinity of the flow line L1. In the configuration of FIG. 1, the map showing the planar arrangement is not mentioned, but a database storing map data is provided, and map data in the vicinity thereof is displayed together with the flow line based on the coordinates of the flow line L1. This can be easily realized.

なお、上述したように補助図形F1、F2は、動線L1には現れない(又はユーザが動線L1のみからは判断し難い)、特徴的な箇所を示す図形であり、例えば監視対象が滞留していたことを示す滞留箇所や、事故が発生した箇所などが考えられるが、補助図形の詳細については後述する。   As described above, the auxiliary figures F1 and F2 are figures that show a characteristic part that does not appear on the flow line L1 (or that it is difficult for the user to determine from the flow line L1 alone). A staying location indicating that the event has occurred, a location where an accident has occurred, and the like are conceivable. Details of the auxiliary figure will be described later.

ユーザが特徴箇所を示す補助図形F1上にマウスカーソルを移動させ、その位置でマウスをクリックすると、図2Bに示すように、補助図形F1の位置の動線上に対応するセンシングデータ(図2A、図2Bの場合、動画データ)が再生され表示される。また、ユーザが動線上の所定区間でマウスカーソルをドラッグすると、図2Cに示すように、ドラッグした区間での監視対象の動画が再生され表示される。   When the user moves the mouse cursor over the auxiliary figure F1 indicating the characteristic location and clicks the mouse at that position, as shown in FIG. 2B, sensing data corresponding to the flow line at the position of the auxiliary figure F1 (FIG. 2A, FIG. In the case of 2B, moving image data) is reproduced and displayed. Further, when the user drags the mouse cursor in a predetermined section on the flow line, as shown in FIG. 2C, the moving image to be monitored in the dragged section is played and displayed.

他にも、動線上の1点をクリックすると、対応するセンシングデータがクリックに対応する箇所から再生され表示される指定方法や、動線上の2点をクリックすると、対応するセンシングデータが、最初のクリックに対応する箇所から再生が開始され、次のクリックに対応する箇所で再生が終了する指定方法や、特徴箇所を示す補助図形F1をクリックすると、センシングデータが特徴箇所F1と対応する箇所のみ再生され表示される指定方法がある。   In addition, when one point on the flow line is clicked, the corresponding sensing data is reproduced and displayed from the location corresponding to the click, or when two points on the flow line are clicked, the corresponding sensing data is the first Clicking the auxiliary graphic F1 that starts playback from the location corresponding to the click and ends playback at the location corresponding to the next click, or clicks the auxiliary figure F1 indicating the feature location, only the location corresponding to the feature location F1 is played back There is a specification method that is displayed.

このように、本実施の形態のセンシングデータ検索システム100を用いれば、ユーザは、動線と補助図形を見ながら、所望の動画を迅速かつ的確に検索して再生できるようになる。   As described above, by using the sensing data search system 100 according to the present embodiment, the user can search and reproduce a desired moving image quickly and accurately while looking at the flow line and the auxiliary figure.

[動作]
次に、図3〜図5を用いて、センシングデータ検索システム100の動作を説明する。なお、図3〜図5のシーケンス図中の矢印は、データの移動方向を表す。実際には、データの移動の前に、データ取得要求などが、矢印と反対方向に送出される場合がある。
[Operation]
Next, the operation of the sensing data search system 100 will be described with reference to FIGS. Note that the arrows in the sequence diagrams of FIGS. 3 to 5 indicate the data movement direction. Actually, a data acquisition request or the like may be sent in the direction opposite to the arrow before the data is moved.

図3は、検索画像作成処理の処理シーケンスを示す。図3では、説明を分かり易くするために、ユーザからの入力がない状態で、動線と補助図形とが表示される場合の処理シーケンスが示されている。   FIG. 3 shows a processing sequence of search image creation processing. FIG. 3 shows a processing sequence in a case where a flow line and an auxiliary figure are displayed in a state where there is no input from the user for easy understanding.

先ず、動線作成部111は、測位結果DB130から測位結果を入力すると、ステップST11で、測位結果から動線データS1を作成する。上述したように、この動線データS1は、例えば、ベクトルデータと、当該ベクトル上の各座標に付された時刻のメタデータとから構成されている。   First, when the positioning result is input from the positioning result DB 130, the flow line creation unit 111 creates the flow line data S1 from the positioning result in step ST11. As described above, the flow line data S1 is composed of, for example, vector data and time metadata attached to each coordinate on the vector.

次に、補助図形作成部112は、測位結果DB130からの測位結果と、事故情報DB140からの事故情報とを入力すると、ステップST12で、これらを基に補助図形情報S2を作成する。具体的には、補助図形作成部112は、測位結果を基に、監視対象の滞留、往復、不自然な動きをした箇所などを、動線には現れない(又はユーザが動線のみからは判断し難い)特徴的な箇所であると検知し、この特徴的な箇所を示す補助図形を作成する。図2Aの場合、補助図形は特徴箇所を示す黒丸である。また、本実施の形態の場合、補助図形作成部112は、事故情報DB140に格納されている事故情報を基に、事故が起こった場所を示す図形を補助図形として作成する。   Next, when the auxiliary figure creating unit 112 inputs the positioning result from the positioning result DB 130 and the accident information from the accident information DB 140, the auxiliary figure creating unit 112 creates auxiliary figure information S2 based on these in step ST12. Specifically, the auxiliary figure creation unit 112 does not show the stay of the monitoring target, the round trip, the unnatural movement, etc. on the flow line based on the positioning result (or the user does not see the flow line alone). It is detected that it is a characteristic part (which is difficult to judge), and an auxiliary figure indicating this characteristic part is created. In the case of FIG. 2A, the auxiliary figure is a black circle indicating a characteristic location. In the case of the present embodiment, the auxiliary figure creating unit 112 creates a figure indicating the place where the accident occurred as an auxiliary figure based on the accident information stored in the accident information DB 140.

次に、選択状況作成部114は、ステップST13で、入力状態を示す入力状況情報S4を作成し、ユーザからの入力を待ち受ける。ここでの入力状況情報S4とは、例えばマウスカーソルの状況を示すものであり、図3では、ユーザからの入力がない初期状態なので、特定位置に停止したマウスカーソルを表示するための入力状況情報S4が作成される。   Next, in step ST13, the selection status creating unit 114 creates input status information S4 indicating the input status, and waits for an input from the user. Here, the input status information S4 indicates, for example, the status of the mouse cursor. In FIG. 3, the input status information for displaying the mouse cursor stopped at a specific position is the initial state where there is no input from the user. S4 is created.

次に、動線検索画像作成部113は、ステップST14で、動線データS1と、検索画像情報S2と、入力状況情報S4とを合成することで、検索画像情報S5を作成する。次に、表示部160は、ステップST15で、検索画像情報S5に基づく検索画像を表示する。   Next, in step ST14, the flow line search image creation unit 113 creates the search image information S5 by combining the flow line data S1, the search image information S2, and the input status information S4. Next, the display part 160 displays the search image based on search image information S5 by step ST15.

図4は、ユーザがマウスを動かした場合の、検索画像作成処理の処理シーケンスを示す。   FIG. 4 shows a processing sequence of search image creation processing when the user moves the mouse.

先ず、ユーザ入力受付部116にユーザ入力情報(ここでのユーザ入力情報は再生開始点を選択する前の情報、例えばマウスカーソルを移動させていることを示す情報である)が入力され、ユーザ入力受付部116からユーザ入力情報に応じたユーザ選択情報S3が出力される。すると、選択状況作成部114は、ステップST21で、ユーザ選択に合わせた入力状況情報S4を作成し、これを出力する。   First, user input information (the user input information here is information before selecting a playback start point, for example, information indicating that the mouse cursor is moved) is input to the user input receiving unit 116, and user input is performed. User selection information S3 corresponding to the user input information is output from the receiving unit 116. Then, in step ST21, the selection status creating unit 114 creates input status information S4 that matches the user selection, and outputs this.

次に、動線検索画像作成部113は、入力状況情報S4、補助図形情報S2及び動線データS1が入力されると、ステップST22で、入力状況情報S4に応じて画像情報を更新する。画像情報の更新とは、検索画像上での入力状況情報S4の反映と、入力状況情報S4に応じた補助図形及び動線の変更と、を意味する。入力状況情報S4の反映とは、検索画像上での、マウスカーソルの移動、アイコンの変形、補助図形の表示などを意味する。補助図形及び動線の変更とは、マウスカーソルの位置に応じて、動線を強調したり、補助図形の色を変えることなどを意味する。   Next, when the input state information S4, the auxiliary graphic information S2, and the flow line data S1 are input, the flow line search image creating unit 113 updates the image information according to the input state information S4 in step ST22. The update of the image information means reflection of the input situation information S4 on the search image and change of auxiliary figures and flow lines according to the input situation information S4. Reflecting the input status information S4 means moving the mouse cursor, deforming an icon, displaying an auxiliary figure, and the like on the search image. The change of the auxiliary graphic and the flow line means that the flow line is emphasized or the color of the auxiliary graphic is changed according to the position of the mouse cursor.

次に、表示部160は、ステップST23で、更新された検索画像を表示する。   Next, the display unit 160 displays the updated search image in step ST23.

図4の処理は、ユーザの入力がある度に、繰り返される(ループ処理される)。   The process of FIG. 4 is repeated (looped) whenever there is a user input.

図5は、ユーザが再生開始/終了ポイントを選択操作した場合の、検索画像作成処理の処理シーケンスを示す。   FIG. 5 shows a processing sequence of search image creation processing when the user performs a selection operation of the playback start / end point.

先ず、ユーザ入力受付部116にユーザ入力情報(ここでのユーザ入力情報は再生開始点を選択した情報、例えばマウスをクリックしたことを示す情報である)が入力され、ユーザ入力受付部116からユーザ入力情報に応じたユーザ選択情報S3が出力される。なお、今回は、ユーザが再生開始点を選択しているので、ユーザ選択情報S3は、再生時刻設定部115にも送られる。   First, user input information (here, the user input information is information indicating that a playback start point has been selected, for example, information indicating that a mouse has been clicked) is input to the user input receiving unit 116, and the user input receiving unit 116 receives user input information. User selection information S3 corresponding to the input information is output. Since the user has selected the playback start point this time, the user selection information S3 is also sent to the playback time setting unit 115.

選択状況作成部114は、ステップST31で、ユーザ入力に合わせた入力状況情報S4を作成し、これを動線検索画像作成部113に送出する。   In step ST31, the selection status creation unit 114 creates input status information S4 that matches the user input, and sends this to the flow line search image creation unit 113.

再生時刻設定部115は、ステップST32で、ユーザ選択情報S3に含まれるマウスカーソルの座標に位置(対応)する、動線データS1の時刻メタデータを求める。なお、動線データS1に時刻メタデータが付けていない場合は、測位DBの測位結果も参照して、クリックされたマウスカーソルの座標に対応する時刻を求めればよい。   In step ST32, the reproduction time setting unit 115 obtains time metadata of the flow line data S1 located (corresponding) to the coordinates of the mouse cursor included in the user selection information S3. If time metadata is not attached to the flow line data S1, the time corresponding to the coordinates of the clicked mouse cursor may be obtained with reference to the positioning result in the positioning DB.

次に、再生時刻設定部115は、ステップST33で、求めた時刻を再生開始/終了時刻として設定し、続くステップST34で、開始時刻と終了時刻の両方が設定されたら再生制御信号S6を作成する。この再生制御信号S6はセンシングデータ再生部150に送出される。センシングデータ再生部150は、再生制御信号S6に従ってセンシングデータDB120からデータを取得し、再生画像を得、この再生画像データS7を表示部160に送出する。   Next, the reproduction time setting unit 115 sets the obtained time as the reproduction start / end time in step ST33, and creates the reproduction control signal S6 when both the start time and the end time are set in subsequent step ST34. . The reproduction control signal S6 is sent to the sensing data reproduction unit 150. The sensing data reproduction unit 150 acquires data from the sensing data DB 120 according to the reproduction control signal S6, obtains a reproduction image, and sends the reproduction image data S7 to the display unit 160.

なお、動線検索画像作成部113は、ステップST35で、検索画像に対して、入力選択情報S4に応じて、選択された動線位置を強調したり、選択された補助図形の色を変えることなどの処理を施すことで、検索画像情報を更新する。   In step ST35, the flow line search image creating unit 113 emphasizes the selected flow line position or changes the color of the selected auxiliary figure in accordance with the input selection information S4 on the search image. The search image information is updated by performing a process such as the above.

次に、表示部160は、ステップST36で、再生画像及び更新された検索画像を表示する。   Next, in step ST36, the display unit 160 displays the reproduction image and the updated search image.

なお、センシングデータ再生部150は、再生画像の再生用データを他のアプリケーションが利用可能な形式で出力してもよい。   Note that the sensing data playback unit 150 may output playback data of the playback image in a format that can be used by another application.

[効果]
以上説明したように、本実施の形態によれば、監視対象についての測位結果に基づいて、当該監視対象の移動軌跡である動線を作成する動線作成部111と、ユーザによって指定された動線箇所に対応するセンシングデータが再生されるように、センシングデータ再生部150による再生区間を制御する再生時刻設定部115と、測位結果に基づいて、動線に関する補助図形を作成する補助図形作成部112と、動線と補助図形とを含む検索画像を作成し、当該検索画像を表示部160に表示させる動線検索画像作成部113と、を設けたことにより、ユーザは、動線だけでなく、動線に関する補助図形を参考にして再生ポイントを選択できるので、動線を用いて再生ポイントを選択する場合に、従来と比較して、迅速かつ的確に所望の再生ポイントを選択できるようになる。
[effect]
As described above, according to the present embodiment, the flow line creation unit 111 that creates the flow line that is the movement locus of the monitoring target based on the positioning result of the monitoring target, and the movement specified by the user. A reproduction time setting unit 115 that controls a reproduction section by the sensing data reproduction unit 150 so that sensing data corresponding to the line location is reproduced, and an auxiliary graphic creation unit that creates an auxiliary graphic related to the flow line based on the positioning result 112 and a flow line search image creation unit 113 that creates a search image including a flow line and an auxiliary graphic and displays the search image on the display unit 160, so that the user can Since playback points can be selected with reference to auxiliary figures related to the flow line, when playing points are selected using flow lines, the desired playback can be performed more quickly and accurately than in the past. It is able to select the Into.

[適用例]
なお、本実施の形態で説明したセンシングデータ検索システム100は、会社や工場内での人物や物体の移動を監視する監視システムや、車両のナビゲーションシステム等に適用可能である。本実施の形態の構成を監視システムに適用する場合には、センシングデータDB120に監視カメラによって撮像された画像を格納すればよい。またナビゲーションシステムに適用する場合には、センシングデータDB120に、自車両に設けられたカメラによって撮像された自車両の周囲の画像を格納し、測位結果DB130に、自車両のGPS装置によって取得された測位結果データを格納すればよい。
[Application example]
The sensing data search system 100 described in the present embodiment is applicable to a monitoring system that monitors the movement of a person or an object in a company or factory, a vehicle navigation system, or the like. When the configuration of the present embodiment is applied to a monitoring system, an image captured by the monitoring camera may be stored in the sensing data DB 120. When applied to a navigation system, the sensing data DB 120 stores an image of the surroundings of the host vehicle captured by a camera provided in the host vehicle, and the positioning result DB 130 is acquired by the GPS device of the host vehicle. The positioning result data may be stored.

また、センシングデータ検索システム100は、例えばスポーツを行ったときの体の変化を調べるシステムに適用可能である。この場合、センシングデータDB120に、スポーツを行っている人物に装着した計測器によって取得した生体データ(心拍数、体温など)や周囲の温度・湿度等を格納すればよい。補助図形には、スポーツをしている人物が特徴的な動きをした動線箇所が示されるので、ユーザは、スポーツをしている人物が特徴的な動きをしたときの生体データや周囲環境を迅速に再生できるようになる。ここで、スポーツをしている人物が特徴的な動きをしたときの生体データや周囲環境は、例えばスポーツ能力を向上させるための参考とすることができる。本実施の形態の構成を用いれば、このような参考データを迅速に検索できるようになる。   In addition, the sensing data search system 100 can be applied to a system for examining changes in the body when performing sports, for example. In this case, the sensing data DB 120 may store biometric data (heart rate, body temperature, etc.) acquired by a measuring instrument attached to a person performing sports, ambient temperature / humidity, and the like. Since the auxiliary figure shows the flow line where the person who is doing the sport moves characteristically, the user can see the biometric data and the surrounding environment when the person who is doing the sport makes a characteristic movement. It can be played quickly. Here, the biometric data and the surrounding environment when a person who is doing a sport makes a characteristic movement can be used as a reference for improving sports ability, for example. By using the configuration of the present embodiment, such reference data can be quickly searched.

(実施の形態2)
本実施の形態では、動線に関する補助図形として、監視対象が、滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所を示す図形を表示することを提示する。監視対象が、滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所は、監視対象の動線からだけは認識できない又は認識し難い箇所である。本実施の形態では、これを考慮して、監視対象が滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所を示す補助図形を表示する。これにより、ユーザは、監視対象が、滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所を補助図形から容易に認識できる。
(Embodiment 2)
In this embodiment, as an auxiliary figure related to a flow line, a monitoring target is correlated with a movement trajectory that matches a motion pattern registered in advance as stay, stop, reciprocation, high-speed movement, or unnatural movement, or a plurality of monitoring targets. It presents that the figure which shows the part which moved high is displayed. A movement track that matches the motion pattern registered in advance as a stay, stop, reciprocation, high-speed movement, or unnatural movement, or a location that has a highly correlated movement among multiple monitoring objects It is a part that cannot be recognized only from or difficult to recognize. In this embodiment, in consideration of this, the monitoring target is staying, stopping, reciprocating, high-speed movement, a movement trajectory that matches an operation pattern registered in advance as an unnatural movement, or a plurality of monitoring targets have high correlation. Auxiliary figures showing the places that have moved are displayed. As a result, the user can select a movement trajectory that matches a motion pattern registered in advance as a stay, stop, reciprocation, high-speed movement, or unnatural movement, or a place where a plurality of monitoring objects have a highly correlated movement. It can be easily recognized from the auxiliary figure.

因みに、監視対象が、滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所は、監視対象が不審な動きをした箇所(すなわち監視重要箇所)ということができる。よって、これらの箇所を示す補助図形を動線と共に表示することで、ユーザは、監視対象が不審な動きをしたときの再生画像を迅速に表示させることができるようになる。   By the way, if the monitoring target is a staying, stopping, reciprocating, high-speed movement, a movement trajectory that matches the motion pattern registered in advance as an unnatural movement, or a location where a movement with high correlation among multiple monitoring targets is detected, the monitoring target It can be said that it is a suspicious part (that is, a monitoring important part). Therefore, by displaying the auxiliary graphic indicating these locations together with the flow line, the user can quickly display a reproduced image when the monitoring target moves suspiciously.

また、本実施の形態では、監視対象の滞留の状態を示す補助図形を表示することを提示する。これにより、ユーザは、動線のみを用いた場合よりも、補助図形を見ながら迅速かつ詳細に再生ポイントを指定できるようになる。   Further, in the present embodiment, it is presented that an auxiliary graphic indicating the staying state of the monitoring target is displayed. As a result, the user can specify the playback point more quickly and in detail while viewing the auxiliary figure than when only the flow line is used.

図6に、本実施の形態の補助図形の例を示す。図6の例は、補助図形として、監視対象が滞留した期間を示す補助図形を、滞留した動線箇所に並べて又は滞留した動線箇所に重畳して配置したものである。ここで、滞留とは、監視対象が狭い区間内に所定期間以上留まった状態を示す。   FIG. 6 shows an example of the auxiliary figure of the present embodiment. In the example of FIG. 6, the auxiliary graphic indicating the period during which the monitoring target stays is arranged as the auxiliary graphic in a line with the accumulated flow line location or superimposed on the accumulated flow line location. Here, the retention indicates a state where the monitoring target stays for a predetermined period or more in a narrow section.

図6Aは、補助図形として、補助動線を表示させた場合の検索画像の例を示す。補助動線L2は、横方向座標が動線L1上の座標に対応し、かつ縦方向座標が時間の経過を示す。ユーザは、補助導線L2を見れば、動線L1上の箇所P1において、監視対象が時点t2から時点t4までの期間、滞留していたことを認識できる。つまり、補助動線L2が無ければ、ユーザは動線L1上の箇所P1が滞留箇所であることすら認識できないが、補助動線L2を表示したことにより、ユーザは停滞箇所P1及び停滞時間t2〜t4を一目で認識できるようになる。また、補助動線L2上の時点と動画の時点とを対応付けておけば、ユーザが補助動線L2上で指定した時点から動画を再生することもできるようになる。例えばユーザが補助動線L2上の時点t3をクリックすれば、時点t3からの動画を再生することができる。また、ユーザが、補助動線L2上の時点t3と時点t5とを順にクリックすれば、時点t3から時点t5までの動画を再生することができる。   FIG. 6A shows an example of a search image when an auxiliary flow line is displayed as an auxiliary figure. In the auxiliary flow line L2, the horizontal coordinate corresponds to the coordinate on the flow line L1, and the vertical coordinate indicates the passage of time. If the user looks at the auxiliary conducting wire L2, the user can recognize that the monitoring target stays in the place P1 on the flow line L1 from the time t2 to the time t4. In other words, if there is no auxiliary flow line L2, the user cannot even recognize that the place P1 on the flow line L1 is a staying place, but by displaying the auxiliary flow line L2, the user can see the stagnation point P1 and the stagnation time t2. t4 can be recognized at a glance. If the time point on the auxiliary flow line L2 is associated with the time point of the moving image, the moving image can be reproduced from the time point specified by the user on the auxiliary flow line L2. For example, if the user clicks on a time t3 on the auxiliary flow line L2, a moving image from the time t3 can be reproduced. In addition, if the user clicks time point t3 and time point t5 on auxiliary flow line L2, the moving image from time point t3 to time point t5 can be reproduced.

図6Bは、補助図形として、動線L1上に滞留箇所を示す黒丸を表示すると共に、滞留時間を示す図形M1を表示した場合の検索画像の例を示す。図6Bの例では、ユーザが図中の黒丸の位置にマウスカーソルを移動させてマウスをクリックすると、滞留時間を示す図形M1が現れ、マウスカーソルをクリックした状態が継続されると、滞留時間を示す図形M1内の色が矢印方向に変化していき、クリックを止めた時点に対応するポイントが動画再生開始ポイントに設定されて、動画が再生される。なお、図中の黒丸の位置でマウスをクリックすると、滞留時間を示す図形M1が現れ、図形M1中で所望の再生時点を選択することで、再生開始ポイントを設定してもよい。   FIG. 6B shows an example of a search image when a black circle indicating a staying location is displayed on the flow line L1 as a supplementary graphic and a graphic M1 indicating a staying time is displayed. In the example of FIG. 6B, when the user moves the mouse cursor to the position of the black circle in the figure and clicks the mouse, a figure M1 indicating the staying time appears, and when the state where the mouse cursor is clicked continues, the staying time is set. The color in the figure M1 shown changes in the direction of the arrow, the point corresponding to the point in time when the click is stopped is set as the moving image reproduction start point, and the moving image is reproduced. When the mouse is clicked at the position of the black circle in the figure, a figure M1 indicating the residence time appears, and a reproduction start point may be set by selecting a desired reproduction time point in the figure M1.

図6Cは、補助図形として、滞留時間を示す線L3を、動線L1上の滞留箇所に繋げて表示した例を示す。なお、滞留時間を示す線L3は、動線L1とは異なる色又は異なる線種にすると好ましい。また、滞留時間を示す線L3の長さは滞留時間に比例する長さにすると好ましい。   FIG. 6C shows an example in which a line L3 indicating a staying time is connected to a staying place on the flow line L1 as an auxiliary figure. The line L3 indicating the residence time is preferably a color different from the flow line L1 or a different line type. The length of the line L3 indicating the residence time is preferably set to a length proportional to the residence time.

図6Dは、補助図形として、滞留時間が長いほど半径の大きい円M2を、動線上の滞留箇所に表示した例を示す。そして、例えば円M2の中心付近をクリックすれば時点t2からの動画を再生され、円M2の外周付近をクリックすれば時点t4からの動画が再生される。   FIG. 6D shows an example in which a circle M2 having a larger radius as the dwell time is displayed as an auxiliary figure at a dwell location on the flow line. For example, if the vicinity of the center of the circle M2 is clicked, the moving image from the time point t2 is reproduced, and if the vicinity of the outer periphery of the circle M2 is clicked, the moving image from the time point t4 is reproduced.

なお、例えば図6Aの補助動線L2上に、事故発生ポイントを表示すれば、ユーザは補助図形から事故が発生した時点を認識できるので、その事故発生時点の前後の動画を容易に再生させることができるようになる。   For example, if the accident occurrence point is displayed on the auxiliary flow line L2 in FIG. 6A, the user can recognize the time when the accident occurred from the auxiliary figure, so that the video before and after the occurrence of the accident can be easily reproduced. Will be able to.

図1との対応部分に同一符号を付して示す図7に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム200が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 7 in which the same reference numerals are assigned to the parts corresponding to those in FIG. 1 shows the configuration of the sensing data search system of the present embodiment. In the following description, a part of the sensing data search system 200 that is different from the sensing data search system 100 of FIG. 1 will be described.

センシングデータ検索システム200は、動画DB201と、動画再生部202とを有する。検索装置210は、補助図形として滞留図形を作成する滞留図形作成部211を有する。   The sensing data search system 200 includes a moving image DB 201 and a moving image reproducing unit 202. The search device 210 has a staying figure creating unit 211 that creates a staying figure as an auxiliary figure.

滞留図形作成部211は、測位結果DB130からの測位結果データに基づいて、監視対象が狭い区間内に所定期間以上留まった状態を検知することにより、図6に示すように、滞留箇所と滞留時間とを示す滞留図形情報S10を作成する。滞留図形作成部211は、滞留図形情報S10を、滞留区間選択部212、動線検索画像作成部213及び再生位置設定部214に送出する。   Based on the positioning result data from the positioning result DB 130, the staying figure creating unit 211 detects a staying state and a staying time as shown in FIG. The staying figure information S10 indicating that is created. The staying figure creating unit 211 sends the staying figure information S10 to the staying section selecting unit 212, the flow line search image creating unit 213, and the reproduction position setting unit 214.

滞留区間選択部212は、ユーザ選択情報S3と、動線データS1と、滞留図形情報S10とを用いて、入力状況情報S11を作成し、これを動線検索画像作成部213に送出する。入力状況情報S11は、ユーザによって選択された位置にマウスカーソルを表示させるための情報を含む。また、入力状況情報S11は、ユーザによって選択された動線及び滞留図形の色等を制御するための情報を含む。また、入力状況情報S11は、滞留図形を表示するか否か、滞留図形をどの位置に表示するか等を示す情報を含んでもよい。   The stay section selection unit 212 uses the user selection information S3, the flow line data S1, and the staying graphic information S10 to create input status information S11 and sends this to the flow line search image creation unit 213. The input status information S11 includes information for displaying a mouse cursor at a position selected by the user. The input status information S11 includes information for controlling the flow line selected by the user, the color of the staying figure, and the like. Further, the input status information S11 may include information indicating whether or not to display a staying figure, and at which position to display the staying figure.

再生位置設定部214は、ユーザ選択情報S3と、動線データS1と、滞留図形情報S10とに基づいて、再生時刻を求め、この再生時刻を含む再生制御信号S6を動画再生部202に送出する。具体的には、再生位置設定部214は、ユーザ選択情報S3に含まれるユーザによって指定された動線又は滞留図形上の座標と、動線データS1又は滞留図形情報S10に含まれる座標データ及び時刻のメタデータとを用いて、指定された動線座標又は滞留図形に対応する時刻データを再生時刻として求める。   The reproduction position setting unit 214 obtains a reproduction time based on the user selection information S3, the flow line data S1, and the staying figure information S10, and sends a reproduction control signal S6 including this reproduction time to the moving image reproduction unit 202. . Specifically, the reproduction position setting unit 214 includes coordinates on the flow line or staying graphic specified by the user included in the user selection information S3, coordinate data and time included in the flow line data S1 or staying graphic information S10. The time data corresponding to the specified flow line coordinates or staying figure is obtained as the reproduction time.

なお、滞留図形作成部211に換えて、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所を求め、これらの箇所を示す補助図形を作成する補助図形作成部を設ければ、監視対象の停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きをした箇所を補助図形として表示できるようになる。   Instead of the staying figure creation unit 211, a movement locus that matches a motion pattern registered in advance as a stop, reciprocation, high-speed movement, or unnatural movement, or a location that has a highly correlated movement among a plurality of monitoring targets is obtained. By providing an auxiliary figure creation unit that creates auxiliary figures indicating these locations, a movement trajectory that matches a motion pattern registered in advance as a stop, reciprocation, high-speed movement, unnatural movement of a monitoring target, or a plurality of Locations that are highly correlated in the monitoring target can be displayed as auxiliary figures.

(実施の形態3)
本実施の形態では、動線に関する補助図形として、動線上における監視対象が特徴的な動きをした箇所に、サムネイル画像を含む図形を配置することを提示する。これにより、監視対象が特徴的な動きをした動線上に、単純に黒丸等の図形を表示する場合と比較して、ユーザはサムネイル画像に基づいて、再生したいポイントをより的確に判断できるようになるので、より迅速かつ的確に所望の再生ポイントを選択できるようになる。
(Embodiment 3)
In the present embodiment, as an auxiliary figure related to a flow line, it is presented that a graphic including a thumbnail image is arranged at a location where a monitoring target on the flow line has a characteristic movement. As a result, the user can more accurately determine the point to be reproduced based on the thumbnail image as compared with the case where a graphic such as a black circle is simply displayed on the flow line in which the monitoring target has a characteristic movement. Therefore, a desired reproduction point can be selected more quickly and accurately.

図8に、本実施の形態の検索画像の例を示す。動線L1上における監視対象が特徴的な動きをした箇所には、サムネイル画像J1、J2、J3が配置されて表示される。そして、例えばユーザがマウスカーソルをサムネイル画像J2上に移動させ、その位置でマウスをクリックすると、サムネイル画像J2の前後所定区間の動画が再生される。   FIG. 8 shows an example of a search image according to the present embodiment. Thumbnail images J1, J2, and J3 are arranged and displayed at locations where the monitoring target on the flow line L1 has a characteristic movement. Then, for example, when the user moves the mouse cursor over the thumbnail image J2 and clicks the mouse at that position, a moving image of a predetermined section before and after the thumbnail image J2 is reproduced.

図1との対応部分に同一符号を付して示す図9に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム300が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 9 in which the same reference numerals are assigned to corresponding parts as in FIG. 1 shows the configuration of the sensing data search system of the present embodiment. In the following description, portions where the sensing data search system 300 is different from the sensing data search system 100 of FIG. 1 will be described.

センシングデータ検索システム300は、動画DB301と、動画再生部302とを有する。検索装置310は、補助図形としてサムネイル画像を含む図形を作成するサムネイル作成部311を有する。   The sensing data search system 300 includes a moving image DB 301 and a moving image playback unit 302. The search device 310 includes a thumbnail creation unit 311 that creates a graphic including a thumbnail image as an auxiliary graphic.

サムネイル作成部311は、測位結果DB130からの測位結果データと、動画DB301からの動画データを入力する。サムネイル作成部311は、測位結果DB130からの測位結果データに基づいて、上述したような監視対象が特徴的な動きをした箇所を検知する。サムネイル作成部311は、検知した箇所の画像を動画DB301から取得し、これをサムネイル画像として用いる。サムネイル作成部311は、サムネイル画像を表示する箇所とサムネイル画像とを含む、サムネイル画像情報S20を、選択状況作成部312、動線検索画像作成部313及び再生位置設定部314に送出する。   The thumbnail creation unit 311 inputs the positioning result data from the positioning result DB 130 and the moving image data from the moving image DB 301. Based on the positioning result data from the positioning result DB 130, the thumbnail creating unit 311 detects a location where the monitoring target as described above has a characteristic movement. The thumbnail creation unit 311 acquires an image of the detected location from the moving image DB 301 and uses this as a thumbnail image. The thumbnail creation unit 311 sends thumbnail image information S20 including a thumbnail image display location and a thumbnail image to the selection status creation unit 312, the flow line search image creation unit 313, and the playback position setting unit 314.

選択状況作成部312は、ユーザ選択情報S3と、動線データS1と、サムネイル画像情報S20とを用いて、入力状況情報S21を作成し、これを動線検索画像作成部313に送出する。入力状況情報S21は、ユーザによって選択された位置にマウスカーソルを表示させるための情報を含む。また、入力状況情報S21は、ユーザによって選択された動線の色を変えたり、ユーザによって選択されたサムネイル画像に枠を付ける等の制御するための情報を含む。   The selection status creation unit 312 creates input status information S21 using the user selection information S3, the flow line data S1, and the thumbnail image information S20, and sends this to the flow line search image creation unit 313. The input status information S21 includes information for displaying a mouse cursor at a position selected by the user. Further, the input status information S21 includes information for controlling such as changing the color of the flow line selected by the user or adding a frame to the thumbnail image selected by the user.

再生位置設定部314は、ユーザ選択情報S3と、動線データS1と、サムネイル画像情報S20とに基づいて、再生時刻を求め、この再生時刻を含む再生制御信号S6を動画再生部302に送出する。具体的には、再生位置設定部314は、ユーザ選択情報S3に含まれるユーザによって指定された動線又はサムネイルの座標と、動線データS1又はサムネイル画像情報S20に含まれる座標データ及び時刻のメタデータとを用いて、指定された動線座標又はサムネイル画像に対応する時刻データを再生時刻として求める。   The reproduction position setting unit 314 obtains a reproduction time based on the user selection information S3, the flow line data S1, and the thumbnail image information S20, and sends a reproduction control signal S6 including the reproduction time to the moving image reproduction unit 302. . Specifically, the playback position setting unit 314 includes the coordinates of the flow line or thumbnail specified by the user included in the user selection information S3, and the coordinate data and time meta data included in the flow line data S1 or the thumbnail image information S20. Using the data, time data corresponding to the specified flow line coordinates or thumbnail image is obtained as the reproduction time.

(実施の形態4)
本実施の形態では、動線に関する補助図形として、各動線区間の動画を撮像したカメラを示す図形を表示することを提示する。これにより、ユーザは、補助図形を用いて、どのカメラで撮像された動画を再生すべきかを選択できるようになるので、動画DBに複数のカメラによって取得された複数の動画が格納されている場合に、迅速かつ的確に所望の再生ポイント及び所望のカメラ画像を選択できるようになる。
(Embodiment 4)
In the present embodiment, as an auxiliary figure related to a flow line, it is presented that a graphic showing a camera that captures a moving image of each flow line section is displayed. Accordingly, the user can select which camera should play back the moving image captured by using the auxiliary figure, and thus when the moving images acquired by the plurality of cameras are stored in the moving image DB. In addition, a desired reproduction point and a desired camera image can be selected quickly and accurately.

図10Aに、本実施の形態の検索画像の例を示す。また、図10Bに、再生される動画の例を示す。   FIG. 10A shows an example of a search image according to the present embodiment. FIG. 10B shows an example of a moving image to be played back.

図10Aに示すように、動線L1に並べて、補助図形として、各カメラK1、K2、K3による撮影範囲を示す動線L1−1、L1−2、L1−3が表示される。図10Aの例では、カメラK1とカメラK1による撮影範囲を示す動線L1−1は赤色で表示され、カメラK2とカメラK2による撮影範囲を示す動線L1−2は緑色で表示され、カメラK3とカメラK3による撮影範囲を示す動線L1−3は青色で表示される。   As shown in FIG. 10A, along the flow line L1, flow lines L1-1, L1-2, and L1-3 indicating the shooting ranges of the cameras K1, K2, and K3 are displayed as auxiliary figures. In the example of FIG. 10A, the flow line L1-1 indicating the shooting range by the camera K1 and the camera K1 is displayed in red, the flow line L1-2 indicating the shooting range by the camera K2 and the camera K2 is displayed in green, and the camera K3. The flow line L1-3 indicating the shooting range by the camera K3 is displayed in blue.

例えば、ユーザが動線L1上で再生開始ポイントと再生終了ポイントとを指定すると、図10Bに示すように、指定された再生区間において、全てのカメラK1、K2、K3によって取得された動画が再生される。   For example, when the user designates a reproduction start point and a reproduction end point on the flow line L1, as shown in FIG. 10B, the moving images acquired by all the cameras K1, K2, and K3 are reproduced in the designated reproduction section. Is done.

一方、例えば、ユーザが動線L1−1上で再生開始ポイントと再生終了ポイントとを指定すると、カメラK1によって取得され、かつ指定された再生区間における動画が再生される。   On the other hand, for example, when the user designates a reproduction start point and a reproduction end point on the flow line L1-1, a moving image that is acquired by the camera K1 and is designated is reproduced.

例えば、図中の区間H1では、カメラK1によって取得された動画と、カメラK2によって取得された動画とが再生可能であるが、ユーザはこれらの動画のうち、カメラK2によって所得された動画を見たければ、動線L1−2上で再生ポイントを指定すればよい。   For example, in the section H1 in the figure, a moving image acquired by the camera K1 and a moving image acquired by the camera K2 can be reproduced. Of these moving images, the user views a moving image obtained by the camera K2. If desired, the playback point may be specified on the flow line L1-2.

また、図10Aに示すように、補助図形として、カメラK1、K2、K3の配置位置を表示することにより、ユーザは、動画DBに格納された動画が、どの方向から撮像された動画であるかを認識できるので、自分の希望する動画をより迅速に選択できるようになる。   Further, as shown in FIG. 10A, by displaying the arrangement positions of the cameras K1, K2, and K3 as auxiliary figures, the user can determine from which direction the moving image stored in the moving image DB is captured. So that you can select the video you want more quickly.

図1との対応部分に同一符号を付して示す図11に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム400が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 11 in which the same reference numerals are assigned to corresponding parts as in FIG. 1 shows the configuration of the sensing data search system of the present embodiment. In the following description, the sensing data search system 400 will be described with respect to parts different from the sensing data search system 100 of FIG.

センシングデータ検索システム400は、動画DB401と、動画再生部402とを有する。動画DB401には、複数のカメラによって取得された複数の動画が格納されている。検索装置410は、補助図形として各動線区間の動画を撮像したカメラを示す図形を作成するカメラ情報作成部411を有する。   The sensing data search system 400 includes a moving image DB 401 and a moving image playback unit 402. The moving image DB 401 stores a plurality of moving images acquired by a plurality of cameras. The search device 410 includes a camera information creation unit 411 that creates a figure indicating a camera that has captured a moving image of each flow line section as an auxiliary figure.

カメラ情報作成部411は、測位結果DB130からの測位結果データを入力する。また、カメラ情報作成部411は、動画DB401から、動画データに付随した、カメラ識別情報と、カメラ撮像範囲情報とを入力する。カメラ情報作成部411は、これらの情報から、図10Aに示したような動線L1−1、L1−2、L1−3を作成し、これをカメラ情報S30として、カメラ選択部412、動線検索画像作成部413及び再生位置設定部414に送出する。   The camera information creation unit 411 inputs positioning result data from the positioning result DB 130. Also, the camera information creation unit 411 inputs camera identification information and camera imaging range information attached to the moving image data from the moving image DB 401. The camera information creation unit 411 creates flow lines L1-1, L1-2, and L1-3 as shown in FIG. 10A from these pieces of information, and uses them as camera information S30. The image is sent to the search image creation unit 413 and the playback position setting unit 414.

なお、カメラ情報作成部411は、動画データの画像処理を行い人物の検出位置と時刻を測位結果データと対応付けることで、図10Aに示すような動線L1−1、L1−2、L1−3を作成してもよい。   Note that the camera information creation unit 411 performs image processing on moving image data and associates a person's detection position and time with positioning result data, thereby causing flow lines L1-1, L1-2, and L1-3 as illustrated in FIG. 10A. May be created.

カメラ選択部412は、ユーザ選択情報S3と、動線データS1と、カメラ情報S30とを用いて、入力状況情報S31を作成し、これを動線検索画像作成部413に送出する。入力状況情報S31は、ユーザによって選択された位置にマウスカーソルを表示させるための情報を含む。また、入力状況情報S31は、ユーザによって選択された動線又はカメラの色等を制御するための情報を含む。   The camera selection unit 412 creates input status information S31 using the user selection information S3, the flow line data S1, and the camera information S30, and sends this to the flow line search image creation unit 413. The input status information S31 includes information for displaying a mouse cursor at a position selected by the user. The input status information S31 includes information for controlling the flow line selected by the user or the color of the camera.

再生位置設定部414は、ユーザ選択情報S3と、動線データS1と、カメラ情報S30とに基づいて、どのカメラによって取得された動画を再生するかと、再生時刻とを求め、カメラの種類と再生時刻とを含む再生制御信号S6を動画再生部402に送出する。   Based on the user selection information S3, the flow line data S1, and the camera information S30, the playback position setting unit 414 determines which camera plays the moving image and the playback time, and determines the camera type and playback. A reproduction control signal S6 including the time is sent to the moving image reproduction unit 402.

(実施の形態5)
本実施の形態では、動線に関する補助図形として、ある監視対象の動線上で指定された動線区間と同じ時間帯に、他の監視対象が動いた移動軌跡を示す他の監視対象の動線を表示することを提示する。これにより、ユーザは、補助図形を見れば、ある監視対象がある区間を移動した期間に、他の監視対象がどのように移動していたかを認識でき、さらに補助図形として表示された他の監視対象の動線を用いて、再生動画を選択することもできる。
(Embodiment 5)
In the present embodiment, as an auxiliary figure related to a flow line, the flow line of another monitoring target indicating a movement trajectory in which the other monitoring target has moved in the same time zone as the flow line section designated on the flow line of the certain monitoring target. Present to display. As a result, the user can recognize how the other monitoring target was moving during the period in which the certain monitoring target moved in a certain section by looking at the auxiliary graphic, and other monitoring displayed as an auxiliary graphic. It is also possible to select a playback video using the target flow line.

図12に、本実施の形態の検索画像の例を示す。先ず、図12Aに示すように、ある監視対象の動線L1が表示される。ユーザが、動線L1の所定区間でマウスカーソルをドラッグすると、図12Bに示すように、ドラッグした区間と同じ時間帯の、他の監視対象の動線L10、L11が表示される。そして、動線L10、L11上で再生ポイントが指定されると、指定された動線L10、L11に対応する動画が再生される。   FIG. 12 shows an example of a search image according to this embodiment. First, as shown in FIG. 12A, a flow line L1 to be monitored is displayed. When the user drags the mouse cursor in a predetermined section of the flow line L1, as shown in FIG. 12B, other monitored flow lines L10 and L11 in the same time zone as the dragged section are displayed. When a playback point is designated on the flow lines L10 and L11, a moving image corresponding to the designated flow lines L10 and L11 is reproduced.

図1との対応部分に同一符号を付して示す図13に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム500が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 13 in which the same reference numerals are assigned to the parts corresponding to those in FIG. 1 shows the configuration of the sensing data search system of the present embodiment. In the following description, a part in which the sensing data search system 500 is different from the sensing data search system 100 in FIG. 1 will be described.

センシングデータ検索システム500は、動画DB501と、動画再生部502とを有する。検索装置510は、補助図形として、ある監視対象の動線上で指定された動線区間と同じ時間帯に、他の監視対象が動いた移動軌跡を示す他の監視対象の動線を抽出する該当動線抽出部511を有する。   The sensing data search system 500 includes a moving image DB 501 and a moving image playback unit 502. The search device 510 extracts, as an auxiliary figure, a flow line of another monitoring target indicating a movement trajectory in which the other monitoring target has moved in the same time zone as the flow line section specified on the flow line of a certain monitoring target. A flow line extraction unit 511 is included.

なお、該当動線抽出部511は、ある監視対象の動線L1の近傍に存在する他の監視対象の動線のみを抽出してもよい。   Note that the corresponding flow line extraction unit 511 may extract only other flow lines to be monitored that exist in the vicinity of the flow line L1 to be monitored.

該当動線抽出部511は、選択状況作成部512から出力された入力状況情報S41と、測位結果データとに基づいて、動線を作成する。具体的には、入力状況情報S41には、ユーザによって指定された動線区間の情報が含まれるので、該当動線抽出部511は、この指定された動線区間に対応する期間を測位結果DB130のデータから求め、求めた期間における他の監視対象の動線が存在する場合には、求めた期間に対応する他の監視対象の動線を抽出(作成)する。該当動線抽出部511は、抽出した動線データS40を選択状況作成部512、動線検索画像作成部513及び再生位置設定部514に送出する。   The corresponding flow line extraction unit 511 creates a flow line based on the input status information S41 output from the selection status creation unit 512 and the positioning result data. Specifically, since the input status information S41 includes information on the flow line section specified by the user, the corresponding flow line extraction unit 511 sets the period corresponding to the specified flow line section to the positioning result DB 130. If there is a flow line of another monitoring target in the determined period, the flow line of another monitoring target corresponding to the determined period is extracted (created). The corresponding flow line extraction unit 511 sends the extracted flow line data S40 to the selection status creation unit 512, the flow line search image creation unit 513, and the reproduction position setting unit 514.

選択状況作成部512は、ユーザ選択情報S3と、動線データS1、S40とを用いて、入力状況情報S41を作成し、これを動線検索画像作成部513に送出する。入力状況情報S41は、ユーザによって選択された位置にマウスカーソルを表示させるための情報を含む。また、入力状況情報S41は、ユーザによって選択された動線の色等を制御するための情報を含む。   The selection status creation unit 512 creates input status information S41 using the user selection information S3 and the flow line data S1 and S40, and sends this to the flow line search image creation unit 513. The input status information S41 includes information for displaying a mouse cursor at a position selected by the user. The input status information S41 includes information for controlling the color of the flow line selected by the user.

再生位置設定部514は、ユーザ選択情報S3と、動線データS1、S40とに基づいて、再生時刻を求め、この再生時刻を含む再生制御信号S6を動画再生部502に送出する。また、再生位置設定部514は、異なるカメラによって取得された複数の動画の中から、ユーザによってどの監視対象の動線が選択されたかに応じて、その動線に適したいずれか一つのカメラ画像を選択して再生させてもよい。   The reproduction position setting unit 514 obtains a reproduction time based on the user selection information S3 and the flow line data S1 and S40, and sends a reproduction control signal S6 including the reproduction time to the moving image reproduction unit 502. In addition, the playback position setting unit 514 selects one of the camera images suitable for the flow line depending on which flow line to be monitored is selected by the user from a plurality of moving images acquired by different cameras. You may select and play.

(実施の形態6)
本実施の形態では、動線に関する補助図形として、現在の再生ポイントを示す図形を表示することを提示する。これにより、ユーザは、現在動線上のどの箇所が再生されているかを容易に認識することができるようになる。
(Embodiment 6)
In the present embodiment, it is presented that a graphic showing the current playback point is displayed as an auxiliary graphic related to the flow line. As a result, the user can easily recognize which part on the current flow line is being reproduced.

図14及び図15に、本実施の形態の検索画像の例を示す。図14の例では、動線L1に沿って、再生ポイントが進むに従って伸びていく線L20を補助図形として表示させる例が示されている。また、図14の例では、補助図形として、動線L1上に、現在の再生ポイントまでの再生画像(センシングデータ)J10を間欠的に表示させる例も示されている。図15では、動線L1上の再生ポイントに対応する位置に、現在の再生ポイントに対応した再生画像(センシングデータ)J20が補助図形として配置された例が示されている。   14 and 15 show examples of search images according to the present embodiment. In the example of FIG. 14, an example is shown in which a line L <b> 20 that extends as the playback point advances along the flow line L <b> 1 is displayed as an auxiliary figure. In addition, in the example of FIG. 14, an example in which a reproduced image (sensing data) J10 up to the current reproduction point is intermittently displayed on the flow line L1 as an auxiliary figure is also shown. FIG. 15 shows an example in which a reproduction image (sensing data) J20 corresponding to the current reproduction point is arranged as an auxiliary figure at a position corresponding to the reproduction point on the flow line L1.

図1との対応部分に同一符号を付して示す図16に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム600が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 16, in which parts corresponding to those in FIG. 1 are assigned the same reference numerals, shows the configuration of the sensing data search system of this embodiment. In the following description, a part in which the sensing data search system 600 is different from the sensing data search system 100 in FIG. 1 will be described.

センシングデータ検索システム600は、動画DB601と、動画再生部602とを有する。検索装置610は、補助図形として現在の再生ポイントを示す図形を作成する再生位置作成部611を有する。   The sensing data search system 600 includes a moving image DB 601 and a moving image playback unit 602. The search device 610 includes a reproduction position creation unit 611 that creates a graphic indicating the current reproduction point as an auxiliary graphic.

再生位置作成部611は、測位結果DB130から測位結果データを入力すると共に、動画再生部602から現在の再生箇所の時刻情報を入力する。そして、再生位置作成部611は、補助図形として、図14又は図15に示すような、現在の再生ポイントを示す目印となる図形を作成し、これを再生位置情報S50として、動画検索画像作成部113及び選択状況作成部114に送出する。   The playback position creation unit 611 inputs positioning result data from the positioning result DB 130 and inputs time information of the current playback location from the moving image playback unit 602. Then, the playback position creation unit 611 creates a figure serving as a mark indicating the current playback point, as shown in FIG. 14 or FIG. 15, as the auxiliary figure, and uses this as the playback position information S50 as a moving image search image creation unit. 113 and the selection status creation unit 114.

なお、本実施の形態では、動線検索画像作成部113によって得られた検索画像と、動画再生部602によって得られた再生動画とを、表示部160の異なる表示領域に同時に表示するようになっている。   In the present embodiment, the search image obtained by the flow line search image creation unit 113 and the playback video obtained by the video playback unit 602 are simultaneously displayed in different display areas of the display unit 160. ing.

(実施の形態7)
本実施の形態では、動線に関する補助図形として、再生画像の中に、ユーザによって指定された動線に対応する監視対象を特定可能な図形を形成することを提示する。これにより、ユーザは、再生画像上で、指定した動線がどの監視対象のものであるかを容易に認識できるようになる。
(Embodiment 7)
In the present embodiment, as an auxiliary graphic relating to the flow line, it is presented that a graphic capable of specifying the monitoring target corresponding to the flow line designated by the user is formed in the reproduced image. As a result, the user can easily recognize which monitoring target is the designated flow line on the reproduced image.

図17Aに、本実施の形態の検索画像の例を示す。また、図17Bに、本実施の形態の再生画像の例を示す。   FIG. 17A shows an example of a search image according to the present embodiment. FIG. 17B shows an example of a reproduced image of the present embodiment.

図17Aに示すように、検索画像には、各監視対象a、b、cの動線L1−a、L1−b、L1−cが表示される。また、動線L1−a上には、特徴箇所を示す補助図形F1、F2が表示される。勿論、特徴箇所を示す補助図形は、動線L1−b、L1−c上にも表示してもよい。そして、ユーザが例えばL1−a上の特徴箇所F2をクリックすると、特徴箇所F2に対応する動画が再生される。このとき、図17Bに示すように、補助図形として、動線L1−aに対応する監視対象を囲む枠W−aが表示される。これにより、ユーザは、指定した動線L1−aに対応する監視対象aを認識することができる。   As shown in FIG. 17A, the flow lines L1-a, L1-b, and L1-c of the monitoring targets a, b, and c are displayed in the search image. In addition, auxiliary graphics F1 and F2 indicating the characteristic locations are displayed on the flow line L1-a. Of course, the auxiliary graphic indicating the characteristic location may also be displayed on the flow lines L1-b and L1-c. Then, for example, when the user clicks on the feature location F2 on L1-a, a moving image corresponding to the feature location F2 is reproduced. At this time, as shown in FIG. 17B, a frame W-a surrounding the monitoring target corresponding to the flow line L1-a is displayed as an auxiliary figure. Thereby, the user can recognize the monitoring target a corresponding to the designated flow line L1-a.

図1との対応部分に同一符号を付して示す図18に、本実施の形態のセンシングデータ検索システムの構成を示す。以下の説明では、センシングデータ検索システム700が、図1のセンシングデータ検索システム100とは異なる部分について説明する。   FIG. 18, in which the same reference numerals are assigned to corresponding parts as in FIG. 1, shows the configuration of the sensing data search system of this embodiment. In the following description, a part of the sensing data search system 700 that is different from the sensing data search system 100 of FIG. 1 will be described.

センシングデータ検索システム700は、動画DB701と、動画再生部702とを有する。動画DB701には、動画と、時刻と、監視対象を識別するためのユーザIDと、位置情報とが格納されている。つまり、動画DB701には、例えば(動画,(時刻,(ユーザID,位置情報)))といったデータが格納されている。具体的な例を挙げると、例えば、以下のようなデータが格納されている。   The sensing data search system 700 includes a moving image DB 701 and a moving image playback unit 702. The moving image DB 701 stores a moving image, a time, a user ID for identifying a monitoring target, and position information. That is, data such as (moving image, (time, (user ID, position information))) is stored in the moving image DB 701. As a specific example, for example, the following data is stored.

(test.mpg,(t1, (UID1,(10,20)), (UID2,(40,20))),
(t2, (UID1,(10,25)), (UID2,(40,25))),
(t3, (UID1,(10,30)), (UID2,(40,30)), (UID3,(5,5)))
このデータは、時刻t1において、監視対象UID1は画面内座標(10,20)に位置し、UID2は(40,20)に位置することを意味する。また、時刻t3において、監視対象UID3は画面内座標(5,5)に登場することを意味する。
(test.mpg, (t1, (UID1, (10,20)), (UID2, (40,20))),
(t2, (UID1, (10,25)), (UID2, (40,25))),
(t3, (UID1, (10,30)), (UID2, (40,30)), (UID3, (5,5)))
This data means that at time t1, the monitoring target UID1 is located at the in-screen coordinates (10, 20) and UID2 is located at (40, 20). Also, at time t3, it means that the monitoring target UID3 appears at the in-screen coordinates (5, 5).

再生時刻設定部711は、再生制御信号S6に、再生開始/終了時刻に加え、選択された動線に対応する監視対象のユーザIDを含めて出力する。   The playback time setting unit 711 outputs the playback control signal S6 including the monitoring target user ID corresponding to the selected flow line in addition to the playback start / end time.

動画再生部702は、再生時刻設定部711によって指定された再生区間の動画を動画DB701から取得する。また、動画再生部702は、指定されたユーザIDの画面内の位置情報のメタデータを動画DB701から取得する。また、動画再生部702は、取得した位置情報を基に、枠図形データ(人物の大きさは固定サイズ)を作成し、再生動画に枠W−a(図17B)を重畳する。具体的には、test.mpgとして、再生時刻t1, 終了時刻t3, ユーザID:UID1が指定された場合は、再生動画内の時刻t1では座標(10,20)に、時刻t2では座標(10,25)に、時刻t3では座標(10,30)に枠を表示する。このように、本実施の形態では、動画再生部702が、補助図形である枠W−aを形成する。   The video playback unit 702 acquires the video of the playback section specified by the playback time setting unit 711 from the video DB 701. In addition, the moving image reproduction unit 702 acquires metadata of position information within the screen of the designated user ID from the moving image DB 701. In addition, the moving image reproduction unit 702 creates frame graphic data (the size of the person is a fixed size) based on the acquired position information, and superimposes the frame Wa (FIG. 17B) on the reproduced moving image. Specifically, when test time t1, end time t3, and user ID: UID1 are specified as test.mpg, coordinates (10, 20) at time t1 and coordinates (10 at time t2) in the playback video. 25), a frame is displayed at the coordinates (10, 30) at time t3. As described above, in the present embodiment, the moving image reproducing unit 702 forms the frame Wa that is an auxiliary figure.

なお、図18には、指定された動線に対応する監視対象を特定する枠を、メタデータを用いて作成する構成を示したが、リアルタイムで枠を作成することもできる。図19に、リアルタイムで枠を作成する構成を示す。   Although FIG. 18 shows a configuration in which a frame for specifying a monitoring target corresponding to a designated flow line is created using metadata, the frame can be created in real time. FIG. 19 shows a configuration for creating a frame in real time.

図18との対応部分に同一符号を付して示す図19において、センシングデータ検索システム800は、動画DB801と、動画再生部802と、人物DB803と、人物追跡部804とを有する。   In FIG. 19, in which the same reference numerals are assigned to corresponding parts as in FIG. 18, the sensing data search system 800 includes a moving image DB 801, a moving image playback unit 802, a person DB 803, and a person tracking unit 804.

再生時刻設定部711は、再生制御信号S6に、再生開始/終了時刻に加え、選択された動線に対応する監視対象のユーザIDを含めて出力する。   The playback time setting unit 711 outputs the playback control signal S6 including the monitoring target user ID corresponding to the selected flow line in addition to the playback start / end time.

動画再生部802は、人物追跡部804に、再生開始/終了時刻と、選択された動線に対応する監視対象のユーザIDとを送信し、人物追跡部804から、該当するユーザIDの画面内座標を取得する。動画再生部802は、人物追跡部804から取得した画面内座標を基に、枠図形データを作成し、動画DB801から取得した再生動画に枠W−a(図17B)を重畳する。   The video playback unit 802 transmits the playback start / end times and the monitoring target user ID corresponding to the selected flow line to the person tracking unit 804, and the person tracking unit 804 sends the user ID in the screen of the corresponding user ID. Get the coordinates. The video playback unit 802 creates frame graphic data based on the in-screen coordinates acquired from the person tracking unit 804, and superimposes the frame Wa (FIG. 17B) on the playback video acquired from the video DB 801.

人物追跡部804は、動画再生部802から入力したユーザIDに対応した人物画像を人物DB803から取得し、動画DB801から取得した動画と人物DB803から取得した人物画像とを用いたパターンマッチング処理を行うことで、動画中におけるユーザIDに対応した人物の座標を求め、この座標を動画再生部802に送出する。   The person tracking unit 804 acquires a person image corresponding to the user ID input from the moving image playback unit 802 from the person DB 803, and performs a pattern matching process using the moving image acquired from the moving image DB 801 and the person image acquired from the person DB 803. Thus, the coordinates of the person corresponding to the user ID in the moving image are obtained, and the coordinates are sent to the moving image reproducing unit 802.

本発明は、動線を用いて再生ポイントを選択する場合に、迅速かつ的確に所望の再生ポイントを選択できる効果を有し、例えば監視システムのように膨大な動画の中から希望する動画を選択して再生する場合に用いて好適である。   The present invention has an effect of selecting a desired playback point quickly and accurately when selecting a playback point using a flow line. For example, a desired video can be selected from a large number of videos as in a surveillance system. Therefore, it is suitable for use in reproduction.

本発明の実施の形態1に係るセンシングデータ検索システムの構成を示すブロック図The block diagram which shows the structure of the sensing data search system which concerns on Embodiment 1 of this invention. 図2Aは実施の形態1の検索画像の例を示す図、図2Bは特徴箇所に対応する再生画像の例を示す図、図2Cはドラックにより指定された箇所に対応する再生画像の例を示す図2A is a diagram illustrating an example of a search image according to the first embodiment, FIG. 2B is a diagram illustrating an example of a reproduction image corresponding to a characteristic location, and FIG. 2C is an example of a reproduction image corresponding to a location designated by a drag. Figure ユーザからの入力がない場合の、検索画像作成処理の説明に供するシーケンス図Sequence diagram for explaining search image creation processing when there is no input from the user ユーザがマウスを動かした場合の、検索画像作成処理の説明に供するシーケンス図Sequence diagram for explaining search image creation processing when the user moves the mouse ユーザが再生開始/終了ポイントを選択操作した場合の、検索画像作成処理の説明に供するシーケンス図Sequence diagram for explaining search image creation processing when user selects playback start / end point 図6A〜図6Dは、実施の形態2における補助図形の例を示す図6A to 6D are diagrams showing examples of auxiliary figures in the second embodiment. 実施の形態2のセンシングデータ検索システムの構成を示すブロック図Block diagram showing the configuration of the sensing data search system of the second embodiment 実施の形態3における検索画像の例を示す図FIG. 10 is a diagram illustrating an example of a search image in the third embodiment 実施の形態3のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the third embodiment 図10Aは実施の形態4における検索画像の例を示す図、図10Bは実施の形態4における再生画像の説明に供する図FIG. 10A is a diagram showing an example of a search image in the fourth embodiment, and FIG. 10B is a diagram for explaining a reproduced image in the fourth embodiment. 実施の形態4のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the fourth embodiment 図12Aはユーザが動線区間を指定する場合の検索画像の例を示す図、図12Bは指定された動線区間に対応する他の動線が表示された検索画像の例を示す図FIG. 12A is a diagram showing an example of a search image when the user designates a flow line section, and FIG. 12B is a diagram showing an example of a search image in which another flow line corresponding to the designated flow line section is displayed. 実施の形態5のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the fifth embodiment 実施の形態6における検索画像の例を示す図FIG. 10 is a diagram illustrating an example of a search image in the sixth embodiment 実施の形態6における検索画像の例を示す図FIG. 10 is a diagram illustrating an example of a search image in the sixth embodiment 実施の形態6のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the sixth embodiment 図17Aは実施の形態7の検索画像の例を示す図、図17Bは実施の形態7の再生画像の例を示す図FIG. 17A is a diagram illustrating an example of a search image according to the seventh embodiment, and FIG. 17B is a diagram illustrating an example of a reproduction image according to the seventh embodiment. 実施の形態7のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the seventh embodiment 実施の形態7のセンシングデータ検索システムの構成を示すブロック図Block diagram showing a configuration of a sensing data search system according to the seventh embodiment

符号の説明Explanation of symbols

100、200、300、400、500、600、700、800 センシングデータ検索システム
110、210、310、410、510、610、710 検索装置
111 動線作成部
112 補助図形作成部
113、213、313、413、513 動線検索画像作成部
114、312、512 選択状況作成部
115、711 再生時刻設定部
116 ユーザ入力受付部
120 センシングデータDB
130 測位結果DB
140 事故情報DB
150 センシングデータ再生部
160 表示部
201、301、401、501、601、701、801 動画DB
202、302、402、502、602、702、802 動画再生部
211 滞留図形作成部
212 滞留区間選択部
214、314、414、514 再生位置設定部
311 サムネイル作成部
411 カメラ情報作成部
412 カメラ選択部
511 該当動線抽出部
611 再生位置作成部
803 人物DB
804 人物追跡部
S1、S40 動線データ
S2 補助図形情報
S3 ユーザ選択情報
S4、S11、S21、S31、S41 入力状況情報
S5 検索画像情報
S6 再生制御信号
S7 再生画像情報
S10 滞留画像情報
S20 サムネイル画像情報
S30 カメラ情報
S50 再生位置情報
L1、L10、L11 動線
F1、F2 補助図形
J1〜J3 サムネイル画像
100, 200, 300, 400, 500, 600, 700, 800 Sensing data search system 110, 210, 310, 410, 510, 610, 710 Search device 111 Flow line creation unit 112 Auxiliary figure creation unit 113, 213, 313, 413, 513 Flow line search image creation unit 114, 312, 512 Selection status creation unit 115, 711 Playback time setting unit 116 User input reception unit 120 Sensing data DB
130 Positioning result DB
140 Accident Information DB
150 Sensing data reproduction unit 160 Display unit 201, 301, 401, 501, 601, 701, 801 Movie DB
202, 302, 402, 502, 602, 702, 802 Movie playback unit 211 Stay figure creation unit 212 Stay section selection unit 214 314 414 514 Playback position setting unit 311 Thumbnail creation unit 411 Camera information creation unit 412 Camera selection unit 511 Corresponding flow line extraction unit 611 Playback position creation unit 803 Person DB
804 Person tracking unit S1, S40 Flow line data S2 Auxiliary graphic information S3 User selection information S4, S11, S21, S31, S41 Input situation information S5 Search image information S6 Playback control signal S7 Playback image information S10 Retention image information S20 Thumbnail image information S30 Camera information S50 Playback position information L1, L10, L11 Flow line F1, F2 Auxiliary figure J1-J3 Thumbnail image

Claims (16)

監視対象についての測位結果に基づいて、当該監視対象の移動軌跡である動線を作成する動線作成手段と、
ユーザによって指定された動線箇所又は動線区間に対応するセンシングデータが再生されるように、再生手段による再生区間を制御する再生制御手段と、
前記測位結果に基づいて、前記動線に関する補助図形を作成する補助図形作成手段と、
前記動線と前記補助図形とを含む検索画像を作成し、当該検索画像を表示手段に表示させる検索画像作成手段と、
を具備するセンシングデータ検索装置。
Based on the positioning result for the monitoring target, a flow line creating means for creating a flow line that is a movement locus of the monitoring target;
Reproduction control means for controlling the reproduction section by the reproduction means so that sensing data corresponding to the flow line location or the flow line section designated by the user is reproduced;
An auxiliary graphic creating means for creating an auxiliary graphic related to the flow line based on the positioning result;
A search image creating means for creating a search image including the flow line and the auxiliary figure, and displaying the search image on a display means;
Sensing data retrieval apparatus comprising:
前記補助図形は、前記監視対象が特徴的な動きをした箇所を示す図形であり、
前記検索画像は、前記動線上に前記特徴的な動きをした箇所を示す図形が配置された画像である、
請求項1に記載のセンシングデータ検索装置。
The auxiliary graphic is a graphic showing a location where the monitoring target has moved characteristically,
The search image is an image in which a graphic showing the location of the characteristic movement is arranged on the flow line.
The sensing data search device according to claim 1.
前記特徴的な動きは、滞留、停止、往復、高速移動、不自然な動きとして事前に登録した動作パターンと合致する移動軌跡、又は複数の監視対象で相関の高い動きである、
請求項2に記載のセンシングデータ検索装置。
The characteristic movement is dwell, stop, reciprocation, high-speed movement, movement trajectory that matches an operation pattern registered in advance as an unnatural movement, or a movement highly correlated with a plurality of monitoring targets.
The sensing data search device according to claim 2.
前記補助図形は、前記監視対象が滞留又は停止した期間を示す図形であり、
前記検索画像は、前記監視対象が滞留又は停止した動線箇所に、前記補助図形が並んで又は重なって配置された画像である、
請求項1に記載のセンシングデータ検索装置。
The auxiliary graphic is a graphic showing a period during which the monitoring target stays or stops,
The search image is an image in which the auxiliary graphic is arranged side by side or overlapping the flow line where the monitoring target stays or stops.
The sensing data search device according to claim 1.
前記補助図形は、事故が起こった箇所を示す図形である、
請求項1に記載のセンシングデータ検索装置。
The auxiliary graphic is a graphic showing the location where the accident occurred,
The sensing data search device according to claim 1.
前記補助図形は、監視重要箇所を示す図形である、
請求項1に記載のセンシングデータ検索装置。
The auxiliary graphic is a graphic showing a monitoring important point,
The sensing data search device according to claim 1.
前記センシングデータは、前記監視対象を撮像した動画であり、
前記補助図形は、前記監視対象のサムネイル画像を含む図形であり、
前記検索画面作成手段は、前記検索画像として、前記動線上における前記監視対象が特徴的な動きをした箇所に、前記サムネイル画像が配置された画像を作成する、
請求項1に記載のセンシングデータ検索装置。
The sensing data is a moving image of the monitoring target,
The auxiliary graphic is a graphic including the thumbnail image to be monitored,
The search screen creation means creates an image in which the thumbnail image is arranged at a location where the monitoring target has a characteristic movement on the flow line as the search image.
The sensing data search device according to claim 1.
前記センシングデータは、複数のカメラによって撮像された複数の動画であり、
前記補助図形は、各動線区間の動画を撮像したカメラを示す図形であり、
前記検索画像は、前記動線と前記補助図形とが並んで又は重なって配置された画像である、
請求項1に記載のセンシングデータ検索装置。
The sensing data is a plurality of moving images captured by a plurality of cameras,
The auxiliary figure is a figure showing a camera that captures a moving image of each flow line section,
The search image is an image in which the flow line and the auxiliary figure are arranged side by side or overlapped.
The sensing data search device according to claim 1.
前記動線作成手段は、複数の監視対象についての測位結果に基づいて、複数の動線を作成し、
前記補助図形作成手段は、前記複数の監視対象のうちの一つの監視対象の動線を用いてユーザによって指定された当該動線の指定区間に対応する期間を求め、前記補助図形として、当該期間における他の監視対象の移動軌跡である動線を作成し、
前記検索画面作成手段は、前記検索画像として、前記一つの監視対象の動線と、前記他の監視対象の動線とを含む画像を作成する、
請求項1に記載のセンシングデータ検索装置。
The flow line creating means creates a plurality of flow lines based on positioning results for a plurality of monitoring targets,
The auxiliary figure creating means obtains a period corresponding to a designated section of the flow line designated by the user using a flow line of one of the plurality of monitoring objects, and the auxiliary figure as the auxiliary figure Create a flow line that is the movement trajectory of other monitored objects in
The search screen creation means creates an image including the flow line of the one monitoring target and the flow line of the other monitoring target as the search image.
The sensing data search device according to claim 1.
前記センシングデータは、前記監視対象を撮像した動画であり、
前記補助図形作成手段は、再生手段から現在再生中である再生ポイントの情報を受信し、前記補助図形として、前記再生ポイントを示す図形を作成し、
前記検索画面作成手段は、前記検索画像として、前記動線と前記再生ポイントを示す図形とを含む画像を作成する、
請求項1に記載のセンシングデータ検索装置。
The sensing data is a moving image of the monitoring target,
The auxiliary figure creating means receives information of a playback point currently being played back from the reproducing means, creates a figure indicating the playback point as the auxiliary figure,
The search screen creation means creates an image including the flow line and a graphic showing the playback point as the search image.
The sensing data search device according to claim 1.
前記再生ポイントを示す図形は、前記動線上の前記再生ポイントに対応する位置に配置された、現在の再生ポイントに対応した再生画像を含む図形である、
請求項10に記載のセンシングデータ検索装置。
The graphic indicating the playback point is a graphic including a playback image corresponding to the current playback point, arranged at a position corresponding to the playback point on the flow line.
The sensing data search device according to claim 10.
前記センシングデータは、前記監視対象が撮像された動画であり、
前記補助図形は、間欠的な再生画像を含む図形であり、
前記検索画像は、前記動線上に現在の再生ポイントまでの再生画像が間欠的に配置された画像である、
請求項10に記載のセンシングデータ検索装置。
The sensing data is a moving image in which the monitoring target is imaged,
The auxiliary graphic is a graphic including intermittent reproduction images,
The search image is an image in which playback images up to the current playback point are intermittently arranged on the flow line.
The sensing data search device according to claim 10.
前記センシングデータは、前記監視対象が撮像された動画であり、
前記再生手段は、ユーザによって指定された動線に対応する監視対象を特定可能な再生画像を形成する、
請求項1に記載のセンシングデータ検索装置。
The sensing data is a moving image in which the monitoring target is imaged,
The reproduction unit forms a reproduction image capable of specifying a monitoring target corresponding to a flow line designated by a user;
The sensing data search device according to claim 1.
前記補助図形は、前記センシングデータと時間的に対応付けられており、
前記再生制御手段は、ユーザによって前記補助図形を用いて指定された期間のセンシングデータを再生させる、
請求項1から請求項13のいずれか一項に記載のセンシングデータ検索装置。
The auxiliary graphic is temporally associated with the sensing data,
The reproduction control means reproduces sensing data for a period specified by the user using the auxiliary graphic.
The sensing data search device according to any one of claims 1 to 13.
測位結果に基づいて、監視対象の移動軌跡である動線を作成するステップと、
前記測位結果に基づいて、前記動線に関する補助図形を作成するステップと、
前記動線と前記補助図形とを含む検索画像を作成するステップと、
を含む検索画像作成方法。
Based on the positioning result, creating a flow line that is a movement trajectory of the monitoring target;
Creating an auxiliary figure related to the flow line based on the positioning result;
Creating a search image including the flow line and the auxiliary figure;
Search image creation method including
前記動線及び前記補助図形は、再生されるセンシングデータに関連付けられている、
請求項15に記載の検索画像作成方法。
The flow line and the auxiliary figure are associated with reproduced sensing data.
The search image creation method according to claim 15.
JP2008298445A 2008-11-21 2008-11-21 Sensing data retrieval device and retrieval image creation method Pending JP2010123069A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008298445A JP2010123069A (en) 2008-11-21 2008-11-21 Sensing data retrieval device and retrieval image creation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008298445A JP2010123069A (en) 2008-11-21 2008-11-21 Sensing data retrieval device and retrieval image creation method

Publications (1)

Publication Number Publication Date
JP2010123069A true JP2010123069A (en) 2010-06-03

Family

ID=42324335

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008298445A Pending JP2010123069A (en) 2008-11-21 2008-11-21 Sensing data retrieval device and retrieval image creation method

Country Status (1)

Country Link
JP (1) JP2010123069A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042864A1 (en) * 2010-10-01 2012-04-05 パナソニック株式会社 Object location estimation system, object location estimation device, object location estimation method, and object location estimation program
WO2012060105A1 (en) * 2010-11-05 2012-05-10 日本電気株式会社 Information processing device
JP2012113648A (en) * 2010-11-26 2012-06-14 Toshiba Tec Corp Nursing support system
JP2014229103A (en) * 2013-05-23 2014-12-08 グローリー株式会社 Video analysis device and video analysis method
WO2015122163A1 (en) * 2014-02-14 2015-08-20 日本電気株式会社 Video processing system
JPWO2016038872A1 (en) * 2014-09-11 2017-06-22 日本電気株式会社 Information processing apparatus, display method, and computer program
JP2020167720A (en) * 2017-03-31 2020-10-08 日本電気株式会社 Video image processing device, video image analysis system, method, and program
WO2021131448A1 (en) * 2019-12-26 2021-07-01 パナソニックIpマネジメント株式会社 Flow line analysis device and flow line analysis method
JP7443816B2 (en) 2020-02-25 2024-03-06 大日本印刷株式会社 Image provision system

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012042864A1 (en) * 2010-10-01 2012-04-05 パナソニック株式会社 Object location estimation system, object location estimation device, object location estimation method, and object location estimation program
US9251188B2 (en) 2010-11-05 2016-02-02 Nec Corporation Information processing device
WO2012060105A1 (en) * 2010-11-05 2012-05-10 日本電気株式会社 Information processing device
JP2012113648A (en) * 2010-11-26 2012-06-14 Toshiba Tec Corp Nursing support system
JP2014229103A (en) * 2013-05-23 2014-12-08 グローリー株式会社 Video analysis device and video analysis method
US10389969B2 (en) 2014-02-14 2019-08-20 Nec Corporation Video processing system
WO2015122163A1 (en) * 2014-02-14 2015-08-20 日本電気株式会社 Video processing system
US11665311B2 (en) 2014-02-14 2023-05-30 Nec Corporation Video processing system
JPWO2015122163A1 (en) * 2014-02-14 2017-03-30 日本電気株式会社 Video processing system
US10825211B2 (en) 2014-09-11 2020-11-03 Nec Corporation Information processing device, display method, and program storage medium for monitoring object movement
US20190221015A1 (en) * 2014-09-11 2019-07-18 Nec Corporation Information processing device, display method, and program storage medium for monitoring object movement
US10297051B2 (en) 2014-09-11 2019-05-21 Nec Corporation Information processing device, display method, and program storage medium for monitoring object movement
US11315294B2 (en) 2014-09-11 2022-04-26 Nec Corporation Information processing device, display method, and program storage medium for monitoring object movement
US11657548B2 (en) 2014-09-11 2023-05-23 Nec Corporation Information processing device, display method, and program storage medium for monitoring object movement
JPWO2016038872A1 (en) * 2014-09-11 2017-06-22 日本電気株式会社 Information processing apparatus, display method, and computer program
JP2020167720A (en) * 2017-03-31 2020-10-08 日本電気株式会社 Video image processing device, video image analysis system, method, and program
JP2021185698A (en) * 2017-03-31 2021-12-09 日本電気株式会社 Video image processing device, video image analysis system, method, and program
JP7279747B2 (en) 2017-03-31 2023-05-23 日本電気株式会社 VIDEO PROCESSING DEVICE, VIDEO ANALYSIS SYSTEM, METHOD AND PROGRAM
US11748892B2 (en) 2017-03-31 2023-09-05 Nec Corporation Video image processing device, video image analysis system, method, and program
WO2021131448A1 (en) * 2019-12-26 2021-07-01 パナソニックIpマネジメント株式会社 Flow line analysis device and flow line analysis method
JP7443816B2 (en) 2020-02-25 2024-03-06 大日本印刷株式会社 Image provision system

Similar Documents

Publication Publication Date Title
JP2010123069A (en) Sensing data retrieval device and retrieval image creation method
CN108292364B (en) Tracking objects of interest in omnidirectional video
US10326940B2 (en) Multi-video navigation system
JP6410930B2 (en) Content item retrieval and association scheme with real world objects using augmented reality and object recognition
US8437508B2 (en) Information processing apparatus and information processing method
JP5227911B2 (en) Surveillance video retrieval device and surveillance system
JP5035053B2 (en) Non-linear video playback control method and non-linear video playback control program
US20170085803A1 (en) Multi-video navigation
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
JP2020047110A (en) Person search system and person search method
JP6206857B1 (en) Tracking support device, tracking support system, and tracking support method
CN104335594A (en) Automatic digital curation and tagging of action videos
JP2014153813A5 (en) Image processing apparatus, image processing method, and program
KR20120015923A (en) Apparatus and method for recognizing object using filter information
US11676389B2 (en) Forensic video exploitation and analysis tools
JP2015019250A (en) Tracking support device, tracking support system, and tracking support method
US20170256283A1 (en) Information processing device and information processing method
WO2014045843A1 (en) Image processing system, image processing method, and program
EP3070681A1 (en) Display control device, display control method and program
US20160379682A1 (en) Apparatus, method and computer program
JP4325541B2 (en) Image processing apparatus, reproduction image processing apparatus, image processing method, and reproduction image processing apparatus
US20210035312A1 (en) Methods circuits devices systems and functionally associated machine executable instructions for image acquisition identification localization &amp; subject tracking
JP3372096B2 (en) Image information access device
WO2016203896A1 (en) Generation device
JP2005157134A (en) Information output method, device and program, and computer readable storage medium stored with information output program