JP2017118319A - Video retrieval system - Google Patents

Video retrieval system Download PDF

Info

Publication number
JP2017118319A
JP2017118319A JP2015251686A JP2015251686A JP2017118319A JP 2017118319 A JP2017118319 A JP 2017118319A JP 2015251686 A JP2015251686 A JP 2015251686A JP 2015251686 A JP2015251686 A JP 2015251686A JP 2017118319 A JP2017118319 A JP 2017118319A
Authority
JP
Japan
Prior art keywords
video
work
frame
search
search system
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015251686A
Other languages
Japanese (ja)
Other versions
JP6618349B2 (en
Inventor
春美 清水
Harumi Shimizu
春美 清水
森田 豊久
Toyohisa Morita
豊久 森田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Systems Ltd
Original Assignee
Hitachi Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Systems Ltd filed Critical Hitachi Systems Ltd
Priority to JP2015251686A priority Critical patent/JP6618349B2/en
Publication of JP2017118319A publication Critical patent/JP2017118319A/en
Application granted granted Critical
Publication of JP6618349B2 publication Critical patent/JP6618349B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Television Signal Processing For Recording (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately extract only a scene that is important for a supervising job, from among video images such as monitor video images that are recorded for a long time.SOLUTION: A video retrieval system analyzes video images and extracts a video target scene that becomes an extraction target. The video retrieval system comprises a retrieval start point determination part 106 and a work video phase identification part 108. Based on work information 112 inputted from the outside, the retrieval start point determination part 106 and the work video phase identification part 108 sets a start point video frame to be a retrieval start point of a video image to be the extraction target from among video images captured by a video imaging device 101 that images equipment of a work target. With the set start point video frame defined as a reference, video images captured by the video imaging device 101 are retrieved and the video target scene is identified.SELECTED DRAWING: Figure 2

Description

本発明は、映像検索システムに関し、特に、監視カメラなどによって撮影された映像における重要シーンの検索に有効な技術に関する。   The present invention relates to a video search system, and more particularly to a technique effective for searching important scenes in video shot by a surveillance camera or the like.

Webカメラなどのネットワークに接続可能な撮影装置が普及することにより、IP(Internet Protocol)ネットワークなどを利用した広域で大規模な監視システムを構築することが可能となった。   With the widespread use of imaging devices that can be connected to a network such as a Web camera, it has become possible to construct a large-scale monitoring system over a wide area using an IP (Internet Protocol) network or the like.

このような監視システムでは、複数拠点に設置したカメラから大量の監視映像を取得することができ、多角的なモニタリングが可能となる。しかし、一人の監視者が目視で確認できる映像の量には限界がある。   In such a monitoring system, a large amount of monitoring images can be acquired from cameras installed at a plurality of locations, and multi-faceted monitoring is possible. However, there is a limit to the amount of video that can be visually confirmed by a single observer.

そのため、単純にカメラの台数を増やすだけは監視者が重要シーンを見落としてしまうなどの問題が発生する。したがって、効率的な広域監視を実現するためには、大量の映像を短時間で確認するための技術が必要である。   For this reason, simply increasing the number of cameras causes a problem such as an oversight of an important scene by a supervisor. Therefore, in order to realize efficient wide area monitoring, a technique for confirming a large amount of video in a short time is necessary.

この種の映像確認技術としては、監視映像における変化の少ない部分、すなわち重要度の低い部分を高速に閲覧して、長時間の監視映像を短時間で閲覧する技術がある(例えば特許文献1参照)。   As this type of video confirmation technique, there is a technique for browsing a monitoring video for a long time in a short time by browsing a portion with little change in the monitoring video, that is, a low-importance portion at high speed (for example, see Patent Document 1). ).

この技術は、例えば映像の変化が大きい部分と変化が少ない部分とを識別して、変化が少ない部分は高速に再生し、変化が大きい部分は低速または通常の速度で再生するものである。   In this technique, for example, a part with a large change in video and a part with a small change are distinguished, a part with a small change is played back at high speed, and a part with a large change is played back at a low speed or a normal speed.

また、建設現場のように長期間にわたる作業を効率よく確認する技術として、例えば特許文献2が知られている。この特許文献2は、タイマ手段にて設定した時刻のみの画像を撮影するものである。   As a technique for efficiently confirming work over a long period of time as in a construction site, for example, Patent Document 2 is known. This patent document 2 is for taking an image only at a time set by a timer means.

さらに、上記の特許文献2では、重要度が高い映像のみを撮影することにより、長期間の作業経過を短時間で確認することのできる技術が開示されている。これは、光学系センサにより人物や物の動きを検知し、動きが検知されたときのみに画像を撮影するものである。   Furthermore, the above-mentioned Patent Document 2 discloses a technique that allows a long-term work progress to be confirmed in a short time by photographing only highly important images. In this method, the movement of a person or an object is detected by an optical system sensor, and an image is taken only when the movement is detected.

特開2007−306322号公報JP 2007-306322 A 特開2002−24330号公報JP 2002-24330 A

上述した特許文献1や特許文献2の技術においては、映像の変化量や作業現場での動体の動きのみを用いて当該シーンが重要かどうかを判定している。そのため、利用する環境によっては、重要度の低いシーンを誤って重要と判定する可能性がある。あるいは、その逆に重要度の高いシーンを誤って重要度が低いと判定する可能性がある。   In the techniques of Patent Document 1 and Patent Document 2 described above, it is determined whether or not the scene is important using only the amount of change in the image and the movement of the moving object at the work site. Therefore, depending on the environment used, there is a possibility that a scene with low importance is erroneously determined to be important. Or, conversely, a scene with high importance may be erroneously determined to be low in importance.

例えば、プラント施設や建設現場などの作業を監視する監督者は、現場作業員が事前に作成した計画書通りに作業を進めているか、作業員が提出した作業報告書に記載ミスや虚偽の報告がないかなどを確認するために監視映像を利用することがある。   For example, a supervisor who monitors work at a plant facility, construction site, etc., is proceeding according to a plan prepared in advance by the site worker, or reports errors or false reports described in the work report submitted by the worker. There are cases where surveillance video is used to check whether there is any.

このような用途では、監視映像に映る様々なシーンの中で作業中のシーンのみを重要シーンと判定する必要がある。しかし、上記の技術では、作業以外の動きについても反応してしまう。   In such an application, it is necessary to determine only an active scene among the various scenes shown in the monitoring video as an important scene. However, the above-described technology reacts to movements other than work.

そのため、例えば作業員が休憩所に向かって歩行するだけのシーンなど、監督者にとって重要度の低いシーンが重要なシーンと誤判定される恐れがある。監視業務をさらに効率化するためには、動き以外の情報も考慮したシーンの抽出技術が必要となる。   Therefore, for example, a scene that is less important for the supervisor, such as a scene in which an operator walks toward a rest area, may be erroneously determined as an important scene. In order to further improve the efficiency of monitoring work, a scene extraction technique that considers information other than movement is required.

本発明の目的は、監視映像などの長期間記録された映像の中から、監督業務に重要なシーンのみを精度よく抽出することのできる技術を提供することにある。   An object of the present invention is to provide a technique capable of accurately extracting only a scene important for a supervisory work from a video recorded for a long time such as a monitoring video.

本発明の前記ならびにその他の目的と新規な特徴については、本明細書の記述および添付図面から明らかになるであろう。   The above and other objects and novel features of the present invention will be apparent from the description of this specification and the accompanying drawings.

本願において開示される発明のうち、代表的なものの概要を簡単に説明すれば、次のとおりである。   Of the inventions disclosed in the present application, the outline of typical ones will be briefly described as follows.

すなわち、代表的な映像検索システムは、映像検索特定部を有する。この映像検索特定部は、外部入力される検索情報に基づいて、作業対象の機器を撮影する映像撮影装置が撮影した映像から抽出対象となる映像の検索起点となる起点映像フレームを設定し、設定した起点映像フレームを起点として映像撮影装置が撮影した映像を検索して映像対象シーンを特定する。   That is, a typical video search system has a video search specifying unit. The video search specifying unit sets and sets a start video frame that is a search start point of a video to be extracted from a video shot by a video shooting device that shoots a target device based on search information input from the outside. A video target scene is specified by searching for a video shot by the video shooting device using the starting video frame as a starting point.

また、映像検索特定部は、検索起点決定部および映像区間特定部を有する。検索起点決定部は、検索情報に基づいて、作業対象の機器を撮影した映像撮影装置および前記機器の作業日時からなる検索起点データを生成する。映像区間特定部は、検索起点決定部が生成した検索起点データに基づいて、作業対象の機器を撮影する映像撮影装置が撮影した映像から抽出対象となる映像の検索起点となる起点映像フレームを設定し、設定した起点映像フレームを起点として、映像撮影装置が撮影した映像を解析して検索し、映像対象シーンを特定する。   The video search specifying unit includes a search start point determining unit and a video section specifying unit. Based on the search information, the search start point determination unit generates search start point data including a video shooting apparatus that has shot the target device and the work date and time of the device. Based on the search start data generated by the search start point determination unit, the video section specifying unit sets a start video frame that is a search start point of the video to be extracted from the video shot by the video shooting device that captures the work target device. Then, starting from the set start video frame, the video taken by the video shooting device is analyzed and searched to specify the video target scene.

特に、検索起点決定部が生成する検索起点データは、機器に実施した作業日時を有し、映像区間特定部は、作業日時に合致する日時のフレーム画像を起点映像フレームとして設定する。   In particular, the search start data generated by the search start point determination unit has the work date and time performed on the device, and the video section specifying unit sets a frame image of the date and time that matches the work date and time as the start video frame.

本願において開示される発明のうち、代表的なものによって得られる効果を簡単に説明すれば以下のとおりである。   Among the inventions disclosed in the present application, effects obtained by typical ones will be briefly described as follows.

(1)監督業務に必要なシーンを短時間で高精度に抽出することができる。   (1) A scene necessary for supervision work can be extracted with high accuracy in a short time.

(2)上記(1)により、監督業務の効率を向上させることができる。   (2) According to the above (1), the efficiency of the supervisory work can be improved.

実施の形態1による映像検索システムにおける構成の一例を示す説明図である。2 is an explanatory diagram illustrating an example of a configuration in a video search system according to Embodiment 1. FIG. 図1の映像検索システムにおける他の構成例を示す説明図である。It is explanatory drawing which shows the other structural example in the video | video search system of FIG. 図2の映像検索システムにおける動作の一例を示すフローチャートである。It is a flowchart which shows an example of operation | movement in the video | video search system of FIG. 図2の映像検索システムが有する作業情報入力装置に格納される作業情報の説明図である。It is explanatory drawing of the work information stored in the work information input device which the video search system of FIG. 2 has. 図2の映像検索システムが有する記憶装置に格納される機器撮影データにおけるデータ構成の一例を示す説明図である。It is explanatory drawing which shows an example of a data structure in the apparatus imaging | photography data stored in the memory | storage device which the video search system of FIG. 2 has. 図3のステップS302の処理である検索起点決定処理にて作成される検索起点データの構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure of the search origin data produced in the search origin determination process which is a process of step S302 of FIG. 図2の映像検索システムが有する映像蓄積部に蓄積されている映像データの構成における一例を示す説明図である。It is explanatory drawing which shows an example in the structure of the video data accumulate | stored in the video storage part which the video search system of FIG. 2 has. 図2の映像検索システムが有する作業映像区間特定部による作業映像区間特定処理の概要を示す説明図である。It is explanatory drawing which shows the outline | summary of the work video area identification process by the work video area identification part which the video search system of FIG. 2 has. 図2の映像検索システムが有する作業映像区間特定部による作業映像区間特定処理の一例を示すフローチャートである。It is a flowchart which shows an example of the work video area specific process by the work video area specific | specification part which the video search system of FIG. 2 has. 図3のステップS304の処理により表示装置に表示される表示内容の一例を示す説明図である。It is explanatory drawing which shows an example of the display content displayed on a display apparatus by the process of step S304 of FIG. 実施の形態2による映像検索システムにおける構成の一例を示す説明図である。FIG. 10 is an explanatory diagram illustrating an example of a configuration in a video search system according to a second embodiment. 図11の映像検索システムが有する作業情報入力部が取得する作業リストにおける構成の一例を示す説明図である。It is explanatory drawing which shows an example of a structure in the work list which the work information input part which the video search system of FIG. 11 has acquires. 図11の映像検索システムが有する作業内容評価部による差異が大きい際に表示装置に表示される表示内容の一例を示す説明図である。It is explanatory drawing which shows an example of the display content displayed on a display apparatus when the difference by the work content evaluation part which the video search system of FIG. 11 has is large. 実施の形態3における映像検索システムによる構成の一例を示す説明図である。10 is an explanatory diagram illustrating an example of a configuration of a video search system according to Embodiment 3. FIG. 図14の映像検索システムが有する映像蓄積部に蓄積されている映像データの構成における一例を示す説明図である。It is explanatory drawing which shows an example in the structure of the video data accumulate | stored in the video storage part which the video search system of FIG. 14 has.

以下の実施の形態においては便宜上その必要があるときは、複数のセクションまたは実施の形態に分割して説明するが、特に明示した場合を除き、それらはお互いに無関係なものではなく、一方は他方の一部または全部の変形例、詳細、補足説明等の関係にある。   In the following embodiments, when it is necessary for the sake of convenience, the description will be divided into a plurality of sections or embodiments. However, unless otherwise specified, they are not irrelevant to each other. There are some or all of the modifications, details, supplementary explanations, and the like.

また、以下の実施の形態において、要素の数等(個数、数値、量、範囲等を含む)に言及する場合、特に明示した場合および原理的に明らかに特定の数に限定される場合等を除き、その特定の数に限定されるものではなく、特定の数以上でも以下でもよい。   Further, in the following embodiments, when referring to the number of elements (including the number, numerical value, quantity, range, etc.), especially when clearly indicated and when clearly limited to a specific number in principle, etc. Except, it is not limited to the specific number, and may be more or less than the specific number.

さらに、以下の実施の形態において、その構成要素(要素ステップ等も含む)は、特に明示した場合および原理的に明らかに必須であると考えられる場合等を除き、必ずしも必須のものではないことは言うまでもない。   Further, in the following embodiments, the constituent elements (including element steps and the like) are not necessarily indispensable unless otherwise specified and apparently essential in principle. Needless to say.

同様に、以下の実施の形態において、構成要素等の形状、位置関係等に言及するときは特に明示した場合および原理的に明らかにそうではないと考えられる場合等を除き、実質的にその形状等に近似または類似するもの等を含むものとする。このことは、上記数値および範囲についても同様である。   Similarly, in the following embodiments, when referring to the shape, positional relationship, etc. of components, etc., the shape of the component is substantially the case unless it is clearly specified and the case where it is clearly not apparent in principle. And the like are included. The same applies to the above numerical values and ranges.

また、実施の形態を説明するための全図において、同一の部材には原則として同一の符号を付し、その繰り返しの説明は省略する。   In all the drawings for explaining the embodiments, the same members are denoted by the same reference symbols in principle, and the repeated explanation thereof is omitted.

(実施の形態1)
〈概要〉
実施の形態の代表的な映像検索システムは、作業情報112を入力すると、施設内の映像撮影装置101にて撮影された大量の映像の中から作業情報112に関連する映像のみを検索し、その検索した映像を作業情報112と紐づけて、表示装置111に提示するシステムである。
(Embodiment 1)
<Overview>
The representative video search system of the embodiment, when the work information 112 is input, searches only a video related to the work information 112 from among a large number of videos shot by the video shooting device 101 in the facility. In this system, the searched video is linked to the work information 112 and presented on the display device 111.

〈映像検索システムの構成例〉
以下、実施の形態を詳細に説明する。
<Example of video search system configuration>
Hereinafter, embodiments will be described in detail.

図1は、本実施の形態1による映像検索システムにおける構成の一例を示す説明図である。   FIG. 1 is an explanatory diagram showing an example of the configuration of the video search system according to the first embodiment.

映像検索システムは、図1に示すように、映像撮影装置101、作業情報入力装置104、表示装置111、および映像検索装置100を有する構成からなる。映像撮影装置101は、例えばネットワークカメラやデジタルカメラなどであり、例えば施設内の様々な場所に設けられており、該施設内における映像を撮影する。   As shown in FIG. 1, the video search system has a configuration including a video shooting device 101, a work information input device 104, a display device 111, and a video search device 100. The video imaging device 101 is, for example, a network camera or a digital camera, and is provided at various locations in the facility, for example, and captures video in the facility.

作業情報入力装置104は、図4に示す作業情報112を保持する。作業情報入力装置104は、例えばUSB(Universal Serial Bus)メモリの外部記憶メモリなどであってもよいし、あるいはキーボードやマウスなどの入力装置であってもよい。作業情報112は、例えば施設内などにて実施される作業の内容や時間などの情報である。表示装置111は、例えば液晶ディスプレイなどであり、処理結果を提示する。   The work information input device 104 holds work information 112 shown in FIG. The work information input device 104 may be, for example, an external storage memory such as a USB (Universal Serial Bus) memory, or may be an input device such as a keyboard or a mouse. The work information 112 is information such as the content and time of work performed in a facility, for example. The display device 111 is a liquid crystal display, for example, and presents a processing result.

映像検索装置100は、映像入力部102、映像蓄積部103、作業情報入力部105、検索起点決定部106、機器撮影データ格納部107、作業映像区間特定部108、作業時間帯情報蓄積部109、および表示内容生成部110を有する。   The video search device 100 includes a video input unit 102, a video storage unit 103, a work information input unit 105, a search start point determination unit 106, a device shooting data storage unit 107, a work video section specifying unit 108, a work time zone information storage unit 109, And a display content generation unit 110.

映像入力部102は、映像撮影装置101からの映像データを受け取り、フレーム画像、言い換えれば静止画像に変換する。そして、図5に示す映像撮影装置101を一意に特定する番号であるカメラID113と図7に示す映像の撮影日時701とを紐づけて映像蓄積部103に格納する。   The video input unit 102 receives video data from the video shooting device 101 and converts it into a frame image, in other words, a still image. Then, the camera ID 113, which is a number that uniquely identifies the video photographing apparatus 101 shown in FIG. 5, is associated with the video photographing date 701 shown in FIG.

作業情報入力部105は、作業情報入力装置104から作業情報112を受け取り、その後の処理に必要な情報のみを選択して検索起点決定部106に出力する。検索起点決定部106は、作業情報入力部105から入力されたデータに基づいて作業員が映る可能性が高い時刻とその作業を映しているカメラID113を求める。   The work information input unit 105 receives the work information 112 from the work information input device 104, selects only information necessary for the subsequent processing, and outputs it to the search start point determination unit 106. Based on the data input from the work information input unit 105, the search start point determination unit 106 obtains the time when the worker is highly likely to appear and the camera ID 113 showing the work.

作業映像区間特定部108は、映像蓄積部103の映像を解析して、作業の開始時刻と終了時刻を特定する。また、検索起点決定部106および作業映像区間特定部108によって映像検索特定部が構成される。そして、特定した時間帯を作業時間帯情報蓄積部109に出力する。表示内容生成部110は、作業情報112と作業時間帯の映像とを関連付けた出力画面を生成する。   The work video section specifying unit 108 analyzes the video of the video storage unit 103 and specifies the work start time and end time. The search start point determination unit 106 and the work video section specifying unit 108 constitute a video search specifying unit. Then, the specified time zone is output to the work time zone information storage unit 109. The display content generation unit 110 generates an output screen in which the work information 112 and the work time period video are associated with each other.

〈映像検索システムの適用例〉
続いて、図1の映像検索システムの適用例について説明する。
<Application example of video search system>
Next, an application example of the video search system in FIG. 1 will be described.

図2は、図1の映像検索システムにおける他の構成例を示す説明図である。この図2では、図1の映像検索システムが有する映像検索装置100を計算機であるパーソナルコンピュータを適用して構成した際の例を示したものである。図2における映像撮影装置101、作業情報入力装置104、および表示装置111は、図1と同様であるので、説明は省略する。   FIG. 2 is an explanatory diagram showing another configuration example of the video search system of FIG. FIG. 2 shows an example in which the video search device 100 included in the video search system of FIG. 1 is configured by applying a personal computer which is a computer. The video imaging device 101, the work information input device 104, and the display device 111 in FIG. 2 are the same as those in FIG.

図2において、映像検索装置100は、上述したように一般的なパーソナルコンピュータなど計算機であり、プロセッサ251、メインメモリ252、映像入力インタフェース(I/F)253、文書入力インタフェース255、出力インタフェース256、および記憶装置257を有する。これらは、バスなどによって相互に接続された構成からなる。   In FIG. 2, the video search apparatus 100 is a computer such as a general personal computer as described above, and includes a processor 251, a main memory 252, a video input interface (I / F) 253, a document input interface 255, an output interface 256, And a storage device 257. These are configured to be connected to each other by a bus or the like.

プロセッサ251は、メインメモリ252に格納されたプログラムを実行する。メインメモリ252は、例えばフラッシュメモリなどに例示される半導体メモリなどからなり、プロセッサ251によって実行されるプログラムおよびプロセッサ251によって参照されるデータを格納する。   The processor 251 executes a program stored in the main memory 252. The main memory 252 includes a semiconductor memory exemplified by a flash memory, for example, and stores a program executed by the processor 251 and data referred to by the processor 251.

具体的には、記憶装置257に格納されたプログラムおよびデータの少なくとも一部が、必要に応じてメインメモリ252にコピーされる。映像入力インタフェース253は、映像を取得するためのインタフェースであり、映像撮影装置101が接続されている。   Specifically, at least a part of the program and data stored in the storage device 257 is copied to the main memory 252 as necessary. The video input interface 253 is an interface for acquiring video, and is connected to the video shooting device 101.

文書入力インタフェース255は、作業情報を取得するためのインタフェースであり、作業情報入力装置104が接続される。出力インタフェース256は、表示装置111にて表示する画面を出力するインタフェースである。   The document input interface 255 is an interface for acquiring work information, and is connected to the work information input device 104. The output interface 256 is an interface that outputs a screen to be displayed on the display device 111.

記憶装置257は、例えばハードディスク装置(HDD)あるいはフラッシュメモリのような不揮発性の記憶装置である。図2における記憶装置257には、少なくとも図1の映像入力部102、作業情報入力部105、検索起点決定部106、作業映像区間特定部108、および表示内容生成部110による機能を実行するプログラム形式のソフトウェアが格納されている。   The storage device 257 is a non-volatile storage device such as a hard disk device (HDD) or a flash memory. The storage device 257 in FIG. 2 has a program format that executes at least the functions of the video input unit 102, the work information input unit 105, the search start point determination unit 106, the work video section identification unit 108, and the display content generation unit 110 in FIG. Software is stored.

また、記憶装置257は、上述した映像蓄積部103に蓄積されるデータ、作業時間帯情報蓄積部109に蓄積されるデータ、および機器撮影データ格納部107に格納されるデータをそれぞれ格納する記憶領域をそれぞれ有している。特に、記憶装置257における機器撮影データ格納部107には、後述する図5に示す機器撮影データ115が格納される。   The storage device 257 stores storage areas for storing the data stored in the video storage unit 103, the data stored in the work time zone information storage unit 109, and the data stored in the device shooting data storage unit 107, respectively. Respectively. In particular, the device photographing data storage unit 107 in the storage device 257 stores device photographing data 115 shown in FIG.

映像入力部102、作業情報入力部105、検索起点決定部106、作業映像区間特定部108、および表示内容生成部110の各機能を実行するプログラムは、プロセッサ251によって実行されるプログラムである。以下の説明において、これらの各機能が実行する処理は、プロセッサ251によって実行される。   Programs that execute the functions of the video input unit 102, the work information input unit 105, the search start point determination unit 106, the work video section specification unit 108, and the display content generation unit 110 are programs executed by the processor 251. In the following description, processing executed by each of these functions is executed by the processor 251.

〈映像検索システムによる動作例〉
続いて、図2の映像検索システムによる動作について説明する。
<Operation example by video search system>
Next, the operation of the video search system in FIG. 2 will be described.

図3は、図2の映像検索システムにおける動作の一例を示すフローチャートである。この図3では、作業情報入力装置104として、例えばUSBメモリを想定している。   FIG. 3 is a flowchart showing an example of operation in the video search system of FIG. In FIG. 3, for example, a USB memory is assumed as the work information input device 104.

まず、作業監督者または現場作業員が作業情報入力装置104を映像検索装置100に接続すると、作業情報入力部105による作業情報入力処理が実行される(ステップS301)。   First, when the work supervisor or field worker connects the work information input device 104 to the video search device 100, work information input processing by the work information input unit 105 is executed (step S301).

このステップS301の処理では、作業情報入力装置104に格納された作業情報112の中から、次ステップであるステップS302の処理にて利用するデータを取得する。   In the process of step S301, data used in the process of step S302, which is the next step, is acquired from the work information 112 stored in the work information input device 104.

〈作業情報の例〉
図4は、図2の映像検索システムが有する作業情報入力装置104に格納される作業情報の説明図である。図4(a)は、作業情報の一例を示しており、図4(b)は、作業情報入力部105が取得する作業リスト114の構成例を示している。
<Example of work information>
FIG. 4 is an explanatory diagram of work information stored in the work information input device 104 included in the video search system of FIG. FIG. 4A shows an example of work information, and FIG. 4B shows a configuration example of the work list 114 acquired by the work information input unit 105.

検索情報である作業情報112は、作業計画書、作業マニュアル、あるいは作業報告書などの作業内容や作業工数が記載された文書であり、例えば電子データなどからなる作業報告データである。   The work information 112 as search information is a document describing work contents and work man-hours such as a work plan, a work manual, or a work report, and is work report data including electronic data, for example.

この作業情報112は、定められた書式に沿って作成されており、図4(a)に示すように、項番201、機器ID202、機器名203、作業時刻204、および結果401を項目とする表がある。   This work information 112 is created in accordance with a predetermined format, and includes item number 201, device ID 202, device name 203, work time 204, and result 401 as shown in FIG. 4A. There is a table.

その表の上方には、年月日からなる作業日205および作業員氏名206が記載されている。その他に、作業人数などを記載するようにしてもよい。   In the upper part of the table, a work day 205 and a worker name 206 are shown. In addition, the number of workers may be described.

機器ID202は、作業対象機器を一意に特定する情報である。機器名203は、作業対象となる機器の名称を示す。作業時刻204は、作業を行った時刻である。結果401は、作業時に撮影した写真などである。例えば、ある機器のメータを読み取る作業の場合には、読み取ったメータの写真データが添付される。   The device ID 202 is information that uniquely identifies a work target device. The device name 203 indicates the name of the device to be worked. The work time 204 is a time when the work is performed. A result 401 is a photograph taken at the time of work. For example, in the case of an operation of reading a meter of a certain device, photograph data of the read meter is attached.

ステップS301における作業情報入力処理では、作業リスト114を生成する。作業リスト114は、項番201、機器ID202、および作業日時207から構成されており、図4(a)に示す作業情報から取得する。ここで、取得する作業日時207は、図4(a)の作業日205および作業時刻204である。この作業リスト114には、作業の個数だけレコードが追加される。   In the work information input process in step S301, a work list 114 is generated. The work list 114 includes an item number 201, a device ID 202, and a work date / time 207, and is acquired from the work information illustrated in FIG. Here, the work date and time 207 to be acquired are the work date 205 and the work time 204 in FIG. Records are added to the work list 114 by the number of works.

なお、作業日時については、上記したように作業情報112の文書に記載された作業時刻204および作業日205をそのまま採用してもよいし、あるいは作業情報112における結果401に写真が添付されている場合には、写真の撮影日時のデータを取得するようにしてもよい。   As for the work date and time, as described above, the work time 204 and the work date 205 described in the document of the work information 112 may be adopted as they are, or a photograph is attached to the result 401 in the work information 112. In such a case, data on the photographing date and time of the photograph may be acquired.

この場合、デジタルカメラが付加した撮影情報であるExif(Exchangeable image file format)ファイルから、写真の撮影日時を取得する。これにより、作業員が作業日205、作業時刻204を誤って記入した場合、記入漏れがあった場合、または作業情報112に作業時刻を記載する欄がない場合でも、正しい作業日時を取得することができる。   In this case, the shooting date and time of the photograph is acquired from an Exif (Exchangeable image file format) file that is shooting information added by the digital camera. As a result, the correct work date and time can be obtained even if the worker incorrectly enters the work date 205 and the work time 204, omission of entry, or when the work information 112 does not have a column for describing the work time. Can do.

続いて、検索起点決定部106による検索起点決定処理が実行される(ステップS302)。このステップS302の処理では、ステップS301の処理にて作成した作業リスト114と機器撮影データ115とに基づいて、図6に示す検索起点データ610を生成する。検索起点データ610は、作業員が映る可能性が高い映像撮影装置101および作業日時のリストなどからなる。   Subsequently, a search start point determination process by the search start point determination unit 106 is executed (step S302). In the process of step S302, search starting point data 610 shown in FIG. 6 is generated based on the work list 114 and the device photographing data 115 created in the process of step S301. The search start data 610 includes a video photographing apparatus 101 that is highly likely to be viewed by a worker, a list of work dates, and the like.

ここで、機器撮影データ115とは、映像検索装置100の稼働前に監視者や作業員が監視映像を目視確認して作成したデータであり、施設内の機器一覧とその機器を監視できる映像撮影装置101との対応関係を示したものである。   Here, the device shooting data 115 is data created by a supervisor or worker visually confirming a monitoring image before the operation of the image search device 100, and a list of devices in the facility and image shooting capable of monitoring the device. The correspondence relationship with the apparatus 101 is shown.

〈機器撮影データの構成例〉
図5は、図2の映像検索システムが有する記憶装置257に格納される機器撮影データ115におけるデータ構成の一例を示す説明図である。
<Configuration example of device shooting data>
FIG. 5 is an explanatory diagram showing an example of a data configuration in the device shooting data 115 stored in the storage device 257 included in the video search system of FIG.

機器撮影データ115のデータ構成は、機器ID202、カメラID113、および位置座標501からなる。1つの作業対象機器に対して、複数の撮影可能な映像撮影装置101が存在する場合は、作業対象機器により近い位置の映像撮影装置101を1つ選択して、選択した映像撮影装置101のカメラID113を格納する。あるいは、複数のカメラID113を格納してもよい。   The data structure of the device shooting data 115 includes a device ID 202, a camera ID 113, and position coordinates 501. When there are a plurality of video photographing apparatuses 101 that can shoot for one work target device, one video photographing device 101 at a position closer to the work target device is selected and the camera of the selected video photographing device 101 is selected. ID 113 is stored. Alternatively, a plurality of camera IDs 113 may be stored.

また、監視画像における機器の映る領域を特定できている場合は、カメラID113に加えて位置座標501を追記する。位置座標501は、表示装置111に表示される画像平面上における監視機器の位置を示す。   In addition, when the area where the device appears in the monitoring image can be specified, the position coordinate 501 is additionally written in addition to the camera ID 113. The position coordinate 501 indicates the position of the monitoring device on the image plane displayed on the display device 111.

これにより、後述する図3のステップS303の処理である検索処理にて行う人物検知の処理範囲を狭めることができるため、検索処理における処理時間を短縮することができる。   Thereby, since the processing range of the person detection performed in the search process which is the process of step S303 in FIG. 3 described later can be narrowed, the processing time in the search process can be shortened.

また、PTZ(パン、チルト、ズーム)機能を有する映像撮影装置101を用いる場合はPTZ機能の設定値によって作業対象の機器を撮影できない場合がある。そのため、作業対象機器を撮影することのできるPTZ値を予め確認し、機器撮影データ115にその値を含めるようにしてもよい。   In addition, when the video photographing apparatus 101 having the PTZ (pan, tilt, zoom) function is used, there is a case where the work target device cannot be photographed depending on the setting value of the PTZ function. Therefore, a PTZ value that can shoot the work target device may be confirmed in advance, and the value may be included in the device shooting data 115.

なお、機器撮影データ115は、映像検索装置100を初めて利用する際に一度作成すればよく、映像撮影装置101および機器の設置位置が変動しない限り、更新不要なデータである。   The device shooting data 115 may be generated once when the video search device 100 is used for the first time, and is data that does not need to be updated unless the installation positions of the video shooting device 101 and the device fluctuate.

〈検索起点データの構成例〉
図6は、図3のステップS302の処理である検索起点決定処理にて作成される検索起点データ610の構成の一例を示す説明図である。
<Configuration example of search origin data>
FIG. 6 is an explanatory diagram showing an example of the configuration of the search start point data 610 created by the search start point determination process that is the process of step S302 of FIG.

上述したように、検索起点データ610は、項番601、作業対象の機器ID602、作業日時604、および作業風景を撮影できる映像撮影装置101のカメラID605からから構成されている。   As described above, the search starting point data 610 is composed of the item number 601, the work target device ID 602, the work date and time 604, and the camera ID 605 of the video photographing apparatus 101 that can photograph the work scenery.

このうち、機器ID602および作業日時604は、図4(b)の作業リスト114から機器ID202および作業日時207を取得して格納したものである。カメラID605は、機器撮影データ115を参照して、機器ID602に対応するカメラIDを求めたものである。   Among these, the device ID 602 and the work date / time 604 are obtained by acquiring the device ID 202 and the work date / time 207 from the work list 114 of FIG. 4B. The camera ID 605 is obtained by referring to the device shooting data 115 and obtaining a camera ID corresponding to the device ID 602.

以上の作業により、作業員が映る可能性が高い時刻と映像撮影装置101とのリストを生成する。   Through the above-described operation, a list of the times when the worker is highly likely to appear and the video photographing apparatus 101 is generated.

続いて、図3において、作業映像区間特定部108による作業映像区間特定処理が実行される(ステップS303)。この作業映像区間特定処理は、映像蓄積部103に蓄積されている映像の中から作業風景が映る映像を特定する区間特定処理である。その際、ステップS302の処理にて求めたカメラID602と作業日時604とを用いてシーン特定の精度を向上する。   Subsequently, in FIG. 3, a work video section specifying process is performed by the work video section specifying unit 108 (step S <b> 303). This work video section specifying process is a section specifying process for specifying a video in which a work scene is shown from videos stored in the video storage unit 103. At that time, the scene identification accuracy is improved by using the camera ID 602 and the work date and time 604 obtained in the process of step S302.

〈映像データの構成例〉
図7は、図2の映像検索システムが有する映像蓄積部103に蓄積されている映像データの構成における一例を示す説明図である。
<Example configuration of video data>
FIG. 7 is an explanatory diagram showing an example of the configuration of the video data stored in the video storage unit 103 included in the video search system of FIG.

映像蓄積部103に蓄積されている映像データの構成は、図7に示すように、映像入力部102にて取得されたフレーム画像が映像撮影装置101毎、撮影日毎に整理されて格納されている。フレーム画像702には、撮影時刻のデータが付与されているため特定の時刻の画像を容易に取り出すことが可能である。   As shown in FIG. 7, the configuration of the video data stored in the video storage unit 103 is such that the frame images acquired by the video input unit 102 are organized and stored for each video shooting device 101 and for each shooting date. . The frame image 702 is provided with shooting time data, so that an image at a specific time can be easily extracted.

〈作業映像区間特定処理の概要〉
続いて、作業映像区間特定処理の概要について、図8を用いて説明する。
<Overview of work video section identification processing>
Next, an outline of the work video section specifying process will be described with reference to FIG.

図8は、図2の映像検索システムが有する作業映像区間特定部108による作業映像区間特定処理の概要を示す説明図である。   FIG. 8 is an explanatory diagram showing an outline of work video section specifying processing by the work video section specifying unit 108 included in the video search system of FIG.

図8に示す四角形801は、映像蓄積部103に蓄積されている映像データのフレーム画像702による連続フレーム画像を模式的に表したものである。これらのうち、ハッチングにて示す四角形は、作業員が映っている画像を示しており、白抜きにて示す四角形は、作業員が映っていない画像を示している。   A rectangle 801 illustrated in FIG. 8 schematically represents a continuous frame image by the frame image 702 of the video data stored in the video storage unit 103. Among these, a square indicated by hatching indicates an image in which a worker is shown, and a square indicated by white outline indicates an image in which no worker is shown.

また、ハッチングにて示す四角形の1つである画像805は、図6に示す検索起点データ610に格納された作業日時604の時刻に撮影された起点画像である。作業映像区間特定処理は、起点画像である画像805と同時刻帯に撮影されたフレーム画像702を解析して作業員が映っている区間である作業区間803を求める。   An image 805, which is one of the squares indicated by hatching, is a starting image taken at the time of the work date 604 stored in the search starting data 610 shown in FIG. In the work video section specifying process, a frame 702 taken at the same time zone as the image 805 that is a starting image is analyzed to obtain a work section 803 that is a section in which a worker is shown.

これにより、起点画像である画像805のフレーム画像付近の映像のみを検索対象とすることによって、作業と関係のないシーンが誤抽出されることを防ぎ、高精度な映像検索を可能とすることができる。   As a result, by searching only the video near the frame image of the image 805 that is the starting image, it is possible to prevent a scene unrelated to work from being erroneously extracted and to perform high-accuracy video search. it can.

図8(a)および図8(b)に示すように、画像805と作業区間803との位置関係は、2つのケースがある。1つ目は、図8(a)に示すように、作業区間803内に画像805、すなわち起点映像フレームとなる起点フレームを含む場合である。2つ目は、図8(b)に示すように、作業区間803内に起点フレームを含まない場合である。   As shown in FIGS. 8A and 8B, the positional relationship between the image 805 and the work section 803 has two cases. First, as shown in FIG. 8A, the work section 803 includes an image 805, that is, a start frame that becomes a start video frame. The second case is a case where the starting frame is not included in the work section 803 as shown in FIG.

図8(a)に示すケースでは、起点画像の画像805付近の狭い範囲のみを探索することで作業区間803を特定することができる。一方、図8(b)に示すケースでは、起点の画像805の前後に作業員が映っている区間、すなわち作業区間の候補となる区間が存在している。   In the case shown in FIG. 8A, the work section 803 can be specified by searching only a narrow range near the image 805 of the starting image. On the other hand, in the case shown in FIG. 8B, there are sections in which workers are shown before and after the starting image 805, that is, sections that are candidates for the work sections.

これらのケースにおいては、いずれも起点フレームである画像805により近い区間を選択して、これを作業区間803とする。例えば図8(b)に示すケースの場合には、作業区間の候補1と作業区間の候補2とにそれぞれ作業員が映っている区間が存在するが、画像805により近い作業区間は、作業区間の候補2であるので、該作業区間の候補2を選択して作業区間803とする。   In these cases, a section closer to the image 805 that is the starting frame is selected, and this is set as a work section 803. For example, in the case shown in FIG. 8B, there are sections in which workers are shown in the work section candidate 1 and the work section candidate 2, but the work section closer to the image 805 is the work section. Therefore, the work section candidate 2 is selected as a work section 803.

〈作業映像区間特定処理の処理例〉
続いて、作業映像区間特定処理について、図9を用いて詳細に説明する。
<Example of work video section identification processing>
Next, the work video section specifying process will be described in detail with reference to FIG.

図9は、図2の映像検索システムが有する作業映像区間特定部108による作業映像区間特定処理の一例を示すフローチャートである。   FIG. 9 is a flowchart showing an example of work video section specifying processing by the work video section specifying unit 108 included in the video search system of FIG.

まず、起点フレームF0を決定する(ステップS1021)。上述の通り、起点フレームF0には、映像蓄積部103に格納されたフレーム画像702のうち、カメラID602と作業日時604とに紐づいたフレーム、すなわち画像を設定する。 First, the starting frame F 0 is determined (step S1021). As described above, the start point frame F 0, of the frame image 702 stored in the video storage unit 103, frame tied to the camera ID602 and the working time 604, i.e., to set the image.

そして、起点フレームF0の画像に対して人物検知処理を実行する(ステップS1022)。この人物検知処理は、既存の人物検知処理を利用することが可能である。例えば、予め人が居ない状態にて撮影した背景画像と起点フレーム画像との画素値の差を取り、差が大きい領域が事前に決めたしきい値以上になった場合に人が映っていると判定する技術を利用することができる。あるいは、特開2013−92955公報に記載されているような、複数のテンプレート画像との照合結果に基づいた物体検出技術などが利用可能である。 Then, the person detection process is executed on the image of the starting frame F 0 (step S1022). This person detection process can use an existing person detection process. For example, the difference between the pixel values of the background image captured in the absence of a person in advance and the starting frame image is taken, and a person is shown when the area where the difference is greater than or equal to a predetermined threshold value. Can be used. Or the object detection technique based on the collation result with a some template image etc. which are described in Unexamined-Japanese-Patent No. 2013-92955 can be utilized.

この処理にて、起点フレームF0に人物が映ると判定された場合は、起点フレームF0が作業区間803内にあると判断する(ステップS1023)。これは、例えば図8(a)のケースとみなすことができる。その後、作業区間の両端のフレームを探す処理を実行する(ステップS1010)。 At this process, if it is determined that the person is reflected in the origin frame F 0, the origin frame F 0 is determined to be within the work section 803 (step S1023). This can be regarded as, for example, the case of FIG. Thereafter, a process for searching for frames at both ends of the work section is executed (step S1010).

一方、人が映っていないと判定した場合(ステップS1023)、起点フレームF0は、作業区間803以外の位置にあるとみなす。これは、図8(b)のケースとみなすことができる。その場合には、まず作業区間803のおおよその位置を求め(S1011)、その後、作業区間803の両端を求める(S1012)。 On the other hand, if it is determined that the person is not reflected (step S1023), the origin frame F 0 is considered to be in a position other than work section 803. This can be regarded as the case of FIG. In that case, first, an approximate position of the work section 803 is obtained (S1011), and then both ends of the work section 803 are obtained (S1012).

続いて、ステップS1010の処理である作業区間の両端のフレームを探す処理について説明する。   Next, processing for searching for frames at both ends of the work section, which is processing in step S1010, will be described.

まず、画像解析の対象となる注目フレームFiを1フレーム前であるF0−1に移すことからスタートする。その後注目フレームFiの画像対して人物検出処理を施す。 First, the process starts by moving the target frame F i subject to image analysis to F 0 −1 which is one frame before. Against subsequent image of the frame of interest F i subjected to a person detection process.

人が検知された場合は、さらに1フレーム前の画像を取得して人物検知を実施する。注目フレームの画像中に人が検知されなくなるまでこの処理を繰り返す。人が検知されなくなったフレームを作業区間803の開始フレームFsとする。この開始フレームFsは、図8における機器に対する作業開始の映像を示す作業開始フレーム804となる。 When a person is detected, an image one frame before is further acquired to perform person detection. This process is repeated until no person is detected in the image of the frame of interest. A frame in which no person is detected is set as a start frame F s of the work section 803. This start frame F s becomes a work start frame 804 showing a work start video for the device in FIG.

続いて、作業区間803の終了フレームFeを求める。この終了フレームFeは、図8の機器に対する作業が終了したフレームを示す作業終了フレーム806となる。この処理は、開始フレームFsを算出した際と同様に起点フレームF0から順に画像を解析し、人が映っているか否かを判定して、人が映らなくなった最初のフレームを作業区間803の終了フレームFeとする。 Subsequently, an end frame F e of the work section 803 is obtained. The end frame F e is a work end frame 806 that indicates a frame in which work on the device in FIG. 8 is finished. In this process, as in the case of calculating the start frame F s , images are analyzed in order from the starting frame F 0, it is determined whether or not a person is shown, and the first frame in which no person is shown is determined as a work section 803. Is the end frame F e of.

以上により、作業区間803の開始および終了のフレームを特定することができる。   As described above, the start and end frames of the work section 803 can be specified.

続いて、図9のステップS1011の処理について説明する。   Next, the process of step S1011 in FIG. 9 will be described.

これは、前述したように図9のステップS1023の処理において、図8(b)のケース、すなわち起点フレームF0が作業区間803以外の位置にあると判定された際の処理である。 As described above, this is processing in step S1023 of FIG. 9 when it is determined that the case of FIG. 8B, that is, the starting frame F 0 is at a position other than the work section 803.

まず、注目フレームFiを1フレームずつ前に動かしながら人物が検知される最初のフレームを探し、検出されたフレームを作業区間候補1の終了フレームFeとする。そして、注目フレームFiを1フレームずつ後ろに動かしながら人物が検知される最初のフレームを探し、これを作業区間候補2の開始フレームFsとする。 First, locate the first frame a person is detected while moving the focus frame F i before one frame, the detected frame and end frame F e of the working section candidate 1. Then, the first frame in which the person is detected is searched while moving the attention frame F i backward by one frame at a time, and this is set as the start frame F s of the work section candidate 2.

その後、起点フレームである画像805から、図8(b)に示す作業区間候補1と作業区間候補2までの距離、言い換えれば画像フレーム数を算出し、フレーム数が少ない区間を作業区間803とする。この場合、画像フレーム数ではなく、起点フレームである画像805から、図8(b)に示す作業区間候補1と作業区間候補2までの時間であってもよい。   Thereafter, the distance from the image 805 which is the starting frame to the work section candidate 1 and the work section candidate 2 shown in FIG. 8B, in other words, the number of image frames is calculated, and a section having a small number of frames is set as the work section 803. . In this case, not the number of image frames but the time from the image 805 which is the starting frame to the work section candidate 1 and the work section candidate 2 shown in FIG.

真の作業区間803が逆方向にあった場合は、上述で求めた作業区間候補1の終了フレームFeを起点とし、注目フレームを1フレームずつ前に移動させながら人物検知処理を行う。人が検出できなくなったフレームを作業区間803の開始フレームFsとする。 If true work section 803 was in the opposite direction, as a starting point the end frame F e of the working section candidates 1 obtained in the above, performs person detection processing while moving before the target frame by one frame. A frame in which a person can no longer be detected is set as a start frame F s of the work section 803.

一方、作業区間803が順方向にあると判定した場合、作業区間候補2の開始フレームFsを起点とし、注目フレームを1フレームずつ後ろに移動させながら人物検知処理を行う。人が検出できなくなったフレームを作業区間803の終了フレームFeとする。以上で、作業区間の開始と終了のフレームを特定することができる。 On the other hand, when it is determined that the work section 803 is in the forward direction, the person detection process is performed while starting the start frame F s of the work section candidate 2 and moving the target frame backward by one frame. A frame in which a person cannot be detected is defined as an end frame F e of the work section 803. As described above, the start and end frames of the work section can be specified.

ここで、図3のフローチャートの説明に戻る。   Now, the description returns to the flowchart of FIG.

ステップS303の処理である作業映像区間特定処理を終了すると、表示内容生成部110が表示内容を生成して(ステップS304)、表示装置111に出力する。これはステップS301の処理にて取得した作業情報112に、ステップS303の処理にて検索した作業時の映像の関連付けを行う処理である。   When the work video section identification process, which is the process of step S303, is finished, the display content generation unit 110 generates the display content (step S304) and outputs it to the display device 111. This is a process of associating the work information 112 acquired in the process of step S301 with the video during the work searched in the process of step S303.

〈表示装置の表示例〉
図10は、図3のステップS304の処理により表示装置に表示される表示内容の一例を示す説明図である。
<Display example of display device>
FIG. 10 is an explanatory diagram showing an example of display contents displayed on the display device by the process of step S304 of FIG.

ステップS304の処理により生成されるデータは、図10に示すように、項番201、機器ID202、機器名203、点検日時901、および映像902からなる。項番201、機器ID202、および機器名203については、図4(a)に示す作業情報112に記載されたデータを用いている。   As shown in FIG. 10, the data generated by the processing in step S304 includes an item number 201, a device ID 202, a device name 203, an inspection date 901, and an image 902. For the item number 201, the device ID 202, and the device name 203, the data described in the work information 112 shown in FIG.

点検日時901についても作業情報112に記載されている情報をそのまま利用することもできるが、図8(b)に示したように、作業情報112に記載された時刻と、監視映像中で人物が検知された時刻に差異が生じた場合は、監視映像から求めた時刻を併記してもよい。   Although the information described in the work information 112 can be used as it is for the inspection date 901, as shown in FIG. 8B, the time described in the work information 112 and the person in the monitoring video are displayed. When a difference occurs in the detected time, the time obtained from the monitoring video may be written together.

これにより、監視者が、作業情報112の内容と監視映像とに差異があることに気づくことができ、その作業を優先的に閲覧することができる。それによって、差異の原因を調査するなどのその後の対策を迅速にとることが可能となる。   As a result, the supervisor can notice that there is a difference between the contents of the work information 112 and the monitoring video, and the work can be preferentially viewed. As a result, it is possible to quickly take subsequent measures such as investigating the cause of the difference.

以上により、大量の監視映像の中から監督業務に必要なシーンを短時間で正確に抽出することができる。それにより、監督者などによる監督業務の効率を向上させることができる。   As described above, it is possible to accurately extract scenes necessary for the supervision work from a large number of monitoring videos in a short time. As a result, the efficiency of supervisory work by supervisors and the like can be improved.

(実施の形態2)
〈概要〉
本実施の形態2では、作業情報112の内容と監視映像の作業内容との差異を評価して、その評価結果を監督者画面に出力する映像検索システムについて説明する。
(Embodiment 2)
<Overview>
In the second embodiment, a video search system that evaluates the difference between the content of the work information 112 and the work content of the monitoring video and outputs the evaluation result to the supervisor screen will be described.

〈映像検索システムの構成例〉
図11は、本実施の形態2による映像検索システムにおける構成の一例を示す説明図である。
<Example of video search system configuration>
FIG. 11 is an explanatory diagram showing an example of the configuration of the video search system according to the second embodiment.

図11の映像検索システムが、前記実施の形態1の図1の映像検索システムと異なるところは、作業内容評価部1101が新たに設けられた点である。その他の構成については、前記実施の形態1の図1と同様であるので、説明は省略する。   The video search system of FIG. 11 is different from the video search system of FIG. 1 of the first embodiment in that a work content evaluation unit 1101 is newly provided. Other configurations are the same as those of the first embodiment shown in FIG.

また、図12は、図11の映像検索システムが有する作業情報入力部105が取得する作業リスト114における構成の一例を示す説明図である。   FIG. 12 is an explanatory diagram showing an example of a configuration in the work list 114 acquired by the work information input unit 105 included in the video search system of FIG.

〈作業リストの例〉
図12に示す作業リスト114は、図4(b)の作業リスト114の内容に、作業を行う作業員の人数を示す作業員数1201が加えられた構成からなる。
<Example of work list>
The work list 114 shown in FIG. 12 has a configuration in which the number of workers 1201 indicating the number of workers performing the work is added to the contents of the work list 114 shown in FIG.

作業映像区間特定部108は、前記実施の形態1にて説明した作業の開始時刻と終了時刻を特定する作業映像区間特定処理に加えて、映像蓄積部103内のフレーム画像702に対して人物検出処理を実行する機能を有する。この人物検出処理では、画像中に映っている人物の数を求めることが可能である。   The work video section specifying unit 108 detects a person in the frame image 702 in the video storage unit 103 in addition to the work video section specifying process for specifying the start time and end time of the work described in the first embodiment. It has a function to execute processing. In this person detection process, it is possible to obtain the number of persons shown in the image.

また、作業映像区間を特定する過程においては、前記実施の形態1にて述べたように映像から各作業の開始および終了のフレームを求めているため、作業の開始時刻、終了時刻、および作業に要した時間を算出することも可能である。   In the process of specifying the work video section, since the start and end frames of each work are obtained from the video as described in the first embodiment, the work start time, the end time, and the work It is also possible to calculate the time required.

〈作業内容評価部の処理例〉
作業内容評価部1101は、作業映像区間特定部108による映像解析の結果得られた作業員数と作業開始時刻、作業終了時刻、および作業に要する時間の情報と、図12の作業リスト114に記載の情報とを比較する。
<Example of processing by the work content evaluation unit>
The work content evaluation unit 1101 describes the number of workers, the work start time, the work end time, and the time required for the work obtained as a result of the video analysis by the work video section specifying unit 108, and the work list 114 shown in FIG. Compare with information.

比較した結果として、設定時間以上の遅れ、例えば作業開始が1時間以上遅れた、あるいは本来2名で実施予定の作業に対して、監視映像中には1名の作業員しか映っていないなど、差異が大きい場合は、その結果をアラートとして表示内容生成部110に出力して表示装置111に表示させる。   As a result of the comparison, a delay of more than a set time, for example, the start of work was delayed by more than 1 hour, or the work that was originally planned to be performed by two people, only one worker was shown in the monitoring video, etc. When the difference is large, the result is output as an alert to the display content generation unit 110 and displayed on the display device 111.

〈表示装置の表示例〉
図13は、図11の作業内容評価部1101による差異が大きい際に表示装置111に表示される表示内容の一例を示す説明図である。
<Display example of display device>
FIG. 13 is an explanatory diagram illustrating an example of display content displayed on the display device 111 when the difference by the work content evaluation unit 1101 in FIG. 11 is large.

図13の表示例では、前記実施の形態1の図10における表示例に加えて、新たに作業員数を示す項目である作業員数903が付け加えられている。この作業員数903の項目には、映像解析の結果得られた作業員数と図12の作業リスト114の作業員数とを比較した結果、異なる人数である場合に、映像解析の結果得られた作業員数および作業員数が異なる旨のメッセージなどが記載される。   In the display example of FIG. 13, in addition to the display example in FIG. 10 of the first embodiment, the number of workers 903 which is an item indicating the number of workers is newly added. The number of workers 903 includes the number of workers obtained as a result of video analysis when the number of workers obtained as a result of video analysis and the number of workers in the work list 114 in FIG. 12 are compared. And a message indicating that the number of workers is different.

例えば、図12の作業リスト114に示された作業員数が2人であり、映像解析の結果得られた作業員数が1人である場合には、図13の作業員数903の項目には、「1人(相違あり)」などと表示される。   For example, when the number of workers shown in the work list 114 in FIG. 12 is two and the number of workers obtained as a result of video analysis is one, the number of workers 903 in FIG. "One person (with differences)" is displayed.

また、表示内容生成部110は、差異が生じた部分が特に目立つように、差異がある部分のみ色を変える、文字を大きくするなどの処理を施して表示内容を生成するようにしてもよい。   In addition, the display content generation unit 110 may generate display content by performing processing such as changing the color or enlarging only the part where there is a difference so that the part where the difference occurs is particularly noticeable.

このように、図4(a)の作業情報112に記載された作業内容と、監視映像を解析して得られた作業内容の差異を評価して、結果を監視者に提示することによって、監視者が優先的に確認すべき事象を分かりやすくすることができる。その結果、監督者の監視業務の効率を向上させることができる。   In this way, the difference between the work content described in the work information 112 of FIG. 4A and the work content obtained by analyzing the monitoring video is evaluated, and the result is presented to the supervisor, thereby monitoring It is possible to make it easier to understand events that should be confirmed by a person. As a result, the supervisory monitoring efficiency can be improved.

なお、前記実施の形態1においては、図3のステップS302の検索起点決定処理において、図9のステップS1022の処理にて起点フレームF0を決定する際に、作業日時604に対応するフレーム画像をそのまま利用する例を示した。 In the first embodiment, in the search start point determination process in step S302 in FIG. 3, when the start frame F 0 is determined in the process in step S1022 in FIG. An example of using it as it is is shown.

しかし、同一日に同一作業員が作業をする際は、先に実施した作業が遅れた場合、次の作業も遅れる可能性がある。よって、作業内容評価部1101にて差異を評価した結果、いずれかの作業の終了時刻の差異が大きいと判定した場合は、図8の検索起点データ610内の作業データのうち、遅延した可能性の高い作業の作業日時604のデータを更新して、再度、ステップS302の検索起点決定処理を実行する。   However, when the same worker works on the same day, if the work performed earlier is delayed, the next work may also be delayed. Therefore, as a result of evaluating the difference in the work content evaluation unit 1101, if it is determined that the difference in the end time of any work is large, the possibility that the work data in the search starting data 610 in FIG. The data of the work date and time 604 of the high work is updated, and the search start point determination process in step S302 is executed again.

以上のように、映像監視を解析した結果を用いて図4(a)の作業情報112の内容を更新することによって、より正確なシーンの検索を可能にすることができる。   As described above, it is possible to search for a more accurate scene by updating the contents of the work information 112 in FIG. 4A using the result of analyzing the video monitoring.

(実施の形態3)
〈映像検索システムの構成例〉
図14は、本実施の形態3における映像検索システムによる構成の一例を示す説明図である。
(Embodiment 3)
<Example of video search system configuration>
FIG. 14 is an explanatory diagram showing an example of the configuration of the video search system according to the third embodiment.

本実施の形態3では、前記実施の形態1における図1の構成に、人物検知部1031が新たに設けられた構成からなる。人物検知部1031以外については、図1と同様であるので、説明は省略する。   The third embodiment has a configuration in which a person detection unit 1031 is newly provided in the configuration of FIG. 1 in the first embodiment. Other than the person detection unit 1031 is the same as in FIG.

〈人物検知部の処理例〉
図14において、映像入力部102が取得したフレーム画像は、人物検知部1031に出力される。人物検知部1031は、入力された全ての画像に対して、前記実施の形態1の図9におけるステップS1022の処理、すなわち人物検知処理を行い、フレーム画像702と人物検知の結果とを紐付けて映像蓄積部103に出力する。このフレーム画像702と人物検知の結果とが紐付けられたデータは、人物検知データとなる。
<Processing example of person detection unit>
In FIG. 14, the frame image acquired by the video input unit 102 is output to the person detection unit 1031. The person detection unit 1031 performs the process of step S1022 in FIG. 9 of the first embodiment, that is, the person detection process for all input images, and associates the frame image 702 with the person detection result. The image is output to the video storage unit 103. Data in which the frame image 702 is associated with the person detection result is person detection data.

〈映像データの構成例〉
図15は、図14の映像検索システムが有する映像蓄積部103に蓄積されている映像データの構成における一例を示す説明図である。
<Example configuration of video data>
FIG. 15 is an explanatory diagram showing an example of the configuration of video data stored in the video storage unit 103 included in the video search system of FIG.

映像蓄積部103に蓄積されている映像データの構成は、前記実施の形態1の図7に示す内容に加えて、人物検知部1031による人物検知の結果を示す人物検知結果1401が新たに付け加えられている。   The configuration of the video data stored in the video storage unit 103 is newly added with a person detection result 1401 indicating the result of person detection by the person detection unit 1031 in addition to the contents shown in FIG. 7 of the first embodiment. ing.

この人物検知の結果1401は、例えば各フレーム(画像)にて検知できた人物の人数を格納してもよいし、あるいは図示するように人物が存在するか否かを1,0などにて表記するようにしてもよい。   The person detection result 1401 may store, for example, the number of persons detected in each frame (image), or indicate whether or not a person exists as shown in FIG. You may make it do.

本実施の形態3においても、作業映像区間特定部108は、図9にて示す同様のフローに従って人物が映る区間を特定する。このとき、図9のステップS1022やS1010,S1011における人物検知の処理については、映像蓄積部103に蓄積されている人物検知結果1401を参照するのみでよい。   Also in the third embodiment, the work video section specifying unit 108 specifies a section in which a person is shown according to the same flow shown in FIG. At this time, for the person detection process in steps S1022, S1010, and S1011 of FIG. 9, it is only necessary to refer to the person detection result 1401 stored in the video storage unit 103.

映像を蓄積するフローにて事前に人物検知を実施することにより、図3に示す作業映像区間特定処理、すなわち図3のステップS303の処理での画像解析を省略することができる。   By performing person detection in advance in the flow for storing video, the work video section specifying process shown in FIG. 3, that is, the image analysis in the process of step S303 in FIG. 3, can be omitted.

それにより、より高速な映像検索を実現することができ、監督者の監視業務の効率を一層向上させることができる。   As a result, a higher-speed video search can be realized, and the efficiency of supervisory monitoring work can be further improved.

以上、本発明者によってなされた発明を実施の形態に基づき具体的に説明したが、本発明は前記実施の形態に限定されるものではなく、その要旨を逸脱しない範囲で種々変更可能であることはいうまでもない。   As mentioned above, the invention made by the present inventor has been specifically described based on the embodiment. However, the present invention is not limited to the embodiment, and various modifications can be made without departing from the scope of the invention. Needless to say.

なお、本発明は上記した実施の形態に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施の形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。   In addition, this invention is not limited to above-described embodiment, Various modifications are included. For example, the above-described embodiment has been described in detail for easy understanding of the present invention, and is not necessarily limited to one having all the configurations described.

また、ある実施の形態の構成の一部を他の実施の形態の構成に置き換えることが可能であり、また、ある実施の形態の構成に他の実施の形態の構成を加えることも可能である。また、各実施の形態の構成の一部について、他の構成の追加、削除、置換をすることが可能である。   Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. . In addition, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

100 映像検索装置
101 映像撮影装置
102 映像入力部
103 映像蓄積部
104 作業情報入力装置
105 作業情報入力部
106 検索起点決定部
107 機器撮影データ格納部
108 作業映像区間特定部
109 作業時間帯情報蓄積部
110 表示内容生成部
1101 作業内容評価部
111 表示装置
112 作業情報
114 作業リスト
115 機器撮影データ
251 プロセッサ
252 メインメモリ
253 映像入力インタフェース
255 文書入力インタフェース
255 文書入力インタフェース
256 出力インタフェース
257 記憶装置
DESCRIPTION OF SYMBOLS 100 Image | video search device 101 Image | video imaging device 102 Image | video input part 103 Image | video accumulation | storage part 104 Work information input device 105 Work information input part 106 Search origin determination part 107 Device imaging | photography data storage part 108 Work image | video area specification part 109 Work time zone information storage part 110 Display Content Generation Unit 1101 Work Content Evaluation Unit 111 Display Device 112 Work Information 114 Work List 115 Device Shooting Data 251 Processor 252 Main Memory 253 Video Input Interface 255 Document Input Interface 255 Document Input Interface 256 Output Interface 257 Storage Device

Claims (11)

映像を解析して抽出対象となる映像対象シーンを抽出する映像検索システムであって、
外部入力される検索情報に基づいて、作業対象の機器を撮影する映像撮影装置が撮影した映像から抽出対象となる映像の検索起点となる起点映像フレームを設定し、設定した前記起点映像フレームを起点として前記映像撮影装置が撮影した映像を検索して前記映像対象シーンを特定する映像検索特定部を有する、映像検索システム。
A video search system that analyzes video and extracts video target scenes to be extracted,
Based on the search information input from the outside, a starting video frame is set as a search starting point for the video to be extracted from the video shot by the video shooting device that captures the work target device, and the set starting video frame is set as the starting point. As a video search system, the video search system includes a video search specifying unit that searches for video shot by the video shooting device and specifies the video target scene.
請求項1記載の映像検索システムにおいて、
前記映像検索特定部は、
前記検索情報に基づいて、作業対象の前記機器を撮影した映像撮影装置および前記機器の作業日時からなる検索起点データを生成する検索起点決定部と、
前記検索起点決定部が生成した検索起点データに基づいて、作業対象の機器を撮影する前記映像撮影装置が撮影した映像から抽出対象となる映像の検索起点となる起点映像フレームを設定し、設定した前記起点映像フレームを起点として前記映像撮影装置が撮影した映像を解析して検索し、前記映像対象シーンを特定する映像区間特定部と、
を有する、映像検索システム。
The video search system according to claim 1,
The video search specifying unit
Based on the search information, a video shooting device that images the device to be worked and a search start point determination unit that generates search start point data including the work date and time of the device;
Based on the search start point data generated by the search start point determination unit, the start point video frame that is the search start point of the video to be extracted is set and set from the video shot by the video shooting device that captures the work target device. Analyzing and searching the video captured by the video imaging device starting from the origin video frame, and identifying the video target scene,
A video search system.
請求項2記載の映像検索システムにおいて、
前記検索起点決定部が生成する検索起点データは、前記機器に実施した作業日時を有し、
前記映像区間特定部は、前記作業日時に合致する日時のフレーム画像を前記起点映像フレームとして設定する、映像検索システム。
The video search system according to claim 2, wherein
The search starting point data generated by the search starting point determining unit has a work date and time performed on the device,
The video section specifying unit sets a frame image having a date and time that matches the work date and time as the starting video frame.
請求項3記載の映像検索システムにおいて、
前記検索起点決定部は、前記検索情報が有する写真データに付属する撮影日時を前記検索起点データの作業日時として生成し、
前記写真データは、前記機器に対する作業が終了した際に撮影された写真データである、映像検索システム。
The video search system according to claim 3, wherein
The search starting point determination unit generates a shooting date and time attached to the photo data included in the search information as a work date and time of the search starting point data,
The video search system, wherein the photo data is photo data taken when work on the device is completed.
請求項2〜4のいずれか1項に記載の映像検索システムにおいて、
前記映像区間特定部は、前記起点映像フレームに人物が映っているか否かを判定し、前記起点映像フレームに人物が映っている場合、前記起点映像フレームを起点として抽出対象となる前記映像対象シーンを特定する区間特定処理を行い、
前記区間特定処理は、前記起点映像フレームよりも前のフレーム画像において人物が写っていない最初のフレーム画像を検索して作業開始フレームとして設定し、前記起点映像フレームよりも後ろのフレーム画像において人物が写っていない最初のフレーム画像を検索して作業終了フレームとして設定し、設定した前記作業開始フレームから前記作業終了フレームまでのフレーム画像を抽出対象となる前記映像対象シーンとする、映像検索システム。
The video search system according to any one of claims 2 to 4,
The video section specifying unit determines whether or not a person is shown in the starting video frame, and when the person is shown in the starting video frame, the video target scene to be extracted from the starting video frame as a starting point Perform the section identification process to identify
The section specifying process searches for a first frame image in which a person is not shown in a frame image before the start video frame and sets it as a work start frame, and a person in a frame image after the start video frame A video search system that searches for a first frame image that is not shown and sets it as a work end frame, and uses the set frame images from the work start frame to the work end frame as the video target scene to be extracted.
請求項5記載の映像検索システムにおいて、
前記映像区間特定部は、前記起点映像フレームに人物が映っていないと判定した際に、前記起点映像フレームよりも前のフレーム画像において人物が写っている第1の画像フレームおよび前記起点映像フレームよりも後ろのフレーム画像において人物が写っている第2のフレーム画像をそれぞれ検索し、前記起点映像フレームにより近い位置にある前記第1の画像フレームまたは前記第2の画像フレームのいずれかを前記起点映像フレームとして設定して前記区間特定処理を実行し、抽出対象となる前記映像対象シーンを特定する、映像検索システム。
The video search system according to claim 5, wherein
When the video section specifying unit determines that a person is not shown in the start video frame, the first video frame in which the person is shown in the frame image before the start video frame and the start video frame 2nd frame images in which a person is reflected in each of the subsequent frame images are searched, and either the first image frame or the second image frame that is closer to the origin video frame is the origin video. A video search system that sets as a frame, executes the section specifying process, and specifies the video target scene to be extracted.
請求項5または6記載の映像検索システムにおいて、
前記映像撮影装置が撮影したフレーム画像の人物検知を行う人物検知部と、
前記フレーム画像と前記人物検知部が実行した人物検知結果とが紐付けられた人物検知データを格納する映像蓄積部と、
を有し、
前記映像区間特定部は、前記映像蓄積部に格納されている前記人物検知データを参照して、前記映像対象シーンに人物が映っているか否かを判定する、映像検索システム。
The video search system according to claim 5 or 6,
A person detection unit for detecting a person in a frame image captured by the video imaging device;
A video storage unit for storing person detection data in which the frame image and a person detection result executed by the person detection unit are linked;
Have
The video search system, wherein the video section specifying unit refers to the person detection data stored in the video storage unit to determine whether or not a person is shown in the video target scene.
請求項5〜7のいずれか1項に記載の映像検索システムにおいて、
前記機器に対する作業内容を評価する作業内容評価部を有し、
前記作業内容評価部は、前記映像区間特定部が特定した前記作業開始フレームの日時と前記検索情報が有する前記機器に実施した作業日時とを比較し、設定値以上の時間差がある場合にアラートを出力する、映像検索システム。
The video search system according to any one of claims 5 to 7,
A work content evaluation unit for evaluating the work content for the device;
The work content evaluation unit compares the date and time of the work start frame identified by the video section identification unit with the work date and time performed on the device included in the search information, and alerts when there is a time difference greater than a set value. Video search system to output.
請求項5〜7のいずれか1項に記載の映像検索システムにおいて、
前記機器に対する作業内容を評価する作業内容評価部を有し、
前記映像区間特定部は、前記映像対象シーンに映っている人物数を検出し、
前記作業内容評価部は、前記検索情報から前記機器に対して作業する作業員数を取得し、取得した前記作業員数と映像区間特定部が検出した前記映像対象シーンに映っている人物数とを比較し、人数が一致しない場合にアラートを出力する、映像検索システム。
The video search system according to any one of claims 5 to 7,
A work content evaluation unit for evaluating the work content for the device;
The video section specifying unit detects the number of persons shown in the video target scene,
The work content evaluation unit obtains the number of workers working on the device from the search information, and compares the obtained number of workers with the number of persons shown in the video target scene detected by the video section specifying unit. A video search system that outputs an alert when the number of people does not match.
請求項9記載の映像検索システムにおいて、
前記映像撮影装置が撮影したフレーム画像の人物検知を行い、前記フレーム画像に映っている人物数を検出する人物検知部と、
前記フレーム画像と前記人物検知部が実行した人物数とが紐付けられた人物検知データを格納する映像蓄積部と、
を有し、
前記映像区間特定部は、前記映像蓄積部に格納されている前記人物検知データを参照して、前記映像対象シーンに映っている人物数を判定する、映像検索システム。
The video search system according to claim 9, wherein
A person detection unit that detects a person in the frame image captured by the video imaging apparatus and detects the number of persons in the frame image;
A video storage unit for storing person detection data in which the frame image and the number of persons executed by the person detection unit are associated;
Have
The video search system, wherein the video section specifying unit refers to the person detection data stored in the video storage unit and determines the number of persons appearing in the video target scene.
請求項1〜10のいずれか1項に記載の映像検索システムにおいて、
前記検索情報は、前記機器に対する作業結果を報告する作業報告データである、映像検索システム。
The video search system according to any one of claims 1 to 10,
The video search system, wherein the search information is work report data for reporting a work result for the device.
JP2015251686A 2015-12-24 2015-12-24 Video search system Active JP6618349B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015251686A JP6618349B2 (en) 2015-12-24 2015-12-24 Video search system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015251686A JP6618349B2 (en) 2015-12-24 2015-12-24 Video search system

Publications (2)

Publication Number Publication Date
JP2017118319A true JP2017118319A (en) 2017-06-29
JP6618349B2 JP6618349B2 (en) 2019-12-11

Family

ID=59232089

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015251686A Active JP6618349B2 (en) 2015-12-24 2015-12-24 Video search system

Country Status (1)

Country Link
JP (1) JP6618349B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020027384A (en) * 2018-08-10 2020-02-20 株式会社ユニゾンシステムズ Store management system, management server, and store management method
WO2020095424A1 (en) * 2018-11-09 2020-05-14 三菱電機株式会社 Elevator video output device and elevator apparatus
JP2020129763A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Video reproduction device, video reproduction method, and program
JP2021501424A (en) * 2017-11-28 2021-01-14 株式会社日立製作所 Worker evaluation system, worker evaluation device, and worker evaluation method

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050122397A1 (en) * 2003-12-03 2005-06-09 Safehouse International Limited Recording a sequence of images
JP2006157463A (en) * 2004-11-29 2006-06-15 National Institute Of Advanced Industrial & Technology Work state recorder, and its recording method, and recording program
JP2010220042A (en) * 2009-03-18 2010-09-30 Fujitsu Ltd Video confirmation apparatus, method thereof and program
JP2012222462A (en) * 2011-04-05 2012-11-12 Dainippon Printing Co Ltd Monitoring system
JP2013092955A (en) * 2011-10-27 2013-05-16 Hitachi Ltd Video analysis device and system
JP2013222335A (en) * 2012-04-17 2013-10-28 Hitachi Ltd Object identification system, object identification server and object identification terminal
JP2015139016A (en) * 2014-01-20 2015-07-30 富士通株式会社 Extraction program, method, device, and baseball video meta information generating device, method and program

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20050122397A1 (en) * 2003-12-03 2005-06-09 Safehouse International Limited Recording a sequence of images
JP2006157463A (en) * 2004-11-29 2006-06-15 National Institute Of Advanced Industrial & Technology Work state recorder, and its recording method, and recording program
JP2010220042A (en) * 2009-03-18 2010-09-30 Fujitsu Ltd Video confirmation apparatus, method thereof and program
JP2012222462A (en) * 2011-04-05 2012-11-12 Dainippon Printing Co Ltd Monitoring system
JP2013092955A (en) * 2011-10-27 2013-05-16 Hitachi Ltd Video analysis device and system
JP2013222335A (en) * 2012-04-17 2013-10-28 Hitachi Ltd Object identification system, object identification server and object identification terminal
JP2015139016A (en) * 2014-01-20 2015-07-30 富士通株式会社 Extraction program, method, device, and baseball video meta information generating device, method and program

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021501424A (en) * 2017-11-28 2021-01-14 株式会社日立製作所 Worker evaluation system, worker evaluation device, and worker evaluation method
JP2020027384A (en) * 2018-08-10 2020-02-20 株式会社ユニゾンシステムズ Store management system, management server, and store management method
WO2020095424A1 (en) * 2018-11-09 2020-05-14 三菱電機株式会社 Elevator video output device and elevator apparatus
JP2020129763A (en) * 2019-02-08 2020-08-27 キヤノン株式会社 Video reproduction device, video reproduction method, and program
JP7218198B2 (en) 2019-02-08 2023-02-06 キヤノン株式会社 Video playback device, video playback method and program

Also Published As

Publication number Publication date
JP6618349B2 (en) 2019-12-11

Similar Documents

Publication Publication Date Title
US11527071B2 (en) Person search system and person search method
EP1873732A2 (en) Image processing apparatus, image processing system and filter setting method
JP6618349B2 (en) Video search system
JP6593742B2 (en) In-facility person search support apparatus, in-facility person search support system, and in-facility person search support method
JP2015019249A (en) Tracking support device, tracking support system, and tracking support method
JP2015019250A (en) Tracking support device, tracking support system, and tracking support method
JP2014153813A5 (en) Image processing apparatus, image processing method, and program
JP6841608B2 (en) Behavior detection system
JP2011029737A (en) Surveillance image retrieval apparatus and surveillance system
US10999556B2 (en) System and method of video capture and search optimization
JP2016018463A (en) State change management system and state change management method
US10970551B2 (en) Control apparatus and control method for determining relation of persons included in an image, and storage medium storing a program therefor
JP2013167494A (en) Structure inspection support method, structure inspection support program, and structure inspection support apparatus
JP2008011056A (en) Stored moving picture selection apparatus, method, and system, program thereof, and computer-readable recording medium with program recorded therein
KR20210104979A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP6396682B2 (en) Surveillance camera system
JP2016019249A (en) Display control device
JP2008299834A (en) Photographic subject tracking program and photographic subject tracking device
JP6410427B2 (en) Information processing apparatus, information processing method, and program
JP2006332789A (en) Video photographing method, apparatus, and program, and storage medium for storing the program
KR20180075506A (en) Information processing apparatus, information processing method, and program
JP5499752B2 (en) Camera state monitoring apparatus, camera state monitoring program, and camera state monitoring method
JP2020119368A (en) Video information management system and video information management method
WO2016098187A1 (en) Image search device and image search method
EP3016080A1 (en) Calibration of metadata event rules

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190808

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190820

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191021

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191105

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191112

R150 Certificate of patent or registration of utility model

Ref document number: 6618349

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250