JP2014179740A - Video retrieval device, video retrieval system, and video retrieval method - Google Patents

Video retrieval device, video retrieval system, and video retrieval method Download PDF

Info

Publication number
JP2014179740A
JP2014179740A JP2013051621A JP2013051621A JP2014179740A JP 2014179740 A JP2014179740 A JP 2014179740A JP 2013051621 A JP2013051621 A JP 2013051621A JP 2013051621 A JP2013051621 A JP 2013051621A JP 2014179740 A JP2014179740 A JP 2014179740A
Authority
JP
Japan
Prior art keywords
video
camera
feature information
input
searched
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013051621A
Other languages
Japanese (ja)
Inventor
Takahiro Hiramatsu
隆宏 平松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP2013051621A priority Critical patent/JP2014179740A/en
Publication of JP2014179740A publication Critical patent/JP2014179740A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To solve such a problem that it is difficult to select a desired camera or video by a method of camera selection based on the number or name, in a remote monitoring system of a chain store or a convenience store consisting of a plurality of shops including several hundreds of cameras, or a remote monitoring system of the road or river.SOLUTION: Since a monitoring camera, that has captured a video approximate to a searched video, is specified by comparing the feature information of the searched video with that of a monitoring camera, a monitoring camera for capturing a desired video can be specified among a large number of monitoring cameras monitoring a chain store consisting of a plurality of shops or the road or river.

Description

本発明は、複数のカメラで撮影される映像から、所望の映像を検索する映像検索装置、映像検索システム、および映像検索方法に関するものである。   The present invention relates to a video search apparatus, a video search system, and a video search method for searching for a desired video from videos taken by a plurality of cameras.

従来、複数のカメラが設置されている環境において、ユーザに特定の映像やカメラを選択させる場合、例えば、特開平8−297793に示されているように、セレクトスイッチを設けるか、あるいはコンピュータディスプレイ上に擬似的なボタンを表示するなどの選択方法を用いていた。   Conventionally, in an environment where a plurality of cameras are installed, when a user selects a specific video or camera, for example, as shown in JP-A-8-297793, a select switch is provided, or on a computer display A selection method such as displaying a pseudo button on the screen was used.

特開平8−297793JP-A-8-297793

カメラ台数が数台程度の環境では、セレクトスイッチによる選択方法で、ユーザが所望の映像やカメラを選択することは容易であった。また、カメラ台数が十数台程度の環境であっても、コンピュータのディスプレイ上の擬似的なボタンに、ユーザが任意に命名したカメラの名称を併せて表示することにより、カメラを選択することは容易であった。
しかし、カメラ台数が数百台になるような、例えば複数の店舗からなるチェーンストア、またはコンビニエンスストアなどの遠隔監視システムや、道路・河川の遠隔監視システムなどでは、番号や名称によるカメラ選択の方法で、所望のカメラや映像を選択することが困難である、という問題があった。
In an environment where the number of cameras is about several, it is easy for a user to select a desired video or camera by a selection method using a select switch. In addition, even in an environment where there are about a dozen cameras, it is not possible to select a camera by displaying the name of the camera arbitrarily named by the user on the pseudo button on the computer display. It was easy.
However, in remote monitoring systems such as chain stores or convenience stores that have hundreds of cameras, for example, remote monitoring systems for roads and rivers, etc., the camera selection method by number or name Therefore, there is a problem that it is difficult to select a desired camera and video.

この発明に係る映像検索装置は、映像が入力される映像入力手段、該映像入力手段で入力された検索する映像が、解析されて得られた特徴情報と、監視する領域を撮影する、監視カメラの映像の特徴情報とを比較して、比較結果を出力する特徴比較手段、該特徴比較手段から入力された比較結果に基づいて、前記検索する映像に近似する映像を撮影した、前記監視カメラを特定するカメラ特定手段、を備えたものである。   The video search device according to the present invention includes a video input means for inputting video, a feature information obtained by analyzing the video to be searched input by the video input means, and a surveillance camera for photographing a region to be monitored. A feature comparison unit that compares the feature information of the video and outputs a comparison result, and the surveillance camera that captures a video that approximates the video to be searched based on the comparison result input from the feature comparison unit. Camera specifying means for specifying.

この発明は、検索する映像の特徴情報と、監視カメラの映像の特徴情報を比較して、検索する映像に近似する映像を撮影した、監視カメラを特定するので、例えば、複数の店舗からなるチェーンストアや道路・河川を監視している多数の監視カメラの中から、所望する映像を撮影する監視カメラを特定することができる。   In the present invention, the feature information of the video to be searched is compared with the feature information of the video of the surveillance camera, and the surveillance camera that captured the video approximate to the video to be retrieved is specified. A surveillance camera that captures a desired video can be identified from among a large number of surveillance cameras that monitor stores, roads, and rivers.

この発明の実施の形態1における、映像検索装置1の構成図である。It is a block diagram of the video search device 1 in Embodiment 1 of this invention. この発明の実施の形態1における、映像検索装置1の利用例を示す鳥瞰図である。It is a bird's-eye view which shows the usage example of the video search device 1 in Embodiment 1 of this invention. この発明の実施の形態1における、映像検索装置1の動作を示すフローチャートである。It is a flowchart which shows operation | movement of the video search device 1 in Embodiment 1 of this invention. この発明の実施の形態2における、映像検索装置1の構成図である。It is a block diagram of the video search device 1 in Embodiment 2 of this invention. この発明の実施の形態2における、映像検索装置1の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the video search device 1 in Embodiment 2 of this invention. この発明の実施の形態3における、映像検索装置1の利用例を示す鳥瞰図である。It is a bird's-eye view which shows the usage example of the video search device 1 in Embodiment 3 of this invention. この発明の実施の形態4における、映像検索装置1の構成図である。It is a block diagram of the video search device 1 in Embodiment 4 of this invention. この発明の実施の形態4における、映像検索装置1の動作を示すフローチャートである。It is a flowchart which shows the operation | movement of the video search device 1 in Embodiment 4 of this invention.

実施の形態1.
図1は、この発明の実施の形態1における、映像検索装置1の構成図である。
映像検索装置1は、携帯端末2に内蔵されている。そして、携帯端末2は、スマートフォン、タブレット端末であり、LAN(Local Area Network)、またはインターネットなどのネットワーク3を介して、映像監視レコーダ4に接続されている。映像監視レコーダ4には、監視する領域に設置された監視カメラ5が接続され、監視カメラ5で撮影された映像が記録されている。そして、携帯端末2の映像検索装置1は、ネットワーク3を介して、映像監視レコーダ4に記録された監視カメラ5の映像を受信する。
Embodiment 1 FIG.
FIG. 1 is a configuration diagram of a video search apparatus 1 according to Embodiment 1 of the present invention.
The video search device 1 is built in the mobile terminal 2. The mobile terminal 2 is a smartphone or a tablet terminal, and is connected to the video surveillance recorder 4 via a network 3 such as a LAN (Local Area Network) or the Internet. The video surveillance recorder 4 is connected to a surveillance camera 5 installed in a monitored area, and video taken by the surveillance camera 5 is recorded. Then, the video search device 1 of the mobile terminal 2 receives the video of the monitoring camera 5 recorded in the video monitoring recorder 4 via the network 3.

映像監視レコーダ4、および監視カメラ5は、図1には1つのみを示しているが、それぞれ複数あってもよい。映像監視レコーダ4と監視カメラ5は、専用回線、またはネットワークで接続されている。映像監視レコーダ4は、記録手段に相当する。   Only one video surveillance recorder 4 and surveillance camera 5 are shown in FIG. 1, but a plurality of video surveillance recorders 4 and surveillance cameras 5 may be provided. The video surveillance recorder 4 and the surveillance camera 5 are connected by a dedicated line or a network. The video surveillance recorder 4 corresponds to a recording unit.

次に、各構成について詳細に説明する。
まず、携帯端末2の各構成について説明する。
携帯端末2は、映像検索装置1、通信手段6、カメラ7、タッチパネルディスプレイ8、位置情報取得手段9から構成されている。
Next, each configuration will be described in detail.
First, each configuration of the mobile terminal 2 will be described.
The portable terminal 2 includes a video search device 1, a communication unit 6, a camera 7, a touch panel display 8, and a position information acquisition unit 9.

映像検索装置1は、カメラ7で撮影された映像が、カメラ7から入力される。また、監視カメラ5で撮影され、映像監視レコーダ4に記録された映像が、映像監視レコーダ4から入力される。そして、カメラ7で撮影された映像と、監視カメラ5で撮影された映像を比較し、カメラ7で撮影した映像に最も近い映像を撮影した、監視カメラ5を特定する。そして、特定した監視カメラ5が撮影した映像を、映像監視レコーダ4から取得して、携帯端末2のタッチパネルディスプレイ8に出力して、表示する。映像検索装置1の詳細な構成、各構成の説明は後述する。   The video retrieval apparatus 1 receives video captured by the camera 7 from the camera 7. In addition, the video captured by the surveillance camera 5 and recorded in the video surveillance recorder 4 is input from the video surveillance recorder 4. Then, the video captured by the camera 7 and the video captured by the surveillance camera 5 are compared, and the surveillance camera 5 that captured the video closest to the video captured by the camera 7 is specified. Then, the video captured by the identified surveillance camera 5 is acquired from the video surveillance recorder 4 and output to the touch panel display 8 of the mobile terminal 2 for display. A detailed configuration of the video search apparatus 1 and description of each configuration will be described later.

通信手段6は、ネットワーク3を介して、携帯端末2の外部と情報の送受信を行う。例えば、映像監視レコーダ4からの映像を受信して、映像検索装置1に出力する。また、映像検索装置1から入力された、携帯端末2の位置情報を、映像監視レコーダ4に送信する。
カメラ7は、映像を撮影し、撮影した映像を、映像検索装置1またはタッチパネルディスプレイ8に出力する。
The communication unit 6 transmits / receives information to / from the outside of the mobile terminal 2 via the network 3. For example, a video from the video surveillance recorder 4 is received and output to the video search device 1. Further, the position information of the portable terminal 2 input from the video search device 1 is transmitted to the video surveillance recorder 4.
The camera 7 captures a video and outputs the captured video to the video search device 1 or the touch panel display 8.

タッチパネルディスプレイ8は、カメラ7で撮影された映像、または映像検索装置1から入力された映像を表示する。また、ユーザ操作の選択肢を表示し、ユーザの選択した入力を受け付ける。
位置情報取得手段9は、GPS(Global Positioning System)から、携帯端末2の位置情報を取得し、取得した携帯端末2の位置情報を、映像検索装置1に出力する。
The touch panel display 8 displays a video taken by the camera 7 or a video input from the video search device 1. It also displays user operation options and accepts input selected by the user.
The position information acquisition unit 9 acquires position information of the mobile terminal 2 from GPS (Global Positioning System), and outputs the acquired position information of the mobile terminal 2 to the video search device 1.

次に、映像監視レコーダ4と監視カメラ5について説明する。
映像監視レコーダ4は、監視カメラ5で撮影された映像が入力され、その映像を記録する。そして、記録している映像を、ネットワーク3を介して、携帯端末2に送信する。映像監視レコーダ4は、記録している映像に対応して、例えば、接続されている監視カメラ5のカメラ番号、IP(Internet Protocol)アドレス、位置情報を記録している。
監視カメラ5は、監視する領域を撮影し、撮影した映像を映像監視レコーダ4に出力する。監視カメラ5と映像監視レコーダ4は、ネットワーク(図示せず)を介して接続されている。
Next, the video surveillance recorder 4 and the surveillance camera 5 will be described.
The video surveillance recorder 4 receives video captured by the surveillance camera 5 and records the video. Then, the recorded video is transmitted to the mobile terminal 2 via the network 3. The video surveillance recorder 4 records, for example, the camera number, IP (Internet Protocol) address, and position information of the connected surveillance camera 5 corresponding to the recorded video.
The monitoring camera 5 captures the area to be monitored and outputs the captured video to the video surveillance recorder 4. The surveillance camera 5 and the video surveillance recorder 4 are connected via a network (not shown).

次に、映像検索装置1の各構成について説明する。
映像検索装置1は、映像入力手段10、データ取得手段11、特徴情報生成手段12、特徴比較手段13、カメラ特定手段14から構成されている。
映像入力手段10は、携帯端末2のカメラ7から、カメラ7で撮影された映像(検索する映像)が入力される。また、データ取得手段11に、カメラ7で撮影された映像が入力された情報を出力し、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5で撮影された映像が、データ取得手段11から入力される。そして、入力されたカメラ7で撮影された映像と、カメラ5で撮影された映像を、特徴情報生成手段12に出力する。
尚、ここでは、携帯端末2の位置情報に近い、位置情報の監視カメラ5が、複数台あるとする。
Next, each configuration of the video search device 1 will be described.
The video search device 1 includes a video input unit 10, a data acquisition unit 11, a feature information generation unit 12, a feature comparison unit 13, and a camera identification unit 14.
The video input means 10 receives a video (video to be searched) captured by the camera 7 from the camera 7 of the mobile terminal 2. Further, the information obtained by inputting the video photographed by the camera 7 is output to the data acquisition means 11, and the video photographed by the monitoring camera 5 having position information close to the position information of the mobile terminal 2 is obtained by the data acquisition means. 11 is input. Then, the input image captured by the camera 7 and the image captured by the camera 5 are output to the feature information generating unit 12.
Here, it is assumed that there are a plurality of position information monitoring cameras 5 close to the position information of the mobile terminal 2.

データ取得手段11は、映像入力手段10から、カメラ7で撮影された映像が入力された情報が入力されると、携帯端末2の位置情報を、携帯端末2の位置情報取得手段9から取得する。そして、携帯端末2の通信手段6を介して、取得した携帯端末2の位置情報を映像監視レコーダ4に送信する。そして、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5のカメラ番号と、そのカメラ番号の監視カメラ5が撮影した映像を、映像監視レコーダ4から受信する。そして、受信した監視カメラ5の映像を、映像入力手段10に出力する。   The data acquisition unit 11 acquires the position information of the portable terminal 2 from the position information acquisition unit 9 of the portable terminal 2 when the information on the image captured by the camera 7 is input from the image input unit 10. . Then, the acquired location information of the mobile terminal 2 is transmitted to the video surveillance recorder 4 via the communication means 6 of the mobile terminal 2. Then, the camera number of the monitoring camera 5 having the position information close to the position information of the mobile terminal 2 and the video taken by the monitoring camera 5 of the camera number are received from the video monitoring recorder 4. Then, the received video of the monitoring camera 5 is output to the video input means 10.

尚、ここでは、データ取得手段11が、携帯端末2の位置情報に近い、位置情報をもつ監視カメラの、カメラ番号と映像を、映像監視レコーダ4から受信するとして説明するが、データ取得手段11が、携帯端末2の位置情報に近い位置情報の監視カメラ5を選択して、その選択した監視カメラ5の映像を映像監視レコーダ4から受信してもよい。その場合は、データ取得手段11が、監視カメラ5のカメラ番号、IPアドレス、位置情報のリストを映像監視レコーダ4から、事前に受信して記憶する。   Here, the data acquisition unit 11 will be described as receiving from the video monitoring recorder 4 the camera number and video of the surveillance camera having the location information that is close to the location information of the mobile terminal 2. However, the monitoring camera 5 having the position information close to the position information of the mobile terminal 2 may be selected, and the video of the selected monitoring camera 5 may be received from the video monitoring recorder 4. In that case, the data acquisition means 11 receives the camera number, IP address, and position information list of the monitoring camera 5 from the video monitoring recorder 4 in advance and stores them.

特徴情報生成手段12は、映像入力手段6から入力された映像を解析して、特徴情報を生成する。そして、生成した特徴情報を特徴比較手段13に出力する。   The feature information generation unit 12 analyzes the video input from the video input unit 6 and generates feature information. Then, the generated feature information is output to the feature comparison unit 13.

特徴比較手段13は、特徴情報生成手段12から入力された、カメラ7の映像の特徴情報と、携帯端末2の位置情報に近い位置情報をもつ、複数の監視カメラ5の映像の特徴情報を比較する。そして、比較結果をカメラ特定手段14に出力する。   The feature comparison unit 13 compares the feature information of the video of the camera 7 input from the feature information generation unit 12 and the feature information of the videos of the plurality of monitoring cameras 5 having the position information close to the position information of the mobile terminal 2. To do. Then, the comparison result is output to the camera specifying means 14.

カメラ特定手段14は、特徴比較手段13から入力された比較結果に基づいて、カメラ7の映像の特徴情報に、最も近い特徴情報の映像を撮影した、監視カメラ5を特定する。そして、特定した監視カメラ5のカメラ番号を、通信手段6を介して、映像監視レコーダ4に送信し、特定した監視カメラ5の映像を、映像監視レコーダ4から受信する。そして、受信した監視カメラ5の映像を、タッチパネルディスプレイ8に出力する。
以上が、映像検索装置1の各構成の説明である。
Based on the comparison result input from the feature comparison unit 13, the camera identification unit 14 identifies the surveillance camera 5 that has captured the video of the feature information closest to the feature information of the video of the camera 7. Then, the camera number of the specified surveillance camera 5 is transmitted to the video surveillance recorder 4 via the communication unit 6, and the video of the identified surveillance camera 5 is received from the video surveillance recorder 4. Then, the received video of the monitoring camera 5 is output to the touch panel display 8.
The above is the description of each configuration of the video search device 1.

次に、映像検索装置1の利用例について説明する。
図2は、この発明の実施の形態1における、利用例を示す鳥瞰図である。
図2において、コンビニエンスストアなどの店舗15の中に、多数の什器が設置されている。多数の什器として、例えば、商品棚16a,16b,16c,16d,16e,16f,16g,レジスタ(図示せず)などが配置されるカウンタ17が設置されている。また、店舗15の四隅には、監視カメラ5a,5b,5c,5dが設置されている。
Next, a usage example of the video search device 1 will be described.
FIG. 2 is a bird's-eye view showing an example of use in Embodiment 1 of the present invention.
In FIG. 2, many fixtures are installed in a store 15 such as a convenience store. As a large number of fixtures, for example, a counter 17 in which product shelves 16a, 16b, 16c, 16d, 16e, 16f, 16g, registers (not shown) and the like are arranged is installed. In addition, surveillance cameras 5a, 5b, 5c, and 5d are installed at the four corners of the store 15.

また、携帯端末2を持った利用者18が店内に入り、図中の左上方向を撮影している監視カメラ5dを特定し、その特定した監視カメラ5dが撮影している映像を、利用者18の携帯端末2に表示したいとする。そのため、利用者18は、図中の左上方向を、携帯端末2のカメラ7で撮影する。
ネットワーク3や映像監視レコーダ4については、図2に図示していないが、店舗15の中、もしくは外のいずれに設置されていてもよい。
In addition, a user 18 with the portable terminal 2 enters the store, specifies the surveillance camera 5d that is photographing the upper left direction in the figure, and displays the video photographed by the identified surveillance camera 5d. Display on the mobile terminal 2 of Therefore, the user 18 photographs the upper left direction in the figure with the camera 7 of the mobile terminal 2.
The network 3 and the video surveillance recorder 4 are not shown in FIG. 2, but may be installed in the store 15 or outside.

次に、実施の形態1における、映像検索装置1の動作について説明する。
図3は、この発明の実施の形態1における、映像検索装置1の動作を示すフローチャートである。
利用者18が携帯端末2を持ち、店舗15を訪れて、携帯端末2に内蔵されるカメラ7で、図2の左上方向(特定したい監視カメラ5が撮影する領域)を撮影する。
Next, the operation of the video search device 1 in the first embodiment will be described.
FIG. 3 is a flowchart showing the operation of the video search apparatus 1 according to Embodiment 1 of the present invention.
A user 18 holds the portable terminal 2, visits the store 15, and photographs the upper left direction in FIG. 2 (an area captured by the monitoring camera 5 to be identified) with the camera 7 built in the portable terminal 2.

すると、カメラ7で撮影された映像(検索する映像)が、映像検索装置1の映像入力手段10に入力される。この時、映像入力手段10は、カメラ7で撮影された映像に、検索する映像であるという情報を付加する。また、映像入力手段10は、カメラ7で撮影された映像が入力されたことを、データ取得手段11に出力する。
そして、映像入力手段10が、入力されたカメラ7の映像(検索する映像)を特徴情報生成手段12に出力する(ステップ(以下S)1)。
そして、特徴情報生成手段12は、入力されたカメラ7の映像に対して、人物等の動体を取り除き、背景情報のみとした映像を作成する。そして、背景情報のみとした映像を解析して、特徴情報を生成する。そして、生成したカメラ7の映像の特徴情報を、特徴比較手段13に出力する(S2)。
Then, the video (video to be searched) captured by the camera 7 is input to the video input means 10 of the video search device 1. At this time, the video input means 10 adds information indicating that the video to be searched is added to the video shot by the camera 7. In addition, the video input unit 10 outputs to the data acquisition unit 11 that the video shot by the camera 7 has been input.
Then, the video input means 10 outputs the input video of the camera 7 (video to be searched) to the feature information generation means 12 (step (hereinafter S) 1).
Then, the feature information generation unit 12 removes a moving object such as a person from the input video of the camera 7 and creates a video with only background information. Then, the video having only the background information is analyzed to generate feature information. Then, the generated feature information of the video of the camera 7 is output to the feature comparison unit 13 (S2).

一方、データ取得手段11は、カメラ7の映像が入力された情報を、映像入力手段10から受け取ると、携帯端末2の位置情報を、携帯端末2の位置情報取得手段9から取得する(S3)。   On the other hand, when the data acquisition means 11 receives the information input from the video of the camera 7 from the video input means 10, the data acquisition means 11 acquires the position information of the portable terminal 2 from the position information acquisition means 9 of the portable terminal 2 (S3). .

そして、データ取得手段11は、取得した携帯端末2の位置情報を、通信手段6を介して、映像監視レコーダ4に送信する。すると、映像監視レコーダ4では、携帯端末2の位置情報に近い位置情報をもつ監視カメラ5が、複数台選択される。
ここでは、例えば、図2の店舗内に設置された監視カメラ5a〜5dが、携帯端末2の位置情報に近い位置情報をもつ監視カメラ5として選択されたとする。
そして、データ取得手段11は、携帯端末2の位置情報に近い位置情報をもつ監視カメラ5の、複数の異なるカメラ番号(監視カメラ5a〜5dのカメラ番号)と、そのカメラ番号の監視カメラ5が撮影した映像を、映像監視レコーダ4から受信して、取得する(S4)。
Then, the data acquisition unit 11 transmits the acquired location information of the mobile terminal 2 to the video surveillance recorder 4 via the communication unit 6. Then, in the video surveillance recorder 4, a plurality of surveillance cameras 5 having position information close to the position information of the mobile terminal 2 are selected.
Here, for example, it is assumed that the monitoring cameras 5 a to 5 d installed in the store of FIG. 2 are selected as the monitoring cameras 5 having position information close to the position information of the mobile terminal 2.
The data acquisition unit 11 includes a plurality of different camera numbers (camera numbers of the monitoring cameras 5a to 5d) of the monitoring camera 5 having position information close to the position information of the mobile terminal 2, and the monitoring camera 5 having the camera number. The captured video is received from the video surveillance recorder 4 and acquired (S4).

尚、ここでは、映像監視レコーダ4が、携帯端末2の位置情報を受け取り、その位置情報に近い位置情報をもつ監視カメラ5を、複数台選択するとして説明するが、データ取得手段11が、携帯端末2の位置情報に近い監視カメラ5を複数台選択してもよい。その場合、データ取得手段11は、予め、監視カメラ5のカメラ番号、位置情報、IPアドレスのリストを、映像監視レコーダ4から受信して、記憶しておく。そして、データ取得手段11が、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5を複数台選択する。そして、データ取得手段11は、選択した複数台の監視カメラ5のカメラ番号を、映像監視レコーダ4に送信して、そのカメラ番号の監視カメラ5が撮影した映像を、映像監視レコーダ5から受信する。   Here, it is assumed that the video monitoring recorder 4 receives the position information of the portable terminal 2 and selects a plurality of monitoring cameras 5 having position information close to the position information. A plurality of monitoring cameras 5 close to the position information of the terminal 2 may be selected. In that case, the data acquisition unit 11 receives the camera number, position information, and IP address list of the monitoring camera 5 from the video monitoring recorder 4 and stores them in advance. Then, the data acquisition unit 11 selects a plurality of monitoring cameras 5 having position information close to the position information of the mobile terminal 2. Then, the data acquisition unit 11 transmits the camera numbers of the selected plurality of monitoring cameras 5 to the video monitoring recorder 4, and receives the video captured by the monitoring camera 5 with the camera number from the video monitoring recorder 5. .

そして、データ取得手段11は、映像監視レコーダ4から取得した、複数の監視カメラ5の映像を、映像入力手段10に出力し、映像入力手段10は、入力された複数の監視カメラ5の映像を特徴情報生成手段12に出力する(S5)。   Then, the data acquisition unit 11 outputs the videos of the plurality of monitoring cameras 5 acquired from the video monitoring recorder 4 to the video input unit 10, and the video input unit 10 outputs the input videos of the plurality of monitoring cameras 5. It outputs to the characteristic information generation means 12 (S5).

次に、特徴情報生成手段12は、映像入力手段10から入力された映像に対して、人物等の動体を取り除き、背景情報のみとした映像を作成する。そして、背景情報のみとした映像から、例えば、形状、色、ベクトルといった特徴情報を生成する。そして、生成した監視カメラ5の特徴情報を特徴比較手段13に出力する(S6)。   Next, the feature information generation unit 12 removes moving objects such as people from the video input from the video input unit 10 and creates a video including only background information. Then, for example, feature information such as a shape, a color, and a vector is generated from the video having only background information. Then, the generated feature information of the monitoring camera 5 is output to the feature comparison unit 13 (S6).

次に、特徴比較手段13は、カメラ7の映像の特徴情報と、携帯端末2の位置情報に近い、複数の監視カメラ5の映像の特徴情報を比較し、比較結果をカメラ特定手段14に出力する(S7)。
この時、特徴比較手段13は、複数の監視カメラ5のカメラ番号も、比較結果と共に、カメラ特定手段14に出力している。
Next, the feature comparison unit 13 compares the feature information of the image of the camera 7 with the feature information of the images of the monitoring cameras 5 that are close to the position information of the mobile terminal 2, and outputs the comparison result to the camera specifying unit 14. (S7).
At this time, the feature comparison unit 13 outputs the camera numbers of the plurality of monitoring cameras 5 to the camera identification unit 14 together with the comparison results.

すると、カメラ特定手段14は、特徴比較手段13から入力された比較結果に基づいて、カメラ7の映像に、最も近似している監視カメラ5の映像を特定し、その映像を撮影している監視カメラ5を特定する(S8)。
そして、カメラ特定手段14は、特定した1台の監視カメラ5のカメラ番号を、通信手段6を介して、映像監視レコーダ4に送信し、特定した1台の監視カメラ5が撮影した映像を、映像監視レコーダ4から受信する(S9)。
Then, based on the comparison result input from the feature comparison unit 13, the camera identification unit 14 identifies the video of the monitoring camera 5 that is closest to the video of the camera 7 and monitors the video that is being captured. The camera 5 is specified (S8).
Then, the camera specifying unit 14 transmits the camera number of the specified one monitoring camera 5 to the video monitoring recorder 4 via the communication unit 6, and the video captured by the specified one monitoring camera 5 is Received from the video surveillance recorder 4 (S9).

そして、カメラ特定手段14は、映像監視レコーダ4から受信した、特定した監視カメラ5の映像を、携帯端末2のタッチパネルディスプレイ8に出力する(S10)。
そして、タッチパネルディスプレイ8は、カメラ特定手段14から入力された、特定された1台の監視カメラ5の映像を表示する(S11)。
And the camera specific | specification means 14 outputs the image | video of the specified surveillance camera 5 received from the video surveillance recorder 4 to the touch panel display 8 of the portable terminal 2 (S10).
And the touch panel display 8 displays the image | video of the specified one surveillance camera 5 input from the camera specific | specification means 14 (S11).

この時、ユーザ18が、タッチパネルディスプレイ8から、再生したい映像の日時を入力して指定すると、その再生対象の日時の情報が、タッチパネルディスプレイ8からカメラ特定手段14に出力される。そして、カメラ特定手段14は、入力された再生対象の日時の情報を、映像監視レコーダ4に送信して、特定された監視カメラ5の、指定された日時の映像を、映像監視レコーダ4から受信する。そして、指定された日時の監視カメラ5の映像が、タッチパネルディスプレイ8に表示される。   At this time, when the user 18 inputs and specifies the date / time of the video to be reproduced from the touch panel display 8, information on the reproduction target date / time is output from the touch panel display 8 to the camera specifying means 14. Then, the camera specifying unit 14 transmits the input date and time information to be reproduced to the video surveillance recorder 4 and receives the video of the specified surveillance camera 5 at the designated date and time from the video surveillance recorder 4. To do. Then, the video of the monitoring camera 5 at the designated date and time is displayed on the touch panel display 8.

尚、カメラ特定手段14は、例えば、河川や道路の数百台の監視カメラ5から、監視カメラ5を特定する場合、カメラ7の映像の特徴情報に最も近い特徴情報をもつ監視カメラ5の映像だけでなく、2番目に近い特徴情報を持つ、映像を撮影する監視カメラ5や、3番目に近い特徴情報を持つ、映像を撮影する監視カメラ5や、…、n番目に近い特徴情報を持つ、映像を撮影する監視カメラ5を候補として選択してもよい。そして、それら候補の監視カメラ5の映像と、候補の監視カメラ5のカメラ番号と位置情報を、タッチパネルディスプレイ8に出力して、タッチパネルパネルディスプレイが、候補の監視カメラ5のカメラ番号と位置情報を表示して、利用者18に選択させるように構成してもよい。   For example, when the surveillance camera 5 is identified from hundreds of surveillance cameras 5 on rivers or roads, the camera identification means 14 has an image of the surveillance camera 5 having the feature information closest to the feature information of the image of the camera 7. As well as the surveillance camera 5 that shoots video having the second closest feature information, the surveillance camera 5 that shoots video that has the third closest feature information, and the nth feature information. The surveillance camera 5 that shoots video may be selected as a candidate. Then, the images of the candidate monitoring cameras 5 and the camera numbers and position information of the candidate monitoring cameras 5 are output to the touch panel display 8, and the touch panel display displays the camera numbers and position information of the candidate monitoring cameras 5. It may be configured to display and allow the user 18 to make a selection.

また、本実施の形態では、映像検索装置1が携帯端末2に内蔵されているとして説明したが、映像検索装置1は、パソコンなどの据え置き型端末に内蔵されてもよい。その場合、携帯端末2とパソコン、パソコンと映像監視レコーダ4がネットワーク3で接続される。   In the present embodiment, the video search device 1 is described as being built in the mobile terminal 2, but the video search device 1 may be built in a stationary terminal such as a personal computer. In that case, the portable terminal 2 and the personal computer, and the personal computer and the video surveillance recorder 4 are connected via the network 3.

以下、映像検索装置1が、パソコンなどの据え置き型端末に内蔵される場合の、動作の概略を説明する。
携帯端末2のカメラ7で撮影された映像と、携帯端末2の位置情報が、ネットワーク3を介して、パソコンの映像検索装置1に入力される。そして、パソコンの映像検索装置1から、携帯端末2の位置情報が、映像監視レコーダ4に送信される。そして映像監視レコーダ4で、携帯端末2の位置情報に近い位置情報の監視カメラ5が選択され、その選択された複数の監視カメラ5の、カメラ番号と映像が、映像監視レコーダ4からパソコンの映像検索装置1に入力される。
Hereinafter, an outline of the operation when the video search device 1 is built in a stationary terminal such as a personal computer will be described.
Video captured by the camera 7 of the mobile terminal 2 and position information of the mobile terminal 2 are input to the video search device 1 of the personal computer via the network 3. Then, the location information of the mobile terminal 2 is transmitted from the video search device 1 of the personal computer to the video surveillance recorder 4. Then, the video surveillance recorder 4 selects a surveillance camera 5 with location information close to the location information of the portable terminal 2, and the camera numbers and videos of the selected surveillance cameras 5 are sent from the video surveillance recorder 4 to the video of the personal computer. Input to the search device 1.

そして、パソコンの映像検索装置1で、カメラ7の映像に最も近似する、監視カメラ5の映像が特定され、その映像を撮影した監視カメラ5のカメラ番号が、映像監視レコーダ4に送信される。そして、パソコンの映像検索装置1が、特定した監視カメラ5の映像を、映像監視レコーダ4から受信して、受信した監視カメラ5の映像を携帯端末2に送信する。そして、携帯端末2のタッチパネルディスプレイ8に、特定した監視カメラ5が撮影した映像が表示される。
以上が、映像検索装置1が、パソコンなどの据え置き型端末に内蔵される場合の、動作の概要である。
Then, the video search device 1 of the personal computer identifies the video of the monitoring camera 5 that most closely approximates the video of the camera 7, and the camera number of the monitoring camera 5 that captured the video is transmitted to the video monitoring recorder 4. Then, the video search device 1 of the personal computer receives the specified video of the monitoring camera 5 from the video monitoring recorder 4 and transmits the received video of the monitoring camera 5 to the mobile terminal 2. Then, the video captured by the identified surveillance camera 5 is displayed on the touch panel display 8 of the mobile terminal 2.
The above is the outline of the operation when the video search device 1 is built in a stationary terminal such as a personal computer.

また、ここでは、特定したい監視カメラ5が撮影している領域を、携帯端末2のカメラ7で撮影した映像が、映像入力手段6に入力される、として説明したが、監視する領域を映した写真のデータが、検索する映像として、映像入力手段10に入力されても良い。その場合、検索する映像データの位置情報が、携帯端末2の位置情報の代わりに、映像検索装置1に入力される。   In addition, here, the area captured by the monitoring camera 5 to be specified has been described as the video captured by the camera 7 of the mobile terminal 2 being input to the video input unit 6, but the area to be monitored is displayed. Photo data may be input to the video input means 10 as a video to be searched. In that case, the location information of the video data to be searched is input to the video search device 1 instead of the location information of the mobile terminal 2.

また、検索する映像は、カメラ7で撮影した映像ではなく、スキャナーなど画像読み取り装置から入力した画像でも良いし、別の手段で入手した静止画像ファイルであってもよい。この場合、映像検索装置1は、パソコンなどの据え置き型端末に内蔵されていて、パソコンの映像検索装置1で特定した監視カメラ5の映像を、携帯端末2に送信する。   Further, the video to be searched may be an image input from an image reading device such as a scanner, or a still image file obtained by another means, instead of a video shot by the camera 7. In this case, the video search device 1 is built in a stationary terminal such as a personal computer, and transmits the video of the monitoring camera 5 specified by the video search device 1 of the personal computer to the mobile terminal 2.

また、本実施の形態では、カメラ7の映像、および監視カメラ5の映像から人物などの動体を取り除き、背景情報のみとした映像で特徴情報の生成を行ったが、反対に、背景を取り除き、人物などの動体のみとした映像から特徴情報の生成を行っても良い。   Further, in the present embodiment, moving objects such as persons are removed from the video of the camera 7 and the video of the monitoring camera 5 and the feature information is generated using only the background information. On the contrary, the background is removed, The feature information may be generated from a video including only a moving object such as a person.

また、カメラ特定手段14に、映像を合成する機能をもっていてもよい。例えば、図2の利用者18が、カウンタ7の中央に向かっている人を撮影する、監視カメラ5の映像を必要とする場合に、カウンタ17の中央から商品棚16bの方向に向いて、カメラ7で撮影し、そのカメラ7の映像に近似する映像を撮影する、監視カメラ5を特定する。特定した監視カメラ5が、例えば、監視カメラ5bと監視カメラ5dであったとする。その時、カメラ特定手段14は、監視カメラ5bと監視カメラ5dの映像を、映像監視レコーダ4から受信し、受信した監視カメラ5bと監視カメラ5dの映像を合成して、タッチパネルディスプレイ8に出力して、表示する。そうすることで、監視カメラ5bと監視カメラ5dそれぞれの画面では表示できない、カウンタ側から見た仮想の映像をタッチパネルディスプレイ8に表示することができる。   Further, the camera specifying means 14 may have a function of synthesizing video. For example, when the user 18 of FIG. 2 needs a video of the surveillance camera 5 to photograph a person heading toward the center of the counter 7, the camera is directed from the center of the counter 17 toward the product shelf 16 b. The surveillance camera 5 that captures an image similar to the image of the camera 7 is identified. Assume that the identified surveillance cameras 5 are, for example, the surveillance camera 5b and the surveillance camera 5d. At that time, the camera specifying unit 14 receives the video of the monitoring camera 5b and the monitoring camera 5d from the video monitoring recorder 4, synthesizes the received video of the monitoring camera 5b and the monitoring camera 5d, and outputs the synthesized video to the touch panel display 8. ,indicate. By doing so, virtual images viewed from the counter side that cannot be displayed on the screens of the monitoring cameras 5b and 5d can be displayed on the touch panel display 8.

以上のように、カメラ7の映像の特徴情報と、監視カメラ5の映像の特徴情報を比較して、比較結果に基づいて、多数の監視カメラ5から、所望する監視カメラを特定するので、例えば、多数の店舗の監視カメラや、河川または道路に配置された多数の監視カメラ5について、位置情報だけでは特定できない監視カメラ5を、映像で特定して、特定した監視カメラ5の映像をタッチパネルディスプレイ8に表示することができる。   As described above, the feature information of the video of the camera 7 and the feature information of the video of the surveillance camera 5 are compared, and a desired surveillance camera is identified from a large number of surveillance cameras 5 based on the comparison result. The monitoring camera 5 that cannot be specified by position information alone is identified by video, and the video of the specified surveillance camera 5 is displayed on the touch panel display. 8 can be displayed.

また、カメラ7の映像と、監視カメラ5の映像の、背景情報の映像から生成した特徴情報で、カメラ7の映像に近似する映像を撮影する、監視カメラ5を特定するので、店舗や河川、道路など、監視する領域の特徴のある情報、例えば、店舗の什器の直線のベクトル、店舗に特有の形状、色を利用して、より正確に監視カメラ5を特定することができる。   In addition, since the surveillance camera 5 that captures the video similar to the video of the camera 7 is identified by the feature information generated from the video of the background information of the video of the camera 7 and the video of the monitoring camera 5, the store, river, The monitoring camera 5 can be identified more accurately by using information having characteristics of a monitored area such as a road, for example, a straight vector of a store fixture, a shape and color unique to the store.

また、データ取得手段11によって、携帯端末2の位置情報(カメラ7の映像の位置情報)に近い位置情報をもつ、監視カメラ5の映像を選択して、選択した監視カメラ5の映像を映像監視レコーダ4から取得して、特徴情報を比較するので、例えば、数百台の監視カメラ5から特定する処理時間を短縮することができる。   Further, the data acquisition means 11 selects a video of the monitoring camera 5 having position information close to the position information of the mobile terminal 2 (position information of the video of the camera 7), and monitors the video of the selected monitoring camera 5. Since the feature information is acquired from the recorder 4 and compared, for example, the processing time specified from several hundred monitoring cameras 5 can be shortened.

実施の形態2.
以上の実施の形態1では、カメラ7で撮影された映像と、映像監視レコーダ4から受信した映像を、映像検索装置1で解析して特徴情報を生成する例について説明した。次に、実施の形態2では、映像監視レコーダ4から、監視カメラ5の映像の特徴情報が、映像検索装置1に入力される例について説明する。
Embodiment 2. FIG.
In the above-described first embodiment, the example in which the video captured by the camera 7 and the video received from the video surveillance recorder 4 are analyzed by the video search device 1 to generate feature information has been described. Next, in the second embodiment, an example in which the video feature information of the monitoring camera 5 is input to the video search device 1 from the video monitoring recorder 4 will be described.

図4は、この発明の実施の形態2における、映像検索装置1の構成図である。
図4の映像検索装置1、携帯端末2、映像監視レコーダ4、および監視カメラ5の接続関係は、実施の形態1と同様であるが、映像検索装置1のデータ取得手段11bと特徴比較手段13bの機能は異なる。また、映像監視レコーダ4の構成を詳細に説明する。
FIG. 4 is a configuration diagram of the video search device 1 according to the second embodiment of the present invention.
The connection relationship among the video search device 1, the mobile terminal 2, the video surveillance recorder 4, and the surveillance camera 5 in FIG. 4 is the same as that of the first embodiment, but the data acquisition unit 11b and the feature comparison unit 13b of the video search device 1 are the same. The functions are different. The configuration of the video surveillance recorder 4 will be described in detail.

映像検索装置1の実施の形態1と異なる機能の構成について、以下説明する。
データ取得手段11bは、携帯端末2の位置情報を、映像監視レコーダ4に送信する。そして、携帯端末2の位置情報に近い位置情報をもつ、複数の監視カメラ5の映像の特徴情報を、映像監視レコーダ4から受信するところが、実施の形態1と異なる。
この時、映像監視レコーダ4では、監視カメラ5で撮影された映像から、人物などの動体を取り除き、背景の情報のみとした映像が作成されている。そして、背景の情報のみとした映像から生成された特徴情報が、映像監視レコーダ4から携帯端末2の映像検索装置1に送信される。
A configuration of functions different from the first embodiment of the video search device 1 will be described below.
The data acquisition unit 11 b transmits the position information of the mobile terminal 2 to the video surveillance recorder 4. Then, it differs from the first embodiment in that video feature information of a plurality of surveillance cameras 5 having location information close to that of the mobile terminal 2 is received from the video surveillance recorder 4.
At this time, the video surveillance recorder 4 removes moving objects such as a person from the video taken by the surveillance camera 5 and creates a video with only background information. Then, the feature information generated from the video with only the background information is transmitted from the video surveillance recorder 4 to the video search device 1 of the portable terminal 2.

特徴比較手段13bは、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5のカメラ番号と、監視カメラ5の映像の特徴情報が、データ取得手段11bから入力されるところが、実施の形態1と異なる。そのため、特徴比較手段13bは、特徴情報生成手段12から入力される、カメラ7の映像の特徴情報と、データ取得手段11bから入力される監視カメラ5の映像の特徴情報とを比較する。   The feature comparison unit 13b receives the camera number of the monitoring camera 5 and the feature information of the video of the monitoring camera 5 having position information close to the position information of the mobile terminal 2 from the data acquisition unit 11b. Different from 1. Therefore, the feature comparison unit 13b compares the video feature information of the camera 7 input from the feature information generation unit 12 with the video feature information of the monitoring camera 5 input from the data acquisition unit 11b.

次に、映像監視レコーダ4の構成について、詳細に説明する。
映像監視レコーダ4は、通信手段19、カメラ選択手段20、特徴情報生成手段21、記録手段22から構成されている。
映像監視レコーダ4の通信手段19は、映像監視レコーダ4の外部と情報の送受信を行う。例えば、携帯端末2の通信手段6と、データの送受信を行う。
Next, the configuration of the video surveillance recorder 4 will be described in detail.
The video surveillance recorder 4 includes a communication unit 19, a camera selection unit 20, a feature information generation unit 21, and a recording unit 22.
The communication means 19 of the video surveillance recorder 4 transmits / receives information to / from the outside of the video surveillance recorder 4. For example, data is exchanged with the communication means 6 of the portable terminal 2.

映像監視レコーダ4のカメラ選択手段20は、映像検索装置1のデータ取得手段11bから、携帯端末2の位置情報を受信する。すると、記録手段22に記録されている映像に対応づけて記憶されている、監視カメラ5のカメラ番号と位置情報のリストを用いて、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5を選択する。そして、選択した監視カメラ5の映像の特徴情報を、特徴情報生成手段21から取得する。そして、取得した監視カメラ5の映像の特徴情報を、映像検索装置1のデータ取得手段11bに送信する。
また、カメラ選択手段20は、映像検索装置1のカメラ特定手段14から、特定した監視カメラ5のカメラ番号を受信すると、そのカメラ番号の監視カメラ5が撮影した映像を、記録手段22から取得し、映像検索装置1のカメラ特定手段14に送信する。
The camera selection unit 20 of the video surveillance recorder 4 receives the position information of the portable terminal 2 from the data acquisition unit 11 b of the video search device 1. Then, a monitoring camera having position information close to the position information of the portable terminal 2 using the camera number and position information list of the monitoring camera 5 stored in association with the video recorded in the recording means 22. 5 is selected. Then, the feature information of the video of the selected monitoring camera 5 is acquired from the feature information generating unit 21. Then, the acquired characteristic information of the video of the monitoring camera 5 is transmitted to the data acquisition unit 11b of the video search device 1.
In addition, when the camera selection unit 20 receives the camera number of the identified surveillance camera 5 from the camera identification unit 14 of the video search device 1, the camera selection unit 20 acquires the video captured by the surveillance camera 5 with the camera number from the recording unit 22. And transmitted to the camera specifying means 14 of the video search apparatus 1.

映像監視レコーダ4の特徴情報生成手段21は、記録手段22に記録されている監視カメラ5の映像から、人物などの動体を取り除き、背景の情報のみとした映像の特徴情報を生成する。
映像監視レコーダ4の記録手段22は、監視カメラ5の映像を記録する。また、記録された映像に対応づけて、接続されている監視カメラ5のカメラ番号、IPアドレス、位置情報のリストを記録している。
The feature information generation means 21 of the video surveillance recorder 4 removes moving objects such as people from the video of the monitoring camera 5 recorded in the recording means 22 and generates video feature information using only background information.
The recording means 22 of the video surveillance recorder 4 records the video of the surveillance camera 5. In addition, a list of camera numbers, IP addresses, and position information of the connected monitoring cameras 5 is recorded in association with the recorded video.

次に、実施の形態2における映像検索装置1の動作について説明する。
図5は、この発明の実施の形態2における、映像検索装置1の動作を示すフローチャートである。
実施の形態1の図3のS3、映像入力手段10が、携帯端末2の位置情報を取得するまでの動作は同じであるため、説明を省略する。
Next, the operation of the video search device 1 in the second embodiment will be described.
FIG. 5 is a flowchart showing the operation of the video search apparatus 1 in Embodiment 2 of the present invention.
Since S3 of FIG. 3 of Embodiment 1 and the video input means 10 are the same operations until the position information of the mobile terminal 2 is acquired, the description is omitted.

S3の次に、データ取得手段11は、取得した携帯端末2の位置情報を、携帯端末2の通信手段6、映像監視レコーダ4の通信手段19を介して、映像監視レコーダ4のカメラ選択手段20に送信する。
すると、映像監視レコーダ4のカメラ選択手段20では、記録手段22に記録されている、監視カメラ5のカメラ番号と位置情報のリストを用いて、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5を複数台選択する。
Next to S3, the data acquisition unit 11 uses the communication unit 6 of the mobile terminal 2 and the communication unit 19 of the video surveillance recorder 4 to transmit the acquired location information of the mobile terminal 2 to the camera selection unit 20 of the video surveillance recorder 4. Send to.
Then, the camera selection means 20 of the video surveillance recorder 4 has position information close to the position information of the mobile terminal 2 using the camera number and position information list of the monitoring camera 5 recorded in the recording means 22. A plurality of surveillance cameras 5 are selected.

そして、映像監視レコーダ4の特徴情報生成手段21で、選択された複数台の監視カメラ5の映像から、人物などの動体を取り除き、背景の情報のみとした映像が作成される。そして、作成した映像から特徴情報が生成される。   Then, the feature information generating means 21 of the video surveillance recorder 4 removes a moving object such as a person from the selected video images of the plurality of surveillance cameras 5 and creates a video image with only background information. Then, feature information is generated from the created video.

そして、映像監視レコーダ4のカメラ選択手段20は、選択した複数の監視カメラ5の映像の特徴情報を、映像監視レコーダ4の特徴情報生成手段21から取得し、映像監視レコーダ4の通信手段19、携帯端末2の通信手段6を介して、映像検索装置1のデータ取得手段11bに送信する。   Then, the camera selection unit 20 of the video surveillance recorder 4 acquires the video feature information of the selected plurality of surveillance cameras 5 from the feature information generation unit 21 of the video surveillance recorder 4, and the communication unit 19 of the video surveillance recorder 4. The data is transmitted to the data acquisition unit 11b of the video search device 1 via the communication unit 6 of the portable terminal 2.

すると、映像検索装置1のデータ取得手段11bは、携帯端末2の位置情報に近い位置情報をもつ、複数の監視カメラ5のカメラ番号と、そのカメラ番号の監視カメラ5が撮影した映像の特徴情報を、映像監視レコーダ4から受信して取得する(S4)。   Then, the data acquisition unit 11b of the video search device 1 has the camera number of the plurality of monitoring cameras 5 having the position information close to the position information of the mobile terminal 2, and the feature information of the video captured by the monitoring camera 5 of the camera number. Is received and acquired from the video surveillance recorder 4 (S4).

そして、データ取得手段11bは、映像監視レコーダ4から取得した、複数の監視カメラ5の映像の特徴情報を、特徴比較手段13bに出力する(S5)。   Then, the data acquisition unit 11b outputs the video feature information of the plurality of monitoring cameras 5 acquired from the video monitoring recorder 4 to the feature comparison unit 13b (S5).

次に、特徴比較手段13bは、特徴情報生成手段12から入力された、カメラ7の映像の特徴情報と、データ取得手段11から入力された、監視カメラ5の映像の特徴情報を比較し、比較結果をカメラ特定手段14に出力する(S6)。
カメラ特定手段14の動作(S7)以降は、実施の形態1の図3の、S8以降と同様である。
Next, the feature comparison unit 13b compares the feature information of the video of the camera 7 input from the feature information generation unit 12 with the feature information of the video of the monitoring camera 5 input from the data acquisition unit 11, and compares the feature information. The result is output to the camera specifying means 14 (S6).
The operations after the camera specifying unit 14 (S7) are the same as those after S8 in FIG. 3 of the first embodiment.

カメラ特定手段14は、特徴比較手段13から入力された比較結果に基づいて、カメラ7の映像の特徴情報に、最も近似している監視カメラ5の映像の特徴情報を特定し、その特定情報の映像を撮影している監視カメラ5を特定する(S7)。   Based on the comparison result input from the feature comparison unit 13, the camera identification unit 14 identifies the feature information of the video of the surveillance camera 5 that is closest to the feature information of the video of the camera 7. The surveillance camera 5 that is capturing the video is specified (S7).

そして、カメラ特定手段14は、特定した1台の監視カメラ5のカメラ番号を、通信手段6を介して、映像監視レコーダ4に送信し、特定した1台の監視カメラ5の映像を、映像監視レコーダ4から受信する(S8)。   Then, the camera specifying unit 14 transmits the camera number of the specified one monitoring camera 5 to the video monitoring recorder 4 via the communication unit 6, and the video of the specified one monitoring camera 5 is monitored. Receive from the recorder 4 (S8).

この時、映像監視レコーダ4のカメラ選択手段20は、特定した1台の監視カメラ5のカメラ番号を、携帯端末2の通信手段6、映像監視レコーダ4の通信手段19を介して、映像検索投資1のデータ取得手段11bから受信する。
すると、映像監視レコーダ4のカメラ選択手段20は、受信した監視カメラ5のカメラ番号の映像を、記録手段22から取得する。そして、取得した監視カメラ5のカメラ番号の映像を、映像監視レコーダ4の通信手段19、携帯端末2の通信手段6を介して、映像検索装置1のデータ取得手段11bに送信する。
At this time, the camera selection means 20 of the video surveillance recorder 4 uses the communication number 6 of the identified one surveillance camera 5 via the communication means 6 of the mobile terminal 2 and the communication means 19 of the video surveillance recorder 4 to invest in video search. 1 from the data acquisition means 11b.
Then, the camera selection unit 20 of the video surveillance recorder 4 acquires the received video of the camera number of the surveillance camera 5 from the recording unit 22. Then, the acquired video of the camera number of the surveillance camera 5 is transmitted to the data acquisition means 11b of the video search device 1 via the communication means 19 of the video surveillance recorder 4 and the communication means 6 of the portable terminal 2.

すると、映像検索装置1のカメラ特定手段14は、映像監視レコーダ4から受信した、特定した監視カメラ5が撮影した映像を、携帯端末2のタッチパネルディスプレイ8に出力する(S9)。
そして、タッチパネルディスプレイ8は、特定された1台の監視カメラ5が撮影した映像を表示する(S10)。
Then, the camera specifying unit 14 of the video search device 1 outputs the video received from the video monitoring recorder 4 and taken by the specified monitoring camera 5 to the touch panel display 8 of the portable terminal 2 (S9).
And the touch panel display 8 displays the image | video which the one surveillance camera 5 specified image | photographed (S10).

以上のように、データ取得手段11bによって、監視カメラ5の映像の特徴情報を、映像監視レコーダ4から受信して、カメラ7の映像の特徴情報と比較し、監視カメラ5を特定するので、多数の店舗の監視カメラや河川、または道路に配置された多数の監視カメラ5から、監視カメラ5を特定する処理時間を短縮することができる。   As described above, the data acquisition means 11b receives the video feature information of the surveillance camera 5 from the video surveillance recorder 4, compares it with the video feature information of the camera 7, and identifies the surveillance camera 5. The processing time for specifying the monitoring camera 5 can be shortened from the monitoring cameras of the stores and the large number of monitoring cameras 5 arranged on the river or road.

実施の形態3.
次に、実施の形態2と同様の構成で、監視カメラ5の1台が、魚眼レンズを具備することにより、周囲360度の全方位の映像を撮影する例について説明する。
図6は、この発明の実施の形態3における、映像検索装置1の利用例を示す鳥瞰図である。
図6において、5a〜5d、15、16a〜16g、17は実施の形態1と同様であるため説明を省略する。
そして、利用者18がカウンタの方向を向いて、携帯端末2のカメラ7で撮影するとする。
また、監視カメラ5eは、魚眼レンズを具備することにより、360度の全方位の映像を撮影可能な監視カメラであり、店舗15の中央の天井に設置されているとする。
Embodiment 3 FIG.
Next, an example will be described in which one surveillance camera 5 has a fisheye lens with the same configuration as that of the second embodiment to shoot 360-degree omnidirectional video.
FIG. 6 is a bird's eye view showing an example of use of the video search device 1 in Embodiment 3 of the present invention.
In FIG. 6, 5a to 5d, 15, 16a to 16g, and 17 are the same as those in the first embodiment, and thus the description thereof is omitted.
Then, it is assumed that the user 18 faces the counter and shoots with the camera 7 of the mobile terminal 2.
Further, the surveillance camera 5e is a surveillance camera that can capture 360-degree omnidirectional images by providing a fisheye lens, and is installed on the center ceiling of the store 15.

実施の形態3における、映像検索装置1の構成は、実施の形態2と同様であるが、カメラ特定手段14の機能が異なる。
また、映像監視レコーダ4、または監視カメラ5eでは,監視カメラ5eが撮影した円形の映像に対して歪み補正の処理が行われ、方形の映像とされる。この時、方形の映像は、全方位の1の映像の場合もあり、異なる方位の複数の映像の場合もある。そして、その方形の映像に対して、人物等の動体を除去した上で特徴情報が生成されて、生成された特徴情報が、映像監視レコーダ4から映像検索装置1のデータ取得手段11bに送信される。
The configuration of the video search device 1 in the third embodiment is the same as that in the second embodiment, but the function of the camera specifying means 14 is different.
Further, in the video surveillance recorder 4 or the surveillance camera 5e, distortion correction processing is performed on the circular video photographed by the surveillance camera 5e to obtain a square video. At this time, the square image may be one image in all directions or a plurality of images in different directions. Then, after removing moving objects such as persons from the rectangular video, feature information is generated, and the generated feature information is transmitted from the video monitoring recorder 4 to the data acquisition unit 11b of the video search device 1. The

尚、ここでは、周囲360度の範囲が撮影された、円形の映像として説明しているが、中央部分の映像がない円周の映像の場合もある。
ここでは、例えば、携帯端末2の位置情報に近い位置情報の監視カメラ5として、監視カメラ5eが選択され、データ取得手段11bは、撮影された方位が異なり、歪み補正の処理が行われた、複数の方形の映像の特徴情報を、映像監視レコーダ4から取得するとする。
In this example, a circular image in which a range of 360 degrees is captured is described, but there may be a circumferential image without a central image.
Here, for example, the monitoring camera 5e is selected as the monitoring camera 5 of the position information close to the position information of the mobile terminal 2, and the data acquisition unit 11b has a different shooting direction, and distortion correction processing has been performed. It is assumed that characteristic information of a plurality of rectangular videos is acquired from the video surveillance recorder 4.

カメラ特定手段14は、特徴比較手段13bから入力された比較結果と、カメラ7で撮影された映像の特徴情報のうち、例えば、店舗の什器のベクトル情報を利用して、複数の方形の映像から、カメラ7で撮影した映像との方位のずれも含めて、カメラ7の映像に近似している1の方形の映像を特定する。1の方形の映像を、方位のずれも含めて特定することで、その方形の映像を撮影した監視カメラ5eを特定する。
その他の構成は、実施の形態2と同様であるため、説明を省略する。
The camera specifying unit 14 uses, for example, store fixture vector information among the comparison results input from the feature comparison unit 13b and the feature information of the video captured by the camera 7, from a plurality of rectangular images. In addition, a square image that is close to the image of the camera 7 is specified, including a deviation in orientation from the image taken by the camera 7. By identifying the square image of 1 including the orientation shift, the surveillance camera 5e that captured the square image is identified.
Since other configurations are the same as those of the second embodiment, description thereof is omitted.

次に、動作について、図3を用いて説明する。
図3のS3、映像入力手段10が、携帯端末2の位置情報を取得するまでの動作は同じであるため、説明を省略する。
Next, the operation will be described with reference to FIG.
Since S3 of FIG. 3 and the video input means 10 are the same operation | movement until it acquires the positional information on the portable terminal 2, description is abbreviate | omitted.

S3の次に、データ取得手段11bは、取得した携帯端末2の位置情報を、通信手段6を介して、映像監視レコーダ4に送信する。すると、映像監視レコーダ4で、携帯端末2の位置情報に近い位置情報をもつ、店舗15の監視カメラ5a〜5dと監視カメラ5eが選択されたとする。
そして、データ取得手段11bは、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5a〜5dと監視カメラ5eの映像の特徴情報を、映像監視レコーダ4から受信する(S4)。
この時、データ取得手段11bは、監視カメラ5eの映像については、歪み補正された、複数の方形の映像の特徴情報を、映像監視レコーダ4から受信する。
After S3, the data acquisition unit 11b transmits the acquired position information of the mobile terminal 2 to the video surveillance recorder 4 via the communication unit 6. Then, it is assumed that the monitoring cameras 5a to 5d and the monitoring camera 5e in the store 15 having position information close to the position information of the mobile terminal 2 are selected by the video monitoring recorder 4.
Then, the data acquisition unit 11b receives the video feature information of the monitoring cameras 5a to 5d and the monitoring camera 5e having position information close to the position information of the mobile terminal 2 from the video monitoring recorder 4 (S4).
At this time, the data acquisition unit 11b receives, from the video surveillance recorder 4, the feature information of the plurality of rectangular video images whose distortion has been corrected for the video of the surveillance camera 5e.

そして、データ取得手段11bは、受信した監視カメラ5a〜5dと監視カメラ5eの映像の特徴情報を特徴比較手段13bに出力する(S5)。   Then, the data acquisition unit 11b outputs the received video feature information of the monitoring cameras 5a to 5d and the monitoring camera 5e to the feature comparison unit 13b (S5).

次に、特徴比較手段13bは、特徴情報生成手段12から入力された、カメラ7の映像の特徴情報と、データ取得手段11bから入力された、監視カメラ5の映像の特徴情報を比較し、比較結果をカメラ特定手段14に出力する(S6)。   Next, the feature comparison unit 13b compares the feature information of the video of the camera 7 input from the feature information generation unit 12 and the feature information of the video of the monitoring camera 5 input from the data acquisition unit 11b, and compares them. The result is output to the camera specifying means 14 (S6).

次に、カメラ特定手段14は、特徴比較手段13bから入力された比較結果と、カメラ7の映像の特徴情報のうち、例えば、店舗の什器のベクトル情報を利用して、複数の方形の映像から、1の方形の映像を方位のずれも含めて特定する。そして、1の方形の映像を特定することで、360度を撮影する監視カメラ5eを特定する。(S7)。   Next, the camera specifying unit 14 uses, for example, store fixture vector information from the comparison result input from the feature comparison unit 13b and the feature information of the video of the camera 7, from a plurality of square videos. 1 square image including a misalignment is specified. And the surveillance camera 5e which image | photographs 360 degree | times is specified by specifying the image | video of 1 square. (S7).

そして、カメラ特定手段14は、特定した監視カメラ5eのカメラ番号と、特定した1の方形の映像の、方位のずれの情報を、通信手段6を介して、映像監視レコーダ4に送信する。そして、特定した360度を撮影する監視カメラ5eの、円形の映像から、方位のずれが修正された映像を、映像監視レコーダ4から受信する(S8)。   Then, the camera specifying unit 14 transmits the camera number of the specified monitoring camera 5e and information on the deviation of the orientation of the specified one rectangular image to the video monitoring recorder 4 via the communication unit 6. Then, from the video surveillance recorder 4, the video with the corrected azimuth deviation is received from the circular video of the surveillance camera 5 e that captures the specified 360 degrees (S 8).

尚、映像監視レコーダ4から受信する映像は、方向のずれの修正と共に、歪み補正の処理も行われている。また、ここでは、特定した1の方形の映像の、方位のずれの情報を、カメラ特定手段14から、映像監視レコーダ4に送信するとしているが、カメラ特定手段14が、特定した1の方形の映像の、方位のずれの情報から、元の円形の映像の方位を特定してもよい。そして、特定した方位の情報を、映像監視レコーダ4に送信し、特定した方位の方形の映像を、映像監視レコーダ4から受信してもよい。   Note that the video received from the video surveillance recorder 4 is subjected to distortion correction processing as well as correction of the direction deviation. Further, here, the information on the deviation of the direction of the specified one rectangular image is transmitted from the camera specifying means 14 to the video surveillance recorder 4. However, the camera specifying means 14 specifies the specified one rectangular image. The orientation of the original circular image may be specified from the information on the deviation of the orientation of the image. Then, the specified orientation information may be transmitted to the video surveillance recorder 4, and the square video of the identified orientation may be received from the video surveillance recorder 4.

そして、カメラ特定手段14は、映像監視レコーダ4から受信した、特定した360度を撮影する監視カメラ5の、方位のずれが修正された映像(特定した方位の映像)を、携帯端末2のタッチパネルディスプレイ8に出力する(S9)。
そして、タッチパネルディスプレイ8は、特定された360度を撮影する監視カメラ5の、特定した方位の映像を表示する(S10)。
Then, the camera specifying unit 14 receives the video (video of the specified orientation) corrected from the azimuth deviation of the monitoring camera 5 that captures the specified 360 degrees received from the video surveillance recorder 4 from the touch panel of the mobile terminal 2. The data is output to the display 8 (S9).
And the touch panel display 8 displays the image | video of the specified azimuth | direction of the surveillance camera 5 which image | photographs the specified 360 degree | times (S10).

尚、ここでは、実施の形態2の構成例で説明したが、実施の形態1の構成であってもよい。実施の形態1の構成の場合、360度の全方位の映像を撮影可能な監視カメラの映像は、映像検索装置1の特徴情報生成手段12で、歪み補正が行われ、歪み補正が行われた映像の特徴情報が生成される。そして、生成された特徴情報が、特徴比較手段13に出力される。   Here, the configuration example of the second embodiment has been described, but the configuration of the first embodiment may be used. In the case of the configuration of the first embodiment, the video of the surveillance camera capable of shooting 360-degree omnidirectional video is subjected to distortion correction by the feature information generation unit 12 of the video search device 1 and the distortion correction is performed. Video feature information is generated. Then, the generated feature information is output to the feature comparison unit 13.

以上のように、カメラ特定手段14は、歪み補正された映像に対して、カメラ7の映像の特徴情報の、例えばベクトル情報等を利用して、方位のずれも含めて方形の映像を特定するので、360度の全方位を撮影する監視カメラ5を特定することができる。そのため、多数の監視カメラから、360度の監視カメラも特定することができる。また、360度の監視カメラ5の円形の映像から、特定した方位の映像を取得して、表示することができる。   As described above, the camera specifying unit 14 specifies a square image including a azimuth shift by using, for example, vector information of the feature information of the image of the camera 7 with respect to the distortion-corrected image. Therefore, it is possible to identify the surveillance camera 5 that captures 360 degrees of all directions. Therefore, a 360 degree surveillance camera can also be identified from a large number of surveillance cameras. Further, it is possible to acquire and display an image of a specified direction from a circular image of the surveillance camera 5 at 360 degrees.

実施の形態4.
実施の形態1〜実施の形態3では、カメラ7で撮影された映像が、映像検索装置1に入力されて、映像検索装置1の特徴情報生成手段12で、カメラ7の映像の特徴情報が生成されるとして説明した。次に、実施の形態4では、カメラ7の映像をデータ取得手段11が映像監視レコーダ4に送信して、カメラ7の映像の特徴情報を、データ取得手段11が、映像監視レコーダ4から受信して取得する例について説明する。
Embodiment 4 FIG.
In the first to third embodiments, the video captured by the camera 7 is input to the video search device 1, and the feature information generation unit 12 of the video search device 1 generates the video feature information of the camera 7. Explained as being. Next, in the fourth embodiment, the data acquisition unit 11 transmits the video of the camera 7 to the video monitoring recorder 4, and the data acquisition unit 11 receives the feature information of the video of the camera 7 from the video monitoring recorder 4. An example to be acquired will be described.

図7は、この発明の実施の形態4における、映像検索装置1の構成図である。
図7は、携帯端末2、映像監視レコーダ4、および監視カメラ5の接続関係は同様であるが、映像検索装置1の構成が異なる。
実施の形態4の映像検索装置1の構成は、映像入力手段10c、データ取得手段11c、特徴比較手段13c、カメラ特定手段14から構成される。
FIG. 7 is a block diagram of the video search apparatus 1 in Embodiment 4 of the present invention.
In FIG. 7, the connection relationship of the mobile terminal 2, the video surveillance recorder 4, and the surveillance camera 5 is the same, but the configuration of the video search device 1 is different.
The configuration of the video search apparatus 1 according to the fourth embodiment includes a video input unit 10c, a data acquisition unit 11c, a feature comparison unit 13c, and a camera identification unit 14.

実施の形態4における、映像検索装置1の構成について説明する。
映像入力手段10cは、カメラ7からの映像が入力されると、入力されたカメラ7の映像を、データ取得手段11cに出力する。
The configuration of the video search device 1 in the fourth embodiment will be described.
When the video from the camera 7 is input, the video input unit 10c outputs the input video of the camera 7 to the data acquisition unit 11c.

データ取得手段11cは、映像入力手段10cから入力されたカメラ7の映像を、映像監視レコーダ4に送信して、カメラ7の映像の特徴情報を映像監視レコーダ4から受信して、取得する。また、カメラ7の映像が映像入力手段10cから入力されると、携帯端末2の位置情報を、携帯端末2の位置情報取得手段9から取得する。そして、取得した携帯端末2の位置情報を、映像監視レコーダ4に送信して、携帯端末2の位置情報に近い位置情報をもつ、監視カメラ5のカメラ番号と、監視カメラ5で撮影された映像の特徴情報を、映像監視レコーダ4から受信して取得する。そして、取得したカメラ7の映像の特徴情報と、監視カメラ5の映像の特徴情報を、特徴比較手段13cに出力する。   The data acquisition unit 11c transmits the video of the camera 7 input from the video input unit 10c to the video monitoring recorder 4, and receives and acquires the feature information of the video of the camera 7 from the video monitoring recorder 4. When the video of the camera 7 is input from the video input unit 10 c, the position information of the mobile terminal 2 is acquired from the position information acquisition unit 9 of the mobile terminal 2. Then, the acquired position information of the mobile terminal 2 is transmitted to the video monitoring recorder 4, and the camera number of the monitoring camera 5 having the position information close to the position information of the mobile terminal 2 and the video captured by the monitoring camera 5 Is received from the video surveillance recorder 4 and acquired. Then, the acquired feature information of the video of the camera 7 and the feature information of the video of the monitoring camera 5 are output to the feature comparison unit 13c.

特徴比較手段13cは、データ取得手段11cから入力された、カメラ7の映像の特徴情報と、監視カメラ5の映像の特徴情報を比較して、比較結果をカメラ特定手段14に出力する。   The feature comparison unit 13c compares the feature information of the video of the camera 7 input from the data acquisition unit 11c with the feature information of the video of the monitoring camera 5, and outputs the comparison result to the camera specifying unit 14.

カメラ特定手段14は、実施の形態1〜実施の形態3と同様で、特徴比較手段9cから入力された比較結果に基づいて、カメラ7の映像に近似する映像を撮影した、監視カメラ5cを特定する。
また、映像監視レコーダ4の構成要素、各構成要素の機能は、実施の形態2と同様であるため、説明を省略する。。
The camera specifying means 14 is the same as in the first to third embodiments, and specifies the surveillance camera 5c that has captured a video that approximates the video of the camera 7 based on the comparison result input from the feature comparison means 9c. To do.
Moreover, since the components of the video surveillance recorder 4 and the functions of the components are the same as those in the second embodiment, the description thereof is omitted. .

次に、実施の形態4における映像検索装置1の動作について説明する。
図8は、この発明の実施の形態4における、映像検索装置1の動作を示すフローチャートである。
カメラ7で撮影された映像が、映像入力手段10cに入力されると、映像入力手段10cは、入力されたカメラ7の映像を、データ取得手段11cに出力する(S1)。
Next, the operation of the video search device 1 in the fourth embodiment will be described.
FIG. 8 is a flowchart showing the operation of the video search apparatus 1 in Embodiment 4 of the present invention.
When the video captured by the camera 7 is input to the video input unit 10c, the video input unit 10c outputs the input video of the camera 7 to the data acquisition unit 11c (S1).

そして、データ取得手段11cは、映像入力手段10cから、カメラ7の映像が入力されると、携帯端末2の位置情報を、携帯端末2の位置情報取得手段9から取得する(S2)。   And the data acquisition means 11c will acquire the positional information on the portable terminal 2 from the positional information acquisition means 9 of the portable terminal 2, if the image | video of the camera 7 is input from the video input means 10c (S2).

そして、データ取得手段11cは、カメラ7の映像と、携帯端末2の位置情報を、通信手段3を介して、映像監視レコーダ4に送信する(S3)。   And the data acquisition means 11c transmits the image | video of the camera 7, and the positional information on the portable terminal 2 to the video surveillance recorder 4 via the communication means 3 (S3).

そして、データ取得手段11cは、カメラ7の映像の特徴情報と、携帯端末2の位置情報に近い位置情報をもつ、複数の監視カメラ5のカメラ番号と、そのカメラ番号の監視カメラ5で撮影された映像の特徴情報を、映像監視レコーダ4から受信して取得する(S4)。
この時、映像監視レコーダ4の特徴情報生成手段21では、受信したカメラ7の映像と監視カメラ5の映像から、人物等の動体を取り除き、背景情報のみとした映像を作成して、特徴情報を生成している。
Then, the data acquisition unit 11c is photographed by the feature information of the video of the camera 7, the camera number of the plurality of monitoring cameras 5 having the position information close to the position information of the mobile terminal 2, and the monitoring camera 5 of the camera number. The video feature information is received from the video surveillance recorder 4 and acquired (S4).
At this time, the feature information generation means 21 of the video surveillance recorder 4 removes moving objects such as people from the received video of the camera 7 and the video of the surveillance camera 5 to create a video with only background information, and obtains the feature information. Is generated.

そして、データ取得手段11cは、映像監視レコーダ4から取得した、カメラ7の映像の特徴情報と、監視カメラ5のカメラ番号と、そのカメラ番号の監視カメラ5が撮影した映像の特徴情報を、特徴比較手段13cに出力する(S5)。   Then, the data acquisition unit 11c includes the feature information of the video of the camera 7, the camera number of the monitoring camera 5, and the feature information of the video taken by the monitoring camera 5 of the camera number acquired from the video monitoring recorder 4. It outputs to the comparison means 13c (S5).

特徴比較手段13cは、データ取得手段11cから入力された、カメラ7の映像の特徴情報と、監視カメラ5の映像の特徴情報を比較して、比較結果をカメラ特定手段14に出力する(S6)   The feature comparison unit 13c compares the feature information of the video of the camera 7 input from the data acquisition unit 11c with the feature information of the video of the monitoring camera 5, and outputs the comparison result to the camera specifying unit 14 (S6).

カメラ特定手段14は、特徴比較手段13cから入力された比較結果に基づいて、カメラ7の映像に最も近似する映像を撮影する、監視カメラ5を特定する(S7)。   Based on the comparison result input from the feature comparison unit 13c, the camera identification unit 14 identifies the surveillance camera 5 that captures an image that most closely approximates the image of the camera 7 (S7).

そして、カメラ特定手段14は、特定した監視カメラ5のカメラ番号を、通信手段3を介して、映像監視レコーダ4に送信し、送信したカメラ番号の監視カメラ5の映像を、映像監視レコーダ4から受信する(S8)。   Then, the camera identification unit 14 transmits the camera number of the identified surveillance camera 5 to the video surveillance recorder 4 via the communication unit 3, and the video of the surveillance camera 5 with the transmitted camera number is transmitted from the video surveillance recorder 4. Receive (S8).

そして、カメラ特定手段14は、受信した監視カメラ5の映像を、携帯端末2のタッチパネルディスプレイ8に出力する(S9)。   Then, the camera specifying unit 14 outputs the received video of the monitoring camera 5 to the touch panel display 8 of the mobile terminal 2 (S9).

すると、タッチパネルディスプレイ8は、特定された監視カメラ5が撮影した映像を表示する(S10)。   Then, the touch panel display 8 displays the video imaged by the specified surveillance camera 5 (S10).

以上のように、映像入力手段10cがカメラ7から入力された映像を、映像監視レコーダ4に送信して、カメラ7の映像の特徴情報を、映像監視レコーダ4から受信するので、特徴情報生成手段12がなくても、カメラ7の映像に近似する映像を撮影する監視カメラ5を特定することができる。   As described above, since the video input unit 10c transmits the video input from the camera 7 to the video monitoring recorder 4 and receives the video feature information of the camera 7 from the video monitoring recorder 4, the feature information generating unit Even if 12 is not provided, it is possible to specify the surveillance camera 5 that captures an image that approximates the image of the camera 7.

1 映像検索装置、2 携帯端末、3 ネットワーク、4 映像監視レコーダ、5 監視カメラ、6 通信手段、7 カメラ、8 タッチパネルディスプレイ、9 位置情報取得手段、10 映像入力手段、11 データ取得手段、12 特徴情報生成手段、13 特徴比較手段、14 カメラ特定手段、15 店舗、16 商品棚、17 カウンタ、18 利用者、19 通信手段、20 特徴情報生成手段、21 記憶手段。 DESCRIPTION OF SYMBOLS 1 Image | video search device, 2 Mobile terminal, 3 Network, 4 Video surveillance recorder, 5 Surveillance camera, 6 Communication means, 7 Camera, 8 Touch panel display, 9 Position information acquisition means, 10 Video input means, 11 Data acquisition means, 12 Features Information generation means, 13 feature comparison means, 14 camera identification means, 15 stores, 16 product shelves, 17 counters, 18 users, 19 communication means, 20 feature information generation means, 21 storage means.

Claims (12)

映像が入力される映像入力手段、
該映像入力手段で入力された検索する映像が、解析されて得られた特徴情報と、監視する領域を撮影する、監視カメラの映像の特徴情報とを比較して、比較結果を出力する特徴比較手段、
該特徴比較手段から入力された比較結果に基づいて、前記検索する映像に近似する映像を撮影した、前記監視カメラを特定するカメラ特定手段、
を備えたことを特徴とする映像検索装置。
Video input means through which video is input,
A feature comparison that compares the feature information obtained by analyzing the video to be searched input by the video input means with the feature information of the video of the surveillance camera that captures the monitored area and outputs a comparison result means,
Camera specifying means for specifying the surveillance camera, which has taken a video approximate to the video to be searched, based on the comparison result input from the feature comparison means;
A video search apparatus comprising:
前記映像入力手段で検索する映像が入力されると、前記監視カメラの映像の特徴情報を、前記監視カメラの映像を記録する記録装置から取得して、前記特徴比較手段に出力するデータ取得手段を更に備えたことを特徴とする請求項1に記載の映像検索装置。   When a video to be searched for is input by the video input means, data acquisition means for acquiring characteristic information of the video of the monitoring camera from a recording device for recording the video of the monitoring camera and outputting the characteristic information to the characteristic comparison means The video search apparatus according to claim 1, further comprising: 前記データ取得手段は、前記検索する映像の位置情報に近い位置情報をもつ、前記監視カメラの映像の特徴情報を取得することを特徴とする請求項2に記載の映像検索装置。   The video search apparatus according to claim 2, wherein the data acquisition means acquires video feature information of the surveillance camera having position information close to position information of the video to be searched. 前記映像入力手段で入力された映像を解析して、特徴情報を生成する特徴情報生成手段を更に備え、
前記特徴比較手段は、前記特徴情報生成手段で生成された、前記検索する映像の特徴情報と、前記監視カメラの映像の特徴情報とを比較することを特徴とする請求項1〜3のいずれかに記載の映像検索装置。
Analyzing the video input by the video input means, further comprising feature information generating means for generating feature information,
The feature comparison unit compares the feature information of the video to be searched generated by the feature information generation unit with the feature information of the video of the surveillance camera. The video search device described in 1.
前記特徴情報生成手段は、映像の背景部分の特徴情報を生成し、
前記特徴比較手段は、前記特徴情報生成手段で生成された、前記検索する映像の背景部分の特徴情報と、前記監視カメラの映像の背景部分の特徴情報とを比較して、比較結果を出力することを特徴とする請求項4に記載の映像検索装置。
The feature information generating means generates feature information of a background portion of the video,
The feature comparison unit compares the feature information of the background portion of the video to be searched generated by the feature information generation unit with the feature information of the background portion of the video of the surveillance camera, and outputs a comparison result The video search apparatus according to claim 4, wherein:
前記映像入力手段で入力された映像を解析して、特徴情報を生成する特徴情報生成手段、
前記映像入力手段に検索する映像が入力されると、監視する領域を撮影する監視カメラの映像を、前記監視カメラの映像を記録する記録装置から取得して、前記映像入力手段に出力するデータ取得手段を更に備え、
前記特徴比較手段は、前記特徴情報生成手段から入力された、前記検索する映像の特徴情報と、前記監視カメラの映像の特徴情報とを比較することを特徴とする請求項1記載の映像検索装置。
Analyzing the video input by the video input means to generate feature information;
When the video to be searched is input to the video input means, the video of the monitoring camera that captures the area to be monitored is acquired from the recording device that records the video of the monitoring camera, and the data acquisition is output to the video input means Further comprising means,
2. The video search apparatus according to claim 1, wherein the feature comparison unit compares the feature information of the video to be searched input from the feature information generation unit with the feature information of the video of the surveillance camera. .
前記映像入力手段に、検索する映像が入力されると、該検索する映像を解析して得られる特徴情報と、前記検索する映像の位置情報に近い位置情報をもち、監視する領域を撮影する監視カメラの映像の特徴情報とを、前記監視カメラの映像を記録する記録装置から取得するデータ取得手段を更に備え、
前記特徴比較手段は、前記データ取得手段が取得した、前記検索する映像の特徴情報と、前記監視カメラの映像の特徴情報とを比較することを特徴とする請求項1記載の映像検索装置。
When a video to be searched is input to the video input means, monitoring is performed for capturing a region to be monitored having characteristic information obtained by analyzing the video to be searched and position information close to the position information of the video to be searched. Data acquisition means for acquiring feature information of the video of the camera from a recording device for recording the video of the surveillance camera;
2. The video search apparatus according to claim 1, wherein the feature comparison unit compares the feature information of the video to be searched acquired by the data acquisition unit with the feature information of the video of the surveillance camera.
前記特徴比較手段は、検索する映像の特徴情報と、360度の全方位の領域を撮影する、360度監視カメラで撮影された映像に対して、歪み補正が行われた映像の特徴情報を比較して、比較結果を出力し、
前記カメラ特定手段は、前記検索する映像の特徴情報を用いて、前記歪み補正が行われた映像を、方位のずれも含めて特定することで、前記360度監視カメラを方位も含めて特定することを特徴とする請求項1〜7のいずれかに記載の映像検索装置。
The feature comparison means compares the feature information of the image to be searched with the feature information of the image subjected to distortion correction with respect to the image taken by the 360-degree surveillance camera that photographs the 360-degree omnidirectional region. Output the comparison result,
The camera specifying unit specifies the 360-degree monitoring camera including a direction by specifying the distortion-corrected image including a misalignment using the feature information of the searched video. The video search device according to claim 1, wherein the video search device is a video search device.
前記カメラ特定手段は、特定された前記監視カメラが撮影した映像を、前記監視カメラの映像を記録する記録装置から取得して、外部に出力することを特徴とする請求項1〜8のいずれかに記載の映像検索装置。   9. The camera specifying device according to claim 1, wherein the camera specifying unit acquires the video captured by the specified monitoring camera from a recording device that records the video of the monitoring camera, and outputs the acquired video to the outside. The video search device described in 1. 前記カメラ特定手段は、前記記録装置から取得した、特定された2以上の前記監視カメラの映像を合成することを特徴とする請求項9記載の映像検索装置。   The video search apparatus according to claim 9, wherein the camera specifying unit synthesizes the videos of the two or more specified monitoring cameras acquired from the recording apparatus. 監視する領域を撮影する、監視カメラの映像を記録する記録手段、
前記記録手段に記録される映像を解析して、特徴情報を生成する特徴情報生成手段、
を備えた記録装置、
映像が入力される映像入力手段、
前記映像入力手段に検索する映像が入力されると、前記検索する映像の特徴情報と、前記監視カメラの映像の特徴情報を、前記記録装置から取得するデータ取得手段、
該データ取得手段で取得された、前記検索する映像の特徴情報と、前記監視カメラの映像の特徴情報とを比較して、比較結果を出力する特徴比較手段、
該特徴比較手段から入力された比較結果に基づいて、前記検索する映像に近似する映像を撮影した、前記監視カメラを特定するカメラ特定手段、
を備えた映像検索装置、から構成されることを特徴とする映像検索システム。
A recording means for capturing an image of the surveillance camera, recording a video of the surveillance camera,
Analyzing the video recorded in the recording means to generate feature information;
A recording device,
Video input means through which video is input,
When a video to be searched is input to the video input means, data acquisition means for acquiring the characteristic information of the video to be searched and the characteristic information of the video of the surveillance camera from the recording device,
A feature comparison unit that compares the feature information of the video to be searched acquired by the data acquisition unit with the feature information of the video of the surveillance camera, and outputs a comparison result;
Camera specifying means for specifying the surveillance camera, which has taken a video approximate to the video to be searched, based on the comparison result input from the feature comparison means;
A video search system comprising: a video search device comprising:
複数の監視カメラから、検索する映像と近似する映像を撮影した、監視カメラを特定する映像検索装置の映像検索方法において、
映像が入力される映像入力ステップ、
該映像入力ステップで入力された検索する映像が、解析されて得られた特徴情報と、監視する領域を撮影する、監視カメラの映像の特徴情報とを比較して、比較結果を出力する特徴比較ステップ、
該特徴比較ステップから入力された比較結果に基づいて、前記検索する映像に近似する映像を撮影した、前記監視カメラを特定するカメラ特定ステップ、
を備えたことを特徴とする映像検索方法。
In a video search method of a video search device for identifying a surveillance camera, which has taken a video approximate to a video to be searched from a plurality of surveillance cameras,
Video input step where video is input,
A feature comparison that compares the feature information obtained by analyzing the video to be searched input in the video input step with the feature information of the video of the surveillance camera that captures the area to be monitored, and outputs a comparison result Step,
A camera specifying step for specifying the surveillance camera that has taken a video approximate to the video to be searched based on the comparison result input from the feature comparison step;
A video search method characterized by comprising:
JP2013051621A 2013-03-14 2013-03-14 Video retrieval device, video retrieval system, and video retrieval method Pending JP2014179740A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013051621A JP2014179740A (en) 2013-03-14 2013-03-14 Video retrieval device, video retrieval system, and video retrieval method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013051621A JP2014179740A (en) 2013-03-14 2013-03-14 Video retrieval device, video retrieval system, and video retrieval method

Publications (1)

Publication Number Publication Date
JP2014179740A true JP2014179740A (en) 2014-09-25

Family

ID=51699279

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013051621A Pending JP2014179740A (en) 2013-03-14 2013-03-14 Video retrieval device, video retrieval system, and video retrieval method

Country Status (1)

Country Link
JP (1) JP2014179740A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066901A (en) * 2014-09-24 2016-04-28 株式会社東芝 Imaging part specification system and method and program
JP2017011622A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Output device, video monitoring system, information processing method, and program
JP2017162375A (en) * 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 Commodity monitoring device, commodity monitoring system and commodity monitoring method

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016066901A (en) * 2014-09-24 2016-04-28 株式会社東芝 Imaging part specification system and method and program
JP2017011622A (en) * 2015-06-25 2017-01-12 キヤノン株式会社 Output device, video monitoring system, information processing method, and program
JP2017162375A (en) * 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 Commodity monitoring device, commodity monitoring system and commodity monitoring method
WO2017154488A1 (en) * 2016-03-11 2017-09-14 パナソニックIpマネジメント株式会社 Commodity monitoring device, commodity monitoring system, and commodity monitoring method
GB2561500A (en) * 2016-03-11 2018-10-17 Panasonic Ip Man Co Ltd Commodity monitoring device, commodity monitoring system, and commodity monitoring method
US10818006B2 (en) 2016-03-11 2020-10-27 Panasonic Intellectual Property Management Co., Ltd. Commodity monitoring device, commodity monitoring system, and commodity monitoring method

Similar Documents

Publication Publication Date Title
JP6399356B2 (en) Tracking support device, tracking support system, and tracking support method
US9576364B1 (en) Relative positioning of a mobile computing device in a network
KR102314594B1 (en) Image display method and electronic device
US10043079B2 (en) Method and apparatus for providing multi-video summary
JP6942940B2 (en) Image processing equipment, image processing methods and programs
JP2010514044A (en) Automatic image direction change based on face detection on display
US10999556B2 (en) System and method of video capture and search optimization
KR20160094655A (en) The System and Method for Panoramic Video Surveillance with Multiple High-Resolution Video Cameras
KR20160078724A (en) Apparatus and method for displaying surveillance area of camera
JP6396682B2 (en) Surveillance camera system
KR20210104979A (en) apparatus and method for multi-channel image back-up based on event, and network surveillance camera system including the same
JP2014179740A (en) Video retrieval device, video retrieval system, and video retrieval method
JP6388532B2 (en) Image providing system and image providing method
JP2009152733A (en) Person specifying system, person specifying device, person specifying method, and person specifying program
CN113936154A (en) Image processing method and device, electronic equipment and storage medium
US11195295B2 (en) Control system, method of performing analysis and storage medium
JP2016081428A (en) Information terminal, information processing device, and program
CN110673732A (en) Scene sharing method, device, system, electronic equipment and storage medium
US11144768B2 (en) Image processing device and image processing method
WO2023095770A1 (en) Augmented reality display device, server device, augmented reality display system, augmented reality display method, and program
JP2018050224A (en) Image processing apparatus
JP6451509B2 (en) Information terminal, photographing control program, display system, and photographing control method
JP6743441B2 (en) Image collection device, display system, image collection method and program
JP6360389B2 (en) Video presentation apparatus and program
KR20230098394A (en) Apparatus and method for providing video service for monitoring distant scene