JP2011018238A - Image retrieval system and image retrieval method - Google Patents

Image retrieval system and image retrieval method Download PDF

Info

Publication number
JP2011018238A
JP2011018238A JP2009163095A JP2009163095A JP2011018238A JP 2011018238 A JP2011018238 A JP 2011018238A JP 2009163095 A JP2009163095 A JP 2009163095A JP 2009163095 A JP2009163095 A JP 2009163095A JP 2011018238 A JP2011018238 A JP 2011018238A
Authority
JP
Japan
Prior art keywords
image
search
block
search key
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2009163095A
Other languages
Japanese (ja)
Other versions
JP5180922B2 (en
Inventor
Daisuke Matsubara
大輔 松原
Atsushi Hiroike
敦 廣池
Tatsuhiko Kagehiro
達彦 影広
Naoto Akira
直人 秋良
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2009163095A priority Critical patent/JP5180922B2/en
Publication of JP2011018238A publication Critical patent/JP2011018238A/en
Application granted granted Critical
Publication of JP5180922B2 publication Critical patent/JP5180922B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To efficiently retrieve a target person by a retrieval key not depending on a person or a specific portion of the person without accurately detecting a person area.SOLUTION: An image retrieval system is provided for retrieving an image similar to an image designated by a user. An image acquired from a video or the like captured by a camera is divided into blocks each having a predetermined size. The characteristic amount of the block is extracted based on a color histogram. First information indicating correspondence relation among an identifier of the image, information on a position of the block, and the characteristic amount of the block is created. The characteristic amount of the first retrieval key and the characteristic amount of another block are compared with at least one block selected by the user of the divided blocks as the first retrieval key, based on the first information to detect a predetermined number of blocks similar to the first retrieval key as a retrieval result, and the image including the retrieval result is displayed to the user.

Description

本発明は、画像情報検索に関し、特に、撮影された画像情報から人物又は物体を検索する画像検索システム及び画像検索方法に関する。   The present invention relates to image information retrieval, and more particularly to an image retrieval system and an image retrieval method for retrieving a person or an object from captured image information.

近年、凶悪犯罪が増加し、セキュリティの意識が向上している。これに伴い、店舗、空港などの人が集まる場所に、多くの監視カメラが設置されている。これらの監視カメラによって撮影された映像情報は、監視レコーダなどの蓄積装置に格納され、必要に応じて閲覧される。   In recent years, violent crime has increased and security awareness has improved. Along with this, many surveillance cameras are installed in places where people gather, such as stores and airports. Video information photographed by these surveillance cameras is stored in a storage device such as a surveillance recorder and viewed as necessary.

また、IPカメラの普及によって、ネットワーク経由で多数のカメラが接続され、さらに、蓄積装置の容量が大きくなっているため、蓄積装置には大量の映像情報が格納されている。したがって、従来のように、格納された映像情報を目視によって確認することが非常に困難になっている。   In addition, with the widespread use of IP cameras, a large number of cameras are connected via a network, and the capacity of the storage device is increased. Therefore, a large amount of video information is stored in the storage device. Therefore, it is very difficult to visually check the stored video information as in the past.

そこで、このような大量の映像情報から、特定の人物又は物体が映っている画像を検索し、検索された画像を提示するために、様々な類似検索技術が提案されている。ここで、類似検索技術とは、対象の情報から、ユーザによって指定された検索キーに類似する情報を検出し、検出されたデータを提示する技術である。特に、類似画像検索技術とは、検索キーとなる画像から取得した色合い、形状などの特徴量に基づいて、検索キーの画像との類似度が大きい画像を検索する技術である。人物を検索する場合、顔の画像、服の色などの特徴を検索キーとして用いることができる。   Therefore, various similar search techniques have been proposed in order to search for an image showing a specific person or object from such a large amount of video information and present the searched image. Here, the similarity search technique is a technique for detecting information similar to a search key designated by a user from target information and presenting the detected data. In particular, the similar image search technique is a technique for searching for an image having a high degree of similarity with the image of the search key based on feature quantities such as color and shape acquired from the image serving as the search key. When searching for a person, features such as facial images and clothing colors can be used as search keys.

ここで、エッジ情報及び色情報を用いたクラスタリングによって、蓄積された映像のフレーム画像を複数の領域に分割する方法が提案されている(例えば、特許文献1参照)。特許文献1に記載された方法では、まず、エッジ抽出及び平滑化によって、フレーム画像からエッジ画像を作成する。次に、該フレーム画像の画素値を用いてクラスタリングを実行し、各領域をラベリングする。ラベリングされた任意の二つの領域の境界上にエッジがない場合、それらの二つの領域を統合する。そして、各領域から色のヒストグラム、セントラルモーメントなどの特徴量を抽出し、抽出された特徴量を用いて、検索を実行する。   Here, a method has been proposed in which a frame image of an accumulated video is divided into a plurality of regions by clustering using edge information and color information (see, for example, Patent Document 1). In the method described in Patent Document 1, first, an edge image is created from a frame image by edge extraction and smoothing. Next, clustering is performed using the pixel values of the frame image, and each region is labeled. If there are no edges on the boundary between any two labeled regions, then the two regions are merged. Then, feature quantities such as a color histogram and a central moment are extracted from each region, and a search is executed using the extracted feature quantities.

また、映像のフレーム画像から各カメラの背景画像を作成し、作成された背景画像と原画像との差分に基づいて、人物領域を抽出する方法が提案されている(例えば、特許文献2参照)。特許文献2に記載された方法では、抽出された人物領域全体の画素値から作成されたヒストグラム、及び人物領域を複数の領域に分割した各部分領域から作成されたヒストグラムを用いて、人物の特徴量を算出し、算出された特徴量を検索に利用する。   Further, a method has been proposed in which a background image of each camera is created from a frame image of a video, and a person area is extracted based on a difference between the created background image and an original image (for example, see Patent Document 2). . In the method described in Patent Document 2, the characteristics of a person are generated using a histogram created from pixel values of the entire extracted person area and a histogram created from each partial area obtained by dividing the person area into a plurality of areas. The amount is calculated, and the calculated feature amount is used for the search.

また、映像のフレーム画像のうち、移動する物体の領域を矩形領域として抽出し、抽出された矩形領域を複数のブロックに分割した後、分割されたブロックの各々から代表色を抽出する方法が提案されている(例えば、特許文献3)。なお、抽出された矩形領域をブロックに分割する方法には、単純に十字に四分割する方法、色情報を用いて、頭、上半身、下半身、足などの領域に分割する方法がある。特許文献3に記載された方法では、ユーザが指定した人物か代表色を抽出し、同じ位置関係にある各ブロックの代表色を比較することによって、人物を検索する。具体的には、各ブロックの上半身の色、靴の色などを比較することによって、類似度を計算する。つまり、人物の各部位の相対的な位置関係を考慮し、人物を同定している。   Also proposed is a method of extracting a moving object area from a video frame image as a rectangular area, dividing the extracted rectangular area into a plurality of blocks, and then extracting a representative color from each of the divided blocks. (For example, Patent Document 3). As a method of dividing the extracted rectangular area into blocks, there are a method of simply dividing the rectangular area into four, and a method of dividing the extracted rectangular area into areas such as the head, upper body, lower body, and legs using color information. In the method described in Patent Document 3, a person or representative color designated by a user is extracted, and a person is searched for by comparing the representative colors of blocks in the same positional relationship. Specifically, the similarity is calculated by comparing the color of the upper body of each block, the color of shoes, and the like. That is, the person is identified in consideration of the relative positional relationship of each part of the person.

特開2002−133412号公報Japanese Patent Laid-Open No. 2002-13312 特開2001−268657号公報JP 2001-268657 A 特開2005−202938号公報JP 2005-202938 A

映像から所望の人物又は物体を検索することを目的とする従来の画像検索システムには、以下に示す問題があった。   The conventional image search system for searching for a desired person or object from video has the following problems.

図23は、従来の画像検索システムによって検出される人物領域を示す説明図である。   FIG. 23 is an explanatory diagram showing a person area detected by a conventional image search system.

図23の左図(A)は、画像から人物領域を厳密に切り出した図である。中図(B)は、人物領域を矩形領域として切り出して、切り出された矩形領域を四等分した図である。右図(C)は、人物領域を矩形領域として切り出し、切り出された矩形領域を人物の部位によって分割した図である。   The left figure (A) of FIG. 23 is the figure which extracted the person area | region strictly from the image. The middle figure (B) is a diagram in which the person area is cut out as a rectangular area, and the cut out rectangular area is divided into four equal parts. The right figure (C) is a diagram in which a person area is cut out as a rectangular area, and the cut out rectangular area is divided by a person's part.

まず、特許文献1及び2に記載された方法では、図23の(A)の破線で示すように人物の形状を囲んだ人物領域が抽出されるが、そもそも人物領域と背景とを厳密に分けることが難しいので、抽出された人物領域の精度が低い。このため、所望の検索結果が得られないことが多い。   First, in the methods described in Patent Documents 1 and 2, a person area surrounding the shape of a person is extracted as indicated by the broken line in FIG. 23A. In the first place, the person area and the background are strictly separated. The accuracy of the extracted person area is low. For this reason, a desired search result is often not obtained.

したがって、人物領域を厳密に抽出せずに、領域の特徴量を抽出し、抽出された特徴量を検索に利用する方法が考えられた。例えば、特許文献3に記載された方法では、図23の(B)又は(C)に示す破線のように、抽出された人物領域を大まかな矩形領域で囲み、その矩形領域を複数のブロックに分割する。しかし、この方法では、分割されたブロックを検索キーとする場合、ブロックの互いの位置関係を考慮しなければならない。   Therefore, there has been considered a method of extracting the feature amount of the region without strictly extracting the person region and using the extracted feature amount for the search. For example, in the method described in Patent Document 3, the extracted person area is surrounded by a rough rectangular area as indicated by a broken line in FIG. 23B or 23C, and the rectangular area is divided into a plurality of blocks. To divide. However, in this method, when a divided block is used as a search key, the positional relationship between the blocks must be considered.

具体的には、例えば、図23の(B)に示したブロックでは、検索キーとなる人物を含む画像と検索対象となる人物を含む画像と比較するために、それぞれの左上のブロック、右上のブロック、左下のブロック、右下のブロックを比較しなければならない。   Specifically, for example, in the block shown in FIG. 23B, in order to compare an image including a person as a search key with an image including a person as a search target, The block, the lower left block, and the lower right block must be compared.

このため、検索キーとなる人物と検索対象となる人物との姿勢が異なる場合、又はカメラに映っている人物の領域が異なる場合、各ブロックに含まれる人物の部位が異なるので、検索の精度は低下する。例えば、起立した状態の人物と、座っている状態の人物とを比較することは難しい。また、全身が映っている人物と、上半身のみが映っている人物とを比較することは難しい。   For this reason, if the position of the person who is the search key and the person to be searched are different, or if the area of the person shown in the camera is different, the part of the person included in each block is different, so the accuracy of the search is descend. For example, it is difficult to compare a person standing and a person sitting. In addition, it is difficult to compare a person whose whole body is reflected with a person whose only upper body is reflected.

このように人物の特徴量に基づいて人物を検索する画像検索システムでは、そもそも人物が存在している領域を厳密に検出することが難しいので、人物領域と判定された領域からどのような特徴量を抽出したとしても、検索の精度は低い。また、人物領域を厳密に検出せず、大まかな矩形領域で囲まれた人物領域を、例えば、左上部分、上半身などといった何らかの意味を持つ領域に分割したとしても、検索の精度は、人物の姿勢及び大きさに影響される。   In this way, in an image search system that searches for a person based on a person's feature quantity, it is difficult to accurately detect the area where the person exists in the first place. Even if is extracted, the accuracy of the search is low. Even if the person area is not strictly detected and the person area surrounded by a rough rectangular area is divided into areas having some meaning, such as the upper left part and the upper body, the accuracy of the search is And influenced by size.

本発明は前述した問題に鑑みてなされたものであって、人物領域を厳密に検出せず、人物又は人物の特定の部位に依存しない検索キーによって、対象の人物を効率的に検索することができる画像検索システムを提供することを目的とする。なお、本画像検索システムは、人物のみならず移動する物体を検索することもできる。   The present invention has been made in view of the above-described problems, and it is possible to efficiently search for a target person using a search key that does not strictly detect a person area and does not depend on a person or a specific part of the person. An object of the present invention is to provide an image search system that can be used. In addition, this image search system can search not only a person but the moving object.

本発明の代表的な一例を示せば以下のとおりである。すなわち、ユーザによって指定された画像に類似する画像を検索する画像検索システムであって、プロセッサと、前記プロセッサに接続されるメモリと、記憶装置とを備える少なくとも一以上の計算機を備え、前記プロセッサは、カメラによって撮影された映像、又は前記記憶装置に記憶された映像を取得し、前記取得された映像から、単位時間当たりに所定の枚数の画像を抽出し、前記抽出された画像を所定の大きさのブロックに分割し、色ヒストグラムに基づいて、前記分割されたブロックの特徴量を抽出し、前記抽出された画像の識別子と、前記抽出された画像の領域のうちで前記ブロックがどの位置にあるかを示す情報と、前記抽出されたブロックの特徴量と、の対応関係を示す第1の情報を作成し、前記第1の情報に基づいて、前記分割されたブロックのうち、前記ユーザによって選択された少なくとも一のブロックを第1の検索キーとし、前記第1の検索キーの特徴量と他のブロックの特徴量とを比較することによって、前記第1の検索キーに類似する所定の数のブロックを検索結果として検出し、
前記検出された検索結果を含む画像を前記ユーザに表示することを特徴とする。
A typical example of the present invention is as follows. That is, an image search system for searching for an image similar to an image designated by a user, comprising: at least one computer including a processor, a memory connected to the processor, and a storage device; Acquiring a video photographed by a camera or a video stored in the storage device, extracting a predetermined number of images per unit time from the acquired video, and extracting the extracted image to a predetermined size The feature amount of the divided block is extracted based on the color histogram, and the position of the block in the extracted image identifier and the region of the extracted image is extracted. First information indicating a correspondence relationship between the information indicating whether the information is present and the feature amount of the extracted block is created, and based on the first information, Among the divided blocks, at least one block selected by the user is used as a first search key, and the feature amount of the first search key is compared with the feature amount of another block, thereby obtaining the first block. A predetermined number of blocks similar to one search key are detected as search results,
An image including the detected search result is displayed to the user.

本発明の一実施形態によれば、ユーザが所望する人物又は物体を効率的に検索することができる。   According to an embodiment of the present invention, it is possible to efficiently search for a person or an object desired by a user.

第1の実施形態の画像検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image search system of 1st Embodiment. 第1の実施形態の画像登録処理を示すブロック図である。It is a block diagram which shows the image registration process of 1st Embodiment. 第1の実施形態のブロック分割処理を示すフローチャートである。It is a flowchart which shows the block division | segmentation process of 1st Embodiment. 第1の実施形態のブロック分割処理によって取得される画像を示す説明図である。It is explanatory drawing which shows the image acquired by the block division process of 1st Embodiment. 第1の実施形態の検索処理を示すブロック図である。It is a block diagram which shows the search process of 1st Embodiment. 第1の実施形態のブロック選択時に表示される画像を示す説明図である。It is explanatory drawing which shows the image displayed at the time of the block selection of 1st Embodiment. 第1の実施形態の検索結果統合処理を示すフローチャートである。It is a flowchart which shows the search result integration process of 1st Embodiment. 第2の実施形態の画像検索システムの構成を示すブロック図である。It is a block diagram which shows the structure of the image search system of 2nd Embodiment. 第2の実施形態の画像登録処理を示すブロック図である。It is a block diagram which shows the image registration process of 2nd Embodiment. 第2の実施形態のブロック分割処理を示すフローチャートである。It is a flowchart which shows the block division | segmentation process of 2nd Embodiment. 第2の実施形態の検索処理を示すブロック図である。It is a block diagram which shows the search process of 2nd Embodiment. 第2の実施形態の検索処理を示すフローチャートである。It is a flowchart which shows the search process of 2nd Embodiment. 第3の実施形態の検索処理を示すブロック図である。It is a block diagram which shows the search process of 3rd Embodiment. 第3の実施形態の複数ブロック選択時に表示される画像を示す説明図である。It is explanatory drawing which shows the image displayed at the time of multiple block selection of 3rd Embodiment. 第3の実施形態の検索結果統合処理を示すフローチャートである。It is a flowchart which shows the search result integration process of 3rd Embodiment. 第4の実施形態の検索処理を示すブロック図である。It is a block diagram which shows the search process of 4th Embodiment. 第4の実施形態の検索キー領域指定時に表示される画像を示す説明図である。It is explanatory drawing which shows the image displayed when the search key area | region of 4th Embodiment is designated. 第4の実施形態の検索結果の表示画面を示す説明図である。It is explanatory drawing which shows the display screen of the search result of 4th Embodiment. 第1の実施形態の画像管理情報を示す説明図である。It is explanatory drawing which shows the image management information of 1st Embodiment. 第1の実施形態の特徴量管理情報を示す説明図である。It is explanatory drawing which shows the feature-value management information of 1st Embodiment. 第1の実施形態の検索処理を示すフローチャートである。It is a flowchart which shows the search process of 1st Embodiment. 第4の実施形態の検索結果統合処理を示すフローチャートである。It is a flowchart which shows the search result integration process of 4th Embodiment. 従来の画像検索システムによって検出される人物領域を示す説明図である。It is explanatory drawing which shows the person area | region detected by the conventional image search system.

以下、本発明の実施形態を、図面を参照して説明する。   Embodiments of the present invention will be described below with reference to the drawings.

[実施形態1]
以下、本発明の第1の実施形態の画像検索システムについて、図面に従って説明する。
[Embodiment 1]
Hereinafter, an image search system according to a first embodiment of the present invention will be described with reference to the drawings.

図1は、第1の実施形態の画像検索システムの構成を示すブロック図である。   FIG. 1 is a block diagram illustrating a configuration of an image search system according to the first embodiment.

第1の実施形態の画像検索システムは、サーバ計算機110、クライアント計算機130、画像データベース140、特徴量データベース150、及びカメラ160を備える。各装置は、通信基盤120によって相互に接続される。   The image search system of the first embodiment includes a server computer 110, a client computer 130, an image database 140, a feature amount database 150, and a camera 160. Each device is connected to each other by a communication infrastructure 120.

サーバ計算機110は、外部インタフェース111、中央処理演算装置(CPU)112、メモリ113及び大容量外部記憶装置(HD)114を備える。サーバ計算機110は、検索エンジンが稼動する計算機であり、通信基盤120を経由し、クライアント計算機130に検索のサービスを提供する。   The server computer 110 includes an external interface 111, a central processing unit (CPU) 112, a memory 113, and a large-capacity external storage device (HD) 114. The server computer 110 is a computer on which a search engine operates, and provides a search service to the client computer 130 via the communication infrastructure 120.

外部インタフェース111は、サーバ計算機110を通信基盤120に接続するためのインタフェース(I/F)である。CPU112は、サーバ計算機の処理を制御するプロセッサである。メモリ113は、CPU112によって実行される制御処理のための作業領域であり、各種データ、及び、HD114からロードされたプログラムを格納する。HD114は、ハードディスクなどの大容量記憶装置であり、CPU112によって実行されるプログラム、データなどを格納する。   The external interface 111 is an interface (I / F) for connecting the server computer 110 to the communication infrastructure 120. The CPU 112 is a processor that controls processing of the server computer. The memory 113 is a work area for control processing executed by the CPU 112, and stores various data and programs loaded from the HD 114. The HD 114 is a large-capacity storage device such as a hard disk, and stores programs executed by the CPU 112, data, and the like.

クライアント計算機130は、CRTなどのディスプレイ装置を備え、ディスプレイ装置に、サーバ計算機110によって作成された出力画面及びインタフェース画面などを表示する。また、クライアント計算機130は、キーボード、マウスなどの入力装置を備え、ユーザが入力装置を操作することによって入力したデータ、コマンドなどをサーバ計算機110に出力する。   The client computer 130 includes a display device such as a CRT, and displays an output screen and an interface screen created by the server computer 110 on the display device. The client computer 130 includes an input device such as a keyboard and a mouse, and outputs data, commands, and the like input by the user operating the input device to the server computer 110.

なお、本実施形態の画像検索システムは、ネットワークを介して接続されたサーバ計算機110とクライアント計算機130とがサービスを提供する構成であるが、一般的なパーソナルコンピュータが画像検索のアプリケーションによって検索のサービスを提供する構成であってもよい。   The image search system according to the present embodiment has a configuration in which the server computer 110 and the client computer 130 connected via a network provide a service. However, a general personal computer can perform a search service using an image search application. May be provided.

画像データベース140は、画像又は画像のサムネイルを格納するためのデータベースであり、例えば、画像管理情報(図19参照)を格納する。また、特徴量データベース150は、対象とする画像から抽出された特徴量及び検索用のインデクスを格納するためのデータベースであり、例えば、特徴量管理情報(図20参照)を格納する。   The image database 140 is a database for storing images or image thumbnails, and stores, for example, image management information (see FIG. 19). The feature amount database 150 is a database for storing feature amounts extracted from the target image and a search index, and stores feature amount management information (see FIG. 20), for example.

図19は、第1の実施形態の画像管理情報2000を示す説明図である。   FIG. 19 is an explanatory diagram illustrating the image management information 2000 according to the first embodiment.

画像管理情報2000は、画像ID2001、カメラID2002、撮影時刻2003、及び画像2004を含む。画像ID2001は、画像を識別するための識別子である。カメラID2002は、画像を撮影したカメラを識別するための識別子である。撮影時刻2003は、画像を撮影した時刻情報である。画像2004は、検索の対象となる画像である。なお、画像2004は、画像自身(例えば、JPEGデータ)ではなく、画像へのポインタ情報であってもよい。   The image management information 2000 includes an image ID 2001, a camera ID 2002, a shooting time 2003, and an image 2004. An image ID 2001 is an identifier for identifying an image. The camera ID 2002 is an identifier for identifying the camera that has captured the image. The shooting time 2003 is time information when the image is shot. An image 2004 is an image to be searched. Note that the image 2004 may be pointer information to the image instead of the image itself (for example, JPEG data).

図20は、第1の実施形態の特徴量管理情報2100を示す説明図である。   FIG. 20 is an explanatory diagram illustrating the feature amount management information 2100 according to the first embodiment.

特徴量管理情報2100は、特徴量ID2101、画像ID2102、ブロック位置2103及び2104を含む。特徴量ID2101は、特徴量を識別するための識別子である。画像ID2102は、図19の画像2004に格納された画像を識別するための識別子である。   The feature amount management information 2100 includes a feature amount ID 2101, an image ID 2102, and block positions 2103 and 2104. The feature amount ID 2101 is an identifier for identifying the feature amount. The image ID 2102 is an identifier for identifying the image stored in the image 2004 of FIG.

ブロック位置2103は、画像ID2102によって特定される画像に含まれるブロック(矩形領域)の位置を示す情報である。例えば、ブロック位置は、矩形領域の左上の点のX座標及びY座標と右下の点のX座標及びY座標とによって示される。また、矩形領域の左上の点のX座標及びY座標と矩形領域の幅及び高さによって示されてもよい。   The block position 2103 is information indicating the position of a block (rectangular area) included in the image specified by the image ID 2102. For example, the block position is indicated by the X and Y coordinates of the upper left point of the rectangular area and the X and Y coordinates of the lower right point. Further, it may be indicated by the X and Y coordinates of the upper left point of the rectangular area and the width and height of the rectangular area.

特徴量ベクトル2104は、画像ID2102によって特定される画像のうち、ブロック位置2103によって特定される領域から抽出された特徴量ベクトルである。特徴量ベクトルとは、後述する図2の特徴量抽出部204によって、例えば、色ヒストグラムに基づいて作成される多次元ベクトルである。   The feature vector 2104 is a feature vector extracted from the area specified by the block position 2103 in the image specified by the image ID 2102. The feature quantity vector is a multidimensional vector created by, for example, a feature quantity extraction unit 204 in FIG.

なお、画像データベース140及び特徴量データベース150は、サーバ計算機110が備えるHD114に格納されてもよいし、HD114とは異なる他のハードディスクに格納されてもよい。   Note that the image database 140 and the feature database 150 may be stored in the HD 114 included in the server computer 110 or may be stored in another hard disk different from the HD 114.

カメラ160Aから160Nは、追跡対象エリアに設置されたカメラである。以下、カメラ160Aから160Nのいずれにも共通する説明をする場合、その説明において、カメラ160Aから160Nを総称してカメラ160と記載する。   Cameras 160A to 160N are cameras installed in the tracking target area. Hereinafter, when the description is common to all of the cameras 160A to 160N, the cameras 160A to 160N are collectively referred to as the camera 160 in the description.

以下に、画像登録処理について説明する。   The image registration process will be described below.

図2は、第1の実施形態の画像登録処理を示すブロック図である。   FIG. 2 is a block diagram illustrating image registration processing according to the first embodiment.

本実施形態の画像検索システムは、映像入力部201、静止画抽出部202、ブロック分割部203、及び特徴量抽出部204によって、画像登録処理を実行し、検索対象の画像の情報を特徴量データベース150及び画像データベース140に格納する。なお、図1に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、映像入力部201、静止画抽出部202、ブロック分割部203、特徴量抽出部204の処理を実現する。   The image search system according to the present embodiment executes image registration processing by the video input unit 201, the still image extraction unit 202, the block division unit 203, and the feature amount extraction unit 204, and stores information on the search target image as a feature amount database. 150 and the image database 140. The CPU 112 shown in FIG. 1 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded in the memory 113, and executes the read various programs, thereby executing a video input unit. 201, the still image extraction unit 202, the block division unit 203, and the feature amount extraction unit 204 are realized.

まず、映像入力部201は、カメラ160によって撮影された映像情報を取得する。なお、映像入力部201は、HD114又は任意の記録媒体に格納された映像情報を取得してもよい。   First, the video input unit 201 acquires video information captured by the camera 160. Note that the video input unit 201 may acquire video information stored in the HD 114 or an arbitrary recording medium.

次に、静止画抽出部202は、映像入力部201によって取得した映像情報から静止画フレーム(画像)を作成する。なお、静止画抽出部202は、ユーザの指定によって、1秒間当たりの映像データから、何枚の画像を作成するのかを設定することができる。   Next, the still image extraction unit 202 creates a still image frame (image) from the video information acquired by the video input unit 201. Note that the still image extraction unit 202 can set how many images are to be created from video data per second as specified by the user.

次に、ブロック分割部203は、ブロック分割処理を実行し、特徴量抽出の対象となるブロックを決定する。具体的には、ブロック分割部203は、静止画抽出部202によって作成された画像が前景(人物又は物体が映っている領域)を含むか否かを判定し、画像が前景を含むと判定された場合、画像をブロックに分割する。ブロック分割処理の詳細については図3を用いて後述する。   Next, the block division unit 203 executes block division processing to determine a block that is a target of feature amount extraction. Specifically, the block division unit 203 determines whether or not the image created by the still image extraction unit 202 includes a foreground (an area where a person or an object is reflected), and determines that the image includes a foreground. The image is divided into blocks. Details of the block division processing will be described later with reference to FIG.

また、ブロック分割部203は、前景を含む画像(人物が映っている画像)を選択し、選択された画像の情報を示す画像管理情報2000を作成し、作成された画像管理情報2000を画像データベース140に格納する。   The block dividing unit 203 selects an image including a foreground (an image showing a person), creates image management information 2000 indicating information on the selected image, and uses the created image management information 2000 as an image database. Stored in 140.

具体的には、ブロック分割部203は、図19に示した画像管理情報2000の各エントリの画像ID2001、カメラID2002、撮影時刻2003及び画像2004に、それぞれ、前景の領域を含む画像に付与された画像の識別子、画像を撮影したカメラの識別子、撮影時刻及び画像のデータを格納する。ここで、画像ID2001は、例えば、画像を識別するための任意の数字である。また、画像2004には、画像のデータそのものが格納されてもよいし、画像から作成されたサムネイルが格納されてもよい。また、画像を参照するためのリンク情報が格納されてもよい。なお、ブロック分割部203は、画像データベース140に、すべての画像を格納しなくてもよい。   Specifically, the block division unit 203 is assigned to the image including the foreground area in the image ID 2001, the camera ID 2002, the shooting time 2003, and the image 2004 of each entry of the image management information 2000 illustrated in FIG. The identifier of the image, the identifier of the camera that captured the image, the shooting time, and the image data are stored. Here, the image ID 2001 is an arbitrary number for identifying an image, for example. The image 2004 may store the image data itself, or may store a thumbnail created from the image. Further, link information for referring to an image may be stored. The block dividing unit 203 may not store all images in the image database 140.

次に、特徴量抽出部204は、ブロック分割部203によって分割され、特徴量抽出の対象に決定された各ブロックの特徴量を、例えば、色情報に基づいて、抽出する。具体的には、特徴量抽出部204は、ブロック分割部203によって分割されたブロックのうちの、前景を含むと判定された特徴量抽出の対象となるブロックを、さらに細かい格子状の領域に分割する。そして、特徴量抽出部204は、分割された各領域の色ヒストグラムを計算し、計算された色ヒストグラムに基づいて、多次元ベクトル(特徴量ベクトル)を作成する。   Next, the feature quantity extraction unit 204 extracts the feature quantity of each block divided by the block division unit 203 and determined as a feature quantity extraction target based on, for example, color information. Specifically, the feature amount extraction unit 204 divides a block, which is a target of feature amount extraction determined to include the foreground, out of the blocks divided by the block division unit 203 into finer grid regions. To do. Then, the feature amount extraction unit 204 calculates a color histogram of each divided region, and creates a multidimensional vector (feature amount vector) based on the calculated color histogram.

なお、特徴量抽出部204は、色情報のほか、輝度値、明度値などの情報、及びやそれらを組み合わせた情報によって、各ブロックの特徴を示す特徴量ベクトルを作成してもよい。また、特徴量抽出部204は、ブロックの一部の領域の特徴量ベクトルを作成してもよい。   Note that the feature quantity extraction unit 204 may create a feature quantity vector indicating the feature of each block based on color information, information such as a luminance value and a brightness value, and information obtained by combining them. Further, the feature quantity extraction unit 204 may create a feature quantity vector of a partial area of the block.

また、特徴量抽出部204は、特徴量管理情報2100を作成し、作成された特徴量管理情報2100を特徴量データベース150に格納する。具体的には、特徴量抽出部204は、図20に示した特徴量管理情報2100のエントリの特徴量ID2101、画像ID2102、ブロック位置2103、及び特徴量ベクトル2104に、それぞれ、特徴量を識別するため識別子、元画像の識別子、特徴量が抽出されたブロックの位置情報、及びブロックから抽出された特徴量ベクトルを格納する。   The feature quantity extraction unit 204 creates feature quantity management information 2100 and stores the created feature quantity management information 2100 in the feature quantity database 150. Specifically, the feature quantity extraction unit 204 identifies the feature quantities in the feature quantity ID 2101, the image ID 2102, the block position 2103, and the feature quantity vector 2104 in the entry of the feature quantity management information 2100 illustrated in FIG. Therefore, the identifier, the identifier of the original image, the position information of the block from which the feature amount is extracted, and the feature amount vector extracted from the block are stored.

以上の処理によって、画像登録処理が終了する。後述する図5に示す検索処理の対象は、各データベースに格納された画像管理情報2000及び特徴量管理情報2100である。なお、画像登録処理は、あらかじめ実行されるのではなく、ユーザが検索処理を実行する時に実行されてもよい。   With the above processing, the image registration processing is completed. The targets of search processing shown in FIG. 5 described later are image management information 2000 and feature amount management information 2100 stored in each database. Note that the image registration process may not be executed in advance, but may be executed when the user executes the search process.

以下に、ブロック分割部203の処理の詳細について説明する。   Details of the processing of the block dividing unit 203 will be described below.

図3は、第1の実施形態のブロック分割処理を示すフローチャートである。   FIG. 3 is a flowchart illustrating block division processing according to the first embodiment.

まず、ブロック分割部203は、静止画抽出部202によって作成された画像を取得する(S101)。ステップS101において、ブロック分割部203が取得した画像の一部は、例えば、後述する図4に示す(A)である。   First, the block dividing unit 203 acquires an image created by the still image extracting unit 202 (S101). In step S101, a part of the image acquired by the block dividing unit 203 is, for example, (A) shown in FIG.

次に、ブロック分割部203は、背景差分値を計算する(S102)。具体的には、まず、ブロック分割部203は、事前に用意された背景画像をグレースケールに変換する。ここで、背景画像とは、例えば、取得した画像と同じ範囲が撮影された画像であって、人物又は物体が映っていない背景のみの画像である。   Next, the block dividing unit 203 calculates a background difference value (S102). Specifically, first, the block dividing unit 203 converts a background image prepared in advance into a gray scale. Here, the background image is, for example, an image in which the same range as the acquired image is captured, and is an image of only the background in which no person or object is reflected.

次に、ブロック分割部203は、取得した画像をグレースケールに変換する。そして、グレースケールに変換された背景画像と、グレースケールに変換された画像と、を比較することによって、各画像の画素の差分値(背景差分値)を計算する。取得した画像の領域のうち、背景差分値が大きい領域は、「背景」とは異なった人物又は物体が映っている可能性が高いので、ブロック分割部203は、背景差分値が大きい領域を「前景」と判定する。ステップS102において、背景差分値によって表わされる背景差分画像は、例えば、後述する図4の(B)である。   Next, the block dividing unit 203 converts the acquired image into a gray scale. Then, the difference value (background difference value) of the pixels of each image is calculated by comparing the background image converted to gray scale with the image converted to gray scale. Of the acquired image areas, an area with a large background difference value has a high possibility that a person or an object different from the “background” is reflected. Therefore, the block dividing unit 203 selects an area with a large background difference value as “ It is determined as “foreground”. In step S102, the background difference image represented by the background difference value is, for example, FIG.

次に、ブロック分割部203は、ステップS102によって得られた背景差分画像を所定の大きさのブロックに分割する(S103)。ステップS103において、ブロック分割部203によって格子状のブロックに分割された背景差分画像は、例えば、後述する図4の(C)である。なお、ブロック分割部203は、取得した画像に映っている人物又は物体の大きさに応じて、ブロックの大きさ、又は分割数を変更してもよい。また、ブロックの大きさは、すべて同じでもよいし、画像の領域に応じて変更されてもよい。例えば、画像の上部、すなわち、撮影範囲の奥方向のブロックを画像の下部と比べて小さくしてもよい。また、静止画の上部には小さい物体しか映っていないことが多いので、画像の上部を特徴量抽出の対象としなくてもよい。   Next, the block dividing unit 203 divides the background difference image obtained in step S102 into blocks of a predetermined size (S103). In step S103, the background difference image divided into grid-like blocks by the block dividing unit 203 is, for example, FIG. The block dividing unit 203 may change the size of the block or the number of divisions according to the size of the person or object shown in the acquired image. The block sizes may all be the same, or may be changed according to the area of the image. For example, the upper part of the image, that is, the block in the depth direction of the shooting range may be made smaller than the lower part of the image. Further, since only a small object is often shown on the upper part of the still image, the upper part of the image does not have to be a target for feature amount extraction.

次に、ブロック分割部203は、各ブロックの前景度を計算する(S104)。具体的には、まず、ブロック分割部203は、取得した画像に対応する背景差分画像の各ブロックの背景差分値の合計を計算する。次に、計算された各ブロックの背景差分値の合計値を各ブロックの前景度に設定する。なお、ブロック分割部203は、分割された各ブロックの大きさが異なる場合、ブロックの面積に応じて、背景差分値の合計値を正規化する。   Next, the block dividing unit 203 calculates the foreground level of each block (S104). Specifically, first, the block dividing unit 203 calculates the sum of the background difference values of each block of the background difference image corresponding to the acquired image. Next, the calculated background difference value of each block is set as the foreground level of each block. Note that, when the sizes of the divided blocks are different, the block dividing unit 203 normalizes the total value of the background difference values according to the block area.

最後に、ブロック分割部203は、特徴量抽出の対象となるブロックを決定する(S105)。   Finally, the block division unit 203 determines a block that is a target of feature amount extraction (S105).

ここで、例えば、ブロック分割部203は、ブロックの前景度が所定の閾値を越える場合、前景度が大きいブロックには背景とは異なった人物又は物体が映っている可能性が高いので、そのブロックを特徴量抽出の対象としてもよい。また、前景度の大きさの順にソートされた各ブロックのうち、前景度が大きいブロックを所定の数だけ選択し、選択されたブロックを特徴量抽出の対象としてもよい。ステップS105において、ブロック分割部203によって決定された特徴量抽出の対象となるブロックは、例えば、後述する図4の(D)に示される網掛けのブロックである。   Here, for example, when the foreground level of the block exceeds a predetermined threshold, the block dividing unit 203 is likely to have a person or object that is different from the background in the block with the high foreground level. May be the target of feature quantity extraction. In addition, a predetermined number of blocks having a large foreground degree may be selected from the blocks sorted in order of the magnitude of the foreground degree, and the selected blocks may be targeted for feature amount extraction. In step S105, the feature value extraction target block determined by the block dividing unit 203 is, for example, a shaded block shown in FIG.

なお、ブロック分割部203は、ステップS101からS104の処理を省略してもよい。この場合、ブロック分割部203は、取得した画像を格子状のブロックに分割し、分割された各ブロックを特徴量抽出の対象に決定してもよい。   Note that the block dividing unit 203 may omit the processes of steps S101 to S104. In this case, the block dividing unit 203 may divide the acquired image into grid-like blocks and determine each divided block as a feature amount extraction target.

図4は、第1の実施形態のブロック分割処理によって取得される画像を示す説明図である。   FIG. 4 is an explanatory diagram illustrating an image acquired by the block division processing according to the first embodiment.

左上図(A)は、ブロック分割部203によってはじめに取得した画像の一部であり、例えば、人物が映っている画像である。右上図(B)は、ブロック分割部203によって作成された背景差分画像であり、人物又は物体(前景)が映っている可能性の高い領域が背景差分値によって示される。   The upper left figure (A) is a part of an image first acquired by the block dividing unit 203, for example, an image showing a person. The upper right figure (B) is a background difference image created by the block dividing unit 203, and an area where a person or an object (foreground) is likely to be reflected is indicated by the background difference value.

左下図(C)は、ブロック分割部203によって格子状のブロックに分割された背景差分画像である。右下図(D)は、ブロック分割部203によって決定された特徴量抽出の対象となるブロックを示す画像である。特徴量抽出の対象となるブロック領域は網掛けされている。   The lower left figure (C) is a background difference image divided into grid-like blocks by the block dividing unit 203. The lower right diagram (D) is an image showing a block that is a target of feature amount extraction determined by the block dividing unit 203. Block areas that are the target of feature quantity extraction are shaded.

以下に、検索処理の詳細について説明する。   Details of the search process will be described below.

図5は、第1の実施形態の検索処理を示すブロック図である。   FIG. 5 is a block diagram illustrating search processing according to the first embodiment.

本実施形態の画像検索システムは、画像取得部301、ブロック分割部302、画像表示部303、ブロック選択部304、検索部305、検索結果統合部306、検索結果表示部307、画像データベース140及び特徴量データベース150によって、検索処理を実行する。なお、図1に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、画像取得部301、ブロック分割部302、画像表示部303、ブロック選択部304、検索部305、検索結果統合部306、検索結果表示部307の処理を実現する。   The image search system of this embodiment includes an image acquisition unit 301, a block division unit 302, an image display unit 303, a block selection unit 304, a search unit 305, a search result integration unit 306, a search result display unit 307, an image database 140, and features. A search process is executed by the quantity database 150. The CPU 112 shown in FIG. 1 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded in the memory 113, and executes the read various programs, thereby obtaining an image acquisition unit. 301, the block division unit 302, the image display unit 303, the block selection unit 304, the search unit 305, the search result integration unit 306, and the search result display unit 307 are realized.

画像取得部301は、カメラ160によって撮影された映像から抽出された画像から、ユーザによって選択された、検索キーとなる人物又は物体が含まれた画像を取得する。   The image acquisition unit 301 acquires an image including a person or object that is selected by the user and serves as a search key from an image extracted from video captured by the camera 160.

又は、画像取得部301は、画像データベース140の画像管理情報2000から、ユーザによって選択された、検索キーとなる人物又は物体が含まれた画像を取得する。この場合、画像検索システムは、ユーザがカメラ番号(カメラID)、画像の撮影時刻などを参照することによって検索キーとなるブロックを含む画像を選択することができるインタフェース画面を、クライアント計算機130のディスプレイに表示してもよい。   Alternatively, the image acquisition unit 301 acquires, from the image management information 2000 of the image database 140, an image including a person or object that is selected by the user and serves as a search key. In this case, the image search system displays an interface screen on which the user can select an image including a block serving as a search key by referring to a camera number (camera ID), an image shooting time, and the like. May be displayed.

画像取得部301がカメラ160から画像を取得した場合、ブロック分割部302は、図2に示したブロック分割部203と同じ処理によって、取得した画像をブロックに分割し、分割されたブロックのうちで特徴量抽出の対象となるブロックを決定する。   When the image acquisition unit 301 acquires an image from the camera 160, the block dividing unit 302 divides the acquired image into blocks by the same processing as the block dividing unit 203 shown in FIG. A block that is a target of feature amount extraction is determined.

一方、画像取得部301が画像データベース140から画像を取得した場合、既にデータ登録処理は終了しているので、ブロック分割部302は、特徴量データベース150の特徴量管理情報2100から、取得した画像に対応する画像ID及びブロック位置を取得する。   On the other hand, when the image acquisition unit 301 has acquired an image from the image database 140, the data registration process has already been completed, so the block dividing unit 302 adds the acquired image to the acquired image from the feature amount management information 2100 of the feature amount database 150. The corresponding image ID and block position are acquired.

次に、画像表示部303は、クライアント計算機130のディスプレイに取得した画像を表示する。この場合、ブロック分割部302によって取得したブロック位置の情報も合わせて表示する。   Next, the image display unit 303 displays the acquired image on the display of the client computer 130. In this case, the block position information acquired by the block dividing unit 302 is also displayed.

図6は、第1の実施形態のブロック選択時に表示される画像を示す説明図である。   FIG. 6 is an explanatory diagram illustrating an image displayed when a block is selected according to the first embodiment.

右図(A)は、検索キー候補のブロックを示す。左図(B)のブロック401は、ユーザによって、検索キーとして選択されたブロックである。   The right figure (A) shows a block of search key candidates. A block 401 in the left figure (B) is a block selected by the user as a search key.

なお、画像表示部303は、検索キー候補のブロックを表示する場合、図6の(A)に示したように、取得した画像の検索キー候補の各ブロックを矩形で表示してもよいし、また、取得した画像の横に検索キー候補の各ブロックを並べて表示してもよい。   In addition, when displaying the search key candidate block, the image display unit 303 may display each block of the search key candidate of the acquired image as a rectangle, as shown in FIG. Further, each block of search key candidates may be displayed side by side next to the acquired image.

次に、ブロック選択部304は、ユーザによって選択された検索キーとなるブロックを取得する。なお、ユーザは、クライアント計算機130のディスプレイに表示された画像に含まれる各ブロックから、マウスなどの入力装置を用いて検索キーとなるブロックを選択することができる。   Next, the block selection unit 304 acquires a block serving as a search key selected by the user. The user can select a block to be a search key from each block included in the image displayed on the display of the client computer 130 using an input device such as a mouse.

また、画像表示部303は、選択された検索キーのブロックを明示するために、例えば、選択されたブロックの矩形を着色してもよいし、矩形の線を太くしてもよい。また、選択されたブロックの矩形の内部を着色してもよい。   Further, the image display unit 303 may color the rectangle of the selected block or make the rectangle line thick, for example, in order to clearly indicate the block of the selected search key. Further, the inside of the rectangle of the selected block may be colored.

次に、検索部305は、特徴量データベース150の特徴量管理情報2100から、選択された検索キーのブロックの特徴量と類似する特徴量を持つブロックを検索し、検索結果を取得する。検索部305が実行する検索処理の詳細については、図21を用いて後述する。   Next, the search unit 305 searches the feature amount management information 2100 of the feature amount database 150 for a block having a feature amount similar to the feature amount of the block of the selected search key, and acquires a search result. Details of the search processing executed by the search unit 305 will be described later with reference to FIG.

なお、本実施形態では、検索結果表示部307が、検索結果のブロックではなく、検索結果のブロックを含む画像(検索結果画像)を表示するので、検索部305は、特徴量データベース150の特徴量管理情報2100から、検索結果のブロックを含む画像の画像IDを取得する。   In the present embodiment, the search result display unit 307 displays an image (search result image) including the search result block instead of the search result block. The image ID of the image including the search result block is acquired from the management information 2100.

次に、検索結果統合部306は、検索部305によって取得した検索結果を統合し、検索結果表示リストを作成する。検索結果統合部306が実行する検索結果統合処理の詳細については、図7を用いて後述する。   Next, the search result integration unit 306 integrates the search results acquired by the search unit 305 and creates a search result display list. Details of the search result integration process executed by the search result integration unit 306 will be described later with reference to FIG.

検索結果表示部307は、クライアント計算機130のディスプレイに、検索結果統合部306によって作成された検索結果表示リストに含まれる画像IDを持つ画像を表示する。この場合、検索結果表示部307は、画像のみを表示してもよいし、矩形で示された検索結果のブロックを含む画像を表示してもよい。   The search result display unit 307 displays an image having an image ID included in the search result display list created by the search result integration unit 306 on the display of the client computer 130. In this case, the search result display unit 307 may display only an image, or may display an image including a search result block indicated by a rectangle.

以下に、検索部305が実行する検索処理の詳細について説明する。   Details of the search processing executed by the search unit 305 will be described below.

図21は、第1の実施形態の検索処理を示すフローチャートである
検索部305は、まず、選択されたブロックの特徴量を取得する(S601)。なお、画像取得部301がカメラ160から画像を取得した場合、検索部305は、図2に示した特徴量抽出部204と同じ処理を実行し、選択されたブロックの特徴量を抽出する。一方、画像取得部301が画像データベース140から画像を取得した場合、取得した画像の各ブロックの特徴量は既に計算されているので、検索部305は、特徴量データベース150の特徴量管理情報2100から、選択されたブロックの特徴量を取得する。
FIG. 21 is a flowchart showing the search process of the first embodiment. The search unit 305 first acquires the feature amount of the selected block (S601). When the image acquisition unit 301 acquires an image from the camera 160, the search unit 305 performs the same processing as the feature amount extraction unit 204 illustrated in FIG. 2 and extracts the feature amount of the selected block. On the other hand, when the image acquisition unit 301 acquires an image from the image database 140, the feature amount of each block of the acquired image has already been calculated. Therefore, the search unit 305 uses the feature amount management information 2100 of the feature amount database 150. The feature amount of the selected block is acquired.

次に、検索部305は、選択された検索キーのブロックの特徴量と特徴量管理情報2100の各エントリの特徴量との間の類似度を計算する(S602)。本実施形態では、類似度を計算するために、各特徴量ベクトルの間のユークリッド距離を用いる。なお、各特徴量の間の類似度は、ユークリッド距離のほか、例えば、マンハッタン距離などを用いて計算されてもよい。   Next, the search unit 305 calculates the similarity between the feature amount of the selected search key block and the feature amount of each entry of the feature amount management information 2100 (S602). In this embodiment, the Euclidean distance between each feature vector is used to calculate the similarity. Note that the similarity between the feature amounts may be calculated using, for example, a Manhattan distance in addition to the Euclidean distance.

最後に、検索部305は、特徴量データベース150の特徴量管理情報2100から、検索キーのブロックとの類似度が大きいN件のブロックを検索結果として取得する(S603)。ここで、Nは、検索結果表示部307が一度に表示することができる件数よりも十分大きい数でもよい。例えば、表示することができる件数が20であるとすると、ステップS603において取得される検索結果の数Nは1000程度が好ましい。   Finally, the search unit 305 acquires, from the feature amount management information 2100 of the feature amount database 150, N blocks having high similarity to the search key block as search results (S603). Here, N may be a number sufficiently larger than the number of cases that the search result display unit 307 can display at a time. For example, if the number of cases that can be displayed is 20, the number N of search results acquired in step S603 is preferably about 1000.

以下に、検索結果統合部306が実行する検索結果統合処理の詳細について説明する。   Details of the search result integration process executed by the search result integration unit 306 will be described below.

図7は、第1の実施形態の検索結果統合処理を示すフローチャートである。   FIG. 7 is a flowchart illustrating search result integration processing according to the first embodiment.

まず、検索結果統合部306は、検索部305から出力された、検索キーのブロックとの類似度が大きいN件の検索結果を取得し、カウンタiを0にする(S201)。さらに、検索結果表示リストを初期化する。ここで、検索結果表示リストとは、検索結果表示部307が検索結果のブロックを含む画像(検索結果画像)を表示するために、検索結果統合部306によって作成される、画像IDとその画像IDを持つ画像に設定された類似度とが対応付けられたリストである。   First, the search result integration unit 306 acquires N search results having a high degree of similarity with the search key block output from the search unit 305, and sets the counter i to 0 (S201). Further, the search result display list is initialized. Here, the search result display list is an image ID and its image ID created by the search result integration unit 306 in order for the search result display unit 307 to display an image (search result image) including the search result block. This is a list in which the similarity set to an image having is associated with each other.

次に、検索結果統合部306は、特徴量データベース150の特徴量管理情報2100から、N件の検索結果のブロックのうち、類似度がi番目のブロックを含む画像の画像IDを取得する(S202)。   Next, the search result integration unit 306 acquires, from the feature amount management information 2100 of the feature amount database 150, the image ID of an image including the i-th block having the i-th similarity among the N search result blocks (S202). ).

その後、検索結果統合部306は、取得した画像IDが検索結果表示リストに含まれるか否かを判定する(S203)。ステップS203において、取得した画像IDが検索結果表示リストに含まれないと判定された場合、検索結果統合部306は、検索結果表示リストに取得した画像IDとその画像IDを持つ画像に対応する類似度とを追加する(S204)。一方、ステップS203において、取得した画像IDが検索結果表示リストに含まれると判定された場合、検索結果統合部306は、検索結果表示リストに取得した画像IDを追加せず、ステップS205に移る。   Thereafter, the search result integration unit 306 determines whether or not the acquired image ID is included in the search result display list (S203). When it is determined in step S203 that the acquired image ID is not included in the search result display list, the search result integration unit 306 similar to the image ID acquired in the search result display list and the image having the image ID. The degree is added (S204). On the other hand, when it is determined in step S203 that the acquired image ID is included in the search result display list, the search result integration unit 306 moves to step S205 without adding the acquired image ID to the search result display list.

次に、検索結果統合部306は、検索部305から出力されたすべての検索結果が処理されたか否かを判定する(S205)。ステップS205において、すべての検索結果が処理されていないと判定された場合、すなわち、カウンタiが検索結果数N未満である場合、検索結果統合部306は、カウンタiに1を追加し(S206)、S202以降の処理を繰り返す。   Next, the search result integration unit 306 determines whether all the search results output from the search unit 305 have been processed (S205). If it is determined in step S205 that all search results have not been processed, that is, if the counter i is less than the number N of search results, the search result integration unit 306 adds 1 to the counter i (S206). , S202 and subsequent processes are repeated.

一方、ステップS205において、すべての検索結果が処理されたと判定された場合、すなわち、カウンタiが検索結果数N以上である場合、検索結果統合部306は、検索結果表示リストに追加された画像IDを類似度が大きい順にソートし(S207)、処理を終了する。   On the other hand, if it is determined in step S205 that all search results have been processed, that is, if the counter i is greater than or equal to the number N of search results, the search result integration unit 306 adds the image ID added to the search result display list. Are sorted in descending order of similarity (S207), and the process ends.

なお、本実施形態では、ソートの対象として追加された画像IDを持つ画像に複数の検索結果のブロックを含む場合、複数の検索結果のブロックのうち、検索キーのブロックとの類似度が最も大きい検索結果のブロックを選択し、選択されたブロックの類似度を追加された画像IDを持つ画像に対応する類似度に設定する。なお、複数の検索結果のブロックの類似度の平均値を計算し、計算された類似度の平均値を追加された画像IDを持つ画像に対応する類似度に設定してもよい。   In the present embodiment, when a plurality of search result blocks are included in an image having an image ID added as a sort target, the similarity to the search key block is the largest among the plurality of search result blocks. The block of the search result is selected, and the similarity of the selected block is set to the similarity corresponding to the image having the added image ID. Note that an average value of similarities of a plurality of search result blocks may be calculated, and the calculated average value of similarities may be set to a similarity corresponding to an image having an added image ID.

以上説明したように、第1の実施形態の画像検索システムによると、格子状のブロックに分割された画像をブロック単位で検索するので、人物又は物体の領域を厳密に抽出することなく、検索キーと類似する人物又は物体を検索することができる。さらに、検索キーのブロックと類似した部分が画像の一部に映っていれば検索が可能なため、検索対象となる画像に映っている人物の姿勢及びオクルージョン(カメラに対して手前の物体が後方の物体を遮蔽する現象)の影響が小さくなる。   As described above, according to the image search system of the first embodiment, an image divided into grid-like blocks is searched in units of blocks, so that a search key can be used without strictly extracting a person or object region. A person or object similar to can be searched. Furthermore, since a search is possible if a portion similar to the search key block appears in a part of the image, the posture and occlusion of the person appearing in the search target image (the object in front of the camera is behind The effect of the phenomenon of shielding the object is reduced.

[実施形態2]
以下、本発明の第2の実施形態の画像検索システムについて、図面を用いて説明する。
[Embodiment 2]
The image search system according to the second embodiment of the present invention will be described below with reference to the drawings.

図8は、第2の実施形態の画像検索システムの構成を示すブロック図である。   FIG. 8 is a block diagram illustrating a configuration of an image search system according to the second embodiment.

第2の実施形態の画像検索システムは、サーバ計算機110、クライアント計算機130、特徴量データベース150、カメラ画像データベース410及びサムネイル画像データベース420を備える。各装置は、通信基盤120によって相互に接続される。   The image search system according to the second embodiment includes a server computer 110, a client computer 130, a feature amount database 150, a camera image database 410, and a thumbnail image database 420. Each device is connected to each other by a communication infrastructure 120.

サーバ計算機110、クライアント計算機130、特徴量データベース150及び通信基盤120は、それぞれ、図1に示した第1の実施形態の画像検索システムが備える同じ符号が付与された装置と同じであるので、説明を簡略化する。   The server computer 110, the client computer 130, the feature amount database 150, and the communication infrastructure 120 are the same as the devices to which the same reference numerals of the image search system of the first embodiment shown in FIG. To simplify.

カメラ画像データベース410は、カメラによって事前に撮影されたカメラ画像(映像データから抽出された静止画)を格納するデータベースである。なお、カメラ画像データベース410は、図1に示した画像データベース140と同様に、図19に示した画像管理情報2000を格納してもよい。この場合、事前に撮影されたカメラ画像(例えば、JPEG画像)は、画像管理情報2000の画像2004に格納される。また、事前に撮影された画像の画像ID、カメラID、及び撮影時刻は、それぞれ、画像管理情報2000の画像ID2001、カメラID2002、撮影時刻2003に格納される。   The camera image database 410 is a database that stores camera images (still images extracted from video data) previously captured by the camera. The camera image database 410 may store the image management information 2000 shown in FIG. 19 in the same manner as the image database 140 shown in FIG. In this case, a camera image (for example, a JPEG image) captured in advance is stored in the image 2004 of the image management information 2000. Further, the image ID, camera ID, and shooting time of an image shot in advance are stored in the image ID 2001, camera ID 2002, and shooting time 2003 of the image management information 2000, respectively.

サムネイル画像データベース420は、カメラ画像のサムネイルを格納するデータベースである。なお、サムネイル画像データベース420は、図1に示した画像データベース140と同様に、図19に示した画像管理情報2000を格納してもよい。ただし、この場合、画像管理情報2000の画像2004には、サムネイル画像、又はサムネイル画像の元のカメラ画像を参照するためのリンク情報が格納される。   The thumbnail image database 420 is a database that stores thumbnails of camera images. The thumbnail image database 420 may store the image management information 2000 shown in FIG. 19 in the same manner as the image database 140 shown in FIG. However, in this case, the image 2004 of the image management information 2000 stores the thumbnail image or link information for referring to the original camera image of the thumbnail image.

なお、画像検索システムは、サムネイル画像を利用しない場合、サムネイル画像データベース420を備えなくてもよい。   Note that the image retrieval system may not include the thumbnail image database 420 when the thumbnail image is not used.

以下に、画像登録処理について説明する。   The image registration process will be described below.

図9は、第2の実施形態の画像登録処理を示すブロック図である。   FIG. 9 is a block diagram illustrating image registration processing according to the second embodiment.

本実施形態の画像検索システムは、画像入力部501、ブロック分割部502、特徴量抽出部204及びカメラ画像データベース410によって、画像登録処理を実行し、検索対象となる画像の情報を特徴量データベース150及びサムネイル画像データベース420に格納する。なお、図8に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、画像入力部501、ブロック分割部502、特徴量抽出部204の処理を実現する。   In the image search system according to the present embodiment, the image input unit 501, the block division unit 502, the feature amount extraction unit 204, and the camera image database 410 execute an image registration process, and information on an image to be searched is stored in the feature amount database 150. And stored in the thumbnail image database 420. Note that the CPU 112 shown in FIG. 8 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded in the memory 113, and executes the read various programs, thereby executing an image input unit. 501, the block division unit 502, and the feature amount extraction unit 204 are realized.

特徴量抽出部204及び特徴量データベース150は、それぞれ、図2に示した第1の実施形態の特徴量抽出部204及び特徴量データベース150と同じである。   The feature quantity extraction unit 204 and the feature quantity database 150 are respectively the same as the feature quantity extraction unit 204 and the feature quantity database 150 of the first embodiment illustrated in FIG.

まず、画像入力部501は、検索対象となる画像を取得する。ここで、検索対象となる画像とは、カメラ画像データベース410に格納されている画像である。   First, the image input unit 501 acquires an image to be searched. Here, the image to be searched is an image stored in the camera image database 410.

次に、ブロック分割部502は、ブロック分割処理を実行する。具体的には、ブロック分割部502は、画像入力部501から出力された画像をブロックに分割し、分割されたブロックのうち、特徴量抽出の対象となるブロックを決定する。ブロック分割部502が実行するブロック分割処理の詳細については、図10を用いて後述する。   Next, the block division unit 502 executes block division processing. Specifically, the block division unit 502 divides the image output from the image input unit 501 into blocks, and determines a block that is a target for feature amount extraction among the divided blocks. Details of the block division processing executed by the block division unit 502 will be described later with reference to FIG.

また、ブロック分割部502は、特徴量抽出の対象に決定されたブロックを含む画像を選択し、選択された画像のサムネイルを作成する。ブロック分割部502は、サムネイル画像データベース420の画像管理情報2000の画像2004に作成されたサムネイル画像を格納する。また、サムネイル画像に元画像へのリンク情報を付与してもよい。   The block dividing unit 502 selects an image including a block determined as a feature amount extraction target, and creates a thumbnail of the selected image. The block division unit 502 stores the thumbnail image created in the image 2004 of the image management information 2000 in the thumbnail image database 420. Further, link information to the original image may be given to the thumbnail image.

また、ブロック分割部502は、サムネイル画像データベース420の画像管理情報2000の各項目に、サムネイル画像の画像ID、カメラID及び撮影時刻を格納する。   Further, the block division unit 502 stores the image ID, camera ID, and shooting time of the thumbnail image in each item of the image management information 2000 of the thumbnail image database 420.

なお、画像検索システムがサムネイル画像データベース420を備えない場合、ブロック分割部502は、例えば、カメラ画像データベース410の画像管理情報2000に格納されている画像のうち、特徴量抽出の対象に決定されたブロックが含まれる画像の画像IDを、特徴量抽出の対象のブロックが含まれていることを示す画像IDに書き換えてもよい。   When the image search system does not include the thumbnail image database 420, the block division unit 502 is determined as a feature amount extraction target among images stored in the image management information 2000 of the camera image database 410, for example. The image ID of the image including the block may be rewritten to an image ID indicating that the target block for feature amount extraction is included.

特徴量抽出部204は、ブロック分割部502によって決定された特徴量抽出の対象のブロックから特徴量を抽出し、抽出された特徴量のID、元画像の画像ID、ブロックの位置情報及び抽出された特徴量(特徴量ベクトル)を、特徴量データベース150の特徴量管理情報2100の各項目に格納する。   The feature quantity extraction unit 204 extracts a feature quantity from the feature quantity extraction target block determined by the block division unit 502, and extracts the extracted feature quantity ID, the original image image ID, the block position information, and the extracted feature quantity. The feature amount (feature amount vector) is stored in each item of the feature amount management information 2100 of the feature amount database 150.

以下に、ブロック分割部502処理の詳細について説明する。   Details of the block division unit 502 process will be described below.

図10は、第2の実施形態のブロック分割処理を示すフローチャートである。   FIG. 10 is a flowchart illustrating block division processing according to the second embodiment.

まず、ブロック分割部502は、画像入力部501から出力された画像を取得する(S301)。次に、ブロック分割部502は、取得した画像を格子状のブロックに分割する(S302)。   First, the block dividing unit 502 acquires the image output from the image input unit 501 (S301). Next, the block dividing unit 502 divides the acquired image into lattice blocks (S302).

なお、ブロック分割部203は、取得した画像に映っている人物又は物体の大きさに応じて、ブロックの大きさ、又は分割数を変更してもよい。また、ブロックの大きさは、すべて同じでもよいし、画像の領域によって変更されてもよい。例えば、画像の上部、すなわち、撮影範囲の奥方向のブロックを画像の下部と比べて小さくしてもよい。また、静止画の上部には小さい物体しか映っていないことが多いので、画像の上部を特徴量抽出の対象としなくてもよい。   The block dividing unit 203 may change the size of the block or the number of divisions according to the size of the person or object shown in the acquired image. The block sizes may all be the same, or may be changed depending on the area of the image. For example, the upper part of the image, that is, the block in the depth direction of the shooting range may be made smaller than the lower part of the image. Further, since only a small object is often shown on the upper part of the still image, the upper part of the image does not have to be a target for feature amount extraction.

次に、ブロック分割部502は、分割された各ブロックの色ヒストグラムを計算する(S303)。具体的には、まず、RGBの値を複数の値域に分割する。例えば、RGBの各値が0から255の間の範囲にある場合、この範囲を0から63、64から127、128から191、192から255、の4段階に区分する。一の段階に含まれる画素値を同じ値とみなすと、RGBの組合わせは、全部で、4×4×4=64通りになる。なお、ブロック分割部502は、RGBのそれぞれを同じ段階に区分しなくてもよい。例えば、人間の視覚特性に合わせて、Rを12段階、Gを21段階、Bを6段階に区分することによって、分解能に差をつけてもよい。   Next, the block dividing unit 502 calculates a color histogram of each divided block (S303). Specifically, first, RGB values are divided into a plurality of value ranges. For example, when each value of RGB is in a range between 0 and 255, this range is divided into four stages of 0 to 63, 64 to 127, 128 to 191, and 192 to 255. If the pixel values included in one stage are regarded as the same value, there are a total of 4 × 4 × 4 = 64 combinations of RGB. The block dividing unit 502 does not have to divide each of RGB into the same stage. For example, the resolution may be differentiated by dividing R into 12 levels, G as 21 levels, and B as 6 levels according to human visual characteristics.

次に、ブロック分割部502は、分割された各ブロックに含まれる各画素毎にRGBの値を計算し、計算された各画素のRGBの値が、どの組合わせ(例えば、64通りの組合せ)に該当する判定する。そして、各組合せに該当する画素の合計を計算する。これによって、対象ブロックの色ヒストグラムが作成される。   Next, the block dividing unit 502 calculates an RGB value for each pixel included in each divided block, and the combination of the calculated RGB values of each pixel (for example, 64 combinations). Judged to fall under. Then, the total number of pixels corresponding to each combination is calculated. As a result, a color histogram of the target block is created.

次に、ブロック分割部502は、ステップS302と同様に、事前に用意された背景画像を格子状のブロックに分割する。そして、ステップS303と同様に、背景画像の各ブロックの色ヒストグラムを計算する。そして、ブロック分割部502は、取得した画像と背景画像とを比較し、対応する各ブロック毎に、それぞれの色ヒストグラムの差分を計算する(S304)。この場合、例えば、ユークリッド距離を用いて、各色ヒストグラムの差分を計算してもよい。   Next, the block dividing unit 502 divides the background image prepared in advance into grid-like blocks, similarly to step S302. Then, similarly to step S303, a color histogram of each block of the background image is calculated. Then, the block dividing unit 502 compares the acquired image with the background image, and calculates the difference between the color histograms for each corresponding block (S304). In this case, for example, the difference between the color histograms may be calculated using the Euclidean distance.

最後に、ブロック分割部502は、特徴量を抽出する対象となるブロックを決定する(S305)。ここで、例えば、ブロック分割部502は、ブロックの差分値が所定の閾値を越える場合、そのブロックを特徴量抽出の対象としてもよい。また、差分値の大きさの順にソートされた各ブロックのうち、差分値が大きいブロックを所定の数だけ選択し、選択されたブロックを特徴量抽出の対象としてもよい。   Finally, the block division unit 502 determines a block from which a feature amount is to be extracted (S305). Here, for example, when the difference value of a block exceeds a predetermined threshold, the block dividing unit 502 may set the block as a feature amount extraction target. In addition, a predetermined number of blocks having a large difference value may be selected from the blocks sorted in order of the difference value, and the selected block may be a target for feature amount extraction.

以下に、人物又は物体の検索処理について説明する。   Hereinafter, a search process for a person or an object will be described.

図11は、第2の実施形態の検索処理を示すブロック図である。   FIG. 11 is a block diagram illustrating search processing according to the second embodiment.

第2の実施形態の画像検索システムは、画像取得部601、画像表示部602、ブロック選択部304、検索部603、検索結果統合部306、検索結果表示部307、特徴量データベース150及びサムネイル画像データベース420によって、検索処理を実行する。   The image search system according to the second embodiment includes an image acquisition unit 601, an image display unit 602, a block selection unit 304, a search unit 603, a search result integration unit 306, a search result display unit 307, a feature amount database 150, and a thumbnail image database. By 420, a search process is executed.

なお、図8に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、画像取得部601、画像表示部602、ブロック選択部304、検索部603、検索結果統合部306及び検索結果表示部307の処理を実現する。   Note that the CPU 112 illustrated in FIG. 8 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded into the memory 113, and executes the read various programs, thereby obtaining an image acquisition unit. 601, an image display unit 602, a block selection unit 304, a search unit 603, a search result integration unit 306, and a search result display unit 307 are realized.

特徴量データベース150、ブロック選択部304、検索結果統合部306及び検索結果表示部307は、図5に示した同一の符号が付けられた各処理部と同じであるので、説明を簡略化する。   The feature quantity database 150, the block selection unit 304, the search result integration unit 306, and the search result display unit 307 are the same as the processing units with the same reference numerals shown in FIG.

なお、画像検索システムがサムネイル画像データベース420を備えない場合、画像検索システムは、サムネイル画像データベース420の代わりに、カメラ画像データベース410を用いて検索処理を実行する。   Note that when the image search system does not include the thumbnail image database 420, the image search system executes a search process using the camera image database 410 instead of the thumbnail image database 420.

まず、画像取得部601は、サムネイル画像データベース420から、ユーザによって選択された、検索キーとなる人物又は物体が含まれた画像を取得する。サムネイル画像データベース420には、既に画像登録処理が終了しており、検索キーの対象となる画像が格納されている。   First, the image acquisition unit 601 acquires, from the thumbnail image database 420, an image that includes a person or an object selected as a search key by the user. In the thumbnail image database 420, the image registration process has already been completed, and an image to be searched is stored.

この場合、画像検索システムは、カメラ番号(カメラID)、画像の撮影時刻などを参照することによって、ユーザが検索キーとなるブロックを含む画像を選択することができるインタフェース画面を、クライアント計算機130のディスプレイに表示してもよい。画像取得部601は、ユーザがマウス又はキーボードなとの入力装置を操作することによってインタフェース画面から選択した検索キーとなるブロックを含む画像を取得する。   In this case, the image search system displays an interface screen on which the user can select an image including a block as a search key by referring to the camera number (camera ID), the image shooting time, and the like. You may display on a display. The image acquisition unit 601 acquires an image including a block serving as a search key selected from the interface screen when the user operates an input device such as a mouse or a keyboard.

画像表示部602は、画像取得部601から出力された、検索キーとなるブロックを含む画像を、クライアント計算機130のディスプレイに表示する。この場合、画像表示部602は、特徴量データベース150の特徴量管理情報2100から画像のブロックの位置情報を取得し、取得した画像とブロックの位置情報とを合わせて表示する。   The image display unit 602 displays on the display of the client computer 130 the image that is output from the image acquisition unit 601 and includes a block that serves as a search key. In this case, the image display unit 602 acquires image block position information from the feature amount management information 2100 of the feature amount database 150, and displays the acquired image and block position information together.

画像表示部602は、図6の(A)に示したように、取得した画像に含まれる検索キー候補の各ブロックを矩形で表示してもよいし、また、取得した画像の横に検索キー候補の各ブロックを並べて表示してもよい。   As shown in FIG. 6A, the image display unit 602 may display each block of search key candidates included in the acquired image in a rectangle, and the search key beside the acquired image. The candidate blocks may be displayed side by side.

次に、ブロック選択部304は、図5に示したブロック選択部304と同じ処理によって、検索キー(後述する図12の検索処理における第1の検索キー)となるブロックを選択する。   Next, the block selection unit 304 selects a block to be a search key (first search key in the search process of FIG. 12 described later) by the same processing as the block selection unit 304 shown in FIG.

次に、検索部603は、特徴量データベース150の画像管理情報2000から、選択された検索キーのブロックの特徴量と類似した特徴量を持つブロックを検索する。検索部603の処理の詳細については図12を用いて後述する。   Next, the search unit 603 searches the image management information 2000 of the feature amount database 150 for a block having a feature amount similar to the feature amount of the block of the selected search key. Details of the processing of the search unit 603 will be described later with reference to FIG.

次に、検索結果統合部306は、検索部603から出力された検索結果を取得し、図7に示した検索結果統合処理によって、取得した検索結果を統合する。   Next, the search result integration unit 306 acquires the search results output from the search unit 603, and integrates the acquired search results by the search result integration process illustrated in FIG.

次に、検索結果表示部307は、図5に示した検索結果表示部307と同じ処理によって、検索結果統合部306が作成した検索結果表示リストに含まれる画像IDを持つ画像を、クライアント計算機130のディスプレイに表示する。   Next, the search result display unit 307 performs the same processing as the search result display unit 307 illustrated in FIG. 5 to display an image having an image ID included in the search result display list created by the search result integration unit 306 as the client computer 130. On the display.

以下に、検索部603が実行する検索処理の詳細について説明する。   Details of the search processing executed by the search unit 603 will be described below.

図12は、第2の実施形態の検索処理を示すフローチャートである。   FIG. 12 is a flowchart illustrating search processing according to the second embodiment.

まず、検索部603は、ブロック選択部304によって選択された第1の検索キーのブロックを含む画像のカメラID及び撮影時刻を、サムネイル画像データベース420の画像管理情報2000から取得する(S401)。   First, the search unit 603 acquires the camera ID and shooting time of the image including the block of the first search key selected by the block selection unit 304 from the image management information 2000 of the thumbnail image database 420 (S401).

次に、検索部603は、選択された第1の検索キーのブロックを含む画像の前後フレームの画像のブロックのうち、選択された第1の検索キーのブロックに類似したM件の第2の検索キーのブロックを取得する(S402)。   Next, the search unit 603 selects M second blocks similar to the selected first search key block among the image blocks of the previous and subsequent frames of the image including the selected first search key block. A search key block is acquired (S402).

ここで、まず、検索部603は、取得したカメラIDによって撮影された画像から、取得した撮影時刻の前後t秒(例えば、10秒程度)の範囲で撮影された画像を抽出し、抽出された前後の画像に含まれる各ブロック(各ブロック位置の情報)を取得する。   Here, first, the search unit 603 extracts and extracts an image shot in a range of t seconds before and after the acquired shooting time (for example, about 10 seconds) from the image shot with the acquired camera ID. Each block (information on each block position) included in the preceding and following images is acquired.

次に、検索部603は、特徴量データベース150の画像管理情報2000を参照し、第1の検索キーのブロックの特徴量と、取得した前後の画像に含まれるブロックの特徴量との間の類似度を計算する。そして、第1の検索キーのブロックとの類似度が大きいM件のブロックを取得する。   Next, the search unit 603 refers to the image management information 2000 of the feature amount database 150, and resembles the feature amount of the block of the first search key and the feature amount of the block included in the acquired images before and after. Calculate the degree. Then, M blocks having a high similarity with the block of the first search key are acquired.

なお、ここでは、類似度を計算するために、各特徴量ベクトルの間のユークリッド距離を用いたが、ユークリッド距離のほか、例えば、マンハッタン距離などを用いてもよい。また、検索部603は、計算された類似度が所定の閾値を超えた場合、そのブロックを取得してもよい。   Here, in order to calculate the similarity, the Euclidean distance between the feature vectors is used. However, in addition to the Euclidean distance, for example, a Manhattan distance may be used. Moreover, the search part 603 may acquire the block, when the calculated similarity exceeds a predetermined threshold value.

次に、検索部603は、取得したブロックの数MがM>0を満たすか否かを判定する(S403)。   Next, the search unit 603 determines whether or not the acquired number M of blocks satisfies M> 0 (S403).

ステップS403において、検索結果件数MがM>0を満たさないと判定された場合、すなわち、選択された第1の検索キーのブロックの撮影時刻の前後t秒に他の画像がない場合、又は、第1の検索キーのブロックと前後の画像に含まれるブロックとの間の類似度が所定の閾値以下であった場合、検索部603は、選択された第1の検索キーを用いて、特徴量管理情報2100のすべてのブロックを検索する。そして、検索部603は、第1の検索キーのブロックとの類似度が大きいN件のブロックを取得する(S406)。ステップS406の処理は、図21に示したステップS601からS603の検索処理と同じである。   If it is determined in step S403 that the search result number M does not satisfy M> 0, that is, if there is no other image at t seconds before and after the shooting time of the block of the selected first search key, or When the similarity between the block of the first search key and the blocks included in the preceding and following images is equal to or less than a predetermined threshold, the search unit 603 uses the selected first search key to calculate the feature amount. All blocks of the management information 2100 are searched. Then, the search unit 603 acquires N blocks having a high similarity with the block of the first search key (S406). The process of step S406 is the same as the search process of steps S601 to S603 shown in FIG.

一方、ステップS403において、検索結果件数MがM>0を満たすと判定された場合、検索部603は、取得したブロックを第2の検索キーに設定し、第1の検索キー及び第2の検索キーを用いて、特徴量管理情報2100のすべてのブロックを検索する(S404)。   On the other hand, if it is determined in step S403 that the number M of search results satisfies M> 0, the search unit 603 sets the acquired block as the second search key, and sets the first search key and the second search key. Using the key, all blocks of the feature amount management information 2100 are searched (S404).

そして、検索部603は、第1の検索キーのブロックとの類似度が大きい所定の数の第1のブロックを取得する。また、第2の検索キーのブロックとの類似度が大きい所定の数の第2のブロックを取得する。取得した第1のブロックの数及び第2のブロックの数は、例えば、合わせてN件になるように設定されてもよい。ステップS404の処理は、図21に示したステップS601からS603の検索処理と同じである。   Then, the search unit 603 acquires a predetermined number of first blocks having a high degree of similarity with the block of the first search key. Also, a predetermined number of second blocks having a high degree of similarity with the second search key block are acquired. The number of acquired first blocks and the number of second blocks may be set to be N in total, for example. The process of step S404 is the same as the search process of steps S601 to S603 shown in FIG.

ただし、ステップS404の処理によって取得された検索結果(第2のブロック)は、複数の第2の検索キーを用いて検索されたので、重複することがある。このため、重複した第2のブロックを統合する(S405)。この場合、複数の第2の検索キーのブロックと第2のブロックとの間の類似度を再設定しなければならない。   However, since the search result (second block) acquired by the process of step S404 is searched using a plurality of second search keys, it may overlap. For this reason, the duplicated second blocks are integrated (S405). In this case, the similarity between the plurality of second search key blocks and the second block must be reset.

ここでは、複数の第2のブロックのうち、第2の検索キーとの類似度が最も大きい第2のブロックを選択し、その類似度を第2のブロックに対応する類似度に設定する。なお、複数の第2のブロックに対応する各類似度の平均値を計算し、計算された類似度をその第2ブロックの類似度に設定してもよい。また、選択された第1の検索キーのブロックを用いて検索された第1のブロックと第2の検索キーのブロックを用いて検索された第2のブロックとが重複した場合、第1のブロックに対応する類似度を、統合されたブロックに対応する類似度に設定してもよい。   Here, the second block having the highest similarity with the second search key is selected from the plurality of second blocks, and the similarity is set to the similarity corresponding to the second block. Note that an average value of each degree of similarity corresponding to a plurality of second blocks may be calculated, and the calculated degree of similarity may be set as the degree of similarity of the second block. If the first block searched using the selected first search key block and the second block searched using the second search key block overlap, the first block May be set to a similarity corresponding to an integrated block.

次に、検索結果統合部306は、ステップS405又はS406によって取得された検索結果を統合する。検索結果統合処理は、図7に示した検索結果統合処理と同じである。   Next, the search result integration unit 306 integrates the search results acquired in step S405 or S406. The search result integration process is the same as the search result integration process shown in FIG.

最後に、検索結果表示部307は、クライアント計算機130のディスプレイに、検索結果統合部306によって作成された検索結果表示リストに含まれる画像IDを持つ画像を表示する。   Finally, the search result display unit 307 displays an image having an image ID included in the search result display list created by the search result integration unit 306 on the display of the client computer 130.

以上説明したとおり、第2の実施形態の画像検索システムによると、第1の実施形態の効果に加え、特徴量が少しずつ異なる検索キーを用いて検索処理を実行するので、多様な検索結果を得ることができ、検索精度を向上させることができる。   As described above, according to the image search system of the second embodiment, in addition to the effects of the first embodiment, the search process is executed using a search key having slightly different feature amounts. And the search accuracy can be improved.

[実施形態3]
以下、本発明の第3の実施形態の画像検索システムについて、図面を用いて説明する。
[Embodiment 3]
The image search system according to the third embodiment of the present invention will be described below with reference to the drawings.

本実施形態の画像検索システムの構成、及び画像データ登録処理は、第1の実施形態又は第2の実施形態と同じであるので、説明を省略する。以下に、本実施形態の検索処理について説明する。   Since the configuration of the image search system and the image data registration process of the present embodiment are the same as those in the first embodiment or the second embodiment, description thereof will be omitted. Below, the search process of this embodiment is demonstrated.

図13は、第3の実施形態の検索処理を示すブロック図である。   FIG. 13 is a block diagram illustrating search processing according to the third embodiment.

本実施形態の画像検索システムは、画像取得部701、画像表示部702、ブロック選択部703、検索部704、検索結果統合部705、検索結果表示部706、画像データベース710、及び特徴量データベース150によって、検索処理を実行する。   The image search system of this embodiment includes an image acquisition unit 701, an image display unit 702, a block selection unit 703, a search unit 704, a search result integration unit 705, a search result display unit 706, an image database 710, and a feature amount database 150. Execute the search process.

なお、図1又は図8に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、各処理部の処理を実現する。   The CPU 112 shown in FIG. 1 or FIG. 8 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded in the memory 113, and executes the read various programs. The processing of each processing unit is realized.

また、特徴量データベース150は、図1に示した特徴量データベース150と同じである。また、本実施形態の画像検索システムが第1の実施形態の画像検索システムの構成と同じである場合、画像データベース710は、図1に示した画像データベース140と同じである。また、本実施形態の画像検索システムが第2の実施形態の画像検索システムの構成と同じである場合、画像データベース710は、サムネイル画像データベース420と同じである。   The feature amount database 150 is the same as the feature amount database 150 shown in FIG. When the image search system of the present embodiment is the same as the configuration of the image search system of the first embodiment, the image database 710 is the same as the image database 140 shown in FIG. Further, when the image search system of the present embodiment is the same as the configuration of the image search system of the second embodiment, the image database 710 is the same as the thumbnail image database 420.

まず、画像取得部701は、ユーザによって選択された、検索キーとなる人物又は物体が含まれる画像を画像データベース710から取得する。ここで、画像データベース710には、既に画像登録処理が終了しており、検索キーの対象となる画像が格納されている。   First, the image acquisition unit 701 acquires, from the image database 710, an image including a person or object that is selected by the user and serves as a search key. Here, the image database 710 has already completed the image registration process, and stores an image that is the target of the search key.

この場合、画像検索システムは、カメラ番号(カメラID)、画像の撮影時刻などを参照することによって、ユーザが検索キーとなるブロックを含む画像を選択することができるインタフェース画面を、クライアント計算機130のディスプレイに表示してもよい。画像取得部701は、ユーザがマウス又はキーボードなとの入力装置を操作することによってインタフェース画面から選択した画像を取得する。   In this case, the image search system displays an interface screen on which the user can select an image including a block as a search key by referring to the camera number (camera ID), the image shooting time, and the like. You may display on a display. The image acquisition unit 701 acquires an image selected from the interface screen by the user operating an input device such as a mouse or a keyboard.

次に、画像表示部702は、取得した画像を、クライアント計算機130のディスプレイに表示する。この場合、画像表示部702は、特徴量データベース150の特徴量管理情報2100からブロック位置の情報を取得し、取得したブロック位置の情報と取得した画像とを表示する。例えば、画像表示部702は、図6の(A)に示したように、取得した画像に含まれる各ブロックを矩形で表示してもよい。   Next, the image display unit 702 displays the acquired image on the display of the client computer 130. In this case, the image display unit 702 acquires block position information from the feature amount management information 2100 of the feature amount database 150, and displays the acquired block position information and the acquired image. For example, the image display unit 702 may display each block included in the acquired image as a rectangle as illustrated in FIG.

次に、ブロック選択部703は、ユーザによって選択された検索キーとなるブロックを取得する。本実施形態では、ブロック選択部703は、ユーザによって選択された複数のブロックを取得することができる。なお、ユーザは、クライアント計算機130のディスプレイに表示された画像に含まれる各ブロックから、マウスなどの入力装置を用いて検索キーとなる複数のブロックを選択することができる。   Next, the block selection unit 703 acquires a block serving as a search key selected by the user. In the present embodiment, the block selection unit 703 can acquire a plurality of blocks selected by the user. Note that the user can select a plurality of blocks serving as search keys from each block included in the image displayed on the display of the client computer 130 using an input device such as a mouse.

なお、画像検索システムは、選択されたすべての検索キーに対応する検索結果を取得するか、又は、選択された複数の検索キーのうちのいずれかの検索キーに対応する検索結果を取得するかをユーザが指定するためのインタフェース画面を表示してもよい。   Whether the image search system acquires search results corresponding to all selected search keys, or acquires a search result corresponding to any one of a plurality of selected search keys. An interface screen for designating the user may be displayed.

図14は、第3の実施形態の複数ブロック選択時に表示される画像を示す説明図である。   FIG. 14 is an explanatory diagram illustrating an image displayed when a plurality of blocks are selected according to the third embodiment.

図14では、ユーザによって選択された検索キーとなるブロック801及び802が示される。なお、画像表示部602は、選択されたブロックを明示するために、該ブロックを囲む各矩形を着色してもよい。また、各ブロックを囲む矩形を異なる色で着色してもよい。   FIG. 14 shows blocks 801 and 802 that are search keys selected by the user. Note that the image display unit 602 may color each rectangle surrounding the block in order to clearly indicate the selected block. Further, the rectangles surrounding each block may be colored with different colors.

図13の検索処理の説明に戻る。   Returning to the description of the search process in FIG.

次に、検索部704は、選択された検索キーのブロックと類似した特徴量を持つブロックを特徴量データベース150から検索する。ブロック選択部703によって複数のブロックが選択された場合、検索部704は、選択された検索キーのブロックの数だけ検索処理を繰り返す。   Next, the search unit 704 searches the feature amount database 150 for a block having a feature amount similar to the block of the selected search key. When a plurality of blocks are selected by the block selection unit 703, the search unit 704 repeats the search process by the number of blocks of the selected search key.

次に、検索結果統合部705は、検索部704から出力された検索結果を取得し、取得した検索結果を統合する。検索結果統合部705の処理の詳細については図15を用いて後述する。   Next, the search result integration unit 705 acquires the search results output from the search unit 704 and integrates the acquired search results. Details of the processing of the search result integration unit 705 will be described later with reference to FIG.

次に、検索結果表示部706は、検索結果統合部705によって作成された検索結果表示リストに含まれる画像IDを持つ画像を、クライアント計算機130のディスプレイに表示する。この場合、検索結果表示部706は、画像のみを表示してもよいし、画像中の矩形で囲まれた検索結果ブロックを表示してもよい。また、検索結果表示部706は、検索結果ブロックを矩形で囲む場合、検索結果のブロックがどの検索キーのブロックに対応するかを示すため、各検索キーのブロックに対応する検索結果のブロックを異なる色で着色してもよい。   Next, the search result display unit 706 displays an image having an image ID included in the search result display list created by the search result integration unit 705 on the display of the client computer 130. In this case, the search result display unit 706 may display only an image, or may display a search result block surrounded by a rectangle in the image. When the search result display unit 706 surrounds the search result block with a rectangle, the search result block 706 indicates which search key block the search result block corresponds to. Therefore, the search result block corresponding to each search key block is different. You may color.

以下に、検索結果統合部705の処理の詳細について説明する。   Details of the processing of the search result integration unit 705 will be described below.

図15は、第3の実施形態の検索結果統合処理を示すフローチャートである。   FIG. 15 is a flowchart illustrating search result integration processing according to the third embodiment.

まず、検索結果統合部705は、検索結果表示リストの内容を初期化し、カウンタiを0にする(S501)。   First, the search result integration unit 705 initializes the contents of the search result display list and sets the counter i to 0 (S501).

次に、検索結果統合部705は、選択されたL件の検索キーのうちのi番目の検索キーを用いて検索部704が取得したNi件の検索結果を取得する。さらに、検索結果統合部705は、カウンタjを0にし、i番目の検索キーに対応する検索結果リスト(検索キー別検索結果リスト)を初期化する(S502)。ここで、検索キー別検索結果表示リストとは、検索キー毎の検索結果のブロックを含む画像の画像IDとその画像に設定された類似度とが対応付けられたリストである。なお、検索キーの件数と同じL件の検索キー別検索結果リストが作成される。   Next, the search result integration unit 705 acquires the Ni search results acquired by the search unit 704 using the i-th search key of the selected L search keys. Further, the search result integration unit 705 sets the counter j to 0 and initializes the search result list (search result list by search key) corresponding to the i-th search key (S502). Here, the search result display list for each search key is a list in which the image ID of the image including the search result block for each search key is associated with the similarity set for the image. Note that a search result list by search key L that is the same as the number of search keys is created.

次に、検索結果統合部705は、取得したNi件の検索結果のうち、類似度がj番目のブロックを含む画像の画像IDを、特徴量データベース150の特徴量管理情報2100から取得する(S503)。この画像IDは、画像データ登録時に抽出された特徴量と合わせて特徴量データベース150の特徴量管理情報2100に格納された画像IDである。   Next, the search result integration unit 705 acquires, from the feature amount management information 2100 of the feature amount database 150, the image ID of an image including the j-th block having a similarity degree among the acquired Ni search results (S503). ). This image ID is an image ID stored in the feature amount management information 2100 of the feature amount database 150 together with the feature amount extracted at the time of image data registration.

次に、検索結果統合部705は、取得した画像IDが検索キー別検索結果リストに含まれるか否かを判定する(S504)。ステップS504において、取得した画像IDが検索キー別検索結果リストに含まれないと判定された場合、検索結果統合部705は、検索キー別検索結果リストに、取得した画像IDとその画像IDを持つ画像に対応する類似度とを追加する(S505)。一方、ステップS504において、取得した画像IDが検索キー別検索結果リストに含まれると判定された場合、検索結果統合部705は、検索キー別検索結果リストに、取得した画像IDを追加せず、ステップS506に移る。   Next, the search result integration unit 705 determines whether or not the acquired image ID is included in the search result list by search key (S504). If it is determined in step S504 that the acquired image ID is not included in the search result list by search key, the search result integration unit 705 has the acquired image ID and the image ID in the search result list by search key. The similarity corresponding to the image is added (S505). On the other hand, if it is determined in step S504 that the acquired image ID is included in the search result list by search key, the search result integration unit 705 does not add the acquired image ID to the search result list by search key, The process moves to step S506.

次に、検索結果統合部705は、取得したNi件のすべての検索結果を処理したか否かを判定する(S506)。ステップS506において、すべての検索結果が処理されていないと判定された場合、すなわち、カウンタjが検索結果数Ni未満である場合、検索結果統合部705は、カウンタjに1を追加し(S507)、ステップS503以降の処理を繰り返す。一方、ステップS506において、すべての検索結果が処理されたと判定された場合、すなわち、カウンタjが検索結果数Ni以上である場合、検索結果統合部705は、i番目の検索キーを用いて取得されたすべての検索結果を処理したので、ステップS508に移る。   Next, the search result integration unit 705 determines whether or not all the acquired Ni search results have been processed (S506). If it is determined in step S506 that all search results have not been processed, that is, if the counter j is less than the number of search results Ni, the search result integration unit 705 adds 1 to the counter j (S507). The processes after step S503 are repeated. On the other hand, if it is determined in step S506 that all search results have been processed, that is, if the counter j is greater than or equal to the number of search results Ni, the search result integration unit 705 is acquired using the i-th search key. Since all the search results have been processed, the process proceeds to step S508.

次に、検索結果統合部705は、ブロック選択部703が選択されたL件の検索キーを用いて取得したすべての検索結果を処理したかどうかを判定する(S508)。ステップS508において、すべての検索結果を処理していないと判定された場合、すなわち、カウンタiが選択した検索キー数L未満である場合、検索結果統合部705は、カウンタiに1を追加し(S509)、ステップS502以降の処理を繰り返す。   Next, the search result integration unit 705 determines whether all search results acquired using the L search keys selected by the block selection unit 703 have been processed (S508). If it is determined in step S508 that all search results have not been processed, that is, if the counter i is less than the selected search key number L, the search result integration unit 705 adds 1 to the counter i ( (S509), the processing after step S502 is repeated.

一方、ステップS508において、すべての検索結果を処理したと判定された場合、すなわち、カウンタiが検索キー数L以上である場合、検索結果統合部705は、すべての検索結果を処理したので、ステップS510に移る。   On the other hand, if it is determined in step S508 that all the search results have been processed, that is, if the counter i is greater than or equal to the number of search keys L, the search result integration unit 705 has processed all the search results. The process moves to S510.

検索結果統合部705は、ステップS501からS509の処理によって得られた検索キー別検索結果リストのいずれにも含まれる画像IDを検索結果表示リストに追加する(S510)。これによって、検索結果表示部706は、選択されたL件の検索キーのそれぞれに対応するすべての検索結果のブロックを含む画像を表示する。   The search result integration unit 705 adds the image IDs included in any search key-specific search result list obtained by the processing of steps S501 to S509 to the search result display list (S510). As a result, the search result display unit 706 displays an image including all search result blocks corresponding to each of the L selected search keys.

この場合、その画像IDを持つ画像に対応する類似度は、各検索キー別検索結果リスト毎に異なるので、検索結果統合部705は、検索結果表示リストに追加されるその画像IDの画像には、最も大きい類似度を設定する。なお、検索結果表示リストに追加されるその画像IDの画像に、類似度の平均値を設定してもよい。   In this case, since the similarity corresponding to the image having the image ID is different for each search result list for each search key, the search result integration unit 705 includes the image with the image ID added to the search result display list. Set the highest similarity. Note that an average value of similarities may be set for the image with the image ID added to the search result display list.

なお、ステップS510において、検索結果統合部705は、各検索キー別検索結果リストのいずれかに少なくとも一つ含まれる画像IDを検索結果表示リストに追加してもよい。この場合、検索結果表示部706は、選択されたL件の検索キーのうちのいずれか一つの検索キーに対応する検索結果を含む画像を表示する。   In step S510, the search result integration unit 705 may add at least one image ID included in any search result list for each search key to the search result display list. In this case, the search result display unit 706 displays an image including a search result corresponding to any one of the selected L search keys.

なお、検索結果統合部705は、ステップS510の処理のために、各検索キーに対応する検索結果のブロックの位置関係を利用してもよい。具体的には、検索結果統合部705は、画像に含まれる各検索キーブロックの相対的な位置関係を記憶し、記憶された各検索キーブロックの相対的な位置と各検索結果のブロックの相対的な位置とを比較する。そして、それぞれの相対的な位置が一致する場合、その検索結果を含む画像の画像IDを検索結果表示リストに追加する。   Note that the search result integration unit 705 may use the positional relationship of the search result blocks corresponding to each search key for the processing of step S510. Specifically, the search result integration unit 705 stores the relative positional relationship of each search key block included in the image, and the relative position of each stored search key block and the relative relationship between each search result block. Compare with a specific position. If the relative positions of the images match, the image ID of the image including the search result is added to the search result display list.

最後に、検索結果統合部705は、検索結果表示リストに含まれる画像IDを類似度の大きさに従ってソートした後、処理を終了する(S511)。   Finally, the search result integration unit 705 sorts the image IDs included in the search result display list according to the degree of similarity, and ends the process (S511).

以上説明したように、第3の実施形態の画像検索システムによると、第1及び第2の実施形態の効果に加え、複数の検索キーを用いるので、複数の特徴を持つ人物及び物体を検索することができる。   As described above, according to the image search system of the third embodiment, in addition to the effects of the first and second embodiments, a plurality of search keys are used, so that a person and an object having a plurality of features are searched. be able to.

[実施形態4]
以下に、本発明の第4の実施形態の画像検索システムについて、図面を用いて説明する。本実施形態の追跡マップ表示部904は、人物及び物体の移動順序を地図上に表示する。
[Embodiment 4]
The image search system according to the fourth embodiment of the present invention will be described below with reference to the drawings. The tracking map display unit 904 of the present embodiment displays the movement order of people and objects on the map.

本実施形態の画像検索システムの構成及び画像データ登録処理は、それぞれ、第1又は第2の実施形態の画像検索システムの構成及び画像データ登録処理と同じである。   The configuration of the image search system and the image data registration process of the present embodiment are the same as the configuration of the image search system and the image data registration process of the first or second embodiment, respectively.

図16は、第4の実施形態の検索処理を示すブロック図である。   FIG. 16 is a block diagram illustrating search processing according to the fourth embodiment.

本実施形態の画像検索システムは、画像取得部701、画像表示部602、検索キー領域指定部901、検索部902、検索結果統合部903、追跡マップ表示部904、画像データベース710、及び特徴量データベース150によって、検索処理を実行する。なお、図1又は図8に示したCPU112は、HD114に格納された各種プログラムをメモリ113にロードし、メモリ113にロードされた各種プログラムを読み出し、読み出された各種プログラムを実行することによって、各処理部の処理を実現する。   The image search system of the present embodiment includes an image acquisition unit 701, an image display unit 602, a search key area designation unit 901, a search unit 902, a search result integration unit 903, a tracking map display unit 904, an image database 710, and a feature amount database. The search process is executed by 150. The CPU 112 shown in FIG. 1 or FIG. 8 loads various programs stored in the HD 114 into the memory 113, reads the various programs loaded in the memory 113, and executes the read various programs. The processing of each processing unit is realized.

なお、特徴量データベース150は、図1に示した特徴量データベース150と同じである。また、画像取得部701は、図13に示した画像取得部701と同じである。画像データベース710は、図13に示した画像データベース710と同じである。画像表示部602は、図11に示した画像表示部602と同じである。   The feature quantity database 150 is the same as the feature quantity database 150 shown in FIG. The image acquisition unit 701 is the same as the image acquisition unit 701 illustrated in FIG. The image database 710 is the same as the image database 710 shown in FIG. The image display unit 602 is the same as the image display unit 602 shown in FIG.

まず、画像取得部701は、ユーザによって選択された、検索キーとなる人物又は物体が含まれた画像を取得する。   First, the image acquisition unit 701 acquires an image including a person or an object selected by the user and serving as a search key.

次に、画像表示部602は、取得した画像を、クライアント計算機130のディスプレイに表示する。   Next, the image display unit 602 displays the acquired image on the display of the client computer 130.

次に、検索キー領域指定部901は、ユーザによって指定された、検索キーとなる領域を取得する。ユーザは、マウスなどの入力装置を操作することによって、画像表示部602によって表示された画像のうち、検索キーとなる領域を指定する。   Next, the search key area specifying unit 901 acquires an area that is specified by the user and serves as a search key. The user operates an input device such as a mouse to specify an area to be a search key in the image displayed by the image display unit 602.

図17は、第4の実施形態の検索キー領域指定時に表示される画像を示す説明図である。   FIG. 17 is an explanatory diagram illustrating an image displayed when a search key area is designated according to the fourth embodiment.

図17では、ユーザによって指定された、検索キーとなる任意の形状の領域1001が示される。   FIG. 17 shows a region 1001 having an arbitrary shape which is designated by the user and serves as a search key.

次に、検索キー領域指定部901は、特徴量抽出部204が実行する処理と同様に、指定された領域から特徴量を抽出する。ただし、指定された領域の大きさに応じて、抽出された特徴量の値を正規化する。   Next, the search key area designating unit 901 extracts a feature quantity from the designated area in the same manner as the process executed by the feature quantity extracting unit 204. However, the extracted feature value is normalized according to the size of the designated area.

次に、検索部902は、特徴量データベース150の特徴量管理情報2100から、指定された領域の特徴量と各エントリの特徴量との間の類似度を計算し、指定された領域との類似度が大きいブロックを検索結果として取得する。ここで、検索部902は、指定された領域の特徴量と各ブロックの特徴量との間の類似度を、ユークリッド距離を用いて計算する。   Next, the search unit 902 calculates the similarity between the feature quantity of the designated area and the feature quantity of each entry from the feature quantity management information 2100 of the feature quantity database 150, and the similarity with the designated area. A block with a high degree is acquired as a search result. Here, the search unit 902 calculates the similarity between the feature amount of the designated area and the feature amount of each block using the Euclidean distance.

次に、検索結果統合部903は、検索結果のブロックをカメラID別にグループ化する。以下に、検索結果統合処理の詳細について説明する。   Next, the search result integration unit 903 groups the search result blocks by camera ID. Details of the search result integration process will be described below.

図22は、第4の実施形態の検索結果統合処理を示すフローチャートである。   FIG. 22 is a flowchart illustrating search result integration processing according to the fourth embodiment.

まず、検索結果統合部903は、検索部902から出力された検索結果を取得し、カウンタiを0に初期化する(S701)。次に、検索結果統合部903は、特徴量データベース150の特徴量管理情報2100から、類似度がi番目となる検索結果のブロックを含む画像の画像IDを取得する。次に、検索結果統合部903は、画像データベース710の画像管理情報2000から、取得した画像IDに対応するカメラIDを取得する(S702)。   First, the search result integration unit 903 acquires the search result output from the search unit 902, and initializes the counter i to 0 (S701). Next, the search result integration unit 903 acquires the image ID of the image including the block of the search result having the i-th similarity from the feature amount management information 2100 of the feature amount database 150. Next, the search result integration unit 903 acquires a camera ID corresponding to the acquired image ID from the image management information 2000 of the image database 710 (S702).

その後、検索結果統合部903は、取得したカメラIDを持つグループに、i番目の検索結果のブロックを含む画像の画像IDを追加する(S703)。なお、既にその画像IDがグループに含まれている場合、その画像IDを持つ画像には複数の検索結果のブロックを含むので、その画像IDを持つ画像には、複数の検索結果のブロックの類似度のうちで最も大きい類似度を設定する。   Thereafter, the search result integration unit 903 adds the image ID of the image including the block of the i-th search result to the group having the acquired camera ID (S703). If the image ID is already included in the group, the image having the image ID includes a plurality of search result blocks. Therefore, the image having the image ID is similar to the plurality of search result blocks. Set the largest similarity among degrees.

なお、取得したカメラIDを持つグループが存在しない場合、検索結果統合部903は、新しいグループを作成し、作成されたグループにi番目の検索結果のブロックを含む画像の画像IDを追加する。   If there is no group having the acquired camera ID, the search result integration unit 903 creates a new group and adds the image ID of the image including the block of the i-th search result to the created group.

次に、検索結果統合部903は、カウンタiが検索結果数Nを超えているか否かを判定する(S704)。ステップS704において、カウンタiが検索結果数Nを超えていると判定された場合、検索結果統合部903は、iに1を加算し(S705)、ステップS702以降の処理を繰り返す。なお、検索結果統合部903は、あらかじめ設定された撮影時刻の範囲に含まれない検索結果を検索結果統合処理の対象から除外してもよい。   Next, the search result integration unit 903 determines whether the counter i exceeds the number N of search results (S704). If it is determined in step S704 that the counter i exceeds the number N of search results, the search result integration unit 903 adds 1 to i (S705), and repeats the processing from step S702 onward. Note that the search result integration unit 903 may exclude search results that are not included in the preset shooting time range from the search result integration processing targets.

追跡マップ表示部904は、検索結果統合部903によって作成されたカメラID毎の検索結果のブロックを含む画像(検索結果画像)を、クライアント計算機130のディスプレイに表示する。第4の実施形態では、追跡マップ表示部904は、カメラが設置されている空間の簡易地図を作成し、作成された簡易地図の周囲に検索結果のブロックを含む画像を表示する。   The tracking map display unit 904 displays an image (search result image) including a search result block for each camera ID created by the search result integration unit 903 on the display of the client computer 130. In the fourth embodiment, the tracking map display unit 904 creates a simple map of a space where a camera is installed, and displays an image including a search result block around the created simple map.

図18は、第4の実施形態の検索結果の表示画面を示す説明図である。   FIG. 18 is an explanatory diagram illustrating a search result display screen according to the fourth embodiment.

第4の実施形態の検索結果の表示画面は、簡易地図1101及び検索結果画像1102(又は1103)を含む。簡易地図1101の周囲に表示された検索結果画像1102は、各カメラに対応しており、カメラの設置位置(カメラの撮影範囲)と引出線によって結び付けられる。なお、カメラと検索結果画像1102との対応関係が明示されるならば、検索結果画像1102は他の方法によって表示されてもよい。また、引き出し線の先に付与された撮影番号1104は、検索結果画像1102の撮影時刻の順に付与された数字である。つまり、撮影番号1104は、検索結果として示された人物の移動順序を示す。   The search result display screen of the fourth embodiment includes a simple map 1101 and a search result image 1102 (or 1103). The search result image 1102 displayed around the simple map 1101 corresponds to each camera, and is connected to the camera installation position (camera shooting range) and the leader line. If the correspondence between the camera and the search result image 1102 is clearly indicated, the search result image 1102 may be displayed by another method. The shooting number 1104 assigned to the tip of the lead line is a number assigned in the order of the shooting times of the search result image 1102. That is, the shooting number 1104 indicates the order of movement of the person indicated as the search result.

図16の説明に戻る。   Returning to the description of FIG.

追跡マップ表示部904は、例えば、HD114に格納された地図情報に基づいて、カメラが設置されている空間の簡易地図1101を作成し、その周囲に検索結果画像1102を表示する。   For example, the tracking map display unit 904 creates a simple map 1101 of the space where the camera is installed based on the map information stored in the HD 114 and displays a search result image 1102 around the map.

また、追跡マップ表示部904は、検索結果統合部903によって作成されたカメラID別のグループに含まれる検索結果のうち、最も類似度が大きい検索結果の画像IDを持つ画像を、カメラIDに対応する検索結果画像1102として表示する。該当するグループが存在しない場合、何も表示しない。なお、追跡マップ表示部904は、所定の閾値以下の類似度である画像を表示しなくてもよい。また、同一グループに、撮影時刻が大きく異なる画像がある場合、重ねられた検索結果画像1103を表示してもよい。   Also, the tracking map display unit 904 corresponds to the camera ID the image having the image ID of the search result having the highest similarity among the search results included in the group by camera ID created by the search result integration unit 903. The search result image 1102 is displayed. If there is no corresponding group, nothing is displayed. Note that the tracking map display unit 904 may not display an image having a similarity equal to or lower than a predetermined threshold. In addition, when there are images with significantly different shooting times in the same group, superimposed search result images 1103 may be displayed.

なお、画像検索システムは、重ねられた複数の検索結果画像のうち、クリックされた画像を手前に表示するためのインタフェース画面をユーザに提示してもよい。   Note that the image search system may present to the user an interface screen for displaying the clicked image among a plurality of superimposed search result images.

さらに、追跡マップ表示部904は、検索結果画像1102の引き出し線の先に撮影番号1104を付してもよい。   Further, the tracking map display unit 904 may attach a shooting number 1104 to the tip of the lead line of the search result image 1102.

以上説明したように、第4の実施形態の画像検索システムによると、第1及び第2の実施形態の効果に加え、ユーザによって指定された任意の領域、すなわち、検索人物又は物体の特徴的な部分を検索キーに設定することができるので、検索精度を向上させることができる。さらに、検索結果を時系列に沿って簡易地図に表示させるので、特定の監視対象の移動経路を追跡することができる。   As described above, according to the image search system of the fourth embodiment, in addition to the effects of the first and second embodiments, an arbitrary region designated by the user, that is, a characteristic of the search person or object Since the portion can be set as a search key, the search accuracy can be improved. Furthermore, since the search results are displayed on the simple map in time series, it is possible to track the movement route of a specific monitoring target.

なお、第1の実施形態から第4の実施形態について説明したが、本発明の適用範囲は、それぞれの実施形態に限定されるものではない。例えば、複数の実施形態を組み合せることもできる。   Although the first to fourth embodiments have been described, the scope of application of the present invention is not limited to each embodiment. For example, a plurality of embodiments can be combined.

110 サーバ計算機
111 外部インタフェース
112 中央処理演算装置(CPU)
113 主記憶装置(メモリ)
114 大容量外部記憶装置(HD)
120 通信基盤
130 クライアント計算機
140 画像データベース
150 特徴量データベース
160A〜160N カメラ
201 映像入力部
202 静止画抽出部
203 ブロック分割部
204 特徴量抽出部
301 画像取得部
302 ブロック分割部
303 画像表示部
304 ブロック選択部
305 検索部
306 検索結果統合部
307 検索結果表示部
401 選択ブロック領域
410 カメラ画像データベース
420 サムネイルデータベース
501 画像入力部
502 ブロック分割部
601 画像取得部
602 画像表示部
603 検索部
701 画像取得部
702 画像表示部
703 ブロック選択部
704 検索部
705 検索結果統合部
706 検索結果表示部
710 画像データベース
901 検索結果統合部
902 検索結果表示部
110 Server computer 111 External interface 112 Central processing unit (CPU)
113 Main memory (memory)
114 Mass external storage (HD)
120 Communication Infrastructure 130 Client Computer 140 Image Database 150 Feature Data Database 160A to 160N Camera 201 Video Input Unit 202 Still Image Extraction Unit 203 Block Division Unit 204 Feature Value Extraction Unit 301 Image Acquisition Unit 302 Block Division Unit 303 Image Display Unit 304 Block Selection Unit 305 search unit 306 search result integration unit 307 search result display unit 401 selected block area 410 camera image database 420 thumbnail database 501 image input unit 502 block division unit 601 image acquisition unit 602 image display unit 603 search unit 701 image acquisition unit 702 image Display unit 703 Block selection unit 704 Search unit 705 Search result integration unit 706 Search result display unit 710 Image database 901 Search result integration unit 902 Search result display unit

Claims (16)

ユーザによって指定された画像に類似する画像を検索する画像検索システムであって、
プロセッサと、前記プロセッサに接続されるメモリと、記憶装置とを備える少なくとも一以上の計算機を備え、
前記プロセッサは、
カメラによって撮影された映像、又は前記記憶装置に記憶された映像を取得し、
前記取得された映像から、単位時間当たりに所定の枚数の画像を抽出し、
前記抽出された画像を所定の大きさのブロックに分割し、
色ヒストグラムに基づいて、前記分割されたブロックの特徴量を抽出し、
前記抽出された画像の識別子と、前記抽出された画像の領域のうちで前記ブロックがどの位置にあるかを示す情報と、前記抽出されたブロックの特徴量と、の対応関係を示す第1の情報を作成し、
前記第1の情報に基づいて、前記分割されたブロックのうち、前記ユーザによって選択された少なくとも一のブロックを第1の検索キーとし、前記第1の検索キーの特徴量と他のブロックの特徴量とを比較することによって、前記第1の検索キーに類似する所定の数のブロックを検索結果として検出し、
前記検出された検索結果を含む画像を前記ユーザに表示することを特徴とする画像検索システム。
An image search system for searching for an image similar to an image specified by a user,
Comprising at least one computer comprising a processor, a memory connected to the processor, and a storage device;
The processor is
Obtain video captured by the camera or video stored in the storage device,
Extracting a predetermined number of images per unit time from the acquired video,
Dividing the extracted image into blocks of a predetermined size;
Based on the color histogram, the feature amount of the divided block is extracted,
A first relationship indicating a correspondence relationship between the identifier of the extracted image, information indicating where the block is located in the extracted image region, and the feature amount of the extracted block Create information,
Based on the first information, among the divided blocks, at least one block selected by the user is used as a first search key, and the feature amount of the first search key and the feature of another block A predetermined number of blocks similar to the first search key is detected as a search result by comparing the amount,
An image search system, wherein an image including the detected search result is displayed to the user.
前記抽出された画像の識別子と、前記抽出された画像を撮影したカメラの識別子と、前記抽出された画像の撮影時刻と、の対応関係を示す第2の情報を作成し、
前記第2の情報に基づいて、前記第1の検索キーを含む画像を撮影したカメラ及び撮影時刻を特定し、
前記特定されたカメラによって撮影された画像のうち、前記特定された撮影時刻の前後の所定の時間内に撮影された画像を取得し、
前記第1の情報に基づいて、前記第1の検索キーの特徴量と、前記取得した所定の時間内に撮影された画像に含まれるブロックの特徴量と、を比較することによって、前記第1の検索キーに類似する所定の数のブロックを第2の検索キーとして検出し、
さらに、前記検出された第2の検索キーの特徴量と前記他のブロックの特徴量とを比較することによって、前記第2の検索キーに類似する所定の数のブロックを検索結果として検出し、
前記検出された検索結果を含む画像を前記ユーザに表示することを特徴とする請求項1に記載の画像検索システム。
Creating second information indicating a correspondence relationship between the identifier of the extracted image, the identifier of the camera that has captured the extracted image, and the shooting time of the extracted image;
Based on the second information, the camera that has captured the image including the first search key and the shooting time are identified,
Of images taken by the specified camera, obtain images taken within a predetermined time before and after the specified shooting time,
Based on the first information, the feature amount of the first search key is compared with the feature amount of the block included in the acquired image within the predetermined time, thereby obtaining the first feature. Detecting a predetermined number of blocks similar to the search key of the second search key,
Further, a predetermined number of blocks similar to the second search key are detected as a search result by comparing the feature quantity of the detected second search key with the feature quantity of the other block,
The image search system according to claim 1, wherein an image including the detected search result is displayed to the user.
前記抽出された画像のうち、人物が映っている第1の画像と、人物が映っていない背景のみの第2の画像との間の画素値の差を計算し、
前記計算された画素値の差に基づいて、前記第1の画像と前記第2の画像との背景差分画像を作成し、
前記作成された背景差分画像を所定の大きさのブロックに分割し、
前記分割されたブロックの前記画素値の差の合計を前景度として計算し、
前記分割されたブロックの前景度が所定の閾値を越える場合、色ヒストグラムに基づいて、そのブロックの特徴量を抽出することを特徴とする請求項1に記載の画像検索システム。
Of the extracted images, a difference in pixel value between a first image in which a person is reflected and a second image only in a background in which no person is reflected is calculated,
Based on the difference between the calculated pixel values, a background difference image between the first image and the second image is created,
Dividing the created background difference image into blocks of a predetermined size;
Calculating the sum of the pixel values of the divided blocks as foreground,
The image search system according to claim 1, wherein when the foreground level of the divided block exceeds a predetermined threshold, the feature amount of the block is extracted based on a color histogram.
前記第1の検索キーは、前記分割されたブロックのうち、前記ユーザによって選択された複数のブロックであることを特徴とする請求項1に記載の画像検索システム。   The image search system according to claim 1, wherein the first search key is a plurality of blocks selected by the user among the divided blocks. 前記第1の検索キーは、前記分割されたブロックの領域のうち、前記ユーザによって指定された大きさ及び形状を持つ領域であることを特徴とする請求項1に記載の画像検索システム。   2. The image search system according to claim 1, wherein the first search key is a region having a size and a shape designated by the user among regions of the divided blocks. 前記第1の検索キーの特徴量と前記他のブロックの特徴量との間の距離に基づいて、前記第1の検索キーと前記他のブロックとの間の特徴の類似を示す類似度を計算し、
前記第1の検索キーとの類似度が大きい所定の数の他のブロックを検索結果として検出し、
前記抽出された画像の識別子と、前記抽出された画像を撮影したカメラの識別子と、前記抽出された画像の撮影時刻と、の対応関係を示す第2の情報を作成し、
前記作成された第2の情報に基づいて、前記検出された検索結果を含む画像を撮影したカメラを特定し、
前記特定されたカメラの識別子に従って、前記検出された検索結果を含む画像を分類し、
前記分類された画像のうち、前記第1の検索キーと特徴量の類似度が最も大きいブロックを含む画像であって、かつ、前記類似度が所定の閾値よりも大きいブロックを含む画像を表示することを特徴とする請求項1に記載の画像検索システム。
Based on the distance between the feature quantity of the first search key and the feature quantity of the other block, the similarity indicating the similarity of the feature between the first search key and the other block is calculated. And
Detecting a predetermined number of other blocks having a high degree of similarity with the first search key as a search result;
Creating second information indicating a correspondence relationship between the identifier of the extracted image, the identifier of the camera that has captured the extracted image, and the shooting time of the extracted image;
Based on the created second information, the camera that captured the image including the detected search result is identified,
Classifying an image including the detected search result according to the identified camera identifier;
Among the classified images, an image including a block having the largest feature amount similarity with the first search key and including a block having the similarity greater than a predetermined threshold is displayed. The image search system according to claim 1.
前記カメラが設置された空間の地図を作成し、
前記カメラの識別子に従って分類された画像のうち、前記第1の検索キーと特徴量の類似度が大きいブロックを含む少なくとも一の画像を取得し、
前記取得した少なくとも一の画像と前記カメラの撮影範囲との対応関係を前記作成された地図に表示し
さらに、前記第2の情報に基づいて、前記カメラの識別子に従って分類された画像の撮影時刻を特定し、
前記特定された撮影時刻によって、前記画像の撮影順序を示す情報を前記作成された地図に表示することを特徴とする請求項6に記載の画像検索システム。
Create a map of the space where the camera is installed,
Of the images classified according to the camera identifier, obtain at least one image including a block having a large similarity between the first search key and the feature amount;
The correspondence between the acquired at least one image and the shooting range of the camera is displayed on the created map. Further, based on the second information, the shooting time of the image classified according to the identifier of the camera is displayed. Identify,
The image search system according to claim 6, wherein information indicating a shooting order of the images is displayed on the created map according to the specified shooting time.
前記抽出された画像に映っている人物の大きさ及び位置に応じて、前記画像をいくつかの異なる大きさのブロックに分割することを特徴とする請求項1に記載の画像検索システム。   The image search system according to claim 1, wherein the image is divided into blocks having different sizes according to the size and position of a person shown in the extracted image. ユーザによって指定された画像に類似する画像を検索する画像検索システムにおいて実行される画像検索方法であって、
画像検索システムは、プロセッサと、前記プロセッサに接続されるメモリと、記憶装置とを備える少なくとも一以上の計算機を備え、
前記画像検索方法は、
前記プロセッサが、
カメラによって撮影された映像、又は前記記憶装置に記憶された映像を取得し、
前記取得された映像から、単位時間当たりに所定の枚数の画像を抽出し、
前記抽出された画像を所定の大きさのブロックに分割し、
色ヒストグラムに基づいて、前記分割されたブロックの特徴量を抽出し、
前記抽出された画像の識別子と、前記抽出された画像の領域のうちで前記ブロックがどの位置にあるかを示す情報と、前記抽出されたブロックの特徴量と、の対応関係を示す第1の情報を作成し、
前記第1の情報に基づいて、前記分割されたブロックのうち、前記ユーザによって選択された少なくとも一のブロックを第1の検索キーとし、前記第1の検索キーの特徴量と他のブロックの特徴量とを比較することによって、前記第1の検索キーに類似する所定の数のブロックを検索結果として検出し、
前記検出された検索結果を含む画像を前記ユーザに表示することを特徴とする画像検索方法。
An image search method executed in an image search system for searching for an image similar to an image designated by a user,
The image search system includes at least one computer including a processor, a memory connected to the processor, and a storage device,
The image search method includes:
The processor is
Obtain video captured by the camera or video stored in the storage device,
Extracting a predetermined number of images per unit time from the acquired video,
Dividing the extracted image into blocks of a predetermined size;
Based on the color histogram, the feature amount of the divided block is extracted,
A first relationship indicating a correspondence relationship between the identifier of the extracted image, information indicating where the block is located in the extracted image region, and the feature amount of the extracted block Create information,
Based on the first information, among the divided blocks, at least one block selected by the user is used as a first search key, and the feature amount of the first search key and the feature of another block A predetermined number of blocks similar to the first search key is detected as a search result by comparing the amount,
An image search method, comprising: displaying an image including the detected search result to the user.
前記プロセッサが、
前記抽出された画像の識別子と、前記抽出された画像を撮影したカメラの識別子と、前記抽出された画像の撮影時刻と、の対応関係を示す第2の情報を作成し、
前記第2の情報に基づいて、前記第1の検索キーを含む画像を撮影したカメラ及び撮影時刻を特定し、
前記特定されたカメラによって撮影された画像のうち、前記特定された撮影時刻の前後の所定の時間内に撮影された画像を取得し、
前記第1の情報に基づいて、前記第1の検索キーの特徴量と、前記取得した所定の時間内に撮影された画像に含まれるブロックの特徴量と、を比較することによって、前記第1の検索キーに類似する所定の数のブロックを第2の検索キーとして検出し、
さらに、前記検出された第2の検索キーの特徴量と前記他のブロックの特徴量とを比較することによって、前記第2の検索キーに類似する所定の数のブロックを検索結果として検出し、
前記検出された検索結果を含む画像を前記ユーザに表示することを特徴とする請求項9に記載の画像検索方法。
The processor is
Creating second information indicating a correspondence relationship between the identifier of the extracted image, the identifier of the camera that has captured the extracted image, and the shooting time of the extracted image;
Based on the second information, the camera that has captured the image including the first search key and the shooting time are identified,
Of images taken by the specified camera, obtain images taken within a predetermined time before and after the specified shooting time,
Based on the first information, the feature amount of the first search key is compared with the feature amount of the block included in the acquired image within the predetermined time, thereby obtaining the first feature. Detecting a predetermined number of blocks similar to the search key of the second search key,
Further, a predetermined number of blocks similar to the second search key are detected as a search result by comparing the feature quantity of the detected second search key with the feature quantity of the other block,
The image search method according to claim 9, wherein an image including the detected search result is displayed to the user.
前記プロセッサが、
前記抽出された画像のうち、人物が映っている第1の画像と、人物が映っていない背景のみの第2の画像との間の画素値の差を計算し、
前記計算された画素値の差に基づいて、前記第1の画像と前記第2の画像との背景差分画像を作成し、
前記作成された背景差分画像を所定の大きさのブロックに分割し、
前記分割されたブロックの前記画素値の差の合計を前景度として計算し、
前記分割されたブロックの前景度が所定の閾値を越える場合、色ヒストグラムに基づいて、そのブロックの特徴量を抽出することを特徴とする請求項9に記載の画像検索方法。
The processor is
Of the extracted images, a difference in pixel value between a first image in which a person is reflected and a second image only in a background in which no person is reflected is calculated,
Based on the difference between the calculated pixel values, a background difference image between the first image and the second image is created,
Dividing the created background difference image into blocks of a predetermined size;
Calculating the sum of the pixel values of the divided blocks as foreground,
The image search method according to claim 9, wherein when the foreground level of the divided block exceeds a predetermined threshold, a feature amount of the block is extracted based on a color histogram.
前記第1の検索キーは、前記分割されたブロックのうち、前記ユーザによって選択された複数のブロックであることを特徴とする請求項9に記載の画像検索方法。   The image search method according to claim 9, wherein the first search key is a plurality of blocks selected by the user among the divided blocks. 前記第1の検索キーは、前記分割されたブロックの領域のうち、前記ユーザによって指定された大きさ及び形状を持つ領域であることを特徴とする請求項9に記載の画像検索方法。   The image search method according to claim 9, wherein the first search key is an area having a size and a shape designated by the user among the divided block areas. 前記プロセッサが、
前記第1の検索キーの特徴量と前記他のブロックの特徴量との間の距離に基づいて、前記第1の検索キーと前記他のブロックとの間の特徴の類似を示す類似度を計算し、
前記第1の検索キーとの類似度が大きい所定の数の他のブロックを検索結果として検出し、
前記抽出された画像の識別子と、前記抽出された画像を撮影したカメラの識別子と、前記抽出された画像の撮影時刻と、の対応関係を示す第2の情報を作成し、
前記作成された第2の情報に基づいて、前記検出された検索結果を含む画像を撮影したカメラを特定し、
前記特定されたカメラの識別子に従って、前記検出された検索結果を含む画像を分類し、
前記分類された画像のうち、前記第1の検索キーと特徴量の類似度が最も大きいブロックを含む画像であって、かつ、前記類似度が所定の閾値よりも大きいブロックを含む画像を表示することを特徴とする請求項9に記載の画像検索方法。
The processor is
Based on the distance between the feature quantity of the first search key and the feature quantity of the other block, the similarity indicating the similarity of the feature between the first search key and the other block is calculated. And
Detecting a predetermined number of other blocks having a high degree of similarity with the first search key as a search result;
Creating second information indicating a correspondence relationship between the identifier of the extracted image, the identifier of the camera that has captured the extracted image, and the shooting time of the extracted image;
Based on the created second information, the camera that captured the image including the detected search result is identified,
Classifying an image including the detected search result according to the identified camera identifier;
Among the classified images, an image including a block having the largest feature amount similarity with the first search key and including a block having the similarity greater than a predetermined threshold is displayed. The image search method according to claim 9.
前記プロセッサが、
前記カメラが設置された空間の地図を作成し、
前記カメラの識別子に従って分類された画像のうち、前記第1の検索キーと特徴量の類似度が大きいブロックを含む少なくとも一の画像を取得し、
前記取得した少なくとも一の画像と前記カメラの撮影範囲との対応関係を前記作成された地図に表示し
さらに、前記第2の情報に基づいて、前記カメラの識別子に従って分類された画像の撮影時刻を特定し、
前記特定された撮影時刻によって、前記画像の撮影順序を示す情報を前記作成された地図に表示することを特徴とする請求項14に記載の画像検索方法。
The processor is
Create a map of the space where the camera is installed,
Of the images classified according to the camera identifier, obtain at least one image including a block having a large similarity between the first search key and the feature amount;
The correspondence between the acquired at least one image and the shooting range of the camera is displayed on the created map. Further, based on the second information, the shooting time of the image classified according to the identifier of the camera is displayed. Identify,
The image search method according to claim 14, wherein information indicating a shooting order of the images is displayed on the created map according to the specified shooting time.
前記プロセッサが、
前記抽出された画像に映っている人物の大きさ及び位置に応じて、前記画像をいくつかの異なる大きさのブロックに分割することを特徴とする請求項9に記載の画像検索方法。
The processor is
The image search method according to claim 9, wherein the image is divided into blocks having different sizes according to the size and position of a person shown in the extracted image.
JP2009163095A 2009-07-09 2009-07-09 Image search system and image search method Active JP5180922B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009163095A JP5180922B2 (en) 2009-07-09 2009-07-09 Image search system and image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009163095A JP5180922B2 (en) 2009-07-09 2009-07-09 Image search system and image search method

Publications (2)

Publication Number Publication Date
JP2011018238A true JP2011018238A (en) 2011-01-27
JP5180922B2 JP5180922B2 (en) 2013-04-10

Family

ID=43595967

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009163095A Active JP5180922B2 (en) 2009-07-09 2009-07-09 Image search system and image search method

Country Status (1)

Country Link
JP (1) JP5180922B2 (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903225B2 (en) 2011-04-26 2014-12-02 Kabushiki Kaisha Toshiba Video editing device, video editing method, program, and medium in which the program is recorded
WO2015087820A1 (en) * 2013-12-09 2015-06-18 株式会社日立製作所 Video search device, video search method, and storage medium
JP2015219712A (en) * 2014-05-16 2015-12-07 富士通株式会社 Same object detection device, same object detection method, and same object detection program
WO2016139940A1 (en) * 2015-03-02 2016-09-09 日本電気株式会社 Image processing system, image processing method, and program storage medium
WO2016175234A1 (en) * 2015-04-27 2016-11-03 ヤンマー株式会社 Color image processing method, color image processing program, and object recognition method and device
JP2019125031A (en) * 2018-01-12 2019-07-25 株式会社日立ソリューションズ System, image recognition method, and computer
JP2019164555A (en) * 2018-03-19 2019-09-26 株式会社リコー Image retrieval system, image retrieval device, and image retrieval method
US10489640B2 (en) 2015-02-27 2019-11-26 Fujitsu Limited Determination device and determination method of persons included in imaging data
CN113420609A (en) * 2021-05-31 2021-09-21 湖南森鹰智造科技有限公司 Laser radar human body gesture recognition method, electronic device and storage medium

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285141A (en) * 1999-01-27 2000-10-13 Ricoh Co Ltd Image retrieval device, image classifying device, and computer readable recording medium recorded with program for functioning computer as these devices
JP2009110526A (en) * 2007-10-31 2009-05-21 Sony United Kingdom Ltd Method and apparatus for analysing image

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000285141A (en) * 1999-01-27 2000-10-13 Ricoh Co Ltd Image retrieval device, image classifying device, and computer readable recording medium recorded with program for functioning computer as these devices
JP2009110526A (en) * 2007-10-31 2009-05-21 Sony United Kingdom Ltd Method and apparatus for analysing image

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8903225B2 (en) 2011-04-26 2014-12-02 Kabushiki Kaisha Toshiba Video editing device, video editing method, program, and medium in which the program is recorded
WO2015087820A1 (en) * 2013-12-09 2015-06-18 株式会社日立製作所 Video search device, video search method, and storage medium
JP2015114685A (en) * 2013-12-09 2015-06-22 株式会社日立製作所 Video search apparatus, video search method, and storage medium
JP2015219712A (en) * 2014-05-16 2015-12-07 富士通株式会社 Same object detection device, same object detection method, and same object detection program
US10489640B2 (en) 2015-02-27 2019-11-26 Fujitsu Limited Determination device and determination method of persons included in imaging data
JPWO2016139940A1 (en) * 2015-03-02 2018-02-01 日本電気株式会社 Image processing system, image processing method, and computer program
JP2019083532A (en) * 2015-03-02 2019-05-30 日本電気株式会社 Image processing system, image processing method, and image processing program
WO2016139940A1 (en) * 2015-03-02 2016-09-09 日本電気株式会社 Image processing system, image processing method, and program storage medium
WO2016175234A1 (en) * 2015-04-27 2016-11-03 ヤンマー株式会社 Color image processing method, color image processing program, and object recognition method and device
JP2019125031A (en) * 2018-01-12 2019-07-25 株式会社日立ソリューションズ System, image recognition method, and computer
JP2019164555A (en) * 2018-03-19 2019-09-26 株式会社リコー Image retrieval system, image retrieval device, and image retrieval method
JP7095338B2 (en) 2018-03-19 2022-07-05 株式会社リコー Image search device, information processing system and image search method
CN113420609A (en) * 2021-05-31 2021-09-21 湖南森鹰智造科技有限公司 Laser radar human body gesture recognition method, electronic device and storage medium

Also Published As

Publication number Publication date
JP5180922B2 (en) 2013-04-10

Similar Documents

Publication Publication Date Title
JP5180922B2 (en) Image search system and image search method
KR102560308B1 (en) System and method for exterior search
US9805064B2 (en) System, apparatus, method, program and recording medium for processing image
KR101289085B1 (en) Images searching system based on object and method thereof
US9342744B2 (en) Surveillance image retrieval apparatus and surveillance system
JP4139615B2 (en) Event clustering of images using foreground / background segmentation
US9323785B2 (en) Method and system for mobile visual search using metadata and segmentation
JP4160305B2 (en) System and method for determining image similarity
JP6172551B1 (en) Image search device, image search system, and image search method
JP4340367B2 (en) Image classification apparatus and computer-readable recording medium storing a program for causing a computer to function as the apparatus
US20070195344A1 (en) System, apparatus, method, program and recording medium for processing image
EP2490171A1 (en) Clothing feature extraction device, person retrieval device, and processing method thereof
US20130329059A1 (en) Person detection system
JP2004361987A (en) Image retrieval system, image classification system, image retrieval program, image classification program, image retrieval method, and image classification method
TW201443807A (en) Visual clothing retrieval
JP2009543197A (en) Using backgrounds to explore image populations
US20190042869A1 (en) Image processing apparatus and control method therefor
JP5356289B2 (en) Image search system
JP2006217045A (en) Index image generator and generation program
EP3324308A1 (en) Retrieving apparatus, display device and retrieiving method
JP2006217046A (en) Video index image generator and generation program
US20230131717A1 (en) Search processing device, search processing method, and computer program product
US20220414393A1 (en) Methods and Systems for Generating Composite Image Descriptors
CN106557523A (en) Presentation graphics system of selection and equipment and object images search method and equipment
US20180239782A1 (en) Image processing system, image processing method, and program storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120120

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120309

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20121211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121218

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130111

R150 Certificate of patent or registration of utility model

Ref document number: 5180922

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350