JP2016162414A - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP2016162414A
JP2016162414A JP2015043630A JP2015043630A JP2016162414A JP 2016162414 A JP2016162414 A JP 2016162414A JP 2015043630 A JP2015043630 A JP 2015043630A JP 2015043630 A JP2015043630 A JP 2015043630A JP 2016162414 A JP2016162414 A JP 2016162414A
Authority
JP
Japan
Prior art keywords
area
person
partial
query
small
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Ceased
Application number
JP2015043630A
Other languages
Japanese (ja)
Inventor
卓馬 寺田
Takuma Terada
卓馬 寺田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP2015043630A priority Critical patent/JP2016162414A/en
Publication of JP2016162414A publication Critical patent/JP2016162414A/en
Ceased legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To create a search query capable of improving search accuracy.SOLUTION: An image processing device specifies a person area containing a person, in an input image, then divides the person area into plural partial areas, and divides each of plural partial areas into plural small areas. Then, the image processing device performs clustering of the plural small areas, for forming clusters, in each of plural partial areas. In each of the plural partial areas, based on attribute of the clusters, a cluster of a query candidate is selected from the clusters. In each of the plural partial areas, a query element is created from the small area of the selected cluster, then by combining the query elements of the plural partial areas, a search query for searching for the person is created.SELECTED DRAWING: Figure 1

Description

本発明は、画像のための検索クエリの生成に関する。   The present invention relates to generating search queries for images.

画像データや映像データを対象に人物を検索する場合に、人物の服装や持ち物の特徴を一つずつ選択し、複数の検索クエリを指定して、全クエリの検索結果を統合して人物を検索する方法が提案されている。ユーザが検索クエリを指定する場合において、服装の色などの特徴を選択するには目視確認が必要となり、ユーザの主観で決定することが多かった。手動で選択するクエリは、ユーザによって入力内容にバラツキがあり、ターゲットとする人物を見つけられないという問題があった。   When searching for a person in image data or video data, select the person's clothes and characteristics of belongings one by one, specify multiple search queries, and search the person by integrating the search results of all queries. A method has been proposed. When a user specifies a search query, visual confirmation is required to select a feature such as clothing color, and it is often determined by the user's subjectivity. The manually selected query has a problem that the input contents vary depending on the user and the target person cannot be found.

特許文献1は、自動的に検索クエリを決定するシステムを開示する。具体的には、「ユーザによって指定された画像に類似する画像を検索する画像検索システムであって、カメラによって撮影された映像などから取得した画像を所定の大きさのブロックに分割し、色ヒストグラムに基づいて、ブロックの特徴量を抽出し、画像の識別子と、ブロックがどの位置にあるかを示す情報と、ブロックの特徴量と、の対応関係を示す第1の情報を作成し、第1の情報に基づいて、分割されたブロックのうち、ユーザによって選択された少なくとも一つのブロックを第1の検索キーとし、第1の検索キーの特徴量と他のブロックの特徴量とを比較することによって、第1の検索キーに類似する所定の数のブロックを検索結果として検出し、検索結果を含む画像をユーザに表示する」(要約)構成が開示されている。   Patent Document 1 discloses a system that automatically determines a search query. Specifically, “an image retrieval system for retrieving an image similar to an image designated by a user, wherein an image acquired from a video or the like taken by a camera is divided into blocks of a predetermined size, and a color histogram Based on the block, the feature amount of the block is extracted, and first information indicating the correspondence between the identifier of the image, the information indicating the position of the block, and the feature amount of the block is generated, Based on this information, at least one block selected by the user among the divided blocks is used as a first search key, and the feature quantity of the first search key is compared with the feature quantity of another block. , A predetermined number of blocks similar to the first search key are detected as search results, and an image including the search results is displayed to the user ”(summary).

特開2011−18238号JP2011-18238

公知例の自動的な人物特徴の登録や検索クエリを決定する方法においては、人物と推定される領域を複数に分割して、複数の全領域を活用しているため、人物以外に背景など他の物体が混在し、検索精度が悪くなるという問題があった。背景差分による人物検知は、環境が悪い場所において、照明変動や人の影などの領域が簡単に残ってしまうため、この方法のみで背景を分離することは難しい。   In the known method for automatically registering human features and determining search queries, the area estimated to be a person is divided into a plurality of areas, and all the areas are used. There is a problem that the search accuracy becomes worse due to a mixture of objects. In human detection based on background subtraction, areas such as illumination fluctuations and human shadows simply remain in places where the environment is bad, and it is difficult to separate the background using this method alone.

したがって、検索精度を向上させることができる検索クエリの生成方法が望まれる。   Therefore, a search query generation method that can improve the search accuracy is desired.

本発明の代表的な一例は、プログラムを格納するメモリ装置と、前記プログラムに従って動作する演算装置と、入出力装置と、を含む画像処理装置であって、前記演算装置は、入力画像において人物を含む人物領域を特定し、前記人物領域を複数の部分領域に分割し、前記複数の部分領域それぞれを、複数の小領域に分割し、前記複数の部分領域それぞれにおいて、前記複数の小領域をクラスタリングしてクラスタを形成し、前記複数の部分領域それぞれにおいて、前記クラスタの属性に基づき、前記クラスタからクエリ候補のクラスタを選択し、前記複数の部分領域それぞれにおいて、前記選択したクラスタの小領域からクエリ要素を生成し、前記複数の部分領域のクエリ要素を組み合わせて前記人物を検索するための検索クエリを生成する。   A typical example of the present invention is an image processing device that includes a memory device that stores a program, an arithmetic device that operates according to the program, and an input / output device, and the arithmetic device detects a person in an input image. A human region including the human region is identified, the human region is divided into a plurality of partial regions, each of the plurality of partial regions is divided into a plurality of small regions, and the plurality of small regions are clustered in each of the plurality of partial regions. In each of the plurality of partial regions, a query candidate cluster is selected from the cluster based on the attribute of the cluster, and in each of the plurality of partial regions, a query is performed from a small region of the selected cluster. Generate an element and combine the query elements of the plurality of partial areas to generate a search query for searching for the person .

本発明の一態様によれば、検索精度を向上させる検索クエリを生成することができる。上記以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。   According to one embodiment of the present invention, a search query that improves search accuracy can be generated. Problems, configurations, and effects other than those described above will be clarified by the following description of embodiments.

画像検索装置の構成例を示す。1 shows a configuration example of an image search device. 画像検索装置の他の構成例を示す。The other structural example of an image search device is shown. 入力画像において指定された人物画像から検索クエリを生成し、生成した検索クエリを使用して人物検索を実行する処理のフローチャートを示す。The flowchart of the process which produces | generates a search query from the person image designated in the input image, and performs a person search using the produced | generated search query is shown. 図3Aに示すフローチャートにおける、クエリ設定処理のフローチャートを示す。The flowchart of the query setting process in the flowchart shown to FIG. 3A is shown. 図3Bに示すフローチャートにおける、クエリ生成処理のフローチャートを示す。The flowchart of the query production | generation process in the flowchart shown to FIG. 3B is shown. 人物領域がユーザによって決定されてから検索用クエリがセットされるまでの例を示す。An example from when a person area is determined by a user until a search query is set is shown. 部分領域における小領域の配置と検索クエリにおける小領域の配置との関係例を示す。An example of the relationship between the arrangement of small areas in a partial area and the arrangement of small areas in a search query is shown. 一つの部分領域から生成されたクラスタの例を示す。The example of the cluster produced | generated from one partial area is shown. 検索クエリ生成のための候補として選択されたクラスタと、ノイズクラスタとして除去されるクラスタとを示す。The cluster selected as a candidate for search query generation, and the cluster removed as a noise cluster are shown. 特徴量空間におけるノイズ基準領域の例を示す。An example of a noise reference area in the feature amount space is shown. 人型マスクの例を示す。An example of a humanoid mask is shown. ブロック型マスクの例を示す。An example of a block type mask is shown. 人物領域内の人物画像に沿ってマスクを形成する例を示す。An example in which a mask is formed along a person image in a person area will be described. 人物領域の部分領域への分割において、複数のマスクから一つのマスクを選択する処理を示す。A process of selecting one mask from a plurality of masks in the division of a person area into partial areas will be described. 人物領域及びマスクの決定のためのナビゲーション画像を示す。The navigation image for determination of a person area and a mask is shown.

以下、添付図面を参照して本発明の実施形態を説明する。本実施形態は本発明を実現するための一例に過ぎず、本発明の技術的範囲を限定するものではないことに注意すべきである。各図において共通の構成については同一の参照符号が付与されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. It should be noted that this embodiment is merely an example for realizing the present invention, and does not limit the technical scope of the present invention. In each figure, the same reference numerals are given to common configurations.

図1は、画像処理装置である画像検索装置の構成例を示す。画像検索装置101は、一般的な計算機のハードウェア構成を有する。具体的には、画像検索装置101は、インタフェース(I/F)190と、CPU191と、メモリ192と、入出力装置193とを含み、これらはバスにより相互接続されている。   FIG. 1 shows a configuration example of an image search apparatus that is an image processing apparatus. The image search apparatus 101 has a general computer hardware configuration. Specifically, the image search apparatus 101 includes an interface (I / F) 190, a CPU 191, a memory 192, and an input / output device 193, which are interconnected by a bus.

I/F190はネットワークと接続し、ネットワークを介して、外部装置からデータを受信し、外部装置にデータを送信する。入出力装置193は、ユーザが画像検索装置101に指示を与えるための入力装置及びユーザに情報を出力するための出力装置を含む。入力装置は、例えば、キーボード、ポインティングデバイス、タッチパネル等であり、出力装置は、例えば、モニタディスプレイ、プリンタ等である。   The I / F 190 is connected to a network, receives data from an external device via the network, and transmits data to the external device. The input / output device 193 includes an input device for a user to give an instruction to the image search device 101 and an output device for outputting information to the user. The input device is, for example, a keyboard, a pointing device, a touch panel, and the like, and the output device is, for example, a monitor display, a printer, or the like.

メモリ192は、CPU191が実行するプログラムを格納している。具体的には、メモリ192は、画像入力プログラム111、人物領域特定プログラム112、部分領域分割プログラム121、小領域特定プログラム122、画像検索プログラム131、検索結果表示プログラム132を格納している。メモリ192は、さらに、画像データベース141を格納している。   The memory 192 stores a program executed by the CPU 191. Specifically, the memory 192 stores an image input program 111, a person area specifying program 112, a partial area dividing program 121, a small area specifying program 122, an image search program 131, and a search result display program 132. The memory 192 further stores an image database 141.

画像検索装置101は、不揮発性記憶媒体を含む不図示の補助記憶装置を含み、メモリ192にロードされるプログラム及びデータを格納してもよい。メモリ192が格納するプログラム及びデータは、I/F190を介して外部装置から取得されてもよい。   The image search device 101 may include an auxiliary storage device (not shown) including a nonvolatile storage medium, and may store programs and data loaded into the memory 192. The program and data stored in the memory 192 may be acquired from an external device via the I / F 190.

演算装置であるCPU191は、メモリ装置であるメモリ192に格納されるプログラムに従って動作する。プログラムはCPU191によって実行されることで、定められた処理を行う。従って、本開示において、プログラムを主語とする説明は、CPU(プロセッサ)を主語とした説明でもよい。若しくは、プログラムが実行する処理は、そのプログラムが動作する計算機及び計算機システムが行う処理である。   The CPU 191 that is an arithmetic device operates according to a program stored in a memory 192 that is a memory device. The program is executed by the CPU 191 to perform a predetermined process. Therefore, in the present disclosure, the description with the program as the subject may be an explanation with the CPU (processor) as the subject. Alternatively, the process executed by the program is a process performed by a computer and a computer system on which the program operates.

プロセッサは、プログラムに従って動作することによって、所定の機能を実現する機能部(手段)として動作する。例えば、CPU191は、人物領域特定プログラム112、部分領域分割プログラム121、小領域特定プログラム122のそれぞれに従って動作することで、人物領域特定部、部分領域分割部、小領域特定部として機能する。以上の点は、他のプログラム及び他の計算機についても同様である。   The processor operates as a functional unit (means) that realizes a predetermined function by operating according to a program. For example, the CPU 191 functions as a person region specifying unit, a partial region dividing unit, and a small region specifying unit by operating according to the person region specifying program 112, the partial region dividing program 121, and the small region specifying program 122, respectively. The above points are the same for other programs and other computers.

画像入力プログラム111は、外部装置又は画像データベース141から、検索クエリを生成するための画像データ100を取得する。画像入力プログラム111が取得する画像データ100は、静止画像又は動画像である。画像入力プログラム111は、取得した画像データ100を、人物領域特定プログラム112に出力する。   The image input program 111 acquires image data 100 for generating a search query from an external device or the image database 141. The image data 100 acquired by the image input program 111 is a still image or a moving image. The image input program 111 outputs the acquired image data 100 to the person area specifying program 112.

人物領域特定プログラム112は、画像データ100から静止画の画像データを抽出し、一人の人物の全体像を含む人物領域を特定する。人物領域特定プログラム112は、当該特定した人物領域のデータを部分領域分割プログラム121に出力する。   The person area specifying program 112 extracts still image data from the image data 100 and specifies a person area including the entire image of one person. The person area specifying program 112 outputs the data of the specified person area to the partial area dividing program 121.

部分領域分割プログラム121は、人物領域を複数の部分領域に分割し、複数の部分領域それぞれのデータを、小領域特定プログラム122に出力する。小領域特定プログラム122は、複数の部分領域それぞれを、複数の小領域に分割する。さらに、小領域特定プログラム122は、各部分領域において、小領域をクラスタリングし、クラスタリングの結果に基づいて、各部分領域においてクエリに用いる小領域を選択する。部分領域に分割することで、より適切に、クラスタリングによりノイズを除去できる。   The partial area dividing program 121 divides the person area into a plurality of partial areas, and outputs data of each of the plurality of partial areas to the small area specifying program 122. The small area specifying program 122 divides each of the plurality of partial areas into a plurality of small areas. Further, the small region specifying program 122 clusters the small regions in each partial region, and selects a small region to be used for the query in each partial region based on the clustering result. By dividing into partial areas, noise can be removed more appropriately by clustering.

小領域特定プログラム122は、各部分領域において選択された小領域のデータを、小領域統合プログラム123に出力する。小領域統合プログラム123は、各部分領域においてクエリ用に選択された小領域を統合し、各部分領域に対応するクエリ要素を生成する。画像検索用クエリは、全ての部分領域のクエリ要素で構成される。   The small area specifying program 122 outputs the data of the small area selected in each partial area to the small area integration program 123. The small area integration program 123 integrates the small areas selected for the query in each partial area, and generates a query element corresponding to each partial area. The image search query is composed of query elements in all partial areas.

画像検索プログラム131は、生成された検索クエリを用いて、画像データベース141において画像検索を行い、検索結果を検索結果表示プログラム132に出力する。検索結果表示プログラム132は、検索結果を示す画像データを生成し、入出力装置193の表示装置において、検索結果を表示する。   The image search program 131 performs an image search in the image database 141 using the generated search query, and outputs the search result to the search result display program 132. The search result display program 132 generates image data indicating the search result, and displays the search result on the display device of the input / output device 193.

画像データベース141は、画像データベース141内の人物画像から生成され、検索クエリと同構成のデータを格納している。当該データを検索エントリとも呼ぶ。画像入力プログラム111は、画像データベース141から取得した複数静止画像を人物領域特定プログラム112に出力する。人物領域特定プログラム112は、各静止画において、所定の人物検出アルゴリズムに従って人物画像を抽出する。   The image database 141 is generated from a person image in the image database 141 and stores data having the same configuration as the search query. This data is also called a search entry. The image input program 111 outputs a plurality of still images acquired from the image database 141 to the person area specifying program 112. The person area specifying program 112 extracts a person image in each still image according to a predetermined person detection algorithm.

部分領域分割プログラム121、小領域特定プログラム122、小領域統合プログラム123は、抽出された人物画像それぞれにから、検索クエリと同様の方法で、検索エントリを生成する。画像データベース141は、生成された検索エントリを人物画像と関連づけて格納する。画像検索プログラム131は、検索クエリと画像データベース141内の検索エントリとを比較して、検索クエリが示す人物画像を検索する。   The partial area dividing program 121, the small area specifying program 122, and the small area integration program 123 generate a search entry from each of the extracted person images by the same method as the search query. The image database 141 stores the generated search entry in association with the person image. The image search program 131 searches the person image indicated by the search query by comparing the search query with the search entry in the image database 141.

上述のように、検索エントリは検索クエリと同法の方法で生成できるため、以下においては、検索クエリの生成について説明を行う。図2は、画像検索装置101の他の構成例を示す。画像検索装置101は、複数の計算機を含んで構成されている。図2の例において、画像検索装置101は、複数のユーザ操作部102、クエリ生成部103、及び検索部104を含み、これらは不図示のネットワークを介して相互接続されている。   As described above, since the search entry can be generated by the same method as the search query, the generation of the search query will be described below. FIG. 2 shows another configuration example of the image search apparatus 101. The image search apparatus 101 includes a plurality of computers. In the example of FIG. 2, the image search apparatus 101 includes a plurality of user operation units 102, a query generation unit 103, and a search unit 104, which are interconnected via a network (not shown).

ユーザ操作部102は、検索クエリを生成するための画像データ100を受信し、さらに、ユーザからの検索クエリについての入力受け付け、ユーザに対して検索結果を提示する。クエリ生成部103は、画像データ100から抽出された人物画像から検索クエリを生成する。検索部104は、検索クエリに従って画像データベース141を検索し、検索結果をユーザ操作部102に送信する。   The user operation unit 102 receives the image data 100 for generating a search query, further accepts input about the search query from the user, and presents the search result to the user. The query generation unit 103 generates a search query from the person image extracted from the image data 100. The search unit 104 searches the image database 141 according to the search query, and transmits the search result to the user operation unit 102.

ユーザ操作部102、クエリ生成部103、及び検索部104は、それぞれ、1台の計算機で構成されている。複数のユーザ操作部102(計算機)により、複数のユーザが、画像検索装置101を利用することができる。複数の計算機による分散処理により、効率的な検索クエリの作成及び検索処理を実現できる。   Each of the user operation unit 102, the query generation unit 103, and the search unit 104 is configured by a single computer. A plurality of users can use the image search apparatus 101 by a plurality of user operation units 102 (computers). Efficient search query creation and search processing can be realized by distributed processing by a plurality of computers.

ユーザ操作部102、クエリ生成部103、及び検索部104は、一般的な計算機構成を有している。具体的には、ユーザ操作部102は、CPU201、メモリ202、I/F203、及び入出力装置204を含む。クエリ生成部103は、CPU205、メモリ206、及びI/F207を含む。検索部104は、CPU208、メモリ209、及びI/F210を含む。CPU201、205、及び208は、画像検索装置101における演算装置であり、メモリ202、206、及び209は、画像検索装置101におけるメモリ装置である。   The user operation unit 102, the query generation unit 103, and the search unit 104 have a general computer configuration. Specifically, the user operation unit 102 includes a CPU 201, a memory 202, an I / F 203, and an input / output device 204. The query generation unit 103 includes a CPU 205, a memory 206, and an I / F 207. The search unit 104 includes a CPU 208, a memory 209, and an I / F 210. The CPUs 201, 205, and 208 are arithmetic devices in the image search device 101, and the memories 202, 206, and 209 are memory devices in the image search device 101.

ユーザ操作部102のメモリ202は、画像入力プログラム111、人物領域特定プログラム112、及び人物領域送信プログラム151を格納している。画像入力プログラム111及び人物領域特定プログラム112の動作は、上述の通りである。人物領域送信プログラム151は、人物領域特定プログラム112から人物領域の画像データを取得し、I/F203を介して、クエリ生成部103に送信する。   The memory 202 of the user operation unit 102 stores an image input program 111, a person area specifying program 112, and a person area transmission program 151. The operations of the image input program 111 and the person area specifying program 112 are as described above. The person area transmission program 151 acquires the image data of the person area from the person area specifying program 112 and transmits it to the query generation unit 103 via the I / F 203.

クエリ生成部103のメモリ206は、人物領域受信プログラム152、部分領域分割プログラム121、小領域特定プログラム122、小領域統合プログラム123、及びクエリ送信プログラム153を格納している。人物領域受信プログラム152は、ユーザ操作部102から、I/F207を介して、人物領域の画像データを受信し、部分領域分割プログラム121に出力する。   The memory 206 of the query generation unit 103 stores a person area reception program 152, a partial area division program 121, a small area identification program 122, a small area integration program 123, and a query transmission program 153. The person area receiving program 152 receives image data of the person area from the user operation unit 102 via the I / F 207 and outputs the image data to the partial area dividing program 121.

部分領域分割プログラム121、小領域特定プログラム122及び小領域統合プログラム123の動作は、上述の通りである。クエリ送信プログラム153は、小領域統合プログラム123から生成された検索クエリ取得し、検索部104に対してI/F207を介して送信する。   The operations of the partial area division program 121, the small area specifying program 122, and the small area integration program 123 are as described above. The query transmission program 153 acquires the search query generated from the small area integration program 123 and transmits it to the search unit 104 via the I / F 207.

検索部104のメモリ209は、クエリ受信プログラム154、画像検索プログラム131、検索結果表示プログラム132、及び画像データベース141を格納している。クエリ受信プログラム154は、I/F210を介して、クエリ生成部103から検索クエリを受信し、画像検索プログラム131に出力する。   The memory 209 of the search unit 104 stores a query reception program 154, an image search program 131, a search result display program 132, and an image database 141. The query reception program 154 receives a search query from the query generation unit 103 via the I / F 210 and outputs it to the image search program 131.

画像検索プログラム131及び検索結果表示プログラム132の動作、並びに画像データベース141が格納するデータは上述の通りである。検索結果表示プログラム132は、検索結果をユーザ操作部102に送信し、ユーザ操作部102は、入出力装置204において、検索結果をユーザに提示する。   The operations of the image search program 131 and the search result display program 132 and the data stored in the image database 141 are as described above. The search result display program 132 transmits the search result to the user operation unit 102, and the user operation unit 102 presents the search result to the user in the input / output device 204.

図3Aは、入力画像において指定された人物画像から検索クエリを生成し、生成した検索クエリを使用して人物検索を実行する処理のフローチャートを示す。図3Bは、図3Aに示すフローチャートにおける、クエリ設定処理S12のフローチャートを示す。図3Cは、図3Bに示すフローチャートにおける、クエリ生成処理S22のフローチャートを示す。以下の説明においては、図1に示す画像検索装置101の構成を参照する。   FIG. 3A shows a flowchart of a process for generating a search query from a person image specified in an input image and executing a person search using the generated search query. FIG. 3B shows a flowchart of the query setting process S12 in the flowchart shown in FIG. 3A. FIG. 3C shows a flowchart of the query generation process S22 in the flowchart shown in FIG. 3B. In the following description, the configuration of the image search apparatus 101 shown in FIG. 1 is referred to.

図3Aにおいて、画像入力プログラム111は、新しい画像データ100を外部装置又は画像データベース141から取得する(S11)。画像入力プログラム111は、入力された画像データ100における静止画を、入出力装置193において表示する。表示されている画像に対し、検索クエリ設定処理が実行される(S12)。クエリ設定処理S12は、図3Bを参照して後述する。   In FIG. 3A, the image input program 111 acquires new image data 100 from the external device or the image database 141 (S11). The image input program 111 displays a still image in the input image data 100 on the input / output device 193. A search query setting process is executed for the displayed image (S12). The query setting process S12 will be described later with reference to FIG. 3B.

画像検索プログラム131は、設定された検索クエリを使用して、検索処理を実行する(S13)。画像検索プログラム131は、画像データベース141から、検索クエリに類似する人物画像を検索する。画像検索プログラム131は、検索クエリと人物画像との間の類似度を算出し、類似度が閾値より大きい画像データを選択する。類似度は、特徴量空間における、検索クエリと人物画像の検索エントリとの間の距離から算出できる。   The image search program 131 executes a search process using the set search query (S13). The image search program 131 searches the person database similar to the search query from the image database 141. The image search program 131 calculates the similarity between the search query and the person image, and selects image data whose similarity is greater than a threshold value. The similarity can be calculated from the distance between the search query and the person image search entry in the feature amount space.

検索結果表示プログラム132は、検索処理S13において選択された人物画像、又は当該人物画像を含む静止画若しくは動画を、検索クエリに対する類似度が大きい順番に、入出力装置193において表示する。   The search result display program 132 displays, on the input / output device 193, the person image selected in the search process S13 or the still image or moving image including the person image in descending order of similarity to the search query.

ユーザは入出力装置193により表示された検索結果を参照する。表示された静止画又は動画において、さらに検索を行う人物が存在する場合(S15:YES)、ユーザは、入出力装置193から当該人物を指定する。入出力装置193は、当該ユーザ指定を、人物領域特定プログラム112に送信する。指定された人物画像について、ステップS12〜S15が繰り返される。新たな人物が指定されなかった場合(S15:NO)、本処理が終了する。   The user refers to the search result displayed by the input / output device 193. In the displayed still image or moving image, when there is a person to be further searched (S15: YES), the user designates the person from the input / output device 193. The input / output device 193 transmits the user designation to the person area specifying program 112. Steps S12 to S15 are repeated for the designated person image. If no new person is designated (S15: NO), this process ends.

図3Bを参照して、検索クエリの設定処理S12を説明する。人物領域特定プログラム112は、入出力装置193において表示されている画像における、人物を含む人物領域のユーザ指定を、入出力装置193から受信する(S21)。   The search query setting process S12 will be described with reference to FIG. 3B. The person area specifying program 112 receives the user designation of the person area including the person in the image displayed on the input / output apparatus 193 from the input / output apparatus 193 (S21).

例えば、ユーザは、入出力装置193のマウスやタッチパネルを使用して、表示されている画像において、目的の人物を含む領域を矩形で囲むことで、人物領域を指定する。または、人物領域特定プログラム112は、所定の人物検知アルゴリズムに従って、表示画像内に人物領域を示し、入出力装置193からのユーザによる人物領域の選択を受け付けてもよい。   For example, the user uses a mouse or touch panel of the input / output device 193 to designate a person area by surrounding a region including a target person with a rectangle in the displayed image. Alternatively, the person area specifying program 112 may indicate the person area in the display image according to a predetermined person detection algorithm and accept the selection of the person area from the input / output device 193 by the user.

人物領域特定プログラム112は、指定された人物領域の画像データを、部分領域分割プログラム121に出力する。部分領域分割プログラム121、小領域特定プログラム122、及び小領域統合プログラム123は、人物領域の画像データから、検索クエリを生成する(S22)。小領域統合プログラム123は、生成した検索クエリを画像検索プログラム131に設定する(S23)。   The person area specifying program 112 outputs image data of the specified person area to the partial area dividing program 121. The partial area dividing program 121, the small area specifying program 122, and the small area integrating program 123 generate a search query from the image data of the person area (S22). The small area integration program 123 sets the generated search query in the image search program 131 (S23).

図3Cを参照して、検索クエリの生成処理S22を説明する。部分領域分割プログラム121は、人物領域を複数の部分領域に分割する(S31)。小領域特定プログラム122は、各部分領域を小領域に分割する(S32)。小領域特定プログラム122は、各部分領域において、小領域をクラスタリングによりグルーピングする。さらに、小領域特定プログラム122は、生成したクラスタから、背景を含むノイズに相当する不要なクラスタを除去する(S34)。小領域特定プログラム122は、クラスタのサイズ(小領域数)、色、テクスチャ等のクラスタの属性に基づき、当該クラスタがノイズクラスタであるか否か判定する。   The search query generation process S22 will be described with reference to FIG. 3C. The partial area dividing program 121 divides the person area into a plurality of partial areas (S31). The small area specifying program 122 divides each partial area into small areas (S32). The small area specifying program 122 groups small areas by clustering in each partial area. Further, the small region specifying program 122 removes unnecessary clusters corresponding to noise including the background from the generated clusters (S34). The small area specifying program 122 determines whether or not the cluster is a noise cluster based on the cluster attributes such as cluster size (number of small areas), color, and texture.

小領域統合プログラム123は、各部分領域において、ノイズ除去後に残された小領域を、特徴量の代表値、中心値、平均値等の統計値を使用して統合し、各部分領域に対応するクエリ要素を生成する。小領域統合プログラム123は、全ての部分領域のクエリ要素を組み合わせて、検索クエリを生成する。   The small area integration program 123 integrates the small areas remaining after noise removal in each partial area using statistical values such as the representative value, center value, and average value of the feature amount, and corresponds to each partial area. Generate query elements. The small area integration program 123 generates a search query by combining query elements of all partial areas.

以下において、図3A〜3Cを参照して説明した処理のステップの詳細を説明する。図4Aは、人物領域がユーザによって決定されてから検索用クエリがセットされるまでの例を示す。ユーザインターフェースF01と内部処理F02に分けて説明する。ユーザインターフェースF01は、入力画像F11を表示する。ユーザインターフェースF01は、入出力装置193により提供される。   Details of the processing steps described with reference to FIGS. 3A to 3C will be described below. FIG. 4A shows an example from when the person area is determined by the user until the search query is set. The description will be divided into the user interface F01 and the internal processing F02. The user interface F01 displays the input image F11. The user interface F01 is provided by the input / output device 193.

入力画像F11において、人物領域F12が指定されている。ユーザは目標人物を決定し、例えば、ポインティングデバイスを使用して矩形を描くことによって、人物領域F12を入力画像F11上で指定する。   In the input image F11, a person area F12 is designated. The user determines a target person and designates the person area F12 on the input image F11 by drawing a rectangle using a pointing device, for example.

人物領域特定プログラム112は、ユーザにより指定された人物領域F2をユーザインターフェースF0から取得する。上述のように、人物領域特定プログラム112は、時運物検出アルゴリズムによって、入力画像F11における人物を検出し、各人物を囲む人物領域を提示してもよい。ユーザは、提示された人物領域の中から、目的人物を含む人物領域を選択する。   The person area specifying program 112 acquires the person area F2 designated by the user from the user interface F0. As described above, the person area specifying program 112 may detect a person in the input image F11 by the hourly object detection algorithm and present a person area surrounding each person. The user selects a person area including the target person from the presented person areas.

人物領域特定プログラム112は、機械学習手法に基づき学習した識別器を使用して、人物を検出する。識別器は多数のサンプルから抽出された特徴量から、人物を識別するための基準を学習する。人物領域特定プログラム112は、入力画像F11内で検出ウィンドウを設定し、検出ウィンドウを入力画像F11内で移動しながら特徴量を抽出して、人物を検出する。   The person area specifying program 112 detects a person using a discriminator learned based on a machine learning method. The discriminator learns a reference for identifying a person from feature quantities extracted from a large number of samples. The person area specifying program 112 sets a detection window in the input image F11, extracts a feature amount while moving the detection window in the input image F11, and detects a person.

人物検出のために特徴量としては、例えば、エッジ情報に関する特徴量である、輝度勾配方向ヒストグラム(HOG)を使用することができる。このほか、色情報や動き情報に基づく特徴量を使用してもよい。様々な人物検出の手法が知られており、ここでは詳細な説明を省略する。   For example, a luminance gradient direction histogram (HOG) that is a feature amount related to edge information can be used as a feature amount for human detection. In addition, feature amounts based on color information and motion information may be used. Various person detection methods are known, and detailed description thereof is omitted here.

内部処理F02に与えられる人物領域F12は、入力画像F11から切り出された領域である。人物領域F12は、規定のサイズに拡大/縮小されてもよい。部分領域分割プログラム121は、人物領域F12を複数の部分領域F13に分割する。図4Aの例において、人物領域F12、頭、上半身、下半身の部位に対応する、Top、Upper、Bottomの部分領域F13に分割される。   A person area F12 given to the internal process F02 is an area cut out from the input image F11. The person area F12 may be enlarged / reduced to a prescribed size. The partial area dividing program 121 divides the person area F12 into a plurality of partial areas F13. In the example of FIG. 4A, the area is divided into a partial area F13 of Top, Upper, and Bottom corresponding to the person area F12, the head, upper body, and lower body parts.

部分領域分割プログラム121は、例えば、人物領域F12を予め設定されている比率で、人物領域F12を上下方向において三つの部分領域F13に分割する。上下方向に三つに分割することで、部分領域F13のそれぞれに、頭部、Topス、及びBottomスを個別に含めることができる。これら部位の特徴量は大きく異なることが多く、各部位内での特徴量は類似することが多い。   For example, the partial area dividing program 121 divides the person area F12 into three partial areas F13 in the vertical direction at a preset ratio. By dividing into three parts in the vertical direction, the head, Tops, and Bottoms can be individually included in each of the partial regions F13. The feature quantities of these parts often differ greatly, and the feature quantities within each part are often similar.

隣接する部分領域F13は、一部が互いに重複してもよいし、完全に異なる領域であってもよい。隣接する部分領域F13が一部重複することで、部分領域F13に、各部位の全体をより確実に含めることができる。   The adjacent partial regions F13 may partially overlap each other or may be completely different regions. By partially overlapping the adjacent partial regions F13, the entire regions can be more reliably included in the partial region F13.

図4Aに示す分割方法は一例であって、人物領域F12は他の方法で分割されてもよい。人物領域F12は左右方向において分割されてもよいし、2又は4以上の部分領域F13に分割されてもよい。図4Aの例において、部分領域F13は矩形であるが、部分領域F13の形状はこれに限定されない。   The division method shown in FIG. 4A is an example, and the person area F12 may be divided by other methods. The person area F12 may be divided in the left-right direction, or may be divided into two or more partial areas F13. In the example of FIG. 4A, the partial region F13 is rectangular, but the shape of the partial region F13 is not limited to this.

次に、小領域特定プログラム122は、部分領域F13のそれぞれを、複数の小領域F14に分割する。例えば、小領域F14の形状及びサイズは予め決められている。小領域特定プログラム122は、人物領域F12のサイズに応じて、人物領域F12のサイズを決定してもよい。小領域F14のサイズ又は形状は、部分領域F13毎に設定されてもよい。図4Aの例において、小領域F14は矩形であるが、小領域F14の形状はこれに限定されない。   Next, the small area specifying program 122 divides each of the partial areas F13 into a plurality of small areas F14. For example, the shape and size of the small region F14 are determined in advance. The small area specifying program 122 may determine the size of the person area F12 according to the size of the person area F12. The size or shape of the small region F14 may be set for each partial region F13. In the example of FIG. 4A, the small region F14 is rectangular, but the shape of the small region F14 is not limited to this.

部分領域F13と対応する小領域F14とは、関連付けてメモリ192内に保持される。小領域特定プログラム122は、各部分領域F13において、分割した小領域F14をクラスタリングによりグループ化する。小領域特定プログラム122は、各小領域F14の特徴ベクトルを算出し、当該特徴ベクトルのベクトル空間において、クラスタリングを行う。特徴量は、色情報やエッジ情報から得られる値を使用することができ、例えば、特徴量は、小領域F14の画素のRGB値から決まる平均色を含んでもよい。   The partial area F13 and the corresponding small area F14 are stored in the memory 192 in association with each other. The small area specifying program 122 groups the divided small areas F14 by clustering in each partial area F13. The small region specifying program 122 calculates the feature vector of each small region F14 and performs clustering in the vector space of the feature vector. As the feature amount, a value obtained from color information or edge information can be used. For example, the feature amount may include an average color determined from the RGB values of the pixels in the small region F14.

小領域F14のクラスタリングにため、小領域特定プログラム122は、任意のクラスタリングアルゴリズムを採用することができる。例えば、小領域特定プログラム122は、k平均法を使用してもよい。小領域特定プログラム122は、決められたクラスタ数nの仮クラスタ中心点を特徴量空間においてランダムに配置し、各点を最も近い仮クラスタ中心点と関連づける。各仮クラスタ中心点に関連づけられた点が各仮クラスタを構成する。   For clustering of the small area F14, the small area specifying program 122 can employ any clustering algorithm. For example, the small area specifying program 122 may use a k-average method. The small area specifying program 122 randomly arranges temporary cluster center points of the determined number of clusters n in the feature amount space, and associates each point with the closest temporary cluster center point. A point associated with each temporary cluster center point constitutes each temporary cluster.

小領域特定プログラム122は、さらに、仮クラスタそれぞれにおける重心(座標平均)を算出し、これらを新たな仮クラスタ中心点と決定し、新たな仮クラスタ中心点によって、新たな仮クラスタを生成する。小領域特定プログラム122は、仮クラスタ中心点及び仮クラスタの生成を繰り返し、最終的なクラスタを決定する。   The small region specifying program 122 further calculates the center of gravity (coordinate average) in each temporary cluster, determines these as new temporary cluster center points, and generates a new temporary cluster based on the new temporary cluster center point. The small region specifying program 122 repeats the generation of the temporary cluster center point and the temporary cluster, and determines the final cluster.

小領域特定プログラム122は、生成したクラスタから、ノイズに相当するクラスタを除去し、検索クエリの生成に使用する候補のクラスタを選択する。図5Aは、一つの部分領域F13から生成されたクラスタの例を示す。三つのクラスタが生成されており、クラスタ1は三つの小領域A〜Cで構成され、クラスタ2は一つの小領域Dで構成され、クラスタ3は二つの小領域E及びFで構成されている。   The small region specifying program 122 removes a cluster corresponding to noise from the generated cluster and selects a candidate cluster to be used for generating a search query. FIG. 5A shows an example of a cluster generated from one partial region F13. Three clusters are generated, cluster 1 is composed of three small areas A to C, cluster 2 is composed of one small area D, and cluster 3 is composed of two small areas E and F. .

小領域特定プログラム122は、クラスタを構成する小領域数に基づき、ノイズクラスタを除去する。これにより、ノイズクラスを適切に排除できる。例えば、クラスタの構成小領域数が閾値以下であるとき、当該クラスタをノイズクラスタと判定する。図5Bは、検索クエリ生成のための候補(クエリ候補クラスタ)として選択されたクラスタと、ノイズクラスタとして除去されるクラスタとを示す。本例において、小領域数が2以上のクラスタが、検索クエリ生成のための候補として選択される。   The small area specifying program 122 removes the noise cluster based on the number of small areas constituting the cluster. Thereby, a noise class can be excluded appropriately. For example, when the number of constituent small areas of the cluster is equal to or less than the threshold, the cluster is determined as a noise cluster. FIG. 5B shows a cluster selected as a candidate for generating a search query (query candidate cluster) and a cluster removed as a noise cluster. In this example, a cluster having two or more small regions is selected as a candidate for generating a search query.

小領域特定プログラム122は、ノイズ判定のための閾値のユーザ設定を受け付けてもよい。ユーザは、入出力装置193を介して閾値を入力し、小領域特定プログラム122は、当該閾値に従ってノイズクラスタを除去する。   The small area specifying program 122 may accept a user setting of a threshold value for noise determination. The user inputs a threshold value via the input / output device 193, and the small region specifying program 122 removes noise clusters according to the threshold value.

小領域特定プログラム122は、構成小領域数が大きいクラスタから、予め定められた数のクラスタを検索クエリ生成のための候補として選択してもよく、構成小領域数が小さいクラスタから、予め定められた数のクラスタをノイズとして除去してもよい。   The small region specifying program 122 may select a predetermined number of clusters as candidates for generating a search query from clusters having a large number of constituent small regions, and may be determined in advance from clusters having a small number of constituent small regions. A number of clusters may be removed as noise.

他の例において、小領域特定プログラム122は、特徴空間におけるクラスタの位置に基づいて、ノイズクラスタを除去してもよい。特徴空間におけるクラスタの位置は、クラスタの属性を示す。小領域特定プログラム122は、学習データから、ノイズクラスタの重心が属するノイズ基準領域を決定する。図5Cは、特徴量空間におけるノイズ基準領域501の例を示す。小領域特定プログラム122は、クラスタの重心位置を計算し、当該重心位置がノイズ基準領域501に含まれる場合、当該クラスタをノイズクラスタと判定する。   In another example, the small region specifying program 122 may remove a noise cluster based on the position of the cluster in the feature space. The position of the cluster in the feature space indicates the attribute of the cluster. The small region specifying program 122 determines a noise reference region to which the centroid of the noise cluster belongs from the learning data. FIG. 5C shows an example of the noise reference region 501 in the feature amount space. The small area specifying program 122 calculates the centroid position of the cluster, and when the centroid position is included in the noise reference area 501, the small area specifying program 122 determines the cluster as a noise cluster.

小領域特定プログラム122は、ノイズ基準領域501からの距離に基づき、ノイズクラスタを判定してもよい。例えば、小領域特定プログラム122は、ノイズ基準領域501と重心位置との最短距離が大きいクラスタから、予め定められた数のクラスタを検索クエリ生成のための候補として選択してもよい。   The small area specifying program 122 may determine the noise cluster based on the distance from the noise reference area 501. For example, the small region specifying program 122 may select a predetermined number of clusters as candidates for generating a search query from the clusters having the shortest distance between the noise reference region 501 and the gravity center position.

小領域特定プログラム122は、ノイズ領域内の特定の点からの距離に基づき、ノイズクラスタを判定してもよい。例えば、小領域特定プログラム122は、ノイズ領域内の特定の点と重心位置との距離が大きいクラスタから、予め定められた数のクラスタを検索クエリ生成のための候補として選択してもよい。小領域特定プログラム122は、複数のノイズ基準点を用意し、クラスタを構成する点それぞれと、ノイズ基準点それぞれとの距離に基づき、ノイズクラスタを判定してもよい。   The small region specifying program 122 may determine a noise cluster based on a distance from a specific point in the noise region. For example, the small region specifying program 122 may select a predetermined number of clusters as candidates for generating a search query from clusters having a large distance between a specific point in the noise region and the center of gravity position. The small region specifying program 122 may prepare a plurality of noise reference points, and determine the noise cluster based on the distance between each point constituting the cluster and each noise reference point.

小領域特定プログラム122は、人物領域F12において、予め定められている部分をノイズとして除去してもよい。例えば、人物領域F12における端の領域の一部をノイズ領域として除去する。   The small area specifying program 122 may remove a predetermined part as noise in the person area F12. For example, a part of the edge area in the person area F12 is removed as a noise area.

図4Aに戻って、領域F15において、ノイズクラスタに属する小領域F14にはクロスが付されている。小領域統合プログラム123は、各部分領域F13において、クエリ候補として選択された小領域F14の全部又は一部から、色情報やテクスチャ情報の特徴ベクトルを計算する。当該特徴ベクトルは、検索クエリF17において、部分領域に対応するクエリ要素F16である。特徴ベクトルの各要素の値は、小領域F14の特徴量の代表値、中心値、平均値等である。   Returning to FIG. 4A, in the region F15, the small region F14 belonging to the noise cluster is marked with a cross. The small region integration program 123 calculates feature vectors of color information and texture information from all or part of the small region F14 selected as a query candidate in each partial region F13. The feature vector is a query element F16 corresponding to the partial region in the search query F17. The value of each element of the feature vector is a representative value, a center value, an average value, etc. of the feature amount of the small region F14.

小領域統合プログラム123は、部分領域F13から一部のクエリ候補小領域F14を選択し、空間的に配置することでクエリ要素F16を生成してもよい。図4Aにおいて、四つの小領域F14で構成された矩形画像がクエリ要素F16である。クエリ要素F16から算出される色情報やテクスチャ情報の特徴ベクトルを使用して、人物検索(画像検索)が行われる。   The small region integration program 123 may generate a query element F16 by selecting some query candidate small regions F14 from the partial region F13 and spatially arranging them. In FIG. 4A, a rectangular image composed of four small regions F14 is a query element F16. A person search (image search) is performed using the feature vectors of color information and texture information calculated from the query element F16.

部分領域F13から一部のクエリ候補小領域F14を選択する場合、小領域統合プログラム123は、例えば、特徴量空間におけるクエリ候補小領域F14の重心点に近い小領域から、規定数の小領域F14を選択する。または、小領域統合プログラム123は、部分領域F13における小領域F14の配置に基づき、一部の小領域F14を選択してもよい。   When selecting some query candidate small regions F14 from the partial region F13, the small region integration program 123, for example, from a small region close to the center of gravity of the query candidate small region F14 in the feature amount space, to a specified number of small regions F14. Select. Alternatively, the small area integration program 123 may select a part of the small areas F14 based on the arrangement of the small areas F14 in the partial area F13.

例えば、小領域統合プログラム123は、特徴量空間におけるクエリ候補小領域F14の重心点に最も近いクエリ候補小領域F14、又は部分領域F13の中心位置に最も近いクエリ候補小領域F14を選択し、部分領域F13において選択したクエリ候補小領域F14に最も近いクエリ候補小領域F14から、クエリ要素の生成に使用するクエリ候補小領域F14を選択する。   For example, the small region integration program 123 selects the query candidate small region F14 that is closest to the center of gravity of the query candidate small region F14 in the feature amount space, or the query candidate small region F14 that is closest to the center position of the partial region F13. A query candidate small region F14 used for generating a query element is selected from the query candidate small regions F14 closest to the query candidate small region F14 selected in the region F13.

小領域統合プログラム123は、クエリ要素F16において、選択した小領域F14をクエリ要素F16(検索クエリF17)に配置する。クエリ要素F16において、選択された小領域F14は規定形状に再配置されてもよく、選択した小領域F14の部分領域F13における形状(配置)がそのまま維持されてもよい。   The small area integration program 123 places the selected small area F14 in the query element F16 (search query F17) in the query element F16. In the query element F16, the selected small region F14 may be rearranged in a prescribed shape, and the shape (arrangement) in the partial region F13 of the selected small region F14 may be maintained as it is.

小領域統合プログラム123は、部分領域F13における小領域F14の配置に応じて、クエリ要素F16において小領域を配置する。これにより、より精度の高い検索を可能とする検索クエリを生成できる。図4Bは、部分領域における小領域F14の配置と、クエリ要素F16における小領域F14の配置との関係例を示す。   The small area integration program 123 arranges small areas in the query element F16 in accordance with the arrangement of the small areas F14 in the partial area F13. Thereby, it is possible to generate a search query that enables a more accurate search. FIG. 4B shows an example of the relationship between the arrangement of the small area F14 in the partial area and the arrangement of the small area F14 in the query element F16.

部分領域F13から、クエリ要素生成のため、四つの小領域A〜Dが選択される。クエリ要素F16Aにおいて、小領域A〜Dは、矩形を形成するように配置される。小領域統合プログラム123は、クエリ要素F16Aにおいて、部分領域F13における小領域A〜Dの相対的位置関係を維持するように、小領域A〜Dを配置する。つまり、部分領域113及びクエリ要素F16Aにおいて、小領域A、B、C、Dはそれぞれ、左上、右上、右下、左下に配置されている。   From the partial area F13, four small areas A to D are selected for query element generation. In the query element F16A, the small areas A to D are arranged so as to form a rectangle. The small area integration program 123 arranges the small areas A to D in the query element F16A so as to maintain the relative positional relationship of the small areas A to D in the partial area F13. That is, in the partial area 113 and the query element F16A, the small areas A, B, C, and D are arranged at the upper left, upper right, lower right, and lower left, respectively.

クエリ要素F16Bにおいて、小領域A〜Dは、部分領域F13における配置と同様の位置関係を有する。例えば、検索ウィンドウ161において、小領域A〜Dから特徴ベクトルが生成され、検索ウィンドウ161内の他の領域は、特徴ベクトル生成において参照されない。   In the query element F16B, the small areas A to D have the same positional relationship as the arrangement in the partial area F13. For example, in the search window 161, a feature vector is generated from the small areas A to D, and other areas in the search window 161 are not referenced in the feature vector generation.

クエリ要素F16Aのように、小領域F14がクエリ要素F16において規定形状に再配置される場合、小領域統合プログラム123は、クエリ要素F16の規定形状に合わせて小領域F14を選択してもよい。例えば、小領域統合プログラム123は、クエリ要素F16の一つの小領域F14に対応するクエリ候補小領域F14を部分領域F13から選択し、クエリ要素F16における他の小領域F14それぞれの相対位置に最も近いクエリ候補小領域F14を部分領域F13から選択する。   When the small area F14 is rearranged in the prescribed shape in the query element F16 like the query element F16A, the small area integration program 123 may select the small area F14 in accordance with the prescribed shape of the query element F16. For example, the small region integration program 123 selects a query candidate small region F14 corresponding to one small region F14 of the query element F16 from the partial region F13, and is closest to the relative position of each of the other small regions F14 in the query element F16. The query candidate small area F14 is selected from the partial area F13.

例えば、図4Aの例において、最初に選択したクエリ候補小領域F14がクエリ要素F16の左下の小領域F14に対応し、選択したクエリ候補小領域F14の右、左及び右上方向において最も近いクエリ候補小領域F14が、さらに、部分領域F13から選択される。   For example, in the example of FIG. 4A, the first selected query candidate small region F14 corresponds to the lower left small region F14 of the query element F16, and the query candidate closest in the right, left, and upper right directions of the selected query candidate small region F14. The small area F14 is further selected from the partial area F13.

小領域統合プログラム123は、部分領域F13それぞれのクエリ要素F16を組み合わせ、検索クエリF17を生成する。検索クエリF17において、クエリ要素F16はそれぞれ対応する部分領域F13に関連づけられている。小領域統合プログラム123は、さらに、検索クエリF17から検索クエリ画像F18を生成し、ユーザインターフェースF01(入出力装置193)において表示する。   The small area integration program 123 combines the query elements F16 of the partial areas F13 to generate a search query F17. In the search query F17, the query elements F16 are associated with the corresponding partial areas F13. The small region integration program 123 further generates a search query image F18 from the search query F17 and displays it on the user interface F01 (input / output device 193).

ユーザは、検索指示を入力する前に、検索クエリ画像F18を確認できる。画像検索プログラム131は、ユーザインターフェースF01(入出力装置193)から検索指示を受け取ると、生成された検索クエリF17を使用して、画像データベース141において、人物を検索する。検索クエリ画像F18は表示しなくてもよく、画像検索プログラム131は、ユーザ指示を受けることなく、生成された検索クエリF17を使用して人物を検索してもよい。   The user can confirm the search query image F18 before inputting the search instruction. Upon receiving a search instruction from the user interface F01 (input / output device 193), the image search program 131 searches for a person in the image database 141 using the generated search query F17. The search query image F18 may not be displayed, and the image search program 131 may search for a person using the generated search query F17 without receiving a user instruction.

図6A〜6Cは、人物領域12を複数の部分領域13に分割する方法を示す。部分領域分割プログラム121は、マスクを使用して人物領域12を複数の部分領域13に分割してもよい。マスクを使用することで、背景ノイズを効果的に除去することができる。   6A to 6C show a method of dividing the person area 12 into a plurality of partial areas 13. The partial area dividing program 121 may divide the person area 12 into a plurality of partial areas 13 using a mask. By using a mask, background noise can be effectively removed.

図6Aは、人型マスクF21の例を示す。部分領域分割プログラム121は、人物領域F12を受け取ると、当該人物領域F12の外形に合わせて、人型マスクF21を変形する。この点は他のマスクについて同様である。   FIG. 6A shows an example of a humanoid mask F21. When the partial area dividing program 121 receives the person area F12, the partial area dividing program 121 changes the human mask F21 in accordance with the outer shape of the person area F12. This is the same for other masks.

人型マスクF21は、人型の透過領域と当該透過領域を囲む遮蔽領域とで構成される。透過領域は、三つの透過領域F211〜F213に分割されている。透過領域F211〜F213は、それぞれ、Top、Upper、Bottomの部分領域F13に対応する。透過領域F212は、隣接する透過領域F211及び透過領域F213それぞれと、一部重複してもよい。   The humanoid mask F21 includes a humanoid transmission region and a shielding region surrounding the transmission region. The transmission region is divided into three transmission regions F211 to F213. The transmission regions F211 to F213 correspond to the partial region F13 of Top, Upper, and Bottom, respectively. The transmission region F212 may partially overlap with each of the adjacent transmission region F211 and transmission region F213.

透過領域F211〜F213と重なり、露出する、つまり、透過領域F211〜F213に含まれる領域が、人物領域F12の部分領域F13として抽出される。小領域特定プログラム122は、人物領域F12において、透過領域F211〜F213内の部分領域F13を、それぞれ、複数の小領域F14に分割する。   An area that overlaps with and is exposed in the transmissive areas F211 to F213, that is, an area included in the transmissive areas F211 to F213 is extracted as a partial area F13 of the person area F12. The small area specifying program 122 divides the partial areas F13 in the transparent areas F211 to F213 into a plurality of small areas F14 in the person area F12.

図6Bは、ブロック型マスクF22の例を示す。マスクF22において、透過領域は複数の矩形透過領域で構成されている。具体的には、透過領域は、三つの透過領域F221〜F223で構成されている。透過領域F221〜F223は、それぞれ、Top、Upper、Bottomの部分領域F13に対応する。透過領域F221〜F223の周囲は遮蔽領域である。   FIG. 6B shows an example of the block mask F22. In the mask F22, the transmission area is composed of a plurality of rectangular transmission areas. Specifically, the transmissive region includes three transmissive regions F221 to F223. The transmission areas F221 to F223 correspond to the partial area F13 of Top, Upper, and Bottom, respectively. The periphery of the transmission areas F221 to F223 is a shielding area.

透過領域F222は、隣接する透過領域F221及び透過領域F223それぞれと、一部重複する。これにより、人物により変化するボトムスやトップス等の部位全体を、透過領域221〜223それぞれに含めることができる。透過領域221〜223は完全に分離されていてもよい。   The transmission region F222 partially overlaps with each of the adjacent transmission region F221 and transmission region F223. Thereby, the whole site | parts, such as bottoms and tops which change with a person, can be included in each of the transmission area | regions 221-223. The transmission regions 221 to 223 may be completely separated.

図6Cは、人物領域F12内の人物画像に沿ってマスクF31を形成する例を示す。これにより、人物領域F12内のより多くのノイズをクラスタリング前に除去することができる。除去図6Cにおいて、透過領域F311〜F313は、それぞれ、Top、Upper、Bottomの部分領域F13に対応する。   FIG. 6C shows an example in which the mask F31 is formed along the person image in the person area F12. Thereby, more noise in the person area F12 can be removed before clustering. In the removal FIG. 6C, transmission regions F311 to F313 correspond to the partial region F13 of Top, Upper, and Bottom, respectively.

部分領域分割プログラム121は、例えば、人型マスクF21又はブロック型マスクF22を人物領域に重ねる。部分領域分割プログラム121は、Top、Upper、Bottomの透過領域内の画像それぞれにおいて、画像のエッジ情報から、人物の外形を特定する。例えば、部分領域分割プログラム121は、画像の輝度勾配の情報から、Watershedアルゴリズムを使用してエッジを特定し、人体形状モデルと比較して透過領域F311〜F313を切り出す。   For example, the partial area dividing program 121 superimposes the human mask F21 or the block mask F22 on the person area. The partial area dividing program 121 specifies the outline of a person from the edge information of the image in each of the images in the Top, Upper, and Bottom transparent areas. For example, the partial region dividing program 121 identifies the edge using the Watershed algorithm from the information on the luminance gradient of the image, and cuts out the transparent regions F311 to F313 as compared with the human body shape model.

人物画像に沿ってマスクF31を形成することで、人物領域F12内のより多くのノイズをクラスタリング前に除去することができる。なお、人物領域F12にユーザがマスク領域を指定すれば、事前にマスクデータがなくてもWatershedアルゴリズムを使用したエッジと人体モデルとを比較して、各部位を決定できる。   By forming the mask F31 along the person image, more noise in the person region F12 can be removed before clustering. If the user designates a mask area for the person area F12, each part can be determined by comparing the edge using the Watershed algorithm with the human body model without mask data in advance.

図7は、人物領域F12の部分領域F13への分割において、複数のマスクから一つのマスクを選択する処理を示す。メモリ192は、姿勢・マスクデータベース57を格納している。部分領域分割プログラム121は、人物領域F12内の人物の姿勢を特定し、姿勢・マスクデータベース57から人物の姿勢に対応したマスクを選択する。これにより、人物以外の領域をより適切に人物領域F12から除去することができる。   FIG. 7 shows a process of selecting one mask from a plurality of masks in the division of the person area F12 into the partial areas F13. The memory 192 stores a posture / mask database 57. The partial area dividing program 121 specifies the posture of the person in the person area F12 and selects a mask corresponding to the posture of the person from the posture / mask database 57. Thereby, the area other than the person can be more appropriately removed from the person area F12.

姿勢・マスクデータベース57は、複数のマスクと、各マスクに関連付けられた特徴ベクトルを格納している。特徴ベクトルは、人体の異なる姿勢に対応した姿勢特徴ベクトルである。姿勢特徴ベクトルは、人体モデル又は多くの学習データから抽出できる。   The posture / mask database 57 stores a plurality of masks and feature vectors associated with each mask. The feature vector is a posture feature vector corresponding to a different posture of the human body. The posture feature vector can be extracted from a human body model or a lot of learning data.

部分領域分割プログラム121は、人物領域F12における人体画像を抽出し、当該人体画像の特徴ベクトルを算出する。算出する特徴ベクトルは、例えば、HOG特徴ベクトルである。部分領域分割プログラム121は、算出した特徴ベクトルを姿勢特徴ベクトルに変換して、人物領域F12の姿勢特徴を抽出する(S51)。   The partial area dividing program 121 extracts a human body image in the person area F12 and calculates a feature vector of the human body image. The feature vector to be calculated is, for example, a HOG feature vector. The partial region dividing program 121 converts the calculated feature vector into a posture feature vector, and extracts the posture feature of the person region F12 (S51).

部分領域分割プログラム121は、計算した姿勢特徴ベクトルと、姿勢・マスクデータベース57内の各姿勢特徴ベクトルを比較する(S52)。部分領域分割プログラム121は、姿勢・マスクデータベース57内の最も類似する(最も距離が小さい)姿勢特徴ベクトルに対応するマスクを選択する(S53)。部分領域分割プログラム121は、選択したマスクを使用して、人物領域F12を部分領域F13に分割する。   The partial region dividing program 121 compares the calculated posture feature vector with each posture feature vector in the posture / mask database 57 (S52). The partial region dividing program 121 selects a mask corresponding to the most similar (smallest distance) posture feature vector in the posture / mask database 57 (S53). The partial area dividing program 121 divides the person area F12 into partial areas F13 using the selected mask.

姿勢・マスクデータベース57は、姿勢特徴ベクトルから変換された特徴ベクトルを格納してもよい。人物領域F12から計算される特徴ベクトルを姿勢特徴ベクトルに変換不要である。部分領域分割プログラム121は、ユーザによるマスクの選択を受け付けてもよい。部分領域分割プログラム121は、ユーザに選択されたマスクを使用して、人物領域F12を部分領域F13に分割する。   The posture / mask database 57 may store feature vectors converted from posture feature vectors. It is not necessary to convert the feature vector calculated from the person area F12 into the posture feature vector. The partial area dividing program 121 may accept selection of a mask by the user. The partial area dividing program 121 divides the person area F12 into partial areas F13 using the mask selected by the user.

図8は、人物領域F12及びマスクの決定のためのナビゲーション画像を示す。ナビゲーション画像は、入力画像を表示する入力画像表示領域80と、選択可能なマスクを表示するマスク表示領域81を含む。マスクは、人物領域F12の分割において使用される。ユーザは、入力画像表示領域80において、人物領域を画定する枠82を入力する。   FIG. 8 shows a navigation image for determining the person region F12 and the mask. The navigation image includes an input image display area 80 for displaying an input image and a mask display area 81 for displaying a selectable mask. The mask is used in the division of the person area F12. The user inputs a frame 82 that defines a person area in the input image display area 80.

人物領域特定プログラム112は、ユーザが人物領域F12を決定する際に、ユーザにより入力された枠82内にマスク、より具体的には、マスクの透過領域の外形83を表示する。人物領域特定プログラム112は、登録されたマスクから選択された一つのマスクを、ユーザ入力された枠に応じて変形して表示する。   When the user determines the person area F12, the person area specifying program 112 displays a mask, more specifically, an outline 83 of the transparent area of the mask in the frame 82 input by the user. The person area specifying program 112 deforms and displays one mask selected from the registered masks according to the frame input by the user.

ユーザがマスク表示領域81からマスクを選択すると、人物領域特定プログラム112は、選択されたマスクを枠82内に表示する。ユーザが枠82の形状を変化させると、人物領域特定プログラム112は、変形された枠82に応じて枠内のマスク83の形状を変化させる。   When the user selects a mask from the mask display area 81, the person area specifying program 112 displays the selected mask in the frame 82. When the user changes the shape of the frame 82, the person region specifying program 112 changes the shape of the mask 83 in the frame according to the deformed frame 82.

ユーザが決定ボタン84を選択すると、人物領域特定プログラム112は、決定ボタン58が選択された時の枠82で決まる人物領域F12と選択されたマスクの情報を、部分領域分割プログラム121に出力する。当該ナビケーションによって、ユーザが適切と判定した人物領域及びマスクを使用して検索クエリを生成することができる。   When the user selects the enter button 84, the person area specifying program 112 outputs information about the person area F12 determined by the frame 82 when the enter button 58 is selected and the selected mask to the partial area dividing program 121. By the navigation, a search query can be generated using a person region and a mask that the user determines to be appropriate.

なお、ナビゲーション画像において、マスク表示領域81は省略されてもよい。人物領域特定プログラム112は、マスク外形83のような、予め登録されている人型を枠82内に表示する。ユーザが枠82の形状を変化させると、人物領域特定プログラム112は、変形された枠82に応じて枠内の人型の形状を変化させる。   In the navigation image, the mask display area 81 may be omitted. The person area specifying program 112 displays a pre-registered human figure such as the mask outline 83 in the frame 82. When the user changes the shape of the frame 82, the person area specifying program 112 changes the shape of the human figure in the frame according to the deformed frame 82.

上述のように、本開示の画像検索装置は、検索クエリを自動生成すると共に、検索精度を向上させることができる。本開示の画像検索装置は、目標人物を含む領域を複数の領域に分割し、背景を含むノイズを除去することで、精度良く検索できる検索クエリを自動的に生成する。   As described above, the image search device of the present disclosure can automatically generate a search query and improve search accuracy. The image search device according to the present disclosure automatically generates a search query that can be searched with high accuracy by dividing a region including the target person into a plurality of regions and removing noise including the background.

本開示の画像検索装置においては、簡素化された入力操作により操作時間を削減でき、服装の柄や色の組合せが増えても、手動での入力する必要がない。本開示の画像検索装置は、実データから検索クエリを自動的に生成可能なため、検索クエリの正確性を向上し、目標人物を見逃すリスクを軽減できる。なお、本開示の画像検索装置は、目標人物の検索に好適であるが、他の対象の検索に適用してもよい。   In the image search device of the present disclosure, the operation time can be reduced by a simplified input operation, and even if the number of clothes patterns and color combinations increases, there is no need to input manually. Since the image search device of the present disclosure can automatically generate a search query from actual data, the accuracy of the search query can be improved and the risk of missing a target person can be reduced. Note that the image search device of the present disclosure is suitable for searching for a target person, but may be applied to search for other targets.

なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明したすべての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。   In addition, this invention is not limited to an above-described Example, Various modifications are included. For example, the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described. Further, a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment. Further, it is possible to add, delete, and replace other configurations for a part of the configuration of each embodiment.

また、上記の各構成・機能・処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記録装置、または、ICカード、SDカード等の記録媒体に置くことができる。   Each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them, for example, with an integrated circuit. Each of the above-described configurations, functions, and the like may be realized by software by interpreting and executing a program that realizes each function by the processor. Information such as programs, tables, and files for realizing each function can be stored in a memory, a hard disk, a recording device such as an SSD (Solid State Drive), or a recording medium such as an IC card or an SD card.

また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしもすべての制御線や情報線を示しているとは限らない。実際には殆どすべての構成が相互に接続されていると考えてもよい。   In addition, the control lines and information lines are those that are considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. In practice, it may be considered that almost all the components are connected to each other.

100…入力画像データ、101…画像検索装置、102…ユーザ操作部、103…クエリ生成部、104…検索部、111…画像入力プログラム、112…人物領域特定プログラム、121…部分領域分割プログラム、122…小領域特定プログラム、123…小領域統合部、131…画像検索プログラム、132…検索結果表示プログラム、141…画像データベース、151…人物領域送信プログラム、152…人物領域受信プログラム、153…クエリ送信プログラム、154…クエリ受信プログラム、190、203、207、210…インタフェース、191、201、205、208…CPU、192、202、206、209…メモリ、193、204…入出力装置   DESCRIPTION OF SYMBOLS 100 ... Input image data, 101 ... Image search apparatus, 102 ... User operation part, 103 ... Query production | generation part, 104 ... Search part, 111 ... Image input program, 112 ... Person area identification program, 121 ... Partial area division program, 122 ... small area specifying program, 123 ... small area integration unit, 131 ... image search program, 132 ... search result display program, 141 ... image database, 151 ... person area transmission program, 152 ... person area reception program, 153 ... query transmission program 154: Query reception program, 190, 203, 207, 210 ... Interface, 191, 201, 205, 208 ... CPU, 192, 202, 206, 209 ... Memory, 193, 204 ... I / O device

Claims (12)

プログラムを格納するメモリ装置と、
前記プログラムに従って動作する演算装置と、
入出力装置と、を含む画像処理装置であって、
前記演算装置は、
入力画像において人物を含む人物領域を特定し、
前記人物領域を複数の部分領域に分割し、
前記複数の部分領域それぞれを、複数の小領域に分割し、
前記複数の部分領域それぞれにおいて、前記複数の小領域をクラスタリングしてクラスタを形成し、
前記複数の部分領域それぞれにおいて、前記クラスタの属性に基づき、前記クラスタからクエリ候補のクラスタを選択し、
前記複数の部分領域それぞれにおいて、前記選択したクラスタの小領域からクエリ要素を生成し、
前記複数の部分領域のクエリ要素を組み合わせて前記人物を検索するための検索クエリを生成する、画像処理装置。
A memory device for storing the program;
An arithmetic device that operates according to the program;
An image processing apparatus including an input / output device,
The arithmetic unit is:
In the input image, specify the person area that contains the person,
Dividing the person area into a plurality of partial areas;
Dividing each of the plurality of partial regions into a plurality of small regions;
In each of the plurality of partial regions, a cluster is formed by clustering the plurality of small regions,
In each of the plurality of partial areas, a cluster of query candidates is selected from the clusters based on the attributes of the clusters,
In each of the plurality of partial areas, a query element is generated from a small area of the selected cluster,
An image processing apparatus that generates a search query for searching for the person by combining query elements of the plurality of partial regions.
請求項1に記載の画像処理装置であって、
前記演算装置は、前記複数の部分領域それぞれにおいて、前記クラスタを構成する小領域の数に基づき、前記クラスタからクエリ候補のクラスタを選択する、画像処理装置。
The image processing apparatus according to claim 1,
The said arithmetic unit is an image processing apparatus which selects a cluster of query candidates from the said cluster based on the number of the small area | regions which comprise the said cluster in each of these partial area | regions.
請求項1又は2に記載の画像処理装置であって、
前記演算装置は、前記人物領域にマスクを重ね、前記マスクの透過領域から露出する領域を複数の部分領域に分割する、画像処理装置。
The image processing apparatus according to claim 1, wherein:
The arithmetic device is an image processing device in which a mask is overlaid on the person area, and an area exposed from a transmission area of the mask is divided into a plurality of partial areas.
請求項3に記載の画像処理装置であって、
前記メモリ装置は、人物の異なる姿勢に対応する複数のマスクを含む、マスクデータベースをさらに含み、
前記演算装置は、前記人物領域における前記人物の姿勢を推定し、前記姿勢に応じたマスクを前記マスクデータベースから選択する、画像処理装置。
The image processing apparatus according to claim 3,
The memory device further includes a mask database including a plurality of masks corresponding to different postures of the person;
The image processing device, wherein the arithmetic device estimates the posture of the person in the person region and selects a mask corresponding to the posture from the mask database.
請求項1又は2に記載の画像処理装置であって、
前記演算装置は、
前記複数の部分領域それぞれにおいて、前記選択したクラスタの小領域から一部の小領域を選択し、
前記一部の小領域の前記部分領域における位置関係に応じて、前記一部の小領域を前記クエリ要素において配置する、画像処理装置。
The image processing apparatus according to claim 1, wherein:
The arithmetic unit is:
In each of the plurality of partial areas, select a small area from the small area of the selected cluster,
An image processing apparatus that arranges the partial small area in the query element according to a positional relationship of the partial small area in the partial area.
請求項1又は2に記載の画像処理装置であって、
前記演算装置は、
前記入出力装置において、前記入力画像を表示し、
前記入出力装置から、表示された前記入力画像に対する前記人物領域の枠の指定を受信し、
前記入出力装置において、前記枠内に人型の領域を表示し、
前記入出力装置から、前記人型を含む前記枠の変更を受信し、
前記入出力装置から決定の入力を受信した枠により画定される前記人物領域を、前記複数の部分領域に分割する、画像処理装置。
The image processing apparatus according to claim 1, wherein:
The arithmetic unit is:
In the input / output device, the input image is displayed,
Receiving a designation of a frame of the person area for the displayed input image from the input / output device;
In the input / output device, a humanoid area is displayed in the frame,
Receiving the change of the frame including the humanoid from the input / output device;
An image processing apparatus that divides the person area defined by a frame that has received a decision input from the input / output apparatus into the plurality of partial areas.
画像を検索する検索クエリの生成方法であって、
入力画像において人物を含む人物領域を特定し、
前記人物領域を複数の部分領域に分割し、
前記複数の部分領域それぞれを、複数の小領域に分割し、
前記複数の部分領域それぞれにおいて、前記複数の小領域をクラスタリングしてクラスタを形成し、
前記複数の部分領域それぞれにおいて、前記クラスタの属性に基づき、前記クラスタからクエリ候補のクラスタを選択し、
前記複数の部分領域それぞれにおいて、前記選択したクラスタの小領域からクエリ要素を生成し、
前記複数の部分領域のクエリ要素を組み合わせて前記人物を検索するための検索クエリを生成する、ことを含む方法。
A method for generating a search query for searching for an image,
In the input image, specify the person area that contains the person,
Dividing the person area into a plurality of partial areas;
Dividing each of the plurality of partial regions into a plurality of small regions;
In each of the plurality of partial regions, a cluster is formed by clustering the plurality of small regions,
In each of the plurality of partial areas, a cluster of query candidates is selected from the clusters based on the attributes of the clusters,
In each of the plurality of partial areas, a query element is generated from a small area of the selected cluster,
Generating a search query for searching for the person by combining query elements of the plurality of partial regions.
請求項7に記載の方法であって、
前記複数の部分領域それぞれにおいて、前記クラスタを構成する小領域の数に基づき、前記クラスタからクエリ候補のクラスタを選択する、方法。
The method of claim 7, comprising:
A method of selecting a query candidate cluster from the cluster based on the number of small areas constituting the cluster in each of the plurality of partial areas.
請求項7又は8に記載の方法であって、
前記人物領域にマスクを重ね、前記マスクの透過領域から露出する領域を複数の部分領域に分割する、方法。
The method according to claim 7 or 8, comprising:
A method in which a mask is overlaid on the person area, and an area exposed from a transmission area of the mask is divided into a plurality of partial areas.
請求項9に記載の方法であって、
前記人物領域における前記人物の姿勢を推定し、
前記姿勢に応じたマスクを、異なる姿勢に対応する複数のマスクからから選択する、方法。
The method of claim 9, comprising:
Estimating the posture of the person in the person area;
A method of selecting a mask corresponding to the posture from a plurality of masks corresponding to different postures.
請求項7又は8に記載の方法であって、
前記複数の部分領域それぞれにおいて、前記選択したクラスタの小領域から一部の小領域を選択し、
前記一部の小領域の部分領域における位置関係応じて前記一部の小領域を前記クエリ要素において配置する、方法。
The method according to claim 7 or 8, comprising:
In each of the plurality of partial areas, select a small area from the small area of the selected cluster,
A method of arranging the partial small area in the query element according to a positional relationship in the partial area of the partial small area.
請求項7又は8に記載の方法であって、
前記入力画像を表示し、
表示された前記入力画像に対する前記人物領域の枠の指定を受信し、
前記枠内に人型の領域を表示し、
前記人型を含む前記枠の変更を受信し、
決定の入力を受信した枠により画定される前記人物領域を、前記複数の部分領域に分割する、方法。
The method according to claim 7 or 8, comprising:
Displaying the input image;
Receiving a designation of the frame of the person area for the displayed input image;
Display a humanoid area in the frame,
Receiving a change of the frame containing the humanoid,
Dividing the person region defined by the frame receiving the decision input into the plurality of partial regions.
JP2015043630A 2015-03-05 2015-03-05 Image processing device Ceased JP2016162414A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015043630A JP2016162414A (en) 2015-03-05 2015-03-05 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015043630A JP2016162414A (en) 2015-03-05 2015-03-05 Image processing device

Publications (1)

Publication Number Publication Date
JP2016162414A true JP2016162414A (en) 2016-09-05

Family

ID=56845281

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015043630A Ceased JP2016162414A (en) 2015-03-05 2015-03-05 Image processing device

Country Status (1)

Country Link
JP (1) JP2016162414A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3483741A1 (en) 2017-11-13 2019-05-15 Hitachi, Ltd. Image retrieving apparatus, image retrieving method, and setting screen used therefor
WO2019207721A1 (en) * 2018-04-26 2019-10-31 日本電気株式会社 Information processing device, control method, and program
WO2022038855A1 (en) 2020-08-17 2022-02-24 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program
JP7409499B2 (en) 2020-06-10 2024-01-09 日本電気株式会社 Image processing device, image processing method, and program

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070244A (en) * 2009-09-24 2011-04-07 Yahoo Japan Corp Device, method and program for retrieving image
JP2011257963A (en) * 2010-06-08 2011-12-22 Canon Inc Image processing device, and processing method and program thereof

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011070244A (en) * 2009-09-24 2011-04-07 Yahoo Japan Corp Device, method and program for retrieving image
JP2011257963A (en) * 2010-06-08 2011-12-22 Canon Inc Image processing device, and processing method and program thereof

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3483741A1 (en) 2017-11-13 2019-05-15 Hitachi, Ltd. Image retrieving apparatus, image retrieving method, and setting screen used therefor
JP2019091138A (en) * 2017-11-13 2019-06-13 株式会社日立製作所 Image retrieving apparatus, image retrieving method, and setting screen used therefor
US10977515B2 (en) 2017-11-13 2021-04-13 Hitachi, Ltd. Image retrieving apparatus, image retrieving method, and setting screen used therefor
WO2019207721A1 (en) * 2018-04-26 2019-10-31 日本電気株式会社 Information processing device, control method, and program
JPWO2019207721A1 (en) * 2018-04-26 2021-04-01 日本電気株式会社 Information processing equipment, control methods, and programs
JP6992881B2 (en) 2018-04-26 2022-01-13 日本電気株式会社 Information processing equipment, control methods, and programs
US11610385B2 (en) 2018-04-26 2023-03-21 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
US11887331B2 (en) 2018-04-26 2024-01-30 Nec Corporation Information processing apparatus, control method, and non-transitory storage medium
JP7409499B2 (en) 2020-06-10 2024-01-09 日本電気株式会社 Image processing device, image processing method, and program
WO2022038855A1 (en) 2020-08-17 2022-02-24 カシオ計算機株式会社 Feature amount acquisition device, similar image search device, display device, feature amount acquisition method, similar image search method, display method, and program

Similar Documents

Publication Publication Date Title
Valentin et al. Learning to navigate the energy landscape
Cheng et al. Depth enhanced saliency detection method
US10074186B2 (en) Image search system, image search apparatus, and image search method
Schmidt et al. VAICo: Visual analysis for image comparison
JP2023134806A (en) Textual and image based search
US9774793B2 (en) Image segmentation for a live camera feed
EP2216749A1 (en) Image classification device and image classification program
US10152123B2 (en) Method and system for detecting objects of interest
US10891019B2 (en) Dynamic thumbnail selection for search results
JP2013125322A (en) Learning device, program and learning method
JP2007328456A (en) Object display processing apparatus, object display processing method, and program for object display processing
JP2007109136A (en) Image display controller
JP2016162414A (en) Image processing device
KR101678377B1 (en) Video surveillance system and method for providing visual event outcomes
US20230237777A1 (en) Information processing apparatus, learning apparatus, image recognition apparatus, information processing method, learning method, image recognition method, and non-transitory-computer-readable storage medium
TW202011266A (en) Neural network system for image matching and location determination, method, and device
US20180144074A1 (en) Retrieving apparatus, display device, and retrieving method
JP2010245983A (en) Image structuring device, image structure method, and image structuring program
JP6752122B2 (en) Image processing device, image processing method
JP5298616B2 (en) Information presenting apparatus, information presenting method, and information presenting program
JP2005235041A (en) Retrieval image display method and retrieval image display program
Happ et al. Towards distributed region growing image segmentation based on MapReduce
JP6570905B2 (en) Graph display device, graph display program, and computer-readable storage medium storing graph display program
JP4324123B2 (en) Model data display program, model data display device, and model data display method
US20210191969A1 (en) Material search system for visual, structural, and semantic search using machine learning

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170316

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180322

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180403

A045 Written measure of dismissal of application [lapsed due to lack of payment]

Free format text: JAPANESE INTERMEDIATE CODE: A045

Effective date: 20180828