JP5138790B2 - Image search apparatus and image search method - Google Patents
Image search apparatus and image search method Download PDFInfo
- Publication number
- JP5138790B2 JP5138790B2 JP2011107288A JP2011107288A JP5138790B2 JP 5138790 B2 JP5138790 B2 JP 5138790B2 JP 2011107288 A JP2011107288 A JP 2011107288A JP 2011107288 A JP2011107288 A JP 2011107288A JP 5138790 B2 JP5138790 B2 JP 5138790B2
- Authority
- JP
- Japan
- Prior art keywords
- search
- image
- approximate
- approximate data
- data
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Description
本発明は、画像から抽出した多次元特徴データ(顔,色等)を用いて、大容量の画像群から所望の画像を高速に洗出すことのできる画像検索装置および画像検索方法に関するものである。 The present invention relates to an image search apparatus and an image search method that can quickly extract a desired image from a large-capacity image group using multidimensional feature data (face, color, etc.) extracted from an image. .
近年、ピッキング・強盗・放火等に代表される犯罪の増加と共に、カメラ・センサ・蓄積装置等を設置し、犯罪を未然に防止する映像監視システムの普及が大幅に進んでいる。また、監視カメラのIP化・蓄積装置の大容量化に伴い、数百規模の広域監視・長時間記録を行なうシステムも増加してきた。このような状況において、監視者の業務軽減を目指し、万引き犯・迷子者・落し物者等の特定人物の洗出しを効率的に行なうための技術が要望されてきている。 In recent years, with the increase of crimes represented by picking, robbery, arson, etc., the spread of video surveillance systems for preventing crimes by installing cameras, sensors, storage devices, etc. is greatly advanced. In addition, with the increase in the capacity of surveillance camera IP and storage devices, systems that perform wide-area monitoring and long-time recording on the scale of several hundreds have increased. Under such circumstances, there is a demand for a technique for efficiently washing a specific person such as a shoplifter, a lost child, a lost person, etc. with the aim of reducing the work of a supervisor.
特定人物の洗出しを高速に行なう従来技術として、画像から抽出した多次元特徴データ群(色,顔等)を予め距離の近い順にクラスタリングして木構造にしておき、検索時には検索対象人物に最も近い部分木のみ検索する手法がある。また、特許文献1には、統計的手法により用意したモデル空間に射影して、高精度で次元数の少ない多次元特徴データを生成することで高速検索する方法が記載されている。
As a conventional technique for identifying a specific person at high speed, a multi-dimensional feature data group (color, face, etc.) extracted from an image is clustered in advance in the order of the closest distance to form a tree structure. There is a technique for searching only near subtrees. Further,
しかしながら、従来の木構造にする方法では、多次元特徴データの次元数が多くなると、隣接空間が指数関数的に増え、多次元特徴データをクラスタリング(登録)するのに膨大な時間を要する。さらに、検索時には、隣接空間も含め近傍検索を行なうため、登録同様、膨大な時間を要する。
また、特許文献1に記載の技術においては、射影による次元縮退には限度がある。また、その対策として、目/鼻/口等の重要度の高い部分のみを使用して類似度計算をする方法も記載されているが、個人の特徴がどこに現れるのかは千差万別で、精度を維持したまま次元を縮退するには限界がある。
However, in the conventional tree structure method, when the number of dimensions of the multidimensional feature data increases, the adjacent space increases exponentially, and it takes a lot of time to cluster (register) the multidimensional feature data. Furthermore, since a neighborhood search including an adjacent space is performed at the time of search, a huge amount of time is required like registration.
Further, in the technique described in
本発明は、前記従来の事情に鑑みてなされたもので、顔/色等の多次元特徴データが高次元で大量に存在する場合でも、ユーザの望む画像を効率よく適切に検索可能な画像検索装置および画像検索方法を実現することを目的とする。 The present invention has been made in view of the above-described conventional circumstances, and is an image search capable of efficiently and appropriately searching for an image desired by a user even when a large amount of multi-dimensional feature data such as face / color exists in high dimensions. An object is to realize an apparatus and an image search method.
本発明の画像検索装置は、画像を蓄積する画像蓄積手段と、前記画像の近似データを前記画像と対応付けて蓄積する近似データ蓄積手段と、検索対象に類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索する近似空間検索手段と、前記近似空間検索手段の検索結果に対応する前記画像蓄積手段に蓄積された画像と検索対象との類似度を計算する手段とを備え、前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記画像同士の関係を保持する様に生成されることを特徴とする。 The image search apparatus according to the present invention includes an image storage unit that stores an image, an approximate data storage unit that stores the approximate data of the image in association with the image, and approximate data that is similar to a search target. An approximate space search means for searching from the approximate data stored in, and a means for calculating the similarity between the image stored in the image storage means corresponding to the search result of the approximate space search means and the search target, The approximate data stored in the approximate data storage means is generated so as to maintain the relationship between the images stored in the image storage means.
また、本発明の画像検索装置は、前記近似データ蓄積手段に蓄積されたデータ量は、近似データに対応する画像を蓄積した画像蓄積手段のデータ量より少なく、近似データ蓄積手段は画像蓄積手段に比べ高速アクセス可能であることを特徴とする。 In the image search device of the present invention, the amount of data stored in the approximate data storage means is smaller than the data amount of the image storage means that stores images corresponding to the approximate data, and the approximate data storage means is stored in the image storage means. It is characterized by high speed access.
また、本発明のデータ蓄積装置は、画像検索装置におけるデータ蓄積装置であって、画像を蓄積する画像蓄積手段と、前記画像を近似した近似データを前記画像蓄積手段に蓄積された画像と対応付けて蓄積する近似データ蓄積手段とを備え、前記近似データ蓄積手段に蓄積されるデータ量は、近似データに対応する画像を蓄積した画像蓄積手段に蓄積されるデータ量より少なく、前記近似データ蓄積手段は前記画像蓄積手段に比べ高速アクセス可能な記憶媒体であり、前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記画像同士の関係を保持する様に生成されることを特徴とする。 The data storage device of the present invention is a data storage device in an image search device, and associates image storage means for storing an image with approximate data approximating the image with an image stored in the image storage means. The approximate data storage means, and the amount of data stored in the approximate data storage means is less than the amount of data stored in the image storage means storing the image corresponding to the approximate data, and the approximate data storage means Is a storage medium that can be accessed at a higher speed than the image storage means, and the approximate data stored in the approximate data storage means is generated so as to maintain the relationship between the images stored in the image storage means. It is characterized by that.
また、本発明の画像検索方法は、前記データ蓄積装置を備えた画像検索装置を用いて、プログラムされたコンピュータにより画像を検索する方法であって、検索対象と類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索するステップと、検索結果に対応する画像を画像蓄積手段から求めるステップと、検索対象と前記画像蓄積手段から求めた検索結果の画像との類似度を計算するステップとを有することを特徴とする。 The image search method of the present invention is a method of searching for an image by a programmed computer using an image search device provided with the data storage device, wherein approximate data similar to a search target is stored in the approximate data storage. A step of searching from the approximate data stored in the means, a step of obtaining an image corresponding to the search result from the image storage means, and a step of calculating the similarity between the search target and the image of the search result obtained from the image storage means It is characterized by having.
本発明によれば、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みができるため、次元数が高次元になった時でもユーザの望む画像を効率よく検索することができる。 According to the present invention, the search results can be narrowed down to some extent in the approximate space with a reduced number of dimensions, and then finally narrowed down in the real space. Therefore, even when the number of dimensions becomes high, an image desired by the user can be efficiently obtained. You can search.
以下、本発明の実施の形態について、図面を参照しながら説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
(実施の形態1)
図1は、本発明の実施の形態1における画像検索装置の構成図である。図1において、11は、人物を撮影するカメラ、12は、指定された検索条件に該当する人物を含む画像を検索する検索サーバ、13は、検索サーバ12に対して検索条件を指定して検索を実行させるための検索端末である。101は、カメラ11で撮影した画像から、顔/色/形状などの人物を識別するための多次元特徴データを抽出する多次元特徴データ生成手段、102は、多次元特徴データ生成手段101で抽出した多次元特徴データの次元を縮退して近似データを生成する次元縮退手段、103は、次元縮退手段102で生成した近似データと次元縮退前の多次元特徴データと対応付けて、それぞれ近似特徴データ群103aと実特徴データ群103bとして蓄積する近似データ蓄積手段、104は、少なくとも、検索対象人物の多次元特徴データを識別する識別子を検索キーとして受信する検索要求受信手段、105は、検索端末13で指定された検索条件に基づいて、検索要求受信手段104で受信した検索キーに対応する近似データと近似データ蓄積手段103で蓄積した複数の近似データのそれぞれとの距離計算を行ない、計算結果の距離順すなわち類似度順に並べる近似空間検索手段、106は、近似空間検索手段105で得られた類似度の高い結果群に対して、次元縮退前の多次元特徴データを用いて再度距離計算を行ない最終順位を決定する実空間最終ランク付け手段である。実空間最終ランク付け手段106で決定された最終順位は、検索結果として出力される。
(Embodiment 1)
FIG. 1 is a configuration diagram of an image search apparatus according to
多次元特徴データ生成手段101で抽出する人物特徴データは、画像から切出した移動体の画像データであり、或いは、形状・色・大きさ、動きなどにより移動体を特定する情報であり、或いは、顔の目・鼻・口の形状や位置などを特定する情報である。これらの特徴情報の抽出分類方法は広く知られており、例えば、特開2001-268657号公報、及び、「画像の処理と認識」(安居院猛・長尾智晴 共著、昭晃堂出版)に厳密に記されている。これらの既存技術を利用して生成した顔/服装色等の人物特徴データは、人物を特定するために複数の要素(次元と呼ぶ)から構成されている。例えば、顔特徴データは、全体の顔つきを把握するための要素群、目/鼻/口等の特定部品の形状を把握するための要素群の合計:数百〜数千次元から構成される。 The human feature data extracted by the multi-dimensional feature data generation means 101 is image data of a moving object cut out from the image, or information for specifying the moving object by shape, color, size, movement, or the like, or This information identifies the shape and position of the face's eyes, nose and mouth. Methods for extracting and classifying these feature information are widely known. It is written. Human feature data such as face / clothing color generated using these existing technologies is composed of a plurality of elements (referred to as dimensions) to identify a person. For example, the face feature data is composed of a total of several hundred to several thousand elements: a group of elements for grasping the entire face and a group of elements for grasping the shape of a specific part such as eyes / nose / mouth.
図2は、次元縮退手段102の処理手順を示したもので、以下その動作について説明する。 FIG. 2 shows a processing procedure of the dimension reduction means 102, and the operation will be described below.
<ステップ201>入力された多次元特徴データ([要素番号,値]の系列)に対して、値を全て絶対値にして、値の大きいものから順にソートする。入力される多次元特徴データは、2−aのように、顔全体/部品単位の主成分を持つ顔特徴データや、人物の服装の色分布をRGB/HSV等の色空間ヒストグラムとして表わしたデータや、さらに、人物が写っている領域を切出して周波数に変換したデータなどで、横軸の各要素の[要素番号,値]の集合が、ステップ201の多次元特徴データの入力として与えられる。また、ソート後は2−bのように絶対値が大きいものから順に並べられ、横軸の各要素は、[ソート前の要素番号、値]として生成される。
<
<ステップ202>指定された次元(R)で、多次元特徴データを分離(次元をカット)する。分離後、指定次元R以内の要素(絶対値の大きい要素)は、R1データとして[ソート前の要素番号,値]の系列として出力され、また、指定次元Rより大きい部分は、R2データとして、[代表値V,R2内の符号ビット列]として生成される(2−c)。なお、R2データの代表値Vは、R2データの絶対値での平均値、或いは、R2データの絶対値の最大値が用いられる。また、符号ビット列は、R2のN番目の要素の値が正ならビット値=1、負ならビット値=0として、R2の要素数分の符号が分かるビット列として生成される。
<
<ステップ203>ステップ202で生成したR1及びR2データを近似データ蓄積手段103の近似特徴データ群103aへ格納する。また、ステップ201で入力されたソート前ベクトルデータを実特徴データ群103bへ格納する。このようにしてインデクスを生成する。なお、近似特徴データ群103aは、次元を縮退したデータ群であるため、高速アクセス可能なメモリ上に配置するようにしてもよい。
<
図3は、近似空間検索手段105及び実空間最終ランク付け手段106の処理手順を示したもので、以下その動作について説明する。 FIG. 3 shows the processing procedure of the approximate space search means 105 and the real space final ranking means 106, and the operation will be described below.
<ステップ301>検索要求受信手段104で受信した検索キーに対応する近似データ(3−a)と近似データ蓄積手段103で蓄積した複数の近似データ(3−b)との近似距離計算を行ない、近似データ蓄積手段103で蓄積した複数の近似データを近似距離の小さい順に並べる。近似距離計算は、(3−c)に示すように、ソート前の全ての次元に対して、
1) 各次元が、(3−a),(3−b)のR1に含まれれば、R1にある値を用いて距離計算を行なう。
2) 各次元が、(3−a),(3−b)のR2に片方含まれれば、R2に含まれるものに対しては、R2の代表値(V)と符号ビットから近似値を算出し、それを用いて距離計算を行なう。
といった処理を行なう。
<
1) If each dimension is included in R1 of (3-a) and (3-b), distance calculation is performed using a value in R1.
2) If each dimension is included in R2 of (3-a) and (3-b), an approximate value is calculated from the representative value (V) of R2 and the sign bit for those included in R2. Then, the distance is calculated using it.
The process is performed.
<ステップ302>ステップ301で距離の小さい順に並べた上位M件に対して、検索要求受信手段104で受信した検索キーとの実距離計算を行ない、(3−d)のように実距離の小さい順に上位K件を抽出し結果として返す。実距離は、実特徴データ群103bに格納したソート前ベクトルデータから計算する。
<Step 302> The real distance calculation with the search key received by the search request receiving means 104 is performed on the top M items arranged in ascending order of the distance in
図3の処理は、近似距離の小さい順に並べた上位M件に対して、実空間上で最終順位付けを行なうものだが、上位M件に絞込んだ時点で検索漏れを起こす可能性がある。図4は、近似空間上での絞込みによる検索漏れを0にするための実空間最終ランク付け手段108の処理手順を示したもので、以下その動作について説明する。 The process of FIG. 3 performs final ranking in the real space for the top M items arranged in ascending order of the approximate distance, but there is a possibility that a search omission may occur when the top M items are narrowed down. FIG. 4 shows a processing procedure of the real space final ranking means 108 for setting search omission due to narrowing down in the approximate space to 0, and the operation will be described below.
<ステップ401>近似空間検索手段105で生成した、検索キーとの近似距離のリストを取得する。リストは、近似距離の小さいものから順に格納されているものとする。 <Step 401> A list of approximate distances with the search key generated by the approximate space search means 105 is acquired. It is assumed that the list is stored in order from the smallest approximate distance.
<ステップ402>近似距離リストから、近似距離の小さいデータを取得する。取得した時点で、近似距離リストから該当データを削除する。 <Step 402> Data with a small approximate distance is acquired from the approximate distance list. At the time of acquisition, the corresponding data is deleted from the approximate distance list.
<ステップ403>ステップ402で取得したデータと検索キーに対応するデータとの実距離を計算する。
<Step 403> The actual distance between the data acquired in
<ステップ404>ステップ402で取得したデータを実距離リストへ追加する。リストは、実距離の小さいものから順に格納されるようにする。
<Step 404> The data acquired in
<ステップ405>実距離リストの上位K件の全ての距離が、近似距離リスト内の最小距離より小さいか判定する。Yesの場合、ステップ406へ、Noの場合、ステップ402へ移行する。 <Step 405> It is determined whether all the top K distances in the real distance list are smaller than the minimum distance in the approximate distance list. If yes, go to step 406; if no, go to step 402.
<ステップ406>実距離リストの上位K件を実空間最終ランク付け手段106の検索結果として出力する。 <Step 406> The top K items in the real distance list are output as the search results of the real space final ranking means 106.
図5を用いて、図3と図4の処理手順による検索結果の違いについて述べる。(5−a)は、検索キーとデータA〜Hとの「近似距離及び実距離」の例を示したものである。(5−a)に対して、図3のフローで検索した場合、(5−b)に示すようにデータGが検索漏れを起こしてしまう。これに対し、図4のフローで検索した場合は(5−c)に示すようにデータGの検索漏れを起こすことはない。図3と図4のどちらの検索処理を採用するかは、近似距離と実距離の関係により異なる。例えば、全てのデータに対して「近似距離≒実距離」となる場合は、近似によって検索順位が大きく入替わる可能性がないため、検索漏れを防ぎつつ高速処理が可能な図4が適している。一方、「近似距離<<実距離」となる場合は、図4の処理では全データに対する検索が結局発生して処理が遅くなるため、ある程度検索漏れを抑えつつ高速に検索できる図3の処理が適している。 Differences in search results between the processing procedures of FIGS. 3 and 4 will be described with reference to FIG. (5-a) shows an example of “approximate distance and actual distance” between the search key and the data A to H. In contrast to (5-a), when a search is performed with the flow of FIG. 3, the data G causes a search omission as shown in (5-b). On the other hand, when the search is performed according to the flow of FIG. 4, the search for the data G does not occur as shown in (5-c). Which of the search processes in FIG. 3 and FIG. 4 is used depends on the relationship between the approximate distance and the actual distance. For example, when “approximate distance≈actual distance” for all data, there is no possibility that the search order will be greatly changed by approximation, so FIG. 4 is suitable because high-speed processing is possible while preventing search omissions. . On the other hand, when “approximate distance << actual distance” is satisfied, the search of all data eventually occurs in the process of FIG. 4 and the process is slowed down. Therefore, the process of FIG. Is suitable.
以上のように、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みを行なうことで、次元数が高次元になった時でも演算量を抑えて、ユーザの望む画像を効率よく検索することができる。また、画像毎に、人物の特徴を強く表わす成分と平均的な成分に分離して次元を縮退することで、予め目/鼻/口等の重要度が高いと想定した成分のみを使用して次元を縮退する場合と比較して、重要度が高くないと想定した成分に特徴が大きく現れる人物の画像が登録されている場合でも、該当人物画像の検索を柔軟にかつ適切に行なうことができる。さらに、図4のような検索処理を導入する事により、近似空間上で検索結果を絞込む過程における検索漏れを0にすることができる。 As described above, after narrowing down the search results to some extent in the approximate space with a reduced number of dimensions, the final refinement is performed in the real space. The desired image can be searched efficiently. In addition, for each image, only components that are assumed to be highly important such as eyes / nose / mouth are used in advance by separating the component into a component that strongly expresses human characteristics and an average component and reducing the dimensions. Compared with the case where the dimension is reduced, even when a person image whose features appear to be large in a component that is assumed not to be high in importance is registered, the person image can be searched flexibly and appropriately. . Furthermore, by introducing a search process as shown in FIG. 4, search omissions in the process of narrowing down search results in the approximate space can be reduced to zero.
なお、次元縮退方法として、成分値の並替えによって人物の特徴を強く表わす成分と平均的な成分に分離する方法について述べたが、Haar等に代表されるウェーブレット変換を用いて、低周波に相当する「平均的な成分」からR2データを生成し、高周波に相当する「平均との差分成分」からR1データを生成するようにしてもよい。この場合、R1/R2データを構成する要素番号が入力する多次元特徴データに依存せず固定されるため、近似空間検索手段105での演算量を削減できるという効果が得られる。また、多次元特徴データ間の差異が平均的な成分に強く出る場合には、前述のウェーブレット変換後の低周波に相当する「平均的な成分」をR1データ、高周波に相当する「平均との差分成分」をR2データに変更することで対応可能である。
In addition, as a dimension reduction method, the method of separating the component characteristic into a component that strongly expresses the characteristics of the person and the average component has been described, but it corresponds to a low frequency by using wavelet transform represented by Haar et al. The R2 data may be generated from the “average component” and the R1 data may be generated from the “difference component from the average” corresponding to the high frequency. In this case, since the element numbers constituting the R1 / R2 data are fixed without depending on the input multidimensional feature data, an effect of reducing the amount of calculation in the approximate
(実施の形態2)
実施の形態2では、近似空間上で検索結果を絞込む過程で検索漏れが多く発生しても、ユーザが再検索による絞込み操作を簡単に行なうことができる画像検索装置について述べる。
(Embodiment 2)
In the second embodiment, an image search apparatus will be described in which a user can easily perform a narrow-down operation by re-search even if many search omissions occur in the process of narrowing down search results in the approximate space.
本発明の実施の形態2で述べる構成は実施の形態1とほぼ同じであるため、ここでは、追加となる再検索時の絞込み操作の処理手順のみ記載し、他は省略する。 Since the configuration described in the second embodiment of the present invention is almost the same as that of the first embodiment, only the processing procedure of the refinement operation at the time of additional re-search is described here, and the others are omitted.
図6は、近似空間検索手段105で得られた検索結果が実空間最終ランク付け手段106の最終ランク付けでどの程度変更が生じたかを示す「次元縮退による歪み率」を結果表示し、ユーザが「次元縮退による歪み率」を参照しながら、近似空間検索手段105で「利用する次元数」と「絞込む件数」を再検索条件として設定する例を示したものである。(6−a)は、検索対象者の検索キーと時刻/場所の検索範囲を最初に指定する初期検索条件指定画面、(6−b)は、「次元縮退による歪み率」も併せて検索結果を表示する検索結果表示画面、(6−c)は、3通りの再検索の方法[1)利用次元数(利用する次元数)の調整、2)近似範囲(絞込む件数)の調整、3)上記1)2)の調整は行なわずに次のK件を出力する]から次の検索条件をユーザが指定する再検索条件指定画面であり、(6−b)と(6−c)の操作は繰返し行なわれる。
FIG. 6 shows a result of “distortion rate due to dimension reduction” indicating how much the search result obtained by the approximate
図7を用いて、「次元縮退による歪み率」の算出例について述べる。(7−a)は、図1に示すような構成で検索を行なった場合に生じる検索漏れ(データL、G)の例を表わしている。(7−b)は、検索漏れが起きた時の、近似空間検索手段105と実空間最終ランク付け手段106で得られた検索結果の違いを表わしている。(7−b)において、近似空間での絞込みの閾値である上位M件のM値を大きくすれば検索漏れの確率は小さくなるが、ユーザがどの程度M値を大きくすれば良いのか判断がつかない。そこで、「次元縮退の歪み率」として、a)近似空間で得られる上位K件が最終順位付け上位K件に含まれる比率、或いは、b)最終順位付け上位K件のデータに対して、「最終順位の総和(すなわちK*(K+1)/2) /近時空間での順位の総和」の順位比率、を用いることで、ユーザに次元縮退による歪みがどの程度発生しているのかを伝えることができる。なお、上記a)b)の値が小さいほど歪みは大きくなる。 A calculation example of “distortion rate due to dimension reduction” will be described with reference to FIG. (7-a) represents an example of a search omission (data L, G) that occurs when a search is performed with the configuration shown in FIG. (7-b) represents the difference between the search results obtained by the approximate space search means 105 and the real space final ranking means 106 when a search omission occurs. In (7-b), if the M value of the top M items, which is the threshold for narrowing down in the approximate space, is increased, the probability of search omission is reduced, but it is possible to determine how much the user should increase the M value. Absent. Therefore, as the “dimensional reduction factor,” a) the ratio of the top K items obtained in the approximate space included in the final ranking top K items, or b) the data of the top ranking top K items, “ Tell the user how much distortion due to dimensional degeneracy has occurred by using the rank ratio of the sum of the final ranks (ie, K * (K + 1) / 2) / the sum of the ranks in the recent space. Can do. In addition, distortion becomes large, so that the value of said a) b) is small.
次に、「次元縮退の歪み率」を参照してユーザが再検索条件を指定する操作について詳細に説明する。再検索条件の指定には、(6−c)に示したように、1)利用次元数の調整、2)近似範囲の調整、3)次のK件を出力する、の3パターン存在する。 Next, an operation for specifying a re-search condition by the user with reference to “dimensional distortion factor” will be described in detail. As shown in (6-c), there are three patterns for specifying the re-search condition: 1) adjustment of the number of used dimensions, 2) adjustment of the approximate range, and 3) output of the next K items.
1)の利用次元数とは、近似空間検索手段105で使用するR1データの要素数であり、R1データの要素数を増やすことで「次元縮退の歪み率」を小さくすることができる。なお、利用次元数の調整が行なわれた時に、近似空間検索手段105でR1データの要素数を変更して再検索処理ができるように、図8に示すような複数のカット次元(R#a,R#b,R#c)に対応したデータ構造を予め生成しておく。データ構造は、複数のカット次元毎に生成する必要はなく、(8−b)のように、R1データの要素数が大きいカット次元(R#c)にあわせて用意しておくことで対応可能である。
The number of used dimensions of 1) is the number of elements of R1 data used in the approximate space search means 105. By increasing the number of elements of R1 data, the “dimensional reduction distortion rate” can be reduced. When the number of use dimensions is adjusted, the approximate
2)の近似範囲の調整は、近似空間で絞込む範囲(上位M件のM値)を調整するためのもので、「次元縮退の歪み率」が大きいときでも、M値を大きくする事で検索漏れを防ぐことができる。 The adjustment of the approximate range in 2) is for adjusting the range to be narrowed down in the approximate space (M values of the top M cases). Even when the “dimensional distortion factor” is large, the M value is increased. Search omissions can be prevented.
3)の次のK件は、「次元縮退の歪み率が小さい」或いは「次元縮退の歪み率が大きいが、1)2)による調整が難しい」とユーザが判断した時に使用される。 The next K cases of 3) are used when the user determines that “dimensional reduction distortion rate is small” or “dimensional reduction distortion rate is large, but 1) adjustment in 2) is difficult”.
以上のように、ユーザが「次元縮退による歪み率」を参照して、近似空間検索手段で「利用する次元数」と「絞込む件数」を調整していくことで、近似空間上で検索結果を絞込む過程における検索漏れを抑制した再検索操作を実現することができる。なお、再検索条件指定手段が、実空間最終ランク付け手段で出力した「次元縮退による歪み率」を参照して自動的に検索条件を再指定する構成としてもよい。この構成により、より効率的に画像を検索できる。 As described above, by referring to the “distortion rate due to dimension reduction” and adjusting the “number of dimensions to use” and “number of cases to narrow down” with the approximate space search means, the search results in the approximate space It is possible to realize a re-search operation that suppresses a search omission in the process of narrowing down. The re-search condition specifying unit may automatically re-specify the search condition with reference to the “distortion rate due to dimension reduction” output by the real space final ranking unit. With this configuration, an image can be searched more efficiently.
(実施の形態3)
実施の形態3では、近似空間上で検索結果を絞込む過程で検索漏れが多く発生しても、ユーザが再検索による絞込み操作を簡単に行なうことができる、実施の形態2とは別の画像検索装置について述べる。
(Embodiment 3)
In the third embodiment, even if many search omissions occur in the process of narrowing down search results in the approximate space, the user can easily perform a narrowing operation by re-searching. A search device will be described.
本発明の実施の形態3で述べる構成は実施の形態1とほぼ同じであるため、ここでは、追加となる再検索時の絞込み操作の処理手順のみ記載し、他は省略する。 Since the configuration described in the third embodiment of the present invention is almost the same as that of the first embodiment, only the processing procedure of the refinement operation at the time of additional re-search is described here, and the others are omitted.
図9は、検索結果に対してユーザが正解または不正解を指定すると、近似空間検索手段105にて、正解と指定した近似データで使用している要素番号の重み付けを強く、また、誤りと指定した近似データで使用している要素番号の重み付けを弱くして、近似空間内での距離計算を再度行なう例を示したものである。(9−b)のように、人物の特徴を強く表わす要素番号は検索結果毎に異なるため、ユーザが正解/不正解と指定した結果から、正解を導出する要素番号と不正解を除去する要素番号をそれぞれ抽出して重み付けを行なうことで、検索漏れを抑制した再検索処理を実現する事ができる。なお、重み付けとは、図3の(3−c)の各次元の距離計算において、距離計算結果に重み係数を付与することである。 FIG. 9 shows that when the user designates a correct answer or an incorrect answer for the search result, the approximate space search means 105 strongly weights the element number used in the approximate data designated as the correct answer, and designates an error. In this example, the weighting of the element numbers used in the approximate data is weakened, and the distance calculation in the approximate space is performed again. As shown in (9-b), since the element number that strongly represents the characteristics of the person is different for each search result, the element number for deriving the correct answer and the element for removing the incorrect answer from the result designated by the user as the correct answer / incorrect answer By extracting each number and performing weighting, it is possible to realize a re-search process that suppresses search omissions. In addition, weighting means assigning a weighting factor to the distance calculation result in the distance calculation of each dimension in (3-c) of FIG.
また、図10は、検索結果に対してユーザが不正解と指定すると、不正解と指定したデータが実空間最終ランク付け手段106で出力されないように、近似空間検索手段105で「利用する次元数」と「絞込む件数」を自動調整する例を示したものである。(10―b)において、ユーザが「データH/E=不正解」と指定した場合は、最終順位付けでデータH/Eより距離の小さい要素が出てくるまで、近似空間での絞込みの閾値である上位M件のM値を大きく、或いは利用する次元数を増やして処理を行なう。 Further, FIG. 10 shows that when the user designates an incorrect answer for the search result, the approximate space search means 105 “number of dimensions to be used” prevents the data designated as the incorrect answer from being output by the real space final ranking means 106. ”And“ number of items to narrow down ”are shown as examples of automatic adjustment. In (10-b), when the user designates “data H / E = incorrect answer”, the threshold for narrowing down in the approximate space until an element having a smaller distance than data H / E appears in the final ranking. The process is performed by increasing the M value of the top M items or increasing the number of dimensions to be used.
以上のように、検索結果に対して、画像毎に、ユーザが正解/不正解を指定して、再検索時の近似距離計算パラメータ(要素番号の重み、利用次元数、近似範囲)を自動調整していくことで、近似空間上で検索結果を絞込む過程における検索漏れを抑制した再検索操作を実現することができる。 As described above, the user specifies correct / incorrect answers for each image, and automatically adjusts approximate distance calculation parameters (element number weight, number of dimensions used, approximate range) at the time of re-search. By doing so, it is possible to realize a re-search operation that suppresses search omissions in the process of narrowing down search results in the approximate space.
以上のように、本発明の各実施形態にかかる画像検索装置および画像検索方法は、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みを行なうことで、次元数が高次元になった時でも演算量を抑えて、ユーザの望む画像を効率よく適切に検索することができるという効果を有し、複数カメラを対象にした万引き犯・迷子・落し物者の全行動把握を行なう監視用途に加えて、旅行・運動会等の個人で撮影したコンテンツ(静止画・動画)に対する閲覧・検索・編集の用途等にも応用することができる。 As described above, the image search apparatus and the image search method according to each embodiment of the present invention narrow down the search results to some extent in the approximate space with a reduced number of dimensions, and then perform final narrowing in the real space, Even when the number of dimensions becomes high, it has the effect of reducing the amount of calculation and efficiently searching for the image that the user wants, and it can be used for shoplifters, lost children, and lost persons targeting multiple cameras. In addition to the monitoring purpose of grasping all the actions, it can be applied to the purpose of browsing / searching / editing contents (still images / moving pictures) taken by individuals such as travel and athletic meet.
本発明は、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みができるため、次元数が高次元になった時でもユーザの望む画像を効率よく検索することができるという効果を有し、画像から抽出した多次元特徴データ(顔,色等)を用いて、大容量の画像群から所望の画像を高速に洗出すことのできる画像検索装置および画像検索方法等に有用である。 The present invention can narrow down the search results to some extent in the approximate space with a reduced number of dimensions, and then can finally narrow down in the real space. Therefore, even when the number of dimensions becomes high, the user can search efficiently. Image retrieval device and image retrieval that can quickly retrieve a desired image from a large-capacity image group using multidimensional feature data (face, color, etc.) extracted from the image. Useful for methods and the like.
11 カメラ
12 検索サーバ
13 検索端末
101 多次元特徴データ生成手段
102 次元縮退手段
103 近似データ蓄積手段
103a 近似特徴データ群
103b 実特徴データ群
104 検索要求受信手段
105 近似空間検索手段
106 実空間最終ランク付け手段
DESCRIPTION OF
Claims (5)
前記画像の近似データを近似する前の画像と対応付けて蓄積する近似データ蓄積手段と、
検索対象に類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索する近似空間検索手段と、
前記近似空間検索手段の検索結果に対応する前記画像蓄積手段に蓄積された画像と検索対象との距離を計算する手段とを備え、
前記距離計算は、結果として出力するK件より多いM件(K,M:自然数)の前記検索結果に対して行う
ことを特徴とする画像検索装置。 Image storage means for storing multidimensional images;
And approximate data storing means for storing in association with the previous image that approximates the approximate data of the image,
Approximate space search means for searching for approximate data similar to the search object from the approximate data stored in the approximate data storage means;
Means for calculating a distance between an image stored in the image storage unit corresponding to a search result of the approximate space search unit and a search target;
The distance search is performed on M search results (K, M: natural numbers) more than K output as a result .
多次元の画像を蓄積する画像蓄積ステップと、
前記画像の近似データを前記画像と対応付けて蓄積する近似データ蓄積ステップと、
検索対象に類似する近似データを前記近似データ蓄積ステップで蓄積された近似データから検索する近似空間検索ステップと、
前記近似空間検索ステップの検索結果に対応する前記画像蓄積ステップで蓄積された画像と検索対象との距離を計算するステップとを備え、
前記距離計算は、結果として出力するK件より多いM件(K,M:自然数)の前記検索結果に対して行う
ことを特徴とする画像検索方法。 A method for searching for images by a programmed computer,
An image accumulation step for accumulating multidimensional images;
An approximate data storage step for storing the approximate data of the image in association with the image;
An approximate space search step for searching for approximate data similar to the search object from the approximate data stored in the approximate data storage step;
Calculating the distance between the image stored in the image storage step corresponding to the search result of the approximate space search step and the search target,
The distance calculation is performed on M search results (K, M: natural numbers) more than K output as a result .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011107288A JP5138790B2 (en) | 2011-05-12 | 2011-05-12 | Image search apparatus and image search method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011107288A JP5138790B2 (en) | 2011-05-12 | 2011-05-12 | Image search apparatus and image search method |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2005370613A Division JP4777059B2 (en) | 2005-12-22 | 2005-12-22 | Image search apparatus and image search method |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2011165211A JP2011165211A (en) | 2011-08-25 |
JP2011165211A5 JP2011165211A5 (en) | 2011-12-22 |
JP5138790B2 true JP5138790B2 (en) | 2013-02-06 |
Family
ID=44595741
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011107288A Expired - Fee Related JP5138790B2 (en) | 2011-05-12 | 2011-05-12 | Image search apparatus and image search method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5138790B2 (en) |
Family Cites Families (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2685456B2 (en) * | 1987-10-16 | 1997-12-03 | 株式会社日立製作所 | Similar image retrieval device |
JPH0697459B2 (en) * | 1991-06-20 | 1994-11-30 | インターナショナル・ビジネス・マシーンズ・コーポレイション | Color image area management device, color image area management method, and color image area search method |
US7298931B2 (en) * | 2002-10-14 | 2007-11-20 | Samsung Electronics Co., Ltd. | Image retrieval method and apparatus using iterative matching |
JP2005250562A (en) * | 2004-03-01 | 2005-09-15 | Tama Tlo Kk | Discrimination analysis method, similar image search method, program for it, and device |
-
2011
- 2011-05-12 JP JP2011107288A patent/JP5138790B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
JP2011165211A (en) | 2011-08-25 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4777059B2 (en) | Image search apparatus and image search method | |
CN105100894B (en) | Face automatic labeling method and system | |
JP4553650B2 (en) | Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium | |
US8135239B2 (en) | Display control apparatus, display control method, computer program, and recording medium | |
CN110235138A (en) | System and method for appearance search | |
Sujatha et al. | A study on keyframe extraction methods for video summary | |
US20070195344A1 (en) | System, apparatus, method, program and recording medium for processing image | |
EP3358479A1 (en) | System, apparatus, method, program and recording medium for processing image | |
CN103530638B (en) | Method for pedestrian matching under multi-cam | |
KR101563297B1 (en) | Method and apparatus for recognizing action in video | |
JP5180922B2 (en) | Image search system and image search method | |
CN110516707B (en) | Image labeling method and device and storage medium thereof | |
CN108198202A (en) | A kind of video content detection method based on light stream and neural network | |
JP2013140475A (en) | Video retrieval apparatus | |
Stefanidis et al. | Summarizing video datasets in the spatiotemporal domain | |
KR102110375B1 (en) | Video watch method based on transfer of learning | |
JP2009060413A (en) | Method and system for extracting feature of moving image, and method and system for retrieving moving image | |
CN106557523A (en) | Presentation graphics system of selection and equipment and object images search method and equipment | |
JP5138790B2 (en) | Image search apparatus and image search method | |
WO2023039331A1 (en) | Object detection systems and methods including an object detection model using a tailored training dataset | |
Cho et al. | A novel virus infection clustering for flower images identification | |
Lotfi | Trajectory clustering and behaviour retrieval from traffic surveillance videos | |
Naveen Kumar et al. | An efficient approach for video retrieval by spatio-temporal features | |
CN108804981A (en) | Moving target detecting method based on long-time video frequency sequence background modeling frame | |
Cao et al. | Pedestrian Detection Algorithm Based on ViBe and YOLO |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20110607 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111104 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20120413 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120424 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20121016 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20121114 |
|
R150 | Certificate of patent or registration of utility model |
Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20151122 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |