JP5138790B2 - Image search apparatus and image search method - Google Patents

Image search apparatus and image search method Download PDF

Info

Publication number
JP5138790B2
JP5138790B2 JP2011107288A JP2011107288A JP5138790B2 JP 5138790 B2 JP5138790 B2 JP 5138790B2 JP 2011107288 A JP2011107288 A JP 2011107288A JP 2011107288 A JP2011107288 A JP 2011107288A JP 5138790 B2 JP5138790 B2 JP 5138790B2
Authority
JP
Japan
Prior art keywords
search
image
approximate
approximate data
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2011107288A
Other languages
Japanese (ja)
Other versions
JP2011165211A5 (en
JP2011165211A (en
Inventor
宏明 由雄
修二 井上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP2011107288A priority Critical patent/JP5138790B2/en
Publication of JP2011165211A publication Critical patent/JP2011165211A/en
Publication of JP2011165211A5 publication Critical patent/JP2011165211A5/ja
Application granted granted Critical
Publication of JP5138790B2 publication Critical patent/JP5138790B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、画像から抽出した多次元特徴データ(顔,色等)を用いて、大容量の画像群から所望の画像を高速に洗出すことのできる画像検索装置および画像検索方法に関するものである。   The present invention relates to an image search apparatus and an image search method that can quickly extract a desired image from a large-capacity image group using multidimensional feature data (face, color, etc.) extracted from an image. .

近年、ピッキング・強盗・放火等に代表される犯罪の増加と共に、カメラ・センサ・蓄積装置等を設置し、犯罪を未然に防止する映像監視システムの普及が大幅に進んでいる。また、監視カメラのIP化・蓄積装置の大容量化に伴い、数百規模の広域監視・長時間記録を行なうシステムも増加してきた。このような状況において、監視者の業務軽減を目指し、万引き犯・迷子者・落し物者等の特定人物の洗出しを効率的に行なうための技術が要望されてきている。   In recent years, with the increase of crimes represented by picking, robbery, arson, etc., the spread of video surveillance systems for preventing crimes by installing cameras, sensors, storage devices, etc. is greatly advanced. In addition, with the increase in the capacity of surveillance camera IP and storage devices, systems that perform wide-area monitoring and long-time recording on the scale of several hundreds have increased. Under such circumstances, there is a demand for a technique for efficiently washing a specific person such as a shoplifter, a lost child, a lost person, etc. with the aim of reducing the work of a supervisor.

特定人物の洗出しを高速に行なう従来技術として、画像から抽出した多次元特徴データ群(色,顔等)を予め距離の近い順にクラスタリングして木構造にしておき、検索時には検索対象人物に最も近い部分木のみ検索する手法がある。また、特許文献1には、統計的手法により用意したモデル空間に射影して、高精度で次元数の少ない多次元特徴データを生成することで高速検索する方法が記載されている。   As a conventional technique for identifying a specific person at high speed, a multi-dimensional feature data group (color, face, etc.) extracted from an image is clustered in advance in the order of the closest distance to form a tree structure. There is a technique for searching only near subtrees. Further, Patent Document 1 describes a method of performing a high-speed search by projecting a model space prepared by a statistical method and generating multidimensional feature data with high accuracy and a small number of dimensions.

特開2002−183205号公報JP 2002-183205 A

しかしながら、従来の木構造にする方法では、多次元特徴データの次元数が多くなると、隣接空間が指数関数的に増え、多次元特徴データをクラスタリング(登録)するのに膨大な時間を要する。さらに、検索時には、隣接空間も含め近傍検索を行なうため、登録同様、膨大な時間を要する。
また、特許文献1に記載の技術においては、射影による次元縮退には限度がある。また、その対策として、目/鼻/口等の重要度の高い部分のみを使用して類似度計算をする方法も記載されているが、個人の特徴がどこに現れるのかは千差万別で、精度を維持したまま次元を縮退するには限界がある。
However, in the conventional tree structure method, when the number of dimensions of the multidimensional feature data increases, the adjacent space increases exponentially, and it takes a lot of time to cluster (register) the multidimensional feature data. Furthermore, since a neighborhood search including an adjacent space is performed at the time of search, a huge amount of time is required like registration.
Further, in the technique described in Patent Document 1, there is a limit to the dimensional reduction due to projection. In addition, as a countermeasure, a method of calculating similarity using only parts with high importance such as eyes / nose / mouth is also described, but where individual features appear is different, There is a limit to reducing the dimension while maintaining accuracy.

本発明は、前記従来の事情に鑑みてなされたもので、顔/色等の多次元特徴データが高次元で大量に存在する場合でも、ユーザの望む画像を効率よく適切に検索可能な画像検索装置および画像検索方法を実現することを目的とする。   The present invention has been made in view of the above-described conventional circumstances, and is an image search capable of efficiently and appropriately searching for an image desired by a user even when a large amount of multi-dimensional feature data such as face / color exists in high dimensions. An object is to realize an apparatus and an image search method.

本発明の画像検索装置は、画像を蓄積する画像蓄積手段と、前記画像の近似データを前記画像と対応付けて蓄積する近似データ蓄積手段と、検索対象に類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索する近似空間検索手段と、前記近似空間検索手段の検索結果に対応する前記画像蓄積手段に蓄積された画像と検索対象との類似度を計算する手段とを備え、前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記画像同士の関係を保持する様に生成されることを特徴とする。   The image search apparatus according to the present invention includes an image storage unit that stores an image, an approximate data storage unit that stores the approximate data of the image in association with the image, and approximate data that is similar to a search target. An approximate space search means for searching from the approximate data stored in, and a means for calculating the similarity between the image stored in the image storage means corresponding to the search result of the approximate space search means and the search target, The approximate data stored in the approximate data storage means is generated so as to maintain the relationship between the images stored in the image storage means.

また、本発明の画像検索装置は、前記近似データ蓄積手段に蓄積されたデータ量は、近似データに対応する画像を蓄積した画像蓄積手段のデータ量より少なく、近似データ蓄積手段は画像蓄積手段に比べ高速アクセス可能であることを特徴とする。   In the image search device of the present invention, the amount of data stored in the approximate data storage means is smaller than the data amount of the image storage means that stores images corresponding to the approximate data, and the approximate data storage means is stored in the image storage means. It is characterized by high speed access.

また、本発明のデータ蓄積装置は、画像検索装置におけるデータ蓄積装置であって、画像を蓄積する画像蓄積手段と、前記画像を近似した近似データを前記画像蓄積手段に蓄積された画像と対応付けて蓄積する近似データ蓄積手段とを備え、前記近似データ蓄積手段に蓄積されるデータ量は、近似データに対応する画像を蓄積した画像蓄積手段に蓄積されるデータ量より少なく、前記近似データ蓄積手段は前記画像蓄積手段に比べ高速アクセス可能な記憶媒体であり、前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記画像同士の関係を保持する様に生成されることを特徴とする。   The data storage device of the present invention is a data storage device in an image search device, and associates image storage means for storing an image with approximate data approximating the image with an image stored in the image storage means. The approximate data storage means, and the amount of data stored in the approximate data storage means is less than the amount of data stored in the image storage means storing the image corresponding to the approximate data, and the approximate data storage means Is a storage medium that can be accessed at a higher speed than the image storage means, and the approximate data stored in the approximate data storage means is generated so as to maintain the relationship between the images stored in the image storage means. It is characterized by that.

また、本発明の画像検索方法は、前記データ蓄積装置を備えた画像検索装置を用いて、プログラムされたコンピュータにより画像を検索する方法であって、検索対象と類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索するステップと、検索結果に対応する画像を画像蓄積手段から求めるステップと、検索対象と前記画像蓄積手段から求めた検索結果の画像との類似度を計算するステップとを有することを特徴とする。   The image search method of the present invention is a method of searching for an image by a programmed computer using an image search device provided with the data storage device, wherein approximate data similar to a search target is stored in the approximate data storage. A step of searching from the approximate data stored in the means, a step of obtaining an image corresponding to the search result from the image storage means, and a step of calculating the similarity between the search target and the image of the search result obtained from the image storage means It is characterized by having.

本発明によれば、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みができるため、次元数が高次元になった時でもユーザの望む画像を効率よく検索することができる。   According to the present invention, the search results can be narrowed down to some extent in the approximate space with a reduced number of dimensions, and then finally narrowed down in the real space. Therefore, even when the number of dimensions becomes high, an image desired by the user can be efficiently obtained. You can search.

本発明の第1の実施の形態における画像検索装置のブロック図1 is a block diagram of an image search device according to a first embodiment of the present invention. 本発明の第1の実施の形態における画像検索装置のデータ登録動作に関するフロー図The flowchart regarding the data registration operation | movement of the image search device in the 1st Embodiment of this invention 本発明の第1の実施の形態における画像検索装置の検索動作に関するフロー図The flowchart regarding the search operation | movement of the image search device in the 1st Embodiment of this invention 本発明の第1の実施の形態における画像検索装置の検索漏れをなくす検索動作に関するフロー図The flowchart regarding the search operation | movement which eliminates the search omission of the image search device in the 1st Embodiment of this invention. 本発明の第1の実施の形態における画像検索装置の2種類の検索処理の違いに関する説明図Explanatory drawing regarding the difference between the two types of search processing of the image search device in the first embodiment of the present invention 本発明の第2の実施の形態における画像検索装置の再検索操作に関するフロー図The flowchart regarding the re-search operation of the image search apparatus in the 2nd Embodiment of this invention 本発明の第2の実施の形態における画像検索装置の歪み率算出に関する説明図Explanatory drawing about distortion rate calculation of the image search device in the second embodiment of the present invention 本発明の第2の実施の形態における画像検索装置で管理するデータ構造に関する説明図Explanatory drawing regarding the data structure managed by the image search device in the second embodiment of the present invention 本発明の第3の実施の形態における画像検索装置の再検索操作に関するフロー図(その1)Flow chart about re-search operation of image search apparatus in third embodiment of the present invention (No. 1) 本発明の第3の実施の形態における画像検索装置の再検索操作1に関するフロー図(その2)Flowchart (2) regarding re-search operation 1 of the image search device in the third embodiment of the present invention

以下、本発明の実施の形態について、図面を参照しながら説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1における画像検索装置の構成図である。図1において、11は、人物を撮影するカメラ、12は、指定された検索条件に該当する人物を含む画像を検索する検索サーバ、13は、検索サーバ12に対して検索条件を指定して検索を実行させるための検索端末である。101は、カメラ11で撮影した画像から、顔/色/形状などの人物を識別するための多次元特徴データを抽出する多次元特徴データ生成手段、102は、多次元特徴データ生成手段101で抽出した多次元特徴データの次元を縮退して近似データを生成する次元縮退手段、103は、次元縮退手段102で生成した近似データと次元縮退前の多次元特徴データと対応付けて、それぞれ近似特徴データ群103aと実特徴データ群103bとして蓄積する近似データ蓄積手段、104は、少なくとも、検索対象人物の多次元特徴データを識別する識別子を検索キーとして受信する検索要求受信手段、105は、検索端末13で指定された検索条件に基づいて、検索要求受信手段104で受信した検索キーに対応する近似データと近似データ蓄積手段103で蓄積した複数の近似データのそれぞれとの距離計算を行ない、計算結果の距離順すなわち類似度順に並べる近似空間検索手段、106は、近似空間検索手段105で得られた類似度の高い結果群に対して、次元縮退前の多次元特徴データを用いて再度距離計算を行ない最終順位を決定する実空間最終ランク付け手段である。実空間最終ランク付け手段106で決定された最終順位は、検索結果として出力される。
(Embodiment 1)
FIG. 1 is a configuration diagram of an image search apparatus according to Embodiment 1 of the present invention. In FIG. 1, 11 is a camera that captures a person, 12 is a search server that searches for an image including a person corresponding to the specified search condition, and 13 is a search that specifies the search condition for the search server 12. It is a search terminal for executing. 101 is a multidimensional feature data generation unit that extracts multidimensional feature data for identifying a person such as a face / color / shape from an image photographed by the camera 11, and 102 is a multidimensional feature data generation unit 101. Dimensional reduction means 103 for generating approximate data by reducing the dimensions of the multi-dimensional feature data, 103 is associated with the approximate data generated by the dimensional reduction means 102 and the multi-dimensional feature data before dimensional reduction, respectively. Approximate data storage means 104 for storing as a group 103a and actual feature data group 103b, 104 is a search request receiving means for receiving at least an identifier for identifying multidimensional feature data of a person to be searched as a search key, and 105 is a search terminal 13 Approximate data and approximate data storage corresponding to the search key received by the search request receiving means 104 based on the search condition specified in Approximate space search means 106 that performs distance calculation with each of the plurality of approximate data accumulated in the stage 103 and arranges the calculation results in order of distance, that is, in order of similarity, is a result of high similarity obtained by the approximate space search means 105. This is real space final ranking means for performing distance calculation again on the group using multidimensional feature data before dimensional reduction and determining the final rank. The final rank determined by the real space final ranking means 106 is output as a search result.

多次元特徴データ生成手段101で抽出する人物特徴データは、画像から切出した移動体の画像データであり、或いは、形状・色・大きさ、動きなどにより移動体を特定する情報であり、或いは、顔の目・鼻・口の形状や位置などを特定する情報である。これらの特徴情報の抽出分類方法は広く知られており、例えば、特開2001-268657号公報、及び、「画像の処理と認識」(安居院猛・長尾智晴 共著、昭晃堂出版)に厳密に記されている。これらの既存技術を利用して生成した顔/服装色等の人物特徴データは、人物を特定するために複数の要素(次元と呼ぶ)から構成されている。例えば、顔特徴データは、全体の顔つきを把握するための要素群、目/鼻/口等の特定部品の形状を把握するための要素群の合計:数百〜数千次元から構成される。   The human feature data extracted by the multi-dimensional feature data generation means 101 is image data of a moving object cut out from the image, or information for specifying the moving object by shape, color, size, movement, or the like, or This information identifies the shape and position of the face's eyes, nose and mouth. Methods for extracting and classifying these feature information are widely known. It is written. Human feature data such as face / clothing color generated using these existing technologies is composed of a plurality of elements (referred to as dimensions) to identify a person. For example, the face feature data is composed of a total of several hundred to several thousand elements: a group of elements for grasping the entire face and a group of elements for grasping the shape of a specific part such as eyes / nose / mouth.

図2は、次元縮退手段102の処理手順を示したもので、以下その動作について説明する。   FIG. 2 shows a processing procedure of the dimension reduction means 102, and the operation will be described below.

<ステップ201>入力された多次元特徴データ([要素番号,値]の系列)に対して、値を全て絶対値にして、値の大きいものから順にソートする。入力される多次元特徴データは、2−aのように、顔全体/部品単位の主成分を持つ顔特徴データや、人物の服装の色分布をRGB/HSV等の色空間ヒストグラムとして表わしたデータや、さらに、人物が写っている領域を切出して周波数に変換したデータなどで、横軸の各要素の[要素番号,値]の集合が、ステップ201の多次元特徴データの入力として与えられる。また、ソート後は2−bのように絶対値が大きいものから順に並べられ、横軸の各要素は、[ソート前の要素番号、値]として生成される。   <Step 201> With respect to the input multidimensional feature data ([element number, value] series), all values are set to absolute values, and the values are sorted in descending order. The input multidimensional feature data includes face feature data having principal components of the entire face / part units, as shown in 2-a, or data representing the color distribution of a person's clothes as a color space histogram such as RGB / HSV. In addition, a set of [element number, value] of each element on the horizontal axis is given as input of the multidimensional feature data in step 201, such as data obtained by cutting out an area in which a person is captured and converting it into a frequency. Further, after sorting, the elements are arranged in descending order of absolute values such as 2-b, and each element on the horizontal axis is generated as [element number and value before sorting].

<ステップ202>指定された次元(R)で、多次元特徴データを分離(次元をカット)する。分離後、指定次元R以内の要素(絶対値の大きい要素)は、R1データとして[ソート前の要素番号,値]の系列として出力され、また、指定次元Rより大きい部分は、R2データとして、[代表値V,R2内の符号ビット列]として生成される(2−c)。なお、R2データの代表値Vは、R2データの絶対値での平均値、或いは、R2データの絶対値の最大値が用いられる。また、符号ビット列は、R2のN番目の要素の値が正ならビット値=1、負ならビット値=0として、R2の要素数分の符号が分かるビット列として生成される。   <Step 202> The multidimensional feature data is separated (the dimension is cut) in the designated dimension (R). After separation, the elements within the specified dimension R (elements with a large absolute value) are output as R1 data as [element number, value before sorting], and the part larger than the specified dimension R is R2 data. It is generated as [sign bit string in representative values V, R2] (2-c). As the representative value V of R2 data, an average value of absolute values of R2 data or a maximum value of absolute values of R2 data is used. Also, the sign bit string is generated as a bit string in which the sign of the number of elements of R2 is known, with the bit value = 1 if the value of the Nth element of R2 is positive, and the bit value = 0 if it is negative.

<ステップ203>ステップ202で生成したR1及びR2データを近似データ蓄積手段103の近似特徴データ群103aへ格納する。また、ステップ201で入力されたソート前ベクトルデータを実特徴データ群103bへ格納する。このようにしてインデクスを生成する。なお、近似特徴データ群103aは、次元を縮退したデータ群であるため、高速アクセス可能なメモリ上に配置するようにしてもよい。   <Step 203> The R1 and R2 data generated in Step 202 is stored in the approximate feature data group 103a of the approximate data storage means 103. In addition, the pre-sort vector data input in step 201 is stored in the actual feature data group 103b. In this way, an index is generated. Note that the approximate feature data group 103a is a data group with reduced dimensions, and may be arranged on a memory that can be accessed at high speed.

図3は、近似空間検索手段105及び実空間最終ランク付け手段106の処理手順を示したもので、以下その動作について説明する。   FIG. 3 shows the processing procedure of the approximate space search means 105 and the real space final ranking means 106, and the operation will be described below.

<ステップ301>検索要求受信手段104で受信した検索キーに対応する近似データ(3−a)と近似データ蓄積手段103で蓄積した複数の近似データ(3−b)との近似距離計算を行ない、近似データ蓄積手段103で蓄積した複数の近似データを近似距離の小さい順に並べる。近似距離計算は、(3−c)に示すように、ソート前の全ての次元に対して、
1) 各次元が、(3−a),(3−b)のR1に含まれれば、R1にある値を用いて距離計算を行なう。
2) 各次元が、(3−a),(3−b)のR2に片方含まれれば、R2に含まれるものに対しては、R2の代表値(V)と符号ビットから近似値を算出し、それを用いて距離計算を行なう。
といった処理を行なう。
<Step 301> Approximate distance calculation between approximate data (3-a) corresponding to the search key received by the search request receiving means 104 and a plurality of approximate data (3-b) stored in the approximate data storage means 103 is performed. The plurality of approximate data stored in the approximate data storage means 103 are arranged in ascending order of the approximate distance. As shown in (3-c), the approximate distance calculation is performed for all dimensions before sorting.
1) If each dimension is included in R1 of (3-a) and (3-b), distance calculation is performed using a value in R1.
2) If each dimension is included in R2 of (3-a) and (3-b), an approximate value is calculated from the representative value (V) of R2 and the sign bit for those included in R2. Then, the distance is calculated using it.
The process is performed.

<ステップ302>ステップ301で距離の小さい順に並べた上位M件に対して、検索要求受信手段104で受信した検索キーとの実距離計算を行ない、(3−d)のように実距離の小さい順に上位K件を抽出し結果として返す。実距離は、実特徴データ群103bに格納したソート前ベクトルデータから計算する。   <Step 302> The real distance calculation with the search key received by the search request receiving means 104 is performed on the top M items arranged in ascending order of the distance in Step 301, and the actual distance is small as shown in (3-d). The top K items are extracted in order and returned as a result. The actual distance is calculated from the pre-sort vector data stored in the actual feature data group 103b.

図3の処理は、近似距離の小さい順に並べた上位M件に対して、実空間上で最終順位付けを行なうものだが、上位M件に絞込んだ時点で検索漏れを起こす可能性がある。図4は、近似空間上での絞込みによる検索漏れを0にするための実空間最終ランク付け手段108の処理手順を示したもので、以下その動作について説明する。   The process of FIG. 3 performs final ranking in the real space for the top M items arranged in ascending order of the approximate distance, but there is a possibility that a search omission may occur when the top M items are narrowed down. FIG. 4 shows a processing procedure of the real space final ranking means 108 for setting search omission due to narrowing down in the approximate space to 0, and the operation will be described below.

<ステップ401>近似空間検索手段105で生成した、検索キーとの近似距離のリストを取得する。リストは、近似距離の小さいものから順に格納されているものとする。   <Step 401> A list of approximate distances with the search key generated by the approximate space search means 105 is acquired. It is assumed that the list is stored in order from the smallest approximate distance.

<ステップ402>近似距離リストから、近似距離の小さいデータを取得する。取得した時点で、近似距離リストから該当データを削除する。   <Step 402> Data with a small approximate distance is acquired from the approximate distance list. At the time of acquisition, the corresponding data is deleted from the approximate distance list.

<ステップ403>ステップ402で取得したデータと検索キーに対応するデータとの実距離を計算する。   <Step 403> The actual distance between the data acquired in step 402 and the data corresponding to the search key is calculated.

<ステップ404>ステップ402で取得したデータを実距離リストへ追加する。リストは、実距離の小さいものから順に格納されるようにする。   <Step 404> The data acquired in step 402 is added to the actual distance list. The list is stored in order from the smallest actual distance.

<ステップ405>実距離リストの上位K件の全ての距離が、近似距離リスト内の最小距離より小さいか判定する。Yesの場合、ステップ406へ、Noの場合、ステップ402へ移行する。   <Step 405> It is determined whether all the top K distances in the real distance list are smaller than the minimum distance in the approximate distance list. If yes, go to step 406; if no, go to step 402.

<ステップ406>実距離リストの上位K件を実空間最終ランク付け手段106の検索結果として出力する。   <Step 406> The top K items in the real distance list are output as the search results of the real space final ranking means 106.

図5を用いて、図3と図4の処理手順による検索結果の違いについて述べる。(5−a)は、検索キーとデータA〜Hとの「近似距離及び実距離」の例を示したものである。(5−a)に対して、図3のフローで検索した場合、(5−b)に示すようにデータGが検索漏れを起こしてしまう。これに対し、図4のフローで検索した場合は(5−c)に示すようにデータGの検索漏れを起こすことはない。図3と図4のどちらの検索処理を採用するかは、近似距離と実距離の関係により異なる。例えば、全てのデータに対して「近似距離≒実距離」となる場合は、近似によって検索順位が大きく入替わる可能性がないため、検索漏れを防ぎつつ高速処理が可能な図4が適している。一方、「近似距離<<実距離」となる場合は、図4の処理では全データに対する検索が結局発生して処理が遅くなるため、ある程度検索漏れを抑えつつ高速に検索できる図3の処理が適している。   Differences in search results between the processing procedures of FIGS. 3 and 4 will be described with reference to FIG. (5-a) shows an example of “approximate distance and actual distance” between the search key and the data A to H. In contrast to (5-a), when a search is performed with the flow of FIG. 3, the data G causes a search omission as shown in (5-b). On the other hand, when the search is performed according to the flow of FIG. 4, the search for the data G does not occur as shown in (5-c). Which of the search processes in FIG. 3 and FIG. 4 is used depends on the relationship between the approximate distance and the actual distance. For example, when “approximate distance≈actual distance” for all data, there is no possibility that the search order will be greatly changed by approximation, so FIG. 4 is suitable because high-speed processing is possible while preventing search omissions. . On the other hand, when “approximate distance << actual distance” is satisfied, the search of all data eventually occurs in the process of FIG. 4 and the process is slowed down. Therefore, the process of FIG. Is suitable.

以上のように、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みを行なうことで、次元数が高次元になった時でも演算量を抑えて、ユーザの望む画像を効率よく検索することができる。また、画像毎に、人物の特徴を強く表わす成分と平均的な成分に分離して次元を縮退することで、予め目/鼻/口等の重要度が高いと想定した成分のみを使用して次元を縮退する場合と比較して、重要度が高くないと想定した成分に特徴が大きく現れる人物の画像が登録されている場合でも、該当人物画像の検索を柔軟にかつ適切に行なうことができる。さらに、図4のような検索処理を導入する事により、近似空間上で検索結果を絞込む過程における検索漏れを0にすることができる。   As described above, after narrowing down the search results to some extent in the approximate space with a reduced number of dimensions, the final refinement is performed in the real space. The desired image can be searched efficiently. In addition, for each image, only components that are assumed to be highly important such as eyes / nose / mouth are used in advance by separating the component into a component that strongly expresses human characteristics and an average component and reducing the dimensions. Compared with the case where the dimension is reduced, even when a person image whose features appear to be large in a component that is assumed not to be high in importance is registered, the person image can be searched flexibly and appropriately. . Furthermore, by introducing a search process as shown in FIG. 4, search omissions in the process of narrowing down search results in the approximate space can be reduced to zero.

なお、次元縮退方法として、成分値の並替えによって人物の特徴を強く表わす成分と平均的な成分に分離する方法について述べたが、Haar等に代表されるウェーブレット変換を用いて、低周波に相当する「平均的な成分」からR2データを生成し、高周波に相当する「平均との差分成分」からR1データを生成するようにしてもよい。この場合、R1/R2データを構成する要素番号が入力する多次元特徴データに依存せず固定されるため、近似空間検索手段105での演算量を削減できるという効果が得られる。また、多次元特徴データ間の差異が平均的な成分に強く出る場合には、前述のウェーブレット変換後の低周波に相当する「平均的な成分」をR1データ、高周波に相当する「平均との差分成分」をR2データに変更することで対応可能である。   In addition, as a dimension reduction method, the method of separating the component characteristic into a component that strongly expresses the characteristics of the person and the average component has been described, but it corresponds to a low frequency by using wavelet transform represented by Haar et al. The R2 data may be generated from the “average component” and the R1 data may be generated from the “difference component from the average” corresponding to the high frequency. In this case, since the element numbers constituting the R1 / R2 data are fixed without depending on the input multidimensional feature data, an effect of reducing the amount of calculation in the approximate space search unit 105 can be obtained. In addition, when the difference between the multidimensional feature data strongly appears in the average component, the “average component” corresponding to the low frequency after the wavelet transform described above is referred to as the R1 data and the “average” corresponding to the high frequency. This can be dealt with by changing the “difference component” to R2 data.

(実施の形態2)
実施の形態2では、近似空間上で検索結果を絞込む過程で検索漏れが多く発生しても、ユーザが再検索による絞込み操作を簡単に行なうことができる画像検索装置について述べる。
(Embodiment 2)
In the second embodiment, an image search apparatus will be described in which a user can easily perform a narrow-down operation by re-search even if many search omissions occur in the process of narrowing down search results in the approximate space.

本発明の実施の形態2で述べる構成は実施の形態1とほぼ同じであるため、ここでは、追加となる再検索時の絞込み操作の処理手順のみ記載し、他は省略する。   Since the configuration described in the second embodiment of the present invention is almost the same as that of the first embodiment, only the processing procedure of the refinement operation at the time of additional re-search is described here, and the others are omitted.

図6は、近似空間検索手段105で得られた検索結果が実空間最終ランク付け手段106の最終ランク付けでどの程度変更が生じたかを示す「次元縮退による歪み率」を結果表示し、ユーザが「次元縮退による歪み率」を参照しながら、近似空間検索手段105で「利用する次元数」と「絞込む件数」を再検索条件として設定する例を示したものである。(6−a)は、検索対象者の検索キーと時刻/場所の検索範囲を最初に指定する初期検索条件指定画面、(6−b)は、「次元縮退による歪み率」も併せて検索結果を表示する検索結果表示画面、(6−c)は、3通りの再検索の方法[1)利用次元数(利用する次元数)の調整、2)近似範囲(絞込む件数)の調整、3)上記1)2)の調整は行なわずに次のK件を出力する]から次の検索条件をユーザが指定する再検索条件指定画面であり、(6−b)と(6−c)の操作は繰返し行なわれる。   FIG. 6 shows a result of “distortion rate due to dimension reduction” indicating how much the search result obtained by the approximate space search unit 105 has changed in the final ranking of the real space final ranking unit 106. An example in which “approximate number of dimensions” and “number of cases to narrow down” are set as re-search conditions by the approximate space search means 105 while referring to “distortion rate due to dimension reduction”. (6-a) is an initial search condition designation screen for first designating a search target person's search key and time / place search range, and (6-b) is a search result including “distortion rate due to dimension reduction”. (6-c) shows three types of re-search methods: (1) Adjustment of the number of used dimensions (number of dimensions used), 2) Adjustment of the approximate range (number of items to be narrowed down), 3 ) Is a re-search condition designation screen in which the user designates the next search condition from [Output next K items without adjusting in 1) and 2) above; and (6-b) and (6-c) The operation is repeated.

図7を用いて、「次元縮退による歪み率」の算出例について述べる。(7−a)は、図1に示すような構成で検索を行なった場合に生じる検索漏れ(データL、G)の例を表わしている。(7−b)は、検索漏れが起きた時の、近似空間検索手段105と実空間最終ランク付け手段106で得られた検索結果の違いを表わしている。(7−b)において、近似空間での絞込みの閾値である上位M件のM値を大きくすれば検索漏れの確率は小さくなるが、ユーザがどの程度M値を大きくすれば良いのか判断がつかない。そこで、「次元縮退の歪み率」として、a)近似空間で得られる上位K件が最終順位付け上位K件に含まれる比率、或いは、b)最終順位付け上位K件のデータに対して、「最終順位の総和(すなわちK*(K+1)/2) /近時空間での順位の総和」の順位比率、を用いることで、ユーザに次元縮退による歪みがどの程度発生しているのかを伝えることができる。なお、上記a)b)の値が小さいほど歪みは大きくなる。   A calculation example of “distortion rate due to dimension reduction” will be described with reference to FIG. (7-a) represents an example of a search omission (data L, G) that occurs when a search is performed with the configuration shown in FIG. (7-b) represents the difference between the search results obtained by the approximate space search means 105 and the real space final ranking means 106 when a search omission occurs. In (7-b), if the M value of the top M items, which is the threshold for narrowing down in the approximate space, is increased, the probability of search omission is reduced, but it is possible to determine how much the user should increase the M value. Absent. Therefore, as the “dimensional reduction factor,” a) the ratio of the top K items obtained in the approximate space included in the final ranking top K items, or b) the data of the top ranking top K items, “ Tell the user how much distortion due to dimensional degeneracy has occurred by using the rank ratio of the sum of the final ranks (ie, K * (K + 1) / 2) / the sum of the ranks in the recent space. Can do. In addition, distortion becomes large, so that the value of said a) b) is small.

次に、「次元縮退の歪み率」を参照してユーザが再検索条件を指定する操作について詳細に説明する。再検索条件の指定には、(6−c)に示したように、1)利用次元数の調整、2)近似範囲の調整、3)次のK件を出力する、の3パターン存在する。   Next, an operation for specifying a re-search condition by the user with reference to “dimensional distortion factor” will be described in detail. As shown in (6-c), there are three patterns for specifying the re-search condition: 1) adjustment of the number of used dimensions, 2) adjustment of the approximate range, and 3) output of the next K items.

1)の利用次元数とは、近似空間検索手段105で使用するR1データの要素数であり、R1データの要素数を増やすことで「次元縮退の歪み率」を小さくすることができる。なお、利用次元数の調整が行なわれた時に、近似空間検索手段105でR1データの要素数を変更して再検索処理ができるように、図8に示すような複数のカット次元(R#a,R#b,R#c)に対応したデータ構造を予め生成しておく。データ構造は、複数のカット次元毎に生成する必要はなく、(8−b)のように、R1データの要素数が大きいカット次元(R#c)にあわせて用意しておくことで対応可能である。   The number of used dimensions of 1) is the number of elements of R1 data used in the approximate space search means 105. By increasing the number of elements of R1 data, the “dimensional reduction distortion rate” can be reduced. When the number of use dimensions is adjusted, the approximate space search unit 105 can change the number of elements in the R1 data and perform a re-search process so that a plurality of cut dimensions (R # a as shown in FIG. , R # b, R # c) is generated in advance. The data structure does not need to be generated for each cut dimension, but can be prepared by preparing for the cut dimension (R # c) where the number of elements of R1 data is large as shown in (8-b). It is.

2)の近似範囲の調整は、近似空間で絞込む範囲(上位M件のM値)を調整するためのもので、「次元縮退の歪み率」が大きいときでも、M値を大きくする事で検索漏れを防ぐことができる。   The adjustment of the approximate range in 2) is for adjusting the range to be narrowed down in the approximate space (M values of the top M cases). Even when the “dimensional distortion factor” is large, the M value is increased. Search omissions can be prevented.

3)の次のK件は、「次元縮退の歪み率が小さい」或いは「次元縮退の歪み率が大きいが、1)2)による調整が難しい」とユーザが判断した時に使用される。   The next K cases of 3) are used when the user determines that “dimensional reduction distortion rate is small” or “dimensional reduction distortion rate is large, but 1) adjustment in 2) is difficult”.

以上のように、ユーザが「次元縮退による歪み率」を参照して、近似空間検索手段で「利用する次元数」と「絞込む件数」を調整していくことで、近似空間上で検索結果を絞込む過程における検索漏れを抑制した再検索操作を実現することができる。なお、再検索条件指定手段が、実空間最終ランク付け手段で出力した「次元縮退による歪み率」を参照して自動的に検索条件を再指定する構成としてもよい。この構成により、より効率的に画像を検索できる。   As described above, by referring to the “distortion rate due to dimension reduction” and adjusting the “number of dimensions to use” and “number of cases to narrow down” with the approximate space search means, the search results in the approximate space It is possible to realize a re-search operation that suppresses a search omission in the process of narrowing down. The re-search condition specifying unit may automatically re-specify the search condition with reference to the “distortion rate due to dimension reduction” output by the real space final ranking unit. With this configuration, an image can be searched more efficiently.

(実施の形態3)
実施の形態3では、近似空間上で検索結果を絞込む過程で検索漏れが多く発生しても、ユーザが再検索による絞込み操作を簡単に行なうことができる、実施の形態2とは別の画像検索装置について述べる。
(Embodiment 3)
In the third embodiment, even if many search omissions occur in the process of narrowing down search results in the approximate space, the user can easily perform a narrowing operation by re-searching. A search device will be described.

本発明の実施の形態3で述べる構成は実施の形態1とほぼ同じであるため、ここでは、追加となる再検索時の絞込み操作の処理手順のみ記載し、他は省略する。   Since the configuration described in the third embodiment of the present invention is almost the same as that of the first embodiment, only the processing procedure of the refinement operation at the time of additional re-search is described here, and the others are omitted.

図9は、検索結果に対してユーザが正解または不正解を指定すると、近似空間検索手段105にて、正解と指定した近似データで使用している要素番号の重み付けを強く、また、誤りと指定した近似データで使用している要素番号の重み付けを弱くして、近似空間内での距離計算を再度行なう例を示したものである。(9−b)のように、人物の特徴を強く表わす要素番号は検索結果毎に異なるため、ユーザが正解/不正解と指定した結果から、正解を導出する要素番号と不正解を除去する要素番号をそれぞれ抽出して重み付けを行なうことで、検索漏れを抑制した再検索処理を実現する事ができる。なお、重み付けとは、図3の(3−c)の各次元の距離計算において、距離計算結果に重み係数を付与することである。   FIG. 9 shows that when the user designates a correct answer or an incorrect answer for the search result, the approximate space search means 105 strongly weights the element number used in the approximate data designated as the correct answer, and designates an error. In this example, the weighting of the element numbers used in the approximate data is weakened, and the distance calculation in the approximate space is performed again. As shown in (9-b), since the element number that strongly represents the characteristics of the person is different for each search result, the element number for deriving the correct answer and the element for removing the incorrect answer from the result designated by the user as the correct answer / incorrect answer By extracting each number and performing weighting, it is possible to realize a re-search process that suppresses search omissions. In addition, weighting means assigning a weighting factor to the distance calculation result in the distance calculation of each dimension in (3-c) of FIG.

また、図10は、検索結果に対してユーザが不正解と指定すると、不正解と指定したデータが実空間最終ランク付け手段106で出力されないように、近似空間検索手段105で「利用する次元数」と「絞込む件数」を自動調整する例を示したものである。(10―b)において、ユーザが「データH/E=不正解」と指定した場合は、最終順位付けでデータH/Eより距離の小さい要素が出てくるまで、近似空間での絞込みの閾値である上位M件のM値を大きく、或いは利用する次元数を増やして処理を行なう。   Further, FIG. 10 shows that when the user designates an incorrect answer for the search result, the approximate space search means 105 “number of dimensions to be used” prevents the data designated as the incorrect answer from being output by the real space final ranking means 106. ”And“ number of items to narrow down ”are shown as examples of automatic adjustment. In (10-b), when the user designates “data H / E = incorrect answer”, the threshold for narrowing down in the approximate space until an element having a smaller distance than data H / E appears in the final ranking. The process is performed by increasing the M value of the top M items or increasing the number of dimensions to be used.

以上のように、検索結果に対して、画像毎に、ユーザが正解/不正解を指定して、再検索時の近似距離計算パラメータ(要素番号の重み、利用次元数、近似範囲)を自動調整していくことで、近似空間上で検索結果を絞込む過程における検索漏れを抑制した再検索操作を実現することができる。   As described above, the user specifies correct / incorrect answers for each image, and automatically adjusts approximate distance calculation parameters (element number weight, number of dimensions used, approximate range) at the time of re-search. By doing so, it is possible to realize a re-search operation that suppresses search omissions in the process of narrowing down search results in the approximate space.

以上のように、本発明の各実施形態にかかる画像検索装置および画像検索方法は、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みを行なうことで、次元数が高次元になった時でも演算量を抑えて、ユーザの望む画像を効率よく適切に検索することができるという効果を有し、複数カメラを対象にした万引き犯・迷子・落し物者の全行動把握を行なう監視用途に加えて、旅行・運動会等の個人で撮影したコンテンツ(静止画・動画)に対する閲覧・検索・編集の用途等にも応用することができる。   As described above, the image search apparatus and the image search method according to each embodiment of the present invention narrow down the search results to some extent in the approximate space with a reduced number of dimensions, and then perform final narrowing in the real space, Even when the number of dimensions becomes high, it has the effect of reducing the amount of calculation and efficiently searching for the image that the user wants, and it can be used for shoplifters, lost children, and lost persons targeting multiple cameras. In addition to the monitoring purpose of grasping all the actions, it can be applied to the purpose of browsing / searching / editing contents (still images / moving pictures) taken by individuals such as travel and athletic meet.

本発明は、次元数を抑えた近似空間上で検索結果をある程度絞込んだ後、実空間で最終絞込みができるため、次元数が高次元になった時でもユーザの望む画像を効率よく検索することができるという効果を有し、画像から抽出した多次元特徴データ(顔,色等)を用いて、大容量の画像群から所望の画像を高速に洗出すことのできる画像検索装置および画像検索方法等に有用である。   The present invention can narrow down the search results to some extent in the approximate space with a reduced number of dimensions, and then can finally narrow down in the real space. Therefore, even when the number of dimensions becomes high, the user can search efficiently. Image retrieval device and image retrieval that can quickly retrieve a desired image from a large-capacity image group using multidimensional feature data (face, color, etc.) extracted from the image. Useful for methods and the like.

11 カメラ
12 検索サーバ
13 検索端末
101 多次元特徴データ生成手段
102 次元縮退手段
103 近似データ蓄積手段
103a 近似特徴データ群
103b 実特徴データ群
104 検索要求受信手段
105 近似空間検索手段
106 実空間最終ランク付け手段
DESCRIPTION OF SYMBOLS 11 Camera 12 Search server 13 Search terminal 101 Multidimensional feature data generation means 102 Dimension reduction means 103 Approximate data storage means 103a Approximate feature data group 103b Real feature data group 104 Search request reception means 105 Approximate space search means 106 Real space final ranking means

Claims (5)

多次元の画像を蓄積する画像蓄積手段と、
前記画像近似データを近似する前の画像と対応付けて蓄積する近似データ蓄積手段と、
検索対象に類似する近似データを前記近似データ蓄積手段に蓄積された近似データから検索する近似空間検索手段と、
前記近似空間検索手段の検索結果に対応する前記画像蓄積手段に蓄積された画像と検索対象との距離を計算する手段とを備え、
前記距離計算は、結果として出力するK件より多いM件(K,M:自然数)の前記検索結果に対して行う
ことを特徴とする画像検索装置。
Image storage means for storing multidimensional images;
And approximate data storing means for storing in association with the previous image that approximates the approximate data of the image,
Approximate space search means for searching for approximate data similar to the search object from the approximate data stored in the approximate data storage means;
Means for calculating a distance between an image stored in the image storage unit corresponding to a search result of the approximate space search unit and a search target;
The distance search is performed on M search results (K, M: natural numbers) more than K output as a result .
前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記多次元の画像の次元の一部を平均して生成されることを特徴とする請求項1に記載の画像検索装置。2. The image according to claim 1, wherein the approximate data stored in the approximate data storage unit is generated by averaging a part of dimensions of the multidimensional image stored in the image storage unit. Search device. 前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記多次元の画像の周波数成分の高い個々の次元成分と、周波数成分の低い次元を平均した成分から構成されることを特徴とする請求項1または2に記載の画像検索装置。 The approximate data stored in the approximate data storage means is composed of individual dimensional components with high frequency components of the multi-dimensional image stored in the image storage means and components obtained by averaging low-dimensional dimensions of frequency components. The image search apparatus according to claim 1 , wherein the image search apparatus is an image search apparatus. 前記近似データ蓄積手段に蓄積する前記近似データは、前記画像蓄積手段に蓄積された前記多次元の画像の周波数成分の低い個々の次元成分と、周波数成分の高い次元を平均した成分から構成されることを特徴とする請求項1または2に記載の画像検索装置。 The approximate data stored in the approximate data storage means is composed of individual dimension components having low frequency components of the multidimensional image stored in the image storage means and components obtained by averaging high dimensions of frequency components. The image search apparatus according to claim 1 , wherein the image search apparatus is an image search apparatus. プログラムされたコンピュータによって画像を検索する方法であって、
多次元の画像を蓄積する画像蓄積ステップと、
前記画像の近似データを前記画像と対応付けて蓄積する近似データ蓄積ステップと、
検索対象に類似する近似データを前記近似データ蓄積ステップで蓄積された近似データから検索する近似空間検索ステップと、
前記近似空間検索ステップの検索結果に対応する前記画像蓄積ステップで蓄積された画像と検索対象との距離を計算するステップとを備え、
前記距離計算は、結果として出力するK件より多いM件(K,M:自然数)の前記検索結果に対して行う
ことを特徴とする画像検索方法。
A method for searching for images by a programmed computer,
An image accumulation step for accumulating multidimensional images;
An approximate data storage step for storing the approximate data of the image in association with the image;
An approximate space search step for searching for approximate data similar to the search object from the approximate data stored in the approximate data storage step;
Calculating the distance between the image stored in the image storage step corresponding to the search result of the approximate space search step and the search target,
The distance calculation is performed on M search results (K, M: natural numbers) more than K output as a result .
JP2011107288A 2011-05-12 2011-05-12 Image search apparatus and image search method Expired - Fee Related JP5138790B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011107288A JP5138790B2 (en) 2011-05-12 2011-05-12 Image search apparatus and image search method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011107288A JP5138790B2 (en) 2011-05-12 2011-05-12 Image search apparatus and image search method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2005370613A Division JP4777059B2 (en) 2005-12-22 2005-12-22 Image search apparatus and image search method

Publications (3)

Publication Number Publication Date
JP2011165211A JP2011165211A (en) 2011-08-25
JP2011165211A5 JP2011165211A5 (en) 2011-12-22
JP5138790B2 true JP5138790B2 (en) 2013-02-06

Family

ID=44595741

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011107288A Expired - Fee Related JP5138790B2 (en) 2011-05-12 2011-05-12 Image search apparatus and image search method

Country Status (1)

Country Link
JP (1) JP5138790B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2685456B2 (en) * 1987-10-16 1997-12-03 株式会社日立製作所 Similar image retrieval device
JPH0697459B2 (en) * 1991-06-20 1994-11-30 インターナショナル・ビジネス・マシーンズ・コーポレイション Color image area management device, color image area management method, and color image area search method
US7298931B2 (en) * 2002-10-14 2007-11-20 Samsung Electronics Co., Ltd. Image retrieval method and apparatus using iterative matching
JP2005250562A (en) * 2004-03-01 2005-09-15 Tama Tlo Kk Discrimination analysis method, similar image search method, program for it, and device

Also Published As

Publication number Publication date
JP2011165211A (en) 2011-08-25

Similar Documents

Publication Publication Date Title
JP4777059B2 (en) Image search apparatus and image search method
CN105100894B (en) Face automatic labeling method and system
JP4553650B2 (en) Image group representation method, descriptor derived by representation method, search method, apparatus, computer program, and storage medium
US8135239B2 (en) Display control apparatus, display control method, computer program, and recording medium
CN110235138A (en) System and method for appearance search
Sujatha et al. A study on keyframe extraction methods for video summary
US20070195344A1 (en) System, apparatus, method, program and recording medium for processing image
EP3358479A1 (en) System, apparatus, method, program and recording medium for processing image
CN103530638B (en) Method for pedestrian matching under multi-cam
KR101563297B1 (en) Method and apparatus for recognizing action in video
JP5180922B2 (en) Image search system and image search method
CN110516707B (en) Image labeling method and device and storage medium thereof
CN108198202A (en) A kind of video content detection method based on light stream and neural network
JP2013140475A (en) Video retrieval apparatus
Stefanidis et al. Summarizing video datasets in the spatiotemporal domain
KR102110375B1 (en) Video watch method based on transfer of learning
JP2009060413A (en) Method and system for extracting feature of moving image, and method and system for retrieving moving image
CN106557523A (en) Presentation graphics system of selection and equipment and object images search method and equipment
JP5138790B2 (en) Image search apparatus and image search method
WO2023039331A1 (en) Object detection systems and methods including an object detection model using a tailored training dataset
Cho et al. A novel virus infection clustering for flower images identification
Lotfi Trajectory clustering and behaviour retrieval from traffic surveillance videos
Naveen Kumar et al. An efficient approach for video retrieval by spatio-temporal features
CN108804981A (en) Moving target detecting method based on long-time video frequency sequence background modeling frame
Cao et al. Pedestrian Detection Algorithm Based on ViBe and YOLO

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20110607

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111104

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20120413

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120424

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20121016

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20121114

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20151122

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees