JP2013069149A - Image similarity determination device, image similarity determination method and image similarity determination program - Google Patents

Image similarity determination device, image similarity determination method and image similarity determination program Download PDF

Info

Publication number
JP2013069149A
JP2013069149A JP2011207731A JP2011207731A JP2013069149A JP 2013069149 A JP2013069149 A JP 2013069149A JP 2011207731 A JP2011207731 A JP 2011207731A JP 2011207731 A JP2011207731 A JP 2011207731A JP 2013069149 A JP2013069149 A JP 2013069149A
Authority
JP
Japan
Prior art keywords
feature
images
image
similarity determination
feature point
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011207731A
Other languages
Japanese (ja)
Other versions
JP5814714B2 (en
Inventor
Kyoko Sudo
恭子 数藤
Masashi Morimoto
正志 森本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP2011207731A priority Critical patent/JP5814714B2/en
Publication of JP2013069149A publication Critical patent/JP2013069149A/en
Application granted granted Critical
Publication of JP5814714B2 publication Critical patent/JP5814714B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To determine similarity by collectively determining geometrical correspondence between images using a series of a plurality of feature point groups calculating local feature quantity and making the images correspond to each other with higher calculation efficiency and with higher accuracy.SOLUTION: The image similarity determination device for determining similarity of a plurality of images includes: feature point detection means for detecting a feature point group from each of the plurality of images; feature point sampling means for performing prescribed sampling from the feature point group detected from each of the plurality of images to prepare and output series information of feature points provided with an order relation for each of the plurality of images; feature vector generation means for feature-vectorizing the series information of the feature points provided with the order relation and outputting the series information for each of the plurality of images; linear transformation means for performing linear transformation for each feature vector of the plurality of images and outputting each feature vector; and similarity determination means for determining the similarity of the plurality of images using the linear transformation result.

Description

本発明は、画像類似度判定装置、画像類似度判定方法及び画像類似度判定プログラムに関する。   The present invention relates to an image similarity determination device, an image similarity determination method, and an image similarity determination program.

画像は画素の配列パターンであり、画像の類似度の判定は、パターン分類の問題といえる。パターン分類方法の主な従来技術は、非特許文献1では以下の2つに大別して整理されている。第1の方法は、テンプレートマッチングによる方法であり、既知のパターンに関して予め格納されているモデルと、入力パターンとを画像の上で直接的に比較し、最も整合のとれたパターンを選択するものである。第2の方法は、特徴空間でのパターン分類であり、パターンから、ある量または特徴を抽出し、これらを基にしてパターンを分類するものである。   An image is an array pattern of pixels, and determination of image similarity is a problem of pattern classification. The main prior arts of pattern classification methods are roughly classified into the following two in Non-Patent Document 1. The first method is a template matching method, in which a model stored in advance with respect to a known pattern and an input pattern are directly compared on an image, and the most consistent pattern is selected. is there. The second method is pattern classification in a feature space, in which a certain amount or feature is extracted from the pattern, and the pattern is classified based on these.

ここで、第1の方法、第2の方法のそれぞれについて、画像に含まれる物体が回転・移動・変形する場合に、画像間の対応を検出することを考える。第1の方法の場合には、(1)あらゆるバリエーションを含むテンプレートを用意する、(2)テンプレートに回転・移動・変形を施して対象画像と比較するなどが考えられる。しかし、(1)の方法はどのような変形があり得るかが既知でなければ利用できない。また、(2)の方法は、計算量が膨大となる。   Here, for each of the first method and the second method, it is considered to detect correspondence between images when an object included in the image rotates, moves, or deforms. In the case of the first method, (1) preparing a template including all variations, (2) rotating / moving / deforming the template and comparing it with the target image may be considered. However, the method (1) cannot be used unless it is known what kind of deformation is possible. Further, the method (2) requires a large amount of calculation.

一方、第2の方法は、第1の方法よりも局所的な特徴を抽出する方法であって、従来よく用いられている特徴には、勾配ヒストグラム特徴やモーメント特徴などがある。勾配ヒストグラム特徴や、その輝度勾配の方向ヒストグラムに基づいてマッチングを行うアルゴリズムであるSIFT(Scale-Invariant Feature Transform)は、回転、移動、拡大縮小によらず画像間の対応をとることができる。   On the other hand, the second method is a method for extracting local features as compared with the first method, and conventionally used features include a gradient histogram feature and a moment feature. SIFT (Scale-Invariant Feature Transform), which is an algorithm that performs matching based on the gradient histogram feature and the direction histogram of the luminance gradient, can take correspondence between images regardless of rotation, movement, and enlargement / reduction.

しかし、拡大縮小以外の変形については、変形の度合いが極僅かである場合を除いて対応できない。モーメント特徴も形状の幾何学的特徴について回転、移動、拡大縮小に不変な特徴量であるが、拡大縮小以外の変形については、変形の度合いが極僅かである場合を除いて対応できない。ただし、これらは局所的な特徴であるため、複数の局所領域の特徴量を求め、参照画像と対象画像とで、どの局所領域同士が対応するかを決定できれば、画像の回転、移動、拡大縮小の変換行列を推定することができる。   However, deformation other than enlargement / reduction cannot be handled except when the degree of deformation is very small. The moment feature is also a feature quantity that is invariant to rotation, movement, and enlargement / reduction with respect to the geometric feature of the shape, but deformation other than enlargement / reduction cannot be handled except when the degree of deformation is very small. However, since these are local features, the feature amount of a plurality of local regions can be obtained, and if it is possible to determine which local regions correspond to each other between the reference image and the target image, image rotation, movement, and scaling Can be estimated.

しかしながら、そのような変換行列を推定する際には、対応する特徴点群の座標値のみを用いる。各特徴点の特徴量は、特徴点同士の対応づけに用いるだけで、画像の回転、移動、拡大縮小といった幾何的な関係を求める際には反映されない。したがって、特徴点同士の対応づけの段階で誤りが生じた場合にも、それをもとに幾何的な関係を求めるしかない。   However, when estimating such a transformation matrix, only the coordinate values of the corresponding feature point group are used. The feature amount of each feature point is only used for associating the feature points, and is not reflected when obtaining a geometrical relationship such as rotation, movement, and enlargement / reduction of an image. Therefore, even when an error occurs at the stage of associating feature points, there is no choice but to obtain a geometric relationship based on the error.

特徴量の系列同士を対応づける手法には、従来からDPマッチング(動的計画法)やHMM(隠れマルコフモデル)がよく知られている。これらの手法を用いて、特徴量と座標の両方の系列を入力として系列同士の対応を推定すれば、座標値のみから幾何的な関係を求めるよりも、対応の精度がよくなる可能性がある。しかしながら、その場合でも、画像の回転、移動、拡大縮小についての変換行列は別途求めるしかなかった。   Conventionally, DP matching (dynamic programming) and HMM (Hidden Markov Model) are well known as methods for associating feature quantity sequences with each other. If these methods are used to estimate the correspondence between sequences using both the feature value and the coordinate sequences as inputs, the accuracy of the correspondence may be improved rather than obtaining a geometrical relationship only from the coordinate values. However, even in that case, a conversion matrix for rotation, movement, and enlargement / reduction of the image must be obtained separately.

画像認識と画像理解 啓学出版 (第2章)p.16〜p.17Image Recognition and Image Understanding Keigaku Publishing (Chapter 2) p. 16-p. 17 藤吉弘亘.”Gradientベースの特徴抽出−SIFTとHOG−”,情報処理学会 研究報告 CVIM 160,pp.211−224,2007Hiroyoshi Fujiyoshi. "Gradient-based feature extraction-SIFT and HOG-", Information Processing Society of Japan Research Report CVIM 160, pp. 211-224, 2007

上述したように、従来技術に従っていたのでは、異なる方法で撮影した同じ物体を含む画像を検出しようとしたとき、または類似した物体を含む画像を検出しようとしたとき、画像間の類似度を判定することが難しいという問題がある。この問題は、画像に含まれる物体の回転・移動・変形に伴って発生する問題である。また、画像中の個々の局所領域から求めた特徴量には不確かさがあることに伴って発生する問題である。前述の第1の方法に従い、画像の類似度の判定を実行したとしても、画像に含まれる物体と参照パターンの間の類似度は求められるが、画像に含まれる物体同士の形状の相対的な類似関係と相関をもつ類似度を算出する方法はこれまでなかった。   As described above, according to the prior art, when an image including the same object photographed by a different method is detected or an image including a similar object is detected, the similarity between images is determined. There is a problem that it is difficult to do. This problem is a problem that occurs with the rotation, movement, and deformation of an object included in an image. In addition, there is a problem that occurs due to uncertainties in the feature values obtained from individual local regions in the image. Even if the similarity between images is determined according to the first method described above, the similarity between the object included in the image and the reference pattern can be obtained, but the relative shape of the objects included in the image can be calculated. There has been no method for calculating the degree of similarity having a correlation with the similarity.

また、前述の第2の方法で類似度を算出した場合、まず局所的な特徴量を用いて画像間で複数の対応点を検出し、対象となる画像と参照パタンとの幾何的な関係(回転量、平行移動量、変形の変換行列など)については、別途対応点の座標のみを用いて求める必要がある。すなわち、従来技術は、局所的な特徴量に基づく局所領域同士の対応づけを行った後に、複数の対応づけされた特徴点の座標に基づく画像間の幾何的な対応づけを行うという2段階の処理を行う必要がある。   When the similarity is calculated by the second method described above, first, a plurality of corresponding points are detected between images using local feature amounts, and a geometric relationship between the target image and the reference pattern ( The rotation amount, the parallel movement amount, the transformation matrix of deformation, etc.) need to be obtained separately using only the coordinates of the corresponding points. That is, the prior art performs a two-step process of performing geometric correspondence between images based on the coordinates of a plurality of feature points associated with each other, after associating local regions based on local feature amounts. It is necessary to perform processing.

本発明は、このような事情に鑑みてなされたもので、局所的な特徴量を算出した複数の特徴点群の系列を用いて一括して画像間の幾何的な対応を求めて、より計算効率が良く、また、より精度良く画像同士を対応づけして類似度判定ができる画像類似度判定装置、画像類似度判定方法及び画像類似度判定プログラムを提供することを目的とする。   The present invention has been made in view of such circumstances, and obtains a geometric correspondence between images collectively using a series of a plurality of feature point groups for which local feature amounts have been calculated, and is further calculated. An object of the present invention is to provide an image similarity determination device, an image similarity determination method, and an image similarity determination program that are efficient and that can perform similarity determination by associating images with higher accuracy.

本発明は、複数の画像の類似度を判定する画像類似度判定装置であって、複数の画像それぞれから特徴点群を検出する特徴点検出手段と、前記複数の画像のそれぞれから検出した特徴点群から、所定のサンプリングを行って、順序関係を持たせた特徴点の系列情報を前記複数の画像それぞれについて作成して出力する特徴点サンプリング手段と、前記複数の画像それぞれについて、前記順序関係を持たせた特徴点の系列情報を特徴ベクトル化して出力する特徴ベクトル生成手段と、前記複数の画像の前記特徴ベクトルそれぞれについて線形変換を施して出力する線形変換手段と、前記線形変換の結果を用いて前記複数の画像の類似度を判定する類似度判定手段とを備えることを特徴とする。   The present invention is an image similarity determination device that determines the similarity of a plurality of images, and includes feature point detection means for detecting a feature point group from each of the plurality of images, and feature points detected from each of the plurality of images. A feature point sampling unit that performs predetermined sampling from the group and generates and outputs sequence information of feature points having an order relationship for each of the plurality of images, and the order relationship for each of the plurality of images. Feature vector generation means for outputting the feature point series information obtained by converting it into feature vectors, linear conversion means for performing linear conversion on each of the feature vectors of the plurality of images, and using the result of the linear conversion And similarity determining means for determining the similarity of the plurality of images.

本発明は、前記特徴点の系列情報は、前記画像に含まれる物体の輪郭上の特徴点、または物体内部の特徴点、またはそれらの組み合わせに対して順序関係を持たせた情報であることを特徴とする。   According to the present invention, the feature point series information is information having an order relationship with respect to a feature point on the contour of an object included in the image, a feature point inside the object, or a combination thereof. Features.

本発明は、前記特徴ベクトル生成手段は、前記サンプリングした特徴点について求めた位置情報、または前記画像に含まれる物体の色情報、またはそれらの組み合わせを特徴ベクトルとすることを特徴とする。   The present invention is characterized in that the feature vector generation means uses the position information obtained for the sampled feature points, the color information of an object included in the image, or a combination thereof as a feature vector.

本発明は、前記位置情報は、特徴点のユークリッド空間における座標、または特徴点の極座標、または複素平面における座標、または特徴点間の位置ベクトルの差分情報、または前記画像に含まれる物体の輪郭の接ベクトル、またはそれらの組み合わせを用いることを特徴とする。   According to the present invention, the position information includes coordinates of feature points in Euclidean space, polar coordinates of feature points, coordinates in a complex plane, difference information of position vectors between feature points, or contours of objects included in the image. It is characterized by using a tangent vector or a combination thereof.

本発明は、前記線形変換手段は、Procrustes解析を用いて線形変換を行うことを特徴とする。   The present invention is characterized in that the linear conversion means performs linear conversion using Procrustes analysis.

本発明は、前記類似度判定手段は、Procrustes距離、またはProcrustes距離と、それ以外の特徴量との組み合わせを用いて類似度を判定することを特徴とする。   The present invention is characterized in that the similarity determination means determines the similarity by using a Procrutests distance, or a combination of the Procruces distance and other feature quantities.

本発明は、複数の画像の類似度を判定する画像類似度判定方法であって、複数の画像それぞれから特徴点群を検出する特徴点検出ステップと、前記複数の画像のそれぞれから検出した特徴点群から、所定のサンプリングを行って、順序関係を持たせた特徴点の系列情報を前記複数の画像それぞれについて作成して出力する特徴点サンプリングステップと、前記複数の画像それぞれについて、前記順序関係を持たせた特徴点の系列情報を特徴ベクトル化して出力する特徴ベクトル生成ステップと、前記複数の画像の前記特徴ベクトルそれぞれについて線形変換を施して出力する線形変換ステップと、前記線形変換の結果を用いて前記複数の画像の類似度を判定する類似度判定ステップとを有することを特徴とする。   The present invention is an image similarity determination method for determining the similarity of a plurality of images, a feature point detecting step for detecting a feature point group from each of the plurality of images, and a feature point detected from each of the plurality of images A feature point sampling step of performing a predetermined sampling from the group and generating and outputting sequence information of feature points having an order relationship for each of the plurality of images, and the order relationship for each of the plurality of images. A feature vector generation step for outputting the feature point series information obtained by converting the feature point into a feature vector, a linear conversion step for performing a linear conversion on each of the feature vectors of the plurality of images, and a result of the linear conversion And a similarity determination step for determining the similarity of the plurality of images.

本発明は、コンピュータを画像類似度判定装置として機能させることを特徴とする。   The present invention is characterized by causing a computer to function as an image similarity determination device.

本発明によれば、画像に含まれる特徴点の系列の対応に基づいて画像間の対応をとることにより、画像に含まれる物体が回転、移動、変形するような場合や、画像に含まれる特徴点同士の位置関係がずれるような場合においても、画像に含まれる物体同士、あるいは画像に含まれる物体と予め用意した参照パターンとの類似度を算出し、これをもとに類似物体を含む画像を検索したり、画像を類似する順番に並べたりできるようになるという効果が得られる。   According to the present invention, by taking correspondence between images based on correspondence of a series of feature points included in an image, an object included in the image is rotated, moved, deformed, or a feature included in the image. Even in the case where the positional relationship between the points is deviated, the degree of similarity between the objects included in the image or between the object included in the image and the reference pattern prepared in advance is calculated, and based on this, the image including the similar object It is possible to search for images and to arrange images in a similar order.

本発明の一実施形態の構成を示すブロック図である。It is a block diagram which shows the structure of one Embodiment of this invention. 対象画像の一例を示す説明図である。It is explanatory drawing which shows an example of a target image. 画像処理結果の一例を示す説明図である。It is explanatory drawing which shows an example of an image processing result. 特徴点情報の出力形式の一例を示す説明図である。It is explanatory drawing which shows an example of the output format of feature point information. 画像の類似度を可視化した結果を示す説明図である。It is explanatory drawing which shows the result of having visualized the similarity of an image.

以下、図面を参照して、本発明の一実施形態による画像類似度判定装置を説明する。図1は同実施形態の構成を示すブロック図である。この図において、符号1は、コンピュータ装置で構成する画像類似度判定装置である。符号11は、互いの類似度を判定したい2枚の画像、または、基準画像となる1枚の画像とそれとの類似度を判定すべき1枚以上の画像をカメラ等から入力するかまたは画像ファイルから入力する画像入力部である。符号12は、画像入力部11において入力した画像から特徴点を検出し、特徴点の候補情報を出力する特徴点検出部である。符号13は、特徴点の候補情報から、予め決められた方法に従いサンプリングを行い、予め決められた順序関係に基づいて、それらに順序関係を持たせた系列を作成して出力する特徴点サンプリング部である。   Hereinafter, an image similarity determination apparatus according to an embodiment of the present invention will be described with reference to the drawings. FIG. 1 is a block diagram showing the configuration of the embodiment. In this figure, reference numeral 1 denotes an image similarity determination device constituted by a computer device. Reference numeral 11 indicates that two images for which the degree of similarity between them is to be determined, or one image that is a reference image and one or more images for which the degree of similarity is to be determined are input from a camera or the like. It is an image input part which inputs from. Reference numeral 12 denotes a feature point detection unit that detects feature points from the image input by the image input unit 11 and outputs candidate information of feature points. Reference numeral 13 denotes a feature point sampling unit that performs sampling according to a predetermined method from feature point candidate information, and generates and outputs a sequence having an order relationship based on the predetermined order relationship. It is.

符号14は、サンプリングされた特徴点の系列について、予め決められた特徴量の抽出を行って、特徴量のベクトル(系列)として出力する特徴ベクトル生成部である。符号15は、特徴ベクトルに線形変換を施す線形変換部である。ここまでの処理により、画像入力部11において入力された互いの類似度を判定したい2枚の画像、または、基準画像とそれとの類似度を判定したい1枚以上の画像のそれぞれについて、特徴ベクトルが求まり、それらを用いた線形変換が行われることになる。符号16は、線形変換の結果を類似度の数値として出力する類似度判定部である。   Reference numeral 14 denotes a feature vector generation unit that extracts a predetermined feature amount from a sampled sequence of feature points and outputs it as a feature amount vector (sequence). Reference numeral 15 denotes a linear conversion unit that performs linear conversion on the feature vector. With the processing so far, the feature vectors of each of the two images that are input in the image input unit 11 and for which the similarity between them is to be determined, or one or more images for which the similarity between the reference image and the similarity is to be determined are determined. As a result, linear transformation using them is performed. Reference numeral 16 denotes a similarity determination unit that outputs the result of linear transformation as a numerical value of similarity.

次に、図1に示す画像入力部11について説明する。画像入力部11によって入力される画像は、互いの類似度を判定したい2枚の画像、または、基準画像となる1枚の画像とそれとの類似度を判定したい1枚以上の画像であり、対象はどのようなものであってもよいが、ここでは、ある程度の変形を伴う物体を撮影した画像であるものして説明する。このような画像の一例として図2に示すように、ウェブサイト上の商品画像が適用可能である。画像の大きさや、含まれる商品の大きさは図2に示すようにばらばらであって構わない。   Next, the image input unit 11 shown in FIG. 1 will be described. The images input by the image input unit 11 are two images for which the degree of similarity between them is to be determined, or one or more images for which the degree of similarity between one image to be a reference image and the target image is to be determined. Although what kind of thing may be sufficient, it demonstrates as what is the image which image | photographed the object with a certain amount of deformation | transformation here. As an example of such an image, a product image on a website can be applied as shown in FIG. The size of the image and the size of the contained products may be different as shown in FIG.

次に、図1に示す特徴点検出部12について説明する。特徴点検出部12は、対象特徴点として、エッジやエッジに基づく物体の輪郭やコーナーを検出する。コーナー検出には、Harrisの検出器や固有値による方法など既存の手法があり、それらのどれを用いてもよい。また、一般的に知られている他の特徴検出手法を用いてもよく、先に従来技術で挙げたSIFT特徴を用いることも可能である。図2(a)の画像の場合、エッジ検出を行うと図3の(A)のように物体(洋服)の輪郭が得られる。特徴点検出部12は、この輪郭上の点の座標または、座標と特徴量を入力画像とともに特徴点サンプリング部へ出力する。また、特徴点としてコーナー検出などを行い、その座標も合わせ出力するようにしてもよい。特徴点として情報の多い点を検出しておいたほうが、後段の類似度判定の精度が良くなることが期待できる。   Next, the feature point detection unit 12 shown in FIG. 1 will be described. The feature point detection unit 12 detects an edge or an outline or corner of an object based on the edge as the target feature point. For corner detection, there are existing methods such as a Harris detector and a method using eigenvalues, any of which may be used. Also, other generally known feature detection methods may be used, and the SIFT features mentioned above in the prior art can also be used. In the case of the image of FIG. 2A, when edge detection is performed, an outline of an object (clothes) is obtained as shown in FIG. The feature point detection unit 12 outputs the coordinates of the points on the contour or the coordinates and the feature amount to the feature point sampling unit together with the input image. Further, corner detection or the like may be performed as a feature point, and its coordinates may be output together. It can be expected that the accuracy of the subsequent similarity determination will be improved if a point with a lot of information is detected as a feature point.

次に、図1に示す特徴点サンプリング部13について説明する。特徴点サンプリング部13は、特徴点検出部12で得られた特徴点群に、順序性を持たせて、サンプリングを行う。図3(A)の例が入力された場合、例えば輪郭上の距離が等間隔に近くなるように図3(B)のようにサンプリングする。このとき、画像の左上から時計と逆回りに順序性を持たせるなど、予め順序性の持たせ方を決めておく。また、特徴点検出部12から、輪郭だけでなく、コーナーも出力された場合、これらもサンプリングして輪郭からサンプリングした特徴点と組み合わせて、それらの座標、または座標と特徴量を画像入力部11において入力された画像とともに特徴ベクトル生成部14へ出力する。このとき、特徴点として、より情報の多い点を優先することで、後段の類似度判定の精度が良くなることが期待できる。図3(B)の例の場合、輪郭上にサンプリングされた点が丸で示されている。   Next, the feature point sampling unit 13 shown in FIG. 1 will be described. The feature point sampling unit 13 samples the feature point group obtained by the feature point detection unit 12 with order. When the example of FIG. 3 (A) is input, for example, sampling is performed as shown in FIG. 3 (B) so that the distances on the contour are close to equal intervals. At this time, the ordering method is determined in advance, for example, by providing ordering in the counterclockwise direction from the upper left of the image. Further, when not only the contour but also the corner is output from the feature point detection unit 12, these are also sampled and combined with the feature points sampled from the contour, and the coordinates, or the coordinates and the feature amount are input to the image input unit 11 Are output to the feature vector generation unit 14 together with the image input at. At this time, priority can be given to the point with more information as a feature point, and it can be expected that accuracy of similarity determination in the subsequent stage is improved. In the case of the example in FIG. 3B, the sampled points are indicated by circles on the contour.

次に、図1に示す特徴ベクトル生成部14について説明する。特徴ベクトル生成部14は、特徴点サンプリング部13から出力されたサンプリングされ順序づけられた特徴点の情報を特徴ベクトル化する。特徴ベクトルの行成分は、特徴点サンプリング部13から出力された特徴量、あるいは、特徴ベクトル生成部14から出力された特徴点の座標と画像とから改めて検出を行った特徴量であり、n次元の特徴量であればn行となる。この特徴量としては、従来から用いられている様々な特徴量を組み合わせて用いることが可能で、従来手法との比較で前述したモーメント特徴を適用可能である。   Next, the feature vector generation unit 14 shown in FIG. 1 will be described. The feature vector generation unit 14 converts the sampled and ordered feature point information output from the feature point sampling unit 13 into a feature vector. The row component of the feature vector is a feature amount output from the feature point sampling unit 13 or a feature amount detected again from the feature point coordinates and image output from the feature vector generation unit 14, and is n-dimensional. If there is a feature amount, there are n rows. As this feature amount, various feature amounts conventionally used can be used in combination, and the moment feature described above in comparison with the conventional method can be applied.

また、特徴点について求めた位置情報において、特徴点のユークリッド空間における座標、または特徴点の極座標、または複素平面における座標、または特徴点間の位置ベクトルの差分情報、または入力した画像に含まれる物体の輪郭の接ベクトル、またはそれらの組み合わせを用いた特徴量などを用いてもよい。例えば、x,y座標のみを用いる場合、n=2である。座標値と、色(r,g,b)の成分を用いる場合、n=2+3=5である。特徴ベクトルの列成分は順序に従ってサンプリングされた点がm個あったとするとm列となる。出力の形式は、例えば図4に示すような数値が入ったテキストデータとなる。   Also, in the position information obtained for the feature points, the coordinates of the feature points in the Euclidean space, the polar coordinates of the feature points, the coordinates in the complex plane, the difference information of the position vectors between the feature points, or the objects included in the input image A feature amount using a tangent vector of the contours of the two or a combination thereof may be used. For example, if only x and y coordinates are used, n = 2. When using coordinate values and color (r, g, b) components, n = 2 + 3 = 5. The column components of the feature vector are m columns if there are m points sampled in order. The output format is, for example, text data containing numerical values as shown in FIG.

次に、図1に示す線形変換部15について説明する。Procrustes解析は時系列データに線形変換を施して比較する手法である。前述したように、時系列データを比較する手法には、HMMやDPマッチングなどがある。Procrustes解析はHMMのようにモデルを必要としない。DPマッチングのように時系列間の伸縮を考慮したマッチングに近いが、DPマッチングと違って、“どのような線形変換を行った結果、最もよくマッチさせることができるか”という線形変換の行列が出力される。そのため、画像中の特徴量に順序性をもたせてこれを時系列とみなしてマッチングを行うことで、マッチングの結果得られた線形変換の行列から、画像間の類似度だけでなく、一方の画像がどのように変形するともう一方の画像に対応するのか、その回転や移動やスケールや線形であらわされる変形を知ることができる。   Next, the linear conversion unit 15 shown in FIG. 1 will be described. Procrustes analysis is a method of comparing time series data by performing linear transformation. As described above, methods for comparing time series data include HMM and DP matching. Procrustes analysis does not require a model like HMM. Like DP matching, it is close to matching that takes into account the expansion and contraction between time series, but unlike DP matching, there is a matrix of linear transformations that says “What kind of linear transformation can be best matched as a result?” Is output. For this reason, by ordering the feature quantities in the image and considering this as a time series, matching is performed from the linear transformation matrix obtained as a result of the matching, not only the similarity between the images, but also one of the images. It is possible to know how the image is deformed and corresponds to the other image, its rotation, movement, scale and linear deformation.

今、類似度を算出したい2つの画像から、それぞれXとYという2つの特徴ベクトルが得られているとする。ただし、それぞれ要素の重心を中心とする移動を施して位置を正規化しておくものとする。

Figure 2013069149
Now, it is assumed that two feature vectors of X and Y are obtained from two images whose similarity is to be calculated. However, it is assumed that the position is normalized by performing movement around the center of gravity of each element.
Figure 2013069149

このとき、一方の特徴ベクトルに回転、スケール変換を施して、2つの特徴ベクトルが最も重なるようにした場合のProcrustes距離は

Figure 2013069149
によって求めることができる。 At this time, the Procruces distance when one feature vector is rotated and scaled so that the two feature vectors overlap most is
Figure 2013069149
Can be obtained.

以下、この距離の求め方について説明する。XとYの特徴ベクトル間の距離は

Figure 2013069149
となる。 Hereinafter, how to obtain this distance will be described. The distance between X and Y feature vectors is
Figure 2013069149
It becomes.

回転行列RによってYを回転させると

Figure 2013069149
となる。 When Y is rotated by the rotation matrix R
Figure 2013069149
It becomes.

これを最小にするRは、最後の項の最大化に置き換えて求められる。

Figure 2013069149
R that minimizes this is obtained by maximizing the last term.
Figure 2013069149

また、σでYをスケール変換したとき、Δ(X,σYR)を最小にするσは

Figure 2013069149
である。 Also, when Y is scaled by σ, σ that minimizes Δ 2 (X, σYR) is
Figure 2013069149
It is.

このようなR,σの場合に(3)式は(2)式のようになる。   In the case of such R and σ, the expression (3) becomes the expression (2).

また、特徴ベクトル生成部14と線形変換部15の処理において、特徴ベクトルを構成する座標の表現及び特徴ベクトル間の距離は、極座標表現または方向データ(角度データやチェーンコード)またはそれらの複素表現を用いてもよい。Procrustes解析については、文献「Procrustes解析とベクトル相関を併用するオンライン文字認識法、菊池美帆、田貝和俊、高野哲平、金子博、画像電子学会誌 Vol.36,No.5,2007.」に記載されている。   In the processing of the feature vector generation unit 14 and the linear conversion unit 15, the coordinate expression constituting the feature vector and the distance between the feature vectors are expressed by polar coordinate expression, direction data (angle data and chain code), or complex expression thereof. It may be used. The Procrustes analysis is described in the document "Online character recognition method using Procrustes analysis and vector correlation, Miho Kikuchi, Kazutoshi Tagai, Teppei Takano, Hiroshi Kaneko, Journal of the Institute of Image Electronics Engineers of Japan, Vol. 36, No. 5, 2007." ing.

次に、図1に示す類似度判定部16について説明する。類似度判定部16は、線形変換部15から出力される線形変換後の値と、予め決められた式に基づいてそれ以外の特徴量との統合を行って類似度を算出し、これを出力する。   Next, the similarity determination unit 16 shown in FIG. 1 will be described. The similarity determination unit 16 calculates the similarity by integrating the value after linear conversion output from the linear conversion unit 15 and other feature amounts based on a predetermined formula, and outputs this To do.

図5は、Procrustes距離のパラメータを変えた2パターンによる類似度をx,yの2軸とする平面において、商品画像の類似度を可視化した結果である。本発明の有効性を示すため、モーメント特徴のパラメータを変えた2パターンによる類似度を2軸として同じ平面にマッピングした結果を示している。なお、距離尺度が異なるので、2つの手法において、平面上での絶対的な距離を比べることは意味をなさない。しかし、順序関係として、モーメント特徴では直観的に類似するとおもわれる商品の平面上の位置が混在しているのに対し、本発明では直観的に類似すると思われる形状が順番に並ぶ。   FIG. 5 is a result of visualizing the similarity of product images on a plane having two similarities of x and y as the similarity between two patterns with different parameters of the Procrutes distance. In order to show the effectiveness of the present invention, the result of mapping on the same plane using two similarities with two patterns with different moment feature parameters as two axes is shown. Since the distance scales are different, it does not make sense to compare absolute distances on a plane in the two methods. However, as the order relation, positions on the plane of products that are considered to be intuitively similar in the moment feature are mixed, but in the present invention, shapes that are considered to be intuitively similar are arranged in order.

このように、特徴点サンプリング部13において、画像に含まれる特徴点群を適切に系列化することで線形変換部15における線形変換を適用可能にしたため、これによって特徴点群間の対応づけ並びに画像間にそのような対応を施す線形変換行列を一括して求めるような画像の類似度判定を行うことが可能になる。   As described above, the feature point sampling unit 13 can apply the linear transformation in the linear transformation unit 15 by appropriately grouping the feature point groups included in the image. It is possible to determine the similarity of images so as to collectively obtain a linear transformation matrix that performs such correspondence in between.

以上説明したように、2つの画像間の類似度を求める際に、画像に回転と拡大・縮小があることを想定し、2つの画像のそれぞれから特徴ベクトル(2次元の行列)を求め、この特徴ベクトルに回転とスケール変換を施して最も類似する変換(回転とスケール)を求めて、最も類似する変換による特徴ベクトル同士の類似が2つの画像間の類似度となるようにした。これにより、画像の類似度を判定する際に、画像中の物体に回転や移動や変形やそれらの組み合わせがある場合にも、物体の形状に基づいて、物体の類似度を判定することによって、同一物体または類似物体を含む画像を検索したり、多数の商品画像を類似した順番に並べたり、画像に含まれる物体を手掛かりとして同一のシーンを別の方向から撮影した画像を特定したりできるようになる。   As described above, when obtaining the similarity between two images, assuming that the image has rotation and enlargement / reduction, a feature vector (two-dimensional matrix) is obtained from each of the two images. The feature vector is rotated and scaled to obtain the most similar transformation (rotation and scale), and the similarity between feature vectors based on the most similar transformation is the similarity between the two images. Thereby, when determining the similarity of the image, even if the object in the image has rotation, movement, deformation, or a combination thereof, by determining the similarity of the object based on the shape of the object, Search for images that contain the same or similar objects, arrange many product images in a similar order, and identify images taken from the same scene from different directions using the objects in the images as clues become.

なお、図1における処理部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより画像類似度判定処理を行ってもよい。なお、ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、ホームページ提供環境(あるいは表示環境)を備えたWWWシステムも含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。   The program for realizing the function of the processing unit in FIG. 1 is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read into the computer system and executed to determine the image similarity. Processing may be performed. Here, the “computer system” includes an OS and hardware such as peripheral devices. The “computer system” includes a WWW system having a homepage providing environment (or display environment). The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. Further, the “computer-readable recording medium” refers to a volatile memory (RAM) in a computer system that becomes a server or a client when a program is transmitted via a network such as the Internet or a communication line such as a telephone line. In addition, those holding programs for a certain period of time are also included.

また、上記プログラムは、このプログラムを記憶装置等に格納したコンピュータシステムから、伝送媒体を介して、あるいは、伝送媒体中の伝送波により他のコンピュータシステムに伝送されてもよい。ここで、プログラムを伝送する「伝送媒体」は、インターネット等のネットワーク(通信網)や電話回線等の通信回線(通信線)のように情報を伝送する機能を有する媒体のことをいう。また、上記プログラムは、前述した機能の一部を実現するためのものであってもよい。さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   The program may be transmitted from a computer system storing the program in a storage device or the like to another computer system via a transmission medium or by a transmission wave in the transmission medium. Here, the “transmission medium” for transmitting the program refers to a medium having a function of transmitting information, such as a network (communication network) such as the Internet or a communication line (communication line) such as a telephone line. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, what is called a difference file (difference program) may be sufficient.

局所的な特徴量を算出した複数の特徴点群の系列を用いて一括して画像間の幾何的な対応を求めて、より計算効率が良く、また、より精度良く画像同士を対応づけして類似度判定を行うことが不可欠な用途に適用できる。   By using a series of multiple feature point groups for which local feature quantities have been calculated, geometrical correspondence between images is obtained in a lump, and images are associated with each other more efficiently and more accurately. It can be applied to applications where it is indispensable to perform similarity determination.

1・・・画像類似度判定装置、11・・・画像入力部、12・・・特徴点検出部、13・・・特徴点サンプリング部、14・・・特徴ベクトル生成部、15・・・線形変換部、16・・・類似度判定部   DESCRIPTION OF SYMBOLS 1 ... Image similarity determination apparatus, 11 ... Image input part, 12 ... Feature point detection part, 13 ... Feature point sampling part, 14 ... Feature vector generation part, 15 ... Linear Conversion unit, 16 ... similarity determination unit

Claims (8)

複数の画像の類似度を判定する画像類似度判定装置であって、
複数の画像それぞれから特徴点群を検出する特徴点検出手段と、
前記複数の画像のそれぞれから検出した特徴点群から、所定のサンプリングを行って、順序関係を持たせた特徴点の系列情報を前記複数の画像それぞれについて作成して出力する特徴点サンプリング手段と、
前記複数の画像それぞれについて、前記順序関係を持たせた特徴点の系列情報を特徴ベクトル化して出力する特徴ベクトル生成手段と、
前記複数の画像の前記特徴ベクトルそれぞれについて線形変換を施して出力する線形変換手段と、
前記線形変換の結果を用いて前記複数の画像の類似度を判定する類似度判定手段と
を備えることを特徴とする画像類似度判定装置。
An image similarity determination device for determining the similarity of a plurality of images,
Feature point detecting means for detecting a feature point group from each of a plurality of images;
Feature point sampling means for performing predetermined sampling from the feature point groups detected from each of the plurality of images and generating and outputting series information of the feature points having an order relationship for each of the plurality of images;
For each of the plurality of images, feature vector generation means for converting the sequence information of the feature points having the order relation into a feature vector and outputting the feature vector;
Linear conversion means for performing linear conversion on each of the feature vectors of the plurality of images and outputting;
An image similarity determination device comprising: similarity determination means for determining the similarity of the plurality of images using a result of the linear transformation.
前記特徴点の系列情報は、前記画像に含まれる物体の輪郭上の特徴点、または物体内部の特徴点、またはそれらの組み合わせに対して順序関係を持たせた情報であることを特徴とする請求項1に記載の画像類似度判定装置。   The feature point series information is information having an order relationship with respect to a feature point on an outline of an object included in the image, a feature point inside the object, or a combination thereof. Item 2. The image similarity determination device according to Item 1. 前記特徴ベクトル生成手段は、前記サンプリングした特徴点について求めた位置情報、または前記画像に含まれる物体の色情報、またはそれらの組み合わせを特徴ベクトルとすることを特徴とする請求項1に記載の画像類似度判定装置。   The image according to claim 1, wherein the feature vector generation unit uses the position information obtained for the sampled feature points, the color information of an object included in the image, or a combination thereof as a feature vector. Similarity determination device. 前記位置情報は、特徴点のユークリッド空間における座標、または特徴点の極座標、または複素平面における座標、または特徴点間の位置ベクトルの差分情報、または前記画像に含まれる物体の輪郭の接ベクトル、またはそれらの組み合わせを用いることを特徴とする請求項3に記載の画像類似度判定装置。   The position information includes coordinates of feature points in Euclidean space, polar coordinates of feature points, coordinates in a complex plane, difference information of position vectors between feature points, or contact vectors of contours of objects included in the image, or The image similarity determination apparatus according to claim 3, wherein a combination thereof is used. 前記線形変換手段は、Procrustes解析を用いて線形変換を行うことを特徴とする請求項1に記載の画像類似度判定装置。   The image similarity determination apparatus according to claim 1, wherein the linear conversion unit performs linear conversion by using Procruses analysis. 前記類似度判定手段は、Procrustes距離、またはProcrustes距離と、それ以外の特徴量との組み合わせを用いて類似度を判定することを特徴とする請求項1に記載の画像類似度判定装置。   The image similarity determination apparatus according to claim 1, wherein the similarity determination unit determines the similarity using a Procrutests distance, or a combination of the Procruces distance and other feature quantities. 複数の画像の類似度を判定する画像類似度判定方法であって、
複数の画像それぞれから特徴点群を検出する特徴点検出ステップと、
前記複数の画像のそれぞれから検出した特徴点群から、所定のサンプリングを行って、順序関係を持たせた特徴点の系列情報を前記複数の画像それぞれについて作成して出力する特徴点サンプリングステップと、
前記複数の画像それぞれについて、前記順序関係を持たせた特徴点の系列情報を特徴ベクトル化して出力する特徴ベクトル生成ステップと、
前記複数の画像の前記特徴ベクトルそれぞれについて線形変換を施して出力する線形変換ステップと、
前記線形変換の結果を用いて前記複数の画像の類似度を判定する類似度判定ステップと
を有することを特徴とする画像類似度判定方法。
An image similarity determination method for determining the similarity of a plurality of images,
A feature point detection step of detecting a feature point group from each of a plurality of images;
A feature point sampling step of performing a predetermined sampling from the feature point group detected from each of the plurality of images and generating and outputting series information of the feature points having an order relationship for each of the plurality of images;
For each of the plurality of images, a feature vector generation step for outputting the sequence information of the feature points having the order relation as a feature vector; and
A linear transformation step of performing a linear transformation on each of the feature vectors of the plurality of images and outputting;
A similarity determination step of determining a similarity of the plurality of images using a result of the linear transformation.
コンピュータを請求項1〜6のいずれかに記載の画像類似度判定装置として機能させることを特徴とする画像類似度判定プログラム。   An image similarity determination program for causing a computer to function as the image similarity determination apparatus according to claim 1.
JP2011207731A 2011-09-22 2011-09-22 Image similarity determination device, image similarity determination method, and image similarity determination program Expired - Fee Related JP5814714B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011207731A JP5814714B2 (en) 2011-09-22 2011-09-22 Image similarity determination device, image similarity determination method, and image similarity determination program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011207731A JP5814714B2 (en) 2011-09-22 2011-09-22 Image similarity determination device, image similarity determination method, and image similarity determination program

Publications (2)

Publication Number Publication Date
JP2013069149A true JP2013069149A (en) 2013-04-18
JP5814714B2 JP5814714B2 (en) 2015-11-17

Family

ID=48474783

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011207731A Expired - Fee Related JP5814714B2 (en) 2011-09-22 2011-09-22 Image similarity determination device, image similarity determination method, and image similarity determination program

Country Status (1)

Country Link
JP (1) JP5814714B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666969A (en) * 2020-04-22 2020-09-15 北京百度网讯科技有限公司 Method and device for calculating image-text similarity, electronic equipment and readable storage medium
WO2024079864A1 (en) * 2022-10-14 2024-04-18 Mitsubishi Electric Corporation Image retrieval apparatus

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6219989A (en) * 1985-07-18 1987-01-28 Fuji Electric Co Ltd Discrimination method for superposed pattern
JPH0658737A (en) * 1992-08-10 1994-03-04 Nippon Telegr & Teleph Corp <Ntt> Three dimensional body discrimination device
JP2002230548A (en) * 2001-01-30 2002-08-16 Namco Ltd Pattern recognition processing device and method and pattern recognition program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6219989A (en) * 1985-07-18 1987-01-28 Fuji Electric Co Ltd Discrimination method for superposed pattern
JPH0658737A (en) * 1992-08-10 1994-03-04 Nippon Telegr & Teleph Corp <Ntt> Three dimensional body discrimination device
JP2002230548A (en) * 2001-01-30 2002-08-16 Namco Ltd Pattern recognition processing device and method and pattern recognition program

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
CSNG201100696005; 田邉翼 外4名: 'Procrustes距離を用いた3次元軌道の識別' 映像情報メディア学会技術報告 映像表現&コンピュータグラフィックス 第35巻 第32号, 20110726, 第17〜20頁, 社団法人映像情報メディア学会 *
JPN6014007679; 田邉翼 外4名: 'Procrustes距離を用いた3次元軌道の識別' 映像情報メディア学会技術報告 映像表現&コンピュータグラフィックス 第35巻 第32号, 20110726, 第17〜20頁, 社団法人映像情報メディア学会 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111666969A (en) * 2020-04-22 2020-09-15 北京百度网讯科技有限公司 Method and device for calculating image-text similarity, electronic equipment and readable storage medium
CN111666969B (en) * 2020-04-22 2021-11-23 北京百度网讯科技有限公司 Method and device for calculating image-text similarity, electronic equipment and readable storage medium
WO2024079864A1 (en) * 2022-10-14 2024-04-18 Mitsubishi Electric Corporation Image retrieval apparatus

Also Published As

Publication number Publication date
JP5814714B2 (en) 2015-11-17

Similar Documents

Publication Publication Date Title
US10776936B2 (en) Point cloud matching method
Chekhlov et al. Real-time and robust monocular SLAM using predictive multi-resolution descriptors
US9280827B2 (en) Method for determining object poses using weighted features
EP3373197A1 (en) Image processing apparatus, image processing method, template generation apparatus, object recognition processor, and object recognition processing program
Vemulapalli et al. R3DG features: Relative 3D geometry-based skeletal representations for human action recognition
US9607244B2 (en) Image processing device, system, image processing method, and image processing program
KR102388230B1 (en) Service providing system and method for recognizing object, apparatus and computer readable medium having computer program recorded therefor
EP3376433B1 (en) Image processing apparatus, image processing method, and image processing program
JP4709668B2 (en) 3D object recognition system
JP6880618B2 (en) Image processing program, image processing device, and image processing method
Lee et al. Improved feature map merging using virtual supporting lines for multi-robot systems
EP3404583A1 (en) System and method for model adaptation
JP2017182785A (en) System and method for efficiently scoring probes in image with vision system
CN111582186A (en) Object edge identification method, device, system and medium based on vision and touch
JP2014102746A (en) Subject recognition device and subject recognition program
JP5814714B2 (en) Image similarity determination device, image similarity determination method, and image similarity determination program
US10755439B2 (en) Estimation device, estimation method and storage medium
JP2015184743A (en) Image processor and object recognition method
JP6544482B2 (en) Object recognition apparatus, object recognition method and storage medium
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
CN108121994B (en) Method and device for extracting features in detection of target shape
JP6616729B2 (en) Arithmetic apparatus, arithmetic method, and program
JP6586852B2 (en) Image processing device
JP2018088209A (en) Image processing device, image processing program, and image processing method
Augustauskas et al. Implementation of artificial intelligence methods for virtual reality solutions: a review of the literature

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20130606

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130731

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20130801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20140214

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20140225

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140410

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20141106

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20141118

A912 Re-examination (zenchi) completed and case transferred to appeal board

Free format text: JAPANESE INTERMEDIATE CODE: A912

Effective date: 20141212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20150918

R150 Certificate of patent or registration of utility model

Ref document number: 5814714

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees