JP2013037539A - Image feature amount extraction device and program thereof - Google Patents
Image feature amount extraction device and program thereof Download PDFInfo
- Publication number
- JP2013037539A JP2013037539A JP2011173193A JP2011173193A JP2013037539A JP 2013037539 A JP2013037539 A JP 2013037539A JP 2011173193 A JP2011173193 A JP 2011173193A JP 2011173193 A JP2011173193 A JP 2011173193A JP 2013037539 A JP2013037539 A JP 2013037539A
- Authority
- JP
- Japan
- Prior art keywords
- feature
- occurrence
- local
- feature point
- feature amount
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000605 extraction Methods 0.000 title claims abstract description 23
- 238000001514 detection method Methods 0.000 claims abstract description 29
- 238000003708 edge detection Methods 0.000 claims abstract description 24
- 230000002093 peripheral effect Effects 0.000 claims abstract description 15
- 230000006870 function Effects 0.000 claims description 11
- 239000013598 vector Substances 0.000 abstract description 116
- 238000000034 method Methods 0.000 description 30
- 238000010586 diagram Methods 0.000 description 11
- 238000004364 calculation method Methods 0.000 description 8
- 238000005070 sampling Methods 0.000 description 6
- 230000000007 visual effect Effects 0.000 description 6
- 230000010365 information processing Effects 0.000 description 4
- 238000005516 engineering process Methods 0.000 description 3
- 238000007621 cluster analysis Methods 0.000 description 2
- 239000006185 dispersion Substances 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 1
- 238000004891 communication Methods 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 239000007787 solid Substances 0.000 description 1
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像特徴量抽出装置およびそのプログラムに関する。 The present invention relates to an image feature amount extraction apparatus and a program thereof.
画像から「自動車」や「花」といった一般的なオブジェクトを検出する一般物体認識技術が知られている(例えば、非特許文献1参照)。この一般物体認識技術は、情報処理装置が、一般名称により表現される物体を画像から認識する技術である。この一般物体認識技術は、視覚語(Visual Words)のクラスタである語彙を生成するための学習手続と、生成された語彙に基づいて特徴ベクトルを算出する算出手続とによって実現される。学習手続では、情報処理装置は、学習用の画像データから局所特徴量を算出し、局所特徴量のクラスタ分析処理を実行し、各クラスタの重心ベクトルを視覚語として選択する。また、算出手続では、情報処理装置は、画像認識の対象である画像データから局所特徴量を算出し、距離が最も近い視覚語に各局所特徴量を割り当てる。次に、情報処理装置は、視覚語の出現頻度ヒストグラムを算出し、この出現頻度ヒストグラムを画像の特徴ベクトルとする。 A general object recognition technique for detecting a general object such as “car” or “flower” from an image is known (see, for example, Non-Patent Document 1). This general object recognition technology is a technology in which an information processing apparatus recognizes an object represented by a general name from an image. This general object recognition technique is realized by a learning procedure for generating a vocabulary that is a cluster of visual words (Visual Words) and a calculation procedure for calculating a feature vector based on the generated vocabulary. In the learning procedure, the information processing apparatus calculates a local feature amount from learning image data, executes a cluster analysis process of the local feature amount, and selects a centroid vector of each cluster as a visual word. In the calculation procedure, the information processing apparatus calculates a local feature amount from image data that is a target of image recognition, and assigns each local feature amount to a visual word having the shortest distance. Next, the information processing apparatus calculates an appearance frequency histogram of visual words, and uses the appearance frequency histogram as a feature vector of the image.
上記の一般物体認識技術は、特徴点間の関係性を一切考慮せず独立に扱うものである。また、この一般物体認識技術では、学習用の画像データから抽出された局所特徴量がクラスタ分析によって量子化されるため、情報の一部分が欠落する。
よって、従来の一般物体認識技術では、局所特徴量間の適合性を考慮していないことにより、一般名称により表現される物体、すなわち、一般的なオブジェクトの概略の特徴を捉えることが困難であった。
本発明は、上記の問題点に鑑みてなされたものであり、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる、画像特徴量抽出装置およびそのプログラムを提供することを目的とする。
The general object recognition technique described above is handled independently without considering any relationship between feature points. In this general object recognition technique, a local feature amount extracted from image data for learning is quantized by cluster analysis, so that a part of information is lost.
Therefore, in the conventional general object recognition technology, it is difficult to capture the general feature of the object represented by the general name, that is, the general object, because the compatibility between the local feature quantities is not considered. It was.
The present invention has been made in view of the above-described problems, and considers the compatibility between local feature amounts, and can capture general features to improve the accuracy of general object recognition. An object is to provide an apparatus and a program thereof.
[1]上記の課題を解決するため、本発明の一態様である画像特徴量抽出装置は、フレーム画像データからエッジ成分を検出するエッジ検出部と、前記フレーム画像データから特徴点を検出する特徴点検出部と、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、を備えることを特徴とする。
ここで、エッジ成分は、フレーム画像データにおける画素ごとの、エッジの強度を示すエッジ強度と、エッジの方向を示すエッジ方向とを含むデータである。また、特徴点検出部は、例えば、グリッドサンプリング処理によってフレーム画像上の特徴点の位置を求める。特徴点に対する周辺領域は、例えば、特徴点を中心とした当該特徴点の局所領域である。
このように構成したことにより、本発明の一態様である画像特徴量抽出装置は、フレーム画像データから検出した特徴点の周辺領域、つまり局所領域における局所特徴量の共起に基づいて、画像の内容を特徴付ける特徴量を生成して得ることができる。
したがって、本発明の一態様によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。
[1] In order to solve the above-described problem, an image feature amount extraction device according to an aspect of the present invention includes an edge detection unit that detects an edge component from frame image data, and a feature that detects a feature point from the frame image data. Based on the edge component detected by the point detection unit and the edge detection unit, a local feature is obtained by connecting a plurality of feature amounts generated by changing the area of the surrounding area with respect to the feature point detected by the feature point detection unit A local feature generating unit that generates a quantity, and a co-occurrence feature that generates a co-occurrence feature based on a spatial co-occurrence of the local feature generated by the local feature generating unit with respect to the feature point And a generating unit.
Here, the edge component is data including edge strength indicating edge strength and edge direction indicating edge direction for each pixel in the frame image data. The feature point detection unit obtains the position of the feature point on the frame image by, for example, grid sampling processing. The peripheral region with respect to the feature point is, for example, a local region of the feature point with the feature point as the center.
With this configuration, the image feature amount extraction device according to one aspect of the present invention is based on the co-occurrence of local feature amounts in a peripheral region of feature points detected from frame image data, that is, a local region. It can be obtained by generating a feature amount that characterizes the content.
Therefore, according to an aspect of the present invention, it is possible to improve the accuracy of general object recognition by capturing approximate features in consideration of compatibility between local feature amounts.
[2]上記[1]記載の画像特徴量抽出装置において、前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部をさらに備えたことを特徴とする。
[3]上記[1]または[2]記載の画像特徴量抽出装置において、前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のエッジ方向ヒストグラムを連結して局所特徴量を生成することを特徴とする。
[4]上記[1]または[2]記載の画像特徴量抽出装置において、前記局所特徴量生成部は、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に基づく前記所定の周辺領域の面積を変化させて生成した複数のローカルバイナリパターンの頻度ヒストグラムを連結して局所特徴量を生成することを特徴とする。
[2] The feature point included in the block generated by the co-occurrence feature amount generation unit for each of a plurality of blocks obtained by dividing the frame image data in the image feature amount extraction device according to [1] above Calculating an average co-occurrence feature amount that is an average value of the co-occurrence feature amounts of the plurality of blocks, and connecting the average co-occurrence feature amounts for all the plurality of blocks to generate a feature amount of the entire frame image data A quantity generation unit is further provided.
[3] In the image feature amount extraction apparatus according to [1] or [2], the local feature amount generation unit is configured to detect the feature point detection unit based on the edge component detected by the edge detection unit. A local feature amount is generated by connecting a plurality of edge direction histograms generated by changing an area of the predetermined peripheral region based on a feature point.
[4] In the image feature amount extraction apparatus according to [1] or [2], the local feature amount generation unit is configured to detect the feature point detection unit based on the edge component detected by the edge detection unit. A local feature amount is generated by concatenating frequency histograms of a plurality of local binary patterns generated by changing the area of the predetermined peripheral region based on a feature point.
[5]上記の課題を解決するため、本発明の一態様であるプログラムは、コンピュータを、フレーム画像データからエッジ成分を検出するエッジ検出部と、前記フレーム画像データから特徴点を検出する特徴点検出部と、前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、として機能させる。
[6]上記[5]記載のプログラムにおいて、前記コンピュータを、前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部としてさらに機能させる。
[5] In order to solve the above-described problem, a program according to one aspect of the present invention includes a computer, an edge detection unit that detects an edge component from frame image data, and a feature inspection that detects a feature point from the frame image data. Based on the edge component detected by the output unit and the edge detection unit, a local feature amount is obtained by connecting a plurality of feature amounts generated by changing the area of the surrounding area with respect to the feature point detected by the feature point detection unit. And a co-occurrence feature generation unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit for the feature point Function as part.
[6] In the program according to [5], the computer includes the feature points included in the blocks generated by the co-occurrence feature amount generation unit for each of a plurality of blocks obtained by dividing the frame image data. Calculating an average co-occurrence feature amount that is an average value of the co-occurrence feature amounts of the plurality of blocks, and connecting the average co-occurrence feature amounts for all the plurality of blocks to generate a feature amount of the entire frame image data It further functions as a quantity generator.
本発明によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。 According to the present invention, it is possible to improve the accuracy of general object recognition by capturing general features in consideration of compatibility between local feature amounts.
以下、本発明を実施するための形態について、図面を参照して詳細に説明する。
[1 構成]
図1は、本発明の一実施形態である画像特徴量抽出装置の機能構成を示すブロック図である。同図が示すように、画像特徴量抽出装置1は、画像データ取得部10と、エッジ検出部20と、特徴点検出部30と、局所特徴ベクトル生成部(局所特徴量生成部)40と、共起特徴ベクトル生成部(共起特徴量生成部)50と、特徴ベクトル生成部(特徴量生成部)60とを備える。
Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.
[1 Configuration]
FIG. 1 is a block diagram showing a functional configuration of an image feature quantity extraction apparatus according to an embodiment of the present invention. As shown in the figure, the image feature quantity extraction device 1 includes an image
画像データ取得部10は、図示しない外部装置から供給される画像データを取り込む。画像データは、静止画像データまたは動画像データである。画像データが静止画像データである場合、画像データ取得部10は、取り込んだ画像データをフレーム画像データとしてエッジ検出部20に供給する。また、画像データが動画像データである場合、画像データ取得部10は、取り込んだ動画像データからキーフレームを検出し、このキーフレームのデータをフレーム画像データとして、順次またはあらかじめ決定された所定フレーム数おきにエッジ検出部20に供給する。
外部装置は、例えば、撮影装置や記録装置である。
The image
The external device is, for example, a photographing device or a recording device.
エッジ検出部20は、画像データ取得部10から供給されるフレーム画像データを取り込み、このフレーム画像データからエッジ成分を検出し、このエッジ成分を特徴点検出部30に供給する。エッジ成分は、画素ごとの、エッジの強度を示すエッジ強度と、エッジの方向を示すエッジ方向とを含むデータである。エッジ検出部20によるエッジの検出処理については後述する。
The
特徴点検出部30は、フレーム画像から画像の特徴点を検出する。具体的には、例えば、特徴点検出部30は、エッジ検出部20から供給されるエッジ成分を取り込み、グリッドサンプリング処理によってフレーム画像上の特徴点の位置を求め、各画素のエッジ成分と各特徴点の位置を示す特徴点位置情報とを局所特徴ベクトル生成部40に供給する。特徴点位置情報は、例えば、各特徴点に対応する画素の座標値である。グリッドサンプリング処理は、フレーム画像に対応させた所定の格子(グリッド)の各格子点に対応する画素を特徴点として検出する処理である。特徴点検出部30による特徴点の検出処理については後述する。
The feature
なお、特徴点検出部30は、グリッドサンプリング処理以外にも、例えばSIFT(Scale−Invariant Feature Transform)処理を実行することによって特徴点を検出してもよい。
Note that the feature
局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込む。局所特徴ベクトル生成部40は、エッジ成分に基づいて、特徴点ごとの局所特徴ベクトル(局所特徴量)を生成し、これら局所特徴ベクトルを共起特徴ベクトル生成部50に供給する。局所特徴ベクトルは、特徴点に対する周辺領域、具体的には、特徴点を中心とした当該特徴点の局所領域の面積を変化させて生成した複数のエッジ方向ヒストグラムを連結して得られる特徴ベクトルである。特徴点の局所領域は、特徴点を含みその周辺の領域である。エッジ方向ヒストグラムは、横軸に階級ごとのエッジ方向、縦軸に度数をとって、エッジ方向の度数分布を表すものである。局所特徴ベクトル生成部40による局所特徴ベクトルの生成処理については後述する。
The local feature
共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込む。共起特徴ベクトル生成部50は、特徴点ごとに、当該特徴点に対する局所特徴ベクトルの空間的な共起に基づく共起特徴ベクトル(共起特徴量)を生成し、この共起特徴ベクトルを特徴ベクトル生成部60に供給する。共起特徴ベクトル生成部50による共起特徴ベクトルの生成処理については後述する。
The co-occurrence feature
特徴ベクトル生成部60は、共起特徴ベクトル生成部50から供給される共起特徴ベクトルを取り込む。特徴ベクトル生成部60は、フレーム画像を分割して得られる複数のブロックそれぞれについて、当該ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトル(平均共起特徴量)を計算する。特徴ベクトル生成部60は、上記の複数のブロックすべてについての平均共起特徴ベクトルを連結し、フレーム画像全体の特徴ベクトル(特徴量)として出力する。特徴ベクトル生成部60による特徴ベクトルの生成処理については後述する。
The feature
[2 処理]
[2−1.エッジの検出処理]
エッジ検出部20は、画像データ取得部10から供給されるフレーム画像データを取り込むと、例えば、ソーベルフィルタ(Sobel Filter)を適用し、下記の(1)式により、フレーム画像データにおける各画素のエッジ成分を計算する。ただし、同式において、フレーム画像データに対応する座標系は、例えば、フレーム画像の左上端の画素の位置を原点とし、水平方向をx軸、垂直方向をy軸とした直交座標系である(以下同様)。また、m(x,y)は注目画素(x,y)におけるエッジ強度、θ(x,y)は注目画素(x,y)におけるエッジ方向を表す。また、Δxは輝度勾配のx軸方向成分、Δyは輝度勾配のy軸方向成分である。
[2 processing]
[2-1. Edge detection process]
When the
なお、エッジ検出部20には、ソーベルフィルタ以外にも、例えば、プレウィットフィルタ(Prewitt Filter)、ラプラシアンフィルタ(Laplacian Filter)等を適用してもよい。
In addition to the Sobel filter, for example, a Prewitt filter, a Laplacian filter, or the like may be applied to the
[2−2.特徴点の検出処理]
図2は、特徴点検出部30が実行するグリッドサンプリング処理において適用される格子を、フレーム画像に対応させて模式的に表した図である。同図において、Pは、フレーム画像2に対応させた格子のうちの一格子点である。格子点それぞれに対応する画素が特徴点である。なお、同図においては、図を見易くするために、各格子点を丸印で表している。また、格子点間距離(グリッドサイズ)として、x軸方向の格子点間距離をGxとし、y軸方向の格子点間距離をGyとする。GxとGyとは、略同一(同一を含む)の値である。
[2-2. Feature point detection process]
FIG. 2 is a diagram schematically showing a grid applied in the grid sampling process executed by the feature
特徴点検出部30は、エッジ検出部20から供給される各画素のエッジ成分を取り込むと、同図に示すように、フレーム画像2に対応させた格子の各格子点に対応する画素の位置を特徴点の位置として検出する。
同図のように、一定の画素間隔で特徴点を得ることにより、特徴点検出部30は、画像の特性によらず一定数の特徴点を得ることができる。
When the feature
As shown in the figure, by obtaining feature points at constant pixel intervals, the feature
[2−3.局所特徴ベクトルの生成処理]
局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込むと、エッジ成分に基づいて、特徴点ごとに、当該特徴点に対する局所領域からエッジ方向ヒストグラムを生成する。
具体的には、例えば、局所特徴ベクトル生成部40は、特徴点ごとに、分散σのガウス窓を用いた空間的重み付けを適用してエッジ方向ヒストグラムを計算する。エッジ方向θ(x,y)をn方向に量子化する場合、ガウス窓の分散σに対するエッジ方向ヒストグラムhσは、下記の式(2)として表される。
ただし、G(u,v,σ)は、座標(x+u,y+v)におけるエッジ強度m(x+u,y+v)に対する重み係数である。G(u,v,σ)は、座標(x+u,y+v)が座標(x,y)から離れるほど小さな重み係数となるガウス窓である。また、δi(θ(x,y))は、量子化されたθ(x,y)がi番目のビンに属する場合には“1”、それ以外の場合には“0(ゼロ)”とする関数である。
[2-3. Local feature vector generation process]
When the local feature
Specifically, for example, the local feature
Here, G (u, v, σ) is a weighting factor for the edge strength m (x + u, y + v) at the coordinates (x + u, y + v). G (u, v, σ) is a Gaussian window having a smaller weight coefficient as the coordinate (x + u, y + v) is further away from the coordinate (x, y). Δ i (θ (x, y)) is “1” when the quantized θ (x, y) belongs to the i-th bin, and “0 (zero)” otherwise. Is a function.
図3は、特徴点に対する局所領域に基づき求めたエッジ方向ヒストグラムを模式的に示す図である。同図における上側の図は、一特徴点におけるエッジ方向θ(x,y)をn方向(n=8)に量子化する場合の、分散σのガウス窓を表している。また、同図における下側の図は、局所特徴ベクトル生成部40が、上記分散σのガウス窓を用いた空間的重み付けを適用して計算したエッジ方向ヒストグラムを表している。このエッジ方向ヒストグラムは、横軸にビン数を8とした階級ごとのエッジ方向θ、縦軸に度数をとって、エッジ方向θの度数分布を表している。
FIG. 3 is a diagram schematically illustrating an edge direction histogram obtained based on a local region with respect to a feature point. The upper diagram in the figure represents a Gaussian window of variance σ when the edge direction θ (x, y) at one feature point is quantized in the n direction (n = 8). In addition, the lower diagram in the figure shows an edge direction histogram calculated by the local feature
次に、局所特徴ベクトル生成部40は、下記の式(3)に表すように、それぞれ値が異なる複数の分散σiごとに、エッジ方向ヒストグラムhσiを計算し、これら複数のエッジ方向ヒストグラムhσiを連結することにより、特徴点(x,y)に対する局所特徴ベクトルgx,yを取得する。同式において、σ0はガウス窓の分散の初期値、sは分散σiを変化させる割合である。
Next, the local feature
図4は、値が異なる3つの分散σそれぞれに対応する3つのエッジ方向ヒストグラムを連結した場合の局所特徴ベクトルを、模式的に示す図である。同図における上側の図は、一特徴点に対する、分散σ1,σ2,σ3(σ1<σ2<σ3)のガウス窓を表している。また、同図における下側の図は、局所特徴ベクトル生成部40が、分散σ1に対するエッジ方向ヒストグラムhσ1と、分散σ2に対するエッジ方向ヒストグラムhσ2と、分散σ3に対するエッジ方向ヒストグラムhσ3とを連結し、局所特徴ベクトルgx,yとしている。
FIG. 4 is a diagram schematically showing local feature vectors when three edge direction histograms corresponding to three variances σ having different values are connected. The upper diagram in the figure represents a Gaussian window with variances σ 1 , σ 2 , and σ 3 (σ 1 <σ 2 <σ 3 ) for one feature point. Further, the lower diagram in the figure, the local feature
[2−4.共起特徴ベクトルの生成処理]
共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込むと、特徴点ごとに、当該特徴点に対する局所特徴ベクトルgx,yの空間的な共起に基づいて共起特徴ベクトルを計算する。特徴点(x,y)と特徴点(x+u,y+v)との共起特徴量Uを下記の式(4)として表す。
[2-4. Co-occurrence feature vector generation process]
When the co-occurrence feature
共起特徴ベクトル生成部50による式(4)の計算によって求められるUx,y,u,vは、行数および列数がgx,yの次元数に等しい正方行列となるが、共起特徴ベクトル生成部50は、この正方行列を一次元ベクトルの形式U’に変換して計算に適用する。
U x, y, u, v obtained by the calculation of equation (4) by the co-occurrence feature
図5は、一の特徴点とその周辺に存在する他の特徴点との共起関係を説明するための図である。同図は、座標値が(x,y)である特徴点Aと、この特徴点Aとの共起特徴量を求めるべき他の特徴点(18個の特徴点)との位置関係を示している。同図は、特徴点Aを中心として3格子分の半径を有する略半円に相当する特徴点を示している。このように、特徴点Aを中心とする一方の略半円のみを計算対象とした場合、特徴点Aに対する一方の略半円の点対象となる他方の略半円を、計算対象から外すことができる。
同図に示すように、共起特徴ベクトル生成部50は、特徴点Aに対し、自特徴点(特徴点A)と特徴点Aの周辺に存在する18個の特徴点とのそれぞれについての共起特徴量U’を計算する。次に、共起特徴ベクトル生成部50は、計算の結果得た19個の共起特徴量U’を連結することによって、特徴点Aに対する共起特徴ベクトルを生成する。
FIG. 5 is a diagram for explaining the co-occurrence relationship between one feature point and other feature points existing in the vicinity thereof. The figure shows the positional relationship between a feature point A having a coordinate value of (x, y) and other feature points (18 feature points) for which a co-occurrence feature amount of the feature point A is to be obtained. Yes. The figure shows a feature point corresponding to a substantially semicircle having a radius of 3 lattices with the feature point A as the center. In this way, when only one approximate semicircle centered on the feature point A is the target of calculation, the other approximate semicircle that is the target of one approximate semicircle with respect to the feature point A is excluded from the target of calculation. Can do.
As shown in the figure, the co-occurrence feature
なお、図5において、特徴点Aを中心とする半径は、3格子分に限られるものではない。また、一の特徴点に対して共起関係を求める他の特徴点の分布の形状は、図5の略半円形に限らず、例えば、矩形であってもよい。 In FIG. 5, the radius around the feature point A is not limited to three grids. Further, the shape of the distribution of other feature points for which the co-occurrence relationship is obtained with respect to one feature point is not limited to the substantially semicircular shape in FIG. 5 and may be, for example, a rectangle.
図6は、共起特徴ベクトル生成部50が実行する共起特徴ベクトルの生成処理の手順を示すフローチャートである。
共起特徴ベクトル生成部50は、局所特徴ベクトル生成部40から供給される、特徴点ごとの局所特徴ベクトルを取り込むと、同図のフローチャートの処理を開始する。
まず、ステップS1において、共起特徴ベクトル生成部50は、フレーム画像データにおいて、未処理の特徴点があるか否かを判定する。そして、共起特徴ベクトル生成部50は、未処理の特徴点があると判定した場合(S1:YES)は、一の未処理の特徴点を指定してステップS2の処理に移す。一方、共起特徴ベクトル生成部50は、全ての特徴点についての処理が完了していると判定した場合(S1:NO)は、本フローチャートの処理を終了させる。
FIG. 6 is a flowchart illustrating a procedure of co-occurrence feature vector generation processing executed by the co-occurrence feature
When the co-occurrence feature
First, in step S1, the co-occurrence feature
ステップS2において、共起特徴ベクトル生成部50は、指定した一の特徴点に対し、参照していない周辺の特徴点があるか否かを判定する。具体的には、共起特徴ベクトル生成部50は、例えば図5における特徴点Aと特徴点Aの周辺に存在する18個の特徴点とのうち、指定した一の特徴点である特徴点Aに対して参照していない特徴点があるか否かを判定する。そして、共起特徴ベクトル生成部50は、参照していない周辺の特徴点があると判定した場合(S2:YES)は、一の未参照の特徴点を指定してステップS3の処理に移し、周辺の特徴点全てについて参照したと判定した場合(S2:NO)はステップS4の処理に移す。
In step S <b> 2, the co-occurrence feature
ステップS3において、共起特徴ベクトル生成部50は、指定した一の特徴点に対し、この特徴点と、指定した一の未処理の特徴点との共起特徴量U’を計算し、その後ステップS2の処理に戻す。
ステップS4において、共起特徴ベクトル生成部50は、計算の結果得たすべての共起特徴量U’を連結することによって、指定した一の特徴点に対する共起特徴ベクトルを生成し、その後ステップS1の処理に戻す。
In step S3, the co-occurrence feature
In step S4, the co-occurrence feature
[2−5.特徴ベクトルの生成処理]
図7(a),(b)は、特徴ベクトル生成部60が平均共起特徴ベクトルを生成する場合の、フレーム画像の分割の例を模式的に示した図である。同図(a)は、フレーム画像をx軸方向において3等分し、ブロック7a,7b,7cに分割した例である。また、同図(b)は、フレーム画像をx軸方向およびy軸方向それぞれにおいて2等分し、ブロック7d,7e,7f,7gに分割した例である。
特徴ベクトル生成部60は、共起特徴ベクトル生成部50から供給される共起特徴ベクトルを取り込むと、同図(a)または同図(b)に示すようにフレーム画像を分割して得られる複数のブロックそれぞれについて、当該ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトルを計算する。次に、特徴ベクトル生成部60は、計算したすべての平均共起特徴ベクトルを連結し、フレーム画像全体の特徴ベクトルとして出力する。
[2-5. Feature vector generation process]
7A and 7B are diagrams schematically illustrating an example of frame image division when the feature
When the feature
以上、詳述したとおり、本発明の一実施形態である画像特徴量抽出装置1は、外部から供給される画像データを取り込んでフレーム画像データを取得し、このフレーム画像データからエッジ成分を検出し、また特徴点を検出する。そして、画像特徴量抽出装置1は、エッジ成分に基づいて、特徴点に基づく所定の局所領域の面積を変化させて生成した複数の特徴量を連結して局所特徴ベクトルを生成する。ここで、複数の特徴量は、例えば、複数のエッジ方向ヒストグラムである。そして、画像特徴量抽出装置1は、特徴点に対して、複数の局所特徴ベクトルの空間的な共起に基づく共起特徴ベクトルを生成する。そして、画像特徴量抽出装置1は、フレーム画像データを分割して得られる複数のブロックそれぞれについて、ブロックに含まれる特徴点の共起特徴ベクトルの平均ベクトルである平均共起特徴ベクトルを計算し、複数のブロックすべてについての平均共起特徴ベクトルを連結することにより、フレーム画像データ全体の特徴ベクトルを生成する。 As described above in detail, the image feature amount extraction apparatus 1 according to an embodiment of the present invention acquires frame image data by taking in image data supplied from the outside, and detects edge components from the frame image data. Also, feature points are detected. Then, the image feature amount extraction apparatus 1 generates a local feature vector by connecting a plurality of feature amounts generated by changing the area of a predetermined local region based on the feature point based on the edge component. Here, the plurality of feature amounts are, for example, a plurality of edge direction histograms. Then, the image feature quantity extraction device 1 generates a co-occurrence feature vector based on the spatial co-occurrence of a plurality of local feature vectors for the feature points. Then, the image feature quantity extraction device 1 calculates, for each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature vector that is an average vector of co-occurrence feature vectors of feature points included in the block, A feature vector of the entire frame image data is generated by concatenating the average co-occurrence feature vectors for all of the plurality of blocks.
このように構成したことにより、本実施形態である画像特徴量抽出装置1は、フレーム画像データから検出した特徴点の周辺領域、つまり局所領域における局所特徴ベクトルの共起に基づいて、画像の内容を特徴付ける特徴ベクトルを生成して得ることができる。
したがって、本実施形態によれば、局所特徴量間の適合性を考慮し、概略の特徴を捉えて一般物体認識の精度を向上することができる。
With this configuration, the image feature quantity extraction apparatus 1 according to the present embodiment is based on the co-occurrence of local feature vectors in the peripheral area of the feature points detected from the frame image data, that is, the local area. Can be obtained by generating a feature vector characterizing.
Therefore, according to the present embodiment, it is possible to improve the accuracy of general object recognition by capturing approximate features in consideration of compatibility between local feature amounts.
なお、上述した画像特徴量抽出装置1が出力する特徴ベクトルは、例えば、ラベルが付与された学習データとともに、画像データからのオブジェクトの認識に利用されたり、特徴ベクトル間のマッチングによって類似画像の検索に利用されたりすることができる。 Note that the feature vector output by the image feature quantity extraction device 1 described above is used for recognition of an object from image data, for example, together with learning data provided with a label, or search for similar images by matching between feature vectors. Or can be used.
また、第1実施形態では、局所特徴ベクトル生成部40は、特徴点検出部30から供給される、各画素のエッジ成分と特徴点位置情報とを取り込んで、エッジ成分に基づいて、特徴点ごとに、当該特徴点に対する局所領域からエッジ方向ヒストグラムを計算するようにした。
これ以外にも、局所特徴ベクトル生成部40は、エッジ方向ヒストグラムの代わりに、ローカルバイナリパターンの頻度ヒストグラムを計算して用いてもよい。
Further, in the first embodiment, the local feature
In addition to this, the local feature
具体的には、局所特徴ベクトル生成部40は、特徴点ごとに、分散σのガウス窓を用いた空間的重み付けを適用してローカルバイナリパターンの頻度ヒストグラムを計算する。エッジ方向θ(x,y)をn方向に量子化する場合、ガウス窓の分散σに対するローカルバイナリパターンの頻度ヒストグラムl(エル)σは、下記の式(5)として表される。
ただし、G(u,v,σ)は、座標(x+u,y+v)におけるエッジ強度m(x+u,y+v)に対する重み係数であり、座標(x+u,y+v)が座標(x,y)から離れるほど小さな重み係数となるガウス窓である。また、LBP(x,y)は、座標値が(x,y)である画素におけるローカルバイナリパターンの値を表す。δi(LBP(x,y))は、ローカルバイナリパターン値がiならば“1”を、それ以外の場合には“0(ゼロ)”とする関数である。
Specifically, the local feature
However, G (u, v, σ) is a weighting coefficient for the edge intensity m (x + u, y + v) at the coordinate (x + u, y + v), and is smaller as the coordinate (x + u, y + v) is farther from the coordinate (x, y). It is a Gaussian window that becomes a weighting factor. LBP (x, y) represents the value of the local binary pattern in the pixel whose coordinate value is (x, y). δ i (LBP (x, y)) is a function that sets “1” if the local binary pattern value is i, and “0 (zero)” otherwise.
また、上述した実施形態である画像特徴量抽出装置の一部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するためのプログラム(画像特徴量抽出プログラム)をコンピュータ読み取り可能な記録媒体に記録し、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませて、このコンピュータシステムが実行することによって実現してもよい。なお、このコンピュータシステムとは、オペレーティング・システム(Operating System;OS)や周辺装置のハードウェアを含むものである。また、コンピュータ読み取り可能な記録媒体とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに備えられる磁気ハードディスクやソリッドステートドライブ等の記憶装置のことをいう。さらに、コンピュータ読み取り可能な記録媒体とは、インターネット等のコンピュータネットワーク、および電話回線や携帯電話網を介してプログラムを送信する場合の通信回線のように、短時間の間、動的にプログラムを保持するもの、さらには、その場合のサーバ装置やクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに、前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。 Moreover, you may make it implement | achieve a part of function of the image feature-value extraction apparatus which is embodiment mentioned above with a computer. In this case, a program (image feature amount extraction program) for realizing the control function is recorded on a computer-readable recording medium, the program recorded on the recording medium is read into the computer system, and the computer system It may be realized by executing. This computer system includes an operating system (OS) and hardware of peripheral devices. The computer-readable recording medium is a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, or a memory card, and a storage device such as a magnetic hard disk or a solid state drive provided in the computer system. Furthermore, a computer-readable recording medium dynamically holds a program for a short time, such as a computer network such as the Internet, and a communication line when transmitting a program via a telephone line or a cellular phone network. In addition, a server that holds a program for a certain period of time, such as a volatile memory inside a computer system serving as a server device or a client in that case, may be included. Further, the above program may be for realizing a part of the above-described functions, and further, may be realized by combining the above-described functions with a program already recorded in the computer system. Good.
以上、本発明の実施の形態について図面を参照して詳述したが、具体的な構成はその実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。 As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the specific structure is not restricted to that embodiment, The design of the range which does not deviate from the summary of this invention, etc. are included.
1 画像特徴量抽出装置
10 画像データ取得部
20 エッジ検出部
30 特徴点検出部
40 局所特徴ベクトル生成部(局所特徴量生成部)
50 共起特徴ベクトル生成部(共起特徴量生成部)
60 特徴ベクトル生成部(特徴量生成部)
DESCRIPTION OF SYMBOLS 1 Image feature-
50 Co-occurrence feature vector generation unit (co-occurrence feature value generation unit)
60 feature vector generator (feature quantity generator)
Claims (6)
前記フレーム画像データから特徴点を検出する特徴点検出部と、
前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、
前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、
を備えることを特徴とする画像特徴量抽出装置。 An edge detector for detecting edge components from the frame image data;
A feature point detector for detecting a feature point from the frame image data;
Based on the edge component detected by the edge detection unit, a local feature amount is generated by connecting a plurality of feature amounts generated by changing the area of a peripheral region with respect to the feature point detected by the feature point detection unit A feature quantity generator;
A co-occurrence feature amount generating unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit with respect to the feature point;
An image feature quantity extraction apparatus comprising:
をさらに備えたことを特徴とする請求項1記載の画像特徴量抽出装置。 For each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature amount that is an average value of co-occurrence feature amounts of feature points included in the block, generated by the co-occurrence feature amount generation unit, The feature amount generation unit for generating a feature amount of the entire frame image data by calculating and concatenating the average co-occurrence feature amounts for all of the plurality of blocks. Image feature quantity extraction device.
ことを特徴とする請求項1または2記載の画像特徴量抽出装置。 The local feature generation unit generates a plurality of edges generated by changing an area of the predetermined peripheral region based on the feature point detected by the feature point detection unit based on the edge component detected by the edge detection unit. The image feature quantity extraction apparatus according to claim 1, wherein the local feature quantity is generated by connecting the direction histograms.
ことを特徴とする請求項1または2記載の画像特徴量抽出装置。 The local feature amount generation unit is configured to generate a plurality of local regions generated by changing an area of the predetermined peripheral region based on the feature point detected by the feature point detection unit based on the edge component detected by the edge detection unit. The image feature quantity extraction apparatus according to claim 1 or 2, wherein the local feature quantity is generated by connecting frequency histograms of binary patterns.
フレーム画像データからエッジ成分を検出するエッジ検出部と、
前記フレーム画像データから特徴点を検出する特徴点検出部と、
前記エッジ検出部が検出した前記エッジ成分に基づき、前記特徴点検出部が検出した前記特徴点に対する周辺領域の面積を変化させて生成した複数の特徴量を連結して局所特徴量を生成する局所特徴量生成部と、
前記特徴点に対して、前記局所特徴量生成部が生成した前記局所特徴量の空間的な共起に基づく共起特徴量を生成する共起特徴量生成部と、
として機能させるためのプログラム。 Computer
An edge detector for detecting edge components from the frame image data;
A feature point detector for detecting a feature point from the frame image data;
Based on the edge component detected by the edge detection unit, a local feature amount is generated by connecting a plurality of feature amounts generated by changing the area of a peripheral region with respect to the feature point detected by the feature point detection unit A feature quantity generator;
A co-occurrence feature amount generating unit that generates a co-occurrence feature amount based on a spatial co-occurrence of the local feature amount generated by the local feature amount generation unit with respect to the feature point;
Program to function as.
前記フレーム画像データを分割して得られる複数のブロックそれぞれについて、前記共起特徴量生成部が生成した、前記ブロックに含まれる特徴点の共起特徴量の平均値である平均共起特徴量を計算し、前記複数のブロックすべてについての前記平均共起特徴量を連結することにより、前記フレーム画像データ全体の特徴量を生成する特徴量生成部
としてさらに機能させるための請求項5記載のプログラム。 The computer,
For each of a plurality of blocks obtained by dividing the frame image data, an average co-occurrence feature amount that is an average value of co-occurrence feature amounts of feature points included in the block, generated by the co-occurrence feature amount generation unit, The program according to claim 5, wherein the program further functions as a feature amount generation unit that generates a feature amount of the entire frame image data by calculating and connecting the average co-occurrence feature amounts for all the plurality of blocks.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011173193A JP5656768B2 (en) | 2011-08-08 | 2011-08-08 | Image feature extraction device and program thereof |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011173193A JP5656768B2 (en) | 2011-08-08 | 2011-08-08 | Image feature extraction device and program thereof |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2013037539A true JP2013037539A (en) | 2013-02-21 |
JP5656768B2 JP5656768B2 (en) | 2015-01-21 |
Family
ID=47887102
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011173193A Expired - Fee Related JP5656768B2 (en) | 2011-08-08 | 2011-08-08 | Image feature extraction device and program thereof |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5656768B2 (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
ES2470065A1 (en) * | 2013-12-18 | 2014-06-20 | Universidad De La Rioja | System and procedure to automatically determine the number of flowers of an inflorescence (Machine-translation by Google Translate, not legally binding) |
JP2018077862A (en) * | 2013-09-16 | 2018-05-17 | アイベリファイ インコーポレイテッド | Feature extraction, matching, and template update for biometric authentication |
JP2018107651A (en) * | 2016-12-27 | 2018-07-05 | セコム株式会社 | Imaging apparatus |
KR20180112654A (en) * | 2017-04-04 | 2018-10-12 | 한국전자통신연구원 | Method and apparatus for processing feature information of composite image |
JP2019095996A (en) * | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | Feature quantity deriving device, derivation method, and program |
US10402449B2 (en) | 2014-03-18 | 2019-09-03 | Rakuten, Inc. | Information processing system, information processing method, and information processing program |
JP2019212284A (en) * | 2018-06-04 | 2019-12-12 | 株式会社デンソー | Feature amount extraction device, feature amount extraction method and substance recognition device |
Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10004A (en) * | 1853-09-06 | Improvement in iron car-brakes | ||
US10008A (en) * | 1853-09-13 | India-rtjbbee | ||
US11005A (en) * | 1854-06-06 | Berth-knee former | ||
JP2011118832A (en) * | 2009-12-07 | 2011-06-16 | Toyota Central R&D Labs Inc | Image feature extracting device, image processing apparatus, and program |
-
2011
- 2011-08-08 JP JP2011173193A patent/JP5656768B2/en not_active Expired - Fee Related
Patent Citations (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10004A (en) * | 1853-09-06 | Improvement in iron car-brakes | ||
US10008A (en) * | 1853-09-13 | India-rtjbbee | ||
US11005A (en) * | 1854-06-06 | Berth-knee former | ||
JP2011118832A (en) * | 2009-12-07 | 2011-06-16 | Toyota Central R&D Labs Inc | Image feature extracting device, image processing apparatus, and program |
Cited By (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2018077862A (en) * | 2013-09-16 | 2018-05-17 | アイベリファイ インコーポレイテッド | Feature extraction, matching, and template update for biometric authentication |
US10664700B2 (en) | 2013-09-16 | 2020-05-26 | EyeVerify Inc. | Feature extraction and matching for biometric authentication |
US10726260B2 (en) | 2013-09-16 | 2020-07-28 | EyeVerify Inc. | Feature extraction and matching for biometric authentication |
ES2470065A1 (en) * | 2013-12-18 | 2014-06-20 | Universidad De La Rioja | System and procedure to automatically determine the number of flowers of an inflorescence (Machine-translation by Google Translate, not legally binding) |
US10402449B2 (en) | 2014-03-18 | 2019-09-03 | Rakuten, Inc. | Information processing system, information processing method, and information processing program |
JP2018107651A (en) * | 2016-12-27 | 2018-07-05 | セコム株式会社 | Imaging apparatus |
KR20180112654A (en) * | 2017-04-04 | 2018-10-12 | 한국전자통신연구원 | Method and apparatus for processing feature information of composite image |
KR102075708B1 (en) * | 2017-04-04 | 2020-02-11 | 한국전자통신연구원 | Method and apparatus for processing feature information of composite image |
JP2019095996A (en) * | 2017-11-21 | 2019-06-20 | 日本電信電話株式会社 | Feature quantity deriving device, derivation method, and program |
JP2019212284A (en) * | 2018-06-04 | 2019-12-12 | 株式会社デンソー | Feature amount extraction device, feature amount extraction method and substance recognition device |
JP7322418B2 (en) | 2018-06-04 | 2023-08-08 | 株式会社デンソー | Feature quantity extraction device, feature quantity extraction method, and object recognition device |
Also Published As
Publication number | Publication date |
---|---|
JP5656768B2 (en) | 2015-01-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20230117712A1 (en) | Feature density object classification, systems and methods | |
US10210415B2 (en) | Method and system for recognizing information on a card | |
JP5656768B2 (en) | Image feature extraction device and program thereof | |
US9053388B2 (en) | Image processing apparatus and method, and computer-readable storage medium | |
US9754192B2 (en) | Object detection utilizing geometric information fused with image data | |
WO2019033569A1 (en) | Eyeball movement analysis method, device and storage medium | |
JP2010176380A (en) | Information processing device and method, program, and recording medium | |
JP2008530700A (en) | Fast object detection method using statistical template matching | |
JPWO2012077287A1 (en) | Posture state estimation apparatus and posture state estimation method | |
CN109816694B (en) | Target tracking method and device and electronic equipment | |
JP5936561B2 (en) | Object classification based on appearance and context in images | |
KR20150126768A (en) | Method for composing image and electronic device thereof | |
WO2017197593A1 (en) | Apparatus, method and computer program product for recovering editable slide | |
KR20120044484A (en) | Apparatus and method for tracking object in image processing system | |
CN113228105A (en) | Image processing method and device and electronic equipment | |
CN107368832A (en) | Target detection and sorting technique based on image | |
Balaji et al. | Cardiac view classification using speed Up robust | |
JP6086491B2 (en) | Image processing apparatus and database construction apparatus thereof | |
US10002291B2 (en) | Method and system of identifying fillable fields of an electronic form | |
KR101741761B1 (en) | A classification method of feature points required for multi-frame based building recognition | |
JP5051671B2 (en) | Information processing apparatus, information processing method, and program | |
JP5865687B2 (en) | Image feature extraction device and program thereof | |
CN110070490A (en) | Image split-joint method and device | |
Ye et al. | Reading labels of cylinder objects for blind persons | |
JP4812743B2 (en) | Face recognition device, face recognition method, face recognition program, and recording medium recording the program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140108 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20140818 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20140909 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20141006 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20141028 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20141125 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5656768 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |