JP5500404B1 - Image processing apparatus and program thereof - Google Patents

Image processing apparatus and program thereof Download PDF

Info

Publication number
JP5500404B1
JP5500404B1 JP2013112323A JP2013112323A JP5500404B1 JP 5500404 B1 JP5500404 B1 JP 5500404B1 JP 2013112323 A JP2013112323 A JP 2013112323A JP 2013112323 A JP2013112323 A JP 2013112323A JP 5500404 B1 JP5500404 B1 JP 5500404B1
Authority
JP
Japan
Prior art keywords
image
feature point
feature vector
processing apparatus
local
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2013112323A
Other languages
Japanese (ja)
Other versions
JP2015026093A (en
Inventor
建一 林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Qoncept Inc
Original Assignee
Qoncept Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Qoncept Inc filed Critical Qoncept Inc
Priority to JP2013112323A priority Critical patent/JP5500404B1/en
Priority to PCT/JP2013/083531 priority patent/WO2014092193A1/en
Priority to JP2014552105A priority patent/JP6332865B2/en
Application granted granted Critical
Publication of JP5500404B1 publication Critical patent/JP5500404B1/en
Publication of JP2015026093A publication Critical patent/JP2015026093A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Abstract

【課題】スケール不変性及び回転不変性を持つ局所特徴ベクトルを、より低い計算コストで求められるようにする。
【解決手段】第1特徴点から距離が小さい順の4個の特徴点を第2特徴点とし、第1特徴点と、第2特徴点のそれぞれとのペア特徴点を選択し(S1)、特徴点間距離Lを算出し、第1、第2特徴点を中心とする距離Lに比例した半径の第1、第2サンプリング円を決定し(S3)、各円周上の16個の画素のそれぞれを中心とする矩形画素領域のそれぞれの平均輝度I(Pi)、I(Qi)、i=0〜fを、直線Lの方向を基準として順にサンプリングし、これらのそれぞれと、第1、第2特徴点を中心とする矩形画素領域の平均輝度との差を、局所特徴ベクトルの成分としてこの順に並べる(S4)。
【選択図】図2
A local feature vector having scale invariance and rotation invariance is obtained at a lower calculation cost.
Four feature points in order of decreasing distance from a first feature point are used as second feature points, and pair feature points of the first feature point and each of the second feature points are selected (S1), A distance L between the feature points is calculated, and first and second sampling circles having a radius proportional to the distance L around the first and second feature points are determined (S3), and 16 pixels on each circumference are determined. The average luminances I (Pi), I (Qi), i = 0 to f of the rectangular pixel regions centered on each of the first and second pixels are sequentially sampled with respect to the direction of the straight line L. The difference from the average luminance of the rectangular pixel area centered on the second feature point is arranged in this order as a component of the local feature vector (S4).
[Selection] Figure 2

Description

本発明は、輝度画像上の自然特徴点を中心とする局所領域のスケール不変性かつ回転不変性特徴ベクトルを求める機能を備えた画像処理装置及びそのプログラムに関する。   The present invention relates to an image processing apparatus having a function for obtaining a scale-invariant and rotation-invariant feature vector of a local region centered on a natural feature point on a luminance image, and a program thereof.

カメラを備えたスマートフォンの性能向上とFAST(Features from Accelerated Segment Test)コーナ検出法などの画像処理技術の向上に伴い、マーカレスAR(Augmented Reality:拡張現実)をスマートフォンで実現可能になった。   Markerless AR (Augmented Reality) has become feasible with smartphones as the performance of smartphones equipped with cameras improves and image processing technologies such as FAST (Features From Accelerated Segment) corner detection methods improve.

FASTコーナ検出法によれば、1画像内の自然特徴点を多数、高速に検出することができる。これら特徴点を、予め求めた参照データ内の特徴点とマッチングすることにより、3次元座標をカメラ画像の2次元座標に投影するカメラパラメータを推定することができ、このパラメータに基づき、3Dモデルをカメラ画像に投影した(カメラ画像にCG画像を重畳した)AR画像を生成することができる。このマッチングを行うために、各特徴点を中心とする局所特徴ベクトルを記述する必要がある。   According to the FAST corner detection method, a large number of natural feature points in one image can be detected at high speed. By matching these feature points with the feature points in the reference data obtained in advance, the camera parameters for projecting the three-dimensional coordinates onto the two-dimensional coordinates of the camera image can be estimated, and based on these parameters, the 3D model can be estimated. An AR image projected onto the camera image (a CG image superimposed on the camera image) can be generated. In order to perform this matching, it is necessary to describe a local feature vector centered on each feature point.

下記特許文献1には、スケール不変性及び回転不変性を有する局所特徴ベクトルを、コントラストによらずに算出することができる局所特徴ベクトル算出方法が開示されている。   Patent Document 1 below discloses a local feature vector calculation method capable of calculating a local feature vector having scale invariance and rotation invariance without depending on contrast.

また、下記非特許文献1には、そこでのテストの結果、下記非特許文献2のBRIEF(Binary Robust Independent Elementary Features)という手法が最速であると記載されている。   Further, Non-Patent Document 1 described below describes that the method called BRIEF (Binary Robust Independent Elementary Features) of Non-Patent Document 2 described below is the fastest as a result of the test.

特開2012−38290号公報JP 2012-38290 A

特徴記述子比較レポート:http://computer-vision-talks.com/2011/08/feature-descriptor-comparison-report/Feature descriptor comparison report: http://computer-vision-talks.com/2011/08/feature-descriptor-comparison-report/ BRIEF:http://cvlab.epfl.ch/~lepetit/papers/calonder_pami11.pdfBRIEF: http: //cvlab.epfl.ch/~lepetit/papers/calonder_pami11.pdf ランダムフォレスト:http://link.springer.com/article/10.1023%2FA%3A1010933404324?LI=trueRandom Forest: http://link.springer.com/article/10.1023%2FA%3A1010933404324?LI=true

しかしながら、スケール不変性及び回転不変性を有する局所特徴ベクトルを求める処理は、計算コストが比較的大きく、特に、スケール不変性を持たせるためには複数の画像スケールのそれぞれで画像処理を行う必要があるので、計算コストが増大する原因となる。   However, the processing for obtaining local feature vectors having scale invariance and rotation invariance has a relatively high calculation cost. In particular, in order to have scale invariance, it is necessary to perform image processing on each of a plurality of image scales. As a result, the calculation cost increases.

より具体的には、特許文献1では、特徴点を中心とするp個の円の円周上の画素データを検出する同心円検出部と、各画素データにおける画素値の勾配の角度と支配的勾配との差分値に円の半径の平方根を乗じた重み付き差分値をそれぞれ算出する重み付き差分値算出部と、重み付き差分値についてのq個の階級を有する度数分布を作成する度数分布作成
部と、各円についての各度数を成分とするq次元のベクトルから、p×q次元の記述子ベクトルを算出する記述子ベクトル算出部とを設ける必要があるので、SIFT(Scale Invariant Feature Transform)や、これよりも高速なSURFよりも計算コストを低減できるものの、計算コストが比較的大きくなる。
More specifically, in Patent Document 1, a concentric circle detection unit that detects pixel data on the circumference of p circles centering on a feature point, and the gradient angle and dominant gradient of the pixel value in each pixel data A weighted difference value calculation unit that calculates a weighted difference value obtained by multiplying the difference value by the square root of the radius of the circle, and a frequency distribution generation unit that generates a frequency distribution having q classes of the weighted difference values And a descriptor vector calculation unit for calculating a p × q-dimensional descriptor vector from a q-dimensional vector having each frequency for each circle as a component, it is necessary to provide a SIFT (Scale Invariant Feature Transform), Although the calculation cost can be reduced as compared with the SURF faster than this, the calculation cost becomes relatively large.

また、非特許文献2のBRIEFでは、特徴点を中心とする円内の2画素の輝度差を2値化したものを局所特徴ベクトルの成分とするので、局所特徴ベクトルの次元数とビット長とが等しくなって省メモリにはなるものの、高速化の点では、次の理由により、充分とは言えない。すなわち、例えば128次元の局所特徴ベクトルを生成する場合、BRIEFでは局所特徴ベクトルを128ビットで表現できるものの、例えば640x480画素の画像中の該円内のランダムな128回の画素サンプリングが必要になり、キャッシング回数が増え、重い処理となるからである。また、BRIEFは回転不変性を有しない。さらに、上記2値化により、接近した局所特徴ベクトル間の区別が困難になるので、カメラ画像から取得した局所特徴ベクトルと参照局所特徴ベクトルとのマッチングの精度及び安定性、すなわち特徴点識別性が低下する。   Further, in BRIEF of Non-Patent Document 2, since the binarized luminance difference of two pixels in a circle centered on a feature point is used as a component of the local feature vector, the number of dimensions of the local feature vector, the bit length, However, in terms of speeding up, it is not sufficient for the following reasons. That is, for example, when generating a 128-dimensional local feature vector, BRIEF can represent a local feature vector with 128 bits, but for example, random sampling of 128 pixels within the circle in an image of 640 × 480 pixels is required. This is because the number of times of caching increases and the processing becomes heavy. Also, BRIEF has no rotation invariance. Furthermore, since the above binarization makes it difficult to distinguish between local feature vectors that are close to each other, the accuracy and stability of matching between the local feature vector acquired from the camera image and the reference local feature vector, that is, the feature point distinguishability is improved. descend.

さらに、例えば文字や記号などの画像に関する情報をデータベースで検索する場合、従来法では特徴点間の局所特徴ベクトルによる識別性が比較的低いので、画像認識率が低くなる。   Furthermore, when searching for information about images such as characters and symbols in a database, for example, the conventional method has a relatively low discriminability by local feature vectors between feature points, so the image recognition rate is low.

本発明の目的は、このような問題点に鑑み、スケール不変性及び回転不変性を持つ局所特徴ベクトルを、より低い計算コストで求める構成を備えた画像処理装置及びそのプログラムを提供することにある。   In view of such problems, an object of the present invention is to provide an image processing apparatus having a configuration for obtaining a local feature vector having scale invariance and rotation invariance at a lower calculation cost, and a program thereof. .

本発明の他の目的は、画像から生成した局所特徴ベクトルの識別性をより向上させる構成を備えた画像処理装置及びそのプログラムを提供することにある。   Another object of the present invention is to provide an image processing apparatus having a configuration for further improving the discriminability of a local feature vector generated from an image and a program thereof.

本発明の第1態様では、プロセッサと、データ及びプログラムが格納される記憶装置とを備え、該データは濃淡画像を含み、該プログラムは該プロセッサに対し該データに含まれる複数の局所特徴量を生成させる特徴ベクトル生成プログラムを含む画像処理装置において、
該特徴ベクトル生成プログラムは該プロセッサに対し、
(a)該濃淡画像に対しコーナポイントである特徴点の座標を検出させ、
(b)検出された各特徴点である第1特徴点から近い順の所定数の第2特徴点のそれぞれと該第1特徴点とのペア特徴点を選択させ、
(c)各ペア特徴点について、該第1特徴点と該第2特徴点との間の距離Lを求めさせ、
(d)該第1特徴点を中心とし該距離Lに比例した第1半径の円周上の画素のうち等画素間隔のn個(n≧4)の画素のそれぞれを含む画素領域Pi、i=0〜n−1の平均第1輝度I(Pi)を、該距離Lの線方向を基準として所定順にサンプリングさせ、それぞれと該第1特徴点を含む画素領域の輝度との差と、
該第2特徴点を中心とし該距離Lに比例した第2半径の円周上の画素のうち等画素間隔のm個(m≧4)の画素のそれぞれを含む画素領域Qi、i=0〜m−1の平均第2輝度I(Qj)を、該距離Lの線方向を基準として所定順にサンプリングさせ、それぞれと該第2特徴点を含む画素領域の輝度との差と、
を成分とする、正規化された局所特徴ベクトルを求めさせ、
該画素領域の画素数の平方根は該距離Lに略比例している。
In a first aspect of the present invention, a processor and a storage device in which data and a program are stored are provided, the data includes a grayscale image, and the program stores a plurality of local feature amounts included in the data with respect to the processor. In an image processing apparatus including a feature vector generation program to be generated,
The feature vector generation program provides the processor with
(A) detecting the coordinates of feature points that are corner points in the grayscale image;
(B) selecting a pair feature point of each of a predetermined number of second feature points in order closer to the first feature point which is each detected feature point and the first feature point;
(C) For each pair feature point, the distance L between the first feature point and the second feature point is obtained,
(D) Pixel regions Pi, i each including n pixels (n ≧ 4) at equal pixel intervals among the pixels on the circumference of the first radius proportional to the distance L with the first feature point as the center. The average first luminance I (Pi) of = 0 to n−1 is sampled in a predetermined order with respect to the line direction of the distance L, and the difference between each and the luminance of the pixel region including the first feature point;
A pixel region Qi, i = 0 to 0 including each of m pixels (m ≧ 4) at equal pixel intervals among the pixels on the circumference of the second radius that is centered on the second feature point and proportional to the distance L The average second luminance I (Qj) of m−1 is sampled in a predetermined order with respect to the line direction of the distance L, and the difference between each and the luminance of the pixel region including the second feature point;
To obtain a normalized local feature vector with
The square root of the number of pixels in the pixel region is substantially proportional to the distance L.

ここに、濃淡画像は、例えばグレースケール画像又はカラー画像の単色成分画像であり
、RGB画像のR,G,Bチャネルの1つ以上のチャンネルのそれぞれの濃淡画像であってもよい。コーナポイントは、例えばFASTコーナ検出法又はHarrisオペレータを用いたコーナ検出法により検出される。平均輝度は累積加算輝度を含む概念である。また、局所特徴ベクトルの表現は、上記距離Lの線方向に関し成分が所定順に配置されておればよく、前者の輝度差成分と後者の輝度差成分を交互に配置したものなどであってもよい。
Here, the grayscale image is, for example, a single-color component image of a grayscale image or a color image, and may be a grayscale image of each of one or more channels of R, G, and B channels of an RGB image. The corner point is detected by, for example, a FAST corner detection method or a corner detection method using a Harris operator. The average luminance is a concept including cumulative added luminance. In addition, the local feature vector may be expressed in a predetermined order with respect to the line direction of the distance L, and may be one in which the former luminance difference component and the latter luminance difference component are alternately arranged. .

本発明による画像処理装置の第2態様では、第1態様において、m及びnはいずれも8、16又は32である。   In the second aspect of the image processing apparatus according to the present invention, in the first aspect, m and n are each 8, 16, or 32.

上記第1態様の構成によれば、上記のようにペア特徴点を選択し局所特徴ベクトルを求めるので、スケール不変性及び回転不変性を持つ局所特徴ベクトルを、従来より低い計算コストで求めることができるという効果を奏する。   According to the configuration of the first aspect, since the pair feature points are selected and the local feature vector is obtained as described above, the local feature vector having scale invariance and rotation invariance can be obtained at a lower calculation cost than in the past. There is an effect that can be done.

また、画像の特徴点間に基づく局所特徴ベクトルを生成するので、文字や記号などのフレーム画像であっても、局所特徴ベクトルの識別性が向上し、結果としてフレーム画像の識別性等を向上させることが可能となるという効果を奏する。   In addition, since local feature vectors are generated based on the feature points of the image, the discriminability of the local feature vectors is improved even in the case of frame images such as characters and symbols, and as a result, the discriminability of the frame images is improved. There is an effect that it becomes possible.

上記第2態様の構成によれば、m及びnはいずれも2の冪乗であるので、実施例2で述べるように、局所特徴ベクトルをより高速に求めることができるという効果を奏する。   According to the configuration of the second aspect, since m and n are both powers of 2, as described in the second embodiment, there is an effect that a local feature vector can be obtained at higher speed.

本発明の他の目的、特徴的な構成及び効果は、以下の説明を特許請求の範囲及び図面の記載と関係づけて読むことにより明らかになる。   Other objects, characteristic configurations and effects of the present invention will become apparent from the following description read in connection with the appended claims and the drawings.

本発明の実施例1に係る画像処理装置10のハードウェア構成を示す概略ブロック図である。It is a schematic block diagram which shows the hardware constitutions of the image processing apparatus 10 which concerns on Example 1 of this invention. 1フレーム画像内の局所特徴ベクトルを生成する処理手順を示すフローチャートである。It is a flowchart which shows the process sequence which produces | generates the local feature vector in 1 frame image. (A)は、文字画像と、その上に各特徴点に関するペア特徴点の特徴点間を直線で連結したものとを示す図であり、(B)は(A)の一部を拡大したペア特徴点説明図である。(A) is a figure which shows what connected the character image and the feature point of the pair feature point regarding each feature point on it with the straight line on it, (B) is the pair which expanded a part of (A) It is feature point explanatory drawing. 図2のステップS3の処理説明図であって、図3(A)中の一部を拡大した局所特徴ベクトル生成処理説明図である。3 is a process explanatory diagram of step S3 of FIG. 2, and is a local feature vector generation process explanatory diagram in which a part of FIG. 3A is enlarged. FIG. 図2のステップS4の処理説明図である。It is processing explanatory drawing of step S4 of FIG. (A)〜(D)は何れも、第1特徴点を共通にする特徴点ペアを点で示す局所領域画像であり、(E)〜(H)はそれぞれ(A)〜(D)の特徴点ペアに関する局所特徴ベクトルの棒グラフによる成分表示図である。(A) to (D) are local area images each showing a feature point pair sharing the first feature point, and (E) to (H) are the features of (A) to (D), respectively. It is a component display figure by the bar graph of the local feature vector regarding a point pair. 実施例2に係る画像処理装置の概略機能ブロック図である。FIG. 6 is a schematic functional block diagram of an image processing apparatus according to a second embodiment. 図7中の主処理部40で実行されるメインルーチンの概略フローチャートである。8 is a schematic flowchart of a main routine executed by a main processing unit 40 in FIG. 図7中のマッチング処理部46での、局所特徴ベクトル記憶部M3内の1つの局所特徴ベクトルVに対するクラスID推定処理を示す概略フローチャートである。It is a schematic flowchart which shows the class ID estimation process with respect to one local feature vector V in the local feature vector memory | storage part M3 in the matching process part 46 in FIG. (A)は、クラスID及びフレーム画像IDでラベルされた同一ペア特徴点に関する局所特徴ベクトルの説明図であり、(B)は、参照データ内の局所特徴ベクトルの全集合からランダムに抽出した部分集合毎のツリーからなるランダムフォレストの識別器をその入出力と対応付けて示す説明図である。(A) is explanatory drawing of the local feature vector regarding the same pair feature point labeled with class ID and frame image ID, (B) is the part extracted at random from the whole set of the local feature vector in reference data It is explanatory drawing which shows the discriminator of the random forest which consists of a tree for every set | correspondence with the input / output. 白鳥の写真と「Swan」の文字列とを含む印刷物の撮影画像に対し図7の処理を行いその途中結果を可視化したものを含む図であって、該画像と該画像から抽出された特徴点ペアと、各ペアの特徴点間を接続した直線とを示す図である。FIG. 8 is a diagram including a photographed image of a printed matter including a swan photograph and a character string “Swan” that includes a visualization of the intermediate result obtained by performing the processing of FIG. 7, and the feature points extracted from the image It is a figure which shows a pair and the straight line which connected between the feature points of each pair. 白鳥の写真と「Swan」の文字列とを含む印刷物の撮影画像に対し図7の処理を行いその途中結果を可視化したものを含む図であって、該画像を縮小し回転した参照画上の特徴点と認識対象である図11中の画像上の特徴点とをマッチング部でマッチングさせ、マッチングした特徴点間を直線で接続した図である。FIG. 8 is a diagram including the image obtained by performing the process of FIG. 7 on the printed image including the swan photograph and the character string “Swan”, and visualizing the result of the process, on the reference image obtained by reducing and rotating the image. FIG. 12 is a diagram in which feature points and feature points on the image in FIG. 11 that are recognition targets are matched by a matching unit, and the matched feature points are connected by a straight line. 白鳥の写真と「Swan」の文字列とを含む印刷物の撮影画像に対し図7の処理を行いその途中結果を可視化したものを含む図であって、該画像を縮小し回転し射影変換した参照画上の特徴点と認識対象である図11中の画像上の特徴点とをマッチング部でマッチングさせ、マッチングした特徴点間を直線で接続した図である。FIG. 8 is a diagram including a photographed image of a printed matter including a photograph of a swan and a character string “Swan”, including a visualization of the result of the processing shown in FIG. 7, the image being reduced, rotated, and projectively converted. FIG. 12 is a diagram in which feature points on the image and feature points on the image in FIG. 11 to be recognized are matched by a matching unit, and the matched feature points are connected by a straight line. 白鳥の写真と「Swan」の文字列とを含む印刷物の撮影画像に対し図7の処理を行いその途中結果を可視化したものを含む図であって、該画像を回転し図12の場合よりも縮小した参照画上の特徴点と認識対象である図11中の画像上の特徴点とをマッチング部でマッチングさせ、マッチングした特徴点間を直線で接続した図である。FIG. 9 is a diagram including a photographed image of a printed matter including a photograph of a swan and a character string “Swan” that includes a visualization of the result of the process shown in FIG. 7, and the image is rotated and compared with the case of FIG. 12. FIG. 12 is a diagram in which feature points on the reduced reference image and feature points on the image in FIG. 11 to be recognized are matched by a matching unit, and the matched feature points are connected by a straight line.

図1は、本発明の実施例1に係る画像処理装置10のハードウェア構成を示す概略ブロック図であって、この実施例1で必要な構成要素のみを示す。画像処理装置10は例えば、カメラを備えたスマートフォンやPDA等の携帯端末装置、ノートパソコン又はデスクトップパソコンなどである。   FIG. 1 is a schematic block diagram showing a hardware configuration of an image processing apparatus 10 according to the first embodiment of the present invention, and shows only components necessary for the first embodiment. The image processing apparatus 10 is, for example, a mobile terminal device such as a smartphone or PDA provided with a camera, a notebook personal computer, or a desktop personal computer.

画像処理装置10は、その本体部20において、プロセッサ21がバス22を介して記憶装置23、入力インターフェイス24、カメラインターフェイス25及びディスプレインターフェイス26に結合されている。プロセッサ21は、内部キャッシュメモリを備えている。入力インターフェイス24には入力装置30が結合され、カメラインターフェイス25にはカメラ31が結合され、ディスプレインターフェイス26には出力装置としての表示装置32が結合され、他の出力装置としての通信部27にはアンテナ33が結合されている。   In the main body 20 of the image processing apparatus 10, a processor 21 is coupled to a storage device 23, an input interface 24, a camera interface 25, and a display interface 26 via a bus 22. The processor 21 includes an internal cache memory. An input device 30 is coupled to the input interface 24, a camera 31 is coupled to the camera interface 25, a display device 32 as an output device is coupled to the display interface 26, and a communication unit 27 as another output device is coupled to the display unit 26. An antenna 33 is coupled.

入力装置30は、対話型入力装置であって、タッチパネル、ポインティングデバイス若しくはキーボード又はこれらの組み合わせで構成されている。通信部27は、電波を介して外部モニタ又はインターネットと結合するためのインターフェイスを備えている。   The input device 30 is an interactive input device and includes a touch panel, a pointing device, a keyboard, or a combination thereof. The communication unit 27 includes an interface for coupling to an external monitor or the Internet via radio waves.

記憶装置23にはプログラム及びデータが格納され、このプログラムは、プロセッサ21に対し、入力装置30から入力インターフェイス24を介したユーザの指示又は設定値の選択若しくは入力を受け付け、この入力に応じて、アプリケーションを起動させ、カメラ31で被写体、例えば、図書館の本の表紙又は看板を撮像させてそのフレーム画像(静止画)を記憶装置23内に格納させ、このフレーム画像から複数の局所特徴ベクトルを生成し、これらと記憶装置23内の参照データとに基づいて、このフレーム画像を識別し、このフレーム画像に関する情報、例えば、該図書館に蔵書されている関連する本の情報又は看板に関する詳細情報を記憶装置23から読み出してディスプレインターフェイス26を介し表示装置32に表示させる。或いは、カメラ31で店内又は通販カタログの商品を撮像させ、同様にして、この商品に関する情報を表示装置32に表示させる。   The storage device 23 stores a program and data. The program accepts a user instruction or setting value selection or input from the input device 30 via the input interface 24 to the processor 21, and according to this input, The application is activated, and the camera 31 captures a subject, for example, a cover or signboard of a library book, and stores the frame image (still image) in the storage device 23, and generates a plurality of local feature vectors from the frame image. Then, based on these and the reference data in the storage device 23, the frame image is identified, and information on the frame image, for example, related book information stored in the library or detailed information on the signboard is stored. Read from device 23 and display on display device 32 via display interface 26 . Alternatively, the product in the store or the mail order catalog is imaged by the camera 31, and information on the product is displayed on the display device 32 in the same manner.

本実施例1の特徴は、図2に示す、1フレーム画像内の局所特徴ベクトルを生成する処理である。以下、括弧内は図中のステップ識別符号を示す。   The feature of the first embodiment is processing for generating a local feature vector in one frame image shown in FIG. In the following, the step identification codes in the figure are shown in parentheses.

(S0)1フレーム画像内で注目画素をラスタースキャンしながら特徴点をFASTコーナ検出法により検出する。   (S0) A feature point is detected by a FAST corner detection method while raster scanning the target pixel in one frame image.

このFASTコーナ検出法は、注目画素を中心とし、正の閾値をthとし、例えば半径
3画素の円周上における16個の画素の輝度値を、(注目画素の輝度値)−thより小さければ暗い、(注目画素の輝度値)+thより大きければ明るい、これらの間の値であれば類似と3値化し、連続して例えば9画素以上が明るい又は暗いと判定された場合に、注目画素がコーナの特徴点であると判定するものである。
In this FAST corner detection method, if the pixel of interest is at the center and the positive threshold is th, for example, the luminance value of 16 pixels on the circumference of a radius of 3 pixels is smaller than (the luminance value of the pixel of interest) −th. If it is dark, it is bright if it is larger than (the luminance value of the pixel of interest) + th, and if it is between these values, it is ternarized as similar, and when it is determined that, for example, 9 pixels or more are bright or dark continuously, It is determined that the corner is a feature point.

(S1)以下、ステップS0で検出した各特徴点(注目特徴点)について、S5迄の処理を行う。   (S1) Thereafter, the process up to S5 is performed for each feature point (target feature point) detected in step S0.

(S2)注目特徴点(第1特徴点)について、この特徴点から距離が小さい順の所定数nの特徴点を第2特徴点とし、第1特徴点と、第2特徴点のそれぞれとのn組のペア特徴点を選択する。nは、n≧1であって、各第1特徴点について共通の値である。   (S2) With respect to the feature point of interest (first feature point), a predetermined number n of feature points in order of decreasing distance from the feature point are defined as second feature points, and the first feature point and each of the second feature points n pairs of feature points are selected. n is n ≧ 1, and is a common value for each first feature point.

図3(A)は、各特徴点について、n=4とし、第1特徴点とそれぞれの第2特徴点との間を直線で連結(ペアを連結)したものである。図4は、図3中の一部拡大説明図である。   In FIG. 3A, n = 4 is set for each feature point, and the first feature point and each second feature point are connected by a straight line (a pair is connected). FIG. 4 is a partially enlarged explanatory view of FIG.

このステップS2で求めた各ペア特徴点についてステップS3及びステップS4の処理を行う。   The processing of step S3 and step S4 is performed for each pair feature point obtained in step S2.

(S3)ペア特徴点の特徴点間距離Lを算出し、例えば図4に示すように第1特徴点350と第2特徴点351との間の距離Lを算出し、第1特徴点350を中心とする距離Lに比例した半径の第1サンプリング円352、及び、第2特徴点351を中心とする距離Lに比例した半径の第2サンプリング円353を決定する。   (S3) The distance L between the feature points of the pair feature points is calculated. For example, the distance L between the first feature point 350 and the second feature point 351 is calculated as shown in FIG. A first sampling circle 352 having a radius proportional to the center distance L and a second sampling circle 353 having a radius proportional to the distance L centering on the second feature point 351 are determined.

図4での比例定数は、1であり、各特徴点について共通である。第1サンプリング円352と第2サンプリング円353の半径に関する該比例定数は、互いに異なるものを用いてもよい。   The proportionality constant in FIG. 4 is 1, which is common for each feature point. Different proportional constants for the radii of the first sampling circle 352 and the second sampling circle 353 may be used.

図5は、図4と異なる第1特徴点36、第2特徴点37及び該比例定数が上記と異なる第1サンプリング円C1及び第2サンプリング円C2を示している。   FIG. 5 shows a first sampling point C1 and a second sampling point C2, which are different from those in FIG.

(S4)第1サンプリング円C1上の画素のうち、等画素間隔のN個(N≧4)、例えば16個の画素のそれぞれを中心とする矩形画素領域P0〜P9、Pa〜Pfのそれぞれの平均輝度I(Pi)、i=0〜fを、第1特徴点36から第2特徴点37へ向かう方向ベクトル(又は直線Lの方向)を基準として所定順、例えばこの方向ベクトルを基準として反時計回りの方向にサンプリング、図5では平均輝度I(P1),I(P2)、・・・、I(Pf)、I(P0)をこの順にサンプリングし、これらのそれぞれと、第1特徴点36を中心とする矩形画素領域(ハッチングで示す領域)の平均輝度I1との差を、この順に並べ、同様に、第2特徴点37から第1特徴点36へ向かう方向ベクトル(又は直線Lの方向)を基準として所定順、例えばこの方向ベクトルを基準として反時計回りの方向にサンプリング、図5では平均輝度I(Q9),I(Qa)、・・・、I(Qf)、I(Q0)、・・・、I(Q8)をこの順にサンプリングし、これらのそれぞれと、第2特徴点37を中心とする矩形画素領域(ハッチングで示す領域)の平均輝度I2との差を、この順に並べ、かつ、正規化したものを、ペア特徴点の36に関する局所特徴ベクトルとして求める。すなわち、この局所特徴ベクトルVを、
V=α(I(P1)−I1,I(P2)−I1,・・・,I(Pf)−I1、I(P0)−I1,I(Q9),I(Qa)−I2,・・・,I(Qf),I(Q0),・・・,I(Q8))
として求める。αは、特徴ベクトルVのノルムの値を、例えば符号付8ビット整数の最大値である127(ノルムの平方が16129)に正規化するための係数である。また、各
成分の符号は、上記と逆であっても、また、第2サンプリング円C2に関してのみ上記と逆であってもよい。
(S4) Among the pixels on the first sampling circle C1, each of the rectangular pixel regions P0 to P9 and Pa to Pf centered at N pixels with equal pixel intervals (N ≧ 4), for example, 16 pixels, respectively. The average luminance I (Pi), i = 0 to f is deviated from the first feature point 36 toward the second feature point 37 in a predetermined order with reference to the direction vector (or the direction of the straight line L), for example, the direction vector as a reference. Sampling is performed in the clockwise direction. In FIG. 5, the average luminances I (P1), I (P2),..., I (Pf), I (P0) are sampled in this order. Differences from the average luminance I1 of rectangular pixel areas (areas indicated by hatching) centered at 36 are arranged in this order. Similarly, a direction vector (or a straight line L of the straight line L) from the second feature point 37 to the first feature point 36 is arranged. Direction) as a standard For example, sampling is performed in the counterclockwise direction with reference to this direction vector. In FIG. 5, average luminances I (Q9), I (Qa),..., I (Qf), I (Q0),. Q8) is sampled in this order, and the difference between each of these and the average luminance I2 of the rectangular pixel area (area indicated by hatching) centered on the second feature point 37 is arranged in this order and normalized. As a local feature vector for 36 of the pair feature points. That is, this local feature vector V is
V = α (I (P1) -I1, I (P2) -I1,..., I (Pf) -I1, I (P0) -I1, I (Q9), I (Qa) -I2,. ., I (Qf), I (Q0), ..., I (Q8))
Asking. α is a coefficient for normalizing the norm value of the feature vector V to 127 (norm square is 16129) which is the maximum value of a signed 8-bit integer, for example. Also, the sign of each component may be reversed from the above, or may be reversed only with respect to the second sampling circle C2.

上記各矩形画素領域は、正方形領域であって、その一辺の長さが距離Lに略比例している。ここに略比例とは、量子化誤差が含まれることを意味している。   Each of the rectangular pixel areas is a square area, and the length of one side thereof is approximately proportional to the distance L. Here, “approximately proportional” means that a quantization error is included.

1フレーム内の全特徴点のそれぞれについて、ステップS1〜S5の処理を行うので、上記第2特徴点37と第1特徴点とを互いに入れ替えたものの局所特徴ベクトルも算出することになる。   Since all the feature points in one frame are processed in steps S1 to S5, the local feature vector of the above-described second feature point 37 and the first feature point is also calculated.

このようにして求めた局所特徴ベクトルは、カメラ31の光軸及び位置を一定にし、光軸の回りにカメラ31を回転させても不変であり、かつ、この光軸方向へカメラ31をスライドさせても不変である。すなわち、この局所特徴ベクトルは、スケール不変性及び回転不変性を持っている。   The local feature vector thus obtained is constant even if the optical axis and position of the camera 31 are fixed and the camera 31 is rotated around the optical axis, and the camera 31 is slid in this optical axis direction. But it is unchanged. That is, this local feature vector has scale invariance and rotation invariance.

図6(A)〜(D)は何れも、第1特徴点を共通にする互いに異なる特徴点ペアを点で示す局所領域画像であり、(E)〜(H)はそれぞれ(A)〜(D)の特徴点ペアに関する局所特徴ベクトルの棒グラフによる成分表示図である。   6 (A) to 6 (D) are local region images that show different feature point pairs sharing the first feature point with dots, and (E) to (H) are (A) to (H), respectively. It is a component display figure by the bar graph of the local feature vector regarding the feature point pair of D).

上記の正規化前の局所特徴ベクトルVの第k成分をV[k]、輝度I(Pi)をR[i]、第1特徴点36の輝度をI1、計算開始位置の輝度配列要素をR[o](図5の場合、o=1)とし、16進数の前に0xを付加して表記すると、C言語の場合、ベクトルVの第1サンプリング円C1に関する成分を次のような簡単なループ処理で計算することができる。   The k-th component of the local feature vector V before normalization is V [k], the luminance I (Pi) is R [i], the luminance of the first feature point 36 is I1, and the luminance array element at the calculation start position is R [O] (in the case of FIG. 5, o = 1), and 0x is added before the hexadecimal number, in the case of C language, the component related to the first sampling circle C1 of the vector V is as follows. It can be calculated by loop processing.

for (i=0; i<16; i++) { V[i] = S[(i+o)&0x1f] − I1 };
ここに、&は論理積演算子である。一般に、剰余(mode)演算子を%、とすると、nが2の冪乗である場合、i=(j+o)%nはi=(j+o)&(n−1)で計算できるので、上記ループ処理のように、iの値を決定するためi=nであるか否かでジャンプする余分な条件ジャンプ命令を用いずに論理積演算子&を用いてインデックスiを高速計算できる。
for (i = 0; i <16; i ++) {V [i] = S [(i + o) & 0x1f] −I1};
Here, & is a logical product operator. In general, assuming that the mode operator is%, when n is a power of 2, i = (j + o)% n can be calculated by i = (j + o) & (n−1). As in the processing, the index i can be calculated at high speed using the AND operator & without using an extra conditional jump instruction that jumps depending on whether i = n or not in order to determine the value of i.

ベクトルVの第2サンプリング円C2に関する成分についても上記と同様である。
局所特徴ベクトルVは、各成分が輝度値の差であるので、照明の変化に影響されにくい。また、局所特徴ベクトルVのノルムが正規化されているので、さらに照明の変化に影響されにくい。さらに、局所特徴ベクトルVの各成分が画素領域の平均輝度値(後でベクトルVが正規化されるので、これは累積加算値でよい)を用いたものであるので、局所特徴ベクトルVのSN比を比較的大きくすることができる。
The components related to the second sampling circle C2 of the vector V are the same as described above.
The local feature vector V is not easily affected by changes in illumination because each component is a difference in luminance value. In addition, since the norm of the local feature vector V is normalized, it is less susceptible to changes in illumination. Further, since each component of the local feature vector V uses an average luminance value of the pixel area (the vector V is normalized later, this may be a cumulative addition value), so the SN of the local feature vector V The ratio can be made relatively large.

上記のような正規化された局所特徴ベクトルVは、以下のような実施例2で用いられる。   The normalized local feature vector V as described above is used in the following second embodiment.

図7は、実施例1の方法を用いた実施例2に係る画像処理装置の概略機能ブロック図である。この画像処理装置のハードウェア構成は、実施例1の図1に示すものと同一である。   FIG. 7 is a schematic functional block diagram of an image processing apparatus according to the second embodiment using the method according to the first embodiment. The hardware configuration of this image processing apparatus is the same as that shown in FIG.

図7中、角丸矩形のブロックMi及びバッファ領域M0〜M5は、図1の記憶装置23内のデータ領域の一部である。   In FIG. 7, rounded rectangular blocks Mi and buffer areas M0 to M5 are part of the data area in the storage device 23 of FIG.

主処理部40は、フレーム画像及びその輝度画像を画像処理するメインルーチンである。図8は、この主処理部40による処理を示す概略フローチャートであり、ステップS4i、S41、S43、S45〜S48でそれぞれ図7中のブロック4i、41、43、45〜48をサブルーチンとして呼び出して処理する。   The main processing unit 40 is a main routine that performs image processing on the frame image and its luminance image. FIG. 8 is a schematic flowchart showing processing by the main processing unit 40. In steps S4i, S41, S43, and S45 to S48, blocks 4i, 41, 43, and 45 to 48 in FIG. To do.

図7において、画像入力部4i、バッファ領域Mi、グレースケール化部41、バッファ領域M0、特徴点検出部43、2次元座標記憶部M1及び局所特徴ベクトル生成部45は、実施例1においても用いられる。すなわち、画像入力部4iは、オペレーティングシステムを介しカメラ31から、シャッターオン時のカラーフレーム画像G0(例えば640x480画素)を取得してバッファ領域Miに格納する。また、グレースケール化部41は、バッファ領域Mi内のフレーム画像G0を、グレースケール化して8ビット1チャンネルの輝度画像(フレーム画像)G1に変換しながら、これをバッファ領域M0に格納する。特徴点検出部43は、図2のステップS0と同じ処理を行って、各特徴点の2次元座標を取得し、2次元座標記憶部M1に格納する。局所特徴ベクトル生成部45は、2次元座標記憶部M1内の各特徴点に対し図2のステップS1〜S5の処理を行って局所特徴ベクトルを生成し、局所特徴ベクトル記憶部M3に追加する。   In FIG. 7, the image input unit 4i, the buffer region Mi, the gray scale unit 41, the buffer region M0, the feature point detection unit 43, the two-dimensional coordinate storage unit M1, and the local feature vector generation unit 45 are also used in the first embodiment. It is done. That is, the image input unit 4i acquires a color frame image G0 (for example, 640 × 480 pixels) when the shutter is turned on from the camera 31 via the operating system, and stores it in the buffer area Mi. Further, the gray scale conversion unit 41 converts the frame image G0 in the buffer area Mi into a gray scale and converts it into an 8-bit 1-channel luminance image (frame image) G1, and stores this in the buffer area M0. The feature point detection unit 43 performs the same process as step S0 in FIG. 2, acquires the two-dimensional coordinates of each feature point, and stores them in the two-dimensional coordinate storage unit M1. The local feature vector generation unit 45 performs the processing of steps S1 to S5 in FIG. 2 for each feature point in the two-dimensional coordinate storage unit M1, generates a local feature vector, and adds it to the local feature vector storage unit M3.

次に、参照データ記憶部M4には、予め、検索で用いられる参照データが格納されている。この参照データ記憶部M4は、参照データ作成部42、アフィン変換部44、局所領域画像記憶部M2及び局所特徴ベクトルを生成する上記の構成を用いて、以下のようにして生成される。   Next, reference data used in the search is stored in the reference data storage unit M4 in advance. The reference data storage unit M4 is generated as follows using the reference data generation unit 42, the affine transformation unit 44, the local region image storage unit M2, and the above-described configuration for generating local feature vectors.

すなわち、参照データ作成部42は、フレーム画像G1から、各ペア特徴点の図5に示すような第1サンプリング円C1及び第2サンプリング円C2を含む局所領域画像を切り出し、局所領域画像群G2として局所領域画像記憶部M2に追加し、局所特徴ベクトル生成部45での図2のステップS1〜S5の処理により、局所領域画像群G2の各ペア特徴点の局所特徴ベクトル(参照局所特徴ベクトル)を求め、参照データ記憶部M4に追加する。   That is, the reference data creation unit 42 cuts out a local region image including the first sampling circle C1 and the second sampling circle C2 as shown in FIG. 5 of each pair feature point from the frame image G1, and sets it as a local region image group G2. The local feature vector (reference local feature vector) of each pair feature point of the local region image group G2 is added to the local region image storage unit M2 and processed by the local feature vector generation unit 45 in steps S1 to S5 in FIG. Obtained and added to the reference data storage unit M4.

参照データ作成部42はまた、局所領域画像群G2のそれぞれの画像から、カメラの奥行き及び姿勢を変えたものに相当する複数の局所領域画像をアフィン変換で自動生成し、局所領域画像群G2に加えるとともに各局所領域画像について上記同様にして局所特徴ベクトルを求め、参照データ記憶部M4に追加する。   The reference data creation unit 42 also automatically generates a plurality of local area images corresponding to those obtained by changing the depth and orientation of the camera from the respective images of the local area image group G2 by affine transformation, and generates the local area image group G2. In addition, a local feature vector is obtained for each local region image in the same manner as described above and added to the reference data storage unit M4.

すなわち、アフィン変換部44を介し、局所領域画像群G2の各局所領域画像を、奥行きを変えずに光軸方向を変えることに相当する複数のマトリックスのそれぞれでアフィン変換して新たな局所領域画像群を生成し、これらを局所領域画像群G2に追加し、変換された各画像について局所特徴ベクトル生成部45を介し同様にして局所特長ベクトルを求め、参照データ記憶部M4に追加する。参照データ作成部42はさらに、局所領域画像群G2のそれぞれを、奥行きのみ長くすることに相当する複数のマトリックスのそれぞれでアフィン変換した画像群、すなわち、縮小した局所領域画像、例えば、幅及び高さをそれぞれ1/√2倍し、さらに1/√2倍し、さらに1/√2倍したそれぞれの局所領域画像群G3、G4及びG5を生成し、それぞれの局所領域画像について、局所特徴ベクトル生成部45を介し同様にして局所特長ベクトルを求め、参照データ記憶部M4に追加する。   That is, a new local region image is obtained by affine transforming each local region image of the local region image group G2 through each of a plurality of matrices corresponding to changing the optical axis direction without changing the depth via the affine transformation unit 44. A group is generated, these are added to the local region image group G2, and local feature vectors are similarly obtained for each converted image via the local feature vector generation unit 45, and added to the reference data storage unit M4. Further, the reference data creation unit 42 further affine-transforms each local region image group G2 with a plurality of matrices corresponding to lengthening only the depth, that is, reduced local region images, for example, width and height. Each local region image group G3, G4, and G5 is generated by multiplying the length by 1 / √2, further by 1 / √2, and further by 1 / √2, and for each local region image, a local feature vector is generated. Similarly, a local feature vector is obtained through the generation unit 45 and added to the reference data storage unit M4.

参照データ作成部42は、参照データ記憶部M4において、アフィン変換の有無に拘わらず同一のペア特徴点に関する局所特長ベクトルのそれぞれに同一のクラスID(CID)を対応付ける。すなわち、参照データ記憶部M4には、例えば図10(A)に示すように、1つのペア特徴点に対し異なる複数のカメラ視点のそれぞれの局所特徴ベクトル、例
えばV0101、V0102、V0103、・・・が同一クラスID、例えばCID01でクラス分けされている。
In the reference data storage unit M4, the reference data creation unit 42 associates the same class ID (CID) with each local feature vector related to the same pair feature point regardless of the presence or absence of affine transformation. That is, in the reference data storage unit M4, as shown in FIG. 10A, for example, local feature vectors of a plurality of different camera viewpoints for one pair feature point, for example, V0101, V0102, V0103,. Are classified by the same class ID, for example, CID01.

参照データ記憶部M4にはさらに、各CIDが属するフレーム画像ID(FID)が対応付けられている。例えば、CID01はFID01、FID12が対応付けられている。これは、FID01、FID12のそれぞれのフレーム画像にCID01が含まれていることを意味する。   The reference data storage unit M4 is further associated with a frame image ID (FID) to which each CID belongs. For example, FID01 and FID12 are associated with CID01. This means that CID01 is included in each frame image of FID01 and FID12.

参照データ記憶部M4にはまた、各FIDに対応付けられた上記情報、例えば関連する本の情報、看板の詳細情報又は商品情報などが含まれている。   The reference data storage unit M4 also includes the information associated with each FID, for example, related book information, detailed information on signboards, or product information.

マッチング部46は、決定木を局所特徴ベクトルの識別器(分類器)として備えている。識別器は、局所特徴ベクトルVを入力としクラスIDを出力とする。決定木として、本実施例では、複数のツリーを用いたランダムフォレスト(Random Forest)を用いる。その理由は、使用時に高速動作すること、マルチクラス識別器であること、識別精度が比較的高いこと、識別精度とメモリ使用量がトレードオフになるがそのパラメータがほぼツリーの数で調整できること(ツリーが少数(多数)だと識別精度が低い(高い)がメモリ使用量が小(大))である。   The matching unit 46 includes a decision tree as a local feature vector classifier (classifier). The classifier receives the local feature vector V as an input and outputs a class ID. In this embodiment, a random forest (Random Forest) using a plurality of trees is used as the decision tree. The reason for this is that it operates at high speed during use, is a multi-class classifier, has a relatively high classification accuracy, and there is a trade-off between identification accuracy and memory usage, but its parameters can be adjusted by the number of trees ( If the tree is small (many), the identification accuracy is low (high) but the memory usage is small (large).

局所特徴ベクトルの各成分を2値化しないのは、決定木を用いることにより、2値化とは無関係にマッチングを高速に行うことができることと、2値化による局所特徴ベクトルの識別力低下を避けるためである。   The reason why each component of the local feature vector is not binarized is that the decision tree is used so that matching can be performed at high speed irrespective of binarization and the discriminating power of the local feature vector is reduced by binarization. This is to avoid it.

マッチング部46は、ランダムフォレスト識別器を学習しておく。すなわち、参照データ記憶部M4内の局所特徴ベクトルの全集合から、クラスIDが同一であるか否かを考慮せずにランダムに複数の部分集合(各部分集合の要素数は互いに同一)を決め、図10(B)に示すように部分集合をツリーの分岐ノードで分割する分割関数f(V)と分割の境界を定める閾値tとをランダムに決定し、情報利得が最大になるように学習して分割関数f(V)のパラメータと閾値tとを更新し、また、各ツリーの各リーフノードに、クラスID毎の確率Prを対応付けておく(リーフノードに対応付けられていないIDはその確率が0)。   The matching unit 46 learns a random forest classifier. That is, a plurality of subsets (the number of elements of each subset is the same as each other) is randomly determined from the entire set of local feature vectors in the reference data storage unit M4 without considering whether or not the class ID is the same. As shown in FIG. 10B, a division function f (V) for dividing the subset at the branch nodes of the tree and a threshold value t for determining the division boundary are randomly determined, and learning is performed so that the information gain is maximized. Then, the parameter of the division function f (V) and the threshold value t are updated, and the probability Pr for each class ID is associated with each leaf node of each tree (IDs not associated with leaf nodes are The probability is 0).

マッチング部46は、各局所特徴ベクトルVについて、ランダムフォレストの各ツリーを辿って、リーフノードでクラスID毎の確率を取得し、全ツリーでのクラスID毎の確率の総和が最大になるIDを、ランダムフォレスト識別器の出力とする。   The matching unit 46 traces each tree of the random forest for each local feature vector V, obtains the probability for each class ID at the leaf nodes, and determines the ID that maximizes the sum of the probabilities for each class ID in all trees. The output of the random forest classifier.

すなわち、マッチング部46は、局所特徴ベクトル記憶部M3内の各局所特徴ベクトルVに対し、図9に示すようなステップS10〜S15の処理を行って局所特徴ベクトルVのクラスIDを推定する。   That is, the matching unit 46 performs the processing of steps S10 to S15 as shown in FIG. 9 on each local feature vector V in the local feature vector storage unit M3 to estimate the class ID of the local feature vector V.

(S10)横軸をクラスIDとし、縦軸を頻度(正確には確率値の累積加算値)とする空のヒストグラムをフレーム画像IDヒストグラム記憶部M5に生成する。以下、ランダムフォレストの各ツリーについて、ステップS11〜S14の処理を行う。   (S10) An empty histogram having the horizontal axis as the class ID and the vertical axis as the frequency (more accurately, the cumulative addition value of the probability values) is generated in the frame image ID histogram storage unit M5. Thereafter, the processes in steps S11 to S14 are performed for each tree in the random forest.

(S12)局所特徴ベクトルVに対し、ツリーを上から下へ辿り、その際、ツリーの各ノードにおいて、局所特徴ベクトルVの対応する成分と、その閾値tと、分割関数f(V)とに基づいて、どちらの子ノードへ分岐するかを決定し、リーフノードで得られるクラスIDの確率分布から、確率値が大きい順の、例えば3つのクラスIDを決定する。   (S12) The tree is traced from top to bottom with respect to the local feature vector V. At this time, at each node of the tree, the corresponding component of the local feature vector V, its threshold value t, and the division function f (V) Based on this, it is determined to which child node to branch, and from the probability distribution of class IDs obtained at the leaf nodes, for example, three class IDs in descending order of probability values are determined.

(S13)これらの3つのクラスIDの確率値を、ステップS10のヒストグラムに追
加する。
(S13) The probability values of these three class IDs are added to the histogram of step S10.

(S15)ヒストグラム上の最頻値を、この局所特徴ベクトルVの特徴点のクラスIDと推定する(図10(B)参照)。   (S15) The mode value on the histogram is estimated as the class ID of the feature point of the local feature vector V (see FIG. 10B).

(S16)マッチング部46は、推定したクラスID(CID)に対応するフレーム画像ID(FID)、例えば図10(A)の左側のクラスIDであるID01に対応したFID01及びFID12を、参照データ記憶部M4から取得し、フレーム画像IDヒストグラム記憶部M5内のフレーム画像IDで識別されるカウンタを1だけインクリメントする。   (S16) The matching unit 46 stores the frame image ID (FID) corresponding to the estimated class ID (CID), for example, FID01 and FID12 corresponding to ID01 which is the class ID on the left side of FIG. The counter acquired from the part M4 and identified by the frame image ID in the frame image ID histogram storage part M5 is incremented by one.

マッチング部46が局所特徴ベクトル記憶部M3内の各局所特徴ベクトルVに対し図9の処理を行った後、フレーム画像ID推定部47は、フレーム画像IDヒストグラム記憶部M5内のカウンタ値が最大のフレーム画像IDを、バッファ領域Mi内のフレーム画像のIDと推定する。   After the matching unit 46 performs the processing of FIG. 9 on each local feature vector V in the local feature vector storage unit M3, the frame image ID estimation unit 47 sets the counter value in the frame image ID histogram storage unit M5 to the maximum. The frame image ID is estimated as the ID of the frame image in the buffer area Mi.

フレーム画像IDの情報出力部48は、このフレーム画像IDに対応した情報を参照データ記憶部M4から取り出して、表示装置32に出力する。   The frame image ID information output unit 48 extracts information corresponding to the frame image ID from the reference data storage unit M4 and outputs the information to the display device 32.

次に、マッチング部46による処理の試験結果を説明する。   Next, test results of processing by the matching unit 46 will be described.

図11〜図14はいずれも、白鳥の写真と「Swan」の文字列とを含む印刷物の入力画像に対し図7の処理を行いその途中結果を可視化したものを含む図であって、図11は、該入力画像と該画像から抽出された特徴点ペアと、各ペアの特徴点間を接続した直線とを示す可視化画像の図であり、図12〜図14はいずれも、参照画像上の特徴点と図11中の入力画像上の特徴点とをマッチング部46でマッチングさせ、マッチングした特徴点間を直線で接続した図であり、図12は該参照画像が該入力画像を縮小し回転したものに相当し、図13は該参照画像が該入力画像を縮小し回転し射影変換したものに相当し、図14は該参照画像が該入力画像を回転し図12の場合よりも縮小したものに相当する図である。ここに参照画像は、この画像から上記参照データが得られる画像である。   FIGS. 11 to 14 are diagrams including images obtained by performing the processing in FIG. 7 on the input image of the printed matter including the swan photograph and the character string “Swan”, and visualizing the result. FIG. 12 is a view of a visualized image showing the input image, feature point pairs extracted from the image, and straight lines connecting the feature points of each pair. FIGS. 12 to 14 are all on the reference image. The feature points and the feature points on the input image in FIG. 11 are matched by the matching unit 46, and the matched feature points are connected by a straight line. FIG. 12 is a diagram in which the reference image reduces and rotates the input image. FIG. 13 corresponds to the reference image obtained by reducing and rotating the input image and performing projection conversion, and FIG. 14 is obtained by rotating the input image and reducing the reference image as compared with the case of FIG. It is a figure equivalent to a thing. Here, the reference image is an image from which the reference data is obtained.

図12及び図13の参照画像上の特徴点ペアはいずれも137対であり、このうち、図12では111対(81%)がマッチングに成功し、図13では93対(68%)がマッチングに成功した。図14の参照画像上の特徴点ペアは36対であり、このうち29対(80%)がマッチングに成功した。   There are 137 pairs of feature points on the reference images in FIGS. 12 and 13, among which 111 pairs (81%) succeeded in matching in FIG. 12, and 93 pairs (68%) matched in FIG. succeeded in. The number of feature point pairs on the reference image in FIG. 14 is 36, of which 29 pairs (80%) succeeded in matching.

以上において、本発明の好適な実施例を説明したが、本発明には他にも種々の変形例が含まれ、上記各構成要素の機能を実現する他の構成を用いたもの、当業者であればこれらの構成又は機能から想到するであろう他の構成も、本発明に含まれる。   In the above, preferred embodiments of the present invention have been described. However, the present invention includes various other modifications, and those using other configurations for realizing the functions of the above-described components can be used by those skilled in the art. Other configurations that would come from these configurations or functions, if any, are also included in the present invention.

例えば、マッチング部46で用いる識別器は、高速かつある程度以上マッチング精度が得られるものであればよく、ランダムフォレスト識別器に限定されず、バギングやブースティングなどのアンサンブル学習アルゴリズムを用いたものや単一の決定木を用いた識別器であってもよい。   For example, the discriminator used in the matching unit 46 is not limited to a random forest discriminator as long as the matching accuracy can be obtained at a high speed to a certain degree, and is not limited to a random forest discriminator, or an ensemble learning algorithm such as bagging or boosting. It may be a discriminator using one decision tree.

また、参照データ記憶部M4は、アプリケーション起動後に上記のような参照データを参照データ作成部42で自動生成する構成であってもよい。   Further, the reference data storage unit M4 may be configured to automatically generate the reference data as described above by the reference data creation unit 42 after the application is started.

さらに、本発明は、拡張現実(AR)表示装置などにも適用することができる。   Furthermore, the present invention can be applied to an augmented reality (AR) display device or the like.

10 画像処理装置
20 本体部
21 プロセッサ
22 バス
23 記憶装置
24 入力インターフェイス
25 カメラインターフェイス
26 ディスプレインターフェイス
27 通信部
30 入力装置
31 カメラ
32 表示装置
33 アンテナ
4i 画像入力部
40 主処理部
41 グレースケール化部
42 参照データ作成部
43 特徴点検出部
44 アフィン変換部
45 局所特徴ベクトル生成部
46 マッチング部
47 フレーム画像ID推定部
48 フレーム画像IDの情報出力部
340、350,36 第1特徴点
341〜344、351、37 第2特徴点
352、C1 第1サンプリング円
353、C2 第2サンプリング円
P0〜Pf、Q0〜Qf 領域
Mi、M0 バッファ領域
M1 2次元座標記憶部
M2 局所領域画像記憶部
M3 局所特徴ベクトル記憶部
M4 参照データ記憶部
M5 フレーム画像IDヒストグラム記憶部
DESCRIPTION OF SYMBOLS 10 Image processing apparatus 20 Main body part 21 Processor 22 Bus | bath 23 Memory | storage device 24 Input interface 25 Camera interface 26 Display interface 27 Communication part 30 Input device 31 Camera 32 Display apparatus 33 Antenna 4i Image input part 40 Main processing part 41 Gray scale part 42 Reference data creation unit 43 Feature point detection unit 44 Affine transformation unit 45 Local feature vector generation unit 46 Matching unit 47 Frame image ID estimation unit 48 Frame image ID information output unit 340, 350, 36 First feature points 341-344, 351 37 Second feature point 352, C1 First sampling circle 353, C2 Second sampling circle P0-Pf, Q0-Qf Region Mi, M0 Buffer region M1 Two-dimensional coordinate storage unit M2 Local region image storage unit M3 Local Symptoms vector storage unit M4 reference data storage section M5 frame image ID histogram storage unit

Claims (7)

プロセッサと、データ及びプログラムが格納される記憶装置とを備え、該データは濃淡画像を含み、該プログラムは該プロセッサに対し該データに含まれる複数の局所特徴量を生成させる特徴ベクトル生成プログラムを含む画像処理装置において、
該特徴ベクトル生成プログラムは該プロセッサに対し、
(a)該濃淡画像に対しコーナポイントである特徴点の座標を検出させ、
(b)検出された各特徴点である第1特徴点から近い順の所定数の第2特徴点のそれぞれと該第1特徴点とのペア特徴点を選択させ、
(c)各ペア特徴点について、該第1特徴点と該第2特徴点との間の距離Lを求めさせ、
(d)該第1特徴点を中心とし該距離Lに比例した第1半径の円周上の画素のうち等画素間隔のn個(n≧4)の画素のそれぞれを含む画素領域Pi、i=0〜n−1の平均第1輝度I(Pi)を、該距離Lの線方向を基準として所定順にサンプリングさせ、それぞれと該第1特徴点を含む画素領域の輝度との差と、
該第2特徴点を中心とし該距離Lに比例した第2半径の円周上の画素のうち等画素間隔のm個(m≧4)の画素のそれぞれを含む画素領域Qi、i=0〜m−1の平均第2輝度I(Qj)を、該距離Lの線方向を基準として所定順にサンプリングさせ、それぞれと該第2特徴点を含む画素領域の輝度との差と、
を成分とする、正規化された局所特徴ベクトルを求めさせ、
該画素領域の画素数の平方根は該距離Lに略比例していることを特徴とする画像処理装置。
A processor and a storage device in which the data and the program are stored, wherein the data includes a grayscale image, and the program includes a feature vector generation program causing the processor to generate a plurality of local feature amounts included in the data In the image processing apparatus,
The feature vector generation program provides the processor with
(A) detecting the coordinates of feature points that are corner points in the grayscale image;
(B) selecting a pair feature point of each of a predetermined number of second feature points in order closer to the first feature point which is each detected feature point and the first feature point;
(C) For each pair feature point, the distance L between the first feature point and the second feature point is obtained,
(D) Pixel regions Pi, i each including n pixels (n ≧ 4) at equal pixel intervals among the pixels on the circumference of the first radius proportional to the distance L with the first feature point as the center. The average first luminance I (Pi) of = 0 to n−1 is sampled in a predetermined order with respect to the line direction of the distance L, and the difference between each and the luminance of the pixel region including the first feature point;
A pixel region Qi, i = 0 to 0 including each of m pixels (m ≧ 4) at equal pixel intervals among the pixels on the circumference of the second radius that is centered on the second feature point and proportional to the distance L The average second luminance I (Qj) of m−1 is sampled in a predetermined order with respect to the line direction of the distance L, and the difference between each and the luminance of the pixel region including the second feature point;
To obtain a normalized local feature vector with
An image processing apparatus, wherein the square root of the number of pixels in the pixel region is substantially proportional to the distance L.
m及びnはいずれも8、16又は32であることを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein each of m and n is 8, 16 or 32. カメラをさらに備え、
該濃淡画像は、該カメラで撮像されたフレーム画像をグレースケール化した画像であることを特徴とする請求項1又は2に記載の画像処理装置。
A camera,
The image processing apparatus according to claim 1, wherein the grayscale image is an image obtained by converting a frame image captured by the camera into a gray scale.
該データはさらに、各参照濃淡画像について、該特徴ベクトル生成プログラムで生成した局所特徴ベクトルを参照局所特徴ベクトルとしてクラスIDと対応付けたものと該参照濃淡画像に関する情報とを含み、該プログラムはさらに画像検索プログラムを含み、
該画像検索プログラムは、該プロセッサに対し、
(e)検索濃淡画像に対しステップ(d)で求めた各局所特徴ベクトルについて、該局所特徴ベクトルに対応する、該参照データ内のクラスIDを、該局所特徴ベクトルと該参照データ内の参照局所特徴ベクトルとのマッチングにより決定させ、該クラスIDが属する参照濃淡画像のカウンタをインクリメントさせ、
(f)カウンタ値が最大の参照濃淡画像に関する、該参照データ内の情報を、該検索濃淡画像の情報として出力させる、
ことを特徴とする請求項1乃至3のいずれか1つに記載の画像処理装置。
The data further includes, for each reference gray image, a local feature vector generated by the feature vector generation program associated with a class ID as a reference local feature vector and information on the reference gray image, Including an image search program,
The image search program provides the processor with
(E) For each local feature vector obtained in step (d) for the search grayscale image, the class ID in the reference data corresponding to the local feature vector is set as the local feature vector and the reference local in the reference data. A decision is made by matching with a feature vector, the counter of the reference gray image to which the class ID belongs is incremented,
(F) Information in the reference data regarding the reference grayscale image having the maximum counter value is output as information of the search grayscale image.
The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus.
該画像検索プログラムは、該プロセッサに対し、ステップ(e)において、局所特徴ベクトルを入力としクラスIDを出力とする識別器により、該クラスIDを決定させる、
ことを特徴とする請求項4に記載の画像処理装置。
The image search program causes the processor to determine the class ID in a step (e) by a discriminator having a local feature vector as an input and a class ID as an output.
The image processing apparatus according to claim 4.
拡張現実表示装置であることを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the image processing apparatus is an augmented reality display device. 請求項1乃至6のいずれか1つに記載の画像処理装置を構成するプログラム。   The program which comprises the image processing apparatus as described in any one of Claims 1 thru | or 6.
JP2013112323A 2012-12-14 2013-05-28 Image processing apparatus and program thereof Active JP5500404B1 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2013112323A JP5500404B1 (en) 2013-05-28 2013-05-28 Image processing apparatus and program thereof
PCT/JP2013/083531 WO2014092193A1 (en) 2012-12-14 2013-12-13 Image processing device, image processing method, image processing program, program, and mobile terminal device with camera
JP2014552105A JP6332865B2 (en) 2013-05-28 2013-12-13 Image processing device, image processing method, image processing program, program, and mobile terminal device with camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013112323A JP5500404B1 (en) 2013-05-28 2013-05-28 Image processing apparatus and program thereof

Publications (2)

Publication Number Publication Date
JP5500404B1 true JP5500404B1 (en) 2014-05-21
JP2015026093A JP2015026093A (en) 2015-02-05

Family

ID=50941745

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013112323A Active JP5500404B1 (en) 2012-12-14 2013-05-28 Image processing apparatus and program thereof

Country Status (1)

Country Link
JP (1) JP5500404B1 (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651878A (en) * 2016-12-21 2017-05-10 福建师范大学 Method for extracting straight line from local invariant feature points
CN108846403A (en) * 2018-06-04 2018-11-20 襄阳爱默思智能检测装备有限公司 A kind of facet jewel image characteristic extracting method
CN111369531A (en) * 2020-03-04 2020-07-03 浙江大华技术股份有限公司 Image definition grading method, equipment and storage device

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2572624B (en) 2018-04-05 2020-12-16 Imagination Tech Ltd Descriptor generation

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086926A (en) * 2007-09-28 2009-04-23 Kddi Corp Image recognition method and device
JP2011008687A (en) * 2009-06-29 2011-01-13 Sharp Corp Image processor

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009086926A (en) * 2007-09-28 2009-04-23 Kddi Corp Image recognition method and device
JP2011008687A (en) * 2009-06-29 2011-01-13 Sharp Corp Image processor

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN106651878A (en) * 2016-12-21 2017-05-10 福建师范大学 Method for extracting straight line from local invariant feature points
CN106651878B (en) * 2016-12-21 2019-06-11 福建师范大学 A method of for extracting straight line from local invariant feature point
CN108846403A (en) * 2018-06-04 2018-11-20 襄阳爱默思智能检测装备有限公司 A kind of facet jewel image characteristic extracting method
CN108846403B (en) * 2018-06-04 2023-04-07 武汉恒宇科教仪器设备研发有限公司 Method for extracting facet gem image features
CN111369531A (en) * 2020-03-04 2020-07-03 浙江大华技术股份有限公司 Image definition grading method, equipment and storage device
CN111369531B (en) * 2020-03-04 2023-09-01 浙江大华技术股份有限公司 Image definition scoring method, device and storage device

Also Published As

Publication number Publication date
JP2015026093A (en) 2015-02-05

Similar Documents

Publication Publication Date Title
US9934591B2 (en) Remote determination of quantity stored in containers in geographical region
Martinel et al. Kernelized saliency-based person re-identification through multiple metric learning
US8538164B2 (en) Image patch descriptors
WO2014092193A1 (en) Image processing device, image processing method, image processing program, program, and mobile terminal device with camera
US20140226906A1 (en) Image matching method and apparatus
US9626552B2 (en) Calculating facial image similarity
CN108875487B (en) Training of pedestrian re-recognition network and pedestrian re-recognition based on training
US9524432B1 (en) Fast interest point extraction for augmented reality
JP5361524B2 (en) Pattern recognition system and pattern recognition method
JP6997369B2 (en) Programs, ranging methods, and ranging devices
EP4085369A1 (en) Forgery detection of face image
JP5500400B1 (en) Image processing apparatus, image processing method, and image processing program
JP5500404B1 (en) Image processing apparatus and program thereof
CN110807110A (en) Image searching method and device combining local and global features and electronic equipment
US9830530B2 (en) High speed searching method for large-scale image databases
JP6332865B2 (en) Image processing device, image processing method, image processing program, program, and mobile terminal device with camera
US9189693B2 (en) Information processing apparatus and information processing method
Kolmakov et al. Machine-readable zones detection in images captured by mobile devices’ cameras
Essa et al. High order volumetric directional pattern for video-based face recognition
JP6218237B2 (en) Image conversion program, apparatus and method for parallelizing photographed image
Zhang et al. Augmented visual feature modeling for matching in low-visibility based on cycle-labeling of Superpixel Flow
JP6717769B2 (en) Information processing device and program
JP2015170205A (en) Feature amount generation device, feature amount generation method, and program
Arsirii et al. Architectural objects recognition technique in augmented reality technologies based on creating a specialized markers base
Zhang et al. Feature weighting in visual product recognition

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20130917

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20130930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131030

TRDD Decision of grant or rejection written
A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20131122

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20131217

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20131219

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20140226

R150 Certificate of patent or registration of utility model

Ref document number: 5500404

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250