JPWO2014061221A1 - Image partial region extraction apparatus, image partial region extraction method, and image partial region extraction program - Google Patents

Image partial region extraction apparatus, image partial region extraction method, and image partial region extraction program Download PDF

Info

Publication number
JPWO2014061221A1
JPWO2014061221A1 JP2014541924A JP2014541924A JPWO2014061221A1 JP WO2014061221 A1 JPWO2014061221 A1 JP WO2014061221A1 JP 2014541924 A JP2014541924 A JP 2014541924A JP 2014541924 A JP2014541924 A JP 2014541924A JP WO2014061221 A1 JPWO2014061221 A1 JP WO2014061221A1
Authority
JP
Japan
Prior art keywords
image
feature point
feature
search
registered image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014541924A
Other languages
Japanese (ja)
Inventor
達勇 秋山
達勇 秋山
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NEC Corp
Original Assignee
NEC Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NEC Corp filed Critical NEC Corp
Publication of JPWO2014061221A1 publication Critical patent/JPWO2014061221A1/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features

Abstract

特徴量記憶部81は、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた、その注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な登録画像特徴量を記憶する。対応特徴点検出部82は、検索画像中の注目する特徴点ごとに特徴点配置に基づいて算出される幾何学的変換に不変な検索画像特徴量と、登録画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する。対応領域判定部83は、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する。The feature amount storage unit 81 calculates based on a feature point arrangement, which is a set of feature points existing in the vicinity of the feature point of interest, ordered based on a predetermined rule for each feature point of interest of the registered image. The registered image feature quantity that is invariant to the geometric transformation is stored. The corresponding feature point detection unit 82 compares the degree of coincidence between the search image feature amount that is invariant to the geometric transformation calculated based on the feature point arrangement for each feature point of interest in the search image and the registered image feature amount. Then, corresponding feature points that are feature points included in the feature point arrangement in the registered image and corresponding to feature points included in the feature point arrangement in the search image are detected. The corresponding area determination unit 83 extracts a partial area in the registered image specified by the corresponding feature point having a higher degree of matching with the feature point in the search image among the corresponding feature points.

Description

本発明は、検索対象の画像に対応する画像の部分領域を登録画像から抽出する画像部分領域抽出装置、画像部分領域抽出方法および画像部分領域抽出用プログラムに関する。   The present invention relates to an image partial region extraction apparatus, an image partial region extraction method, and an image partial region extraction program for extracting a partial region of an image corresponding to an image to be searched from a registered image.

特許文献1には、蓄積画像群から類似した部分画像を検出する部分画像検索システムが記載されている。特許文献1に記載された部分画像検索システムは、累積特徴抽出部と、蓄積部分領域特徴抽出部と、索引付与部と、目的特徴抽出部と、目的部分領域特徴抽出部と、索引検索部と、特徴照合部と、照合結果判定部と、特徴再照合部と、照合結果再判定部と、検索結果候補選択部と、次目的部分領域特徴選択部と、次検索候補特徴選定部とから構成されている。   Patent Document 1 describes a partial image search system that detects similar partial images from a stored image group. The partial image search system described in Patent Literature 1 includes an accumulated feature extraction unit, an accumulated partial region feature extraction unit, an indexing unit, a target feature extraction unit, a target partial region feature extraction unit, an index search unit, A feature matching unit, a matching result determination unit, a feature re-matching unit, a matching result redetermination unit, a search result candidate selection unit, a next target partial region feature selection unit, and a next search candidate feature selection unit Has been.

特許文献1に記載された部分画像検索システムは、以下のステップS1からステップS15までの動作を行う。   The partial image search system described in Patent Literature 1 performs the following operations from Step S1 to Step S15.

(ステップS1)まず、累積特徴抽出部は、蓄積画像を読み込む。   (Step S1) First, the accumulated feature extraction unit reads an accumulated image.

(ステップS2)次に、累積特徴抽出部は、入力された蓄積画像群の各画像から、画像の特徴である蓄積特徴を抽出する。   (Step S2) Next, the cumulative feature extraction unit extracts a stored feature that is a feature of the image from each image of the input stored image group.

(ステップS3)次に、蓄積部分領域特徴抽出部は、蓄積特徴の集合を読み込み、蓄積画像のある1つの箇所に、予め定められた所定の大きさの第1注目窓を設定する。そして、蓄積部分領域特徴抽出部は、設定された第1注目窓内に含まれる部分領域の画像の特徴(蓄積部分領域特徴)を抽出する。なお、第1注目窓は、各蓄積画像内において、予め定められた所定の間隔により複数設定され、各注目窓内の部分領域から蓄積部分領域特徴を抽出する。   (Step S3) Next, the storage partial region feature extraction unit reads a set of storage features, and sets a first target window of a predetermined size at a certain location in the stored image. Then, the storage partial region feature extraction unit extracts image characteristics (storage partial region features) of the partial region included in the set first target window. A plurality of first attention windows are set at predetermined intervals in each accumulated image, and the accumulated partial area features are extracted from the partial areas in each attention window.

(ステップS4)次に、索引付与部は、蓄積部分領域特徴の集合を読み込み、各蓄積部分領域特徴のクラスタリングを行う。そして、索引付与部は、索引として、各部分領域特徴に対応する、ベクトル量子化の符号語を出力する。   (Step S4) Next, the index assigning unit reads a set of accumulated partial area features and performs clustering of each accumulated partial area feature. Then, the index assigning unit outputs a vector quantization code word corresponding to each partial region feature as an index.

(ステップS5)次に、目的特徴抽出部は、目的画像を読み込む。この目的画像の大きさは、例えば、マージンと第1注目窓の大ききとの和(合計)以上に設定される。   (Step S5) Next, the target feature extraction unit reads the target image. For example, the size of the target image is set to be equal to or greater than the sum (total) of the margin and the size of the first window of interest.

(ステップS6)次に、目的特徴抽出部は、目的画像から特徴の抽出を、上記蓄積特徴抽出部と同様の手法で行い、目的画像から抽出された特徴(目的特徴)の集合を出力する。   (Step S6) Next, the target feature extraction unit performs feature extraction from the target image by the same method as the above-described accumulated feature extraction unit, and outputs a set of features (target features) extracted from the target image.

(ステップS7)次に、目的部分領域特徴抽出部は、目的特徴抽出部が抽出した目的特徴の集合を読み込み、この目的画像のある1つの箇所に、蓄積部分領域特徴抽出部で用いた注目窓と同様の大きさ(縦×横)の注目窓(すなわち、第1注目窓)を用い、この第1注目窓内に含まれる画像の特徴(目的部分領域特徴)を抽出する。また、目的部分領域特徴抽出部は、上記蓄積部分領域特徴抽出部と同様の抽出方法を用いて、画像の特徴を抽出して、抽出結果を目的部分領域特徴の集合として出力する。   (Step S7) Next, the target partial region feature extraction unit reads a set of target features extracted by the target feature extraction unit, and uses the target window used by the storage partial region feature extraction unit at one location of the target image. A feature window (ie, first feature window) having the same size (vertical x landscape) is extracted, and image features (target partial region features) included in the first feature window are extracted. The target partial region feature extraction unit extracts image features using the same extraction method as the storage partial region feature extraction unit, and outputs the extraction result as a set of target partial region features.

ここで、目的部分領域特徴抽出部は、蓄積部分領域特徴抽出部における特徴抽出の場合と異なり、第1注目窓を、目的画像内に重複することもなく、かつ隙間もない状態に設定し、それらを1 ピクセルずつずらしながら、各位置において目的部分領域特徴の抽出を行う。   Here, unlike the case of the feature extraction in the storage partial region feature extraction unit, the target partial region feature extraction unit sets the first target window so that it does not overlap in the target image and there is no gap, The target partial region features are extracted at each position while shifting them one pixel at a time.

(ステップS8)次に、索引検索部は、索引付与部から出力される索引と、目的部分領域特徴抽出部から出力される目的部分領域特徴の集合とを読み込み、読み込んだ索引を用いて、目的部分領域特徴の集合に類似する蓄積部分領域特徴を、検索候補特徴として抽出する。   (Step S8) Next, the index search unit reads the index output from the index assigning unit and the set of target partial region features output from the target partial region feature extraction unit, and uses the read index to Accumulated partial region features similar to the set of partial region features are extracted as search candidate features.

(ステップS9)次に、特徴照合部は、目的部分領域特徴の集合と検索候補特徴の集合とを読み込み、両集合の照合を行う。このとき、特徴照合部は、照合計算(検索候補特徴と目的部分領域特徴との間の距離の演算)の結果として、照合した検索候補特徴と目的部分領域特徴との距離値d(ω)を出力する。   (Step S9) Next, the feature matching unit reads the set of target partial region features and the set of search candidate features, and matches both sets. At this time, the feature matching unit obtains the distance value d (ω) between the matched search candidate feature and the target partial region feature as a result of the matching calculation (calculation of the distance between the search candidate feature and the target partial region feature). Output.

(ステップS10)次に、照合結果判定部は、距離値d(ω)を読み込み、目的画像と類似する部分画像が、現在の照合箇所に存在する可能性があるか否かを判定する。照合結果判定部は、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があると判定した場合、蓄積部分領域特徴を照合箇所として出力する。一方、目的画像と類似する部分画像が現在の照合箇所に存在する可能性がないと判定した場合、以下に示すステップS14の処理が行われる。   (Step S10) Next, the collation result determination unit reads the distance value d (ω) and determines whether there is a possibility that a partial image similar to the target image exists in the current collation location. When it is determined that there is a possibility that a partial image similar to the target image exists at the current collation location, the collation result determination unit outputs the accumulated partial region feature as the collation location. On the other hand, if it is determined that there is no possibility that a partial image similar to the target image exists at the current collation location, the process of step S14 shown below is performed.

(ステップS11)次に、特徴再照合部は、蓄積特徴の集合と目的特徴の集合と照合箇所とを読み込み、読み込んだ蓄積特徴に、目的画像と同じ大きさ(縦×横)の注目窓である第2注目窓を設定する。そして、特徴再照合部は、第2注目窓内の蓄積特徴と目的特徴との距離値dを出力する。   (Step S11) Next, the feature re-collation unit reads a set of accumulated features, a set of target features, and a matching portion, and uses the attention window having the same size (vertical x horizontal) as the target image to the read accumulated features. A certain second attention window is set. Then, the feature re-collation unit outputs a distance value d between the accumulated feature in the second window of interest and the target feature.

(ステップS12)次に、照合結果再判定部は、距離値dを読み込み、目的画像と類似する部分画像が現在の照合箇所に存在する可能性があるか否か判定する。照合結果再判定部は、目的画像と類似する部分画像が現在の照合箇所に存在すると判定した場合、蓄積画像における照合箇所を検出箇所として、この検出箇所の位置及び判定結果を出力する。一方、目的画像と類似する部分画像が現在の照合箇所に存在しないと判定した場合、以下に示すステップS14の処理が行われる。   (Step S12) Next, the collation result re-determination unit reads the distance value d and determines whether there is a possibility that a partial image similar to the target image exists in the current collation location. When it is determined that a partial image similar to the target image is present at the current collation location, the collation result re-determination unit outputs the position of the detection location and the determination result using the collation location in the accumulated image as a detection location. On the other hand, when it is determined that a partial image similar to the target image does not exist at the current collation location, the following processing in step S14 is performed.

(ステップS13)そして、検索結果候補選択部は、蓄積画像から検索結果候補を出力する。   (Step S13) Then, the search result candidate selection unit outputs a search result candidate from the stored image.

(ステップS14)次目的部分領域特徴選定部は、次に照合する目的部分領域特徴の有無の検出を行う。照合箇所がないことが検出されると、以下に示すステップS15の処理が行われる。一方、照合箇所があることが検出されると、次に照合する目的部分領域特徴が選択され、ステップS9以降の処理が行われる。   (Step S14) The next target partial region feature selection unit detects the presence or absence of the target partial region feature to be checked next. When it is detected that there is no collation part, the process of step S15 shown below is performed. On the other hand, when it is detected that there is a collation part, the target partial region feature to be collated next is selected, and the processes after step S9 are performed.

(ステップS15)次検索候補特徴選定部は、検索候補特徴の集合を読み込み、次に照合すべき検索候補特徴を選択する。次検索候補特徴選定部は、照合する検索候補特徴がない場合、処理を終了し、照合する検索候補特徴がある場合、次に照合すべき検索候補特徴を選択する。その後、ステップS9以降の処理が行われる。   (Step S15) The next search candidate feature selection unit reads a set of search candidate features and selects a search candidate feature to be collated next. The next search candidate feature selection unit terminates the process when there is no search candidate feature to be collated, and when there is a search candidate feature to be collated, selects a search candidate feature to be collated next. Thereafter, the processing after step S9 is performed.

なお、特許文献2には、画像から特徴点を抽出する方法が記載されている。また、特許文献3には、二つの連結領域の面積比がアフィン変換に対する不変量として算出されることが記載されている。   Note that Patent Document 2 describes a method of extracting feature points from an image. Patent Document 3 describes that the area ratio of two connected regions is calculated as an invariant with respect to affine transformation.

また、特許文献4には、少なくとも2種類の媒体(例えば、第1媒体として印刷された用紙、第2媒体としてディジタルコンテンツ)を含む混合メディア書類を形成する混合メディア書類システムが記載されている。特許文献4に記載されたシステムは、インデックステーブルと共に構築されたコンテンツベースの検索データベースを含み、テキストベースのインデックスを用いてコンテンツを探索する。また、特許文献4に記載されたシステムでは、印刷書類から抽出されたオブジェクト間の2次元の幾何学的な位置関係がインデックステーブルに記憶され、書類の候補は、インデックステーブルから所与のデータを元に算出される。   Patent Document 4 describes a mixed media document system that forms a mixed media document including at least two types of media (for example, paper printed as a first medium and digital content as a second medium). The system described in Patent Document 4 includes a content-based search database constructed with an index table, and searches for content using a text-based index. In the system described in Patent Document 4, a two-dimensional geometric positional relationship between objects extracted from a printed document is stored in an index table, and a candidate for a document is obtained from a given data from the index table. Calculated based on the original.

また、特許文献5には、検索キー画像と類似の特徴を持つ領域を含む画像を検索する画像検索装置が記載されている。特許文献5に記載された画像検索装置は、登録画像中の複数の領域について特徴量を抽出し、抽出した特徴量と検索キー画像から抽出した特徴量とを比較して、検索キー画像と類似した領域を含む類似画像を検索する。   Further, Patent Document 5 describes an image search device that searches for an image including an area having characteristics similar to a search key image. The image search device described in Patent Document 5 extracts feature amounts for a plurality of regions in a registered image, compares the extracted feature amounts with the feature amounts extracted from the search key image, and is similar to the search key image A similar image including the selected area is searched.

また、特許文献6には、撮像されたデジタル画像の特徴点から計算された特徴量と、データベース中に登録された文書・画像の特徴点から求められた特徴量とを比較して、撮像されたデジタル画像に対応する文書・画像をデータベースから検索する方法が記載されている。   In Patent Document 6, a feature amount calculated from a feature point of a captured digital image is compared with a feature amount obtained from a feature point of a document / image registered in a database. Describes a method for retrieving a document / image corresponding to a digital image from a database.

特開2005−352990号公報(段落0015〜0061)JP 2005-352990 A (paragraphs 0015 to 0061) WO2010/053109号公報WO2010 / 053109 Publication WO2009/110410号公報(段落0070〜0074)WO2009 / 110410 (paragraphs 0070 to 0074) 特表2009−506394号公報Special table 2009-506394 gazette 特開2002−245048号公報JP 2002-245048 A WO2006/092957号公報WO 2006/092957

特許文献1に記載された部分画像検索システムでは、蓄積画像の解像度や撮影角度のバリエーションが大きい場合、部分領域を抽出するのが難しいという課題がある。また、特許文献1に記載された部分画像検索システムを用いて目的画像に相当する領域を蓄積画像から抽出する場合、検索対象の大きさや撮影角度などのバリエーションが大きい場合には、部分領域を抽出するのが難しいという課題がある。その理由は、検索対象の大きさや撮影角度のバリエーションがある検索画像に対して、部分画像の注目窓サイズを予め一定に定めておくことが難しいためである。   In the partial image search system described in Patent Document 1, there is a problem that it is difficult to extract a partial region when the resolution of the accumulated image and the variation in the shooting angle are large. In addition, when a region corresponding to a target image is extracted from an accumulated image using the partial image search system described in Patent Document 1, a partial region is extracted when there are large variations such as the size of a search target or a shooting angle. There is a problem that it is difficult to do. The reason for this is that it is difficult to set the target window size of the partial image constant in advance for a search image having variations in the size of the search target and the shooting angle.

また、特許文献5に記載された画像検索装置では、登録画像を分割した矩形ごとに特徴量を保持しているため、検索する画像の解像度および撮影角度が、登録されている画像の解像度および撮影角度と一致していないと、適切に検索できないという課題がある。   Further, in the image search device described in Patent Document 5, since the feature amount is held for each rectangle obtained by dividing the registered image, the resolution and shooting angle of the image to be searched are the resolution and shooting of the registered image. If the angle does not match, there is a problem that search cannot be performed properly.

また、特許文献6に記載された方法を用いた場合、データベースに登録された文書や画像を検索することはできても、その文書や画像の部分的な領域は検出できない。   Further, when the method described in Patent Document 6 is used, even if a document or image registered in the database can be searched, a partial region of the document or image cannot be detected.

そこで、本発明は、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できる画像部分領域抽出装置、画像部分領域抽出方法および画像部分領域抽出用プログラムを提供することを目的とする。   Therefore, the present invention provides an image partial region extraction device, an image partial region extraction method, and an image portion that can extract a partial region corresponding to the search image from the registered image even if a search image having a resolution or shooting angle different from that of the registered image is used. The object is to provide a region extraction program.

本発明による画像部分領域抽出装置は、検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出装置であって、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされたその注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される、幾何学的変換に不変な特徴量である登録画像特徴量を記憶する特徴量記憶部と、検索画像中の注目する特徴点ごとに特徴点配置に基づいて算出される、幾何学的変換に不変な特徴量である検索画像特徴量と、登録画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出部と、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定部とを備えたことを特徴とする。   An image partial region extraction device according to the present invention is an image partial region extraction device that extracts a partial region corresponding to a search image from a registered image, and is ordered based on a predetermined rule for each feature point of interest of the registered image. A feature amount storage unit for storing a registered image feature amount that is a feature amount that is invariant to geometric transformation, calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point of interest; The degree of coincidence between the search image feature amount, which is a feature amount invariant to geometric transformation, calculated based on the feature point arrangement for each feature point of interest in the search image, and the registered image feature amount A corresponding feature point detecting unit that detects a corresponding feature point that is a feature point included in the feature point arrangement in the registered image corresponding to a feature point included in the feature point arrangement in the search image, and among the corresponding feature points, A feature point in the search image Degree is characterized in that a corresponding area determining section for extracting a partial region in the registered image which is specified by a higher corresponding feature point.

本発明による画像部分領域抽出方法は、検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出方法であって、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされたその注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出し、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出することを特徴とする。   An image partial region extraction method according to the present invention is an image partial region extraction method for extracting a partial region corresponding to a search image from a registered image, and is ordered based on a predetermined rule for each feature point of interest of the registered image. In addition, a registered image feature quantity that is a feature quantity that is invariant to a geometric transformation calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point of interest, and a feature of interest in a search image Corresponding to the feature points included in the feature point arrangement in the search image by comparing the degree of coincidence with the search image feature quantity, which is a feature quantity invariant to the geometric transformation calculated based on the feature point arrangement for each point The corresponding feature point which is the feature point included in the feature point arrangement in the registered image is detected, and the registration specified by the corresponding feature point having a higher degree of matching with the feature point in the search image among the corresponding feature points Partial area in the image And extracts.

本発明による画像部分領域抽出用プログラムは、検索画像に相当する部分領域を登録画像から抽出するコンピュータに適用される画像部分領域抽出用プログラムであって、コンピュータに、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされたその注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出処理、および、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定処理を実行させることを特徴とする。   An image partial region extraction program according to the present invention is an image partial region extraction program applied to a computer that extracts a partial region corresponding to a search image from a registered image, and stores the feature points of interest of the registered image in the computer. In addition, a registered image feature that is a feature quantity that is invariant to a geometric transformation calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point of interest ordered according to a predetermined rule And the degree of coincidence between the search image feature quantity, which is a feature quantity invariant to the geometric transformation calculated based on the feature point arrangement for each feature point of interest in the search image, Corresponding feature point detection processing for detecting a corresponding feature point corresponding to a feature point included in the registered feature image in the registered image corresponding to the feature point included in the feature point layout, and search among the corresponding feature points Characterized in that to execute the corresponding region determination processing degree of matching between the feature points in the image to extract a partial region in the registered image which is specified by a higher corresponding feature point.

本発明によれば、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できる。   According to the present invention, a partial region corresponding to a search image can be extracted from the registered image even if a search image having a different resolution or shooting angle from that of the registered image is used.

本発明による画像部分領域抽出装置の第1の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 1st Embodiment of the image partial area | region extraction apparatus by this invention. 連結領域の例を示す説明図である。It is explanatory drawing which shows the example of a connection area | region. 登録処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of a registration process. 第1の実施形態の検索処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the search process of 1st Embodiment. 対応特徴点を検出する動作例を示すフローチャートである。It is a flowchart which shows the operation example which detects a corresponding | compatible feature point. 対応領域を決定する動作例を示すフローチャートである。It is a flowchart which shows the operation example which determines a corresponding | compatible area | region. 連結対象ノードの例を示す説明図である。It is explanatory drawing which shows the example of a connection object node. 連結対象ノード間に付加されたエッジの例を示す説明図である。It is explanatory drawing which shows the example of the edge added between connection object nodes. 出力領域の例を示す説明図である。It is explanatory drawing which shows the example of an output area. 画像部分領域抽出装置を実現可能な情報処理システムの構成例を示すブロック図である。It is a block diagram which shows the structural example of the information processing system which can implement | achieve an image partial area | region extraction apparatus. 本発明による画像部分領域抽出装置の第2の実施形態の構成例を示すブロック図である。It is a block diagram which shows the structural example of 2nd Embodiment of the image partial area | region extraction device by this invention. 第2の実施形態の検索処理の動作例を示すフローチャートである。It is a flowchart which shows the operation example of the search process of 2nd Embodiment. 対応特徴点対を検出する動作例を示すフローチャートである。It is a flowchart which shows the operation example which detects a corresponding feature point pair. 特徴点一致履歴を生成する例を示す説明図である。It is explanatory drawing which shows the example which produces | generates a feature point coincidence history. 対応領域を推定する動作例を示すフローチャートである。It is a flowchart which shows the operation example which estimates a corresponding | compatible area | region. 出力領域を推定する動作例を示すフローチャートである。It is a flowchart which shows the operation example which estimates an output area. 情報処理装置の例を示すブロック図である。It is a block diagram which shows the example of information processing apparatus. 第3の実施形態で示す情報処理装置の動作例を示すフローチャートである。14 is a flowchart illustrating an operation example of the information processing apparatus illustrated in the third embodiment. アクション情報を判定する動作例を示すフローチャートである。It is a flowchart which shows the operation example which determines action information. 本発明の画像部分領域抽出装置の概要を示すブロックである。It is a block which shows the outline | summary of the image partial area | region extraction apparatus of this invention.

次に、本発明を実施するための最良の形態を図面を参照して詳細に説明する。   Next, the best mode for carrying out the present invention will be described in detail with reference to the drawings.

実施形態1.
図1は、本発明による画像部分領域抽出装置の第1の実施形態の構成例を示すブロック図である。本実施形態の画像部分領域抽出装置は、登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点検出部204と、対応領域判定部205とを備えている。
Embodiment 1. FIG.
FIG. 1 is a block diagram showing a configuration example of a first embodiment of an image partial region extraction apparatus according to the present invention. The image partial region extraction apparatus of the present embodiment includes a registered image feature point generation unit R201, a registered image feature point arrangement generation unit R202, a registered image feature amount generation unit R203, a search image feature point generation unit Q201, and a search image. A feature point arrangement generation unit Q202, a search image feature amount generation unit Q203, a corresponding feature point detection unit 204, and a corresponding region determination unit 205 are provided.

これらの手段はそれぞれ概略次のように動作する。   Each of these means generally operates as follows.

登録画像特徴点生成部R201は、登録画像から特徴点を生成する。具体的には、登録画像特徴点生成部R201は、既知の方法を用いて登録画像から特徴点を生成する。登録画像特徴点生成部R201は、例えば、二値化または色空間クラスタリング等の方法を用いて、登録画像から連結領域を抽出し、各連結領域の重心点を抽出して特徴点としてもよい。連結領域とは、互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域であり、画像処理の分野においては既知の概念である。また、非連結領域とは、連結領域以外の領域である。   The registered image feature point generation unit R201 generates a feature point from the registered image. Specifically, the registered image feature point generation unit R201 generates a feature point from the registered image using a known method. The registered image feature point generation unit R201 may extract a connected area from the registered image using a method such as binarization or color space clustering, and may extract a barycentric point of each connected area as a feature point. The connected region is a region in which pixels adjacent to each other among pixels determined to belong to the same color are connected and is a known concept in the field of image processing. Further, the unconnected area is an area other than the connected area.

図2は、連結領域の例を示す説明図である。図2に示す例では、「A」という文字が記載された画像50から1つの連結領域51が抽出され、その連結領域51の重心点を特徴点52として抽出したことを示す。また、図2に示す例では、「A」という文字を形成する画素の集合が連結領域に相当する。   FIG. 2 is an explanatory diagram illustrating an example of a connection region. In the example illustrated in FIG. 2, one connected area 51 is extracted from the image 50 in which the letter “A” is written, and the center of gravity of the connected area 51 is extracted as the feature point 52. In the example illustrated in FIG. 2, a set of pixels that form the letter “A” corresponds to a connected region.

ただし、登録画像特徴点生成部R201が特徴点を抽出する方法は、上記方法に限定されない。登録画像特徴点生成部R201は、例えば、特許文献2に記載された登録画像特徴点抽出モジュールが特徴点を抽出する方法を利用してもよいし、特徴点を抽出する前にガウシアンフィルタ等のフィルタを適用してもよい。以下、登録画像特徴点生成部R201が連結領域の重心点を特徴点として抽出する方法を例に説明する。   However, the method by which the registered image feature point generation unit R201 extracts the feature points is not limited to the above method. The registered image feature point generation unit R201 may use, for example, a method in which the registered image feature point extraction module described in Patent Document 2 extracts feature points, or before extracting feature points, such as a Gaussian filter. A filter may be applied. Hereinafter, a method in which the registered image feature point generation unit R201 extracts the center of gravity of the connected region as a feature point will be described as an example.

登録画像特徴点配置生成部R202は、登録画像特徴点生成部R201により求められた特徴点から1つ以上の特徴点配置を生成する。具体的には、登録画像特徴点配置生成部R202は、既知の方法を用いて特徴点配置を生成する。ここで、特徴点配置とは、所定の規則に基づいて順序付けされた互いに近傍に存在する特徴点の集合を示す。   The registered image feature point arrangement generation unit R202 generates one or more feature point arrangements from the feature points obtained by the registered image feature point generation unit R201. Specifically, the registered image feature point arrangement generation unit R202 generates a feature point arrangement using a known method. Here, the feature point arrangement refers to a set of feature points that exist in the vicinity of each other ordered based on a predetermined rule.

登録画像特徴点配置生成部R202は、例えば、特許文献2に記載された方法を用いて特徴点配置を生成してもよい。具体的には、登録画像特徴点配置生成部R202は、登録画像から抽出した各特徴点を注目特徴点とし、以下の手順に従って特徴点配置を生成してもよい。   The registered image feature point arrangement generation unit R202 may generate the feature point arrangement using, for example, the method described in Patent Document 2. Specifically, the registered image feature point arrangement generation unit R202 may generate feature point arrangements according to the following procedure using each feature point extracted from the registered image as a feature point of interest.

まず、登録画像特徴点配置生成部R202は、登録画像から得られた特徴点(注目特徴点)の近傍に存在する特徴点群を求める。次に、登録画像特徴点配置生成部R202は、各注目特徴点から最近傍にある特徴点を第1要素として選択する。そして、登録画像特徴点配置生成部R202は、注目特徴点を端点として第1要素とした特徴点を通る半直線を想定し、その半直線を上記端点(注目特徴点)を中心に回転させる。このとき、登録画像特徴点配置生成部R202は、他の特徴点が半直線と交わる順に第2要素以降の特徴点を順次選択する。   First, the registered image feature point arrangement generation unit R202 obtains a feature point group existing in the vicinity of a feature point (attention feature point) obtained from the registered image. Next, the registered image feature point arrangement generation unit R202 selects a feature point closest to each feature point of interest as a first element. Then, the registered image feature point arrangement generation unit R202 assumes a half line passing through the feature point having the feature point of interest as the first element and the first element, and rotates the half line around the end point (target feature point). At this time, the registered image feature point arrangement generation unit R202 sequentially selects feature points after the second element in the order in which the other feature points intersect with the half line.

登録画像特徴量生成部R203は、登録画像特徴点配置生成部R202によって生成された特徴点配置のそれぞれに対して、特徴量を計算する。ここで算出される特徴量は、幾何学的変換に不変な特徴量である。この特徴量を計算する方法の一例として、特許文献2に記載された不変量の計算方法が利用できる。   The registered image feature value generation unit R203 calculates a feature value for each of the feature point arrangements generated by the registered image feature point arrangement generation unit R202. The feature amount calculated here is a feature amount that is invariant to geometric transformation. As an example of a method for calculating the feature amount, the invariant calculation method described in Patent Document 2 can be used.

登録画像特徴量生成部R203は、特徴点配置内の特徴点に予め付与された順序と、幾何学的不変量を計算するための特徴点の順列とを1つ以上対応付け、対応付けられた各々の特徴点順列から不変量を計算してもよい。また、登録画像特徴量生成部R203は、複数の特徴点を結んで形成される1つ以上の三角形を生成し、各三角形の面積に基づいて算出された不変量を特徴量としてもよい。以下の説明では、上述する各三角形の面積に基づいて特徴量を計算する方法を、三角形に基づく不変量計算法と呼ぶ。   The registered image feature value generation unit R203 associates and associates at least one feature point sequence for calculating the geometric invariant with an order given in advance to the feature points in the feature point arrangement. An invariant may be calculated from each feature point permutation. The registered image feature value generation unit R203 may generate one or more triangles formed by connecting a plurality of feature points, and may use an invariant calculated based on the area of each triangle as the feature value. In the following description, the method for calculating the feature amount based on the area of each triangle described above is referred to as a triangle-based invariant calculation method.

ただし、登録画像特徴量生成部R203が特徴量を計算する方法は、三角形に基づく不変量計算法に限定されない。登録画像特徴量生成部R203は、例えば、特許文献3に記載された方法を用いて特徴量を計算してもよい。具体的には、登録画像特徴量生成部R203は、特徴点を抽出するために登録画像特徴点生成部R201が抽出した各連結領域の面積比を特徴量としてもよい。   However, the method by which the registered image feature value generation unit R203 calculates the feature value is not limited to the invariant calculation method based on the triangle. For example, the registered image feature value generation unit R203 may calculate the feature value using a method described in Patent Document 3. Specifically, the registered image feature value generation unit R203 may use the area ratio of each connected region extracted by the registered image feature point generation unit R201 to extract feature points as a feature value.

特許文献3に記載されているように、二つの連結領域の面積比は、アフィン変換に対する不変量である。例えば、登録画像が二値化されている場合、連結領域は黒画素の領域として表わされる。ここで、特徴点集合に含まれる特徴点の個数をnとすると、以下に示す式aから式aを順に並べたものは、アフィン変換による変形に不変な性質を持つ特徴量になる。As described in Patent Document 3, the area ratio of the two connected regions is an invariant with respect to the affine transformation. For example, when the registered image is binarized, the connected area is represented as a black pixel area. Here, when the number of feature points included in the feature point set is n, those obtained by arranging the expression a n in order from the equation a 1 below, the characteristic quantity having the invariant properties modified by affine transformation.

(第1特徴点を計算する元である連結領域の黒画素数)/(第2特徴点を計算する元である連結領域の黒画素数) ・・・式a
(第2特徴点を計算する元である連結領域の黒画素数)/(第3特徴点を計算する元である連結領域の黒画素数) ・・・式a
・・・
(第n−1特徴点を計算する元である連結領域の黒画素数)/(第n特徴点を計算する元である連結領域の黒画素数) ・・・式an−1
(第n特徴点を計算する元である連結領域の黒画素数)/(第1特徴点を計算する元である連結領域の黒画素数) ・・・式a
(Number of black pixels in the connected region from which the first feature point is calculated) / (Number of black pixels in the connected region from which the second feature point is calculated) Expression a 1
(Number of black pixels in the connected region from which the second feature point is calculated) / (Number of black pixels in the connected region from which the third feature point is calculated) Expression a 2
...
(Number of black pixels in the connected region from which the n-1th feature point is calculated) / (Number of black pixels in the connected region from which the nth feature point is calculated) Expression a n-1
(Number of black pixels in the connected region from which the nth feature point is calculated) / (Number of black pixels in the connected region from which the first feature point is calculated) Expression a n

また、注目特徴点付近において局所的にアフィン変換で近似できる場合、式aから式aを順に並べて算出される特徴量は、射影変換に対しても擬似的に不変な性質を持つ特徴量になる。以下の説明では、連結領域の黒画素数の比により不変量(特徴量)を求める方法を、連結領域面積に基づく不変量計算法と呼ぶ。Also, if can be approximated by locally affine transformation in the vicinity of feature point feature quantity calculated from the equation a 1 by arranging the expression a n in order, the feature value having a pseudo-invariant properties against projective transformation become. In the following description, a method for obtaining an invariant (feature) based on a ratio of the number of black pixels in a connected region is referred to as an invariant calculation method based on the connected region area.

なお、ここでは、二値化された登録画像を用いた場合を例示して連結領域面積に基づく不変量計算法を説明したが、用いられる登録画像は、二値化された登録画像に限定されない。例えば、色空間クラスタリング等の方法を用いて登録画像から連結領域が抽出されている場合、登録画像特徴量生成部R203は、クラスタ化された色空間に含まれる画素により連結領域が抽出されていると判断し、各連結領域の画素数の比により不変量(特徴量)を求めてもよい。   Here, the case where a binarized registration image is used has been described as an example of the invariant calculation method based on the connected region area, but the registration image used is not limited to a binarized registration image. . For example, when a connected region is extracted from a registered image using a method such as color space clustering, the registered image feature value generation unit R203 extracts the connected region using pixels included in the clustered color space. And the invariant (feature value) may be obtained from the ratio of the number of pixels in each connected region.

以上に述べた特徴量は、単独で用いられてもよいし、2つ以上の特徴量を組み合わせて用いられてもよい。以下の例では、三角形に基づく不変量計算法により求められる特徴量と、連結領域面積に基づく不変量計算法により求められる特徴量とを組み合わせて用いるものとし、両特徴量を組み合わせたものを、特徴点配置に対する特徴量、または、単に特徴量と記す。このように、登録画像について、注目特徴点ごとに特徴点配置に基づいて幾何学的変換に不変な特徴量が算出される。なお、登録画像特徴量生成部R203は、算出された特徴量を記憶する登録画像特徴量記憶装置(図示せず)を含んでいてもよい。この場合、登録画像特徴量生成部R203は、算出された特徴量を登録画像特徴量記憶装置に記憶する。   The feature amounts described above may be used alone or in combination of two or more feature amounts. In the following example, a feature amount obtained by an invariant calculation method based on a triangle and a feature amount obtained by an invariant calculation method based on a connected region area are used in combination, and a combination of both feature amounts is used. It is described as a feature amount with respect to the feature point arrangement or simply as a feature amount. In this way, for the registered image, feature quantities that are invariant to geometric transformation are calculated for each feature point of interest based on the feature point arrangement. Note that the registered image feature value generation unit R203 may include a registered image feature value storage device (not shown) that stores the calculated feature value. In this case, the registered image feature value generation unit R203 stores the calculated feature value in the registered image feature value storage device.

検索画像特徴点生成部Q201は、検索画像から特徴点を生成する。検索画像特徴点生成部Q201は、例えば、既知の方法で検索画像から特徴点を生成してもよいし、登録画像特徴点生成部R201が登録画像から特徴点を生成する方法と同一の方法を用いて特徴点を生成してもよい。ただし、検索画像特徴点生成部Q201が特徴点を生成する方法は、これらの方法に限定されない。   The search image feature point generation unit Q201 generates a feature point from the search image. For example, the search image feature point generation unit Q201 may generate a feature point from the search image by a known method, or the registered image feature point generation unit R201 uses the same method as the method of generating a feature point from the registration image. May be used to generate feature points. However, the method by which the search image feature point generation unit Q201 generates feature points is not limited to these methods.

検索画像特徴点配置生成部Q202は、特徴点配置を生成する。検索画像特徴点配置生成部Q202は、例えば、既知の方法で特徴点配置を生成してもよいし、登録画像特徴点配置生成部R202が特徴点から特徴点配置を生成する方法と同一の方法を用いて特徴点配置を生成してもよい。ただし、検索画像特徴点配置生成部Q202が特徴点配置を生成する方法は、これらの方法に限定されない。   The search image feature point arrangement generation unit Q202 generates a feature point arrangement. The search image feature point arrangement generation unit Q202 may generate the feature point arrangement by a known method, for example, or the same method as the registered image feature point arrangement generation unit R202 generates the feature point arrangement from the feature points. The feature point arrangement may be generated using. However, the method by which the search image feature point arrangement generation unit Q202 generates the feature point arrangement is not limited to these methods.

検索画像特徴量生成部Q203は、検索画像特徴点配置生成部Q202によって生成された特徴点配置のそれぞれに対して、特徴量を計算する。検索画像特徴量生成部Q203は、登録画像特徴量生成部R203が特徴量を計算する方法と同一の方法を用いて特徴量を計算してもよい。ただし、検索画像特徴量生成部Q203が特徴量を計算する方法は、この方法に限定されない。このように、検索画像についても、注目特徴点ごとに特徴点配置に基づいて幾何学的変換に不変な特徴量が算出される。   The search image feature value generation unit Q203 calculates a feature value for each of the feature point arrangements generated by the search image feature point arrangement generation unit Q202. The search image feature value generation unit Q203 may calculate the feature value using the same method as the registered image feature value generation unit R203 calculates the feature value. However, the method by which the search image feature value generation unit Q203 calculates the feature value is not limited to this method. As described above, also for the search image, a feature quantity that is invariant to the geometric transformation is calculated for each feature point of interest based on the feature point arrangement.

対応特徴点検出部204は、登録画像特徴量生成部R203が生成した特徴量と検索画像特徴量生成部Q203が生成した特徴量を比較することで、各々の特徴量が生成された元となる特徴点配置同士が一致しているかどうかを判定する。   The corresponding feature point detection unit 204 compares the feature amount generated by the registered image feature amount generation unit R203 with the feature amount generated by the search image feature amount generation unit Q203, thereby generating each feature amount. It is determined whether the feature point arrangements match.

そして、対応特徴点検出部204は、この一致しているかどうかの判定結果を利用して、検索画像の特徴点に対応する特徴点(以下、対応特徴点と記す。)が登録画像のどこにあるか(すなわち、検索画像の特徴点が登録画像から抽出された特徴点のどれであるか)を検出する。この判定は、登録画像特徴量生成部R203で生成された特徴量と検索画像特徴量生成部Q203で生成された特徴量のすべての組み合わせに対して行われるのが一例である。また、全ての特徴量の組合せに対して検出処理を行うのではなく、各特徴点に適切な索引を付与することで、検出処理を高速化してもよい。   Then, the corresponding feature point detection unit 204 uses the determination result as to whether or not they match, and the feature point corresponding to the feature point of the search image (hereinafter referred to as the corresponding feature point) is in the registered image. (That is, which of the feature points of the search image is extracted from the registered image). For example, this determination is performed for all combinations of the feature amount generated by the registered image feature amount generation unit R203 and the feature amount generated by the search image feature amount generation unit Q203. Further, the detection process may be speeded up by assigning an appropriate index to each feature point instead of performing the detection process for all combinations of feature amounts.

対応領域判定部205は、対応特徴点検出部204にて検出された一致する特徴点配置を利用して、検索画像が登録画像中のどこに含まれているかを判定する。具体的には、対応領域判定部205は、対応特徴点により特定される登録画像中の部分領域を抽出する。   The corresponding area determination unit 205 determines where the search image is included in the registered image using the matching feature point arrangement detected by the corresponding feature point detection unit 204. Specifically, the corresponding area determination unit 205 extracts a partial area in the registered image specified by the corresponding feature point.

なお、対応特徴点検出部204および対応領域判定部205の詳細な動作については、後述される。   Detailed operations of the corresponding feature point detection unit 204 and the corresponding region determination unit 205 will be described later.

登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点検出部204と、対応領域判定部205とは、プログラム(画像部分領域抽出用プログラム)に従って動作するコンピュータのCPUによって実現される。例えば、プログラムは、画像部分領域抽出装置の記憶部(図示せず)に記憶され、CPUは、そのプログラムを読み込み、プログラムに従って、登録画像特徴点生成部R201、登録画像特徴点配置生成部R202、登録画像特徴量生成部R203、検索画像特徴点生成部Q201、検索画像特徴点配置生成部Q202、検索画像特徴量生成部Q203、対応特徴点検出部204および対応領域判定部205として動作してもよい。   Registered image feature point generation unit R201, registered image feature point arrangement generation unit R202, registered image feature amount generation unit R203, search image feature point generation unit Q201, search image feature point arrangement generation unit Q202, and search image feature The quantity generation unit Q203, the corresponding feature point detection unit 204, and the corresponding region determination unit 205 are realized by a CPU of a computer that operates according to a program (an image partial region extraction program). For example, the program is stored in a storage unit (not shown) of the image partial region extraction device, and the CPU reads the program, and according to the program, a registered image feature point generation unit R201, a registered image feature point arrangement generation unit R202, Even if it operates as a registered image feature value generation unit R203, a search image feature point generation unit Q201, a search image feature point arrangement generation unit Q202, a search image feature value generation unit Q203, a corresponding feature point detection unit 204, and a corresponding region determination unit 205 Good.

また、登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点検出部204と、対応領域判定部205とは、それぞれが専用のハードウェアで実現されていてもよい。   Also, a registered image feature point generation unit R201, a registered image feature point arrangement generation unit R202, a registered image feature amount generation unit R203, a search image feature point generation unit Q201, a search image feature point arrangement generation unit Q202, a search The image feature quantity generation unit Q203, the corresponding feature point detection unit 204, and the corresponding region determination unit 205 may each be realized by dedicated hardware.

また、本実施形態では、画像部分領域抽出装置で特徴量を算出する構成を例示しているが、他の装置で算出された登録画像の特徴量および検索画像の特徴量を画像部分領域抽出装置の対応特徴点検出部204が受信する構成であってもよい。この場合、画像部分領域抽出装置は、対応特徴点検出部204および対応領域判定部205を備えていればよい。また、予め算出した登録画像の特徴量を、画像部分領域抽出装置の記憶部(図示せず)に記憶しておいてもよい。   Further, in the present embodiment, the configuration in which the feature amount is calculated by the image partial region extraction device is illustrated, but the feature amount of the registered image and the feature amount of the search image calculated by another device are used as the image partial region extraction device. The corresponding feature point detection unit 204 may be configured to receive. In this case, the image partial region extraction device only needs to include the corresponding feature point detection unit 204 and the corresponding region determination unit 205. Further, the feature amount of the registered image calculated in advance may be stored in a storage unit (not shown) of the image partial region extraction device.

次に、本実施形態の動作を説明する。ここでは、画像部分領域抽出装置が行う処理を登録処理と検索処理の大きく2つに分けて説明する。   Next, the operation of this embodiment will be described. Here, the processing performed by the image partial region extraction apparatus will be described in two parts: registration processing and search processing.

「登録処理」
図3は、登録処理の動作例を示すフローチャートである。登録処理は、検索処理に先立って行われる処理であり、検索処理に必要な特徴量のデータを生成する処理である。図3を参照すると、登録処理は、登録画像特徴点生成処理(ステップSR201)、登録画像特徴点配置生成処理(ステップSR202)、登録画像特徴量生成処理(ステップSR203)から構成される。
"registration process"
FIG. 3 is a flowchart illustrating an operation example of the registration process. The registration process is a process that is performed prior to the search process, and is a process that generates feature amount data necessary for the search process. Referring to FIG. 3, the registration process includes a registered image feature point generation process (step SR201), a registered image feature point arrangement generation process (step SR202), and a registered image feature amount generation process (step SR203).

まず、登録画像特徴点生成部R201は、登録画像から特徴点を抽出する(ステップSR201)。次に、登録画像特徴点配置生成部R202は、登録画像特徴点生成部R201が生成した特徴点をもとに1つ以上の特徴点配置を生成する(ステップSR202)。そして、登録画像特徴量生成部R203は、登録画像特徴点配置生成部R202が生成した1つ以上の特徴点配置それぞれの特徴量を計算する(ステップSR203)。   First, the registered image feature point generation unit R201 extracts feature points from the registered image (step SR201). Next, the registered image feature point arrangement generation unit R202 generates one or more feature point arrangements based on the feature points generated by the registered image feature point generation unit R201 (step SR202). Then, the registered image feature value generation unit R203 calculates the feature values of each of the one or more feature point arrangements generated by the registered image feature point arrangement generation unit R202 (step SR203).

「検索処理」
図4は、本実施形態の検索処理の動作例を示すフローチャートである。検索処理は、検索画像から特徴量を計算し、その特徴量を登録画像から計算された特徴量と比較することにより、登録画像中から検索画像に相当する部分を判定する処理である。図4を参照すると、検索処理は、検索画像特徴点生成処理(ステップSQ201)、検索画像特徴点配置生成処理(ステップSQ202)、検索画像特徴量生成処理(ステップSQ203)、対応特徴点検出処理(ステップSQ204)、対応領域決定処理(ステップSQ205)から構成される。
Search process
FIG. 4 is a flowchart showing an example of the search processing operation according to this embodiment. The search process is a process for determining a portion corresponding to the search image from the registered image by calculating the feature value from the search image and comparing the feature value with the feature value calculated from the registered image. Referring to FIG. 4, the search processing includes search image feature point generation processing (step SQ201), search image feature point arrangement generation processing (step SQ202), search image feature amount generation processing (step SQ203), and corresponding feature point detection processing (step SQ202). Step SQ204) and corresponding area determination processing (Step SQ205).

まず、検索画像特徴点生成部Q201は、検索画像から特徴点を抽出する(ステップSQ201)。次に、検索画像特徴点配置生成部Q202は、検索画像特徴点生成部Q201が生成した特徴点をもとに1つ以上の特徴点配置を生成する(ステップSQ202)。そして、検索画像特徴量生成部Q203は、検索画像特徴点配置生成部Q202が生成した1つ以上の特徴点配置それぞれの特徴量を計算する(ステップSQ203)。   First, the search image feature point generation unit Q201 extracts feature points from the search image (step SQ201). Next, the search image feature point arrangement generation unit Q202 generates one or more feature point arrangements based on the feature points generated by the search image feature point generation unit Q201 (step SQ202). Then, the search image feature value generation unit Q203 calculates the feature values of each of the one or more feature point arrangements generated by the search image feature point arrangement generation unit Q202 (step SQ203).

次に、対応特徴点検出部204は、対応特徴点を検出する(ステップSQ204)。具体的には、対応特徴点検出部204は、検索画像中の特徴点に対応する登録画像中の特徴点を検出する。以下、図5を参照し、対応特徴点を検出する処理を詳述する。図5は、対応特徴点を検出するステップSQ204の動作例を示すフローチャートである。   Next, the corresponding feature point detection unit 204 detects the corresponding feature point (step SQ204). Specifically, the corresponding feature point detection unit 204 detects a feature point in the registered image corresponding to the feature point in the search image. Hereinafter, the process of detecting the corresponding feature points will be described in detail with reference to FIG. FIG. 5 is a flowchart showing an operation example of step SQ204 for detecting the corresponding feature point.

図5を参照すると、対応特徴点を検出する処理は、特徴量比較処理(ステップSQ2041)、特徴量一致判定処理(ステップSQ2042)、特徴点一致回数カウント処理(ステップSQ2043)から構成される。登録画像特徴量生成部R203が生成した特徴量(以下、登録画像特徴量と呼ぶ。)と検索画像特徴量生成部Q203が生成した特徴量(以下、検索画像特徴量と呼ぶ。)のすべての組み合わせについて、以下に述べるステップSQ204の処理が個別に行われる。   Referring to FIG. 5, the process for detecting the corresponding feature point includes a feature amount comparison process (step SQ2041), a feature amount match determination process (step SQ2042), and a feature point match count count process (step SQ2043). All of the feature values generated by the registered image feature value generation unit R203 (hereinafter referred to as registered image feature values) and the feature values generated by the search image feature value generation unit Q203 (hereinafter referred to as search image feature values). For the combinations, the process of step SQ204 described below is performed individually.

ステップSQ204では、まず、対応特徴点検出部204は、登録画像特徴量と検索画像特徴量の組み合わせを比較する。対応特徴点検出部204は、例えば、2乗距離、市街地距離、ベクトル内積などの既知の方法で、登録画像特徴量と検索画像特徴量の距離を求めてもよい(ステップSQ2041)。また、対応特徴点検出部204は、以下に示す方法で登録画像特徴量と検索画像特徴量の距離を求めてもよい。この距離が近いほど、両特徴量の一致度合いが高いと言える。   In step SQ204, first, the corresponding feature point detection unit 204 compares the combination of the registered image feature quantity and the search image feature quantity. The corresponding feature point detection unit 204 may obtain the distance between the registered image feature quantity and the search image feature quantity by a known method such as a square distance, a city area distance, or a vector inner product (step SQ2041). Further, the corresponding feature point detection unit 204 may obtain the distance between the registered image feature amount and the search image feature amount by the following method. It can be said that the closer this distance is, the higher the degree of coincidence of both feature quantities.

まず、対応特徴点検出部204は、比較する特徴量を表す対応する要素(例えば、ベクトルの要素)ごとに差分を算出し、差分の絶対値が予め定められた範囲内にある場合には、距離に1を加算し、差分の絶対値が予め定められた範囲内にない場合には、0を加算する。対応特徴点検出部204は、すべての要素についてこれらの処理を繰り返すことで距離を算出する。この場合、算出される値が大きいほど距離が近く、より両特徴量の一致度合いが高いと言える。   First, the corresponding feature point detection unit 204 calculates a difference for each corresponding element (for example, a vector element) representing a feature amount to be compared, and when the absolute value of the difference is within a predetermined range, 1 is added to the distance, and 0 is added if the absolute value of the difference is not within a predetermined range. The corresponding feature point detection unit 204 calculates the distance by repeating these processes for all elements. In this case, it can be said that the larger the calculated value is, the closer the distance is, and the higher the degree of coincidence between both feature amounts.

対応特徴点検出部204は、上述した方法を複数組み合わせて、登録画像特徴量と検索画像特徴量の距離を算出してもよい。例えば、不変量特徴量と面積比特徴量をあわせて用いる場合、対応特徴点検出部204は、不変量特徴量については2乗距離を計算し、面積比特徴量については要素ごとに差分を取る方法で距離を計算してもよい。   The corresponding feature point detection unit 204 may calculate the distance between the registered image feature amount and the search image feature amount by combining a plurality of the above-described methods. For example, when the invariant feature quantity and the area ratio feature quantity are used together, the corresponding feature point detection unit 204 calculates a square distance for the invariant feature quantity and takes a difference for each element for the area ratio feature quantity. The distance may be calculated by a method.

次に、対応特徴点検出部204は、登録画像特徴量と検索画像特徴量が一致しているかどうかを判定する(ステップSQ2042)。すなわち、対応特徴点検出部204は、登録画像特徴量と検索画像特徴量の一致度合いを比較する。登録画像特徴量と検索画像特徴量が一致すると判定された場合(ステップSQ2042における「一致」)、ステップSQ2043の処理が行われ、登録画像特徴量と検索画像特徴量が一致しないと判定された場合(ステップSQ2042における「不一致」)、ステップSQ2043の処理が省略される。   Next, the corresponding feature point detection unit 204 determines whether or not the registered image feature quantity matches the search image feature quantity (step SQ2042). That is, the corresponding feature point detection unit 204 compares the degree of coincidence between the registered image feature amount and the search image feature amount. When it is determined that the registered image feature quantity matches the search image feature quantity (“match” in step SQ2042), the process of step SQ2043 is performed, and it is determined that the registered image feature quantity and the search image feature quantity do not match (“Mismatch” in step SQ2042), the process of step SQ2043 is omitted.

対応特徴点検出部204は、例えば、ステップSQ2041にて計算された距離が予め定められた閾値未満、または閾値以下の値の場合に、特徴量が一致すると判定してもよい。また、特徴量が複数の種類の特徴量から算出されている場合、対応特徴点検出部204は、少なくとも1つまたは予め指定された種類数の特徴量が一致したときに特徴量全体が一致していると判定してもよいし、すべての種類の特徴量が一致したときに特徴量全体が一致していると判定してもよい。   For example, the corresponding feature point detection unit 204 may determine that the feature amounts match when the distance calculated in step SQ2041 is less than or equal to a predetermined threshold value. When the feature amount is calculated from a plurality of types of feature amounts, the corresponding feature point detection unit 204 matches the entire feature amount when at least one or a predetermined number of types of feature amounts match. Alternatively, it may be determined that all the feature values match when all types of feature values match.

次に、対応特徴点検出部204は、一致した特徴点の一致回数を加算する(ステップSQ2043)。対応特徴点検出部204は、特徴量を求める元となった特徴点配置中の特徴点ごとに一致回数を加算してもよい。また、対応特徴点検出部204は、登録画像特徴量を求める元となった特徴点配置を生成した際の注目特徴点ごとに一致回数を加算してもよい。なお、特徴点の一致回数の初期値は、初期化処理で0に設定しておくこととする。以下の説明では、特徴量を求める元となった特徴点配置中の特徴点ごとに一致回数が加算されるものとする。なお、特徴点は、複数の特徴点配置によって共有されることから、特徴点の一致回数は複数加算されることになる。   Next, the corresponding feature point detection unit 204 adds the number of times of matching feature points (step SQ2043). The corresponding feature point detection unit 204 may add the number of matches for each feature point in the feature point arrangement from which the feature amount is obtained. Further, the corresponding feature point detection unit 204 may add the number of matches for each feature point of interest when the feature point arrangement from which the registered image feature amount is obtained is generated. Note that the initial value of the number of feature point matches is set to 0 in the initialization process. In the following description, it is assumed that the number of matches is added for each feature point in the feature point arrangement from which the feature amount is obtained. Since feature points are shared by a plurality of feature point arrangements, a plurality of matching times of feature points are added.

次に、対応領域判定部205は、対応領域を決定する(ステップSQ205)。具体的には、対応領域判定部205は、検索画像に対応する登録画像中の領域を対応領域として決定する。以下、図6を参照し、対応領域を決定する処理を詳述する。図6は、対応領域を決定するステップSQ205の動作例を示すフローチャートである。   Next, the corresponding area determination unit 205 determines a corresponding area (step SQ205). Specifically, the corresponding area determination unit 205 determines an area in the registered image corresponding to the search image as the corresponding area. Hereinafter, the process of determining the corresponding area will be described in detail with reference to FIG. FIG. 6 is a flowchart showing an operation example of step SQ205 for determining the corresponding area.

図6を参照すると、対応領域を決定する処理は、連結対象ノード抽出処理(ステップSQ2051)、特徴点連結処理(ステップSQ2052)、連結グラフ検出処理(ステップSQ2053)、出力領域決定処理(ステップSQ2054)から構成される。   Referring to FIG. 6, the process for determining the corresponding area includes a connection target node extraction process (step SQ2051), a feature point connection process (step SQ2052), a connected graph detection process (step SQ2053), and an output area determination process (step SQ2054). Consists of

対応領域判定部205は、予め定められた一定以上の一致回数を持つ特徴点を連結対象ノードとして登録画像から抽出する(ステップSQ2051)。ここで、ノードとは、グラフ理論で用いられる用語である。本実施形態では、特徴点がノードとみなされる。また、対応領域判定部205が抽出する連結対象ノードは、対応特徴点の中でも検索画像中の特徴点との一致度合いがより高い特徴点であるといえる。そのため、対応領域判定部205は、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点を連結対象ノードとして抽出していると言うことができる。   Corresponding region determination unit 205 extracts feature points having a predetermined number of matches or more as a connection target node from the registered image (step SQ2051). Here, the node is a term used in graph theory. In the present embodiment, feature points are regarded as nodes. In addition, it can be said that the connection target node extracted by the corresponding region determination unit 205 is a feature point having a higher degree of matching with the feature point in the search image among the corresponding feature points. Therefore, it can be said that the corresponding region determination unit 205 extracts a corresponding feature point having a higher degree of matching with the feature point in the search image among the corresponding feature points as a connection target node.

図7は、連結対象ノードの例を示す説明図である。図7に示す例では、黒丸の部分が連結対象ノードを示し、白丸の部分が非連結対象ノードを示す。ここで、非連結対象ノードとは、特徴点(ノード)のうち、連結対象ノードと判定されなかったノードを示す。   FIG. 7 is an explanatory diagram illustrating an example of a connection target node. In the example shown in FIG. 7, a black circle portion indicates a connection target node, and a white circle portion indicates a non-connection target node. Here, the non-connection target node indicates a node that is not determined to be a connection target node among feature points (nodes).

次に、対応領域判定部205は、連結対象ノードの間の距離が互いに近い場合に、それらの連結対象ノード間にエッジを付加する(ステップSQ2052)。ここで、エッジとは、グラフ理論で用いられる用語であり、ノード間を結ぶ線のことを意味する。また、以下の説明では、このエッジのことをグラフと称することもある。   Next, when the distance between the connection target nodes is close to each other, the corresponding area determination unit 205 adds an edge between the connection target nodes (step SQ2052). Here, the edge is a term used in graph theory and means a line connecting nodes. In the following description, this edge may be referred to as a graph.

対応領域判定部205は、連結対象ノード間の距離が予め定められた閾値よりも小さい場合に、その連結対象ノード間にエッジを付加してもよい。また、対応領域判定部205は、各連結対象ノードが含まれる連結領域の距離が予め定められた閾値よりも小さい場合に、その連結対象ノード間にエッジを付加してもよい。ここで、連結領域C1に属する画素をp1とし、連結領域C2に属する画素をp2としたとき、連結領域C1と連結領域C2の距離dist(p1,p2)は、例えば、以下に示す式1で算出される。なお、p1およびp2は、各連結領域から任意に選択される画素である。   The corresponding area determination unit 205 may add an edge between the connection target nodes when the distance between the connection target nodes is smaller than a predetermined threshold. In addition, the corresponding region determination unit 205 may add an edge between the connection target nodes when the distance between the connection regions including the connection target nodes is smaller than a predetermined threshold. Here, when the pixel belonging to the connection region C1 is p1, and the pixel belonging to the connection region C2 is p2, the distance dist (p1, p2) between the connection region C1 and the connection region C2 is, for example, the following Expression 1. Calculated. Note that p1 and p2 are pixels arbitrarily selected from each connected region.

Figure 2014061221
Figure 2014061221

図8は、ノード連結処理によって連結対象ノード間に付加されたエッジの例を示す説明図である。図8に例示するエッジは、図7に例示する連結対象ノード間を結ぶようにそれぞれ付加されている。   FIG. 8 is an explanatory diagram illustrating an example of an edge added between connection target nodes by the node connection processing. The edges illustrated in FIG. 8 are added so as to connect the connection target nodes illustrated in FIG.

次に、対応領域判定部205は、ステップSQ2052で生成されたグラフの中から、連結グラフを1つ以上検出する(ステップSQ2053)。ここで、連結グラフとは、互いにエッジで接続された一続きのノードとエッジの組み合わせを意味する。なお、グラフ理論において既知の方法である深さ優先探索を行うことにより、1つ以上の連結グラフが検出されることが知られている。そこで、対応領域判定部205は、深さ優先探索を行うことで、連結グラフを検出してもよい。図8に示す例では、2つの連結グラフが検出される。   Next, the corresponding area determination unit 205 detects one or more connected graphs from the graph generated in step SQ2052 (step SQ2053). Here, the connected graph means a combination of a series of nodes and edges connected to each other by edges. It is known that one or more connected graphs are detected by performing a depth-first search, which is a known method in graph theory. Therefore, the corresponding region determination unit 205 may detect a connected graph by performing a depth-first search. In the example shown in FIG. 8, two connected graphs are detected.

次に、対応領域判定部205は、ステップSQ2053で検出された連結グラフから、出力する領域を決定する(ステップSQ2054)。例えば、連結グラフG(kは1以上の整数)内のノードj(jは整数)を含む連結領域の外接矩形の四隅座標を(xmin_j(k),ymin_j(k))、(xmax_j(k),ymin_j(k))、(xmin_j(k),ymax_j(k))、(xmax_j(k),ymax_j(k))とする。このとき、対応領域判定部205は、出力する領域を(xmin_min(k),ymin_min(k))および(xmax_max(k),ymax_max(k))を対角の頂点とする矩形領域と決定すればよい。ここで、頂点の座標は、以下の条件を満たす。Next, the corresponding region determination unit 205 determines a region to be output from the connected graph detected in step SQ2053 (step SQ2054). For example, the four corner coordinates of the circumscribed rectangle of the connected region including the node j (j is an integer) in the connected graph G k (k is an integer of 1 or more) are (x min — j (k) , y min — j (k) ), (x max_j (k) , ymin_j (k) ), ( xmin_j (k) , ymax_j (k) ), ( xmax_j (k) , ymax_j (k) ). At this time, the corresponding area determination unit 205 is a rectangular area whose output areas are (x min_min (k) , y min_min (k) ) and (x max_max (k) , y max_max (k) ) as diagonal vertices. It can be determined. Here, the coordinates of the vertex satisfy the following conditions.

Figure 2014061221
Figure 2014061221

図9は、出力領域の例を示す説明図である。図9に例示する点線の矩形は、各連結領域の外接矩形を示している。また、図9に例示する破線の矩形は、図8に例示する2つの連結グラフから決定された2つの出力領域を示している。   FIG. 9 is an explanatory diagram illustrating an example of an output area. A dotted rectangle illustrated in FIG. 9 indicates a circumscribed rectangle of each connection region. 9 indicate two output areas determined from the two connected graphs illustrated in FIG.

なお、上記説明では、連結領域に外接する領域を、四隅の座標で特定可能な矩形で表わす場合を例示した。他にも連結領域に外接する領域を、ノードjを中心とした半径r(rは0以上の実数)の円で表わすことも可能である。なお、r=0の場合、上述の説明において、xmin_j(k)=xmax_j(k)かつymin_j(k)ymax_j(k)と同義である。In the above description, the case where the region circumscribing the connection region is represented by a rectangle that can be specified by the coordinates of the four corners is illustrated. In addition, a region circumscribing the connected region can be represented by a circle having a radius r (r is a real number greater than or equal to 0) centered on the node j. Note that when r = 0, in the above description, the same meaning as x min_j (k) = x max_j (k) and y min_j (k) = ymax_j ( k).

また、対応領域判定部205が出力領域を決定する方法は、上記方法に限定されない。対応領域判定部205は、連結グラフに属する各ノードを含む連結領域の外接矩形領域の和領域、または、ノードjを中心とした半径r(rは0以上の実数)の円領域の和領域を出力領域としてもよい。   Further, the method by which the corresponding region determination unit 205 determines the output region is not limited to the above method. The corresponding area determination unit 205 calculates a sum area of a circumscribed rectangular area of a connected area including each node belonging to the connected graph, or a sum area of a circle area having a radius r (r is a real number greater than or equal to 0) centering on the node j. It may be an output area.

また、複数の出力領域が得られる場合、対応領域判定部205は、各出力領域の確からしさを示す指標を利用して出力領域を決定してもよい。出力領域の確からしさを示す指標として、例えば、出力領域の面積、出力領域に含まれる連結対象ノード数、出力領域に含まれる特徴点数、出力領域中の特徴点(または連結対象ノード)の特徴点一致回数の最大値、出力領域中の特徴点(または連結対象ノード)の特徴点一致回数の総和などが挙げられる。複数の出力領域が得られる場合、対応領域判定部205は、これらの指標がより大きい(多い)ほどより確からしいと判断し、これらの指標に基づいてより確からしい出力領域を選択してもよい。   When a plurality of output areas are obtained, the corresponding area determination unit 205 may determine an output area using an index indicating the probability of each output area. As an index indicating the probability of the output area, for example, the area of the output area, the number of nodes to be connected included in the output area, the number of feature points included in the output area, and the feature points of the feature points (or nodes to be connected) in the output area The maximum number of matching times, the sum of the number of matching feature points of feature points (or nodes to be connected) in the output area, and the like. When a plurality of output areas are obtained, the corresponding area determination unit 205 may determine that the larger (larger) of these indices are more likely and select a more likely output area based on these indices. .

このように、対応領域判定部205は、エッジにより結ばれる連結対象ノードを特定することによって連結領域を特定し、その連結領域から導かれる領域を登録画像中の部分領域として抽出することになる。   As described above, the corresponding area determination unit 205 specifies a connection area by specifying connection target nodes connected by edges, and extracts an area derived from the connection area as a partial area in the registered image.

以上のように、本実施形態によれば、対応特徴点検出部204が、登録画像特徴量と検索画像特徴量との一致度合いを比較して対応特徴点を検出し、対応領域判定部205が、検出された対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する。よって、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できる。   As described above, according to the present embodiment, the corresponding feature point detection unit 204 detects the corresponding feature point by comparing the degree of coincidence between the registered image feature amount and the search image feature amount, and the corresponding region determination unit 205 A partial region in the registered image identified by the corresponding feature point having a higher degree of matching with the feature point in the search image is extracted from the detected corresponding feature points. Therefore, even if a search image having a resolution or shooting angle different from that of the registered image is used, a partial region corresponding to the search image can be extracted from the registered image.

具体的には、対応特徴点検出部204が、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、対応領域判定部205が、一致回数が予め定めた回数以上の対応特徴点を連結対象ノードとし、その連結対象ノードにより特定される登録画像中の部分領域を抽出すればよい。   Specifically, when the corresponding feature point detection unit 204 determines that the search image feature quantity matches the registered image feature quantity, the feature point in the feature point arrangement from which the search image feature quantity is calculated is calculated. For each corresponding feature point, and the corresponding region determination unit 205 sets the corresponding feature points whose matching count is equal to or greater than the predetermined number of times as a connection target node, and in the registered image specified by the connection target node. The partial region may be extracted.

すなわち、本実施形態では、登録画像と検索画像のそれぞれに対して連結領域の重心から特徴点配置が求められる。また、特徴点およびその特徴点に対応する連結領域の配置から幾何学的変換に不変な特徴量を計算し、登録画像特徴量と検索画像特徴量とを比較する。これにより、登録画像内で検索画像に対応する特徴点が検出され、それら特徴点の情報を統合して出力領域が求められる。   That is, in the present embodiment, the feature point arrangement is obtained from the centroid of the connected region for each of the registered image and the search image. In addition, a feature quantity that is invariant to geometric transformation is calculated from the feature points and the arrangement of connected regions corresponding to the feature points, and the registered image feature quantity and the search image feature quantity are compared. Thereby, feature points corresponding to the search image are detected in the registered image, and information on the feature points is integrated to obtain an output area.

よって、注目窓を設定することなく検索画像に相当する領域を登録画像中から求めることができるので、登録画像と検索画像の間に大きさや撮影角度のバリエーションがあっても、部分的な領域の画像照合が可能になる。   Therefore, since the area corresponding to the search image can be obtained from the registered image without setting the attention window, even if there are variations in size and shooting angle between the registered image and the search image, Image verification is possible.

なお、図10は、本実施形態の画像部分領域抽出装置を実現可能な情報処理システムの構成例を示すブロック図である。図10に例示する情報処理システム1は、例えばCPUなどに代表される演算装置6(以下、単にCPU6と呼ぶ。)と、記憶媒体7とから構成されている。また、情報処理システム1は、入出力インターフェイス8や表示デバイス9を備えていても良い。   FIG. 10 is a block diagram illustrating a configuration example of an information processing system capable of realizing the image partial region extraction device of the present embodiment. An information processing system 1 illustrated in FIG. 10 includes an arithmetic device 6 (hereinafter simply referred to as a CPU 6) represented by, for example, a CPU, and a storage medium 7. Further, the information processing system 1 may include an input / output interface 8 and a display device 9.

CPU6は、上述する各種手段を実装した各種ソフトウェア・プログラム(コンピュータ・プログラム)を実行することにより、情報処理システム1の全体的な動作を司る。   The CPU 6 controls the overall operation of the information processing system 1 by executing various software programs (computer programs) in which the various means described above are installed.

記憶媒体7は、各種ソフトウェア・プログラムとその実行に必要なデータを格納するための記憶媒体である。   The storage medium 7 is a storage medium for storing various software programs and data necessary for the execution.

入出力インターフェイス8は、情報処理システム1の外部とデータ通信を行う際に用いられる。通信されるデータの例としては、情報処理システム1の外部で生成された特徴点配置データや、照合結果出力データが挙げられるが、これらに限られない。   The input / output interface 8 is used when data communication is performed with the outside of the information processing system 1. Examples of data to be communicated include, but are not limited to, feature point arrangement data generated outside the information processing system 1 and collation result output data.

入出力インターフェイス8は、少なくともCPU6との通信ができればよく、例えば、外部からの信号を伝達できる通信線を接続するコネクタや、無線信号を受信する機器などが用いられる。または、情報処理システム1内部の信号伝達経路の一部をそのまま入出力インターフェイス8として用いてもよい。また、入出力インターフェイス8の別の一例として、表示デバイス9またはスピーカ(図示せず)等のユーザインターフェース機器がある。   The input / output interface 8 only needs to be able to communicate with at least the CPU 6. For example, a connector for connecting a communication line capable of transmitting an external signal, a device for receiving a radio signal, or the like is used. Alternatively, a part of the signal transmission path inside the information processing system 1 may be used as the input / output interface 8 as it is. Another example of the input / output interface 8 is a user interface device such as a display device 9 or a speaker (not shown).

表示デバイス9は、情報処理システム1が実行する画像照合の結果を表示するためのデバイスであり、例えばディスプレイ装置である。図10には、表示デバイス9を記載しているが、画像部分領域抽出装置に必ずしも必須の構成要素ではない。   The display device 9 is a device for displaying the result of image collation executed by the information processing system 1, and is, for example, a display device. Although FIG. 10 shows the display device 9, it is not necessarily an essential component for the image partial region extraction apparatus.

実施形態2.
次に、本発明による画像部分領域抽出装置の第2の実施形態を説明する。図11は、本発明による画像部分領域抽出装置の第2の実施形態の構成例を示すブロック図である。本実施形態の画像部分領域抽出装置は、登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点対検出部304と、対応領域推定部305とを備えている。
Embodiment 2. FIG.
Next, a second embodiment of the image partial area extracting apparatus according to the present invention will be described. FIG. 11 is a block diagram showing a configuration example of the second embodiment of the image partial region extraction device according to the present invention. The image partial region extraction apparatus of the present embodiment includes a registered image feature point generation unit R201, a registered image feature point arrangement generation unit R202, a registered image feature amount generation unit R203, a search image feature point generation unit Q201, and a search image. A feature point arrangement generation unit Q202, a search image feature amount generation unit Q203, a corresponding feature point pair detection unit 304, and a corresponding region estimation unit 305 are provided.

すなわち、本実施形態の画像部分領域抽出装置は、対応特徴点検出部204および対応領域判定部205の代わりに、対応特徴点対検出部304および対応領域推定部305を備えている点において、第1の実施形態の画像部分領域抽出装置と異なる。本実施形態の説明では、第1の実施形態と異なる点を中心に説明する。   That is, the image partial region extraction apparatus of the present embodiment includes a corresponding feature point pair detection unit 304 and a corresponding region estimation unit 305 instead of the corresponding feature point detection unit 204 and the corresponding region determination unit 205. This is different from the image partial area extracting apparatus of the first embodiment. In the description of the present embodiment, points different from the first embodiment will be mainly described.

対応特徴点対検出部304は、対応特徴点検出部204が持つ機能に加えて、一致すると判定された検索画像中の特徴点と登録画像中の特徴点の組み合わせ(ペア)を記憶媒体(図示せず)に格納する機能を有する。以下、一致すると判定された検索画像中の特徴点と登録画像中の特徴点の組み合わせのことを、特徴点一致履歴と記す。   In addition to the functions of the corresponding feature point detection unit 204, the corresponding feature point pair detection unit 304 stores a combination (pair) of the feature points in the search image and the feature points in the registered image that are determined to match, as a storage medium (see FIG. (Not shown). Hereinafter, a combination of a feature point in the search image determined to match and a feature point in the registered image is referred to as a feature point match history.

対応領域推定部305は、対応領域判定部205が持つ機能に加え、対応特徴点対検出部304にて検出された一致する特徴点配置から幾何変換パラメータ(ホモグラフィ行列、アフィン変換パラメータなど)を推定し、推定された幾何変換パラメータと検索画像のサイズとから対応領域を推定する。   In addition to the function of the corresponding region determination unit 205, the corresponding region estimation unit 305 obtains geometric transformation parameters (homography matrix, affine transformation parameter, etc.) from the matching feature point arrangement detected by the corresponding feature point pair detection unit 304. Then, the corresponding region is estimated from the estimated geometric transformation parameter and the size of the search image.

なお、登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点対検出部304と、対応領域推定部305とは、プログラム(画像部分領域抽出用プログラム)に従って動作するコンピュータのCPUによって実現される。   The registered image feature point generation unit R201, the registered image feature point arrangement generation unit R202, the registered image feature amount generation unit R203, the search image feature point generation unit Q201, the search image feature point arrangement generation unit Q202, and the search The image feature quantity generation unit Q203, the corresponding feature point pair detection unit 304, and the corresponding region estimation unit 305 are realized by a CPU of a computer that operates according to a program (an image partial region extraction program).

また、第1の実施形態と同様、登録画像特徴点生成部R201と、登録画像特徴点配置生成部R202と、登録画像特徴量生成部R203と、検索画像特徴点生成部Q201と、検索画像特徴点配置生成部Q202と、検索画像特徴量生成部Q203と、対応特徴点対検出部304と、対応領域推定部305とは、それぞれが専用のハードウェアで実現されていてもよい。   Similarly to the first embodiment, a registered image feature point generation unit R201, a registered image feature point arrangement generation unit R202, a registered image feature amount generation unit R203, a search image feature point generation unit Q201, and a search image feature Each of the point arrangement generation unit Q202, the search image feature amount generation unit Q203, the corresponding feature point pair detection unit 304, and the corresponding region estimation unit 305 may be realized by dedicated hardware.

次に、本実施形態の画像部分領域抽出装置の動作を説明する。本実施形態の画像部分領域抽出装置が行う処理も、登録処理と検索処理の大きく2つに分けられるが、登録処理は第1の実施形態と同様のため、検索処理について説明する。   Next, the operation of the image partial region extraction apparatus of this embodiment will be described. The processing performed by the image partial region extraction apparatus according to the present embodiment is also roughly divided into two processes, a registration process and a search process. Since the registration process is the same as that of the first embodiment, the search process will be described.

図12は、本実施形態の検索処理の動作例を示すフローチャートである。図12を参照すると、本実施形態では、対応特徴点検出処理SQ204が対応特徴点対検出処理SQ304に置き換わり、対応領域決定処理SQ205が対応領域推定処理SQ305に置き換わっている点において、第1の実施形態と異なる。   FIG. 12 is a flowchart showing an operation example of the search processing of the present embodiment. Referring to FIG. 12, in the present embodiment, the corresponding feature point detection process SQ204 is replaced with the corresponding feature point pair detection process SQ304, and the corresponding area determination process SQ205 is replaced with the corresponding area estimation process SQ305. Different from form.

図13は、対応特徴点対を検出するステップSQ304の動作例を示すフローチャートである。図13を参照すると、ステップSQ304が第1の実施形態のステップSQ204と異なっているのは、特徴点一致回数カウント処理SQ2043の後に、特徴点一致履歴格納処理SQ3043が追加されている点である。   FIG. 13 is a flowchart showing an operation example of step SQ304 for detecting a corresponding feature point pair. Referring to FIG. 13, step SQ304 is different from step SQ204 of the first embodiment in that feature point matching history storage processing SQ3043 is added after feature point matching number counting processing SQ2043.

対応特徴点対検出部304は、ステップSQ2042で特徴量が一致したと判定された場合に、一致した各特徴量を示す特徴点を用いて特徴点一致履歴を生成する(ステップSQ3043)。対応特徴点対検出部304は、このとき、特徴量を求める元となった特徴点配置の各特徴点が一致したと判断してもよい。そして、対応特徴点対検出部304は、登録画像特徴量を求める元になった特徴点配置に含まれる特徴点と、検索画像特徴量を求める元になった特徴点配置に含まれる特徴点について、対応する各特徴点を対にした特徴点一致履歴を生成してもよい。   If it is determined in step SQ2042 that the feature amounts match, the corresponding feature point pair detection unit 304 generates a feature point matching history using the feature points indicating the matched feature amounts (step SQ3043). At this time, the corresponding feature point pair detection unit 304 may determine that the feature points of the feature point arrangement from which the feature amount is obtained match. Then, the corresponding feature point pair detection unit 304 calculates the feature points included in the feature point arrangement from which the registered image feature amount is obtained and the feature points included in the feature point arrangement from which the search image feature amount is obtained. A feature point matching history in which corresponding feature points are paired may be generated.

図14は、特徴点一致履歴を生成する例を示す説明図である。図14に示す例では、R1、R2、R3、R4、R5、R6の順に順序付けられている特徴点の特徴点配置が登録画像中に存在し、Q1、Q2、Q3、Q4、Q5、Q6の順に順序付けられている特徴点の特徴点配置が検索画像中に存在しているものとする。ここで、両特徴点配置が一致したと判定された場合、対応特徴点対検出部304は、R1とQ1、R2とQ2、R3とQ3、R4とQ4、R5とQ5、R6とQ6をそれぞれ特徴点対として検出して、特徴点一致履歴を生成してもよい。   FIG. 14 is an explanatory diagram illustrating an example of generating a feature point matching history. In the example shown in FIG. 14, feature point arrangements of feature points ordered in the order of R1, R2, R3, R4, R5, and R6 exist in the registered image, and Q1, Q2, Q3, Q4, Q5, and Q6 It is assumed that feature point arrangements of feature points that are sequentially ordered exist in the search image. When it is determined that the feature point arrangements match, the corresponding feature point pair detection unit 304 determines R1 and Q1, R2 and Q2, R3 and Q3, R4 and Q4, R5 and Q5, and R6 and Q6, respectively. A feature point matching history may be generated by detecting as a feature point pair.

また、対応特徴点対検出部304は、登録画像特徴量を求める元となった特徴点配置を生成した際の注目特徴点が一致したと判断してもよい。このとき、対応特徴点対検出部304は、登録画像特徴量を求める元となった特徴点配置に含まれる注目特徴点と、検索画像特徴量を求める元となった特徴点配置に含まれる注目特徴点を対にした特徴点一致履歴を生成してもよい。   In addition, the corresponding feature point pair detection unit 304 may determine that the feature points of interest when the feature point arrangement from which the registered image feature amount is obtained match are matched. At this time, the corresponding feature point pair detection unit 304 includes the attention feature point included in the feature point arrangement from which the registered image feature amount is obtained and the attention feature included in the feature point arrangement from which the search image feature amount is obtained. A feature point matching history in which feature points are paired may be generated.

以下の説明では、対応特徴点対検出部304が特徴量を求める元となった特徴点配置の各特徴点が一致したと判断して特徴点一致履歴を生成する場合を例に説明する。   In the following description, an example will be described in which the feature point matching history is generated by determining that the feature points of the feature point arrangement from which the corresponding feature point pair detection unit 304 obtains the feature amount have matched.

図15は、対応領域を推定するステップSQ305の動作例を示すフローチャートである。図15を参照すると、ステップSQ305が第1の実施形態のステップSQ205と異なっているのは、出力領域決定処理SQ2054が出力領域推定処理SQ3054に置き換わっている点である。   FIG. 15 is a flowchart showing an operation example of step SQ305 for estimating the corresponding region. Referring to FIG. 15, step SQ305 is different from step SQ205 of the first embodiment in that output region determination processing SQ2054 is replaced with output region estimation processing SQ3054.

図16は、出力領域を推定するステップSQ3054の動作例を示すフローチャートである。図16を参照すると、まず、対応領域推定部305は、後述する条件を満たす特徴点対を特徴点一致履歴から複数選択する(ステップSQ30541)。幾何変換パラメータとしてホモグラフィ行列を採用する場合、対応領域推定部305は、特徴点対を4対以上選択すればよく、アフィン変換パラメータを採用する場合は、特徴点対を3対以上選択すればよい。ここでは、幾何変換パラメータとしてホモグラフィ行列を採用し、選択する特徴点対の数を4とする。特徴点を選択する際に満たすべき条件は、以下の条件である。   FIG. 16 is a flowchart showing an operation example of step SQ3054 for estimating an output region. Referring to FIG. 16, first, the corresponding region estimation unit 305 selects a plurality of feature point pairs that satisfy a condition described later from the feature point matching history (step SQ30541). When employing a homography matrix as a geometric transformation parameter, the corresponding region estimation unit 305 may select four or more feature point pairs. When employing an affine transformation parameter, three or more feature point pairs may be selected. Good. Here, a homography matrix is adopted as a geometric transformation parameter, and the number of feature point pairs to be selected is four. The conditions to be satisfied when selecting feature points are the following conditions.

・特徴点対として選択される特徴点は、それぞれ同一の連結グラフに属している。
・同一の連結グラフにそれぞれ属する特徴点対が5対以上ある場合は、ランダムに4対を選択する。
The feature points selected as feature point pairs belong to the same connected graph.
-If there are 5 or more pairs of feature points belonging to the same connected graph, 4 pairs are selected at random.

次に、対応領域推定部305は、幾何変換パラメータを計算する(ステップSQ30542)。ホモグラフィ行列Hは、登録画像の位置(xr,yr)と検索画像の位置(xq,yq)との間の関係を表す3×3行列であり、具体的には以下に示す式2を満たす。   Next, the corresponding region estimation unit 305 calculates a geometric transformation parameter (step SQ30542). The homography matrix H is a 3 × 3 matrix that represents the relationship between the position (xr, yr) of the registered image and the position (xq, yq) of the search image, and specifically satisfies Expression 2 shown below. .

Figure 2014061221
Figure 2014061221

上記に示す式2において、αは、(xr,yr)と(xq,yq)の値に応じて定まる定数である。選択された4つの特徴点対の各特徴点の座標を利用すれば、連立方程式を解くことにより、ホモグラフィ行列が求められる。5つ以上の特徴点対が選択された場合は、最小二乗法などによりホモグラフィ行列を求めることができる。   In Expression 2 shown above, α is a constant determined according to the values of (xr, yr) and (xq, yq). By using the coordinates of each feature point of the selected four feature point pairs, a homography matrix can be obtained by solving simultaneous equations. When five or more feature point pairs are selected, a homography matrix can be obtained by a least square method or the like.

次に、対応領域推定部305は、幾何変換パラメータの評価値を計算する(ステップSQ30543)。対応領域推定部305は、例えば、検索画像のすべての特徴点をホモグラフィ行列により登録画像に投影する。そして、対応領域推定部305は、投影された特徴点の中で予め定められた値よりも小さい、またはその値以下の距離の中に登録画像から計算された特徴点が存在するかを検出し、検出された特徴点の個数を評価値としてもよい。   Next, the corresponding area estimation unit 305 calculates an evaluation value of the geometric transformation parameter (step SQ30543). For example, the corresponding region estimation unit 305 projects all feature points of the search image onto the registered image using a homography matrix. Then, the corresponding region estimation unit 305 detects whether or not a feature point calculated from the registered image exists within a distance that is smaller than or less than a predetermined value among the projected feature points. The number of detected feature points may be used as the evaluation value.

また、対応領域推定部305は、検索画像から求められるすべての連結領域またはその外接矩形領域を投影し、投影された位置に存在する登録画像中の部分画像と比較してもよい。このとき、対応領域推定部305は、一致するか否かを既知の方法で判定し、一致した領域の数を評価値としてもよい。   Further, the corresponding area estimation unit 305 may project all connected areas obtained from the search image or a circumscribed rectangular area thereof, and compare them with partial images in the registered image existing at the projected position. At this time, the corresponding region estimation unit 305 may determine whether or not they match by a known method, and may use the number of matching regions as an evaluation value.

対応領域推定部305は、例えば、特徴量を検出した後で距離の計算等を行い、その距離が一定の値よりも小さいまたは一定の値以下の場合に一致すると判定してもよい。また、対応領域推定部305は、正規化相関を用いて一致するか否かを判定してもよい。以上のことからも、このように算出される評価値は、用いられる幾何変換パラメータの確からしさを示していると言える。   For example, the corresponding area estimation unit 305 may calculate a distance after detecting a feature amount, and may determine that the distance is equal to or smaller than a certain value. In addition, the corresponding region estimation unit 305 may determine whether or not they match using the normalized correlation. From the above, it can be said that the evaluation value calculated in this way indicates the certainty of the geometric transformation parameter to be used.

次に、対応領域推定部305は、計算された評価値がこれまでに計算された評価値の中で最大か否かを、過去の計算履歴をもとに判定する(ステップSQ30544)。計算された評価値が過去の最大値を上回っている場合(ステップS30544におけるYes)、対応領域推定部305は、評価値の最大値を置き換えた上でホモグラフィ行列の値を保持する(ステップSQ30545)。一方、計算された評価値が過去の最大値を上回っていない場合(ステップSQ30544におけるNo)、ステップSQ30546の処理に進む。   Next, the corresponding region estimation unit 305 determines whether the calculated evaluation value is the maximum among the evaluation values calculated so far based on the past calculation history (step SQ30544). When the calculated evaluation value exceeds the past maximum value (Yes in step S30544), the corresponding region estimation unit 305 replaces the maximum value of the evaluation value and holds the value of the homography matrix (step SQ30545). ). On the other hand, if the calculated evaluation value does not exceed the past maximum value (No in step SQ30544), the process proceeds to step SQ30546.

次に、対応領域推定部305は、評価値の計算を終了するか否かを判定する(ステップSQ30546)。対応領域推定部305は、評価値の計算回数が予め定められた回数を超えた場合に、評価値の計算を終了すると判定してもよい。また、対応領域推定部305は、評価値が予め定められた値を上回った場合または評価値が予め定められた値以上の場合に、評価値の計算を終了すると判定してもよい。ただし、評価値の計算を終了するか否かを判定する方法は、これらの方法に限定されない。このように算出された評価値は、評価値の計算を行う条件のもとに、幾何変換パラメータが検索画像を登録画像に変換する確からしさが最も高いものと言える。   Next, the corresponding region estimation unit 305 determines whether or not to end the evaluation value calculation (step SQ30546). The corresponding region estimation unit 305 may determine that the evaluation value calculation is to be terminated when the number of evaluation value calculations exceeds a predetermined number. The corresponding region estimation unit 305 may determine that the calculation of the evaluation value is to be terminated when the evaluation value exceeds a predetermined value or when the evaluation value is equal to or greater than a predetermined value. However, the method for determining whether or not to end the calculation of the evaluation value is not limited to these methods. It can be said that the evaluation value calculated in this way has the highest probability that the geometric conversion parameter converts the search image into the registered image under the condition for calculating the evaluation value.

評価値の計算を終了しないと判定した場合(ステップSQ30546におけるNo)、ステップSQ30541以降の処理が繰り返される。一方、評価値の計算を終了すると判定した場合(ステップSQ30546におけるYes)、対応領域推定部305は、検索画像に相当する登録画像中の位置を推定し、出力領域とする(ステップSQ50547)。すなわち、対応領域推定部305は、算出したホモグラフィ行列に基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する。具体的には、対応領域推定部305は、評価値が最大になったホモグラフィ行列の値を用いて、検索画像の領域を登録画像中に投影する。例えば、検索画像が長方形の場合は、検索画像の四隅座標をホモグラフィ行列で投影し、投影された4点で決定される四角形が出力領域になる。   If it is determined that the calculation of the evaluation value is not finished (No in step SQ30546), the processes after step SQ30541 are repeated. On the other hand, when it is determined that the calculation of the evaluation value is to be ended (Yes in step SQ30546), the corresponding area estimation unit 305 estimates a position in the registered image corresponding to the search image and sets it as an output area (step SQ50547). That is, the corresponding region estimation unit 305 extracts a region obtained by projecting the region of the search image on the registered image based on the calculated homography matrix as a partial region. Specifically, the corresponding area estimation unit 305 projects the area of the search image in the registered image using the value of the homography matrix having the maximum evaluation value. For example, when the search image is a rectangle, the four corner coordinates of the search image are projected with a homography matrix, and a quadrangle determined by the projected four points becomes an output region.

以上のように、本実施形態によれば、対応特徴点対検出部304が、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて特徴点一致履歴を生成する。そして、対応領域推定部305が、特徴点一致履歴を用いて幾何変換パラメータ(ホモグラフィ行列)を算出し、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する。   As described above, according to the present embodiment, when the corresponding feature point pair detection unit 304 determines that the search image feature quantity matches the registered image feature quantity, the feature point of each matched feature quantity is used. To generate a feature point matching history. Then, the corresponding region estimation unit 305 calculates a geometric transformation parameter (homography matrix) using the feature point matching history, and extracts a region obtained by projecting the region of the search image on the registered image based on the calculated parameter. To do.

すなわち、本実施形態では、推定されたホモグラフィ行列と検索画像の領域を利用して出力領域を求めるように構成されている。よって、第1の実施形態の効果に加え、特徴点一致判定に漏れが多い場合でも、検索画像に相当する大きさの出力領域を安定的に得ることができる。   In other words, the present embodiment is configured to obtain the output area using the estimated homography matrix and the area of the search image. Therefore, in addition to the effects of the first embodiment, an output area having a size corresponding to the search image can be stably obtained even when there are many omissions in the feature point match determination.

なお、第1の実施形態および第2の実施形態では、説明の都合上、検索画像と照合する登録画像が決まっている(すなわち登録画像が1枚である)場合を例に説明したが、登録画像が複数枚存在する場合も、容易に拡張が可能である。   In the first embodiment and the second embodiment, for the sake of explanation, a case has been described in which the registered image to be collated with the search image is determined (that is, the number of registered images is one). Even when there are a plurality of images, they can be easily expanded.

例えば、登録画像が複数枚存在する場合、対応領域判定部205は、各登録画像について出力領域を決定し、各出力領域の確からしさを示す指標が最も大きい登録画像をもとに決定した部分領域を選択してもよい。   For example, when there are a plurality of registered images, the corresponding region determination unit 205 determines an output region for each registered image, and the partial region determined based on the registered image having the largest index indicating the probability of each output region May be selected.

また、上述した画像部分領域抽出装置の構成や動作は、実施方法の一例を示したものであり、発明の原理を損なわない範囲で、構成や動作の順序を変更することが可能である。また、登録処理と検索処理のすべてを必ずしも同一の装置で行う必要はない。例えば、装置Aで一部の処理を行い、装置Bが装置Aの出力結果を入出力インターフェイスを介して受信し、その後の処理を装置Bで行うように構成することも可能である。   Further, the configuration and operation of the image partial region extraction apparatus described above show an example of an implementation method, and the configuration and the order of operations can be changed without departing from the principle of the invention. Further, it is not always necessary to perform the registration process and the search process with the same device. For example, it is possible to configure such that apparatus A performs a part of processing, apparatus B receives an output result of apparatus A via an input / output interface, and apparatus B performs the subsequent processing.

以下、具体的な実施形態により本発明を説明するが、本発明の範囲は以下に説明する内容に限定されない。ここでは、上述した画像部分領域抽出装置を、情報処理装置に応用する第3の実施形態について説明する。以下に説明する情報処理装置は、予め登録された画像(登録画像)中の部分領域ごとに、対象とする装置に実行させる情報処理を表す情報(以下、アクション情報と記す。)を定義しておき、その部分領域に対応する画像を受けとると、その部分領域に対応する情報処理を実行させるものである。なお、以下の説明では、受け取る画像のことを検索画像と記すこともある。また、対象とする装置は、情報処理装置そのものであってもよく、情報処理装置とは異なる他の装置であってもよい。   Hereinafter, the present invention will be described with reference to specific embodiments, but the scope of the present invention is not limited to the contents described below. Here, a third embodiment in which the above-described image partial region extraction device is applied to an information processing device will be described. The information processing apparatus described below defines information (hereinafter referred to as action information) representing information processing to be executed by a target apparatus for each partial region in an image (registered image) registered in advance. When an image corresponding to the partial area is received, information processing corresponding to the partial area is executed. In the following description, the received image may be referred to as a search image. Further, the target device may be the information processing device itself, or may be another device different from the information processing device.

図17は、部分領域を抽出して各種情報処理を行う情報処理装置の例を示すブロック図である。本実施形態の情報処理装置は、画像照合部41と、アクション情報判定部42と、アクション情報実行部43とを備えている。なお、情報処理装置は、中間情報記憶部44を備えていてもよい。   FIG. 17 is a block diagram illustrating an example of an information processing apparatus that extracts a partial region and performs various types of information processing. The information processing apparatus according to the present embodiment includes an image collation unit 41, an action information determination unit 42, and an action information execution unit 43. Note that the information processing apparatus may include an intermediate information storage unit 44.

中間情報記憶部44は、登録画像中の部分領域を特定する情報(以下、部分領域情報と記す。)と、対象とする装置に実行させる情報処理を表す情報(アクション情報)とを対応付けた情報を記憶する。以下、部分領域情報とアクション情報とを対応付けた情報を中間情報と記すこともある。すなわち、中間情報とは、予め定められた部分領域に関する情報とアクション情報とを関連付けた情報ということもできる。   The intermediate information storage unit 44 associates information for specifying a partial area in a registered image (hereinafter referred to as partial area information) and information (action information) representing information processing to be executed by a target device. Store information. Hereinafter, information in which partial area information and action information are associated with each other may be referred to as intermediate information. That is, the intermediate information can also be referred to as information in which information related to a predetermined partial area is associated with action information.

例えば、部分領域を長方形領域とする場合、部分領域情報には、長方形領域を特定する四隅座標が設定される。また、登録画像を等分割で分割する際の水平方向ブロック幅および垂直方向ブロック幅を部分領域情報として用いてもよい。さらに、登録画像を等分割する際の水平方向ブロック数および垂直方向ブロック数を部分領域情報として用いてもよい。他にも、画像の水平解像度、垂直解像度、分割ブロック数等を部分領域情報として用いることができるが、部分領域情報の内容は、これらの内容に限定されない。   For example, when the partial region is a rectangular region, four corner coordinates that specify the rectangular region are set in the partial region information. Further, the horizontal block width and the vertical block width when the registered image is divided by equal division may be used as the partial area information. Further, the number of horizontal blocks and the number of vertical blocks when equally dividing the registered image may be used as the partial area information. In addition, the horizontal resolution, the vertical resolution, the number of divided blocks, and the like of the image can be used as the partial area information, but the contents of the partial area information are not limited to these contents.

また、アクション情報には、対象とする装置が実行する情報処理を識別できる内容であれば、任意の情報を用いることができる。例えば、対象とする装置に録画予約の機能を実行させる場合、アクション情報には、「録画予約の機能を実行」という情報処理の内容そのものの情報を設定してもよく、「録画予約の機能を実行するための実行ボタンを表示する」といった具体的な機能を示す情報を設定してもよい。   Further, as the action information, any information can be used as long as it can identify the information processing executed by the target device. For example, when the target device is to execute the recording reservation function, the action information may be set to information on the content of the information processing itself “execute recording reservation function”. Information indicating a specific function such as “display an execution button for execution” may be set.

以下、アクション情報の具体例を説明する。ブラウザ表示を実行させる場合、アクション情報には、表示するURLを設定することが考えられる。また、動画や静止画、音声などを出力する処理を実行させる場合、アクション情報には、情報処理装置内部に記憶されたファイル名(動画、静止画、音声を保存するファイル名)を設定することが考えられる。また、アクション情報には、情報処理装置内又は情報処理装置外に存在するアプリケーションの操作や、実行コマンドなどを設定してもよい。   Hereinafter, a specific example of action information will be described. When performing browser display, it is conceivable to set a URL to be displayed in the action information. In addition, when executing a process for outputting a moving image, still image, audio, or the like, a file name stored in the information processing apparatus (a file name for saving a moving image, still image, or audio) is set in the action information. Can be considered. In the action information, an operation of an application existing in the information processing apparatus or outside the information processing apparatus, an execution command, or the like may be set.

例えば、アクション情報にファイル名が指定された場合、後述するアクション情報実行部43は、拡張子の種類に基づいて使用するアプリケーションを実行してもよい。また、実行するアプリケーションをXMLタグと対応付け、XMLタグとファイル名とを明示的に組み合わせたものをアクション情報としてもよい。   For example, when a file name is specified in the action information, the action information execution unit 43 described later may execute an application to be used based on the extension type. Further, the application to be executed may be associated with the XML tag, and the action information may be a combination of the XML tag and the file name explicitly.

例えば、アクション情報に「<app1> filename.xxx </app1> 」と設定した場合、<app1>に対応付けられたアプリケーションを用いて“filename.xxx”を開く、というアクションを実行できる。同様に、<phone> を電話をかけるアプリケーションと関連付けておけば、例えばアクション情報に「<phone> xx-xxxx-xxxx </phone> 」と設定することで、電話番号“xx-xxxx-xxxx”に電話をかける、というアクションを指定することができる。同様に、<email> をメール作成用アプリケーションと関連付けておけば、例えばアクション情報に「<email> xxx@xxx.xxx.xx </email> 」という形式で電子メールアドレスを設定しておくことで、電子メールを作成するアプリケーションを実行できる。さらに、この場合、宛先フィールドへ宛先メールアドレス(xxx@xxx.xxx.xx)を自動入力するアクションを実行することもできる。   For example, when “<app1> filename.xxx </ app1>” is set in the action information, an action of opening “filename.xxx” using an application associated with <app1> can be executed. Similarly, if you associate <phone> with the application that makes the call, for example, you can set the phone number “xx-xxxx-xxxx” by setting “<phone> xx-xxxx-xxxx </ phone>” in the action information. You can specify an action to call. Similarly, if you associate <email> with an email composition application, for example, you can set an email address in the format of <email> xxx@xxx.xxx.xx </ email> in the action information. Can run applications that create emails. Further, in this case, it is possible to execute an action of automatically inputting a destination mail address (xxx@xxx.xxx.xx) in the destination field.

なお、一つの部分領域情報に関連付けられるアクション情報は複数あってもよい。また、一つのアクション情報は、複数の部分領域情報から関連付けられていてもよい。   There may be a plurality of action information associated with one partial area information. One action information may be associated from a plurality of pieces of partial area information.

また、アクション情報には、アクション情報実行部43が情報処理を実行させるための条件を設定しておいてもよい。例えば、処理を実行させる対象の装置が所定の場所(例えば、店舗内など)に存在するときに限って情報処理を実行させることを示す条件をアクション情報に設定してもよい。   In the action information, conditions for the action information execution unit 43 to execute information processing may be set. For example, a condition indicating that information processing is to be executed only when a device to be processed is present in a predetermined place (for example, in a store) may be set in the action information.

中間情報記憶部44は、例えば、磁気ディスク等により実現される。また、情報処理装置自身が、中間情報記憶部44を備えていてもよい。   The intermediate information storage unit 44 is realized by, for example, a magnetic disk. Further, the information processing apparatus itself may include the intermediate information storage unit 44.

画像照合部41は、登録画像中から検索画像に相当する部分的な領域を検出する。すなわち、画像照合部41は、検索画像と登録画像とを照合して、検索画像に対応する登録画像中の部分領域を検出する。画像照合部41は、部分領域を1つのみ検出してもよく、複数の部分領域を検出してもよい。   The image matching unit 41 detects a partial area corresponding to the search image from the registered images. That is, the image collation unit 41 collates the search image with the registered image and detects a partial region in the registered image corresponding to the search image. The image matching unit 41 may detect only one partial area or may detect a plurality of partial areas.

画像照合部41は、第1の実施形態または第2の実施形態で説明した画像部分領域抽出装置を用いて、検索画像に対応する登録画像中の部分領域を検出してもよい。すなわち、画像照合部41は、登録画像特徴量と検索画像特徴量との一致度合いを比較して対応特徴点を検出し、検出された対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出してもよい。   The image matching unit 41 may detect a partial region in the registered image corresponding to the search image using the image partial region extraction device described in the first embodiment or the second embodiment. That is, the image matching unit 41 detects the corresponding feature points by comparing the degree of matching between the registered image feature quantity and the search image feature quantity, and matches the feature points in the search image among the detected corresponding feature points. A partial region in the registered image specified by the corresponding feature point having a higher degree may be extracted.

ただし、本実施形態では、画像照合部41は、検索画像に対応する登録画像中の部分領域を、第1の実施形態または第2の実施形態で説明した方法以外を用いて検出してもよい。ただし、第1の実施形態または第2の実施形態で説明した方法を用いる方が、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できるため、より好ましい。   However, in this embodiment, the image matching unit 41 may detect a partial region in the registered image corresponding to the search image using a method other than the method described in the first embodiment or the second embodiment. . However, if the method described in the first embodiment or the second embodiment is used, even if a search image having a resolution or shooting angle different from that of the registered image is used, a partial region corresponding to the search image is determined from the registered image. Since it can extract, it is more preferable.

以下の説明では、画像照合部41が、第1の実施形態の画像部分領域抽出装置が部分領域を抽出する方法を用いるものとする。具体的には、画像照合部41は、登録画像特徴量と検索画像特徴量とが一致する場合に対応特徴点の回数を算出して、登録画像から連結対象ノードを抽出する。そして、画像照合部41は、連結対象ノードから連結グラフを生成し、連結グラフ内のノードj(jは整数)を含む連結領域の外接矩形の四隅座標を(xmin_j(k),ymin_j(k))、(xmax_j(k),ymin_j(k))、(xmin_j(k),ymax_j(k))、(xmax_j(k),ymax_j(k))とする。このとき、画像照合部41は、出力する領域を(xmin_min(k),ymin_min(k))および(xmax_max(k),ymax_max(k))を対角の頂点とする矩形領域を出力する。なお、Kmaxを部分領域の個数としたとき、kは1≦k≦Kmaxを満たす整数である。In the following description, it is assumed that the image collating unit 41 uses a method in which the image partial region extraction device of the first embodiment extracts a partial region. Specifically, the image matching unit 41 calculates the number of corresponding feature points when the registered image feature value matches the search image feature value, and extracts a connection target node from the registered image. Then, the image matching unit 41 generates a connected graph from the nodes to be connected, and the four corner coordinates of the circumscribed rectangle of the connected region including the node j (j is an integer) in the connected graph are ( xmin_j (k) , ymin_j ( k) ), ( xmax_j (k) , ymin_j (k) ), ( xmin_j (k) , ymax_j (k) ), ( xmax_j (k) , ymax_j (k) ). At this time, the image collation unit 41 defines a rectangular region having (x min_min (k) , y min_min (k) ) and (x max_max (k) , y max_max (k) ) as diagonal vertices as the output region. Output. Incidentally, when the K max number of partial regions, k is an integer satisfying 1 ≦ k ≦ K max.

上述した通り、部分領域を抽出する方法は、第1の実施形態または第2の実施形態の画像部分領域抽出装置が部分領域を抽出する方法に限定されない。画像照合部41は、例えば既知の文書画像レイアウト解析等により自動的に部分領域を指定してもよい。   As described above, the method for extracting the partial region is not limited to the method for extracting the partial region by the image partial region extraction apparatus according to the first embodiment or the second embodiment. The image collation unit 41 may automatically designate a partial area by, for example, a known document image layout analysis.

アクション情報判定部42は、画像照合部41が照合結果として出力した情報と、中間情報(すなわち、部分領域情報及びアクション情報)を利用して、情報処理装置がどのような情報処理を行うかを判定する。具体的には、アクション情報判定部42は、部分領域情報により特定される部分領域のうち、検出された領域との一致度合いが最も高い部分領域を選択し、その部分領域に対応するアクション情報を特定する。なお、アクション情報を特定する処理の詳細は、後述される。   The action information determination unit 42 uses the information output by the image matching unit 41 as a matching result and intermediate information (that is, partial area information and action information) to determine what information processing the information processing apparatus performs. judge. Specifically, the action information determination unit 42 selects a partial area having the highest degree of matching with the detected area from the partial areas specified by the partial area information, and sets action information corresponding to the partial area. Identify. Details of processing for specifying action information will be described later.

アクション情報実行部43は、アクション情報判定部42によって特定されたアクション情報を実行する。具体的には、アクション情報実行部43は、特定されたアクション情報に応じた処理内容を、対象とする装置に実行させる。   The action information execution unit 43 executes the action information specified by the action information determination unit 42. Specifically, the action information execution unit 43 causes the target device to execute the processing content according to the specified action information.

なお、画像照合部41と、アクション情報判定部42と、アクション情報実行部43とはプログラム(情報処理実行プログラム)に従って動作するコンピュータのCPUによって実現されてもよい。また、画像照合部41と、アクション情報判定部42と、アクション情報実行部43とは、それぞれが専用のハードウェアで実現されていてもよい。   In addition, the image collation part 41, the action information determination part 42, and the action information execution part 43 may be implement | achieved by CPU of the computer which operate | moves according to a program (information processing execution program). In addition, each of the image collation unit 41, the action information determination unit 42, and the action information execution unit 43 may be realized by dedicated hardware.

次に、本実施形態の動作を説明する。図18は、本実施形態の情報処理装置の動作例を示すフローチャートである。図18を参照すると、本実施形態の情報処理装置の動作は、画像照合処理(ステップS41)、アクション情報判定処理(ステップS42)、アクション情報実行処理(ステップS43)から構成される。   Next, the operation of this embodiment will be described. FIG. 18 is a flowchart illustrating an operation example of the information processing apparatus according to the present embodiment. Referring to FIG. 18, the operation of the information processing apparatus according to the present embodiment includes an image matching process (step S41), an action information determination process (step S42), and an action information execution process (step S43).

まず、画像照合部41は、検索画像に対応する登録画像中の部分領域を検出する(ステップS41)。画像照合部41は、例えば、第1の実施形態または第2の実施形態の画像部分領域抽出装置が行う処理を流用することができる。   First, the image matching unit 41 detects a partial area in the registered image corresponding to the search image (step S41). For example, the image collating unit 41 can use the processing performed by the image partial region extraction device according to the first embodiment or the second embodiment.

次に、アクション情報判定部42は、アクション情報の判定を行う(ステップS42)。図19は、アクション情報を判定する動作例を示すフローチャートである。アクション情報を判定する処理は、領域一致スコア計算処理(ステップS421)と、最大領域一致スコアが算出された部分領域を特定する部分領域特定処理(ステップS422)とから構成される。   Next, the action information determination unit 42 determines action information (step S42). FIG. 19 is a flowchart illustrating an exemplary operation for determining action information. The process for determining the action information includes an area match score calculation process (step S421) and a partial area specifying process (step S422) for specifying the partial area for which the maximum area match score is calculated.

ここで、領域一致スコアとは、中間情報の部分領域情報により特定される部分領域(以下、中間情報部分領域と記すこともある。)と、画像照合部41が検出した領域(以下、画像照合部分領域と記す。)との一致度合いを示す。   Here, the area matching score refers to a partial area specified by the partial area information of the intermediate information (hereinafter sometimes referred to as an intermediate information partial area) and an area detected by the image matching unit 41 (hereinafter referred to as image matching). The degree of coincidence with “partial region” is shown.

まず、アクション情報判定部42は、画像照合部41から入力される部分領域(画像照合部分領域)と、中間情報により特定される部分領域(中間情報部分領域)のすべての組み合わせについて、領域一致スコアを計算する(ステップS421)。   First, the action information determination unit 42 determines the region match score for all combinations of the partial region (image verification partial region) input from the image verification unit 41 and the partial region (intermediate information partial region) specified by the intermediate information. Is calculated (step S421).

例えば、画像照合部分領域k(1≦k≦Kmax:ただし、Kmaxは、画像照合部分領域の数)と、中間情報部分領域c(1≦c≦Cmax:ただし、Cmaxは、中間情報により特定される部分領域の数)の領域一致度をreg_match(k,c)とすると、領域一致度は、例えば、以下に示す式3で定義される。For example, the image collation partial region k (1 ≦ k ≦ K max : where K max is the number of image collation partial regions) and the intermediate information partial region c (1 ≦ c ≦ C max : where C max is intermediate Assuming that the region matching degree of the number of partial regions specified by the information is reg_match (k, c), the region matching degree is defined by, for example, the following Expression 3.

reg_match(k,c)
=((画像照合部分領域kと中間情報部分領域cの共通部分の面積)/
(画像照合部分領域kと中間情報部分領域cの和領域の面積)) (式3)
reg_match (k, c)
= ((Area of common part of image collation partial region k and intermediate information partial region c) /
(Area of the sum area of the image collation partial area k and the intermediate information partial area c)) (Formula 3)

次に、アクション情報判定部42は、reg_match(k,c)が最大になるkとcの値を求める(ステップS422)。このためには、すべてのkとcの組み合わせに関して算出したreg_match(k,c)の値を記憶媒体(図示せず)に保持しておけばよい。reg_match(k,c)が最大になるkとcの値を、それぞれka、caとする。すなわち、アクション情報判定部42は、中間情報部分領域cのうち、画像照合部分領域kとの一致度合いが最も高いものを選択する。   Next, the action information determination unit 42 obtains values of k and c that maximize reg_match (k, c) (step S422). For this purpose, the value of reg_match (k, c) calculated for all combinations of k and c may be held in a storage medium (not shown). The values of k and c that maximize reg_match (k, c) are ka and ca, respectively. That is, the action information determination unit 42 selects the intermediate information partial region c that has the highest degree of matching with the image matching partial region k.

次に、アクション情報実行部43は、中間情報部分領域caに対応するアクション情報によって表わされる情報処理を実行する(ステップS43)。アクション情報実行部43は、アクション情報に従って、例えば、次のような情報処理を行う。   Next, the action information execution unit 43 executes information processing represented by the action information corresponding to the intermediate information partial area ca (step S43). The action information execution unit 43 performs the following information processing, for example, according to the action information.

例えば、アクション情報にURLが設定されている場合、アクション情報実行部43は、情報処理装置の内部もしくは外部にインストールされたブラウザ等のソフトウェアを起動し、指定されたURLに存在するコンテンツを呼び出してもよい。   For example, when a URL is set in the action information, the action information execution unit 43 activates software such as a browser installed inside or outside the information processing apparatus, and calls the content existing at the specified URL. Also good.

また、例えば、アクション情報に情報処理装置内部または外部のファイル名(動画ファイル、静止画ファイル、音声ファイル、テキストファイルなど)が設定されている場合、アクション情報実行部43は、必要に応じて各種ブラウザ、ビューア等を起動し、適切なソフトウェアを起動し、設定されたファイルを呼び出してもよい。   Also, for example, when the action information is set with an internal or external file name (moving image file, still image file, audio file, text file, etc.) in the information processing apparatus, the action information execution unit 43 performs various operations as necessary. You may start a browser, a viewer, etc., start appropriate software, and call the set file.

また、情報処理装置がユーザインターフェース機器を備えている場合、アクション情報実行部43が、その機器を利用して画像を表示したり、音声を出力したりすることも可能である。画像の表示処理や音声の出力処理等をする場合、画像や音声の種類だけでなく、それらの処理範囲を指定する情報(例えば、画像の表示範囲、音声の再生・終了位置など)が関連付けられていれば、アクション情報実行部43は、指定された情報に応じた情報処理を行ってもよい。   Further, when the information processing apparatus includes a user interface device, the action information execution unit 43 can display an image or output a sound using the device. When performing image display processing, sound output processing, etc., not only the type of image or sound but also information specifying the processing range (for example, the image display range, sound playback / end position, etc.) is associated. If so, the action information execution unit 43 may perform information processing according to the specified information.

また、例えば、アクション情報に情報処理装置内または情報処理装置外に存在するアプリケーションの操作コマンドまたは実行コマンドが設定されている場合、アクション情報実行部43は、その操作コマンドまたは実行コマンドを実行してもよい。   Further, for example, when an operation command or an execution command of an application existing in the information processing apparatus or outside the information processing apparatus is set in the action information, the action information execution unit 43 executes the operation command or the execution command. Also good.

また、アクション情報に情報処理を実行させるための条件が設定されている場合、アクション情報実行部43は、設定された条件を満たしている時に対象の装置に情報処理を実行させてもよい。   Further, when a condition for executing information processing is set in the action information, the action information execution unit 43 may cause the target device to execute information processing when the set condition is satisfied.

以上のように、本実施形態によれば、画像照合部41が、検索画像と登録画像とを照合して、検索画像に対応する登録画像中の領域を検出する。アクション情報判定部42が、中間情報の部分領域情報をもとに部分領域を特定し、特定された部分領域のうち、検出された領域との一致度合いが最も高い部分領域を選択する。ここで用いられる中間情報は、部分領域情報とアクション情報とを対応付けたものであるため、アクション情報判定部42が、その部分領域に対応するアクション情報を特定する。そして、アクション情報実行部43が、アクション情報に応じた情報処理を対象とする装置に実行させる。よって、登録画像の一部を示す画像情報が入力されたときに、その入力された画像情報に応じた情報処理を実行できる。   As described above, according to the present embodiment, the image collation unit 41 collates the search image with the registered image, and detects an area in the registered image corresponding to the search image. The action information determination unit 42 identifies a partial area based on the partial area information of the intermediate information, and selects a partial area having the highest degree of matching with the detected area from among the identified partial areas. Since the intermediate information used here associates the partial area information with the action information, the action information determination unit 42 specifies the action information corresponding to the partial area. And the action information execution part 43 is made to perform the apparatus made into the object about the information processing according to action information. Therefore, when image information indicating a part of the registered image is input, information processing according to the input image information can be executed.

例えば、特許文献4に記載されたシステムを用いたとしても、位置に応じて提示する情報を決定することはできない。しかし、本実施形態の情報処理装置は、入力された検索画像に対応する登録画像中の位置を自動で判定するので、判定された位置(すなわち、部分領域)に対応づけられた情報処理を行うことが可能になる。   For example, even if the system described in Patent Document 4 is used, information to be presented cannot be determined according to the position. However, since the information processing apparatus according to the present embodiment automatically determines the position in the registered image corresponding to the input search image, information processing associated with the determined position (that is, the partial region) is performed. It becomes possible.

なお、本実施形態では、第1の実施形態または第2の実施形態で説明した画像部分領域抽出装置が部分領域を検出する方法を用いて、画像照合部41が部分領域(矩形領域)を出力する場合を例に説明した。この場合、アクション情報判定部42は、出力された部分領域と中間情報に含まれる部分領域との重複する割合を比較することになる。   In this embodiment, the image collation unit 41 outputs a partial area (rectangular area) using the method for detecting a partial area by the image partial area extraction apparatus described in the first embodiment or the second embodiment. The case has been described as an example. In this case, the action information determination unit 42 compares the overlapping ratio between the output partial area and the partial area included in the intermediate information.

一方、画像照合部41は、部分領域を出力する代わりに、特徴点(連結対象ノード)を出力するようにしてもよい。この場合、アクション情報判定部42は、連結対象ノードの各座標値と各中間情報部分領域cとを比較し、各中間情報部分領域cに連結対象ノードがいくつ存在するかをカウントしてもよい。そして、アクション情報判定部42は、そのカウント値が最も大きい部分領域を選択してもよい。なお、カウント方法は任意であり、例えば、領域に含まれる特徴点ごとにカウント値を1ずつ増加させてもよく、カウント対象とする特徴点を特定してカウントを行ってもよい。   On the other hand, the image matching unit 41 may output feature points (connection target nodes) instead of outputting the partial areas. In this case, the action information determination unit 42 may compare each coordinate value of the connection target node with each intermediate information partial region c and count how many connection target nodes exist in each intermediate information partial region c. . Then, the action information determination unit 42 may select a partial region having the largest count value. The counting method is arbitrary. For example, the count value may be increased by 1 for each feature point included in the region, or the feature point to be counted may be specified and counted.

このような構成にした場合、第1の実施形態または第2の実施形態で説明した画像部分領域抽出装置が部分領域を検出する方法を用いる際、少なくとも第1の実施形態におけるステップSQ2052およびステップSQ2053の処理は不要になる。また、領域に含まれる特徴点ごとに1ずつ増加させる場合、対応領域を決定する処理(ステップSQ205の処理)が不要になる。   In such a configuration, when the image partial region extraction apparatus described in the first embodiment or the second embodiment uses the method of detecting a partial region, at least steps SQ2052 and SQ2053 in the first embodiment are used. This processing is unnecessary. Further, in the case of increasing by one for each feature point included in the area, the process for determining the corresponding area (the process of step SQ205) is not necessary.

また、本実施形態では、説明の都合上、検索画像と照合する登録画像が決まっている(すなわち登録画像が1枚である)場合を例に説明したが、登録画像が複数枚存在する場合も、容易に拡張が可能である。   Further, in the present embodiment, for the sake of explanation, the case where the registered image to be collated with the search image is determined (that is, the number of registered images is one) has been described as an example. Can be easily expanded.

例えば、登録画像が複数枚存在する場合、画像照合部41は、登録画像特徴量と検索画像特徴量との一致度合い(例えば、領域一致スコア)の最大値を各登録画像について算出し、その最大値が最も大きい登録画像から部分領域を出力すればよい。また、検索画像と照合する適切な登録画像を、他の既知の画像認識手法や画像検索手法を利用して判定しておき、適切と判定された登録画像から部分領域を出力してもよい。   For example, when there are a plurality of registered images, the image matching unit 41 calculates the maximum value of the degree of coincidence between the registered image feature quantity and the search image feature quantity (for example, the area match score) for each registered image, and the maximum The partial area may be output from the registered image having the largest value. In addition, an appropriate registered image to be compared with the search image may be determined using another known image recognition method or image search method, and a partial region may be output from the registered image determined to be appropriate.

次に、第3の実施形態の変形例を説明する。第3の実施形態では、画像照合部41によって出力される部分領域が中間情報記憶部44に格納された中間情報により特定される部分領域のどれであるかを判定する方法を説明した。すなわち、第3の実施形態では、画像照合部41によって出力される情報が部分領域であり、かつ、中間情報記憶部44には部分領域を特定するための中間情報が格納されているため、アクション情報判定部42は、両部分領域の一致度合いを比較してアクション情報を特定していた。   Next, a modification of the third embodiment will be described. In the third embodiment, the method of determining which partial area output by the image matching unit 41 is the partial area specified by the intermediate information stored in the intermediate information storage unit 44 has been described. That is, in the third embodiment, the information output by the image matching unit 41 is a partial area, and the intermediate information storage unit 44 stores intermediate information for specifying the partial area. The information determination unit 42 identifies action information by comparing the degree of coincidence of both partial areas.

本変形例では、中間情報記憶部44は、登録画像中の部分領域を特定するための識別子を中間情報に格納しておくものとする。以下、登録画像中の部分領域を特定するための識別子を部分領域IDと記す。さらに、画像照合部41は、登録画像から検索画像に相当する領域を検出した際、検出した領域に対応する部分領域IDを出力するものとする。この場合、画像照合部41は、中間情報に含まれる部分領域IDを参照し、登録画像と検索画像とを照合した結果得られた登録画像中の部分領域が、どの部分領域IDに対応するか判定する機構を備えていればよい。   In this modification, the intermediate information storage unit 44 stores an identifier for specifying a partial area in the registered image in the intermediate information. Hereinafter, an identifier for specifying a partial area in the registered image is referred to as a partial area ID. Furthermore, the image collation unit 41 outputs a partial region ID corresponding to the detected region when a region corresponding to the search image is detected from the registered image. In this case, the image matching unit 41 refers to the partial area ID included in the intermediate information, and which partial area ID corresponds to the partial area in the registered image obtained as a result of matching the registered image and the search image. What is necessary is just to provide the mechanism to determine.

具体的には、画像照合部41は、検出した部分領域から中間情報に含まれる部分領域IDが一意に特定できる場合、その部分領域IDを出力すればよい。また、検出した部分領域から特定される部分領域IDが複数存在する場合、画像照合部41は、例えば、上述する式3に示す方法と同様に、各部分領域との面積の一致度合いを算出し、より一致度合いの高い部分領域の部分領域IDを出力してもよい。   Specifically, when the partial area ID included in the intermediate information can be uniquely identified from the detected partial area, the image matching unit 41 may output the partial area ID. Further, when there are a plurality of partial region IDs identified from the detected partial regions, the image matching unit 41 calculates the degree of area coincidence with each partial region, for example, in the same manner as the method shown in Equation 3 above. The partial area ID of the partial area having a higher degree of matching may be output.

画像照合部41が照合結果として部分領域IDを出力することで、アクション情報判定部42は、その部分領域IDに対応するアクション情報(より詳しくは、その部分領域IDで特定される部分領域情報に対応付けられたアクション情報)を特定できる。   When the image collation unit 41 outputs the partial area ID as a collation result, the action information determination unit 42 can select action information corresponding to the partial area ID (more specifically, partial area information specified by the partial area ID). Associated action information).

また、中間情報記憶部44は、中間情報の部分領域IDごとに画像または特徴量の少なくともいずれかを分割して格納し、画像照合部41が、これらの画像または特徴量を用いて、画像を照合してもよい。すなわち、画像照合部41が、検索画像と分割画像とを照合して、検出した登録画像中の領域に対応する部分領域IDを出力し、アクション情報判定部42が、その部分領域IDに対応するアクション情報を特定してもよい。以下、登録画像を分割した個々の画像のことを分割画像と記す。分割画像は、登録画像中の部分領域を特定するために用いられる画像であり、部分領域IDにより特定される部分領域と同一の範囲の画像であってもよく、異なっていてもよい。   The intermediate information storage unit 44 stores at least one of the image and the feature amount for each partial area ID of the intermediate information, and the image collating unit 41 uses these images or the feature amount to store the image. You may collate. That is, the image collation unit 41 collates the search image and the divided image and outputs a partial region ID corresponding to the detected region in the registered image, and the action information determination unit 42 corresponds to the partial region ID. Action information may be specified. Hereinafter, each image obtained by dividing the registered image is referred to as a divided image. The divided image is an image used for specifying a partial region in the registered image, and may be an image in the same range as the partial region specified by the partial region ID, or may be different.

具体的には、中間情報記憶部44は、部分領域IDで特定される部分領域と同一の領域に含まれる画像を分割画像として格納してもよい。また、中間情報記憶部44は、この分割画像中の一部の画像を分割画像として格納してもよい。なお、特定の部分を抽出する方法として、例えば、既知の文書画像レイアウト解析等の技術を利用することができる。このように登録する画像を小さくすることにより、格納するデータ量を抑えることができる。   Specifically, the intermediate information storage unit 44 may store an image included in the same area as the partial area specified by the partial area ID as a divided image. Further, the intermediate information storage unit 44 may store a part of the divided images as a divided image. As a method for extracting a specific part, for example, a technique such as a known document image layout analysis can be used. By reducing the image to be registered in this way, the amount of data to be stored can be suppressed.

また、中間情報記憶部44は、部分領域IDで特定される部分領域を広げた領域に含まれる画像を分割画像として格納してもよい。なお、領域を広げる方法は任意であり、例えば、部分領域を全体的に広げるようにしてもよい。このように、部分領域IDで特定される部分領域に隣接する領域を含む画像を利用することで、照合する精度を向上できる。   Further, the intermediate information storage unit 44 may store an image included in an area obtained by expanding the partial area specified by the partial area ID as a divided image. The method of expanding the area is arbitrary, and for example, the partial area may be expanded as a whole. Thus, the accuracy of matching can be improved by using an image including an area adjacent to the partial area specified by the partial area ID.

また、中間情報記憶部44は、格納する分割画像と同様に、画像照合部41が照合に用いる特徴量を格納しておいてもよい。すなわち、部分領域IDで特定される部分領域と同一の領域に含まれる画像の特徴量を格納しておいてもよく、部分領域よりも大きい領域または小さい領域に含まれる画像の特徴量を格納しておいてもよい。この場合の特徴量は、画像照合部41が照合に用いる特徴量と同様に計算しておけばよい。   In addition, the intermediate information storage unit 44 may store a feature amount used for collation by the image collation unit 41 in the same manner as the divided images to be stored. That is, the feature amount of the image included in the same region as the partial region specified by the partial region ID may be stored, and the feature amount of the image included in the region larger or smaller than the partial region is stored. You may keep it. The feature amount in this case may be calculated in the same manner as the feature amount used by the image matching unit 41 for matching.

この場合、画像照合部41が、格納された特徴量と検索画像中の特徴量とを照合して、検出した登録画像中の領域に対応する部分領域IDを出力し、アクション情報判定部42が、その部分領域IDに対応するアクション情報を特定すればよい。   In this case, the image collation unit 41 collates the stored feature amount with the feature amount in the search image, outputs a partial region ID corresponding to the detected region in the registered image, and the action information determination unit 42 The action information corresponding to the partial area ID may be specified.

なお、このような情報を中間情報記憶部44に格納する場合、例えば、中間情報生成部(図示せず)が、中間情報に含まれる部分領域ごとに、画像内を参照しながら分割画像または特徴量を決定し、決定した分割画像または特徴量に部分領域IDを付加して中間情報記憶部44に自動的に格納するようにしてもよい。もしくは、画像照合部41が照合する画像または特徴量の単位を予め定めておき、その単位の画像または特徴量を中間情報の部分領域と対応付けるようにしてもよい。   In the case where such information is stored in the intermediate information storage unit 44, for example, an intermediate information generation unit (not shown) refers to a divided image or a feature while referring to the image for each partial area included in the intermediate information. The amount may be determined, and a partial region ID may be added to the determined divided image or feature amount and automatically stored in the intermediate information storage unit 44. Alternatively, the unit of the image or feature quantity to be collated by the image collating unit 41 may be determined in advance, and the unit image or feature quantity may be associated with the partial area of the intermediate information.

このように、1枚の大きな登録画像を、例えば、部分領域相当の複数の小さな登録画像に分割して中間情報記憶部44に格納しておき、画像照合部41が分割した各画像またはその画像から算出される特徴量を利用して画像を照合してもよい。なお、第1の実施形態または第2の実施形態で示した方法を用いることで、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できるため、全体の登録画像から位置を特定する方が、より好ましい。   In this way, one large registered image is divided into, for example, a plurality of small registered images corresponding to partial areas and stored in the intermediate information storage unit 44, and each image divided by the image collating unit 41 or its image The images may be collated using the feature amount calculated from the above. Note that by using the method shown in the first embodiment or the second embodiment, even if a search image having a different resolution or shooting angle from that of the registered image is used, a partial region corresponding to the search image is extracted from the registered image. Since it can be extracted, it is more preferable to specify the position from the entire registered image.

なお、部分領域IDを中間情報に含めて中間情報記憶部44が明示的に記憶しておいてもよい。また、中間情報記憶部44に中間情報を記憶させる順番や、中間情報として格納するファイルの格納順を、部分領域IDとして暗黙のうちに利用してもよい。また、中間情報として記憶する画像または特徴量に付加する部分領域IDについても同様である。   The intermediate information storage unit 44 may explicitly store the partial area ID in the intermediate information. Further, the order in which the intermediate information is stored in the intermediate information storage unit 44 and the storage order of the files stored as the intermediate information may be used implicitly as the partial area ID. The same applies to an image stored as intermediate information or a partial region ID added to a feature amount.

次に、第3の実施形態の情報処理装置を利用する場面の具体例を説明する。   Next, a specific example of a scene using the information processing apparatus according to the third embodiment will be described.

<具体例1>
まず、第3の実施形態の情報処理装置をリモートコントロール装置として動作させる場合の具体例を説明する。第1の具体例では、テレビジョンガイド誌の番組表(以下、単に番組表と記す。)を表わす登録画像の各部分領域にアクション情報を設定したときの動作例を説明する。
<Specific example 1>
First, a specific example in which the information processing apparatus according to the third embodiment is operated as a remote control apparatus will be described. In the first specific example, an example of operation when action information is set in each partial region of a registered image representing a television guide magazine program table (hereinafter simply referred to as a program table) will be described.

番組表を登録画像として利用する場合、番組単位にブロック化したものを部分領域とし、その部分領域を示す部分領域情報に、録画予約やチャンネル変更指示、VoD(Video On Demand )視聴用のコンテンツ購入指示などのアクション情報を対応付けることができる。ここでは、中間情報記憶部44は、録画予約を実行させるアクション情報、ビデオオンデマンド視聴要求を実行させるアクション情報、および、ビデオコンテンツ購入処理を実行させるアクション情報の少なくとも1つ以上のアクション情報を記憶しているものとする。   When a program guide is used as a registered image, a block divided into program units is set as a partial area, and content for reservation of recording, channel change instruction, VoD (Video On Demand) viewing is included in the partial area information indicating the partial area Action information such as instructions can be associated. Here, the intermediate information storage unit 44 stores at least one action information of action information for executing a recording reservation, action information for executing a video-on-demand viewing request, and action information for executing a video content purchase process. Suppose you are.

情報処理装置が番組表の一部を撮影した画像を受け取ると、画像照合部41は、登録画像中の部分領域(すなわち、対象番組)を特定する。アクション情報判定部42は、情報処理装置内部のタイマによる計時時刻と、特定された部分領域内の対象番組の放送時刻を比較する。   When the information processing apparatus receives an image obtained by photographing a part of the program guide, the image matching unit 41 specifies a partial area (that is, a target program) in the registered image. The action information determination unit 42 compares the time measured by the timer in the information processing apparatus with the broadcast time of the target program in the specified partial area.

対象番組の放送時間が計時時刻内である場合、アクション情報判定部42は、チャンネル変更を行うための操作画面を表示すると判断してもよい。また、対象番組の放送時間が計時時刻より後である場合、アクション情報判定部42は、その対象番組を録画予約するための操作画面を表示すると判断してもよい。また、対象番組の放送時間が計時時刻より後である場合、アクション情報判定部42は、ビデオオンデマンド視聴要求を行うための操作画面を表示すると判断してもよいし、その対象番組のビデオコンテンツの購入や照会を行うための操作画面を表示すると判断してもよい。   When the broadcast time of the target program is within the measured time, the action information determination unit 42 may determine to display an operation screen for changing the channel. Further, when the broadcast time of the target program is later than the measured time, the action information determination unit 42 may determine to display an operation screen for reserving recording of the target program. Further, when the broadcast time of the target program is later than the measured time, the action information determination unit 42 may determine to display an operation screen for making a video-on-demand viewing request, or the video content of the target program It may be determined that an operation screen for purchasing or inquiring is displayed.

このような判定処理を行うためには、アクション情報に、計時時刻と放送時刻との比較処理、および、その比較結果による情報処理内容が含まれていればよい。アクション情報実行部43は、アクション情報判定部42によって判定されたアクション情報に応じて情報処理を実行することになる。   In order to perform such a determination process, the action information only needs to include a comparison process between the clocked time and the broadcast time and information processing contents based on the comparison result. The action information execution unit 43 executes information processing according to the action information determined by the action information determination unit 42.

<具体例2>
次に、第3の実施形態の情報処理装置を新聞記事の内容を提示する装置として動作させる場合の具体例を説明する。第2の具体例では、新聞記事を示す登録画像の各部分領域にアクション情報を設定したときの動作例を説明する。新聞記事を登録画像として利用する場合、新聞記事の単位にブロック化したものを部分領域とし、その部分領域を表わす部分領域情報にアクション情報を対応付けることができる。具体的には、アクション情報として、新聞の記事を読みあげることや、動画データの再生指示、web上に存在する関連ページの表示を実行させる情報処理を設定できる。
<Specific example 2>
Next, a specific example in which the information processing apparatus according to the third embodiment is operated as an apparatus for presenting the contents of newspaper articles will be described. In the second specific example, an operation example when action information is set in each partial area of a registered image indicating a newspaper article will be described. When a newspaper article is used as a registered image, it is possible to use a block of newspaper articles as a partial area and associate action information with partial area information representing the partial area. Specifically, as the action information, it is possible to set information processing for reading a newspaper article, instructing to reproduce moving image data, and displaying a related page existing on the web.

情報処理装置が新聞記事の一部を撮影した画像を受け取ると、画像照合部41は、登録画像中の部分領域(すなわち、対象記事)を特定する。アクション情報判定部42は、部分領域にブロック化した記事が含まれると判定した場合、その部分領域を表わす部分領域情報に対応するアクション情報を特定する。このとき、アクション情報判定部42は、ユーザに読み上げデータがあることを示す画面を表示すると判断してもよい。この場合、アクション情報実行部43は、画面を表示し、表示されたアクション(読み上げ)の実行をユーザが指示したときに、音声再生を開始して記事の読み上げを行う。   When the information processing apparatus receives an image obtained by photographing a part of a newspaper article, the image matching unit 41 specifies a partial region (that is, a target article) in the registered image. When the action information determination unit 42 determines that the partial area includes a blocked article, the action information determination unit 42 specifies action information corresponding to the partial area information representing the partial area. At this time, the action information determination unit 42 may determine to display a screen indicating that the user has read-out data. In this case, the action information execution unit 43 displays a screen, and when the user instructs execution of the displayed action (reading), the voice information is started to read the article.

また、アクション情報に動画が指定されている場合、アクション情報判定部42は、ユーザに動画があることを示す画面を表示すると判断してもよい。この場合、アクション情報実行部43は、その動画を再生する。   Further, when a moving image is specified in the action information, the action information determination unit 42 may determine to display a screen indicating that the user has a moving image. In this case, the action information execution unit 43 reproduces the moving image.

また、対象記事が広告の場合、アクション情報にショッピングサイトへのリンクを設定しておいてもよい。例えば、その広告を撮影した画像を受け取った場合、アクション情報判定部42は、ショッピングサイトへのリンクを示す画面を表示すると判断し、アクション情報実行部43が、ブラウザを起動してそのショッピングサイトを表示するようにしてもよい。   If the target article is an advertisement, a link to a shopping site may be set in the action information. For example, when an image of the advertisement is received, the action information determination unit 42 determines to display a screen showing a link to the shopping site, and the action information execution unit 43 activates the browser and displays the shopping site. You may make it display.

<具体例3>
次に、第3の実施形態の情報処理装置を、書籍を扱う本屋や図書館などで用いられる端末装置として動作させる場合の具体例を説明する。第3の具体例では、本(雑誌など)の表紙や背表紙を示す登録画像の各部分領域にアクション情報を設定したときの動作例を説明する。本の表紙や背表紙を登録画像として利用する場合、本を識別可能な部分をブロック化したものを部分領域とし、その部分領域を表わす部分領域情報にアクション情報を対応付けることができる。
<Specific example 3>
Next, a specific example in which the information processing apparatus according to the third embodiment is operated as a terminal device used in a bookstore or a library that handles books will be described. In the third specific example, an operation example when action information is set in each partial area of a registered image indicating a cover or back cover of a book (magazine or the like) will be described. When a book cover or spine cover is used as a registered image, a block area of a book identifiable portion is used as a partial area, and action information can be associated with partial area information representing the partial area.

具体的には、アクション情報として、本の中身を閲覧するための情報処理を設定できる。なお、本具体例では、端末装置が店舗内または施設内の無線エリアで接続されているものとし、アクション情報には、無線エリア内でのみアクション情報に応じた処理を実行可能である旨が設定されているものとする。   Specifically, information processing for browsing the contents of a book can be set as action information. In this specific example, the terminal device is assumed to be connected in a wireless area in the store or facility, and the action information is set to indicate that processing according to the action information can be executed only in the wireless area. It is assumed that

例えば、情報処理装置が本の表紙や背表紙の一部を撮影した画像を受け取ると、画像照合部41は、登録画像中の部分領域を特定する。アクション情報判定部42は、部分領域に本の表紙や背表紙の一部が含まれると判定した場合、その部分領域を表わす部分領域情報に対応するアクション情報を特定する。具体的には、アクション情報判定部42は、その画像から本を特定し、その本の中身を表示すると判断してもよい。この場合、アクション情報実行部43は、端末が無線エリア内にある場合にのみ、その本の内容を表示するようにしてもよい。また、情報処理装置が貸出処理または購入処理の完了を確認できた場合、アクション情報実行部43は、端末が無線エリア内から出た場合でも、その本の内容を表示できるようにしてもよい。   For example, when the information processing apparatus receives an image obtained by photographing a part of a book cover or spine, the image collation unit 41 specifies a partial region in the registered image. When the action information determination unit 42 determines that the partial area includes a part of a book cover or spine cover, the action information determination unit 42 specifies action information corresponding to the partial area information representing the partial area. Specifically, the action information determination unit 42 may determine that a book is specified from the image and the contents of the book are displayed. In this case, the action information execution unit 43 may display the contents of the book only when the terminal is in the wireless area. In addition, when the information processing apparatus can confirm the completion of the lending process or the purchase process, the action information execution unit 43 may be able to display the contents of the book even when the terminal leaves the wireless area.

<具体例4>
次に、第3の実施形態の情報処理装置を、観光地情報を表示する端末装置として動作させる場合の具体例を説明する。第4の具体例では、観光地に設けられた看板に表示される観光地マップを示す登録画像の各部分領域にアクション情報を設定したときの動作例を説明する。観光地マップを登録画像として利用する場合、観光地を表示しているエリアや説明個所などの部分をブロック化したものを部分領域とし、その部分領域を表わす部分領域情報にアクション情報を対応付けることができる。具体的には、アクション情報として、観光地情報を表示するための情報処理を設定できる。
<Specific Example 4>
Next, a specific example in which the information processing apparatus according to the third embodiment is operated as a terminal device that displays sightseeing spot information will be described. In the fourth specific example, an operation example when action information is set in each partial area of a registered image indicating a sightseeing spot map displayed on a signboard provided in a sightseeing spot will be described. When using a sightseeing spot map as a registered image, it is possible to associate a part of an area displaying a sightseeing spot or an explanation part into a partial area and associate action information with the partial area information representing the partial area. it can. Specifically, information processing for displaying sightseeing spot information can be set as action information.

情報処理装置が観光地マップの一部を撮影した画像を受け取ると、画像照合部41は、登録画像中の部分領域(すなわち、観光地情報)を特定する。アクション情報判定部42は、部分領域にブロック化した記事が含まれると判定した場合、その部分領域を表わす部分領域情報に対応するアクション情報を特定する。このとき、アクション情報判定部42は、観光地情報を提示すると判断してもよい。この場合、アクション情報実行部43は、登録された観光地情報を画面に表示したり、動画データを再生したりする処理を行う。   When the information processing apparatus receives an image obtained by photographing a part of the sightseeing spot map, the image collating unit 41 specifies a partial area (that is, sightseeing spot information) in the registered image. When the action information determination unit 42 determines that the partial area includes a blocked article, the action information determination unit 42 specifies action information corresponding to the partial area information representing the partial area. At this time, the action information determination unit 42 may determine to present the sightseeing spot information. In this case, the action information execution unit 43 performs processing for displaying the registered sightseeing spot information on the screen and reproducing the moving image data.

なお、看板に表示される観光地マップを撮影する場合、看板が大きいことが想定されることから、撮影される画像の解像度や大きさも様々であることが想定される。しかし、第1の実施形態または第2の実施形態の画像部分領域抽出装置を用いることにより、適切に部分領域を特定できるため、その部分領域を利用した情報処理も適切に行うことが可能になる。   In addition, when photographing the sightseeing spot map displayed on the signboard, since the signboard is assumed to be large, it is assumed that the resolution and size of the photographed image are various. However, since the partial area can be appropriately identified by using the image partial area extraction device of the first embodiment or the second embodiment, it is possible to appropriately perform information processing using the partial area. .

図20は、本発明の画像部分領域抽出装置の概要を示すブロック図である。本発明の画像部分領域抽出装置は、検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出装置であって、登録画像の注目する特徴点(例えば、注目特徴点)ごとに、所定の規則に基づいて順序付けされた、その注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される、幾何学的変換に不変な特徴量である登録画像特徴量を記憶する特徴量記憶部81(例えば、登録画像特徴量記憶装置)と、検索画像中の注目する特徴点ごとに特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である検索画像特徴量と、登録画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出部82(例えば、対応特徴点検出部204)と、対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い(例えば、最も一致度合いが高い)対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定部83(例えば、対応領域判定部205)とを備えている。   FIG. 20 is a block diagram showing an outline of the image partial area extracting apparatus of the present invention. An image partial region extraction apparatus according to the present invention is an image partial region extraction device that extracts a partial region corresponding to a search image from a registered image, and has a predetermined value for each feature point (for example, a feature point of interest) of the registered image. A registered image feature quantity that is invariant to geometric transformation, calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point of interest, ordered according to the rules of Is a feature quantity that is invariant to the geometric transformation calculated based on the feature point arrangement for each feature point of interest in the search image and the feature quantity storage unit 81 (for example, a registered image feature quantity storage device). Correspondence that is a feature point included in the feature point arrangement in the registered image corresponding to a feature point included in the feature point arrangement in the search image by comparing the degree of coincidence between the search image feature quantity and the registered image feature quantity Corresponding feature to detect feature points The point detection unit 82 (for example, the corresponding feature point detection unit 204) is identified by the corresponding feature point having a higher degree of matching (for example, the highest degree of matching) with the feature point in the search image among the corresponding feature points. A corresponding area determination unit 83 (for example, a corresponding area determination unit 205) that extracts a partial area in the registered image.

そのような構成により、解像度や撮影角度が登録画像と異なる検索画像を用いても、その検索画像に対応する部分領域を登録画像から抽出できる。   With such a configuration, even if a search image having a different resolution or shooting angle from that of the registered image is used, a partial region corresponding to the search image can be extracted from the registered image.

具体的には、対応特徴点検出部82は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出してもよい。そして、対応領域判定部83は、一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出してもよい。   Specifically, the corresponding feature point detection unit 82, when it is determined that the search image feature value matches the registered image feature value, the feature point in the feature point arrangement from which the search image feature value is calculated The number of times of matching may be calculated for each corresponding feature point. Then, the corresponding area determination unit 83 may extract a partial area in the registered image specified by the connection target node, which is a corresponding feature point having a predetermined number of matches or more.

このように一致回数がより多い特徴点を利用することで、部分領域を抽出する精度を高めることができる。   By using feature points having a higher number of matches in this way, it is possible to improve the accuracy of extracting partial regions.

また、特徴量記憶部81は、互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域である連結領域から選択される特徴点の集合を特徴点配置とし、その特徴点配置に基づいて算出される登録画像特徴量を記憶してもよい。そして、対応領域判定部83は、連結対象ノードと所定の距離以内にある他の連結対象ノードを選択し(例えば、特徴点をエッジで接続し)、選択された連結対象ノードを含む連結領域から特定される部分領域を抽出してもよい。   Further, the feature amount storage unit 81 sets a feature point set selected from a connected region, which is a region obtained by connecting pixels adjacent to each other among pixels determined to belong to the same color, as a feature point arrangement. A registered image feature quantity calculated based on the feature point arrangement may be stored. Then, the corresponding region determination unit 83 selects another connection target node within a predetermined distance from the connection target node (for example, connecting feature points with edges), and selects the connection region including the selected connection target node. The specified partial area may be extracted.

このように、部分領域に含まれる蓋然性が高い特徴点のうち、近接する特徴点から特定される領域を抽出しているので、部分領域を抽出する精度をより高めることができる。   Thus, since the area | region specified from the feature point which adjoins among the feature points with high probability contained in a partial area | region is extracted, the precision which extracts a partial area | region can be improved more.

また、対応特徴点検出部82(例えば、対応特徴点対検出部304)は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて、検索画像中の特徴点と登録画像中の特徴点の組み合わせである特徴点一致履歴を生成してもよい。そして、対応領域判定部83(例えば、対応領域推定部305)は、特徴点一致履歴を用いて検索画像を登録画像に幾何変換するパラメータ(例えば、ホモグラフィ行列)を算出し、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出してもよい。   Also, the corresponding feature point detection unit 82 (for example, the corresponding feature point pair detection unit 304) uses the feature points of the matched feature amounts when it is determined that the search image feature amount and the registered image feature amount match. Thus, a feature point matching history that is a combination of feature points in the search image and feature points in the registered image may be generated. Then, the corresponding region determination unit 83 (for example, the corresponding region estimation unit 305) calculates a parameter (for example, a homography matrix) for geometrically converting the search image into a registered image using the feature point matching history, and uses the calculated parameter as the calculated parameter. On the basis of this, a region obtained by projecting the region of the search image onto the registered image may be extracted as a partial region.

このように算出したパラメータを利用することで、特徴点一致判定に漏れが多い場合でも、検索画像に相当する大きさの出力領域を安定的に得ることができる。   By using the parameters calculated in this way, an output region having a size corresponding to the search image can be stably obtained even when there are many omissions in the feature point match determination.

また、対応領域判定部83は、特徴点一致履歴に含まれる特徴点の組合せを用いて算出されたパラメータのうち、検索画像を登録画像に変換する確からしさ(例えば、評価値)がより高いパラメータを選択し、選択したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出してもよい。   In addition, the corresponding region determination unit 83 has a higher probability (for example, an evaluation value) of converting a search image into a registered image among parameters calculated using a combination of feature points included in the feature point matching history. And a region obtained by projecting the region of the search image onto the registered image based on the selected parameter may be extracted as a partial region.

このようなパラメータを用いることで、より尤もらしい画像を抽出することが可能になる。   By using such parameters, a more likely image can be extracted.

また、画像部分領域抽出装置は、検索画像から特徴点を抽出する特徴点抽出部(例えば、検索画像特徴点生成部Q201)と、抽出された特徴点をもとに1つ以上の特徴点配置を生成する特徴点配置生成部(例えば、検索画像特徴点配置生成部Q202)と、特徴点配置に基づいて検索画像特徴量を生成する検索画像特徴量生成部(例えば、検索画像特徴量生成部Q203)とを備えていてもよい。そして、対応特徴点検出部82は、検索画像特徴量と登録画像特徴量とを比較して対応特徴点を検出してもよい。   In addition, the image partial region extraction device includes a feature point extraction unit (for example, a search image feature point generation unit Q201) that extracts feature points from a search image, and one or more feature point arrangements based on the extracted feature points. A feature point arrangement generation unit (for example, a search image feature point arrangement generation unit Q202) and a search image feature amount generation unit (for example, a search image feature amount generation unit) that generates a search image feature amount based on the feature point arrangement Q203). Then, the corresponding feature point detection unit 82 may detect the corresponding feature point by comparing the search image feature quantity with the registered image feature quantity.

上記の実施形態の一部又は全部は、以下の付記のようにも記載されうるが、以下には限られない。   A part or all of the above-described embodiment can be described as in the following supplementary notes, but is not limited thereto.

(付記1)検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出装置であって、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量を記憶する特徴量記憶部と、検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量と、前記登録画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出部と、前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定部とを備えたことを特徴とする画像部分領域抽出装置。 (Supplementary Note 1) An image partial region extraction apparatus that extracts a partial region corresponding to a search image from a registered image, and the feature points of interest ordered according to a predetermined rule for each feature point of interest of the registered image A feature amount storage unit that stores a registered image feature amount that is a feature amount that is invariant to a geometric transformation calculated based on a feature point arrangement that is a set of feature points that exist in the vicinity of the feature point, and attention in the search image By comparing the degree of coincidence between the search image feature quantity, which is a feature quantity invariant to the geometric transformation calculated based on the feature point arrangement for each feature point, and the registered image feature quantity, A corresponding feature point detecting unit that detects a corresponding feature point that is a feature point included in the feature point arrangement in the registered image corresponding to the feature point included in the feature point arrangement; More matching with feature points Image portion area extraction apparatus characterized by comprising a corresponding area determining section for extracting a partial region in the registered image specified by have corresponding feature point.

(付記2)対応特徴点検出部は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、対応領域判定部は、前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出する付記1記載の画像部分領域抽出装置。 (Supplementary Note 2) When it is determined that the search image feature value matches the registered image feature value, the corresponding feature point detection unit matches the feature point in the feature point arrangement from which the search image feature value is calculated. The number of matching is calculated for each corresponding feature point, and the corresponding region determination unit extracts a partial region in the registered image specified by the connection target node that is the corresponding feature point having the number of matching equal to or greater than a predetermined number of times. The image partial region extraction apparatus according to 1.

(付記3)特徴量記憶部は、互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域である連結領域から選択される特徴点の集合を特徴点配置とし、当該特徴点配置に基づいて算出される登録画像特徴量を記憶し、対応領域判定部は、連結対象ノードと所定の距離以内にある他の連結対象ノードを選択し、選択された連結対象ノードを含む前記連結領域から特定される部分領域を抽出する付記2記載の画像部分領域抽出装置。 (Additional remark 3) The feature-value memory | storage part makes the feature point arrangement | positioning the collection of the feature points selected from the connection area | region which is the area | region which connected the pixel which has a mutually adjacent relationship among the pixels determined to belong to the same color mutually, The registered image feature amount calculated based on the feature point arrangement is stored, and the corresponding region determination unit selects another connection target node within a predetermined distance from the connection target node, and selects the selected connection target node. The image partial region extraction device according to supplementary note 2, wherein a partial region specified from the connected region is extracted.

(付記4)対応特徴点検出部は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて、検索画像中の特徴点と登録画像中の特徴点の組み合わせである特徴点一致履歴を生成し、対応領域判定部は、前記特徴点一致履歴を用いて検索画像を登録画像に幾何変換するパラメータを算出し、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する付記2または付記3記載の画像部分領域抽出装置。 (Supplementary Note 4) When it is determined that the search image feature quantity matches the registered image feature quantity, the corresponding feature point detection unit registers the feature point in the search image using the feature point of each matched feature quantity. A feature point matching history that is a combination of feature points in the image is generated, and the corresponding region determination unit calculates a parameter for geometrically converting the search image into a registered image using the feature point matching history, and based on the calculated parameter The image partial region extraction device according to supplementary note 2 or supplementary note 3, wherein a region obtained by projecting the region of the search image onto the registered image is extracted as a partial region.

(付記5)対応領域判定部は、特徴点一致履歴に含まれる特徴点の組合せを用いて算出されたパラメータのうち、検索画像を登録画像に変換する確からしさがより高いパラメータを選択し、選択したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する付記4記載の画像部分領域抽出装置。 (Supplementary Note 5) The corresponding region determination unit selects and selects a parameter having a higher probability of converting the search image into the registered image from the parameters calculated using the combination of the feature points included in the feature point matching history. The image partial region extraction device according to supplementary note 4, wherein a region obtained by projecting the region of the search image onto the registered image is extracted as a partial region based on the parameters obtained.

(付記6)検索画像から特徴点を抽出する特徴点抽出部と、抽出された特徴点をもとに1つ以上の特徴点配置を生成する特徴点配置生成部と、前記特徴点配置に基づいて検索画像特徴量を生成する検索画像特徴量生成部とを備え、対応特徴点検出部は、前記検索画像特徴量と登録画像特徴量とを比較して対応特徴点を検出する付記1から付記5のうちのいずれか1つに記載の画像部分領域抽出装置。 (Additional remark 6) Based on the feature point arrangement | positioning part which extracts the feature point from a search image, the feature point arrangement | positioning production | generation part which produces | generates one or more feature point arrangement | positioning based on the extracted feature point, and the said feature point arrangement | positioning A search image feature value generation unit that generates a search image feature value, and the corresponding feature point detection unit detects the corresponding feature point by comparing the search image feature value with the registered image feature value. The image partial region extraction device according to any one of 5.

(付記7)検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出方法であって、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出し、前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出することを特徴とする画像部分領域抽出方法。 (Supplementary note 7) An image partial region extraction method for extracting a partial region corresponding to a search image from a registered image, wherein the feature points of interest ordered according to a predetermined rule for each feature point of interest of the registered image A registered image feature amount that is a feature amount that is invariant to the geometric transformation calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point, and the feature point for each feature point of interest in the search image A registered image corresponding to a feature point included in the feature point arrangement in the search image by comparing the degree of coincidence with the search image feature quantity that is a feature quantity invariant to the geometric transformation calculated based on the arrangement A corresponding feature point that is a feature point included in the middle feature point arrangement is detected, and among the corresponding feature points, in the registered image identified by the corresponding feature point having a higher degree of matching with the feature point in the search image Extracting partial areas Image part region extraction method characterized.

(付記8)検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出する付記7記載の画像部分領域抽出方法。 (Supplementary Note 8) When it is determined that the search image feature quantity matches the registered image feature quantity, the number of matches that matches the feature point in the feature point arrangement from which the search image feature quantity is calculated is the corresponding feature point The image partial region extraction method according to appendix 7, wherein a partial region in a registered image that is calculated every time and that is identified by a connection target node that is a corresponding feature point with the number of matches equal to or greater than a predetermined number is extracted.

(付記9)互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域である連結領域から選択される特徴点の集合を特徴点配置とし、当該特徴点配置に基づいて算出される登録画像特徴量と、検索画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、連結対象ノードと所定の距離以内にある他の連結対象ノードを選択し、選択された連結対象ノードを含む前記連結領域から特定される部分領域を抽出する付記8記載の画像部分領域抽出方法。 (Supplementary Note 9) A set of feature points selected from a connected region that is a region in which pixels adjacent to each other among pixels determined to belong to the same color are connected as a feature point placement, and based on the feature point placement If it is determined that the registered image feature value calculated in this way matches the search image feature value, the number of matches that matches the feature point in the feature point arrangement from which the search image feature value is calculated The image according to appendix 8, wherein the calculation is performed for each point, another connection target node within a predetermined distance from the connection target node is selected, and a partial region specified from the connection region including the selected connection target node is extracted. Partial region extraction method.

(付記10)検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて、検索画像中の特徴点と登録画像中の特徴点の組み合わせである特徴点一致履歴を生成し、前記特徴点一致履歴を用いて検索画像を登録画像に幾何変換するパラメータを算出し、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する付記8または付記9記載の画像部分領域抽出方法。 (Supplementary Note 10) When it is determined that the search image feature quantity matches the registered image feature quantity, the feature points in the search image and the feature points in the registration image are used using the feature points of the matched feature quantities. A feature point matching history is generated, a parameter for geometrically converting the search image into a registered image is calculated using the feature point matching history, and an area in which the region of the search image is projected onto the registered image based on the calculated parameter is calculated. The image partial region extraction method according to appendix 8 or appendix 9, wherein the partial region is extracted as a partial region.

(付記11)特徴点一致履歴に含まれる特徴点の組合せを用いて算出されたパラメータのうち、検索画像を登録画像に変換する確からしさがより高いパラメータを選択し、選択したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する付記10記載の画像部分領域抽出方法。 (Supplementary Note 11) Among parameters calculated using a combination of feature points included in the feature point matching history, a parameter having a higher probability of converting a search image to a registered image is selected, and a search is performed based on the selected parameter. The image partial region extraction method according to supplementary note 10, wherein a region obtained by projecting an image region onto a registered image is extracted as a partial region.

(付記12)検索画像から特徴点を抽出し、抽出された特徴点をもとに1つ以上の特徴点配置を生成し、前記特徴点配置に基づいて検索画像特徴量を生成し、前記検索画像特徴量と登録画像特徴量とを比較して対応特徴点を検出する付記7から付記11のうちのいずれか1つに記載の画像部分領域抽出方法。 (Supplementary Note 12) Extracting feature points from a search image, generating one or more feature point arrangements based on the extracted feature points, generating a search image feature amount based on the feature point arrangements, and executing the search The image partial region extraction method according to any one of Supplementary Note 7 to Supplementary Note 11, wherein the corresponding feature point is detected by comparing the image feature amount with the registered image feature amount.

(付記13)検索画像に相当する部分領域を登録画像から抽出するコンピュータに適用される画像部分領域抽出用プログラムであって、前記コンピュータに、登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出処理、および、前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定処理を実行させるための画像部分領域抽出用プログラム。 (Supplementary note 13) An image partial region extraction program applied to a computer for extracting a partial region corresponding to a search image from a registered image, the computer according to a predetermined rule for each feature point of interest of the registered image A registered image feature quantity that is a feature quantity that is invariant to the geometric transformation calculated based on a feature point arrangement that is a set of feature points existing in the vicinity of the feature point of interest that is ordered based on For each feature point of interest, the degree of coincidence with the search image feature amount, which is a feature amount that is invariant to the geometric transformation calculated based on the feature point arrangement, is compared with the feature point arrangement in the search image. A corresponding feature point detection process for detecting a corresponding feature point corresponding to a feature point included in the registered feature point arrangement in the registered image, and a feature point in the search image among the corresponding feature points; Image part region extraction program for matching degree to execute the corresponding region determination process of extracting a partial region in the registered image which is specified by a higher corresponding feature point.

(付記14)コンピュータに、対応特徴点検出処理で、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出させ、対応領域判定処理で、前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出させる付記13記載の画像部分領域抽出用プログラム。 (Additional remark 14) When it is judged by the corresponding feature point detection process that the search image feature quantity and the registered image feature quantity match in the computer, the feature in the feature point arrangement from which the search image feature quantity is calculated The number of matches that match a point is calculated for each corresponding feature point, and in the corresponding region determination process, a partial region in the registered image that is identified by a connection target node that is a corresponding feature point that is equal to or greater than the predetermined number of matches is determined. The program for extracting an image partial area according to appendix 13, which is extracted.

(付記15)コンピュータに、対応特徴点検出処理で、互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域である連結領域から選択される特徴点の集合を特徴点配置とし、当該特徴点配置に基づいて算出される登録画像特徴量と、検索画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出させ、対応領域判定処理で、連結対象ノードと所定の距離以内にある他の連結対象ノードを選択させ、選択された連結対象ノードを含む前記連結領域から特定される部分領域を抽出させる付記14記載の画像部分領域抽出用プログラム。 (Supplementary Note 15) A computer is characterized by a set of feature points selected from a connected region that is a region obtained by connecting pixels adjacent to each other among pixels determined to belong to the same color in the corresponding feature point detection process. If it is determined that the registered image feature value calculated based on the feature point arrangement matches the search image feature value, the feature point arrangement from which the search image feature value is calculated is determined. The number of matches that match a feature point is calculated for each corresponding feature point, and in the corresponding region determination process, another connection target node within a predetermined distance from the connection target node is selected, and the selected connection target node is included. 15. The program for extracting an image partial area according to appendix 14, which extracts a partial area specified from the connected area.

(付記16)コンピュータに、対応特徴点検出処理で、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて、検索画像中の特徴点と登録画像中の特徴点の組み合わせである特徴点一致履歴を生成させ、対応領域判定処理で、前記特徴点一致履歴を用いて検索画像を登録画像に幾何変換するパラメータを算出させ、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出させる付記14または付記15記載の画像部分領域抽出用プログラム。 (Supplementary Note 16) When it is determined by the corresponding feature point detection processing that the search image feature amount and the registered image feature amount match, the feature in the search image is used using the feature point of each matched feature amount. A feature point matching history that is a combination of a point and a feature point in the registered image is generated, and a parameter for geometrically converting the search image into a registered image is calculated using the feature point matching history in the corresponding region determination process. The program for extracting an image partial region according to supplementary note 14 or supplementary note 15, wherein a region obtained by projecting the region of the search image on the registered image based on the parameter is extracted as a partial region.

(付記17)コンピュータに、対応領域判定処理で、特徴点一致履歴に含まれる特徴点の組合せを用いて算出されたパラメータのうち、検索画像を登録画像に変換する確からしさがより高いパラメータを選択させ、選択したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出させる付記16記載の画像部分領域抽出用プログラム。 (Supplementary Note 17) Among the parameters calculated using the combination of feature points included in the feature point matching history in the corresponding region determination process, the computer selects a parameter having a higher probability of converting the search image into the registered image. The program for extracting an image partial region according to supplementary note 16, wherein a region obtained by projecting the region of the search image on the registered image based on the selected parameter is extracted as a partial region.

(付記18)コンピュータに、検索画像から特徴点を抽出する特徴点抽出処理、抽出された特徴点をもとに1つ以上の特徴点配置を生成する特徴点配置生成処理、および、前記特徴点配置に基づいて検索画像特徴量を生成する検索画像特徴量生成処理を実行させ、対応特徴点検出処理で、前記検索画像特徴量と登録画像特徴量とを比較して対応特徴点を検出させる付記13から付記17のうちのいずれか1つに記載の画像部分領域抽出用プログラム。 (Supplementary Note 18) Feature point extraction processing for extracting feature points from a search image in a computer, feature point location generation processing for generating one or more feature point locations based on the extracted feature points, and the feature points Additional processing for executing search image feature value generation processing for generating a search image feature value based on arrangement, and detecting corresponding feature points by comparing the search image feature values with registered image feature values in corresponding feature point detection processing The program for extracting an image partial area according to any one of 13 to appendix 17.

以上、実施形態及び実施例を参照して本願発明を説明したが、本願発明は上記実施形態および実施例に限定されるものではない。本願発明の構成や詳細には、本願発明のスコープ内で当業者が理解し得る様々な変更をすることができる。   Although the present invention has been described with reference to the embodiments and examples, the present invention is not limited to the above embodiments and examples. Various changes that can be understood by those skilled in the art can be made to the configuration and details of the present invention within the scope of the present invention.

この出願は、2012年10月18日に出願された日本特許出願2012−230885を基礎とする優先権を主張し、その開示の全てをここに取り込む。   This application claims the priority on the basis of the JP Patent application 2012-230885 for which it applied on October 18, 2012, and takes in those the indications of all here.

本発明によれば、各種誌面中からユーザが撮影したコンテンツをキーに情報処理を実行する情報処理装置一般に適用できる。   INDUSTRIAL APPLICABILITY According to the present invention, the present invention can be applied to general information processing apparatuses that perform information processing using content captured by a user from various magazines as a key.

例えば、上述する情報処理装置を、新聞や雑誌の記事、各種広告、説明資料等の文字が記載されている実世界中の物体(紙、板など)からデジタル情報を検索する装置に適用可能である。さらに、上述する情報処理装置を、テレビジョンガイド誌を利用して、録画予約、ビデオ視聴、ビデオコンテンツ購入処理などを行う装置に適用できる。また、上述する画像部分領域抽出装置を、郵便物、宅配便等の画像から郵便物を特定する装置にも適用可能である。具体的には、画像部分領域抽出装置を用いて、郵便物や宅配便等に記される宛名領域や差出人領域を認識することも可能である。   For example, the above-described information processing apparatus can be applied to an apparatus for searching digital information from objects (paper, boards, etc.) in the real world in which characters such as articles in newspapers and magazines, various advertisements, and explanatory materials are described. is there. Furthermore, the above-described information processing apparatus can be applied to an apparatus that performs recording reservation, video viewing, video content purchase processing, and the like using a television guide magazine. Further, the above-described image partial area extracting device can be applied to a device for identifying a mail item from an image of a mail item, a courier service or the like. Specifically, it is also possible to recognize an address area and a sender area recorded on a postal item, a courier service, etc. using an image partial area extraction device.

1 情報処理システム
R201 登録画像特徴点生成部
R202 登録画像特徴点配置生成部
R203 登録画像特徴量生成部
Q201 検索画像特徴点生成部
Q202 検索画像特徴点配置生成部
Q203 検索画像特徴量生成部
204 対応特徴点検出部
205 対応領域判定部
304 対応特徴点対検出部
305 対応領域推定部
41 画像照合部
42 アクション情報判定部
43 アクション情報実行部
44 中間情報記憶部
1 Information processing system R201 Registered image feature point generation unit R202 Registered image feature point arrangement generation unit R203 Registered image feature point generation unit Q201 Search image feature point generation unit Q202 Search image feature point arrangement generation unit Q203 Search image feature amount generation unit 204 Feature point detection unit 205 Corresponding region determination unit 304 Corresponding feature point pair detection unit 305 Corresponding region estimation unit 41 Image collation unit 42 Action information determination unit 43 Action information execution unit 44 Intermediate information storage unit

Claims (10)

検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出装置であって、
登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量を記憶する特徴量記憶部と、
検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量と、前記登録画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出部と、
前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定部とを備えた
ことを特徴とする画像部分領域抽出装置。
An image partial region extraction device that extracts a partial region corresponding to a search image from a registered image,
For each feature point of interest in the registered image, invariant to the geometric transformation calculated based on the feature point arrangement, which is a set of feature points existing in the vicinity of the feature point of interest that is ordered based on a predetermined rule. A feature amount storage unit that stores registered image feature amounts that are various feature amounts;
For each feature point of interest in the search image, the degree of coincidence between the search image feature amount, which is a feature amount invariant to the geometric transformation calculated based on the feature point arrangement, and the registered image feature amount is compared. A corresponding feature point detecting unit that detects a corresponding feature point that is a feature point included in the feature point arrangement in the registered image and that corresponds to a feature point included in the feature point arrangement in the search image;
An image comprising: a corresponding region determination unit that extracts a partial region in a registered image identified by a corresponding feature point having a higher degree of matching with a feature point in a search image among the corresponding feature points. Partial region extraction device.
対応特徴点検出部は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、
対応領域判定部は、前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出する
請求項1記載の画像部分領域抽出装置。
When it is determined that the search image feature value matches the registered image feature value, the corresponding feature point detection unit calculates the number of matches that match the feature point in the feature point arrangement from which the search image feature value is calculated. Calculate for each corresponding feature point,
The image partial region extraction device according to claim 1, wherein the corresponding region determination unit extracts a partial region in a registered image specified by a connection target node that is a corresponding feature point having the number of matches equal to or greater than a predetermined number.
特徴量記憶部は、互いに同じ色に属すると判定された画素のうち互いに隣接関係にある画素を連結した領域である連結領域から選択される特徴点の集合を特徴点配置とし、当該特徴点配置に基づいて算出される登録画像特徴量を記憶し、
対応領域判定部は、連結対象ノードと所定の距離以内にある他の連結対象ノードを選択し、選択された連結対象ノードを含む前記連結領域から特定される部分領域を抽出する
請求項2記載の画像部分領域抽出装置。
The feature amount storage unit sets a feature point arrangement as a set of feature points selected from a connected region that is a region in which pixels adjacent to each other among pixels determined to belong to the same color are connected, and the feature point placement Storing the registered image feature amount calculated based on
The correspondence region determination unit selects another connection target node within a predetermined distance from the connection target node, and extracts a partial region specified from the connection region including the selected connection target node. Image partial area extraction device.
対応特徴点検出部は、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、一致した各特徴量の特徴点を用いて、検索画像中の特徴点と登録画像中の特徴点の組み合わせである特徴点一致履歴を生成し、
対応領域判定部は、前記特徴点一致履歴を用いて検索画像を登録画像に幾何変換するパラメータを算出し、算出したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する
請求項2または請求項3記載の画像部分領域抽出装置。
When it is determined that the search image feature quantity matches the registered image feature quantity, the corresponding feature point detection unit uses the feature point of each matched feature quantity and the feature point in the search image and the feature in the registration image. Generate a feature point matching history that is a combination of points,
The corresponding region determination unit calculates a parameter for geometrically converting the search image into a registered image using the feature point matching history, and extracts a region obtained by projecting the region of the search image on the registered image based on the calculated parameter as a partial region The image partial region extraction device according to claim 2 or 3.
対応領域判定部は、特徴点一致履歴に含まれる特徴点の組合せを用いて算出されたパラメータのうち、検索画像を登録画像に変換する確からしさがより高いパラメータを選択し、選択したパラメータに基づいて検索画像の領域を登録画像に投影した領域を部分領域として抽出する
請求項4記載の画像部分領域抽出装置。
The corresponding region determination unit selects a parameter having a higher probability of converting the search image into the registered image from the parameters calculated using the combination of the feature points included in the feature point matching history, and based on the selected parameter The image partial region extraction apparatus according to claim 4, wherein a region obtained by projecting the region of the search image onto the registered image is extracted as a partial region.
検索画像から特徴点を抽出する特徴点抽出部と、
抽出された特徴点をもとに1つ以上の特徴点配置を生成する特徴点配置生成部と、
前記特徴点配置に基づいて検索画像特徴量を生成する検索画像特徴量生成部とを備え、
対応特徴点検出部は、前記検索画像特徴量と登録画像特徴量とを比較して対応特徴点を検出する
請求項1から請求項5のうちのいずれか1項に記載の画像部分領域抽出装置。
A feature point extraction unit for extracting feature points from the search image;
A feature point arrangement generation unit that generates one or more feature point arrangements based on the extracted feature points;
A search image feature value generation unit that generates a search image feature value based on the feature point arrangement;
The image feature extraction unit according to any one of claims 1 to 5, wherein the corresponding feature point detection unit detects the corresponding feature point by comparing the search image feature quantity with a registered image feature quantity. .
検索画像に相当する部分領域を登録画像から抽出する画像部分領域抽出方法であって、
登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出し、
前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する
ことを特徴とする画像部分領域抽出方法。
An image partial region extraction method for extracting a partial region corresponding to a search image from a registered image,
For each feature point of interest in the registered image, invariant to the geometric transformation calculated based on the feature point arrangement, which is a set of feature points existing in the vicinity of the feature point of interest that is ordered based on a predetermined rule. Between the registered image feature quantity, which is a unique feature quantity, and the search image feature quantity, which is a feature quantity invariant to the geometric transformation, calculated based on the feature point arrangement for each feature point of interest in the search image Comparing the degree and detecting corresponding feature points that are feature points included in the feature point arrangement in the registered image corresponding to feature points included in the feature point arrangement in the search image;
An image partial region extraction method characterized by extracting a partial region in a registered image identified by a corresponding feature point having a higher degree of matching with a feature point in a search image among the corresponding feature points.
検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出し、
前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出する
請求項7記載の画像部分領域抽出方法。
When it is determined that the search image feature quantity matches the registered image feature quantity, the number of matches that matches the feature point in the feature point arrangement from which the search image feature quantity is calculated is calculated for each corresponding feature point. ,
The image partial region extraction method according to claim 7, wherein a partial region is extracted from a registered image that is identified by a connection target node that is a corresponding feature point that is equal to or greater than a predetermined number of matches.
検索画像に相当する部分領域を登録画像から抽出するコンピュータに適用される画像部分領域抽出用プログラムであって、
前記コンピュータに、
登録画像の注目する特徴点ごとに、所定の規則に基づいて順序付けされた当該注目する特徴点の近傍に存在する特徴点の集合である特徴点配置に基づいて算出される幾何学的変換に不変な特徴量である登録画像特徴量と、検索画像中の注目する特徴点ごとに前記特徴点配置に基づいて算出される前記幾何学的変換に不変な特徴量である検索画像特徴量との一致度合いを比較して、検索画像中の特徴点配置に含まれる特徴点に対応する、登録画像中の特徴点配置に含まれる特徴点である対応特徴点を検出する対応特徴点検出処理、および、
前記対応特徴点のうち、検索画像中の特徴点との一致度合いがより高い対応特徴点により特定される登録画像中の部分領域を抽出する対応領域判定処理
を実行させるための画像部分領域抽出用プログラム。
An image partial region extraction program applied to a computer that extracts a partial region corresponding to a search image from a registered image,
In the computer,
For each feature point of interest in the registered image, invariant to the geometric transformation calculated based on the feature point arrangement, which is a set of feature points existing in the vicinity of the feature point of interest that is ordered based on a predetermined rule. Between the registered image feature quantity, which is a unique feature quantity, and the search image feature quantity, which is a feature quantity invariant to the geometric transformation, calculated based on the feature point arrangement for each feature point of interest in the search image A corresponding feature point detection process that compares the degree and detects a corresponding feature point that is a feature point included in the feature point arrangement in the registered image corresponding to a feature point included in the feature point arrangement in the search image; and
For extracting an image partial region for executing a corresponding region determination process for extracting a partial region in a registered image identified by a corresponding feature point having a higher degree of matching with a feature point in a search image among the corresponding feature points program.
コンピュータに、
対応特徴点検出処理で、検索画像特徴量と登録画像特徴量とが一致すると判断された場合に、検索画像特徴量を算出する元になった特徴点配置中の特徴点と一致する一致回数を対応特徴点ごとに算出させ、
対応領域判定処理で、前記一致回数が予め定めた回数以上の対応特徴点である連結対象ノードにより特定される登録画像中の部分領域を抽出させる
請求項9記載の画像部分領域抽出用プログラム。
On the computer,
In the corresponding feature point detection process, when it is determined that the search image feature quantity matches the registered image feature quantity, the number of matches that matches the feature point in the feature point arrangement from which the search image feature quantity is calculated is calculated. Calculate for each corresponding feature point,
The image partial region extraction program according to claim 9, wherein in the corresponding region determination process, a partial region in a registered image specified by a connection target node that is a corresponding feature point having the number of matches equal to or greater than a predetermined number is extracted.
JP2014541924A 2012-10-18 2013-10-02 Image partial region extraction apparatus, image partial region extraction method, and image partial region extraction program Pending JPWO2014061221A1 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2012230885 2012-10-18
JP2012230885 2012-10-18
PCT/JP2013/005877 WO2014061221A1 (en) 2012-10-18 2013-10-02 Image sub-region extraction device, image sub-region extraction method and program for image sub-region extraction

Publications (1)

Publication Number Publication Date
JPWO2014061221A1 true JPWO2014061221A1 (en) 2016-09-05

Family

ID=50487801

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014541924A Pending JPWO2014061221A1 (en) 2012-10-18 2013-10-02 Image partial region extraction apparatus, image partial region extraction method, and image partial region extraction program

Country Status (2)

Country Link
JP (1) JPWO2014061221A1 (en)
WO (1) WO2014061221A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019078700A (en) * 2017-10-27 2019-05-23 株式会社東芝 Information processor and information processing system

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN104123542B (en) * 2014-07-18 2017-06-27 大连理工大学 A kind of devices and methods therefor of hub workpiece positioning
CN105243661A (en) * 2015-09-21 2016-01-13 成都融创智谷科技有限公司 Corner detection method based on SUSAN operator

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000215317A (en) * 1998-11-16 2000-08-04 Sony Corp Image processing method and image processor
US20050063608A1 (en) * 2003-09-24 2005-03-24 Ian Clarke System and method for creating a panorama image from a plurality of source images
WO2008066152A1 (en) * 2006-11-30 2008-06-05 Nec Corporation Document image feature value generating device, document image feature value generating method, and document image feature value generating program
JP5487970B2 (en) * 2007-11-08 2014-05-14 日本電気株式会社 Feature point arrangement collation apparatus, image collation apparatus, method and program thereof
US8406486B2 (en) * 2007-12-26 2013-03-26 Nec Corporation Inter-pattern feature corresponding device, inter-pattern feature corresponding method used for the same, and program therefor
WO2010053109A1 (en) * 2008-11-10 2010-05-14 日本電気株式会社 Image matching device, image matching method, and image matching program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019078700A (en) * 2017-10-27 2019-05-23 株式会社東芝 Information processor and information processing system

Also Published As

Publication number Publication date
WO2014061221A1 (en) 2014-04-24

Similar Documents

Publication Publication Date Title
US10650264B2 (en) Image recognition apparatus, processing method thereof, and program
US9076069B2 (en) Registering metadata apparatus
US9418482B1 (en) Discovering visited travel destinations from a set of digital images
US20140164927A1 (en) Talk Tags
US20090161963A1 (en) Method. apparatus and computer program product for utilizing real-world affordances of objects in audio-visual media data to determine interactions with the annotations to the objects
JP6278276B2 (en) Object identification device, object identification method, and program
US20100158375A1 (en) Signal processing apparatus, signal processing method, computer-readable medium and computer data signal
WO2021110174A1 (en) Image recognition method and device, electronic device, and storage medium
JP2015230236A (en) Merchandise guidance device, terminal equipment, merchandise guidance method, and program
CN102937452A (en) Navigation method, apparatus and system based on image information code
US9256792B2 (en) Image processing apparatus, image processing method, and program
JP5863962B2 (en) How to determine if the business card you want to add is in your contact list
WO2014061221A1 (en) Image sub-region extraction device, image sub-region extraction method and program for image sub-region extraction
WO2014061222A1 (en) Information processing device, information processing method and information processing program
WO2007004521A1 (en) Marker specification device and marker specification method
JP2008046823A (en) Image interpretation device, image interpretation method and program
US20130100296A1 (en) Media content distribution
JP5767887B2 (en) Image processing apparatus, image processing method, and image processing program
JP2016038790A (en) Image processor and image feature detection method thereof, program and device
JP2013238987A (en) Information display device, information input device, information display program, and information input program
JP2010231431A (en) Article related information providing method, device, program, and recording medium
US20180189602A1 (en) Method of and system for determining and selecting media representing event diversity
JP5929573B2 (en) Evaluation system, program
Byon et al. A study on location information aided re-identification in CCTV environment
Nguyen et al. Augmented media for traditional magazines