JP2018156544A - Information processing device and program - Google Patents

Information processing device and program Download PDF

Info

Publication number
JP2018156544A
JP2018156544A JP2017054458A JP2017054458A JP2018156544A JP 2018156544 A JP2018156544 A JP 2018156544A JP 2017054458 A JP2017054458 A JP 2017054458A JP 2017054458 A JP2017054458 A JP 2017054458A JP 2018156544 A JP2018156544 A JP 2018156544A
Authority
JP
Japan
Prior art keywords
feature point
image
feature
information processing
processing apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017054458A
Other languages
Japanese (ja)
Other versions
JP6717769B2 (en
Inventor
加藤 晴久
Haruhisa Kato
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2017054458A priority Critical patent/JP6717769B2/en
Publication of JP2018156544A publication Critical patent/JP2018156544A/en
Application granted granted Critical
Publication of JP6717769B2 publication Critical patent/JP6717769B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an information processing device which can obtain a proper feature point for object determination and other purposes based on a feature amount from an image.SOLUTION: An information processing device includes: a detection unit 2 which detects a feature point from an image and obtains a feature point score of each feature point; a selection unit 3 which outputs the feature point obtained by performing selection based on the feature point score and position of each feature point from the detected feature points as the feature point of the image; a calculation unit 4 which calculates the feature amount at each feature point by referring to the neighboring region of the feature point in the image for each feature point output as the feature point of the image by the selection unit 3; and a determination unit 5 which determines that the object imaged in the image is corresponding to which object out of the plurality of prescribed objects by comparing the feature amount calculated for the image with the feature amount calculated from the photographed image for each of the plurality of prescribed objects by the calculation unit 4.SELECTED DRAWING: Figure 2

Description

本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置及びプログラムに関する。   The present invention relates to an information processing apparatus and a program capable of obtaining an appropriate feature point from an image for object determination based on a feature amount and other uses.

画像から対象を判定する技術は、配布や提示が容易な媒体に記載されたアナログ情報からデジタル情報に変換させることが可能であり、利用者の利便性を向上させることができる。当該技術としては例えば、非特許文献1のものが公開されている。非特許文献1では、画像から特徴点を検出し、特徴点周辺から特徴量を算出した上で、事前に蓄積しておいた特徴量と比較することによって、対象の種類および相対的な位置関係を特定する。   A technique for determining an object from an image can convert analog information described in a medium that can be easily distributed and presented into digital information, and can improve user convenience. For example, Non-Patent Document 1 is disclosed as the technology. In Non-Patent Document 1, a feature point is detected from an image, a feature amount is calculated from the periphery of the feature point, and then compared with a feature amount accumulated in advance. Is identified.

一方、上記のような特徴点及び特徴量に基づく判定に関してさらに、精度を向上させる技術としては、特許文献1〜3のようなものが公開されている。特許文献1では、特徴点の誤対応を低減するため、特徴点を頂点としたドロネー三角形分割とトポロジー評価によって精度向上を図る。特許文献2では、特徴量の判別性能を評価することによって、有効な特徴量を選別する手法を開示している。特許文献3では、特徴点およびエッジの位置関係の類似度を判定することで、特徴点の対応付けを高精度化する。   On the other hand, Patent Documents 1 to 3 are disclosed as techniques for further improving the accuracy with respect to the determination based on the above feature points and feature amounts. In Patent Document 1, in order to reduce erroneous correspondence of feature points, accuracy is improved by Delaunay triangulation using the feature points as vertices and topology evaluation. Patent Document 2 discloses a method for selecting effective feature amounts by evaluating the feature amount discrimination performance. In Patent Document 3, the correspondence between feature points is improved by determining the similarity of the positional relationship between feature points and edges.

特開2014−127068号公報JP 2014-127068 A 特開2014−134858号公報JP 2014-134858 A 特開2014−126893号公報JP 2014-126893 A

D. G. Lowe, ``Object recognition from local scale-invariant features,'' Proc. of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.D. G. Lowe, `` Object recognition from local scale-invariant features, '' Proc. Of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.

しかしながら、以上のような非特許文献1や特許文献1〜3といった従来技術には、特徴点の分布が精度に大きく影響するという課題があった。   However, the conventional techniques such as Non-Patent Document 1 and Patent Documents 1 to 3 described above have a problem that the distribution of feature points greatly affects the accuracy.

具体的には、背景に複雑な模様がある場合、特徴点が背景に集中し、前景としての撮像対象から十分な数の特徴点を検出できないと判定処理が全く機能しないという課題がある。例えば、処理時間の観点から特徴点数に対して上限を設定しておき、特徴点らしさを定義したスコア(特徴点スコア)の上位から選択するというフレームワークを採用する場合を考えると、撮像対象に特徴点が存在している場合でも特徴点スコアが相対的に小さいと撮像対象の特徴点が選択されないことがあり得る。これを第一事例と称する。   Specifically, when there is a complicated pattern in the background, the feature points concentrate on the background, and there is a problem that the determination process does not function at all if a sufficient number of feature points cannot be detected from the imaging target as the foreground. For example, considering the case of adopting a framework in which an upper limit is set for the number of feature points from the viewpoint of processing time and the score is selected from the top of the score (feature point score) that defines the likelihood of feature points, Even when feature points exist, if the feature point score is relatively small, the feature points to be imaged may not be selected. This is called the first case.

逆に、撮像対象自体に特徴点スコアの大きな模様が存在する場合、一部の領域だけで上限に至る数の特徴点を選択してしまい、当該領域だけで一致する類似対象と誤判定するということがあり得る。これを第二事例と称する。   On the other hand, if there is a pattern with a large feature point score on the imaging target itself, the number of feature points reaching the upper limit in only a part of the area is selected, and it is erroneously determined as a similar target that matches only in that area. It can happen. This is referred to as a second case.

図1は、上記の第一事例及び第二事例の模式例を[1],[2]として示す図である。   FIG. 1 is a diagram illustrating schematic examples of the first case and the second case as [1] and [2].

すなわち、図1にて[1]に示す第一事例においては画像P1,P2として与えられるような2以上の異なる対象が区別困難となってしまう。例えば、画像P1,P2は共に、同一出版社の同一シリーズ(趣味に関して解説するシリーズ)に属する書籍の表紙であり、画像P1の書籍は登山に関して、画像P2の書籍はサイクリングに関して解説する当該同一シリーズ内の別巻であるものとする。この場合、画像P1,P2にはそれぞれ同一シリーズである旨のシリーズタイトル領域R10,R20が上段側部分に存在し、これらの領域R10,R20は完全な同一模様(文字等も含めて模様と呼ぶものとし、以下同様とする)で構成されると共に、シリーズ内の別巻であることから各巻の内容を表現しており互いに異なる模様で構成される領域R11,R21が中・下段側部分に存在するものとする。   That is, in the first case shown in [1] in FIG. 1, it becomes difficult to distinguish two or more different objects given as images P1 and P2. For example, both images P1 and P2 are the covers of books belonging to the same series of the same publisher (series explaining hobbies), the book of image P1 is about climbing, and the book of image P2 is about the same series explaining about cycling. It is a separate volume. In this case, series title areas R10 and R20 indicating that the images are the same series are present in the upper part of the images P1 and P2, respectively, and these areas R10 and R20 are called completely identical patterns (characters and other patterns are called patterns). In addition, the contents of each volume are expressed because it is a separate volume in the series, and regions R11 and R21 that are configured with different patterns exist in the middle and lower side portions. Shall.

ここで、画像P1,P2において共に、完全同一模様となっているシリーズタイトル領域R10,R20が特徴点スコアの高い領域として構成されていたとし、且つ、異なる模様を構成している領域R11,R21が特徴点スコアの低い領域として構成されていたものとすると、互いに同一模様の領域R10,R20から全部ないしほとんどの特徴点が検出され、互いに異なる領域R11,R21からは特徴点が全く検出されない又はわずかしか検出されないことになってしまう。従って、実際には異なる対象を撮像しているはずの画像P1,P2が区別不可能あるいは区別困難となってしまう。   Here, in the images P1 and P2, it is assumed that the series title regions R10 and R20 having the completely same pattern are configured as regions with high feature point scores, and the regions R11 and R21 configuring different patterns. Is configured as a region having a low feature point score, all or most feature points are detected from regions R10 and R20 having the same pattern, and no feature points are detected from regions R11 and R21 different from each other. Only a few will be detected. Therefore, the images P1 and P2 that should actually be capturing different objects are indistinguishable or difficult to distinguish.

また、図1にて[2]として示す第二事例では、第一事例で説明したのと同じ画像P1がリファレンス画像として登録されており、同一対象を実際に撮影したクエリ画像が画像P10のように構成されている場合に、当該画像P1,P10の一致判定が困難となってしまう。すなわち、クエリ画像P10は、書籍表紙の下段側部分に販売促進の目的で例えば「帯」が付与されることにより、リファレンス画像P1には存在しない領域R13を形成している。クエリ画像P10の中段側の領域R12はリファレンス画像P1の中・下段側部分の領域R11に部分一致するものとなっており、上段側のシリーズタイトル領域R10,R30はリファレンス画像P1とクエリ画像P10とで共通である。   Further, in the second case shown as [2] in FIG. 1, the same image P1 as described in the first case is registered as a reference image, and the query image obtained by actually photographing the same object is the image P10. If it is configured as described above, it is difficult to determine whether the images P1 and P10 match. That is, the query image P10 forms a region R13 that does not exist in the reference image P1, for example, by giving “band” to the lower part of the book cover for the purpose of sales promotion. The middle region R12 of the query image P10 partially matches the middle and lower region R11 of the reference image P1, and the upper series title regions R10 and R30 are the reference image P1 and the query image P10. Is common.

このような場合に、クエリ画像P10におけるリファレンス画像P1には存在しない「帯」の領域R13が特徴点スコアの高い領域として構成されていたとし、クエリ画像P10における全部ないし大部分の特徴点が領域R13から検出されてしまうものとすると、[1]の第一事例で説明したのとほぼ同様の理由によって、実際には同一対象を撮像しているはずの画像P10,P1の同一判定を得ることが困難となってしまう。   In such a case, it is assumed that the “band” region R13 that does not exist in the reference image P1 in the query image P10 is configured as a region having a high feature point score, and all or most of the feature points in the query image P10 are regions. If it is detected from R13, for the same reason as described in the first case of [1], the same determination of images P10 and P1 that should have actually captured the same object is obtained. Becomes difficult.

なお、図1では模式例として書籍表紙を挙げたが、書籍表紙に限らず任意種類の商品パッケージや、その他の任意対象においても同様ないし類似の課題が発生しうることに注意されたい。また、図1では模式例として書籍表紙という1つの判定対象のみに注目して説明したが、画像内に1つ以上の対象が空間的な配置をなして撮像されている場合にも同様ないし類似の課題が発生しうることに注意されたい。   In addition, although the book cover was mentioned as a schematic example in FIG. 1, it should be noted that the same or similar problem may occur not only in the book cover but also in any kind of product package and other arbitrary objects. Further, in FIG. 1, as a schematic example, the description has been made by paying attention to only one determination target, which is a book cover, but the same or similar is also true when one or more objects are imaged in a spatial arrangement in the image. Note that the following issues can arise.

以上のような従来技術の課題に鑑み、本発明は、特徴量に基づく対象判定その他の用途に関して適切な特徴点を画像から得ることのできる情報処理装置を提供することを第一の目的とする。   In view of the above-described problems of the prior art, a first object of the present invention is to provide an information processing apparatus that can obtain an appropriate feature point from an image for object determination based on a feature amount and other uses. .

また、本発明は、当該適切な特徴点に基づいて高精度に画像における対象を判定することのできる情報処理装置を提供することを第二の目的とする。   A second object of the present invention is to provide an information processing apparatus that can determine a target in an image with high accuracy based on the appropriate feature point.

前記目的を達成するため、本発明は、情報処理装置であって、画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部と、前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備えることを第一の特徴とする。   In order to achieve the above object, the present invention provides an information processing apparatus, which detects a feature point from an image and obtains a feature point score of each feature point, and from each of the detected feature points, It is a first feature that the image processing apparatus includes a selection unit that outputs a feature point obtained by performing selection based on a feature point score and a position of a feature point as a feature point of the image.

また、本発明は、前記情報処理装置がさらに、前記選別部によって前記画像の特徴点として出力された各特徴点に関して、前記画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部と、前記算出部により前記画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定する判定部と、を備えることを第二の特徴とする。   Further, according to the present invention, the information processing apparatus further refers to a neighborhood area of the feature point in the image with respect to each feature point output as the feature point of the image by the selecting unit. In the image, a calculation unit that calculates a feature amount, a feature amount calculated for the image by the calculation unit, and a feature amount calculated from the captured image for each of a plurality of predetermined targets are compared. And a determination unit that determines which of the plurality of predetermined objects corresponds to the object being imaged.

前記第一の特徴によれば、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力することにより、適切な特徴点を得ることができる。   According to the first feature, an appropriate feature point can be obtained by outputting the feature point obtained by performing the selection based on the feature point score and position of each feature point as the feature point of the image. .

前記第二の特徴によれば、前記得られた適切な特徴点を用いて、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定することができる。   According to the second feature, it is possible to determine which of the plurality of predetermined targets corresponds to the target imaged in the image, using the obtained appropriate feature point.

従来技術の課題としての第一事例及び第二事例の模式例を示す図である。It is a figure which shows the model example of the 1st example as a subject of a prior art, and a 2nd example. 一実施形態に係る情報処理装置の機能ブロック図である。It is a functional block diagram of the information processor concerning one embodiment. 撮像画像及び撮像画像から奥行に反比例して算出される重みマップの例を示す図である。It is a figure which shows the example of the weight map calculated in inverse proportion to depth from a captured image and a captured image. 第二実施形態における選別部の処理の一例を示すフローチャートである。It is a flowchart which shows an example of the process of the selection part in 2nd embodiment. 図4のフローの適用例として、本発明の効果の例を示す図である。It is a figure which shows the example of the effect of this invention as an application example of the flow of FIG. 本発明の効果の例を図5より多数の特徴点の場合について示す図である。It is a figure which shows the example of the effect of this invention about the case of many feature points from FIG.

図2は、本発明の一実施形態に係る情報処理装置の機能ブロック図である。図示する通り、情報処理装置10は撮像部1、検出部2、選別部3、算出部4、判定部5及び記憶部6を備える。情報処理装置10としては撮像部1を備える任意の情報端末を利用することができ、携帯端末の他、タブレット型端末、デスクトップ型又はラップトップ型のコンピュータその他を利用することができる。また、撮像部1以外の一部若しくは全てをサーバーに設置し、情報を適宜通信でやり取りしてもよい。図2の各部における処理内容は以下の通りである。   FIG. 2 is a functional block diagram of the information processing apparatus according to the embodiment of the present invention. As illustrated, the information processing apparatus 10 includes an imaging unit 1, a detection unit 2, a selection unit 3, a calculation unit 4, a determination unit 5, and a storage unit 6. As the information processing apparatus 10, an arbitrary information terminal including the imaging unit 1 can be used, and in addition to a portable terminal, a tablet terminal, a desktop or laptop computer, or the like can be used. In addition, some or all of the components other than the imaging unit 1 may be installed in a server, and information may be exchanged appropriately through communication. The processing content in each part of FIG. 2 is as follows.

撮像部1は、撮像対象を撮像して、その画像を検出部2、選別部3及び算出部4へと出力する。ここで、撮像対象には判定部5によって判定される対象(記憶部6に予め記憶されている対象のうちのいずれか)が含まれるよう、利用者等が撮像部1を操作して撮像を行うものとする。撮像部1としては、携帯端末に標準装備されるデジタルカメラ等を用いることができる。   The imaging unit 1 captures an imaging target and outputs the image to the detection unit 2, the selection unit 3, and the calculation unit 4. Here, the user or the like operates the imaging unit 1 to perform imaging so that the imaging target includes an object determined by the determination unit 5 (any of the objects stored in advance in the storage unit 6). Assumed to be performed. As the imaging unit 1, a digital camera or the like that is provided as a standard in a mobile terminal can be used.

検出部2は、撮像部1で得た画像より複数の特徴点を検出すると共に、各特徴点につきその特徴点らしさを表す特徴点スコアを求め、当該複数の特徴点及びその特徴点スコアを選別部3へと出力する。当該特徴点の検出には、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用でき、特徴点スコアの算出に関しても各手法に応じたスコアを算出すればよい。   The detection unit 2 detects a plurality of feature points from the image obtained by the imaging unit 1, obtains a feature point score representing the feature point likelihood for each feature point, and selects the plurality of feature points and the feature point score Output to part 3. Existing methods such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) can be used to detect the feature points, and the feature points score can be calculated according to each method. .

例えば、SIFTであればDoG(Difference of Gaussian)画像(差分画像群)の極大値を与える点として特徴点の候補を求めたうえで、主曲率及びコントラストに基づいて安定した特徴点を検出するが、当該検出された特徴点におけるDoG出力値(極大値)を特徴点スコアとして採用すればよい。   For example, in SIFT, a feature point candidate is obtained as a point giving the maximum value of a DoG (Difference of Gaussian) image (difference image group), and then a stable feature point is detected based on the principal curvature and contrast. The DoG output value (maximum value) at the detected feature point may be adopted as the feature point score.

選別部3では、検出部2で得られた特徴点スコア付きの各特徴点の中から、特徴点スコア及び特徴点の画像における位置に基づいて所定数の特徴点を選別し、当該選別した特徴点を算出部4へと出力する。選別部3では当該選別する際にさらに、撮像部1で得られた画像を参照するようにしてもよい。選別部3による選別処理の詳細は後述する。   The selection unit 3 selects a predetermined number of feature points based on the feature point score and the position of the feature point in the image from the feature points with the feature point score obtained by the detection unit 2, and the selected feature The point is output to the calculation unit 4. The sorting unit 3 may refer to an image obtained by the imaging unit 1 when sorting. Details of the sorting process by the sorting unit 3 will be described later.

算出部4では、選別部3で選別された各特徴点に関して、撮像部1で得られた画像における各特徴点の局所近傍の領域を参照することで、各特徴点の特徴量を算出し、当該特徴量を判定部5へと出力する。算出部4における特徴量の算出には、検出部2で説明したのと同様に、SIFT(Scale-Invariant Feature Transform)やSURF(Speeded Up Robust Features)などの既存手法が利用できる。なお、算出部4における特徴量の算出手法と検出部2における特徴点の検出手法とが別種類の手法によるものであってもよい。   In the calculation unit 4, with respect to each feature point selected by the selection unit 3, the feature amount of each feature point is calculated by referring to the local neighborhood of each feature point in the image obtained by the imaging unit 1, The feature amount is output to the determination unit 5. For the calculation of the feature amount in the calculation unit 4, as described in the detection unit 2, existing methods such as SIFT (Scale-Invariant Feature Transform) and SURF (Speeded Up Robust Features) can be used. Note that the feature amount calculation method in the calculation unit 4 and the feature point detection method in the detection unit 2 may be based on different types of methods.

判定部5は、算出部4で算出された特徴量と記憶部6に記憶された特徴量とを比較して一致判定することで撮像対象を判定する。すなわち、記憶部6で記憶されている1つ以上の所定の撮像対象のいずれに、撮像画像内の対象が該当するのかを特定する。   The determination unit 5 compares the feature amount calculated by the calculation unit 4 with the feature amount stored in the storage unit 6 to determine a match and determines an imaging target. That is, it is specified which of the one or more predetermined imaging targets stored in the storage unit 6 is the target in the captured image.

ここで、特徴量同士を比較する際には、各種の周知手法を利用することができる。例えば、BoVW(Bag of Visual words)のヒストグラム同士の類似度を算出してもよい。また、特徴量が算出された特徴点の座標も紐づけた特徴情報を用いて比較するようにしてもよい。例えば、RANSAC(Random Sample Consensus)等により、特徴情報を構成している各特徴量をそれぞれ個別にマッチングすることを試みながら外れ値を排除することで、全体として最もマッチングしているものを特定する手法を用いてもよい。すなわち、クエリ画像(撮像部1で得た画像)とリファレンス画像(記憶部6に記憶されている特徴情報が抽出された画像)との間で、ホモグラフィ行列で互いに対応付けられる特徴点座標同士の幾何学的整合性を考慮してマッチングするようにしてもよい。   Here, when comparing feature quantities, various known methods can be used. For example, the similarity between histograms of BoVW (Bag of Visual words) may be calculated. Further, the coordinates of the feature points whose feature values have been calculated may be compared using the associated feature information. For example, by using RANSAC (Random Sample Consensus) etc., the outliers are excluded while trying to individually match each feature quantity that constitutes the feature information, thereby identifying the best match as a whole. A technique may be used. That is, between the query image (the image obtained by the imaging unit 1) and the reference image (the image from which the feature information stored in the storage unit 6 is extracted), the feature point coordinates associated with each other in the homography matrix Matching may be performed in consideration of the geometric consistency of

記憶部6は、複数の撮像対象の撮像画像からそれぞれ特徴量を事前に算出し記憶しておくことにより、判定部5における上記の判定処理の際に当該特徴量を参照に供する。ここで、撮像対象に射影変換等の人工的な変形を加え、特徴量を算出・記憶してもよい。特に、大きさが変化する変形においては、撮像部1での撮像画像における見かけの大きさを算出部4で特徴量を算出する際に求まる奥行情報(スケール情報)と対応付けることで特徴点および特徴量の判定精度を向上させる効果が得られるため、奥行情報を紐づけたうえで特徴量を記憶しておき、判定部5の参照に供するようにしてもよい。さらに、判定部5における判定で前述のRANSACの場合のように特徴点座標を利用する場合は、記憶部6においても特徴点座標と特徴量とを紐づけた特徴情報として算出・記憶を行うようにすればよい。   The storage unit 6 preliminarily calculates and stores feature amounts from a plurality of captured images of the imaging target, and provides the feature amounts for reference during the determination process in the determination unit 5. Here, an artificial deformation such as projective transformation may be applied to the imaging target, and the feature amount may be calculated and stored. In particular, in the deformation in which the size changes, the feature point and the feature are obtained by associating the apparent size of the captured image in the imaging unit 1 with the depth information (scale information) obtained when the calculation unit 4 calculates the feature amount. Since the effect of improving the determination accuracy of the amount is obtained, the feature amount may be stored after linking the depth information and used for reference by the determination unit 5. Further, when the feature point coordinates are used in the determination by the determination unit 5 as in the case of the RANSAC described above, the storage unit 6 also calculates and stores the feature information in which the feature point coordinates and the feature amount are linked. You can do it.

なお、記憶部6で記憶する特徴量(及び特徴点)は、算出部4で算出する特徴量(及び検出部2で検出する特徴点)と同種のものとする。   Note that the feature values (and feature points) stored in the storage unit 6 are the same type as the feature values calculated by the calculation unit 4 (and feature points detected by the detection unit 2).

以下、選別部3における選別処理の詳細を説明する。まず、一般的な説明として、選別部3では、各特徴点の特徴点スコアに対してさらに、撮像部1で撮像された画像の画素座標ごとに得られる撮像部1と撮像対象との相対的位置関係をも考慮することにより、各特徴点の選別を行うことができる。当該考慮する相対的位置関係とはすなわち、撮像部1で得た画像の各画素位置(u,v)に映っている対象点を、撮像部1を構成するカメラのカメラ中心を基準としたカメラ座標により3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))として表現する関係である。   Details of the sorting process in the sorting unit 3 will be described below. First, as a general description, in the selection unit 3, the relative relationship between the imaging unit 1 and the imaging target obtained for each pixel coordinate of the image captured by the imaging unit 1 with respect to the feature point score of each feature point Each feature point can be selected by considering the positional relationship. The relative positional relationship to be considered is a camera based on the camera center of the camera constituting the imaging unit 1 with the target point reflected in each pixel position (u, v) of the image obtained by the imaging unit 1 The relationship is expressed as a three-dimensional space coordinate position (x, y, z) = (x (u, v), y (u, v), z (u, v)) by coordinates.

選別部3における当該特徴点スコア及び相対的位置関係に基づく選別処理によって、結果的に、後段側の判定部5における判定処理に適した特徴点の画像上での分布が調整されることとなる。特に、従来手法においては特徴点スコアしか考慮されていなかったのに対して、本発明ではさらに相対的位置関係をも考慮することによって、判定処理に適した特徴点の分布調整が実現されることとなる。模式例を挙げれば、前述した図1の画像P1,P2において領域R10,R20ばかりに集中して特徴点が得られたり、図1の画像P10において領域R13ばかりに集中して特徴点が得られたりするといったことが、本発明によって防止されることにより、判定処理の精度が向上する。   As a result of the selection process based on the feature point score and the relative positional relationship in the selection unit 3, the distribution of the feature points suitable for the determination process in the determination unit 5 on the subsequent stage is adjusted. . In particular, in the conventional method, only the feature point score is considered, but in the present invention, the feature point distribution adjustment suitable for the determination processing is realized by further considering the relative positional relationship. It becomes. For example, feature points can be obtained by concentrating only on the regions R10 and R20 in the images P1 and P2 of FIG. 1 described above, or feature points can be obtained by concentrating only on the region R13 in the image P10 of FIG. The accuracy of the determination process is improved by preventing the occurrence of such a situation.

具体的に相対的位置関係をも考慮する第一実施形態として、撮像画像の各画素位置の奥行(デプス)を算出したうえで、奥行に応じた所定関係で与えられる重みを、特徴点スコアに対してさらに追加で用いる重みとしてよい。すなわち、各特徴点i(i=1,2,...)に対して、その特徴点の座標位置(u(i),v(i))における奥行d(i)を求め、所定関数Fを用いて重みw(i)=F(d(i))を求め、検出部2において算出されている特徴点スコアscore(i)に当該重みを乗じた重み付きスコアw(i)*score(i)を、当該特徴点iを選別するための本発明におけるスコアとして採用し、当該重み付きスコアw(i)*score(i)が上位の所定数にあるような特徴点iを、選別部3における選別結果とすればよい。なお、重みw(i)及び特徴点スコアscore(i)は非負の値として求めるようにすればよい。   As a first embodiment that also specifically considers the relative positional relationship, after calculating the depth (depth) of each pixel position of the captured image, the weight given by the predetermined relationship according to the depth is used as the feature point score. Further, additional weights may be used. That is, for each feature point i (i = 1, 2, ...), the depth d (i) at the coordinate position (u (i), v (i)) of the feature point is obtained, and the predetermined function F Is used to determine the weight w (i) = F (d (i)) and the weighted score w (i) * score () obtained by multiplying the feature point score score (i) calculated in the detection unit 2 by the weight. i) is adopted as a score in the present invention for selecting the feature point i, and the feature point i such that the weighted score w (i) * score (i) is in the upper predetermined number The sorting result in 3 may be used. Note that the weight w (i) and the feature point score score (i) may be obtained as non-negative values.

ここで、撮像画像における奥行算出については、任意の既存手法を用いることができる。例えば、運動視差や、Markov Random Field(例えば以下の非特許文献2に開示)、ニューラルネットワーク(例えば以下の非特許文献3に開示)を利用した既存手法などが利用できる。あるいは、撮像部1を構成するカメラが複数存在する場合はステレオ視差を利用してもよい。また、撮像部1の撮像画像に対してさらに奥行センサ(例えば赤外線でマーカーを照射し赤外カメラで当該マーカーを撮像することに基づく奥行センサなど)を併用する構成も可能である。   Here, an arbitrary existing method can be used for the depth calculation in the captured image. For example, an existing method using motion parallax, Markov Random Field (for example, disclosed in Non-Patent Document 2 below), or a neural network (for example, disclosed in Non-Patent Document 3 below) can be used. Alternatively, when there are a plurality of cameras constituting the imaging unit 1, stereo parallax may be used. Further, a configuration in which a depth sensor (for example, a depth sensor based on irradiating a marker with infrared rays and imaging the marker with an infrared camera) is also used on the captured image of the imaging unit 1 is possible.

[非特許文献2] DA. Saxena and et. al. ``Make3D: Learning 3D Scene Structure from a Single Still Image,'' IEEE Transactions of Pattern Analysis and Machine Intelligence (PAMI), 2008.
[非特許文献3] D. Eigen and et. al. ``Depth Map Prediction from a Single Image using a Multi-Scale Deep Network,'' Advances in Neural Information Processing Systems, No. 27, pp.2366-2374, 2014.
[Non-Patent Document 2] DA. Saxena and et. Al. `` Make3D: Learning 3D Scene Structure from a Single Still Image, '' IEEE Transactions of Pattern Analysis and Machine Intelligence (PAMI), 2008.
[Non-Patent Document 3] D. Eigen and et. Al. `` Depth Map Prediction from a Single Image using a Multi-Scale Deep Network, '' Advances in Neural Information Processing Systems, No. 27, pp.2366-2374, 2014.

また、奥行d(i)に応じた重みw(i)を与えるための所定関数Fに関しても、撮像部1における撮像のなされ方や判定部5における判定のなされ方(又は記憶部6に記憶されている特徴量の選別のなされ方)に応じた所定のものを設定しておけばよい。   In addition, regarding the predetermined function F for giving the weight w (i) according to the depth d (i), how the imaging unit 1 performs imaging and how the determination unit 5 performs determination (or is stored in the storage unit 6). It is only necessary to set a predetermined one according to the feature amount selection method).

例えば、利用者は撮像対象を撮像部1に相対的に近接させて撮像することが想定されるのであれば、奥行に反比例するように、あるいは奥行の増加に応じて減少するように、特徴点算出の重み(前述の通り特徴点スコアscore(i)が非負の値で算出される仮定のもとで、正の値としての重み)を設定することが望ましい。図3は[1]及び[2]と分けて、ある撮像画像と、当該撮像画像から奥行に反比例して算出される重みマップと、の例を示す図である。[1]の撮像画像は種々の物体(撮像対象)が配置された屋内の風景の例であり、これに対応する[2]の重みマップでは奥行が小さい(すなわち手前側のカメラにより近い)電気スタンドやデッサン像といった撮像対象に関してより大きな重みが付与されていることが、白色に近いほど重みが大であり、逆に黒色に近いほど重みが小であるものとして表現されている。   For example, if it is assumed that the user captures an image with the imaging target relatively close to the imaging unit 1, the feature point is set so as to be inversely proportional to the depth or decreased as the depth increases. It is desirable to set a calculation weight (a weight as a positive value under the assumption that the feature point score score (i) is calculated as a non-negative value as described above). FIG. 3 is a diagram illustrating an example of a certain captured image and a weight map calculated in inverse proportion to the depth from the captured image separately from [1] and [2]. The captured image of [1] is an example of an indoor landscape where various objects (imaging targets) are arranged. The corresponding weight map of [2] has a small depth (that is, closer to the front camera). The fact that a larger weight is given to an imaging target such as a stand or a drawing image is expressed as a weight that is larger as it is closer to white and vice versa.

また、重みの別の設定例として、奥行に応じて撮像情報を前景と背景とに2分割し、前景領域のみから特徴点が選別されるように重み情報を設定してもよい。すなわち、式で表現すれば例えば以下のような2値の重みを設定してもよい。ここでthは前景と背景を区別するための閾値であり、所定値を用いてもよいし、特徴点の奥行(奥行値d(i))の分布ヒストグラム等から動的に求めてもよい。なお、動的に求める際は任意の既存の統計手法を利用してよい。
w(i)=1 (d(i)≦thすなわち前景の場合)
w(i)=0 (d(i)>thすなわち背景の場合)
As another setting example of the weight, the imaging information may be divided into two foregrounds and backgrounds according to the depth, and the weight information may be set so that feature points are selected only from the foreground area. In other words, for example, the following binary weights may be set in terms of expressions. Here, th is a threshold value for distinguishing between the foreground and the background, and a predetermined value may be used, or may be dynamically obtained from a distribution histogram of the depth of feature points (depth value d (i)). Note that any existing statistical method may be used for the dynamic determination.
w (i) = 1 (d (i) ≤th, ie foreground)
w (i) = 0 (d (i)> th ie background)

このように前景のみから特徴点を選別する手法を採用する場合、次のような効果が得られる。すなわち、撮像対象が相対的に近接することで前景領域に属して撮像されているという前提のもとで、撮像対象には該当しない背景領域の影響を排除して前景領域のみから特徴点を選別できるため、前記従来技術の抱える課題を解決し、判定部5での判定精度が向上する効果が得られる。   Thus, when the method of selecting feature points from only the foreground is employed, the following effects can be obtained. In other words, on the assumption that the imaging target belongs to the foreground area due to relatively close proximity, the feature points are selected only from the foreground area, eliminating the influence of the background area that does not correspond to the imaging target. Therefore, it is possible to solve the problems of the prior art and to improve the determination accuracy in the determination unit 5.

以上、相対的位置関係をも考慮する第一実施形態では、相対的位置関係としての3次元空間座標位置(x,y,z)=(x(u,v),y(u,v),z(u,v))に相当する関係を奥行によって求めて利用した。相対的位置関係をも考慮する第二実施形態として、空間座標位置(x(u,v),y(u,v),z(u,v))を直接的には利用せず、撮像画像の画素位置(u,v)のみを利用して、第一実施形態と概ね同様の効果が得られる選別を実現するようにしてもよい。   As described above, in the first embodiment that also considers the relative positional relationship, the three-dimensional spatial coordinate position (x, y, z) = (x (u, v), y (u, v), The relationship corresponding to z (u, v)) was found and used by depth. As a second embodiment that also considers the relative positional relationship, the spatial coordinate position (x (u, v), y (u, v), z (u, v)) is not directly used, and the captured image Only the pixel position (u, v) may be used to realize sorting that can obtain substantially the same effect as in the first embodiment.

一般的な説明として、第二実施形態では選別される特徴点iの画像上での位置(u(i),v(i))が偏ることなく均一化されるようにしたうえで、位置(u(i),v(i))及び特徴点スコアscore(i)に基づいて特徴点iを選別すればよい。この際、位置(u(i),v(i))が偏ることなく均一化されるようにする範囲は、必ずしも撮像画像の全体とするのではなく、撮像画像の一部(例えば、近傍に特徴点が検出されている範囲)として設定するようにしてもよい。   As a general explanation, in the second embodiment, the position (u (i), v (i)) on the image of the feature point i selected in the second embodiment is made uniform without deviation, and the position ( The feature point i may be selected based on u (i), v (i)) and the feature point score score (i). At this time, the range in which the positions (u (i), v (i)) are made uniform without deviation is not necessarily the entire captured image, but a part of the captured image (for example, in the vicinity) A range in which feature points are detected may be set.

図4は、第二実施形態における選別部3の処理の一例を示すフローチャートである。ステップS1では、撮像画像を分割する分割領域の形状及び配置並びに分割領域の選択順番と、最大特徴点数(選別部3で選別する特徴点数の上限所定数)と、を設定したうえでステップS2へと進む。   FIG. 4 is a flowchart showing an example of processing of the selection unit 3 in the second embodiment. In step S1, after setting the shape and arrangement of the divided areas for dividing the captured image, the selection order of the divided areas, and the maximum number of feature points (upper predetermined number of feature points to be selected by the selection unit 3), the process proceeds to step S2. Proceed with

ステップS1における撮像画像の分割領域は、所定手法で分割したものとすればよい。例えば横方向に所定数n個、縦方向に所定数m個に等分割することで、合計n×m個の矩形領域に分割するようにしてもよい。すなわち、撮像画像のサイズ(画素数)が横W個で縦H個であれば、それぞれ縦W/n個、横H/m個となるようなn×m個の矩形領域に分割してよい。また、撮像画像に対して色情報やテクスチャ情報その他に基づく既存の任意の領域分割手法を適用することで、必ずしも分割領域の形状が矩形領域とはならないようにしてもよい。   The divided area of the captured image in step S1 may be divided by a predetermined method. For example, a predetermined number n in the horizontal direction and a predetermined number m in the vertical direction may be equally divided into a total of n × m rectangular areas. In other words, if the size (number of pixels) of the captured image is W horizontal and H vertical, it may be divided into n × m rectangular areas that are W / n vertical and H / m horizontal, respectively. . Further, by applying an existing arbitrary region dividing method based on color information, texture information, and the like to the captured image, the shape of the divided region may not necessarily be a rectangular region.

また、ステップS1における分割領域に対する選択順番の決定は、分割手法に応じた所定順番として決定するようにすればよい。例えばn×m個の矩形領域に分割した場合、ラスタスキャン順番などとすればよい。矩形領域とはならない分割の場合も、分割領域の重心位置で例えばラスタスキャン順番となるように、分割領域の選択順番を決定すればよい。   The selection order for the divided regions in step S1 may be determined as a predetermined order according to the division method. For example, when divided into n × m rectangular areas, the raster scan order may be used. Even in the case of division that does not become a rectangular area, the selection order of the divided areas may be determined so that, for example, the raster scan order is obtained at the center of gravity of the divided areas.

ここで、図4の説明において、分割領域をR(k)(k=1,2,...)、その選択順番をO(k)と表記する。例えば3つの分割領域R(1),R(2),R(3)について選択順番O(1)=3,O(2)=2,O(3)=1であれば、「R(3)(O(3)=1番目)」→「R(2)(O(2)=2番目)」→「R(1)(O(1)=3番目)」の順番で分割領域が選択されることを意味するものとする。   Here, in the description of FIG. 4, the divided region is expressed as R (k) (k = 1, 2,...), And the selection order is expressed as O (k). For example, if the selection order O (1) = 3, O (2) = 2, O (3) = 1 for three divided regions R (1), R (2), R (3), then `` R (3 ) (O (3) = 1st) "→" R (2) (O (2) = 2nd) "→" R (1) (O (1) = 3rd) "in this order It means to be done.

なお、ステップS1から(初めて)ステップS2へと至る際には、上記選択順番の現在値を1番目として設定しておく。   It should be noted that when going from step S1 to (for the first time) step S2, the current value of the selection order is set as the first.

ステップS2では、選択順番の現在値O(k)で指定される分割領域R(k)の中から、未選択の特徴点iであってその特徴点スコアscore(i)が最大となるものを1つ選択したうえで、ステップS3へと進む。なお、ステップS2において当該指定される分割領域R(k)の中に未選択の特徴点iが残っていない場合は、当該選択はスキップ(省略)したうえでそのままステップS3へと進めばよい。また、ステップS2において未選択の特徴点iのうちの特徴点スコアscore(i)の最大値が所定閾値未満である場合、当該選択はスキップ(省略)したうえでそのままステップS3へと進むようにしてもよい。   In step S2, from among the divided regions R (k) specified by the current value O (k) of the selection order, an unselected feature point i having the maximum feature point score score (i) After selecting one, go to step S3. If there is no unselected feature point i remaining in the designated divided region R (k) in step S2, the selection may be skipped (omitted) and proceed to step S3 as it is. Also, if the maximum value of the feature point score score (i) among the unselected feature points i in step S2 is less than a predetermined threshold, the selection is skipped (omitted) and the process proceeds directly to step S3. Good.

ステップS3では、当該時点までの一連のステップS2において選択された特徴点の数が所定数、すなわちステップS1で設定した上限数に到達したか否かの判定を行い、当該上限数に到達していればステップS4へと進み、到達していなければステップS5へと進む。   In step S3, it is determined whether or not the number of feature points selected in the series of steps S2 up to that point has reached a predetermined number, that is, the upper limit set in step S1, and the upper limit has been reached. If so, the process proceeds to step S4, and if not reached, the process proceeds to step S5.

ステップS4では、当該時点までの一連のステップS2において選択された特徴点を選別部3における選別結果として出力したうえで、図4のフローを終了する。   In step S4, the feature points selected in the series of steps S2 up to that point in time are output as the sorting result in the sorting unit 3, and the flow of FIG.

ステップS5では、当該ステップS5に至る直前のステップS2において利用した選択順番の現在値O(k)を次の値「O(k)+1」(=O(k'))に更新することで次の選択対象の領域R(k')を設定したうえで、ステップS2に戻る。   In step S5, the current value O (k) of the selection order used in step S2 immediately before reaching step S5 is updated to the next value “O (k) +1” (= O (k ′)). After setting the next selection target area R (k ′), the process returns to step S2.

こうして、図4においてステップS2,S3,S5のループ処理が繰り返される都度、ステップS2において例えば1番目、2番目、3番目と選択順番が設定されている分割領域がそれぞれ特徴点の選択対象として設定され、ステップS2において当該設定された分割領域から特徴点の選択が行われることとなる。なお、ステップS5において選択順番の現在値O(k)が最後の順番である場合、再度、1番目の選択順番を次の選択対象として設定するようにすればよい。   In this way, each time the loop process of steps S2, S3, and S5 is repeated in FIG. 4, the divided areas, for example, the first, second, and third selection orders set in step S2, are set as feature point selection targets, respectively. In step S2, feature points are selected from the set divided areas. If the current value O (k) of the selection order is the last order in step S5, the first selection order may be set again as the next selection target.

図5は、図4のフローの適用例を示す図である。図5では、選別上限数を7個とし、3×3の矩形領域分割とし、選択順番をラスタスキャン順とする設定のもとで図4のフローを適用した際に、ある画像(不図示)から選別される特徴点の画像内の位置分布が[2]において示されている。図4ではまた、[2]に対する対比例として、本発明の手法を適用せずに特徴点スコア値のみに基づいて選別上限数7個を同一画像内から選別した場合が[1]に示されている。   FIG. 5 is a diagram illustrating an application example of the flow of FIG. In FIG. 5, a certain image (not shown) is obtained when the flow of FIG. 4 is applied with the selection upper limit set to 7, 3 × 3 rectangular area division, and the selection order set to the raster scan order. The position distribution in the image of the feature points selected from is shown in [2]. FIG. 4 also shows a case in which [7] is selected from the same image based on only the feature point score value without applying the method of the present invention as a comparison with [2]. ing.

すなわち、図5の[1],[2]では共に、同一画像内の特徴点がその特徴点スコア値を併記する形でプロットされており、特徴点は合計16個あり、特徴点スコアは最高100から最低85までの各整数値を有している例が示されている。[1],[2]では共に、選別された特徴点はそのスコア値に下線付与することによって示されている。本発明の手法を適用しない[1]の例では、単純に最高値100から上位7個までを取って特徴点スコア94までのものが選別されているが、[1]に見て取れるようにその画像内での位置分布が左下箇所に偏ってしまっている。一方、本発明の図4の手法を適用した[2]の例では、[1]の偏りが解消され、画像内において比較的均一に散らばって特徴点が選別されている。すなわち、[2]では画像内の上段側部分で特徴点スコア88,89,85の3個が選別され、中段部分で特徴点スコア92,91の2個が選別され、下段側部分で特徴点スコア100,99の2個が選別されており、[1]に見られるような選別された特徴点分布の空間的な偏りが解消されている。   That is, in [1] and [2] in FIG. 5, the feature points in the same image are plotted with the feature point score values written together. There are 16 feature points in total, and the feature point score is the highest. An example with each integer value from 100 to a minimum of 85 is shown. In both [1] and [2], the selected feature points are indicated by underlining their score values. In the example of [1] in which the method of the present invention is not applied, the highest value 100 to the top seven are selected up to the feature point score 94, but the image can be seen as seen in [1]. The position distribution inside is biased to the lower left. On the other hand, in the example [2] to which the technique of FIG. 4 of the present invention is applied, the bias of [1] is eliminated, and feature points are selected relatively uniformly in the image. That is, in [2], three feature point scores 88, 89, and 85 are selected in the upper part of the image, two feature point scores 92 and 91 are selected in the middle part, and feature points are selected in the lower part. Two of the scores 100 and 99 are selected, and the spatial bias of the selected feature point distribution as seen in [1] is eliminated.

図6は、図4のフローの適用例を図5の場合よりも多数の特徴点上限数のもとで、ある画像(不図示)に関して示す図である。図5の場合と同様、図6でも[1]が対比例としての同一画像における同一特徴点上限数で本発明を適用しなかった場合の選別特徴点分布を示しており、中段・下段側への特徴点の偏りが見られるのに対し、[2]に示す本発明の適用例においては、中段・下段側への特徴点の偏りが解消され、上段側においても概ね均一に特徴点が選別されている。なお、図6の例は、図1の[3]に例示したような、特徴点スコアの高い特徴点が多数抽出されてしまうものの本来の判定対象には該当しない「帯」の領域R13が画像の中下段側部分に存在する場合の、本発明の効果の説明例となっている。   FIG. 6 is a diagram showing an application example of the flow of FIG. 4 with respect to a certain image (not shown) under a larger number of feature point upper limits than in the case of FIG. Similar to the case of FIG. 5, FIG. 6 also shows the distribution of selected feature points when [1] is the proportional upper limit number of the same feature points in the same image and the present invention is not applied. However, in the application example of the present invention shown in [2], the feature point bias to the middle and lower stages is eliminated, and the feature points are selected almost uniformly on the upper stage. Has been. In the example of FIG. 6, as shown in [3] of FIG. 1, although a large number of feature points having high feature point scores are extracted, the “band” region R13 that does not correspond to the original determination target is displayed as an image. It is an explanatory example of the effect of the present invention when it exists in the middle and lower stage side portion.

以上、本発明によれば、撮像対象を撮像部1で撮像したうえで、判定部5において当該撮像された撮像対象を判定することができる。この際、撮像部1と撮像対象との相対的な位置関係により特徴点を選別するため、特徴点分布を適正化でき高精度な判定が可能となる。さらに、当該特徴点座標での特徴量を撮像画像から算出するとともに、同条件の特徴情報を記憶部6から選択し判定するため、判定精度を高精度化できる。   As described above, according to the present invention, after the imaging target is imaged by the imaging unit 1, the determination unit 5 can determine the captured imaging target. At this time, since the feature points are selected based on the relative positional relationship between the imaging unit 1 and the imaging target, the feature point distribution can be optimized and high-precision determination can be performed. Furthermore, since the feature quantity at the feature point coordinates is calculated from the captured image and the feature information of the same condition is selected from the storage unit 6 and determined, the determination accuracy can be increased.

以下、本発明における説明上の補足事項を述べる。   Hereinafter, supplementary matters for explanation in the present invention will be described.

(1)選別部3における選別処理についての第二実施形態の第一変形例として、特徴点iをその特徴点スコアscore(i)が最大となるものから1個ずつ選別する処理を繰り返して所定上限数に到達するまで選別を行うものとし、1個ずつ選別される都度、次の更新処理を行うようにしてもよい。すなわち、既に選別された特徴点iから画像上での位置が所定距離以内にあるような特徴点jに関しては、その特徴点スコアscore(j)を低い値に更新するようにしてもよい。低い値への更新は、例えば所定係数r(0≦r<1)を乗ずることによって行えばよく、未選別のある特徴点jに関して所定距離以内に既にN個の特徴点が選別済みのものとして存在すれば、その特徴点スコアはN回分だけ累積的に更新したrN*score(j)としてもよい。なお、所定係数r=0との設定は、既に選別された特徴点から所定距離内にある特徴点は選別対象から完全に除外することに相当する。 (1) As a first modification of the second embodiment of the sorting process in the sorting unit 3, a process of selecting feature points i one by one from the one having the largest feature point score score (i) is repeated Sorting is performed until the upper limit is reached, and the next update process may be performed each time one is sorted. That is, for a feature point j whose position on the image is within a predetermined distance from the already selected feature point i, the feature point score score (j) may be updated to a low value. The update to a low value may be performed, for example, by multiplying by a predetermined coefficient r (0 ≦ r <1), and N feature points are already selected within a predetermined distance with respect to a feature point j that has not been selected. If present, the feature point score may be r N * score (j) that is cumulatively updated N times. Note that the setting of the predetermined coefficient r = 0 corresponds to completely excluding feature points that are within a predetermined distance from already selected feature points from the selection target.

なお、当該第一変形例は図4のステップS1,S2,S5における処理を次のような処理に置き換えることで実現できる。すなわち、ステップS1では領域分割や分割領域の選択順番の設定は行わず、最大特徴点数(選別部3で選別する特徴点数の上限所定数)の設定のみを行う。ステップS2では、選択領域ではなく画像全体の中から、未選択の特徴点で特徴点スコアが最大のものを選択するようにする。ステップS5では、次の分割領域を選択するのではなく、直前のステップS2で選択された特徴点iから所定距離内にあるような特徴点jに関して、その特徴点スコアscore(j)を低い値に更新する。   The first modification can be realized by replacing the processing in steps S1, S2, and S5 in FIG. 4 with the following processing. That is, in step S1, the area division and the selection order of the divided areas are not set, but only the maximum feature points (upper predetermined number of feature points to be selected by the selection unit 3) are set. In step S2, an unselected feature point having the maximum feature point score is selected from the entire image instead of the selected region. In step S5, the feature point score score (j) is set to a low value for the feature point j that is within the predetermined distance from the feature point i selected in the immediately preceding step S2, instead of selecting the next divided region. Update to

(2)選別部3における選別処理についての第二実施形態の第二変形例として、次のようにしてもよい。すなわち、画像の領域分割は図4のステップS1で説明したのと同様に行う。そして、各分割領域R(k)(k=1,2, ...)に関して、当該分割領域内で検出部2により検出されている特徴点の総数をNum(k)とし、各分割領域R(k)から、その特徴点総数Num(k)に応じた個数r*Num(k)個の特徴点を特徴点スコアの高い順に選別したもの全体を、選別部3からの選別結果として出力する。ここで、係数rは特徴点総数Num(k)に応じた個数を与えるような所定値(0<r<1)として設定しておけばよく、特に、各分割領域R(k)から選別する個数の総和「Σr*Num(k)」が予め設定する特徴点上限所定個数に一致するような値として係数rを定めてもよい。なお、係数rを乗じた個数r*Num(k)個は一般に整数ではないが、所定の丸め処理で適宜整数化すればよい。個数の総和「Σr*Num(k)」についても、特徴点上限所定数に閾値判定で一致するものであればよい。   (2) As a second modification of the second embodiment regarding the sorting process in the sorting unit 3, the following may be performed. That is, the image area division is performed in the same manner as described in step S1 of FIG. Then, for each divided region R (k) (k = 1, 2,...), The total number of feature points detected by the detection unit 2 in the divided region is Num (k), and each divided region R From (k), the total of the number of feature points corresponding to the total number of feature points Num (k), r * Num (k), sorted in descending order of the feature point score is output as the sorting result from the sorting unit 3. . Here, the coefficient r may be set as a predetermined value (0 <r <1) that gives the number corresponding to the total number of feature points Num (k). In particular, the coefficient r is selected from each divided region R (k). The coefficient r may be determined as a value such that the total number “Σr * Num (k)” of the number coincides with a predetermined feature point upper limit predetermined number. Note that the number r * Num (k) multiplied by the coefficient r is generally not an integer, but may be appropriately converted to an integer by a predetermined rounding process. The total number “Σr * Num (k)” of the number may be any as long as it matches the predetermined upper limit number of feature points in the threshold determination.

当該第二変形例によれば、分割領域内で検出部2により検出されている特徴点の多寡に応じた均等な特徴点分布を、選別部3から出力する選別結果において実現することが可能となる。すなわち、検出部2で検出された撮像画像における特徴点分布を、係数rによって画像全体において概ね均一に間引いた特徴点分布を、選別部3からの選別結果として出力することが可能となる。   According to the second modified example, it is possible to realize an equal feature point distribution according to the number of feature points detected by the detection unit 2 in the divided region in the selection result output from the selection unit 3. Become. That is, it is possible to output the feature point distribution obtained by thinning out the feature point distribution in the captured image detected by the detection unit 2 almost uniformly in the entire image by the coefficient r as the selection result from the selection unit 3.

(3)選別部3における選別処理に関して、第一実施形態と第二実施形態とを組み合わせてもよい。例えば、第二実施形態においては図4のステップS2で特徴点スコアscore(i)が最大となるような特徴点iを選別したが、ステップS2では当該特徴点スコアscore(i)の代わりに第一実施形態における重み付けスコアw(i)*score(i)を用いて、当該重み付けスコアが最大となるような特徴点iを選別するようにしてもよい。   (3) Regarding the sorting process in the sorting unit 3, the first embodiment and the second embodiment may be combined. For example, in the second embodiment, the feature point i that maximizes the feature point score score (i) is selected in step S2 of FIG. 4, but in step S2, the feature point score score (i) is replaced with the first feature point score (i). The feature point i that maximizes the weighting score may be selected using the weighting score w (i) * score (i) in one embodiment.

(4)第一実施形態における重みw(i)を、奥行きd(i)等の空間座標における配置は考慮せずに、その特徴点iの画像内での座標(u(i),v(i))のみに基づいて設定されるものとしてもよい。例えば、画像内における中心などの所定位置において最大値を取り、当該所定位置から距離が離れるほど値が小さくなるような、正の値の重みw(i)を設定してもよい。この場合も、判定対象となる撮像対象は当該画像内の中心その他の所定位置の付近にあるものとして撮像がなされているという前提のもとで、判定対象の撮像対象に起因する特徴点を優先して選別することが可能となり、判定部5における判定の高精度化に寄与することとなる。   (4) The weight w (i) in the first embodiment is not considered in the spatial coordinates such as the depth d (i), and the coordinates (u (i), v ( It may be set only based on i)). For example, a positive value weight w (i) may be set such that the maximum value is obtained at a predetermined position such as the center in the image, and the value decreases as the distance from the predetermined position increases. Also in this case, priority is given to the feature points resulting from the imaging target of the determination target, on the assumption that the imaging target to be determined is in the vicinity of the center or other predetermined position in the image. Therefore, it is possible to sort the images, which contributes to higher accuracy of determination in the determination unit 5.

(5)情報処理装置10は、図2に示す各機能部のうちの任意の一部分のみで構成されていてもよい。例えば撮像部1を省略して、検出部2では任意の画像をネットワーク上その他の任意の箇所から取得するようにしてもよい。ただしこの際、当該読み込んだ画像に関してのカメラの情報等の付随情報も併せて取得することで、例えば前述の奥行に基づく選別部3による選別処理といったような、前述の各処理が可能になるものとすればよい。例えば、検出部2及び選別部3のみを備えて情報処理装置10を構成した場合を考えると、検出部2において読み込んだ画像から認識その他の判定処理に適した特徴点を選別して出力する装置として情報処理装置10が機能することとなる。   (5) The information processing apparatus 10 may be configured by only an arbitrary part of the functional units illustrated in FIG. For example, the imaging unit 1 may be omitted, and the detection unit 2 may acquire an arbitrary image from any other location on the network. However, at this time, by acquiring additional information such as camera information about the read image, the above-described processes such as the sorting process by the sorting unit 3 based on the depth described above can be performed. And it is sufficient. For example, considering the case where the information processing apparatus 10 is configured to include only the detection unit 2 and the selection unit 3, a device that selects and outputs feature points suitable for recognition and other determination processes from the image read by the detection unit 2. As a result, the information processing apparatus 10 functions.

(6)情報処理装置10は一般的な構成のコンピュータとして実現可能である。すなわち、CPU(中央演算装置)、当該CPUにワークエリアを提供する主記憶装置、ハードディスクやSSDその他で構成可能な補助記憶装置、キーボード、マウス、タッチパネルその他といったユーザからの入力を受け取る入力インタフェース、ネットワークに接続して通信を行うための通信インタフェース、表示を行うディスプレイ、カメラ及びこれらを接続するバスを備えるような、一般的なコンピュータによって情報処理装置10を構成することができる。さらに、図2に示す情報処理装置10の各部の処理はそれぞれ、当該処理を実行させるプログラムを読み込んで実行するCPUによって実現することができるが、任意の一部の処理を別途の専用回路等において実現するようにしてもよい。撮像部1は、当該ハードウェアとしてのカメラによって実現できる。   (6) The information processing apparatus 10 can be realized as a computer having a general configuration. That is, a CPU (Central Processing Unit), a main storage device that provides a work area for the CPU, an auxiliary storage device that can be configured with a hard disk, SSD, etc., an input interface that receives input from the user such as a keyboard, mouse, touch panel, etc., network The information processing apparatus 10 can be configured by a general computer including a communication interface for connecting to and communicating, a display for displaying, a camera, and a bus for connecting them. Furthermore, the processing of each unit of the information processing apparatus 10 shown in FIG. 2 can be realized by a CPU that reads and executes a program for executing the processing, but any part of the processing is performed in a separate dedicated circuit or the like. It may be realized. The imaging unit 1 can be realized by a camera as the hardware.

10…情報処理装置、1…撮像部、2…検出部、3…選別部、4…算出部、5…判定部、6…記憶部   DESCRIPTION OF SYMBOLS 10 ... Information processing apparatus, 1 ... Imaging part, 2 ... Detection part, 3 ... Sorting part, 4 ... Calculation part, 5 ... Determination part, 6 ... Storage part

Claims (15)

画像より特徴点を検出すると共に各特徴点の特徴点スコアを求める検出部と、
前記検出された特徴点の中から、各特徴点の特徴点スコア及び位置に基づく選別を行って得られる特徴点を、前記画像の特徴点として出力する選別部と、を備えることを特徴とする情報処理装置。
A detection unit for detecting feature points from the image and obtaining a feature point score of each feature point;
A selection unit that outputs, as feature points of the image, feature points obtained by performing selection based on a feature point score and a position of each feature point from the detected feature points; Information processing device.
前記選別部では、前記位置に基づく選別を、前記画像を撮像したカメラのカメラ中心を基準とした各特徴点の空間位置に基づく選別として行うことを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the selection unit performs the selection based on the position based on a spatial position of each feature point based on a camera center of a camera that has captured the image. . 前記選別部では、前記各特徴点の空間位置に基づく選別を、各特徴点の奥行に基づく選別として行うことを特徴とする請求項2に記載の情報処理装置。   The information processing apparatus according to claim 2, wherein the selection unit performs selection based on a spatial position of each feature point as selection based on a depth of each feature point. 前記選別部では、前記各特徴点の奥行に基づく選別を、奥行が小さいほど優先して選別することにより行うことを特徴とする請求項3に記載の情報処理装置。   The information processing apparatus according to claim 3, wherein the sorting unit performs sorting based on the depth of each feature point with priority as the depth becomes smaller. 前記選別部では、前記画像を前景領域と背景領域とに分割し、前記位置に基づく選別を、前記分割された前景領域にある特徴点のみを選別対象とすることによって行うことを特徴とする請求項1に記載の情報処理装置。   The selection unit divides the image into a foreground region and a background region, and performs the selection based on the position by selecting only feature points in the divided foreground region as selection targets. Item 4. The information processing apparatus according to Item 1. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置に基づく選別として行うことを特徴とする請求項1に記載の情報処理装置。   The information processing apparatus according to claim 1, wherein the selection unit performs selection based on the position as selection based on a pixel coordinate position in the image of each feature point. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置に基づく選別として行い、選別される特徴点の画素座標位置の分布が均一化されるように、当該選別を行うことを特徴とする請求項6に記載の情報処理装置。   The selection unit performs the selection based on the position as the selection based on the pixel coordinate position of the feature point in the image, and performs the selection so that the distribution of the pixel coordinate position of the feature point to be selected becomes uniform. The information processing apparatus according to claim 6, wherein the information processing apparatus is performed. 前記選別部では、前記画像を領域分割して得られる各分割領域を所定順序で選択し、当該選択された分割領域内から特徴点を特徴点スコアに基づいて選別することを当該所定順序に従って継続することにより、前記画像の特徴点を出力することを特徴とする請求項6に記載の情報処理装置。   The selecting unit selects each divided region obtained by dividing the image into regions in a predetermined order, and continues to select feature points from the selected divided regions based on the feature point score according to the predetermined order. The information processing apparatus according to claim 6, wherein the feature point of the image is output. 前記選別部では、前記画像を領域分割して得られる各分割領域より、当該分割領域内に属する前記検出された特徴点の総数に応じた個数の特徴点を、特徴点スコアに基づいて選別することにより、前記画像の特徴点を出力することを特徴とする請求項6に記載の情報処理装置。   The selection unit selects, based on the feature point score, the number of feature points corresponding to the total number of the detected feature points belonging to the divided region from the divided regions obtained by dividing the image into regions. The information processing apparatus according to claim 6, wherein a feature point of the image is output. 前記選別部では、前記位置に基づく選別を、各特徴点の前記画像における画素座標位置が所定座標位置に近いほど優先して選別するようにして行うことを特徴とする請求項6に記載の情報処理装置。   The information according to claim 6, wherein the sorting unit performs sorting based on the position such that the pixel coordinate position of each feature point in the image is preferentially sorted closer to a predetermined coordinate position. Processing equipment. 前記選別部では、各特徴点の特徴点スコア及び位置に基づく選別を、各特徴点の特徴点スコアに各特徴点の位置に基づく重みを乗じて得られる重み付けスコアが高いほど優先して選別することによって行うことを特徴とする請求項1ないし10のいずれかに記載の情報処理装置。   The sorting unit preferentially sorts the feature points based on the feature point score and position of each feature point as the weighting score obtained by multiplying the feature point score of each feature point by the weight based on the position of each feature point is higher. The information processing apparatus according to claim 1, wherein the information processing apparatus performs the processing. 前記選別部によって前記画像の特徴点として出力された各特徴点に関して、前記画像における当該特徴点の近傍領域を参照することで、各特徴点における特徴量を算出する算出部をさらに備えることを特徴とする請求項1ないし11のいずれかに記載の情報処理装置。   For each feature point output as a feature point of the image by the selection unit, the image processing apparatus further includes a calculation unit that calculates a feature amount at each feature point by referring to a neighborhood region of the feature point in the image. The information processing apparatus according to claim 1. 前記算出部により前記画像に関して算出された特徴量と、複数の所定対象の各々についてその撮像画像から算出された特徴量と、を比較することにより、前記画像において撮像されている対象が前記複数の所定対象のいずれに該当するかを判定する判定部をさらに備えることを特徴とする請求項12に記載の情報処理装置。   By comparing the feature amount calculated for the image by the calculation unit with the feature amount calculated from the captured image for each of a plurality of predetermined targets, the target imaged in the image is the plurality of target images. The information processing apparatus according to claim 12, further comprising a determination unit that determines which one of the predetermined objects corresponds. 撮像を行うことによって前記画像を取得する撮像部をさらに備えることを特徴とする請求項1ないし13のいずれかに記載の情報処理装置。   The information processing apparatus according to claim 1, further comprising an imaging unit that acquires the image by performing imaging. コンピュータを請求項1ないし14のいずれかに記載の情報処理装置として機能させることを特徴とするプログラム。   A program for causing a computer to function as the information processing apparatus according to any one of claims 1 to 14.
JP2017054458A 2017-03-21 2017-03-21 Information processing device and program Active JP6717769B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017054458A JP6717769B2 (en) 2017-03-21 2017-03-21 Information processing device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017054458A JP6717769B2 (en) 2017-03-21 2017-03-21 Information processing device and program

Publications (2)

Publication Number Publication Date
JP2018156544A true JP2018156544A (en) 2018-10-04
JP6717769B2 JP6717769B2 (en) 2020-07-01

Family

ID=63715669

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017054458A Active JP6717769B2 (en) 2017-03-21 2017-03-21 Information processing device and program

Country Status (1)

Country Link
JP (1) JP6717769B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837416A (en) * 2019-09-24 2020-02-25 深圳市火乐科技发展有限公司 Memory management method, intelligent projector and related product

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030663A (en) * 2001-07-16 2003-01-31 Mitsubishi Electric Corp Fingerprint collation device and fingerprint collation method
JP2012234258A (en) * 2011-04-28 2012-11-29 Sony Corp Image processing device, image processing method, and program
JP2014115821A (en) * 2012-12-10 2014-06-26 Secom Co Ltd Face feature extraction device and face authentication system
JP2015052942A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image processing method, image processing apparatus, and program
JP2016181181A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Image processing apparatus, image processing method, and program

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003030663A (en) * 2001-07-16 2003-01-31 Mitsubishi Electric Corp Fingerprint collation device and fingerprint collation method
JP2012234258A (en) * 2011-04-28 2012-11-29 Sony Corp Image processing device, image processing method, and program
JP2014115821A (en) * 2012-12-10 2014-06-26 Secom Co Ltd Face feature extraction device and face authentication system
JP2015052942A (en) * 2013-09-06 2015-03-19 キヤノン株式会社 Image processing method, image processing apparatus, and program
JP2016181181A (en) * 2015-03-24 2016-10-13 キヤノン株式会社 Image processing apparatus, image processing method, and program

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110837416A (en) * 2019-09-24 2020-02-25 深圳市火乐科技发展有限公司 Memory management method, intelligent projector and related product

Also Published As

Publication number Publication date
JP6717769B2 (en) 2020-07-01

Similar Documents

Publication Publication Date Title
Wang et al. Correspondence driven saliency transfer
CN108229322B (en) Video-based face recognition method and device, electronic equipment and storage medium
US9968845B2 (en) Image processing device and image processing method, and program
CN108427927B (en) Object re-recognition method and apparatus, electronic device, program, and storage medium
US8792722B2 (en) Hand gesture detection
CN108292362A (en) Gesture identification for cursor control
JP2016066360A (en) Text-based 3D augmented reality
JP5261501B2 (en) Permanent visual scene and object recognition
CN108573471B (en) Image processing apparatus, image processing method, and recording medium
CN109886223B (en) Face recognition method, bottom library input method and device and electronic equipment
Buoncompagni et al. Saliency-based keypoint selection for fast object detection and matching
CN103995864B (en) A kind of image search method and device
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
CN110942473A (en) Moving target tracking detection method based on characteristic point gridding matching
CN111353325A (en) Key point detection model training method and device
CN109961103B (en) Training method of feature extraction model, and image feature extraction method and device
KR20190018274A (en) Method and apparatus for recognizing a subject existed in an image based on temporal movement or spatial movement of a feature point of the image
CN108875501B (en) Human body attribute identification method, device, system and storage medium
JP2011087144A (en) Telop character area detection method, telop character area detection device, and telop character area detection program
JP6717769B2 (en) Information processing device and program
CN108255298B (en) Infrared gesture recognition method and device in projection interaction system
CN114511877A (en) Behavior recognition method and device, storage medium and terminal
JP5051671B2 (en) Information processing apparatus, information processing method, and program
CN107678655B (en) Image element extraction method and image element extraction system
JP2012226403A (en) Image area tracking device, image area tracking method, and computer program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190212

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200326

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200610

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200611

R150 Certificate of patent or registration of utility model

Ref document number: 6717769

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150