JP6541226B2 - Information terminal device and program - Google Patents

Information terminal device and program Download PDF

Info

Publication number
JP6541226B2
JP6541226B2 JP2015185361A JP2015185361A JP6541226B2 JP 6541226 B2 JP6541226 B2 JP 6541226B2 JP 2015185361 A JP2015185361 A JP 2015185361A JP 2015185361 A JP2015185361 A JP 2015185361A JP 6541226 B2 JP6541226 B2 JP 6541226B2
Authority
JP
Japan
Prior art keywords
information
recognition
feature
similar
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015185361A
Other languages
Japanese (ja)
Other versions
JP2017059144A (en
Inventor
加藤 晴久
晴久 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
KDDI Corp
Original Assignee
KDDI Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by KDDI Corp filed Critical KDDI Corp
Priority to JP2015185361A priority Critical patent/JP6541226B2/en
Publication of JP2017059144A publication Critical patent/JP2017059144A/en
Application granted granted Critical
Publication of JP6541226B2 publication Critical patent/JP6541226B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Image Analysis (AREA)

Description

本発明は、撮像部により撮像された対象を認識する情報端末装置、プログラム及びデータ構造に関し、特に、特徴情報を選別することで類似対象を高精度に認識する情報端末装置、プログラム及びデータ構造に関する。   The present invention relates to an information terminal apparatus, program and data structure for recognizing an object imaged by an imaging unit, and more particularly to an information terminal apparatus, program and data structure for recognizing similar objects with high accuracy by selecting feature information. .

画像から対象を認識する技術は、配布や提示が容易な媒体に記載されたアナログ情報からデジタル情報に変換させることが可能であり、利用者の利便性を向上させることができる。   The technology for recognizing an object from an image can convert analog information described in a medium that can be easily distributed or presented into digital information, and can improve user convenience.

当該技術の例として非特許文献1では、画像から特徴点を検出し、特徴点周辺から局所画像特徴量を算出した上で、事前に蓄積しておいた局所画像特徴量と照合することによって、対象の種類を認識する。   In Non-Patent Document 1, as an example of the technique, a feature point is detected from an image, a local image feature amount is calculated from the periphery of the feature point, and then matched with a local image feature amount accumulated in advance. Recognize the type of object.

また、類似物体の認識を高精度化させる技術としては、以下のようなものが公開されている。   Also, as a technique for improving the accuracy of recognition of similar objects, the followings have been disclosed.

特許文献1では、対象の位置情報や方位情報などに応じて照合に利用する画像特徴を選別することで類似画像を識別する手法を開示している。特許文献2は、テンプレートマッチングにおいて位置や輝度がずれた場合でも、部分画像の双方向のテンプレートマッチングにより類似画像を区別する手法を開示している。双方向テンプレートマッチングでは、まずクエリ画像の部分画像と一致するリファレンス画像の部分画像を検出し、次に検出された結果と一致するクエリ画像の部分画像を検出した際に、両者が一致するかどうかを判定することで、精度向上を図る。非特許文献2では、まず非特許文献1の手法を用いて候補を絞り込み、次に差異領域のテンプレートマッチングで差分が小さい対象に確定する。   Patent Document 1 discloses a method of identifying similar images by selecting image features to be used for matching in accordance with position information and orientation information of an object. Patent Document 2 discloses a method of discriminating similar images by bidirectional template matching of partial images even when the position or the luminance is shifted in template matching. In bi-directional template matching, first, a partial image of the reference image that matches the partial image of the query image is detected, and then a partial image of the query image that matches the detected result is detected. The accuracy is improved by determining In Non-Patent Document 2, first, candidates are narrowed down using the method of Non-Patent Document 1, and secondly, a target with a small difference is determined by template matching of a difference area.

特開2014−134858号公報JP 2014-134858 A 特許5375823号Patent 5375823

D. G. Lowe, ''Object recognition from local scale-invariantFeatures,'' Proc. of IEEE International Conference on Computer Vision (ICCV), pp.1150-1157, 1999.D. G. Lowe, '' Object recognition from local scale-invariant Features, '' Proc. Of IEEE International Conference on Computer Vision (ICCV), pp. 1150-1157, 1999. 間瀬、岩元、''局所特徴量照合と画像差分による二段解析を用いた物品検査システム,'' 情報科学技術フォーラム講演論文集 13(3), 103-104, 2014.Mase, Iwamoto, '' Article inspection system using two-step analysis with local feature matching and image subtraction, '' Information Science and Technology Forum Proceedings 13 (3), 103-104, 2014.

しかしながら、以上のような従来技術には、複数の類似対象が存在する場合に、当該類似対象同士を区別して認識できない、あるいは認識できたとしても何らかの困難を伴うという課題があった。ここで、類似対象とは例えば、図1に模式的に例示するように、上巻と下巻とに分けて刊行された書籍における、上巻の表紙G1と下巻の表紙G2とであり、当該両表紙G1,G2は、そのごく一部分に過ぎない「上巻」の文字部分P1と「下巻」の文字部分P2とのみが異なっており、残りの大部分であるタイトル「小説甲乙丙」(例示のための架空例である)や表紙装丁の模様等は共通している。   However, in the prior art as described above, when there are multiple similar objects, there is a problem that the similar objects can not be distinguished and recognized, or some difficulty is caused even if they can be recognized. Here, the similar target is, for example, the cover G1 of the upper volume and the cover G2 of the lower volume in the book published separately in the upper volume and the lower volume, as schematically illustrated in FIG. , G2 differ only in the letter part P1 of the "upper volume" and the letter part P2 of the "lower volume" which are only a very small part of them, and the remaining most of the title "Novel Kai" (a fictional example for illustration The patterns of the cover binding and the like are common.

すなわち、非特許文献1では、図1に例示したような複数の類似対象が存在する場合に、類似対象の各々から抽出される局所画像特徴量が類似対象同士においてはほとんど同じものとなってしまうため、類似対象同士を互いに区別して認識できない、あるいは区別して認識できたとしても精度が悪いという問題がある。   That is, in Non-Patent Document 1, when there are a plurality of similar objects as exemplified in FIG. 1, the local image feature quantities extracted from each of the similar objects become almost the same among the similar objects. Therefore, there is a problem that similar objects can not be distinguished from each other, or even if they can be distinguished from each other, the accuracy is poor.

特許文献2では、後天的な顔のほくろやシミ、そばかすなどを含む部分画像の双方向テンプレートマッチングにより、双子などの類似画像を区別できると主張している。しかし、テンプレートマッチングの前処理として必要な正規化(位置調整、回転、拡大縮小等)は目や鼻、耳などの大域的な位置関係を基準としているため、処理対象が同一形状のものに限定されるという問題がある。   In Patent Document 2, it is claimed that similar images such as twins can be distinguished by bidirectional template matching of partial images including acquired facial moles, stains, freckles and the like. However, because normalization (position adjustment, rotation, scaling, etc.) required as preprocessing for template matching is based on global positional relationships such as eyes, nose, ears, etc., processing targets are limited to the same shape Have the problem of being

特許文献1では、位置情報や方位情報を併用することで、複数の類似画像となりうる例としての複数のランドマークを識別することはできるが、位置情報や方位情報に依存しない対象には適用できないという問題がある。   In Patent Document 1, it is possible to identify a plurality of landmarks as an example that can be a plurality of similar images by using position information and orientation information in combination, but can not be applied to objects that do not depend on position information or orientation information. There is a problem of

非特許文献2では、差異領域のテンプレートマッチングを用いるため、上記問題(特に非特許文献1における問題)を一部解決できる。しかしながら、差異領域を予め指定しておく必要があるため、認識対象が多い場合に手間がかかりすぎて実質的に対処できないという問題がある。   In Non-Patent Document 2, since the template matching of the difference area is used, it is possible to partially solve the above problem (in particular, the problem in Non-Patent Document 1). However, since it is necessary to designate the difference area in advance, there is a problem that it takes time and effort to substantially deal with the case where there are many recognition targets.

さらに、特許文献2および非特許文献2では共に、僅かな位置ズレによってテンプレートマッチングの値は大きく変化するため、認識精度が十分ではないという問題がある。図2及び図3にそれぞれ、テンプレートマッチングの値を大きく変化させてしまう僅かな位置ズレが発生する類似対象の例を示す。   Furthermore, in both Patent Document 2 and Non-Patent Document 2, the value of template matching changes significantly due to a slight positional deviation, so there is a problem that the recognition accuracy is not sufficient. FIGS. 2 and 3 each show an example of a similar object in which a slight positional deviation occurs which greatly changes the value of template matching.

図2は類似対象の例として、メーカー及びブランド等が共通の同一種類の液体洗剤が封入されているソフトパッケージG3,G4を示す図であり、「洗剤α」といった洗剤名(例示のための架空例である)やパッケージ模様等の大部分は互いに共通であるが、香料についての記載部分「花の香り配合」の記載部分P3及び「香料無配合」の記載部分P4のみ、互いに異なっている。   FIG. 2 is a diagram showing soft packages G3 and G4 in which the same kind of liquid detergents common to manufacturers and brands are enclosed as an example of similar objects, and detergent names such as "detergent α" Most of them are common to each other, for example, package patterns and the like, but they are different from each other only in the description portion P3 of the description portion of the fragrance and the description portion P4 of the "no fragrance combination".

当該互いに類似対象であるソフトパッケージG3,G4は、柔軟性を有し容易に変形するプラスチックフィルム等で形成されているため、置く向き(図2に示す縦置きか、これとは別の横置きか、等の向き)に従って封入している洗剤が位置エネルギーが小さくなるように流動し、当該流動に従って容易に変形する。また、置く向きが同一で例えば商品棚に縦向きで置いてあったとしても、洗剤を封入することで表面が円筒状の形状をなしているので、商品棚に対して常に正面から撮像するようにしたとしても、設置する向きによって見え方が容易に変わる。例えば、商品棚正面に対して右向きに傾いて設置されているか、商品棚正面に対して左向きに傾いて設置されているかで、見え方が変わる。当該容易に変形し、及び/又は、当該容易に見え方が変わることにより、撮像した画像上における位置ズレが容易に発生するため、テンプレートマッチングの値も大きく変動してしまう。   The soft packages G3 and G4, which are similar objects to each other, are formed of a plastic film or the like which has flexibility and is easily deformed. The enclosed detergent flows according to the direction of (or the like) so as to reduce the potential energy and is easily deformed according to the flow. In addition, even if the direction of placement is the same, for example, even if the product shelf is placed vertically, since the surface has a cylindrical shape by enclosing the detergent, it is always possible to image the product shelf from the front Even if you use it, the way you look easily changes depending on the installation direction. For example, the appearance changes depending on whether the product shelf is installed to the right with respect to the front of the product shelf or to the left with respect to the front of the product shelf. Since the positional deviation on the captured image is easily generated due to the easy deformation and / or the easy change of appearance, the value of the template matching also largely fluctuates.

図3は類似対象の例として、同一ゲームベンダーによって提供される同一ゲームパッケージであって、異なるゲーム機(ゲームを実行するためのハードウェア機器)向けに提供されたもののパッケージG5,G6を示す。パッケージG5,G6は全体的には互いに類似することで類似対象となっているが、次のような僅かな相違が存在している。すなわち、対象とするゲーム機が「ゲーム機X」である旨の記載部分P51及び「ゲーム機Y」である旨の記載部分P61が互いに異なっている。また、ゲームで遊ぶ対象年齢について例えば「成人」である旨を表す等の所定規格ロゴが、「ゲーム機X」のベンダの提供する所定形状のロゴP52と「ゲーム機Y」のベンダの提供する別の所定形状のロゴP62とである点で、互いに異なっている。   FIG. 3 shows, as an example of similar objects, packages G5 and G6 of the same game package provided by the same game vendor and provided for different game machines (hardware devices for executing the game). Although the packages G5 and G6 are entirely similar by being similar to each other, there are slight differences as follows. That is, the description portion P51 indicating that the target game device is "game device X" and the description portion P61 indicating that "game device Y" are different from each other. In addition, a predetermined standard logo indicating, for example, that it is "adult" for the age to be played in the game is provided by a logo P52 of a predetermined shape provided by the vendor of "game machine X" and a vendor of "game machine Y". They differ from one another in that they are logos P62 of another predetermined shape.

さらに、ゲームのタイトル「冒険ゲーム」及びパッケージイラスト(例示のための架空例である)の部分P53,P63が、「絵」としては互いに同一であるがその大きさ(及び/又はアスペクト比)のみが少し異なる点で、僅かに異なっている。(なお、図3では理解の促進のため、部分P53,P63に関して大きさ等の違いをやや強調して描いている。)   Furthermore, parts P53 and P63 of the game title "adventure game" and package illustrations (which are fictitious examples for illustration) are identical to each other as "pictures" but only their sizes (and / or aspect ratios) Are slightly different in that they are slightly different. (In addition, in order to promote understanding, in Fig. 3, differences such as size etc. are drawn emphatically with respect to parts P53 and P63.)

このように、絵として同一であってもその大きさ(及び/又はアスペクト比)が異なるような部分P53,P63については、互いに僅かな位置ズレが発生している例であり、その片方によくマッチするようなテンプレートを用いてもう一方にマッチングを行ったとしても、ほとんどマッチしなくなってしまう。   In this way, with respect to the portions P53 and P63 whose sizes (and / or aspect ratios) are different even if they are the same as a picture, this is an example in which slight positional deviation occurs, and it is well Even if you try to match the other using a template that matches, it will hardly match.

本発明は、上記従来技術の課題に鑑み、認識対象として類似対象が存在する場合であっても、高精度に認識を可能とする情報端末装置、プログラム及びデータ構造を提供することを目的とする。   An object of the present invention is to provide an information terminal device, a program, and a data structure capable of recognizing with high accuracy even if there is a similar target as a recognition target, in view of the problems of the prior art described above. .

前記目的を達成するため、本発明は、以下(1)〜(12)を特徴とする。   In order to achieve the above object, the present invention is characterized by the following (1) to (12).

(1)撮像対象を撮像して撮像画像を得る撮像部と、前記撮像画像より特徴点及び当該特徴点近傍の局所画像特徴量を算出して特徴情報として出力する算出部と、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報を記憶しているデータベースにアクセスして得た各認識対象の特徴情報と、前記撮像画像より算出された特徴情報と、の類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得る第一照合部と、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定し、当該一致の判定がなされなかった特徴情報を、前記候補情報に列挙された各認識対象における部分特徴情報として求め、当該求めた各認識対象の部分特徴情報と前記撮像画像より算出された特徴情報との類似性を評価し、類似していると判定された部分特徴情報に対応する認識対象を、前記撮像画像における撮像対象に該当するものとして決定する第二照合部と、を備える情報端末装置であることを特徴とする。   (1) An imaging unit that captures an imaging target and obtains a captured image, a calculation unit that calculates a feature point and a local image feature amount near the feature point from the captured image, and outputs it as feature information; For each recognition target feature information obtained by accessing a database storing the same type of feature information as the calculation unit calculates from the image, and feature information calculated from the captured image The first matching unit obtains candidate information by evaluating similarity and listing recognition targets determined to be similar, and feature information between the recognition targets listed in the candidate information Match is determined, and the feature information for which the match is not determined is determined as partial feature information for each recognition target listed in the candidate information, and the obtained partial feature information for each recognition target and the captured image A second matching unit that evaluates the similarity with the calculated feature information and determines a recognition target corresponding to partial feature information determined to be similar as one corresponding to an imaging target in the captured image; An information terminal apparatus comprising:

(2)前記第二照合部は、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定するに際して、各特徴情報が、所定数以上の他の認識対象における特徴情報と類似していると判定される場合に、当該特徴情報に関して一致を判定することを特徴とする。   (2) When the second collating unit determines that the feature information matches each other among the recognition targets listed in the candidate information, each of the feature information includes a predetermined number or more of other recognition targets. When it is determined that the feature information is similar to the feature information, a match is determined for the feature information.

(3)前記第二照合部は、前記求めた各認識対象の部分特徴情報と前記撮像画像より算出された特徴情報との類似性を評価するに際して、当該部分特徴情報と当該特徴情報との距離、及び/又は、該部分特徴情報の特徴点の近傍の部分領域と当該特徴情報の特徴点の近傍の部分領域との一致性、に基づいて評価することを特徴とする。   (3) When the second matching unit evaluates the similarity between the partial feature information of each of the recognition objects obtained and the feature information calculated from the captured image, a distance between the partial feature information and the feature information And / or evaluation is performed based on the coincidence between the partial region near the feature point of the partial feature information and the partial region near the feature point of the feature information.

(4)前記第二照合部は、前記部分特徴情報を求める対象としての前記候補情報に列挙された認識対象に関して、当該候補情報内における各認識対象同士の特徴情報の類似性を評価することにより、互いに類似する他の認識対象とは非類似であると判定された認識対象が存在する場合には、当該非類似であると判定された認識対象を、前記部分特徴情報を求める対象から除外することを特徴とする。   (4) The second collation unit evaluates the similarity of the feature information of each recognition object in the candidate information with respect to the recognition objects listed in the candidate information for which the partial feature information is to be obtained. When there is a recognition target determined to be dissimilar to another recognition target similar to each other, the recognition target determined to be dissimilar is excluded from the targets for which the partial feature information is sought. It is characterized by

(5)前記第二照合部は、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定するに際して、予め、各認識対象の特徴情報の解像度を正規化したうえで、当該一致を判定することを特徴とする。   (5) The second collating unit normalizes the resolution of the feature information of each recognition object in advance when determining the coincidence of the feature information among the recognition objects listed in the candidate information. And determining the match.

(6)前記第二照合部は、前記解像度を正規化するに際して、各認識対象の特徴情報における特徴点の座標を、前記撮像画像の特徴情報における特徴点の座標へと変換する関係を求め、当該変換する関係に基づいて正規化することを特徴とする。   (6) When normalizing the resolution, the second matching unit determines a relationship for converting the coordinates of the feature point in the feature information of each recognition target into the coordinates of the feature point in the feature information of the captured image, It is characterized in that normalization is performed based on the relationship to be converted.

(7)前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、自身と類似する他の認識対象を列挙した類似対象列挙情報が記憶されており、前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得たうえでさらに、当該候補情報に列挙された各認識対象について、その類似対象列挙情報を参照し、当該候補情報に含まれない認識対象としての逸脱認識対象が存在している場合には、当該逸脱認識対象を、当該候補情報に対して追加することを特徴とする。   (7) In the database, for each of a plurality of recognition objects, similar object enumeration information in which other recognition objects similar to itself are listed in addition to the same kind of feature information calculated by the calculation unit from the image. Are stored, and the first matching unit evaluates the similarity and obtains candidate information as a list of recognition targets determined to be similar, and is further listed in the candidate information. For each recognition target, the similar target enumeration information is referred to, and when there is a deviation recognition target as a recognition target not included in the candidate information, the deviation recognition target is compared with the candidate information. It is characterized by adding.

(8)前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、自身と類似する他の認識対象を列挙した類似対象列挙情報が記憶されており、前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得るに際して、前記類似性を評価する対象を、前記データベースにおいて類似対象列挙情報によって互いに類似するものとされる一連の認識対象のうち、一部分のみに限定したうえで、当該一部分の認識対象のうち少なくとも1つに関して、前記類似していると判定された場合には、当該類似対象列挙情報によって互いに類似するものとされる一連の認識対象を列挙したものとして前記候補情報を得ることを特徴とする。   (8) In the database, similar target enumeration information in which other recognition targets similar to itself are listed in addition to the same kind of feature information calculated by the calculation unit from the image for each of a plurality of recognition targets. Is stored, and the first matching unit evaluates the similarity, and when obtaining candidate information as a list of recognition objects determined to be similar, the evaluation target of the similarity, It is determined that the similarity is made with respect to at least one of the recognition objects of the part after limiting to only a part of a series of recognition objects which are made similar to each other by the similar object enumeration information in the database In the case where the candidate information is obtained, the candidate information is obtained as a list of a series of recognition objects that are considered to be similar to each other by the similar object enumeration information. And butterflies.

(9)前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、当該認識対象に関するテキスト情報が記憶されており、前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得たうえでさらに、当該候補情報に列挙された各認識対象について、そのテキスト情報を用いて前記データベースを検索することにより、当該候補情報に含まれない認識対象としての逸脱認識対象であって、当該テキスト情報が類似していると判定される逸脱認識対象を前記データベースより発見した場合には、当該逸脱認識対象を、当該候補情報に対して追加することを特徴とする。   (9) In the database, in addition to the same kind of feature information calculated by the calculation unit from the image, text information on the recognition object is stored for each of the plurality of recognition objects, The collation unit evaluates the similarity, obtains candidate information as a list of recognition targets determined to be similar, and further, obtains text information about each recognition target listed in the candidate information. By searching the database using the above, the deviation recognition target as a recognition target not included in the candidate information and found to be similar to the text information is found from the database In this case, the deviation recognition target is added to the candidate information.

(10)前記算出部は、予め指定された特定の色チャネルのみを用いて前記特徴情報を算出し、前記第一照合部は、前記特定の色チャネルのみを用いて前記類似性を評価し、前記第二照合部では、前記特定の色チャネルのみを用いて前記一致を判定し、前記類似性を評価することを特徴とする。   (10) The calculation unit calculates the feature information using only a specific color channel designated in advance, and the first matching unit evaluates the similarity using only the specific color channel, The second matching unit is characterized in that the match is determined using only the specific color channel, and the similarity is evaluated.

(11)プログラムであって、コンピュータを前記情報端末装置として機能させることを特徴とする。   (11) A program which causes a computer to function as the information terminal device.

(12)複数の認識対象につきそれぞれ、その画像より算出される特徴情報と、自身と類似する他の認識対象を列挙した類似対象列挙情報と、を紐付けたデータ構造であって、撮像対象を撮像して撮像画像を得る撮像部と、前記撮像画像より特徴点及び当該特徴点近傍の局所画像特徴量を算出して特徴情報として出力する算出部と、複数の認識対象につきそれぞれ前記データ構造に即したデータを記憶しているデータベースにアクセスして得た各認識対象の特徴情報と、前記撮像画像より算出された特徴情報と、の類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得る第一照合部と、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定し、当該一致の判定がなされなかった特徴情報を、前記候補情報に列挙された各認識対象における部分特徴情報として求め、当該求めた各認識対象の部分特徴情報と前記撮像画像より算出された特徴情報との類似性を評価し、類似していると判定された部分特徴情報に対応する認識対象を、前記撮像画像における撮像対象に該当するものとして決定する第二照合部と、を備えることを特徴とする情報端末装置において、前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得たうえでさらに、当該候補情報に列挙された各認識対象について、その類似対象列挙情報を参照し、当該候補情報に含まれない認識対象としての逸脱認識対象が存在している場合には、当該逸脱認識対象を、当該候補情報に対して追加する、または、前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得るに際して、前記類似性を評価する対象を、前記データベースにおいて類似対象列挙情報によって互いに類似するものとされる一連の認識対象のうち、一部分のみに限定したうえで、当該一部分の認識対象のうち少なくとも1つに関して、前記類似していると判定された場合には、当該類似対象列挙情報によって互いに類似するものとされる一連の認識対象を列挙したものとして前記候補情報を得る、ことを特徴とする。   (12) A data structure in which the characteristic information calculated from the image and the similar target enumeration information in which other recognition targets similar to itself are listed for each of a plurality of recognition targets, The data structure for each of a plurality of recognition targets, an imaging unit for capturing and acquiring a captured image, a calculation unit for calculating a feature point and a local image feature quantity near the feature point from the captured image and outputting as feature information Similarity is evaluated between the feature information of each recognition target obtained by accessing the database storing the matched data and the feature information calculated from the captured image, and the recognition determined to be similar The first matching unit for obtaining candidate information as a list of objects, and the recognition objects listed in the candidate information, determine whether the feature information matches, and the determination of the match is not made. Characteristic information is determined as partial feature information in each recognition target listed in the candidate information, and the similarity between the determined partial feature information of each recognition target and the feature information calculated from the captured image is evaluated, and similarity is obtained. And a second collating unit that determines a recognition target corresponding to partial feature information determined to be correct as a target to be imaged in the captured image. The matching unit evaluates the similarity, obtains candidate information as a list of recognition targets determined to be similar, and further, for each recognition target listed in the candidate information, the similarity When there is a deviation recognition target as a recognition target not included in the candidate information with reference to the target enumeration information, the deviation recognition target is added to the candidate information, or The first matching unit evaluates the similarity, and when obtaining candidate information as a list of recognition targets determined to be similar, the target for evaluating the similarity is listed in the database as the similar target. If it is determined that the similarity is at least one of the recognition targets of the part after limiting to only a part of the series of recognition targets that are similar to each other according to the information The candidate information is obtained as a list of a series of recognition objects which are considered to be similar to each other by similar object enumeration information.

前記(1)又は(11)の特徴によれば、認識対象の中に互いに類似している類似対象があっても、第一照合部において候補情報として類似対象を列挙したうえで、第二照合部において部分特徴情報として類似対象同士の間の相違の部分についての情報を自動で抽出し、撮像画像における撮像対象の認識を当該部分特徴情報に基づいて行うので、撮像対象を高精度に認識することができる。   According to the feature (1) or (11), even if there are similar objects similar to each other among the recognition objects, the second matching is performed after the similar matching is listed as candidate information in the first matching unit. Since information on a difference between similar objects is automatically extracted as partial feature information in the unit and recognition of the imaging target in the captured image is performed based on the partial feature information, the imaging target is recognized with high accuracy. be able to.

前記(2)の特徴によれば、所定数以上の類似判定が得られるものを一致判定とすることで、偶発的に他の特徴情報と類似してしまったような特徴情報を当該一致判定からは排除することにより、適切な部分特徴情報を選別することができる。   According to the feature of the above (2), the feature information which is similar to other feature information incidentally by making the match determination by obtaining the similarity determination of the predetermined number or more is the match determination Can be used to sort out appropriate partial feature information.

前記(3)の特徴によれば、撮像対象及び認識対象の画像上の特徴に応じたものとして、特徴情報間の距離及び/又は特徴点の近傍の部分領域の一致性に基づいて、撮像対象の特徴情報と認識対象の部分特徴情報との類似性を評価することができる。   According to the feature (3), the imaging target is determined based on the distance between the feature information and / or the coincidence between the partial areas in the vicinity of the feature point as the imaging subject and the feature on the image of the recognition target. It is possible to evaluate the similarity between the feature information of and the partial feature information of the recognition target.

前記(4)の特徴によれば、候補情報内に偶発的にその他の認識対象とは非類似の認識対象が存在してしまっている場合に、当該非類似な認識対象を候補情報から除外することにより、類似対象のみで構成された候補情報によって適切な部分特徴情報を選別することができるようになる。   According to the feature (4), when there is a recognition target that is different from other recognition targets accidentally in the candidate information, the different recognition targets are excluded from the candidate information. As a result, it becomes possible to sort out appropriate partial feature information by candidate information composed only of similar objects.

前記(5)の特徴によれば、事前の解像度の正規化による統一により、適切に部分特徴情報を選別することができるようになる。前記(6)の特徴によれば、当該正規化を座標間の変換関係を施すものとして実施することで、適切な正規化を行うことができる。   According to the feature (5), partial feature information can be appropriately sorted by unification by prior resolution normalization. According to the feature (6), appropriate normalization can be performed by implementing the normalization as one that applies a conversion relationship between coordinates.

前記(7)(または(12))の特徴によれば、データベース(またはデータ構造)に予め与えられている認識対象ごとの類似対象列挙情報を利用することで、その他の類似対象が撮像画像と類似すると判定されたにもかかわらず、偶発的に撮像画像とは非類似と判定されてしまった逸脱認識対象を、候補情報へと自動で追加することが可能となるので、複数の類似対象がある場合であっても高精度な認識が可能となる。   According to the feature (7) (or (12)), by using similar target enumeration information for each recognition target provided in advance in the database (or data structure), other similar targets can be captured images Since it is possible to automatically add deviation recognition targets that are accidentally judged to be dissimilar to the captured image despite being judged to be similar to the candidate information, a plurality of similar targets Even in some cases, high-accuracy recognition is possible.

前記(8)(または(12))の特徴によれば、データベース(またはデータ構造)に予め与えられている認識対象ごとの類似対象列挙情報を利用することで、認識対象としての類似対象が多数存在する場合であっても、高速且つ高精度な認識が可能となる。また、データベースと第一照合部との間のデータ通信量を抑制することも可能となる。   According to the feature (8) (or (12)), by using similar target enumeration information for each recognition target provided in advance in the database (or data structure), a large number of similar targets as recognition targets Even if it exists, high-speed and highly accurate recognition is possible. In addition, it is also possible to suppress the amount of data communication between the database and the first collation unit.

前記(9)の特徴によれば、前記(7)の特徴におけるようにデータベースに予め類似対象列挙情報を与えておかなくとも、テキスト情報の類似性に基づいて動的に類似対象列挙情報に相当するものを生成することで、前記(7)の特徴における場合と同様なことが可能となる。すなわち、その他の類似対象が撮像画像と類似すると判定されたにもかかわらず、偶発的に撮像画像とは非類似と判定されてしまった逸脱認識対象を、候補情報へと自動で追加することが可能となるので、複数の類似対象がある場合であっても高精度な認識が可能となる。   According to the feature (9), as in the feature (7), even if the similar target enumeration information is not provided in advance to the database, it corresponds to the similar target enumeration information dynamically based on the similarity of the text information By creating the same, it is possible to do the same as in the case of the feature (7). That is, it is possible to automatically add, to the candidate information, a deviation recognition target which is accidentally determined to be dissimilar to the captured image although the other similar objects are determined to be similar to the captured image. Since this becomes possible, highly accurate recognition is possible even when there are multiple similar objects.

前記(10)の特徴によれば、認識対象において色のみが異なっているような類似対象がある場合に、区別して認識することが可能となる。   According to the feature (10), when there is a similar target such that only the color is different in the recognition target, it is possible to distinguish and recognize.

類似対象の模式的な例として、互いに類似する書籍の表紙を示す図である。It is a figure which shows the cover of the book which is mutually similar as a typical example of similar object. 類似対象の模式的な例として、互いに類似する洗剤パッケージを示す図である。FIG. 6 shows detergent packages similar to one another as a schematic example of similar objects. 類似対象の模式的な例として、互いに類似するゲームパッケージを示す図である。It is a figure which shows the game package which is mutually similar as a typical example of similar object. 一実施形態に係る情報端末装置の機能ブロック図である。It is a functional block diagram of the information terminal device concerning one embodiment. 情報端末装置の各部の処理内容を示す模式的な一連の例を示す図である。It is a figure which shows a typical series of examples which show the processing content of each part of an information terminal device. 情報端末装置の各部の処理内容を示す模式的な一連の例を示す図である。It is a figure which shows a typical series of examples which show the processing content of each part of an information terminal device.

図4は、一実施形態に係る情報端末装置の機能ブロック図である。情報端末装置1は、撮像部2、算出部3、記憶部4、第一照合部5及び第二照合部6を備える。   FIG. 4 is a functional block diagram of the information terminal device according to an embodiment. The information terminal device 1 includes an imaging unit 2, a calculation unit 3, a storage unit 4, a first comparison unit 5, and a second comparison unit 6.

当該各部2〜6を実現する情報端末装置1のハードウェア構成としては、スマートフォンやタブレット端末といったような携帯端末の他、デスクトップ型、ラップトップ型その他の一般的なコンピュータの構成を採用することができる。すなわち、CPU(中央演算装置)と、CPUにワークエリアを提供する一時記憶装置と、プログラム等のデータを格納する二次記憶装置と、各種の入出力装置と、これらの間でのデータ通信を担うバスと、を備える一般的なコンピュータのハードウェア構成を採用できる。CPUが二次記憶装置に格納されたプログラムを読み込んで実行することで、各部2〜6が実現される。なお、各種の入出力装置としては、画像取得するカメラ、表示を行うディスプレイ、ユーザ入力を受け取るタッチパネルやキーボード、音声を入出力するマイク・スピーカ、外部と有線・無線にて通信を行う通信インタフェース、といったものの中から必要機能に応じたものを利用することができる。   The hardware configuration of the information terminal device 1 for realizing the respective units 2 to 6 may be the configuration of a desktop computer, laptop computer, or other common computer, as well as a portable terminal such as a smartphone or a tablet terminal. it can. That is, data communication between the CPU (central processing unit), a temporary storage device for providing a work area to the CPU, a secondary storage device for storing data such as programs, and various input / output devices And a general computer hardware configuration that includes a carrying bus. Each unit 2 to 6 is realized by the CPU reading and executing a program stored in the secondary storage device. As various input / output devices, a camera for acquiring an image, a display for displaying, a touch panel or keyboard for receiving user input, a microphone / speaker for inputting / outputting voice, a communication interface for communicating with the outside in a wired or wireless manner From among such things, you can use the one according to the required function.

また、図4では情報端末装置1が各部2〜6の全てを備えるものとしたが、このうちの任意の一部分を情報端末装置1とは別途のサーバ等の外部装置(1台以上の外部装置)において実現してもよい。例えば、記憶部4は外部装置としてのサーバにおいて実現されるようにしてもよい。この場合、情報端末装置1と当該外部装置との間(外部装置が2台以上の場合、外部装置間も含む)において、ネットワーク等を経由して必要な情報の送受を行うようにすればよい。当該外部装置のハードウェア構成も、情報端末装置1と同様に一般的なコンピュータの構成を採用することができる。   In addition, although the information terminal device 1 includes all of the units 2 to 6 in FIG. 4, an arbitrary part of this may be an external device (one or more external devices such as a server separate from the information terminal device 1). ) May be realized. For example, the storage unit 4 may be realized by a server as an external device. In this case, transmission and reception of necessary information may be performed via a network or the like between the information terminal device 1 and the external device (including two or more external devices, including between external devices). . The hardware configuration of the external device may adopt a general computer configuration as well as the information terminal device 1.

以下、図4の各部2〜6の処理内容を説明する。なお、図5及び図6は、各部2〜6の処理内容を示す模式的な一連の例を示す図であり、以下の説明において適宜、参照する。   Hereinafter, the processing content of each part 2 to 6 in FIG. 4 will be described. 5 and 6 are diagrams showing a series of typical examples showing the processing contents of the respective parts 2 to 6, and will be referred to as appropriate in the following description.

撮像部2は、撮像対象を撮像して、その撮像画像を算出部3へ出力する。ここで、撮像画像には予め既知の撮像対象(後述の記憶部4に記憶されているいずれかの認識対象に合致する対象)が含まれるよう、ユーザ等の操作のもとで撮像部2が撮像を行うものとする。撮像対象は例えば、特徴等が既知の模様を持つマーカーや印刷物、立体物等であってよい。撮像部2の撮像処理を担うハードウェア構成としては例えば、昨今の一般的な携帯端末に標準装備されるデジタルカメラを用いることができる。   The imaging unit 2 captures an imaging target and outputs the captured image to the calculation unit 3. Here, under the operation of the user or the like, the imaging unit 2 performs an operation such that the captured image includes a known imaging target (target matching the recognition target stored in the storage unit 4 described later) in advance. It is assumed that imaging is performed. The imaging target may be, for example, a marker, a printed matter, a three-dimensional object, or the like having a pattern with known features and the like. As a hardware configuration responsible for the imaging process of the imaging unit 2, for example, a digital camera that is standardly installed on a general portable terminal of recent years can be used.

算出部3は、まず撮像部2で撮像された撮像画像から撮像対象の特徴点を検出する。当該検出する特徴点には、認識対象におけるコーナーなどの特徴的な点を利用できる。検出手法としては、SIFT (Scale-Invariant Feature Transform)やSURF (Speeded Up Robust Features)などの特徴的な点を検出する既存手法が利用できる。   The calculation unit 3 first detects a feature point of an imaging target from a captured image captured by the imaging unit 2. As the feature point to be detected, a feature point such as a corner in the recognition target can be used. As a detection method, an existing method for detecting characteristic points such as Scale-Invariant Feature Transform (SIFT) and Speeded Up Robust Features (SURF) can be used.

算出部3は次に、検出された特徴点座標を中心として、撮像部2で撮像された撮像画像から局所画像特徴量を算出する。算出部3で算出された複数の特徴点および局所画像特徴量は、特徴情報として第一照合部5へ出力する。局所画像特徴量の算出手法としては、SIFT (Scale-Invariant Feature Transform)やSURF (Speeded Up Robust Features)などの特徴的な量を算出する既存手法が利用できる。   Next, the calculation unit 3 calculates a local image feature amount from the captured image captured by the imaging unit 2 with the detected feature point coordinates as a center. The plurality of feature points and local image feature amounts calculated by the calculation unit 3 are output to the first matching unit 5 as feature information. As a method of calculating the local image feature amount, an existing method of calculating a characteristic amount such as Scale-Invariant Feature Transform (SIFT) or Speeded Up Robust Features (SURF) can be used.

図5の例では、[1]に撮像部2で得た撮像画像P1が、[2]に当該撮像画像P1より算出部3において算出された特徴情報F1が、それぞれ示されている。特徴情報F1は、複数(当該例では9個)の特徴点においてそれぞれ局所画像特徴量を算出した複数の特徴情報f1〜f9として構成されている。   In the example of FIG. 5, the captured image P1 obtained by the imaging unit 2 is shown in [1], and the feature information F1 calculated in the calculation unit 3 from the captured image P1 is shown in [2]. The feature information F1 is configured as a plurality of pieces of feature information f1 to f9 obtained by calculating local image feature amounts at a plurality of (nine in the example) feature points.

記憶部4は、所定の複数の認識対象につきそれぞれ、当該認識対象の画像より算出部3と同一処理で算出した特徴情報を記憶しておく。当該所定の複数の認識対象には、図1〜図3で例示したような相互に類似した2以上の類似対象を含むことができる。当該認識対象ごとに特徴情報を記憶させる処理は、管理者等がマニュアル等で事前に実施しておけばよい。ここで、次に説明する第一照合部5及び第二照合部6での処理の高速化のため、特徴情報をベクトル量子化やハッシュ関数等で要約したうえで記憶しておいてもよい。   The storage unit 4 stores, for each of a plurality of predetermined recognition targets, feature information calculated in the same processing as the calculation unit 3 from the image of the recognition target. The predetermined plurality of recognition targets can include two or more similar targets similar to each other as exemplified in FIGS. 1 to 3. The process of storing the feature information for each recognition target may be performed in advance by a manager or the like using a manual or the like. Here, in order to speed up the processing in the first collating unit 5 and the second collating unit 6 to be described next, the feature information may be summarized by vector quantization, a hash function or the like and then stored.

第一照合部5は、算出部3から入力される撮像対象の特徴情報と、記憶部4に記憶された各認識対象の特徴情報と、の類似性を評価し、予め設定された閾値より類似度が高い認識対象があれば当該認識対象ごとにその特徴情報を紐付けたうえで、当該閾値を超えた認識対象を列挙した情報としての候補情報を、第二照合部6へと出力する。   The first comparison unit 5 evaluates the similarity between the feature information of the imaging target input from the calculation unit 3 and the feature information of each recognition target stored in the storage unit 4 and determines similarity based on a preset threshold value. If there is a high recognition target, the feature information is linked for each recognition target, and candidate information as information in which the recognition target exceeding the threshold is listed is output to the second collating unit 6.

ここで、類似性の評価には、特徴情報同士の間のハミング距離やユークリッド距離、マハラノビス距離などを用いる既存の手法を利用できる。また、認識対象と撮像画像との間の個別の特徴情報同士で当該距離等に基づき、最も類似する特徴情報同士の対応関係を定めたうえで、当該定まった対応関係における類似度の総和を求めるようにしてもよいし、周知のRANSAC(Random Sample Consensus)により認識対象と撮像画像との間の特徴情報同士の全体的な対応関係及び類似度を求めるようにしてもよい。   Here, for the evaluation of the similarity, an existing method using Hamming distance, Euclidean distance, Mahalanobis distance or the like between the pieces of feature information can be used. Further, the correspondence between the most similar feature information is determined based on the distance and the like between individual feature information between the recognition target and the captured image, and then the sum total of the similarities in the decided correspondence is determined. Alternatively, the general correspondence relationship and similarity between feature information between a recognition target and a captured image may be determined by using a well-known RANSAC (Random Sample Consensus).

図5の例では、[2]の撮像画像P1の特徴情報F1に閾値判定で類似すると判定された特徴情報が[3-1],[3-2],[3-3]に特徴情報F31,F32,F33として示されている。ここで、特徴情報F31,F32,F33はそれぞれ、記憶部4に記憶された認識対象R1,R2,R3(不図示)の特徴情報であるものとすると、当該撮像画像P1の撮像対象に類似していると判定された3つの認識対象を列挙した{R1,R2,R3}が候補情報となる。ここで、候補情報を構成している各認識対象R1,R2,R3にはその特徴情報F31,F32,F33がそれぞれ紐付けられたうえで、候補情報が構成されている。   In the example of FIG. 5, the feature information determined to be similar to the feature information F1 of the captured image P1 of [2] in the threshold determination is [3-1], [3-2], and [3-3]. , F32 and F33. Here, assuming that the feature information F31, F32, and F33 are the feature information of the recognition objects R1, R2, and R3 (not shown) stored in the storage unit 4, respectively, they are similar to the imaging objects of the captured image P1. {R1, R2, R3} listing the three recognition targets determined to be the candidate information. Here, the candidate information is configured after the feature information F31, F32, and F33 are associated with the respective recognition targets R1, R2, and R3 that configure the candidate information.

なお、図示するように、認識対象R1の特徴情報F31はその画像(模式例は不図示、以下同様)の各特徴点から算出される複数(合計9個)の特徴情報f11〜f19から構成され、認識対象R2の特徴情報F32はその画像の各特徴点から算出される複数(合計9個)の特徴情報f21〜f29から構成され、認識対象R3の特徴情報F33はその画像の各特徴点から算出される複数(合計7個)の特徴情報f30,f32,f33,f35,f36,f38,f39から構成されている。   As shown in the figure, the feature information F31 of the recognition target R1 is composed of a plurality of (9 in total) pieces of feature information f11 to f19 calculated from each feature point of the image (a schematic example is not shown; the same applies hereinafter). The feature information F32 of the recognition target R2 is composed of a plurality of (nine in total) feature information f21 to f29 calculated from each feature point of the image, and the feature information F33 of the recognition target R3 is from each feature point of the image A plurality of (total 7 pieces) of feature information f30, f32, f33, f35, f36, f38 and f39 are calculated.

第二照合部6は、第一照合部5から候補情報を入力し、候補情報から選別した認識対象を、撮像画像における撮像対象が記憶部4に記憶されたいずれの認識対象に該当するかを照合した結果を表す照合情報として出力する。ここで、第一照合部5から出力された候補情報に1つの認識対象しか含まれていない場合は、第二照合部6では当該選別を行う必要はなく、当該1つの認識対象をそのまま、照合情報として出力する。   The second verification unit 6 receives candidate information from the first verification unit 5 and selects one of the recognition targets stored in the storage unit 4 as the imaging target in the captured image as the recognition target selected from the candidate information. Output as collation information representing the result of collation. Here, when only one recognition target is included in the candidate information output from the first collation unit 5, the second collation unit 6 does not need to perform the sorting, and the one recognition target is collated as it is. Output as information.

一方、候補情報に複数(2つ以上)の認識対象が含まれている場合、第二照合部6では次の第一処理及び第二処理によって、照合情報を出力する。   On the other hand, when a plurality of (two or more) recognition targets are included in the candidate information, the second collation unit 6 outputs collation information by the following first process and second process.

第一処理として、候補情報に列挙されている各認識対象における特徴情報同士の間のうち、異なる認識対象に属するもの同士の間において一致すると判断されるものがいずれであるかを特定する照合を実施し、当該照合によっては一致しなかったと判断される特徴情報を、各認識対象に関する部分特徴情報として選別する。   As a first process, among the feature information in each recognition target listed in the candidate information, a collation for specifying which one is determined to match between the things belonging to different recognition targets is used. It carries out, and the characteristic information judged not to be matched by the collation concerned is sorted out as partial characteristic information about each recognition object.

第二処理として、当該認識対象ごとの部分特徴情報と、撮像対象の特徴情報と、の類似性を評価し、予め設定された閾値より類似度が高い部分特徴情報があれば、当該部分特徴情報に対応する認識対象を照合情報として出力する。   As the second process, the similarity between partial feature information for each recognition target and feature information for imaging target is evaluated, and if there is partial feature information having a similarity higher than a preset threshold value, the partial feature information The recognition target corresponding to is output as collation information.

ここで、第一処理における一致判断及び第二処理における類似性の評価には共に、第一照合部5における場合と同様に、特徴情報同士の間のハミング距離やユークリッド距離、マハラノビス距離など既存の手法を利用できる。また、個別の特徴情報同士で当該距離等に基づき、最も類似する特徴情報同士の対応関係を定めたうえで、当該定まった対応関係における類似度の総和を求めるようにしてもよいし、周知のRANSACにより特徴情報同士の全体的な対応関係及び類似度を求めるようにしてもよい。第一処理においても特徴情報同士の間の類似度の閾値判定により、特徴情報同士が一致しているか否かを判断すればよい。   Here, for both the coincidence determination in the first process and the evaluation of the similarity in the second process, as in the case of the first matching unit 5, the existing Hamming distance, Euclidean distance, Mahalanobis distance, etc. between feature information You can use the method. In addition, after the correspondence between the most similar pieces of feature information is determined based on the distance or the like among the individual pieces of feature information, the sum of the similarities in the determined correspondence may be determined, or may be known. The overall correspondence relationship and similarity between feature information may be determined by RANSAC. Also in the first process, whether or not the pieces of feature information match each other may be determined by threshold determination of the degree of similarity between the pieces of feature information.

図5の例では、図5の[4-1]〜[4-3]が第一処理における特徴情報同士の照合の例を示したものであり、[3-1]〜[3-3]に示したのと同様の候補情報を構成している各認識対象R1〜R3の特徴情報F31〜F33同士のうち、照合することで一致したと判断された特徴情報同士の間に線が描かれている。   In the example of FIG. 5, [4-1] to [4-3] of FIG. 5 show an example of matching of feature information in the first process, and [3-1] to [3-3] Among the pieces of feature information F31 to F33 of the respective recognition objects R1 to R3 constituting the same candidate information as shown in, a line is drawn between the pieces of feature information determined to be coincident by matching. ing.

すなわち、線L1に示すように認識対象R1,R2間において特徴情報f11,f21は互いに一致すると判定されており、線L21,L22に示すように認識対象R1,R2,R3間において特徴情報f12,f22,f32は互いに一致すると判定されており、線L31,L32に示すように認識対象R1,R2,R3間において特徴情報f13,f23,f33は互いに一致すると判定されており、線L4に示すように認識対象R1,R2間において特徴情報f14,f24は互いに一致すると判定されており、線L51,L52に示すように認識対象R1,R2,R3間において特徴情報f15,f25,f35は互いに一致すると判定されており、線L61,L62に示すように認識対象R1,R2,R3間において特徴情報f16,f26,f36は互いに一致すると判定されており、線L7に示すように認識対象R1,R2間において特徴情報f17,f27は互いに一致すると判定されている。   That is, it is determined that the feature information f11 and f21 match each other between the recognition objects R1 and R2 as indicated by the line L1, and the feature information f12 and f2 between the recognition objects R1, R2 and R3 as indicated by the lines L21 and L22. f22 and f32 are determined to match each other, and as shown by lines L31 and L32, feature information f13, f23 and f33 are determined to match each other between recognition objects R1, R2 and R3, as shown by line L4. It is determined that the feature information f14 and f24 match each other between the recognition targets R1 and R2, and the feature information f15, f25 and f35 match between the recognition targets R1, R2 and R3 as indicated by lines L51 and L52. It is determined that the feature information f16, f26 and f36 match each other between the recognition objects R1, R2 and R3 as shown by lines L61 and L62, and between the recognition objects R1 and R2 as shown by line L7. The feature information f17 and f27 are determined to match each other.

次いで、図6の例では、[5-1]〜[5-3]に、以上の図5の[4-1]〜[4-3]の特徴情報同士の照合によっては一致するとは判定されなかった特徴情報として第一処理において得られる、各認識対象R1〜R3における部分特徴情報PF31〜PF33が示されている。   Next, in the example of FIG. 6, it is determined that the information items [5-1] to [5-3] match depending on the comparison of the pieces of feature information of [4-1] to [4-3] of FIG. Partial feature information PF31 to PF33 in each recognition object R1 to R3 obtained in the first process as the missing feature information is shown.

すなわち、[5-1]に示すように認識対象R1の部分特徴情報PF31は特徴情報f18,f19で構成されており、[5-2]に示すように認識対象R2の部分特徴情報PF32は特徴情報f28,f29で構成されており、[5-3]に示すように認識対象R3の部分特徴情報PF33は特徴情報f30,f38,f39で構成されている。当該部分特徴情報PF31〜PF33は、図5の[4-1]〜[4-3]間に線で示した特徴情報同士の照合において、他の認識対象の特徴情報と一致するものがなかったことから、部分特徴情報として選別されている。   That is, as shown in [5-1], the partial feature information PF31 of the recognition target R1 is composed of the feature information f18 and f19, and as shown in [5-2], the partial feature information PF32 of the recognition target R2 is a feature As shown in [5-3], the partial feature information PF33 of the recognition target R3 is composed of feature information f30, f38 and f39. The partial feature information PF31 to PF33 did not match the feature information of other recognition targets in the matching of the feature information shown by the lines between [4-1] to [4-3] in FIG. 5. Because of that, it is selected as partial feature information.

さらに、図6の例では、[6-1]〜[6-3]と[7]に、第二処理によって照合情報を出力する例が示されている。すなわち、[6-1]〜[6-3]は、[5-1]〜[5-3]に示したのと同様の各認識対象R1〜R3における部分特徴情報PF31〜PF33を、第二処理における類似性評価の対象として再掲したものであり、[7]は、図5の[2]に示したのと同様の撮像画像P1における特徴情報F1を、第二処理における類似性評価の対象として再掲したものである。   Furthermore, in the example of FIG. 6, examples of outputting the verification information by the second process are shown in [6-1] to [6-3] and [7]. That is, in [6-1] to [6-3], partial feature information PF31 to PF33 in each recognition target R1 to R3 similar to those shown in [5-1] to [5-3] [7] is a target of similarity evaluation in processing, and [7] is a target of similarity evaluation in second processing for feature information F1 in captured image P1 similar to that shown in [2] of FIG. 5. As shown in

図6にて[6-1]〜[6-3]と[7]との間に線L8,L9として示すように、認識対象R1〜R3における部分特徴情報PF31〜PF33と、撮像画像P1の撮像対象の特徴情報F1と、の類似性評価の結果、次のようにして最終的な結果(照合情報としての認識対象R1)が得られる。   As indicated by lines L8 and L9 between [6-1] to [6-3] and [7] in FIG. 6, partial feature information PF31 to PF33 in recognition targets R1 to R3 and the captured image P1 As a result of the similarity evaluation with the feature information F1 of the imaging target, the final result (the recognition target R1 as matching information) is obtained as follows.

すなわち、まず、撮像対象の特徴情報F1のうちf8,f9がそれぞれ部分特徴情報PF31の特徴情報f18,f19と類似していると判断され、その他の部分特徴情報において特に類似していると判断されるものはなかったことから、特徴情報F1と類似しているものは部分特徴情報PF31である、という判断が得られる。従って、第二処理における照合情報として、候補情報{R1,R2,R3}のうち、類似していると判断された部分特徴情報PF31に対応する認識対象R1が、撮像画像P1の撮像対象に該当するものである、という最終的な結果が得られる。   That is, first, f8 and f9 of the feature information F1 of the imaging target are determined to be similar to the feature information f18 and f19 of the partial feature information PF31, respectively, and it is determined that the other partial feature information is particularly similar. Since there is no such thing, it can be determined that what is similar to the feature information F1 is the partial feature information PF31. Therefore, recognition object R1 corresponding to partial feature information PF31 judged to be similar among candidate information {R1, R2, R3} as collation information in the second process corresponds to an imaging object of captured image P1. The end result is obtained.

以上、第二照合部6の処理を図5及び図6の模式例と共に説明し、図1の各部2〜6を説明した。次に、以上のような本発明が奏する効果について説明する。   As described above, the process of the second matching unit 6 has been described with the schematic examples in FIGS. 5 and 6, and the respective units 2 to 6 in FIG. 1 have been described. Next, the effects of the present invention as described above will be described.

まず、以上の説明よりも明らかではあるが、第二照合部6において自動算出している部分特徴情報の意義については次の通りである。すなわち、部分特徴情報とは具体的には、第一照合部5の出力した候補情報が、記憶部4に記憶されている複数の認識対象のうちの互いに類似している複数の認識対象で構成されていた場合に、当該互いに類似している認識対象のうち、互いに相違している箇所のみから算出される特徴情報に相当する(ことが期待される)ものである。   First, although it is clearer than the above description, the significance of the partial feature information automatically calculated in the second matching unit 6 is as follows. That is, specifically, the partial feature information is configured by a plurality of recognition objects which are similar to each other among the plurality of recognition objects stored in the storage unit 4 and the candidate information output from the first matching unit 5 In the case where it has been performed, the information corresponds to (expected) feature information calculated from only mutually different parts of the recognition objects that are similar to each other.

例えば、前述した図1の類似対象G1,G2が共に記憶部4に認識対象として記憶されており、撮像部2で撮像した撮像画像がG1,G2のいずれかを撮像したものであった場合に、第一照合部5ではこれらが類似しているため区別できずに、候補情報{G1,G2}を出力したとする。この場合、部分特徴情報として、認識対象G1に関してはその類似対象G2との微差をなしている部分P1から算出される特徴情報(PF(P1)とする)が得られ、認識対象G2に関してはその類似対象G1との微差をなしている部分P2から算出される特徴情報(PF(P2)とする)が得られることとなる。   For example, when the similar objects G1 and G2 in FIG. 1 described above are both stored in the storage unit 4 as recognition objects, and the captured image captured by the imaging unit 2 is one obtained by capturing either G1 or G2. It is assumed that candidate information {G1, G2} is output without being distinguishable by the first matching unit 5 because these are similar. In this case, as the partial feature information, feature information (referred to as PF (P1)) calculated from the portion P1 having a slight difference from the similar object G2 is obtained for the recognition object G1, and for the recognition object G2 Feature information (referred to as PF (P2)) calculated from the portion P2 which is slightly different from the similar object G1 is obtained.

こうして、本発明においては、当該類似対象G1,G2同士を比較した際に微差をなしている部分のみから算出された部分特徴情報PF(P1),PF(P2)のみを照合対象(リファレンス)として、第二照合部6において再度、撮像画像の特徴情報をクエリとした照合を行うことで、撮像画像が互いに類似している類似対象G1,G2のいずれに該当するかを、高精度に判断することができる。   Thus, in the present invention, only partial feature information PF (P1) and PF (P2) calculated from only the portion having a slight difference when comparing the similar objects G1 and G2 are to be compared (reference) As the second matching unit 6 again performs matching using the feature information of the captured image as a query, it is determined with high accuracy which of the similar objects G1 and G2 the captured images are similar to each other. can do.

特に、部分特徴情報PF(P1),PF(P2)は、第一照合部5においては類似の認識対象G1,G2同士の区別不能の原因であったことが想定される「微差」に相当するものであるが、第二照合部6において再度、当該「微差」部分のみを自動抽出することで、単独の照合対象として用いる際は互いに「顕著な差」をなすものとなる(部分特徴情報PF(P1)とPF(P2)とは顕著に異なる)ことが期待される。従って、本発明においては類似対象が複数存在する場合であってもこれらを区別可能であり、高精度な認識を実現することができる。   In particular, the partial feature information PF (P1) and PF (P2) correspond to the "slight difference" assumed to be the cause of indistinguishability between similar recognition objects G1 and G2 in the first collation unit 5. However, by automatically extracting only the "slight difference" portion in the second matching unit 6 again, when it is used as a single matching object, it becomes a "significant difference" between each other (partial features It is expected that the information PF (P1) and PF (P2) are significantly different). Therefore, in the present invention, even when there are a plurality of similar objects, they can be distinguished, and highly accurate recognition can be realized.

なお、第一照合部5は、類似対象同士の微差を区別して撮像画像がそのいずれに該当するかを特定することは困難であったとしても、前処理として、類似対象のグループ毎に区別したうえで、撮像画像がいずれのグループに該当するかを特定する役割を担うものである。例えば、前述した図1の第一類似対象グループ{G1,G2}と、図2の第二類似対象グループ{G3,G4}と、図3の第三類似対象グループ{G5,G6}と、が記憶部4に記憶されている場合に、撮像画像の撮像対象が当該3つのグループのいずれに該当するか(あるいはいずれにも該当しないか)を第一照合部5が候補情報として特定することができる。従って、記憶部4に記憶される認識対象として、類似対象を構成するグループが多数存在し、且つ、各グループ内の類似対象も多数存在している場合であっても、本発明における第一照合部5及び第二照合部6によって、高精度な認識が可能となる。   In addition, even if it is difficult for the first matching unit 5 to distinguish the minute differences between similar objects and to specify which one of the captured images corresponds to, it is possible to distinguish for each group of similar objects as preprocessing. In addition, it plays a role of identifying which group the captured image corresponds to. For example, the first similar target group {G1, G2} in FIG. 1 described above, the second similar target group {G3, G4} in FIG. 2 and the third similar target group {G5, G6} in FIG. In the case where it is stored in the storage unit 4, the first matching unit 5 may specify as the candidate information whether the imaging target of the captured image corresponds to any of the three groups (or does not correspond to any of the three groups). it can. Therefore, even if a large number of groups constituting similar objects exist as recognition objects stored in storage unit 4 and a large number of similar objects in each group also exist, the first comparison in the present invention The part 5 and the second collation part 6 enable highly accurate recognition.

以下、(補足1)〜(補足7)として、本発明のその他の各実施形態などの、補足事項を説明する。当該各補足事項は、任意に組み合わせて実施することも可能である。ここで、以上説明してきた実施形態を第一実施形態と呼ぶこととする。   Hereinafter, supplementary items such as each other embodiment of the present invention will be described as (Supplementary Note 1) to (Supplementary Note 7). The respective supplementary items can be implemented in any combination. Here, the embodiment described above will be referred to as a first embodiment.

(補足1)
第二照合部6における、候補情報に属する各認識対象の部分特徴情報と、撮像画像の特徴情報と、の類似性を評価することで照合情報を得る処理(前述の第二処理)に関して、第一実施形態では当該特徴情報同士をその距離等で評価して類似度を算出していた。これに代えて、あるいはこれに加えて、以下のように画素情報で評価される領域類似性を考慮するようにしてもよい。
(Supplementary Note 1)
Regarding the process (second process described above) of obtaining matching information by evaluating the similarity between the partial feature information of each recognition target belonging to candidate information and the feature information of the captured image in the second matching unit 6 In one embodiment, the feature information is evaluated by the distance or the like to calculate the similarity. Instead of or in addition to this, it is possible to consider the area similarity evaluated by pixel information as follows.

すなわち、候補情報内の認識対象の部分特徴情報における特徴点の所定近傍領域として形成される部分領域と、撮像画像の特徴情報における特徴点の所定近傍領域として形成される部分領域と、の領域類似度を、対応する各画素値同士の差分二乗和などによって評価し、第一実施形態における特徴情報に基づく類似度と重みづけ和等として総合スコアの形で類似度を求めるようにしてもよいし、第一実施形態における特徴情報に基づく類似度に代えて用いるようにしてもよい。   That is, the area similarity between a partial area formed as a predetermined vicinity area of a feature point in partial feature information of a recognition target in candidate information and a partial area formed as a predetermined vicinity area of a feature point in feature information of a captured image The degree may be evaluated by the sum of squared differences between corresponding pixel values, and the similarity may be determined in the form of an overall score as the similarity based on the feature information in the first embodiment, etc. Instead of the similarity based on the feature information in the first embodiment, it may be used.

なお、上記のように領域類似度を算出する場合は、記憶部4には各認識対象につき、その特徴点及び局所画像特徴量に加えて、特徴点の所定近傍領域の画素情報も記憶させておくものとする。第二照合部6では、当該記憶されている認識対象の各特徴点の近傍の画素情報と、撮像部2より取得した撮像画像の画素情報を参照することで得られる、撮像画像の各特徴点の近傍の画素情報と、を用いて、上記のような領域類似性を評価することができる。   When calculating the area similarity as described above, the storage unit 4 stores, for each recognition target, in addition to the feature point and the local image feature amount, pixel information of a predetermined proximity area of the feature point I shall keep it. In the second matching unit 6, each feature point of the captured image obtained by referring to the stored pixel information of each feature point to be recognized and the pixel information of the captured image acquired from the imaging unit 2 The above-described area similarity can be evaluated using the pixel information in the vicinity of and.

なお、上記のように部分領域を定めるための特徴点に関しての所定近傍領域については、当該特徴点を中心とした所定サイズの矩形領域とするなど、その形状等を予め設定しておけばよい。   The shape or the like of the predetermined neighboring area regarding the feature point for defining the partial area as described above may be set in advance such as a rectangular area of a predetermined size centering on the feature point.

(補足2)
第一照合部5では、互いに類似している認識対象が列挙されたものが得られるという想定で、候補情報を求めている。しかしながら、当該候補情報を求めた際に、ノイズ等の影響により、撮像画像とは似ていると判定されたものの、他の認識対象とは非類似となっているような認識対象(非類似認識対象とする)が含まれてしまっている恐れもある。
(Supplementary Note 2)
In the first matching unit 5, candidate information is obtained on the assumption that a list of recognition objects similar to each other can be obtained. However, when the candidate information is obtained, a recognition target that is determined to be similar to the captured image due to the influence of noise or the like but is dissimilar to other recognition targets (dissimilar recognition There is also a possibility that the target has been included.

例えば、前述した図1における互いに類似した認識対象G1,G2と、これらとは非類似な図2における認識対象G3とが候補情報{G1,G2,G3}として得られてしまう恐れがある。このような場合、候補情報{G1,G2,G3}に含まれた非類似認識対象G3をそのまま利用して、第一実施形態により第二照合部6において部分特徴情報を選別すると、本発明において意図されている適切な照合結果が得られなくなる恐れがある。   For example, there is a possibility that the recognition objects G1 and G2 similar to each other in FIG. 1 described above and the recognition object G3 in FIG. 2 dissimilar to these may be obtained as candidate information {G1, G2 and G3}. In such a case, if the second matching unit 6 selects partial feature information according to the first embodiment by using the dissimilarity recognition target G3 included in the candidate information {G1, G2, G3} as it is, according to the present invention There is a risk that the intended matching result may not be obtained.

従って、第一照合部5ではまず、第一実施形態と同様にして候補情報(第一候補情報とする)を求めたうえで、さらに追加処理として、当該第一候補情報内において、非類似認識対象と考えられるものを特定し、当該特定された非類似認識対象を排除したものとしての第二候補情報を、第二照合部6へと出力するようにしてもよい。具体的には例えば、以下の(手法1)〜(手法3)のいずれかのようにして非類似認識対象を特定すればよい。   Therefore, the first matching unit 5 first determines candidate information (referred to as first candidate information) in the same manner as in the first embodiment, and then, as additional processing, the dissimilarity recognition in the first candidate information The second candidate information may be output to the second collating unit 6 by specifying what is considered to be a target, and excluding the specified non-similar recognition target. Specifically, for example, the dissimilarity recognition target may be specified as any one of the following (Method 1) to (Method 3).

(手法1)第一候補情報に含まれている各認識対象について、他の認識対象との間で特徴情報が一致している個数をカウントし、当該個数が少ないと判定された場合(所定閾値以下であると判定された場合)、当該認識対象は非類似認識対象であるものとして特定する。   (Method 1) For each recognition target included in the first candidate information, count the number of feature information matching with other recognition targets, and when it is determined that the number is small (a predetermined threshold value) If it is determined that the following is true), the recognition target is specified as a non-similar recognition target.

当該カウントするに際しては、認識対象の各特徴情報に注目し、(1)当該特徴情報と一致すると判定される他の認識対象における特徴情報が1つでも存在する場合に、当該注目した特徴情報が個数として「1」を追加でカウントするようにしてもよいし、あるいは、(2)当該特徴情報と一致すると判定される他の認識対象における特徴情報が所定数以上存在する場合に、当該注目した特徴情報が個数として「1」を追加でカウントするようにしてもよい。   At the time of the counting, attention is paid to each feature information of the recognition target, and (1) when there is even one feature information in another recognition object which is determined to match the feature information, the noted feature information As the number, “1” may be additionally counted, or (2) when a predetermined number or more of feature information in another recognition target determined to match the feature information is concerned The feature information may additionally count “1” as the number.

(手法2)第一照合部5において第一候補情報を求める際に算出した撮像画像の特徴情報と認識対象の特徴情報との類似度と同種の類似度を、第一候補情報に含まれる認識対象の全ペア間において算出し、各認識対象について、他の認識対象との間で算出された類似度の総和が閾値以下であるようなものを、非類似認識対象として特定する。   (Method 2) The first candidate information includes the similarity and the similarity between the feature information of the captured image and the feature information of the recognition target calculated when the first matching unit 5 calculates the first candidate information. Calculation is performed between all pairs of objects, and for each recognition object, a recognition object whose total sum of similarity calculated with other recognition objects is equal to or less than a threshold is specified as a dissimilarity recognition object.

(手法3)第一候補情報に含まれる各認識対象を、その特徴情報に基づいてクラスタリングし、閾値判定で構成要素数が少ないと判定されるクラスタに属する認識対象を、非類似認識対象として特定する。また、当該少ないとは判定されなかった同一クラスタに属する認識対象同士を、第二候補情報とする。クラスタリングには、k-means(k平均法)等の周知手法を用いることができる。   (Method 3) Each recognition target included in the first candidate information is clustered based on its feature information, and a recognition target belonging to a cluster determined to have a small number of components by threshold determination is specified as a dissimilarity recognition target Do. In addition, recognition targets belonging to the same cluster that are not determined to be small are set as second candidate information. For clustering, a known method such as k-means (k-means method) can be used.

(補足3)
第二照合部6において部分特徴情報を選別するに際して、より確実に、候補情報の認識対象間における微差部分に相当する、適切な特徴情報のみを選別したものとして部分特徴情報を得るようにし、その他の不要な特徴情報が誤って部分特徴情報を構成するものとして選別されないようにすべく、第一実施形態において次の追加処理を行うようにしてもよい。
(Supplementary Note 3)
When selecting partial feature information in the second matching unit 6, partial feature information is obtained more reliably as selection of only appropriate feature information that corresponds to a slight difference between recognition targets of candidate information, The following additional processing may be performed in the first embodiment in order to prevent other unnecessary feature information from being erroneously selected as constituting partial feature information.

すなわち、第二照合部6では、候補情報に属する認識対象同士の間において、予め追加処理として「解像度の正規化」を実施したうえで、第一実施形態にて説明したのと同様に特徴情報同士の一致判定を実施し、一致しなかった特徴情報を各認識対象の部分特徴情報として選別する。   That is, the second matching unit 6 performs “normalization of resolution” as an additional process in advance between the recognition targets belonging to the candidate information, and then the feature information as described in the first embodiment. The match determination between the two is performed, and the feature information not matching is selected as partial feature information of each recognition target.

当該解像度の正規化は例えば、次のようにすればよい。まず、第一照合部5において候補情報を求めた際に既に得られている対応関係として、撮像画像の特徴点座標(群)と認識対象の特徴点座標(群)との対応関係があるので、当該座標群同士の対応関係(座標間の写像関係)を表現するホモグラフィー行列を認識対象ごとに求める。次に、当該ホモグラフィー行列を用いて当該認識対象の特徴点座標を撮像画像における座標系へと変換すればよい。こうして、候補情報の各認識対象の特徴点座標が、全て撮像画像における座標系で表現されたものに統一されることで、解像度の正規化が完了する。   The normalization of the resolution may be, for example, as follows. First, as the correspondence relationship already obtained when the candidate information is determined in the first matching unit 5, the correspondence relationship between the feature point coordinates (group) of the captured image and the feature point coordinates (group) of the recognition target A homography matrix representing a correspondence relationship between the coordinate groups (mapping relationship between coordinates) is obtained for each recognition target. Next, feature point coordinates of the recognition target may be transformed into a coordinate system in the captured image using the homography matrix. Thus, the normalization of resolution is completed by unifying the feature point coordinates of each recognition target of the candidate information with those represented in the coordinate system in the captured image.

なお、上記求めるホモグラフィー行列については、第一照合部5において候補情報を求める際にRANSACを用いて類似度を評価した場合であれば、この際に既に求まっているホモグラフィー行列を利用するようにすればよい。   As for the homography matrix to be obtained, if the similarity is evaluated using RANSAC when the candidate information is obtained in the first matching unit 5, the homography matrix already obtained at this time is used. You should do it.

図5の例であれば、候補情報を構成している認識対象R1,R2,R3の特徴情報F31,F32,F33における特徴点の座標系をそれぞれ、撮像画像の特徴情報F1における特徴点の座標系へと変換するホモグラフィー行列をH31,H32,H33として求め、当該変換した座標系での特徴情報H31(F31),H32(F32),H33(F33)を、図5の[4-1],[4-2],[4-3]に例示した一致判定の際に用いるようにすればよい。   In the example of FIG. 5, the coordinate systems of the feature points in the feature information F31, F32 and F33 of the recognition targets R1, R2 and R3 constituting the candidate information are respectively the coordinates of the feature points in the feature information F1 of the captured image The homography matrices to be converted into a system are determined as H31, H32, and H33, and the feature information H31 (F31), H32 (F32), and H33 (F33) in the converted coordinate system are obtained as [4-1] in FIG. , [4-2], and [4-3].

また、記憶部4に記憶する際に、互いに類似している認識対象同士の間においては上記の解像度の正規化に相当するものを実施したうえで、特徴情報を記憶しておいてもよい。この場合、第二照合部6において解像度の正規化を行うことは不要となる。記憶部4で記憶させる際に正規化しておく手法としては、次の第一手法又は第二手法が利用できる。   In addition, when storing in the storage unit 4, feature information may be stored after performing the equivalent of the above-described resolution normalization among recognition objects that are similar to each other. In this case, it is not necessary to perform resolution normalization in the second matching unit 6. The following first method or second method can be used as a method of normalization when storing in the storage unit 4.

第一手法では、互いに類似している認識対象のうち1つを座標系を統一するための基準認識対象として選び、当該基準認識対象の画像を上記の撮像画像に該当するものとみなして、上記と全く同様の処理(認識対象同士の特徴点座標同士の対応関係を求め、当該対応関係を表すホモグラフィー行列を求め、当該行列で写像する処理)によって正規化し、記憶部4に記憶させることできる。なお、いずれの認識対象同士が互いに類似しているかについては、管理者等が事前知識として与えておけばよい。   In the first method, one of the recognition objects similar to each other is selected as a reference recognition object for unifying the coordinate system, and the image of the reference recognition object is regarded as corresponding to the above-mentioned captured image, Can be normalized by the same processing as in (processing of obtaining correspondence between feature point coordinates of recognition objects, obtaining a homography matrix representing the correspondence, and mapping with the matrix) and storing the result in the storage unit 4 . The manager or the like may give prior knowledge as to which recognition objects are similar to each other.

第二手法では、例えば前述した図1の同一書籍の上巻及び下巻の表紙として類似対象G1,G2が認識対象として存在する場合に、当該両表紙が同一サイズであるものとして、当該互いに類似する認識対象としての両表紙の特徴情報を求める際の画像は、当該両表紙を同一カメラ同一配置で撮像した画像を用いるようにすればよい。   In the second method, for example, when similar objects G1 and G2 exist as recognition targets for the upper and lower covers of the same book shown in FIG. As an image at the time of obtaining feature information of both covers as a recognition target, an image obtained by imaging both covers with the same arrangement in the same camera may be used.

なお、第二照合部6において解像度の正規化を実施する場合、上記の第一手法や第二手法のようにして、記憶部4に記憶させておく認識対象の特徴情報を、いわば「整ったデータ」として用意しておく手間が省略されるという効果がある。   When the second matching unit 6 normalizes the resolution, the feature information of the recognition target stored in the storage unit 4 as in the first method and the second method described above is There is an effect that the time and effort to prepare as "data" is omitted.

(補足4)
第一実施形態において、第二照合部6において部分特徴情報を求める際に、候補情報内の各認識対象について、特徴情報が他の認識対象の特徴情報と一致しているかを判断することで、一致判断が得られた特徴情報以外を部分特徴情報として選別した。当該一致判断に関しては、(1)少なくとも1つの他の認識対象の特徴情報と一致している場合に一致判断を下すようにしてもよいし、(2)所定数以上の他の認識対象の特徴情報と一致している場合に一致判断を下すようにしてもよい。なお、前述の図5及び図6の例は、当該前者(1)による一致判断を下した例となっている。
(Supplement 4)
In the first embodiment, when the second matching unit 6 obtains partial feature information, it is determined whether the feature information matches the feature information of another recognition target for each recognition target in the candidate information, Other than the feature information for which the coincidence determination was obtained was selected as partial feature information. With regard to the coincidence determination, (1) the coincidence determination may be made when the information matches the feature information of at least one other recognition object, or (2) the features of other recognition objects of a predetermined number or more If the information matches, the match determination may be made. In addition, the example of the above-mentioned FIG.5 and FIG.6 is an example which made the coincidence judgment by the said former (1).

(補足5)
第一実施形態では、第一照合部5において候補情報を求めることで、記憶部4に記憶されている複数の認識対象の中から撮像画像の認識対象に類似している複数の認識対象を、いわば「動的」に、選別するという処理を実施していた。これに代えて、いわば「静的」に、予め記憶部4に記憶させる際に、データ構造として、複数の認識対象のうちいずれのもの同士が類似対象であるかという情報も各認識対象に紐付けて記憶させておくようにしてもよい。
(Supplementary Note 5)
In the first embodiment, a plurality of recognition targets similar to the recognition target of the captured image among the plurality of recognition targets stored in the storage unit 4 by obtaining the candidate information in the first matching unit 5 are: So to speak, "dynamically", the process of sorting was carried out. Instead of this, when so-called “static” is stored in advance in the storage unit 4, information as to which one of the plurality of recognition objects is a similar object is also attached to each recognition object as a data structure It may be added and stored.

具体的には、第一実施形態に対する追加処理として、記憶部4に記憶させる各認識対象につき、データ構造として、類似している他の認識対象を列挙した情報(類似対象列挙情報とする)を紐付けておけばよい。第一照合部5においては、当該データ構造により与えられる類似対象列挙情報を利用することで、以下の(処理1)又は(処理2)によって効率的に候補情報を求めることができる。   Specifically, as additional processing to the first embodiment, information (listed as similar target enumeration information) listing other similar recognition targets as data structures for each recognition target stored in the storage unit 4 It is good to attach it. The first matching unit 5 can efficiently obtain candidate information by the following (Process 1) or (Process 2) by using the similar target enumeration information given by the data structure.

(処理1)第一実施形態と同様にして候補情報を求めたうえでさらに、候補情報内の各認識対象についての類似対象列挙情報を参照し、候補情報内の認識対象に含まれていない認識対象(逸脱認識対象とする)があった場合には、当該逸脱認識対象を候補情報に追加したうえで、第二照合部6へと出力する。   (Process 1) Similar to the first embodiment, the candidate information is determined, and then the similar target enumeration information on each recognition target in the candidate information is referred to, and the recognition is not included in the recognition target in the candidate information. When there is a target (departure recognition target), the deviation recognition target is added to the candidate information, and then output to the second matching unit 6.

例えば、類似した認識対象が書籍の全集の各巻の表紙(百科事典の各巻の表紙など)である場合、少なくともいずれか1つの巻だけが候補情報として得られていれば、全巻を自動で候補情報とすることができる。   For example, when the similar recognition target is the cover of each volume of the entire collection of books (such as the cover of each volume of the encyclopedia), if at least any one volume is obtained as the candidate information, all the volumes are automatically candidate information It can be done.

(処理2)上記とは逆に、まず、第一実施形態に次の限定を加えたうえで、候補情報を求める。すなわち、クエリである撮像画像の特徴情報に対するレファレンスとして記憶部4から読み出す認識対象の特徴情報を、類似対象列挙情報で挙げられているうちの所定の一部分のみの認識対象に限定したうえで、候補情報を求める。次に、当該求めた候補情報に対して、(処理1)と同様の追加処理を行い、第二照合部6へと出力する。   (Process 2) Contrary to the above, first, the following limitations are added to the first embodiment, and then candidate information is obtained. That is, the feature information of the recognition target read out from the storage unit 4 as a reference to the feature information of the captured image which is a query is limited to the recognition target of only a predetermined part of the similar target enumeration information. Ask for information. Next, an additional process similar to (Process 1) is performed on the obtained candidate information, and the additional information is output to the second collating unit 6.

例えば、類似した認識対象が書籍の全巻の各巻の表紙である場合に、記憶部4から読み出すのはそのうちのいずれか1巻のみとし、当該読み出した1巻が撮像画像と類似していることで候補情報として得られていれば、全巻を自動で候補情報とすることができる。   For example, when the similar recognition target is the cover of each volume of the entire volume of the book, only one of them is read out from the storage unit 4 and one volume read out is similar to the captured image. If obtained as candidate information, the entire volume can be automatically set as candidate information.

なお、互いに類似している認識対象のうちのいずれを記憶部4から第一照合部5が読み出すかは、予め設定しておけばよい。例えば、記憶部4の各認識対象に、読み出し対象であるか否かの情報を紐付けておき、第一照合部5では読み出し対象として設定されている認識対象のみを読み出すようにすればよい。   Note that which of the recognition objects similar to each other may be read out from the storage unit 4 may be set in advance. For example, information on whether or not to be read out is associated with each recognition target in the storage unit 4, and the first collation unit 5 may read out only the recognition target set as the read target.

上記(処理1)によれば、本来は一連の類似対象が全て候補情報として得られるべきであるが、撮像画像におけるノイズ等の影響で類似判定されず候補情報から誤って逸脱した逸脱認識対象を、自動で候補情報に追加することができる。また、上記(処理2)によれば、記憶部4に互いに類似する多数の認識対象が記憶されている場合であっても、その一部分のみについて類似性を評価すればよいので、第一照合部5における計算量を削減することができる。さらに、計算量削減と同様に、例えば記憶部4が情報端末装置1とは別途のサーバに構築されている等の事情で、記憶部4と第一照合部5との間にネットワーク経由の通信が行われる場合において、その伝送量を抑えることができる。   According to the above (Process 1), originally, a series of similar objects should all be obtained as candidate information, but a deviation recognition object erroneously deviated from the candidate information not judged as an effect of noise or the like in the captured image , Can be automatically added to the candidate information. Further, according to the above (Process 2), even if a large number of recognition objects similar to each other are stored in the storage unit 4, it is sufficient to evaluate the similarity for only a part of them. The amount of calculations in 5 can be reduced. Furthermore, communication between the storage unit 4 and the first collating unit 5 is performed via the network, for example, because the storage unit 4 is constructed on a server separate from the information terminal device 1 as in the case of reduction of the calculation amount. In the case where is performed, the amount of transmission can be suppressed.

(補足6)
上記の(補足5)では記憶部4において各認識対象に類似対象列挙情報を予め、いわば「静的」に記憶させておくものとした。これに代えて、記憶部4では類似対象列挙情報は記憶させておかずに、第一照合部5においていわば「動的」に、類似認識対象情報に相当するものとしての逸脱認識対象を求めたうえで、上記の(補足5)の(処理1)又は(処理2)と同様の候補情報の追加等を行うようにしてもよい。
(Supplement 6)
In the above (supplement 5), it is assumed that the similar target enumeration information is stored in advance in the storage unit 4 as so-called "static" in each recognition target. Instead of storing the similar target enumeration information in the storage unit 4, the first matching unit 5 determines a deviation recognition target as equivalent to the similarity recognition target information as “dynamic” as it is. Then, the candidate information may be added similarly to (Process 1) or (Process 2) of (Supplementary 5) above.

このため、記憶部4では、各認識対象について類似対象列挙情報の代わりに、各認識対象に関するテキスト情報を記憶しておくものとする。例えば認識対象が商品であれば、当該商品を説明する文章や当該商品に関する1以上のキーワード(タグ)をテキスト情報とすることができる。そして、第一照合部5では以下のようにして、類似対象列挙情報に相当するものを自身で動的に生成することができる。   Therefore, the storage unit 4 stores text information on each recognition target instead of the similar target enumeration information for each recognition target. For example, if the recognition target is a product, text describing the product or one or more keywords (tags) related to the product can be used as text information. Then, the first matching unit 5 can dynamically generate itself equivalent to the similar target enumeration information as follows.

すなわち、第一実施形態と同様にして候補情報を求めたうで、候補情報に列挙された各認識対象につき、そのテキスト情報を検索キーとして用いることにより、記憶部4に記憶された認識対象のうちそのテキスト情報が類似していると判定されるものを検索する。そして、候補情報の認識対象につき、当該検索により発見された記憶部4に記憶された認識情報であって、候補情報内には含まれていないものがあれば、これを、(補足5)における「逸脱認識対象」とみなす。さらに、当該みなされた「逸脱認識対象」に関して、(補足5)の(処理1)を実施すればよい。   That is, in the same manner as in the first embodiment, the candidate information is determined, and for each recognition target listed in the candidate information, the text information is used as a search key, and the recognition target stored in the storage unit 4 is Among them, those which are determined to be similar in text information are searched. Then, if there is any recognition information stored in the storage unit 4 found by the search for the recognition target of the candidate information and is not included in the candidate information, this will be described in (Supplementary 5). It is regarded as "the deviation recognition object". Furthermore, (Process 1) of (Supplementary 5) may be performed with respect to the deemed “departure recognition target”.

なお、上記検索するに際して、テキスト情報同士が類似しているか否かの判断には、自然言語処理分野等における既存技術を用いればよい。   In the above search, existing technology in the natural language processing field or the like may be used to determine whether the text information is similar or not.

(補足7)
算出部3において特徴点及び局所画像特徴量として特徴情報を算出するための画像の色チャネルに関しては、画像がRGB等の所定の複数の色チャネルで構成されている場合に、その一部分のみを用いるようにしてもよい。この場合、第一照合部5及び第二照合部6で特徴情報同士の類似性を評価するに際しても、算出部3で用いたのと同様の一部分の色チャネルを用いるようにする。
(Supplement 7)
With regard to the color channels of the image for calculating feature information as feature points and local image feature quantities in the calculation unit 3, when the image is configured with a plurality of predetermined color channels such as RGB, only a part of them is used You may do so. In this case, even when the first matching unit 5 and the second matching unit 6 evaluate the similarity between the pieces of feature information, a part of the color channel similar to that used in the calculating unit 3 is used.

すなわち、第一実施形態の全体を、画像がRGB等の所定の複数の色チャネルで構成されている場合に、その一部分のみ(例えばRチャネルのみ)を用いて実施するようにしてもよい。これにより、類似対象における微差部分として、形状などは同じであるが色のみが異なっているような箇所も区別して扱うことが可能となる。所定の色チャネルのうちいずれのチャネルに限定するかについては、ユーザ等が指定すればよい。   That is, when the image is configured by a predetermined plurality of color channels such as RGB, the entire first embodiment may be implemented using only a part (for example, only the R channel). As a result, it becomes possible to distinguish and handle a portion having the same shape and the like but different only in color as a slight difference portion in the similar object. The user or the like may designate which channel among the predetermined color channels to limit.

1…情報端末装置、2…撮像部、3…算出部、4…記憶部、5…第一照合部、6…第二照合部   DESCRIPTION OF SYMBOLS 1 ... Information terminal device, 2 ... Imaging part, 3 ... Calculation part, 4 ... Storage part, 5 ... 1st collation part, 6 ... 2nd collation part

Claims (11)

撮像対象を撮像して撮像画像を得る撮像部と、
前記撮像画像より特徴点及び当該特徴点近傍の局所画像特徴量を算出して特徴情報として出力する算出部と、
複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報を記憶しているデータベースにアクセスして得た各認識対象の特徴情報と、前記撮像画像より算出された特徴情報と、の類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得る第一照合部と、
前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定し、当該一致の判定がなされなかった特徴情報を、前記候補情報に列挙された各認識対象における部分特徴情報として求め、当該求めた各認識対象の部分特徴情報と前記撮像画像より算出された特徴情報との類似性を評価し、類似していると判定された部分特徴情報に対応する認識対象を、前記撮像画像における撮像対象に該当するものとして決定する第二照合部と、を備えることを特徴とする情報端末装置。
An imaging unit that captures an imaging target and obtains a captured image;
A calculation unit that calculates a feature point and a local image feature amount near the feature point from the captured image and outputs the feature amount as feature information;
For each of a plurality of recognition objects, feature information of each recognition object obtained by accessing a database storing feature information of the same type as that calculated by the calculation unit from the image, and a feature calculated from the captured image A first collating unit that evaluates the similarity between information and obtains candidate information as a list of recognition objects determined to be similar;
Among the recognition objects listed in the candidate information, the matching of the feature information is determined, and the feature information for which the determination of the matching is not made is a partial feature in each of the recognition objects listed in the candidate information It obtains as information, evaluates the similarity between the determined partial feature information of each recognition target and the feature information calculated from the captured image, and recognizes the recognition target corresponding to the partial feature information determined to be similar, An information terminal device, comprising: a second collating unit that determines the subject as an imaging target in the captured image.
前記第二照合部は、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定するに際して、
各特徴情報が、所定数以上の他の認識対象における特徴情報と類似していると判定される場合に、当該特徴情報に関して一致を判定することを特徴とする請求項1に記載の情報端末装置。
When the second matching unit determines that the feature information matches with each other among the recognition targets listed in the candidate information,
The information terminal device according to claim 1, wherein when it is determined that each feature information is similar to feature information in a predetermined number or more of other recognition targets, a match is determined with respect to the feature information. .
前記第二照合部は、前記求めた各認識対象の部分特徴情報と前記撮像画像より算出された特徴情報との類似性を評価するに際して、
当該部分特徴情報と当該特徴情報との距離、及び/又は、該部分特徴情報の特徴点の近傍の部分領域と当該特徴情報の特徴点の近傍の部分領域との一致性、に基づいて評価することを特徴とする請求項1または2に記載の情報端末装置。
When the second matching unit evaluates the similarity between the partial feature information of each of the obtained recognition objects and the feature information calculated from the captured image,
Distance between the partial feature information and the feature information, and / or evaluation based on the consistency, the vicinity of the partial area of the feature point of this partial feature vicinity of the partial area and the feature information of the feature point information The information terminal device according to claim 1 or 2, characterized in that:
前記第二照合部は、前記部分特徴情報を求める対象としての前記候補情報に列挙された認識対象に関して、
当該候補情報内における各認識対象同士の特徴情報の類似性を評価することにより、互いに類似する他の認識対象とは非類似であると判定された認識対象が存在する場合には、
当該非類似であると判定された認識対象を、前記部分特徴情報を求める対象から除外することを特徴とする請求項1ないし3のいずれかに記載の情報端末装置。
The second collation unit relates to a recognition target listed in the candidate information as a target for which the partial feature information is to be obtained.
When there is a recognition target determined to be dissimilar to another recognition target similar to each other by evaluating the similarity of the feature information of each recognition target in the candidate information,
The information terminal device according to any one of claims 1 to 3, wherein the recognition target determined to be non-similar is excluded from the target for which the partial feature information is required.
前記第二照合部は、前記候補情報に列挙された各認識対象同士の間で、その特徴情報同士の一致を判定するに際して、予め、
各認識対象の特徴情報の解像度を正規化したうえで、当該一致を判定することを特徴とする請求項1ないし4のいずれかに記載の情報端末装置。
The second matching unit determines in advance whether the feature information matches with each other among the recognition objects listed in the candidate information.
The information terminal device according to any one of claims 1 to 4, wherein the coincidence is determined after normalizing the resolution of the feature information of each recognition object.
前記第二照合部は、前記解像度を正規化するに際して、
各認識対象の特徴情報における特徴点の座標を、前記撮像画像の特徴情報における特徴点の座標へと変換する関係を求め、当該変換する関係に基づいて正規化することを特徴とする請求項5に記載の情報端末装置。
The second matching unit normalizes the resolution by:
A feature is to obtain a relationship in which the coordinates of the feature point in the feature information of each recognition target are converted into the coordinates of the feature point in the feature information of the captured image, and perform normalization based on the conversion relationship. The information terminal device according to.
前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、自身と類似する他の認識対象を列挙した類似対象列挙情報が記憶されており、
前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得たうえでさらに、
当該候補情報に列挙された各認識対象について、その類似対象列挙情報を参照し、当該候補情報に含まれない認識対象としての逸脱認識対象が存在している場合には、当該逸脱認識対象を、当該候補情報に対して追加することを特徴とする請求項1ないし6のいずれかに記載の情報端末装置。
In the database, similar target enumeration information in which other recognition targets similar to itself are listed for each of a plurality of recognition targets is stored in addition to the same kind of feature information calculated by the calculation unit from the image. Yes,
The first matching unit evaluates the similarity, and obtains candidate information as a list of recognition targets determined to be similar, and further,
For each recognition target listed in the candidate information, the similar target enumeration information is referred to, and when there is a deviation recognition target as a recognition target not included in the candidate information, the deviation recognition target is The information terminal device according to any one of claims 1 to 6, wherein the information terminal device is added to the candidate information.
前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、自身と類似する他の認識対象を列挙した類似対象列挙情報が記憶されており、
前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得るに際して、
前記類似性を評価する対象を、前記データベースにおいて類似対象列挙情報によって互いに類似するものとされる一連の認識対象のうち、一部分のみに限定したうえで、当該一部分の認識対象のうち少なくとも1つに関して、前記類似していると判定された場合には、当該類似対象列挙情報によって互いに類似するものとされる一連の認識対象を列挙したものとして前記候補情報を得ることを特徴とする請求項1ないし6のいずれかに記載の情報端末装置。
In the database, similar target enumeration information in which other recognition targets similar to itself are listed for each of a plurality of recognition targets is stored in addition to the same kind of feature information calculated by the calculation unit from the image. Yes,
The first matching unit evaluates the similarity and obtains candidate information as a list of recognition targets determined to be similar:
The targets for which the similarity is to be evaluated are limited to only a part of a series of recognition targets made similar to each other by the similar target enumeration information in the database, and at least one of the recognition targets of the part The candidate information is obtained as a list of a series of recognition objects that are considered to be similar to each other by the similar object enumeration information when it is determined that the similarity is the same. The information terminal device according to any one of 6.
前記データベースにおいては、複数の認識対象につきそれぞれ、その画像より前記算出部が算出するのと同種の特徴情報に加えてさらに、当該認識対象に関するテキスト情報が記憶されており、
前記第一照合部は、前記類似性を評価し、類似していると判定された認識対象を列挙したものとして候補情報を得たうえでさらに、
当該候補情報に列挙された各認識対象について、そのテキスト情報を用いて前記データベースを検索することにより、当該候補情報に含まれない認識対象としての逸脱認識対象であって、当該テキスト情報が類似していると判定される逸脱認識対象を前記データベースより発見した場合には、当該逸脱認識対象を、当該候補情報に対して追加することを特徴とする請求項1ないし6のいずれかに記載の情報端末装置。
In the database, for each of a plurality of recognition objects, text information on the recognition objects is stored in addition to the same kind of feature information calculated by the calculation unit from the image,
The first matching unit evaluates the similarity, and obtains candidate information as a list of recognition targets determined to be similar, and further,
By searching the database using the text information for each recognition target listed in the candidate information, it is a deviation recognition target as a recognition target not included in the candidate information, and the text information is similar The information according to any one of claims 1 to 6, characterized in that when a deviation recognition target determined to be determined is found from the database, the deviation recognition target is added to the candidate information. Terminal equipment.
前記算出部は、予め指定された特定の色チャネルのみを用いて前記特徴情報を算出し、
前記第一照合部は、前記特定の色チャネルのみを用いて前記類似性を評価し、
前記第二照合部では、前記特定の色チャネルのみを用いて前記一致を判定し、前記類似性を評価することを特徴とする請求項1ないし9のいずれかに記載の情報端末装置。
The calculation unit calculates the feature information using only a specific color channel designated in advance.
The first matching unit evaluates the similarity using only the specific color channel,
The information terminal apparatus according to any one of claims 1 to 9, wherein the second matching unit determines the match using only the specific color channel and evaluates the similarity.
コンピュータを請求項1ないし10のいずれかに記載の情報端末装置として機能させることを特徴とするプログラム。   A program that causes a computer to function as the information terminal device according to any one of claims 1 to 10.
JP2015185361A 2015-09-18 2015-09-18 Information terminal device and program Active JP6541226B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2015185361A JP6541226B2 (en) 2015-09-18 2015-09-18 Information terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015185361A JP6541226B2 (en) 2015-09-18 2015-09-18 Information terminal device and program

Publications (2)

Publication Number Publication Date
JP2017059144A JP2017059144A (en) 2017-03-23
JP6541226B2 true JP6541226B2 (en) 2019-07-10

Family

ID=58391662

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015185361A Active JP6541226B2 (en) 2015-09-18 2015-09-18 Information terminal device and program

Country Status (1)

Country Link
JP (1) JP6541226B2 (en)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6695454B1 (en) * 2019-01-18 2020-05-20 株式会社パン・パシフィック・インターナショナルホールディングス Information processing apparatus, information processing method, and program
JP6966749B2 (en) * 2019-05-29 2021-11-17 株式会社マーケットヴィジョン Image processing system
JP7016130B2 (en) * 2020-10-02 2022-02-04 日本電信電話株式会社 Verification equipment, methods, and programs
CN112150464B (en) * 2020-10-23 2024-01-30 腾讯科技(深圳)有限公司 Image detection method and device, electronic equipment and storage medium

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080184A (en) * 2005-09-16 2007-03-29 Canon Inc Image processor and method
JP5385759B2 (en) * 2009-10-30 2014-01-08 キヤノン株式会社 Image processing apparatus and image processing method
CN105027162B (en) * 2013-02-27 2018-02-02 株式会社日立制作所 Image analysis apparatus, image analysis system, method for analyzing image
JP2015164012A (en) * 2014-02-28 2015-09-10 日本電信電話株式会社 Category discriminator generation apparatus, category discrimination device, and computer program
JP2015179423A (en) * 2014-03-19 2015-10-08 キヤノン株式会社 Person registration apparatus, person recognition apparatus, and program

Also Published As

Publication number Publication date
JP2017059144A (en) 2017-03-23

Similar Documents

Publication Publication Date Title
CN109670591B (en) Neural network training method and image matching method and device
CN104991954B (en) Shopping search system based on picture search and its implementation
US7269285B2 (en) Method and apparatus for representing and searching for an object in an image
JP6541226B2 (en) Information terminal device and program
EP3693893A1 (en) Object identification apparatus, object identification method, and program
Tonioni et al. Product recognition in store shelves as a sub-graph isomorphism problem
JP6278276B2 (en) Object identification device, object identification method, and program
JP6831951B2 (en) Image recognition system
JP5103955B2 (en) Image search method, apparatus and program
CN112330383A (en) Apparatus and method for visual element-based item recommendation
US10949460B2 (en) Product indexing method and system thereof
JP2019045909A (en) Image recognition system
Bhardwaj et al. Palette power: Enabling visual search through colors
CN105190689A (en) Image processing including adjoin feature based object detection, and/or bilateral symmetric object segmentation
WO2019092782A1 (en) Information processing device, control method, and program
JP5865043B2 (en) Information processing apparatus and information processing method
CN115439733A (en) Image processing method, image processing device, terminal equipment and computer readable storage medium
CN111008210B (en) Commodity identification method, commodity identification device, codec and storage device
JP6946912B2 (en) Estimator program, estimator, and estimation method
Hettige et al. Evaluation of feature-based object identification for augmented reality applications on mobile devices
JP6204634B1 (en) Shape discrimination device, shape discrimination method, and shape discrimination program
JP2018156544A (en) Information processing device and program
JP6541225B2 (en) Information terminal device and program
JP7110293B2 (en) Information processing device, information processing method and program
JP2005267406A (en) Pattern detection method and device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180213

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190515

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190524

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190605

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190607

R150 Certificate of patent or registration of utility model

Ref document number: 6541226

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150