JP2009116385A - Information processor, information processing method, image identification device, image identification method, and program - Google Patents

Information processor, information processing method, image identification device, image identification method, and program Download PDF

Info

Publication number
JP2009116385A
JP2009116385A JP2007285164A JP2007285164A JP2009116385A JP 2009116385 A JP2009116385 A JP 2009116385A JP 2007285164 A JP2007285164 A JP 2007285164A JP 2007285164 A JP2007285164 A JP 2007285164A JP 2009116385 A JP2009116385 A JP 2009116385A
Authority
JP
Japan
Prior art keywords
image
model
identification
model image
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2007285164A
Other languages
Japanese (ja)
Other versions
JP5018404B2 (en
JP2009116385A5 (en
Inventor
Akira Nakamura
章 中村
Yoshiaki Iwai
嘉昭 岩井
Takayuki Ashigahara
隆之 芦ヶ原
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Sony Corp
Original Assignee
Sony Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Sony Corp filed Critical Sony Corp
Priority to JP2007285164A priority Critical patent/JP5018404B2/en
Priority to CN2008101683880A priority patent/CN101425144B/en
Priority to US12/261,190 priority patent/US8374437B2/en
Publication of JP2009116385A publication Critical patent/JP2009116385A/en
Publication of JP2009116385A5 publication Critical patent/JP2009116385A5/ja
Application granted granted Critical
Publication of JP5018404B2 publication Critical patent/JP5018404B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/757Matching configurations of points or features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/211Selection of the most significant subset of features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/771Feature selection, e.g. selecting representative features from a multi-dimensional feature space

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Artificial Intelligence (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Databases & Information Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Medical Informatics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Image Analysis (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To correctly identify an image even when any similar model image is registered. <P>SOLUTION: An identification feature point storage part stores the information of an identification feature point as a feature point whose correlation value is low between similar model images. Images 11 to 15 are stored in a model image dictionary storage part as model images, and when a query image 111 is supplied, the images 11 to 15 are extracted as model images which are highly likely to be the object of identification. The images 11 to 15 are affine-transformed into images 11a to 15a. Then, a correlation value between the featured values at the identification feature points of the affine-transformed images 11a to 15a and the featured value at the identification feature point of the query image 111 is calculated, and an identification result for the query image 111 is obtained based on the correlation value at the identification feature point. This invention may be applied to the device corresponding to the identification device or the decision processing part. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラムに関し、特に、画像を識別する処理を行う場合に用いて好適な、情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラムに関する。   The present invention relates to an information processing device, an information processing method, an image identification device, an image identification method, and a program, and in particular, an information processing device, an information processing method, and an image suitable for performing an image identification process. The present invention relates to an identification device, an image identification method, and a program.

認識のためにモデル画像を予め登録し、そのモデル画像と、認識処理のために入力されたクエリ画像のそれぞれから特徴点を抽出し、その周辺の局所特徴量同士をマッチングしたのち、幾何学拘束を用いてミスマッチを除去し、認識を行うものとして、局所特徴量を用いたテクスチャベースの一般物体認識手法がある(例えば、特許文献1参照)。   Pre-register model images for recognition, extract feature points from each of the model images and query images input for recognition processing, match local feature quantities around them, and then geometric constraints A texture-based general object recognition method using local features is known as a method for removing mismatches by using a local feature (see, for example, Patent Document 1).

この技術は、モデル画像およびクエリ画像から特徴点を抽出し、その周辺の局所特徴量を記述し、特徴量同士のマッチングを行い、ハフ変換またはRANSAC等によってアウトライヤ(ミスマッチ)除去を行った後のマッチングペア数で、クエリ画像内の物体の識別をするという手法であった。   This technology extracts feature points from model images and query images, describes local feature quantities around them, matches feature quantities, and removes outliers (mismatches) by Hough transform or RANSAC. This is a method of identifying an object in a query image by the number of matching pairs.

特開2004−326693号公報JP 2004-326693 A

しかしながら、モデル同士の一部のテクスチャが同じであるときなど、複数のモデル画像同士が類似している場合、上述した特許文献1などのように、マッチペア数でクエリ画像内の物体の一致不一致を判断する一般的な物体認識手法を使用すると、閾値を上回るマッチペアが複数のモデル画像で観測され、複数のモデルに対して「正解」と認識してしまうという可能性がある。   However, when a plurality of model images are similar, such as when some textures of the models are the same, the object in the query image is not matched by the number of match pairs as in Patent Document 1 described above. When a general object recognition method for determination is used, there is a possibility that a match pair exceeding a threshold is observed in a plurality of model images and recognized as “correct” for a plurality of models.

本発明はこのような状況に鑑みてなされたものであり、複数のモデル画像同士が類似している場合であっても、正しく物体を認識することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to correctly recognize an object even when a plurality of model images are similar to each other.

本発明の第1の側面の情報処理装置は、画像を識別するために利用する情報を生成する情報処理装置であって、複数のモデル画像を取得するモデル画像取得手段と、前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段と、前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段と、前記マッチング手段によるマッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段とを備える。   An information processing apparatus according to a first aspect of the present invention is an information processing apparatus that generates information used to identify an image, the model image acquiring unit acquiring a plurality of model images, and the model image acquiring unit Model image feature amount extraction means for extracting the feature amount of the model image acquired by the above, matching means for performing the matching processing of the feature amount of the model image extracted by the model image feature amount extraction means, As a result of matching by the matching means, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are displayed between the similar model images. And an identification feature point extracting means for extracting as an identification feature point used for identification.

前記マッチング手段には、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含ませるようにすることができる。   The matching unit may include an outlier removal unit that removes an outlier from the result of matching processing of the feature quantity between the model images.

前記類似モデル画像に対して、前記所定のモデル画像に合致するようにアフィン変換を施す第1の変換手段を更に備えさせるようにすることができ、前記識別特徴点抽出手段には、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出させるようにすることができる。   The similar model image may further include first conversion means for performing affine transformation so as to match the predetermined model image, and the identification feature point extracting means includes the first feature point extraction means. The identification feature point can be extracted using the similar model image converted by the conversion means.

認識画像を取得する認識画像取得手段と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段とを更に備えさせるようにすることができる。   A recognition image acquisition unit for acquiring a recognition image, a recognition image feature amount extraction unit for extracting a feature amount of the recognition image acquired by the recognition image acquisition unit, and the identification feature extracted by the identification feature point extraction unit In this regard, it is possible to further include an identification unit that identifies the similar model image corresponding to the recognized image by obtaining a correlation between the feature amount of the similar model image and the recognized image.

前記類似モデル画像を、前記認識画像に合致するようにアフィン変換を行う第2の変換手段を更に備えさせるようにすることができ、前記識別手段には、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。   The similar model image may be further provided with second conversion means for performing affine transformation so as to match the recognition image, and the identification means is converted by the second conversion means. The similar model image can be identified using the similar model image corresponding to the recognized image.

前記識別特徴点抽出手段により抽出される前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類されるものとすることができる。   The identification feature point extracted by the identification feature point extracting means is a first identification feature point that is identified as a corresponding similar model image as the number of matches increases, and a similar model image that corresponds as the number of matches decreases. It can be classified into two identification feature points identified as.

前記識別特徴点抽出手段には、前記識別特徴点を階層的に抽出させるようにすることができる。   The identification feature point extracting means may extract the identification feature points hierarchically.

本発明の第1の側面の情報処理方法は、画像を識別するために利用する情報を生成する情報処理装置の情報処理方法であって、複数のモデル画像を取得し、取得された前記モデル画像の特徴量を抽出し、抽出された前記モデル画像の前記特徴量のマッチング処理を行い、マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出するステップを含む。   An information processing method according to a first aspect of the present invention is an information processing method of an information processing apparatus that generates information used for identifying an image, and acquires a plurality of model images, and the acquired model images A similar model image that is a model image that matches a predetermined model image with a predetermined number or more of the characteristic amounts as a result of matching. And extracting a feature point having a small correlation with the predetermined model image as an identification feature point used for discrimination between the similar model images.

本発明の第1の側面のプログラムは、画像を識別するために利用する情報を生成する処理をコンピュータに実行させるためのプログラムであって、複数のモデル画像を取得し、取得された前記モデル画像の特徴量を抽出し、抽出された前記モデル画像の前記特徴量のマッチング処理を行い、マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出するステップを含む処理をコンピュータに実行させる。   A program according to a first aspect of the present invention is a program for causing a computer to execute a process of generating information used for identifying an image, acquiring a plurality of model images, and acquiring the model images A similar model image that is a model image that matches a predetermined model image with a predetermined number or more of the characteristic amounts as a result of matching. And causing the computer to execute a process including a step of extracting a feature point having little correlation with the predetermined model image as an identification feature point used for discrimination between the similar model images.

本発明の第1においては、複数のモデル画像が取得され、取得されたモデル画像の特徴量が抽出され、抽出されたモデル画像の特徴量のマッチング処理が行われ、マッチングの結果、所定のモデル画像と所定数以上の特徴量がマッチしたモデル画像である類似モデル画像において、所定のモデル画像と相関の少ない特徴点が、類似モデル画像間の識別に用いる識別特徴点として抽出される。   In the first aspect of the present invention, a plurality of model images are acquired, the feature amounts of the acquired model images are extracted, and the feature amount matching processing of the extracted model images is performed. In a similar model image that is a model image in which a predetermined number or more of feature quantities match the image, feature points having a small correlation with the predetermined model image are extracted as identification feature points used for identification between similar model images.

本発明の第2の側面の画像識別装置は、複数のモデル画像および前記モデル画像の特徴量を記憶し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置であって、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段と、前記認識画像を取得する認識画像取得手段と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段とを備える。   An image identification device according to a second aspect of the present invention stores a plurality of model images and feature amounts of the model image, receives an input of a recognition image, and identifies the model image corresponding to the recognition image In the similar model images that are a plurality of model images in which a predetermined number or more of the feature quantities match with any one of the other model images, the correlation between the similar model images. Storage means for storing identification feature points, which are few feature points, recognition image acquisition means for acquiring the recognition image, and recognition image feature quantity extraction for extracting the feature quantity of the recognition image acquired by the recognition image acquisition means The recognition image is obtained by obtaining a correlation between the feature amount of the similar model image and the recognition image at the identification feature point stored by the storage unit and the storage means. It comprises identifying means for identifying the similar model image corresponding.

前記類似モデル画像に対して、前記認識画像に合致するようにアフィン変換を施す変換手段を更に備えさせるようにすることができ、前記識別手段には、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。   The similarity model image may further include a conversion unit that performs affine transformation so as to match the recognition image, and the identification unit converts the similarity model image converted by the conversion unit. Can be used to identify the similar model image corresponding to the recognized image.

前記認識画像取得手段により取得された前記認識画像と記憶されている前記モデル画像との特徴量のマッチング処理を行うマッチング手段を更に備えさせるようにすることができ、前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段には、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。   A matching unit that performs a matching process of a feature amount between the recognized image acquired by the recognized image acquiring unit and the stored model image can be further provided, and as a result of matching by the matching unit, When there are a predetermined number or more of the model images in which the recognition image and a feature quantity equal to or greater than a predetermined threshold are matched, the identification unit stores the predetermined number or more of the model images as the similar model image by the storage unit. By obtaining a correlation between the similar model image and the feature amount of the recognized image at the identified feature point, the similar model image corresponding to the recognized image can be identified.

前記マッチング手段には、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含ませるようにすることができる。   The matching unit may include an outlier removal unit that removes an outlier from the result of matching processing of the feature quantity between the model images.

前記記憶手段により記憶された前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類されるものとすることができる。   The identification feature point stored by the storage means is a first identification feature point identified as a corresponding similar model image as the number of matches increases, and a corresponding similar model image as the number of matches decreases. It can be classified into two identified feature points to be identified.

前記記憶手段により記憶された前記識別特徴点は、階層構造を有しているものとすることができる。   The identification feature points stored by the storage means may have a hierarchical structure.

本発明の第2の側面の画像識別方法は、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部とを有し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置の画像識別方法であって、前記認識画像を取得し、取得された前記認識画像の特徴量を抽出し、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別するステップを含む。   An image identification method according to a second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and one of the other model images among the model images. A second storage unit that stores identification feature points, which are feature points having a low correlation between the similar model images, in a similar model image that is a plurality of the model images in which a predetermined number or more of the feature quantities match. An image identification method of an image identification device that receives an input of a recognition image and identifies the model image corresponding to the recognition image, acquires the recognition image, and extracts a feature amount of the acquired recognition image The step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between the feature amounts of the similar model image and the recognized image at the identified feature point.

本発明の第2の側面のプログラムは、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部に記憶されている情報を用いて、入力された認識画像に対応する前記モデル画像を識別する処理をコンピュータに実行させるプログラムであって、前記認識画像を取得し、取得された前記認識画像の特徴量を抽出し、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別するステップを含む処理をコンピュータに実行させる。   The program according to the second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and a predetermined number of the model images with any of the other model images. Information stored in a second storage unit that stores identification feature points that are feature points having a low correlation between the similar model images in the similar model images that are the plurality of model images that match the feature amounts described above. , A program for causing a computer to execute a process of identifying the model image corresponding to the input recognition image, acquiring the recognition image, extracting a feature amount of the acquired recognition image, A step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature amounts of the similar model image and the recognized image at an identification feature point. To execute a process including the computer.

本発明の第2の側面においては、認識画像が取得され、取得された認識画像の特徴量が抽出され、識別特徴点において、類似モデル画像と認識画像との特徴量の相関を求めることにより、認識画像に対応する類似モデル画像が識別される。   In the second aspect of the present invention, the recognition image is acquired, the feature amount of the acquired recognition image is extracted, and by obtaining the correlation between the feature amount of the similar model image and the recognition image at the identification feature point, A similar model image corresponding to the recognized image is identified.

ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。   The network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device. The devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.

また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。   The communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. May be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.

認識装置、識別特徴点選択部に対応する装置、または、判定処理部に対応する装置は、独立した装置であっても良いし、情報処理装置などの1ブロックであっても良い。   The device corresponding to the recognition device, the identification feature point selection unit, or the device corresponding to the determination processing unit may be an independent device or a single block such as an information processing device.

本発明の第1の側面によれば、モデル画像のうち、他のモデル画像のうちのいずれかと所定数以上の特徴量がマッチした複数のモデル画像である類似モデル画像において、類似モデル画像間で相関の少ない特徴点である識別特徴点を抽出することができるので、この識別特徴点を識別処理に用いることにより、類似するモデル画像がある場合でも、ロバスト性を維持しながら、正しいモデル画像を識別することができる。   According to the first aspect of the present invention, among similar model images, which are a plurality of model images that match a predetermined number or more of feature quantities with any one of the other model images, among the model images, between similar model images. Since it is possible to extract an identification feature point that is a feature point with little correlation, by using this identification feature point for the identification process, even if there is a similar model image, a correct model image can be obtained while maintaining robustness. Can be identified.

また本発明の第2の側面によれば、デル画像のうち、他のモデル画像のうちのいずれかと所定数以上の特徴量がマッチした複数のモデル画像である類似モデル画像において、類似モデル画像間で相関の少ない特徴点である識別特徴点を用いて識別処理を行うことができるので、類似するモデル画像がある場合でも、ロバスト性を維持しながら、正しいモデル画像を識別することができる。   Further, according to the second aspect of the present invention, among the similar model images that are a plurality of model images having a predetermined number or more of feature quantities matched with any of the other model images among the Dell images, Therefore, the identification process can be performed by using the identification feature point which is a feature point with little correlation, so that even when there is a similar model image, the correct model image can be identified while maintaining the robustness.

以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。   Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described herein as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.

本発明の第1の側面の情報処理装置装置は、画像を識別するために利用する情報を生成する情報処理装置(例えば、図2の認識装置51、または、識別特徴点選択部61に対応する装置)であって、複数のモデル画像を取得するモデル画像取得手段(例えば、図2のモデル画像取得部71)と、前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段(例えば、図2の特徴量抽出部72)と、前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段(例えば、図2のマッチング処理部74およびアウトライヤ除去部75)と、前記マッチング手段によるマッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段(例えば、図2の相関画像生成部78および識別特徴点抽出部79)とを備える。   The information processing device according to the first aspect of the present invention corresponds to the information processing device (for example, the recognition device 51 in FIG. 2 or the identification feature point selection unit 61) that generates information used to identify an image. A model image acquisition unit (for example, the model image acquisition unit 71 in FIG. 2) that acquires a plurality of model images, and a model that extracts the feature amount of the model image acquired by the model image acquisition unit Image feature amount extraction means (for example, the feature amount extraction unit 72 in FIG. 2) and matching means (for example, FIG. 2) that performs the process of matching the feature amount of the model image extracted by the model image feature amount extraction means. Matching processing unit 74 and outlier removal unit 75), and a result of matching by the matching means, a predetermined model image (for example, an attention model image) and a predetermined number In the similar model image that is the model image in which the feature amount is matched above, a feature point extraction that extracts a feature point having little correlation with the predetermined model image as an identification feature point used for discrimination between the similar model images Means (for example, correlation image generation unit 78 and identification feature point extraction unit 79 in FIG. 2).

前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段(例えば、図2のアウトライヤ除去部75)を含むものとすることができる。   The matching unit may include an outlier removing unit (for example, an outlier removing unit 75 in FIG. 2) that removes an outlier from the result of the matching processing of the feature amounts between the model images.

前記類似モデル画像に対して、前記所定のモデル画像に合致するようにアフィン変換を施す第1の変換手段(例えば、図2のアフィンパラメータ取得部76およびアフィン変換処理部77)を更に備えるものとすることができ、前記識別特徴点抽出手段は、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出するものとすることができる。   The image processing apparatus further includes first conversion means (for example, the affine parameter acquisition unit 76 and the affine transformation processing unit 77 in FIG. 2) that performs affine transformation on the similar model image so as to match the predetermined model image. The identification feature point extraction unit may extract the identification feature point using the similar model image converted by the first conversion unit.

認識画像(例えば、クエリ画像)を取得する認識画像取得手段(例えば、図2のクエリ画像取得部93)と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段(例えば、図2の特徴量抽出部94)と、前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段(例えば、図2の識別特徴点比較部99および識別処理部100)とを更に備えるものとすることができる。   A recognition image acquisition unit (for example, a query image acquisition unit 93 in FIG. 2) that acquires a recognition image (for example, a query image), and a recognition image feature that extracts a feature amount of the recognition image acquired by the recognition image acquisition unit. A correlation between the feature quantity of the similar model image and the recognized image is obtained at the identification feature point extracted by the quantity extraction means (for example, the feature quantity extraction unit 94 in FIG. 2) and the identification feature point extraction means. In this way, it is possible to further include identification means (for example, the identification feature point comparison unit 99 and the identification processing unit 100 in FIG. 2) for identifying the similar model image corresponding to the recognition image.

前記類似モデル画像を、前記認識画像に合致するようにアフィン変換を行う第2の変換手段(例えば、図2のアフィンパラメータ取得部97およびアフィン変換処理部98)を更に備えるものとすることができ、前記識別手段は、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別するものとすることができる。   The similar model image may further include a second conversion unit (for example, the affine parameter acquisition unit 97 and the affine transformation processing unit 98 in FIG. 2) that performs affine transformation so as to match the recognition image. The identifying unit may identify the similar model image corresponding to the recognized image using the similar model image converted by the second converting unit.

本発明の第1の側面の情報処理方法は、画像を識別するために利用する情報を生成する情報処理装置(例えば、図2の認識装置51、または、識別特徴点選択部61に対応する装置)の情報処理方法であって、複数のモデル画像を取得し(例えば、図13のステップS11の処理、または、図4のステップS21の処理)、取得された前記モデル画像の特徴量を抽出し(例えば、図13のステップS12の処理、または、図4のステップS22の処理)、抽出された前記モデル画像の前記特徴量のマッチング処理を行い(例えば、図13のステップS14の処理、または、図4のステップS24の処理)、マッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する(例えば、図13のステップS15乃至ステップS19の処理、または、図4のステップS28乃至ステップS31の処理)ステップを含む。   The information processing method according to the first aspect of the present invention is an information processing device that generates information used to identify an image (for example, the recognition device 51 in FIG. 2 or a device corresponding to the identification feature point selection unit 61). ), A plurality of model images are acquired (for example, the process in step S11 in FIG. 13 or the process in step S21 in FIG. 4), and the feature amount of the acquired model image is extracted. (For example, the process in step S12 in FIG. 13 or the process in step S22 in FIG. 4), the matching processing of the feature amount of the extracted model image is performed (for example, the process in step S14 in FIG. 13 or In step S24 in FIG. 4, as a result of matching, a similar model that is a model image in which a predetermined model image (for example, an attention model image) matches a predetermined number or more of the feature quantities is obtained. In the image, feature points having a small correlation with the predetermined model image are extracted as identification feature points used for discrimination between the similar model images (for example, processing in steps S15 to S19 in FIG. 13 or FIG. 4). Step S28 to step S31).

本発明の第1の側面のプログラムは、画像を識別するために利用する情報を生成する処理をコンピュータに実行させるためのプログラムであって、複数のモデル画像を取得し(例えば、図13のステップS11の処理、または、図4のステップS21の処理)、取得された前記モデル画像の特徴量を抽出し(例えば、図13のステップS12の処理、または、図4のステップS22の処理)、抽出された前記モデル画像の前記特徴量のマッチング処理を行い(例えば、図13のステップS14の処理、または、図4のステップS24の処理)、マッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する(例えば、図13のステップS15乃至ステップS19の処理、または、図4のステップS28乃至ステップS31の処理)ステップを含む処理をコンピュータに実行させる。   The program according to the first aspect of the present invention is a program for causing a computer to execute processing for generating information used to identify an image, and obtains a plurality of model images (for example, step of FIG. 13). Step S11 or step S21 in FIG. 4), the feature amount of the acquired model image is extracted (for example, step S12 in FIG. 13 or step S22 in FIG. 4) and extracted. A matching process of the feature amount of the model image that has been performed (for example, the process of step S14 in FIG. 13 or the process of step S24 in FIG. 4) is performed. ) And a similar model image that is a model image in which a predetermined number or more of the feature quantities match, a feature having little correlation with the predetermined model image Is extracted as an identification feature point used for identification between the similar model images (for example, the process of step S15 to step S19 in FIG. 13 or the process of step S28 to step S31 in FIG. 4). To run.

本発明の第2の側面の画像識別装置は、複数のモデル画像および前記モデル画像の特徴量を記憶し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置(例えば、図2の判定処理部62に対応する装置)であって、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段(例えば、図2の識別特徴点記憶部92)と、前記認識画像(例えば、クエリ画像)を取得する認識画像取得手段(例えば、図2のクエリ画像取得部93)と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段(例えば、図2の特徴量抽出部94)と、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段(例えば、図2の識別特徴点比較部99および識別処理部100)とを備える。   An image identification device according to a second aspect of the present invention stores a plurality of model images and feature amounts of the model image, receives an input of a recognition image, and identifies the model image corresponding to the recognition image (For example, an apparatus corresponding to the determination processing unit 62 in FIG. 2), and among the model images, a plurality of the model images in which a predetermined number or more of the feature quantities match with any of the other model images. Storage means (for example, the identification feature point storage unit 92 in FIG. 2) that stores feature points that are less correlated between the similar model images, and the recognition image (for example, a query). Recognition image acquisition means (for example, query image acquisition unit 93 in FIG. 2) for acquiring images, and recognized image feature quantities for extracting feature quantities of the recognition images acquired by the recognition image acquisition means. The recognition unit obtains a correlation between feature amounts of the similar model image and the recognition image at the identification feature points stored by the output unit (for example, the feature amount extraction unit 94 in FIG. 2) and the storage unit. Identification means (for example, the identification feature point comparison unit 99 and the identification processing unit 100 in FIG. 2) for identifying the similar model image corresponding to the image is provided.

前記類似モデル画像に対して、前記認識画像に合致するようにアフィン変換を施す変換手段(例えば、図2のアフィンパラメータ取得部97およびアフィン変換処理部98)を更に備えることができ、前記識別手段は、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別することができる。   The similar model image may further include a conversion unit (for example, an affine parameter acquisition unit 97 and an affine conversion processing unit 98 in FIG. 2) that performs affine transformation so as to match the recognition image, and the identification unit. Can identify the similar model image corresponding to the recognized image using the similar model image converted by the converting means.

前記認識画像取得手段により取得された前記認識画像と記憶されている前記モデル画像との特徴量のマッチング処理を行うマッチング手段(例えば、図2のマッチング処理部95およびアウトライヤ除去部96)をさらにそなえることができ、前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段は、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別することができる。   Further provided is a matching means (for example, a matching processing unit 95 and an outlier removal unit 96 in FIG. 2) for performing a feature amount matching process between the recognized image acquired by the recognized image acquiring unit and the stored model image. When the result of matching by the matching means is a predetermined number or more of the model images that match the recognition image and a feature quantity equal to or greater than a predetermined threshold, the identification means As the similar model image, the similar model image corresponding to the recognized image is identified by obtaining a correlation between the similar model image and the feature amount of the recognized image at the identification feature point stored by the storage unit. can do.

前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段(例えば、図2のアウトライヤ除去部96)を含むことができる。   The matching unit may include an outlier removal unit (for example, an outlier removal unit 96 in FIG. 2) that removes an outlier from the result of the matching processing of the feature amounts between the model images.

本発明の第2の側面の画像識別方法は、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部とを有し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置(例えば、図2の判定処理部62に対応する装置)の画像識別方法であって、前記認識画像(例えば、クエリ画像)を取得し(例えば、図15のステップS41の処理)、取得された前記認識画像の特徴量を抽出し(例えば、図15のステップS42の処理)、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する(例えば、図15のステップS47乃至ステップS50の処理)ステップを含む。   An image identification method according to a second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and one of the other model images among the model images. A second storage unit that stores identification feature points, which are feature points having a low correlation between the similar model images, in a similar model image that is a plurality of the model images in which a predetermined number or more of the feature quantities match. An image identification method of an image identification apparatus (for example, an apparatus corresponding to the determination processing unit 62 in FIG. 2) that receives an input of a recognition image and identifies the model image corresponding to the recognition image, For example, a query image) is acquired (for example, the process of step S41 of FIG. 15), the feature amount of the acquired recognition image is extracted (for example, the process of step S42 of FIG. 15), and the identification feature point is extracted. The step of identifying the similar model image corresponding to the recognized image by obtaining the correlation between the feature amounts of the similar model image and the recognized image (for example, the processing in steps S47 to S50 in FIG. 15). Including.

本発明の第2の側面のプログラムは、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部に記憶されている情報を用いて、入力された認識画像に対応する前記モデル画像を識別する処理をコンピュータに実行させるプログラムであって、前記認識画像(例えば、クエリ画像)を取得し(例えば、図15のステップS41の処理)、取得された前記認識画像の特徴量を抽出し(例えば、図15のステップS42の処理)、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する(例えば、図15のステップS47乃至ステップS50の処理)ステップを含む処理をコンピュータに実行させる。   The program according to the second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and a predetermined number of the model images with any of the other model images. Information stored in a second storage unit that stores identification feature points that are feature points having a low correlation between the similar model images in the similar model images that are the plurality of model images that match the feature amounts described above. Is used to acquire a recognition image (for example, a query image) (for example, in step S41 of FIG. 15), which causes the computer to execute processing for identifying the model image corresponding to the input recognition image. Processing), the feature amount of the acquired recognition image is extracted (for example, the processing of step S42 in FIG. 15), and the similar model image is compared with the previous model image at the identification feature point. By correlating the feature amount of the recognition image, the identifying the similar model image corresponding to the recognized image (e.g., the processing of step S47 to step S50 of FIG. 15) to execute processing including a step in the computer.

以下、図を参照して、本発明の実施の形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

例えば、識別するべきモデルに対応するモデル画像が、図1に示される画像11乃至画像15である場合、それぞれの画像は異なるものであるが、これらの画像は、簡略画21に示される二重丸の部分と星印の部分に記載の文字の左側約半分の領域、および、雲形で示される果物の絵の有無もしくは種類以外は、基本的に同様の形状を有している。   For example, when the model images corresponding to the models to be identified are the images 11 to 15 shown in FIG. 1, the respective images are different, but these images are the double images shown in the simplified image 21. The shape is basically the same except for the region about half on the left side of the characters described in the circle and the star, and the presence or absence or type of fruit picture indicated by a cloud.

図1に示される画像11乃至画像15に対応する画像データ(以下、単に、画像11乃至画像15と称する)がモデル画像に対応するデータ(以下、単に、モデル画像と称する)として登録され、例えば、画像11に対応する画像がクエリ画像に対応するデータ(以下、単に、クエリ画像と称する)として供給されたとき、識別結果として画像11のみが抽出されるべきであるが、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、識別のためのマッチペア数にもよるが、画像11乃至画像15のいずれに対しても、正解であると識別をしてしまう。   Image data corresponding to images 11 to 15 shown in FIG. 1 (hereinafter simply referred to as images 11 to 15) are registered as data corresponding to model images (hereinafter simply referred to as model images). When the image corresponding to the image 11 is supplied as data corresponding to the query image (hereinafter simply referred to as a query image), only the image 11 should be extracted as the identification result. In a technique for identifying an object in a query image by the number of pairs, although it depends on the number of match pairs for identification, any of the images 11 to 15 is identified as being correct.

特に、モデル画像が多岐にわたる場合、画像11乃至画像15を区別可能なほどにマッチペア数の閾値を大きくしてしまっては、識別が厳密になりすぎてしまい、実際は同一であると認識するべきところを、異なるものであると誤認識してしまう可能性が高くなる。しかしながら、一般的なマッチング処理における閾値の設定レベルでは、上述したように、画像11乃至画像15を正しく識別することが困難である。   In particular, when there are a wide variety of model images, if the threshold value for the number of match pairs is increased to such a level that the images 11 to 15 can be distinguished, the identification becomes too strict and should be recognized as actually the same. Are likely to be misrecognized as different. However, as described above, it is difficult to correctly identify the images 11 to 15 at a threshold setting level in general matching processing.

そこで、モデル画像の登録時に、例えば、図1の画像11乃至画像15のような類似している画像が存在したとき、それらの画像の相関を求め、相似していない部分の特徴点を抽出しておくことにより、識別処理において、相似していない部分のマッチング結果を利用して、図1の画像11乃至画像15のような類似している画像を識別することができるようにすると好適である。   Therefore, when there are similar images such as the images 11 to 15 in FIG. 1 when the model image is registered, the correlation between these images is obtained, and the feature points of the dissimilar portions are extracted. Thus, it is preferable that the identification process can identify similar images such as the image 11 to the image 15 in FIG. .

図2は、モデル画像の登録時に、類似している画像の相関を予め求めておき、識別処理において、相似していない部分のマッチング結果を利用することができる認識装置51の構成を示すブロック図である。   FIG. 2 is a block diagram illustrating a configuration of a recognition device 51 that can obtain a correlation between similar images in advance when registering a model image and can use a matching result of a portion that is not similar in the identification process. It is.

認識装置51は、識別特徴点選択部61と判定処理部62とで構成されている。ここでは、認識装置51として1つの装置であるものとして説明するが、識別特徴点選択部61および判定処理部62が、それぞれ1つの装置として構成されていても良いことは言うまでもない。   The recognition device 51 includes an identification feature point selection unit 61 and a determination processing unit 62. Here, although the description will be made assuming that the recognition device 51 is one device, it goes without saying that the identification feature point selection unit 61 and the determination processing unit 62 may each be configured as one device.

識別特徴点選択部61は、モデル画像取得部71、特徴量抽出部72、モデル画像辞書記憶部73、マッチング処理部74、アウトライヤ除去部75、アフィンパラメータ取得部76、アフィン変換処理部77、相関画像生成部78、および、識別特徴点抽出部79により構成されている。   The identification feature point selection unit 61 includes a model image acquisition unit 71, a feature amount extraction unit 72, a model image dictionary storage unit 73, a matching processing unit 74, an outlier removal unit 75, an affine parameter acquisition unit 76, an affine transformation processing unit 77, and a correlation. The image generation unit 78 and the identification feature point extraction unit 79 are configured.

モデル画像取得部71は、識別処理のためのモデル画像を取得し、モデル画像辞書記憶部73および特徴量抽出部72に供給する。供給されるモデル画像には、例えば、図1に示される画像11乃至画像15のように、非常に類似したモデル画像の組が含まれているものとする。   The model image acquisition unit 71 acquires a model image for identification processing and supplies the model image to the model image dictionary storage unit 73 and the feature amount extraction unit 72. Assume that the supplied model images include a set of very similar model images, such as images 11 to 15 shown in FIG.

特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から特徴点を抽出し、特徴点周辺から局所特徴量を抽出して、ベクトル記述する。特徴量抽出部72は、抽出した局所特徴量の情報を、モデル画像辞書記憶部73、マッチング処理部74、および、アウトライヤ除去部75に供給する。   The feature amount extraction unit 72 extracts feature points from each model image supplied from the model image acquisition unit 71, extracts local feature amounts from around the feature points, and describes them as vectors. The feature quantity extraction unit 72 supplies the extracted local feature quantity information to the model image dictionary storage unit 73, the matching processing unit 74, and the outlier removal unit 75.

特徴点は、例えば、近傍画素との差の大きな画素を抽出したり、画像データにFFT(Fast Fourier transform)をかけることによって得られる高周波成分が多い画素などを抽出するものとしても良いし、その他の方法により抽出するものであっても良い。また、局所特徴量としては、例えば、ガボアジェット(Gabor Jet)や、ハーウェイブレット(Haar Wavelett)、ガウシアン導関数(Gaussian Derivatives)、SIFT特徴などを用いることができる。   For example, the feature point may be a pixel with a large difference from neighboring pixels, a pixel having a high frequency component obtained by applying FFT (Fast Fourier transform) to the image data, or the like. It may be extracted by this method. As the local feature amount, for example, Gabor Jet, Haar Wavelet, Gaussian Derivatives, SIFT feature, and the like can be used.

モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。モデル画像辞書記憶部73に記憶されたモデル画像とモデル画像に対応する局所特徴量とは、判定処理部62のモデル画像辞書記憶部91に供給され、クエリ画像とのマッチングに利用される。   The model image dictionary storage unit 73 stores each model image supplied from the model image acquisition unit 71 and local feature amounts corresponding to each model image supplied from the feature amount extraction unit 72. The model image stored in the model image dictionary storage unit 73 and the local feature amount corresponding to the model image are supplied to the model image dictionary storage unit 91 of the determination processing unit 62 and used for matching with the query image.

マッチング処理部74は、特徴量抽出部72から供給された局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN(k-NearestNeighbor;最近傍分類法)等の手法でマッチングし、マッチペアを求める。以下、特徴量抽出部72で最も新しく局所特徴量が抽出された、マッチング処理の基準とされるモデル画像を、注目モデル画像と称し、モデル画像辞書記憶部73に既に記憶され、マッチング処理部74において注目モデル画像の局所特徴量との比較に用いられている複数の他のモデル画像と区別するものとする。   The matching processing unit 74 calculates the local feature amount supplied from the feature amount extracting unit 72 and the local feature amount of each model image currently stored in the model image dictionary storage unit 73, for example, K-NN (k -NearestNeighbor (nearest neighbor classification method) etc. are used for matching to find a match pair. Hereinafter, the model image used as the reference for the matching process, from which the latest local feature quantity is extracted by the feature quantity extraction unit 72, is referred to as a model image of interest, and is already stored in the model image dictionary storage unit 73. Are distinguished from a plurality of other model images used for comparison with the local feature of the model image of interest.

そして、マッチング処理部74は、注目モデル画像と、注目モデル画像に対して所定数以上のマッチペア数を有する類似モデル画像と、それらのマッチペアの情報とを、アウトライヤ除去部75に供給する。例えば、図1の画像12乃至15が既にモデル画像辞書記憶部73に記憶されている状態で、図1の画像11がモデル画像として供給されたとき、注目モデル画像である画像11に対して、図1の画像12乃至15が、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像として抽出される。   Then, the matching processing unit 74 supplies the attention model image, similar model images having a predetermined number of match pairs or more with respect to the target model image, and information on those match pairs to the outlier removal unit 75. For example, when the image 12 of FIG. 1 is already stored in the model image dictionary storage unit 73 and the image 11 of FIG. 1 is supplied as a model image, Images 12 to 15 in FIG. 1 are extracted as similar model images having a predetermined number of match pairs or more with respect to the target model image.

また、マッチング処理部74は、局所特徴量を用いてマッチペアを求めるので、注目モデル画像と、比較される他のモデル画像のそれぞれとが、異なる視点から撮像されたものであったり、それらの大きさが異なるものであっても、正しくマッチングを行うことができる。   In addition, since the matching processing unit 74 obtains a match pair using the local feature amount, the model image of interest and each of the other model images to be compared are captured from different viewpoints or their sizes. Even if they are different, matching can be performed correctly.

アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC(Random Sample Consensus)等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。なお、アウトライヤ除去は、上述した技術以外の、いかなる手法を用いて実行するものであってもよい。アウトライヤ除去部75は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、アフィンパラメータ取得部76に供給する。   The outlier removal unit 75 removes mismatched pairs that do not satisfy the geometric constraints from the match pairs detected by the matching processing unit 74 using, for example, Hough transform or RANSAC (Random Sample Consensus). The outlier removal may be performed using any technique other than the technique described above. The outlier removal unit 75 supplies the affine parameter acquisition unit 76 with the attention model image, the similar model image having a predetermined number of match pairs or more with respect to the attention model image, and the match pair information after the outlier removal.

アフィンパラメータ取得部76は、残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求める。アフィン変換は、平行移動および回転変換(ユークリッド変換)に拡大縮小変換を加えた相似変換に、せん断変形を許すような変換であり、元の図形で直線上に並ぶ点は変換後も直線上に並び、平行線は変換後も平行線であるなど、幾何学的性質が保たれる変換である。すなわち、アフィンパラメータ取得部76は、注目モデル画像と、類似モデル画像のそれぞれとが、異なる視点から撮像されたものであったり、それらの大きさが異なるものであるときなどであっても、類似モデル画像のそれぞれの歪みを修正し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正するための、回転、拡大縮小、せん断変形、平行移動などのためのパラメータである、アフィンパラメータを求める。   The affine parameter acquisition unit 76 obtains affine parameters between the model image of interest and each similar model image from the remaining match pairs. The affine transformation is a transformation that allows shear deformation to the similarity transformation that adds the scaling transformation to the translation and rotation transformation (Euclidean transformation), and the points on the straight line in the original figure remain on the straight line after the transformation. Lines and parallel lines are transformations that maintain their geometric properties, such as parallel lines after transformation. That is, the affine parameter acquisition unit 76 is similar even when the target model image and each of the similar model images are captured from different viewpoints or have different sizes. It is a parameter for rotation, scaling, shear deformation, parallel movement, etc. to correct each distortion of the model image and correct it to an image captured in the same size from the imaging direction corresponding to the target model image Find the affine parameters.

アフィンパラメータ取得部76は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータとを、アフィン変換処理部77に供給する。   The affine parameter acquisition unit 76 obtains the affine parameter, the similar model image having a predetermined number of match pairs or more with respect to the target model image, and the calculated affine parameters in addition to the match pair information after the outlier removal. This is supplied to the conversion processing unit 77.

アフィン変換処理部77は、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。   The affine transformation processing unit 77 transforms the supplied similar model image with affine parameters, and corrects the image so as to be captured in the same size from the imaging direction corresponding to the target model image. The affine transformation processing unit 77 sends the attention model image, the similar model image after affine transformation having a predetermined number or more of match pairs to the attention model image, and the match pair information after outlier removal to the correlation image generation unit 78. Supply.

相関画像生成部78は、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算し、得られた特徴点ごとの相関値を識別特徴点抽出部79に供給する。ここで得られる相関値を画像上に対応付けると、注目モデル画像と類似モデル画像との相関を示す相関画像となる。   The correlation image generation unit 78 calculates, for each feature point of the target model image, a correlation value (feature amount distance) of the feature amount with the similar model image after affine transformation at that position, and for each feature point obtained. Are supplied to the identification feature point extraction unit 79. When the correlation values obtained here are associated on the image, a correlation image indicating the correlation between the model image of interest and the similar model image is obtained.

識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像との識別に用いて有用な特徴点である識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給する。   Based on the correlation value with the similar model image at each feature point of the target model image, the identification feature point extraction unit 79 has a predetermined number of feature points whose correlation value is lower than a certain threshold value, or from the lowest correlation value. The feature points are extracted as identification feature points that are useful feature points for identification with similar model images, and supplied to the identification feature point storage unit 92 of the determination processing unit 62.

例えば、図1の画像12乃至15、または、アフィン変換を行ったときに図1の画像12乃至15に変換される画像が、既にモデル画像辞書記憶部73に記憶されている状態で、モデル画像として図1の画像11が供給されたとき、注目モデル画像である画像11に対して、図1の画像12乃至15またはこれらに対応する画像が、類似モデル画像として抽出される。そして、相関画像生成部78は、注目モデル画像である画像11と、アフィン変換後の類似モデル画像である画像12乃至15のそれぞれとの、注目モデル画像の特徴点における特徴量の相関値を求める。そして、識別特徴点抽出部79は、例えば、図3に示されるように、相関値の低い部分の特徴点を抽出する。   For example, in the state where the images 12 to 15 in FIG. 1 or the images to be converted into the images 12 to 15 in FIG. 1 when the affine transformation is performed are already stored in the model image dictionary storage unit 73. 1 is supplied, the images 12 to 15 in FIG. 1 or images corresponding thereto are extracted as similar model images with respect to the image 11 that is the model image of interest. Then, the correlation image generation unit 78 obtains the correlation value of the feature amount at the feature point of the target model image between the image 11 that is the target model image and each of the images 12 to 15 that are the similar model images after the affine transformation. . Then, for example, as shown in FIG. 3, the identification feature point extraction unit 79 extracts feature points of a portion having a low correlation value.

なお、例えば、図1を用いて説明した画像12乃至15のうち、画像12が最も早くモデル画像として識別特徴点選択部61に供給されたとき、画像12は、画像13乃至画像15に対して、類似モデル画像であると登録されるが、それ自身は、類似画像を有するモデル画像として処理されないため、画像12に対しては識別特徴点が抽出されない恐れがある。したがって、例えば、マッチング処理部74が所定数以上のマッチペア数を有する類似モデル画像を検出するとき、類似モデル画像として検出されたモデル画像に類似モデル画像が全く対応付けられていない場合は、更に、注目モデル画像と類似モデル画像の扱いを逆にした場合の識別特徴点の検出処理を実行するものとすると好適である。   For example, among the images 12 to 15 described with reference to FIG. 1, when the image 12 is supplied to the identification feature point selection unit 61 as the model image earliest, the image 12 corresponds to the images 13 to 15. Although it is registered as a similar model image, the identification feature point may not be extracted from the image 12 because the model image itself is not processed as a model image having a similar image. Therefore, for example, when the matching processing unit 74 detects a similar model image having a predetermined number of match pairs or more, if a similar model image is not associated with the model image detected as the similar model image, It is preferable that the identification feature point detection process is executed when the attention model image and the similar model image are handled in reverse.

また、モデル画像が1枚入力されるのに対して、上述した処理が順次行われるのではなく、予め類似モデル画像同士の組を生成しておき、その組に含まれる画像の組み合わせのすべての相関の平均などに基いて、識別特徴点を抽出するものとしても良い。   In addition, one model image is input, but the above-described processing is not performed sequentially, but a set of similar model images is generated in advance, and all combinations of images included in the set are generated. Identification feature points may be extracted based on the average of correlation or the like.

そのような場合、例えば、図1を用いて説明した画像11乃至画像15において、マッチング処理部74によりマッチング処理が実行されて、マッチペアが求められ、アウトライヤ除去部75において、マッチペアのアウトライヤが除去された場合、類似モデル画像の組として、画像11乃至画像15が抽出される。   In such a case, for example, in the images 11 to 15 described with reference to FIG. 1, a matching process is performed by the matching processing unit 74 to obtain a match pair, and an outlier removal unit 75 removes the outlier of the match pair. In this case, the images 11 to 15 are extracted as a set of similar model images.

そして、アフィンパラメータ取得部76は、全ての組み合わせのアフィンパラメータを取得する。また、アフィンパラメータ変換処理部77は、それぞれの組み合わせのアフィン変換を行う。そして、相関画像生成部78は、全ての組み合わせにおける相関画像を生成して、その平均値などを求める。そして、識別特徴点抽出部79は、複数の相関画像の平均値などに基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像との識別に用いて有用な特徴点である識別特徴点として抽出して、判定処理部62の識別特徴点記憶部92に供給することができる。   And the affine parameter acquisition part 76 acquires the affine parameter of all the combinations. Also, the affine parameter conversion processing unit 77 performs affine conversion of each combination. Then, the correlation image generation unit 78 generates correlation images for all combinations and obtains an average value thereof. Then, based on the average value of a plurality of correlation images, the identification feature point extraction unit 79 obtains a feature model having a correlation value lower than a threshold value or a predetermined number of feature points from the lowest correlation value. It can be extracted as an identification feature point that is a useful feature point for use in identification with an image and supplied to the identification feature point storage unit 92 of the determination processing unit 62.

次に、図2の認識装置51の判定処理部62は、モデル画像辞書記憶部91、識別特徴点記憶部92、クエリ画像取得部93、特徴量抽出部94、マッチング処理部95、アウトライヤ除去部96、アフィンパラメータ取得部97、アフィン変換処理部98、識別特徴点比較部99、識別処理部100、および、識別結果出力部101を含んで構成されている。   Next, the determination processing unit 62 of the recognition device 51 in FIG. 2 includes a model image dictionary storage unit 91, an identification feature point storage unit 92, a query image acquisition unit 93, a feature amount extraction unit 94, a matching processing unit 95, and an outlier removal unit. 96, an affine parameter acquisition unit 97, an affine transformation processing unit 98, an identification feature point comparison unit 99, an identification processing unit 100, and an identification result output unit 101.

モデル画像辞書記憶部91は、モデル画像辞書記憶部73からモデル画像とモデル画像に対応する局所特徴量との供給を受け、記憶する。   The model image dictionary storage unit 91 receives and stores the model image and the local feature corresponding to the model image from the model image dictionary storage unit 73.

識別特徴点記憶部92は、識別特徴点抽出部79から、類似モデル画像を有する上述した注目モデル画像において、類似モデル画像との相関値が低い特徴点である識別特徴点の情報の供給を受け、記憶する。   The identification feature point storage unit 92 receives supply of identification feature point information that is a feature point having a low correlation value with the similar model image in the above-described attention model image having the similar model image from the identification feature point extraction unit 79. ,Remember.

クエリ画像取得部93は、識別対象であるクエリ画像を取得する。   The query image acquisition unit 93 acquires a query image that is an identification target.

特徴量抽出部94は、クエリ画像取得部93から供給されたクエリ画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴点および特徴量の抽出方法は、特徴量抽出部72と同様である。特徴量抽出部94は、抽出した局所特徴量の情報を、マッチング処理部95、および、アウトライヤ除去部96に供給する。   The feature amount extraction unit 94 extracts feature points from the query image supplied from the query image acquisition unit 93, extracts local feature amounts from around the feature points, and describes them as vectors. The feature point and feature amount extraction method is the same as that of the feature amount extraction unit 72. The feature quantity extraction unit 94 supplies the extracted local feature quantity information to the matching processing unit 95 and the outlier removal unit 96.

マッチング処理部95は、特徴量抽出部94から供給された局所特徴量と、モデル画像辞書記憶部91に記憶されているモデル画像に対応する局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部95は、クエリ画像と、クエリ画像に対して所定数以上のマッチペア数を有するモデル画像のデータと、それらのマッチペアの情報を、アウトライヤ除去部96に供給する。例えば、図1の画像11乃至画像15がモデル画像としてモデル画像辞書記憶部91に記憶されているとき、図4に示されるクエリ画像111が供給された場合、マッチング処理部95は、画像11乃至画像15を、識別対象である可能性の高いモデル画像として抽出して、アウトライヤ除去部96に供給する。   The matching processing unit 95 uses the local feature amount supplied from the feature amount extraction unit 94 and the local feature amount corresponding to the model image stored in the model image dictionary storage unit 91, for example, a technique such as K-NN. To find a match pair. Then, the matching processing unit 95 supplies the query image, model image data having a predetermined number of match pairs or more with respect to the query image, and information on those match pairs to the outlier removal unit 96. For example, when the image 11 to image 15 in FIG. 1 are stored as model images in the model image dictionary storage unit 91 and the query image 111 shown in FIG. 4 is supplied, the matching processing unit 95 selects the images 11 to 11. The image 15 is extracted as a model image that is highly likely to be an identification target, and is supplied to the outlier removal unit 96.

アウトライヤ除去部96は、ハフ変換、または、RANSAC等を用いて、マッチング処理部95により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。そして、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多いモデル画像が全く存在しない場合、その結果を識別処理部100に供給する。また、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多いモデル画像が予め定められた所定の数よりも少ない場合、除去されずに残ったモデル画像とそのマッチペア数を識別処理部100に供給する。また、残ったマッチペア数が所定の閾値を超えているモデル画像が所定の数以上である場合、残ったマッチペア数が所定の閾値よりも多いモデル画像は、上述した類似モデル画像であると考えられる。アウトライヤ除去部96は、類似モデル画像と、クエリ画像と、アウトライヤ除去後のマッチペアの情報とを、アフィンパラメータ取得部97に供給する。   The outlier removal unit 96 removes mismatched pairs that do not satisfy the geometric constraints from the match pairs detected by the matching processing unit 95 using Hough transform, RANSAC, or the like. Then, when there is no model image in which the number of remaining match pairs is greater than a predetermined threshold, the outlier removal unit 96 supplies the result to the identification processing unit 100. In addition, when the number of remaining match pairs is greater than a predetermined threshold, and the number of remaining match pairs is less than a predetermined number, the outlier removal unit 96 identifies the model images remaining without being removed and the number of match pairs. 100. Further, when the number of remaining match pairs exceeds a predetermined threshold value, the model image having the remaining number of match pairs larger than the predetermined threshold value is considered to be the above-described similar model image. . The outlier removal unit 96 supplies the similar model image, the query image, and the match pair information after the outlier removal to the affine parameter acquisition unit 97.

アフィンパラメータ取得部97は、残ったマッチペアから、クエリ画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、クエリ画像、アフィンパラメータ、残ったマッチペア数が所定の閾値よりも多い類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、アフィン変換処理部98に供給する。   The affine parameter acquisition unit 97 obtains an affine parameter between the query image and each similar model image from the remaining match pairs, a query image, an affine parameter, a similar model image in which the number of remaining match pairs is greater than a predetermined threshold, and The match pair information after the outlier removal is supplied to the affine transformation processing unit 98.

アフィン変換処理部98は、供給された類似モデル画像をアフィンパラメータで変換し、クエリ画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。図4に示されるように、クエリ画像111の類似モデル画像として画像11乃至画像15が抽出された場合、画像11乃至画像15は、アフィン変換処理部98により、アフィン変換後の画像11a乃至画像15aに変換される。アフィン変換処理部98は、クエリ画像、アフィン変換後の類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、識別特徴点比較部99に供給する。   The affine transformation processing unit 98 transforms the supplied similar model image with affine parameters, and corrects the image so as to be captured in the same size from the imaging direction corresponding to the query image. As illustrated in FIG. 4, when images 11 to 15 are extracted as similar model images of the query image 111, the images 11 to 15 are converted into images 11 a to 15 a after affine transformation by the affine transformation processing unit 98. Is converted to The affine transformation processing unit 98 supplies the query image, the similar model image after the affine transformation, and the match pair information after the outlier removal to the identification feature point comparison unit 99.

識別特徴点比較部99は、識別特徴点記憶部92に記憶されているそれぞれのモデル画像の識別特徴点に基づいて、アフィン変換後の類似モデル画像における識別特徴点を求めてその特徴量を算出するとともに、求められた識別特徴点における特徴量と、クエリ画像上の識別特徴点における特徴量との相関値を算出する。すなわち、識別特徴点比較部99は、図4のアフィン変換後の画像11a乃至画像15aの識別特徴点における特徴量と、クエリ画像111の識別特徴点における特徴量との相関値を算出する。識別特徴点比較部99は、相関値の算出結果を、識別処理部100に供給する。   Based on the identification feature points of each model image stored in the identification feature point storage unit 92, the identification feature point comparison unit 99 obtains the identification feature point in the similar model image after the affine transformation and calculates the feature amount. At the same time, a correlation value between the obtained feature quantity at the identified feature point and the feature quantity at the identified feature point on the query image is calculated. That is, the identification feature point comparison unit 99 calculates a correlation value between the feature amount at the identification feature point of the image 11a to image 15a after the affine transformation of FIG. 4 and the feature amount at the identification feature point of the query image 111. The identification feature point comparison unit 99 supplies the calculation result of the correlation value to the identification processing unit 100.

識別処理部100は、アウトライヤ除去部96、または、識別特徴点比較部99から供給された情報に基づいて、識別処理を実行する。すなわち、識別処理部100は、アウトライヤ除去部96において、アウトライヤ除去後に残ったマッチペア数が所定の閾値よりも多い類似モデル画像が予め定められた所定の数よりも少ないと検出された場合、アウトライヤ除去部96から供給されるマッチペア数に基づいて、クエリ画像は、最もマッチペア数の多いモデル画像、または、所定の閾値よりマッチペア数の多い1つまたは複数のモデル画像に対応するものであるとし、その識別結果を、識別結果出力部101に出力する。また、識別処理部100は、アウトライヤ除去部96から、残ったマッチペア数が所定の閾値よりも多い類似モデル画像が全く存在しないことを通知されたとき、クエリ画像はいずれのモデル画像とも一致しないと判定し、判定結果を識別結果出力部101に出力する。   The identification processing unit 100 executes the identification process based on the information supplied from the outlier removal unit 96 or the identification feature point comparison unit 99. That is, when the outlier removal unit 96 detects that the number of match pairs remaining after the outlier removal is greater than a predetermined threshold value and is smaller than a predetermined number, the identification processing unit 100 performs outlier removal. Based on the number of match pairs supplied from the unit 96, the query image corresponds to a model image having the largest number of match pairs or one or more model images having a greater number of match pairs than a predetermined threshold. The identification result is output to the identification result output unit 101. In addition, when the identification processing unit 100 is notified from the outlier removal unit 96 that there is no similar model image in which the number of remaining matched pairs is greater than a predetermined threshold, the query image does not match any model image. The determination result is output to the identification result output unit 101.

また、識別処理部100は、アウトライヤ除去部96において、アウトライヤ除去後に残ったマッチペア数が所定の閾値を超えている類似モデル画像が所定の数以上であると検出された場合、識別特徴点比較部99から、類似モデル画像とクエリ画像との識別特徴点における特徴量の相関値の供給を受ける。識別処理部100は、供給される特徴量の相関値に基づいて、クエリ画像は、識別特徴点における相関値の平均値が最も高い類似モデル画像、または、平均値の値が所定の閾値よりも高い1つまたは複数の類似モデル画像に対応するものであるとし、その識別結果を、識別結果出力部101に出力する。   In addition, when the outlier removal unit 96 detects that the number of similar model images in which the number of match pairs remaining after the outlier removal exceeds a predetermined threshold is greater than or equal to a predetermined number, the identification processing unit 100 performs an identification feature point comparison unit From 99, the correlation value of the feature quantity at the identification feature point between the similar model image and the query image is supplied. Based on the supplied correlation value of the feature quantity, the identification processing unit 100 uses a similar model image having the highest average correlation value at the identification feature point, or the average value is lower than a predetermined threshold value. It is assumed that the image corresponds to one or more high similar model images, and the identification result is output to the identification result output unit 101.

識別結果出力部101は、識別処理部100から供給された識別結果を、例えば、表示部に表示したり、音声データとして出力したり、または、所定の伝送路を介して出力するか所定の記録媒体に記録させることなどにより、他の装置に出力する。   The identification result output unit 101 displays the identification result supplied from the identification processing unit 100 on, for example, a display unit, outputs it as audio data, or outputs it via a predetermined transmission path or a predetermined recording. The data is output to another device, for example, by being recorded on a medium.

認識装置51における類似した画像の識別処理は、例えば、テレビジョン放送等の同一番組のテロップのように、その形式や大きさは略同じであり、文字のみが異なるような画像の識別に適用させることができる。   Similar image identification processing in the recognition device 51 is applied to identification of images that have substantially the same format and size and differ only in characters, such as telops of the same program such as television broadcasting. be able to.

例えば、図5に示される#1モデル画像121および#2モデル画像122と、クエリ画像123との比較を行う場合について説明する。   For example, a case where the # 1 model image 121 and the # 2 model image 122 shown in FIG. 5 are compared with the query image 123 will be described.

#2モデル画像122とクエリ画像123とは、同一であると識別されるべき画像であるが、#1モデル画像121は、#2モデル画像122に対して、その形式や大きさは略同じであり、文字のみが異なる画像である。   The # 2 model image 122 and the query image 123 are images that should be identified as being the same, but the # 1 model image 121 has substantially the same format and size as the # 2 model image 122. Yes, only the characters are different.

したがって、#1モデル画像121と#2モデル画像122とがモデル画像として登録され、クエリ画像123が供給されたとき、識別結果として#2モデル画像122のみが抽出されるべきであるが、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、図6に示されるように、#1モデル画像121と#2モデル画像122とのいずれに対しても、所定数以上のマッチペアが抽出されるので、正解であると識別をしてしまう。   Therefore, when the # 1 model image 121 and the # 2 model image 122 are registered as model images and the query image 123 is supplied, only the # 2 model image 122 should be extracted as an identification result. In the conventional technique for identifying an object in a query image with the number of matching pairs, as shown in FIG. 6, a predetermined number or more is exceeded for both the # 1 model image 121 and the # 2 model image 122. Since the match pair is extracted, the correct answer is identified.

そこで、上述した識別特徴点選択部61により、#1モデル画像121と#2モデル画像122との識別特徴点を抽出するものとする。   Therefore, it is assumed that the identification feature point selection unit 61 described above extracts the identification feature points of the # 1 model image 121 and the # 2 model image 122.

図7の画像131は、#1モデル画像121と#2モデル画像122とのいずれか一方を注目モデル画像、他方を類似モデル画像としたときの、アフィン変換後のそれぞれの画像をオーバーレイした画像である。画像131から、#1モデル画像121と#2モデル画像122とでは、「現地サポーターも落胆」と「日本代表敗戦の原因」の文字の部分が異なっているが、それ以外は、略、一致していることが分かる。   An image 131 in FIG. 7 is an image obtained by overlaying each image after affine transformation when one of the # 1 model image 121 and the # 2 model image 122 is a target model image and the other is a similar model image. is there. From the image 131, the # 1 model image 121 and the # 2 model image 122 are different in the characters of “local supporters are discouraged” and “the cause of the defeat of the Japanese national team”, but other than that, they are almost the same. I understand that

図7の画像132は、#1モデル画像121と#2モデル画像122との相関画像であり、相関の大きな部分が白く、相関の少ない部分が黒く表示されている。   An image 132 in FIG. 7 is a correlation image between the # 1 model image 121 and the # 2 model image 122, and a portion with a large correlation is displayed in white and a portion with a small correlation is displayed in black.

そして、図7の画像133は、#1モデル画像121と#2モデル画像122とから得られた識別特徴点を示すものである。図2の判定処理部62は、識別特徴点記憶部92に、画像133に示される識別特徴点を記憶する。   7 shows identification feature points obtained from the # 1 model image 121 and the # 2 model image 122. The determination processing unit 62 in FIG. 2 stores the identification feature points shown in the image 133 in the identification feature point storage unit 92.

図6を用いて説明したように、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、クエリ画像123に対して、#1モデル画像121と#2モデル画像122とのいずれにおいても、所定数以上のマッチペアが抽出されてしまい、その両方が、クエリ画像123に対応する画像であると識別されてしまう可能性がある。これに対して、図2の判定処理部62は、図7の画像133に示される識別特徴点において、#1モデル画像121と#2モデル画像122との相関値を求め、これに基づいて、識別処理を行うことができるので、クエリ画像123に対応する画像は、#2モデル画像122であると正しく識別することができる。   As described with reference to FIG. 6, in the technique for identifying an object in a query image with the above-described conventional number of matching pairs, the # 1 model image 121 and the # 2 model image 122 are compared with the query image 123. In both cases, a predetermined number or more of match pairs are extracted, and both of them may be identified as images corresponding to the query image 123. In contrast, the determination processing unit 62 in FIG. 2 obtains a correlation value between the # 1 model image 121 and the # 2 model image 122 at the identification feature point shown in the image 133 in FIG. Since the identification process can be performed, the image corresponding to the query image 123 can be correctly identified as the # 2 model image 122.

すなわち、図2の判定処理部62は、#1モデル画像121と#2モデル画像122とにおいて、「現地サポーターも落胆」と「日本代表敗戦の原因」と記載されている部分に多く含まれる識別特徴点を用いて判定を行うので、クエリ画像123に対応する画像は、#2モデル画像122であると正しく識別することができる。   That is, the determination processing unit 62 in FIG. 2 includes many identifications included in the portions described as “the local supporter is discouraged” and “the cause of the Japan national defeat” in the # 1 model image 121 and the # 2 model image 122. Since the determination is performed using the feature points, the image corresponding to the query image 123 can be correctly identified as the # 2 model image 122.

また、例えば、図1の簡略画21において、雲形で示される部分が類似しているモデル画像がN個存在するが、そのN個は、二重丸部分でa個とb個に分類可能であり、そのb個の類似モデル画像は、星型の部分で完全に分類可能であるなど、モデル画像間の類似の形態が階層構造で表されるとき、または、モデル画像間の類似部分が複数個所あるときなど、類似のモデル画像の判定を、識別特徴点を区別して行ったり、識別特徴点を階層化させて行うことが可能である。   Further, for example, in the simplified image 21 of FIG. 1, there are N model images in which the portions indicated by the clouds are similar, but the N images can be classified into a and b in a double circle portion. Yes, the b similar model images can be completely classified by a star-shaped part, for example, when similar forms between model images are represented by a hierarchical structure, or there are a plurality of similar parts between model images. When there is a location, it is possible to determine a similar model image by distinguishing the identification feature points or by layering the identification feature points.

例えば、図8に示されるように、クエリ画像151が入力された判定処理部62のモデル画像辞書記憶部91に、類似モデル画像として、#11モデル画像161乃至#14モデル画像164が記憶されている場合について説明する。   For example, as shown in FIG. 8, the model image dictionary storage unit 91 of the determination processing unit 62 to which the query image 151 has been input stores # 11 model image 161 to # 14 model image 164 as similar model images. The case will be described.

#11モデル画像161乃至#14モデル画像164は、それぞれ、クエリ画像151に対して、類似な部分を有しているので、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、#11モデル画像161乃至#14モデル画像164のいずれに対しても、クエリ画像151に対応するものであると識別をしてしまうおそれがある。   Since each of the # 11 model image 161 to the # 14 model image 164 has a similar part to the query image 151, an object in the query image is identified by the number of matching pairs described above. In such a technique, any of the # 11 model image 161 to the # 14 model image 164 may be identified as corresponding to the query image 151.

#11モデル画像161乃至#14モデル画像164は、それぞれ、相似な部分と相似ではない部分を有している。図9に、#11モデル画像161乃至#14モデル画像164のそれぞれの相関画像を示す。図9の相関画像においては、相関の大きな部分が白く、相関の少ない部分が黒く表示されている。   Each of the # 11 model image 161 to # 14 model image 164 has a similar portion and a portion that is not similar. FIG. 9 shows the correlation images of the # 11 model image 161 to the # 14 model image 164, respectively. In the correlation image of FIG. 9, a portion with a large correlation is displayed in white and a portion with a small correlation is displayed in black.

#11モデル画像161と#12モデル画像162とで異なる部分は、右上のハートマークと、右下の三日月マークの部分である。#11モデル画像161と#13モデル画像163とで異なる部分は、右上のハートマークの部分と、左下の否妻マークの部分である。#11モデル画像161と#14モデル画像164とで異なる部分は、左下の否妻マークの部分である。そして、#12モデル画像162と#13モデル画像163とで異なる部分は、右下の三日月マークの部分と、左下の否妻マークの部分である。#12モデル画像162と#14モデル画像164とで異なる部分は、右上のハートマークと、右下の三日月マークの部分と、左下の否妻マークの部分である。そして、#13モデル画像163と#14モデル画像164とで異なる部分は、右上のハートマークの部分である。   The difference between the # 11 model image 161 and the # 12 model image 162 is the upper right heart mark and the lower right crescent moon mark. The difference between the # 11 model image 161 and the # 13 model image 163 is a heart mark portion at the upper right and a widow mark portion at the lower left. A different part between the # 11 model image 161 and the # 14 model image 164 is a part of the wife mark at the lower left. The difference between the # 12 model image 162 and the # 13 model image 163 is a crescent moon mark portion in the lower right and a widow mark portion in the lower left. The difference between the # 12 model image 162 and the # 14 model image 164 is a heart mark on the upper right, a crescent moon mark on the lower right, and a widow mark on the lower left. The difference between the # 13 model image 163 and the # 14 model image 164 is a heart mark portion at the upper right.

類似モデル画像である#11モデル画像161乃至#14モデル画像164において、左上のスマイルマークは、いずれにおいても同一のため、識別特徴点にはならない。これに対して、マークのない部分は、モデル画像としての特徴が少ない部分であるので、マークのない部分においては、本当に対応するクエリ画像とモデル画像とのそれぞれにおいて、特徴点が抽出されないはずである。換言すれば、マークのない部分においてクエリ画像とモデル画像との特徴量のマッチペアが存在したとき、クエリ画像とモデル画像は類似していないと推定することができる。   In the # 11 model image 161 to # 14 model image 164 that are similar model images, the smile mark at the upper left is the same in all cases, and thus does not become an identification feature point. On the other hand, since the part without the mark is a part with few features as the model image, the feature point should not be extracted in each of the corresponding query image and the model image in the part without the mark. is there. In other words, it can be estimated that the query image and the model image are not similar when there is a matched pair of feature amounts of the query image and the model image in a portion without a mark.

また、#11モデル画像161乃至#14モデル画像164において、左上のスマイルマーク以外でマークが記載されている部分は、モデル画像としての特徴が大きい部分であるので、この部分において、クエリ画像とモデル画像との特徴量のマッチペアが存在したとき、クエリ画像とモデル画像とは類似していると推定することができる。   Also, in the # 11 model image 161 to # 14 model image 164, the portion where the mark is described except for the smile mark at the upper left is a portion having a large feature as a model image. When there is a feature-value match pair with an image, it can be estimated that the query image and the model image are similar.

したがって、識別特徴点選択部61の識別特徴点抽出部79は、図10に示されるように、識別特徴点を、2種類に分類し、図中+で示される部分は、モデル画像とクエリ画像の相関値が高いとき、すなわち、対応する特徴点においてマッチペアがあると、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であるものとし、図中×で示される部分は、モデル画像とクエリ画像の相関値が低いとき、すなわち、対応する特徴点においてマッチペアがないと、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であるものとする。   Therefore, the identification feature point extraction unit 79 of the identification feature point selection unit 61 classifies the identification feature points into two types, as shown in FIG. 10, and the portions indicated by + in the figure are model images and query images. When the correlation value of is high, that is, when there is a match pair at the corresponding feature point, it is assumed that the query image and the model image are identification feature points for performing a positive determination that estimates that they are similar. In the portion indicated by, when the correlation value between the model image and the query image is low, that is, when there is no match pair at the corresponding feature point, a positive determination is made to estimate that the query image and the model image are similar. It is an identification feature point.

図10において、#11モデル画像161の分類された識別特徴点は、識別特徴点181に示され、#12モデル画像162の分類された識別特徴点は、識別特徴点182に示され、#13モデル画像163の分類された識別特徴点は、識別特徴点183に示され、#14モデル画像164の分類された識別特徴点は、識別特徴点184に示される。   In FIG. 10, the classified identification feature point of the # 11 model image 161 is indicated by the identification feature point 181, the classified identification feature point of the # 12 model image 162 is indicated by the identification feature point 182, and # 13 The classified identification feature point of the model image 163 is indicated by the identification feature point 183, and the classified identification feature point of the # 14 model image 164 is indicated by the identification feature point 184.

そして、判定処理部62においては、このように分類された識別特徴点を用いることにより、類似モデル画像における類似部分が異なるような場合であっても、識別するために重要な部分と重要ではない部分を区別して、識別処理を行うことができる。   The determination processing unit 62 uses the identification feature points classified in this way, so that even if the similar parts in the similar model image are different, they are not important and important parts for identification. The identification process can be performed by distinguishing the portions.

すなわち、図10の識別特徴点181乃至184を利用して、識別特徴点における相関値を算出する判定処理部62の識別特徴点比較部99は、#11モデル画像161とクエリ画像との識別特徴点181における相関値は、右下の部分のみポジティブとなり、#12モデル画像162とクエリ画像との識別特徴点182における相関値は、右上の部分のみポジティブとなり、#13モデル画像163とクエリ画像との識別特徴点183における相関値は、左下、右上、右下の部分においてポジティブとなり、#14モデル画像164とクエリ画像との識別特徴点184における相関値は、右下の部分と左下の部分においてポジティブとなることを検出することができる。これにより、クエリ画像151に対応するモデル画像は、#13モデル画像163であると判定される。   That is, the identification feature point comparison unit 99 of the determination processing unit 62 that calculates the correlation value at the identification feature point using the identification feature points 181 to 184 of FIG. 10 performs the identification feature between the # 11 model image 161 and the query image. The correlation value at the point 181 is positive only in the lower right part, and the correlation value at the identification feature point 182 between the # 12 model image 162 and the query image is positive only in the upper right part, and the # 13 model image 163 and the query image The correlation value at the identification feature point 183 is positive at the lower left, upper right, and lower right portions, and the correlation value at the identification feature point 184 between the # 14 model image 164 and the query image is at the lower right portion and the lower left portion. It can be detected that it is positive. Thereby, it is determined that the model image corresponding to the query image 151 is the # 13 model image 163.

次に、識別特徴点を階層的に分類することにより、類似モデル画像を判別する場合について説明する。   Next, a case where similar model images are discriminated by classifying the identification feature points hierarchically will be described.

識別特徴点選択部61の識別特徴点抽出部79は、類似モデル画像を複数の類似モデルに分類し、分類を詳細にしていくことにより、最終的には、類似モデルを個々に判別することができるように、階層構造化する。ここでは、図11に示されるように、図8の#11モデル画像161乃至#14モデル画像164を2階層で分類する。1階層目が4つの類似モデルを2つの類似モデル群に識別する類似モデル識別レイヤ1であり、2階層目が類似モデルを個々の類似モデル画像に判別する類似モデル判別レイヤ2である。なお、類似モデル数が多い場合、類似モデル識別レイヤの層の数が多くなる。   The identification feature point extraction unit 79 of the identification feature point selection unit 61 classifies the similar model images into a plurality of similar models, and by making the classification detailed, finally, the similar models can be individually identified. Make it hierarchical so that you can. Here, as shown in FIG. 11, the # 11 model image 161 to # 14 model image 164 of FIG. 8 are classified into two layers. The first layer is a similar model identification layer 1 that identifies four similar models into two similar model groups, and the second layer is a similar model discrimination layer 2 that discriminates similar models into individual similar model images. When the number of similar models is large, the number of similar model identification layers increases.

まず、識別特徴点選択部61の識別特徴点抽出部79は、あるモデル群同士を識別するのに適した識別特徴点群を選択し、レイヤ1モデル識別特徴点として保持する。例えば、図8の#11モデル画像161乃至#14モデル画像164を、#11モデル画像161および#14モデル画像164と、#12モデル画像162と#13モデル画像163との2つのモデル群に分ける。この2つのモデル群を識別するのに最も適しているのは、右上のハートマークの有無であるから、レイヤ1モデル識別特徴点として右下のハートマークの部分が設定される。そして、識別特徴点比較部99においては、#12モデル画像162または#13モデル画像163とクエリ画像とにおいて、この右上の位置の相関価が高いとき、すなわち、マッチペアがあるとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。そして、識別特徴点比較部99においては、#11モデル画像161または#14モデル画像164とクエリ画像とにおいて、この右上の位置の相関価が低いとき、すなわち、マッチペアがないとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。   First, the identification feature point extraction unit 79 of the identification feature point selection unit 61 selects an identification feature point group suitable for identifying a certain model group, and holds it as a layer 1 model identification feature point. For example, the # 11 model image 161 to # 14 model image 164 of FIG. 8 are divided into two model groups, # 11 model image 161 and # 14 model image 164, and # 12 model image 162 and # 13 model image 163. . The most suitable for identifying the two model groups is the presence or absence of the upper right heart mark, and therefore the lower right heart mark portion is set as the layer 1 model identification feature point. Then, in the identification feature point comparison unit 99, when the # 12 model image 162 or # 13 model image 163 and the query image have a high correlation value at the upper right position, that is, when there is a match pair, the query image and the model A positive determination is made to estimate that the images are similar. Then, in the identification feature point comparison unit 99, when the correlation value at the upper right position is low in the # 11 model image 161 or # 14 model image 164 and the query image, that is, when there is no match pair, the query image and model A positive determination is made to estimate that the images are similar.

そして、識別特徴点選択部61の識別特徴点抽出部79は、それぞれのモデル群に含まれる複数のモデル画像を、更に区別可能な識別特徴点を選択し、レイヤ2モデル識別特徴点として保持する。#11モデル画像161と#14モデル画像164とを識別し、かつ、#12モデル画像162と#13モデル画像163とを識別するのに最も適しているのは、左下の稲妻マークの有無であるので、レイヤ2モデル識別特徴点として左下の稲妻マークの部分が設定される。そして、識別特徴点比較部99においては、#11モデル画像161または#12モデル画像162とクエリ画像とにおいて、この右下の位置の相関価が高いとき、すなわち、マッチペアがあるとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。そして、識別特徴点比較部99においては、#13モデル画像163または#14モデル画像164とクエリ画像とにおいて、この右下の位置の相関価が低いとき、すなわち、マッチペアがないとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。   Then, the identification feature point extraction unit 79 of the identification feature point selection unit 61 selects a further distinguishable identification feature point from the plurality of model images included in each model group, and holds it as a layer 2 model identification feature point. . The most suitable for identifying the # 11 model image 161 and the # 14 model image 164 and for identifying the # 12 model image 162 and the # 13 model image 163 is the presence or absence of the lightning mark at the lower left. Therefore, the lightning bolt mark at the lower left is set as the layer 2 model identification feature point. Then, in the identification feature point comparison unit 99, when the correlation value at the lower right position is high in the # 11 model image 161 or the # 12 model image 162 and the query image, that is, when there is a match pair, A positive determination is made to estimate that the model images are similar. Then, in the identification feature point comparison unit 99, when the correlation value at the lower right position is low in the # 13 model image 163 or # 14 model image 164 and the query image, that is, when there is no match pair, the query image A positive determination is made to estimate that the model images are similar.

図8の#11モデル画像161乃至#14モデル画像164において、図11に示される階層構造によるレイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点とは、図12に示されるようになる。図12においても、図中+で示される部分は、モデル画像とクエリ画像の相関値が高いとき、すなわち、対応する特徴点においてマッチペアがあると、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であり、図中×で示される部分は、モデル画像とクエリ画像の相関値が低いとき、すなわち、対応する特徴点においてマッチペアがないと、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点である。   In the # 11 model image 161 to # 14 model image 164 of FIG. 8, the layer 1 model identification feature points and the layer 2 model identification feature points having the hierarchical structure shown in FIG. 11 are as shown in FIG. Also in FIG. 12, the portion indicated by + in the figure is estimated that the query image and the model image are similar when the correlation value between the model image and the query image is high, that is, when there is a match pair at the corresponding feature point. Are identified feature points that perform positive determination, and a portion indicated by x in the figure indicates that when the correlation value between the model image and the query image is low, that is, when there is no match pair at the corresponding feature point, The model image is an identification feature point for performing a positive determination that is estimated to be similar.

図12のレイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点を用いて識別特徴点における相関値を算出する判定処理部62の識別特徴点比較部99は、#11モデル画像161においては、いずれの識別特徴点においてもポジティブ判定ではなく、#12モデル画像162においては、レイヤ1モデル識別特徴点のみポジティブとなり、#13モデル画像163においては、レイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点ともポジティブとなり、#14モデル画像164おいては、レイヤ2モデル識別特徴点においてポジティブとなることを算出することができる。すなわち、識別特徴点比較部99は、レイヤ1で、#11モデル画像161と#14モデル画像164はクエリ画像に対応しないことを検出することができ、レイヤ2で、#12モデル画像162はクエリ画像に対応しないことを検出することができる。これにより、クエリ画像151に対応するモデル画像は、#13モデル画像163であると判定される。   The identification feature point comparison unit 99 of the determination processing unit 62 that calculates the correlation value at the identification feature point using the layer 1 model identification feature point and the layer 2 model identification feature point of FIG. In the # 12 model image 162, only the layer 1 model identification feature point is positive, and in the # 13 model image 163, the layer 1 model identification feature point and the layer 2 model identification feature point are not positive. Both are positive, and in the # 14 model image 164, it can be calculated that the layer 2 model identification feature point is positive. That is, the identification feature point comparison unit 99 can detect that the # 11 model image 161 and the # 14 model image 164 do not correspond to the query image in the layer 1, and the # 12 model image 162 in the layer 2 It can be detected that the image does not correspond. Thereby, it is determined that the model image corresponding to the query image 151 is the # 13 model image 163.

このようにして、モデル画像間の類似の形態が階層構造で表されるとき、または、モデル画像間の類似部分か複数個所あるときであっても、類似のモデル画像における識別特徴点の抽出を、類似部分を区別して行ったり、階層化させることにより、確実に実行することが可能となる。   In this way, identification feature points in similar model images can be extracted even when similar forms between model images are represented in a hierarchical structure, or even when there are multiple similar parts between model images. It is possible to reliably execute by distinguishing similar parts or by making them hierarchical.

次に、図13を参照して、認識装置51の識別特徴点選択部61が実行する処理の第1の例である、識別特徴点抽出処理1について説明する。   Next, with reference to FIG. 13, an identification feature point extraction process 1 that is a first example of a process executed by the identification feature point selection unit 61 of the recognition device 51 will be described.

ステップS11において、モデル画像取得部71は、識別処理のためのモデル画像を取得し、モデル画像辞書記憶部73および特徴量抽出部72に供給する。   In step S <b> 11, the model image acquisition unit 71 acquires a model image for identification processing and supplies the model image to the model image dictionary storage unit 73 and the feature amount extraction unit 72.

ステップS12において、特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴量抽出部72は、抽出した局所特徴量の情報を、モデル画像辞書記憶部73、マッチング処理部74、および、アウトライヤ除去部75に供給する。   In step S12, the feature amount extraction unit 72 extracts feature points from each model image supplied from the model image acquisition unit 71, extracts local feature amounts from around the feature points, and describes them as vectors. The feature quantity extraction unit 72 supplies the extracted local feature quantity information to the model image dictionary storage unit 73, the matching processing unit 74, and the outlier removal unit 75.

ステップS13において、モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。モデル画像辞書記憶部73に記憶されたモデル画像とモデル画像に対応する局所特徴量とは、識別特徴点抽出処理1の終了後、判定処理部62のモデル画像辞書記憶部91に供給され、記憶される。   In step S <b> 13, the model image dictionary storage unit 73 stores each model image supplied from the model image acquisition unit 71 and local feature amounts corresponding to each model image supplied from the feature amount extraction unit 72. . The model image stored in the model image dictionary storage unit 73 and the local feature amount corresponding to the model image are supplied to and stored in the model image dictionary storage unit 91 of the determination processing unit 62 after the identification feature point extraction process 1 ends. Is done.

ステップS14において、マッチング処理部74は、特徴量抽出部72から供給された注目モデル画像の局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部74は、注目モデル画像と、注目モデル画像に対して所定数以上のマッチペア数を有する類似モデル画像と、それらのマッチペアの情報を、アウトライヤ除去部75に供給する。   In step S <b> 14, the matching processing unit 74 calculates the local feature amount of the model image of interest supplied from the feature amount extraction unit 72 and the local feature amount of each model image currently stored in the model image dictionary storage unit 73. For example, matching is performed by a technique such as K-NN to obtain a match pair. Then, the matching processing unit 74 supplies the attention model image, the similar model images having the number of match pairs greater than or equal to a predetermined number with respect to the target model image, and information on those match pairs to the outlier removal unit 75.

ステップS15において、アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。アウトライヤ除去部75は、注目モデル画像に対して所定以上のマッチペア数を有する類似するモデル画像の組である類似モデル画像を抽出し、注目モデル画像と、類似モデル画像と、アウトライヤ除去後のマッチペアの情報を、アフィンパラメータ取得部76に供給する。   In step S15, the outlier removal unit 75 removes mismatched pairs that do not satisfy the geometric constraint from the match pairs detected by the matching processing unit 74 using, for example, Hough transform or RANSAC. The outlier removal unit 75 extracts a similar model image that is a set of similar model images having a predetermined number of match pairs or more with respect to the target model image, and extracts the target model image, the similar model image, and the match pair after the outlier removal. Information is supplied to the affine parameter acquisition unit 76.

ステップS16において、アフィンパラメータ取得部76は、残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータを、アフィン変換処理部77に供給する。   In step S <b> 16, the affine parameter acquisition unit 76 obtains affine parameters between the model image of interest and each similar model image from the remaining match pairs, and has a number of match pairs greater than or equal to a predetermined value for the model model of interest and the model image of interest. In addition to the similar model image and the match pair information after outlier removal, the calculated affine parameters are supplied to the affine transformation processing unit 77.

ステップS17において、アフィン変換処理部77は、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。   In step S <b> 17, the affine transformation processing unit 77 transforms the supplied similar model image with affine parameters, and corrects the image so as to be captured in the same size from the imaging direction corresponding to the target model image. The affine transformation processing unit 77 sends the attention model image, the similar model image after affine transformation having a predetermined number or more of match pairs to the attention model image, and the match pair information after outlier removal to the correlation image generation unit 78. Supply.

ステップS18において、相関画像生成部78は、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算して、注目モデル画像と類似モデル画像との相関画像を生成し、相関画像、すなわち、得られた特徴点ごとの相関値を示す情報を、識別特徴点抽出部79に供給する。   In step S18, the correlation image generation unit 78 calculates, for each feature point of the target model image, the correlation value (feature amount distance) of the feature amount with the similar model image after the affine transformation at that position, and A correlation image between the model image and the similar model image is generated, and the correlation image, that is, information indicating the correlation value for each obtained feature point is supplied to the identification feature point extraction unit 79.

ステップS19において、識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像とのモデル識別能力の高い識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給して登録して、処理が終了する。   In step S19, the identification feature point extraction unit 79, based on the correlation value of each feature point of the target model image with the similar model image, the feature point having a correlation value lower than a certain threshold or the correlation value in descending order. Then, a predetermined number of feature points are extracted as identification feature points having a high model identification capability with similar model images, supplied to the identification feature point storage unit 92 of the determination processing unit 62 and registered, and the process ends.

このような処理により、モデル画像の特徴点における特徴量に加えて、モデル画像ごとに、類似モデル画像とのモデル識別能力の高い識別特徴点を求めることができるので、識別特徴点記憶部92に似識別特徴点が登録された判定処理部62は、類似するモデル画像の識別処理を実行することができる。   By such processing, in addition to the feature amount at the feature point of the model image, an identification feature point having a high model identification capability with the similar model image can be obtained for each model image. The determination processing unit 62 in which similar identification feature points are registered can execute identification processing for similar model images.

なお、ステップS19の処理において、識別特徴点抽出部79は、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行ったり、階層化させるようにしてもよい。   In the process of step S19, the identification feature point extraction unit 79 performs the extraction of the identification feature point in the similar model image while distinguishing the similar parts as described with reference to FIGS. Alternatively, it may be hierarchized.

次に、図14を参照して、認識装置51の識別特徴点選択部61が実行する処理の第2の例である、識別特徴点抽出処理2について説明する。   Next, with reference to FIG. 14, an identification feature point extraction process 2 that is a second example of a process executed by the identification feature point selection unit 61 of the recognition apparatus 51 will be described.

図13を用いて説明した識別特徴点抽出処理1は、モデル画像が類似しているか否かにかかわらずモデル画像を順次入力し、モデル画像が1枚入力されるのに対して、識別特徴点抽出のための処理が順次行われるものであるが、それに対して、識別特徴点抽出処理2は、予め類似モデル画像同士の組を生成しておき、その組に含まれる画像の組み合わせのすべての相関の平均などに基いて、識別特徴点を抽出するものである。   In the identification feature point extraction process 1 described with reference to FIG. 13, model images are sequentially input regardless of whether the model images are similar, and one model image is input. In contrast, the extraction feature point extraction process 2 generates a set of similar model images in advance, and all the combinations of images included in the set are extracted. Based on the average of the correlation, etc., the identification feature points are extracted.

ステップS21乃至ステップS25において、図13のステップS11乃至ステップS15と同様の処理が実行される。すなわち、モデル画像取得部71は、識別処理のためのモデル画像を取得し、特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。そして、モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。そして、マッチング処理部74は、注目モデル画像の局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求め、アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。   In steps S21 to S25, processing similar to that in steps S11 to S15 in FIG. 13 is executed. That is, the model image acquisition unit 71 acquires a model image for identification processing, and the feature amount extraction unit 72 extracts a feature point from each model image supplied from the model image acquisition unit 71, and a feature point Extract local features from the surroundings and describe them as vectors. Then, the model image dictionary storage unit 73 stores each model image supplied from the model image acquisition unit 71 and local feature amounts corresponding to each model image supplied from the feature amount extraction unit 72. Then, the matching processing unit 74 matches the local feature amount of the model image of interest with the local feature amount of each model image currently stored in the model image dictionary storage unit 73 by a technique such as K-NN. Then, the match pair is obtained, and the outlier removal unit 75 removes the mismatch pair that does not satisfy the geometric constraint from the match pair detected by the matching processing unit 74 using, for example, Hough transform or RANSAC.

ステップS26において、アウトライヤ除去部75は、識別特徴点抽出処理の対象となる全てのモデル画像のマッチングとアウトライヤの除去処理は終了したか否かを判断する。ステップS26において、全てのモデル画像のマッチングとアウトライヤの除去処理は終了していないと判断された場合、処理は、ステップS21に戻り、それ以降の処理が繰り返される。   In step S <b> 26, the outlier removal unit 75 determines whether the matching of all model images to be subjected to the identification feature point extraction process and the outlier removal process have been completed. If it is determined in step S26 that the matching of all model images and the outlier removal process have not been completed, the process returns to step S21, and the subsequent processes are repeated.

ステップS26において、全てのモデル画像のマッチングとアウトライヤの除去処理は終了したと判断された場合、ステップS27において、アウトライヤ除去部75は、アウトライヤ除去後の残ったマッチペアに基づいて、類似モデル画像の組を生成し、アフィンパラメータに、類似モデル画像の組の画像データと、アウトライヤ除去後のマッチペアとを、アフィンパラメータ取得部76に供給する。   If it is determined in step S26 that the matching of all model images and the outlier removal processing have been completed, in step S27, the outlier removal unit 75 sets a set of similar model images based on the remaining match pairs after the outlier removal. And the image data of the set of similar model images and the match pair after the outlier removal are supplied to the affine parameter acquisition unit 76 as affine parameters.

ステップS28において、アフィンパラメータ取得部76は、類似モデル画像の全ての組み合わせにおいて、アウトライヤ除去後の残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータを、アフィン変換処理部77に供給する。   In step S28, the affine parameter acquisition unit 76 obtains the affine parameters between the attention model image and each similar model image from the remaining match pairs after the outlier removal in all combinations of similar model images, and the attention model image, The calculated affine parameters are supplied to the affine transformation processing unit 77 in addition to the information on the similar model image having the number of match pairs greater than or equal to the predetermined model image and the match pair after the outlier removal.

ステップS29において、アフィン変換処理部77は、類似モデル画像の全ての組み合わせにおいて、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。   In step S29, the affine transformation processing unit 77 transforms the supplied similar model image with affine parameters in all combinations of similar model images, and images captured in the same size from the imaging direction corresponding to the target model image. To correct. The affine transformation processing unit 77 sends the attention model image, the similar model image after affine transformation having a predetermined number or more of match pairs to the attention model image, and the match pair information after outlier removal to the correlation image generation unit 78. Supply.

ステップS30において、相関画像生成部78は、類似モデル画像の全ての組み合わせにおいて、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算して、注目モデル画像と類似モデル画像との相関画像を生成し、その平均を求める。そして、相関画像生成部78は、相関画像の平均値、すなわち、得られた特徴点ごとの相関値の平均値を示す情報を、識別特徴点抽出部79に供給する。   In step S <b> 30, the correlation image generation unit 78 correlates the feature value (feature value) with the similar model image after affine transformation at each position for each feature point of the model image of interest in all combinations of similar model images. (Quantity distance) is calculated, a correlation image between the model image of interest and the similar model image is generated, and an average thereof is obtained. Then, the correlation image generation unit 78 supplies the identification feature point extraction unit 79 with information indicating the average value of the correlation image, that is, the average value of the correlation values for each obtained feature point.

ステップS31において、識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値の平均値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像とのモデル識別能力の高い識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給して登録して、処理が終了する。   In step S <b> 31, the identification feature point extraction unit 79 selects a feature point having a correlation value lower than a certain threshold or a correlation value based on the average value of the correlation values with the similar model image at each feature point of the target model image. A predetermined number of feature points are extracted from the descending order as identification feature points having high model identification capability with similar model images, supplied to the identification feature point storage unit 92 of the determination processing unit 62 and registered, and the processing ends. To do.

このような処理により、モデル画像の特徴点における特徴量に加えて、モデル画像ごとに、類似モデル画像とのモデル識別能力の高い識別特徴点を求めることができるので、識別特徴点記憶部92に似識別特徴点が登録された判定処理部62は、類似するモデル画像の識別処理を実行することができる。   By such processing, in addition to the feature amount at the feature point of the model image, an identification feature point having a high model identification capability with the similar model image can be obtained for each model image. The determination processing unit 62 in which similar identification feature points are registered can execute identification processing for similar model images.

なお、ステップS31の処理においても、識別特徴点抽出部79は、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行ったり、階層化させるようにしてもよい。   Even in the process of step S31, the identification feature point extraction unit 79 performs the extraction of the identification feature points in the similar model images while distinguishing the similar parts as described with reference to FIGS. Or may be hierarchized.

次に、図15のフローチャートを参照して、認識装置51の判定処理部62が実行する識別判定処理について説明する。   Next, the identification determination process executed by the determination processing unit 62 of the recognition device 51 will be described with reference to the flowchart of FIG.

ステップS41において、クエリ画像取得部93は、識別用のクエリ画像を取得する。   In step S41, the query image acquisition unit 93 acquires a query image for identification.

ステップS42において、特徴量抽出部94は、クエリ画像取得部93から供給されたクエリ画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴量抽出部94は、抽出した局所特徴量の情報を、クエリ画像とともに、マッチング処理部95、および、アウトライヤ除去部96に供給する。   In step S42, the feature amount extraction unit 94 extracts feature points from the query image supplied from the query image acquisition unit 93, extracts local feature amounts from around the feature points, and describes them as vectors. The feature quantity extraction unit 94 supplies the extracted local feature quantity information to the matching processing unit 95 and the outlier removal unit 96 together with the query image.

ステップS43において、マッチング処理部95は、特徴量抽出部94から供給された局所特徴量と、モデル画像辞書記憶部91に記憶されているモデル画像に対応する局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部95は、クエリ画像と、クエリ画像に対して所定数以上のマッチペア数を有するモデル画像である類似モデル画像のデータと、それらのマッチペアの情報を、アウトライヤ除去部96に供給する。   In step S43, the matching processing unit 95 uses the local feature amount supplied from the feature amount extracting unit 94 and the local feature amount corresponding to the model image stored in the model image dictionary storage unit 91, for example, K− Matching is done using a technique such as NN to find a match pair. Then, the matching processing unit 95 supplies the query image, the data of the similar model image that is a model image having a predetermined number of match pairs or more with respect to the query image, and information on the match pairs to the outlier removal unit 96. .

ステップS44において、アウトライヤ除去部96は、ハフ変換、または、RANSAC等を用いて、マッチング処理部95により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。   In step S44, the outlier removal unit 96 removes mismatched pairs that do not satisfy the geometric constraint from the match pairs detected by the matching processing unit 95 using Hough transform, RANSAC, or the like.

ステップS45において、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像が存在したか否かを判断する。ステップS45において、一致度が所定の値以上であるモデル画像が存在しなかったと判断された場合、アウトライヤ除去部96は、その判断結果を識別処理部100に供給に供給し、処理は、後述するステップS51に進む。   In step S <b> 45, the outlier removal unit 96 determines whether there is a model image having a matching degree equal to or greater than a predetermined value. If it is determined in step S45 that there is no model image having a matching degree equal to or greater than a predetermined value, the outlier removal unit 96 supplies the determination result to the supply to the identification processing unit 100, and the process will be described later. Proceed to step S51.

ステップS45において、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像が存在したと判断された場合、ステップS46において、アウトライヤ除去部96は、アウトライヤ除去の後に残ったマッチペア数が所定の閾値よりも多いモデル画像が所定数以上抽出されたか否か、換言すれば、類似モデル画像が存在したか否かを判断する。ステップS46において、モデル画像が所定数以上抽出されなかったと判断された場合、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像と、除去されずに残ったマッチペア数を識別処理部100に供給して、処理は、後述するステップS50に進む。   In step S45, when the outlier removal unit 96 determines that there is a model image having a matching degree equal to or greater than a predetermined value, in step S46, the outlier removal unit 96 determines that the number of match pairs remaining after the outlier removal is predetermined. It is determined whether or not a predetermined number or more of model images larger than the threshold value are extracted, in other words, whether or not similar model images exist. When it is determined in step S46 that the predetermined number or more of model images have not been extracted, the outlier removal unit 96 identifies the model image having a matching degree equal to or higher than a predetermined value and the number of match pairs that remain without being removed. The process proceeds to step S50 described later.

ステップS46において、モデル画像が所定数以上抽出されたと判断された場合、ステップS47において、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多い所定数以上のモデル画像、すなわち、類似モデル画像と、クエリ画像と、アウトライヤ除去後のマッチペアの情報を、アフィンパラメータ取得部97に供給する。アフィンパラメータ取得部97は、残ったマッチペアから、クエリ画像とそれぞれの類似モデル画像とのアフィンパラメータを取得し、クエリ画像、アフィンパラメータ、類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、アフィン変換処理部98に供給する。   If it is determined in step S46 that a predetermined number or more of model images have been extracted, in step S47, the outlier removal unit 96 determines that the number of remaining match pairs is equal to or greater than a predetermined number of model images, that is, similar models. Information about the image, the query image, and the match pair after outlier removal is supplied to the affine parameter acquisition unit 97. The affine parameter acquisition unit 97 acquires affine parameters between the query image and each similar model image from the remaining match pairs, and uses the query image, affine parameters, similar model image, and match pair information after outlier removal as affine parameters. The data is supplied to the conversion processing unit 98.

ステップS48において、アフィン変換処理部98は、供給された類似モデル画像をアフィンパラメータで変換し、クエリ画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部98は、クエリ画像、アフィン変換後の類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、識別特徴点比較部99に供給する。   In step S48, the affine transformation processing unit 98 transforms the supplied similar model image with affine parameters, and corrects the image so as to be captured in the same size from the imaging direction corresponding to the query image. The affine transformation processing unit 98 supplies the query image, the similar model image after the affine transformation, and the match pair information after the outlier removal to the identification feature point comparison unit 99.

ステップS49において、識別特徴点比較部99は、識別特徴点記憶部92に記憶されているそれぞれのモデル画像の識別特徴点に基づいて、アフィン変換後の類似モデル画像における識別特徴点を求めてその特徴量を算出するとともに、クエリ画像上の特徴量との識別特徴点における相関値を算出する。   In step S49, the identification feature point comparison unit 99 obtains the identification feature point in the similar model image after the affine transformation based on the identification feature point of each model image stored in the identification feature point storage unit 92. A feature value is calculated, and a correlation value at an identified feature point with a feature value on a query image is calculated.

なお、ステップS19の処理において、識別特徴点抽出部79が、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行うか、または、階層化させていた場合、識別特徴点比較部99は、区別された、または、階層化された、それぞれの識別特徴点にしたがって相関値を算出する。   In the process of step S19, as described with reference to FIGS. 8 to 12, the identification feature point extraction unit 79 performs identification feature point extraction in a similar model image while distinguishing similar parts. Alternatively, when the classification feature points are hierarchized, the identification feature point comparison unit 99 calculates a correlation value according to each of the distinguished or hierarchical identification feature points.

ステップS46において、マッチペア数が所定数以上抽出されなかったと判断された場合、または、ステップS49の処理の終了後、ステップS50において、識別処理部100は、アウトライヤ除去部96から供給されたモデル画像ごとのクエリ画像とのマッチペア数、または、識別特徴点比較部99から供給された類似モデル画像ごとのクエリ画像との識別特徴点における相関値を基に、クエリ画像に対応するモデル画像を識別し、識別結果を識別結果出力部101に出力する。   If it is determined in step S46 that the number of match pairs has not been extracted more than a predetermined number, or after the processing in step S49 is completed, the identification processing unit 100 determines in step S50 each model image supplied from the outlier removal unit 96. The model image corresponding to the query image is identified based on the number of matched pairs with the query image of the image or the correlation value at the identification feature point with the query image for each similar model image supplied from the identification feature point comparison unit 99, The identification result is output to the identification result output unit 101.

ステップS45において、一致度が所定の値以上であるモデル画像が存在しなかったと判断された場合、ステップS51において、識別処理部100は、アウトライヤ除去部96からの通知に基づいて、クエリ画像はいずれのモデル画像とも一致しないと判定し、判定結果を識別結果出力部101に出力する。   If it is determined in step S45 that there is no model image having a matching degree equal to or greater than a predetermined value, in step S51, the identification processing unit 100 determines which query image is based on the notification from the outlier removal unit 96. And the determination result is output to the identification result output unit 101.

ステップS50またはステップS51の処理の終了後、ステップS52において、識別結果出力部101は、識別処理部100から供給された識別結果を、例えば、表示部に表示したり、音声データとして出力したり、または、所定の伝送路を介して出力するか所定の記録媒体に記録させることなどにより、他の装置に出力して、処理が終了される。   After completion of the processing of step S50 or step S51, in step S52, the identification result output unit 101 displays the identification result supplied from the identification processing unit 100, for example, on a display unit, or outputs it as audio data. Alternatively, by outputting via a predetermined transmission path or recording on a predetermined recording medium, the data is output to another device, and the processing is terminated.

このような処理により、例えば、図1に示す画像11乃至画像15がモデル画像として登録され、図4を用いて説明したクエリ画像111が入力された場合でも、クエリ画像にそれぞれ多くの特徴点でマッチングしている画像11乃至画像15のなかから、画像12を識別することが可能となる。   With such a process, for example, even when the images 11 to 15 shown in FIG. 1 are registered as model images and the query image 111 described with reference to FIG. 4 is input, each of the query images has many feature points. The image 12 can be identified from the matching images 11 to 15.

以上説明した処理により、認識装置51は、オクルージョンに強く、ロバストであるという一般物体認識器の特徴を保持したまま、類似したモデルが存在した場合でも、どの類似モデルに最も近いかということを正しく識別することが可能となる。   Through the processing described above, the recognition device 51 correctly determines which similar model is closest to the model even if a similar model exists while maintaining the characteristics of the general object recognizer that is robust to occlusion and robust. It becomes possible to identify.

なお、ここでは、認識装置51は1つの装置であるものとして説明したが、識別特徴点選択部61と判定処理部62とは、それぞれ、異なる1つの装置として構成されていても良い。   Here, although the recognition device 51 has been described as one device, the identification feature point selection unit 61 and the determination processing unit 62 may be configured as different devices.

また、識別特徴点の抽出と、画像の識別処理は連続して行われなくても良く、識別特徴点選択部61と判定処理部62とが、それぞれ、異なる1つの装置として構成され、乖離して設置されていても良いことはいうまでもない。換言すれば、識別特徴点選択部61に対応する装置により生成される識別特徴点が識別特徴点記憶部92に記憶されている判定処理部62に対応する装置は、識別特徴点選択部61に対応する装置と乖離した場所に設置されても単独で画像の識別処理を行うことができる。   Further, the extraction of the identification feature points and the image identification processing do not have to be performed continuously, and the identification feature point selection unit 61 and the determination processing unit 62 are each configured as one different device, and are separated from each other. Needless to say, it may be installed. In other words, the device corresponding to the determination processing unit 62 in which the identification feature points generated by the device corresponding to the identification feature point selection unit 61 are stored in the identification feature point storage unit 92 is transferred to the identification feature point selection unit 61. Even if it is installed at a location deviating from the corresponding device, the image identification processing can be performed independently.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、上述した処理は、図16に示されるようなパーソナルコンピュータ500により実行される。   The series of processes described above can be executed by hardware or can be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium. In this case, the processing described above is executed by a personal computer 500 as shown in FIG.

図16において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。   In FIG. 16, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a storage unit 508 to a RAM (Random Access Memory) 503. Execute. The RAM 503 also appropriately stores data necessary for the CPU 501 to execute various processes.

CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。   The CPU 501, ROM 502, and RAM 503 are connected to each other via an internal bus 504. An input / output interface 505 is also connected to the internal bus 504.

入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。   The input / output interface 505 includes an input unit 506 including a keyboard and a mouse, a display including CRT and LCD, an output unit 507 including a speaker, a storage unit 508 including a hard disk, a modem, a terminal adapter, and the like. A communicator 509 is connected. A communication unit 509 performs communication processing via various networks including a telephone line and CATV.

入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。   A drive 510 is also connected to the input / output interface 505 as necessary, and a removable medium 521 composed of a magnetic disk, an optical disk, a magneto-optical disk, a semiconductor memory, or the like is appropriately mounted, and a computer program read therefrom is It is installed in the storage unit 508 as necessary.

一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、図16に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。   As shown in FIG. 16, this recording medium is not only composed of a package medium consisting of a removable medium 521 on which a program is recorded, which is distributed to provide a program to the user, separately from the computer. These are configured by a hard disk including a ROM 502 storing a program and a storage unit 508 provided to the user in a state of being pre-installed in the apparatus main body.

また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.

なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。   In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.

なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.

類似するモデル画像について説明するための図である。It is a figure for demonstrating a similar model image. 認識装置の構成を示すブロック図である。It is a block diagram which shows the structure of a recognition apparatus. 識別特徴点について説明するための図である。It is a figure for demonstrating an identification feature point. クエリ画像の識別について説明するための図である。It is a figure for demonstrating identification of a query image. テロップへの応用について説明するための図である。It is a figure for demonstrating the application to a telop. テロップへの応用について説明するための図である。It is a figure for demonstrating the application to a telop. テロップへの応用について説明するための図である。It is a figure for demonstrating the application to a telop. 類似点が異なる類似モデル画像の例について説明するための図である。It is a figure for demonstrating the example of the similar model image from which a similar point differs. 類似点が異なる類似モデル画像の例について説明するための図である。It is a figure for demonstrating the example of the similar model image from which a similar point differs. 識別特徴点の分類について説明するための図である。It is a figure for demonstrating the classification | category of an identification feature point. 階層的に類似画像を判別する場合について説明するための図である。It is a figure for demonstrating the case where a similar image is discriminate | determined hierarchically. 階層的に類似画像を判別する場合について説明するための図である。It is a figure for demonstrating the case where a similar image is discriminate | determined hierarchically. 識別特徴点抽出処理1について説明するためのフローチャートである。It is a flowchart for demonstrating the identification feature point extraction process 1. FIG. 識別特徴点抽出処理2について説明するためのフローチャートである。It is a flowchart for demonstrating the identification feature point extraction process 2. FIG. 識別判定処理について説明するためのフローチャートである。It is a flowchart for demonstrating an identification determination process. パーソナルコンピュータの構成を示すブロック図である。It is a block diagram which shows the structure of a personal computer.

符号の説明Explanation of symbols

51 認識装置, 61 識別特徴点選択部, 62 判定処理部, 71 モデル画像取得部, 72特徴量抽出部, 73 モデル画像辞書記憶部, 74 マッチング処理部, 75 アウトライヤ除去部, 76 アフィンパラメータ取得部, 77 アフィン変換処理部, 78 相関画像生成部, 79 識別特徴点抽出部, 91 モデル画像辞書記憶部, 92 識別特徴点記憶部, 93 クエリ画像取得部, 94 特徴量抽出部, 95 マッチング処理部, 96 アウトライヤ除去部, 97 アフィンパラメータ取得部, 98 アフィン変換処理部, 99 識別特徴点比較部, 100 識別処理部, 101 識別結果出力部   DESCRIPTION OF SYMBOLS 51 Recognition apparatus, 61 Identification feature point selection part, 62 Judgment process part, 71 Model image acquisition part, 72 Feature-value extraction part, 73 Model image dictionary memory | storage part, 74 Matching process part, 75 Outlier removal part, 76 Affine parameter acquisition part , 77 affine transformation processing unit, 78 correlation image generation unit, 79 identification feature point extraction unit, 91 model image dictionary storage unit, 92 identification feature point storage unit, 93 query image acquisition unit, 94 feature quantity extraction unit, 95 matching processing unit , 96 Outlier removal unit, 97 Affine parameter acquisition unit, 98 Affine transformation processing unit, 99 Discrimination feature point comparison unit, 100 Discrimination processing unit, 101 Discrimination result output unit

Claims (17)

画像を識別するために利用する情報を生成する情報処理装置において、
複数のモデル画像を取得するモデル画像取得手段と、
前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段と、
前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段と、
前記マッチング手段によるマッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段と
を備える情報処理装置。
In an information processing apparatus that generates information used to identify an image,
Model image acquisition means for acquiring a plurality of model images;
Model image feature quantity extraction means for extracting the feature quantity of the model image acquired by the model image acquisition means;
Matching means for performing matching processing of the feature amount of the model image extracted by the model image feature amount extraction means;
As a result of matching by the matching means, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points having a small correlation with the predetermined model image are represented by the similar model image. An information processing apparatus comprising: an identification feature point extracting unit that extracts as an identification feature point used for identification between the two.
前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含む
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the matching unit includes an outlier removal unit that removes an outlier from a result of the process of matching the feature amount between the model images.
前記類似モデル画像に対して、前記所定のモデル画像に合致するようにアフィン変換を施す第1の変換手段を更に備え、
前記識別特徴点抽出手段は、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出する
請求項1に記載の情報処理装置。
A first conversion unit that performs affine transformation on the similar model image so as to match the predetermined model image;
The information processing apparatus according to claim 1, wherein the identification feature point extraction unit extracts the identification feature point using the similar model image converted by the first conversion unit.
認識画像を取得する認識画像取得手段と、
前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、
前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段と
を更に備える請求項1に記載の情報処理装置。
Recognition image acquisition means for acquiring a recognition image;
A recognized image feature amount extracting unit that extracts a feature amount of the recognized image acquired by the recognized image acquiring unit;
Identification for identifying the similar model image corresponding to the recognition image by obtaining a correlation between the feature amount of the similar model image and the recognition image at the identification feature point extracted by the identification feature point extraction unit The information processing apparatus according to claim 1, further comprising: means.
前記類似モデル画像を、前記認識画像に合致するようにアフィン変換を行う第2の変換手段を更に備え、
前記識別手段は、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別する
請求項4に記載の情報処理装置。
A second conversion means for performing an affine transformation on the similar model image so as to match the recognition image;
The information processing apparatus according to claim 4, wherein the identification unit identifies the similar model image corresponding to the recognition image using the similar model image converted by the second conversion unit.
前記識別特徴点抽出手段により抽出される前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類される
請求項1に記載の情報処理装置。
The identification feature point extracted by the identification feature point extracting means is a first identification feature point that is identified as a corresponding similar model image as the number of matches increases, and a similar model image that corresponds as the number of matches decreases. The information processing device according to claim 1, wherein the information processing device is classified into two identification feature points identified as being.
前記識別特徴点抽出手段は、前記識別特徴点を階層的に抽出する
請求項1に記載の情報処理装置。
The information processing apparatus according to claim 1, wherein the identification feature point extraction unit extracts the identification feature points hierarchically.
画像を識別するために利用する情報を生成する情報処理装置の情報処理方法において、
複数のモデル画像を取得し、
取得された前記モデル画像の特徴量を抽出し、
抽出された前記モデル画像の前記特徴量のマッチング処理を行い、
マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する
ステップを含む情報処理方法。
In an information processing method of an information processing apparatus that generates information used to identify an image,
Acquire multiple model images,
Extracting the feature quantity of the acquired model image,
Perform the matching process of the feature amount of the extracted model image,
As a result of matching, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are identified between the similar model images. An information processing method including a step of extracting as identification feature points to be used.
画像を識別するために利用する情報を生成する処理をコンピュータに実行させるためのプログラムであって、
複数のモデル画像を取得し、
取得された前記モデル画像の特徴量を抽出し、
抽出された前記モデル画像の前記特徴量のマッチング処理を行い、
マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する
ステップを含む処理をコンピュータに実行させるプログラム。
A program for causing a computer to execute processing for generating information used to identify an image,
Acquire multiple model images,
Extracting the feature quantity of the acquired model image,
Perform the matching process of the feature amount of the extracted model image,
As a result of matching, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are identified between the similar model images. A program that causes a computer to execute processing including a step of extracting as identification feature points to be used.
複数のモデル画像および前記モデル画像の特徴量を記憶し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置において、
前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段と、
前記認識画像を取得する認識画像取得手段と、
前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、
前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段と
を備える画像識別装置。
In an image identification device that stores a plurality of model images and feature amounts of the model images, receives an input of a recognition image, and identifies the model image corresponding to the recognition image,
Among the model images, in a similar model image that is a plurality of model images in which a predetermined number or more of the feature quantities match with any of the other model images, feature points with little correlation between the similar model images Storage means for storing an identification feature point;
Recognition image acquisition means for acquiring the recognition image;
A recognized image feature amount extracting unit that extracts a feature amount of the recognized image acquired by the recognized image acquiring unit;
An identification unit for identifying the similar model image corresponding to the recognition image by obtaining a correlation between feature quantities of the similar model image and the recognition image at the identification feature point stored by the storage unit. Image identification device.
前記類似モデル画像に対して、前記認識画像に合致するようにアフィン変換を施す変換手段を更に備え、
前記識別手段は、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別する
請求項10に記載の画像識別装置。
Further comprising conversion means for performing affine transformation on the similar model image so as to match the recognition image,
The image identification device according to claim 10, wherein the identification unit identifies the similar model image corresponding to the recognition image using the similar model image converted by the conversion unit.
前記認識画像取得手段により取得された前記認識画像と記憶されている前記モデル画像との特徴量のマッチング処理を行うマッチング手段を更に備え、
前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段は、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
請求項10に記載の画像識別装置。
The image processing apparatus further includes a matching unit that performs a feature amount matching process between the recognized image acquired by the recognized image acquiring unit and the stored model image.
As a result of the matching by the matching unit, when the number of model images in which the recognition image and the feature quantity equal to or greater than a predetermined threshold match is greater than or equal to a predetermined number, the identification unit The similar model image corresponding to the recognized image is identified by obtaining a correlation between the similar model image and a feature amount of the recognized image at the identification feature point stored by the storage unit. The image identification device described in 1.
前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含む
請求項12に記載の画像識別装置。
The image identification device according to claim 12, wherein the matching unit includes an outlier removal unit that removes an outlier from the result of the matching processing of the feature amount between the model images.
前記記憶手段により記憶された前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類される
請求項10に記載の情報処理装置。
The identification feature point stored by the storage means is a first identification feature point identified as a corresponding similar model image as the number of matches increases, and a corresponding similar model image as the number of matches decreases. The information processing apparatus according to claim 10, wherein the information processing apparatus is classified into two identification feature points to be identified.
前記記憶手段により記憶された前記識別特徴点は、階層構造を有している
請求項10に記載の情報処理装置。
The information processing apparatus according to claim 10, wherein the identification feature points stored by the storage unit have a hierarchical structure.
複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部とを有し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置の画像識別方法において、
前記認識画像を取得し、
取得された前記認識画像の特徴量を抽出し、
前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
ステップを含む画像識別方法。
A first storage unit that stores a plurality of model images and feature amounts of the model images; and a plurality of the feature images that match a predetermined number or more of the feature amounts with any of the other model images of the model images A similar model image that is a model image, and a second storage unit that stores identification feature points that are feature points with little correlation between the similar model images, and receives input of a recognition image and corresponds to the recognition image In the image identification method of the image identification device for identifying the model image to be performed,
Obtaining the recognition image;
Extracting the feature quantity of the acquired recognition image;
An image identification method including the step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature quantities of the similar model image and the recognized image at the identified feature point.
複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部に記憶されている情報を用いて、入力された認識画像に対応する前記モデル画像を識別する処理をコンピュータに実行させるプログラムであって、
前記認識画像を取得し、
取得された前記認識画像の特徴量を抽出し、
前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
ステップを含む処理をコンピュータに実行させるプログラム。
A first storage unit that stores a plurality of model images and feature amounts of the model images; and a plurality of the feature images that match a predetermined number or more of the feature amounts with any of the other model images of the model images Corresponding to an input recognition image using information stored in a second storage unit that stores identification feature points that are feature points having little correlation between the similar model images in a similar model image that is a model image A program for causing a computer to execute processing for identifying the model image to be performed,
Obtaining the recognition image;
Extracting the feature quantity of the acquired recognition image;
A program that causes a computer to execute a process including a step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature amounts of the similar model image and the recognized image at the identified feature point.
JP2007285164A 2007-11-01 2007-11-01 Image identification apparatus, image identification method, and program Expired - Fee Related JP5018404B2 (en)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2007285164A JP5018404B2 (en) 2007-11-01 2007-11-01 Image identification apparatus, image identification method, and program
CN2008101683880A CN101425144B (en) 2007-11-01 2008-10-30 Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program
US12/261,190 US8374437B2 (en) 2007-11-01 2008-10-30 Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007285164A JP5018404B2 (en) 2007-11-01 2007-11-01 Image identification apparatus, image identification method, and program

Publications (3)

Publication Number Publication Date
JP2009116385A true JP2009116385A (en) 2009-05-28
JP2009116385A5 JP2009116385A5 (en) 2010-11-04
JP5018404B2 JP5018404B2 (en) 2012-09-05

Family

ID=40615748

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007285164A Expired - Fee Related JP5018404B2 (en) 2007-11-01 2007-11-01 Image identification apparatus, image identification method, and program

Country Status (3)

Country Link
US (1) US8374437B2 (en)
JP (1) JP5018404B2 (en)
CN (1) CN101425144B (en)

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008507A (en) * 2009-06-25 2011-01-13 Kddi Corp Image retrieval method and system
WO2012014403A1 (en) * 2010-07-30 2012-02-02 パナソニック株式会社 Detection device and method for transition area in space
JP2013008093A (en) * 2011-06-22 2013-01-10 Canon Inc Image recognition device, image recognition method and program
WO2014030400A1 (en) * 2012-08-23 2014-02-27 日本電気株式会社 Object discrimination device, object discrimination method, and program
JP2014120156A (en) * 2013-11-12 2014-06-30 Team Lab Inc Medicine recognition device, medicine recognition method, and medicine recognition program
WO2014103297A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Object identification device, method, and storage medium
KR101528017B1 (en) * 2010-03-11 2015-06-10 퀄컴 인코포레이티드 Image feature detection based on application of multiple feature detectors
EP2919163A2 (en) 2014-03-14 2015-09-16 Omron Corporation Image processing device, image processing method, and image processing program
JP2016014914A (en) * 2014-06-30 2016-01-28 キヤノン株式会社 Image processor, image processing method and program
JP2016038790A (en) * 2014-08-08 2016-03-22 Kddi株式会社 Image processor and image feature detection method thereof, program and device
JP2016110477A (en) * 2014-12-09 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 Information processor, information processing method, and program
JP2016541052A (en) * 2013-11-14 2016-12-28 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa Image analysis to certify products
US10055670B2 (en) 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
US11507780B2 (en) 2018-03-05 2022-11-22 Nec Corporation Image analysis device, image analysis method, and image analysis program

Families Citing this family (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5018404B2 (en) * 2007-11-01 2012-09-05 ソニー株式会社 Image identification apparatus, image identification method, and program
US20110103965A1 (en) * 2009-10-30 2011-05-05 General Electric Company Wind turbine blades
CN101839722A (en) * 2010-05-06 2010-09-22 南京航空航天大学 Method for automatically recognizing target at medium and low altitudes and positioning carrier with high accuracy
ES2384928B1 (en) * 2010-06-25 2013-05-20 Telefónica, S.A. METHOD AND SYSTEM FOR THE QUICK AND ROBUST IDENTIFICATION OF SPECIFIC PRODUCTS IN IMAGES.
CN103548036B (en) * 2011-05-17 2014-10-22 松下电器产业株式会社 Character string extraction method and character string extraction device
JP6098065B2 (en) * 2011-09-13 2017-03-22 株式会社リコー Image inspection apparatus, image inspection method, and program
JP2013156722A (en) * 2012-01-27 2013-08-15 Sony Corp Image processing device, image processing method, learning device, learning method and program
US9066200B1 (en) * 2012-05-10 2015-06-23 Longsand Limited User-generated content in a virtual reality environment
US9430876B1 (en) * 2012-05-10 2016-08-30 Aurasma Limited Intelligent method of determining trigger items in augmented reality environments
WO2014169238A1 (en) * 2013-04-11 2014-10-16 Digimarc Corporation Methods for object recognition and related arrangements
WO2014178241A1 (en) * 2013-05-02 2014-11-06 コニカミノルタ株式会社 Image processing device, image processing method, and image processing program
CN105659287B (en) 2013-08-28 2018-08-17 株式会社理光 Image processing apparatus, image processing method and imaging system
US10210427B2 (en) * 2014-07-09 2019-02-19 Slyce Acquisition Inc. Systems, methods, and devices for image matching and object recognition in images
CN106354735A (en) * 2015-07-22 2017-01-25 杭州海康威视数字技术股份有限公司 Image target searching method and device
CN105956022B (en) * 2016-04-22 2021-04-16 腾讯科技(深圳)有限公司 Electronic mirror image processing method and device, and image processing method and device
US10121237B1 (en) * 2017-04-17 2018-11-06 Rohr, Inc. Component inspection method
MX2019012706A (en) 2017-04-24 2019-12-16 Patek Philippe Sa Geneve Method for identifying a timepiece.
CN107480587B (en) * 2017-07-06 2020-12-08 创新先进技术有限公司 Model configuration and image recognition method and device
CN110580488B (en) * 2018-06-08 2022-04-01 中南大学 Multi-working-condition industrial monitoring method, device, equipment and medium based on dictionary learning

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01102688A (en) * 1987-10-15 1989-04-20 Nec Corp Pattern recognition system
JP2000123186A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2002183667A (en) * 2000-12-12 2002-06-28 Ricoh Co Ltd Character-recognizing device and recording medium
JP2004185264A (en) * 2002-12-03 2004-07-02 Canon Inc Character recognition method
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2005196678A (en) * 2004-01-09 2005-07-21 Neucore Technol Inc Template matching method, and objective image area extracting device
JP2006190201A (en) * 2005-01-07 2006-07-20 Sony Corp Image processing system, learning device, method and program
JP2006252272A (en) * 2005-03-11 2006-09-21 Casio Comput Co Ltd Image identification device, image identification processing program, image identification processing method, and data structure of registerd image data

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6453069B1 (en) * 1996-11-20 2002-09-17 Canon Kabushiki Kaisha Method of extracting image from input image using reference image
US7417645B2 (en) * 2003-03-27 2008-08-26 Microsoft Corporation Markup language and object model for vector graphics
WO2005059811A1 (en) * 2003-12-16 2005-06-30 Canon Kabushiki Kaisha Pattern identification method, apparatus, and program
US8050491B2 (en) * 2003-12-17 2011-11-01 United Technologies Corporation CAD modeling system and method
CA2455359C (en) * 2004-01-16 2013-01-08 Geotango International Corp. System, computer program and method for 3d object measurement, modeling and mapping from single imagery
JP2005210526A (en) * 2004-01-23 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus, method, and program, image pickup device, and image data outputting method and program
US7706603B2 (en) * 2005-04-19 2010-04-27 Siemens Corporation Fast object detection for augmented reality systems
JP4653606B2 (en) * 2005-05-23 2011-03-16 株式会社東芝 Image recognition apparatus, method and program
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US8254690B2 (en) * 2007-10-19 2012-08-28 Sony Corporation Information processing apparatus, information processing method, and program
JP5018404B2 (en) * 2007-11-01 2012-09-05 ソニー株式会社 Image identification apparatus, image identification method, and program

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01102688A (en) * 1987-10-15 1989-04-20 Nec Corp Pattern recognition system
JP2000123186A (en) * 1998-10-14 2000-04-28 Canon Inc Object recognizing device
JP2002183667A (en) * 2000-12-12 2002-06-28 Ricoh Co Ltd Character-recognizing device and recording medium
JP2004185264A (en) * 2002-12-03 2004-07-02 Canon Inc Character recognition method
JP2004326693A (en) * 2003-04-28 2004-11-18 Sony Corp Image recognition device and method as well as robot device
JP2005196678A (en) * 2004-01-09 2005-07-21 Neucore Technol Inc Template matching method, and objective image area extracting device
JP2006190201A (en) * 2005-01-07 2006-07-20 Sony Corp Image processing system, learning device, method and program
JP2006252272A (en) * 2005-03-11 2006-09-21 Casio Comput Co Ltd Image identification device, image identification processing program, image identification processing method, and data structure of registerd image data

Cited By (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011008507A (en) * 2009-06-25 2011-01-13 Kddi Corp Image retrieval method and system
KR101528017B1 (en) * 2010-03-11 2015-06-10 퀄컴 인코포레이티드 Image feature detection based on application of multiple feature detectors
WO2012014403A1 (en) * 2010-07-30 2012-02-02 パナソニック株式会社 Detection device and method for transition area in space
US9064171B2 (en) 2010-07-30 2015-06-23 Panasonic Intellectual Property Management Co., Ltd. Detection device and method for transition area in space
US9002115B2 (en) 2011-06-22 2015-04-07 Canon Kabushiki Kaisha Dictionary data registration apparatus for image recognition, method therefor, and program
JP2013008093A (en) * 2011-06-22 2013-01-10 Canon Inc Image recognition device, image recognition method and program
WO2014030400A1 (en) * 2012-08-23 2014-02-27 日本電気株式会社 Object discrimination device, object discrimination method, and program
US9679221B2 (en) 2012-08-23 2017-06-13 Nec Corporation Object identification apparatus, object identification method, and program
JPWO2014030400A1 (en) * 2012-08-23 2016-07-28 日本電気株式会社 Object identification device, object identification method, and program
WO2014103297A1 (en) * 2012-12-28 2014-07-03 日本電気株式会社 Object identification device, method, and storage medium
US9633278B2 (en) 2012-12-28 2017-04-25 Nec Corporation Object identification device, method, and storage medium
JPWO2014103297A1 (en) * 2012-12-28 2017-01-12 日本電気株式会社 Object identification device, method and program
JP2014120156A (en) * 2013-11-12 2014-06-30 Team Lab Inc Medicine recognition device, medicine recognition method, and medicine recognition program
JP2016541052A (en) * 2013-11-14 2016-12-28 シクパ ホルディング ソシエテ アノニムSicpa Holding Sa Image analysis to certify products
US9600893B2 (en) 2014-03-14 2017-03-21 Omron Corporation Image processing device, method, and medium for discriminating a type of input image using non-common regions
JP2015176272A (en) * 2014-03-14 2015-10-05 オムロン株式会社 Image processor, image processing method, and image processing program
EP2919163A2 (en) 2014-03-14 2015-09-16 Omron Corporation Image processing device, image processing method, and image processing program
US10055670B2 (en) 2014-03-14 2018-08-21 Omron Corporation Image recognition device, image sensor, and image recognition method using feature
JP2016014914A (en) * 2014-06-30 2016-01-28 キヤノン株式会社 Image processor, image processing method and program
JP2016038790A (en) * 2014-08-08 2016-03-22 Kddi株式会社 Image processor and image feature detection method thereof, program and device
JP2016110477A (en) * 2014-12-09 2016-06-20 エヌ・ティ・ティ・コムウェア株式会社 Information processor, information processing method, and program
US11507780B2 (en) 2018-03-05 2022-11-22 Nec Corporation Image analysis device, image analysis method, and image analysis program

Also Published As

Publication number Publication date
CN101425144B (en) 2012-05-23
US20090141984A1 (en) 2009-06-04
CN101425144A (en) 2009-05-06
US8374437B2 (en) 2013-02-12
JP5018404B2 (en) 2012-09-05

Similar Documents

Publication Publication Date Title
JP5018404B2 (en) Image identification apparatus, image identification method, and program
Meenpal et al. Facial mask detection using semantic segmentation
EP1693782B1 (en) Method for facial features detection
US8934724B2 (en) Image recognition device, image recognizing method, storage medium that stores computer program for image recognition
JP7058941B2 (en) Dictionary generator, dictionary generation method, and program
US20130287256A1 (en) Method and system for real time image recognition on a mobile device
Parde et al. Face and image representation in deep CNN features
Ke et al. Image recapture detection using multiple features
Tong et al. Learning no-reference quality metric by examples
Al-Naser et al. Reconstruction of occluded facial images using asymmetrical principal component analysis
WO2022103684A1 (en) Face-aware person re-identification system
KR20130120175A (en) Apparatus, method and computer readable recording medium for generating a caricature automatically
JP2018124689A (en) Moving body detection device, moving body detection system and moving body detection method
CN106503112B (en) Video retrieval method and device
CN106709915B (en) Image resampling operation detection method
Parde et al. Deep convolutional neural network features and the original image
JP5199349B2 (en) High performance image identification
US20210142064A1 (en) Image processing apparatus, method of processing image, and storage medium
CN107704864B (en) Salient object detection method based on image object semantic detection
US10026185B2 (en) Image processing device, non-transitory computer readable medium, and method for image alignment
JP5848665B2 (en) Moving object motion vector detection apparatus, moving object motion vector detection method, and program
CN113763224A (en) Image processing method and device
CN106845540B (en) Image resampling operation interpolation type identification method
JP5979008B2 (en) Image processing apparatus, image processing method, and program
JP2002117409A (en) Image processing method and device thereof

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100915

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100915

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111027

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111117

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120515

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120528

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150622

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees