JP2009116385A - Information processor, information processing method, image identification device, image identification method, and program - Google Patents
Information processor, information processing method, image identification device, image identification method, and program Download PDFInfo
- Publication number
- JP2009116385A JP2009116385A JP2007285164A JP2007285164A JP2009116385A JP 2009116385 A JP2009116385 A JP 2009116385A JP 2007285164 A JP2007285164 A JP 2007285164A JP 2007285164 A JP2007285164 A JP 2007285164A JP 2009116385 A JP2009116385 A JP 2009116385A
- Authority
- JP
- Japan
- Prior art keywords
- image
- model
- identification
- model image
- images
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/74—Image or video pattern matching; Proximity measures in feature spaces
- G06V10/75—Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
- G06V10/757—Matching configurations of points or features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/21—Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
- G06F18/211—Selection of the most significant subset of features
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/77—Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
- G06V10/771—Feature selection, e.g. selecting representative features from a multi-dimensional feature space
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- General Physics & Mathematics (AREA)
- Artificial Intelligence (AREA)
- Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Databases & Information Systems (AREA)
- Data Mining & Analysis (AREA)
- Software Systems (AREA)
- General Health & Medical Sciences (AREA)
- Computing Systems (AREA)
- Health & Medical Sciences (AREA)
- Multimedia (AREA)
- Medical Informatics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Bioinformatics & Computational Biology (AREA)
- Evolutionary Biology (AREA)
- General Engineering & Computer Science (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラムに関し、特に、画像を識別する処理を行う場合に用いて好適な、情報処理装置および情報処理方法、画像識別装置および画像識別方法、並びに、プログラムに関する。 The present invention relates to an information processing device, an information processing method, an image identification device, an image identification method, and a program, and in particular, an information processing device, an information processing method, and an image suitable for performing an image identification process. The present invention relates to an identification device, an image identification method, and a program.
認識のためにモデル画像を予め登録し、そのモデル画像と、認識処理のために入力されたクエリ画像のそれぞれから特徴点を抽出し、その周辺の局所特徴量同士をマッチングしたのち、幾何学拘束を用いてミスマッチを除去し、認識を行うものとして、局所特徴量を用いたテクスチャベースの一般物体認識手法がある(例えば、特許文献1参照)。 Pre-register model images for recognition, extract feature points from each of the model images and query images input for recognition processing, match local feature quantities around them, and then geometric constraints A texture-based general object recognition method using local features is known as a method for removing mismatches by using a local feature (see, for example, Patent Document 1).
この技術は、モデル画像およびクエリ画像から特徴点を抽出し、その周辺の局所特徴量を記述し、特徴量同士のマッチングを行い、ハフ変換またはRANSAC等によってアウトライヤ(ミスマッチ)除去を行った後のマッチングペア数で、クエリ画像内の物体の識別をするという手法であった。 This technology extracts feature points from model images and query images, describes local feature quantities around them, matches feature quantities, and removes outliers (mismatches) by Hough transform or RANSAC. This is a method of identifying an object in a query image by the number of matching pairs.
しかしながら、モデル同士の一部のテクスチャが同じであるときなど、複数のモデル画像同士が類似している場合、上述した特許文献1などのように、マッチペア数でクエリ画像内の物体の一致不一致を判断する一般的な物体認識手法を使用すると、閾値を上回るマッチペアが複数のモデル画像で観測され、複数のモデルに対して「正解」と認識してしまうという可能性がある。
However, when a plurality of model images are similar, such as when some textures of the models are the same, the object in the query image is not matched by the number of match pairs as in
本発明はこのような状況に鑑みてなされたものであり、複数のモデル画像同士が類似している場合であっても、正しく物体を認識することができるようにするものである。 The present invention has been made in view of such a situation, and makes it possible to correctly recognize an object even when a plurality of model images are similar to each other.
本発明の第1の側面の情報処理装置は、画像を識別するために利用する情報を生成する情報処理装置であって、複数のモデル画像を取得するモデル画像取得手段と、前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段と、前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段と、前記マッチング手段によるマッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段とを備える。 An information processing apparatus according to a first aspect of the present invention is an information processing apparatus that generates information used to identify an image, the model image acquiring unit acquiring a plurality of model images, and the model image acquiring unit Model image feature amount extraction means for extracting the feature amount of the model image acquired by the above, matching means for performing the matching processing of the feature amount of the model image extracted by the model image feature amount extraction means, As a result of matching by the matching means, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are displayed between the similar model images. And an identification feature point extracting means for extracting as an identification feature point used for identification.
前記マッチング手段には、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含ませるようにすることができる。 The matching unit may include an outlier removal unit that removes an outlier from the result of matching processing of the feature quantity between the model images.
前記類似モデル画像に対して、前記所定のモデル画像に合致するようにアフィン変換を施す第1の変換手段を更に備えさせるようにすることができ、前記識別特徴点抽出手段には、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出させるようにすることができる。 The similar model image may further include first conversion means for performing affine transformation so as to match the predetermined model image, and the identification feature point extracting means includes the first feature point extraction means. The identification feature point can be extracted using the similar model image converted by the conversion means.
認識画像を取得する認識画像取得手段と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段とを更に備えさせるようにすることができる。 A recognition image acquisition unit for acquiring a recognition image, a recognition image feature amount extraction unit for extracting a feature amount of the recognition image acquired by the recognition image acquisition unit, and the identification feature extracted by the identification feature point extraction unit In this regard, it is possible to further include an identification unit that identifies the similar model image corresponding to the recognized image by obtaining a correlation between the feature amount of the similar model image and the recognized image.
前記類似モデル画像を、前記認識画像に合致するようにアフィン変換を行う第2の変換手段を更に備えさせるようにすることができ、前記識別手段には、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。 The similar model image may be further provided with second conversion means for performing affine transformation so as to match the recognition image, and the identification means is converted by the second conversion means. The similar model image can be identified using the similar model image corresponding to the recognized image.
前記識別特徴点抽出手段により抽出される前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類されるものとすることができる。 The identification feature point extracted by the identification feature point extracting means is a first identification feature point that is identified as a corresponding similar model image as the number of matches increases, and a similar model image that corresponds as the number of matches decreases. It can be classified into two identification feature points identified as.
前記識別特徴点抽出手段には、前記識別特徴点を階層的に抽出させるようにすることができる。 The identification feature point extracting means may extract the identification feature points hierarchically.
本発明の第1の側面の情報処理方法は、画像を識別するために利用する情報を生成する情報処理装置の情報処理方法であって、複数のモデル画像を取得し、取得された前記モデル画像の特徴量を抽出し、抽出された前記モデル画像の前記特徴量のマッチング処理を行い、マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出するステップを含む。 An information processing method according to a first aspect of the present invention is an information processing method of an information processing apparatus that generates information used for identifying an image, and acquires a plurality of model images, and the acquired model images A similar model image that is a model image that matches a predetermined model image with a predetermined number or more of the characteristic amounts as a result of matching. And extracting a feature point having a small correlation with the predetermined model image as an identification feature point used for discrimination between the similar model images.
本発明の第1の側面のプログラムは、画像を識別するために利用する情報を生成する処理をコンピュータに実行させるためのプログラムであって、複数のモデル画像を取得し、取得された前記モデル画像の特徴量を抽出し、抽出された前記モデル画像の前記特徴量のマッチング処理を行い、マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出するステップを含む処理をコンピュータに実行させる。 A program according to a first aspect of the present invention is a program for causing a computer to execute a process of generating information used for identifying an image, acquiring a plurality of model images, and acquiring the model images A similar model image that is a model image that matches a predetermined model image with a predetermined number or more of the characteristic amounts as a result of matching. And causing the computer to execute a process including a step of extracting a feature point having little correlation with the predetermined model image as an identification feature point used for discrimination between the similar model images.
本発明の第1においては、複数のモデル画像が取得され、取得されたモデル画像の特徴量が抽出され、抽出されたモデル画像の特徴量のマッチング処理が行われ、マッチングの結果、所定のモデル画像と所定数以上の特徴量がマッチしたモデル画像である類似モデル画像において、所定のモデル画像と相関の少ない特徴点が、類似モデル画像間の識別に用いる識別特徴点として抽出される。 In the first aspect of the present invention, a plurality of model images are acquired, the feature amounts of the acquired model images are extracted, and the feature amount matching processing of the extracted model images is performed. In a similar model image that is a model image in which a predetermined number or more of feature quantities match the image, feature points having a small correlation with the predetermined model image are extracted as identification feature points used for identification between similar model images.
本発明の第2の側面の画像識別装置は、複数のモデル画像および前記モデル画像の特徴量を記憶し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置であって、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段と、前記認識画像を取得する認識画像取得手段と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段とを備える。 An image identification device according to a second aspect of the present invention stores a plurality of model images and feature amounts of the model image, receives an input of a recognition image, and identifies the model image corresponding to the recognition image In the similar model images that are a plurality of model images in which a predetermined number or more of the feature quantities match with any one of the other model images, the correlation between the similar model images. Storage means for storing identification feature points, which are few feature points, recognition image acquisition means for acquiring the recognition image, and recognition image feature quantity extraction for extracting the feature quantity of the recognition image acquired by the recognition image acquisition means The recognition image is obtained by obtaining a correlation between the feature amount of the similar model image and the recognition image at the identification feature point stored by the storage unit and the storage means. It comprises identifying means for identifying the similar model image corresponding.
前記類似モデル画像に対して、前記認識画像に合致するようにアフィン変換を施す変換手段を更に備えさせるようにすることができ、前記識別手段には、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。 The similarity model image may further include a conversion unit that performs affine transformation so as to match the recognition image, and the identification unit converts the similarity model image converted by the conversion unit. Can be used to identify the similar model image corresponding to the recognized image.
前記認識画像取得手段により取得された前記認識画像と記憶されている前記モデル画像との特徴量のマッチング処理を行うマッチング手段を更に備えさせるようにすることができ、前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段には、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別させるようにすることができる。 A matching unit that performs a matching process of a feature amount between the recognized image acquired by the recognized image acquiring unit and the stored model image can be further provided, and as a result of matching by the matching unit, When there are a predetermined number or more of the model images in which the recognition image and a feature quantity equal to or greater than a predetermined threshold are matched, the identification unit stores the predetermined number or more of the model images as the similar model image by the storage unit. By obtaining a correlation between the similar model image and the feature amount of the recognized image at the identified feature point, the similar model image corresponding to the recognized image can be identified.
前記マッチング手段には、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段を含ませるようにすることができる。 The matching unit may include an outlier removal unit that removes an outlier from the result of matching processing of the feature quantity between the model images.
前記記憶手段により記憶された前記識別特徴点は、マッチ数が多いほど対応する類似モデル画像であると識別される第1の識別特徴点と、マッチ数が少ないほど対応する類似モデル画像であると識別される2の識別特徴点とに分類されるものとすることができる。 The identification feature point stored by the storage means is a first identification feature point identified as a corresponding similar model image as the number of matches increases, and a corresponding similar model image as the number of matches decreases. It can be classified into two identified feature points to be identified.
前記記憶手段により記憶された前記識別特徴点は、階層構造を有しているものとすることができる。 The identification feature points stored by the storage means may have a hierarchical structure.
本発明の第2の側面の画像識別方法は、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部とを有し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置の画像識別方法であって、前記認識画像を取得し、取得された前記認識画像の特徴量を抽出し、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別するステップを含む。 An image identification method according to a second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and one of the other model images among the model images. A second storage unit that stores identification feature points, which are feature points having a low correlation between the similar model images, in a similar model image that is a plurality of the model images in which a predetermined number or more of the feature quantities match. An image identification method of an image identification device that receives an input of a recognition image and identifies the model image corresponding to the recognition image, acquires the recognition image, and extracts a feature amount of the acquired recognition image The step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between the feature amounts of the similar model image and the recognized image at the identified feature point.
本発明の第2の側面のプログラムは、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部に記憶されている情報を用いて、入力された認識画像に対応する前記モデル画像を識別する処理をコンピュータに実行させるプログラムであって、前記認識画像を取得し、取得された前記認識画像の特徴量を抽出し、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別するステップを含む処理をコンピュータに実行させる。 The program according to the second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and a predetermined number of the model images with any of the other model images. Information stored in a second storage unit that stores identification feature points that are feature points having a low correlation between the similar model images in the similar model images that are the plurality of model images that match the feature amounts described above. , A program for causing a computer to execute a process of identifying the model image corresponding to the input recognition image, acquiring the recognition image, extracting a feature amount of the acquired recognition image, A step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature amounts of the similar model image and the recognized image at an identification feature point. To execute a process including the computer.
本発明の第2の側面においては、認識画像が取得され、取得された認識画像の特徴量が抽出され、識別特徴点において、類似モデル画像と認識画像との特徴量の相関を求めることにより、認識画像に対応する類似モデル画像が識別される。 In the second aspect of the present invention, the recognition image is acquired, the feature amount of the acquired recognition image is extracted, and by obtaining the correlation between the feature amount of the similar model image and the recognition image at the identification feature point, A similar model image corresponding to the recognized image is identified.
ネットワークとは、少なくとも2つの装置が接続され、ある装置から、他の装置に対して、情報の伝達をできるようにした仕組みをいう。ネットワークを介して通信する装置は、独立した装置どうしであっても良いし、1つの装置を構成している内部ブロックどうしであっても良い。 The network is a mechanism in which at least two devices are connected and information can be transmitted from one device to another device. The devices that communicate via the network may be independent devices, or may be internal blocks that constitute one device.
また、通信とは、無線通信および有線通信は勿論、無線通信と有線通信とが混在した通信、即ち、ある区間では無線通信が行われ、他の区間では有線通信が行われるようなものであっても良い。さらに、ある装置から他の装置への通信が有線通信で行われ、他の装置からある装置への通信が無線通信で行われるようなものであっても良い。 The communication is not only wireless communication and wired communication, but also communication in which wireless communication and wired communication are mixed, that is, wireless communication is performed in a certain section and wired communication is performed in another section. May be. Further, communication from one device to another device may be performed by wired communication, and communication from another device to one device may be performed by wireless communication.
認識装置、識別特徴点選択部に対応する装置、または、判定処理部に対応する装置は、独立した装置であっても良いし、情報処理装置などの1ブロックであっても良い。 The device corresponding to the recognition device, the identification feature point selection unit, or the device corresponding to the determination processing unit may be an independent device or a single block such as an information processing device.
本発明の第1の側面によれば、モデル画像のうち、他のモデル画像のうちのいずれかと所定数以上の特徴量がマッチした複数のモデル画像である類似モデル画像において、類似モデル画像間で相関の少ない特徴点である識別特徴点を抽出することができるので、この識別特徴点を識別処理に用いることにより、類似するモデル画像がある場合でも、ロバスト性を維持しながら、正しいモデル画像を識別することができる。 According to the first aspect of the present invention, among similar model images, which are a plurality of model images that match a predetermined number or more of feature quantities with any one of the other model images, among the model images, between similar model images. Since it is possible to extract an identification feature point that is a feature point with little correlation, by using this identification feature point for the identification process, even if there is a similar model image, a correct model image can be obtained while maintaining robustness. Can be identified.
また本発明の第2の側面によれば、デル画像のうち、他のモデル画像のうちのいずれかと所定数以上の特徴量がマッチした複数のモデル画像である類似モデル画像において、類似モデル画像間で相関の少ない特徴点である識別特徴点を用いて識別処理を行うことができるので、類似するモデル画像がある場合でも、ロバスト性を維持しながら、正しいモデル画像を識別することができる。 Further, according to the second aspect of the present invention, among the similar model images that are a plurality of model images having a predetermined number or more of feature quantities matched with any of the other model images among the Dell images, Therefore, the identification process can be performed by using the identification feature point which is a feature point with little correlation, so that even when there is a similar model image, the correct model image can be identified while maintaining the robustness.
以下に本発明の実施の形態を説明するが、本発明の構成要件と、明細書または図面に記載の実施の形態との対応関係を例示すると、次のようになる。この記載は、本発明をサポートする実施の形態が、明細書または図面に記載されていることを確認するためのものである。従って、明細書または図面中には記載されているが、本発明の構成要件に対応する実施の形態として、ここには記載されていない実施の形態があったとしても、そのことは、その実施の形態が、その構成要件に対応するものではないことを意味するものではない。逆に、実施の形態が構成要件に対応するものとしてここに記載されていたとしても、そのことは、その実施の形態が、その構成要件以外の構成要件には対応しないものであることを意味するものでもない。 Embodiments of the present invention will be described below. Correspondences between the constituent elements of the present invention and the embodiments described in the specification or the drawings are exemplified as follows. This description is intended to confirm that the embodiments supporting the present invention are described in the specification or the drawings. Therefore, even if there is an embodiment which is described in the specification or the drawings but is not described here as an embodiment corresponding to the constituent elements of the present invention, that is not the case. It does not mean that the form does not correspond to the constituent requirements. Conversely, even if an embodiment is described herein as corresponding to a configuration requirement, that means that the embodiment does not correspond to a configuration requirement other than the configuration requirement. It's not something to do.
本発明の第1の側面の情報処理装置装置は、画像を識別するために利用する情報を生成する情報処理装置(例えば、図2の認識装置51、または、識別特徴点選択部61に対応する装置)であって、複数のモデル画像を取得するモデル画像取得手段(例えば、図2のモデル画像取得部71)と、前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段(例えば、図2の特徴量抽出部72)と、前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段(例えば、図2のマッチング処理部74およびアウトライヤ除去部75)と、前記マッチング手段によるマッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段(例えば、図2の相関画像生成部78および識別特徴点抽出部79)とを備える。
The information processing device according to the first aspect of the present invention corresponds to the information processing device (for example, the
前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段(例えば、図2のアウトライヤ除去部75)を含むものとすることができる。
The matching unit may include an outlier removing unit (for example, an
前記類似モデル画像に対して、前記所定のモデル画像に合致するようにアフィン変換を施す第1の変換手段(例えば、図2のアフィンパラメータ取得部76およびアフィン変換処理部77)を更に備えるものとすることができ、前記識別特徴点抽出手段は、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出するものとすることができる。
The image processing apparatus further includes first conversion means (for example, the affine
認識画像(例えば、クエリ画像)を取得する認識画像取得手段(例えば、図2のクエリ画像取得部93)と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段(例えば、図2の特徴量抽出部94)と、前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段(例えば、図2の識別特徴点比較部99および識別処理部100)とを更に備えるものとすることができる。
A recognition image acquisition unit (for example, a query
前記類似モデル画像を、前記認識画像に合致するようにアフィン変換を行う第2の変換手段(例えば、図2のアフィンパラメータ取得部97およびアフィン変換処理部98)を更に備えるものとすることができ、前記識別手段は、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別するものとすることができる。
The similar model image may further include a second conversion unit (for example, the affine
本発明の第1の側面の情報処理方法は、画像を識別するために利用する情報を生成する情報処理装置(例えば、図2の認識装置51、または、識別特徴点選択部61に対応する装置)の情報処理方法であって、複数のモデル画像を取得し(例えば、図13のステップS11の処理、または、図4のステップS21の処理)、取得された前記モデル画像の特徴量を抽出し(例えば、図13のステップS12の処理、または、図4のステップS22の処理)、抽出された前記モデル画像の前記特徴量のマッチング処理を行い(例えば、図13のステップS14の処理、または、図4のステップS24の処理)、マッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する(例えば、図13のステップS15乃至ステップS19の処理、または、図4のステップS28乃至ステップS31の処理)ステップを含む。
The information processing method according to the first aspect of the present invention is an information processing device that generates information used to identify an image (for example, the
本発明の第1の側面のプログラムは、画像を識別するために利用する情報を生成する処理をコンピュータに実行させるためのプログラムであって、複数のモデル画像を取得し(例えば、図13のステップS11の処理、または、図4のステップS21の処理)、取得された前記モデル画像の特徴量を抽出し(例えば、図13のステップS12の処理、または、図4のステップS22の処理)、抽出された前記モデル画像の前記特徴量のマッチング処理を行い(例えば、図13のステップS14の処理、または、図4のステップS24の処理)、マッチングの結果、所定のモデル画像(例えば、注目モデル画像)と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する(例えば、図13のステップS15乃至ステップS19の処理、または、図4のステップS28乃至ステップS31の処理)ステップを含む処理をコンピュータに実行させる。 The program according to the first aspect of the present invention is a program for causing a computer to execute processing for generating information used to identify an image, and obtains a plurality of model images (for example, step of FIG. 13). Step S11 or step S21 in FIG. 4), the feature amount of the acquired model image is extracted (for example, step S12 in FIG. 13 or step S22 in FIG. 4) and extracted. A matching process of the feature amount of the model image that has been performed (for example, the process of step S14 in FIG. 13 or the process of step S24 in FIG. 4) is performed. ) And a similar model image that is a model image in which a predetermined number or more of the feature quantities match, a feature having little correlation with the predetermined model image Is extracted as an identification feature point used for identification between the similar model images (for example, the process of step S15 to step S19 in FIG. 13 or the process of step S28 to step S31 in FIG. 4). To run.
本発明の第2の側面の画像識別装置は、複数のモデル画像および前記モデル画像の特徴量を記憶し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置(例えば、図2の判定処理部62に対応する装置)であって、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段(例えば、図2の識別特徴点記憶部92)と、前記認識画像(例えば、クエリ画像)を取得する認識画像取得手段(例えば、図2のクエリ画像取得部93)と、前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段(例えば、図2の特徴量抽出部94)と、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段(例えば、図2の識別特徴点比較部99および識別処理部100)とを備える。
An image identification device according to a second aspect of the present invention stores a plurality of model images and feature amounts of the model image, receives an input of a recognition image, and identifies the model image corresponding to the recognition image (For example, an apparatus corresponding to the
前記類似モデル画像に対して、前記認識画像に合致するようにアフィン変換を施す変換手段(例えば、図2のアフィンパラメータ取得部97およびアフィン変換処理部98)を更に備えることができ、前記識別手段は、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別することができる。
The similar model image may further include a conversion unit (for example, an affine
前記認識画像取得手段により取得された前記認識画像と記憶されている前記モデル画像との特徴量のマッチング処理を行うマッチング手段(例えば、図2のマッチング処理部95およびアウトライヤ除去部96)をさらにそなえることができ、前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段は、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別することができる。
Further provided is a matching means (for example, a
前記マッチング手段は、前記モデル画像間の前記特徴量のマッチング処理結果からアウトライヤを除去するアウトライヤ除去手段(例えば、図2のアウトライヤ除去部96)を含むことができる。
The matching unit may include an outlier removal unit (for example, an
本発明の第2の側面の画像識別方法は、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部とを有し、認識画像の入力を受け、前記認識画像に対応する前記モデル画像を識別する画像識別装置(例えば、図2の判定処理部62に対応する装置)の画像識別方法であって、前記認識画像(例えば、クエリ画像)を取得し(例えば、図15のステップS41の処理)、取得された前記認識画像の特徴量を抽出し(例えば、図15のステップS42の処理)、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する(例えば、図15のステップS47乃至ステップS50の処理)ステップを含む。
An image identification method according to a second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and one of the other model images among the model images. A second storage unit that stores identification feature points, which are feature points having a low correlation between the similar model images, in a similar model image that is a plurality of the model images in which a predetermined number or more of the feature quantities match. An image identification method of an image identification apparatus (for example, an apparatus corresponding to the
本発明の第2の側面のプログラムは、複数のモデル画像および前記モデル画像の特徴量を記憶する第1の記憶部と、前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する第2の記憶部に記憶されている情報を用いて、入力された認識画像に対応する前記モデル画像を識別する処理をコンピュータに実行させるプログラムであって、前記認識画像(例えば、クエリ画像)を取得し(例えば、図15のステップS41の処理)、取得された前記認識画像の特徴量を抽出し(例えば、図15のステップS42の処理)、前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する(例えば、図15のステップS47乃至ステップS50の処理)ステップを含む処理をコンピュータに実行させる。 The program according to the second aspect of the present invention includes a first storage unit that stores a plurality of model images and feature amounts of the model images, and a predetermined number of the model images with any of the other model images. Information stored in a second storage unit that stores identification feature points that are feature points having a low correlation between the similar model images in the similar model images that are the plurality of model images that match the feature amounts described above. Is used to acquire a recognition image (for example, a query image) (for example, in step S41 of FIG. 15), which causes the computer to execute processing for identifying the model image corresponding to the input recognition image. Processing), the feature amount of the acquired recognition image is extracted (for example, the processing of step S42 in FIG. 15), and the similar model image is compared with the previous model image at the identification feature point. By correlating the feature amount of the recognition image, the identifying the similar model image corresponding to the recognized image (e.g., the processing of step S47 to step S50 of FIG. 15) to execute processing including a step in the computer.
以下、図を参照して、本発明の実施の形態について説明する。 Hereinafter, embodiments of the present invention will be described with reference to the drawings.
例えば、識別するべきモデルに対応するモデル画像が、図1に示される画像11乃至画像15である場合、それぞれの画像は異なるものであるが、これらの画像は、簡略画21に示される二重丸の部分と星印の部分に記載の文字の左側約半分の領域、および、雲形で示される果物の絵の有無もしくは種類以外は、基本的に同様の形状を有している。
For example, when the model images corresponding to the models to be identified are the
図1に示される画像11乃至画像15に対応する画像データ(以下、単に、画像11乃至画像15と称する)がモデル画像に対応するデータ(以下、単に、モデル画像と称する)として登録され、例えば、画像11に対応する画像がクエリ画像に対応するデータ(以下、単に、クエリ画像と称する)として供給されたとき、識別結果として画像11のみが抽出されるべきであるが、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、識別のためのマッチペア数にもよるが、画像11乃至画像15のいずれに対しても、正解であると識別をしてしまう。
Image data corresponding to
特に、モデル画像が多岐にわたる場合、画像11乃至画像15を区別可能なほどにマッチペア数の閾値を大きくしてしまっては、識別が厳密になりすぎてしまい、実際は同一であると認識するべきところを、異なるものであると誤認識してしまう可能性が高くなる。しかしながら、一般的なマッチング処理における閾値の設定レベルでは、上述したように、画像11乃至画像15を正しく識別することが困難である。
In particular, when there are a wide variety of model images, if the threshold value for the number of match pairs is increased to such a level that the
そこで、モデル画像の登録時に、例えば、図1の画像11乃至画像15のような類似している画像が存在したとき、それらの画像の相関を求め、相似していない部分の特徴点を抽出しておくことにより、識別処理において、相似していない部分のマッチング結果を利用して、図1の画像11乃至画像15のような類似している画像を識別することができるようにすると好適である。
Therefore, when there are similar images such as the
図2は、モデル画像の登録時に、類似している画像の相関を予め求めておき、識別処理において、相似していない部分のマッチング結果を利用することができる認識装置51の構成を示すブロック図である。
FIG. 2 is a block diagram illustrating a configuration of a
認識装置51は、識別特徴点選択部61と判定処理部62とで構成されている。ここでは、認識装置51として1つの装置であるものとして説明するが、識別特徴点選択部61および判定処理部62が、それぞれ1つの装置として構成されていても良いことは言うまでもない。
The
識別特徴点選択部61は、モデル画像取得部71、特徴量抽出部72、モデル画像辞書記憶部73、マッチング処理部74、アウトライヤ除去部75、アフィンパラメータ取得部76、アフィン変換処理部77、相関画像生成部78、および、識別特徴点抽出部79により構成されている。
The identification feature
モデル画像取得部71は、識別処理のためのモデル画像を取得し、モデル画像辞書記憶部73および特徴量抽出部72に供給する。供給されるモデル画像には、例えば、図1に示される画像11乃至画像15のように、非常に類似したモデル画像の組が含まれているものとする。
The model
特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から特徴点を抽出し、特徴点周辺から局所特徴量を抽出して、ベクトル記述する。特徴量抽出部72は、抽出した局所特徴量の情報を、モデル画像辞書記憶部73、マッチング処理部74、および、アウトライヤ除去部75に供給する。
The feature
特徴点は、例えば、近傍画素との差の大きな画素を抽出したり、画像データにFFT(Fast Fourier transform)をかけることによって得られる高周波成分が多い画素などを抽出するものとしても良いし、その他の方法により抽出するものであっても良い。また、局所特徴量としては、例えば、ガボアジェット(Gabor Jet)や、ハーウェイブレット(Haar Wavelett)、ガウシアン導関数(Gaussian Derivatives)、SIFT特徴などを用いることができる。 For example, the feature point may be a pixel with a large difference from neighboring pixels, a pixel having a high frequency component obtained by applying FFT (Fast Fourier transform) to the image data, or the like. It may be extracted by this method. As the local feature amount, for example, Gabor Jet, Haar Wavelet, Gaussian Derivatives, SIFT feature, and the like can be used.
モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。モデル画像辞書記憶部73に記憶されたモデル画像とモデル画像に対応する局所特徴量とは、判定処理部62のモデル画像辞書記憶部91に供給され、クエリ画像とのマッチングに利用される。
The model image
マッチング処理部74は、特徴量抽出部72から供給された局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN(k-NearestNeighbor;最近傍分類法)等の手法でマッチングし、マッチペアを求める。以下、特徴量抽出部72で最も新しく局所特徴量が抽出された、マッチング処理の基準とされるモデル画像を、注目モデル画像と称し、モデル画像辞書記憶部73に既に記憶され、マッチング処理部74において注目モデル画像の局所特徴量との比較に用いられている複数の他のモデル画像と区別するものとする。
The matching
そして、マッチング処理部74は、注目モデル画像と、注目モデル画像に対して所定数以上のマッチペア数を有する類似モデル画像と、それらのマッチペアの情報とを、アウトライヤ除去部75に供給する。例えば、図1の画像12乃至15が既にモデル画像辞書記憶部73に記憶されている状態で、図1の画像11がモデル画像として供給されたとき、注目モデル画像である画像11に対して、図1の画像12乃至15が、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像として抽出される。
Then, the matching
また、マッチング処理部74は、局所特徴量を用いてマッチペアを求めるので、注目モデル画像と、比較される他のモデル画像のそれぞれとが、異なる視点から撮像されたものであったり、それらの大きさが異なるものであっても、正しくマッチングを行うことができる。
In addition, since the
アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC(Random Sample Consensus)等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。なお、アウトライヤ除去は、上述した技術以外の、いかなる手法を用いて実行するものであってもよい。アウトライヤ除去部75は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、アフィンパラメータ取得部76に供給する。
The
アフィンパラメータ取得部76は、残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求める。アフィン変換は、平行移動および回転変換(ユークリッド変換)に拡大縮小変換を加えた相似変換に、せん断変形を許すような変換であり、元の図形で直線上に並ぶ点は変換後も直線上に並び、平行線は変換後も平行線であるなど、幾何学的性質が保たれる変換である。すなわち、アフィンパラメータ取得部76は、注目モデル画像と、類似モデル画像のそれぞれとが、異なる視点から撮像されたものであったり、それらの大きさが異なるものであるときなどであっても、類似モデル画像のそれぞれの歪みを修正し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正するための、回転、拡大縮小、せん断変形、平行移動などのためのパラメータである、アフィンパラメータを求める。
The affine
アフィンパラメータ取得部76は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータとを、アフィン変換処理部77に供給する。
The affine
アフィン変換処理部77は、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。
The affine
相関画像生成部78は、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算し、得られた特徴点ごとの相関値を識別特徴点抽出部79に供給する。ここで得られる相関値を画像上に対応付けると、注目モデル画像と類似モデル画像との相関を示す相関画像となる。
The correlation
識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像との識別に用いて有用な特徴点である識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給する。
Based on the correlation value with the similar model image at each feature point of the target model image, the identification feature
例えば、図1の画像12乃至15、または、アフィン変換を行ったときに図1の画像12乃至15に変換される画像が、既にモデル画像辞書記憶部73に記憶されている状態で、モデル画像として図1の画像11が供給されたとき、注目モデル画像である画像11に対して、図1の画像12乃至15またはこれらに対応する画像が、類似モデル画像として抽出される。そして、相関画像生成部78は、注目モデル画像である画像11と、アフィン変換後の類似モデル画像である画像12乃至15のそれぞれとの、注目モデル画像の特徴点における特徴量の相関値を求める。そして、識別特徴点抽出部79は、例えば、図3に示されるように、相関値の低い部分の特徴点を抽出する。
For example, in the state where the
なお、例えば、図1を用いて説明した画像12乃至15のうち、画像12が最も早くモデル画像として識別特徴点選択部61に供給されたとき、画像12は、画像13乃至画像15に対して、類似モデル画像であると登録されるが、それ自身は、類似画像を有するモデル画像として処理されないため、画像12に対しては識別特徴点が抽出されない恐れがある。したがって、例えば、マッチング処理部74が所定数以上のマッチペア数を有する類似モデル画像を検出するとき、類似モデル画像として検出されたモデル画像に類似モデル画像が全く対応付けられていない場合は、更に、注目モデル画像と類似モデル画像の扱いを逆にした場合の識別特徴点の検出処理を実行するものとすると好適である。
For example, among the
また、モデル画像が1枚入力されるのに対して、上述した処理が順次行われるのではなく、予め類似モデル画像同士の組を生成しておき、その組に含まれる画像の組み合わせのすべての相関の平均などに基いて、識別特徴点を抽出するものとしても良い。 In addition, one model image is input, but the above-described processing is not performed sequentially, but a set of similar model images is generated in advance, and all combinations of images included in the set are generated. Identification feature points may be extracted based on the average of correlation or the like.
そのような場合、例えば、図1を用いて説明した画像11乃至画像15において、マッチング処理部74によりマッチング処理が実行されて、マッチペアが求められ、アウトライヤ除去部75において、マッチペアのアウトライヤが除去された場合、類似モデル画像の組として、画像11乃至画像15が抽出される。
In such a case, for example, in the
そして、アフィンパラメータ取得部76は、全ての組み合わせのアフィンパラメータを取得する。また、アフィンパラメータ変換処理部77は、それぞれの組み合わせのアフィン変換を行う。そして、相関画像生成部78は、全ての組み合わせにおける相関画像を生成して、その平均値などを求める。そして、識別特徴点抽出部79は、複数の相関画像の平均値などに基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像との識別に用いて有用な特徴点である識別特徴点として抽出して、判定処理部62の識別特徴点記憶部92に供給することができる。
And the affine
次に、図2の認識装置51の判定処理部62は、モデル画像辞書記憶部91、識別特徴点記憶部92、クエリ画像取得部93、特徴量抽出部94、マッチング処理部95、アウトライヤ除去部96、アフィンパラメータ取得部97、アフィン変換処理部98、識別特徴点比較部99、識別処理部100、および、識別結果出力部101を含んで構成されている。
Next, the
モデル画像辞書記憶部91は、モデル画像辞書記憶部73からモデル画像とモデル画像に対応する局所特徴量との供給を受け、記憶する。
The model image
識別特徴点記憶部92は、識別特徴点抽出部79から、類似モデル画像を有する上述した注目モデル画像において、類似モデル画像との相関値が低い特徴点である識別特徴点の情報の供給を受け、記憶する。
The identification feature
クエリ画像取得部93は、識別対象であるクエリ画像を取得する。
The query
特徴量抽出部94は、クエリ画像取得部93から供給されたクエリ画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴点および特徴量の抽出方法は、特徴量抽出部72と同様である。特徴量抽出部94は、抽出した局所特徴量の情報を、マッチング処理部95、および、アウトライヤ除去部96に供給する。
The feature
マッチング処理部95は、特徴量抽出部94から供給された局所特徴量と、モデル画像辞書記憶部91に記憶されているモデル画像に対応する局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部95は、クエリ画像と、クエリ画像に対して所定数以上のマッチペア数を有するモデル画像のデータと、それらのマッチペアの情報を、アウトライヤ除去部96に供給する。例えば、図1の画像11乃至画像15がモデル画像としてモデル画像辞書記憶部91に記憶されているとき、図4に示されるクエリ画像111が供給された場合、マッチング処理部95は、画像11乃至画像15を、識別対象である可能性の高いモデル画像として抽出して、アウトライヤ除去部96に供給する。
The matching
アウトライヤ除去部96は、ハフ変換、または、RANSAC等を用いて、マッチング処理部95により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。そして、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多いモデル画像が全く存在しない場合、その結果を識別処理部100に供給する。また、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多いモデル画像が予め定められた所定の数よりも少ない場合、除去されずに残ったモデル画像とそのマッチペア数を識別処理部100に供給する。また、残ったマッチペア数が所定の閾値を超えているモデル画像が所定の数以上である場合、残ったマッチペア数が所定の閾値よりも多いモデル画像は、上述した類似モデル画像であると考えられる。アウトライヤ除去部96は、類似モデル画像と、クエリ画像と、アウトライヤ除去後のマッチペアの情報とを、アフィンパラメータ取得部97に供給する。
The
アフィンパラメータ取得部97は、残ったマッチペアから、クエリ画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、クエリ画像、アフィンパラメータ、残ったマッチペア数が所定の閾値よりも多い類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、アフィン変換処理部98に供給する。
The affine
アフィン変換処理部98は、供給された類似モデル画像をアフィンパラメータで変換し、クエリ画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。図4に示されるように、クエリ画像111の類似モデル画像として画像11乃至画像15が抽出された場合、画像11乃至画像15は、アフィン変換処理部98により、アフィン変換後の画像11a乃至画像15aに変換される。アフィン変換処理部98は、クエリ画像、アフィン変換後の類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、識別特徴点比較部99に供給する。
The affine
識別特徴点比較部99は、識別特徴点記憶部92に記憶されているそれぞれのモデル画像の識別特徴点に基づいて、アフィン変換後の類似モデル画像における識別特徴点を求めてその特徴量を算出するとともに、求められた識別特徴点における特徴量と、クエリ画像上の識別特徴点における特徴量との相関値を算出する。すなわち、識別特徴点比較部99は、図4のアフィン変換後の画像11a乃至画像15aの識別特徴点における特徴量と、クエリ画像111の識別特徴点における特徴量との相関値を算出する。識別特徴点比較部99は、相関値の算出結果を、識別処理部100に供給する。
Based on the identification feature points of each model image stored in the identification feature
識別処理部100は、アウトライヤ除去部96、または、識別特徴点比較部99から供給された情報に基づいて、識別処理を実行する。すなわち、識別処理部100は、アウトライヤ除去部96において、アウトライヤ除去後に残ったマッチペア数が所定の閾値よりも多い類似モデル画像が予め定められた所定の数よりも少ないと検出された場合、アウトライヤ除去部96から供給されるマッチペア数に基づいて、クエリ画像は、最もマッチペア数の多いモデル画像、または、所定の閾値よりマッチペア数の多い1つまたは複数のモデル画像に対応するものであるとし、その識別結果を、識別結果出力部101に出力する。また、識別処理部100は、アウトライヤ除去部96から、残ったマッチペア数が所定の閾値よりも多い類似モデル画像が全く存在しないことを通知されたとき、クエリ画像はいずれのモデル画像とも一致しないと判定し、判定結果を識別結果出力部101に出力する。
The
また、識別処理部100は、アウトライヤ除去部96において、アウトライヤ除去後に残ったマッチペア数が所定の閾値を超えている類似モデル画像が所定の数以上であると検出された場合、識別特徴点比較部99から、類似モデル画像とクエリ画像との識別特徴点における特徴量の相関値の供給を受ける。識別処理部100は、供給される特徴量の相関値に基づいて、クエリ画像は、識別特徴点における相関値の平均値が最も高い類似モデル画像、または、平均値の値が所定の閾値よりも高い1つまたは複数の類似モデル画像に対応するものであるとし、その識別結果を、識別結果出力部101に出力する。
In addition, when the
識別結果出力部101は、識別処理部100から供給された識別結果を、例えば、表示部に表示したり、音声データとして出力したり、または、所定の伝送路を介して出力するか所定の記録媒体に記録させることなどにより、他の装置に出力する。
The identification
認識装置51における類似した画像の識別処理は、例えば、テレビジョン放送等の同一番組のテロップのように、その形式や大きさは略同じであり、文字のみが異なるような画像の識別に適用させることができる。
Similar image identification processing in the
例えば、図5に示される#1モデル画像121および#2モデル画像122と、クエリ画像123との比較を行う場合について説明する。
For example, a case where the # 1
#2モデル画像122とクエリ画像123とは、同一であると識別されるべき画像であるが、#1モデル画像121は、#2モデル画像122に対して、その形式や大きさは略同じであり、文字のみが異なる画像である。
The # 2
したがって、#1モデル画像121と#2モデル画像122とがモデル画像として登録され、クエリ画像123が供給されたとき、識別結果として#2モデル画像122のみが抽出されるべきであるが、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、図6に示されるように、#1モデル画像121と#2モデル画像122とのいずれに対しても、所定数以上のマッチペアが抽出されるので、正解であると識別をしてしまう。
Therefore, when the # 1
そこで、上述した識別特徴点選択部61により、#1モデル画像121と#2モデル画像122との識別特徴点を抽出するものとする。
Therefore, it is assumed that the identification feature
図7の画像131は、#1モデル画像121と#2モデル画像122とのいずれか一方を注目モデル画像、他方を類似モデル画像としたときの、アフィン変換後のそれぞれの画像をオーバーレイした画像である。画像131から、#1モデル画像121と#2モデル画像122とでは、「現地サポーターも落胆」と「日本代表敗戦の原因」の文字の部分が異なっているが、それ以外は、略、一致していることが分かる。
An
図7の画像132は、#1モデル画像121と#2モデル画像122との相関画像であり、相関の大きな部分が白く、相関の少ない部分が黒く表示されている。
An
そして、図7の画像133は、#1モデル画像121と#2モデル画像122とから得られた識別特徴点を示すものである。図2の判定処理部62は、識別特徴点記憶部92に、画像133に示される識別特徴点を記憶する。
7 shows identification feature points obtained from the # 1
図6を用いて説明したように、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、クエリ画像123に対して、#1モデル画像121と#2モデル画像122とのいずれにおいても、所定数以上のマッチペアが抽出されてしまい、その両方が、クエリ画像123に対応する画像であると識別されてしまう可能性がある。これに対して、図2の判定処理部62は、図7の画像133に示される識別特徴点において、#1モデル画像121と#2モデル画像122との相関値を求め、これに基づいて、識別処理を行うことができるので、クエリ画像123に対応する画像は、#2モデル画像122であると正しく識別することができる。
As described with reference to FIG. 6, in the technique for identifying an object in a query image with the above-described conventional number of matching pairs, the # 1
すなわち、図2の判定処理部62は、#1モデル画像121と#2モデル画像122とにおいて、「現地サポーターも落胆」と「日本代表敗戦の原因」と記載されている部分に多く含まれる識別特徴点を用いて判定を行うので、クエリ画像123に対応する画像は、#2モデル画像122であると正しく識別することができる。
That is, the
また、例えば、図1の簡略画21において、雲形で示される部分が類似しているモデル画像がN個存在するが、そのN個は、二重丸部分でa個とb個に分類可能であり、そのb個の類似モデル画像は、星型の部分で完全に分類可能であるなど、モデル画像間の類似の形態が階層構造で表されるとき、または、モデル画像間の類似部分が複数個所あるときなど、類似のモデル画像の判定を、識別特徴点を区別して行ったり、識別特徴点を階層化させて行うことが可能である。
Further, for example, in the
例えば、図8に示されるように、クエリ画像151が入力された判定処理部62のモデル画像辞書記憶部91に、類似モデル画像として、#11モデル画像161乃至#14モデル画像164が記憶されている場合について説明する。
For example, as shown in FIG. 8, the model image
#11モデル画像161乃至#14モデル画像164は、それぞれ、クエリ画像151に対して、類似な部分を有しているので、上述した従来のマッチングペア数でクエリ画像内の物体の識別をするような技術では、#11モデル画像161乃至#14モデル画像164のいずれに対しても、クエリ画像151に対応するものであると識別をしてしまうおそれがある。
Since each of the # 11
#11モデル画像161乃至#14モデル画像164は、それぞれ、相似な部分と相似ではない部分を有している。図9に、#11モデル画像161乃至#14モデル画像164のそれぞれの相関画像を示す。図9の相関画像においては、相関の大きな部分が白く、相関の少ない部分が黒く表示されている。
Each of the # 11
#11モデル画像161と#12モデル画像162とで異なる部分は、右上のハートマークと、右下の三日月マークの部分である。#11モデル画像161と#13モデル画像163とで異なる部分は、右上のハートマークの部分と、左下の否妻マークの部分である。#11モデル画像161と#14モデル画像164とで異なる部分は、左下の否妻マークの部分である。そして、#12モデル画像162と#13モデル画像163とで異なる部分は、右下の三日月マークの部分と、左下の否妻マークの部分である。#12モデル画像162と#14モデル画像164とで異なる部分は、右上のハートマークと、右下の三日月マークの部分と、左下の否妻マークの部分である。そして、#13モデル画像163と#14モデル画像164とで異なる部分は、右上のハートマークの部分である。
The difference between the # 11
類似モデル画像である#11モデル画像161乃至#14モデル画像164において、左上のスマイルマークは、いずれにおいても同一のため、識別特徴点にはならない。これに対して、マークのない部分は、モデル画像としての特徴が少ない部分であるので、マークのない部分においては、本当に対応するクエリ画像とモデル画像とのそれぞれにおいて、特徴点が抽出されないはずである。換言すれば、マークのない部分においてクエリ画像とモデル画像との特徴量のマッチペアが存在したとき、クエリ画像とモデル画像は類似していないと推定することができる。
In the # 11
また、#11モデル画像161乃至#14モデル画像164において、左上のスマイルマーク以外でマークが記載されている部分は、モデル画像としての特徴が大きい部分であるので、この部分において、クエリ画像とモデル画像との特徴量のマッチペアが存在したとき、クエリ画像とモデル画像とは類似していると推定することができる。
Also, in the # 11
したがって、識別特徴点選択部61の識別特徴点抽出部79は、図10に示されるように、識別特徴点を、2種類に分類し、図中+で示される部分は、モデル画像とクエリ画像の相関値が高いとき、すなわち、対応する特徴点においてマッチペアがあると、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であるものとし、図中×で示される部分は、モデル画像とクエリ画像の相関値が低いとき、すなわち、対応する特徴点においてマッチペアがないと、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であるものとする。
Therefore, the identification feature
図10において、#11モデル画像161の分類された識別特徴点は、識別特徴点181に示され、#12モデル画像162の分類された識別特徴点は、識別特徴点182に示され、#13モデル画像163の分類された識別特徴点は、識別特徴点183に示され、#14モデル画像164の分類された識別特徴点は、識別特徴点184に示される。
In FIG. 10, the classified identification feature point of the # 11
そして、判定処理部62においては、このように分類された識別特徴点を用いることにより、類似モデル画像における類似部分が異なるような場合であっても、識別するために重要な部分と重要ではない部分を区別して、識別処理を行うことができる。
The
すなわち、図10の識別特徴点181乃至184を利用して、識別特徴点における相関値を算出する判定処理部62の識別特徴点比較部99は、#11モデル画像161とクエリ画像との識別特徴点181における相関値は、右下の部分のみポジティブとなり、#12モデル画像162とクエリ画像との識別特徴点182における相関値は、右上の部分のみポジティブとなり、#13モデル画像163とクエリ画像との識別特徴点183における相関値は、左下、右上、右下の部分においてポジティブとなり、#14モデル画像164とクエリ画像との識別特徴点184における相関値は、右下の部分と左下の部分においてポジティブとなることを検出することができる。これにより、クエリ画像151に対応するモデル画像は、#13モデル画像163であると判定される。
That is, the identification feature
次に、識別特徴点を階層的に分類することにより、類似モデル画像を判別する場合について説明する。 Next, a case where similar model images are discriminated by classifying the identification feature points hierarchically will be described.
識別特徴点選択部61の識別特徴点抽出部79は、類似モデル画像を複数の類似モデルに分類し、分類を詳細にしていくことにより、最終的には、類似モデルを個々に判別することができるように、階層構造化する。ここでは、図11に示されるように、図8の#11モデル画像161乃至#14モデル画像164を2階層で分類する。1階層目が4つの類似モデルを2つの類似モデル群に識別する類似モデル識別レイヤ1であり、2階層目が類似モデルを個々の類似モデル画像に判別する類似モデル判別レイヤ2である。なお、類似モデル数が多い場合、類似モデル識別レイヤの層の数が多くなる。
The identification feature
まず、識別特徴点選択部61の識別特徴点抽出部79は、あるモデル群同士を識別するのに適した識別特徴点群を選択し、レイヤ1モデル識別特徴点として保持する。例えば、図8の#11モデル画像161乃至#14モデル画像164を、#11モデル画像161および#14モデル画像164と、#12モデル画像162と#13モデル画像163との2つのモデル群に分ける。この2つのモデル群を識別するのに最も適しているのは、右上のハートマークの有無であるから、レイヤ1モデル識別特徴点として右下のハートマークの部分が設定される。そして、識別特徴点比較部99においては、#12モデル画像162または#13モデル画像163とクエリ画像とにおいて、この右上の位置の相関価が高いとき、すなわち、マッチペアがあるとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。そして、識別特徴点比較部99においては、#11モデル画像161または#14モデル画像164とクエリ画像とにおいて、この右上の位置の相関価が低いとき、すなわち、マッチペアがないとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。
First, the identification feature
そして、識別特徴点選択部61の識別特徴点抽出部79は、それぞれのモデル群に含まれる複数のモデル画像を、更に区別可能な識別特徴点を選択し、レイヤ2モデル識別特徴点として保持する。#11モデル画像161と#14モデル画像164とを識別し、かつ、#12モデル画像162と#13モデル画像163とを識別するのに最も適しているのは、左下の稲妻マークの有無であるので、レイヤ2モデル識別特徴点として左下の稲妻マークの部分が設定される。そして、識別特徴点比較部99においては、#11モデル画像161または#12モデル画像162とクエリ画像とにおいて、この右下の位置の相関価が高いとき、すなわち、マッチペアがあるとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。そして、識別特徴点比較部99においては、#13モデル画像163または#14モデル画像164とクエリ画像とにおいて、この右下の位置の相関価が低いとき、すなわち、マッチペアがないとき、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定が行なわれる。
Then, the identification feature
図8の#11モデル画像161乃至#14モデル画像164において、図11に示される階層構造によるレイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点とは、図12に示されるようになる。図12においても、図中+で示される部分は、モデル画像とクエリ画像の相関値が高いとき、すなわち、対応する特徴点においてマッチペアがあると、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点であり、図中×で示される部分は、モデル画像とクエリ画像の相関値が低いとき、すなわち、対応する特徴点においてマッチペアがないと、クエリ画像とモデル画像は類似していると推定するポジティブ(positive)判定を行う識別特徴点である。
In the # 11
図12のレイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点を用いて識別特徴点における相関値を算出する判定処理部62の識別特徴点比較部99は、#11モデル画像161においては、いずれの識別特徴点においてもポジティブ判定ではなく、#12モデル画像162においては、レイヤ1モデル識別特徴点のみポジティブとなり、#13モデル画像163においては、レイヤ1モデル識別特徴点とレイヤ2モデル識別特徴点ともポジティブとなり、#14モデル画像164おいては、レイヤ2モデル識別特徴点においてポジティブとなることを算出することができる。すなわち、識別特徴点比較部99は、レイヤ1で、#11モデル画像161と#14モデル画像164はクエリ画像に対応しないことを検出することができ、レイヤ2で、#12モデル画像162はクエリ画像に対応しないことを検出することができる。これにより、クエリ画像151に対応するモデル画像は、#13モデル画像163であると判定される。
The identification feature
このようにして、モデル画像間の類似の形態が階層構造で表されるとき、または、モデル画像間の類似部分か複数個所あるときであっても、類似のモデル画像における識別特徴点の抽出を、類似部分を区別して行ったり、階層化させることにより、確実に実行することが可能となる。 In this way, identification feature points in similar model images can be extracted even when similar forms between model images are represented in a hierarchical structure, or even when there are multiple similar parts between model images. It is possible to reliably execute by distinguishing similar parts or by making them hierarchical.
次に、図13を参照して、認識装置51の識別特徴点選択部61が実行する処理の第1の例である、識別特徴点抽出処理1について説明する。
Next, with reference to FIG. 13, an identification feature
ステップS11において、モデル画像取得部71は、識別処理のためのモデル画像を取得し、モデル画像辞書記憶部73および特徴量抽出部72に供給する。
In step S <b> 11, the model
ステップS12において、特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴量抽出部72は、抽出した局所特徴量の情報を、モデル画像辞書記憶部73、マッチング処理部74、および、アウトライヤ除去部75に供給する。
In step S12, the feature
ステップS13において、モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。モデル画像辞書記憶部73に記憶されたモデル画像とモデル画像に対応する局所特徴量とは、識別特徴点抽出処理1の終了後、判定処理部62のモデル画像辞書記憶部91に供給され、記憶される。
In step S <b> 13, the model image
ステップS14において、マッチング処理部74は、特徴量抽出部72から供給された注目モデル画像の局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部74は、注目モデル画像と、注目モデル画像に対して所定数以上のマッチペア数を有する類似モデル画像と、それらのマッチペアの情報を、アウトライヤ除去部75に供給する。
In step S <b> 14, the matching
ステップS15において、アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。アウトライヤ除去部75は、注目モデル画像に対して所定以上のマッチペア数を有する類似するモデル画像の組である類似モデル画像を抽出し、注目モデル画像と、類似モデル画像と、アウトライヤ除去後のマッチペアの情報を、アフィンパラメータ取得部76に供給する。
In step S15, the
ステップS16において、アフィンパラメータ取得部76は、残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータを、アフィン変換処理部77に供給する。
In step S <b> 16, the affine
ステップS17において、アフィン変換処理部77は、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。
In step S <b> 17, the affine
ステップS18において、相関画像生成部78は、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算して、注目モデル画像と類似モデル画像との相関画像を生成し、相関画像、すなわち、得られた特徴点ごとの相関値を示す情報を、識別特徴点抽出部79に供給する。
In step S18, the correlation
ステップS19において、識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像とのモデル識別能力の高い識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給して登録して、処理が終了する。
In step S19, the identification feature
このような処理により、モデル画像の特徴点における特徴量に加えて、モデル画像ごとに、類似モデル画像とのモデル識別能力の高い識別特徴点を求めることができるので、識別特徴点記憶部92に似識別特徴点が登録された判定処理部62は、類似するモデル画像の識別処理を実行することができる。
By such processing, in addition to the feature amount at the feature point of the model image, an identification feature point having a high model identification capability with the similar model image can be obtained for each model image. The
なお、ステップS19の処理において、識別特徴点抽出部79は、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行ったり、階層化させるようにしてもよい。
In the process of step S19, the identification feature
次に、図14を参照して、認識装置51の識別特徴点選択部61が実行する処理の第2の例である、識別特徴点抽出処理2について説明する。
Next, with reference to FIG. 14, an identification feature point extraction process 2 that is a second example of a process executed by the identification feature
図13を用いて説明した識別特徴点抽出処理1は、モデル画像が類似しているか否かにかかわらずモデル画像を順次入力し、モデル画像が1枚入力されるのに対して、識別特徴点抽出のための処理が順次行われるものであるが、それに対して、識別特徴点抽出処理2は、予め類似モデル画像同士の組を生成しておき、その組に含まれる画像の組み合わせのすべての相関の平均などに基いて、識別特徴点を抽出するものである。
In the identification feature
ステップS21乃至ステップS25において、図13のステップS11乃至ステップS15と同様の処理が実行される。すなわち、モデル画像取得部71は、識別処理のためのモデル画像を取得し、特徴量抽出部72は、モデル画像取得部71から供給されたそれぞれのモデル画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。そして、モデル画像辞書記憶部73は、モデル画像取得部71から供給されたそれぞれのモデル画像と、特徴量抽出部72から供給されたそれぞれのモデル画像に対応する局所特徴量とを記憶する。そして、マッチング処理部74は、注目モデル画像の局所特徴量と、現在モデル画像辞書記憶部73に記憶されているそれぞれのモデル画像の局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求め、アウトライヤ除去部75は、例えば、ハフ変換、または、RANSAC等を用いて、マッチング処理部74により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。
In steps S21 to S25, processing similar to that in steps S11 to S15 in FIG. 13 is executed. That is, the model
ステップS26において、アウトライヤ除去部75は、識別特徴点抽出処理の対象となる全てのモデル画像のマッチングとアウトライヤの除去処理は終了したか否かを判断する。ステップS26において、全てのモデル画像のマッチングとアウトライヤの除去処理は終了していないと判断された場合、処理は、ステップS21に戻り、それ以降の処理が繰り返される。
In step S <b> 26, the
ステップS26において、全てのモデル画像のマッチングとアウトライヤの除去処理は終了したと判断された場合、ステップS27において、アウトライヤ除去部75は、アウトライヤ除去後の残ったマッチペアに基づいて、類似モデル画像の組を生成し、アフィンパラメータに、類似モデル画像の組の画像データと、アウトライヤ除去後のマッチペアとを、アフィンパラメータ取得部76に供給する。
If it is determined in step S26 that the matching of all model images and the outlier removal processing have been completed, in step S27, the
ステップS28において、アフィンパラメータ取得部76は、類似モデル画像の全ての組み合わせにおいて、アウトライヤ除去後の残ったマッチペアから、注目モデル画像とそれぞれの類似モデル画像とのアフィンパラメータを求め、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有する類似モデル画像と、アウトライヤ除去後のマッチペアの情報に加えて、算出されたアフィンパラメータを、アフィン変換処理部77に供給する。
In step S28, the affine
ステップS29において、アフィン変換処理部77は、類似モデル画像の全ての組み合わせにおいて、供給された類似モデル画像をアフィンパラメータで変換し、注目モデル画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部77は、注目モデル画像と、注目モデル画像に対して所定以上のマッチペア数を有するアフィン変換後の類似モデル画像と、アウトライヤ除去後のマッチペアの情報とを、相関画像生成部78に供給する。
In step S29, the affine
ステップS30において、相関画像生成部78は、類似モデル画像の全ての組み合わせにおいて、注目モデル画像の特徴点ごとに、その位置での、アフィン変換後の類似モデル画像との特徴量の相関値(特徴量距離)を計算して、注目モデル画像と類似モデル画像との相関画像を生成し、その平均を求める。そして、相関画像生成部78は、相関画像の平均値、すなわち、得られた特徴点ごとの相関値の平均値を示す情報を、識別特徴点抽出部79に供給する。
In step S <b> 30, the correlation
ステップS31において、識別特徴点抽出部79は、注目モデル画像のそれぞれの特徴点における類似モデル画像との相関値の平均値に基づいて、相関値がある閾値よりも低い特徴点、または、相関値が低い順から所定数の特徴点を、類似モデル画像とのモデル識別能力の高い識別特徴点として抽出し、判定処理部62の識別特徴点記憶部92に供給して登録して、処理が終了する。
In step S <b> 31, the identification feature
このような処理により、モデル画像の特徴点における特徴量に加えて、モデル画像ごとに、類似モデル画像とのモデル識別能力の高い識別特徴点を求めることができるので、識別特徴点記憶部92に似識別特徴点が登録された判定処理部62は、類似するモデル画像の識別処理を実行することができる。
By such processing, in addition to the feature amount at the feature point of the model image, an identification feature point having a high model identification capability with the similar model image can be obtained for each model image. The
なお、ステップS31の処理においても、識別特徴点抽出部79は、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行ったり、階層化させるようにしてもよい。
Even in the process of step S31, the identification feature
次に、図15のフローチャートを参照して、認識装置51の判定処理部62が実行する識別判定処理について説明する。
Next, the identification determination process executed by the
ステップS41において、クエリ画像取得部93は、識別用のクエリ画像を取得する。
In step S41, the query
ステップS42において、特徴量抽出部94は、クエリ画像取得部93から供給されたクエリ画像から、特徴点を抽出し、特徴点周辺から局所特徴量を抽出し、ベクトル記述する。特徴量抽出部94は、抽出した局所特徴量の情報を、クエリ画像とともに、マッチング処理部95、および、アウトライヤ除去部96に供給する。
In step S42, the feature
ステップS43において、マッチング処理部95は、特徴量抽出部94から供給された局所特徴量と、モデル画像辞書記憶部91に記憶されているモデル画像に対応する局所特徴量とを、例えば、K-NN等の手法でマッチングし、マッチペアを求める。そして、マッチング処理部95は、クエリ画像と、クエリ画像に対して所定数以上のマッチペア数を有するモデル画像である類似モデル画像のデータと、それらのマッチペアの情報を、アウトライヤ除去部96に供給する。
In step S43, the matching
ステップS44において、アウトライヤ除去部96は、ハフ変換、または、RANSAC等を用いて、マッチング処理部95により検出されたマッチペアから、幾何学拘束を満たさないミスマッチペアを除去する。
In step S44, the
ステップS45において、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像が存在したか否かを判断する。ステップS45において、一致度が所定の値以上であるモデル画像が存在しなかったと判断された場合、アウトライヤ除去部96は、その判断結果を識別処理部100に供給に供給し、処理は、後述するステップS51に進む。
In step S <b> 45, the
ステップS45において、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像が存在したと判断された場合、ステップS46において、アウトライヤ除去部96は、アウトライヤ除去の後に残ったマッチペア数が所定の閾値よりも多いモデル画像が所定数以上抽出されたか否か、換言すれば、類似モデル画像が存在したか否かを判断する。ステップS46において、モデル画像が所定数以上抽出されなかったと判断された場合、アウトライヤ除去部96は、一致度が所定の値以上であるモデル画像と、除去されずに残ったマッチペア数を識別処理部100に供給して、処理は、後述するステップS50に進む。
In step S45, when the
ステップS46において、モデル画像が所定数以上抽出されたと判断された場合、ステップS47において、アウトライヤ除去部96は、残ったマッチペア数が所定の閾値よりも多い所定数以上のモデル画像、すなわち、類似モデル画像と、クエリ画像と、アウトライヤ除去後のマッチペアの情報を、アフィンパラメータ取得部97に供給する。アフィンパラメータ取得部97は、残ったマッチペアから、クエリ画像とそれぞれの類似モデル画像とのアフィンパラメータを取得し、クエリ画像、アフィンパラメータ、類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、アフィン変換処理部98に供給する。
If it is determined in step S46 that a predetermined number or more of model images have been extracted, in step S47, the
ステップS48において、アフィン変換処理部98は、供給された類似モデル画像をアフィンパラメータで変換し、クエリ画像に対応する撮像方向から同じ大きさに撮像された画像に補正する。アフィン変換処理部98は、クエリ画像、アフィン変換後の類似モデル画像、および、アウトライヤ除去後のマッチペアの情報を、識別特徴点比較部99に供給する。
In step S48, the affine
ステップS49において、識別特徴点比較部99は、識別特徴点記憶部92に記憶されているそれぞれのモデル画像の識別特徴点に基づいて、アフィン変換後の類似モデル画像における識別特徴点を求めてその特徴量を算出するとともに、クエリ画像上の特徴量との識別特徴点における相関値を算出する。
In step S49, the identification feature
なお、ステップS19の処理において、識別特徴点抽出部79が、図8乃至図12を用いて説明したようにして、類似のモデル画像におけるにおける識別特徴点の抽出を、類似部分を区別して行うか、または、階層化させていた場合、識別特徴点比較部99は、区別された、または、階層化された、それぞれの識別特徴点にしたがって相関値を算出する。
In the process of step S19, as described with reference to FIGS. 8 to 12, the identification feature
ステップS46において、マッチペア数が所定数以上抽出されなかったと判断された場合、または、ステップS49の処理の終了後、ステップS50において、識別処理部100は、アウトライヤ除去部96から供給されたモデル画像ごとのクエリ画像とのマッチペア数、または、識別特徴点比較部99から供給された類似モデル画像ごとのクエリ画像との識別特徴点における相関値を基に、クエリ画像に対応するモデル画像を識別し、識別結果を識別結果出力部101に出力する。
If it is determined in step S46 that the number of match pairs has not been extracted more than a predetermined number, or after the processing in step S49 is completed, the
ステップS45において、一致度が所定の値以上であるモデル画像が存在しなかったと判断された場合、ステップS51において、識別処理部100は、アウトライヤ除去部96からの通知に基づいて、クエリ画像はいずれのモデル画像とも一致しないと判定し、判定結果を識別結果出力部101に出力する。
If it is determined in step S45 that there is no model image having a matching degree equal to or greater than a predetermined value, in step S51, the
ステップS50またはステップS51の処理の終了後、ステップS52において、識別結果出力部101は、識別処理部100から供給された識別結果を、例えば、表示部に表示したり、音声データとして出力したり、または、所定の伝送路を介して出力するか所定の記録媒体に記録させることなどにより、他の装置に出力して、処理が終了される。
After completion of the processing of step S50 or step S51, in step S52, the identification
このような処理により、例えば、図1に示す画像11乃至画像15がモデル画像として登録され、図4を用いて説明したクエリ画像111が入力された場合でも、クエリ画像にそれぞれ多くの特徴点でマッチングしている画像11乃至画像15のなかから、画像12を識別することが可能となる。
With such a process, for example, even when the
以上説明した処理により、認識装置51は、オクルージョンに強く、ロバストであるという一般物体認識器の特徴を保持したまま、類似したモデルが存在した場合でも、どの類似モデルに最も近いかということを正しく識別することが可能となる。
Through the processing described above, the
なお、ここでは、認識装置51は1つの装置であるものとして説明したが、識別特徴点選択部61と判定処理部62とは、それぞれ、異なる1つの装置として構成されていても良い。
Here, although the
また、識別特徴点の抽出と、画像の識別処理は連続して行われなくても良く、識別特徴点選択部61と判定処理部62とが、それぞれ、異なる1つの装置として構成され、乖離して設置されていても良いことはいうまでもない。換言すれば、識別特徴点選択部61に対応する装置により生成される識別特徴点が識別特徴点記憶部92に記憶されている判定処理部62に対応する装置は、識別特徴点選択部61に対応する装置と乖離した場所に設置されても単独で画像の識別処理を行うことができる。
Further, the extraction of the identification feature points and the image identification processing do not have to be performed continuously, and the identification feature
上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。そのソフトウェアは、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、記録媒体からインストールされる。この場合、上述した処理は、図16に示されるようなパーソナルコンピュータ500により実行される。
The series of processes described above can be executed by hardware or can be executed by software. The software is a computer in which the program constituting the software is incorporated in dedicated hardware, or various functions can be executed by installing various programs, for example, a general-purpose personal computer For example, it is installed from a recording medium. In this case, the processing described above is executed by a
図16において、CPU(Central Processing Unit)501は、ROM(Read Only Memory)502に記憶されているプログラム、または、記憶部508からRAM(Random Access Memory)503にロードされたプログラムに従って各種の処理を実行する。RAM503にはまた、CPU501が各種の処理を実行する上において必要なデータなどが適宜記憶される。
In FIG. 16, a CPU (Central Processing Unit) 501 performs various processes according to a program stored in a ROM (Read Only Memory) 502 or a program loaded from a
CPU501、ROM502、およびRAM503は、内部バス504を介して相互に接続されている。この内部バス504にはまた、入出力インターフェース505も接続されている。
The
入出力インターフェース505には、キーボード、マウスなどよりなる入力部506、CRT,LCDなどよりなるディスプレイ、スピーカなどよりなる出力部507、ハードディスクなどより構成される記憶部508、並びに、モデム、ターミナルアダプタなどより構成される通信部509が接続されている。通信部509は、電話回線やCATVを含む各種のネットワークを介しての通信処理を行う。
The input /
入出力インターフェース505にはまた、必要に応じてドライブ510が接続され、磁気ディスク、光ディスク、光磁気ディスク、あるいは半導体メモリなどによりなるリムーバブルメディア521が適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部508にインストールされる。
A
一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。 When a series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.
この記録媒体は、図16に示されるように、コンピュータとは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されているリムーバブルメディア521よりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM502や記憶部508が含まれるハードディスクなどで構成される。
As shown in FIG. 16, this recording medium is not only composed of a package medium consisting of a
また、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。 Further, in the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but may be performed in parallel or It also includes processes that are executed individually.
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。 In the present specification, the system represents the entire apparatus constituted by a plurality of apparatuses.
なお、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。 The embodiment of the present invention is not limited to the above-described embodiment, and various modifications can be made without departing from the gist of the present invention.
51 認識装置, 61 識別特徴点選択部, 62 判定処理部, 71 モデル画像取得部, 72特徴量抽出部, 73 モデル画像辞書記憶部, 74 マッチング処理部, 75 アウトライヤ除去部, 76 アフィンパラメータ取得部, 77 アフィン変換処理部, 78 相関画像生成部, 79 識別特徴点抽出部, 91 モデル画像辞書記憶部, 92 識別特徴点記憶部, 93 クエリ画像取得部, 94 特徴量抽出部, 95 マッチング処理部, 96 アウトライヤ除去部, 97 アフィンパラメータ取得部, 98 アフィン変換処理部, 99 識別特徴点比較部, 100 識別処理部, 101 識別結果出力部
DESCRIPTION OF
Claims (17)
複数のモデル画像を取得するモデル画像取得手段と、
前記モデル画像取得手段により取得された前記モデル画像の特徴量を抽出するモデル画像特徴量抽出手段と、
前記モデル画像特徴量抽出手段により抽出された、前記モデル画像の前記特徴量のマッチング処理を行うマッチング手段と、
前記マッチング手段によるマッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する識別特徴点抽出手段と
を備える情報処理装置。 In an information processing apparatus that generates information used to identify an image,
Model image acquisition means for acquiring a plurality of model images;
Model image feature quantity extraction means for extracting the feature quantity of the model image acquired by the model image acquisition means;
Matching means for performing matching processing of the feature amount of the model image extracted by the model image feature amount extraction means;
As a result of matching by the matching means, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points having a small correlation with the predetermined model image are represented by the similar model image. An information processing apparatus comprising: an identification feature point extracting unit that extracts as an identification feature point used for identification between the two.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the matching unit includes an outlier removal unit that removes an outlier from a result of the process of matching the feature amount between the model images.
前記識別特徴点抽出手段は、前記第1の変換手段により変換された前記類似モデル画像を用いて、前記識別特徴点を抽出する
請求項1に記載の情報処理装置。 A first conversion unit that performs affine transformation on the similar model image so as to match the predetermined model image;
The information processing apparatus according to claim 1, wherein the identification feature point extraction unit extracts the identification feature point using the similar model image converted by the first conversion unit.
前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、
前記識別特徴点抽出手段により抽出された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段と
を更に備える請求項1に記載の情報処理装置。 Recognition image acquisition means for acquiring a recognition image;
A recognized image feature amount extracting unit that extracts a feature amount of the recognized image acquired by the recognized image acquiring unit;
Identification for identifying the similar model image corresponding to the recognition image by obtaining a correlation between the feature amount of the similar model image and the recognition image at the identification feature point extracted by the identification feature point extraction unit The information processing apparatus according to claim 1, further comprising: means.
前記識別手段は、前記第2の変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別する
請求項4に記載の情報処理装置。 A second conversion means for performing an affine transformation on the similar model image so as to match the recognition image;
The information processing apparatus according to claim 4, wherein the identification unit identifies the similar model image corresponding to the recognition image using the similar model image converted by the second conversion unit.
請求項1に記載の情報処理装置。 The identification feature point extracted by the identification feature point extracting means is a first identification feature point that is identified as a corresponding similar model image as the number of matches increases, and a similar model image that corresponds as the number of matches decreases. The information processing device according to claim 1, wherein the information processing device is classified into two identification feature points identified as being.
請求項1に記載の情報処理装置。 The information processing apparatus according to claim 1, wherein the identification feature point extraction unit extracts the identification feature points hierarchically.
複数のモデル画像を取得し、
取得された前記モデル画像の特徴量を抽出し、
抽出された前記モデル画像の前記特徴量のマッチング処理を行い、
マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する
ステップを含む情報処理方法。 In an information processing method of an information processing apparatus that generates information used to identify an image,
Acquire multiple model images,
Extracting the feature quantity of the acquired model image,
Perform the matching process of the feature amount of the extracted model image,
As a result of matching, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are identified between the similar model images. An information processing method including a step of extracting as identification feature points to be used.
複数のモデル画像を取得し、
取得された前記モデル画像の特徴量を抽出し、
抽出された前記モデル画像の前記特徴量のマッチング処理を行い、
マッチングの結果、所定のモデル画像と所定数以上の前記特徴量がマッチした前記モデル画像である類似モデル画像において、前記所定のモデル画像と相関の少ない特徴点を、前記類似モデル画像間の識別に用いる識別特徴点として抽出する
ステップを含む処理をコンピュータに実行させるプログラム。 A program for causing a computer to execute processing for generating information used to identify an image,
Acquire multiple model images,
Extracting the feature quantity of the acquired model image,
Perform the matching process of the feature amount of the extracted model image,
As a result of matching, in a similar model image that is a model image in which a predetermined number of feature quantities match a predetermined model image, feature points that have little correlation with the predetermined model image are identified between the similar model images. A program that causes a computer to execute processing including a step of extracting as identification feature points to be used.
前記モデル画像のうち、他の前記モデル画像のうちのいずれかと所定数以上の前記特徴量がマッチした複数の前記モデル画像である類似モデル画像において、前記類似モデル画像間で相関の少ない特徴点である識別特徴点を記憶する記憶手段と、
前記認識画像を取得する認識画像取得手段と、
前記認識画像取得手段により取得された前記認識画像の特徴量を抽出する認識画像特徴量抽出手段と、
前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する識別手段と
を備える画像識別装置。 In an image identification device that stores a plurality of model images and feature amounts of the model images, receives an input of a recognition image, and identifies the model image corresponding to the recognition image,
Among the model images, in a similar model image that is a plurality of model images in which a predetermined number or more of the feature quantities match with any of the other model images, feature points with little correlation between the similar model images Storage means for storing an identification feature point;
Recognition image acquisition means for acquiring the recognition image;
A recognized image feature amount extracting unit that extracts a feature amount of the recognized image acquired by the recognized image acquiring unit;
An identification unit for identifying the similar model image corresponding to the recognition image by obtaining a correlation between feature quantities of the similar model image and the recognition image at the identification feature point stored by the storage unit. Image identification device.
前記識別手段は、前記変換手段により変換された前記類似モデル画像を用いて、前記認識画像に対応する前記類似モデル画像を識別する
請求項10に記載の画像識別装置。 Further comprising conversion means for performing affine transformation on the similar model image so as to match the recognition image,
The image identification device according to claim 10, wherein the identification unit identifies the similar model image corresponding to the recognition image using the similar model image converted by the conversion unit.
前記マッチング手段によるマッチングの結果、前記認識画像と所定の閾値以上の特徴量がマッチングした前記モデル画像が所定数以上であるとき、前記識別手段は、所定数以上の前記モデル画像を前記類似モデル画像として、前記記憶手段により記憶された前記識別特徴点において、前記類似モデル画像と前記認識画像の特徴量との相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
請求項10に記載の画像識別装置。 The image processing apparatus further includes a matching unit that performs a feature amount matching process between the recognized image acquired by the recognized image acquiring unit and the stored model image.
As a result of the matching by the matching unit, when the number of model images in which the recognition image and the feature quantity equal to or greater than a predetermined threshold match is greater than or equal to a predetermined number, the identification unit The similar model image corresponding to the recognized image is identified by obtaining a correlation between the similar model image and a feature amount of the recognized image at the identification feature point stored by the storage unit. The image identification device described in 1.
請求項12に記載の画像識別装置。 The image identification device according to claim 12, wherein the matching unit includes an outlier removal unit that removes an outlier from the result of the matching processing of the feature amount between the model images.
請求項10に記載の情報処理装置。 The identification feature point stored by the storage means is a first identification feature point identified as a corresponding similar model image as the number of matches increases, and a corresponding similar model image as the number of matches decreases. The information processing apparatus according to claim 10, wherein the information processing apparatus is classified into two identification feature points to be identified.
請求項10に記載の情報処理装置。 The information processing apparatus according to claim 10, wherein the identification feature points stored by the storage unit have a hierarchical structure.
前記認識画像を取得し、
取得された前記認識画像の特徴量を抽出し、
前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
ステップを含む画像識別方法。 A first storage unit that stores a plurality of model images and feature amounts of the model images; and a plurality of the feature images that match a predetermined number or more of the feature amounts with any of the other model images of the model images A similar model image that is a model image, and a second storage unit that stores identification feature points that are feature points with little correlation between the similar model images, and receives input of a recognition image and corresponds to the recognition image In the image identification method of the image identification device for identifying the model image to be performed,
Obtaining the recognition image;
Extracting the feature quantity of the acquired recognition image;
An image identification method including the step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature quantities of the similar model image and the recognized image at the identified feature point.
前記認識画像を取得し、
取得された前記認識画像の特徴量を抽出し、
前記識別特徴点において、前記類似モデル画像と前記認識画像との特徴量の相関を求めることにより、前記認識画像に対応する前記類似モデル画像を識別する
ステップを含む処理をコンピュータに実行させるプログラム。 A first storage unit that stores a plurality of model images and feature amounts of the model images; and a plurality of the feature images that match a predetermined number or more of the feature amounts with any of the other model images of the model images Corresponding to an input recognition image using information stored in a second storage unit that stores identification feature points that are feature points having little correlation between the similar model images in a similar model image that is a model image A program for causing a computer to execute processing for identifying the model image to be performed,
Obtaining the recognition image;
Extracting the feature quantity of the acquired recognition image;
A program that causes a computer to execute a process including a step of identifying the similar model image corresponding to the recognized image by obtaining a correlation between feature amounts of the similar model image and the recognized image at the identified feature point.
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007285164A JP5018404B2 (en) | 2007-11-01 | 2007-11-01 | Image identification apparatus, image identification method, and program |
CN2008101683880A CN101425144B (en) | 2007-11-01 | 2008-10-30 | Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program |
US12/261,190 US8374437B2 (en) | 2007-11-01 | 2008-10-30 | Information processing apparatus, information processing method, image identifying apparatus, image identifying method, and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007285164A JP5018404B2 (en) | 2007-11-01 | 2007-11-01 | Image identification apparatus, image identification method, and program |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2009116385A true JP2009116385A (en) | 2009-05-28 |
JP2009116385A5 JP2009116385A5 (en) | 2010-11-04 |
JP5018404B2 JP5018404B2 (en) | 2012-09-05 |
Family
ID=40615748
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007285164A Expired - Fee Related JP5018404B2 (en) | 2007-11-01 | 2007-11-01 | Image identification apparatus, image identification method, and program |
Country Status (3)
Country | Link |
---|---|
US (1) | US8374437B2 (en) |
JP (1) | JP5018404B2 (en) |
CN (1) | CN101425144B (en) |
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008507A (en) * | 2009-06-25 | 2011-01-13 | Kddi Corp | Image retrieval method and system |
WO2012014403A1 (en) * | 2010-07-30 | 2012-02-02 | パナソニック株式会社 | Detection device and method for transition area in space |
JP2013008093A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image recognition device, image recognition method and program |
WO2014030400A1 (en) * | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | Object discrimination device, object discrimination method, and program |
JP2014120156A (en) * | 2013-11-12 | 2014-06-30 | Team Lab Inc | Medicine recognition device, medicine recognition method, and medicine recognition program |
WO2014103297A1 (en) * | 2012-12-28 | 2014-07-03 | 日本電気株式会社 | Object identification device, method, and storage medium |
KR101528017B1 (en) * | 2010-03-11 | 2015-06-10 | 퀄컴 인코포레이티드 | Image feature detection based on application of multiple feature detectors |
EP2919163A2 (en) | 2014-03-14 | 2015-09-16 | Omron Corporation | Image processing device, image processing method, and image processing program |
JP2016014914A (en) * | 2014-06-30 | 2016-01-28 | キヤノン株式会社 | Image processor, image processing method and program |
JP2016038790A (en) * | 2014-08-08 | 2016-03-22 | Kddi株式会社 | Image processor and image feature detection method thereof, program and device |
JP2016110477A (en) * | 2014-12-09 | 2016-06-20 | エヌ・ティ・ティ・コムウェア株式会社 | Information processor, information processing method, and program |
JP2016541052A (en) * | 2013-11-14 | 2016-12-28 | シクパ ホルディング ソシエテ アノニムSicpa Holding Sa | Image analysis to certify products |
US10055670B2 (en) | 2014-03-14 | 2018-08-21 | Omron Corporation | Image recognition device, image sensor, and image recognition method using feature |
US11507780B2 (en) | 2018-03-05 | 2022-11-22 | Nec Corporation | Image analysis device, image analysis method, and image analysis program |
Families Citing this family (19)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP5018404B2 (en) * | 2007-11-01 | 2012-09-05 | ソニー株式会社 | Image identification apparatus, image identification method, and program |
US20110103965A1 (en) * | 2009-10-30 | 2011-05-05 | General Electric Company | Wind turbine blades |
CN101839722A (en) * | 2010-05-06 | 2010-09-22 | 南京航空航天大学 | Method for automatically recognizing target at medium and low altitudes and positioning carrier with high accuracy |
ES2384928B1 (en) * | 2010-06-25 | 2013-05-20 | Telefónica, S.A. | METHOD AND SYSTEM FOR THE QUICK AND ROBUST IDENTIFICATION OF SPECIFIC PRODUCTS IN IMAGES. |
CN103548036B (en) * | 2011-05-17 | 2014-10-22 | 松下电器产业株式会社 | Character string extraction method and character string extraction device |
JP6098065B2 (en) * | 2011-09-13 | 2017-03-22 | 株式会社リコー | Image inspection apparatus, image inspection method, and program |
JP2013156722A (en) * | 2012-01-27 | 2013-08-15 | Sony Corp | Image processing device, image processing method, learning device, learning method and program |
US9066200B1 (en) * | 2012-05-10 | 2015-06-23 | Longsand Limited | User-generated content in a virtual reality environment |
US9430876B1 (en) * | 2012-05-10 | 2016-08-30 | Aurasma Limited | Intelligent method of determining trigger items in augmented reality environments |
WO2014169238A1 (en) * | 2013-04-11 | 2014-10-16 | Digimarc Corporation | Methods for object recognition and related arrangements |
WO2014178241A1 (en) * | 2013-05-02 | 2014-11-06 | コニカミノルタ株式会社 | Image processing device, image processing method, and image processing program |
CN105659287B (en) | 2013-08-28 | 2018-08-17 | 株式会社理光 | Image processing apparatus, image processing method and imaging system |
US10210427B2 (en) * | 2014-07-09 | 2019-02-19 | Slyce Acquisition Inc. | Systems, methods, and devices for image matching and object recognition in images |
CN106354735A (en) * | 2015-07-22 | 2017-01-25 | 杭州海康威视数字技术股份有限公司 | Image target searching method and device |
CN105956022B (en) * | 2016-04-22 | 2021-04-16 | 腾讯科技(深圳)有限公司 | Electronic mirror image processing method and device, and image processing method and device |
US10121237B1 (en) * | 2017-04-17 | 2018-11-06 | Rohr, Inc. | Component inspection method |
MX2019012706A (en) | 2017-04-24 | 2019-12-16 | Patek Philippe Sa Geneve | Method for identifying a timepiece. |
CN107480587B (en) * | 2017-07-06 | 2020-12-08 | 创新先进技术有限公司 | Model configuration and image recognition method and device |
CN110580488B (en) * | 2018-06-08 | 2022-04-01 | 中南大学 | Multi-working-condition industrial monitoring method, device, equipment and medium based on dictionary learning |
Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01102688A (en) * | 1987-10-15 | 1989-04-20 | Nec Corp | Pattern recognition system |
JP2000123186A (en) * | 1998-10-14 | 2000-04-28 | Canon Inc | Object recognizing device |
JP2002183667A (en) * | 2000-12-12 | 2002-06-28 | Ricoh Co Ltd | Character-recognizing device and recording medium |
JP2004185264A (en) * | 2002-12-03 | 2004-07-02 | Canon Inc | Character recognition method |
JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition device and method as well as robot device |
JP2005196678A (en) * | 2004-01-09 | 2005-07-21 | Neucore Technol Inc | Template matching method, and objective image area extracting device |
JP2006190201A (en) * | 2005-01-07 | 2006-07-20 | Sony Corp | Image processing system, learning device, method and program |
JP2006252272A (en) * | 2005-03-11 | 2006-09-21 | Casio Comput Co Ltd | Image identification device, image identification processing program, image identification processing method, and data structure of registerd image data |
Family Cites Families (11)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US6453069B1 (en) * | 1996-11-20 | 2002-09-17 | Canon Kabushiki Kaisha | Method of extracting image from input image using reference image |
US7417645B2 (en) * | 2003-03-27 | 2008-08-26 | Microsoft Corporation | Markup language and object model for vector graphics |
WO2005059811A1 (en) * | 2003-12-16 | 2005-06-30 | Canon Kabushiki Kaisha | Pattern identification method, apparatus, and program |
US8050491B2 (en) * | 2003-12-17 | 2011-11-01 | United Technologies Corporation | CAD modeling system and method |
CA2455359C (en) * | 2004-01-16 | 2013-01-08 | Geotango International Corp. | System, computer program and method for 3d object measurement, modeling and mapping from single imagery |
JP2005210526A (en) * | 2004-01-23 | 2005-08-04 | Konica Minolta Photo Imaging Inc | Image processing apparatus, method, and program, image pickup device, and image data outputting method and program |
US7706603B2 (en) * | 2005-04-19 | 2010-04-27 | Siemens Corporation | Fast object detection for augmented reality systems |
JP4653606B2 (en) * | 2005-05-23 | 2011-03-16 | 株式会社東芝 | Image recognition apparatus, method and program |
US7856125B2 (en) * | 2006-01-31 | 2010-12-21 | University Of Southern California | 3D face reconstruction from 2D images |
US8254690B2 (en) * | 2007-10-19 | 2012-08-28 | Sony Corporation | Information processing apparatus, information processing method, and program |
JP5018404B2 (en) * | 2007-11-01 | 2012-09-05 | ソニー株式会社 | Image identification apparatus, image identification method, and program |
-
2007
- 2007-11-01 JP JP2007285164A patent/JP5018404B2/en not_active Expired - Fee Related
-
2008
- 2008-10-30 CN CN2008101683880A patent/CN101425144B/en not_active Expired - Fee Related
- 2008-10-30 US US12/261,190 patent/US8374437B2/en active Active
Patent Citations (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01102688A (en) * | 1987-10-15 | 1989-04-20 | Nec Corp | Pattern recognition system |
JP2000123186A (en) * | 1998-10-14 | 2000-04-28 | Canon Inc | Object recognizing device |
JP2002183667A (en) * | 2000-12-12 | 2002-06-28 | Ricoh Co Ltd | Character-recognizing device and recording medium |
JP2004185264A (en) * | 2002-12-03 | 2004-07-02 | Canon Inc | Character recognition method |
JP2004326693A (en) * | 2003-04-28 | 2004-11-18 | Sony Corp | Image recognition device and method as well as robot device |
JP2005196678A (en) * | 2004-01-09 | 2005-07-21 | Neucore Technol Inc | Template matching method, and objective image area extracting device |
JP2006190201A (en) * | 2005-01-07 | 2006-07-20 | Sony Corp | Image processing system, learning device, method and program |
JP2006252272A (en) * | 2005-03-11 | 2006-09-21 | Casio Comput Co Ltd | Image identification device, image identification processing program, image identification processing method, and data structure of registerd image data |
Cited By (22)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011008507A (en) * | 2009-06-25 | 2011-01-13 | Kddi Corp | Image retrieval method and system |
KR101528017B1 (en) * | 2010-03-11 | 2015-06-10 | 퀄컴 인코포레이티드 | Image feature detection based on application of multiple feature detectors |
WO2012014403A1 (en) * | 2010-07-30 | 2012-02-02 | パナソニック株式会社 | Detection device and method for transition area in space |
US9064171B2 (en) | 2010-07-30 | 2015-06-23 | Panasonic Intellectual Property Management Co., Ltd. | Detection device and method for transition area in space |
US9002115B2 (en) | 2011-06-22 | 2015-04-07 | Canon Kabushiki Kaisha | Dictionary data registration apparatus for image recognition, method therefor, and program |
JP2013008093A (en) * | 2011-06-22 | 2013-01-10 | Canon Inc | Image recognition device, image recognition method and program |
WO2014030400A1 (en) * | 2012-08-23 | 2014-02-27 | 日本電気株式会社 | Object discrimination device, object discrimination method, and program |
US9679221B2 (en) | 2012-08-23 | 2017-06-13 | Nec Corporation | Object identification apparatus, object identification method, and program |
JPWO2014030400A1 (en) * | 2012-08-23 | 2016-07-28 | 日本電気株式会社 | Object identification device, object identification method, and program |
WO2014103297A1 (en) * | 2012-12-28 | 2014-07-03 | 日本電気株式会社 | Object identification device, method, and storage medium |
US9633278B2 (en) | 2012-12-28 | 2017-04-25 | Nec Corporation | Object identification device, method, and storage medium |
JPWO2014103297A1 (en) * | 2012-12-28 | 2017-01-12 | 日本電気株式会社 | Object identification device, method and program |
JP2014120156A (en) * | 2013-11-12 | 2014-06-30 | Team Lab Inc | Medicine recognition device, medicine recognition method, and medicine recognition program |
JP2016541052A (en) * | 2013-11-14 | 2016-12-28 | シクパ ホルディング ソシエテ アノニムSicpa Holding Sa | Image analysis to certify products |
US9600893B2 (en) | 2014-03-14 | 2017-03-21 | Omron Corporation | Image processing device, method, and medium for discriminating a type of input image using non-common regions |
JP2015176272A (en) * | 2014-03-14 | 2015-10-05 | オムロン株式会社 | Image processor, image processing method, and image processing program |
EP2919163A2 (en) | 2014-03-14 | 2015-09-16 | Omron Corporation | Image processing device, image processing method, and image processing program |
US10055670B2 (en) | 2014-03-14 | 2018-08-21 | Omron Corporation | Image recognition device, image sensor, and image recognition method using feature |
JP2016014914A (en) * | 2014-06-30 | 2016-01-28 | キヤノン株式会社 | Image processor, image processing method and program |
JP2016038790A (en) * | 2014-08-08 | 2016-03-22 | Kddi株式会社 | Image processor and image feature detection method thereof, program and device |
JP2016110477A (en) * | 2014-12-09 | 2016-06-20 | エヌ・ティ・ティ・コムウェア株式会社 | Information processor, information processing method, and program |
US11507780B2 (en) | 2018-03-05 | 2022-11-22 | Nec Corporation | Image analysis device, image analysis method, and image analysis program |
Also Published As
Publication number | Publication date |
---|---|
CN101425144B (en) | 2012-05-23 |
US20090141984A1 (en) | 2009-06-04 |
CN101425144A (en) | 2009-05-06 |
US8374437B2 (en) | 2013-02-12 |
JP5018404B2 (en) | 2012-09-05 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5018404B2 (en) | Image identification apparatus, image identification method, and program | |
Meenpal et al. | Facial mask detection using semantic segmentation | |
EP1693782B1 (en) | Method for facial features detection | |
US8934724B2 (en) | Image recognition device, image recognizing method, storage medium that stores computer program for image recognition | |
JP7058941B2 (en) | Dictionary generator, dictionary generation method, and program | |
US20130287256A1 (en) | Method and system for real time image recognition on a mobile device | |
Parde et al. | Face and image representation in deep CNN features | |
Ke et al. | Image recapture detection using multiple features | |
Tong et al. | Learning no-reference quality metric by examples | |
Al-Naser et al. | Reconstruction of occluded facial images using asymmetrical principal component analysis | |
WO2022103684A1 (en) | Face-aware person re-identification system | |
KR20130120175A (en) | Apparatus, method and computer readable recording medium for generating a caricature automatically | |
JP2018124689A (en) | Moving body detection device, moving body detection system and moving body detection method | |
CN106503112B (en) | Video retrieval method and device | |
CN106709915B (en) | Image resampling operation detection method | |
Parde et al. | Deep convolutional neural network features and the original image | |
JP5199349B2 (en) | High performance image identification | |
US20210142064A1 (en) | Image processing apparatus, method of processing image, and storage medium | |
CN107704864B (en) | Salient object detection method based on image object semantic detection | |
US10026185B2 (en) | Image processing device, non-transitory computer readable medium, and method for image alignment | |
JP5848665B2 (en) | Moving object motion vector detection apparatus, moving object motion vector detection method, and program | |
CN113763224A (en) | Image processing method and device | |
CN106845540B (en) | Image resampling operation interpolation type identification method | |
JP5979008B2 (en) | Image processing apparatus, image processing method, and program | |
JP2002117409A (en) | Image processing method and device thereof |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20100915 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100915 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111027 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20111117 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20111216 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20120515 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20120528 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20150622 Year of fee payment: 3 |
|
LAPS | Cancellation because of no payment of annual fees |