JP2013058174A - Image processing program, image processing method, and image processing device - Google Patents
Image processing program, image processing method, and image processing device Download PDFInfo
- Publication number
- JP2013058174A JP2013058174A JP2011197622A JP2011197622A JP2013058174A JP 2013058174 A JP2013058174 A JP 2013058174A JP 2011197622 A JP2011197622 A JP 2011197622A JP 2011197622 A JP2011197622 A JP 2011197622A JP 2013058174 A JP2013058174 A JP 2013058174A
- Authority
- JP
- Japan
- Prior art keywords
- feature point
- target image
- image data
- feature
- learning target
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Analysis (AREA)
Abstract
Description
本発明は、画像処理プログラム等に関するものである。 The present invention relates to an image processing program and the like.
予め画像を学習しておき、かかる画像と同一の画像をあるカメラ視点で撮影した場合に、予め学習しておいた画像を基にして、撮影した画像の姿勢を認識する技術がある。撮影した画像の姿勢を認識するためには、予め学習しておいた画像の座標と、撮影した画像の座標とを対応付ける処理が行われる。各画像の座標を対応付ける技術として、ASIFTや、Randomized Treesによる手法等がある。 There is a technique of learning an image in advance and recognizing the posture of the captured image based on the previously learned image when the same image as that image is captured from a certain camera viewpoint. In order to recognize the orientation of the photographed image, a process of associating the coordinates of the image learned in advance with the coordinates of the photographed image is performed. Techniques for associating the coordinates of each image include ASIFT and Randomized Trees.
例えば、Randomized Treesによる手法では、学習しておいた画像と撮影した画像との座標をランダムに選択し、選択した座標の画素を順次比較することで、各画像の座標とを対応付ける。 For example, in the technique based on Randomized Trees, the coordinates of a learned image and a captured image are randomly selected, and the pixels of the selected coordinates are sequentially compared to associate the coordinates of each image.
しかしながら、上述した従来技術では、学習しておいた画像の座標と、姿勢の認識対象となる画像の座標とを対応付ける場合の計算量が多いという問題があった。 However, the above-described conventional technique has a problem that the amount of calculation is large when the coordinates of the learned image are associated with the coordinates of the image that is the posture recognition target.
例えば、Randomized Treesによる手法では、比較対象となる画素の組み合わせが多いため、各組み合わせを一つ一つ比較していくと、計算に多くの時間を要してしまう。 For example, in the method based on Randomized Trees, since there are many combinations of pixels to be compared, if each combination is compared one by one, a long time is required for calculation.
開示の技術は、上記に鑑みてなされたものであって、各画像の座標を対応付ける場合の計算量を削減することができる画像処理プログラム、画像処理方法および画像処理装置を提供することを目的とする。 The disclosed technique has been made in view of the above, and an object thereof is to provide an image processing program, an image processing method, and an image processing apparatus that can reduce the amount of calculation when the coordinates of each image are associated. To do.
開示の画像処理プログラムは、コンピュータに下記の処理を実行させる。画像処理プログラムは、コンピュータに、画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成させる。コンピュータに、学習対象画像および複数の視点変動画像から特徴点を抽出させる。コンピュータに、学習対象画像から抽出した各特徴点に対して、複数の視点変動画像から抽出した各特徴点を対応付けることで、複数の視点変動画像から抽出した各特徴点を複数の特徴点群に分類させる。コンピュータに、特徴点群を含む領域を登録テーブルに登録させる。コンピュータに、認識対象画像を取得し、該認識対象画像から特徴点を抽出させる。コンピュータに、認識対象画像から抽出した特徴点の位置と、前記登録テーブルの領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付させる。 The disclosed image processing program causes a computer to execute the following processing. The image processing program causes a computer to generate a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image by projective conversion of the learning target image obtained by capturing the image from the front camera viewpoint. A computer extracts feature points from the learning target image and the plurality of viewpoint variation images. By associating each feature point extracted from a plurality of viewpoint variation images with each feature point extracted from the learning target image on a computer, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. Let them be classified. The computer registers the region including the feature point group in the registration table. The computer acquires a recognition target image and causes feature points to be extracted from the recognition target image. The computer associates the feature point of the recognition target image with the feature point of the learning target image based on the relationship between the position of the feature point extracted from the recognition target image and the region of the registration table.
開示の画像処理プログラムによれば、各画像の座標を対応付ける場合の計算量を削減することができるという効果を奏する。 According to the disclosed image processing program, it is possible to reduce the amount of calculation when the coordinates of each image are associated.
以下に、本願の開示する画像処理プログラム、画像処理方法および画像処理装置の実施例を図面に基づいて詳細に説明する。なお、この実施例によりこの発明が限定されるものではない。 Embodiments of an image processing program, an image processing method, and an image processing apparatus disclosed in the present application will be described below in detail with reference to the drawings. Note that the present invention is not limited to the embodiments.
本実施例1にかかる画像処理装置について説明する。図1は、本実施例1にかかる画像処理装置の構成を示す機能ブロック図である。図1に示すように、画像処理装置100は、カメラ110a、入力部110b、出力部120、記憶部130、制御部140を有する。
An image processing apparatus according to the first embodiment will be described. FIG. 1 is a functional block diagram of the configuration of the image processing apparatus according to the first embodiment. As illustrated in FIG. 1, the image processing apparatus 100 includes a
カメラ110aは、対象物の画像を撮影する。学習フェーズにおいて、カメラ110aは、学習対象となる対象物の画像を撮影し、撮影した画像のデータを、制御部140に出力する。また、カメラ110aは、認識フェーズにおいて、姿勢の認識対象となる対象物の画像を撮影し、撮影した画像のデータを、制御部140に出力する。以下の説明において、学習対象となる画像のデータを、学習対象画像データと表記する。認識対象となる画像のデータを、認識対象画像データと表記する。
The
学習対象画像データは、対象物を正面から撮影した画像のデータとする。認識対象画像データは、対象物を任意の方向から撮影した画像のデータとする。学習対象画像データの撮影対象となる対象物および認識対象画像データの撮影対象となる対象物は同一の対象物とする。対象物に多少の凹凸があってもよいが、平面的であることが望ましい。 The learning object image data is data of an image obtained by photographing the object from the front. The recognition target image data is data of an image obtained by photographing the target object from an arbitrary direction. The object to be imaged in the learning object image data and the object to be imaged in the recognition object image data are the same object. The object may have some unevenness, but is preferably planar.
入力部110bは、各種のデータを画像処理装置100に入力する入力装置である。例えば、入力部110bは、入力キー、タッチパネル等に対応する。出力部120は、制御部140の処理結果を出力する出力装置である。
The input unit 110 b is an input device that inputs various data to the image processing apparatus 100. For example, the input unit 110b corresponds to an input key, a touch panel, or the like. The
記憶部130は、学習対象画像データ130a、視点変動画像データ群130b、登録テーブル130c、認識対象画像データ130dを記憶する。記憶部130は、例えば、RAM(Random Access Memory)、ROM(Read Only Memory)、フラッシュメモリ(Flash Memory)などの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The
学習対象画像データ130aは、上記のように、カメラ110aが撮影した学習対象となる画像のデータである。
As described above, the learning
視点変動画像データ群130bは、対象物を様々なカメラ視点から撮影した画像に相当する画像データ群である。
The viewpoint changing
登録テーブル130cは、学習対象画像データ130a、視点変動画像データ130bから抽出される特徴点に関する各種の情報を保持するテーブルである。登録テーブル130cのデータ構造は、後述する。
The registration table 130c is a table that holds various types of information related to feature points extracted from the learning
認識対象画像データ130dは、上記のように、カメラ110aが撮影した認識対象となる画像のデータである。
As described above, the recognition
制御部140は、データ管理部140a、視点変動画像生成部140b、特徴点抽出部140c、分類部140d、対応付け部140eを有する。制御部140は、例えば、ASIC(Application Specific Integrated Circuit)や、FPGA(Field Programmable Gate Array)などの集積装置に対応する。また、制御部140は、例えば、CPUやMPU(Micro Processing Unit)等の電子回路に対応する。
The
データ管理部140aは、記憶部130を管理する処理部である。例えば、学習フェーズにおいて、データ管理部140aは、カメラ110aから学習対象画像データを取得し、取得した学習対象画像データを、記憶部130に記憶する。認識フェーズにおいて、データ管理部140aは、カメラ110aから認識対象画像データを取得し、取得した認識対象画像データを、記憶部130に記憶する。
The
視点変動画像生成部140bは、学習対象画像データ130aを基にして、視点変動画像データ群130bを生成する処理部である。視点変動画像生成部140bは、学習対象画像データ130aに対して、カメラ視点の異なる視点変動画像データを、カメラ視点毎に生成する。
The viewpoint variation image generation unit 140b is a processing unit that generates a viewpoint variation
図2は、学習対象画像データと視点変動画像データとの関係を説明するための図である。学習対象画像データ130aは、対象物10の正面のカメラ視点20で対象物10を撮影した画像のデータである。視線変動画像データ群130bは、θ、ψ、φのそれぞれ異なるカメラ視点30a〜30dで対象物10を撮影した画像の各データに対応する。例えば、θ、ψ、φをそれぞれ、ロール角、ピッチ角、ヨー角とする。
FIG. 2 is a diagram for explaining the relationship between learning target image data and viewpoint variation image data. The learning
視点変動画像生成部140bは、学習対象画像データ130aに対して、θ、ψ、φをパラメータに持つ射影変換を適用することで、視点変動画像データを生成する。視点変動画像生成部140bは、ψおよびφの値を、−60°から60°の範囲で10°毎の間隔で、射影変換のパラメータを設定する。また、視点変動画像生成部140bは、θの値を0°から360°の範囲で、45°毎の間隔で射影変換のパラメータを設定する。
The viewpoint variation image generation unit 140b generates viewpoint variation image data by applying projective transformation having θ, ψ, and φ as parameters to the learning
視点変動画像生成部140bは、各パラメータの射影変換を実行して、パラメータ毎に視点変動画像データを生成する。視点変動画像生成部140bは、生成した複数の視点変動画像データを、視点変動画像データ群130bとして、記憶部130に記憶する。
The viewpoint variation image generation unit 140b performs projective transformation of each parameter, and generates viewpoint variation image data for each parameter. The viewpoint variation image generation unit 140b stores the generated plurality of viewpoint variation image data in the
視点変動画像生成部140bが行う射影変換は、従来の如何なる射影変換を用いてもよい。例えば、視点変動画像生成部140bは、文献(金澤靖、金谷健一、’2画像間の特徴点対応の自動探索’、画像ラボ、pp.20-23、2004)に基づいて、射影変換を行う。 The projection transformation performed by the viewpoint variation image generation unit 140b may use any conventional projection transformation. For example, the viewpoint variation image generation unit 140b performs projective transformation based on literature (Akira Kanazawa, Kenichi Kanaya, 'Automatic search for feature point correspondence between two images', Image Lab, pp.20-23, 2004). .
特徴点抽出部140cは、学習対象画像データ130aから特徴点を抽出する。また、特徴点抽出部140cは、視点変動画像データ群130bの各視点変動画像データから、特徴点を抽出する。特徴点抽出部140cは、学習対象画像データ130aから抽出した特徴点に関するデータおよび視点変動画像データ群130bから抽出した特徴点に関するデータを、分類部140dに出力する。
The feature
特徴点抽出部140cは、例えば、SIFT(Scale Invariant Feature Transform)を利用して、特徴点を抽出する。SIFTは、画像データを走査し、特徴の抽出に適した点を検出する技術である。例えば、特徴点抽出部140cは、画像データを走査し、各部分において、画像のエッジの尖り具合、濃淡値の勾配の具合、勾配変化の方向などの複数の要素を数値化する。そして、各要素の数値が極値を取る部分を特徴点として抽出する。
The feature
特徴点抽出部140cは、SIFTを利用して、学習対象画像データ130aから、特徴点を抽出する。図3は、学習対象画像データから抽出した特徴点の一例を示す図である。図3に示す例では、特徴点抽出部140cは、学習対象画像データ130aから、特徴点40A、40B、40Cを抽出する。特徴点抽出部140cは、学習対象画像データ130aからの抽出結果を、分類部140dに出力する。
The feature
図4は、学習対象画像データからの特徴点の抽出結果の一例を示す図である。図4に示すように、この抽出結果1Aは、特徴点の識別情報と、学習対象画像データ上の座標とを対応付けている。 FIG. 4 is a diagram illustrating an example of a feature point extraction result from learning target image data. As shown in FIG. 4, the extraction result 1A associates feature point identification information with coordinates on learning target image data.
特徴点抽出部140cは、SIFTを利用して、視点変動画像データ群130bに含まれる各視点変動画像データから、特徴点を抽出する。図5は、視点変動画像データ群から抽出した特徴点の一例を示す図である。図5に示す例では、視点変動画像データ群130bには、視点変動画像データ13a、13b、13c、13dが含まれている。
The feature
特徴点抽出部140cは、視点変動画像データ13aから、特徴点1a、1bを抽出する。特徴点抽出部140cは、視点変動画像データ13bから、特徴点1c、1dを抽出する。特徴点抽出部140cは、視点変動画像データ13cから、特徴点1e、1f、1gを抽出する。特徴点抽出部140cは、視点変動画像データ13dから、特徴点1h、1iを抽出する。特徴点抽出部140cは、視点変動画像データ群130bからの抽出結果を、分類部140dに出力する。
The feature
図6は、視点変動画像データからの特徴点の抽出結果の一例を示す図である。図6に示すように、この抽出結果1Bは、特徴点の識別情報と、視点変動画像データ上の座標とを対応付けている。また、特徴点抽出部140cは、特徴点に各要素の数値を、抽出結果1Bに対応付ける。ここで、各要素の数値は、例えば、画像のエッジの尖り具合、濃淡値の勾配の具合、勾配変化の方向などをそれぞれ数値化したものである。
FIG. 6 is a diagram illustrating an example of a feature point extraction result from the viewpoint variation image data. As shown in FIG. 6, this extraction result 1B associates the feature point identification information with the coordinates on the viewpoint variation image data. The feature
分類部140dは、視点変動画像データ群130bから抽出された複数の特徴点を分類する処理部である。例えば、分類部140dは、抽出結果1Aと、抽出結果1Bとを基にして、特徴点を分類する。
The classification unit 140d is a processing unit that classifies a plurality of feature points extracted from the viewpoint variation
分類部140dは、抽出結果1Bの視点変動画像データ上の座標を、学習対象画像データ上の座標に変換する。分類部140dは、射影変換の逆行列を、視点変動画像データ上の座標に適用することで、学習対象画像データ上の座標に変換する。図7は、変換結果の一例を示す図である。 The classification unit 140d converts the coordinates on the viewpoint variation image data of the extraction result 1B into the coordinates on the learning target image data. The classification unit 140d converts the inverse matrix of the projective transformation to the coordinates on the learning target image data by applying the inverse matrix to the coordinates on the viewpoint variation image data. FIG. 7 is a diagram illustrating an example of the conversion result.
図7に示すように、変換結果1Cは、識別情報、座標、変換座標、各要素を対応付ける。このうち、変換座標は、射影変換の逆行列により変換された特徴点の座標である。 As shown in FIG. 7, the conversion result 1C associates identification information, coordinates, conversion coordinates, and each element. Of these, the transformation coordinates are the coordinates of the feature points transformed by the inverse matrix of the projective transformation.
分類部140dは、図4の抽出結果1Aの座標と、図7の変換結果1Cの変換座標との距離に応じて、視点変動画像データから抽出した各特徴点を分類する。例えば、視点変動画像データから抽出したある特徴点の変換座標が、特徴点40A〜40Cのうち、特徴点40Aの座標に最も近い場合には、かかる特徴点が特徴点40Aに分類する。分類部140dは、上記処理を、視点変動画像データから抽出した各特徴点に対して実行し、特徴点40A、特徴点40B、特徴点40Cの何れかに分類する。
The classification unit 140d classifies each feature point extracted from the viewpoint variation image data according to the distance between the coordinates of the extraction result 1A in FIG. 4 and the conversion coordinates of the conversion result 1C in FIG. For example, when the conversion coordinates of a certain feature point extracted from the viewpoint variation image data are closest to the coordinates of the
なお、分類部140dは、特徴点の変換座標が、特徴点40A〜40Cの座標から所定の閾値以上離れている場合には、かかる特徴点を分類対象から除外する。例えば、所定の閾値を、2画素とする。 The classifying unit 140d excludes the feature points from the classification target when the converted coordinates of the feature points are separated from the coordinates of the feature points 40A to 40C by a predetermined threshold or more. For example, the predetermined threshold is 2 pixels.
分類部140dは、視点変動画像データから抽出した各特徴点を分類した後、分類した特徴点群毎に、特徴空間上の重心座標を求める。図8は、特徴空間上の重心座標を説明するための図である。例えば、図8のx軸は、特徴点の要素1に対応し、y軸は特徴点の要素2に対応し、z軸は特徴点の要素3に対応する。ここでは、一例として、3次元で特徴空間を示すが、特徴点の要素がn個の場合には、特徴空間は、n次元となる。また、図8において、丸印は、特徴点40Aに分類された特徴点に対応する。三角印は、特徴点40Bに分類された特徴点に対応する。四角印は、特徴点40Cに分類された特徴点に対応する。
The classification unit 140d classifies each feature point extracted from the viewpoint variation image data, and then obtains the barycentric coordinate in the feature space for each classified feature point group. FIG. 8 is a diagram for explaining the barycentric coordinates on the feature space. For example, the x-axis in FIG. 8 corresponds to the
分類部140dは、特徴点40Aに分類された各特徴点に基づいて、特徴空間上の重心2Aを求める。分類部140dは、特徴点40Bに分類された各特徴点に基づいて、特徴空間上の重心2Bを求める。分類部140dは、特徴点40Cに分類された各特徴点に基づいて、特徴空間上の重心2Cを求める。
The classification unit 140d obtains the center of
分類部140dは、特徴点40Aに分類された各特徴点に基づいて、共分散を求める。また、分類部140dは、特徴点40Bに分類された各特徴点に基づいて、共分散を求める。分類部140dは、特徴点40Cに分類された各特徴点に基づいて、共分散を求める。なお、分類部140dは、共分散の代わりに、標準偏差を求めてもよい。
The classification unit 140d obtains covariance based on each feature point classified as the
分類部140dは、上記した処理の結果を、登録テーブル130cに登録する。図9は、本実施例1の登録テーブルのデータ構造の一例を示す図である。図9に示すように、登録テーブル130cは、クラスタ番号、座標、重心座標、共分散を有する。 The classification unit 140d registers the result of the above processing in the registration table 130c. FIG. 9 is a diagram illustrating an example of the data structure of the registration table according to the first embodiment. As shown in FIG. 9, the registration table 130c has a cluster number, coordinates, barycentric coordinates, and covariance.
図9のクラスタ番号は、分類した特徴点群を一意に識別する番号である。例えば、特徴点40Aに分類された特徴点群のクラスタ番号を1とする。特徴点40Bに分類された特徴点群をクラスタ番号2とする。特徴点40Cに分類された特徴点分をクラスタ番号3とする。
The cluster number in FIG. 9 is a number that uniquely identifies the classified feature point group. For example, the cluster number of the feature point group classified as the
図9の座標は、学習対象画像データ130aから抽出した特徴点の座標である。例えば、図9の座標(x1、y1)は、特徴点40Aの座標である。図9の重心座標は、図8に示した重心座標に対応するものである。例えば、重心座標(xg1、yg1、zg1)は、クラスタ番号1に対応する各特徴点の特徴空間上の座標である。共分散は、分類された特徴点群毎の共分散である。例えば、共分散「v1」は、クラスタ番号1に対応する各特徴点の共分散である。
The coordinates in FIG. 9 are the coordinates of the feature points extracted from the learning
なお、分類部140dは、分類された特徴点群の数が、所定の数より少ない場合には、かかる特徴点群を、分類対象から除外してもよい。例えば、分類部は、特徴点40Cに分類された特徴点の数が、所定の数より少ない場合には、特徴点40Aに分類される各特徴点を登録テーブル130cから除外する。
Note that the classification unit 140d may exclude the feature point group from the classification target when the number of classified feature point groups is smaller than a predetermined number. For example, when the number of feature points classified into the feature points 40C is smaller than a predetermined number, the classification unit excludes each feature point classified as the
対応付け部140eは、登録テーブル130cを基にして、認識対象画像データ130dの特徴点と、学習対象画像データ130aの特徴点とを対応付ける処理部である。
The association unit 140e is a processing unit that associates the feature points of the recognition
対応付け部140eは、SIFTを利用して、認識対象画像データ130dから、特徴点を抽出する。対応付け部140eは、認識対象画像データ130dから抽出した特徴点の特徴空間上の座標と、登録テーブル130cの重心座標とを比較し、最も座標間の距離が短い重心座標に対応するクラスタ番号を判定する。対応付け部140eは、判定したクラスタ番号の座標と、認識対象画像データ130dの特徴点とを対応付ける。
The associating unit 140e extracts feature points from the recognition
例えば、対応付け部140eは、クラスタ番号1〜3の重心座標のうち、特徴点の座標とクラスタ番号1の重心座標との距離が最も近ければ、クラスタ番号1と判定する。この場合には、対応付け部140eは、認識対象画像データの特徴点と、クラスタ番号1の座標(x1、y1)とを対応付ける。クラスタ番号1の座標(x1、y1)は、図3の特徴点40Aの座標である。
For example, the associating unit 140e determines the
対応付け部140eは、認識対象画像データ130dから抽出した各特徴点に対して、上記処理を実行し、実行結果を出力部120に出力する。対応付け部140eがかかる処理を実行することで、認識対象画像データ130dの特徴点と、学習対象画像データ130aの特徴点とが対応付けられる。
The associating unit 140e performs the above process on each feature point extracted from the recognition
なお、対応付け部140eは、マハラノビス距離を用いて、認識対象画像データ130dの特徴点と、学習対象画像データ130aの特徴点とを対応付けてもよい。例えば、対応付け部140eは、共分散に対応する重みを設定する。対応付け部140eは、共分散の値が大きいほど、小さい値を重みに設定する。例えば、共分散v1、v2、v3の重みを、g1、g2、g3とする。各共分散の大小関係がv1>v2>v3の場合には、重みはg1<g2<g3となる。
The association unit 140e may associate the feature points of the recognition
対応付け部140eは、クラスタ番号1の座標と特徴点の座標との距離にg1を乗算した値G1と、クラスタ番号2の座標と特徴点の座標との距離にg2を乗算した値G2と、クラスタ番号3の座標と特徴点の座標との距離にg3を乗算した値G3とを算出する。そして、対応付け部140eは、値G1〜G3のうち、最小となる値に対応するクラスタ番号を判定する。対応付け部140eは、判定したクラスタ番号の座標と、認識対象画像データ130dの特徴点とを対応付ける。マハラノビス距離を利用すると、共分散の値が大きいクラスタ番号ほど、対応付けされやすくなる。
The associating unit 140e has a value G1 obtained by multiplying the distance between the coordinates of the
次に、本実施例1にかかる画像処理装置100の学習フェーズの処理手順および認識フェーズの処理手順について順に説明する。図10は、本実施例1の学習フェーズの処理手順を示すフローチャートである。図10に示す処理は、例えば、学習対象画像データ130aが記憶部130に記憶されたことを契機に実行される。
Next, the learning phase processing procedure and the recognition phase processing procedure of the image processing apparatus 100 according to the first embodiment will be described in order. FIG. 10 is a flowchart illustrating the processing procedure of the learning phase according to the first embodiment. The process illustrated in FIG. 10 is executed when the learning
図10に示すように、画像処理装置100は、学習対象画像データ130aを取得し(ステップS101)、視点変動画像データ群130bを生成する(ステップS102)。画像処理装置100は、学習対象画像データ130aから特徴点を抽出する(ステップS103)。
As illustrated in FIG. 10, the image processing apparatus 100 acquires learning
画像処理装置100は、各視点変動画像データから特徴点を抽出する(ステップS104)。画像処理装置100は、各視点変動画像データから抽出した特徴点の座標を、学習対象画像データの座標系に変換する(ステップS105)。 The image processing apparatus 100 extracts feature points from each viewpoint variation image data (step S104). The image processing apparatus 100 converts the coordinates of the feature points extracted from each viewpoint variation image data into the coordinate system of the learning target image data (step S105).
画像処理装置100は、各特徴点を分類し(ステップS106)、登録テーブル130cに各種情報を登録する(ステップS107)。 The image processing apparatus 100 classifies each feature point (step S106) and registers various information in the registration table 130c (step S107).
図11は、本実施例1の認識フェーズの処理手順を示すフローチャートである。図11に示す処理は、例えば、認識対象画像データ130dが記憶部130に記憶されたことを契機に実行される。
FIG. 11 is a flowchart illustrating the processing procedure of the recognition phase according to the first embodiment. The process illustrated in FIG. 11 is executed, for example, when the recognition
画像処理装置100は、認識対象画像データ130dを取得し(ステップS201)、認識対象画像データ130dから特徴点を抽出する(ステップS202)。画像処理装置100は、認識対象画像データ130dの特徴点と、登録テーブル130cとを基にして、特徴点の対応付けを行う(ステップS203)。
The image processing apparatus 100 acquires the recognition
次に、本実施例1にかかる画像処理装置100の効果について説明する。画像処理装置100は、学習対象画像データ130aおよびカメラ視点の異なる視点変動画像データ群130dから特徴点を抽出し、各特徴点を分類して、登録テーブル130cを生成する。画像処理装置100は、登録テーブル130cの各特徴点群の重心座標と、認識対象画像データ130bから抽出した特徴点の座標とを比較して、学習対象画像データ130aの特徴点と認識対象画像データ130dの特徴点とを対応付ける。このため、画像処理装置100によれば、各特徴点群の重心座標と、認識対象画像データ130dから抽出した特徴点の座標との比較より、各特徴点を対応付けられるので、各画像の座標を対応付ける場合の計算量を削減することができる。
Next, effects of the image processing apparatus 100 according to the first embodiment will be described. The image processing apparatus 100 extracts feature points from the learning
また、画像処理装置100は、マハラノビス距離を用いて、各特徴点を対応付けるので、各特徴点の分散具合を考慮して、正確に各画像の座標を対応付けることができる。 Further, since the image processing apparatus 100 associates each feature point using the Mahalanobis distance, it is possible to associate the coordinates of each image accurately in consideration of the degree of dispersion of each feature point.
本実施例2にかかる画像処理装置について説明する。図12は、本実施例2にかかる画像処理装置の構成を示す機能ブロック図である。図12に示すように、画像処理装置200は、カメラ210a、入力部210b、出力部220、記憶部230、制御部240を有する。
An image processing apparatus according to the second embodiment will be described. FIG. 12 is a functional block diagram of the configuration of the image processing apparatus according to the second embodiment. As shown in FIG. 12, the image processing apparatus 200 includes a
カメラ210a、入力部210b、出力部220に関する説明は、図1に示したカメラ110a、入力部110b、出力部120に関する説明と同様である。
The description regarding the
記憶部230は、学習対象画像データ230a、視点変動画像データ群230b、登録テーブル230c、認識対象画像データ230dを記憶する。記憶部230は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The
学習対象画像データ230aは、実施例1の学習対象画像データ130aに対応する。視点変動画像データ群230bは、実施例1の視点変動画像データ群130bに対応する。認識対象画像データ230dは、実施例1の認識対象画像データ130dに対応する。
The learning target image data 230a corresponds to the learning
登録テーブル230cは、学習対象画像データ230aおよび視点変動画像データ群230bから抽出される特徴点に関する各種の情報を保持するテーブルである。登録テーブル230cのデータ構造は、後述する。 The registration table 230c is a table that holds various types of information regarding feature points extracted from the learning target image data 230a and the viewpoint variation image data group 230b. The data structure of the registration table 230c will be described later.
制御部240は、データ管理部240a、視点変動画像生成部240b、特徴点抽出部240c、分類部240d、対応付け部240eを有する。制御部240は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部240は、例えば、CPUやMPU等の電子回路に対応する。
The
データ管理部240aは、記憶部230を管理する処理部である。例えば、学習フェーズにおいて、データ管理部240aは、カメラ210aから学習対象画像データを取得し、取得した学習対象画像データを、記憶部230に記憶する。認識フェーズにおいて、データ管理部240aは、カメラ210aから認識対象画像データを取得し、取得した認識対象画像データを、記憶部230に記憶する。
The data management unit 240 a is a processing unit that manages the
視点変動画像生成部240bは、学習対象画像データ230aを基にして、視点変動画像データ群230bを生成する処理部である。視点変動画像生成部240bの具体的な処理は、実施例1の視点変動画像生成部140bの処理と同様である。 The viewpoint variation image generation unit 240b is a processing unit that generates a viewpoint variation image data group 230b based on the learning target image data 230a. Specific processing of the viewpoint variation image generation unit 240b is the same as the processing of the viewpoint variation image generation unit 140b of the first embodiment.
特徴点抽出部240cは、学習対象画像データ230aから特徴点を抽出する。また、特徴点抽出部240cは、視点変動画像データ群230bの各視点変動画像データから、特徴点を抽出する。特徴点抽出部240cは、学習対象画像データ230aから抽出した特徴点に関するデータおよび視点変動画像データ群230bから抽出した特徴点に関するデータを、分類部240dに出力する。
The feature
特徴点抽出部240cの具体的な処理は、実施例1の特徴点抽出部140cの処理と同様である。特徴点抽出部240cは、図4に示した抽出結果1Aおよび図6に示した抽出結果1Bを分類部240dに出力する。
The specific processing of the feature
分類部240dは、視点変動画像データ群230bから抽出された複数の特徴点を分類する処理部である。分類部240dは、抽出結果1Aと、抽出結果1Bとを基にして、特徴点を分類する。 The classification unit 240d is a processing unit that classifies a plurality of feature points extracted from the viewpoint variation image data group 230b. The classification unit 240d classifies the feature points based on the extraction result 1A and the extraction result 1B.
特に、実施例2の分類部240dは、実施例1の分類部140dが分類した特徴点を、更に分類する。分類部240dが、視点変動画像データから抽出した各特徴点を、特徴点40A、特徴点40B、特徴点40Cの何れかに分類するまでの処理は、実施例1の分類部140dと同様である。
In particular, the classification unit 240d according to the second embodiment further classifies the feature points classified by the classification unit 140d according to the first embodiment. The processing until the classification unit 240d classifies each feature point extracted from the viewpoint variation image data into one of the
図13は、実施例2にかかる分類部の処理を説明するための図である。ここでは、分類部240dが、特徴点40Aに分類した各特徴点を更に分類する場合を例にして説明する。分類部240dは、各特徴点に対してk-meansを適用することで、特徴点をグループ3A〜3Cに分類する。分類部240dは、グループ毎に、各特徴点の重心k1−1〜k3−1を求める。各重心をキーポイントと表記する。 FIG. 13 is a diagram for explaining the processing of the classification unit according to the second embodiment. Here, the case where the classification unit 240d further classifies each feature point classified into the feature points 40A will be described as an example. The classification unit 240d classifies the feature points into groups 3A to 3C by applying k-means to each feature point. The classification unit 240d obtains centroids k1-1 to k3-1 of each feature point for each group. Each center of gravity is expressed as a key point.
ここで、分類部240dが利用するk-meansによる処理の一例を説明する。分類部240dは、各特徴点にランダムにクラスタを割り当て、クラスタ毎の重心を算出する。分類部240dは、各特徴点のクラスタを、一番近い重心のクラスタに変更する。分離部240dは、各特徴点のクラスタが変化しなくなるまで、上記処理を繰り返すことで、特徴点を複数のグループに分類する。 Here, an example of processing by k-means used by the classification unit 240d will be described. The classification unit 240d assigns clusters to each feature point at random, and calculates the center of gravity for each cluster. The classification unit 240d changes the cluster of each feature point to the cluster with the nearest center of gravity. The separation unit 240d classifies the feature points into a plurality of groups by repeating the above processing until the cluster of each feature point does not change.
分類部240dは、特徴点40Aに分類した各特徴点と同様にして、特徴点40Bに分類した各特徴点および特徴点40Cに分類した各特徴点を更に分類する。分類部240dは、分類した結果を、登録テーブル230cに登録する。 The classification unit 240d further classifies the feature points classified into the feature points 40B and the feature points classified into the feature points 40C in the same manner as the feature points classified into the feature points 40A. The classification unit 240d registers the classification result in the registration table 230c.
なお、分類部240dは、k-meansにより更に分類したグループに含まれる特徴点に基づいて、グループ毎に共分散値を算出し、登録テーブル230cに登録する。 The classification unit 240d calculates a covariance value for each group based on the feature points included in the group further classified by k-means, and registers the covariance value in the registration table 230c.
図14は、本実施例2の登録テーブルのデータ構造の一例を示す図である。図14に示すように、この登録テーブル230cは、クラスタ番号、座標、キー番号、重心座標、共分散を有する。 FIG. 14 is a diagram illustrating an example of a data structure of a registration table according to the second embodiment. As shown in FIG. 14, this registration table 230c has cluster numbers, coordinates, key numbers, barycentric coordinates, and covariance.
図14のクラスタ番号は、分類した特徴点群を一意に識別する番号である。例えば、特徴点40Aに分類された特徴点群のクラスタ番号を1とする。特徴点40Bに分類された特徴点群をクラスタ番号2とする。特徴点40Cに分類された特徴点分をクラスタ番号3とする。
The cluster number in FIG. 14 is a number that uniquely identifies the classified feature point group. For example, the cluster number of the feature point group classified as the
図14の座標は、学習対象画像データ230aから抽出した特徴点の座標である。例えば、図14の座標(x1、y1)は、特徴点40Aの座標である。キー番号は、キーポイントを一意に識別する番号である。重心座標は、キーポイントの重心座標に対応する。共分散は、k-meansにより更に分類したグループに含まれる特徴点の共分散値である。
The coordinates in FIG. 14 are the coordinates of feature points extracted from the learning target image data 230a. For example, the coordinates (x1, y1) in FIG. 14 are the coordinates of the
対応付け部240eは、登録テーブル230cを基にして、認識対象画像データ230dの特徴点と、学習対象画像データ230aの特徴点とを対応付ける処理部である。 The association unit 240e is a processing unit that associates the feature points of the recognition target image data 230d with the feature points of the learning target image data 230a based on the registration table 230c.
対応付け部240eは、SIFTを利用して、認識対象画像データ230dから、特徴点を抽出する。対応付け部240eは、認識対象画像データ230dから抽出した特徴点の特徴空間上の座標と、登録テーブル230cの重心座標とを比較し、最も座標間の距離が短い重心座標に対応するクラスタ番号を判定する。対応付け部240eは、判定したクラスタ番号の座標と、認識対象画像データ230dの特徴点とを対応付ける。 The associating unit 240e extracts feature points from the recognition target image data 230d using SIFT. The associating unit 240e compares the coordinates on the feature space of the feature points extracted from the recognition target image data 230d with the centroid coordinates of the registration table 230c, and determines the cluster number corresponding to the centroid coordinates with the shortest distance between the coordinates. judge. The association unit 240e associates the coordinates of the determined cluster number with the feature points of the recognition target image data 230d.
対応付け部240eは、キー番号k1−1〜k1−3の重心座標の何れかと、特徴点との距離が最も短い場合には、該特徴点は、クラスタ番号1に対応すると判定する。対応付け部240eは、キー番号k2−1〜k2−3の重心座標の何れかと、特徴点との距離が最も短い場合には、該特徴点は、クラスタ番号2に対応すると判定する。対応付け部240eは、キー番号k3−1〜k3−3の重心座標の何れかと、特徴点との距離が最も短い場合には、該特徴点は、クラスタ番号3に対応すると判定する。
The associating unit 240e determines that the feature point corresponds to the
対応付け部240eは、認識対象画像データ230dから抽出した各特徴点に対して、上記処理を実行し、実行結果を出力部220に出力する。対応付け部240eがかかる処理を実行することで、認識対象画像データ230dの特徴点と、学習対象画像データ230aの特徴点とが対応付けられる。 The associating unit 240e performs the above processing on each feature point extracted from the recognition target image data 230d, and outputs the execution result to the output unit 220. As the association unit 240e executes such processing, the feature points of the recognition target image data 230d are associated with the feature points of the learning target image data 230a.
なお、対応付け部240eは、実施例1と同様にして、マハラノビス距離を用いて、認識対象画像データ230dの特徴点と、学習対象画像データ230aの特徴点とを対応付けてもよい。 Note that the association unit 240e may associate the feature points of the recognition target image data 230d and the feature points of the learning target image data 230a using the Mahalanobis distance in the same manner as in the first embodiment.
次に、本実施例2にかかる画像処理装置200の効果について説明する。画像処理装置200は、k-meansを利用して、実施例1で分類した特徴点群を更に細かく分類する。このため、特徴空間上で特徴点が歪んで分布している場合や、分離した分布をしている場合であっても、正確に認識対象画像データ230dの特徴点と、学習対象画像データ230aの特徴点とを対応付けることができる。 Next, effects of the image processing apparatus 200 according to the second embodiment will be described. The image processing apparatus 200 further classifies the feature point group classified in the first embodiment using k-means. For this reason, even if the feature points are distorted and distributed in the feature space or separated, the feature points of the recognition target image data 230d and the learning target image data 230a are accurately detected. Feature points can be associated with each other.
本実施例3にかかる画像処理装置について説明する。図15は、本実施例3にかかる画像処理装置の構成を示す機能ブロック図である。図15に示すように、画像処理装置300は、カメラ310a、入力部310b、出力部320、記憶部330、制御部340を有する。
An image processing apparatus according to the third embodiment will be described. FIG. 15 is a functional block diagram of the configuration of the image processing apparatus according to the third embodiment. As illustrated in FIG. 15, the
カメラ310a、入力部310b、出力部320に関する説明は、図1に示したカメラ110a、入力部110b、出力部120に関する説明と同様である。
The description regarding the
記憶部330は、学習対象画像データ330a、視点変動画像データ群330b、登録テーブル330c、認識対象画像データ330dを記憶する。記憶部330は、例えば、RAM、ROM、フラッシュメモリなどの半導体メモリ素子、またはハードディスク、光ディスクなどの記憶装置に対応する。
The storage unit 330 stores learning target image data 330a, a viewpoint variation
学習対象画像データ330aは、実施例1の学習対象画像データ130aに対応する。視点変動画像データ群330bは、実施例1の視点変動画像データ群130bに対応する。認識対象画像データ330dは、実施例1の認識対象画像データ130dに対応する。
The learning target image data 330a corresponds to the learning
登録テーブル330cは、学習対象画像データ330aおよび視点変動画像データ群330bから抽出される特徴点に関する各種の情報を保持するテーブルである。登録テーブル330cのデータ構造は、後述する。
The registration table 330c is a table that holds various types of information regarding feature points extracted from the learning target image data 330a and the viewpoint variation
制御部340は、データ管理部340a、視点変動画像生成部340b、特徴点抽出部340c、分類部340d、対応付け部340eを有する。制御部340は、例えば、ASICや、FPGAなどの集積装置に対応する。また、制御部340は、例えば、CPUやMPU等の電子回路に対応する。
The
データ管理部340aは、記憶部330を管理する処理部である。例えば、学習フェーズにおいて、データ管理部340aは、カメラ310aから学習対象画像データを取得し、取得した学習対象画像データを、記憶部330に記憶する。認識フェーズにおいて、データ管理部340aは、カメラ310aから認識対象画像データを取得し、取得した認識対象画像データを、記憶部330に記憶する。
The
視点変動画像生成部340bは、学習対象画像データ330aを基にして、視点変動画像データ群330bを生成する処理部である。視点変動画像生成部340bの具体的な処理は、実施例1の視点変動画像生成部140bの処理と同様である。
The viewpoint variation
特徴点抽出部340cは、学習対象画像データ330aから特徴点を抽出する。また、特徴点抽出部340cは、視点変動画像データ群330bの各視点変動画像データから、特徴点を抽出する。特徴点抽出部340cは、学習対象画像データ330aから抽出した特徴点に関するデータおよび視点変動画像データ群330bから抽出した特徴点に関するデータを、分類部340dに出力する。
The feature point extraction unit 340c extracts feature points from the learning target image data 330a. In addition, the feature point extraction unit 340c extracts feature points from each viewpoint variation image data of the viewpoint variation
特徴点抽出部340cの具体的な処理は、実施例1の特徴点抽出部140cの処理と同様である。特徴点抽出部340cは、図4に示した抽出結果1Aおよび図6に示した抽出結果1Bを分類部340dに出力する。
The specific process of the feature point extraction unit 340c is the same as the process of the feature
分類部340dは、視点変動画像データ群330bから抽出された複数の特徴点を分類する処理部である。分類部340dは、抽出結果1Aと、抽出結果1Bとを基にして、特徴点を分類する。
The
特に、実施例3の分類部340dは、実施例1の分類部140dが分類した各特徴点群の重心座標を比較し、重心座標の近い特徴点群をまとめ、まとめた特徴点群に対して、k-meansを適用することで、重心座標が類似する特徴点群を分類し直す。分類部340dが、視点変動画像データから抽出した各特徴点を、特徴点40A、特徴点40B、特徴点40Cの何れかに分類するまでの処理は、実施例1の分類部140dと同様である。
In particular, the
図16、図17は、実施例3にかかる分類部の処理を説明するための図である。図16において、丸印は、特徴点40Aに分類された特徴点に対応する。三角印は、特徴点40Bに分類された特徴点に対応する。四角印は、特徴点40Cに分類された特徴点に対応する。
FIGS. 16 and 17 are diagrams for explaining the processing of the classification unit according to the third embodiment. In FIG. 16, the circles correspond to the feature points classified as the feature points 40A. The triangle mark corresponds to the feature point classified as the
分類部340dは、各特徴点群の重心2A〜2Cの距離を比較し、重心間の距離が閾値未満となる重心の組を判定する。本実施例3では、一例として、重心2Aと、重心2Bとの距離が閾値未満となる場合について説明する。
The
分類部340dは、判定した重心2Aに対応する特徴点群と、重心2Bに対応する特徴点群に対して、k-meansを実行する。ここで、重心2Aに対応する特徴点群は、特徴点40Aに分類された丸印の各特徴点である。重心2Bに対応する特徴点群は、特徴点40Bに分類された三角印の各特徴点である。
The
分類部340dが、k-meansを実行すると、図17に示すように各特徴点がグループ4A〜4Eに分類される。分類部340dは、グループ毎に、各特徴点の重心k1〜k5を求める。各重心をキーポイントと表記する。また、分類部340dは、グループ毎に、各特徴点の共分散を算出する。
When the
図17を参照すると、グループ4A、4Bは、丸印の特徴点のみを含む。このため、分類部340dは、グループ4A、4Bを、特徴点40Aに対応付ける。グループ4Aのクラスタ番号を1、グループ4Bのクラスタ番号を2とする。
Referring to FIG. 17, the
図17を参照すると、グループ4Cは、丸印の特徴点および三角印の特徴点を含む。この場合には、分類部340dは、グループ4Cを、特徴点40A、特徴点40Bの双方と対応付ける。グループ4Cのクラスタ番号を3とする。
Referring to FIG. 17,
図17を参照すると、グループ4D、4Eは、三角印の特徴点のみを含む。このため、分類部340dは、グループ4D、4Eを、特徴点40Bに対応付ける。グループ4Dのクラスタ番号を4、グループ4Eのクラスタ番号を5とする。
Referring to FIG. 17, the
なお、分類部340dは、四角印の各特徴点のクラスタ番号を6とし、重心をk6とする。k6は、図16の2Cに対応するものとする。
The
分類部340dは、分類した結果を、登録テーブル330cに登録する。図18は、本実施例3の登録テーブルのデータ構造の一例を示す図である。この登録テーブル330cは、クラスタ番号、キー番号、構成データ数、座標、重心座標、共分散を有する。
The
図18のクラスタ番号は、分類した特徴点を一意に識別する番号である。クラスタ番号1、2は、特徴点40Aに分類された特徴点群のクラスタ番号である。クラスタ番号3は、上記のように、特徴点40Aまたは特徴点40Bに分類された特徴点群のクラスタである。クラスタ番号4、5は、特徴点40Bに分類された特徴点群のクラスタ番号である。クラスタ番号6は、特徴点40Cに分類された特徴点群のクラスタ番号である。
The cluster numbers in FIG. 18 are numbers that uniquely identify the classified feature points.
図18のキー番号は、各特徴点群のキーポイントを一位に識別する番号である。構成データ数は、各グループに含まれる特徴点の数に対応する。なお、同一のグループに異なる種類の特徴点が含まれる場合には、種類毎の特徴点の数が登録される。例えば、クラスタ番号3に対応する特徴点群は、丸印の特徴点と、三角印の特徴点を含むため、特徴点の種類毎に数が登録される。
The key number in FIG. 18 is a number that uniquely identifies the key point of each feature point group. The number of configuration data corresponds to the number of feature points included in each group. When different types of feature points are included in the same group, the number of feature points for each type is registered. For example, since the feature point group corresponding to the
図18の座標は、学習対象画像データ330aから抽出した特徴点の座標である。例えば、座標(x1、y1)は、特徴点40Aの座標である。座標(x2、y2)は、特徴点40Bの座標である。座標(x3、y3)は、特徴点40Cの座標である。重心座標は、キーポイントの重心座標に対応する。共分散は、k-meansにより更に分類したグループに含まれる特徴点の共分散値である。
The coordinates in FIG. 18 are the coordinates of the feature points extracted from the learning target image data 330a. For example, the coordinates (x1, y1) are the coordinates of the
対応付け部340eは、登録テーブル330cを基にして、認識対象画像データ330dの特徴点と、学習対象画像データ330aの特徴点とを対応付ける処理部である。
The
対応付け部340eは、SIFTを利用して、認識対象画像データ330dから、特徴点を抽出する。対応付け部340eは、認識対象画像データ330dから抽出した特徴点の特徴空間上の座標と、登録テーブル330cの重心座標とを比較し、最も座標間の距離が短い重心座標に対応するクラスタ番号を判定する。対応付け部340eは、判定したクラスタ番号の座標と、認識対象画像データ330dの特徴点とを対応付ける。
The associating
対応付け部340eは、キー番号k1、k2の重心座標の何れかと、特徴点との距離が最も近い場合には、該特徴点は、学習対象画像データ330a上の特徴点40Aに対応すると判定する。対応付け部340eは、キー番号k4、k5の重心座標の何れかと、特徴点との距離が最も近い場合には、該特徴点は、学習対象画像データ330a上の特徴点40Bに対応すると判定する。対応付け部340eは、キー番号k6の重心座標の何れかと、特徴点との距離が最も近い場合には、該特徴点は、学習対象画像データ330a上の特徴点40Cに対応すると判定する。
The associating
なお、対応付け部340eは、キー番号k3の重心座標と、特徴点との距離が最も近い場合には、該特徴点は、学習対象画像データ330a上の特徴点40Aまたは特徴点40Bの何れかに対応すると判定する。認識対象画像データ330dの特徴点が、学習対象画像データ330a上の複数の特徴点に対応付けられた場合には、対応付け部340eは、特徴点全体として、誤差が最も少ない特徴点を最終的に対応付ける。
Note that when the distance between the barycentric coordinate of the key number k3 and the feature point is the closest, the associating
例えば、対応付け部340eは、最小二乗法等を基にして、特徴点40Aに対応付けた場合の誤差と、特徴点40Bに対応付けた場合の誤差とを比較し、誤差の少ない方の特徴点に、認識対象画像データ330dの特徴点を対応付ける。
For example, the associating
なお、対応付け部340eは、実施例1と同様にして、マハラノビス距離を用いて、認識対象画像データ330dの特徴点と、学習対象画像データ330aの特徴点とを対応付けてもよい。
Note that the
次に、本実施例3にかかる画像処理装置300の効果について説明する。画像処理装置300は、複数の特徴点に対応する可能性がある場合には、認識対象画像データ330dの特徴点を、学習対象画像データ330aの複数の特徴点に対応付ける。そして、画像処理装置300は、全体の特徴点との関係から、複数の特徴点に対応付けた特徴点を、単一の特徴点に絞り込む。このため、認識対象画像データ330dの特徴点を、無理矢理、単一の特徴点に対応付けることが無くなり、正確に、認識対象画像データ330dの特徴点を、学習対象画像データ330aの複数の特徴点に対応付けることができる。
Next, effects of the
次に、実施例に示した情報処理装置100、200、300と同様の機能を実現する情報処理プログラムを実行するコンピュータの一例を説明する。図19は、画像処理プログラムを実行するコンピュータの一例を示す図である。
Next, an example of a computer that executes an information processing program that implements the same functions as those of the
図19に示すように、コンピュータ400は、各種演算処理を実行するCPU401と、ユーザからのデータの入力を受け付ける入力装置402と、ディスプレイ403を有する。また、コンピュータ400は、記憶媒体からプログラム等を読取る読み取り装置404と、ネットワークを介して他のコンピュータとの間でデータの授受を行うインターフェース装置405とを有する。また、コンピュータ400は、各種情報を一時記憶するRAM406と、ハードディスク装置407を有する。そして、各装置401〜407は、バス408に接続される。
As shown in FIG. 19, the computer 400 includes a
ハードディスク装置407は、例えば、視点変動画像生成プログラム407a、特徴点抽出プログラム407b、分類プログラム407c、対応付けプログラム407dを有する。CPU401は、各プログラム407a〜407dを読み出して、RAM406に展開する。
The hard disk device 407 includes, for example, a viewpoint variation image generation program 407a, a feature
視点変動画像生成プログラム407aは、視点変動画像生成プロセス406aとして機能する。特徴点抽出プログラム407bは、特徴点抽出プロセス406bとして機能する。分類プログラム407cは、分類プロセス406cとして機能する。対応付けプログラム407dは、対応付けプロセス406dとして機能する。
The viewpoint variation image generation program 407a functions as a viewpoint variation
例えば、視点変動画像生成プロセス406aは、視点変動画像生成部140b、240b、340bに対応する。特徴点抽出プロセス406bは、特徴点抽出部140c、240c、340cに対応する。分類プロセス406cは、分類部140d、240d、340dに対応する。対応付けプロセス406dは、対応付け部140e、240e、340eに対応する。
For example, the viewpoint variation
なお、各プログラム407a〜407dについては、必ずしも最初からハードディスク装置407に記憶させておかなくてもよい。例えば、コンピュータ400に挿入されるフレキシブルディスク(FD)、CD−ROM、DVDディスク、光磁気ディスク、ICカードなどの「可搬用の物理媒体」に各プログラムを記憶させておく。そして、コンピュータ400がこれらから各プログラム407a〜407dを読み出して実行するようにしてもよい。 Note that the programs 407a to 407d are not necessarily stored in the hard disk device 407 from the beginning. For example, each program is stored in a “portable physical medium” such as a flexible disk (FD), a CD-ROM, a DVD disk, a magneto-optical disk, and an IC card inserted into the computer 400. Then, the computer 400 may read and execute each of the programs 407a to 407d from these.
以上の各実施例を含む実施形態に関し、さらに以下の付記を開示する。 The following supplementary notes are further disclosed with respect to the embodiments including the above examples.
(付記1)コンピュータに、
画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、前記学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成し、
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出し、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、
分類した特徴点群を含む領域を登録テーブルに登録し、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、
前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける
各処理を実行させることを特徴とする画像処理プログラム。
(Supplementary note 1)
By projectively converting a learning target image obtained by photographing the image from the front camera viewpoint, a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image are generated,
Extracting feature points from the learning object image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. Classify and
Register the region containing the classified feature point group in the registration table,
Obtaining a recognition target image, extracting feature points from the recognition target image,
Each process of associating the feature point of the recognition target image with the feature point of the learning target image based on the relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group of the registration table An image processing program for executing
(付記2)前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける処理は、前記領域に含まれる特徴点群の重心と、前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記1に記載の画像処理プログラム。
(Supplementary Note 2) The process of associating the feature point of the recognition target image with the feature point of the learning target image is based on the distance between the centroid of the feature point group included in the region and the feature point of the recognition target image. The image processing program according to
(付記3)前記登録テーブルに登録する処理は、特徴点群に含まれる各特徴点の分布広がりを更に登録し、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける処理は、前記領域に含まれる特徴点群の重心と、前記分布広がりの重み付けをした前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記1または2に記載の画像処理プログラム。
(Supplementary note 3) The process of registering in the registration table further includes registering the distribution spread of each feature point included in the feature point group, and associating the feature point of the recognition target image with the feature point of the learning target image , Based on the distance between the centroid of the feature point group included in the region and the feature point of the recognition target image weighted with the distribution spread, the feature point of the recognition target image and the feature point of the learning target image, The image processing program according to
(付記4)前記分布広がりは、標準偏差または分散であることを特徴とする付記3に記載の画像処理プログラム。
(Supplementary note 4) The image processing program according to
(付記5)前記特徴点群に分類する処理は、前記学習対象画像の一つの特徴点に対して、複数の特徴点群に分類することを特徴とする付記1〜4のいずれか一つに記載の画像処理プログラム。 (Additional remark 5) The process classified into the said feature point group is classified into any one of additional marks 1-4 characterized by classifying into one feature point of the above-mentioned learning object image into a plurality of feature point groups. The image processing program described.
(付記6)前記特徴点群に分類する処理は、前記学習対象画像の複数の特徴点に対して、一つの特徴点群に分類することを特徴とする付記1〜4のいずれか一つに記載の画像処理プログラム。 (Additional remark 6) The process classified into the said feature point group classify | categorizes into one feature point group with respect to the some feature point of the said learning object image to any one of the additional notes 1-4 characterized by the above-mentioned. The image processing program described.
(付記7)コンピュータが実行する画像処理方法であって、
画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、前記学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成し、
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出し、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、
分類した特徴点群を含む領域を登録テーブルに登録し、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、
前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける
各処理を実行することを特徴とする画像処理方法。
(Appendix 7) An image processing method executed by a computer,
By projectively converting a learning target image obtained by photographing the image from the front camera viewpoint, a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image are generated,
Extracting feature points from the learning object image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. Classify and
Register the region containing the classified feature point group in the registration table,
Obtaining a recognition target image, extracting feature points from the recognition target image,
Each process of associating the feature point of the recognition target image with the feature point of the learning target image based on the relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group of the registration table The image processing method characterized by performing.
(付記8)前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける処理は、前記領域に含まれる特徴点群の重心と、前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記7に記載の画像処理方法。
(Supplementary Note 8) The process of associating the feature point of the recognition target image with the feature point of the learning target image is based on the distance between the centroid of the feature point group included in the region and the feature point of the recognition target image. The image processing method according to
(付記9)前記登録テーブルに登録する処理は、特徴点群に含まれる各特徴点の分布広がりを更に登録し、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける処理は、前記領域に含まれる特徴点群の重心と、前記分布広がりの重み付けをした前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記7または8に記載の画像処理方法。
(Supplementary Note 9) The process of registering in the registration table further registers the distribution spread of each feature point included in the feature point group, and associates the feature point of the recognition target image with the feature point of the learning target image. , Based on the distance between the centroid of the feature point group included in the region and the feature point of the recognition target image weighted with the distribution spread, the feature point of the recognition target image and the feature point of the learning target image, The image processing method according to
(付記10)前記分布広がりは、標準偏差または分散であることを特徴とする付記9に記載の画像処理方法。 (Supplementary note 10) The image processing method according to supplementary note 9, wherein the distribution spread is a standard deviation or a variance.
(付記11)前記特徴点群に分類する処理は、前記学習対象画像の一つの特徴点に対して、複数の特徴点群に分類することを特徴とする付記7〜10のいずれか一つに記載の画像処理方法。 (Additional remark 11) The process classified into the said feature point group is classified into any one of Additional remarks 7-10 characterized by classifying into one feature point of the said learning object image to several feature point groups. The image processing method as described.
(付記12)前記特徴点群に分類する処理は、前記学習対象画像の複数の特徴点に対して、一つの特徴点群に分類することを特徴とする付記7〜10のいずれか一つに記載の画像処理方法。 (Additional remark 12) The process classified into the said feature point group classify | categorizes into one feature point group with respect to the some feature point of the said learning object image to any one of additional marks 7-10 characterized by the above-mentioned. The image processing method as described.
(付記13)画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、前記学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成する視点変動画像生成部と、
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出する特徴点抽出部と、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、分類した特徴点群を含む領域を登録テーブルに登録する分類部と、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける対応付け部と
を有することを特徴とする画像処理装置。
(Supplementary Note 13) A viewpoint variation image generation unit that generates a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image by projective transformation of the learning target image obtained by photographing the image from the front camera viewpoint;
A feature point extraction unit that extracts feature points from the learning target image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. A classification unit that classifies and registers a region including the classified feature point group in a registration table;
A recognition target image is acquired, feature points are extracted from the recognition target image, and the recognition is performed based on a relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group in the registration table. An image processing apparatus comprising: an association unit that associates a feature point of a target image with a feature point of the learning target image.
(付記14)前記対応付け部は、前記領域に含まれる特徴点群の重心と、前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記13に記載の画像処理装置。
(Additional remark 14) The said matching part is based on the distance of the gravity center of the feature point group contained in the said area | region, and the feature point of the said recognition target image, The feature point of the said recognition target image, and the feature of the said learning target image 14. The image processing apparatus according to
(付記15)前記分類部は、前記登録テーブルの特徴点群に含まれる各特徴点の分布広がりを更に登録し、前記対応付け部は、前記領域に含まれる特徴点群の重心と、前記分布広がりの重み付けをした前記認識対象画像の特徴点との距離に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付けることを特徴とする付記13または14に記載の画像処理装置。
(Additional remark 15) The said classification | category part further registers the distribution spread of each feature point contained in the feature point group of the said registration table, The said matching part is the gravity center of the feature point group contained in the said area | region, and the said distribution 15. The image according to
(付記16)前記分布広がりは、標準偏差または分散であることを特徴とする付記15に記載の画像処理装置。 (Supplementary note 16) The image processing apparatus according to supplementary note 15, wherein the distribution spread is a standard deviation or a variance.
(付記17)前記分類部は、前記学習対象画像の一つの特徴点に対して、複数の特徴点群に分類することを特徴とする付記13〜16のいずれか一つに記載の画像処理装置。
(Supplementary note 17) The image processing device according to any one of
(付記18)前記分類部は、前記学習対象画像の複数の特徴点に対して、一つの特徴点群に分類することを特徴とする付記13〜16のいずれか一つに記載の画像処理装置。
(Supplementary note 18) The image processing device according to any one of
100 画像処理装置
110a カメラ
110b 入力部
120 出力部
130 記憶部
140 制御部
DESCRIPTION OF SYMBOLS 100
Claims (8)
画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、前記学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成し、
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出し、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、
分類した特徴点群を含む領域を登録テーブルに登録し、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、
前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける
各処理を実行させることを特徴とする画像処理プログラム。 On the computer,
By projectively converting a learning target image obtained by photographing the image from the front camera viewpoint, a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image are generated,
Extracting feature points from the learning object image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. Classify and
Register the region containing the classified feature point group in the registration table,
Obtaining a recognition target image, extracting feature points from the recognition target image,
Each process of associating the feature point of the recognition target image with the feature point of the learning target image based on the relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group of the registration table An image processing program for executing
画像を正面のカメラ視点から撮影した学習対象画像を射影変換することで、前記学習対象画像に対するカメラ視点の異なる視点変動画像を複数生成し、
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出し、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、
分類した特徴点群を含む領域を登録テーブルに登録し、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、
前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける
各処理を実行することを特徴とする画像処理方法。 An image processing method executed by a computer,
By projectively converting a learning target image obtained by photographing the image from the front camera viewpoint, a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image are generated,
Extracting feature points from the learning object image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. Classify and
Register the region containing the classified feature point group in the registration table,
Obtaining a recognition target image, extracting feature points from the recognition target image,
Each process of associating the feature point of the recognition target image with the feature point of the learning target image based on the relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group of the registration table The image processing method characterized by performing.
前記学習対象画像および複数の前記視点変動画像から特徴点を抽出する特徴点抽出部と、
前記学習対象画像から抽出した各特徴点に対して、複数の前記視点変動画像から抽出した各特徴点を対応付けることで、複数の前記視点変動画像から抽出した各特徴点を複数の特徴点群に分類し、分類した特徴点群を含む領域を登録テーブルに登録する分類部と、
認識対象画像を取得し、該認識対象画像から特徴点を抽出し、前記認識対象画像から抽出した特徴点の位置と、前記登録テーブルの前記特徴点群の領域との関係に基づいて、前記認識対象画像の特徴点と前記学習対象画像の特徴点とを対応付ける対応付け部と
を有することを特徴とする画像処理装置。 A viewpoint variation image generating unit that generates a plurality of viewpoint variation images having different camera viewpoints with respect to the learning target image by projective transformation of the learning target image obtained by capturing the image from the front camera viewpoint;
A feature point extraction unit that extracts feature points from the learning target image and the plurality of viewpoint variation images;
By associating each feature point extracted from the plurality of viewpoint variation images with each feature point extracted from the learning target image, each feature point extracted from the plurality of viewpoint variation images is converted into a plurality of feature point groups. A classification unit that classifies and registers a region including the classified feature point group in a registration table;
A recognition target image is acquired, feature points are extracted from the recognition target image, and the recognition is performed based on a relationship between the position of the feature point extracted from the recognition target image and the region of the feature point group in the registration table. An image processing apparatus comprising: an association unit that associates a feature point of a target image with a feature point of the learning target image.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197622A JP2013058174A (en) | 2011-09-09 | 2011-09-09 | Image processing program, image processing method, and image processing device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2011197622A JP2013058174A (en) | 2011-09-09 | 2011-09-09 | Image processing program, image processing method, and image processing device |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2013058174A true JP2013058174A (en) | 2013-03-28 |
Family
ID=48133985
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2011197622A Pending JP2013058174A (en) | 2011-09-09 | 2011-09-09 | Image processing program, image processing method, and image processing device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2013058174A (en) |
Cited By (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104732553A (en) * | 2015-04-10 | 2015-06-24 | 大连理工大学 | Feature point extraction method based on multiple laser-assisted targets |
JP2015133085A (en) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | Information processing device and method thereof |
JP2016038790A (en) * | 2014-08-08 | 2016-03-22 | Kddi株式会社 | Image processor and image feature detection method thereof, program and device |
JP2016118924A (en) * | 2014-12-19 | 2016-06-30 | Kddi株式会社 | Feature descriptor creation device, feature description device, and program |
JP2016118971A (en) * | 2014-12-22 | 2016-06-30 | Kddi株式会社 | Image feature amount registration device, method, and program |
CN110622217A (en) * | 2017-05-12 | 2019-12-27 | 富士通株式会社 | Distance image processing device, distance image processing system, distance image processing method, and distance image processing program |
CN110651298A (en) * | 2017-05-12 | 2020-01-03 | 富士通株式会社 | Distance image processing device, distance image processing system, distance image processing method, and distance image processing program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334795A (en) * | 2006-06-19 | 2007-12-27 | Sony Corp | Information processor and information processing method, and program |
WO2008100248A2 (en) * | 2007-02-13 | 2008-08-21 | Olympus Corporation | Feature matching method |
JP2008287439A (en) * | 2007-05-16 | 2008-11-27 | Canon Inc | Image processing device and image retrieval method |
-
2011
- 2011-09-09 JP JP2011197622A patent/JP2013058174A/en active Pending
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007334795A (en) * | 2006-06-19 | 2007-12-27 | Sony Corp | Information processor and information processing method, and program |
WO2008100248A2 (en) * | 2007-02-13 | 2008-08-21 | Olympus Corporation | Feature matching method |
JP2008287439A (en) * | 2007-05-16 | 2008-11-27 | Canon Inc | Image processing device and image retrieval method |
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2015133085A (en) * | 2014-01-15 | 2015-07-23 | キヤノン株式会社 | Information processing device and method thereof |
JP2016038790A (en) * | 2014-08-08 | 2016-03-22 | Kddi株式会社 | Image processor and image feature detection method thereof, program and device |
JP2016118924A (en) * | 2014-12-19 | 2016-06-30 | Kddi株式会社 | Feature descriptor creation device, feature description device, and program |
JP2016118971A (en) * | 2014-12-22 | 2016-06-30 | Kddi株式会社 | Image feature amount registration device, method, and program |
CN104732553A (en) * | 2015-04-10 | 2015-06-24 | 大连理工大学 | Feature point extraction method based on multiple laser-assisted targets |
CN110622217A (en) * | 2017-05-12 | 2019-12-27 | 富士通株式会社 | Distance image processing device, distance image processing system, distance image processing method, and distance image processing program |
CN110651298A (en) * | 2017-05-12 | 2020-01-03 | 富士通株式会社 | Distance image processing device, distance image processing system, distance image processing method, and distance image processing program |
CN110622217B (en) * | 2017-05-12 | 2023-04-18 | 富士通株式会社 | Distance image processing device and distance image processing system |
CN110651298B (en) * | 2017-05-12 | 2023-07-25 | 富士通株式会社 | Distance image processing device and distance image processing system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2013058174A (en) | Image processing program, image processing method, and image processing device | |
Agarwal et al. | Swapped! digital face presentation attack detection via weighted local magnitude pattern | |
US8811744B2 (en) | Method for determining frontal face pose | |
CN108596867A (en) | A kind of picture bearing calibration and system based on ORB algorithms | |
JP6570786B2 (en) | Motion learning device, skill discrimination device, and skill discrimination system | |
Serradell et al. | Non-rigid graph registration using active testing search | |
Favaretto et al. | Using group behaviors to detect hofstede cultural dimensions | |
JP6071002B2 (en) | Reliability acquisition device, reliability acquisition method, and reliability acquisition program | |
JP2008152530A (en) | Face recognition device, face recognition method, gabor filter applied device, and computer program | |
JP5910631B2 (en) | Information processing apparatus, information processing method, and information processing program | |
Sinha et al. | Pose based person identification using kinect | |
Martínez-Gómez et al. | Semantic localization in the PCL library | |
EP3410396B1 (en) | Moving object tracking apparatus, moving object tracking method, and computer-readable medium | |
JP5704909B2 (en) | Attention area detection method, attention area detection apparatus, and program | |
JP2014182754A (en) | Learning device, learning method, and program | |
JP2013037539A (en) | Image feature amount extraction device and program thereof | |
JP6530432B2 (en) | Image processing apparatus, image processing method and program | |
JP2015184054A (en) | Identification device, method, and program | |
Sangjun et al. | Real Time Hand Gesture Recognition Using Random Forest and Linear Discriminant Analysis. | |
JP2013015891A (en) | Image processing apparatus, image processing method, and program | |
Cotter et al. | A hardware accelerated multilevel visual classifier for embedded visual-assist systems | |
JP2013003686A (en) | Recognizing apparatus and method, program, and recording medium | |
Ghosh et al. | Automated color logo recognition system based on shape and color features | |
Escobedo et al. | Finger spelling recognition from depth data using direction cosines and histogram of cumulative magnitudes | |
Zhou et al. | Crowd modeling framework using fast head detection and shape-aware matching |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20140508 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20141212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20150113 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20150302 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20150526 |