JP2001338290A - Device and method for image processing and computer- readable with medium recording recorded with image processing program - Google Patents

Device and method for image processing and computer- readable with medium recording recorded with image processing program

Info

Publication number
JP2001338290A
JP2001338290A JP2000156174A JP2000156174A JP2001338290A JP 2001338290 A JP2001338290 A JP 2001338290A JP 2000156174 A JP2000156174 A JP 2000156174A JP 2000156174 A JP2000156174 A JP 2000156174A JP 2001338290 A JP2001338290 A JP 2001338290A
Authority
JP
Japan
Prior art keywords
color
image
model
space
input
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2000156174A
Other languages
Japanese (ja)
Inventor
Hiroshi Hasegawa
弘 長谷川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2000156174A priority Critical patent/JP2001338290A/en
Publication of JP2001338290A publication Critical patent/JP2001338290A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Color Image Communication Systems (AREA)
  • Image Analysis (AREA)
  • Collating Specific Patterns (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve recognition rate of an image. SOLUTION: This device is provided with an image input part 102 for inputting a color image, a color model generating part 201 for generating a color model by applying a statistic method to the inputted color image, and subjecting a model image to color conversion of the inputted color image on the generated color model, and a feature model generating part 202 for generating a feature space by applying a statistical method to plural color model images converted by the color model generating part 201.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】この発明は、画像処理装置、
画像処理方法および画像処理プログラムを記録したコン
ピュータ読取可能な記録媒体に関し、特に、認識対象と
なる物体に特有な色彩情報を考慮して物体を認識する画
像処理装置、画像処理方法および画像処理プログラムを
記録したコンピュータ読取可能な記録媒体に関する。
The present invention relates to an image processing apparatus,
The present invention relates to a computer-readable recording medium storing an image processing method and an image processing program, and more particularly, to an image processing apparatus, an image processing method, and an image processing program for recognizing an object in consideration of color information unique to the object to be recognized. The present invention relates to a recorded computer-readable recording medium.

【0002】[0002]

【従来の技術】従来、被写体を撮像して得られる画像か
ら、被写体を認識する技術が開発されている。特開平5
−20442号公報には、人の顔を含む高次元の濃淡画
像のパターンに主成分分析等の変換を施した低次元の固
有空間上で、パターン認識を行なう固有空間法を用い
て、画像中の人の顔を認識する顔画像照合装置が記載さ
れている。この技術では、カメラで人物の顔画像を撮像
して得られるグレースケールの濃淡画像を使って認識モ
デルを生成する。認識モデルの生成は、主成分分析を用
いて、高次元の濃淡画像のパターンを変換することによ
り求められる。そして、求められる認識モデルは、低次
元の固有空間で表わされ、この低次元の固有空間上でパ
ターン認識を行なうことにより対象人物の顔画像の認識
を行なう手法である。
2. Description of the Related Art Techniques for recognizing a subject from an image obtained by imaging the subject have been developed. JP 5
Japanese Patent No. -20442 discloses an eigenspace method for performing pattern recognition on a low-dimensional eigenspace obtained by performing a transformation such as principal component analysis on a pattern of a high-dimensional grayscale image including a human face. A face image collating device for recognizing a human face is described. In this technique, a recognition model is generated using a grayscale grayscale image obtained by capturing a face image of a person with a camera. The generation of the recognition model is obtained by converting a pattern of a high-dimensional gray-scale image using principal component analysis. The required recognition model is represented by a low-dimensional eigenspace, and is a method of recognizing a face image of a target person by performing pattern recognition on the low-dimensional eigenspace.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、特開平
5−20442号公報に記載の技術は、グレースケール
の濃淡画像を用いて画像の濃淡情報と形状とからのみ認
識モデルを生成しているため、認識の対象となる人物の
色の特性が認識モデルに取込まれていない。このため、
認識精度を高めるのに限界があった。
However, the technique described in Japanese Patent Application Laid-Open No. H5-204442 generates a recognition model only from the grayscale information and the shape of an image using a grayscale grayscale image. The color characteristics of the person to be recognized are not included in the recognition model. For this reason,
There were limits to improving recognition accuracy.

【0004】また、認識モデルを生成するのに、カラー
画像を用いることもできるが、カラー画像が赤(R)、
緑(G)、青(B)の3つの画像からなる場合には、濃
淡画像を用いる場合に比べて、画像データの量が3倍と
なる。このため、処理に時間を要してしまうという問題
があった。
A color image can be used to generate a recognition model.
In the case of three images of green (G) and blue (B), the amount of image data is tripled as compared with the case of using a gray image. For this reason, there has been a problem that time is required for processing.

【0005】この発明は上述の問題点を解決するために
なされたもので、この発明の目的の1つは、入力された
カラー画像の色彩の分布を十分に表す空間を容易に生成
することができ、画像の認識率を向上させた画像処理装
置、画像処理方法および画像処理プログラムを記録した
コンピュータ読取可能な記録媒体を提供することであ
る。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problems. One of the objects of the present invention is to easily generate a space that sufficiently represents the color distribution of an input color image. An object of the present invention is to provide an image processing apparatus, an image processing method, and a computer-readable recording medium in which an image processing program is recorded, in which an image recognition rate is improved.

【0006】[0006]

【課題を解決するための手段】上述の目的を達成するた
めにこの発明のある局面によれば、画像処理装置は、カ
ラー画像を入力する入力手段と、入力されたカラー画像
に統計的手法を施して色モデル空間を生成する色モデル
空間生成手段と、入力されたカラー画像を生成された色
モデル空間上のモデル画像に色変換する色変換手段と、
色変換手段で変換された複数のモデル画像に統計的手法
を施して特徴空間を生成する特徴空間生成手段とを備え
る。
According to one aspect of the present invention, there is provided an image processing apparatus comprising: an input unit for inputting a color image; and a statistical method for inputting the color image. A color model space generating means for generating a color model space by applying a color model space, and a color converting means for performing color conversion of the input color image into a model image on the generated color model space.
A feature space generation unit configured to generate a feature space by applying a statistical method to the plurality of model images converted by the color conversion unit.

【0007】この発明に従えば、入力されたカラー画像
に統計的手法が施こされて色モデル空間が生成され、入
力されたカラー画像が生成された色モデル空間上のモデ
ル画像に色変換される。また、色変換された複数のモデ
ル画像に統計的手法が施こされて特徴空間が生成され
る。色モデル空間上のモデル画像は、入力された画像の
色彩の特徴を十分に表した画像となる。また、特徴空間
は、入力されたカラー画像の色彩の分布を十分に表す空
間となる。その結果、入力されたカラー画像の色彩の分
布を十分に表す空間を容易に生成することができ、画像
の認識率を向上させた画像処理装置を提供することがで
きる。
According to the present invention, a color model space is generated by applying a statistical method to an input color image, and the input color image is color-converted into a model image in the generated color model space. You. Also, a statistical method is applied to the plurality of color-converted model images to generate a feature space. The model image in the color model space is an image sufficiently representing the color characteristics of the input image. The feature space is a space that sufficiently represents the color distribution of the input color image. As a result, a space that sufficiently represents the color distribution of the input color image can be easily generated, and an image processing apparatus with an improved image recognition rate can be provided.

【0008】好ましくは、画像処理装置の色モデル空間
生成手段は、入力されたカラー画像に対して主成分分析
を行なうことにより、入力されたカラー画像の色空間よ
り低次元の色空間を色モデル空間として生成することを
特徴とする。
Preferably, the color model space generating means of the image processing apparatus performs a principal component analysis on the input color image to convert a color space lower in dimension than the color space of the input color image into a color model. It is characterized by being generated as a space.

【0009】この発明に従えば、カラー画像に対して主
成分分析が行なわれるので、容易に低次元の色モデル空
間を生成することができる。
According to the present invention, since a principal component analysis is performed on a color image, a low-dimensional color model space can be easily generated.

【0010】さらに好ましくは、画像処理装置の特徴空
間生成手段は、色変換された複数のモデル画像に対して
主成分分析を行なうことにより特徴空間を生成すること
を特徴とする。
[0010] More preferably, the feature space generating means of the image processing apparatus generates a feature space by performing principal component analysis on a plurality of color-converted model images.

【0011】この発明に従えば、色変換された複数のモ
デル画像に対して主成分分析が行なわれるので、容易に
低次元の特徴空間を生成することができる。
According to the present invention, principal component analysis is performed on a plurality of color-converted model images, so that a low-dimensional feature space can be easily generated.

【0012】この発明の他の局面によれば、画像処理装
置は、カラー画像を入力する入力手段と、入力されたカ
ラー画像を、カラー画像の色空間より低次元の色空間で
ある色モデル空間上のモデル画像に色変換する色変換手
段と、色変換手段で色変換された複数のモデル画像に統
計的手法を施して特徴空間を生成する特徴空間生成手段
とを備える。
According to another aspect of the present invention, an image processing apparatus includes an input unit for inputting a color image, and a color model space that is a lower-dimensional color space than the color space of the color image. Color conversion means for performing color conversion to the above model image, and feature space generating means for generating a feature space by applying a statistical method to the plurality of model images color-converted by the color conversion means.

【0013】この発明に従えば、入力されたカラー画像
が色モデル空間上のモデル画像に色変換され、色変換さ
れた複数のモデル画像に統計的手法が施こされて特徴空
間が生成される。このため、カラー画像の次元を削減し
てデータ量を小さくすることができる。色モデル空間が
カラー画像によらず汎用的な空間である場合には、モデ
ル画像は、入力された画像の色彩の特徴を十分に表した
画像となる。その結果、入力されたカラー画像の色彩の
分布を十分に表す空間を容易に生成することができ、画
像の認識率を向上させた画像処理装置を提供することが
できる。
According to the present invention, an input color image is color-converted into a model image in a color model space, and a statistical method is applied to the plurality of color-converted model images to generate a feature space. . For this reason, the data amount can be reduced by reducing the dimension of the color image. When the color model space is a general-purpose space irrespective of a color image, the model image is an image sufficiently representing the color characteristics of the input image. As a result, a space that sufficiently represents the color distribution of the input color image can be easily generated, and an image processing apparatus with an improved image recognition rate can be provided.

【0014】好ましくは、画像処理装置の色モデル空間
は、複数のカラー画像に対して主成分分析を行なうこと
により生成されることを特徴とする。
[0014] Preferably, the color model space of the image processing apparatus is generated by performing principal component analysis on a plurality of color images.

【0015】この発明に従えば、カラー画像に対して主
成分分析が行なわれるので、容易に低次元の色モデル空
間を生成することができる。
According to the present invention, since a principal component analysis is performed on a color image, a low-dimensional color model space can be easily generated.

【0016】さらに好ましくは、画像処理装置は、色変
換手段により変換されたモデル画像を生成された特徴空
間に射影する射影手段と、入力手段により入力された予
め定められたカラー画像について、色変換手段で色変換
した後、射影手段で特徴空間に射影して求まる辞書ベク
トルを記憶する記憶手段と、入力手段により新たに入力
されたカラー画像について、色変換手段で色変換した
後、射影手段で特徴空間に射影して特徴ベクトルを求め
る特徴ベクトル算出手段と、求められた特徴ベクトルと
記憶された辞書ベクトルとを比較する比較手段とをさら
に備える。
[0016] More preferably, the image processing apparatus includes: a projecting unit for projecting the model image converted by the color converting unit onto the generated feature space; and a color conversion unit for the predetermined color image input by the input unit. After the color conversion by the means, the storage means for storing the dictionary vector obtained by projecting into the feature space by the projecting means, and the color image newly input by the input means, after the color conversion by the color conversion means, the projection means The image processing apparatus further includes feature vector calculating means for projecting the feature vector to obtain a feature vector, and comparing means for comparing the obtained feature vector with a stored dictionary vector.

【0017】この発明に従えば、予め定められたカラー
画像を色変換した後、特徴空間に射影して求まる辞書ベ
クトルが記憶され、新たに入力されたカラー画像を色変
換した後、特徴空間に射影して特徴ベクトルが求めら
れ、求められた特徴ベクトルと記憶された辞書ベクトル
とが比較される。予め定められたカラー画像と新たに入
力された画像とが特徴空間上で比較されるので、画像の
認識率を向上させた画像処理装置を提供することができ
る。
According to the present invention, after a predetermined color image is color-converted, a dictionary vector obtained by projecting the color image into a feature space is stored, and after a newly input color image is color-converted, the dictionary vector is converted into a feature space. The projection is performed to obtain a feature vector, and the obtained feature vector is compared with the stored dictionary vector. Since the predetermined color image and the newly input image are compared in the feature space, it is possible to provide an image processing apparatus with an improved image recognition rate.

【0018】さらに好ましくは、画像処理装置は、予め
定められたカラー画像は、特徴空間生成部で特徴空間を
求めるために用いたカラー画像であることを特徴とす
る。
More preferably, the image processing apparatus is characterized in that the predetermined color image is a color image used for obtaining a feature space by the feature space generation unit.

【0019】この発明に従えば、予め定められたカラー
画像は、特徴空間生成部で特徴空間を求めるために用い
たカラー画像であるので、より正確に画像を認識するこ
とができる。
According to the present invention, since the predetermined color image is a color image used for obtaining the feature space in the feature space generation unit, the image can be recognized more accurately.

【0020】さらに好ましくは、画像処理装置は、入力
されたカラー画像から顔領域を抽出するための抽出手段
をさらに備えたことを特徴とする。
[0020] More preferably, the image processing apparatus further comprises extraction means for extracting a face area from the input color image.

【0021】この発明に従えば、入力されたカラー画像
から顔領域が抽出される。このため、人の顔の認識率を
向上させた画像処理装置を提供することができる。
According to the present invention, a face area is extracted from an input color image. Therefore, it is possible to provide an image processing apparatus in which the recognition rate of a human face is improved.

【0022】この発明の他の局面によれば、画像処理方
法は、カラー画像を入力するステップと、入力されたカ
ラー画像に統計的手法を施して色モデル空間を生成する
ステップと、入力されたカラー画像を生成された色モデ
ル空間上のモデル画像に色変換するステップと、変換さ
れた複数のモデル画像に統計的手法を施して特徴空間を
生成するステップとを含む。
According to another aspect of the present invention, an image processing method includes a step of inputting a color image, a step of performing a statistical method on the input color image to generate a color model space, and The method includes the steps of color-converting a color image into a model image in a generated color model space, and generating a feature space by applying a statistical method to the plurality of converted model images.

【0023】この発明に従えば、入力されたカラー画像
に統計的手法が施こされて色モデル空間が生成され、入
力されたカラー画像が生成された色モデル空間上のモデ
ル画像に色変換される。また、変換された複数のモデル
画像に統計的手法が施こされて特徴空間が生成される。
色モデル空間上のモデル画像は、入力された画像の色彩
の特徴を十分に表した画像となる。また、特徴空間は、
入力されたカラー画像の色彩の分布を十分に表す空間と
なる。その結果、入力されたカラー画像の色彩の分布を
十分に表す空間を容易に生成することができ、画像の認
識率を向上させた画像処理方法を提供することができ
る。
According to the present invention, the input color image is subjected to a statistical method to generate a color model space, and the input color image is color-converted into a model image in the generated color model space. You. Further, a statistical method is applied to the plurality of converted model images to generate a feature space.
The model image in the color model space is an image sufficiently representing the color characteristics of the input image. The feature space is
This is a space that sufficiently represents the color distribution of the input color image. As a result, a space that sufficiently represents the color distribution of the input color image can be easily generated, and an image processing method with an improved image recognition rate can be provided.

【0024】この発明の他の局面によれば、コンピュー
タ読取可能な記録媒体は、カラー画像を入力するステッ
プと、入力されたカラー画像に統計的手法を施して色モ
デル空間を生成するステップと、入力されたカラー画像
を生成された色モデル空間上のモデル画像に色変換する
ステップと、変換された複数のモデル画像に統計的手法
を施して特徴空間を生成するステップとをコンピュータ
に実行させるための画像処理プログラムを記録する。
According to another aspect of the present invention, a computer-readable recording medium includes: a step of inputting a color image; a step of performing a statistical method on the input color image to generate a color model space; Causing the computer to execute a step of performing color conversion of the input color image into a model image on the generated color model space and a step of performing a statistical method on the plurality of converted model images to generate a feature space; The image processing program of the above is recorded.

【0025】この発明に従えば、入力されたカラー画像
に統計的手法が施こされて色彩の特徴を表現する色モデ
ル空間が生成され、入力されたカラー画像が生成された
色モデル空間上のモデル画像に色変換される。また、変
換された複数のモデル画像に統計的手法が施こされて特
徴空間が生成される。色モデル空間上のモデル画像は、
入力された画像の色彩の特徴を十分に表した画像とな
る。また、特徴空間は、入力されたカラー画像の色彩の
分布を十分に表す空間となる。その結果、入力されたカ
ラー画像の色彩の分布を十分に表す空間を容易に生成す
ることができ、画像の認識率を向上させた画像処理プロ
グラムを記録したコンピュータ読取可能な記録媒体を提
供することができる。
According to the present invention, a color model space expressing color characteristics is generated by applying a statistical method to the input color image, and the color model space on the color model space where the input color image is generated is generated. The color is converted to a model image. Further, a statistical method is applied to the plurality of converted model images to generate a feature space. The model image in the color model space is
This is an image that sufficiently represents the color characteristics of the input image. The feature space is a space that sufficiently represents the color distribution of the input color image. As a result, it is possible to provide a computer-readable recording medium in which an image processing program which can easily generate a space sufficiently representing a color distribution of an input color image and has an improved image recognition rate is recorded. Can be.

【0026】[0026]

【発明の実施の形態】以下、本実施の形態における物体
認識装置を、図面を参照して説明する。なお、図中同一
符号は同一または相当する部材を示し、説明は繰返さな
い。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS Hereinafter, an object recognition apparatus according to the present embodiment will be described with reference to the drawings. The same reference numerals in the drawings denote the same or corresponding members, and description thereof will not be repeated.

【0027】図1は、本発明の実施の形態の1つにおけ
る物体認識装置の概略構成を示すブロック図である。図
1を参照して、物体認識装置100は、カメラ101
と、外部記憶装置111と接続されている。
FIG. 1 is a block diagram showing a schematic configuration of an object recognition apparatus according to one embodiment of the present invention. Referring to FIG. 1, an object recognition device 100 includes a camera 101
And the external storage device 111.

【0028】物体認識装置100は、カメラ101と接
続された画像入力部102と、画像入力部102と接続
された学習部300と、画像入力部102と接続された
認識処理部400と、物体認識装置100の全体を制御
するための制御部110とを含む。
The object recognition apparatus 100 includes an image input unit 102 connected to the camera 101, a learning unit 300 connected to the image input unit 102, a recognition processing unit 400 connected to the image input unit 102, A control unit 110 for controlling the entire device 100;

【0029】カメラ101は、CCD(Charge Coupled
Device)等の固体撮像素子を備え、被写体を撮像して
フルカラーの画像信号を出力するカメラである。カメラ
101は、被写体を撮像してRGBの画像信号を画像入
力部102に出力する。
The camera 101 is a CCD (Charge Coupled).
This is a camera that includes a solid-state image sensor such as a device and outputs a full-color image signal by imaging a subject. The camera 101 captures an image of a subject and outputs RGB image signals to the image input unit 102.

【0030】画像入力部102は、カメラ101より入
力される画像信号を、たとえばRGBで表わされるデジ
タル画像データに変換し、輝度値の補正や認識対象領域
の切出しとその形状の正規化などの補正処理をした後、
学習部300または認識処理部200に補正処理を施し
た画像データを出力する。
The image input unit 102 converts an image signal input from the camera 101 into digital image data represented by, for example, RGB, and corrects luminance values, cuts out a recognition target area, and normalizes its shape. After processing
The image data subjected to the correction processing is output to the learning unit 300 or the recognition processing unit 200.

【0031】学習部300は、複数の画像データに含ま
れる色データに基づき色モデルを生成するための色モデ
ル生成部201と、生成された色モデルを記憶するため
の色モデル格納部301と、生成された色モデルのモデ
ル空間に射影された複数の画像データに基づき特徴モデ
ルを生成するための特徴モデル生成部202と、特徴モ
デルを記憶するための特徴モデル格納部302と、特徴
モデルに射影された色モデル画像データを辞書ベクトル
として記憶するための辞書ベクトル格納部303とを含
む。なお、色モデル画像データは、画像データを色モデ
ルのモデル空間に射影して得られるデータである。
The learning unit 300 includes a color model generation unit 201 for generating a color model based on color data included in a plurality of image data, a color model storage unit 301 for storing the generated color model, A feature model generation unit 202 for generating a feature model based on a plurality of image data projected on the model space of the generated color model; a feature model storage unit 302 for storing the feature model; And a dictionary vector storage unit 303 for storing the obtained color model image data as a dictionary vector. Note that the color model image data is data obtained by projecting the image data into the model space of the color model.

【0032】色モデル生成部201は、画像入力部10
2から入力された画像データの画素値を主成分分析する
ことにより、固有空間を生成する。色モデル生成部20
1で生成された固有空間を色モデルと呼ぶ。色モデル
は、主成分分析により求められる固有ベクトルで表わさ
れ、固有ベクトルは色モデル格納部301に記憶され
る。このとき、入力される画像データがRGBの3つで
表わされる場合、色モデルが1次元で表わされる空間で
あれば、入力される画像データは1次元のデータに圧縮
されることになる。
The color model generation unit 201 includes the image input unit 10
The eigenspace is generated by performing a principal component analysis on the pixel values of the image data input from Step 2. Color model generator 20
The eigenspace generated in step 1 is called a color model. The color model is represented by an eigenvector obtained by principal component analysis, and the eigenvector is stored in the color model storage unit 301. At this time, when the input image data is represented by three of RGB, if the color model is a space represented by one dimension, the input image data is compressed into one-dimensional data.

【0033】特徴モデル生成部202は、色モデル生成
部201で生成された色モデルに画像データを射影して
得られる色モデル画像データを複数用いて、主成分分析
等の統計的処理を施すことにより、固有空間を生成す
る。特徴モデル生成部202で生成される固有空間を、
特徴モデルと呼ぶ。特徴モデルは、主成分分析により求
められた固有ベクトルで定義される。求められる固有ベ
クトルは、寄与率が所定の値となるまで求められる。こ
れにより、画像データの次元が圧縮され、データ量を少
なくすることができる。特徴モデルを定義する固有ベク
トルは特徴モデル格納部302に記憶される。
The feature model generation unit 202 performs statistical processing such as principal component analysis using a plurality of color model image data obtained by projecting image data on the color model generated by the color model generation unit 201. Generates an eigenspace. The eigenspace generated by the feature model generation unit 202 is
It is called a feature model. The feature model is defined by eigenvectors obtained by principal component analysis. The eigenvector to be obtained is obtained until the contribution ratio reaches a predetermined value. Thereby, the dimension of the image data is compressed, and the data amount can be reduced. The eigenvector defining the feature model is stored in the feature model storage unit 302.

【0034】一方、特徴モデル生成部202において特
徴モデルの生成に用いられた色モデル画像データは、特
徴モデルに射影される。射影されることにより出力され
るパラメータは、辞書ベクトルとして辞書ベクトル格納
部303に記憶される。
On the other hand, the color model image data used for generating the feature model in the feature model generation unit 202 is projected on the feature model. The parameters output by the projection are stored in the dictionary vector storage unit 303 as dictionary vectors.

【0035】特徴モデル生成部202で特徴モデルの生
成に用いる色モデル画像データは、カメラ101で同一
人物を撮像した複数の画像データを用いてもよく、複数
の人物の顔を撮像して得られる画像を用いてもよい。同
一人物の顔を撮像して得られる複数の画像データを用い
て特徴モデルを生成する場合には、その色モデル画像デ
ータを特徴モデルに射影して得られる辞書ベクトルは、
同じカテゴリに分類されて辞書ベクトル格納部303に
記憶される。
As the color model image data used for generating the feature model in the feature model generation unit 202, a plurality of image data obtained by imaging the same person by the camera 101 may be used, and the image data may be obtained by imaging the faces of a plurality of people. Images may be used. When generating a feature model using a plurality of image data obtained by imaging the face of the same person, a dictionary vector obtained by projecting the color model image data onto the feature model is:
They are classified into the same category and stored in the dictionary vector storage unit 303.

【0036】このように、学習部300では、人物を撮
像して得られるフルカラーの画像データの色情報に主成
分分析を行なうことにより色モデルを生成し、生成され
た色モデルのモデル空間に画像データを射影することに
より、画像データの次元を圧縮している。また、生成さ
れる色モデルは、入力された画像データの色彩情報を考
慮しているため、画像に含まれる色の分布を十分に考慮
した固有空間となる。特に、本実施の形態においては、
入力される画像データを人物の顔を含む画像データとし
ているため、人の顔の色の分布を十分に考慮した固有空
間が生成される。そして、この固有空間に画像データが
射影される色モデル画像データは、色の分布が十分に考
慮されたデータとなる。
As described above, the learning unit 300 generates a color model by performing principal component analysis on color information of full-color image data obtained by imaging a person, and stores the image in the model space of the generated color model. By projecting the data, the dimension of the image data is compressed. Further, the generated color model takes into account the color information of the input image data, so that it becomes an eigenspace that sufficiently takes into account the distribution of colors contained in the image. In particular, in the present embodiment,
Since the input image data is image data including a person's face, an eigenspace that sufficiently takes into account the color distribution of the person's face is generated. The color model image data on which the image data is projected onto the eigenspace is data in which the color distribution is sufficiently considered.

【0037】また、特徴モデル生成部202では、入力
されたフルカラーの画像データを色モデルに射影した色
モデル画像データに主成分分析を行なって特徴モデルを
生成するため、主成分分析を行なうデータの次元を減ら
すことができ、処理速度が速くなる。特に、色モデル生
成部201で生成される色モデルが、第1主成分のみで
定義される場合には、入力される画像データは、RGB
の3次元から第1主成分の1次元のデータとされる。
The feature model generation unit 202 performs a principal component analysis on color model image data obtained by projecting the input full-color image data onto a color model, and generates a feature model. Dimensions can be reduced and processing speed is increased. In particular, when the color model generated by the color model generation unit 201 is defined only by the first principal component, the input image data is RGB.
From three dimensions to one-dimensional data of the first principal component.

【0038】認識処理部400は、画像入力部102か
ら入力される画像データに色変換を施すための色変換部
401と、色変換部401で色変換された色モデル画像
データの特徴ベクトルを抽出するための特徴ベクトル抽
出部402と、抽出された特徴ベクトルを辞書ベクトル
格納部303に記憶されている辞書ベクトルと比較する
ための照合部403とを含む。
A recognition processing unit 400 extracts a color conversion unit 401 for performing color conversion on image data input from the image input unit 102 and a feature vector of the color model image data color-converted by the color conversion unit 401. And a matching unit 403 for comparing the extracted feature vector with a dictionary vector stored in the dictionary vector storage unit 303.

【0039】色変換部401は、画像入力部102から
入力された画像データを、色モデル格納部301に記憶
されている色モデルに射影することにより、色変換を行
なう。色変換は、色モデルを定義する固有ベクトルを用
いて行なわれる。したがって、色モデルを定義する固有
ベクトルが、第1主成分に基づく固有ベクトルのみであ
る場合には、入力されるRGBの3次元で表わされる画
像データが、第1主成分のみの1次元の色モデル画像デ
ータに変換される。これについては後で説明する。
The color conversion unit 401 performs color conversion by projecting the image data input from the image input unit 102 onto the color model stored in the color model storage unit 301. Color conversion is performed using eigenvectors that define a color model. Therefore, when the eigenvectors that define the color model are only the eigenvectors based on the first principal component, the input image data represented in three-dimensional RGB is a one-dimensional color model image of only the first principal component. Converted to data. This will be described later.

【0040】特徴ベクトル抽出部402は、色変換部4
01で色変換された色モデル画像データを、特徴モデル
格納部302に記憶される特徴モデルに射影することに
より、特徴ベクトルを抽出する。特徴ベクトルの抽出
は、特徴モデルを定義する固有ベクトルを用いて行なわ
れる。
The feature vector extraction unit 402
The feature vector is extracted by projecting the color model image data color-converted in step 01 to the feature model stored in the feature model storage unit 302. Extraction of a feature vector is performed using an eigenvector that defines a feature model.

【0041】照合部403は、特徴ベクトル抽出部40
2で抽出された特徴ベクトルを、辞書ベクトル格納部3
03に記憶されている辞書ベクトルと比較し、最も相関
の高い辞書ベクトルを求める。辞書ベクトル格納部30
3に記憶されている辞書ベクトルがカテゴリごとに保存
されている場合には、入力された画像データは、その特
徴ベクトルと最も相関の高いカテゴリに分類される。こ
れにより、入力された画像データに含まれる人物が、誰
であるのかを認識することができる。
The collating unit 403 includes a feature vector extracting unit 40
2 is stored in the dictionary vector storage unit 3
The dictionary vector having the highest correlation is obtained by comparing with the dictionary vector stored in No. 03. Dictionary vector storage unit 30
In the case where the dictionary vectors stored in No. 3 are stored for each category, the input image data is classified into the category having the highest correlation with the feature vector. Thereby, it is possible to recognize who the person included in the input image data is.

【0042】外部記憶装置111は、光磁気ディスク、
デジタルビデオディスク(DVD)等の記録媒体112
に記憶されたプログラムやデータを読込むためのドライ
バである。
The external storage device 111 includes a magneto-optical disk,
Recording medium 112 such as a digital video disk (DVD)
This is a driver for reading programs and data stored in the.

【0043】なお、学習部300および認識処理部40
0で行なう処理を実行するための物体認識プログラムを
記録媒体112に記録し、記録された物体認識プログラ
ムを外部記憶装置111で読込むことにより、制御部1
10で実行するようにしてもよい。この場合には、学習
部300および認識処理部400は不要であり、制御部
110は、図示しない記憶部に色モデルと特徴モデルと
辞書ベクトルとを格納することになる。
The learning unit 300 and the recognition processing unit 40
0 is recorded on the recording medium 112, and the recorded object recognition program is read by the external storage device 111, whereby the control unit 1
10 may be executed. In this case, the learning unit 300 and the recognition processing unit 400 are unnecessary, and the control unit 110 stores a color model, a feature model, and a dictionary vector in a storage unit (not shown).

【0044】次に、物体認識装置100で行なわれる処
理の流れについて具体的に説明する。図2は、本実施の
形態における物体認識装置100の学習部300で行な
われる学習処理の流れを示すフローチャートである。図
2を参照して、学習処理では、まず、画像データが入力
される(ステップS1)。画像データは、画像入力部1
02より入力されるRGB信号で表わされたデータであ
る。
Next, the flow of processing performed by the object recognition apparatus 100 will be specifically described. FIG. 2 is a flowchart showing a flow of a learning process performed by learning section 300 of object recognition device 100 in the present embodiment. Referring to FIG. 2, in the learning process, first, image data is input (step S1). Image data is input to the image input unit 1
02 is the data represented by the RGB signal input from the device.

【0045】なお、本実施の形態においては、カラー画
像信号としてRGB信号を用いたが、これに限られるわ
けではなく、輝度信号Yと2つの色差信号Cb,Crか
らなる画像信号、Y,I,Q信号、Y,U,V信号、あ
るいは、マンセル(Munsell)空間のような均等視知覚
空間上のH,V,C信号を用いるようにしてもよい。
In the present embodiment, the RGB signals are used as the color image signals. However, the present invention is not limited to this. The image signals Y, I and I, which are composed of the luminance signal Y and the two color difference signals Cb and Cr, are used. , Q signals, Y, U, V signals, or H, V, C signals in a uniform visual perception space such as a Munsell space.

【0046】次に、入力された画像データの画素値を主
成分分析して色モデルを生成する。ここでは、入力され
る画像データがn枚の場合について説明する。ここで、
1つの画像データには、R画像、G画像およびP画像の
3つの画像が含まれ、それぞれの画像にN個の画素が含
まれるとすると、n枚の画像データは、(1)式に示す
行列Dで表わすことができる。行列Dにおいて、Ri1
i2 …RiNは、第i枚目の画像に含まれる画素値を示
す。このため、行列Dは、3行×(N×n)列の行列で
表わされている。
Next, a color model is generated by performing a principal component analysis on the pixel values of the input image data. Here, a case where the number of input image data is n will be described. here,
Assuming that one image data includes three images of an R image, a G image, and a P image, and that each image includes N pixels, n image data is represented by Expression (1). It can be represented by a matrix D. In matrix D, R i1
R i2 ... R iN indicate pixel values included in the i-th image. For this reason, the matrix D is represented by a matrix of 3 rows × (N × n) columns.

【0047】色モデルの生成は、行列Dに対して主成分
分析を行なう。このため、行列Dの分散共分散行列C
を、(2)式に基づき求める。そして、求めた分散共分
散行列Cを適当な手法で対角化し、分散共分散行列Cの
固有ベクトル行列Eと各固有ベクトルに対応する固有値
ベクトルeを計算する。
To generate a color model, a principal component analysis is performed on the matrix D. Therefore, the variance-covariance matrix C of the matrix D
Is calculated based on the equation (2). Then, the obtained variance-covariance matrix C is diagonalized by an appropriate method, and an eigenvector matrix E of the variance-covariance matrix C and an eigenvalue vector e corresponding to each eigenvector are calculated.

【0048】求められた固有ベクトル行列Eは、(3)
式で表わされ、固有値ベクトルFは(4)式で表わされ
る。
The obtained eigenvector matrix E is given by (3)
The eigenvalue vector F is expressed by Expression (4).

【0049】このとき、入力された画像の色の偏りが大
きければ、固有値は、ω1>>ω2>>ω3となるため、
固有値ω1に対応する第1主成分の固有ベクトルW1
(e11,e12,e13)のみを基底とした色モデルを定義
することができる。なお、固有値ω1に対応する固有ベ
クトルW1のみでは、寄与率が十分でない場合には、固
有値ω2に対応する第2主成分の固有ベクトルW2=(e
21,e22,e23)をも基底とした色モデルを定義するよ
うにしてもよい。この場合には、RGBの3次元の画像
データが、第1主成分と第2主成分とで表わされる2次
元の画像データで表わされることになる。
At this time, if the color deviation of the input image is large, the eigenvalue becomes ω 1 >> ω 2 >> ω 3 .
Eigenvector W 1 of the first principal component corresponding to eigenvalue ω 1 =
A color model based on only (e 11 , e 12 , e 13 ) can be defined. Note that the eigenvalues only with the eigenvectors W 1 corresponding to omega 1, when the contribution rate is not sufficient, the eigenvalues eigenvectors of the second principal component corresponding to omega 2 W 2 = (e
21, e 22, e 23) may be defined a color model with base also. In this case, RGB three-dimensional image data is represented by two-dimensional image data represented by a first principal component and a second principal component.

【0050】色モデルの基底ベクトルが、色変換パラメ
ータとして色モデル格納部301に記憶される。ここで
は、第1主成分の固有ベクトルW1を色モデルの基底と
なる固有ベクトルとし、固有ベクトルの成分e11
12,e13が色変換パラメータとして色モデル格納部3
01に記憶される。
The base vector of the color model is stored in the color model storage unit 301 as a color conversion parameter. Here, the eigenvector W 1 of the first principal component is set as an eigenvector serving as a basis of the color model, and the eigenvector components e 11 ,
e 12 and e 13 are color model storage units 3 as color conversion parameters.
01 is stored.

【0051】次に、色モデル生成部201で色モデルの
生成に用いたn枚の画像データのすべてを、色モデルに
射影して色変換を行なう(ステップS4)。色変換は、
色モデル格納部301に記憶された色変換パラメータを
用いて行なわれる。より具体的には、画像入力部102
より入力された画像データの1つの画素のRGB信号
を、R,G,Bとすると、色変換された値Tは、(5)
式で表わされる。このように、RGB信号の画像データ
が、変換後の画素値Tの色モデル画像データに色変換さ
れる。
Next, all of the n pieces of image data used for generating the color model by the color model generation unit 201 are projected onto the color model to perform color conversion (step S4). Color conversion is
This is performed using the color conversion parameters stored in the color model storage unit 301. More specifically, the image input unit 102
Assuming that the RGB signals of one pixel of the input image data are R, G, and B, the color-converted value T is (5)
It is represented by the formula. As described above, the image data of the RGB signal is color-converted into the color model image data of the pixel value T after the conversion.

【0052】[0052]

【数1】 (Equation 1)

【0053】そして、変換後の色モデル画像データに主
成分分析が施され、特徴モデルが生成される(ステップ
S5)。特徴モデルの生成は、固有空間を構成したとき
の累積寄与率が所定の値となるまで、主成分分析が行な
われる。すなわち、主成分分析を行なうことにより、複
数の固有ベクトルが求められるが、複数の固有ベクトル
のうち固有値の絶対値が大きいものから順に第1主成
分、第2主成分、第3主成分…の固有ベクトルとされ
る。このように、累積寄与率が所定の値となるまで、固
有ベクトルが求められる。そして、求められた固有ベク
トルにより特徴モデルが定義される。
Then, principal component analysis is performed on the converted color model image data to generate a feature model (step S5). In the generation of the feature model, principal component analysis is performed until the cumulative contribution rate when the eigenspace is formed reaches a predetermined value. That is, a plurality of eigenvectors are obtained by performing principal component analysis. Among the plurality of eigenvectors, eigenvectors of a first principal component, a second principal component, a third principal component... Is done. In this manner, the eigenvectors are obtained until the cumulative contribution rate reaches a predetermined value. Then, a feature model is defined by the obtained eigenvectors.

【0054】求められた固有ベクトルは、特徴モデル格
納部302に、画像変換パラメータとして記憶される
(ステップS6)。
The obtained eigenvectors are stored in the feature model storage unit 302 as image conversion parameters (step S6).

【0055】ステップS4で色変換された色モデル画像
データのうち、認識対象画像に対応する色モデル画像デ
ータが特徴モデルに射影される(ステップS7)。射影
は、特徴モデル格納部302に記憶された画像変換パラ
メータを用いて行なわれる。そして、ステップS7で射
影により求められるベクトルを辞書ベクトルとして辞書
ベクトル格納部303に記憶する(ステップS8)。こ
こで、認識対象画像とは、画像認識の対象とする人物を
含む画像データをいう。認識対象画像が、同一人物を被
写体とした複数の画像からなる場合には、複数の認識対
象画像に対応する複数の色モデル画像データを特徴モデ
ルに射影することにより複数の辞書ベクトルが求められ
る。求められた複数の辞書ベクトルは、同じカテゴリに
分類される。2つの画像データにそれぞれ含まれる人物
が同一人物でない場合には、2つの画像データから求め
られる辞書ベクトルは、異なるカテゴリに分類されて辞
書ベクトル格納部303に記憶される。
The color model image data corresponding to the recognition target image among the color model image data subjected to color conversion in step S4 is projected on the feature model (step S7). The projection is performed using the image conversion parameters stored in the feature model storage unit 302. Then, the vector obtained by the projection in step S7 is stored in the dictionary vector storage unit 303 as a dictionary vector (step S8). Here, the recognition target image refers to image data including a person to be subjected to image recognition. When the recognition target image includes a plurality of images of the same person as a subject, a plurality of dictionary vectors are obtained by projecting a plurality of color model image data corresponding to the plurality of recognition target images onto a feature model. The plurality of obtained dictionary vectors are classified into the same category. When the persons included in the two image data are not the same person, the dictionary vectors obtained from the two image data are classified into different categories and stored in the dictionary vector storage unit 303.

【0056】本実施の形態においては、特徴モデルの作
成に用いる画像を色モデルの作成に用いる画像と同じと
している。しかし、どのような画像集合にも適用可能な
汎用的な色モデルが既に作成されている場合には、画像
集合に対して色モデルを作成する必要はなく、汎用的な
色モデルを用いることができる。この場合には、汎用的
な色モデルの作成に用いられる画像と、特徴モデルの作
成に用いられる画像とを異ならせることができる。
In the present embodiment, the image used to create the feature model is the same as the image used to create the color model. However, if a general-purpose color model applicable to any image set has already been created, there is no need to create a color model for the image set. it can. In this case, an image used to create a general-purpose color model can be different from an image used to create a feature model.

【0057】図3は、本実施の形態における物体認識装
置100の認識処理部400で行なわれる認識処理の流
れを示すフローチャートである。図3を参照して、認識
処理は、まず、画像入力部102より処理対象となる画
像データを入力する(ステップS11)。この時点で、
処理対象となる画像データに含まれる人物が誰であるの
かは不明である。
FIG. 3 is a flowchart showing the flow of a recognition process performed by the recognition processing section 400 of the object recognition device 100 according to the present embodiment. Referring to FIG. 3, in the recognition process, first, image data to be processed is input from image input unit 102 (step S11). at this point,
It is unknown which person is included in the image data to be processed.

【0058】入力された画像データを、色モデル格納部
301に記憶されている色モデルに射影することによ
り、色変換が行なわれる(ステップS12)。色モデル
への射影は、(5)式を用いて行なわれる。
The color conversion is performed by projecting the input image data onto the color model stored in the color model storage section 301 (step S12). The projection onto the color model is performed using equation (5).

【0059】そして、色変換された色モデル画像データ
が、特徴モデル格納部302に記憶されている特徴モデ
ルに射影される(ステップS13)。特徴モデルへの射
影は、特徴モデル格納部302に記憶されている特徴モ
デルを定義する固有ベクトルを用いて行なわれる。これ
により、入力された画像に対応する特徴ベクトルが求め
られる。
Then, the color-converted color model image data is projected onto the feature model stored in the feature model storage unit 302 (step S13). The projection to the feature model is performed using the eigenvectors that define the feature model stored in the feature model storage unit 302. As a result, a feature vector corresponding to the input image is obtained.

【0060】求められた特徴ベクトルが辞書ベクトル格
納部303に記憶されている辞書ベクトルと比較され
る。比較は、ベクトル間の差を求めたり、ユークリット
距離やマハラマビス距離を用いてもよい。また、辞書ベ
クトルがカテゴリに分類されている場合には、カテゴリ
に含まれる複数の辞書ベクトルと特徴ベクトルとが比較
される。
The obtained feature vector is compared with the dictionary vector stored in the dictionary vector storage unit 303. For the comparison, a difference between vectors may be obtained, or a Euclidean distance or a Mahalanobis distance may be used. When the dictionary vectors are classified into categories, a plurality of dictionary vectors included in the category are compared with the feature vectors.

【0061】そして、ステップS14の比較結果に基づ
き、ステップS15で特徴ベクトルと辞書ベクトルとが
相関があるか否かが判断され、相関のある場合にはステ
ップS16に進み、相関のない場合にはステップS14
において他の辞書ベクトルと比較される。相関の有無
は、例えば、ユークリット距離が所定の範囲内にある場
合に相関有りとし、そうでない場合に相関なしとする。
なお、すべての辞書ベクトルと比較しても相関のある辞
書ベクトルが発見されない場合には、認識不可として処
理が終了する。
Based on the comparison result in step S14, it is determined in step S15 whether or not the feature vector and the dictionary vector are correlated. If there is a correlation, the process proceeds to step S16. Step S14
Are compared with other dictionary vectors. The presence / absence of the correlation is determined, for example, as having a correlation when the Euclidean distance is within a predetermined range, and as having no correlation otherwise.
If no correlated dictionary vector is found even after comparison with all dictionary vectors, the processing is terminated as unrecognizable.

【0062】ステップS16においては、相関のある辞
書ベクトルが含まれるカテゴリに、入力された画像を分
類する。これにより、入力された画像に含まれる人物が
誰であるのかを認識することができる。
In step S16, the input image is classified into a category including a correlated dictionary vector. Thereby, it is possible to recognize who the person included in the input image is.

【0063】以上説明したように本実施の形態における
物体認識装置においては、主成分分析を用いて物体の色
特性を解析し、色特性を最大限に盛込んだ色パラメータ
で画像を表現するようにしている。このため、認識精度
が高く、かつ、低次元で物体を認識することができる特
徴モデルを生成することができる。
As described above, in the object recognition apparatus according to the present embodiment, the color characteristics of an object are analyzed by using principal component analysis, and an image is represented by color parameters incorporating the color characteristics to the maximum. I have to. For this reason, it is possible to generate a feature model with high recognition accuracy and capable of recognizing an object in low dimensions.

【0064】また、実際に認識処理を行なう場合に低次
元の特徴モデルを用いるので、物体認識装置を簡略化す
ることができ、処理を高速に行なうことができる。
Since a low-dimensional feature model is used when actually performing the recognition processing, the object recognition apparatus can be simplified and the processing can be performed at a high speed.

【0065】本実施の形態における物体認識装置で人間
の顔のカラー画像を用いて特徴モデルを生成する場合
と、人間の顔の濃淡画像を用いて主成分分析を行ない特
徴モデルを生成する場合とで、入力するカラー画像また
は濃淡画像の数を300枚として累積寄与率を比較し
た。その結果を、図4に示す。図4は、本実施の形態に
おける物体認識装置の効果を説明するための図である。
The case where the object recognition apparatus of this embodiment generates a feature model using a color image of a human face, and the case where a feature model is generated by performing principal component analysis using a grayscale image of a human face. The cumulative contribution ratio was compared with the number of input color images or grayscale images being 300. The result is shown in FIG. FIG. 4 is a diagram for describing an effect of the object recognition device according to the present embodiment.

【0066】図4を参照して、濃淡画像を用いた従来の
方法によれば、50%の累積寄与率を得るためには、分
散の大きい方から6次元(第6主成分)が必要であるの
に対して、本発明における物体認識装置によれば、従来
の方法に比べて約半分の3次元(第3主成分)までのデ
ータを用いれば累積寄与率が50%を超える。このた
め、本実施の形態における物体認識装置によれば、従来
の方法に比べてより低次元で十分な寄与率を得ることが
できる。
Referring to FIG. 4, according to the conventional method using the grayscale image, in order to obtain a cumulative contribution rate of 50%, six dimensions (sixth principal component) from the one with the largest variance are required. On the other hand, according to the object recognition device of the present invention, the cumulative contribution ratio exceeds 50% when three-dimensional (third principal component) data, which is about half that of the conventional method, is used. Therefore, according to the object recognition device of the present embodiment, a sufficient contribution ratio can be obtained in a lower dimension than in the conventional method.

【0067】なお、本実施の形態においては、認識する
物体を人間の顔としたが、これに限定されるわけではな
く、他の物体を認識対象とすることができるのは言うま
でもない。また、適当な方法で画像から顔の領域を抽出
し、抽出した画像領域においてのみ上述した学習処理お
よび認識処理を行なうようにすれば、より精度を高くし
て物体を認識することができる。この場合、人間の肌、
髪、唇等の色に特化したパラメータを用いて色を表現で
きるので、性別、年齢、表情を精度よく判別することが
でき、個人認証等を有効に行なうことができる。
In this embodiment, the object to be recognized is a human face. However, the present invention is not limited to this, and it goes without saying that other objects can be recognized. If a face area is extracted from an image by an appropriate method, and the above-described learning processing and recognition processing are performed only on the extracted image area, the object can be recognized with higher accuracy. In this case, human skin,
Since colors can be expressed using parameters specialized for hair, lips, and the like, gender, age, and facial expression can be accurately determined, and personal authentication and the like can be performed effectively.

【0068】また、本実施の形態における物体認識装置
においては、色モデルおよび特徴モデルの生成に主成分
分析を用いたが、これに限らず、直交変換等の適当な方
法を用いることができる。
Further, in the object recognition apparatus according to the present embodiment, the principal component analysis is used for generating the color model and the feature model. However, the present invention is not limited to this, and an appropriate method such as orthogonal transformation can be used.

【0069】なお、本実施の形態においては物体認識装
置について説明したが、図2および図3に示した処理を
実行する物体認識方法または、これらの処理をコンピュ
ータに実行させるための物体認識プログラムを記録した
コンピュータ読取可能な記録媒体として発明をとらえる
ことができるのは言うまでもない。
Although the object recognition apparatus has been described in the present embodiment, an object recognition method for executing the processes shown in FIGS. 2 and 3 or an object recognition program for causing a computer to execute these processes is provided. Needless to say, the invention can be regarded as a computer-readable recording medium on which the information is recorded.

【0070】今回開示された実施の形態はすべての点で
例示であって制限的なものではないと考えられるべきで
ある。本発明の範囲は上記した説明ではなくて特許請求
の範囲によって示され、特許請求の範囲と均等の意味お
よび範囲内でのすべての変更が含まれることが意図され
る。
The embodiments disclosed this time are to be considered in all respects as illustrative and not restrictive. The scope of the present invention is defined by the terms of the claims, rather than the description above, and is intended to include any modifications within the scope and meaning equivalent to the terms of the claims.

【図面の簡単な説明】[Brief description of the drawings]

【図1】 本発明の実施の形態の1つにおける物体認識
装置の概略構成を示すブロック図である。
FIG. 1 is a block diagram illustrating a schematic configuration of an object recognition device according to an embodiment of the present invention.

【図2】 本実施の形態における物体認識装置の学習部
で行なわれる学習処理の流れを示すフローチャートであ
る。
FIG. 2 is a flowchart illustrating a flow of a learning process performed by a learning unit of the object recognition device according to the present embodiment.

【図3】 本実施の形態における物体認識装置の認識処
理部で行なわれる認識処理の流れを示すフローチャート
である。
FIG. 3 is a flowchart illustrating a flow of a recognition process performed by a recognition processing unit of the object recognition device according to the present embodiment.

【図4】 本実施の形態における物体認識装置の効果を
説明するための図である。
FIG. 4 is a diagram for describing an effect of the object recognition device according to the present embodiment.

【符号の説明】[Explanation of symbols]

100 物体認識装置、101 カメラ、102 画像
入力部、110 制御部、111 外部記憶装置、11
2 記録媒体、200 認識処理部、201色モデル生
成部、202 特徴モデル生成部、300 学習部、3
01 色モデル格納部、302 特徴モデル格納部、3
03 辞書ベクトル格納部、400認識処理部、401
色変換部、402 特徴ベクトル抽出部、403 照
合部。
Reference Signs List 100 object recognition device, 101 camera, 102 image input unit, 110 control unit, 111 external storage device, 11
2 recording medium, 200 recognition processing unit, 201 color model generation unit, 202 feature model generation unit, 300 learning unit, 3
01 color model storage, 302 feature model storage, 3
03 dictionary vector storage unit, 400 recognition processing unit, 401
Color conversion unit, 402 Feature vector extraction unit, 403 Collation unit.

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) H04N 1/46 H04N 1/46 Z Fターム(参考) 5B043 AA09 BA04 DA09 EA18 GA04 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CE17 DA12 DC19 DC25 DC34 5C079 HB01 LB02 MA11 NA27 NA29 5L096 AA02 AA06 BA20 CA02 DA02 FA15 FA32 FA34 FA38 FA46 GA38 GA40 JA11 JA22 KA15Continued on the front page (51) Int.Cl. 7 Identification symbol FI Theme coat II (Reference) H04N 1/46 H04N 1/46 Z F Term (Reference) 5B043 AA09 BA04 DA09 EA18 GA04 5B057 AA20 BA02 CA01 CA08 CA12 CA16 CE17 DA12 DC19 DC25 DC34 5C079 HB01 LB02 MA11 NA27 NA29 5L096 AA02 AA06 BA20 CA02 DA02 FA15 FA32 FA34 FA38 FA46 GA38 GA40 JA11 JA22 KA15

Claims (10)

【特許請求の範囲】[Claims] 【請求項1】 カラー画像を入力する入力手段と、 前記入力されたカラー画像に統計的手法を施して色モデ
ル空間を生成する色モデル空間生成手段と、 前記入力されたカラー画像を前記生成された色モデル空
間上のモデル画像に色変換する色変換手段と、 前記色変換手段で変換された複数のモデル画像に統計的
手法を施して特徴空間を生成する特徴空間生成手段とを
備えた、画像処理装置。
An input unit for inputting a color image; a color model space generating unit configured to generate a color model space by applying a statistical method to the input color image; Color conversion means for performing color conversion to a model image on a color model space, and a feature space generation means for generating a feature space by performing a statistical method on the plurality of model images converted by the color conversion means, Image processing device.
【請求項2】 前記色モデル空間生成手段は、入力され
たカラー画像に対して主成分分析を行なうことにより、
入力されたカラー画像の色空間より低次元の色空間を色
モデル空間として生成することを特徴とする、請求項1
に記載の画像処理装置。
2. The color model space generating means performs principal component analysis on an input color image,
2. The color model space according to claim 1, wherein a color space having a lower dimension than the color space of the input color image is generated.
An image processing apparatus according to claim 1.
【請求項3】 前記特徴空間生成手段は、色変換された
複数のモデル画像に対して主成分分析を行なうことによ
り特徴空間を生成することを特徴とする、請求項1に記
載の画像処理装置。
3. The image processing apparatus according to claim 1, wherein said feature space generation means generates a feature space by performing principal component analysis on a plurality of color-converted model images. .
【請求項4】 カラー画像を入力する入力手段と、 前記入力されたカラー画像を、カラー画像の色空間より
低次元の色空間である色モデル空間上のモデル画像に色
変換する色変換手段と、 前記色変換手段で色変換された複数のモデル画像に統計
的手法を施して特徴空間を生成する特徴空間生成手段と
を備えた、画像処理装置。
4. An input unit for inputting a color image, and a color conversion unit for converting the input color image into a model image on a color model space that is a lower-dimensional color space than the color space of the color image. An image processing apparatus comprising: a feature space generation unit configured to generate a feature space by applying a statistical method to a plurality of model images color-converted by the color conversion unit.
【請求項5】 前記色モデル空間は、複数のカラー画像
に対して主成分分析を行なうことにより生成されること
を特徴とする、請求項4に記載の画像処理装置。
5. The image processing apparatus according to claim 4, wherein the color model space is generated by performing principal component analysis on a plurality of color images.
【請求項6】 前記色変換手段により変換されたモデル
画像を前記生成された特徴空間に射影する射影手段と、 前記入力手段により入力された予め定められたカラー画
像について、前記色変換手段で色変換した後、前記射影
手段で前記特徴空間に射影して求まる辞書ベクトルを記
憶する記憶手段と、 前記入力手段により新たに入力されたカラー画像につい
て、前記色変換手段で色変換した後、前記射影手段で前
記特徴空間に射影して特徴ベクトルを求める特徴ベクト
ル算出手段と、 前記求められた特徴ベクトルと前記記憶された辞書ベク
トルとを比較する比較手段とをさらに備えた、請求項1
〜5のいずれかに記載の画像処理装置。
6. A projecting means for projecting the model image transformed by the color transforming means onto the generated feature space, and a color of the predetermined color image inputted by the inputting means is inputted by the color transforming means. After the conversion, a storage unit for storing a dictionary vector obtained by projecting the feature space by the projecting unit, and a color image newly input by the input unit is subjected to color conversion by the color conversion unit, and then the projection is performed. 2. A feature vector calculating means for projecting the feature vector to the feature space to obtain a feature vector, and a comparing means for comparing the obtained feature vector with the stored dictionary vector.
The image processing apparatus according to any one of claims 1 to 5,
【請求項7】 前記予め定められたカラー画像は、前記
特徴空間生成部で特徴空間を求めるために用いたカラー
画像であることを特徴とする、請求項6に記載の画像処
理装置。
7. The image processing apparatus according to claim 6, wherein the predetermined color image is a color image used for obtaining a feature space in the feature space generation unit.
【請求項8】 前記入力されたカラー画像から顔領域を
抽出するための抽出手段をさらに備えたことを特徴とす
る、請求項1〜7のいずれかに記載の画像処理装置。
8. The image processing apparatus according to claim 1, further comprising an extraction unit configured to extract a face region from the input color image.
【請求項9】 カラー画像を入力するステップと、 前記入力されたカラー画像に統計的手法を施して色モデ
ル空間を生成するステップと、 前記入力されたカラー画像を前記生成された色モデル空
間上のモデル画像に色変換するステップと、 前記変換された複数のモデル画像に統計的手法を施して
特徴空間を生成するステップとを含む、画像処理方法。
9. A step of inputting a color image, a step of performing a statistical method on the input color image to generate a color model space, and a step of converting the input color image into the generated color model space. An image processing method, comprising the steps of: performing a color conversion into a model image, and performing a statistical method on the converted plurality of model images to generate a feature space.
【請求項10】 カラー画像を入力するステップと、 前記入力されたカラー画像に統計的手法を施して色モデ
ル空間を生成するステップと、 前記入力されたカラー画像を前記生成された色モデル空
間上のモデル画像に色変換するステップと、 前記変換された複数のモデル画像に統計的手法を施して
特徴空間を生成するステップとをコンピュータに実行さ
せるための画像処理プログラムを記録したコンピュータ
読取可能な記録媒体。
10. A step of inputting a color image, a step of performing a statistical method on the input color image to generate a color model space, and a step of converting the input color image into the generated color model space. A computer-readable recording in which an image processing program for causing a computer to execute a step of performing color conversion into a model image and a step of performing a statistical method on the plurality of converted model images to generate a feature space is recorded. Medium.
JP2000156174A 2000-05-26 2000-05-26 Device and method for image processing and computer- readable with medium recording recorded with image processing program Withdrawn JP2001338290A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2000156174A JP2001338290A (en) 2000-05-26 2000-05-26 Device and method for image processing and computer- readable with medium recording recorded with image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2000156174A JP2001338290A (en) 2000-05-26 2000-05-26 Device and method for image processing and computer- readable with medium recording recorded with image processing program

Publications (1)

Publication Number Publication Date
JP2001338290A true JP2001338290A (en) 2001-12-07

Family

ID=18660999

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2000156174A Withdrawn JP2001338290A (en) 2000-05-26 2000-05-26 Device and method for image processing and computer- readable with medium recording recorded with image processing program

Country Status (1)

Country Link
JP (1) JP2001338290A (en)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007500910A (en) * 2003-05-21 2007-01-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for authenticating physical objects
JP2007156944A (en) * 2005-12-07 2007-06-21 Sony Corp Image processor, method, program, and recording medium
WO2010044250A1 (en) * 2008-10-15 2010-04-22 日本電気株式会社 Pattern check device and pattern check method
JP2012098191A (en) * 2010-11-03 2012-05-24 Waseda Univ Image identification device and program
CN104091333A (en) * 2014-07-01 2014-10-08 黄河科技学院 Multi-class unsupervised color texture image segmentation method based on credible regional integration
KR20200019297A (en) * 2018-08-09 2020-02-24 에스케이텔레콤 주식회사 Apparatus and method for generating recognition model of facial expression, and apparatus and method using the same

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007500910A (en) * 2003-05-21 2007-01-18 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Method and system for authenticating physical objects
JP2007156944A (en) * 2005-12-07 2007-06-21 Sony Corp Image processor, method, program, and recording medium
US7720261B2 (en) 2005-12-07 2010-05-18 Sony Corporation Image processing apparatus, image processing method, program, and recording medium
WO2010044250A1 (en) * 2008-10-15 2010-04-22 日本電気株式会社 Pattern check device and pattern check method
JPWO2010044250A1 (en) * 2008-10-15 2012-03-15 日本電気株式会社 Pattern matching device and pattern matching method
JP2012098191A (en) * 2010-11-03 2012-05-24 Waseda Univ Image identification device and program
CN104091333A (en) * 2014-07-01 2014-10-08 黄河科技学院 Multi-class unsupervised color texture image segmentation method based on credible regional integration
KR20200019297A (en) * 2018-08-09 2020-02-24 에스케이텔레콤 주식회사 Apparatus and method for generating recognition model of facial expression, and apparatus and method using the same
KR102229061B1 (en) * 2018-08-09 2021-03-17 에스케이텔레콤 주식회사 Apparatus and method for generating recognition model of facial expression, and apparatus and method using the same

Similar Documents

Publication Publication Date Title
JP5176572B2 (en) Image processing apparatus and method, and program
JP4483334B2 (en) Image processing device
US8942436B2 (en) Image processing device, imaging device, image processing method
US5844573A (en) Image compression by pointwise prototype correspondence using shape and texture information
Borkar et al. Real-time implementation of face recognition system
JP2004005622A (en) Face recognizing method using face descriptor based on face element and its device
KR101994390B1 (en) Apparatus and method for synthesizing facial expression using weighted interpolation map
JP5574033B2 (en) Image recognition system, recognition method thereof, and program
CN110659586B (en) Gait recognition method based on identity-preserving cyclic generation type confrontation network
AU2019101141A4 (en) Human face recognition based on Principal Component Analysis
Ouanan et al. Facial landmark localization: Past, present and future
JP2012221061A (en) Image recognition apparatus, image recognition method and program
CN110175578B (en) Deep forest-based micro expression identification method applied to criminal investigation
Matin et al. Recognition of an individual using the unique features of human face
JP2007115109A (en) Image processor and processing method, program and storage medium
JP2001338290A (en) Device and method for image processing and computer- readable with medium recording recorded with image processing program
JP3729581B2 (en) Pattern recognition / collation device
JPH1185988A (en) Face image recognition system
JP2012221053A (en) Image recognition apparatus, image recognition method and program
Kang et al. A comparison of face verification algorithms using appearance models.
Titijaroonroj et al. Regional covariance matrix-based two-dimensional pca for face recognition
JPH08329247A (en) Dynamic image recognition device
Quan et al. Improved 3-d facial representation through statistical shape model
Maken An elementary study on various techniques involved in face recognition systems: a review
Paul et al. Face detection using skin color recursive clustering and recognition using multilinear PCA

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20070807