JP4432262B2 - 画像処理装置、画像処理方法及び記録媒体 - Google Patents
画像処理装置、画像処理方法及び記録媒体 Download PDFInfo
- Publication number
- JP4432262B2 JP4432262B2 JP2000605968A JP2000605968A JP4432262B2 JP 4432262 B2 JP4432262 B2 JP 4432262B2 JP 2000605968 A JP2000605968 A JP 2000605968A JP 2000605968 A JP2000605968 A JP 2000605968A JP 4432262 B2 JP4432262 B2 JP 4432262B2
- Authority
- JP
- Japan
- Prior art keywords
- data
- group
- sample
- sample data
- representative
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Expired - Fee Related
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30196—Human being; Person
- G06T2207/30201—Face
Description
【発明の属する技術分野】
本発明は、画像処理装置、画像処理方法及び記録媒体に関する。
【0002】
【従来の技術】
被写体としての人物の顔の向きを検出する方法が、1991年電子情報通信学会春期全国大会論文P7−308にD−596「特定方向を向く人物像の実時間抽出」として提案されている。この方法においては、人の顔が白黒カメラで撮影され、その画像データが2値化され、目、鼻、及び口を含む1つの領域の中心と頭部の中心との距離から、顔が正面を向いている人物が検索される。また、電子情報通信学会論文誌D−II Vol.J72−D−IIMo.9 pp.1441−1447(1989年9月)に、「単眼視画像による顔の向き検出法の指示入力への応用」という方法も提案されている。この方法においては、顔が3個の特徴的な点で構成される三角形としてモデル化され、各3点間の距離が既知データとして与えられる。そして、これら3点間の投影から、3点の3次元位置が求められ、三角形の重心位置と法線方向とが3次元空間中での顔の向きとして検出される。
【0003】
さらに、特開平7−23934号公報には、左頭髪領域の幅Lと顔領域の幅Wの比L/W、並びに、左頭髪領域の幅Lと右頭髪領域の幅Rの比L/Rに基づいて、顔の向きを求めることが提案されている。
【0004】
しかしながら、顔の特徴点を両目、鼻などとした場合、顔の可動範囲が大きいと、ある角度を境に、それ以上顔が回転されると、両目の検出が不可能になり、結果的に、顔の特徴点を計測することができなくなるという問題点があった。
【0005】
また、頭から両目の位置や口の位置を自動的に、しかもロバストに検出することは困難である。さらに、後者の方法においては、顔の特徴点の3点の距離を既知とする限定条件が付加されているため、処理を自動化することが困難である課題があった。
【0006】
また、特開平7−23934号公報に記載された方法では、赤外線カメラを用いて画像を取得しているので、通常のカメラで撮像した画像から顔の向きを判定することができないばかりでなく、コスト高となるという問題点があった。
【0007】
【発明が解決しようとする課題】
ところで、一般的に、センサは、ほとんど類似度判定を行う装置であると行っても過言ではない。例えば、温度計などであれば、センサ出力と予め測定した基準の温度と比較して、最も近い温度を出力するものであるし、速度計や角度測定なども同様である。これは点情報からセンサ結果を出力するものであるが、過去・未来の情報も用いる非点情報でも同様なことが言える。この代表的なものとしては、画像センサがある。入力画像をセンシングし、映し出されたものが何であるかを判定するセンサの場合、予め作成した画像テンプレートと入力画像を比較し、最も類似した画像を答えとするものが多い。このような手法では、従来、入力データと比較するテンプレートとして固定テンプレートを用いていたので、どのテンプレートを用いると最適に判定ができるかを判定することが困難であった。また、テンプレートの数自体もいくつにするのが最適であるかなどを判定するのも困難であった。
【0008】
そこで、本発明の目的は、最適なテンプレートを生成できるようにすることにある。
【0009】
また、予め決められた固定処理に対して何らかの入力が入ってきたときに分類されたグループに出力するグループ分けの処理を行うのでは、固定処理と比較した場合、はじめから最適な分類方法を確立するのは困難であり、また、予め想定した母集団から実行時に母集団がずれた場合、処理が固定処理であると対応することができない。
【0010】
そこで、本発明の目的は、母集団の変換に柔軟に対応することができ、また、自動的に最適な分類方法を得ることができるようにすることにある。
【0011】
また、現出社会は、線形なものより非線形のものの方が多いが、従来のクラス分類適応処理では、予測式に主に線形予測式を用いていたので、同一クラス内が線形であれば問題ないが、非線形なものが含まれていると、その学習に最小自乗近似を用いる場合、非線形要素の影響でオーバーフィッティングなどが生じることがあり、予測式の次数を高くしたにも拘わらず性能がかえって低下するといった問題があった。また、近似式を用いる生じる誤差が、時として性能に影響するほど大きくなってしまうことがあった。
【0012】
そこで、本発明の目的は、非線形要素の影響を低減することにある。
【0013】
【課題を解決するための手段】
本発明は、このような状況に鑑みてなされたものであり、ビデオカメラの画像から、顔の向きなど、物体の姿勢を広範囲に、かつ正確に推定できるようにするものである。
【0014】
すなわち、本発明は、画像処理装置であって、それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類する初期分類手段と、上記初期分類手段により初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出するグループ特徴データ検出手段と、すべてのサンプルデータに対して、上記グループ特徴データ検出手段により検出された各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出する距離検出手段と、上記距離検出手段によって検出された距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類する再分類手段と、上記再分類手段による再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出する収束検出手段と、上記収束検出手段が収束したと検出するまで、上記グループ特徴データ検出手段と、上記再分類手段と、上記収束検出手段による処理を繰り返させ、上記収束検出手段が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定する決定手段とを備え、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成装置と、入力サンプルデータと、上記代表サンプル生成装置により複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出する距離検出手段と、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類する分類手段と、クラス毎に予め設定された係数データセットを記憶する記憶手段と、上記分類手段で分類されたクラスに基づいて、上記記憶手段から読み出した係数データセットに基づいて予測式を生成する予測式生成手段と、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、 上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成する特徴データ生成手段とを備えるサンプル特徴データ生成装置とからなることを特徴とする。
【0015】
また、本発明は、画像処理方法であって、それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類し、初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出し、すべてのサンプルデータに対して、検出された上記各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出し、検出された上記距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類し、上記再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出し、収束したと検出するまで、上記グループ特徴データの検出処理、上記サンプルデータの再分類処理と、上記サンプルデータ数の収束検出処理を繰り返し、上記サンプルデータ数が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定することにより、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成ステップと、入力サンプルデータと、上記代表サンプル生成ステップにより複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出し、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類し、クラス毎に予め設定された係数データセットを記憶する記憶手段から、上記分類されたクラスに基づいて、読み出した係数データセットに基づいて予測式を生成し、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、 上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成するサンプル特徴データ生成ステップとを有することを特徴とする。
【0016】
さらに、本発明は、画像処理装置に備えられたコンピュータにより読み取り実行可能に画像処理プログラムが記録された記録媒体であって、それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類する初期分類手段と、上記初期分類手段により初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出するグループ特徴データ検出手段と、すべてのサンプルデータに対して、上記グループ特徴データ検出手段により検出された各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出する距離検出手段と、上記距離検出手段によって検出された距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類する再分類手段と、上記再分類手段による再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出する収束検出手段と、上記収束検出手段が収束したと検出するまで、上記グループ特徴データ検出手段と、上記再分類手段と、上記収束検出手段による処理を繰り返させ、上記収束検出手段が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定する決定手段とを備え、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成装置と、
入力サンプルデータと、上記代表サンプル生成装置により複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出する距離検出手段と、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類する分類手段と、クラス毎に予め設定された係数データセットを記憶する記憶手段と、上記分類手段で分類されたクラスに基づいて、上記記憶手段から読み出した係数データセットに基づいて予測式を生成する予測式生成手段と、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、 上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成する特徴データ生成手段とを備えるサンプル特徴データ生成装置として上記コンピュータを機能させる画像処理プログラムが記録されていることを特徴とする。
【0017】
【発明の実施の形態】
発明を実施するための最良の形態 以下、本発明を実施するための最良の形態について図面を参照しながら詳細に説明する。
【0018】
本発明は、例えば図1に示すような構成のコンテンツ選択システムに適用される。
【0019】
図1は、本発明を適用した画像処理装置の構成例を表している。画像入力装置1は、例えば、ビデオカメラなどにより構成され、被写体を撮像する。A/D変換器2は、画像入力装置1より出力された画像データをA/D変換し、例えば、パーソナルコンピュータなどにより構成される演算装置3に供給する。記憶装置4は、例えば、ハードディスクなどにより構成され、演算装置3において処理する画像データとテンプレートとしての画像データを記憶する。
【0020】
演算装置3は、図2に示すような機能ブロックを有している。顔領域判定器11は、画像入力装置1より入力された画像データの中から、テンプレートと比較する範囲としての顔領域がどこにあるのかを判定する。相関演算器12は、顔領域判定器11により判定された顔領域と、記憶装置4に予め記憶されているテンプレートとの相関を演算する。クラス分類器13は、相関演算器12により演算された相関に基づいてクラス分類処理を行い、角度推定器14は、クラス分類器13により分類されたクラスに対応して、画像入力装置1より入力された被写体の顔の向きの角度を推定する演算を行う。
【0021】
次に、図3のフローチャートを参照して、上記した画像処理装置の動作について説明する。最初に、ステップS1において、画像データと姿勢データがリンクしたデータベースを作成する処理を実行する。すなわち、ステップS1では、画像入力装置1により、所定の方向を向いている被写体としての人の顔を撮像する。画像入力装置1により得られた画像データは、A/D変換器2によりA/D変換され、演算装置3に入力される。演算装置3は、入力された画像データから、ユーザが手動により指定する枠の範囲、ここでは、例えば、両目と鼻を含む矩形の範囲を抽出し、記憶装置4に供給し、記憶させる。このとき、演算装置3は、その時の顔の向いている角度を姿勢データとして、その画像データにリンクして記憶させる。一人の顔に対して、同様の処理が、顔の向いている方向を異ならせた状態で、複数回行われる。そして、複数の人の顔について、上記処理を行い、それぞれ画像データと姿勢データをリンクして記憶装置4に記憶させる。これにより、記憶装置4には、例えば、図4に示すような、所定の枚数のテンプレートからなる画像データが登録される。簡単のため、図4には、16枚のテンプレートのみが示されているが、例えば、130枚のテンプレートを登録される。
【0022】
次に、ステップS2において、ステップS1で作成された130枚のテンプレートから、3つの代表顔の画像を作成する処理が実行される。この処理の詳細は、図5に示されている。
【0023】
ステップS11において、ユーザは、ステップS1で作成された130枚のテンプレートの両目と鼻の位置を指定する。ステップS12において、演算装置3は、ステップS11で指定された両目と鼻の3点で指定された領域の重心が画像の中心になるように、一定の大きさの画像を各テンプレートから切り出す。ステップS13において、ユーザは、手動操作で、ステップS12で各テンプレートから切り出した各画像を、その顔の向きに応じて3つの顔クラスに分類する。例えば、正面を見ている画像を第1の顔クラス、顔の右側の画像は第2の顔クラス、顔の左側の画像は第3の顔クラスのように分類が行われる。
【0024】
次に、ステップS14において、演算装置3は、3つの顔クラスのそれぞれの顔クラス内における画像の平均を演算することで、代表顔の画像を作成する。図4に示すように、顔の向きにより有効領域が異なるので、各顔クラスに分類されたテンプレートの形状は、必ずしもすべて同一のものとはならない。従って、画像の平均化処理は、異なる形状のテンプレートのもとで、目の位置を合わせて実行される。
【0025】
この際、例えば、図6A,図6B及び図6Cに示すように、有効領域の形状が異なるテンプレートがあった場合、例えば、図7に示すように、最も小さい領域Aの範囲で平均化を行い、最も小さい領域Aの画像データDA、領域Bの画像データ範囲DB及び領域Cの画像データDCから RAVG=(DA+DB+DC)/3なる平均値RAVGを演算して代表顔の代表顔の画像データとする。
【0026】
あるいは、図8に示すように、最も小さい領域Aの範囲内においては、3枚のテンプレート(領域A,B,C)間で RAVG1=(DA+DB+DC)/3にて示される平均値RAVG1を演算して代表顔の画像データとし、また、領域Aの外側で領域Bの範囲内においては、2枚のテンプレート(領域Bと領域C)間で RAVG2=(DB+DC)/2にて示される平均値RAVG2を演算して代表顔の画像データとし、さらに、領域Bの外側で領域Cの範囲内においては、画像データDCを代表顔の画像データとする。この場合には、平均化を行う領域の数が、領域によって変化することになる。
【0027】
また、例えば各領域A,B,Cの平均をとる場合には、領域Aの外側の画素及び領域Bの外側の画素を0として計算するのではなく、予め設定されている値Kが存在するものとして、図9に示すように、領域Aの外側で領域Bの範囲内においては、 RAVG2=(K+DB+DC)/3にて示される平均値RAVG2を演算して代表顔の画像データとし、さらに、領域Bの外側で領域Cの範囲内においては、 RAVG3=(2K+DC)/3にて示される平均値RAVG3を演算して代表顔の画像データとすることもできる。
【0028】
さらに、例えば各領域A,B,Cの平均をとる場合に、顔クラス数nを母数とて、RAVG4=(K+DB+DC)/nにて示される平均値RAVG4を演算して代表顔の画像データとするようにしてもよい。
【0029】
次に、ステップS15に進み、130枚の全てのテンプレートについての処理が終了したか否かを判定し、まだ終了していない場合には、ステップS16に進み、全ての代表顔の画像に対する相関値Cの演算が終了したか否かを判定する。1つのテンプレートについて、3つの代表顔の画像との相関値Cの演算がまだ終了していない場合には、ステップS17に進み、演算装置3は、3つの代表顔の画像のうち、まだ相関値Cを演算していない代表顔の画像との間の相関値Cを演算し、その演算された相関値Cを記憶する。その後、ステップS16に戻り、ステップS17の処理が、ステップS16において、1つのテンプレートと3つの代表顔の画像との相関値Cが求められたと判定されるまで、繰り返し実行される。
【0030】
相関値Cは、例えば次式(1)に従って演算される。なお、式(1)において、Rは代表顔の画像データを表し、RAVGは、その平均値を表す。また、Tはテンプレートの画像データを表し、TAVGは、その平均値を表す。
【0031】
【数1】
【0032】
1つのテンプレートと3つの代表顔の画像との間の相関値Cの演算が完了すると、ステップS18に進み、演算装置3は、3つの代表顔の画像との相関値Cのうち、最も相関の高い代表顔の画像に属する顔クラスに、そのテンプレートをクラス分けする。
【0033】
その後、ステップS15に戻り、130枚の全てのテンプレートについて、同様の処理を行ったか否かが判定される。130枚のテンプレートについて同様の処理が完了したとき、ステップS19に進み、演算装置3は、130枚のテンプレートのうち、属する顔クラスが、過去の顔クラスと変化したテンプレートの数が、予め設定されている閾値以下となったか否かを判定する。このステップS19における判定結果が「NO」であった場合には、ステップS14に戻り、各顔クラス毎にそのクラスに属するテンプレートの画像の画素毎の平均値が演算され、代表顔の画像が作成(更新)される。そして、新たに作成された3つの代表顔の画像に対して、ステップS15乃至ステップS18の処理が実行され、130枚のテンプレートと新たな3枚の代表顔の画像との相関値が演算される。各テンプレートは、3枚の代表顔の画像のうち、より近い相関値を有する代表顔の画像の顔クラスに属するように顔クラスが変更される。
【0034】
その後、再び、ステップS19に進み、属する顔クラスが変更されたテンプレートの数が、予め設定されている所定の閾値以下になったか否かが判定される。属する顔クラスが変更されたテンプレートの数が、閾値以下になっていなければ、再び、ステップS14に戻り、それ以降の処理が繰り返し実行される。ステップS19において、顔クラスが変更されたテンプレートの数が、閾値以下になったと判定されたとき、処理は終了される。なお、このステップS19では、顔クラスが変更されたテンプレートの数の変化率や再分類処理の回数を閾値として、収束判定を行うようにしてもよい。
【0035】
以上のようにして、例えば、図10に示すような、3つの顔クラスの平均顔が、それぞれの顔クラスの代表顔の画像として登録される。
【0036】
図11は、3つの顔クラスの代表顔の画像と、その顔クラスに属するテンプレートとの関係を概念的に表している。同図に示すように、クラス1の代表顔1は、テンプレート1−1乃至テンプレート1−pの平均的な顔とされ、代表顔2は、クラス2に属するテンプレート2−1乃至テンプレート2−qの平均的な顔とされ、クラス3の代表顔3は、テンプレート3−1乃至テンプレート3−rの平均的な顔とされる。p+q+rの値は、この例の場合、130となる。
【0037】
ここでは、各顔クラス毎にその顔クラスに属するテンプレートの画像の画素毎の平均値を演算することにより、各顔クラスの代表顔の画像を作成したが、上記平均値以外に、全体の中央の値を持つ画素値、最大値と最小値との中間値、又は中間の値を持つ画素値などを用いて各顔クラスの代表顔の画像を作成することもできる。
【0038】
ここで、上述のステップS1で作成された130枚のテンプレートから、3つの代表顔の画像を作成する処理において、上記130枚のテンプレートにそれぞれ顔の向いている角度の情報が予め付与されている場合には、図12に示すように、上述のステップS11〜S13の処理に代えて、ステップS10において、上記角度の情報に基づいて、各テンプレートの画像を上記第1〜第3の顔クラスに初期分類する処理を行うようにすることができる。すなわち、図13に示すように、各テンプレートの画像を角度の情報X0〜Xnに基づいて代表顔Nの顔クラスに分類する。
【0039】
以上のようにして、データベース中のテンプレートの数(この例の場合、130枚)より少ない数(この例の場合、3枚)の代表顔の画像が作成された後に、実際に入力された画像に対する顔の向きの検出処理が実行される。このとき、図3のステップS3において、被写体の顔が、画像入力装置1により撮像さる。演算装置3は、撮像した画像に対して、ステップS4において、顔の位置判定処理を実行し、ステップS5において、顔の角度判定処理を実行する。ステップS4の顔の位置判定処理の詳細は、図14のフローチャートに示されている。
【0040】
最初に、ステップS31において、演算装置3の顔領域判定器11は、この例の場合、3枚の代表顔の画像全てに対する処理が終了したか否かを判定する。処理が終了していない場合にはステップS32に進み、次に処理すべき代表顔の画像をセットする。そして、ステップS33において、顔領域判定器11は、ステップS32でセットされた代表顔の画像の全領域のサーチが終了したか否かを判定する。このサーチ処理が終了していない場合にはステップS34に進み、顔領域判定器11は、入力された画像のフレーム内の注目画素を基準にしたテンプレートと同じ大きさの領域の画像と、対象とされている代表顔の画像との相関値を演算する。
【0041】
例えば、図15Aに示すように、図10に示す3枚の代表顔の画像のうち、中央の画像が処理対象の代表顔として選択されているとすると、図15Bに示すように、この代表顔に対応する大きさの領域が入力画像のフレームの左上の領域から順次抽出され、その領域の画像と代表顔の画像との相関が演算される。
【0042】
次に、ステップS35に進み、ステップS34で演算により求められた相関値は、その時点で保持している相関値の最大値MAXより大きいか否かが判定される。このステップS35における判定結果が「YES」の場合にはステップS36に進み、ステップS34で演算により求められた相関値が、その時点における最大値MAXとして保存される。
【0043】
その後、ステップS33に戻り、サーチが全領域に渡って行われたか否かが判定される。全領域に渡ってサーチが行われていない場合にはステップS34に進み、顔領域判定器11は、代表顔に対応する領域の位置を前回より入力画像のフレーム内において1画素ずつ順次させる。そして、新たな位置の領域の画像と代表顔の画像との相関値が再び演算される。ステップS35ではステップS34で求められた相関値がステップS36で過去に保存されている最大値MAXより大きいか否かが判定され、大きい場合には、ステップS36において最大値MAXが、上記ステップS34で求められた相関値で更新される。また、ステップS35において、最大値MAXがステップS34で求められた相関値より小さいと判定された場合には、ステップS36の処理はスキップされる。
【0044】
以上の処理が、代表顔と比較される入力画像のフレーム内の領域を左上から右下方向に順次移動させることで(サーチさせることで)、繰り返し実行される。この処理は、ステップS33において、入力画像のフレームの全領域に渡ってサーチが行われたと判定されるまで、繰り返し実行される。
【0045】
ステップS33において入力画像のフレームの全領域に渡ってサーチが終了したと判定された場合にはステップS37に進み、相関演算器12は、入力画像のフレーム内の最大相関値が得られた位置と、その最大相関値すなわちステップS36の処理により得られた最大値MAXを保存する。
【0046】
図16は、最大相関値が得られた位置の例を表している。すなわち、図16において、四角形の枠が、代表顔に対応する領域の範囲を表しており、その左上の角の位置が、その代表顔の位置とされる。図16は、サーチの結果得られた相関値の値を濃度で表しており、高い相関値ほど白く表され、低い相関値ほど黒く表されている。図16の例では、表示されている枠の左上の近傍が白く表示され、その他の領域は黒く表示されている。従って、図16の例では、画面の左上に示されている代表顔に最も相関の高い画像が得られた位置は、枠で示された位置であるということになる。なお、図17は、相関値の高い部分を拡大して、相関値を3次元表示して模式的に示したものである。
【0047】
次に、ステップS31に戻り、3枚の代表顔の画像全てについての処理が終了したか否かが判定される。この例では、1枚の代表顔の画像についての処理を終了しただけなので、次に、例えば、図10に示されている3枚の代表顔の画像のうち、右側の画像が処理対象の代表顔として選択され、ステップS33以降の処理が実行される。
【0048】
その結果、上述した場合と同様にして、図15Bに示した入力画像と、図10の右側に示した代表顔の画像との間の最大相関値と、その最大相関値が得られた位置が求められ、その値が、ステップS37で保存される。
【0049】
その後、ステップS31に戻り、図10の左側に示す代表顔の画像が、対象代表顔として選択され、その画像と、図15Bに示す入力画像との最大相関値が得られる位置と、その値が検索され、ステップS37で保存される。
【0050】
以上のようにして、3枚の代表顔の画像についての処理が終了した場合、ステップS31において、YESの判定が行われ、ステップS38に進み、相関演算器12は、3枚の代表顔の画像のうち、入力画像との相関値が最も大きかった画像の位置を、その入力画像の顔の位置として記憶する。
【0051】
この例の場合、図15Bに示すように、入力画像が、正面を向いている顔の画像であるので、図10に示す3つの代表顔の画像のうち、中央に示す画像との相関が最大となる。そこで、図15Bにおいて、白い枠で示す位置が、この入力画像の最大相関位置として記憶される。
【0052】
以上のようにして、入力画像の顔の位置(3枚の代表顔の画像と比較する範囲の位置)が特定されたとき、図3のステップS5の顔の角度判定処理が実行される。この顔の角度判定処理の詳細は、図18のフローチャートに示されている。
【0053】
最初にステップS51において、相関演算器12は、全ての代表顔の画像との相関値の演算処理が終了したか否かを判定する。すなわち、3枚の代表顔の画像と、入力画像の図15Bにおいて枠で示す領域の画像との相関値を求める処理が終了しているか否かが判定される。
【0054】
処理が終了していない場合にはステップS52に進み、次に処理すべき代表顔の画像をセットする。そして、ステップS53では、相関演算器12は、図15Bにおいて、枠で示されている領域の画像と、ステップS53でセットされた代表顔の画像、例えば、図10の中央に示す代表顔の画像との相関を演算する処理が実行される。そして、演算された相関値が、ステップS54において記憶される。なお、この相関値は、実際には、図14のステップS37で、その代表顔の画像について保存された値と等しいので、この代表顔の画像におけるステップS53とステップS54の処理は、省略することも可能である。
【0055】
次に、ステップS51に戻り、例えば、図10の右側に示す代表顔の画像と、図15Bの枠で示す領域との相関値を求める演算が、ステップS53において行われる。そして、ステップS54において、演算された相関値が記憶される。なお、この代表顔の画像と、図15Bに示す入力画像との相関値の演算も、図14のステップS33乃至ステップS36の処理で既に実行されているのであるが、ステップS37において保存される値は、必ずしも図15Bに枠で示す領域(図10の中央に示す代表顔の画像との間で最も高い相関が得られる領域)との比較結果であるとは限らないので、この代表顔の画像の場合は、実際に、相関値の演算が行われ、新たに記憶される。
【0056】
同様にして、図10の左側に示す代表顔の画像についても、ステップS53とステップS54の処理が実行され、図15Bに枠で示す領域との間の相関値が演算され、記憶される。
【0057】
以上のようにして、入力画像の所定の領域と3つの代表顔の画像との間の相関値が求められたとき、ステップS51から、ステップS55に進み、クラス分類器13は、代表顔の画像との相関値に基づいて、クラス分類処理を実行する。
【0058】
クラス分類器13は、相関値に基づいてクラスを決定すると、そのクラスを角度推定器14に出力する。ここで、クラスは、例えば相関値C1,C2,C3が与えられたとき、一義的に決定されるものである。すなわち、このクラスとは、入力データを性質の類似するクラスに分類し、対応するクラス毎に、予め学習により求めたデータ処理を適用する手法におけるクラスである。
【0059】
角度推定器14は、ステップS56で、次式に従って、入力画像の角度θを演算する。
【0060】
θ=w1C1+w2C2+w3C3 (2)
上記式(2)において、C1乃至C3は、ステップS54で記憶された3つの代表顔の画像に対する入力画像との相関値を表し、w1乃至w3は、係数である。そして、角度推定器14は、この係数w1乃至w3を相関値に基づいて決定されたクラス毎に記憶している。すなわち、角度推定器14は、ステップS56において、クラス分類器13より入力されたクラスに対応する係数セットを読み出し、その係数セットにクラス分類器13を介して相関演算器12より入力された相関値C1乃至C3を乗算して、式(2)に従って、入力画像の角度θを演算する。
【0061】
図19は、相関値と被写体の向いている角度との関係を表している。同図において、縦軸は、相関値を表し、横軸は、被写体が実際に向いている角度を表している。また、同図において、左向き、正面、又は右向きと表現されているのは、それぞれ、図10に示す、左側、中央、又は右側に示す代表顔の画像を用いて入力画像との相関値を求めた場合を表している。同図から明らかなように、正面を向いている代表顔の画像を用いて、被写体の入力画像との相関値を求めると、被写体が正面を向いている場合に、最も高い相関値が得られ、被写体が、右又は左を向くほど、相関値が低くなることがわかる。
【0062】
また、左向きの代表顔の画像を用いた場合、被写体が正面よりも左側を向いているとき、向いている角度にほぼ比例する相関値が得られることがわかる。また、同様に、右向きの代表顔の画像を用いた場合には、被写体が右側を向いているとき、ほぼ、その向いている角度に比例した相関値が得られることがわかる。
【0063】
従って、例えば、図20に示すように、入力画像が、被写体の右側の顔が撮像されている画像である場合には、図10に示す3つの代表顔の画像のうち右側に示す代表顔の画像を用いたとき、最大の相関値が得られる。同様に、図21に示すように、入力画像が、被写体の左側の画像が撮像されている画像である場合には、図10に示す3つの代表顔画像のうち、左側に示す左側の画像との相関が最も高くなる。
【0064】
なお、クラス毎の係数セットの学習は、例えば、ベクトル量子化などで用いられているk−means法などのアルゴリズムを用いて、多くの入力画像から、比較的少ない数のクラスの画像を生成し、正しい結果が得られる係数セットを学習するようにすることができる。なお、k−means法は、LBGアルゴリズムとも称され、その詳細は、例えば、オーム社(商号)の「画像情報圧縮」の第127頁乃至第130頁に開示されている。
【0065】
図22は、以上の本発明の原理を模式的に表している。同図に示すように、この発明においては、多くのテンプレートの中から、比較的少ない数の(この例の場合、5個の)代表顔の画像が作成される。そして、入力画像と、代表顔の画像との相関値Cに対して、クラス分類適応処理により、入力画像の向きが算出される。
【0066】
ここで、クラス分類処理は、例えば図23のフローチャートに示す手順に従って、代表顔の画像と入力画像との相関値評価を行うことによって実行される。
【0067】
すなわち、図23のフローチャートに示すクラス分類処理では、まず、ステップS71において、入力画像について、すべての代表顔の画像との相関値評価を行ったか否かを判定し、評価していない代表顔の画像がある場合にステップS72に進み、代表顔の画像と入力画像との相関演算を行い、相関値Cを保存し、ステップS73で次の代表顔の画像を指定して、ステップS71に戻って、ステップS71からステップS73の処理を繰り返すことにより、すべての代表顔の画像との相関値C1,C2,C2の評価を行ったら、ステップS74に進んで、相関値評価の結果に基づいて最も相関の高い代表顔の画像のクラスに分類する。
【0068】
また、角度θのわかっている入力画像と代表顔の画像との相関値の組(ベクトル)がたくさんある場合は、例えば図24のフローチャートに示す手順に従ってクラス分類処理を実行するようにしてもよい。
【0069】
すなわち、図24のフローチャートに示すクラス分類処理では、まず、ステップS81において、テンプレート毎に各代表顔の画像に対する相関値c1,c2,c2をベクトル表現し、ステップS82において、ユーザがクラスを代表する相関ベクトルの初期値を設定し、代表ベクトル(C1,C2,C3)とする。
【0070】
ステップS83では全てのテンプレートについて処理を行ったか否かを判定し、処理すべきテンプレートがある場合にステップS84に進む。
【0071】
ステップS84では全ての代表ベクトルに対する処理を行ったか否かを判定し、処理すべき代表ベクトルがある場合にステップS85に進んで相関ベクトルと代表ベクトルの内積演算のような距離評価を行う。そして、ステップS84に戻って、ステップS84とステップ5を繰り返すことにより、全ての相関ベクトルに対して代表ベクトルとの距離評価を行ったらステップS86に進む。
【0072】
ステップS86では、ベクトル間の距離が最も短い(相関が高く類似している)代表ベクトルの属するクラスに分類する。そして、ステップS83に戻って、ステップS83からステップS86の処理を繰り返し行うことにより、全ての相関ベクトルにおいてクラス分類を行ったら、ステップS87に進む。
【0073】
ステップS87では、同一クラス内で平均値演算を行い新たに代表ベクトル(C1’,C2’,C3’)を求める。
【0074】
そして、次のステップS88では、新たに求めた代表ベクトル(C1’,C27,C3’)と元の代表ベクトル(C1,C2,C3)で内積演算に代表される距離評価を行い、代表ベクトルに変化がある場合には、ステップS83に戻って、新たに求めた代表ベクトル(C1’,C2’,C3’)を用いて、ステップS83からステップS88の処理を繰り返し行い、代表ベクトルの変化がある値以下になったらステップS89に進み、この代表ベクトルを答えとして決定し、処理を終了する。
【0075】
さらに、クラス毎の係数セットの学習処理は、例えば図25のフローチャートに示す手順に従って、すべての学習データのクラス分類を行い、同一クラスのデータに対して最小自乗法により係数セットを学習することにより実行される。
【0076】
すなわち、クラス毎の係数セットの学習処理では、まず、ステップS91において、すべてのクラスについて学習処理を行ったか否かを判定し、処理すべきクラスがある場合にステップS92に進み、処理するクラス内のすべてのデータを処理したか否かを判定し、処理すべきデータがある場合にステップS93に進む。
【0077】
ステップS93では教師データ(角度θ)を読み込んで正規化方程式に入れ、次のステップS94で相関値C1,C2,C2を読み込み正規化方程式に入れて、ステップS92に戻って、ステップS92からステップS94の処理を繰り返すことにより、処理するクラス内のすべてのデータについて正規化方程式を生成したら、ステップS95に進む。
【0078】
ステップS95では、最小自乗法により正規化方程式を解いて、そのクラスの係数セットw1,w2,w3を決定する。
【0079】
そして、ステップS96で次のクラスを指定して、ステップS91に戻って、ステップS91からステップS96の処理を繰り返すことにより、すべてのクラスについて係数セットw1,w2,w3を決定したら、学習処理を終了する。
【0080】
なお、以上の説明においては、被写体を人の顔としたが、人以外の被写体の向きを検出する場合にも、本発明は、適用することが可能である。また、画像間の距離は、相関以外の方法で計測するようにしてもよい。
【0081】
また、上述の如き処理を行う演算装置3には、例えば図26に示すように、バス311に接続されたCPU(Central Processing Unit)312、メモリ313、入力インターフェース314、ユーザインターフェース315や出力インターフェース316などにより構成される一般的なコンピュータシステム310が使用され、上記演算装置3の機能を実現するためのコンピュータ制御可能なプログラムすなわち図3のフローチャートに従って画像処理を行うための画像処理プログラムが記録された記録媒体として、ユーザに提供される。上記画像処理プログラムには、図5や図12のフローチャートに従って代表顔作成処理を行うための代表顔作成プログラム、図14のフローチャートに従って顔の位置判定処理を行うための顔の位置判定プログラムや図18のフローチャートに従って顔の角度判定処理を行うための顔の角度判定プログラム等が含まれている。さらに、上記画像処理プログラムには、図23や図24のフローチャートに従ってクラス分類処理を行うためのクラス分類処理プログラム、図25のフローチャートに従って係数セットの学習処理を行うための学習処理プログラム等も含まれている。また、上記記録媒体には、磁気ディスク、CD−ROMなどの情報記録媒体の他、インターネット、デジタル衛星などのネットワークによる伝送媒体も含まれる。
【0082】
【発明の効果】
以上の如く、本発明によれば、複数のテンプレートから作成された、より少ない数の代表顔の画像と、入力された画像データとの距離に基づいて、入力された画像データのグループを決定し、そのグループに基づいて、入力された画像の角度を演算するようにしたので、簡単かつ迅速に、被写体の角度を求めることが可能となる。
【0083】
すなわち、本発明では、それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類し、初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出し、すべてのサンプルデータに対して、検出された上記各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出し、検出された上記距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類し、上記再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出し、収束したと検出するまで、上記グループ特徴データの検出処理、上記サンプルデータの再分類処理と、上記サンプルデータ数の収束検出処理を繰り返し、上記サンプルデータ数が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定することにより、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成するので、上記代表サンプル例えば代表顔の画像を時々刻々と変化させることが可能であり、時間がたつにつれて自動的に最適な代表顔の画像を作成することができ、また、予め固定の代表顔の画像を求める場合にも自動的に最適な代表顔の画像をもとめることができる。また、入力サンプルデータと、上記複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出し、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類し、クラス毎に予め設定された係数データセットを記憶する記憶手段から、上記分類されたクラスに基づいて、読み出した係数データセットに基づいて予測式を生成し、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、 上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成するので、線形な予測値をそのまま用いるのではなく、それはパラメータとして用い、その値と実際にセンシングした値との間の対応付けを行うことにより、例えば同一クラスの中に非線形要素が紛れ込んでいたとしても、線形・非線形変換テーブルなど用いて線形にパラメータに変換することができれば、あとは線形予測式で学習することが可能となり、非線形要素の影響を低減することができる。
【0084】
さらに、本発明によれば、線形な予測値をそのまま用いるのではなく、それはパラメータとして用い、その値と実際にセンシングした値との間の対応付けを行うことにより、例えば同一クラスの中に非線形要素が紛れ込んでいたとしても、線形・非線形変換テーブルなど用いて非線形要素の影響を吸収することができる。
【図面の簡単な説明】
【図1】 図1は、本発明を適用した画像処理装置の構成例を示すブロック図である。
【図2】 図2は、上記画像処理装置における演算装置の機能構成を示すブロック図である。
【図3】 図3は、上記画像処理装置の動作を示すフローチャートである。
【図4】 図4は、データベースの例を示す図である。
【図5】 図5は、上記画像処理装置において3つの代表顔の画像を作成する処理を示すフローチャートである。
【図6】 図6A,図6B及び図6Cは、有効領域の形状が異なるテンプレートの例を模式的に示す図である。
【図7】 図7は、テンプレートの平均化処理を説明する図である。
【図8】 図8は、テンプレートの平均化処理を説明する図である。
【図9】 図9は、テンプレートの平均化処理を説明する図である。
【図10】 図10は、3つの代表顔の画像を説明する図である。
【図11】 図11は、代表顔の画像とそれに属するテンプレートとの関係を示す図である。
【図12】 図12は、上記代表顔の画像を作成する処理の他の例を示すフローチャートである。
【図13】 図13は、初期分類処理における代表顔の画像とそれに属するテンプレートとの関係を示す図である。
【図14】 図14は、上記画像処理装置における顔の位置判定処理を示すフローチャートである。
【図15】 図15A及び図15Bは、入力画像と最大の相関が得られる代表顔の画像を説明する図である。
【図16】 図16は、サーチ後の相関値を説明する図である。
【図17】 図17は、相関値の高い部分を拡大して、相関値を3次元表示して模式的に示した図である。
【図18】 図18は、上記画像処理装置における顔の角度判定処理を示すフローチャートである。
【図19】 図19は、被写体の角度と相関値の関係を示す図である。
【図20】 図20は、入力画像と最大の相関が得られる代表顔の画像とを説明する図である。
【図21】 図21は、入力画像と最大の相関が得られる代表顔の画像とを説明する図である。
【図22】 図22は、入力画像と顔クラスの関係を説明する図である。
【図23】 図23は、クラス分類のためのクラス決定処理を示すフローチャートである。
【図24】 図24は、クラス分類のためのクラス決定処理の他の例を示すフローチャートである。
【図25】 図25は、予測係数決定処理を示すフローチャートである。
【図26】 図26は、上記画像処理装置における演算装置として使用されるコンピュータシステムの構成を示すブロック図である。
Claims (5)
- それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類する初期分類手段と、上記初期分類手段により初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出するグループ特徴データ検出手段と、すべてのサンプルデータに対して、上記グループ特徴データ検出手段により検出された各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出する距離検出手段と、上記距離検出手段によって検出された距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類する再分類手段と、上記再分類手段による再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出する収束検出手段と、上記収束検出手段が収束したと検出するまで、上記グループ特徴データ検出手段と、上記再分類手段と、上記収束検出手段による処理を繰り返させ、上記収束検出手段が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定する決定手段とを備え、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成装置と、
入力サンプルデータと、上記代表サンプル生成装置により複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出する距離検出手段と、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類する分類手段と、クラス毎に予め設定された係数データセットを記憶する記憶手段と、上記分類手段で分類されたクラスに基づいて、上記記憶手段から読み出した係数データセットに基づいて予測式を生成する予測式生成手段と、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成する特徴データ生成手段とを備えるサンプル特徴データ生成装置と
からなる画像処理装置。 - 上記収束検出手段は、前回と異なるグループに分類されたサンプルデータが所定数以下であったときに収束したと検出することを特徴とする請求項1記載の画像処理装置。
- 上記記憶手段には、分類毎に設定され、サンプル特徴データ対応付けされた代表サンプルデータとの関係に基づいて、サンプルデータを複数のクラスに分類分けされ、クラス毎に、サンプル特徴データとサンプルデータの値とを既知データとし、係数データを未知データとした正規方程式を生成して、クラス毎に上記正規方程式を解くことで、予めサンプル特徴データとサンプルデータが対応付けされて記憶されたデータベースに基づいて、上記サンプル特徴データを持たない新たなサンプルデータからサンプル特徴データを生成するためのクラス毎に生成された係数データセットが記憶されることを特徴とする請求項1記載の画像処理装置。
- それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類し、初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出し、すべてのサンプルデータに対して、検出された上記各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出し、検出された上記距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類し、上記再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出し、収束したと検出するまで、上記グループ特徴データの検出処理、上記サンプルデータの再分類処理と、上記サンプルデータ数の収束検出処理を繰り返し、上記サンプルデータ数が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定することにより、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成ステップと、
入力サンプルデータと、上記代表サンプル生成ステップにより複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出し、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類し、クラス毎に予め設定された係数データセットを記憶する記憶手段から、上記分類されたクラスに基づいて、読み出した係数データセットに基づいて予測式を生成し、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成するサンプル特徴データ生成ステップと
を有する画像処理方法。 - 画像処理装置に備えられたコンピュータにより読み取り実行可能に画像処理プログラムが記録された記録媒体であって、
それぞれ特徴を示す付加データが付加された複数のサンプルデータを上記付加データに基づいて複数のグループに初期分類する初期分類手段と、上記初期分類手段により初期分類された各グループ毎に、グループ内のサンプルデータの特徴を表すグループ特徴データとして各グループ内のサンプルデータの平均値を検出するグループ特徴データ検出手段と、すべてのサンプルデータに対して、上記グループ特徴データ検出手段により検出された各グループのグループ特徴データとの相関を演算することにより、各グループのグループ特徴データとの距離を検出する距離検出手段と、上記距離検出手段によって検出された距離に基づいて、上記すべてのサンプルデータを上記複数のグループに再分類する再分類手段と、上記再分類手段による再分類によって、前グループと異なるグループに分類されたサンプルデータ数が収束したか否かを検出する収束検出手段と、上記収束検出手段が収束したと検出するまで、上記グループ特徴データ検出手段と、上記再分類手段と、上記収束検出手段による処理を繰り返させ、上記収束検出手段が収束したと検出したときの上記各グループのグループ特徴データを、上記各グループの代表サンプルデータとして決定する決定手段とを備え、上記複数のサンプルデータを複数のグループに分類し、各グループの代表サンプルデータを生成する代表サンプル生成装置と、
入力サンプルデータと、上記代表サンプル生成装置により複数のグループ毎に予め生成された代表サンプルデータとの相関を演算することにより距離を検出する距離検出手段と、上記複数のグループの代表サンプルデータとの各距離に基づいて、複数のクラスの1つに分類する分類手段と、クラス毎に予め設定された係数データセットを記憶する記憶手段と、上記分類手段で分類されたクラスに基づいて、上記記憶手段から読み出した係数データセットに基づいて予測式を生成する予測式生成手段と、上記予測式を解き、上記入力サンプルデータとして与えられる画像データで示される画像の向きに応じたサンプル特徴データとして、上記複数の代表サンプルデータを結ぶライン上において、連続的に値を有するサンプル特徴データを生成する特徴データ生成手段とを備えるサンプル特徴データ生成装置として
上記コンピュータを機能させる画像処理プログラムが記録されていることを特徴とする記録媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP6663599 | 1999-03-12 | ||
PCT/JP2000/001510 WO2000055811A1 (fr) | 1999-03-12 | 2000-03-13 | Processeur de donnees, procede de traitement de donnees, et support d'enregistrement |
Publications (1)
Publication Number | Publication Date |
---|---|
JP4432262B2 true JP4432262B2 (ja) | 2010-03-17 |
Family
ID=13321562
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2000605968A Expired - Fee Related JP4432262B2 (ja) | 1999-03-12 | 2000-03-13 | 画像処理装置、画像処理方法及び記録媒体 |
Country Status (3)
Country | Link |
---|---|
US (2) | US7697732B2 (ja) |
JP (1) | JP4432262B2 (ja) |
WO (1) | WO2000055811A1 (ja) |
Families Citing this family (27)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20020155587A1 (en) | 2001-04-20 | 2002-10-24 | Sequenom, Inc. | System and method for testing a biological sample |
EP1260935B1 (en) | 2001-05-22 | 2006-07-12 | Matsushita Electric Industrial Co., Ltd. | Face detection device, face pose detection device, partial image extraction device, and methods for said devices |
JP3822482B2 (ja) * | 2001-10-31 | 2006-09-20 | 株式会社東芝 | 顔向き計算方法及びその装置 |
US20050058350A1 (en) * | 2003-09-15 | 2005-03-17 | Lockheed Martin Corporation | System and method for object identification |
JP4121026B2 (ja) | 2004-01-21 | 2008-07-16 | 富士フイルム株式会社 | 撮像装置および方法並びにプログラム |
JP4765008B2 (ja) * | 2004-03-16 | 2011-09-07 | 国立大学法人静岡大学 | 瞳孔と鼻孔を用いた頭部の方向を検出する方法 |
JP4824411B2 (ja) * | 2005-01-20 | 2011-11-30 | パナソニック株式会社 | 顔抽出装置、半導体集積回路 |
JP2006244385A (ja) * | 2005-03-07 | 2006-09-14 | Fuji Photo Film Co Ltd | 顔判別装置およびプログラム並びに顔判別装置の学習方法 |
US7627149B2 (en) * | 2005-11-25 | 2009-12-01 | Quantum Signal, Llc | Dot templates for object detection in images |
US8503796B2 (en) * | 2006-12-29 | 2013-08-06 | Ncr Corporation | Method of validating a media item |
JP2008210328A (ja) * | 2007-02-28 | 2008-09-11 | Gifu Univ | 眼底画像認証装置及び眼底画像認証プログラム |
KR101319544B1 (ko) | 2007-10-25 | 2013-10-21 | 삼성전자주식회사 | 인물의 등장 장면을 검출하는 촬영장치 및 이를 이용한검출 방법 |
KR101214732B1 (ko) * | 2010-03-09 | 2012-12-21 | 삼성전자주식회사 | 복수의 얼굴 영상을 이용한 얼굴 인식 장치 및 방법 |
KR101694820B1 (ko) * | 2010-05-07 | 2017-01-23 | 삼성전자주식회사 | 사용자 위치 인식 방법 및 장치 |
KR101384446B1 (ko) * | 2010-09-30 | 2014-04-10 | 후지츠 프론테크 가부시키가이샤 | 컴퓨터 판독가능한 기록 매체, 등록 장치, 및 등록 방법 |
US8885882B1 (en) | 2011-07-14 | 2014-11-11 | The Research Foundation For The State University Of New York | Real time eye tracking for human computer interaction |
US8733936B1 (en) | 2012-01-30 | 2014-05-27 | Ditto Technologies, Inc. | Fitting glasses frames to a user |
US8708494B1 (en) * | 2012-01-30 | 2014-04-29 | Ditto Technologies, Inc. | Displaying glasses with recorded images |
US9834221B2 (en) * | 2012-10-19 | 2017-12-05 | Autoliv Development Ab | Driver attentiveness detection method and device |
TWI512642B (zh) * | 2013-01-25 | 2015-12-11 | Delta Electronics Inc | 快速圖形比對方法 |
US20150071541A1 (en) * | 2013-08-14 | 2015-03-12 | Rice University | Automated method for measuring, classifying, and matching the dynamics and information passing of single objects within one or more images |
KR20150026358A (ko) * | 2013-09-02 | 2015-03-11 | 삼성전자주식회사 | 피사체 정보에 따른 템플릿 피팅 방법 및 그 장치 |
JP6304999B2 (ja) * | 2013-10-09 | 2018-04-04 | アイシン精機株式会社 | 顔検出装置、方法およびプログラム |
KR20160011916A (ko) * | 2014-07-23 | 2016-02-02 | 삼성전자주식회사 | 얼굴 인식을 통한 사용자 식별 방법 및 장치 |
US9898836B2 (en) * | 2015-02-06 | 2018-02-20 | Ming Chuan University | Method for automatic video face replacement by using a 2D face image to estimate a 3D vector angle of the face image |
US10621419B2 (en) * | 2016-12-06 | 2020-04-14 | Robert William Kocher | Method and system for increasing biometric acceptance rates and reducing false accept rates and false rates |
US11036969B1 (en) * | 2017-02-08 | 2021-06-15 | Robert Kocher | Group identification device |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
DE3642492A1 (de) | 1986-12-12 | 1988-06-23 | Bosch Gmbh Robert | Verfahren und schaltungsanordnung zur reduktion der datenrate digitalisierter bilder |
US4975969A (en) * | 1987-10-22 | 1990-12-04 | Peter Tal | Method and apparatus for uniquely identifying individuals by particular physical characteristics and security system utilizing the same |
US5016282A (en) * | 1988-07-14 | 1991-05-14 | Atr Communication Systems Research Laboratories | Eye tracking image pickup apparatus for separating noise from feature portions |
US5287275A (en) | 1988-08-20 | 1994-02-15 | Fujitsu Limited | Image recognition apparatus and method for recognizing a pattern within an image |
JPH0481988A (ja) | 1990-07-24 | 1992-03-16 | Sharp Corp | クラスタリング方式 |
JPH04239385A (ja) * | 1991-01-11 | 1992-08-27 | Nippon Telegr & Teleph Corp <Ntt> | パターン集合分類装置 |
JPH04318684A (ja) * | 1991-04-17 | 1992-11-10 | Mitsubishi Heavy Ind Ltd | データ分類装置 |
JP3118725B2 (ja) | 1991-09-11 | 2000-12-18 | 株式会社日立製作所 | 自動分類方法 |
US5621858A (en) | 1992-05-26 | 1997-04-15 | Ricoh Corporation | Neural network acoustic and visual speech recognition system training method and apparatus |
US5479570A (en) | 1992-10-06 | 1995-12-26 | Matsushita Electric Industrial Co., Ltd. | Learning and recognition machine |
JP2894113B2 (ja) * | 1992-11-04 | 1999-05-24 | 松下電器産業株式会社 | 画像クラスタリング装置 |
EP0602932B1 (en) | 1992-12-18 | 2001-03-14 | Raytheon Company | Improved pattern recognition system for sonar and other applications |
JPH06259565A (ja) * | 1993-03-10 | 1994-09-16 | N T T Data Tsushin Kk | パタ−ン認識辞書作成システム |
JP2569420B2 (ja) | 1993-07-14 | 1997-01-08 | 工業技術院長 | 顔方向判別装置 |
JPH07302327A (ja) * | 1993-08-11 | 1995-11-14 | Nippon Telegr & Teleph Corp <Ntt> | 物体画像検出方法及び検出装置 |
JP3974946B2 (ja) | 1994-04-08 | 2007-09-12 | オリンパス株式会社 | 画像分類装置 |
US5850466A (en) * | 1995-02-22 | 1998-12-15 | Cognex Corporation | Golden template comparison for rotated and/or scaled images |
JP3794505B2 (ja) * | 1995-03-22 | 2006-07-05 | ソニー株式会社 | 信号変換装置及び信号変換方法 |
US5999647A (en) | 1995-04-21 | 1999-12-07 | Matsushita Electric Industrial Co., Ltd. | Character extraction apparatus for extracting character data from a text image |
JP3452685B2 (ja) * | 1995-05-10 | 2003-09-29 | 三菱電機株式会社 | 顔画像の処理装置 |
US5912980A (en) * | 1995-07-13 | 1999-06-15 | Hunke; H. Martin | Target acquisition and tracking |
US5850470A (en) * | 1995-08-30 | 1998-12-15 | Siemens Corporate Research, Inc. | Neural network for locating and recognizing a deformable object |
JPH1011583A (ja) * | 1996-06-27 | 1998-01-16 | Sony Corp | クラス分類適応処理装置、クラス分類適応処理用の学習装置および学習方法 |
WO1998037805A1 (en) | 1997-02-26 | 1998-09-03 | Diasense, Inc. | Individual calibration of blood glucose for supporting noninvasive self-monitoring blood glucose |
US5892837A (en) * | 1997-08-29 | 1999-04-06 | Eastman Kodak Company | Computer program product for locating objects in an image |
US6292575B1 (en) | 1998-07-20 | 2001-09-18 | Lau Technologies | Real-time facial recognition and verification system |
US6154559A (en) | 1998-10-01 | 2000-11-28 | Mitsubishi Electric Information Technology Center America, Inc. (Ita) | System for classifying an individual's gaze direction |
JP4239385B2 (ja) | 2000-08-31 | 2009-03-18 | パナソニック電工株式会社 | 赤外線検出装置 |
US7206118B2 (en) | 2004-09-28 | 2007-04-17 | Samsung Electro-Mechanics Co., Ltd. | Open hole-based diffractive light modulator |
-
2000
- 2000-03-13 JP JP2000605968A patent/JP4432262B2/ja not_active Expired - Fee Related
- 2000-03-13 WO PCT/JP2000/001510 patent/WO2000055811A1/ja active Application Filing
-
2006
- 2006-02-23 US US11/361,830 patent/US7697732B2/en not_active Expired - Fee Related
-
2009
- 2009-12-23 US US12/645,643 patent/US7916977B2/en not_active Expired - Fee Related
Also Published As
Publication number | Publication date |
---|---|
US7916977B2 (en) | 2011-03-29 |
WO2000055811A1 (fr) | 2000-09-21 |
US20060140486A1 (en) | 2006-06-29 |
US20100098344A1 (en) | 2010-04-22 |
US7697732B2 (en) | 2010-04-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP4432262B2 (ja) | 画像処理装置、画像処理方法及び記録媒体 | |
JP4335476B2 (ja) | 画像の顕著性及びアピール性に基づいて写真印画の数、寸法、及び、倍率を変更する方法 | |
CN110163114B (zh) | 一种人脸角度及人脸模糊度分析方法、系统和计算机设备 | |
US6738494B1 (en) | Method for varying an image processing path based on image emphasis and appeal | |
US6671405B1 (en) | Method for automatic assessment of emphasis and appeal in consumer images | |
US6832006B2 (en) | System and method for controlling image compression based on image emphasis | |
Wong et al. | Saliency-enhanced image aesthetics class prediction | |
US6847733B2 (en) | Retrieval and browsing of database images based on image emphasis and appeal | |
JP4501937B2 (ja) | 顔特徴点検出装置、特徴点検出装置 | |
US7545985B2 (en) | Method and system for learning-based quality assessment of images | |
US7583294B2 (en) | Face detecting camera and method | |
JP4234381B2 (ja) | 顔の特徴を位置確認するための方法及びコンピュータープログラム製品 | |
CN102576461B (zh) | 评估数字图像的美学质量 | |
US8000505B2 (en) | Determining the age of a human subject in a digital image | |
US8139852B2 (en) | Color classification method, color recognition method, color classification apparatus, color recognition apparatus, color recognition system, computer program, and recording medium | |
US7885477B2 (en) | Image processing method, apparatus, and computer readable recording medium including program therefor | |
CN110532970B (zh) | 人脸2d图像的年龄性别属性分析方法、系统、设备和介质 | |
US9245206B2 (en) | Image processing apparatus and image processing method | |
JP2008538998A (ja) | 画像に含まれる人物を認識する際の時刻の利用 | |
JP6529314B2 (ja) | 画像処理装置、画像処理方法、及びプログラム | |
TW200529093A (en) | Face image detection method, face image detection system, and face image detection program | |
Abaci et al. | Matching caricatures to photographs | |
KR101451097B1 (ko) | 색상 히스토그램을 이용한 이미지 분류 시스템 및 방법 | |
Nizami et al. | No-reference image quality assessment using bag-of-features with feature selection | |
Liu et al. | Recognizable or not: Towards image semantic quality assessment for compression |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20070227 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20090915 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20091109 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20091201 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20091214 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130108 Year of fee payment: 3 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |