JP2004199673A - 画像処理方法及び装置 - Google Patents

画像処理方法及び装置 Download PDF

Info

Publication number
JP2004199673A
JP2004199673A JP2003412157A JP2003412157A JP2004199673A JP 2004199673 A JP2004199673 A JP 2004199673A JP 2003412157 A JP2003412157 A JP 2003412157A JP 2003412157 A JP2003412157 A JP 2003412157A JP 2004199673 A JP2004199673 A JP 2004199673A
Authority
JP
Japan
Prior art keywords
image
probability
face
candidate
portrait
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2003412157A
Other languages
English (en)
Inventor
Xinwu Chen
シンウ・チェン
Yoshihiro Ishida
良弘 石田
Xin Ji
シン・ジー
Libing Wang
ワン リビング
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CNB021554684A external-priority patent/CN1306456C/zh
Priority claimed from CN 02156660 external-priority patent/CN1275197C/zh
Application filed by Canon Inc filed Critical Canon Inc
Publication of JP2004199673A publication Critical patent/JP2004199673A/ja
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation

Landscapes

  • Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

【課題】 顔領域の候補の情報を画像に、その画像を後で処理するために保存する。
【解決手段】 画像内で顔領域の1つの候補を識別し、その顔領域の候補が顔を表す確率を計算し、その確率を添付情報として画像に保存する。また、画像内で顔領域の1つの候補を識別し、その顔領域の候補が顔を表す確率を計算し、顔領域の候補が顔を表すかどうかをその確率としきい値とを比較することによって判断し、その結果を添付情報として画像に保存する。
【選択図】 図1

Description

本発明は画像処理に関し、詳細には、顔領域の候補を含む画像を処理するための画像処理方法及び装置に関する。
顔や他の識別された関心のある対象など、画像における関心領域を検出するためのいくつかの技術が知られている。顔検出は、特に関心の高い分野であり、これは顔認識が画像処理のためだけでなく、識別及びセキュリティの目的のためにも、かつヒューマン・コンピュータ・インターフェースの目的のためにも重要性を有するからである。ヒューマン・コンピュータ・インターフェースは顔の場所を識別するだけでなく、顔が存在している場合、特定の顔も識別することができ、顔の表情及びジェスチャーを理解することができる。
自動顔検出における多数の研究(例えば、非特許文献1、非特許文献2参照。)が最近報告されている。
中国特許出願第00127067.2号 「Face Detection and Rotations Estimation using Color Information」, the 5th IEEE International Workshop on Robot and Human Communication, 1996, pp 341-346 「Face Detection from Color Images Using a Fuzzy Pattern Matching Method」, IEEE Transaction on Pattern Analysis and Machine Interlligence vol. 21, no. 6, 1999年6月
顔を検出する全ての従来の方法は、画像を処理するために使用された異なるアルゴリズムに応じて、それ自体の利点並びに欠点を有する。いくつかの方法は正確であるが、複雑であり、時間のかかるものである。
更に、画像がポートレートであるかどうかを検出することも大変重要である。いずれかの顔を含む画像は、ポートレートと呼ばれる。近年、現在のITデバイスの急速な広がりに関連して、ポートレートを正確に判断するための要求が増しつつある。例えば、画像をポートレートとして判断することができる場合、プリンタはその画像を印刷するとき、ポートレートに合わせて最適化されたそのパラメータを調整することができる。次いで、画像の印刷品質を大幅に改善することができる。このため、画像内でポートレートを容易に自動的に検出することができるデバイス又はプロセスについての強い要望が出ている。
重要なことには、顔を検出する従来の方法のいずれもが検出結果を画像に保存せず、このため従来の方法は、顔領域について特定のプロセスが必要とされる場合に画像を更に処理するために好都合ではない。
従って当技術分野では、画像内で顔領域を識別するか、或いは画像がポートレートであるかどうかを判断し、画像を更に処理するために、識別プロセスの結果又は判断プロセスの結果を保存することができる、方法及び装置を開発することが必要とされている。
本発明の第1の目的は、顔領域の候補の情報を画像に、その画像を後で処理するために保存する、画像を処理する方法及び装置を提供することである。
本発明の第2の目的は、顔領域の候補の情報が保存されている画像を処理する方法及び装置を提供することである。
本発明の第3の目的は、ポートレートの情報を画像に、その画像を後で処理するために保存する、画像を処理する方法及び装置を提供することである。
本発明の第4の目的は、ポートレートの情報が保存されている画像を処理する方法及び装置を提供することである。
本発明は、画像を処理する画像処理方法であって、前記画像内で顔領域の1つの候補を識別するステップと、前記顔領域の候補が顔を表す確率を計算するステップと、前記確率を添付情報として前記画像に保存するステップとを有することを特徴とする。
また、本発明は、画像を処理する画像処理方法であって、前記画像内で顔領域の1つの候補を識別するステップと、前記顔領域の候補が顔を表す確率を計算するステップと、前記顔領域の候補が顔を表すかどうかを、前記確率をしきい値と比較することによって判断するステップと、前記判断するステップの結果を添付情報として前記画像に保存するステップとを有することを特徴とする。
また、本発明は、画像を処理する画像処理方法であって、少なくとも1つの確率を得るステップであって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表すステップと、前記画像についてのポートレート確率を前記少なくとも1つの確率に基づいて計算するステップと、前記ポートレート確率を添付情報として前記画像に保存するステップとを有することを特徴とする。
また、本発明は、画像を処理する画像処理方法であって、少なくとも1つの確率を得るステップであって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表すステップと、前記画像についてのポートレート確率を前記少なくとも1つの確率に基づいて計算するステップと、前記画像がポートレートであるかどうかを、前記ポートレート確率をしきい値と比較することによって判断するステップと、前記判断するステップの結果を添付情報として前記画像に保存するステップとを有することを特徴とする。
本発明によれば、顔領域の候補を識別した結果又はポートレート確率を計算した結果が画像に保存されるようになり、その画像上で行われる更なる処理が容易となる。
また、従来の画像処理装置をトレーニングして、顔を検出する能力を有するようにすることができる。本発明による顔を検出する方法は正確かつ高速である。
加えて、本発明の方法を、顔を検出する従来の方法で使用された異なるアルゴリズムと容易に組み合わせて、異なる状況において適合するようにすることができる。
本発明によれば、画像がポートレートであるかどうかを判断することができ、この判断の結果が画像に保存される。この画像がポートレートとして判断されるとき、プリンタは、ポートレートに合わせて最適化されたそのパラメータを調節して、画像の印刷品質が改善されるようにすることができる。更に、ポートレートに合わせて最適化されたいくつかの画像処理方法を表示デバイスにおいて画像上で実行して、画像の表示品質を改善することができる。
本発明の実施形態を詳細に説明する。以下の説明では、画像内で顔領域の1つの候補を識別する方法について、2000年9月15日に出願され、2002年4月10日に公開された、本出願と同じ出願人の中国特許出願第00127067.2号を参照することができる。この出願は参照により本明細書に組み込まれている。しかし、中国特許出願第00127067.2号で開示された、顔領域の1つの候補を識別する方法は、本発明の制限を構成しない。画像内で顔領域の候補を識別するいかなる従来の方法も、本発明において利用することができる。
図1は、本発明の一実施形態における画像処理装置をトレーニングする方法の流れ図である。ステップ101でこのプロセスが開始する。ステップ102で、複数の画像領域が入力される。これらの画像領域は、単一の画像又は複数の画像から得ることができる。これらの画像領域のいくつかは、本物の顔を表す。予め、どの画像領域が本物の顔を表すかが知られている。これらの画像領域は「トレーニング・サンプル」と呼ばれる。図1では、トレーニング・サンプルの数はNであり、Nは1より大きい整数である。
ステップ103で、ステップ102で入力された各画像領域について、所定のアルゴリズムがその上に適用されて、M次元ベクトルが生成されるようになり、Mは1以上の整数である。Mが1の値を取る場合、所定のアルゴリズムは、各入力画像領域についてスカラ値を生成する。
上記のように、複数のM次元ベクトルが生成される。生成されるM次元ベクトルの数はNと同じである。予め、どのトレーニング・サンプル(即ち、画像領域)が本物の顔を表すかが知られているので、どのM次元ベクトルが本物の顔に対応するかもわかるようになる。
本発明は、アルゴリズムが各入力画像領域のM次元ベクトルを生成する限り、所定のアルゴリズム内の詳細なプロセスに関係しない。従って、所定のアルゴリズムを、画像のためのデータを処理するいかなる従来の方法にすることもできる。所定のアルゴリズムによって生成されたベクトルは、その上に所定のアルゴリズムが適用される画像領域のいくつかの特性を表す。これらのアルゴリズムの2つの実施例を、以下に図9を参照して挙げる(実施例1及び実施例2を参照)。
ステップ103の後、N個のM次元ベクトルが生成され、これらがM次元空間において分散される。
以下のステップ104から108は、M次元空間を複数の部分空間に分割する方法を構成し、部分空間の数は、
として示され、その中で同じ数のM次元ベクトルが分散される。各部分空間において分散されるM次元ベクトルの数は、
として示され、K1、K2、…、KMは1より大きい整数である。
M次元空間を、
個の部分空間に分割するいくつかの方法があることに留意されたい。ステップ104から108は単に一実施例を示し、本発明の制限を構成しない。
ステップ104で、値「1」が変数iに割り当てられる。
ステップ105で、各部分空間において分散された全てのM次元ベクトルが、i番目の軸と共に、整列されるべきM次元ベクトルのi番目の成分の値により整列される。
ステップ106で、各部分空間におけるi番目の軸がKi個の間隔に分割されてM次元空間がそれに応じて、
個の部分空間に分割され、各部分空間において分散されたM次元ベクトルの数が、
となるようにする。
ステップ107で、変数iが1だけ増す。
ステップ108で、変数iがMより大きいかどうかが判断される。ステップ108の判断結果が否定である場合、このプロセスがステップ105に進み、そうでない場合はステップ109に進む。
ステップ109で、各部分空間についての確率が計算される。1つの部分空間内で、本物の顔に対応するM次元ベクトルの数が最初にカウントされる。次いで、その部分空間において分散されたM次元ベクトルの総数、即ち、
が、上記の本物の顔に対応するM次元ベクトルの数によって除算される。この除算の結果は、この部分空間の確率として取られる。部分空間の確率は、この部分空間に分散されたベクトルが本物の顔に対応する確率を意味する。
オプショナルのステップ110で、全ての部分空間についての位置及び確率が、例えば、画像処理装置内のメモリ又はストレージに保存される。
ステップ111で、トレーニング・プロセスは終了する。
図1の流れ図の理解を容易にするために、2つの実施例を以下に挙げる。
図9を参照し、これは1000個のトレーニング・サンプル、即ち、画像領域A1、A2、A3、…、A1000から構成される、トレーニング・シーケンスを示す。従って、図1のNは1000の値を取る。
図9で、予めどの画像領域が本物の顔を表すか、及び、どの画像領域が表さないかが知られている。例えば、画像領域A1、A5は本物の顔を表し、画像領域A2、A3、A4、A6は顔を表さない。
実施例1に適用される所定のアルゴリズムはスカラ値、即ち、M=1であるM次元ベクトルを生成する。一例として、この例で使用される所定のアルゴリズムは皮膚色に属するエリアと全体の画像領域の比率を生成する。
例えば画像領域A1を例として挙げる。画像領域A1におけるピクセルの総数は10000で、皮膚色に属するピクセルの数は8000である。従って、皮膚色に属するエリアと全体の画像領域の比率は、8000/10000=0.8である。
上の所定のアルゴリズムを画像領域A1、A2、…、A1000にそれぞれ適用すると、トレーニング・スカラ値と呼ばれる1000個のスカラ値が得られ、これが以下のように示される。
0.8、0.2、0.3、0.5、0.7、0.1、…。
次に、実軸に沿って、上のトレーニング・スカラ値を昇順で整列させ、以下のシーケンスを得る。
…、0.1、…、0.2、…、0.3、…、0.5、…、0.7、…、0.8、…
次いで、実軸をM個の間隔に分割し、各間隔が同じ数のトレーニング・スカラ値を含むようにする。各間隔内のトレーニング・スカラ値の数は、N/Mに等しい。
M=10と仮定すると、実軸が10個の間隔(即ち、10個の部分空間で、その各々は1次元である)に分割され、例えば以下の通りである。
(−∞,0.11]、
(0.11,0.2]、
(0.2,0.32]、
(0.32,0.39]、
(0.39,0.45]、
(0.45,0.56]、
(0.56,0.66]、
(0.66,0.73]、
(0.73,0.85]、
(0.85,+∞)。
これらの間隔は左側で開き、右側で閉じるか、或いは左側で閉じ、右側で開く。各間隔、即ち、1次元部分空間において、N/M=1000/10=100個のトレーニング・スカラ値がある。
次に、各間隔についての確率を計算する。上のように分割された10個の間隔について、10個の間隔内の本物の顔に対応するトレーニング・スカラ値の数は、以下の通りである。
5、11、16、28、32、44、52、61、77、43。
各間隔におけるトレーニング・スカラ値の総数は、N/M=1000/10=100である。
次いで、10個の各間隔についての確率はそれぞれ以下の通りである。
0.05、0.11、0.16、0.28、0.32、0.44、0.52、0.61、0.77、0.43。
最後のステップで、位置及び確率が10個の間隔について保存される。
図9は、1000個のトレーニング・サンプル、即ち、画像領域A1、A2、A3、…、A1000を含む、トレーニング・シーケンスを示す。この例では、画像領域A1、A2、A3、…、A900のみが使用される。従って、図1のNは900の値を取る。
上述のように、予め、どの画像領域が本物の顔を表すか、及び、どの画像領域が表さないかが知られている。例えば、画像領域A1、A5は本物の顔を表し、画像領域A2、A3、A4、A6は顔を表さない。
実施例2に適用される所定のアルゴリズムは2次元ベクトル、即ち、M=2であるM次元ベクトルを生成する。一例として、この例で使用される所定のアルゴリズムは、グレー・レベル分布及び輪状の領域における基準分布の傾きの間の平均及び加重角度を生成する。このアルゴリズムの詳細な説明については、中国特許第01132807.X号を参照されたい。
このアルゴリズムを画像領域A1、A2、…、A900にそれぞれ適用すると、トレーニング・ベクトルと呼ばれる以下の2次元ベクトルが得られる。
(0.23,0.14)、(−0.6,−0.71)、(0.44,0.51)、(0.52,0.74)、(−0.16,−0.22)、(0.58,0.46)、…
次に、最初の軸、即ち実軸で、900個の2次元ベクトルを、これらのベクトルの最初の成分の値の昇順で整列させ、以下のシーケンスを得る。
…、(−0.6,−0.71)、…、(−0.16,−0.22)、…、(0.23,0.14)、…、(0.44,0.51)、…、(0.52,0.74)、…、(0.58,0.46)、…
次いで、実軸をP個の間隔に分割し、それに応じて2次元空間をP個の部分空間に分割し、P個の各部分空間がN/P個の2次元ベクトルを含むようにする。
P=10と仮定すると、10個の間隔は以下のようになる。
(−∞,−0.6]、
(−0.6,−0.33]、
(−0.33,−0.12]、
(−0.12,0.09]、
(0.09,0.15]、
(0.15,0.26]、
(0.26,0.44]、
(0.44,0.57]、
(0.57,0.73]、
(0.73,+∞)。
これらの全ての間隔は左側で開き、右側で閉じるか、或いは左側で閉じ、右側で開く。
各部分空間内で、N/P=90個のトレーニング・ベクトルがある。
次に、各部分空間内で、トレーニング・ベクトルを2番目の軸に沿って、トレーニング・ベクトルの2番目の成分の値の昇順で整列させる。
例えば、間隔(−0.12,0.09]に対応する部分空間では、以下のトレーニング・ベクトルが分散される。
…、(−0.1,0.2)、…、(−0.05,0.01)、…、(−0.03,0.3)、…、(0.01,−0.1)、…、(0.03,−0.22)、…、(−0.06,−0.5)、…
これらのベクトルを2番目の成分の値の昇順で整列させると、結果として以下のシーケンスが生じる。
…、(−0.06,−0.5)、…、(0.03,−0.22)、…、(0.01,−0.1)、…、(−0.05,0.01)、…、(−0.1,0.2)、…、(−0.03,0.3)、…
各部分空間内で、2番目の軸をQ個の間隔に分割し、それに応じて各部分空間をQ個の部分空間に分割して最終的に得られた各部分空間が同じ数の2次元ベクトルを含むようにし、その数はN/(P*Q)である。
Q=9と仮定すると、実軸を分割することによって得られた各部分空間について、2番目の軸が9個の間隔に分割される。
例えば、間隔(−0.12,0.09]に対応する部分空間を例として挙げる。結果として得られた9個の間隔は以下の通りである。
(−∞,−0.5]、
(−0.5,−0.35]、
(−0.35,−0.18]、
(−0.18,0.04]、
(0.04,0.17]、
(0.17,0.31]、
(0.31,0.54]、
(0.54,0.77]、
(0.77,+∞)。
これらの全ての間隔は左側で開き、右側で閉じるか、或いは左側で閉じ、右側で開く。
各部分空間内で、N/(P*Q)=10個のトレーニング・ベクトルがある。
上記のように、2次元空間は最終的に以下の(P*Q)=90個の部分空間に分割される。
((−∞,−0.6)、(−∞,−0.53))、…、((−∞,−0.6]、(0.71,+∞))、
((−0.6,−0.33)、(−∞,−0.58))、…、((−0.6,−0.33]、(0.56,+∞))、

((−0.12,0.09)、(−∞,−0.5))、…、((−0.12,0.09]、(0.04,0.17))、…、((−0.12,0.09)、(0.77,+∞))

((0.73,+∞)、(−∞,−0.65))、…、((0.73,+∞)、(0.61,+∞))
各部分空間内で、N/(P*Q)=10個のトレーニング・ベクトルが分散される。
次のステップで、各部分空間についての確率を計算する。
本物の顔に対応するトレーニング・ベクトルの数がそれぞれ以下の通りであると仮定する。
1、…、2、0、…、3、…、3、…、8、…、2、…、0、…、1
各部分空間において分散されたトレーニング・ベクトルの総数は、N/(P*Q)=900/(10*9)=10であり、90個の部分空間についての確率は以下の通りである。
0.1、…、0.2、0、…、0.3、…、0.3、…、0.8、…、0.2、…、0、…、0.1。
最後のステップで、位置及び確率が90個の間隔について保存される。
図2は、本発明による画像を処理する方法であって、図1に示した方法でトレーニングされた画像処理装置が使用される方法の流れ図である。ステップ201でこのプロセスは開始する。ステップ202で画像が入力される。処理されるべき画像内で顔を検出するために、ステップ203で、この画像内で顔領域の1つの候補が識別される。ステップ204で、上記の顔領域の候補についてのデータが、図1に示した方法でトレーニングされた画像処理装置に入力される。
ステップ205で、画像処理装置内で、この画像処理装置のトレーニング・プロセスにおいて使用された所定のアルゴリズムが、この顔領域の候補のデータに適用され、M次元ベクトルが、この顔領域の候補に対して生成される。
ステップ206で、その中に上記のM次元ベクトルが位置する1つの部分空間が、
個の部分空間の中で識別される。これらの
個の部分空間は、画像処理装置のトレーニング・プロセス中に形成され、それらの情報(例えば、位置及び確率)が画像処理装置に保存されている。
ステップ207で、識別された部分空間についての確率の値が、顔領域の候補(ステップ203で識別されたもの)に割り当てられる。
このようにして、顔領域の各候補の確率を、図1に示した方法でトレーニングされた画像処理装置内で容易に得ることができる。また、
個の部分空間についての確率が画像処理装置に保存されているので、顔の検出において計算量を大幅に削減することができる。
ステップ204から207は単に本発明の一実施形態を構成し、本発明の制限にならないことを理解されたい。いかなる従来の方法も、ステップ203で識別されたような顔領域の候補が顔を表す確率をこれらの従来の方法によって計算することができる場合、採用することができる。
ステップ208で、顔領域の候補が顔を表すかどうかが、顔領域の候補についての確率をしきい値と比較することによって判断される。
ステップ209で、この判断の結果が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。ステップ209で、顔領域の候補の識別情報もまた追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ210で、顔領域の候補についての確率が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。ステップ210で、顔領域の候補の識別情報もまた追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ209及び210で、添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
判断結果又は確率が保存されている画像を幅広く使用することができる。図4及び5は、このような種類の画像のいくつかの応用例を例示する。
ステップ211で、上記のプロセスは終了する。
ところで図10を参照すると、これはテストを行うための2つの画像領域B1、B2を示す。図10のように、画像領域B1は顔を示すが、画像領域B2は示さない。以下の説明は、本発明の検出方法のすぐれた結果を実証する。
例えば、実施例1で使用されたアルゴリズムを例として挙げる。
画像領域B1が顔領域の1つの候補として識別される場合、スカラ値0.75がアルゴリズムによって生成され、これは間隔(0.73,0.85]内に収まる。この間隔についての確率は0.77であるので、画像領域B1についての確率も0.77の値を取る。
画像領域B2が顔領域の1つの候補として識別される場合、スカラ値0.31がアルゴリズムによって生成され、これは間隔(0.2,0.32)内に収まる。この間隔の確率は0.16であるので、画像領域B2の確率も0.16の値を取る。
明らかに、実際に顔を表す顔領域の1つの候補についての確率が増大され(0.75から0.77へ)、実際に顔を表さない顔領域の1つの候補についての確率が減少される(0.31から0.16へ)。即ち、顔を検出する精度が、本発明において増大される。
また、テストを行うための2つの画像領域B1、B2を示す図10を参照する。
例えば、実施例2で使用されたアルゴリズムを例として挙げる。
画像領域B1が顔領域の1つの候補として識別される場合、2次元ベクトル(0.05,0.11)がアルゴリズムによって生成され、これは部分空間((−0.12,0.09],(0.04,0.17])内に収まる。この部分空間の確率は0.8であるので、画像領域B1の確率も0.8の値を取る。
画像領域B2が顔領域の1つの候補として識別される場合、2次元ベクトル(−0.71,−0.66)がアルゴリズムによって生成され、これは部分空間((−∞,−0.6),(−∞,−0.53))内に収まる。この部分空間の確率は0.1であるので、画像領域B2の確率も0.1の値を取る。
異なるアルゴリズムがこの例に使用され、顔を検出する精度が、実施例3と比較して更に増大される。
図3は、本発明による画像を処理するもう1つの方法であって、図1に示した方法でトレーニングされた複数の画像処理装置が使用される方法の流れ図である。
ステップ301で、このプロセスは開始する。次いでステップ302で、画像についてのデータが入力される。ステップ303で、顔領域の1つの候補が入力画像内で識別される。
ステップ304〜ステップ306で、顔領域の候補についての、中間確率と呼ばれる複数の確率が、図1に示した方法でトレーニングされた複数の画像処理装置を使用して得られる。複数の画像処理装置の数は、例えばKである。Kは1以上の整数である。個々の画像処理装置を使用して確率を得る詳細なプロセスは、図2の方法に似ている。
異なるアルゴリズムを、異なる画像処理装置において使用することができる。しかし、言うまでもなく、各画像処理装置について、画像処理装置のトレーニング・プロセスにおいて使用されたアルゴリズム、及び、確率を得る詳細なプロセスにおいて使用されたアルゴリズムは同じであるべきである。
ステップ304〜306の後、K個の中間確率p1、p2、…、pKが得られる。
ステップ307で、顔領域の候補についての確率が、上記の中間確率p1、p2、…、pKに基づいて以下の式により計算される。
ここで、αは、1より小さいが1に非常に近い係数である。
ステップ304から307は単に本発明の一実施形態を構成し、本発明の制限にならないことを理解されたい。いかなる従来の方法も、ステップ303で識別されたような顔領域の候補が顔を表す確率をこれらの従来の方法によって計算することができる場合、採用することができる。
ステップ308で、顔領域の候補が顔を表すかどうかが、顔領域の候補についての確率をしきい値と比較することによって判断される。
ステップ309で、この判断の結果が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。ステップ309で、顔領域の候補の識別情報もまた追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ310で、顔領域の候補についての確率が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。ステップ310で、顔領域の候補の識別情報もまた追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ309及び310で、添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
判断結果又は確率が保存されている画像を幅広く使用することができる。図4及び5は、このような種類の画像のいくつかの応用例を例示する。
ステップ311で、上記のプロセスは終了する。
また、テストを行うための2つの画像領域B1、B2を示す図10を参照する。
実施例3及び実施例4で上述したように、画像領域B1についての確率(即ち、中間確率)は0.77及び0.8である。
αを0.9とする。
画像領域B1についての確率は、0.9*(1−(1−0.77)*(1−0.8))=0.86として計算される。
実施例3及び実施例4で上述したように、画像領域B2についての確率(即ち、中間確率)は0.16及び0.1である。
αを0.9とする。
画像領域B2についての確率は、0.9*(1−(1−0.16)*(1−0.1))=0.22として計算される。
図3及びその説明から、K及びαが1の値を取る場合、図3の方法が図2の方法と同じになることは明らかである。
図4は、顔領域の少なくとも1つの候補についての確率が保存されている画像を処理する、もう1つの方法の流れ図である。ステップ401で、このプロセスは開始する。ステップ402で、顔領域の少なくとも1つの候補についての確率が保存されている画像が受信される。
上述のように、この確率情報を添付情報として画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ403で、顔領域の1つの候補についての確率が画像から、例えば、画像のヘッダ・ファイル又はフッタ・ファイルから検索される。
ステップ404で、検索された確率がしきい値と比較される。ステップ405で、ステップ404の比較結果に基づいて現在の顔領域の候補が顔を表すかどうかが決定される。上記のしきい値を、しきい値より上の確率を有する顔領域についてのいかなる候補も顔を表すという方法で、選択することができる。
ステップ405の判断結果が肯定である場合、即ち、顔領域の候補が顔を表す場合、プロセスがステップ406へ進み、そうでない場合はステップ407へ進む。
ステップ406で、顔に合わせて最適化されたユニークな処理方法が顔領域の候補において実行される。ユニークな処理方法をプリンタ、例えば、図17のプリンタ1713のためのプリンタ・ドライバ又はアプリケーション・プログラムによって実行し、顔が、改善された印刷品質で印刷されるようにすることができる。ユニークな処理方法をまた、ディスプレイ、例えば、図17のディスプレイ1714のためのアプリケーション・プログラムによって実行し、顔が高い品質で表示されるようにすることもできる。
ステップ406で、ユニークな処理方法を、画像上で実行されるいずれかのプロセスにすることができる。例えばこれを、画像内で赤目を補正するプロセス、又は画像内で皮膚色の色調を下げるプロセスにすることができる。ステップ404で使用されるしきい値の値を、異なる応用例に従ってより高い値として、或いはより低い値として選択することができる。
赤目補正の状況では、例えば、画像のうち目ではない部分(例えば、赤いロゴ)が赤目として補正される場合、ユーザには受け入れられなくなる。従って、ステップ404のしきい値をより高い値に設定し、顔領域のより少ない候補が顔を表すものとして判断されるようにし、従って、画像のより少ない部分が赤目として補正されるようにすることができる。
画像内で皮膚色の色調を下げる状況では、例えば、画像のうち人の皮膚色を含まない部分(テーブルなど)の色調が下げられる場合、ユーザには受け入れられなくなる(時として気付かれなくなる)。従って、ステップ404のしきい値をより低い値に設定し、顔領域のより多い候補が顔を表すものとして判断されるようにし、従って、画像のより多い部分の色調が下げられるようにすることができる。
要約すれば、ステップ404で使用されるしきい値を、画像の処理結果に対するユーザの満足感に従って選択することができる。
ステップ407で、通常の処理方法が顔領域の候補において実行される。
ステップ408で、画像のうち顔領域の候補を含まない他の部分が処理される。顔領域の他の候補があり、それらの確率が画像内に含まれている場合、このプロセスがステップ403に進む。
ステップ409で、このプロセスは終了する。
図5は、顔領域の少なくとも1つの候補についての確率が保存されている画像内で、人物を識別する方法の流れ図である。ステップ501で、このプロセスは開始する。ステップ502で、顔領域の少なくとも1つの候補についての確率が保存されている画像が受信される。上述のように、確率情報を添付情報として画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。ステップ503で、顔領域の1つの候補についての確率が画像から、例えば、画像のヘッダ・ファイル又はフッタ・ファイルから検索される。
ステップ504で、検索された確率がしきい値と比較される。ステップ505で、ステップ504の比較結果に基づいて、現在の顔領域の候補が顔を表すかどうかが決定される。上記のしきい値を、しきい値より上の確率を有する顔領域についてのいかなる候補も顔を表すという方法で、選択することができる。
ステップ504で使用されるしきい値を、図4のステップ404と同じ原理で選択することができる。
ステップ505の判断結果が肯定である場合、即ち、顔領域の候補が顔を表す場合、プロセスがステップ506へ進み、そうでない場合はステップ507へ進む。
ステップ506で、人物が顔領域の候補にのみ基づいて識別されるが、ステップ507では、人物が標準的に画像全体に基づいて識別される。人物が、画像全体ではなく自分の顔にのみ基づいて識別される場合、この人物の識別プロセスは大幅に加速され、精度が増すようになることは、容易に理解されよう。
ステップ508で、このプロセスは終了する。
図6は、本発明による画像を処理するための装置の概略ブロック図である。601は画像入力ユニットを示し、602は候補セレクタ、603はベクトル発生器、604は確率セレクタ、605は確率メモリ、606は確率ライタ、607は画像出力ユニットを示す。この図に示す装置の重要なコンポーネントは、ベクトル発生器603、確率セレクタ604及び確率メモリ605である。
図6のように、破線によって囲まれたコンポーネントは、確率計算器を構成する。図では、確率計算器はベクトル発生器603、確率セレクタ604及び確率メモリ605から構成されるが、いかなる従来のコンポーネントも確率計算器を形成するために選ぶことができることを理解されたい。即ち、ベクトル発生器603、確率セレクタ604及び確率メモリ605は、確率計算器の制限を構成しない。重要なことは、確率計算器が顔領域の1つの候補が顔を表す確率を計算することである。
図6の装置は、図1の方法でトレーニングされており、全ての部分空間についての位置及び確率が確率メモリ605に保存される。確率メモリ605は、ROM、EPROM、RAM、ハード・ディスクなど、いかなる形態を取ることもできる。部分空間の位置及び確率についての異なる記憶媒体及び異なる記憶スキームは、本発明の制限を構成しない。
画像入力ユニット601は画像を受信し、そのデータを装置に、処理のために入力する。候補セレクタ602は入力画像の一部を選択し、この部分を顔領域の1つの候補として識別する。ベクトル発生器603は、画像処理装置のトレーニング・プロセスで使用された所定のアルゴリズムを顔領域の候補についてのデータ上で実行し、顔領域の候補についてのM次元ベクトルを生成する。
ベクトル発生器603によって使用されたアルゴリズム、及び画像処理装置のトレーニング・プロセスで使用されたアルゴリズムは同じなので、M次元ベクトルは確実に、その位置及び確率が確率メモリ605に保存されている部分空間に属する。
確率セレクタ604は確率を確率メモリ605からベクトル発生器603によって生成されたM次元ベクトルに基づいて検索する。
確率ライタ606は、確率セレクタ604によって検索された確率を添付情報として、処理中の画像に、例えば、そのヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込む。また、確率ライタ606は、顔領域の候補の識別情報をも追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込むことができる。
添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
画像出力ユニット607は画像を、更に処理するために出力する。
図7は、本発明による画像を処理するためのもう1つの装置の概略ブロック図である。701は画像入力ユニットを示し、702は候補セレクタ、703はベクトル発生器、704は確率セレクタ、705は確率メモリを示す。これらのコンポーネントは、図6の対応するコンポーネントと同じように機能する。
図7のように、破線によって囲まれたコンポーネントは、確率計算器を構成する。図では、確率計算器はベクトル発生器703、確率セレクタ704及び確率メモリ705から構成されるが、いかなる従来のコンポーネントも確率計算器を形成するために選ぶことができることを理解されたい。即ち、ベクトル発生器703、確率セレクタ704及び確率メモリ705は、確率計算器の制限を構成しない。重要なことは、確率計算器が顔領域の1つの候補が顔を表す確率を計算することである。
706は判断ユニットを示し、707は判断結果ライタ、708は画像出力ユニットを示す。判断ユニット706は、顔領域の候補が顔を表すかどうかを、確率セレクタ704によって検索された確率をしきい値と比較することによって判断する。判断結果ライタ707は、判断ユニット706から出力された判断結果を添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込む。また、判断結果ライタ707は、顔領域の候補の識別情報をも追加の添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込むことができる。
判断ユニット706で使用されるしきい値を、図4のステップ404と同じ原理で選択することができる。
添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
画像出力ユニット708は画像を、更に処理するために出力する。
図8は、顔領域の少なくとも1つの候補についての確率が保存されている画像を処理するための装置の概略ブロック図である。801は画像入力ユニットを示し、802は確率抽出器、803は判断及び制御ユニット、804は画像処理ユニット、805は顔用のアルゴリズム、806は標準画像用のアルゴリズム、807は画像出力ユニットを示す。
画像入力ユニット801は画像を受信し、そのデータを装置に、処理のために入力する。画像内に、顔領域の少なくとも1つの候補についての確率が、例えば図2のステップ210又は図3のステップ310で、図6の確率ライタ606によって保存されている。
確率抽出器802は画像から、例えば、画像のヘッダ・ファイル又はフッタ・ファイルから、顔領域の1つの候補についての確率を検索する。顔領域の候補の識別情報が画像に保存されている場合、確率抽出器802はまた画像から、顔領域の候補の識別情報をも検索し、これが画像処理ユニット804によって使用される。
判断及び制御ユニット803は、検索された確率をしきい値と比較し、比較結果に基づいて、現在の顔領域の候補が顔領域を表すかどうかを決定し、それに応じて画像処理ユニット804を制御する。
判断及び制御ユニット803で使用されるしきい値を、図4のステップ404と同じ原理で選択することができる。
画像処理ユニット804は画像入力ユニット801によって入力された画像を、顔用のアルゴリズム805及び標準画像用のアルゴリズム806など、異なるアルゴリズムを使用して判断及び制御ユニット803の制御下で処理する。判断及び制御ユニット803によって顔の候補が顔を表すと決定された場合、画像処理ユニット804は、顔用のアルゴリズム805により、そうでない場合は標準画像用のアルゴリズム806により、画像から検索された識別情報によって識別される、顔の候補を処理する。画像処理ユニット804は例えば、印刷又は表示されるデータを処理するためのプリンタ又はディスプレイ、又は、対象又は人物を識別するためのデバイス内のコンポーネントである。
画像出力ユニット807は画像を、更に処理するために出力する。
以下の説明は図11から図16を参照し、これは画像のポートレート確率に関する。
画像が少なくとも1つの顔を含むとき、本発明ではこれをポートレートと呼ぶ。画像がポートレートである場合、特殊な処理をこの画像上で実行することができる。画像がポートレートであるかどうかを決定するとき、画像がポートレートである確率を計算することが必要である。
本発明では、画像がポートレートである確率を画像の「ポートレート確率」と呼ぶ。
画像のポートレート確率が高いほど、画像がポートレートである可能性が高い。即ち、画像のポートレート確率が十分高い場合、画像がポートレートとして決定される。
図11は、本発明による画像を処理するもう1つの方法であって、ポートレート確率が画像について計算される方法の流れ図である。ステップ1101で、このプロセスは開始する。ステップ1102で、画像が入力される。
ステップ1103で、顔領域の複数の候補が識別される。顔領域の複数の各候補について、顔領域の候補が顔を表す確率が得られる。従って、顔領域についての複数の確率が得られる。
ここで、これらの顔領域の候補についての確率を得る方法を、従来技術で使用されるいずれかの関連方法、又は、図2又は3で説明したいずれかの方法にすることができる。別法として、ステップ1102で入力された画像が、本発明の方法によって処理されている画像であり、顔領域についての確率が画像に保存されている場合、ステップ1103で、顔領域の候補についての確率を画像から直接検索することができる。
ステップ1104で、ポートレート確率がその画像について、ステップ1103で得られた複数の確率に基づいて計算される。
ステップ1104で多数の方法を使用することができ、これらの方法は本発明の方法のいかなる制限も構成しない。
画像内の顔領域の候補についての確率が、p1、p2、p3…pNであると仮定する。画像のポートレート確率を計算する3つの例示された方法を、以下に挙げる。
ポートレート確率を計算する最初の例示された方法を、以下で説明する。
以下の説明では、ポートレート確率を顔領域の候補についてのN個の確率に基づいて計算する3つの実施例を挙げる。ここで、Nは1以上の整数である。
従って、顔領域の最初の候補が顔ではない確率は、1−p1であり、最初及び2番目の顔領域の候補のいずれもが顔でない確率は、(1−p1)*(1−p2)であり、この画像が顔を含んでいない確率は、
である。
従って、画像が顔領域の候補を含む確率、即ち、画像のポートレート確率を、以下の式(1)により計算することができる。
ここで、piは顔領域のi番目の候補についての確率を示し、Nは画像内の顔領域の候補の数を示し、Pは画像のポートレート確率を示す。
図16に示す例示した画像200では、顔領域の3つの候補がある(破線で例示する)。3つの候補についての確率をF1、F2及びF3として示す。例えば、F1は0.8に等しく、F2は0.5に等しく、F3は0.1に等しい。
式(1)により計算される場合、図16の画像200のポートレート確率は以下の通りである。
P=1−(1−0.8)*(1−0.5)*(1−0.1)=0.91
ポートレート確率を計算する2番目の例示された方法を、以下で説明する。
最初に、顔領域の候補についての最初のK個の最大確率を選択し、これをps1、ps2、ps3、…psKとして示し、但しKは1とNの間の整数である。
画像のポートレート確率は主として、最初のK個の最大確率を有する顔領域の候補に依存する。従って、画像が顔を含まない確率は、以下の通りである。
従って、画像が顔領域の候補を含む確率、即ち、画像のポートレート確率を、以下の式(2)により計算することができる。
ここで、psiは顔領域の候補についてのi番目の最大確率を示し、Kは画像内の顔領域の選択された候補の数を示し、Pは画像のポートレート確率を示す。
図16に示す画像では、顔領域の候補についての最初の2つの最大確率は、0.8、0.5である(ここで、Kを2とする)。
従って、式(2)により計算された場合、画像200のポートレート確率は以下の通りである。
P=1−(1−0.8)*(1−0.5)=0.9
ポートレート確率を計算する3番目の例示された方法を、以下で説明する。
顔領域の候補についての確率の最大値が、画像のポートレート確率として選択される。即ち、画像のポートレート確率が以下の式(3)により計算される。
P=Max{p1、p2、p3、…pN} (3)
ここで、piは顔領域のi番目の候補についての確率を示し、Nは画像内の顔領域の候補の数を示し、Pは画像のポートレート確率を示す。
図16の画像では、顔領域の候補についての最大確率は、0.8である。
従って、式(3)により計算された場合、画像200のポートレート確率はP=0.8である。
ステップ1105で、画像が顔を含むかどうかが、ポートレート確率をしきい値と比較することによって判断される。
ここで使用されるしきい値を、0.4から0.8の範囲内にすることができ、好ましくは0.6である。
ステップ1106で、判断の結果が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。
ステップ1107で、ポートレート確率が添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存される。
ステップ1106及び1107で、添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
判断結果又は確率が保存されている画像を幅広く使用することができる。図12は、このような種類の画像の応用例を例示する。
ステップ1108で、上記のプロセスは終了する。
図12は、ポートレート確率が保存されている画像を処理する、もう1つの方法の流れ図である。ステップ1201で、このプロセスは開始する。ステップ1202で、ポートレート確率が保存されている画像が受信される。
上述のように、この確率情報を添付情報として画像のヘッダ・ファイル又はフッタ・ファイルに、所定のフォーマットで保存することができる。
ステップ1203で、ポートレート確率が画像から、例えば、画像のヘッダ・ファイル又はフッタ・ファイルから検索される。
ステップ1204で、検索された確率がしきい値と比較される。ステップ1205で、ステップ1204の比較結果に基づいて現在の画像がポートレートであるかどうか、即ち顔を含むかどうかが決定される。上記のしきい値を、そのしきい値より上のポートレート確率を有するいかなる画像もポートレートであるという方法で、選択することができる。
ステップ1205の判断結果が肯定である場合、即ち、画像がポートレートである場合、プロセスがステップ1206に進み、そうでない場合はステップ1207に進む。
ステップ1206で、ポートレートに合わせて最適化されたユニークな処理方法が、画像において実行される。ユニークな処理方法をプリンタ、例えば、図17のプリンタ1713のためのプリンタ・ドライバ又はアプリケーション・プログラムによって実行し、顔が、改善された印刷品質で印刷されるようにすることができる。ユニークな処理方法をまた、ディスプレイ、例えば、図17のディスプレイ1714のためのアプリケーション・プログラムによって実行し、顔が高い品質で表示されるようにすることができる。
ステップ1206で、ユニークな処理方法を、画像上で実行されるいずれかのプロセスにすることができる。例えばこれを、画像内で赤目を補正するプロセス、又は画像内で皮膚色の色調を下げるプロセスにすることができる。ステップ1204で使用されるしきい値の値を、異なる応用例に従ってより高い値として、或いはより低い値として選択することができる。
赤目補正の状況では、例えば、画像のうち目ではない部分(例えば、赤いロゴ)が赤目として補正される場合、ユーザには受け入れられなくなる。従って、ステップ1204のしきい値をより高い値に設定し、顔領域のより少ない候補が顔を表すものとして判断されるようにし、従って、画像のより少ない部分が赤目として補正されるようにすることができる。
画像内で人の皮膚の色調を下げる状況では、例えば、画像のうち人の皮膚色を含まない部分(テーブルなど)の色調が下げられる場合、ユーザには受け入れられなくなる(時として気付かれなくなる)。従って、ステップ1204のしきい値をより低い値に設定し、顔領域のより多い候補が顔を表すものとして判断されるようにし、従って、画像のより多い部分の色調が下げられるようにすることができる。
要約すれば、ステップ1204で使用されるしきい値を、画像の処理結果に対するユーザの満足感に従って選択することができる。
ステップ1207で、通常の処理方法が顔領域の候補において実行される。
ステップ1208で、このプロセスは終了する。
図13は、本発明による画像を処理するためのもう1つの装置の概略ブロック図である。
1301は画像入力ユニットを示し、1302は顔領域の候補についての確率の計算器、1303はポートレート確率計算器、1306は確率ライタ、1307は画像出力ユニットを示す。この図に示す装置の重要なコンポーネントは、ポートレート確率計算器1303である。
画像入力ユニット1301は画像を受信し、そのデータを、処理するための装置に入力する。顔領域の候補についての確率の計算器1302は、顔領域の複数の候補を識別し、顔領域の識別された各候補について、顔領域のこの候補が顔を表す確率を計算する。
顔領域の候補についての確率を、図6の確率計算器により、図2又は3の方法、又は顔領域の候補についての確率を計算するいずれかの従来の方法を使用することによって計算することができる。別法として、画像が図2又は3の方法によって処理されており、顔領域の候補についての確率が画像に保存されている場合、顔領域の候補についての確率を画像から検索することができる。顔領域の候補についての確率を計算又は得るための異なる方法は、本発明のいかなる制限も構成しない。
ポートレート確率計算器1303はポートレート確率を、顔領域の候補についての確率の計算器1302によって計算又は得られた確率に基づいて、計算する。ポートレート確率計算器1303において実行される計算は、図11のステップ1104の計算と同じものにすることができる。
確率ライタ1306は、ポートレート確率計算器1303によって計算された確率を添付情報として、処理中の画像に、例えば、そのヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込む。
添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
画像出力ユニット1307は画像を、更に処理するために出力する。
図14は、本発明による画像を処理するためのもう1つの装置の概略ブロック図である。
1401は画像入力ユニットを示し、1402は顔領域の候補についての確率の計算器、1403はポートレート確率計算器を示す。これらのコンポーネントは図13の対応するコンポーネントと同じように機能する。
1404は判断ユニットを示し、1406は判断結果ライタ、1407は画像出力ユニットを示す。判断ユニット1404は、画像がポートレートであるかどうかを、ポートレート確率計算器1403によって計算されたポートレート確率をしきい値と比較することによって、判断する。判断結果ライタ1406は、判断ユニット1404から出力された判断結果を添付情報として画像に、例えば、画像のヘッダ・ファイル又はフッタ・ファイルに所定のフォーマットで書き込む。
判断ユニット1404で使用されるしきい値を、図12のステップ1204と同じ原理で選択することができる。
添付情報及び追加の添付情報を保存するための所定のフォーマットは重要ではなく、本発明の制限を構成しない。データを保存するためのいかなる従来のフォーマット又はデータ構造も使用することができる。
画像出力ユニット1407は画像を、更に処理するために出力する。
図15は、ポートレート確率が保存されている画像を処理するためのもう1つの装置の概略ブロック図である。1501は画像入力ユニットを示し、1502は確率抽出器、1503は判断及び制御ユニット、1504は画像処理ユニット、1505はポートレート用のアルゴリズム、1506は標準画像用のアルゴリズム、1507は画像出力ユニットを示す。
画像入力ユニット1501は画像を受信し、そのデータを、処理するための装置に入力する。画像内に、画像についてのポートレート確率が、例えば図11のステップ1107で、図13の確率ライタ1306によって保存されている。
確率抽出器1502は画像から、例えば、画像のヘッダ・ファイル又はフッタ・ファイルから、顔領域の1つの候補についての確率を検索する。
判断及び制御ユニット1503は、検索された確率をしきい値と比較し、比較結果に基づいて、現在の画像がポートレートであるかどうかを決定し、それに応じて画像処理ユニット1504を制御する。
判断及び制御ユニット1503で使用されるしきい値を、図12のステップ1204と同じ原理で選択することができる。
画像処理ユニット1504は画像入力ユニット1501によって入力された画像を、ポートレート用のアルゴリズム1505及び標準画像用のアルゴリズム1506など異なるアルゴリズムを使用して、判断及び制御ユニット1503の制御下で処理する。判断及び制御ユニット1503により、イメージがポートレートであると決定された場合、画像処理ユニット1504は、ポートレート用のアルゴリズム1505により、そうでない場合は標準画像用のアルゴリズム1506により、画像を処理する。画像処理ユニット1504は例えば、印刷又は表示されるデータを処理するためのプリンタ又はディスプレイ内のコンポーネントである。
画像出力ユニット1507は画像を、更に処理するために出力する。
図17は、図1から図5、図11及び図12に示す各方法を実施できる、画像処理システムを概略的に示す図である。図17の画像処理システムは、CPU(中央処理装置)1701、RAM(ランダム・アクセス・メモリ)1702、ROM(読み取り専用メモリ)1703、システムバス1704、HD(ハード・ディスク)コントローラ1705、キーボードコントローラ1706、シリアルポートコントローラ1707、パラレルポートコントローラ1708、ディスプレイコントローラ1709、ハードディスク1710、キーボード1711、カメラ1712、プリンタ1713及びディスプレイ1714を備える。これらのコンポーネントの中で、システムバス1704に接続されるものは、CPU1701、RAM1702、ROM1703、HDコントローラ1705、キーボードコントローラ1706、シリアルポートコントローラ1707、パラレルポートコントローラ1708及びディスプレイコントローラ1709である。ハードディスク1710はHDコントローラ1705に接続され、キーボード1711はキーボードコントローラ1706に、カメラ1712はシリアルポートコントローラ1707に、プリンタ1713はパラレルポートコントローラ1708に、ディスプレイ1714はディスプレイコントローラ1709に接続される。
図17の各コンポーネントの機能は当技術分野で周知であり、図17のアーキテクチャは従来のものである。このようなアーキテクチャはパーソナルコンピュータに適用されるのみでなく、パームPC、PDA(携帯情報端末)、デジタルカメラなど、ハンドヘルドデバイスにも適用される。異なる応用例では、図17のコンポーネントのいくつかを省略することができる。例えば、システム全体がデジタルカメラである場合、パラレルポートコントローラ1708及びプリンタ1713を省略することができ、このシステムをシングルチップマイクロコンピュータとして実施することができる。アプリケーションソフトウェアがEPROM又は他の不揮発性メモリに格納される場合、HDコントローラ1705及びハードディスク1710を省略することができる。
図17のシステム全体がコンピュータ可読命令によって制御され、これらは通常ソフトウェアとしてハードディスク1710に(或いは上述のように、EPROM又は他の不揮発性メモリに)格納される。このソフトウェアをネットワーク(この図には図示せず)からダウンロードすることもできる。ハードディスク1710に保存されているか、或いはネットワークからダウンロードされたソフトウェアを、RAM1702にロードすることができ、ソフトウェアによって定義された機能を実施するために、CPU1701によって実行することができる。
1つ又は複数のソフトウェアを、図1から図5、図11及び図12の流れ図のうち1つ又は複数に基づいて開発することには、当業者にとって発明的な作業が含まれない。このように開発されたソフトウェアは、図1に示す画像処理装置をトレーニングする方法、図2に示す画像を処理する方法、図3に示す画像を処理する方法、図4に示す画像を処理する方法、図5に示す画像内で人物を識別する方法、図11に示す画像を処理する方法、図12に示す画像を処理する方法を実行する。
ある意味で、図17の画像処理システムは、図1から図5、図11及び図12の流れ図に基づいて開発されたソフトウェアによってサポートされる場合、図6から図8、及び図13から図15の画像を処理するための装置と同じ機能を達成する。
図18は、画像を処理するための装置の一実施例を示す。
図18の装置は、スキャナ1801、メモリ1802及びプリンタ1803を備える。
スキャナ1801は最初に画像をスキャンし、そのデータを、処理するためのメモリ1802に入力する。例えば、スキャナ1801は、図16の画像200をスキャンする。画像200のポートレート確率は、例えば0.91である。
スキャナ1801はメモリ1802に接続される。スキャンされた画像データ及び画像200のポートレート確率が、メモリ1802に格納される。
メモリ1802はプリンタ1803に接続される。プリンタ1803は最初に画像200のポートレート確率を受信し、これをしきい値と比較する。比較結果に基づいて、プリンタ1803は、画像200が顔を含むかどうかを決定する。この例では、画像200のポートレート確率は0.91であり、プリンタ1803は画像200をポートレートとして判断する。
判断の結果に基づいて、アプリケーションソフトウェアプログラム1803Aは描画コマンドグループをプリンタ1803のプリンタドライバ1803Bに発行する。プリンタドライバ1803Bは、印刷リクエスト、及び、アプリケーションソフトウェアプログラム1803Aから入力された描画コマンドを処理し、プリンタ1803により印刷することができる印刷データを生成し、この印刷データをプリンタ1803に送信する。
画像200がポートレートとして判断されるので、プリンタ1803は人の皮膚を再生する。プリンタが人の皮膚を再生するとき、元の画像よりも強い赤を有する画像は、人の感覚にとって好ましくなる傾向にある。
この実施形態では、アプリケーションソフトウェアプログラム1803Aの制御下で、プリンタが、人の皮膚をより強く表す赤色を作成する。従って、プリンタ1803は画像200を高い品質で再生することができる。
また、本発明は、本発明の方法を実施するコンピュータプログラムのコードがその上に記録される記録媒体も提供する。
コンピュータプログラムを供給するための記録媒体として、例えば、フロッピー(登録商標)ディスク、ハードディスク、光ディスク、光磁気ディスク、CD−ROM、CD−R、磁気テープ、不揮発性メモリカード、ROMなどを使用することができる。
上述の実施形態の機能を、読み出されたプログラムコードをコンピュータによって実行することによるだけでなく、コンピュータ上で実行するOS(オペレーティングシステム)によってプログラムコードの命令に基づいて実行された実際の処理動作の一部又は全部によっても、実施することができる。
上述からわかるように、本発明の方法は、画像のポートレート確率を決定し、決定されたポートレート確率を更なる処理のために出力する高速な手法を提供する。この方法は、異なるスケール、向き状態の下のポートレートの正確な決定を可能にする。従って、本発明によれば、この方法又は装置により、画像がポートレートであるかどうかを高速、かつ効果的に決定することができ、決定された画像を更に処理することができる。
本発明は、記録媒体から読み出されたプログラムコードが、コンピュータに挿入される機能拡張カードに、或いは、コンピュータに接続される機能拡張ユニットに設けられたメモリに書き込まれた後、機能拡張カード又はユニットに含まれたCPUなどが、プログラムコードの指示に従ってプロセスの一部又は全体を実行し、上記の実施形態の機能を実現する場合を含む。
本発明が前述の記録媒体に適用される場合、記録媒体は、図1から図5、図11及び図12の流れ図を実施するためのコンピュータプログラムを格納する。
以上説明した実施形態は、画像のポートレート確率を決定して処理するために特殊化されるが、本発明は、ポートレート確率を決定することに限定されず、他の決定方法、例えば、回路基板上にきずの部分がある確率を検出する方法に適用可能である。
本発明の一実施形態における画像処理装置をトレーニングする方法の流れ図である。 本発明による画像を処理する方法であって、図1の方法でトレーニングされた画像処理装置が使用される方法の流れ図である。 本発明による画像を処理するもう1つの方法であって、図1の方法でトレーニングされた複数の画像処理装置が使用される方法の流れ図である。 顔領域の少なくとも1つの候補についての確率が保存されている画像を処理する、もう1つの方法の流れ図である。 顔領域の少なくとも1つの候補についての確率が保存されている画像内で、人物を識別する方法の流れ図である。 本発明による画像を処理するための装置の概略ブロック図である。 本発明による画像を処理するためのもう1つの装置の概略ブロック図である。 顔領域の少なくとも1つの候補についての確率が保存されている画像を処理するための装置の概略ブロック図である。 1000個のトレーニング・サンプル、即ち、画像領域A1、A2、A3、…、A1000を含む、トレーニング・シーケンスを示す図である。 テストを行うための2つの画像領域B1、B2を示す図である。 本発明による画像を処理するもう1つの方法であって、ポートレート確率が画像について計算される方法の流れ図である。 ポートレート確率が保存されている画像を処理する、もう1つの方法の流れ図である。 本発明による画像を処理するためのもう1つの装置の概略ブロック図である。 本発明による画像を処理するためのもう1つの装置の概略ブロック図である。 ポートレート確率が保存されている画像を処理するためのもう1つの装置の概略ブロック図である。 それについてのポートレート確率が計算される、もう1つの画像を示す図である。 図1から図5、図11及び図12の各方法を実施することができる、画像処理システムを概略的に示す図である。 画像を処理するための装置の一実施例を示す図である。
符号の説明
601、701、801、1301、1401、1501 画像入力ユニット
602、702 候補セレクタ
603、703 ベクトル発生器
604、704 確率セレクタ
605、705 確率メモリ
606、1306 確率ライタ
607、708、807、1307、1407、1507 画像出力ユニット
706、1404 判断ユニット
707、1406 判断結果ライタ
802、1502 確率抽出器
803、1503 判断及び制御ユニット
804、1504 画像処理ユニット
805 顔用のアルゴリズム
806、1506 標準画像用のアルゴリズム
1302、1402 顔領域の候補についての確率の計算器
1303、1403 ポートレート確率計算器
1505 ポートレート用のアルゴリズム

Claims (24)

  1. 画像を処理する画像処理方法であって、
    前記画像内で顔領域の1つの候補を識別するステップと、
    前記顔領域の候補が顔を表す確率を計算するステップと、
    前記確率を添付情報として前記画像に保存するステップとを有することを特徴とする画像処理方法。
  2. 前記顔領域の候補の識別情報を追加の添付情報として前記画像に保存するステップを更に有することを特徴とする請求項1に記載の画像処理方法。
  3. 前記添付情報及び前記追加の添付情報は、所定のフォーマットで、前記画像のヘッダ・ファイル又はフッタ・ファイルに保存されることを特徴とする請求項2に記載の画像処理方法。
  4. 画像を処理する画像処理方法であって、
    前記画像内で顔領域の1つの候補を識別するステップと、
    前記顔領域の候補が顔を表す確率を計算するステップと、
    前記顔領域の候補が顔を表すかどうかを、前記確率をしきい値と比較することによって判断するステップと、
    前記判断するステップの結果を添付情報として前記画像に保存するステップとを有することを特徴とする画像処理方法。
  5. 前記顔領域の候補の識別情報を追加の添付情報として前記画像に保存するステップを更に有することを特徴とする請求項4に記載の画像処理方法。
  6. 前記添付情報及び前記追加の添付情報は、所定のフォーマットで、前記画像のヘッダ・ファイル又はフッタ・ファイルに保存されることを特徴とする請求項5に記載の画像処理方法。
  7. 前記確率を計算するステップは、K個のトレーニング方法でトレーニングされたK個の画像処理装置を使用して実行され、Kは1より大きい整数であり、前記K個の各画像処理装置は、対応する所定のアルゴリズムを採用してM次元ベクトルを生成し、
    確率を計算する前記ステップは、
    K個の中間確率p1、p2、…、pKを前記顔領域の候補について得るステップであって、これを前記K個の各画像処理装置内で、
    前記顔領域の候補についてのデータを入力するステップと、
    対応する所定のアルゴリズムを前記顔領域の候補についての前記入力データに適用することにより、前記顔領域の候補についてのM次元ベクトルを生成するステップと、
    個の部分空間の間で、前記顔領域の候補についての前記M次元ベクトルが位置する部分空間を識別するステップと、
    前記識別された部分空間についての前記確率の値を、前記顔領域の候補についての前記確率に割り当てるステップとを実行することによって行うステップと、
    前記顔領域の候補についての確率を、以下の式により計算するステップとを備え、
    ここで、αは1より小さいが1に非常に近い係数であることを特徴とする請求項1に記載の画像処理方法。
  8. 前記K個の各トレーニング方法は、
    N個の画像領域についてのデータを前記画像処理装置に入力するステップであって、Nは1より大きい整数であり、N個の画像領域のうちいくつかは顔を表すステップと、
    前記対応する所定のアルゴリズムを前記N個の各画像領域についての前記入力データにそれぞれ適用することにより、前記N個の画像領域についてN個のM次元ベクトルを生成するステップであって、前記N個のM次元ベクトルのうちいくつかは顔に対応し、前記N個のM次元ベクトルがM次元空間において分散されるステップと、
    前記M次元空間を、
    個の部分空間に分割して、各部分空間に分散された前記M次元ベクトルの数が同じであり、
    に等しくなるようにするステップであって、K1、K2、…、KMは1より大きい整数であるステップと、
    各部分空間において分散された前記M次元ベクトルの総数を、同じ部分空間において分散され、かつ顔に対応する前記M次元ベクトルの数で割ることによって、各部分空間についての確率を計算するステップと、
    前記画像処理装置における前記
    個の部分空間についての場所及び確率を保存するステップとを有することを特徴とする請求項7に記載の画像処理方法。
  9. Kは1に等しく、αは1に等しいことを特徴とする請求項8に記載の画像処理方法。
  10. 画像を処理するための画像処理装置であって、
    前記画像内で顔領域の1つの候補を識別するための候補セレクタと、
    前記顔領域の候補が顔を表す確率を計算するための確率計算器と、
    前記確率を添付情報として前記画像に書き込むための確率ライタとを備えることを特徴とする画像処理装置。
  11. 画像を処理するための画像処理装置であって、
    前記画像内で顔領域の1つの候補を識別するための候補セレクタと、
    前記顔領域の候補が顔を表す確率を計算するための確率計算器と、
    前記顔領域の候補が顔を表すかどうかを、前記確率をしきい値と比較することによって判断するための判断ユニットと、
    前記判断ユニットの出力を添付情報として前記画像に書き込むための判断結果ライタとを備えることを特徴とする画像処理装置。
  12. 画像を処理する画像処理方法であって、
    少なくとも1つの確率を得るステップであって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表すステップと、
    前記画像についてのポートレート確率を前記少なくとも1つの確率に基づいて計算するステップと、
    前記ポートレート確率を添付情報として前記画像に保存するステップとを有することを特徴とする画像処理方法。
  13. 前記添付情報は所定のフォーマットで、前記画像のヘッダ・ファイル又はフッタ・ファイルに保存されることを特徴とする請求項12に記載の画像処理方法。
  14. 画像を処理する画像処理方法であって、
    少なくとも1つの確率を得るステップであって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表すステップと、
    前記画像についてのポートレート確率を前記少なくとも1つの確率に基づいて計算するステップと、
    前記画像がポートレートであるかどうかを、前記ポートレート確率をしきい値と比較することによって判断するステップと、
    前記判断するステップの結果を添付情報として前記画像に保存するステップとを有することを特徴とする画像処理方法。
  15. 前記添付情報は所定のフォーマットで、前記画像のヘッダ・ファイル又はフッタ・ファイルに保存されることを特徴とする請求項14に記載の画像処理方法。
  16. ポートレート確率を計算する前記ステップが、以下の式において実行され、
    piは顔領域のi番目の候補についての前記確率を示し、Nは前記画像内の顔領域の候補の数を示し、Pは前記画像の前記ポートレート確率を示すことを特徴とする請求項12に記載の画像処理方法。
  17. ポートレート確率を計算する前記ステップが、以下の式において実行され、
    psiは顔領域の候補についてのi番目の最大確率を示し、Kは前記画像内の顔領域の候補のうち、前記最大確率を有するように選択されるものの数を示し、Pは前記画像の前記ポートレート確率を示すことを特徴とする請求項12に記載の画像処理方法。
  18. ポートレート確率を計算する前記ステップが、以下の式において実行され、
    P=Max{p1、p2、p3、…、pN}
    piは顔領域のi番目の候補についての前記確率を示し、Nは前記画像内の顔領域の候補の数を示し、Pは前記画像の前記ポートレート確率を示すことを特徴とする請求項12に記載の画像処理方法。
  19. 画像を処理するための画像処理装置であって、
    少なくとも1つの確率を得るための、顔領域の候補についての確率の計算器であって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表す計算器と、
    前記画像がポートレートである前記画像のポートレート確率を計算するためのポートレート確率計算器と、
    前記確率を添付情報として前記画像に書き込むための確率ライタとを備えることを特徴とする画像処理装置。
  20. 画像を処理するための画像処理装置であって、
    少なくとも1つの確率を得るための、顔領域の候補についての確率の計算器であって、前記少なくとも1つの各確率は、前記画像内の顔領域の1つの候補が顔を表す確率を表す計算器と、
    前記顔領域の候補が顔を表す確率を計算するためのポートレート確率計算器と、
    前記画像がポートレートであるかどうかを、前記確率をしきい値と比較することによって判断するための判断ユニットと、
    前記判断ユニットの出力を添付情報として前記画像に書き込むための判断結果ライタとを備えることを特徴とする画像処理装置。
  21. コンピュータに、請求項1に記載された画像処理方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  22. コンピュータに、請求項4に記載された画像処理方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  23. コンピュータに、請求項12に記載された画像処理方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
  24. コンピュータに、請求項14に記載された画像処理方法を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体。
JP2003412157A 2002-12-13 2003-12-10 画像処理方法及び装置 Pending JP2004199673A (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CNB021554684A CN1306456C (zh) 2002-12-13 2002-12-13 图像处理方法和装置
CN 02156660 CN1275197C (zh) 2002-12-17 2002-12-17 图像处理方法和装置

Publications (1)

Publication Number Publication Date
JP2004199673A true JP2004199673A (ja) 2004-07-15

Family

ID=32683265

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2003412157A Pending JP2004199673A (ja) 2002-12-13 2003-12-10 画像処理方法及び装置

Country Status (2)

Country Link
US (1) US7415137B2 (ja)
JP (1) JP2004199673A (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080014A (ja) * 2005-09-15 2007-03-29 Fujifilm Corp 画像評価装置および方法並びにプログラム
US8265423B2 (en) 2007-11-30 2012-09-11 Canon Kabushiki Kaisha Image processing for arranging images based on size ratio

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3925476B2 (ja) * 2003-08-08 2007-06-06 セイコーエプソン株式会社 撮影場面の判定および撮影場面に応じた画像処理
JP4046079B2 (ja) * 2003-12-10 2008-02-13 ソニー株式会社 画像処理装置
US7693306B2 (en) * 2005-03-08 2010-04-06 Konami Gaming, Inc. System and method for capturing images from mobile devices for use with patron tracking system
CN101115147B (zh) * 2006-07-25 2010-07-14 富士胶片株式会社 摄影装置和方法
JP4228320B2 (ja) * 2006-09-11 2009-02-25 ソニー株式会社 画像処理装置および方法、並びにプログラム
CN101398832A (zh) * 2007-09-30 2009-04-01 国际商业机器公司 利用人脸检测的图像搜索方法和系统
JP5164692B2 (ja) * 2008-06-27 2013-03-21 キヤノン株式会社 画像処理装置、画像処理方法、及び、プログラム
US20100295782A1 (en) 2009-05-21 2010-11-25 Yehuda Binder System and method for control based on face ore hand gesture detection
KR20110007838A (ko) * 2009-07-17 2011-01-25 삼성전자주식회사 영상 처리 방법 및 장치
JP2011065277A (ja) * 2009-09-15 2011-03-31 Toshiba Corp 電子機器、画像表示方法およびコンテンツ再生プログラム
CN107820619B (zh) * 2017-09-21 2019-12-10 达闼科技(北京)有限公司 一种分级交互决策方法、交互终端以及云端服务器
CN111767760A (zh) * 2019-04-01 2020-10-13 北京市商汤科技开发有限公司 活体检测方法和装置、电子设备及存储介质

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5636292C1 (en) * 1995-05-08 2002-06-18 Digimarc Corp Steganography methods employing embedded calibration data
US6940545B1 (en) * 2000-02-28 2005-09-06 Eastman Kodak Company Face detecting camera and method
EP1211640A3 (en) 2000-09-15 2003-10-15 Canon Kabushiki Kaisha Image processing methods and apparatus for detecting human eyes, human face and other objects in an image
CN1262969C (zh) 2000-09-15 2006-07-05 佳能株式会社 人眼检测方法和人眼检测设备
US6697502B2 (en) * 2000-12-14 2004-02-24 Eastman Kodak Company Image processing method for detecting human figures in a digital image

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007080014A (ja) * 2005-09-15 2007-03-29 Fujifilm Corp 画像評価装置および方法並びにプログラム
US8265423B2 (en) 2007-11-30 2012-09-11 Canon Kabushiki Kaisha Image processing for arranging images based on size ratio
US8660381B2 (en) 2007-11-30 2014-02-25 Canon Kabushiki Kaisha Image processing apparatus, method, and computer readable medium for arranging images based on size ratio

Also Published As

Publication number Publication date
US20040131235A1 (en) 2004-07-08
US7415137B2 (en) 2008-08-19

Similar Documents

Publication Publication Date Title
US7986813B2 (en) Object pose estimation and comparison system using image sharpness differences, object pose estimation and comparison method using image sharpness differences, and program therefor
US6816611B1 (en) Image processing method, facial region extraction method, and apparatus therefor
EP1677250B1 (en) Image collation system and image collation method
US8306282B2 (en) Hierarchical face recognition training method and hierarchical face recognition method thereof
US8358838B2 (en) Red eye detecting apparatus, red eye detecting method and red eye detecting program stored on a computer readable medium
JP2004199673A (ja) 画像処理方法及び装置
JP4624889B2 (ja) 顔検出方法および装置並びにプログラム
JP2006301847A (ja) 顔検出方法および装置並びにプログラム
JP2007226512A (ja) 特定向き顔判定方法および装置並びにプログラム
JP2011134114A (ja) パターン認識方法およびパターン認識装置
JP2005092759A (ja) 画像処理装置、画像処理方法、および赤目検出方法ならびにプログラム
JP2007047965A (ja) デジタル画像の対象物検出方法および装置並びにプログラム
JP4708948B2 (ja) 顔向き特定方法、顔判別方法および装置並びにプログラム
JP2007233871A (ja) 画像処理装置、コンピュータの制御方法及びプログラム
JP4757598B2 (ja) 顔検出方法および装置並びにプログラム
JP4393720B2 (ja) パターン認識装置および方法
JP2008003749A (ja) 特徴点検出装置および方法並びにプログラム
JP4957607B2 (ja) 画像における顔領域の検出
JP4816874B2 (ja) パラメータ学習装置、パラメータ学習方法、およびプログラム
JP2011170890A (ja) 顔検出方法および装置並びにプログラム
CN100377164C (zh) 用于检测图像中的人脸肤色区域的方法、装置和存储介质
JP4795737B2 (ja) 顔検出方法および装置並びにプログラム
JP7420263B2 (ja) 情報処理装置、情報処理方法およびプログラム
JP2006244385A (ja) 顔判別装置およびプログラム並びに顔判別装置の学習方法
JP2021177312A (ja) 情報処理装置、情報処理方法

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060529

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20060728

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20060901