JP2007213582A - デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置 - Google Patents

デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置 Download PDF

Info

Publication number
JP2007213582A
JP2007213582A JP2007028455A JP2007028455A JP2007213582A JP 2007213582 A JP2007213582 A JP 2007213582A JP 2007028455 A JP2007028455 A JP 2007028455A JP 2007028455 A JP2007028455 A JP 2007028455A JP 2007213582 A JP2007213582 A JP 2007213582A
Authority
JP
Japan
Prior art keywords
digital image
sub
image data
object part
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007028455A
Other languages
English (en)
Inventor
Sergey Ioffe
イオッフェ セルゲイ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujifilm Corp
Original Assignee
Fujifilm Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujifilm Corp filed Critical Fujifilm Corp
Publication of JP2007213582A publication Critical patent/JP2007213582A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Geometry (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】デジタル画像内のオブジェクト・パーツの位置を特定する方法および装置。
【解決手段】一実施形態による方法は、オブジェクト・パーツを含むデジタル画像データにアクセスし、オブジェクト・パーツのオブジェクト・パーツ位置の初期位置推定値を取得し、オブジェクト・パーツ位置の初期位置推定値の周囲のサブ画像ウィンドウを抽出し、サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算し、計算された特徴値に基づいてオブジェクト・パーツ位置の更新された位置推定値を決定する。
【選択図】図1

Description

本発明は、デジタル画像処理技術に関し、より詳細には、デジタル画像内のオブジェクトを見つけ出す方法および装置に関する。
本非仮出願は、参照によりその全内容が本明細書に組み込まれる、「Method and Apparatus for Estimating Object Part Location in Digital Image Data Using Feature Value Analysis」という名称の、本出願と同時に提出された同時係属の非仮出願に関連する。
顔認識は、人間の顔の研究および処理を対象にしているデジタル画像処理技術において重要な役割を果たす。顔認識システムは、人の身元の識別に使用されるセキュリティ・システムに含めることができ、顔などを含む写真などの媒体を構成するのを助けることができる。
人物および物体を含む画像が提供されたとき、既知の顔認識システムは、人物の顔が画像のどこに配置されているかを識別する。次いで顔認識システムは、画像内の人物の顔のみを処理するために選択する。顔の識別のタスクは、画像に含まれている顔以外のエリアおよび物体によって、またポーズ、照明、表情など、画像内の人物の顔のばらつきによって複雑になる。画像内の人間の顔の場所を特定する技術は、画像のどのエリアが関連しているかを顔認識システムが識別するのを助けることができる。さらに、画像内の人間の顔の場所を特定する技術は、顔に加えて他の多くのタイプの物体を識別するのに使用するように構成することができる。例えば、こうした技術は、建物、木、車などを識別するために使用することができる。
いくつかの出版物は、デジタル画像におけるオブジェクトの識別を研究している。こうした技術の1つは、「Apparatus and Method for Extracting Object Based on Feature Matching Between Segmented Regions in Images」という名称の米国特許出願公開第2002/0136449A1号明細書(特許文献1)に記載されている。この研究に記載されている方法は、オブジェクト抽出対象画像とオブジェクトの参照画像である問い合わせ画像(query image)との間で一致するピクセルベースの特徴を使用してオブジェクトをオブジェクト抽出対象画像(object extraction target image)から抽出する。問い合わせ画像および対象画像は、色およびテクスチャを含む特徴に基づいてセグメント化され、照合される。しかし、この方法は、オブジェクトの参照画像の存在に依存しており、多くの場合、こうした参照画像は、入手できない。
デジタル画像内のオブジェクトの識別のための別の技術は、「Target Object Detecting Method,Apparatus,and Program」という名称の米国特許出願公開第2005/0190963A1号明細書(特許文献2)に記載されている。この研究に記載されている方法は、存在することはわかっているが、他の標準対象オブジェクト検出プロセスによって検出されなかったオブジェクトを検出する。対象オブジェクトを検出するために、対象オブジェクトの予め定められた特定の特徴にそれぞれ一致する複数の特徴的な対象オブジェクト検出プロセスが実行される。しかし、この方法は、対象オブジェクトの予め定められた特徴を使用し、このことは、様々な特徴のオブジェクト、または予め定められた特徴を表さないオブジェクトが提供されたとき、検出プロセスを制限し、問題を提起する可能性がある。
米国特許出願公開第2002/0136449A1号明細書 米国特許出願公開第2005/0190963A1号明細書
本出願の開示された実施形態は、デジタル画像内のオブジェクトの一部分の場所を特定するための方法および装置を使用することによって、これらおよび他の問題に対処する。この方法および装置は、あるオブジェクト・パーツの特徴値(feature value)を計算して、オブジェクト・パーツの位置推定値を決定し、改良する。
本発明は、デジタル画像内のオブジェクト・パーツの場所を特定する方法および装置を対象とする。本発明の第1の態様によれば、デジタル画像内のオブジェクト・パーツの場所を特定する方法は、オブジェクト・パーツを含むデジタル画像データにアクセスするステップと、オブジェクト・パーツのオブジェクト・パーツ位置の初期位置推定値を取得するステップと、オブジェクト・パーツ位置の初期位置推定値の周囲のサブ画像ウィンドウを抽出するステップと、サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算するステップと、計算された特徴値に基づいてオブジェクト・パーツ位置の更新された位置推定値を決定するステップとを含む。
本発明の第2の態様によれば、デジタル画像内のオブジェクト・パーツの場所を特定する装置は、オブジェクト・パーツを含むデジタル画像データを提供する画像データ・ユニットと、デジタル画像データからオブジェクト・パーツ・サブ画像を抽出するサブ画像分析ユニットであって、オブジェクト・パーツのオブジェクト・パーツ位置の初期位置推定値を取得し、オブジェクト・パーツ位置の初期位置推定値の周囲のサブ画像ウィンドウを抽出することによってオブジェクト・パーツ・サブ画像を抽出するサブ画像分析ユニットと、オブジェクト・パーツ位置を推定する特徴値分析ユニットであって、サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算し、計算された特徴値に基づいてオブジェクト・パーツ位置の更新された位置推定値を決定することによって、オブジェクト・パーツ位置を推定する特徴値分析ユニットとを含む。
本発明のこれ以上の態様および利点は、以下の詳細な説明を添付の図面と併せ読めば、明らかになる。
添付の図面を参照して、次の説明に本発明の態様がより具体的に記載される。図1は、本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットを含むシステムの概略ブロック図である。図1に示されているシステム90は、以下の構成要素、すなわち画像入力ユニット105、画像処理ユニット120、ディスプレイ155、画像出力ユニット145、ユーザ入力ユニット165、および印刷ユニット135を含む。図1のシステム90の動作は、以下の説明から明らかになる。
画像入力ユニット105は、デジタル画像データを提供する。デジタル画像データは、物体および人物を含む画像を表す。画像入力ユニット105は、デジタル画像データを提供する任意の数の装置のうちの1つまたは複数とすることができる。こうした装置には、例えば、フィルムに記録された画像をスキャンするスキャナ、デジタル・カメラ、CD−R、フレキシブルディスク、USBドライブなどの記録媒体、画像を格納するデータベース・システム、ネットワーク接続、画像を処理するコンピュータ・アプリケーションなどデジタル・データを出力する画像処理システムなどがある。
画像処理ユニット120は、画像入力ユニット105からデジタル画像データを受信し、以下に詳しく説明するように、デジタル画像データ内のオブジェクトの場所を特定する。ユーザ、例えば顔認識システムを使用するセキュリティ施設のオペレータなどは、ディスプレイ155を介して、オブジェクト・パーツ位置推定値の中間結果を含む画像処理ユニット120の出力を見たり、ユーザ入力ユニット165を介して画像処理ユニット120にコマンドを入力したりすることができる。図1に示された実施形態では、ユーザ入力ユニット165は、キーボード168およびマウス169を含む。本発明の実施形態に従ってデジタル画像データ内のオブジェクトの場所を特定することに加えて、画像処理ユニット120は、ユーザ入力ユニット165から受信されたコマンドに従って、画像補正機能、圧縮など、追加の画像処理機能を行うことができる。
印刷ユニット135は、画像処理ユニット120の出力を受信し、処理された画像データのハード・コピーを生成する。印刷ユニット135は、画像処理ユニット120によって出力された画像データによって感光材料を露出して、画像を感光材料に記録する。印刷ユニット135は、レーザ・プリンタなど、他の形をとることができる。画像処理ユニット120の出力のハード・コピーの生成に加えて、またはその代替として、処理された画像データは、例えば携帯用の記録媒体やネットワーク(図示せず)などを介して、画像ファイルとして出力することができる。画像処理ユニット120の出力は、様々な目的のために画像データに対してさらに操作を行う画像出力ユニット145に送信することもできる。
図2は、本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニット120のブロック図である。図2に示されるように、本実施形態による画像処理ユニット120は、画像データ取り出し・前処理ユニット170、サブ画像分析ユニット180、および特徴値分析ユニット190を含む。図2の様々な構成要素は、個別の要素として示されているが、こうした例示は、説明を容易にするためのものであり、様々な構成要素のいくつかの操作が同じ物理的な装置によって、例えば1つまたは複数のマイクロプロセッサによって実行されてもよいことを理解されたい。
一般に、図2に示されている画像処理ユニット120の要素の構成は、デジタル画像データを取り出し、デジタル画像データに対する前処理操作を行い、デジタル画像データ内のオブジェクト・パーツの場所を特定する。画像データ取り出し・前処理ユニット170は、画像入力ユニット105からデジタル画像データを受信し、デジタル画像データに対する前処理操作を行う。デジタル画像データは、人物や建物などのグループなど、様々なオブジェクトを含む生の画像とすることができる。デジタル画像データに対する前処理操作は、サイズ変更、クロッピング、画像登録などを含み得る。
デジタル画像データに含まれる画像は、顔、建物などのオブジェクトを含み得る。オブジェクト・パーツとは、オブジェクトの一部分を含む画像のある部分である。一例として、オブジェクトとして顔を含む画像で、オブジェクト・パーツは、顔の目とすることができる。画像のサブ画像は、オブジェクト・パーツの位置にわたってまたはその周囲に拡張することによって、オブジェクト・パーツに接続する領域である。一例として、オブジェクトとして顔を含み、オブジェクト・パーツとして目を含む画像で、サブ画像は、目または目の一部分を含む領域またはウィンドウとすることができる。
画像データ取り出し・前処理ユニット170は、前処理されたデジタル画像データをサブ画像分析ユニット180に送信し、サブ画像分析ユニットは、特徴値分析ユニット190と通信する。サブ画像分析ユニット180は、オブジェクト・パーツのサブ画像の選択、およびデジタル画像データ内のサブ画像に対する操作を行う。特徴値分析ユニット190は、サブ画像分析ユニット180から受信されたサブ画像に関連付けられている特徴値を使用して、デジタル画像データ内のオブジェクト・パーツの場所を特定する。特徴値分析ユニット190の出力は、デジタル画像内の1つまたは複数のオブジェクト・パーツの位置推定値を含む。デジタル画像データは、1つまたは複数のオブジェクト・パーツの位置推定値とともに、画像出力ユニット145、印刷ユニット135、および/またはディスプレイ155に出力されてもよい。
次に、図2に示される画像処理ユニット120に含まれる構成要素の操作について、図3〜7を参照して説明する。画像データ取り出し・前処理ユニット170、サブ画像分析ユニット180、および特徴値分析ユニット190は、ソフトウェア・パッケージ/アプリケーションである。
図3Aは、図2に示された本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニット120によって実行される操作を示すフロー図である。画像データ取り出し・前処理ユニット170は、オブジェクトを含む画像を入力し、前処理する(S301)。画像に対する前処理操作は、画像のクロッピング、回転、登録などを含み得る。サブ画像分析ユニット180は、オブジェクトを含む画像を受信し、オブジェクトに含まれているオブジェクト・パーツの初期位置を推定する(S315)。初期位置推定値を取得するために、まず、「粗い」パーツ検出器がオブジェクトに適用されて、オブジェクトを大まかに位置合わせする。次いで予め定められたオブジェクト・パーツのグランド・トゥルース位置が使用されて、オブジェクト・パーツ位置の初期推定値を生成する。一例として、オブジェクトが顔であり、オブジェクト・パーツが鼻の隅であるとき、顔は、大まかに正規化され、または位置合わせされる。鼻の隅の初期位置推定値は、一般的に正規化された顔の一般的な鼻の隅のために予め定められた定位置である。
サブ画像分析ユニット180は、次に、位置推定値の周囲のサブ画像ウィンドウを抽出する(S318)。特徴値分析ユニット190は、サブ画像分析ユニット180からサブ画像を受信し、サブ画像から特徴値を抽出する(S322)。特徴値分析ユニット190は、次いでサブ画像ウィンドウの抽出された特徴値を分析する(S325)。ステップS325で行われた特徴分析に基づいて、特徴値分析ユニット190は、オブジェクト・パーツ位置の位置推定値を更新する(S328)。次いで特徴値分析ユニット190は、オブジェクト・パーツ位置の更新された位置推定値をサブ画像分析ユニット180に送信する(S331)。
オブジェクト・パーツ位置の更新された位置推定値を受信すると、サブ画像分析ユニット180は、続いて、更新された位置推定値の周囲のサブ画像ウィンドウを抽出する(S318)。ステップS318、S322、S325、S328、およびS331は、位置推定値を改良するために、反復して繰り返される。位置推定値が十分良くなると、反復は停止する。反復数は、画像処理ユニット120のテスト中に決定することができる。一実装形態では、6回の反復が使用されている。3回の反復で6回の反復と同じように良好に機能することが決定されると、反復数は3回に低減された。最後の反復の後、特徴値分析ユニット190は、オブジェクト・パーツ位置の最後の位置推定値を出力する(S345)。一実装形態では、ステップS318、S322、S325、およびS328は、サブピクセル精度で実行される。
図3Bは、図2に示された本発明の一実施形態によるデジタル画像データ内の複数のオブジェクト・パーツの場所を特定する画像処理ユニット120によって実行される操作を示すフロー図である。画像データ取り出し・前処理ユニット170は、オブジェクトを含む画像を入力し、前処理する(S401)。オブジェクトは、いくつかのオブジェクト・パーツを含んでいてもよい。画像に対する前処理操作は、画像のクロッピング、回転、登録などを含み得る。サブ画像分析ユニット180は、オブジェクトを含む画像を受信し、オブジェクトに含まれるオブジェクト・パーツのうちの1つを選択する(S404)。次いでサブ画像分析ユニット180は、オブジェクトに含まれている選択されたオブジェクト・パーツの初期位置を推定し(S415)、その位置推定値の周囲のサブ画像ウィンドウを抽出する(S418)。特徴値分析ユニット190は、サブ画像分析ユニット180からサブ画像を受信し、サブ画像から特徴値を抽出する(S422)。特徴値分析ユニット190は、次いでサブ画像ウィンドウの抽出された特徴値を分析する(S425)。ステップS425で行われた特徴分析に基づいて、特徴値分析ユニット190は、オブジェクト・パーツ位置の位置推定値を更新する(S428)。次いで特徴値分析ユニット190は、オブジェクト・パーツ位置の更新された位置推定値をサブ画像分析ユニット180に送信する(S431)。
オブジェクト・パーツ位置の更新された位置推定値を受信すると、サブ画像分析ユニット180は、続いて、更新された位置推定値の周囲のサブ画像ウィンドウを抽出する(S418)。ステップS418、S422、S425、S428、およびS431は、位置推定値を改良するために、反復して繰り返される。位置推定値が十分良くなると、反復は停止する。この時点で、特徴値分析ユニット190は、オブジェクト・パーツ位置の最後の位置推定値を出力する(S445)。
次いでサブ画像分析ユニット180は、分析すべきオブジェクト・パーツがさらにオブジェクトにあるかどうかを決定するためのテストを行う(S452)。回答がYesである場合、サブ画像分析ユニット180は、オブジェクトの別のオブジェクト・パーツを選択し(S458)、新しく選択されたオブジェクト・パーツの初期位置を推定する(S415)。新しく選択されたオブジェクト・パーツの位置推定値を改良するプロセスは、オブジェクト・パーツ位置の更新された位置推定値が特徴値分析ユニット190によって出力される(S445)まで、ステップS418、S422、S425、S428、およびS431を繰り返し続ける。異なるオブジェクト・パーツの位置を推定するために、異なる特徴値を使用することができる。すべてのオブジェクト・パーツが分析されると、アルゴリズムが停止する(S460)。一実装形態では、ステップS418、S422、S425、およびS428は、サブピクセル精度で実行される。
図4は、図3Aのフロー図に示された動作によるオブジェクト・パーツ位置の位置推定値を更新する操作の態様を示す。図4は、図3AのステップS325およびS328を実行する技術例を示す。顔オブジェクトF465は、オブジェクト・パーツP470、P472、P474、およびP476を含み、これらはそれぞれ、左目、右目、左口隅、右口隅である。オブジェクト・パーツP470の位置が分析される。このために、オブジェクト・パーツP470の初期位置(x0,y0)が推定され、オブジェクト・パーツP470の(x0,y0)位置推定値の周囲のサブ画像ウィンドウS480が抽出される。次いで特徴値分析ユニット190は、サブ画像ウィンドウS480の特徴値を分析し、サブ画像S480の中央の(x0,y0)を中心とする座標系CS481に対するオブジェクト・パーツP470の実際のずれdxおよびdyを推定する。ずれは、一例として、座標系CS481のdx=2.3単位およびdy=−1.5単位であることがわかる。次いで、特徴値分析ユニット190は、オブジェクト・パーツP470の位置推定値を位置(x1,y1)に更新する。オブジェクトP470の新しい(x1,y1)位置推定値の周囲のサブ画像ウィンドウS490が抽出される。特徴値分析ユニット190は、今度はサブ画像ウィンドウS490の特徴値を再度分析して、サブ画像S490の中央の(x1,y1)を中心とする座標系CS491に対するオブジェクト・パーツP470の実際のずれdxおよびdyを決定する。オブジェクト・パーツP470の位置推定値は、上述した操作を繰り返すことによって、数回更新し、改良することができる。
図5は、図2に示された本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニット120の出力例を示す。画像処理ユニット120への入力は、顔の画像である。サブ画像分析ユニット180は、顔の目、鼻、および口に属するオブジェクト・パーツの初期位置を推定する。特徴値分析ユニット190およびサブ画像分析ユニット180は、選択されたオブジェクト・パーツの位置推定値を更新するために、反復を行う。次いで、特徴値分析ユニット190は、オブジェクト・パーツの位置が明らかにマークされている顔の画像を出力する。図5の顔の見つけ出されたオブジェクト・パーツは、右目外隅(REO)、右目中央(REC)、右目内隅(REI)、左目外隅(LEO)、左目中央(LEC)、左目内隅(IEI)、鼻先(TON)、鼻中央(CON)、口右隅(MRC)、口左隅(MLC)、および口中央先(MCT)である。
図6は、本発明の第2の実施形態による訓練データを使用してデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットのブロック図である。図6に示されるように、画像処理ユニット120Aは、以下の構成要素、画像データ取り出し・前処理ユニット170A、サブ画像分析ユニット180A、特徴値分析ユニット190A、訓練ユニット510、および訓練データ・ユニット520を含む。本発明のこの第2の実施形態によれば、画像データ取り出し・前処理ユニット170A、サブ画像分析ユニット180A、および特徴値分析ユニット190Aは、第1の実施形態の対応する要素と同様に機能し得る。図6に示されているこの第2の実施形態によれば、訓練ユニット510は、1つまたは複数のタイプのオブジェクトのオブジェクト・パーツ位置を推定することを訓練する。訓練ユニット510は、1つまたは複数のタイプのオブジェクトの初期オブジェクト・パーツ位置を推定することも訓練する。一実装形態では、訓練ユニット510は、人間の顔のオブジェクト・パーツの場所を特定することを訓練する。訓練ユニット510によって蓄積された知識は、訓練データ・ユニット520に格納される。
画像処理ユニット120Aの操作は、一般に、2つの段階、すなわちオブジェクト・パーツ位置の(1)訓練、および(2)操作に分けることができる。訓練段階は、「Method and Apparatus for Estimating Object Part Location in Digital Image Data Using Feature Value Analysis」という名称の相互参照の関連出願に記載されている方法を使用して実行することができる。この方法によれば、訓練ユニット510は、線形判別分析を使用して、オブジェクト・パーツ位置を推定することを訓練することができる。画像処理ユニット120Aの操作段階は、図3A〜3Bに示されている画像処理ユニット120の操作と類似しており、さらに、訓練データ・ユニット520からの訓練データは、図3AのステップS322、S325、S328、および図3BのステップS422、S425、およびS428で使用される。画像処理ユニット120Aの操作段階は、「Method and Apparatus for Estimating Object Part Location in Digital Image Data Using Feature Value Analysis」という名称の同じ相互参照の関連出願に記載されている方法を使用して実行することができる。
図7は、本発明の第3の実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニット120Bを含む顔認識を実行するシステム121のブロック図である。システム121は、デジタル画像データのオブジェクト・パーツの場所を特定する画像処理ユニット120B、幾何学的正規化ユニット(geometric normalization unit)603、および顔認識ユニット605を含む。本発明のこの第3の実施形態によれば、画像処理ユニット120Bに含まれている画像データ取り出し・前処理ユニット170B、サブ画像分析ユニット180B、および特徴値分析ユニット190Bは、第1または第2の実施形態の対応する要素と同様に機能し得る。図7に示されているこの第3の実施形態によれば、画像入力ユニット105は、顔を含むデジタル画像データを画像処理ユニット120Bに送信し、これは、複数のオブジェクト・パーツ位置を特定する。顔画像の関連するオブジェクト・パーツは、両目の隅、口の隅、鼻の隅などを含む。個々の顔画像は、オブジェクト・パーツ位置推定値とともに、画像処理ユニット120Bによって出力され、幾何学的正規化ユニット603に送信され、幾何学的正規化ユニットは、場所が特定すられた顔の特徴(オブジェクト・パーツ)間の距離を使用して画像のサイズを正規化する。幾何学的正規化ユニット603からの幾何学的に正規化された画像は、オブジェクト・パーツ位置推定値とともに、顔認識ユニット605に送信される。顔認識ユニット605は、画像内の顔の顔分類を行う。顔認識ユニット605は、顔の画像を、顔の識別および/または分類とともに出力する。こうした顔認識の結果は、画像出力ユニット153、ディスプレイ163、および/または印刷ユニット143に出力されてもよい。
上述した実施形態は、様々な技術でオブジェクト・パーツの場所を特定するために使用することができる。記載された実施形態を使用できる技術の例には、顔認識や、車両認識などの地上物体認識などがある。
本発明の詳細な実施形態および実装形態について上述したが、本発明の意図および範囲から逸脱することなく、様々な変更が可能であることは明らかである。
本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットを含むシステムを示す概略ブロック図である。 本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットを示すブロック図である。 図2に示された本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットによって実行される操作を示すフロー図である。 図2に示された本発明の一実施形態によるデジタル画像データ内の複数のオブジェクト・パーツの場所を特定する画像処理ユニットによって実行される操作を示すフロー図である。 図3Aのフロー図に示された動作によるオブジェクト・パーツ位置の位置推定値を更新する操作の態様を示す図である。 図2に示された本発明の一実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットの出力例を示す図である。 本発明の第2の実施形態による訓練データを使用してデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットを示すブロック図である。 本発明の第3の実施形態によるデジタル画像データ内のオブジェクト・パーツの場所を特定する画像処理ユニットを含む顔認識を実行するシステムを示すブロック図である。
符号の説明
90 システム
105 画像入力ユニット
120 画像処理ユニット
120A 画像処理ユニット
120B 画像処理ユニット
121 システム
135 印刷ユニット
143 印刷ユニット
145 画像出力ユニット
153 画像出力ユニット
155 ディスプレイ
163 ディスプレイ
165 ユーザ入力ユニット
168 キーボード
169 マウス
170 画像データ取り出し・前処理ユニット
170A 画像データ取り出し・前処理ユニット
170B 画像データ取り出し・前処理ユニット
180 サブ画像分析ユニット
180A サブ画像分析ユニット
180B サブ画像分析ユニット
190 特徴値分析ユニット
190A 特徴値分析ユニット
190B 特徴値分析ユニット
510 訓練ユニット
520 訓練データ・ユニット
603 幾何学的正規化ユニット
605 顔認識ユニット

Claims (20)

  1. デジタル画像内のオブジェクト・パーツの場所を特定する方法であって、
    オブジェクト・パーツを含むデジタル画像データにアクセスするステップと、
    前記オブジェクト・パーツのオブジェクト・パーツ位置の初期位置推定値を取得するステップと、
    前記オブジェクト・パーツ位置の前記初期位置推定値の周囲のサブ画像ウィンドウを抽出するステップと、
    前記サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算するステップと、
    前記計算された特徴値に基づいて前記オブジェクト・パーツ位置の更新された位置推定値を決定するステップと、
    を含む方法。
  2. 前記オブジェクト・パーツ位置の前記更新された位置推定値の周囲の更新されたサブ画像ウィンドウを抽出するために前記抽出ステップを実行し、前記オブジェクト・パーツ位置の次の更新された位置推定値を取得するために前記更新されたサブ画像ウィンドウを使用して前記計算ステップおよび前記決定ステップを実行することによって、前記オブジェクト・パーツ位置の次の更新された位置推定値を繰り返し決定するステップをさらに含む請求項1に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  3. 複数の特徴値を使用して、前記デジタル画像データ内の複数のオブジェクト・パーツについて、前記抽出ステップ、前記計算ステップ、および前記決定ステップを実行して、前記複数のオブジェクト・パーツの複数の更新された位置推定値を取得するステップをさらに含む請求項2に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  4. 前記デジタル画像データの前記複数のオブジェクト・パーツの前記複数の更新された位置推定値を使用して前記デジタル画像データの幾何学的正規化を実行するステップをさらに含む請求項3に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  5. 前記デジタル画像データが顔を含んでおり、前記複数のオブジェクト・パーツが前記顔に含まれているとき、前記デジタル画像データの幾何学的正規化を実行する前記ステップの後、顔分類を実行するステップをさらに含む請求項4に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  6. 前記デジタル画像データ内の前記オブジェクト・パーツ位置の前記初期位置推定値を取得する前に、前記デジタル画像データのサイズおよび向きを調整するステップをさらに含む請求項2に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  7. 訓練知識を構築するために、訓練画像のオブジェクト・パーツ位置の場所を推定することを訓練するステップをさらに含む請求項6に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  8. 前記訓練ステップが線形判別分析を使用して行われる請求項7に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  9. 前記サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算する前記ステップ、および前記計算された特徴値に基づいて前記オブジェクト・パーツ位置の更新された位置推定値を決定する前記ステップが前記訓練知識を使用する請求項7に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  10. 前記デジタル画像データがデジタル写真を表す請求項1に記載のデジタル画像内のオブジェクト・パーツの場所を特定する方法。
  11. デジタル画像内のオブジェクト・パーツの場所を特定する装置であって、
    オブジェクト・パーツを含むデジタル画像データを提供する画像データ・ユニットと、
    前記デジタル画像データからオブジェクト・パーツ・サブ画像を抽出するサブ画像分析ユニットであって、前記オブジェクト・パーツのオブジェクト・パーツ位置の初期位置推定値を取得し、前記オブジェクト・パーツ位置の前記初期位置推定値の周囲のサブ画像ウィンドウを抽出することによってオブジェクト・パーツ・サブ画像を抽出するサブ画像分析ユニットと、
    オブジェクト・パーツ位置を推定する特徴値分析ユニットであって、前記サブ画像ウィンドウ内のピクセル値に基づいて特徴値を計算し、前記計算された特徴値に基づいて前記オブジェクト・パーツ位置の更新された位置推定値を決定することによってオブジェクト・パーツ位置を推定する特徴値分析ユニットと、
    を含む装置。
  12. 前記サブ画像分析ユニットが、前記オブジェクト・パーツ位置の前記更新された位置推定値の周囲の更新されたサブ画像ウィンドウを抽出し、前記特徴値分析ユニットが、前記更新されたサブ画像ウィンドウを使用して、前記オブジェクト・パーツ位置の次の更新された位置推定値を反復して決定する請求項11に記載の装置。
  13. 前記サブ画像分析ユニットが前記デジタル画像データの複数のオブジェクト・パーツのオブジェクト・パーツ・サブ画像を抽出し、前記特徴値分析ユニットが、複数の特徴値を使用して、前記複数のオブジェクト・パーツの複数のオブジェクト・パーツ位置を推定する請求項12に記載の装置。
  14. 前記デジタル画像データの前記複数のオブジェクト・パーツの前記複数のオブジェクト・パーツ位置を使用して、前記デジタル画像データの幾何学的正規化を行う幾何学的正規化ユニットをさらに含む請求項13に記載の装置。
  15. 前記デジタル画像データが顔を含み、前記複数のオブジェクト・パーツが前記顔に含まれているとき、顔分類を行う顔認識ユニットをさらに含む請求項14に記載の装置。
  16. 前記サブ画像分析ユニットが前記デジタル画像データを受信する前に、前記デジタル画像データのサイズおよび向きを調整する前処理ユニットをさらに含む請求項12に記載の装置。
  17. 訓練知識を構築するために、訓練画像のオブジェクト・パーツ位置の場所を推定することを訓練する訓練ユニットをさらに含む請求項16に記載の装置。
  18. 前記訓練ユニットが線形判別分析を使用する請求項17に記載の装置。
  19. 前記特徴値分析ユニットが前記訓練知識を使用する請求項17に記載の装置。
  20. 前記デジタル画像データがデジタル写真を表す請求項11に記載の装置。
JP2007028455A 2006-02-08 2007-02-07 デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置 Pending JP2007213582A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
US11/349,205 US7957555B2 (en) 2006-02-08 2006-02-08 Method and apparatus for localizing an object part in digital image data by updating an initial position estimate based on a displacement of the object part

Publications (1)

Publication Number Publication Date
JP2007213582A true JP2007213582A (ja) 2007-08-23

Family

ID=38334108

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007028455A Pending JP2007213582A (ja) 2006-02-08 2007-02-07 デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置

Country Status (2)

Country Link
US (1) US7957555B2 (ja)
JP (1) JP2007213582A (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8959082B2 (en) 2011-10-31 2015-02-17 Elwha Llc Context-sensitive query enrichment
US10089525B1 (en) 2014-12-31 2018-10-02 Morphotrust Usa, Llc Differentiating left and right eye images
US9846807B1 (en) * 2014-12-31 2017-12-19 Morphotrust Usa, Llc Detecting eye corners
CN106874826A (zh) * 2015-12-11 2017-06-20 腾讯科技(深圳)有限公司 人脸关键点跟踪方法和装置

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3452685B2 (ja) * 1995-05-10 2003-09-29 三菱電機株式会社 顔画像の処理装置
US5892837A (en) * 1997-08-29 1999-04-06 Eastman Kodak Company Computer program product for locating objects in an image
KR100450793B1 (ko) 2001-01-20 2004-10-01 삼성전자주식회사 영역 분할된 영상의 영역 특징치 정합에 기초한객체추출장치 및 그 방법
JP3861781B2 (ja) * 2002-09-17 2006-12-20 日産自動車株式会社 前方車両追跡システムおよび前方車両追跡方法
US7596247B2 (en) * 2003-11-14 2009-09-29 Fujifilm Corporation Method and apparatus for object recognition using probability models
JP2005242640A (ja) 2004-02-26 2005-09-08 Fuji Photo Film Co Ltd 対象物検出方法および装置並びにプログラム

Also Published As

Publication number Publication date
US7957555B2 (en) 2011-06-07
US20070183654A1 (en) 2007-08-09

Similar Documents

Publication Publication Date Title
US20200273179A1 (en) Object recognition device and computer readable storage medium
US11837017B2 (en) System and method for face recognition based on dynamic updating of facial features
JP5202037B2 (ja) 特徴点位置決定方法及び装置
EP1629415B1 (en) Face identification verification using frontal and side views
US20150302240A1 (en) Method and device for locating feature points on human face and storage medium
JP4830650B2 (ja) 追跡装置
JP4606779B2 (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
JP4951498B2 (ja) 顔画像認識装置、顔画像認識方法、顔画像認識プログラムおよびそのプログラムを記録した記録媒体
US7869632B2 (en) Automatic trimming method, apparatus and program
MX2012010602A (es) Aparato para el reconocimiento de la cara y metodo para el reconocimiento de la cara.
JP2009053916A (ja) 顔画像処理装置及び顔画像処理方法、並びにコンピュータ・プログラム
JP2007249280A (ja) 特徴点検出装置、特徴点検出方法および特徴点検出プログラム
WO2011161579A1 (en) Method, apparatus and computer program product for providing object tracking using template switching and feature adaptation
JP5787686B2 (ja) 顔認識装置、及び顔認識方法
JP6943333B2 (ja) オブジェクト追跡装置、オブジェクト追跡方法、及びオブジェクト追跡プログラム
US7684594B2 (en) Method and apparatus for estimating object part location in digital image data using feature value analysis
JP2007213582A (ja) デジタル画像データ内のオブジェクト・パーツの場所を特定する方法および装置
KR102366777B1 (ko) 도메인 적응 기반 객체 인식 장치 및 그 방법
JP2010176504A (ja) 画像処理装置、画像処理方法及びプログラム
JP2005208850A (ja) 顔画像認識装置及び顔画像認識プログラム
JP6305856B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20140050404A1 (en) Combining Multiple Image Detectors
WO2021084662A1 (ja) 照合支援装置、照合支援方法、及びコンピュータ読み取り可能な記録媒体
JP2004118731A (ja) 画像認識装置、画像認識方法およびその方法をコンピュータに実行させるプログラム
US20240202939A1 (en) Computer method and apparatus for tagless tracking of livestock