JP2010186288A - 顔画像の所定のテクスチャー特徴量を変更する画像処理 - Google Patents

顔画像の所定のテクスチャー特徴量を変更する画像処理 Download PDF

Info

Publication number
JP2010186288A
JP2010186288A JP2009029380A JP2009029380A JP2010186288A JP 2010186288 A JP2010186288 A JP 2010186288A JP 2009029380 A JP2009029380 A JP 2009029380A JP 2009029380 A JP2009029380 A JP 2009029380A JP 2010186288 A JP2010186288 A JP 2010186288A
Authority
JP
Japan
Prior art keywords
image
face
texture
shape
target image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2009029380A
Other languages
English (en)
Inventor
Kenji Matsuzaka
健治 松坂
Masaya Usui
雅也 碓井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Seiko Epson Corp
Original Assignee
Seiko Epson Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corp filed Critical Seiko Epson Corp
Priority to JP2009029380A priority Critical patent/JP2010186288A/ja
Priority to US12/703,693 priority patent/US20100202699A1/en
Priority to CN2010101182526A priority patent/CN101807299B/zh
Publication of JP2010186288A publication Critical patent/JP2010186288A/ja
Withdrawn legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • G06V10/7557Deformable models or variational models, e.g. snakes or active contours based on appearance, e.g. active appearance models [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Artificial Intelligence (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Evolutionary Computation (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

【課題】顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現する。
【解決手段】画像処理装置は、互いに異なる顔画像サイズに対応する複数の基準形状と互いに異なる顔画像サイズに対応する複数のテクスチャーモデルとを特定する情報を記憶する記憶部と、対象画像における顔の特徴部位の位置を特定する顔特徴位置特定部と、対象画像における顔画像サイズに基づき基準形状とテクスチャーモデルとを選択するモデル選択部と、対象画像における顔形状が選択基準形状と等しくなるようにて第1の変換を行う第1の画像変換部と、選択テクスチャーモデルを用いて第1の変換後の対象画像における所定のテクスチャー特徴量を変更する特徴量処理部と、特徴量変更後の対象画像に対して第1の変換の逆変換を行う第2の画像変換部と、を備える。
【選択図】図17

Description

本発明は、顔画像における所定のテクスチャー特徴量を変更する画像処理に関する。
視覚的事象のモデル化手法として、アクティブアピアランスモデル(Active Appearance Model、略して「AAM」とも呼ばれる)が知られている。AAMでは、例えば、複数のサンプル顔画像における所定の特徴部位(例えば目尻や鼻頭やフェイスライン)の位置(座標)や画素値(例えば輝度値)の統計的分析を通じて、上記特徴部位の位置により特定される顔の形状を表す形状モデルや、平均的な形状における「見え(Appearance)」を表すテクスチャーモデルが設定され、これらのモデルを用いて顔画像がモデル化される。AAMによれば、任意の顔画像のモデル化(合成)が可能であり、顔画像における上記特徴部位の位置の特定(検出)が可能である(例えば特許文献1参照)。
特開2007−141107号公報
AAMを利用すれば、テクスチャーモデルの所定のテクスチャーパラメーターを変更することにより、顔画像における所定のテクスチャー特徴量を変更する画像処理(例えば影成分を低減する画像処理)を実行することができる。従来、顔画像における所定のテクスチャー特徴量を変更する画像処理においては、さらなる質の向上の余地があった。
なお、このような問題は、AAMを利用する場合に限らず、顔画像における所定のテクスチャー特徴量を変更する画像処理を行う際に共通の問題であった。
本発明は、上記の課題を解決するためになされたものであり、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することを目的とする。
上記課題の少なくとも一部を解決するために、本発明は、以下の形態または適用例として実現することが可能である。
[適用例1]対象画像における顔画像の所定のテクスチャー特徴量を変更する画像処理装置であって、
基準となる顔形状である基準形状であって互いに異なる顔画像サイズに対応する複数の前記基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルであって互いに異なる顔画像サイズに対応する複数の前記テクスチャーモデルと、を特定する情報を記憶する記憶部と、
前記対象画像における顔の所定の特徴部位の位置を特定する顔特徴位置特定部と、
前記対象画像における顔画像サイズを取得し、前記取得された顔画像サイズに基づき1つの前記基準形状と1つの前記テクスチャーモデルとを選択するモデル選択部と、
前記対象画像における前記特徴部位の位置により規定される顔形状が選択された前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う第1の画像変換部と、
選択された前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量を変更する特徴量処理部と、
前記所定のテクスチャー特徴量の変更後の前記対象画像に対して前記第1の変換の逆変換を行う第2の画像変換部と、を備える、画像処理装置。
この画像処理装置では、対象画像における顔画像サイズに基づき1つの基準形状と1つのテクスチャーモデルとが選択され、対象画像における顔形状が選択された基準形状と等しくなるように第1の変換が行われ、選択されたテクスチャーモデルを用いて第1の変換後の対象画像における所定のテクスチャー特徴量が変更され、特徴量の変更後の対象画像に対して第1の変換の逆変換が行われることにより、対象画像における顔画像の所定のテクスチャー特徴量の変更が実現される。この画像処理装置では、対象画像における顔画像サイズに基づき基準形状とテクスチャーモデルとが選択されるため、第1の変換およびその逆変換や、テクスチャーモデルを用いたテクスチャー特徴量の変更を行う際に、画像の情報量の低減を抑制することができる。従って、この画像処理装置では、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例2]適用例1に記載の画像処理装置であって、
前記モデル選択部は、前記取得された顔画像サイズに最も近い顔画像サイズに対応する前記基準形状と前記テクスチャーモデルを選択する、画像処理装置。
この画像処理装置では、対象画像における顔画像サイズに最も近い顔画像サイズに対応する基準形状とテクスチャーモデルとが選択されるため、第1の変換およびその逆変換や、テクスチャーモデルを用いたテクスチャー特徴量の変更を行う際に、画像の情報量の低減を抑制することができ、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例3]適用例1または適用例2に記載の画像処理装置であって、
前記特徴量処理部は、選択された前記テクスチャーモデルを用いて、前記第1の変換後の前記対象画像について顔テクスチャーを特定し、特定された顔テクスチャーにおいて前記所定のテクスチャー特徴量を変更する、画像処理装置。
この画像処理装置では、テクスチャーモデルを用いたテクスチャー特徴量の変更を行う際に、画像の情報量の低減を抑制することができ、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例4]適用例1ないし適用例3のいずれかに記載の画像処理装置であって、
前記特徴量処理部は、影成分に実質的に対応する前記所定のテクスチャー特徴量を変更する、画像処理装置。
この画像処理装置では、顔画像における影成分に実質的に対応する所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例5]適用例1ないし適用例4のいずれかに記載の画像処理装置であって、
前記モデル選択部は、前記対象画像において特定された前記特徴部位の位置に基づき、前記対象画像における顔画像サイズを取得する、画像処理装置。
この画像処理装置では、対象画像において特定された特徴部位の位置に基づき対象画像における顔画像サイズが取得され、対象画像における顔画像サイズに基づき1つの基準形状と1つのテクスチャーモデルとが選択されるため、第1の変換およびその逆変換や、テクスチャーモデルを用いたテクスチャー特徴量の変更を行う際に、画像の情報量の低減を抑制することができ、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例6]適用例1ないし適用例5のいずれかに記載の画像処理装置であって、
前記記憶部が記憶する前記情報は、顔形状を前記基準形状と少なくとも1つの形状特徴量とにより表す形状モデルであって互いに異なる顔画像サイズに対応する複数の前記形状モデルを特定する情報を含み、
前記顔特徴位置特定部は、前記形状モデルと前記テクスチャーモデルとを用いて、前記対象画像における前記特徴部位の位置を特定する、画像処理装置。
この画像処理装置では、形状モデルとテクスチャーモデルとを用いて対象画像における特徴部位の位置を特定し、特定結果を用いて顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例7]適用例6に記載の画像処理装置であって、
前記形状モデルおよび前記テクスチャーモデルは、前記特徴部位の位置が既知である複数のサンプル顔画像を対象とした統計的分析に基づき設定される、画像処理装置。
この画像処理装置では、形状モデルとテクスチャーモデルとを用いて対象画像における特徴部位の位置を精度良く特定することができる。
[適用例8]適用例7に記載の画像処理装置であって、
前記基準形状は、前記複数のサンプル顔画像における前記特徴部位の平均位置を表す平均形状であり、
前記基準テクスチャーは、前記平均形状に形状変換された前記複数のサンプル顔画像の前記特徴部位の位置における画素値の平均を表す平均テクスチャーである、画像処理装置。
この画像処理装置では、あらゆる画像を対象として実行される顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
[適用例9]対象画像における顔画像の所定のテクスチャー特徴量を変更する画像処理装置であって、
基準となる顔形状である基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルと、を特定する情報を記憶する記憶部と、
前記対象画像における顔の所定の特徴部位の位置を特定する顔特徴位置特定部と、
前記対象画像における前記特徴部位の位置により規定される顔形状が前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う第1の画像変換部と、
前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量に対応するテクスチャー特徴量画像を生成する特徴量処理部と、
前記テクスチャー特徴量画像に対して前記第1の変換の逆変換を行う第2の画像変換部と、
前記対象画像から前記逆変換後の前記テクスチャー特徴量画像を減算する補正処理部と、を備える、画像処理装置。
この画像処理装置では、対象画像における顔形状が基準形状と等しくなるように第1の変換が行われ、テクスチャーモデルを用いて第1の変換後の対象画像における所定のテクスチャー特徴量に対応するテクスチャー特徴量画像が生成され、テクスチャー特徴量画像に対して第1の変換の逆変換が行われ、対象画像から逆変換後のテクスチャー特徴量画像が減算されることにより、対象画像における顔画像の所定のテクスチャー特徴量の変更が実現される。この画像処理装置では、最終的な減算に用いられる対象画像は、第1の変換や逆変換の対象とはならないため、画像の情報量の低減を抑制することができ、顔画像における所定のテクスチャー特徴量を変更する画像処理のさらなる質の向上を実現することができる。
なお、本発明は、種々の態様で実現することが可能であり、例えば、画像処理方法および装置、画像補正方法および装置、特徴量変更方法および装置、印刷方法および装置、これらの方法または装置の機能を実現するためのコンピュータープログラム、そのコンピュータープログラムを記録した記録媒体、そのコンピュータープログラムを含み搬送波内に具現化されたデータ信号、等の形態で実現することができる。
本発明の第1実施例における画像処理装置としてのプリンター100の構成を概略的に示す説明図である。 第1実施例におけるAAM設定処理の流れを示すフローチャートである。 サンプル顔画像SIの一例を示す説明図である。 サンプル顔画像SIにおける特徴点CPの設定方法の一例を示す説明図である。 サンプル顔画像SIに設定された特徴点CPの座標の一例を示す説明図である。 平均形状s0の一例を示す説明図である。 サンプル顔画像SIのワープWの方法の一例を示す説明図である。 平均顔画像A0(x)の一例を示す説明図である。 第1実施例における顔特徴位置特定処理の流れを示すフローチャートである。 対象画像OIにおける顔領域FAの検出結果の一例を示す説明図である。 第1実施例における特徴点CPの初期配置決定処理の流れを示すフローチャートである。 対象画像OIにおける特徴点CPの仮配置の一例を示す説明図である。 平均形状画像I(W(x;p))の一例を示す説明図である。 対象画像OIにおける特徴点CPの初期配置の一例を示す説明図である。 第1実施例における特徴点CP配置更新処理の流れを示すフローチャートである。 顔特徴位置特定処理の結果の一例を示す説明図である。 第1実施例における画像補正処理の流れを示すフローチャートである。 第1実施例における画像補正処理の概要を示す説明図である。 第2実施例における画像補正処理の流れを示すフローチャートである。
次に、本発明の実施の形態を実施例に基づいて以下の順序で説明する。
A.第1実施例:
A−1.画像処理装置の構成:
A−2.AAM設定処理:
A−3.顔特徴位置特定処理:
A−4.画像補正処理:
B.第2実施例:
C.変形例:
A.第1実施例:
A−1.画像処理装置の構成:
図1は、本発明の第1実施例における画像処理装置としてのプリンター100の構成を概略的に示す説明図である。本実施例のプリンター100は、メモリーカードMC等から取得した画像データに基づき画像を印刷する、いわゆるダイレクトプリントに対応したインクジェット式カラープリンターである。プリンター100は、プリンター100の各部を制御するCPU110と、ROMやRAMによって構成された内部メモリー120と、ボタンやタッチパネルにより構成された操作部140と、液晶ディスプレイにより構成された表示部150と、プリンターエンジン160と、カードインターフェース(カードI/F)170と、を備えている。プリンター100は、さらに、他の機器(例えばデジタルスチルカメラやパーソナルコンピューター)とのデータ通信を行うためのインターフェースを備えているとしてもよい。プリンター100の各構成要素は、バスを介して互いに接続されている。
プリンターエンジン160は、印刷データに基づき印刷を行う印刷機構である。カードインターフェース170は、カードスロット172に挿入されたメモリーカードMCとの間でデータのやり取りを行うためのインターフェースである。なお、本実施例では、メモリーカードMCに画像データを含む画像ファイルが格納されている。
内部メモリー120には、画像処理部200と、表示処理部310と、印刷処理部320と、が格納されている。画像処理部200は、所定のオペレーティングシステムの下で、顔特徴位置特定処理や画像補正処理を実行するためのコンピュータープログラムである。本実施例の顔特徴位置特定処理は、顔画像における所定の特徴部位(例えば目尻や鼻頭やフェイスライン)の位置を特定(検出)する処理である。本実施例の画像補正処理は、顔画像における影成分を低減する処理である。顔特徴位置特定処理および画像補正処理については、後に詳述する。
画像処理部200は、プログラムモジュールとして、顔特徴位置特定部210と、モデル選択部220と、顔領域検出部230と、補正処理部240と、を含んでいる。顔特徴位置特定部210は、初期配置部211と、画像変換部212と、判定部213と、更新部214と、正規化部215と、を含んでいる。補正処理部240は、画像変換部241と、特徴量処理部242と、を含んでいる。なお、画像変換部241は、本発明における第1の画像変換部および第2の画像変換部に相当する。これら各部の機能については、後述の顔特徴位置特定処理および画像補正処理の説明において詳述する。
表示処理部310は、表示部150を制御して、表示部150上に処理メニューやメッセージ、画像等を表示させるディスプレイドライバである。印刷処理部320は、画像データから印刷データを生成し、プリンターエンジン160を制御して、印刷データに基づく画像の印刷を実行するためのコンピュータープログラムである。CPU110は、内部メモリー120から、これらのプログラム(画像処理部200、表示処理部310、印刷処理部320)を読み出して実行することにより、これら各部の機能を実現する。
内部メモリー120には、また、AAM情報AMIが格納されている。AAM情報AMIは、後述のAAM設定処理によって予め設定される情報であり、後述の顔特徴位置特定処理および画像補正処理において参照される。AAM情報AMIの内容については、後述のAAM設定処理の説明において詳述する。
A−2.AAM設定処理:
図2は、第1実施例におけるAAM設定処理の流れを示すフローチャートである。AAM設定処理は、AAM(アクティブアピアランスモデル(Active Appearance Model))と呼ばれる画像のモデル化に用いられる形状モデルおよびテクスチャーモデルを設定する処理である。
ステップS110では、人物の顔を表す複数の画像がサンプル顔画像SIとして設定される。図3は、サンプル顔画像SIの一例を示す説明図である。図3に示すように、サンプル顔画像SIは、個性、人種・性別、表情(怒り、笑い、困り、驚き等)、向き(正面向き、上向き、下向き、右向き、左向き等)といった種々の属性に関して互いに相違する画像が含まれるように設定される。サンプル顔画像SIがそのように設定されれば、AAMによってあらゆる顔画像を精度良くモデル化することが可能となり、あらゆる顔画像を対象とした精度の良い顔特徴位置特定処理(後述)の実行が可能となる。なお、サンプル顔画像SIは、学習顔画像とも呼ばれる。
ステップS120(図2)では、サンプル顔画像SIのそれぞれにおいて、特徴点CPが設定される。図4は、サンプル顔画像SIにおける特徴点CPの設定方法の一例を示す説明図である。特徴点CPは、顔画像における所定の特徴部位の位置を示す点である。本実施例では、所定の特徴部位として、人物の顔における眉毛上の所定位置(例えば端点や4分割点等、以下同じ)、目の輪郭上の所定位置、鼻筋および小鼻の輪郭上の所定位置、上下唇の輪郭上の所定位置、顔の輪郭(フェイスライン)上の所定位置といった68箇所の部位が設定されている。すなわち、本実施例では、人物の顔に共通して含まれる顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置が、特徴部位として設定されている。図4に示すように、特徴点CPは、各サンプル顔画像SIにおいてオペレーターにより指定された68個の特徴部位を表す位置に設定(配置)される。このように設定された各特徴点CPは各特徴部位に対応しているため、顔画像における特徴点CPの配置は顔の形状を規定していると表現することができる。
サンプル顔画像SIにおける特徴点CPの位置は、座標により特定される。図5は、サンプル顔画像SIに設定された特徴点CPの座標の一例を示す説明図である。図5において、SI(j)(j=1,2,3・・・)は各サンプル顔画像SIを示しており、CP(k)(k=0,1,・・・,67)は各特徴点CPを示している。また、CP(k)−Xは、特徴点CP(k)のX座標を示しており、CP(k)−Yは、特徴点CP(k)のY座標を示している。特徴点CPの座標としては、顔の大きさと顔の傾き(画像面内の傾き)と顔のX方向およびY方向の位置とのそれぞれについて正規化されたサンプル顔画像SIにおける所定の基準点(例えば画像の左下の点)を原点とした座標が用いられる。また、本実施例では、1つのサンプル顔画像SIに複数の人物の顔が含まれる場合が許容されており(例えばサンプル顔画像SI(2)には2人の顔が含まれている)、1つのサンプル顔画像SIにおける各人物は人物IDによって特定される。
ステップS130(図2)では、AAMの形状モデルが設定される。具体的には、各サンプル顔画像SIにおける68個の特徴点CPの座標(X座標およびY座標)により構成される座標ベクトル(図5参照)に対する主成分分析が行われ、特徴点CPの位置により特定される顔の形状sが下記の式(1)によりモデル化される。なお、形状モデルは、特徴点CPの配置モデルとも呼ばれる。
Figure 2010186288
上記式(1)において、s0は平均形状である。図6は、平均形状s0の一例を示す説明図である。図6(a)および(b)に示すように、平均形状s0は、サンプル顔画像SIの各特徴点CPについての平均位置(平均座標)により特定される平均的な顔の形状を表すモデルである。なお、本実施例では、平均形状s0において、外周に位置する特徴点CP(フェイスラインおよび眉毛、眉間に対応する特徴点CP、図4参照)を結ぶ直線により囲まれた領域(図6(b)においてハッチングを付して示す)を「平均形状領域BSA」と呼ぶ。平均形状s0においては、図6(a)に示すように、特徴点CPを頂点とする複数の三角形領域TAが、平均形状領域BSAをメッシュ状に分割するように設定されている。
形状モデルを表す上記式(1)において、siは形状ベクトルであり、piは形状ベクトルsiの重みを表す形状パラメーターである。形状ベクトルsiは、顔の形状sの特性を表すベクトルであり、具体的には、主成分分析により得られる第i主成分に対応する固有ベクトルである。すなわち、分散のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数nの固有ベクトルが、形状ベクトルsiとして採用される。本実施例では、最も分散の大きい第1主成分に対応する第1形状ベクトルs1は顔の左右振りにほぼ相関するベクトルとなっており、2番目に分散の大きい第2主成分に対応する第2形状ベクトルs2は顔の上下振りにほぼ相関するベクトルとなっている。また、3番目に分散の大きい第3主成分に対応する第3形状ベクトルs3は顔の形状の縦横比にほぼ相関するベクトルとなっており、4番目に分散の大きい第4主成分に対応する第4形状ベクトルs4は口の開きの程度にほぼ相関するベクトルとなっている。
上記式(1)に示すように、本実施例における形状モデルでは、特徴点CPの配置を表す顔形状sが、平均形状s0とn個の形状ベクトルsiの線形結合との和としてモデル化される。形状モデルにおいて形状パラメーターpiを適切に設定することにより、あらゆる画像における顔の形状sを再現することが可能である。なお、形状モデル設定ステップ(図2のステップS130)において設定された平均形状s0および形状ベクトルsiは、AAM情報AMI(図1)として内部メモリー120に格納される。平均形状s0は、本発明における基準形状に相当し、形状ベクトルsiと形状パラメーターpiとの積は、本発明における形状特徴量に相当する。
なお、本実施例では、互いに異なる顔画像サイズに対応する複数の形状モデルが設定される。すなわち、互いに異なる顔画像サイズに対応する複数の平均形状s0および複数組の形状ベクトルsiが設定される。複数の形状モデルは、複数段階の顔のサイズを目標値としてサンプル顔画像SIを正規化し、顔のサイズの段階毎にサンプル顔画像SIにおける特徴点CPの座標により構成される座標ベクトルに対する主成分分析を行うことにより設定される。
ステップS140(図2)では、AAMのテクスチャーモデルが設定される。具体的には、まず、各サンプル顔画像SIに対して、サンプル顔画像SIにおける特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるように、画像変換(以下、「ワープW」とも呼ぶ)が行われる。
図7は、サンプル顔画像SIのワープWの方法の一例を示す説明図である。各サンプル顔画像SIにおいては、平均形状s0と同様に、外周に位置する特徴点CPにより囲まれた領域をメッシュ状に分割する複数の三角形領域TAが設定されている。ワープWは、複数の三角形領域TAのそれぞれについてのアフィン変換の集合である。すなわち、ワープWにおいては、サンプル顔画像SIにおけるある三角形領域TAの画像は、平均形状s0における対応する三角形領域TAの画像へとアフィン変換される。ワープWにより、特徴点CPの配置が平均形状s0における特徴点CPの配置と等しいサンプル顔画像SI(以下「サンプル顔画像SIw」と表す)が生成される。
なお、各サンプル顔画像SIwは、平均形状領域BSA(図7においてハッチングを付して示す)を内包する矩形枠を外周とし、平均形状領域BSA以外の領域(以下「マスク領域MA」とも呼ぶ)がマスクされた画像として生成される。平均形状領域BSAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。上述したように、本実施例では、互いに異なる顔画像サイズに対応する複数の形状モデル(平均形状s0および複数組の形状ベクトルsi)が設定されるため、サンプル顔画像SIwは、複数の形状モデル(平均形状s0)毎に生成される。例えば、各サンプル顔画像SIwは、56画素×56画素と、256画素×256画素と、500画素×500画素と、の3段階のサイズの画像として生成される。
次に、各サンプル顔画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析が行われ、顔のテクスチャー(「見え」とも呼ぶ)A(x)が下記の式(2)によりモデル化される。なお、画素群xは、平均形状領域BSAに位置する画素の集合である。
Figure 2010186288
上記式(2)において、A0(x)は平均顔画像である。図8は、平均顔画像A0(x)の一例を示す説明図である。平均顔画像A0(x)は、ワープWの後のサンプル顔画像SIw(図7参照)の平均の画像である。すなわち、平均顔画像A0(x)は、サンプル顔画像SIwの平均形状領域BSA内の画素群xのそれぞれについて画素値(輝度値)の平均をとることにより算出される画像である。従って、平均顔画像A0(x)は、平均的な顔の形状における平均的な顔のテクスチャー(見え)を表すモデルである。なお、平均顔画像A0(x)は、サンプル顔画像SIwと同様に、平均形状領域BSAとマスク領域MAとで構成される。また、平均顔画像A0(x)においても、平均形状領域BSAとマスク領域MAとを併せた画像領域を基準領域BAと呼ぶ。
テクスチャーモデルを表す上記式(2)において、Ai(x)はテクスチャーベクトルであり、λiはテクスチャーベクトルAi(x)の重みを表すテクスチャーパラメーターである。テクスチャーベクトルAi(x)は、顔のテクスチャーA(x)の特性を表すベクトルであり、具体的には、主成分分析により得られる第i主成分に対応する固有ベクトルである。すなわち、分散のより大きい主成分に対応する固有ベクトルから順に、累積寄与率に基づき設定された個数mの固有ベクトルが、テクスチャーベクトルAi(x)として採用される。本実施例では、最も分散の大きい第1主成分に対応する第1テクスチャーベクトルA1(x)は、顔色の変化(性別の差とも捉えられる)にほぼ相関するベクトルとなっており、2番目に分散の大きい第2主成分に対応する第2テクスチャーベクトルA2(x)は、影成分の変化(光源位置の変化とも捉えられる)にほぼ相関するベクトルとなっている。
上記式(2)に示すように、本実施例におけるテクスチャーモデルでは、顔の見えを表す顔のテクスチャーA(x)が、平均顔画像A0(x)とm個のテクスチャーベクトルAi(x)の線形結合との和としてモデル化される。テクスチャーモデルにおいてテクスチャーパラメーターλiを適切に設定することにより、あらゆる画像における顔のテクスチャーA(x)を再現することが可能である。なお、テクスチャーモデル設定ステップ(図2のステップS140)において設定された平均顔画像A0(x)およびテクスチャーベクトルAi(x)は、AAM情報AMI(図1)として内部メモリー120に格納される。平均顔画像A0(x)は、本発明における基準テクスチャーに相当し、テクスチャーベクトルAi(x)とテクスチャーパラメーターλiとの積は、本発明における所定のテクスチャー特徴量に相当する。
なお、本実施例では、上述したように、互いに異なる顔画像サイズに対応する複数の形状モデルが設定されるため、テクスチャーモデルについても互いに異なる顔画像サイズに対応する複数のテクスチャーモデルが設定される。すなわち、互いに異なる顔画像サイズに対応する複数の平均顔画像A0(x)および複数組のテクスチャーパラメーターλiが設定される。複数のテクスチャーモデルは、複数の形状モデル毎に生成されたサンプル顔画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析を行うことにより設定される。
以上説明したAAM設定処理(図2)により、顔の形状をモデル化する形状モデルと、顔のテクスチャーをモデル化するテクスチャーモデルが設定される。設定された形状モデルとテクスチャーモデルとを組み合わせることにより、すなわち合成されたテクスチャーA(x)に対して平均形状s0から形状sへの変換(図7に示したワープWの逆変換)を行うことにより、あらゆる顔画像の形状およびテクスチャーを再現することが可能である。
A−3.顔特徴位置特定処理:
図9は、第1実施例における顔特徴位置特定処理の流れを示すフローチャートである。本実施例における顔特徴位置特定処理は、AAMを利用して対象画像における特徴点CPの配置を決定することにより、対象画像における顔の特徴部位の位置を特定する処理である。上述したように、本実施例では、AAM設定処理(図2)において、人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における計68箇所の所定位置が、特徴部位として設定されている(図4参照)。そのため、本実施例の顔特徴位置特定処理では、人物の顔の器官および顔の輪郭における所定位置を示す68個の特徴点CPの配置が決定される。
なお、顔特徴位置特定処理によって対象画像における特徴点CPの配置が決定されると、対象画像における人物の顔の器官の形状・位置や顔の輪郭形状の特定が可能となる。従って、顔特徴位置特定処理の処理結果は、特定の表情(例えば笑顔や目を閉じた顔)の顔画像を検出するための表情判定や、特定の向き(例えば右向きや下向き)の顔画像を検出するための顔向き判定、顔の形状を変形する顔変形等に利用可能である。
ステップS210(図9)では、画像処理部200(図1)が、顔特徴位置特定処理の対象となる対象画像を表す画像データを取得する。本実施例のプリンター100では、カードスロット172にメモリーカードMCが挿入されると、メモリーカードMCに格納された画像ファイルのサムネイル画像が表示部150に表示される。ユーザーは、表示されたサムネイル画像を参照しつつ、操作部140を介して処理の対象となる1つまたは複数の画像を選択する。画像処理部200は、選択された1つまたは複数の画像に対応する画像データを含む画像ファイルをメモリーカードMCより取得して内部メモリー120の所定の領域に格納する。なお、取得された画像データを対象画像データと呼び、対象画像データの表す画像を対象画像OIと呼ぶものとする。
ステップS220(図9)では、顔領域検出部230(図1)が、対象画像OIにおける顔の画像の少なくとも一部を含む画像領域を顔領域FAとして検出する。顔領域FAの検出は、公知の顔検出手法を用いて行うことができる。公知の顔検出手法としては、例えば、パターンマッチングによる手法や肌色領域抽出による手法、サンプル顔画像を用いた学習(例えばニューラルネットワークを用いた学習や、ブースティングを用いた学習、サポートベクターマシーンを用いた学習等)により設定される学習データを用いる手法等がある。
図10は、対象画像OIにおける顔領域FAの検出結果の一例を示す説明図である。図10には、対象画像OIにおいて検出された顔領域FAが示されている。本実施例では、おおよそ、顔の上下方向は額から顎まで、左右方向は両耳の外側まで含む矩形の領域が顔領域FAとして検出されるような顔検出手法が用いられている。
なお、図10に示した想定基準領域ABAは、平均顔画像A0(x)の全体領域である基準領域BA(図8参照)に対応すると想定される領域である。想定基準領域ABAは、検出された顔領域FAに基づき、大きさ・傾き・上下および左右方向の位置のそれぞれについて顔領域FAと所定の関係を有する領域に設定される。顔領域FAと想定基準領域ABAとの所定の関係は、顔領域FAに表された顔が平均的な顔である場合には想定基準領域ABAが基準領域BAに対応することとなるように、顔領域FAの検出に採用する顔検出手法の特性(どのような顔の範囲を顔領域FAとして検出するか)を考慮して予め設定される。
なお、ステップS220(図9)において対象画像OIから顔領域FAが検出されなかった場合には、対象画像OIに顔の画像が含まれていないとして顔特徴位置特定処理が終了されるか、あるいは顔領域FAの検出処理が再度実行される。
ステップS222(図9)では、モデル選択部220(図1)が、対象画像OIにおける顔画像サイズを取得し、取得された顔画像サイズに基づいて、互いに異なる顔画像サイズに対応するものとして複数設定された形状モデルおよびテクスチャーモデルの中から、1つの形状モデルおよび1つのテクスチャーモデルを選択する。具体的には、モデル選択部220は、設定された想定基準領域ABAのサイズを顔画像サイズとして取得し、想定基準領域ABAのサイズに最も近い画像サイズに対応する形状モデルおよびテクスチャーモデルを選択する。顔特徴位置特定処理(図9)の以降の処理には、選択された形状モデルおよびテクスチャーモデルが使用される。
ステップS230(図9)では、顔特徴位置特定部210(図1)が、対象画像OIにおける特徴点CPの初期配置を決定する。図11は、第1実施例における特徴点CPの初期配置決定処理の流れを示すフローチャートである。特徴点CP初期配置決定処理のステップS310では、初期配置部211(図1)が、グローバルパラメーターとしての大きさ、傾き、位置(上下方向の位置および左右方向の位置)の値を種々変更して、対象画像OI上に特徴点CPの仮配置を設定する。
図12は、対象画像OIにおける特徴点CPの仮配置の一例を示す説明図である。図12(a)および図12(b)には、対象画像OIにおける特徴点CPの仮配置をメッシュによって示している。すなわち、メッシュの各交点が特徴点CPである。初期配置部211は、図12(a)および図12(b)の中央に示すように、対象画像OIの想定基準領域ABA(図10参照)に平均顔画像A0(x)(図8参照)を重ねた場合における平均顔画像A0(x)の特徴点CPにより特定される仮配置(以下、「基準仮配置」とも呼ぶ)を設定する。
初期配置部211は、また、基準仮配置に対して、グローバルパラメーターの値を種々変更した仮配置を設定する。グローバルパラメーター(大きさ、傾き、上下方向の位置および左右方向の位置)を変更することは、特徴点CPの仮配置を特定するメッシュに対して拡大・縮小、傾きの変更、並行移動を行うことに相当する。従って、初期配置部211は、図12(a)に示すように、基準仮配置のメッシュに対して所定倍率で拡大または縮小したメッシュにより特定される仮配置(基準仮配置の下および上に示す)や、所定角度だけ時計回りまたは半時計回りに傾きを変更したメッシュにより特定される仮配置(基準仮配置の右および左に示す)を設定する。また、初期配置部211は、基準仮配置のメッシュに対して拡大・縮小および傾きの変更を組み合わせた変換を行ったメッシュにより特定される仮配置(基準仮配置の左上、左下、右上、右下に示す)も設定する。
また、図12(b)に示すように、初期配置部211は、基準仮配置のメッシュを所定量だけ上または下に並行移動したメッシュにより特定される仮配置(基準仮配置の上および下に示す)や、左または右に並行移動したメッシュにより特定される仮配置(基準仮配置の左および右に示す)を設定する。また、初期配置部211は、基準仮配置のメッシュに対して、上下および左右の並行移動を組み合わせた変換を行ったメッシュにより特定される仮配置(基準仮配置の左上、左下、右上、右下に示す)も設定する。
さらに、初期配置部211は、図12(a)に示す基準仮配置以外の8つの仮配置のそれぞれにおけるメッシュに対して図12(b)に示す上下左右の並行移動が実行されたメッシュにより特定される仮配置も設定する。従って、本実施例では、基準仮配置と、基準仮配置におけるメッシュに対して4つのグローバルパラメーター(大きさ、傾き、上下方向の位置、左右方向の位置)のそれぞれについての3段階の値の組み合わせに対応する合計80種類(=3×3×3×3―1)の変換を行うことにより設定される80種類の仮配置と、の合計81種類の仮配置が設定される。
なお、本実施例において、基準仮配置における平均顔画像A0(x)と対象画像OIの想定基準領域ABAとの対応関係を「基準対応関係」と呼ぶものとする。仮配置の設定は、基準対応関係を基準として平均顔画像A0(x)と対象画像OIとの一方に対する上述の合計80種類の変換が行われた後の平均顔画像A0(x)と対象画像OIとの対応関係(以下、「変換対応関係」とも呼ぶ)が設定され、基準対応関係および変換対応関係における平均顔画像A0(x)の特徴点CPの配置を対象画像OIにおける特徴点CPの仮配置とすることにより実現されると表現できる。
ステップS320(図11)では、画像変換部212(図1)が、設定された各仮配置に対応する平均形状画像I(W(x;p))を算出する。図13は、平均形状画像I(W(x;p))の一例を示す説明図である。平均形状画像I(W(x;p))は、平均形状s0を有する顔画像である。平均形状画像I(W(x;p))は、入力画像における特徴点CPの配置が平均形状s0における特徴点CPの配置と等しくなるような変換によって算出される。
平均形状画像I(W(x;p))を算出するための変換は、サンプル顔画像SIw算出のための変換(図7参照)と同様に、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。具体的には、対象画像OIに配置された特徴点CP(図12参照)によって対象画像OIにおける平均形状領域BSA(外周に位置する特徴点CPにより囲まれた領域、図6参照)が特定され、平均形状領域BSAに対して三角形領域TA毎のアフィン変換が行われることにより、平均形状画像I(W(x;p))が算出される。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A0(x)と同様に平均形状領域BSAおよびマスク領域MAにより構成され、平均顔画像A0(x)と同サイズの画像として算出される。図13には、図12(a)に示した9個の仮配置に対応する9個の平均形状画像I(W(x;p))の例を示している。
なお、上述したように、画素群xは、平均形状s0における平均形状領域BSAに位置する画素の集合である。ワープW実行後の画像(平均形状s0を有する顔画像)における画素群xに対応するワープW実行前の画像(対象画像OIの平均形状領域BSA)における画素群をW(x;p)と表す。平均形状画像は、対象画像OIの平均形状領域BSAにおける画素群W(x;p)のそれぞれにおける輝度値により構成される画像であるため、I(W(x;p))と表される。
ステップS330(図11)では、初期配置部211(図1)が、各平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する。特徴点CPの仮配置は81種類設定され、平均形状画像I(W(x;p))は81個設定されているため、初期配置部211は81個の差分画像Ieを算出することとなる。
ステップS340(図11)では、初期配置部211(図1)が、各差分画像Ieのノルムを算出し、ノルムの値が最も小さい差分画像Ieに対応する仮配置(以下「ノルム最小仮配置」とも呼ぶ)を、対象画像OIにおける特徴点CPの初期配置として設定する。ノルム最小仮配置は、平均顔画像A0(x)との相違の程度が最も小さい(最も近い、最も似ている)平均形状画像I(W(x;p))に対応する仮配置である。なお、ノルム最小仮配置を選択することは、上述した基準対応関係および80種類の変換対応関係の中から、正規化処理後の平均形状画像I(W(x;p))と平均顔画像A0(x)との相違の程度が最も小さい対応関係を選択し、選択された対応関係における仮配置を選択することと同義である。特徴点CPの初期配置処理により、対象画像OIにおいて、特徴点CPの配置の全体的な大きさ、傾き、位置(上下方向の位置および左右方向の位置)を規定するグローバルパラメーターの概略値が設定されたこととなる。
図14は、対象画像OIにおける特徴点CPの初期配置の一例を示す説明図である。図14では、対象画像OIにおいて決定された特徴点CPの初期配置をメッシュによって表現している。すなわち、メッシュの各交点が特徴点CPである。
特徴点CP初期配置決定処理(図9のステップS230)が完了すると、顔特徴位置特定部210(図1)は、対象画像OIにおける特徴点CPの配置更新を行う(ステップS240)。図15は、第1実施例における特徴点CP配置更新処理の流れを示すフローチャートである。
特徴点CP配置更新処理(図15)のステップS410では、画像変換部212(図1)が、対象画像OIから平均形状画像I(W(x;p))を算出する。平均形状画像I(W(x;p))は、平均形状s0を有する顔画像である。平均形状画像I(W(x;p))は、入力画像における特徴点CPの配置が平均形状s0における特徴点CPの配置(図6参照)と等しくなるような変換によって算出される。
平均形状画像I(W(x;p))を算出するための変換は、サンプル顔画像SIw算出のための変換(図7参照)と同様に、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。具体的には、対象画像OIに配置された特徴点CP(図14参照)によって対象画像OIにおける平均形状領域BSA(外周に位置する特徴点CPにより囲まれた領域、図6参照)が特定され、平均形状領域BSAに対して三角形領域TA毎のアフィン変換が行われることにより、平均形状画像I(W(x;p))が算出される。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A0(x)と同様に平均形状領域BSAおよびマスク領域MAにより構成され、平均顔画像A0(x)と同サイズの画像として算出される。
ステップS412(図15)では、正規化部215(図1)が、平均顔画像A0(x)の輝度値分布を表す指標値を参照して、平均形状画像I(W(x;p))を正規化する。本実施例では、平均顔画像A0(x)の平均形状領域BSA(図8参照)における輝度値分布を表す指標値としての平均値および分散値を示す情報が、AAM情報AMIに含まれている。正規化部215は、平均形状画像I(W(x;p))の平均形状領域BSAにおける輝度値の平均値および分散値を算出し、算出された平均値および分散値が平均顔画像A0(x)の輝度値の平均値および分散値に等しくなるように、平均形状画像I(W(x;p))の平均形状領域BSAに対する画像変換(正規化処理)を行う。
ステップS420(図15)では、顔特徴位置特定部210(図1)が、正規化処理後の平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieを算出する。ステップS430では、判定部213(図1)が、差分画像Ieに基づき、特徴点CPの配置更新処理が収束したか否かを判定する。判定部213は、差分画像Ieのノルムを算出し、ノルムの値が予め設定された閾値より小さい場合には収束したと判定し、ノルムの値が閾値以上の場合には未だ収束していないと判定する。差分画像Ieのノルムは、平均形状画像I(W(x;p))と平均顔画像A0(x)との相違の程度を表す指標値である。
なお、ステップS430の収束判定において、判定部213は、算出された差分画像Ieのノルムの値が前回のステップS430において算出された値よりも小さい場合には収束したと判定し、前回値以上である場合には未だ収束していないと判定するものとしてもよい。あるいは、判定部213は、閾値による判定と前回値との比較による判定とを組み合わせて収束判定を行うものとしてもよい。例えば、判定部213は、算出されたノルムの値が、閾値より小さく、かつ、前回値より小さい場合にのみ収束したと判定し、それ以外の場合には未だ収束していないと判定するものとしてもよい。
ステップS430の収束判定において未だ収束していないと判定された場合には、更新部214(図1)が、パラメーター更新量ΔPを算出する(ステップS440)。パラメーター更新量ΔPは、4個のグローバルパラメーター(全体としての大きさ、傾き、X方向位置、Y方向位置)およびn個の形状パラメーターpi(式(1)参照)の値の変更量を意味している。なお、特徴点CPの初期配置直後においては、グローバルパラメーターは、特徴点CP初期配置決定処理(図11)において決定された値が設定されている。また、このときの特徴点CPの初期配置と平均形状s0の特徴点CPの配置との相違は、全体としての大きさ、傾き、位置の相違に限られるため、形状モデルにおける形状パラメーターpiの値はすべてゼロである。
パラメーター更新量ΔPは、下記の式(3)により算出される。すなわち、パラメーター更新量ΔPは、アップデートマトリックスRと差分画像Ieとの積である。
Figure 2010186288
式(3)におけるアップデートマトリックスRは、差分画像Ieに基づきパラメーター更新量ΔPを算出するために予め学習により設定されたM行N列のマトリックスであり、AAM情報AMI(図1)として内部メモリー120に格納されている。本実施例では、アップデートマトリックスRの行数Mは、グローバルパラメーターの数(4個)と形状パラメーターpiの数(n個)との和((4+n)個)に等しく、列数Nは、平均顔画像A0(x)(図8)の平均形状領域BSA内の画素数に等しい。アップデートマトリックスRは、下記の式(4)および(5)により算出される。
Figure 2010186288
Figure 2010186288
ステップS450(図15)では、更新部214(図1)が、算出されたパラメーター更新量ΔPに基づきパラメーター(4個のグローバルパラメーターおよびn個の形状パラメーターpi)を更新する。これにより、対象画像OIにおける特徴点CPの配置が更新される。ステップS450のパラメーター更新の後には、再度、特徴点CPの配置が更新された対象画像OIからの平均形状画像I(W(x;p))の算出(ステップS410)、差分画像Ieの算出(ステップS420)、差分画像Ieに基づく収束判定(ステップS430)が行われる。再度の収束判定においても収束していないと判定された場合には、さらに、差分画像Ieに基づくパラメーター更新量ΔPの算出(ステップS440)、パラメーター更新による特徴点CPの配置更新(ステップS450)が行われる。
図15のステップS410からS450までの処理が繰り返し実行されると、対象画像OIにおける各特徴部位に対応する特徴点CPの位置は実際の特徴部位の位置(正解位置)に全体として近づいていき、ある時点で収束判定(ステップS430)において収束したと判定される。収束判定において収束したと判定されると、顔特徴位置特定処理が完了する(ステップS460)。このとき設定されているグローバルパラメーターおよび形状パラメーターpiの値により特定される特徴点CPの配置が、最終的な対象画像OIにおける特徴点CPの配置として決定される。
図16は、顔特徴位置特定処理の結果の一例を示す説明図である。図16には、対象画像OIにおいて最終的に決定された特徴点CPの配置が示されている。特徴点CPの配置により、対象画像OIにおける特徴部位(人物の顔の器官(眉毛、目、鼻、口)および顔の輪郭における所定位置)の位置が特定され、対象画像OIにおける人物の顔の器官の形状・位置や顔の輪郭形状の特定が可能となる。
以上説明したように、本実施例の顔特徴位置特定処理(図9)では、対象画像OIにおける特徴点CPの初期配置が決定され、その後、対象画像OIから算出された平均形状画像I(W(x;p))と平均顔画像A0(x)との比較結果に基づき対象画像OIにおける特徴点CPの配置が更新される。すなわち、特徴点CPの初期配置決定処理(図11)において、特徴点CPの配置の全体的な大きさ、傾き、位置(上下方向の位置および左右方向の位置)を規定するグローバルパラメーターの概略値が決定され、その後の特徴点CP配置更新処理(図15)において、差分画像Ieに基づくパラメーター更新に伴い特徴点CPの配置が更新されて、対象画像OIにおける最終的な特徴点CPの配置が決定される。このように、本実施例では、まず初期配置決定処理において特徴点CPの配置全体の変動が大きい(分散が大きい)グローバルパラメーターの概略値を決定することにより、顔特徴位置特定処理の効率化・高速化および精度の向上(いわゆるローカルな最適解ではなくグローバルな最適解に基づく特徴点CPの配置の最終決定)を実現することができる。
また、本実施例の特徴点CP配置更新処理(図15)では、対象画像OIから算出された平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieの算出(図15のステップS420)の前に、平均形状画像I(W(x;p))の平均形状領域BSAと平均顔画像A0(x)の平均形状領域BSAとの間で輝度値の平均値および分散値が互いに等しくなるように、平均形状画像I(W(x;p))に対する画像変換(正規化処理)が行われる(ステップS412)。これにより、個々の対象画像OIの輝度値分布の特徴が差分画像Ieに与える影響が抑制され、差分画像Ieに基づく収束判定(ステップS430)の精度が向上し、ひいては顔特徴位置特定処理の精度が向上する。また、収束判定において、上述したように、絶対閾値を用いた判定によっても高精度な判定が可能となる。従って、例えば差分画像Ieのノルムの値について前回値と比較することにより収束判定を行う場合と比較して、処理の高速化を図ることができる。
A−4.画像補正処理:
図17は、第1実施例における画像補正処理の流れを示すフローチャートである。また、図18は、第1実施例における画像補正処理の概要を示す説明図である。第1実施例における画像補正処理は、上述した顔特徴位置特定処理(図9)によって特徴点CPの配置が特定された対象画像OIに対して、顔画像上の影成分を所望の程度まで低減する補正(影補正)を行う処理である。画像補正処理(影補正)により、対象画像OIの顔部分における斜光や逆光、部分影の影響を低減したり、完全に除去したりすることが可能である。図18の左側上方には、顔の一部に影がかかった顔画像を含む対象画像OIの例と、当該対象画像OIにおいて特定された特徴点CPの配置の例(メッシュの交点が特徴点CPである)とが示されている。
ステップS610(図17)では、モデル選択部220(図1)が、対象画像OIにおける顔画像サイズを取得し、取得された顔画像サイズに基づいて、互いに異なる顔画像サイズに対応するものとして複数設定された形状モデルおよびテクスチャーモデルの中から、1つの形状モデルおよび1つのテクスチャーモデルを選択する。形状モデルおよびテクスチャーモデルの選択は、上述した顔特徴位置特定処理(図9)のステップS222における処理と同様に実行される。すなわち、モデル選択部220は、特徴点CPの配置に基づき対象画像OIにおける平均形状領域BSA(外周に位置する特徴点CPにより囲まれた領域、図6参照)を特定し、平均形状領域BSAの大きさを顔画像サイズとして取得する。そして、モデル選択部220は、取得された顔画像サイズに最も近い顔画像サイズに対応する形状モデルおよびテクスチャーモデルを選択する。図18には、互いに異なる顔画像サイズに対応する複数の形状モデルおよびテクスチャーモデルの中から、顔画像サイズに基づき1つの形状モデル(平均形状s0)および1つのテクスチャーモデル(テクスチャーA(x))が選択される様子を示している。画像補正処理(図17)の以降の処理には、選択された形状モデルおよびテクスチャーモデルが使用される。
ステップS620(図17)では、画像変換部241(図1)が、対象画像OIから平均形状画像I(W(x;p))を算出する。平均形状画像I(W(x;p))の算出は、上述した特徴点CP配置更新処理(図15)のステップS410における平均形状画像I(W(x;p))の算出と同様に実行される。すなわち、平均形状画像I(W(x;p))は、上述した対象画像OIの平均形状領域BSAに対して、対象画像OIにおける特徴点CPの配置が平均形状s0における特徴点CPの配置(図6参照)と等しくなるような変換を行うことにより算出される。平均形状画像I(W(x;p))を算出するための変換は、三角形領域TA毎のアフィン変換の集合であるワープWにより行われる。本実施例では、平均形状画像I(W(x;p))は、平均顔画像A0(x)(図8参照)と同様に平均形状領域BSAおよびマスク領域MAにより構成される。また、平均形状画像I(W(x;p))は、選択された形状モデルの平均形状s0のサイズと同サイズの画像として算出される。対象画像OIから平均形状画像I(W(x;p))を算出するための変換は、本発明における第1の変換に相当する。
ステップS630(図17)では、特徴量処理部242(図1)が、平均形状画像I(W(x;p))をテクスチャー固有空間に射影して、テクスチャーA(x)(上記式(2)参照)を算出する。テクスチャー固有空間への射影によるテクスチャーA(x)の算出は、ステップS610で選択されたテクスチャーモデルを用いて実行される。
ステップS640(図17)では、特徴量処理部242(図1)が、テクスチャーA(x)の影成分を低減する。上述したように、本実施例では、テクスチャーA(x)の第2主成分に対応する第2テクスチャーベクトルA2(x)が、影成分の変化(光源位置の変化とも捉えられる)にほぼ相関するベクトルとなっている。すなわち、第2テクスチャーベクトルA2(x)とそのテクスチャーパラメーターλ2との積が、テクスチャーA(x)における影成分に実質的に対応している。従って、特徴量処理部242は、第2テクスチャーベクトルA2(x)のテクスチャーパラメーターλ2を変更することにより、テクスチャーA(x)の影成分を低減する。例えば、テクスチャーパラメーターλ2の値をゼロに変更すると、テクスチャーA(x)の影成分が除去される。なお、影成分の低減の程度は、ユーザーによる指定に基づき設定される。あるいは、影成分の低減の程度は、予め所定の程度に設定されるとしてもよい。
ステップS650(図17)では、特徴量処理部242(図1)が、影成分低減後のテクスチャーA(x)を平均形状s0に展開して、平均形状画像I(W(x;p))を復元する。ステップS660では、画像変換部241が、復元された平均形状画像I(W(x;p))を対象画像OIの形状に復元する。ステップS660における復元は、ステップS620における平均形状画像I(W(x;p))の算出に用いられた変換(第1の変換)の逆変換である。以上の処理により、対象画像OIにおける顔画像上の影成分が所望の程度まで低減される(図18の左下参照)。
以上説明したように、本実施例の画像補正処理では、対象画像OIにおける顔画像上の影成分を所望の程度まで低減することができる。ここで、本実施例では、対象画像OIにおける顔画像サイズ(平均形状領域BSAの大きさ)が取得され、取得された顔画像サイズに最も近い画像サイズに対応する形状モデル(平均形状s0)およびテクスチャーモデル(テクスチャーA(x))が選択される。そして、選択された形状モデルおよびテクスチャーモデルが用いられて、平均形状画像I(W(x;p))の算出(図17のステップS620)やテクスチャー固有空間への射影(ステップS630)、平均形状s0への展開(ステップS650)、対象画像OIの形状への復元(ステップS660)といったステップが実行される。従って、本実施例の画像補正処理では、処理負荷の増大を抑制しつつ、顔画像における所定のテクスチャー特徴量(例えば影成分の量)を変更する処理のさらなる質の向上を実現することができる。
すなわち、例えば、画像補正処理において、対象画像OIにおける顔画像サイズと比較して非常に小さい顔画像サイズに対応する形状モデルおよびテクスチャーモデルが使用される場合、平均形状画像I(W(x;p))の算出やテクスチャー固有空間への射影といったステップの際に画像の情報量が低減してしまい、その後の平均形状s0への展開や対象画像OIの形状への復元といったステップによっても低減した情報量は復元されない。従って、処理後の画像がぼやけた画像となる恐れがある。また、反対に、画像補正処理において、対象画像OIの顔画像サイズと比較して非常に大きい顔画像サイズに対応する形状モデルおよびテクスチャーモデルが使用される場合、画像補正処理の各ステップにおける処理負荷が増大してしまう。本実施例の画像補正処理では、対象画像OIにおける顔画像サイズに最も近い顔画像サイズに対応する形状モデルおよびテクスチャーモデルが用いられるため、対象画像OIの情報量の低減を抑制して処理の質を向上させることができると共に、処理負荷の増大を抑制することができる。
B.第2実施例:
図19は、第2実施例における画像補正処理の流れを示すフローチャートである。第2実施例における画像補正処理は、第1実施例の画像補正処理(図17)と同様に、上述した顔特徴位置特定処理(図9)によって特徴点CPの配置が特定された対象画像OIに対して、顔画像上の影成分を所望の程度まで低減する補正(影補正)を行う処理である。なお、第2実施例では、第1実施例のように、互いに異なる顔画像サイズに対応する複数の形状モデルおよびテクスチャーモデルが設定されている必要はなく、任意の顔画像サイズに対応する1つの形状モデルおよび1つのテクスチャーモデルが設定されていればよい。
ステップS710(図19)では、画像変換部241(図1)が、対象画像OIから平均形状画像I(W(x;p))を算出する。平均形状画像I(W(x;p))の算出は、第1実施例の画像補正処理(図17)のステップS620と同様に実行される。
ステップS720(図19)では、特徴量処理部242(図1)が、平均形状画像I(W(x;p))をテクスチャー固有空間に射影して、テクスチャーA(x)(上記式(2)参照)を算出する。
ステップS730(図19)では、特徴量処理部242(図1)が、テクスチャーA(x)の影成分を算出する。上述したように、本実施例では、テクスチャーA(x)の第2主成分に対応する第2テクスチャーベクトルA2(x)が、影成分の変化(光源位置の変化とも捉えられる)にほぼ相関するベクトルとなっている。すなわち、第2テクスチャーベクトルA2(x)とそのテクスチャーパラメーターλ2との積が、テクスチャーA(x)における影成分に実質的に対応している。従って、テクスチャーA(x)の影成分は、テクスチャーA(x)において第2テクスチャーベクトルA2(x)のテクスチャーパラメーターλ2以外のテクスチャーパラメーターの値をすべてゼロに変更することにより算出される。
ステップS740(図19)では、特徴量処理部242(図1)が、テクスチャーA(x)の影成分を平均形状s0に展開して、平均形状s0を有する影成分画像を生成する。影成分画像は、影成分という所定のテクスチャー特徴量に対応する画像である。ステップS750では、画像変換部241が、生成された平均形状s0を有する影成分画像を対象画像OIの形状に形状変更する。ステップS750における形状変更は、ステップS710における平均形状画像I(W(x;p))の算出に用いられた変換の逆変換である。ステップS760(図19)では、特徴量処理部242(図1)が、対象画像OIから、対象画像OIの形状に形状変更された影成分画像を減算する。以上の処理により、対象画像OIにおける顔画像上の影成分が除去される。
なお、ステップS730(図19)におけるテクスチャーA(x)の影成分の算出の後に、影成分に1未満の係数を乗ずることにより、低減された影成分が算出される。この低減された影成分を対象に、上述のステップS740〜S760の処理を実行することにより、対象画像OIにおける顔画像上の影成分を除去するのではなく、影成分を所望の程度まで低減することが可能である。
以上説明したように、第2実施例の画像補正処理では、対象画像OIにおける顔画像上の影成分を所望の程度まで低減することができる。ここで、第2実施例では、平均形状画像I(W(x;p))の算出(図19のステップS710)や平均形状画像I(W(x;p))のテクスチャー固有空間への射影(ステップS720)は、テクスチャーA(x)の影成分を算出するために実行される。第2実施例の画像補正処理では、いかなる処理の対象ともならない対象画像OIから影成分画像を減算することにより、影成分を所望の程度まで低減する補正処理が実行される。従って、第2実施例の画像補正処理では、処理に伴って対象画像OIの情報量が低減されることがなく、顔画像における所定のテクスチャー特徴量(例えば影成分の量)を変更する処理のさらなる質の向上を実現することができる。
C.変形例:
なお、この発明は上記の実施例や実施形態に限られるものではなく、その要旨を逸脱しない範囲において種々の態様において実施することが可能であり、例えば次のような変形も可能である。
C1.変形例1:
上記各実施例では、顔特徴位置特定処理(図9)において、顔画像サイズに基づく形状モデルおよびテクスチャーモデルの選択が行われるとしているが、顔特徴位置特定処理では、顔画像サイズに基づいて形状モデルおよびテクスチャーモデルの選択が行われる必要はなく、任意の形状モデルおよびテクスチャーモデルが選択されるものとしてもよい。
また、顔特徴位置特定処理(図9)において顔画像サイズに基づく形状モデルおよびテクスチャーモデルの選択が行われた場合には、画像補正処理(図17)において、当該選択された形状モデルおよびテクスチャーモデルがそのまま選択されるものとしてもよい。
C2.変形例2:
上記各実施例の画像補正処理は、対象画像OIにおける顔画像上の影成分を所望の程度まで低減する補正(影補正)を行う処理であるとしているが、本発明は対象画像OIにおける顔画像の任意のテクスチャー特徴量を変更する画像補正処理に適用可能である。すなわち、テクスチャーA(x)において、変更したいテクスチャー特徴量に対応するテクスチャーベクトルのテクスチャーパラメーターを変更することにより、顔画像の任意のテクスチャー特徴量を変更する画像補正処理が実現可能である。
C3.変形例3:
上記各実施例では、AAMを利用して顔特徴位置特定処理(図9)が実行されるとしているが、顔特徴位置特定処理は必ずしもAAMを利用して実行される必要はなく、他の方法により実行されるとしてもよい。
また、特徴点CP配置更新処理(図15)において正規化処理(ステップS412)が実行されるとしているが、正規化処理は必ずしも実行される必要はない。
C4.変形例4:
上記各実施例では、特徴点CP初期配置決定処理(図9のステップS230)において、平均顔画像群のそれぞれと対象画像OIとの差分画像Ieや、平均顔画像A0(x)と複数の平均形状画像I(W(x;p))のそれぞれとの差分画像Ieが算出され、差分画像Ieに基づいて平特徴点CPの配置全体の変動が大きい(分散が大きい)グローバルパラメーターの概略値が決定されるものとしているが、対象画像OIにおける特徴点CPの初期配置の決定の際には、必ずしも差分画像Ieの算出やグローバルパラメーターの概略値の決定を行う必要はなく、予め定められた特徴点CPの配置(例えば上述の基準対応関係における配置)を初期配置として決定するものとしてもよい。
C5.変形例5:
上記各実施例では、特徴点CP配置更新処理(図15)の収束判定(ステップS430)における判定指標値として、平均形状画像I(W(x;p))と平均顔画像A0(x)との差分画像Ieのノルムが用いられているが、判定指標値として、平均形状画像I(W(x;p))と平均顔画像A0(x)との相違の程度を表す他の指標値が用いられるとしてもよい。
C6.変形例6:
上記各実施例の特徴点CP配置更新処理(図15)では、対象画像OIに基づき平均形状画像I(W(x;p))を算出することにより対象画像OIの特徴点CPの配置を平均顔画像A0(x)の特徴点CPの配置に整合させているが、平均顔画像A0(x)に対して画像変換を行うことにより両者の特徴点CPの配置を整合させるものとしてもよい。
C7.変形例7:
上記各実施例では、顔領域FAの検出が行われ、顔領域FAに基づき想定基準領域ABAが設定されるとしているが、顔領域FAの検出は必ずしも実行される必要はない。例えば、ユーザーによる指定に従い直接、想定基準領域ABAが設定されるとしてもよい。
C8.変形例8:
上記各実施例におけるサンプル顔画像SI(図3)はあくまで一例であり、サンプル顔画像SIとして採用する画像の数、種類は任意に設定可能である。また、上記各実施例において、特徴点CPの位置で示される顔の所定の特徴部位(図4参照)はあくまで一例であり、実施例において設定されている特徴部位の一部を省略したり、特徴部位として他の部位を採用したりしてもよい。
また、上記各実施例では、サンプル顔画像SIwの画素群xのそれぞれにおける輝度値により構成される輝度値ベクトルに対する主成分分析によってテクスチャーモデルが設定されているが、顔画像のテクスチャー(見え)を表す輝度値以外の指標値(例えばRGB値)に対する主成分分析によってテクスチャーモデルが設定されるものとしてもよい。
また、上記各実施例において、平均顔画像A0(x)のサイズは種々のサイズであってよい。また、平均顔画像A0(x)は、マスク領域MA(図8)を含む必要はなく、平均形状領域BSAのみによって構成されるとしてもよい。また、平均顔画像A0(x)の代わりに、サンプル顔画像SIの統計的分析に基づき設定される他の基準顔画像が用いられるとしてもよい。
また、上記各実施例では、AAMを用いた形状モデルおよびテクスチャーモデルの設定が行われているが、他のモデル化手法(例えばMorphable Modelと呼ばれる手法やActive Blobと呼ばれる手法)を用いて形状モデルおよびテクスチャーモデルの設定が行われるとしてもよい。
また、上記各実施例では、メモリーカードMCに格納された画像が対象画像OIに設定されているが、対象画像OIは例えばネットワークを介して取得された画像であってもよい。
また、上記各実施例における画像処理装置としてのプリンター100の構成はあくまで一例であり、プリンター100の構成は種々変更可能である。例えば、画像変換部212と画像変換部241とは互いに独立した構成である必要はなく、1つの共通の構成であってもよい。また、上記各実施例では、画像処理装置としてのプリンター100による画像処理を説明したが、処理の一部または全部がパーソナルコンピューターやデジタルスチルカメラ、デジタルビデオカメラ等の他の種類の画像処理装置により実行されるものとしてもよい。また、プリンター100はインクジェットプリンターに限らず、他の方式のプリンター、例えばレーザプリンターや昇華型プリンターであるとしてもよい。
上記各実施例において、ハードウェアによって実現されていた構成の一部をソフトウェアに置き換えるようにしてもよく、逆に、ソフトウェアによって実現されていた構成の一部をハードウェアに置き換えるようにしてもよい。
また、本発明の機能の一部または全部がソフトウェアで実現される場合には、そのソフトウェア(コンピュータープログラム)は、コンピューター読み取り可能な記録媒体に格納された形で提供することができる。この発明において、「コンピューター読み取り可能な記録媒体」とは、フレキシブルディスクやCD−ROMのような携帯型の記録媒体に限らず、各種のRAMやROM等のコンピューター内の内部記憶装置や、ハードディスク等のコンピューターに固定されている外部記憶装置も含んでいる。
100…プリンター
110…CPU
120…内部メモリー
140…操作部
150…表示部
160…プリンターエンジン
170…カードインターフェース
172…カードスロット
200…画像処理部
210…顔特徴位置特定部
211…初期配置部
212…画像変換部
213…判定部
214…更新部
215…正規化部
220…モデル選択部
230…顔領域検出部
240…補正処理部
241…画像変換部
242…特徴量処理部
310…表示処理部
320…印刷処理部

Claims (11)

  1. 対象画像における顔画像の所定のテクスチャー特徴量を変更する画像処理装置であって、
    基準となる顔形状である基準形状であって互いに異なる顔画像サイズに対応する複数の前記基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルであって互いに異なる顔画像サイズに対応する複数の前記テクスチャーモデルと、を特定する情報を記憶する記憶部と、
    前記対象画像における顔の所定の特徴部位の位置を特定する顔特徴位置特定部と、
    前記対象画像における顔画像サイズを取得し、前記取得された顔画像サイズに基づき1つの前記基準形状と1つの前記テクスチャーモデルとを選択するモデル選択部と、
    前記対象画像における前記特徴部位の位置により規定される顔形状が選択された前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う第1の画像変換部と、
    選択された前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量を変更する特徴量処理部と、
    前記所定のテクスチャー特徴量の変更後の前記対象画像に対して前記第1の変換の逆変換を行う第2の画像変換部と、を備える、画像処理装置。
  2. 請求項1に記載の画像処理装置であって、
    前記モデル選択部は、前記取得された顔画像サイズに最も近い顔画像サイズに対応する前記基準形状と前記テクスチャーモデルを選択する、画像処理装置。
  3. 請求項1または請求項2に記載の画像処理装置であって、
    前記特徴量処理部は、選択された前記テクスチャーモデルを用いて、前記第1の変換後の前記対象画像について顔テクスチャーを特定し、特定された顔テクスチャーにおいて前記所定のテクスチャー特徴量を変更する、画像処理装置。
  4. 請求項1ないし請求項3のいずれかに記載の画像処理装置であって、
    前記特徴量処理部は、影成分に実質的に対応する前記所定のテクスチャー特徴量を変更する、画像処理装置。
  5. 請求項1ないし請求項4のいずれかに記載の画像処理装置であって、
    前記モデル選択部は、前記対象画像において特定された前記特徴部位の位置に基づき、前記対象画像における顔画像サイズを取得する、画像処理装置。
  6. 請求項1ないし請求項5のいずれかに記載の画像処理装置であって、
    前記記憶部が記憶する前記情報は、顔形状を前記基準形状と少なくとも1つの形状特徴量とにより表す形状モデルであって互いに異なる顔画像サイズに対応する複数の前記形状モデルを特定する情報を含み、
    前記顔特徴位置特定部は、前記形状モデルと前記テクスチャーモデルとを用いて、前記対象画像における前記特徴部位の位置を特定する、画像処理装置。
  7. 請求項6に記載の画像処理装置であって、
    前記形状モデルおよび前記テクスチャーモデルは、前記特徴部位の位置が既知である複数のサンプル顔画像を対象とした統計的分析に基づき設定される、画像処理装置。
  8. 請求項7に記載の画像処理装置であって、
    前記基準形状は、前記複数のサンプル顔画像における前記特徴部位の平均位置を表す平均形状であり、
    前記基準テクスチャーは、前記平均形状に形状変換された前記複数のサンプル顔画像の前記特徴部位の位置における画素値の平均を表す平均テクスチャーである、画像処理装置。
  9. 対象画像における顔画像の所定のテクスチャー特徴量を変更する画像処理方法であって、
    (a)基準となる顔形状である基準形状であって互いに異なる顔画像サイズに対応する複数の前記基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルであって互いに異なる顔画像サイズに対応する複数の前記テクスチャーモデルと、を特定する情報を取得する工程と、
    (b)前記対象画像における顔の所定の特徴部位の位置を特定する工程と、
    (c)前記対象画像における顔画像サイズを取得し、前記取得された顔画像サイズに基づき1つの前記基準形状と1つの前記テクスチャーモデルとを選択する工程と、
    (d)前記対象画像における前記特徴部位の位置により規定される顔形状が選択された前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う工程と、
    (e)選択された前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量を変更する工程と、
    (f)前記所定のテクスチャー特徴量の変更後の前記対象画像に対して前記第1の変換の逆変換を行う工程と、を備える、画像処理方法。
  10. 対象画像における顔画像の所定のテクスチャー特徴量を変更する画像処理のためのコンピュータープログラムであって、
    基準となる顔形状である基準形状であって互いに異なる顔画像サイズに対応する複数の前記基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルであって互いに異なる顔画像サイズに対応する複数の前記テクスチャーモデルと、を特定する情報を取得する機能と、
    前記対象画像における顔の所定の特徴部位の位置を特定する顔特徴位置特定機能と、
    前記対象画像における顔画像サイズを取得し、前記取得された顔画像サイズに基づき1つの前記基準形状と1つの前記テクスチャーモデルとを選択するモデル選択機能と、
    前記対象画像における前記特徴部位の位置により規定される顔形状が選択された前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う第1の画像変換機能と、
    選択された前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量を変更する特徴量変更機能と、
    前記所定のテクスチャー特徴量の変更後の前記対象画像に対して前記第1の変換の逆変換を行う第2の画像変換機能と、を、コンピューターに実現させる、コンピュータープログラム。
  11. 対象画像における顔画像の所定のテクスチャー特徴量を変更する印刷装置であって、
    基準となる顔形状である基準形状であって互いに異なる顔画像サイズに対応する複数の前記基準形状と、前記基準形状を有する顔画像の画素値により規定される顔テクスチャーを基準テクスチャーと少なくとも1つの前記テクスチャー特徴量とにより表すテクスチャーモデルであって互いに異なる顔画像サイズに対応する複数の前記テクスチャーモデルと、を特定する情報を記憶する記憶部と、
    前記対象画像における顔の所定の特徴部位の位置を特定する顔特徴位置特定部と、
    前記対象画像における顔画像サイズを取得し、前記取得された顔画像サイズに基づき1つの前記基準形状と1つの前記テクスチャーモデルとを選択するモデル選択部と、
    前記対象画像における前記特徴部位の位置により規定される顔形状が選択された前記基準形状と等しくなるように、前記対象画像に対して第1の変換を行う第1の画像変換部と、
    選択された前記テクスチャーモデルを用いて前記第1の変換後の前記対象画像における前記所定のテクスチャー特徴量を変更する特徴量処理部と、
    前記所定のテクスチャー特徴量の変更後の前記対象画像に対して前記第1の変換の逆変換を行う第2の画像変換部と、
    前記対象顔画像を印刷する印刷部と、を備える、印刷装置。
JP2009029380A 2009-02-12 2009-02-12 顔画像の所定のテクスチャー特徴量を変更する画像処理 Withdrawn JP2010186288A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2009029380A JP2010186288A (ja) 2009-02-12 2009-02-12 顔画像の所定のテクスチャー特徴量を変更する画像処理
US12/703,693 US20100202699A1 (en) 2009-02-12 2010-02-10 Image processing for changing predetermined texture characteristic amount of face image
CN2010101182526A CN101807299B (zh) 2009-02-12 2010-02-10 变更脸图像的规定的纹理特征量的图像处理

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009029380A JP2010186288A (ja) 2009-02-12 2009-02-12 顔画像の所定のテクスチャー特徴量を変更する画像処理

Publications (1)

Publication Number Publication Date
JP2010186288A true JP2010186288A (ja) 2010-08-26

Family

ID=42540473

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009029380A Withdrawn JP2010186288A (ja) 2009-02-12 2009-02-12 顔画像の所定のテクスチャー特徴量を変更する画像処理

Country Status (3)

Country Link
US (1) US20100202699A1 (ja)
JP (1) JP2010186288A (ja)
CN (1) CN101807299B (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144648A1 (ja) * 2011-04-19 2012-10-26 日本電気株式会社 顔画像補正システム、顔画像補正方法及び顔画像補正用プログラムを格納する記憶媒体
JP2013171470A (ja) * 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
JP2015522200A (ja) * 2012-08-28 2015-08-03 騰訊科技(深▲セン▼)有限公司Tencent Technology(Shenzhen)Company Limited 人顔特徴点の位置決め方法、装置及び記憶媒体
KR101678455B1 (ko) * 2015-10-14 2016-11-23 한국과학기술연구원 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법
KR101691806B1 (ko) * 2015-07-13 2017-01-02 주식회사 시어스랩 전처리를 이용한 영상 디스플레이 방법 및 장치
KR101774913B1 (ko) 2016-12-21 2017-09-06 주식회사 시어스랩 전처리를 이용한 영상 디스플레이 방법 및 장치

Families Citing this family (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8331698B2 (en) * 2010-04-07 2012-12-11 Seiko Epson Corporation Ethnicity classification using multiple features
JP2013046374A (ja) * 2011-08-26 2013-03-04 Sanyo Electric Co Ltd 画像処理装置
JP5851160B2 (ja) * 2011-08-31 2016-02-03 オリンパス株式会社 画像処理装置、画像処理装置の作動方法、及び画像処理プログラム
WO2013036618A1 (en) * 2011-09-06 2013-03-14 Canfield Scientific, Incorporated Systems, devices, and methods for image analysis
US20130169621A1 (en) * 2011-12-28 2013-07-04 Li Mei Method of creating and transforming a face model and related system
US9947142B2 (en) * 2014-11-18 2018-04-17 St. Jude Medical, Cardiology Division, Inc. Methods and systems for generating a patch surface model of a geometric structure
CN108352068A (zh) 2015-11-18 2018-07-31 皇家飞利浦有限公司 用于估计测试对象的绝对尺寸大小的方法和设备
US10891789B2 (en) * 2019-05-30 2021-01-12 Itseez3D, Inc. Method to produce 3D model from one or several images
US11847778B2 (en) * 2020-08-21 2023-12-19 Apple Inc. Image capture techniques personalized to individual subjects being imaged
US11625875B2 (en) * 2020-11-06 2023-04-11 Adobe Inc. Generating modified digital images incorporating scene layout utilizing a swapping autoencoder
US11900545B2 (en) * 2022-01-06 2024-02-13 Lemon Inc. Creating effects based on facial features

Family Cites Families (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000357221A (ja) * 1999-06-15 2000-12-26 Minolta Co Ltd 画像処理装置および画像処理方法、ならびに画像処理プログラムを記録した記録媒体
JP3639475B2 (ja) * 1999-10-04 2005-04-20 シャープ株式会社 3次元モデル生成装置および3次元モデル生成方法ならびに3次元モデル生成プログラムを記録した記録媒体
US6775397B1 (en) * 2000-02-24 2004-08-10 Nokia Corporation Method and apparatus for user recognition using CCD cameras
US6807290B2 (en) * 2000-03-09 2004-10-19 Microsoft Corporation Rapid computer modeling of faces for animation
GB0112773D0 (en) * 2001-05-25 2001-07-18 Univ Manchester Object identification
JP2006520055A (ja) * 2003-03-06 2006-08-31 アニメトリックス,インク. 2次元画像からの3次元オブジェクトの不変視点検出および識別
US7218774B2 (en) * 2003-08-08 2007-05-15 Microsoft Corp. System and method for modeling three dimensional objects from a single image
US7804997B2 (en) * 2004-06-10 2010-09-28 Technest Holdings, Inc. Method and system for a three dimensional facial recognition system
US7454039B2 (en) * 2004-07-12 2008-11-18 The Board Of Trustees Of The University Of Illinois Method of performing shape localization
JP2006048322A (ja) * 2004-08-04 2006-02-16 Seiko Epson Corp オブジェクト画像検出装置、顔画像検出プログラムおよび顔画像検出方法
US7689010B2 (en) * 2004-12-03 2010-03-30 Invacare International Sarl Facial feature analysis system
US7415152B2 (en) * 2005-04-29 2008-08-19 Microsoft Corporation Method and system for constructing a 3D representation of a face from a 2D representation
US7609859B2 (en) * 2005-06-14 2009-10-27 Mitsubishi Electric Research Laboratories, Inc. Method and system for generating bi-linear models for faces
JP2007096405A (ja) * 2005-09-27 2007-04-12 Fujifilm Corp ぶれ方向判定方法および装置ならびにプログラム
JP2007141107A (ja) * 2005-11-21 2007-06-07 Canon Inc 画像処理装置およびその方法
CN1818977A (zh) * 2006-03-16 2006-08-16 上海交通大学 由一幅正面图像实现快速人脸模型重建的方法
US7965875B2 (en) * 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
CN100389430C (zh) * 2006-06-13 2008-05-21 北京中星微电子有限公司 基于aam的头部姿态实时估算方法及系统
US7689011B2 (en) * 2006-09-26 2010-03-30 Hewlett-Packard Development Company, L.P. Extracting features from face regions and auxiliary identification regions of images for person recognition and other applications
DE602008001607D1 (de) * 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
WO2008144825A1 (en) * 2007-06-01 2008-12-04 National Ict Australia Limited Face recognition
US8155399B2 (en) * 2007-06-12 2012-04-10 Utc Fire & Security Corporation Generic face alignment via boosting
US8180112B2 (en) * 2008-01-21 2012-05-15 Eastman Kodak Company Enabling persistent recognition of individuals in images
US8165354B1 (en) * 2008-03-18 2012-04-24 Google Inc. Face recognition with discriminative face alignment
US8224037B2 (en) * 2008-04-10 2012-07-17 Utc Fire & Security Americas Corporation, Inc. Methods involving face model fitting

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2012144648A1 (ja) * 2011-04-19 2012-10-26 日本電気株式会社 顔画像補正システム、顔画像補正方法及び顔画像補正用プログラムを格納する記憶媒体
JP2013171470A (ja) * 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
JP2015522200A (ja) * 2012-08-28 2015-08-03 騰訊科技(深▲セン▼)有限公司Tencent Technology(Shenzhen)Company Limited 人顔特徴点の位置決め方法、装置及び記憶媒体
KR101691806B1 (ko) * 2015-07-13 2017-01-02 주식회사 시어스랩 전처리를 이용한 영상 디스플레이 방법 및 장치
KR101678455B1 (ko) * 2015-10-14 2016-11-23 한국과학기술연구원 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법
WO2017065403A1 (ko) * 2015-10-14 2017-04-20 재단법인 실감교류인체감응솔루션연구단 질감인지공간을 이용한 햅틱 속성 적용 장치 및 방법
KR101774913B1 (ko) 2016-12-21 2017-09-06 주식회사 시어스랩 전처리를 이용한 영상 디스플레이 방법 및 장치

Also Published As

Publication number Publication date
CN101807299A (zh) 2010-08-18
US20100202699A1 (en) 2010-08-12
CN101807299B (zh) 2012-07-18

Similar Documents

Publication Publication Date Title
JP2010186288A (ja) 顔画像の所定のテクスチャー特徴量を変更する画像処理
JP2010182150A (ja) 顔の特徴部位の座標位置を検出する画像処理装置
JP2010186216A (ja) 顔画像における特徴部位の位置の特定
JP2010191592A (ja) 顔の特徴部位の座標位置を検出する画像処理装置
JP4924264B2 (ja) 画像処理装置、画像処理方法、および、コンピュータプログラム
JP2011060038A (ja) 画像処理装置
US10467793B2 (en) Computer implemented method and device
JP2011053942A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2010250420A (ja) 顔の特徴部位の座標位置を検出する画像処理装置
JP2010055257A (ja) 画像処理装置、画像処理方法および画像処理プログラム
JP2010244321A (ja) 顔画像を表す顔モデルを設定する画像処理
JP2010170184A (ja) 顔画像における特徴部位の位置の特定
JP2010282339A (ja) 目における瞳の位置を補正する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置
JP2010176314A (ja) 顔の特徴部位の座標位置を検出する画像処理装置
JP2010250419A (ja) 目の様態を検出する画像処理装置
JP2008299365A (ja) 画像処理装置、画像処理方法、および、コンピュータプログラム
JP2010271955A (ja) 画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置
US8031915B2 (en) Image processing device and image processing method
JP2010244251A (ja) 顔の特徴部位の座標位置を検出する画像処理装置
JP2000285222A (ja) 目元メーキャップシミュレーションシステム
JP2010245721A (ja) 顔画像に対する画像処理
JP5639499B2 (ja) 顔画像処理装置
JP2009253324A (ja) 画像処理装置、画像処理方法、及びプログラム
JP2010244318A (ja) 顔画像における特徴部位の位置を特定する画像処理
JP2010282340A (ja) 画像に含まれる目の状態を判定する画像処理装置、画像処理方法、画像処理プログラム、および、印刷装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20111205

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20120312