JP6744905B2 - 改善された年齢モデル化方法 - Google Patents

改善された年齢モデル化方法 Download PDF

Info

Publication number
JP6744905B2
JP6744905B2 JP2018237814A JP2018237814A JP6744905B2 JP 6744905 B2 JP6744905 B2 JP 6744905B2 JP 2018237814 A JP2018237814 A JP 2018237814A JP 2018237814 A JP2018237814 A JP 2018237814A JP 6744905 B2 JP6744905 B2 JP 6744905B2
Authority
JP
Japan
Prior art keywords
age
face
wrinkles
wrinkle
shape
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2018237814A
Other languages
English (en)
Other versions
JP2019114253A (ja
Inventor
ヴィクター マーティン
ヴィクター マーティン
ルノー セギエ
ルノー セギエ
オレリー ポルシュロン
オレリー ポルシュロン
Original Assignee
シャネル パフュームズ ビューテ
シャネル パフュームズ ビューテ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シャネル パフュームズ ビューテ, シャネル パフュームズ ビューテ filed Critical シャネル パフュームズ ビューテ
Publication of JP2019114253A publication Critical patent/JP2019114253A/ja
Application granted granted Critical
Publication of JP6744905B2 publication Critical patent/JP6744905B2/ja
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/213Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods
    • G06F18/2135Feature extraction, e.g. by transforming the feature space; Summarisation; Mappings, e.g. subspace methods based on approximation criteria, e.g. principal component analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • G06T3/608Rotation of whole images or parts thereof by skew deformation, e.g. two-pass or three-pass rotation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/0002Inspection of images, e.g. flaw detection
    • G06T7/0012Biomedical image inspection
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/7715Feature extraction, e.g. by transforming the feature space, e.g. multi-dimensional scaling [MDS]; Mappings, e.g. subspace methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2111/00Details relating to CAD techniques
    • G06F2111/10Numerical modelling
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20024Filtering details
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20076Probabilistic image processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20121Active appearance model [AAM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20124Active shape model [ASM]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • Medical Informatics (AREA)
  • Human Computer Interaction (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • General Engineering & Computer Science (AREA)
  • Data Mining & Analysis (AREA)
  • Computing Systems (AREA)
  • Databases & Information Systems (AREA)
  • Radiology & Medical Imaging (AREA)
  • Computer Hardware Design (AREA)
  • Quality & Reliability (AREA)
  • Nuclear Medicine, Radiotherapy & Molecular Imaging (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

本発明は、顔の画像上に見える顔のシワおよびシミをモデル化するための画像処理の分野に関する。本発明は、顔のシワおよびシミのシミュレーションを含む、加齢または若返りのシミュレーションにも関する。
公表文献T. F. Cootes他"Active Appearance Models", Proc. European Conference on Computer Vision 1998, Vol. 2, 484-498頁, Springer, 1998から、顔の形状および外観に対するいくつかの特徴を顔の画像から抽出することによる、個人の顔のモデル化の方法が既知である。
この方法は、顔の形状または外観が変更された新たな画像をシミュレートするために、顔のモデルが得られると、このモデルのいくつかのパラメータを変更することも可能にする。
このモデルは、特に、以下の2つの公表文献に記載されているように、顔の外観に対する年齢の影響をシミュレートするために用いられてきた。
− A. Lanitis他 "Modeling the Process of Ageing in Face Images", IEEE, 131-136頁vol. 1, DOI 10.1109/ICCV.1999.791208、
− A. Lanitis他 "Toward automatic simulation of aging effects on face images”, IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(4):442-455
年齢変動をシミュレートするために実施される技法は、T. F. Cootesのアクティブ外観モデルを利用する。基準母集団を形成する複数の個人の顔の画像が、アクティブ外観モデルを用いて処理され、顔ごとに、顔のモデルが抽出される。
図1に概略的に示されるように、この処理は、1つの画像から、顔の形状を表す固定長ベクトル、および顔の外観を表す固定長ベクトルを抽出することを含む。
母集団の全ての顔について2つのベクトルが取得されると、顔の形状を表す全てのベクトルに対し主成分分析が行われ、形状重みが得られ、顔の外観を表す全てのベクトルに対し別の主成分分析が行われ、外観重みが得られ、形状重みおよび外観重みの連結に対し最終的な主成分分析が行われ、顔のテクスチャおよび形状の双方の変動がモデル化される部分空間が作成される。
年齢に対するこの新たに作成された空間からの座標の回帰は、顔の加齢の方向を示す。このため、この空間に新たな顔を投影し、これを顔の加齢の方向に変換し、修正された形状およびテクスチャを有する顔の画像を再構成して、加齢したまたは若返った外観を得ることができる。
しかしながら、この手法は、生成される加齢した外観がぼやけているという制限を有する。なぜなら、シワおよびシミ等の高周波の詳細がモデルにおいて十分に検討されていないためである。
この問題を受け、Bukar AM他"On Facial Age Progression Based on Modified Active Appearance Models with Face Texture" Advances in Computational Intelligence Systems, vol 513, Springer International Publishing, Cham, 465-479頁に開示されている手法等の別の手法は、アクティブ外観モデルを用いて、外観および形状を含む顔のモデルを生成し、外観に対し、高周波の詳細のパッチを重ね合わせる後処理ステップを追加する。この後処理は、これらの高周波の詳細における年齢の進行に対する影響の統計的分析に基づいて行われるものではなく、このため年齢の進行をシミュレートするのに十分精密でない場合がある。
最後に、国際公開第2009/014832号パンフレットから、年齢に伴うシワの変化をシミュレートするために人物の顔の画像を操作する方法も既知である。しかしながら、この方法は、人物の顔の無表情の画像および表情画像を処理することによって実施され、このため、年齢の進行から統計的に学習されておらず、結果として年齢の進行の関連シミュレーションが得られない場合がある。
国際公開第2009/014832号パンフレット
T. F. Cootes他 "Active Appearance Models", Proc. European Conference on Computer Vision 1998, Vol. 2, 484-498頁, Springer, 1998 A. Lanitis他 "Modeling the Process of Ageing in Face Images", IEEE, 131-136頁vol. 1, DOI 10.1109/ICCV.1999.791208 A. Lanitis他 "Toward automatic simulation of aging effects on face images", IEEE Transactions on Pattern Analysis and Machine Intelligence, 24(4):442-455 Bukar AM他 "On Facial Age Progression Based on Modified Active Appearance Models with Face Texture" Advances in Computational Intelligence Systems, vol 513, Springer International Publishing, Cham, 465-479頁 G. J. Edwards、A. Lanitis、C. J. TaylorおよびT. F. Cootes "Statistical Face Models : Improved Specificity. Image and Vision Computing, Vol. 16, no 3, 203-211頁, 1998
上記を鑑みて、本発明は、従来技術の制限のうちの少なくとも1つを克服することを目的とする。
特に、本発明は、シワ等の顔の高周波の詳細を、関連性をもってモデル化し、人物の年齢変動をシミュレートするためにこのモデル化を用いることを目的とする。
本発明の別の目的は、シワの展開に対する年齢変動の影響を正確に反映することである。
本発明の別の目的は、同じ人物が有し得る異なるライフスタイルまたは挙動に従って、この人物の加齢をシミュレートすることを可能にすることである。
このために、顔の画像から、顔の年齢に関係した特性(trait)をモデル化する方法が開示される。年齢に関係した特性は、シワまたはシミのいずれかであり、この方法は、
− 顔の同じ性質の年齢に関係した特性ごとに、年齢に関連した特性の形状および外観のパラメータを含むベクトルを生成するステップと、
− 生成されたベクトルから、顔における同じ性質の年齢に関係した特性をモデル化する単一の表現ベクトルを生成するステップと、
を含み、単一の表現ベクトルは、顔における特性の数、および顔にわたる、特性の形状パラメータおよび外観パラメータの同時確率に関する情報を記憶する。
実施形態において、特性の形状および外観のパラメータを含むベクトルを生成するステップは、
− 特性の複数の点の座標を取得するステップと、
− 前記座標を処理して特性の形状パラメータを推測するステップと、
を含む。
特定の実施形態において、年齢に関係した特性はシワであり、この方法は、各シワの少なくとも5つの点の座標の取得を含み、点は、シワにわたって規則的に間隔をあけられ、シワの各端部に少なくとも1つの点を含む。
この場合、シワの形状特徴は、
− シワの中心の座標と、
− シワの長さと、
− 基準軸に対するシワの角度と、
− シワの曲率と、
を含むことができる。
シワの外観パラメータは、好ましくはシワの厚さσおよび深さAを含み、これらのパラメータを抽出するための画像の処理は、シワごとに、
− シワを含む画像の一部をハイパスフィルタリングするステップと、
− 各シワを共通形状にワープするステップと、
− ワープされたシワの複数の横方向プロファイルにおいて曲線を当てはめ、プロファイルごとに、当てはめられた曲線の最大振幅値および幅値を抽出するステップと、
− 複数のプロファイルの各々について抽出された最大振幅値および幅値からそれぞれAおよびσを計算するステップと、
を含む。
好ましくは、曲線は二次微分ローレンツ関数である。
実施形態において、単一の表現ベクトルは、顔の同じ性質の特性の平均特徴を更に含む。
好ましくは、表現ベクトルを生成するステップは、
− 顔における少なくとも1つのゾーンを定義するステップと、
− ゾーンごとに、
ゾーンの年齢に関係した特性の同時確率を計算するステップと、
年齢に関係した特性の同時確率、ゾーンの年齢に関係した特性の数、およびゾーンの年齢に関係した特性の平均特徴を含むゾーンベクトルを定義するステップと、
ゾーンベクトルを連結して表現ベクトルを得るステップと、
を含む。
好ましい実施形態では、年齢に関係した特性の同時確率は、一度に2つ取得される各特性を表すベクトルの全ての特徴の同時確率を計算することによって近似される。
人物の年齢をモデル化する方法も開示される。この方法は、
− 基準母集団を形成する複数の個人の顔の画像を処理して、画像ごとに、
いずれも上記で説明した方法を実施することによって得られた、シワモデルおよびシミモデルのうちの少なくとも1つと、
形状モデルと、
外観モデルと、
を抽出するステップと、
− 複数のシワモデルおよび/またはシミモデル、形状モデル、ならびに外観モデルに対し、それぞれの主成分分析を行い、それぞれ、シワおよび/またはシミ、形状、ならびに外観の重みを得るステップと、
− シワおよび/またはシミ、形状、ならびに外観の重みに対し主成分分析を行い、集約された重みを得るステップと、
− 関数の当てはめにより、集約された重みと、年齢または見た目年齢との間の関係を推測するステップと、
を含む。
基準母集団は、以下のうちの少なくとも1つに関して類似のライフスタイルを有するものとして選択することができる。
− 喫煙、
− 飲酒、
− 日光への露出、
− 栄養、
− スキンケア製品の使用。
基準母集団は、性別、地理的ロケーション、および民族性に従って選択することもできる。
実施形態において、人物の年齢をモデル化する方法は、人物の年齢変動をシミュレートするステップを更に含むことができ、このステップは、
− 人物の顔の画像に対応するプロットの1つの集約された重みを選択するステップと、
− 対応する年齢または見た目年齢を特定するステップと、
− 当てはめられた関数により、年齢変動に従って変更される年齢または見た目年齢のための更新された集約重みをシミュレートするステップと、
− 更新された集約重みを処理して、年齢変動に対応する人物の顔の画像を推測するステップと
を含む。
コンピュータプログラム製品も開示され、このコンピュータプログラム製品は、プロセッサによって実行されるとき、上記の説明による方法を実行するための命令を含む。
画像処理ユニットも開示され、この画像処理ユニットは、命令を記憶するメモリと、メモリに記憶された命令を実行するように適合された計算機とを備え、この画像処理ユニットは、人物の顔の少なくとも1つの画像を受信し、受信した画像に対し、上記の説明による方法を実施するように構成される。
本発明による方法は、画像が撮られた人物の年齢がいくつであろうと、顔の画像から、顔のシワの固定長の表現を生成することを可能にする。より詳細には、シワの数および外観がいかなるものであろうと、全てのシワをモデル化するベクトルは常に同じサイズである。
結果として、複数の顔のシワをモデル化するベクトルを主成分分析にかけることができ、したがって、このシワモデル化は、このモデルの精密度および関連度を高めるためにアクティブ外観モデルに組み込むことができる。
このモデルを用いて、年齢変動を正確にシミュレートし、加齢した外観を有する画像を生成することが可能である。人物のライフスタイルに従って、様々な加齢した外観をシミュレートし、年齢の知覚に影響を及ぼす顔の視覚的手がかり(visual cue)に対する加齢の影響を低減するために、特定のスキンケア製品を勧めることも可能である。
本発明の他の特徴および利点は、添付の図面を参照して非限定的な例として与えられる以下の詳細な説明から明らかとなろう。
既に提示した、アクティブ外観モデルの実施を概略的に示す図である。 モデル化方法の実施形態、および人物の顔をモデル化するための、アクティブ外観モデルへのその統合を示す。 本発明の実施形態によるモデル化方法の主要ステップを示す。 図4aは、平均形状にワープされたシワ、およびシワの選択された輝度プロファイルを表す。図4bは、図4aの選択された輝度プロファイルに対し当てはめられた二次微分ローレンツ曲線を表す。 1人の人物の眉間のシワの同時確率のサブセットの例を示す。 シワモデルからのシワの表現の再構成の例を示す。 シワモデルからのシワの表現の再構成の例を示す。 本発明の1つの実施形態による加齢シミュレーション方法の結果の例を示し、中央に、ある人物の顔の元の画像を示し、左側に、20歳若返った同じ人物を示し、右側に、20歳加齢した同じ人物を示す。 本発明の1つの実施形態による方法を実行するためのシステムを概略的に示す。
ここで、図2および図3を参照して、人物の顔の年齢に関係した特性をモデル化するための方法が説明される。
以下の全てにおいて、年齢に関係した特性は、シワまたはシミに関係する。これらは、年齢と共に増大する傾向があり、したがって年齢の知覚に影響を及ぼす2つの視覚的手がかりである。
この方法は、図8に概略的に示される画像処理ユニット1によって実施されることが好ましい場合がある。この画像処理ユニット1は、以下に開示される方法による、画像および画像から抽出されたデータを処理するためのコード命令、好ましくはソフトウェア命令を記憶するメモリ10を備える。画像処理ユニット1は、コード命令を実行するように構成された計算機11も備える。計算機は、好ましくは、プロセッサ、マイクロプロセッサとすることができ、またはそうでなければ、マイクロコントローラーとすることができる。
画像処理ユニットによって処理される画像は、好ましくは、専用インタフェース15を通じて、カメラ12またはストレージデバイス13からロードされる。ストレージデバイスは、SDカード、USBスティック等のポータブルストレージデバイスとすることができる。ストレージデバイスは、画像処理ユニットが接続されるローカルまたはリモートデータベース等の固定メモリとすることもできる。
シワまたはシミをモデル化する方法
図2および図3に戻ると、ここで、顔のシワまたはシミのいずれかをモデル化するベクトルを抽出するための、顔の画像の処理が説明される。シワおよびシミの双方のモデル化が望ましい場合、このモデル化は、シワについて1回、およびシミについて1回、別個に行うことができる。
方法はまず、顔の同じ性質の年齢に関連した特性(すなわち、シワまたはシミ)ごとに、特性の形状特徴および外観特徴を記憶するベクトルを生成するステップ100を含む。
第1のサブステップ110中、特性は、複数の点により注釈付けされ、それらの座標が取得される。注釈付けは、好ましくは、顔の画像に対し、オペレータによって手動で行われる。
好ましい実施形態では、特性がシワであるとき、各シワは、少なくとも5つの点で注釈付けされ、更に好ましくは、厳密に5つの点で注釈付けされる。好ましい実施形態では、点は、シワの長さに沿って規則的に位置決めされ、点のうちの1つは、シワの各端部に位置する。このため、5つの点の場合、点のうちの2つがシワの端部に位置し、1つは中心に位置し、残りの2つは、中心とそれぞれの端部との間の半分の距離に位置する。
シミの場合、複数の点は、好ましくは、シミの境界の周りに規則的に分布することができる。
次に、複数の形状特徴を推測するサブステップ120中に、注釈付け点の座標が処理される。
好ましくは、シワの形状特徴は、以下を含む。
− シワの中心の座標(c,c)、
− 注釈付けの最初の点と最後の点との間の測地距離に等しいシワの長さl、
− 所定の軸、例えば水平軸を基準としたシワの角度α、
− 次の式:
の最小二乗法による最小化として計算されるシワの曲率C。ここで、XおよびYは、それぞれ、原点を中心とするシワの横座標および縦座標であり、最初の点および最後の点が水平方向に位置合わせされている。
したがって、シワの場合、形状は、5つのパラメータ(c,c,l,α,C)を用いてモデル化することができる。
シミの場合、注釈付け点の座標は、シミの上の所定の形状、例えば、円または楕円に当てはめるように処理することができ、形状パラメータは、当てはめられた形状を特徴付けるパラメータ(例えば、中心座標または焦点座標、半径または軌道長半径および軌道短半径、所定の軸を基準とした角度)を含むことができる。ベクトルは、好ましくは、シミの上でどのような形状が当てはめられようと、同じ長さを有するように構築される。
好ましい実施形態によれば、シミの形状特徴は、以下を含む。
− シミの中心の座標(c,c)、
− それぞれ長軸の長さおよび短軸の長さに等しい、シミの長さlMAJおよびlmin。これらの軸は、シミの境界に沿った点において当てはめられた楕円の軸である、
− 所定の軸、例えば水平軸を基準としたシミの角度α。
したがって、シミの場合、形状は、5つのパラメータ(c,c,lMAJ,lmin,α)を用いてモデル化することができる。
次に、方法は、各シワまたはシミからの外観特徴の抽出130を含む。
シワの場合にこれを行うために、各シワは、そのシワの周りの境界ボックスを生成することによって選択され、各ボックスは、肌の色に関連する低周波情報を除去し、シワの外観自体に関する高周波情報を維持するために、ハイパスフィルタリングされる。
このハイパスフィルタリングは、ボックスに含まれる画像の部分と、そのぼやけたバージョンとの間のガウス差によって行われる。
次に、シワの外観が所定の形状にワープされる。この所定の形状は、例えば、顔のシワの平均形状とすることができる。これは、顔の特定のゾーンにおける、顔の複数の画像のシワの平均形状とすることもできる。図4aに示す特定の実施形態において、所定の形状は、所定の長さの水平のシワとすることもできる。
次に、シワの複数の横方向プロファイルの各々において曲線が当てはめられる。図4aの例示的な実施形態において、横方向プロファイルは、境界ボックスのピクセルの列であり、各ピクセルは、関連付けられた濃度または輝度を有する。一実施形態において、境界ボックスのピクセルの全ての列の各々に対し曲線を当てはめることができる。しかしながら、計算の必要性を制限するためには、より少ない列が選択されることが好ましい。このため、方法の精度と計算の必要性との間のバランスに従ってサンプリングレートを定義することができる。例えば、シワは、その長さにわたって、5列〜10列のピクセルでサンプリングすることができる。
好ましくは、曲線は、釣鐘曲線の二次微分であり、特に、図4bの例示的な実施形態におけるように、二次微分ガウス関数または二次微分ローレンツ関数である。図4bは、シワの輝度プロファイルにおけるそのような関数の当てはめを示す。
二次微分ローレンツ関数は、以下の形態をとる。
ここで、
− oは、縦座標軸に沿ったオフセットパラメータであり、
− μは、横座標軸に沿ったオフセットパラメータであり、
− Aは、関数のピーク振幅であり、
− σは、関数の標準偏差である。
このため、二次微分ローレンツ関数を、シワの複数の輝度プロファイルの各々に対し最小二乗による最小化により当てはめ、それぞれシワの深さおよび幅を表す値Aおよびσを推測することができる。
それぞれの平均値
および
は、好ましくは、各輝度プロファイルにおける関数の当てはめから得られた値から計算される。
シミの場合の代替的なステップ130’の間、外観パラメータは、シミの平均値または中央値から、シミの周囲の肌の平均値または中央値を減算したものとして計算することができる。
次に、サブステップ140は、形状特徴および外観特徴を含むベクトルを生成することを含む。上記でシワに関して与えられた例によれば、ベクトルは、以下のような7つのパラメータの組である:
次に、方法は、顔の全てのシワまたは顔の全てのシミをモデル化する、単一の固定長の表現ベクトルを生成するステップ200を含む。「固定長」とは、顔におけるシワ/シミの数および配置がいかなるものであっても、表現ベクトルが同じ長さを有することを意味する。
以下でより詳細に説明されるように、この固定長表現により、ある母集団において取得される複数の表現ベクトルにわたって主成分分析を行うことが可能になる。
表現ベクトルは、顔ごとにシワまたはシミの構造および配置をモデル化する少なくとも1つの確率密度を含む。好ましくは、各顔は、例えば、額、法令線、顎、頬等のような複数のゾーンに分割される。ゾーンの数は、少なくとも5つとすることができ、以下の例では15に等しい。別の実施形態において、プロセスは、顔全体にわたって定義される単一のゾーンにわたって行うことができる。
ステップ200は、ステップ100の終了時に得られたシワ/シミの形状特徴および外観特徴の同時確率を顔にわたって計算するサブステップ210を含む。好ましくは、顔を構成する複数のゾーンの各々について同時確率が計算される。
シワに関して上記で与えられた例において、1つのシワを表すベクトルは7つのパラメータを有し、このため、同時確率はP(d,...d)であり、ここで、d,i=1..7は、1つのシワを表すベクトルのi番目の変数である。
そのような同時確率は、次元に起因して、大きなメモリフットプリントを有する可能性がある。この問題を回避するために、好ましい実施形態によれば、前記同時確率は、一度に2つ取得される全ての確率変数について、全ての同時確率を計算することによって近似される。したがって、P(d,...d)は、組{P(d,d),P(d,d),...,P(d,d)}によって近似される。ここで、P(d,d)の各々が、現在のゾーンについて特性パラメータdおよびdの分布を記述する。
7つのパラメータを有するベクトルの場合、21個の同時確率が計算される。計算は、好ましくは、カーネル密度推定(KDE)によって行われる。
好ましくは、この計算は、特性(シワまたはシミ)を表すベクトルのパラメータから平均特性が減算されたものに対し行われる。平均特性は、ステップ100の終了時に得られたのと同じ構造を有するベクトルであり、そのパラメータは、それぞれ、検討されるゾーンにおいて計算されたベクトルのパラメータの平均値である。
1人の人物の眉間のシワに対応する顔の1つのゾーンについて計算される組の同時確率のいくつかの例が図5に示される。これは、組の21個の同時確率のうちの10個を含む。
次に、方法は、顔のゾーンの各々について、以下を含むベクトルを構築するサブステップ220を含む。
− ゾーンのシワまたはシミの数、
− ゾーンの平均のシワまたはシミ、および、
− シワまたはシミから平均のシワ(シミ)が減算されたものに対し計算された21個の同時確率。
同時確率をベクトルに変換するために、例えば、顔のゾーンの行ごとに、同時確率の値を前の行の末尾のベクトルに付加することができる。
最後に、ゾーンごとに構築されたベクトルが連結され、顔のシワまたはシミの表現ベクトルが作成される。
表現ベクトルから、1組のシワまたは1組のシミを再構成するために、この方法を反転することができることを強調することが重要である。ここで、前記表現ベクトルから年齢に関係した特性を再構成する方法300を、図6a〜図6eを参照して説明する。
以下のプロセスは、ゾーンのシワまたはシミの数に到達するまで反復的に行われる。
第1のステップ310は、同時確率P(d,d)のうちの1つのピークを検出し、ピークの対応する値でベクトルを開始することを含む。シワの再構成に関する特定の例によれば、ピークは、好ましくは、シワの中心の座標の同時確率C、Cについて検出することができる。図6aに示す例では、C=39、C=41であり、開始されたベクトルは、(39,41,0,0,0,0,0)である。これは、再構成されたシワが、C=39およびC=41を有することを意味する。
次のステップ320は、第3のパラメータdを決定することを含み、この値は、2つの第1のパラメータおよび第3のパラメータの間の同時確率の各々を最大化する。前の例では、このステップは、同時確率P(c=39,d)およびP(c=41,d)を最大化することに関する。
図6bおよび図6cに与えられる例によれば、第3のパラメータdは、シワの長さlである。図6cにおいて、1−D密度P(c=39,l)およびP(c=41,l)が抽出され、要素ごとの最小化演算に前記1−D密度が適用され、第3の曲線が得られる。lの値が、最大の確率を有する座標として、argmax(min(P(c=39,l),P(c=41,l)))として選択される。図に示される例によれば、l=1である。
図6dおよび図6eに示されるように、次に、このステップは、第4のパラメータd’を得るために反復される(なお、図5、6d〜6eに記載の「a」は、「α」のことである)。図において、第4のパラメータはαとして選択される。1−D密度P(c=39,α)、P(c=41,α)、P(l=1,α)が抽出され、曲線が、要素ごとの最小演算の結果として生成され、αの値がこの曲線の最大値として選択される。
α=argmax(min(P(c=39,α)、P(c=41,α)、P(l=1,α))).
このステップは、シワの全てのパラメータを得るまで反復される。
全てのパラメータが得られると、これらは平均特性のパラメータに合算され、再構成される特性を特徴付けるパラメータが得られる。
特性は、形状パラメータおよび外観パラメータから簡単に生成することができる。シワについて与えられた前の例によれば、形状は、所望の長さlに達するまで、曲率によって定義された多項式をサンプリングすることによって、形状パラメータ(c,c,l,α,C)から作成され、この形状を構成する点が角度αに従って回転され、形状が中心c,cに中心合わせされる。外観は、空の画像を作成し、各列に、パラメータ(A,σ)の二次微分ローレンツ関数に従って変動プロファイルの影響を与えることによって生成される。
最後に、外観が新たに作成された形状にワープされる。
人物の年齢をモデル化する方法
図2を参照して、ここで、人物の年齢をモデル化する方法が説明される。
この方法400は、基準母集団を形成する複数の個人の顔の画像を処理して顔モデルを推測すること(410)を含む。
各画像の処理411は、以下を含むことができる。
− 以後「形状モデル化ベクトル」と呼ばれる、顔の形状パラメータをモデル化するベクトルを抽出すること、
− 以後「外観モデル化ベクトル」と呼ばれる、顔の外観パラメータをモデル化するベクトルを抽出すること、
− 上記で説明した方法に従って、以後「シワモデル化ベクトル」と呼ばれる、顔のシワをモデル化するベクトルを抽出すること、および/または、
− 上記で説明した方法に従って、以後「シミモデル化ベクトル」と呼ばれる、顔のシミをモデル化するベクトルを抽出すること。
本発明の好ましい実施形態によれば、形状パラメータおよび外観パラメータの抽出は、上記で引用したCootes他の公表文献において詳述されているアクティブ外観モデルに従って行われる。G. J. Edwards、A. Lanitis、C. J. TaylorおよびT. F. Cootes "Statistical Face Models : Improved Specificity” Image and Vision Computing, Vol. 16, no 3, 203-211頁, 1998による論文に開示されている顔モデル等の他の顔モデルが用いられてもよい。
したがって、基準母集団について、形状モデル化ベクトルの組、外観モデル化ベクトルの組、およびシワモデル化ベクトルおよび/またはシミモデル化ベクトルの組が得られる。
処理は、ベクトルの各組に対しそれぞれ主成分分析(PCA)を行い(412)、前の各PCAの結果に対し最終的なPCAを行って(413)、基準母集団の平均的な顔に対する形状、外観およびシワにおける顔の変動をモデル化する空間を生成することを含む。
したがって、これに従って各画像が処理される結果として、生成された空間において重みのベクトルWが得られる。
次に、ステップ420の間に、基準母集団の重み行列Wが、画像が撮られた人物の年齢または見た目年齢に対し関係付けられる。
次に、空間への画像の射影のPCA重みWと、基準母集団の年齢または見た目年齢Aとの間で回帰が行われる。好ましくは、最良の結果を得るために三次多項式回帰が行われる。
f(W)=K+L+MW+N=A
ここで、K、L、MおよびNは、回帰関数fのパラメータの行列である。好ましくは、回帰は、線形最小二乗回帰によって行われる。
次に、基準母集団の顔は、ステップ430中に以下によってより年齢が高くまたは低く見えるようにすることができる。
− 顔に対応し、人物の年齢または見た目年齢に対応する重みWcurrentを選択する、
− 回帰関数を用いて、y歳(yは、加齢または若返りをシミュレートするために、正または負であり得る)の年齢変動を有する同じ顔に対応する重みWnewをシミュレートする。前記重みは、以下の定式により計算される。
new=Wcurrent+(f−1(a+y)−f−1(a))
ここで、f−1(a)は、複数の異なる顔が同じ年齢に一致し得ると仮定して、年齢aに対応する平均PCA重みWmean,aとして計算される。f−1(a)を得るために、以下を含むモンテカルロシミュレーションが行われる。
− 複数の重みWの生成、
− f(W)を計算することによる対応する年齢(または見た目年齢)の特定、
− 所与の年齢aについて、f−1(a)が、f(W)=aであるような生成された重みWからの全ての重みWの平均であるルックアップテーブルを作成する。
重みWnewが得られると、この重みに対応する顔を、主成分分析の逆によって得ることができる。
したがって、年齢の増減をシミュレートすることが可能である。例が図7に与えられている。図7は、中央に、顔の元の画像を示し、左側に、20歳若返った顔の再構成された画像を示し、右側に、20歳加齢した顔の再構成された画像を示す。
この例では、基準データベースは、無表情で同じ照明条件下で正面の姿勢で撮影された400人の白人女性で構成された。形状、外観およびシワをモデル化するベクトルが各顔から抽出され、上記の方法に従ってPCAが実行された。PCA重みが見た目年齢に対し回帰され、見た目年齢は、30個の未知の(uninformed)レートでレーティングされ、平均見た目年齢が得られた。データセット内の見た目年齢は、49歳〜85歳の範囲に及び、平均は69歳であった。
図7から見て取ることができるように、シミュレートされた加齢は、顔の形状に影響を及ぼす。口、目および眉毛の大きさは小さくなる傾向にあり、顔のたるみが顎の下端に現れる。また、シミュレートされた加齢は、顔の外観にも影響を及ぼす。顔は全体的により白く、黄色がかるようになり、眉毛およびまつげは見えにくくなり、口は赤みがなくなる。最終的に、シミュレートされた加齢は、シワに影響を及ぼす。なぜなら、より多くのシワが現れ、既存のシワがより深く、広くかつ長くなるためである。
好ましくは、より関連度が高く精密なシミュレーションを得るために、回帰関数が構築される基準母集団は、民族性、地理的ロケーションおよび/または性別に従って選択することができる。
更に、1人の人物の加齢をシミュレートするために用いられる回帰関数を、別のライフスタイル、性別、民族性または地理的ロケーションを有する別の基準母集団の回帰から得て、加齢に対するその影響をシミュレートすることもできる。
例えば、基準母集団は、類似のアルコールまたはタバコ消費、栄養、日光への露出、スキンケア製品の使用等に基づいて精巧に作ることができる。
次に、基準母集団の各々について回帰関数を計算することができ、顔の加齢に対する様々なライフスタイルの影響を比較するために、同じ顔に対し様々な回帰を用いて加齢シミュレーションを行うことができる。
この比較は、スキンケア製品または日焼け止め製品の使用の視覚的手がかりに対する影響を、そのような製品を使用しない場合と比較してシミュレートするために行うこともできる。
更に別の例によれば、それぞれの地理的ロケーションについてプロットされた異なる回帰関数の同じ顔に対する影響を比較することによって、加齢に対する環境要因の影響を研究することができる。
1 画像処理ユニット
10 メモリ
11 計算機
12 カメラ
13 ストレージデバイス
15 専用インタフェース

Claims (15)

  1. 顔の画像から、顔の年齢に関係した特性をモデル化する方法であって、該モデル化された年齢に関係した特性はシワまたはシミのいずれかであり、前記方法は、
    − 前記顔の年齢に関係した特性ごとに、前記年齢に関した特性の形状および外観のパラメータを含むベクトルを生成するステップ(100)と、
    − 前記生成されたベクトルから、前記顔の前記年齢に関係した特性をモデル化する単一の表現ベクトルを生成するステップ(200)と
    を含み、
    前記単一の表現ベクトルは、前記顔における前記年齢に関係した特性の数、および前記顔にわたって計算された前記年齢に関係した特性の前記形状および外観パラメータの同時確率を記憶する、前記方法。
  2. 前記年齢に関係した特性の形状および外観のパラメータを含むベクトルを生成する前記ステップ(100)は、
    − 前記年齢に関係した特性の複数の点の座標を取得するステップ(110)と、
    − 前記座標を処理して前記年齢に関係した特性の形状パラメータを推測するステップ(120)と
    を含む、請求項1に記載の方法。
  3. 前記年齢に関係した特性はシワであり、前記方法は、各シワの少なくとも5つの点の座標の取得を含み、前記点は、前記シワにわたって規則的に間隔をあけられ、前記シワの各端部に少なくとも1つの点を含む、請求項2に記載の方法。
  4. シワの前記形状のパラメータは、
    − 前記シワの中心の座標と、
    − 前記シワの長さと、
    − 基準軸に対する前記シワの角度と、
    − 前記シワの曲率と
    を含む、請求項1または2に記載の方法。
  5. シワの前記外観パラメータは、前記シワの厚さσおよび深さAを含み、前記画像を処理してこれらのパラメータを抽出するステップ(130)は、シワごとに、
    − 前記シワを含む前記画像の一部をハイパスフィルタリングするステップと、
    − 各シワを共通形状にワープするステップと、
    − 前記ワープされたシワの複数の横方向プロファイルにおいて曲線を当てはめ、プロファイルごとに、前記当てはめられた曲線の最大振幅値および幅値を抽出するステップと、
    − 前記複数のプロファイルの各々について抽出された前記最大振幅値および前記幅値からそれぞれAおよびσを計算するステップと
    を含む、請求項1または2に記載の方法。
  6. 前記曲線は二次微分ローレンツ関数である、請求項5に記載の方法。
  7. 前記単一の表現ベクトルは、前記顔の前年齢に関係した特性の平均特徴を更に含む、請求項1〜6のいずれか一項に記載の方法。
  8. 前記表現ベクトルを生成するステップ(200)は、
    − 前記顔における少なくとも1つのゾーンを定義するステップ、および
    − ゾーンごとに、
    前記ゾーンの前記年齢に関係した特性の同時確率を計算し(210)、
    前記年齢に関係した特性の前記同時確率、前記ゾーンの年齢に関係した特性の数、および前記ゾーンの前記年齢に関係した特性の平均特徴を含むゾーンベクトルを定義し、
    前記ゾーンベクトルを連結して前記表現ベクトルを得る(220)ステップ
    を含む、請求項1〜7のいずれか一項に記載の方法。
  9. 前記年齢に関係した特性の前記同時確率は、一度に2つ取得される各年齢に関係した特性を表す前記ベクトルの全ての特徴の同時確率を計算することによって近似される、請求項1〜8のいずれか一項に記載の方法。
  10. 人物の年齢をモデル化する方法であって、
    − 基準母集団を形成する複数の個人の顔の画像を処理して(411)、画像ごとに、
    請求項1〜9のいずれか一項に記載の方法を実施することによって得られた、シワモデルおよびシミモデルのうちの少なくとも1つ、
    形状モデル、および
    外観モデル
    を抽出するステップと、
    − 複数のシワモデルおよび/またはシミモデル、形状モデル、ならびに外観モデルに対し、それぞれの主成分分析を行い(412)、それぞれ、シワおよび/またはシミ、形状、ならびに外観の重みを得るステップと、
    − 前記シワおよび/またはシミ、形状、ならびに外観の重みに対し主成分分析を行い、集約された重みを得るステップ(413)と、
    − 関数の当てはめにより、集約された重みと、年齢または見た目年齢との間の関係を推測するステップ(420)と
    を含む、前記方法。
  11. 前記基準母集団は、
    − 喫煙、
    − 飲酒、
    − 日光への露出、
    − 栄養、
    − スキンケア製品の使用、
    のうちの少なくとも1つに関して類似のライフスタイルを有するものとして選択される、請求項10に記載の方法。
  12. 前記基準母集団は、性別、地理的ロケーション、および民族性に従って選択される、請求項10または11に記載の方法。
  13. 人物の年齢変動をシミュレートするステップ(430)を更に含み、このステップは、
    − 前記人物の前記顔の前記画像に対応するプロットの1つの集約された重みを選択するステップと、
    − 対応する年齢または見た目年齢を特定するステップと、
    − 当てはめられた関数により、前記年齢変動に従って変更される年齢または見た目年齢のための更新された集約重みをシミュレートするステップと、
    − 前記更新された集約重みを処理して、前記年齢変動に対応する前記人物の前記顔の画像を推測するステップと
    を含む、請求項10〜12のいずれか一項に記載の方法。
  14. プロセッサによって実行されるとき、請求項1〜13のいずれか一項に記載の方法を実行するための命令を含むコンピュータプログラム製品。
  15. 命令を記憶するメモリ(10)と、前記メモリに記憶された命令を実行するように適合された計算機(11)とを備える画像処理ユニット(1)であって、
    前記画像処理ユニット(1)は、人物の顔の少なくとも1つの画像を受信し、前記受信した画像に対し、請求項1〜13のいずれか一項に記載の方法を実施するように構成されている、前記画像処理ユニット(1)。
JP2018237814A 2017-12-22 2018-12-20 改善された年齢モデル化方法 Expired - Fee Related JP6744905B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
EP17306901.4 2017-12-22
EP17306901.4A EP3503023B1 (en) 2017-12-22 2017-12-22 Improved age modelling method

Publications (2)

Publication Number Publication Date
JP2019114253A JP2019114253A (ja) 2019-07-11
JP6744905B2 true JP6744905B2 (ja) 2020-08-19

Family

ID=60957099

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018237814A Expired - Fee Related JP6744905B2 (ja) 2017-12-22 2018-12-20 改善された年齢モデル化方法

Country Status (4)

Country Link
US (1) US10860755B2 (ja)
EP (1) EP3503023B1 (ja)
JP (1) JP6744905B2 (ja)
KR (1) KR102014660B1 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102498384B1 (ko) * 2020-10-08 2023-02-10 (주)가시 나이변화에 따른 얼굴예측 및 ai를 활용한 cctv 기반의 실종자 검색방법
KR102451640B1 (ko) * 2020-10-13 2022-10-05 연세대학교 산학협력단 특징 표현 단순화와 다중 작업 학습을 통한 얼굴 영상 연령 변환 방법 및 장치
US20220251867A1 (en) * 2021-02-09 2022-08-11 Mykiea Miller Interactive Memorial Assembly and System
WO2022272175A1 (en) * 2021-06-25 2022-12-29 Appiell Inc. Use of artificial intelligence platform to diagnose facial wrinkles
JP7429683B2 (ja) 2021-12-21 2024-02-08 花王株式会社 顔表面テクスチャの経時変化特性判定方法
CN115359546B (zh) * 2022-10-21 2023-01-20 乐山师范学院 基于面部识别的人类年龄识别方法及系统

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7233693B2 (en) * 2003-04-29 2007-06-19 Inforward, Inc. Methods and systems for computer analysis of skin image
JP4682373B2 (ja) * 2005-11-01 2011-05-11 株式会社国際電気通信基礎技術研究所 顔画像合成装置、顔画像合成方法および顔画像合成プログラム
US8391639B2 (en) * 2007-07-23 2013-03-05 The Procter & Gamble Company Method and apparatus for realistic simulation of wrinkle aging and de-aging
JP2013058060A (ja) * 2011-09-08 2013-03-28 Dainippon Printing Co Ltd 人物属性推定装置、人物属性推定方法及びプログラム
WO2015048222A1 (en) 2013-09-25 2015-04-02 The Procter & Gamble Company Method and system for skin care consultation
KR101507081B1 (ko) * 2014-05-23 2015-04-01 동국대학교 산학협력단 나이 추정 장치 및 방법
JP6756524B2 (ja) * 2015-06-16 2020-09-16 株式会社シーボン 美容施術効果の解析方法
KR101725808B1 (ko) * 2015-08-27 2017-04-26 연세대학교 산학협력단 얼굴 영상의 얼굴 나이 변환 방법 및 그 장치

Also Published As

Publication number Publication date
KR20190076858A (ko) 2019-07-02
US10860755B2 (en) 2020-12-08
EP3503023A1 (en) 2019-06-26
JP2019114253A (ja) 2019-07-11
KR102014660B1 (ko) 2019-08-26
US20190197204A1 (en) 2019-06-27
EP3503023B1 (en) 2022-11-23

Similar Documents

Publication Publication Date Title
JP6744905B2 (ja) 改善された年齢モデル化方法
US10535163B2 (en) Avatar digitization from a single image for real-time rendering
WO2021068487A1 (zh) 人脸识别模型构建方法、装置、计算机设备和存储介质
KR101758825B1 (ko) 얼굴 부위별 나이와 환경적 요인을 기반으로 하는 나이 변환 방법, 이를 수행하기 위한 기록 매체 및 장치
US9633044B2 (en) Apparatus and method for recognizing image, and method for generating morphable face images from original image
JP6786497B2 (ja) 統計的技術を用いて形成されたデジタル歯冠モデルに表面詳細を追加するシステム及び方法
CN109002763B (zh) 基于同源连续性的模拟人脸老化的方法及装置
KR20200132833A (ko) 가상 아바타 발생 방법 및 장치, 및 저장 매체
CN111833236B (zh) 产生模拟用户的三维脸部模型的方法及装置
Cai et al. Semi-supervised natural face de-occlusion
JP2024501986A (ja) 3次元顔再構築の方法、3次元顔再構築の装置、デバイスおよび記憶媒体
CN108463823A (zh) 一种用户头发模型的重建方法、装置及终端
Tsai et al. Human face aging with guided prediction and detail synthesis
US11354844B2 (en) Digital character blending and generation system and method
CN115953324A (zh) 图像修复模型的训练方法及相关设备
Lanitis et al. On the analysis of factors influencing the performance of facial age progression
Patterson et al. Improvements in active appearance model based synthetic age progression for adult aging
Panchal et al. 3d face recognition based on pose correction using Euler angle method
JP5650012B2 (ja) 顔画像処理方法、美容カウンセリング方法および顔画像処理装置
Maronidis et al. Facial age simulation using age-specific 3D models and recursive PCA
CN115908260B (zh) 模型训练方法、人脸图像质量评价方法、设备及介质
CN115050067B (zh) 人脸表情构建方法、装置、电子设备、存储介质及产品
Savkin et al. Wrinkles Individuality Preserving Aged Texture Generation using Multiple Expression Images.
Heravi et al. A 3D dynamic shape model to simulate rejuvenation & ageing trajectory of 3D face images
Dhahri et al. A robust detection and removal of beard from three dimensional human face

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190214

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200319

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200331

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200629

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200707

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200731

R150 Certificate of patent or registration of utility model

Ref document number: 6744905

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees