JP7191213B2 - 顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体 - Google Patents

顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP7191213B2
JP7191213B2 JP2021516410A JP2021516410A JP7191213B2 JP 7191213 B2 JP7191213 B2 JP 7191213B2 JP 2021516410 A JP2021516410 A JP 2021516410A JP 2021516410 A JP2021516410 A JP 2021516410A JP 7191213 B2 JP7191213 B2 JP 7191213B2
Authority
JP
Japan
Prior art keywords
keypoint
face
local
region
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021516410A
Other languages
English (en)
Other versions
JP2022500790A (ja
Inventor
▲勝▼▲偉▼ 徐
▲權▼ 王
▲鏡▼潭 朴
晨 ▲錢▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Sensetime Technology Development Co Ltd
Original Assignee
Beijing Sensetime Technology Development Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Sensetime Technology Development Co Ltd filed Critical Beijing Sensetime Technology Development Co Ltd
Publication of JP2022500790A publication Critical patent/JP2022500790A/ja
Application granted granted Critical
Publication of JP7191213B2 publication Critical patent/JP7191213B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/22Matching criteria, e.g. proximity measures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • G06V20/653Three-dimensional objects by matching three-dimensional models, e.g. conformal mapping of Riemann surfaces
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Software Systems (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Computer Graphics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)

Description

本願は、3次元モデリング技術に関し、特に、顔モデルの生成方法、装置及び電子機器に関する。
携帯端末やコンピュータ技術が発展するにつれて、ゲームアプリ、バーチャルソーシャルアプリ等のユーザが徐々に増えている。ゲームアプリやバーチャルソーシャルアプリにおいて、仮想キャラクターの個別化設計が求められており、それによってフェースカスタマイズに対する需要が大幅に高まっている。フェースカスタマイズとは、仮想キャラクターの3次元顔モデルを生成することである。フェースカスタマイズの効率及び正確率をどのように向上させるかは当業者に研究されている技術となっている。
本願の実施例は、顔モデルの生成方法、装置及び電子機器を提供する。
本願の実施例の第1態様によれば、現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するステップと、前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するステップと、前記目標骨格パラメータと基準3次元顔モデルとに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成するステップと、を含むことを特徴とする顔モデルの生成方法を提供する。
本願で提供されたいずれか1つの方法の実施例によれば、前記方法は、所定数量の顔画像サンプルと前記基準3次元顔モデルにより、参照モデルデータベースを決定するステップであって、前記参照モデルデータベースは、所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含むステップを更に含む。それに対応するように、前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するステップは、前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するステップを含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記所定数量の顔画像サンプルと前記基準3次元顔モデルにより前記参照モデルデータベースを決定するステップは、前記所定数量の顔画像サンプルを含む顔画像サンプル集合を取得するステップであって、前記顔画像サンプル集合は、少なくとも1つの局所的顔領域を表す多種の画像形式を含むステップと、各前記顔画像サンプルについて、前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する参照顔モデルを生成するステップであって、前記参照顔モデルは、前記顔画像サンプルに対応する前記参照骨格パラメータを含むステップと、各前記顔画像サンプルに対応する参照顔モデルにより、前記参照モデルデータベースを決定するステップと、を含む。ここで、前記参照モデルデータベースは各前記局所的顔領域の各種の前記画像形式を表す前記参照キーポイント特徴と前記参照骨格パラメータとの対応関係を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する前記参照顔モデルを生成するステップは、前記顔画像サンプルに対して規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得するステップであって、前記基準顔画像は、前記基準3次元顔モデルに対応する2次元顔画像であるステップと、前記前処理顔画像に対してキーポイント検出を行って、前記顔画像サンプルの参照キーポイント集合を取得するステップであって、前記参照キーポイント集合は、前記顔画像サンプルにおける各前記局所的顔領域を表す参照キーポイント組合せを含むステップと、各前記参照キーポイント組合せに基づいて前記基準3次元顔モデル中の対応の骨格パラメータを調整して、前記顔画像サンプルに対応する前記参照顔モデルを生成するステップと、を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するステップは、前記現在顔画像に対してキーポイント検出を行って所定数量のキーポイントの位置座標を取得するステップと、前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定するステップと、を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表す前記キーポイント特徴を決定するステップは、前記所定数量のキーポイントの位置座標に基づいて、前記現在顔画像における第1局所的顔領域を表すキーポイント座標組合せを、当該第1局所的顔領域を表す前記キーポイント特徴として決定してステップであって、当該第1局所的顔領域は、前記少なくとも1つの局所的顔領域のうちのいずれか1つであるステップ、及び/又は、当該第1局所的顔領域を表す前記キーポイント座標組合せにより、フィッティングを介して得られる当該第1局所的顔領域を表す特徴曲線を、当該第1局所的顔領域を表す前記キーポイント特徴とするステップを含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するステップは、前記現在顔画像における各局所的顔領域について、前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するステップと、前記現在顔画像中の各前記局所的顔領域の目標参照キーポイント特徴に対応する参照骨格パラメータに基づいて、前記現在顔画像の目標骨格パラメータを決定するステップと、を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するステップは、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップと、類似度が最も高い前記参照キーポイント特徴を、前記局所的顔領域の前記目標参照キーポイント特徴として決定するステップと、を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップは、前記局所的顔領域のキーポイント座標組合せにより、フィッティングを介して前記局所的顔領域を表す特徴曲線を取得するステップと、前記特徴曲線と前記参照モデルデータベース中の対応の参照特徴曲線との距離により、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップと、を含む。
本願で提供されたいずれか1つの方法の実施例によれば、前記局所的顔領域が少なくとも2つのサブ領域を含む場合に、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の1つの顔画像サンプルの対応の参照キーポイント特徴との類似度を決定するステップは、前記局所的顔領域中の各前記サブ領域について、前記サブ領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応のサブ領域の参照キーポイント特徴の類似度を決定して、前記サブ領域に対応する局所的類似度を取得するステップと、各前記サブ領域に対応する前記局所的類似度により、前記局所的顔領域と当該顔画像サンプル中の対応の局所的顔領域との全体的な類似度を、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応の参照キーポイント特徴との類似度として決定するステップと、を含む。
本願の実施例の第2態様によれば、現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するためのキーポイント検出モジュールと、前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するためのパラメータマッチングモジュールと、前記目標骨格パラメータと基準3次元顔モデルとに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成するためのモデル生成モジュールと、を含む顔モデルの生成装置を提供する。
本願で提供されたいずれか1つの装置の実施例によれば、前記装置は、データベース作成モジュールを更に含む。前記データベース作成モジュールは、所定数量の顔画像サンプルと前記基準3次元顔モデルにより参照モデルデータベースを決定するために用いられ、前記参照モデルデータベースは、所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含む。このような場合に、前記パラメータマッチングモジュールは、具体的には、前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するために用いられる。
本願で提供されたいずれか1つの装置の実施例によれば、前記データベース作成モジュールは、サンプル取得サブモジュールと、参照モデル生成サブモジュールと、データベース決定サブモジュールとを含む。前記サンプル取得サブモジュールは、前記所定数量の顔画像サンプルを含む顔画像サンプル集合を取得するために用いられ、前記顔画像サンプル集合は、少なくとも1種の局所的顔領域を表す多種の画像形式を含み、前記参照モデル生成サブモジュールは、前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する参照顔モデルを生成するために用いられ、前記参照顔モデルは、前記顔画像サンプルに対応する前記参照骨格パラメータを含み、前記データベース決定サブモジュールは、各前記顔画像サンプルに対応する参照顔モデルにより、前記参照モデルデータベースを決定するために用いられる。ここで、前記参照モデルデータベースは各前記局所的顔領域の各種の前記画像形式を表す前記キーポイント特徴と前記参照骨格パラメータとの対応関係を含む。
本願で提供されたいずれか1つの装置の実施例によれば、前記参照モデル生成サブモジュールは、画像前処理ユニットと、キーポイント検出ユニットと、参照モデル生成ユニットとを含む。前記画像前処理ユニットは、前記顔画像サンプルに対して規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得するために用いられ、前記基準顔画像は、前記基準3次元顔モデルに対応する2次元顔画像であり、前記キーポイント検出ユニットは、前記前処理顔画像に対してキーポイント検出を行って、前記顔画像サンプルの参照キーポイント集合を取得するために用いられ、前記参照キーポイント集合は、前記顔画像サンプルにおける各前記局所的顔領域を表す参照キーポイント組合せを含み、前記参照モデル生成ユニットは、各前記参照キーポイント組合せに基づいて前記基準3次元顔モデル中の対応の骨格パラメータを調整して、前記顔画像サンプルに対応する前記参照顔モデルを生成するために用いられる。
本願で提供されたいずれか1つの装置の実施例によれば、前記キーポイント検出モジュールは、前記現在顔画像に対してキーポイント検出を行って所定数量のキーポイントの位置座標を取得するためのキーポイント位置決定サブモジュールと、前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定するためのキーポイント特徴決定サブモジュールと、を含む。
本願で提供されたいずれか1つの装置の実施例によれば、前記キーポイント特徴決定サブモジュールは、座標組合せ決定ユニット及び/又は特徴曲線決定ユニットを含む。前記座標組合せ決定ユニットは、前記所定数量のキーポイントの位置座標に基づいて、前記現在顔画像における第1局所的顔領域を表すキーポイント座標組合せを、当該第1局所的顔領域を表す前記キーポイント特徴として決定するために用いられ、当該第1局所的顔領域は、前記少なくとも1つの局所的顔領域のうちのいずれか1つであり、前記特徴曲線決定ユニットは、当該第1局所的顔領域を表す前記キーポイント座標組合せにより、フィッティングを介して得られる当該第1局所的顔領域を表す特徴曲線を、当該第1局所的顔領域を表す前記キーポイント特徴とするために用いられる。
本願で提供されたいずれか1つの装置の実施例によれば、前記パラメータマッチングモジュールは、前記現在顔画像における各局所的顔領域について、前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するための特徴マッチングサブモジュールと、前記現在顔画像中の各前記局所的顔領域の目標参照キーポイント特徴に対応する参照骨格パラメータに基づいて、前記現在顔画像の目標骨格パラメータを決定するための骨格パラメータ決定サブモジュールと、を含む。
本願で提供されたいずれか1つの装置の実施例によれば、前記特徴マッチングサブモジュールは、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するための類似度決定ユニットと、類似度が最も高い前記参照キーポイント特徴を、前記局所的顔領域の前記目標参照キーポイント特徴として決定するための目標特徴決定ユニットと、を含む。
本願で提供されたいずれか1つの装置の実施例によれば、前記類似度決定ユニットは、前記局所的顔領域のキーポイント座標組合せにより、フィッティングを介して前記局所的顔領域を表す特徴曲線を取得するための曲線フィッティングサブユニットと、前記特徴曲線と前記参照モデルデータベース中の対応の参照特徴曲線との距離により、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するための類似度決定サブユニットと、を含む。
本願で提供されたいずれか1つの装置の実施例によれば、前記類似度決定ユニットは、1つの前記局所的顔領域が少なくとも2つのサブ領域を含む場合に、前記局所的顔領域中の各前記サブ領域について、前記参照モデルデータベース中の各顔画像サンプルに対して、前記サブ領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応のサブ領域の参照キーポイント特徴との類似度を決定して、前記サブ領域に対応する局所的類似度を取得するための局所的類似度決定サブユニットと、前記参照モデルデータベース中の各顔画像サンプルについて、各前記サブ領域に対応する前記局所的類似度により、前記局所的顔領域と当該顔画像サンプル中の対応の局所的顔領域との全体的な類似度を、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応の参照キーポイント特徴との類似度として決定するための全体的類似度決定サブユニットと、を含む。
本願の実施例の第3態様によれば、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサにより実行されるときに上記第1態様のいずれか一項に記載の方法が実現されるコンピュータ可読記憶媒体を提供する。
本願の実施例の第4態様によれば、メモリと、プロセッサと、メモリに記憶されてプロセッサ上で作動可能なコンピュータプログラムとを含む電子機器であって、前記プロセッサが前記プログラムを実行するときに上記第1態様のいずれか一項に記載の方法を実現することを特徴とする電子機器を提供する。
本願の実施例で提供された顔モデルの生成方法によれば、コンピュータシステムは、局所的顔領域を表すキーポイント特徴に基づいて顔画像に対応する目標骨格パラメータを自動的に取得し、上記目標骨格パラメータに基づいて基準3次元顔モデルの骨格パラメータを自動的に調整することで、前記現在顔画像に適合する仮想3次元顔モデルを自動的に生成できる。モデル生成全過程で、ユーザは自ら主観的に判断することにより、複雑な骨格パラメータを絶え間なく手動で調整してみることがなく、ユーザの操作難度が低くなった。
いくつかの実施例では、コンピュータシステムは参照モデルデータベースを事前に設置することで、参照モデルデータベースから顔画像に対応する目標骨格パラメータを高速に見出すことができる。顔局所領域特徴の規則性のため、参照モデルデータベースのデータ量が大きくなく、それによってコンピュータシステムは現在顔画像のキーポイント特徴により上記参照モデルデータベースからマッチング可能な目標骨格パラメータを高速に見出すことができ、更に該目標骨格パラメータに基づいて効率的且つ比較的正確に現在顔画像とマッチングする仮想3次元顔モデルを生成することができる。
以上の一般説明と以下の詳細説明は解釈するための例示的なものに過ぎず、本願を制限できないことを理解すべきである。
ここの図面は明細書に組み込まれて本明細書の一部を構成し、本願に合致する実施例を示し、明細書と共に本願の原理を解釈するために用いられる。
本願の例示的な一実施例に係る顔モデルの生成方法のフローチャートである。 本願の例示的な一実施例に係る眉の形の模式図である。 本願の例示的な一実施例に係る基準3次元顔モデルの模式図である。 本願の別の例示的な実施例に係る顔モデルの生成の応用シナリオの模式図 である。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の例示的な一実施例に係るキーポイントの座標位置の模式図である。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の例示的な一実施例に係る左眉領域のキーポイント特徴の模式図であ る。 本願の別の例示的な実施例に係る左眉領域のキーポイント特徴の模式図で ある。 本願の例示的な一実施例に係る左目のキーポイント特徴の模式図である。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の別の例示的な実施例に係る顔モデルの生成方法のフローチャートである。 本願の例示的な一実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る顔モデルの生成装置のブロック図である。 本願の別の例示的な実施例に係る電子機器の構造模式図である。
ここで、例示的な実施例を詳述し、その例を図面に示す。以下、図面に関連して説明する時に、特に断らない限り、異なる図面における同じ数字が同じな要素又は類似する要素を表す。以下の例示的な実施例に記載の実施形態は本願と一致する全ての実施形態を表すものではない。逆に、それらは添付の特許請求の範囲に詳述された本願のいくつかの態様と一致する装置と方法の例に過ぎない。
本願において使用された用語は、単に特定の実施例を説明するためのものにすぎず、本願を限定するものではない。本願および添付の特許請求の範囲において使用された単数形「一種」、「前記」および「該」は、文脈に特に示さない限り、複数形も含むことを意図する。なお、本明細書において使用された用語「および/または」は、関連して列挙された項目の一つ以上の任意のまたは全ての可能な組み合わせを意味し、かつこれらの組み合わせを含むことを理解すべきである。
なお、本願において用語第一、第二、第三などを使用して各種の情報を説明することがあるが、これらの情報はこれらの用語に限定されないことを理解されたい。これらの用語は同一タイプの情報を互いに区別するためのものにすぎない。例えば、本願の範囲から逸脱することなく、第一情報は第二情報と呼ばれてもよく、同様に、第二情報は第一情報と呼ばれてもよい。文脈によって、ここで使用された字句「場合」は、「時」または「にあたり」または「決定に応じて」という意味に解釈され得る。
ゲーム業界と仮想現実に推進されていることで、デジタル化仮想キャラクターは広く応用されている。ゲームの応用シナリオを例とすると、「仮想キャラクター」はすでに単一な仮想キャラクターからプレーヤーが自ら設計可能なキャラクターに変化し、このように個別的なキャラクターを生成することが可能になった。
本願の実施例では、仮想骨格制御手法に基づいて仮想キャラクターの3次元顔モデルを生成する方法を提供する。この方法に係る実行主体はコンピュータシステムを含んでもよいし、顔画像を取得するカメラを含んでもよい。
上記コンピュータシステムは、サーバ、サーバークラスター又はクラウドプラットフォームに設置されてもよく、パーソナルコンピュータ、携帯端末等の電子機器に設置されてもよい。上記携帯端末は、具体的には、スマートフォン、PDA(Personal Digital Assistant、携帯情報端末)、タブレット、ゲーム機等の電子機器であってもよい。具体的な実現過程で、カメラとコンピュータシステムはそれぞれ独立したものでありながら、本願の実施例で提供された顔モデルの生成方法を共同で実現するように相互に関連している。
図1に例示的な一実施例に係る顔モデルの生成方法のフローチャートを示し、この方法は、以下のステップを含んでよい。
ステップ110、現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得する。各前記キーポイント特徴は前記現在顔画像における1つ又は複数の局所的顔領域を表してもよい。
ゲームシナリオを例とすると、ゲームアプリの画面にユーザ操作インタフェースがあってもよい。そのようにして、ゲームプレーヤーがこのユーザ操作インタフェースによって1枚の顔画像を入力することで、コンピュータシステムのバックグラウンドプログラムによりこの顔画像に基づいて対応する仮想3次元顔モデルが生成されることは期待する。言い換えると、コンピュータシステムは、フェースカスタマイズ機能によってゲームプレーヤーの入力した顔画像に基づいて仮想3次元顔モデルを生成して、ゲームプレーヤーのゲームキャラクターに対する個別化要求を満たすことができる。
上記現在顔画像はゲームプレーヤーが撮影したものであってもよいし、ゲームプレーヤーが写真データベースから選択したものであってもよい。上記現在顔画像は実世界中の人物を撮影した画像であってもよいし、手動又は作図ソフトウェアで設計された仮想人物画像であってもよい。本願の実施例は現在顔画像の取得手法及び画像中の人物の実世界での実在性を限定するものではない。
それに対応するように、コンピュータシステムは、ユーザの入力した現在顔画像を受信した後、先に現在顔画像に対して規範化処理を行って特定頭部姿勢と特定画像サイズの顔領域画像を取得するようにしてよい。例えば、事前に訓練されたニューラルネットワークを用いて顔検出、顔姿勢補正、画像縮小拡大等の処理を行って、特定頭部姿勢に合致する特定画像サイズの顔画像を取得する。
続いて、コンピュータシステムは、当業者に知られている任意の顔キーポイント検出方法を利用して上記前処理された顔領域画像に対してキーポイント検出を行い、現在顔画像のキーポイント特徴を取得することができる。
本願では、現在顔画像のキーポイント特徴は、キーポイントの位置座標情報を含んでもよく、複数のキーポイントの位置座標情報に基づいてフィッティングを介して得られる、局所的顔領域を表す特徴曲線、例えばまぶた線、唇線等の輪郭線を含んでもよい。
ステップ120、前記キーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得する。
一例によれば、ステップ120は具体的には、前記キーポイント特徴により、参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するようになってよい。ここで、参照モデルデータベースは所定数量の顔画像サンプルから決定される参照キーポイント特徴及び前記参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含む。
本願では、面部の五官が高い規則性を有することに鑑みて、各部位を限りのある画像形式で表してよい。例えば、限りのあるいくつかの目の形によって大部分の人の目の特徴を表すことができ、限りのある眉形式画像で大部分の人の眉の特徴を表すことができる。図2に示すように、12種の眉の形で大部分の人の顔の眉特徴を表すことができる。
それに基づければ、本願の実施例では、コンピュータシステムは事前に所定数量の顔画像サンプルにより参照モデルデータベースを決定してよい。ここで、参照モデルデータベースには顔画像サンプルから決定される参照キーポイント特徴及び参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含み、前記参照骨格パラメータは前記顔画像サンプルの参照顔モデルを生成(render)することに利用可能である。
コンピュータシステムは、現在顔画像のキーポイント特徴を取得した後、前記キーポイント特徴に最も似ている参照キーポイント特徴を、目標参照キーポイント特徴として検出して、続いて、参照モデルデータベースから上記目標参照キーポイント特徴に対応する参照骨格パラメータを、前記現在顔画像に適合する目標骨格パラメータとして取得することができる。
本願では参照モデルデータベースのデータ構成が限定されないことに説明すべきである。例えば、参照モデルデータベースは、顔画像サンプルの参照顔モデルの生成のための参照骨格パラメータ、及び前記顔画像サンプルから取得される参照キーポイント特徴と前記参照骨格パラメータの対応関係を含んでよい。
現在顔画像のキーポイント特徴が決定された後、特定局所的顔領域を表すキーポイント特徴に基づいて参照モデルデータベースとマッチングして、その中から該キーポイント特徴に対応する参照骨格パラメータを取得して、現在顔画像中のこの局所的顔領域の目標骨格パラメータとするようにしてよい。上記手法によれば、現在顔画像中の各局所的顔領域の目標骨格パラメータ、例えば目部、口部、眉、鼻、顔輪郭等の領域の目標骨格パラメータを取得して、現在顔画像に適合する1セットの目標骨格パラメータを取得することができる。
ステップ130、前記目標骨格パラメータと基準3次元顔モデルに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成する。
現在顔画像に対応する目標骨格パラメータが決定された後、コンピュータシステムは上記目標骨格パラメータに基づいて基準3次元顔モデル中の骨格のパラメータを調整して、現在顔画像の顔特徴を反映する仮想3次元顔モデルを生成することができる。
この仮想3次元顔モデルは真実の人物の顔特徴に近似する仮想3次元顔モデルであってもよく、人物の表情や態度を反映するアニメ化仮想3次元顔モデルであってもよい。本願の実施例は最後に出力される3次元顔モデルが必ず実世界の人物の顔特徴に近似するものでなければならないように限定するものではない。
一例として、図3-1に例示的な一実施例に係る基準3次元顔モデルの模式図を示し、この基準3次元顔モデルはアニメ化仮想3次元顔モデルである。それに対応するように、図3-2に上記基準顔3次元モデルの骨格模式図を示す。モデル全体は所定数量の骨格、例えば61本の骨格で構成される。図3-2における2点ずつの連結線は1本の骨格を表す。各部位は1本又は複数本の骨格に関連し、例えば、鼻部位は3本の骨格に関連し、この3本の骨格のパラメータを調整することによって様々の3次元鼻モデルを生成できる。
以上から分かるように、本願の実施例では、コンピュータシステムは、局所的顔領域を表すキーポイント特徴に基づいて顔画像に対応する目標骨格パラメータを自動的に取得し、上記目標骨格パラメータに基づいて基準3次元顔モデルの骨格パラメータを自動的に調整することで、前記現在顔画像に適合する仮想3次元顔モデルを自動的に生成できる。モデル生成の全過程では、ユーザが自ら主観的に判断することにより複雑な骨格パラメータを絶え間なく手動で調整してみる必要はなく、ユーザにとって操作難度が低くなった。
また、いくつかの実施例では、コンピュータシステムは参照モデルデータベースを事前に設置することで、参照モデルデータベースから顔画像に対応する目標骨格パラメータを高速に見出すことができる。ここで、顔局所領域特徴の規則性のため、参照モデルデータベースのデータ量が大きくなく、それによってコンピュータシステムは現在顔画像のキーポイント特徴により参照モデルデータベースからマッチング可能な目標骨格パラメータを高速に見出すことができ、更に該目標骨格パラメータに基づいて効率的且つ比較的正確に現在顔画像とマッチングする仮想3次元顔モデルを生成することができ、優れた一般性を有する。
システムにおいて参照モデルデータベースが作成されていない場合に、例えば、システムの初回作動又はシステムの初期化の時に、上記方法は参照モデルデータベースを作成するステップを更に含む。
図4に示すように、上記ステップ110の前に、前記顔モデルの生成方法は、所定数量の顔画像サンプルと基準3次元顔モデルにより参照モデルデータベースを決定するステップ100を更に含んでもよい。前記参照モデルデータベースは所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含む。更に、ステップ120は、前記少なくとも1つのキーポイント特徴により、上記参照モデルデータベースから現在顔画像とマッチングする目標骨格パラメータを取得するステップを含んでよい。
本願の実施例では、所定数量の顔画像サンプルを取得し、手動の注釈付きを介して上記顔画像サンプル中の各部位の画像形式を得るようにしてよい。続いて、上記注釈付きの顔画像サンプルと基準3次元顔モデルとに基づいて、骨格制御手法を介して対応する仮想3次元顔モデルを生成する。本願の実施例では、顔画像サンプルと基準3次元顔モデルにより生成した仮想3次元顔モデルを参照顔モデルと称する。
一例として、201個の顔画像サンプルを有すると仮定すれば、コンピュータシステムは対応するように201個の参照顔モデルを生成し、この201個の参照顔モデルの関連データに基づいて上記参照モデルデータベースを生成する。
参照モデルデータベースを作成する実行主体とその後で参照モデルデータベースを利用して顔モデルを生成する実行主体は、必ず同一のコンピュータシステムでなければならいというわけではないことを説明する必要がある。例えば、参照モデルデータベースを作成する実行主体は、例えばクラウドサーバのようなクラウドコンピュータシステムであってよく、上記ステップ110~130の実行主体は端末装置となるコンピュータシステムであってよい。現在の端末装置の計算能力が増加しており、そして本願の実施例で大きい数量の顔画像サンプルデータを必要としないことに鑑みて、本願の別の実施例では、参照モデルデータベースの決定過程と後続の顔モデル生成過程はいずれも端末装置のコンピュータシステムによって実行されてもよい。
図5に示すように、上記ステップ100には、以下のステップを含んでよい。
ステップ101、所定数量の顔画像サンプルを含む顔画像サンプル集合を取得する。前記顔画像サンプル集合は少なくとも1つの局所的顔領域を表す多種の画像形式を含む。
本願の実施例では、顔画像サンプル集合には所定数量の顔画像サンプルを含んでよい。ここで、対応的に生成される参照モデルデータベースにはできる限り全面的な参照データ、例えば参照キーポイント特徴、参照骨格パラメータ等を含むことを確保するために、上記所定数量の顔画像サンプルには例えば額部、目部、鼻部、唇部等の各顔部位の様々の画像形式をできる限り全面的に含む。
顔画像サンプル集合に含まれる顔画像サンプルの数量は以下の条件を満たしてよい。ランダムに取得された1枚の2次元顔画像Aに対して、上記顔画像サンプル集合に含まれる各顔部位の画像形式から、上記画像Aにおける別々の局所的顔領域に対応する画像形式を見出すことができる。又は、上記所定数量の顔画像サンプルから別々の局所的顔領域、例えば五官部位の画像形式を選択的に抽出して組み合わせることで、上記画像Aと類似する顔画像を大体形成できるという。
本願の実施例では、実世界に存在する一般の五官の形に応じて所定数量の顔画像サンプルを収集して顔画像サンプル集合を取得するようにしてよい。
本願の一実施例では、実世界での異なる人の眉、目、鼻、口、顔輪郭の形に応じて、201枚の顔画像サンプルを収集して上記顔画像サンプル集合の決定に用いた。この201個の顔画像サンプルは各局所的顔領域の多種の画像形式を含んでよい。ここで、局所的顔領域とは2次元顔画像から認識された眉領域、目領域、鼻領域、顔輪郭等の領域を指す。
例えば、この201個の顔画像サンプルには上記図2に示す眉領域に対応する12種の眉の形を含む。これによって類推すると、この201個の顔画像サンプルは口部、目部、鼻、顔輪郭等の局所的顔領域のそれぞれに対応する多種の画像形式を含む。
ステップ102、基準3次元顔モデルに基づいて各顔画像サンプルに対応する基準3次元顔モデルを生成する。
本願の実施例では、各顔画像サンプルに対して生成した仮想3次元顔モデルを参照3次元顔モデルと称する。それぞれの基準3次元顔モデルはそれぞれ1セットの骨格制御パラメータに対応する。
どのように基準3次元顔モデルと顔画像サンプルに基づいて参照3次元顔モデルを生成するかについて、図6を参照してよく、上記ステップ102には、以下のステップを含んでよい。
ステップ1021、顔画像サンプルに対して規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得する。基準顔画像は基準3次元顔モデルに対応する2次元顔画像である。
本願では、参照モデルデータベースを作成する工程で、それぞれの顔画像サンプルに対して顔領域検出、頭部姿勢補正、画像縮小拡大等の規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得するようにしてよい。この前処理顔画像は、基準顔画像と比べると、同一のカメラが同じ画像取得パラメータで、同じ撮影距離での同じ頭部姿勢の2人をそれぞれ撮影して取得した顔画像と理解してよい。
基準顔画像は、基準3次元顔モデルの特定画像座標系での投影画像と理解してよい。言い換えると、基準3次元顔モデルは、コンピュータシステムが基準顔画像に対してキーポイント検出を行った後、取得されたキーポイント集合、例えば240個のキーポイントの位置座標、及び所定数量の骨格、例えば61本の骨格により生成した仮想3次元顔モデルである。
ステップ1022、前処理顔画像に対してキーポイント検出を行って、前記顔画像サンプルの参照キーポイント集合を取得する。前記参照キーポイント集合は、前記顔画像サンプルにおける各局所的顔領域を表す参照キーポイント組合せを含む。
前処理顔画像が取得された後、当業者に知られている任意のキーポイント検出方法によって、この前処理顔画像から68個のキーポイント、106個のキーポイント又は240個のキーポイントのような所定数量のキーポイントを抽出してよい。抽出されたキーポイントの数量が多いほど、局所的顔領域を詳細に表すことができる。
顔領域画像のキーポイント検出の過程で、例えばエッジ検出robertアルゴリズム、ソーベルsobelアルゴリズム等の特定アルゴリズムを用いてもよく、例えば動的輪郭snakeモデル等の関連モデルによってキーポイント検出を行ってもよい。
本願の別の実施例では、顔キーポイント検出のためのニューラルネットワークによってキーポイントの位置を決定してもよい。更にサードパーティアプリによって顔キーポイント検出を行ってもよく、図7に示すように、例えばサードパーティツールキットDlibによって顔キーポイントの位置を決定し、68個の顔キーポイントを検出した。更に、240顔キーポイント位置決定技術を用いて240個のキーポイントの位置座標を決定して、現在顔画像及び/又は顔画像サンプルにおける眉、目、鼻、唇、顔輪郭、面部表情等の重要部位の細部特徴の位置決定を実現するようにしてもよい。
参照キーポイント組合せについては、本願の別の実施例では、予め設定された規則で各参照キーポイントの番号を決定し、且つ各局所的顔領域を表す参照キーポイント組合せを決定するようにしてよい。例えば、図7に示す例において、顔画像サンプルから68個のキーポイントが抽出され、18~22番目の参照キーポイントで構成された参照キーポイント組合せが左眉領域を表す。それによって類推して、異なるキーポイント組合せで異なる局所的顔領域を表す。
本願では、各キーポイントの情報はそれぞれ番号と座標位置を含む。異なる顔画像サンプルにおいて、同一の局所的顔領域を表すキーポイントは番号、数量が同じであるが、座標位置が異なる。上記の例に示すように、基準顔画像から抽出された18~22番目のキーポイント組合せが基準顔画像における左眉領域も表すが、各キーポイントの座標位置が図7に示す例における18~22番目のキーポイントの座標位置と異なる。
キーポイントの座標位置とは、図7に示すXOY座標系のような予め設定された画像座標系でのキーポイントの位置を指すことを説明する必要がある。前処理顔画像のサイズが同じなので、各前処理顔画像については、後続の距離計算の便宜上、異なる前処理顔画像中のキーポイントの位置座標を同じ画像座標系で表してもよい。
ステップ1023、各前記参照キーポイント組合せに基づいて基準3次元顔モデル中の対応の骨格パラメータを調整して、前記顔画像サンプルに対応する参照顔モデルを生成する。そのように、顔画像サンプルに対応する参照顔モデルは顔画像サンプルに対応する参照骨格パラメータを含む。言い換えると、参照骨格パラメータは顔画像サンプルの参照顔モデルの生成(render)に利用可能である。
本願の実施例では、システムにおいて、キーポイント組合せと骨格とのマッピング関係が事前に設定されている。該マッピング関係は、対応する3次元顔モデル中のキーポイント組合せで表される局所的顔領域を生成する時に、どの骨格のパラメータを調整する必要があるかを示すことができる。
一例として、前記基準3次元顔モデルにおける鼻領域がG1~G3で示す3本の骨格に関連すると仮定すれば、上記3本の骨格のパラメータを調整することによって、生成された鼻の3次元モデルが顔画像サンプル中の鼻の形状に近似するようになったと判断されると、鼻部位の3次元モデルの生成が完了したとすることができる。それに対応するように、現在の3本の骨格の骨格制御パラメータは前記顔画像サンプル中の鼻の画像形式に対応する参照骨格パラメータである。
それによって類推して、各局所的顔領域の骨格パラメータを調整することによって、生成した仮想3次元顔モデルがユーザの期待に応えられる時に、参照顔モデルの生成が完了する。また、現在顔画像サンプル中の各参照キーポイント組合せに対応する参照骨格パラメータ、即ち前記顔画像サンプル中の各局所的顔領域の画像形式に対応する参照骨格パラメータを決定して、現在顔画像サンプルに対応する参照顔モデルデータを取得することができる。この参照顔モデルデータは各局所的顔領域の参照キーポイント組合せと参照骨格パラメータとの対応関係を含んでよい。
本願の実施例では、1つの顔画像サンプルに対して仮想3次元顔モデル、即ち参照顔モデルを生成した後、各局所的顔領域を表す参照キーポイント組合せと参照骨格パラメータとの対応関係により、1つの顔画像サンプルに対応する参照顔モデルデータを取得してよい。
上記ステップ1021~ステップ1023で1枚の顔画像サンプルに基づいて対応する参照顔モデルを生成する過程を説明した。
ステップ103、各顔画像サンプルに対応する参照顔モデルにより参照モデルデータベースを決定する。参照モデルデータベースは各局所的顔領域の各種の画像形式を表す参照キーポイント特徴と参照骨格パラメータとの対応関係を含む。
本願の実施例では、図6に示す方法でそれぞれの顔画像サンプルに対応する参照顔モデルを生成し、更にそれぞれの顔画像サンプルに対応する参照顔モデルデータを決定するようにしてよい。
それぞれの顔画像サンプルの参照顔モデルデータが取得された後、参照モデルデータベースを作成してよい。この参照モデルデータベースは、各局所的顔領域の画像形式を表す参照キーポイント組合せと参照骨格パラメータとの対応関係、各顔画像サンプルの参照キーポイント特徴データ、及び各参照顔モデルの参照骨格パラメータを含んでよい。骨格に基づくモデル生成手法において、骨格に親子骨格関係があることを説明する必要があり、親骨格が移動すると、子骨格もそれに伴って移動し、例えば、手首の骨格の運動に伴って掌の骨格も運動する。1つの局所的顔領域の骨格パラメータが調整されると、顔モデル全体における他の骨格の調整パラメータに関連することがある。従って、本願の実施例では、参照モデルデータベースにおいて、参照顔モデル全体に対応する1セットの参照骨格パラメータでデータを記憶する。
以上、参照モデルデータベースをどのように作成するかについて詳細に説明した。
実際に応用する段階で、コンピュータシステムは入力された現在顔画像に対してキーポイント検出を行ってキーポイント特徴を取得した後、自動的に現在顔画像のキーポイント特徴に基づいて参照モデルデータベースで検索して、参照モデルデータベースからマッチング可能な別々の局所的顔領域の目標骨格パラメータを見出す。
上記ステップ110の実施については、図8に示すように、上記ステップ110は、以下のステップを含んでよい。
ステップ1101、現在顔画像に対してキーポイント検出を行って所定数量のキーポイントの位置座標を取得する。
上述したように、コンピュータシステムは現在顔画像に対して、顔領域検出、頭部姿勢補正、画像縮小拡大等の規範化処理を行って、基準顔画像のサイズと同じ前処理画像を取得してよい。続いて、顔キーポイント位置決定技術で前処理画像に対してキーポイント検出を行ってよい。例えば、240顔キーポイント位置決定技術で前処理画像に対してキーポイント検出を行って240個の顔キーポイントの位置座標を取得してよい。
ステップ1102、前記所定数量のキーポイントの位置座標により前記現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定する。
本願の実施例では、現在顔画像のキーポイント位置座標が取得された後、現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定できる。
例えば、眉領域のような局所的顔領域について、そのキーポイント特徴は以下の少なくとも2種の表現方式を含んでよい。
方式1、キーポイントの位置座標組合せを利用して局所的顔領域のキーポイント特徴を表す。例えば、1つの局所的顔領域を表すキーポイント座標組合せをこの局所的顔領域のキーポイント特徴としてよい。例えば、図9-1に示すように、18~22番目のキーポイントの座標位置組合せを左眉領域のキーポイント特徴とする。
本願では、相対的に一定したキーポイント(キーポイント数量と各キーポイントの番号を含む)で局所的顔領域を表すが、異なる顔画像において同一番号のキーポイントの画像座標系での座標位置が異なる。例えば、第1顔画像において、キーポイント18の座標位置が(80,15)、即ち80行目15列目の画素で決まった位置である。第2顔画像において、キーポイント18の座標位置が(100,20)、即ち100行目20列目の画素で決まった位置であってよい。従って、キーポイント組合せの位置座標で別々の人の顔特徴を効果的に区別できる。
方式2、キーポイント座標組合せのフィッティング曲線を利用して局所的顔領域のキーポイント特徴を表す。例えば、1つの局所的顔領域を表すキーポイント座標組合せにより、この局所的顔領域を表す特徴曲線をフィッティングし、且つこの特徴曲線をこの局所的顔領域のキーポイント特徴とするようにしてよい。図9-2に示すように、18~22番目のキーポイントの座標位置によりフィッティングした特徴曲線を左眉領域のキーポイント特徴とする。同様に図9-3に示すように、目部キーポイント1~12の位置座標によりまぶた特徴曲線をフィッティングして、左目のキーポイント特徴とする。
別々の人の顔の各キーポイントの位置座標が異なるので、キーポイント位置座標によりフィッティングした曲線の形状も異なる。従って、上記特徴曲線を現在顔画像中の局所的顔領域を表すキーポイント特徴として別々の人の顔を区別することができる。
上記ステップ120の実施について、キーポイント特徴同士の類似度によって参照モデルデータベースから現在顔画像とマッチングする目標骨格パラメータを検索してよい。図10に示すように、上記ステップ120には、以下のステップを含んでよい。
ステップ121、現在顔画像中の各局所的顔領域については、参照モデルデータベース中の、該局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、この局所的顔領域の目標参照キーポイント特徴として決定する。
図11に示すように、現在顔画像中の各局所的顔領域について、上記ステップ121では、以下のステップを含んでよい。
ステップ1211、局所的顔領域のキーポイント特徴と参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定する。参照モデルデータベース中の対応の参照キーポイント特徴は、参照モデルデータベースにおける該局所的顔領域の位置に対応する参照キーポイント特徴であってよい。
本願の実施例では、キーポイント特徴の表現形式によっては、異なる判定方式で参照モデルデータベースからマッチング可能な参照キーポイント特徴を検索してよい。
例えば、参照モデルデータベースに記憶された参照キーポイント特徴が参照キーポイント座標組合せである場合に、キーポイント座標組合せ同士のユークリッド距離により局所的顔領域のキーポイント特徴と参照キーポイント特徴との類似度を決定してよい。
図9-1に示すように、現在顔画像中のキーポイント18~22の位置座標と任意の顔画像サンプル中のキーポイント18~22の位置座標との間のユークリッド距離をそれぞれ計算してよく、それぞれl18、l19、l20、l21、l22で表す。l18は現在顔画像のキーポイント18の位置座標と顔画像サンプル中のキーポイント18の位置座標との間のユークリッド距離を表し、それによって類推する。2つの画像中の左眉領域の類似度はキーポイント18~22のユークリッド距離の和Lで表してよい。一実施例では、Lは以下の式で表してよい。
L=l18+l19+l20+l21+l22
本願の別の実施例では、上記類似度は更にキーポイント間のユークリッド距離の加重値で表してもよい。再度上記の例を参照し、実際の応用シナリオに応じて各キーポイントに所定の重みを設置してよく、例えば、キーポイント18~22にそれぞれ重みα、α、α、α、αを設置すれば、Lは以下の式で表してよい
L=α*l18+α*l19+α*l20+α*l21+α*l22
2つのキーポイント座標組合せ間のユークリッド距離が小さいほど、これら2つのキーポイント座標組合せで表される局所的顔領域間の類似度が高いことを示す。
参照モデルデータベースに記憶された参照キーポイント特徴が参照特徴曲線である場合に、図12に示すように、上記ステップ1211には、以下のステップを含んでよい。
ステップ12111、局所的顔領域のキーポイント座標組合せにより、フィッティングを介して該局所的顔領域を表す特徴曲線を取得する。
再度図9-1を参照し、現在顔画像から18~22番目のキーポイントの位置座標が決定された後、図9-2に示すように、所定規則、例えば左から右への順序でフィッティングを介して特徴曲線を得る。
ステップ12112、前記特徴曲線と参照モデルデータベース中の対応の参照特徴曲線との距離により、該局所的顔領域のキーポイント特徴と参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定する。
本願の実施例では、フレシェfrechet距離値でキーポイント特徴間の類似性を判定してよい。2本の特徴曲線間のfrechet距離値が小さいほど、2本の特徴曲線の形状が近似し、即ち、類似度が高いことを示し、それに対応するように、2本の特徴曲線のそれぞれに対応する局所的顔領域間の類似度が大きい。
本願の別の実施例では、二者を組み合わせることで上記目標参照キーポイント特徴を決定してもよい。具体的には、現在顔画像における任意の局所的顔領域のキーポイント座標組合せについて、該キーポイント座標組合せと参照モデルデータベースにおけるそれぞれの対応参照キーポイント座標組合せとのユークリッド距離をそれぞれ計算してよい。前記参照モデルデータベースにおける少なくとも2つの参照キーポイント座標組合せと該キーポイント座標組合せとのユークリッド距離値が同じであれば、更に前記少なくとも2つの参照キーポイント座標組合せのうちの各前記参照キーポイント組合せと前記キーポイント座標組合せとの間のfrechet距離値を計算し、それによって現在顔画像中の該キーポイント座標組合せに対応する特徴曲線の形状に最も近似する目標参照キーポイント特徴を効果的に識別する。
本願の別の実施例では、更に局所的顔領域の分布特徴により、対応するポリシーを用いて前記局所的顔領域のキーポイント特徴と参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定してもよい。
例えば、局所的顔領域が少なくとも2つのサブ領域を含み、即ち該局所的顔領域が少なくとも2つのサブ領域のキーポイント特徴で表されることが可能である場合に、図13に示すように、該局所的顔領域のキーポイント特徴と参照モデルデータベースにおける1つの顔画像サンプルに対応する参照キーポイント特徴との類似度を決定する時に、上記ステップ1211には、以下のステップを含んでよい。
ステップ1211-1、該局所的顔領域中の各サブ領域について、該サブ領域のキーポイント特徴と参照モデルデータベース中の該顔画像サンプルの対応のサブ領域の参照キーポイント特徴との類似度を決定して、該サブ領域に対応する局所的類似度を取得する。
該顔画像サンプルの対応のサブ領域とは、該顔画像サンプルにおける、該局所的顔領域の処理中のサブ領域の位置に対応するサブ領域をいう。例えば、目領域のキーポイント特徴は左目領域と右目領域のそれぞれに対応するキーポイント特徴を含む。眉領域のキーポイント特徴は左眉領域と右眉領域のそれぞれに対応するキーポイント特徴を含む。口領域のキーポイント特徴は上唇領域と下唇領域のそれぞれに対応するキーポイント特徴を含む。
目領域を例とすると、上記のいずれか1種の決定方法で左目領域のキーポイント特徴と参照モデルデータベース中の各左目参照キーポイント特徴との類似度、及び右目領域のキーポイント特徴と参照モデルデータベース中の各右目参照キーポイント特徴との類似度を決定することができる。本願の実施例では、1つのサブ領域のキーポイント特徴と参照モデルデータベース中の対応のサブ領域の参照キーポイント特徴との類似度を局所的類似度と称する。現在顔画像中の左、右目領域のキーポイント特徴を参照モデルデータベース中の1つの参照顔モデルの左、右目領域の参照キーポイント特徴と比較した後、1対の局所的類似度が得られる。
上記の例によれば、201個の顔画像サンプルで生成した参照モデルデータベースについて、現在顔画像中の目部領域のキーポイント特徴に対して201対の局所的類似度が得られる。
ステップ1211-2、各サブ領域に対応する局所的類似度により、前記局所的顔領域と該顔画像サンプルの対応の局所的顔領域との全体的な類似度を、該局所的顔領域のキーポイント特徴と参照モデルデータベース中の該顔画像サンプルの対応参照キーポイント特徴との類似度として決定する。
例えば目、口、眉等の2つのサブ領域のキーポイント特徴で表せる局所的顔領域について、各サブ領域の対応の局所的類似度が計算された後、2つの局所的類似度の和又は加重和を求めて、現在顔画像と1つの顔画像サンプルの対応領域の類似度としてよい。
本願の実施例では、局所的顔領域が複数のサブ領域を含む場合に、複数のサブ領域の局所的類似度に基づいて上記目、眉、口等のこの局所的顔領域の全体的な類似度をより正確に比較し、更に参照モデルデータベースからより正確にこの局所的顔領域の目標骨格パラメータを決定することができる。
ステップ1212、類似度が最も高い参照キーポイント特徴を前記局所的顔領域の目標参照キーポイント特徴とする。
上記ステップ1211に記載のいずれか1種の方法で、現在顔画像中の局所的顔領域のキーポイント特徴と参照モデルデータベース中の各顔画像サンプルの対応の参照キーポイント特徴との類似度をそれぞれ計算し、且つ類似度が最も高い参照キーポイント特徴を現在顔画像中の該局所的顔領域の目標参照キーポイント特徴とする。
ステップ122、現在顔画像中の各局所的顔領域の目標参照キーポイント特徴に対応する参照骨格パラメータに基づいて、現在顔画像の目標骨格パラメータを決定する。
本願の一実施例では、参照モデルデータベースには、各局所的顔領域の各種画像形式に対応する参照キーポイント特徴、及び上記参照キーポイント特徴と参照骨格パラメータとの間の対応関係が記憶されている。
各顔画像からそれぞれM個の局所的顔領域、例えば、眉、目、鼻、口、顔輪郭の5つの局所的顔領域を区画できると仮定する。
1つの局所的顔領域に対応する画像形式の数をnとすれば、上記参照モデルデータベースには少なくともN個の参照キーポイント特徴が記憶されており、N=n+n+……+n、ここで、nは局所的顔領域の画像形式の数を表し、iは1つの局所的顔領域を表し、i∈(1,M)である。一例として、数字1が眉を表すとすれば、nは眉の形の数を表し、それに対応するように、図2に示す例において、n=12。
各参照キーポイント特徴はそれぞれ1セットの参照骨格パラメータに対応し、従って、上記参照モデルデータベースには少なくともN個の参照キーポイント特徴に対応するNセットの参照骨格パラメータが記憶されている。
上記参照キーポイント特徴が参照キーポイントの座標位置によりフィッティングを介して得られる参照特徴曲線であれば、上記参照モデルデータベースには少なくともN本の参照特徴曲線に対応するNセットの参照骨格パラメータが記憶されている。
上記参照キーポイント特徴が参照キーポイントの座標位置組合せ、即ち参照キーポイント座標組合せであれば、上記参照モデルデータベースには少なくともN個の参照キーポイント座標組合せに対応するNセットの参照骨格パラメータが記憶されている。
コンピュータシステムは、現在顔画像から局所的顔領域のキーポイント特徴を取得した後、参照モデルデータベースからこのキーポイント特徴とマッチングする参照キーポイント特徴、例えば最も近似する参照キーポイント特徴を、目標参照キーポイント特徴として決定し、更に目標参照キーポイント特徴に対応する参照骨格パラメータにより、上記キーポイント特徴に適合する目標骨格パラメータを決定することができる。例えば、直接に、目標参照キーポイント特徴に対応する参照骨格パラメータを、現在顔画像における上記キーポイント特徴に対応する局所的顔領域に適合する目標骨格パラメータとする。
本願の実施例では、キーポイント特徴の表現方式に応じてユークリッド距離又はfrechet距離を利用して、現在顔画像における局所的顔領域のキーポイント特徴と参照モデルデータベース中の対応の参照キーポイント特徴との類似度を判定することで、比較的正確で且つ高速に参照モデルデータベースに基づいて現在顔画像における局所的顔領域の目標骨格パラメータを決定し、生成すべき顔モデルの骨格調整パラメータを決定することができ、それによって、例えばゲームシナリオのような特定の応用シナリオでのフェースカスタマイズ機能の用途のユーザ体験を効果的に向上させることができる。
本明細書における様々な実施例は漸進的に説明され、各実施例間の同一または類似の部分については相互に参照すればよく、各実施例は他の実施例との相違点に集中して説明した。特に、データ処理装置の実施例については、それは基本的に方法実施例と類似するので、説明は比較的簡単であり、関連部分は方法実施例の説明の一部を参照すればよい。
上述した各方法の実施例については、簡単に説明するために、シリーズ的な動作組合せとして説明したが、本開示に基づければ一部のステップを他の順序で実行してもよく、又は同時に実行してもよいので、本開示が記述された動作順序に限定されないことが当業者に知られている。
そして、明細書に記述された実施例は全て選択可能な実施例であり、関連する動作やモジュールは必ず本開示に不可欠なものであるというわけでないことも当業者に知られている。
前記の応用機能の実現方法の実施例に対応するように、本開示は応用機能の実現装置及び対応端末の実施例を更に提供する。
それに対応するように、本願の実施例は、顔モデルの生成装置を提供する。図14に示すように、前記装置は、現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するためのキーポイント検出モジュール21と、前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するためのパラメータマッチングモジュール22と、前記目標骨格パラメータと基準3次元顔モデルとに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成するためのモデル生成モジュール23とを含んでよい。
本願の装置の実施例では、前記モデル生成モジュール23が出力する前記現在顔画像に対応する仮想3次元顔モデルは、前記現在顔画像に対応するアニメ化仮想3次元顔モデルであってよい。
本願の別の装置の実施例では、前記モデル生成モジュール23の出力する前記現在顔画像に対応する仮想3次元顔モデルは、前記現在顔画像中の真実の顔に似ている仮想3次元顔モデル、即ち真実の顔に見える仮想3次元顔モデルであってもよい。
図15に示すように、図14に示す装置の実施例を基礎として、前記装置は、更に、所定数量の顔画像サンプルと前記基準3次元顔モデルにより参照モデルデータベースを決定するためのデータベース作成モジュール20を含んでよい。前記参照モデルデータベースは所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含む。このような場合に、前記パラメータマッチングモジュール22は、具体的には、前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するために用いられる。
図16に示すように、図15に示す装置の実施例を基礎として、前記データベース作成モジュール20は、サンプル取得サブモジュール201と、参照モデル生成サブモジュール202と、データベース決定サブモジュール203とを含んでよい。前記サンプル取得サブモジュール201は、前記所定数量の顔画像サンプルを含む顔画像サンプル集合を取得するために用いられ、前記顔画像サンプル集合は、少なくとも1種の局所的顔領域を表す多種の画像形式を含み、前記参照モデル生成サブモジュール202は、前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する参照顔モデルを生成するために用いられ、前記参照顔モデルは、前記顔画像サンプルに対応する前記参照骨格パラメータを含み、前記データベース決定サブモジュール203は、各前記顔画像サンプルに対応する参照顔モデルにより、前記参照モデルデータベースを決定するために用いられ、前記参照モデルデータベースは、各前記局所的顔領域の各種の前記画像形式を表す前記キーポイント特徴と前記参照骨格パラメータとの対応関係を含む。
図17に示すように、図16に示す装置の実施例を基礎として、前記参照モデル生成サブモジュール202は、画像前処理ユニット2021とキーポイント検出ユニット2022と参照モデル生成ユニット2023とを含んでよい。前記画像前処理ユニットは2021、前記顔画像サンプルに対して規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得するために用いられ、前記基準顔画像は、前記基準3次元顔モデルに対応する2次元顔画像であり、前記キーポイント検出ユニット2022は、前記前処理顔画像に対してキーポイント検出を行って、前記顔画像サンプルの参照キーポイント集合を取得するために用いられ、前記参照キーポイント集合は、前記顔画像サンプルにおける各前記局所的顔領域を表す参照キーポイント組合せを含み、前記参照モデル生成ユニット2023は、各前記参照キーポイント組合せに基づいて前記基準3次元顔モデル中の対応の骨格パラメータを調整して、前記顔画像サンプルに対応する前記参照顔モデルを生成するために用いられる。
図18に示すように、図14~図17のいずれか一項に示す装置の実施例を基礎として、前記キーポイント検出モジュール21は、前記現在顔画像に対してキーポイント検出を行って所定数量のキーポイントの位置座標を取得するためのキーポイント位置決定サブモジュール211と、前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定するためのキーポイント特徴決定サブモジュール212と、を含んでよい。
本願の実施例では、前記キーポイント特徴はキーポイント座標組合せ及び/又は特徴曲線を含んでよい。
それに対応するように、図19に示すように、図18に示す装置の実施例を基礎として、前記キーポイント特徴決定サブモジュール212は、座標組合せ決定ユニット2121と特徴曲線決定ユニット2122とを含んでよい。前記座標組合せ決定ユニット2121は、前記所定数量のキーポイントの位置座標に基づいて、前記現在顔画像における第1局所的顔領域を表すキーポイント座標組合せを、当該第1局所的顔領域を表す前記キーポイント特徴として決定するために用いられ、当該第1局所的顔領域は、前記少なくとも1つの局所的顔領域のうちのいずれか1つであり、前記特徴曲線決定ユニット2122は、当該第1局所的顔領域を表す前記キーポイント座標組合せにより、フィッティングを介して得られる当該第1局所的顔領域を表す特徴曲線を、当該第1局所的顔領域を表す前記キーポイント特徴とするために用いられる。
本願では、前記少なくとも1種の局所的顔領域は、眉、目、鼻、口、顔輪郭の少なくとも一項を含む。
上記の図19に示す装置の実施例はキーポイント特徴決定サブモジュール212が座標組合せ決定ユニット2121と特徴曲線決定ユニット2122を含む場合に対応する。本願の別の装置の実施例では、キーポイント特徴決定サブモジュール212は座標組合せ決定ユニット2121又は特徴曲線決定ユニット2122を含んでもよい。
図20に示すように、図14~図19のいずれか一項に示す装置の実施例を基礎として、前記パラメータマッチングモジュール22は、前記現在顔画像における各局所的顔領域について、前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するための特徴マッチングサブモジュール221と、前記現在顔画像中の各前記局所的顔領域の目標参照キーポイント特徴に対応する参照骨格パラメータに基づいて、前記現在顔画像の目標骨格パラメータを決定するための骨格パラメータ決定サブモジュール222と、を含んでよい。
図21に示すように、図20に示す装置の実施例を基礎として、前記特徴マッチングサブモジュール221は、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するための類似度決定ユニット2211と、類似度が最も高い前記参照キーポイント特徴を前記局所的顔領域の前記目標参照キーポイント特徴として決定するための目標特徴決定ユニット2212と、を含んでよい。
本願の装置の実施例では、前記キーポイント特徴は、キーポイント位置座標によりフィッティングを介して得られる特徴曲線であってよい。それに対応するように、図22に示すように、図21に示す装置の実施例を基礎として、前記類似度決定ユニット2211は、局所的顔領域のキーポイント座標組合せにより、フィッティングを介して前記局所的顔領域を表す特徴曲線を取得するための曲線フィッティングサブユニット2201と、前記特徴曲線と前記参照モデルデータベース中の対応の参照特徴曲線の距離により、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するための類似度決定サブユニット2202とを含んでよい。
本願の実施例では、前記距離はユークリッド距離又はフレシェfrechet距離を含んでよい。それに対応するように、前記目標特徴決定ユニット2212は、前記距離値が最も小さい参照特徴曲線を前記目標参照キーポイント特徴とすることに利用可能である。
図23に示すように、図21に示す装置の実施例を基礎として、前記類似度決定ユニット2211は、1つの前記局所的顔領域が少なくとも2つのサブ領域を含む場合に、前記局所的顔領域中の各前記サブ領域について、前記参照モデルデータベース中の各顔画像サンプルに対して、前記サブ領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応のサブ領域の参照キーポイント特徴との類似度を決定して、前記サブ領域に対応する局所的類似度を取得するための局所的類似度決定サブユニット22111と、前記参照モデルデータベース中の各顔画像サンプルについて、各前記サブ領域に対応する前記局所的類似度により、前記局所的顔領域と当該顔画像サンプル中の対応の局所的顔領域との全体的な類似度を、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応の参照キーポイント特徴との類似度として決定するための全体的類似度決定サブユニット22112と、を含んでよい。
装置実施例は、基本的に方法実施例に対応するので、関連部分については方法実施例の一部の説明を参照すればよい。上述した装置実施例は単に例示的なものであり、そのうち、前記の分離部材として説明したユニットは物理的に分離されたものであってもなくてもよく、ユニット表示の部材としては物理ユニットであってもなくてもよく、一箇所に位置してもよく、または複数のネットワークユニットに分布してもよい。実際の必要に応じてその一部または全てのモジュールを選択して本願の解決手段の目的を実現できる。当業者であれば、創造的な労力を要することなく、理解し実施することができる。
上記の顔モデルの生成方法に対して、本願の実施例は、本願に係る例示的な一実施例の電子機器の構造模式図を更に提供する。図24に示すように、ハードウェアの面で、この電子機器はプロセッサ241、内部バス242、ネットワークインタフェース243、メモリ245及び非揮発性メモリ246を含み、勿論、更に他の業務に必要なハードウェアを含むこともできる。プロセッサ241は非揮発性メモリ246から対応するコンピュータプログラムをメモリ245に読み取ってから作動させ、論理の面で知能化運転制御装置を形成する。勿論、ソフトウェアによる実現形態の他に、本願は、例えばロジックデバイス又はソフトウェアとハードウェアの組合せのような他の実現形態等で実現されてもよく、つまり、以下の処理プロセスの実行主体は各ロジックユニットに限定されず、ハードウェア又はロジックデバイスであってもよい。
本明細書の1つ又は複数の実施例は方法、システム又はコンピュータプログラム製品として提供可能であることが当業者に理解されるべきである。従って、本明細書の1つ又は複数の実施例は、完全ハードウェア実施例、完全ソフトウェア実施例又はソフトウェアとハードウェアを組み合わせた実施例の形態を採用してもよい。また、本明細書の1つ又は複数の実施例は、コンピュータ利用可能プログラムコードを含む1つ又は複数のコンピュータ利用可能記憶媒体(磁気ディスク記憶装置、CD-ROM、光学記憶装置等を含むが、それらに限定されない)上で実施されるコンピュータプログラム製品の形態を採用してもよい。
本明細書の実施例は、コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記プログラムがプロセッサにより実行される時に本明細書の図1~図13のいずれか1つの実施例で提供された顔モデルの生成方法のステップを実現するコンピュータ可読記憶媒体を更に提供する。
本明細書で説明された主旨及び機能操作の実施例は、デジタル電子回路、具形化したコンピュータソフトウェア又はファームウエア、本明細書で開示された構造及びその構造上同等な物を含むコンピュータハードウェア、或いはそれらの1つ又は複数の組合せで実現可能である。本明細書で説明された主旨の実施例は、1つ又は複数のコンピュータプログラムとして実現可能であり、即ち、有形非一時的プログラムキャリアに符号化されてデータ処理装置により実行されるか又はデータ処理装置の操作を制御するコンピュータプログラムコマンド中の1つ又は複数のモジュールとして実現可能である。人工で生成する伝播信号、例えば機械で生成する電気、光又は電磁信号にプログラムコマンドが符号化されるような代替又は追加は可能であり、該当信号が生成されて情報を符号化して適切な受信装置に伝送してデータ処理装置により実行させる。コンピュータ記憶媒体は、機械可読記憶装置、機械可読記憶基板、ランダム又はシリアルアクセス記憶装置、或いはそれらの1つ又は複数の組合せであってもよい。
本明細書に記載の処理及び論理フローは1つ又は複数のコンピュータプログラムを実行する1つ又は複数のプログラマブルコンピュータにより実行されて、入力データにより操作し出力を生成することによって対応する機能を実行してもよい。前記処理及び論理フローは、更に専用論理回路、例えばFPGA(フィールド・プログラマブル・ゲート・アレイ)又はASIC(専用集積回路)によって実行されてもよく、また、装置は専用論理回路として実現されてもよい。
コンピュータプログラムを実行するのに適するコンピュータは、例えば汎用及び/又は専用マイクロプロセッサ、又は任意の他の種類の中央処理装置を含む。一般的には、中央処理装置は読出し専用メモリ及び/又はランダムアクセスメモリからコマンドやデータを受信する。コンピュータの基本的なコンポーネントは、コマンドを実施又は実行するための中央処理装置及びコマンドやデータを記憶するための1つ又は複数の記憶装置を含む。一般的には、コンピュータは更にデータを記憶するための1つ又は複数の大容量記憶装置、例えば磁気ディスク、光磁気ディスク又は光ディスク等を含み、又は、コンピュータは操作可能にこの大容量記憶装置に接続されてそのものに対するデータ受信又はデータ伝送を行い、又は、それらの両方が考えられている。しかしながら、コンピュータはこのような装置を有しなければならないということではない。なお、コンピュータは、例えば携帯電話、携帯用情報端末(PDA)、携帯型オーディオ又はビデオプレーヤ、遊戯操作部、全地球測位システム(GPS)受信装置、又は例えば汎用シリアルバス(USB)フラッシュドライブの携帯型記憶装置のような別の装置に嵌め込まれてもよく、それらは例に過ぎない。
コンピュータプログラムコマンドやデータを記憶するのに適するコンピュータ可読媒体は全ての形態の不揮発性メモリ、媒体及び記憶装置を含み、例えば、半導体記憶装置(例えば、EPROM、EEPROM及びフラッシュ装置)、磁気ディスク(例えば、内蔵ハードディスク又はリムーバブルハードディスク)、光磁気ディスク及びCD ROMとDVD-ROMディスクを含む。プロセッサとメモリは専用論理回路によって補充されるか、専用論理回路に組み合わせられることが可能である。
本明細書に具体的な実施詳細を多く含むが、それらは発明の範囲又は保護しようとする範囲に何の制限を与えるものと解釈してもならなく、主に特定の発明の具体的な実施例の特徴を説明するためのものである。本明細書においては複数の実施例で説明された幾つかの特徴は単一の実施例で組み合わせて実施してもよい。一方、単一の実施例で説明された様々な特徴は、複数の実施例で別々に実施してもよいし、いかなる適切なサブ組合せで実施してもよい。なお、特徴は以上のとおり幾つかの組合せで作用を発揮することができ、更に最初にそのように保護しようしていたが、保護しようとする組合せからの1つ又は複数の特徴はこの組合せから除去してもよいことがあり、また保護しようとする組合せはサブ組合せ又はサブ組合せの変形であってもよい。
類似的に、図面において特定の順序で操作を説明したが、所望の結果を遂げるために、これらの操作を示された特定の順序で実行したり、順に実行したりすることを要求し、又は全ての例示的な操作を実行することを要求すると理解してならない。マルチタスクや並列処理は役立つものになることがある。なお、上記実施例における様々のシステムモジュールとコンポーネントの分離は全ての実施例に必要なものとなると理解してならなく、説明されたプログラムコンポーネントとシステムは一般的には単一のソフトウェア製品に統合するか、複数のソフトウェア製品として実装することができるのを理解すべきである。
以上のとおり、主旨となる特定の実施例を説明した。他の実施例は添付した特許請求の範囲内にある。特許請求の範囲に記載の動作を異なる順序で実行しても所望の結果を実現できることがある。なお、図面に記載の処理は、所望の結果を遂げるために、必ず示された特定の順序又は順次順序によるというわけでない。マルチタスクと並列処理は役立つものになる実施形態がある。
上述したのは本明細書の1つ又は複数の実施例の好ましい実施例に過ぎず、本明細書の1つ又は複数の実施例を限定するものではなく、本明細書の1つ又は複数の実施例の主旨と原則から逸脱しない限り行った修正、同等な取替、改良等は、全て本明細書の1つ又は複数の実施例の保護する範囲に含まれるものである。

Claims (12)

  1. 現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するステップと、
    前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するステップと、
    前記目標骨格パラメータと基準3次元顔モデルとに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成するステップと、を含み、
    所定数量の顔画像サンプルと前記基準3次元顔モデルにより参照モデルデータベースを決定するステップであって、前記参照モデルデータベースは、所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含むステップを更に含み、
    前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するステップは、
    前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するステップを含むことを特徴とする顔モデルの生成方法。
  2. 前記所定数量の顔画像サンプルと前記基準3次元顔モデルにより前記参照モデルデータベースを決定するステップは、
    前記所定数量の顔画像サンプルを含む顔画像サンプル集合を取得するステップであって、前記顔画像サンプル集合は、少なくとも1つの局所的顔領域を表す多種の画像形式を含むステップと、
    各前記顔画像サンプルについて、前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する参照顔モデルを生成するステップであって、前記参照顔モデルは、前記顔画像サンプルに対応する前記参照骨格パラメータを含むステップと、
    各前記顔画像サンプルに対応する参照顔モデルにより、前記参照モデルデータベースを決定するステップと、を含み、
    前記参照モデルデータベースは、各前記局所的顔領域の各種の前記画像形式を表す前記参照キーポイント特徴と前記参照骨格パラメータとの対応関係を含むことを特徴とする請求項に記載の方法。
  3. 前記基準3次元顔モデルに基づいて前記顔画像サンプルに対応する前記参照顔モデルを生成するステップは、
    前記顔画像サンプルに対して規範化処理を行って、基準顔画像の頭部姿勢と画像サイズに合致する前処理顔画像を取得するステップであって、前記基準顔画像は、前記基準3次元顔モデルに対応する2次元顔画像であるステップと、
    前記前処理顔画像に対してキーポイント検出を行って、前記顔画像サンプルの参照キーポイント集合を取得するステップであって、前記参照キーポイント集合は、前記顔画像サンプルにおける各前記局所的顔領域を表す参照キーポイント組合せを含むステップと、
    各前記参照キーポイント組合せに基づいて前記基準3次元顔モデル中の対応の骨格パラメータを調整して、前記顔画像サンプルに対応する前記参照顔モデルを生成するステップと、を含むことを特徴とする請求項に記載の方法。
  4. 前記現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するステップは、
    前記現在顔画像に対してキーポイント検出を行って所定数量のキーポイントの位置座標を取得するステップと、
    前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表すキーポイント特徴を決定するステップと、を含むことを特徴とする請求項1~のいずれか一項に記載の方法。
  5. 前記所定数量のキーポイントの位置座標により、前記現在顔画像における少なくとも1つの局所的顔領域を表す前記キーポイント特徴を決定するステップは、
    前記所定数量のキーポイントの位置座標に基づいて、前記現在顔画像における第1局所的顔領域を表すキーポイント座標組合せを、当該第1局所的顔領域を表す前記キーポイント特徴として決定するステップであって、当該第1局所的顔領域は、前記少なくとも1つの局所的顔領域のうちのいずれか1つであるステップ、及び/又は、
    当該第1局所的顔領域を表す前記キーポイント座標組合せにより、フィッティングを介して得られる当該第1局所的顔領域を表す特徴曲線を、当該第1局所的顔領域を表す前記キーポイント特徴とするステップを含むことを特徴とする請求項に記載の方法。
  6. 前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するステップは、
    前記現在顔画像における各局所的顔領域について、前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するステップと、
    前記現在顔画像中の各前記局所的顔領域の目標参照キーポイント特徴に対応する参照骨格パラメータに基づいて、前記現在顔画像の目標骨格パラメータを決定するステップと、を含むことを特徴とする請求項1~5のいずれか一項に記載の方法。
  7. 前記参照モデルデータベース中の、前記局所的顔領域のキーポイント特徴とマッチングする参照キーポイント特徴を、前記局所的顔領域の目標参照キーポイント特徴として決定するステップは、
    前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップと、
    類似度が最も高い前記参照キーポイント特徴を、前記局所的顔領域の前記目標参照キーポイント特徴として決定するステップと、を含むことを特徴とする請求項に記載の方法。
  8. 前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップは、
    前記局所的顔領域のキーポイント座標組合せにより、フィッティングを介して前記局所的顔領域を表す特徴曲線を取得するステップと、
    前記特徴曲線と前記参照モデルデータベース中の対応の参照特徴曲線との距離により、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の対応の参照キーポイント特徴との類似度を決定するステップと、を含むことを特徴とする請求項に記載の方法。
  9. 前記局所的顔領域が少なくとも2つのサブ領域を含む場合に、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の1つの顔画像サンプルの対応の参照キーポイント特徴との類似度を決定するステップは、
    前記局所的顔領域中の各前記サブ領域について、前記サブ領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応のサブ領域の参照キーポイント特徴との類似度を決定して、前記サブ領域に対応する局所的類似度を取得するステップと、
    各前記サブ領域に対応する前記局所的類似度により、前記局所的顔領域と当該顔画像サンプル中の対応の局所的顔領域との全体的な類似度を、前記局所的顔領域のキーポイント特徴と前記参照モデルデータベース中の当該顔画像サンプルの対応の参照キーポイント特徴との類似度として決定するステップと、を含むことを特徴とする請求項7又は8に記載の方法。
  10. 現在顔画像に対してキーポイント検出を行って前記現在顔画像の少なくとも1つのキーポイント特徴を取得するためのキーポイント検出モジュールと、
    前記少なくとも1つのキーポイント特徴により前記現在顔画像とマッチングする目標骨格パラメータを取得するためのパラメータマッチングモジュールと、
    前記目標骨格パラメータと基準3次元顔モデルとに基づいて前記現在顔画像に対応する仮想3次元顔モデルを生成するためのモデル生成モジュールと、を含み、
    データベース作成モジュールを更に含み、
    前記データベース作成モジュールは、所定数量の顔画像サンプルと前記基準3次元顔モデルにより参照モデルデータベースを決定するために用いられ、前記参照モデルデータベースは、所定数量の顔画像サンプルから決定される少なくとも1つの参照キーポイント特徴及び前記少なくとも1つの参照キーポイント特徴のそれぞれに対応する参照骨格パラメータを含み、
    前記パラメータマッチングモジュールは、前記少なくとも1つのキーポイント特徴により前記参照モデルデータベースから前記現在顔画像とマッチングする目標骨格パラメータを取得するために用いられることを特徴とする顔モデルの生成装置。
  11. コンピュータプログラムが記憶されているコンピュータ可読記憶媒体であって、前記コンピュータプログラムがプロセッサにより実行されるときに上記請求項1~のいずれか一項に記載の方法が実現されるコンピュータ可読記憶媒体。
  12. メモリと、プロセッサと、前記メモリに記憶されて前記プロセッサ上で作動可能なコンピュータプログラムとを含み電子機器であって、前記プロセッサが前記プログラムを実行するときに上記請求項1~のいずれか一項に記載の方法を実現する電子機器。
JP2021516410A 2019-05-15 2020-02-21 顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体 Active JP7191213B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910403884.8A CN110111418B (zh) 2019-05-15 2019-05-15 创建脸部模型的方法、装置及电子设备
CN201910403884.8 2019-05-15
PCT/CN2020/076134 WO2020228389A1 (zh) 2019-05-15 2020-02-21 一种创建脸部模型的方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2022500790A JP2022500790A (ja) 2022-01-04
JP7191213B2 true JP7191213B2 (ja) 2022-12-16

Family

ID=67490284

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021516410A Active JP7191213B2 (ja) 2019-05-15 2020-02-21 顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US11836943B2 (ja)
JP (1) JP7191213B2 (ja)
KR (1) KR102523512B1 (ja)
CN (1) CN110111418B (ja)
SG (1) SG11202103190VA (ja)
TW (1) TW202044202A (ja)
WO (1) WO2020228389A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN108615014B (zh) * 2018-04-27 2022-06-21 京东方科技集团股份有限公司 一种眼睛状态的检测方法、装置、设备和介质
CN110111418B (zh) 2019-05-15 2022-02-25 北京市商汤科技开发有限公司 创建脸部模型的方法、装置及电子设备
CN110675475B (zh) * 2019-08-19 2024-02-20 腾讯科技(深圳)有限公司 一种人脸模型生成方法、装置、设备及存储介质
CN110503700A (zh) * 2019-08-26 2019-11-26 北京达佳互联信息技术有限公司 生成虚拟表情的方法、装置、电子设备及存储介质
CN110705448B (zh) * 2019-09-27 2023-01-20 北京市商汤科技开发有限公司 一种人体检测方法及装置
CN110738157A (zh) * 2019-10-10 2020-01-31 南京地平线机器人技术有限公司 虚拟面部的构建方法及装置
CN111354079B (zh) * 2020-03-11 2023-05-02 腾讯科技(深圳)有限公司 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
CN111640204B (zh) * 2020-05-14 2024-03-19 广东小天才科技有限公司 三维对象模型的构建方法、构建装置、电子设备及介质
CN111738087B (zh) * 2020-05-25 2023-07-25 完美世界(北京)软件科技发展有限公司 一种游戏角色面部模型的生成方法和装置
CN111652798B (zh) * 2020-05-26 2023-09-29 浙江大华技术股份有限公司 人脸姿态迁移方法和计算机存储介质
CN111714885A (zh) * 2020-06-22 2020-09-29 网易(杭州)网络有限公司 游戏角色模型生成、角色调整方法、装置、设备及介质
CN112232183B (zh) * 2020-10-14 2023-04-28 抖音视界有限公司 虚拟佩戴物匹配方法、装置、电子设备和计算机可读介质
CN114727002A (zh) * 2021-01-05 2022-07-08 北京小米移动软件有限公司 拍摄方法、装置、终端设备及存储介质
CN112767348B (zh) * 2021-01-18 2023-11-24 上海明略人工智能(集团)有限公司 一种检测信息的确定方法和装置
CN112967364A (zh) * 2021-02-09 2021-06-15 咪咕文化科技有限公司 一种图像处理方法、装置及设备
CN112973122A (zh) * 2021-03-02 2021-06-18 网易(杭州)网络有限公司 游戏角色上妆方法、装置及电子设备
KR102334666B1 (ko) 2021-05-20 2021-12-07 알레시오 주식회사 얼굴 이미지 생성 방법
KR20230151821A (ko) 2022-04-26 2023-11-02 주식회사 리본소프트 메타버스에 이용되는 3차원 미형 캐릭터 생성 시스템 및 방법
KR102494222B1 (ko) * 2022-09-13 2023-02-06 주식회사 비브스튜디오스 자동 3d 눈썹 생성 방법
CN115393532B (zh) * 2022-10-27 2023-03-14 科大讯飞股份有限公司 脸部绑定方法、装置、设备及存储介质
CN115797569B (zh) * 2023-01-31 2023-05-02 盾钰(上海)互联网科技有限公司 高精度数孪人面部表情动作细分的动态生成方法及系统
CN117152308B (zh) * 2023-09-05 2024-03-22 江苏八点八智能科技有限公司 一种虚拟人动作表情优化方法与系统
CN117593493A (zh) * 2023-09-27 2024-02-23 书行科技(北京)有限公司 三维脸部拟合方法、装置、电子设备及存储介质

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199536A (ja) 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント 顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7856125B2 (en) * 2006-01-31 2010-12-21 University Of Southern California 3D face reconstruction from 2D images
US7751599B2 (en) * 2006-08-09 2010-07-06 Arcsoft, Inc. Method for driving virtual facial expressions by automatically detecting facial expressions of a face image
TWI427545B (zh) 2009-11-16 2014-02-21 Univ Nat Cheng Kung 以尺度不變特徵轉換和人臉角度估測為基礎的人臉辨識方法
TWI443601B (zh) 2009-12-16 2014-07-01 Ind Tech Res Inst 擬真臉部動畫系統及其方法
US8550818B2 (en) * 2010-05-21 2013-10-08 Photometria, Inc. System and method for providing and modifying a personalized face chart
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
KR102357340B1 (ko) * 2014-09-05 2022-02-03 삼성전자주식회사 얼굴 인식 방법 및 장치
KR101997500B1 (ko) * 2014-11-25 2019-07-08 삼성전자주식회사 개인화된 3d 얼굴 모델 생성 방법 및 장치
GB2543893A (en) * 2015-08-14 2017-05-03 Metail Ltd Methods of generating personalized 3D head models or 3D body models
CN107025678A (zh) * 2016-01-29 2017-08-08 掌赢信息科技(上海)有限公司 一种3d虚拟模型的驱动方法及装置
KR101757642B1 (ko) * 2016-07-20 2017-07-13 (주)레벨소프트 3d 얼굴 모델링 장치 및 방법
CN106652025B (zh) * 2016-12-20 2019-10-01 五邑大学 一种基于视频流与人脸多属性匹配的三维人脸建模方法和打印装置
CN108960020A (zh) * 2017-05-27 2018-12-07 富士通株式会社 信息处理方法和信息处理设备
CN107705365A (zh) * 2017-09-08 2018-02-16 郭睿 可编辑的三维人体模型创建方法、装置、电子设备及计算机程序产品
US10796468B2 (en) * 2018-02-26 2020-10-06 Didimo, Inc. Automatic rig creation process
US10789753B2 (en) * 2018-04-23 2020-09-29 Magic Leap, Inc. Avatar facial expression representation in multidimensional space
US10706556B2 (en) * 2018-05-09 2020-07-07 Microsoft Technology Licensing, Llc Skeleton-based supplementation for foreground image segmentation
WO2019216593A1 (en) * 2018-05-11 2019-11-14 Samsung Electronics Co., Ltd. Method and apparatus for pose processing
CN109671016B (zh) * 2018-12-25 2019-12-17 网易(杭州)网络有限公司 人脸模型的生成方法、装置、存储介质及终端
CN109685892A (zh) * 2018-12-31 2019-04-26 南京邮电大学盐城大数据研究院有限公司 一种快速3d人脸构建系统及构建方法
CN110111418B (zh) * 2019-05-15 2022-02-25 北京市商汤科技开发有限公司 创建脸部模型的方法、装置及电子设备
CN110675475B (zh) * 2019-08-19 2024-02-20 腾讯科技(深圳)有限公司 一种人脸模型生成方法、装置、设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014199536A (ja) 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント 顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
WO2020228389A1 (zh) 2020-11-19
TW202044202A (zh) 2020-12-01
JP2022500790A (ja) 2022-01-04
KR20210047920A (ko) 2021-04-30
KR102523512B1 (ko) 2023-04-18
CN110111418A (zh) 2019-08-09
US11836943B2 (en) 2023-12-05
US20210209851A1 (en) 2021-07-08
SG11202103190VA (en) 2021-04-29
CN110111418B (zh) 2022-02-25

Similar Documents

Publication Publication Date Title
JP7191213B2 (ja) 顔モデルの生成方法、装置、電子機器及びコンピュータ可読記憶媒体
US11600013B2 (en) Facial features tracker with advanced training for natural rendering of human faces in real-time
KR101906431B1 (ko) 2d 이미지 인식에 기반한 3d 모델링 방법 및 그 시스템
Lv et al. Multimodal hand and foot gesture interaction for handheld devices
KR101997500B1 (ko) 개인화된 3d 얼굴 모델 생성 방법 및 장치
WO2018028546A1 (zh) 一种关键点的定位方法及终端、计算机存储介质
US9262671B2 (en) Systems, methods, and software for detecting an object in an image
CN111354079A (zh) 三维人脸重建网络训练及虚拟人脸形象生成方法和装置
WO2020024569A1 (zh) 动态生成人脸三维模型的方法、装置、电子设备
WO2020037963A1 (zh) 脸部图像识别的方法、装置及存储介质
TW201137768A (en) Face recognition apparatus and methods
US20220148333A1 (en) Method and system for estimating eye-related geometric parameters of a user
US8976182B2 (en) Facial sketch creation device, configuration information generation device, configuration information generation method, and storage medium
CN107911643B (zh) 一种视频通信中展现场景特效的方法和装置
JP2004094917A (ja) 仮想化粧装置及びその方法
JP2020177620A (ja) アバター用の3d顔モデルを生成する方法及び関連デバイス
JP2020177615A (ja) アバター用の3d顔モデルを生成する方法及び関連デバイス
CN113570684A (zh) 图像处理方法、装置、计算机设备和存储介质
CN111815768B (zh) 三维人脸重建方法和装置
Krzeszowski et al. DTW-based gait recognition from recovered 3-D joint angles and inter-ankle distance
Kim et al. Real-time facial feature extraction scheme using cascaded networks
Ciftci et al. Partially occluded facial action recognition and interaction in virtual reality applications
KR102160955B1 (ko) 딥 러닝 기반 3d 데이터 생성 방법 및 장치
US11361467B2 (en) Pose selection and animation of characters using video data and training techniques
Xu et al. A novel method for hand posture recognition based on depth information descriptor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210322

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210322

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220506

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220805

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221206

R150 Certificate of patent or registration of utility model

Ref document number: 7191213

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150