JP7129502B2 - 顔画像処理方法及び装置、画像機器並びに記憶媒体 - Google Patents

顔画像処理方法及び装置、画像機器並びに記憶媒体 Download PDF

Info

Publication number
JP7129502B2
JP7129502B2 JP2020572973A JP2020572973A JP7129502B2 JP 7129502 B2 JP7129502 B2 JP 7129502B2 JP 2020572973 A JP2020572973 A JP 2020572973A JP 2020572973 A JP2020572973 A JP 2020572973A JP 7129502 B2 JP7129502 B2 JP 7129502B2
Authority
JP
Japan
Prior art keywords
facial
image
face
facial image
keypoint information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020572973A
Other languages
English (en)
Other versions
JP2022502726A (ja
Inventor
▲呉▼文岩
▲錢▼晨
▲孫▼克▲強▼
▲呉▼潜▲溢▼
徐▲園▼▲園▼
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2022502726A publication Critical patent/JP2022502726A/ja
Application granted granted Critical
Publication of JP7129502B2 publication Critical patent/JP7129502B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T9/00Image coding
    • G06T9/002Image coding using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/40Analysis of texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/74Image or video pattern matching; Proximity measures in feature spaces
    • G06V10/75Organisation of the matching processes, e.g. simultaneous or sequential comparisons of image or video features; Coarse-fine approaches, e.g. multi-scale approaches; using context analysis; Selection of dictionaries
    • G06V10/755Deformable models or variational models, e.g. snakes or active contours
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Multimedia (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Software Systems (AREA)
  • Geometry (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Databases & Information Systems (AREA)
  • Medical Informatics (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Collating Specific Patterns (AREA)
  • Image Generation (AREA)

Description

(関連出願の相互参照)
本開示は、2019年08月28日に提出された出願番号201910804179.9の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本開示に組み込まれる。
本開示は、情報技術分野に関し、特に画像処理方法及び装置、画像機器並びに記憶媒体に関する。
顔画像処理過程において、ユーザは、自体の顔を好きな顔に変換する必要がある可能性がある。具体的には、例えば、年長者の顔画像を若者の顔画像に変換する。関連技術において、種々のニューラルネットワークを利用して顔画像を元の顔からターゲット顔に変換するが、このような変換に、ユーザに望まれていない変換が伴うことが多く、変換効果が低くなるという問題が引き起こされることは、実践により明らかである。
本開示の実施例は、顔画像処理方法及び装置、画像機器並びに記憶媒体を提供することが望ましい。
本開示の実施例の技術的解決手段は、以下のように実施される。
本開示の実施例の第1態様によれば、顔画像処理方法を提供する。前記方法は、第1顔画像の第1キーポイント情報を取得することと、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得ることであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する第1顔の幾何学的属性と異なる、ことと、ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることと、を含む。
本開示の実施例において、第1キーポイント情報に基づいて行われる顔幾何学的属性変形と顔テクスチャ符号化処理は、別々に行われるものであり、顔幾何学的属性変形と顔テクスチャ符号化処理が、ニューラルネットワークにより一括して実行されるものではない。そのため、ニューラルネットワークを利用して幾何学的属性変形と顔テクスチャ符号化を同時に行うことにより、幾何学的属性の変形を制御できず、変形効果が低くなるという現象を減少させ、顔画像の変形効果を向上させる。
本開示の幾つかの任意選択的な実施例において、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得た後、前記方法は、前記第2キーポイント情報に基づいて、前記第1顔画像を調整し、第3顔画像を得ることを更に含み、ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、前記方法は、前記第2顔画像と前記第3顔画像を融合し、第4顔画像を得ることを更に含む。
本開示の実施例において、第3顔画像を生成し、第2顔画像を生成した後、第3顔画像と第3顔画像を融合することで、顔テクスチャ符号化処理における、第2顔画像の細部の損失を減少させ、第2顔画像に比べて第4顔画像に、より多くの顔細部を持たせ、処理された顔画像の精細度を向上させることができる。
本開示の幾つかの任意選択的な実施例において、前記方法は、表示された前記第1顔画像を前記第4顔画像又は前記第2顔画像に置き換えることを更に含む。
本開示の幾つかの任意選択的な実施例において、前記第1顔画像は、所定の画像に含まれ、前記方法は、前記第4顔画像と前記所定の画像における前記第1顔画像以外の背景領域を融合し、更新された画像を生成することを更に含む。
本開示の実施例において、表示された第1顔画像を第2顔画像又は第4顔画像に直接的に置き換えることで、調整された画像において変形された顔画像を展示することを容易にすることができ、操作しやすいという利点を有する。
本開示の幾つかの任意選択的な実施例において、ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、前記第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成することであって、前記マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、前記顔画像領域以外の画素ドットは、第2設定値であり、前記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成される、ことと、前記マスクマップと前記第1顔画像を融合し、第5顔画像を生成することであって、前記第5画像は、前記第1顔画像における前記顔画像領域を保留する、ことと、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、前記第5顔画像及び前記輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、前記第2顔画像を得ることと、を含む。
本開示の実施例において、第5顔画像及び輪郭マップを生成し、顔テクスチャ符号化処理を行うことで、第2顔画像を得る。実現しやすく、変形効果が高いという特徴を有する。
本開示の幾つかの任意選択的な実施例において、前記方法は、前記第1キーポイント情報に基づいて、前記第1顔幾何学的属性を決定することと、前記第2顔幾何学的属性を取得することと、を更に含み、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得ることは、前記第1顔幾何学的属性及び前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2キーポイント情報を得ることを含む。
本開示の実施例は、顔幾何学的属性変換パラメータに基づいて第1キーポイント情報から第2キーポイント情報へ変換することを提出する。変換しやすく、変形効果が高いという特徴を有する。
本開示の幾つかの任意選択的な実施例において、異なる第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、及び/又は、異なる前記第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる。
本開示の実施例において、異なる第1顔幾何学的属性と第2顔幾何学的属性は、異なる顔幾何学的属性変換パラメータに対応するため、異なる顔幾何学的属性を有する、第1キーポイント情報から第2キーポイント情報への変換を意図的に行うことができ、顔幾何学的属性の変形効果を向上させる。
本開示の幾つかの任意選択的な実施例において、ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、前記輪郭マップを前記ニューラルネットワークに入力し、顔テクスチャ符号化を行い、前記第2顔画像を得ることと、を含む。
本開示の実施例において、輪郭マップを生成し、顔テクスチャ符号化処理を行い、第2顔画像を得る。実現しやすく、変形効果が高いという特徴を有する。
本開示の実施例の第2態様によれば、顔画像処理装置を提供する。前記装置は、第1顔画像の第1キーポイント情報を取得するように構成される第1取得モジュールと、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得るように構成される変換モジュールであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する第1顔の幾何学的属性と異なる、変換モジュールと、ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得るように構成される符号化モジュールと、を備える。
本開示の幾つかの任意選択的な実施例において、前記装置は、融合モジュールを更に備え、前記変換モジュールは更に、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得た後、前記第2キーポイント情報に基づいて、前記第1顔画像を調整し、第3顔画像を得るように構成され、前記融合モジュールは、前記符号化モジュールがニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、前記第2顔画像と前記第3顔画像を融合し、第4顔画像を得るように構成される。
本開示の幾つかの任意選択的な実施例において、前記装置は、表示された前記第1顔画像を前記第4顔画像に置き換えるように構成される第1置き換えモジュールを更に備える。
本開示の幾つかの任意選択的な実施例において、前記装置は、表示された前記第1顔画像を前記第2顔画像に置き換えるように構成される第2置き換えモジュールを更に備える。
本開示の幾つかの任意選択的な実施例において、前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成するように構成され、前記マスクマップにおける、顔輪郭を記述する各第2キーポイントで囲まれて形成された顔画像領域の画素ドットは、第1設定値であり、前記顔画像以外の画素ドットは、第2設定値であり、前記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記マスクマップと前記第1顔画像を融合し、第5顔画像を生成するように構成され、前記第5画像に、前記第1顔画像における、顔輪郭を記述する各第2キーポイントで囲まれて形成された顔画像領域が保留されており、前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記第5顔画像及び前記輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、前記第2顔画像を得るように構成される。
本開示の幾つかの任意選択的な実施例において、前記装置は、前記第1キーポイント情報に基づいて、前記第1顔幾何学的属性を決定するように構成される決定モジュールと、ターゲット顔の第2顔幾何学的属性を取得するように構成される第2取得モジュールと、を更に備え、前記変換モジュールは、前記第1顔幾何学的属性及び前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2キーポイント情報を得るように構成される。
本開示の幾つかの任意選択的な実施例において、異なる前記第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、及び/又は、異なる前記第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる。
本開示の幾つかの任意選択的な実施例において、前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記輪郭マップを前記ニューラルネットワークに入力し、顔テクスチャ符号化を行い、前記第2顔画像を得るように構成される。
本開示の実施例の第3態様によれば、コンピュータ記憶媒体を提供する。前記コンピュータ記憶媒体には、コンピュータ実行可能な命令が記憶されており、前記コンピュータ実行可能な命令が実行された後、前記第1態様のいずれか1つの技術的解決手段により提供される方法の工程を実現させることができる。
本開示の実施例の第4態様によれば、画像機器を提供する。前記画像機器は、メモリと、前記メモリに接続され、前記メモリに記憶されているコンピュータ実行可能な命令を実行することで、前記第1態様のいずれか1つの技術的解決手段により提供される方法の工程を実現させるように構成されるプロセッサと、を備える。
本願明細書は、例えば、以下の項目も提供する。
(項目1)
第1顔画像の第1キーポイント情報を取得することと、
前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得ることであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する第1顔の幾何学的属性と異なる、ことと、
ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることと、を含む、顔画像処理方法。
(項目2)
前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得た後、前記方法は、
前記第2キーポイント情報に基づいて、前記第1顔画像を調整し、第3顔画像を得ることを更に含み、
ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、前記方法は、
前記第2顔画像と前記第3顔画像を融合し、第4顔画像を得ることを更に含むことを特徴とする
項目1に記載の方法。
(項目3)
前記方法は、
表示された前記第1顔画像を前記第4顔画像又は前記第2顔画像に置き換えることを更に含むことを特徴とする
項目2に記載の方法。
(項目4)
前記第1顔画像は、所定の画像に含まれ、前記方法は、
前記第4顔画像と前記所定の画像における前記第1顔画像以外の背景領域を融合し、更新された画像を生成することを更に含むことを特徴とする
項目1に記載の方法。
(項目5)
前記ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、
前記第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成することであって、前記マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、前記顔画像領域以外の画素ドットは、第2設定値であり、前記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成される、ことと、
前記マスクマップと前記第1顔画像を融合し、第5顔画像を生成することであって、前記第5画像は、前記第1顔画像における前記顔画像領域を保留する、ことと、
前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、
前記第5顔画像及び前記輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、前記第2顔画像を得ることと、を含むことを特徴とする
項目1から4のうちいずれか一項に記載の方法。
(項目6)
前記方法は、
前記第1キーポイント情報に基づいて、前記第1顔幾何学的属性を決定することと、
前記第2顔幾何学的属性を取得することと、を更に含み、
前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得ることは、
前記第1顔幾何学的属性及び前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2キーポイント情報を得ることを含むことを特徴とする
項目1から5のうちいずれか一項に記載の方法。
(項目7)
異なる第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、及び/又は、異なる前記第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なることを特徴とする
項目6に記載の方法。
(項目8)
前記ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、
前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、
前記輪郭マップを前記ニューラルネットワークに入力し、顔テクスチャ符号化を行い、前記第2顔画像を得ることと、を含むことを特徴とする
項目1から4のうちいずれか一項に記載の方法。
(項目9)
第1顔画像の第1キーポイント情報を取得するように構成される第1取得モジュールと、
前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得るように構成される変換モジュールであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する第1顔の幾何学的属性と異なる、変換モジュールと、
ニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得るように構成される符号化モジュールと、を備える、顔画像処理装置。
(項目10)
前記装置は、融合モジュールを更に備え、
前記変換モジュールは更に、前記第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得た後、前記第2キーポイント情報に基づいて、前記第1顔画像を調整し、第3顔画像を得るように構成され、
前記融合モジュールは、前記符号化モジュールがニューラルネットワーク及び前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、前記第2顔画像と前記第3顔画像を融合し、第4顔画像を得るように構成されることを特徴とする
項目9に記載の装置。
(項目11)
前記装置は、
表示された前記第1顔画像を前記第4顔画像又は前記第2顔画像に置き換えるように構成される第1置き換えモジュールを更に備えることを特徴とする
項目10に記載の装置。
(項目12)
前記第1顔画像は、所定の画像に含まれ、前記装置は、
前記第4顔画像と前記所定の画像における前記第1顔画像以外の背景領域を融合し、更新された画像を生成するように構成される生成モジュールを更に備えることを特徴とする
項目9に記載の装置。
(項目13)
前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成するように構成され、前記マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、前記顔画像以外の画素ドットは、第2設定値であり、前記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記マスクマップと前記第1顔画像を融合し、第5顔画像を生成するように構成され、前記第5画像に、前記第1顔画像における顔画像領域が保留されており、前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記第5顔画像及び前記輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、前記第2顔画像を得るように構成されることを特徴とする
項目9に記載の装置。
(項目14)
前記装置は、
前記第1キーポイント情報に基づいて、前記第1顔幾何学的属性を決定するように構成される決定モジュールと、
ターゲット顔の第2顔幾何学的属性を取得するように構成される第2取得モジュールと、を更に備え、
前記変換モジュールは、前記第1顔幾何学的属性及び前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2キーポイント情報を得るように構成されることを特徴とする
項目9から13のうちいずれか一項に記載の装置。
(項目15)
異なる前記第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、及び/又は、異なる前記第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なることを特徴とする
項目14に記載の装置。
(項目16)
前記符号化モジュールは、前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、前記符号化モジュールは、前記輪郭マップを前記ニューラルネットワークに入力し、顔テクスチャ符号化を行い、前記第2顔画像を得るように構成されることを特徴とする
項目9から15のうちいずれか一項に記載の装置。
(項目17)
コンピュータ実行可能な命令を記憶するコンピュータ記憶媒体であって、前記コンピュータ実行可能な命令が実行された後、項目1から8のうちいずれか一項に記載の方法の工程を実現させることができる、前記コンピュータ記憶媒体。
(項目18)
メモリと、
前記メモリに接続され、前記メモリに記憶されているコンピュータ実行可能な命令を実行することで、項目1から8のうちいずれか一項に記載の方法の工程を実現させるように構成されるプロセッサと、を備える、画像機器。
本開示の実施例で提供される技術的解決手段によれば、第1顔画像における元の顔の変換を行う場合、第1キーポイント情報に対して位置変換を行い、第2キーポイント情報を得る。これは、第1顔画像における顔の第1顔幾何学的属性を第2顔幾何学的属性に変換することに相当する。顔幾何学的属性変換を行った後、ニューラルネットワーク及び第2キーポイント情報を利用して、顔テクスチャ符号化を行うことで、テクスチャ属性符号化と幾何学的属性変換を別々に行うことを実現させる。深層学習モデルを利用して幾何学的属性変換及びテクスチャ属性変換を一括して行うことに比べて、幾何的変換を行う場合の深層学習モデルのランダム性を低下させ、顔画像変換の品質及びロバスト性を向上させる。
本開示の実施例による顔画像処理方法を示すフローチャートである。 本開示の実施例によるもう1つの顔画像処理方法を示すフローチャートである。 本開示の実施例によるマスクマップを示す概略図である。 本開示の実施例によるヒートマップを示す概略図である。 本開示の実施例によるまた1つの顔画像処理方法を示すフローチャートである。 本開示の実施例による顔の顔幾何学的属性変換パラメータによる変換を示す概略図である。 本開示の実施例によるもう1つの顔の顔幾何学的属性変換パラメータによる変換を示す概略図である。 本開示の実施例によるまた1つの顔の顔幾何学的属性変換パラメータによる変換を示す概略図である。 本開示の実施例による顔画像処理装置の構造を示す概略図である。 本開示の実施例による顔画像処理方法を示すフローチャートである。 本開示の実施例による画像機器の構造を示す概略図である。
以下、明細書の図面及び具体的な実施例を参照しながら、本開示の技術的解決手段を更に詳しく説明する。
図1に示すように、本実施例は、顔画像処理方法を提供する。前記方法は以下を含む。
ステップ110において、第1顔画像の第1キーポイント情報を取得する。
ステップ120において、第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得る。第2顔幾何学的属性は、第1キーポイント情報に対応する第1顔の幾何学的属性と異なる。
ステップ130において、ニューラルネットワーク及び第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得る。
本実施例で提供される画像処理方法は、種々の画像機器に適用可能である。該画像機器は、情報処理能力を持つ種々の端末機器及びサーバを含んでもよい。端末機器は、携帯電話、タブレット又はウェアラブル機器などを含んでもよい。サーバは、画像処理を行うサーバであってもよい。
第1顔画像は、元の顔を含む画像であることが理解されるべきである。幾つかの任意選択的な実施例において、ステップ110において、第1顔画像の第1キーポイント情報を取得することは、ニューラルネットワークを利用して第1顔画像を検出し、第1顔画像における顔の第1顔幾何学的属性を表す複数の第1キーポイント情報を得ることを含んでもよい。例えば、第1顔画像における顔を表す106個の第1キーポイント情報を得て、上記第1キーポイント情報により、第1顔画像での、106個のキーポイントの位置情報を得ることができる。異なる第1キーポイント情報には、少なくとも異なる位置情報が含まれる。
幾つかの実施例において、第1キーポイント情報は、第2顔画像での、各キーポイントの位置情報を含む。各位置情報は、第1顔画像での、キーポイントの座標を含むが、これに限定されない。幾つかの実施例において、第1顔画像での、キーポイントの座標は、画素レベルの座標である。従って、第1キーポイント情報に基づいて変換を行うことで得られた第2顔画像は、画素レベルの顔変換を実現させることができる。画素レベルの顔変換によれば、変換効果の精細度が高いという特徴を有する。
幾つかの実施例において、第1キーポイント情報は、各キーポイントに対応するキーポイント識別子を更に含んでもよい。ここで、キーポイント識別子は、顔の様々な部位のキーポイントを表すためのものであってもよい。例えば、頬骨キーポイントに対応するキーポイント識別子は、顎キーポイントに対応するキーポイント識別子と異なる。該キーポイント識別子は、キーポイント番号及び/又はキーポイント名称を含むが、これらに限定されない。
本開示の幾つかの任意選択的な実施例において、第1キーポイント情報に対応するキーポイントは、顔輪郭キーポイント、五官キーポイントのうちの少なくとも1つを含んでもよい。ここで、顔輪郭キーポイントは、顔外輪郭キーポイントであってもよい。五官キーポイントは、例えば、眼キーポイント、鼻キーポイント、唇キーポイントなどを含む。
上記第1キーポイント情報に含まれる各キーポイントの位置、及び各キーポイント間の相対的位置関係は、第1顔画像における顔の形状を決定する。該形状は、顔の顔幾何学的属性(即ち、第1顔幾何学的属性)を表す。
ステップ120において第1キーポイント情報の位置変換を行うことで、第1キーポイント情報に対応する第1顔幾何学的属性の変換を実現させ、位置変換された、第2顔幾何学的属性に合致する第2キーポイント情報を得る。
本開示の幾つかの任意選択的な実施例において、顔幾何学的属性変換パラメータに基づいて、第1キーポイント情報に対して位置変換を行うことができる。例示的には、顔幾何学的属性変換パラメータとして、例えば、変換行列の形態を用いて、第1キーポイント情報を既知量とし、変換行列及び第1キーポイント情報を利用して演算を行い、更新された座標を得て、更新された座標を第2キーポイント情報とする。
従って、ステップ120において、第1キーポイント情報から第2キーポイント情報への変換は、ニューラルネットワークを利用した変換ではなく、元の顔からターゲット顔への顔幾何学的属性変換を完了することに相当する。このようにして、ニューラルネットワークを利用することにより元の顔の顔幾何学的属性変換を制御できないことを減少させ、顔画像の変換効果及びロバスト性を向上させる。
本開示の幾つかの任意選択的な実施例において、ステップ130において、顔テクスチャ符号化は、顔面肌テクスチャ符号化、顔シワテクスチャ符号化、毛髪テクスチャ符号化を含むが、これらに限定されない。
幾つかの実施例において、第2キーポイント情報に対応する様々なキーポイント間の領域は、顔の様々な部位に対応してもよい。例えば、頬骨キーポイントと鼻梁キーポイントとの間の領域は、笑筋領域であり、唇キーポイントと顎キーポイントとの間の領域は、顎領域である。異なる部位の皮膚領域の色合い及び/又はテクスチャが異なり、及び/又は、異なる皮膚領域の皮膚シワテクスチャは異なる。これによれば、顔の様々な部位に対応する領域の顔面肌テクスチャ符号化は異なってもよく、顔の様々な部位に対応する領域の顔シワテクスチャ符号化は異なってもよく、顔の様々な部位に対応する領域の毛髪テクスチャ符号化は、異なってもよい。また例えば、眉骨の所在する領域で符号化を行って眉を形成する必要がある。これによれば、眉領域のテクスチャ符号化は、顔面肌テクスチャ符号化と異なる。
従って、本開示の実施例において、第1顔画像における元の顔から第2顔画像におけるターゲット顔への顔変換過程において、顔の顔幾何学的属性及びテクスチャ属性の変換は、異なる方式を利用してもよい。このようにして、ニューラルネットワークを利用して顔幾何学的属性及びテクスチャ属性の変換を一括して処理することによる変換効果が低いという現象を減少させ、顔変換の効果を向上させ、また、顔変換のロバスト性を確保する。例えば、例如,ニューラルネットワークを利用して元の顔からターゲット顔への変換を行うことで発生した顔縁及び眼球などの位置で怪異な形状が生じるという現象を減少させ、変換効果を向上させる。
幾つかの実施例において、ステップ120を行った後、方法は、以下を更に含んでもよい。
ステップ121において、第2キーポイント情報に基づいて、第1顔画像を調整し、第3顔画像を得る。
本実施例において、第2キーポイント情報を得た後、第2キーポイント情報に基づいて第1顔画像を調整して第3顔画像を得ることができる。
例示的には、画像機器は、第1顔画像に対して画素レベルの変換処理を直接的に行い、第1キーポイント情報の座標位置が変更された第3顔画像を得ることができる。例えば、第1顔画像の第1キーポイント情報に対応する各キーポイントを、第2キーポイント情報に対応する各キーポイントの方向へ調整し、第1顔画像の調整を実現させ、第3顔画像を得ることができる。
第3顔画像における顔は、第1顔画像における元の顔に比べて、顔幾何学的属性が変換されたものであることが理解されるべきである。
例示的には、顔幾何学的属性は、五官の形状、五官同士の相対的位置のうちの少なくとも1つを含んでもよい。ここで、五官の形状は、例えば、眼の形状、鼻の形状又は唇の形状などを含んでもよい。五官同士の相対的位置は、双眼同士の間隔、鼻先と唇との間隔、顔輪郭線、生え際、毛髪形状などを含んでもよい。
幾つかの実施例において、図2に示すように、ステップ120を行った後、方法は、以下を更に含む。
ステップ140において、第2顔画像と第3顔画像を融合し、第4顔画像を得る。
本実施例において、顔テクスチャ符号化処理により第2顔画像を生成する過程において、例えば、顔面肌の小じわの損失などのような細部の損失が発生する可能性がある。顔画像の変換効果を向上させるために、第2顔画像と第3顔画像を融合し、融合後に、第3顔画像に保留された細部により、第2顔画像における損失した少なくとも一部の細部を補完することで、画像品質が第2顔画像の画像品質よりも高い第4顔画像を得る。
幾つかの任意選択的な実施例において、第2顔画像と第3顔画像の融合方式は下記の少なくとも1つを含んでもよい。
方式1において、第2顔画像と第3顔画像に対して画素ごとの加重平均化を行い、第4顔画像における各画素の画素値を得る。
方式2において、第2顔画像における、色彩値と所定の色彩値との差異範囲が範囲閾値より大きい特定の領域を決定し、第3顔画像における特定の領域の色彩値で、第2顔画像における特定の領域の色彩値を置き換える。
第2顔画像と第3顔画像の融合方式は複数であり、以上は、2つの任意選択的な方式に過ぎず、本実施例において画像融合は上記方式に限定されない。
幾つかの任意選択的な実施例において、方法は、表示された第1顔画像を第4顔画像に置き換えることを更に含んでもよい。このように、表示された第1顔画像を第4顔画像に置き換えた後、ユーザは、顔幾何学的属性及びテクスチャ属性が変換された顔画像を確認できる。
幾つかの任意選択的な実施例において、第1顔画像は、一枚の元の画像に対して画像分割を行うことで得られたものであってもよく、方法は、所定の画像(即ち、元の画像)における第1顔画像を第4顔画像に置き換えることを更に含んでもよい。
幾つかの任意選択的な実施例において、第4顔画像と所定の画像における第1顔画像以外の背景領域を融合し、更新された画像を生成する。更新された画像は、所定の画像と比較すると、含まれる背景が同じであるが、顔画像が変換されており、第1顔画像から第4顔画像に変換された。
幾つかの任意選択的な実施例において、方法は、表示された第1顔画像を第2顔画像に置き換えることを更に含んでもよい。本実施例は、第3顔画像及び/又は第4顔画像が生成されていない場合に適用する。表示された第1顔画像を第2顔画像に直接的に置き換えることができる。
上記実施例において、表示されたものは、完全な画像又はビデオフレームであってもよく、第1顔画像は、完全な画像又はビデオフレームにおける一部の画像領域であってもよい。
幾つかの任意選択的な実施例において、望まれたターゲット顔の第2顔幾何学的属性に応じて、顔の顔幾何学的属性変換パラメータを利用して第1キーポイント情報に対して位置変換を行って第2キーポイント情報を得た後、ステップ130は、
第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成することであって、マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、顔画像領域以外の画素ドットは、第2設定値であり、顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成される、ことと、マスクマップと第1顔画像を融合し、第5顔画像を生成することであって、第5画像に、第1顔画像における顔画像領域が保留された、ことと、第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、部位輪郭線以外の画素ドットは、第4設定値であり、部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、第5顔画像及び輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、第2顔画像を得ることと、を含む。
マスクマップにおける顔画像領域内の画素ドットの画素値は、第1設定値である。顔画像領域以外の画素値は、第2設定値である。第2設定値は、第1設定値と異なる。例えば、第1設定値は、「1」であり、第2設定値は、「0」である。
幾つかの任意選択的な実施例において、マスクマップ及び輪郭マップをニューラルネットワークに直接的に入力し、ニューラルネットワークにより第2顔画像を出力することができる。
別の幾つかの任意選択的な実施例において、第2顔画像の画像品質を向上させるために、更に、マスクマップと第1顔画像を融合し、第5顔画像を得る。第5顔画像の生成方式は、第1顔画像における顔画像領域の画素値をマスクマップにおける顔画像領域の画素値に置き換え、第5顔画像を得ることを含んでもよい。
例えば、図3Aは、第5顔画像を示す概略図である。
第5顔画像は、マスクマップに比べて、顔領域画素ドットの画素値が単一の第1設定値ではなく、第1顔画像における顔領域の画像であり、ゼロ以外の任意の正数であってもよい。
各部位輪郭線は、顔輪郭線、眉輪郭線、眼輪郭線、鼻輪郭線、口部輪郭線のうちの少なくとも1つを含んでもよい。
輪郭線の形式は複数であり、以下、幾つかの任意選択的な輪郭マップを提供する。
1つ目は、輪郭ヒートマップである。例示的には、輪郭ヒートマップにおいて、各部位輪郭線の幅は、所定個の画素であってもよく、所定個は、1個又は複数個であってもよく、例えば、2から5個の画素などのような所定個の画素である。ターゲット顔輪郭の顔幾何学的属性の輪廓ヒートマップにおいて、輪郭線の所在する領域内で、輪郭画素の所在する位置に近いほど、画素値が大きくなる。且つ、輪郭線の所在する領域内で、輪郭線の所在する位置に遠いほど、画素値が小さくなる。輪郭線の所在する領域外の画素値は、「0」であってもよい。輪郭ヒートマップにおいて、第3設定値の数値は複数であり、具体的には、輪郭画素同士の距離によって決まる。
2つ目は、輪郭結線マップである。輪郭結線マップは、第2キーポイント情報に対応するキーポイント結線で形成された画像である。例えば、輪郭結線マップにおける結線が経過した画素ドットの画素値は、第3設定値であり、結線が経過していない画素ドットの画素値は、第4設定値である。第3設定値は、第4設定値と異なる。図3Bは、輪郭結線マップを示す概略図である。図3Bにおける第3設定値は、白色画素の画素値であり、第4設定値は、黒色画素の画素値である。輪郭結線マップにおける輪郭の幅は同様に1つ又は複数の画素であってもよい。
幾つかの任意選択的な実施例において、図4に示すように、方法は、以下を更に含む。
ステップ101において、第1キーポイント情報に基づいて、第1顔幾何学的属性を決定する。
ステップ102において、第2顔幾何学的属性を取得する。
ステップ120は、第1顔幾何学的属性及び第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、第1キーポイント情報に対して位置変換を行い、第2キーポイント情報を得ることを含んでもよい。
例示的には、第1顔画像における元の顔の形状は、略方形(即ち、四角顔)である可能性があるが、ユーザに望まれた顔型は、瓜実形(即ち、瓜実顔)である。従って、第1キーポイント情報の抽出により、第1顔画像における顔に対応する第1顔幾何学的属性を決定することができる。ユーザ入力又は現在の変換シーンに基づいて、第2顔幾何学的属性を決定することができる。例えば、現在のシーンが顔の若返りである場合、若者の顔は、年長者の顔よりも丸くなる。要するに、本開示の実施例におけるターゲット顔の第2顔幾何学的属性の決定方式は、複数であり、上記例に限定されない。
図5Aから図5Cに示すように、図5Aは、四角顔を顔幾何学的属性変換パラメータ1により楕円顔に変換することを示す。図5Bは、四角顔を顔幾何学的属性変換パラメータ2により瓜実顔に変換することを示す。図5Cは、楕円顔を顔幾何学的属性変換パラメータ3により瓜実顔に変換することを示す。
ここで、顔幾何学的属性変換パラメータ1は、顔幾何学的属性変換パラメータ2と異なる。顔幾何学的属性変換パラメータ2は、顔幾何学的属性変換パラメータ3と異なる。顔幾何学的属性変換パラメータ3は、顔幾何学的属性変換パラメータ1と異なる。
第1顔幾何学的属性及び第2顔幾何学的属性を決定した後、必要な幾何学的属性変換関係を決定することができる。顔幾何学的属性変換パラメータを決定し、該顔幾何学的属性変換パラメータを利用して、第1キーポイント情報に対して位置変換を行い、第2キーポイント情報を得ることができる。
幾つかの任意選択的な実施例において、異なる第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる。例えば、丸顔及び四角顔をそれぞれ瓜実顔に変換する必要がある場合、それぞれ用いられる顔幾何学的属性変換パラメータは、異なる。
別の幾つかの任意選択的な実施例において、異なる第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる。例えば、丸顔を瓜実顔又は楕円顔にそれぞれ変換する場合、異なる顔幾何学的属性変換パラメータを必要とする。
顔画像は、処理過程において、異なる第1顔幾何学的属性と第2顔幾何学的属性に対応する。様々な顔幾何学的属性変換パラメータを設定することで、異なる顔幾何学的属性の顔同士の高品質な変換を実現させることができる。
幾つかの任意選択的な実施例において、ステップ130は、第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、部位輪郭線以外の画素ドットは、第4設定値であり、部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、輪郭マップをニューラルネットワークに入力し、顔テクスチャ符号化を行い、第2顔画像を得ることと、を含んでもよい。該方式で生成される第2顔画像のテクスチャは、第1顔画像と異なる可能性があり、顔属性変換の1つの方式としてもよい。
本実施例において、ニューラルネットワークに基づいて、顔テクスチャ符号化処理を行い、第2顔画像を得ることができる。幾つかの任意選択的な実施例において、ニューラルネットワークは、生成ネットワークであってもよい。つまり、生成ネットワークにより、顔テクスチャ符号化処理を行い、第2顔画像を得る。
上記実施例によれば、本開示の実施例は、顔画像処理装置を更に提供する。図6に示すように、本実施例は、顔画像処理装置を提供する。前記装置は、
第1顔画像の第1キーポイント情報を取得するように構成される第1取得モジュール110と、
第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得るように構成される変換モジュール120であって、第2顔幾何学的属性は、第1キーポイント情報に対応する第1顔の幾何学的属性と異なる、変換モジュール120と、
ニューラルネットワーク及び第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得るように構成される符号化モジュール130と、を備える。
幾つかの実施例において、第1取得モジュール110、変換モジュール120及び符号化モジュール130は、プログラムモジュールであってもよい。プログラムモジュールがプロセッサにより実行された後、前記第1キーポイント情報の取得、第1キーポイント情報から第2キーポイント情報への変換及び顔テクスチャ符号化などの操作を実現させることができる。
別の幾つかの実施例において、第1取得モジュール110、変換モジュール120及び符号化モジュール130は、ソフトウェアとハードウェアを組み合わせたモジュールであってもよい。ソフトウェアとハードウェアを組み合わせたモジュールは、プログラマブルアレイを含むが、これに限定されない。プログラマブルアレイは、複合プログラマブルアレイ又はフィールドプログラマブルアレイを含むが、これらに限定されない。
また幾つかの実施例において、第1取得モジュール110、変換モジュール120及び符号化モジュール130は、単純なハードウェアモジュールであってもよい。単純なハードウェアモジュールは、特定用途向け集積回路を含むが、これに限定されない。
幾つかの任意選択的な実施例において、装置は、融合モジュールを更に備え、
変換モジュール120は更に、第1キーポイント情報に対して位置変換を行い、第2顔幾何学的属性に合致する第2キーポイント情報を得た後、第2キーポイント情報に基づいて、第1顔画像を調整し、第3顔画像を得るように構成され、
融合モジュールは、符号化モジュール130がニューラルネットワーク及び第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、第2顔画像と第3顔画像を融合し、第4顔画像を得るように構成される。
幾つかの実施例において、装置は、表示された第1顔画像を第4顔画像又は第2顔画像に置き換えるように構成される第1置き換えモジュールを更に備える。
幾つかの実施例において、第1顔画像は、所定の画像に含まれ、装置は、第4顔画像と所定の画像における第1顔画像以外の背景領域を融合し、更新された画像を生成するように構成される生成モジュールを更に備える。
幾つかの実施例において、符号化モジュール130は、第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成するように構成され、マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、顔画像以外の画素ドットは、第2設定値であり、上記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成され、符号化モジュール130は、マスクマップと第1顔画像を融合し、第5顔画像を生成するように構成され、第5画像に、第1顔画像における上記顔画像領域が保留されており、符号化モジュール130は、第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、部位輪郭線以外の画素ドットは、第4設定値であり、部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、符号化モジュール130は、マスクマップ及び輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、第2顔画像を得るように構成される。
幾つかの実施例において、装置は、第1キーポイント情報に基づいて、第1顔幾何学的属性を決定するように構成される決定モジュールと、
ターゲット顔の第2顔幾何学的属性を取得するように構成される第2取得モジュールと、を更に備え、
変換モジュール120は、第1顔幾何学的属性及び第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、第1キーポイント情報に対して位置変換を行い、第2キーポイント情報を得るように構成される。
幾つかの実施例において、異なる第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、及び/又は、異なる第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる。
幾つかの実施例において、符号化モジュール130は、第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成するように構成され、輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、部位輪郭線以外の画素ドットは、第4設定値であり、部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成され、符号化モジュール130は、輪郭マップをニューラルネットワークに入力し、顔テクスチャ符号化を行い、第2顔画像を得るように構成される。
以下、上記いずれか1つの実施例を参照しながら、幾つかの具体的な例を提供する。
例1:
顔生成過程において、新たな属性を定義又は選択することで顔変換を誘導すると、実用性が高い。例えば、成人女性の写真に基づいて若化写真を生成する。
顔属性変更について、顔画像幾何学的属性(顔キーポイント情報)及び顔テクスチャ属性という2つの観点から、対応する顔属性生成手段を完了する。幾何学的属性とテクスチャ属性を別々に処理することで、様々な属性のための顔幾何学的属性変換モデルをより好適に制御し、第1キーポイント情報を第2キーポイント情報に、より正確に変換することができる。また、ニューラルネットワーク及び第2キーポイント情報を利用して顔テクスチャ符号化処理を行い、顔幾何学的属性が変換された第2顔画像を得る。
例2:
図7に示すように、本開示の実施例で提供される顔画像処理方法は以下を含んでもよい。
まず、属性変換モジュールは、現在の顔画像の形状情報を取得して様々な顔幾何学的属性に対して属性変換を行う。入力された元の画像(ここで、元の画像は、前記第1顔画像に相当する)に対して、106個の顔キーポイントのキーポイント情報(第1キーポイント情報に相当する)の抽出により、106個の顔キーポイントのキーポイント情報に基づいて顔の顔幾何学的属性(第1顔幾何学的属性に相当する)を得る。ここの顔幾何学的属性は、顔の形状情報であってもよい。また、望まれた顔幾何学的属性に基づいて、現在のキーポイント信息に対して、対応する位置変換を行う。顔幾何学的属性変換パラメータにより、顔形状の変換を制約する。ここで、キーポイントの位置変換により得られた顔画像は、前記第3顔画像であってもよい。
続いて、変形されたターゲット顔幾何学的属性を初歩的に制約した後、ニューラルネットワーク(例えば、生成ネットワーク)を利用してテクスチャの生成を完了する。これにより、属性に対応する顔テクスチャ符号化処理を生成する。ここで、顔テクスチャ符号化処理により得られた画像は、前記第2顔画像であってもよい。
更に、生成された顔画像を更に処理する。生成された顔の縁、眼球などに生じた自然ではない現象に対して、画像処理方式により、入力された第3顔画像及びネットワークから出力された第2顔画像を融合して最後の出力結果とする。
図7に示すように、該顔画像処理方法は具体的には以下を含んでもよい。
顔キーポイント情報検出ネットワークを構築し、回帰を行い、入力画像の106個の顔キーポイントのキーポイント情報を得て、キーポイント情報の位置変換を行い、変換されたキーポイント情報を利用して、入力された顔画像に対して幾何的変形を行い、望ましい属性形状制約に合致する顔画像を出力する。ここで出力された顔画像は、前記第3顔画像であってもよい。
106個の顔キーポイントのキーポイント情報に基づいて、顔幾何学的属性変換を行い、望ましい顔幾何学的属性を得る。該顔幾何学的属性は、元の画像を変換するための中間画像に現わされてもよい。
中間画像に対してクロッピング操作を行い、変換された顔を含む画像領域を切り出し、クロップ(crop)画像を得る。
クロップ画像に対して顔のキーポイント情報検出を行う。ここで、取得された顔キーポイントのキーポイント情報は、変換に基づいて得られたものであって、再検出しなくてもよい。再検出の目的は、精度を更に確保することである。
クロップ画像に基づいて顔検出を行い、クロップ画像のマスクマップ及びクロップ画像のヒートマップを生成する。
マスクマップ及び対応するヒートマップをニューラルネットワーク(例えば、生成ネットワーク)に入力し、エンコーダーによりテクスチャコードを得る。それと共に、キーポイント情報に対応するヒートマップの形状コードにより、形状制約に合致だけでなく、テクスチャ制約にも合致する属性生成結果を生成し、つまり、生成画像を得る。ここで、生成画像は、前記第2顔画像に相当する。
クロップ画像と生成画像に対して肌色融合を行い、画像融合により、画像生成時に発生し得る細部上の不正確性を補完する。更に、マッピングの方式により、背景情報及び生成した顔を整合して最終的な出力として、融合した顔画像を得る。該融合した顔画像は、前記第4顔画像に相当する。
融合した顔画像で元の画像を置き換え、元の画像における顔画像領域以外の背景と融合して新たな画像を形成する。
上記実施例によれば、本開示の実施例は画像機器を更に提供する。図8に示すように、本実施例は、画像機器を提供する。前記画像機器は、メモリと、メモリに接続され、メモリに記憶されているコンピュータ実行可能な命令を実行することで、前記1つ又は複数の実施例で提供される顔画像処理方法を実現させ、例えば図1から図4及び図7に示した顔画像処理方法のうちの1つ又は複数を実現させるように構成されるプロセッサと、を備える。
該メモリは、ランダムメモリ、読出し専用メモリ、フラッシュのような様々なメモリであってもよい。メモリは、情報記憶に用いられ、例えば、コンピュータ実行可能な命令などの記憶に用いられる。コンピュータ実行可能な命令は、ターゲットプログラム命令及び/又はソースプログラム命令などのような様々なプログラム命令であってもよい。
プロセッサは、例えば、中央演算処理装置、マイクロプロセッサ、デジタル信号プロセッサ、プログラマブルアレイ、デジタル信号プロセッサ、特定用途向け集積回路又は画像処理装置などのような様々なプロセッサであってもよい。
プロセッサは、バスを経由してメモリに接続される。バスは、集積回路バスなどであってもよい。
幾つかの実施例において、画像機器は、通信インタフェースを更に備えてもよい。該通信インタフェースは、例えば、ローカルエリアネットワーク、送受信アンテナなどのようなネットワークインタフェースであってもよい。通信インタフェースも、前記プロセッサに接続され、情報送受信に用いられる。
幾つかの実施例において、画像機器は、マンマシンインタフェースを更に備える。例えば、マンマシンインタフェースは、例えば、キーボード、タッチパネルなどのような様々な入力出力装置を含んでもよい。
本開示の実施例は、コンピュータ記憶媒体を更に提供する。コンピュータ記憶媒体には、コンピュータ実行可能な命令が記憶されており、コンピュータ実行可能な命令が実行された後、前記1つ又は複数の実施例で提供される顔画像処理方法を実現させ、例えば図1から図4及び図7に示した顔画像処理方法のうちの1つ又は複数を実現させる
コンピュータ記憶媒体は、例えば、CD、フレキシブルディスク、ハードディスク、磁気テープ、光ディスク、Uディスク又はリムーバブルハードディスクのような、記録機能を有する様々な記憶媒体であってもよい。任意選択的に、コンピュータ記憶媒体は、非一時的記憶媒体であってもよい。該コンピュータ記憶媒体は、プロセッサにより読み取られ、コンピュータ記憶媒体に記憶されているコンピュータ実行可能な命令がプロセッサにより取得されて実行された後、前記いずれか1つの技術的解決手段で提供される情報処理方法を実現させる。例えば、端末機器に適用した情報処理方法又はアプリケーションサーバに適用した情報処理方法を実行する。
本開示の実施例は、コンピュータプログラム製品を更に提供する。前記コンピュータプログラム製品は、コンピュータ実行可能な命令を含み、コンピュータ実行可能な命令が実行された後、前記1つ又は複数の実施例で提供される顔画像処理方法を実現させ、例えば図1及び図2に示した顔画像処理方法のうちの1つ又は複数を実現させる。
コンピュータプログラム製品は、コンピュータ記憶媒体に有形に含まれるコンピュータプログラムを含み、コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含み、プログラムコードは、本開示の実施例で提供される方法のステップを実行するための命令を含む。
本開示で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよく、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよく、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインタフェース、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した該ユニットは、物理的に別個のものであってもよく、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよく、そうでなくてもよい。即ち、同一の位置に位置してもよく、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本開示の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよく、各ユニットが物理的に別個のものとして存在してもよく、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットとを組み合わせて実現してもよい。
矛盾が生じない限り、本開示の任意の実施例で開示される技術的特徴を互いに任意に組み合わせて、新たな方法実施例又は装置実施例を得ることができる。
矛盾が生じない限り、本開示の任意の実施例で開示される方法実施例を互いに任意に組み合わせて、新たな方法実施例を得ることができる。
矛盾が生じない限り、本開示の任意の実施例で開示される装置実施例を互いに任意に組み合わせて、新たな装置実施例を得ることができる。
上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶され、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、読出し専用メモリ(ROM:Read-only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者であれば理解されるべきである。
以上は本開示の具体的な実施形態に過ぎず、本開示の保護の範囲はそれらに制限されるものではなく、当業者が本開示に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本開示の保護範囲内に含まれるべきである。従って、本開示の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。

Claims (11)

  1. 顔画像処理方法であって、
    第1顔画像の第1キーポイント情報を取得することと、
    前記第1キーポイント情報に基づいて、第1顔幾何学的属性を決定することと、
    第2顔幾何学的属性を取得し、前記第1顔幾何学的属性および前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2顔幾何学的属性に合致する第2キーポイント情報を得ることであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する前記第1幾何学的属性と異なる、ことと、
    ニューラルネットワークおよび前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ること
    を含む、顔画像処理方法。
  2. 前記第1キーポイント情報に対して位置変換を行い、前記第2顔幾何学的属性に合致する第2キーポイント情報を得た後、前記顔画像処理方法は、
    前記第2キーポイント情報に基づいて、前記第1顔画像を調整することにより、第3顔画像を得ることを更に含み、
    ニューラルネットワークおよび前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得た後、前記顔画像処理方法は、
    前記第2顔画像と前記第3顔画像を融合することにより、第4顔画像を得ることを更に含む 請求項1に記載の顔画像処理方法。
  3. 前記顔画像処理方法は、
    表示された前記第1顔画像を前記第4顔画像または前記第2顔画像に置き換えることを更に含む請求項2に記載の顔画像処理方法。
  4. 前記第1顔画像は、所定の画像に含まれ、前記顔画像処理方法は、
    前記第4顔画像と前記所定の画像における前記第1顔画像以外の背景領域を融合することにより、更新された画像を生成することを更に含む請求項に記載の顔画像処理方法。
  5. 前記ニューラルネットワークおよび前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、
    前記第2キーポイント情報に基づいて、ターゲット顔のマスクマップを生成することであって、前記マスクマップにおける顔画像領域の画素ドットは、第1設定値であり、前記顔画像領域以外の画素ドットは、第2設定値であり、前記顔画像領域は、顔輪郭を記述する各第2キーポイントで囲まれて形成される、ことと、
    前記マスクマップと前記第1顔画像を融合することにより、第5顔画像を生成することであって、前記第5画像は、前記第1顔画像における前記顔画像領域を保留する、ことと、
    前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、
    前記第5顔画像および前記輪郭マップを前記ニューラルネットワークに入力して顔テクスチャ符号化を行い、前記第2顔画像を得ること
    を含む請求項14のうちいずれか一項に記載の顔画像処理方法。
  6. 異なる第1顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なり、およびまたは、異なる前記第2顔幾何学的属性に対応する顔幾何学的属性変換パラメータは異なる請求項に記載の顔画像処理方法。
  7. 前記ニューラルネットワークおよび前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得ることは、
    前記第2キーポイント情報に基づいて、ターゲット顔の幾何学的属性の輪郭マップを生成することであって、前記輪郭マップにおける部位輪郭線上での画素ドットは、第3設定値であり、前記部位輪郭線以外の画素ドットは、第4設定値であり、前記部位輪郭線は、各顔部位を記述する第2キーポイントで囲まれて形成される、ことと、
    前記輪郭マップを前記ニューラルネットワークに入力し、顔テクスチャ符号化を行い、前記第2顔画像を得ること
    を含む請求項14のうちいずれか一項に記載の顔画像処理方法。
  8. 顔画像処理装置であって、
    第1顔画像の第1キーポイント情報を取得するように構成されている第1取得モジュールと、
    前記第1キーポイント情報に基づいて、第1顔幾何学的属性を決定するように構成されている決定モジュールと、
    第2顔幾何学的属性を取得し、前記第1顔幾何学的属性および前記第2顔幾何学的属性に共通して対応する顔幾何学的属性変換パラメータを利用して、前記第1キーポイント情報に対して位置変換を行い、前記第2顔幾何学的属性に合致する第2キーポイント情報を得るように構成されている変換モジュールであって、前記第2顔幾何学的属性は、前記第1キーポイント情報に対応する前記第1幾何学的属性と異なる、変換モジュールと、
    ニューラルネットワークおよび前記第2キーポイント情報を利用して、顔テクスチャ符号化処理を行い、第2顔画像を得るように構成されている符号化モジュール
    を備える、顔画像処理装置。
  9. 求項1~7のうちいずれか一項に記載の顔画像処理方法を実行することをコンピュータに行わせるためのコンピュータ実行可能な命令記憶されているコンピュータ読み取り可能な記憶媒体。
  10. 画像機器であって、前記画像機器は、
    メモリと、
    前記メモリに接続されているプロセッサと
    を備え、
    前記プロセッサは、前記メモリに記憶されているコンピュータ実行可能な命令を実行することにより、請求項1~7のうちいずれか一項に記載の顔画像処理方法を実行するように構成されている、画像機器。
  11. 求項1~7のうちいずれか一項に記載の顔画像処理方法を実行することをコンピュータに行わせるコンピュータプログラム。
JP2020572973A 2019-08-28 2020-04-27 顔画像処理方法及び装置、画像機器並びに記憶媒体 Active JP7129502B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910804179.9 2019-08-28
CN201910804179.9A CN111754415B (zh) 2019-08-28 2019-08-28 人脸图像处理方法及装置、图像设备及存储介质
PCT/CN2020/087231 WO2021036314A1 (zh) 2019-08-28 2020-04-27 人脸图像处理方法及装置、图像设备及存储介质

Publications (2)

Publication Number Publication Date
JP2022502726A JP2022502726A (ja) 2022-01-11
JP7129502B2 true JP7129502B2 (ja) 2022-09-01

Family

ID=72672870

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020572973A Active JP7129502B2 (ja) 2019-08-28 2020-04-27 顔画像処理方法及び装置、画像機器並びに記憶媒体

Country Status (10)

Country Link
US (1) US11941854B2 (ja)
EP (1) EP3839879B1 (ja)
JP (1) JP7129502B2 (ja)
KR (1) KR102367909B1 (ja)
CN (1) CN111754415B (ja)
AU (1) AU2020339292A1 (ja)
MY (1) MY196307A (ja)
SG (1) SG11202102762VA (ja)
TW (1) TWI770542B (ja)
WO (1) WO2021036314A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507890B (zh) * 2020-04-13 2022-04-19 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
US11704851B2 (en) * 2020-05-27 2023-07-18 Snap Inc. Personalized videos using selfies and stock videos
US11482041B2 (en) * 2020-10-21 2022-10-25 Adobe Inc. Identity obfuscation in images utilizing synthesized faces
CN112258619A (zh) * 2020-12-22 2021-01-22 北京沃东天骏信息技术有限公司 一种图像处理方法和装置
CN113706428B (zh) * 2021-07-02 2024-01-05 杭州海康威视数字技术股份有限公司 一种图像生成方法及装置
CN113255627B (zh) * 2021-07-15 2021-11-12 广州市图南软件科技有限公司 一种快速获取尾随人员信息方法及装置
CN113781293A (zh) * 2021-09-08 2021-12-10 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
TWI813181B (zh) * 2021-09-09 2023-08-21 大陸商星宸科技股份有限公司 影像處理電路與影像處理方法
US11900519B2 (en) * 2021-11-17 2024-02-13 Adobe Inc. Disentangling latent representations for image reenactment
KR102554442B1 (ko) * 2021-11-19 2023-07-11 ㈜플립션코리아 얼굴 합성 방법 및 시스템

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123083A (zh) 2017-05-02 2017-09-01 中国科学技术大学 人脸编辑方法

Family Cites Families (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4577410B2 (ja) * 2008-06-18 2010-11-10 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
JP5463866B2 (ja) * 2009-11-16 2014-04-09 ソニー株式会社 画像処理装置および画像処理方法、並びにプログラム
CN104715227B (zh) * 2013-12-13 2020-04-03 北京三星通信技术研究有限公司 人脸关键点的定位方法和装置
US10339685B2 (en) * 2014-02-23 2019-07-02 Northeastern University System for beauty, cosmetic, and fashion analysis
CN104036546B (zh) * 2014-06-30 2017-01-11 清华大学 一种基于自适应形变模型的任意视角人脸三维重构方法
KR101635730B1 (ko) * 2014-10-08 2016-07-20 한국과학기술연구원 몽타주 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체
CN104463777B (zh) * 2014-11-11 2018-11-06 厦门美图之家科技有限公司 一种基于人脸的实时景深的方法
CN107924579A (zh) 2015-08-14 2018-04-17 麦特尔有限公司 生成个性化3d头部模型或3d身体模型的方法
CN105118024A (zh) * 2015-09-14 2015-12-02 北京中科慧眼科技有限公司 人脸交换方法
US10535163B2 (en) 2016-12-01 2020-01-14 Pinscreen, Inc. Avatar digitization from a single image for real-time rendering
TW201828109A (zh) * 2017-01-19 2018-08-01 阿里巴巴集團服務有限公司 圖像檢索、獲取圖像資訊及圖像識別方法、裝置及系統
CN108961149B (zh) * 2017-05-27 2022-01-07 北京旷视科技有限公司 图像处理方法、装置和系统及存储介质
CN109325933B (zh) * 2017-07-28 2022-06-21 阿里巴巴集团控股有限公司 一种翻拍图像识别方法及装置
WO2019050808A1 (en) * 2017-09-08 2019-03-14 Pinscreen, Inc. SCANNING AVATAR FROM A SINGLE IMAGE FOR REAL TIME REALIZATION
CN107767335A (zh) * 2017-11-14 2018-03-06 上海易络客网络技术有限公司 一种基于人脸识别特征点定位的图像融合方法及系统
CN109960974A (zh) * 2017-12-22 2019-07-02 北京市商汤科技开发有限公司 人脸关键点检测方法、装置、电子设备及存储介质
CN108550176A (zh) * 2018-04-19 2018-09-18 咪咕动漫有限公司 图像处理方法、设备及存储介质
CN110210276A (zh) * 2018-05-15 2019-09-06 腾讯科技(深圳)有限公司 一种移动轨迹获取方法及其设备、存储介质、终端
CN108776983A (zh) * 2018-05-31 2018-11-09 北京市商汤科技开发有限公司 基于重建网络的人脸重建方法和装置、设备、介质、产品
CN108985241B (zh) 2018-07-23 2023-05-02 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN109146774A (zh) * 2018-08-14 2019-01-04 河海大学常州校区 一种面向禁毒宣传的人脸图像处理方法
CN109492531B (zh) 2018-10-10 2021-04-23 达闼机器人有限公司 人脸图像关键点提取方法、装置、存储介质及电子设备
CN109272568B (zh) * 2018-10-10 2020-07-17 南京大学 一种采用基元发现的人脸风格图像处理方法
CN109829930B (zh) * 2019-01-15 2021-05-04 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质
CN109859098B (zh) * 2019-01-15 2022-11-22 深圳市云之梦科技有限公司 人脸图像融合方法、装置、计算机设备及可读存储介质
CN109949237A (zh) * 2019-03-06 2019-06-28 北京市商汤科技开发有限公司 图像处理方法及装置、图像设备及存储介质

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN107123083A (zh) 2017-05-02 2017-09-01 中国科学技术大学 人脸编辑方法

Also Published As

Publication number Publication date
EP3839879A1 (en) 2021-06-23
CN111754415A (zh) 2020-10-09
KR20210027283A (ko) 2021-03-10
JP2022502726A (ja) 2022-01-11
WO2021036314A1 (zh) 2021-03-04
MY196307A (en) 2023-03-24
US20210201458A1 (en) 2021-07-01
TWI770542B (zh) 2022-07-11
EP3839879A4 (en) 2022-01-05
EP3839879B1 (en) 2023-07-26
TW202109359A (zh) 2021-03-01
KR102367909B1 (ko) 2022-02-25
CN111754415B (zh) 2022-09-27
AU2020339292A1 (en) 2021-04-15
SG11202102762VA (en) 2021-04-29
US11941854B2 (en) 2024-03-26

Similar Documents

Publication Publication Date Title
JP7129502B2 (ja) 顔画像処理方法及び装置、画像機器並びに記憶媒体
US11043011B2 (en) Image processing method, apparatus, terminal, and storage medium for fusing images of two objects
CN109859098B (zh) 人脸图像融合方法、装置、计算机设备及可读存储介质
CN108846793B (zh) 基于图像风格转换模型的图像处理方法和终端设备
CN109829930B (zh) 人脸图像处理方法、装置、计算机设备及可读存储介质
CN106909875B (zh) 人脸脸型分类方法和系统
CN108447017A (zh) 人脸虚拟整容方法和装置
US11238569B2 (en) Image processing method and apparatus, image device, and storage medium
CN109675315B (zh) 游戏角色模型的生成方法、装置、处理器及终端
KR101635730B1 (ko) 몽타주 생성 장치 및 방법, 그 방법을 수행하기 위한 기록 매체
CN106021550B (zh) 一种发型设计方法和系统
CN106920277A (zh) 模拟美容整形效果可视化在线自由面雕的方法及系统
CN106652015B (zh) 一种虚拟人物头像生成方法及装置
CN109801380A (zh) 一种虚拟试衣的方法、装置、存储介质及计算机设备
CN106652037B (zh) 一种人脸贴图处理方法及装置
CN109147012B (zh) 图像处理方法和装置
CN109242760B (zh) 人脸图像的处理方法、装置和电子设备
CN111127642A (zh) 一种人脸三维重建方法
WO2023066120A1 (zh) 图像处理方法、装置、电子设备及存储介质
CN111311733A (zh) 三维模型处理方法及装置、处理器、电子设备及存储介质
CN113658035B (zh) 脸部变换方法、装置、设备、存储介质以及产品
US20220277586A1 (en) Modeling method, device, and system for three-dimensional head model, and storage medium
RU2703327C1 (ru) Способ обработки двухмерного изображения и реализующее его вычислительное устройство пользователя
CN113421197B (zh) 一种美颜图像的处理方法及其处理系统
US20240078773A1 (en) Electronic device generating 3d model of human and its operation method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201225

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220217

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220516

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220822

R150 Certificate of patent or registration of utility model

Ref document number: 7129502

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150