JP7102554B2 - 画像処理方法、装置及び電子機器 - Google Patents

画像処理方法、装置及び電子機器 Download PDF

Info

Publication number
JP7102554B2
JP7102554B2 JP2020566648A JP2020566648A JP7102554B2 JP 7102554 B2 JP7102554 B2 JP 7102554B2 JP 2020566648 A JP2020566648 A JP 2020566648A JP 2020566648 A JP2020566648 A JP 2020566648A JP 7102554 B2 JP7102554 B2 JP 7102554B2
Authority
JP
Japan
Prior art keywords
image
key point
target
face
point information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020566648A
Other languages
English (en)
Other versions
JP2022507998A (ja
Inventor
チンチン・シュ
ミンヤン・ファン
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from CN201910944389.8A external-priority patent/CN110728620A/zh
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2022507998A publication Critical patent/JP2022507998A/ja
Application granted granted Critical
Publication of JP7102554B2 publication Critical patent/JP7102554B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/18Image warping, e.g. rearranging pixels individually
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/25Fusion techniques
    • G06F18/253Fusion techniques of extracted features
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration
    • G06T7/33Determination of transform parameters for the alignment of images, i.e. image registration using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Data Mining & Analysis (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Evolutionary Computation (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Image Processing (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
本願は、2019年09月30日に提出された、出願番号が201910944389.8である中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本願に組み込まれる。
本願は、画像処理技術に関し、具体的には画像処理方法、装置及び電子機器に関する。
2枚の異なる顔写真について、現在、関連技術において、異なる顔を1つの顔にフュージョンするための効果的な技術的解決手段はない。
本願の実施例は、画像処理方法、装置及び電子機器を提供する。
本願の実施例の技術的解決手段は、以下のように実現する。
本願の実施例は、画像処理方法を提供する。前記方法は、
第1画像及び第2画像を取得することと、前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得るて、前記第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得ることと、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定することと、前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることと、を含む。
幾つかの任意選択的な実施例において、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定することは、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて、第1変換関係を決定することと、前記第1変換関係に基づいて、前記第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得ることと、前記第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得ることと、前記第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定することと、を含む。
幾つかの任意選択的な実施例において、前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることは、前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行い、ターゲット画像を得ることと、前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることと、を含む。
幾つかの任意選択的な実施例において、前記第2キーポイント情報及び前記第3キーポイント情報は、いずれもキーポイントの座標を含み、前記第2キーポイント情報及び第3キーポイント情報に基づいて第2変換関係を決定することは、前記第2キーポイントの座標及び前記第3キーポイントの座標に対して加重オーバーレイ処理を行い、第4キーポイント情報を得ることであって、前記第4キーポイント情報に第4キーポイントの座標が含まれる、ことと、前記第2キーポイントの座標及び前記第4キーポイントの座標に基づいて、前記第2変換関係を決定することと、を含む。
幾つかの任意選択的な実施例において、前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得ることは、前記ターゲット画像におけるターゲット対象の顔キーポイントを検出し、第5キーポイント情報を得ることと、前記第3キーポイント情報及び前記第5キーポイント情報に基づいて、第3変換関係を決定することと、前記第3変換関係に基づいて、前記第1参照画像におけるターゲット対象の顔に対して変形処理を行い、第2参照画像を得ることと、前記第2参照画像及び前記ターゲット画像に基づいて前記第3画像を得ることと、を含む。
幾つかの任意選択的な実施例において、前記第2参照画像及び前記ターゲット画像に基づいて、第3画像を得ることは、前記第2参照画像及び前記ターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることと、前記第3参照画像及び前記ターゲット画像に対してフュージョン処理を行い、前記第3画像を得ることと、を含む。
幾つかの任意選択的な実施例において、前記第2参照画像及び前記ターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることは、前記第2参照画像における画素点の画素値の第1平均値を決定し、前記ターゲット画像における画素点の画素値の第2平均値を決定することと、前記第2参照画像における第1画素点の画素値と前記第1平均値に対して差分処理を行い、差と、前記ターゲット画像における、前記第1画素点に対応する画素点の前記第2平均値と、を加算処理し、第3参照画像を得ることであって、前記第1画素点は、前記第2参照画像におけるいずれか1つの画素点である、ことと、を含む。
幾つかの任意選択的な実施例において、前記第3参照画像及び前記ターゲット画像に対してフュージョン処理を行い、前記第3画像を得ることは、前記第3参照画像における第2画素点の画素値と、前記ターゲット画像における、前記第2画素点に対応する画素点の画素値と、を加重加算処理し、前記第3画像を得ることであって、前記第2画素点は、前記第3参照画像におけるいずれか1つの画素点である、ことを含む。
前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得る前に、前記方法は、前記第1参照画像に対して最適化処理を行うことであって、前記最適化処理は、前記第1参照画像におけるターゲット対象の顔に対して行われる、美肌処理、美白処理、色調補正処理のうちの少なくとも1つの処理を含む、ことを更に含み、
前記ターゲット画像及び前記第1参照画像に基づいて、第3画像を生成することは、前記ターゲット画像及び最適化処理後の第1参照画像に基づいて、第3画像を生成することを含む。
幾つかの任意選択的な実施例において、前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行う前に、前記方法は、前記第2画像におけるターゲット対象の鼻孔領域に対してガウスぼかし処理を行うことを更に含み、前記第2変換関係に基づいて前記第2画像におけるターゲット対象の顔に対して変形処理を行うことは、前記第2変換関係に基づいて、ガウスぼかし処理後の第2画像におけるターゲット対象の顔に対して変形処理を行うことを含む。
幾つかの任意選択的な実施例において、前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得ることは、顔キーポイント検出アルゴリズムに基づいて、前記第1画像を検出し、前記第1画像の顔領域に含まれる各器官のキーポイント情報及び前記顔領域の縁の輪郭キーポイント情報を得ることを含む。
幾つかの任意選択的な実施例において、前記顔領域の縁の輪郭キーポイント情報を得ることは、前記顔領域における眼部以下の領域の第1組の輪郭キーポイント情報を得ることと、前記顔領域における額領域に関わるキーポイント情報に基づいて、前記額領域の第2組の輪郭キーポイント情報を決定することと、前記第1組の輪郭キーポイント情報及び前記第2組の輪郭キーポイント情報に基づいて、前記顔領域の縁の輪郭キーポイント情報を決定することと、を含む。
幾つかの任意選択的な実施例において、前記第1キーポイント情報及び前記第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含み、前記外縁キーポイント情報は、前記顔領域の縁の輪郭キーポイント情報に対応する。
幾つかの任意選択的な実施例において、前記外縁キーポイント情報を決定することは、前記顔領域の中心点を決定することと、前記顔領域の縁の各輪郭キーポイントと前記中心点との距離を決定し、前記中心点に対する、各輪郭キーポイントの方向を決定することと、第1輪郭キーポイントに対して、前記第1輪郭キーポイントに対応する方向に従って、顔領域の外部へ所定距離を延在させ、前記第1輪郭キーポイントに対応する外縁キーポイントを決定することであって、前記第1輪郭キーポイントは、前記顔領域の縁におけるいずれか1つの輪郭キーポイントである、こととを含む。
幾つかの任意選択的な実施例において、前記方法は、前記第1画像と前記第2画像におけるターゲット対象の口部状態が異なっており、且つ前記第3画像におけるターゲット対象が開口状態である場合、歯テンプレート画像に基づいて、前記第3画像における前記ターゲット対象に対して歯追加操作を行い、第4画像を生成することを更に含む。
幾つかの任意選択的な実施例において、前記方法は、前記第3画像又は前記第3画像に対して歯追加操作を行うことで得られた第4画像に対して画像スタイル変換処理を行い、第5画像を得ることを更に含む。
本願の実施例は、画像処理装置を更に提供する。前記装置は、取得ユニットと、キーポイント検出ユニットと、フュージョン処理ユニットと、を備え、
前記取得ユニットは、第1画像及び第2画像を取得するように構成され、
前記キーポイント検出ユニットは、前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、前記第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得るように構成され、
前記フュージョン処理ユニットは、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定し、前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得るように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて、第1変換関係を決定し、前記第1変換関係に基づいて、前記第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得るように構成され、
前記キーポイント検出ユニットは更に、前記第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得るように構成され、
前記フュージョン処理ユニットは更に、前記第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定するように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行い、ターゲット画像を得て、前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得るように構成される。
幾つかの任意選択的な実施例において、前記第2キーポイント情報及び前記第3キーポイント情報は、いずれもキーポイントの座標を含み、前記フュージョン処理ユニットは、前記第2キーポイントの座標及び前記第3キーポイントの座標に対して加重オーバーレイ処理を行い、第4キーポイント情報を得るように構成され、前記第4キーポイント情報に第4キーポイントの座標が含まれ、前記フュージョン処理ユニットは、前記第2キーポイントの座標及び前記第4キーポイントの座標に基づいて、前記第2変換関係を決定するように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記ターゲット画像におけるターゲット対象の顔キーポイントを検出し、第5キーポイント情報を得て、前記第3キーポイント情報及び前記第5キーポイント情報に基づいて、第3変換関係を決定し、前記第3変換関係に基づいて、前記第1参照画像におけるターゲット対象の顔に対して変形処理を行い、第2参照画像を得て、前記第2参照画像及び前記ターゲット画像に基づいて第3画像を得るように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第2参照画像及び前記ターゲット画像に対してフュージョン処理を行い、第3参照画像を得て、前記第3参照画像及び前記ターゲット画像に対してフュージョン処理を行い、前記第3画像を得るように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第2参照画像における画素点の画素値の第1平均値を決定し、前記ターゲット画像における画素点の画素値の第2平均値を決定し、前記第2参照画像における第1画素点の画素値と前記第1平均値に対して差分処理を行い、差と、前記ターゲット画像における、前記第1画素点に対応する画素点の前記第2平均値と、を加算処理し、第3参照画像を得るように構成され、前記第1画素点は、前記第2参照画像におけるいずれか1つの画素点である。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第3参照画像における第2画素点の画素値と、前記ターゲット画像における、前記第2画素点に対応する画素点の画素値と、を加重加算処理し、前記第3画像を得るように構成され、前記第2画素点は、前記第3参照画像におけるいずれか1つの画素点である。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得る前に、前記第1参照画像に対して最適化処理を行うように構成され、前記最適化処理は、前記第1参照画像におけるターゲット対象の顔に対して行われる、美肌処理、美白処理、色調補正処理のうちの少なくとも1つの処理を含み、前記フュージョン処理ユニットは更に、前記ターゲット画像及び最適化処理後の第1参照画像に基づいて、第3画像を生成するように構成される。
幾つかの任意選択的な実施例において、前記フュージョン処理ユニットは、前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行う前に、前記第2画像におけるターゲット対象の鼻孔領域に対してガウスぼかし処理を行うように構成され、前記フュージョン処理ユニットは更に、前記第2変換関係に基づいて、ガウスぼかし処理後の第2画像におけるターゲット対象の顔に対して変形処理を行うように構成される。
幾つかの任意選択的な実施例において、前記キーポイント検出ユニットは、顔キーポイント検出アルゴリズムに基づいて、前記第1画像を検出し、前記第1画像の顔領域に含まれる各器官のキーポイント情報及び前記顔領域の縁の輪郭キーポイント情報を得るように構成される。
幾つかの任意選択的な実施例において、前記キーポイント検出ユニットは、前記顔領域における眼部以下の領域の第1組の輪郭キーポイント情報を得て、前記顔領域における額領域に関わるキーポイント情報に基づいて、前記額領域の第2組の輪郭キーポイント情報を決定し、前記第1組の輪郭キーポイント情報及び前記第2組の輪郭キーポイント情報に基づいて、前記顔領域の縁の輪郭キーポイント情報を決定するように構成される。
幾つかの任意選択的な実施例において、前記第1キーポイント情報及び前記第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含み、前記外縁キーポイント情報は、前記顔領域の縁の輪郭キーポイント情報に対応する。
幾つかの任意選択的な実施例において、前記キーポイント検出ユニットは更に、前記顔領域の中心点を決定し、前記顔領域の縁の各輪郭キーポイントと前記中心点との距離を決定し、前記中心点に対する、各輪郭キーポイントの方向を決定し、第1輪郭キーポイントに対して、前記第1輪郭キーポイントに対応する方向に従って、顔領域の外部へ所定距離を延在させ、前記第1輪郭キーポイントに対応する外縁キーポイントを決定するように構成され、前記第1輪郭キーポイントは、前記顔領域の縁におけるいずれか1つの輪郭キーポイントである。
幾つかの任意選択的な実施例において、前記装置は、前記第1画像と前記第2画像におけるターゲット対象の口部状態が異なっており、且つ前記第3画像におけるターゲット対象が開口状態である場合、歯テンプレート画像に基づいて、前記第3画像における前記ターゲット対象に対して歯追加操作を行い、第4画像を生成するように構成される画像処理ユニットを更に備える。
幾つかの任意選択的な実施例において、前記装置は、前記第3画像又は前記第3画像に対して歯追加操作を行うことで得られた第4画像に対して画像スタイル変換処理を行い、第5画像を得るように構成される画像スタイル変換処理ユニットを更に備える。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該プログラムがプロセッサにより実行される時、本願の実施例に記載の方法のステップを実現させる。
本願の実施例は、電子機器を更に提供する。前記電子機器は、メモリと、プロセッサと、メモリに記憶されてプロセッサでの実行可能なコンピュータプログラムと、を備え、前記プロセッサが前記プログラムを実行する時、本願の実施例に記載の方法のステップを実現させる。
本願の実施例は、プロセッサを更に提供する。前記プロセッサは、コンピュータプログラムを呼び出すように構成され、前記プロセッサは、前記プログラムを実行する時、本願の実施例に記載の方法のステップを実現させる。
本願の実施例は、画像処理方法、装置及び電子機器を提供する。前記方法は、第1画像及び第2画像を取得することと、前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得ることと、前記第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得ることと、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定することと、前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得ることと、を含む。本願の実施例の技術的解決手段によれば、異なる顔画像を1つの顔画像にフュージョンすることを実現させる。一方で、顔キーポイントに対する検出により、顔キーポイント(例えば、顔器官及び輪郭等)を正確に位置決めすることを実現させ、また、顔フュージョン処理過程において、顔キーポイントに基づいて、対応するフュージョン処理又は変形処理を行い、顔フュージョン処理の効果を大幅に向上させる。
本願の実施例による画像処理方法を示す第1フローチャートである。 本願の実施例による画像処理方法における顔キーポイントを示す概略図である。 本願の実施例による顔キーポイントにおける第1組の輪郭点情報、第2組の輪郭点情報を示す概略図である。 本願の実施例による顔キーポイントにおける外縁キーポイント情報を示す概略図である。 本願の実施例による画像処理方法を示す第2フローチャートである。 本願の実施例による画像処理方法を示す第3フローチャートである。 本願の実施例による画像処理装置の構造を示す第1概略図である。 本願の実施例による画像処理装置の構造を示す第2概略図である。 本願の実施例による画像処理装置の構造を示す第3概略図である。 本願の実施例による電子機器のハードウェア構造を示す概略図である。
以下、図面及び具体的な実施例を参照しながら、本願を更に詳しく説明する。
本願の実施例は、画像処理方法を提供する。図1は、本願の実施例による画像処理方法を示す第1フローチャートである。図1に示すように、前記方法は以下を含む。
ステップ101において、第1画像及び第2画像を取得する。
ステップ102において、第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得る。
ステップ103において、第1キーポイント情報及び第2キーポイント情報に基づいて変換関係を決定する。
ステップ104において、変換関係に基づいて、第1画像及び第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得る。
本実施例において、第1画像及び第2画像に、ターゲット対象の顔が含まれてもよい。該ターゲット対象は、画像におけるリアル人物であってもよい。他の実施形態において、ターゲット対象は、例えば、漫画キャラクターなどのような仮想人物であってもよい。勿論、ターゲット対象は、他のタイプの対象であってもよく、本願の実施例はこれを限定しない。
幾つかの実施例において、第1画像及び第2画像に、異なるターゲット対象が含まれる。例えば、第1画像及び第2画像にいずれも顔が含まれるが、第1画像及び第2画像に含まれる顔が異なる。本実施例において主に、異なる顔に対してフュージョン処理を行い、1つの顔を合成する。
本実施例において、第1キーポイント情報及び第2キーポイント情報はいずれも、顔領域に含まれる各器官のキーポイント情報及び顔領域の縁の輪郭キーポイント情報を含む。ここで、顔領域に含まれる器官は、眼、鼻、口、眉などのうちの少なくとも1つを含む。顔領域に含まれる各器官のキーポイント情報は、上記各器官の中心キーポイント情報及び/又は器官の輪郭キーポイント情報を含んでもよい。顔領域の縁の輪郭キーポイント情報は、顔領域輪郭に対応するキーポイント情報である。ここで、第1キーポイント情報及び第2キーポイント情報は、キーポイントの座標を含むが、これに限定されない。第1キーポイント情報及び第2キーポイント情報は、例えば、キーポイントのカテゴリ識別子等を含んでもよい。例示的には、カテゴリ識別子は、キーポイントが器官のキーポイントであるか、それとも縁の輪郭キーポイントであることを示すために用いられる。
本願の幾つかの任意選択的な実施例において、ステップ102において、第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得ることは、顔キーポイント検出アルゴリズムに基づいて、第1画像を検出し、前記第1画像の顔領域に含まれる各器官のキーポイント情報及び前記顔領域の縁の輪郭キーポイント情報を得ることを含む。
ここで、顔領域の縁の輪郭キーポイント情報を得ることは、顔領域における眼部以下の領域の第1組の輪郭点情報を得ることと、顔領域における額領域に関わるキーポイント情報に基づいて、額領域の第2組の輪郭点情報を決定することと、第1組の輪郭点情報及び第2組の輪郭点情報に基づいて、顔領域の縁の輪郭キーポイント情報を決定することと、を含む。対応的に、第2画像を検出して第2キーポイント情報を得ることは、上記第1キーポイント情報と類似しており、ここで、詳細な説明を省略する。
図2aは、本願の実施例による画像処理方法における顔キーポイントを示す概略図である。図2に示すように、第1態様において、顔領域に含まれる器官のキーポイントは、具体的には、顔領域に含まれる眉、眼、鼻、口などのような器官のうちの少なくとも1つの器官のキーポイントであってもよい。幾つかの実施形態において、器官のキーポイント情報は、器官の中心キーポイント情報及び/又は器官の輪郭キーポイント情報を含んでもよい。器官が眼であることを例とすると、眼のキーポイント情報は、眼の中心キーポイント情報及び眼の輪郭キーポイント情報を含む。例えば、眼のキーポイント情報は、眼の中心キーポイントの座標及び眼の輪郭キーポイントの座標を含む。また、器官が眉であることを例とすると、眉のキーポイント情報は、眉の輪郭キーポイント情報を含んでもよい。例えば、眉のキーポイント情報は、眉の輪郭キーポイントの座標を含んでもよい。本実施例において、まず、顔キーポイント検出アルゴリズムにより、顔領域における各器官のキーポイント情報を得る。
第2態様において、顔キーポイント検出アルゴリズムにより顔領域における眼部以下の領域の第1組の輪郭点情報を得る。第1組の輪郭点は図2bに示す通りである。幾つかの実施例において、顔キーポイント検出アルゴリズムにより、顔領域における眼部以下の数が少ないM1個のキーポイントを得ることができる。例えば、5個のキーポイント等を含む。また、該M1個のキーポイントによって、曲線補間の方式でM2個のキーポイントを得て、M1個のキーポイント及びM2個のキーポイントを第1組の輪郭点情報とする。
ここで、顔キーポイント検出アルゴリズムとして、いずれか1つの顔認識アルゴリズムを用いてもよい。
第3態様において、額領域の輪郭キーポイント情報を取得する。一例として、所定のパラメータに基づいて、顔領域の額領域における少なくとも3つのキーポイント情報を決定することができる。3つのキーポイント情報の決定を例として、図2bに示すように、キーポイント1は、額領域の中線におけるキーポイントに対応する。キーポイント2及びキーポイント3は、それぞれキーポイント1の両側に位置する。第1組の輪郭点情報における、両端に位置するキーポイント4とキーポイント5(ここで、キーポイント4及びキーポイント5はそれぞれ第1組の輪郭キーポイント情報における、眼部に最も近いキーポイントである)、及びキーポイント1、キーポイント2及びキーポイント3に基づいて、曲線フィッティングを行い、曲線フィッティングキーポイント情報を得る。曲線補間アルゴリズムに基づいて、曲線フィッティングキーポイント情報に対して補間処理を行い、額領域に適合し第2組の輪郭点情報を得る。
以上により、第1組の輪郭点情報及び第2組の輪郭点情報を決定することで、顔領域縁の輪郭キーポイント情報を決定する。更に、顔領域の縁の輪郭キーポイント情報及び顔領域に含まれる各器官のキーポイント情報に基づいて、第1キーポイント情報及び第2キーポイント情報を得る。
本願の幾つかの任意選択的な実施例において、第1キーポイント情報及び第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含んでもよい。外縁キーポイント情報は、顔領域の縁の輪郭キーポイント情報に対応する。図2cにおいて、外縁キーポイントを例示的に示す。
幾つかの実施例において、外縁キーポイント情報を決定することは、顔領域の中心点を決定することであって、中心点は例えば、鼻の鼻先に対応するキーポイントである、ことと、顔領域の縁の各輪郭キーポイントと中心点との距離を決定し、中心点に対する、各輪郭キーポイントの方向を決定することと、第1輪郭キーポイントに対して、前記第1輪郭キーポイントに対応する方向に従って、顔領域の外部へ所定距離を延在させ、前記第1輪郭キーポイントに対応する外縁キーポイントを決定することであって、前記第1輪郭キーポイントは、前記顔領域の縁におけるいずれか1つの輪郭キーポイントである、こととを含む。ここで、所定距離は、縁の輪郭キーポイントと中心点との距離に相関する。縁の輪郭キーポイントと中心点との距離が大きいほど、所定距離は大きくなる。縁の輪郭キーポイントと中心点との距離が小さいほど、所定距離は小さくなる。上記方式によれば、図2cに示した顔領域外部の外縁キーポイント情報を決定することができる。
本実施例において、外縁キーポイント情報の決定の目的は、画像を変形処理する過程において、特に、三角変形領域の変形処理方式で画像変形処理を行う過程において、外縁キーポイント情報及び顔領域の縁の輪郭キーポイント情報で形成される三角変形領域を利用して適応的な変形処理を行うことができる。つまり、顔領域に関連する過渡領域(即ち、外縁キーポイントと顔領域の縁の輪郭キーポイントとの間の領域)に対して適応的な変形処理を行うことで、より高い画像変形効果を得て、顔フュージョン効果をより自然にすることができる。
本願の幾つかの任意選択的な実施例において、ステップ103は、第1キーポイント情報及び第2キーポイント情報に基づいて、第1変換関係を決定することと、第1変換関係に基づいて、第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得ることと、第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得ることと、第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定することと、を含む。
本願の実施例において、第1画像に対して変換処理を行うための第1変換関係及び第2画像に対して変換処理を行うための第2変換関係を少なくとも含む。また、第1変換関係により、第1画像に対して変換処理を行うことにより第1参照画像を得る。第1参照画像におけるターゲット対象の顔キーポイント情報を抽出して第3キーポイント情報として表記する。第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定する。これにより第2画像を第1参照画像に向かって変換し、第1画像及び第2画像におけるターゲット対象の顔のフュージョンを実現させ、得られた第3画像におけるターゲット対象の顔を、第1画像及び第2画像における顔の両方にも似ているように見える。
なお、本実施例において、2つの画像におけるターゲット対象の顔をフュージョン処理することは、2つの画像におけるターゲット対象の顔をフュージョンし、得られた新たな画像におけるターゲット対象の顔を、第1画像及び第2画像における顔の両方にも似させることを含んでもよく、2つの画像のうちの1つの画像におけるターゲット対象の顔を変形処理し、変形処理されたターゲット対象の顔と、変形処理されていない画像におけるターゲット対象の顔と、をフュージョンすることを更に含んでもよい。
本願の実施例の技術的解決手段によれば、異なる顔画像を1つの顔画像にフュージョンすることを実現させる。一方で、顔キーポイントに対する検出により、顔キーポイント(例えば、顔器官及び輪郭等)を正確に位置決めすることを実現させ、また、顔フュージョン処理過程において、顔キーポイントに基づいて、対応するフュージョン処理又は変形処理を行い、顔フュージョン処理の効果を大幅に向上させる。
前記実施例によれば、本願の実施例は、画像処理方法を更に提供する。図3は、本願の実施例による画像処理方法を示す第2フローチャートである。図3に示すように、前記方法は以下を含む。
ステップ201において、第1画像及び第2画像を取得する。
ステップ202において、第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得る。
ステップ203において、第1キーポイント情報及び第2キーポイント情報に基づいて第1変換関係を決定する。
ステップ204において、第1変換関係に基づいて、第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得る。
ステップ205において、第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得る。
ステップ206において、第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定する。
ステップ207において、第2変換関係に基づいて、第2画像におけるターゲット対象の顔に対して変形処理を行い、ターゲット画像を得る。
ステップ208において、ターゲット画像及び第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得る。
本実施例におけるステップ201からステップ202に関わる詳細な説明は、具体的には、前記実施例におけるステップ101からステップ102に関わる詳細な説明を参照することができ、ここで詳細な説明を省略する。
本実施例のステップ203において、第1キーポイント情報で表される各キーポイントの座標及び第2キーポイント情報で表される各キーポイントの座標に基づいて、第1変換関係を決定することができる。例示的には、第1変換関係は、変換行列により実現することができる。変換行列の取得方式は、初期キーポイントの座標集合を決定することであって、上記初期キーポイントの座標集合は、1つの行列(例えば、行列Hと表記される)で表されてもよい、ことと、ターゲットキーポイントの座標集合を決定することであって、上記ターゲットキーポイントの座標集合は、もう1つの行列(例えば、行列Pと表記される)で表されてもよい、ことと、を含んでもよい。変換行列がQと表記されるとすれば、H・Q=Pであり、つまり、Q=P・H-1である。第1キーポイント情報を第1変換関係(例えば、第1変換行列)により変換処理し、第2キーポイント情報を得ることが望ましいが、誤差等のような様々な原因により、第1キーポイント情報を第1変換関係(例えば、第1変換行列)により変換処理しても、得られたキーポイント情報は、第2キーポイント情報と完全に一致しないことがあることは、理解されるべきである。従って、本実施例のステップ204において、第1変換関係(例えば、第1変換行列)に基づいて、第1画像を処理することは、具体的には、第1変換関係に基づいて第1画像におけるターゲット対象の顔部に対して変形処理を行うことであり、得られた画像を第1参照画像と表記する。ここで、例示的には、本願の各実施例における第1変換関係はいずれも、第1キーポイントの座標集合及び第2キーポイントの座標集合に基づいて決定された第1変換行列により実現することができる。
本実施例のステップ205において、第3キーポイント情報の取得方式は、前記実施例のステップ102における、第1キーポイント情報及び第2キーポイント情報の取得方法に関わる詳細な説明を参照することができ、ここで、詳細な説明を省略する。例示的には、第3キーポイント情報に対応するキーポイントの数は、106個であってもよい。
本願の幾つかの任意選択的な実施例において、ステップ206において、第2キーポイント情報及び第3キーポイント情報はいずれもキーポイントの座標情報を含み、第2キーポイント情報及び第3キーポイント情報に基づいて第2変換関係を決定することは、第2キーポイント情報及び第3キーポイント情報に対して加重オーバーレイ処理を行い、第4キーポイント情報を得ることと、第2キーポイント情報及び第4キーポイント情報に基づいて第2変換関係を決定することと、を含む。
幾つかの実施例において、キーポイント情報(例えば、第2キーポイント情報、第3キーポイント情報、第4キーポイント情報等)に、キーポイントの座標が含まれる。所定の加重係数に基づいて、第2キーポイントの座標及び第3キーポイントの座標に対して加重オーバーレイ処理を行い、第4キーポイントの座標を得ることができる。続いて、第2キーポイントの座標及び第4キーポイントの座標に基づいて、第2変換関係を決定することができる。
例示的に、第4キーポイントの座標は、下記式を満たすことができる。
PT4=alpha×PT2+(1-alpha)×PT3 (1)
ただし、PT4は、第4キーポイントの座標を表し、PT2は、第2キーポイントの座標を表し、PT3は、第3キーポイントの座標を表し、alphaは、加重係数を表す。
続いて、第2変換関係に基づいて、第2画像における第2キーポイント情報を、第4キーポイント情報に向けて変形処理し、変形処理された第2画像(即ち、ターゲット画像)におけるキーポイント情報を第4キーポイント情報と適合させ、つまり、ターゲット画像におけるキーポイントの座標を第4キーポイントの座標に近似させる。
幾つかの実施例において、逆距離加重(IDW:Inverse Distance Weighted)アルゴリズムにより、第2画像を変形処理し、ターゲット画像を得ることができる。具体的には、IDWアルゴリズムにおいて、各キーポイント(即ち、第2キーポイント及び第4キーポイント)がターゲット画像におけるターゲットキーポイントに局所的な影響を与えることを仮定し、このような影響は、距離の増加に伴い、小さくなる。第2画像を変形処理した後に得られたターゲット画像における初期ターゲットキーポイントの座標について、第2キーポイントの座標と第4キーポイントの座標を利用して、初期ターゲットキーポイントと第2キーポイントとの距離、初期ターゲットキーポイントと第4キーポイントとの距離をそれぞれ決定する。上記距離に基づいて、初期ターゲットキーポイントに対する第2キーポイントの加重、初期ターゲットキーポイントに対する第4キーポイントの加重をそれぞれ決定する。決定された加重に基づいて、初期ターゲットキーポイントと第2キーポイントとの距離、ターゲットキーポイントと第4キーポイントとの距離に対してそれぞれ加重平均処理を行う。得られた結果に基づいて、ターゲットキーポイントを決定する。上記第2変換関係は具体的には、IDWアルゴリズムによりターゲットキーポイントを決定する過程であってもよく、つまり、第2画像における第2キーポイント情報を第4キーポイント情報に向けて変形処理することであることは、理解されるべきである。
他の実施形態において、第2画像における第2キーポイント情報のうちの一部の第2キーポイント情報を変形キーポイントとして選択することも可能である。上記変形キーポイントに基づいて、上記IDW方式で処理し、一部のキーポイントを選択する方式によれば、データ処理量を低減させることができる。
本願の任意選択的な実施例において、第2変換関係に基づいて、第2画像におけるターゲット対象の顔に対して変形処理を行う前に、前記方法は、前記第2画像におけるターゲット対象の鼻孔領域に対してガウスぼかし処理を行うことを更に含み、第2変換関係に基づいて第2画像におけるターゲット対象の顔に対して変形処理を行うことは、第2変換関係に基づいて、ガウスぼかし処理後の第2画像におけるターゲット対象の顔に対して変形処理を行うことを含む。
本願の幾つかの実施例において、顔フュージョン後の鼻孔領域に、黒色が目立ち、鼻孔領域に違和感が生じるという問題を避けるために、第2画像に対して変形処理を行う前に、まず、顔領域の鼻孔領域に対してガウスぼかし処理(又は、ガウス平滑化処理と呼ばれてもよい)を行い、鼻孔領域の黒色を薄くし、上記問題を避け、顔フュージョン処理後の第3画像における顔をより自然にする。実際の適用において、顔認識アルゴリズムにより、第2画像におけるターゲット対象の鼻孔領域(決定された鼻孔領域は、矩形、円形又は他の任意の形状であってもよい)を認識し、決定された鼻孔領域に対してガウスぼかし(又はガウス平滑化)処理を行うことができる。
本願の幾つかの任意選択的な実施例において、ステップ208において、ターゲット画像及び第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることは、ターゲット画像におけるターゲット対象の顔キーポイントを検出し、第5キーポイント情報を得ることと、第3キーポイント情報及び第5キーポイント情報に基づいて、第3変換関係を決定することと、第3変換関係に基づいて、第1参照画像におけるターゲット対象の顔に対して変形処理を行い、第2参照画像を得ることと、第2参照画像及びターゲット画像に基づいて第3画像を得ることと、を含む。
本実施例において、第5キーポイント情報の取得方式は、前記実施例のステップ102における、第1キーポイント情報及び第2キーポイント情報の取得方式に関わる詳細な説明を参照することができ、ここで、詳細な説明を省略する。
本願の幾つかの実施例において、図2aから分かるように、任意の隣接する3つのキーポイントにより、1つの三角変形領域を決定することができる。従って、本実施例において、同様なルールに応じて、第3キーポイント情報に基づいて三角変形領域を決定し、第5キーポイント情報に基づいて三角変形領域を決定し、第3キーポイントの座標及び第5キーポイントの座標に基づいて第3変換関係を決定し、第3変換関係に基づいて、三角変形領域を利用して変形処理を行い、第2参照画像を得ることができる。第3変換関係により、第1参照画像における第3キーポイント情報の所在位置をターゲット画像における第5キーポイント情報の所在位置に変えることが望ましいが、誤差等の原因により、変形された第3キーポイント情報の所在位置が第5キーポイント情報の所在位置と完全に重なり合うことを実現できないことが多いことは、理解されるべきである。従って、変形処理された第1参照画像を第2参照画像と表記する。更に、第2参照画像及びターゲット画像に基づいて、第3画像を得る。
幾つかの例において、第3変換関係は、各三角変形領域にそれぞれ対応する変換行列により実現することができる。1つの三角変形領域を例として、第1参照画像における3つの第3キーポイントに対応する座標を決定し、行列を形成し、行列Aと表記する。ターゲット画像における3つの第5キーポイントに対応する座標を決定し、もう1つの行列を形成し、行列Bと表記する。変換行列をQと表記すれば、A・Q=Bであり、つまり、Q=B・A-1である。各三角変形領域について、いずれも対応する第3変換関係を利用して変換処理を行い、第2参照画像を得ることができる。
本願の幾つかの任意選択的な実施例において、第2参照画像及びターゲット画像に基づいて、第3画像を得ることは、第2参照画像及びターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることと、第3参照画像及びターゲット画像に対してフュージョン処理を行い、第3画像を得ることと、を含む。
本発明の実施例は、二回のフュージョン処理により、得られた第2参照画像及びターゲット画像に対してフュージョン処理を行うことができる。勿論、他の実施例において、1回のフュージョン処理又は2回以上のフュージョン処理により、フュージョン処理を行うこともでき、本実施例は、これを限定しない。
本願の幾つかの任意選択的な実施例において、第2参照画像及びターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることは、第2参照画像における画素点に対応する画素値の第1平均値を決定し、前記ターゲット画像における画素点に対応する画素値の第2平均値を決定することと、第2参照画像における第1画素点の画素値と第1平均値に対して差分処理を行い、差と、第2平均値と、を加算処理し、第3参照画像を得ることであって、第1画素点は、第2参照画像におけるいずれか1つの画素点である、ことと、を含む。
幾つかの実施例において、第2参照画像における画素点に対応する画素値の第1平均値を決定することは、第2参照画像における画素点に対応する画素値における色成分値の第1平均値を決定することを含む。なお、ターゲット画像における画素点に対応する画素値の第2平均値を決定することは、ターゲット画像における画素点に対応する画素値における色成分値の第2平均値を決定することを含む。従って、本実施例において、第2参照画像における第1画素点の画素値の色成分値と第1平均値とを差分処理し、差と、ターゲット画像における、第1画素点に対応する画素点の画素値の色成分値の第2平均値と、を加算処理し、第3参照画像を得る。
具体的には、第2参照画像及びターゲット画像はいずれもカラー画像である。従って、第2参照画像及びターゲット画像における各画素点の画素値はいずれも、カラー画像を形成できる色成分を持つ。カラー画像がRGB画像であることを例とすると、各画素点はいずれも、赤色成分、緑色成分及び青色成分にそれぞれ対応する3つの数値を持つ。3つの色成分値を組み合わせて画素点に対応する画素値を形成する。従って、第2参照画像における3つの色成分の平均値をそれぞれ得て、各色成分の平均値を第1平均値と表記し、ターゲット画像における3つの色成分の平均値をそれぞれ得て、各色成分の平均値を第2平均値と表記する。1つの色成分(例えば、赤色成分、緑色成分、青色成分)を例として、第2参照画像における各画素点の該色成分の数値から、対応する第1平均値を引き去り、ターゲット画像における対応する色成分の第2平均値と加算する。他の色成分及び他の画素点の処理方式はこれと類似しており、得られた結果は、第3参照画像における各画素点の各色成分の数値である。
本願の幾つかの任意選択的な実施例において、第3参照画像及びターゲット画像に対してフュージョン処理を行い、第3画像を得ることは、第3参照画像における第2画素点の画素値と、ターゲット画像における、前記第2画素点に対応する画素点の画素値と、を加重加算処理し、前記第3画像を得ることであって、前記第2画素点は、第3参照画像におけるいずれか1つの画素点である、ことを含む。
幾つかの実施例において、第3参照画像及びターゲット画像はいずれもカラー画像である。従って、第2参照画像及びターゲット画像における各画素点の画素値はいずれも、カラー画像を形成できる色成分を持つ。カラー画像がRGB画像であることを例とすると、各画素点はいずれも、赤色成分、緑色成分及び青色成分にそれぞれ対応する3つの数値を持つ。3つの色成分値を組み合わせて画素点に対応する画素値を形成する。本実施例において、第3参照画像及びターゲット画像における対応する画素点の1つの色成分の数値に対して加重オーバーレイを行い、加重オーバーレイされた結果を第3画像における対応する画素点の1つの色成分の数値とする。1つの色成分(例えば、赤色成分、緑色成分、青色成分)を例として、第3参照画像における1つの画素点の該色成分の数値に加重係数(例えば40%)をかけ、ターゲット画像における1つの画素点の該色成分の数値に(1-加重係数)(例えば60%)をかけ、2つの結果を加算し、得られた結果を第3画像における対応する画素点の該色成分の数値とする。実際の適用において、第2フュージョン処理方式において、alpha blendingアルゴリズムを利用してフュージョン処理を行うことができる。該フュージョン方式により、第3参照画像及びターゲット画像を比例に応じてフュージョン処理する。他の実施形態において、第3参照画像及びターゲット画像に対して、異なる加重係数を設定し、第3参照画像の1つの色成分値に比例係数1をかけた結果と、ターゲット画像における該色成分値に比例係数2をかけた結果とを加算し、加算結果を第3画像における対応する色成分の数値とする。ここで、比例係数1と比例係数2の和は、1でなくてもよい。
本願の幾つかの任意選択的な実施例において、ターゲット画像及び第1参照画像におけるターゲット対象の顔に対してフュージョン処理を行い、第3画像を得る前に、方法は、第1参照画像に対して最適化処理を行うことであって、最適化処理は、第1参照画像におけるターゲット対象の顔に対して行われる、美肌処理、美白処理、色調補正処理のうちの少なくとも1つの処理を含む、ことを更に含み、なお、ターゲット画像及び第1参照画像に基づいて、第3画像を生成することは、ターゲット画像及び最適化処理後の第1参照画像に基づいて、第3画像を生成し、顔フュージョン処理された画像効果をより美しくすることを含む。
本願の任意選択的な実施例において、方法は、第3画像に対して画像スタイル変換処理を行い、第5画像を得ることを更に含む。
本実施例において、様々な画像スタイルに対応するパラメータが予め設定されてもよい。画像スタイルは例えば、油絵調、中国画像スタイル等である。勿論、他の画像スタイルであってもよい。得られた第3画像がデフォルトスタイルである場合、画像スタイル変換需要があると決定された場合、例えば、画像スタイル変換命令を受信した場合、画像スタイル変換命令に応じて、対応する画像スタイルパラメータを決定し、画像スタイルパラメータに基づいて、第3画像に対して画像スタイル変換処理を行い、第5画像を得る。
実際の適用において、ヒューマンマシンインタラクション方式で画像スタイル変換命令を受信することができる。例えば、ヒューマンマシンインタラクションインタフェースに複数の画像スタイルボタンが表示され、ユーザは、ターゲット画像スタイルをトリガすることで、対応する画像スタイル変換命令を受信する。
本願の実施例の技術的解決手段によれば、第1態様において、異なる顔画像を1つの顔画像にフュージョンする。第2態様において、顔のキーポイントの検出により、顔キーポイント(例えば、顔器官及び輪郭等)を正確に位置決めし、顔フュージョン処理過程において、顔キーポイントに基づいて、対応するフュージョン処理又は変形処理を行い、顔フュージョン処理の効果を大幅に向上させる。第3態様において、鼻孔領域のガウスぼかし処理により、鼻孔領域を薄くすることで、顔フュージョン処理された鼻孔領域の黒色が目立つという問題を避け、顔フュージョン効果をある程度向上させ、顔のフュージョンをより自然にする。第4態様において、本実施例は、IDWアルゴリズムにより第2画像に対して変形処理を行い、顔の五官の美観性に対する調整を実現させる。三角変形領域方式により第1参照画像を変形処理し、顔領域の変換を実現させる。第5態様において、本実施例は、第2参照画像及びターゲット画像に対して、平均値に基づいたフュージョン処理方式及び比例混合に基づいた処理方式で、フュージョン処理を行う。プロセスが簡単であり、処理効率を向上させる。
本願の実施例は、画像処理方法を更に提供する。図4は、本願の実施例による画像処理方法を示す第3フローチャートである。図4に示すように、前記方法は以下を含む。
ステップ301において、第1画像及び第2画像を取得する。
ステップ302において、第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得る。
ステップ303において、第1キーポイント情報及び第2キーポイント情報に基づいて第1変換関係を決定する。
ステップ304において、第1変換関係に基づいて、第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得る。
ステップ305において、第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得る。
ステップ306において、第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定する。
ステップ307において、第2変換関係に基づいて、第2画像に対して変形処理を行い、ターゲット画像を得る。
ステップ308において、ターゲット画像及び第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得る。
ステップ309において、第1画像と第2画像におけるターゲット対象の口部状態が異なっており、且つ第3画像におけるターゲット対象が開口状態である場合、歯テンプレート画像に基づいて、第3画像におけるターゲット対象に対して歯追加操作を行い、第4画像を生成する。
本実施例におけるステップ301からステップ308に関わる詳細な説明は、具体的には、前記実施例におけるステップ201からステップ208に関わる詳細な説明を参照することができ、ここで、詳細な説明を省略する。
本実施例のステップ309において、第1画像及び第2画像におけるターゲット対象はいずれも閉口状態であると、顔フュージョン処理された第3画像におけるターゲット対象も閉口状態である。第1画像及び第2画像におけるターゲット対象のうち、1つが閉口状態であり、もう1つが開口状態であると、顔フュージョン処理された第3画像におけるターゲット状態は、閉口状態であるか又は開口状態である。第3画像におけるターゲット対象が開口状態である場合、歯充填処理を行い、顔フュージョン效更をより自然にする。
本実施例において、複数の歯テンプレート画像を予め設定し、複数の歯テンプレート画像から1つの歯テンプレート画像を選択してターゲット対象の口部領域に追加し、ターゲット対象の歯の追加を実現させ、第4画像を生成する。実際の適用において、様々な歯テンプレート画像は、ターゲット対象の口部開放領域の形状に関わる。従って、第3画像におけるターゲット対象が開口状態である場合、画像認識アルゴリズムにより、ターゲット対象の口部開放領域の形状を認識し、該形状に基づいて、対応するカテゴリ識別子を決定する。複数の歯テンプレート画像は、対応するカテゴリ識別子をインデックスとすることができる。該カテゴリ識別子により、複数の歯テンプレート画像のインデックスを照会することで、カテゴリ識別子に対応する歯テンプレート画像を得る。歯テンプレート画像をターゲット対象の口部開放領域に追加し、歯の追加を実現させる。
本願の幾つかの任意選択的な実施例において、方法は、第4画像に対して画像スタイル変換を行い、第5画像を得ることを差に含む。
本実施例において、様々な画像スタイルに対応するパラメータが予め設定されてもよい。画像スタイルは例えば、油絵調、中国画像スタイル等である。勿論、他の画像スタイルであってもよい。得られた第4画像がデフォルトスタイルである場合、画像スタイル変換需要があると決定された場合、例えば、画像スタイル変換命令を受信した場合、画像スタイル変換命令に応じて、対応する画像スタイルパラメータを決定し、画像スタイルパラメータに基づいて、第4画像に対して画像スタイル変換処理を行い、第5画像を得る。
実際の適用において、ヒューマンマシンインタラクション方式で画像スタイル変換命令を受信することができる。例えば、ヒューマンマシンインタラクションインタフェースに複数の画像スタイルボタンが表示され、ユーザは、ターゲット画像スタイルをトリガすることで、対応する画像スタイル変換命令を受信する。
本実施例において、前記実施例に対応する有益な効果に加えて、第3画像が開口状態である場合について、歯の補充を実現させ、顔フュージョン処理された画像の口部の効果をより自然にする。
本願の実施例は、画像処理装置を更に提供する。図5は、本願の実施例による画像処理装置の構造を示す第1概略図である。図5に示すように装置は、取得ユニット41と、キーポイント検出ユニット42と、フュージョン処理ユニット43と、を備え、
取得ユニット41は、第1画像及び第2画像を取得するように構成され、
キーポイント検出ユニット42は、第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得るように構成され、
フュージョン処理ユニット43は、第1キーポイント情報及び第2キーポイント情報に基づいて変換関係を決定し、変換関係に基づいて、第1画像及び第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第1キーポイント情報及び第2キーポイント情報に基づいて、第1変換関係を決定し、第1変換関係に基づいて、第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得るように構成され、
キーポイント検出ユニット42は更に、第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得るように構成され、
フュージョン処理ユニット43は更に、第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定するように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第2変換関係に基づいて、第2画像におけるターゲット対象の顔に対して変形処理を行い、ターゲット画像を得て、ターゲット画像及び第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、第2キーポイント情報及び第3キーポイント情報は、いずれもキーポイントの座標情報を含み、フュージョン処理ユニット43は、第2キーポイント情報及び第3キーポイント情報に対して加重オーバーレイ処理を行い、第4キーポイント情報を得て、第2キーポイント情報及び第4キーポイント情報に基づいて、第2変換関係を決定するように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、ターゲット画像におけるターゲット対象の顔キーポイントを検出し、第5キーポイント情報を得て、第3キーポイント情報及び第5キーポイント情報に基づいて、第3変換関係を決定し、第3変換関係に基づいて、第1参照画像におけるターゲット対象の顔に対して変形処理を行い、第2参照画像を得て第2参照画像及び前記ターゲット画像に基づいて第3画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第2参照画像及びターゲット画像に対してフュージョン処理を行い、第3参照画像を得て、第3参照画像及びターゲット画像に対してフュージョン処理を行い、第3画像を得るように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第2参照画像における画素点に対応する画素値の第1平均値を決定し、記ターゲット画像における画素点に対応する画素値の第2平均値を決定し、第2参照画像における第1画素点の画素値と第1平均値に対して差分処理を行い、差と、第2平均値と、を加算処理し、第3参照画像を得るように構成され、前記第1画素点は、第2参照画像におけるいずれか1つの画素点である。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第3参照画像における第2画素点の画素値と、ターゲット画像における、第2画素点に対応する画素点の画素値と、を加重加算処理し、第3画像を得るように構成され、第2画素点は、第3参照画像におけるいずれか1つの画素点である。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、ターゲット画像及び第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得る前に、第1参照画像に対して最適化処理を行うように構成され、最適化処理は、第1参照画像におけるターゲット対象の顔に対して行われる、美肌処理、美白処理、色調補正処理のうちの少なくとも1つの処理を含み、フュージョン処理ユニット43は更に、ターゲット画像及び最適化処理後の第1参照画像に基づいて、第3画像を生成するように構成される。
本願の幾つかの任意選択的な実施例において、フュージョン処理ユニット43は、第2変換関係に基づいて、第2画像におけるターゲット対象の顔に対して変形処理を行う前に、第2画像におけるターゲット対象の鼻孔領域に対してガウスぼかし処理を行うように構成され、フュージョン処理ユニット43は更に、第2変換関係に基づいて、ガウスぼかし処理後の第2画像におけるターゲット対象の顔に対して変形処理を行うように構成される。
本願の幾つかの任意選択的な実施例において、前キーポイント検出ユニット42は、顔キーポイント検出アルゴリズムに基づいて、第1画像を検出し、第1画像の顔領域に含まれる各器官のキーポイント情報及び顔領域の縁の輪郭キーポイント情報を得るように構成される。
本願の幾つかの任意選択的な実施例において、キーポイント検出ユニット42は、顔領域における眼部以下の領域の第1組の輪郭キーポイント情報を得て、顔領域における額領域に関わるキーポイント情報に基づいて、額領域の第2組の輪郭キーポイント情報を決定し、第1組の輪郭キーポイント情報及び第2組の輪郭キーポイント情報に基づいて、顔領域の縁の輪郭キーポイント情報を決定するように構成される。
本願の幾つかの任意選択的な実施例において、前記第1キーポイント情報及び前記第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含み、前記外縁キーポイント情報は、前記顔領域の縁の輪郭キーポイント情報に対応する。
本願の幾つかの任意選択的な実施例において、前記キーポイント検出ユニット42は更に、前記顔領域の中心点を決定し、前記顔領域の縁の各輪郭キーポイントと前記中心点との距離を決定し、前記中心点に対する、各輪郭キーポイントの方向を決定し、第1輪郭キーポイントに対して、前記第1輪郭キーポイントに対応する方向に従って、顔領域の外部へ所定距離を延在させ、前記第1輪郭キーポイントに対応する外縁キーポイントを決定するように構成され、前記第1輪郭キーポイントは、前記顔領域の縁におけるいずれか1つの輪郭キーポイントである。
本願の幾つかの任意選択的な実施例において、図6に示すように、装置は、第1画像と第2画像におけるターゲット対象の口部状態が異なっており、且つ第3画像におけるターゲット対象が開口状態である場合、歯テンプレート画像に基づいて、第3画像における前記ターゲット対象に対して歯追加操作を行い、第4画像を生成するように構成される画像処理ユニット44を更に備える。
本願の幾つかの任意選択的な実施例において、図7に示すように、装置は、第3画像又は第3画像に対して歯追加操作を行うことで得られた第4画像に対して画像スタイル変換処理を行い、第5画像を得るように構成される画像スタイル変換処理ユニット45を更に備える。
本願の実施例において、画像処理装置における取得ユニット41、キーポイント検出ユニット42、フュージョン処理ユニット43、画像処理ユニット44及び画像スタイル変換処理ユニット45は、実際の適用において、中央演算処理装置(CPU:Central Processing Unit)、デジタル信号プロセッサ(DSP:Digital Signal Processor)、マイクロ制御ユニット(MCU:Microcontroller Unit)又はフィールドプログラマブルゲートアレイ(FPGA:Field-Programmable Gate Array)により実現可能である。
上記実施例で提供される画像処理装置が画像処理を行う場合、単に上述した各プログラムモジュールの区分を持って例を挙げて説明したが、実際の適用においては、必要に応じて上記処理を異なる機能モジュールで完成させ、即ち、設備の内部構造を様々なプログラムモジュールに区分することによって、上述した全部又は一部の処理を完成させることができることに留意されたい。なお、上記実施例で提供される画像処理装置は、画像処理方法と同一の構想に属し、その具体的な実現過程は、方法実施例を参照されたい。ここで詳細な説明を省略する。
本願の実施例は、電子機器を更に提供する。図8は、本願の実施例による電子機器のハードウェア構造を示す概略図である。図8に示すように、電子機器は、メモリ52と、プロセッサ51と、メモリ52に記憶されてプロセッサ51で実行される可能なコンピュータプログラムと、を備え、プロセッサ51が前記プログラムを実行する時、本願の実施例の方法のステップを実現させる。
電子機器における各ユニットはバスシステム53によって結合されることが理解されるべきである。バスシステム53は、これらの部材間の接続及び通信を実現するためのものであることが理解されるべきである。バスシステム53はデータバスを含む以外、電源バス、制御バス及び状態信号バスを含む。しかしながら、明確に説明するために、図8において、全てのバスをバスシステム53と表記する。
理解すべき点として、メモリ52は、揮発性メモリ又は不揮発性メモリであってもよいし、揮発性メモリと不揮発性メモリの両方であってもよい。ここで、不揮発性メモリは、読み取り専用メモリ(ROM:Read Only Memory)、プログラマブル読み取り専用メモリ(PROM:Programmable Read-Only Memory)、消去可能なプログラマブル読み取り専用メモリ(EPROM:Erasable Programmable Read-Only Memory)、電気的消去可能なプログラマブル読み取り専用メモリ(EEPROM:Electrically Erasable Programmable Read-Only Memory)、磁気ランダムアクセスメモリ(FRAM(登録商標):ferromagnetic random access memory)、フラッシュメモリ(Flash Memory)、磁気面メモリ、光ディスク、又は読み出し専用型光ディスク(CD-ROM:Compact Disc Read-Only Memory)であってもよい。磁気面メモリは、磁気ディスクメモリ又は磁気テープメモリであってもよい。揮発性メモリは、外部キャッシュとして用いられるランダムアクセスメモリ(RAM:Random Access Memory)であってもよい。非限定的な例証として、RAMは、スタティックランダムアクセスメモリ(SRAM:Static Random Access Memory)、同期スタティックランダムアクセスメモリ(SSRAM:Synchronous Static Random Access Memory)、ダイナミックランダムアクセスメモリ(DRAM:Dynamic Random Access Memory)、同期ダイナミックランダムアクセスメモリ(SDRAM:Synchronous Dynamic Random Access Memory)、ダブルデータレート同期ダイナミックランダムアクセスメモリ(DDRSDRAM:Double Data Rate Synchronous Dynamic Random Access Memory)、エンハンスト同期ダイナミックランダムアクセスメモリ(ESDRAM:Enhanced Synchronous Dynamic Random Access Memory)、同期リンクダイナミックランダムアクセスメモリ(SLDRAM:Synchlink Dynamic Random Access Memory)及びダイレクトラムバスランダムアクセスメモリ(DRRAM(登録商標):Direct Rambus Random Access Memory)などの多数の形態で使用可能である。本発明の実施例に記載されているメモリ52は、これら及び任意の他の適切な形態のメモリを含むが、これらに限定されないことに留意されたい。
上記本発明の実施例に開示された方法はプロセッサ51に適用されるか、又はプロセッサ51により実現される。プロセッサ51は、信号を処理する能力を有する集積回路チップであり得る。上記方法の各ステップは、実現する過程において、プロセッサ51におけるハードウェアの集積論理回路又はソフトウェアの形の指令により完成することができる。上記プロセッサ51は、汎用プロセッサ、DSP、又は他のプログラマブルロジックデバイス、ディスクリートゲート又はトランジスタロジックデバイス、ディスクリートハードウェアコンポーネント等であってもよい。プロセッサ51は、本発明の実施例に開示されている各方法、ステップ及び論理的ブロック図を実現又は実行することができる。汎用プロセッサはマイクロプロセッサであってもよいし、該プロセッサは如何なる従来のプロセッサ等であってもよい。本発明の実施例に開示されている方法のステップに合わせて、ハードウェア解読プロセッサによって実行し、又は解読プロセッサ内のハードウェアとソフトウェアモジュールとの組み合わせで実行して完成するように示す。ソフトウェアモジュールは、記憶媒体内に存在してもよい。該記憶媒体は、メモリ52内に位置し、プロセッサ51はメモリ52中の情報を読み取り、そのハードウェアと共に上記方法のステップを完了する。
例示的な実施例において、電子機器は、1つ又は複数の特定用途向け集積回路(ASIC:Application Specific Intergrated Circuit)、DSP、プログラマブルロジックデバイス(PLD:Programmable Logic Device)、複合プログラマブルロジックデバイス(CPLD:Complex Programmable Logic Device)、FPGA、汎用プロセッサ、コントローラ、MCU、マイクロプロセッサ(Microprocessor)、又は他の電子素子により実現され、前記方法を実行するために用いられる。
本願の実施例は、コンピュータ可読記憶媒体を更に提供する。前記コンピュータ可読記憶媒体に、コンピュータプログラムが記憶されており、該プログラムがプロセッサにより実行される時、本願の実施例に記載の方法のステップを実現させる。
本願の実施例は、プロセッサを更に提供する。前記プロセッサは、コンピュータプログラムを呼び出すように構成され、前記プロセッサは、前記プログラムを実行する時、本願の実施例に記載の方法のステップを実現させる。
本願で提供される幾つかの実施例において、開示される装置及び方法は、他の方式によって実現できることを理解すべきである。例えば、以上に記載した装置の実施例はただ例示的なもので、例えば、前記ユニットの分割はただロジック機能の分割で、実際に実現する時は他の分割方式によってもよい。例えば、複数のユニット又は組立体を組み合わせてもよいし、別のシステムに組み込んでもよい。又は若干の特徴を無視してもよいし、実行しなくてもよい。また、示したか或いは検討した相互間の結合又は直接的な結合又は通信接続は、幾つかのインターフェイス、装置又はユニットによる間接的な結合又は通信接続であってもよく、電気的、機械的または他の形態であってもよい。
分離部材として説明した該ユニットは、物理的に別個のものであってもよいし、そうでなくてもよい。ユニットとして示された部材は、物理的ユニットであってもよいし、そうでなくてもよい。即ち、同一の位置に位置してもよいし、複数のネットワークに分布してもよい。実際の需要に応じてそのうちの一部又は全てのユニットにより本実施例の方策の目的を実現することができる。
また、本願の各実施例における各機能ユニットは一つの処理ユニットに集積されてもよいし、各ユニットが物理的に別個のものとして存在してもよいし、2つ以上のユニットが一つのユニットに集積されてもよい。上記集積したユニットはハードウェアとして実現してもよく、ハードウェアとソフトウェア機能ユニットとの組み合わせで実現してもよい。
上記各方法に係る実施例の全部又は一部のステップはプログラム命令に係るハードウェアにより実現され、前記プログラムはコンピュータ読み取り可能な記憶媒体に記憶されてもよく、該プログラムが実行される時、上記方法の実施例におけるステップを実行し、前記記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスク又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含むことは、当業者でれば、理解すべきである。
又は、本願の上記集積したユニットがソフトウェア機能ユニットの形で実現され、かつ独立した製品として販売または使用されるとき、コンピュータにより読み取り可能な記憶媒体内に記憶されてもよい。このような理解のもと、本願の技術的解決手段は、本質的に、又は、従来技術に対して貢献をもたらした部分又は該技術的解決手段の一部は、ソフトウェア製品の形式で具現することができ、このようなコンピュータソフトウェア製品は、記憶媒体に記憶しても良く、また、コンピュータ機器(パーソナルコンピュータ、サーバ又はネットワーク装置など)に、本願の各実施例に記載の方法の全部又は一部のステップを実行させるための若干の命令を含む。前記の記憶媒体は、携帯型記憶装置、ROM、RAM、磁気ディスク、又は光ディスクなど、プログラムコードを記憶可能な各種の媒体を含む。
以上は本願の実施形態に過ぎず、本願の保護の範囲はそれらに制限されるものではなく、当業者が本願に開示された技術範囲内で容易に想到しうる変更や置換はいずれも、本願の保護範囲内に含まれるべきである。従って、本願の保護範囲は特許請求の範囲の保護範囲を基準とするべきである。
41 取得ユニット
42 キーポイント検出ユニット
43 フュージョン処理ユニット
44 画像処理ユニット
45 画像スタイル変換処理ユニット
51 プロセッサ
52 メモリ

Claims (19)

  1. 画像処理方法であって、
    第1画像及び第2画像を取得することと、
    前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、前記第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得ることであって、前記第1キーポイント情報及び前記第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含み、前記外縁キーポイント情報は、前記顔領域の縁の輪郭キーポイント情報に対応し、前記外縁キーポイント情報が対応する外縁キーポイントと前記顔領域の縁の輪郭キーポイント情報が対応する輪郭キーポイントとの間の領域は、前記顔領域の過渡領域である、ことと、
    前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定することと、
    前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることと、を含む、画像処理方法。
  2. 前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定することは、
    前記第1キーポイント情報及び前記第2キーポイント情報に基づいて、第1変換関係を決定することと、
    前記第1変換関係に基づいて、前記第1画像におけるターゲット対象の顔に対して変形処理を行い、第1参照画像を得ることと、
    前記第1参照画像におけるターゲット対象の顔キーポイントを検出し、第3キーポイント情報を得ることと、
    前記第2キーポイント情報及び第3キーポイント情報に基づいて、第2変換関係を決定することと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることは、
    前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行い、ターゲット画像を得ることと、
    前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、第3画像を得ることと、を含むことを特徴とする
    請求項2に記載の方法。
  4. 前記第2キーポイント情報及び前記第3キーポイント情報は、いずれもキーポイントの座標を含み、前記第2キーポイント情報及び第3キーポイント情報に基づいて第2変換関係を決定することは、
    前記第2キーポイントの座標及び前記第3キーポイントの座標に対して加重オーバーレイ処理を行い、第4キーポイント情報を得ることであって、前記第4キーポイント情報に第4キーポイントの座標が含まれる、ことと、
    前記第2キーポイントの座標及び前記第4キーポイントの座標に基づいて、前記第2変換関係を決定することと、を含むことを特徴とする
    請求項2に記載の方法。
  5. 前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得ることは、
    前記ターゲット画像におけるターゲット対象の顔キーポイントを検出し、第5キーポイント情報を得ることと、
    前記第3キーポイント情報及び前記第5キーポイント情報に基づいて、第3変換関係を決定することと、
    前記第3変換関係に基づいて、前記第1参照画像におけるターゲット対象の顔に対して変形処理を行い、第2参照画像を得ることと、
    前記第2参照画像及び前記ターゲット画像に基づいて前記第3画像を得ることと、を含むことを特徴とする
    請求項3に記載の方法。
  6. 前記第2参照画像及び前記ターゲット画像に基づいて、第3画像を得ることは、
    前記第2参照画像及び前記ターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることと、
    前記第3参照画像及び前記ターゲット画像に対してフュージョン処理を行い、前記第3画像を得ることと、を含むことを特徴とする
    請求項5に記載の方法。
  7. 前記第2参照画像及び前記ターゲット画像に対してフュージョン処理を行い、第3参照画像を得ることは、
    前記第2参照画像における画素点の画素値の第1平均値を決定し、前記ターゲット画像における画素点の画素値の第2平均値を決定することと、
    前記第2参照画像における第1画素点の画素値と前記第1平均値に対して差分処理を行い、差と前記第2平均値に対して加算処理を行い、第3参照画像を得ることと、を含み、
    前記第1画素点は、前記第2参照画像におけるいずれか1つの画素点であることを特徴とする
    請求項6に記載の方法。
  8. 前記第3参照画像及び前記ターゲット画像に対してフュージョン処理を行い、前記第3画像を得ることは、
    前記第3参照画像における第2画素点の画素値と、前記ターゲット画像における、前記第2画素点に対応する画素点の画素値と、を加重加算処理し、前記第3画像を得ることであって、前記第2画素点は、前記第3参照画像におけるいずれか1つの画素点である、ことを含むことを特徴とする
    請求項6に記載の方法。
  9. 前記ターゲット画像及び前記第1参照画像におけるターゲット対象の顔をフュージョンし、前記第3画像を得る前に、前記方法は、
    前記第1参照画像に対して最適化処理を行うことであって、前記最適化処理は、前記第1参照画像におけるターゲット対象の顔に対して行われる、美肌処理、美白処理、色調補正処理のうちの少なくとも1つの処理を含む、ことを更に含み、
    前記ターゲット画像及び前記第1参照画像に基づいて、第3画像を生成することは、
    前記ターゲット画像及び最適化処理後の第1参照画像に基づいて、第3画像を生成することを含むことを特徴とする
    請求項3に記載の方法。
  10. 前記第2変換関係に基づいて、前記第2画像におけるターゲット対象の顔に対して変形処理を行う前に、前記方法は、
    前記第2画像におけるターゲット対象の鼻孔領域に対してガウスぼかし処理を行うことを更に含み、
    前記第2変換関係に基づいて前記第2画像におけるターゲット対象の顔に対して変形処理を行うことは、前記第2変換関係に基づいて、ガウスぼかし処理後の第2画像におけるターゲット対象の顔に対して変形処理を行うことを含むことを特徴とする
    請求項3に記載の方法。
  11. 前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得ることは、
    顔キーポイント検出アルゴリズムに基づいて、前記第1画像を検出し、前記第1画像の顔領域に含まれる各器官のキーポイント情報及び前記顔領域の縁の輪郭キーポイント情報を得ることを含むことを特徴とする
    請求項1に記載の方法。
  12. 前記顔領域の縁の輪郭キーポイント情報を得ることは、
    前記顔領域における眼部以下の領域の第1組の輪郭キーポイント情報を得ることと、
    前記顔領域における額領域に関わるキーポイント情報に基づいて、前記額領域の第2組の輪郭キーポイント情報を決定することと、
    前記第1組の輪郭キーポイント情報及び前記第2組の輪郭キーポイント情報に基づいて、前記顔領域の縁の輪郭キーポイント情報を決定することと、を含むことを特徴とする
    請求項11に記載の方法。
  13. 前記外縁キーポイント情報を決定することは、
    前記顔領域の中心点を決定することと、
    前記顔領域の縁の各輪郭キーポイントと前記中心点との距離を決定し、前記中心点に対する、各輪郭キーポイントの方向を決定することと、
    第1輪郭キーポイントに対して、前記第1輪郭キーポイントに対応する方向に従って、顔領域の外部へ所定距離を延在させ、前記第1輪郭キーポイントに対応する外縁キーポイントを決定することであって、前記第1輪郭キーポイントは、前記顔領域の縁におけるいずれか1つの輪郭キーポイントである、こととを含むことを特徴とする
    請求項に記載の方法。
  14. 前記方法は、
    前記第1画像と前記第2画像におけるターゲット対象の口部状態が異なっており、且つ前記第3画像におけるターゲット対象が開口状態である場合、歯テンプレート画像に基づいて、前記第3画像における前記ターゲット対象に対して歯追加操作を行い、第4画像を生成することを更に含むことを特徴とする
    請求項1から13のうちいずれか一項に記載の方法。
  15. 前記方法は、前記第3画像又は前記第3画像に対して歯追加操作を行うことで得られた第4画像に対して画像スタイル変換処理を行い、第5画像を得ることを更に含むことを特徴とする
    請求項1から14のうちいずれか一項に記載の方法。
  16. 画像処理装置であって、前記装置は、取得ユニットと、キーポイント検出ユニットと、フュージョン処理ユニットと、を備え、
    前記取得ユニットは、第1画像及び第2画像を取得するように構成され、
    前記キーポイント検出ユニットは、前記第1画像におけるターゲット対象の顔キーポイントを検出し、第1キーポイント情報を得て、前記第2画像におけるターゲット対象の顔キーポイントを検出し、第2キーポイント情報を得るように構成され、
    前記第1キーポイント情報及び前記第2キーポイント情報は、顔領域に関わる外縁キーポイント情報を更に含み、前記外縁キーポイント情報は、前記顔領域の縁の輪郭キーポイント情報に対応し、前記外縁キーポイント情報が対応する外縁キーポイントと前記顔領域の縁の輪郭キーポイント情報が対応する輪郭キーポイントとの間の領域は、前記顔領域の過渡領域であり、
    前記フュージョン処理ユニットは、前記第1キーポイント情報及び前記第2キーポイント情報に基づいて変換関係を決定し、前記変換関係に基づいて、前記第1画像及び前記第2画像におけるターゲット対象の顔をフュージョンし、第3画像を得るように構成される、画像処理装置。
  17. コンピュータ可読記憶媒体であって、前記コンピュータ可読記憶媒体にコンピュータプログラムが記憶されており、該プログラムがプロセッサにより実行される時、請求項1から15のうちいずれか一項に記載の方法のステップを実現させる、コンピュータ可読記憶媒体。
  18. 電子機器であって、前記電子機器は、メモリと、プロセッサと、メモリに記憶されてプロセッサでの実行可能なコンピュータプログラムと、を備え、前記プロセッサが前記プログラムを実行する時、請求項1から15のうちいずれか一項に記載の方法のステップを実現させる、電子機器。
  19. プロセッサであって、前記プロセッサは、コンピュータプログラムを呼び出すように構成され、前記プロセッサは、前記プログラムを実行する時、請求項1から15のうちいずれか一項に記載の方法のステップを実現させる、プロセッサ。
JP2020566648A 2019-09-30 2020-04-28 画像処理方法、装置及び電子機器 Active JP7102554B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910944389.8 2019-09-30
CN201910944389.8A CN110728620A (zh) 2019-09-30 2019-09-30 一种图像处理方法、装置和电子设备
PCT/CN2020/087498 WO2021062998A1 (zh) 2019-09-30 2020-04-28 一种图像处理方法、装置和电子设备

Publications (2)

Publication Number Publication Date
JP2022507998A JP2022507998A (ja) 2022-01-19
JP7102554B2 true JP7102554B2 (ja) 2022-07-19

Family

ID=75275163

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020566648A Active JP7102554B2 (ja) 2019-09-30 2020-04-28 画像処理方法、装置及び電子機器

Country Status (4)

Country Link
US (1) US11461870B2 (ja)
EP (1) EP3971820A4 (ja)
JP (1) JP7102554B2 (ja)
KR (1) KR102391087B1 (ja)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113111791B (zh) * 2021-04-16 2024-04-09 深圳市格灵人工智能与机器人研究院有限公司 图像滤镜转换网络训练方法、计算机可读存储介质
CN113706428B (zh) * 2021-07-02 2024-01-05 杭州海康威视数字技术股份有限公司 一种图像生成方法及装置

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171470A (ja) 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
US20180068178A1 (en) 2016-09-05 2018-03-08 Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. Real-time Expression Transfer for Facial Reenactment
US20180204052A1 (en) 2015-08-28 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd. A method and apparatus for human face image processing
WO2019133266A1 (en) 2017-12-29 2019-07-04 Microsoft Technology Licensing, Llc Image transformation by fusion
US20190251684A1 (en) 2018-02-09 2019-08-15 Samsung Electronics Co., Ltd. Method and apparatus with image fusion

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2355789A (en) 1999-10-26 2001-05-02 Tricorder Technology Plc Surface registration
WO2006057267A1 (ja) * 2004-11-25 2006-06-01 Nec Corporation 顔画像合成方法および顔画像合成装置
KR20070068501A (ko) * 2005-12-27 2007-07-02 박현 2차원 칼라 얼굴 영상에서 반복적인 주성분분석 재구성을이용한 자동적인 잡음 제거
KR101605769B1 (ko) * 2009-05-11 2016-03-23 삼성전자주식회사 영상 처리 방법 및 장치, 이를 이용한 디지털 촬영 장치
KR101089287B1 (ko) 2010-06-09 2011-12-05 한국과학기술원 다중 얼굴 특징 정보 융합 기반 자동 얼굴 인식 장치 및 방법
CN103324904A (zh) 2012-03-20 2013-09-25 凹凸电子(武汉)有限公司 人脸识别系统及其方法
US9104908B1 (en) * 2012-05-22 2015-08-11 Image Metrics Limited Building systems for adaptive tracking of facial features across individuals and groups
TWM474207U (zh) 2013-07-11 2014-03-11 Imar Technology Co Ltd 行動商務身份證實之圖像辨識服務系統
KR20150039028A (ko) * 2013-10-01 2015-04-09 주식회사 이우소프트 치아교정 시뮬레이션 방법 및 이를 수행하는 시스템
CN103745237A (zh) 2013-12-26 2014-04-23 暨南大学 光照变化条件下的人脸识别算法
US9940695B2 (en) 2016-08-26 2018-04-10 Multimedia Image Solution Limited Method for ensuring perfect stitching of a subject's images in a real-site image stitching operation
US10939742B2 (en) 2017-07-13 2021-03-09 Shiseido Company, Limited Systems and methods for virtual facial makeup removal and simulation, fast facial detection and landmark tracking, reduction in input video lag and shaking, and a method for recommending makeup
CN109522773A (zh) * 2017-09-18 2019-03-26 丽宝大数据股份有限公司 身体信息分析装置及其脸型检测方法
US10733699B2 (en) * 2017-10-24 2020-08-04 Deep North, Inc. Face replacement and alignment
CN107993216B (zh) * 2017-11-22 2022-12-20 腾讯科技(深圳)有限公司 一种图像融合方法及其设备、存储介质、终端
CN109872379B (zh) * 2017-12-05 2022-12-02 富士通株式会社 数据处理装置和方法
CN108229330A (zh) 2017-12-07 2018-06-29 深圳市商汤科技有限公司 人脸融合识别方法及装置、电子设备和存储介质
CN108537135A (zh) 2018-03-16 2018-09-14 北京市商汤科技开发有限公司 对象识别及对象识别网络的训练方法和装置、电子设备
CN108985241B (zh) * 2018-07-23 2023-05-02 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
CN109147012B (zh) 2018-09-20 2023-04-14 麒麟合盛网络技术股份有限公司 图像处理方法和装置
CN109712080A (zh) 2018-10-12 2019-05-03 迈格威科技有限公司 图像处理方法、图像处理装置及存储介质
CN109598749B (zh) * 2018-11-30 2023-03-10 腾讯科技(深圳)有限公司 一种三维人脸模型的参数配置方法、装置、设备及介质
CN109657583B (zh) * 2018-12-10 2021-10-22 腾讯科技(深圳)有限公司 脸部关键点检测方法、装置、计算机设备和存储介质
CN109801249A (zh) 2018-12-27 2019-05-24 深圳豪客互联网有限公司 图像融合方法、装置、计算机设备和存储介质
CN109934766B (zh) * 2019-03-06 2021-11-30 北京市商汤科技开发有限公司 一种图像处理方法及装置
CN110163832B (zh) 2019-05-24 2021-06-08 北京百度网讯科技有限公司 人脸融合方法、装置和终端
CN113569791B (zh) * 2019-07-30 2022-06-21 北京市商汤科技开发有限公司 图像处理方法及装置、处理器、电子设备及存储介质
CN110443230A (zh) 2019-08-21 2019-11-12 北京百度网讯科技有限公司 人脸融合方法、装置以及电子设备
CN110728620A (zh) 2019-09-30 2020-01-24 北京市商汤科技开发有限公司 一种图像处理方法、装置和电子设备
JP2021077376A (ja) * 2019-11-07 2021-05-20 ハイパーコネクト インコーポレイテッド 画像変換装置及び方法、並びにコンピュータ読み取り可能な記録媒体

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013171470A (ja) 2012-02-21 2013-09-02 Kao Corp 顔画像合成装置及び顔画像合成方法
US20180204052A1 (en) 2015-08-28 2018-07-19 Baidu Online Network Technology (Beijing) Co., Ltd. A method and apparatus for human face image processing
US20180068178A1 (en) 2016-09-05 2018-03-08 Max-Planck-Gesellschaft Zur Förderung D. Wissenschaften E.V. Real-time Expression Transfer for Facial Reenactment
WO2019133266A1 (en) 2017-12-29 2019-07-04 Microsoft Technology Licensing, Llc Image transformation by fusion
US20190251684A1 (en) 2018-02-09 2019-08-15 Samsung Electronics Co., Ltd. Method and apparatus with image fusion

Also Published As

Publication number Publication date
KR102391087B1 (ko) 2022-04-27
US20210104012A1 (en) 2021-04-08
EP3971820A4 (en) 2022-08-10
JP2022507998A (ja) 2022-01-19
EP3971820A1 (en) 2022-03-23
KR20210041534A (ko) 2021-04-15
US11461870B2 (en) 2022-10-04

Similar Documents

Publication Publication Date Title
WO2021062998A1 (zh) 一种图像处理方法、装置和电子设备
JP7160925B2 (ja) 画像処理方法及び装置
US11055906B2 (en) Method, device and computing device of face image fusion
CN109063560B (zh) 图像处理方法、装置、计算机可读存储介质和终端
CN110175558B (zh) 一种人脸关键点的检测方法、装置、计算设备及存储介质
JP7102554B2 (ja) 画像処理方法、装置及び電子機器
US10878549B2 (en) Image generation device, image generation method, and storage medium storing program
CN110390632B (zh) 基于妆容模板的图像处理方法、装置、存储介质及终端
CN109961496B (zh) 表情驱动方法及表情驱动装置
JP2011107877A5 (ja)
TW202036467A (zh) 影像處理方法及裝置、圖像設備及儲存媒介
CN110084219B (zh) 界面交互方法及装置
CN105405157A (zh) 肖像画生成装置、肖像画生成方法
JP7138769B2 (ja) 画像処理方法、装置及びコンピュータ記憶媒体
WO2020029572A1 (zh) 人脸特征点检测方法及装置、设备及存储介质
CN111709302A (zh) 人脸表情检测方法、装置、头戴显示设备及存储介质
WO2024140081A1 (zh) 脸部图像处理方法、装置、计算机设备及存储介质
CN113592988A (zh) 三维虚拟角色图像生成方法及装置
WO2023273247A1 (zh) 人脸图像处理方法及装置、计算机可读存储介质、终端
JP7218769B2 (ja) 画像生成装置、画像生成方法、およびプログラム
CN113658035A (zh) 脸部变换方法、装置、设备、存储介质以及产品
CN114519663A (zh) 一种基于图像的形变方法、装置、设备及存储介质
CN110119674B (zh) 一种作弊检测的方法、装置、计算设备及计算机存储介质
CN113421197B (zh) 一种美颜图像的处理方法及其处理系统
Chou et al. Simulation of face/hairstyle swapping in photographs with skin texture synthesis

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201126

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201126

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220207

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220303

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220428

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220606

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220706

R150 Certificate of patent or registration of utility model

Ref document number: 7102554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150