JP6956252B2 - 顔表情合成方法、装置、電子機器及びコンピュータプログラム - Google Patents

顔表情合成方法、装置、電子機器及びコンピュータプログラム Download PDF

Info

Publication number
JP6956252B2
JP6956252B2 JP2020503323A JP2020503323A JP6956252B2 JP 6956252 B2 JP6956252 B2 JP 6956252B2 JP 2020503323 A JP2020503323 A JP 2020503323A JP 2020503323 A JP2020503323 A JP 2020503323A JP 6956252 B2 JP6956252 B2 JP 6956252B2
Authority
JP
Japan
Prior art keywords
image
facial expression
target
region
skin color
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020503323A
Other languages
English (en)
Other versions
JP2020529068A (ja
Inventor
永森 ▲鄭▼
▲暁▼▲龍▼ 朱
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tencent Technology Shenzhen Co Ltd
Original Assignee
Tencent Technology Shenzhen Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tencent Technology Shenzhen Co Ltd filed Critical Tencent Technology Shenzhen Co Ltd
Publication of JP2020529068A publication Critical patent/JP2020529068A/ja
Application granted granted Critical
Publication of JP6956252B2 publication Critical patent/JP6956252B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/90Determination of colour characteristics
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/162Detection; Localisation; Normalisation using pixel segmentation or colour matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30088Skin; Dermal
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Image Generation (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Processing Or Creating Images (AREA)

Description

本願は、2017年07月31日に中国特許庁に出願された、出願番号が201710640537.8で、発明の名称が「顔表情合成方法、装置及び電子機器」である中国特許出願の優先権を主張し、その全文を引用により本願に組み込む。
本願はデータ処理の技術分野に関し、具体的に顔表情合成方法、装置、電子機器及び記憶媒体に関する。
顔表情とは、喜び、驚き、悲しみ、恐れ、内気、怒り等々の目の筋肉、顔の筋肉及び口の筋肉の変化による様々な感情状態の表現を指す。顔表情は、微妙なボディランゲージとして、人々が感情情報を伝える重要な手段であり、顔画像に対して表情分析を行うことによって、ユーザの内なる世界を効果的に理解し、対面の交流をより鮮明にすることができる。
近年、顔表情の合成は、キャラクタアニメーション、ヒューマンコンピュータインタラクション及びテレビ会議などのアプリケーションで大きな注目を集めている。人々は、個人の興味又は実際のニーズに応じて、顔のある状態を複数の状態に置き換えて多様に表すことにより、公衆の娯楽性及び趣味性を向上させることができる。
関連技術では、一般的には、色ヒストグラム、肌色融合アルゴリズム及び直接貼り付け等の方式で、顔表情の置き換えを実現し、例えば、ユーザAの怒った口をユーザBの笑顔の口に置き換え、ユーザCの笑顔の一重まぶたの目をユーザDの怒った二重まぶたの目に置き換える。しかし、顔表情の変化は、顔特徴全体の動作変形(例えば、口や目の開閉)だけでなく、局所的な外観のわずかな変化も含む。従来の顔表情合成方法による合成効果は不十分であり、肌色融合が不均一で、顔器官の位置決めが不正確で、エッジが違和感を与えるなどの問題があり、顔表情の合成効率が低くなってしまう。
それに鑑みて、本願の実施例は、顔表情合成方法、装置、電子機器及び記憶媒体を提供することにより、従来の顔表情合成方法による合成画像に存在している肌色融合が不均一で、顔器官の位置決めが不正確で、エッジが違和感を与えるなどの技術的問題を解決する。
上記技術的問題を解決するために、本願の実施例は以下の技術案を提供する。
本願の実施例は顔表情合成方法を提供し、前記顔表情合成方法は、
ターゲットオブジェクトの処理待ち顔画像を取得し、顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得るステップと、
表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するステップと、
前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出するステップと、
前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るステップと、を含む。
本願の実施例はさらに顔表情合成装置を提供し、前記顔表情合成装置は、
ターゲットオブジェクトの処理待ち顔画像を取得するように構成される画像取得モジュールと、
顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得るように構成される画像処理モジュールと、
表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するように構成される画像選別モジュールと、
前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出するように構成される画像抽出モジュールと、
前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るように構成される画像融合モジュールと、を備える。
本願の実施例はさらに電子機器を提供し、前記電子機器は、
通信インタフェースと、
上記顔表情合成方法を実現する複数の命令を記憶するように構成されるメモリと、
ターゲットオブジェクトの処理待ち顔画像を取得し、顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得る命令と、表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別する命令と、前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出する命令と、前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得る命令と、を含む前記複数の命令をロードして実行するように構成されるプロセッサと、を備える。
上記技術案に基づき、本願の実施例は、ターゲット表情素材を選択して処理待ち顔画像と合成する際に、処理待ち顔画像と表情素材画像との肌色差を考慮して、選択したターゲット表情素材画像が処理待ち顔の肌色と非常に類似するようにし、ひいては同じであるようにする。それにより、抽出した領域画像を処理待ち顔画像に合成するときに、両者の間が完全に融合されることを確保し、最終的に得られた合成画像の肌色全体が調和し、自然であり、領域画像の表情の細部を保留し、顔器官の位置決め精度を向上させて、得られた合成画像はより鮮明になる。
本願の実施例に係る電子機器のハードウェア構造図である。 本願の実施例に係る顔表情合成方法のフローチャート図である。 本願の実施例に係る顔画像から抽出された顔特徴点の模式図である。 本願の実施例に係るターゲットオブジェクトの処理待ち顔画像の模式図である。 本願の実施例に係るターゲット表情素材画像の模式図である。 本願の実施例に係る図4bのターゲット表情素材画像に対して得られたターゲット合成領域である。 本願の実施例に係る図4bのターゲット表情素材画像において、図4cに示されるターゲット合成領域に対応する領域画像である。 本願の実施例に係るターゲット顔画像の模式図である。 本願の実施例に係るターゲット顔画像の模式図である。 本願の実施例に係る画像合成の模式図である。 本願の実施例に係る顔表情合成方法のシグナリング図である。 本願の実施例に係る処理待ち顔表情の選択インタフェースである。 本願の実施例に係る別の顔表情合成方法のフローチャート図である。 本願の実施例に係るターゲットオブジェクトの処理待ち顔画像である。 図9aの処理待ち顔画像に対して選別されたターゲット表情素材画像である。 図9bに示される領域画像を図9aの処理待ち顔画像に合成した合成画像である。 本願の実施例に係るターゲットオブジェクトの処理待ち顔画像である。 図9dの処理待ち顔画像に対して選別されたターゲット表情素材画像である。 図9eに示される領域画像を図9dの処理待ち顔画像に合成した合成画像である。 本願の実施例に係る顔表情合成装置の構造ブロック図である。 本願の実施例に係る別の顔表情合成装置の構造ブロック図である。 本願の実施例に係るさらに別の顔表情合成装置の構造ブロック図である。 本願の実施例に係るさらに別の顔表情合成装置の構造ブロック図である。
本願の実施例又は関連技術の技術案をより明瞭に説明するために、以下では実施例又は関連技術の説明に必要な図面を簡単に説明し、明らかなように、以下で説明される図面は単に本願の実施例であり、当業者にとって、創造的な労働を必要とせずに、これらの図面に基づいて他の図面を得ることができる。
以下では、本願の実施例の図面を参照しながら、本願の実施例の技術案を明瞭で完全に説明し、勿論、説明される実施例は本願の一部の実施例に過ぎず、全ての実施例ではない。本願の実施例に基づいて、当業者が創造的な労働を必要とせずに得る全ての他の実施例は、いずれも本願の保護範囲に属する。
なお、本願の実施例に係る顔表情合成方法はデータ処理能力を有する電子機器に適用できる。該電子機器はネットワーク側に設置されたサーバであってもよく、ユーザ側に設置されたPC(パーソナルコンピュータ)などの端末機器であってもよい。該コンピューティング機器は機能が本願の実施例に係る顔表情合成方法に応じたプログラムをロードすることによって、本願の実施例に係る顔表情合成方法を実施することができる。該プログラムはコンピューティング機器のメモリに記憶され、プロセッサにより呼び出されてプログラム機能を実現する。
好ましくは、図1は本願の実施例に係る電子機器のハードウェア構造のブロック図を示し、図1に示すように、該電子機器は、通信インタフェース11、メモリ12、プロセッサ13及び通信バス14などを備えてもよい。
本願の実施例では、通信インタフェース11、メモリ12、プロセッサ13、通信バス14はいずれも少なくとも1つを有し、通信インタフェース11、メモリ12、プロセッサ13は通信バス14を介して相互の通信を完了することができる。
好ましくは、通信インタフェース11は、通信モジュールのインタフェース、例えば、GSM(登録商標)モジュールのインタフェースであってもよく、他の機器とのデータインタラクション、例えば、表情素材ライブラリからフィードバックされた必要なターゲット表情素材画像の受信等々を実現するように構成される。
プロセッサ13は、中央処理装置(Central Processing Unit:CPUと略称)であってもよく、特定用途向け集積回路(Application Specific Integrated Circuit:ASICと略称)であってもよく、本願の実施例に係る顔表情合成方法を実施するように構成される1つ又は複数の集積回路であってもよい。
メモリ12は、高速RAMメモリを含んでもよく、不揮発性メモリ(non−volatile memory)、例えば、少なくとも1つのディスクメモリを含んでもよい。
本願では、メモリ12は、本願の実施例に係る顔表情合成方法を実現するための複数の命令からなるプログラムを記憶することができ、プロセッサ13は、メモリ12に記憶されているプログラムを呼び出してロードし、それにより、本願の実施例に係る顔表情合成方法を実現し、実現過程は以下の対応する実施例の説明を参照できる。
なお、図1に示される電子機器のハードウェア構造は好ましいものに過ぎず、必要に応じて、コンピューティング機器には、ディスプレイスクリーン、情報入力装置(キーボード、マウスなど)、グラフィックプロセッサ、画像コレクターなどが設置されてもよく、本願はここで一々詳しく説明しない。
以下、電子機器の観点から、本願の実施例に係る顔表情合成方法を説明し、以下で説明される方法ステップは電子機器が対応するプログラムを実行することによって実施する。
図2は本願の実施例に係る顔表情合成方法のフローチャート図であり、該方法は電子機器に適用でき、図2に示すように、該方法は、ステップS201〜ステップS205を含んでもよい。
ステップS201において、ターゲットオブジェクトの処理待ち顔画像を取得する。
本願では、顔画像は、2次元画像であってもよく、端末機器がカメラによって収集したターゲットオブジェクトを含む画像であってもよく、ローカル画像ライブラリから取得されたターゲットオブジェクトを含む画像であってもよく、他の機器から送信された画像であってもよく、本願はターゲットオブジェクトの顔画像の取得方式を限定しない。
好ましくは、本実施例に係る顔表情合成方法を実現する電子機器が端末機器である場合、実際のアプリケーションでは、端末機器は、カメラによって画像を直接収集し、収集した画像を顔検出アルゴリズムで処理し、該画像にターゲットオブジェクトの顔画像が存在するか否かを判断し、存在しないと、ターゲットオブジェクトの顔画像を取得するまで、次のフレームの画像に対して顔検出を行い続け、存在すると、ターゲットオブジェクトの顔領域部分を抽出して、処理待ち顔画像を得る。
勿論、端末機器はローカル画像ライブラリに記憶されている複数の顔画像を直接表示し、ユーザが必要に応じて、その中から1つの顔画像をターゲットオブジェクトの処理待ち顔画像として選択してもよい。また、端末機器は他の方式でターゲットオブジェクトの処理待ち顔画像を取得してもよく、例えば、ネットワークを介してウェブページからダウンロードする等々が挙げられ、本願はここで一々列挙しない。
本願の別の実施例として、本実施例に係る顔表情合成方法を実現する電子機器がサーバである場合、ユーザは端末機器によってターゲットオブジェクトの処理待ち顔画像を特定した後、該サーバに直接アップロードして後続の処理を行うことができる。
ステップS202において、顔認証技術を使用して処理待ち顔画像を処理し、処理待ち顔画像の肌色情報を得る。
好ましくは、本願では、ターゲットオブジェクトの処理待ち顔画像を取得した後、本願は顔特徴点位置決めアルゴリズムで、該処理待ち顔画像を処理することができ、自動的に位置決めされた複数の重要な顔特徴点、例えば、目、鼻先、口もと、眉毛及び顔各部の輪郭点等々は、図3の黒い点に示される。それにより、第1顔特徴点は処理待ち顔画像の複数の重要な顔特徴点であってもよい。
顔特徴点位置決めアルゴリズムは、アクティブな形状モデル(Active Shape Model:ASMと略称)アルゴリズム、アクティブな外観モデル(Active Appearance Model:AAMと略称)アルゴリズム等々をさらに含んでもよく、主に顔のテクスチャ特徴及び各特徴点間の位置制約を利用して実現され、本願は顔特徴点の識別の実現方法を詳しく説明しない。
好ましくは、上記各部の位置する領域の形状を決定するように、必要に応じて、特定された重要な顔特徴点をマーキングすることができ、本願は重要な顔特徴点のマーキング方法を限定しない。
肌色情報の検出が必要なターゲット合成領域及び/又は顔領域全体を特定した後、対応する領域内の顔特徴点を利用して、対応する多角形の図形を形成することができ、該多角形画像の頂点は対応する領域内の第1顔特徴点であってもよく、辺は、通常、対応する領域内の第1顔特徴点を含まず、例えば、図3の口境界の重要な特徴点を接続して形成された多角形の図形に示されるが、これに限定されない。
その後、本願は肌色検出アルゴリズムで、形成された各多角形の図形内の画像を検出し、対応する肌色情報を、ターゲット表情素材画像の後続の選別条件として得る。
なお、本願では、異なる選別条件に応じて、肌色情報を検出する必要がある領域(即ち、多角形の図形で囲まれる領域)は異なり、例えば、処理待ち顔画像の顔領域全体に対して肌色検出を行い、及び/又は口領域などのターゲット合成領域に対して肌色検出を行い、処理待ち顔画像における他の領域に対して肌色検出を行う。
異なる肌色情報の検出領域については、表情素材画像ライブラリにおける各表情素材画像の分類記憶方式が異なる必要があり、実現過程は以下の対応する実施例の説明を参照でき、本実施例はここで詳しく説明しない。
ステップS203において、表情素材画像ライブラリにおいて、該肌色情報とマッチングするターゲット表情素材画像を選別する。
実際のアプリケーションでは、異なるユーザの肌色が異なるため、同一表情素材を使用すると、ユーザの肌色要件を満たさないことが多く、処理待ち顔画像と表情素材画像を融合するときに、両者の肌色が大きく異なり、得られた合成画像は非常に不自然になってしまう。これに基づき、本願は、ターゲットオブジェクトの処理待ち顔表情合成用の素材を選別するときに、両者の肌色差の状況を考慮する。
好ましくは、表情素材画像ライブラリでは、その含まれる複数の表情素材画像を対応する肌色情報に応じて分類して記憶することができる。同一表情素材画像の光照射条件が異なる場合、検出される肌色情報が通常異なるため、本実施例では、同一表情素材画像に対して、光照射条件をさらに組み合わせて、肌色情報の分類記憶を実現してもよく、本願はその記憶方式を限定せず、例えば、テーブル対応関係表、マッピング関数などの方式であってもよく、本願はここで詳しく説明しない。
複数の表情素材画像を肌色情報に応じて分類するときに、各表情素材画像の顔全体の肌色情報、ターゲット合成領域の肌色情報及び/又は他の領域の肌色情報などの複数の肌色情報に基づいて分類することができ、それにより、表情素材画像の分類精度を向上させる。これに基づき、ターゲット表情素材画像を選別するときに、複数の肌色情報に応じて選別を実現することができ、選別された画像と処理待ち顔画像との肌色マッチング度を大幅に向上させ、最終的に得られたターゲット顔画像が自然であることを確保する。
好ましくは、本願は、顔識別アルゴリズムを採用して、各表情素材画像の顔画像領域、各部領域及び対応する肌色情報を取得することができ、実現方法は詳しく説明しない。
ステップS204において、ターゲット表情素材画像におけるターゲット合成領域に対応する領域画像を抽出する。
好ましくは、上記処理待ち顔画像におけるターゲット合成領域の取得方式と類似し、本願はターゲット表情素材画像の顔特徴点を識別し、得られた複数の顔特徴点を利用して、多角形の図形を形成することにより、ターゲット合成領域に対応する領域画像を取得することもできる。
例えば、ターゲットオブジェクトの顔画像が図4aに示され、取得されるターゲット表情素材画像が図4bに示されると仮定し、ターゲットオブジェクトの処理待ち顔画像における口領域を置き換え、即ち、ターゲット表情素材画像における口領域を処理待ち顔画像に合成する必要があると仮定する場合、ターゲット表情素材画像における口領域の重要な特徴点を接続して、図4cに示される多角形の図形を形成することにより、該多角形の図形に対応する図4dに示される領域画像を取得することができる。
なお、ターゲット表情素材画像におけるターゲット合成領域に対応する領域画像の抽出方式は、以上に説明された方式に限定されない。
ステップS205において、領域画像と処理待ち顔画像に対してポアソン融合処理を行って、ターゲットオブジェクトのターゲット顔画像を得る。
実際のアプリケーションでは、一般的な画像フィルタリング・ノイズ除去アルゴリズムは、画像に対してグローバル処理を行うこと、及び局所オペレータを使用することの2種類に大きく分けられ、グローバル処理の主な思想は、まず画像を数学的に変換し、次に変換ドメインでフィルタリングし、最終的に逆変換してノイズ除去後の画像を得ることであり、局所オペレータを使用する方法の主な思想は、ノイズ含有画像のある画素を処理し、該画素のみに対して局所オペレータを使用することであり、ノイズモデルを推定できない又は推定しにくい状況に適用でき、通常、従来の分野平均法、メディアンフィルタリングアルゴリズム及びテンプレート平滑化アルゴリズムなどを含むが、それら方法は、画像のノイズを効果的にフィルタリングすると同時に、画像のエッジ及び細部を不明瞭にし、画像の処理効果に悪影響をある程度与え、できるだけ多い細部情報を保持して合成後の画像を真実、自然にするという本来の意図に反する。
これに対して、本願は光照射などの要素の細部画像の空間位置情報を考慮し、ポアソンアルゴリズムで、取得された領域画像をフィルタリング処理し、フィルタリング後の画像をポアソン融合方法で、処理待ち顔画像に合成し、ターゲット顔画像を得る。ポアソンアルゴリズムで領域画像及び処理待ち顔画像への処理過程は以下の実施例の説明を参照でき、本実施例はここで詳しく説明しない。なお、ポアソンアルゴリズムで、領域画像と処理待ち顔画像の融合を実現する処理方法は、本願の以下の実施例に説明される方法に限定されず、本願はここでそれを例として説明する。
以上のように、本願は、ターゲット表情素材を選択する際に、処理待ち顔画像と表情素材画像との肌色差を考慮して、選択したターゲット表情素材画像と処理待ち顔との肌色が非常に類似し、ひいては同じであり、それにより、抽出した領域画像を処理待ち顔画像に合成するときに、両者を完全に融合することができ、得られた合成画像は肌色全体が自然で、滑らかである。
また、画像融合過程で、本願は、ポアソン融合方式で、取得された領域画像をフィルタリング処理し、処理後の表情の細部をより堅牢にし、合成結果の口領域のゴーストを減少させ、ターゲットオブジェクトの顔の光照射及び肌色情報を効果的に保持する。
好ましくは、上記画像の融合処理過程をより明瞭に説明するために、本願は図5に示される模式図を参照して説明し、図5の画像A(ImageA)は入力されたターゲットオブジェクトの処理待ち顔画像で、画像B(ImageB)は取得されたターゲット表情素材の領域画像である。
画像融合過程で、ImageBがImageAに基づいて色変換を行うとともに、自体画像の特徴細部、例えば、エッジ、コーナー、トランジションなどをある方式で保留できることは期待される。実際のアプリケーションでは、通常、ポアソンアルゴリズムにより、ImageBの絶対情報(例えば、色)の調整が許可されるが、ImageAに貼り付けた後、できるだけImageBの相対情報(例えば、画像勾配)が保留される。該技術的効果を実現するために、下式(1)でターゲット顔画像の境界制約を実現できるが、これに限定されない。
Figure 0006956252
式(1)中、Aは上記入力されたターゲットオブジェクトの処理待ち顔画像ImageAを示し、Bはターゲット表情素材の領域画像ImageBを示し、Hは合成後のターゲット顔画像を示し、∀(x,y)はHの全ての画素を示し、∂Bは領域画像ImageBの境界を示す。
本願では、画像融合処理後に得られたターゲット顔画像Hの境界上の画素は、通常、該境界上のAの画素と完全に同じであり、それにより、Bがその境界外側の画素とマッチングでき、Bの境界でのAの画素を内側にブレンドする。
合成後のターゲット顔画像の合成品質を確保し、合成されたターゲット顔画像の合成領域が違和感を与えないようにするために、通常、H内部の画素の勾配がB内部の画素の勾配に等しい必要があり、それに対して、本願は、画像の勾配スポット∇B(x,y)が該画素B(x,y)とその全ての隣接画素(例えば、画素B(x,y)と隣接するB(x−1,y)、B(x+1,y)、B(x,y−1)、B(x,y+1)などの4つの画素点)との差異の総和であると定義でき、即ち、下式(2)であり、この方式で画素の勾配を計算できるが、この画素勾配計算方法に限定されない。
Figure 0006956252
式(2)中、B(x,y)は画像Bの画素を示し、∇は画像画素の勾配符号を示す。
好ましくは、画素の勾配の計算過程で、ある画素の隣接画素が画像の境界画素である場合、式(3)でB内の画素を計算でき、得られる結果は、通常、固定値である。隣接画素が選択された画素境界外に位置する場合、該隣接画素を除外できる。
Figure 0006956252
(x,y)は2次元(2D)ネットワーク上で興味ある画素位置であり、Nは、Hの画素が境界を含む(画像の外側に拡大する画素数が4以下である)選択領域内に、実際に有する有効隣接画素の数量であり、Ωは境界を除外したB及びHの選択領域であり、局所「Ω」は選択領域の境界であり、(dx,dy)は{(−1,0)、(1,0)、(0,−1)、(0,1)}の部分集合に属する。好ましくは、上記式(3)は以下のとおり分解できる。
式(3)の等式左側では、H(x,y)とその全てのN個の隣接画素との差に対して総和計算を行うことによって、未知点H(x,y)の空間勾配を計算し、等式左側の第1の総和計算は、H(x,y)と選択領域Ωの他の画素点(x’,y’)との差を示し、(x’,y’)はH(x,y)の隣接画素の位置であり、第2の総和計算はH(x,y)と境界画素点との差異を示す。等式右側は単に(x,y)での画像Bの勾配であり、H(x,y)での新しい画像Hの勾配とマッチングすると期待される。
なお、カラー画像については、それぞれR、G、Bの3つのチャンネルの画素を方程式によって解くことができ、各チャンネルの解き過程は上記に説明された計算過程を参照でき、本願はここで一々詳しく説明しない。
図6は、本願の実施例に係る別の顔表情合成方法のシグナリング図であり、本実施例は電子機器の各構成ハードウェアの観点から説明するが、本実施例に説明されるこの実現方式に限定されない。図6に示すように、該方法は、以下のステップS601〜ステップS610を含んでもよい。
ステップS601において、画像コレクターはターゲットオブジェクトに対して画像収集を行って、処理待ち顔画像を得る。
本願では、顔認証技術を組み合わせて収集された画像を識別し、現在収集された画像に含まれるターゲットオブジェクトの顔情報を特定し、該画像を処理待ち顔画像とし、又は該画像の顔画像を処理待ち顔画像として抽出し、本願はこれを限定しない。
ステップS602において、画像コレクターは処理待ち顔画像をプロセッサに送信する。
なお、プロセッサが処理待ち顔画像を取得する方式は、本実施例で説明される画像コレクターが収集してプロセッサに送信する方式に限定されず、上記図2に対応する実施例の対応する部分で説明されたように、ローカルに記憶されたターゲットオブジェクトに関する複数の画像を取得し、次に、図7に示すように、ユーザが自分の需要に応じて、その中から1つの画像を、処理待ち顔画像として選択してもよく、本願はここで一々詳しく説明しない。
ステップS603において、プロセッサは処理待ち顔画像の第1顔特徴点を識別する。
図3に示すように、本願は顔特徴点位置決めアルゴリズムで、該処理待ち顔画像を処理することができ、自動的に位置決めされた複数の重要な顔特徴点は第1顔特徴点である。また、上記各部の位置する領域の形状を決定するように、必要に応じて、特定された重要な顔特徴点をマーキングすることができ、本願は重要な顔特徴点のマーキング方法を限定しない。
ステップS604において、プロセッサは第1顔特徴点のマーキング情報を利用して、処理待ち顔画像におけるターゲット合成領域の第1領域画像を決定する。
処理待ち顔画像の第1顔特徴点が眉毛、目、鼻、口及び顔の輪郭線に位置するため、得られた複数の重要な顔特徴点のマーキング情報に基づいて、ターゲットオブジェクトの各部(例えば、目、鼻、口、眉毛及び顔など)の形状、例えば、口領域、目領域、鼻領域等々を得ることができ、本実施例は口領域の置き換えのみを例として説明し、他の領域の置き換え方式はこれと類似し、本願はここで一々詳しく説明しない。
それにより、ターゲット合成領域は処理待ち顔画像における口領域であってもよく、第1領域画像は該処理待ち顔画像における口領域画像である。上記図3に示すように、重要な口特徴点を接続することによって、口領域及びその画像を決定することができるが、これに限定されない。
つまり、処理待ち顔画像におけるターゲット合成領域の第1顔特徴点に対応する多角形の図形を取得し、該多角形の図形の頂点はターゲット合成領域の第1顔特徴点であり、その辺は、通常、該第1顔特徴点を含まない。その後、該多角形の図形に対応する画像を、処理待ち顔画像の置き換える必要がある第1領域として抽出する。
ステップS605において、プロセッサは第1領域画像及び処理待ち顔画像における他の領域画像に対して肌色検出を行い、第1領域画像の第1肌色情報及び他の領域画像の第2肌色情報を決定する。
本願では、例えば、OpenCV皮膚検出アルゴリズム、異なる色空間領域分割に基づく皮膚アルゴリズムなどで、処理待ち顔画像の第1領域画像及び他の領域画像(特に、ターゲット合成領域と隣接する領域画像)に対する肌色検出を実現することができ、画像の肌色検出の実現過程については、本願はここで詳しく説明しない。本願は、得られた第1肌色情報及び第2肌色情報に含まれる内容、例えば、対応する部分の画素値などを限定しない。
それにより、上記第1肌色情報は、ターゲットオブジェクトの処理待ち顔画像の置き換える必要がある領域画像の肌色情報、即ち、口領域の肌色情報であり、第2肌色情報は、ターゲットオブジェクトの口以外の他の領域画像の肌色情報である。
本願の別の実施例として、本願は、上記方式で、処理待ち顔画像におけるターゲット合成領域のみに対して肌色検出を行って、対応する第1肌色情報を得てもよい。
ステップS606において、プロセッサは表情素材画像ライブラリを読み取り、第1肌色情報及び前記第2肌色情報とマッチングするターゲット表情素材画像を選別する。
本実施例では、表情素材画像ライブラリに対して画像選別を行うときに、ターゲット合成領域の肌色情報及び他の領域の肌色情報を同時に考慮し、得られたターゲット表情素材画像の精度を向上させ、さらに、最終的に得られた合成画像の肌色全体が自然で、滑らかであることを確保する。
本願の別の実施例として、実際のアプリケーションでは、ターゲットオブジェクトの顔の他の部分画像(即ち、ターゲット合成領域以外の領域の画像)を変える必要がない場合、顔の他の部分の肌色差異状況を考慮せず、第1ターゲット領域の肌色マッチング度を直接考慮してもよく、つまり、第1肌色情報とマッチングするターゲット表情素材画像を直接選別する。
なお、上記異なる選別方式の説明に基づき、本願では、表情素材画像ライブラリにおける各表情素材画像の分類記憶方式は異なる。第1肌色情報及び第2肌色情報を利用してターゲット表情素材画像の選別を行う必要がある場合、ターゲット合成領域の肌色情報及び他の領域の肌色情報などの少なくとも2つの標準に基づいて分類記憶を行うことができる。第1肌色情報を利用してターゲット表情素材画像の選別を行う必要がある場合、各表情素材画像のターゲット合成領域(即ち、上記ターゲットオブジェクトの顔表情と合成する領域)の肌色情報に基づいて分類記憶を行うことができる。本願は各表情素材画像の分類記憶方式を限定しない。
好ましくは、本願では、フォーム方式で各表情素材画像の顔画像領域、各部領域及び対応する肌色情報の記憶を実現することができ、このように、該フォームの選別条件(例えば、上記第1肌色情報及び第2肌色情報、又は第2肌色情報又は第1肌色情報のみ)を特定した後、それと該フォームの対応する項目の肌色情報とを比較し、例えば、第1肌色情報と第1ターゲット領域に対応する各表情素材画像の領域画像の肌色情報とを比較し、第2肌色情報と各表情素材画像の顔画像の肌色情報とを比較し、それにより、該第1肌色情報及び第2肌色情報とマッチングするターゲット表情素材画像を選別する。
本願の別の実施例として、表情素材画像を選別する前、本願は、表情素材画像の肌色情報と第1肌色情報とのマッチング値(例えば、類似値)の第1範囲、及び表情素材画像の肌色情報と第2肌色情報とのマッチング値の第2範囲を予め設定してもよい。このように、選別するときに、各表情素材画像の肌色情報に、第1肌色情報及び第2肌色情報の両方と同じ表情素材画像が存在するか否かを検出することができ、存在する場合、それを直接ターゲット素材画像とすることができ、存在しない場合、第2肌色情報とのマッチング度が第2範囲内にある表情素材画像に、第1肌色情報と最もマッチングする肌色情報に対応する表情素材画像をターゲット表情素材画像として選別し、又は第1肌色情報とのマッチング度が第1範囲内にある表情素材画像に、第2肌色情報と最もマッチングする肌色情報に対応する表情素材画像をターゲット表情素材画像として選別することができる。ユーザの設定に従って決められ、本願はこれを限定しない。
好ましくは、各表情素材画像の肌色情報に、第1肌色情報及び第2肌色情報の両方と同じ表情素材画像が存在しないと検出した場合、第1肌色情報とのマッチング度が第1範囲内にある表情素材画像、及び第2肌色情報とのマッチング度が第2範囲内にある複数の表情素材画像を選別し、これら複数の表情素材画像を表示し、ユーザが個人的な興味に応じて1つをターゲット表情素材画像として選択してもよい。
勿論、第1肌色情報又は第2肌色情報とマッチングするターゲット表情素材画像のみを選別する必要がある場合、第1肌色情報とマッチングするターゲット表情素材画像の選別を例として説明し、まず、各表情素材画像の肌色情報に、第1肌色情報と同じ表情素材画像が存在するか否かを検出し、存在する場合、それを直接ターゲット素材画像とすることができ、存在しない場合、該第1肌色情報と最もマッチングする肌色情報に対応する表情素材画像をターゲット表情素材画像として選別することができる。
好ましくは、本願の表情素材画像ライブラリは、電子機器のローカルに位置してもよく、ネットワーク側に位置してもよく、電子機器により第1肌色情報及び第2肌色情報がネットワーク側に送信されて、選別が行われ、選別されたターゲット表情素材画像が電子機器にフィードバックされ、過程は本実施例と類似し、本願は例を挙げて説明しない。
ステップS607において、プロセッサはターゲット表情素材画像の第2顔特徴点を識別し、第2顔特徴点を利用して、ターゲット表情素材画像におけるターゲット合成領域の第2領域画像を決定する。
ターゲット表情素材画像の第2顔特徴点の識別、及び第2領域画像の特定の実現方法は、上記処理待ち顔画像の第1顔特徴点の識別、及び第1領域画像の特定の実現方法についての説明を参照でき、本実施例はここで繰り返し説明しない。
実際のアプリケーションでは、ターゲット表情素材画像の第2顔特徴点(即ち、ターゲット表情素材の重要な特徴点、図3に示される黒い点)を特定した後、予め設定された要件に従って、処理待ち顔画像と合成するための第2領域画像を選択することができる。予め設定された要件は、処理待ち顔画像の置き換える必要がある第1領域画像に基づいて決められ、ターゲット合成領域を示す情報、例えば、ターゲット合成領域の空間座標などを含んでもよい。本願は該予め設定された要件に含まれる内容を限定しない。
上記図4a、図4b、図4c及び図4dに示すように、ターゲット合成領域は図4aの口領域であり、従って、本実施例では、選別によって、図4bに示されるターゲット表情素材画像を得た後、重要な特徴点からなる多角形の図形を利用して、図4dに示される口領域の画像、即ち、第2領域画像を得ることができる。つまり、ターゲット表情素材画像におけるターゲット合成領域の第2顔特徴点からなる多角形の図形を取得し、該多角形の図形に対応する第2領域画像を抽出して、ターゲット表情素材画像の、処理待ち顔表情と合成するための領域画像を得る。
好ましくは、取得された第2領域画像を処理待ち顔画像の置き換える必要がある領域と合致させ、つまり、得られた図4dに示される口領域の画像を図4aに示される処理待ち顔画像に融合し、該口寸法と顔寸法との関係を調和させることを確保するために、予め複数のサンプルユーザの顔画像によって得られた顔画像3次元モデルを利用して実現することができる。好ましくは、まず、顔画像3次元モデルにターゲット領域を特定し、次に、それぞれターゲットオブジェクトの処理待ち顔画像及びターゲット表情素材画像を該3次元モデルにマッピングし、それにより、第1領域画像及び第2領域画像を取得し、第1領域画像と第2領域画像を揃えて合致させることを確保する。
本願は、第2領域画像に対して拡大縮小処理を行うことにより、処理後の第2領域画像と処理待ち顔画像を全体的に調和させ、図4eに示される第2領域画像が小さすぎるなどの調和しない状況が発生し、得られる合成画像全体が不自然であることを回避することができる。
本願の別の実施例として、本願は、選別によってターゲット表情素材画像を得た後、且つ第2領域画像を抽出する前、ターゲット表情素材画像全体に対して拡大縮小処理を行ってもよく、それにより、処理後のターゲット表情素材画像と処理待ち顔画像を揃え、抽出された第2領域画像の処理待ち顔画像への合成の調和等々を確保する。
なお、第1領域画像及び第2領域画像の取得方法は、上記に説明された実現方式に限定されず、座標位置決めなどの方式で特定してもよく、本願はここで一々詳しく説明しない。
ステップS608において、プロセッサはポアソン融合方式で、第2領域画像を処理待ち顔画像に合成して、ターゲットオブジェクトのターゲット顔画像を得る。
好ましくは、上記実施例のポアソン融合方式の説明を参照し、ステップS608は、第2領域画像の画素及びその対応隣接画素を利用して、第2領域画像の画素勾配を計算するステップと、ポアソンアルゴリズムで第2領域画像を前記処理待ち顔画像に合成し、得られた合成画像の画素勾配を計算するステップと、合成画像の画素勾配が第2領域画像の画素勾配に等しいと確認した場合、該合成画像をターゲットオブジェクトのターゲット顔画像とするステップと、逆に、合成画像の画素勾配が第2領域画像の画素勾配に等しくないと確認した場合、合成画像の画素勾配が第2領域画像の画素勾配に等しくなるまで、第2領域画像の画素を調整して、得られるターゲット顔画像の調和を確保するステップと、を含んでもよい。
ステップS609において、プロセッサは得られたターゲット顔画像をディスプレイに送信する。
好ましくは、合成画像の共有を実現するように、プロセッサは得られたターゲット顔画像をメモリに送信して記憶してもよく、又はネットワーク側に送信してもよく、本願はその実現方法を限定しない。
ステップS610において、ディスプレイは該ターゲット顔画像を表示する。
本実施例では、ディスプレイに表示された図4fに示される合成画像に基づいて、ユーザにとって必要な画像であるか否かを判断することができ、NOである場合、ユーザに期待される合成画像を得るように、上記方式で改めて画像合成を行うことができる。
以上のように、本実施例では、処理待ち顔画像の置き換える必要がある領域の肌色情報、及び他の領域の肌色情報を組み合わせて、ターゲット表情素材画像の選別を実現し、ターゲット表情素材画像におけるターゲット合成領域の領域画像と処理待ち顔画像との合致度を大幅に向上させ、得られた合成画像の肌色全体が調和し、自然であることを確保し、顔器官の位置決めを確保し、領域画像の表情の細部を保留し、それにより、得られた合成画像はより鮮明になり、顔表情画像の合成効率を向上させる。
本願に係る顔表情合成技術案の上記説明に基づき、ソーシャルプラットフォームなどの実際のアプリケーションでは、楽しみを増すために、上記画像合成方法を利用して、自分で選択した2つの顔画像に対して表情交換を行い、又は選択した1つの顔画像のある領域画像を利用して別の顔画像の対応する領域画像を置き換えることにより、顔の表情を変える結果を取得することができ、例えば、怒っているオブジェクトを喜んでいるオブジェクトに変える。
好ましくは、図8に示される顔表情合成方法のフローチャート図を参照し、ユーザがオブジェクトA(図9a又は図9d)の口の表情を置き換えようとする場合、上記方式で、オブジェクトA及びその口領域の肌色情報を組み合わせて、画像合成を実現するオブジェクトBの画像を選択することができる。例えば、図9aに示される処理待ち顔画像に対して、図9bに示されるターゲット表情素材画像を選別し、図9dに示される処理待ち顔画像に対して、図9eに示されるターゲット表情素材画像を選別する。その後、領域画像の抽出及び前処理を行い、ポアソン融合アルゴリズムで、オブジェクトBの口領域をオブジェクトAの画像に融合し、それにより、オブジェクトAはオブジェクトBの口の表情を有する。例えば、図9cに示される合成画像は、図9aの口を閉じて笑う口を、図9bに示される口を開けて笑う口に置き換え、図9fに示される合成画像は、図9dの歯をむき出して笑う口を、図9eに示される舌を出す口に置き換える。
それにより、本願は上記方式でターゲットオブジェクトの様々な表情を得ることができ、ユーザが顔表情を使用するときの楽しみを増す。
なお、本願の上記ターゲット合成領域は口領域に限定されず、目領域、鼻領域等々であってもよく、実現方法は類似し、本願はここで一々詳しく説明しない。
図10は、本願の実施例に係る顔表情合成装置の構造ブロック図であり、該装置は電子機器に適用され、該電子機器は端末機器又はサーバなどであってもよく、つまり、本願に係る該装置は端末側又はネットワーク側に適用でき、構成構造が同じであり、本願はこれをそれぞれ説明しない。本実施例では、該装置は、画像取得モジュール101と、画像処理モジュール102と、画像選別モジュール103と、画像抽出モジュール104と、画像融合モジュール105と、を備えてもよい。
画像取得モジュール101は、ターゲットオブジェクトの処理待ち顔画像を取得するように構成される。
好ましくは、本願では、画像取得モジュール101は、画像コレクターを介して処理待ち顔画像を取得してもよく、通信インタフェースを介して他の機器から伝送された処理待ち顔画像を取得してもよく、本願はこれを限定しない。
画像処理モジュール102は、顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得るように構成される。
好ましくは、図11に示すように、該画像処理モジュール102は、
前記処理待ち顔画像の第1顔特徴点を識別するように構成される第1顔特徴点識別ユニット1021と、
前記第1顔特徴点を利用して、前記処理待ち顔画像におけるターゲット合成領域の第1領域画像を決定するように構成される第1領域画像決定ユニット1022と、
前記第1領域画像に対して肌色検出を行って、第1肌色情報を得るように構成される第1肌色検出ユニット1023と、を備えてもよい。
顔特徴点の抽出及び画像の肌色検出方法は、上記実施例の対応する部分の説明を参照でき、本実施例はここで繰り返し説明しない。
また、図11に示すように、該画像処理モジュール102は、
前記処理待ち顔画像における他の領域画像に対して肌色検出を行って、第2肌色情報を得るように構成される第2肌色検出ユニット1024をさらに備えてもよい。
画像処理モジュール102の異なる構成は、ターゲット表情素材画像を選別する選別根拠が異なるように構成される。
画像選別モジュール103は、表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するように構成される。
本願では、画像処理モジュール102が第1肌色情報又は第2肌色情報のみを取得する場合、該画像選別モジュール103は、第1肌色情報又は第2肌色情報とマッチングするターゲット表情素材画像を選別するように構成され、画像処理モジュール102が第1肌色情報及び第2肌色情報を取得する場合、該画像選別モジュール103は、第1肌色情報及び第2肌色情報とマッチングするターゲット表情素材画像を選別するように構成される。
異なる選別方式に対して、表情素材画像ライブラリ内に各表情素材画像を記憶する方式は異なってもよく、内容は上記方法実施例の対応する部分の説明を参照できる。
画像抽出モジュール104は、前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出するように構成される。
好ましくは、図12に示すように、画像抽出モジュール104は、
前記ターゲット表情素材画像の第2顔特徴点を識別するように構成される第2顔特徴点識別ユニット1041と、
前記第2顔特徴点を利用して、前記ターゲット表情素材画像において、ターゲット合成領域に対応する第2領域画像を決定するように構成される第2領域画像決定ユニット1042と、を備えてもよい。
画像融合モジュール105は、前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るように構成される。
好ましくは、図13に示すように、該画像融合モジュール105は、
前記領域画像の画素及びその対応隣接画素を利用して、前記領域画像の画素勾配を計算するように構成される画素勾配計算ユニット1051と、
ポアソンアルゴリズムで前記領域画像を前記処理待ち顔画像に合成し、得られた合成画像の画素勾配を計算するように構成される画像合成ユニット1052と、
前記合成画像の画素勾配が前記領域画像の画素勾配に等しいと確認した場合、前記合成画像を前記ターゲットオブジェクトのターゲット顔画像とするように構成されるターゲット顔画像特定ユニット1053と、
前記合成画像の画素勾配が前記領域画像の画素勾配に等しくないと確認した場合、前記合成画像の画素勾配が前記領域画像の画素勾配に等しくなるまで、前記領域画像の画素を調整するように構成される領域画像調整ユニット1054と、を備えてもよい。
本願の別の実施例として、上記各実施例に基づき、該装置は、
前記処理待ち顔画像に基づいて、前記ターゲット表情素材画像に対して拡大縮小処理を行って、処理後のターゲット表情素材画像が前記処理待ち顔画像に揃うようにするように構成される画像調整モジュールをさらに備えてもよい。
なお、画像融合処理の前に、領域画像の調整方法は画像調整モジュールの方式に限定されず、上記方法実施例の対応する部分の説明を参照でき、本実施例はここで繰り返し説明しない。
以上のように、本願では、ターゲットオブジェクトの処理待ち顔画像のある領域の表情画像を変更する必要がある場合、該領域の肌色情報及び他の領域の肌色情報に基づいて、肌色がマッチングするターゲット表情素材画像を選択することができ、それにより、該ターゲット表情素材画像から得られるターゲット合成領域の領域画像を処理待ち顔画像に合成して得られる合成画像の肌色全体が調和することを確保し、且つ領域画像の表情の細部を保留し、合成画像がより鮮明になる。本願は顔特徴点に基づきターゲット合成領域を位置決めするため、置き換える必要がある器官の位置決め精度を確保し、顔表情画像の合成効率を向上させる。
以上、主に顔表情合成装置の機能モジュールを説明し、以下、ハードウェア構成の観点から、電子機器のハードウェア構造を説明する。
上記図1に示される電子機器のハードウェア構造図を参照し、該電子機器は、通信インタフェース11、メモリ12及びプロセッサ13を備えてもよい。
通信インタフェース11は、他の機器との通信を実現し、又はローカルメモリ12に記憶された表情素材画像を読み取るように構成される。
メモリ12は、上記顔表情合成方法を実現する複数の命令を記憶するように構成される。
プロセッサ13は、
ターゲットオブジェクトの処理待ち顔画像を取得し、顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得る命令と、
表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別する命令と、
前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出する命令と、
前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得る命令と、を含む、メモリ12に記憶された複数の命令をロードして実行するように構成される。
本願の実施例はさらに記憶媒体を提供する。好ましくは、本実施例では、上記記憶媒体には、実行するときにデータロード方法を実行するように構成されるコンピュータプログラムが記憶されている。
好ましくは、本実施例では、上記記憶媒体は、上記実施例に示されるネットワークにおける複数のネットワーク機器のうちの少なくとも1つのネットワーク機器に位置してもよい。
好ましくは、本実施例では、記憶媒体は、
ターゲットオブジェクトの処理待ち顔画像を取得し、顔認証技術を使用して前記処理待ち顔画像を処理し、前記処理待ち顔画像の肌色情報を得るステップS1と、
表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するステップS2と、
前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出するステップS3と、
前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るステップS4と、を実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、前記処理待ち顔画像の第1顔特徴点を識別するステップと、前記第1顔特徴点を利用して、前記処理待ち顔画像におけるターゲット合成領域の第1領域画像を決定するステップと、前記第1領域画像に対して肌色検出を行って、第1肌色情報を得るステップと、を実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、表情素材画像ライブラリにおいて、前記第1肌色情報とマッチングするターゲット表情素材を選別するステップを実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、前記処理待ち顔画像における他の領域画像に対して肌色検出を行って、第2肌色情報を得るステップを実行するためのプログラムコードを記憶するように構成され、表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するステップは、表情素材画像ライブラリにおいて、前記第1肌色情報及び前記第2肌色情報とマッチングするターゲット表情素材を選別するステップを含む。
好ましくは、記憶媒体はさらに、前記ターゲット表情素材画像の第2顔特徴点を識別するステップと、前記第2顔特徴点を利用して、前記ターゲット表情素材画像において、ターゲット合成領域に対応する第2領域画像を決定するステップと、を実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出する前、前記処理待ち顔画像に基づいて、前記ターゲット表情素材画像に対して拡大縮小処理を行って、処理後のターゲット表情素材画像が前記処理待ち顔画像に揃うステップを実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、前記ターゲット表情素材画像におけるターゲット合成領域の顔特徴点に対応する多角形の図形を取得するステップであって、前記多角形の図形の頂点が前記ターゲット合成領域の顔特徴点であるステップと、前記多角形の図形に対応する画像を、処理待ち顔表情と合成するための領域画像として抽出するステップと、を実行するためのプログラムコードを記憶するように構成される。
好ましくは、記憶媒体はさらに、前記領域画像の画素及びその対応隣接画素を利用して、前記領域画像の画素勾配を計算するステップと、ポアソンアルゴリズムで前記領域画像を前記処理待ち顔画像に合成し、得られた合成画像の画素勾配を計算するステップと、前記合成画像の画素勾配が前記領域画像の画素勾配に等しいと確認した場合、前記合成画像を前記ターゲットオブジェクトのターゲット顔画像とするステップと、前記合成画像の画素勾配が前記領域画像の画素勾配に等しくないと確認した場合、前記合成画像の画素勾配が前記領域画像の画素勾配に等しくなるまで、前記領域画像の画素を調整するステップと、を実行するためのプログラムコードを記憶するように構成される。
好ましくは、本実施例の具体的な例は上記実施例に説明された例を参照でき、本実施例はここで繰り返し説明しない。
好ましくは、本実施例では、上記記憶媒体は、Uディスク、読み出し専用メモリ(ROM:Read−Only Memory)、ランダムアクセスメモリ(RAM:Random Access Memory)、モバイルディスク、磁気ディスク又は光ディスクなどのプログラムコードを記憶できる様々な媒体を含むが、それらに限定されない。
本明細書の各実施例は進歩的な方法で説明され、各実施例の説明の焦点は、他の実施例との相違点であり、各実施例の同一又は類似の部分については、相互に参照をしてもよい。実施例に開示されている装置及び電子機器は、実施例に開示されている方法に対応するので、簡単に説明され、関連部分については方法部分の説明を参照すればよい。
当業者であれば、本明細書に開示されている実施例に説明された各例のユニット及びアルゴリズムステップは、電子ハードウェア、コンピュータソフトウェア又はそれら2つの組み合わせで実現可能であることを理解でき、ハードウェアとソフトウェアとの交換性を明瞭に説明するために、上記の説明では、機能の観点から各例の構成及びステップを一般的に説明した。これらの機能がハードウェアそれともソフトウェア形態で実行されるかは、技術案の特定応用及び設計制約条件に決められる。当業者は各特定の応用に対して異なる方法で説明された機能を実現することができ、この実現は本願の範囲を超えると見なされるべきではない。
本明細書に開示されている実施例に説明された方法又はアルゴリズムのステップは、直接ハードウェアや、プロセッサによって実行されるソフトウェアモジュールや、又はそれら2つの組み合わせで実施されてもよい。ソフトウェアモジュールは、ランダムアクセスメモリ(RAM)、メモリ、読み出し専用メモリ(ROM)、電気的プログラマブルROM、電気的消去可能プログラマブルROM、レジスタ、ハードディスク、リムーバブル磁気ディスク、CD−ROM、又は技術分野において周知の他の形の任意の記憶媒体に配置されてもよい。
開示された実施例の上記説明によって、当業者は本願を実施又は使用することができる。これらの実施例の様々な変更は当業者にとって明らかである。本明細書に定義される一般原理は、本願の精神又は範囲を逸脱することなく他の実施例で実施されることができる。したがって、本願は本明細書に記載されるこれらの実施例に限定されるものではなく、本明細書に開示されている原理及び新しい特徴と一致している最大の範囲で認められるものとする。
101 画像取得モジュール
102 画像処理モジュール
103 画像選別モジュール
104 画像抽出モジュール
105 画像融合モジュール

Claims (6)

  1. 電子機器が実行する顔表情合成方法であって、
    ターゲットオブジェクトの処理待ち顔画像を取得し、記処理待ち顔画像に対して肌色検出を行い、前記処理待ち顔画像の肌色情報を得るステップと、
    表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するステップと、
    前記処理待ち顔画像に基づいて、前記ターゲット表情素材画像に対して拡大縮小処理を行って、拡大縮小処理後のターゲット表情素材画像が前記処理待ち顔画像に揃うようにするステップと、
    前記処理待ち顔画像の第1顔特徴点を識別するステップと、
    前記第1顔特徴点を利用して、前記処理待ち顔画像におけるターゲット合成領域を決定し、および、前記ターゲット合成領域の第1領域画像を決定するステップと、
    前記ターゲット表情素材画像の第2顔特徴点を識別するステップと、
    前記第2顔特徴点を利用して、前記ターゲット表情素材画像において、前記ターゲット合成領域に対応する第2領域画像を抽出するステップと、 前記第2領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るステップと、を含
    前記処理待ち顔画像の肌色情報を得るステップは、
    前記第1領域画像に対して肌色検出を行って、第1肌色情報を得ることと、
    前記処理待ち顔画像における他の領域画像に対して肌色検出を行って、第2肌色情報を得ることとを含み、
    前記表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別するステップは、
    表情素材画像ライブラリにおいて、前記第1肌色情報及び前記第2肌色情報とマッチングするターゲット表情素材を選別することを含む、
    顔表情合成方法。
  2. 記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出するステップは、
    前記ターゲット表情素材画像におけるターゲット合成領域の顔特徴点に対応する多角形の図形を取得するステップであって、前記多角形の図形の頂点が前記ターゲット合成領域の顔特徴点であるステップと、
    前記多角形の図形に対応する画像を、処理待ち顔表情と合成するための領域画像として抽出するステップと、を含む、請求項1に記載の顔表情合成方法。
  3. 前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得るステップは、
    前記領域画像の画素及びその対応隣接画素を利用して、前記領域画像の画素勾配を計算するステップと、
    ポアソンアルゴリズムで前記領域画像を前記処理待ち顔画像に合成し、得られた合成画像の画素勾配を計算するステップと、
    前記合成画像の画素勾配が前記領域画像の画素勾配に等しいと確認した場合、前記合成画像を前記ターゲットオブジェクトのターゲット顔画像とするステップと、
    前記合成画像の画素勾配が前記領域画像の画素勾配に等しくないと確認した場合、前記合成画像の画素勾配が前記領域画像の画素勾配に等しくなるまで、前記領域画像の画素を調整するステップと、を含む、請求項1に記載の顔表情合成方法。
  4. 請求項1から3のいずれか一項に記載の方法を行うように構成された顔表情合成装置
  5. 電子機器であって、
    通信インタフェースと、
    請求項1からのいずれか1項に記載の顔表情合成方法を実現する複数の命令を記憶するように構成されるメモリと、
    ターゲットオブジェクトの処理待ち顔画像を取得し前記処理待ち顔画像に対して肌色検出を行い、前記処理待ち顔画像の肌色情報を得る命令と、表情素材画像ライブラリにおいて、前記肌色情報とマッチングするターゲット表情素材画像を選別する命令と、前記ターゲット表情素材画像において、ターゲット合成領域に対応する領域画像を抽出する命令と、前記領域画像と前記処理待ち顔画像に対してポアソン融合処理を行って、前記ターゲットオブジェクトのターゲット顔画像を得る命令と、を含む前記複数の命令をロードして実行するように構成されるプロセッサと、を備える、電子機器。
  6. 顔表情合成装置のコンピュータに、前記請求項1からのいずれか1項に記載の顔表情合成方法を実行させるためのコンピュータプログラ
JP2020503323A 2017-07-31 2018-07-26 顔表情合成方法、装置、電子機器及びコンピュータプログラム Active JP6956252B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201710640537.8 2017-07-31
CN201710640537.8A CN109325988B (zh) 2017-07-31 2017-07-31 一种面部表情合成方法、装置及电子设备
PCT/CN2018/097180 WO2019024751A1 (zh) 2017-07-31 2018-07-26 一种面部表情合成方法、装置、电子设备及存储介质

Publications (2)

Publication Number Publication Date
JP2020529068A JP2020529068A (ja) 2020-10-01
JP6956252B2 true JP6956252B2 (ja) 2021-11-02

Family

ID=65233347

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020503323A Active JP6956252B2 (ja) 2017-07-31 2018-07-26 顔表情合成方法、装置、電子機器及びコンピュータプログラム

Country Status (5)

Country Link
US (1) US11030439B2 (ja)
JP (1) JP6956252B2 (ja)
KR (1) KR102304674B1 (ja)
CN (1) CN109325988B (ja)
WO (1) WO2019024751A1 (ja)

Families Citing this family (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110276837B (zh) * 2019-05-24 2023-07-21 联想(上海)信息技术有限公司 一种信息处理方法、电子设备
CN110264544B (zh) * 2019-05-30 2023-08-25 腾讯科技(深圳)有限公司 图片处理方法和装置、存储介质及电子装置
CN110322416B (zh) * 2019-07-09 2022-11-18 腾讯科技(深圳)有限公司 图像数据处理方法、装置以及计算机可读存储介质
CN112785533B (zh) * 2019-11-07 2023-06-16 RealMe重庆移动通信有限公司 图像融合方法、图像融合装置、电子设备与存储介质
CN111104878A (zh) * 2019-12-06 2020-05-05 江西开心玉米网络科技有限公司 一种图像处理方法、装置、服务器及存储介质
CN117115078A (zh) * 2019-12-25 2023-11-24 上海肇观电子科技有限公司 图像处理方法、电路、视障辅助设备、电子设备及介质
CN111402115B (zh) * 2020-03-10 2024-02-20 维沃移动通信有限公司 一种图像处理方法及电子设备
CN111507896B (zh) * 2020-04-27 2023-09-05 抖音视界有限公司 图像液化处理方法、装置、设备和存储介质
CN111598051B (zh) * 2020-06-16 2023-11-14 腾讯科技(深圳)有限公司 一种脸部验证方法、装置、设备及可读存储介质
CN111815653B (zh) * 2020-07-08 2024-01-30 深圳市梦网视讯有限公司 一种人脸与身体肤色区域的分割方法、系统和设备
CN111860380B (zh) * 2020-07-27 2024-07-23 平安科技(深圳)有限公司 人脸图像生成方法、装置、服务器及存储介质
KR102384983B1 (ko) * 2020-09-28 2022-04-29 김상철 연예인의 얼굴 이미지와 사용자의 얼굴 이미지 간의 이미지 합성이 가능한 전자 단말 장치 및 그 동작 방법
CN112991358A (zh) * 2020-09-30 2021-06-18 北京字节跳动网络技术有限公司 风格图像生成方法、模型训练方法、装置、设备和介质
CN112270369A (zh) * 2020-11-05 2021-01-26 Oppo广东移动通信有限公司 图像处理方法、图像处理装置、电子设备
CN112766215B (zh) * 2021-01-29 2024-08-09 北京字跳网络技术有限公司 人脸图像处理方法、装置、电子设备及存储介质
CN112766234B (zh) * 2021-02-23 2023-05-12 北京市商汤科技开发有限公司 图像处理方法及装置、电子设备和存储介质
USD969216S1 (en) * 2021-08-25 2022-11-08 Rebecca Hadley Educational poster
CN113781666A (zh) * 2021-09-15 2021-12-10 广州虎牙科技有限公司 图像生成方法、装置及电子设备
KR102639187B1 (ko) 2021-10-28 2024-02-22 씨제이올리브네트웍스 주식회사 얼굴 합성 서비스를 제공하는 방법 및 이를 위한 장치
CN114067407A (zh) * 2021-11-19 2022-02-18 北京奇艺世纪科技有限公司 一种表情驱动方法、装置、电子设备及存储介质
CN115272151A (zh) * 2022-08-05 2022-11-01 北京字跳网络技术有限公司 图像处理方法、装置、设备及存储介质

Family Cites Families (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2006023046A1 (en) * 2004-06-21 2006-03-02 Nevengineering, Inc. Single image based multi-biometric system and method
JP2007122561A (ja) * 2005-10-31 2007-05-17 Kddi Corp 携帯端末装置および似顔絵データ提供システム
US8620038B2 (en) * 2006-05-05 2013-12-31 Parham Aarabi Method, system and computer program product for automatic and semi-automatic modification of digital images of faces
CN101324961B (zh) * 2008-07-25 2011-07-13 上海久游网络科技有限公司 计算机虚拟世界中人脸部三维贴图方法
CN101770649B (zh) * 2008-12-30 2012-05-02 中国科学院自动化研究所 一种人脸图像自动合成方法
KR20120005587A (ko) * 2010-07-09 2012-01-17 삼성전자주식회사 컴퓨터 시스템에서 얼굴 애니메이션 생성 방법 및 장치
CN102479388A (zh) * 2010-11-22 2012-05-30 北京盛开互动科技有限公司 基于人脸跟踪和分析的表情互动方法
US9013489B2 (en) * 2011-06-06 2015-04-21 Microsoft Technology Licensing, Llc Generation of avatar reflecting player appearance
JP5880182B2 (ja) * 2012-03-19 2016-03-08 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
KR20150113751A (ko) * 2014-03-31 2015-10-08 (주)트라이큐빅스 휴대용 카메라를 이용한 3차원 얼굴 모델 획득 방법 및 장치
CN105184249B (zh) * 2015-08-28 2017-07-18 百度在线网络技术(北京)有限公司 用于人脸图像处理的方法和装置
CN105389787A (zh) * 2015-09-30 2016-03-09 华为技术有限公司 一种全景图像拼接方法及装置
CN106056650A (zh) * 2016-05-12 2016-10-26 西安电子科技大学 基于快速表情信息提取和泊松融合的人脸表情合成方法
CN106303233B (zh) * 2016-08-08 2019-03-15 西安电子科技大学 一种基于表情融合的视频隐私保护方法
CN106682632B (zh) * 2016-12-30 2020-07-28 百度在线网络技术(北京)有限公司 用于处理人脸图像的方法和装置

Also Published As

Publication number Publication date
KR102304674B1 (ko) 2021-09-23
KR20200027030A (ko) 2020-03-11
WO2019024751A1 (zh) 2019-02-07
US20200167550A1 (en) 2020-05-28
US11030439B2 (en) 2021-06-08
CN109325988A (zh) 2019-02-12
JP2020529068A (ja) 2020-10-01
CN109325988B (zh) 2022-11-11

Similar Documents

Publication Publication Date Title
JP6956252B2 (ja) 顔表情合成方法、装置、電子機器及びコンピュータプログラム
US11010896B2 (en) Methods and systems for generating 3D datasets to train deep learning networks for measurements estimation
CN109359538B (zh) 卷积神经网络的训练方法、手势识别方法、装置及设备
JP6636154B2 (ja) 顔画像処理方法および装置、ならびに記憶媒体
Liao et al. Automatic caricature generation by analyzing facial features
EP3335195A2 (en) Methods of generating personalized 3d head models or 3d body models
Kumar et al. A comprehensive survey on non-photorealistic rendering and benchmark developments for image abstraction and stylization
CN111046763B (zh) 一种人像卡通化的方法和装置
JP2009020761A (ja) 画像処理装置及びその方法
CN111008935B (zh) 一种人脸图像增强方法、装置、系统及存储介质
CN107025678A (zh) 一种3d虚拟模型的驱动方法及装置
WO2019142127A1 (en) Method and system of creating multiple expression emoticons
US20160086365A1 (en) Systems and methods for the conversion of images into personalized animations
CN114283052A (zh) 妆容迁移及妆容迁移网络的训练方法和装置
Rosin et al. Artistic minimal rendering with lines and blocks
KR20230085931A (ko) 얼굴 이미지에서 색상을 추출하기 위한 방법 및 시스템
Wang et al. Where2stand: A human position recommendation system for souvenir photography
CN114155569B (zh) 一种化妆进度检测方法、装置、设备及存储介质
Laishram et al. High-quality face caricature via style translation
US9916497B2 (en) Automated embedding and blending head images
Shah et al. All smiles: automatic photo enhancement by facial expression analysis
JP2009521065A (ja) カリカチュア生成システムとその方法およびその記録媒体
KR20120118462A (ko) 이미지 기반의 비주얼 헐에서의 오목 표면 모델링
CN107133956A (zh) 自适应深度引导非真实感呈现方法及设备
KR100618493B1 (ko) 3차원 영상 자동 생성 장치 및 그 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200318

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210419

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210426

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210726

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210913

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20211004

R150 Certificate of patent or registration of utility model

Ref document number: 6956252

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250