JP7159357B2 - 画像処理方法及び装置、電子機器並びに記憶媒体 - Google Patents

画像処理方法及び装置、電子機器並びに記憶媒体 Download PDF

Info

Publication number
JP7159357B2
JP7159357B2 JP2020570186A JP2020570186A JP7159357B2 JP 7159357 B2 JP7159357 B2 JP 7159357B2 JP 2020570186 A JP2020570186 A JP 2020570186A JP 2020570186 A JP2020570186 A JP 2020570186A JP 7159357 B2 JP7159357 B2 JP 7159357B2
Authority
JP
Japan
Prior art keywords
image
rendered
region
feature point
target
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020570186A
Other languages
English (en)
Other versions
JP2022512048A (ja
Inventor
リウ スー
Original Assignee
ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド filed Critical ベイジン・センスタイム・テクノロジー・デベロップメント・カンパニー・リミテッド
Publication of JP2022512048A publication Critical patent/JP2022512048A/ja
Application granted granted Critical
Publication of JP7159357B2 publication Critical patent/JP7159357B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/10Geometric effects
    • G06T15/20Perspective computation
    • G06T15/205Image-based rendering
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/11Region-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/18Eye characteristics, e.g. of the iris
    • G06V40/193Preprocessing; Feature extraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30004Biomedical image processing
    • G06T2207/30041Eye; Retina; Ophthalmic
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Computer Graphics (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Computing Systems (AREA)
  • Geometry (AREA)
  • Ophthalmology & Optometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

(関連出願の相互参照)
本開示は、2019年11月22日に提出された出願番号201911154806.5、名称「画像処理方法及び装置、電子機器並びに記憶媒体」の中国特許出願に基づく優先権を主張し、該中国特許出願の全内容が参照として本開示に組み込まれる。
本開示は、画像処理技術分野に関し、特に画像処理方法及び装置、電子機器並びに記憶媒体に関する。
画像レンダリングは、三次元の光エネルギー伝達を二次元画像に変換するプロセスである。シーン及びエンティティは、三次元形態で表され、現実世界に、より近似し、操縦及び変換が容易である。しかしながら、ターゲット対象に対してレンダリングを行う過程において、レンダリングに滲みが発生しやすい。
本開示は、画像処理の技術的解決手段を提供する。
本開示の一態様によれば、画像処理方法を提供する。前記方法は、
ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識することと、
前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成することであって、前記タグは、前記第2対象の被覆範囲を記録するためのものである、ことと、
前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することであって、前記レンダリングされるべき領域は、前記タグに対応する被覆領域内に位置する、ことと、
ターゲット素材を利用して前記レンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成することと、を含む。
1つの可能な実現形態において、前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成することは、
前記ターゲット画像と同じサイズの第1初期画像を生成することと、
前記第1初期画像において、前記第2対象の被覆領域をタグ付けし、前記参照画像を得ることと、を含む。
1つの可能な実現形態において、前記第1初期画像において、前記第2対象の被覆領域をタグ付けし、前記参照画像を得ることは、
前記第1初期画像において、前記第2対象の被覆領域に含まれる少なくとも1つの画像点をターゲット画素値に変更し、前記参照画像を得ることを含む。
1つの可能な実現形態において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することは、
前記ターゲット画像と同じサイズの第2初期画像を生成することと、
前記第2初期画像において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することと、を含む。
1つの可能な実現形態において、前記第2初期画像において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することは、
前記第2初期画像において、前記第1対象に対応する領域を初期レンダリングされるべき領域とすることと、
前記初期レンダリングされるべき領域の画素ドットをトラバースし、前記参照画像における、前記画素ドットに対応する位置に、前記タグが含まれる場合、前記画素ドットをレンダリングされるべき画素ドットとすることと、
前記レンダリングされるべき画素ドットからなる領域を前記レンダリングされるべき領域とすることと、を含む。
1つの可能な実現形態において、前記ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識することは、
前記ターゲット画像に対して特徴抽出を行い、前記第1対象に対応する第1特徴点集合及び前記第2対象に対応する第2特徴点集合をそれぞれ得ることと、
前記第1特徴点集合に含まれる第1特徴点を第1所定の方式で連結し、前記第1対象に対応する領域を得ることと、
前記第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、前記第2対象に対応する領域を得ることと、を含む。
1つの可能な実現形態において、前記第1特徴点に含まれる第1特徴点を第1所定の方式で連結し、前記第1対象に対応する領域を得ることは、
少なくとも3つの前記第1特徴点を一組として、前記第1特徴点集合を分割し、少なくとも一組の第1特徴点サブ集合を得ることと、
少なくとも一組の前記第1特徴点サブ集合に含まれる前記第1特徴点を順次連結し、少なくとも1つの第1メッシュを得ることと、
前記少なくとも1つの第1メッシュで被覆される領域を第1対象に対応する領域とすることと、を含む。
1つの可能な実現形態において、前記第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、前記第2対象に対応する領域を得ることは、
少なくとも3つの前記第2特徴点を一組として、前記第2特徴点集合を分割し、少なくとも一組の第2特徴点サブ集合を得ることと、
少なくとも一組の前記第2特徴点サブ集合に含まれる前記第2特徴点を順次連結し、少なくとも1つの第2メッシュを得ることと、
前記少なくとも1つの第2メッシュで被覆される領域を第2対象に対応する領域とすることと、を含む。
1つの可能な実現形態において、前記方法は、
前記ターゲット画像の透明度を変更し、変更結果を得ることと、
前記レンダリング結果と前記変更結果をフュージョンし、フュージョン画像を得ることと、を更に含む。
1つの可能な実現形態において、前記第1対象は、瞳を含み、前記第2対象は、眼を含み、前記ターゲット素材は、瞳を美しくするための素材を含む。
本開示の一態様によれば、画像処理装置を提供する。前記装置は、
ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識するように構成される認識モジュールと、
前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成するように構成される参照画像生成モジュールであって、前記タグは、前記第2対象の被覆範囲を記録するためのものである、参照画像生成モジュールと、
前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定するように構成されるレンダリングされるべき領域決定モジュールであって、前記レンダリングされるべき領域は、前記タグに対応する被覆領域内に位置する、レンダリングされるべき領域決定モジュールと、
ターゲット素材を利用して前記レンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成するように構成されるレンダリングモジュールと、を備える。
1つの可能な実現形態において、前記参照画像生成モジュールは、
前記ターゲット画像と同じサイズの第1初期画像を生成し、
前記第1初期画像において、前記第2対象の被覆領域をタグ付けし、前記参照画像を得るように構成される。
1つの可能な実現形態において、前記参照画像生成モジュールは更に、
前記第1初期画像において、前記第2対象の被覆領域に含まれる少なくとも1つの画像点をターゲット画素値に変更し、前記参照画像を得るように構成される。
1つの可能な実現形態において、レンダリングされるべき領域決定モジュールは、
前記ターゲット画像と同じサイズの第2初期画像を生成し、
前記第2初期画像において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定するように構成される。
1つの可能な実現形態において、前記レンダリングされるべき領域決定モジュールは更に、
前記第2初期画像において、前記第1対象に対応する領域を初期レンダリングされるべき領域とし、
前記初期レンダリングされるべき領域の画素ドットをトラバースし、前記参照画像における、前記画素ドットに対応する位置に、前記タグが含まれる場合、前記画素ドットをレンダリングされるべき画素ドットとし、
前記レンダリングされるべき画素ドットからなる領域を前記レンダリングされるべき領域とするように構成される。
1つの可能な実現形態において、前記認識モジュールは、
前記ターゲット画像に対して特徴抽出を行い、前記第1対象に対応する第1特徴点集合及び前記第2対象に対応する第2特徴点集合をそれぞれ得て、
前記第1特徴点集合に含まれる第1特徴点を第1所定の方式で連結し、前記第1対象に対応する領域を得て、
前記第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、前記第2対象に対応する領域を得るように構成される。
1つの可能な実現形態において、前記認識モジュールは更に、
少なくとも3つの前記第1特徴点を一組として、前記第1特徴点集合を分割し、少なくとも一組の第1特徴点サブ集合を得て、
少なくとも一組の前記第1特徴点サブ集合に含まれる前記第1特徴点を順次連結し、少なくとも1つの第1メッシュを得て、
前記少なくとも1つの第1メッシュで被覆される領域を第1対象に対応する領域とするように構成される。
1つの可能な実現形態において、前記認識モジュールは更に、
少なくとも3つの前記第2特徴点を一組として、前記第2特徴点集合を分割し、少なくとも一組の第2特徴点サブ集合を得て、
少なくとも一組の前記第2特徴点サブ集合に含まれる前記第2特徴点を順次連結し、少なくとも1つの第2メッシュを得て、
前記少なくとも1つの第2メッシュで被覆される領域を第2対象に対応する領域とするように構成される。
1つの可能な実現形態において、前記装置は、フュージョンモジュールを更に備え、前記フュージョンモジュールは、
前記ターゲット画像の透明度を変更し、変更結果を得て、
前記レンダリング結果と前記変更結果をフュージョンし、フュージョン画像を得るように構成される。
1つの可能な実現形態において、前記第1対象は、瞳を含み、前記第2対象は、眼を含み、前記ターゲット素材は、瞳を美しくするための素材を含む。
本開示の一態様によれば、電子機器を提供する。前記電子機器は、
プロセッサと、
プロセッサによる実行可能な命令を記憶するためのメモリと、を備え、
前記プロセッサは、上記画像処理方法を実行するように構成される。
本開示の一態様によれば、コンピュータ可読記憶媒体を提供する。前記コンピュータ可読記憶媒体には、コンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記画像処理方法を実現させる。
本開示の一態様によれば、コンピュータ可読コードを含んでいるコンピュータプログラムを提供する。前記コンピュータ可読コードが電子機器で実行されるときに、前記電子機器におけるプロセッサは、画像処理方法を実行する。
本開示の実施例に係る画像処理方法によれば、ターゲット画像におけるレンダリングされるべき第1対象、及び前記第1対象が所属する第2対象を認識し、ターゲット画像及び第2対象に基づいて、タグを含む参照画像を生成し、且つ参照画像及び第1対象に基づいて、タグに対応する被覆領域内に位置するレンダリングされるべき領域を決定することで、ターゲット素材を利用してレンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成する。上記プロセスにより、第1対象の所属する第2対象に基づいて生成された、タグを含む参照画像に基づいて、第1対象をレンダリングする場合、レンダリング範囲を制約することで、レンダリング結果の信頼性及び真実性を向上させることができる。
上記の一般的な説明及び後述する細部に関する説明は、例示及び説明のためのものに過ぎず、本開示を限定するものではないことが理解されるべきである。本発明の他の特徴及び態様は、下記の図面に基づく例示的な実施例の詳細な説明を参照すれば明らかになる。
本開示の一実施例による画像処理方法を示すフローチャートである。 本開示の一実施例によるターゲット画像を示す概略図である。 本開示の一実施例によるターゲット素材を示す概略図である。 本開示の一実施例による第1特徴点集合を示す概略図である。 本開示の一実施例による第2特徴点集合を示す概略図である。 本開示の一実施例による第2対象を示す概略図である。 本開示の一実施例による参照画像を示す概略図である。 本開示の一実施例によるレンダリング結果を示す概略図である。 本開示の一実施例によるフュージョン結果を示す概略図である。 本開示の一実施例による画像処理装置を示すブロック図である。 本開示の一実施例による電子機器を示すブロック図である。 本開示の一実施例による電子機器を示すブロック図である。
ここで添付した図面は、明細書に引き入れて本明細書の一部分を構成し、本開示に適合する実施例を示し、かつ、明細書とともに本開示の技術的解決手段を解釈することに用いられる。
以下、図面を参照しながら本開示の種々の例示的な実施例、特徴及び態様を詳しく説明する。図面における同一の符号は、同一または類似する機能を有する要素を示す。図面は、実施例の種々の態様を示しているが、特別な説明がない限り、必ずしも比率どおりの図面ではない。
ここで使用した「例示的」という用語は「例、実施例として用いられるか、または説明のためのものである」ことを意味する。ここで、「例示的なもの」として説明される如何なる実施例は、他の実施例より好適または有利であると必ずしも解釈されるべきではない。
本明細書において、用語「及び/又は」は、関連対象の関連関係を説明するためのものであり、3通りの関係が存在することを表す。例えば、A及び/又はBは、Aのみが存在すること、AとBが同時に存在すること、Bのみが存在するという3つの場合を表す。また、本明細書において、用語「少なくとも1つ」は、複数のうちのいずれか1つ又は複数のうちの少なくとも2つの任意の組み合わせを表す。例えば、A、B、Cのうちの少なくとも1つを含むことは、A、B及びCからなる集合から選ばれるいずれか1つ又は複数の要素を含むことを表す。
なお、本開示をより良く説明するために、以下の具体的な実施形態において具体的な細部を多く記載した。当業者は、これら具体的な詳細に関わらず、本開示は同様に実施可能であると理解すべきである。本発明の主旨を明確にするために、一部の実例において、当業者に熟知されている方法、手段、素子及び回路については詳しく説明しないことにする。
図1は、本開示の一実施例による画像処理方法を示すフローチャートである。該方法は、画像処理装置に適用可能である。画像処理装置は、端末装置、サーバ又は他の処理装置等であってもよい。ここで、端末装置は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器などであってもよい。
幾つかの可能な実現形態において、該画像処理方法は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。
図1に示すように、前記画像処理方法は、以下を含んでもよい。
ステップS11において、ターゲット画像におけるレンダリングされるべき第1対象、及びターゲット画像における、第1対象の所属する第2対象を認識する。
ステップS12において、ターゲット画像及び第2対象に基づいて、タグを含む参照画像を生成し、タグは、第2対象の被覆範囲を記録するためのものである。
ステップS13において、参照画像及び第1対象に基づいて、レンダリングされるべき領域を決定し、レンダリングされるべき領域は、タグに対応する被覆領域内に位置する。
ステップS14において、ターゲット素材を利用してレンダリングされるべき領域をレンダリングし、レンダリング結果を得る。
本開示の実施例に係る画像処理方法において、ターゲット画像におけるレンダリングされるべき第1対象、及び第1対象の所属する第2対象を認識し、ターゲット画像及び第2対象に基づいて、タグを含む参照画像を生成し、参照画像及び第1対象に基づいて、タグに対応する被覆領域内に位置するレンダリングされるべき領域を決定することで、ターゲット素材を利用してレンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成する。上記プロセスにより、第1対象の所属する第2対象に基づいて生成された、タグを含む参照画像に基づいて、第1対象をレンダリングする場合、レンダリング範囲を制約することで、レンダリング結果の信頼性及び真実性を向上させることができる。
上記実施例において、ターゲット画像の実現方式は限定されるものではない。レンダリングを必要とする如何なる画像はいずれもターゲット画像の実現方式とてもよい。1つの可能な実現形態において、ターゲット画像は、例えば、アバター画像、半身画像又は全身画像などのような、顔領域を含む対象であってもよい。
図2は、本開示の一実施例によるターゲット画像を示す概略図である。図示されるように、本開示の実施例において、ターゲット画像は、顔を含むアバター画像であってもよい。ターゲット画像におけるレンダリングされるべき第1対象の具体的なコンテンツを実際のレンダリング需要に応じて確認することもでき、これは、本開示の実施例に限定されない。
1つの可能な実現形態において、ターゲット画像が顔領域を含む対象である場合、第1対象は、瞳、鼻梁、耳たぶ又は唇などのような、顔における1つの部位であってもよい。それは、実際の需要に応じて決定されてもよい。第1対象の所属する第2対象の具体的なコンテンツは、第1対象の実際の状況に応じて柔軟に決定されてもよい。例えば、第1対象が瞳である場合、第2対象は、眼であってもよい。第1対象が鼻梁である場合、第2対象は、鼻であってもよい。第1対象が耳たぶである場合、第2対象は、耳であってもよい。第1対象が唇である場合、第2対象は、口部であってもよい。なお、ターゲット画像の数も限定されるものではない。1つの可能な実現形態において、ターゲット画像は、一枚のピクチャを含んでもよく、複数のピクチャを含んでもよい。つまり、複数枚のピクチャにおける対象を一括してレンダリングする。
ターゲット画像、第1対象及び第2対象の実現方式がいずれも実際の状況に応じて柔軟に決定されてもよいため、ターゲット画像及び第2対象に基づいて生成された参照画像、参照画像に含まれるタグ、参照画像及び第1対象に基づいて決定されたレンダリングされるべき領域は、いずれもターゲット画像などの実現形態に応じて柔軟に変わってもよい。ここで、詳細に説明しないようにする。詳細は、下記各実施例を参照されたい。
上記実施例のステップS14から分かるように、レンダリング結果は、ターゲット素材に基づいてレンダリングされるべき領域をレンダリングすることで得られるものであってもよい。ターゲット素材の実現方式は、第1対象の実際の状況に応じて柔軟に設定されてもよい。下記各実施例に限定されるものではない。例えば、第1対象が瞳である場合、該ターゲット素材は、瞳を美しくする素材であってもよい。第1対象が鼻梁である場合、該ターゲット素材は、陰影素材であってもよい。第1対象が耳たぶである場合、該ターゲット素材は、イヤリング素材であってもよい。第1対象が唇である場合、該ターゲット素材は、口紅素材であってもよい。
1つの可能な実現形態において、第1対象は、瞳対象を含んでもよく、第2対象は、眼対象を含んでもよく、ターゲット素材は、瞳を美しくするための素材を含んでもよい。一例において、瞳を美しくするための素材は、瞳美容素材であってもよい。該瞳美容素材の具体的なコンテンツは、柔軟に選択されて設定されてもよい。その取得方式は、実際の状況に応じて柔軟に決定されてもよい。一例において、瞳美容素材は、瞳美容素材ライブラリからランダムに選択されてもよい。一例において、瞳美容素材は、必要に応じて選択された特定の特定素材等であってもよい。図3は、本開示の一実施例によるターゲット素材を示す概略図である。図面から分かるように、本開示の例において、該ターゲット素材は、一定の光沢のあるテクスチャを有する紫色の瞳美容素材であってもよい(図面によって制限を受けるため、紫色は、図で見えていない)。
瞳対象を含む第1対象、眼対象を含む第2対象及び瞳美容素材を含む瞳美容素材により、本開示の実施例で提供される画像処理方法を、顔画像に対して瞳を美しくして処理するプロセスに適用することができる。これにより、眼対象に基づいて生成されたタグ付き参照画像により、レンダリング範囲を効果的に制約し、レンダリング過程において瞳美容素材を瞳外の領域にレンダリングする可能性を減少させる。
本開示の実施例の画像処理方法は、顔領域を含む画像の処理への適用に限定されず、任意の画像に適用可能であり、本開示は、これを限定するものではないことに留意されたい。
ターゲット画像の取得方式は、限定されず、下記実施例に限定されるものではない。1つの可能な実現形態において、読み取り又は受信の方式により、ターゲット画像を取得することができる。1つの可能な実現形態において、能動的な撮影又は他の能動的な取得方式により、ターゲット画像を得る。
上記実施例で得られたターゲット画像に基づいて、ステップステップS11によりターゲット画像における第1対象及び第2対象を認識することができる。ステップS11の実現形態は、限定されるものではない。1つの可能な実現形態において、ターゲット画像において対象検出を行う方式で、ターゲット画像におけるレンダリングされるべき第1対象及び第2対象を決定することができる。一例において、ターゲット画像において、第1対象に対する対象検出及び第2対象に対する対象検出をそれぞれ行うことができる。一例において、まず、ターゲット画像において第2対象に対する対象検出を行い、続いて、第2対象の検出結果に基づいて、ターゲット画像をトリミングし第2対象の画像を保留することもできる。第1対象が第2対象に属するため、トリミングされた画像において対象検出を更に行い、第1対象に対応する領域を得ることができる。
対象検出の方式は本開示の実施例において限定されるものではない。画像からターゲット対象を検出できる如何なる方式は、対象検出の実現形態としてもよい。1つの可能な実現形態において、特徴抽出により、対象検出を実現させる。
従って、1つの可能な実現形態において、ステップS11は、以下を含んでもよい。
ステップS111において、ターゲット画像に対して特徴抽出を行い、第1対象に対応する第1特徴点集合及び第2対象に対応する第2特徴点集合をそれぞれ得る。
ステップS112において、第1特徴点集合に含まれる第1特徴点を第1所定の方式で連結し、第1対象に対応する領域を得る。
ステップS113において、第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、第2対象に対応する領域を得る。
ターゲット画像に対して特徴抽出を行うことで、第1特徴点集合及び第2特徴点集合を得て、更に、第1特徴点集合における点を第1所定の方式で連結することで第1対象に対応する領域を得て、第2特徴点集合における点を第2所定の方式で連結することで連結することで第2対象に対応する領域を得る。ここで、第1対象に対応する領域は、第1対象の被覆領域と呼ばれてもよく、第2対象に対応する領域は、第2対象の被覆領域と呼ばれてもよい。
上記プロセスにより、特徴抽出により、第1特徴点集合及び第2特徴点集合に基づいて、ターゲット画像での、第1対象と第2対象の位置を迅速に位置決めすることで、第1対象に対応する領域及び第1対象の所属する第2対象に対応する領域を得ることができる。後続で、第2対象の位置により、第1対象のレンダリングプロセスを制約することを容易にし、レンダリング結果の信頼性を向上させる。
上記実施例において、ステップS111の実現形態は限定されるものではない。つまり、特徴抽出の具体的な形態は、本開示の実施例において限定されるものではない。特徴抽出を実行できる如何なる演算方法は、いずれもステップS111の実現形態としてもよい。
上記実施例に記載したように、第1対象及び第2対象に対する対象検出の順番は、実際の状況に応じて柔軟に選択されてもよい。特徴抽出は、対象検出の1つの可能な実現形態であるため、第1対象及び第2対象に対して同時に特徴抽出を行ってもよい。また、まず第2対象に対して特徴抽出を行い、更に、第1対象に対して特徴抽出を行う。両者の特徴抽出方式は、同じであっても異なってもよい。ここで、詳細な説明を省略する。上記要因によれば、第1特徴点集合と第2特徴点集合という両者は、共通の特徴点を有してもよく、共通の特徴点を有しなくてもよい。共通の特徴を有するかどうかに関わらず、後続で第1対象に対応する領域及び第2対象に対応する領域を得る過程に影響を与えない。従って、本開示の実施例において、2つの特徴点集合間の関係を限定するものではない。図4は、本開示の一実施例による第1特徴点集合を示す概略図である。図5は、本開示の一実施例による第2特徴点集合を示す概略図である。図示されるように、一例において、図4における第1特徴点集合は、図2における顔画像に対して瞳特徴点抽出を行うことで得られた点集合である。図5における第2特徴点集合は、第2における顔画像に対して眼特徴点抽出を行うことで得られた点集合である。図面から分かるように、本開示の例における第1特徴点集合及び第2特徴点集合は、ターゲット画像に対してそれぞれ特徴抽出を行うことで得られたものである。第1特徴点集合と第2特徴点集合は、瞳と眼との境界で、重なり合った特徴点を有する。
第1特徴点集合及び第2特徴点集合を得た後、ステップS112及びステップS113により、第1対象に対応する領域及び第2対象に対応する領域を得ることができる。本開示の実施例において、ステップS112とステップS113の実行順番は限定されるものではなく、同時に実行されてもよく、順次実行されてもよい。順次実行される場合、まずステップS112を実行してもよく、まずステップS113を実行してもよい。ここで、限定されるものではない。
ステップS112から分かるように、第1対象の取得過程は、第1特徴点集合を第1所定の方式で連結することであってもよい。第1所定の方式の具体的な実現形態は、本開示の実施例において限定されるものではない。第1対象の実際の状況に応じて決定されてもよい。ここで、限定されるものではない。同様に、第2対象に対応する領域を得るための第2所定の方式は、実際の状況に応じて柔軟に選択されてもよい。第2所定の方式は、第1所定の方式と同じであってもよく異なってもよい。
1つの可能な実現形態において、ステップS112は、
第1特徴点集合に含まれる第1特徴点を第1所定の方式の順番に応じて連結し、少なくとも1つの第1メッシュを得て、第1メッシュで被覆される領域を第1対象に対応する領域とすることを含んでもよい。
上記実施例から分かるように、第1対象に対応する領域を得る場合、第1特徴点集合に含まれる第1特徴点を第1所定の方式の順番に応じて連結することができる。上記実施例に記載したように、第1所定の方式は、実際の状況に応じて設定されてもよい。従って、第1特徴点の連結順番も、事前設定された方式で決定される。第1特徴点を所定の順番で連結した後、少なくとも1つのメッシュを得る。本開示の実施例において、該メッシュを第1メッシュと呼んでもよい。第1メッシュの数及び形状は、いずれも、第1特徴点集合に含まれる第1特徴点の数及び第1所定の方式に応じて決定されてもよい。一例において、第1所定の方式は、第1特徴点集合における3つずつの第1特徴点を一組として連結し、複数の三角メッシュを構成することであってもよい。具体的にはどのような3つの点を一組とするかを限定せず、実際の状況に応じて設定してもよい。一例において、第1所定の方式は、第1特徴点集合における4つずつの第1特徴点を一組として連結し、複数の四角メッシュを構成することであってもよい。同様に、分割方式は限定されるものではない。
上記所定の方式の例から分かるように、1つの可能な実現形態において、ステップS112は以下を含んでもよい。
ステップS1121において、少なくとも3つの第1特徴点を一組として、第1特徴点集合を分割し、少なくとも一組の第1特徴点サブ集合を得る。
ステップS1122において、少なくとも一組の第1特徴点サブ集合に含まれる第1特徴点を順次連結し、少なくとも1つの第1メッシュを得る。
ステップS1123において、少なくとも1つの第1メッシュで被覆される領域を第1対象に対応する領域とする。
ここで、一組とした第1特徴点の数は、3個であってもよく、3個より多くてもよい。例えば、4個、5個又は6個等であってもよく、ここでこれを限定するものではない。上記過程により、第1特徴点集合の実際の状況に応じて、第1対象の所在する領域を効果的に完全に被覆することができ、多すぎる計算リソースを必要とせず、第1対象を迅速かつ効果的に決定し、後続のレンダリング過程に備える。
同様に、1つの可能な実現形態において、ステップS113は、
第2特徴点集合に含まれる第2特徴点を第2所定の方式の順番に応じて連結し、少なくとも1つの第2メッシュを得て、第2メッシュで被覆される領域を第2対象に対応する領域とすることを含んでもよい。
上記実施例の具体的な実現過程は、第1対象の実現過程を参照することができる。1つの可能な実現形態において、ステップS113は、以下を含んでもよい。
ステップS1131において、少なくとも3つの第2特徴点を一組として、第2特徴点集合を分割し、少なくとも一組の第2特徴点サブ集合を得る。
ステップS1132において、少なくとも一組の第2特徴点サブ集合に含まれる第2特徴点を順次連結し、少なくとも1つの第2メッシュを得る。
ステップS1133において、少なくとも1つの第2メッシュで被覆される領域を第2対象に対応する領域とする。
図6は、本開示の一実施例による第2対象を示す概略図である。図面から分かるように、一例において、図5における第2特徴点集合における第2特徴点を第2所定の方式で連結し、3つのメッシュを得ることができる。これらの三角メッシュは、共同で第2対象に対応する領域を構成する。
ここで、上記第1メッシュ及び第2メッシュは、ポリゴンメッシュ(Polygon mesh)として、三次元コンピュータグラフィックスにおける多面体形状の頂点と多辺形の集合を表すものであり、非構造メッシュとも呼ばれる。例示的には、第1メッシュ及び第2メッシュは、三角メッシュの形態を用いてもよい。三角メッシュにより、第1対象に対応する領域及び第2対象に対応する領域を囲んで形成することで、後続のレンダリングに寄与する。
第1対象及び第2対象を決定した後、ステップS12により、ターゲット画像及び第2対象に基づいて、タグを含む参照画像を生成することができ、タグは、第2対象の被覆領域を記録するためのものである。ステップS12の実現形態は、第1対象及び第2対象の実際の状況に応じて柔軟に決定されてもよく、下記実施例に限定されるものではない。1つの可能な実現形態において、ステップS12は、以下を含んでもよい。
ステップS121において、サイズがターゲット画像のサイズと同じである第1初期画像を生成する。
ステップS122において、第1初期画像において、第2対象の被覆領域をタグ付けし、参照画像を得る。
サイズがターゲット画像のサイズと同じである第1初期画像を生成し、第1初期画像において、第2対象の被覆領域をタグ付けし、参照画像を得る。該過程において、サイズがターゲット画像のサイズと同じである再構成画像を利用して、ターゲット画像における、第2対象の位置を効果的にタグ付けすることで、後続のレンダリング過程において、タグに基づいて、第1対象をレンダリングする場合、レンダリングされる画素が第2対象の位置制約を超えているかどうかを決定し、レンダリングに滲みが発生する可能性を減少させ、レンダリングの信頼性及び真実性を向上させることができる。
上記実施例において、第1初期画像の寸法は、ターゲット画像の寸法と同じである。その具体的な画像コンテンツは、本開示の実施例において限定されるものではない。一例において、第1初期画像は、空白画像であってもよい。一例において、第1初期画像は、テクスチャで覆われた画像であってもよい。被覆用テクスチャは、本開示の実施例において限定されるものではなく、実際の状況に応じて柔軟に設定されてもよい。ここで、テクスチャは、物体の表面の細部を表す一枚又は複数枚の二次元ピクチャであり、テクスチャマッピング(texture mapping)と呼ばれてもよい。一例において、第1初期画像は、単色のテクスチャで覆われた画像であってもよい。該テクスチャの色は、柔軟に設定されてもよく、黒色、白色又は赤色等であってもよい。第1初期画像の生成過程は、本開示の実施例において限定されるものではない。ターゲット画像のサイズを読み取った後に構築された同一のサイズの画像であってもよい。
第1初期画像を生成した後、ステップS122により、第1初期画像において、第2対象の被覆領域をタグ付けし、参照画像を得ることができる。第1初期画像のサイズがターゲット画像のサイズと同じであるため、第1初期画像における、タグ付けされた領域の位置は、ターゲット画像における、第2対象の位置と一致する。タグ付け方式は、本開示の実施例において限定されるものではない。第1初期画像において第2対象に対応する領域と第1初期対象自体の他の領域を区分できる如何なるタグ付け方式は、タグ付けの実現形態としてもよい。1つの可能な実現形態において、タグ付けの方式は、第1初期画像において、タグ付けを必要とする位置にタグを追加することであってもよい。タグは、符号、データ又はテクスチャ等であってもよく、ここで限定されるものではない。
1つの可能な実現形態において、タグ付けは、画像における画素値を調整する方式で実現することができる。該実現形態において、ステップS122は、
第1初期画像において、第2対象の被覆領域に含まれる少なくとも1つの画素ドットをターゲット画素値に変更し、参照画像を得ることを含んでもよい。
ここで、ターゲット画像値を有する画像領域は、参照画像における、タグを含む画像領域である。なお、第1初期画像について、第2対象の被覆領域に対して画素値をタグ付けするに加えて、第2対象の被覆領域以外の他の領域をターゲット画素値と異なる画素値に調整することで、2つの異なる領域を明らかに区分することを実現させることもできる。
第1初期画像において、第2対象の被覆領域に含まれる少なくとも1つの画素ドットをターゲット画素値に変更し、参照画像を得る。第2対象の被覆領域の色の変更というような簡単な方式で、第2対象の被覆領域のタグ付けを実現させ、プロセスが簡単であり、コストを節約する。
1つの可能な実現形態において、ステップS122は、
第1初期画像において、第2対象の被覆領域を所定のテクスチャによりレンダリングし、参照画像を得ることを含んでもよい。
上記実施例において、第2対象に対応する領域をレンダリングするための所定のテクスチャの具体的な実現形態は、本開示の実施例において限定されるものではなく、第2対象に対応する領域と第1初期画像の他の領域を区分できるものであればよい。一例において、第1初期画像が空白画像である場合、所定のテクスチャは、空白領域を含まない任意のテクスチャであってもよい。一例において、第1初期画像が単色のテクスチャで覆われた場合、所定のテクスチャは、該色を含まない任意のテクスチャであってもよい。図7は、本開示の一実施例による参照画像を示す概略図である。図面から分かるように、本開示の例において、第1初期画像は、黒色テクスチャで覆われた画像であり、第2対象を赤色テクスチャによりレンダリングすることで、図示される参照画像を得る。
第1初期画像において、第2対象の被覆領域を所定のテクスチャによりレンダリングすることで参照画像を得る。簡単な方式で、参照画像において、第2対象の位置をタグ付けすることができる。後続でタグに基づいて、レンダリングされるべき領域に対するレンダリングのために、十分な準備を行う。それと同時に、タグ付けされた第2対象のレンダリングをレンダリング過程全体に適用する。同一のレンダリング手段により、画像処理過程全体を完了し、余分なリソース消費を減少させ、画像処理全体の構造を向上させると共にコストを節約する。
参照画像を得た後、ステップS13により、レンダリングされるべき領域を決定することができる。1つの可能な実現形態において、ステップS13は以下を含んでもよい。
ステップS131において、サイズがターゲット画像のサイズと同じである第2初期画像を生成する。
ステップS132において、第2初期画像において、参照画像及び第1対象に基づいて、レンダリングされるべき領域を決定する。
上記実施例にのいて、サイズがターゲット画像のサイズと同じである第2初期画像において、参照画像及び第1対象に基づいて、レンダリングされるべき領域を決定する。参照画像がターゲット画像における、第2対象の位置に基づいて生成されたものであるため、上記過程において、レンダリングされるべき領域は、第2対象の位置により制約される。これにより、レンダリングの場合、必要なレンダリング範囲から滲みが発生する可能性を減少させ、レンダリング結果の信頼性を向上させることができる。
具体的には、参照画像及び第1対象に基づいてレンダリングされるべき領域を如何に決定するかに関わる具体的な実現形態は、参照画像におけるタグの実際の状況に応じて柔軟に決定されてもよい。1つの可能な実現形態において、ステップS132は以下を含んでもよい。
ステップS1321において、第2初期画像において、第1対象に対応する領域を初期レンダリングされるべき領域とする。
ステップS1322において、初期レンダリングされるべき領域の画素ドットをトラバースし、参照画像における、画素ドットに対応する位置に、タグが含まれる場合、画素ドットをレンダリングされるべき画素ドットとする。
ステップS1323において、レンダリングされるべき画素ドットからなる領域をレンダリングされるべき領域とする。
ステップS1321において、第2初期画像の生成過程と実現形態はいずれも限定されるものではなく、上記実施例で提出された第1初期画像の生成過程と実現形態を参照することができる。ここで、詳細な説明を省略する。第2初期画像の実現形態は、第1初期画像と同じであっても異なってもよい。
第2初期画像を生成した後、ステップS1322により、初期レンダリングされるべき領域の画素ドットをトラバースすることができる。各画素ドットまでトラバースされる時、参照画像において、該画素ドットと同一の位置を持つ画像点を探すことができる。本開示の実施例において、トラバースした画像点をトラバース画素ドットと表記し、参照画像における対応する画素ドットを参照画像点と表記してもよい。続いて、参照画素ドットがタグ付けされているかどうかを判定することができる。上記実施例で開示された内容から分かるように、参照画像におけるタグ付けされた領域は、ターゲット画像における、第2対象の位置である。従って、参照画素ドットがタグ付けされた場合、レンダリングされるべき領域におけるトラバース画素ドットは、第2対象の範囲内に位置することを示す。この場合、トラバース画素ドットは、待レンダリング画素ドットとして、ターゲット素材によるレンダリングを待つ。参照画素ドットがタグ付けされていない場合、レンダリングされるべき領域におけるトラバース画素ドットが第2対象の範囲を超えたことを示す。この場合、該トラバース画素ドットをレンダリングすると、レンダリングが所定の範囲を超えることが発生する可能性がある。従って、該参照画素ドットを、レンダリングされるべき画素ドットとしなくてもよい。
初期レンダリングされるべき領域における画素ドットをトラバースした後、全てのレンダリングされるべき画素ドットを得ることができる。これらのレンダリングされるべき画素ドットは、共同でレンダリングされるべき領域を構成することができる。
レンダリングされるべき領域を得た後、ステップS14により、ターゲット素材を利用して、レンダリングされるべき領域をレンダリングし、レンダリング結果を得ることができる。レンダリングの具体的な方式は、本開示の実施例において、限定されるものではなく、適用可能な如何なるレンダリング方法は、本開示の実施例における実現形態としてもよい。一例において、OpenGLにより、シェイダーshaderにおいて、レンダリングを実現させることができる。上記実施例で提出された、第1初期画像において所定のテクスチャによりレンダリングを行うための具体的な実現形態は、同様のレンダリング方式を用いてもよい。図8は、本開示の一実施例によるレンダリング結果を示す概略図である。図面から分かるように、第2初期画像は、黒色テクスチャで覆われた画像であり、図3に示した瞳美容素材によりレンダリングされ、図示したレンダリング結果を得る。
第2初期画像において、第1対象に対応する領域を初期レンダリングされるべき領域として、初期レンダリングされるべき領域における画素ドットをトラバースし、参照画像における、該画素ドットに対応する画素ドットがタグ付けされた場合、該画素ドットをレンダリングされるべき画素ドットとし、レンダリングされるべき画素ドットからなる領域をレンダリングされるべき領域とする。該過程によれば、ターゲット素材によるレンダリングを必要とする領域をトリミングし、該領域が第1対象の所属する第2対象の制約範囲を超える可能性を減少させ、レンダリング結果の信頼性及び真実性を向上させる。
レンダリング結果を得た後、該レンダリング結果と元のターゲット画像を結合することで、ターゲット画像に対して修飾又は洗練を更に行うことができる。具体的な結合方式は、ターゲット画像及びターゲット素材の実際の状況に応じて決定されてもよい。例えば、ターゲット画像が顔領域を含む画像であり、ターゲット素材が瞳美容素材である場合、該結合は、レンダリング結果とターゲット画像をフュージョンする等であってもよい。従って、1つの可能な実現形態において、本開示の実施例で提出された方法は、以下を更に含んでもよい。
ステップS15において、ターゲット画像の透明度を変更し、変更結果を得る。
ステップS16において、レンダリング結果と変更結果をフュージョンし、フュージョン画像を得る。
上記実施例において、ターゲット画像の透明度変更に関わる具体的な数値は、限定されるものではなく、実際の状況に応じて柔軟に設定されてもよく、レンダリング結果とターゲット画像とのフュージョン結果を確保できるものであればよい。レンダリング結果を生成する第2初期画像のサイズがターゲット画像のサイズと同じであるため、レンダリング結果は、ターゲット画像における対応する位置に効果的にフュージョンされることが可能である。例えば、ターゲット画像が顔画像であり、ターゲット素材が瞳美容素材である場合、フュージョン結果における瞳美容素材がレンダリングされた位置は、顔画像における、瞳の位置と一致するため、レンダリング結果と透明度が変更されたターゲット画像をフュージョンする場合、レンダリングされた瞳美容素材は、自然に顔画像における、瞳の所在する位置にフュージョンされ、顔画像における瞳美容効果を実現させる。図9は、本開示の一実施例によるフュージョン結果を示す概略図である。図面から分かるように、上記各実施例で提出された画像処理方法によれば、図3における瞳美容素材を図2における顔画像の瞳位置に効果的かつ正確にフュージョンすることができる。
適用シーンの例
顔画像に対してメイクアップを行うことは、顔画像処理における主流となる方式である。例えば、顔画像に対する瞳美容、顔画像の口部への口紅追加又は鼻梁部位への陰影追加などを行う。瞳美容を例として、顔画像を瞳美容素材によりレンダリングする場合、顔画像における眼の開閉度が異なる可能性があるため、瞳美容過程において、瞳美容素材をまぶた又はまぶた外などの領域にレンダリングする可能性が極めて高い。これにより、瞳美容結果が不正確であり、瞳美容結果の真実性を低減させる。
従って、確実なレンダリング方式による画像処理過程は、瞳美容の品質を大幅に向上させ、該画像処理方法の品質を向上させて適用範囲を拡大することができる。
図2~図9に示すように、本開示の実施例は、画像処理方法を提供する。該処理方法の具体的な過程は以下の通りであってもよい。
図2は、瞳美容を必要とする顔画像(即ち、上記各実施例に記載したターゲット画像)である。本開示の適用例において、まず、特徴点抽出により、該顔画像の瞳輪郭点(図4に示す)をそれぞれ抽出して第2対象の第2特徴点集合とし、眼輪郭点(図5に示す)を抽出して第1対象の第1特徴点集合とする。眼輪郭点を得た後、眼輪郭点を所定の順番に応じて連結して眼三角メッシュを得て第1メッシュ(図6に示す)とすることができる。同様に、瞳輪郭点を所定の順番に応じて連結してもう1つの瞳三角メッシュを得て第2メッシュとすることもできる。
図6に示した眼三角メッシュを得た後、サイズが図2のサイズと同じである黒色テクスチャマッピングを作成して第1初期画像する。続いて、黒色テクスチャマッピング及び図6における眼三角メッシュの頂点座標をshaderに入力し、OpenGLにより、黒色テクスチャマッピングにおける、眼三角メッシュに対応する位置での画素ドットを赤色にレンダリングしてタグとする。他の位置での画素ドットを元の状態のままにする。これにより、眼輪郭のmaskテクスチャを得る。つまり、タグを含む参照画像(図7に示す)を得る。
眼輪郭のmaskテクスチャを得た後、該眼輪郭のmaskテクスチャ及びこの前に得た瞳三角メッシュの頂点座標、並びに図3に示した瞳美容素材を共同でshaderに入力することで、瞳美容素材のレンダリングを実現させる。本開示の適用例において、瞳美容素材のレンダリング過程は以下の通りであってもよい。まず、黒色テクスチャマッピングを生成して第2初期画像とする。続いて、瞳三角メッシュの頂点座標に基づいて、瞳の位置を決定する。瞳位置での各画素ドットをトラバースする。1つの画像点までにトラバースされるたびに、眼輪郭のmaskテクスチャにおける、該画素ドットに対応する画素ドットの色が赤色であるかどうかを判定する。赤色であると、該画素ドットが眼の範囲内であり、レンダリングされるべき画素ドットであり、瞳美容素材を該画素ドットにレンダリングしてもよいことを示す。赤色ではないと、該画素ドットが眼の範囲外に位置し、瞳美容素材を該画素ドットにレンダリングしなくてもよいことを示す。瞳位置での各画素ドットがいずれもトラバースされた後、レンダリング結果を得ることができる。該レンダリング結果は、トリミングされた瞳美容素材と見なされてもよく、また、該瞳美容素材の位置は、顔画像における、瞳の位置と一致する。レンダリング結果は、図8に示すとおりである。
レンダリング結果を得た後、レンダリング結果と初期顔画像を透明度フュージョンすることができる。レンダリング結果の位置は、顔画像における、瞳の位置と一致するため、フュージョンされた瞳は、顔画像の瞳に正確にフュージョンされる。これにより、顔の瞳美容を実現させる。フュージョン結果は図9に示すとおりである。図面から分かるように、上記過程によれば、確実な瞳美容結果を得ることができる。フュージョンされた瞳は、瞳の範囲を超えることなく、眼周位置にレンダリングされることもない。
本開示の実施例の画像処理方法は、上記顔領域を含む画像の処理への適用に限定されず、顔画像に対する瞳美容処理過程にも限定されず、任意の画像処理に適用可能であり、本開示は、これを限定するものではないことに留意されたい。
本開示に言及した上記各方法の実施例は、原理や論理から逸脱しない限り、互いに組み合わせることで組み合わせた実施例を構成することができ、紙数に限りがあるため、本開示において逐一説明しないことが理解されるべきである。
具体的な実施形態の上記方法において、各ステップの記述順番は、厳しい実行順番として実施過程を限定するものではなく、各ステップの具体的な実行順番はその機能及び考えられる内在的論理により決まることは、当業者であれば理解すべきである。
図10は、本開示の実施例による画像処理装置を示すブロック図である。該画像処理装置は、端末装置、サーバ又は他の処理装置等であってもよい。ここで、端末装置は、ユーザ装置(User Equipment:UE)、携帯機器、ユーザ端末、端末、セルラ電話、コードレス電話、パーソナルデジタルアシスタント(Personal Digital Assistant:PDA)、ハンドヘルドデバイス、コンピューティングデバイス、車載機器、ウェアブル機器などであってもよい。
幾つかの可能な実現形態において、該画像処理装置は、プロセッサによりメモリに記憶されているコンピュータ可読命令を呼び出すことで実現することができる。
図10に示すように、前記画像処理装置20は、
ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識するように構成される認識モジュール21と、
前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成するように構成される参照画像生成モジュール22であって、前記タグは、前記第2対象の被覆範囲を記録するためのものである、参照画像生成モジュール22と、
参照画像及び第1対象に基づいて、レンダリングされるべき領域を決定するように構成されるレンダリングされるべき領域決定モジュール23であって、レンダリングされるべき領域は、タグに対応する被覆領域内に位置する、レンダリングされるべき領域決定モジュール23と、
ターゲット素材を利用してレンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成するように構成されるレンダリングモジュール24と、を備えてもよい。
1つの可能な実現形態において、参照画像生成モジュールは、サイズがターゲット画像のサイズと同じである第1初期画像を生成し、第1初期画像において、第2対象の被覆領域をタグ付けし、参照画像を得るように構成される。
1つの可能な実現形態において、参照画像生成モジュールは更に、第1初期画像において、第2対象の被覆領域に含まれる少なくとも1つの画像点をターゲット画素値に変更し、参照画像を得るように構成される。
1つの可能な実現形態において、レンダリングされるべき領域決定モジュールは、サイズがターゲット画像のサイズと同じである第2初期画像を生成し、第2初期画像において、参照画像及び第1対象に基づいて、レンダリングされるべき領域を決定するように構成される。
1つの可能な実現形態において、レンダリングされるべき領域決定モジュールは更に、第2初期画像において、第1対象に対応する領域を初期レンダリングされるべき領域とし、初期レンダリングされるべき領域の画素ドットをトラバースし、参照画像における、画素ドットに対応する位置に、タグが含まれる場合、画素ドットをレンダリングされるべき画素ドットとし、レンダリングされるべき画素ドットからなる領域をレンダリングされるべき領域とするように構成される。
1つの可能な実現形態において、認識モジュールは、ターゲット画像に対して特徴抽出を行い、第1対象に対応する第1特徴点集合及び第2対象に対応する第2特徴点集合をそれぞれ得て、第1特徴点集合に含まれる第1特徴点を第1所定の方式で連結し、第1対象に対応する領域を得て、第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、第2対象に対応する領域を得るように構成される。
1つの可能な実現形態において、認識モジュールは更に、少なくとも3つの第1特徴点を一組として、第1特徴点集合を分割し、少なくとも一組の第1特徴点サブ集合を得て、少なくとも一組の第1特徴点サブ集合に含まれる第1特徴点を順次連結し、少なくとも1つの第1メッシュを得て、少なくとも1つの第1メッシュで被覆される領域を第1対象に対応する領域とするように構成される。
1つの可能な実現形態において、認識モジュールは更に、少なくとも3つの第2特徴点を一組として、第2特徴点集合を分割し、少なくとも一組の第2特徴点サブ集合を得て、少なくとも一組の第2特徴点サブ集合に含まれる第2特徴点を順次連結し、少なくとも1つの第2メッシュを得て、少なくとも1つの第2メッシュで被覆される領域を第2対象に対応する領域とするように構成される。
1つの可能な実現形態において、装置は、フュージョンモジュールを更に備え、フュージョンモジュールは、ターゲット画像の透明度を変更し、変更結果を得て、レンダリング結果と変更結果をフュージョンし、フュージョン画像を得るように構成される。
1つの可能な実現形態において、第1対象は、瞳を含み、第2対象は、眼を含み、ターゲット素材は、瞳を美しくするための素材を含む。
本開示の実施例はコンピュータ可読記憶媒体を更に提供する。該コンピュータ可読記憶媒体にはコンピュータプログラム命令が記憶されており、前記コンピュータプログラム命令がプロセッサにより実行される時、上記方法を実現させる。コンピュータ可読記憶媒体は不揮発性コンピュータ可読記憶媒体であってもよい。
本開示の実施例は電子機器を更に提供する。該電子機器は、プロセッサと、プロセッサによる実行可能な命令を記憶するためのメモリと、を備え、プロセッサは、上記方法を実行するように構成される。
電子機器は、端末、サーバ又は他の形態の機器として提供されてもよい。
図11は本開示の実施例による電子機器800を示すブロック図である。例えば、電子機器800は、携帯電話、コンピュータ、デジタル放送端末、メッセージング装置、ゲームコンソール、タブレットデバイス、医療機器、フィットネス機器、パーソナルデジタルアシスタントなどの端末であってもよい。
図11を参照すると、電子機器800は、処理コンポーネント802、メモリ804、電源コンポーネント806、マルチメディアコンポーネント808、オーディオコンポーネント810、入力/出力(I/O)インタフェース812、センサコンポーネント814及び通信コンポーネント816のうちの1つ又は複数を備えてもよい。
処理コンポーネント802は一般的には、電子機器800の全体操作を制御する。例えば、表示、通話呼、データ通信、カメラ操作及び記録操作に関連する操作を制御する。処理コンポーネント802は、指令を実行するための1つ又は複数のプロセッサ820を備えてもよい。それにより上記方法の全て又は一部のステップを実行する。なお、処理コンポーネント802は、他のユニットとのインタラクションのために、1つ又は複数のモジュールを備えてもよい。例えば、処理コンポーネント802はマルチメディアモジュールを備えることで、マルチメディアコンポーネント808と処理コンポーネント802とのインタラクションに寄与する。
メモリ804は、各種のデータを記憶することで電子機器800における操作をサポートするように構成される。これらのデータの例として、電子機器800上で操作れる如何なるアプリケーション又は方法の命令、連絡先データ、電話帳データ、メッセージ、イメージ、ビデオ等を含む。メモリ804は任意のタイプの揮発性または不揮発性記憶装置、あるいはこれらの組み合わせにより実現される。例えば、スタティックランダムアクセスメモリ(SRAM)、電気的消去可能なプログラマブル読み出し専用メモリ(EEPROM)、電気的に消去可能なプログラマブル読出し専用メモリ(EPROM)、プログラマブル読出し専用メモリ(PROM)、読出し専用メモリ(ROM)、磁気メモリ、フラッシュメモリ、磁気もしくは光ディスクを含む。
電源コンポーネント806は電子機器800の様々なユニットに電力を提供する。電源コンポーネント806は、電源管理システム、1つ又は複数の電源、及び電子機器800のための電力生成、管理、分配に関連する他のユニットを備えてもよい。
マルチメディアコンポーネント808は、上記電子機器800とユーザとの間に出力インタフェースを提供するためのスクリーンを備える。幾つかの実施例において、スクリーンは、液晶ディスプレイ(LCD)及びタッチパネル(TP)を含む。スクリーンは、タッチパネルを含むと、タッチパネルとして実現され、ユーザからの入力信号を受信する。タッチパネルは、タッチ、スライド及びパネル上のジェスチャを感知する1つ又は複数のタッチセンサを備える。上記タッチセンサは、タッチ又はスライド動作の境界を感知するだけでなく、上記タッチ又はスライド操作に関連する持続時間及び圧力を検出することもできる。幾つかの実施例において、マルチメディアコンポーネント808は、フロントカメラ及び/又はリアカメラを備える。電子機器800が、撮影モード又はビデオモードのような操作モードであれば、フロントカメラ及び/又はリアカメラは外部からのマルチメディアデータを受信することができる。各フロントカメラ及びリアカメラは固定した光学レンズシステム又は焦点及び光学ズーム能力を持つものであってもよい。
オーディオコンポーネント810は、オーディオ信号を出力及び/又は入力するように構成される。例えば、オーディオコンポーネント810は、マイクロホン(MIC)を備える。電子機器800が、通話モード、記録モード及び音声識別モードのような操作モードであれば、マイクロホンは、外部からのオーディオ信号を受信するように構成される。受信したオーディオ信号を更にメモリ804に記憶するか、又は通信コンポーネント816を経由して送信することができる。幾つかの実施例において、オーディオコンポーネント810は、オーディオ信号を出力するように構成されるスピーカーを更に備える。
I/Oインタフェース812は、処理コンポーネント802と周辺インタフェースモジュールとの間のインタフェースを提供する。上記周辺インタフェースモジュールは、キーボード、クリックホイール、ボタン等であってもよい。これらのボタンは、ホームボダン、ボリュームボタン、スタートボタン及びロックボタンを含むが、これらに限定されない。
センサコンポーネント814は、1つ又は複数のセンサを備え、電子機器800のために様々な状態の評価を行うように構成される。例えば、センサコンポーネント814は、電子機器800のオン/オフ状態、ユニットの相対的な位置決めを検出することができる。例えば、上記ユニットが電子機器800のディスプレイ及びキーパッドである。センサコンポーネント814は電子機器800又は電子機器800における1つのユニットの位置の変化、ユーザと電子機器800との接触の有無、電子機器800の方位又は加速/減速及び電子機器800の温度の変動を検出することもできる。センサコンポーネント814は近接センサを備えてもよく、いかなる物理的接触もない場合に周囲の物体の存在を検出するように構成される。センサコンポーネント814は、CMOS又はCCD画像センサのような光センサを備えてもよく、結像に適用されるように構成される。幾つかの実施例において、該センサコンポーネント814は、加速度センサ、ジャイロセンサ、磁気センサ、圧力センサ又は温度センサを備えてもよい。
通信コンポーネント816は、電子機器800と他の機器との有線又は無線方式の通信に寄与するように構成される。電子機器800は、WiFi、2G又は3G、又はそれらの組み合わせのような通信規格に基づいた無線ネットワークにアクセスできる。一例示的な実施例において、通信コンポーネント816は放送チャネルを経由して外部放送チャネル管理システムからの放送信号又は放送関連する情報を受信する。一例示的な実施例において、上記通信コンポーネント816は、近接場通信(NFC)モジュールを更に備えることで近距離通信を促進する。例えば、NFCモジュールは、無線周波数識別(RFID)技術、赤外線データ協会(IrDA)技術、超広帯域(UWB)技術、ブルートゥース(BT)技術及び他の技術に基づいて実現される。
例示的な実施例において、電子機器800は、1つ又は複数の特定用途向け集積回路(ASIC)、デジタル信号プロセッサ(DSP)、デジタル信号処理機器(DSPD)、プログラマブルロジックデバイス(PLD)、フィールドプログラマブルゲートアレイ(FPGA)、コントローラ、マイクロコントローラ、マイクロプロセッサ又は他の電子素子により実現され、上記方法を実行するように構成されてもよい。
例示的な実施例において、コンピュータプログラム命令を記憶したメモリ804のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器800のプロセッサ820により実行され上記方法を完了する。
図12は、本開示の実施例による電子機器1900を示すブロック図である。例えば、電子機器1900は、サーバとして提供されてもよい。図12を参照すると、電子機器1900は、処理コンポーネント1922を備える。それは1つ又は複数のプロセッサと、メモリ1932で表されるメモリリソースを更に備える。該メモリリースは、アプリケーションプログラムのような、処理コンポーネント1922により実行される命令を記憶するためのものである。メモリ1932に記憶されているアプリケーションプログラムは、それぞれ一組の命令に対応する1つ又は1つ以上のモジュールを含んでもよい。なお、処理コンポーネント1922は、命令を実行して、上記方法を実行するように構成される。
電子機器1900は、電子機器1900の電源管理を実行するように構成される電源コンポーネント1926と、電子機器1900をネットワークに接続するように構成される有線又は無線ネットワークインタフェース1950と、入力出力(I/O)インタフェース1958を更に備えてもよい。電子機器1900は、メモリ1932に記憶されているオペレーティングシステム、例えば、Windows ServerTM、Mac OS XTM、UnixTM、LinuxTM、FreeBSDTM又は類似したオペレーティングシステムを実行することができる。
例示的な実施例において、例えば、コンピュータプログラム命令を含むメモリ1932のような不揮発性コンピュータ可読記憶媒体を更に提供する。上記コンピュータプログラム命令は、電子機器1900の処理コンポーネント1922により実行されて上記方法を完了する。
本開示は、システム、方法及び/又はコンピュータプログラム製品であってもよい。コンピュータプログラム製品は、コンピュータ可読記憶媒体を備えてもよく、プロセッサに本開示の各態様を実現させるためのコンピュータ可読プログラム命令がそれに記憶されている。
コンピュータ可読記憶媒体は、命令実行装置に用いられる命令を保持又は記憶することができる有形装置であってもよい。コンピュータ可読記憶媒体は、例えば、電気記憶装置、磁気記憶装置、光記憶装置、電磁記憶装置、半導体記憶装置又は上記の任意の組み合わせであってもよいが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例(非網羅的なリスト)は、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能なプログラマブル読み出し専用メモリ(EPROM又はフラッシュ)、スタティックランダムアクセスメモリ(SRAM)、ポータブルコンパクトディスク読み出し専用メモリ(CD-ROM)、デジタル多用途ディスク(DVD)、メモリスティック、フレキシブルディスク、命令が記憶されているパンチカード又は凹溝内における突起構造のような機械的符号化装置、及び上記任意の適切な組み合わせを含む。ここで用いられるコンピュータ可読記憶媒体は、電波もしくは他の自由に伝搬する電磁波、導波路もしくは他の伝送媒体を通って伝搬する電磁波(例えば、光ファイバケーブルを通過する光パルス)、または、電線を通して伝送される電気信号などの、一時的な信号それ自体であると解釈されるべきではない。
ここで説明されるコンピュータ可読プログラム命令を、コンピュータ可読記憶媒体から各コンピューティング/処理装置にダウンロードすることができるか、又は、インターネット、ローカルエリアネットワーク、ワイドエリアネットワーク及び/又は無線ネットワークのようなネットワークを経由して外部コンピュータ又は外部記憶装置にダウンロードすることができる。ネットワークは、伝送用銅線ケーブル、光ファイバー伝送、無線伝送、ルータ、ファイアウォール、交換機、ゲートウェイコンピュータ及び/又はエッジサーバを含んでもよい。各コンピューティング/処理装置におけるネットワークインターフェースカード又はネットワークインタフェースは、ネットワークからコンピュータ可読プログラム命令を受信し、該コンピュータ可読プログラム命令を転送し、各コンピューティング/処理装置におけるコンピュータ可読記憶媒体に記憶する。
本開示の操作を実行するためのコンピュータ可読プログラム命令は、アセンブラ命令、命令セットアーキテクチャ(ISA)命令、マシン命令、マシン依存命令、マイクロコード、ファームウェア命令、状態設定データ、又は1つ又は複数のプログラミング言語で記述されたソースコード又はターゲットコードであってもよい。前記プログラミング言語は、Smalltalk、C++などのようなオブジェクト指向プログラミング言語と、「C」プログラミング言語又は類似したプログラミング言語などの従来の手続型プログラミング言語とを含む。コンピュータ可読プログラム命令は、ユーザコンピュータ上で完全に実行してもよく、ユーザコンピュータ上で部分的に実行してもよく、独立したソフトウェアパッケージとして実行してもよく、ユーザコンピュータ上で部分的に実行してリモートコンピュータ上で部分的に実行してもよく、又はリモートコンピュータ又はサーバ上で完全に実行してもよい。リモートコンピュータの場合に、リモートコンピュータは、ローカルエリアネットワーク(LAN)やワイドエリアネットワーク(WAN)を含む任意の種類のネットワークを通じてユーザのコンピュータに接続するか、または、外部のコンピュータに接続することができる(例えばインターネットサービスプロバイダを用いてインターネットを通じて接続する)。幾つかの実施例において、コンピュータ可読プログラム命令の状態情報を利用して、プログラマブル論理回路、フィールドプログラマブルゲートアレイ(FPGA)又はプログラマブル論理アレイ(PLA)のような電子回路をカスタマイズする。該電子回路は、コンピュータ可読プログラム命令を実行することで、本開示の各態様を実現させることができる。
ここで、本開示の実施例の方法、装置(システム)及びコンピュータプログラム製品のフローチャート及び/又はブロック図を参照しながら、本開示の各態様を説明する。フローチャート及び/又はブロック図の各ブロック及びフローチャート及び/又はブロック図における各ブロックの組み合わせは、いずれもコンピュータ可読プログラム命令により実現できる。
これらのコンピュータ可読プログラム命令は、汎用コンピュータ、専用コンピュータまたはその他プログラマブルデータ処理装置のプロセッサに提供でき、それによって機器を生み出し、これら命令はコンピュータまたはその他プログラマブルデータ処理装置のプロセッサにより実行される時、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現する装置を生み出した。これらのコンピュータ可読プログラム命令をコンピュータ可読記憶媒体に記憶してもよい。これらの命令によれば、コンピュータ、プログラマブルデータ処理装置及び/又は他の装置は特定の方式で動作する。従って、命令が記憶されているコンピュータ可読記憶媒体は、フローチャート及び/又はブロック図おける1つ又は複数のブロック中で規定している機能/操作を実現する各態様の命令を含む製品を備える。
コンピュータ可読プログラム命令をコンピュータ、他のプログラマブルデータ処理装置又は他の装置にロードしてもよい。これにより、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で一連の操作の工程を実行して、コンピュータで実施されるプロセスを生成する。従って、コンピュータ、他のプログラマブルデータ処理装置又は他の装置で実行される命令により、フローチャート及び/又はブロック図における1つ又は複数のブロック中で規定している機能/操作を実現させる。
図面におけるフローチャート及びブロック図は、本開示の複数の実施例によるシステム、方法及びコンピュータプログラム製品の実現可能なアーキテクチャ、機能および操作を例示するものである。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント又は命令の一部を表すことができる。前記モジュール、プログラムセグメント又は命令の一部は、1つまたは複数の所定の論理機能を実現するための実行可能な命令を含む。いくつかの取り替えとしての実現中に、ブロックに表記される機能は図面中に表記される順序と異なる順序で発生することができる。例えば、二つの連続するブロックは実際には基本的に並行して実行でき、場合によっては反対の順序で実行することもでき、これは関係する機能から確定する。ブロック図及び/又はフローチャートにおける各ブロック、及びブロック図及び/又はフローチャートにおけるブロックの組み合わせは、所定の機能又は操作を実行するための専用ハードウェアベースシステムにより実現するか、又は専用ハードウェアとコンピュータ命令の組み合わせにより実現することができることにも留意されたい。
以上は本発明の各実施例を説明したが、前記説明は例示的なものであり、網羅するものではなく、且つ開示した各実施例に限定されない。説明した各実施例の範囲と趣旨から脱逸しない場合、当業者にとって、多くの修正及び変更は容易に想到しえるものである。本明細書に用いられる用語の選択は、各実施例の原理、実際の応用、或いは市場における技術への改善を最もよく解釈すること、或いは他の当業者が本明細書に開示された各実施例を理解できることを目的とする。

Claims (13)

  1. ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識することと、
    前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成することであって、前記参照画像のサイズは前記ターゲット画像と同じであり、前記タグは、前記第2対象の被覆範囲を記録するためのものである、ことと、
    前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することであって、前記レンダリングされるべき領域は、前記タグに対応する被覆領域内に位置する、ことと、
    ターゲット素材を利用して前記レンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成することと、を含み、
    前記第1対象は、瞳を含み、前記第2対象は、眼を含み、又は、
    前記第1対象は、鼻梁を含み、前記第2対象は、鼻を含み、又は、
    前記第1対象は、耳たぶを含み、前記第2対象は、耳を含むことを特徴とする、画像処理方法。
  2. 前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成することは、
    前記ターゲット画像と同じサイズの第1初期画像を生成することと、
    前記第1初期画像において、前記第2対象の被覆領域をタグ付けし、前記参照画像を得ることと、を含むことを特徴とする
    請求項1に記載の方法。
  3. 前記第1初期画像において、前記第2対象の被覆領域をタグ付けし、前記参照画像を得ることは、
    前記第1初期画像において、前記第2対象の被覆領域に含まれる少なくとも1つの画像点をターゲット画素値に変更し、前記参照画像を得ることを含むことを特徴とする
    請求項2に記載の方法。
  4. 前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することは、
    前記ターゲット画像と同じサイズの第2初期画像を生成することと、
    前記第2初期画像において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することと、を含むことを特徴とする
    請求項1から3のうちいずれか一項に記載の方法。
  5. 前記第2初期画像において、前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定することは、
    前記第2初期画像において、前記第1対象に対応する領域を初期レンダリングされるべき領域とすることと、
    前記初期レンダリングされるべき領域の画素ドットをトラバースし、前記参照画像における、前記画素ドットに対応する位置に、前記タグが含まれる場合、前記画素ドットをレンダリングされるべき画素ドットとすることと、
    前記レンダリングされるべき画素ドットからなる領域を前記レンダリングされるべき領域とすることと、を含むことを特徴とする
    請求項4に記載の方法。
  6. 前記ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識することは、
    前記ターゲット画像に対して特徴抽出を行い、前記第1対象に対応する第1特徴点集合及び前記第2対象に対応する第2特徴点集合をそれぞれ得ることと、
    前記第1特徴点集合に含まれる第1特徴点を第1所定の方式で連結し、前記第1対象に対応する領域を得ることと、
    前記第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、前記第2対象に対応する領域を得ることと、を含むことを特徴とする
    請求項1から5のうちいずれか一項に記載の方法。
  7. 前記第1特徴点に含まれる第1特徴点を第1所定の方式で連結し、前記第1対象に対応する領域を得ることは、
    少なくとも3つの前記第1特徴点を一組として、前記第1特徴点集合を分割し、少なくとも一組の第1特徴点サブ集合を得ることと、
    少なくとも一組の前記第1特徴点サブ集合に含まれる前記第1特徴点を順次連結し、少なくとも1つの第1メッシュを得ることと、
    前記少なくとも1つの第1メッシュで被覆される領域を第1対象に対応する領域とすることと、を含むことを特徴とする
    請求項6に記載の方法。
  8. 前記第2特徴点集合に含まれる第2特徴点を第2所定の方式で連結し、前記第2対象に対応する領域を得ることは、
    少なくとも3つの前記第2特徴点を一組として、前記第2特徴点集合を分割し、少なくとも一組の第2特徴点サブ集合を得ることと、
    少なくとも一組の前記第2特徴点サブ集合に含まれる前記第2特徴点を順次連結し、少なくとも1つの第2メッシュを得ることと、
    前記少なくとも1つの第2メッシュで被覆される領域を第2対象に対応する領域とすることと、を含むことを特徴とする
    請求項6又は7に記載の方法。
  9. 前記方法は、
    前記ターゲット画像の透明度を変更し、変更結果を得ることと、
    前記レンダリング結果と前記変更結果をフュージョンし、フュージョン画像を得ることと、を更に含むことを特徴とする
    請求項1から8のうちいずれか一項に記載の方法。
  10. ターゲット画像におけるレンダリングされるべき第1対象、及び前記ターゲット画像における、前記第1対象の所属する第2対象を認識するように構成される認識モジュールと、
    前記ターゲット画像及び前記第2対象に基づいて、タグを含む参照画像を生成するように構成される参照画像生成モジュールであって、前記参照画像のサイズは前記ターゲット画像と同じであり、前記タグは、前記第2対象の被覆範囲を記録するためのものである、参照画像生成モジュールと、
    前記参照画像及び前記第1対象に基づいて、レンダリングされるべき領域を決定するように構成されるレンダリングされるべき領域決定モジュールであって、前記レンダリングされるべき領域は、前記タグに対応する被覆領域内に位置する、レンダリングされるべき領域決定モジュールと、
    ターゲット素材を利用して前記レンダリングされるべき領域に対してレンダリングを行い、レンダリング結果を生成するように構成されるレンダリングモジュールと、を備え
    前記第1対象は、瞳を含み、前記第2対象は、眼を含み、又は、
    前記第1対象は、鼻梁を含み、前記第2対象は、鼻を含み、又は、
    前記第1対象は、耳たぶを含み、前記第2対象は、耳を含むことを特徴とする、画像処理装置。
  11. プロセッサと、
    プロセッサによる実行可能な命令を記憶するためのメモリと、を備え、
    前記プロセッサは、前記メモリに記憶されている命令を呼び出して、請求項1からのうちいずれか一項に記載の方法を実行するように構成されることを特徴とする、電子機器。
  12. コンピュータに請求項1からのうちいずれか一項に記載の方法を実行させるためのコンピュータプログラムを記憶したことを特徴とする、コンピュータ可読記憶媒体。
  13. コンピュータに、請求項1からのうちいずれか一項に記載の方法を実行させることを特徴とする、コンピュータプログラム。
JP2020570186A 2019-11-22 2020-03-24 画像処理方法及び装置、電子機器並びに記憶媒体 Active JP7159357B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201911154806.5A CN111091610B (zh) 2019-11-22 2019-11-22 图像处理方法及装置、电子设备和存储介质
CN201911154806.5 2019-11-22
PCT/CN2020/080924 WO2021098107A1 (zh) 2019-11-22 2020-03-24 图像处理方法及装置、电子设备和存储介质

Publications (2)

Publication Number Publication Date
JP2022512048A JP2022512048A (ja) 2022-02-02
JP7159357B2 true JP7159357B2 (ja) 2022-10-24

Family

ID=70393606

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020570186A Active JP7159357B2 (ja) 2019-11-22 2020-03-24 画像処理方法及び装置、電子機器並びに記憶媒体

Country Status (7)

Country Link
EP (1) EP3852069A4 (ja)
JP (1) JP7159357B2 (ja)
KR (1) KR20210064114A (ja)
CN (1) CN111091610B (ja)
SG (1) SG11202012481UA (ja)
TW (1) TWI752473B (ja)
WO (1) WO2021098107A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111569418B (zh) * 2020-06-10 2023-04-07 网易(杭州)网络有限公司 对于待输出内容的渲染方法、装置、介质及电子设备
CN113657361A (zh) * 2021-07-23 2021-11-16 阿里巴巴(中国)有限公司 页面异常检测方法、装置及电子设备
CN113763324A (zh) * 2021-08-02 2021-12-07 阿里巴巴达摩院(杭州)科技有限公司 图像处理方法、计算机可读存储介质、处理器和系统
CN114240742A (zh) * 2021-12-17 2022-03-25 北京字跳网络技术有限公司 图像处理方法、装置、电子设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213623A (ja) 2002-07-08 2007-08-23 Toshiba Corp 仮想化粧装置及びその方法
JP2010250420A (ja) 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
JP2012095730A (ja) 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP2019070872A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070870A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070871A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3747918B2 (ja) * 2003-04-25 2006-02-22 ヤマハ株式会社 光ディスク記録装置
US7379071B2 (en) * 2003-10-14 2008-05-27 Microsoft Corporation Geometry-driven feature point-based image synthesis
US7289119B2 (en) * 2005-05-10 2007-10-30 Sony Computer Entertainment Inc. Statistical rendering acceleration
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
CN102184108A (zh) * 2011-05-26 2011-09-14 成都江天网络科技有限公司 一种利用计算机程序进行虚拟化妆的方法及化妆模拟程序
CN102915308B (zh) * 2011-08-02 2016-03-09 阿里巴巴集团控股有限公司 一种页面渲染的方法及装置
US9652887B2 (en) * 2014-01-22 2017-05-16 Hankookin, Inc. Object oriented image processing and rendering in a multi-dimensional space
CN104679509B (zh) * 2015-02-06 2019-11-15 腾讯科技(深圳)有限公司 一种渲染图形的方法和装置
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
US10360708B2 (en) * 2016-06-30 2019-07-23 Snap Inc. Avatar based ideogram generation
US10732411B2 (en) * 2016-12-12 2020-08-04 Samsung Electronics Co., Ltd Methods and devices for processing motion-based image
TW201931179A (zh) * 2017-07-13 2019-08-01 美商美國資生堂公司 用於虛擬面部化妝之移除與模擬、快速面部偵測及標記追蹤、降低輸入視訊之延遲及振動的系統與方法,以及用於建議化妝之方法
CN109583263A (zh) * 2017-09-28 2019-04-05 丽宝大数据股份有限公司 结合扩增实境的身体信息分析装置及其眉型预览方法
CN107818305B (zh) * 2017-10-31 2020-09-22 Oppo广东移动通信有限公司 图像处理方法、装置、电子设备和计算机可读存储介质
CN108564531B (zh) * 2018-05-08 2022-07-08 麒麟合盛网络技术股份有限公司 一种图像处理方法及装置
CN109242785A (zh) * 2018-08-10 2019-01-18 广州二元科技有限公司 一种基于神经网络和颜色筛选的精准人像上唇彩的方法
CN109302618A (zh) * 2018-11-27 2019-02-01 网易(杭州)网络有限公司 移动终端中的直播画面渲染方法、装置和存储介质
CN109977868A (zh) * 2019-03-26 2019-07-05 深圳市商汤科技有限公司 图像渲染方法及装置、电子设备和存储介质
CN109981989B (zh) * 2019-04-04 2021-05-25 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110062157B (zh) * 2019-04-04 2021-09-17 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110084154B (zh) * 2019-04-12 2021-09-17 北京字节跳动网络技术有限公司 渲染图像的方法、装置、电子设备和计算机可读存储介质
CN110211211B (zh) * 2019-04-25 2024-01-26 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213623A (ja) 2002-07-08 2007-08-23 Toshiba Corp 仮想化粧装置及びその方法
JP2010250420A (ja) 2009-04-13 2010-11-04 Seiko Epson Corp 顔の特徴部位の座標位置を検出する画像処理装置
JP2012095730A (ja) 2010-10-29 2012-05-24 Omron Corp 画像処理装置、画像処理方法、および制御プログラム
JP2019070872A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070870A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
JP2019070871A (ja) 2017-10-05 2019-05-09 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム

Also Published As

Publication number Publication date
TW202121343A (zh) 2021-06-01
JP2022512048A (ja) 2022-02-02
WO2021098107A1 (zh) 2021-05-27
CN111091610B (zh) 2023-04-11
EP3852069A1 (en) 2021-07-21
EP3852069A4 (en) 2021-08-18
KR20210064114A (ko) 2021-06-02
TWI752473B (zh) 2022-01-11
SG11202012481UA (en) 2021-06-29
CN111091610A (zh) 2020-05-01

Similar Documents

Publication Publication Date Title
JP7159357B2 (ja) 画像処理方法及び装置、電子機器並びに記憶媒体
JP7262659B2 (ja) 目標対象物マッチング方法及び装置、電子機器並びに記憶媒体
CN109784255B (zh) 神经网络训练方法及装置以及识别方法及装置
CN110675310B (zh) 视频处理方法、装置、电子设备及存储介质
CN109816764B (zh) 图像生成方法及装置、电子设备和存储介质
WO2022179026A1 (zh) 图像处理方法及装置、电子设备和存储介质
JP7038853B2 (ja) 画像処理方法及び装置、電子機器並びにコンピュータ可読記憶媒体
CN111553864B (zh) 图像修复方法及装置、电子设备和存储介质
WO2022179025A1 (zh) 图像处理方法及装置、电子设备和存储介质
CN110928627B (zh) 界面展示方法及装置、电子设备和存储介质
CN111243011A (zh) 关键点检测方法及装置、电子设备和存储介质
CN109711546B (zh) 神经网络训练方法及装置、电子设备和存储介质
KR20220051376A (ko) 메시징 시스템에서의 3d 데이터 생성
CN109840917B (zh) 图像处理方法及装置、网络训练方法及装置
KR20220167323A (ko) 메시징 시스템 내의 3d 데이터를 포함하는 증강 현실 콘텐츠 생성기들
CN110909654A (zh) 训练图像的生成方法及装置、电子设备和存储介质
CN112613447A (zh) 关键点检测方法及装置、电子设备和存储介质
CN113642359B (zh) 人脸图像生成方法、装置、电子设备及存储介质
CN111507131A (zh) 活体检测方法及装置、电子设备和存储介质
WO2022042160A1 (zh) 图像处理方法及装置
CN111754635B (zh) 纹理融合方法及装置、电子设备和存储介质
CN113012052B (zh) 图像处理方法及装置、电子设备和存储介质
US11403788B2 (en) Image processing method and apparatus, electronic device, and storage medium
US20220270313A1 (en) Image processing method, electronic device and storage medium
CN113781359B (zh) 图像处理方法及装置、电子设备和存储介质

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201216

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201216

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220520

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221012

R150 Certificate of patent or registration of utility model

Ref document number: 7159357

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150