JP7469510B2 - 画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体 - Google Patents

画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体 Download PDF

Info

Publication number
JP7469510B2
JP7469510B2 JP2022561575A JP2022561575A JP7469510B2 JP 7469510 B2 JP7469510 B2 JP 7469510B2 JP 2022561575 A JP2022561575 A JP 2022561575A JP 2022561575 A JP2022561575 A JP 2022561575A JP 7469510 B2 JP7469510 B2 JP 7469510B2
Authority
JP
Japan
Prior art keywords
image
target
face
movement
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022561575A
Other languages
English (en)
Other versions
JP2023520732A (ja
Inventor
嘉▲り▼ 潘
▲樹▼▲鵬▼ ▲張▼
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing ByteDance Network Technology Co Ltd
Original Assignee
Beijing ByteDance Network Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing ByteDance Network Technology Co Ltd filed Critical Beijing ByteDance Network Technology Co Ltd
Publication of JP2023520732A publication Critical patent/JP2023520732A/ja
Application granted granted Critical
Publication of JP7469510B2 publication Critical patent/JP7469510B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • G06T3/04
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration by the use of more than one image, e.g. averaging, subtraction
    • G06T5/77
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20112Image segmentation details
    • G06T2207/20132Image cropping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • G06T2207/30201Face
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/178Human faces, e.g. facial parts, sketches or expressions estimating age from face image; using age information for improving recognition

Description

本開示の実施例は、画像処理技術分野に関し、具体的に、本開示は、画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体に関する。
近年、インテリジェント端末技術の発達に伴い、インテリジェント端末によって収集された画像情報を対応して処理するための様々なアプリケーションプログラムがますます増えている。これらのアプリケーションプログラムは、収集された画像情報に美化、特殊効果を追加する等の処理を実行することができ、例えば、写真撮影後の画像情報や自分撮り過程における画像情報に、ウサギ、ネコ、ブタ等などの動物に関連する形象の特殊効果を追加し、また、例えば写真撮影後の画像情報や自分撮り過程における画像情報を別の背景環境に変更する等の特殊効果処理を追加する。しかし、従来のアプリケーションプログラムによる画像情報の処理は、形態が単一である場合が多く、ユーザの基本的なニーズをある程度満たすことができ、ユーザのニーズの増加に応じて、ユーザの多様なニーズを満たすことができない。
本開示の実施例は、上記の技術的欠陥の一つを少なくとも解決することができることを目的とし、該発明内容部分を提供して簡単な形で構想を紹介し、これらの構想は以下の具体的な実施形態部分で詳細に説明される。該発明内容部分は、主張された技術的解決手段の主要な特徴または必要な特徴を示すことを意図しておらず、主張された技術的解決手段の範囲を制限するために使用されることも意図しない。
一態様は、画像処理方法であって、
取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するステップと、
第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するステップと、
目標位置に基づき、第2の画像に第1の移動処理を実行するステップと、
第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、目標画像を表示するステップと、を含む。
他の態様は、画像処理装置であって、
取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するための第1の処理モジュールと、
第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するための決定モジュールと、
目標位置に基づき、第2の画像に第1の移動処理を実行するための第2の処理モジュールと、
第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、目標画像を表示するための第3の処理モジュールと、を備える。
さらなる態様は、電子機器を提供し、前記電子機器は、メモリ、プロセッサ及びメモリに記憶されてプロセッサで稼働できるコンピュータプログラムを備え、プロセッサは、前記プログラムを実行する際に上記の画像処理方法が実現される。
別の態様は、非一時的なコンピュータ可読記憶媒体を提供し、非一時的なコンピュータ可読記憶媒体には、コンピュータプログラムが記憶され、プログラムがプロセッサによって実行されるとき、上記の画像処理方法が実現される。
本開示の実施例による画像処理方法は、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第1の変換処理後の第2の画像に第1の移動処理を実行し、第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、その結果、目標画像は第1の画像の画像情報だけでなく、第1の画像に第1の変換処理を実行することによって得られた第2の画像の画像情報も含み、そして、目標画像における第1の画像の画像情報と第2の画像の画像情報は異なる画像位置に位置することができ、ユーザに様式が新規な特殊効果画像を提供し、画像変更に対するユーザの多様なニーズを満たし、ユーザエクスペリエンスとユーザ満足度を効果的に向上させる。
本開示の実施例の追加の態様及び利点は、以下の説明から部分的に示され、これらは以下の説明から明らかになるか、または本開示の実践によって了解されることができる。
図面を組み合わせて以下の具体的な実施形態を参照し、本開示の各実施例の上記及び他の特徴、利点及び態様を明らかになる。図面全体を通して、同じまたは類似の図面符号は同じまたは類似の要素を指す。図面は例示的なものであり、アセンブリと要素は必ずしも一定の縮尺で描かれているわけではないことを理解すべきである。
本開示の実施例による画像処理方法的フローチャートである。 本開示の実施例による目標画像の模式図である。 本開示の実施例による画像処理装置の基本的な構造模式図である。 本開示の実施例による電子機器の構造模式図である。
以下、図面を参照して本開示の実施例を詳細に説明する。図面には本開示のいくつかの実施例が示されるが、本開示は様々な形態で実現されることができ、ここで説明される実施例に制限されると解釈されるべきではなく、逆に、これらの実施例は、本開示をより徹底的かつ完全に理解するために提供されるのを理解すべきである。本開示の図面及び実施例は、例示的なものであり、本開示の保護範囲を制限するためのものではないのを理解すべきである。
理解すべき点として、本開示の方法実施形態に記載の各ステップは、異なる順序に従って実行し、及び/又は並行して実行することができる。なお、方法実施形態は、付加的なステップを含み、及び/又は示されたステップを省略して実行することができ。本開示の範囲はこの点で制限されない。
本明細書に使用される用語「含む」及びその変形は、オープン型を含み、即ち、「含むが、これに限定されない」ということである。用語「に基づいて」は、「少なくとも部分的に…に基づいて」ということである。用語「一実施例」は、「少なくとも1つの実施例」を示し、用語「別の実施例」は、「少なくとも1つの別の実施例」を示し、用語「一部の実施例」は、「少なくとも一部の実施例」を示す。他の用語に関連する定義は、以下の記述で説明される。
注意すべき点として、本開示に言及された「第1」、「第2」等の概念は、装置、モジュールまたはユニットを区別するためにのみ使用され、これらの装置、モジュールまたはユニットを必ず異なる装置、モジュールまたはユニットに制限することも、これらの装置、モジュールまたはユニットによって実行される機能の順序または相互依存関係を制限するためのものでもない。
注意すべき点として、本開示に言及された「一つ」、「複数」の修飾は、制限的ではなく、例示的なものであり、当業者は、文脈で明確に示されていない限り、「一つまたは複数」として理解すべきである。
本開示の実施形態における複数の装置間で交換されるメッセージまたは情報の名称は、例示の目的のためだけであり、これらのメッセージまたは情報の範囲を制限することを意図するものではない。
本開示の実施例の目的、技術的解決手段及び利点をより明らかにさせるために、以下、図面を参照して本開示の実施形態を更に詳細に説明する。
以下、本開示の実施例の技術的解決手段及び本開示の実施例の技術的解決手段は具体的な実施例によって上記技術的問題の解決方法を詳細に説明する。以下、このいくつかの具体的な実施例を互いに組み合わせることができ、同じまたは類似の概念または過程について、ある実施例において繰り返して説明しない。以下、図面を参照して、本開示の実施例を説明する。
本開示の一実施例は、画像処理方法を提供し、該方法は、端末により実行され、端末は、デスクトップのコンピュータ機器または移動端末を含む。図1に示すように、該方法は、
取得された第1の画像が顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するステップS110と、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するステップS120と、目標位置に基づき、第2の画像に第1の移動処理を実行するステップS130と、第1の画像と第1の移動処理後の第2の画像とに基づき目標画像を生成し、目標画像を表示するステップS140と、を含む。
具体的には、端末機器は、マルチメディア収集機器(例えば、カメラ、ウェブカメラ等)を介してビデオ情報を収集し、ビデオ情報から処理対象の画像(即ち、第1の画像)としてフレームを抽出することができ、ローカルに予め記憶された画像セット(例えば、アルバム)から任意の画像を処理対象の画像(即ち、第1の画像)として抽出することもでき、無論、他の実現可能な方式によって処理対象の画像(即ち、第1の画像)を取得してもよく、本開示の実施例はこれを制限しない。ここで、第1の画像の取得といった操作、画像を処理する前に処理する必要がある画像を予め選択してもよいし、ユーザが画像処理操作をトリガーしたのを検出した後、ユーザに処理する必要がある画像を提供またはアップロードするように通知することもできる。
具体的には、第1の画像は、人、動物、風景、物品等を含む様々な画像であってもよい。第1の画像は顔を含む場合、第1の画像に変換処理(即ち、第1の変換処理)を実行することにより、変換処理後の第1の画像(即ち、第2の画像)を取得し、このとき、端末機器に2枚の画像があることに相当し、1つは第1の画像であり、もう1つは第2の画像である。第1の画像に顔が含まない場合、第1の画像に変換処理(即ち、第1の変換処理)を実行しなく、第2の画像を取得することができないことが言うまでもない。
具体的には、第1の画像は顔を含む画像であるため、端末機器は第2の画像を取得した後、第1の画像における顔の目標顔のキーポイント(即ち、第1の目標顔のキーポイント)、例えば、顔の輪郭、目、眉毛、唇及び鼻の輪郭等に基づいて、第2の画像における顔の目標顔のキーポイント(即ち、第2の目標顔のキーポイント)の第1の画像での目標位置を決定することができる。1つの例では、第1の画像における顔の目標顔のキーポイントに基づき、第2の画像の第1の画像での位置を決定することができる。第2の目標顔のキーポイントは、第1の目標顔のキーポイントと同じ顔のキーポイントであってもよいし、第1の目標顔のキーポイントの一部であってもよいし、また、第1の目標顔のキーポイントと異なる顔のキーポイントであってもよく、本開示の実施例は、これを制限しない。
具体的には、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定した後、該目標位置に基づき、第2の画像に移動処理(即ち、第1の移動処理)を実行することにより、移動処理後の第2の画像を取得する。一例では、第2の画像における顔の第2の目標顔のキーポイントを該目標位置に移動することによって、第2の画像全体に移動処理を実行し、移動処理後の第2の画像を取得する。
具体的に、移動処理後の第2の画像を取得した後、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成することができ、これにより、目標画像は、第1の画像の画像情報だけでなく、第2の画像の画像情報を含み、そして、第1の画像の画像情報および第2の画像の画像情報は、異なる画像位置に位置することができる。ここでの第1の画像は、端末機器によって取得された処理対象の画像(元の画像に相当する)である。一例では、第1の画像と第1の移動処理後の第2の画像とに合成処理(例えば、image flattening処理またはimage merging処理)を実行することにより、目標画像を生成することができる。他の例では、第1の画像を画像層(例えば、画像層1)とし、第1の移動処理後の第2の画像を他の画像層(例えば、画像層2)とし、この2つの画像層に重ね合わせ処理を実行することにより、目標画像を生成し、重ね合わせ時に必要に応じて画像層1を下層とし、画像層2を上層とすることができる。
本開示の実施例による画像処理方法は、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第1の変換処理後の第2の画像に第1の移動処理を実行し、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成し、目標画像は、第1の画像の画像情報だけでなく、第1の画像に第1の変換処理を実行することによって得られた第2の画像の画像情報も含み、目標画像における第1の画像の画像情報および第2の画像の画像情報は、異なる画像位置に位置することができ、ユーザに様式が新規な特殊効果画像を提供し、画像変更に対するユーザの多様なニーズを満たし、ユーザエクスペリエンスとユーザ満足度を効果的に向上させる。
一可能な実現手段では、まず、第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を行い、所定の年齢層の顔に一致する各第2の顔特徴を取得し、各第2の顔特徴を含む顔の画像を第3の画像として決定するプロセス、及び所定のポートレートマスクに基づいて、第3の画像にカットアウト処理を実行し、カットアウト処理後の画像を第2の画像として決定するプロセスという変換処理プロセスによって、第1の画像に第1の変換処理を実行し、第2の画像を取得することができる。
通常、人の年齢は、例えば、0歳から1歳までの幼児、1歳から4歳までの幼児、5歳から11歳までの子供、12歳から18歳までのティーンエイジャー、19歳から35歳までの若者、36歳からの中年及び60歳以上の高齢者などのさまざまな年齢層に分けることができ、もちろん、他の年齢層分割方式にすることもでき、本開示の実施例は、これを制限しない。異なる年齢層の顔の各顔特徴は、異なる場合が多く、例えば、0歳から1歳までの幼児の顔は、脂肪が多いことがよくあり、また、例えば60歳以上の高齢者は、顔しわやたるみなどでいっぱいである。上記の所定の年齢層の顔は、予め選択された任意の年齢層の顔、例えば、0歳から1歳までの幼児の顔、19歳から35歳までの若者の顔、60歳以上の高齢者の顔等であってもよい。
具体的には、第1の画像に第1の変換処理を実行する過程において、第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、例えば、幼児の顔の各顔特徴に一致する各第2の顔特徴、若者の顔の各顔特徴に一致する各第2の顔特徴、高齢者の顔の各顔特徴に一致する各第2の顔特徴を取得することができる。所定の年齢層の顔に一致する各第2の顔特徴を取得した後、各第2の顔特徴を含む顔の画像を第3の画像として決定し、該第3の画像は、得られた特徴変換処理後の画像である。所定の年齢層の顔の各顔特徴(即ち各第2の顔特徴)に従って、第1の画像における顔の各顔特徴(即ち各第1の顔特徴)にそれぞれ特徴変換処理を実行し、特徴変換処理後の第1の画像(即ち上記の第3の画像)を取得する。
実際の使用では、各年齢層の顔の各顔特徴に従って訓練されたニューラルネットワーク(例えば、敵対ニューラルネットワーク)によって、所定の年齢層の顔の各顔特徴(即ち、各第2の顔特徴)に従って、第1の画像における顔の各顔特徴(即ち、各第1の顔特徴)にそれぞれ特徴変換処理を行うことができる。
一例では、第1の画像は複数の顔(例えば、2つ)、例えば、それぞれ顔1および顔2である2つの顔を含む場合、このとき、目標顔を決定し、目標顔の各第1の顔特徴にそれぞれ特徴変換処理を実行することができる。顔1が目標顔であると仮定し、顔1の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、各第2の顔特徴の顔1の画像を第3の画像とし、勿論、第3の画像は、各第2の顔特徴を含む顔1の画像以外、顔2または他の関連画像を含み、本開示の実施例は、これを制限しない。
具体的には、第3の画像を取得した後、第3の画像の顔を含む目標対象に後続処理を実行し、所定のポートレートマスクに基づいて、第3の画像にカットアウト処理を実行することができ、顔を含む目標対象を第3の画像からカットアウトし、カットアウト処理後の画像(即ち顔を含む目標対象の画像)を第2の画像として決定し、即ち、第2の画像は、所定のポートレートマスクに基づいて、第3の画像からカットアウトされた顔を含む目標対象の画像である。第3の画像は、複数の顔、例えば、それぞれ顔1と顔2である2つの顔を含み、且つ顔1を含む人物1を目標対象とする場合、このとき、所定のポートレートマスクを利用して、第3の画像にカットアウト処理を実行することができ、顔を含む目標対象(即ち、顔1を含む人物1)を第3の画像からカットアウトし、それを第2の画像とする。
一可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行する前に、第2の画像に顔特徴に対応する付加情報を添加してもよい。第2の画像に顔特徴に対応する付加情報を添加した後、顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行することができる。
具体的には、顔特徴に対応する付加情報は、様々なスタイルの帽子、ヘアアクセサリー、イヤリング、眼鏡等であってもよいし、顔特徴に対応するアニメーション効果を有する他の付加情報であってもよく、例えば、ウサギ、ネコ、ブタ、犬等の動物関連形象の付加情報であり、また、例えば、面白い、なりすまし効果のある付加情報であり、更に、例えば、「泣く」という表現に関連する「涙」の付加情報、及びかわいらしさに関連する他の幾つかの付加情報等であり、ここで一々に挙げられない。第2の画像に顔特徴に対応する付加情報を添加することにより、第2の画像の顔がより鮮明になり、ある程度、楽しみを増やし、ユーザの個人化のニーズを満たす。
一例では、所定の年齢層の顔は0歳から1歳までの幼児の顔、即ち、第2の画像に幼児の顔の各顔特徴に一致する各第2の顔特徴の顔(例えば、顔3)であり、このとき、顔3をより鮮明にさせるために、第2の画像の顔3に幾つかの幼児に対応する装飾物品、例えば、ベビーハット、ベビーヘアアクセサリー等を添加することができる。
具体的に、第2の画像に顔特徴に対応する付加情報を添加した後、第2の画像に第1の移動処理を実行する過程において、添加された、顔特徴に対応する付加情報とともに第1の移動処理を実行し、即ち、顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行する。
一可能な実現手段では、第1の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントおよび16番目の顔のキーポイントであり、第2の目標顔のキーポイントは、106個の顔のキーポイントの44番目の顔のキーポイントである。第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定する過程において、以下の処理を実行することができ、まず、第1の画像における顔の44番目の顔のキーポイントから16番目の顔のキーポイントまでの方向ベクトルを決定し、第1の所定の計算式に基づいて、所定の変位倍数、方向ベクトル及び第1の画像における顔の16番目の顔のキーポイントに基づいて、第1の位置点を取得し、第1の位置点を第2の画像における顔の44番目の顔のキーポイントの第1の画像での目標位置として決定する。
具体的には、現在の106個の顔のキーポイントに基づき、第1の画像における顔の44番目の顔のキーポイントおよび16番目の顔のキーポイントを決定することができ、44番目の顔のキーポイントおよび16番目の顔のキーポイントを第1の画像における顔の第1の目標顔のキーポイントとする。106個の顔のキーポイントのうち、44番目の顔のキーポイントは、鼻梁にあり、16番目の顔のキーポイントは、あごにある。44番目の顔のキーポイントおよび16番目の顔のキーポイントを決定した後、44番目の顔のキーポイント(即ち、P0点)から16番目の顔のキーポイント(即ち、P1点)までの方向ベクトルを決定することができ、説明を簡単にするため、44番目の顔のキーポイントをP0とし、16番目の顔のキーポイントをP1とすることができ、このようにして、44番目の顔のキーポイント(即ち、P0点)から16番目の顔のキーポイント(即ち、P1点)までの方向ベクトルを決定し、即ち、P0点からP1点までの二次元方向ベクトルを決定し、P01とすることができ、即ちP01=P1-P0である。
具体的には、方向ベクトル(即ち、P01)を決定した後、第1の所定の計算式に基づいて、所定の変位倍数、方向ベクトルP01及び第1の画像における顔の16番目の顔のキーポイント(即ち、P1点)に基づき、第1の位置点を決定することができる。実際の使用では、P1点からP01方向に沿ってK倍のP01のベクトルを重ね合わせ、位置点P2(即ち、第1の位置点)を取得することができる。第1の所定の計算式は、P2=(P1-P0)*K+P1であってもよく、該計算式では、(P1-P0)は、P0点からP1点までの二次元方向ベクトルであり、Kは、所定の変位倍数であり、P1は、第1の画像における顔の16番目の顔のキーポイントであり、一例では、Kの取る値は1である。Kの取る値が1である場合、第1の位置点P2は、第1の画像における顔のあごから顔の下半分にほぼ位置する。
具体的には、第1の位置点を決定した後、第1の位置点を第2の画像における顔の44番目の顔のキーポイントの第1の画像での目標位置として決定し、即ち、第2の画像における顔の44番目の顔のキーポイントを第1の画像のP2まで移動し、また、即ち、第1の画像のP2を第2の画像における顔の44番目の顔のキーポイントの固定アンカーポイントとする。これは、第2の画像における顔の44番目の顔のキーポイントを第1の画像のP2位置に移動することにより、第2の画像全体を移動することに相当する。
具体的には、目標位置に基づき、第2の画像に第1の移動処理を実行する過程において、まず、所定の縮小倍数に基づき、第1の画像における顔の44番目の顔のキーポイントを顔の中心点とする第2の画像に縮小処理を実行し、第4の画像を取得する処理、及び目標位置に基づき、第4の画像を並進処理する処理を実行することができる。
具体的には、第1の画像に第1の変換処理を実行して第2の画像を取得した後、第2の画像の画像情報は、第1の画像の画像情報に重なり合い、第2の画像における顔の各顔特徴(即ち、各第2の顔特徴)は、第1の画像における顔の各顔特徴(即ち、各第1の顔特徴)とわずかに異なるだけであり、即ち、このとき、端末機器は、2枚の画像を取得し、1つは各第1の顔特徴を含む顔の第1の画像であり、もう1つは各第2の顔特徴を含む顔の第2の画像であり、この2つの画像の画像情報(または画像特徴)は重なり合う。ここでの重なり合いとは、この2つの画像の画像情報(または画像特徴)の位置は重なり合せることを指し、例えば、第1の画像における顔の目の位置は第2の画像における顔の目の位置に重なり合せ、また、例えば、第1の画像における顔の口位置は第2の画像における顔の口の位置に重なり合せること等を指す。
勿論、第2の画像に顔特徴に対応する付加情報を添加すると、第2の画像のうち、顔特徴に対応するこの付加情報以外、第2の画像の画像情報は、第1の画像の画像情報に重なり合う。
一例では、目標位置に基づき、第2の画像に第1の移動処理を実行する過程において、第1の画像の画像情報は、第2の画像の画像情報に重なり合うため、第1の画像における顔の44番目の顔のキーポイントは、第2の画像における顔の44番目の顔のキーポイントに重なり合う。これに基づいて、第2の画像における顔の44番目の顔のキーポイントを第1の画像における顔の44番目の顔のキーポイントに移動し、即ち、44番目の顔のキーポイントをアンカーポイントとして第2の画像と第1の画像とを重なり合せ、第2の画像における顔の44番目の顔のキーポイントをアンカーポイントとして、第2の画像全体に所定の縮小倍数で縮小処理を行い、縮小処理後の第2の画像(即ち、第4の画像)を取得し、目標位置に基づき、第4の画像に並進処理を行い、目標位置は第2の画像における顔の44番目の顔のキーポイントが第1の画像での位置であるため、第4の画像における顔の44番目の顔のキーポイントを目標位置に移動して、第4の画像全体に並進処理を行うことに相当し、即ち、並進処理後の第4の画像の44番目の顔のキーポイントは、目標位置に位置する。
この例では、目標位置に基づき、第4の画像に並進処理を実行する過程において、目標位置、第4の画像のサイズに基づき適切なサイズのマスク(例えばT形マスク)を決定することができ、目標位置に基づき該マスクを第1の画像の適切な位置に覆い、目標位置に基づき第4の画像を該マスクに並進移動し、第2の画像を第1の画像に描くことに相当し、第2の画像を第1の画像に描く過程において、第2の画像における顔の44番目の顔のキーポイントが目標位置にあるのを確保する。
なお、該例では、目標位置に基づき、第2の画像に第1の移動処理を実行する過程において、第2の画像を、まずP0を中心としてS倍縮小させ、次に並進し、第2の画像の各ピクセルPに対して、以下の式(1)に従ってそれをP’の位置に移動し、
ここで、Pは、二次元データであり、端末機器の画面スペースにおける第2の画像の各ピクセルの位置座標を示し、端末機器の画面は、0~1に正規化される座標スペースであり、即ち、Pは、0~1範囲内の座標であり、P2=(P1-P0)*K+P1であり、具体的には、上記の説明を参照する。
他の例では、目標位置に基づき、第2の画像に第1の移動処理を実行する過程において、まず、第1の画像のP2を第2の画像における顔の44番目の顔のキーポイントとすることができ、即ち、第2の画像における顔の44番目の顔のキーポイントをP2に並進することによって、第2の画像全体を並進し、また、即ち、P2を第2の画像における顔の44番目の顔の主要な固定アンカーポイントとすることにより、第2の画像全体を対応な位置に移動し、該固定アンカーポイントに基づき第2の画像に所定の縮小倍数で縮小処理を実行し、これにより、第1の移動処理後の第2の画像を取得する。該例の実現過程は上記示例の実現過程と類似し、ここで繰り返して説明しない。
具体的には、目標位置に基づき、第2の画像に第1の移動処理を実行した後、第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加し、第5の画像を取得する。第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成するステップは、第1の画像と第5の画像に基づき、目標画像を生成するステップを含む。
具体的には、第1の移動処理後の第2の画像を取得した後、表示しようとしない部分画像情報を覆い、または画像の面白さを増加するために、第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加することができ、該目標付加情報は所定の年齢層にマッチする様々なアクセサリーであってもよく、例えば、所定の年齢層が幼児である場合、目標付加情報は、オーバーオール、ウエストチェア等であってもよく、又、例えば、所定の年齢層が高齢者である場合、目標付加情報は、車椅子、松葉杖等であってもよく、勿論、目標付加情報は、必要に応じて選択された他の特定の装飾物品であってもよく、本開示の実施例は、これを制限しない。該所定の位置は、顔の下の身体部位であってもよいし、他の身体部分であってもよく、本開示の実施例は、これを制限しない。
具体的には、第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加した後、目標画像は、実際に第1の画像と添加目標付加情報後の第2の画像とに基づき生成される。簡単に説明するために、第1の移動処理後の第2の画像の所定の位置に目標付加情報後の画像を第5の画像として添加することができ、即ち、目標画像は、第1の画像と第5の画像とに基づき生成される。図2は、本開示の実施例の目標画像の一模式図を示す。
一可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行した後、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行し、並進処理後の第4の画像を所定の移動軌跡で移動するという処理を実行することもできる。第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成する過程は、具体的に、第1の画像と第2の移動処理後の第2の画像に基づき、目標画像を生成することである。
具体的には、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行する過程において、まず、現在の時間と所定の移動軌跡の移動開始時間の間の時差値を決定する処理、時差値に基づき、所定の移動軌跡が複数の所定の時間での変位と回転角度を含む所定の移動配列から現在の時間に対応する目標変位と目標回転角度を決定する処理、及び目標変位と回転角度とに基づき、第1の移動処理後の第2の画像の現在の時間での移動位置を決定し、第1の移動処理後の第2の画像が移動位置を移動開始位置とし、所定の移動軌跡に従って移動し続けることを決定する処理、を実行することができる。
具体的には、さらに画像の面白さを増加し、特殊効果がより鮮明になるために、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像(即ち、並進処理後の第4の画像)に第2の移動処理を実行することができ、並進処理後の第4の画像に1つの所定の移動軌跡を増加することで、それが所定の移動軌跡に沿って移動することに相当する。該所定の移動軌跡は、上下、左右に揺れることができる移動軌跡であってもよい。該所定の移動軌跡が上下、左右に揺れる移動軌跡である場合、第1の移動処理後の第2の画像に上下、左右に揺れる予め設定された運動に増加することに相当する。このときの第1の移動処理後の第2の画像に目標付加情報を添加したと、第1の移動処理後の第2の画像を目標付加情報とともに所定の移動軌跡に基づいて移動する。
具体的には、所定の移動軌跡に基づいて、並進処理後の第4の画像に第2の移動処理を実行し、即ち、所定の移動軌跡に基づいて、並進処理後の第4の画像に第2の移動処理を実行することにより、第2の移動処理後の第4の画像を取得する。第2の移動処理後の第4の画像を取得した後、前記第1の画像と前記第2の移動処理後の第2の画像とに基づき、目標画像を生成することができる。
通常、所定の移動軌跡は、時間ごとに異なる変位と回転角度があるとともに、何度も繰り返され、このように、1つの移動データ(即ち、所定の移動データ)を通じて、1つの運動周期内で、所定の移動軌跡が複数の所定の時間での変位と回転角度とを記憶することができる。各運動周期内の各所定の時間での変位および回転角度は同じであり、例えば、運動周期1内の所定の時間T1_1の変位と運動周期2内の所定の時間T2_1の変位とは同じであり、運動周期1内の所定の時間T1_1の回転角度は、運動周期2内の所定の時間T2_1の回転角度と同じである。
具体的には、異なる運動時間点は、所定の移動軌跡における異なる位置に対応し、即ち、異なる運動時間点は、異なる変位と回転角度とに対応するため、並進処理後の第4の画像に1つの所定の移動軌跡を増加する際に、現在の時間に基づき現在の時間に対応する1つの変位(即ち、目標変位)と回転角度(即ち、目標回転角度)とを決定する必要がある。現在の時間と所定の移動軌跡の移動開始時間との間の時差値に基づき、現在の時間に対応する変位と回転角度とを決定することができる。時差値に基づき現在の時間に対応する変位と回転角度とを決定する際に、該時差値に基づき、所定の移動配列から対応する変位と回転角度とを選択することができ、該選択された変位を現在の時間の目標変位とするとともに、該選択された回転角度を現在の時間の目標回転角度とする。
具体的には、目標変位と目標回転角度とを決定した後、該目標変位と目標回転角度とに基づき、所定の移動軌跡における現在の時間の対応な位置を決定し、該位置を運動開始位置として、該所定の移動軌跡に従って移動し続ける。
一例では、現在の時間がT_currentであり、所定の移動軌跡の移動開始時間がT_beginであると仮定し、まず、時間差は、T_currentからT_beginを引くことで計算でき、時間差を取得した後、該時間差に基づき所定の移動配列に記憶された各変位と各回転角度から、対応する変位Tと回転角度Dとを選択することができ、該変位Tは、現在の時間の目標変位であり、該回転角度Dはk現在の時間の目標回転角度であり、該目標変位と該目標回転角度とに基づき、並進処理後の第4の画像の現在の時間での移動位置を決定し、並進処理後の第4の画像が該移動位置を移動開始位置として、該所定の移動軌跡に従って移動し続ける。
この例では、所定の移動軌跡に基づいて、並進処理後の第4の画像に実行された第2の移動処理は、式(1)の上で予め設定されたP2に基づく変位と回転を増加し、変位と回転角度を増加した後の式は式(2)、
に示される。
Mは、回転角度Dによって得られる二次元回転行列であり、
であり、Tは、変位である。
説明する必要がある点として、第2の画像のみに第1の移動処理を実行すると、上記式(1)を使用すればよく、第2の画像に第1の移動処理を実行する必要があるだけでなく、第1の移動処理後の第2の画像に第2の移動処理を実行する必要もあると、式(1)を使用せず、上記式(2)を直接使用する。
図3は、本開示の他の実施例による画像処理装置の構造模式図であり、図3に示すように、該装置300は、第1の処理モジュール301、決定モジュール302、第2の処理モジュール303及び第3の処理モジュール304を備えることができ、
第1の処理モジュール301は、取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するために使用され、
決定モジュール302は、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するために使用され、
第2の処理モジュール303は、目標位置に基づき、第2の画像に第1の移動処理を実行するために使用され、
第3の処理モジュール304は、第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、目標画像を表示するために使用される。
一可能な実現手段では、第1の処理モジュールは、
第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、各第2の顔特徴を含む顔の画像を第3の画像として決定することと、
所定のポートレートマスクに基づいて、第3の画像にカットアウト処理を実行し、カットアウト処理後の画像を第2の画像として決定することと、に用いられる。
一可能な実現手段では、第1の添加モジュールを更に備え、
第1の添加モジュールは、第2の画像に顔特徴に対応する付加情報を添加するために使用され、
第2の処理モジュールは、顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行するために使用される。
一可能な実現手段では、第1の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントおよび16番目の顔のキーポイントであり、第2の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントであり、
決定モジュールは、具体的には、
第1の画像における顔の44番目の顔のキーポイントから16番目の顔のキーポイントまでの方向ベクトルを決定することと、
第1の所定の計算式に基づいて、所定の変位倍数、方向ベクトル及び第1の画像における顔の16番目の顔のキーポイントに基づき、第1の位置点を取得し、第1の位置点を第2の画像における顔の44番目の顔のキーポイントの第1の画像での目標位置として決定することと、に用いられる。
一可能な実現手段では、第2の処理モジュールは、
所定の縮小倍数に基づき、第1の画像における顔の44番目の顔のキーポイントを顔の中心点とする第2の画像に縮小処理を実行し、第4の画像を取得することと、
目標位置に基づき、第4の画像に並進処理を実行することと、に用いられる。
一可能な実現手段では、第2の添加モジュールを更に備え、
第2の添加モジュールは、第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加し、第5の画像を取得するために使用され、
第3の処理モジュールは、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成する際に、第1の画像と第5の画像とに基づき、目標画像を生成するために使用される。
一可能な実現手段では、第4の処理モジュールを更に備え、
第4の処理モジュールは、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行することで、並進処理後の第4の画像が所定の移動軌跡で移動するために使用され、
第3の処理モジュールは、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成するとき、第1の画像と第2の移動処理後の第2の画像に基づき、目標画像を生成するために使用される。
一可能な実現手段では、第4の処理モジュールは、具体的には、
現在の時間と所定の移動軌跡の移動開始時間の間の時差値を決定することと、
時差値に基づき、所定の移動軌跡が複数の所定の時間での変位と回転角度とを含む所定の移動配列から現在の時間に対応する目標変位と目標回転角度とを決定することと、
目標変位と回転角度に基づき、第1の移動処理後の第2の画像の現在の時間での移動位置を決定し、第1の移動処理後の第2の画像が移動位置を移動開始位置とし、所定の移動軌跡に従って移動し続けることを決定することと、に用いられる。
本開示の実施例による装置は、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第1の変換処理後の第2の画像に第1の移動処理を実行し、第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、目標画像は第1の画像の画像情報だけでなく、第1の画像に第1の変換処理を実行することによって得られた第2の画像の画像情報も含み、目標画像における第1の画像の画像情報と第2の画像の画像情報とは異なる画像位置に位置することができ、ユーザに様式が新規な特殊効果画像を提供し、画像変更に対するユーザの多様なニーズを満たし、ユーザエクスペリエンスとユーザ満足度を効果的に向上させる。
説明する必要がある点として、本実施例は、上記の方法実施例に対応する装置実施例であり、本実施例が上記方法実施例に合わせて実施することができる。上記方法実施例に言及された関連技術細部は、本実施例において依然として有効であり、繰り返しを減らすために、ここで説明しない。対応的に、本実施例に言及された関連技術細部は上記方法実施例にも適用できる。
以下、図4を参照すると、図4は、本開示の実施例を実現するのに適する電子機器400の概略構造図を示している。本開示の実施例における端末機器は、携帯電話、ノートパソコン、デジタル放送受信機、PDA(パーソナルデジタルアシスタント)、PAD(タブレット)、PMP(ポータブルマルチメディアプレーヤー)、車載端末(例えば車載ナビゲーション端末)などのモバイル端末、及び、デジタルTV、デスクトップコンピュータなどの固定端末を含み得るが、これらに限定されない。図4に示す電子機器は、一例にすぎず、本開示の実施例の機能及び使用範囲にいかなる制限を与えるべきではない。
電子機器は、メモリ及びプロセッサを備え、ここでのプロセッサは、後述する処理装置401とも呼ばれ、メモリは、以下の読み取り専用メモリ(ROM)402、ランダムアクセスメモリ(RAM)403及び存儲装置408のうちの少なくとも1つを含み、具体的に以下のとおりである。
図4に示すように、電子機器400は、処理装置(例えば、中央プロセッサ、グラフィックスプロセッサなど)401を含み得、読み取り専用メモリ(ROM)402に記憶されているプログラム又は装置408からランダムアクセスメモリ(RAM)403にロードされるプログラムに応じて、様々な適切な動作及び処理を実行することができる。RAM403には、さらに、電子機器の400操作に必要な様々なプログラム及びデータが記憶されている。処理装置401、ROM402及びRAM403は、バス404を介して互いに接続されている。入力/出力(I/O)インターフェース405も、バス404に接続されている。
通常、例えば、タッチスクリーン、タッチパッド、キーボード、マウス、カメラ、マイクロフォン、加速度計、ジャイロスコープなどを含む入力装置406と、例えば、液晶ディスプレイ(LCD)、スピーカ、バイブレータなどを含む出力装置407と、例えば、磁気テープ、ハードディスクなどを含む記憶装置408と、通信装置409とは、I/Oインターフェース405に接続されることができる。通信装置409は、電子機器400が他の機器と無線又は有線で通信してデータを交換することを可能にすることができる。図4に様々な装置を有する電子機器400を示したが、示された全ての装置を実施するか又は備える必要がないことを理解されたい。これに代えて、よりも多く又は少ない装置を実施するか又は備えてもよい。
特に、本開示の実施例によれば、以上でフローチャートを参照して説明したプロセスは、コンピュータソフトウェアプログラムとして実装され得る。例えば、本開示の実施例は、コンピュータ可読媒体に担持されているコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示す方法を実行するためのプログラムコードを含む。このような実施例において、当該コンピュータプログラムは、通信装置409によってネットワークからダウンロードされてインストールされてもよいし、記憶装置408からインストールされてもよいし、ROM402からインストールされてもよい。当該コンピュータプログラムが処理装置401によって実行されると、本開示の実施例の方法に限定される上記の機能が実行される。
説明する必要がある点として、本開示の上記のコンピュータ可読媒体は、コンピュータ可読信号媒体であっても、コンピュータ可読記憶媒体であっても、上記の両者の任意のオーバーレイであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、もしくは半導体のシステム、装置もしくはデバイス、又は以上の任意のオーバーレイであり得るが、これらに限定されない。コンピュータ可読記憶媒体のより具体的な例は、1つ又は複数のワイヤを有する電気接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD-ROM)、光記憶デバイス、磁気記憶デバイス、又は上記の任意の適切なオーバーレイを含み得るが、これらに限定されない。本開示において、コンピュータ可読記憶媒体は、プログラムを含むか又は記憶する任意の有形媒体であり得、当該プログラムは、命令実行システム、装置又はデバイスによって、又はそれらと組み合わせて使用することができる。本開示において、コンピュータ可読信号媒体は、ベースバンドで、又は搬送波の一部として伝播されるデータ信号を含み、データ信号は、コンピュータ可読なプログラムコードを担持する。このような伝播されるデータ信号は、複数の形態を採用することができ、電磁気信号、光信号又は上記の任意の適切なオーバーレイを含むが、これらに限定されない。コンピュータ可読信号媒体は、さらに、コンピュータ可読記憶媒体以外のいずれのコンピュータ可読媒体であってもよく、当該コンピュータ可読信号媒体は、命令実行システム、装置又はデバイスによって、又はそれらと組み合わせて使用するためのプログラムを送信、伝播又は伝送することができる。コンピュータ可読媒体に含まれているプログラムコードをいずれの適切な媒体で伝送することができ、前記媒体は、電線、光ケーブル、RF(無線周波数)など、又は上記の任意の適切なオーバーレイを含むが、これらに限定されない。
上記のコンピュータ可読媒体は、上記の電子機器に含まれるものであってもよいし、当該電子機器に組み込まれず、単独で存在するものであってもよい。
上記のコンピュータ可読媒体には、1つ又は複数のプログラムが担持されており、上記の1つ又は複数のプログラムが当該電子機器によって実行されると、当該電子機器に、取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するステップと、第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するステップと、目標位置に基づき、第2の画像に第1の移動処理を実行するステップと、第1の画像と第1の移動処理後の第2の画像に基づき、目標画像を生成し、目標画像を表示するステップと、を実行させる。
1つ又は複数のプログラミング言語又はそれらのオーバーレイで本開示の操作を実行するためのコンピュータプログラムコードを作成することができ、上記のプログラミング言語は、Java、Smalltalk、C++などのオブジェクト指向のプログラミング言語だけでなく、「C」言語又は類似しているプログラミング言語などの一般的なプロシージャプログラミング言語を含む。プログラムコードは、完全にユーザコンピュータ上で実行されても、部分的にユーザコンピュータ上で実行されても、1つのソフトウェアパケットとして実行されても、一部がユーザコンピュータ上で一部がリモートコンピュータ上で実行されても、完全にリモートコンピュータ又はサーバで実行されてもよい。リモートコンピュータに関する場合、リモートコンピュータは、ローカルエリアネットワーク(LAN)又はワイドエリアネットワーク(WAN)を含む任意のタイプのネットワークを介してユーザコンピュータに接続することができるか、又は、外部のコンピュータに接続することができる(例えば、インターネットサービスプロバイダを利用してインターネットを介して接続することができる)。
図面におけるフローチャート及びブロック図は、本開示の様々な実施例のシステム、方法及びコンピュータプログラム製品に従って実現可能な体系アーキテクチャ、機能と操作を示した。この点で、フローチャート又はブロック図における各ブロックは、1つのモジュール、プログラムセグメント、又はコードの一部を代表することができ、当該モジュール、プログラムセグメント、又はコードの一部はプリセットの論理機能を実現するための1つ又は複数の実行可能命令を含む。置き換えとする一部の実装において、ブロックに注記される機能が図面に注記された順序と異なる順序で発生されることができると注意すべきである。例えば、2つの連続して表示されたブロックは、実際には基本的に並列に実行されてもよく、それらは、関係のある機能に応じて逆の順序で実行される場合もある。ブロック図又はフローチャートにおける各ブロック、及びブロック図又はフローチャートにおけるブロックの組み合わせは、プリセットの機能又は操作を実行するために専用の、ハードウェアに基づくシステムで実装できるか、又は、専用のハードウェアとコンピュータ命令との組み合わせで実装できることに注意されたい。
本開示の実施例の説明に係るモジュールまたはユニットは、ソフトウェアの方式で実装されても、ハードウェアの方式で実装されてもよい。ここで、モジュールまたはユニットの名称は、ある場合には、当該ユニット自体に対する限定を構成しなく、例えば、取得モジュールは、「所定のライブイベントが発生したことを検出すると、所定のライブイベントに対応する少なくとも1つのイベント処理方式を取得するモジュール」として説明されてもよい。
本明細書において上述した機能は、少なくても一部が、1つ又は複数のハードウェア論理部品によって実行されてもよい。例えば、限定ではなく、使用可能な例示的なハードウェア論理部品は、フィールドプログラマブルゲートアレイ(FPGA)、特定用途向け集積回路(ASIC)、特定用途向け標準製品(ASSP)、システムオンチップ(SOC)、複雑プログラマブル論理デバイス(CPLD)などを含む。
本開示のコンテキストでは、機器可読媒体は、有形の媒体であってもよく、それは、命令実行システム、装置又は機器の使用に提供するか、又は、命令実行システム、装置又は機器と結合して使用するためのプログラムを含むか又は記憶することができる。機器可読媒体は、機器可読信号媒体であっても、機器可読記憶媒体であってもよい。機器可読媒体は、電子的、磁気的、光学的、電磁気的、赤外線的、又は半導体システム、装置又は機器、又は上記内容の任意の適切な組合せを含んでもよいが、これらに限定されない。機器可読記憶媒体のより具体的な例は、1つ又は複数の線に基づく電気接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み取り専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROM又はファラッシュメモリ)、光ファイバ、携帯型コンパクトディスク読み取り専用メモリ(CD-ROM)、光学記憶機器、磁気記憶機器、又は上記内容の任意の適切な組合せを含む。
本開示の1つまたは複数の実施例によれば、画像処理方法を提供し、
取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するステップと、
第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するステップと、
目標位置に基づき、第2の画像に第1の移動処理を実行するステップと、
第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成し、目標画像を表示するステップと、を含む。
一つの可能な実現手段では、第1の画像に第1の変換処理を実行し、第2の画像を取得するステップは、
第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、各第2の顔特徴を含む顔の画像を第3の画像として決定するステップと、
所定のポートレートマスクに基づいて、第3の画像にカットアウト処理を実行し、カットアウト処理後の画像を第2の画像として決定するステップと、を含む。
一つの可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行する前に、
第2の画像に顔特徴に対応する付加情報を添加するステップをさらに含み、
第2の画像に第1の移動処理を実行するステップは、
顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行するステップを含む。
一つの可能な実現手段では、第1の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントおよび16番目の顔のキーポイントであり、第2の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントであり、
第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するステップは、
第1の画像における顔の44番目の顔のキーポイントから16番目の顔のキーポイントまでの方向ベクトルを決定するステップと、
第1の所定の計算式に基づいて、所定の変位倍数、方向ベクトル及び第1の画像における顔の16番目の顔のキーポイントに基づき、第1の位置点を取得し、第1の位置点を第2の画像における顔の44番目の顔のキーポイントの第1の画像での目標位置として決定するステップと、を含む。
一つの可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行するステップは、
所定の縮小倍数に基づき、第1の画像における顔の44番目の顔のキーポイントを顔の中心点とする第2の画像に縮小処理を実行し、第4の画像を取得するステップと、
目標位置に基づき、第4の画像に並進処理を実行するステップと、を含む。
一つの可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行した後、
第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加し、第5の画像を取得するステップをさらに含み、
第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成するステップは、
第1の画像と第5の画像とに基づき、目標画像を生成するステップを含む。
一つの可能な実現手段では、目標位置に基づき、第2の画像に第1の移動処理を実行した後、
所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行することで、並進処理後の第4の画像が所定の移動軌跡で移動するステップをさらに含み、
第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成するステップは、
第1の画像と第2の移動処理後の第2の画像とに基づき、目標画像を生成するステップを含む。
一つの可能な実現手段では、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行するステップは、
現在の時間と所定の移動軌跡の移動開始時間との間の時差値を決定するステップと、
時差値に基づき、所定の移動軌跡が複数の所定の時間での変位と回転角度とを含む所定の移動配列から現在の時間に対応する目標変位と目標回転角度とを決定するステップと、
目標変位と回転角度に基づき、第1の移動処理後の第2の画像の現在の時間での移動位置を決定し、第1の移動処理後の第2の画像が移動位置を移動開始位置とし、所定の移動軌跡に従って移動し続けることを決定するステップと、を含む。
本開示の1つまたは複数の実施例によれば、画像処理装置を提供し、
取得された第1の画像は顔を含む場合、第1の画像に第1の変換処理を実行し、第2の画像を取得するための第1の処理モジュールと、
第1の画像における顔の第1の目標顔のキーポイントに基づいて、第2の画像における顔の第2の目標顔のキーポイントの第1の画像での目標位置を決定するための決定モジュールと、
目標位置に基づき、第2の画像に第1の移動処理を実行するための第2の処理モジュールと、
第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成し、目標画像を表示するための第3の処理モジュールと、を備える。
一つの可能な実現手段では、第1の処理モジュールは、
第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、各第2の顔特徴を含む顔の画像を第3の画像として決定することと、
所定のポートレートマスクに基づいて、第3の画像にカットアウト処理を実行し、カットアウト処理後の画像を第2の画像として決定することと、に用いられる。
一つの可能な実現手段では、第1の添加モジュールを更に備え、
第1の添加モジュールは、第2の画像に顔特徴に対応する付加情報を添加するために使用され、
第2の処理モジュールは、顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行するために使用される。
一つの可能な実現手段では、第1の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントおよび16番目の顔のキーポイントであり、第2の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントであり、
決定モジュールは、具体的には、
第1の画像における顔の44番目の顔のキーポイントから16番目の顔のキーポイントまでの方向ベクトルを決定することと、
第1の所定の計算式に基づいて、所定の変位倍数、方向ベクトル及び第1の画像における顔の16番目の顔のキーポイントに基づき、第1の位置点を取得し、第1の位置点を第2の画像における顔の44番目の顔のキーポイントの第1の画像での目標位置として決定することと、に用いられる。
一つの可能な実現手段では、第2の処理モジュールは、
所定の縮小倍数に基づき、第1の画像における顔の44番目の顔のキーポイントを顔の中心点とする第2の画像に縮小処理を実行し、第4の画像を取得することと、
目標位置に基づき、第4の画像に並進処理を実行することと、に用いられる。
一つの可能な実現手段では、第2の添加モジュールを更に備え、
第2の添加モジュールは、第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加し、第5の画像を取得するために使用され、
第3の処理モジュールは、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成する際に、第1の画像と第5の画像とに基づき、目標画像を生成するために使用される。
一つの可能な実現手段では、第4の処理モジュールを更に備え、
第4の処理モジュールは、所定の移動軌跡に基づいて、第1の移動処理後の第2の画像に第2の移動処理を実行することで、並進処理後の第4の画像が所定の移動軌跡で移動するために使用され、
第3の処理モジュールは、第1の画像と第1の移動処理後の第2の画像とに基づき、目標画像を生成する際に、第1の画像と第2の移動処理後の第2の画像とに基づき、目標画像を生成するために使用される。
一つの可能な実現手段では、第4の処理モジュールは、具体的には、
現在の時間と所定の移動軌跡の移動開始時間との間の時差値を決定することと、
時差値に基づき、所定の移動軌跡が複数の所定の時間での変位と回転角度とを含む所定の移動配列から現在の時間に対応する目標変位と目標回転角度とを決定することと、
目標変位と回転角度とに基づき、第1の移動処理後の第2の画像の現在の時間での移動位置を決定し、第1の移動処理後の第2の画像が移動位置を移動開始位置とし、所定の移動軌跡に従って移動し続けることを決定することと、に用いられる。
以上の記述は、本開示の好適な実施例及び使用された技術原理に対する説明にすぎない。当業者であれば、本開示に係る開示範囲は、上記の技術的特徴の特定の組合せによる技術案に限定されず、上記の開示の構想から逸脱しない範囲内に含まれている場合、上記の技術的特徴又はそれらの同等の特徴を任意に組合せすることにより形成された他の技術案を含むべきであると理解するであろう。例えば、上記の特徴と、本開示に開示されている(但し、これらに限定されない)類似する機能を有する技術的特徴とを互に置き換えて形成する技術案である。
なお、特定の手順で各操作を説明したが、これは、示された特定の手順又は順序の手順でこれらの操作を実行すると理解してはいけない。一定の環境では、マルチタスクと並行処理が有利である可能性がある。同様に、上記の論述にはいくつかの具体的な実装の詳細が含まれるが、これらは、本開示の範囲に対する限定として解釈されるべきではない。個別の実施例のコンテキストに説明された一部の特徴は、さらに、単一の実施例に組合せして実装されてもよい。むしろ、単一の実施例のコンテキストに説明された様々な特徴は、単独で、又は任意の適切なサブ組合せの方式で複数の実施例で実現されてもよい。
構造的特徴又は方法論理動作に特有の言語を用いて本主題を説明したが、特許請求の範囲に限定される主題は、必ずしも上述した特定の特徴又は動作に限定されるものである必要はないことを理解されたい。むしろ、上述した特定の特徴と動作は、特許請求の範囲を実現する例示的な形態にすぎない。
本開示は、2020年4月13日に中国国家知識産権局に提出された、出願番号が、CN202010287393.4の中国特許出願の優先権を主張し、そのすべての内容は引用により全体として本明細書に組み込まれる。

Claims (11)

  1. 取得された第1の画像が顔を含む場合、前記第1の画像に第1の変換処理を実行し、第2の画像を取得するステップと、
    前記第1の画像における顔の第1の目標顔のキーポイントに基づいて、前記第2の画像における顔の第2の目標顔のキーポイントの前記第1の画像での目標位置を決定するステップと、
    前記目標位置に基づき、前記第2の画像に第1の移動処理を実行するステップと、
    前記第1の画像と前記第1の移動処理後の第2の画像とに基づき、目標画像を生成し、前記目標画像を表示するステップと、を含む、
    画像処理方法。
  2. 前記第1の画像に第1の変換処理を実行し、第2の画像を取得するステップは、
    前記第1の画像における顔の各第1の顔特徴にそれぞれ特徴変換処理を実行し、所定の年齢層の顔に一致する各第2の顔特徴を取得し、前記各第2の顔特徴を含む顔の画像を第3の画像として決定するステップと、
    所定のポートレートマスクに基づいて、前記第3の画像にカットアウト処理を行い、前記カットアウト処理後の画像を前記第2の画像として決定するステップと、を含む、
    請求項1に記載の画像処理方法。
  3. 当該画像処理方法は、前記目標位置に基づき、前記第2の画像に第1の移動処理を実行する前に、前記第2の画像に顔特徴に対応する付加情報を添加するステップをさらに含み、
    前記第2の画像に第1の移動処理を実行するステップは、
    顔特徴に対応する付加情報を添加した後の第2の画像に第1の移動処理を実行するステップを含む、
    請求項1に記載の画像処理方法。
  4. 前記第1の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントおよび16番目の顔のキーポイントであり、前記第2の目標顔のキーポイントは、106個の顔のキーポイントのうちの44番目の顔のキーポイントであり、
    前記第1の画像における顔の第1の目標顔のキーポイントに基づいて、前記第2の画像における顔の第2の目標顔のキーポイントの前記第1の画像での目標位置を決定するステップは、
    前記第1の画像における顔の44番目の顔のキーポイントから16番目の顔のキーポイントまでの方向ベクトルを決定するステップと、
    第1の所定の計算式に基づいて、所定の変位倍数、前記方向ベクトル及び前記第1の画像における顔の16番目の顔のキーポイントに基づき、第1の位置点を取得し、前記第1の位置点を前記第2の画像における顔の44番目の顔のキーポイントの前記第1の画像での目標位置を決定するステップと、を含む、
    請求項1~3のいずれかに記載の画像処理方法。
  5. 前記目標位置に基づき、前記第2の画像に第1の移動処理を実行するステップは、
    所定の縮小倍数に基づき、前記第1の画像における顔の44番目の顔のキーポイントを顔の中心点とする第2の画像に縮小処理を実行し、第4の画像を取得数するステップと、
    前記目標位置に基づき、前記第4の画像に並進処理を実行するステップと、を含む、
    請求項4に記載の画像処理方法。
  6. 当該画像処理方法は、前記目標位置に基づき、前記第2の画像に第1の移動処理を実行した後、前記第1の移動処理後の第2の画像の所定の位置に目標付加情報を添加し、第5の画像を取得するステップをさらに含み、
    前記第1の画像と前記第1の移動処理後の第2の画像とに基づき、目標画像を生成するステップは、
    前記第1の画像と前記第5の画像とに基づき、目標画像を生成するステップを含む、
    請求項1または5に記載の画像処理方法。
  7. 当該画像処理方法は、前記目標位置に基づき、前記第2の画像に第1の移動処理を実行した後、所定の移動軌跡に基づいて、前記第1の移動処理後の第2の画像に第2の移動処理を実行し、前記並進処理後の第4の画像を前記所定の移動軌跡に従って移動させるステップをさらに含み、
    前記第1の画像と前記第1の移動処理後の第2の画像とに基づき、目標画像を生成するステップは、
    前記第1の画像と前記第2の移動処理後の第2の画像とに基づき、目標画像を生成するステップを含む、
    請求項に記載の画像処理方法。
  8. 所定の移動軌跡に基づいて、前記第1の移動処理後の第2の画像に第2の移動処理を実行するステップは、
    現在の時間と前記所定の移動軌跡の移動開始時間との間の時差値を決定するステップと、
    前記時差値に基づき、前記所定の移動軌跡が複数の所定の時間での変位と回転角度とを含む所定の移動配列から現在の時間に対応する目標変位と目標回転角度とを決定するステップと、
    前記目標変位と前記回転角度とに基づき、前記第1の移動処理後の第2の画像の現在の時間での移動位置を決定し、前記第1の移動処理後の第2の画像が前記移動位置を移動開始位置として、前記所定の移動軌跡に従って移動し続けることを決定するステップと、を含む、
    請求項7に記載の画像処理方法。
  9. 取得された第1の画像が顔を含む場合、前記第1の画像に第1の変換処理を実行し、第2の画像を取得するための第1の処理モジュールと、
    前記第1の画像における顔の第1の目標顔のキーポイントに基づいて、前記第2の画像における顔の第2の目標顔のキーポイントの前記第1の画像での目標位置を決定するための決定モジュールと、
    前記目標位置に基づき、前記第2の画像に第1の移動処理を実行するための第2の処理モジュールと、
    前記第1の画像と前記第1の移動処理後の第2の画像とに基づき、目標画像を生成し、前記目標画像を表示するための第3の処理モジュールと、を含む、
    画像処理装置。
  10. メモリ、プロセッサ及びメモリに記憶されてプロセッサで稼動できるコンピュータプログラムを備える、電子機器であって、
    前記プロセッサが前記コンピュータプログラムを実行するとき、請求項1~8のいずれかに記載の方法が実現される、
    電子機器。
  11. コンピュータプログラムが記憶される非一時的なコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されるとき、請求項1~8のいずれかに記載の方法が実現される、
    非一時的なコンピュータ可読記憶媒体。
JP2022561575A 2020-04-13 2021-04-02 画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体 Active JP7469510B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN202010287393.4A CN111507890B (zh) 2020-04-13 2020-04-13 图像处理方法、装置、电子设备及计算机可读存储介质
CN202010287393.4 2020-04-13
PCT/CN2021/085326 WO2021208764A1 (zh) 2020-04-13 2021-04-02 图像处理方法、装置、电子设备及计算机可读存储介质

Publications (2)

Publication Number Publication Date
JP2023520732A JP2023520732A (ja) 2023-05-18
JP7469510B2 true JP7469510B2 (ja) 2024-04-16

Family

ID=71869209

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022561575A Active JP7469510B2 (ja) 2020-04-13 2021-04-02 画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体

Country Status (7)

Country Link
US (1) US11908237B2 (ja)
EP (1) EP4131144A4 (ja)
JP (1) JP7469510B2 (ja)
KR (1) KR20220162776A (ja)
CN (1) CN111507890B (ja)
BR (1) BR112022020542A2 (ja)
WO (1) WO2021208764A1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN111507890B (zh) * 2020-04-13 2022-04-19 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质
CN112887796B (zh) * 2021-02-10 2022-07-22 北京字跳网络技术有限公司 视频生成方法、装置、设备及介质
CN116386074B (zh) * 2023-06-07 2023-08-15 青岛雅筑景观设计有限公司 一种园林工程设计数据智能处理及管理系统

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556701A (zh) 2009-05-15 2009-10-14 陕西盛世辉煌智能科技有限公司 基于平均脸和衰老比例图的人脸图像年龄变换方法
JP2018531449A (ja) 2015-09-22 2018-10-25 コリア・インスティテュート・オブ・サイエンス・アンド・テクノロジー 顔部位別の年齢と環境的要因に基づく年齢変換方法、これを遂行するための記録媒体、及び装置
CN109376618A (zh) 2018-09-30 2019-02-22 北京旷视科技有限公司 图像处理方法、装置及电子设备

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8953909B2 (en) 2006-01-21 2015-02-10 Elizabeth T. Guckenberger System, method, and computer software code for mimic training
KR20080106596A (ko) * 2007-03-22 2008-12-09 연세대학교 산학협력단 가상 얼굴 생성 방법
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
JP2012181688A (ja) * 2011-03-01 2012-09-20 Sony Corp 情報処理装置、情報処理方法、情報処理システムおよびプログラム
US20140043329A1 (en) * 2011-03-21 2014-02-13 Peng Wang Method of augmented makeover with 3d face modeling and landmark alignment
KR20130120175A (ko) 2012-04-25 2013-11-04 양재건 캐리커처 자동 생성 장치, 방법 및 컴퓨터 판독 가능한 기록 매체
WO2014194439A1 (en) * 2013-06-04 2014-12-11 Intel Corporation Avatar-based video encoding
JP6733672B2 (ja) * 2015-07-21 2020-08-05 ソニー株式会社 情報処理装置、情報処理方法およびプログラム
CN105184249B (zh) * 2015-08-28 2017-07-18 百度在线网络技术(北京)有限公司 用于人脸图像处理的方法和装置
US9978119B2 (en) 2015-10-22 2018-05-22 Korea Institute Of Science And Technology Method for automatic facial impression transformation, recording medium and device for performing the method
CN107798276A (zh) * 2016-09-05 2018-03-13 中兴通讯股份有限公司 一种人脸图像的年龄变换方法及装置
CN107993216B (zh) * 2017-11-22 2022-12-20 腾讯科技(深圳)有限公司 一种图像融合方法及其设备、存储介质、终端
WO2019190142A1 (en) * 2018-03-29 2019-10-03 Samsung Electronics Co., Ltd. Method and device for processing image
CN108830892B (zh) * 2018-06-13 2020-03-06 北京微播视界科技有限公司 人脸图像处理方法、装置、电子设备及计算机可读存储介质
KR102530264B1 (ko) 2018-08-08 2023-05-09 삼성전자 주식회사 아바타에 대응하는 속성에 따른 아이템을 제공하는 방법 및 장치
CN109829930B (zh) * 2019-01-15 2021-05-04 深圳市云之梦科技有限公司 人脸图像处理方法、装置、计算机设备及可读存储介质
CN110047053A (zh) * 2019-04-26 2019-07-23 腾讯科技(深圳)有限公司 人像图片生成方法、装置和计算机设备
CN110555796B (zh) * 2019-07-24 2021-07-06 广州视源电子科技股份有限公司 图像调整方法、装置、存储介质以及设备
CN111754415B (zh) * 2019-08-28 2022-09-27 北京市商汤科技开发有限公司 人脸图像处理方法及装置、图像设备及存储介质
CN110992493B (zh) * 2019-11-21 2023-10-31 北京达佳互联信息技术有限公司 图像处理方法、装置、电子设备及存储介质
CN111507890B (zh) * 2020-04-13 2022-04-19 北京字节跳动网络技术有限公司 图像处理方法、装置、电子设备及计算机可读存储介质

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN101556701A (zh) 2009-05-15 2009-10-14 陕西盛世辉煌智能科技有限公司 基于平均脸和衰老比例图的人脸图像年龄变换方法
JP2018531449A (ja) 2015-09-22 2018-10-25 コリア・インスティテュート・オブ・サイエンス・アンド・テクノロジー 顔部位別の年齢と環境的要因に基づく年齢変換方法、これを遂行するための記録媒体、及び装置
CN109376618A (zh) 2018-09-30 2019-02-22 北京旷视科技有限公司 图像处理方法、装置及电子设备

Also Published As

Publication number Publication date
KR20220162776A (ko) 2022-12-08
JP2023520732A (ja) 2023-05-18
BR112022020542A2 (pt) 2022-12-06
EP4131144A1 (en) 2023-02-08
US20220392257A1 (en) 2022-12-08
CN111507890B (zh) 2022-04-19
WO2021208764A1 (zh) 2021-10-21
CN111507890A (zh) 2020-08-07
EP4131144A4 (en) 2023-10-11
US11908237B2 (en) 2024-02-20

Similar Documents

Publication Publication Date Title
JP7469510B2 (ja) 画像処理方法、装置、電子機器及びコンピュータ可読記憶媒体
CN110766777B (zh) 虚拟形象的生成方法、装置、电子设备及存储介质
WO2021139408A1 (zh) 显示特效的方法、装置、存储介质及电子设备
CN111787242B (zh) 用于虚拟试衣的方法和装置
WO2020186935A1 (zh) 虚拟对象的显示方法、装置、电子设备和计算机可读存储介质
WO2022166872A1 (zh) 一种特效展示方法、装置、设备及介质
US11800043B2 (en) Video processing method and apparatus, and computer-readable medium and electronic device
WO2022007627A1 (zh) 一种图像特效的实现方法、装置、电子设备及存储介质
CN112199016B (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
WO2021208709A1 (zh) 图像处理方法、装置、电子设备及计算机可读存储介质
CN112396679B (zh) 虚拟对象显示方法及装置、电子设备、介质
WO2022188708A1 (zh) 基于增强现实的试鞋方法、装置和电子设备
WO2022171024A1 (zh) 图像显示方法、装置、设备及介质
JP7421010B2 (ja) 情報表示方法、装置及び記憶媒体
WO2023185671A1 (zh) 风格图像生成方法、装置、设备及介质
US20220358662A1 (en) Image generation method and device
EP4206982A1 (en) Image processing method and apparatus, and device and medium
CN114697568B (zh) 特效视频确定方法、装置、电子设备及存储介质
WO2022171020A1 (zh) 图像显示方法、装置、设备及介质
WO2023151551A1 (zh) 视频图像处理方法、装置、电子设备及存储介质
WO2023151554A1 (zh) 视频图像处理方法、装置、电子设备及存储介质
CN117119249A (zh) 特效视频确定方法、装置、电子设备及存储介质
CN117095097A (zh) 一种虚拟形象生成方法、装置、电子设备和存储介质
CN115375801A (zh) 图像处理方法、装置、设备及存储介质
CN114782593A (zh) 图像处理方法、装置、电子设备及存储介质

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240305

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240319

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240404