JP2021144706A - バーチャルアバターの生成方法及び生成装置 - Google Patents

バーチャルアバターの生成方法及び生成装置 Download PDF

Info

Publication number
JP2021144706A
JP2021144706A JP2021030671A JP2021030671A JP2021144706A JP 2021144706 A JP2021144706 A JP 2021144706A JP 2021030671 A JP2021030671 A JP 2021030671A JP 2021030671 A JP2021030671 A JP 2021030671A JP 2021144706 A JP2021144706 A JP 2021144706A
Authority
JP
Japan
Prior art keywords
avatar
facial expression
virtual avatar
attributes
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021030671A
Other languages
English (en)
Other versions
JP7268071B2 (ja
Inventor
シャン ロン
Xiang Long
シャン ロン
シン リー
Xin Li
シン リー
ファナン ジャン
Henan Zhang
ファナン ジャン
ハオ スン
Hao Sun
ハオ スン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2021144706A publication Critical patent/JP2021144706A/ja
Application granted granted Critical
Publication of JP7268071B2 publication Critical patent/JP7268071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/04Context-preserving transformations, e.g. by using an importance map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/003Navigation within 3D models or images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/004Artificial life, i.e. computing arrangements simulating life
    • G06N3/006Artificial life, i.e. computing arrangements simulating life based on simulated virtual individual or collective life forms, e.g. social simulations or particle swarm optimisation [PSO]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2004Aligning objects, relative positioning of parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Software Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Evolutionary Computation (AREA)
  • Computational Linguistics (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Mathematical Physics (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Architecture (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Social Psychology (AREA)
  • Psychiatry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Probability & Statistics with Applications (AREA)
  • Geometry (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】本発明の実施例は、バーチャルアバターの生成方法及び生成装置を開示する。【解決手段】当該方法の一具体的な実施形態は、第1のアバターを取得し、当該第1のアバターの表情パラメータを確定し、ここで、当該第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含むことと、当該五官のうちの少なくとも1つの表情パラメータに基づいて、当該第1のアバターの属性に関連し且つ当該第1のアバターの表情を有するターゲットバーチャルアバターを確定することと、を含む。本発明の実施例は、第1のアバターを用いて表情パラメータを生成することにより、表情パラメータに基づいて、第1のアバターの属性、表情の両方に対応するターゲットバーチャルアバターを効率的かつ比較的正確に生成することができる。【選択図】図2

Description

本発明の実施例は、コンピュータ技術の分野に関し、具体的にはインターネット技術の分野に関し、特にバーチャルアバターの生成方法及び生成装置に関する。
インターネット技術の発展に伴って、ますます多くのライブ配信プラットフォームと動画配信プラットフォームが出現している。ユーザーは、携帯電話などを通じて自分で撮影した動画をアップロードすることができる。自撮りやライブ配信などのシーンにおいて、電子機器は、ユーザーの顔の特徴と表情を2次元または3次元の動画像にマッピングすることにより、画面の面白さと豊かさを効果的に向上させることができる。
関連技術では、上記のマッピングは、一般にユーザーの顔の特徴と表情を固定された動画像にマッピングする。実際の人間に似た動画を生成するには、時間がかかる。
本発明の実施例は、バーチャルアバターの生成方法及び生成装置を提案する。
第1の態様において、本発明の実施例は、第1のアバターを取得し、第1のアバターの表情パラメータを確定し、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含むことと、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することと、を含むバーチャルアバターの生成方法に関する。
いくつかの実施例において、方法は、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することをさらに含み、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することは、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることと、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することと、を含む。
いくつかの実施例において、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることは、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、第1の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることを含む。
いくつかの実施例において、第1のアバターの表情パラメータは、頭部角度をさらに含み、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することは、第1のバーチャルアバターと頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、第2の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られることを含む。
いくつかの実施例において、五官のうちの少なくとも1つの表情パラメータは、眼部パラメータと口部パラメータとを含み、第1のアバターの表情パラメータを確定することは、第1のアバターの表情関連キーポイントを検出することにより、検出結果が得られ、ここで、表情関連キーポイントは、眼部キーポイントと口部キーポイントとを含むことと、検出結果に基づいて、第1のアバターの眼部パラメータ、口部パラメータ、及び頭部角度を確定することと、を含む。
いくつかの実施例において、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することは、第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、第3の生成対抗ネットワークから出力された、第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られることと、または、第1のアバターの属性を検出することと、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを第1のアバターの属性に関連した無表情な基準バーチャルアバターとすることと、を含む。
いくつかの実施例において、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することは、各プリセット表情パラメータから、第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択することと、第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得することと、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定することと、を含む。
いくつかの実施例において、第1のアバターの表情パラメータは、頭部角度をさらに含み、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定することは、第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及びプリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、第4の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、第4の生成対抗ネットワークのパラメータの数は、第1の生成対抗ネットワークのパラメータの数より小さく、かつ第2の生成対抗ネットワークのパラメータの数より小さいことを含む。
いくつかの実施例において、第1のアバターを取得することは、1つの処理待ちアバターを取得することと、処理待ちアバターを補正することにより、処理待ちアバターの正面アバターが得られ、正面アバターを第1のアバターとすることと、を含む。
いくつかの実施例において、方法は、第1のアバターに対応する表情カテゴリを確定することと、ターゲットバーチャルアバターに対して、表情カテゴリに対応する特効を追加することと、をさらに含む。
第2の態様において、本発明の実施例は、第1のアバターを取得し、第1のアバターの表情パラメータを確定するように配置され、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含む取得ユニットと、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定するように配置された確定ユニットと、を含むバーチャルアバターの生成装置に関する。
いくつかの実施例において、装置は、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成するように配置された生成ユニットをさらに含み、確定ユニットは、さらに、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られ、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成する。
いくつかの実施例において、確定ユニットは、さらに、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることを以下のように実行するように配置され、即ち、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、第1の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られる。
いくつかの実施例において、第1のアバターの表情パラメータは、頭部角度をさらに含み、確定ユニットは、さらに、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することを以下のように実行するように配置され、即ち、第1のバーチャルアバターと頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、第2の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られる。
いくつかの実施例において、五官のうちの少なくとも1つの表情パラメータは、眼部パラメータと口部パラメータとを含み、取得ユニットは、さらに、第1のアバターの表情パラメータを確定することを以下のように実行するように配置され、即ち、第1のアバターの表情関連キーポイントを検出することにより、検出結果が得られ、ここで、表情関連キーポイントは、眼部キーポイントと口部キーポイントとを含み、検出結果に基づいて、第1のアバターの眼部パラメータ、口部パラメータ、及び頭部角度を確定する。
いくつかの実施例において、生成ユニットは、さらに、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することを以下のように実行するように配置され、即ち、第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、第3の生成対抗ネットワークから出力された、第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られ、または、第1のアバターの属性を検出し、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを第1のアバターの属性に関連した無表情な基準バーチャルアバターとする。
いくつかの実施例において、確定ユニットは、さらに、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、各プリセット表情パラメータから、第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択し、第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得し、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定する。
いくつかの実施例において、第1のアバターの表情パラメータは、頭部角度をさらに含み、確定ユニットは、さらに、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及びプリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、第4の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、第4の生成対抗ネットワークのパラメータの数は、第1の生成対抗ネットワークのパラメータの数より小さく、かつ第2の生成対抗ネットワークのパラメータの数より小さい。
いくつかの実施例において、装置は、第1のアバターに対応する表情カテゴリを確定するように配置されたカテゴリ確定ユニットと、ターゲットバーチャルアバターに対して、表情カテゴリに対応する特効を追加するように配置された追加ユニットと、をさらに含む。
いくつかの実施例において、第1のアバターを取得することは、1つの処理待ちアバターを取得することと、処理待ちアバターを補正することにより、処理待ちアバターの正面アバターが得られ、正面アバターを第1のアバターとすることと、を含む。
第3の態様において、本発明の実施例は、1つ以上のプロセッサと1つ以上のプログラムを記憶するための記憶装置とを含み、1つ以上のプログラムが1つ以上のプロセッサによって実行されるとき、バーチャルアバターの生成方法のいずれかの実施例に記載の方法を1つ以上のプロセッサに実現させる電子機器に関する。
第4の態様において、本発明の実施例は、コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、当該コンピュータプログラムがプロセッサによって実行されるとき、バーチャルアバターの生成方法のいずれかの実施例に記載の方法を実現するコンピュータ可読記憶媒体に関する。
第5の態様において、本発明の実施例は、コンピュータプログラムであって、プロセッサによって実行されるとき、バーチャルアバターの生成方法のいずれかの実施例に記載の方法を実現するコンピュータプログラムに関する。
本発明の実施例によるバーチャルアバターの生成方法では、まず、第1のアバターを取得し、第1のアバターの表情パラメータを確定し、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含む。この後、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定する。本発明の実施例は、第1のアバターを用いて表情パラメータを生成することにより、表情パラメータに基づいて、第1のアバターの属性、表情の両方に対応するターゲットバーチャルアバターを効率的かつ比較的正確に生成することができる。
本発明のその他の特徴、目的および利点をより明確にするために、以下の図面を参照してなされた非限定的な実施例の詳細な説明を参照する。
本発明のいくつかの実施例が適用可能な例示的なシステムアーキテクチャ図である。 本発明によるバーチャルアバターの生成方法の一実施例のフローチャートである。 本発明によるバーチャルアバターの生成方法の一応用シーンを示す概略図である。 本発明によるバーチャルアバターの生成方法の別の実施例のフローチャートである。 本発明によるバーチャルアバターの生成装置の一実施例の概略構成図である。 本発明のいくつかの実施例を実現するために適用される電子機器のコンピュータシステムの概略構成図である。
以下、図面及び実施例を参照して本発明についてより詳細に説明する。ここで説明された具体的な実施例は、関連する発明を説明するためだけのものであり、この発明を制限するものではないことを理解できる。なお、説明を容易にするために、図面には関連する発明に関連する部分のみを示している。
なお、矛盾しない場合には、本発明の実施例及び実施例における特徴が互いに組み合わせることができる。以下、図面を参照して、実施例に合わせて本発明を詳細に説明する。
図1には、本発明が適用され得る、バーチャルアバターの生成方法又はバーチャルアバターの生成装置の実施例の例示的なシステムアーキテクチャ100が示されている。
図1に示すように、システムアーキテクチャ100は、端末機器101、102、103、ネットワーク104およびサーバー105を含むことができる。ネットワーク104は、端末機器101、102、103とサーバー105との間に通信リンクの媒体を提供するために使用される。ネットワーク104は、例えば有線、無線通信リンク、または光ファイバケーブルなどの様々な接続タイプを含むことができる。
ユーザは、端末機器101、102、103を使用してネットワーク104を介してサーバー105とインタラクティブすることにより、メッセージなどを送受信することができる。端末機器101、102、103には、例えばバーチャルアバター生成アプリケーション、動画系アプリケーション、ライブ配信アプリケーション、即時通信ツール、メールクライアント、ソーシャルプラットフォームソフトウェアなどの様々な通信クライアントアプリケーションがインストールされることができる。
ここでの端末機器101、102、103は、ハードウェアでもソフトウェアでもよい。端末機器101、102、103がハードウェアである場合、ディスプレイを有する様々な電子機器であってもよく、スマートフォン、タブレット、電子書籍リーダー、ラップトップパソコン、デスクトップコンピュータなどを含むがこれらに限定されない。端末機器101、102、103がソフトウェアである場合、上記に挙げられた電子機器にインストールされることができる。それは、複数のソフトウェアまたはソフトウェアモジュール(例えば分散型サービスを提供するための複数のソフトウェアまたはソフトウェアモジュール)として実現されてもよく、単一のソフトウェアまたはソフトウェアモジュールとして実現されてもよい。ここで、具体的に限定しない。
サーバー105は、様々なサービスを提供するサーバーであってもよく、例えば、端末機器101、102、103に対しサポートを提供するバックグラウンドサーバーである。バックグラウンドサーバーは、第1のアバターなどのデータに対し解析などの処理を行い、処理結果(例えば第1のバーチャルアバター)を端末機器にフィードバックすることができる。
なお、本発明の実施例によるバーチャルアバターの生成方法は、サーバー105または端末機器101、102、103によって実行されてもよく、これに対応して、バーチャルアバターの生成装置は、サーバー105または端末機器101、102、103に配置されてもよい。
図1の端末機器、ネットワーク、およびサーバーの数は単なる例示であることを理解すべきである。必要に応じて、任意の数の端末機器、ネットワーク、およびサーバーを備えることができる。
続けて図2を参照すると、本発明によるバーチャルアバターの生成方法の一実施例のフロー200が示されている。当該バーチャルアバターの生成方法は、以下のステップを含む。
ステップ201において、第1のアバターを取得し、第1のアバターの表情パラメータを確定し、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含む。
本実施例において、バーチャルアバターの生成方法の実行主体(例えば図1に示されたサーバーまたは端末機器)は、第1のアバターを取得することができる。ここでのアバターは、顔だけでなく、首や肩などを含むことができる。ちなみに、上記実行主体は、上記第1のアバターの表情パラメータを確定することができる。表情パラメータは、第1のアバターの表情を反映するパラメータである。具体的には、表情パラメータは、眉毛(2つの眉毛)パラメータ、眼部(2つの眼)パラメータ、および/または口部パラメータのような五官のうちの少なくとも1つの表情パラメータを含むことができる。具体的には、表情パラメータにおける各パラメータは、例えば0から1の範囲のような対応するプリセット値の範囲内であってもよい。眉毛パラメータは、眉毛の位置のオフセットを表すことができる。例えば、眉毛が元の位置にある場合、眉毛パラメータは0.5であり、眉毛が高いアバターにおいて、眉毛パラメータは0.75であり、眉毛が低いアバターにおいて、眉毛パラメータは0.3である。眼部パラメータは、目の開閉の度合いを示すことができる。例えば、目が大きく開いているアバターにおいて、眼部パラメータは0.8であり、目を細くしたアバターにおいて、眼部パラメータは0.15である。口部パラメータは、画像における口型を表すことができ、具体的には1つの分類結果であってもよく、例えば、タイプとしては、口を尖らせたり、口を大きく開けたり、口を閉じたり、含み笑いをしたり、左利き、右利きなどがある。また、口部パラメータは、口を開く度合いを示す数値であってもよく、例えば、口を大きく開けたアバターにおける口部パラメータは0.8であり、口を閉じたアバターにおける口部パラメータは0.2である。
実践において、上記実行主体は、プリセットモデルまたはプリセットされた対応関係テーブルを用いて、第1のアバターに対応する表情パラメータを確定することができる。ここでのプリセットモデルとプリセットされた対応関係テーブルは、アバターと当該アバターの表情パラメータとの対応関係を特徴付けるために使用されてもよい。
本実施例のいくつかの選択可能な実施形態において、ステップ201における第1のアバターを取得することは、1つの処理待ちアバターを取得することと、処理待ちアバターを補正することにより、処理待ちアバターの正面アバターが得られ、正面アバターを第1のアバターとすることと、を含むことができる。
これらの選択可能な実施形態において、上記実行主体は、ローカルまたは他の電子機器から、単一の処理待ちアバターを取得することができる。上記実行主体は、処理待ちアバターに対し位置合わせ及び補正を行うことにより、処理待ちアバターを正面アバター、すなわち正顔アバターに変換することができる。上記実行主体は、当該正面アバターを第1のアバターとすることにより、正面の第1のバーチャルアバターを生成することができる。
これらの実施形態は、大量のアバターを必要とせず、1枚のアバターのみを利用して、正面のバーチャルアバターを生成することを実現できる。
ステップ202において、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定する。
本実施例において、上記実行主体は、五官のうちの少なくとも1つの表情パラメータに基づいて、ターゲットバーチャルアバターを確定することができる。ターゲットバーチャルアバターは、2次元画像であってもよく、場合によっては、ターゲットバーチャルアバターは、3次元画像であってもよい。具体的には、当該ターゲットバーチャルアバターは、第1のアバターの属性に関連するだけでなく、第1のアバターの表情を有する。
具体的には、属性とは、第1のアバターの特徴を反映した、表情の変化によって変化しない性質を指す。例えば、属性は、顔形、顔の太さ、ヘアスタイル、五官のうちの少なくとも1つの大きさおよび/または形状、アバターにおける各部分の色のうちの少なくとも1つを含むことができる。上記のバーチャルアバターと第1のアバターの属性に関連することは、生成されたバーチャルアバターの属性(または一部の属性)が、第1のアバターの属性(または一部の属性)と完全に同じまたは類似(類似度がプリセット閾値より大きい)であることを指してもよく、バーチャルアバターの属性(または一部の属性)が、第1のアバターの属性(または一部の属性)と似ていないが、形状および/または大きさが対応関係を持つことを指してもよい。例えば、第1のアバターの鼻の幅は2センチであり、関連するバーチャルアバターの鼻の幅は1センチであり、第1のアバターの鼻の幅は1.5センチであり、関連するバーチャルアバターの鼻の幅は0.75センチである。
実践において、上記実行主体は、様々な方法で五官のうちの少なくとも1つの表情パラメータに基づいて、ターゲットバーチャルアバターを確定することができる。例えば、上記実行主体は、予め設定されたモデルを用いて、第1のアバター及び五官のうちの少なくとも1つの表情パラメータを当該モデルに入力することにより、当該モデルから出力されるターゲットバーチャルアバターを得ることができる。当該モデルは、第1のアバター及び表情パラメータの両方とターゲットバーチャルアバターとの対応関係を特徴付けるために使用されることができる。
本発明の上記実施例による方法は、第1のアバターを用いて表情パラメータを生成することにより、表情パラメータに基づいて、第1のアバターの属性、表情の両方に対応するターゲットバーチャルアバターを効率的かつ比較的正確に生成することができる。
本実施例のいくつかの選択可能な実施形態において、上記方法は、第1のアバターに対応する表情カテゴリを確定することと、ターゲットバーチャルアバターに対して、表情カテゴリに対応する特効を追加することと、をさらに含むことができる。
これらの選択可能な実施形態において、上記実行主体は、第1のアバターの表情パラメータだけでなく、第1のアバターに対応する表情カテゴリも確定することができる。異なる表情カテゴリは、異なる特効に対応することができる。例えば、泣いている表情カテゴリは、涙の特効に対応でき、媚びてる表情カテゴリは、目頭に桃心や五角星を追加する特効に対応できる。
実践において、上記実行主体は、様々な方法で表情カテゴリを確定することができる。例えば、上記実行主体は、アバターを指定されたモデルに入力することにより、当該指定されたモデルから出力される表情カテゴリを得ることができる。ここで指定されたモデルは、アバターと表情カテゴリとの間の対応関係を特徴付けるために使用されることができる。また、上記実行主体は、例えば表情関連キーポイントなどの第1のアバターにおけるキーポイントを検出し、例えばある関数、あるモデル、またはある対応関係テーブルなどのキーポイント座標と表情カテゴリとの間の対応関係を用いることにより、表情カテゴリを得ることもできる。
これらの実施形態は、表情カテゴリを確定することができ、これによって、ターゲットバーチャルアバターに特効を追加することにより、バーチャルアバターをより生き生きとさせ、バーチャルアバターの面白さを増加させることができる。
本実施例のいくつかの選択可能な実施形態において、ステップ202は、各プリセット表情パラメータから、第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択することと、第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得することと、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することと、を含むことができる。
これらの選択可能な実施形態において、上記実行主体は、予めユーザのアバターを取得し、プリセット表情パラメータの表情を有するターゲットバーチャルアバターを、プリセットバーチャルアバターとして確定することができる。実践において、プリセット表情パラメータの数は、複数であってもよく、これに応じて、上記実行主体は、複数のプリセットバーチャルアバターを確定することができる。そして、上記実行本体が同一人物の第1のアバター(すなわち、上記プリセットバーチャルアバターと第1のアバターが同一人物のアバター)を取得した場合、当該第1のアバターの表情パラメータを確定し、差分が最小であるプリセット表情パラメータを選択することができる。この後、上記実行主体は、当該プリセット表情パラメータに対応するプリセットバーチャルアバターを取得し、取得されたプリセットバーチャルアバターに基づいてターゲットバーチャルアバターを生成することができる。
実践において、上記実行主体は、様々な方法でターゲットバーチャルアバターを生成することができる。例えば、上記実行主体は、取得されたプリセットバーチャルアバターをターゲットバーチャルアバターとして直接に確定することができる。
これらの実施形態では、上記実行主体又は他の電子装置は、ユーザに対して予めプリセットバーチャルアバターを生成しておくことができ、このようにすると、後で当該ユーザのバーチャルアバターを生成する必要がある場合には、プリセットバーチャルアバターを直接に利用することにより、現在のユーザのアバターのバーチャルアバターを迅速かつ正確に得ることができる。
これらの実施形態のいくつかの選択可能な応用シーンにおいて、第1のアバターの表情パラメータは、頭部角度をさらに含み、これらの実施形態におけるプリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定することは、第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及びプリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、第4の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、第4の生成対抗ネットワークのパラメータの数は、第1の生成対抗ネットワークのパラメータの数より小さく、かつ第2の生成対抗ネットワークのパラメータの数より小さいことを含むことができる。
これらの選択可能な応用シーンにおいて、上記実行主体は、第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分、及び取得されたプリセットバーチャルアバターを、第4の生成対抗ネットワークに入力することにより、当該ネットワークから出力された、上記第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られる。当該第4の生成対抗ネットワークは、入力された表情パラメータの差分を用いて、バーチャルアバターの五官(五官のうちの少なくとも1つ)の姿勢および頭部角度を調整するために使用されることができ、具体的には、以下の入力と出力との間の対応関係を特徴付けるために使用されることができ、即ち、当該入力は、第1のアバターの表情パラメータとプリセット表情パラメータとの差分、及び当該プリセット表情パラメータに対応する表情を有するターゲットバーチャルアバターであり、当該出力は、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターである。実践において、ここでの第4の生成対抗ネットワークは、条件生成対抗ネットワークであってもよい。
これらの実施形態において、上記実行主体又は他の電子装置は、ユーザに対して予めプリセットバーチャルアバターを生成しておくことができ、このようにすると、後で当該ユーザのバーチャルアバターを生成する必要がある場合には、パラメータが少なく、演算速度が速い第4の生成対抗ネットワークを利用して、プリセットバーチャルアバターのもとで修正を行うことにより、現在のユーザのアバターのバーチャルアバターを迅速かつ正確に得ることができる。
続けて図3を参照すると、図3は、本実施例によるバーチャルアバターの生成方法の応用シーンを示す概略図である。図3の応用シーンにおいて、実行主体301は、張三のアバター302を取得し、上記アバター302の表情パラメータ303を確定することができ、ここで、表情パラメータ303は、五官のうちの少なくとも1つの表情パラメータ304を含み、五官のうちの少なくとも1つの表情パラメータ304に基づいて、上記アバター302の属性に関連し且つ上記アバター302の表情を有するターゲットバーチャルアバター305を確定する。
さらに図4を参照して、バーチャルアバターの生成方法の別の実施例のフロー400が示されている。当該バーチャルアバターの生成方法のフロー400は、以下のステップを含む。
ステップ401において、第1のアバターを取得し、第1のアバターの表情パラメータを確定し、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含む。
本実施例において、バーチャルアバターの生成方法の実行主体(例えば図1に示されたサーバーまたは端末機器)は、第1のアバターを取得することができる。ここでのアバターは、顔だけでなく、首や肩などを含むことができる。ちなみに、上記実行主体は、上記第1のアバターの表情パラメータを確定することができる。表情パラメータは、第1のアバターの表情を反映するパラメータである。
ステップ402において、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成する。
本実施例において、上記実行主体は、基準バーチャルアバターとして、当該第1のアバターの属性に関連した無表情なバーチャルアバターを生成することもできる。基準バーチャルアバターが生成され、すなわち第1のアバターに似たアバターが得られた。ここでの基準バーチャルアバターは、仮想的な2次元アバターであってもよいし、仮想的な3次元アバターであってもよい。第1のアバターの角度と正面アバターの角度との差がプリセット角度の範囲内にある。
実践において、上記実行主体は、様々な方法で上記基準バーチャルアバターを生成することができる。例えば、上記実行主体は、予め訓練された畳み込みニューラルネットワークを取得することができ、当該畳み込みニューラルネットワークは、アバターと当該アバターの属性に関連した無表情なバーチャルアバターとの対応関係を特徴付けるために使用されることができる。この後、上記実行主体は、第1のアバターを上記畳み込みニューラルネットワークに入力し、当該畳み込みニューラルネットワークから出力されたバーチャルアバターを得ることができる。このようにすると、上記実行主体は、出力された当該バーチャルアバターを基準バーチャルアバターとすることができる。
本実施例のいくつかの選択可能な実施形態において、ステップ402は、第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、第3の生成対抗ネットワークから出力された、第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られることと、または、第1のアバターの属性を検出することと、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを第1のアバターの属性に関連した無表情な基準バーチャルアバターとすることと、を含むことができる。
これらの選択可能な実施形態において、上記実行主体は、第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、基準バーチャルアバターとして、当該第3の生成対抗ネットワークから出力されたバーチャルアバターを得ることができる。具体的には、当該第3の生成対抗ネットワークは、条件生成対抗ネットワーク(conditional Generative Adversarial Nets)であってもよい。具体的には、当該第3の生成対抗ネットワークは、アバターと当該アバターの属性に関連した無表情なバーチャルアバターとの対応関係を特徴付けるために使用されることができる。実践において、上記実行主体または他の電子機器は、入力として複数の等身大のアバターを取得し、これらの等身大のアバターに対応する参照バーチャルアバターをターゲットとして出力し、訓練待ちの第3の生成対抗ネットワークを訓練することにより、上記第3の生成対抗ネットワークを得ることができる。
実践において、上記実行主体は、頬をつねることにより、基準バーチャルアバターを確定することができ、具体的なステップは、以下の通りである。
まず、上記実行主体は、プリセットモデルにより、またはキーポイントを検出してキーポイント間の位置関係を確定することにより、第1のアバターの顔形、ヘアスタイル、各部分の色等を確定することができる。具体的には、上記実行主体は、予めプリセットされた様々な顔型、様々なヘアスタイル、及び様々な色を取得してから、第1のアバターがどのプリセットされた顔型、どのプリセットされたヘアスタイルに属するか、及び各部分がどのプリセットされた色であるかを確定することができる。また、上記実行主体は、プリセットされた顔型毎に予め設定された五官(例えば眼、鼻、および/または口)の形状を予め取得することができる。この後、上記実行主体は、指定モデルにより、またはキーポイントを検出してキーポイント間の位置関係を確定することにより、顔の太さの数値範囲内で1つの数値を確定し、眼の大きさの数値範囲、鼻の大きさの数値範囲と口の大きさの数値範囲内で、眼の大きさの数値、鼻の大きさの数値と口の大きさの数値をそれぞれ確定することができる。上記の数値範囲は、例えば0から1までのように任意に設定されることができる。例を挙げると、より太いアバターにおいて、顔の太さの数値は0.7であってもよく、より細いアバターにおいて、顔の太さの数値は0.45であってもよい。
このようにして、上記実行主体は、第1のアバターの属性、すなわち、第1のアバターがどのプリセットされた顔型、どのプリセットされたヘアスタイルに属するか、各部分がどのプリセットされた色であるか、および顔の太さの数値、五官のうちの少なくとも1つの大きさの数値を得る。上記実行主体は、得られた属性をプリセットされた3次元アバターモデルに追加して、第1のアバターの属性に関連するバーチャルアバターを取得し、且つ基準バーチャルアバターとすることにより、頬をつねることを実現できる。
これらの実施形態は、生成対抗ネットワークを利用してバーチャルアバターを効率的かつ正確に得ることができ、また、頬をつねることにより正確な基準バーチャルアバターを得ることもできる。
ステップ403において、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られる。
本実施例において、上記実行主体は、生成された基準バーチャルアバターと上記表情パラメータのうちの1つ以上の表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、当該モデルから出力された第1のバーチャルアバターを得ることができる。実践において、第1のバーチャルアバターは、2次元画像または3次元画像であってもよい。具体的には、当該第1のバーチャルアバターは、第1のアバターの属性に関連するだけでなく、第1のアバターの表情を有する。実践において、ディープニューラルネットワークは、例えば畳み込みニューラルネットワークのような様々なものであることができる。ここでのディープニューラルネットワークは、基準バーチャルアバターに表情を追加するために使用されることができ、具体的には、基準バーチャルアバター及び表情パラメータの両方と当該表情パラメータに対する表情を有する当該基準バーチャルアバターとの対応関係を特徴付けるために使用されることができる。
本実施例のいくつかの選択可能な実施形態において、ステップ403は、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、第1の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることを含むことができる。
これらの選択可能な実施形態において、上記実行主体は、ディープニューラルネットワークは、例えば条件生成対抗ネットワークのような生成対抗ネットワークであってもよい。上記実行主体は、当該生成対抗ネットワーク、即ち第1の生成対抗ネットワークを利用して、入力された基準バーチャルアバターに入力された表情パラメータに対する表情を追加することができる。
これらの実施形態は、生成対抗ネットワークを利用して、第1のアバターの表情を有するより正確な第1のバーチャルアバターを生成することができる。
ステップ404において、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成する。
本実施例において、上記実行主体は、様々な方法で第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することができる。例えば、上記実行主体は、直接に第1のバーチャルアバターをターゲットバーチャルアバターとすることができる。
本発明の上記実施例による方法では、第1のアバターを利用して無表情な基準バーチャルアバター及び表情パラメータを生成することにより、生成されたこれらの両者とディープニューラルネットワークに基づいて、第1のアバターの属性と表情の両方に対応する第1のバーチャルアバターを生成する効率および正確さをさらに向上させることができる。
本実施例のいくつかの選択可能な実施形態において、第1のアバターの表情パラメータは、頭部角度をさらに含み、ステップ404は、第1のバーチャルアバターと頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、第2の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られることを含むことができる。
これらの選択可能な実施形態において、上記実行主体は、第1のバーチャルアバターと第1のアバターにおける頭部角度を、第2の生成対抗ネットワークに入力することにより、当該ネットワークから出力されたターゲットバーチャルアバターを得ることができる。当該ターゲットバーチャルアバターは、第1のアバターの属性に関連するだけでなく、第1のアバターの表情及び頭部角度を有する。具体的には、第2の生成対抗ネットワークは、条件生成対抗ネットワークであってもよく、バーチャルアバターに頭部角度を追加することができ、具体的には、バーチャルアバター及び頭部角度の両方と当該頭部角度を有する当該バーチャルアバターとの対応関係を特徴付けるために使用されることができる。
実践において、表情パラメータは、五官のうちの少なくとも1つの表情パラメータだけでなく、頭部角度を含んでもよい。具体的には、頭部角度は、第1のアバターを撮影するカメラに対する頭部の角度を指すことができ、現在の頭部がその正面の角度からずれた角度であってもよく、具体的には、x、y、zの3つの座標軸の回転角度を用いて表現することができる。
これらの実施形態では、バーチャルアバターに頭部角度を追加することにより、バーチャルアバターが、人物の属性に対応し且つ人物の表情を持つだけでなく、人物の頭部の姿勢を有することができ、この結果、より生き生きとしたバーチャルアバターを提示することができる。
さらに図5を参照して、上記の各図に示された方法の実現として、本発明はバーチャルアバターの生成装置の一実施例を提供し、当該装置の実施例は、図2に示す方法実施例に対応し、以下に記載される特徴に加えて、当該装置の実施例は、図2に示す方法実施例と同じまたは対応する特徴または効果を含むことができる。当該装置は、具体的に様々な電子機器に適用できる。
図5に示すように、本実施例に係るバーチャルアバターの生成装置500は、取得ユニット501と確定ユニット502とを含む。ここで、取得ユニット501は、第1のアバターを取得し、第1のアバターの表情パラメータを確定するように配置され、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含み、確定ユニット502は、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定するように配置される。
本実施例において、バーチャルアバターの生成装置500の取得ユニット501及び確定ユニット502の具体的な処理およびそれによる技術的効果について、図2の対応する実施例におけるステップ201およびステップ202の関連説明をそれぞれ参照することができ、ここでは説明を省略する。
本実施例のいくつかの選択可能な実施形態において、装置は、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成するように配置された生成ユニットをさらに含み、確定ユニットは、さらに、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られ、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成する。
本実施例のいくつかの選択可能な実施形態において、確定ユニットは、さらに、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られることを以下のように実行するように配置され、即ち、基準バーチャルアバターと五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、第1の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情を有する第1のバーチャルアバターが得られる。
本実施例のいくつかの選択可能な実施形態において、第1のアバターの表情パラメータは、頭部角度をさらに含み、確定ユニットは、さらに、第1のバーチャルアバターに基づいて、ターゲットバーチャルアバターを生成することを以下のように実行するように配置され、即ち、第1のバーチャルアバターと頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、第2の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られる。
本実施例のいくつかの選択可能な実施形態において、五官のうちの少なくとも1つの表情パラメータは、眼部パラメータと口部パラメータとを含み、取得ユニットは、さらに、第1のアバターの表情パラメータを確定することを以下のように実行するように配置され、即ち、第1のアバターの表情関連キーポイントを検出することにより、検出結果が得られ、ここで、表情関連キーポイントは、眼部キーポイントと口部キーポイントとを含み、検出結果に基づいて、第1のアバターの眼部パラメータ、口部パラメータ、及び頭部角度を確定する。
本実施例のいくつかの選択可能な実施形態において、生成ユニットは、さらに、第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することを以下のように実行するように配置され、即ち、第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、第3の生成対抗ネットワークから出力された、第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られ、または、第1のアバターの属性を検出し、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを第1のアバターの属性に関連した無表情な基準バーチャルアバターとする。
本実施例のいくつかの選択可能な実施形態において、確定ユニットは、さらに、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、各プリセット表情パラメータから、第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択し、第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得し、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定する。
本実施例のいくつかの選択可能な実施形態において、第1のアバターの表情パラメータは、頭部角度をさらに含み、確定ユニットは、さらに、プリセットバーチャルアバターに基づいて、ターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及びプリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、第4の生成対抗ネットワークから出力された、第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、第4の生成対抗ネットワークのパラメータの数は、第1の生成対抗ネットワークのパラメータの数より小さく、かつ第2の生成対抗ネットワークのパラメータの数より小さい。
本実施例のいくつかの選択可能な実施形態において、装置は、第1のアバターに対応する表情カテゴリを確定するように配置されたカテゴリ確定ユニットと、ターゲットバーチャルアバターに対して、表情カテゴリに対応する特効を追加するように配置された追加ユニットと、をさらに含む。
本実施例のいくつかの選択可能な実施形態において、第1のアバターを取得することは、1つの処理待ちアバターを取得することと、処理待ちアバターを補正することにより、処理待ちアバターの正面アバターが得られ、正面アバターを第1のアバターとすることと、を含む。
図6に示すように、電子機器600は、読み出し専用メモリ(ROM)602に記憶されているプログラムまたは記憶部608からランダムアクセスメモリ(RAM)603にロードされたプログラムに従って各種の適切な動作と処理を行うことができる処理装置(例えば中央処理装置、グラフィックスプロセッサなど)601を含むことができる。RAM603には、電子機器600の操作に必要な様々なプログラムとデータが記憶されている。処理装置601、ROM602、およびRAM603は、バス604によって相互に接続されている。入力/出力(I/O)インターフェース605もバス604に接続されている。
通常、I/Oインターフェース605には、例えばタッチスクリーン、タッチパネル、キーボード、マウス、カメラ、マイク、加速度計、ジャイロなどを含む入力装置606と、例えば液晶ディスプレイ(LCD)、スピーカー、振動器などを含む出力装置607と、例えば磁気テープ、ハードディスクなどを含む記憶装置608と、通信装置609とが接続されている。通信装置609は、データを交換するために電子機器600が他の機器と無線通信または有線通信することを許可できる。図6は、様々な装置を有する電子機器600を示しているが、図示されたすべての装置を実施または備えることが要求されないことを理解されたい。代わりに、より多くまたはより少ない装置を実施または備えることができる。図6に示した各ブロックは、1つの装置を表してもよく、必要に応じて複数の装置を表してもよい。
特に、本開示の実施例によると、上記のフローチャートを参照して説明されたプロセスは、コンピュータソフトウェアのプログラムとして実現されることができる。例えば、本開示の実施例は、コンピュータ可読媒体に担持されたコンピュータプログラムを含むコンピュータプログラム製品を含み、当該コンピュータプログラムは、フローチャートに示された方法を実行するためのプログラムコードを含む。このような実施例では、このコンピュータプログラムは、通信装置709を介してネットワークからダウンロードされてインストールされ、または記憶装置708からインストールされ、またはROM702からインストールされることができる。このコンピュータプログラムが処理装置701によって実行されるときに、本開示の実施例の方法で限定された上記の機能を実行する。なお、本開示の実施例に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体、あるいはコンピュータ可読記憶媒体、または上記の両方の任意の組合せであってもよい。コンピュータ可読記憶媒体は、例えば、電気、磁気、光、電磁気、赤外線、あるいは半導体のシステム、装置またはデバイス、あるいは上記の任意の組合せであってもよいが、これらに限らない。コンピュータ可読記憶媒体のより具体的な例には、1本以上のワイヤによる電気的接続、携帯型コンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、読み出し専用メモリ(ROM)、消去可能プログラマブル読み取り専用メモリ(EPROMまたはフラッシュメモリ)、光ファイバ、コンパクトディスク読み取り専用メモリ(CD−ROM)、光記憶装置、磁気記憶装置、または上記の任意の組み合わせが含まれるが、これらに限らない。本開示の実施例では、コンピュータ可読記憶媒体は、プログラムを含むかまたは記憶する任意の有形の媒体であることができ、このプログラムは、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されることができる。本開示の実施例では、コンピュータが読み取り可能な信号媒体は、コンピュータが読み取り可能なプログラムコードを担持した、ベースバンド内でまたは搬送波の一部として伝播されるデータ信号を含んでもよい。このような伝播されたデータ信号は、多種の形式を採用でき、電磁気信号、光信号、または上記の任意の適切な組み合わせを含むが、これらに限らない。コンピュータが読み取り可能な信号媒体は、コンピュータ可読記憶媒体以外のいかなるコンピュータ可読媒体であってもよく、このコンピュータ可読信号媒体は、指令実行システム、装置またはデバイスによって使用され、またはそれらと組み合わせて使用されるためのプログラムを送信、伝播または伝送することができる。コンピュータ可読媒体に含まれるプログラムコードは、任意の適切な媒体で伝送されることができ、ワイヤ、光ファイバケーブル、RF(無線周波数)など、または上記の任意の適切な組み合わせを含むが、これらに限らない。
図の中のフローチャートおよびブロック図には、本発明の様々な実施例によるシステム、方法とコンピュータプログラム製品の実現可能なアーキテクチャ、機能、および操作が示されている。この点で、フローチャート又はブロック図の各ブロックは、1つのモジュール、プログラミングのセグメント、またはコードの一部を代表でき、当該モジュール、プログラミングのセグメント、またはコードの一部は、所定のロジック機能を実現するための1つ以上の実行可能指令を含む。また、いくつかの代替の実施例では、ブロックに示されている機能は、図面に示された順序と異なる順序で発生してもよいことに留意されたい。例えば、連続して示す2つのブロックは実際に並行して実行されてもよく、それらは係る機能に応じて時に逆の順序で実行されてもよい。ブロック図および/またはフローチャートの各ブロック、およびブロック図および/またはフローチャートのブロックの組み合わせは、特定の機能または操作を実行する専用のハードウェアによるシステムによって実現されてもよく、または専用ハードウェアとコンピュータ指令の組み合わせによって実現されてもよいことにも留意されたい。
本発明の実施例に係るユニットは、ソフトウェアによって実現されてもよく、ハードウェアによって実現されてもよい。説明されたユニットは、プロセッサに設置されてもよく、例えば、「取得ユニットと確定ユニットとを含むプロセッサである」と記載してもよい。ここで、これらのユニットの名は、ある場合にはそのユニット自体を限定しなくて、例えば、取得ユニットを「第1のアバターを取得し、前記第1のアバターの表情パラメータを確定するユニット」と記載してもよい。
別の態様として、本発明は、コンピュータ可読媒体をさらに提供し、当該コンピュータ可読媒体は、上記実施例で説明された装置に含まれてもよく、個別に存在し当該装置に組み込まれなくてもよい。上記のコンピュータ可読媒体は、1つ以上のプログラムを担持し、上記の1つ以上のプログラムが当該装置によって実行されたとき、当該装置は、第1のアバターを取得し、第1のアバターの表情パラメータを確定し、ここで、第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含み、五官のうちの少なくとも1つの表情パラメータに基づいて、第1のアバターの属性に関連し且つ第1のアバターの表情を有するターゲットバーチャルアバターを確定する。
上記の説明は、本発明の好ましい実施例および応用された技術の原理の説明にすぎない。本発明の実施例に係る発明の範囲が、上記の技術的特徴を組み合わせて得られた技術案に限定されず、同時に上記の発明の概念から逸脱しない場合に、上記の技術的特徴またはこれと同等の技術的特徴を任意に組み合わせて得られた他の技術案を含むべきであることを当業者は理解すべきである。例えば、上記の特徴が本発明において開示されているもの(しかしこれに限らず)と類似した機能を有する技術的特徴と相互に入れ替わって形成された技術案が挙げられる。

Claims (23)

  1. 第1のアバターを取得し、前記第1のアバターの表情パラメータを確定し、ここで、前記第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含むことと、
    前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定することと、
    を含むバーチャルアバターの生成方法。
  2. 前記第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することをさらに含み、
    前記前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定することは、前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られることと、前記第1のバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを生成することと、を含む、
    請求項1に記載の方法。
  3. 前記前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られることは、
    前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、前記第1の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られることを含む、
    請求項2に記載の方法。
  4. 前記第1のアバターの表情パラメータは、頭部角度をさらに含み、
    前記前記第1のバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを生成することは、
    前記第1のバーチャルアバターと前記頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、前記第2の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られることを含む、
    請求項2に記載の方法。
  5. 前記五官のうちの少なくとも1つの表情パラメータは、眼部パラメータと口部パラメータとを含み、
    前記前記第1のアバターの表情パラメータを確定することは、
    前記第1のアバターの表情関連キーポイントを検出することにより、検出結果が得られ、ここで、前記表情関連キーポイントは、眼部キーポイントと口部キーポイントとを含むことと、
    前記検出結果に基づいて、前記第1のアバターの眼部パラメータ、口部パラメータ、及び頭部角度を確定することと、
    を含む、
    請求項4に記載の方法。
  6. 前記前記第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することは、
    前記第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、前記第3の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られることと、
    または、
    前記第1のアバターの属性を検出することと、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを前記第1のアバターの属性に関連した無表情な基準バーチャルアバターとすることと、
    を含む、
    請求項2に記載の方法。
  7. 前記前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定することは、
    各プリセット表情パラメータから、前記第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択することと、
    前記第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得することと、
    前記プリセットバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを確定することと、
    を含む、
    請求項1に記載の方法。
  8. 前記第1のアバターの表情パラメータは、頭部角度をさらに含み、
    前記前記プリセットバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを確定することは、
    前記第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及び前記プリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、前記第4の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、前記第4の生成対抗ネットワークのパラメータの数は、前記第1の生成対抗ネットワークのパラメータの数より小さく、かつ前記第2の生成対抗ネットワークのパラメータの数より小さいことを含む、
    請求項7に記載の方法。
  9. 前記第1のアバターを取得することは、
    1つの処理待ちアバターを取得することと、
    前記処理待ちアバターを補正することにより、前記処理待ちアバターの正面アバターが得られ、前記正面アバターを前記第1のアバターとすることと、
    を含む、
    請求項1に記載の方法。
  10. 前記第1のアバターに対応する表情カテゴリを確定することと、
    前記ターゲットバーチャルアバターに対して、前記表情カテゴリに対応する特効を追加することと、
    をさらに含む、
    請求項1に記載の方法。
  11. 第1のアバターを取得し、前記第1のアバターの表情パラメータを確定するように配置され、ここで、前記第1のアバターの表情パラメータは、五官のうちの少なくとも1つの表情パラメータを含む取得ユニットと、
    前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定するように配置された確定ユニットと、
    を含む、
    バーチャルアバターの生成装置。
  12. 前記第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成するように配置された生成ユニットをさらに含み、
    前記確定ユニットは、さらに、前記前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、即ち、前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られ、前記第1のバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを生成する、
    請求項11に記載の装置。
  13. 前記確定ユニットは、さらに、前記前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練されたディープニューラルネットワークに入力することにより、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られることを以下のように実行するように配置され、
    即ち、前記基準バーチャルアバターと前記五官のうちの少なくとも1つの表情パラメータを、予め訓練された第1の生成対抗ネットワークに入力することにより、前記第1の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有する第1のバーチャルアバターが得られる、
    請求項12に記載の装置。
  14. 前記第1のアバターの表情パラメータは、頭部角度をさらに含み、
    前記確定ユニットは、さらに、前記前記第1のバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを生成することを以下のように実行するように配置され、
    即ち、前記第1のバーチャルアバターと前記頭部角度を予め訓練された第2の生成対抗ネットワークに入力することにより、前記第2の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られる、
    請求項12に記載の装置。
  15. 前記五官のうちの少なくとも1つの表情パラメータは、眼部パラメータと口部パラメータとを含み、
    前記取得ユニットは、さらに、前記第1のアバターの表情パラメータを確定することを以下のように実行するように配置され、
    即ち、前記第1のアバターの表情関連キーポイントを検出することにより、検出結果が得られ、ここで、前記表情関連キーポイントは、眼部キーポイントと口部キーポイントとを含み、
    前記検出結果に基づいて、前記第1のアバターの眼部パラメータ、口部パラメータ、及び頭部角度を確定する、
    請求項14に記載の装置。
  16. 前記生成ユニットは、さらに、前記前記第1のアバターの属性に関連した無表情な基準バーチャルアバターを生成することを以下のように実行するように配置され、
    即ち、前記第1のアバターを予め訓練された第3の生成対抗ネットワークに入力することにより、前記第3の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連した無表情な基準バーチャルアバターが得られ、
    または、
    前記第1のアバターの属性を検出し、予め設定された3次元アバターモデルに基づいて、検出された属性に関連した無表情なバーチャルアバターを確定し、当該バーチャルアバターを前記第1のアバターの属性に関連した無表情な基準バーチャルアバターとする、
    請求項12に記載の装置。
  17. 前記確定ユニットは、さらに、前記前記五官のうちの少なくとも1つの表情パラメータに基づいて、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情を有するターゲットバーチャルアバターを確定することを以下のように実行するように配置され、
    即ち、各プリセット表情パラメータから、前記第1のアバターの表情パラメータとの差分が最小であるプリセット表情パラメータを選択し、
    前記第1のアバターの属性に関連し且つ選択されたプリセット表情パラメータに対応する表情を有するプリセットバーチャルアバターを取得し、
    前記プリセットバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを確定する、
    請求項11に記載の装置。
  18. 前記第1のアバターの表情パラメータは、頭部角度をさらに含み、
    前記確定ユニットは、さらに、前記前記プリセットバーチャルアバターに基づいて、前記ターゲットバーチャルアバターを確定することを以下のように実行するように配置され、
    即ち、前記第1のアバターの表情パラメータと選択されたプリセット表情パラメータとの差分及び前記プリセットバーチャルアバターを、予め訓練された第4の生成対抗ネットワークに入力することにより、前記第4の生成対抗ネットワークから出力された、前記第1のアバターの属性に関連し且つ前記第1のアバターの表情及び頭部角度を有するターゲットバーチャルアバターが得られ、ここで、前記第4の生成対抗ネットワークのパラメータの数は、前記第1の生成対抗ネットワークのパラメータの数より小さく、かつ前記第2の生成対抗ネットワークのパラメータの数より小さい、
    請求項17に記載の装置。
  19. 前記第1のアバターに対応する表情カテゴリを確定するように配置されたカテゴリ確定ユニットと、
    前記ターゲットバーチャルアバターに対して、前記表情カテゴリに対応する特効を追加するように配置された追加ユニットと、
    をさらに含む、
    請求項11に記載の装置。
  20. 前記第1のアバターを取得することは、
    1つの処理待ちアバターを取得することと、
    前記処理待ちアバターを補正することにより、前記処理待ちアバターの正面アバターが得られ、前記正面アバターを前記第1のアバターとすることと、
    を含む、
    請求項11に記載の装置。
  21. 1つ以上のプロセッサと、
    1つ以上のプログラムを記憶するための記憶装置と、
    を含み、
    前記1つ以上のプログラムが前記1つ以上のプロセッサによって実行されるとき、請求項1から10のいずれか1項に記載の方法を前記1つ以上のプロセッサに実現させる、
    電子機器。
  22. コンピュータプログラムが記憶されたコンピュータ可読記憶媒体であって、
    前記コンピュータプログラムがプロセッサによって実行されると、請求項1から10のいずれか1項に記載の方法を実現する、
    コンピュータ可読記憶媒体。
  23. コンピュータプログラムであって、
    プロセッサによって実行されると、請求項1から10のいずれか1項に記載の方法を実現する、コンピュータプログラム。
JP2021030671A 2020-03-09 2021-02-26 バーチャルアバターの生成方法及び生成装置 Active JP7268071B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202010156571.X 2020-03-09
CN202010156571.XA CN111369428B (zh) 2020-03-09 2020-03-09 虚拟头像生成方法和装置

Publications (2)

Publication Number Publication Date
JP2021144706A true JP2021144706A (ja) 2021-09-24
JP7268071B2 JP7268071B2 (ja) 2023-05-02

Family

ID=71206626

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021030671A Active JP7268071B2 (ja) 2020-03-09 2021-02-26 バーチャルアバターの生成方法及び生成装置

Country Status (5)

Country Link
US (1) US11455765B2 (ja)
EP (1) EP3889915A3 (ja)
JP (1) JP7268071B2 (ja)
KR (1) KR102491140B1 (ja)
CN (1) CN111369428B (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049417A (zh) * 2021-11-12 2022-02-15 北京字节跳动网络技术有限公司 虚拟角色图像的生成方法、装置、可读介质及电子设备
CN115604213A (zh) * 2022-09-30 2023-01-13 维沃移动通信有限公司(Cn) 交互方法、装置、电子设备
CN115936970A (zh) * 2022-06-27 2023-04-07 北京字跳网络技术有限公司 虚拟面部形象生成方法、装置、电子设备及存储介质

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN112492383A (zh) * 2020-12-03 2021-03-12 珠海格力电器股份有限公司 视频帧的生成方法及装置、存储介质、电子设备
CN113643412B (zh) * 2021-07-14 2022-07-22 北京百度网讯科技有限公司 虚拟形象的生成方法、装置、电子设备及存储介质
US11854115B2 (en) * 2021-11-04 2023-12-26 Adobe Inc. Vectorized caricature avatar generator
CN114219878B (zh) * 2021-12-14 2023-05-23 魔珐(上海)信息科技有限公司 虚拟角色的动画生成方法及装置、存储介质、终端

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US20130235045A1 (en) * 2012-03-06 2013-09-12 Mixamo, Inc. Systems and methods for creating and distributing modifiable animated video messages
US20140362091A1 (en) * 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
US20160148041A1 (en) * 2014-11-21 2016-05-26 Korea Institute Of Science And Technology Method for face recognition through facial expression normalization, recording medium and device for performing the method
US20180336714A1 (en) * 2017-05-16 2018-11-22 Apple Inc. Emojicon puppeting

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
AUPR541801A0 (en) * 2001-06-01 2001-06-28 Canon Kabushiki Kaisha Face detection in colour images with complex background
CN104700076B (zh) * 2015-02-13 2017-09-12 电子科技大学 人脸图像虚拟样本生成方法
US10262243B2 (en) * 2017-05-24 2019-04-16 General Electric Company Neural network point cloud generation system
CN107577985B (zh) * 2017-07-18 2019-10-15 南京邮电大学 基于循环生成对抗网络的人脸头像卡通化的实现方法
KR102565755B1 (ko) * 2018-02-23 2023-08-11 삼성전자주식회사 얼굴의 특징점의 움직임에 따라 모션이 수행된 아바타를 표시하는 전자 장치와 이의 동작 방법
CN109376582B (zh) * 2018-09-04 2022-07-29 电子科技大学 一种基于生成对抗网络的交互式人脸卡通方法
KR102648993B1 (ko) * 2018-12-21 2024-03-20 삼성전자주식회사 사용자의 감정 상태에 기반하여 아바타를 제공하기 위한 전자 장치 및 그에 관한 방법
CN109978996B (zh) * 2019-03-28 2021-06-11 北京达佳互联信息技术有限公司 生成表情三维模型的方法、装置、终端及存储介质
CN110288680A (zh) * 2019-05-30 2019-09-27 盎锐(上海)信息科技有限公司 影像生成方法及移动终端
CN110335334A (zh) * 2019-07-04 2019-10-15 北京字节跳动网络技术有限公司 虚拟头像驱动显示方法、装置、电子设备及存储介质

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120130717A1 (en) * 2010-11-19 2012-05-24 Microsoft Corporation Real-time Animation for an Expressive Avatar
US20130235045A1 (en) * 2012-03-06 2013-09-12 Mixamo, Inc. Systems and methods for creating and distributing modifiable animated video messages
US20140362091A1 (en) * 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
US20160148041A1 (en) * 2014-11-21 2016-05-26 Korea Institute Of Science And Technology Method for face recognition through facial expression normalization, recording medium and device for performing the method
KR20160061081A (ko) * 2014-11-21 2016-05-31 한국과학기술연구원 얼굴 표정 정규화를 통한 얼굴 인식 방법, 이를 수행하기 위한 기록 매체 및 장치
US20180336714A1 (en) * 2017-05-16 2018-11-22 Apple Inc. Emojicon puppeting

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
ALEXANDRU EUGEN ICHIM, SOFIEN BOUAZIZ, MARK PAULY: ""Dynamic 3D Avatar Creation from Hand-held Video Input"", ACM TRANSACTIONS ON GRAPHICS, vol. Volume 34 Issue 4, JPN6022012434, 27 July 2015 (2015-07-27), US, pages 1 - 14, ISSN: 0004737818 *
岡田朋子 , 滝口哲也 , 有木康雄: "AAMのモデル選択による方位に頑健な不特定人物の顔表情認識", 電子情報通信学会大会講演論文集 (電子情報通信学会ソサイエティ大会講演論文集), vol. 第2009号 情報・システム2, JPN6022012433, 4 March 2009 (2009-03-04), JP, pages 132, ISSN: 0005028313 *

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114049417A (zh) * 2021-11-12 2022-02-15 北京字节跳动网络技术有限公司 虚拟角色图像的生成方法、装置、可读介质及电子设备
CN114049417B (zh) * 2021-11-12 2023-11-24 抖音视界有限公司 虚拟角色图像的生成方法、装置、可读介质及电子设备
CN115936970A (zh) * 2022-06-27 2023-04-07 北京字跳网络技术有限公司 虚拟面部形象生成方法、装置、电子设备及存储介质
CN115604213A (zh) * 2022-09-30 2023-01-13 维沃移动通信有限公司(Cn) 交互方法、装置、电子设备

Also Published As

Publication number Publication date
CN111369428A (zh) 2020-07-03
EP3889915A3 (en) 2021-12-22
JP7268071B2 (ja) 2023-05-02
EP3889915A2 (en) 2021-10-06
KR102491140B1 (ko) 2023-01-26
US11455765B2 (en) 2022-09-27
KR20210113948A (ko) 2021-09-17
CN111369428B (zh) 2023-07-21
US20210279934A1 (en) 2021-09-09

Similar Documents

Publication Publication Date Title
JP2021144706A (ja) バーチャルアバターの生成方法及び生成装置
JP7212741B2 (ja) 3次元アバタ生成方法、装置、電子機器及び記憶媒体
US11568589B2 (en) Photorealistic real-time portrait animation
EP4165602A1 (en) Computing images of head mounted display wearer
WO2020150686A1 (en) Systems and methods for face reenactment
CN110111418A (zh) 创建脸部模型的方法、装置及电子设备
EP3992919B1 (en) Three-dimensional facial model generation method and apparatus, device, and medium
JP7168694B2 (ja) ヒューマンフェースによる3d特殊効果生成方法、装置および電子装置
CN110555507B (zh) 虚拟机器人的交互方法、装置、电子设备及存储介质
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
WO2021227916A1 (zh) 面部形象生成方法、装置、电子设备及可读存储介质
CN115601484B (zh) 虚拟人物面部驱动方法、装置、终端设备和可读存储介质
CN110148191A (zh) 视频虚拟表情生成方法、装置及计算机可读存储介质
CN114373044A (zh) 生成脸部三维模型的方法、装置、计算设备和存储介质
US10244208B1 (en) Systems and methods for visually representing users in communication applications
US20230154084A1 (en) Messaging system with augmented reality makeup
US11562548B2 (en) True size eyewear in real time
CN111311712B (zh) 视频帧处理方法和装置
CN113908553A (zh) 游戏角色表情生成方法、装置、电子设备及存储介质
Da Silva et al. The development of a facial animation system based on performance and the use of an RGB-D camera
WO2022213031A1 (en) Neural networks for changing characteristics of vocals

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210617

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220329

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220629

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20221018

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230404

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230420

R150 Certificate of patent or registration of utility model

Ref document number: 7268071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150