JP2022529757A - 仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム - Google Patents

仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム Download PDF

Info

Publication number
JP2022529757A
JP2022529757A JP2021532877A JP2021532877A JP2022529757A JP 2022529757 A JP2022529757 A JP 2022529757A JP 2021532877 A JP2021532877 A JP 2021532877A JP 2021532877 A JP2021532877 A JP 2021532877A JP 2022529757 A JP2022529757 A JP 2022529757A
Authority
JP
Japan
Prior art keywords
face
image
deformation
parameter
virtual character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2021532877A
Other languages
English (en)
Other versions
JP7206388B2 (ja
Inventor
シェン,チャオ
Original Assignee
テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド filed Critical テンセント・テクノロジー・(シェンジェン)・カンパニー・リミテッド
Publication of JP2022529757A publication Critical patent/JP2022529757A/ja
Application granted granted Critical
Publication of JP7206388B2 publication Critical patent/JP7206388B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/90Constructional details or arrangements of video game devices not provided for in groups A63F13/20 or A63F13/25, e.g. housing, wiring, connections or cabinets
    • A63F13/92Video game devices specially adapted to be hand-held while playing
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • G06T3/18
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/20Input arrangements for video game devices
    • A63F13/21Input arrangements for video game devices characterised by their sensors, purposes or types
    • A63F13/213Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/55Controlling game characters or game objects based on the game progress
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/60Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor
    • A63F13/65Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition
    • A63F13/655Generating or modifying game content before or while executing the game program, e.g. authoring tools specially adapted for game development or game-integrated level editor automatically by game devices or servers from real world data, e.g. measurement in live racing competition by importing photos, e.g. of the player
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/80Special adaptations for executing a specific game genre or game mode
    • A63F13/822Strategy games; Role-playing games
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/802D [Two Dimensional] animation, e.g. using sprites
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F2300/00Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
    • A63F2300/50Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by details of game servers
    • A63F2300/55Details of game data or player data management
    • A63F2300/5546Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history
    • A63F2300/5553Details of game data or player data management using player registration data, e.g. identification, account, preferences, game history user representation in the game field, e.g. avatar

Abstract

本願は、仮想キャラクターの顔表示方法、装置、端末、および記憶媒体を開示し、ヒューマンコンピュータインタラクションの分野に関する。本方法は、ユーザの顔に対応する顔パラメータを取得するステップであり、顔パラメータは、ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものであるステップと、顔パラメータに基づいて、変形制御パラメータを決定するステップであり、変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものであるステップと、変形制御パラメータおよび変形画像セットに基づいて、仮想キャラクターの顔画像を生成するステップであり、変形画像セットには、仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれるステップと、仮想キャラクターの顔画像を表示するステップと、を含む。【選択図】図2

Description

本願の実施例は、ヒューマンコンピュータインタラクションの分野に関し、特には、仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、および読み取り可能な記憶媒体に関する。
本願は、2019年04月26日に中国特許局へ出願された、出願番号が201910342925.7であり、出願名称が「仮想キャラクターの顔の表示方法、装置、デバイスおよび記憶媒体」である中国特許出願について優先権を主張するものであり、その全ての内容が参照により本願に組み込まれている。
ゲーム中のユーザの没入感を高めるために、ますます多くのゲームアプリケーション、特には、ロールプレイング類ゲームアプリケーションが、仮想キャラクター選択機能をサポートし始めている。
異なるタイプのゲームアプリケーションでは、仮想キャラクターのタイプが異なる場合があり、例えば、仮想キャラクターは、人物、動物、漫画人物などであってよい。一方、ゲーム中に、ユーザは、物理的なボタンまたは仮想ジョイスティックを介して、仮想キャラクターが、移動、攻撃などの動作を行うように制御することができる。
本願の各実施例によれば、仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、および読み取り可能な記憶媒体が提供される。
仮想キャラクターの顔表示方法であって、
ユーザの顔に対応する顔パラメータを取得するステップであり、前記顔パラメータは、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである、ステップと、
前記顔パラメータに基づいて、変形制御パラメータを決定するステップであり、前記変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものである、ステップと、
前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成するステップであり、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像は、異なる顔変形方式に対応する、ステップと、
前記仮想キャラクターの顔画像を表示するステップと、を含む。
仮想キャラクターの顔表示装置であって、
ユーザの顔に対応する顔パラメータを取得する第1取得モジュールであり、前記顔パラメータは、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである、第1取得モジュールと、
前記顔パラメータに基づいて、変形制御パラメータを決定する決定モジュールであり、前記変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものである、決定モジュールと、
前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する第1生成モジュールであり、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像は、異なる顔変形領域に対応する、第1生成モジュールと、
前記仮想キャラクターの顔画像を表示する表示モジュールと、を備える。
プロセッサと、メモリとを備える端末であって、前記メモリには、少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが前記プロセッサによってロードされて実行されることで、上記の本願の実施例によって提供される仮想キャラクターの顔表示方法を実現させる。
コンピュータ読み取り可能な記憶媒体であって、前記読み取り可能な記憶媒体に少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが前記プロセッサによってロードされて実行されることで、上記の本願の実施例によって提供される仮想キャラクターの顔表示方法を実現させる。
コンピュータプログラム製品であって、前記コンピュータプログラム製品がコンピュータ上で動作する場合、コンピュータに、上記の本願の実施例によって提供される仮想キャラクターの顔表示方法を実行させる。
本願の1つまたは複数の実施例の詳細は、以下の図面および説明において記載されている。本願の他の特徴、目的、および利点は、本願の明細書、図面、および特許請求の範囲に基づいて、より明らかになる。
本願の実施例における技術案をより明確に説明するために、以下に、実施例の説明において必要とされる図面を簡単に紹介する。明らかに、以下の説明における図面は、本明細書のいくつかの実施例にすぎず、当業者であれば、創造的な努力なしに、これらの図面から他の図面を得ることもできる。
本願の一例示的な実施例によって提供される、適用シーンの概略図である。 本願の一例示的な実施例によって提供される、仮想キャラクターの顔の表示方法のフローチャートである。 変形画像セットにおける基本顔画像および基本顔変形画像の概略図である。 図2に示される方法の実施プロセスのインターフェースの概略図である。 仮想キャラクターの顔の表示方法の原理の概略図である。 本願の別の例示的な実施例によって提供される、仮想キャラクターの顔の表示方法の方法フローチャートである。 図6に示される実施例における仮想キャラクターの顔画像生成プロセスの実施の概略図である。 本願の別の例示的な実施例によって提供される、仮想キャラクターの顔の表示方法の方法フローチャートである。 顔登録インターフェースのインターフェース概略図である。 本願の一例示的な実施例によって提供される、仮想キャラクターの顔の表示装置の構成のブロック図である。 本願の一例示的な実施例によって提供される、端末の構成のブロック図である。
本願の目的、技術案、および利点をより明確にするため、以下に、図面を組み合わせて、本願の実施形態をさらに詳細に説明する。本明細書に記載された具体的な実施例は、本願を解釈するためにのみ使用され、本願を限定するためには使用されない、ということを理解されたい。
本願の各実施例によって提供される仮想キャラクターの顔の表示方法は、ターゲットアプリケーションプログラムがインストールされている端末に適用することができる。このターゲットアプリケーションプログラムは、2D仮想キャラクターの表示ニーズを有するアプリケーションプログラムであり、この端末は、スマートフォン、タブレットコンピュータ、パーソナルコンピュータ、またはポータブルコンピュータなどであってよい。例えば、このターゲットアプリケーションプログラムは、ロールプレイング類ゲーム、ソーシャル類アプリケーションプログラム、インスタントメッセージアプリケーションプログラム、カメラ類アプリケーションプログラム、または表情作成アプリケーションプログラムなどであり、本願の実施例は、これに対して限定を行わない。
また、ターゲットアプリケーションプログラムにおける2D仮想キャラクターは、ユーザのリアルタイムの顔の表情をシミュレートすることができるので、ターゲットアプリケーション顔がインストールされている端末は、外部画像収集機能を有する。1つの可能な実施形態において、この端末には、カメラコンポーネント(例えば、フロントカメラ)が内蔵されており、これにより、カメラコンポーネントを介してユーザのリアルタイムの顔画像の収集が実行される。
以下に、いくつかの例示的な適用シーンを組み合わせて、本願の実施例によって提供される仮想キャラクターの顔の表示方法について説明する。
1.ゲームシーン
ゲームシーンおいて、本願の実施例によって提供される仮想キャラクターの顔の表示方法は、ゲームアプリケーションプログラムにおける1つの機能モジュール(仮想キャラクターの顔を駆動するために使用されるもの)として実現することができる。ユーザが仮想キャラクターを制御してゲームをプレイする場合、ゲームアプリケーションプログラムは、端末に対してフロントカメラをオンにするように要求し、フロントカメラによって収集されたユーザの顔画像を取得することができる。ゲームアプリケーションプログラムは、取得したユーザの顔画像に対して処理を実行した後、仮想キャラクターに対応する変形制御パラメータを得ることにより、この変形制御パラメータと変形画像セットとに基づいて、ユーザの顔画像における表情に対応する仮想キャラクターの顔画像を生成して、この仮想キャラクターの顔画像をゲーム画面に表示する。ここで、ゲームアプリケーションプログラムは、ユーザの顔画像に応じて、相応的な顔表情を作り出す(即ち、仮想キャラクターの顔表情をユーザの表情と一致させる)ように、仮想キャラクターをリアルタイムで駆動することにより、ゲーム中のユーザの没入感を高めて、ユーザのゲーム体験を向上させることができる。
模式的には、図1に示すように、端末11には、ゲームアプリケーションプログラムがインストールされており、ユーザは、ゲームアプリケーションプログラムにおける、「李四」という仮想キャラクターを制御することによって戦闘を行う。戦闘に失敗した場合、ゲームアプリケーションプログラムは、端末11のフロントカメラ12を介してユーザの顔画像を収集することにより、この顔画像に基づいて、同じ顔表情を表現するように仮想キャラクター13を駆動し、これによって、ゲーム中のユーザの没入感を向上させる。
2.インスタントメッセージングシーン
インスタントメッセージングシーンにおいて、本願の実施例によって提供される仮想キャラクターの顔の表示方法は、インスタントメッセージングのアプリケーションプログラムにおける、1つの機能モジュール(仮想キャラクターの助けを借りたビデオチャット機能)として実現することができる。1つの可能な使用シーンでは、ユーザ間でビデオ通話を行う前に、それぞれのために2D仮想キャラクターを選択することができ、ビデオ通話中に、インスタントメッセージングのアプリケーションプログラムは、端末のカメラを起動して、カメラによってリアルタイムで収集された、本端末のユーザの顔画像を取得することができる。インスタントメッセージングのアプリケーションプログラムは、本端末のユーザの顔画像を処理した後、本端末の仮想キャラクターに対応する第1変形制御パラメータを得て、この第1変形制御パラメータを相手端末に送信するとともに、相手端末から送信された、相手端末の仮想キャラクターに対応する第2変形制御パラメータを受信する。インスタントメッセージングのアプリケーションプログラムは、第2変形制御パラメータと、相手端末の仮想キャラクターに対応する変形画像セットとに基づいて、相手端末のユーザの仮想キャラクターの顔の画像を生成して、この仮想キャラクターの顔の画像をビデオ通話インターフェースに表示する(本端末のユーザの仮想キャラクターの顔の画像を同時に表示することもできる)。
3.表情作成シーン
表情作成シーンにおいて、本願の実施例によって提供される仮想キャラクターの顔の表示方法は、表情作成アプリケーションプログラムにおける、1つの機能モジュール(仮想キャラクターの表情を作成するために使用されるもの)として実現することができる。1つの可能な使用シーンにおいて、ユーザは、表情作成アプリケーションプログラムの仮想キャラクターの表情作成機能を使用する際に、まず、仮想キャラクターを選択する必要がある。仮想キャラクターの選択が完了した後、ユーザは、作成インターフェースにおける表情録画ボタンをクリックすることで、端末がフロントカメラを起動してユーザの顔画像を収集するようにトリガする。表情作成アプリケーションプログラムは、収集されたユーザの顔画像を取得し、仮想キャラクターの変形制御パラメータを得ることにより、変形制御パラメータと仮想キャラクターに対応する変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する。表情録画が完了した後、表情作成アプリケーションプログラムは、表情録画中に生成された一連の仮想キャラクターの顔画像に基づいて統合を行うことで、動的な仮想キャラクター表情を生成して、他のアプリケーションプログラムで使用するために、動的な仮想キャラクター表情を所定の表情フォーマットとして保存する。
上述のように、いくつかの可能な適用シーンのみを例として概略的に説明したが、もちろん、本願の実施例によって提供される方法は、仮想キャラクターを表示する必要がある他の適用シーンにも適用でき、本願の実施例は、具体的な適用シーンに対して限定を行わない。
本願の一例示的な実施例によって提供される仮想キャラクターの顔の表示方法の方法フローチャートを示す図2を参照すると、本実施例は、アプリケーションプログラムがインストールされている(仮想キャラクター表示機能を有する)端末にこの方法を適用する、ということを例として説明する。この方法は、即ち、以下のようなステップを含む。
ステップ201で、アプリケーションプログラムは、ユーザの顔に対応する顔パラメータを取得する。顔パラメータは、ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである。
1つの可能な実施形態では、端末がユーザの顔画像から顔パラメータを生成する機能を有する(即ち、顔パラメータをパッケージングする能力を有する)場合、この顔パラメータは、アプリケーションプログラムによって端末から直接に取得され、または、端末がユーザの顔画像を収集する機能のみを有する。一方で、顔パラメータをパッケージングして生成する機能を有しない場合、この顔パラメータは、アプリケーションプログラムによって端末で(カメラを介して)収集されたユーザの顔像から生成される。
オプションとして、この顔パラメータは、所定の顔パラメータ基準に従うものであり、かつ、所定の顔パラメータ基準には、顔パラメータのパラメータタイプ、パラメータの値の範囲およびパラメータの数のうちの少なくとも1つが規定されている。ここで、パラメータタイプは、各顔パラメータに対応する顔領域を示すために使用されるものであり、パラメータの値の範囲は、各顔パラメータのパラメータ変化区間を指示するために使用されるものであり、パラメータの数は、顔パラメータにおけるパラメータの総数を指示するために使用される。
ステップ202で、アプリケーションプログラムは、顔パラメータに基づいて、変形制御パラメータを決定する。変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を示すために使用されるものである。
オプションとして、この仮想キャラクターは、人物、動物、または漫画の人物のうちの少なくとも1つであってよく、かつ、この仮想キャラクターは、ユーザによってアプリケーションプログラムによって提供される仮想キャラクターオプションから選択されてもよく、アプリケーションプログラムにおいてユーザによってカスタマイズして生成されてもよい。
オプションとして、アプリケーションプログラムでは、仮想キャラクターの顔変形パラメータが予め定義され、この顔変形パラメータは、所定の変形パラメータ基準に従うものであり、かつ、所定の変形パラメータ基準には、顔変形パラメータのパラメータタイプ、パラメータの値の範囲、およびパラメータの数のうちの少なくとも1つが規定されている。ここで、パラメータタイプは、顔変形パラメータに対応する顔変形方式を示すために使用されるものであり、パラメータの値の範囲は、顔変形領域の変形度の範囲を示すために使用されるものであり、パラメータの数は、顔変形パラメータにおけるパラメータの総数を示すために使用されるものである。
1つの実施例では、アプリケーションプログラムで定義された顔変形パラメータが表1に示されている。
Figure 2022529757000002
本願の実施例における変形制御パラメータは、顔変形パラメータを制御することにより、異なる顔領域に対する変形度への制御を実現するために使用されるものである。オプションとして、各顔変形パラメータは、それぞれの変形制御パラメータに対応する。
ステップ203で、アプリケーションプログラムは、変形制御パラメータと、仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像を含む変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する。ここで、異なる基本顔変形画像は、異なる顔変形方式に対応する。
本願の実施例における仮想キャラクターは、点、線、および表面から構成される3次元仮想キャラクターではなく、変形規則が定義された変形画像セットに基づいて構成される2次元仮想キャラクターである。ここで、変形画像セットには、仮想キャラクターの1つの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、かつ、各基本顔変形画像は、基本顔画像に基づいて、1つの顔変形パラメータを調整して得られたものである。
オプションとして、変形画像セットにおける基本顔変形画像の数は、仮想キャラクターによってサポートされる顔変形方式の数(即ち、顔変形パラメータの数)と関連している。ここで、各基本顔変形画像は、それぞれの顔変形方式に対応しており、仮想キャラクターの顔が少なくとも1つの顔変形方式を含む場合、この変形画像セットには、少なくとも1つの基本顔変形画像が含まれている。
1つの実施例では、図3に示すように、変形画像セットには、1つの基本顔画像31および若干の基本顔変形画像32が含まれている。ここで、第1基本顔変形画像321に対応する変形方式は、首を傾けることであり、第2基本顔変形画像322に対応する変形方式は、口を開けることであり、第3基本顔変形画像323に対応する変形方式は、眉を上げることであり、第4基本顔変形画像324に対応する変形方式は、目を広げることである。
1つの可能な実施形態では、基本顔画像と、いずれかの基本顔変形画像に対して、1つのパラメータによって2枚の画像の間の差分の程度を制御する必要があり、このパラメータは、上記のステップにおける変形制御パラメータである。これに応じて、アプリケーションプログラムは、変形制御パラメータ、基本顔画像、および基本顔変形画像に基づいて、現在のユーザの顔の表情に合う仮想キャラクターの顔画像を生成する。
ステップ204で、アプリケーションプログラムは、仮想キャラクターの顔画像を表示する。
オプションとして、アプリケーションプログラムは、リアルタイムで取得した顔パラメータに基づいて、フレームごとの仮想キャラクターの顔画像をリアルタイムで描画して表示することにより、仮想キャラクター上でユーザのリアルタイムの表情変化を表現する。
1つの可能な実施形態では、アプリケーションプログラムがゲームアプリケーションプログラムである場合、ゲームアプリケーションプログラムは、仮想キャラクターの顔画像をゲームインターフェースに表示する。アプリケーションプログラムがインスタントメッセージングのアプリケーションプログラムである場合、インスタントメッセージングのアプリケーションプログラムは、仮想キャラクターの顔画像をビデオ通話インターフェースに表示する。アプリケーションプログラムが表情作成アプリケーションプログラムである場合、表情作成アプリケーションプログラムは、仮想キャラクターの顔画像を表情録画インターフェースに表示する。
他の可能な実施形態では、アプリケーションプログラムは、本端末のユーザに対応する仮想キャラクターの変形制御パラメータを、相手端末のアプリケーションプログラムに送信して、相手端末のアプリケーションプログラムから送信された、相手端末のユーザに対応する仮想キャラクターの変形制御パラメータを受信することにより、本端末のユーザおよび相手端末のユーザの仮想キャラクターの顔画像を同時に表示することができる。
模式的には、図4に示すように、端末41を使用する「李四」というユーザと、端末42を使用する「張三」というユーザとが、ゲームの対戦を行う。対戦が終了した場合、端末41と端末42におけるゲームアプリケーションは、本端末のユーザの顔画像をそれぞれ収集して、本端末の仮想キャラクターの変形制御パラメータを得る。端末41は、サーバ43を介して、第1変形制御パラメータを端末42に送信し、端末42は、サーバ43を介して、第2変形制御パラメータを端末41に送信する。端末41と端末42は、ゲームアプリケーションを介して、相手端末の仮想キャラクターの顔表情をそれぞれ表示する。
関連技術における2D仮想キャラクターが予め設定されたロジックに従って所定の表情のみを表示することに比べて(本質的には、アニメーションを再生することであり、仮想キャラクターの顔表情をリアルタイムでレンダリングすることには関係がない)、本願の実施形態では、アプリケーションプログラムにおける仮想キャラクターは、ユーザのリアルタイムでの顔表情をシミュレートすることができ、仮想キャラクターの顔表情の表現方式を豊かにし、仮想キャラクターの顔表情の表現のインテリジェント化の度合いを向上させる。
以上のように、本願の実施例では、ユーザの顔の顔パラメータを取得して、この顔パラメータに基づいて仮想キャラクターの変形制御パラメータを決定することにより、変形制御パラメータと、変形画像セットにおける基本顔画像および基本顔変形画像とに基づいて、仮想キャラクターの顔画像を生成して表示する。関連技術における2D仮想キャラクターが予め設定された顔表情のみを表示することに比べて、本願の実施例では、ユーザのリアルタイムの表情をシミュレートするように2D仮想キャラクターを駆動することができ、これにより、顔表情の表現のインテリジェント化の度合いを向上させ、2D仮想キャラクターの顔表示方式を豊かにする効果が達成される。
1つの可能な実施形態において、端末は、顔パラメータをパッケージングする能力を有する際、例えば、端末は、アップル社の拡張現実キット(ARkit:Augmented Reality Kit)を採用する際に、アプリケーションプログラムは、直接に端末からユーザの顔の顔パラメータを取得する(ARKitから51個の顔パラメータを取得する)ことができる。
しかしながら、すべての端末が顔パラメータをパッケージングする機能を備えるわけではない。顔パラメータをパッケージングする機能を備えていない他の端末が上記の方法を実現できるようにするために、1つの可能な実施形態において、アプリケーションプログラムは、端末によって収集された顔画像を処理することにより、対応する顔パラメータを得ることができる。
図5に示すように、アプリケーションプログラムは、端末から顔画像51を取得した後、顔画像51に基づいて、ユーザの顔の顔パラメータ52を生成することにより、顔パラメータ52に基づいて、仮想キャラクターの変形制御パラメータ53を決定する。さらに、アプリケーションプログラムは、変形制御パラメータ53に基づいて、変形画像セット54における画像に対して画像変形(image warping)を行い、仮想キャラクターの顔画像55を生成し、さらに、仮想キャラクターの顔画像55を表示する。以下、実施例を使用して説明する。
本願の他の実施例によって提供される仮想キャラクターの顔表示方法の方法フローチャートを示す図6を参照すると、本実施例は、アプリケーションプログラムがインストールされている(仮想キャラクター表示機能を有する)端末にこの方法を適用する、ということを例として説明する。この方法は、以下のようなステップを含み、即ち、
ステップ601で、ターゲットシーンにいる場合、アプリケーションプログラムは、カメラを介してユーザの顔の顔画像を収集する。
ユーザの表情をリアルタイムで表示するように仮想キャラクターを駆動する場合には処理リソースを消費する必要があるため、かつ、ユーザは仮想キャラクターが全てのシーンにおいて自身の表情をシミュレートすることが望ましいわけではないため、1つの可能な実施形態では、ターゲットシーンにいる場合にのみ、アプリケーションプログラムは、カメラを介して顔画像を収集する。ターゲットシーンにいない場合、アプリケーションプログラムは、予め設定されたアプリケーションプログラムロジックに従って仮想キャラクターを表示する。
オプションとして、異なるアプリケーションプログラムは、異なるターゲットシーンに対応する。例えば、アプリケーションプログラムは、ゲームアプリケーションプログラムであり、ゲームの決済のシーンやゲームのカットシーン(Cutscene)のシーンにある場合、アプリケーションプログラムは、カメラを介して顔画像を収集する。本願の実施例は、ターゲットシーンの具体的なタイプに対して限定を行わない。
1つの可能な実施形態では、顔画像の品質が仮想キャラクターの顔画像の品質に直接に影響を与えるため、収集された顔画像に対して、アプリケーションプログラムは、顔画像の画像の解像度や撮像角度などの要素に基づいて、顔画像の品質を決定し、顔画像の品質が品質要求に達していない場合、顔画像の収集品質を高めるために、端末の姿勢を調整するようにユーザに提示する。
ステップ602で、アプリケーションプログラムは、顔画像に基づいて、ユーザの顔に対応する顔パラメータを決定する。
1つの可能な実施形態では、端末のカメラが深度カメラである場合、収集された顔画像には、各画素点に対応する深度データが含まれ、アプリケーションプログラムは、各画素点の深度データに基づいて、ユーザの顔に対応する顔パラメータを決定する。
オプションとして、アプリケーションプログラムの開発者は、サンプル顔深度画像(各画素点の深度データを含むサンプル入力)、および、それに対応するサンプル顔パラメータ(予めラベル付けられた顔パラメータを含むサンプル出力)をトレーニングサンプルとして、ニューラルネットワークをトレーニングし、これにより、顔画像に基づいて顔パラメータを予測するために使用される顔パラメータ予測モデルを得る。ここで、この顔パラメータ予測モデルは、畳み込みニューラルネットワーク(CNN:Convolutional Neural Neural Networks)を採用することができる。
適用中に、アプリケーションプログラムは、収集された顔画像(における深度データ)を顔パラメータ予測モデルに入力し、顔パラメータ予測モデルによって出力された顔パラメータを得る。
もちろん、ニューラルネットワークモデルを利用して顔パラメータを予測する方式以外に、アプリケーションプログラムは、他の方式で顔画像から顔パラメータを抽出することもできる。例えば、深度データに基づいて人の顔のキーポイントを確認することにより、人の顔のキーポイントから顔パラメータを決定することができ、本実施例は、これに対して限定を行わない。
他の可能な実施形態では、端末のカメラが赤緑青(RGB:Red-Green-Blue)のカメラである場合、収集した顔画像は、RGB画像であり、アプリケーションプログラムは、RGB画像における顔のキーポイントを識別し、顔のキーポイントに基づいて各顔領域を決定することにより、対応する顔パラメータを生成する。
ステップ603で、アプリケーションプログラムは、顔パラメータと前記変形制御パラメータとの間の対応関係を示すために使用されるパラメータマッピング関係を取得する。
1つの可能な実施形態では、顔画像の顔パラメータおよび仮想キャラクターの変形制御パラメータが予め設定されているため、アプリケーションプログラムの開発者は、顔パラメータと変形制御パラメータとの間のパラメータマッピング関係を予め設定することができる。適用中に、アプリケーションプログラムは、このパラメータマッピング関係に基づいて、変形制御パラメータを決定する。
ステップ604で、アプリケーションプログラムは、パラメータマッピング関係に基づいて、顔パラメータに対応する変形制御パラメータを決定する。
オプションとして、アプリケーションプログラムは、パラメータマッピング関係に基づいて、仮想キャラクターの各変形制御パラメータを決定する。
1つの実施例では、アプリケーションプログラムが取得した顔パラメータには、ARBlendShapeLocationBrowOuterUpRight=0.8(右眉毛の外側の上向きを示す)が含まれ、パラメータマッピング関係に基づいて、アプリケーションプログラムは、変形制御パラメータが0.7であると決定する。
上記のステップ601~ステップ604により、アプリケーションプログラムは、顔画像から仮想キャラクターの変形制御パラメータを取得した後、さらに、以下のステップ605およびステップ606によって、仮想キャラクターの顔表情に対して画像変形を行う。
ステップ605で、アプリケーションプログラムは、変形制御パラメータに基づいて、少なくとも1つの基本顔変形画像におけるターゲット基本顔変形画像を決定する。ターゲット基本顔変形画像と変形制御パラメータは、同じ顔変形方式に対応する。
異なる基本顔変形画像は異なる変形方式(顔変形パラメータ)に対応するので、取得した各変形制御パラメータに対して、アプリケーションは、少なくとも1つの基本顔変形画像から、この変形制御パラメータと同じ顔変形方式に対応するターゲット基本顔変形画像を決定し、これにより、続いて、この変形制御パラメータに基づいて、基本顔画像およびターゲット基本顔変形画像に対して画像変形を行う。
1つの可能な実施形態では、変形画像セットにおける各基本顔変形画像には、対応する変形識別子(変化された顔変形パラメータを示す)が含まれ、アプリケーションプログラムは、この変形識別子に基づいて、基本顔変形画像からターゲット基本顔形状変化画像を決定する。
オプションとして、ある変形制御パラメータが、顔領域に変形が発生しないということを示す場合、アプリケーションプログラムは、その変形制御パラメータに対応するターゲット基本顔変形画像を決定する必要がない。
模式的には、図7に示すように、変形制御パラメータ71は、口を開ける大きさを制御するために使用されるものであるため、アプリケーションプログラムは、基本顔変形画像72をターゲット基本顔変形画像として決定する。
ステップ606で、アプリケーションプログラムは、変形制御パラメータ、基本顔画像、およびターゲット基本顔変形画像に基づいて、仮想キャラクターの顔画像を生成する。
本願の実施例では、変形制御パラメータは、基本顔画像とターゲット基本顔変形画像との間の差分の程度を制御するために使用されるものである。ここで、変形制御パラメータが大きいほど、生成された仮想キャラクター顔画像がターゲット基本顔変形画像に近くなり、逆に、生成された仮想キャラクター顔画像が基本顔画像に近くなる。
1つの可能な実施形態において、アプリケーションプログラムは、仮想キャラクターの顔画像を生成する際に、以下のようなステップを含むようにしてよい。即ち、
1.変形制御パラメータに基づいて、補間比率を決定し、補間比率には、基本顔画像に対応する第1補間比率と、ターゲット基本顔変形画像に対応する第2補間比率とが含まれる。補間比率は、基本顔画像とターゲット基本顔変形画像との間の補間の程度を制御するために使用されるものである。
オプションとして、第1補間比率は、基本顔画像の画像変形の程度を制御するために使用されるものであり、第2補間比率は、ターゲット基本顔変形画像の画像変形の程度を制御するために使用されるものである。ここで、第1補間比率と変形制御パラメータは、負の相関関係を示し、第2補間比率と変形制御パラメータは正の相関関係を示し、かつ、第1補間比率と第2補間比率の和は1である。
1つの実施例では、変形制御パラメータが0.7である場合、アプリケーションプログラムは、第1補間比率を0.3として決定して、第2補間比率を0.7として決定する。
模式的には、図7に示すように、アプリケーションプログラムは、変形制御パラメータ71に基づいて、第1補間比率74および第2補間比率75を決定する。
2.基本顔画像および第1補間比率と、基本顔変形画像および第2補間比率とに基づいて、仮想キャラクターの顔画像を生成する。
1つの可能な実施形態において、アプリケーションプログラムは、第1補間比率に基づいて、基本顔画像に対して画像変形(主に、画像における多角形を歪めること)を実行し、第2補間比率に基づいて、ターゲット基本顔変形画像に対して画像変形を実行することにより、両者の変形結果を重ね合わせて、これによって、仮想キャラクターの顔画像を得る。
模式的には、図7に示すように、アプリケーションプログラムは、第1補間比率74に基づいて、基本顔画像73に対して画像変形を実行し、第2補間比率75に基づいて、ターゲット基本顔形変画像72に対して画像変形を実行して、両者を重ね合わせて、仮想キャラクターの顔画像76を得る。
説明すべきものとして、異なる顔領域に対応する複数の変形制御パラメータを含む場合、アプリケーションプログラムは、変形制御パラメータごとに上記のステップを実行し、各変形制御パラメータに対応する変形結果を重ね合わせて、仮想キャラクターの顔画像を生成する。
ステップ607で、アプリケーションプログラムは、仮想キャラクターの顔画像を表示する。
本ステップの実施形態について、上記のステップ204を参照することができる。
本実施形態では、端末が顔パラメータをパッキングする機能を備えていない場合、アプリケーションプログラムは、収集された顔画像に基づいて、ユーザの顔に対応する顔パラメータを決定することができ、これにより、端末への制限が低減され、上記の方法の適用シーンが拡張される。
また、本実施例では、アプリケーションプログラムは、変形制御パラメータに基づいて、基本顔変形画像から、同じ顔変形方式に対応するターゲット基本顔変形画像を選択することにより、ターゲット基本顔変形画像と基本顔画像とに基づいて、画像変形を行い、最終的に、変形後の仮想キャラクター顔画像を得ることができ、異なる顔領域への対応性変形を実現し、変形の速度および精度を向上させる。
1つの可能な適用シーンでは、ゲームアプリケーションプログラムがカスタマイズされた仮想キャラクターをサポートする場合、ユーザは、仮想キャラクターの顔特徴をカスタマイズすることができ、この場合、アプリケーションプログラム内に予め設定されたパラメータマッピング関係は、カスタマイズされた仮想キャラクターには適用されていないかもしれない(顔変形パラメータの変化により、変形制御パラメータの変化を引き起こす)。その後も、アプリケーションプログラム内に予め設定されたパラメータマッピング関係に基づいて、顔パラメータに対応する変形制御パラメータを決定すると、決定された変形制御パラメータの精度に影響を与え、さらに、生成された仮想キャラクターの顔画像の効果に影響を与える。
上記の問題を回避するために、1つの可能な実施形態では、図6に示す実施例を基にして、図8に示すように、この方法は、また、以下のようなステップを含むようにしてもよく、即ち、
ステップ608で、アプリケーションプログラムは、サンプル変形制御パラメータに基づいて、サンプル仮想キャラクターの顔画像を生成する。
本実施例において、アプリケーションプログラムは、パラメータ学習フレームを導入し、顔パラメータセットおよび/または顔変形パラメータセットが変化した場合、アプリケーションプログラムは、このパラメータ学習フレームにより、変化した後のパラメータ間対応関係を自動的に学習することができる。
1つの可能な実施形態では、ユーザが仮想キャラクターをカスタマイズした後、アプリケーションプログラムは、カスタマイズされた仮想キャラクターに対応する顔変形パラメータに基づいて、顔変形パラメータに対応するサンプル変形制御パラメータをランダムに生成して、さらに、サンプル変形制御パラメータと変形画像セットとに基づいて、1枚のサンプル仮想キャラクターの顔画像を生成する。
1つの実施例において、アプリケーションプログラムは、カスタマイズされた仮想キャラクターに対応する顔変形パラメータA、B、およびCに基づいて、サンプル変形制御パラメータA1、B1、およびC1をランダムに生成することにより、サンプル変形制御パラメータA1、B1、およびC1に基づいて、変形画像セットにおける画像に対して画像変形を行い、サンプル仮想キャラクターの顔画像を生成する。
ステップ609で、アプリケーションプログラムは、顔登録インターフェースにサンプル仮想キャラクターの顔画像を表示して、サンプル顔画像を取得する。サンプル顔画像は、ユーザがサンプル仮想キャラクターの顔画像を真似したときに収集された顔画像である。
変形制御パラメータと顔パラメータとの間の対応関係を学習するために、オプションとして、アプリケーションプログラムは、生成されたサンプル仮想キャラクターの顔画像を顔登録インターフェースに表示して、ヒント情報を顔登録インターフェースに表示することで、ユーザにサンプル仮想キャラクターの顔画像が表現している表情を真似するように提示し、これにより、カメラを介してユーザのサンプル顔画像を収集する。
模式的には、図9に示すように、アプリケーションプログラムの顔登録インターフェース91にサンプル仮想キャラクターの顔画像92が表示され、ユーザが指示に従って、サンプル仮想キャラクターの顔画像92の顔表情を真似するとき、カメラによって収集されたサンプル顔画像93は、ビューファインダーフレーム(viewfinder frame)に表示される。ユーザが登録ボタン94をクリックすると、アプリケーションは、サンプル顔画像93を取得する。
ステップ610で、アプリケーションプログラムは、サンプル変形制御パラメータと、サンプル顔画像に対応するサンプル顔パラメータとに基づいて、サンプル対応関係を生成する。
1つの可能な実施形態では、取得されたサンプル顔画像に対して、アプリケーションプログラムは、サンプル顔画像におけるサンプル顔パラメータを抽出し、さらに、サンプル顔パラメータとサンプル変形制御パラメータとの間のサンプル対応関係を構築する。ここで、サンプル顔画像からサンプル顔パラメータを抽出する方式について、上記のステップ602を参照することができる。
ステップ611で、アプリケーションプログラムは、複数のサンプル対応関係に基づいて、パラメータマッピング関係を生成する。
1つの可能な実施形態において、アプリケーションプログラムは、上記のステップ608~ステップ610を繰り返し実行することにより、複数のサンプル対応関係を得て、さらに、複数のサンプル対応関係に基づいて、パラメータマッピング関係を生成することができる。後続の適用中に、端末は、生成されたパラメータマッピング関係に基づいて、変形制御パラメータを決定する。
パラメータマッピング関係を生成する方式に対して、オプションとして、アプリケーションプログラムは、線形回帰(linear regression)モデルを利用して、サンプル顔パラメータを観測行列とし、サンプル変形制御パラメータを観測値として、最小二乗法を採用して、モデルにおけるパラメータ変換行列(即ち、パラメータマッピング関係)を解き、ここで、観測行列、観測値およびパラメータ変換行列によって構成される線形回帰方程式は、次のように表すことができる。、即ち、
Figure 2022529757000003

ここで、
Figure 2022529757000004

は、観測行列であり、
Figure 2022529757000005

は、パラメータ変換行列であり、
Figure 2022529757000006

は、観測値である。
他の可能な実施形態では、仮想キャラクターがカスタマイズされていない場合、アプリケーションプログラムは、上記のステップにより、予め設定されたパラメータマッピング関係を更新し、パラメータマッピング関係と、ユーザの顔特徴とのマッチング度を向上させて、これにより、生成された仮想キャラクター顔画像の品質を向上させることもできる。
もちろん、アプリケーションプログラムにおいて予め設定されたパラメータマッピング関係は、上記の方法により生成されてよく、本願の実施形態は、これに対して限定を行わない。
本実施例において、アプリケーションプログラムは、顔登録インターフェースにおいてサンプル仮想キャラクターの顔画像を表示して、サンプル仮想キャラクターの顔画像が表現している表情をユーザが真似する際のサンプル顔画像を収集することにより、サンプル顔画像と、サンプル仮想キャラクターの顔画像とに基づいて、変形制御パラメータと顔パラメータとの間の対応関係を構築し、顔パラメータおよび/または顔変形パラメータが変化した場合、予め設定されたパラメータマッピング関係を使用して、後続の仮想キャラクターの表情のシミュレーション精度に影響を及ぼす、という問題を避け、仮想キャラクターの顔表情のシミュレーション品質を向上させる。
理解すべきものとして、図2、図6、および図8のフローチャートにおける各ステップは、矢印の指示に従って順次に表示されているが、これらのステップは、必ずしも矢印で指示された順序に従って実行されるわけではない。本明細書で明示的に説明されていない限り、これらのステップの実行には、厳密な順序制限がなく、これらのステップは、他の順序で実行されてもよい。また、図2、図6、および図8における少なくとも一部のステップは、複数のサブステップまたは複数の段階を含むようにしてよく、これらのサブステップまたは段階は、必ずしも同じタイミングで実行して完成されるわけではなく、異なるタイミングで実行されてもよい。これらのサブステップまたは段階の実行順序は、必ずしも順次に実行されるものではなく、他のステップ、または他のステップのサブステップまたは段階の少なくとも一部と順番または交替に実行されるようにしてよい。
図10は、本願の一つの実施例によって提供される仮想キャラクターの顔表示装置の構成のブロック図であり、この装置は、端末に適用することができる。この装置は、ユーザの顔に対応する顔パラメータを取得する第1取得モジュール1001であって、前記顔パラメータが、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである第1取得モジュール1001と、
前記顔パラメータに基づいて、変形制御パラメータを決定する決定モジュール1002であって、前記変形制御パラメータが、仮想キャラクターの異なる顔領域の変形度を制御するために使用されるものである決定モジュール1002と、
前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する第1生成モジュール1003であって、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像が、異なる顔変形領域に対応する第1生成モジュール1003と、
前記仮想キャラクターの顔画像を表示する表示モジュール1004と、を備える。
オプションとして、前記第1生成モジュール1003は、
前記変形制御パラメータに基づいて、少なくとも1つの前記基本顔変形画像のうちのターゲット基本顔変形画像を決定する第1決定ユニットであって、前記ターゲット基本顔変形画像と前記変形制御パラメータが同じ顔変形方式に対応する第1決定ユニットと、
前記変形制御パラメータ、前記基本顔画像および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成する生成ユニットと、を備える。
オプションとして、前記生成ユニットは、
前記変形制御パラメータに基づいて、補間比率を決定することであって、前記補間比率には、前記基本顔画像に対応する第1補間比率と、前記ターゲット基本顔変形画像に対応する第2補間比率とが含まれ、前記補間比率は、前記基本顔画像と前記ターゲット基本顔変形画像との間の補間の程度を制御するために使用されるものであることと、
前記基本顔画像および前記第1補間比率と、および前記ターゲット基本顔変形画像および前記第2補間比率とに基づいて、前記仮想キャラクターの顔画像を生成することのために使用される。
オプションとして、前記決定モジュール1002は、
パラメータマッピング関係を取得する取得ユニットであって、前記パラメータマッピング関係が、前記顔パラメータと前記変形制御パラメータとの間の対応関係を示すために使用されるものである取得ユニットと、
前記パラメータマッピング関係に基づいて、前記顔パラメータに対応する前記変形制御パラメータを決定する第2決定ユニットと、を備える。
オプションとして、前記仮想キャラクターは、カスタマイズされた仮想キャラクターであり、前記装置は、さらに、
サンプル変形制御パラメータに基づいて、サンプル仮想キャラクターの顔画像を生成する第2生成モジュールと、
顔登録インターフェースに前記サンプル仮想キャラクターの顔画像を表示して、サンプル顔画像を取得する第2取得モジュールであって、前記サンプル顔画像は、ユーザが前記サンプル仮想キャラクターの顔画像を真似したときに収集された顔画像である第2取得モジュールと、
前記サンプル変形制御パラメータと、前記サンプル顔画像に対応するサンプル顔パラメータとに基づいて、サンプル対応関係を生成する第3生成モジュールと、
複数の前記サンプル対応関係に基づいて、前記パラメータマッピング関係を生成する第4生成モジュールと、を備える。
オプションとして、前記第1取得モジュール1001は、
ターゲットシーンにいる場合、カメラを介して前記ユーザの顔の顔画像を収集する収集ユニットと、
前記顔画像に基づいて、前記ユーザの顔に対応する前記顔パラメータを決定する第3決定ユニットと、を備える。
オプションとして、前記カメラは、深度カメラであり、前記顔画像には、各画素点に対応する深度データが含まれ、
前記第3決定ユニットは、
前記顔画像をサンプル顔深度画像と、前記サンプル顔深度画像に対応するサンプル顔パラメータとに基づいてトレーニングされたニューラルネットワークモデルである顔パラメータ予測モデルに入力し、前記顔パラメータ予測モデルによって出力された前記顔パラメータを得るために使用される。
以上のように、本願の実施例では、ユーザの顔の顔パラメータを取得して、この顔パラメータに基づいて仮想キャラクターの変形制御パラメータを決定することにより、変形制御パラメータと、変形画像セットにおける基本顔画像および基本顔変形画像とに基づいて、仮想キャラクターの顔画像を生成して表示し、関連技術における2D仮想キャラクターが予め設定された顔表情のみを表示することに比べて、本願の実施例では、ユーザのリアルタイムの表情をシミュレートするように2D仮想キャラクターを駆動することができる。これにより、顔表情の表現のインテリジェント化の度合いを向上させ、2D仮想キャラクターの顔表示方式を豊かにする効果が達成される。
説明すべきものとして、上記の実施例によって提供される装置は、上記の各機能モジュールの分割のみを例に挙げて説明したが、実際の適用では、必要に応じて、上記の機能は、異なる機能モジュールが完成するように割り当てることができる。即ち、デバイスの内部構成を異なる機能モジュールに分割することで、上記の機能の全部または一部を達成することができる。また、上記の実施例によって提供される仮想キャラクターの顔表示装置は、仮想キャラクターの顔表示方法の方法実施例と同じ構想に属し、その具体的な実現プロセスについて、方法の実施例を参照する。
図11は、本願の一つの実施例によって提供される端末の構成のブロック図である。この端末1600は、スマートフォン、タブレットコンピュータ、MP3(Moving Picture Experts Group Audio Layer III、動画専門家グループオーディオレイヤ3)プレーヤー、MP4(Moving Picture Experts Group Audio Layer IV、動画専門家グループオーディオレイヤ4)プレーヤー、ノートパソコンやデスクトップコンピュータであってもよい。端末1600は、ユーザデバイス、携帯型端末、ラップトップ型端末、デスクトップ型端末などの他の名称で呼ぶこともある。
一般的に、端末1600は、プロセッサ1601とメモリ1602とを備える。
プロセッサ1601は、1つまたは複数の処理コアを備えるようにしてよく、例えば、4コアプロセッサ、8コアプロセッサなどである。プロセッサ1601は、DSP(Digital Signal Processing、デジタル信号処理)、FPGA(Field―Programmable Gate Array、フィールドプログラマブルゲートアレイ)、PLA(Programmable Logic Array、プログラマブルロジックアレイ)のうちの少なくとも1つのハードウェア形式を採用して実現するようにしてよい。プロセッサ1601は、メインプロセッサとコプロセッサとを備えるようにしてもよく、メインプロセッサは、起動状態でのデータを処理するためのプロセッサであり、CPU(central processing unit、中央プロセッサ)とも呼ばれ、コプロセッサは、待機状態でのデータを処理するための低消費電力プロセッサである。いくつかの実施形態では、プロセッサ1601には、GPU(Graphics Processing Unit、グラフィックスプロセッシングユニット)が集積されているようにしてよく、GPUは、ディスプレイに表示する必要のあるコンテンツへのレンダリングおよび描画を担当するために使用される。いくつかの実施形態において、プロセッサ1601は、AI(Artiphicial Intelligence、人工知能)プロセッサを備えるようにしてもよく、このAIプロセッサは、マシン学習に関するコンピューティング動作を処理するために使用される。
メモリ1602は、1つまたは複数のコンピュータ読み取り可能な記憶媒体を備えるようにしてよく、このコンピュータ読み取り可能な記憶媒体は、非一時的なものであってもよい。メモリ1602は、また、高速ランダムアクセスメモリと、不揮発性メモリとを備えるようにしてよい。例えば、1つまたは複数の磁気ディスク記憶デバイス、フラッシュメモリ記憶デバイス、などである。いくつかの実施形態では、メモリ1602における非一時的なコンピュータ読み取り可能な記憶媒体は、少なくとも1つの命令を記憶するために使用され、この少なくとも1つの命令は、プロセッサ1601によって実行されることで、本願の方法実施例によって提供される方法を実現するために使用されるものである。
いくつかの実施例において、端末1600は、オプションとして、周辺デバイスインターフェース1603と、少なくとも1つの周辺デバイスとを備えるようにしてよい。プロセッサ1601、メモリ1602、および周辺デバイスインターフェース1603の間では、バスまたは信号線によって接続されるようにしてもよい。各周辺デバイスは、バス、信号線、または回路ボードを介して周辺デバイスインターフェース1603と接続されるようにしてもよい。具体的に、周辺デバイスには、無線周波数回路1604と、ディスプレイ1605と、カメラコンポーネント1606と、オーディオ回路1607と、位置決めコンポーネント1608と、電源1609とのうちの少なくとも1つが含まれる。
周辺デバイスインターフェース1603は、I/O(Input/Output、入力/出力)に関連する少なくとも1つの周辺デバイスをプロセッサ1601およびメモリ1602に接続するために使用されてよい。いくつかの実施例では、プロセッサ1601、メモリ1602、および周辺デバイスインターフェース1603は、同一のチップまたは回路ボードに集積され、いくつかの他の実施例では、プロセッサ1601、メモリ1602、および周辺デバイスインターフェース1603のうちのいずれかの1つまたは2つは、単独のチップまたは回路ボード上で実現されてもよいし、本実施例は、これに対して限定を行わない。
無線周波数回路1604は、RF(Radio Frequency、無線周波数)信号(電磁信号とも呼ぶ)を受送信するために使用される。無線周波数回路1604は、電磁信号を介して通信ネットワークおよび他の通信デバイスと通信を行う。無線周波数回路1604は、電気信号を電磁信号に変換して送信を行うか、または、受信した電磁信号を電気信号に変換する。オプションとして、無線周波数回路1604は、アンテナシステム、RFトランシーバ、1つまたは複数の増幅器、チューナ、発振器、デジタル信号プロセッサ、コーデックチップセット、ユーザIDモジュールカード、などを備えている。無線周波数回路1604は、少なくとも1つの無線通信プロトコルによって他の端末と通信するようにしてよい。この無線通信プロトコルは、ワールドワイドウェブ、メトロポリタンエリアネットワーク、イントラネット、各世代移動通信ネットワーク(2G、3G、4Gおよび5G)、無線LANおよび/またはWiFi(Wireless Fidelity、ワイヤレスフィデリティ)ネットワークを含むが、これらに限定されない。いくつかの実施例において、無線周波数回路1604は、NFC(Near Field Communication、近距離無線通信)に関する回路を備えるようにしてもよいし、本願は、これに対して限定を行わない。
ディスプレイ1605は、UI(User Interface、ユーザインターフェース)を表示するために使用される。このUIは、グラフ、テキスト、アイコン、ビデオ、および、それらの任意の組み合わせを含むようにしてよい。ディスプレイ1605がタッチディスプレイである場合、ディスプレイ1605は、ディスプレイ1605の表面または表面の上方にあるタッチ信号を収集する能力を持っている。このタッチ信号は、制御信号として、プロセッサ1601に入力して処理されるようにしてもよい。このとき、ディスプレイ1605は、また、仮想ボタンおよび/または仮想キーボード(ソフトボタンおよび/またはソフトキーボードとも呼ぶ)を提供するために使用されるようにしてもよい。いくつかの実施例において、ディスプレイ1605は、1つであってよく、端末1600のフロントパネルに設置されてよいし、他の実施例では、ディスプレイ1605は、少なくとも2つであってもよく、端末1600の異なる表面にそれぞれ設置されてもよく、または折り畳みされた設計として表示されてもよい。また、いくつかの実施例において、ディスプレイ1605は、フレキシブルディスプレイであってもよく、端末1600の曲げ面または折りたたみ面に設けられてもよい。さらに、ディスプレイ1605は、非長方形の不規則な図形に設定されるようにしてもよく、つまり、異形のスクリーンとなる。ディスプレイ1605は、LCD(Liquid Crystal Display、液晶ディスプレイ)、OLED(Organic Light-Emiting Diode、有機発光ダイオード)などの材質で製造されるようにしてよい。
カメラコンポーネント1606は、画像またはビデオを収集するために使用される。オプションとして、カメラコンポーネント1606は、フロントカメラおよびバックカメラを含む。通常、フロントカメラは、端末のフロントパネルに設置されており、バックカメラは、端末の背面に設置される。いくつかの実施例において、バックカメラは、少なくとも2つあり、それぞれが、メインカメラ、被写界深度カメラ、広角カメラ、望遠カメラのうちのいずれかであり、これによって、メインカメラと被写界深度カメラの融合による背景ボケ機能の実現、メインカメラと広角カメラの融合によるパノラマ撮影およびVR(Virtual Reality、バーチャルリアリティ)撮影の機能、または、その他の融合撮影機能が実現される。いくつかの実施例において、カメラコンポーネント1606は、フラッシュをさらに備えるようにしてもよい。フラッシュは、単色温度フラッシュであってよく、二色温度フラッシュであってもよい。二色温度フラッシュとは、暖かい光のフラッシュと冷たい光のフラッシュの組み合わせであり、異なる色温度での光線補償に使用されるようにしてもよい。
オーディオ回路1607は、マイクロフォンとスピーカとを備えるようにしてよい。マイクロフォンは、ユーザおよび環境の音波を収集して、音波を電気信号に変換してプロセッサ1601に入力して処理し、または、無線周波数回路1604に入力して音声通信を実現するために使用される。ステレオの収集またはノイズ低減の目的から、マイクロフォンは、複数であってよく、それぞれが端末1600の異なる部分に設けられてもよい。マイクロフォンは、アレイマイクロフォンまたは全方向性収集型マイクロフォンであってもよい。スピーカは、プロセッサ1601または無線周波数回路1604からの電気信号を音波に変換するために使用される。スピーカは、伝統的な薄膜スピーカであってよく、圧電セラミックスピーカーであってもよい。スピーカは、圧電セラミックスピーカーであると、電気信号を人間の聞こえる音波に変換するだけでなく、電気信号を人間の聞こえない音波に変換することで距離測定などの用途のために使用されてよい。いくつかの実施例では、オーディオ回路1607は、ヘッドホンジャックを備えるようにしてもよい。
位置決めコンポーネント1608は、端末1600の現在の地理的位置を位置決めることで、ナビゲーションまたはLBS(Location Based Service、位置に基づくサービス)を実現するために使用される。位置決めコンポーネント1608は、米国のGPS(Global Positioning System、グローバルポジショニングシステム)、中国の北斗システム、またはロシアのグレイナスシステムに基づく位置決めコンポーネントであってよい。
電源1609は、端末1600における各コンポーネントに電力を供給するために使用される。電源1609は、交流、直流、使い捨て電池、または充電式電池であってよい。電源1609が充電式電池を含む場合、この充電式電池は、有線充電電池または無線充電電池であってよい。有線充電電池は、有線回路を介して充電される電池であり、無線充電電池は、無線コイルを介して充電される電池である。この充電式電池は、高速充電技術をサポートするために使用されるようにしてもよい。
いくつかの実施例でにおいて、端末1600は、1つまたは複数のセンサ1610を備えるようにしてよい。この1つまたは複数のセンサ1610は、加速度センサ1611、ジャイロセンサ1612、圧力センサ1613、指紋センサ1614、光学センサ1615、および近接センサ1616を含むが、これらに限定されない。
加速度センサ1611は、端末1600で確立された座標系の3つの座標軸での加速度の大きさを検出することができる。例えば、加速度センサ1611は、重力加速度の3つの座標軸での成分を検出するために使用されるようにしてよい。プロセッサ1601は、加速度センサ1611によって収集された重力加速度信号に基づいて、ディスプレイ1605が横方向または縦方向のビューでユーザインターフェースの表示を行うように制御することができる。加速度センサ1611は、ゲームまたはユーザの動きデータの収集にも使用され得る。
ジャイロセンサ1612は、端末1600の本体方向および回転角度を検出することができ、ジャイロセンサ1612は、加速度センサ1611と協働して、ユーザによる端末1600への3D動作を収集することができる。プロセッサ1601は、ジャイロセンサ1612によって収集されたデータに基づいて、動作感知(例えば、ユーザの傾き操作に応じてUIを変化させる)、撮影時の画像安定、ゲーム制御、および慣性ナビゲーションなどの機能を実現することができる。
圧力センサ1613は、端末1600のサイドフレームおよび/またはディスプレイ1605の下部に設けられてよい。圧力センサ1613は、端末1600のサイドフレームに設けられる場合、ユーザによる端末1600への把持信号を検出することができ、プロセッサ1601は、圧力センサ1613によって収集された把持信号に基づいて、左手と右手の識別またはショートカット操作を行う。圧力センサ1613がディスプレイ1605の下部に設けられる場合、プロセッサ1601は、ユーザによるディスプレイ1605への圧力操作に応じて、UIインターフェース上の操作可能なコントロールへの制御を実現する。操作可能なコントロールは、ボタンコントロール、スクロールバーコントロール、アイコンコントロール、メニューコントロールのうちの少なくとも1つを含む。
指紋センサ1614は、ユーザの指紋を収集するために使用され、プロセッサ1601は、指紋センサ1614によって収集された指紋からユーザの身分を識別するか、または、指紋センサ1614は、収集した指紋からユーザの身分を識別する。ユーザの身分が信頼できる身分であると識別された場合、プロセッサ1601は、そのユーザに対して、関連する敏感な操作を実行するように許可し、この敏感な操作は、スクリーンのロック解除、暗号化情報の閲覧、ソフトウェアのダウンロード、支払い、および、設定の変更などを含む。指紋センサ1614は、端末1600の正面、背面、または側面に設けられてもよい。端末1600に物理的なキーまたはベンダーLogoが設けられている場合、指紋センサ1614は、物理的なキーまたはベンダーLogoと一体化することができる。
光学センサ1615は、環境光強度を収集するために使用される。一つの実施例において、プロセッサ1601は、光学センサ1615によって収集された環境光強度に応じて、ディスプレイ1605の表示輝度を制御するようにしてよい。具体的には、環境光強度が高い場合、ディスプレイ1605の表示輝度を高くし、環境光強度が低い場合、ディスプレイ1605の表示輝度を低くする。別の実施例では、プロセッサ1601は、光学センサ1615によって収集された環境光強度に従って、カメラコンポーネント1606の撮影パラメータを動的に調整することもできる。
近接センサ1616は、距離センサとも呼ばれ、通常、端末1600のフロントパネルに設けられている。近接センサ1616は、ユーザと端末1600の正面との間の距離を収集するために使用される。1つの実施例では、近接センサ1616が、ユーザと端末1600の正面との距離が徐々に小さくなっていることを検出した場合、プロセッサ1601は、点灯状態から消灯状態に切り換えるように、ディスプレイ1605を制御する。近接センサ1616が、ユーザと端末1600の正面との距離が徐々に大きくなっていることを検出した場合、プロセッサ1601は、消灯状態から点灯状態に切り替えるように、ディスプレイ1605を制御する。
当業者であれば、図16に示す構造は、端末1600への限定を構成するものではなく、図示されたものよりも多いか、または少ないコンポーネントを含んだり、もしくは、いくつかのコンポーネントを組み合わせたり、あるいは、異なるコンポーネントの配置を採用したりすることができる、ということを理解ができる。
当業者は、上記の実施例の各方法における全部または一部のステップを、プログラムによって関連するハードウェアを命令することによって完成することができる。このプログラムは、コンピュータ読み取り可能な記憶媒体に記憶されてよく、このコンピュータ読み取り可能な記憶媒体は、上記の実施例におけるメモリに含まれるコンピュータ読み取り可能な記憶媒体であってよく、端末に組み込まれていない、単独で存在しているコンピュータ読み取り可能な記憶媒体であってもよい。このコンピュータ読み取り可能な記憶媒体には、少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが前記プロセッサによってロードされて実行される場合、上記のような、各実施例によって提供される仮想キャラクターの顔表示方法を実現させる。
一方、コンピュータデバイスが提供される。前記コンピュータデバイスは、プロセッサと、メモリとを備えている。前記メモリには、少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが前記プロセッサによってロードされて実行される場合、上記のような、各実施例によって提供される仮想キャラクターの顔表示方法を実現させる。
一方、コンピュータ読み取り可能な記憶媒体が提供される。前記読み取り可能な記憶媒体には、少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが前記プロセッサによってロードされて実行される場合、上記のような、各実施例によって提供される仮想キャラクターの顔表示方法を実現させる。
また、本願はコンピュータプログラム製品が提供される。前記コンピュータプログラム製品がコンピュータ上で動作すると、コンピュータに、上記のような、各実施例によって提供される仮想キャラクターの顔表示方法を実行させる。
当業者であれば、上記の実施例の方法における全部または一部のプロセスを実現することは、コンピュータプログラムによって関連するハードウェアを命令することによって完成され得る、ということを理解することができる。前記のプログラムは、不揮発性のコンピュータ読み取り可能な記憶媒体に記憶されてよく、このプログラムが実行される際に、それは、上記の各方法の実施例のプロセスを含むことができる。ここで、本願によって提供される各実施例で使用されるメモリ、ストレージ、データベース、または他の媒体への任意の引用は、いずれも、不揮発性および/または揮発性メモリを含むことができる。不揮発性メモリは、リードオンリーメモリ(ROM)、プログラマブルROM(PROM)、電気的プログラマブルROM(EPROM)、電気消去可能プログラマブルROM(EEPROM)、またはフラッシュメモリを含むようにしてよい。揮発性メモリは、ランダムアクセスメモリ(RAM)または外部キャッシュメモリを含むようにしてよい。限定ではなく、説明として、RAMは、スタティックRAM(SRAM)、ダイナミックRAM(DRAM)、同期DRAM(SDRAM)、ダブルデータレートSDRAM(DDRSDRAM)、拡張型SDRAM(ESDRAM)、同期リンク(Synchlink)DRAM(SLDRAM)、メモリバス(Ramus)直接RAM(RDRAM)、直接メモリバスダイナミックRAM(DRDRAM)、およびメモリバスダイナミック(RDRAM)、のような様々な形態で得られる。
以上の実施例の各技術的特徴について、任意の組み合わせを行うことができる、説明を簡潔にするために、上記の実施例における各技術的特徴の可能な組み合わせは全て説明されていないが、これらの技術的特徴の組み合わせに矛盾が存在しない限り、本説明書に記載された範囲と見なされるべきである。以上の実施例は、本願のいくつかの実施形態のみを示しており、その説明はより具体的で詳細であるが、それによって特許出願の範囲を限定するものとして理解されるわけではない。指摘すべきものとして、当業者にとっては、本願の構想から逸脱することなく、いくつかの変形や改善が可能であり、これらはいずれも、本願の保護範囲に属するものである。したがって、本願の特許の保護範囲は、添付の特許請求の範囲に準ずるものとする。

Claims (18)

  1. 端末が実行する、仮想キャラクターの顔表示方法であって、
    ユーザの顔に対応する顔パラメータを取得するステップであり、前記顔パラメータは、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである、ステップと、
    前記顔パラメータに基づいて、変形制御パラメータを決定するステップであり、前記変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものである、ステップと、
    前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成するステップであり、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像は、異なる顔変形方式に対応する、ステップと、
    前記仮想キャラクターの顔画像を表示するステップと、
    を含む、
    ことを特徴とする、方法。
  2. 前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する前記ステップは、
    前記変形制御パラメータに基づいて、少なくとも1つの前記基本顔変形画像におけるターゲット基本顔変形画像を決定するステップであり、前記ターゲット基本顔変形画像と前記変形制御パラメータは、同じ顔変形方式に対応する、ステップと、
    前記変形制御パラメータ、前記基本顔画像、および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成するステップと、
    を含む、
    ことを特徴とする、請求項1に記載の方法。
  3. 前記変形制御パラメータ、前記基本顔画像、および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成する前記ステップは、
    前記変形制御パラメータに基づいて、補間比率を決定するステップであり、前記補間比率には、前記基本顔画像に対応する第1補間比率と、前記ターゲット基本顔変形画像に対応する第2補間比率とが含まれ、前記補間比率は、前記基本顔画像と前記ターゲット基本顔変形画像との間の補間の程度を制御するために使用されるものである、ステップと、
    前記基本顔画像および前記第1補間比率と、前記ターゲット基本顔変形画像および前記第2補間比率とに基づいて、前記仮想キャラクターの顔画像を生成する、ステップと、
    を含む、
    ことを特徴とする、請求項2に記載の方法。
  4. 前記顔パラメータに基づいて、変形制御パラメータを決定する前記ステップは、
    パラメータマッピング関係を取得するステップであり、前記パラメータマッピング関係は、前記顔パラメータと前記変形制御パラメータとの間の対応関係を示すために使用されるものである、ステップと、
    前記パラメータマッピング関係に基づいて、前記顔パラメータに対応する前記変形制御パラメータを決定するステップと、
    を含む、
    ことを特徴とする、請求項1~3のいずれか一項に記載の方法。
  5. 前記仮想キャラクターは、カスタマイズされた仮想キャラクターであり、
    前記方法は、さらに、
    前記カスタマイズされた仮想キャラクターに対応するサンプル変形制御パラメータに基づいて、サンプル仮想キャラクターの顔画像を生成するステップと、
    顔登録インターフェースに前記サンプル仮想キャラクターの顔画像を表示して、サンプル顔画像を取得するステップであり、前記サンプル顔画像は、ユーザが前記サンプル仮想キャラクターの顔画像を真似したときに取得された顔画像である、ステップと、
    前記サンプル変形制御パラメータと、前記サンプル顔画像に対応するサンプル顔パラメータとに基づいて、サンプル対応関係を生成するステップと、
    複数の前記サンプル対応関係に基づいて、前記パラメータマッピング関係を生成する、ステップと、
    を含む、
    ことを特徴とする、請求項4に記載の方法。
  6. 前記ユーザの顔に対応する顔パラメータを取得する前記ステップは、
    ターゲットシーンにいる場合、カメラを介して、前記ユーザの顔の顔画像を収集するステップと、
    前記顔画像に基づいて、前記ユーザの顔に対応する前記顔パラメータを決定するステップと、
    を含む、
    ことを特徴とする、請求項1~3のいずれか一項に記載の方法。
  7. 前記カメラは、深度カメラであり、前記顔画像には、各画素点に対応する深度データが含まれ、
    前記顔画像に基づいて、前記ユーザの顔に対応する前記顔パラメータを決定する前記ステップは、
    前記顔画像を顔パラメータ予測モデルに入力し、前記顔パラメータ予測モデルによって出力された前記顔パラメータを得るステップであり、前記顔パラメータ予測モデルは、サンプル顔深度画像と、前記サンプル顔深度画像に対応するサンプル顔パラメータとに基づいてトレーニングされたニューラルネットワークモデルである、ステップ、
    を含む、
    ことを特徴とする、請求項6に記載の方法。
  8. 仮想キャラクターの顔表示装置であって、
    ユーザの顔に対応する顔パラメータを取得する第1取得モジュールであり、前記顔パラメータは、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである、第1取得モジュールと、
    前記顔パラメータに基づいて、変形制御パラメータを決定する決定モジュールであり、前記変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものである、決定モジュールと、
    前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する第1生成モジュールであり、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像は、異なる顔変形領域に対応する、第1生成モジュールと、
    前記仮想キャラクターの顔画像を表示する表示モジュールと、
    を備える、
    ことを特徴とする、装置。
  9. 前記第1生成モジュールは、
    前記変形制御パラメータに基づいて、少なくとも1つの前記基本顔変形画像におけるターゲット基本顔変形画像を決定する第1決定ユニットであり、前記ターゲット基本顔変形画像と前記変形制御パラメータは、同じ顔変形方式に対応する、第1決定ユニットと、
    前記変形制御パラメータ、前記基本顔画像および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成する生成ユニットと、
    を備える、
    ことを特徴とする、請求項8に記載の装置。
  10. 前記生成ユニットは、
    前記変形制御パラメータに基づいて、補間比率を決定し、
    前記補間比率には、前記基本顔画像に対応する第1補間比率と、前記ターゲット基本顔変形画像に対応する第2補間比率とが含まれ、
    前記補間比率は、前記基本顔画像と前記ターゲット基本顔変形画像との間の補間の程度を制御するために使用されるものであり、
    前記基本顔画像および前記第1補間比率と、前記ターゲット基本顔変形画像および前記第2補間比率とに基づいて、前記仮想キャラクターの顔画像を生成する、
    ために使用される、
    ことを特徴とする、請求項9に記載の装置。
  11. 前記決定モジュールは、
    パラメータマッピング関係を取得する取得ユニットであり、前記パラメータマッピング関係は、前記顔パラメータと前記変形制御パラメータとの対応関係を示すために使用されるものである、取得ユニットと、
    前記パラメータマッピング関係に基づいて、前記顔パラメータに対応する前記変形制御パラメータを決定する第2決定ユニットと、
    を備える、
    ことを特徴とする、請求項8~10のいずれか一項に記載の装置。
  12. 前記仮想キャラクターは、カスタマイズされた仮想キャラクターであり、
    前記装置は、さらに、
    サンプル変形制御パラメータに基づいて、サンプル仮想キャラクターの顔画像を生成する第2生成モジュールと、
    顔登録インターフェースに前記サンプル仮想キャラクターの顔画像を表示して、サンプル顔画像を取得する第2取得モジュールであり、前記サンプル顔画像は、ユーザが前記サンプル仮想キャラクターの顔画像を真似したときに取得された顔画像である、第2取得モジュールと、
    前記サンプル変形制御パラメータと、前記サンプル顔画像に対応するサンプル顔パラメータとに基づいて、サンプル対応関係を生成する第3生成モジュールと、
    複数の前記サンプル対応関係に基づいて、前記パラメータマッピング関係を生成する第4生成モジュールと、
    を備える、
    ことを特徴とする、請求項11に記載の装置。
  13. 前記第1取得モジュールは、
    ターゲットシーンにいる場合、カメラを介して前記ユーザの顔の顔画像を収集する収集ユニットと、
    前記顔画像に基づいて、前記ユーザの顔に対応する前記顔パラメータを決定する第3決定ユニットと、
    を備える、
    ことを特徴とする、請求項8~10のいずれか一項に記載の装置。
  14. プロセッサと、メモリとを備える端末であって、
    前記メモリには、少なくとも1つの命令、少なくとも1部のプログラム、コードセット、または命令セットが記憶されており、
    前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが、前記プロセッサによってロードされて実行されると、前記プロセッサに、
    ユーザの顔に対応する顔パラメータを取得するステップであり、前記顔パラメータは、前記ユーザの顔の異なる顔領域の顔特徴を示すために使用されるものである、ステップと、
    前記顔パラメータに基づいて、変形制御パラメータを決定するステップであり、前記変形制御パラメータは、仮想キャラクターの異なる顔領域の変形の程度を制御するために使用されるものである、ステップと、
    前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成するステップであり、前記変形画像セットには、前記仮想キャラクターの基本顔画像および少なくとも1つの基本顔変形画像が含まれ、異なる基本顔変形画像は、異なる顔変形方式に対応する、ステップと、
    前記仮想キャラクターの顔画像を表示するステップと、
    を実行させる、
    ことを特徴とする端末。
  15. 前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが、前記プロセッサによってロードされて、
    前記変形制御パラメータと、変形画像セットとに基づいて、仮想キャラクターの顔画像を生成する前記ステップが実行されると、前記プロセッサに、
    前記変形制御パラメータに基づいて、少なくとも1つの前記基本顔変形画像におけるターゲット基本顔変形画像を決定するステップであり、前記ターゲット基本顔変形画像と前記変形制御パラメータは、同じ顔変形方式に対応する、ステップと、
    前記変形制御パラメータ、前記基本顔画像、および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成するステップと、
    を実行させる、
    ことを特徴とする、請求項14に記載の端末。
  16. 前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが、前記プロセッサによってロードされて、
    前記変形制御パラメータ、前記基本顔画像、および前記ターゲット基本顔変形画像に基づいて、前記仮想キャラクターの顔画像を生成するステップが実行と、前記プロセッサに、
    前記変形制御パラメータに基づいて、補間比率を決定するステップであり、前記補間比率には、前記基本顔画像に対応する第1補間比率と、前記ターゲット基本顔変形画像に対応する第2補間比率とが含まれ、前記補間比率は、前記基本顔画像と前記ターゲット基本顔変形画像との間の補間度を制御するために使用されるものである、ステップと、
    前記基本顔画像および前記第1補間比率と、前記ターゲット基本顔変形画像および前記第2補間比率とに基づいて、前記仮想キャラクターの顔画像を生成するステップと、
    を実行させる、
    ことを特徴とする、請求項15に記載の端末。
  17. 前記少なくとも1つの命令、前記少なくとも1部のプログラム、前記コードセット、または前記命令セットが、前記プロセッサによってロードされて、前記顔パラメータに基づいて、変形制御パラメータを決定するステップが実行されると、前記プロセッサに、
    パラメータマッピング関係を取得するステップであり、前記パラメータマッピング関係は、前記顔パラメータと前記変形制御パラメータとの間の対応関係を示すために使用されるものである、ステップと、
    前記パラメータマッピング関係に基づいて、前記顔パラメータに対応する前記変形制御パラメータを決定するステップと、
    を実行させる、
    ことを特徴とする、請求項14~16のいずれか一項に記載の端末。
  18. 複数の命令を含むコンピュータプログラムであって、
    前記命令がコンピュータによってロードされて、実行されると、前記コンピュータに、請求項1~7のいずれか一項に記載の方法を実施させる、
    ことを特徴とする、コンピュータプログラム。
JP2021532877A 2019-04-26 2020-04-01 仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム Active JP7206388B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
CN201910342925.7A CN110141857A (zh) 2019-04-26 2019-04-26 虚拟角色的面部显示方法、装置、设备及存储介质
CN201910342925.7 2019-04-26
PCT/CN2020/082695 WO2020216025A1 (zh) 2019-04-26 2020-04-01 虚拟角色的面部显示方法、装置、计算机设备及可读存储介质

Publications (2)

Publication Number Publication Date
JP2022529757A true JP2022529757A (ja) 2022-06-24
JP7206388B2 JP7206388B2 (ja) 2023-01-17

Family

ID=67594664

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021532877A Active JP7206388B2 (ja) 2019-04-26 2020-04-01 仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム

Country Status (5)

Country Link
US (1) US11423509B2 (ja)
EP (1) EP3962072A4 (ja)
JP (1) JP7206388B2 (ja)
CN (1) CN110141857A (ja)
WO (1) WO2020216025A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110141857A (zh) 2019-04-26 2019-08-20 腾讯科技(深圳)有限公司 虚拟角色的面部显示方法、装置、设备及存储介质
CN110781782B (zh) * 2019-10-15 2021-03-23 腾讯科技(深圳)有限公司 面部模型的确定方法及装置
CN111389008B (zh) * 2020-03-16 2023-03-31 网易(杭州)网络有限公司 虚拟角色的面部生成方法、自动捏脸方法及装置
CN112241203A (zh) * 2020-10-21 2021-01-19 广州博冠信息科技有限公司 三维虚拟角色的控制装置及方法、存储介质及电子设备
CN114895970B (zh) * 2021-01-26 2024-02-27 博泰车联网科技(上海)股份有限公司 虚拟角色成长方法及相关装置
CN113096235B (zh) * 2021-03-09 2024-03-19 北京达佳互联信息技术有限公司 一种虚拟对象的控制方法、装置、电子设备及存储介质
CN113705316A (zh) * 2021-04-13 2021-11-26 腾讯科技(深圳)有限公司 获取虚拟图像的方法、装置、设备及存储介质
CN113426128B (zh) * 2021-06-24 2024-04-30 网易(杭州)网络有限公司 自定义角色的相貌调节方法、装置、终端和存储介质
CN113689532B (zh) * 2021-08-05 2023-07-18 北京奇艺世纪科技有限公司 基于语音数据重建虚拟角色的方法及装置
CN113633983B (zh) * 2021-08-16 2024-03-15 上海交通大学 虚拟角色表情控制的方法、装置、电子设备及介质
CN113824982A (zh) * 2021-09-10 2021-12-21 网易(杭州)网络有限公司 一种直播方法、装置、计算机设备及存储介质
CN114049417B (zh) * 2021-11-12 2023-11-24 抖音视界有限公司 虚拟角色图像的生成方法、装置、可读介质及电子设备
CN114339293B (zh) * 2021-12-30 2024-02-27 咪咕文化科技有限公司 图片形变方法、服务器及可读存储介质
CN115209180A (zh) * 2022-06-02 2022-10-18 阿里巴巴(中国)有限公司 视频生成方法以及装置
CN115601484B (zh) * 2022-11-07 2023-03-28 广州趣丸网络科技有限公司 虚拟人物面部驱动方法、装置、终端设备和可读存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343583A (ja) * 2005-06-09 2006-12-21 Ntt Docomo Inc 顔形状提示装置
JP2014199536A (ja) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント 顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラム

Family Cites Families (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4760349B2 (ja) * 2005-12-07 2011-08-31 ソニー株式会社 画像処理装置および画像処理方法、並びに、プログラム
CN100527170C (zh) * 2006-09-20 2009-08-12 清华大学 一种复杂表情仿真系统及其实现方法
JP2010186216A (ja) * 2009-02-10 2010-08-26 Seiko Epson Corp 顔画像における特徴部位の位置の特定
JP5451302B2 (ja) * 2009-10-19 2014-03-26 キヤノン株式会社 画像処理装置及び方法、プログラム及び記憶媒体
CN101944163A (zh) * 2010-09-25 2011-01-12 德信互动科技(北京)有限公司 通过捕捉人脸表情实现游戏角色表情同步的方法
CN104782120B (zh) * 2012-12-17 2018-08-10 英特尔公司 化身动画制作方法、计算设备和存储介质
CN105184735B (zh) * 2014-06-19 2019-08-06 腾讯科技(深圳)有限公司 一种人像变形方法及装置
US9799096B1 (en) * 2014-07-08 2017-10-24 Carnegie Mellon University System and method for processing video to provide facial de-identification
US10796480B2 (en) * 2015-08-14 2020-10-06 Metail Limited Methods of generating personalized 3D head models or 3D body models
CN106713811B (zh) * 2015-11-17 2019-08-13 腾讯科技(深圳)有限公司 视频通话方法和装置
CN106331572A (zh) * 2016-08-26 2017-01-11 乐视控股(北京)有限公司 一种基于图像的控制方法和装置
CN108876879B (zh) * 2017-05-12 2022-06-14 腾讯科技(深圳)有限公司 人脸动画实现的方法、装置、计算机设备及存储介质
CN109241810B (zh) * 2017-07-10 2022-01-28 腾讯科技(深圳)有限公司 虚拟角色图像的构建方法及装置、存储介质
CN108573527B (zh) * 2018-04-18 2020-02-18 腾讯科技(深圳)有限公司 一种表情图片生成方法及其设备、存储介质
CN109308727B (zh) * 2018-09-07 2020-11-10 腾讯科技(深圳)有限公司 虚拟形象模型生成方法、装置及存储介质
CN109325437B (zh) * 2018-09-17 2021-06-22 北京旷视科技有限公司 图像处理方法、装置和系统
CN109120866B (zh) * 2018-09-27 2020-04-03 腾讯科技(深圳)有限公司 动态表情生成方法、装置、计算机可读存储介质和计算机设备
US10789453B2 (en) * 2019-01-18 2020-09-29 Snap Inc. Face reenactment
CN110141857A (zh) * 2019-04-26 2019-08-20 腾讯科技(深圳)有限公司 虚拟角色的面部显示方法、装置、设备及存储介质

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006343583A (ja) * 2005-06-09 2006-12-21 Ntt Docomo Inc 顔形状提示装置
JP2014199536A (ja) * 2013-03-29 2014-10-23 株式会社コナミデジタルエンタテインメント 顔モデル生成装置、顔モデル生成装置の制御方法、及びプログラム

Also Published As

Publication number Publication date
JP7206388B2 (ja) 2023-01-17
EP3962072A4 (en) 2022-06-22
EP3962072A1 (en) 2022-03-02
WO2020216025A1 (zh) 2020-10-29
US11423509B2 (en) 2022-08-23
US20210264563A1 (en) 2021-08-26
CN110141857A (zh) 2019-08-20

Similar Documents

Publication Publication Date Title
JP2022529757A (ja) 仮想キャラクターの顔の表示方法、装置、コンピュータデバイス、およびコンピュータプログラム
CN112911182B (zh) 游戏互动方法、装置、终端及存储介质
WO2019205838A1 (zh) 虚拟场景中的距离信息显示方法、终端及计算机设备
CN109308727B (zh) 虚拟形象模型生成方法、装置及存储介质
WO2019034142A1 (zh) 三维虚拟形象的显示方法、装置、终端及存储介质
CN111324250B (zh) 三维形象的调整方法、装置、设备及可读存储介质
CN112287852B (zh) 人脸图像的处理方法、显示方法、装置及设备
CN110263617B (zh) 三维人脸模型获取方法及装置
CN110300274B (zh) 视频文件的录制方法、装置及存储介质
WO2021043121A1 (zh) 一种图像换脸的方法、装置、系统、设备和存储介质
WO2020233403A1 (zh) 三维角色的个性化脸部显示方法、装置、设备及存储介质
CN112328091B (zh) 弹幕显示方法、装置、终端及存储介质
CN109978996B (zh) 生成表情三维模型的方法、装置、终端及存储介质
CN109426343B (zh) 基于虚拟现实的协作训练方法及系统
CN110956580B (zh) 图像换脸的方法、装置、计算机设备以及存储介质
CN112468884B (zh) 动态资源显示方法、装置、终端、服务器及存储介质
CN112156464A (zh) 虚拟对象的二维形象展示方法、装置、设备及存储介质
JP7186901B2 (ja) ホットスポットマップの表示方法、装置、コンピュータ機器および読み取り可能な記憶媒体
CN113377270B (zh) 信息显示方法、装置、设备及存储介质
CN113194329B (zh) 直播互动方法、装置、终端及存储介质
WO2022212144A1 (en) User-defined contextual spaces
WO2019071562A1 (zh) 一种数据处理方法及终端
CN112717409A (zh) 虚拟车辆控制方法、装置、计算机设备及存储介质
CN113209610A (zh) 虚拟场景画面展示方法、装置、计算机设备及存储介质
CN114004922B (zh) 骨骼动画显示方法、装置、设备、介质及计算机程序产品

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210705

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220906

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221122

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230104

R150 Certificate of patent or registration of utility model

Ref document number: 7206388

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150