WO2023119557A1 - アバター表示装置、アバター生成装置及びプログラム - Google Patents

アバター表示装置、アバター生成装置及びプログラム Download PDF

Info

Publication number
WO2023119557A1
WO2023119557A1 PCT/JP2021/047876 JP2021047876W WO2023119557A1 WO 2023119557 A1 WO2023119557 A1 WO 2023119557A1 JP 2021047876 W JP2021047876 W JP 2021047876W WO 2023119557 A1 WO2023119557 A1 WO 2023119557A1
Authority
WO
WIPO (PCT)
Prior art keywords
avatar
person
data
image
unit
Prior art date
Application number
PCT/JP2021/047876
Other languages
English (en)
French (fr)
Inventor
勝秀 安倉
卓也 坂口
伸幸 岡
武史 福泉
Original Assignee
ソフトバンク株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ソフトバンク株式会社 filed Critical ソフトバンク株式会社
Priority to US17/764,149 priority Critical patent/US11887234B2/en
Priority to KR1020227009844A priority patent/KR20230098089A/ko
Priority to CN202180005532.2A priority patent/CN116648729A/zh
Priority to PCT/JP2021/047876 priority patent/WO2023119557A1/ja
Priority to CA3229535A priority patent/CA3229535A1/en
Priority to AU2021480445A priority patent/AU2021480445A1/en
Priority to JP2022517911A priority patent/JP7200439B1/ja
Priority to JP2022182125A priority patent/JP2023094549A/ja
Publication of WO2023119557A1 publication Critical patent/WO2023119557A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/001Texturing; Colouring; Generation of texture or colour
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/40Filling a planar surface by adding surface attributes, e.g. colour or texture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments

Abstract

アバター表示装置(20)は、人物の撮像データを取得する取得部(210)と、撮像データから人物の深度データ又は画像データを取得する第2取得部(211)と、深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部(212)と、情報通信装置(30)の画像表示領域(31)に、人物の動きに追従させたアバターを表示させる表示部(213)と、を備える。

Description

アバター表示装置、アバター生成装置及びプログラム
 本発明はアバター表示装置、アバター生成装置及びプログラムに関する。
 従来、コンピュータグラフィックを用いて人物を表現する技術が知られている。例えば、特許文献1には、顔メッシュを使用して顔アニメーションを作成するための技術が開示されている。これにより、人物の顔の画像のリアルな顔アニメーションを作成することができるとされている。
日本国特表2009-523288号公報
 しかしながら、上述のような従来技術は、顔の表情をリアルに再現することができるが、あくまでもアニメーションであり、アバターを生成する技術ではない。画像中の自分の分身となるアバターは近年脚光を浴びており、自身を効果的に表現するアバターを生成する技術が望まれている。
 上記の課題を解決するために、本発明の一態様に係るアバター表示装置は、人物の撮像データを取得する取得部と、前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、情報通信装置の画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる表示部と、を備える。
 上記の課題を解決するために、本発明の一態様に係るアバター生成装置は、人物の撮像データを取得する取得部と、前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、生成した前記アバターを出力する出力部と、を備える。
 本発明の各態様に係るアバター表示装置及びアバター生成装置は、コンピュータによって実現してもよく、この場合には、コンピュータを前記アバター表示装置が備える各部(ソフトウェア要素)として動作させることにより前記アバター表示装置をコンピュータにて実現させるアバター表示装置の制御プログラム、及びそれを記録したコンピュータ読み取り可能な記録媒体も、本発明の範疇に入る。
本発明の実施形態1に係るアバター表示システムのブロック図である。 実施形態1に係るアバター表示方法の流れを示すフローチャートである。 上半身のアバターを生成して表示させる手順の一例を示す概念図である。 顔面の点群データから、目、鼻、口に対応するデータのみを抽出した図である。 アバターを生成するにあたり、人物の顔面モデルと上半身モデルとをつなぐ処理を示す概念図である。 テクスチャデータを用いてアバターを生成する処理を示す概念図である。 実施形態1の変形例1に係る携帯端末のブロック図である。 実施形態1の変形例2に係るアバター表示システムのブロック図である。 本発明の実施形態2に係る携帯端末の構成を示すブロック図である。 実施形態2に係るアバター表示方法の流れを示すフローチャートである。 本発明の実施形態3に係るアバター表示システムの構成を示すブロック図である。 実施形態3に係るアバター表示方法の流れを示すフローチャートである。 アバターに追従させる表情を表す一例である。 動画像中の背景と人物の両方を置換する手順を表す概念図である。 撮像データから人物の輪郭を抽出した結果の一例を示す概念図である。 画像データから、人物の顔の特徴点を抽出した結果の一例を示す概念図である。 画像データから、人物の顔の目、鼻、口に対応する特徴点を抽出した結果の例を示す概念図である。 顔の前面部の3Dモデルと顔の前面部を除く頭部の3Dモデルの一例を示す概念図である。 アバター表示装置等の各部を、コンピュータを用いて構成する場合の一構成例である。
 〔実施形態1〕
 (アバター表示システム)
 以下、本発明の一実施形態について、詳細に説明する。図1は、実施形態1に係るアバター表示システム100の構成を示すブロック図である。アバター表示システム100は、撮像装置10、アバター表示装置20、及び情報通信装置30を備えている。情報通信装置30は、ユーザが使用する情報通信装置であり、他のユーザが使用する情報通信装置30a、30b、30c、…とネットワークを介して接続している。情報通信装置同士は、P2Pで接続していてもよいし、図示しないサーバを介して接続していてもよい。
 本実施形態において、アバター表示システムとは、情報通信装置の画像表示領域にアバターを表示させるシステムを指し、アバター表示装置とは、情報通信装置の画像表示領域にアバターを表示させる装置を指す。アバターが表示される情報通信装置は、ユーザが使用する情報通信装置30であってもよいし、他のユーザが使用する情報通信装置30a、30b、30c、…であってもよいし、その両方であってもよい。
 撮像装置10は、アバターを生成する人物(ユーザ)を撮像するための装置である。撮像装置10は、静止画又は動画を取得することができ、取得した撮像データをアバター表示装置20に送信するための通信部11を備えている。
 一態様において、撮像装置10は、画像(例えば、RGB画像)を撮像するだけでなく、対象までの距離(深度)を計測可能なデプスカメラであってもよい。距離の計測方法は公知の技術を用いることができ、例えば3次元Lidar(Light Detection and Ranging)、又は例えば赤外光を用いる三角測量方式やTOF(Time Of Flight)方式等を用いることができる。また、一態様において、撮像装置10は、2以上の撮像部を備えたステレオカメラであってもよい。撮像装置10が取得した撮像データには、深度を示す情報が含まれていてもよく、深度を示す情報を含む撮像データについても、単に「撮像データ」と称する場合がある。
 通信部11は、一例として、Bluetooth(登録商標)又はWi-Fi(登録商標)等の無線通信インターフェースであり、ネットワークに接続することができる。通信部11は、他の例として、有線接続インターフェースであってもよい。撮像装置10は、通信機能を備えたビデオカメラでもよい。あるいは、撮像装置10は、通信機能と撮像装置を備えたパーソナルコンピュータ又は携帯通信端末等であってもよい。携帯通信端末とは、携帯電話、タブレット等である。
 アバター表示装置20は、主制御部21、通信部22、及びメモリ23を備えてよい。主制御部21は、取得部210、第2取得部211、生成部212、表示部213、及びテクスチャ生成部214を備えてよい。
 第2取得部211は、撮像データから深度データを取得(算出)してよい。なお、後述するように、第2取得部211は、撮像データから画像データを取得してよい。生成部212は、深度データに基づいて3Dモデルを合成し、アバターを生成してよい。一態様において、生成部212は、テクスチャ生成部214が生成した人物のテクスチャデータを3Dモデルに合成して、アバターを生成してよい。アバターの生成方法の詳細については後述する。
 表示部213は、生成部212が生成したアバターを用いて、人物の動きに追従させたアバターを表示するためのアバター表示データを生成し、通信部22を介して、情報通信装置30に送信してよい。情報通信装置30は、必要に応じてアバター表示データを情報通信装置30a、30b、30c、…に送信してよい。これにより、表示部213は、情報通信装置30、30a、30b、30c、…の全部または一部の画像表示領域31に、人物の動きに追従させたアバターを表示させることができる。なお、表示部213は、アバター表示データについて、過去のアバター表示データとの差分のみを、情報通信装置30に送信してもよい。
 一態様において、アバター表示データは、アバターの動画像であってもよい。一例として、表示部213は、撮像装置10が取得した動画像の各フレーム画像中の人物を当該人物の動きに追従させたアバターに置換することにより、アバター表示データを生成してもよい。
 本実施形態でいう「置換する」とは、画像の一部が見かけ上、他の画像に置換されたように見える画像処理全般を指し、一例として、動画像中の人物のおおまかな領域を、アバターの画像に置き換える処理、又は人物の領域の画像とアバターの画像とを所定の透過率で重ね合わせる処理等を含む。
 また、他の例として、表示部213は、人物の動きに追従させたアバターの動画像を、他の動画像中の人物を当該人物の動きに追従させたアバターに置換する方法以外の方法で生成してもよい。すなわち、表示部213は、所定の静止画像または動画像に対し、人物の動きに追従させたアバターを合成することによって、人物の動きに追従させたアバターの動画像を生成してもよい。
 また、一態様において、人物の動きに追従させたアバターを表示するためのデータは、人物の動きに追従させたアバターのデータであってもよい。一例として、表示部213は、生成部212が生成したアバターを示すデータ、および、人物の動きに追従したアバターの動きを示すモーションデータを、通信部22を介して、情報通信装置30に送信することによって、情報通信装置30、30a、30b、30c、…の全部または一部の画像表示領域31に、人物の動きに追従させたアバターを表示させてもよい。
 テクスチャ生成部214は、撮像データに基づいて人物のテクスチャデータを生成してよい。テクスチャ生成部214の詳細については後述する。
 なお、アバター表示装置20の主制御部21は、少なくとも1つのプロセッサを備えており、このプロセッサが、メモリ23に記憶されたアバター表示プログラムを読み込んで実行することにより、生成部212及び表示部213として機能する構成を有していてもよい。さらに、生成部212として機能させるプログラムと、表示部213として機能させるプログラムとは、別々のプログラムであってもよく、それらが別々の装置のメモリに記録されていてもよい。このような構成については後述する。
 通信部22は、撮像装置10から画像を受信し、アバター表示データを情報通信装置30に送信する。通信部22は、一例として、Bluetooth(登録商標)又はWi-Fi(登録商標)等の無線通信インターフェースであり、ネットワークに接続することができる。通信部22は、他の例として、有線接続インターフェースであってもよい。主制御部21は、通信部22を介して取得した画像をメモリ23に記録(格納)する。
 メモリ23には、主制御部21が実行する各種のプログラム、及びそれらのプログラムによって参照される各種のデータ等が格納されている。また、メモリ23には、生成部212が生成したアバターが格納される。また、メモリ23には、撮像装置10が取得した静止画像及び動画像が記録される。
 情報通信装置30、30a、30b、30c、…は、他の情報通信装置との間で情報を無線又は有線で通信可能な装置であり、一例として、パーソナルコンピュータ、携帯通信端末、通信機能を有するビデオ会議用テレビ、又は3Dビューア等である。3Dビューアは、例えば、xR(VR(Virtual Reality)、AR(Augmented Reality)及びMR(Mixed Reality))空間等を表示するヘッドセット又はゴーグル型の表示装置である。
 情報通信装置30、30a、30b、30c、…は、画像表示領域31と通信部32とを備えてよい。画像表示領域31には、画像が表示される。画像表示領域31は、情報通信装置30が備えるディスプレイの一部又は全部であってもよい。通信部32は、一例として、Bluetooth(登録商標)又はWi-Fi(登録商標)等の無線通信インターフェースであり、インターネット等のネットワークに接続することができる。
 情報通信装置30の通信部32は、アバター表示装置20から、アバター表示データを受信し、情報通信装置30、30a、30b、30c、…に送信してよい。このように、各情報通信装置は、アバター表示装置20から、直接または間接的にアバター表示データを受信してよい。そして、情報通信装置30、30a、30b、30c、…の少なくとも一部の画像表示領域31には、各情報通信装置が備えているアプリケーションによって、アバター表示データに基づき人物の動きに追従したアバターが表示される。
 より詳細には、例えば、各情報通信装置が備えているアプリケーションは、コミュニケーションシステムを実現するアプリケーションであり、画像表示領域31は、ディスプレイ又はビューア上の領域であって、コミュニケーションシステムへの参加者が表示される、参加者画像表示領域であってもよい。参加者画像表示領域に表示される画像は、二次元画像であってもよく、3次元画像であってもよい。参加者画像表示領域には、アバター表示システム100のユーザが参加者として自らのアバターを表示させることができる。なお、ユーザが使用する情報通信装置30の参加者画像表示領域には、自らのアバターを表示させず、他のユーザが使用する情報通信装置30a、30b、30c、…の参加者画像表示領域に、自らのアバターを表示させる構成であってもよい。
 コミュニケーションシステムの例としては、動画像を介したコミュニケーションシステム、仮想空間を介したコミュニケーションシステム等が挙げられる。動画像を介したコミュニケーションシステムは、人物またはそのアバターの動画像を互いに見ながらコミュニケーションを行うシステムであり、例えば、リモート会議システム、テレビ電話システム等が挙げられる。仮想空間を介したコミュニケーションシステムは、仮想空間内にアバターを表示させてコミュニケーションを行うシステムである。当該仮想空間は、VR、AR、MR技術等を用いて認識されるものであってもよく、例えば、VR空間であってもよい。仮想空間内にアバターを表示させてコミュニケーションを行うシステムの例としては、メタバース(metaverse)、VRチャット等が挙げられる。
 (アバター表示方法)
 次に、実施形態1に係るアバター表示装置20が実行するアバター表示方法S1について説明する。図2は、アバター表示方法S1の流れを示すフローチャートである。アバター表示方法S1は次のステップを含む。まずステップS10において、撮像装置10は、人物を撮像し、撮像データを生成してよい。アバター表示装置20の取得部210は、通信部22及び通信部11を介して撮像装置10が生成した撮像データを取得し、メモリ23に記録してよい。
 続いて、ステップS11において、第2取得部211は、取得部210が取得した撮像データから人物の深度データを取得(算出)してよい。一例として、第2取得部211は、人物の深度データとして、点群(3次元)データを算出してよい。撮像データがステレオカメラによって撮像された多視点画像データを含む場合、第2取得部211は、撮像データに含まれる多視点画像間の相関関係を分析して、深度データを算出してもよい。また、撮像データに深度を示す情報が含まれている場合(例えば、撮像データにデプス画像が含まれている場合)には、第2取得部211は、撮像データに含まれる深度を示す情報に基づいて、人物の深度データ(例えば、点群(3次元)データ等)を算出してよい。このとき、第2取得部211は、深度データを参照して背景を削除してもよい。一例として、第2取得部211は、深度データを参照して、最も撮像装置10に近い物体のうち最も大きな物体である以外を削除することにより、背景を削除することができる。人物のアバターを生成するための画像を撮像する場合には、当該人物が撮像装置10の最も近くに位置することが多いためである。
 次に、ステップS12において、生成部212は、第2取得部211が算出した深度データに基づいて3Dモデルを合成し、アバターを生成してよい。生成部212は、生成したアバターをメモリ23に記録してよい。次に、ステップS13において、表示部213は、人物の動きに追従させたアバターを表示するためのアバター表示データを生成し、通信部22を介して、情報通信装置30に送信することにより、情報通信装置30、30a、30b、30c、…の少なくとも一つの画像表示領域31に、人物の動きに追従させたアバターを表示させてよい。
 一態様において、表示部213は、メモリ23に記録されたアバターを読み出し、人物の動きに追従させることにより、人物の動きに追従したアバターを生成してよい。例えば、表示部213は、人物の各部位の動き(向き)に追従させてアバターの向きを変え、人物の位置に追従させてアバターを配置することにより、人物の動きに追従したアバターを生成してよい。人物の位置と向きを決定する方法については後述する。
 続いて、表示部213は、(i)メモリ23に記録された撮像データの各画像フレーム中の人物を、人物の動きに追従させたアバターに置換すること、または、(ii)所定の静止画像または動画像の各フレームに、人物の動きに追従させたアバターを合成することにより、アバター表示データを生成し、通信部22を介して、情報通信装置30に送信してよい。
 また、他の態様において、表示部213は、人物の動きに追従したアバターの動きを示すモーションデータを生成し、メモリ23から読み出したアバターのデータとともに、アバター表示データとして、通信部22を介して、情報通信装置30に送信してよい。例えば、表示部213は、人物の各部位の動き(向き)および位置に対応するアバターの各部位の動き(向き)および位置を時系列に沿って指定するモーションデータを生成してよい。
 (アバターの生成と人物の動きへの追従)
 次に、アバターの生成と人物の動きへの追従について、図面を参照して説明する。生成部212は、撮像装置10が取得した人物の顔面までの深度データからその人物の頭部の3Dモデルを合成して人物のアバターを生成する。以下にその方法を具体的に説明する。なお、以下では、人物の頭部のアバターを生成して表示する方法について説明するが、アバターを生成して表示する部位は頭部(首よりも上の部分)だけに限られず、上半身(肩および胸部を含む部分)又は全身であってもよい。すなわち、生成部212は、例えば、人物の頭部のアバターを生成してもよいし、人物の上半身のアバターを生成してもよいし、人物の全身のアバターを生成してもよい。また、生成部212は、例えば、頭部及び腕からなるアバターのように、離れた部位から構成されるアバターを生成してもよい。
 図3は、頭部のアバターを生成する手順の一例を示す概念図である。取得部210は、撮像装置10からアバター生成用の撮像データを取得する。図3の画像331は、撮像装置10から取得したアバターを生成する人物の正面からの撮像データである。第2取得部211は、人物の深度データとして、点群(3次元)データ332を算出する。点群(3次元)データ332は、顔面の深度(立体形状)を離散した点群データで表現した深度データである。
 次に、生成部212は、点群データ332に基づいて、顔面モデルを生成し、頭部モデルに結合することで、頭部アバター333を生成する。頭部モデルについては後述する。生成部212は、点群データ332にテクスチャを貼り付けることにより、顔面モデルを生成してもよいし、点群データ332から、三角メッシュによる3D(3次元)モデルを構築して、テクスチャを貼り付けてもよい。テクスチャについては後述する。
 なお、生成部212は、顔面の全ての深度データを用いて顔面のモデルを生成する必要はない。生成部212は、顔面の深度データのうち、目に対応する深度データ、鼻に対応する深度データ、及び口に対応する深度データのうちから選択した1以上の深度データを用いてアバターを生成してもよい。目に対応する深度データとしては、目の周辺の1以上の特徴点の深度データを用いることができ、当該特徴点の数は特に限定されない。また、目の周辺の1以上の特徴点には、眉毛に対応する特徴点が含まれていてもよい。鼻に対応する深度データとしては、鼻周辺の1以上の特徴点の深度データを用いることができ、当該特徴点の数は特に限定されない。口に対応する深度データとしては、口周辺の1以上の特徴点の深度データを用いることができ、当該特徴点の数は特に限定されない。また、口周辺の1以上の特徴点には、顎に対応する特徴点が含まれていてもよい。
 図4は、顔面の点群データから、目、鼻、口の3箇所にそれぞれ対応する特徴点を抽出する画像である。図4の画像341は、顔面の全体の点群データを表示した画像であり、画像342は、このうち、目、鼻、口にそれぞれ対応する特徴点のみを抽出した画像である。目、鼻、口の配列のみで顔の位置と向きが決定でき、しかも画像342では、画像341に比べてデータ数が少なくなっていることがわかる。このように、位置と向きを認識しやすく、顔の特徴を表しやすい目、鼻、口の少なくともいずれかのデータを用いてアバターを生成することにより、人物の特徴を維持しつつ、顔面全体のデータを用いて生成したアバターよりも、アバターのデータ量を削減することができる。これにより、画像処理の高速化を図ることができる。
 目に対応する深度データ、鼻に対応する深度データ、及び口に対応する深度データのうちの1以上の深度データから顔面の3Dモデルを生成する方法は特に限定されないが、生成部212は、例えば、様々な顔の3Dモデルと、当該3Dモデルの目に対応する深度データ、鼻に対応する深度データ、及び口に対応する深度データのうちの1以上の深度データとの組を教師データとして機械学習した学習モデルを用いることによって、顔面の3Dモデルを生成してもよい。
 図5は、頭部アバター333を生成するにあたり、人物の顔面モデルと頭部モデルとをつなぐ処理を示す概念図である。画像352は、生成部212が顔面と頭部モデルにおける髪との境界部分を特定した画像である。画像362は、生成部212が顔面と頭部モデルにおける顔面の両側との境界部分を特定した画像である。生成部212は、画像352および画像362の楕円で囲った部分において、ブレンドシェイプ等の公知のアルゴリズムを用いて、顔面のモデルと頭部モデルとを滑らかに結合して、頭部アバター333を生成することができる。
 生成部212が生成したアバターは、例えば、3次元アバターのための専用ファイルフォーマットで生成され、メモリ23に記録される。データ形式は、例えば、VRM形式であってもよいが、データ形式はこれに限られない。なお、アバターを表示するプラットホーム又はアプリケーションよっては、VRM形式で記録されたアバターを表示できない場合がある。その場合は、VRM形式で記録されたアバターを、そのアプリケーションが処理可能なデータ形式に変換してもよい。すなわち、生成部212は、アバターが使用されるアプリケーションまたはシステムに適合するデータ形式でアバターを生成すればよい。
 そして、表示部213は、一態様において、生成部212が生成した頭部アバター333によって、撮像データ中の人物を置換することにより、背景を含むアバター表示データ334を生成することができる。また、他の態様において、表示部213は、生成部212が生成した頭部アバター333を、所定の背景画像に合成することによってアバター表示データ334を生成してもよい。また、他の態様において、表示部213は、後述するようにアバターの動きを示すモーションデータを生成して、生成部212が生成した頭部アバター333と合わせることにより、アバター表示データ334を生成してもよい。
 以上は、顔面のモデルと頭部のモデルを組み合わせる例を説明したが、この方法に限られない。顔面のモデルと上半身のモデルを組み合わせてもよいし、顔面のモデルと全身のモデルを組み合わせてもよいし、顔面のモデルとその他の体のモデルを組み合わせてもよい。組み合わせる頭部のモデル、上半身のモデル、全身のモデル、その他の体のモデルは、既存のモデルをそのサイズを調整して用いてもよく、人物を測定して新たに作成してメモリ23に保存しておいてもよい。また、既存のモデルを多数用意し、ユーザが選択するようにしてもよいし、撮像装置10が撮像したユーザの撮像画像に類似するモデルを生成部212が選択してもよい。
 また、生成部212は、人物の顔面モデルに、人物とは異なるキャラクタの頭部のモデル、上半身のモデル、全身のモデル、その他の体のモデルや、人物とは性別等が異なる頭部のモデル、上半身のモデル、全身のモデル、その他の体のモデルを組み合わせてもよい。これにより、人物の顔の特徴は残しつつ、人物とは異なるキャラクタや性別のアバターを生成することができる。
 次に、動画中の人物の頭部の向きを検出する方法について説明する。前述のように、目、鼻、口のうちの少なくともいずれかから顔面の向きを決定することができる。例えば、人の2つの目の形状と配置はおおよそ決まっているので、その形状と位置関係から顔面がどの方向に向いているかが決定できる。顔面の向きは、予め定めた特定の位置を原点とする球座標ベクトルを用いて表すことができる。表示部213は、撮像装置10が撮像した人物の撮像画像に基づいて、人物の目、鼻、口の少なくともいずれかの位置を検出する。そして、表示部213は、検出した目、鼻、口の少なくともいずれかの位置から決定された顔面の向きを参照して、アバターをその向きに向けて画像を置換する。なお、頭部の位置は、予め定めた頭部の基準となる部位の座標として決定することができる。こうして画像中の人物の頭部の位置と向きを検出し、頭部アバター333の位置と向きをそれに追従させることにより、人物の動きに追従したアバターを得ることが出来る。
 次に、テクスチャについて説明する。生成部212は、例えば、一般的な肌色のテクスチャを用いて顔面モデルを生成してもよい。しかし、実際の人物(ユーザ)の顔により近づけるために、生成部212は、撮像データに基づくテクスチャを用いてもよい。まず、テクスチャ生成部214は、取得部210が取得した撮像データから人物の顔のテクスチャデータを生成してよい。図6は、テクスチャ生成部214が生成したテクスチャデータを用いてアバターを生成する処理を示す概念図である。
 生成部212は、画像151に示すような、第2取得部211が算出した深度データに基づいて、画像152に示すような顔面モデル1521を生成する。そして、生成部212は、生成した顔面モデル1521に、テクスチャ生成部214が生成したテクスチャデータを合成することにより、画像153に示すような顔面モデルを生成する。これにより、より現実に近いアバターを生成することができる。
 なお、テクスチャ生成部214は、撮像データに基づいてテクスチャデータを生成するため、人物の顔面において撮像データに含まれていない部分のテクスチャデータの生成に失敗することがある。例えば、画像154の楕円1541に示す部分のように、顔面の両側の端部のテクスチャデータが、人物の背景に基づいて生成されてしまうことがある。そのため、テクスチャ生成部214は、人物の顔面において撮像データに含まれていない部分のテクスチャデータを、画像155に示すように、その近傍のテクスチャデータによって補完してもよい。
 なお、上述したように、生成部212が、人物の顔面モデルに、人物とは異なるキャラクタや性別の体のモデルを組み合わせる場合、当該キャラクタや当該性別の予め準備されたテクスチャデータを使用してアバターを生成してもよい。
 以上の構成を有するアバター表示システム100とアバター表示方法S1によれば、撮像装置10で撮像した自分の画像に合わせて自分のアバターを生成し、そのアバターを、情報通信装置30、30a、30b、30c、…の画像表示領域31に表示させることができる。従って、画像からその画像に合わせた自分のアバターを生成し、表示させる技術を実現することができる。また、生成部212が、テクスチャ生成部214が生成したテクスチャデータを用いてアバターを生成することにより、より現実に近いアバターを生成することができる。
 生成されるアバターは、上述の説明から理解されるように、少なくとも顔面が対象人物に合わせて(似せて)生成されたアバターであり、これを見た人は、そのアバターが誰を示すアバターであるかをすぐに認識することができる。このようなアバターは、誰であるかが確実に認識される必要があるが、まったくの素顔は出したくない、という場面において利用することができる。例えば、ひげを剃る、化粧をする等、身だしなみを整えた画像でアバターを生成しておき、必要に応じてそれを用いることができる。
 (変形例1)
 上述の実施形態では、撮像装置10、アバター表示装置20、情報通信装置30はそれぞれ独立した装置であるアバター表示システム100を説明した。しかし、このような形態に限られない。図7は、実施形態1の変形例1に係る携帯端末40のブロック図である。携帯端末40は、情報通信装置の一例であり、情報通信装置、30a、30b、30c、…と通信可能である。
 携帯端末40は、例えば撮像装置10を備え、通信機能を有する携帯電話又はタブレット端末であってもよい。携帯端末40は、撮像装置10、主制御部21、メモリ23及びディスプレイ41を備えてよい。撮像装置10は、実施形態1で説明した機能を備えており、携帯端末40に内蔵されてよい。
 ディスプレイ41は、携帯端末40の表示画面であり、ディスプレイ41は画像表示領域411を有してよい。画像表示領域411は、例えば、携帯端末40が有するアプリケーションを用いて画像が表示される領域である。
 主制御部21は、取得部210、第2取得部211、生成部212、表示部213、及びテクスチャ生成部214を備えてよい。第2取得部211は、撮像データに基づいて深度データを算出してよい。生成部212は、深度データに基づいて3Dモデルを合成しアバターを生成し、メモリ23に記録してよい。表示部213は、メモリ23に記録されたアバターを、動画像中の人物の向きに追従させ、ディスプレイ41の画像表示領域411および情報通信装置30a、30b、30c、…の画像表示領域31に、人物の動きに追従させたアバターを表示させてよい。例えば、表示部213は、(i)撮像装置10が取得した動画像の各フレーム画像中の人物を当該人物の動きに追従させたアバターに置換してもよいし、(ii)所定の静止画像または動画像に対し、人物の動きに追従させたアバターを合成してもよいし、(iii)人物の動きに追従させたアバターのデータを生成してもよい。テクスチャ生成部214は、撮像データに基づいて人物のテクスチャデータを生成してよい。テクスチャ生成部214の機能については実施形態1で説明した通りである。主制御部21は、表示部213が生成したデータをディスプレイ41に表示させてもよいし、当該データを情報通信装置30a、30b、30c、…に送信して、情報通信装置30a、30b、30c、…の画像表示領域31に、人物の動きに追従させたアバターを表示させてもよい。メモリ23は、実施形態1で説明した通りである。
 変形例1に係る携帯端末40は、実施形態1に係る撮像装置10、アバター表示装置20、及び情報通信装置30を1つの装置で実現するものである。
 なお、変形例1では、携帯端末40が実施形態1に係る撮像装置10、アバター表示装置20、及び情報通信装置30の機能を有する構成とした。しかし、携帯端末40に限らず、デスクトップPC(デスクトップパーソナルコンピュータ)が、これらの機能を有する構成としてもよい。
 以上のように、変形例1では、携帯端末40は、撮像装置10を内蔵し、画像表示領域411を有する情報通信装置を兼ねている構成である。近年、携帯端末の性能が向上し、さまざまなアプリケーションを利用することができる。そのため、上述の機能をすべて備えた携帯端末の構成でも、実施形態1で説明したアバター表示システム100と同様の効果が得られる。また、ユーザは、携帯端末を用いて気軽に自らのアバターを動画像に表示させることができる。
 (変形例2)
 次に、実施形態1の変形例2について説明する。図8は、実施形態1の変形例2に係るアバター表示システム200のブロック図である。アバター表示システム200は、携帯端末40AとデスクトップPC50とを備えてよい。
 携帯端末40Aは、撮像装置10、主制御部21、通信部22及びメモリ23を備えてよい。主制御部21は、取得部210、第2取得部211、生成部212、表示部213、及びテクスチャ生成部214を備えてよい。主制御部21は、通信部22を介して、デスクトップPC50に、人物の動きに追従させたアバターを表示するためのアバター表示データを送信してよい。携帯端末40Aの構成は、変形例1で説明した携帯端末40と、通信部22を備えること、ディスプレイ41を用いないことを除いて同様の構成である。
 デスクトップPC50は、ディスプレイ51と通信部52を備え、ディスプレイ51は、画像表示領域511を備えてよい。通信部52は、携帯端末40Aから、アバター表示データを受信してよい。デスクトップPC50は、携帯端末40Aから受信したアバター表示データを用いて、ディスプレイ51の画像表示領域511に人物の動きに追従させたアバターを表示してよい。デスクトップPC50は、実施形態1で説明した情報通信装置30の一形態である。
 携帯端末40Aは、変形例1の携帯端末40と同様に、撮像装置10、取得部210、第2取得部211、生成部212、表示部213、及びテクスチャ生成部214を備えてよい。しかし、変形例1の携帯端末40と異なり、携帯端末40Aは、人物の動きに追従させたアバターを自身のディスプレイに表示するのではなく、デスクトップPC50のディスプレイ51に人物の動きに追従させたアバターを表示させてよい。
 以上のように、携帯端末40Aが人物の動きに追従させたアバターを表示するためのアバター表示データを生成し、生成したアバター表示データをデスクトップPC50に表示させてもよい。また、表示部213を、携帯端末40Aではなく、デスクトップPC50に備えてもよい(図示せず)。以上の構成によれば、実施形態1で説明したアバター表示システム100と同様の効果が得られる。また、ユーザは、携帯端末を用いて気軽に自らのアバターをデスクトップパソコンの動画像に表示させることができる。
 〔実施形態2〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 (携帯端末40Bの構成)
 図9は、本発明の実施形態2に係る携帯端末40Bの構成を示すブロック図である。携帯端末40Bは、撮像装置10、主制御部21、メモリ23及びディスプレイ41を備えてよい。主制御部21は、取得部210、第2取得部211、生成部212、表示部213、変換部215、及びテクスチャ生成部214を備えてよい。撮像装置10、取得部210、第2取得部211、生成部212、表示部213、及びテクスチャ生成部214及びメモリ23は、実施形態1で説明した各部と同様である。
 携帯端末40Bは、携帯端末40と同様に、実施形態1で説明した情報通信装置30を兼ねている。携帯端末40Bは、動画像を介したコミュニケーションシステムのアプリケーションを備えてよい。上述したように、コミュニケーションシステムにおいて用いる動画像は、二次元画像であってもよく、3次元画像であってもよく、動画像を介したコミュニケーションシステムとは、リモート会議システム、メタバース(metaverse)等のVR空間(仮想空間)内のコミュニケーションシステム等が挙げられる。リモート会議システムは、インターネット又は専用回線を用いて、携帯電話、パーソナルコンピュータ、テレビ電話等を介して、複数の人が打合せ、会議、会話、チャット等を行うシステムであり、Web会議システム、又はビデオ会議システムとも言われる。本実施形態で用いる動画像を介したコミュニケーションシステムは公知のアプリケーションを用いて実施することができ、その種類は任意である。
 動画像を介したコミュニケーションシステムのアプリケーションを起動すると、ディスプレイ41には、動画像を介したコミュニケーションシステム411(例えば、リモート会議システムの会議室)が表示され、その中に参加者画像表示領域4111が表示される。参加者画像表示領域4111には、動画像を介したコミュニケーションシステムの参加者が表示される。本実施形態では、参加者画像表示領域4111には、携帯端末40Bおよび情報通信装置30a、30b、30c、…のユーザの画像が表示されるものとする。参加者画像表示領域4111は、実施形態1で説明した画像表示領域31に対応する。表示部213は、参加者画像表示領域4111に、参加者の動きに追従させたアバターを表示してよい。
 携帯端末40Bのユーザは、例えば、会議を開始する前に、自身の画像を携帯端末40Bで撮像してよい。そして、その画像の中から好みの画像を選択し、生成部212にアバターを生成させてよい。一例として、ユーザが、好みの画像の頭部又は頭部の領域を選択し、アバター生成ボタンをタップすると、生成部212は、その領域の画像から、上半身又は頭部のアバターを生成し、メモリ23に記録する。
 次に、ユーザは、動画像を介したコミュニケーションシステムの中で自分の画像が表示される参加者画像表示領域4111を指定してよい。具体的には、例えば、画像に表示させる自身の名前又はIDを入力又は選択してよい。なお、他の参加者の名前又はIDを入力又は選択することはできないようになっている。
 一態様において、表示部213は、撮像装置10が撮像した動画像のユーザの上半身、全身又は頭部を、その動きに追従させたアバターに置換してよい。主制御部21は、アバターに置換した動画像を、参加者画像表示領域4111に表示させてよい。さらに、主制御部21は、ユーザの画像をアバターに置換した動画像を、動画像を介したコミュニケーションシステムのアプリケーションを通じて、他の参加者が使用する情報通信装置に送信してよい。
 他の一態様において、変換部215は、生成部212が生成したアバターのデータ形式を変換してよい。具体的には、変換部215は、携帯端末40Bが使用するアプリケーションの画像データ形式に適合するようにアバターのデータ形式を変換してよい。リモート会議システムのアプリケーションによって、使用できる画像のデータ形式が異なる場合は、変換部215は、アバターのデータ形式(例えばVRM形式)を、そのアプリケーションで処理可能なデータ形式に変換してよい。これにより、動画像を介したコミュニケーションシステムの種類によらず、アバターを表示することができる。以下、アバターのデータ形式を変換するアバター表示方法S2について図面を参照して説明する。
 図10は、携帯端末40Bが実行するアバター表示方法S2の流れを示すフローチャートである。アバター表示方法S2は次のステップを含む。まずステップS20において、撮像装置10は、人物を撮像し、撮像データを生成してよい。アバター表示装置20の取得部210は、通信部22および通信部11を介して撮像装置10が生成した撮像データを取得してよい。
 続いて、ステップS21において、第2取得部211は、取得部210が取得した撮像データから人物の深度データを取得(算出)してよい。なお、後述するように、第2取得部211は、撮像データから人物の画像データを取得してよい。ステップS22において、生成部212は、第2取得部211が算出した深度データに基づいて3Dモデルを合成し、アバターを生成してよい。生成部212は、生成したアバターをメモリ23に記録してよい。
 次に、ステップS23において、変換部215は、携帯端末40Bが用いる動画像を介したコミュニケーションシステムのアプリケーションに応じてアバターのデータ形式を変換してよい。次に、ステップS24において、表示部213は、携帯端末40B(情報通信装置)のディスプレイ41の参加者画像表示領域4111に、その人物の動きに追従させたアバターを表示させてよい。また、表示部213は、データ形式を変換したアバターを、通信部22を介して情報通信装置30a、30b、30c、…に送信し、情報通信装置30a、30b、30c、…の画像表示領域31(参加者画像表示領域)に、アバターを表示させてもよい。
 以上の構成を有する実施形態2に係る携帯端末40B及びアバター表示方法S2によれば、動画像を介したコミュニケーションシステム(例えば、リモート会議システム)において表示されるユーザのアバターを表示することができる。これにより、実施形態1において得られる効果と同様の効果を得ることができる。特に、リモート会議システムでは、誰が発言したかが明確に認識できる必要があるが、本実施形態によるアバターは、ユーザの画像に合わせて生成されるため、アバターがユーザであることを明確に認識することができる。そして、本実施形態に係るアバターは、ユーザに似せたアバターであるので、素顔を出さなくても大きな違和感を他の参加者に与えることがないというメリットが得られる。さらに、変換部215を備えることにより、異なるデータ形式が必要なアプリケーションにも対応することができる。
 なお、上記の実施形態2で説明した変換部215は、実施形態1においても組み合わせて実施することができる。
 〔実施形態3〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1及び2にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 図11は、本発明の実施形態3に係るアバター表示システム300の構成を示すブロック図である。アバター表示システム300は、撮像装置10、アバター表示装置20、及び情報通信装置30を備えてよい。撮像装置10と情報通信装置30については、実施形態1で説明した装置と同様であるので、説明は省略する。
 アバター表示装置20は、主制御部21、通信部22、及びメモリ23を備えてよい。主制御部21は、取得部210、第2取得部211、生成部212、表示部213、テクスチャ生成部214及びトラッキング部216を備えてよい。取得部210、第2取得部211、生成部212、表示部213及びテクスチャ生成部214は、実施形態1で説明したとおりである。トラッキング部216は、撮像装置10が取得した画像中の人物の顔面をトラッキングしてよい。さらに、トラッキング部216は、画像中の人物の首をトラッキングしてもよい。トラッキングとは、位置を検出することである。表示部213は、トラッキングされた顔面の向きを参照して人物の動きにアバターを追従させてよい。また、トラッキング部216が人物の首をトラッキングした場合は、表示部213は、トラッキングされた首の向きを参照して人物の首から下の体部の動きにアバターを追従させてよい。以下、その動作を具体的に説明する。
 生成部212は、撮像装置10により取得された画像から、その人物の頭部モデルだけでなく、首から下の体部のモデルを併せて生成してよい。首から下の体部とは、例えば、頭部を除く上半身である。以下、本実施形態では、首から下の体部を単に「体部」とも称する。体部モデルは、顔面モデルほど似せる必要はない。例えば、体部モデルは、既存の体部モデルを用いてもよい。例えば、体部モデルは、既存の上半身モデルから頭部を除いたものでもよい。
 トラッキング部216は、人物の顔面の、例えば目をトラッキング(追跡)してよい。なお、画像中の特定の対象をトラッキングするため、公知のプログラム又はアプリケーションを用いることができる。トラッキングの対象は目、鼻及び口でもよい。トラッキング部216は、トラッキングされた2つの目の形状と配置から、顔面の向きを導出してよい。顔面の向きを導出する方法は、実施形態1で説明した顔面の向きを決定する方法と同様である。
 トラッキング部216は、顔面と併せて人物の首をトラッキングしてよい。首は、例えば、顔面の下方に延びる円筒状の領域として認識される。トラッキング部216は、トラッキングした首の向きを導出してよい。首の向きとは、首が曲がっている前後左右の方向をいう。言い換えれば、首の向きとは、首が倒れている方向ということである。首の向きは、左右に倒れていればその角度で体部が左右に倒れていると判定され、首の上下の幅の比率が変化すれば、その比率に応じて体部が所定の角度で前後に倒れていると判定される。
 首をトラッキングする理由は、アバターの頭部と体部とを別々に処理するためである。つまり、生成部212は、人物の頭部のモデルと首から下の体部のモデルとを個別に生成してよい。頭部は、体部とは独立して動いている。一方、首の向きは、体部の向きと連動している。例えば、首が右に倒れている場合は、体部が右に倒れていると考えられる。そこで、表示部213は、人物の目、鼻及び口を追跡して、アバターの頭部を動かし、人物の首の向きを参照してアバターの体部を動かしてよい。これにより、より現実に近いアバターの動きを表示することができる。
 アバターの頭部を動かすとは、表示部213が、トラッキング部216が導出した顔面の向きに追従させて、生成部212が生成した頭部モデルの向きを変えて、情報通信装置30、30a、30b、30c、…の少なくとも一つの画像表示領域31に表示させることである。アバターの体部を動かすとは、表示部213が、トラッキング部216が導出した首の向きに追従させて生成部212が生成した体部モデルの向きを変えて、情報通信装置30、30a、30b、30c、…の少なくとも一つの画像表示領域31に表示させることである。表示部213は、向きを変えた頭部モデルまたは体モデルを生成してもよいし、頭部モデルまたは体モデルの向きを変えることを指定するモーションデータを生成してもよい。
 なお、体部のねじれをアバターで表示する場合は、例えば、肩部をトラッキングしてその位置と向きを検出して、体部がどの程度ねじれているかを導出し、体部モデルを捩じらせてもよい。また、手足は体部とは独立して動く。従って、手足もアバター化する場合は、画像から手足の位置と向きをトラッキングし、別途生成した手足のモデルの向きを変えてもよい。
 (アバター表示方法S3)
 次に、本実施形態3に係るアバター表示システム300が実行するアバター表示方法S3について、図面を参照して説明する。図12は、アバター表示システム300が実行するアバター表示方法S3の流れを示すフローチャートである。なお、アバター表示方法S3は、頭部と体部の両方を含むアバターを表示する場合を例にとって説明する。
 アバター表示方法S3は次のステップを含む。まず、まずステップS31において、取得部210は、撮像装置10が撮像した人物の撮像データを取得してよい。ステップS32において、トラッキング部216は、取得部210が取得した撮像データにおける人物の目、鼻、口と首とをトラッキングしてよい。この際、撮像データから深度データ又は画像データを取得して、深度データ又は画像データに基づいて人物の目、鼻、口と首とをトラッキングしてよい。
 ステップS33において、表示部213は、トラッキングした人物の目、鼻及び口を追跡して、アバターの頭部を動かしてよい。また、表示部213は、トラッキングした人物の首の向きを参照して、アバターの体部を動かしてよい。換言すれば、表示部213は、動画像中の人物の頭部と体部の動きに追従させたアバターを表示するためのアバター表示データを生成することにより、アバターを動かしてよい。アバターが動く動画像は画像表示領域31に表示される。
 以上の構成を有する実施形態3に係るアバター表示装置20及びアバター表示方法S3によれば、人物の頭部モデルと体部モデルとを個別に生成し、目、鼻及び口を追跡してアバターの頭部を動かし、人物の首の向きを参照して、アバターの体部を動かしてよい。これにより、アバターの頭部と体部を独立して動かすことができる。従って、実施形態1又は実施形態2に係る効果に加えて、より人物の動きに忠実なアバターを表示することができるという効果を得ることができる。
 なお、上記の実施形態3で説明したトラッキング部216は、実施形態1又は実施形態2においても組み合わせて実施することができる。
 〔実施形態4〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から3にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。
 実施形態4に係るアバター生成装置は、人物の撮像データを取得する取得部と、撮像データから人物の深度データを算出する第2取得部と、深度データに基づいて3Dモデルを合成しアバターを生成する生成部と、生成したアバターを出力する出力部と、を備える。生成部は、前述の実施形態1~3で説明した生成部212と同様である。出力部は、前述の実施形態1~3で説明した通信部22と同様である。なお、アバター生成装置は、生成部が生成したアバターを記録するメモリを備えていてもよい。このメモリは、前述の実施形態1~3で説明したメモリ23と同様である。
 本実施形態に係るアバター生成装置で生成したアバターは、出力部により外部へ出力することができる。例えば、アバター生成装置は、仮想空間にアバターを出力することができる。仮想空間とは、全体がコンピュータグラフィック画像で構成されたVR(Virtual Reality)といわれる仮想現実空間(例えば、VRChat)、現実空間とコンピュータグラフィック画像とを組み合わせたAR(Augmented Reality)といわれる拡張現実空間、現実空間に仮想情報等を重ねたMR(Mixed Reality)といわれる複合現実空間等である。例えば、インターネットを介して参加できる仮想空間がある。あるいは、所定の表示装置(ディスプレイ、ビューア等)を用いて表示される仮想空間がある。仮想空間にアバターを出力するとは、このような仮想空間にアバターを表示させることである。
 仮想空間にアバターを出力する場合は、その仮想空間のフォーマットに合わせてアバターのデータ形式を変更する必要がある場合がある。そのため、アバター生成装置は、前述の変換部215を備えていてもよい。
 以上の構成を有するアバター生成装置によれば、自分のアバターを生成して、さまざまな仮想空間に表示させることができる。
 〔実施形態5〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から4にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。以下に説明する実施形態は、それぞれを上述の実施形態1~4のそれぞれに適用することができる。
 上記実施形態1から4で説明した撮像装置10は、カラーフィルタを用いることにより、人物の色データを取得することができる。その場合、生成部212は、深度データと色データとを用いてアバターを生成することができる。つまり、アバターに、人物の顔、髪、服装等の色味を加えることができる。
 〔実施形態6〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から5にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。以下に説明する実施形態は、それぞれを上述の実施形態1~5のそれぞれに適用することができる。
 上記実施形態1から5で説明したアバターは、人物の向きに追従させるだけではなく、その表情を人物の表情に追従させることができる。
 一態様において、表示部213は、撮像装置10が撮像した人物の撮像画像に基づいて、人物の顔面内の特徴点を検出してよい。表示部213は、例えば、目の周辺の1以上の特徴点、鼻周辺の1以上の特徴点、および、口周辺の1以上の特徴点を検出してもよい。目の周辺の1以上の特徴点には、眉毛に対応する特徴点が含まれていてもよい。また、口周辺の1以上の特徴点には、顎に対応する特徴点が含まれていてもよい。
 このとき、表情の追従のために検出される人物の顔面内の特徴点の数は、アバターの生成のために検出される人物の顔面内の特徴点の数よりも少なくてもよい。検出する特徴点の数が多いほどより正確に人物の表情を表現することができるが、特徴点の数が多くなると、情報処理に時間を要するため、アバターの表情の生成に遅延が生じ、リアルタイムでのアバターの表示が困難になる。そのため、表情を表す特徴点の数を絞り込むことにより、迅速な情報処理が可能となり、リアルタイムで表情が豊かなアバターを生成することができる。表情の追従のために検出される人物の顔面内の特徴点は、例えば、図16に示されるようなものであってもよい。
 表示部213は、検出した特徴点の座標の、アバターを生成したときの当該特徴点の座標からの変化に基づいて、アバターの顔面モデルを変形させることにより、アバターの表情を人物の表情に追従させることができる。目、鼻、口の周辺の特徴点の座標の変化に基づけば、目、鼻、口の形を人物の表情に合わせて変形させることができるので、アバターの表情を人物の表情に追従させることができる。例えば、生成部212は、アバターの顔面モデルを生成する際に、アバターの生成のために検出される人物の顔面内の特徴点のうち、表情の追従のために検出される人物の顔面内の特徴点の座標を顔面モデルに紐付けて記録してよい。そして、表示部213は、顔面モデルに紐付けられた各特徴点の座標と、検出した各特徴点の座標との差分に基づいて、ブレンドシェイプ等の公知のアルゴリズムを用いて顔面モデルを変形させてよい。これにより、表示部213は、アバターの表情を人物の表情に合わせてリアルタイムに追従させることができる。
 なお、人物の表情によっては、アバターを生成したときに表に出ていない顔面の部位(例えば、舌、歯など)が表に出てくる場合がある。これに対応するために、例えば、生成部212は、通常の状態では表に出ない顔面の部位(例えば、舌、歯など)については、3Dモデルのパーツを予め用意してアバターに合成しておいてよい。
 また、一態様において、表示部213は、ユーザから指定された表情を、アバターの表情に反映させてよい。例えば、人物が怒っている表情であるときに、アバターを笑っている表情にさせてもよい。この場合、表示部213は、笑顔を作るための特徴点(例えば、口周辺の特徴点)のみ固定し(変形させず)、その他の特徴点は検出した特徴点の座標に合わせて変化させることで、怒っているのに笑っている表情を表現することができる。
 また、人以外のキャラクタをアバターとして利用する場合であっても、当該キャラクタの顔面の特徴点と人物の顔面の特徴点とを予め対応付けておくことで、当該キャラクタの表情に人物の表情を反映させることもできる。これにより、人以外のキャラクタにもユーザの表情を反映させることができる。
 また、他の態様において、表示部213は、例えば、図13に示す画像361a~361hのようなテンプレートを用いて、アバターの表情を人物の表情に追従させてもよい。例えば、表示部213は、撮像画像中の人物の表情を画像解析し、画像361a~361hのいずれかに近い表情が検出された場合、アバターの表情をそのように追従させてもよい。
 〔実施形態7〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から6にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。以下に説明する実施形態は、それぞれを上述の実施形態1~6のそれぞれに適用することができる。
 上記実施形態1から6で説明した実施形態では、動画像中の人物の上半身、又は頭部のみのアバターを表示し、背景はそのままとした。しかし、動画像中の背景を置換表示してもよい。この場合の手順を図14に示す。図14の画像371は、オリジナルの画像である。この画像の背景を、画像372に示す所望の背景に変更する場合、まず画像372に示すように背景の一部を人物の輪郭で切り取る。この輪郭は人物よりやや大きめのおおよその輪郭で良い。そして、切り取った領域に人物のアバターを入れて、アバターと背景との隙間を滑らかにブレンディングすることにより、画像373のように所望の背景とアバターが表示される画像に置換することができる。
 〔実施形態8〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から7にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。以下に説明する実施形態は、それぞれを上述の実施形態1~7のそれぞれに適用することができる。
 上記実施形態1から7で説明した実施形態では、顔面はできるだけ人物に合わせたアバターとするが、それ以外の部分は人物に合わせる必要はない。例えば、ヘアスタイルを変えてもよく、またアバターにネックレス、眼鏡等のアクセサリを付加してもよい。また、頭部以外の体部は、その人物の体形とは異なる体形のモデルに置換したアバターを用いてもよい。
 〔実施形態9〕
 本発明の他の実施形態について、以下に説明する。なお、説明の便宜上、上記実施形態1から8にて説明した部材と同じ機能を有する部材については、同じ符号を付記し、その説明を繰り返さない。以下に説明する実施形態は、上述の実施形態1~8のそれぞれに適用することができる。
 実施形態1~8では、アバター表示装置20は、人物(ユーザ)の撮像データから深度データを算出し、その深度データに基づいてその人物の3Dモデルを合成しアバターを生成する例を説明した。しかし、アバターを生成するためのデータは深度データに限られない。例えば、画像データからアバターを生成してもよい。本実施形態では、第2取得部211が撮像データから画像データを取得し、生成部212が、当該画像データに基づいて3Dモデルを合成しアバターを生成する構成について説明する。
 画像データとしては、これに限定されないが、例えばRGB画像データを用いることができる。
 まず、第2取得部211は、撮像データから、人物の画像データを抽出してよい。一例として、第2取得部211は、公知のエッジ検出アルゴリズムを用いて、撮像データから輪郭を抽出することにより、撮像データ中の人物と背景とを識別して、人物の画像データを抽出してよい。図15は、撮像データから人物の輪郭を抽出した結果の一例を示す概念図である。図15の左の画像151は、撮像データの一例を示し、人物153および背景154が含まれている。図15の右の画像152は、第2取得部211が画像151から輪郭を抽出した画像の一例を示す。第2取得部211は、画像152に基づき、一番大きな物体の輪郭外を削除することにより、画像151から背景154を削除して人物153の画像データを取得することができる。
 続いて、生成部212は、人物の画像データから、特徴点を検出してよい。一例として、生成部212は、公知の特徴点検出アルゴリズムを用いて、人物の顔の特徴点を検出してよい。図16は、人物161の画像データから、人物161の顔の特徴点Pを検出した結果の一例を示す概念図である。一例として、生成部212は、検出した人物161の顔の特徴点Pから、人物161の顔の目、鼻、口の配置および顔のサイズを検出することができる。図17は、向きが異なる人物を含んだ種々の画像データから、人物の顔の目、鼻、口の特徴点Qをそれぞれ抽出した結果の例を示す概念図である。生成部212は、正面を向いた人物の画像171だけでなく、同様の手法で、種々の方向を向いた人物の画像172~274から人物の顔の目、鼻、口の特徴点Qをそれぞれ検出することができる。
 ここで、追跡テンプレートについて説明する。追跡テンプレートは、人物の顔の向きを追跡(トラッキング)するために用いるテンプレートであり、人物の顔の様々な向きに対応する人物の顔の目、鼻、口の特徴点Qの基準となる配置を示している。追跡テンプレートは、例えば、様々な人物(様々な人種が含まれてよい)の様々な方向を向いた画像に基づいて、上述した手法により各画像における人物の顔の目、鼻、口の特徴点Qをそれぞれ検出して、機械学習させることによって生成することができる。顔の向きを追跡したい人物の画像から目、鼻、口の特徴点の配置を検出し、追跡テンプレートと比較することにより、当該人物の顔の向きを推定することができる。
 ここで、生成部212は、人物のアバターを生成する際に、追跡テンプレートの基準を用いて、人物の顔の目、鼻、口の特徴点Qの情報を取得してよい。例えば、各画像171~174から目、鼻、口の特徴点Qを検出したときに、予め作成した追跡テンプレートが示す基準となる配置と比較して、人物の目、鼻、口の特徴点Qの基準に対する配置およびサイズの差を取得してもよい。そして、生成部212は、このように取得した目、鼻、口の特徴点Qの情報(基準に対する配置およびサイズの差)に基づいて、人物の顔の前面部の3Dモデルを生成してよい。
 目、鼻、口の特徴点Qの情報(基準に対する配置およびサイズの差)に基づいて顔面の3Dモデルを生成する方法は特に限定されないが、生成部212は、例えば、様々な顔の3Dモデルと、当該3Dモデルの目、鼻、口の特徴点Qの情報(基準に対する配置およびサイズの差)との組を教師データとして機械学習した学習モデルを用いることによって、顔面の3Dモデルを生成してもよい。
 図18は、顔の前面部の3Dモデルと顔の前面部を除く頭部の3Dモデルの一例を示す概念図である。生成部212は、人物の目、鼻、口の特徴点Qに基づいて生成した顔の前面部の3Dモデル181に対し、例えば予めメモリ23に記憶している、髪を含む頭部の3Dモデル182を結合させることにより、頭部の3Dモデルを生成してよい。生成部212は、2つの3Dモデルを結合するときに、例えば、それぞれの3Dモデルのサイズの調整、キャリブレーション(角度による画像の歪みの補正)、モーフィング(morphing、2つの3Dモデルのつなぎ目を滑らかにする画像処理)を併せて行ってもよい。
 さらに生成部212は、実施形態1と同様に、頭部モデルに、上半身やその他の体のモデルを結合してもよいし、撮像データに基づくテクスチャを合成してもよい。このように生成部212が生成したアバターは、実施形態1と同様に表示部213が表示してよい。また、表示部213は、上述した追跡テンプレートを使用し、人物の顔面の向きを検出して、アバターの顔面の向きを追従させてもよい。また、表示部213は、人物の顔面内の所定の特徴点を検出し、アバターの表情を人物の表情に追従させてもよい。
 以上のように、アバター表示装置20は、人物の深度データに代えて、あるいは加えて、人物の画像データを用いて、その人物のアバターを生成することができる。つまり、第2取得部211は、人物の深度データ又は画像データを取得することができる。このことは、上述の実施形態1~5に係るアバター表示装置及びアバター生成装置のいずれについても同様である。
 〔ハードウェア構成およびソフトウェアによる実現例〕
 アバター表示装置20、及び携帯端末40,40A,40Bの制御ブロック(特に主制御部21に含まれる各部等、以下「アバター表示装置等」という)は、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。後者の場合、アバター表示装置等は、図19に示すようなコンピュータ(電子計算機)を用いて構成されてよい。
 図19は、アバター表示装置等として利用可能なコンピュータ910の構成を例示したブロック図である。コンピュータ910は、バス911を介して互いに接続された演算装置912と、主記憶装置913と、補助記憶装置914と、入出力インターフェース915と、通信インターフェース916とを備えている。演算装置912、主記憶装置913、および補助記憶装置914は、それぞれ、例えばCPU、RAM(random access memory)、ソリッドステートドライブまたはハードディスクドライブであってもよい。入出力インターフェース915には、ユーザがコンピュータ910に各種情報を入力するための入力装置920、および、コンピュータ910がユーザに各種情報を出力するための出力装置930が接続される。入力装置920および出力装置930は、コンピュータ910に内蔵されたものであってもよいし、コンピュータ910に接続された(外付けされた)ものであってもよい。例えば、入力装置920は、ボタン、キーボード、マウス、タッチセンサなどであってもよく、出力装置930は、ランプ、ディスプレイ、プリンタ、スピーカなどであってもよい。また、タッチセンサとディスプレイとが一体化されたタッチパネルのような、入力装置920および出力装置930の双方の機能を有する装置を適用してもよい。そして、通信インターフェース916は、コンピュータ910が外部の装置と通信するためのインターフェースである。
 補助記憶装置914には、コンピュータ910を、アバター表示装置等として動作させるための情報処理プログラムが格納されている。そして、演算装置912は、補助記憶装置914に格納された上記情報処理プログラムを主記憶装置913上に展開して該情報処理プログラムに含まれる命令を実行することによって、コンピュータ910を、アバター表示装置等が備える各部として機能させる。なお、補助記憶装置914が情報処理プログラム等の情報の記録に用いる記録媒体は、コンピュータ読み取り可能な「一時的でない有形の媒体」であればよく、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブル論理回路などであってもよい。
 また、コンピュータ910の外部の記録媒体に記録されているプログラム、あるいは任意の伝送媒体(通信ネットワークや放送波等)を介してコンピュータ910に供給されたプログラムを用いてコンピュータ910を機能させる構成を採用してもよい。そして、本発明は、上記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
 〔付記事項〕
 本明細書に記載の発明の一部は以下の付記のようにも記載されうるが、以下には限られない。
 (付記1)
 人物の撮像データを取得する取得部と、前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、情報通信装置の画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる表示部と、を備える、アバター表示装置。
 (付記2)
 人物の撮像データを取得する取得部と、前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、生成した前記アバターを出力する出力部と、を備える、アバター生成装置。
 (付記3)
 少なくとも1つのプロセッサに、人物の撮像データを取得する取得処理と、前記撮像データから前記人物の深度データ又は画像データを取得する第2取得処理と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成処理と、情報通信装置の画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる表示処理と、を実行させるための、プログラム。
 本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。
 10 撮像装置
 11,22,32,52 通信部
 20 アバター表示装置
 21 主制御部
 211 第2取得部
 212 生成部
 213 表示部
 215 変換部
 216 トラッキング部
 23 メモリ
 30 情報通信装置
 31,411,511 画像表示領域
 40,40A,40B 携帯端末
 41,51 ディスプレイ
 4111 参加者画像表示領域
 50 デスクトップPC

 

Claims (11)

  1.  人物の撮像データを取得する取得部と、
     前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、
     前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、
     情報通信装置の画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる表示部と、
    を備える、アバター表示装置。
  2.  前記撮像データから前記人物のテクスチャデータを生成するテクスチャ生成部を更に備え、
     前記生成部は、前記3Dモデルに前記テクスチャデータを合成する、請求項1に記載のアバター表示装置。
  3.  前記画像表示領域は、コミュニケーションシステムの参加者が表示される参加者画像表示領域であり、前記表示部は、前記参加者画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる、請求項1又は2に記載のアバター表示装置。
  4.  前記画像表示領域は、動画像を介したコミュニケーションシステムの参加者が表示される参加者画像表示領域であり、前記表示部は、前記参加者画像表示領域に表示される前記人物を、前記人物の動きに追従させた前記アバターに置換する、請求項1または2に記載のアバター表示装置。
  5.  前記生成部が生成したアバターのデータ形式を変換する変換部をさらに備え、前記変換部は、前記情報通信装置が使用するアプリケーションの画像データ形式に適合するように前記アバターのデータ形式を変換する、請求項1から4のいずれか1項に記載のアバター表示装置。
  6.  前記生成部は、前記深度データ又は画像データのうち、目のデータ、鼻のデータ、及び口のデータのうちから選択した1以上のデータを用いて前記アバターを生成する、請求項1から5のいずれか1項に記載のアバター表示装置。
  7.  前記撮像データにおける前記人物の顔面をトラッキングするトラッキング部をさらに備え、前記表示部は、トラッキングされた前記顔面の向きを参照して前記人物の動きに前記アバターを追従させる、請求項1から6のいずれか1項に記載のアバター表示装置。
  8.  前記生成部は、前記人物の頭部のモデルと首から下の体部のモデルとを個別に生成する、請求項1から7のいずれか1項に記載のアバター表示装置。
  9.  前記表示部は、前記人物の目、鼻および口を追跡して、前記アバターの前記頭部を動かし、前記人物の首の向きを参照して前記アバターの体部を動かす、請求項8に記載のアバター表示装置。
  10.  人物の撮像データを取得する取得部と、
     前記撮像データから前記人物の深度データ又は画像データを取得する第2取得部と、前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成部と、
     生成した前記アバターを出力する出力部と、
    を備える、アバター生成装置。
  11.  少なくとも1つのプロセッサに、
     人物の撮像データを取得する取得処理と、
     前記撮像データから前記人物の深度データ又は画像データを取得する第2取得処理と、
     前記深度データ又は画像データに基づいて3Dモデルを合成しアバターを生成する生成処理と、
     情報通信装置の画像表示領域に、前記人物の動きに追従させた前記アバターを表示させる表示処理と、
    を実行させるための、プログラム。
PCT/JP2021/047876 2021-12-23 2021-12-23 アバター表示装置、アバター生成装置及びプログラム WO2023119557A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US17/764,149 US11887234B2 (en) 2021-12-23 2021-12-23 Avatar display device, avatar generating device, and program
KR1020227009844A KR20230098089A (ko) 2021-12-23 2021-12-23 아바타 표시 장치, 아바타 생성 장치 및 프로그램
CN202180005532.2A CN116648729A (zh) 2021-12-23 2021-12-23 头像显示装置、头像生成装置以及程序
PCT/JP2021/047876 WO2023119557A1 (ja) 2021-12-23 2021-12-23 アバター表示装置、アバター生成装置及びプログラム
CA3229535A CA3229535A1 (en) 2021-12-23 2021-12-23 Avatar display device, avatar generation device, and program
AU2021480445A AU2021480445A1 (en) 2021-12-23 2021-12-23 Avatar display device, avatar generation device, and program
JP2022517911A JP7200439B1 (ja) 2021-12-23 2021-12-23 アバター表示装置、アバター生成装置及びプログラム
JP2022182125A JP2023094549A (ja) 2021-12-23 2022-11-14 アバター表示装置、アバター生成装置及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2021/047876 WO2023119557A1 (ja) 2021-12-23 2021-12-23 アバター表示装置、アバター生成装置及びプログラム

Publications (1)

Publication Number Publication Date
WO2023119557A1 true WO2023119557A1 (ja) 2023-06-29

Family

ID=84797002

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2021/047876 WO2023119557A1 (ja) 2021-12-23 2021-12-23 アバター表示装置、アバター生成装置及びプログラム

Country Status (7)

Country Link
US (1) US11887234B2 (ja)
JP (2) JP7200439B1 (ja)
KR (1) KR20230098089A (ja)
CN (1) CN116648729A (ja)
AU (1) AU2021480445A1 (ja)
CA (1) CA3229535A1 (ja)
WO (1) WO2023119557A1 (ja)

Families Citing this family (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7235153B2 (ja) * 2017-12-29 2023-03-08 株式会社三洋物産 遊技機
JP7235154B2 (ja) * 2018-02-15 2023-03-08 株式会社三洋物産 遊技機
JP7231076B2 (ja) * 2018-03-08 2023-03-01 株式会社三洋物産 遊技機
JP2020130466A (ja) * 2019-02-15 2020-08-31 株式会社三洋物産 遊技機
JP7234740B2 (ja) * 2019-03-28 2023-03-08 株式会社三洋物産 遊技機
JP7234741B2 (ja) * 2019-03-28 2023-03-08 株式会社三洋物産 遊技機
JP7234761B2 (ja) * 2019-04-11 2023-03-08 株式会社三洋物産 遊技機
JP7234760B2 (ja) * 2019-04-11 2023-03-08 株式会社三洋物産 遊技機
JP2023063369A (ja) * 2022-01-07 2023-05-09 株式会社三洋物産 遊技機
JP2023053387A (ja) * 2022-02-04 2023-04-12 株式会社三洋物産 遊技機
JP2023060269A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機
JP2023060270A (ja) * 2022-04-01 2023-04-27 株式会社三洋物産 遊技機

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009523288A (ja) 2006-01-10 2009-06-18 ソニー株式会社 顔メッシュを使用して顔アニメーションを作成する技術
JP2015531098A (ja) * 2012-06-21 2015-10-29 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
JP2016500954A (ja) * 2012-10-10 2016-01-14 マイクロソフト コーポレーション 制御された三次元通信エンドポイント

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9646340B2 (en) 2010-04-01 2017-05-09 Microsoft Technology Licensing, Llc Avatar-based virtual dressing room
IL265520B2 (en) * 2016-09-28 2023-09-01 Magic Leap Inc Capturing a facial model using a wearable device
KR101866407B1 (ko) 2017-03-15 2018-06-12 주식회사 한글과컴퓨터 아바타 생성 시스템 및 이를 이용한 아바타 생성 방법
US10467793B2 (en) 2018-02-08 2019-11-05 King.Com Ltd. Computer implemented method and device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009523288A (ja) 2006-01-10 2009-06-18 ソニー株式会社 顔メッシュを使用して顔アニメーションを作成する技術
JP2015531098A (ja) * 2012-06-21 2015-10-29 マイクロソフト コーポレーション デプスカメラを使用するアバター構築
JP2016500954A (ja) * 2012-10-10 2016-01-14 マイクロソフト コーポレーション 制御された三次元通信エンドポイント

Also Published As

Publication number Publication date
KR20230098089A (ko) 2023-07-03
US20230206531A1 (en) 2023-06-29
JP2023094549A (ja) 2023-07-05
CN116648729A (zh) 2023-08-25
US11887234B2 (en) 2024-01-30
AU2021480445A1 (en) 2024-03-07
JPWO2023119557A1 (ja) 2023-06-29
JP7200439B1 (ja) 2023-01-06
CA3229535A1 (en) 2023-06-29

Similar Documents

Publication Publication Date Title
JP7200439B1 (ja) アバター表示装置、アバター生成装置及びプログラム
US11736756B2 (en) Producing realistic body movement using body images
US11381778B2 (en) Hybrid texture map to be used during 3D video conferencing
TWI650675B (zh) 群組視頻會話的方法及系統、終端、虛擬現實設備及網路設備
US10527846B2 (en) Image processing for head mounted display devices
US11783524B2 (en) Producing realistic talking face with expression using images text and voice
WO2020203999A1 (ja) コミュニケーション支援システム、コミュニケーション支援方法、および画像制御プログラム
KR101190686B1 (ko) 화상 처리 장치, 화상 처리 방법 및 컴퓨터 판독가능한 기록 매체
JP2019145108A (ja) 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
KR20180100476A (ko) 이미지 및 뎁스 데이터를 사용하여 3차원(3d) 인간 얼굴 모델을 발생시키는 가상 현실 기반 장치 및 방법
CN110413108B (zh) 虚拟画面的处理方法、装置、系统、电子设备及存储介质
US20230350489A1 (en) Presenting avatars in three-dimensional environments
WO2023109753A1 (zh) 虚拟角色的动画生成方法及装置、存储介质、终端
Gonzalez-Franco et al. Movebox: Democratizing mocap for the microsoft rocketbox avatar library
TW202305551A (zh) 用於人工實境之全像通話
Malleson et al. Rapid one-shot acquisition of dynamic VR avatars
CN115049016A (zh) 基于情绪识别的模型驱动方法及设备
US20220076493A1 (en) System and method for rendering virtual reality interactions
JPH10240908A (ja) 映像合成方法
Pandzic et al. Towards natural communication in networked collaborative virtual environments
JP5894505B2 (ja) 画像コミュニケーションシステム、画像生成装置及びプログラム
JP2014086773A (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
KR20200134623A (ko) 3차원 가상 캐릭터의 표정모사방법 및 표정모사장치

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 2022517911

Country of ref document: JP

WWE Wipo information: entry into national phase

Ref document number: 202180005532.2

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 21968992

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2021480445

Country of ref document: AU

Ref document number: 3229535

Country of ref document: CA

Ref document number: AU2021480445

Country of ref document: AU

WWE Wipo information: entry into national phase

Ref document number: 808436

Country of ref document: NZ

ENP Entry into the national phase

Ref document number: 2021480445

Country of ref document: AU

Date of ref document: 20211223

Kind code of ref document: A