JP6506443B1 - 画像生成装置及び画像生成プログラム - Google Patents

画像生成装置及び画像生成プログラム Download PDF

Info

Publication number
JP6506443B1
JP6506443B1 JP2018086989A JP2018086989A JP6506443B1 JP 6506443 B1 JP6506443 B1 JP 6506443B1 JP 2018086989 A JP2018086989 A JP 2018086989A JP 2018086989 A JP2018086989 A JP 2018086989A JP 6506443 B1 JP6506443 B1 JP 6506443B1
Authority
JP
Japan
Prior art keywords
virtual character
hand
user
image
arm
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018086989A
Other languages
English (en)
Other versions
JP2019192116A (ja
Inventor
豪放 小倉
豪放 小倉
堀越 優子
優子 堀越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018086989A priority Critical patent/JP6506443B1/ja
Application granted granted Critical
Publication of JP6506443B1 publication Critical patent/JP6506443B1/ja
Publication of JP2019192116A publication Critical patent/JP2019192116A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】安価な構成によって、いわゆる自撮り画像に対してユーザの姿勢を仮想キャラクタの姿勢として反映させたコンピュータグラフィックス(CG)の画像を生成する。
【解決手段】ユーザの姿勢を反映した仮想キャラクタの胴体部及び頭部の姿勢を求める姿勢算出手段と、仮想キャラクタの手の位置の入力をユーザから受け付ける手位置取得手段と、手の位置と仮想キャラクタの胴体部との位置関係から仮想キャラクタの腕の動きを求める腕部算出手段と、仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きを組み合わせた二次元画像を生成する仮想キャラクタ画像生成手段と、を備える画像生成装置とする。
【選択図】図3

Description

本発明は、ユーザの姿勢や顔のパーツ状態を仮想キャラクタに置き換えた画像を生成する画像生成装置及び画像生成プロクラムに関する。
ユーザの動きを仮想のキャラクタのCGとして反映させる技術が存在している。例えば、ユーザにモーションキャプチャ装置を付け、ユーザの動きを検出することにより仮想のキャラクタの動きとして再現する技術が開示されている(特許文献1)。
一方、近年、ユーチューブ(登録商標)等において人の動きを含む動画が数多く提供されている。このとき、匿名性を高める等のために、人の動きを仮想キャラクタに置き換えた動画を投稿する者も増えてきている(非特許文献1)
特開2016−126500号公報
http://youtuberhyouron.com/virtualyoutuber/
しかしながら、従来のモーションキャプチャ装置を用いた仮想キャラクタの画像を生成するには、高額なシステムを準備する必要がある。したがって、一般人が手軽に動画を配信するような場合に用いることが困難である。
本発明の1つの態様は、撮像装置とユーザとの相対距離に応じて前記撮像装置によって撮像されるユーザの姿勢を反映した仮想キャラクタの胴体部及び頭部の姿勢を求める姿勢算出手段と、前記仮想キャラクタの手の位置の入力をユーザから受け付ける手位置取得手段と、前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きを求める腕部算出手段と、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きを組み合わせた二次元画像を生成する仮想キャラクタ画像生成手段と、を備えることを特徴とする画像生成装置である。
本発明の別の態様は、コンピュータを、撮像装置とユーザとの相対距離に応じて前記撮像装置によって撮像されるユーザの姿勢を反映した仮想キャラクタの胴体部及び頭部の姿勢を求める姿勢算出手段と、前記仮想キャラクタの手の位置の入力をユーザから受け付ける手位置取得手段と、前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きを求める腕部算出手段と、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きを組み合わせた二次元画像を生成する仮想キャラクタ画像生成手段と、して機能させることを特徴とする画像生成プログラムである。
ここで、前記腕部算出手段は、前記二次元画像上の手の位置に基づいて画像の奥行き方向における前記手の位置と前記仮想キャラクタの胴体部との位置関係を定めて前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることが好適である。
また、前記腕部算出手段は、前記手の位置が前記仮想キャラクタの胴体部の幅方向沿って基準位置から離れるほど前記仮想キャラクタの胴体部の厚み方向に沿って後方に位置しているものとして前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることが好適である。
また、前記腕部算出手段は、予め定められた軌道に沿って前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることが好適である。
また、前記腕部算出手段は、前記手の位置が前記仮想キャラクタの胴体部の厚み方向に沿って胴体部の中心位置より前方に位置しているものとして前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることが好適である。
また、前記手位置取得手段は、前記二次元画像を表示させるタッチパネルを含み、前記タッチパネル上に表示された位置指定用アイコンをドラッグして動かすことによって前記手の位置の入力をユーザから受け付けることが好適である。
また、前記タッチパネル上に表示させた手形状選択メニューから手の形状の選択をユーザから受け付ける手形状選択手段を更に備え、前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記手の形状を組み合わせた前記二次元画像を生成することが好適である。
また、前記腕部算出手段は、前記手の形状に応じて予め定められた軌道に沿って前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることが好適である。
また、前記タッチパネル上に表示させたアイテム選択メニューからアイテムの選択をユーザから受け付けるアイテム選択手段を更に備え、前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記アイテムを持った手を組み合わせた前記二次元画像を生成することが好適である。
また、前記タッチパネル上に表示させた顔表情選択メニューから顔の表情の選択をユーザから受け付ける顔表情取得手段を更に備え、前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記顔の表情を組み合わせた前記二次元画像を生成することが好適である。
また、前記姿勢算出手段は、前記撮像装置と前記ユーザとの相対距離及び前記撮像装置の撮像方向の角度に応じて前記撮像装置によって撮像される前記ユーザの姿勢を反映した仮想キャラクタの姿勢を求める第1姿勢算出手段と、前記撮像装置の撮像方向の角度によらず、前記撮像装置と前記ユーザとの相対距離に応じて前記ユーザの姿勢を反映した仮想キャラクタの姿勢を求める第2姿勢算出手段と、を切り替えて処理することが好適である。
本発明によれば、安価な構成によって、いわゆる自撮り画像に対してユーザの姿勢を仮想キャラクタの姿勢として反映させたコンピュータグラフィックス(CG)の画像を生成することができる。
本発明の実施の形態における画像生成装置を含むシステム構成を示す図である。 本発明の実施の形態における画像生成装置の構成を示す図である。 本発明の実施の形態における画像生成方法を示すフローチャートである。 本発明の実施の形態における画像生成方法を説明する図である。 本発明の実施の形態において生成された画像の例を示す図である。 本発明の実施の形態において仮想キャラクタの手を動かした際に生成された画像の例を示す図である。 本発明の実施の形態において仮想キャラクタの顔の表情を選択する処理を説明するための図である。 本発明の実施の形態における顔表情データベースの例を示す図である。 本発明の実施の形態において仮想キャラクタの顔の表情を変更した画像の例を示す図である。 本発明の実施の形態において仮想キャラクタの右手の形状を選択する処理を説明するための図である。 本発明の実施の形態における手形状画像データベースの例を示す図である。 本発明の実施の形態において仮想キャラクタの左手の形状を選択する処理を説明するための図である。 本発明の実施の形態において仮想キャラクタの手の形状を変更した画像の例を示す図である。 本発明の実施の形態における腕の状態を算出する処理を説明するための図である。 本発明の実施の形態における手の軌道の例を示す図である。 本発明の実施の形態における手の軌道の例を示す図である。
本発明の実施の形態における画像生成装置100は、図1に示すように、インターネット102を介してサーバ104にアクセス可能なシステムに含まれる。画像生成装置100において生成された画像は、インターネット102を介してサーバ104にアップロードすることができる。なお、本実施の形態において画像とは、複数の画面の画像を組み合わせて構成される動画も含むものとする。
画像生成装置100は、図2に示すように、処理部10、記憶部12、入力部14、出力部16、撮像部18、ジャイロセンサ20及び通信部22を含んで構成される。画像生成装置100は、例えば、スマートフォン、携帯電話、タブレット端末等とすることができる。
処理部10は、CPU等を含んで構成され、画像生成装置100における処理を統合的に行う。処理部10は、記憶部12に記憶されている画像生成プログラムを実行することにより、本実施の形態における画像生成処理を行う。記憶部12は、画像生成装置100における画像生成処理において用いられる画像生成プログラムや撮像部18で撮像された画像等の画像生成装置100で用いられる情報を記憶する。記憶部12は、例えば、半導体メモリ、ハードディスク等で構成することができる。入力部14は、画像生成装置100に対して情報を入力するための手段を含む。入力部14は、例えば、タッチパネル、キーボード(ソフトキーボードを含む)、マイク等を含んで構成される。出力部16は、画像生成装置100で生成された画像や処理された情報を表示させる手段を含む。出力部16は、例えば、ディスプレイ(タッチパネルを含む)とすることができる。撮像部18は、画像を撮像するためのカメラやレンズ等の光学システムを含んで構成される。撮像部18で撮像された画像データ(静止画、動画)は記憶部12に記憶されて画像生成処理の対象となる。ジャイロセンサ20は、角速度センサであり、画像生成装置100を動かしたときの角速度を検出して処理部10へ出力する。処理部10は、ジャイロセンサ20からの角速度を時間積分処理することにより、基準角度(角度の初期設定値)から画像生成装置100の角度がどれだけ変化したかを示す角度変化を検出することができる。通信部22は、画像生成装置100以外の外部装置との情報交換を行うためのインターフェースを含んで構成される。通信部22は、例えば、インターネット102に接続されることによって、画像生成装置100で生成された画像を外部のサーバ104にアップロードすることを可能にする。
なお、本実施の形態では、撮像部18を画像生成装置100と一体に構成した例について示したが、これに限定されるものではなく、撮像部18を別体とした構成としてもよい。この場合、通信部22を介して撮像部18から画像生成装置100が画像を取得できるようにすればよい。
以下、図3のフローチャートを参照して、本実施の形態における画像生成処理について説明する。本実施の形態における画像生成処理では、画像生成装置100を用いてユーザが自分自身を撮像部18よって撮像する所謂自撮りされた画像におけるユーザの姿勢や顔のパーツ状態を仮想キャラクタの姿勢や顔のパーツ状態に置き換えたコンピュータグラフィックス(CG)の画像を生成する処理を行う。
ステップS10では、初期設定処理が行われる。本実施の形態では、画像生成処理において基準となる初期画像が取得される。本ステップを実行することにより、画像生成装置100は初期設定手段として機能する。初期画像は、ユーザが自撮りを行うことで取得される。すなわち、画像生成装置100を左右のいずれかの手で持ち、その腕を伸ばした状態において正面からの自撮り撮影を行う。なお、自撮り撮影では、ユーザは自然に撮像部18に顔を向けた画像が得られる可能性が高くなる。また、ジャイロセンサ20を用いて、初期画像を取得したタイミングにおける画像生成装置100による撮像方向の角度を基準角度として設定する。さらに、画像生成装置100をユーザがどちらの手で持っているかの情報を取得する。例えば、画像生成装置100の出力部16であるタッチパネルを触る位置に基づいてユーザがどちらの手で画像生成装置100を持って撮像しているのかを検出することができる。また、画像生成装置100の入力部14を用いて、ユーザ自身にどちらの手で画像生成装置100を持っているのか入力させるようにしてもよい。
ステップS12では、初期状態における画像生成装置100からユーザまでの相対距離が算出される。本ステップを実行することにより、画像生成装置100は基準距離設定手段として機能する。処理部10は、ステップS10において取得された初期画像に基づいて、画像生成装置100とユーザまでの相対距離を基準距離として求める。例えば、初期画像からユーザの頭部領域を抽出し、頭部領域の大きさを基準として画像生成装置100とユーザまでの相対距離を基準距離として算出することができる。すなわち、人間の頭部の大きさは個々人で大きく変わらないものとし、初期画像を撮像したときの撮像部18の設定(撮像倍率等)を考慮して初期画像における頭部領域の大きさから画像生成装置100とユーザとの相対距離を求めることができる。これにより、初期画像における相対距離、すなわち、ユーザが腕を伸ばした状態におけるユーザから画像生成装置100までの距離を半径Rとして、R≧rとなる領域についてユーザの腕の方向と伸縮に応じたユーザの顔の拡大・縮小を仮想キャラクタに反映させることが可能となり、より動きがリアルな仮想キャラクタの画像を提供することができる。
なお、初期状態における画像生成装置100からユーザまでの相対距離の求め方は、上記方法に限定されるものでなく、他の方法によって当該相対距離を求めるようにしてもよい。
ステップS14では、現在のユーザの画像が取得される。本ステップを実行することにより、画像生成装置100は自撮画像取得手段として機能する。ユーザは、画像生成装置100を用いて自撮り撮影を行って現在の自撮画像を取得する。このとき、ユーザは手や腕を動かして、ユーザと画像生成装置100との相対距離や角度を初期状態から変更しながら撮像を行ってもよい。
ステップS16では、現在のユーザから画像生成装置100までの相対距離及び画像生成装置100の撮像方向の角度が算出される。本ステップを実行することにより、画像生成装置100は距離算出手段及び角度算出手段として機能する。処理部10は、ステップS14において取得された自撮画像に基づいて画像生成装置100からユーザまでの相対距離を求める。相対距離の算出方法は、ステップS12と同様とすることができる。また、処理部10は、ジャイロセンサ20を用いて、ステップS14において自撮画像を取得したタイミングにおける画像生成装置100の撮像方向の角度を求める。具体的には、ジャイロセンサ20で検出される角速度の時間積分を繰り返すことによって、ステップS10において設定された基準角度からの角度変化を算出して画像生成装置100の現在の角度を求める。
ステップS18では、相対距離及び角度からユーザの身体の姿勢を反映した仮想キャラクタの身体の姿勢が算出される。本ステップを実行することにより、画像生成装置100は姿勢算出手段として機能する。処理部10は、ステップS16にて算出された現在のユーザから画像生成装置100までの相対距離及び画像生成装置100の角度に基づいて、画像生成装置100に正対するユーザの身体の姿勢を反映した3次元の人体モデルである仮想キャラクタの身体の姿勢を決定する。なお、自撮画像の場合、ユーザの上半身のみが撮像されることが多いので画像上のユーザの身体の姿勢は頭部及び胴体部のみを考慮すればよい場合が多い点で有利である。
具体的には、以下のように画像生成装置100に正対する仮想キャラクタの頭部及び胴体部の姿勢を決定する。まず、ステップS10で得られた画像生成装置100の基準角度からステップS16で得られた現在の画像生成装置100の角度への変化を求める。また、ステップS12において得られたユーザと画像生成装置100との基準距離とステップS16で得られた現在のユーザと画像生成装置100の相対距離の変化を求める。そして、図4に示すように、角度及び相対距離の変化に応じて、ステップS10におけるユーザAの頭部及び胴体部と画像生成装置100との位置関係から現在のユーザAの頭部及び胴体部の姿勢と画像生成装置100との位置関係の変化を推測し、当該ユーザAの頭部及び胴体部の姿勢に合わせた3次元の仮想キャラクタのモデルの頭部及び胴体部の姿勢と画像生成装置100との位置関係を定める。
ユーザの姿勢においてユーザの頭部の状態は、インバースキネマティックス処理で求めることが好適である。自撮り撮影では、ユーザが自然に撮像部18に顔を向けた画像が得られるので、ユーザの顔の特定のパーツ(例えば、鼻)の位置検出が容易である。現在のユーザ位置が決まれば、対応する仮想キャラクタの基準位置が決まり、予めサイズが決められている仮想キャラクタの首の位置がわかる。ここでは、ユーザの顔の特定のパーツの位置とユーザの位置から、仮想キャラクタの顔の特定のパーツの位置(前者位置)と、首の位置(後者位置)が決まったときに、首に対して頭がどの位置にあるのかを計算する。これにより、ユーザが画像生成装置100に正対する向き(首を基準とした頭部の向き)を把握することができる。なお、ユーザの顔の特定のパーツの位置検出は、後述する顔認識の技術を用いることができる。
また、基準角度(正面視の姿勢)から現在の画像生成装置100の角度への変化の度合いに応じて、仮想キャラクタの胴体の姿勢を決定する。この場合、求められる角度変化に応じた姿勢の胴体ポーズを予め複数用意しておくのが好適である。例えば、ユーザが右手に画像生成装置100を持つ場合の胴体ポーズとして予め4ポーズを用意する場合は、求められた角度変化が90度未満のときは胴体を正面視のポーズを選択し、正面右もしくは正面左に90度のときは胴体を正面視の姿勢から現在の画像生成装置100に向くようねじった状態のポーズをそれぞれ選択し、正面右に90度超えるときは胴体をさらにねじって正面視から振り返ったような状態のポーズを選択する。角度変化に応じて最適なポーズを使い分けながら合成することで仮想キャラクタのポーズをシームレスに状態変化させることができる。
なお、本実施の形態では、相対距離及び角度の両方からユーザの身体の姿勢を反映した仮想キャラクタの身体の姿勢を算出する処理としたが、角度を考慮せずに相対距離のみに基づいて仮想キャラクタの身体の姿勢を算出する処理としてもよい。例えば、ユーザと画像生成装置100との相対距離と3次元の仮想キャラクタのモデルの頭部及び胴体部の大きさと傾きとの関係を予め定めておき、実際のユーザと画像生成装置100との相対距離に応じた3次元の仮想キャラクタのモデルの頭部及び胴体部の大きさと傾きを決定するようにしてもよい。
なお、撮像部18の状態やユーザが設定可能な設定モードに応じてユーザの姿勢の検出の方法を変更するようにしてもよい。例えば、撮像部18がスマートフォンに搭載されている場合、スマートフォンの状態(縦にした状態や横にした状態)に応じてユーザの姿勢の検出の方法を変更するようにしてもよい。この場合、スマートフォンに搭載されるジャイロセンサ20を用いて、ディスプレイを縦にした状態なのか、横にした状態なのかを判定する。
ユーザの姿勢の検出方法は、例えば、ジャイロセンサ20の検出値と撮像部18で撮像されたユーザの状態の両方に応じてユーザの姿勢を検出する自撮りモードと撮像部18で撮像されたユーザの状態に応じてユーザの姿勢を検出する固定モードとを切り替えるようにすることができる。このとき、自撮りモードは、撮像部18を自由に動かせるように手持ちした状態において設定されるモードとすることが好適である。また、自撮りモードは、撮像部18を縦の状態で使用したときに設定されるモードとしてもよい。自撮りモードでは、ジャイロセンサ20の検出値と撮像部18で撮像されたユーザの状態の両方に応じてユーザの姿勢を検出するが、撮像部18によって撮像されたユーザの顔の大きさから撮像部18とユーザとの相対距離を求めるようにすればよい。また、固定モードは、撮像部18を自由に動かせないように置いた状態において設定されるモードとすることが好適である。また、固定モードは、撮像部18を横の状態で使用したときに設定されるモードとしてもよい。固定モードでは、撮像部18で撮像されたユーザの状態に応じてユーザの姿勢を検出するが、撮像部18によって撮像されたユーザの顔の大きさから撮像部18とユーザとの相対距離を求め、ユーザの鼻の位置や傾きからユーザの姿勢を決定するようにすればよい。ユーザの鼻の位置や傾きは、例えば、出力部16であるタッチパネル上に設けられるユーザを撮像したポートレート領域の中心部に固定表示される十字オブジェクト(基準十字オブジェクト)を基準に鼻の位置がどの程度ずれたかで判定することができる。このとき、基準十字オブジェクトとは別に、ユーザの撮像から推定される頭部の中心点で交差する十字オブジェクトもポートレート領域に表示されることが好ましい。頭部の中心点の算出は、後述する顔認識の処理において求められる。なお、基準十字オブジェクトは、首を真っ直ぐにしたユーザの顔が撮像部18に正対した状態における鼻の位置や頭部の中心点で十字が交差するよう予め設定されてもよい。また、ユーザの姿勢は、基準十字オブジェクトと十字オブジェクトとの差分に基づいて判定してもよい。なお、ポートレート領域は、配信元の画像生成装置100の出力部16にのみ表示される。特に自撮りモードでは、ユーザに十字オブジェクトが基準十字オブジェクト(すなわちポートレート領域の中心部)に重なるように意識させることで、ユーザの姿勢を正確に仮想キャラクタの姿勢に反映させる再現性を向上させることができる。
ステップS20では、ステップS18で求められた仮想キャラクタの姿勢と、仮想キャラクタの顔の向き及びパーツ状態(口や目の表情等)とを合成して仮想キャラクタの二次元画像を生成する処理が行われる。本ステップを実行することにより、画像生成装置100は仮想キャラクタ画像生成手段として機能する。処理部10は、ステップS18及びステップS26において算出された3次元の仮想キャラクタの状態(姿勢及びパーツ状態)及び画像生成装置100との位置関係とに基づいて、画像生成装置100に搭載されている撮像部18によって当該仮想キャラクタを撮像した場合の二次元画像を算出する。二次元画像は、撮像部18の撮像条件(ズーム率等)も考慮して、撮像部18の視座標系において3次元の仮想キャラクタを構成する各ポリゴンをそれぞれ二次元画像上に投影する投影変換を行う。
なお、後述するステップS24における顔表情取得処理において仮想キャラクタの表情が取得されていない場合、予め定められたデフォルトの顔の表情の画像を仮想キャラクタの顔領域に適用して仮想キャラクタの表情の画像を合成する。顔表情取得処理において仮想キャラクタの表情が取得されている場合、取得された顔の表情の画像を仮想キャラクタの顔領域に適用して仮想キャラクタの表情の画像を合成する。
また、ステップS26における手位置取得処理、ステップS30における腕部算出処理及びステップS28における手形状選択処理が行われていない場合、図5に示すように、手及び腕を下ろしたデフォルトの仮想キャラクタ202の姿勢の二次元画像200を生成する。一方、ステップS26における手位置取得処理、ステップS30における腕部算出処理及びステップS28における手形状選択処理が行われていた場合、図6に示すように、これらの処理で得られた手の位置、腕の状態及び手の形状を有する仮想キャラクタ202の二次元画像200を生成する。
また、3次元の仮想キャラクタを正確に表現するための隠面・陰影処理も同時に行うことが好適である。さらに、自撮画像は、左右が反転するので、生成された仮想キャラクタの画像の左右を反転させる処理を施してもよい。例えば、生成された仮想キャラクタの画像の左右を反転させるようにレンダリング処理を施せばよい。
ステップS22では、仮想キャラクタの画像を表示する処理が行われる。本ステップを実行することにより、画像生成装置100は仮想キャラクタ表示手段として機能する。処理部10は、ステップS18において生成された仮想キャラクタの二次元画像を出力部16において表示させる。
このとき、図5及び図6に示すように、画像配信しているユーザが使用する画像生成装置100の画像上に右手アイコン204R、左手アイコン204L、顔アイコン206及びアイテムアイコン208を同時に表示させる。右手アイコン204Rは、ユーザから仮想キャラクタの右手(画像上では仮想キャラクタの左手だが、左右反転して撮像されているユーザの右手に対応するので以下は仮想キャラクタの右手として説明する)の位置の指定を受け付けるためのアイコンである。右手アイコン204Rは、初期状態では図5に示すように二次元画像200の画面右下付近に表示させることが好適である。また、右手アイコン204Rは、仮想キャラクタの右手の位置が指摘されたときには図6に示すように右手の画像の位置に重ねて表示させることが好適である。左手アイコン204Lは、ユーザから仮想キャラクタの左手(画像上では仮想キャラクタの右手だが、左右反転して撮像されているユーザの左手に対応するので以下は仮想キャラクタの左手として説明する)の位置の指定を受け付けるためのアイコンである。左手アイコン204Lは、初期状態では図5に示すように二次元画像200の画面左下付近に表示させることが好適である。また、左手アイコン204Lは、仮想キャラクタの左手の位置が指摘されたときには図6に示すように左手の画像の位置に重ねて表示させることが好適である。顔アイコン206は、ユーザから仮想キャラクタの顔の表情の指定を受け付けるためのアイコンである。顔アイコン206は、図5及び図6に示すように、仮想キャラクタの顔の画像付近に表示させることが好適である。アイテムアイコン208は、ユーザから仮想キャラクタに持たせるアイコンの指定を受け付けるためのアイコンである。アイテムアイコン208は、図5及び図6に示すように二次元画像200の画面中央下付近に表示させることが好適である。
また、処理部10は、撮像部18を介してステップS18において生成された仮想キャラクタの二次元画像を配信先となる通信端末(コンピュータ、スマートフォン、タブレット等)に送信させてもよい。これによって、当該通信端末において仮想キャラクタの二次元画像を表示させることができる。
なお、右手アイコン204R、左手アイコン204L、顔アイコン206、アイテムアイコン208、後述する右手形状選択肢アイコン204a〜204e、左手形状選択肢アイコン204f〜204j、顔選択肢アイコン206a〜206fは、配信先の通信端末の画像上には表示させないようにすることが好適である。
ステップS24では、仮想キャラクタの顔の表情を取得する顔表情取得処理が行われる。本ステップを実行することにより、画像生成装置100は顔表情取得手段として機能する。顔の表情は、顔アイコン206を用いてユーザに選択させることができる。処理部10は、ユーザによるタッチパネル上の顔アイコン206の選択(例えばタップ)を検出すると、図7に示すように、仮想キャラクタの顔の表情の候補を示す顔選択肢アイコン206a〜206fを顔表情選択メニューとしてタッチパネル上に表示させる。顔選択肢アイコン206a〜206fは、例えば、図7に示すように顔アイコン206の周りに表示させてフリック入力により選択できるようにすることが好適である。このとき、顔の表情を選択するモードになっていることをはっきりと示すために、顔選択肢アイコン206a〜206f以外の領域をグレーアウトさせるようにしてもよい。顔選択肢アイコン206a〜206fは、これに限定されるものではないが、例えば笑顔、照れ顔、寝顔、怒顔、泣き顔、驚きの顔等の表情の選択肢を示すものとする。本実施の形態では、6つの顔選択肢アイコン206a〜206fとしたが、選択肢の数はこれに限定されるものではない。ユーザは、顔選択肢アイコン206a〜206fのうちいずれかを選択することができる。仮想キャラクタの種類毎に顔選択肢アイコン206a〜206fの各々の選択肢と顔の表情の画像データとを関連付けて顔表情データベースとして記憶させておき、処理部10は、ユーザによって選択された顔選択肢アイコン206a〜206fのいずれかの選択肢に関連付けられた顔の表情の画像データを仮想キャラクタの顔画像データとして読み出す。図8は、顔表情データベースの登録例を示す。
ユーザの選択に応じて読み出された顔画像データは、ステップS20の仮想キャラクタの二次元画像の生成処理に利用される。例えば、図7における顔選択肢アイコン206aで示される笑顔がユーザによって選択された場合、図9に示すように、仮想キャラクタの笑顔の顔画像データが読み出され、画面上の仮想キャラクタの顔の表情を笑顔に変更する処理が行われる。
なお、顔選択肢アイコン206a〜206fの選択処理に代えて顔認識の処理としてもよい。処理部10は、ステップS14において得られた現在の自撮画像から顔領域を抽出する。顔領域の抽出処理では、人間の顔が撮影された領域の特徴量に基づいて顔領域を抽出することができる。次に、処理部10は、抽出された顔領域からユーザの各パーツ(眉、目、鼻、口、輪郭など)の状態(動き)を求める。顔領域の抽出及びパーツ状態の抽出には、一般的な顔認識の技術を用いることができる。また、処理部10は、抽出された顔領域の各パーツの位置からユーザの顔の姿勢(向き)を求める姿勢算出手段としても機能する。顔の姿勢(向き)の算出には、一般的な顔向き推定技術を用いることができる。その後、処理部10は、得られたユーザの顔の姿勢と顔のパーツ状態に対応して、ステップS18で求められた仮想キャラクタの頭の位置における当該仮想キャラクタの顔の向き及び顔のパーツ状態を定める。なお、ユーザの顔の各パーツ状態の再現は、顔全体に限らず一部のパーツでもよい。また、再現されるユーザのパーツ状態は、画像からの抽出に限らない。例えば、瞬きなど目の動きは画像に基づいて抽出され、口の動きは入力部14(マイク)へのユーザの音声入力に基づいて抽出されてもよい。ユーザの音声と仮想キャラクタの唇の動きの連動には、一般的なリップシンク技術を用いることが好適である。
ステップS26では、仮想キャラクタの手の位置を取得する手位置取得処理が行われる。本ステップを実行することにより、画像生成装置100は手位置取得手段として機能する。仮想キャラクタの手の位置は、位置指定用アイコンである右手アイコン204R及び左手アイコン204Lを用いて取得することができる。ユーザは、タッチパネル上に表示された右手アイコン204Rを指等で操作(例えばドラッグ操作)することで画面上における右手の位置を入力することができる。処理部10は、右手アイコン204Rのタッチパネル上の位置情報を取得し、当該位置情報を仮想キャラクタの右手位置とする。同様に、ユーザは、タッチパネル上に表示された左手アイコン204Lを指等で操作することで画面上における左手の位置を入力することができる。処理部10は、左手アイコン204Lのタッチパネル上の位置情報を取得し、当該位置情報を仮想キャラクタの左手位置とする。
ステップS28では、仮想キャラクタの手の形を取得する手形状選択処理が行われる。本ステップを実行することにより、画像生成装置100は手形状選択手段として機能する。手の形は、右手アイコン204R及び左手アイコン204Lを用いてユーザに選択させることができる。処理部10は、ユーザによるタッチパネル上の右手アイコン204Rの選択(例えば長押し)を検出すると、図10に示すように、仮想キャラクタの右手の形の候補を示す右手形状選択肢アイコン204a〜204eを手形状選択メニューとしてタッチパネル上に表示させる。右手形状選択肢アイコン204a〜204eは、例えば、図10に示すようにタッチパネル上の右手アイコン204Rの周りに表示させてフリック入力により手の形状を選択できるようにすることが好適である。このとき、手の形状を選択するモードになっていることをはっきりと示すために、右手形状選択肢アイコン204a〜204e以外の領域をグレーアウトさせるようにしてもよい。本実施の形態では、5つの右手形状選択肢アイコン204a〜204eとしたが、選択肢の数はこれに限定されるものではない。ユーザは、右手形状選択肢アイコン204a〜204eのうちいずれかを選択することができる。右手形状選択肢アイコン204a〜204eの各々の選択肢と手の形状の画像データとを関連付けて手形状画像データベースとして記憶させておき、処理部10は、ユーザによって選択された右手形状選択肢アイコン204a〜204eのいずれかの選択肢に関連付けられた手の形状の画像データを仮想キャラクタの右手画像データとして読み出す。図11は、手形状画像データベースの登録例を示す。当該右手画像データは、ステップS20の仮想キャラクタの二次元画像の生成処理に利用される。
仮想キャラクタの左手の形状についても同様に処理することができる。処理部10は、ユーザによるタッチパネル上の左手アイコン204Lの選択(例えば長押し)を検出すると、図12に示すように、仮想キャラクタの左手の形の候補を示す左手形状選択肢アイコン204f〜204jを手形状選択メニューとしてタッチパネル上に表示させる。左手形状選択肢アイコン204f〜204jは、例えば、図12に示すようにタッチパネル上の右手アイコン204Rの周りに表示させてフリック入力により手の形状を選択できるようにすることが好適である。このとき、手の形状を選択するモードになっていることをはっきりと示すために、左手形状選択肢アイコン204f〜204j以外の領域をグレーアウトさせるようにしてもよい。本実施の形態では、5つの左手形状選択肢アイコン204f〜204jとしたが、選択肢の数はこれに限定されるものではない。ユーザは、左手形状選択肢アイコン204f〜204jのうちいずれかを選択することができる。左手形状選択肢アイコン204f〜204jの各々の選択肢と手の形状の画像データとを関連付けて手形状画像データベースとして記憶させておき、処理部10は、ユーザによって選択された左手形状選択肢アイコン204f〜204jのいずれかの選択肢に関連付けられた手の形状の画像データを仮想キャラクタの左手画像データとして読み出す。当該左手画像データは、ステップS20の仮想キャラクタの二次元画像の生成処理に利用される。
図13は、右手と左手の形状をデフォルトの形状から変更した場合においてステップS20で仮想キャラクタ202の二次元画像を更新した例を示す。
ステップS30では、仮想キャラクタの腕部の状態を算出する腕部算出処理が行われる。本ステップを実行することにより、画像生成装置100は腕部算出手段として機能する。仮想キャラクタの姿勢において手の位置と腕の状態はインバースキネマティックス処理で求めることが好適である。ステップS26において取得された仮想キャラクタの手の位置(前者位置)とステップS18において求められた仮想キャラクタの肩の位置(後者位置が決まれば仮想キャラクタのサイズはあらかじめ決められているので、後者位置に対応する基準位置からの固定距離で決まる)が決まったときに、肘をどのように動かせばよいかを計算する。
このとき、ステップS26の手位置取得処理では画像の奥行き方向(図14のZ方向)における仮想キャラクタ202の手の位置は定められていない。そこで、二次元画面上(図14のX−Y平面上)の手の位置に応じて画像の奥行き方向(Z方向)における手の位置と仮想キャラクタ202の胴体部との相対的な位置関係を定め、仮想キャラクタの腕の動きを求める。例えば、手の位置が仮想キャラクタ202の胴体部の幅方向沿って基準位置(例えば、胴体部の中心位置)から離れるほど仮想キャラクタ202の胴体部の厚み方向(Z方向)に沿って後方に位置しているものとして手の位置と仮想キャラクタ202の胴体部との位置関係から仮想キャラクタ202の腕の動きをインバースキネマティックス処理により求めることが好適である。具体的には、例えば、図14(b)に示すように、予め定められた軌道Aに沿って手の位置と仮想キャラクタ202の胴体部との位置関係から仮想キャラクタ202の腕の動きをインバースキネマティックス処理により求めることが好ましい。また、例えば、手の位置が仮想キャラクタ202の胴体部の高さ方向沿って基準位置(例えば、胴体部の肩の高さ)から離れるほど仮想キャラクタ202の胴体部の厚み方向に沿って後方に位置しているものとして手の位置と仮想キャラクタ202の胴体部との位置関係から仮想キャラクタ202の腕の動きをインバースキネマティックス処理により求めることが好適である。具体的には、例えば、図14(c)に示すように、予め定められた軌道Aに沿って手の位置と仮想キャラクタ202の胴体部との位置関係から仮想キャラクタ202の腕の動きをインバースキネマティックス処理により求めることが好ましい。このとき、手の位置が仮想キャラクタ202の胴体部の厚み方向に沿って中心位置CよりオフセットDだけ前方に位置しているものとして手の位置と仮想キャラクタ202の胴体部との位置関係を定めることが好適である。
なお、軌道Aの形状は、図14の例に限定されるものではなく、様々な形状としてもよい。例えば、右手と左手において異なる軌道Aを設定してもよい。具体的には、図15に示すように、右手の位置に対する軌道A1と左手の位置に対する軌道A2として異なる軌道を設定してもよい。
また、ステップS28において取得された手の形状に応じて軌道の形状を変更するようにしてもよい。図16に示すように、手の形状毎に異なる軌道を記憶部12に予め記憶させておき、ステップS28において取得された手の形状に対応する軌道を用いて画像の奥行き方向(Z方向)に沿った手の位置を定めるようにしてもよい。例えば、5本の指を広げた手の形状が選択された場合、手の位置を左右に動かしたときにバイバイしているようにみえるように奥行き方向(Z方向)の変化がより小さい軌道とする。また、例えば、親指を立てた手の形状が選択された場合、手の位置を左右の動かしたときに手を突き出しているようにみえるように奥行き方向(Z方向)の変化がより大きい軌道とする。
処理部10は、手オブジェクトの端部(指先側端部)が定められた手の位置となるように手オブジェクトを移動させる。その後、手オブジェクトの反対側の端部(手首側端部)の位置に向くように前腕オブジェクトを回転させる。次に、前腕オブジェクトの端部(手首側端部)が手オブジェクトの端部(手首側端部)の位置となるように前腕オブジェクトを移動させる。さらに、前腕オブジェクトの反対側の端部(肘側端部)の位置に向くように上腕オブジェクトを回転させる。次に、上腕オブジェクトの端部(肘側端部)が前腕オブジェクトの端部(肘側端部)の位置となるように上腕オブジェクトを移動させる。このような操作を繰り返すことによって、仮想キャラクタの腕の状態を定めることができる。
また、手の形状及び手の軌道の位置に応じて、手オブジェクトの指先側端部と手首側端部の位置関係が変動するようにしてもよい。具体的な手段としては、例えば、手の形状と手の位置との組み合わせに対して手オブジェクトの指先側端部と手首側端部の位置関係を予めデータベースとして登録しておき、処理部10は、現在の手の形状及び手の軌道の位置に応じて手オブジェクトの指先側端部と手首側端部の位置関係を読み出すようにすればよい。
例えば、5本の指を広げた手の形状(パー)の場合、手の位置が仮想キャラクタの正面中央に近い位置から離れた位置にある場合には手を振る状態であるとして指先側端部と手首側端部が奥行方向において同じ位置にあるものとして処理をする。一方、手の位置が仮想キャラクタの正面中心に近い位置(手が伸ばされた状態)にある場合には握手をしている状態であるとして指先側端部の後方に手首側端部が奥行方向において異なる位置にあるものとして処理をする。
なお、右手と左手とが交差した状態となった場合、いずれか一方を優先的に表示させるように処理することが好適である。
また、仮想キャラクタの顔の表情、手の形状及び腕の状態は、顔アイコン206、右手アイコン204R及び左手アイコン204Lに対する操作が所定時間以上にわたって行われなかった場合にデフォルトに戻すようにしてもよい。このとき、操作されなかった顔アイコン206、右手アイコン204R及び左手アイコン204Lの画像上の位置もデフォルト位置に戻すようにすればよい。
なお、複数の自撮画像や動画を生成する場合、ステップS14からステップS30までの処理を繰り返せばよい。
なお、配信元や配信先の端末のディスプレイの向きに応じて、図5等に示すように二次元画像200において破線で区切られた中央部分の画像のみを提供するようにしてもよい。
以上のように、本実施の形態によれば、画像生成装置100によるいわゆる自撮り画像に対してユーザの姿勢を仮想キャラクタの姿勢として反映させたコンピュータグラフィックス(CG)の画像を生成することができる。したがって、モーションキャプチャ装置のような高価なシステムを必要とすることなく、撮影された人物を仮想キャラクタに置き換えた画像を生成することができる。
また、仮想キャラクタにアイテムを持たせた状態の二次元画像を生成できるようにしてもよい。仮想キャラクタに持たせるアイテムは、アイテムアイコン208を用いてユーザに選択させることができる。処理部10は、ユーザによるタッチパネル上のアイテムアイコン208の選択(例えばタップ)を検出すると、現在においてユーザが所有しているアプリケーション上のアイテムのリストをタッチパネルの画面上にアイテム選択メニューとして表示させる。ユーザが所有しているアイテムは、アイテム毎にアイテムの画像データと関連付けてアイテムデータベースとして予め記憶させておけばよい。アイテムは、通信によって接続されている他のユーザから提供されたアイテムやサーバから提供されるアイテム等とすることができる。ユーザがタッチパネルを用いてアイテムリストから持たせるアイテムを選択すると、処理部10は、選択されたアイテムに関連付けられているアイテムの画像データを読み出して仮想キャラクタの手の位置に重ね合わせた二次元画像を生成する。これらの処理により、画像生成装置100は、アイテム選択手段として機能する。
このように仮想キャラクタにアイテムを持たせた二次元画像を表示又は配信することで、他のユーザやサーバから提供されたアイテムを画像閲覧している他のユーザに見せることができる。
なお、本実施の形態では、現在の自撮画像をリアルタイムで処理する態様について説明したが、これに限定されるものではなく、過去に撮影していた自撮画像を処理するようにしてもよい。この場合、初期設定で取得する各種データや初期画像も自撮画像と共に記憶部12に記憶させておき、記憶部12からこれらの情報を読み出しつつ画像生成処理を行えばよい。
10 処理部、12 記憶部、14 入力部、16 出力部、18 撮像部、20 ジャイロセンサ、22 通信部、100 画像生成装置、102 インターネット、104 サーバ、200 二次元画像、202 仮想キャラクタ、204L 左手アイコン、204R 右手アイコン、204a−204e 右手形状選択肢アイコン、204f−204j 左手形状選択肢アイコン、206 顔アイコン、206a−206f 顔選択肢アイコン、208 アイテムアイコン。

Claims (10)

  1. 撮像装置とユーザとの相対距離に応じて前記撮像装置によって撮像されるユーザの姿勢を反映した仮想キャラクタの胴体部及び頭部の姿勢を求める姿勢算出手段と、
    前記仮想キャラクタの手の位置の入力をユーザから受け付ける手位置取得手段と、
    前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きを求める腕部算出手段と、
    前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きを組み合わせた二次元画像を生成する仮想キャラクタ画像生成手段と、
    を備え
    前記腕部算出手段は、前記手の位置が前記仮想キャラクタの胴体部の幅方向沿って基準位置から離れるほど前記仮想キャラクタの胴体部の厚み方向に沿って後方に位置しているものとして前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることを特徴とする画像生成装置。
  2. 請求項に記載の画像生成装置であって、
    前記腕部算出手段は、予め定められた手の軌道に沿って前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることを特徴とする画像生成装置。
  3. 請求項1又2に記載の画像生成装置であって、
    前記腕部算出手段は、前記手の位置が前記仮想キャラクタの胴体部の厚み方向に沿って胴体部の中心位置より前方に位置しているものとして前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることを特徴とする画像生成装置。
  4. 請求項1〜3のいずれか1項に記載の画像生成装置であって、
    前記手位置取得手段は、前記二次元画像を表示させるタッチパネルを含み、前記タッチパネル上に表示された位置指定用アイコンをドラッグして動かすことによって前記手の位置の入力をユーザから受け付けることを特徴とする画像生成装置。
  5. 請求項に記載の画像生成装置であって、
    前記タッチパネル上に表示させた手形状選択メニューから手の形状の選択をユーザから受け付ける手形状選択手段を更に備え、
    前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記手の形状を組み合わせた前記二次元画像を生成することを特徴とする画像生成装置。
  6. 請求項に記載の画像生成装置であって、
    前記腕部算出手段は、前記手の形状に応じて予め定められた手の軌道に沿って前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることを特徴とする画像生成装置。
  7. 請求項に記載の画像生成装置であって、
    前記タッチパネル上に表示させたアイテム選択メニューからアイテムの選択をユーザから受け付けるアイテム選択手段を更に備え、
    前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記アイテムを持った手を組み合わせた前記二次元画像を生成することを特徴とする画像生成装置。
  8. 請求項1〜7のいずれか1項に記載の画像生成装置であって、
    前記タッチパネル上に表示させた顔表情選択メニューから顔の表情の選択をユーザから受け付ける顔表情取得手段を更に備え、
    前記仮想キャラクタ画像生成手段は、前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きと前記顔の表情を組み合わせた前記二次元画像を生成することを特徴とする画像生成装置。
  9. 請求項1〜8のいずれか1項に記載の画像生成装置であって、
    前記姿勢算出手段は、
    前記撮像装置と前記ユーザとの相対距離及び前記撮像装置の撮像方向の角度に応じて前記撮像装置によって撮像される前記ユーザの姿勢を反映した仮想キャラクタの姿勢を求める第1姿勢算出手段と、
    前記撮像装置の撮像方向の角度によらず、前記撮像装置と前記ユーザとの相対距離に応じて前記ユーザの姿勢を反映した仮想キャラクタの姿勢を求める第2姿勢算出手段と、
    を切り替えて処理することを特徴とする画像生成装置。
  10. コンピュータを、
    撮像装置とユーザとの相対距離に応じて前記撮像装置によって撮像されるユーザの姿勢を反映した仮想キャラクタの胴体部及び頭部の姿勢を求める姿勢算出手段と、
    前記仮想キャラクタの手の位置の入力をユーザから受け付ける手位置取得手段と、
    前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きを求める腕部算出手段と、
    前記仮想キャラクタの胴体部及び頭部の姿勢と前記仮想キャラクタの腕の動きを組み合わせた二次元画像を生成する仮想キャラクタ画像生成手段と、
    して機能させ
    前記腕部算出手段は、前記手の位置が前記仮想キャラクタの胴体部の幅方向沿って基準位置から離れるほど前記仮想キャラクタの胴体部の厚み方向に沿って後方に位置しているものとして前記手の位置と前記仮想キャラクタの胴体部との位置関係から前記仮想キャラクタの腕の動きをインバースキネマティックス処理により求めることを特徴とする画像生成プログラム。
JP2018086989A 2018-04-27 2018-04-27 画像生成装置及び画像生成プログラム Active JP6506443B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018086989A JP6506443B1 (ja) 2018-04-27 2018-04-27 画像生成装置及び画像生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018086989A JP6506443B1 (ja) 2018-04-27 2018-04-27 画像生成装置及び画像生成プログラム

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2019063101A Division JP2019192224A (ja) 2019-03-28 2019-03-28 画像生成装置及び画像生成プログラム

Publications (2)

Publication Number Publication Date
JP6506443B1 true JP6506443B1 (ja) 2019-04-24
JP2019192116A JP2019192116A (ja) 2019-10-31

Family

ID=66324241

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018086989A Active JP6506443B1 (ja) 2018-04-27 2018-04-27 画像生成装置及び画像生成プログラム

Country Status (1)

Country Link
JP (1) JP6506443B1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006886A (ja) * 2019-06-28 2021-01-21 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
CN112802163A (zh) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 游戏中的动画调整方法、装置以及电子终端
CN113658303A (zh) * 2021-06-29 2021-11-16 清华大学 一种基于单目视觉的虚拟人生成方法、装置

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7234187B2 (ja) * 2020-06-29 2023-03-07 グリー株式会社 情報処理プログラム、情報処理方法、情報処理装置

Family Cites Families (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3337938B2 (ja) * 1996-04-25 2002-10-28 松下電器産業株式会社 3次元骨格構造の動き送受信装置、および動き送受信方法
JP2003256862A (ja) * 2002-02-28 2003-09-12 Sony Communication Network Corp キャラクタ表示方法および装置
JP5085112B2 (ja) * 2006-12-01 2012-11-28 株式会社バンダイナムコゲームス プログラム、情報記憶媒体及びゲーム装置
JP5383668B2 (ja) * 2008-04-30 2014-01-08 株式会社アクロディア キャラクタ表示用データの生成装置および方法
JP2010233671A (ja) * 2009-03-30 2010-10-21 Namco Bandai Games Inc プログラム、情報記憶媒体及びゲーム装置
US20100302253A1 (en) * 2009-05-29 2010-12-02 Microsoft Corporation Real time retargeting of skeletal data to game avatar
JP6021460B2 (ja) * 2012-06-20 2016-11-09 株式会社セルシス 描画方法、プログラム、及び装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021006886A (ja) * 2019-06-28 2021-01-21 株式会社ドワンゴ コンテンツ制御システム、コンテンツ制御方法、およびコンテンツ制御プログラム
CN112802163A (zh) * 2021-02-03 2021-05-14 网易(杭州)网络有限公司 游戏中的动画调整方法、装置以及电子终端
CN112802163B (zh) * 2021-02-03 2023-09-15 网易(杭州)网络有限公司 游戏中的动画调整方法、装置以及电子终端
CN113658303A (zh) * 2021-06-29 2021-11-16 清华大学 一种基于单目视觉的虚拟人生成方法、装置

Also Published As

Publication number Publication date
JP2019192116A (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
US20220084279A1 (en) Methods for manipulating objects in an environment
JP6506443B1 (ja) 画像生成装置及び画像生成プログラム
US10521951B2 (en) 3D digital painting
JP4781181B2 (ja) ユーザインタフェースプログラム、装置および方法、情報処理システム
US10922870B2 (en) 3D digital painting
JP5936155B2 (ja) 3次元ユーザインタフェース装置及び3次元操作方法
JP4768196B2 (ja) 3次元モデリングを行うことなく画像処理によってターゲットを指し示す装置及びその方法
CN112198962B (zh) 一种与虚拟现实设备交互的方法及虚拟现实设备
US9734622B2 (en) 3D digital painting
JPWO2005119591A1 (ja) 表示制御方法および装置、プログラム、並びに携帯機器
EP3262505B1 (en) Interactive system control apparatus and method
US20140292749A1 (en) 3d digital painting
CN115917474A (zh) 在三维环境中呈现化身
WO2020080107A1 (ja) 情報処理装置、情報処理方法、及びプログラム
JP5103682B2 (ja) インタラクティブ看板システム
JP2019125215A (ja) 情報処理装置、情報処理方法、及び記録媒体
JP7499819B2 (ja) ヘッドマウントディスプレイ
JP2019192224A (ja) 画像生成装置及び画像生成プログラム
CN113498531A (zh) 头戴式信息处理装置以及头戴式显示系统
WO2006097722A2 (en) Interface control
JP6461394B1 (ja) 画像生成装置及び画像生成プログラム
KR20180045668A (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
KR101743888B1 (ko) 터치 유저 인터페이스를 이용한 카메라의 이동경로와 이동시간의 동기화를 위한 사용자 단말장치 및 컴퓨터 구현 방법
CN109144235A (zh) 基于头手协同动作的人机交互方法与系统

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180502

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180502

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180914

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20181017

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181023

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181211

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190226

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190328

R150 Certificate of patent or registration of utility model

Ref document number: 6506443

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250