JP2019219702A - 仮想空間における仮想カメラの制御方法 - Google Patents

仮想空間における仮想カメラの制御方法 Download PDF

Info

Publication number
JP2019219702A
JP2019219702A JP2018114111A JP2018114111A JP2019219702A JP 2019219702 A JP2019219702 A JP 2019219702A JP 2018114111 A JP2018114111 A JP 2018114111A JP 2018114111 A JP2018114111 A JP 2018114111A JP 2019219702 A JP2019219702 A JP 2019219702A
Authority
JP
Japan
Prior art keywords
performer
virtual space
virtual
user
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018114111A
Other languages
English (en)
Inventor
義仁 近藤
Yoshihito Kondo
義仁 近藤
雅人 室橋
Masato Murohashi
雅人 室橋
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
XVI Inc
Original Assignee
XVI Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by XVI Inc filed Critical XVI Inc
Priority to JP2018114111A priority Critical patent/JP2019219702A/ja
Publication of JP2019219702A publication Critical patent/JP2019219702A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

【課題】本発明は、仮想空間においてキャラクタを演じるパフォーマに対し、より効率的な仮想カメラ等のオブジェクトの制御方法を提供することを目的とする。【解決手段】ユーザに装着されたヘッドマウントディスプレイに表示される仮想空間内に配置される仮想カメラの制御方法であって、前記仮想空間内に所定の領域を定義することと、 前記仮想空間内におけるユーザの位置を確認することと、前記所定の領域と前記ユーザの位置との関係に基づいて、前記仮想カメラを制御することを特徴とする。【選択図】図8

Description

本発明は、仮想空間における仮想カメラの制御方法を提供する。詳しくは、仮想空間におけるキャラクタをパフォーマによって操作が容易な仮想カメラの制御方法を提供する。
モーションキャプチャは、現実空間におけるパフォーマユーザ(以下、「パフォーマ」)の動きをデジタル的にキャプチャする技術であり、キャプチャした動きは、動画などのコンピュータアニメーションおよびゲーム等におけるキャラクタの動きの表現に利用される。
また、近年、パフォーマが装着したヘッドマウントディスプレイ(以下、「HMD」)の動きや、パフォーマが把持するコントローラによる入力を介した、仮想空間におけるキャラクタの制御方法が考案されている。
仮想空間におけるオブジェクトの位置や傾きを決定する方法として、仮想空間の所定の位置に配置される仮想カメラを用いる方法が挙げられる(例えば、特許文献1)。また、仮想空間に表示される三次元オブジェクトに重畳させるように操作パネルを表示し、操作者が操作パネルを用いてオブジェクトを操作することができる、HMD装置が開示されている。(例えば、特許文献2)
特開2017−146651号公報 特開2017−4457号公報
上記文献に開示される技術により、仮想カメラを、仮想空間内に表示される操作パネルを操作することで制御するが可能である。しかしながら、特に、仮想空間におけるキャラクタを、HMDやコントローラを使って演じるパフォーマに対し、仮想カメラを制御するために、更なる操作の負荷を課すことは酷である。
そこで、本発明は、仮想空間においてキャラクタを演じるパフォーマに対し、より効率的な仮想カメラ等のオブジェクトの操作環境を提供することを目的とする。
また、本発明は、コンテンツ制作者にとって、より利便性の高いコンテンツ制作環境を提供することを別の目的とする。
本発明における一実施形態により提供される、ユーザに装着されたヘッドマウントディスプレイに表示される仮想空間内に配置される仮想カメラの制御方法であって、前記仮想空間内に所定の領域を定義することと、前記仮想空間内におけるユーザの位置を確認することと、前記所定の領域と前記ユーザの位置との関係に基づいて、前記仮想カメラを制御することを特徴とする。
本発明によれば、仮想空間においてキャラクタを演じるパフォーマに対し、より効率的な仮想カメラ等のオブジェクトの操作環境を提供することができる。
また、本発明によれば、コンテンツ制作者にとって、より利便性の高いコンテンツ制作環境を提供することができる。
第1の実施形態にかかるヘッドマウントディスプレイ110の外観の模式図を示す。 第1の実施形態にかかるコントローラ210の外観の模式図を示す。 第1の実施形態にかかるHMDシステム300の構成図を示す。 第1の実施形態にかかるHMD110の機能構成図を示す。 第1の実施形態にかかるコントローラ210の機能構成図を示す。 第1の実施形態にかかる画像生成装置310の機能構成図を示す。 第1の実施形態にかかる、仮想カメラの制御方法の一例としてのフローチャートを示す。 第1の実施形態にかかる、仮想空間に配置される仮想カメラを説明する図を示す。 第1の実施形態にかかる、仮想空間に配置される仮想カメラの制御の方法(切り替え処理)を説明する図を示す。 第1の実施形態にかかる、仮想空間に配置される仮想カメラの制御の方法(ズーム処理)を説明する図を示す。 第2の実施形態にかかる、仮想空間におけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。 第3の実施形態にかかる、仮想空間のおけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。 第4の実施形態にかかる、仮想空間のおけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。
<実施形態1>
本発明の一実施形態に係るヘッドマウントディスプレイシステムを利用して、仮想空間内に配置される仮想カメラ等のオブジェクトを制御するプログラムの具体例を、以下に図面を参照しつつ説明する。なお、本発明はこれらの例示に限定されるものではなく、特許請求の範囲によって示され、特許請求の範囲と均等の意味及び範囲内でのすべての変更が含まれることが意図される。以下の説明では、図面の説明において同一の要素には同一の符号を付し、重複する説明を省略する。
図1は、本実施形態にかかるヘッドマウントディスプレイ(以下:HMD)110の外観の模式図を示す。HMD110はパフォーマの頭部に装着され、パフォーマの左右の眼前に配置されるよう表示パネル120を備える。表示パネルとしては、光学透過型と非透過型のディスプレイが考えられるが、本実施形態では、より没入感を提供可能な非透過型の表示パネルを例示する。表示パネル120には、左目用画像と右目用画像とが表示され、両目の視差を利用することにより立体感のある画像をパフォーマに提供することができる。左目用画像と右目用画像とを表示することができれば、左目用ディスプレイと右目用ディスプレイとを個別に備えることも可能であるし、左目用及び右目用の一体型のディスプレイを備えることも可能である。
さらに、HMD110の筐体部130は、センサ140を備える。センサは、パフォーマの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。パフォーマの頭部の垂直方向をY軸とし、Y軸と直交する軸のうち、表示パネル120の中心とパフォーマとを結ぶ、パフォーマの前後方向に相当する軸をZ軸とし、Y軸及びZ軸と直交し、パフォーマの左右方向に相当する軸をX軸とするとき、センサ140は、X軸まわりの回転角(いわゆる、ピッチ角)、Y軸まわりの回転角(いわゆる、ヨー角)、Z軸まわりの回転角(いわゆる、ロール角)を検出することができる。
さらに、またはセンサ140に代えて、HMD110の筐体部130は、複数の光源150(例えば、赤外光LED、可視光LED)を備えることもでき、HMD110の外部(例えば、室内等)に設置されたカメラ(例えば、赤外光カメラ、可視光カメラ)がこれらの光源を検出することで、特定の空間におけるHMD110の位置、向き、傾きを検出することができる。または、同じ目的で、HMD110に、HMD110の筐体部130に設置された光源を検出するためのカメラを備えることもできる。
さらに、HMD110の筐体部130は、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、パフォーマの左目及び右目の視線方向及び注視点を検出するために用いられる。アイトラッキング・センサとしては様々な方式が考えられるが、例えば、左目および右目に弱い赤外光を照射してできる角膜上の反射光の位置を基準点とし、反射光の位置に対する瞳孔の位置により視線方向を検出し、左目及び右目の視線方向の交点を注視点として検出する方法などが考えられる。
図2は、本実施形態にかかるコントローラ210の外観の模式図を示す。コントローラ210により、仮想空間内において、パフォーマが所定の入力を行うことをサポートすることができる。コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができる。左手用コントローラ220及び右手用コントローラ230は、各々操作用トリガーボタン240、赤外線LED250、センサ260、ジョイスティック270、メニューボタン280を有することができる。
操作用トリガーボタン240は、コントローラ210のグリップ235を把持したときに、中指及び人差し指でトリガーを引くような操作を行うことを想定した位置に240a、240bとして配置される。コントローラ210の両側面から下方にリング状に形成されるフレーム245には、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。
また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、コントローラ210の上面には、ジョイスティック270及びメニューボタン280を備えることができる。ジョイスティック270は、基準点を中心に360度方向に動かすことができ、コントローラ210のグリップ235を把持したときに、親指で操作されることが想定される。メニューボタン280もまた同様に、親指で操作されることが想定される。さらに、コントローラ210は、コントローラ210を操作するパフォーマの手に振動を与えるためのバイブレータ(図示せず)を内蔵することもできる。ボタンやジョイスティックを介したパフォーマの入力内容やセンサ等を介したコントローラ210の位置、向き及び傾きといった情報を出力するため、また、ホストコンピュータからの情報を受信するために、コントローラ210は、入出力部及び通信部を有する。
パフォーマがコントローラ210を把持し、各種ボタンやジョイスティックを操作することの有無、及び赤外線LEDやセンサにより検出される情報によって、システムはパフォーマの手の動きや姿勢を決定し、仮想空間内において擬似的にパフォーマの手を表示させ、動作させることができる。
図3は、本実施形態にかかるHMDシステム300の構成図を示す。HMDシステム300は、例えば、HMD110、コントローラ210及びホストコンピュータとして機能する画像生成装置310で構成することができる。さらに、HMD110やコントローラ210の位置、向き及び傾き等を検出するための赤外線カメラ(図示せず)等を追加することもできる。これらの装置は、相互に、有線又は無線手段により接続することができる。例えば、各々の装置にUSBポートを備え、ケーブルで接続することで通信を確立することもできるし、他に、HDMI(登録商標)、有線LAN、赤外線、Bluetooth(登録商標)、WiFi(登録商標)等の有線又は無線により通信を確立することもできる。画像生成装置310は、PC、ゲーム機、携帯通信端末等計算処理機能を有する装置であればよい。また、画像生成装置310は、インターネット等のネットワークを介して401A、401B、401C等の複数のユーザ装置と接続し、生成した画像をストリーミングまたはダウンロードの形態で送信することができる。ユーザ装置401A等は、各々インターネットブラウザを備えるか、適切なビューワを備えることで送信された画像を再生することができる。ここで、画像生成装置310は、複数のユーザ装置に対し、直接画像を送信することもできるし、他のコンテンツ配信サーバを介して画像を送信することもできる。
図4は、本実施形態にかかるHMD110の機能構成図を示す。図1において述べたように、HMD110は、センサ140を備えることができる。センサとしては、パフォーマの頭部の向きや傾きといった動きを検出するために、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、アイトラッキング・センサを備えることもできる。アイトラッキング・センサは、パフォーマの左目及び右目の視線方向及び注視点を検出するために用いられる。さらに精度よく、パフォーマの頭部の向きや傾きといった動きを検出したり、パフォーマの頭部の位置を検出したりするために、赤外光や紫外光といったLED150を備えることもできる。また、HMDの外景を撮影するためのカメラ160を備えることができる。また、パフォーマの発話を集音するためのマイク170、音声を出力するためのヘッドフォン180を備えることもできる。なお、マイクやヘッドフォンはHMD110とは別個独立した装置として有することもできる。
さらに、HMD110は、例えば、コントローラ210や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部190を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部115を備えることができる。センサ140により取得されたパフォーマの頭部の向きや傾きといった動きに関する情報は、制御部125によって、入出力部190及び/又は通信部115を介して画像生成装置310に送信される。詳細は後述するが、画像生成装置310において、パフォーマの頭部の動きに基づいて生成された画像は、入出力部190及び/又は通信部115を介して受信され、制御部125によって表示部120に出力される。
図5は、本実施形態にかかるコントローラ210の機能構成図を示す。図2において述べたように、コントローラ210は、コントローラ210は、左手用220及び右手用230のコントローラのセットとして構成することができるが、いずれのコントローラにおいても、操作用トリガーボタン240、ジョイスティック270、メニューボタン280といった操作部245を備えることができる。また、コントローラ210は、コントローラ210の向きや傾きといった動きを検出するために、センサ260を内蔵することができる。センサ260として、図示しないが、例えば、磁気センサ、加速度センサ、もしくはジャイロセンサのいずれか、またはこれらの組み合わせを備えることができる。さらに、複数の赤外線LED250が備えられ、コントローラ外部に備えられるカメラ(図示せず)により、これらの赤外線LEDの位置を検出することで、特定の空間におけるコントローラ210の位置、向き及び傾きを検出することができる。コントローラ210は、例えば、HMD110や画像生成装置310等の周辺装置との有線による接続を確立するための入出力部255を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部265を備えることができる。パフォーマにより操作部245を介して入力された情報及びセンサ260によって取得されたコントローラ210の向きや傾きといった情報は、入出力部255及び/又は通信部265を介して画像生成装置310に送信される。
図6は、本実施形態にかかる画像生成装置310の機能構成図を示す。画像生成装置310としては、HMD110やコントローラ210から送信された入力情報やセンサ等により取得されたパフォーマの頭部動きやコントローラの動きや操作に関する情報を記憶し、所定の計算処理を行い、画像を生成するための機能を有する、PC、ゲーム機及び携帯通信端末等といった装置を使用することができる。画像生成装置310は、例えば、HMD110やコントローラ210等の周辺装置との有線による接続を確立するための入出力部320を備えることができ、赤外線、Bluetooth(登録商標)やWiFi(登録商標)等無線による接続を確立するための通信部330を備えることができる。入出力部320及び/又は通信部330を介して、HMD110及び/又はコントローラ210から受信された、パフォーマの頭部の動きやコントローラの動きや操作に関する情報は、制御部340において、パフォーマの位置、視線、姿勢等の動作、発話、操作等を含めた入力内容として検出され、パフォーマの入力内容に応じて、記憶部350に格納された制御プログラムを実行することで、キャラクタの制御を行い、画像を生成するといった処理がなされる。制御部340は、CPUで構成することもできるが、画像処理に特化したGPUをさらに設けることで、情報処理と画像処理を分散化し、全体の処理の効率化を図ることもできる。画像生成装置310はまた、他の計算処理装置と通信を行い、他の計算処理装置に情報処理や画像処理を分担させることもできる。
さらに、画像生成装置310の制御部340は、HMD110及び/又はコントローラ210から受信された、パフォーマの頭部の動きやパフォーマの発話、また、コントローラの動きや操作に関する情報を検出するユーザ入力検出部610と、予め記憶部350のキャラクタデータ格納部660に格納されたキャラクタに対して、キャラクタ制御プログラム格納部670に格納された制御プログラムを実行するキャラクタ制御部620と、仮想カメラ制御プログラム格納部680に格納された仮想カメラ制御プログラムを実行する仮想カメラ制御部640と、キャラクタ制御や仮想カメラ制御に基づいて画像を生成する画像生成部630を有する。ここでキャラクタの動きの制御については、HMD110やコントローラ210を介して検出されたパフォーマ頭部の向きや傾き、手の動きといった情報を、人間の身体の関節の動きや制約に則って作成されたボーン構造の各部の動きに変換し、予め格納されたキャラクタデータに対して、ボーン構造を関連付けることで、ボーン構造の動きを適用させることで実現される。画像生成部630によって、背景画像を含むキャラクタ表示領域及びユーザ表示領域を含む仮想空間が生成される。仮想空間の画面は、ネットワークを経由して、各ユーザ装置の表示部に表示することもできるし、パフォーマが装着するHMD110の表示部120に表示することもできる。特にパフォーマが装着するHMD110の表示部120に表示される画面は、図7に示しように、パフォーマにしか表示されない情報を含むことができる。また、仮想空間の画面のほか、パフォーマの操作用の画面を表示部120に表示することもできる
記憶部350は、上述のキャラクタデータ格納部660に、キャラクタのイメージデータのほか、キャラクタの属性等キャラクタに関連する情報を格納する。また、制御プログラム格納部670は、仮想空間におけるキャラクタの動作や表情を制御するためのプログラム及びキャラクタやユーザアバタ等のコンテンツを含む仮想空間を生成するためのプログラムを格納する。なお、画像生成装置310の全部又は一部の機能を、画像を生成することだけに特化し、別途コンテンツ・サービスサーバを設けて、このコンテンツ・サービスサーバが、ユーザ装置に画像を送信し、また、ユーザ装置からアイテムやコメントを受け付ける等の機能を有することもできる。
図7は、第1の実施形態にかかる、仮想カメラの制御方法の一例としてのフローチャートを示す図である。また、図8乃至図10は、第1の実施形態にかかる、仮想空間に配置される仮想カメラの制御方法を説明する図を示す。本制御方法は、パフォーマが装着するHMD110やコントローラ210によって制御されるキャラクタを、HMD110に表示される所定の位置、角度から撮像する仮想カメラを制御する方法に係るものであり、上述の仮想カメラ制御プログラムを制御部340(さらに具体的には、仮想カメラ制御部640)において実行することで実現される。ここで、本例において、HMD110やPC等の所定のモニタに表示される仮想空間内で仮想カメラが撮像する対象は、パフォーマである。図8において、パフォーマの立ち位置を理解しやすくするため、パフォーマの頭部830等、パフォーマの身体の一部を仮想空間800内に表示することができる。
まず、図7に示すように、画像生成装置310は、入出力部320を介して、HMD110及び/又はコントローラ210から受信された、パフォーマの頭部の動きやパフォーマの発話、また、コントローラの動きや操作に関するユーザ入力情報を検出する(S101)。ここで、画像生成装置の仮想カメラ制御部640は、ユーザ入力情報を基に、図8に示す、パフォーマが装着するHMD110に表示される仮想空間内の所定の領域810A−821Cに、パフォーマの頭部や手指等の身体の一部が接触したか否かを確認する(S102)。所定の領域810A−810Cは、仮想空間内に立方体や直方体等の所定の領域を定義したものである。例えば、本確認処理は、パフォーマの頭部の動きやコントローラの動きや操作内容に基づき、パフォーマの、仮想空間内における位置座標を検出し、その位置座標と、上記所定の領域のいずれかの位置座標との相対位置を確認することで行われる。
続いて、上記確認処理において、パフォーマが所定の領域に接触したことを確認すると、仮想カメラ制御部640は、それまでパフォーマを撮像していた仮想カメラを、その領域に対応する仮想カメラに切り替えを行う(S103)。ここで、図8(a)において、仮想空間800内に、パフォーマ830に対し、3つの領域810A−810Cが配置され、各々の領域に対応する仮想カメラ820A−820Cが配置されている。図8(b)は、現在仮想カメラ820Bによって撮像されているキャラクタ画像を示す。そして、図9(a)に示すように、パフォーマ830が、領域810Aに触れると(例えば、パフォーマが前かがみになり、頭部を領域810Aに接触させる動作を行うと)、図9(b)に示すように、仮想カメラが820Bから820Aに切り替わる制御が行われ、キャラクタ画像が、向かって斜めの方向から撮像される。
続いて、図7に戻り、仮想カメラ制御部640は、所定の領域とパフォーマの距離に変更があったか、を確認する(S104)。ここで、図10(a)の仮想空間内において、パフォーマが領域810Aから遠ざかる動作を行うと、仮想カメラ制御部640は、入出力部320を介して、領域810Aとパフォーマ830との距離の変化を検出する。続いて、図10(b)に示すように、仮想カメラ制御部640は、仮想カメラのズーム制御を行う(S105)。ここで、図10の例では、領域810Aに対して、パフォーマ830が遠ざかる動作を行っているので、ズームアウト処理が実行されるが、近づくことでズームイン処理を実行させることもできる。その他、パフォーマが頭部を傾けたり、頭部の方向を変えたりすることで、仮想カメラの姿勢や方向を変化させる制御を実行することもできる。ここで、上記のように、パフォーマ830が、領域810A−810Cのいずれかに頭部を接触させる動作を行うか、及び/または、パフォーマ830が、各領域との距離を変化させる動作を行うことで、対応するキャラクタの表情を変化させるよう制御することもできる。例えば、パフォーマ830が頭部を810Aに接触させる動作を行うと、仮想カメラがキャラクタにズームされると同時に、キャラクタが予め設定された表情に変化する(いわゆる、「キメ顔」をする)よう制御することができる。
<実施形態2>
本実施形態においては、HMD110やPC等の所定のモニタに表示される仮想空間において、パフォーマからキャラクタを見る視点を自在に変更することができ、かつ、仮想空間内に表示されるキャラクタやアイテムを自在に操作することができる、という特徴を有する仮想空間を提供する。
図11に、第2の実施形態にかかる、仮想空間のおけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。本実施形態にかかる、HMDやユーザ装置を含むシステム構成、画像生成装置の構成は、本実施形態で特に言及されない限り同等の構成とすることができる。図11(a)において、パフォーマが装着する仮想空間900において、パフォーマが操作するキャラクタ930が中央のステージ上に表示され、仮想カメラ920が所定の位置に配置されている。ここで、キャラクタ930は、図示されない、キャラクタ930に対して正面の仮想カメラによって撮像されている。ステージ脇にはオーディエンス(ユーザアバタ等であってもよい)が配置され、HMD110を装着し、仮想空間を視聴するユーザは、あたかもライブコンサートに参加しているかのような感覚を覚えることができる。または、仮想空間の背景を変えることで、スタジオにおけるレコーディング風景に接したかの感覚を覚えることもできる。
図11(b)に示すように、ユーザが、コントローラ210等に所定の操作を行うことで、仮想カメラのズーム制御を行い、キャラクタ930を拡大表示し、更にコントローラ210等に所定の操作を行うことで、仮想空間に表示される手指によって、キャラクタ930のパーツに触れたり、キャラクタ930の容姿や姿勢に変更を加えたりすることができる。ここで、同じ仮想空間内に表示されるモニタ等に表示されるキャラクタを確認しながら、髪型のセッティングや手足等の位置等を調整することもできる。キャラクタ930の容姿や姿勢に変更を加え、スナップショットを仮想空間内で撮影し、画像生成装置の記憶部に蓄積して格納させることでアニメーションを生成したり、生成したアニメーションを仮想空間内で再生し、仮想空間内に配置される仮想カメラ操作(位置や方向の調整、拡大、縮小率の変更等)を行うことで、アニメーションの編集作業を行うことができる。生成されたアニメーションは画像生成装置の記憶部に記憶し、ネットワークに接続されるユーザ装置に対し、配信することもでき、また、ブルーレイディスク等の記憶媒体に転送し、個別に取引化することも可能である。
<実施形態3>
図12は、第3の実施形態にかかる、仮想空間のおけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。本実施形態にかかる、HMDやユーザ装置を含むシステム構成、画像生成装置の構成は、本実施形態で特に言及されない限り同等の構成とすることができる。本実施形態においては、仮想空間においてキャラクタを操作するパフォーマのみならず、例えば、キャラクタを撮像する仮想カメラ1020を操作するユーザ、キャラクタの音声を集音するマイク1040を操作するユーザ、キャラクタに光を照らすライティング1050を操作するユーザ、キャラクタの音声をオフレコ(図示せず)するユーザが、同じ仮想空間1000を共有する。各々のユーザは、各々が装着するHMDや、所有する所定のモニタに表示される仮想空間1000において、各々の機材を操作し、または、キャラクタ1030を操作することで番組等のコンテンツを生成し、そのコンテンツを不特定のユーザに配信することができる。従来のコンテンツ制作は現実世界において決められた場所(例えば、スタジオ等)で行われるところ、本実施形態によれば、ネットワークで接続された各ユーザ端末やHMD間で、作業用の仮想空間を共有することで、各々のユーザやパフォーマは、物理的制約なく容易にコンテンツ制作を行うことができる。
<実施形態4>
図13は、第4の実施形態にかかる、仮想空間のおけるパフォーマまたはコンテンツ制作者のコンテンツ制作環境を説明する図を示す。本実施形態にかかる、HMDやユーザ装置を含むシステム構成、画像生成装置の構成は、本実施形態で特に言及されない限り同等の構成とすることができる。図13において、ユーザまたはパフォーマは、キャラクタ1110のフェイシャル設定画面1100において、キャラクタ1110のフェイスを構成する各パーツ1130(例えば、眼、鼻、耳、口)のサイズ、位置、形状等のパラメータを設定することで、キャラクタ1110のフェイスを決定することができる。例えば、キャラクタ1110のフェイスを構成する各パーツの大きさを数段階のパラメータで設定し、各パーツの組合せをキャラクタ1110のフェイスとして設定することができる。また、図13(a)(b)に示すように、設定画面1100につまみ1120を配置し、フェイスの所望のパーツ1130をハイライトし、パラメータをつまみ1120を調節することで変化させ、キャラクタ1110のフェイスを決定することができる。ここで、設定したフェイスのパターン登録を行うことができる(例えば、図13(b)の「パターン1」(1140))。また、パフォーマは、自身が演じるコンテンツ毎に、同じキャラクタの異なるフェイスパターンを予め登録しておくこともできる。
110 ヘッドマウントディスプレイ
115 通信部
120 表示パネル
125 制御部
140 センサ
150 光源
160 カメラ
170 マイク
180 ヘッドフォン
190 入出力部
210 コントローラ
220 左手用コントローラ
230 右手用コントローラ
240a、240b トリガーボタン
245 操作部
250 赤外線LED
255 入出力部
260 センサ
270 ジョイスティック
280 メニューボタン
290 フレーム
310 画像生成装置
320 入出力部
330 通信部
340 制御部
350 記憶部
401A、401B、401C ユーザ装置
610 入力検出部
620 キャラクタ制御部
630 画像生成部
640 仮想カメラ制御部
660 キャラクタデータ格納部
670 キャラクタ制御プログラム格納部
680 仮想カメラ制御プログラム格納部














Claims (4)

  1. ユーザに装着されたヘッドマウントディスプレイに表示される仮想空間内に配置される仮想カメラの制御方法であって、
    前記仮想空間内に所定の領域を定義することと、
    前記仮想空間内におけるユーザの位置を確認することと、
    前記所定の領域と前記ユーザの位置との関係に基づいて、
    前記仮想カメラを制御することを特徴とする制御方法。
  2. 請求項1に記載の制御方法であって、
    前記仮想カメラは、前記仮想空間内の前記ユーザを撮像するよう配置されることを特徴とする制御方法。
  3. 請求項1に記載の制御方法であって、
    前記仮想カメラを制御することは、前記仮想空間内の前記ユーザを拡大または縮小することを含むことを特徴とする制御方法。
  4. ユーザに装着されたヘッドマウントディスプレイに表示される仮想空間内に配置される複数の仮想カメラの制御方法であって、
    前記複数の仮想カメラの各々と対応する、複数の所定の領域を仮想空間内に定義することと、
    前記仮想空間内におけるユーザの位置を確認することと、
    前記所定の領域のうち第1の所定の領域と前記ユーザの位置との関係に基づいて、
    前記第1の所定の領域に対応する仮想カメラを制御することを特徴とする制御方法。











JP2018114111A 2018-06-15 2018-06-15 仮想空間における仮想カメラの制御方法 Pending JP2019219702A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018114111A JP2019219702A (ja) 2018-06-15 2018-06-15 仮想空間における仮想カメラの制御方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018114111A JP2019219702A (ja) 2018-06-15 2018-06-15 仮想空間における仮想カメラの制御方法

Publications (1)

Publication Number Publication Date
JP2019219702A true JP2019219702A (ja) 2019-12-26

Family

ID=69096443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018114111A Pending JP2019219702A (ja) 2018-06-15 2018-06-15 仮想空間における仮想カメラの制御方法

Country Status (1)

Country Link
JP (1) JP2019219702A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7167388B1 (ja) 2021-12-24 2022-11-09 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7167388B1 (ja) 2021-12-24 2022-11-09 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
WO2023120691A1 (ja) * 2021-12-24 2023-06-29 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム
JP2023094758A (ja) * 2021-12-24 2023-07-06 正啓 榊原 動画作成システム、動画作成装置、及び動画作成用プログラム

Similar Documents

Publication Publication Date Title
JP6481057B1 (ja) 仮想空間におけるキャラクタの制御方法
JP2022184958A (ja) アニメーション制作システム
WO2021059361A1 (ja) アニメーション制作方法
JP2023116432A (ja) アニメーション制作システム
JP2022153476A (ja) アニメーション制作システム
JP2019219702A (ja) 仮想空間における仮想カメラの制御方法
JP2022153478A (ja) アニメーション制作システム
JP6964302B2 (ja) アニメーション制作方法
JP7218872B2 (ja) アニメーション制作システム
JP7390542B2 (ja) アニメーション制作システム
JP6955725B2 (ja) アニメーション制作システム
JP7218873B2 (ja) アニメーション制作システム
WO2021059365A1 (ja) アニメーション制作システム
JP2022025469A (ja) アニメーション制作システム
JP2023055752A (ja) アニメーション制作システム
JP2019133677A (ja) 仮想空間におけるキャラクタの制御方法
JP2019133673A (ja) 仮想空間におけるキャラクタの制御方法
JP2019133676A (ja) 仮想空間におけるキャラクタの制御方法
JP2019133674A (ja) 仮想空間におけるキャラクタの制御方法
JP2022025473A (ja) 動画配信方法
JP2019133672A (ja) 仮想空間におけるキャラクタの制御方法
JP2020149400A (ja) 仮想空間におけるキャラクタ同士のコミュニケーションの制御方法
JP2019133675A (ja) 仮想空間におけるキャラクタの制御方法
JP2020149397A (ja) 仮想空間におけるキャラクタ同士のコミュニケーションの制御方法
JP2019133644A (ja) 仮想空間におけるキャラクタの制御方法