JP6434667B1 - 仮想空間を提供するためのプログラム、システム、及び方法 - Google Patents

仮想空間を提供するためのプログラム、システム、及び方法 Download PDF

Info

Publication number
JP6434667B1
JP6434667B1 JP2018080648A JP2018080648A JP6434667B1 JP 6434667 B1 JP6434667 B1 JP 6434667B1 JP 2018080648 A JP2018080648 A JP 2018080648A JP 2018080648 A JP2018080648 A JP 2018080648A JP 6434667 B1 JP6434667 B1 JP 6434667B1
Authority
JP
Japan
Prior art keywords
avatar
user
virtual camera
virtual space
virtual
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018080648A
Other languages
English (en)
Other versions
JP2019191690A (ja
Inventor
俊治 黒木
俊治 黒木
快 星野
快 星野
秀行 笠井
秀行 笠井
洋介 根本
洋介 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
DeNA Co Ltd
Original Assignee
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by DeNA Co Ltd filed Critical DeNA Co Ltd
Priority to JP2018080648A priority Critical patent/JP6434667B1/ja
Application granted granted Critical
Publication of JP6434667B1 publication Critical patent/JP6434667B1/ja
Publication of JP2019191690A publication Critical patent/JP2019191690A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

【課題】 ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
【解決手段】
本発明の一実施形態に係るユーザ端末10は、仮想空間を用いたVRコンテンツをユーザに提供する。当該ユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報に基づいて仮想カメラを制御し、アバターが所定の動作を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。
【選択図】 図1

Description

本発明は、ユーザのアバターを含む仮想空間を提供するためのプログラム、システム、及び方法に関するものである。
従来、ユーザのアバターを含む仮想空間を提供するための様々なシステムが存在し、例えば、こうした仮想空間を、ユーザの頭部に装着されるヘッドマウントディスプレイ(以下、「HMD」と言うことがある。)又はVRゴーグル等を介したVR(Virtual Reality)画像として提供するシステムが提案されている(例えば、下記特許文献1を参照)。こうしたVR画像は、例えば、両眼の視差を利用した立体視映像として構成され、アバター自体の視野に対応する一人称の視野で表示されることにより、ユーザに没入感を与えることができる。
特開2018−028900号公報
しかしながら、例えば、アイテム(服装及びアクセサリー等)の設定を介してアバターの装飾が可能である場合等において、ユーザは、他のユーザのアバターだけでなく、ユーザ自身のアバターを見たいと考えられるところ、上述した一人称の視野ではユーザ自身のアバターを見ることができない。そこで、ユーザ自身のアバターを含む三人称の視野と一人称の視野とを適宜に切り替えることが考えられるが、こうした視野の切り替えは、ユーザの没入感を低減させてしまい、また、VR酔いの契機となり得る。
本発明の実施形態は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。
本発明の一実施形態に係るプログラムは、仮想空間を提供するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行させ、前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。
本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、仮想空間を提供するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行し、前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。
本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、仮想空間を提供するための方法であって、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示するステップと、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御するステップと、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御するステップと、を備え、前記仮想カメラを制御するステップは、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。
本発明の様々な実施形態は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図。 ユーザ端末10の構成を概略的に示すブロック図。 コントローラ30の外観を例示する図。 コントローラ30(タッチパッド32)に対する操作内容とアバター及び仮想カメラの動作との対応関係を示す図。 三人称の視野に対応する仮想カメラの位置を説明するための図。 三人称の視野に対応するVR画像50を例示する図。 仮想カメラが三人称の位置から一人称の位置に移動する様子を説明するための図。 走行中のアバターの一人称の視野に対応するVR画像50を例示する図。 仮想カメラがアバターを中心に回転移動する様子を説明するための図。 仮想カメラが回転移動している場合のVR画像50を例示する図。 ユーザの頭部の向きに仮想カメラの向きが連動することによって三人称の視野のVR画像50が変化する様子を説明するための図。 ユーザの頭部の向きに仮想カメラの向きが連動することによって一人称の視野のVR画像50が変化する様子を説明するための図。 走行中のアバターがユーザの頭部の向きに旋回する様子を説明するための図。 三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合にVR画像50が変化する様子を説明するための図。 三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合に仮想カメラが移動する様子を説明するための図。 ユーザ端末10A及びHMD20Aの構成を概略的に示すブロック図。
以下、図面を参照しながら、本発明の実施形態について説明する。
図1は、本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図である。ユーザ端末10は、図示するように、インターネット等の通信ネットワーク50を介して管理サーバ60と通信可能に接続されている。ユーザ端末10は、ユーザのアバターが含まれる仮想空間を用いたVRコンテンツ(例えば、ゲームコンテンツ等)を当該ユーザに提供する。ユーザ端末10は、本発明のシステムの全部又は一部を実装する装置の一例である。
本実施形態において、ユーザ端末10は、スマートフォン等のモバイル端末として構成されており、図1に示すように、VRゴーグル20(第1の装置)に取り付けられて使用される。ユーザは、ユーザ端末10が取り付けられたVRゴーグル20を頭部に装着してVRコンテンツを楽しむ。VRゴーグル20は、ユーザがVRコンテンツにおける立体視映像を見るためのレンズ等の機構を有する。
図2は、ユーザ端末10の構成を概略的に示すブロック図である。ユーザ端末10は、一般的なコンピュータとして構成されており、図示するように、CPU等のコンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15と、各種センサ16とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。
コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。
入出力I/F13は、例えば、タッチパネル、コントローラ等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。
本実施形態において、入出力I/F13は、ユーザが手で操作する物理的な装置であるコントローラ30(第2の装置)を含む。図3は、コントローラ30の外観を例示する。当該コントローラ30は、四隅が丸い略板状の形状を有しており、一方の面に円板形状のタッチパッド32が設けられている。当該タッチパッド32は、クリック可能なタッチパッドとして構成されており、ユーザの指によるタッチ状態(タッチ位置を含む。)を検知すると共に、クリック状態(クリック位置を含む。)を検知し、当該検知した情報を、無線又は有線の通信を介してユーザ端末10に送信するように構成されている。なお、こうした外観及び機能を有するコントローラ30は例示であって、本発明の実施形態におけるコントローラの外観及び機能は、これに限定されない。
図2に戻り、通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。
ストレージ15は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ15が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。本実施形態において、ストレージ15が記憶するプログラムは、本発明の一実施形態に係るコンテンツ用プログラム40を含む。コンテンツ用プログラム40は、ユーザ端末10を、仮想空間を用いたVRコンテンツを提供するための装置として機能させるためのプログラムである。
各種センサ16は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10は、これらの各種センサ16によって検知される情報に基づいて、ユーザ端末10の向き(姿勢、傾き、方位等)を特定することが出来る。
管理サーバ60は、一般的なコンピュータとしての構成を有する。管理サーバ60は、ユーザ端末10が提供するVRコンテンツに関する情報を記憶及び管理する。例えば、管理サーバ60は、ユーザ毎のコンテンツの進行状況(例えば、ゲームの進行状況)、及び、コンテンツデータ(例えば、仮想空間のデータ等)等を管理する。管理サーバ60は、それぞれが一般的なコンピュータとしての構成を有する複数のサーバ装置を用いて構成され得る。
例えば、ユーザ端末10は、コンテンツ用プログラム40の起動に応じて、ユーザのコンテンツの進行状況及びコンテンツデータを管理サーバ60から取得する。また、例えば、ユーザ端末10は、コンテンツ用プログラム40の実行中において、コンテンツデータを管理サーバ60から取得し、及び、ユーザの最新のコンテンツの進行状況を管理サーバ60に対して送信する。なお、本実施形態において、ユーザ端末10は、管理サーバ60との通信なしにコンテンツを提供するように構成することができ、この場合、管理サーバ60は不要となり得る。
次に、本実施形態のユーザ端末10が有する機能について説明する。図2に示すように、ユーザ端末10のコンピュータプロセッサ11は、メインメモリ12に読み込まれたプログラムに含まれる命令を実行することによって、画像生成表示部111、及び、仮想空間制御部112として機能するように構成されている。
画像生成表示部111は、VRコンテンツに用いられる仮想空間の画像の生成及び表示に関する様々な処理を実行する。例えば、画像生成表示部111は、ユーザの頭部に装着されるVRゴーグル20に取り付けられているユーザ端末10において、仮想空間内に位置する仮想カメラの視野に応じた当該仮想空間の立体視映像に対応する画像を表示するように構成されている。仮想空間は、例えば、三次元の仮想空間として構成される。例えば、画像生成表示部111は、仮想空間の立体視映像に対応する左目用の画像と右目用の画像とをそれぞれ生成してユーザ端末10において表示するように構成される。
仮想空間制御部112は、VRコンテンツに用いられる仮想空間の制御に関する様々な処理を実行する。例えば、仮想空間制御部112は、仮想空間内に存在するアバターの制御に関する処理を実行する。本実施形態において、当該アバターの制御は、ユーザによってコントローラ30を介して入力される入力情報(第1の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、コントローラ30のタッチパッド32に対するユーザによる操作入力に従ってアバターを動作させる。
また、仮想空間制御部112は、仮想空間内に位置する仮想カメラの制御に関する処理を実行する。本実施形態において、当該仮想カメラの制御は、ユーザの頭部の動きに応じて入力される入力情報(第2の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、ユーザの頭部に装着されるVRゴーグル20に取り付けられたユーザ端末10又はその他の装置を介してユーザの頭部の動きに応じて入力される入力情報に従って仮想カメラの位置、向き等を制御する。なお、仮想空間制御部112は、ユーザの頭部の動きに応じて入力される入力情報に基づく上述した仮想カメラの制御の他、例えば、仮想空間におけるユーザのアバターを追随させるような仮想カメラの制御も行うように構成され得る。
本実施形態において、仮想空間制御部112は、上述した仮想カメラの制御に加えて、アバターの所定の動作の開始に応じて、仮想カメラの位置を、当該アバターを視野に含む三人称の視野に対応する位置(第1の位置)からアバター自体の視野に対応する一人称の視野に対応する位置(第2の位置)に変化させるように構成されている。
このように、本実施形態におけるユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報に基づいて仮想カメラを制御し、アバターが所定の動作を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30に対する操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
本実施形態において、仮想カメラの位置を三人称の位置から一人称の位置に自動的に変化させる契機となるアバターの上記所定の動作は、様々な動作が含まれ得る。当該所定の動作は、典型的には、一人称の視野でユーザに没入感を与えることが好ましい動作であり、例えば、移動を含む。この場合、仮想空間制御部112は、アバターの移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、ユーザによるコントローラ30に対する所定の操作入力に応じてアバターが移動を開始すると、仮想カメラの位置を、当該アバター自体の視野に対応する一人称の位置に変化させる。こうした構成は、仮想カメラの位置を、アバターの移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。
また、本実施形態において、仮想空間制御部112は、アバターを、第1の速度、及び、当該第1の速度よりも速い第2の速度で移動させるように構成することができ、この場合、上記所定の動作は、第2の速度での移動を含む。例えば、仮想空間制御部112は、アバターの第2の速度での移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、コントローラ30に対する第1の操作入力に応じてアバターを上記第1の速度で移動させると共に仮想カメラの位置が三人称の位置となるように当該仮想カメラを制御する一方、コントローラ30に対する第2の操作入力に応じてアバターを上記第2の速度で移動させると共に仮想カメラの位置が一人称の位置となるように当該仮想カメラを制御する。こうした構成は、仮想カメラの位置を、アバターの高速(第2の速度)での移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。
本実施形態において、仮想空間制御部112は、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに基づいて仮想カメラの向きを制御するように構成され得る。例えば、仮想空間制御部112は、各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きを制御するように構成される。この場合、仮想空間制御部112は、移動中のアバターを、仮想カメラの向きに基づいて旋回させるように構成され得る。例えば、仮想空間制御部112は、ユーザの頭部の向きに基づく仮想カメラの向きが正面方向である場合はアバターを直進させる一方、当該仮想カメラの向きが正面方向よりも右側(又は左側)である場合はアバターを右方向(又は左方向)に旋回移動させる。こうした構成は、一人称の視野であるアバターの移動中においてユーザの頭部の向きに基づいて(首を振ることにより)アバターを旋回させることが可能となるから、ユーザが得られる没入感とアバターの操作性との良好なバランスが実現される。
また、仮想空間制御部112は、仮想カメラの位置を、アバターの所定の動作の開始に応じて、三人称の位置から一人称の位置に第1の時間で変化させる一方、当該所定の動作の終了に応じて、一人称の位置から三人称の位置に、上記第1の時間よりも短い第2の時間で変化させるように構成され得る。こうした構成は、三人称の視野から一人称の視野に変化する際のユーザのVR酔いを抑制しつつ、一人称の視野から三人称の視野への迅速な切り替えを可能とする。
次に、このような機能を有する本実施形態のユーザ端末10の具体例について説明する。この具体例において、ユーザ端末10は、VRコンテンツとして、複数のユーザが、同じ仮想空間に存在する各ユーザのアバターを用いてプレイするゲームを提供する。こうしたゲームは、例えば、仮想空間において複数のアバターが「鬼ごっこ」を行うゲームが含まれる。
この例において、アバターの動作は、コントローラ30のタッチパッド32を介した操作入力によって制御される。図4は、コントローラ30(タッチパッド32)に対する操作内容とアバター及び仮想カメラの動作との対応関係を示す。この例では、図示するように、まず、コントローラ30のタッチパッド32が触れられていない状態(非タッチ状態)である場合、アバターは移動しない(停止している)。また、仮想カメラも移動せず、その位置は、ユーザ自身のアバターを視野に含む三人称の視野に対応する位置である。具体的には、仮想カメラの位置は、アバターとの間の相対的な位置関係が所定の関係(例えば、所定の方位に所定の距離だけ離れた所定の高さの位置)となる位置である。
図5は、三人称の視野に対応する仮想カメラの位置を説明するための図である。図示するように、仮想カメラ104は、仮想空間100の地面103に立っているアバター102の斜め上方に位置しており、その視野には当該アバター102が含まれている。
図6は、VRゴーグル20を介してユーザに提示されるVR画像50であって三人称の視野に対応するVR画像50を例示する。図示するように、三人称の視野に対応するVR画像50は、仮想空間100に位置するアバター102が含まれる。なお、例示されるVR画像50は、ユーザが立体視映像として見る画像を模式的に示したものであり、実際には、ユーザ端末10のディスプレイ等において、両眼視差による立体視映像を実現するための左目用の画像と右目用の画像との2つの画像が表示される。
図4に戻り、タッチパッド32が触れられている状態(タッチ状態)であって押されていない状態(非クリック状態)である場合、アバターは、タッチパッド32のタッチ位置に対応する方向に歩行(第1の速度で移動)する。この例では、タッチパッド32のタッチ位置に応じて、アバターは、8方向(上、下、左、右、右上、右下、左上、及び左下)の何れかに対応する方向を向いて歩行する。また、仮想カメラは、三人称の位置を維持しつつ、歩行するアバターを追従する。具体的には、アバターと仮想カメラとの間の相対的な位置関係が維持されるように、仮想カメラを移動させる。
また、タッチパッド32の上部が押された(クリックされた)場合、アバターは、前方(その時点におけるアバターの視野(視線)の方向)に向かって走行(上記第1の速度よりも速い第2の速度で移動)する。また、仮想カメラは、三人称の位置から、ユーザのアバター自体の視野に対応する一人称の位置に移動し、その後、走行するアバターを追従する。また、同様に、タッチパッド32の下部が押された(クリックされた)場合、アバターは、後方(その時点におけるアバターの視野(視線)の反対方向)に向かって走行し、仮想カメラは、三人称の位置から一人称の位置に移動し、その後、走行するアバターを追従して移動する。例えば、鬼ごっこの鬼であるユーザは、他のユーザのアバターを見つけた場合に、タッチパッド32の上部を押すことにより、自身のアバターを当該他のユーザのアバターに向けて走行させることができる。また、例えば、鬼ごっこの鬼以外の(子である)ユーザは、鬼のユーザのアバターを見つけた場合に、タッチパッド32の下部を押すことにより、自身のアバターを当該他のユーザのアバターから逃げるように走行させることができる。
図7は、仮想カメラが、三人称の位置から一人称の位置に移動する様子を説明するための図である。図7の上段に示すように、アバター102の視野(視線)の方向が矢印ARの方向(図7において左方向)であって、仮想カメラ104が、アバター102の後側上方に位置している状態(タッチパッド32の上部が触れられてアバター102が矢印ARの方向に歩行している状態が想定される。)から、タッチパッド32の上部が押さると(クリックされると)、図7の下段に示すように、アバター102は、視野の方向(矢印ARの方向)に向かって走行し、仮想カメラ104は、アバター102の視野の方向と同じ方向の視野となるように、所定の軌跡BL1に沿って移動する。当該移動は、所定の時間(例えば、1秒)をかけて行われる。このように、仮想カメラを三人称の位置から一人称の位置に移動させる際に所定の時間を要することにより、一人称の視野への切り替え時におけるユーザのVR酔いが抑制される。なお、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が中止され、仮想カメラ104は、一人称の位置から三人称の位置へと戻る。この場合、一人称の位置から三人称の位置への切り替えは、上記所定の時間をかけることなく直ちに行われる。
図8は、走行中のアバターの一人称の視野に対応するVR画像50を例示する。図示するように、当該VR画像50は、仮想空間100を、アバター102自体の視野に対応する視野で表示する。また、図示するように、当該VR画像50は、トンネリングの処理が施されている。具体的には、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、走行中のアバターの一人称の視野で画像を表示することに起因するユーザのVR酔いを抑制し得る。
図4に戻り、タッチパッド32の右部が押された(クリックされた)場合、アバターは移動しない。一方、仮想カメラは、三人称の位置を維持したまま、アバターを中心に時計回りで回転移動する。また、同様に、タッチパッド32の左部が押された(クリックされた)場合、アバターは移動せず、仮想カメラは、三人称の位置を維持したまま、アバターを中心に反時計回りで回転移動する。
図9は、仮想カメラがアバターを中心に回転移動する様子を説明するための図である。図示するように、仮想カメラ104は、アバター102を中心とする所定の円状の軌跡BL2に沿って回転移動する。なお、回転移動する際に、仮想カメラ104の視野(視線)の方向は、アバター102の方向となるように維持される。
図10は、仮想カメラがアバターを中心に回転移動している場合のVR画像50を例示する。図示するように、この場合のVR画像50は、アバター102を含む三人称の視野で仮想空間100を表示しつつ、トンネリングの処理が施されている。具体的には、図8に例示した走行中のアバターの一人称の視野に対応するVR画像50と同様に、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、仮想カメラの回転移動に起因するユーザのVR酔いを抑制し得る。なお、走行中のアバターの一人称の視野に対応するVR画像50におけるトンネリングの処理と、仮想カメラが回転移動している場合のVR画像50におけるトンネリングの処理との間の処理の強度(視野を狭くする程度。つまり、例えば、仮想空間の画像を表示する中央の円形領域の大きさ等)を変化させるようにしても良い。例えば、走行中のアバターの一人称の視野に対応するVR画像よりも、仮想カメラが回転移動している場合のVR画像50の方が、ユーザのVR酔いを生じさせ易いと考えることができるから、前者よりも後者の方が、トンネリングの処理の強度を強くする(例えば、仮想空間の画像を表示する中央の円形領域の大きさを小さくする等)ようにしても良い。
上述したように、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が停止され、仮想カメラは、一人称の位置から三人称の位置へと戻るが、こうしたコントローラ30(タッチパッド32)に対する操作入力以外のイベントを契機としてアバターの走行が中断される場合についても、仮想カメラは、一人称の位置から三人称の位置へと戻る。例えば、鬼以外のユーザのアバターが走行中に鬼のユーザのアバターに捕まったり、アイテムの効果(例えば、爆弾アイテムの爆発)によってアバターの走行が中断されたり、アバターの体力が消耗することによって走行が中断されたり、時間制限等によりゲームが終了して走行が中断される場合において、仮想カメラは、一人称の位置から三人称の位置へと戻る。
また、この例では、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きが制御される。例えば、図11の上段に示すように、三人称の視野のVR画像50の中央にアバター102が位置する状態で、ユーザの顔が右上方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが右上方向となり、図11の下段に示すように、VR画像50の左下にアバター102が位置する状態となる。
また、この例では、アバターが走行中である場合、ユーザの頭部の向きに連動するように仮想カメラの向きが制御されると共に、走行中のアバターは、ユーザの頭部の向きに旋回するように制御される。例えば、図12の上段に示すように、一人称の視野のVR画像50の中央に木型のオブジェクト106が位置する状態で、ユーザの顔が左方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが左方向となり、図12の下段に示すように、VR画像50の右にオブジェクト106が位置する状態となる。更に、図13に示すように、走行中のアバター102は、軌跡BL3に沿って左方向に旋回する。このように、この例では、ユーザの頭部の動きによって、走行中のアバター102を旋回させる制御が可能となっており、ユーザが得られる没入感とアバター102の操作性との良好なバランスが実現されている。
上述した具体例、又は、本実施形態の他の例において、三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合に、ユーザ自身のアバターと他のユーザのアバターとを比較して鑑賞しやすいように、当該仮想カメラを制御するようにしても良い。例えば、図14の上段に示すように、三人称の仮想カメラの視野に他のユーザのアバター108が入った場合、図14の下段に示すように、仮想カメラは、そのアングルが低くなると共に、ユーザのアバター102と他のユーザのアバター108との間の位置を視野の中心とし、且つ、被写体までの距離が近づくように制御される(図15を参照)。
以上説明した本実施形態に係るユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報(例えば、タッチパッド30に対する操作内容)に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報(例えば、ユーザ端末10に設けられた各種センサ16を介して検知されるユーザの頭部の向き)に基づいて仮想カメラを制御し、アバターが所定の動作(例えば、走行)を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30の操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。
上述した実施形態では、ユーザ端末10は、VRゴーグル20に取り付けられるスマートフォン等のモバイル端末として構成したが、本発明の他の実施形態におけるユーザ端末10Aは、ユーザの頭部に装着されるHMD20Aとは別体の装置(例えば、据え置き型のコンピュータ装置を含む。)として構成される。図16は、当該他の実施形態におけるユーザ端末10A及びHMD20Aの構成を概略的に示すブロック図である。HMD20Aは、入出力I/F21と、通信I/F22と、各種センサ23と、を有し、各種センサ23は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10Aは、HMD20Aが有する各種センサ23によって検知される情報を当該HMD20Aから受信し、当該受信した情報に基づいてHMD20Aの向き(姿勢、傾き、方位等)を特定し、特定したHMD20Aの向きに基づいて仮想カメラの向きを制御するように構成される。なお、この実施形態において、VR画像は、ユーザ端末10AからHMD20Aに送信され、当該HMD20Aのディスプレイ(入出力I/F21)等において表示される。
本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。
本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。
本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。
10、10A ユーザ端末
11 コンピュータプロセッサ
111 画像生成表示部
112 仮想空間制御部
20 VRゴーグル(第1の装置)
20A HMD(第1の装置)
30 コントローラ(第2の装置)
32 タッチパッド
40 コンテンツ用プログラム
50 VR画像
100 仮想空間
102 アバター
104 仮想カメラ


Claims (7)

  1. 仮想空間を提供するためのプログラムであって、
    1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
    ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、
    前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、
    前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行させ、
    前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に第1の時間で変化させる一方、前記アバターの前記所定の動作の終了に応じて、前記仮想カメラの位置を、前記第2の位置から前記第1の位置に前記第1の時間よりも短い第2の時間で変化させることを含む、
    プログラム。
  2. 前記所定の動作は、移動を含む、
    請求項1のプログラム。
  3. 前記アバターを制御する処理は、前記アバターを第1の速度で移動させること、及び、前記アバターを前記第1の速度よりも速い第2の速度で移動させることを含み、
    前記所定の動作は、前記第2の速度での移動を含み、前記第1の速度での移動を含まない
    請求項1のプログラム。
  4. 前記第2の入力情報は、前記第1の装置に設けられたセンサを介して検知される前記ユーザの頭部の向きを含み、
    前記仮想カメラを制御する処理は、前記ユーザの頭部の向きに基づいて、前記仮想カメラの向きを制御することを含む、
    請求項1ないし3何れかのプログラム。
  5. 前記所定の動作は、移動を含み、
    前記アバターを制御する処理は、移動中のアバターを、前記仮想カメラの向きに基づいて旋回させることを含む、
    請求項4のプログラム。
  6. 1又は複数のコンピュータプロセッサを備え、仮想空間を提供するためのシステムであって、
    前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
    ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、
    前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、
    前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行し、
    前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に第1の時間で変化させる一方、前記アバターの前記所定の動作の終了に応じて、前記仮想カメラの位置を、前記第2の位置から前記第1の位置に前記第1の時間よりも短い第2の時間で変化させることを含む、
    システム。
  7. 1又は複数のコンピュータによって実行され、仮想空間を提供するための方法であって、
    ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示するステップと、
    前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御するステップと、
    前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御するステップと、を備え、
    前記仮想カメラを制御するステップは、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に第1の時間で変化させる一方、前記アバターの前記所定の動作の終了に応じて、前記仮想カメラの位置を、前記第2の位置から前記第1の位置に前記第1の時間よりも短い第2の時間で変化させることを含む、
    方法。
JP2018080648A 2018-04-19 2018-04-19 仮想空間を提供するためのプログラム、システム、及び方法 Active JP6434667B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018080648A JP6434667B1 (ja) 2018-04-19 2018-04-19 仮想空間を提供するためのプログラム、システム、及び方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080648A JP6434667B1 (ja) 2018-04-19 2018-04-19 仮想空間を提供するためのプログラム、システム、及び方法

Publications (2)

Publication Number Publication Date
JP6434667B1 true JP6434667B1 (ja) 2018-12-05
JP2019191690A JP2019191690A (ja) 2019-10-31

Family

ID=64560674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080648A Active JP6434667B1 (ja) 2018-04-19 2018-04-19 仮想空間を提供するためのプログラム、システム、及び方法

Country Status (1)

Country Link
JP (1) JP6434667B1 (ja)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095125A (ja) * 2018-12-11 2020-06-18 株式会社Psychic VR Lab 治療支援システムおよび治療支援プログラム
JP2020107251A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2020107252A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2020177607A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 一人称視点モードと三人称視点モードとの間で切り替え可能なヘッドマウントディスプレイシステム、関連する方法、関連するプログラム及び関連する非一時的なコンピュータ可読記憶媒体
EP3734415A1 (en) * 2019-04-30 2020-11-04 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
JP2020201575A (ja) * 2019-06-06 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム
CN115639976A (zh) * 2022-10-28 2023-01-24 深圳市数聚能源科技有限公司 一种虚拟现实内容多模式多角度同步展示方法及系统

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7317893B2 (ja) * 2021-05-24 2023-07-31 株式会社コロプラ プログラム、方法及び情報処理装置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (ja) * 1993-12-21 1995-07-18 Sega Enterp Ltd ゲーム機における球技ゲームでの視点変更方法
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
JP2013009770A (ja) * 2011-06-28 2013-01-17 Square Enix Co Ltd ゲームプログラムおよびゲーム装置
US20140364228A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Sharing three-dimensional gameplay

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (ja) * 1993-12-21 1995-07-18 Sega Enterp Ltd ゲーム機における球技ゲームでの視点変更方法
JP2010231290A (ja) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology 頭部運動による入力装置及び方法
JP2013009770A (ja) * 2011-06-28 2013-01-17 Square Enix Co Ltd ゲームプログラムおよびゲーム装置
US20140364228A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Sharing three-dimensional gameplay

Cited By (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2020095125A (ja) * 2018-12-11 2020-06-18 株式会社Psychic VR Lab 治療支援システムおよび治療支援プログラム
JP2020107251A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2020107252A (ja) * 2018-12-28 2020-07-09 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP7335695B2 (ja) 2018-12-28 2023-08-30 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP7418956B2 (ja) 2018-12-28 2024-01-22 株式会社バンダイナムコエンターテインメント 画像生成システム及びプログラム
JP2020177607A (ja) * 2019-04-15 2020-10-29 未來市股▲ふん▼有限公司 一人称視点モードと三人称視点モードとの間で切り替え可能なヘッドマウントディスプレイシステム、関連する方法、関連するプログラム及び関連する非一時的なコンピュータ可読記憶媒体
US10978019B2 (en) 2019-04-15 2021-04-13 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
EP3734415A1 (en) * 2019-04-30 2020-11-04 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
JP2020201575A (ja) * 2019-06-06 2020-12-17 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム
JP7384576B2 (ja) 2019-06-06 2023-11-21 株式会社ソニー・インタラクティブエンタテインメント 表示制御装置、表示制御方法、及び表示制御プログラム
CN115639976A (zh) * 2022-10-28 2023-01-24 深圳市数聚能源科技有限公司 一种虚拟现实内容多模式多角度同步展示方法及系统
CN115639976B (zh) * 2022-10-28 2024-01-30 深圳市数聚能源科技有限公司 一种虚拟现实内容多模式多角度同步展示方法及系统

Also Published As

Publication number Publication date
JP2019191690A (ja) 2019-10-31

Similar Documents

Publication Publication Date Title
JP6434667B1 (ja) 仮想空間を提供するためのプログラム、システム、及び方法
US10463962B2 (en) Spectator view perspectives in VR environments
US11662813B2 (en) Spectating virtual (VR) environments associated with VR user interactivity
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
US11181990B2 (en) Spectator view tracking of virtual reality (VR) user in VR environments
US11278810B1 (en) Menu placement dictated by user ability and modes of feedback
JP7249975B2 (ja) 位置に基づくゲームプレイコンパニオンアプリケーションへユーザの注目を向ける方法及びシステム
CN116328317A (zh) 应用处理系统、应用处理方法以及应用处理程序
CN111831104B (zh) 头戴式显示系统、相关方法及相关计算机可读取记录媒体
JP2018190163A (ja) 情報処理方法、コンピュータ、及びプログラム
JP2018072604A (ja) Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置
JP6684746B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP7390541B2 (ja) アニメーション制作システム
CN114053693B (zh) 虚拟场景中的对象控制方法、装置及终端设备
JP6382928B2 (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP2022153476A (ja) アニメーション制作システム
JP2018170013A (ja) 仮想空間における画像の表示を制御するためにコンピュータによって実行される方法、当該方法をコンピュータに実現させるためのプログラム、および、コンピュータ装置
JP6893532B2 (ja) 情報処理方法、コンピュータ及びプログラム
JP2018032383A (ja) 仮想空間における入力を支援するための方法および装置ならびに当該方法をコンピュータに実行させるプログラム
JP2019015972A (ja) Vr酔いを抑制するための方法、当該方法をコンピュータに実行させるためのプログラムおよび、情報処理装置
US20230005205A1 (en) Animation production method
JP2018207517A (ja) ヘッドマウントデバイスにおける表示を制御するためにコンピュータで実行される方法、当該方法をコンピュータに実行させるプログラム、および情報処理装置
JP2019155113A (ja) 情報処理方法、コンピュータ、及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181108

R150 Certificate of patent or registration of utility model

Ref document number: 6434667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250