JP2019191690A - Program, system, and method for providing virtual space - Google Patents

Program, system, and method for providing virtual space Download PDF

Info

Publication number
JP2019191690A
JP2019191690A JP2018080648A JP2018080648A JP2019191690A JP 2019191690 A JP2019191690 A JP 2019191690A JP 2018080648 A JP2018080648 A JP 2018080648A JP 2018080648 A JP2018080648 A JP 2018080648A JP 2019191690 A JP2019191690 A JP 2019191690A
Authority
JP
Japan
Prior art keywords
avatar
user
virtual camera
virtual space
controlling
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018080648A
Other languages
Japanese (ja)
Other versions
JP6434667B1 (en
Inventor
俊治 黒木
Toshiharu Kuroki
俊治 黒木
快 星野
Kai Hoshino
快 星野
秀行 笠井
Hideyuki Kasai
秀行 笠井
根本洋介
Yosuke Nemoto
洋介 根本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Interactive Brains Co Ltd
DeNA Co Ltd
Original Assignee
Interactive Brains Co Ltd
DeNA Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Interactive Brains Co Ltd, DeNA Co Ltd filed Critical Interactive Brains Co Ltd
Priority to JP2018080648A priority Critical patent/JP6434667B1/en
Application granted granted Critical
Publication of JP6434667B1 publication Critical patent/JP6434667B1/en
Publication of JP2019191690A publication Critical patent/JP2019191690A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

To support providing an image of a virtual space including an avatar of a user with an appropriate visual field.SOLUTION: A user terminal 10 according to one embodiment of the present invention provides VR content using a virtual space to a user. The user terminal 10 is configured to control an avatar based on input information input by the user via a controller 30 while controlling a virtual camera based on the input information input according to movement of the head of the user, and automatically change the position of the virtual camera from the third person position to the first person position when the avatar starts a predetermined operation.SELECTED DRAWING: Figure 1

Description

本発明は、ユーザのアバターを含む仮想空間を提供するためのプログラム、システム、及び方法に関するものである。   The present invention relates to a program, a system, and a method for providing a virtual space including a user's avatar.

従来、ユーザのアバターを含む仮想空間を提供するための様々なシステムが存在し、例えば、こうした仮想空間を、ユーザの頭部に装着されるヘッドマウントディスプレイ(以下、「HMD」と言うことがある。)又はVRゴーグル等を介したVR(Virtual Reality)画像として提供するシステムが提案されている(例えば、下記特許文献1を参照)。こうしたVR画像は、例えば、両眼の視差を利用した立体視映像として構成され、アバター自体の視野に対応する一人称の視野で表示されることにより、ユーザに没入感を与えることができる。   Conventionally, there are various systems for providing a virtual space including a user's avatar. For example, such a virtual space may be referred to as a head-mounted display (hereinafter referred to as “HMD”) worn on the user's head. .) Or a system provided as a VR (Virtual Reality) image via VR goggles or the like has been proposed (for example, see Patent Document 1 below). Such a VR image is configured as, for example, a stereoscopic video using binocular parallax, and is displayed in a first-person field of view corresponding to the field of view of the avatar itself, thereby providing an immersive feeling to the user.

特開2018−028900号公報Japanese Patent Laid-Open No. 2018-028900

しかしながら、例えば、アイテム(服装及びアクセサリー等)の設定を介してアバターの装飾が可能である場合等において、ユーザは、他のユーザのアバターだけでなく、ユーザ自身のアバターを見たいと考えられるところ、上述した一人称の視野ではユーザ自身のアバターを見ることができない。そこで、ユーザ自身のアバターを含む三人称の視野と一人称の視野とを適宜に切り替えることが考えられるが、こうした視野の切り替えは、ユーザの没入感を低減させてしまい、また、VR酔いの契機となり得る。   However, for example, when an avatar can be decorated through the setting of items (clothing and accessories), the user wants to see not only the other user's avatar but also the user's own avatar. In the first person view described above, the user's own avatar cannot be seen. Therefore, it is conceivable to appropriately switch between the third-person view including the user's own avatar and the first-person view, but such a view change reduces the user's immersive feeling and may be an opportunity for VR sickness. .

本発明の実施形態は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援することを目的の一つとする。本発明の実施形態の他の目的は、本明細書全体を参照することにより明らかとなる。   An object of an embodiment of the present invention is to support providing an image of a virtual space including a user's avatar with an appropriate field of view. Other objects of the embodiments of the present invention will become apparent by referring to the entire specification.

本発明の一実施形態に係るプログラムは、仮想空間を提供するためのプログラムであって、1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行させ、前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。   A program according to an embodiment of the present invention is a program for providing a virtual space, and is mounted on a user's head on the one or more computers according to execution on the one or more computers. In the first device to be processed, a process of displaying an image of the virtual space according to the field of view of the virtual camera located in the virtual space, and a second input input via the second device operated by the user At least based on the process of controlling the user's avatar located in the virtual space based on at least one input information, and on the second input information input according to the movement of the user's head, A process of controlling the virtual camera, and the process of controlling the virtual camera is configured to change the position of the virtual camera according to the start of a predetermined operation of the avatar. The containing from a first position, including a view changing to a second position corresponding to a field of view of the avatar itself.

本発明の一実施形態に係るシステムは、1又は複数のコンピュータプロセッサを備え、仮想空間を提供するためのシステムであって、前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行し、前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。   A system according to an embodiment of the present invention is a system that includes one or more computer processors and provides a virtual space, and the one or more computer processors respond to execution of readable instructions. In the first device worn on the user's head, a process of displaying an image of the virtual space according to the field of view of the virtual camera located in the virtual space, and a second device operated by the user A process for controlling the avatar of the user located in the virtual space based on at least first input information input via the second input, and a second input input according to the movement of the user's head A process for controlling the virtual camera based on at least information, and the process for controlling the virtual camera is performed in accordance with the start of a predetermined action of the avatar. The position of the virtual camera, including from a first position, including the avatar field changing to a second position corresponding to a field of view of the avatar itself.

本発明の一実施形態に係る方法は、1又は複数のコンピュータによって実行され、仮想空間を提供するための方法であって、ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示するステップと、前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御するステップと、前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御するステップと、を備え、前記仮想カメラを制御するステップは、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む。   A method according to an embodiment of the present invention is a method for providing a virtual space that is executed by one or a plurality of computers, in the first device mounted on a user's head, in the virtual space. At least based on the step of displaying an image of the virtual space according to the field of view of the virtual camera located at the first input information input via the second device operated by the user Controlling the avatar of the user located inside, and controlling the virtual camera based at least on second input information input according to the movement of the user's head, The step of controlling the virtual camera is configured to change the position of the virtual camera from the first position including the avatar in the field of view in response to the start of the predetermined operation of the avatar. It comprises changing to a second position corresponding to the field of view of the coater itself.

本発明の様々な実施形態は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。   Various embodiments of the present invention assist in providing an image of a virtual space containing a user's avatar with an appropriate field of view.

本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図。The lineblock diagram showing roughly the composition of the network containing user terminal 10 concerning one embodiment of the present invention. ユーザ端末10の構成を概略的に示すブロック図。2 is a block diagram schematically showing the configuration of a user terminal 10. FIG. コントローラ30の外観を例示する図。The figure which illustrates the external appearance of the controller. コントローラ30(タッチパッド32)に対する操作内容とアバター及び仮想カメラの動作との対応関係を示す図。The figure which shows the correspondence of the operation content with respect to the controller 30 (touchpad 32), and the operation | movement of an avatar and a virtual camera. 三人称の視野に対応する仮想カメラの位置を説明するための図。The figure for demonstrating the position of the virtual camera corresponding to a 3rd person's visual field. 三人称の視野に対応するVR画像50を例示する図。The figure which illustrates VR image 50 corresponding to the field of view of the third person. 仮想カメラが三人称の位置から一人称の位置に移動する様子を説明するための図。The figure for demonstrating a mode that a virtual camera moves to the position of the first person from the position of the third person. 走行中のアバターの一人称の視野に対応するVR画像50を例示する図。The figure which illustrates VR image 50 corresponding to the first person visual field of a running avatar. 仮想カメラがアバターを中心に回転移動する様子を説明するための図。The figure for demonstrating a virtual camera rotating about an avatar. 仮想カメラが回転移動している場合のVR画像50を例示する図。The figure which illustrates VR image 50 in case a virtual camera is rotating. ユーザの頭部の向きに仮想カメラの向きが連動することによって三人称の視野のVR画像50が変化する様子を説明するための図。The figure for demonstrating a VR image 50 of a 3rd person's visual field changing by the direction of a virtual camera interlock | cooperating with the direction of a user's head. ユーザの頭部の向きに仮想カメラの向きが連動することによって一人称の視野のVR画像50が変化する様子を説明するための図。The figure for demonstrating a VR image 50 of a 1st person's visual field changing by the direction of a virtual camera interlock | cooperating with the direction of a user's head. 走行中のアバターがユーザの頭部の向きに旋回する様子を説明するための図。The figure for demonstrating a mode that the avatar in running turns in the direction of a user's head. 三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合にVR画像50が変化する様子を説明するための図。The figure for demonstrating a mode that the VR image 50 changes, when the avatar of another user enters into the said visual field of the virtual camera of a 3rd person visual field. 三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合に仮想カメラが移動する様子を説明するための図。The figure for demonstrating a mode that a virtual camera moves, when an avatar of another user enters into the said visual field of the virtual camera of a 3rd person visual field. ユーザ端末10A及びHMD20Aの構成を概略的に示すブロック図。The block diagram which shows roughly the structure of user terminal 10A and HMD20A.

以下、図面を参照しながら、本発明の実施形態について説明する。   Hereinafter, embodiments of the present invention will be described with reference to the drawings.

図1は、本発明の一実施形態に係るユーザ端末10を含むネットワークの構成を概略的に示す構成図である。ユーザ端末10は、図示するように、インターネット等の通信ネットワーク50を介して管理サーバ60と通信可能に接続されている。ユーザ端末10は、ユーザのアバターが含まれる仮想空間を用いたVRコンテンツ(例えば、ゲームコンテンツ等)を当該ユーザに提供する。ユーザ端末10は、本発明のシステムの全部又は一部を実装する装置の一例である。   FIG. 1 is a configuration diagram schematically showing a configuration of a network including a user terminal 10 according to an embodiment of the present invention. As illustrated, the user terminal 10 is communicably connected to the management server 60 via a communication network 50 such as the Internet. The user terminal 10 provides the user with VR content (for example, game content) using a virtual space including the user's avatar. The user terminal 10 is an example of an apparatus that implements all or part of the system of the present invention.

本実施形態において、ユーザ端末10は、スマートフォン等のモバイル端末として構成されており、図1に示すように、VRゴーグル20(第1の装置)に取り付けられて使用される。ユーザは、ユーザ端末10が取り付けられたVRゴーグル20を頭部に装着してVRコンテンツを楽しむ。VRゴーグル20は、ユーザがVRコンテンツにおける立体視映像を見るためのレンズ等の機構を有する。   In the present embodiment, the user terminal 10 is configured as a mobile terminal such as a smartphone, and is used by being attached to a VR goggle 20 (first device) as shown in FIG. The user wears VR goggles 20 to which the user terminal 10 is attached to the head and enjoys VR content. The VR goggles 20 have a mechanism such as a lens for allowing a user to view a stereoscopic image in the VR content.

図2は、ユーザ端末10の構成を概略的に示すブロック図である。ユーザ端末10は、一般的なコンピュータとして構成されており、図示するように、CPU等のコンピュータプロセッサ11と、メインメモリ12と、入出力I/F13と、通信I/F14と、ストレージ(記憶装置)15と、各種センサ16とを備え、これらの各構成要素が図示しないバス等を介して電気的に接続されている。   FIG. 2 is a block diagram schematically showing the configuration of the user terminal 10. The user terminal 10 is configured as a general computer, and as shown in the figure, a computer processor 11 such as a CPU, a main memory 12, an input / output I / F 13, a communication I / F 14, and a storage (storage device) ) 15 and various sensors 16, and these components are electrically connected through a bus or the like (not shown).

コンピュータプロセッサ11は、ストレージ15等に記憶されている様々なプログラムをメインメモリ12に読み込んで、当該プログラムに含まれる各種の命令を実行する。メインメモリ12は、例えば、DRAM等によって構成される。   The computer processor 11 reads various programs stored in the storage 15 or the like into the main memory 12 and executes various instructions included in the programs. The main memory 12 is configured by, for example, a DRAM.

入出力I/F13は、例えば、タッチパネル、コントローラ等の情報入力装置、マイクロフォン等の音声入力装置、カメラ等の画像入力装置を含む。また、入出力I/F13は、ディスプレイ等の画像出力装置(表示装置)、スピーカー等の音声出力装置を含む。   The input / output I / F 13 includes, for example, an information input device such as a touch panel and a controller, a voice input device such as a microphone, and an image input device such as a camera. The input / output I / F 13 includes an image output device (display device) such as a display and an audio output device such as a speaker.

本実施形態において、入出力I/F13は、ユーザが手で操作する物理的な装置であるコントローラ30(第2の装置)を含む。図3は、コントローラ30の外観を例示する。当該コントローラ30は、四隅が丸い略板状の形状を有しており、一方の面に円板形状のタッチパッド32が設けられている。当該タッチパッド32は、クリック可能なタッチパッドとして構成されており、ユーザの指によるタッチ状態(タッチ位置を含む。)を検知すると共に、クリック状態(クリック位置を含む。)を検知し、当該検知した情報を、無線又は有線の通信を介してユーザ端末10に送信するように構成されている。なお、こうした外観及び機能を有するコントローラ30は例示であって、本発明の実施形態におけるコントローラの外観及び機能は、これに限定されない。   In the present embodiment, the input / output I / F 13 includes a controller 30 (second device) that is a physical device that is operated by a user's hand. FIG. 3 illustrates the appearance of the controller 30. The controller 30 has a substantially plate shape with rounded four corners, and a disk-shaped touch pad 32 is provided on one surface. The touch pad 32 is configured as a clickable touch pad, detects a touch state (including a touch position) by a user's finger, detects a click state (including a click position), and detects the touch state. The information is transmitted to the user terminal 10 via wireless or wired communication. The controller 30 having such an appearance and function is an example, and the appearance and function of the controller in the embodiment of the present invention are not limited to this.

図2に戻り、通信I/F14は、ネットワークアダプタ等のハードウェア、各種の通信用ソフトウェア、及びこれらの組み合わせとして実装され、有線又は無線の通信を実現できるように構成されている。   Returning to FIG. 2, the communication I / F 14 is implemented as hardware such as a network adapter, various types of communication software, and combinations thereof, and is configured to realize wired or wireless communication.

ストレージ15は、例えば磁気ディスク又はフラッシュメモリ等によって構成される。ストレージ15は、オペレーティングシステムを含む様々なプログラム及び各種データ等を記憶する。ストレージ15が記憶するプログラムは、アプリケーションマーケット等からダウンロードされてインストールされ得る。本実施形態において、ストレージ15が記憶するプログラムは、本発明の一実施形態に係るコンテンツ用プログラム40を含む。コンテンツ用プログラム40は、ユーザ端末10を、仮想空間を用いたVRコンテンツを提供するための装置として機能させるためのプログラムである。   The storage 15 is configured by, for example, a magnetic disk or a flash memory. The storage 15 stores various programs including an operating system, various data, and the like. The program stored in the storage 15 can be downloaded and installed from an application market or the like. In the present embodiment, the program stored in the storage 15 includes a content program 40 according to an embodiment of the present invention. The content program 40 is a program for causing the user terminal 10 to function as a device for providing VR content using a virtual space.

各種センサ16は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10は、これらの各種センサ16によって検知される情報に基づいて、ユーザ端末10の向き(姿勢、傾き、方位等)を特定することが出来る。   The various sensors 16 include, for example, an acceleration sensor, a gyro sensor (angular velocity sensor), a geomagnetic sensor, and the like. The user terminal 10 can specify the orientation (posture, inclination, orientation, etc.) of the user terminal 10 based on information detected by these various sensors 16.

管理サーバ60は、一般的なコンピュータとしての構成を有する。管理サーバ60は、ユーザ端末10が提供するVRコンテンツに関する情報を記憶及び管理する。例えば、管理サーバ60は、ユーザ毎のコンテンツの進行状況(例えば、ゲームの進行状況)、及び、コンテンツデータ(例えば、仮想空間のデータ等)等を管理する。管理サーバ60は、それぞれが一般的なコンピュータとしての構成を有する複数のサーバ装置を用いて構成され得る。   The management server 60 has a configuration as a general computer. The management server 60 stores and manages information related to VR content provided by the user terminal 10. For example, the management server 60 manages the progress of content (for example, the progress of a game) and content data (for example, virtual space data) for each user. The management server 60 can be configured using a plurality of server devices each having a configuration as a general computer.

例えば、ユーザ端末10は、コンテンツ用プログラム40の起動に応じて、ユーザのコンテンツの進行状況及びコンテンツデータを管理サーバ60から取得する。また、例えば、ユーザ端末10は、コンテンツ用プログラム40の実行中において、コンテンツデータを管理サーバ60から取得し、及び、ユーザの最新のコンテンツの進行状況を管理サーバ60に対して送信する。なお、本実施形態において、ユーザ端末10は、管理サーバ60との通信なしにコンテンツを提供するように構成することができ、この場合、管理サーバ60は不要となり得る。   For example, the user terminal 10 acquires the user's content progress status and content data from the management server 60 in response to the activation of the content program 40. For example, during execution of the content program 40, the user terminal 10 acquires content data from the management server 60 and transmits the progress status of the latest content of the user to the management server 60. In the present embodiment, the user terminal 10 can be configured to provide content without communication with the management server 60. In this case, the management server 60 may be unnecessary.

次に、本実施形態のユーザ端末10が有する機能について説明する。図2に示すように、ユーザ端末10のコンピュータプロセッサ11は、メインメモリ12に読み込まれたプログラムに含まれる命令を実行することによって、画像生成表示部111、及び、仮想空間制御部112として機能するように構成されている。   Next, functions of the user terminal 10 according to the present embodiment will be described. As shown in FIG. 2, the computer processor 11 of the user terminal 10 functions as an image generation display unit 111 and a virtual space control unit 112 by executing instructions included in a program read into the main memory 12. It is configured as follows.

画像生成表示部111は、VRコンテンツに用いられる仮想空間の画像の生成及び表示に関する様々な処理を実行する。例えば、画像生成表示部111は、ユーザの頭部に装着されるVRゴーグル20に取り付けられているユーザ端末10において、仮想空間内に位置する仮想カメラの視野に応じた当該仮想空間の立体視映像に対応する画像を表示するように構成されている。仮想空間は、例えば、三次元の仮想空間として構成される。例えば、画像生成表示部111は、仮想空間の立体視映像に対応する左目用の画像と右目用の画像とをそれぞれ生成してユーザ端末10において表示するように構成される。   The image generation / display unit 111 executes various processes related to generation and display of a virtual space image used for VR content. For example, in the user terminal 10 attached to the VR goggles 20 attached to the user's head, the image generation display unit 111 is a stereoscopic video of the virtual space according to the field of view of the virtual camera located in the virtual space. Is configured to display an image corresponding to. The virtual space is configured as, for example, a three-dimensional virtual space. For example, the image generation display unit 111 is configured to generate and display on the user terminal 10 a left-eye image and a right-eye image corresponding to a stereoscopic video in the virtual space.

仮想空間制御部112は、VRコンテンツに用いられる仮想空間の制御に関する様々な処理を実行する。例えば、仮想空間制御部112は、仮想空間内に存在するアバターの制御に関する処理を実行する。本実施形態において、当該アバターの制御は、ユーザによってコントローラ30を介して入力される入力情報(第1の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、コントローラ30のタッチパッド32に対するユーザによる操作入力に従ってアバターを動作させる。   The virtual space control unit 112 executes various processes related to control of the virtual space used for the VR content. For example, the virtual space control unit 112 executes processing related to control of an avatar that exists in the virtual space. In this embodiment, the control of the avatar is performed based on at least input information (first input information) input by the user via the controller 30. For example, the virtual space control unit 112 operates the avatar according to the operation input by the user on the touch pad 32 of the controller 30.

また、仮想空間制御部112は、仮想空間内に位置する仮想カメラの制御に関する処理を実行する。本実施形態において、当該仮想カメラの制御は、ユーザの頭部の動きに応じて入力される入力情報(第2の入力情報)に少なくとも基づいて行われる。例えば、仮想空間制御部112は、ユーザの頭部に装着されるVRゴーグル20に取り付けられたユーザ端末10又はその他の装置を介してユーザの頭部の動きに応じて入力される入力情報に従って仮想カメラの位置、向き等を制御する。なお、仮想空間制御部112は、ユーザの頭部の動きに応じて入力される入力情報に基づく上述した仮想カメラの制御の他、例えば、仮想空間におけるユーザのアバターを追随させるような仮想カメラの制御も行うように構成され得る。   Further, the virtual space control unit 112 executes processing related to control of a virtual camera located in the virtual space. In the present embodiment, the control of the virtual camera is performed based at least on input information (second input information) input according to the movement of the user's head. For example, the virtual space control unit 112 performs virtual operation according to input information input according to the movement of the user's head via the user terminal 10 or other device attached to the VR goggles 20 attached to the user's head. Control camera position, orientation, etc. In addition to the above-described control of the virtual camera based on the input information input according to the movement of the user's head, the virtual space control unit 112 is, for example, a virtual camera that follows the user's avatar in the virtual space. It can also be configured to provide control.

本実施形態において、仮想空間制御部112は、上述した仮想カメラの制御に加えて、アバターの所定の動作の開始に応じて、仮想カメラの位置を、当該アバターを視野に含む三人称の視野に対応する位置(第1の位置)からアバター自体の視野に対応する一人称の視野に対応する位置(第2の位置)に変化させるように構成されている。   In this embodiment, in addition to the above-described control of the virtual camera, the virtual space control unit 112 responds to the third-person view including the position of the virtual camera in the view of the avatar according to the start of the predetermined operation of the avatar. The position (first position) is changed to the position (second position) corresponding to the first person view corresponding to the field of view of the avatar itself.

このように、本実施形態におけるユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報に基づいて仮想カメラを制御し、アバターが所定の動作を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30に対する操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。   As described above, the user terminal 10 according to the present embodiment controls the avatar based on the input information input by the user via the controller 30, while based on the input information input according to the movement of the user's head. When the avatar starts a predetermined operation by controlling the virtual camera, the position of the virtual camera is automatically changed from the third person position to the first person position. Therefore, when the avatar starts a predetermined operation while controlling the avatar and the virtual camera by the operation on the controller 30 and the movement of the head, the user can obtain an immersive feeling in the first person view without any special operation. it can. Thus, the user terminal 10 in this embodiment supports providing an image of the virtual space including the user's avatar with an appropriate field of view.

本実施形態において、仮想カメラの位置を三人称の位置から一人称の位置に自動的に変化させる契機となるアバターの上記所定の動作は、様々な動作が含まれ得る。当該所定の動作は、典型的には、一人称の視野でユーザに没入感を与えることが好ましい動作であり、例えば、移動を含む。この場合、仮想空間制御部112は、アバターの移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、ユーザによるコントローラ30に対する所定の操作入力に応じてアバターが移動を開始すると、仮想カメラの位置を、当該アバター自体の視野に対応する一人称の位置に変化させる。こうした構成は、仮想カメラの位置を、アバターの移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。   In the present embodiment, the predetermined operation of the avatar that triggers the automatic change of the position of the virtual camera from the third person position to the first person position may include various operations. The predetermined operation is typically an operation that preferably gives the user an immersive feeling in the first person view, and includes, for example, movement. In this case, the virtual space control unit 112 is configured to change the position of the virtual camera from the third person position to the first person position in response to the start of movement of the avatar. For example, when the avatar starts moving in response to a predetermined operation input to the controller 30 by the user, the virtual space control unit 112 changes the position of the virtual camera to a first person position corresponding to the field of view of the avatar itself. Such a configuration makes it possible to automatically switch the position of the virtual camera to the position of the first person in accordance with the start of the movement of the avatar.

また、本実施形態において、仮想空間制御部112は、アバターを、第1の速度、及び、当該第1の速度よりも速い第2の速度で移動させるように構成することができ、この場合、上記所定の動作は、第2の速度での移動を含む。例えば、仮想空間制御部112は、アバターの第2の速度での移動の開始に応じて、仮想カメラの位置を、三人称の位置から一人称の位置に変化させるように構成される。例えば、仮想空間制御部112は、コントローラ30に対する第1の操作入力に応じてアバターを上記第1の速度で移動させると共に仮想カメラの位置が三人称の位置となるように当該仮想カメラを制御する一方、コントローラ30に対する第2の操作入力に応じてアバターを上記第2の速度で移動させると共に仮想カメラの位置が一人称の位置となるように当該仮想カメラを制御する。こうした構成は、仮想カメラの位置を、アバターの高速(第2の速度)での移動の開始に応じて一人称の位置に自動的に切り替えることを可能とする。   In this embodiment, the virtual space control unit 112 can be configured to move the avatar at the first speed and the second speed faster than the first speed. In this case, The predetermined operation includes movement at the second speed. For example, the virtual space control unit 112 is configured to change the position of the virtual camera from the third person position to the first person position in response to the start of movement of the avatar at the second speed. For example, the virtual space control unit 112 moves the avatar at the first speed according to the first operation input to the controller 30 and controls the virtual camera so that the position of the virtual camera becomes the third person position. The avatar is moved at the second speed in response to the second operation input to the controller 30, and the virtual camera is controlled so that the position of the virtual camera becomes the first person position. Such a configuration makes it possible to automatically switch the position of the virtual camera to the position of the first person in response to the start of movement of the avatar at a high speed (second speed).

本実施形態において、仮想空間制御部112は、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに基づいて仮想カメラの向きを制御するように構成され得る。例えば、仮想空間制御部112は、各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きを制御するように構成される。この場合、仮想空間制御部112は、移動中のアバターを、仮想カメラの向きに基づいて旋回させるように構成され得る。例えば、仮想空間制御部112は、ユーザの頭部の向きに基づく仮想カメラの向きが正面方向である場合はアバターを直進させる一方、当該仮想カメラの向きが正面方向よりも右側(又は左側)である場合はアバターを右方向(又は左方向)に旋回移動させる。こうした構成は、一人称の視野であるアバターの移動中においてユーザの頭部の向きに基づいて(首を振ることにより)アバターを旋回させることが可能となるから、ユーザが得られる没入感とアバターの操作性との良好なバランスが実現される。   In the present embodiment, the virtual space control unit 112 controls the orientation of the virtual camera based on the orientation of the user's head detected via various sensors 16 included in the user terminal 10 attached to the VR goggles 20. Can be configured. For example, the virtual space control unit 112 is configured to control the orientation of the virtual camera so as to be interlocked with the orientation of the user's head detected via the various sensors 16. In this case, the virtual space control unit 112 may be configured to turn the moving avatar based on the orientation of the virtual camera. For example, when the orientation of the virtual camera based on the orientation of the user's head is the front direction, the virtual space control unit 112 moves the avatar straight, while the orientation of the virtual camera is on the right side (or the left side) of the front direction. In some cases, the avatar is turned to the right (or left). Such a configuration makes it possible to turn the avatar based on the orientation of the user's head (by shaking his / her head) while the avatar is moving in the first person view. A good balance with operability is achieved.

また、仮想空間制御部112は、仮想カメラの位置を、アバターの所定の動作の開始に応じて、三人称の位置から一人称の位置に第1の時間で変化させる一方、当該所定の動作の終了に応じて、一人称の位置から三人称の位置に、上記第1の時間よりも短い第2の時間で変化させるように構成され得る。こうした構成は、三人称の視野から一人称の視野に変化する際のユーザのVR酔いを抑制しつつ、一人称の視野から三人称の視野への迅速な切り替えを可能とする。   In addition, the virtual space control unit 112 changes the position of the virtual camera from the third person position to the first person position in a first time according to the start of the predetermined operation of the avatar, while the predetermined operation ends. In response, the first person position may be changed to the third person position at a second time shorter than the first time. Such a configuration makes it possible to quickly switch from the first person view to the third person view while suppressing the VR sickness of the user when changing from the third person view to the first person view.

次に、このような機能を有する本実施形態のユーザ端末10の具体例について説明する。この具体例において、ユーザ端末10は、VRコンテンツとして、複数のユーザが、同じ仮想空間に存在する各ユーザのアバターを用いてプレイするゲームを提供する。こうしたゲームは、例えば、仮想空間において複数のアバターが「鬼ごっこ」を行うゲームが含まれる。   Next, a specific example of the user terminal 10 of this embodiment having such a function will be described. In this specific example, the user terminal 10 provides, as VR content, a game in which a plurality of users play using each user's avatar that exists in the same virtual space. Such a game includes, for example, a game in which a plurality of avatars play “games” in a virtual space.

この例において、アバターの動作は、コントローラ30のタッチパッド32を介した操作入力によって制御される。図4は、コントローラ30(タッチパッド32)に対する操作内容とアバター及び仮想カメラの動作との対応関係を示す。この例では、図示するように、まず、コントローラ30のタッチパッド32が触れられていない状態(非タッチ状態)である場合、アバターは移動しない(停止している)。また、仮想カメラも移動せず、その位置は、ユーザ自身のアバターを視野に含む三人称の視野に対応する位置である。具体的には、仮想カメラの位置は、アバターとの間の相対的な位置関係が所定の関係(例えば、所定の方位に所定の距離だけ離れた所定の高さの位置)となる位置である。   In this example, the motion of the avatar is controlled by an operation input via the touch pad 32 of the controller 30. FIG. 4 shows a correspondence relationship between the operation contents for the controller 30 (touch pad 32) and the operations of the avatar and the virtual camera. In this example, as illustrated, first, when the touch pad 32 of the controller 30 is not touched (non-touch state), the avatar does not move (stops). Also, the virtual camera does not move, and its position is a position corresponding to a third-person visual field that includes the user's own avatar. Specifically, the position of the virtual camera is a position where the relative positional relationship with the avatar becomes a predetermined relationship (for example, a position at a predetermined height separated by a predetermined distance in a predetermined direction). .

図5は、三人称の視野に対応する仮想カメラの位置を説明するための図である。図示するように、仮想カメラ104は、仮想空間100の地面103に立っているアバター102の斜め上方に位置しており、その視野には当該アバター102が含まれている。   FIG. 5 is a diagram for explaining the position of the virtual camera corresponding to the third person visual field. As illustrated, the virtual camera 104 is positioned obliquely above the avatar 102 standing on the ground 103 of the virtual space 100, and the avatar 102 is included in the field of view.

図6は、VRゴーグル20を介してユーザに提示されるVR画像50であって三人称の視野に対応するVR画像50を例示する。図示するように、三人称の視野に対応するVR画像50は、仮想空間100に位置するアバター102が含まれる。なお、例示されるVR画像50は、ユーザが立体視映像として見る画像を模式的に示したものであり、実際には、ユーザ端末10のディスプレイ等において、両眼視差による立体視映像を実現するための左目用の画像と右目用の画像との2つの画像が表示される。   FIG. 6 illustrates a VR image 50 that is presented to the user via the VR goggles 20 and that corresponds to a third person field of view. As illustrated, the VR image 50 corresponding to the third person visual field includes an avatar 102 located in the virtual space 100. Note that the illustrated VR image 50 schematically shows an image that the user sees as a stereoscopic video image, and actually realizes a stereoscopic video image with binocular parallax on the display of the user terminal 10 or the like. Two images, a left-eye image and a right-eye image, are displayed.

図4に戻り、タッチパッド32が触れられている状態(タッチ状態)であって押されていない状態(非クリック状態)である場合、アバターは、タッチパッド32のタッチ位置に対応する方向に歩行(第1の速度で移動)する。この例では、タッチパッド32のタッチ位置に応じて、アバターは、8方向(上、下、左、右、右上、右下、左上、及び左下)の何れかに対応する方向を向いて歩行する。また、仮想カメラは、三人称の位置を維持しつつ、歩行するアバターを追従する。具体的には、アバターと仮想カメラとの間の相対的な位置関係が維持されるように、仮想カメラを移動させる。   Returning to FIG. 4, when the touch pad 32 is touched (touched state) and not pressed (non-clicked), the avatar walks in a direction corresponding to the touch position of the touchpad 32. (Move at the first speed). In this example, the avatar walks in a direction corresponding to one of eight directions (up, down, left, right, upper right, lower right, upper left, and lower left) according to the touch position of the touch pad 32. . The virtual camera follows a walking avatar while maintaining the position of the third person. Specifically, the virtual camera is moved so that the relative positional relationship between the avatar and the virtual camera is maintained.

また、タッチパッド32の上部が押された(クリックされた)場合、アバターは、前方(その時点におけるアバターの視野(視線)の方向)に向かって走行(上記第1の速度よりも速い第2の速度で移動)する。また、仮想カメラは、三人称の位置から、ユーザのアバター自体の視野に対応する一人称の位置に移動し、その後、走行するアバターを追従する。また、同様に、タッチパッド32の下部が押された(クリックされた)場合、アバターは、後方(その時点におけるアバターの視野(視線)の反対方向)に向かって走行し、仮想カメラは、三人称の位置から一人称の位置に移動し、その後、走行するアバターを追従して移動する。例えば、鬼ごっこの鬼であるユーザは、他のユーザのアバターを見つけた場合に、タッチパッド32の上部を押すことにより、自身のアバターを当該他のユーザのアバターに向けて走行させることができる。また、例えば、鬼ごっこの鬼以外の(子である)ユーザは、鬼のユーザのアバターを見つけた場合に、タッチパッド32の下部を押すことにより、自身のアバターを当該他のユーザのアバターから逃げるように走行させることができる。   When the upper part of the touch pad 32 is pressed (clicked), the avatar travels forward (second direction faster than the first speed) toward the front (the direction of the avatar's visual field (line of sight) at that time). Move at a speed of Further, the virtual camera moves from the third person position to the first person position corresponding to the field of view of the user's avatar itself, and then follows the traveling avatar. Similarly, when the lower part of the touch pad 32 is pressed (clicked), the avatar travels backward (opposite direction of the avatar's visual field (line of sight) at that time), and the virtual camera is a third person. Move from the position of the first person to the position of the first person, and then follow the moving avatar to move. For example, when a user who is a demon devil finds an avatar of another user, he or she can run his or her avatar toward the avatar of the other user by pressing the upper part of the touch pad 32. Also, for example, when a user other than the demon tag (a child) finds the demon user's avatar, he or she evades his or her avatar from the other user's avatar by pressing the lower part of the touch pad 32. It can be made to run.

図7は、仮想カメラが、三人称の位置から一人称の位置に移動する様子を説明するための図である。図7の上段に示すように、アバター102の視野(視線)の方向が矢印ARの方向(図7において左方向)であって、仮想カメラ104が、アバター102の後側上方に位置している状態(タッチパッド32の上部が触れられてアバター102が矢印ARの方向に歩行している状態が想定される。)から、タッチパッド32の上部が押さると(クリックされると)、図7の下段に示すように、アバター102は、視野の方向(矢印ARの方向)に向かって走行し、仮想カメラ104は、アバター102の視野の方向と同じ方向の視野となるように、所定の軌跡BL1に沿って移動する。当該移動は、所定の時間(例えば、1秒)をかけて行われる。このように、仮想カメラを三人称の位置から一人称の位置に移動させる際に所定の時間を要することにより、一人称の視野への切り替え時におけるユーザのVR酔いが抑制される。なお、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が中止され、仮想カメラ104は、一人称の位置から三人称の位置へと戻る。この場合、一人称の位置から三人称の位置への切り替えは、上記所定の時間をかけることなく直ちに行われる。   FIG. 7 is a diagram for explaining how the virtual camera moves from the third person position to the first person position. As shown in the upper part of FIG. 7, the direction of the visual field (line of sight) of the avatar 102 is the direction of the arrow AR (the left direction in FIG. 7), and the virtual camera 104 is positioned on the upper rear side of the avatar 102. When the upper part of the touch pad 32 is pressed (clicked) from the state (it is assumed that the upper part of the touch pad 32 is touched and the avatar 102 is walking in the direction of the arrow AR), FIG. As shown in the lower row, the avatar 102 runs in the direction of the visual field (the direction of the arrow AR), and the virtual camera 104 has a predetermined trajectory so that the virtual camera 104 has a visual field in the same direction as the visual field direction of the avatar 102. Move along BL1. The movement is performed over a predetermined time (for example, 1 second). As described above, since it takes a predetermined time to move the virtual camera from the third person position to the first person position, the VR sickness of the user at the time of switching to the first person view is suppressed. When the state where the upper or lower portion of the touchpad 32 is pressed is canceled and the touchpad 32 is brought into a non-touch state, the avatar travel is stopped and the virtual camera 104 returns from the first person position to the third person position. In this case, switching from the first person position to the third person position is performed immediately without taking the predetermined time.

図8は、走行中のアバターの一人称の視野に対応するVR画像50を例示する。図示するように、当該VR画像50は、仮想空間100を、アバター102自体の視野に対応する視野で表示する。また、図示するように、当該VR画像50は、トンネリングの処理が施されている。具体的には、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、走行中のアバターの一人称の視野で画像を表示することに起因するユーザのVR酔いを抑制し得る。   FIG. 8 illustrates a VR image 50 corresponding to the first person view of a running avatar. As shown in the figure, the VR image 50 displays the virtual space 100 with a field of view corresponding to the field of view of the avatar 102 itself. Further, as shown in the figure, the VR image 50 is subjected to a tunneling process. Specifically, in the entire region of the VR image 50, a region other than a circular region having a predetermined center size is displayed in a grid instead of displaying the image in the virtual space 100. By narrowing the user's field of view through such tunneling processing, it is possible to suppress user VR sickness caused by displaying an image in the first person field of view of the avatar that is running.

図4に戻り、タッチパッド32の右部が押された(クリックされた)場合、アバターは移動しない。一方、仮想カメラは、三人称の位置を維持したまま、アバターを中心に時計回りで回転移動する。また、同様に、タッチパッド32の左部が押された(クリックされた)場合、アバターは移動せず、仮想カメラは、三人称の位置を維持したまま、アバターを中心に反時計回りで回転移動する。   Returning to FIG. 4, when the right part of the touch pad 32 is pressed (clicked), the avatar does not move. On the other hand, the virtual camera rotates clockwise around the avatar while maintaining the position of the third person. Similarly, when the left part of the touch pad 32 is pressed (clicked), the avatar does not move, and the virtual camera rotates counterclockwise around the avatar while maintaining the third person position. To do.

図9は、仮想カメラがアバターを中心に回転移動する様子を説明するための図である。図示するように、仮想カメラ104は、アバター102を中心とする所定の円状の軌跡BL2に沿って回転移動する。なお、回転移動する際に、仮想カメラ104の視野(視線)の方向は、アバター102の方向となるように維持される。   FIG. 9 is a diagram for explaining how the virtual camera rotates around the avatar. As shown in the figure, the virtual camera 104 rotates and moves along a predetermined circular locus BL2 centered on the avatar 102. Note that when rotating, the direction of the visual field (line of sight) of the virtual camera 104 is maintained to be the direction of the avatar 102.

図10は、仮想カメラがアバターを中心に回転移動している場合のVR画像50を例示する。図示するように、この場合のVR画像50は、アバター102を含む三人称の視野で仮想空間100を表示しつつ、トンネリングの処理が施されている。具体的には、図8に例示した走行中のアバターの一人称の視野に対応するVR画像50と同様に、VR画像50の全体領域のうち、中央の所定の大きさの円形領域以外の領域は、仮想空間100の画像の表示に代えてグリッドの表示が行われる。こうしたトンネリングの処理によってユーザの視野を狭くすることにより、仮想カメラの回転移動に起因するユーザのVR酔いを抑制し得る。なお、走行中のアバターの一人称の視野に対応するVR画像50におけるトンネリングの処理と、仮想カメラが回転移動している場合のVR画像50におけるトンネリングの処理との間の処理の強度(視野を狭くする程度。つまり、例えば、仮想空間の画像を表示する中央の円形領域の大きさ等)を変化させるようにしても良い。例えば、走行中のアバターの一人称の視野に対応するVR画像よりも、仮想カメラが回転移動している場合のVR画像50の方が、ユーザのVR酔いを生じさせ易いと考えることができるから、前者よりも後者の方が、トンネリングの処理の強度を強くする(例えば、仮想空間の画像を表示する中央の円形領域の大きさを小さくする等)ようにしても良い。   FIG. 10 illustrates a VR image 50 when the virtual camera is rotating around the avatar. As shown in the figure, the VR image 50 in this case is subjected to a tunneling process while displaying the virtual space 100 in a third person view including the avatar 102. Specifically, as in the VR image 50 corresponding to the first-person field of view of the avatar during travel illustrated in FIG. 8, the entire region of the VR image 50 is a region other than the central circular region having a predetermined size. Instead of displaying the image of the virtual space 100, a grid is displayed. By narrowing the user's field of view through such a tunneling process, the VR sickness of the user due to the rotational movement of the virtual camera can be suppressed. It should be noted that the processing strength between the tunneling process in the VR image 50 corresponding to the first-person field of view of the avatar being run and the tunneling process in the VR image 50 when the virtual camera is rotating (narrows the field of view). In other words, for example, the size of the central circular area for displaying the image in the virtual space may be changed. For example, it can be considered that the VR image 50 in the case where the virtual camera is rotating is more likely to cause the VR sickness of the user than the VR image corresponding to the first-person view of the avatar while traveling. The latter may be stronger than the former in the tunneling process (for example, the size of the central circular area for displaying the virtual space image may be reduced).

上述したように、タッチパッド32の上部又は下部が押された状態が解消されて非タッチ状態となると、アバターの走行が停止され、仮想カメラは、一人称の位置から三人称の位置へと戻るが、こうしたコントローラ30(タッチパッド32)に対する操作入力以外のイベントを契機としてアバターの走行が中断される場合についても、仮想カメラは、一人称の位置から三人称の位置へと戻る。例えば、鬼以外のユーザのアバターが走行中に鬼のユーザのアバターに捕まったり、アイテムの効果(例えば、爆弾アイテムの爆発)によってアバターの走行が中断されたり、アバターの体力が消耗することによって走行が中断されたり、時間制限等によりゲームが終了して走行が中断される場合において、仮想カメラは、一人称の位置から三人称の位置へと戻る。   As described above, when the state where the upper or lower part of the touch pad 32 is pressed is canceled and the touchpad 32 is brought into a non-touch state, the avatar travel is stopped and the virtual camera returns from the first person position to the third person position. Even when the avatar travel is interrupted by an event other than an operation input to the controller 30 (touch pad 32), the virtual camera returns from the first person position to the third person position. For example, the user's avatar other than the demon is caught by the demon user's avatar while driving, the avatar's driving is interrupted by the effect of the item (for example, explosion of a bomb item), or the avatar's physical strength is consumed Is interrupted, or when the game is ended due to a time limit or the like and the running is interrupted, the virtual camera returns from the first person position to the third person position.

また、この例では、VRゴーグル20に取り付けられたユーザ端末10が有する各種センサ16を介して検知されるユーザの頭部の向きに連動するように仮想カメラの向きが制御される。例えば、図11の上段に示すように、三人称の視野のVR画像50の中央にアバター102が位置する状態で、ユーザの顔が右上方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが右上方向となり、図11の下段に示すように、VR画像50の左下にアバター102が位置する状態となる。   In this example, the orientation of the virtual camera is controlled so as to be interlocked with the orientation of the user's head detected through various sensors 16 included in the user terminal 10 attached to the VR goggles 20. For example, as shown in the upper part of FIG. 11, when the avatar 102 is located in the center of the VR image 50 of the third person field of view and the user's head is moved so that the face of the user faces the upper right direction, The direction of the virtual camera is the upper right direction, and the avatar 102 is positioned at the lower left of the VR image 50 as shown in the lower part of FIG.

また、この例では、アバターが走行中である場合、ユーザの頭部の向きに連動するように仮想カメラの向きが制御されると共に、走行中のアバターは、ユーザの頭部の向きに旋回するように制御される。例えば、図12の上段に示すように、一人称の視野のVR画像50の中央に木型のオブジェクト106が位置する状態で、ユーザの顔が左方向を向くように頭部を動かすと、これに連動して仮想カメラの向きが左方向となり、図12の下段に示すように、VR画像50の右にオブジェクト106が位置する状態となる。更に、図13に示すように、走行中のアバター102は、軌跡BL3に沿って左方向に旋回する。このように、この例では、ユーザの頭部の動きによって、走行中のアバター102を旋回させる制御が可能となっており、ユーザが得られる没入感とアバター102の操作性との良好なバランスが実現されている。   In this example, when the avatar is traveling, the orientation of the virtual camera is controlled so as to be interlocked with the orientation of the user's head, and the traveling avatar turns in the orientation of the user's head. To be controlled. For example, as shown in the upper part of FIG. 12, when the head is moved so that the user's face faces leftward with the wooden object 106 positioned at the center of the VR image 50 of the first person field of view, In conjunction with this, the virtual camera is directed leftward, and the object 106 is positioned to the right of the VR image 50 as shown in the lower part of FIG. Further, as shown in FIG. 13, the traveling avatar 102 turns leftward along the locus BL3. As described above, in this example, it is possible to control the turning of the running avatar 102 by the movement of the user's head, and there is a good balance between the immersive feeling obtained by the user and the operability of the avatar 102. It has been realized.

上述した具体例、又は、本実施形態の他の例において、三人称の視野の仮想カメラの当該視野に他のユーザのアバターが入った場合に、ユーザ自身のアバターと他のユーザのアバターとを比較して鑑賞しやすいように、当該仮想カメラを制御するようにしても良い。例えば、図14の上段に示すように、三人称の仮想カメラの視野に他のユーザのアバター108が入った場合、図14の下段に示すように、仮想カメラは、そのアングルが低くなると共に、ユーザのアバター102と他のユーザのアバター108との間の位置を視野の中心とし、且つ、被写体までの距離が近づくように制御される(図15を参照)。   In the specific example described above or another example of the present embodiment, when an avatar of another user enters the visual field of the virtual camera of the third person visual field, the user's own avatar is compared with the avatar of the other user. The virtual camera may be controlled so that it can be easily viewed. For example, as shown in the upper part of FIG. 14, when the avatar 108 of another user enters the field of view of the third person virtual camera, as shown in the lower part of FIG. The position between the other avatar 102 and the other user's avatar 108 is set as the center of the visual field, and the distance to the subject is controlled (see FIG. 15).

以上説明した本実施形態に係るユーザ端末10は、ユーザによってコントローラ30を介して入力される入力情報(例えば、タッチパッド30に対する操作内容)に基づいてアバターを制御する一方、ユーザの頭部の動きに応じて入力される入力情報(例えば、ユーザ端末10に設けられた各種センサ16を介して検知されるユーザの頭部の向き)に基づいて仮想カメラを制御し、アバターが所定の動作(例えば、走行)を開始すると、仮想カメラの位置を、三人称の位置から一人称の位置に自動的に変化させるように構成されている。従って、ユーザは、コントローラ30の操作及び頭部の動きによってアバター及び仮想カメラをそれぞれ制御しつつ、アバターが所定の動作を開始すると、特別な操作なしに、一人称の視野で没入感を得ることができる。このように、本実施形態におけるユーザ端末10は、ユーザのアバターを含む仮想空間の画像を適切な視野で提供することを支援する。   The user terminal 10 according to the present embodiment described above controls the avatar based on input information (for example, operation content on the touch pad 30) input by the user via the controller 30, while the movement of the user's head The virtual camera is controlled based on input information (for example, the orientation of the user's head detected via various sensors 16 provided in the user terminal 10) in accordance with the information, and the avatar performs a predetermined operation (for example, , Running), the position of the virtual camera is automatically changed from the third person position to the first person position. Therefore, when the avatar starts a predetermined operation while controlling the avatar and the virtual camera by the operation of the controller 30 and the movement of the head, the user can obtain an immersive feeling in the first person view without any special operation. it can. Thus, the user terminal 10 in this embodiment supports providing an image of the virtual space including the user's avatar with an appropriate field of view.

上述した実施形態では、ユーザ端末10は、VRゴーグル20に取り付けられるスマートフォン等のモバイル端末として構成したが、本発明の他の実施形態におけるユーザ端末10Aは、ユーザの頭部に装着されるHMD20Aとは別体の装置(例えば、据え置き型のコンピュータ装置を含む。)として構成される。図16は、当該他の実施形態におけるユーザ端末10A及びHMD20Aの構成を概略的に示すブロック図である。HMD20Aは、入出力I/F21と、通信I/F22と、各種センサ23と、を有し、各種センサ23は、例えば、加速度センサ、ジャイロセンサ(角速度センサ)、地磁気センサ等を含む。ユーザ端末10Aは、HMD20Aが有する各種センサ23によって検知される情報を当該HMD20Aから受信し、当該受信した情報に基づいてHMD20Aの向き(姿勢、傾き、方位等)を特定し、特定したHMD20Aの向きに基づいて仮想カメラの向きを制御するように構成される。なお、この実施形態において、VR画像は、ユーザ端末10AからHMD20Aに送信され、当該HMD20Aのディスプレイ(入出力I/F21)等において表示される。   In the embodiment described above, the user terminal 10 is configured as a mobile terminal such as a smartphone attached to the VR goggles 20, but the user terminal 10A according to another embodiment of the present invention is an HMD 20A that is worn on the user's head. Is configured as a separate device (for example, including a stationary computer device). FIG. 16 is a block diagram schematically showing the configuration of the user terminal 10A and the HMD 20A in the other embodiment. The HMD 20A includes an input / output I / F 21, a communication I / F 22, and various sensors 23. The various sensors 23 include, for example, an acceleration sensor, a gyro sensor (angular velocity sensor), a geomagnetic sensor, and the like. The user terminal 10A receives information detected by the various sensors 23 included in the HMD 20A from the HMD 20A, identifies the orientation (posture, inclination, orientation, etc.) of the HMD 20A based on the received information, and identifies the orientation of the identified HMD 20A Is configured to control the orientation of the virtual camera. In this embodiment, the VR image is transmitted from the user terminal 10A to the HMD 20A and displayed on the display (input / output I / F 21) of the HMD 20A.

本明細書で説明された処理及び手順は、明示的に説明されたもの以外にも、ソフトウェア、ハードウェアまたはこれらの任意の組み合わせによって実現される。例えば、本明細書で説明される処理及び手順は、集積回路、揮発性メモリ、不揮発性メモリ、磁気ディスク等の媒体に、当該処理及び手順に相当するロジックを実装することによって実現される。また、本明細書で説明された処理及び手順は、当該処理・手順に相当するコンピュータプログラムとして実装し、各種のコンピュータに実行させることが可能である。   The processes and procedures described in the present specification are implemented by software, hardware, or any combination thereof other than those explicitly described. For example, the processes and procedures described in this specification are realized by mounting logic corresponding to the processes and procedures on a medium such as an integrated circuit, a volatile memory, a nonvolatile memory, and a magnetic disk. The processing and procedure described in this specification can be implemented as a computer program corresponding to the processing / procedure and executed by various computers.

本明細書中で説明された処理及び手順が単一の装置、ソフトウェア、コンポーネント、モジュールによって実行される旨が説明されたとしても、そのような処理または手順は複数の装置、複数のソフトウェア、複数のコンポーネント、及び/又は複数のモジュールによって実行され得る。また、本明細書において説明されたソフトウェアおよびハードウェアの要素は、それらをより少ない構成要素に統合して、またはより多い構成要素に分解することによって実現することも可能である。   Even if the processes and procedures described herein are described as being performed by a single device, software, component, or module, such processes or procedures may be performed by multiple devices, multiple software, multiple Component and / or multiple modules. Also, the software and hardware elements described herein can be implemented by integrating them into fewer components or by disassembling them into more components.

本明細書において、発明の構成要素が単数もしくは複数のいずれか一方として説明された場合、又は、単数もしくは複数のいずれとも限定せずに説明された場合であっても、文脈上別に解すべき場合を除き、当該構成要素は単数又は複数のいずれであってもよい。   In the present specification, when the constituent elements of the invention are described as one or a plurality, or when they are described without being limited to one or a plurality of cases, they should be understood separately in context. The component may be either singular or plural.

10、10A ユーザ端末
11 コンピュータプロセッサ
111 画像生成表示部
112 仮想空間制御部
20 VRゴーグル(第1の装置)
20A HMD(第1の装置)
30 コントローラ(第2の装置)
32 タッチパッド
40 コンテンツ用プログラム
50 VR画像
100 仮想空間
102 アバター
104 仮想カメラ


10, 10A User terminal 11 Computer processor 111 Image generation display unit 112 Virtual space control unit 20 VR goggles (first device)
20A HMD (first device)
30 controller (second device)
32 touchpad 40 content program 50 VR image 100 virtual space 102 avatar 104 virtual camera


Claims (8)

仮想空間を提供するためのプログラムであって、
1又は複数のコンピュータ上での実行に応じて、前記1又は複数のコンピュータに、
ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、
前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、
前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行させ、
前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む、
プログラム。
A program for providing a virtual space,
In response to execution on one or more computers, the one or more computers
In the first device worn on the user's head, a process of displaying an image of the virtual space according to the field of view of the virtual camera located in the virtual space;
A process for controlling the avatar of the user located in the virtual space based at least on first input information input via a second device operated by the user;
A process of controlling the virtual camera based on at least second input information input according to the movement of the user's head,
In accordance with the start of the predetermined operation of the avatar, the process of controlling the virtual camera changes the position of the virtual camera from the first position including the avatar to the visual field of the avatar itself. Including changing to position,
program.
前記所定の動作は、移動を含む、
請求項1のプログラム。
The predetermined operation includes movement,
The program of claim 1.
前記アバターを制御する処理は、前記アバターを第1の速度で移動させること、及び、前記アバターを前記第1の速度よりも速い第2の速度で移動させることを含み、
前記所定の動作は、前記第2の速度での移動を含む、
請求項1のプログラム。
The process of controlling the avatar includes moving the avatar at a first speed and moving the avatar at a second speed that is faster than the first speed;
The predetermined operation includes moving at the second speed;
The program of claim 1.
前記第2の入力情報は、前記第1の装置に設けられたセンサを介して検知される前記ユーザの頭部の向きを含み、
前記仮想カメラを制御する処理は、前記ユーザの頭部の向きに基づいて、前記仮想カメラの向きを制御することを含む、
請求項1ないし3何れかのプログラム。
The second input information includes an orientation of the user's head detected via a sensor provided in the first device,
The process of controlling the virtual camera includes controlling the orientation of the virtual camera based on the orientation of the user's head.
The program according to any one of claims 1 to 3.
前記所定の動作は、移動を含み、
前記アバターを制御する処理は、移動中のアバターを、前記仮想カメラの向きに基づいて旋回させることを含む、
請求項4のプログラム。
The predetermined operation includes movement,
The process of controlling the avatar includes turning the moving avatar based on the orientation of the virtual camera.
The program according to claim 4.
前記仮想カメラを制御する処理は、前記アバターの前記所定の動作の開始に応じて、前記仮想カメラの位置を、前記第1の位置から前記第2の位置に第1の時間で変化させる一方、前記アバターの前記所定の動作の終了に応じて、前記仮想カメラの位置を、前記第2の位置から前記第1の位置に前記第1の時間よりも短い第2の時間で変化させることを含む、
請求項1ないし5何れかのプログラム。
While the process of controlling the virtual camera changes the position of the virtual camera from the first position to the second position at a first time in response to the start of the predetermined movement of the avatar, Changing the position of the virtual camera from the second position to the first position at a second time shorter than the first time in response to the end of the predetermined action of the avatar. ,
The program according to any one of claims 1 to 5.
1又は複数のコンピュータプロセッサを備え、仮想空間を提供するためのシステムであって、
前記1又は複数のコンピュータプロセッサは、読取可能な命令の実行に応じて、
ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示する処理と、
前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御する処理と、
前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御する処理と、を実行し、
前記仮想カメラを制御する処理は、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む、
システム。
A system comprising one or more computer processors and providing a virtual space,
The one or more computer processors are responsive to execution of readable instructions,
In the first device worn on the user's head, a process of displaying an image of the virtual space according to the field of view of the virtual camera located in the virtual space;
A process for controlling the avatar of the user located in the virtual space based at least on first input information input via a second device operated by the user;
Performing a process of controlling the virtual camera based on at least second input information input according to the movement of the user's head,
In accordance with the start of the predetermined operation of the avatar, the process of controlling the virtual camera changes the position of the virtual camera from the first position including the avatar to the visual field of the avatar itself. Including changing to position,
system.
1又は複数のコンピュータによって実行され、仮想空間を提供するための方法であって、
ユーザの頭部に装着される第1の装置において、前記仮想空間内に位置する仮想カメラの視野に応じた前記仮想空間の画像を表示するステップと、
前記ユーザによって操作される第2の装置を介して入力される第1の入力情報に少なくとも基づいて、前記仮想空間内に位置する前記ユーザのアバターを制御するステップと、
前記ユーザの頭部の動きに応じて入力される第2の入力情報に少なくとも基づいて、前記仮想カメラを制御するステップと、を備え、
前記仮想カメラを制御するステップは、前記アバターの所定の動作の開始に応じて、前記仮想カメラの位置を、前記アバターを視野に含む第1の位置から前記アバター自体の視野に対応する第2の位置に変化させることを含む、
方法。

A method for providing a virtual space executed by one or more computers, comprising:
In the first device worn on the user's head, displaying an image of the virtual space according to the field of view of the virtual camera located in the virtual space;
Controlling the user's avatar located in the virtual space based at least on first input information input via a second device operated by the user;
Controlling the virtual camera based at least on second input information input according to the movement of the user's head,
In the step of controlling the virtual camera, in response to the start of a predetermined operation of the avatar, the position of the virtual camera is changed from a first position including the avatar to the visual field, and a second corresponding to the visual field of the avatar itself. Including changing to position,
Method.

JP2018080648A 2018-04-19 2018-04-19 Program, system, and method for providing virtual space Active JP6434667B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018080648A JP6434667B1 (en) 2018-04-19 2018-04-19 Program, system, and method for providing virtual space

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018080648A JP6434667B1 (en) 2018-04-19 2018-04-19 Program, system, and method for providing virtual space

Publications (2)

Publication Number Publication Date
JP6434667B1 JP6434667B1 (en) 2018-12-05
JP2019191690A true JP2019191690A (en) 2019-10-31

Family

ID=64560674

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018080648A Active JP6434667B1 (en) 2018-04-19 2018-04-19 Program, system, and method for providing virtual space

Country Status (1)

Country Link
JP (1) JP6434667B1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249622A1 (en) * 2021-05-24 2022-12-01 株式会社コロプラ Program, method, and information processing device

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6630911B1 (en) * 2018-12-11 2020-01-15 株式会社Psychic VR Lab Treatment support system and treatment support program
JP7418956B2 (en) * 2018-12-28 2024-01-22 株式会社バンダイナムコエンターテインメント Image generation system and program
JP7335695B2 (en) * 2018-12-28 2023-08-30 株式会社バンダイナムコエンターテインメント Image generation system and program
US10978019B2 (en) 2019-04-15 2021-04-13 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
EP3734415A1 (en) * 2019-04-30 2020-11-04 XRSpace CO., LTD. Head mounted display system switchable between a first-person perspective mode and a third-person perspective mode, related method and related non-transitory computer readable storage medium
JP7384576B2 (en) * 2019-06-06 2023-11-21 株式会社ソニー・インタラクティブエンタテインメント Display control device, display control method, and display control program
CN115639976B (en) * 2022-10-28 2024-01-30 深圳市数聚能源科技有限公司 Multi-mode multi-angle synchronous display method and system for virtual reality content

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (en) * 1993-12-21 1995-07-18 Sega Enterp Ltd Viewpoint change method for ball game in game machine
JP2010231290A (en) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology Input device and method using head motion
JP2013009770A (en) * 2011-06-28 2013-01-17 Square Enix Co Ltd Game program and game machine
US20140364228A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Sharing three-dimensional gameplay

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH07178242A (en) * 1993-12-21 1995-07-18 Sega Enterp Ltd Viewpoint change method for ball game in game machine
JP2010231290A (en) * 2009-03-26 2010-10-14 National Institute Of Advanced Industrial Science & Technology Input device and method using head motion
JP2013009770A (en) * 2011-06-28 2013-01-17 Square Enix Co Ltd Game program and game machine
US20140364228A1 (en) * 2013-06-07 2014-12-11 Sony Computer Entertainment Inc. Sharing three-dimensional gameplay

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022249622A1 (en) * 2021-05-24 2022-12-01 株式会社コロプラ Program, method, and information processing device
JP2022180234A (en) * 2021-05-24 2022-12-06 株式会社コロプラ Program, method, and information processing device
JP7317893B2 (en) 2021-05-24 2023-07-31 株式会社コロプラ Program, method and information processing device
JP7564917B2 (en) 2021-05-24 2024-10-09 株式会社コロプラ Program, method and information processing device

Also Published As

Publication number Publication date
JP6434667B1 (en) 2018-12-05

Similar Documents

Publication Publication Date Title
JP6434667B1 (en) Program, system, and method for providing virtual space
US10463962B2 (en) Spectator view perspectives in VR environments
US20210252398A1 (en) Method and system for directing user attention to a location based game play companion application
US11278810B1 (en) Menu placement dictated by user ability and modes of feedback
JP7503122B2 (en) Method and system for directing user attention to a location-based gameplay companion application - Patents.com
JP2018200557A (en) Program to provide virtual space, information processing device to execute the same and method for providing virtual space
CN111831104B (en) Head-mounted display system, related method and related computer readable recording medium
JP6684746B2 (en) Information processing method, computer and program
CN116328317A (en) Application processing system, application processing method, and application processing program
JP7390541B2 (en) Animation production system
JP2018190163A (en) Information processing method, computer, and program
JP2018072604A (en) Method for suppressing vr sickness, program for causing computer to execute the method, and information processing device
TW201616281A (en) Virtual reality system and method for interacting with an object in virtual reality
JP2022020686A (en) Information processing method, program, and computer
JP6779840B2 (en) Methods and devices for assisting input in virtual space and programs that allow computers to execute such methods.
JP6382928B2 (en) Method executed by computer to control display of image in virtual space, program for causing computer to realize the method, and computer apparatus
CN114053693B (en) Object control method and device in virtual scene and terminal equipment
JP2022153476A (en) Animation creation system
JP6444345B2 (en) Method and apparatus for supporting input in virtual space, and program for causing computer to execute the method
JP2018170013A (en) Method executed by computer to control display of image in virtual space, program for causing computer to achieve the method, and computer device
JP6893532B2 (en) Information processing methods, computers and programs
JP2019015972A (en) Method for suppressing vr sickness, program for causing computer to execute the method, and information processing device
JP2018207517A (en) Method to be executed by computer for controlling display in head-mounted device, program for causing computer to execute the same method, and information processing device
JP2019155113A (en) Information processing method, computer, and program
JP2018200688A (en) Program to provide virtual space, information processing device to execute the same and method for providing virtual space

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180424

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180424

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180709

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180717

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180913

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181030

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181108

R150 Certificate of patent or registration of utility model

Ref document number: 6434667

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

R371 Transfer withdrawn

Free format text: JAPANESE INTERMEDIATE CODE: R371

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313117

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250