JP2019075091A - Program for providing virtual experience, computer and method - Google Patents

Program for providing virtual experience, computer and method Download PDF

Info

Publication number
JP2019075091A
JP2019075091A JP2018156988A JP2018156988A JP2019075091A JP 2019075091 A JP2019075091 A JP 2019075091A JP 2018156988 A JP2018156988 A JP 2018156988A JP 2018156988 A JP2018156988 A JP 2018156988A JP 2019075091 A JP2019075091 A JP 2019075091A
Authority
JP
Japan
Prior art keywords
virtual
user
difference
hmd
virtual viewpoint
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2018156988A
Other languages
Japanese (ja)
Other versions
JP2019075091A5 (en
Inventor
豪 佐藤
Takeshi Sato
豪 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Colopl Inc
Original Assignee
Colopl Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Colopl Inc filed Critical Colopl Inc
Priority to JP2018156988A priority Critical patent/JP2019075091A/en
Publication of JP2019075091A publication Critical patent/JP2019075091A/en
Publication of JP2019075091A5 publication Critical patent/JP2019075091A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a technique which prevents a user absorbed in a virtual space from getting VR sickness.SOLUTION: A program causes a computer to execute the steps to: move a virtual viewpoint arranged in a virtual space (Step S1422); control an eye direction of the virtual viewpoint in accordance with movement of a head of a user (Step S1430); detect a difference between a moving direction of the virtual viewpoint and the eye direction thereof (Step S1440); and, when an absolute value of the difference is larger than 0, make visibility of one or more predetermined objects included in a range of an eyesight from the virtual viewpoint determined in accordance with the eye direction of the virtual viewpoint lower than the visibility when the absolute value of the difference is equal to 0 (Step S1460).SELECTED DRAWING: Figure 14

Description

この開示は、仮想体験を提供するためのプログラム、コンピュータ、および方法に関する。   The present disclosure relates to programs, computers, and methods for providing a virtual experience.

ヘッドマウントデバイス(HMD:Head-Mounted Device)装置を用いて仮想空間上の仮想視点からの視界に対応する視界画像をユーザに提供することで、当該ユーザに仮想現実(VR:Virtual Reality)を体験させる技術が知られている。   By using a head-mounted device (HMD) device to provide the user with a view image corresponding to a view from a virtual view on a virtual space, the user experiences virtual reality (VR) for the user. The technology to make

ところで、仮想現実を体験しているユーザは、所謂VR酔いを引き起こす場合がある。VR酔いの発生原因としては、仮想体験によって得られる感覚が、ユーザが体感や予測している感覚と齟齬することが挙げられる。   By the way, a user experiencing virtual reality may cause so-called VR sickness. As the cause of occurrence of VR sickness, the sense obtained by the virtual experience may be confused with the sense that the user feels or is predicting.

VR酔いを抑制する技術として、たとえば、特許第6092437号公報(特許文献1)は、HMDの角速度の大きさに基づいて画像のぼかしの大きさおよび前記画像のぼかし処理を施す範囲を設定する技術を開示している(「要約」参照)。   As a technique for suppressing VR sickness, for example, Japanese Patent No. 6092437 (Patent Document 1) is a technique for setting the size of blurring of an image and the range to which the blurring processing of the image is to be performed based on the magnitude of angular velocity of HMD. Is disclosed (see “Summary”).

特許第6092437号公報Patent No. 6092437

しかしながら、上述した特許文献1に開示された技術ではVR酔いを抑制する上で改善の余地がある。   However, the technique disclosed in Patent Document 1 mentioned above has room for improvement in suppressing VR sickness.

本開示は、係る実情に鑑み考え出されたものであり、ある局面における目的は、ユーザに生じるVR酔いを抑制する技術を提供することである。   The present disclosure has been made in view of such actual circumstances, and an object in one aspect is to provide a technique for suppressing VR sickness that occurs in a user.

ある実施形態に従うと、ユーザの頭部に関連付けられる画像表示装置を介して仮想体験を提供するためのコンピュータで実行されるプログラムが提供される。このプログラムはコンピュータに、仮想体験を提供するための仮想空間を定義するステップと、仮想空間に配置された仮想視点を移動させるステップと、ユーザの頭部の動きに応じて、仮想視点の視線方向を制御するステップと、仮想視点の移動方向と仮想視点の視線方向との差を検出するステップと、差の絶対値が0より大きい場合に、仮想視点の視線方向に応じて定まる仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を差の絶対値が0の場合よりも低下させるステップと、視界の範囲に対応する画像である視界画像を生成するステップと、視界画像を画像表示装置に出力させるステップとを実行させる。   According to an embodiment, a computer-executable program for providing a virtual experience via an image display associated with a user's head is provided. This program defines a virtual space for providing a virtual experience to a computer, moves a virtual viewpoint arranged in the virtual space, and the gaze direction of the virtual viewpoint according to the movement of the head of the user. Controlling the virtual viewpoint, detecting the difference between the movement direction of the virtual viewpoint and the gaze direction of the virtual viewpoint, and determining the virtual viewpoint according to the gaze direction of the virtual viewpoint when the absolute value of the difference is greater than 0. Reducing the visibility of one or more predetermined objects included in the range of view than when the absolute value of the difference is 0, generating a view image that is an image corresponding to the range of the view, and a view image Output to the image display apparatus.

開示された技術的特徴の上記および他の目的、特徴、局面および利点は、添付の図面と関連して理解されるこの開示に関する次の詳細な説明から明らかとなるであろう。   The above and other objects, features, aspects and advantages of the disclosed technical features will be apparent from the following detailed description of the disclosure taken in conjunction with the accompanying drawings.

ある実施の形態に従うHMDシステムの構成の概略を表す図である。BRIEF DESCRIPTION OF THE DRAWINGS Fig. 1 is a diagram schematically illustrating the configuration of an HMD system according to an embodiment. 一局面に従うコンピュータのハードウェア構成の一例を表すブロック図である。It is a block diagram showing an example of the hardware constitutions of the computer according to one mode. ある実施の形態に従うHMDに設定されるuvw視野座標系を概念的に表す図である。It is a figure which represents notionally the uvw view coordinate system set to HMD according to one Embodiment. ある実施の形態に従う仮想空間を表現する一態様を概念的に表す図である。FIG. 1 conceptually illustrates an aspect of representing a virtual space in accordance with an embodiment. ある実施の形態に従うHMDを装着するユーザ190の頭部を上から表した図である。FIG. 7 is a top view of a head of a user 190 wearing an HMD according to an embodiment. 仮想空間において視界領域をX方向から見たYZ断面を表す図である。It is a figure showing YZ section which looked at a field of view field from X direction in virtual space. 仮想空間において視界領域をY方向から見たXZ断面を表す図である。It is a figure showing the XZ section which looked at a field of view field from a Y direction in virtual space. ある実施の形態に従うコントローラの概略構成を表す図である。FIG. 2 is a diagram showing a schematic configuration of a controller according to an embodiment. ある実施の形態に従うコンピュータをモジュール構成として表すブロック図である。FIG. 1 is a block diagram representing a computer according to an embodiment as a modular configuration. ある実施の形態に従うHMDシステムにおいて実行される処理の一部を表すシーケンスチャートである。7 is a sequence chart showing a part of processing executed in the HMD system according to an embodiment. ユーザが正面方向を向いているときに視認する視界画像を表す。It represents a field of view image viewed when the user is facing the front. ユーザが横方向(右方向)を向いているときに視認する視界画像を表す。It represents a field of view image viewed when the user is facing in the lateral direction (right direction). 図12の視界画像においてオブジェクトの視認性が低下された場合の視界画像を表す。FIG. 13 shows a view image when the viewability of an object is reduced in the view image of FIG. 12. 環境オブジェクトの視認性を低下させる処理を表すフローチャートである。It is a flowchart showing the process to which the visibility of an environmental object is reduced. 他のHMDシステムの構成を表す。It represents the configuration of another HMD system. 他のコントローラの構成を表す。Represents the configuration of another controller.

以下、この技術的思想の実施形態について図面を参照しながら詳細に説明する。以下の説明では、同一の部品には同一の符号を付してある。それらの名称および機能も同じである。したがって、それらについての詳細な説明は繰り返さない。なお、以下で説明される各実施の形態および各変形例は、適宜選択的に組み合わされてもよい。   Hereinafter, embodiments of this technical concept will be described in detail with reference to the drawings. In the following description, the same components are denoted by the same reference numerals. Their names and functions are also the same. Therefore, detailed description about them will not be repeated. In addition, each embodiment and each modification which are explained below may be combined suitably suitably.

[HMDシステムの構成]
図1を参照して、HMDシステム100の構成について説明する。図1は、ある実施の形態に従うHMDシステム100の構成の概略を表す図である。ある局面において、HMDシステム100は、家庭用のシステムとしてあるいは業務用のシステムとして提供される。
[Configuration of HMD system]
The configuration of the HMD system 100 will be described with reference to FIG. FIG. 1 is a diagram schematically illustrating the configuration of an HMD system 100 according to an embodiment. In one aspect, the HMD system 100 is provided as a home system or a business system.

HMDシステム100は、HMD110と、HMDセンサ120と、コントローラ160と、コンピュータ200とを備える。HMD110は、モニタ112と、注視センサ140と、スピーカ115と、マイク119とを含む。コントローラ160は、モーションセンサ130を含み得る。   The HMD system 100 includes an HMD 110, an HMD sensor 120, a controller 160, and a computer 200. The HMD 110 includes a monitor 112, a gaze sensor 140, a speaker 115, and a microphone 119. The controller 160 may include the motion sensor 130.

ある局面において、コンピュータ200は、インターネットその他のネットワーク19に接続可能であり、ネットワーク19に接続されているサーバ150その他のコンピュータと通信可能である。他の局面において、HMD110は、HMDセンサ120の代わりに、センサ114を含み得る。   In one aspect, the computer 200 can connect to the Internet or other network 19 and can communicate with a server 150 or other computer connected to the network 19. In another aspect, the HMD 110 may include a sensor 114 instead of the HMD sensor 120.

HMD110は、ユーザ190の頭部に装着され、動作中に仮想空間2をユーザ190に提供し得る。より具体的には、HMD110は、右目用の画像および左目用の画像をモニタ112にそれぞれ表示する。ユーザ190の各目がそれぞれの画像を視認すると、ユーザ190は、両目の視差に基づき当該画像を3次元の画像として認識し得る。   The HMD 110 may be worn on the head of the user 190 and provide the virtual space 2 to the user 190 during operation. More specifically, the HMD 110 displays the image for the right eye and the image for the left eye on the monitor 112, respectively. When each eye of the user 190 visually recognizes each image, the user 190 can recognize the image as a three-dimensional image based on the parallax of both eyes.

モニタ112は、たとえば、非透過型の表示装置として実現される。ある局面において、モニタ112は、ユーザ190の両目の前方に位置するようにHMD110の本体に配置されている。したがって、ユーザ190は、モニタ112に表示される3次元画像を視認すると、仮想空間2に没入することができる。ある実施の形態において、仮想空間2は、たとえば、背景、ユーザ190が操作可能なオブジェクト、ユーザ190が選択可能なメニューの画像を含む。複数のコンピュータ200が各ユーザの動作に基づく信号を受け渡しすることで、複数のユーザが一の仮想空間2で仮想体験できる構成であれば、各ユーザに対応するアバターオブジェクトが、仮想空間2に提示される。   The monitor 112 is implemented, for example, as a non-transmissive display device. In one aspect, the monitor 112 is disposed on the main body of the HMD 110 so as to be located in front of both eyes of the user 190. Therefore, when the user 190 visually recognizes the three-dimensional image displayed on the monitor 112, the user 190 can immerse in the virtual space 2. In one embodiment, the virtual space 2 includes, for example, a background, an object operable by the user 190, and an image of a menu selectable by the user 190. As long as a plurality of users can virtually experience in one virtual space 2 by passing a signal based on each user's operation, avatar objects corresponding to each user are presented in the virtual space 2 Be done.

なお、オブジェクトとは、仮想空間2に存在する仮想の物体である。ある局面において、オブジェクトは、ユーザに対応するアバターオブジェクト、アバターオブジェクトが身に着ける仮想アクセサリおよび仮想衣服、ユーザに関する情報が示されたパネルを模した仮想パネル、手紙を模した仮想手紙、およびポストを模した仮想ポストなどを含む。さらに、アバターオブジェクトは、仮想空間2においてユーザ190を象徴するキャラクタであり、たとえば人型、動物型、ロボット型などを含む。オブジェクトの形は様々である。ユーザ190は、予め決められたオブジェクトのなかから好みのオブジェクトを仮想空間2に提示するようにしてもよいし、自分が作成したオブジェクトを仮想空間2に提示するようにしてもよい。   The object is a virtual object existing in the virtual space 2. In one aspect, the object includes an avatar object corresponding to the user, a virtual accessory and virtual clothes worn by the avatar object, a virtual panel imitating a panel showing information about the user, a virtual letter imitating a letter, and a post. Includes imitation virtual posts etc. Furthermore, the avatar object is a character that symbolizes the user 190 in the virtual space 2 and includes, for example, a human type, an animal type, and a robot type. The shapes of objects are various. The user 190 may present a favorite object in the virtual space 2 from among predetermined objects, or may present the object created by the user 190 in the virtual space 2.

ある実施の形態において、モニタ112は、所謂スマートフォンその他の情報表示端末が備える液晶モニタまたは有機EL(Electro Luminescence)モニタとして実現され得る。   In one embodiment, the monitor 112 can be realized as a liquid crystal monitor or an organic EL (Electro Luminescence) monitor provided in a so-called smart phone or other information display terminal.

ある局面において、モニタ112は、右目用の画像を表示するためのサブモニタと、左目用の画像を表示するためのサブモニタとを含み得る。他の局面において、モニタ112は、右目用の画像と左目用の画像とを一体として表示する構成であってもよい。この場合、モニタ112は、高速シャッタを含む。高速シャッタは、画像がいずれか一方の目にのみ認識されるように、右目用の画像と左目用の画像とを交互に表示可能に作動する。   In one aspect, the monitor 112 may include a sub monitor for displaying an image for the right eye and a sub monitor for displaying an image for the left eye. In another aspect, the monitor 112 may be configured to integrally display an image for the right eye and an image for the left eye. In this case, the monitor 112 includes a high speed shutter. The high speed shutter operates so as to alternately display the image for the right eye and the image for the left eye so that the image is recognized only for one of the eyes.

注視センサ140は、ユーザ190の右目および左目の視線が向けられる方向(視線方向)を検出する。当該方向の検出は、たとえば、公知のアイトラッキング機能によって実現される。注視センサ140は、当該アイトラッキング機能を有するセンサにより実現される。ある局面において、注視センサ140は、右目用のセンサおよび左目用のセンサを含むことが好ましい。注視センサ140は、たとえば、ユーザ190の右目および左目に赤外光を照射するとともに、照射光に対する角膜および虹彩からの反射光を受けることにより各眼球の回転角を検出するセンサであってもよい。注視センサ140は、検出した各回転角に基づいて、ユーザ190の視線方向を検知することができる。   The gaze sensor 140 detects the direction (gaze direction) in which the gaze of the right eye and the left eye of the user 190 is directed. The detection of the direction is realized by, for example, a known eye tracking function. The gaze sensor 140 is realized by a sensor having the eye tracking function. In one aspect, the gaze sensor 140 preferably includes a sensor for the right eye and a sensor for the left eye. The gaze sensor 140 may be, for example, a sensor that emits infrared light to the right and left eyes of the user 190, and detects the rotation angle of each eye by receiving reflected light from the cornea and iris to the irradiated light. . The gaze sensor 140 can detect the gaze direction of the user 190 based on each detected rotation angle.

スピーカ115は、コンピュータ200から受信した音声データに対応する音声(発話)を外部に出力する。マイク119は、ユーザ190の発話に対応する音声データをコンピュータ200に出力する。ユーザ190は、マイク119を用いて他のユーザに向けて発話する一方で、スピーカ115を用いて他のユーザの音声(発話)を聞くことができる。   The speaker 115 outputs voice (utterance) corresponding to voice data received from the computer 200 to the outside. The microphone 119 outputs voice data corresponding to the speech of the user 190 to the computer 200. The user 190 can speak to another user using the microphone 119 while listening to the voice (speech) of the other user using the speaker 115.

より具体的には、ユーザ190がマイク119に向かって発話すると、当該ユーザ190の発話に対応する音声データがコンピュータ200に入力される。コンピュータ200は、その音声データを、ネットワーク19を介してサーバ150に出力する。サーバ150は、コンピュータ200から受信した音声データを、ネットワーク19を介して他のコンピュータ200に出力する。他のコンピュータ200は、サーバ150から受信した音声データを、他のユーザが装着するHMD110のスピーカ115に出力する。これにより、他のユーザは、HMD110のスピーカ115を介してユーザ190の音声を聞くことができる。同様に、他のユーザからの発話は、ユーザ190が装着するHMD110のスピーカ115から出力される。   More specifically, when the user 190 speaks into the microphone 119, voice data corresponding to the speech of the user 190 is input to the computer 200. The computer 200 outputs the voice data to the server 150 via the network 19. The server 150 outputs the audio data received from the computer 200 to another computer 200 via the network 19. The other computer 200 outputs the audio data received from the server 150 to the speaker 115 of the HMD 110 worn by another user. This allows other users to hear the voice of the user 190 via the speaker 115 of the HMD 110. Similarly, utterances from other users are output from the speaker 115 of the HMD 110 worn by the user 190.

コンピュータ200は、他のユーザのコンピュータ200から受信した音声データに応じて、当該他のユーザに対応する他アバターオブジェクトを動かすような画像をモニタ112に表示する。たとえば、ある局面において、コンピュータ200は、他アバターオブジェクトの口を動かすような画像をモニタ112に表示することで、あたかも仮想空間2内でアバターオブジェクト同士が会話しているかのように仮想空間2を表現する。このように、複数のコンピュータ200間で音声データの送受信が行なわれることで、一の仮想空間2内で複数のユーザ間での会話(チャット)が実現される。   The computer 200 displays, on the monitor 112, an image for moving another avatar object corresponding to the other user according to the voice data received from the computer 200 of the other user. For example, in one aspect, the computer 200 displays an image for moving the mouth of another avatar object on the monitor 112, so that the virtual space 2 is displayed as if the avatar objects are in conversation in the virtual space 2. Express. Thus, by transmitting and receiving audio data between the plurality of computers 200, conversation (chat) among a plurality of users is realized in one virtual space 2.

HMDセンサ120は、複数の光源(図示しない)を含む。各光源は、たとえば、赤外線を発するLED(Light Emitting Diode)により実現される。HMDセンサ120は、HMD110の動きを検出するためのポジショントラッキング機能を有する。HMDセンサ120は、この機能を用いて、現実空間内におけるHMD110の位置および傾きを検出する。   The HMD sensor 120 includes a plurality of light sources (not shown). Each light source is realized by, for example, an LED (Light Emitting Diode) that emits infrared light. The HMD sensor 120 has a position tracking function for detecting the movement of the HMD 110. The HMD sensor 120 uses this function to detect the position and tilt of the HMD 110 in the physical space.

なお、他の局面において、HMDセンサ120は、カメラにより実現されてもよい。この場合、HMDセンサ120は、カメラから出力されるHMD110の画像情報を用いて、画像解析処理を実行することにより、HMD110の位置および傾きを検出することができる。   In another aspect, the HMD sensor 120 may be realized by a camera. In this case, the HMD sensor 120 can detect the position and the inclination of the HMD 110 by executing the image analysis process using the image information of the HMD 110 output from the camera.

他の局面において、HMD110は、位置検出器として、HMDセンサ120の代わりに、センサ114を備えてもよい。HMD110は、センサ114を用いて、HMD110自身の位置および傾きを検出し得る。たとえば、センサ114が、角速度センサ、地磁気センサ、加速度センサ、あるいはジャイロセンサなどである場合、HMD110は、HMDセンサ120の代わりに、これらの各センサのいずれかを用いて、自身の位置および傾きを検出し得る。一例として、センサ114が角速度センサである場合、角速度センサは、現実空間におけるHMD110の3軸周りの角速度を経時的に検出する。HMD110は、各角速度に基づいて、HMD110の3軸周りの角度の時間的変化を算出し、さらに、角度の時間的変化に基づいて、HMD110の傾きを算出する。   In another aspect, the HMD 110 may include a sensor 114 instead of the HMD sensor 120 as a position detector. HMD 110 may use sensor 114 to detect the position and tilt of HMD 110 itself. For example, when the sensor 114 is an angular velocity sensor, a geomagnetic sensor, an acceleration sensor, or a gyro sensor, the HMD 110 uses one of these sensors instead of the HMD sensor 120 to determine its position and tilt. It can be detected. As an example, when the sensor 114 is an angular velocity sensor, the angular velocity sensor detects the angular velocity around three axes of the HMD 110 in real space over time. The HMD 110 calculates temporal changes in angles around the three axes of the HMD 110 based on each angular velocity, and further calculates inclination of the HMD 110 based on temporal changes in angles.

また、HMD110は、透過型表示装置を備えていても良い。この場合、当該透過型表示装置は、その透過率を調整することにより、一時的に非透過型の表示装置として構成可能であってもよい。また、視野画像は仮想空間2を構成する画像の一部に、現実空間を提示する構成を含んでいてもよい。たとえば、HMD110に搭載されたカメラで撮影した画像を視野画像の一部に重畳して表示させてもよいし、当該透過型表示装置の一部の透過率を高く設定することにより、視野画像の一部から現実空間を視認可能にしてもよい。   The HMD 110 may also include a transmissive display device. In this case, the transmissive display device may be temporarily configured as a non-transmissive display device by adjusting the transmittance thereof. Further, the view image may include a configuration for presenting the real space in a part of the image constituting the virtual space 2. For example, an image captured by a camera mounted on the HMD 110 may be superimposed and displayed on a part of the visual field image, or by setting the transmittance of a part of the transmissive display device to be high, The real space may be visible from part.

サーバ150は、コンピュータ200にプログラムを送信し得る。他の局面において、サーバ150は、他のユーザによって使用されるHMD110に仮想現実を提供するための他のコンピュータ200と通信し得る。たとえば、アミューズメント施設において、複数のユーザが参加型のゲームを行なう場合、各コンピュータ200は、各ユーザの動作に基づく信号を他のコンピュータ200と通信して、同じ仮想空間2において複数のユーザが共通のゲームを楽しむことを可能にする。また、上述したように、複数のコンピュータ200が各ユーザの動作に基づく信号を送受信することで、一の仮想空間2内で複数のユーザが会話を楽しむことができる。   The server 150 may send the program to the computer 200. In another aspect, the server 150 may communicate with other computers 200 for providing virtual reality to the HMD 110 used by other users. For example, when a plurality of users play a participatory game in an amusement facility, each computer 200 communicates a signal based on each user's operation with another computer 200 so that a plurality of users share the same virtual space 2 Allows you to enjoy the game of. Further, as described above, the plurality of computers 200 can enjoy the conversation in the one virtual space 2 by transmitting and receiving signals based on the operations of the respective users.

コントローラ160は、ユーザ190からコンピュータ200への命令の入力を受け付ける。ある局面において、コントローラ160は、ユーザ190によって把持可能に構成される。他の局面において、コントローラ160は、ユーザ190の身体あるいは衣類の一部に装着可能に構成される。他の局面において、コントローラ160は、コンピュータ200から送られる信号に基づいて、振動、音、光のうちの少なくともいずれかを出力するように構成されてもよい。他の局面において、コントローラ160は、仮想現実を提供する空間に配置されるオブジェクトの位置や動きを制御するためにユーザ190によって与えられる操作を受け付ける。   The controller 160 receives an input of an instruction from the user 190 to the computer 200. In one aspect, controller 160 is configured to be graspable by user 190. In another aspect, the controller 160 is configured to be attachable to the body of the user 190 or a part of the clothes. In another aspect, the controller 160 may be configured to output vibration, sound, and / or light based on a signal sent from the computer 200. In another aspect, the controller 160 receives an operation provided by the user 190 to control the position and movement of an object placed in a space providing virtual reality.

モーションセンサ130は、ある局面において、ユーザ190の手に取り付けられて、ユーザ190の手の動きを検出する。たとえば、モーションセンサ130は、手の回転速度、回転数などを検出する。モーションセンサ130によって得られたユーザ190の手の動きの検出結果を表すデータ(以下、検出データともいう)は、コンピュータ200に送られる。モーションセンサ130は、たとえば、手袋型のコントローラ160に設けられている。ある実施の形態において、現実空間における安全のため、コントローラ160は、手袋型のようにユーザ190の手に装着されることにより容易に飛んで行かないものに装着されるのが望ましい。他の局面において、ユーザ190に装着されないセンサがユーザ190の手の動きを検出してもよい。たとえば、ユーザ190を撮影するカメラの信号が、ユーザ190の動作を表す信号として、コンピュータ200に入力されてもよい。モーションセンサ130とコンピュータ200とは、有線により、または無線により互いに接続される。無線の場合、通信形態は特に限られず、たとえば、Bluetooth(登録商標)その他の公知の通信手法が用いられる。   The motion sensor 130 is attached to the hand of the user 190 and detects the movement of the hand of the user 190 in one aspect. For example, the motion sensor 130 detects the rotation speed, rotation speed, and the like of the hand. Data (hereinafter also referred to as detection data) representing the detection result of the hand movement of the user 190 obtained by the motion sensor 130 is sent to the computer 200. The motion sensor 130 is provided, for example, in a glove-shaped controller 160. In one embodiment, for security in real space, the controller 160 is preferably worn like a glove type that does not easily fly by being worn on the hand of the user 190. In another aspect, a sensor not attached to the user 190 may detect the hand movement of the user 190. For example, a signal of a camera that captures the user 190 may be input to the computer 200 as a signal representing an operation of the user 190. The motion sensor 130 and the computer 200 are connected to each other by wire or wirelessly. In the case of wireless communication, the communication form is not particularly limited, and, for example, Bluetooth (registered trademark) or other known communication methods are used.

他の局面において、HMDシステム100は、テレビジョン放送受信チューナを備えてもよい。このような構成によれば、HMDシステム100は、仮想空間2においてテレビ番組を表示することができる。   In another aspect, the HMD system 100 may include a television broadcast receiver tuner. According to such a configuration, the HMD system 100 can display a television program in the virtual space 2.

さらに他の局面において、HMDシステム100は、インターネットに接続するための通信回路、あるいは、電話回線に接続するための通話機能を備えていてもよい。   In yet another aspect, the HMD system 100 may be provided with a communication circuit for connecting to the Internet or a call function for connecting to a telephone line.

[コンピュータのハードウェア構成]
図2を参照して、本実施の形態に係るコンピュータ200について説明する。図2は、一局面に従うコンピュータ200のハードウェア構成の一例を表すブロック図である。コンピュータ200は、主たる構成要素として、プロセッサ10と、メモリ11と、ストレージ12と、入出力インターフェース13と、通信インターフェース14とを備える。各構成要素は、それぞれ、バス15に接続されている。
[Computer hardware configuration]
A computer 200 according to the present embodiment will be described with reference to FIG. FIG. 2 is a block diagram illustrating an example of a hardware configuration of a computer 200 according to an aspect. The computer 200 includes a processor 10, a memory 11, a storage 12, an input / output interface 13, and a communication interface 14 as main components. Each component is connected to the bus 15 respectively.

プロセッサ10は、コンピュータ200に与えられる信号に基づいて、あるいは、予め定められた条件が成立したことに基づいて、メモリ11またはストレージ12に格納されているプログラムに含まれる一連の命令を実行する。ある局面において、プロセッサ10は、CPU(Central Processing Unit)、MPU(Micro Processor Unit)、FPGA(Field-Programmable Gate Array)その他のデバイスとして実現される。   The processor 10 executes a series of instructions included in a program stored in the memory 11 or the storage 12 based on a signal supplied to the computer 200 or based on the establishment of a predetermined condition. In one aspect, the processor 10 is realized as a central processing unit (CPU), a micro processor unit (MPU), a field-programmable gate array (FPGA) or other devices.

メモリ11は、プログラムおよびデータを一時的に保存する。プログラムは、たとえば、ストレージ12からロードされる。データは、コンピュータ200に入力されたデータと、プロセッサ10によって生成されたデータとを含む。ある局面において、メモリ11は、RAM(Random Access Memory)その他の揮発メモリとして実現される。   The memory 11 temporarily stores programs and data. The program is, for example, loaded from the storage 12. The data includes data input to the computer 200 and data generated by the processor 10. In one aspect, the memory 11 is implemented as a random access memory (RAM) or another volatile memory.

ストレージ12は、プログラムおよびデータを永続的に保持する。ストレージ12は、たとえば、ROM(Read-Only Memory)、ハードディスク装置、フラッシュメモリ、その他の不揮発記憶装置として実現される。ストレージ12に格納されるプログラムは、HMDシステム100において仮想空間2を提供するためのプログラム、シミュレーションプログラム、ゲームプログラム、ユーザ認証プログラム、他のコンピュータ200との通信を実現するためのプログラムを含む。ストレージ12に格納されるデータは、仮想空間2を規定するためのデータおよびオブジェクトなどを含む。   The storage 12 holds programs and data permanently. The storage 12 is implemented, for example, as a read-only memory (ROM), a hard disk drive, a flash memory, or another non-volatile storage device. The programs stored in the storage 12 include a program for providing the virtual space 2 in the HMD system 100, a simulation program, a game program, a user authentication program, and a program for realizing communication with another computer 200. The data stored in the storage 12 includes data, objects and the like for defining the virtual space 2.

なお、他の局面において、ストレージ12は、メモリカードのように着脱可能な記憶装置として実現されてもよい。さらに他の局面において、コンピュータ200に内蔵されたストレージ12の代わりに、外部の記憶装置に保存されているプログラムおよびデータを使用する構成が使用されてもよい。このような構成によれば、たとえば、アミューズメント施設のように複数のHMDシステム100が使用される場面において、プログラムやデータの更新を一括して行なうことが可能になる。   In another aspect, the storage 12 may be realized as a removable storage device such as a memory card. In still another aspect, a configuration using programs and data stored in an external storage device may be used instead of the storage 12 built in the computer 200. According to such a configuration, for example, in a situation where a plurality of HMD systems 100 are used, such as an amusement facility, it is possible to perform updating of programs and data collectively.

ある実施の形態において、入出力インターフェース13は、HMD110、HMDセンサ120またはモーションセンサ130との間で信号を通信する。ある局面において、入出力インターフェース13は、USB(Universal Serial Bus)インターフェース、DVI(Digital Visual Interface)、HDMI(登録商標)(High-Definition Multimedia Interface)その他の端子を用いて実現される。なお、入出力インターフェース13は上述のものに限られない。   In one embodiment, input / output interface 13 communicates signals with HMD 110, HMD sensor 120 or motion sensor 130. In one aspect, the input / output interface 13 is realized using a Universal Serial Bus (USB) interface, a Digital Visual Interface (DVI), a High-Definition Multimedia Interface (HDMI (registered trademark)), and other terminals. The input / output interface 13 is not limited to the one described above.

ある実施の形態において、入出力インターフェース13は、さらに、コントローラ160と通信し得る。たとえば、入出力インターフェース13は、モーションセンサ130から出力された信号の入力を受ける。他の局面において、入出力インターフェース13は、プロセッサ10から出力された命令を、コントローラ160に送る。当該命令は、振動、音声出力、発光などをコントローラ160に指示する。コントローラ160は、当該命令を受信すると、その命令に応じて、振動、音声出力または発光のいずれかを実行する。   In one embodiment, input / output interface 13 may further communicate with controller 160. For example, the input / output interface 13 receives an input of a signal output from the motion sensor 130. In another aspect, the input / output interface 13 sends an instruction output from the processor 10 to the controller 160. The command instructs the controller 160 to vibrate, output sound, emit light, and the like. When the controller 160 receives the command, the controller 160 executes vibration, voice output or light emission according to the command.

通信インターフェース14は、ネットワーク19に接続されて、ネットワーク19に接続されている他のコンピュータ(たとえば、サーバ150、他のユーザのコンピュータ200など)と通信する。ある局面において、通信インターフェース14は、たとえば、LAN(Local Area Network)その他の有線通信インターフェース、あるいは、WiFi(Wireless Fidelity)、Bluetooth(登録商標)、NFC(Near Field Communication)その他の無線通信インターフェースとして実現される。なお、通信インターフェース14は上述のものに限られない。   The communication interface 14 is connected to the network 19 to communicate with other computers (for example, the server 150, the computer 200 of another user, etc.) connected to the network 19. In one aspect, communication interface 14 is implemented as, for example, a LAN (Local Area Network) or other wired communication interface, or WiFi (Wireless Fidelity), Bluetooth (registered trademark), NFC (Near Field Communication) or other wireless communication interface. Be done. The communication interface 14 is not limited to the one described above.

ある局面において、プロセッサ10は、ストレージ12にアクセスし、ストレージ12に格納されている1つ以上のプログラムをメモリ11にロードし、当該プログラムに含まれる一連の命令を実行する。当該1つ以上のプログラムは、コンピュータ200のオペレーティングシステム、仮想空間2を提供するためのアプリケーションプログラム、コントローラ160を用いて仮想空間2で実行可能なゲームソフトウェアなどを含み得る。プロセッサ10は、入出力インターフェース13を介して、仮想空間2を提供するための信号をHMD110に送る。HMD110は、その信号に基づいてモニタ112に映像を表示する。   In one aspect, the processor 10 accesses the storage 12, loads one or more programs stored in the storage 12 into the memory 11, and executes a series of instructions included in the program. The one or more programs may include an operating system of the computer 200, an application program for providing the virtual space 2, game software executable in the virtual space 2 using the controller 160, and the like. The processor 10 sends a signal for providing the virtual space 2 to the HMD 110 via the input / output interface 13. The HMD 110 displays an image on the monitor 112 based on the signal.

なお、図2に示される例では、コンピュータ200は、HMD110の外部に設けられる構成が示されているが、他の局面において、コンピュータ200は、HMD110に内蔵されてもよい。一例として、モニタ112を含む携帯型の情報通信端末(たとえば、スマートフォン)がコンピュータ200として機能してもよい。   In the example illustrated in FIG. 2, the computer 200 is configured to be provided outside the HMD 110. However, in another aspect, the computer 200 may be incorporated in the HMD 110. As one example, a portable information communication terminal (for example, a smartphone) including the monitor 112 may function as the computer 200.

また、コンピュータ200は、複数のHMD110に共通して用いられる構成であってもよい。このような構成によれば、たとえば、複数のユーザに同一の仮想空間2を提供することもできるので、各ユーザは同一の仮想空間2で他のユーザと同一のアプリケーションを楽しむことができる。   In addition, the computer 200 may be configured to be commonly used for the plurality of HMDs 110. According to such a configuration, for example, since the same virtual space 2 can be provided to a plurality of users, each user can enjoy the same application as other users in the same virtual space 2.

ある実施の形態において、HMDシステム100では、グローバル座標系が予め設定されている。グローバル座標系は、現実空間における鉛直方向、鉛直方向に直交する水平方向、ならびに、鉛直方向および水平方向の双方に直交する前後方向にそれぞれ平行な、3つの基準方向(軸)を有する。本実施の形態では、グローバル座標系は視点座標系の一つである。そこで、グローバル座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれ、x軸、y軸、z軸と規定される。より具体的には、グローバル座標系において、x軸は現実空間の水平方向に平行である。y軸は、現実空間の鉛直方向に平行である。z軸は現実空間の前後方向に平行である。   In one embodiment, in the HMD system 100, a global coordinate system is preset. The global coordinate system has three reference directions (axes) parallel to the vertical direction in real space, the horizontal direction perpendicular to the vertical direction, and the front-back direction orthogonal to both the vertical direction and the horizontal direction. In the present embodiment, the global coordinate system is one of viewpoint coordinate systems. Therefore, the horizontal direction, the vertical direction (vertical direction), and the front-rear direction in the global coordinate system are defined as an x-axis, a y-axis, and a z-axis, respectively. More specifically, in the global coordinate system, the x-axis is parallel to the horizontal direction of the real space. The y-axis is parallel to the vertical direction of the real space. The z axis is parallel to the front and back direction of the real space.

ある局面において、HMDセンサ120は、赤外線センサを含む。赤外線センサが、HMD110の各光源から発せられた赤外線をそれぞれ検出すると、HMD110の存在を検出する。HMDセンサ120は、さらに、各点の値(グローバル座標系における各座標値)に基づいて、HMD110を装着したユーザ190の動きに応じた、現実空間内におけるHMD110の位置および傾きを検出する。より詳しくは、HMDセンサ120は、経時的に検出された各値を用いて、HMD110の位置および傾きの時間的変化を検出できる。   In one aspect, the HMD sensor 120 includes an infrared sensor. When the infrared sensor detects the infrared rays emitted from the respective light sources of the HMD 110, the presence of the HMD 110 is detected. The HMD sensor 120 further detects the position and the inclination of the HMD 110 in the real space according to the movement of the user 190 wearing the HMD 110 based on the value of each point (each coordinate value in the global coordinate system). More specifically, the HMD sensor 120 can detect temporal changes in the position and inclination of the HMD 110 using each value detected over time.

グローバル座標系は現実空間の座標系と平行である。したがって、HMDセンサ120によって検出されたHMD110の各傾きは、グローバル座標系におけるHMD110の3軸周りの各傾きに相当する。HMDセンサ120は、グローバル座標系におけるHMD110の傾きに基づき、uvw視野座標系をHMD110に設定する。HMD110に設定されるuvw視野座標系は、HMD110を装着したユーザ190が仮想空間2において物体を見る際の視点座標系に対応する。   The global coordinate system is parallel to the real space coordinate system. Therefore, each inclination of the HMD 110 detected by the HMD sensor 120 corresponds to each inclination around three axes of the HMD 110 in the global coordinate system. The HMD sensor 120 sets the uvw visual field coordinate system to the HMD 110 based on the inclination of the HMD 110 in the global coordinate system. The uvw visual field coordinate system set in the HMD 110 corresponds to the visual point coordinate system when the user 190 wearing the HMD 110 views an object in the virtual space 2.

[uvw視野座標系]
図3を参照して、uvw視野座標系について説明する。図3は、ある実施の形態に従うHMD110に設定されるuvw視野座標系を概念的に表す図である。HMDセンサ120は、HMD110の起動時に、グローバル座標系におけるHMD110の位置および傾きを検出する。プロセッサ10は、検出された値に基づいて、uvw視野座標系をHMD110に設定する。
[Uvw view coordinate system]
The uvw view coordinate system will be described with reference to FIG. FIG. 3 is a diagram conceptually illustrating the uvw visual field coordinate system set in the HMD 110 according to an embodiment. The HMD sensor 120 detects the position and tilt of the HMD 110 in the global coordinate system when the HMD 110 is activated. The processor 10 sets the uvw visual field coordinate system to the HMD 110 based on the detected value.

図3に示されるように、HMD110は、HMD110を装着したユーザ190の頭部を中心(原点)とした3次元のuvw視野座標系を設定する。より具体的には、HMD110は、グローバル座標系を規定する水平方向、鉛直方向、および前後方向(x軸、y軸、z軸)を、グローバル座標系内においてHMD110の各軸周りの傾きだけ各軸周りにそれぞれ傾けることによって新たに得られる3つの方向を、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)として設定する。   As shown in FIG. 3, the HMD 110 sets a three-dimensional uvw visual field coordinate system centered on the head of the user 190 wearing the HMD 110 (origin). More specifically, the HMD 110 defines the global coordinate system in the horizontal direction, the vertical direction, and the front-back direction (x-axis, y-axis, z-axis) by inclination around each axis of the HMD 110 in the global coordinate system. Three directions newly obtained by tilting around the axes respectively are set as the pitch direction (u axis), the yaw direction (v axis), and the roll direction (w axis) of the uvw view coordinate system in the HMD 110.

ある局面において、HMD110を装着したユーザ190が直立し、かつ、正面を視認している場合、プロセッサ10は、グローバル座標系に平行なuvw視野座標系をHMD110に設定する。この場合、グローバル座標系における水平方向(x軸)、鉛直方向(y軸)、および前後方向(z軸)は、HMD110におけるuvw視野座標系のピッチ方向(u軸)、ヨー方向(v軸)、およびロール方向(w軸)に一致する。   In one aspect, when the user 190 wearing the HMD 110 stands upright and views the front, the processor 10 sets the uvw visual field coordinate system parallel to the global coordinate system to the HMD 110. In this case, the horizontal direction (x-axis), the vertical direction (y-axis), and the front-back direction (z-axis) in the global coordinate system are the pitch direction (u-axis) of the uvw view coordinate system in the HMD 110, the yaw direction (v-axis) , And in the roll direction (w axis).

uvw視野座標系がHMD110に設定された後、HMDセンサ120は、HMD110の動きに基づいて、設定されたuvw視野座標系におけるHMD110の傾き(傾きの変化量)を検出できる。この場合、HMDセンサ120は、HMD110の傾きとして、uvw視野座標系におけるHMD110のピッチ角(θu)、ヨー角(θv)、およびロール角(θw)をそれぞれ検出する。ピッチ角(θu)は、uvw視野座標系におけるピッチ方向周りのHMD110の傾き角度を表す。ヨー角(θv)は、uvw視野座標系におけるヨー方向周りのHMD110の傾き角度を表す。ロール角(θw)は、uvw視野座標系におけるロール方向周りのHMD110の傾き角度を表す。   After the uvw visual field coordinate system is set to the HMD 110, the HMD sensor 120 can detect the inclination (the amount of change in the inclination) of the HMD 110 in the set uvw visual field coordinate system based on the movement of the HMD 110. In this case, the HMD sensor 120 detects the pitch angle (θu), the yaw angle (θv), and the roll angle (θw) of the HMD 110 in the uvw view coordinate system as the inclination of the HMD 110, respectively. The pitch angle (θu) represents the inclination angle of the HMD 110 around the pitch direction in the uvw view coordinate system. The yaw angle (θv) represents the inclination angle of the HMD 110 around the yaw direction in the uvw view coordinate system. The roll angle (θw) represents the inclination angle of the HMD 110 around the roll direction in the uvw view coordinate system.

HMDセンサ120は、検出されたHMD110の傾き角度に基づいて、HMD110が動いた後のHMD110におけるuvw視野座標系を、HMD110に設定する。HMD110と、HMD110のuvw視野座標系との関係は、HMD110の位置および傾きに関わらず、常に一定である。HMD110の位置および傾きが変わると、当該位置および傾きの変化に連動して、グローバル座標系におけるHMD110のuvw視野座標系の位置および傾きが変化する。   The HMD sensor 120 sets the uvw visual field coordinate system in the HMD 110 after the HMD 110 has moved to the HMD 110 based on the detected inclination angle of the HMD 110. The relationship between the HMD 110 and the uvw view coordinate system of the HMD 110 is always constant regardless of the position and tilt of the HMD 110. When the position and the inclination of the HMD 110 change, the position and the inclination of the uvw view coordinate system of the HMD 110 in the global coordinate system change in conjunction with the change of the position and the inclination.

ある局面において、HMDセンサ120は、赤外線センサからの出力に基づいて取得される赤外線の光強度および複数の点間の相対的な位置関係(たとえば、各点間の距離など)に基づいて、HMD110の現実空間内における位置を、HMDセンサ120に対する相対位置として特定してもよい。また、プロセッサ10は、特定された相対位置に基づいて、現実空間内(グローバル座標系)におけるHMD110のuvw視野座標系の原点を決定してもよい。   In one aspect, the HMD sensor 120 detects the HMD 110 based on the light intensity of the infrared light acquired based on the output from the infrared sensor and the relative positional relationship between the plurality of points (for example, the distance between each point). The position in the real space of may be specified as a relative position to the HMD sensor 120. Also, the processor 10 may determine the origin of the uvw visual field coordinate system of the HMD 110 in the real space (global coordinate system) based on the identified relative position.

[仮想空間]
図4を参照して、仮想空間2についてさらに説明する。図4は、ある実施の形態に従う仮想空間2を表現する一態様を概念的に表す図である。仮想空間2は、中心21の360度方向の全体を覆う全天球状の構造を有する。図4では、説明を複雑にしないために、仮想空間2のうちの上半分の天球が例示されている。仮想空間2では各メッシュが規定される。各メッシュの位置は、仮想空間2に規定されるXYZ座標系における座標値として予め規定されている。コンピュータ200は、仮想空間2に展開可能なコンテンツ(静止画、動画など)を構成する各部分画像を、仮想空間2において対応する各メッシュにそれぞれ対応付けて、ユーザ190によって視認可能な仮想空間画像22が展開される仮想空間2をユーザ190に提供する。
[Virtual space]
The virtual space 2 will be further described with reference to FIG. FIG. 4 is a diagram conceptually illustrating an aspect of representing virtual space 2 according to an embodiment. The virtual space 2 has an all-sky spherical structure that covers the entire 360-degree direction of the center 21. In FIG. 4, the celestial sphere in the upper half of the virtual space 2 is illustrated so as not to complicate the description. In the virtual space 2, each mesh is defined. The position of each mesh is previously defined as coordinate values in the XYZ coordinate system defined in the virtual space 2. The computer 200 associates virtual images that can be viewed by the user 190 with the partial images that constitute content (still images, moving images, etc.) that can be developed in the virtual space 2 associated with the corresponding meshes in the virtual space 2. 22 provides the user 190 with the virtual space 2 to be deployed.

ある局面において、仮想空間2では、中心21を原点とするXYZ座標系が規定される。XYZ座標系は、たとえば、グローバル座標系に平行である。XYZ座標系は視点座標系の一種であるため、XYZ座標系における水平方向、鉛直方向(上下方向)、および前後方向は、それぞれX軸、Y軸、Z軸として規定される。したがって、XYZ座標系のX軸(水平方向)がグローバル座標系のx軸と平行であり、XYZ座標系のY軸(鉛直方向)がグローバル座標系のy軸と平行であり、XYZ座標系のZ軸(前後方向)がグローバル座標系のz軸と平行である。   In one aspect, in the virtual space 2, an XYZ coordinate system having a center 21 as an origin is defined. The XYZ coordinate system is, for example, parallel to the global coordinate system. Since the XYZ coordinate system is a kind of viewpoint coordinate system, the horizontal direction, the vertical direction (vertical direction), and the front-rear direction in the XYZ coordinate system are defined as an X axis, a Y axis, and a Z axis, respectively. Therefore, the X axis (horizontal direction) of the XYZ coordinate system is parallel to the x axis of the global coordinate system, the Y axis (vertical direction) of the XYZ coordinate system is parallel to the y axis of the global coordinate system, and The Z-axis (front-back direction) is parallel to the z-axis of the global coordinate system.

HMD110の起動時、すなわちHMD110の初期状態において、仮想カメラ1が、仮想空間2の中心21に配置される。仮想カメラ1は、現実空間におけるHMD110の動きに連動して、仮想空間2を同様に移動する。これにより、現実空間におけるHMD110の位置および向きの変化が、仮想空間2において同様に再現される。   When the HMD 110 is activated, that is, in the initial state of the HMD 110, the virtual camera 1 is disposed at the center 21 of the virtual space 2. The virtual camera 1 similarly moves in the virtual space 2 in conjunction with the movement of the HMD 110 in the real space. Thereby, changes in the position and orientation of the HMD 110 in the real space are similarly reproduced in the virtual space 2.

仮想カメラ1には、HMD110の場合と同様に、uvw視野座標系が規定される。仮想空間2における仮想カメラのuvw視野座標系は、現実空間(グローバル座標系)におけるHMD110のuvw視野座標系に連動するように規定されている。したがって、HMD110の傾きが変化すると、それに応じて、仮想カメラ1の傾きも変化する。また、仮想カメラ1は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において移動することもできる。   As in the case of the HMD 110, a uvw visual field coordinate system is defined in the virtual camera 1. The uvw view coordinate system of the virtual camera in the virtual space 2 is defined to interlock with the uvw view coordinate system of the HMD 110 in the real space (global coordinate system). Therefore, when the inclination of the HMD 110 changes, the inclination of the virtual camera 1 also changes accordingly. The virtual camera 1 can also move in the virtual space 2 in conjunction with the movement of the user 190 wearing the HMD 110 in the real space.

仮想カメラ1の向きは、仮想カメラ1の位置および傾きに応じて決まるので、ユーザ190が仮想空間画像22を視認する際に基準となる視線(基準視線5)は、仮想カメラ1の向きに応じて決まる。コンピュータ200のプロセッサ10は、基準視線5に基づいて、仮想空間2における視界領域23を規定する。視界領域23は、仮想空間2のうち、HMD110を装着したユーザ190の視界に対応する。   Since the direction of the virtual camera 1 is determined according to the position and the inclination of the virtual camera 1, the line of sight (reference line of sight 5) serving as a reference when the user 190 views the virtual space image 22 depends on the direction of the virtual camera 1 It is decided. The processor 10 of the computer 200 defines a view area 23 in the virtual space 2 based on the reference line of sight 5. The view area 23 corresponds to the view of the user 190 wearing the HMD 110 in the virtual space 2.

注視センサ140によって検出されるユーザ190の視線方向は、ユーザ190が物体を視認する際の視点座標系における方向である。HMD110のuvw視野座標系は、ユーザ190がモニタ112を視認する際の視点座標系に等しい。また、仮想カメラ1のuvw視野座標系は、HMD110のuvw視野座標系に連動している。したがって、ある局面に従うHMDシステム100は、注視センサ140によって検出されたユーザ190の視線方向を、仮想カメラ1のuvw視野座標系におけるユーザ190の視線方向とみなすことができる。   The gaze direction of the user 190 detected by the gaze sensor 140 is a direction in the viewpoint coordinate system when the user 190 visually recognizes an object. The uvw view coordinate system of the HMD 110 is equal to the view coordinate system when the user 190 views the monitor 112. Further, the uvw view coordinate system of the virtual camera 1 is linked to the uvw view coordinate system of the HMD 110. Therefore, the HMD system 100 according to an aspect can regard the gaze direction of the user 190 detected by the gaze sensor 140 as the gaze direction of the user 190 in the uvw view coordinate system of the virtual camera 1.

[ユーザの視線]
図5を参照して、ユーザ190の視線方向の決定について説明する。図5は、ある実施の形態に従うHMD110を装着するユーザ190の頭部を上から表した図である。
[User's gaze]
The determination of the gaze direction of the user 190 will be described with reference to FIG. FIG. 5 is a top view of the head of a user 190 wearing the HMD 110 according to one embodiment.

ある局面において、注視センサ140は、ユーザ190の右目および左目の各視線を検出する。ある局面において、ユーザ190が近くを見ている場合、注視センサ140は、視線R1およびL1を検出する。他の局面において、ユーザ190が遠くを見ている場合、注視センサ140は、視線R2およびL2を検出する。この場合、ロール方向wに対して視線R2およびL2がなす角度は、ロール方向wに対して視線R1およびL1がなす角度よりも小さい。注視センサ140は、検出結果をコンピュータ200に送信する。   In one aspect, the gaze sensor 140 detects the gaze of each of the right eye and the left eye of the user 190. In one aspect, when the user 190 is looking close, the gaze sensor 140 detects the sight lines R1 and L1. In another aspect, when the user 190 is looking far, the gaze sensor 140 detects the sight lines R2 and L2. In this case, the angle between the lines of sight R2 and L2 with respect to the roll direction w is smaller than the angle between the lines of sight R1 and L1 with respect to the direction of roll w. The gaze sensor 140 transmits the detection result to the computer 200.

コンピュータ200が、視線の検出結果として、視線R1およびL1の検出値を注視センサ140から受信した場合には、その検出値に基づいて、視線R1およびL1の交点である注視点N1を特定する。一方、コンピュータ200は、視線R2およびL2の検出値を注視センサ140から受信した場合には、視線R2およびL2の交点を注視点として特定する。コンピュータ200は、特定した注視点N1の位置に基づき、ユーザ190の視線方向N0を特定する。コンピュータ200は、たとえば、ユーザ190の右目Rと左目Lとを結ぶ直線の中点と、注視点N1とを通る直線の延びる方向を、視線方向N0として検出する。視線方向N0は、ユーザ190が両目により実際に視線を向けている方向である。また、視線方向N0は、視界領域23に対してユーザ190が実際に視線を向けている方向に相当する。   When the computer 200 receives the detection values of the lines of sight R1 and L1 from the gaze sensor 140 as the detection result of the line of sight, the gaze point N1 which is the intersection of the lines of sight R1 and L1 is specified based on the detection values. On the other hand, when the computer 200 receives the detection values of the sight lines R2 and L2 from the gaze sensor 140, the computer 200 specifies the intersection of the sight lines R2 and L2 as the gaze point. The computer 200 identifies the gaze direction N0 of the user 190 based on the identified position of the fixation point N1. The computer 200 detects, for example, the direction in which the straight line passing through the midpoint of the straight line connecting the right eye R and the left eye L of the user 190 and the gaze point N1 is the line of sight direction N0. The gaze direction N0 is the direction in which the user 190 is actually pointing the gaze with both eyes. Further, the line-of-sight direction N0 corresponds to the direction in which the user 190 actually points the line of sight with respect to the view area 23.

[視界領域]
図6および図7を参照して、視界領域23について説明する。図6は、仮想空間2において視界領域23をX方向から見たYZ断面を表す図である。図7は、仮想空間2において視界領域23をY方向から見たXZ断面を表す図である。
[View area]
The view area 23 will be described with reference to FIGS. 6 and 7. FIG. 6 is a diagram showing a YZ cross section of the virtual space 2 when the field of view 23 is viewed from the X direction. FIG. 7 is a diagram showing an XZ cross section in which the visibility region 23 is viewed from the Y direction in the virtual space 2.

図6に示されるように、YZ断面における視界領域23は、領域24を含む。領域24は、仮想カメラ1の基準視線5と仮想空間2のYZ断面とによって定義される。プロセッサ10は、仮想空間2おける基準視線5を中心として極角αを含む範囲を、領域24として規定する。   As shown in FIG. 6, the view area 23 in the YZ cross section includes the area 24. The area 24 is defined by the reference line of sight 5 of the virtual camera 1 and the YZ cross section of the virtual space 2. The processor 10 defines a range including the polar angle α centering on the reference line of sight 5 in the virtual space 2 as a region 24.

図7に示されるように、XZ断面における視界領域23は、領域25を含む。領域25は、基準視線5と仮想空間2のXZ断面とによって定義される。プロセッサ10は、仮想空間2における基準視線5を中心とした方位角βを含む範囲を、領域25として規定する。   As shown in FIG. 7, the view area 23 in the XZ cross section includes the area 25. The area 25 is defined by the reference line of sight 5 and the XZ cross section of the virtual space 2. The processor 10 defines a range including the azimuth angle β centered on the reference gaze 5 in the virtual space 2 as a region 25.

ある局面において、HMDシステム100は、コンピュータ200からの信号に基づいて、視界画像をモニタ112に表示させることにより、ユーザ190に仮想空間2を提供する。視界画像は、仮想空間画像22のうちの視界領域23に重畳する部分に相当する。ユーザ190が、頭に装着したHMD110を動かすと、その動きに連動して仮想カメラ1も動く。その結果、仮想空間2における視界領域23の位置が変化する。これにより、モニタ112に表示される視界画像は、仮想空間画像22のうち、仮想空間2においてユーザ190が向いた方向の視界領域23に重畳する画像に更新される。ユーザ190は、仮想空間2における所望の方向を視認することができる。   In one aspect, the HMD system 100 provides the virtual space 2 to the user 190 by displaying a view image on the monitor 112 based on a signal from the computer 200. The view image corresponds to a portion of the virtual space image 22 superimposed on the view area 23. When the user 190 moves the HMD 110 worn on the head, the virtual camera 1 also moves in conjunction with the movement. As a result, the position of the view area 23 in the virtual space 2 changes. Thereby, the view field image displayed on the monitor 112 is updated to an image of the virtual space image 22 superimposed on the view field 23 in the direction in which the user 190 is directed in the virtual space 2. The user 190 can view a desired direction in the virtual space 2.

ユーザ190は、HMD110を装着している間、現実世界を視認することなく、仮想空間2に展開される仮想空間画像22のみを視認できる。そのため、HMDシステム100は、仮想空間2への高い没入感覚をユーザ190に与えることができる。   While wearing the HMD 110, the user 190 can view only the virtual space image 22 developed in the virtual space 2 without viewing the real world. Therefore, the HMD system 100 can give the user 190 a high sense of immersion into the virtual space 2.

ある局面において、プロセッサ10は、HMD110を装着したユーザ190の現実空間における移動に連動して、仮想空間2において仮想カメラ1を移動し得る。この場合、プロセッサ10は、仮想空間2における仮想カメラ1の位置および向きに基づいて、HMD110のモニタ112に投影される画像領域(すなわち、仮想空間2における視界領域23)を特定する。   In one aspect, the processor 10 may move the virtual camera 1 in the virtual space 2 in conjunction with the movement of the user 190 equipped with the HMD 110 in the real space. In this case, the processor 10 specifies an image area (that is, a view area 23 in the virtual space 2) to be projected on the monitor 112 of the HMD 110 based on the position and the orientation of the virtual camera 1 in the virtual space 2.

ある実施の形態に従うと、仮想カメラ1は、二つの仮想カメラ、すなわち、右目用の画像を提供するための仮想カメラと、左目用の画像を提供するための仮想カメラとを含むことが望ましい。また、ユーザ190が3次元の仮想空間2を認識できるように、適切な視差が、二つの仮想カメラに設定されていることが好ましい。本実施の形態においては、仮想カメラ1が二つの仮想カメラを含み、二つの仮想カメラのロール方向が合成されることによって生成されるロール方向(w)がHMD110のロール方向(w)に適合されるように構成されているものとして、本開示に係る技術思想を例示する。   According to an embodiment, the virtual camera 1 desirably includes two virtual cameras, ie, a virtual camera for providing an image for the right eye, and a virtual camera for providing an image for the left eye. Further, it is preferable that appropriate parallaxes be set to two virtual cameras so that the user 190 can recognize the three-dimensional virtual space 2. In the present embodiment, the virtual camera 1 includes two virtual cameras, and the roll direction (w) generated by combining the roll directions of the two virtual cameras is adapted to the roll direction (w) of the HMD 110. The technical idea according to the present disclosure is illustrated as being configured to

[コントローラ]
図8を参照して、コントローラ160の一例について説明する。図8は、ある実施の形態に従うコントローラ160の概略構成を表す図である。
[controller]
An example of the controller 160 will be described with reference to FIG. FIG. 8 is a diagram representing a schematic configuration of the controller 160 according to an embodiment.

図8に示されるように、ある局面において、コントローラ160は、右コントローラ800と左コントローラ(図示しない)とを含み得る。右コントローラ800は、ユーザ190の右手で操作される。左コントローラは、ユーザ190の左手で操作される。ある局面において、右コントローラ800と左コントローラとは、別個の装置として対称に構成される。したがって、ユーザ190は、右コントローラ800を把持した右手と、左コントローラを把持した左手とをそれぞれ自由に動かすことができる。他の局面において、コントローラ160は両手の操作を受け付ける一体型のコントローラであってもよい。以下、右コントローラ800について説明する。   As shown in FIG. 8, in one aspect, the controller 160 may include a right controller 800 and a left controller (not shown). The right controller 800 is operated by the right hand of the user 190. The left controller is operated by the left hand of the user 190. In one aspect, the right controller 800 and the left controller are configured symmetrically as separate devices. Therefore, the user 190 can freely move the right hand holding the right controller 800 and the left hand holding the left controller. In another aspect, the controller 160 may be an integrated controller that receives the operation of both hands. The right controller 800 will be described below.

右コントローラ800は、グリップ30と、フレーム31と、天面32とを備える。グリップ30は、ユーザ190の右手によって把持されるように構成されている。たとえば、グリップ30は、ユーザ190の右手の掌と3本の指(中指、薬指、小指)とによって保持され得る。   The right controller 800 includes a grip 30, a frame 31, and a top surface 32. The grip 30 is configured to be gripped by the right hand of the user 190. For example, the grip 30 may be held by the palm of the right hand of the user 190 and three fingers (middle, ring and little fingers).

グリップ30は、ボタン33,34と、モーションセンサ130とを含む。ボタン33は、グリップ30の側面に配置され、右手の中指による操作を受け付ける。ボタン34は、グリップ30の前面に配置され、右手の人差し指による操作を受け付ける。ある局面において、ボタン33,34は、トリガー式のボタンとして構成される。モーションセンサ130は、グリップ30の筐体に内蔵されている。なお、ユーザ190の動作がカメラその他の装置によってユーザ190の周りから検出可能である場合には、グリップ30は、モーションセンサ130を備えなくてもよい。   The grip 30 includes buttons 33 and 34 and a motion sensor 130. The button 33 is disposed on the side surface of the grip 30 and receives an operation by the middle finger of the right hand. The button 34 is disposed on the front of the grip 30 and accepts an operation by the index finger of the right hand. In one aspect, the buttons 33, 34 are configured as trigger buttons. The motion sensor 130 is incorporated in the housing of the grip 30. It should be noted that the grip 30 may not include the motion sensor 130 if the motion of the user 190 can be detected from around the user 190 by a camera or other device.

フレーム31は、その円周方向に沿って配置された複数の赤外線LED35を含む。赤外線LED35は、コントローラ160を使用するプログラムの実行中に、当該プログラムの進行に合わせて赤外線を発光する。赤外線LED35から発せられた赤外線は、右コントローラ800と左コントローラとの各位置や姿勢(傾き、向き)を検出するために使用され得る。図8に示される例では、二列に配置された赤外線LED35が示されているが、配列の数は図8に示されるものに限られない。一列あるいは3列以上の配列が使用されてもよい。   The frame 31 includes a plurality of infrared LEDs 35 disposed along the circumferential direction. The infrared LED 35 emits infrared light in accordance with the progress of the program while the program using the controller 160 is being executed. Infrared light emitted from the infrared LED 35 can be used to detect each position and orientation (tilt, orientation) of the right controller 800 and the left controller. In the example shown in FIG. 8, the infrared LEDs 35 arranged in two rows are shown, but the number of arrays is not limited to that shown in FIG. One or three or more arrays may be used.

天面32は、ボタン36,37と、アナログスティック38とを備える。ボタン36,37は、プッシュ式ボタンとして構成される。ボタン36,37は、ユーザ190の右手の親指による操作を受け付ける。アナログスティック38は、ある局面において、初期位置(ニュートラルの位置)から360度任意の方向への操作を受け付ける。当該操作は、たとえば、仮想空間2に配置されるオブジェクトを移動するための操作を含む。   The top surface 32 includes buttons 36 and 37 and an analog stick 38. The buttons 36, 37 are configured as push-type buttons. Buttons 36 and 37 receive an operation by the thumb of the right hand of user 190. The analog stick 38 receives an operation in any direction 360 degrees from the initial position (the position of neutral) in a certain phase. The operation includes, for example, an operation for moving an object arranged in the virtual space 2.

ある局面において、右コントローラ800および左コントローラは、赤外線LED35その他の部材を駆動するための電池を含む。電池は、充電式、ボタン型、乾電池型などを含むが、これらに限定されない。他の局面において、右コントローラ800と左コントローラは、たとえば、コンピュータ200のUSBインターフェースに接続され得る。この場合、右コントローラ800および左コントローラは、電池を必要としない。   In one aspect, the right controller 800 and the left controller include batteries for driving the infrared LED 35 and other members. Batteries include rechargeable batteries, button batteries, dry battery batteries and the like, but are not limited thereto. In other aspects, right controller 800 and left controller may be connected to, for example, a USB interface of computer 200. In this case, the right controller 800 and the left controller do not require a battery.

[HMDの制御装置]
図9を参照して、HMD110の制御装置について説明する。ある実施の形態において、制御装置は周知の構成を有するコンピュータ200によって実現される。図9は、ある実施の形態に従うコンピュータ200をモジュール構成として表すブロック図である。
[Control unit of HMD]
The control device of the HMD 110 will be described with reference to FIG. In one embodiment, the controller is implemented by a computer 200 having a known configuration. FIG. 9 is a block diagram representing a computer 200 as a modular configuration according to one embodiment.

図9に示されるように、コンピュータ200は、表示制御モジュール220と、仮想空間制御モジュール230と、音声制御モジュール225と、メモリモジュール240と、通信制御モジュール250とを備える。   As shown in FIG. 9, the computer 200 includes a display control module 220, a virtual space control module 230, an audio control module 225, a memory module 240, and a communication control module 250.

表示制御モジュール220は、サブモジュールとして、仮想カメラ制御モジュール221と、視界領域決定モジュール222と、視界画像生成モジュール223と、基準視線特定モジュール224とを含む。   The display control module 220 includes, as sub-modules, a virtual camera control module 221, a view area determination module 222, a view image generation module 223, and a reference gaze specification module 224.

仮想空間制御モジュール230は、サブモジュールとして、仮想空間定義モジュール231と、仮想オブジェクト生成モジュール232とを含む。   The virtual space control module 230 includes a virtual space definition module 231 and a virtual object generation module 232 as sub-modules.

ある実施の形態において、表示制御モジュール220、仮想空間制御モジュール230、および音声制御モジュール225は、プロセッサ10によって実現される。他の実施の形態において、複数のプロセッサ10が表示制御モジュール220、仮想空間制御モジュール230、および音声制御モジュール225として作動してもよい。メモリモジュール240は、メモリ11またはストレージ12によって実現される。通信制御モジュール250は、通信インターフェース14によって実現される。   In one embodiment, display control module 220, virtual space control module 230, and voice control module 225 are implemented by processor 10. In other embodiments, multiple processors 10 may operate as display control module 220, virtual space control module 230, and voice control module 225. The memory module 240 is realized by the memory 11 or the storage 12. The communication control module 250 is realized by the communication interface 14.

ある局面において、表示制御モジュール220は、HMD110のモニタ112における画像表示を制御する。仮想カメラ制御モジュール221は、仮想空間2に仮想カメラ1を配置し、仮想カメラ1の挙動、向きなどを制御する。視界領域決定モジュール222は、HMD110を装着したユーザ190の頭の向きに応じて、視界領域23を規定する。視界画像生成モジュール223は、決定された視界領域23に基づいて、モニタ112に表示される視界画像のデータ(視界画像データともいう)を生成する。さらに、視界画像生成モジュール223は、仮想空間制御モジュール230から受信したデータに基づいて、視界画像データを生成する。視界画像生成モジュール223によって生成された視界画像データは、通信制御モジュール250によってHMD110に出力される。基準視線特定モジュール224は、注視センサ140からの信号に基づいて、ユーザ190の視線を特定する。   In one aspect, the display control module 220 controls image display on the monitor 112 of the HMD 110. The virtual camera control module 221 arranges the virtual camera 1 in the virtual space 2 and controls the behavior, direction, and the like of the virtual camera 1. The view area determination module 222 defines the view area 23 according to the orientation of the head of the user 190 wearing the HMD 110. The view image generation module 223 generates data (also referred to as view image data) of a view image displayed on the monitor 112 based on the determined view area 23. Further, the view image generation module 223 generates view image data based on the data received from the virtual space control module 230. The view image data generated by the view image generation module 223 is output by the communication control module 250 to the HMD 110. The reference gaze identification module 224 identifies the gaze of the user 190 based on the signal from the gaze sensor 140.

仮想空間制御モジュール230は、ユーザ190に提供される仮想空間2を制御する。仮想空間定義モジュール231は、仮想空間2を表す仮想空間データを生成することにより、HMDシステム100における仮想空間2を規定する。   The virtual space control module 230 controls the virtual space 2 provided to the user 190. The virtual space definition module 231 defines virtual space 2 in the HMD system 100 by generating virtual space data representing the virtual space 2.

仮想オブジェクト生成モジュール232は、仮想空間2に配置されるオブジェクトのデータを生成する。オブジェクトは、たとえば、仮想パネル、仮想手紙、および仮想ポストなどを含み得る。仮想オブジェクト生成モジュール232によって生成されたデータは、視界画像生成モジュール223に出力される。   The virtual object generation module 232 generates data of an object arranged in the virtual space 2. Objects may include, for example, virtual panels, virtual letters, virtual posts, and the like. The data generated by the virtual object generation module 232 is output to the view image generation module 223.

音声制御モジュール225は、HMD110から、ユーザ190のマイク119を用いた発話を検出すると、当該発話に対応する音声データの送信対象のコンピュータ200を特定する。音声データは、音声制御モジュール225によって特定されたコンピュータ200に送信される。音声制御モジュール225は、ネットワーク19を介して他のユーザのコンピュータ200から音声データを受信すると、当該音声データに対応する音声(発話)をスピーカ115から出力する。   When the speech control module 225 detects an utterance of the user 190 using the microphone 119 from the HMD 110, the speech control module 225 identifies the computer 200 to which speech data corresponding to the utterance is to be transmitted. The voice data is sent to the computer 200 identified by the voice control module 225. When the voice control module 225 receives voice data from the computer 200 of another user via the network 19, the voice control module 225 outputs a voice (speech) corresponding to the voice data from the speaker 115.

メモリモジュール240は、コンピュータ200が仮想空間2をユーザ190に提供するために使用されるデータを保持している。ある局面において、メモリモジュール240は、空間情報241と、オブジェクト情報242と、ユーザ情報243とを保持している。   Memory module 240 holds data used by computer 200 to provide virtual space 2 to user 190. In one aspect, the memory module 240 holds space information 241, object information 242, and user information 243.

空間情報241は、仮想空間2を提供するために規定された1つ以上のテンプレートを保持している。   Spatial information 241 holds one or more templates defined to provide virtual space 2.

オブジェクト情報242は、仮想空間2において再生されるコンテンツ、当該コンテンツで使用されるオブジェクトを配置するための情報を保持している。当該コンテンツは、たとえば、ゲーム、現実社会と同様の風景を表したコンテンツなどを含み得る。さらに、オブジェクト情報242は、仮想パネルなどのその他のオブジェクトを仮想空間2に配置するためのデータとを含む。   The object information 242 holds content to be reproduced in the virtual space 2 and information for arranging an object used in the content. The content may include, for example, a game, content representing a scene similar to real society, and the like. Furthermore, the object information 242 includes data for arranging other objects such as a virtual panel in the virtual space 2.

ユーザ情報243は、HMDシステム100の制御装置としてコンピュータ200を機能させるためのプログラム、オブジェクト情報242に保持される各コンテンツを使用するアプリケーションプログラムなどを保持している。メモリモジュール240に格納されているデータおよびプログラムは、HMD110のユーザ190によって入力される。あるいは、プロセッサ10が、当該コンテンツを提供する事業者が運営するコンピュータ(たとえば、サーバ150)からプログラムあるいはデータをダウンロードして、ダウンロードされたプログラムあるいはデータをメモリモジュール240に格納する。   The user information 243 holds a program for causing the computer 200 to function as a control device of the HMD system 100, an application program using each content held in the object information 242, and the like. Data and programs stored in the memory module 240 are input by the user 190 of the HMD 110. Alternatively, the processor 10 downloads a program or data from a computer (for example, the server 150) operated by a provider providing the content, and stores the downloaded program or data in the memory module 240.

通信制御モジュール250は、ネットワーク19を介して、サーバ150その他の情報通信装置と通信し得る。   Communication control module 250 may communicate with server 150 and other information communication devices via network 19.

ある局面において、表示制御モジュール220および仮想空間制御モジュール230は、たとえば、ユニティテクノロジーズ社によって提供されるUnity(登録商標)を用いて実現され得る。他の局面において、表示制御モジュール220および仮想空間制御モジュール230は、各処理を実現する回路素子の組み合わせとしても実現され得る。   In one aspect, the display control module 220 and the virtual space control module 230 may be implemented using, for example, Unity (registered trademark) provided by Unity Technologies. In another aspect, the display control module 220 and the virtual space control module 230 can also be realized as a combination of circuit elements that implement each process.

コンピュータ200における処理は、ハードウェアと、プロセッサ10により実行されるソフトウェアとによって実現される。このようなソフトウェアは、ハードディスクその他のメモリモジュール240に予め格納されている場合がある。また、ソフトウェアは、CD−ROMその他のコンピュータ読み取り可能な不揮発性のデータ記録媒体に格納されて、プログラム製品として流通している場合もある。あるいは、当該ソフトウェアは、インターネットその他のネットワークに接続されている情報提供事業者によってダウンロード可能なプログラム製品として提供される場合もある。このようなソフトウェアは、光ディスク駆動装置その他のデータ読取装置によってデータ記録媒体から読み取られて、あるいは、通信制御モジュール250を介してサーバ150その他のコンピュータからダウンロードされた後、記憶モジュールに一旦格納される。そのソフトウェアは、プロセッサ10によって記憶モジュールから読み出され、実行可能なプログラムの形式でRAMに格納される。プロセッサ10は、そのプログラムを実行する。   Processing in the computer 200 is realized by hardware and software executed by the processor 10. Such software may be stored in advance in a hard disk or other memory module 240. The software may be stored in a CD-ROM or other computer readable non-volatile data storage medium and distributed as a program product. Alternatively, the software may be provided as a downloadable program product by an information provider connected to the Internet or other network. Such software is temporarily stored in the storage module after being read from the data recording medium by an optical disk drive or other data reader, or downloaded from the server 150 or other computer via the communication control module 250. . The software is read from the storage module by the processor 10 and stored in RAM in the form of an executable program. The processor 10 executes the program.

コンピュータ200を構成するハードウェアは、一般的なものである。したがって、本実施の形態に係る最も本質的な部分は、コンピュータ200に格納されたプログラムであるとも言える。なお、コンピュータ200のハードウェアの動作は周知であるので、詳細な説明は繰り返さない。   The hardware that makes up the computer 200 is general. Therefore, it can be said that the most essential part according to the present embodiment is a program stored in computer 200. The operation of the hardware of computer 200 is well known, and therefore detailed description will not be repeated.

なお、データ記録媒体としては、CD−ROM、FD(Flexible Disk)、ハードディスクに限られず、磁気テープ、カセットテープ、光ディスク(MO(Magnetic Optical Disc)/MD(Mini Disc)/DVD(Digital Versatile Disc))、IC(Integrated Circuit)カード(メモリカードを含む)、光カード、マスクROM、EPROM(Electronically Programmable Read-Only Memory)、EEPROM(Electronically Erasable Programmable Read-Only Memory)、フラッシュROMなどの半導体メモリなどの固定的にプログラムを担持する不揮発性のデータ記録媒体でもよい。   Incidentally, the data recording medium is not limited to CD-ROM, FD (Flexible Disk), hard disk, magnetic tape, cassette tape, optical disk (Magnetic Optical Disc) / MD (Mini Disc) / DVD (Digital Versatile Disc) ), IC (Integrated Circuit) card (including memory card), optical card, mask ROM, semiconductor memory such as EEPROM (Electronically Programmable Read-Only Memory), EEPROM (Electronically Erasable Programmable Read-Only Memory), flash ROM, etc. It may be a non-volatile data storage medium that carries a program fixedly.

ここで言うプログラムとは、プロセッサ10により直接実行可能なプログラムだけでなく、ソースプログラム形式のプログラム、圧縮処理されたプログラム、暗号化されたプログラムなどを含み得る。   The program referred to here may include not only a program directly executable by the processor 10 but also a program in source program format, a compressed program, an encrypted program and the like.

[HMDシステムの制御構造]
図10を参照して、HMDシステム100の制御構造について説明する。図10は、ある実施の形態に従うHMDシステム100において実行される処理の一部を表すシーケンスチャートである。
[Control structure of HMD system]
The control structure of the HMD system 100 will be described with reference to FIG. FIG. 10 is a sequence chart showing a part of the process performed in the HMD system 100 according to an embodiment.

図10に示されるように、ステップS1010にて、コンピュータ200のプロセッサ10は、仮想空間定義モジュール231として、仮想空間画像データを特定し、仮想空間2を定義する。   As shown in FIG. 10, in step S1010, the processor 10 of the computer 200 specifies virtual space image data as the virtual space definition module 231, and defines the virtual space 2.

ステップS1020にて、プロセッサ10は、仮想カメラ1を初期化する。たとえば、プロセッサ10は、メモリのワーク領域において、仮想カメラ1を仮想空間2において予め規定された中心点に配置し、仮想カメラ1の視線をユーザ190が向いている方向に向ける。   In step S1020, the processor 10 initializes the virtual camera 1. For example, in the work area of the memory, the processor 10 arranges the virtual camera 1 at a predetermined center point in the virtual space 2 and directs the line of sight of the virtual camera 1 in the direction in which the user 190 is facing.

ステップS1030にて、プロセッサ10は、視界画像生成モジュール223として、初期の視界画像を表示するための視界画像データを生成する。生成された視界画像データは、通信制御モジュール250によってHMD110に出力される。   In step S1030, the processor 10 generates visibility image data for displaying an initial visibility image as the visibility image generation module 223. The generated view image data is output by the communication control module 250 to the HMD 110.

ステップS1032にて、HMD110のモニタ112は、コンピュータ200から受信した視界画像データに基づいて、視界画像を表示する。HMD110を装着したユーザ190は、視界画像を視認すると仮想空間2を認識し得る。   In step S1032, the monitor 112 of the HMD 110 displays a view image based on the view image data received from the computer 200. The user 190 wearing the HMD 110 can recognize the virtual space 2 when viewing the view image.

ステップS1034にて、HMDセンサ120は、HMD110から発信される複数の赤外線光に基づいて、HMD110の位置と傾きを検知する。検知結果は、動き検知データとして、コンピュータ200に出力される。   In step S1034, the HMD sensor 120 detects the position and inclination of the HMD 110 based on the plurality of infrared light beams emitted from the HMD 110. The detection result is output to the computer 200 as motion detection data.

ステップS1040にて、プロセッサ10は、HMD110の動き検知データに含まれる位置と傾きとに基づいて、HMD110を装着したユーザ190の視界方向を特定する。   In step S1040, the processor 10 specifies the view direction of the user 190 wearing the HMD 110 based on the position and the inclination included in the motion detection data of the HMD 110.

ステップS1050にて、プロセッサ10は、アプリケーションプログラムを実行し、アプリケーションプログラムに含まれる命令に基づいて、仮想空間2にオブジェクトを提示する。   In step S1050, the processor 10 executes an application program, and presents an object in the virtual space 2 based on an instruction included in the application program.

ステップS1060にて、コントローラ160は、モーションセンサ130から出力される信号に基づいて、ユーザ190の操作を検出し、その検出された操作を表す検出データをコンピュータ200に出力する。なお、他の局面において、ユーザ190によるコントローラ160の操作は、ユーザ190の周囲に配置されたカメラからの画像に基づいて検出されてもよい。   In step S1060, controller 160 detects an operation of user 190 based on the signal output from motion sensor 130, and outputs detection data representing the detected operation to computer 200. In another aspect, the operation of the controller 160 by the user 190 may be detected based on an image from a camera disposed around the user 190.

ステップS1065にて、プロセッサ10は、コントローラ160から取得した検出データに基づいて、ユーザ190によるコントローラ160の操作を検出する。   In step S1065, the processor 10 detects the operation of the controller 160 by the user 190 based on the detection data acquired from the controller 160.

ステップS1080にて、プロセッサ10は、ユーザ190によるコントローラ160の操作に基づく視界画像データを生成する。生成された視界画像データは、通信制御モジュール250によってHMD110に出力される。   In step S1080, processor 10 generates view image data based on the operation of controller 160 by user 190. The generated view image data is output by the communication control module 250 to the HMD 110.

ステップS1092にて、HMD110は、受信した視界画像データに基づいて視界画像を更新し、更新後の視界画像をモニタ112に表示する。   In step S1092, the HMD 110 updates the view image based on the received view image data, and displays the updated view image on the monitor 112.

[VR酔いが生じるメカニズム]
ユーザ190がVR酔いを引き起こす一因について説明する。VR酔いの発生原因としては、仮想体験によって得られる感覚が、ユーザが体感や予測している感覚と齟齬することが挙げられる。例えば、HMDを用いてユーザに提供される視界画像によっては、当該ユーザに対し、当該ユーザの体感とは異なる方向に移動しているかのような錯覚を与えてしまう。このような錯覚は、一般的には、視覚誘導性自己運動感覚(ベクション)と称されている。以下では、視界画像によってどのようにベクションが引き起こされてVR酔いが生じるかについて、具体的に説明する。
[Mechanism that causes VR sickness]
The cause of the user 190 causing VR sickness will be described. As the cause of occurrence of VR sickness, the sense obtained by the virtual experience may be confused with the sense that the user feels or is predicting. For example, depending on the view image provided to the user using the HMD, the user may have an illusion as if the user is moving in a direction different from the user's sensation. Such an illusion is generally referred to as vision-induced self-motion (bection). In the following, it will be specifically described how vection is caused by the view image to cause VR sickness.

図11及び図12は、仮想空間2における仮想視点からの視界に対応する視界画像の一例を示す図である。仮想視点は、仮想空間2内を見ている位置、即ち、仮想空間における視座である。仮想視点としては、例えば、仮想カメラ1が挙げられる。なお、仮想視点からの視界の範囲は、仮想視点からの視線方向1180に応じて定まる。視線方向1180は仮想カメラ1が向いている方向を表す。視線方向1180は、ユーザ190の頭(HMD110)が向いている方向に対応する仮想空間2における向きとなる。   FIGS. 11 and 12 are diagrams showing an example of a view image corresponding to the view from the virtual viewpoint in the virtual space 2. The virtual viewpoint is a position at which the user is looking in the virtual space 2, that is, a viewpoint in the virtual space. As a virtual viewpoint, virtual camera 1 is mentioned, for example. The range of the view from the virtual viewpoint is determined according to the viewing direction 1180 from the virtual viewpoint. The viewing direction 1180 represents the direction in which the virtual camera 1 is facing. The viewing direction 1180 is the direction in the virtual space 2 corresponding to the direction in which the head (HMD 110) of the user 190 is facing.

図11及び図12に示すように、仮想空間2には、コースオブジェクト1110と、車オブジェクト1120と、障害オブジェクト1130,1135と、木オブジェクト1140,1145,1150とが、配置されている。車オブジェクト1120および障害オブジェクト1130,1135は、コースオブジェクト1110上に配置され、木オブジェクト1140,1145,1150は、コースオブジェクト1110外に配置されている。   As shown in FIGS. 11 and 12, in the virtual space 2, a course object 1110, a car object 1120, obstacle objects 1130 and 1135, and tree objects 1140, 1145 and 1150 are arranged. The car object 1120 and the obstacle objects 1130 and 1135 are arranged on the course object 1110, and the tree objects 1140, 1145 and 1150 are arranged outside the course object 1110.

図11は、ユーザ190が正面方向を向いているときに視認する視界画像1100を表す。正面方向は、HMDシステム100の起動時におけるHMD110の向きであってもよいし、HMDシステム100の起動後にコントローラ160の操作により規定されたHMD110の向きであってもよい。後者の場合、コントローラ160が操作された時点におけるHMD110の向きを正面方向とすればよい。ある局面において、ユーザ190が正面方向を向いている場合の仮想カメラ1の視界画像1100上での視線方向1180は、図11に示すように、車オブジェクト1120の視界画像1100上での移動方向1160に一致する。詳細には、仮想空間におけるXZ平面を水平面とすると、仮想空間2における視線方向1180の水平面上の向きは、仮想空間2における移動方向1160の水平面上の向きに一致する。図12は、ユーザ190が横方向(右方向)を向いているときに視認する視界画像1200を表す。   FIG. 11 shows a field of view image 1100 viewed when the user 190 is facing in the front direction. The front direction may be the orientation of the HMD 110 when the HMD system 100 is activated, or the orientation of the HMD 110 defined by the operation of the controller 160 after the activation of the HMD system 100. In the latter case, the direction of the HMD 110 at the time when the controller 160 is operated may be the front direction. In one aspect, the viewing direction 1180 on the view image 1100 of the virtual camera 1 when the user 190 faces the front direction is the moving direction 1160 on the view image 1100 of the car object 1120 as shown in FIG. Match Specifically, when the XZ plane in the virtual space is a horizontal plane, the direction on the horizontal plane of the viewing direction 1180 in the virtual space 2 matches the direction on the horizontal plane of the movement direction 1160 in the virtual space 2. FIG. 12 shows a view image 1200 viewed when the user 190 is facing in the lateral direction (right direction).

視界画像1100,1200は、仮想空間2内で行われる自動スクロールゲームの一場面を表す。自動スクロールゲームはいわゆるランゲームである。ランゲームは、例えば、ユーザ190の操作対象の車オブジェクト1120が移動方向1160に自動で移動するという前提の下、ユーザ190が車オブジェクト1120を障害物となる障害オブジェクト1130,1135等にぶつからないように操作して、ゴールを目指すゲームである。   The view images 1100 and 1200 represent one scene of an automatic scroll game performed in the virtual space 2. The automatic scroll game is a so-called run game. In the run game, for example, under the premise that the car object 1120 to be operated by the user 190 automatically moves in the moving direction 1160, the user 190 does not collide with the obstacle object 1130, 1135, etc. It is a game that operates to aim at the goal.

仮想空間2においては、仮想カメラ1は、車オブジェクト1120を、移動方向1160に対し後方斜め上から俯瞰できるように配置される。プロセッサ10は、仮想空間2において車オブジェクト1120を移動方向1160に移動させる。プロセッサ10はさらに、車オブジェクト1120の移動方向1160への移動に連動して仮想カメラ1を移動方向1160に移動させる。なお、他の局面において、プロセッサ10は、仮想カメラ1を車オブジェクト1120の後方斜め上に配置せず、車オブジェクト1120の位置(例えば運転席)に配置するように構成されてもよい。係る場合、ユーザ190は、さも自分が車オブジェクト1120を運転しているかのような感覚を覚え得る。   In the virtual space 2, the virtual camera 1 is disposed so as to be able to look at the vehicle object 1120 obliquely from the rear and above with respect to the movement direction 1160. The processor 10 moves the car object 1120 in the movement direction 1160 in the virtual space 2. The processor 10 further moves the virtual camera 1 in the movement direction 1160 in conjunction with the movement of the car object 1120 in the movement direction 1160. In another aspect, the processor 10 may be configured to be disposed at the position (for example, the driver's seat) of the vehicle object 1120 without placing the virtual camera 1 obliquely above the rear of the vehicle object 1120. In such a case, the user 190 can also feel as if he is driving a car object 1120.

上述したように、仮想カメラ1を車オブジェクト1120の移動方向1160に対し後方斜め上に配置し、車オブジェクト1120の移動方向1160への移動に連動して仮想カメラ1を移動させる。この場合、視界画像1100上における車オブジェクト1120の位置は、視界画像1100の下端中央付近となる。また、障害オブジェクト1130,1135は、視界画像1100上において、移動方向1170へ移動するので、視界画像1100の中心付近(奥側)から視界画像1100の下端(手前側)へ移動することになる。同様に、木オブジェクト1140,1145,1150は、視界画像1100上において、移動方向1190へ移動するので、視界画像1100の中心付近(奥側)から視界画像1100の下端右側(手前側)へ移動することになる。その結果、ユーザ190は、障害オブジェクト1130,1135および木オブジェクト1140,1145,1150が車オブジェクト1120に近づいてくる視界画像を視認する。   As described above, the virtual camera 1 is disposed obliquely upward rearward with respect to the moving direction 1160 of the car object 1120, and the virtual camera 1 is moved in conjunction with the movement of the car object 1120 in the moving direction 1160. In this case, the position of the car object 1120 on the view image 1100 is near the center of the lower end of the view image 1100. Further, since the obstacle objects 1130 and 1135 move in the movement direction 1170 on the view image 1100, they move from near the center (rear side) of the view image 1100 to the lower end (front side) of the view image 1100. Similarly, the tree objects 1140, 1145, and 1150 move in the movement direction 1190 on the view image 1100, and therefore move from near the center (rear side) of the view image 1100 to the lower right end (front side) of the view image 1100. It will be. As a result, the user 190 visually recognizes a view image in which the obstacle objects 1130 and 1135 and the tree objects 1140, 1145 and 1150 approach the car object 1120.

ユーザ190は、コントローラ160を操作することによって、車オブジェクト1120をコースオブジェクト1110の幅方向に動かして、車オブジェクト1120が障害オブジェクト1130,1135に衝突することを避ける。ある局面において、車オブジェクト1120をコースオブジェクト1110の幅方向に移動させるコントローラ160の操作は、コントローラ160の姿勢による入力が挙げられる。例えば、車オブジェクト1120を右方向に移動させる場合、コントローラ160を右方向に傾け、車オブジェクト1120を左方向に移動させる場合、コントローラ160を左方向に傾ければよい。   The user 190 operates the controller 160 to move the car object 1120 in the width direction of the course object 1110 to prevent the car object 1120 from colliding with the obstacle objects 1130 and 1135. In one aspect, the operation of the controller 160 for moving the car object 1120 in the width direction of the course object 1110 includes an input by the attitude of the controller 160. For example, in the case of moving the car object 1120 in the right direction, the controller 160 may be inclined in the right direction, and in the case of moving the car object 1120 in the left direction, the controller 160 may be inclined in the left direction.

コースオブジェクト1110は、仮想空間2において、車オブジェクト1120を移動方向1160にガイドするために配置される。換言すれば、コースオブジェクト1110は、仮想空間2において、車オブジェクト1120を移動方向1160に移動させるようにガイドする。   The course object 1110 is arranged to guide the car object 1120 in the movement direction 1160 in the virtual space 2. In other words, the course object 1110 guides the vehicle object 1120 to move in the movement direction 1160 in the virtual space 2.

なお上記の例においてコンピュータ200は、自動スクロールゲームを実現するために車オブジェクト1120および仮想カメラ1を移動方向1160に自動的に移動させる構成を採用しているが、他の局面において、車オブジェクト1120および仮想カメラ1以外のオブジェクトを移動方向1160と逆の方向に移動させてもよい。当該構成によっても、ユーザ190は、車オブジェクト1120および仮想カメラ1が移動方向1160に移動しているように感じることができるためである。   In the above example, the computer 200 adopts a configuration in which the car object 1120 and the virtual camera 1 are automatically moved in the movement direction 1160 in order to realize the automatic scroll game, but in another aspect, the car object 1120 And objects other than the virtual camera 1 may be moved in the direction opposite to the movement direction 1160. This configuration also allows the user 190 to feel that the car object 1120 and the virtual camera 1 are moving in the movement direction 1160.

視界画像1100において、移動方向1160と、視線方向1180とは同じ方向を向いている。この状態においては、視界画像1100によるベクションは引き起こされにくく、VR酔いは生じにくい。その理由は、移動方向1160と視線方向1180とが同じ方向を向いている場合、視界画像1100上においては、オブジェクトの広範囲に渡る流れが生じにくく、ユーザ190の視線があまり動かないためである。   In the view image 1100, the moving direction 1160 and the viewing direction 1180 point in the same direction. In this state, vection by the view image 1100 is less likely to occur and VR sickness is less likely to occur. The reason is that when the moving direction 1160 and the line-of-sight direction 1180 point in the same direction, it is difficult for a wide range of objects to flow on the view image 1100 and the line of sight of the user 190 does not move much.

例えば、コースオブジェクト1110上に配置されている障害オブジェクト1130,1135は、前述したように、視界画像1100の中心付近(奥側)から視界画像1100の下端(手前側)へ移動する。この際、視界画像1100上では、障害オブジェクト1130,1135が奥側から手前側に移動するにつれて障害オブジェクト1130,1135が徐々に大きく表示される。このため、視界画像1100上における障害オブジェクト1130,1135の位置(例えば、中心位置)の移動は、局所的な範囲に収まり、視界画像1100上において広範囲に渡る流れは生じない。また例えば、コースオブジェクト1110外に配置されている木オブジェクト1140,1145,1150は、前述したように、視界画像1100の中心付近(奥側)から視界画像1100の下端右側(手前側)へ移動する。この際、視界画像1100上では、木オブジェクト1140,1145,1150が奥側から手前側に移動するにつれて木オブジェクト1140,1145,1150が徐々に大きく表示される。このため、視界画像1100上における木オブジェクト1140,1145,1150の位置(例えば、中心位置)の移動についても、局所的な範囲に収まる。   For example, the obstacle objects 1130 and 1135 disposed on the course object 1110 move from near the center (rear side) of the field of view image 1100 to the lower end (front side) of the field of view image 1100 as described above. At this time, as the obstacle objects 1130 and 1135 move from the back side to the front side, the obstacle objects 1130 and 1135 are gradually displayed larger on the view image 1100. For this reason, the movement of the position (for example, the center position) of the obstacle objects 1130 and 1135 on the view image 1100 falls within a local range, and no widespread flow occurs on the view image 1100. Further, for example, the tree objects 1140, 1145, and 1150 arranged outside the course object 1110 move from near the center (rear side) of the view image 1100 to the lower right end (front side) of the view image 1100 as described above. . At this time, on the view image 1100, the tree objects 1140, 1145, and 1150 are gradually displayed as the tree objects 1140, 1145, and 1150 move from the rear side to the front side. Therefore, the movement of the position (for example, the center position) of the tree objects 1140, 1145, and 1150 on the view image 1100 also falls within the local range.

このように、移動方向1160と視線方向1180とが同じ方向を向いている場合、仮想カメラ1や車オブジェクト1120に対して相対移動する障害オブジェクト1130,1135や木オブジェクト1140,1145,1150の移動方向は、車オブジェクト1120や仮想カメラ1に迫ってくるような移動方向となる。このため、視界画像1100上においてオブジェクトの広範囲に渡る流れは生じにくく、ユーザ190の視線がこの流れにつられにくいため、視界画像1100によるベクションは引き起こされにくく、VR酔いは生じにくい。   As described above, when the movement direction 1160 and the line-of-sight direction 1180 point in the same direction, the movement direction of the obstacle objects 1130 and 1135 and the tree objects 1140 and 1145 and 1150 moving relative to the virtual camera 1 and the car object 1120 Is a moving direction approaching the car object 1120 or the virtual camera 1. For this reason, it is difficult to cause the flow of the object over a wide range on the view image 1100 and it is difficult for the line of sight of the user 190 to be caught in this flow, so vection by the view image 1100 is hard to occur and VR sickness does not easily occur.

次に、図12に示される視界画像1200について説明する。視界画像1200は、視界画像1100の状態からユーザ190が頭を右方向に回転させた場合にモニタ112に表示される画像である。詳細には、視界画像1200は、ユーザ190が正面方向を向いている状態から頭をy軸右周りに90度回転させた場合にモニタ112に表示される画像である。視界画像1200においては、移動方向1160に対して視線方向1180が大きく傾いている。この状態においては、視界画像1200によるベクションは引き起こされ易く、VR酔いは生じ易い。その理由は、移動方向1160と視線方向1180との傾きが大きい場合、視界画像1200上においては、オブジェクトの広範囲に渡る流れが生じ易く、ユーザ190の視線が動き易いためである。この結果、ユーザ190自身の身体が実際には移動していなくても、移動しているような錯覚が生じてしまう。   Next, the view image 1200 shown in FIG. 12 will be described. The view image 1200 is an image displayed on the monitor 112 when the user 190 rotates the head in the right direction from the state of the view image 1100. Specifically, the view image 1200 is an image displayed on the monitor 112 when the head is turned 90 degrees around the y-axis right from the state where the user 190 is facing forward. In the view image 1200, the viewing direction 1180 is largely inclined with respect to the moving direction 1160. In this state, vection with the view image 1200 is likely to be caused and VR sickness is likely to occur. The reason is that, when the inclination between the moving direction 1160 and the line-of-sight direction 1180 is large, the flow of the object over a wide range is easily generated on the view image 1200 and the line of sight of the user 190 is easily moved. As a result, even if the user's 190 body is not moving actually, the illusion of moving is produced.

図12に示される視界画像1200においては、障害オブジェクト1130は、移動方向1170へ移動し、木オブジェクト1145,1150は、移動方向1190へ移動する。従って、障害オブジェクト1130及び木オブジェクト1145,1150のいずれも、視界画像1100の左端から右端へ移動することになる。その結果、ユーザ190は、障害オブジェクト1130および木オブジェクト1145,1150が左から右に流れる視界画像を視認する。   In the view image 1200 shown in FIG. 12, the obstacle object 1130 moves in the movement direction 1170, and the tree objects 1145 and 1150 move in the movement direction 1190. Therefore, both the obstacle object 1130 and the tree objects 1145 and 1150 move from the left end to the right end of the view image 1100. As a result, the user 190 visually recognizes a view image in which the obstacle object 1130 and the tree objects 1145 and 1150 flow from left to right.

このように、移動方向1160に対して視線方向1180が大きく傾いている場合、仮想カメラ1や車オブジェクト1120に対して相対移動する障害オブジェクト1130や木オブジェクト1145,1150の移動方向は、仮想カメラ1を横切るような移動方向となる。このため、視界画像1200上における障害オブジェクト1130及び木オブジェクト1145,1150の位置(例えば、中心位置)の移動は広範囲に渡り、視界画像1100上において広範囲に渡る流れが生じてしまう。この結果、ユーザ190の視線がこの流れにつられ易くなってしまい、視界画像1200によるベクションは引き起こされ易く、VR酔いが生じ易くなる。   As described above, when the viewing direction 1180 is largely inclined with respect to the moving direction 1160, the moving direction of the obstacle object 1130 or tree object 1145 or 1150 moving relative to the virtual camera 1 or car object 1120 is the virtual camera 1 The direction of movement is For this reason, the movement of the position (for example, the center position) of the obstacle object 1130 and the tree object 1145 and 1150 on the view image 1200 is extensive, and a wide flow occurs on the view image 1100. As a result, the line of sight of the user 190 is likely to be drawn in this flow, vection by the view image 1200 is easily caused, and VR sickness is easily caused.

[VR酔いを抑制する構成]
上述のように、ユーザ190は、移動方向1160と視線方向1180とがなす角度(以下、「差分角度」とも言う)が大きい場合にVR酔いを引き起こしやすくなる。差分角度は、詳細には、仮想空間2において移動方向1160と視線方向1180とがなすY軸周りの角度差である。そこで、ある実施形態に従うプロセッサ10は、差分角度の絶対値に基づいて、ユーザ190のVR酔いを抑制する。差分角度の絶対値は、移動方向1160を基準とする視線方向1180の傾き度合いを表す。そのため、視線方向1180が移動方向1160を基準として右回りに10°傾いた場合も、視線方向1180が移動方向1160を基準として左回りに10°傾いた場合も、差分角度の絶対値は同じになる。
[Configuration to suppress VR sickness]
As described above, the user 190 is likely to cause VR sickness when the angle between the moving direction 1160 and the line-of-sight direction 1180 (hereinafter also referred to as “difference angle”) is large. Specifically, the difference angle is an angle difference around the Y axis formed by the movement direction 1160 and the gaze direction 1180 in the virtual space 2. Thus, the processor 10 according to an embodiment suppresses VR sickness of the user 190 based on the absolute value of the difference angle. The absolute value of the difference angle represents the degree of inclination of the viewing direction 1180 with respect to the moving direction 1160. Therefore, the absolute value of the difference angle is the same even when the sight line direction 1180 is inclined 10 ° clockwise with respect to the movement direction 1160 and when the sight line direction 1180 is inclined 10 ° counterclockwise with respect to the movement direction 1160 Become.

より具体的には、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、仮想カメラ1の視界の範囲(撮影範囲)に含まれるオブジェクトの視認性を差分角度の絶対値が「0」の場合よりも低下させる。オブジェクトの視認性が低下すると当該オブジェクトを認識しづらくなるため、視界画像上における当該オブジェクトの流れも認識されにくくなる。この結果、ユーザ190の視線がこの流れにつられにくくなり、ベクションは引き起こされにくく、VR酔いが生じにくくなる。当該構成によれば、HMDシステム100は、差分角度の絶対値が「0」より大きい場合に、ユーザ190がオブジェクトを見つめることによりVR酔いを引き起こすことを抑制し得る。以下に、図13を用いてオブジェクトの視認性を低下する処理について説明する。図13は、図12の視界画像1200においてオブジェクトの視認性が低下された場合の視界画像1300を表す。   More specifically, when the absolute value of the difference angle is larger than “0”, the processor 10 sets the visibility of the object included in the view range (shooting range) of the virtual camera 1 to “absolute value of the difference angle Lower than in the case of 0 ". When the visibility of an object decreases, it becomes difficult to recognize the object, so the flow of the object on the view image also becomes difficult to recognize. As a result, the line of sight of the user 190 is less likely to be caught in this flow, vection is less likely to occur, and VR sickness is less likely to occur. According to this configuration, the HMD system 100 can suppress the occurrence of VR sickness due to the user 190 staring at the object when the absolute value of the difference angle is larger than “0”. The process of reducing the visibility of an object will be described below with reference to FIG. FIG. 13 shows a view image 1300 in the case where the viewability of an object is lowered in the view image 1200 of FIG.

(環境オブジェクトの数を減らす)
ある実施形態において、プロセッサ10は、差分角度の絶対値が「0」の場合に仮想空間2に配置される環境オブジェクトの総数よりも差分角度の絶対値が「0」より大きい場合に仮想空間2に配置される環境オブジェクトの総数を少なくする。なお、環境オブジェクトの総数の削減を仮想空間2上で行うのではなく、視界画像上で行うようにしてもよい。環境オブジェクトとは、主として、車オブジェクト1120や仮想カメラ1に対して相対移動するオブジェクトを想定しているが、これに限定されるものではない。
(Reduce the number of environment objects)
In one embodiment, the processor 10 determines the virtual space 2 when the absolute value of the difference angle is larger than “0” than the total number of environment objects arranged in the virtual space 2 when the absolute value of the difference angle is “0”. Reduce the total number of environment objects placed in Note that the total number of environmental objects may not be reduced on the virtual space 2 but on the view image. The environmental object is mainly assumed to be an object that moves relative to the car object 1120 or the virtual camera 1, but is not limited thereto.

具体例として視界画像1300に示されるように、差分角度の絶対値が「90°」の場合の領域1310には本来存在するはずの木オブジェクト1150が配置されていない。   As shown in the view image 1300 as a specific example, the tree object 1150 which is supposed to exist is not arranged in the area 1310 when the absolute value of the difference angle is “90 °”.

当該構成によれば、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に環境オブジェクトの総数を少なくすることにより、ユーザ190が環境オブジェクトを見つめる可能性を低減する。つまり、環境オブジェクトの総数を削減することで、ユーザ190の視線が環境オブジェクトの流れにつられる可能性を削減する。その結果、ユーザ190がVR酔いを引き起こすことを抑制し得る。   According to this configuration, the processor 10 reduces the possibility of the user 190 staring at the environmental object by reducing the total number of environmental objects when the absolute value of the difference angle is larger than “0”. That is, by reducing the total number of environmental objects, the possibility that the line of sight of the user 190 is caught in the flow of environmental objects is reduced. As a result, it can be suppressed that the user 190 causes VR sickness.

(環境オブジェクトの色を変更)
ある実施形態において、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトの色と、当該環境オブジェクトの周囲の色との差を小さくする。
(Change the color of environmental object)
In one embodiment, the processor 10 reduces the difference between the color of the environmental object and the surrounding color of the environmental object when the absolute value of the difference angle is greater than “0”.

たとえば、木オブジェクト1145の色が「赤色」で、木オブジェクト1145の周囲(例えば、仮想空間画像22)の色が「青色」である場合、プロセッサ10は、木オブジェクト1145の色を青色に近づける、または青色に変更する。   For example, if the color of the tree object 1145 is "red" and the color of the surroundings of the tree object 1145 (eg, the virtual space image 22) is "blue", the processor 10 causes the color of the tree object 1145 to approach blue. Or change to blue.

当該構成によれば、ユーザ190は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトと、当該環境オブジェクトの周囲との見分けが付きにくくなる。つまり、環境オブジェクトの色を周囲の色と調和させることで、視界画像上における当該環境オブジェクトの流れを認識されにくくする。その結果、ユーザ190の視線が環境オブジェクトの流れにつられる可能性が削減され、VR酔いを引き起こしにくくなる。なお、環境オブジェクトの色を周囲の色と調和は、仮想空間2上で行うようにしてもよいし、視界画像上で行うようにしてもよい。   According to the configuration, when the absolute value of the difference angle is larger than “0”, it is difficult for the user 190 to distinguish between the environment object and the surroundings of the environment object. That is, by matching the color of the environmental object with the surrounding color, it is difficult to recognize the flow of the environmental object on the view image. As a result, the possibility that the line of sight of the user 190 is caught in the flow of environmental objects is reduced, and it becomes difficult to cause VR sickness. The color of the environmental object may be matched with the surrounding color on the virtual space 2 or on the view image.

(その他の構成)
ある実施形態において、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトに用いられるテクスチャの解像度を低下させる。他の実施形態において、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトのポリゴン数を減らす。つまり、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトを荒く表現するようにしてもよい。当該構成によっても、環境オブジェクトの視認性が低下される結果、ユーザ190の視線が環境オブジェクトの流れにつられる可能性が削減され、VR酔いを引き起こしにくくなる。なお、環境オブジェクトの荒さ調整は、仮想空間2上で行うようにしてもよいし、視界画像上で行うようにしてもよい。
(Other configuration)
In one embodiment, processor 10 reduces the resolution of the texture used for the environmental object if the absolute value of the difference angle is greater than "0". In another embodiment, the processor 10 reduces the number of polygons of the environmental object if the absolute value of the difference angle is greater than "0". That is, the processor 10 may roughly represent the environment object when the absolute value of the difference angle is larger than “0”. This configuration also reduces the visibility of the environmental object, thereby reducing the possibility that the line of sight of the user 190 is caught in the flow of the environmental object, making it less likely to cause VR sickness. The roughness adjustment of the environmental object may be performed on the virtual space 2 or may be performed on the view image.

さらに他の実施形態において、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、仮想カメラ1に関連付けられる設定値を変更することにより、視界画像の視認性を低下させる。設定値は、たとえば、仮想カメラ1の「被写界深度」や、実際のカメラの「絞り」に相当する仮想カメラ1の機能などを含む。プロセッサ10は、これらの設定値を変更することにより、ボケた視界画像をモニタ112に出力できる。これにより、ユーザ190は、環境オブジェクトを視認しづらくなり、視界画像上における当該環境オブジェクトの流れも認識しにくくなるので、VR酔いを引き起こしにくくなる。   In still another embodiment, the processor 10 reduces the visibility of the view image by changing the setting value associated with the virtual camera 1 when the absolute value of the difference angle is larger than “0”. The setting values include, for example, the “depth of field” of the virtual camera 1 and the function of the virtual camera 1 corresponding to the “aperture” of the actual camera. The processor 10 can output a blurred view image to the monitor 112 by changing these setting values. As a result, it becomes difficult for the user 190 to visually recognize the environmental object, and it becomes difficult to recognize the flow of the environmental object on the view image, so that it is difficult to cause VR sickness.

さらに他の実施形態において、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、環境オブジェクトの周囲または仮想カメラ1の前方に、環境オブジェクトの視認性を低下させるための処理を施してもよい。詳細には、少なくとも、仮想空間2における、環境オブジェクトと仮想カメラ1との間の空間に対して、環境オブジェクトの視認性を低下させるための処理を施せばよい。たとえば、プロセッサ10は、フォグ処理を施すことにより、仮想空間2上において、環境オブジェクトに、または全体的に”もや”を施す。当該構成によっても、ユーザ190は、環境オブジェクトを視認しづらくなり、視界画像上における当該環境オブジェクトの流れも認識しにくくなるので、VR酔いを引き起こしにくくなる。   In still another embodiment, the processor 10 performs processing for reducing the visibility of the environmental object around the environmental object or in front of the virtual camera 1 when the absolute value of the difference angle is larger than “0”. May be Specifically, at least the space between the environmental object and the virtual camera 1 in the virtual space 2 may be processed to reduce the visibility of the environmental object. For example, the processor 10 applies "fogging" to the environment object or entirely on the virtual space 2 by applying fog processing. This configuration also makes it difficult for the user 190 to visually recognize the environmental object, and also makes it difficult to recognize the flow of the environmental object on the view image, so that it is difficult to cause VR sickness.

(コース外に配置されるオブジェクトの視認性を低下)
ある実施形態においては、環境オブジェクトを、車オブジェクト1120や仮想カメラ1に対して相対移動し、かつコースオブジェクト1110外に配置されているオブジェクトとしてもよい。この実施形態に従うプロセッサ10は、複数の環境オブジェクトのうち、コースオブジェクト1110の外に配置される環境オブジェクト(以下、「コース外オブジェクト」とも言う)の視認性を低下させるように構成される。
(Decrease visibility of objects placed outside the course)
In one embodiment, the environment object may be an object that moves relative to the car object 1120 or the virtual camera 1 and is disposed outside the course object 1110. The processor 10 according to this embodiment is configured to reduce the visibility of an environmental object (hereinafter also referred to as an “out-of-course object”) disposed outside the course object 1110 among a plurality of environmental objects.

差分角度の絶対値が「0」より大きい場合であれば、コースオブジェクト1110上に配置されているか否かに関わらず、環境オブジェクトは仮想カメラ1を横切るような移動方向となる可能性がある。しかしながら、コースオブジェクト1110上に配置されている環境オブジェクトは、コース外オブジェクトよりも仮想カメラ1との距離が近くなるため、コース外オブジェクトに比べ仮想カメラ1を横切る時間が短くなる。つまり、コースオブジェクト1110上に配置されている環境オブジェクトは、コース外オブジェクトに比べ仮想カメラ1を横切る速度が速くなる。ここで、環境オブジェクトの仮想カメラ1を横切る速度が一定速度以上になると、環境オブジェクトの速度が速すぎて、ユーザ190の視線が環境オブジェクトの流れにつられにくくなる。このため、環境オブジェクトが仮想カメラ1を横切る際の速度が一定速度以上となることが担保されるコースオブジェクト1110上に配置されている環境オブジェクトについては、視認性を低下させず、コース外オブジェクトについては、視認性を低下させるようにしてもよい。このようにすれば、不要な視認性低下処理を削減できるため、処理負荷を軽減できる。   If the absolute value of the difference angle is larger than “0”, the environment object may move in the movement direction across the virtual camera 1 regardless of whether the difference object is placed on the course object 1110 or not. However, since the environmental objects arranged on the course object 1110 are closer to the virtual camera 1 than the off-course objects, the time for crossing the virtual camera 1 is shorter than the off-course objects. That is, the environmental object placed on the course object 1110 has a higher speed of crossing the virtual camera 1 than the off-course object. Here, when the speed across the virtual camera 1 of the environmental object becomes equal to or higher than a certain speed, the speed of the environmental object is too fast, and the line of sight of the user 190 is less likely to reach the flow of the environmental object. Therefore, with regard to an environmental object placed on a course object 1110 that ensures that the speed at which the environmental object crosses the virtual camera 1 becomes equal to or higher than a certain speed, the visibility is not reduced and the out-of-course object is May reduce the visibility. In this way, unnecessary processing for reducing visibility can be reduced, and processing load can be reduced.

(遮蔽オブジェクトによりコース外オブジェクトの視認性を低下)
ある実施形態において、プロセッサ10は、コースオブジェクト1110の境界部分(この例ではコース幅方向の両端)に、遮蔽オブジェクト1320を配置する。遮蔽オブジェクト1320は、コース外オブジェクトの少なくとも一部を遮蔽する。
(Occlusion objects reduce the visibility of off-course objects)
In one embodiment, the processor 10 places the shielding object 1320 at the boundary of the course object 1110 (both ends in the course width direction in this example). The shielding object 1320 shields at least a part of the off-course object.

プロセッサ10は、差分角度の絶対値が「0」の場合に、遮蔽オブジェクト1320の透明度を100%にする。つまり、差分角度の絶対値が「0」の場合、ユーザ190は遮蔽オブジェクト1320を視認できない。   The processor 10 sets the transparency of the shielding object 1320 to 100% when the absolute value of the difference angle is “0”. That is, when the absolute value of the difference angle is “0”, the user 190 can not visually recognize the shielding object 1320.

プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、遮蔽オブジェクト1320の透明度を小さくする。これによりユーザ190は、遮蔽オブジェクト1320を視認する。その結果、遮蔽オブジェクト1320によってコース外オブジェクトの少なくとも一部が隠れる。これにより、ユーザ190は、コース外オブジェクトを視認しづらくなり、VR酔いを引き起こしにくくなる。   The processor 10 reduces the transparency of the shielded object 1320 when the absolute value of the difference angle is larger than “0”. Thereby, the user 190 visually recognizes the shielding object 1320. As a result, the shielding object 1320 hides at least a part of the off-course object. This makes it difficult for the user 190 to view out-of-course objects, making it difficult to cause VR sickness.

なお、遮蔽オブジェクト1320は、コース外オブジェクトを遮蔽できるオブジェクト出あればどのようなオブジェクトであってもよい。例えば、遮蔽オブジェクト1320は、ガードレールオブジェクトや壁オブジェクトのような静的なオブジェクトであってもよいし、車オブジェクト1120と併走する大型車オブジェクトなどの動的なオブジェクトであってもよい。また、遮蔽オブジェクト1320が視界画像1300上で目立つ流れを生じさせてしまうことを防止する上でも、遮蔽オブジェクト1320の色を、周囲の色と調和させておくことが好ましい。つまり、遮蔽オブジェクト1320の色は、周囲の色と調和する単色で構成されていることが好ましい。   The shielding object 1320 may be any object as long as it is an object that can shield the off-course object. For example, the shielding object 1320 may be a static object such as a guardrail object or a wall object, or may be a dynamic object such as a large car object traveling in parallel with the car object 1120. Moreover, in order to prevent the shielding object 1320 from causing a noticeable flow on the view image 1300, it is preferable to keep the color of the shielding object 1320 in harmony with the surrounding color. That is, it is preferable that the color of the shielding object 1320 be configured in a single color that is in harmony with the surrounding color.

(コース外オブジェクトの密度を減らす)
ユーザ190はコース外オブジェクトを視認しようとする場合、自身の頭(つまりHMD110)を回転させる。その結果、差分角度の絶対値が大きくなり、ユーザ190はVR酔いを引き起こし得る。
(Reduce the density of out-of-course objects)
When the user 190 tries to view an off-course object, the user 190 rotates his own head (that is, the HMD 110). As a result, the absolute value of the difference angle increases, and the user 190 may cause VR sickness.

そこで、ある実施形態に従うプロセッサ10は、コース外オブジェクトの密度が予め定められた密度未満になるように、コース外オブジェクトを配置する。たとえば、プロセッサ10は、コースオブジェクト1110に沿った単位長さあたりに配置されるコース外オブジェクトの数が予め定められた数未満になるように、コース外オブジェクトを配置する。   Thus, the processor 10 according to an embodiment arranges the off-course object such that the density of the off-course object is less than a predetermined density. For example, the processor 10 arranges the out-of-course objects such that the number of out-of-course objects arranged per unit length along the course object 1110 is less than a predetermined number.

当該構成によれば、プロセッサ10は、ユーザ190がコース外オブジェクトを視認する機会を減らすことにより、ユーザ190がVR酔いを引き起こすことを抑制し得る。   According to the configuration, the processor 10 may suppress the user 190 from causing VR sickness by reducing the opportunity for the user 190 to view the off-course object.

[制御構造]
図14は、環境オブジェクトの視認性を低下させる処理を表すフローチャートである。図14に示される処理は、プロセッサ10がメモリ11またはストレージ12に格納される各種制御プログラムを実行することによって実行される。
Control structure
FIG. 14 is a flowchart showing a process of reducing the visibility of the environmental object. The processing shown in FIG. 14 is executed by the processor 10 executing various control programs stored in the memory 11 or the storage 12.

ステップS1410にて、プロセッサ10は、HMD110を装着するユーザ190に対して仮想体験を提供するために仮想空間2を定義する。   In step S1410, the processor 10 defines the virtual space 2 to provide a virtual experience for the user 190 wearing the HMD 110.

ステップS1420にて、プロセッサ10は、仮想カメラ1、車オブジェクト1120、コースオブジェクト1110、および環境オブジェクトを仮想空間2に配置する。   In step S1420, processor 10 arranges virtual camera 1, car object 1120, course object 1110, and environment object in virtual space 2.

ステップS1422にて、プロセッサ10は、仮想カメラ1および車オブジェクト1120をコースオブジェクト1110に沿って自動的に移動させる。   In step S1422, the processor 10 automatically moves the virtual camera 1 and the car object 1120 along the course object 1110.

ステップS1424にて、プロセッサ10は、HMD110の動き(傾き)を検出する。一例として、プロセッサ10は、HMD110に設けられたセンサ114(例えばジャイロセンサ)の出力に基づいて、ユーザ190の頭の動き(つまり、HMD110の動き)を検出する。   In step S1424, the processor 10 detects the movement (tilt) of the HMD 110. As an example, the processor 10 detects head movement of the user 190 (that is, movement of the HMD 110) based on an output of a sensor 114 (for example, a gyro sensor) provided in the HMD 110.

ステップS1430にて、プロセッサ10は、検出されたユーザ190の頭の動き(傾き)に応じて、仮想カメラ1(仮想視点)が向いている方向(視線方向)を変更する。   In step S1430, the processor 10 changes the direction (line-of-sight direction) in which the virtual camera 1 (virtual viewpoint) is facing in accordance with the detected head movement (inclination) of the user 190.

ステップS1440にて、プロセッサ10は、仮想カメラ1(仮想視点)の移動方向と、視線方向とがなす差分角度を検出する。ある局面において、プロセッサ10は、ステップS1422の処理の前に、移動方向とHMD110の正面方向とが同じ方向になるように仮想カメラ1の向きを較正する。一例として、プロセッサ10は、ユーザ190に対して正面方向を向いた状態で、コントローラ160の予め定められたボタンを所定時間(例えば3秒間)にわたり押下することを促す。プロセッサ10は、当該ボタンが所定時間にわたり押下されたことを検知したタイミングで、視線方向(仮想カメラ1が向いている方向)と移動方向とを一致させる。この場合、プロセッサ10は、HMD110のヨー角(θv)を差分角度として検出する。   In step S1440, the processor 10 detects a difference angle formed by the moving direction of the virtual camera 1 (virtual viewpoint) and the gaze direction. In one aspect, the processor 10 calibrates the orientation of the virtual camera 1 so that the movement direction and the front direction of the HMD 110 are in the same direction before the process of step S1422. As one example, the processor 10 prompts the user to press a predetermined button of the controller 160 for a predetermined time (for example, 3 seconds) while facing the user 190 in the front direction. The processor 10 matches the sight line direction (the direction in which the virtual camera 1 is facing) with the movement direction at the timing when it is detected that the button is pressed for a predetermined time. In this case, the processor 10 detects the yaw angle (θv) of the HMD 110 as the difference angle.

ステップS1450にて、プロセッサ10は、検出された差分角度が予め定められた条件を満たすか否かを判断する。たとえば、プロセッサ10は、差分角度の絶対値が第1角度(例えば30°)より大きい場合に、予め定められた条件を満たすと判断する。   In step S1450, processor 10 determines whether the detected difference angle satisfies a predetermined condition. For example, the processor 10 determines that the predetermined condition is satisfied when the absolute value of the difference angle is larger than the first angle (for example, 30 °).

プロセッサ10は、予め定められた条件が満たされたと判断した場合(ステップS1450でYES)、仮想カメラ1の視界の範囲に含まれる所定のオブジェクト(例えば、コース外オブジェクト)の視認性を、差分角度の絶対値が「0」の場合よりも低下させる処理を実行する(ステップS1460)。一方、プロセッサ10は、予め定められた条件が満たされていないと判断した場合(ステップS1450でNO)、ステップS1470の処理を実行する。   If the processor 10 determines that the predetermined condition is satisfied (YES in step S1450), the visibility of a predetermined object (for example, an off-course object) included in the range of the field of view of the virtual camera 1 is a difference angle A process is executed to reduce the absolute value of the value of "0" compared with the case of "0" (step S1460). On the other hand, when determining that the predetermined condition is not satisfied (NO in step S1450), processor 10 executes the process of step S1470.

なお、プロセッサ10は、ステップS1460の処理において、差分角度の絶対値が第2角度(たとえば、90°)になるまでの間、差分角度の絶対値が大きくなるほど、所定のオブジェクトの視認性の低下度合いを大きくしてもよい。また、プロセッサ10は、差分角度の絶対値が第2角度から第3角度(たとえば、180°)になるまでの間、差分角度の絶対値が小さくなるほど、所定のオブジェクトの視認性の低下度合いを小さくしてもよい。   The processor 10 decreases the visibility of the predetermined object as the absolute value of the difference angle increases until the absolute value of the difference angle reaches the second angle (for example, 90 °) in the process of step S1460. The degree may be increased. In addition, the processor 10 decreases the degree of decrease in the visibility of the predetermined object as the absolute value of the difference angle decreases until the absolute value of the difference angle changes from the second angle to the third angle (for example, 180 °). It may be smaller.

一例として、プロセッサ10は、差分角度の絶対値が第2角度になるまでの間、差分角度の絶対値が大きくなるほど以下の(1)〜(5)の処理を実行し得る。
(1)所定のオブジェクトを削減する数を多くする。
(2)所定のオブジェクトの色を当該オブジェクトの周囲の色に近づける度合いを大きくする
(3)所定のオブジェクトに用いられるテクスチャの解像度を低下させる度合いを大きくする
(4)所定のオブジェクトを構成するポリゴンを削減する数を多くする
(5)遮蔽オブジェクトの透明度を小さくする度合いを大きくする
ステップS1470にて、プロセッサ10は、仮想カメラ1の視界の範囲に対応する画像である視界画像を生成する。ステップS1480にて、プロセッサ10は、生成した視界画像をHMD110のモニタ112に出力する。その後、プロセッサ10は、ステップS1422の処理を再び実行する。
As an example, the processor 10 may execute the following processing (1) to (5) as the absolute value of the difference angle increases until the absolute value of the difference angle reaches the second angle.
(1) To increase the number of objects to be reduced.
(2) Increase the degree of bringing the color of a predetermined object closer to the color of the surrounding object (3) Increase the degree of decreasing the resolution of the texture used for the predetermined object (4) Polygons constituting the predetermined object (5) Increase the degree of decreasing the transparency of the shielded object In step S1470, the processor 10 generates a view image, which is an image corresponding to the range of the view of the virtual camera 1. In step S1480, the processor 10 outputs the generated view image to the monitor 112 of the HMD 110. After that, the processor 10 executes the process of step S1422 again.

上記によれば、プロセッサ10は、差分角度の絶対値が「0」より大きい場合に、オブジェクトの視認性を差分角度の絶対値が「0」の場合における視認性よりも低くする。ユーザ190は、オブジェクトの視認性が低下されると当該オブジェクトを認識しづらくなる。その結果、視界画像上における当該オブジェクトの流れも認識されにくくなる。この結果、ユーザ190の視線がこの流れにつられにくくなり、ベクションは引き起こされにくく、VR酔いが生じにくくなる。   According to the above, the processor 10 makes the visibility of the object lower than the visibility in the case where the absolute value of the difference angle is “0” when the absolute value of the difference angle is larger than “0”. The user 190 has difficulty in recognizing the object when the visibility of the object is lowered. As a result, it is also difficult to recognize the flow of the object on the view image. As a result, the line of sight of the user 190 is less likely to be caught in this flow, vection is less likely to occur, and VR sickness is less likely to occur.

[仮想カメラ1が自動的に移動しない場合]
上記の例では、仮想カメラ1(つまり、仮想空間2における仮想視点)が自動的に移動するように構成されていた。他の局面において、仮想カメラ1は、自動的に移動せず、ユーザ190の入力によって移動するように構成される。
[When virtual camera 1 does not move automatically]
In the above example, the virtual camera 1 (that is, the virtual viewpoint in the virtual space 2) is configured to move automatically. In another aspect, the virtual camera 1 is configured not to move automatically, but to move according to the input of the user 190.

係る場合、プロセッサ10は、ユーザ190の入力により定まる仮想カメラ1の移動方向と、仮想カメラ1の向いている方向(視線方向)との差分角度に基づいて、オブジェクトの視認性を低下させる処理を実行する。つまり、仮想カメラ1が自動的に移動しない場合、プロセッサ10は、ユーザ190が仮想カメラ1を移動させる指示を入力している間だけ、オブジェクトの視認性を低下させる処理を実行する。   In such a case, the processor 10 reduces the visibility of the object based on the difference angle between the movement direction of the virtual camera 1 determined by the input of the user 190 and the direction (line-of-sight direction) to which the virtual camera 1 faces. Run. That is, when the virtual camera 1 does not move automatically, the processor 10 executes processing to reduce the visibility of the object only while the user 190 inputs an instruction to move the virtual camera 1.

[当初からのコース外オブジェクトの削減]
図11を参照して、視界画像1100上における障害オブジェクト1130,1135の移動と木オブジェクト1140,1145,1150の移動とを比較する。障害オブジェクト1130,1135はコースオブジェクト1110上に配置されているため、障害オブジェクト1130,1135の移動は、視界画像1100の中心付近から視界画像1100の下端へ移動となる。これに対し、木オブジェクト1140,1145,1150は、コースオブジェクト1110上に配置されていないため、木オブジェクト1140,1145,1150の移動は、視界画像1100の中心付近から視界画像1100の下端右側への移動となる。このため、視界画像1100上におけるいずれの移動も局所的な移動ではあるが、木オブジェクト1140,1145,1150の移動の方が、障害オブジェクト1130,1135の移動よりも移動範囲は大きくなり、オブジェクトの流れが生じやすい。このため、差分角度の絶対値に関わらず、コース外オブジェクトを最初から削減しておくようにしてもよい。
[Reduction of off-course objects from the beginning]
Referring to FIG. 11, the movement of obstacle objects 1130 and 1135 on the view image 1100 is compared with the movement of tree objects 1140, 1145 and 1150. Since the obstacle objects 1130 and 1135 are arranged on the course object 1110, the movement of the obstacle objects 1130 and 1135 is from the vicinity of the center of the view image 1100 to the lower end of the view image 1100. On the other hand, since the tree objects 1140, 1145, 1150 are not arranged on the course object 1110, the movement of the tree objects 1140, 1145, 1150 is from the vicinity of the center of the view image 1100 to the lower right end of the view image 1100. It will be a move. Therefore, although any movement on the view image 1100 is local movement, the movement range of the tree objects 1140, 1145, and 1150 is larger than the movement of the obstacle objects 1130 and 1135, and the movement range of the object is Flow is likely to occur. Therefore, regardless of the absolute value of the difference angle, the off-course object may be reduced from the beginning.

[他のHMDの構成]
上記の例では、HMDシステム100は、HMD110と、コンピュータ200とを備え、各種の演算処理をコンピュータ200のプロセッサ10が実行するように構成されている。以下にHMDシステムの他の構成例を説明する。
[Other HMD configuration]
In the above example, the HMD system 100 includes the HMD 110 and the computer 200, and the processor 10 of the computer 200 is configured to execute various arithmetic processing. Hereinafter, another configuration example of the HMD system will be described.

図15は、HMDシステム300の構成を表す。HMDシステム300は、HMD310と、携帯型の情報処理端末320とを有する。HMD310は、筐体にスマートフォンを装着可能な形式の所謂モバイル型のHMDである。以下で説明するHMD310は、上述のセンサ114を備えており、当該センサ114を用いてHMD110の向きを検出可能である。   FIG. 15 shows the configuration of the HMD system 300. The HMD system 300 includes an HMD 310 and a portable information processing terminal 320. The HMD 310 is a so-called mobile HMD of a type in which a smartphone can be attached to a housing. The HMD 310 described below includes the above-described sensor 114, and can detect the orientation of the HMD 110 using the sensor 114.

HMD310は、筐体311と、ベルト312と、調節部材313と、前カバー314と、突起316とを有する。ユーザ190は、ベルト312を自身の頭部に引っかけた後に、調節部材313でベルト312の長さを調節することにより、HMD310を自身の頭部に固定する。   The HMD 310 has a housing 311, a belt 312, an adjustment member 313, a front cover 314, and a protrusion 316. The user 190 fixes the HMD 310 to his / her head by adjusting the length of the belt 312 with the adjustment member 313 after hooking the belt 312 to his / her head.

前カバー314は、筐体311の前方下部に取り付けられており、取り付け箇所を軸として回動可能に構成される。前カバー314にはフック315が設けられている。ユーザ190は、前カバー314に情報処理端末320を載せた状態で、前カバー314を閉じる。ユーザ190はさらに、前カバー314が閉じられた状態でフック315を突起316に引っかけることにより、情報処理端末320をHMD310に固定する。   The front cover 314 is attached to the front lower portion of the housing 311, and is configured to be rotatable about an attachment point. The front cover 314 is provided with a hook 315. The user 190 closes the front cover 314 with the information processing terminal 320 placed on the front cover 314. The user 190 further secures the information processing terminal 320 to the HMD 310 by hooking the hook 315 to the protrusion 316 with the front cover 314 closed.

筐体311はさらに、レンズ317を有する。レンズ317は、左目用のレンズと右目用のレンズとを含む。筐体311のレンズ317から前方部分は開口されている。ユーザ190は、HMD310を頭部に装着した状態において、レンズ317を介して情報処理端末320のモニタ321を視認する。なお、HMD310はさらに、レンズ317の位置を調節するための調節機構を有していてもよい。   The housing 311 further includes a lens 317. The lens 317 includes a left eye lens and a right eye lens. A front portion of the lens 317 of the housing 311 is opened. The user 190 visually recognizes the monitor 321 of the information processing terminal 320 via the lens 317 in a state where the HMD 310 is worn on the head. The HMD 310 may further have an adjustment mechanism for adjusting the position of the lens 317.

情報処理端末320はさらに、上述のプロセッサ10,メモリ11,ストレージ12,通信インターフェース14,センサ114,スピーカ115,マイク119の各々に相当する構成要素を含む(図示しない)。HMDシステム300において、上述の各種処理(視界画像を生成する処理など)は、情報処理端末320に設けられたプロセッサが各種の構成要素と連携することにより実現される。   The information processing terminal 320 further includes components (not shown) corresponding to the processor 10, the memory 11, the storage 12, the communication interface 14, the sensor 114, the speaker 115, and the microphone 119 described above. In the HMD system 300, the above-described various processes (such as a process of generating a view image) are realized by the processor provided in the information processing terminal 320 in cooperation with various components.

[他のコントローラの構成]
図16は、他のコントローラ400の構成を表す。ユーザ190は、コントローラ400を手に把持した状態で使用する。ユーザ190は、コントローラ400を片手または両手で把持する。
[Other controller configuration]
FIG. 16 shows the configuration of another controller 400. The user 190 uses the controller 400 while holding the controller 400 in hand. The user 190 holds the controller 400 with one hand or both hands.

コントローラ400は、タッチパッド410と、アプリボタン420と、ホームボタン430と、音量ボタン440と、モーションセンサ130と、通信インターフェース450とを有する。   The controller 400 includes a touch pad 410, an application button 420, a home button 430, a volume button 440, a motion sensor 130, and a communication interface 450.

タッチパッド410は、複数のタッチセンサにより構成される。タッチパッド410は、コントローラ400の長手方向に分割される領域411〜413のいずれの領域をユーザ190によって触られているかを判別可能に構成される。たとえば、ユーザ190は、領域412から領域411に指をスライドさせることで、仮想空間2に配置されるオブジェクトを前方に移動させ得る。但し、タッチパッド410は、単一のタッチセンサにより構成されてもよい。   The touch pad 410 is configured of a plurality of touch sensors. The touch pad 410 is configured to be capable of determining which area of the areas 411 to 413 divided in the longitudinal direction of the controller 400 is touched by the user 190. For example, the user 190 may slide an object placed in the virtual space 2 forward by sliding a finger from the area 412 to the area 411. However, the touch pad 410 may be configured by a single touch sensor.

アプリボタン420は、ゲームなどのアプリケーションにおいて使用されるボタンである。たとえば、プロセッサ10は、アプリボタン420が押下されたことを検知すると、メニュー画面をモニタ112(モニタ321)に表示する。ホームボタン430は、予め定められた画面(たとえば、アプリボタン420を使用するアプリケーションとは異なるアプリケーションの画面)をモニタ112(モニタ321)に表示するためのボタンである。音量ボタン440は、スピーカ115の音量を調整するためのボタンである。   The application button 420 is a button used in an application such as a game. For example, when detecting that the application button 420 is pressed, the processor 10 displays a menu screen on the monitor 112 (monitor 321). The home button 430 is a button for displaying a predetermined screen (for example, a screen of an application different from the application using the application button 420) on the monitor 112 (monitor 321). The volume button 440 is a button for adjusting the volume of the speaker 115.

コントローラ400に設けられたモーションセンサ130は、3軸の加速度センサと、3軸の角速度センサとを有する。また、上述の通り、コントローラ400は、ユーザ190の手によって把持される。そのため、コンピュータ200(情報処理端末320)は、モーションセンサ130の出力に基づいて、ユーザ190の手の傾きを検出できる。   The motion sensor 130 provided in the controller 400 has a 3-axis acceleration sensor and a 3-axis angular velocity sensor. Also, as described above, the controller 400 is gripped by the hand of the user 190. Therefore, the computer 200 (the information processing terminal 320) can detect the inclination of the hand of the user 190 based on the output of the motion sensor 130.

通信インターフェース450は、ユーザ190のコントローラ400に対する操作内容を表す信号をコンピュータ200(情報処理端末320)に送信する。たとえば、通信インターフェース450はBluetooth(登録商標)その他の近距離無線通信規格に従い、対向デバイスと通信する。   The communication interface 450 transmits, to the computer 200 (the information processing terminal 320), a signal representing an operation content of the user 190 with respect to the controller 400. For example, communication interface 450 communicates with the opposing device in accordance with Bluetooth® or other near field communication standard.

[構成]
以上に開示された技術的特徴は、以下のように要約され得る。
[Constitution]
The technical features disclosed above can be summarized as follows.

(構成1) ある実施形態に従うと、ユーザ190の頭部に関連付けられた画像表示装置(例えば、モニタ112、321)を介して当該ユーザ190に仮想体験を提供するためのコンピュータで実行されるプログラムが提供される。このプログラムはコンピュータに、仮想体験を提供するための仮想空間2を定義するステップ(ステップS1410)と、仮想空間2に配置された仮想視点(例えば仮想カメラ1)を移動させるステップ(ステップS1422)と、ユーザ190の頭部の動きに応じて、仮想視点の視線方向を制御するステップ(ステップS1430)と、仮想視点の移動方向と仮想視点の視線方向との差(差分角度)を検出するステップ(ステップS1440)と、差の絶対値が0より大きい場合に、仮想視点の視線方向に応じて定まる仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクト(たとえば、コース外オブジェクト)の視認性を差の絶対値が0の場合よりも低下させるステップ(ステップS1460)と、視界の範囲に対応する画像である視界画像を生成するステップ(ステップS1470)と、視界画像を画像表示装置に出力させるステップ(ステップS1480)とを実行させる。   (Configuration 1) According to an embodiment, a computer-executable program for providing a virtual experience to a user 190 via an image display device (for example, a monitor 112, 321) associated with the head of the user 190 Is provided. This program defines, on a computer, a virtual space 2 for providing a virtual experience (step S1410), and moves a virtual viewpoint (for example, virtual camera 1) arranged in the virtual space 2 (step S1422) Controlling the viewing direction of the virtual viewpoint according to the movement of the head of the user 190 (step S1430) and detecting the difference between the moving direction of the virtual viewing and the viewing direction of the virtual viewpoint (difference angle) In step S1440), when the absolute value of the difference is greater than 0, visual recognition of one or more predetermined objects (for example, off-course objects) included in the range of view from the virtual viewpoint determined according to the viewing direction of the virtual viewpoint Reducing the polarity compared to the case where the absolute value of the difference is 0 (step S1460), and an image corresponding to the range of visibility And step (step S1470) of generating a certain field image, to execute a step (step S1480) to output visual image on the image display device.

上記の仮想視点を移動させるステップは、仮想空間2における仮想視点の絶対的な移動と相対的な移動とを含む。相対的な移動とは、仮想視点以外のオブジェクトを動かすことにより、仮想視点が当該オブジェクトに対して相対的に移動することを含む。また、仮想視点の絶対的な移動には、ユーザ190の入力によらない自動的な移動と、ユーザ190の入力に従う移動とを含む。   The step of moving the virtual viewpoint includes the absolute movement and the relative movement of the virtual viewpoint in the virtual space 2. Relative movement includes moving the virtual viewpoint relative to the object by moving an object other than the virtual viewpoint. In addition, the absolute movement of the virtual viewpoint includes an automatic movement not based on the input of the user 190 and a movement according to the input of the user 190.

上記の仮想視点の視線方向を制御するステップは、ユーザ190が頭部に装着するHMD(またはHMDに装着される情報処理装置)に設けられたセンサに従いユーザ190の頭部の動きを検知することを含む。   The step of controlling the sight line direction of the virtual viewpoint may include detecting a motion of the head of the user 190 according to a sensor provided in the HMD (or an information processing apparatus mounted on the HMD) worn by the user 190 including.

(構成2) プログラムは、上記の低下させるステップにおいて、差の絶対値が0より大きい第1値より大きい場合(ステップS1450でYES)に、1以上の所定のオブジェクトの視認性を差の絶対値が0の場合の視認性よりも低くする。   (Configuration 2) If the absolute value of the difference is greater than the first value greater than 0 (YES in step S1450), the program causes the visibility of one or more predetermined objects to be an absolute value of the difference. Make it lower than the visibility in the case of 0.

(構成3) プログラムは、上記の低下させるステップにおいて、差の絶対値が第2値になるまでの間、差の絶対値が大きくなるほど、1以上の所定のオブジェクトの視認性の低下度合いを大きくする。   (Configuration 3) In the above-described decreasing step, the program increases the degree of decrease in the visibility of one or more predetermined objects as the absolute value of the difference increases until the absolute value of the difference reaches the second value. Do.

当該構成によれば、プログラムは、VR酔いが生じやすい条件ほど1以上の所定のオブジェクトの視認性をより低下させる。これにより、視界画像上における当該オブジェクトの流れも認識されにくくなる。この結果、ユーザ190の視線がこの流れにつられにくくなり、ベクションは引き起こされにくく、VR酔いが生じにくくなる。   According to the configuration, the program lowers the visibility of the one or more predetermined objects as the VR sickness is likely to occur. This makes it difficult to recognize the flow of the object on the view image. As a result, the line of sight of the user 190 is less likely to be caught in this flow, vection is less likely to occur, and VR sickness is less likely to occur.

(構成4) プログラムは、上記の低下させるステップにおいて、差の絶対値が0の場合よりも差の絶対値が0より大きい場合の方が1以上の所定オブジェクトの総数を少なくする。   (Configuration 4) In the above-described decreasing step, the program reduces the total number of one or more predetermined objects when the absolute value of the difference is larger than zero than when the absolute value of the difference is zero.

(構成5) プログラムは、上記の低下させるステップにおいて、差の絶対値が0の場合よりも差の絶対値が0より大きい場合の方が、1以上の所定オブジェクトの色と1以上の所定オブジェクトの周囲の色との差を小さくする。   (Configuration 5) In the program, in the above-mentioned reducing step, the color of the one or more predetermined objects and the one or more predetermined objects are the one in the case where the absolute value of the difference is larger than 0 than in the case Reduce the difference with the surrounding color of.

(構成6) 上記のプログラムはコンピュータに、移動オブジェクトを奥行き方向に移動させるようにガイドするガイドオブジェクトに沿って、移動オブジェクトを奥行き方向に移動させるステップ(ステップS1422)をさらに実行させる。仮想視点は、移動オブジェクトの後方または移動オブジェクト上に位置する。上記の仮想視点を移動させるステップでは、移動オブジェクトの奥行き方向の移動に連動して仮想視点を奥行き方向に移動させる。1以上の所定のオブジェクトは、仮想視点からの視界の範囲に含まれ、かつガイドオブジェクトにより規定される範囲外に配置されている。   (Configuration 6) The above program causes the computer to further execute the step of moving the moving object in the depth direction (step S1422) along the guide object that guides the moving object to move in the depth direction. The virtual viewpoint is located behind or on the moving object. In the step of moving the virtual viewpoint, the virtual viewpoint is moved in the depth direction in conjunction with the movement of the moving object in the depth direction. The one or more predetermined objects are included in the range of the view from the virtual viewpoint and arranged outside the range defined by the guide object.

なお、ガイドオブジェクトは、上述のコースオブジェクト1110に限られず、たとえば、奥行き方向を指し示した看板オブジェクトなどを含む。また、移動オブジェクトは、上述の車オブジェクト1120に限られず、仮想視点(仮想カメラ1)と連動して動くオブジェクトであればよい。   The guide object is not limited to the above-described course object 1110, and includes, for example, a sign object indicating a depth direction. Further, the moving object is not limited to the above-described car object 1120, and may be an object that moves in conjunction with the virtual viewpoint (virtual camera 1).

(構成7) 上記のガイドオブジェクトの境界部分には、仮想視点から1以上の所定のオブジェクトの少なくとも一部を遮蔽可能な遮蔽オブジェクト1320が配置されている。プログラムは、上記の低下させるステップにおいて、差の絶対値が0の場合よりも差の絶対値が0より大きい場合の方が遮蔽オブジェクトの透過度を小さくする。   (Structure 7) A shielding object 1320 capable of shielding at least a part of one or more predetermined objects from the virtual viewpoint is disposed at the boundary portion of the guide object. The program makes the degree of transparency of the shielding object smaller when the absolute value of the difference is larger than zero in the above-mentioned decreasing step than when the absolute value of the difference is zero.

(構成8) ある実施形態に従うと、プロセッサと、プログラムを格納するメモリとを備える情報処理装置が提供される。このプロセッサは、プログラムを実行することにより、仮想体験を提供するための仮想空間2を定義し、仮想空間2に配置された仮想視点を移動させ、ユーザ190の頭部の動きに応じて、仮想視点の視線方向を制御し、仮想視点の移動方向と仮想視点の視線方向との差を検出し、差の絶対値が0より大きい場合に、仮想視点の視線方向に応じて定まる仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を差の絶対値が0の場合よりも低下させ、視界の範囲に対応する画像である視界画像を生成し、視界画像をユーザ190の頭部に関連付けられる画像表示装置に出力させる。   (Configuration 8) According to an embodiment, there is provided an information processing apparatus comprising a processor and a memory for storing a program. This processor defines a virtual space 2 for providing a virtual experience by executing a program, moves a virtual viewpoint arranged in the virtual space 2, and in accordance with the movement of the head of the user 190, the virtual The gaze direction of the viewpoint is controlled, the difference between the movement direction of the virtual viewpoint and the gaze direction of the virtual viewpoint is detected, and when the absolute value of the difference is larger than 0, from the virtual viewpoint determined according to the gaze direction of the virtual viewpoint The visibility of one or more predetermined objects included in the range of visibility is made lower than when the absolute value of the difference is 0, and a visibility image, which is an image corresponding to the range of the visibility, is generated. It is output to an image display device associated with the head.

(構成9) ある実施形態に従うと、ユーザ190の頭部に関連付けられる画像表示装置を介して仮想体験を提供するためのコンピュータで実行される方法が提供される。この方法は、仮想体験を提供するための仮想空間2を定義するステップと、仮想空間2に配置された仮想視点を移動させるステップと、ユーザ190の頭部の動きに応じて、仮想視点の視線方向を制御するステップと、仮想視点の移動方向と仮想視点の視線方向との差を検出するステップと、差の絶対値が0より大きい場合に、仮想視点の視線方向に応じて定まる仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を差の絶対値が0の場合よりも低下させるステップと、視界の範囲に対応する画像である視界画像を生成するステップと、視界画像を画像表示装置に出力させるステップとを備える。   Configuration 9 According to one embodiment, a computer-implemented method is provided for providing a virtual experience via an image display associated with the head of a user 190. This method comprises the steps of defining a virtual space 2 for providing a virtual experience, moving a virtual viewpoint arranged in the virtual space 2, and viewing the virtual viewpoint according to the movement of the head of the user 190. Step of controlling the direction, step of detecting the difference between the movement direction of the virtual viewpoint and the gaze direction of the virtual viewpoint, and from the virtual viewpoint determined according to the gaze direction of the virtual viewpoint when the absolute value of the difference is greater than 0. Reducing the visibility of one or more predetermined objects included in the field of view of the range from when the absolute value of the difference is 0, generating a field of view image which is an image corresponding to the range of the field of view, Outputting the image to an image display device.

今回開示された実施の形態はすべての点で例示であって制限的なものではないと考えられるべきである。本発明の範囲は上記した説明ではなくて特許請求の範囲によって示され、特許請求の範囲と均等の意味および範囲内でのすべての変更が含まれることが意図される。   It should be understood that the embodiments disclosed herein are illustrative and non-restrictive in every respect. The scope of the present invention is indicated not by the above description but by the claims, and is intended to include all the modifications within the meaning and scope equivalent to the claims.

1 仮想カメラ、2 仮想空間、10 プロセッサ、11 メモリ、12 ストレージ、13 入出力インターフェース、14,450 通信インターフェース、15 バス、19 ネットワーク、21 中心、22 仮想空間画像、23 視界領域、100,300 HMDシステム、112,321 モニタ、114 センサ、115 スピーカ、119 マイク、120 HMDセンサ、130 モーションセンサ、140 注視センサ、150 サーバ、160,400 コントローラ、190 ユーザ、200 コンピュータ、220 表示制御モジュール、221 仮想カメラ制御モジュール、222 視界領域決定モジュール、223 視界画像生成モジュール、224 基準視線特定モジュール、225 音声制御モジュール、226 視線検出モジュール、230 仮想空間制御モジュール、231 仮想空間定義モジュール、232 仮想オブジェクト生成モジュール、233 手オブジェクト制御モジュール、240 メモリモジュール、241 空間情報、242 オブジェクト情報、243 ユーザ情報、250 通信制御モジュール、311 筐体、312 ベルト、313 調節部材、314 前カバー、315 フック、316 突起、317 レンズ、320 情報処理端末、410 タッチパッド、420 アプリボタン、430 ホームボタン、440 音量ボタン、1110 コースオブジェクト、1120 車オブジェクト、1130,1135 障害オブジェクト、1140,1145,1150 木オブジェクト、1160 移動方向、1180 視線方向、1320 遮蔽オブジェクト。   Reference Signs List 1 virtual camera 2 virtual space 10 processor 11 memory 12 storage 13 input / output interface 14 450 communication interface 15 bus 19 network 21 center 22 virtual space image 23 view area 100 300 HMD System, 112, 321 monitor, 114 sensor, 115 speaker, 119 microphone, 120 HMD sensor, 130 motion sensor, 140 gaze sensor, 150 server, 160, 400 controller, 190 user, 200 computer, 220 display control module, 221 virtual camera Control module, 222 view area determination module, 223 view image generation module, 224 reference gaze identification module, 225 voice control module, 226 gaze detection Joule 230 virtual space control module 231 virtual space definition module 232 virtual object generation module 233 hand object control module 240 memory module 241 space information 242 object information 243 user information 250 communication control module 311 chassis , 312 belt, 313 adjustment member, 314 front cover, 315 hook, 316 projection, 317 lens, 320 information processing terminal, 410 touch pad, 420 app button, 430 home button, 440 volume button, 1110 course object, 1120 car object, 1130, 1135 obstacle object, 1140, 1145, 1150 tree object, 1160 movement direction, 1180 gaze direction, 1320 shielding Object.

Claims (9)

ユーザの頭部に関連付けられる画像表示装置を介して当該ユーザに仮想体験を提供するためのコンピュータで実行されるプログラムであって、前記プログラムは前記コンピュータに、
前記仮想体験を提供するための仮想空間を定義するステップと、
前記仮想空間に配置された仮想視点を移動させるステップと、
前記ユーザの頭部の動きに応じて、前記仮想視点の視線方向を制御するステップと、
前記仮想視点の移動方向と前記仮想視点の視線方向との差を検出するステップと、
前記差の絶対値が0より大きい場合に、前記仮想視点の前記視線方向に応じて定まる前記仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を前記差の絶対値が0の場合よりも低下させるステップと、
前記視界の範囲に対応する画像である視界画像を生成するステップと、
前記視界画像を前記画像表示装置に出力させるステップとを実行させるための、プログラム。
A computer-executable program for providing a virtual experience to a user via an image display device associated with the head of the user, the program comprising
Defining a virtual space for providing the virtual experience;
Moving a virtual viewpoint arranged in the virtual space;
Controlling the viewing direction of the virtual viewpoint according to the movement of the head of the user;
Detecting the difference between the moving direction of the virtual viewpoint and the viewing direction of the virtual viewpoint;
When the absolute value of the difference is larger than 0, the absolute value of the difference of the visibility of the one or more predetermined objects included in the range of the view from the virtual viewpoint determined according to the viewing direction of the virtual viewpoint Lower than in the case of 0,
Generating a view image, which is an image corresponding to the range of the view;
A program for causing the image display device to output the view image.
前記低下させるステップでは、前記差の絶対値が0より大きい第1値より大きい場合に、前記1以上の所定のオブジェクトの視認性を前記差の絶対値が0の場合よりも低下させる、請求項1に記載のプログラム。   The method according to claim 1, wherein, in the reducing, the visibility of the one or more predetermined objects is reduced when the absolute value of the difference is greater than 0 when the absolute value of the difference is greater than 0. The program described in 1. 前記低下させるステップでは、前記差の絶対値が第2値になるまでの間、前記差の絶対値が大きくなるほど、前記1以上の所定のオブジェクトの視認性の低下度合いを大きくする、請求項1または2に記載のプログラム。   In the decreasing step, the degree of decrease in the visibility of the one or more predetermined objects is increased as the absolute value of the difference increases until the absolute value of the difference reaches a second value. Or the program described in 2. 前記低下させるステップでは、前記差の絶対値が0の場合よりも前記差の絶対値が0より大きい場合の方が前記1以上の所定のオブジェクトの総数を少なくする、請求項1〜3のいずれか1項に記載のプログラム。   The method according to any one of claims 1 to 3, wherein, in the decreasing step, the total number of the one or more predetermined objects is smaller when the absolute value of the difference is larger than zero than when the absolute value of the difference is zero. Or the program described in paragraph 1. 前記低下させるステップでは、前記差の絶対値が0の場合よりも前記差の絶対値が0より大きい場合の方が、前記1以上の所定のオブジェクトの色と前記1以上の所定のオブジェクトの周囲の色との差を小さくする、請求項1〜4のいずれか1項に記載のプログラム。   In the step of decreasing, the color of the one or more predetermined objects and the surroundings of the one or more predetermined objects are greater when the absolute value of the difference is greater than 0 than when the absolute value of the difference is 0. The program according to any one of claims 1 to 4, wherein the difference between the color and the color is reduced. 前記プログラムは前記コンピュータに、
移動オブジェクトを奥行き方向に移動させるようにガイドするガイドオブジェクトに沿って、前記移動オブジェクトを前記奥行き方向に移動させるステップをさらに実行させ、
前記仮想視点は、前記移動オブジェクトの後方または前記移動オブジェクト上に位置し、
前記仮想視点を移動させるステップでは、前記移動オブジェクトの前記奥行き方向の移動に連動して前記仮想視点を前記奥行き方向に移動させ、
前記1以上の所定のオブジェクトは、前記仮想視点からの前記視界の範囲に含まれ、かつ前記ガイドオブジェクトにより規定される範囲外に配置されている、請求項1〜5のいずれか1項に記載のプログラム。
The program is stored in the computer
Moving the moving object in the depth direction along a guide object that guides the moving object in the depth direction;
The virtual viewpoint is located behind the moving object or on the moving object,
In the step of moving the virtual viewpoint, the virtual viewpoint is moved in the depth direction in conjunction with the movement of the moving object in the depth direction,
The said one or more predetermined | prescribed objects are contained in the range of the said view from the said virtual viewpoint, and are arrange | positioned out of the range prescribed | regulated by the said guide object. Programs.
前記ガイドオブジェクトの境界部分には、前記仮想視点から前記1以上の所定のオブジェクトを遮蔽可能な遮蔽オブジェクトが配置されており、
前記低下させるステップでは、前記差の絶対値が0の場合よりも前記差の絶対値が0より大きい場合の方が前記遮蔽オブジェクトの透過度を小さくする請求項6に記載のプログラム。
At a boundary portion of the guide object, a shielding object capable of shielding the one or more predetermined objects from the virtual viewpoint is disposed;
The program according to claim 6, wherein in the reducing step, the transparency of the shielding object is smaller when the absolute value of the difference is larger than zero than when the absolute value of the difference is zero.
ユーザの頭部に関連付けられる画像表示装置を介して当該ユーザに仮想体験を提供するためのコンピュータであって、
プロセッサと、
プログラムを格納するメモリとを備え、
前記プロセッサは、前記プログラムを実行することにより、
前記仮想体験を提供するための仮想空間を定義し、
前記仮想空間に配置された仮想視点を移動させ、
前記ユーザの頭部の動きに応じて、前記仮想視点の視線方向を制御し、
前記仮想視点の移動方向と前記仮想視点の視線方向との差を検出し、
前記差の絶対値が0より大きい場合に、前記仮想視点の前記視線方向に応じて定まる前記仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を前記差の絶対値が0の場合よりも低下させ、
前記視界の範囲に対応する画像である視界画像を生成し、
前記視界画像を前記画像表示装置に出力させる、コンピュータ。
A computer for providing a virtual experience to a user via an image display device associated with the head of the user,
A processor,
And a memory for storing programs,
The processor executes the program to
Define a virtual space to provide the virtual experience,
Moving a virtual viewpoint arranged in the virtual space;
Controlling the viewing direction of the virtual viewpoint according to the movement of the head of the user;
Detecting a difference between the moving direction of the virtual viewpoint and the viewing direction of the virtual viewpoint;
When the absolute value of the difference is larger than 0, the absolute value of the difference of the visibility of the one or more predetermined objects included in the range of the view from the virtual viewpoint determined according to the viewing direction of the virtual viewpoint Lower than in the case of 0,
Generating a view image which is an image corresponding to the range of the view;
A computer which causes the image display device to output the view image.
ユーザの頭部に関連付けられる画像表示装置を介して当該ユーザに仮想体験を提供するためのコンピュータで実行される方法であって、
前記仮想体験を提供するための仮想空間を定義するステップと、
前記仮想空間に配置された仮想視点を移動させるステップと、
前記ユーザの頭部の動きに応じて、前記仮想視点の視線方向を制御するステップと、
前記仮想視点の移動方向と前記仮想視点の視線方向との差を検出するステップと、
前記差の絶対値が0より大きい場合に、前記仮想視点の前記視線方向に応じて定まる前記仮想視点からの視界の範囲に含まれる1以上の所定のオブジェクトの視認性を前記差の絶対値が0の場合よりも低下させるステップと、
前記視界の範囲に対応する画像である視界画像を生成するステップと、
前記視界画像を前記画像表示装置に出力させるステップとを備える、方法。
A computer-implemented method for providing a virtual experience to a user via an image display associated with the user's head, comprising:
Defining a virtual space for providing the virtual experience;
Moving a virtual viewpoint arranged in the virtual space;
Controlling the viewing direction of the virtual viewpoint according to the movement of the head of the user;
Detecting the difference between the moving direction of the virtual viewpoint and the viewing direction of the virtual viewpoint;
When the absolute value of the difference is larger than 0, the absolute value of the difference of the visibility of the one or more predetermined objects included in the range of the view from the virtual viewpoint determined according to the viewing direction of the virtual viewpoint Lower than in the case of 0,
Generating a view image, which is an image corresponding to the range of the view;
Outputting the view image to the image display device.
JP2018156988A 2018-08-24 2018-08-24 Program for providing virtual experience, computer and method Pending JP2019075091A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018156988A JP2019075091A (en) 2018-08-24 2018-08-24 Program for providing virtual experience, computer and method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018156988A JP2019075091A (en) 2018-08-24 2018-08-24 Program for providing virtual experience, computer and method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017201180A Division JP6393387B1 (en) 2017-10-17 2017-10-17 Programs, computers, and methods for providing a virtual experience

Publications (2)

Publication Number Publication Date
JP2019075091A true JP2019075091A (en) 2019-05-16
JP2019075091A5 JP2019075091A5 (en) 2021-01-07

Family

ID=66544224

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018156988A Pending JP2019075091A (en) 2018-08-24 2018-08-24 Program for providing virtual experience, computer and method

Country Status (1)

Country Link
JP (1) JP2019075091A (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (en) * 1999-12-23 2001-07-03 Sega Corp Video game device, image display device and method, moving image display device and method and recording medium
JP2004283521A (en) * 2003-03-20 2004-10-14 Square Enix Co Ltd Video game system, recording medium and program
JP2006092156A (en) * 2004-09-22 2006-04-06 Namco Ltd Program, information storage medium and image generation device

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001178963A (en) * 1999-12-23 2001-07-03 Sega Corp Video game device, image display device and method, moving image display device and method and recording medium
JP2004283521A (en) * 2003-03-20 2004-10-14 Square Enix Co Ltd Video game system, recording medium and program
JP2006092156A (en) * 2004-09-22 2006-04-06 Namco Ltd Program, information storage medium and image generation device

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
伊藤 裕之: "VR〜バーチャルな世界 part II ベクション研究とその課題", 画像ラボ, vol. 第15巻 第8号, JPN6021029376, 1 August 2004 (2004-08-01), JP, pages 53 - 56, ISSN: 0004561884 *

Similar Documents

Publication Publication Date Title
JP6298558B1 (en) Method for providing virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP6523233B2 (en) Information processing method, apparatus, and program for causing a computer to execute the information processing method
JP6298523B1 (en) Method executed by computer to communicate through virtual space, program for causing computer to execute the method, and computer apparatus
JP6201028B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6393387B1 (en) Programs, computers, and methods for providing a virtual experience
JP2022171742A (en) Program, information processing method, and information processing device
JP6495398B2 (en) Method and program for providing virtual space, and information processing apparatus for executing the program
JP6513241B1 (en) PROGRAM, INFORMATION PROCESSING DEVICE, AND INFORMATION PROCESSING METHOD
JP6306678B1 (en) Method executed by computer to present object in virtual space, program causing computer to execute the method, and computer apparatus
JP6457446B2 (en) Method and apparatus for supporting communication in virtual space, and program for causing computer to execute the method
JP7005406B2 (en) Programs, information processing devices, and information processing methods
JP6278546B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP6779840B2 (en) Methods and devices for assisting input in virtual space and programs that allow computers to execute such methods.
JP7192151B2 (en) Program, information processing device, and information processing method
JP6250779B1 (en) Method executed by computer to communicate via virtual space, program causing computer to execute the method, and information processing apparatus
JP6382928B2 (en) Method executed by computer to control display of image in virtual space, program for causing computer to realize the method, and computer apparatus
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP2018032384A (en) Method and device for assisting communication in virtual space and program enabling computer to execute method
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP6966336B2 (en) An information processing method, a device, and a program for causing a computer to execute the information processing method.
JP6639563B2 (en) Program, computer, and method for providing a virtual experience to a user via an image display device
KR20220013398A (en) A computer-readable recording medium on which a program is recorded, an information processing method, and an information processing apparatus
JP2019145120A (en) Method of providing virtual space, program, and information processing apparatus for executing the program
JP2019075091A (en) Program for providing virtual experience, computer and method
JP2019155115A (en) Program, information processor and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20201001

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201120

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210624

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210803

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20220208