JP6794390B2 - Simulation system and program - Google Patents

Simulation system and program Download PDF

Info

Publication number
JP6794390B2
JP6794390B2 JP2018029370A JP2018029370A JP6794390B2 JP 6794390 B2 JP6794390 B2 JP 6794390B2 JP 2018029370 A JP2018029370 A JP 2018029370A JP 2018029370 A JP2018029370 A JP 2018029370A JP 6794390 B2 JP6794390 B2 JP 6794390B2
Authority
JP
Japan
Prior art keywords
information
information display
user
display
display object
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018029370A
Other languages
Japanese (ja)
Other versions
JP2018136944A (en
JP2018136944A5 (en
Inventor
絢 玉置
絢 玉置
治由 山本
治由 山本
青木 隆
青木  隆
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Bandai Namco Entertainment Inc
Original Assignee
Namco Ltd
Bandai Namco Entertainment Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd, Bandai Namco Entertainment Inc filed Critical Namco Ltd
Priority to JP2018029370A priority Critical patent/JP6794390B2/en
Publication of JP2018136944A publication Critical patent/JP2018136944A/en
Publication of JP2018136944A5 publication Critical patent/JP2018136944A5/ja
Application granted granted Critical
Publication of JP6794390B2 publication Critical patent/JP6794390B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、シミュレーションシステム及びプログラム等に関する。 The present invention relates to a simulation system, a program, and the like.

従来より、HMD(頭部装着型表示装置)をユーザが頭部に装着し、HMDの画面に表示される画像をユーザが見ることで、いわゆるバーチャルリアリティー(VR)の世界を体感できるシステムが知られている。このようなHMDを用いたシステムの従来技術としては、例えば特許文献1、2に開示される技術がある。 Conventionally, a system that allows a user to experience the world of so-called virtual reality (VR) by wearing an HMD (head-mounted display device) on the head and viewing the image displayed on the HMD screen has been known. Has been done. As a conventional technique of a system using such an HMD, for example, there is a technique disclosed in Patent Documents 1 and 2.

特許文献1には、ユーザの頭部の変動状態が所定の変動状態になった場合に、HMDの液晶シャッタを開いて、ユーザに表示する視覚情報を、周囲の環境視覚情報に切り替える手法が開示されている。特許文献2には、動き検出部によりユーザの頭部動作を特定し、その角速度に対応するユーザの望む処理を実行し、更にユーザの頭部の戻り動作を処理に反映させないことで、ユーザの頭部動作による操作を正確に実行する手法が開示されている。 Patent Document 1 discloses a method of opening the liquid crystal shutter of the HMD to switch the visual information displayed to the user to the surrounding environment visual information when the fluctuation state of the user's head becomes a predetermined fluctuation state. Has been done. In Patent Document 2, the motion detection unit identifies the user's head motion, executes the process desired by the user corresponding to the angular velocity, and does not reflect the return motion of the user's head in the process. A method for accurately performing an operation by head movement is disclosed.

特開平7−261112号公報Japanese Unexamined Patent Publication No. 7-261112 特開2012−123812号公報Japanese Unexamined Patent Publication No. 2012-123812

HMDを用いたシステムでは、仮想空間において仮想カメラから見える画像がHMDに表示される。このような画像をHMDに表示することで、ユーザの視界の全周囲に亘って、広大なVR空間が広がるようになるため、ユーザの仮想現実感を格段に向上できる。 In the system using the HMD, the image seen from the virtual camera in the virtual space is displayed on the HMD. By displaying such an image on the HMD, a vast VR space spreads over the entire circumference of the user's field of view, so that the user's virtual reality can be significantly improved.

一方、HMDを用いたシステムでは、説明情報やステータス情報などの様々な情報をユーザに対して表示することが望ましい。 On the other hand, in a system using an HMD, it is desirable to display various information such as explanatory information and status information to the user.

しかしながら、このような情報がユーザに対して適切に表示されないと、様々な問題を招いてしまう。例えばHMDを用いたシステムでは、ユーザの視線方向が様々に変化し、VR空間には多数のオブジェクトが存在する。従って、ユーザに対する情報表示が不適切であると、画面が見にくくなってしまったり、ユーザの仮想現実感を損ねてしまうなどの問題を招く。 However, if such information is not properly displayed to the user, it causes various problems. For example, in a system using an HMD, the line-of-sight direction of the user changes in various ways, and a large number of objects exist in the VR space. Therefore, if the information display to the user is inappropriate, the screen becomes difficult to see and the user's virtual reality is impaired.

本発明の幾つかの態様によれば、頭部装着型表示装置を用いたシステムにおいて情報表示物の適正な表示処理を実現できるシミュレーションシステム及びプログラム等を提供できる。 According to some aspects of the present invention, it is possible to provide a simulation system, a program, or the like that can realize an appropriate display process of an information display object in a system using a head-mounted display device.

本発明の一態様は、複数のオブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、頭部装着型表示装置を装着するユーザの視点に対応する仮想カメラの制御処理を行う仮想カメラ制御部と、前記頭部装着型表示装置の表示画像として、前記仮想空間において前記仮想カメラから見える画像を生成する表示処理部と、を含み、前記仮想空間設定部は、前記ユーザの視点変化に追従するように制御される少なくとも1つの情報表示物を前記仮想空間に配置し、前記表示処理部は、前記情報表示物と前記仮想空間のオブジェクトとが所与の位置関係になった場合に、前記情報表示物又は前記オブジェクトの表示態様の変更処理を行うシミュレーションシステムに関係する。また本発明は、上記各部としてコンピュータを機能させるプログラム、又は該プログラムを記憶したコンピュータ読み取り可能な情報記憶媒体に関係する。 One aspect of the present invention is a virtual space setting unit that performs setting processing of a virtual space in which a plurality of objects are arranged, and a virtual that performs control processing of a virtual camera corresponding to the viewpoint of a user wearing a head-mounted display device. The virtual space setting unit includes a camera control unit and a display processing unit that generates an image that can be seen from the virtual camera in the virtual space as a display image of the head-mounted display device, and the virtual space setting unit changes the viewpoint of the user. At least one information display object controlled to follow the above is arranged in the virtual space, and the display processing unit receives when the information display object and the object in the virtual space have a given positional relationship. , The information display object or the simulation system for changing the display mode of the object. The present invention also relates to a program that causes a computer to function as each of the above parts, or a computer-readable information storage medium that stores the program.

本発明の一態様によれば、複数のオブジェクトが配置される仮想空間の設定処理が行われ、頭部装着型表示装置の表示画像として、ユーザの視点に対応する仮想カメラから見える画像が生成される。そしてユーザの視点変化(視線方向及び視点位置の少なくとも一方の変化)に追従するように制御される情報表示物が仮想空間に配置され、情報表示物と仮想空間のオブジェクトとが所与の位置関係になった場合には、情報表示物又はオブジェクトの表示態様を変更する処理が行われる。このようにすれば、ユーザの視点変化に追従するように制御される情報表示物とオブジェクトとが所与の位置関係になった場合にも、情報表示物又はオブジェクトの表示態様が変更されることで、不適切な画像が頭部装着型表示装置に表示されてしまうのを防止できる。従って、頭部装着型表示装置を用いたシステムにおいて情報表示物の適正な表示処理を実現できるシミュレーションシステム等の提供が可能になる。 According to one aspect of the present invention, a virtual space setting process in which a plurality of objects are arranged is performed, and an image seen from a virtual camera corresponding to the user's viewpoint is generated as a display image of the head-mounted display device. To. Then, an information display object controlled to follow the user's viewpoint change (change in at least one of the line-of-sight direction and the viewpoint position) is arranged in the virtual space, and the information display object and the object in the virtual space have a given positional relationship. When becomes, the process of changing the display mode of the information display object or the object is performed. In this way, even when the information display object controlled to follow the change in the viewpoint of the user and the object have a given positional relationship, the display mode of the information display object or the object is changed. Therefore, it is possible to prevent an inappropriate image from being displayed on the head-mounted display device. Therefore, it is possible to provide a simulation system or the like that can realize appropriate display processing of information display objects in a system using a head-mounted display device.

また本発明の一態様では、前記表示処理部は、前記情報表示物の種類、優先度又は重要度に応じた前記表示態様の変更処理を行ってもよい。 Further, in one aspect of the present invention, the display processing unit may change the display mode according to the type, priority or importance of the information display object.

このようにすれば、情報表示物の種類、優先度又は重要度に応じた適切な表示態様の変更処理を実現できる。 In this way, it is possible to realize an appropriate display mode change process according to the type, priority or importance of the information display object.

また本発明の一態様では、前記表示処理部は、前記情報表示物が第1の種類である場合には、前記オブジェクトの方の表示態様を変更し、前記情報表示物が第2の種類である場合には、前記情報表示物の方の表示態様を変更してもよい。 Further, in one aspect of the present invention, when the information display object is the first type, the display processing unit changes the display mode of the object, and the information display object is the second type. In some cases, the display mode of the information display object may be changed.

このようにすれば、情報表示物の種類に応じて、情報表示物とオブジェクトの一方の表示態様を変更することで、情報表示物の適切な表示処理を実現できるようになる。 By doing so, it is possible to realize an appropriate display process of the information display object by changing one of the display modes of the information display object and the object according to the type of the information display object.

また本発明の一態様では、前記表示処理部は、前記情報表示物に関連づけられた前記優先度又は前記重要度を用いて、前記表示態様の変更処理を行ってもよい。 Further, in one aspect of the present invention, the display processing unit may perform the change processing of the display mode by using the priority or the importance associated with the information display object.

このようにすれば、情報表示物に対して予め優先度又は重要度を関連づけておき、この優先度又は重要度を用いて適切な表示態様の変更処理を実行できるようになる。 In this way, the priority or importance can be associated with the information display object in advance, and the appropriate display mode change process can be executed using this priority or importance.

また本発明の一態様では、前記表示処理部は、前記情報表示物が表示されてからの経過時間に応じた前記表示態様の変更処理を行ってもよい。 Further, in one aspect of the present invention, the display processing unit may change the display mode according to the elapsed time from the display of the information display object.

このようにすれば、情報表示物が表示されてからの経過時間を反映させた表示態様の変更処理を実現できるようになる。 By doing so, it becomes possible to realize the process of changing the display mode that reflects the elapsed time since the information display object is displayed.

また本発明の一態様では、前記表示処理部は、前記表示態様の変更処理として、前記情報表示物又は前記オブジェクトの消去処理、前記情報表示物又は前記オブジェクトの半透明化処理、前記ユーザの視線方向への前記情報表示物の追従の解除処理、前記情報表示物又は前記オブジェクトの移動処理、前記情報表示物又は前記オブジェクトのサイズ変更処理、或いは前記情報表示物又は前記オブジェクトの色情報変更処理を行ってもよい。 Further, in one aspect of the present invention, the display processing unit performs processing for erasing the information display object or the object, processing for making the information display object or the object translucent, and the line of sight of the user as processing for changing the display mode. The process of canceling the tracking of the information display object in the direction, the process of moving the information display object or the object, the process of resizing the information display object or the object, or the process of changing the color information of the information display object or the object. You may go.

このようにすれば、情報表示物とオブジェクトが所与の位置関係になった場合にも、情報表示物又はオブジェクトの消去処理又は半透明化処理を行ったり、情報表示物の追従の解除処理を行ったり、情報表示物又はオブジェクトの移動処理やサイズ変更処理を行ったり、或いは情報表示物又はオブジェクトの色情報変更処理を行うことで、情報表示物の適正な表示処理を実現できるようになる。 In this way, even when the information display object and the object have a given positional relationship, the information display object or the object can be erased or made translucent, or the tracking of the information display object can be canceled. By performing, moving or resizing the information display object or object, or changing the color information of the information display object or object, it becomes possible to realize an appropriate display process of the information display object.

また本発明の一態様では、前記情報表示物は、説明表示のための表示物、ステータス表示のための表示物、会話表示のための表示物、コマンド選択のための表示物、又はメニュー表示のための表示物であってもよい。 Further, in one aspect of the present invention, the information display object is a display object for explanatory display, a display object for status display, a display object for conversation display, a display object for command selection, or a menu display. It may be a display object for.

このようにすれば、情報表示物を用いて、説明表示、ステータス表示、会話表示、コマンド選択、又はメニュー表示などを実現できるようになる。 In this way, the explanation display, the status display, the conversation display, the command selection, the menu display, and the like can be realized by using the information display object.

また本発明の一態様では、前記オブジェクトは、ゲームに登場する移動体、固定物、アイテム又は背景のオブジェクトであってもよい。 Further, in one aspect of the present invention, the object may be a moving object, a fixed object, an item, or a background object appearing in the game.

このようにすれば、ゲームに登場する移動体、固定物、アイテム、又は背景などのオブジェクトと情報表示物とが所与の位置関係になった場合にも、情報表示物の適切な表示処理を実現できるようになる。 In this way, even when an object such as a moving object, a fixed object, an item, or a background appearing in the game and the information display object have a given positional relationship, appropriate display processing of the information display object can be performed. It will be possible.

また本発明の一態様では、前記情報表示物と前記オブジェクトの位置関係を判定する判定部を含み(判定部としてコンピュータを機能させ)、前記表示処理部は、前記判定部により前記情報表示物と前記オブジェクトとが前記所与の位置関係になったと判定された場合に、前記表示態様の変更処理を行ってもよい。 Further, in one aspect of the present invention, a determination unit for determining the positional relationship between the information display object and the object is included (a computer functions as a determination unit), and the display processing unit is combined with the information display object by the determination unit. When it is determined that the object and the object have the given positional relationship, the display mode may be changed.

このようにすれば、判定部により情報表示物とオブジェクトとの位置関係を判定し、その判定結果に基づいて、情報表示物又はオブジェクトの表示態様の変更処理を実行できるようになる。 In this way, the determination unit can determine the positional relationship between the information display object and the object, and can execute the process of changing the display mode of the information display object or the object based on the determination result.

また本発明の一態様では、前記表示処理部は、前記判定部により前記情報表示物と前記オブジェクトとが衝突の位置関係又は接近の位置関係になったと判定された場合に、前記表示態様の変更処理を行ってもよい。 Further, in one aspect of the present invention, the display processing unit changes the display mode when the determination unit determines that the information display object and the object have a collision positional relationship or an approaching positional relationship. Processing may be performed.

このようにすれば、情報表示物とオブジェクトとが衝突又は接近の位置関係になって、表示画像に不具合が生じるような場合にも、情報表示物又はオブジェクトの表示態様の変更処理を行うことで、このような不具合を防止できるようになる。 By doing so, even when the information display object and the object collide or approach each other and a problem occurs in the display image, the display mode of the information display object or the object can be changed. , Such a problem can be prevented.

また本発明の一態様では、前記判定部は、前記情報表示物と前記オブジェクトの3次元座標値、前記情報表示物と前記オブジェクトの奥行き値、又は前記情報表示物と前記オブジェクトを平面に投影した場合の2次元座標値に基づいて、前記位置関係を判定してもよい。 Further, in one aspect of the present invention, the determination unit projects the information display object and the three-dimensional coordinate value of the object, the information display object and the depth value of the object, or the information display object and the object on a plane. The positional relationship may be determined based on the two-dimensional coordinate values of the case.

このようにすれば、情報表示物とオブジェクトの3次元座標値や奥行き値、或いは情報表示物とオブジェクトを平面に投影した場合の2次元座標値を利用して、情報表示物とオブジェクトの位置関係を判定して、表示態様の変更処理を実行できるようになる。 In this way, the positional relationship between the information display object and the object is used by using the three-dimensional coordinate values and depth values of the information display object and the object, or the two-dimensional coordinate values when the information display object and the object are projected on a plane. Is determined, and the display mode change process can be executed.

また本発明の一態様では、前記仮想空間設定部は、前記ユーザの視線方向での所与の奥行き位置に、ユーザの視点変化に追従するように前記情報表示物を配置してもよい。 Further, in one aspect of the present invention, the virtual space setting unit may arrange the information display object at a given depth position in the line-of-sight direction of the user so as to follow a change in the viewpoint of the user.

このようにすれば、ユーザの視線方向又は視点位置が変化した場合にも、この変化に追従するように、ユーザの視線方向での所与の奥行き位置に情報表示物を配置して表示できるようになる。従って、ユーザの仮想現実感が損なわれたり、表示画像が見にくくなってしまうなどの事態を防止できる。 In this way, even if the user's line-of-sight direction or viewpoint position changes, the information display object can be arranged and displayed at a given depth position in the user's line-of-sight direction so as to follow the change. become. Therefore, it is possible to prevent a situation in which the virtual reality of the user is impaired or the displayed image becomes difficult to see.

また本発明の一態様では、前記仮想カメラ制御部は、前記ユーザの視点情報のトラッキング情報に基づいて、前記ユーザの視点変化に追従するように前記仮想カメラを制御してもよい。 Further, in one aspect of the present invention, the virtual camera control unit may control the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

このようにすれば、例えば現実世界でのユーザの視点変化に追従して、仮想空間での仮想カメラの視線方向や視点位置を変化させて、当該仮想カメラから見える画像を頭部装着型表示装置に表示できるようになる。 In this way, for example, the head-mounted display device displays the image seen from the virtual camera by changing the line-of-sight direction and the viewpoint position of the virtual camera in the virtual space in accordance with the change in the viewpoint of the user in the real world. It will be possible to display in.

また本発明の一態様では、ゲーム処理を行うゲーム処理部を含み(ゲーム処理部としてコンピュータを機能させ)、前記ゲーム処理部は、前記ユーザのゲームプレイの対象となるキャラクタの情報と前記ユーザの視点情報との応じたコマンドの効果を、発動させる処理を行ってもよい。 Further, in one aspect of the present invention, a game processing unit that performs game processing is included (a computer functions as a game processing unit), and the game processing unit includes information on a character that is the target of game play by the user and the user's information. A process of invoking the effect of the command corresponding to the viewpoint information may be performed.

このようにすれば、キャラクタとユーザとの関係を反映したコマンドの効果の発動処理を実現でき、これまでにないタイプのゲームの実現等が可能になる。 In this way, it is possible to realize the process of invoking the effect of the command that reflects the relationship between the character and the user, and it is possible to realize an unprecedented type of game.

本実施形態のシミュレーションシステムの構成例を示すブロック図。The block diagram which shows the configuration example of the simulation system of this embodiment. 図2(A)、図2(B)は本実施形態に用いられるHMDの一例。2 (A) and 2 (B) are examples of the HMD used in this embodiment. 図3(A)、図3(B)は本実施形態に用いられるHMDの他の例。3 (A) and 3 (B) are other examples of the HMD used in this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. 本実施形態により生成されるゲーム画像の例。An example of a game image generated by this embodiment. キャラクタのステータスの表示についての説明図。Explanatory drawing about the display of the status of a character. 図8(A)〜図8(D)は情報表示物の表示手法の説明図。8 (A) to 8 (D) are explanatory views of a display method of an information display object. 図9(A)、図9(B)は情報表示物とオブジェクトの衝突の説明図。9 (A) and 9 (B) are explanatory views of the collision between the information display object and the object. 図10(A)〜図10(C)は本実施形態の表示態様変更手法の説明図。10 (A) to 10 (C) are explanatory views of the display mode changing method of the present embodiment. 図11(A)、図11(B)は情報表示物の種類、優先度、重要度に応じた表示態様変更手法の説明図。11 (A) and 11 (B) are explanatory views of a display mode changing method according to the type, priority, and importance of the information display object. 情報表示物の表示からの経過時間に応じた表示態様変更手法の説明図。An explanatory diagram of a display mode changing method according to the elapsed time from the display of an information display object. 図13(A)〜図13(C)は情報表示物の表示態様変更処理の具体例。13 (A) to 13 (C) are specific examples of the display mode changing process of the information display object. 図14(A)〜図14(C)は情報表示物の表示態様変更処理の具体例。14 (A) to 14 (C) are specific examples of the display mode changing process of the information display object. 図15(A)、図15(B)は位置関係の判定手法の具体例。15 (A) and 15 (B) are specific examples of the positional relationship determination method. 図16(A)、図16(B)は位置関係の判定手法の具体例。16 (A) and 16 (B) are specific examples of the positional relationship determination method. 図17(A)、図17(B)は位置関係の判定手法の具体例。17 (A) and 17 (B) are specific examples of the positional relationship determination method. 図18(A)、図18(B)はユーザとキャラクタの位置関係情報に応じたコマンドの効果の発動処理の説明図。18 (A) and 18 (B) are explanatory views of the process of invoking the effect of the command according to the positional relationship information between the user and the character. 図19(A)、図19(B)はユーザとキャラクタの位置関係情報に応じたコマンドの効果の発動処理の説明図。19 (A) and 19 (B) are explanatory views of the process of invoking the effect of the command according to the positional relationship information between the user and the character. 図20(A)、図20(B)はユーザとキャラクタの視線関係情報に応じたコマンドの効果の発動処理の説明図。20 (A) and 20 (B) are explanatory views of the process of invoking the effect of the command according to the line-of-sight relationship information between the user and the character. ユーザの注視情報に応じたコマンドの効果の発動処理の説明図。Explanatory drawing of the activation processing of the effect of a command according to the gaze information of a user. 本実施形態の詳細な処理例を示すフローチャート。The flowchart which shows the detailed processing example of this embodiment.

以下、本実施形態について説明する。なお、以下に説明する本実施形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また本実施形態で説明される構成の全てが、本発明の必須構成要件であるとは限らない。 Hereinafter, this embodiment will be described. The present embodiment described below does not unreasonably limit the content of the present invention described in the claims. Moreover, not all of the configurations described in the present embodiment are essential constituent requirements of the present invention.

1.シミュレーションシステム
図1は、本実施形態のシミュレーションシステム(シミュレータ、ゲームシステム)の構成例を示すブロック図である。本実施形態のシミュレーションシステムは例えばバーチャルリアリティ(VR)をシミュレートするシステムであり、ゲームコンテンツを提供するゲームシステム、スポーツ競技シミュレータや運転シミュレータなどのリアルタイムシミュレーションシステム、映像等のコンテンツを提供するコンテンツ提供システム、或いは遠隔作業を実現するオペレーティングシステムなどの種々のシステムに適用可能である。なお、本実施形態のシミュレーションシステムは図1の構成に限定されず、その構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。
1. 1. Simulation system FIG. 1 is a block diagram showing a configuration example of a simulation system (simulator, game system) of the present embodiment. The simulation system of the present embodiment is, for example, a system that simulates virtual reality (VR), and provides a game system that provides game content, a real-time simulation system such as a sports competition simulator or a driving simulator, and content that provides content such as video. It can be applied to various systems such as a system or an operating system that realizes remote work. The simulation system of the present embodiment is not limited to the configuration shown in FIG. 1, and various modifications such as omitting a part of its constituent elements (each part) or adding other constituent elements are possible.

撮像部150は、1又は複数のカメラにより構成される。各カメラは、レンズ(広角レンズ)等の光学系や、CCDやCMOSセンサ等の撮像素子により構成される。また撮像部150に1又は複数のマイクを設けてもよい。撮像部150を用いることで、ユーザの動き情報(各部位の動き情報、スケルトン情報)を検出したり、ユーザの認識処理(顔認識等)を実現できる。また複数のカメラを撮像部150に設けることで、空間の奥行き方向を認識し、撮像部150の前方でプレイしている二人のユーザの前後関係を判断することなどが可能になる。また複数のマイクを撮像部150に設けることで、音源の方向等を検出できる。例えば複数のカメラ及び複数のマイクが設けられた撮像部150を用いることで、ユーザの動きや音声などを操作情報として直感的にプレイできるゲームを実現することが可能になる。 The imaging unit 150 is composed of one or a plurality of cameras. Each camera is composed of an optical system such as a lens (wide-angle lens) and an image sensor such as a CCD or CMOS sensor. Further, the imaging unit 150 may be provided with one or more microphones. By using the imaging unit 150, it is possible to detect user movement information (movement information of each part, skeleton information) and realize user recognition processing (face recognition, etc.). Further, by providing the imaging unit 150 with a plurality of cameras, it is possible to recognize the depth direction of the space and determine the context of two users playing in front of the imaging unit 150. Further, by providing a plurality of microphones in the imaging unit 150, the direction of the sound source and the like can be detected. For example, by using the imaging unit 150 provided with a plurality of cameras and a plurality of microphones, it is possible to realize a game in which the user's movements and voices can be intuitively played as operation information.

操作部160は、ユーザ(プレーヤ)が種々の操作情報(入力情報)を入力するためのものである。操作部160は、例えば操作ボタン、方向指示キー、ジョイスティック、ハンドル、ペダル又はレバー等の種々の操作デバイスにより実現できる。 The operation unit 160 is for the user (player) to input various operation information (input information). The operation unit 160 can be realized by various operation devices such as operation buttons, turn signal keys, joysticks, handles, pedals or levers.

記憶部170は各種の情報を記憶する。記憶部170は、処理部100や通信部196などのワーク領域として機能する。ゲームプログラムや、ゲームプログラムの実行に必要なゲームデータは、この記憶部170に保持される。記憶部170の機能は、半導体メモリ(DRAM、VRAM)、HDD(ハードディスクドライブ)、SSD、光ディスク装置などにより実現できる。記憶部170は、オブジェクト情報記憶部172、描画バッファ178を含む。 The storage unit 170 stores various types of information. The storage unit 170 functions as a work area such as the processing unit 100 and the communication unit 196. The game program and game data necessary for executing the game program are stored in the storage unit 170. The function of the storage unit 170 can be realized by a semiconductor memory (DRAM, VRAM), an HDD (hard disk drive), an SSD, an optical disk device, or the like. The storage unit 170 includes an object information storage unit 172 and a drawing buffer 178.

情報記憶媒体180(コンピュータにより読み取り可能な媒体)は、プログラムやデータなどを格納するものであり、その機能は、光ディスク(DVD、BD、CD)、HDD、或いは半導体メモリ(ROM)などにより実現できる。処理部100は、情報記憶媒体180に格納されるプログラム(データ)に基づいて本実施形態の種々の処理を行う。即ち情報記憶媒体180には、本実施形態の各部としてコンピュータ(入力装置、処理部、記憶部、出力部を備える装置)を機能させるためのプログラム(各部の処理をコンピュータに実行させるためのプログラム)が記憶される。 The information storage medium 180 (a medium that can be read by a computer) stores programs, data, and the like, and its function can be realized by an optical disk (DVD, BD, CD), an HDD, a semiconductor memory (ROM), or the like. .. The processing unit 100 performs various processes of the present embodiment based on the program (data) stored in the information storage medium 180. That is, the information storage medium 180 is a program for causing a computer (a device including an input device, a processing unit, a storage unit, and an output unit) to function as each part of the present embodiment (a program for causing the computer to execute processing of each part). Is memorized.

HMD200(頭部装着型表示装置)は、ユーザの頭部に装着されて、ユーザの眼前に画像を表示する装置である。HMD200は非透過型であることが望ましいが、透過型であってもよい。またHMD200は、いわゆるメガネタイプのHMDであってもよい。 The HMD200 (head-mounted display device) is a device that is worn on the user's head and displays an image in front of the user's eyes. The HMD 200 is preferably a non-transparent type, but may be a transparent type. Further, the HMD 200 may be a so-called eyeglass type HMD.

HMD200は、センサ部210、表示部220、処理部240を含む。センサ部210は、例えばヘッドトラッキングなどのトラッキング処理を実現するためものである。例えばセンサ部210を用いたトラッキング処理により、HMD200の位置、方向を特定する。HMD200の位置、方向が特定されることで、ユーザの視点情報である視点位置、視線方向を特定できる。 The HMD 200 includes a sensor unit 210, a display unit 220, and a processing unit 240. The sensor unit 210 is for realizing tracking processing such as head tracking. For example, the position and direction of the HMD 200 are specified by a tracking process using the sensor unit 210. By specifying the position and direction of the HMD 200, it is possible to specify the viewpoint position and the line-of-sight direction, which is the user's viewpoint information.

トラッキング方式としては種々の方式を採用できる。トラッキング方式の一例である第1のトラッキング方式では、後述の図2(A)、図2(B)で詳細に説明するように、センサ部210として複数の発光素子(LED)を設ける。そして、これらの複数の発光素子からの光を、撮像部150で撮像することで、現実世界の3次元空間でのHMD200(ユーザの頭部)の位置、方向を特定する。第2のトラッキング方式では、後述の図3(A)、図3(B)で詳細に説明するように、センサ部210として複数の受光素子(フォトダイオード等)を設ける。そして外部に設けられた発光素子(LED等)からの光(レーザー等)をこれらの複数の受光素子により受光することで、HMD200の位置、方向を特定する。第3のトラッキング方式では、センサ部210としてモーションセンサを設け、このモーションセンサを用いてHMD200の位置、方向を特定する。モーションセンサは例えば加速度センサやジャイロセンサなどにより実現できる。例えば3軸の加速度センサと3軸のジャイロセンサを用いた6軸のモーションセンサを用いることで、現実世界の3次元空間でのHMD200の位置、方向を特定できる。なお、第1のトラッキング方式と第2のトラッキング方式の組合わせ、或いは第1のトラッキング方式と第3のトラッキング方式の組合わせなどにより、HMD200の位置、方向を特定してもよい。またHMD200の位置、方向を特定することでユーザの視点位置、視線方向を特定するのではなく、ユーザの視点位置、視線方向を直接に特定するトラッキング処理を採用してもよい。 Various methods can be adopted as the tracking method. In the first tracking method, which is an example of the tracking method, a plurality of light emitting elements (LEDs) are provided as the sensor unit 210, as will be described in detail in FIGS. 2 (A) and 2 (B) described later. Then, by capturing the light from these plurality of light emitting elements with the imaging unit 150, the position and direction of the HMD 200 (user's head) in the three-dimensional space in the real world are specified. In the second tracking method, a plurality of light receiving elements (photodiodes and the like) are provided as the sensor unit 210 as described in detail in FIGS. 3 (A) and 3 (B) described later. Then, the position and direction of the HMD 200 are specified by receiving light (laser or the like) from an externally provided light emitting element (LED or the like) by these plurality of light receiving elements. In the third tracking method, a motion sensor is provided as the sensor unit 210, and the position and direction of the HMD 200 are specified using this motion sensor. The motion sensor can be realized by, for example, an acceleration sensor or a gyro sensor. For example, by using a 6-axis motion sensor using a 3-axis acceleration sensor and a 3-axis gyro sensor, the position and direction of the HMD200 in a three-dimensional space in the real world can be specified. The position and direction of the HMD 200 may be specified by a combination of the first tracking method and the second tracking method, or a combination of the first tracking method and the third tracking method. Further, instead of specifying the user's viewpoint position and line-of-sight direction by specifying the position and direction of the HMD 200, a tracking process that directly specifies the user's viewpoint position and line-of-sight direction may be adopted.

HMD200の表示部220は例えば有機ELディスプレイ(OEL)や液晶ディスプレイ(LCD)などにより実現できる。例えばHMD200の表示部220には、ユーザの左目の前に設定される第1のディスプレイ又は第1の表示領域と、右目の前に設定される第2のディスプレイ又は第2の表示領域が設けられており、立体視表示が可能になっている。立体視表示を行う場合には、例えば視差が異なる左目用画像と右目用画像を生成し、第1のディスプレイに左目用画像を表示し、第2のディスプレイに右目用画像を表示する。或いは1つのディスプレイの第1の表示領域に左目用画像を表示し、第2の表示領域に右目用画像を表示する。またHMD200には左目用、右目用の2つの接眼レンズ(魚眼レンズ)が設けられており、これによりユーザの視界の全周囲に亘って広がるVR空間が表現される。そして接眼レンズ等の光学系で生じる歪みを補正するための補正処理が、左目用画像、右目用画像に対して行われる。この補正処理は表示処理部120が行う。 The display unit 220 of the HMD 200 can be realized by, for example, an organic EL display (OEL) or a liquid crystal display (LCD). For example, the display unit 220 of the HMD 200 is provided with a first display or a first display area set in front of the user's left eye and a second display or a second display area set in front of the right eye. It is possible to display stereoscopically. In the case of stereoscopic display, for example, an image for the left eye and an image for the right eye having different parallax are generated, the image for the left eye is displayed on the first display, and the image for the right eye is displayed on the second display. Alternatively, the image for the left eye is displayed in the first display area of one display, and the image for the right eye is displayed in the second display area. Further, the HMD 200 is provided with two eyepieces (fisheye lens) for the left eye and the right eye, thereby expressing a VR space that extends over the entire circumference of the user's field of view. Then, a correction process for correcting the distortion generated in the optical system such as the eyepiece is performed on the left eye image and the right eye image. This correction process is performed by the display processing unit 120.

HMD200の処理部240は、HMD200において必要な各種の処理を行う。例えば処理部240は、センサ部210の制御処理や表示部220の表示制御処理などを行う。また処理部240が、3次元音響(立体音響)処理を行って、3次元的な音の方向や距離や広がりの再現を実現してもよい。 The processing unit 240 of the HMD 200 performs various processes necessary for the HMD 200. For example, the processing unit 240 performs control processing of the sensor unit 210, display control processing of the display unit 220, and the like. Further, the processing unit 240 may perform three-dimensional sound (stereophonic sound) processing to reproduce the three-dimensional sound direction, distance, and spread.

音出力部192は、本実施形態により生成された音を出力するものであり、例えばスピーカ又はヘッドホン等により実現できる。 The sound output unit 192 outputs the sound generated by the present embodiment, and can be realized by, for example, a speaker or headphones.

I/F(インターフェース)部194は、携帯型情報記憶媒体195とのインターフェース処理を行うものであり、その機能はI/F処理用のASICなどにより実現できる。携帯型情報記憶媒体195は、ユーザが各種の情報を保存するためのものであり、電源が非供給になった場合にもこれらの情報の記憶を保持する記憶装置である。携帯型情報記憶媒体195は、ICカード(メモリカード)、USBメモリ、或いは磁気カードなどにより実現できる。 The I / F (interface) unit 194 performs interface processing with the portable information storage medium 195, and the function can be realized by an ASIC or the like for I / F processing. The portable information storage medium 195 is for the user to store various types of information, and is a storage device that retains the storage of such information even when the power is not supplied. The portable information storage medium 195 can be realized by an IC card (memory card), a USB memory, a magnetic card, or the like.

通信部196は、有線や無線のネットワークを介して外部(他の装置)との間で通信を行うものであり、その機能は、通信用ASIC又は通信用プロセッサなどのハードウェアや、通信用ファームウェアにより実現できる。 The communication unit 196 communicates with an external device (another device) via a wired or wireless network, and its functions include hardware such as a communication ASIC or a communication processor, and communication firmware. Can be realized by.

なお本実施形態の各部としてコンピュータを機能させるためのプログラム(データ)は、サーバ(ホスト装置)が有する情報記憶媒体からネットワーク及び通信部196を介して情報記憶媒体180(あるいは記憶部170)に配信してもよい。このようなサーバ(ホスト装置)による情報記憶媒体の使用も本発明の範囲内に含めることができる。 The program (data) for operating the computer as each part of the present embodiment is distributed from the information storage medium of the server (host device) to the information storage medium 180 (or storage unit 170) via the network and the communication unit 196. You may. The use of information storage media by such a server (host device) can also be included within the scope of the present invention.

処理部100(プロセッサ)は、操作部160からの操作情報や、HMD200でのトラッキング情報(HMDの位置及び方向の少なくとも一方の情報。視点位置及び視線方向の少なくとも一方の情報)や、プログラムなどに基づいて、ゲーム処理(シミュレーション処理)、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などを行う。 The processing unit 100 (processor) provides operation information from the operation unit 160, tracking information in the HMD 200 (information on at least one of the position and direction of the HMD, information on at least one of the viewpoint position and the line-of-sight direction), a program, and the like. Based on this, game processing (simulation processing), moving object processing, virtual camera control processing, display processing, sound processing, and the like are performed.

処理部100の各部が行う本実施形態の各処理(各機能)はプロセッサ(ハードウェアを含むプロセッサ)により実現できる。例えば本実施形態の各処理は、プログラム等の情報に基づき動作するプロセッサと、プログラム等の情報を記憶するメモリにより実現できる。プロセッサは、例えば各部の機能が個別のハードウェアで実現されてもよいし、或いは各部の機能が一体のハードウェアで実現されてもよい。例えば、プロセッサはハードウェアを含み、そのハードウェアは、デジタル信号を処理する回路及びアナログ信号を処理する回路の少なくとも一方を含むことができる。例えば、プロセッサは、回路基板に実装された1又は複数の回路装置(例えばIC等)や、1又は複数の回路素子(例えば抵抗、キャパシター等)で構成することもできる。プロセッサは、例えばCPU(Central Processing Unit)であってもよい。但し、プロセッサはCPUに限定されるものではなく、GPU(Graphics Processing Unit)、或いはDSP(Digital Signal Processor)等、各種のプロセッサを用いることが可能である。またプロセッサはASICによるハードウェア回路であってもよい。またプロセッサは、アナログ信号を処理するアンプ回路やフィルター回路等を含んでもよい。メモリ(記憶部170)は、SRAM、DRAM等の半導体メモリであってもよいし、レジスターであってもよい。或いはハードディスク装置(HDD)等の磁気記憶装置であってもよいし、光学ディスク装置等の光学式記憶装置であってもよい。例えば、メモリはコンピュータにより読み取り可能な命令を格納しており、当該命令がプロセッサにより実行されることで、処理部100の各部の処理(機能)が実現されることになる。ここでの命令は、プログラムを構成する命令セットでもよいし、プロセッサのハードウェア回路に対して動作を指示する命令であってもよい。 Each process (each function) of the present embodiment performed by each unit of the processing unit 100 can be realized by a processor (a processor including hardware). For example, each process of the present embodiment can be realized by a processor that operates based on information such as a program and a memory that stores information such as a program. In the processor, for example, the functions of each part may be realized by individual hardware, or the functions of each part may be realized by integrated hardware. For example, a processor includes hardware, which hardware can include at least one of a circuit that processes a digital signal and a circuit that processes an analog signal. For example, the processor may be composed of one or more circuit devices (for example, ICs) mounted on a circuit board, or one or more circuit elements (for example, resistors, capacitors, etc.). The processor may be, for example, a CPU (Central Processing Unit). However, the processor is not limited to the CPU, and various processors such as a GPU (Graphics Processing Unit) or a DSP (Digital Signal Processor) can be used. Further, the processor may be a hardware circuit by ASIC. Further, the processor may include an amplifier circuit, a filter circuit, and the like for processing an analog signal. The memory (storage unit 170) may be a semiconductor memory such as SRAM or DRAM, or may be a register. Alternatively, it may be a magnetic storage device such as a hard disk device (HDD), or an optical storage device such as an optical disk device. For example, the memory stores instructions that can be read by a computer, and when the instructions are executed by the processor, the processing (function) of each part of the processing unit 100 is realized. The instructions here may be an instruction set that constitutes a program, or may be an instruction that instructs the hardware circuit of the processor to operate.

処理部100は、入力処理部102、演算処理部110、出力処理部140を含む。演算処理部110は、ゲーム処理部112、移動体処理部114、判定部115、仮想空間設定部116、仮想カメラ制御部118、表示処理部120、音処理部130を含む。上述したように、これらの各部により実行される本実施形態の各処理は、プロセッサ(或いはプロセッサ及びメモリ)により実現できる。なお、これらの構成要素(各部)の一部を省略したり、他の構成要素を追加するなどの種々の変形実施が可能である。 The processing unit 100 includes an input processing unit 102, an arithmetic processing unit 110, and an output processing unit 140. The arithmetic processing unit 110 includes a game processing unit 112, a moving body processing unit 114, a determination unit 115, a virtual space setting unit 116, a virtual camera control unit 118, a display processing unit 120, and a sound processing unit 130. As described above, each process of the present embodiment executed by each of these parts can be realized by a processor (or a processor and a memory). It is possible to carry out various modifications such as omitting a part of these components (each part) or adding other components.

入力処理部102は、操作情報やトラッキング情報を受け付ける処理や、記憶部170から情報を読み出す処理や、通信部196を介して情報を受信する処理を、入力処理として行う。例えば入力処理部102は、操作部160を用いてユーザが入力した操作情報やHMD200のセンサ部210等により検出されたトラッキング情報を取得する処理や、読み出し命令で指定された情報を、記憶部170から読み出す処理や、外部装置(サーバ等)からネットワークを介して情報を受信する処理を、入力処理として行う。ここで受信処理は、通信部196に情報の受信を指示したり、通信部196が受信した情報を取得して記憶部170に書き込む処理などである。 The input processing unit 102 performs a process of receiving operation information and tracking information, a process of reading information from the storage unit 170, and a process of receiving information via the communication unit 196 as input processes. For example, the input processing unit 102 stores the operation information input by the user using the operation unit 160, the processing of acquiring the tracking information detected by the sensor unit 210 of the HMD 200, and the information specified by the read command in the storage unit 170. The process of reading from the computer and the process of receiving information from an external device (server, etc.) via the network are performed as input processes. Here, the reception process includes instructing the communication unit 196 to receive information, acquiring the information received by the communication unit 196 and writing it to the storage unit 170.

演算処理部110は、各種の演算処理を行う。例えばゲーム処理(シミュレーション処理)、移動体処理、仮想カメラ制御処理、表示処理、或いは音処理などの演算処理を行う。 The arithmetic processing unit 110 performs various arithmetic processes. For example, arithmetic processing such as game processing (simulation processing), mobile processing, virtual camera control processing, display processing, or sound processing is performed.

ゲーム処理部112(ゲーム処理のプログラムモジュール)はユーザがゲームをプレイするための種々のゲーム処理を行う。別の言い方をすれば、ゲーム処理部112(シミュレーション処理部)は、ユーザが仮想現実(バーチャルリアリティ)を体験するための種々のシミュレーション処理を実行する。ゲーム処理は、例えば、ゲーム開始条件が満たされた場合にゲームを開始する処理、開始したゲームを進行させる処理、ゲーム終了条件が満たされた場合にゲームを終了する処理、或いはゲーム成績を演算する処理などである。 The game processing unit 112 (game processing program module) performs various game processing for the user to play the game. In other words, the game processing unit 112 (simulation processing unit) executes various simulation processes for the user to experience virtual reality (virtual reality). The game process calculates, for example, a process of starting a game when the game start condition is satisfied, a process of advancing the started game, a process of ending the game when the game end condition is satisfied, or a game result. Processing etc.

移動体処理部114(移動体処理のプログラムモジュール)は、仮想空間内で移動する移動体についての種々の処理を行う。例えば仮想空間(オブジェクト空間、ゲーム空間)において移動体を移動させる処理や、移動体を動作させる処理を行う。例えば移動体処理部114は、操作部160によりユーザが入力した操作情報や、取得されたトラッキング情報や、プログラム(移動・動作アルゴリズム)や、各種データ(モーションデータ)などに基づいて、移動体(モデルオブジェクト)を仮想空間内で移動させたり、移動体を動作(モーション、アニメーション)させる制御処理を行う。具体的には、移動体の移動情報(位置、回転角度、速度、或いは加速度)や動作情報(パーツオブジェクトの位置、或いは回転角度)を、1フレーム(例えば1/60秒)毎に順次求めるシミュレーション処理を行う。なおフレームは、移動体の移動・動作処理(シミュレーション処理)や画像生成処理を行う時間の単位である。移動体は、例えば実空間のユーザ(プレーヤ)に対応する仮想空間の仮想ユーザ(仮想プレーヤ)、当該仮想ユーザが搭乗(操作)する搭乗移動体(操作移動体)、或いは仮想ユーザのプレイ対象となるキャラクタなどである。 The moving body processing unit 114 (program module for moving body processing) performs various processing on the moving body moving in the virtual space. For example, a process of moving a moving body in a virtual space (object space, game space) or a process of operating a moving body is performed. For example, the mobile body processing unit 114 is based on the operation information input by the user by the operation unit 160, the tracking information acquired, the program (movement / motion algorithm), various data (motion data), and the like. Performs control processing to move the model object) in the virtual space and to move the moving body (motion, animation). Specifically, a simulation in which movement information (position, rotation angle, velocity, or acceleration) and motion information (position or rotation angle of a part object) of a moving body are sequentially obtained for each frame (for example, 1/60 second). Perform processing. A frame is a unit of time for performing movement / motion processing (simulation processing) and image generation processing of a moving body. The moving body is, for example, a virtual user (virtual player) in a virtual space corresponding to a user (player) in the real space, a boarding moving body (operating moving body) on which the virtual user is boarding (operating), or a play target of the virtual user. Such as a character that becomes.

判定部115(判定処理のプログラムモジュール)は各種の判定処理を行う。判定部115の詳細については後述する。 The determination unit 115 (program module for determination processing) performs various determination processes. The details of the determination unit 115 will be described later.

仮想空間設定部116(仮想空間設定処理のプログラムモジュール)は、複数のオブジェクトが配置される仮想空間(オブジェクト空間)の設定処理を行う。例えば、移動体(人、ロボット、車、電車、飛行機、船、モンスター又は動物等)、マップ(地形)、建物、観客席、コース(道路)、樹木、壁、水面などの表示物を表す各種オブジェクト(ポリゴン、自由曲面又はサブディビジョンサーフェイスなどのプリミティブ面で構成されるオブジェクト)を仮想空間に配置設定する処理を行う。即ちワールド座標系でのオブジェクトの位置や回転角度(向き、方向と同義)を決定し、その位置(X、Y、Z)にその回転角度(X、Y、Z軸回りでの回転角度)でオブジェクトを配置する。具体的には、記憶部170のオブジェクト情報記憶部172には、仮想空間でのオブジェクト(パーツオブジェクト)の位置、回転角度、移動速度、移動方向等の情報であるオブジェクト情報がオブジェクト番号に対応づけて記憶される。仮想空間設定部116は、例えば各フレーム毎にこのオブジェクト情報を更新する処理などを行う。 The virtual space setting unit 116 (program module for virtual space setting processing) performs setting processing for a virtual space (object space) in which a plurality of objects are arranged. For example, various display objects such as moving objects (people, robots, cars, trains, airplanes, ships, monsters or animals), maps (topography), buildings, spectators' seats, courses (roads), trees, walls, water surfaces, etc. Performs a process of arranging and setting an object (an object composed of primitive surfaces such as polygons, free-form surfaces, or subdivision surfaces) in a virtual space. That is, the position and rotation angle (synonymous with orientation and direction) of an object in the world coordinate system are determined, and the rotation angle (rotation angle around the X, Y, Z axis) is used at that position (X, Y, Z). Place the object. Specifically, in the object information storage unit 172 of the storage unit 170, object information which is information such as the position, rotation angle, movement speed, and movement direction of an object (part object) in the virtual space is associated with the object number. Is remembered. The virtual space setting unit 116 performs, for example, a process of updating this object information for each frame.

仮想カメラ制御部118(仮想カメラ制御処理のプログラムモジュール)は、仮想空間の所与(任意)の視点から見える画像を生成するための仮想カメラ(視点、基準仮想カメラ)の制御処理を行う。例えば仮想カメラの視点位置又は視線方向(仮想カメラの位置又は姿勢)を制御する処理を行う。具体的には、仮想カメラの位置(X、Y、Z)や、姿勢情報である回転角度(X、Y、Z軸回りでの回転角度)を制御する処理(視点位置、視線方向あるいは画角を制御する処理)を行う。この仮想カメラはユーザ(仮想ユーザ)の視点に対応する。立体視表示の場合は、左目用の第1の視点(左目用の第1の仮想カメラ)と、右目用の第2の視点(右目用の第2の仮想カメラ)が設定される。 The virtual camera control unit 118 (program module of virtual camera control processing) performs control processing of a virtual camera (viewpoint, reference virtual camera) for generating an image that can be seen from a given (arbitrary) viewpoint in the virtual space. For example, processing is performed to control the viewpoint position or line-of-sight direction (position or posture of the virtual camera) of the virtual camera. Specifically, the process (viewpoint position, line-of-sight direction or angle of view) for controlling the position (X, Y, Z) of the virtual camera and the rotation angle (rotation angle around the X, Y, Z axis) which is the attitude information. Process to control). This virtual camera corresponds to the viewpoint of the user (virtual user). In the case of stereoscopic display, a first viewpoint for the left eye (first virtual camera for the left eye) and a second viewpoint for the right eye (second virtual camera for the right eye) are set.

表示処理部120(表示処理のプログラムモジュール)は、ゲーム画像(シミュレーション画像)の表示処理を行う。例えば処理部100で行われる種々の処理(ゲーム処理、シミュレーション処理)の結果に基づいて描画処理を行い、これにより画像を生成し、HMD200の表示部220に表示する。具体的には、座標変換(ワールド座標変換、カメラ座標変換)、クリッピング処理、透視変換、或いは光源処理等のジオメトリ処理が行われ、その処理結果に基づいて、描画データ(プリミティブ面の頂点の位置座標、テクスチャ座標、色データ、法線ベクトル或いはα値等)が作成される。そして、この描画データ(プリミティブ面データ)に基づいて、透視変換後(ジオメトリ処理後)のオブジェクト(1又は複数プリミティブ面)を、描画バッファ178(フレームバッファ、ワークバッファ等のピクセル単位で画像情報を記憶できるバッファ)に描画する。これにより、仮想空間において仮想カメラ(所与の視点。左目用、右目用の第1、第2の視点)から見える画像が生成される。なお、表示処理部120で行われる描画処理は、頂点シェーダ処理やピクセルシェーダ処理等により実現することができる。 The display processing unit 120 (display processing program module) performs display processing of a game image (simulation image). For example, drawing processing is performed based on the results of various processing (game processing, simulation processing) performed by the processing unit 100, an image is generated by this, and the image is displayed on the display unit 220 of the HMD 200. Specifically, geometry processing such as coordinate transformation (world coordinate transformation, camera coordinate transformation), clipping processing, fluoroscopic conversion, or light source processing is performed, and drawing data (positions of vertices on the primitive surface) is performed based on the processing results. Coordinates, texture coordinates, color data, normal vector or α value, etc.) are created. Then, based on this drawing data (primitive surface data), the object (one or a plurality of primitive surfaces) after perspective transformation (after geometry processing) is subjected to image information in pixel units such as a drawing buffer 178 (frame buffer, work buffer, etc.). Draw in a memorable buffer). As a result, an image seen from a virtual camera (given viewpoint. First and second viewpoints for the left eye and the right eye) is generated in the virtual space. The drawing process performed by the display processing unit 120 can be realized by a vertex shader process, a pixel shader process, or the like.

音処理部130(音処理のプログラムモジュール)は、処理部100で行われる種々の処理の結果に基づいて音処理を行う。具体的には、楽曲(音楽、BGM)、効果音、又は音声などのゲーム音を生成し、ゲーム音を音出力部192に出力させる。なお音処理部130の音処理の一部(例えば3次元音響処理)を、HMD200の処理部240により実現してもよい。 The sound processing unit 130 (sound processing program module) performs sound processing based on the results of various processing performed by the processing unit 100. Specifically, a game sound such as a musical piece (music, BGM), a sound effect, or a voice is generated, and the game sound is output to the sound output unit 192. A part of the sound processing of the sound processing unit 130 (for example, three-dimensional sound processing) may be realized by the processing unit 240 of the HMD 200.

出力処理部140は各種の情報の出力処理を行う。例えば出力処理部140は、記憶部170に情報を書き込む処理や、通信部196を介して情報を送信する処理を、出力処理として行う。例えば出力処理部140は、書き込み命令で指定された情報を、記憶部170に書き込む処理や、外部の装置(サーバ等)に対してネットワークを介して情報を送信する処理を行う。送信処理は、通信部196に情報の送信を指示したり、送信する情報を通信部196に指示する処理などである。 The output processing unit 140 performs output processing of various information. For example, the output processing unit 140 performs a process of writing information to the storage unit 170 and a process of transmitting information via the communication unit 196 as an output process. For example, the output processing unit 140 performs a process of writing the information specified by the write instruction to the storage unit 170 and a process of transmitting the information to an external device (server or the like) via the network. The transmission process is a process of instructing the communication unit 196 to transmit information, instructing the communication unit 196 to transmit information, and the like.

そして本実施形態のシミュレーションシステムは、図1に示すように、仮想空間設定部116と仮想カメラ制御部118と表示処理部120を含む。仮想空間設定部116は、複数のオブジェクトが配置される仮想空間の設定処理を行う。例えば複数のオブジェクトの各オブジェクトの位置、方向を設定して仮想空間に配置する処理を行う。オブジェクトはゲームに登場したりゲーム空間を構成するゲーム要素となる表示物である。 As shown in FIG. 1, the simulation system of the present embodiment includes a virtual space setting unit 116, a virtual camera control unit 118, and a display processing unit 120. The virtual space setting unit 116 performs setting processing of a virtual space in which a plurality of objects are arranged. For example, the position and direction of each object of a plurality of objects are set and arranged in the virtual space. An object is a display object that appears in a game or is a game element that constitutes a game space.

仮想カメラ制御部118は、HMD200を装着するユーザの視点に対応する仮想カメラの制御処理を行う。例えば仮想カメラ制御部118は、ユーザの一人称視点として設定される仮想カメラの制御を行う。例えば仮想空間において移動する仮想ユーザの視点に対応する位置に、仮想カメラを設定して、仮想カメラの視点位置や視線方向を設定することで、仮想カメラの位置(位置座標)や姿勢(回転軸回りでの回転角度)を制御する。 The virtual camera control unit 118 performs control processing of the virtual camera corresponding to the viewpoint of the user who wears the HMD 200. For example, the virtual camera control unit 118 controls the virtual camera set as the user's first-person view. For example, by setting a virtual camera at a position corresponding to the viewpoint of a virtual user moving in virtual space and setting the viewpoint position and line-of-sight direction of the virtual camera, the position (position coordinates) and posture (rotation axis) of the virtual camera can be set. (Rotation angle around) is controlled.

表示処理部120は、HMD200の表示画像(表示映像)として、仮想空間において仮想カメラ(ユーザ視点)から見える画像を生成する。例えば仮想空間であるオブジェクト空間において所与の視点から見える画像を生成する。生成される画像は例えば立体視用の画像である。 The display processing unit 120 generates an image that can be seen from a virtual camera (user's viewpoint) in the virtual space as a display image (display image) of the HMD 200. For example, an image that can be seen from a given viewpoint is generated in an object space that is a virtual space. The generated image is, for example, an image for stereoscopic viewing.

そして本実施形態では仮想空間設定部116は、ユーザの視線方向(ユーザの視野範囲)に少なくとも1つの情報表示物を配置する。具体的には、ユーザの視点変化(仮想カメラの視点変化)に追従するように制御される少なくとも1つの情報表示物を仮想空間に配置する。ここで視点変化は、例えば視線方向及び視点位置の少なくとも一方の変化である。即ち、仮想空間設定部116は、ユーザの視線方向及び視点位置の少なくとも一方に追従するように制御される情報表示物を配置する。例えばユーザの視線方向又は視点位置が変化すると、その変化に連動して仮想空間での情報表示物の配置位置(3次元位置)も変化する。例えばユーザの視線方向が左方向、右方向、上方向、下方向に変化すると、その方向の変化に追従するように仮想空間での情報表示物の位置や方向も変化する。或いはユーザの視点位置(ユーザ位置)が左方向、右方向、上方向、下方向に移動すると、その移動(位置の変化)に追従するように仮想空間での情報表示物の位置等も変化する。例えば情報表示物がビルボードポリゴンにより構成される場合には、ユーザの視点に正対するように(ユーザの視線方向に直交するように)、情報表示物を構成するビルボードポリゴンが配置される。 Then, in the present embodiment, the virtual space setting unit 116 arranges at least one information display object in the user's line-of-sight direction (user's visual field range). Specifically, at least one information display object controlled to follow the change in the viewpoint of the user (change in the viewpoint of the virtual camera) is arranged in the virtual space. Here, the viewpoint change is, for example, a change in at least one of the line-of-sight direction and the viewpoint position. That is, the virtual space setting unit 116 arranges an information display object controlled so as to follow at least one of the user's line-of-sight direction and the viewpoint position. For example, when the line-of-sight direction or the viewpoint position of the user changes, the arrangement position (three-dimensional position) of the information display object in the virtual space also changes in conjunction with the change. For example, when the user's line-of-sight direction changes to the left, right, up, or down, the position or direction of the information display object in the virtual space also changes so as to follow the change in that direction. Alternatively, when the user's viewpoint position (user position) moves to the left, right, up, or down, the position of the information display object in the virtual space changes so as to follow the movement (change in position). .. For example, when the information display object is composed of billboard polygons, the billboard polygons constituting the information display object are arranged so as to face the user's viewpoint (orthogonally to the user's line-of-sight direction).

そして表示処理部120は、情報表示物と仮想空間のオブジェクト(複数のオブジェクトの各オブジェクト)とが所与の位置関係になった場合に、情報表示物又はオブジェクトの表示態様(表示方法、表示方式)の変更処理を行う。例えば表示処理部120は、情報表示物とオブジェクトが当該位置関係になった場合には、情報表示物とオブジェクトが当該位置関係になっている場合の画像とは異なった画像に見えるように、HMD200の表示画像を生成する。即ち、上述したように情報表示物は、ユーザの視線方向又は視点位置が変化すると、それに追従するように仮想空間での位置や方向が変化する。従って、情報表示物と、仮想空間の複数のオブジェクトの各オブジェクトとの位置関係は様々に変化する。そして、情報表示物とオブジェクトの位置関係が、所定の位置関係(衝突、接近の位置関係等)になると、情報表示物又はオブジェクトの表示態様(表示画像)が変更される。なお情報表示物及びオブジェクトの両方の表示態様の変更処理を行ってもよい。 Then, the display processing unit 120 displays the information display object or the object display mode (display method, display method) when the information display object and the object in the virtual space (each object of a plurality of objects) have a given positional relationship. ) Is changed. For example, the display processing unit 120 displays the HMD 200 so that when the information display object and the object have the positional relationship, the image looks different from the image when the information display object and the object have the positional relationship. Generate a display image of. That is, as described above, when the line-of-sight direction or the viewpoint position of the user changes, the position or direction of the information display object changes in the virtual space so as to follow the change. Therefore, the positional relationship between the information display object and each object of the plurality of objects in the virtual space changes variously. Then, when the positional relationship between the information display object and the object becomes a predetermined positional relationship (collision, approach positional relationship, etc.), the display mode (display image) of the information display object or the object is changed. It should be noted that the display mode of both the information display object and the object may be changed.

この場合に表示処理部120は、情報表示物の種類、優先度又は重要度に応じた表示態様の変更処理を行ってもよい。例えば情報表示物の種類、優先度又は重要度を反映させた情報表示物又はオブジェクトの表示態様の変更処理を行う。情報表示物の種類は、例えば情報表示物が提示する情報のタイプなどによって区分けされるものである。例えば記憶部170には、各情報表示物に対してその種類の情報が関連づけられて記憶されており、この種類の情報を用いて表示態様の変更処理が行われる。情報表示物の優先度や重要度は、情報表示物により提示される情報が、どの程度、優先度や重要度が高いかを示す情報である。例えば記憶部170には、各情報表示物に対してその優先度や重要度の情報が関連づけられて記憶されており、この優先度や重要度の情報を用いて表示態様の変更処理が行われる。 In this case, the display processing unit 120 may change the display mode according to the type, priority, or importance of the information display object. For example, the display mode of the information display object or object that reflects the type, priority, or importance of the information display object is changed. The types of information display objects are classified according to, for example, the type of information presented by the information display objects. For example, the storage unit 170 stores information of the type associated with each information display object, and the display mode is changed using this type of information. The priority or importance of the information display object is information indicating how high the priority or importance of the information presented by the information display object is. For example, the storage unit 170 stores information on the priority and importance of each information display object in association with each other, and the display mode is changed using the information on the priority and importance. ..

例えば表示処理部120は、情報表示物が第1の種類である場合には、オブジェクトの方の表示態様を変更する。例えば、情報表示物が第1の種類(例えばコマンド選択のための情報表示物等)である場合には、オブジェクトの表示態様を変更(消去、半透明化等)する一方で、情報表示物の表示態様については変更しない。これに対して情報表示物が第2の種類(例えば説明表示のための情報表示物等)である場合には、情報表示物の方の表示態様を変更する。例えば情報表示物が第2の種類である場合には、情報表示物の表示態様を変更(消去、半透明化等)する一方で、オブジェクトの表示態様については変更しない。情報表示物が第1の種類であるか第2の種類であるかは、記憶部170において当該情報表示物に関連づけられて記憶される。 For example, when the information display object is the first type, the display processing unit 120 changes the display mode of the object. For example, when the information display object is the first type (for example, an information display object for command selection), the display mode of the object is changed (erased, translucent, etc.), while the information display object is displayed. The display mode will not be changed. On the other hand, when the information display object is of the second type (for example, an information display object for explanatory display), the display mode of the information display object is changed. For example, when the information display object is the second type, the display mode of the information display object is changed (erased, translucent, etc.), but the display mode of the object is not changed. Whether the information display object is the first type or the second type is stored in the storage unit 170 in association with the information display object.

また表示処理部120は、情報表示物に関連づけられた優先度又は重要度を用いて、表示態様の変更処理を行う。例えば記憶部170には、情報表示物に対して優先度や重要度の情報が関連づけて記憶されている。表示処理部120は、表示態様の変更処理を行う場合に、処理対象となる情報表示物に関連づけられた優先度や重要度の情報を記憶部170から読み出して、情報表示物又はオブジェクト(位置関係の判定の対象となるオブジェクト)の表示態様を変更する処理を行う。 Further, the display processing unit 120 performs a display mode change process using the priority or importance associated with the information display object. For example, the storage unit 170 stores information of priority and importance in association with the information display object. When the display processing unit 120 performs the display mode change processing, the display processing unit 120 reads out the priority and importance information associated with the information display object to be processed from the storage unit 170, and reads the information display object or the object (positional relationship). Performs a process of changing the display mode of the object) to be determined.

また表示処理部120は、情報表示物が表示されてからの経過時間に応じた表示態様の変更処理を行う。例えば各情報表示物が表示されてからの経過時間を測定して記録しておく。そして情報表示物又はオブジェクトの表示態様の変更処理を行う際には、当該経過時間を反映させた処理を行う。例えば表示されてからの経過時間が長い情報表示物は、経過時間が短い情報表示物に比べて、その表示態様の変更処理を優先して行うようにする。 In addition, the display processing unit 120 performs processing for changing the display mode according to the elapsed time from the display of the information display object. For example, the elapsed time since each information display object is displayed is measured and recorded. Then, when the processing for changing the display mode of the information display object or the object is performed, the processing that reflects the elapsed time is performed. For example, an information display object having a long elapsed time since being displayed is prioritized for changing the display mode of the information display object having a short elapsed time.

また表示処理部120は、表示態様の変更処理として、情報表示物又はオブジェクトの消去処理、情報表示物又はオブジェクトの半透明化処理、ユーザの視線方向への情報表示物の追従の解除処理、情報表示物又はオブジェクトの移動処理、情報表示物又はオブジェクトのサイズ変更処理、或いは情報表示物又はオブジェクトの色情報変更処理など行う。 Further, the display processing unit 120 includes processing for erasing the information display object or object, processing for making the information display object or object semi-transparent, processing for canceling tracking of the information display object in the user's line of sight, and information as processing for changing the display mode. Performs movement processing of the display object or object, resizing processing of the information display object or object, color information change processing of the information display object or object, and the like.

情報表示物又はオブジェクトの消去処理は、情報表示物又はオブジェクトを、表示対象(表示リスト)から除外する処理や、透明化する処理などにより実現できる。情報表示物又はオブジェクトの半透明化処理は、情報表示物又はオブジェクトの半透明度(α値)を、例えば、より半透明になるように変化させることなどで実現できる。また前述のように情報表示物はユーザの視線方向の変化に追従するように制御されるが、この追従の制御を解除(低減)することで、ユーザの視線方向への情報表示物の追従の解除処理を実現できる。情報表示物又はオブジェクトの移動処理やサイズ変更処理は、情報表示物とオブジェクトの位置関係が、例えば衝突又は接近の位置関係等にならないように、情報表示物又はオブジェクトを移動させたり、情報表示物又はオブジェクトのサイズを変更することなどにより実現できる。情報表示物又はオブジェクトの色情報変更処理は、例えば情報表示物又はオブジェクトの色の明度、彩度又は色相等を変更する処理などにより実現できる。例えば情報表示物又はオブジェクトの色情報変更処理として、情報表示物又はオブジェクトの色情報を例えば背景の色情報に近づけて、背景に溶け込ませる処理などが考えられる。このような処理は、例えば情報表示物又はオブジェクトの色情報と背景の色情報に基づくαブレンディング処理やデプスキューイング処理などにより実現できる。 The process of erasing the information display object or object can be realized by a process of excluding the information display object or object from the display target (display list), a process of making it transparent, or the like. The semi-transparency processing of the information display object or object can be realized by changing the semi-transparency (α value) of the information display object or object so as to be more translucent, for example. Further, as described above, the information display object is controlled so as to follow the change in the user's line-of-sight direction, but by canceling (reducing) this tracking control, the information display object can be tracked in the user's line-of-sight direction. Release processing can be realized. In the movement processing and resizing processing of the information display object or object, the information display object or object is moved or the information display object is moved so that the positional relationship between the information display object and the object does not become, for example, the positional relationship of collision or approach. Alternatively, it can be realized by changing the size of the object. The color information change process of the information display object or object can be realized by, for example, a process of changing the color brightness, saturation, hue, or the like of the information display object or object. For example, as a process of changing the color information of the information display object or the object, a process of bringing the color information of the information display object or the object closer to the background color information and blending it into the background can be considered. Such processing can be realized by, for example, an α blending process or a depth skewing process based on the color information of the information display object or the object and the color information of the background.

情報表示物は、例えば説明表示のための表示物、ステータス表示のための表示物、会話表示のための表示物、コマンド選択のための表示物、又はメニュー表示のための表示物などである。説明表示のための表示物は、例えば、ユーザに対してゲーム等についての各種の説明を行うための表示物である。ステータス表示のための表示物は、例えば、ゲーム等についての各種の状況をユーザに伝えるための表示物である。会話表示のための表示物は、例えば、各種の会話内容をユーザに伝えるための表示物である。例えばユーザのプレイ対象となるキャラクタの会話内容を伝えるための表示物である。コマンド選択のための表示物は、例えばゲーム等においてユーザがコマンドを選択するために使用される表示物である。例えばコマンドの選択肢をユーザに提示するための表示物である。メニュー表示のための表示物は、例えば、ゲーム等におけるメニュー画面をユーザに提示するための表示物である。例えばゲームモード、ゲーム設定(オプション設定)、又はゲームの終了指示などのメニュー画面を提示するための表示物である。情報表示物は、例えば文字、アイコン又は図形等を用いてユーザに情報を伝達する表示物である。一例としては、情報表示物は、ユーザに提示する情報が描かれたビルボードポリゴンなどにより実現できる。 The information display object is, for example, a display object for explanation display, a display object for status display, a display object for conversation display, a display object for command selection, a display object for menu display, and the like. The display object for the explanatory display is, for example, a display object for giving various explanations about the game or the like to the user. The display object for displaying the status is, for example, a display object for informing the user of various situations regarding a game or the like. The display object for displaying the conversation is, for example, a display object for communicating various conversation contents to the user. For example, it is a display object for conveying the conversation content of the character to be played by the user. The display object for command selection is a display object used for the user to select a command in, for example, a game. For example, it is a display object for presenting command options to the user. The display object for menu display is, for example, a display object for presenting a menu screen in a game or the like to a user. For example, it is a display object for presenting a menu screen such as a game mode, a game setting (option setting), or a game end instruction. The information display object is a display object that conveys information to the user using, for example, characters, icons, or figures. As an example, the information display object can be realized by a billboard polygon or the like on which information to be presented to the user is drawn.

一方、オブジェクト(情報表示物との位置関係の判定対象となるオブジェクト)は、例えばゲームに登場する移動体、固定物、アイテム、又は背景のオブジェクトなどである。ゲームに登場する移動体は、例えばユーザのプレイ対象となるキャラクタや、ゲームにおいて種々の方向、位置に移動する表示物である。固定物は、移動体のように移動せずに、仮想空間の所定の位置に固定される表示物である。アイテムは、ゲームに登場する各種の道具等の表示物であり、ユーザのプレイ対象、所持対象又は把持対象となる表示物である。背景のオブジェクトは、ゲーム等の背景を構成するオブジェクトである。例えば、オブジェクトは、仮想空間に配置される複数のオブジェクトのうち、情報表示物以外のオブジェクトであり、当該オブジェクトは、情報表示物との位置関係の判定対象となることができる。 On the other hand, the object (the object for which the positional relationship with the information display object is to be determined) is, for example, a moving object, a fixed object, an item, or a background object appearing in the game. The moving body appearing in the game is, for example, a character to be played by the user or a display object that moves in various directions and positions in the game. A fixed object is a display object that is fixed at a predetermined position in a virtual space without moving like a moving body. The item is a display object such as various tools appearing in the game, and is a display object to be played, possessed, or grasped by the user. The background object is an object that constitutes the background of a game or the like. For example, the object is an object other than the information display object among a plurality of objects arranged in the virtual space, and the object can be a target for determining the positional relationship with the information display object.

またシミュレーションシステムは判定部115を含み、判定部115は、情報表示物とオブジェクトの位置関係を判定する。例えば判定部115は、情報表示物とオブジェクトが所与の位置関係(衝突又は接近の位置関係等)になったかを判定する。そして表示処理部120は、判定部115により情報表示物とオブジェクトとが所与の位置関係になったと判定された場合に、情報表示物又はオブジェクトの表示態様の変更処理を行う。 Further, the simulation system includes a determination unit 115, and the determination unit 115 determines the positional relationship between the information display object and the object. For example, the determination unit 115 determines whether the information display object and the object have a given positional relationship (collision or approach positional relationship, etc.). Then, when the determination unit 115 determines that the information display object and the object have a given positional relationship, the display processing unit 120 changes the display mode of the information display object or the object.

具体的には表示処理部120は、判定部115により情報表示物とオブジェクトとが衝突又は接近(近接)の位置関係になったと判定された場合に、表示態様の変更処理を行う。例えば接近の位置関係になったか否かは、情報表示物とオブジェクトの距離(3次元座標での距離、奥行き方向での距離等)が所定の距離以下になった否かを判断することで判定できる。衝突の位置関係になったか否かは、情報表示物とオブジェクトについて公知のコリジョン処理を行うことで判定できる。例えば情報表示物とオブジェクトのヒット判定(交差判定)を行うことで実現できる。 Specifically, the display processing unit 120 changes the display mode when the determination unit 115 determines that the information display object and the object have a collision or approach (proximity) positional relationship. For example, whether or not the positional relationship is close is determined by determining whether or not the distance between the information display object and the object (distance in three-dimensional coordinates, distance in the depth direction, etc.) is less than or equal to a predetermined distance. it can. Whether or not the collision position has been established can be determined by performing a known collision process on the information display object and the object. For example, it can be realized by performing hit determination (intersection determination) between an information display object and an object.

また判定部115は、情報表示物とオブジェクトの3次元座標値、情報表示物とオブジェクトの奥行き値、又は情報表示物とオブジェクトを平面に投影した場合の2次元座標値に基づいて、位置関係を判定できる。例えば情報表示物とオブジェクトの3次元座標値やサイズ情報(形状情報)などに基づいて、情報表示物とオブジェクトが衝突又は接近の位置関係等になったか否かを判定する。或いは情報表示物の奥行き値(Z値)とオブジェクトの奥行き値(Z値)を比較することで、情報表示物とオブジェクトが所与の位置関係になったか否かを判定する。或いは、情報表示物とオブジェクトを平面(スクリーン)に投影し、その平面(投影画像)での情報表示物とオブジェクトの2次元座標値(2次元形状)を用いて、情報表示物とオブジェクトが衝突又は接近の位置関係等になったか否かを判定する。例えばその平面上での情報表示物とオブジェクトの重なりや距離を判断することで、衝突又は接近の位置関係等になったか否かを判定できる。 Further, the determination unit 115 determines the positional relationship based on the three-dimensional coordinate values of the information display object and the object, the depth value of the information display object and the object, or the two-dimensional coordinate values when the information display object and the object are projected on a plane. Can be judged. For example, based on the three-dimensional coordinate values of the information display object and the object, size information (shape information), and the like, it is determined whether or not the information display object and the object have a collision or approach positional relationship. Alternatively, by comparing the depth value (Z value) of the information display object with the depth value (Z value) of the object, it is determined whether or not the information display object and the object have a given positional relationship. Alternatively, the information display object and the object are projected onto a plane (screen), and the information display object and the object collide with each other using the two-dimensional coordinate values (two-dimensional shape) of the information display object and the object on the plane (projected image). Or, it is determined whether or not the positional relationship of approach is reached. For example, by determining the overlap or distance between the information display object and the object on the plane, it is possible to determine whether or not there is a positional relationship of collision or approach.

また仮想空間設定部116は、ユーザの視線方向での所与の奥行き位置に、ユーザの視点変化(視線方向及び視点位置の少なくとも一方の変化)に追従するように情報表示物を配置する。例えばユーザの視点(仮想カメラ)に対する情報表示物の奥行き位置(奥行き距離)については変化しないようにしながら、視点変化(視線方向又は視点位置の変化)に追従するように、情報表示物を配置する。例えばユーザの視点(仮想カメラ)から所与の奥行き位置(Z座標軸での位置)に、例えばビルボードポリゴンで構成される情報表示物を配置する。 Further, the virtual space setting unit 116 arranges an information display object at a given depth position in the user's line-of-sight direction so as to follow a change in the user's viewpoint (change in at least one of the line-of-sight direction and the viewpoint position). For example, the information display object is arranged so as to follow the viewpoint change (change in the line-of-sight direction or the viewpoint position) while keeping the depth position (depth distance) of the information display object with respect to the user's viewpoint (virtual camera) unchanged. .. For example, an information display object composed of, for example, a billboard polygon is arranged at a given depth position (position on the Z coordinate axis) from the user's viewpoint (virtual camera).

また仮想カメラ制御部118は、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する。 Further, the virtual camera control unit 118 controls the virtual camera so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

例えば入力処理部102(入力受け付け部)は、HMD200を装着するユーザの視点情報のトラッキング情報を取得する。例えばユーザの視点位置、視線方向の少なくとも1つである視点情報のトラッキング情報(視点トラッキング情報)を取得する。このトラッキング情報は、例えばHMD200のトラッキング処理を行うことで取得できる。なおトラッキング処理によりユーザの視点位置、視線方向を直接に取得するようにしてもよい。一例としては、トラッキング情報は、ユーザの初期視点位置からの視点位置の変化情報(視点位置の座標の変化値)、及び、ユーザの初期視線方向からの視線方向の変化情報(視線方向の回転軸回りでの回転角度の変化値)の少なくとも一方を含むことができる。このようなトラッキング情報が含む視点情報の変化情報に基づいて、ユーザの視点位置や視線方向(ユーザの頭部の位置、姿勢の情報)を特定できる。 For example, the input processing unit 102 (input receiving unit) acquires tracking information of the viewpoint information of the user who wears the HMD 200. For example, the tracking information (viewpoint tracking information) of the viewpoint information which is at least one of the user's viewpoint position and line-of-sight direction is acquired. This tracking information can be obtained, for example, by performing tracking processing of HMD200. The user's viewpoint position and line-of-sight direction may be directly acquired by tracking processing. As an example, the tracking information includes change information of the viewpoint position from the initial viewpoint position of the user (change value of the coordinates of the viewpoint position) and change information of the line-of-sight direction from the initial line-of-sight direction of the user (rotation axis in the line-of-sight direction). At least one of (change value of rotation angle in rotation) can be included. The user's viewpoint position and line-of-sight direction (information on the position of the user's head and posture) can be specified based on the change information of the viewpoint information included in such tracking information.

そして仮想カメラ制御部118は、取得されたトラッキング情報(ユーザの視点位置及び視線方向の少なくとも一方の情報)に基づいて仮想カメラの視点位置、視線方向を変化させる。例えば、仮想カメラ制御部118は、実空間でのユーザの視点位置、視線方向の変化に応じて、仮想空間での仮想カメラの視点位置、視線方向(位置、姿勢)が変化するように、仮想カメラを設定する。このようにすることで、ユーザの視点情報のトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御できる。 Then, the virtual camera control unit 118 changes the viewpoint position and the line-of-sight direction of the virtual camera based on the acquired tracking information (information on at least one of the user's viewpoint position and the line-of-sight direction). For example, the virtual camera control unit 118 virtually changes the viewpoint position and line-of-sight direction (position, posture) of the virtual camera in the virtual space according to changes in the user's viewpoint position and line-of-sight direction in the real space. Set the camera. By doing so, the virtual camera can be controlled so as to follow the change in the viewpoint of the user based on the tracking information of the viewpoint information of the user.

なお本実施形態では、ユーザがプレイするゲームのゲーム処理として、仮想現実のシミュレーション処理を行う。仮想現実のシミュレーション処理は、実空間での事象を仮想空間で模擬するためのシミュレーション処理であり、当該事象をユーザに仮想体験させるための処理である。例えば実空間のユーザに対応する仮想ユーザやその搭乗移動体などの移動体を、仮想空間で移動させたり、移動に伴う環境や周囲の変化をユーザに体感させるための処理を行う。 In this embodiment, virtual reality simulation processing is performed as game processing of a game played by a user. The virtual reality simulation process is a simulation process for simulating an event in the real space in the virtual space, and is a process for allowing the user to experience the event virtually. For example, a virtual user corresponding to a user in the real space and a moving body such as a boarding mobile body thereof are moved in the virtual space, and processing is performed to allow the user to experience changes in the environment and surroundings due to the movement.

またシミュレーションシステムはゲーム処理を行うゲーム処理部112を含む。そしてゲーム処理部112は、ユーザのゲームプレイの対象となるキャラクタの情報とユーザの視点情報との応じたコマンドの効果を、発動させる処理を行う。 The simulation system also includes a game processing unit 112 that performs game processing. Then, the game processing unit 112 performs a process of invoking the effect of the command according to the information of the character to be the target of the user's game play and the viewpoint information of the user.

例えば本実施形態では、複数のコマンドの中からユーザが選択したコマンドを受け付ける処理を行う。例えばユーザが選択可能なN個のコマンドの情報が記憶部170(コマンド情報記憶部)に記憶されている。そして、例えば、これらのN個のコマンドの中からM個(M<N)のコマンドが、自動的に或いはユーザにより選択されて、いわゆるデッキと呼ばれるコマンドのセットが編成される。ゲームプレイ中においては、ユーザは、これらのM個のコマンドの中から自身が所望するコマンドを選択する。すると、選択されたコマンドが、発動対象のコマンドとして受け付けられる。 For example, in the present embodiment, a process of accepting a command selected by the user from a plurality of commands is performed. For example, information on N commands that can be selected by the user is stored in the storage unit 170 (command information storage unit). Then, for example, M (M <N) commands are automatically or manually selected from these N commands, and a set of commands called a so-called deck is organized. During gameplay, the user selects a command he / she desires from among these M commands. Then, the selected command is accepted as the command to be activated.

そしてゲーム処理部112は、受け付けられたコマンドの効果を発動させる処理を、ゲーム処理として行う。例えば各コマンドの効果は各コマンドに関連づけられて、コマンド情報として、記憶部170に記憶されている。ゲーム処理部112は、ユーザが選択したコマンドに関連づけられた効果を発動させる処理を行う。 Then, the game processing unit 112 performs a process of invoking the effect of the received command as a game process. For example, the effect of each command is associated with each command and stored in the storage unit 170 as command information. The game processing unit 112 performs a process of invoking an effect associated with a command selected by the user.

そしてゲーム処理部112は、コマンドの効果の発動結果に基づいて、ゲームパラメータを演算する処理、ゲームを進行させる処理、ゲーム成績(ゲーム結果)を演算する処理、或いはコマンドに対応するアイコンの制御処理などのゲーム処理を行う。 Then, the game processing unit 112 calculates a game parameter, advances the game, calculates a game result (game result), or controls an icon corresponding to the command, based on the result of invoking the effect of the command. Perform game processing such as.

具体的には、ゲーム処理部112は、ゲームパラメータの値を増減させる演算処理を行う。そして演算処理後のゲームパラメータに基づいて、キャラクタの動作(挙動)を制御したり、ストーリーの分岐処理を行ったり、ゲームイベントを発生する処理を行ったりするなどの、各種のゲーム処理を行う。例えばユーザのゲームプレイの対象となるキャラクタとユーザとによりストーリーが進行するゲームの処理を行う。 Specifically, the game processing unit 112 performs arithmetic processing for increasing or decreasing the value of the game parameter. Then, based on the game parameters after the arithmetic processing, various game processing such as controlling the movement (behavior) of the character, performing the branch processing of the story, and performing the processing of generating the game event is performed. For example, processing of a game in which a story progresses by a character targeted for game play by the user and the user is performed.

表示処理部120は、上記のゲーム処理の結果に基づいて、ゲーム画像の表示処理を行う。例えばゲームパラメータの演算結果や、ゲーム進行処理の結果や、ゲーム成績の演算結果や、アイコンの制御処理の結果に応じたゲーム画像を、HMD200の表示部220に表示するための処理を行う。また音処理部130も、ゲーム処理の結果に基づいて、BGM、効果音又は音声等のゲーム音を、音出力部192から出力するための処理を行う。 The display processing unit 120 performs display processing of the game image based on the result of the game processing described above. For example, a process for displaying a game image according to a game parameter calculation result, a game progress process result, a game result calculation result, and an icon control process result is performed on the display unit 220 of the HMD 200. Further, the sound processing unit 130 also performs processing for outputting game sounds such as BGM, sound effects, and voice from the sound output unit 192 based on the result of the game processing.

そして本実施形態では、ゲーム処理部112は、ユーザのゲームプレイの対象となるキャラクタの情報とユーザの視点情報とに応じたコマンドの効果を、発動させる処理を行う。例えばキャラクタの情報とユーザの視点情報とにより設定(特定)される情報(例えば位置関係情報、視線関係情報、或いは注視情報等)に応じたコマンドの効果を、発動させる処理を行う。 Then, in the present embodiment, the game processing unit 112 performs a process of invoking the effect of the command according to the information of the character to be the target of the game play of the user and the viewpoint information of the user. For example, processing is performed to activate the effect of a command according to information set (specified) by character information and user's viewpoint information (for example, positional relationship information, line-of-sight information, gaze information, etc.).

具体的にはゲーム処理部112は、キャラクタの情報とユーザの視点情報とに応じて、コマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方を変化させる処理を行う。例えばゲーム処理部112は、キャラクタの情報とユーザの視点情報とにより設定(特定)される情報(例えば位置関係情報、視線関係情報、或いは注視情報等)が変化すると、それに応じてコマンドの効果の度合い及びコマンドの効果の内容の少なくとも一方が変化するように、コマンドの発動処理を行う。 Specifically, the game processing unit 112 performs a process of changing at least one of the degree of command effect and the content of the command effect according to the character information and the user's viewpoint information. For example, when the information (for example, positional relationship information, line-of-sight information, gaze information, etc.) set (specified) by the character information and the user's viewpoint information changes, the game processing unit 112 changes the effect of the command accordingly. The command is activated so that at least one of the degree and the content of the effect of the command changes.

ここで、キャラクタの情報は、例えば、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報及び種類情報の少なくとも1つである。キャラクタは、ゲームに登場するゲームプレイ要素であり、例えば実世界の人、動物、ロボット、或いは移動体等を表すものであり、ゲーム画像にオブジェクトとして表示されるものである。 Here, the character information is, for example, at least one of the character's position information, direction information, game parameter information, part information, posture information, and type information. A character is a gameplay element that appears in a game, representing, for example, a person, animal, robot, or moving object in the real world, and is displayed as an object in a game image.

具体的には、ユーザのゲームプレイの対象となるキャラクタは、例えばユーザのゲームプレイの相手となるキャラクタである。異性キャラクタとのコミュニケーションゲーム(人間関係シミュレーションゲーム)を例にとれば、ユーザのコミュニケーションの相手(候補)となるキャラクタである。例えば本実施形態では表示処理部120はユーザの例えば一人称視点でのゲーム画像を生成し、生成された一人称視点での画像をHMD200の表示部220に表示する。このようにすることで、あたかもゲーム空間(CGアニメの世界)の中に自分が入り込んだかのような仮想現実感をユーザに与えることができる。そしてキャラクタは、このゲーム空間(オブジェクト空間、仮想3次元空間)の中に、ユーザのゲームプレイの対象として登場する。これにより、ユーザは、あたかも本当の人間(キャラクタ)がユーザの眼前に存在するような仮想現実を感じることができる。なおユーザのゲームプレイの対象となるキャラクタとして、戦争ゲームやRPGゲームやスポーツゲームなどでユーザの敵や味方として登場するキャラクタを用いてもよい。 Specifically, the character that is the target of the user's gameplay is, for example, the character that is the opponent of the user's gameplay. Taking a communication game (human relations simulation game) with a character of the opposite sex as an example, it is a character that is a communication partner (candidate) of a user. For example, in the present embodiment, the display processing unit 120 generates a game image of the user, for example, from the first-person viewpoint, and displays the generated image from the first-person viewpoint on the display unit 220 of the HMD 200. By doing so, it is possible to give the user a virtual reality as if he / she entered the game space (the world of CG animation). Then, the character appears in this game space (object space, virtual three-dimensional space) as a target of the user's game play. As a result, the user can feel the virtual reality as if a real human being (character) exists in front of the user. As the character to be the target of the user's game play, a character appearing as an enemy or ally of the user in a war game, an RPG game, a sports game, or the like may be used.

また、ゲームパラメータは、ゲーム処理(ゲーム進行処理等)に使用されるパラメータである。例えばゲームパラメータは、キャラクタやユーザのステータスや能力等を表すパラメータである。例えばキャラクタのゲームパラメータとしては、キャラクタの心理や状態を表すステータスパラメータ、キャラクタの能力を表すパラメータ、キャラクタの行動に関するパラメータ、或いはキャラクタの所持物に関するパラメータなどの種々のパラメータを想定できる。またキャラクタのゲームパラメータは、ユーザに対するキャラクタの評価を表すパラメータであってもよい。 The game parameter is a parameter used for game processing (game progress processing, etc.). For example, game parameters are parameters that represent the status and abilities of characters and users. For example, as the game parameters of the character, various parameters such as status parameters representing the psychology and state of the character, parameters representing the ability of the character, parameters related to the behavior of the character, and parameters related to the belongings of the character can be assumed. Further, the game parameter of the character may be a parameter representing the evaluation of the character with respect to the user.

キャラクタの部位情報は、キャラクタを構成する部位(部位オブジェクト)の種類情報(頭、胸、腰、足又は手等)や、部位の位置情報(キャラクタの代表位置に対する相対位置)や、或いは部位の形状情報(部位オブジェクトの形状)などである。キャラクタの姿勢情報は、例えば、座る、立つ、歩く、又は走るなどのキャラクタのモーションを特定する姿勢の情報である。例えばキャラクタがスケルトンモデルで表現される場合には、このスケルトンの形状情報がキャラクタの姿勢情報に対応する。キャラクタの種類情報は、例えばキャラクタのタイプ或いは属性と呼ばれるものであり、異性のキャラクタであれば、活発タイプ、真面目タイプ、甘えん坊タイプ、又は清楚タイプなどである。 The part information of the character includes the type information (head, chest, waist, legs, hands, etc.) of the part (part object) that constitutes the character, the position information of the part (relative position to the representative position of the character), or the part of the part. Shape information (shape of part object) and so on. The posture information of the character is posture information that specifies the motion of the character such as sitting, standing, walking, or running. For example, when a character is represented by a skeleton model, the shape information of this skeleton corresponds to the posture information of the character. The character type information is, for example, what is called a character type or attribute, and if it is a character of the opposite sex, it may be an active type, a serious type, a sweetheart type, a neat type, or the like.

またユーザの視点情報は、例えばユーザの視点位置情報、視線方向情報、及び仮想カメラ属性情報の少なくとも1つである。視点位置情報は、例えばゲーム空間(オブジェクト空間、仮想3次元空間)内において、ユーザの視点として設定される位置の情報である。視線方向情報は、当該視点でのユーザの視線方向を表す情報である。仮想カメラ属性情報は、ユーザの視点に設定される仮想カメラについての情報であり、例えば画角情報、立体視における両眼視差情報など種々の情報を想定できる。 Further, the user's viewpoint information is, for example, at least one of the user's viewpoint position information, line-of-sight direction information, and virtual camera attribute information. The viewpoint position information is, for example, information on a position set as a user's viewpoint in a game space (object space, virtual three-dimensional space). The line-of-sight direction information is information indicating the line-of-sight direction of the user at the viewpoint. The virtual camera attribute information is information about the virtual camera set from the user's viewpoint, and various information such as angle of view information and binocular parallax information in stereoscopic vision can be assumed.

更に具体的には、ゲーム処理部112は、ユーザとキャラクタとの位置関係情報に応じたコマンドの効果を、発動させる処理を行う。例えば、一人称視点の場合には、ユーザの視点位置とキャラクタの位置(代表位置)との位置関係情報に応じたコマンドの効果を、発動させる。位置関係情報は、ユーザの位置(視点位置、ユーザキャラクタの位置)とキャラクタの位置(代表位置、視点位置)との関係を表す情報である。この位置関係情報としては、例えばユーザとキャラクタとの距離(ゲーム空間での距離)などを想定できるが、これには限定されない。例えばユーザとキャラクタとの方向関係の情報であってもよい。 More specifically, the game processing unit 112 performs a process of invoking the effect of the command according to the positional relationship information between the user and the character. For example, in the case of the first-person viewpoint, the effect of the command corresponding to the positional relationship information between the user's viewpoint position and the character's position (representative position) is activated. The positional relationship information is information representing the relationship between the user's position (viewpoint position, user character's position) and the character's position (representative position, viewpoint position). The positional relationship information can be assumed, for example, the distance between the user and the character (distance in the game space), but is not limited to this. For example, it may be information on the directional relationship between the user and the character.

またゲーム処理部112は、ユーザの視線とキャラクタとの関係を表す視線関係情報に応じたコマンドの効果を、発動させる処理を行う。視線関係情報は、ユーザの視線とキャラクタとの関係を表す情報であり、例えばユーザの視線について、キャラクタとの相対的な関係を表す情報である。例えば視線関係情報は、キャラクタの位置(代表位置)や各部位を基準として、ユーザの視線がどの方向を向いているかに関する情報である。 Further, the game processing unit 112 performs a process of invoking the effect of a command according to the line-of-sight relationship information indicating the relationship between the user's line of sight and the character. The line-of-sight relationship information is information that represents the relationship between the user's line of sight and the character, and is, for example, information that represents the relative relationship between the user's line of sight and the character. For example, the line-of-sight-related information is information on which direction the user's line of sight is facing with reference to the position (representative position) of the character and each part.

またゲーム処理部112は、ユーザの注視情報に応じたコマンドの効果を、発動させる処理を行う。注視情報は、ユーザが注視しているキャラクタの部位の情報である注視部位情報、ユーザがキャラクタを注視しているか否かの情報である注視有無情報、ユーザがキャラクタを注視している時間を表す注視時間情報、及びユーザの注視時におけるキャラクタとの間の距離を表す注視距離情報の少なくとも1つである。 Further, the game processing unit 112 performs a process of invoking the effect of the command according to the gaze information of the user. The gaze information represents gaze part information which is information on the part of the character that the user is gaze at, gaze presence / absence information which is information on whether or not the user is gaze at the character, and time when the user is gaze at the character. It is at least one of the gaze time information and the gaze distance information indicating the distance between the user and the character at the time of gaze.

2.トラッキング処理
次にトラッキング処理の例について説明する。図2(A)に本実施形態のシミュレーションシステムで用いられるHMD200の一例を示す。図2(A)では、HMD200に対して複数の発光素子231〜236が設けられている。これらの発光素子231〜236は例えばLEDなどにより実現される。発光素子231〜234は、HMD200の前面側に設けられ、発光素子235や不図示の発光素子236は、背面側に設けられる。これらの発光素子231〜236は、例えば可視光の帯域の光を出射(発光)する。具体的には発光素子231〜236は、互いに異なる色の光を出射する。そして図2(B)に示す撮像部150をユーザPLの前方側に設置し、この撮像部150により、これらの発光素子231〜236の光を撮像する。即ち、撮像部150の撮像画像には、これらの発光素子231〜236のスポット光が映る。そして、この撮像画像の画像処理を行うことで、ユーザPLの頭部(HMD)のトラッキングを実現する。即ちユーザPLの頭部の3次元位置や向く方向(視点位置、視線方向)を検出する。
2. 2. Tracking process Next, an example of tracking process will be described. FIG. 2A shows an example of the HMD200 used in the simulation system of the present embodiment. In FIG. 2A, a plurality of light emitting elements 231 to 236 are provided for the HMD 200. These light emitting elements 231 to 236 are realized by, for example, LEDs. The light emitting elements 231 to 234 are provided on the front side of the HMD 200, and the light emitting element 235 and the light emitting element 236 (not shown) are provided on the back side. These light emitting elements 231 to 236 emit (emit) light in the visible light band, for example. Specifically, the light emitting elements 231 to 236 emit light of different colors from each other. Then, the imaging unit 150 shown in FIG. 2B is installed on the front side of the user PL, and the light emitting elements 231 to 236 are imaged by the imaging unit 150. That is, the spot light of these light emitting elements 231 to 236 is reflected in the image captured by the imaging unit 150. Then, by performing image processing of this captured image, tracking of the head (HMD) of the user PL is realized. That is, the three-dimensional position and the direction (viewpoint position, line-of-sight direction) of the head of the user PL are detected.

例えば図2(B)に示すように撮像部150には第1、第2のカメラ151、152が設けられており、これらの第1、第2のカメラ151、152の第1、第2の撮像画像を用いることで、ユーザPLの頭部の奥行き方向での位置等が検出可能になる。またHMD200のセンサ部210に設けられたモーションセンサのモーション検出情報に基づいて、ユーザPLの頭部の回転角度(視線)も検出可能になっている。従って、このようなHMD200を用いることで、ユーザPLが、周囲の360度の全方向うちのどの方向を向いた場合にも、それに対応する仮想空間(仮想3次元空間)での画像(ユーザの視点に対応する仮想カメラから見える画像)を、HMD200の表示部220に表示することが可能になる。なお、発光素子231〜236として、可視光ではなく赤外線のLEDを用いてもよい。また、例えばデプスカメラ等を用いるなどの他の手法で、ユーザの頭部の位置や動き等を検出するようにしてもよい。 For example, as shown in FIG. 2B, the imaging unit 150 is provided with the first and second cameras 151 and 152, and the first and second cameras 151 and 152 of these first and second cameras 151 and 152 are provided. By using the captured image, the position of the head of the user PL in the depth direction can be detected. Further, the rotation angle (line of sight) of the head of the user PL can also be detected based on the motion detection information of the motion sensor provided in the sensor unit 210 of the HMD 200. Therefore, by using such an HMD200, no matter which direction the user PL faces in all directions of 360 degrees around it, the image (user's) in the corresponding virtual space (virtual three-dimensional space) is used. The image seen from the virtual camera corresponding to the viewpoint) can be displayed on the display unit 220 of the HMD 200. Infrared LEDs may be used as the light emitting elements 231 to 236 instead of visible light. Further, the position and movement of the user's head may be detected by another method such as using a depth camera or the like.

またHMD200には、ヘッドバンド260や不図示のヘッドホン端子が設けられている。ヘッドホン端子にヘッドホン270(音出力部192)を接続することで、例えば3次元音響の処理が施されたゲーム音を、ユーザPLは聴くことが可能になる。 Further, the HMD 200 is provided with a headband 260 and a headphone terminal (not shown). By connecting the headphones 270 (sound output unit 192) to the headphone terminal, the user PL can listen to, for example, a game sound processed by three-dimensional sound.

また図2(A)に示すようにユーザPLはゲームコントローラ166、167を所持している。ゲームコントローラ166、167は図1の操作部160に相当する。ゲームコントローラ166、167には発光素子237、238が設けられている。この発光素子237、238からの光を撮像部150で撮像することで、HMD200の場合と同様の手法で、ゲームコントローラ166、167の位置等が検出される。これによりユーザPLは種々の操作情報を入力することが可能になる。なお、ユーザの頭部の頷き動作や首振り動作をトラッキング処理により検出することで、ユーザの操作情報を入力できるようにしてもよい。 Further, as shown in FIG. 2A, the user PL possesses the game controllers 166 and 167. The game controllers 166 and 167 correspond to the operation unit 160 in FIG. The game controllers 166 and 167 are provided with light emitting elements 237 and 238. By capturing the light from the light emitting elements 237 and 238 with the imaging unit 150, the positions of the game controllers 166 and 167 and the like are detected by the same method as in the case of the HMD 200. This allows the user PL to input various operation information. It should be noted that the user's operation information may be input by detecting the nodding motion or the swinging motion of the user's head by the tracking process.

図3(A)に本実施形態のシミュレーションシステムに用いられるHMD200の他の例を示す。図3(A)に示すようにHMD200には複数の受光素子201、202、203(フォトダイオード)が設けられている。受光素子201、202はHMD200の前面側に設けられ、受光素子203はHMD200の右側面に設けられている。またHMDの左側面、上面等にも不図示の受光素子が設けられている。またHMD200にはヘッドバンド260が設けられ、ユーザPLはヘッドホン270を装着している。 FIG. 3A shows another example of the HMD200 used in the simulation system of the present embodiment. As shown in FIG. 3A, the HMD 200 is provided with a plurality of light receiving elements 201, 202, 203 (photodiodes). The light receiving elements 201 and 202 are provided on the front surface side of the HMD 200, and the light receiving elements 203 are provided on the right side surface of the HMD 200. Further, a light receiving element (not shown) is also provided on the left side surface, the upper surface, and the like of the HMD. Further, the HMD 200 is provided with a headband 260, and the user PL is wearing headphones 270.

図3(B)に示すように、ユーザPLの周辺には、ベースステーション280、284が設置されている。ベースステーション280には発光素子281、282が設けられ、ベースステーション284には発光素子285、286が設けられている。発光素子281、282、285、286は、例えばレーザー(赤外線レーザー等)を出射するLEDにより実現される。ベースステーション280、284は、これら発光素子281、282、285、286を用いて、例えばレーザーを放射状に出射する。そして図3(A)のHMD200に設けられた受光素子201〜203等が、ベースステーション280、284からのレーザーを受光することで、HMD200のトラッキングが実現され、ユーザPLの頭の位置や向く方向(視点位置、視線方向)を検出できるようになる。 As shown in FIG. 3B, base stations 280 and 284 are installed around the user PL. The base station 280 is provided with light emitting elements 281 and 282, and the base station 284 is provided with light emitting elements 285 and 286. The light emitting elements 281, 282, 285, and 286 are realized by, for example, an LED that emits a laser (infrared laser or the like). The base stations 280 and 284 use these light emitting elements 281, 282, 285 and 286 to emit, for example, a laser radially. Then, the light receiving elements 201 to 203 and the like provided in the HMD200 of FIG. 3A receive the laser from the base stations 280 and 284 to realize the tracking of the HMD200, and the position and the direction of the head of the user PL. (Viewpoint position, line-of-sight direction) can be detected.

また図3(A)に示すようにユーザPLが所持するゲームコントローラ166、167には、受光素子204〜206、207〜209が設けられている。そしてベースステーション280、284の発光素子281、282、285、286からのレーザーを、受光素子204〜206、207〜209により受光することで、HMD200の場合と同様の手法で、ゲームコントローラ166、167の位置等が検出される。これによりユーザPLは種々の操作情報を入力することが可能になる。 Further, as shown in FIG. 3A, the game controllers 166 and 167 possessed by the user PL are provided with light receiving elements 204 to 206 and 207 to 209. Then, by receiving the lasers from the light emitting elements 281, 282, 285, and 286 of the base stations 280 and 284 by the light receiving elements 204 to 206 and 207 to 209, the game controllers 166 and 167 can be used in the same manner as in the case of the HMD200. The position of is detected. This allows the user PL to input various operation information.

なお、ユーザの視点位置、視線方向(ユーザの位置、方向)を検出するトラッキング処理の手法は、図2(A)〜図3(B)で説明した手法には限定されない。例えばHMD200に設けられたモーションセンサ等を用いて、HMD200の単体でトラッキング処理を実現してもよい。即ち、図2(B)の撮像部150や図3(B)のベースステーション280、284などの外部装置を設けることなく、トラッキング処理を実現する。或いは、公知のアイトラッキング、フェイストラッキング又はヘッドトラッキングなどの種々の視点トラッキング手法により、ユーザの視点位置、視線方向などの視点情報を検出してもよい。例えばアイトラッキングでは、ユーザの左目、右目の瞳の位置や形状等を認識する。そして、左目の位置、右目の位置、左目の視線方向、右目の視線方向等を特定し、ユーザの視点情報を取得することで、トラッキング処理を実現する。このアイトラッキングは、例えば撮像部によりユーザの左目、右目を撮影し、その撮像画像に対して瞳等の画像認識処理を行うことなどで実現できる。また、フェイストラッキングでは、撮像部でユーザの顔を撮像し、顔の画像認識処理を行う。そして、画像認識処理の結果に基づいて、ユーザの顔の位置や向く方向を特定して、ユーザの視点位置、視線方向を求めて、トラッキング処理を実現する。 The tracking processing method for detecting the user's viewpoint position and line-of-sight direction (user's position and direction) is not limited to the methods described in FIGS. 2A to 3B. For example, the tracking process may be realized by the HMD 200 alone by using a motion sensor or the like provided in the HMD 200. That is, the tracking process is realized without providing an external device such as the image pickup unit 150 of FIG. 2B or the base station 280 and 284 of FIG. 3B. Alternatively, viewpoint information such as the user's viewpoint position and line-of-sight direction may be detected by various viewpoint tracking methods such as known eye tracking, face tracking, or head tracking. For example, in eye tracking, the position and shape of the eyes of the user's left eye and right eye are recognized. Then, the tracking process is realized by specifying the position of the left eye, the position of the right eye, the line-of-sight direction of the left eye, the line-of-sight direction of the right eye, and the like, and acquiring the viewpoint information of the user. This eye tracking can be realized, for example, by photographing the user's left eye and right eye with an imaging unit and performing image recognition processing such as pupils on the captured image. Further, in face tracking, the image pickup unit captures the user's face and performs face image recognition processing. Then, based on the result of the image recognition process, the position and the direction of the user's face are specified, the viewpoint position and the line-of-sight direction of the user are obtained, and the tracking process is realized.

3.本実施形態の手法
次に本実施形態の手法について具体的に説明する。
3. 3. Method of this embodiment Next, the method of this embodiment will be specifically described.

3.1 ゲームの説明
まず本実施形態の手法により実現されるゲームの概要について説明する。このゲームは、ユーザが、ゲームに登場する異性のキャラクタとコミュニケーションをしながら、勉強を教えたり、様々なアドバイスをしたり、質問に答えたり、各種イベントをクリアして、ユーザに対するキャラクタの好感度等を高めたりする、コミュニケーションゲーム(人間関係シミュレーションゲーム)である。なお、以下では本実施形態の手法が適用されるゲームが、異性キャラクタ等とのコミュニケーションゲームである場合を主に例にとり説明する。しかしながら、本実施形態の手法が適用されるゲームはこれには限定されず、戦闘ゲーム、RPGゲーム、スポーツゲーム、アクションゲーム等の種々のゲームに適用可能である。
3.1 Description of the game First, an outline of the game realized by the method of the present embodiment will be described. In this game, the user communicates with the characters of the opposite sex appearing in the game, teaches study, gives various advices, answers questions, clears various events, and the character's liking for the user. It is a communication game (human relations simulation game) that enhances such things. In the following, a case where the game to which the method of the present embodiment is applied is a communication game with a character of the opposite sex or the like will be mainly described as an example. However, the game to which the method of the present embodiment is applied is not limited to this, and can be applied to various games such as a battle game, an RPG game, a sports game, and an action game.

図4〜図6に、本実施形態のシミュレーションシステム(ゲームシステム)により生成されるゲーム画像の例を示す。本実施形態により実現されるゲームでは、ユーザ(プレーヤ)は、キャラクタCHの家庭教師としてその家を訪れ、勉強等を教える。ゲームには、複数のストーリーが用意され、各ストーリーごとに、異なるタイプのキャラクタCHが登場する。ユーザは、各ストーリーでの目的を達成しながら、キャラクタCHとの親密なコミュニケーションを楽しむ。 4 to 6 show examples of game images generated by the simulation system (game system) of the present embodiment. In the game realized by the present embodiment, the user (player) visits the house as a tutor of the character CH and teaches study and the like. A plurality of stories are prepared in the game, and different types of character CHs appear in each story. The user enjoys intimate communication with the character CH while achieving the purpose in each story.

ゲームをプレイするユーザはHMD200を装着する。そしてユーザが、周囲の360度の全方向の各方向に視線を向けると、各方向で見えるべき画像がHMD200の表示部220に表示される。例えば図4において、ユーザがキャラクタCHの方に視線を向ければ、勉強をしているキャラクタCHの画像が表示部220に表示される。一方、ユーザが頭部を回して、ユーザの背面側に視線を向ければ、キャラクタCHの背面側に位置する部屋の家具等の画像が表示部220に表示される。従って、ユーザは、あたかもゲームの世界に自分が入ってしまったかのような仮想現実感を味わうことが可能になる。即ち、実際に部屋に入って、眼の前の異性に勉強を教えているかのような仮想現実感をユーザに与えることができ、ゲームへのユーザの没入感を高めることができる。 The user who plays the game wears the HMD200. Then, when the user turns his / her line of sight in each direction of the surrounding 360 degrees, the image to be seen in each direction is displayed on the display unit 220 of the HMD 200. For example, in FIG. 4, when the user turns his / her line of sight toward the character CH, the image of the character CH studying is displayed on the display unit 220. On the other hand, when the user turns his / her head and directs his / her line of sight to the back side of the user, an image of furniture or the like in the room located on the back side of the character CH is displayed on the display unit 220. Therefore, the user can experience the virtual reality as if he / she has entered the game world. That is, it is possible to give the user a virtual reality as if he / she actually entered the room and taught the opposite sex in front of his / her eyes to study, and it is possible to enhance the user's immersive feeling in the game.

図4のゲーム画像では、キャラクタCH(広義には移動体)、キャラクタCHが所持する本(広義にはアイテム)、カーテンCT(広義には固定物)、壁WL(広義には背景)などのオブジェクトが表示されている。また情報表示物DSA、DSBが表示されている。 In the game image of FIG. 4, the character CH (moving object in a broad sense), the book possessed by the character CH (item in a broad sense), the curtain CT (fixed object in a broad sense), the wall WL (background in a broad sense), etc. The object is displayed. In addition, information display objects DSA and DSB are displayed.

情報表示物DSAは説明表示のための表示物である。例えば情報表示物DSAにより、キャラクタCHが本を読んでいることが説明されている。情報表示物DSBはステータス表示のための表示物である。後述の図7で説明するように情報表示物DSBにより、キャラクタCHの種々のステータス情報が表示されている。 Information display object DSA is a display object for explanatory display. For example, the information display DSA explains that the character CH is reading a book. The information display object DSB is a display object for displaying the status. As will be described later with reference to FIG. 7, various status information of the character CH is displayed by the information display object DSB.

図4においてユーザがキャラクタCHの方に近づき、視線を向けるなどすると、図5に示すゲーム画像が表示される。図5では情報表示物DSC、DSD1、DSD2が更に表示されている。情報表示物DSCは会話表示のための表示物である。例えば情報表示物DSCには、キャラクタCHの会話である「何かご用ですか?」が表示されている。情報表示物DSD1、DSD2はコマンド選択(コマンド入力)のための表示物である。例えばキャラクタCHからの会話に対する返事(YES、NO)についてのコマンドが表示されている。 When the user approaches the character CH in FIG. 4 and turns his / her gaze, the game image shown in FIG. 5 is displayed. In FIG. 5, the information display objects DSC, DSD1 and DSD2 are further displayed. Information display object DSC is a display object for conversation display. For example, on the information display object DSC, "What do you want?", Which is a conversation of the character CH, is displayed. Information display items DSD1 and DSD2 are display items for command selection (command input). For example, a command for replying to a conversation from the character CH (YES, NO) is displayed.

図5において「YES」のコマンドをユーザが選択すると、図6に示すようなゲーム画像が表示される。図6では情報表示物DSE1、DSE2、DSE3が表示されている。情報表示物DSE1、DSE2、DSE3はコマンド選択のための表示物(アイコン)である。例えば情報表示物DSE1、DSE2、DSE3にはコマンドCM1、CM2、CM3が対応づけられている。例えばユーザが情報表示物DSE1を選択すると、「もっと集中」というコマンドCM1の効果が発動する。情報表示物DSE2を選択すると、「叱る」というコマンドCM2の効果が発動する。情報表示物DSE3を選択すると、「声をかける」というコマンドCM3の効果が発動する。 When the user selects the "YES" command in FIG. 5, a game image as shown in FIG. 6 is displayed. In FIG. 6, information displays DSE1, DSE2, and DSE3 are displayed. Information display objects DSE1, DSE2, and DSE3 are display objects (icons) for command selection. For example, commands CM1, CM2, and CM3 are associated with the information display objects DSE1, DSE2, and DSE3. For example, when the user selects the information display object DSE1, the effect of the command CM1 "more concentrated" is activated. When the information display object DSE2 is selected, the effect of the command CM2 "scolding" is activated. When the information display object DSE3 is selected, the effect of the command CM3 "call out" is activated.

なお、コマンドに対応する情報表示物(DSE1、DSE2、DSE3、DSD1、DSD1)の選択は、図1の操作部160を用いて行う。例えばユーザは、操作部160を用いて、ユーザが所望するコマンドに対応する情報表示物(アイコン)を選択し、選択した情報表示物に対応するコマンドの効果を発動させるというコマンド操作を行う。図2(A)、図3(A)を例にとれば、ユーザは、両手に所持したゲームコントローラ166、167を動かすことで、このようなコマンド操作を行う。或いは、有線で接続されたゲームコントローラ(不図示)を用いて、コマンド操作を行ってもよい。或いは、HMD200を頭部に装着したユーザが、コマンドに対応する情報表示物の方に視線方向を向けたり、首を縦や横に振るなどの動作を行うことで、コマンド操作を行うようにしてもよい。 The information display objects (DSE1, DSE2, DSE3, DSD1, DSD1) corresponding to the commands are selected by using the operation unit 160 of FIG. For example, the user uses the operation unit 160 to select an information display object (icon) corresponding to the command desired by the user, and performs a command operation of invoking the effect of the command corresponding to the selected information display object. Taking FIGS. 2 (A) and 3 (A) as an example, the user performs such a command operation by moving the game controllers 166 and 167 held in both hands. Alternatively, a command operation may be performed using a game controller (not shown) connected by wire. Alternatively, a user wearing the HMD200 on his / her head may perform a command operation by performing an action such as turning the line of sight toward an information display object corresponding to the command or shaking his / her head vertically or horizontally. May be good.

図6では、ユーザは、「声をかける」というコマンドCM3に対応する情報表示物DSE3を選択している。これにより、「声をかける」というコマンドCM3の効果が発動される。例えば、コマンドCM3には、「声をかける」に対応する言葉(例えば「おーい!」、「頑張ってるか?」、「勉強してるか?」)の音声データが対応づけられている。そして、コマンドCM3が発動すると、当該音声データの再生が行われ、その言葉(文)の音声が図1の音出力部192から出力される。 In FIG. 6, the user selects the information display object DSE3 corresponding to the command CM3 to "call out". As a result, the effect of the command CM3 to "call out" is activated. For example, the command CM3 is associated with voice data of words corresponding to "call out" (for example, "hey!", "Are you doing your best?", "Are you studying?"). Then, when the command CM3 is activated, the voice data is reproduced, and the voice of the word (sentence) is output from the sound output unit 192 of FIG.

また、コマンドが発動(コマンドの効果の発動)されると、キャラクタCHのゲームパラメータにも影響を与える。例えば、「声をかける」というコマンドCM3が発動されると、それに対応するキャラクタCHのゲームパラメータも変化する。 In addition, when a command is activated (the effect of the command is activated), the game parameters of the character CH are also affected. For example, when the command CM3 "call out" is activated, the game parameters of the corresponding character CH also change.

例えば図4〜図6では、キャラクタCHの各種状態であるゲームパラメータのステータスをユーザに伝えるための情報表示物DSBが表示されている。この情報表示物DSBにより、例えば図7に示すように、キャラクタCHの現在の心理状態、モチベーション、集中力、脈拍等の状態がユーザに伝えられる。これらの心理状態、モチベーション、集中力、脈拍は、キャラクタCHのゲームパラメータとして用意されている。 For example, in FIGS. 4 to 6, an information display object DSB for informing the user of the status of game parameters, which are various states of the character CH, is displayed. As shown in FIG. 7, for example, the information display object DSB conveys to the user the current psychological state, motivation, concentration, pulse, and the like of the character CH. These psychological states, motivation, concentration, and pulse are prepared as game parameters of the character CH.

キャラクタCHの心理状態は、例えば色などを用いて表現される。例えば本実施形態のゲームでは、レッスンの課題が出され、例えば所定時間が経過することでレッスンが終了する。そして、例えばレッスン終了時の課題の達成量に応じて、ユーザのゲーム成績が決定される。例えばユーザのゲーム成績が高い場合には、例えば効果が高かったり、レア度の高いコマンド(アクション)のカードがユーザに付与される。 The psychological state of the character CH is expressed using, for example, color. For example, in the game of the present embodiment, a lesson task is given, and the lesson ends, for example, when a predetermined time elapses. Then, for example, the game result of the user is determined according to the amount of achievement of the task at the end of the lesson. For example, when the user's game performance is high, for example, a card with a high effect or a command (action) with a high degree of rarity is given to the user.

レッスンで出される各課題には、例えば赤、緑、青の属性が付与され、キャラクタCHの心理状態も、赤、緑、青の成分を有している。例えばキャラクタCHの心理状態が赤の成分が多い場合には、赤の属性の課題はすぐに消化できるが、緑、青の属性の課題は消化が遅い。同様に、キャラクタCHの心理状態が緑の成分が多い場合には、緑の属性の課題はすぐに消化できるが、赤、青の属性の課題は消化が遅い。従ってユーザは、情報表示物DSBに表示されるキャラクタCHの心理状態を見て、心理状態に合った属性の課題を消化させることで、達成される課題量が多くなり、レッスンを適正に完了できるようになる。 For example, the attributes of red, green, and blue are given to each task given in the lesson, and the psychological state of the character CH also has the components of red, green, and blue. For example, when the psychological state of the character CH has a large amount of red components, the tasks with the red attribute can be digested immediately, but the tasks with the green and blue attributes are slow to digest. Similarly, when the psychological state of the character CH has a large amount of green component, the task of the green attribute can be digested immediately, but the task of the red and blue attributes is slow to digest. Therefore, the user can increase the amount of tasks to be achieved and properly complete the lesson by looking at the psychological state of the character CH displayed on the information display object DSB and digesting the tasks of the attributes suitable for the psychological state. Will be.

また図7に示すように、キャラクタCHにはモチベーション、集中力のゲームパラメータが設定されている。これらのモチベーション、集中力のゲームパラメータの値は、例えば0〜100(%)の間で変化し、その値が大きいほど、モチベーション、集中力が高くなる。モチベーションの値が高くなると、課題の消化速度が速くなる。一方、集中力の値は、時間経過に応じて下がって行くが、キャラクタCHの心理状態に応じて、その下がり度合いが大きくなったり、下がりにくくなったりする。また、集中力の値が所定値よりも低くなり、集中力が切れた状態になると、レッスンの休憩が必要になる。 Further, as shown in FIG. 7, game parameters of motivation and concentration are set in the character CH. The values of these motivation and concentration game parameters vary from 0 to 100 (%), for example, and the larger the value, the higher the motivation and concentration. The higher the motivation value, the faster the task will be digested. On the other hand, the value of concentration decreases with the passage of time, but the degree of decrease becomes large or difficult to decrease depending on the psychological state of the character CH. In addition, when the value of concentration becomes lower than the predetermined value and the concentration is lost, a break from the lesson is required.

また図7の情報表示物DSBの脈拍は、例えばキャラクタCHのユーザに対するドキドキ度や好感度を表すゲームパラメータとして機能する。例えばドキドキ度が高くなると、脈拍も高くなり、モチベーションが上がったり、集中力が下がりにくくなったり、課題の消化速度が速くなる。 Further, the pulse of the information display object DSB in FIG. 7 functions as a game parameter indicating, for example, the degree of excitement and the favorable impression of the character CH to the user. For example, when the degree of excitement increases, the pulse also increases, motivation increases, concentration becomes difficult to decrease, and the digestion speed of tasks increases.

3.2 表示態様の変更処理
図4〜図6に示すように本実施形態により実現されるゲームでは、種々の情報表示物が表示される。HMDを用いずに、表示部に疑似3次元画像を表示する従来の画像生成システムでは、このような情報表示物として、投影スクリーンに2次元的に表示される2次元表示物(スプライト等)が用いられていた。
3.2 Processing for changing the display mode As shown in FIGS. 4 to 6, in the game realized by the present embodiment, various information display objects are displayed. In a conventional image generation system that displays a pseudo three-dimensional image on a display unit without using an HMD, a two-dimensional display object (sprite or the like) that is displayed two-dimensionally on a projection screen is used as such an information display object. It was used.

しかしながら、HMDを用いたVR(バーチャルリアリティ)のシステムにおいて、説明表示、ステータス表示、コマンド選択、メニュー表示等の情報表示物として、2次元表示物を用いてしまうと、ユーザの仮想現実感を損ねたり、画面が見にくくなってしまうなどの問題を招く。例えば図4のキャラクタCH、本BK、カーテンCT、壁WLなどの3次元のオブジェクトが立体的に表示されるVR空間において、情報表示物だけが投影スクリーン上に2次元的に表示されてしまうと、仮想現実感を損ねてしまう。また多数の2次元の情報表示物が表示されてしまうと、これらの情報表示物が2次元的に重なったり、情報表示物によりオブジェクトが隠れて見えなくなり、非常に見にくい画面になってしまう。 However, in a VR (Virtual Reality) system using an HMD, if a two-dimensional display is used as an information display such as an explanation display, a status display, a command selection, and a menu display, the user's virtual reality is impaired. It also causes problems such as the screen becoming difficult to see. For example, in a VR space where three-dimensional objects such as the character CH, the book BK, the curtain CT, and the wall WL in FIG. 4 are three-dimensionally displayed, only the information display object is displayed two-dimensionally on the projection screen. , It spoils the sense of virtual reality. Further, when a large number of two-dimensional information display objects are displayed, these information display objects are two-dimensionally overlapped, or the objects are hidden by the information display objects and cannot be seen, resulting in a very difficult-to-see screen.

そこで本実施形態では、ユーザの視線方向(ユーザの視界範囲、正面方向)に少なくとも1つの情報表示物を配置する。例えば情報表示物を、仮想空間の他のオブジェクトと同様に、3次元座標値を有するオブジェクトにより構成して、仮想空間に配置する。具体的には、ユーザの視点変化(視線方向及び視点位置の少なくとも一方の変化)に追従するように制御される情報表示物を、仮想空間に配置する。更に具体的には、ユーザの視線方向での所与の奥行き位置に、ユーザの視点変化に追従するように情報表示物を配置する。 Therefore, in the present embodiment, at least one information display object is arranged in the user's line-of-sight direction (user's field of view range, front direction). For example, the information display object is composed of objects having three-dimensional coordinate values and arranged in the virtual space like other objects in the virtual space. Specifically, an information display object controlled to follow a change in the user's viewpoint (change in at least one of the line-of-sight direction and the viewpoint position) is arranged in the virtual space. More specifically, the information display object is arranged at a given depth position in the line-of-sight direction of the user so as to follow the change in the viewpoint of the user.

図8(A)〜図8(D)は、このような情報表示物の表示手法についての説明図である。例えば図8(A)において、VPは、HMDを装着しているユーザPLの視点であり、VLは、ユーザPLの視線方向である。これらの視点VP、視線方向VLは、ユーザPLに対応する仮想カメラの視点、視線方向に相当する。 8 (A) to 8 (D) are explanatory views of a display method for such an information display object. For example, in FIG. 8A, VP is the viewpoint of the user PL wearing the HMD, and VL is the line-of-sight direction of the user PL. These viewpoint VP and line-of-sight direction VL correspond to the viewpoint and line-of-sight direction of the virtual camera corresponding to the user PL.

そして図8(A)では、ユーザPLの視線方向VLにおける奥行き値Z1、Z2の位置に、各々、情報表示物DS1、DS2が配置されている。奥行き値Z1、Z2は、例えば視点座標系(カメラ座標系)におけるZ座標軸の座標値である。情報表示物DS1、DS2は、例えばビルボードポリゴンにより実現される。即ち、ビルボードポリゴンに対して、図4〜図6で説明したような説明表示、ステータス表示、会話表示、コマンド選択表示、メニュー表示のための文字、アイコン又は図形等の画像をマッピングすることで、情報表示物DS1、DS2が実現されている。ビルボードポリゴン(ビルボードプリミティブ面)は、ユーザPLの視点VP(仮想カメラ)に正対(略正対)するように配置されるポリゴン(プリミティブ面)である。例えば情報表示物DS1、DS2のビルボードポリゴンは、視線方向VL(視線方向ベクトル)に直交(略直交)するように配置される。例えばビルボードポリゴンの面の法線方向が、視線方向VLに平行となるように配置される。なおビルボードポリゴンの配置方向は、このような方向には限定されず、種々の配置方向に設定可能である。また情報表示物をビルボードポリゴンとは異なる形式の表示物で実現してもよい。例えば複数のプリミティブ面(ポリゴン等)で構成される3次元形状のオブジェクトにより情報表示物を実現してもよい。 Then, in FIG. 8A, the information display objects DS1 and DS2 are arranged at the positions of the depth values Z1 and Z2 in the line-of-sight direction VL of the user PL, respectively. The depth values Z1 and Z2 are, for example, coordinate values of the Z coordinate axes in the viewpoint coordinate system (camera coordinate system). The information display objects DS1 and DS2 are realized by, for example, billboard polygons. That is, by mapping images such as characters, icons, or figures for explanation display, status display, conversation display, command selection display, and menu display as described in FIGS. 4 to 6 to the billboard polygon. , Information display objects DS1 and DS2 are realized. The billboard polygon (bilboard primitive surface) is a polygon (primitive surface) arranged so as to face (substantially face) the viewpoint VP (virtual camera) of the user PL. For example, the billboard polygons of the information display objects DS1 and DS2 are arranged so as to be orthogonal (substantially orthogonal) to the line-of-sight direction VL (line-of-sight direction vector). For example, the normal direction of the surface of the billboard polygon is arranged so as to be parallel to the line-of-sight direction VL. The arrangement direction of the billboard polygon is not limited to such a direction, and can be set in various arrangement directions. Further, the information display object may be realized by a display object having a format different from that of the billboard polygon. For example, an information display object may be realized by a three-dimensional object composed of a plurality of primitive surfaces (polygons and the like).

そして本実施形態では情報表示物DS1、DS2は、ユーザPLの視線方向VLの変化に追従するように制御される。例えば図8(B)では、ユーザPLの視線方向VLが右側方向に変化している。例えばHMDを装着しているユーザPLが右側方向を向いており、これにより仮想空間での仮想カメラの視線方向も右側方向に変化する。この場合に図8(B)に示すように、この視線方向VLの変化に追従するように、情報表示物DS1、DS2の位置や方向が変化する。例えば図8(B)においても、ユーザPLの視点VPに正対するように情報表示物DS1、DS2を構成するビルボードポリゴンが配置される。 Then, in the present embodiment, the information display objects DS1 and DS2 are controlled so as to follow the change in the line-of-sight direction VL of the user PL. For example, in FIG. 8B, the line-of-sight direction VL of the user PL changes to the right side. For example, the user PL wearing the HMD is facing the right side, and the line-of-sight direction of the virtual camera in the virtual space is also changed to the right side. In this case, as shown in FIG. 8B, the positions and directions of the information display objects DS1 and DS2 change so as to follow the change in the line-of-sight direction VL. For example, also in FIG. 8B, the billboard polygons constituting the information display objects DS1 and DS2 are arranged so as to face the viewpoint VP of the user PL.

また図8(C)では、ユーザPLの視線方向VLが左側方向に変化している。例えばHMDを装着しているユーザPLが左側方向を向いており、これにより仮想空間での仮想カメラの視線方向も左側方向に変化する。この場合にも図8(C)に示すように、この視線方向VLの変化に追従するように、情報表示物DS1、DS2の位置や方向が変化する。例えば図8(C)においても、ユーザPLの視点VPに正対するように情報表示物DS1、DS2を構成するビルボードポリゴンが配置される。 Further, in FIG. 8C, the line-of-sight direction VL of the user PL changes to the left side. For example, the user PL wearing the HMD faces the left side, and the line-of-sight direction of the virtual camera in the virtual space also changes to the left side. Also in this case, as shown in FIG. 8C, the positions and directions of the information display objects DS1 and DS2 change so as to follow the change in the line-of-sight direction VL. For example, also in FIG. 8C, the billboard polygons constituting the information display objects DS1 and DS2 are arranged so as to face the viewpoint VP of the user PL.

また図8(D)ではユーザPLの視線方向が上側方向に変化している。この場合にも図8(D)に示すように、この視線方向VLの変化に追従するように、情報表示物DS1、DS2の位置や方向が変化する。同様に、ユーザPLの視線方向が下側方向に変化した場合にも、その変化に追従するように情報表示物DS1、DS2の位置や方向が変化する。 Further, in FIG. 8D, the line-of-sight direction of the user PL changes in the upward direction. Also in this case, as shown in FIG. 8D, the positions and directions of the information display objects DS1 and DS2 change so as to follow the change in the line-of-sight direction VL. Similarly, when the line-of-sight direction of the user PL changes downward, the positions and directions of the information display objects DS1 and DS2 change so as to follow the change.

このように図8(A)〜図8(D)の表示手法では、情報表示物が、仮想空間の他のオブジェクトと同様に、仮想空間に3次元的に配置される。従って、情報表示物の表示が原因でユーザの仮想現実感を損ねてしまう問題を解消できる。即ち、2次元の情報表示物が平面的に表示される従来の手法では、情報表示物の存在が原因で仮想現実感を損ねてしまう問題が生じるが、情報表示物を仮想空間に3次元的に配置する本実施形態の手法によれば、このような問題の発生を防止できる。また、このように情報表示物を3次元的に配置すれば、複数の情報表示物を表示する場合にも、ユーザにとって見やすい適切な表示にすることが可能になる。例えば図8(A)〜図8(D)に示すように、複数の情報表示物(DS1、DS2)を、奥行き値(Z1、Z2)を異ならせて配置することなども可能になり、ユーザにとって見やすい適切な情報表示物の表示が可能になる。また図8(A)〜図8(D)の表示手法によれば、ユーザの正面側に情報表示物が常に表示されるようになる。従って、ユーザの視線方向が種々の方向に向いた場合にも、ユーザの正面側に情報表示物が表示されて、ユーザにとって必要な種々の情報を、情報表示物を用いて適切に提示できるようになる。 As described above, in the display methods of FIGS. 8A to 8D, the information display object is three-dimensionally arranged in the virtual space like other objects in the virtual space. Therefore, it is possible to solve the problem that the user's virtual reality is impaired due to the display of the information display object. That is, in the conventional method in which a two-dimensional information display object is displayed in a plane, there is a problem that the virtual reality is impaired due to the existence of the information display object, but the information display object is three-dimensionally displayed in the virtual space. According to the method of the present embodiment arranged in, the occurrence of such a problem can be prevented. Further, by arranging the information display objects three-dimensionally in this way, even when displaying a plurality of information display objects, it is possible to make the display suitable and easy for the user to see. For example, as shown in FIGS. 8A to 8D, it is possible to arrange a plurality of information display objects (DS1, DS2) with different depth values (Z1, Z2), and the user. It is possible to display an appropriate information display that is easy for the user to see. Further, according to the display methods of FIGS. 8A to 8D, the information display object is always displayed on the front side of the user. Therefore, even when the line-of-sight direction of the user is directed to various directions, the information display object is displayed on the front side of the user so that various information necessary for the user can be appropriately presented by using the information display object. become.

なお情報表示物の表示手法は図8(A)〜図8(D)に示す手法には限定されず、種々の変形実施が可能である。また視線方向の変化に常に追従するように情報表示物を表示する必要は無く、例外的に追従しないようにしてもよい。或いは、視線方向の変化に時間的に遅れて追従するように情報表示物を表示してもよい。例えば視線方向が大きく変化した場合(視線方向の変化角度、変化速度又は変化加速度が所定値以上の場合)には、視線方向の変化に情報表示物が追従しないようにしたり、時間的に遅れて追従するようにしてもよい。そして、所与の時間が経過した場合に、情報表示物の再配置等の復帰処理を行うようにしてもよい。或いは、特定の情報表示物については、ユーザの視線方向の変化に追従しないようにしてもよい。例えば特定のオブジェクト(例えばユーザのプレイ対象となるキャラクタ)のステータス等を表示する情報表示物については、その特定のオブジェクトの近傍に表示されるように制御してもよい。 The display method of the information display object is not limited to the methods shown in FIGS. 8 (A) to 8 (D), and various modifications can be performed. Further, it is not necessary to display the information display object so as to always follow the change in the line-of-sight direction, and it may be exceptionally not followed. Alternatively, the information display object may be displayed so as to follow the change in the line-of-sight direction with a time delay. For example, when the line-of-sight direction changes significantly (when the change angle, change speed, or change acceleration in the line-of-sight direction is equal to or greater than a predetermined value), the information display object may not follow the change in the line-of-sight direction, or may be delayed in time. You may try to follow. Then, when a given time has elapsed, a return process such as rearrangement of the information display object may be performed. Alternatively, the specific information display object may not follow the change in the line-of-sight direction of the user. For example, an information display object that displays the status of a specific object (for example, a character to be played by the user) may be controlled so as to be displayed in the vicinity of the specific object.

また図8(A)〜図8(D)では、情報表示物がユーザの視線方向の変化に追従する場合を説明したが、情報表示物を、ユーザの視点位置の変化に追従させてもよい。例えばユーザの視点位置(ユーザ位置)が上下左右に移動した場合に、この移動に追従するように情報表示物を上下左右に移動させる。情報表示物は、ユーザの視線方向の変化にのみ追従してもよいし、視点位置の変化にのみ追従してもよいし、視線方向の変化及び視点位置の変化の両方に追従してもよい。但し、以下では、説明の簡素化のために、ユーザの視点変化がユーザの視線方向の変化である場合を主に例にとり説明を行う。 Further, in FIGS. 8A to 8D, the case where the information display object follows the change in the line-of-sight direction of the user has been described, but the information display object may follow the change in the viewpoint position of the user. .. For example, when the user's viewpoint position (user position) moves up, down, left, and right, the information display object is moved up, down, left, and right so as to follow this movement. The information display object may follow only the change in the line-of-sight direction of the user, may follow only the change in the viewpoint position, or may follow both the change in the line-of-sight direction and the change in the viewpoint position. .. However, in the following description, in order to simplify the explanation, the case where the change in the viewpoint of the user is the change in the direction of the user's line of sight will be mainly taken as an example.

図8(A)〜図8(D)の手法によれば、ユーザの仮想現実感を損なわないような情報表示物の適切な表示が可能になる。しかしながら、仮想空間内には情報表示物以外にも多数のオブジェクトが存在するため、これらのオブジェクトとの関係が問題になることが判明した。 According to the methods of FIGS. 8A to 8D, it is possible to appropriately display an information display object that does not impair the virtual reality of the user. However, since there are many objects in the virtual space other than the information display object, it has been found that the relationship with these objects becomes a problem.

例えば図9(A)では、仮想空間内には、ユーザPLの正面方向に情報表示物DS1、DS2が配置されると共に、他のオブジェクトOB1、OB2も配置されている。これらのオブジェクトOB1、OB2は例えば図4のキャラクタCH(移動体)、本BK(アイテム)、カーテンCT(固定物)、壁WL(背景)などに相当するオブジェクトである。そして図9(A)では情報表示物DS1、DS2とオブジェクトOB1、OB2の衝突は生じていない。 For example, in FIG. 9A, the information display objects DS1 and DS2 are arranged in the front direction of the user PL, and other objects OB1 and OB2 are also arranged in the virtual space. These objects OB1 and OB2 are objects corresponding to, for example, the character CH (moving body), the main BK (item), the curtain CT (fixed object), the wall WL (background), and the like in FIG. In FIG. 9A, the information display objects DS1 and DS2 do not collide with the objects OB1 and OB2.

一方、図9(A)から図9(B)に示すようにユーザPLの視線方向VLが変化すると、この視線方向VLの変化に追従して情報表示物DS1、DS2の位置等が変化する。この場合に図9(B)では、情報表示物DS1、DS2とオブジェクトOB1、OB2が衝突(接近、干渉)する事態が発生している。このような事態が発生すると、例えば情報表示物DS1、DS2がオブジェクトOB1、OB2に対してめり込んでしまい、情報表示物DS1、DS2の一部が欠けて表示されたり、或いはオブジェクトOB1、OB2の一部が欠けて表示されるなどの不具合が生じる。例えば図9(B)の状態でユーザPLの視線方向が微少に変化すると、表示のチラツキも発生してしまい、表示品質が大きく劣化してしまう。 On the other hand, when the line-of-sight direction VL of the user PL changes as shown in FIGS. 9A to 9B, the positions of the information display objects DS1 and DS2 change following the change in the line-of-sight direction VL. In this case, in FIG. 9B, a situation occurs in which the information display objects DS1 and DS2 collide (approach, interfere with) the objects OB1 and OB2. When such a situation occurs, for example, the information display objects DS1 and DS2 are sunk into the objects OB1 and OB2, and a part of the information display objects DS1 and DS2 is missing or displayed, or one of the objects OB1 and OB2. Problems such as missing parts are displayed. For example, if the line-of-sight direction of the user PL changes slightly in the state of FIG. 9B, the display flickers and the display quality is greatly deteriorated.

またユーザの視点位置(ユーザ位置)の変化に情報表示物が追従する場合にも、ユーザの視点位置が上下左右に移動することで、情報表示物がオブジェクトと衝突する問題が生じてしまう。 Further, even when the information display object follows the change of the user's viewpoint position (user position), the information display object collides with the object due to the movement of the user's viewpoint position up, down, left, and right.

そこで本実施形態では情報表示物DS1、DS2とオブジェクトOB1、OB2が図9(B)のような位置関係になった場合に、情報表示物DS1、DS2又はオブジェクトOB1、OB2の表示態様の変更処理を行う。即ち、図9(B)のような衝突(接近、干渉)による表示の不具合を解消する表示態様の変更処理を行う。 Therefore, in the present embodiment, when the information display objects DS1 and DS2 and the objects OB1 and OB2 have a positional relationship as shown in FIG. 9B, the information display objects DS1 and DS2 or the display modes of the objects OB1 and OB2 are changed. I do. That is, the display mode is changed to solve the display defect due to the collision (approach, interference) as shown in FIG. 9B.

例えば図10(A)では、情報表示物DS1、DS2の表示態様を変更している。具体的には情報表示物DS1、DS2の表示を消去したり、情報表示物DS1、DS2を半透明化する処理を行う。一方、オブジェクトOB1、OB2に対しては、このような表示態様の変更処理を行わない。情報表示物DS1、DS2の消去処理は、例えば表示リスト(表示オブジェクトリスト)から、情報表示物DS1、DS2を除外する処理などにより実現できる。情報表示物DS1、DS2の半透明化処理は、例えば情報表示物DS1、DS2の半透明度(α値)を透明に近づける処理を行うことで実現できる。或いは情報表示物DS1、DS2を、例えばフレームモデル等に変更して、説明表示、ステータス表示等の文字やアイコンや図形を消去するようにしてもよい。或いは、情報表示物DS1、DS2の色情報を変更してもよい。例えば情報表示物DS1、DS2の色を、視認性の低い色(目立たない色)に変更したり、背景に溶け込む色に変更する。 For example, in FIG. 10A, the display modes of the information display objects DS1 and DS2 are changed. Specifically, the display of the information display objects DS1 and DS2 is erased, and the information display objects DS1 and DS2 are semi-transparent. On the other hand, the objects OB1 and OB2 are not subjected to such a display mode change process. The process of erasing the information display objects DS1 and DS2 can be realized by, for example, a process of excluding the information display objects DS1 and DS2 from the display list (display object list). The translucency processing of the information display objects DS1 and DS2 can be realized, for example, by performing a process of making the translucency (α value) of the information display objects DS1 and DS2 close to transparency. Alternatively, the information display objects DS1 and DS2 may be changed to, for example, a frame model or the like to erase characters, icons, or figures such as explanation display and status display. Alternatively, the color information of the information display objects DS1 and DS2 may be changed. For example, the colors of the information display objects DS1 and DS2 are changed to a color having low visibility (a color that is inconspicuous) or a color that blends into the background.

図10(B)では、オブジェクトOB1、OB2の表示態様を変更している。具体的にはオブジェクトOB1、OB2の表示を消去したり、オブジェクトOB1、OB2を半透明化する処理を行う。一方、情報表示物DS1、DS2に対しては、このような表示態様の変更処理を行わない。オブジェクトOB1、OB2の消去処理は、例えば表示リストから、オブジェクトOB1、OB2を除外する処理などにより実現できる。オブジェクトOB1、OB2の半透明化処理は、例えばオブジェクトOB1、OB2の半透明度を透明に近づける処理を行うことで実現できる。或いはオブジェクトOB1、OB2を、例えばフレームモデル等に変更して、色やテクスチャなどのプロパティが表示されないようにしてもよい。或いは、オブジェクトOB1、OB2の色情報を変更してもよい。例えばオブジェクトOB1、OB2の色を、視認性の低い色(目立たない色)に変更したり、背景に溶け込む色に変更する。 In FIG. 10B, the display mode of the objects OB1 and OB2 is changed. Specifically, the display of the objects OB1 and OB2 is erased, and the objects OB1 and OB2 are made translucent. On the other hand, the information display objects DS1 and DS2 are not subjected to such a display mode change process. The erasing process of the objects OB1 and OB2 can be realized by, for example, a process of excluding the objects OB1 and OB2 from the display list. The translucency processing of the objects OB1 and OB2 can be realized, for example, by performing a process of making the translucency of the objects OB1 and OB2 close to transparent. Alternatively, the objects OB1 and OB2 may be changed to, for example, a frame model so that properties such as color and texture are not displayed. Alternatively, the color information of the objects OB1 and OB2 may be changed. For example, the colors of the objects OB1 and OB2 are changed to a color having low visibility (a color that is inconspicuous) or a color that blends into the background.

図10(C)では、情報表示物DS1とオブジェクトOB1の関係においては、オブジェクトOB1の方の表示態様を変更し、オブジェクトOB1の方を消去したり、半透明化する処理を行っている。例えば情報表示物DS1が、優先度又は重要度が高い表示物である場合には、情報表示物DS1ではなくオブジェクトOB1の方の表示態様を変更する。一方、情報表示物DS2とオブジェクトOB2の関係においては、情報表示物DS1の方の表示態様を変更し、情報表示物DS1の方を消去したり、半透明化する処理を行っている。例えば情報表示物DS2が、優先度又は重要度が低い表示物である場合には、オブジェクトOB2ではなく情報表示物DS2の方の表示態様を変更する。 In FIG. 10C, in the relationship between the information display object DS1 and the object OB1, the display mode of the object OB1 is changed, and the object OB1 is erased or made translucent. For example, when the information display object DS1 is a display object having a high priority or importance, the display mode of the object OB1 is changed instead of the information display object DS1. On the other hand, in the relationship between the information display object DS2 and the object OB2, the display mode of the information display object DS1 is changed, and the information display object DS1 is erased or made translucent. For example, when the information display object DS2 is a display object having a low priority or importance, the display mode of the information display object DS2 is changed instead of the object OB2.

即ち、情報表示物DS1が第1の種類(例えば重要度又は優先度が高い種類の表示物)である場合には、オブジェクトOB1の方の表示態様を変更する。一方、情報表示物DS2が第2の種類(例えば重要度又は優先度が低い種類の表示物)である場合には、情報表示物DS2の方の表示態様を変更する。 That is, when the information display object DS1 is the first type (for example, a display object of a type having high importance or priority), the display mode of the object OB1 is changed. On the other hand, when the information display object DS2 is of the second type (for example, a display object of a type having low importance or priority), the display mode of the information display object DS2 is changed.

例えば図11(A)のテーブルデータでは、情報表示物DSF1、DSF2、DSF3に対して、その種類TPA、TPB、TPAが関連づけられている。このテーブルデータは図1の記憶部170に記憶される。そして種類TPAは、例えば優先度や重要度が低い種類であるため、オブジェクトとの衝突(接近、干渉)が発生した場合に、情報表示物の方の表示態様が変更される。例えば情報表示物の方を消去したり半透明化する処理を行う。一方、種類TPBは、例えば優先度や重要度が高い種類であるため、オブジェクトとの衝突が発生した場合に、情報表示物の表示態様は変更されない。例えば情報表示物の消去処理や半透明化処理は行われず、オブジェクトの方の消去処理や半透明化処理を行う。 For example, in the table data of FIG. 11A, the types TPA, TPB, and TPA are associated with the information display objects DSF1, DSF2, and DSF3. This table data is stored in the storage unit 170 of FIG. Since the type TPA is, for example, a type having a low priority or importance, the display mode of the information display object is changed when a collision (approach, interference) with an object occurs. For example, processing is performed to erase or make the information display object semi-transparent. On the other hand, since the type TPB is, for example, a type having a high priority or importance, the display mode of the information display object is not changed when a collision with an object occurs. For example, the information display object is not erased or translucently processed, but the object is erased or translucently processed.

図11(B)のテーブルデータでは、情報表示物DSG1、DSG2、DSG3に対して、その優先度(重要度)PRA、PRB、PRCが関連づけられている。このテーブルデータは図1の記憶部170に記憶される。そして情報表示物DSG1、DSG2、DSG3と他のオブジェクトの衝突が生じた場合には、DSG1、DSG2、DSG3の各情報表示物に関連づけられた優先度(重要度)PRA、PRB、PRCを用いて表示態様の変更処理を行う。例えば高い優先度(重要度)が関連づけられた情報表示物については、オブジェクトに対して衝突又は接近の位置関係になった場合にも、表示態様の変更処理は行わないようにする。そして例えばオブジェクトの方の表示態様を変更する。一方、低い優先度(重要度)が関連づけられた情報表示物については、オブジェクトに対して衝突又は接近の位置関係になった場合に、表示態様の変更処理を行う。そして例えばオブジェクトの方の表示態様は変更しないようにする。この場合に、オブジェクトに対しても優先度(重要度)を関連づけておき、情報表示物に関連づけられた優先度(重要度)と、オブジェクトに関連づけられた優先度(重要度)との比較処理を行うようにしてもよい。そして比較処理の結果に基づいて、表示態様の変更処理を行う。例えば情報表示物の方がオブジェクトよりも優先度(重要度)が高い場合には、オブジェクトの方の表示態様を変更する。一方、オブジェクトの方が情報表示物よりも優先度(重要度)が高い場合には、情報表示物の方の表示態様を変更する。 In the table data of FIG. 11B, the priority (importance) PRA, PRB, and PRC are associated with the information display objects DSG1, DSG2, and DSG3. This table data is stored in the storage unit 170 of FIG. Then, when a collision between the information display objects DSG1, DSG2, DSG3 and another object occurs, the priority (importance) PRA, PRB, and PRC associated with each of the information display objects DSG1, DSG2, and DSG3 are used. The display mode is changed. For example, for an information display object to which a high priority (importance) is associated, the display mode is not changed even when the object is in a positional relationship of collision or approach. Then, for example, the display mode of the object is changed. On the other hand, for the information display object associated with a low priority (importance), the display mode is changed when the object is in a positional relationship of collision or approach. And, for example, the display mode of the object is not changed. In this case, the priority (importance) is also associated with the object, and the priority (importance) associated with the information display object is compared with the priority (importance) associated with the object. You may try to do. Then, based on the result of the comparison process, the display mode is changed. For example, when the information display object has a higher priority (importance) than the object, the display mode of the object is changed. On the other hand, when the object has a higher priority (importance) than the information display object, the display mode of the information display object is changed.

このように本実施形態では、情報表示物の種類、優先度又は重要度に応じた適切な表示態様の変更処理を実現できるようになる。例えば特定の種類の情報表示物については、オブジェクトとの間で衝突又は接近の位置関係になった場合にも、オブジェクトについてだけ表示態様を変更したり、逆に情報表示物についてだけ表示態様を変更できるようになる。或いは、情報表示物により提示される情報の優先度や重要度が高い場合には、オブジェクトとの間で衝突又は接近の位置関係になった場合にも、情報表示物については表示態様を変更せず、オブジェクトについてだけ表示態様を変更できるようになる。 As described above, in the present embodiment, it is possible to realize an appropriate display mode change process according to the type, priority or importance of the information display object. For example, for a specific type of information display object, the display mode is changed only for the object, or conversely, the display mode is changed only for the information display object even when there is a collision or approach positional relationship with the object. become able to. Alternatively, if the priority or importance of the information presented by the information display object is high, change the display mode of the information display object even if there is a collision or approach positional relationship with the object. Instead, the display mode can be changed only for the object.

また本実施形態では、図11(B)に示すように情報表示物に関連づけられた優先度又は重要度を用いて、表示態様の変更処理を行っている。このようにすれば、情報表示物に対して予め優先度又は重要度を関連づけておき、この優先度又は重要度を用いて適切な表示態様の変更処理を実行できるようになる。 Further, in the present embodiment, as shown in FIG. 11B, the display mode is changed by using the priority or importance associated with the information display object. In this way, the priority or importance can be associated with the information display object in advance, and the appropriate display mode change process can be executed using this priority or importance.

例えば図4〜図6において、コマンド選択のための情報表示物(DSD1、DSD2、DSE1〜DSE3)は、優先度又は重要度が高い情報表示物である。例えばユーザの視線方向が変化することで、情報表示物とオブジェクトが衝突又は接近の位置関係になった場合に、コマンド選択のための情報表示物が消去又は半透明化されてしまうと、ユーザがコマンドを選択(入力)できなくなってしまい、ゲーム進行が停止してしまう。従って、このようなコマンド選択のための情報表示物に対しては、高い優先度又は重要度を関連づけておき、オブジェクトに対して衝突又は接近の位置関係になった場合には、情報表示物の方の消去処理や半透明化処理は行わずに、オブジェクトの方の消去処理や半透明化処理を行うようにする。 For example, in FIGS. 4 to 6, the information display objects (DSD1, DSD2, DSE1 to DSE3) for command selection are information display objects having high priority or importance. For example, when the information display object and the object collide or approach each other due to a change in the user's line-of-sight direction, the information display object for command selection is erased or translucent. You will not be able to select (input) commands, and the game will stop progressing. Therefore, a high priority or importance is associated with the information display object for such command selection, and when the positional relationship of collision or approach with the object occurs, the information display object is used. Do not perform the erasing process or semi-transparency processing of the object, but perform the erasing process or semi-transparency processing of the object.

一方、説明表示のための情報表示物(DSA)は、優先度又は重要度がそれほど高くない情報表示物であり、オブジェクトに対して衝突又は接近の位置関係になった場合に、説明表示のための情報表示物が消去又は半透明化されても、ゲーム進行にはそれほど支障を来さない。従って、このような説明表示のための情報表示物に対しては、低い優先度又は重要度を関連づけておき、オブジェクトに対して衝突又は接近の位置関係になった場合には、情報表示物の消去処理や半透明化処理を行うようにする。このようにすることで、情報表示物の優先度又は重要度を反映した適切な表示処理を実現できるようになる。 On the other hand, the information display object (DSA) for displaying the explanation is an information display object having a low priority or importance, and is used for displaying the explanation when the object is in a positional relationship of collision or approach. Even if the information display object is erased or made semi-transparent, it does not hinder the progress of the game so much. Therefore, a low priority or importance is associated with such an information display object for explanatory display, and when a collision or approaching positional relationship is reached with respect to the object, the information display object is used. Perform erasing processing and semi-transparency processing. By doing so, it becomes possible to realize an appropriate display process that reflects the priority or importance of the information display object.

また本実施形態では、情報表示物が表示されてからの経過時間に応じた表示態様の変更処理を行ってもよい。 Further, in the present embodiment, the display mode may be changed according to the elapsed time from the display of the information display object.

例えば図12において、情報表示物DSH1、DSH2は、表示されてから、長い経過時間TE1、TE2が経過したタイミングで、表示態様変更処理の対象となっている。一方、情報表示物DSH3は、表示されてから、短い経過時間TE3が経過したタイミングで、表示態様変更処理の対象となっている。この場合に、表示されてからの経過時間TE1、TE2が長い情報表示物DSH1、DSH2に対しては、消去、半透明化等の表示態様の変更処理を行う。一方、表示されてからの経過時間TE3が短い情報表示物DSH3に対しては、消去、半透明化等の表示態様の変更処理を行わないようにする。 For example, in FIG. 12, the information display objects DSH1 and DSH2 are subject to the display mode change processing at the timing when a long elapsed time TE1 and TE2 have elapsed since they were displayed. On the other hand, the information display object DSH3 is subject to the display mode change process at the timing when a short elapsed time TE3 has elapsed since it was displayed. In this case, the information display objects DSH1 and DSH2 having a long elapsed time TE1 and TE2 after being displayed are subjected to display mode change processing such as erasing and translucency. On the other hand, for the information display object DSH3 having a short elapsed time TE3 after being displayed, the display mode change processing such as erasing and semi-transparency is not performed.

例えば、表示されてからの経過時間TE1、TE2が長い情報表示物DSH1、DSH2については、この長い経過時間TE1、TE2の間に、ユーザがこれらの情報表示物DSH1、DSH2を見ている可能性が高く、情報表示物DSH1、DSH2による情報伝達は十分に行われていると考えられる。従って、このような情報表示物DSH1、DSH2については、オブジェクトに対して衝突又は接近の位置関係になった場合に、消去又は半透明化等の表示態様の変更処理を行う。 For example, for the information displays DSH1 and DSH2 having long elapsed times TE1 and TE2 after being displayed, there is a possibility that the user is viewing these information displays DSH1 and DSH2 during the long elapsed times TE1 and TE2. It is considered that the information transmission by the information display objects DSH1 and DSH2 is sufficiently performed. Therefore, with respect to such information display objects DSH1 and DSH2, when the positional relationship of collision or approach with respect to the object occurs, the display mode is changed such as erasure or translucency.

一方、表示されてからの経過時間TE3が短い情報表示物DSH3については、短い経過時間TE3の間に、ユーザが情報表示物DSH3を十分に見ている可能性が低く、情報表示物DSH3による情報伝達は不十分であると考えられる。従って、このような情報表示物DSH3については、オブジェクトに対して衝突又は接近の位置関係になった場合に、消去又は半透明化等の表示態様の変更処理を行わないようにする。 On the other hand, for the information display object DSH3 having a short elapsed time TE3 since it is displayed, it is unlikely that the user has sufficiently viewed the information display object DSH3 during the short elapsed time TE3, and the information by the information display object DSH3 Communication is considered inadequate. Therefore, with respect to such an information display object DSH3, when the object is in a positional relationship of collision or approach, the display mode change processing such as erasing or translucency is not performed.

即ち、多数の情報表示物が表示されている場合に、オブジェクトに対して衝突又は接近の位置関係になった全ての情報表示物を、消去又は半透明化してしまうと、情報表示物による情報伝達が不十分になってしまう問題が生じてしまう。この点、図12の手法によれば、表示されてからの経過時間を判断材料にして、表示態様の変更処理を行うか否かを決定しているため、このような問題の発生を効果的に防止できる。 That is, when a large number of information display objects are displayed, if all the information display objects that collide with or approach the object are erased or made translucent, the information transmission by the information display objects is performed. Will be inadequate. In this regard, according to the method of FIG. 12, since it is determined whether or not to perform the display mode change process by using the elapsed time from the display as a judgment material, it is effective to cause such a problem. Can be prevented.

3.3 表示態様の変更処理、位置関係の判定の具体例
次に表示態様の変更処理や、位置関係の判定の具体例について説明する。例えば表示態様の変更処理としては、情報表示物又はオブジェクトの消去処理又は半透明化処理、ユーザの視線方向への情報表示物の追従の解除処理、情報表示物又はオブジェクトの移動処理、或いは情報表示物又はオブジェクトのサイズ変更処理などがある。
3.3 Specific examples of display mode change processing and positional relationship determination Next, specific examples of display mode change processing and positional relationship determination will be described. For example, as the display mode change process, the information display object or object is erased or translucently processed, the tracking of the information display object in the user's line of sight is canceled, the information display object or object is moved, or the information display is performed. There is a process of resizing an object or an object.

例えば図13(A)では、表示態様の変更処理として、情報表示物DS又はオブジェクトOBの消去処理又は半透明化処理を行っている。例えば情報表示物DSとオブジェクトOBが衝突又は接近の位置関係になった場合に、いずれか一方を消去したり、半透明化する処理を行う。 For example, in FIG. 13A, as the display mode change process, the information display object DS or the object OB is erased or translucent. For example, when the information display object DS and the object OB are in a positional relationship of collision or approach, one of them is erased or semi-transparent is performed.

図13(B)、図13(C)では、表示態様の変更処理として、ユーザPLの視線方向VLへの情報表示物DSの追従の解除処理を行っている。例えば本実施形態では図8(A)〜図8(D)で説明したように、情報表示物DSは、ユーザPLの視線方向VLの変化に追従するように制御される。 In FIGS. 13 (B) and 13 (C), as a process of changing the display mode, a process of canceling the tracking of the information display object DS in the line-of-sight direction VL of the user PL is performed. For example, in the present embodiment, as described with reference to FIGS. 8A to 8D, the information display object DS is controlled so as to follow the change in the line-of-sight direction VL of the user PL.

これに対して、図13(B)では、情報表示物DSとオブジェクトOBが衝突又は接近の位置関係になった場合に、この追従の制御を解除する。これにより図13(C)に示すようにユーザPLの視線方向VLが変化した場合にも、情報表示物DSの位置は変化しないようになる。従って、情報表示物DSがオブジェクトOBに衝突してめり込んでしまうなどの不具合の発生を防止できる。 On the other hand, in FIG. 13B, when the information display object DS and the object OB collide or approach each other, the tracking control is released. As a result, even when the line-of-sight direction VL of the user PL changes as shown in FIG. 13C, the position of the information display object DS does not change. Therefore, it is possible to prevent the occurrence of problems such as the information display object DS colliding with the object OB and being sunk into it.

また図14(A)では、情報表示物DSとオブジェクトOBが衝突又は接近の位置関係になった場合に、両者が離れるように例えば情報表示物DSを移動している。例えば図14(A)では情報表示物DSの右側にオブジェクトOBが位置しているため、情報表示物DSを左方向に移動して、両者が離れるようにする。これにより、情報表示物DSとオブジェクトOBが衝突又は接近の位置関係になった場合にも、移動により両者が離れることで、より適切な画像を表示できるようになる。なお図14(A)では情報表示物DSの方を移動させているが、オブジェクトOBの方を移動してもよい。具体的にはオブジェクトOBを右方向に移動して、情報表示物DSとオブジェクトOBが離れるようにする。 Further, in FIG. 14A, when the information display object DS and the object OB are in a positional relationship of collision or approach, for example, the information display object DS is moved so as to separate them. For example, in FIG. 14A, since the object OB is located on the right side of the information display object DS, the information display object DS is moved to the left so that the two are separated from each other. As a result, even when the information display object DS and the object OB are in a positional relationship of collision or approach, a more appropriate image can be displayed by separating them by movement. Although the information display object DS is moved in FIG. 14A, the object OB may be moved. Specifically, the object OB is moved to the right so that the information display object DS and the object OB are separated from each other.

図14(B)では、情報表示物DSとオブジェクトOBが衝突又は接近の位置関係になった場合に、情報表示物DSのサイズを変更している。例えば情報表示物DSのサイズを小さくすることで、情報表示物DSの右側端部とオブジェクトOBの左側端部の間の距離が離れ、両者の衝突が解消される。なおオブジェクトOBの方のサイズを小さくしてもよい。 In FIG. 14B, the size of the information display object DS is changed when the information display object DS and the object OB are in a positional relationship of collision or approach. For example, by reducing the size of the information display object DS, the distance between the right end portion of the information display object DS and the left end portion of the object OB is increased, and the collision between the two is eliminated. The size of the object OB may be reduced.

図14(C)では、情報表示物DSの方がオブジェクトOBよりも、ユーザの視点に対して手前側に位置する位置関係となっている。この場合には表示態様の変更処理として、例えば情報表示物DSのサイズを小さくする処理を行う。こうすることで、情報表示物DSに隠れてオブジェクトOBが見えなくなってしまう事態の発生を防止できる。なお、オブジェクトOBの方が情報表示物DSよりも手前側に位置する位置関係の場合には、オブジェクトOBの方のサイズを小さくしてもよい。 In FIG. 14C, the information display object DS has a positional relationship of being located closer to the user's viewpoint than the object OB. In this case, as a process of changing the display mode, for example, a process of reducing the size of the information display object DS is performed. By doing so, it is possible to prevent the occurrence of a situation in which the object OB is hidden behind the information display object DS and cannot be seen. If the object OB is located closer to the information display object DS, the size of the object OB may be reduced.

次に情報表示物とオブジェクトの位置関係の判定の具体例について説明する。本実施形態では図1の判定部115が情報表示物とオブジェクトの位置関係を判定し、判定部115により接近又は衝突の位置関係になったと判定された場合に、情報表示物又はオブジェクトの表示態様の変更処理が行われる。具体的には判定部115は、情報表示物とオブジェクトの3次元座標値、情報表示物とオブジェクトの奥行き値、又は情報表示物とオブジェクトを平面に投影した場合の2次元座標値に基づいて、このような位置関係を判定する。 Next, a specific example of determining the positional relationship between the information display object and the object will be described. In the present embodiment, the determination unit 115 of FIG. 1 determines the positional relationship between the information display object and the object, and when the determination unit 115 determines that the information display object or the object has a positional relationship of approach or collision, the display mode of the information display object or the object. Change processing is performed. Specifically, the determination unit 115 is based on the three-dimensional coordinate values of the information display object and the object, the depth value of the information display object and the object, or the two-dimensional coordinate value when the information display object and the object are projected on a plane. Such a positional relationship is determined.

例えば図15(A)では、情報表示物DSの3次元座標値(XA、YA、ZA)とオブジェクトOBの3次元座標値(XB、YB、ZB)を用いて、両者が接近の位置関係になったか否かを判定している。具体的には、これらの3次元座標値に加えて、情報表示物DS、オブジェクトOBのサイズ情報や形状情報を用いて、接近の位置関係を判定する。例えば情報表示物DSの端部(例えば右側端部)とオブジェクトOBの端部(例えば左側端部)の間の距離が所定距離以下になったか否かを判定することで、接近の位置関係を判定できる。或いは、情報表示物DS、オブジェクトOBを構成するポリゴンの複数の頂点の3次元座標値に基づいて、接近の位置関係を判定してもよい。 For example, in FIG. 15 (A), the three-dimensional coordinate values (XA, YA, ZA) of the information display object DS and the three-dimensional coordinate values (XB, YB, ZB) of the object OB are used to establish a positional relationship between the two. It is judged whether or not it has become. Specifically, in addition to these three-dimensional coordinate values, the positional relationship of approach is determined by using the size information and shape information of the information display object DS and the object OB. For example, by determining whether or not the distance between the end of the information display object DS (for example, the right end) and the end of the object OB (for example, the left end) is equal to or less than a predetermined distance, the positional relationship of approach can be determined. Can be judged. Alternatively, the positional relationship of approach may be determined based on the three-dimensional coordinate values of a plurality of vertices of the polygons constituting the information display object DS and the object OB.

図15(B)では、情報表示物DSの3次元座標値(XA、YA、ZA)とオブジェクトOBの3次元座標値(XB、YB、ZB)を用いて、両者が衝突の位置関係になったか否かを判定している。この衝突の位置関係の判定は、公知のコリジョン処理(ヒット判定)により実現できる。例えば公知のコリジョン処理により、情報表示物DSとオブジェクトOBが交差したか否かを判定することで、衝突の位置関係の判定を実現できる。 In FIG. 15B, the three-dimensional coordinate values (XA, YA, ZA) of the information display object DS and the three-dimensional coordinate values (XB, YB, ZB) of the object OB are used, and the two are in a collision positional relationship. It is judged whether or not it is. The determination of the positional relationship of the collision can be realized by a known collision process (hit determination). For example, by determining whether or not the information display object DS and the object OB intersect by a known collision process, it is possible to determine the positional relationship of the collision.

図16(A)、図16(B)では、情報表示物DSの奥行き値ZA(Z値)とオブジェクトOBの奥行き値ZBを用いて、両者の位置関係を判定している。例えば図16(A)では、ZA<ZBとなっており、ユーザの視点から見て情報表示物DSの方がオブジェクトOBよりも手前側に位置する位置関係であると判定されている。このため、情報表示物DSの方の表示態様を変更する。例えば情報表示物DSを消去又は半透明化する処理を行うことで、情報表示物DSに隠れてオブジェクトOBが見えなくなってしまう事態が防止される。一方、図16(B)では、ZA>ZBとなっており、ユーザの視点から見てオブジェクトOBの方が情報表示物DSよりも手前側に位置する位置関係であると判定されている。このため、オブジェクトOBの方の表示態様を変更する。例えばオブジェクトOBを消去又は半透明化する処理を行うことで、オブジェクトOBに隠れて情報表示物DSが見えなくなってしまう事態が防止される。 In FIGS. 16A and 16B, the positional relationship between the depth value ZA (Z value) of the information display object DS and the depth value ZB of the object OB is determined. For example, in FIG. 16A, ZA <ZB, and it is determined that the information display object DS is located in front of the object OB from the user's point of view. Therefore, the display mode of the information display object DS is changed. For example, by performing a process of erasing or making the information display object DS semi-transparent, it is possible to prevent a situation in which the object OB is hidden behind the information display object DS and cannot be seen. On the other hand, in FIG. 16B, ZA> ZB, and it is determined that the object OB is located on the front side of the information display object DS from the user's point of view. Therefore, the display mode of the object OB is changed. For example, by performing a process of erasing or translucenting the object OB, it is possible to prevent a situation in which the information display object DS is hidden behind the object OB and cannot be seen.

また図17(A)、図17(B)では、情報表示物DS、オブジェクトOBを、投影スクリーンなどの平面SPLに投影した場合の2次元座標値(平面SPLでのX、Y座標値)に基づいて、両者の位置関係を判定している。例えば図17(A)、図17(B)では、平面SPLにおいて情報表示物DSとオブジェクトOBとが重なっていると判定される。図17(A)では情報表示物DSの方が視点から見て手前側に位置し、図17(B)ではオブジェクトOBの方が視点から見て手前側に位置している。このような位置関係を判定して、情報表示物DS、オブジェクトOBの一方の表示態様を変更する。例えば図17(A)では、情報表示物DSを消去又は半透明化する処理を行うことで、情報表示物DSに隠れてオブジェクトOBの一部の画像が欠けてしまう事態が防止される。一方、図17(B)では、オブジェクトOBを消去又は半透明化する処理を行うことで、オブジェクトOBに隠れて情報表示物DSの一部の画像が欠けてしまう事態が防止される。 Further, in FIGS. 17 (A) and 17 (B), the two-dimensional coordinate values (X and Y coordinate values in the plane SPL) when the information display object DS and the object OB are projected onto the plane SPL such as a projection screen. Based on this, the positional relationship between the two is determined. For example, in FIGS. 17A and 17B, it is determined that the information display object DS and the object OB overlap on the plane SPL. In FIG. 17A, the information display object DS is located on the front side when viewed from the viewpoint, and in FIG. 17B, the object OB is located on the front side when viewed from the viewpoint. By determining such a positional relationship, one of the display modes of the information display object DS and the object OB is changed. For example, in FIG. 17A, by performing the process of erasing or making the information display object DS semi-transparent, it is possible to prevent a situation in which a part of the image of the object OB is lost behind the information display object DS. On the other hand, in FIG. 17B, by performing the process of erasing or translucenting the object OB, it is possible to prevent a situation in which a part of the image of the information display object DS is hidden behind the object OB and is missing.

以上のような位置関係の判定を行って、情報表示物又はオブジェクトの表示態様の変更処理を行うことで、両者の位置関係を考慮した適切な表示態様の変更処理を実現できるようになり、より適正な表示画像をHMDに表示できるようになる。 By determining the positional relationship as described above and performing the process of changing the display mode of the information display object or the object, it becomes possible to realize an appropriate process of changing the display mode in consideration of the positional relationship between the two. Appropriate display images can be displayed on the HMD.

3.4 コマンド処理
次に図6で説明した本実施形態のコマンド処理の詳細について説明する。これまでのキャラクタ等を用いたコミュニケーションゲームでは、いわゆる2次元のゲームが主流であり、ユーザとキャラクタとの位置関係や視線関係等の関係は考慮されていなかった。従って、例えば図6の「声をかける」というコマンドCM3をユーザが行使した場合に、ユーザとキャラクタの距離が近くても、或いは遠くても、このコマンドCM3により発動される効果が、同じになってしまう。このため、ユーザは、キャラクタとの距離感等を感じることができず、ユーザの仮想現実感を向上できないという課題がある。
3.4 Command processing Next, the details of the command processing of the present embodiment described with reference to FIG. 6 will be described. In conventional communication games using characters and the like, so-called two-dimensional games have been the mainstream, and relationships such as the positional relationship between the user and the character and the line-of-sight relationship have not been taken into consideration. Therefore, for example, when the user exercises the command CM3 "call out" in FIG. 6, the effect activated by this command CM3 is the same regardless of whether the distance between the user and the character is short or long. It ends up. Therefore, there is a problem that the user cannot feel a sense of distance from the character and cannot improve the virtual reality of the user.

そこで本実施形態では、ユーザとキャラクタとの位置関係や視線関係や注視状況などに応じて、コマンドの効果を変化させる手法を採用している。例えば本実施形態では、ユーザのゲームプレイの対象となるキャラクタの情報とユーザの視点情報とに応じたコマンドの効果を、発動させる。例えば、キャラクタの情報とユーザの視点情報とに応じて、コマンドの効果の度合いや、効果の内容を変化させる。具体的には、キャラクタの位置情報、方向情報、ゲームパラメータ情報、部位情報、姿勢情報又は種類情報であるキャラクタの情報と、ユーザの視点位置情報、視線方向情報又は仮想カメラ属性情報である視点情報とに応じたコマンドの効果を、発動させる。 Therefore, in the present embodiment, a method of changing the effect of the command is adopted according to the positional relationship between the user and the character, the line-of-sight relationship, the gaze state, and the like. For example, in the present embodiment, the effect of a command corresponding to the information of the character to be the target of the user's game play and the viewpoint information of the user is activated. For example, the degree of effect of the command and the content of the effect are changed according to the character information and the user's viewpoint information. Specifically, character information such as character position information, direction information, game parameter information, part information, posture information or type information, and viewpoint information such as user's viewpoint position information, line-of-sight direction information or virtual camera attribute information. Invokes the effect of the command according to.

図18(A)〜図19(B)は、ユーザPLとキャラクタCHとの位置関係情報に応じたコマンドの効果を、発動させる手法の説明図である。 18 (A) to 19 (B) are explanatory views of a method of invoking the effect of a command according to the positional relationship information between the user PL and the character CH.

例えば図18(A)、図18(B)では、ユーザPLとキャラクタCHとの位置関係情報に応じて、コマンドの効果の度合いを変化させている。ここでは、位置関係情報は、ユーザPLとキャラクタCHとの距離LCであり、この距離LCは、ユーザPLの視点情報である視点VPと、キャラクタCHの情報である位置PCに基づき求められるものである。なお位置関係情報は、ユーザPLの方向とキャラクタCHの方向の関係を表す情報であってもよい。 For example, in FIGS. 18A and 18B, the degree of effect of the command is changed according to the positional relationship information between the user PL and the character CH. Here, the positional relationship information is the distance LC between the user PL and the character CH, and this distance LC is obtained based on the viewpoint VP which is the viewpoint information of the user PL and the position PC which is the information of the character CH. is there. The positional relationship information may be information indicating the relationship between the direction of the user PL and the direction of the character CH.

そして図18(A)、図18(B)では、ユーザは「もっと集中!」というコマンドCM1を選択して、行使しているが、図18(A)ではユーザPLとキャラクタCHの距離LCは遠い。一方、図18(B)では距離LCは近い。 Then, in FIGS. 18A and 18B, the user selects and exercises the command CM1 "more concentrated!", But in FIG. 18A, the distance LC between the user PL and the character CH is far. On the other hand, in FIG. 18B, the distance LC is short.

この場合に本実施形態では、図18(A)、図18(B)のようにユーザが同じコマンドCM1を行使したとしても、距離LCに応じて、コマンドCM1により発動される効果の度合いを変化させている。例えば、図18(A)では距離LCが遠いため、これに応じてコマンドCM1の効果の度合いは低くなり、図18(B)では距離LCが近いため、これに応じてコマンドCM1の効果の度合いは高くなる。 In this case, in the present embodiment, even if the user exercises the same command CM1 as shown in FIGS. 18A and 18B, the degree of the effect activated by the command CM1 changes according to the distance LC. I'm letting you. For example, in FIG. 18 (A), since the distance LC is long, the degree of effect of the command CM1 is reduced accordingly, and in FIG. 18 (B), since the distance LC is short, the degree of effect of the command CM1 is correspondingly low. Will be higher.

具体的には、「もっと集中!」というコマンドCM1が行使された場合に、図18(A)では、距離LCが遠いため、A1に示すように、キャラクタCHの集中力のゲームパラメータの上昇の度合いが小さい。これに対して図18(B)では、距離LCが近いため、A2に示すように、キャラクタCHの集中力のゲームパラメータの上昇の度合いが大きくなる。 Specifically, when the command CM1 "more concentrated!" Is exercised, in FIG. 18 (A), since the distance LC is long, as shown in A1, the game parameter of the concentration power of the character CH increases. The degree is small. On the other hand, in FIG. 18B, since the distance LC is short, the degree of increase in the game parameter of the concentration power of the character CH becomes large as shown in A2.

このようにすれば、ユーザは、「もっと集中!」というコマンドCM1を行使する際に、キャラクタCHの近くに行って、当該コマンドCM1を行使することで、キャラクタCHの集中力を、より高めることが可能になる。従って、「もっと集中」という言葉を、キャラクタCHの近くに行って言ったような感覚を、ユーザに与えることができ、ユーザの仮想現実感を向上できる。 In this way, when the user exercises the command CM1 "more concentrated!", The user goes near the character CH and exercises the command CM1 to further enhance the concentration of the character CH. Becomes possible. Therefore, it is possible to give the user the feeling of saying the word "more concentrated" near the character CH, and it is possible to improve the virtual reality of the user.

図19(A)、図19(B)は、ユーザPLとキャラクタCHとの位置関係情報に応じて、コマンドの効果の内容を変化させている。即ち図18(A)、図18(B)では効果の度合いを変化させていたが、図19(A)、図19(B)では効果の内容を変化させている。 19 (A) and 19 (B) change the content of the effect of the command according to the positional relationship information between the user PL and the character CH. That is, the degree of the effect was changed in FIGS. 18 (A) and 18 (B), but the content of the effect was changed in FIGS. 19 (A) and 19 (B).

例えば図19(A)では、ユーザは、キャラクタCHとの距離LCが遠い状態で、「声をかける」というコマンドCM3を行使している。この場合には、ユーザの「声をかける」言葉として、例えば「おーい!」という音声が出力されたり、「おーい!」のテロップ(吹き出し)がゲーム画面上に表示される。 For example, in FIG. 19A, the user is exercising the command CM3 to "call out" in a state where the distance LC from the character CH is far. In this case, for example, a voice such as "Hey!" Is output as a user's "call out" word, or a telop (speech balloon) of "Hey!" Is displayed on the game screen.

一方、図19(B)では、ユーザは、キャラクタCHとの距離LCが近い状態で、「声をかける」というコマンドCM3を行使している。この場合には、ユーザの「声をかける」言葉として、例えば「だいじょうぶか!」「頑張ってるか?」という言葉の音声が出力されたり、これらの言葉のテロップがゲーム画面上に表示される。 On the other hand, in FIG. 19B, the user exercises the command CM3 "call out" while the distance LC from the character CH is close. In this case, as the user's "calling" words, for example, the voices of the words "OK!" And "Are you doing your best?" Are output, and the telops of these words are displayed on the game screen.

即ち、図19(A)では、「声をかける」というコマンドCM3の効果の内容が、「おーい!」という言葉の音声出力(テロップ表示)という内容になっている。これに対して、図19(B)では、距離LCが近づくことで、「だいじょうぶか!」「頑張ってるか?」という言葉の音声出力という内容に変化している。 That is, in FIG. 19A, the content of the effect of the command CM3 "call out" is the content of voice output (telop display) of the word "hey!". On the other hand, in FIG. 19B, as the distance LC gets closer, the content changes to the voice output of the words "OK!" And "Are you doing your best?".

このようにすれば、同じ「声をかける」というコマンドCM3であっても、ユーザPLとキャラクタCHとの位置関係に応じて、そのコマンドの効果の内容が変化するようになる。従って、ユーザの仮想現実感やゲーム表現のバラエティ度の向上等を図れる。 In this way, even with the same command CM3 of "calling out", the content of the effect of the command changes according to the positional relationship between the user PL and the character CH. Therefore, it is possible to improve the virtual reality of the user and the variety of game expressions.

図20(A)、図20(B)は、ユーザPLとキャラクタCHとの視線関係情報に応じたコマンドの効果を、発動させる手法の説明図である。 20 (A) and 20 (B) are explanatory views of a method of invoking the effect of a command according to the line-of-sight relationship information between the user PL and the character CH.

例えば図20(A)、図20(B)では、ユーザPLとキャラクタCHとの視線関係情報に応じて、コマンドの効果の度合いや効果の内容を変化させている。図20(A)、図20(B)では、視線関係情報は、ユーザPLの視線方向VLと、キャラクタCHの位置PCや視線方向VLCとの関係を表す情報である。 For example, in FIGS. 20A and 20B, the degree of effect of the command and the content of the effect are changed according to the line-of-sight relationship information between the user PL and the character CH. In FIGS. 20A and 20B, the line-of-sight relationship information is information representing the relationship between the line-of-sight direction VL of the user PL and the position PC of the character CH and the line-of-sight direction VLC.

そして図20(A)、図20(B)では、ユーザは「アドバイスをする」というコマンドCM5を選択して、行使しているが、図20(A)では、ユーザPLの視線方向VLはキャラクタCHの位置PCの方向を向いていない。これに対して、図20(B)では、ユーザPLの視線方向VLはキャラクタCHの位置PCの方向を向いている。また図20(A)では、ユーザPLの視線方向VLとキャラクタCHの視線方向VLCは合っていない。これに対して図20(B)では、視線方向VLとVLCが合っている。 Then, in FIGS. 20 (A) and 20 (B), the user selects and exercises the command CM5 "to give advice", but in FIG. 20 (A), the line-of-sight direction VL of the user PL is a character. CH position Not facing the direction of the PC. On the other hand, in FIG. 20B, the line-of-sight direction VL of the user PL faces the direction of the position PC of the character CH. Further, in FIG. 20A, the line-of-sight direction VL of the user PL and the line-of-sight direction VLC of the character CH do not match. On the other hand, in FIG. 20B, the line-of-sight direction VL and VLC match.

この場合に本実施形態では、図20(A)、図20(B)のようにユーザが同じコマンドCM5を行使したとしても、視線関係情報に応じて、コマンドCM2により発動される効果の度合いや効果の内容を変化させている。 In this case, in the present embodiment, even if the user exercises the same command CM5 as shown in FIGS. 20A and 20B, the degree of the effect activated by the command CM2 is determined according to the line-of-sight information. The content of the effect is changing.

例えば、図20(A)の視線関係の場合には、「アドバイスをする」というコマンドCM5の発動による効果の内容として、「普通のアドバイス」が行われる。例えば、普通の口調で、平凡な内容のアドバイスが行われる。そして、コマンドCM5による「普通のアドバイス」の効果として、キャラクタCHのゲームパラメータであるモチベーションは上昇するが、図20(A)では、B1に示すようにその上昇の度合いは小さい。 For example, in the case of the line-of-sight relationship shown in FIG. 20A, "ordinary advice" is given as the content of the effect of invoking the command CM5 to "give advice". For example, mediocre advice is given in a normal tone. Then, as an effect of "ordinary advice" by the command CM5, the motivation which is a game parameter of the character CH increases, but in FIG. 20A, the degree of the increase is small as shown in B1.

一方、図20(B)の視線関係の場合には、「アドバイスをする」というコマンドCM5の効果の内容として、「優しいアドバイス」が行われる。例えば、優しい口調で、やる気を出させるような内容のアドバイスが行われる。そして、コマンドCM5による「優しいアドバイス」の効果として、キャラクタCHのモチベーションが上昇するが、図20(B)では、B2に示すようにその上昇の度合いが大きい。 On the other hand, in the case of the line-of-sight relationship shown in FIG. 20B, "gentle advice" is given as the content of the effect of the command CM5 "give advice". For example, motivational advice is given in a gentle tone. Then, as an effect of the "gentle advice" by the command CM5, the motivation of the character CH increases, and in FIG. 20B, the degree of the increase is large as shown in B2.

このようにすれば、図20(A)のように、ユーザがキャラクタCHの方を見ずに、目をそらして、「アドバイスする」のコマンドCM5を行使した場合に比べて、図20(B)に示すように、ユーザがキャラクタCHの方をちゃんと見て、コマンドCM5を行使した場合の方が、より良い内容のアドバイスになると共に、アドバイスによる効果であるモチベーションの上昇度合いも大きくなる。従って、ユーザは、あたかも目の前にいる異性に向かって、アドバイスの言葉をかけているような感覚を感じることができ、ユーザの仮想現実感を大幅に向上できる。 In this way, as shown in FIG. 20 (A), as compared with the case where the user looks away from the character CH and exercises the “advice” command CM5, FIG. 20 (B). ), When the user looks at the character CH properly and exercises the command CM5, the advice has better content, and the degree of increase in motivation, which is the effect of the advice, also increases. Therefore, the user can feel as if he / she is giving advice to the opposite sex in front of him / her, and the virtual reality of the user can be greatly improved.

図21は、ユーザの注視情報に応じたコマンドの効果を、発動させる手法の説明図である。例えば図21では、ユーザが注視しているキャラクタCHの部位の情報である注視部位情報に応じたコマンドの効果を、発動させている。 FIG. 21 is an explanatory diagram of a method of invoking the effect of a command according to the gaze information of the user. For example, in FIG. 21, the effect of the command corresponding to the gaze part information, which is the information of the part of the character CH that the user is gaze at, is activated.

具体的には図21では、「つつく」というコマンドCM4を行使している。ここで、図21のC1に示すように、ユーザがキャラクタCHの部位である肩を注視しながら、「つつく」というコマンドCM4を行使したとする。この場合には、ユーザがキャラクタCHの肩をつつく場面を表現した画像(映像)が表示されるようになる。例えば、ユーザの手(オブジェクト)が画面上に現れ、この手がキャラクタCHの肩をつつくという画像が表示される。一方、図21のC2に示すように、ユーザがキャラクタCHの部位である頭(おでこ)を注視しながら、「つつく」というコマンドCM4を行使したとする。この場合には、ユーザがキャラクタCHの頭をつつく場面を表現した画像が表示されるようになる。例えば、ユーザの手が画面上に現れ、この手がキャラクタCHの頭をつつくという画像が表示される。 Specifically, in FIG. 21, the command CM4 "poke" is exercised. Here, as shown in C1 of FIG. 21, it is assumed that the user exercises the command CM4 of "poke" while gazing at the shoulder which is the part of the character CH. In this case, an image (video) expressing a scene in which the user pokes the shoulder of the character CH is displayed. For example, a user's hand (object) appears on the screen, and an image is displayed in which the hand pokes the shoulder of the character CH. On the other hand, as shown in C2 of FIG. 21, it is assumed that the user exercises the command CM4 "poke" while gazing at the head (forehead) which is the part of the character CH. In this case, an image representing a scene in which the user pokes the head of the character CH is displayed. For example, a user's hand appears on the screen, and an image is displayed in which the hand pokes the head of the character CH.

このようにすれば、同じ「つつく」というコマンドCM4を行使した場合にも、ユーザが注視するキャラクタCHの部位に応じて、異なる内容の動作の「つつく」が行われるようになる。そして、ユーザが注視する部分に対して、ユーザの動作が行われるようになるため、ユーザは、実際にキャラクタCHをつついているような感覚を感じることができ、ユーザの仮想現実感を向上できる。 By doing so, even when the same command CM4 of "poke" is exercised, "poke" of different contents of operation is performed according to the part of the character CH that the user is gazing at. Then, since the user's action is performed on the part that the user gazes at, the user can feel as if he / she is actually poking the character CH, and the virtual reality of the user can be improved. ..

以上のような本実施形態のコマンド処理の手法によれば、ユーザの仮想現実感を、より向上できるようになる。一方、本実施形態のようなコマンド処理の手法では、図6、図21に示すように多数の情報表示物が配置されて表示される。従って、情報表示物と仮想空間内の他のオブジェクトとの衝突等の問題が生じやすい。この点、本実施形態では、情報表示物とオブジェクトが衝突等の位置関係になった場合にも、情報表示物又はオブジェクトの表示態様を変更する処理が行われるため、より適切な表示画像をHMDに表示することが可能になる。 According to the command processing method of the present embodiment as described above, the virtual reality of the user can be further improved. On the other hand, in the command processing method as in the present embodiment, a large number of information display objects are arranged and displayed as shown in FIGS. 6 and 21. Therefore, problems such as collision between the information display object and other objects in the virtual space are likely to occur. In this regard, in the present embodiment, even when the information display object and the object have a positional relationship such as a collision, the process of changing the display mode of the information display object or the object is performed, so that a more appropriate display image can be displayed by the HMD. It becomes possible to display in.

3.5 処理例
次に本実施形態の処理例について図22のフローチャートを用いて説明する。まず、ユーザの視点情報のトラッキング情報を取得する(ステップS1)。例えば図2(A)〜図3(B)等で説明したトラッキング処理により得られたトラッキング情報を取得する。そして、取得されたトラッキング情報に基づいて、ユーザの視点変化に追従するように仮想カメラを制御する(ステップS2)。例えば現実世界においてユーザが上下左右方向に視線方向を向けた場合に、それに対応して仮想空間での仮想カメラの視線方向も上下左右方向に向くように、仮想カメラを制御する。また現実世界においてユーザの視点位置が上下左右方向に移動した場合に、それに対応して仮想空間での仮想カメラの視点位置も上下左右方向に移動するように、仮想カメラを制御する。
3.5 Processing Example Next, a processing example of the present embodiment will be described with reference to the flowchart of FIG. First, the tracking information of the user's viewpoint information is acquired (step S1). For example, the tracking information obtained by the tracking process described with reference to FIGS. 2 (A) to 3 (B) and the like is acquired. Then, based on the acquired tracking information, the virtual camera is controlled so as to follow the change in the viewpoint of the user (step S2). For example, when the user turns the line-of-sight direction in the vertical and horizontal directions in the real world, the virtual camera is controlled so that the line-of-sight direction of the virtual camera in the virtual space also faces the vertical and horizontal directions. Further, when the user's viewpoint position moves in the vertical and horizontal directions in the real world, the virtual camera is controlled so that the viewpoint position of the virtual camera in the virtual space also moves in the vertical and horizontal directions accordingly.

次に、情報表示物とオブジェクトの位置関係を判定する(ステップS3)。例えば図15(A)〜図17(B)で説明した手法により、両者の位置関係を判定する。そして、情報表示物とオブジェクトが衝突又は接近の位置関係になっているか否かを判断する(ステップS4)。そして衝突又は接近の位置関係になっている場合には、情報表示物又はオブジェクトの表示態様の変更処理を行う(ステップS5)。例えば図13(A)〜図14(C)で説明した表示態様の変更処理を行う。そして仮想空間において仮想カメラから見える画像を生成して、HMDに表示する(ステップS6)。例えば、仮想カメラから見える画像として、立体視の左目用、右目用の画像を生成して、HMDに表示する。 Next, the positional relationship between the information display object and the object is determined (step S3). For example, the positional relationship between the two is determined by the methods described in FIGS. 15 (A) to 17 (B). Then, it is determined whether or not the information display object and the object are in a positional relationship of collision or approach (step S4). Then, when there is a positional relationship of collision or approach, a process of changing the display mode of the information display object or the object is performed (step S5). For example, the display mode changing process described with reference to FIGS. 13 (A) to 14 (C) is performed. Then, an image that can be seen from the virtual camera in the virtual space is generated and displayed on the HMD (step S6). For example, as an image that can be seen from a virtual camera, stereoscopic left-eye and right-eye images are generated and displayed on the HMD.

なお、上記のように本実施形態について詳細に説明したが、本発明の新規事項および効果から実体的に逸脱しない多くの変形が可能であることは当業者には容易に理解できるであろう。従って、このような変形例はすべて本発明の範囲に含まれるものとする。例えば、明細書又は図面において、少なくとも一度、より広義または同義な異なる用語(視点変化、移動体、アイテム等)と共に記載された用語(視線方向の変化、キャラクタ、本等)は、明細書又は図面のいかなる箇所においても、その異なる用語に置き換えることができる。また仮想空間の設定処理、仮想カメラの制御処理、情報表示物の配置処理、表示態様の変更処理、位置関係の判定処理等も、本実施形態で説明したものに限定されず、これらと均等な手法・処理・構成も本発明の範囲に含まれる。また本発明は種々のゲームに適用できる。また本発明は、業務用ゲーム装置、家庭用ゲーム装置、又は多数のユーザが参加する大型アトラクションシステム等の種々のシミュレーションシステムに適用できる。 Although the present embodiment has been described in detail as described above, those skilled in the art will easily understand that many modifications that do not substantially deviate from the novel matters and effects of the present invention are possible. Therefore, all such modifications are included in the scope of the present invention. For example, in a specification or drawing, a term (change in line-of-sight direction, character, book, etc.) described at least once with a different term (viewpoint change, moving object, item, etc.) in a broader sense or synonymous is a specification or drawing. Can be replaced with the different term anywhere in. Further, the virtual space setting process, the virtual camera control process, the information display object placement process, the display mode change process, the positional relationship determination process, and the like are not limited to those described in the present embodiment, and are equivalent to these. The method, processing, and configuration are also included in the scope of the present invention. The present invention can also be applied to various games. Further, the present invention can be applied to various simulation systems such as a commercial game device, a home game device, or a large attraction system in which a large number of users participate.

DSA、DSB、DSC、DSD1、DSD2、DSE1〜DSE3 情報表示物、
DS、DS1、DS2 情報表示物、CH キャラクタ(移動体)、
BK 本(アイテム)、CT カーテン(固定物)、WL 壁(背景)、
OB、OB1、OB2 オブジェクト、PL ユーザ、VP 視点、VL 視線方向、
100 処理部、102 入力処理部、110 演算処理部、112 ゲーム処理部、
114 移動体処理部、115 判定部、116 仮想空間設定部、
118 仮想カメラ制御部、120 表示処理部、130 音処理部、
140 出力処理部、150 撮像部、151、152 第1、第2のカメラ、
160 操作部、166、167 ゲームコントローラ、
170 記憶部、172 オブジェクト情報記憶部、178 描画バッファ、
180 情報記憶媒体、192 音出力部、194 I/F部、
195 携帯型情報記憶媒体、196 通信部、
200 HMD(頭部装着型表示装置)、201〜209 受光素子、
210 センサ部、220 表示部、231〜238 発光素子、240 処理部、
260 ヘッドバンド、270 ヘッドホン、280、284 ベースステーション
DSA, DSB, DSC, DSD1, DSD2, DSE1-DSE3 information display,
DS, DS1, DS2 information display, CH character (moving body),
BK book (item), CT curtain (fixed object), WL wall (background),
OB, OB1, OB2 object, PL user, VP viewpoint, VL line-of-sight direction,
100 processing unit, 102 input processing unit, 110 arithmetic processing unit, 112 game processing unit,
114 Mobile processing unit, 115 Judgment unit, 116 Virtual space setting unit,
118 virtual camera control unit, 120 display processing unit, 130 sound processing unit,
140 output processing unit, 150 imaging unit, 151, 152 first and second cameras,
160 operation unit, 166, 167 game controller,
170 storage, 172 object information storage, 178 drawing buffer,
180 Information storage medium, 192 sound output section, 194 I / F section,
195 Portable information storage medium, 196 Communication unit,
200 HMD (Head-mounted display), 201-209 light receiving element,
210 sensor unit, 220 display unit, 231 to 238 light emitting element, 240 processing unit,
260 headband, 270 headphones, 280, 284 base station

Claims (14)

複数のオブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
頭部装着型表示装置を装着するユーザの視点に対応する仮想カメラの制御処理を行う仮想カメラ制御部と、
前記頭部装着型表示装置の表示画像として、前記仮想空間において前記仮想カメラから見える画像を生成する表示処理部と、
を含み、
前記仮想空間設定部は、
前記ユーザの視点変化に追従するように制御される少なくとも1つの情報表示物を前記仮想空間に配置し、
前記情報表示物毎に、前記情報表示物により提示される情報の重要度がどの程度なのかを示す重要度情報が関連づけられており、
前記表示処理部は、
前記情報表示物と前記仮想空間のオブジェクトとが所与の位置関係になった場合に、前記情報表示物に関連づけられた前記重要度情報を用いて、前記情報表示物又は前記オブジェクトの表示態様の変更処理を行うことを特徴とするシミュレーションシステム。
A virtual space setting unit that performs setting processing for a virtual space in which multiple objects are placed,
A virtual camera control unit that performs control processing of the virtual camera corresponding to the viewpoint of the user who wears the head-mounted display device,
A display processing unit that generates an image that can be seen from the virtual camera in the virtual space as a display image of the head-mounted display device.
Including
The virtual space setting unit
At least one information display object controlled to follow the change in the viewpoint of the user is arranged in the virtual space.
Each of the information display objects is associated with importance information indicating how important the information presented by the information display object is.
The display processing unit
When the information display object and the object in the virtual space have a given positional relationship, the information display object or the display mode of the object is used by using the importance information associated with the information display object. A simulation system characterized by performing change processing.
請求項1において、In claim 1,
前記情報表示物に対して前記重要度情報が関連づけられて記憶される記憶部を含み、 Including a storage unit in which the importance information is associated with the information display object and stored.
前記表示処理部は、 The display processing unit
前記記憶部において前記情報表示物に関連づけられた前記重要度情報を用いて、前記表示態様の変更処理を行うことを特徴とするシミュレーションシステム。 A simulation system characterized in that the display mode is changed by using the importance information associated with the information display object in the storage unit.
請求項1又は2において、In claim 1 or 2,
前記表示処理部は、 The display processing unit
前記情報表示物に対して重要度が高いことを示す前記重要度情報が関連づけられている場合には、前記オブジェクトの方の表示態様を変更し、前記情報表示物に対して重要度が低いことを示す前記重要度情報が関連づけられている場合には、前記情報表示物の方の表示態様を変更することを特徴とするシミュレーションシステム。 When the importance information indicating that the information display object has high importance is associated with the information display object, the display mode of the object is changed and the importance is low with respect to the information display object. When the importance information indicating the above is associated, the simulation system is characterized in that the display mode of the information display object is changed.
請求項1乃至のいずれかにおいて、
前記表示処理部は、
前記情報表示物が表示されてからの経過時間に応じた前記表示態様の変更処理を行うことを特徴とするシミュレーションシステム。
In any one of claims 1 to 3 ,
The display processing unit
A simulation system characterized in that the display mode is changed according to the elapsed time from the display of the information display object.
請求項1乃至のいずれかにおいて、
前記表示処理部は、
前記表示態様の変更処理として、
前記情報表示物又は前記オブジェクトの消去処理、前記情報表示物又は前記オブジェクトの半透明化処理、前記ユーザの視線方向への前記情報表示物の追従の解除処理、前記情報表示物又は前記オブジェクトの移動処理、前記情報表示物又は前記オブジェクトのサイズ変更処理、或いは前記情報表示物又は前記オブジェクトの色情報変更処理を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 4 ,
The display processing unit
As the process of changing the display mode,
Erase processing of the information display object or the object, translucency processing of the information display object or the object, cancellation processing of tracking of the information display object in the line-of-sight direction of the user, movement of the information display object or the object. A simulation system characterized by performing processing, resizing processing of the information display object or the object, or color information changing processing of the information display object or the object.
請求項1乃至のいずれかにおいて、
前記情報表示物は、説明表示のための表示物、ステータス表示のための表示物、会話表示のための表示物、コマンド選択のための表示物、又はメニュー表示のための表示物であることを特徴とするシミュレーションシステム。
In any of claims 1 to 5 ,
The information display object is a display object for explanation display, a display object for status display, a display object for conversation display, a display object for command selection, or a display object for menu display. A featured simulation system.
請求項1乃至のいずれかにおいて、
前記オブジェクトは、ゲームに登場する移動体、固定物、アイテム、又は背景のオブジェクトであることを特徴とするシミュレーションシステム。
In any of claims 1 to 6 ,
A simulation system characterized in that the object is a moving object, a fixed object, an item, or a background object appearing in a game.
請求項1乃至のいずれかにおいて、
前記情報表示物と前記オブジェクトの位置関係を判定する判定部を含み、
前記表示処理部は、
前記判定部により前記情報表示物と前記オブジェクトとが前記所与の位置関係になったと判定された場合に、前記表示態様の変更処理を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 7 ,
Includes a determination unit that determines the positional relationship between the information display object and the object.
The display processing unit
A simulation system characterized in that when the determination unit determines that the information display object and the object have a given positional relationship, the display mode is changed.
請求項において、
前記表示処理部は、
前記判定部により前記情報表示物と前記オブジェクトとが衝突の位置関係又は接近の位置関係になったと判定された場合に、前記表示態様の変更処理を行うことを特徴とするシミュレーションシステム。
In claim 8 .
The display processing unit
A simulation system characterized in that when the determination unit determines that the information display object and the object have a collision positional relationship or an approaching positional relationship, the display mode is changed.
請求項8又は9において、
前記判定部は、
前記情報表示物と前記オブジェクトの3次元座標値、前記情報表示物と前記オブジェクトの奥行き値、又は前記情報表示物と前記オブジェクトを平面に投影した場合の2次元座標値に基づいて、前記位置関係を判定することを特徴とするシミュレーションシステム。
In claim 8 or 9 ,
The determination unit
The positional relationship is based on the three-dimensional coordinate values of the information display object and the object, the depth value of the information display object and the object, or the two-dimensional coordinate values when the information display object and the object are projected on a plane. A simulation system characterized by determining.
請求項1乃至10のいずれかにおいて、
前記仮想空間設定部は、
前記ユーザの視線方向での所与の奥行き位置に、前記ユーザの視点変化に追従するように前記情報表示物を配置することを特徴とするシミュレーションシステム。
In any of claims 1 to 10 ,
The virtual space setting unit
A simulation system characterized in that the information display object is arranged at a given depth position in the line-of-sight direction of the user so as to follow a change in the viewpoint of the user.
請求項1乃至11のいずれかにおいて、
前記仮想カメラ制御部は、
前記ユーザの視点情報のトラッキング情報に基づいて、前記ユーザの視点変化に追従するように前記仮想カメラを制御することを特徴とするシミュレーションシステム。
In any of claims 1 to 11 ,
The virtual camera control unit
A simulation system characterized in that the virtual camera is controlled so as to follow a change in the viewpoint of the user based on tracking information of the viewpoint information of the user.
請求項1乃至12のいずれかにおいて、
ゲーム処理を行うゲーム処理部を含み、
前記ゲーム処理部は、
前記ユーザのゲームプレイの対象となるキャラクタの情報と前記ユーザの視点情報との応じたコマンドの効果を、発動させる処理を行うことを特徴とするシミュレーションシステム。
In any of claims 1 to 12 ,
Including the game processing unit that performs game processing
The game processing unit
A simulation system characterized in that a process of invoking the effect of a command corresponding to the information of a character to be the target of the game play of the user and the viewpoint information of the user is performed.
複数のオブジェクトが配置される仮想空間の設定処理を行う仮想空間設定部と、
頭部装着型表示装置を装着するユーザの視点に対応する仮想カメラの制御処理を行う仮想カメラ制御部と、
前記頭部装着型表示装置の表示画像として、前記仮想空間において前記仮想カメラから見える画像を生成する表示処理部として、
コンピュータを機能させ、
前記仮想空間設定部は、
前記ユーザの視点変化に追従するように制御される少なくとも1つの情報表示物を前記仮想空間に配置し、
前記情報表示物毎に、前記情報表示物により提示される情報の重要度がどの程度なのかを示す重要度情報が関連づけられており、
前記表示処理部は、
前記情報表示物と前記仮想空間のオブジェクトとが所与の位置関係になった場合に、前記情報表示物に関連づけられた前記重要度情報を用いて、前記情報表示物又は前記オブジェクトの表示態様の変更処理を行うことを特徴とするプログラム。
A virtual space setting unit that performs setting processing for a virtual space in which multiple objects are placed,
A virtual camera control unit that performs control processing of the virtual camera corresponding to the viewpoint of the user who wears the head-mounted display device,
As a display processing unit that generates an image that can be seen from the virtual camera in the virtual space as a display image of the head-mounted display device.
Make your computer work
The virtual space setting unit
At least one information display object controlled to follow the change in the viewpoint of the user is arranged in the virtual space.
Each of the information display objects is associated with importance information indicating how important the information presented by the information display object is.
The display processing unit
When the information display object and the object in the virtual space have a given positional relationship, the information display object or the display mode of the object is used by using the importance information associated with the information display object. A program characterized by performing change processing.
JP2018029370A 2018-02-22 2018-02-22 Simulation system and program Active JP6794390B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018029370A JP6794390B2 (en) 2018-02-22 2018-02-22 Simulation system and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018029370A JP6794390B2 (en) 2018-02-22 2018-02-22 Simulation system and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016179889A Division JP6298130B2 (en) 2016-09-14 2016-09-14 Simulation system and program

Publications (3)

Publication Number Publication Date
JP2018136944A JP2018136944A (en) 2018-08-30
JP2018136944A5 JP2018136944A5 (en) 2019-10-24
JP6794390B2 true JP6794390B2 (en) 2020-12-02

Family

ID=63366981

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018029370A Active JP6794390B2 (en) 2018-02-22 2018-02-22 Simulation system and program

Country Status (1)

Country Link
JP (1) JP6794390B2 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6710731B2 (en) * 2018-09-19 2020-06-17 株式会社コロプラ Program, information processing apparatus, and information processing method
KR102203371B1 (en) * 2018-11-30 2021-01-15 삼성물산 주식회사 Method and device to visualize image while operating ride in amusement park and method and device to manage corresponding device
JP7260763B2 (en) * 2019-03-26 2023-04-19 株式会社Mixi Information processing device and program

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5176112B2 (en) * 2008-07-03 2013-04-03 財団法人ヒューマンサイエンス振興財団 Control system and control method
JP5055402B2 (en) * 2010-05-17 2012-10-24 株式会社エヌ・ティ・ティ・ドコモ Object display device, object display system, and object display method
JP6007712B2 (en) * 2012-09-28 2016-10-12 ブラザー工業株式会社 Head mounted display, method and program for operating the same
JP6629499B2 (en) * 2014-06-09 2020-01-15 株式会社バンダイナムコエンターテインメント Program and image generation device

Also Published As

Publication number Publication date
JP2018136944A (en) 2018-08-30

Similar Documents

Publication Publication Date Title
JP6373920B2 (en) Simulation system and program
JP6298130B2 (en) Simulation system and program
JP6691351B2 (en) Program and game system
JP6306442B2 (en) Program and game system
JP6761340B2 (en) Simulation system and program
CN109643161A (en) Dynamic enters and leaves the reality environment browsed by different HMD users
US20190018479A1 (en) Program for providing virtual space, information processing apparatus for executing the program, and method for providing virtual space
US10894211B2 (en) Information processing method, apparatus, and system for executing the information processing method
JP6201028B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019175323A (en) Simulation system and program
JP6794390B2 (en) Simulation system and program
JP2019152899A (en) Simulation system and program
JP2019139424A (en) Simulation system and program
JP2020107123A (en) Program, information processing device, and method
JP7104539B2 (en) Simulation system and program
JP6622832B2 (en) Program and game system
JP6419268B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP2019030638A (en) Information processing method, device, and program for causing computer to execute information processing method
JP2018092592A (en) Information processing method, apparatus, and program for implementing that information processing method on computer
JP6392953B1 (en) Information processing method, apparatus, and program for causing computer to execute information processing method
JP7111848B2 (en) Program, Information Processing Apparatus, and Method
JP6392832B2 (en) Information processing method, apparatus, and program for causing computer to execute information processing method

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190910

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201013

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201111

R150 Certificate of patent or registration of utility model

Ref document number: 6794390

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250