JP6388270B1 - Information processing apparatus, information processing apparatus program, head mounted display, and display system - Google Patents

Information processing apparatus, information processing apparatus program, head mounted display, and display system Download PDF

Info

Publication number
JP6388270B1
JP6388270B1 JP2018005513A JP2018005513A JP6388270B1 JP 6388270 B1 JP6388270 B1 JP 6388270B1 JP 2018005513 A JP2018005513 A JP 2018005513A JP 2018005513 A JP2018005513 A JP 2018005513A JP 6388270 B1 JP6388270 B1 JP 6388270B1
Authority
JP
Japan
Prior art keywords
virtual
posture
control mode
display
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018005513A
Other languages
Japanese (ja)
Other versions
JP2019125169A (en
Inventor
小川 和宏
和宏 小川
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2018005513A priority Critical patent/JP6388270B1/en
Application granted granted Critical
Publication of JP6388270B1 publication Critical patent/JP6388270B1/en
Publication of JP2019125169A publication Critical patent/JP2019125169A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Testing, Inspecting, Measuring Of Stereoscopic Televisions And Televisions (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Abstract

【課題】仮想空間における仮想カメラの姿勢の変化以外の操作を行う。
【解決手段】制御プログラムPRGは、プロセッサ1000を、仮想空間SP-Vを仮想カメラCMで撮像した画像をHMD1に設けられた表示部12に表示させる表示制御部110と、HMD1の姿勢に関する姿勢情報Bを取得する姿勢情報取得部114として機能させ、表示制御部110は、仮想カメラCMの位置を仮想点Kを中心に姿勢情報Bに基づいて変化させ、仮想カメラCMの姿勢を姿勢情報Bに基づいて変化させる姿勢制御モードと、仮想点Kの位置を姿勢情報Bに基づいて変化させ、仮想カメラCMの位置を姿勢情報Bに基づいて変化させる位置制御モードとによる画像の表示が可能であり、姿勢制御モードによる画像の表示をしている場合において、姿勢情報Bの示す姿勢の変化量が基準量以上となったときに、制御モードを、姿勢制御モードから位置制御モードへと切り替える。
【選択図】図8
An operation other than a change in attitude of a virtual camera in a virtual space is performed.
A control program PRG causes a processor 1000 to display an image obtained by capturing a virtual space SP-V with a virtual camera CM on a display unit 12 provided in the HMD1, and attitude information regarding the attitude of the HMD1. The display control unit 110 changes the position of the virtual camera CM based on the posture information B around the virtual point K, and changes the posture of the virtual camera CM to the posture information B. It is possible to display an image in a posture control mode that changes based on posture information and a position control mode that changes the position of the virtual point K based on posture information B and changes the position of the virtual camera CM based on posture information B. When the image is displayed in the posture control mode, when the posture change amount indicated by the posture information B exceeds the reference amount, the control mode is changed to the posture control mode. Switching from mode to position control mode.
[Selection] Figure 8

Description

本発明は、情報処理装置、情報処理装置のプログラム、ヘッドマウントディスプレイ、及び、表示システムに関する。   The present invention relates to an information processing apparatus, a program for the information processing apparatus, a head mounted display, and a display system.

近年、ヘッドマウントディスプレイ(HMD:Head Mounted Display)が広く普及しつつある。HMDは、ユーザの頭部に装着され、ユーザの眼前に設けられた表示部に対して、例えば、仮想カメラで仮想空間を撮像した画像であって、両眼視差を利用した立体視画像等を表示する(例えば、特許文献1参照)。このようなHMDにおいては、一般的に、HMDの姿勢の変化に基づいて、仮想空間における仮想カメラの姿勢を変化させることで、ユーザが仮想空間の様々な方向を視認することを可能としている。   In recent years, a head mounted display (HMD) has been widely spread. The HMD is an image obtained by capturing a virtual space with a virtual camera, for example, a stereoscopic image using binocular parallax, etc., on a display unit that is mounted on the user's head and provided in front of the user's eyes. Display (for example, refer to Patent Document 1). In such an HMD, generally, the user can visually recognize various directions in the virtual space by changing the posture of the virtual camera in the virtual space based on the change in the posture of the HMD.

特開2016−115122号公報Japanese Patent Laid-Open No. 2006-115122

ところで、HMDを装着したユーザは、ユーザの眼前に設けられた表示部を目視しているため、表示部以外の部分を見ることが難しい場合がある。よって、HMDを装着したユーザにとって、例えば、手に持って操作されるコントローラ等の操作が負担となる場合がある。このため、例えば、HMDを利用したゲーム等において、HMDを装着したユーザに対して過大な負担をかけないためには、HMDの姿勢の変化により、ユーザからの多様な指示を受け付けることが好ましい。しかし、HMDの姿勢の変化により、ユーザからの指示を受け付ける場合、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが難しく、例えば、仮想空間における仮想カメラの位置の変化等の操作が困難となることがあった。   By the way, since the user wearing the HMD is viewing the display unit provided in front of the user's eyes, it may be difficult to see a part other than the display unit. Therefore, for a user wearing the HMD, for example, an operation of a controller or the like that is operated with a hand may be a burden. For this reason, for example, in a game using the HMD, in order not to place an excessive burden on the user wearing the HMD, it is preferable to accept various instructions from the user due to a change in the attitude of the HMD. However, when an instruction from the user is received due to a change in the attitude of the HMD, it is difficult to perform an operation other than a change in the attitude of the virtual camera in the virtual space. For example, an operation such as a change in the position of the virtual camera in the virtual space is performed. It could be difficult.

本発明は、上述した事情を鑑みてなされたものであり、HMDの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことを可能とする技術の提供を、解決課題の一つとする。   The present invention has been made in view of the above-described circumstances, and provides a technique that enables operations other than a change in the posture of a virtual camera in a virtual space due to a change in the posture of the HMD. One.

以上の課題を解決するために、本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。   In order to solve the above problems, a program for an information processing device according to one embodiment of the present invention is a program for an information processing device including a processor, and the processor is an image obtained by imaging a virtual space with a virtual camera. A display control unit that displays a stereoscopic image using binocular parallax on a display unit provided in a head-mounted display, and an acquisition unit that acquires posture information about the posture of the head-mounted display The display control unit changes the position of the virtual camera in the virtual space based on the posture information around a virtual point set in the virtual space, and the posture of the virtual camera in the virtual space The first control mode for changing the position based on the posture information and the position of the virtual point in the virtual space based on the posture information. And a second control mode that changes the position of the virtual camera in the virtual space based on the posture information, and can display an image in a plurality of control modes, according to the first control mode. In the case of displaying an image, the control mode is switched from the first control mode to the second control mode when a change amount of the posture indicated by the posture information becomes a reference amount or more. It is characterized by.

本発明の実施形態に係るヘッドマウントディスプレイ1の概要の一例を示す説明図である。It is explanatory drawing which shows an example of the outline | summary of the head mounted display 1 which concerns on embodiment of this invention. ヘッドマウントディスプレイ1の使用例を示す説明図である。It is explanatory drawing which shows the usage example of the head mounted display. 仮想空間SP-Vの一例を示す説明図である。It is explanatory drawing which shows an example of virtual space SP-V. 仮想空間SP-Vにおける仮想カメラCMの一例を示す説明図である。It is explanatory drawing which shows an example of the virtual camera CM in virtual space SP-V. 表示画像GHの一例を示す説明図である。It is explanatory drawing which shows an example of the display image GH. 視認画像GSの一例を示す説明図である。It is explanatory drawing which shows an example of the visual recognition image GS. 仮想空間SP-Vにおける仮想カメラCMの一例を示す説明図である。It is explanatory drawing which shows an example of the virtual camera CM in virtual space SP-V. 端末装置10の構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a configuration of a terminal device 10. FIG. 端末装置10のハードウェア構成の一例を示すブロック図である。2 is a block diagram illustrating an example of a hardware configuration of a terminal device 10. FIG. 端末装置10の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the terminal device 10. 端末装置10の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the terminal device 10. 端末装置10の動作の一例を示すフローチャートである。4 is a flowchart illustrating an example of the operation of the terminal device 10. 通常制御モードにおける仮想カメラCMの動作の一例を示す説明図である。It is explanatory drawing which shows an example of operation | movement of virtual camera CM in normal control mode. 視認画像GSの一例を示す説明図である。It is explanatory drawing which shows an example of the visual recognition image GS. 姿勢制御モードにおける仮想カメラCMの動作の一例を示す説明図である。It is explanatory drawing which shows an example of operation | movement of virtual camera CM in attitude | position control mode. 視認画像GSの一例を示す説明図である。It is explanatory drawing which shows an example of the visual recognition image GS. 位置制御モードにおける仮想カメラCMの動作の一例を示す説明図である。It is explanatory drawing which shows an example of operation | movement of virtual camera CM in position control mode. 視認画像GSの一例を示す説明図である。It is explanatory drawing which shows an example of the visual recognition image GS. 変形例1に係る端末装置10の動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of the terminal device 10 according to Modification 1. 変形例1に係る端末装置10の動作の一例を示すフローチャートである。10 is a flowchart illustrating an example of an operation of the terminal device 10 according to Modification 1. 変形例6に係る表示システムSYSの構成の一例を示すブロック図である。FIG. 16 is a block diagram illustrating an example of a configuration of a display system SYS according to Modification Example 6.

以下、本発明を実施するための形態について図面を参照して説明する。なお、各図において、各部の寸法及び縮尺は、実際のものと適宜に異ならせてある。また、以下に述べる実施の形態は、本発明の好適な具体例であるから、技術的に好ましい種々の限定が付されているが、本発明の範囲は、以下の説明において特に本発明を限定する旨の記載がない限り、これらの形態に限られるものではない。   Hereinafter, embodiments for carrying out the present invention will be described with reference to the drawings. In each figure, the size and scale of each part are appropriately changed from the actual ones. Further, since the embodiments described below are preferable specific examples of the present invention, various technically preferable limitations are attached thereto. However, the scope of the present invention is particularly limited in the following description. Unless otherwise stated, the present invention is not limited to these forms.

[1.実施形態]
以下、本発明の実施形態を説明する。
[1. Embodiment]
Embodiments of the present invention will be described below.

[1.1.ヘッドマウントディスプレイの概要]
以下、図1乃至図7を参照しながら、本実施形態に係るヘッドマウントディスプレイ1(以下、「HMD1」と称する)の概要の一例について説明する。
[1.1. Overview of head-mounted display]
Hereinafter, an example of the outline of the head mounted display 1 (hereinafter referred to as “HMD1”) according to the present embodiment will be described with reference to FIGS. 1 to 7.

図1は、本実施形態に係るHMD1の概要の一例を説明するための分解斜視図である。図2は、本実施形態に係るHMD1の利用イメージの一例を説明するための説明図である。   FIG. 1 is an exploded perspective view for explaining an example of the outline of the HMD 1 according to the present embodiment. FIG. 2 is an explanatory diagram for explaining an example of a usage image of the HMD 1 according to the present embodiment.

図1に示すように、本実施形態に係るHMD1は、端末装置10と、装着具90と、を有する。
端末装置10は、画像を表示するための表示部12を備える。本実施形態では、端末装置10としてスマートフォンを採用する場合を、一例として想定する。但し、端末装置10は、HMD1に設けられるための専用の表示デバイスであってもよい。
As shown in FIG. 1, the HMD 1 according to the present embodiment includes a terminal device 10 and a wearing tool 90.
The terminal device 10 includes a display unit 12 for displaying an image. In this embodiment, the case where a smart phone is employ | adopted as the terminal device 10 is assumed as an example. However, the terminal device 10 may be a dedicated display device for being provided in the HMD 1.

装着具90は、図2に示すように、HMD1をユーザUの頭部に装着するための構成要素である。
図1に示すように、装着具90は、HMD1をユーザUの頭部に装着するための一対のテンプル91L及び91Rと、端末装置10をHMD1に取り付けるための取付孔92と、ユーザUがHMD1を頭部に装着した場合に、ユーザUの両眼が存在する位置に対応するように設けられた一対の貫通孔92L及び92Rと、を備える。なお、貫通孔92L及び92Rの各々には、レンズが設けられていてもよい。そして、ユーザUが、HMD1を頭部に装着した場合、ユーザUの左眼は、貫通孔92Lを介して、または、取付孔92に設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができ、ユーザUの右目は、貫通孔92Rを介して、または、貫通孔92Rに設けられたレンズを介して、取付孔92に挿入された端末装置10が具備する表示部12を視認することができる。
The mounting tool 90 is a component for mounting the HMD 1 on the head of the user U as shown in FIG.
As shown in FIG. 1, the mounting tool 90 includes a pair of temples 91L and 91R for mounting the HMD 1 on the head of the user U, a mounting hole 92 for mounting the terminal device 10 to the HMD 1, and the user U using the HMD 1 Is mounted on the head, a pair of through holes 92L and 92R provided so as to correspond to the position where both eyes of the user U exist are provided. A lens may be provided in each of the through holes 92L and 92R. When the user U wears the HMD 1 on the head, the left eye of the user U is inserted into the mounting hole 92 through the through hole 92L or the lens provided in the mounting hole 92. The display unit 12 included in the terminal device 10 can be visually recognized, and the right eye of the user U is inserted into the attachment hole 92 through the through hole 92R or the lens provided in the through hole 92R. The display unit 12 included in the terminal device 10 can be viewed.

図2に示すように、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることにより、HMD1の姿勢を変化させることができる。以下では、説明の便宜上、HMD1に固定された座標系である装置座標系Σを導入する。
装置座標系Σとは、例えば、HMD1の所定箇所に原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。本実施形態では、図2に示すように、ユーザUがHMD1を装着した場合に、+X方向がユーザUから見て前方方向となり、+Y方向がユーザUから見て左手方向となり、+Z方向がユーザUから見て上方向となるように、装置座標系Σが設定されている場合を、一例として想定する。
As illustrated in FIG. 2, the user U wearing the HMD 1 on the head can change the posture of the HMD 1 by changing the posture of the head. For convenience of explanation, introducing device coordinate system sigma S is a coordinate system fixed to the HMD 1.
The device coordinate system sigma S, for example, has an origin at a predetermined position of the HMD 1, X S axis orthogonal to each other, Y S axis, and an orthogonal coordinate system of the three axes having a Z S axis. In the present embodiment, as shown in FIG. 2, when the user U wearing the HMD 1, + X S direction is the forward direction viewed from the user U, it becomes left direction + Y S direction as viewed from the user U, + Z S direction such that the upward direction as viewed from the user U, the case where the apparatus coordinate system sigma S is set, it is assumed as an example.

図2に示すように、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることで、X軸周りの回転方向、すなわち、ロール方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能であり、Y軸周りの回転方向、すなわち、ピッチ方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能であり、また、Z軸周りの回転方向、すなわち、ヨー方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能である。すなわち、HMD1を頭部に装着したユーザUは、頭部の姿勢を変化させることで、ロール方向Q、ピッチ方向Q、及び、ヨー方向Qの一部または全部を合成した任意の回転方向、すなわち、任意の回転軸W周りの回転方向QにHMD1が回転するように、HMD1の姿勢を変化させることが可能である。 As shown in FIG. 2, the user U wearing the HMD1 the head, by changing the posture of the head, the direction of rotation about X S axis, i.e., as HMD1 in the roll direction Q X rotates, it is possible to change the attitude of HMD1, the direction of rotation about Y S axis, i.e., as HMD1 the pitch direction Q Y is rotated, it is possible to change the attitude of HMD1, also, Z S direction of rotation about the axis, i.e., as HMD1 in the yaw direction Q Z is rotated, it is possible to change the attitude of HMD1. That is, the user U who wears the HMD 1 on the head can change the posture of the head so that any rotation in which a part or all of the roll direction Q X , the pitch direction Q Y , and the yaw direction Q Z is synthesized. direction, i.e., so HMD1 is rotated in the rotating direction Q W around any rotational axis W S, we are possible to change the attitude of HMD1.

端末装置10は、仮想空間SP-Vに存在する仮想的なカメラである仮想カメラCMにより、仮想空間SP-Vを撮像し、撮像結果を示す画像である表示画像GHを、表示部12に表示させる。   The terminal device 10 images the virtual space SP-V with the virtual camera CM, which is a virtual camera existing in the virtual space SP-V, and displays a display image GH that is an image indicating the imaging result on the display unit 12. Let

図3は、仮想空間SP-V及び仮想カメラCMを説明するための説明図である。   FIG. 3 is an explanatory diagram for explaining the virtual space SP-V and the virtual camera CM.

本実施形態では、図3に示すように、仮想空間SP-Vにおいて、仮想的なキャラクタV(「所定のオブジェクト」の一例)が存在する場合を、一例として想定する。また、本実施形態では、図3に示すように、仮想カメラCMが、左眼用の仮想カメラCM-Lと、右眼用の仮想カメラCM-Rとを含む場合を、一例として想定する。
また、以下では、説明の便宜上、図3に示すように、仮想空間SP-Vに固定された座標系である仮想空間座標系Σを導入する。仮想空間座標系Σとは、例えば、仮想空間SP-Vの所定箇所に原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。
In the present embodiment, as illustrated in FIG. 3, a case where a virtual character V (an example of “predetermined object”) exists in the virtual space SP-V is assumed as an example. Further, in the present embodiment, as illustrated in FIG. 3, it is assumed that the virtual camera CM includes a left-eye virtual camera CM-L and a right-eye virtual camera CM-R as an example.
In the following, for convenience of explanation, as shown in FIG. 3, to introduce a virtual space coordinate system sigma V is a coordinate system fixed in the virtual space SP-V. A virtual space coordinate system sigma V, for example, has an origin at a predetermined position in the virtual space SP-V, X V axes perpendicular to one another, Y V axis, and, in the orthogonal coordinate system of the three axes having a Z V axis is there.

図4は、仮想空間SP-Vを、+Z方向から平面視した場合の、仮想カメラCM及びキャラクタVの位置関係を説明するための説明図である。なお、図4では、仮想カメラCMが、キャラクタVを、キャラクタVの正面方向から撮像している場合を例示している。 4, the virtual space SP-V, when viewed in plan from the + Z V direction is an explanatory view for explaining the positional relationship between the virtual camera CM and the character V. FIG. 4 illustrates a case where the virtual camera CM images the character V from the front direction of the character V.

以下では、図4に示すように、仮想空間SP-Vにおける仮想カメラCM-Lの位置を、位置PC-Lと称し、仮想空間SP-Vにおける仮想カメラCM-Rの位置を、位置PC-Rと称し、位置PC-L及び位置PC-Rの中点を、位置PCと称する。
また、以下では、図4に示すように、仮想カメラCM-Lの光軸方向を、撮像方向LC-Lと称し、仮想カメラCM-Rの光軸方向を、撮像方向LC-Rと称し、撮像方向LC-Lを示すベクトルと、撮像方向LC-Rを示すベクトルとの和により示される方向を、撮像方向LCと称する。なお、本実施形態では、撮像方向LC-Lと撮像方向LC-Rとが、同一の方向である場合を想定する。このため、本実施形態では、撮像方向LCは、撮像方向LC-L及び撮像方向LC-Rと同一の方向となる。
なお、位置PCと交差し、撮像方向LCに延在する直線は、「基準直線」の一例である。
Hereinafter, as shown in FIG. 4, the position of the virtual camera CM-L in the virtual space SP-V is referred to as a position PC-L, and the position of the virtual camera CM-R in the virtual space SP-V is referred to as a position PC- The midpoint between the position PC-L and the position PC-R is referred to as R, and is referred to as position PC.
In the following, as shown in FIG. 4, the optical axis direction of the virtual camera CM-L is referred to as an imaging direction LC-L, and the optical axis direction of the virtual camera CM-R is referred to as an imaging direction LC-R. A direction indicated by the sum of a vector indicating the imaging direction LC-L and a vector indicating the imaging direction LC-R is referred to as an imaging direction LC. In the present embodiment, it is assumed that the imaging direction LC-L and the imaging direction LC-R are the same direction. For this reason, in the present embodiment, the imaging direction LC is the same direction as the imaging direction LC-L and the imaging direction LC-R.
A straight line that intersects the position PC and extends in the imaging direction LC is an example of a “reference straight line”.

図5は、仮想カメラCMが仮想空間SP-Vを撮像した結果である表示画像GHの一例を示す図である。なお、図5では、図4に示すように、仮想カメラCMが、キャラクタVを、キャラクタVの正面方向から撮像した場合を想定する。   FIG. 5 is a diagram illustrating an example of a display image GH that is a result of the virtual camera CM capturing the virtual space SP-V. 5, it is assumed that the virtual camera CM images the character V from the front direction of the character V as shown in FIG.

図5に示すように、表示部12のうち、貫通孔92Lを介して視認可能な左眼用視認領域12-Lには、仮想カメラCM-Lによる撮像結果、例えば、仮想カメラCM-LによりキャラクタVを撮像した結果であるキャラクタ画像GV-Lが表示される。また、表示部12のうち、貫通孔92Rを介して視認可能な右眼用視認領域12-Rには、仮想カメラCM-Rによる撮像結果、例えば、仮想カメラCM-RによりキャラクタVを撮像した結果であるキャラクタ画像GV-Rが表示される。
すなわち、ユーザUは、左眼によりキャラクタ画像GV-Lを視認し、右眼によりキャラクタ画像GV-Rを視認することができる。このため、ユーザUは、図6に例示するように、表示部12において、キャラクタV等の仮想空間SP-V内に存在する仮想的な物体を、立体的な3次元の物体として表した視認画像GSを視認することが可能となる。
As shown in FIG. 5, the left eye viewing area 12 -L visible through the through-hole 92 </ b> L in the display unit 12 is captured by the imaging result of the virtual camera CM-L, for example, the virtual camera CM-L. A character image GV-L that is the result of imaging the character V is displayed. In addition, in the display unit 12, in the right eye viewing area 12 -R visible through the through hole 92 R, the imaging result of the virtual camera CM-R, for example, the character V is captured by the virtual camera CM-R. The resulting character image GV-R is displayed.
That is, the user U can visually recognize the character image GV-L with the left eye and can visually recognize the character image GV-R with the right eye. Therefore, as illustrated in FIG. 6, the user U visually recognizes a virtual object existing in the virtual space SP-V such as the character V as a three-dimensional three-dimensional object on the display unit 12. The image GS can be visually recognized.

なお、以下では、説明の便宜上、図6に示すような、表示部12に固定された座標系である画面座標系Σを導入する。ここで、画面座標系Σとは、ユーザUが視認画像GSを視認している場合に、表示部12内の位置を表現するための座標系である。より具体的には、画面座標系Σとは、例えば、表示部12の所定箇所に原点を有し、互いに直交するY軸及びZ軸を有する2軸の直交座標系である。なお、本実施形態では、端末装置10が取付孔92に挿入されている場合、Y軸及びY軸は平行であり、また、Z軸及びZ軸は平行であることとする。
また、以下では、説明の便宜上、図7に例示するように、仮想空間SP-Vにおける、仮想カメラCMとキャラクタVとの相対的な位置関係を説明する場合に、2台の仮想カメラCM-L及びCM-Rを、1台の仮想カメラCMとして表現することとする。そして、以下では、仮想空間SP-Vにおける仮想カメラCMの位置が位置PCであり、仮想カメラCMの光軸方向が撮像方向LCであることと看做す。
また、以下では、説明の便宜上、図7に示すように、仮想空間SP-Vにおける仮想カメラCMに固定された座標系であるカメラ座標系Σを導入する。カメラ座標系Σとは、例えば、仮想空間SP-Vのうち仮想カメラCMの位置PCに原点を有し、互いに直交するX軸、Y軸、及び、Z軸を有する3軸の直交座標系である。本実施形態では、HMD1を装着したユーザUから見て、X軸がX軸と同一の方向であり、Y軸がY軸と同一の方向であり、Z軸がZ軸と同一の方向である場合を、一例として想定する。すなわち、本実施形態では、X軸が、仮想カメラCMの光軸方向に延在する場合を、一例として想定する。なお、図7では、カメラ座標系Σの原点と位置PCとを異なる位置として示しているが、これは図示の都合上であって、カメラ座標系Σの原点と位置PCとは同一の位置である(後述する図13、図15、及び、図17でも同様)。
In the following, for convenience of explanation, as shown in FIG. 6, to introduce the screen coordinate system sigma D is a fixed coordinate system on the display unit 12. Here, the screen coordinate system sigma D, when the user U is viewing a viewed image GS, which is a coordinate system for representing positions in the display unit 12. More specifically, the screen coordinate system sigma D, for example, has an origin at a predetermined position of the display unit 12, a two-axis orthogonal coordinate system having Y D axis and Z D axis orthogonal to each other. In the present embodiment, when the terminal device 10 is inserted into the mounting hole 92, Y D axis and Y S axis is parallel, also, it is assumed that Z D axis and Z S axis is parallel.
In the following, for convenience of explanation, as illustrated in FIG. 7, when the relative positional relationship between the virtual camera CM and the character V in the virtual space SP-V is described, two virtual cameras CM− are used. L and CM-R are expressed as one virtual camera CM. In the following description, the position of the virtual camera CM in the virtual space SP-V is the position PC, and the optical axis direction of the virtual camera CM is the imaging direction LC.
In the following, for convenience of explanation, as shown in FIG. 7, to introduce the camera coordinate system sigma C is a coordinate system fixed to the virtual camera CM in the virtual space SP-V. The camera coordinate system sigma C, for example, has an origin at the position PC of the virtual camera CM of the virtual space SP-V, X C axes perpendicular to one another, Y C-axis, and, the three axes having a Z C axis Cartesian coordinate system. In the present embodiment, as viewed from the user U wearing the HMD 1, a X C-axis X S axis in the same direction, Y C axis is the same direction as the Y S axis, Z C axis Z S axis As an example, the case where the direction is the same as is assumed. That is, in this embodiment, X C-axis, a case extending in the optical axis direction of the virtual camera CM, it is assumed as an example. In FIG. 7, is shown as position different origin of the camera coordinate system sigma C and position PC, this is a on for convenience of illustration, the same is the origin and the position PC of the camera coordinate system sigma C It is a position (the same applies to FIGS. 13, 15, and 17 described later).

[1.2.端末装置の構成]
以下、図8及び図9を参照しながら、端末装置10の構成の一例について説明する。
[1.2. Configuration of terminal device]
Hereinafter, an example of the configuration of the terminal device 10 will be described with reference to FIGS. 8 and 9.

図8は、端末装置10の構成の一例を示す機能ブロック図である。   FIG. 8 is a functional block diagram illustrating an example of the configuration of the terminal device 10.

図8に示すように、端末装置10は、端末装置10の各部を制御する制御部11と、画像を表示するための表示部12と、端末装置10のユーザUによる操作を受け付けるための操作部13と、端末装置10の姿勢変化を検出して検出結果を示す姿勢情報Bを出力する姿勢情報生成部14と、端末装置10の制御プログラムPRGを含む各種情報を記憶する記憶部15と、を備える。   As illustrated in FIG. 8, the terminal device 10 includes a control unit 11 that controls each unit of the terminal device 10, a display unit 12 that displays an image, and an operation unit that receives an operation performed by the user U of the terminal device 10. 13, a posture information generation unit 14 that detects posture change of the terminal device 10 and outputs posture information B indicating the detection result, and a storage unit 15 that stores various information including the control program PRG of the terminal device 10. Prepare.

本実施形態では、姿勢情報生成部14として、例えば、3軸の角速度センサ1002(図9参照)を採用する。具体的には、姿勢情報生成部14は、単位時間におけるロール方向Qの姿勢変化を検出するX軸角速度センサと、単位時間におけるピッチ方向Qの姿勢変化を検出するY軸角速度センサと、単位時間におけるヨー方向Qの姿勢変化を検出するZ軸角速度センサと、を備える。そして、姿勢情報生成部14は、X軸角速度センサ、Y軸角速度センサ、及び、Z軸角速度センサによる検出結果を示す姿勢情報Bを、周期的に出力する。 In the present embodiment, for example, a triaxial angular velocity sensor 1002 (see FIG. 9) is employed as the posture information generation unit 14. Specifically, the posture information generation unit 14 includes an X-axis angular velocity sensor for detecting a change in the attitude of the roll direction Q X per unit time, and Y-axis angular velocity sensor for detecting a posture change in the pitch direction Q Y per unit time, It comprises a Z-axis angular velocity sensor for detecting a posture change in the yaw direction Q Z in the unit time, the. The posture information generation unit 14 periodically outputs posture information B indicating detection results by the X-axis angular velocity sensor, the Y-axis angular velocity sensor, and the Z-axis angular velocity sensor.

制御部11は、姿勢情報Bを取得する姿勢情報取得部114(「取得部」の一例)と、姿勢情報Bに基づいて表示画像GHを生成する表示制御部110と、を備える。   The control unit 11 includes a posture information acquisition unit 114 (an example of “acquisition unit”) that acquires posture information B, and a display control unit 110 that generates a display image GH based on the posture information B.

表示制御部110は、モード指定部111と、仮想カメラ制御部112と、表示情報生成部113と、を備える。   The display control unit 110 includes a mode specifying unit 111, a virtual camera control unit 112, and a display information generation unit 113.

仮想カメラ制御部112は、姿勢情報Bに基づいて、仮想空間SP-Vにおける仮想カメラCMを制御する。なお、本実施形態において、仮想カメラ制御部112は、複数の制御モードによる仮想カメラCMの制御が可能である。具体的には、仮想カメラ制御部112は、通常制御モードによる仮想カメラCMの制御と、姿勢制御モードによる仮想カメラCMの制御と、位置制御モードによる仮想カメラCMの制御と、が可能である。
ここで、通常制御モードとは、仮想空間SP-Vにおける仮想カメラCMの位置PCを固定したままで、仮想カメラCMの姿勢を変化させるように、仮想カメラCMを制御する制御モードである。
また、姿勢制御モードとは、仮想空間SP-Vにおける仮想点Kを中心に仮想カメラCMを回転させることで、仮想空間SP-Vにおける仮想カメラCMの姿勢を変化させるように、仮想カメラCMを制御する制御モードである。
また、位置制御モードとは、仮想空間SP-Vにおける仮想カメラCMの姿勢を固定したままで、仮想カメラCMの位置PCを変化させるように、仮想カメラCMを制御する制御モードである。
Based on the attitude information B, the virtual camera control unit 112 controls the virtual camera CM in the virtual space SP-V. In the present embodiment, the virtual camera control unit 112 can control the virtual camera CM in a plurality of control modes. Specifically, the virtual camera control unit 112 can control the virtual camera CM in the normal control mode, control the virtual camera CM in the attitude control mode, and control the virtual camera CM in the position control mode.
Here, the normal control mode is a control mode for controlling the virtual camera CM so that the posture of the virtual camera CM is changed while the position PC of the virtual camera CM in the virtual space SP-V is fixed.
In the attitude control mode, the virtual camera CM is changed so that the attitude of the virtual camera CM in the virtual space SP-V is changed by rotating the virtual camera CM around the virtual point K in the virtual space SP-V. It is a control mode to control.
The position control mode is a control mode for controlling the virtual camera CM so that the position PC of the virtual camera CM is changed while the posture of the virtual camera CM in the virtual space SP-V is fixed.

モード指定部111は、姿勢情報Bに基づいて、仮想カメラ制御部112の制御モードを指定する。
表示情報生成部113は、仮想カメラCMによる仮想空間SP-Vの撮像結果を表す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる。
The mode specifying unit 111 specifies the control mode of the virtual camera control unit 112 based on the attitude information B.
The display information generation unit 113 generates display information DS representing the imaging result of the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby displaying the display image on the display unit 12. Display GH.

図9は、端末装置10のハードウェア構成の一例を示すハードウェア構成図である。   FIG. 9 is a hardware configuration diagram illustrating an example of a hardware configuration of the terminal device 10.

図9に示すように、端末装置10は、端末装置10の各部を制御するプロセッサ1000(「情報処理装置」の一例)と、各種情報を記憶するメモリ1001と、端末装置10の姿勢変化を検出して検出結果を示す姿勢情報Bを出力する角速度センサ1002と、各種画像を表示可能な表示装置1003と、端末装置10のユーザUによる操作を受け付けるための入力装置1004と、を備える。   As illustrated in FIG. 9, the terminal device 10 detects a change in attitude of the processor 1000 (an example of “information processing device”) that controls each unit of the terminal device 10, a memory 1001 that stores various types of information, and the terminal device 10. Then, an angular velocity sensor 1002 that outputs posture information B indicating the detection result, a display device 1003 that can display various images, and an input device 1004 for receiving an operation by the user U of the terminal device 10 are provided.

メモリ1001は、例えば、プロセッサ1000の作業領域として機能するRAM(Random Access Memory)等の揮発性メモリと、端末装置10の制御プログラムPRG等の各種情報を記憶するEEPROM(Electrically Erasable Programmable Read-Only Memory)等の不揮発性メモリとを含み、記憶部15として機能する。
プロセッサ1000は、例えば、CPU(Central Processing Unit)であり、メモリ1001に記憶された制御プログラムPRGを実行し、当該制御プログラムPRGに従って動作することで、制御部11として機能する。
角速度センサ1002は、上述の通り、X軸角速度センサ、Y軸角速度センサ、及び、Z軸角速度センサを備え、姿勢情報生成部14として機能する。
表示装置1003及び入力装置1004は、例えば、タッチパネルであり、表示部12及び操作部13として機能する。なお、表示装置1003及び入力装置1004は、別体として構成されていてもよい。また、入力装置1004は、タッチパネル、操作ボタン、キーボード、ジョイスティック、及び、マウス等のポインティングデバイスの一部または全部を含む、1または複数の機器から構成されるものであってもよい。
The memory 1001 includes, for example, a volatile memory such as a RAM (Random Access Memory) that functions as a work area of the processor 1000 and an EEPROM (Electrically Erasable Programmable Read-Only Memory) that stores various information such as the control program PRG of the terminal device 10. ) And the like, and functions as the storage unit 15.
The processor 1000 is a CPU (Central Processing Unit), for example, and functions as the control unit 11 by executing the control program PRG stored in the memory 1001 and operating according to the control program PRG.
As described above, the angular velocity sensor 1002 includes the X-axis angular velocity sensor, the Y-axis angular velocity sensor, and the Z-axis angular velocity sensor, and functions as the posture information generation unit 14.
The display device 1003 and the input device 1004 are touch panels, for example, and function as the display unit 12 and the operation unit 13. Note that the display device 1003 and the input device 1004 may be configured separately. The input device 1004 may be configured by one or a plurality of devices including part or all of a pointing device such as a touch panel, operation buttons, a keyboard, a joystick, and a mouse.

なお、プロセッサ1000は、CPUに加え、または、CPUに替えて、GPU(Graphics Processing Unit)、DSP(Digital Signal Processor)、または、FPGA(Field Programmable Gate Array)、等の、ハードウェアを含んで構成されるものであってもよい。この場合、プロセッサ1000により実現される制御部11の一部または全部は、DSP等のハードウェアにより実現されてもよい。   The processor 1000 includes hardware such as a GPU (Graphics Processing Unit), a DSP (Digital Signal Processor), or an FPGA (Field Programmable Gate Array) in addition to or instead of the CPU. It may be done. In this case, part or all of the control unit 11 realized by the processor 1000 may be realized by hardware such as a DSP.

[1.3.端末装置の動作]
以下、図10乃至図18を参照しながら、端末装置10の動作の一例について説明する。
[1.3. Operation of terminal device]
Hereinafter, an example of the operation of the terminal device 10 will be described with reference to FIGS. 10 to 18.

図10乃至図12は、端末装置10が表示部12に表示画像GHを表示させる表示処理を実行する場合における、端末装置10の動作の一例を示すフローチャートである。なお、本実施形態では、ユーザUが、表示処理を開始させる旨の所定の開始操作を操作部13から入力した場合に、端末装置10が、表示処理を開始させる。   FIGS. 10 to 12 are flowcharts illustrating an example of the operation of the terminal device 10 when the terminal device 10 performs a display process for displaying the display image GH on the display unit 12. In the present embodiment, when the user U inputs a predetermined start operation for starting the display process from the operation unit 13, the terminal device 10 starts the display process.

[1.3.1.通常制御モード]
図10に示すように、仮想カメラ制御部112は、表示処理が開始されると、仮想空間SP-Vにおける仮想カメラCMの姿勢を初期化する(S100)。
例えば、仮想カメラ制御部112は、ステップS100において、図7に示すように、仮想空間SP-Vにおける仮想カメラCMの撮像方向LCを、+X方向に設定する。換言すれば、仮想カメラ制御部112は、ステップS100において、+X方向と+X方向とが同一の方向になるように、カメラ座標系Σを設定する。
なお、仮想カメラ制御部112は、ステップS100において、仮想空間SP-Vにおける仮想カメラCMの位置PCを初期化してもよい。例えば、仮想カメラ制御部112は、ステップS100において、例えば、図7に示すように、仮想空間SP-Vにおける仮想カメラCMの位置PCを、キャラクタVの正面、すなわち、キャラクタVから見て−X方向の位置に設定してもよい。換言すれば、仮想カメラ制御部112は、ステップS100において、カメラ座標系ΣのX軸上にキャラクタVが存在するように、カメラ座標系Σを設定してもよい。
[1.3.1. Normal control mode]
As shown in FIG. 10, when the display process is started, the virtual camera control unit 112 initializes the attitude of the virtual camera CM in the virtual space SP-V (S100).
For example, in step S100, the virtual camera control unit 112 sets the imaging direction LC of the virtual camera CM in the virtual space SP-V to the + XV direction as shown in FIG. In other words, the virtual camera control section 112, in step S100, + X C as the direction and the + X V direction is the same direction, to set the camera coordinate system sigma C.
Note that the virtual camera control unit 112 may initialize the position PC of the virtual camera CM in the virtual space SP-V in step S100. For example, in step S100, the virtual camera control unit 112 displays the position PC of the virtual camera CM in the virtual space SP-V as viewed from the front of the character V, that is, as shown in FIG. You may set to the position of V direction. In other words, the virtual camera control section 112, in step S100, as the camera coordinate system sigma C of X C axis on the character V is present, it may be set the camera coordinate system sigma C.

次に、表示情報生成部113は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S102)。   Next, the display information generation unit 113 generates display information DS indicating a result of imaging the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby causing the display unit 12 to display the display information DS. On the other hand, the display image GH is displayed (S102).

次に、モード指定部111は、制御モードを通常制御モードに設定する(S104)。
また、仮想カメラ制御部112は、モード指定部111が、制御モードを通常制御モードに設定した際のHMD1の姿勢を、「初期姿勢」として定める(S106)。
なお、以下では、HMD1が初期姿勢である場合の装置座標系Σを、「初期座標系ΣS0」と称する。また、以下では、後述する図13に示すように、HMD1が初期姿勢である場合の仮想カメラCMの位置PCを、「初期位置PC0」と称し、HMD1が初期姿勢である場合の撮像方向LCを、「初期撮像方向LC0」と称し、HMD1が初期姿勢である場合のカメラ座標系Σを、「初期カメラ座標系ΣC0」と称する。
Next, the mode designating unit 111 sets the control mode to the normal control mode (S104).
Further, the virtual camera control unit 112 determines the attitude of the HMD 1 when the mode specifying unit 111 sets the control mode to the normal control mode as an “initial attitude” (S106).
In the following, the apparatus coordinate system Σ S when the HMD 1 is in the initial posture is referred to as “initial coordinate system Σ S0 ”. In the following, as shown in FIG. 13 to be described later, the position PC of the virtual camera CM when the HMD 1 is in the initial posture is referred to as “initial position PC 0”, and the imaging direction LC when the HMD 1 is in the initial posture. , referred to as "initial imaging direction LC0", the camera coordinate system sigma C when HMD1 is the initial position, it referred to as "initial camera coordinate system sigma C0".

次に、姿勢情報取得部114は、姿勢情報生成部14から姿勢情報Bを取得する(S108)。
そして、仮想カメラ制御部112は、ステップS108において姿勢情報取得部114が取得した姿勢情報Bに基づいて、HMD1の初期姿勢からの姿勢変化dB0を算出する(S110)。
なお、本実施形態において、仮想カメラ制御部112は、一例として、姿勢変化dB0を、初期座標系ΣS0から見た回転方向Qを規定する回転軸Wと、当該回転軸W周りの回転角度θと、により表現することとする。すなわち、本実施形態において、初期座標系ΣS0から見てHMD1が回転軸W周りに回転角度θだけ回転した場合、姿勢変化dB0が、初期座標系ΣS0における回転軸Wを示す方向ベクトルと、回転角度θを示す値と、を含むこととする。
但し、姿勢変化dB0は、他の任意の表現方法により表現されるものであってもよい。例えば、姿勢変化dB0は、初期座標系ΣS0から装置座標系Σへの姿勢変化を示す、3行3列の姿勢変換行列により表現されるものであってもよいし、初期座標系ΣS0から装置座標系Σへの姿勢変化を示す、クォータニオンにより表現されるものであってもよい。
また、以下では、HMD1が、回転軸W周りに回転角度θだけ回転した場合に、当該回転角度θを、「姿勢変化量」と称する場合がある。
Next, the posture information acquisition unit 114 acquires posture information B from the posture information generation unit 14 (S108).
Then, the virtual camera control unit 112 calculates the posture change dB0 from the initial posture of the HMD 1 based on the posture information B acquired by the posture information acquisition unit 114 in step S108 (S110).
In the present embodiment, the virtual camera control section 112, as an example, the posture change DB0, a rotary shaft W S which defines the direction of rotation Q W as seen from the initial coordinate system sigma S0, around the rotation axis W S a rotation angle theta W, and be represented by. That is, the direction indicated in the present embodiment, if HMD1 viewed from the initial coordinate system sigma S0 is rotated by the rotation angle theta W about an axis of rotation W S, the posture change DB0, the rotation axis W S in the initial coordinate system sigma S0 and comprise a vector, and a value indicating the rotation angle theta W.
However, the posture change dB0 may be expressed by any other expression method. For example, the posture change dB0 shows the posture change from the initial coordinate system sigma S0 to the apparatus coordinate system sigma S, may be those represented by the posture converting a 3 × 3 matrix, the initial coordinate system sigma S0 shows the change in the posture of the device coordinate system sigma S from or may be expressed by the quaternion.
In the following, HMD 1 is, when rotated by the rotation angle theta W about an axis of rotation W S, the rotation angle theta W, sometimes referred to as "the attitude change amount".

次に、仮想カメラ制御部112は、ステップS110において算出した姿勢変化dB0に基づいて、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する(S112)。
具体的には、ステップS112において、仮想カメラ制御部112は、仮想空間SP-Vにおいて、撮像方向LCを、初期撮像方向LC0から、姿勢変化dB0に対応した姿勢変化量だけ変化させることで、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。すなわち、ステップS112において、仮想カメラ制御部112は、初期カメラ座標系ΣC0において、カメラ座標系Σを、姿勢変化dB0に対応して変化させることで、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。
より具体的には、仮想カメラ制御部112は、一例として、図13に示すように、仮想空間SP-Vにおいて、仮想カメラCMの初期位置PC0に交差するように仮想回転軸WSC0を設定し、カメラ座標系Σを、初期カメラ座標系ΣC0を仮想回転軸WSC0周りに回転角度θだけ回転させた座標系として決定することで、仮想空間SP-Vにおける仮想カメラCMの姿勢を決定する。ここで、仮想回転軸WSC0とは、初期位置PC0と交差する仮想空間SP-V内の直線であって、初期カメラ座標系ΣC0から見た仮想回転軸WSC0の方向を表すベクトルの成分と、初期座標系ΣS0から見た回転軸Wの方向を表すベクトルの成分とが、同一となるような直線である。
例えば、HMD1が、初期姿勢から、Z軸周りのヨー方向Qに対して回転角度θだけ回転した場合、仮想カメラ制御部112は、初期位置PC0に交差するように、初期カメラ座標系ΣC0のZ軸に平行な仮想回転軸WSC0を設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC0を仮想回転軸WSC0周りに回転角度θだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
また、例えば、HMD1が、初期姿勢から、Y軸周りのピッチ方向Qに対して回転角度θだけ回転した場合、仮想カメラ制御部112は、初期位置PC0に交差するように、初期カメラ座標系ΣC0のY軸に平行な仮想回転軸WSC0を設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC0を仮想回転軸WSC0周りに回転角度θだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
また、例えば、HMD1が、初期姿勢から、X軸周りのロール方向Qに対して回転角度θだけ回転した場合、仮想カメラ制御部112は、初期位置PC0に交差するように、初期カメラ座標系ΣC0のX軸に平行な仮想回転軸WSC0を設定したうえで、カメラ座標系Σを、初期カメラ座標系ΣC0を仮想回転軸WSC0周りに回転角度θだけ回転させた姿勢を有する座標系として決定することで、仮想カメラCMの姿勢を決定する。
Next, the virtual camera control unit 112 determines the attitude of the virtual camera CM in the virtual space SP-V based on the attitude change dB0 calculated in step S110 (S112).
Specifically, in step S112, the virtual camera control unit 112 changes the imaging direction LC from the initial imaging direction LC0 by the posture change amount corresponding to the posture change dB0 in the virtual space SP-V. The attitude of the virtual camera CM in the space SP-V is determined. That is, in step S112, the virtual camera control section 112 in the initial camera coordinate system sigma C0, the camera coordinate system sigma C, by changing in response to a change in posture DB0, of the virtual camera CM in the virtual space SP-V Determine posture.
More specifically, as an example, the virtual camera control unit 112 sets a virtual rotation axis W SC0 so as to intersect the initial position PC0 of the virtual camera CM in the virtual space SP-V, as shown in FIG. the camera coordinate system sigma C, to determine the initial camera coordinate system sigma C0 as a virtual rotation axis W coordinate system is rotated by the rotation angle theta W around SC0, the attitude of the virtual camera CM in the virtual space SP-V decide. Here, components of the vector and the virtual rotation axis W SC0, which represents the direction of the initial position to a straight line in the virtual space SP-V which intersects the PC0, virtual rotation axis W SC0 viewed from the initial camera coordinate system sigma C0 When the components of the vector representing the direction of the axis of rotation W S viewed from the initial coordinate system sigma S0 is a straight line as the same.
For example, when the HMD 1 is rotated from the initial posture by the rotation angle θ W with respect to the yaw direction Q Z around the Z S axis, the virtual camera control unit 112 is configured so that the initial camera coordinate system intersects the initial position PC0. after setting the virtual rotation axis W SC0 parallel to Z C axis of sigma C0, the camera coordinate system sigma C, it is rotated an initial camera coordinate system sigma C0 virtual rotation axis W SC0 about by the rotation angle theta W posture Is determined as a coordinate system having the position of the virtual camera CM.
Further, for example, HMD 1 is from the initial position, it rotates by the rotation angle theta W with respect to the pitch direction Q Y around Y S axis, the virtual camera control section 112, so as to cross to the initial position PC0, initial camera after setting the virtual rotation axis W SC0 parallel to Y C-axis of the coordinate system sigma C0, the camera coordinate system sigma C, rotates the initial camera coordinate system sigma C0 virtual rotation axis W SC0 about by the rotation angle theta W By determining the coordinate system having the determined posture, the posture of the virtual camera CM is determined.
For example, as HMD1 found from the initial position, it rotates by the rotation angle theta W with respect to the roll direction Q X around X S axis, the virtual camera control section 112, intersects the initial position PC0, initial camera after setting the virtual rotation axis W SC0 parallel to X C-axis of the coordinate system sigma C0, the camera coordinate system sigma C, rotates the initial camera coordinate system sigma C0 virtual rotation axis W SC0 about by the rotation angle theta W By determining the coordinate system having the determined posture, the posture of the virtual camera CM is determined.

次に、表示情報生成部113は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S114)。   Next, the display information generation unit 113 generates display information DS indicating a result of imaging the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby causing the display unit 12 to display the display information DS. On the other hand, the display image GH is displayed (S114).

図13は、通常制御モードにおける仮想カメラCMの姿勢の変化の一例を説明するための説明図である。また、図14は、通常制御モードにおいて表示部12に表示される視認画像GSの一例を示す図である。
図13では、一例として、時刻t1において、HMD1が初期姿勢となり、時刻t2において、HMD1が、初期姿勢を、Z軸周りのヨー方向Qに対して回転角度θだけ回転した姿勢となる場合を想定する。
このため、例えば、図13に示すように、仮想カメラCMが、時刻t1において、初期撮像方向LC0である撮像方向LC(t1)が+X方向を向くような姿勢となる場合、仮想カメラCMは、時刻t2において、撮像方向LC(t1)を、初期位置PC0に交差し初期カメラ座標系ΣC0のZ軸に平行な仮想回転軸WSC0の周りを回転角度θだけ回転させた、撮像方向LC(t2)を有するような姿勢となる。換言すれば、時刻t2におけるカメラ座標系Σは、時刻t1におけるカメラ座標系Σである初期カメラ座標系ΣC0を、初期カメラ座標系ΣC0の原点と交差し初期カメラ座標系ΣC0のZ軸に平行な仮想回転軸WSC0の周りを回転角度θだけ回転させた座標系になる。
このため、時刻t1において、図6に示すように、キャラクタ画像GVが、表示部12の中央部Ymidに表示される場合には、時刻t2において、図14に示すように、キャラクタ画像GVが、表示部12の中央部Ymidよりも+Y方向の位置Y(t2)に表示されることになる。
FIG. 13 is an explanatory diagram for explaining an example of a change in posture of the virtual camera CM in the normal control mode. FIG. 14 is a diagram illustrating an example of a visual image GS displayed on the display unit 12 in the normal control mode.
In Figure 13, as an example, at time t1, HMD 1 becomes the initial position at time t2, the HMD 1, comprising the initial position, the rotation angle theta W by the rotation position with respect to the yaw direction Q Z around Z S axis Assume a case.
Thus, for example, as shown in FIG. 13, the virtual camera CM is, at time t1, if the initial imaging direction LC0 imaging direction LC (t1) becomes the posture facing + X V direction, the virtual camera CM is at time t2, the imaging direction LC (t1), and around the Z C parallel imaginary rotation axis to axis W SC0 initial camera coordinate system sigma C0 intersects the initial position PC0 is rotated by the rotation angle theta W, imaging The posture is such that it has a direction LC (t2). In other words, the camera coordinate system sigma C at time t2, the initial camera coordinate system sigma C0 is a camera coordinate system sigma C at time t1, the initial camera coordinate system sigma C0 intersects the origin of the initial camera coordinate system sigma C0 It becomes the coordinate system is rotated by the rotation angle theta W around the Z C imaginary axis of rotation which is parallel to the axis W SC0.
Therefore, when the character image GV is displayed at the center Ymid of the display unit 12 as shown in FIG. 6 at time t1, the character image GV is displayed at time t2 as shown in FIG. It will be displayed in than the central portion Ymid of the display section 12 + Y D direction position Y (t2).

図10に示すように、モード指定部111は、ステップS108で取得された姿勢情報B、または、ステップS110で算出された姿勢変化dB0に基づいて、制御モードを、姿勢制御モードに移行させるか否かを判定する(S116)。
本実施形態では、一例として、現在時刻よりも所定時間だけ前の時刻から現在時刻までの判定期間におけるHMD1の姿勢変化量が、所定の閾値以下の場合に、モード指定部111が、制御モードを、通常制御モードから姿勢制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS116において、例えば、判定期間におけるHMD1の姿勢変化量が、所定の閾値以下であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定する。なお、モード指定部111は、ステップS116において、例えば、判定期間の開始時刻におけるHMD1の姿勢と、判定期間内の任意の時刻におけるHMD1の姿勢との差分が、所定の閾値よりも小さいか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。
そして、モード指定部111は、ステップS116における判定の結果が肯定の場合には、処理をステップS120に進め、ステップS116における判定の結果が否定の場合には、処理をステップS118に進める。
As illustrated in FIG. 10, the mode designating unit 111 determines whether to shift the control mode to the posture control mode based on the posture information B acquired in step S108 or the posture change dB0 calculated in step S110. Is determined (S116).
In the present embodiment, as an example, when the posture change amount of the HMD 1 in the determination period from a time before the current time to the current time is equal to or less than a predetermined threshold, the mode specifying unit 111 sets the control mode. Assume that the normal control mode is shifted to the attitude control mode. Therefore, in step S116, for example, the mode specifying unit 111 shifts the control mode to the posture control mode by determining whether or not the posture change amount of the HMD1 in the determination period is equal to or less than a predetermined threshold. It is determined whether or not. In step S116, for example, the mode designating unit 111 determines whether or not the difference between the attitude of the HMD1 at the start time of the determination period and the attitude of the HMD1 at an arbitrary time within the determination period is smaller than a predetermined threshold value. It may be determined whether or not to shift the control mode to the attitude control mode.
Then, if the result of determination in step S116 is affirmative, mode designating section 111 advances the process to step S120, and if the result of determination in step S116 is negative, advances the process to step S118.

その後、制御部11は、ユーザUが、表示処理を終了させる旨の所定の終了操作を操作部13から入力したか否かを判定する(S118)。そして、制御部11は、ステップS118における判定の結果が否定の場合には、処理をステップS108に進め、ステップS118における判定の結果が肯定の場合には、表示処理を終了させる。   Thereafter, the control unit 11 determines whether or not the user U has input a predetermined end operation for ending the display process from the operation unit 13 (S118). And the control part 11 advances a process to step S108, when the result of determination in step S118 is negative, and complete | finishes a display process, when the result of determination in step S118 is affirmative.

[1.3.2.姿勢制御モード]
図11に示すように、モード指定部111は、制御モードを姿勢制御モードに設定する(S120)。
[1.3.2. Attitude control mode]
As shown in FIG. 11, the mode specifying unit 111 sets the control mode to the attitude control mode (S120).

次に、仮想カメラ制御部112は、モード指定部111が、制御モードを姿勢制御モードに設定した際のHMD1の姿勢を、「基準姿勢」として定める(S122)。
なお、以下では、HMD1が基準姿勢である場合の装置座標系Σを、「基準座標系ΣS1」と称する。また、以下では、後述する図15に示すように、HMD1が基準姿勢である場合の仮想カメラCMの位置PCを、「基準位置PC1」と称し、HMD1が基準姿勢である場合の撮像方向LCを、「基準撮像方向LC1」と称し、HMD1が基準姿勢である場合のカメラ座標系Σを、「基準カメラ座標系ΣC1」と称する。
Next, the virtual camera control unit 112 determines the attitude of the HMD 1 when the mode specifying unit 111 sets the control mode to the attitude control mode as a “reference attitude” (S122).
In the following, the apparatus coordinate system Σ S when the HMD 1 is in the reference posture is referred to as a “reference coordinate system Σ S1 ”. In the following, as shown in FIG. 15 described later, the position PC of the virtual camera CM when the HMD1 is in the reference posture is referred to as “reference position PC1”, and the imaging direction LC when the HMD1 is in the reference posture. The camera coordinate system Σ C when the HMD 1 is in the reference posture is referred to as “reference camera coordinate system Σ C1 ”.

次に、仮想カメラ制御部112は、HMD1が基準姿勢である場合の仮想カメラCMの有する基準撮像方向LC1に基づいて、仮想空間SP-Vにおいて仮想点Kを設定する(S124)。
具体的には、仮想カメラ制御部112は、ステップS124において、例えば、仮想カメラCMの基準位置PC1と交差し基準撮像方向LC1に延在する直線上であって、仮想空間SP-V内に存在するキャラクタVの存在領域に対応する設定領域に、仮想点Kを設定する。
ここで、キャラクタVの存在領域とは、例えば、仮想空間SP-V内の領域であって、キャラクタVの表面と、キャラクタVの内部とを含む領域である。また、設定領域とは、例えば、存在領域の一部または全部の領域である。但し、設定領域は、存在領域の外部の領域を含む領域であってもよい。例えば、設定領域は、存在領域からの距離が所定の距離以下となる領域であってもよいし、存在領域内の点からの距離が所定の距離以下となる領域であってもよい。
また、以下では、後述する図15に示すように、ステップS124において設定された仮想空間SP-Vにおける仮想点Kの位置PKを、「基準位置PK1」と称する。
なお、本実施形態において、仮想カメラ制御部112は、仮想点Kを、基準撮像方向LC1に基づいて定めるが、本発明はこのような態様に限定されるものではない。例えば、仮想カメラ制御部112は、仮想空間SP-V内の所定の位置に仮想点Kを設定してもよい。また、例えば、仮想カメラ制御部112は、仮想空間SP-Vのうち、キャラクタVの存在領域のうち、キャラクタVの顔等のキャラクタVの特定の部位に対応する位置に仮想点Kを設定してもよい。
Next, the virtual camera control unit 112 sets a virtual point K in the virtual space SP-V based on the reference imaging direction LC1 of the virtual camera CM when the HMD1 is in the reference posture (S124).
Specifically, in step S124, the virtual camera control unit 112 is, for example, on a straight line that intersects the reference position PC1 of the virtual camera CM and extends in the reference imaging direction LC1 and exists in the virtual space SP-V. A virtual point K is set in a setting area corresponding to the existence area of the character V to be played.
Here, the existence area of the character V is, for example, an area in the virtual space SP-V and includes the surface of the character V and the inside of the character V. The setting area is, for example, a part or all of the existing area. However, the setting area may be an area including an area outside the existing area. For example, the setting area may be an area where the distance from the existing area is a predetermined distance or less, or may be an area where the distance from a point in the existing area is a predetermined distance or less.
Hereinafter, as shown in FIG. 15 described later, the position PK of the virtual point K in the virtual space SP-V set in step S124 is referred to as “reference position PK1”.
In the present embodiment, the virtual camera control unit 112 determines the virtual point K based on the reference imaging direction LC1, but the present invention is not limited to such an aspect. For example, the virtual camera control unit 112 may set the virtual point K at a predetermined position in the virtual space SP-V. Further, for example, the virtual camera control unit 112 sets a virtual point K at a position corresponding to a specific part of the character V such as the face of the character V in the existence area of the character V in the virtual space SP-V. May be.

次に、姿勢情報取得部114は、姿勢情報生成部14から姿勢情報Bを取得する(S126)。
そして、仮想カメラ制御部112は、ステップS126において姿勢情報取得部114が取得した姿勢情報Bに基づいて、HMD1の基準姿勢からの姿勢変化dB1を算出する(S128)。
なお、本実施形態において、基準座標系ΣS1から見て、HMD1が、基準姿勢から、回転軸W周りに回転角度θだけ回転した場合、姿勢変化dB1が、基準座標系ΣS1における回転軸Wを示す方向ベクトルと、回転角度θを示す値と、を含むこととする。
Next, the posture information acquisition unit 114 acquires posture information B from the posture information generation unit 14 (S126).
Then, the virtual camera control unit 112 calculates a posture change dB1 from the reference posture of the HMD 1 based on the posture information B acquired by the posture information acquisition unit 114 in step S126 (S128).
In the present embodiment, when viewed in the reference coordinate system sigma S1, rotation HMD1 is, from the reference position, it rotates by the rotation angle theta W about an axis of rotation W S, the posture change dB1, in the reference coordinate system sigma S1 the direction vector showing the axial W S, and include, a value indicating the rotation angle theta W.

図11に示すように、モード指定部111は、ステップS126で取得された姿勢情報B、または、ステップS128で算出された姿勢変化dB1に基づいて、制御モードを、位置制御モードに移行させるか否かを判定する(S130)。
本実施形態では、一例として、HMD1の基準姿勢からの姿勢変化量が、基準量θth(「基準角度」の一例)以上である場合に、モード指定部111が、制御モードを、姿勢制御モードから位置制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS130において、例えば、HMD1の基準姿勢からの姿勢変化量が基準量θth以上であるか否かを判定することで、制御モードを、位置制御モードに移行させるか否かを判定する。
なお、モード指定部111は、ステップS130において、HMD1の基準姿勢からの姿勢変化dB1のうち所定の方向成分に係る姿勢変化量が、基準量θth以上であるか否かを判定することで、制御モードを、位置制御モードに移行させるか否かを判定してもよい。具体的には、モード指定部111は、ステップS130において、例えば、HMD1の基準姿勢からの姿勢変化dB1のうち、ピッチ方向Qの方向成分、ヨー方向Qの方向成分、または、ピッチ方向Q及びヨー方向Qの方向成分に係る姿勢変化量が、基準量θth以上であるか否かを判定することで、制御モードを、位置制御モードに移行させるか否かを判定してもよい。
そして、モード指定部111は、ステップS130における判定の結果が肯定の場合には、処理をステップS140に進め、ステップS130における判定の結果が否定の場合には、処理をステップS132に進める。
As illustrated in FIG. 11, the mode specifying unit 111 determines whether or not to shift the control mode to the position control mode based on the posture information B acquired in step S126 or the posture change dB1 calculated in step S128. Is determined (S130).
In the present embodiment, as an example, when the posture change amount from the reference posture of the HMD 1 is equal to or larger than the reference amount θth (an example of “reference angle”), the mode specifying unit 111 changes the control mode from the posture control mode. Assume a case of shifting to the position control mode. For this reason, the mode designating unit 111 shifts the control mode to the position control mode by determining whether or not the posture change amount from the reference posture of the HMD 1 is equal to or larger than the reference amount θth in step S130, for example. It is determined whether or not.
In step S130, the mode designation unit 111 determines whether or not the posture change amount related to a predetermined direction component of the posture change dB1 from the reference posture of the HMD1 is equal to or larger than the reference amount θth. It may be determined whether or not the mode is shifted to the position control mode. Specifically, the mode designation section 111, in step S130, for example, of the posture change dB1 from the reference posture of the HMD 1, the direction component in the pitch direction Q Y, direction component in the yaw direction Q Z or Pitch Q posture variation of the direction component of the Y and the yaw direction Q Z is, by determining whether a reference amount θth above, the control mode may determine whether to transition to the position control mode .
Then, if the result of determination in step S130 is affirmative, mode designating section 111 advances the process to step S140, and if the result of determination in step S130 is negative, advances the process to step S132.

図11に示すように、モード指定部111は、ステップS126で取得された姿勢情報B、または、ステップS128で算出された姿勢変化dB1に基づいて、制御モードを、通常制御モードに移行させるか否かを判定する(S132)。
本実施形態では、一例として、現在時刻よりも所定時間だけ前の時刻から現在時刻までの判定期間におけるHMD1の姿勢変化量が、所定の閾値以下の場合に、モード指定部111が、制御モードを、姿勢制御モードから通常制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS132において、例えば、判定期間におけるHMD1の姿勢変化量が、所定の閾値以下であるか否かを判定することで、制御モードを、通常制御モードに移行させるか否かを判定する。また、モード指定部111は、ステップS132において、例えば、判定期間の開始時刻におけるHMD1の姿勢と、判定期間内の任意の時刻におけるHMD1の姿勢との差分が、所定の閾値よりも小さいか否かを判定することで、制御モードを、通常制御モードに移行させるか否かを判定してもよい。
なお、モード指定部111は、ステップS132において、HMD1の基準姿勢からの姿勢変化dB1のうち特定の方向成分に係る姿勢変化量が、所定値以上であるか否かを判定することで、制御モードを、通常制御モードに移行させるか否かを判定してもよい。具体的には、モード指定部111は、ステップS132において、例えば、HMD1の基準姿勢からの姿勢変化dB1のうち、ロール方向Qの方向成分に係る姿勢変化量が、所定値以上であるか否かを判定することで、制御モードを、通常制御モードに移行させるか否かを判定してもよい。
As illustrated in FIG. 11, the mode designating unit 111 determines whether or not to shift the control mode to the normal control mode based on the posture information B acquired in step S126 or the posture change dB1 calculated in step S128. Is determined (S132).
In the present embodiment, as an example, when the posture change amount of the HMD 1 in the determination period from a time before the current time to the current time is equal to or less than a predetermined threshold, the mode specifying unit 111 sets the control mode. Assume that the posture control mode is shifted to the normal control mode. For this reason, the mode designating unit 111 shifts the control mode to the normal control mode in step S132 by, for example, determining whether the posture change amount of the HMD1 in the determination period is equal to or less than a predetermined threshold. It is determined whether or not. In step S132, for example, the mode specifying unit 111 determines whether or not the difference between the attitude of the HMD1 at the start time of the determination period and the attitude of the HMD1 at an arbitrary time within the determination period is smaller than a predetermined threshold value. It may be determined whether or not to shift the control mode to the normal control mode.
In step S132, the mode specifying unit 111 determines whether or not the posture change amount related to a specific direction component of the posture change dB1 from the reference posture of the HMD1 is greater than or equal to a predetermined value. It may be determined whether or not to shift to the normal control mode. Specifically, the mode designation section 111, in step S132, for example, whether of the posture change dB1 from the reference posture of the HMD 1, the posture variation of the direction component of the roll direction Q X is equal to or more than a predetermined value It may be determined whether to shift the control mode to the normal control mode.

次に、仮想カメラ制御部112は、ステップS128において算出した姿勢変化dB1に基づいて、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を決定する(S134)。
具体的には、ステップS134において、仮想カメラ制御部112は、仮想空間SP-Vにおいて、位置PC及び撮像方向LCを、基準位置PC1及び基準撮像方向LC1から、姿勢変化dB1に対応した姿勢変化量だけ変化させることで、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を決定する。すなわち、ステップS134において、仮想カメラ制御部112は、基準カメラ座標系ΣC1において、カメラ座標系Σを、姿勢変化dB1に対応して変化させることで、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を決定する。
より具体的には、仮想カメラ制御部112は、一例として、図15に示すように、仮想空間SP-Vにおいて、仮想点Kに交差するように基準回転軸WSC1を設定し、カメラ座標系Σを、基準カメラ座標系ΣC1を基準回転軸WSC1周りに回転角度θだけ回転させた座標系として決定することで、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を決定する。ここで、基準回転軸WSC1とは、仮想点Kの基準位置PK1と交差する仮想空間SP-V内の直線であって、基準カメラ座標系ΣC1から見た基準回転軸WSC1の方向を表すベクトルの成分と、基準座標系ΣS1から見た回転軸Wの方向を表すベクトルの成分とが、同一となるような直線である。すなわち、仮想カメラ制御部112は、一例として、図15に示すように、仮想空間SP-Vにおいて、基準位置PC1に位置する仮想カメラCMを、仮想点Kを中心として基準回転軸WSC1周りに回転角度θだけ回転させることで、仮想空間SP-Vにおける仮想カメラCMの位置PCを決定する。
Next, the virtual camera control unit 112 determines the position and orientation of the virtual camera CM in the virtual space SP-V based on the orientation change dB1 calculated in step S128 (S134).
Specifically, in step S134, the virtual camera control unit 112 changes the position PC and the imaging direction LC in the virtual space SP-V from the reference position PC1 and the reference imaging direction LC1 to the attitude change amount corresponding to the attitude change dB1. By changing only the position, the position and orientation of the virtual camera CM in the virtual space SP-V are determined. That is, in step S134, the virtual camera control section 112, the reference camera coordinate system sigma C1, the camera coordinate system sigma C, by changing in response to a change in posture dB1, the virtual camera CM in the virtual space SP-V Determine position and orientation.
More specifically, as an example, the virtual camera control unit 112 sets the reference rotation axis WSC1 so as to intersect the virtual point K in the virtual space SP-V, as shown in FIG. the sigma C, to determine the reference camera coordinate system sigma C1 as a coordinate system that has only rotated the rotation angle theta W around the reference rotation axis W SC1, to determine the position and orientation of a virtual camera CM in the virtual space SP-V . Here, the reference rotation axis W SC1, a straight virtual space SP-V which intersects the reference position PK1 virtual point K, the direction of the reference rotation axis W SC1 when viewed in the reference camera coordinate system sigma C1 and components of the vector representing the components of the vector representing the direction of the axis of rotation W S when viewed in the reference coordinate system sigma S1 is a straight line as the same. That is, as an example, as shown in FIG. 15, the virtual camera control unit 112 moves the virtual camera CM located at the reference position PC1 around the reference rotation axis WSC1 around the virtual point K in the virtual space SP-V. By rotating the rotation angle θ W, the position PC of the virtual camera CM in the virtual space SP-V is determined.

次に、表示情報生成部113は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S136)。   Next, the display information generation unit 113 generates display information DS indicating a result of imaging the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby causing the display unit 12 to display the display information DS. On the other hand, the display image GH is displayed (S136).

図15は、姿勢制御モードにおける仮想カメラCMの位置及び姿勢の変化の一例を説明するための説明図である。また、図16は、姿勢制御モードにおいて表示部12に表示される視認画像GSの一例を示す図である。
図15では、一例として、時刻t3において、HMD1が基準姿勢となり、時刻t4において、HMD1が、基準姿勢を、Z軸周りのヨー方向Qに対して回転角度θだけ回転した姿勢となる場合を想定する。
このため、例えば、図15に示すように、仮想カメラCMが、時刻t3において、基準撮像方向LC1である撮像方向LC(t3)が+X方向を向くような姿勢となる場合には、仮想カメラCMは、時刻t4において、撮像方向LC(t3)を、仮想点Kに交差し基準カメラ座標系ΣC1のZ軸に平行な基準回転軸WSC1の周りを回転角度θだけ回転させた、撮像方向LC(t4)を有するような姿勢となる。換言すれば、時刻t4におけるカメラ座標系Σは、時刻t3におけるカメラ座標系Σである基準カメラ座標系ΣC1を、仮想点Kと交差し基準カメラ座標系ΣC1のZ軸に平行な基準回転軸WSC1の周りを回転角度θだけ回転させた座標系になる。
また、図15に示すように、時刻t4における仮想カメラCMの位置PC(t4)は、例えば、時刻t3における仮想カメラCMの位置PC(t3)、すなわち、基準位置PC1を、仮想点Kを中心に基準回転軸WSC1の周りを回転角度θだけ回転させた位置となる。
このため、時刻t3において、図6に示すように、キャラクタ画像GVが、表示部12の中央部Ymidにおいて正面方向を向くキャラクタVを表す場合には、時刻t4において、図16に示すように、キャラクタ画像GVが、表示部12の中央部Ymidにおいて正面方向から回転角度θだけ向きを変化させたキャラクタVを表す。
FIG. 15 is an explanatory diagram for explaining an example of changes in the position and posture of the virtual camera CM in the posture control mode. FIG. 16 is a diagram illustrating an example of a visual image GS displayed on the display unit 12 in the posture control mode.
In Figure 15, as an example, at time t3, becomes HMD1 reference posture at time t4, is HMD1, the reference posture, the rotation angle theta W by the rotation position with respect to the yaw direction Q Z around Z S axis Assume a case.
Thus, for example, as shown in FIG. 15, when the virtual camera CM is, at time t3, the reference is an image pickup direction LC1 imaging direction LC (t3) is the posture facing + X V direction, the virtual camera CM at time t4, the imaging direction LC (t3), is rotated around the Z C reference rotation axis parallel to the axis W SC1 of the base camera coordinate system sigma C1 intersects the virtual point K by the rotation angle theta W Then, the posture has an imaging direction LC (t4). In other words, the camera coordinate system sigma C is at time t4, parallel reference camera coordinate system sigma C1 is a camera coordinate system sigma C at time t3, the Z C axis of the base camera coordinate system sigma C1 intersects the virtual point K It made around a reference rotation axis W SC1 to the rotation angle theta W only coordinate system is rotated.
As shown in FIG. 15, the position PC (t4) of the virtual camera CM at time t4 is, for example, the position PC (t3) of the virtual camera CM at time t3, that is, the reference position PC1 is centered on the virtual point K. a position around the reference rotation axis W SC1 is rotated by the rotation angle theta W to.
Therefore, when the character image GV represents the character V facing in the front direction in the central portion Ymid of the display unit 12 as shown in FIG. 6 at time t3, as shown in FIG. The character image GV represents the character V whose direction is changed by the rotation angle θ W from the front direction in the central portion Ymid of the display unit 12.

その後、制御部11は、ユーザUが、表示処理を終了させる旨の所定の終了操作を操作部13から入力したか否かを判定する(S138)。そして、制御部11は、ステップS138における判定の結果が否定の場合には、処理をステップS126に進め、ステップS138における判定の結果が肯定の場合には、表示処理を終了させる。   Thereafter, the control unit 11 determines whether or not the user U has input a predetermined end operation for ending the display process from the operation unit 13 (S138). And the control part 11 advances a process to step S126, when the result of determination in step S138 is negative, and complete | finishes a display process, when the result of determination in step S138 is affirmative.

[1.3.3.位置制御モード]
図12に示すように、モード指定部111は、制御モードを位置制御モードに設定する(S140)。
[1.3.3. Position control mode]
As shown in FIG. 12, the mode designating unit 111 sets the control mode to the position control mode (S140).

次に、仮想カメラ制御部112は、後述する図17に示すように、モード指定部111が制御モードを位置制御モードに設定した際の仮想カメラCMの位置PCを、「起点位置PC2」として定める(S142)。また、以下では、モード指定部111が制御モードを位置制御モードに設定した際のHMD1の姿勢を、「起点姿勢」と称し、HMD1が起点姿勢である場合の撮像方向LCを、「撮像方向LC2」と称し、HMD1が起点姿勢である場合のカメラ座標系Σを、「起点カメラ座標系ΣC2」と称する。
なお、モード指定部111が、制御モードを位置制御モードに設定した際、仮想カメラCMの起点位置PC2と交差し撮像方向LC2に延在する直線上に、仮想点Kが存在している。以下では、後述する図17に示すように、モード指定部111が制御モードを位置制御モードに設定した際の、仮想空間SP-Vにおける仮想点Kの位置PKを、「起点位置PK2」と称する。なお、起点位置PK2は、基準位置PK1と同一の位置である。
Next, as shown in FIG. 17 to be described later, the virtual camera control unit 112 determines the position PC of the virtual camera CM when the mode specifying unit 111 sets the control mode to the position control mode as “starting position PC2”. (S142). In the following, the attitude of the HMD 1 when the mode specifying unit 111 sets the control mode to the position control mode is referred to as “starting attitude”, and the imaging direction LC when the HMD 1 is the starting attitude is referred to as “imaging direction LC 2. And the camera coordinate system Σ C when the HMD 1 is in the starting posture is referred to as “starting camera coordinate system Σ C2 ”.
When the mode specifying unit 111 sets the control mode to the position control mode, the virtual point K exists on a straight line that intersects the starting position PC2 of the virtual camera CM and extends in the imaging direction LC2. Hereinafter, as shown in FIG. 17 to be described later, the position PK of the virtual point K in the virtual space SP-V when the mode specifying unit 111 sets the control mode to the position control mode is referred to as “starting position PK2”. . The starting position PK2 is the same position as the reference position PK1.

次に、姿勢情報取得部114は、姿勢情報生成部14から姿勢情報Bを取得する(S144)。
そして、仮想カメラ制御部112は、ステップS126において姿勢情報取得部114が取得した姿勢情報B、及び、ステップS144において姿勢情報取得部114が取得した姿勢情報Bに基づいて、HMD1の基準姿勢からの姿勢変化dB2を算出する(S146)。
なお、本実施形態において、基準座標系ΣS1から見て、HMD1が、基準姿勢から、回転軸W周りに回転角度θだけ回転した場合、姿勢変化dB2が、基準座標系ΣS1における回転軸Wを示す方向ベクトルと、回転角度θを示す値と、を含むこととする。
Next, the posture information acquisition unit 114 acquires posture information B from the posture information generation unit 14 (S144).
Then, based on the posture information B acquired by the posture information acquisition unit 114 in step S126 and the posture information B acquired by the posture information acquisition unit 114 in step S144, the virtual camera control unit 112 determines from the reference posture of the HMD1. The posture change dB2 is calculated (S146).
In the present embodiment, when viewed in the reference coordinate system sigma S1, rotation HMD1 is, from the reference position, it rotates by the rotation angle theta W about an axis of rotation W S, the posture change dB2, in the reference coordinate system sigma S1 the direction vector showing the axial W S, and include, a value indicating the rotation angle theta W.

図12に示すように、モード指定部111は、ステップS126及びステップS144で取得された姿勢情報B、または、ステップS146で算出された姿勢変化dB2に基づいて、制御モードを、姿勢制御モードに移行させるか否かを判定する(S148)。
本実施形態では、一例として、HMD1の基準姿勢からの姿勢変化量が、基準量θth未満となった場合に、モード指定部111が、制御モードを、位置制御モードから姿勢制御モードに移行させる場合を想定する。このため、モード指定部111は、ステップS148において、例えば、HMD1の基準姿勢からの姿勢変化量が基準量θth未満であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定する。
なお、モード指定部111は、ステップS148において、HMD1の基準姿勢からの姿勢変化dB2のうち所定の方向成分に係る姿勢変化量が、基準量θth未満であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。具体的には、モード指定部111は、ステップS148において、例えば、HMD1の基準姿勢からの姿勢変化dB2のうち、ピッチ方向Qの方向成分、ヨー方向Qの方向成分、または、ピッチ方向Q及びヨー方向Qの方向成分に係る姿勢変化量が、基準量θth未満であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。
そして、モード指定部111は、ステップS148における判定の結果が肯定の場合には、処理をステップS120に進め、ステップS148における判定の結果が否定の場合には、処理をステップS150に進める。
As shown in FIG. 12, the mode specifying unit 111 shifts the control mode to the attitude control mode based on the attitude information B acquired in step S126 and step S144 or the attitude change dB2 calculated in step S146. It is determined whether or not to perform (S148).
In the present embodiment, as an example, when the posture change amount from the reference posture of the HMD 1 is less than the reference amount θth, the mode specifying unit 111 shifts the control mode from the position control mode to the posture control mode. Is assumed. For this reason, the mode designating unit 111 shifts the control mode to the posture control mode by determining whether or not the posture change amount from the reference posture of the HMD1 is less than the reference amount θth in step S148, for example. It is determined whether or not.
In step S148, the mode designation unit 111 determines whether or not the posture change amount related to a predetermined direction component of the posture change dB2 from the reference posture of the HMD1 is less than the reference amount θth. It may be determined whether or not the mode is shifted to the attitude control mode. Specifically, the mode designation section 111, in step S148, for example, of the posture change dB2 from the reference posture of the HMD 1, the direction component in the pitch direction Q Y, direction component in the yaw direction Q Z or Pitch Q posture variation of the direction component of the Y and the yaw direction Q Z is, by determining whether or not less than the reference amount [theta] th, the control mode may determine whether or not to shift to the attitude control mode .
Then, if the result of determination in step S148 is affirmative, mode designating section 111 advances the process to step S120, and if the result of determination in step S148 is negative, advances the process to step S150.

次に、仮想カメラ制御部112は、ステップS146において算出した姿勢変化dB2に基づいて、仮想空間SP-Vにおける仮想点Kの位置PKを決定する(S150)。
具体的には、仮想カメラ制御部112は、ステップS150において、例えば、仮想空間SP-Vに設定された基準回転軸WSC1と撮像方向LC2との双方に交差する方向であって、基準位置PC1から遠ざかる方向に、仮想点Kの位置PKを変化させる。より具体的には、仮想カメラ制御部112は、例えば、基準回転軸WSC1と撮像方向LC2との双方に直交する方向であって、基準位置PC1から遠ざかる方向に、仮想点Kの位置PKを変化させる。この場合、仮想カメラ制御部112は、例えば、後述する図17に示す、起点位置PK2すなわち位置PK(t5)から位置PK(t6)への変化のように、姿勢変化dB2に含まれる回転角度θから基準量θthを減算した超過角度θovに応じた距離Disだけ、仮想点Kの位置PKを変化させる。
Next, the virtual camera control unit 112 determines the position PK of the virtual point K in the virtual space SP-V based on the posture change dB2 calculated in step S146 (S150).
Specifically, in step S150, the virtual camera control unit 112 is, for example, a direction that intersects both the reference rotation axis WSC1 and the imaging direction LC2 set in the virtual space SP-V, and the reference position PC1. The position PK of the virtual point K is changed in the direction away from the center. More specifically, for example, the virtual camera control unit 112 sets the position PK of the virtual point K in a direction orthogonal to both the reference rotation axis WSC1 and the imaging direction LC2 and away from the reference position PC1. Change. In this case, the virtual camera control unit 112, for example, the rotation angle θ included in the posture change dB2 as shown in FIG. 17 described later, such as a change from the starting position PK2, that is, the position PK (t5) to the position PK (t6). The position PK of the virtual point K is changed by the distance Dis corresponding to the excess angle θov obtained by subtracting the reference amount θth from W.

次に、仮想カメラ制御部112は、ステップS146において算出した姿勢変化dB2に基づいて、仮想空間SP-Vにおける仮想カメラCMの位置PCを決定する(S152)。なお、本実施形態では、位置制御モードにおいて、仮想カメラCMの撮像方向LCは、撮像方向LC2を維持することとする。
具体的には、仮想カメラ制御部112は、ステップS152において、例えば、仮想空間SP-Vに設定された基準回転軸WSC1と撮像方向LC2との双方に交差する方向であって、基準位置PC1から遠ざかる方向に、仮想カメラCMの位置PCを変化させる。より具体的には、仮想カメラ制御部112は、例えば、基準回転軸WSC1と撮像方向LC2との双方に直交する方向であって、基準位置PC1から遠ざかる方向に、仮想カメラCMの位置PCを変化させる。この場合、仮想カメラ制御部112は、例えば、後述する図17に示す、起点位置PC2すなわち位置PC(t5)から位置PC(t6)への変化のように、超過角度θovに応じた距離Disだけ、仮想カメラCMの位置PCを変化させる。
すなわち、ステップS150における仮想点Kの位置変化と、ステップS152における仮想カメラCMの位置変化とは、後述する図17に示すように、基準回転軸WSC1及び撮像方向LC2に直交する方向を有し、且つ、大きさDisを有する、同一のベクトルVIにより表現することができる。換言すれば、仮想カメラ制御部112は、位置制御モードにおいて、仮想カメラCMから見て撮像方向LC2に仮想点Kが位置し、また、仮想カメラCM及び仮想点Kの間の距離が一定の距離を保つように、仮想点Kの位置PKと仮想カメラCMの位置PCとを変化させる。このように、仮想カメラ制御部112は、位置制御モードにおいて、基準回転軸WSC1に垂直な仮想平面内において、仮想点Kの位置PKを変化させる。
なお、仮想カメラ制御部112は、ステップS150の処理とステップS152の処理とを同時に実行してもよいし、ステップS150の処理を実行する前にステップS152の処理を実行してもよい。
Next, the virtual camera control unit 112 determines the position PC of the virtual camera CM in the virtual space SP-V based on the posture change dB2 calculated in step S146 (S152). In the present embodiment, in the position control mode, the imaging direction LC of the virtual camera CM is maintained at the imaging direction LC2.
Specifically, in step S152, the virtual camera control unit 112 is, for example, a direction intersecting both the reference rotation axis WSC1 and the imaging direction LC2 set in the virtual space SP-V, and the reference position PC1. The position PC of the virtual camera CM is changed in the direction away from the camera. More specifically, the virtual camera control unit 112, for example, sets the position PC of the virtual camera CM in a direction orthogonal to both the reference rotation axis WSC1 and the imaging direction LC2 and away from the reference position PC1. Change. In this case, the virtual camera control unit 112, for example, only a distance Dis corresponding to the excess angle θov as shown in FIG. 17 described later, such as a change from the starting position PC2, that is, the position PC (t5) to the position PC (t6). The position PC of the virtual camera CM is changed.
That is, the position change of the virtual point K in step S150 and the position change of the virtual camera CM in step S152 have directions orthogonal to the reference rotation axis WSC1 and the imaging direction LC2, as shown in FIG. And the same vector VI having the magnitude Dis. In other words, in the position control mode, the virtual camera control unit 112 has the virtual point K located in the imaging direction LC2 when viewed from the virtual camera CM, and the distance between the virtual camera CM and the virtual point K is a constant distance. So that the position PK of the virtual point K and the position PC of the virtual camera CM are changed. Thus, the virtual camera control unit 112 changes the position PK of the virtual point K in the virtual plane perpendicular to the reference rotation axis WSC1 in the position control mode.
Note that the virtual camera control unit 112 may execute the process of step S150 and the process of step S152 at the same time, or may execute the process of step S152 before executing the process of step S150.

次に、表示情報生成部113は、仮想カメラCMにより仮想空間SP-Vを撮像した結果を示す表示情報DSを生成し、当該表示情報DSを表示部12に供給することで、表示部12に対して表示画像GHを表示させる(S154)。   Next, the display information generation unit 113 generates display information DS indicating a result of imaging the virtual space SP-V by the virtual camera CM, and supplies the display information DS to the display unit 12, thereby causing the display unit 12 to display the display information DS. On the other hand, the display image GH is displayed (S154).

図17は、位置制御モードにおける仮想カメラCMの位置及び姿勢の変化の一例を説明するための説明図である。また、図18は、位置制御モードにおいて表示部12に表示される視認画像GSの一例を示す図である。
図17では、一例として、時刻t3において、HMD1が基準姿勢となり、時刻t5において、HMD1が起点姿勢となり、時刻t6において、HMD1が、基準姿勢を、Z軸周りのヨー方向Qに対して、基準量θthよりも大きい回転角度θだけ回転した姿勢となる場合を想定する。
このため、例えば、図17に示すように、仮想カメラCMが、時刻t3において、基準撮像方向LC1である撮像方向LC(t3)が+X方向を向くような姿勢となる場合には、仮想カメラCMは、時刻t5において、撮像方向LC(t3)を、仮想点Kに交差し基準カメラ座標系ΣC1のZ軸に平行な基準回転軸WSC1の周りを基準量θthだけ回転させた、撮像方向LC2である撮像方向LC(t5)を有するような姿勢となり、また、仮想カメラCMは、時刻t6において、撮像方向LC2である撮像方向LC(t6)を有するような姿勢となる。換言すれば、時刻t5におけるカメラ座標系Σである起点カメラ座標系ΣC2は、時刻t3におけるカメラ座標系Σである基準カメラ座標系ΣC1を、仮想点Kと交差し基準カメラ座標系ΣC1のZ軸に平行な基準回転軸WSC1の周りを基準量θthだけ回転させた座標系になる。また、時刻t6におけるカメラ座標系Σは、起点カメラ座標系ΣC2を、ベクトルVIにより示される方向及び距離だけ平行移動させた座標系になる。
また、時刻t5における仮想カメラCMの位置PC(t5)は、図17に示すように、時刻t3における仮想カメラCMの位置PC(t3)、すなわち、基準位置PC1を、仮想点Kを中心に基準回転軸WSC1の周りを基準量θthだけ回転させた位置である、起点位置PC2となる。また、時刻t6における仮想カメラCMの位置PC(t6)は、図17に示すように、時刻t5における仮想カメラCMの位置PC(t5)、すなわち、起点位置PC2を、ベクトルVIだけ移動させた位置となる。また、時刻t6における仮想点Kの位置PK(t6)は、図17に示すように、時刻t5における仮想点Kの位置PK(t5)、すなわち、起点位置PK2を、ベクトルVIだけ移動させた位置となる。
このため、時刻t3において、図6に示すように、キャラクタ画像GVが、表示部12の中央部Ymidにおいて正面方向を向くキャラクタVを表す場合には、キャラクタ画像GVは、時刻t5において、図16に示すように、表示部12の中央部Ymidにおいて正面方向から基準量θthだけ向きを変化させたキャラクタVを表し、また、キャラクタ画像GVは、時刻t6において、図18に示すように、表示部12の中央部Ymidよりも−Y方向の位置Y(t6)において正面方向から基準量θthだけ向きを変化させたキャラクタVを表す。
FIG. 17 is an explanatory diagram for explaining an example of a change in the position and orientation of the virtual camera CM in the position control mode. FIG. 18 is a diagram illustrating an example of a visual image GS displayed on the display unit 12 in the position control mode.
In FIG. 17, as an example, at time t3, HMD1 becomes the reference posture, at time t5, HMD1 becomes the starting posture, and at time t6, HMD1 changes the reference posture with respect to the yaw direction Q Z around the Z S axis. , it is assumed that the only rotational posture large rotation angle theta W than the reference amount [theta] th.
Thus, for example, as shown in FIG. 17, when the virtual camera CM is, at time t3, the reference is an image pickup direction LC1 imaging direction LC (t3) is the posture facing + X V direction, the virtual camera CM, at time t5, the imaging direction LC (t3), is rotated by the reference amount θth around parallel reference rotation axis W SC1 to Z C axis of the base camera coordinate system sigma C1 intersects the virtual point K, The posture has an imaging direction LC (t5) which is the imaging direction LC2, and the virtual camera CM has an orientation having an imaging direction LC (t6) which is the imaging direction LC2 at time t6. In other words, the starting point the camera coordinate system sigma C2 is a camera coordinate system sigma C at time t5 is the reference camera coordinate system sigma C1 is a camera coordinate system sigma C at time t3, the reference camera coordinate system intersects the virtual point K becomes the coordinate system is rotated by the reference amount θth around parallel reference rotation axis W SC1 to Z C axis of sigma C1. The camera coordinate system sigma C at time t6, the origin camera coordinate system sigma C2, becomes the coordinate system is only translated direction and distance indicated by vector VI.
As shown in FIG. 17, the position PC (t5) of the virtual camera CM at time t5 is based on the virtual position K with the position PC (t3) of the virtual camera CM at time t3, that is, the reference position PC1. is a position rotated by reference quantity θth about the axis of rotation W SC1, the starting point position PC2. As shown in FIG. 17, the position PC (t6) of the virtual camera CM at time t6 is the position PC (t5) of the virtual camera CM at time t5, that is, the position obtained by moving the starting position PC2 by the vector VI. It becomes. Further, as shown in FIG. 17, the position PK (t6) of the virtual point K at time t6 is the position PK (t5) of the virtual point K at time t5, that is, the position obtained by moving the starting position PK2 by the vector VI. It becomes.
Therefore, at time t3, as shown in FIG. 6, when the character image GV represents the character V facing in the front direction in the central portion Ymid of the display unit 12, the character image GV is shown in FIG. As shown in FIG. 18, the character V whose direction is changed by the reference amount θth from the front direction in the central portion Ymid of the display unit 12 is represented, and the character image GV is displayed at the time t6 as shown in FIG. in -Y D direction position Y (t6) than the central portion Ymid of 12 representing the character V of changing the orientation by reference amount θth from the front.

その後、制御部11は、ユーザUが、表示処理を終了させる旨の所定の終了操作を操作部13から入力したか否かを判定する(S156)。そして、制御部11は、ステップS156における判定の結果が否定の場合には、処理をステップS144に進め、ステップS156における判定の結果が肯定の場合には、表示処理を終了させる。   Thereafter, the control unit 11 determines whether or not the user U has input a predetermined end operation for ending the display process from the operation unit 13 (S156). And the control part 11 advances a process to step S144, when the result of determination in step S156 is negative, and complete | finishes a display process, when the result of determination in step S156 is affirmative.

なお、モード指定部111は、ステップS148において、HMD1の基準姿勢からの姿勢変化量が基準量θth未満であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定するが、本発明はこのような態様に限定されるものではない。
例えば、モード指定部111は、ステップS148において、HMD1の基準姿勢からの姿勢変化dB2のうち特定の方向成分に係る姿勢変化量が、所定値以上であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。具体的には、モード指定部111は、ステップS148において、例えば、HMD1の基準姿勢からの姿勢変化dB2のうち、ロール方向Qの方向成分に係る姿勢変化量が、所定値以上であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。
また、モード指定部111は、ステップS148において、判定期間におけるHMD1の姿勢変化量が、所定の閾値以下であるか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。更に、モード指定部111は、ステップS148において、例えば、判定期間の開始時刻におけるHMD1の姿勢と、判定期間内の任意の時刻におけるHMD1の姿勢との差分が、所定の閾値よりも小さいか否かを判定することで、制御モードを、姿勢制御モードに移行させるか否かを判定してもよい。
これらの場合、仮想カメラ制御部112は、ステップS150及びS152において、HMD1の基準姿勢からの姿勢変化量が、基準量θth未満となった場合に、仮想点Kの位置PKと、仮想カメラCMの位置PCとを、基準回転軸WSC1と撮像方向LC2との双方に直交する方向であって、基準位置PC1に近づく方向に変化させてもよい。
In step S148, the mode designating unit 111 determines whether or not to shift the control mode to the posture control mode by determining whether or not the posture change amount from the reference posture of the HMD1 is less than the reference amount θth. However, the present invention is not limited to such an embodiment.
For example, in step S148, the mode specifying unit 111 determines whether or not the posture change amount related to a specific direction component of the posture change dB2 from the reference posture of the HMD1 is equal to or greater than a predetermined value. It may be determined whether or not to shift to the attitude control mode. Specifically, the mode designation section 111, in step S148, for example, whether of the posture change dB2 from the reference posture of the HMD 1, the posture variation of the direction component of the roll direction Q X is equal to or more than a predetermined value It may be determined whether or not to shift the control mode to the attitude control mode.
Further, in step S148, the mode designation unit 111 determines whether or not to shift the control mode to the posture control mode by determining whether or not the posture change amount of the HMD1 in the determination period is equal to or less than a predetermined threshold. May be determined. Further, in step S148, for example, the mode specifying unit 111 determines whether or not the difference between the attitude of the HMD1 at the start time of the determination period and the attitude of the HMD1 at an arbitrary time within the determination period is smaller than a predetermined threshold value. It may be determined whether or not to shift the control mode to the attitude control mode.
In these cases, the virtual camera control unit 112 determines the position PK of the virtual point K and the virtual camera CM when the posture change amount from the reference posture of the HMD 1 becomes less than the reference amount θth in steps S150 and S152. The position PC may be changed in a direction orthogonal to both the reference rotation axis WSC1 and the imaging direction LC2 and closer to the reference position PC1.

[1.4.実施形態の結論]
以上において説明したように、本実施形態において、表示制御部110は、姿勢情報Bに基づいて仮想カメラCMの姿勢を変化させる通常制御モードと、姿勢情報Bに基づいて仮想カメラCMの位置及び姿勢を変化させる姿勢制御モードと、姿勢情報Bに基づいて仮想カメラCMの位置を変化させる位置制御モードと、による視認画像GSの表示が可能である。このため、本実施形態によれば、ユーザUは、HMD1の姿勢の変化により、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を操作することが可能となる。
[1.4. Conclusion of the embodiment]
As described above, in the present embodiment, the display control unit 110 performs the normal control mode in which the posture of the virtual camera CM is changed based on the posture information B, and the position and posture of the virtual camera CM based on the posture information B. The visual image GS can be displayed in the attitude control mode for changing the position of the virtual camera CM and the position control mode for changing the position of the virtual camera CM based on the attitude information B. Therefore, according to the present embodiment, the user U can operate the position and posture of the virtual camera CM in the virtual space SP-V by changing the posture of the HMD 1.

また、本実施形態において、表示制御部110は、キャラクタVの存在領域に対応する設定領域に設定された仮想点Kを中心に、仮想カメラCMの位置及び姿勢を変化させる、姿勢制御モードによる視認画像GSの表示が可能である。このため、本実施形態によれば、HMD1を装着したユーザUは、表示部12において、キャラクタ画像GVを継続的に表示させることが可能となる。   Further, in the present embodiment, the display control unit 110 changes the position and posture of the virtual camera CM around the virtual point K set in the setting region corresponding to the region where the character V exists, and is visually recognized in the posture control mode. The image GS can be displayed. Therefore, according to this embodiment, the user U wearing the HMD 1 can continuously display the character image GV on the display unit 12.

なお、本実施形態において、姿勢制御モードは、「第1制御モード」の一例であり、位置制御モードは、「第2制御モード」の一例である。   In the present embodiment, the attitude control mode is an example of a “first control mode”, and the position control mode is an example of a “second control mode”.

[2.変形例]
以上の各形態は多様に変形され得る。具体的な変形の態様を以下に例示する。以下の例示から任意に選択された2以上の態様は、相互に矛盾しない範囲内で適宜に併合され得る。なお、以下に例示する変形例において作用や機能が実施形態と同等である要素については、以上の説明で参照した符号を流用して各々の詳細な説明を適宜に省略する。
[2. Modified example]
Each of the above forms can be variously modified. Specific modifications are exemplified below. Two or more aspects arbitrarily selected from the following examples can be appropriately combined within a range that does not contradict each other. In addition, about the element in which an effect | action and a function are equivalent to embodiment in the modification illustrated below, the detailed description of each is abbreviate | omitted suitably using the code | symbol referred by the above description.

[変形例1]
上述した実施形態において、表示制御部110は、通常制御モード、姿勢制御モード、及び、位置制御モードの、3つの制御モードによる視認画像GSの表示が可能であるが、本発明はこのような態様に限定されるものではない。表示制御部110は、通常制御モード、姿勢制御モード、及び、位置制御モードの、3つの制御モードのうち、少なくとも2つの制御モードによる視認画像GSの表示が可能であればよい。例えば、表示制御部110は、通常制御モード、及び、位置制御モードの、2つの制御モードによる視認画像GSの表示が可能であってもよい。
[Modification 1]
In the embodiment described above, the display control unit 110 can display the visual image GS in three control modes: the normal control mode, the attitude control mode, and the position control mode. It is not limited to. The display control unit 110 only needs to be able to display the visual image GS in at least two control modes among the three control modes of the normal control mode, the attitude control mode, and the position control mode. For example, the display control unit 110 may be capable of displaying the visual image GS in two control modes, a normal control mode and a position control mode.

図19及び図20は、本変形例における表示処理を実行する場合における、端末装置10の動作の一例を示すフローチャートである。図19及び図20に示すフローチャートは、制御部11が、ステップS160の処理を実行する点と、ステップS116及びステップS120〜S138の処理を実行しない点と、を除き、図10乃至図12に示すフローチャートと同様である。
図19に示すように、モード指定部111は、ステップS108で取得された姿勢情報B、または、ステップS110で算出された姿勢変化dB0に基づいて、制御モードを、位置制御モードに移行させるか否かを判定する(S160)。
具体的には、モード指定部111は、ステップS160において、HMD1の初期姿勢からの姿勢変化量が、基準量θth以上である場合に、モード指定部111が、制御モードを、通常制御モードから位置制御モードに移行させる。すなわち、モード指定部111は、ステップS160において、例えば、HMD1の初期姿勢からの姿勢変化量が基準量θth以上であるか否かを判定することで、制御モードを、位置制御モードに移行させるか否かを判定する。
そして、モード指定部111は、ステップS160における判定の結果が肯定の場合には、処理をステップS140に進め、ステップS160における判定の結果が否定の場合には、処理をステップS112に進める。
なお、図20に示すように、仮想カメラ制御部112は、ステップS148における判定の結果が肯定の場合には、処理をステップS104に進め、ステップS148における判定の結果が否定の場合には、処理をステップS150に進める。
19 and 20 are flowcharts illustrating an example of the operation of the terminal device 10 when the display process according to the present modification is executed. The flowcharts shown in FIGS. 19 and 20 are shown in FIGS. 10 to 12 except that the control unit 11 executes the process of step S160 and does not execute the processes of steps S116 and S120 to S138. This is the same as the flowchart.
As illustrated in FIG. 19, the mode specifying unit 111 determines whether to shift the control mode to the position control mode based on the posture information B acquired in step S108 or the posture change dB0 calculated in step S110. Is determined (S160).
Specifically, in step S160, the mode specifying unit 111 determines that the mode specifying unit 111 changes the control mode from the normal control mode when the posture change amount from the initial posture of the HMD1 is equal to or larger than the reference amount θth. Switch to control mode. That is, in step S160, for example, whether the mode designation unit 111 shifts the control mode to the position control mode by determining whether or not the posture change amount from the initial posture of the HMD1 is equal to or larger than the reference amount θth. Determine whether or not.
Then, if the result of determination in step S160 is affirmative, mode designating section 111 proceeds to step S140, and if the result of determination in step S160 is negative, the process proceeds to step S112.
As shown in FIG. 20, the virtual camera control unit 112 advances the process to step S104 when the result of determination in step S148 is affirmative, and performs processing when the result of determination in step S148 is negative. Advances to step S150.

本変形例においても、表示制御部110が、通常制御モード、及び、位置制御モードの、2つの制御モードによる視認画像GSの表示が可能である。このため、ユーザUは、HMD1の姿勢の変化により、仮想空間SP-Vにおける仮想カメラCMの位置及び姿勢を操作することが可能となる。   Also in this modification, the display control unit 110 can display the visual image GS in two control modes, the normal control mode and the position control mode. Therefore, the user U can operate the position and posture of the virtual camera CM in the virtual space SP-V by changing the posture of the HMD 1.

なお、本変形例において、通常制御モードは、「第1制御モード」の一例であり、位置制御モードは、「第2制御モード」の一例である。   In the present modification, the normal control mode is an example of a “first control mode”, and the position control mode is an example of a “second control mode”.

[変形例2]
上述した実施形態及び変形例において、撮像方向LCと、仮想カメラCM及び仮想点Kを結ぶ直線の方向とは、一致するが、本発明はこのような態様に限定されるものではない。例えば、撮像方向LCと、仮想カメラCM及び仮想点Kを結ぶ直線とのなす角度は、所定角度以下であればよい。
[Modification 2]
In the embodiment and the modification described above, the imaging direction LC and the direction of the straight line connecting the virtual camera CM and the virtual point K coincide with each other, but the present invention is not limited to such an aspect. For example, the angle formed by the imaging direction LC and a straight line connecting the virtual camera CM and the virtual point K may be a predetermined angle or less.

[変形例3]
上述した実施形態及び変形例において、仮想点Kは、位置制御モードにおいて、キャラクタVの存在領域及び設定領域の外部に移動可能であるが、本発明はこのような態様に限定されるものではない。仮想カメラ制御部112は、位置制御モードにおいて、仮想点Kが存在領域または設定領域の内部に位置するように、仮想カメラCMの位置PCの変化を制限してもよい。
[Modification 3]
In the embodiment and the modification described above, the virtual point K can be moved outside the existence area and the setting area of the character V in the position control mode, but the present invention is not limited to such an aspect. . In the position control mode, the virtual camera control unit 112 may limit the change in the position PC of the virtual camera CM so that the virtual point K is located inside the existence area or the setting area.

[変形例4]
上述した実施形態及び変形例において、仮想カメラ制御部112は、超過角度θovに基づいて、距離Disを決定するが、本発明はこのような態様に限定されるものではない。仮想カメラ制御部112は、例えば、距離Disが、姿勢変化dB2に含まれる回転角度θが基準量θth以上となっている時間長に応じた値となるように、仮想カメラCMの位置PC及び仮想点Kの位置PKを決定してもよい。
例えば、仮想カメラ制御部112は、位置制御モードにおいて、姿勢変化dB2に含まれる回転角度θが基準量θth以上となっている場合に、仮想カメラCMの位置PC及び仮想点Kの位置PKを、ベクトルVI方向に、一定の速度で移動させてもよい。
また、仮想カメラ制御部112は、位置制御モードにおいて、姿勢変化dB2に含まれる回転角度θが基準量θth以上となっている場合に、仮想カメラCMの位置PC及び仮想点Kの位置PKを、ベクトルVI方向に、超過角度θovに応じた速度で移動させてもよい。
[Modification 4]
In the embodiment and the modification described above, the virtual camera control unit 112 determines the distance Dis based on the excess angle θov, but the present invention is not limited to such an aspect. Virtual camera control section 112, for example, the distance Dis is, as a value corresponding to the time length rotation angle theta W is equal to or greater than a reference amount θth contained in attitude change dB2, position PC of the virtual camera CM and The position PK of the virtual point K may be determined.
For example, the virtual camera control section 112, in the position control mode, when the rotation angle theta W contained in the posture change dB2 is equal to or greater than the reference amount [theta] th, the position PK position PC and the virtual point K of the virtual camera CM Further, it may be moved at a constant speed in the vector VI direction.
Further, the virtual camera control section 112, in the position control mode, when the rotation angle theta W contained in the posture change dB2 is equal to or greater than the reference amount [theta] th, the position PK position PC and the virtual point K of the virtual camera CM Further, it may be moved in the vector VI direction at a speed corresponding to the excess angle θov.

[変形例5]
上述した実施形態及び変形例において、姿勢情報Bは、端末装置10の姿勢変化の検出結果を示すが、本発明はこのような態様に限定されるものではない。姿勢情報Bは、例えば、地上に固定された座標系から見た端末装置10の姿勢を示す情報であってもよい。
この場合、姿勢情報生成部14は、例えば、角速度センサ、及び、地磁気センサの一方または双方を含んで構成されていてもよい。また、この場合、姿勢情報Bは、例えば、HMD1の外部に設けられ、HMD1を撮像する撮像装置から出力される画像情報であってもよい。
[Modification 5]
In the embodiment and the modification described above, the posture information B indicates the detection result of the posture change of the terminal device 10, but the present invention is not limited to such a mode. The posture information B may be information indicating the posture of the terminal device 10 viewed from a coordinate system fixed on the ground, for example.
In this case, the posture information generation unit 14 may be configured to include one or both of an angular velocity sensor and a geomagnetic sensor, for example. In this case, the posture information B may be, for example, image information provided outside the HMD 1 and output from an imaging device that captures the HMD 1.

[変形例6]
上述した実施形態及び変形例において、情報処理装置は、HMD1に設けられるが、情報処理装置は、HMD1とは別個に設けられてもよい。
[Modification 6]
In the embodiment and the modification described above, the information processing apparatus is provided in the HMD 1, but the information processing apparatus may be provided separately from the HMD 1.

図21は、本変形例に係る表示システムSYSの構成の一例を示すブロック図である。
図21に示すように、表示システムSYSは、情報処理装置20と、情報処理装置20と通信可能なヘッドマウントディスプレイ1Aと、を備える。このうち、情報処理装置20は、例えば、制御部11と、操作部13と、記憶部15とを備えてもよい。また、ヘッドマウントディスプレイ1Aは、表示部12と、姿勢情報生成部14とに加え、ヘッドマウントディスプレイ1Aを装着したユーザUによる操作を受け付ける操作部31と、各種情報を記憶する記憶部32と、を備えてもよい。
FIG. 21 is a block diagram showing an example of the configuration of the display system SYS according to this modification.
As shown in FIG. 21, the display system SYS includes an information processing device 20 and a head mounted display 1 </ b> A that can communicate with the information processing device 20. Among these, the information processing apparatus 20 may include, for example, the control unit 11, the operation unit 13, and the storage unit 15. In addition to the display unit 12 and the posture information generation unit 14, the head mounted display 1A includes an operation unit 31 that receives an operation by the user U wearing the head mounted display 1A, a storage unit 32 that stores various types of information, May be provided.

[3.付記]
以上の記載から、本発明は例えば以下のように把握される。なお、各態様の理解を容易にするために、以下では、図面の参照符号を便宜的に括弧書きで付記するが、本発明を図示の態様に限定する趣旨ではない。
[3. Addendum]
From the above description, the present invention is grasped as follows, for example. In order to facilitate understanding of each aspect, reference numerals in the drawings are appended in parentheses for convenience in the following, but the present invention is not limited to the illustrated aspects.

[付記1]
本発明の一態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 1]
A program for an information processing device according to an aspect of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera and uses binocular parallax. A display control unit that displays a stereoscopic image on a display unit provided in a head-mounted display, and an acquisition unit that acquires posture information related to the posture of the head-mounted display function, and the display control unit The position of the virtual camera in the virtual space is changed based on the posture information around a virtual point set in the virtual space, and the posture of the virtual camera in the virtual space is changed based on the posture information. A first control mode for changing the position of the virtual point in the virtual space based on the posture information, An image can be displayed in a plurality of control modes including a second control mode that changes the position of the virtual camera based on the posture information, and the image is displayed in the first control mode. In this case, the control mode is switched from the first control mode to the second control mode when a change amount of the posture indicated by the posture information is equal to or greater than a reference amount.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、第1制御モード及び第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。すなわち、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることで仮想空間における仮想カメラの位置を変化させる場合と比較して、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
また、この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を仮想点を中心に変化させ、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想点の位置を変化させ、仮想点の位置に基づいて、仮想空間における仮想カメラの位置を変化させる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザは、仮想空間のうち仮想点の近傍を見続けることが可能となる。これにより、この態様によれば、例えば、対戦型の格闘ゲームにおける対戦相手、または、レースゲームにおけるレーシングカー等のような、仮想空間内における所定のオブジェクトを、ヘッドマウントディスプレイを装着したユーザが見続ける必要がある場合において、仮想空間における所定のオブジェクトに対応する位置に、仮想点が設定されるように、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を制御することで、ヘッドマウントディスプレイの表示部に、仮想空間のうち所定のオブジェクトが存在する領域を継続的に表示させることが可能となる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Moreover, according to this aspect, in the first control mode and the second control mode, the position of the virtual camera in the virtual space can be changed based on the posture information. That is, according to this aspect, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, compared with the case where the position of the virtual camera in the virtual space is changed by changing the position of the head mounted display in the real space, the user wearing the head mounted display can easily The position of the virtual camera in the virtual space can be changed.
Further, according to this aspect, in the first control mode, the position of the virtual camera in the virtual space is changed around the virtual point based on the posture information, and in the second control mode, based on the posture information, the virtual space is changed. The position of the virtual point in is changed, and the position of the virtual camera in the virtual space is changed based on the position of the virtual point. For this reason, according to this aspect, the user wearing the head mounted display can continue to see the vicinity of the virtual point in the virtual space. Thus, according to this aspect, for example, a user wearing a head-mounted display sees a predetermined object in a virtual space such as an opponent in a battle-type fighting game or a racing car in a race game. When it is necessary to continue, the user who wears the head mounted display controls the posture of the head mounted display so that the virtual point is set at the position corresponding to the predetermined object in the virtual space. It is possible to continuously display an area where a predetermined object exists in the virtual space on the display unit of the display.

なお、上記態様において、「仮想カメラ」とは、例えば、仮想空間を撮像する第1の仮想カメラと、仮想空間内のうち第1の仮想カメラとは異なる位置から仮想空間を撮像する第2の仮想カメラと、を備えるものであってもよい。また、この場合、「立体視画像」とは、例えば、仮想空間を第1の仮想カメラで撮像した、ユーザが左眼で視認するための左眼用画像と、仮想空間を第2の仮想カメラで撮像した、ユーザが右眼で視認するための右眼用画像と、を含む画像であってもよい。   In the above aspect, the “virtual camera” refers to, for example, a first virtual camera that images the virtual space and a second virtual image that captures the virtual space from a position different from the first virtual camera in the virtual space. And a virtual camera. In this case, the “stereoscopic image” refers to, for example, a left-eye image obtained by capturing the virtual space with the first virtual camera and viewed by the user with the left eye, and the virtual space to the second virtual camera. And an image for the right eye for the user to visually recognize with the right eye.

また、上記態様において、「ヘッドマウントディスプレイ」とは、例えば、頭部に装着可能な表示装置であってもよい。具体的には、「ヘッドマウントディスプレイ」とは、頭部に装着可能なゴーグル型または眼鏡型の表示装置であってもよい。また、「ヘッドマウントディスプレイ」とは、例えば、頭部に装着可能な装着具と、当該装着具に対して取り付けられた、スマートフォンのような携帯型の表示装置と、を有するものであってもよい。   In the above aspect, the “head mounted display” may be, for example, a display device that can be mounted on the head. Specifically, the “head-mounted display” may be a goggle-type or glasses-type display device that can be attached to the head. In addition, the “head mounted display” may include, for example, a wearing device that can be worn on the head and a portable display device such as a smartphone that is attached to the wearing device. Good.

また、上記態様において、「ヘッドマウントディスプレイの姿勢」とは、例えば、ヘッドマウントディスプレイの向きであってもよいし、ヘッドマウントディスプレイの傾きであってもよいし、ヘッドマウントディスプレイの向き及び傾きの双方を含む概念であってもよい。ここで、「ヘッドマウントディスプレイの向き」とは、例えば、現実空間における水平面内においてヘッドマウントディスプレイが向いている方向であってもよいし、ヘッドマウントディスプレイの基準方向と磁北方向とのなす角度であってもよい。また、「ヘッドマウントディスプレイの傾き」とは、例えば、ヘッドマウントディスプレイの基準方向と鉛直方向とのなす角度であってもよい。   In the above aspect, the “head mounted display attitude” may be, for example, the orientation of the head mounted display, the tilt of the head mounted display, or the orientation and inclination of the head mounted display. It may be a concept including both. Here, the “direction of the head-mounted display” may be, for example, a direction in which the head-mounted display is facing in a horizontal plane in real space, or an angle formed by the reference direction of the head-mounted display and the magnetic north direction. There may be. Further, the “tilt of the head mounted display” may be an angle formed by the reference direction of the head mounted display and the vertical direction, for example.

また、上記態様において、「姿勢情報」とは、例えば、ヘッドマウントディスプレイの姿勢を示す情報であってもよいし、ヘッドマウントディスプレイの姿勢変化を示す情報であってもよい。   In the above aspect, the “posture information” may be, for example, information indicating the posture of the head mounted display or information indicating the posture change of the head mounted display.

また、上記態様において、「取得部」は、例えば、ヘッドマウントディスプレイから姿勢情報を取得してもよいし、ヘッドマウントディスプレイを撮像する撮像装置から姿勢情報を取得してもよい。取得部が、ヘッドマウントディスプレイから姿勢情報を取得する場合、ヘッドマウントディスプレイは、ヘッドマウントディスプレイの姿勢変化を示す情報を検出するためのセンサを備えていてもよいし、ヘッドマウントディスプレイの姿勢を示す情報を検出するためのセンサを備えていてもよい。ここで、「ヘッドマウントディスプレイの姿勢変化を示す情報を検出するためのセンサ」とは、例えば、角速度センサであってもよい。また、「ヘッドマウントディスプレイの姿勢を示す情報を検出するためのセンサ」とは、例えば、地磁気センサ、及び、角速度センサの一方または双方であってもよい。また、取得部が、ヘッドマウントディスプレイを撮像する撮像装置から姿勢情報を取得する場合、姿勢情報は、例えば、撮像装置によりヘッドマウントディスプレイを撮像した結果を示す画像であってもよい。   In the above aspect, for example, the “acquisition unit” may acquire posture information from a head mounted display, or may acquire posture information from an imaging device that images the head mounted display. When the acquisition unit acquires the posture information from the head mounted display, the head mounted display may include a sensor for detecting information indicating the posture change of the head mounted display, and indicates the posture of the head mounted display. A sensor for detecting information may be provided. Here, the “sensor for detecting information indicating the posture change of the head mounted display” may be, for example, an angular velocity sensor. The “sensor for detecting information indicating the posture of the head mounted display” may be, for example, one or both of a geomagnetic sensor and an angular velocity sensor. In addition, when the acquisition unit acquires posture information from an imaging device that images a head-mounted display, the posture information may be an image indicating a result of imaging the head-mounted display by the imaging device, for example.

[付記2]
本発明の他の態様に係る情報処理装置のプログラムは、付記1に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第1制御モードにおいて、前記仮想カメラ及び前記仮想点を結ぶ線分と、前記表示部に表示される画像に基づいて定められる前記仮想空間内の基準直線とのなす角度が、所定角度以下となるように、前記仮想空間における前記仮想カメラの位置及び姿勢を変化させる、ことを特徴とする。
[Appendix 2]
An information processing apparatus program according to another aspect of the present invention is the information processing apparatus program according to attachment 1, wherein the display control unit displays the virtual camera and the virtual point in the first control mode. The position and orientation of the virtual camera in the virtual space such that an angle formed between a connecting line segment and a reference straight line in the virtual space determined based on an image displayed on the display unit is equal to or smaller than a predetermined angle. It is characterized by changing.

この態様によれば、仮想空間において仮想カメラが撮像する方向と、仮想カメラから見た仮想点の方向との、なす角度を、例えば、所定角度以下とすることが可能となる。このため、この態様によれば、例えば、ヘッドマウントディスプレイを装着したユーザが、仮想空間内における所定のオブジェクトを見続ける必要がある場合に、仮想空間における所定のオブジェクトに対応する位置に、仮想点が設定されるように、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を制御することで、ヘッドマウントディスプレイの表示部に、仮想空間のうち所定のオブジェクトが存在する領域を継続的に表示させることが可能となる。   According to this aspect, the angle formed by the direction captured by the virtual camera in the virtual space and the direction of the virtual point viewed from the virtual camera can be set to a predetermined angle or less, for example. Therefore, according to this aspect, for example, when a user wearing a head mounted display needs to continue to look at a predetermined object in the virtual space, the virtual point is located at a position corresponding to the predetermined object in the virtual space. By setting the position of the head mounted display, the user wearing the head mounted display can continuously display the area where the predetermined object exists in the virtual space on the display unit of the head mounted display. It can be displayed.

なお、上記態様において、「基準直線」とは、例えば、表示部に表示される画像のうち、特定の画素において表示される仮想空間内の特定箇所と、仮想カメラとを結ぶ直線であってもよい。また、この態様において、「基準直線」とは、例えば、仮想カメラの向く方向であってもよい。より具体的には、「基準直線」とは、例えば、仮想カメラの光軸方向であってもよい。   In the above aspect, the “reference straight line” may be, for example, a straight line connecting a virtual camera and a specific portion in a virtual space displayed in a specific pixel in an image displayed on the display unit. Good. In this aspect, the “reference straight line” may be, for example, a direction in which the virtual camera faces. More specifically, the “reference straight line” may be, for example, the optical axis direction of the virtual camera.

[付記3]
本発明の他の態様に係る情報処理装置のプログラムは、付記1または2に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第1制御モードにおいて、前記仮想空間における前記仮想点と前記仮想カメラとの間隔が、一定の距離を維持するように、前記仮想空間における前記仮想カメラの位置及び姿勢を変化させる、ことを特徴とする。
[Appendix 3]
An information processing apparatus program according to another aspect of the present invention is the information processing apparatus program according to attachment 1 or 2, wherein the display control unit is configured to execute the virtual in the virtual space in the first control mode. The position and posture of the virtual camera in the virtual space are changed so that the distance between the point and the virtual camera is maintained at a constant distance.

この態様によれば、仮想空間において、仮想カメラと仮想点との間隔を一定に維持することができる。すなわち、この態様によれば、例えば、仮想空間における所定のオブジェクトの位置に基づいて、仮想点を設定することで、仮想空間において、仮想カメラと所定のオブジェクトとの間隔を略一定に維持することができる。このため、この態様によれば、ヘッドマウントディスプレイの表示部において、所定のオブジェクトの大きさを略一定に維持しつつ、所定のオブジェクトを様々な方向から撮像した結果を表示することができる。なお、「間隔を略一定に維持する」とは、間隔を完全に一定に維持する場合の他に、所定範囲の誤差を含みつつ間隔を一定に維持する場合を含む概念であることとする。   According to this aspect, the interval between the virtual camera and the virtual point can be kept constant in the virtual space. That is, according to this aspect, for example, by setting the virtual point based on the position of the predetermined object in the virtual space, the interval between the virtual camera and the predetermined object is maintained substantially constant in the virtual space. Can do. For this reason, according to this aspect, it is possible to display the result of imaging the predetermined object from various directions while maintaining the size of the predetermined object substantially constant on the display unit of the head mounted display. Note that “maintaining the interval substantially constant” is a concept including not only maintaining the interval completely constant but also maintaining the interval constant while including an error in a predetermined range.

[付記4]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至3に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第1制御モードにおいて、前記仮想空間内における所定のオブジェクトの存在領域に対応する設定領域に、前記仮想点を設定し、前記第2制御モードにおいて、前記設定領域の内部で、前記仮想点の位置を変化させる、ことを特徴とする。
[Appendix 4]
A program for an information processing device according to another aspect of the present invention is the program for the information processing device according to appendices 1 to 3, wherein the display control unit is configured to perform predetermined processing in the virtual space in the first control mode. The virtual point is set in a setting area corresponding to the existence area of the object, and the position of the virtual point is changed inside the setting area in the second control mode.

この態様によれば、ヘッドマウントディスプレイの表示部に、仮想空間のうち所定のオブジェクトが存在する領域を継続的に表示させることが可能となる。   According to this aspect, it is possible to continuously display the area where the predetermined object exists in the virtual space on the display unit of the head mounted display.

なお、上記態様において、「所定のオブジェクト」とは、仮想空間内に存在する仮想的な物体であってもよい。例えば、「所定のオブジェクト」は、一定の形状を有する物体であってもよいし、仮想空間において一定の位置に存在する物体であってもよいし、または、形状と仮想空間における存在位置との一方または双方が変化可能なものであってもよい。具体的には、「所定のオブジェクト」は、例えば、仮想空間に存在する、人物、動物、及び、モンスター等の、キャラクタであってもよいし、仮想空間に存在する、乗り物、建造物、及び、道具等の、人工物であってもよいし、仮想空間を構成する部屋、森林、原野、及び、星等の環境構成物であってもよい。   In the above aspect, the “predetermined object” may be a virtual object existing in the virtual space. For example, the “predetermined object” may be an object having a certain shape, an object existing at a certain position in the virtual space, or a shape and an existing position in the virtual space. One or both may be variable. Specifically, the “predetermined object” may be, for example, a character such as a person, an animal, and a monster that exists in the virtual space, or a vehicle, a building, and the like that exist in the virtual space. Artifacts such as tools may be used, and environmental components such as rooms, forests, wildernesses, and stars that constitute a virtual space may be used.

[付記5]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至4に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第2制御モードにおいて、前記仮想カメラ及び前記仮想点を結ぶ線分と、前記表示部に表示される画像に基づいて定められる前記仮想空間内の基準直線とのなす角度が、所定角度以下となるように、前記仮想空間における前記仮想点の位置と、前記仮想空間における前記仮想カメラの位置と、を変化させる、ことを特徴とする。
[Appendix 5]
A program for an information processing device according to another aspect of the present invention is the program for the information processing device according to appendices 1 to 4, wherein the display control unit includes the virtual camera and the virtual in the second control mode. The position of the virtual point in the virtual space such that an angle formed by a line segment connecting the points and a reference straight line in the virtual space determined based on an image displayed on the display unit is equal to or smaller than a predetermined angle. And the position of the virtual camera in the virtual space.

この態様によれば、仮想空間において仮想カメラが撮像する方向と、仮想カメラから見た仮想点の方向との、なす角度を、例えば、所定角度以下とすることが可能となる。このため、この態様によれば、例えば、ヘッドマウントディスプレイを装着したユーザが、仮想空間内における所定のオブジェクトを見続ける必要がある場合に、仮想空間における所定のオブジェクトに対応する位置に、仮想点が設定されるように、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を制御することで、ヘッドマウントディスプレイの表示部に、仮想空間のうち所定のオブジェクトが存在する領域を継続的に表示させることが可能となる。   According to this aspect, the angle formed by the direction captured by the virtual camera in the virtual space and the direction of the virtual point viewed from the virtual camera can be set to a predetermined angle or less, for example. Therefore, according to this aspect, for example, when a user wearing a head mounted display needs to continue to look at a predetermined object in the virtual space, the virtual point is located at a position corresponding to the predetermined object in the virtual space. By setting the position of the head mounted display, the user wearing the head mounted display can continuously display the area where the predetermined object exists in the virtual space on the display unit of the head mounted display. It can be displayed.

[付記6]
本発明の他の態様に係る情報処理装置のプログラムは、付記5に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第2制御モードにおいて、前記仮想空間における前記仮想カメラの姿勢を一定に保つ、ことを特徴とする。
[Appendix 6]
An information processing apparatus program according to another aspect of the present invention is the information processing apparatus program according to attachment 5, wherein the display control unit is configured to store the virtual camera in the virtual space in the second control mode. It is characterized by keeping the posture constant.

この態様によれば、例えば、ヘッドマウントディスプレイを装着したユーザが、仮想空間内における所定のオブジェクトを見続ける必要がある場合に、仮想空間における所定のオブジェクトに対応する位置に、仮想点が設定されるように、ヘッドマウントディスプレイを装着したユーザが、ヘッドマウントディスプレイの姿勢を制御することで、ヘッドマウントディスプレイの表示部に、仮想空間のうち所定のオブジェクトが存在する領域を継続的に表示させることが可能となる。   According to this aspect, for example, when a user wearing a head-mounted display needs to continue to look at a predetermined object in the virtual space, a virtual point is set at a position corresponding to the predetermined object in the virtual space. As described above, the user wearing the head mounted display can continuously display the area where the predetermined object exists in the virtual space on the display unit of the head mounted display by controlling the posture of the head mounted display. Is possible.

[付記7]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至6に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第2制御モードにおいて、前記仮想空間における前記仮想点の位置を、前記姿勢情報の示す姿勢の変化量に応じた距離だけ変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報の示す姿勢の変化量に応じた距離だけ変化させる、ことを特徴とする。
[Appendix 7]
An information processing apparatus program according to another aspect of the present invention is the information processing apparatus program according to any one of appendices 1 to 6, wherein the display control unit is configured to execute the virtual in the virtual space in the second control mode. Changing the position of the point by a distance according to the amount of change in posture indicated by the posture information, and changing the position of the virtual camera in the virtual space by a distance according to the amount of change in posture indicated by the posture information; It is characterized by that.

この態様によれば、第2制御モードにおいて、ヘッドマウントディスプレイの姿勢の変化量に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、ヘッドマウントディスプレイの姿勢の変化量に応じて、仮想カメラの位置の変化量が決定される。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、仮想カメラの位置を所望の位置に変化させることが可能となる。
According to this aspect, in the second control mode, the position of the virtual camera in the virtual space can be changed based on the amount of change in the posture of the head mounted display. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
According to this aspect, the amount of change in the position of the virtual camera is determined in accordance with the amount of change in the posture of the head mounted display. For this reason, according to this aspect, the user wearing the head mounted display can change the position of the virtual camera to a desired position.

[付記8]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至7に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第2制御モードにおいて、前記ヘッドマウントディスプレイが、回転軸を中心として回転する場合、前記仮想空間における前記仮想点の位置を、前記回転軸に対応する仮想直線に垂直な仮想平面内において変化させ、前記仮想空間における前記仮想カメラの位置を、前記仮想平面内において変化させる、ことを特徴とする。
[Appendix 8]
A program for an information processing device according to another aspect of the present invention is the program for the information processing device according to appendices 1 to 7, wherein the display control unit is configured so that the head mounted display is in the second control mode. When rotating around a rotation axis, the position of the virtual point in the virtual space is changed in a virtual plane perpendicular to a virtual straight line corresponding to the rotation axis, and the position of the virtual camera in the virtual space is It is characterized by changing in a virtual plane.

この態様によれば、第2制御モードにおいて、ヘッドマウントディスプレイの姿勢の変化の方向に基づいて、仮想空間における仮想カメラの位置の変化の方向を定めることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、ヘッドマウントディスプレイの姿勢の変化方向に応じて、仮想カメラの位置の変化方向が決定される。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、仮想カメラの位置を所望の位置に変化させることが可能となる。
According to this aspect, in the second control mode, the direction of change in the position of the virtual camera in the virtual space can be determined based on the direction of change in the posture of the head mounted display. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
According to this aspect, the change direction of the position of the virtual camera is determined according to the change direction of the posture of the head mounted display. For this reason, according to this aspect, the user wearing the head mounted display can change the position of the virtual camera to a desired position.

なお、上記態様において、「仮想直線」とは、例えば、ヘッドマウントディスプレイが存在する現実空間の位置及び姿勢を、仮想空間における位置及び姿勢に変換するための演算子により、回転軸に平行な直線を変換した直線であってもよい。   In the above aspect, the “virtual straight line” means, for example, a straight line parallel to the rotation axis by an operator for converting the position and orientation of the real space where the head-mounted display exists into the position and orientation in the virtual space. It may be a straight line obtained by converting.

[付記9]
本発明の他の態様に係る情報処理装置のプログラムは、付記1乃至8に記載の情報処理装置のプログラムであって、前記表示制御部は、前記第1制御モードにおいて、前記ヘッドマウントディスプレイが、回転軸を中心として回転する場合であって、前記ヘッドマウントディスプレイの、前記回転軸を中心とする回転の角度が、基準角度以上となった場合に、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 9]
An information processing apparatus program according to another aspect of the present invention is the information processing apparatus program according to appendices 1 to 8, wherein the display control unit is configured such that, in the first control mode, the head mounted display is The control mode is changed from the first control mode when the head mount display is rotated around the rotation axis and the angle of rotation around the rotation axis is equal to or larger than a reference angle. The mode is switched to the second control mode.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。   According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.

[付記10]
本発明の一態様に係る情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 10]
An information processing apparatus according to one embodiment of the present invention provides a display control for displaying a stereoscopic image using binocular parallax on a display unit provided in a head-mounted display, which is an image obtained by capturing a virtual space with a virtual camera. And an acquisition unit that acquires posture information related to the posture of the head mounted display, and the display control unit centers the virtual point set in the virtual space on the position of the virtual camera in the virtual space. A first control mode for changing the posture of the virtual camera in the virtual space based on the posture information, and a position of the virtual point in the virtual space, the first control mode for changing the posture of the virtual camera in the virtual space. And a second control mode that changes the position of the virtual camera in the virtual space based on the posture information. When the image can be displayed in the control mode and the image is displayed in the first control mode, the control mode is changed when the change amount of the posture indicated by the posture information is equal to or larger than a reference amount. , Switching from the first control mode to the second control mode.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Moreover, according to this aspect, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

[付記11]
本発明の一態様に係るヘッドマウントディスプレイは、表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 11]
A head-mounted display according to an aspect of the present invention is a head-mounted display including a display unit and an information processing device, and the information processing device is an image obtained by capturing a virtual space with a virtual camera, A display control unit configured to display a stereoscopic image using binocular parallax on the display unit; and an acquisition unit configured to acquire posture information relating to a posture of the head mounted display, wherein the display control unit includes the virtual space The position of the virtual camera in the virtual space is changed based on the posture information around a virtual point set in the virtual space, and the posture of the virtual camera in the virtual space is changed based on the posture information. 1 control mode, and the position of the virtual point in the virtual space is changed based on the posture information, and the virtual camera in the virtual space is changed. In the case where the image can be displayed in a plurality of control modes including the second control mode that changes the position based on the posture information, and when the image is displayed in the first control mode, The control mode is switched from the first control mode to the second control mode when a change amount of the posture indicated by the posture information is equal to or greater than a reference amount.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Moreover, according to this aspect, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

[付記12]
本発明の一態様に係る表示システムは、表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、前記情報処理装置は、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、前記表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、を備え、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 12]
A display system according to one embodiment of the present invention is a display system including a head-mounted display having a display unit and an information processing device, and the information processing device is an image obtained by imaging a virtual space with a virtual camera. A display control unit that displays a stereoscopic image using binocular parallax on the display unit, and an acquisition unit that acquires posture information about the posture of the head mounted display, and the display control unit includes: The position of the virtual camera in the virtual space is changed based on the posture information around a virtual point set in the virtual space, and the posture of the virtual camera in the virtual space is changed based on the posture information. The first control mode to be changed and the position of the virtual point in the virtual space are changed based on the posture information, and the temporary space in the virtual space is changed. In the case of displaying an image in a plurality of control modes including a second control mode that changes the position of the camera based on the posture information, and displaying the image in the first control mode, The control mode is switched from the first control mode to the second control mode when a change amount of the posture indicated by the posture information is equal to or greater than a reference amount.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Moreover, according to this aspect, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

[付記13]
本発明の他の態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を変化させずに、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、を含む複数の制御モードによる画像の表示が可能であり、前記第1制御モードによる画像の表示をしている場合において、前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、ことを特徴とする。
[Appendix 13]
A program for an information processing device according to another aspect of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera and uses binocular parallax. The stereoscopic image is displayed on a display unit provided in a head mounted display, and the display control unit functions as an acquisition unit that acquires posture information regarding the posture of the head mounted display. A first control mode for changing a posture of the virtual camera in the virtual space based on the posture information without changing a position of the virtual camera in the virtual space; and a position of the virtual camera in the virtual space. In addition, it is possible to display an image in a plurality of control modes including a second control mode that is changed based on the posture information. When displaying an image in the first control mode, when the change amount of the posture indicated by the posture information is equal to or greater than a reference amount, the control mode is changed from the first control mode to the second control mode. The mode is switched to the mode.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、第2制御モードにおいて、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Also, according to this aspect, in the second control mode, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

[付記14]
本発明の他の態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を、前記仮想空間に設定された仮想点を中心に、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想点の位置を、前記姿勢情報に基づいて変化させ、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、による画像の表示が可能である、ことを特徴とする。
[Appendix 14]
A program for an information processing device according to another aspect of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera and uses binocular parallax. The stereoscopic image is displayed on a display unit provided in a head mounted display, and the display control unit functions as an acquisition unit that acquires posture information regarding the posture of the head mounted display. The position of the virtual camera in the virtual space is changed based on the posture information around a virtual point set in the virtual space, and the posture of the virtual camera in the virtual space is changed based on the posture information. A first control mode to be changed, and a position of the virtual point in the virtual space are changed based on the posture information, and the virtual space The position of definitive the virtual camera, and a second control mode for changing on the basis of the attitude information can be displayed in the image by, characterized in that.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Moreover, according to this aspect, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

[付記15]
本発明の他の態様に係る情報処理装置のプログラムは、プロセッサを具備する情報処理装置のプログラムであって、前記プロセッサを、仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、して機能させ、前記表示制御部は、前記仮想空間における前記仮想カメラの位置を変化させずに、前記仮想空間における前記仮想カメラの姿勢を、前記姿勢情報に基づいて変化させる第1制御モードと、前記仮想空間における前記仮想カメラの位置を、前記姿勢情報に基づいて変化させる第2制御モードと、による画像の表示が可能である、ことを特徴とする。
[Appendix 15]
A program for an information processing device according to another aspect of the present invention is a program for an information processing device including a processor, wherein the processor is an image obtained by capturing a virtual space with a virtual camera and uses binocular parallax. The stereoscopic image is displayed on a display unit provided in a head mounted display, and the display control unit functions as an acquisition unit that acquires posture information regarding the posture of the head mounted display. A first control mode for changing a posture of the virtual camera in the virtual space based on the posture information without changing a position of the virtual camera in the virtual space; and a position of the virtual camera in the virtual space. The image can be displayed in the second control mode that is changed based on the posture information.

この態様によれば、第1制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの姿勢を変化させることができ、また、第2制御モードにおいて、姿勢情報に基づいて、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイの姿勢の変化により、仮想空間における仮想カメラの姿勢の変化以外の操作を行うことが可能となる。
また、この態様によれば、第2制御モードにおいて、実空間においてヘッドマウントディスプレイの位置を変化させることなく、仮想空間における仮想カメラの位置を変化させることができる。このため、この態様によれば、ヘッドマウントディスプレイを装着したユーザが、容易に、仮想空間における仮想カメラの位置を変化させることができる。
According to this aspect, the posture of the virtual camera in the virtual space can be changed based on the posture information in the first control mode, and the virtual space in the virtual space can be changed based on the posture information in the second control mode. The position of the camera can be changed. For this reason, according to this aspect, it becomes possible to perform operations other than the change of the posture of the virtual camera in the virtual space by the change of the posture of the head mounted display.
Also, according to this aspect, in the second control mode, the position of the virtual camera in the virtual space can be changed without changing the position of the head mounted display in the real space. For this reason, according to this aspect, the user wearing the head mounted display can easily change the position of the virtual camera in the virtual space.

1…ヘッドマウントディスプレイ、10…端末装置、11…制御部、12…表示部、13…操作部、14…姿勢情報生成部、15…記憶部、90…装着具、110…表示制御部、111…モード指定部、112…仮想カメラ制御部、113…表示情報生成部、114…姿勢情報取得部、1000…プロセッサ、1002…角速度センサ。
DESCRIPTION OF SYMBOLS 1 ... Head mounted display, 10 ... Terminal device, 11 ... Control part, 12 ... Display part, 13 ... Operation part, 14 ... Attitude information generation part, 15 ... Memory | storage part, 90 ... Wearing tool, 110 ... Display control part, 111 ... Mode designation unit, 112 ... Virtual camera control unit, 113 ... Display information generation unit, 114 ... Attitude information acquisition unit, 1000 ... Processor, 1002 ... Angular velocity sensor.

Claims (12)

プロセッサを具備する情報処理装置のプログラムであって、
前記プロセッサを、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
して機能させ、
前記表示制御部は、
前記仮想空間における前記仮想カメラの位置を、
前記仮想空間に設定された仮想点を中心に、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの姿勢を、
前記姿勢情報に基づいて変化させる第1制御モードと、
前記仮想空間における前記仮想点の位置を、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記姿勢情報に基づいて変化させる第2制御モードと、
を含む複数の制御モードによる画像の表示が可能であり、
前記第1制御モードによる画像の表示をしている場合において、
前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、
前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、
ことを特徴とする、情報処理装置のプログラム。
A program for an information processing apparatus comprising a processor,
The processor;
An image obtained by capturing a virtual space with a virtual camera, and a stereoscopic image using binocular parallax,
A display control unit for displaying on a display unit provided in the head mounted display;
An acquisition unit for acquiring posture information relating to the posture of the head mounted display;
To function,
The display control unit
The position of the virtual camera in the virtual space,
Centering on the virtual point set in the virtual space,
Change based on the posture information,
The attitude of the virtual camera in the virtual space,
A first control mode to be changed based on the posture information;
The position of the virtual point in the virtual space,
Change based on the posture information,
The position of the virtual camera in the virtual space,
A second control mode to be changed based on the posture information;
It is possible to display images in multiple control modes including
When displaying an image in the first control mode,
When the amount of change in posture indicated by the posture information is equal to or greater than a reference amount,
Switching the control mode from the first control mode to the second control mode;
A program for an information processing apparatus.
前記表示制御部は、
前記第1制御モードにおいて、
前記仮想カメラ及び前記仮想点を結ぶ線分と、
前記表示部に表示される画像に基づいて定められる前記仮想空間内の基準直線とのなす角度が、
所定角度以下となるように、
前記仮想空間における前記仮想カメラの位置及び姿勢を変化させる、
ことを特徴とする、請求項1に記載の情報処理装置のプログラム。
The display control unit
In the first control mode,
A line segment connecting the virtual camera and the virtual point;
An angle formed with a reference straight line in the virtual space determined based on an image displayed on the display unit,
In order to be below a predetermined angle,
Changing the position and orientation of the virtual camera in the virtual space;
The information processing apparatus program according to claim 1, wherein:
前記表示制御部は、
前記第1制御モードにおいて、
前記仮想空間における前記仮想点と前記仮想カメラとの間隔が、
一定の距離を維持するように、
前記仮想空間における前記仮想カメラの位置及び姿勢を変化させる、
ことを特徴とする、請求項1または2に記載の情報処理装置のプログラム。
The display control unit
In the first control mode,
An interval between the virtual point and the virtual camera in the virtual space is
To maintain a certain distance,
Changing the position and orientation of the virtual camera in the virtual space;
The program of the information processing apparatus according to claim 1, wherein the program is an information processing apparatus.
前記表示制御部は、
前記第1制御モードにおいて、
前記仮想空間内における所定のオブジェクトの存在領域に対応する設定領域に、
前記仮想点を設定し、
前記第2制御モードにおいて、
前記設定領域の内部で、
前記仮想点の位置を変化させる、
ことを特徴とする、請求項1乃至3のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit
In the first control mode,
In the setting area corresponding to the existence area of the predetermined object in the virtual space,
Set the virtual point,
In the second control mode,
Inside the setting area,
Changing the position of the virtual point;
The information processing apparatus program according to any one of claims 1 to 3, wherein the program is an information processing apparatus.
前記表示制御部は、
前記第2制御モードにおいて、
前記仮想カメラ及び前記仮想点を結ぶ線分と、
前記表示部に表示される画像に基づいて定められる前記仮想空間内の基準直線とのなす角度が、
所定角度以下となるように、
前記仮想空間における前記仮想点の位置と、
前記仮想空間における前記仮想カメラの位置と、を変化させる、
ことを特徴とする、請求項1乃至4のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit
In the second control mode,
A line segment connecting the virtual camera and the virtual point;
An angle formed with a reference straight line in the virtual space determined based on an image displayed on the display unit,
In order to be below a predetermined angle,
The position of the virtual point in the virtual space;
Changing the position of the virtual camera in the virtual space;
The program of the information processing apparatus according to any one of claims 1 to 4, wherein the program is an information processing apparatus.
前記表示制御部は、
前記第2制御モードにおいて、
前記仮想空間における前記仮想カメラの姿勢を一定に保つ、
ことを特徴とする、請求項5に記載の情報処理装置のプログラム。
The display control unit
In the second control mode,
Keeping the attitude of the virtual camera in the virtual space constant,
The program of the information processing apparatus according to claim 5, wherein
前記表示制御部は、
前記第2制御モードにおいて、
前記仮想空間における前記仮想点の位置を、
前記姿勢情報の示す姿勢の変化量に応じた距離だけ変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記姿勢情報の示す姿勢の変化量に応じた距離だけ変化させる、
ことを特徴とする、請求項1乃至6のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit
In the second control mode,
The position of the virtual point in the virtual space,
Change the distance according to the amount of change in posture indicated by the posture information,
The position of the virtual camera in the virtual space,
The distance is changed according to the amount of change in posture indicated by the posture information.
The information processing apparatus program according to any one of claims 1 to 6, wherein the program is an information processing apparatus.
前記表示制御部は、
前記第2制御モードにおいて、
前記ヘッドマウントディスプレイが、回転軸を中心として回転する場合、
前記仮想空間における前記仮想点の位置を、
前記回転軸に対応する仮想直線に垂直な仮想平面内において変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記仮想平面内において変化させる、
ことを特徴とする、請求項1乃至7のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit
In the second control mode,
When the head mounted display rotates around the rotation axis,
The position of the virtual point in the virtual space,
Changing in a virtual plane perpendicular to a virtual straight line corresponding to the rotation axis,
The position of the virtual camera in the virtual space,
Changing in the virtual plane,
The program of the information processing apparatus according to any one of claims 1 to 7, wherein the program is an information processing apparatus.
前記表示制御部は、
前記第1制御モードにおいて、
前記ヘッドマウントディスプレイが、回転軸を中心として回転する場合であって、
前記ヘッドマウントディスプレイの、前記回転軸を中心とする回転の角度が、基準角度以上となった場合に、
前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、
ことを特徴とする、請求項1乃至8のうち何れか1項に記載の情報処理装置のプログラム。
The display control unit
In the first control mode,
The head-mounted display rotates about a rotation axis;
When the angle of rotation of the head mounted display around the rotation axis is equal to or greater than a reference angle,
Switching the control mode from the first control mode to the second control mode;
The information processing apparatus program according to any one of claims 1 to 8, wherein the program is an information processing apparatus.
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
ヘッドマウントディスプレイに設けられた表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における前記仮想カメラの位置を、
前記仮想空間に設定された仮想点を中心に、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの姿勢を、
前記姿勢情報に基づいて変化させる第1制御モードと、
前記仮想空間における前記仮想点の位置を、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記姿勢情報に基づいて変化させる第2制御モードと、
を含む複数の制御モードによる画像の表示が可能であり、
前記第1制御モードによる画像の表示をしている場合において、
前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、
前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、
ことを特徴とする、情報処理装置。
An image obtained by capturing a virtual space with a virtual camera, and a stereoscopic image using binocular parallax,
A display control unit for displaying on a display unit provided in the head mounted display;
An acquisition unit for acquiring posture information relating to the posture of the head mounted display;
With
The display control unit
The position of the virtual camera in the virtual space,
Centering on the virtual point set in the virtual space,
Change based on the posture information,
The attitude of the virtual camera in the virtual space,
A first control mode to be changed based on the posture information;
The position of the virtual point in the virtual space,
Change based on the posture information,
The position of the virtual camera in the virtual space,
A second control mode to be changed based on the posture information;
It is possible to display images in multiple control modes including
When displaying an image in the first control mode,
When the amount of change in posture indicated by the posture information is equal to or greater than a reference amount,
Switching the control mode from the first control mode to the second control mode;
An information processing apparatus.
表示部と、情報処理装置と、を具備するヘッドマウントディスプレイであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における前記仮想カメラの位置を、
前記仮想空間に設定された仮想点を中心に、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの姿勢を、
前記姿勢情報に基づいて変化させる第1制御モードと、
前記仮想空間における前記仮想点の位置を、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記姿勢情報に基づいて変化させる第2制御モードと、
を含む複数の制御モードによる画像の表示が可能であり、
前記第1制御モードによる画像の表示をしている場合において、
前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、
前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、
ことを特徴とする、ヘッドマウントディスプレイ。
A head-mounted display comprising a display unit and an information processing device,
The information processing apparatus includes:
An image obtained by capturing a virtual space with a virtual camera, and a stereoscopic image using binocular parallax,
A display control unit to be displayed on the display unit;
An acquisition unit for acquiring posture information relating to the posture of the head mounted display;
With
The display control unit
The position of the virtual camera in the virtual space,
Centering on the virtual point set in the virtual space,
Change based on the posture information,
The attitude of the virtual camera in the virtual space,
A first control mode to be changed based on the posture information;
The position of the virtual point in the virtual space,
Change based on the posture information,
The position of the virtual camera in the virtual space,
A second control mode to be changed based on the posture information;
It is possible to display images in multiple control modes including
When displaying an image in the first control mode,
When the amount of change in posture indicated by the posture information is equal to or greater than a reference amount,
Switching the control mode from the first control mode to the second control mode;
A head mounted display.
表示部を有するヘッドマウントディスプレイと、情報処理装置と、を具備する表示システムであって、
前記情報処理装置は、
仮想空間を仮想カメラで撮像した画像であって、両眼視差を利用した立体視画像を、
前記表示部に表示させる表示制御部と、
前記ヘッドマウントディスプレイの姿勢に関する姿勢情報を取得する取得部と、
を備え、
前記表示制御部は、
前記仮想空間における前記仮想カメラの位置を、
前記仮想空間に設定された仮想点を中心に、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの姿勢を、
前記姿勢情報に基づいて変化させる第1制御モードと、
前記仮想空間における前記仮想点の位置を、
前記姿勢情報に基づいて変化させ、
前記仮想空間における前記仮想カメラの位置を、
前記姿勢情報に基づいて変化させる第2制御モードと、
を含む複数の制御モードによる画像の表示が可能であり、
前記第1制御モードによる画像の表示をしている場合において、
前記姿勢情報の示す姿勢の変化量が基準量以上となったときに、
前記制御モードを、前記第1制御モードから前記第2制御モードへと切り替える、
ことを特徴とする、表示システム。
A display system comprising a head mounted display having a display unit and an information processing device,
The information processing apparatus includes:
An image obtained by capturing a virtual space with a virtual camera, and a stereoscopic image using binocular parallax,
A display control unit to be displayed on the display unit;
An acquisition unit for acquiring posture information relating to the posture of the head mounted display;
With
The display control unit
The position of the virtual camera in the virtual space,
Centering on the virtual point set in the virtual space,
Change based on the posture information,
The attitude of the virtual camera in the virtual space,
A first control mode to be changed based on the posture information;
The position of the virtual point in the virtual space,
Change based on the posture information,
The position of the virtual camera in the virtual space,
A second control mode to be changed based on the posture information;
It is possible to display images in multiple control modes including
When displaying an image in the first control mode,
When the amount of change in posture indicated by the posture information is equal to or greater than a reference amount,
Switching the control mode from the first control mode to the second control mode;
A display system characterized by that.
JP2018005513A 2018-01-17 2018-01-17 Information processing apparatus, information processing apparatus program, head mounted display, and display system Active JP6388270B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018005513A JP6388270B1 (en) 2018-01-17 2018-01-17 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018005513A JP6388270B1 (en) 2018-01-17 2018-01-17 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018147317A Division JP6623431B2 (en) 2018-08-06 2018-08-06 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Publications (2)

Publication Number Publication Date
JP6388270B1 true JP6388270B1 (en) 2018-09-12
JP2019125169A JP2019125169A (en) 2019-07-25

Family

ID=63518882

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018005513A Active JP6388270B1 (en) 2018-01-17 2018-01-17 Information processing apparatus, information processing apparatus program, head mounted display, and display system

Country Status (1)

Country Link
JP (1) JP6388270B1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6923964B2 (en) * 2019-11-05 2021-08-25 株式会社コナミデジタルエンタテインメント Information processing equipment, information processing equipment programs, head-mounted displays, and display systems

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016109127A1 (en) * 2014-12-29 2016-07-07 Sony Computer Entertainment America Llc Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
JP2016224823A (en) * 2015-06-02 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, information processor, and display control method and program
JP2017102297A (en) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
JP6234622B1 (en) * 2017-01-16 2017-11-22 株式会社コロプラ Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program
JP2018005609A (en) * 2016-07-04 2018-01-11 株式会社コロプラ Display control method and program for allowing computer to execute display control method
JP2018072992A (en) * 2016-10-26 2018-05-10 株式会社コロプラ Information processing method and equipment and program making computer execute the information processing method

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016109127A1 (en) * 2014-12-29 2016-07-07 Sony Computer Entertainment America Llc Methods and systems for user interaction within virtual or augmented reality scene using head mounted display
JP2016224823A (en) * 2015-06-02 2016-12-28 株式会社ソニー・インタラクティブエンタテインメント Head-mounted display, information processor, and display control method and program
JP2017102297A (en) * 2015-12-02 2017-06-08 株式会社ソニー・インタラクティブエンタテインメント Display control device and display control method
JP2018005609A (en) * 2016-07-04 2018-01-11 株式会社コロプラ Display control method and program for allowing computer to execute display control method
JP2018072992A (en) * 2016-10-26 2018-05-10 株式会社コロプラ Information processing method and equipment and program making computer execute the information processing method
JP6234622B1 (en) * 2017-01-16 2017-11-22 株式会社コロプラ Method for communicating via virtual space, program for causing computer to execute the method, and information processing apparatus for executing the program

Also Published As

Publication number Publication date
JP2019125169A (en) 2019-07-25

Similar Documents

Publication Publication Date Title
EP2475178B1 (en) Information processing program, information processing method and information processing apparatus
JP5586545B2 (en) GAME SYSTEM, PORTABLE GAME DEVICE, INFORMATION PROCESSOR CONTROL METHOD, AND INFORMATION PROCESSOR CONTROL PROGRAM
US11184597B2 (en) Information processing device, image generation method, and head-mounted display
JP6899875B2 (en) Information processing device, video display system, information processing device control method, and program
JP2013258614A (en) Image generation device and image generation method
JP5757790B2 (en) Information processing program, information processing apparatus, information processing system, and information processing method
JP7459334B2 (en) Image display system, image display program, display control device, and image display method
JP2024091707A (en) IMAGE DISPLAY SYSTEM, IMAGE DISPLAY PROGRAM, DISPLAY CONTROL DEVICE, AND IMAGE DISPLAY METHOD
JP6582205B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and information processing system
JP6388270B1 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6707224B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP6623431B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
US20180161676A1 (en) Information processing apparatus, image generating method, and program
JP6923964B2 (en) Information processing equipment, information processing equipment programs, head-mounted displays, and display systems
JP7043711B2 (en) Information processing equipment, information processing equipment programs, head-mounted displays, and display systems
WO2019181747A1 (en) Information processing device, recording medium, head-mounted display and information processing system
JP7078273B2 (en) Information processing equipment, information processing equipment programs, head-mounted displays, and information processing systems
JP6675615B2 (en) Information processing apparatus, information processing apparatus program, head mounted display, and display system
JP2019175470A (en) Information processing device, program of information processing device, heat-mounted device, and information processing system
JP7467748B1 (en) Display control device, display system and program
WO2023149125A1 (en) Information processing device and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180226

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20180301

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180606

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180710

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180806

R150 Certificate of patent or registration of utility model

Ref document number: 6388270

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250