JP2019174811A - Display system and display method - Google Patents

Display system and display method Download PDF

Info

Publication number
JP2019174811A
JP2019174811A JP2019082141A JP2019082141A JP2019174811A JP 2019174811 A JP2019174811 A JP 2019174811A JP 2019082141 A JP2019082141 A JP 2019082141A JP 2019082141 A JP2019082141 A JP 2019082141A JP 2019174811 A JP2019174811 A JP 2019174811A
Authority
JP
Japan
Prior art keywords
image
display
display device
predetermined
displayed
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019082141A
Other languages
Japanese (ja)
Other versions
JP6670965B2 (en
Inventor
家栄 曹
Kaei Sou
家栄 曹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019082141A priority Critical patent/JP6670965B2/en
Publication of JP2019174811A publication Critical patent/JP2019174811A/en
Application granted granted Critical
Publication of JP6670965B2 publication Critical patent/JP6670965B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

To provide a display system capable of minimizing VR sickness of a user who uses an HMD.SOLUTION: A display system having a display device identifies a direction of the display device and displays a first image which shows a state of a virtual space according to the identified direction on a display screen of the display device and a second image which does not change according to the identified direction on a predetermined region of the display screen.SELECTED DRAWING: Figure 2

Description

本発明は、ユーザの頭部に装着する表示装置を用いた表示システム及び表示方法に関する。   The present invention relates to a display system and a display method using a display device mounted on a user's head.

近年、ヘッドマウントディスプレイ(以下、HMDという)等を用いたVR(Virtual Reality)技術がある。例えば、仮想カメラにより撮像された、仮想世界を構成する背景画像をHMDに表示し、ユーザに対して仮想世界に入り込んだような感覚(いわゆる没入感)を与えるものである。   In recent years, there is a VR (Virtual Reality) technology using a head mounted display (hereinafter referred to as HMD) or the like. For example, a background image that forms a virtual world captured by a virtual camera is displayed on the HMD, and the user feels as if he / she has entered the virtual world (so-called immersion).

また、前記仮想カメラとは異なる他の仮想カメラにより撮像された画像を、表示された背景画像とは別に、ユーザの視野に含まれるように、背景画像に重畳させて表示する技術もある。   There is also a technique for displaying an image captured by another virtual camera different from the virtual camera so as to be superimposed on the background image so as to be included in the user's field of view separately from the displayed background image.

しかし、従来の技術ではいわゆるVR酔いが生じていた。これは、ユーザの身体が動いていないにもかかわらず、HMDの動きに応じて、背景画像及び重畳させた画像が動くことで、ユーザの身体の感覚にずれが生じるためである。   However, in the prior art, so-called VR sickness has occurred. This is because, although the user's body is not moving, the background image and the superimposed image move according to the movement of the HMD, thereby causing a shift in the sense of the user's body.

本発明の少なくとも1つの実施の形態の目的は、HMDを使用するユーザのVR酔いを軽減させることが可能な表示システムを提供することである。   An object of at least one embodiment of the present invention is to provide a display system capable of reducing VR sickness of a user who uses an HMD.

非限定的な観点によると、本発明に係る表示システムは、表示装置を備える表示システムであって、表示装置の向きを特定する向き特定手段と、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段とを備え、前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、表示システムである。   According to a non-limiting viewpoint, the display system according to the present invention is a display system provided with a display device, and the orientation specifying means for specifying the orientation of the display device and the orientation specified on the display screen of the display device. A display unit that displays a first image indicating a state of the virtual space according to the display unit and displays a second image that does not change according to the specified orientation in a predetermined region of the display screen. In the display system, when a predetermined object in the first image is present at a position overlapping the predetermined area, the second image is displayed at a position different from the predetermined area.

非限定的な観点によると、本発明に係る表示方法は、表示装置を備えるシステムにおいて実行される表示方法であって、表示装置の向きを特定することと、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することとを実行し、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示する、表示方法である。   According to a non-limiting viewpoint, the display method according to the present invention is a display method executed in a system including a display device, and is specified on the display screen of the display device and the orientation of the display device. Displaying a first image indicating the state of the virtual space according to the orientation, and displaying a second image that does not change according to the specified orientation in a predetermined area of the display screen. In the display method, the second image is displayed at a position different from the predetermined area when a predetermined object in the image is present at a position overlapping the predetermined area.

本発明の各実施形態により1または2以上の不足が解決される。   Each embodiment of the present invention solves one or more deficiencies.

本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the display apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。It is a figure which shows the orthogonal coordinate system for specifying a user's attitude | position when the display apparatus corresponding to at least 1 of embodiment of this invention is mounted | worn with a head. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。It is a block diagram which shows the structure of the computer apparatus corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。It is a block diagram which shows the structure of the display system corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。It is an example of the execution screen corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。It is a figure showing the concept of virtual space corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。It is a flowchart of the execution process corresponding to at least 1 of embodiment of this invention. 本発明の実施の形態の少なくとも1つに対応する、サブウィンドウに表示される領域を説明する図である。It is a figure explaining the area | region displayed on a subwindow corresponding to at least 1 of embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。   Embodiments of the present invention will be described below with reference to the accompanying drawings. Hereinafter, the description regarding the effect is one aspect of the effect of the embodiment of the present invention, and is not limited to what is described here. In addition, the order of the processes constituting the flowchart described below is out of order as long as no contradiction or inconsistency occurs in the process contents.

[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、本発明の第一の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[First embodiment]
The outline of the first embodiment of the present invention will be described. Hereinafter, as a first embodiment of the present invention, a display system including a display device that is used by being worn on the user's head will be described as an example.

図1は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、向き特定部101、及び表示部102を少なくとも備える。   FIG. 1 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes at least an orientation specifying unit 101 and a display unit 102.

向き特定部101は、表示装置の向きを特定する機能を有する。表示部102は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する機能を有する。   The orientation specifying unit 101 has a function of specifying the orientation of the display device. The display unit 102 displays the first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and does not change according to the specified orientation in a predetermined area of the display screen. It has a function of displaying the second image.

本発明の第一の実施の形態における実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。   The execution process in the first embodiment of the present invention will be described. FIG. 2 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention.

表示システム1は、向き特定部101により、ユーザの頭部に装着することで利用される表示装置の向きを特定する(ステップS1)。表示システム1は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示し(ステップS2)、終了する。   In the display system 1, the orientation identifying unit 101 identifies the orientation of the display device used by being mounted on the user's head (step S1). The display system 1 displays the first image indicating the state of the virtual space according to the specified orientation on the display screen of the display device, and does not change according to the specified orientation in a predetermined region of the display screen. The second image is displayed (step S2) and the process ends.

第一の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the first embodiment, the VR sickness of the user who uses the HMD is reduced by displaying a second image that does not change according to the specified orientation in a predetermined area of the display screen. it can.

第一の実施の形態において、「頭部に装着」とは、例えば、帽子のように頭に被ること、眼鏡のように顔に付けること、あるいは、その他頭部の一部に付着させることをいい、身体の一部から延長させて頭部を覆うような場合も含む概念である。「表示装置」とは、例えば、両眼あるいは単眼で画像を視認可能な表示装置であって、装着すると外の様子を見ることができない非透過型や、眼鏡のように透明な部材で外の様子を見ることが可能な透過型を含むものである。「向き」とは、例えば、単に物体の方向や角度だけでなく、加速度のような単位時間の変化量に関する方向を含む概念である。「仮想空間」とは、例えば、プログラム及びデータにより定義される空間であって、コンピュータにより生成される仮想的な空間をいう。「第一画像」とは、例えば、仮想空間の状態を示す画像をいう。「第二画像」とは、例えば、仮想空間の状態を示す画像とは異なる画像であって、表示装置により特定された向きに応じて変化しない画像をいう。   In the first embodiment, “attaching to the head” means, for example, putting on the head like a hat, attaching to the face like glasses, or attaching to a part of the head. It is a concept that includes the case of covering the head by extending from a part of the body. “Display device” is, for example, a display device capable of visually recognizing images with both eyes or a single eye. It includes a transmission type that can be seen. “Direction” is a concept including not only the direction and angle of an object, but also a direction related to the amount of change in unit time, such as acceleration. The “virtual space” is a space defined by a program and data, for example, and is a virtual space generated by a computer. The “first image” refers to, for example, an image indicating the state of the virtual space. The “second image” is, for example, an image that is different from an image indicating the state of the virtual space and does not change according to the orientation specified by the display device.

[第二の実施の形態]
本発明の第二の実施の形態の概要について説明をする。以下では、本発明の第二の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Second Embodiment]
The outline of the second embodiment of the present invention will be described. Hereinafter, as a second embodiment of the present invention, a display system including a display device used by being mounted on the user's head will be described as an example.

表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。   With regard to the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.

第二の実施の形態の一例として、第二画像は、所定の条件を満たすことで表示されることが好ましい。   As an example of the second embodiment, the second image is preferably displayed by satisfying a predetermined condition.

第二の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the second embodiment, by displaying a second image that does not change according to the specified orientation in a predetermined region of the display screen, it is possible to reduce VR sickness of a user who uses the HMD. it can.

第二の実施の形態の一側面として、所定の条件を満たすことにより第二画像を表示させることで、第一画像に対するユーザの視認性を損なうことなく、適切な場面で違和感なく第二画像を表示することができる。   As one aspect of the second embodiment, by displaying the second image by satisfying a predetermined condition, the second image can be displayed without an uncomfortable feeling in an appropriate scene without impairing the visibility of the user with respect to the first image. Can be displayed.

第二の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「第二画像」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the second embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “second image” are the same as those in the first embodiment. The contents described in the form can be adopted within a necessary range.

[第三の実施の形態]
次に、本発明の第三の実施の形態の概要について説明する。本発明の第三の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Third embodiment]
Next, an outline of the third embodiment of the present invention will be described. As a third embodiment of the present invention, a display system including a display device used by being worn on the user's head will be described as an example.

図3は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。図3(a)は、表示システムの構成に関する1つの例を表す図である。表示システム1は、動きや向きを検知するためのセンサを搭載したディスプレイ装置201と、光線を照射する照射装置202と、ディスプレイ装置201にて表示される画像を生成又は処理するコンピュータ装置203と、センサを搭載したコントローラ204とから構成される。   FIG. 3 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. FIG. 3A is a diagram illustrating an example of the configuration of the display system. The display system 1 includes a display device 201 equipped with a sensor for detecting movement and orientation, an irradiation device 202 that emits light, a computer device 203 that generates or processes an image displayed on the display device 201, It is comprised from the controller 204 carrying a sensor.

ディスプレイ装置201は、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。また、ディスプレイ装置201は、搭載された複数のセンサを用いて、ユーザの姿勢を特定することができる。ディスプレイ装置201の構成については後述する。   The display device 201 is preferably a goggle type display device that is attached to the head so as to cover the field of view. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance. In addition, the display device 201 can specify the posture of the user using a plurality of mounted sensors. The configuration of the display device 201 will be described later.

照射装置202は、広範囲にレーザ光線を照射する装置である。照射装置202の周囲にレーザ光線が照射されると、ディスプレイ装置201及びコントローラ204に搭載された光センサによってレーザ光線が感知され、ディスプレイ装置201及びコントローラ204の位置を特定する。この位置特定方法は、「Lighthouse方式」と呼ばれるものである。照射装置202は、より正確に位置を特定するために、所定の間隔を空けて少なくとも2台設置されることが好ましい。   The irradiation device 202 is a device that irradiates a laser beam over a wide range. When a laser beam is irradiated around the irradiation device 202, the laser beam is detected by an optical sensor mounted on the display device 201 and the controller 204, and the positions of the display device 201 and the controller 204 are specified. This position specifying method is called “Lighthouse method”. In order to specify the position more accurately, it is preferable that at least two irradiation devices 202 are installed at a predetermined interval.

コンピュータ装置203は、ディスプレイ装置201及びコントローラ204と通信により接続可能である。通信は、有線又は無線によるものであってもよい。コンピュータ装置203は、ディスプレイ装置201と互いに独立した装置であってもよいし、ディスプレイ装置201に組み込まれた一体の装置であってもよい。   The computer device 203 can be connected to the display device 201 and the controller 204 by communication. Communication may be wired or wireless. The computer device 203 may be a device independent of the display device 201 or may be an integrated device incorporated in the display device 201.

コントローラ204は、ボタンとトリガを備え、ユーザの操作により入力を受け付ける入力装置である。また、光センサが搭載されており、照射装置202から照射されたレーザ光線を感知することができる。さらに、タッチセンサが搭載されており、ユーザの接触による入力を受け付けることができる。コントローラ204は、一対にして左右の手に把持して使用するものであるが、いずれか1つのみを使用するものであってもよい。   The controller 204 is an input device that includes a button and a trigger and receives an input by a user operation. In addition, an optical sensor is mounted, and the laser beam emitted from the irradiation device 202 can be sensed. Furthermore, the touch sensor is mounted and the input by a user's contact can be received. The controller 204 is used by being gripped by a pair of left and right hands, but may use only one of them.

図3(b)は、図3(a)に示す表示システムとは異なる表示システムの構成に関する1つの例を表す図である。図3(b)に示す表示システムは、光源となる発光部を備えるディスプレイ装置251と、ディスプレイ装置251やコントローラ254の光源となる発光部から発せられた光を撮影する撮影装置252と、ディスプレイ装置251にて表示される画像を生成又は処理するコンピュータ装置253と、光源となる発光部を備えるコントローラ254とから構成される。   FIG. 3B is a diagram illustrating an example regarding the configuration of a display system different from the display system illustrated in FIG. The display system illustrated in FIG. 3B includes a display device 251 including a light emitting unit serving as a light source, a photographing device 252 that captures light emitted from the light emitting unit serving as a light source of the display device 251 and the controller 254, and a display device. The computer apparatus 253 which produces | generates or processes the image displayed on 251 and the controller 254 provided with the light emission part used as a light source are comprised.

ディスプレイ装置251は、ディスプレイ装置201と同様に、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。   The display device 251 is preferably a goggle-type display device that is attached to the head so as to cover the field of view, like the display device 201. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance.

撮影装置252は、ディスプレイ装置251及びコントローラ254の光源となる発光部から発せられた光を撮影することにより、ディスプレイ装置251及びコントローラ254の位置を特定するための装置である。   The photographing device 252 is a device for identifying the positions of the display device 251 and the controller 254 by photographing light emitted from a light emitting unit serving as a light source of the display device 251 and the controller 254.

コンピュータ装置253は、ディスプレイ装置251及びコントローラ254と通信により接続可能である。通信は、有線又は無線によるものであってもよい。   The computer device 253 can be connected to the display device 251 and the controller 254 by communication. Communication may be wired or wireless.

コントローラ254は、ボタンを備え、ユーザの操作により入力を受け付ける入力装置である。光源となる発光部を備え、コントローラ254から発せられた光を撮影装置252が撮影することにより、コントローラ254の位置を特定する。コントローラは手に把持するものであり、対にして使用することが好ましいが、1つのコントローラを使用するものとしてもよい。   The controller 254 is an input device that includes buttons and receives an input by a user operation. A light emitting unit serving as a light source is provided, and the position of the controller 254 is specified by the photographing device 252 photographing the light emitted from the controller 254. The controller is gripped by the hand and preferably used in pairs, but one controller may be used.

以下の説明において、本発明の実施の形態においては、図3(a)に示した方式により、ディスプレイ装置201及びコントローラ204の位置を特定するものとしたが、本発明はこの方式に限定されない。例えば、図3(b)に示した方式や、頭部以外の身体の一部に装着し、ディスプレイ装置201及びコントローラ204の位置を特定する方式であってもよい。   In the following description, in the embodiment of the present invention, the positions of the display device 201 and the controller 204 are specified by the method shown in FIG. 3A, but the present invention is not limited to this method. For example, a method shown in FIG. 3B or a method of specifying the positions of the display device 201 and the controller 204 by wearing on a part of the body other than the head may be used.

ディスプレイ装置201に表示される画像は、ディスプレイ装置201に搭載されたセンサにより測定された値、及び、コントローラ204へのユーザの入力操作に基づいて、コンピュータ装置203により生成又は処理された画像である。   The image displayed on the display device 201 is an image generated or processed by the computer device 203 based on a value measured by a sensor mounted on the display device 201 and a user input operation to the controller 204. .

ここで、ディスプレイ装置201の構成について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。ディスプレイ装置201は、制御部11、RAM(Random Access Memory)12、ストレージ部13、撮像部14、グラフィックス処理部15、表示部16、センサ部18、通信インタフェース19、インタフェース部20、及びレンズ21からなり、それぞれ内部バスにより接続されている。   Here, the configuration of the display device 201 will be described. FIG. 4 is a block diagram showing a configuration of a display device corresponding to at least one of the embodiments of the present invention. The display device 201 includes a control unit 11, a RAM (Random Access Memory) 12, a storage unit 13, an imaging unit 14, a graphics processing unit 15, a display unit 16, a sensor unit 18, a communication interface 19, an interface unit 20, and a lens 21. Each connected by an internal bus.

制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、ディスプレイ装置201の制御を行う。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。   The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the storage unit 13 and controls the display device 201. The RAM 12 is a work area for the control unit 11. The storage unit 13 is a storage area for storing programs and data.

制御部11は、プログラム及びデータをRAM12及びストレージ部13から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部15に出力する。さらに、制御部11は、センサ部18において測定された各種の値に基づいて処理を行う、あるいは、インタフェース部20を介してコンピュータ装置3へデータを送信する。   The control unit 11 reads the program and data from the RAM 12 and the storage unit 13 and performs processing. The control unit 11 processes the program and data loaded in the RAM 12 to output a drawing command to the graphics processing unit 15. Further, the control unit 11 performs processing based on various values measured by the sensor unit 18 or transmits data to the computer apparatus 3 via the interface unit 20.

撮像部14は、レンズ21を介して撮影した画像をグラフィックス処理部15へ出力する。ディスプレイ装置201を頭部に装着することによって視界が覆われる場合には、装置外部の情報を確認することができないため、後述する表示部16が備える表示画面17に、撮像部14により撮像された情報を表示させることで、ユーザは現実空間を認識することができ、安全性を確保することができる。   The imaging unit 14 outputs an image captured through the lens 21 to the graphics processing unit 15. When the field of view is covered by mounting the display device 201 on the head, information outside the device cannot be confirmed, and thus the image is captured by the imaging unit 14 on the display screen 17 provided in the display unit 16 described later. By displaying the information, the user can recognize the real space and ensure safety.

グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。   The graphics processing unit 15 performs drawing of one image for each frame. One frame time of an image is, for example, 1/30 second. The graphics processing unit 15 is responsible for a part of arithmetic processing related to drawing and has a role of distributing the load of the entire system.

表示部16は、表示画面17を備え、ユーザの視界を覆うディスプレイ装置201のゴーグル内部に設置される。表示画面17には、例えば、有機ELや無機ELが使用されるが、これに限定されるものではなく、スマートフォン等のディスプレイを備える端末装置を組み込むようにしてもよい。   The display unit 16 includes a display screen 17 and is installed inside the goggles of the display device 201 that covers the user's field of view. For example, organic EL or inorganic EL is used for the display screen 17, but the display screen 17 is not limited to this, and a terminal device including a display such as a smartphone may be incorporated.

センサ部18は、近接センサ18a、赤外線センサ18b、ジャイロセンサ18c、及び、加速度センサ18dを少なくとも備える。近接センサ18aは、ディスプレイ装置201のゴーグル部分に設置され、ユーザの顔部との接触有無を判定するために用いる。赤外線センサ18bは、ディスプレイ装置201に複数設置されるものであり、照射装置202から照射された光線を感知することで、ディスプレイ装置201の位置を特定するために用いる。ジャイロセンサ18c、及び加速度センサ18dは、ユーザの姿勢を特定するために用いる。   The sensor unit 18 includes at least a proximity sensor 18a, an infrared sensor 18b, a gyro sensor 18c, and an acceleration sensor 18d. The proximity sensor 18a is installed in the goggle portion of the display device 201, and is used to determine whether or not the user touches the face. A plurality of infrared sensors 18b are installed in the display device 201, and are used to identify the position of the display device 201 by sensing the light emitted from the irradiation device 202. The gyro sensor 18c and the acceleration sensor 18d are used for specifying the posture of the user.

ここで、図を用いてユーザの姿勢の特定方法について説明する。図5は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。   Here, a method for specifying the posture of the user will be described with reference to the drawings. FIG. 5 is a diagram illustrating an orthogonal coordinate system for specifying the posture of the user when the display device is mounted on the head, corresponding to at least one of the embodiments of the present invention.

図示するように、ディスプレイ装置201を装着したユーザの頭部を中心にして、XYZ座標を規定する。ユーザが直立する垂直方向をY軸(ヨー角)、Y軸と直交し、かつ、ディスプレイ装置201の表示画面17の中心とユーザの頭部とを結ぶ方向をZ軸(ロール角)、Y軸及びZ軸と直交する方向をX軸(ピッチ角)とする。ジャイロセンサ18cでは、各軸回りの角度(傾き)を検出し、加速度センサ18dでは、ディスプレイ装置201の動きを検知し、検出された角度及び検知された動きに応じて、表示画面17に表示される画像を変化させる。ディスプレイ装置201は、複数のセンサにより測定された値(以下、姿勢情報という)を用いて、ユーザの姿勢を特定することができる。   As shown in the figure, XYZ coordinates are defined around the head of the user wearing the display device 201. The vertical direction in which the user stands upright is the Y axis (yaw angle), the direction orthogonal to the Y axis, and the direction connecting the center of the display screen 17 of the display device 201 and the user's head is the Z axis (roll angle), Y axis A direction orthogonal to the Z axis is defined as an X axis (pitch angle). The gyro sensor 18c detects an angle (inclination) around each axis, and the acceleration sensor 18d detects the movement of the display device 201 and displays it on the display screen 17 according to the detected angle and the detected movement. Change the image. The display device 201 can identify the user's posture using values measured by a plurality of sensors (hereinafter referred to as posture information).

続いて、通信インタフェース19は、無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース19を介して受信したデータは、RAM12にロードされ、制御部11により演算処理が行われる。   Subsequently, the communication interface 19 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. Data received via the communication interface 19 is loaded into the RAM 12 and arithmetic processing is performed by the control unit 11.

インタフェース部20は、主にコンピュータ装置203と接続され、コンピュータ装置203において処理又は生成された画像等のデータを受信することができる。また、センサ部18において取得した各種センサの測定値をコンピュータ装置203へ送信することもできる。   The interface unit 20 is mainly connected to the computer device 203 and can receive data such as images processed or generated by the computer device 203. In addition, the measurement values of various sensors acquired by the sensor unit 18 can be transmitted to the computer device 203.

続いて、コンピュータ装置203について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置203は、制御部31、RAM32、ストレージ部33、サウンド処理部34、グラフィックス処理部35、DVD/CD−ROMドライブ36、通信インタフェース37、インタフェース部38、及びフレームメモリ39からなり、それぞれ内部バスにより接続されている。   Next, the computer device 203 will be described. FIG. 6 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 203 includes a control unit 31, a RAM 32, a storage unit 33, a sound processing unit 34, a graphics processing unit 35, a DVD / CD-ROM drive 36, a communication interface 37, an interface unit 38, and a frame memory 39. Connected by internal bus.

制御部31は、CPUやROMから構成される。制御部31は、ストレージ部33に格納されたプログラムを実行し、コンピュータ装置203の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。   The control unit 31 includes a CPU and a ROM. The control unit 31 executes a program stored in the storage unit 33 and controls the computer device 203. In addition, the control unit 31 includes an internal timer that measures time. The RAM 32 is a work area for the control unit 31. The storage unit 33 is a storage area for storing programs and data.

制御部31は、プログラム及びデータをRAM32から読み出して処理を行なう。制御部31は、RAM32にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部35に出力する。   The control unit 31 reads the program and data from the RAM 32 and performs processing. The control unit 31 outputs a drawing command to the graphics processing unit 35 by processing the program and data loaded in the RAM 32.

サウンド処理部34は、サウンド出力装置40に接続されている。制御部31がサウンド出力の指示をサウンド処理部34に出力すると、サウンド処理部34はサウンド出力装置40にサウンド信号を出力する。サウンド出力装置40は、例えば、ヘッドフォンであり、ユーザがディスプレイ装置201とともに頭部に装着してもよいし、スピーカがディスプレイ装置201に組み込まれていてもよい。   The sound processing unit 34 is connected to the sound output device 40. When the control unit 31 outputs a sound output instruction to the sound processing unit 34, the sound processing unit 34 outputs a sound signal to the sound output device 40. The sound output device 40 is, for example, a headphone, and a user may wear it on the head together with the display device 201, or a speaker may be incorporated in the display device 201.

グラフィックス処理部35は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば90分の1秒である。グラフィックス処理部35は描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。コンピュータ装置203のグラフィックス処理部35は、ディスプレイ装置201の位置情報及び姿勢情報と、コントローラ204の位置情報とに基づいて、表示画面17に表示する画像を生成するため、ディスプレイ装置201に含まれるグラフィックス処理部15よりも高い性能を要する。   The graphics processing unit 35 draws one image for each frame. One frame time of an image is, for example, 1/90 second. The graphics processing unit 35 is responsible for a part of calculation processing related to drawing and has a role of distributing the load of the entire system. The graphics processing unit 35 of the computer device 203 is included in the display device 201 in order to generate an image to be displayed on the display screen 17 based on the position information and orientation information of the display device 201 and the position information of the controller 204. It requires higher performance than the graphics processing unit 15.

DVD/CD−ROMドライブ36は、ディスク41からデータを読み込み、RAM32にロードされ、制御部31により演算処理が行われる。なお、ディスク41の種類はDVD又はCDに限らず、Blu−ray(登録商標)ディスクやその他の規格であってもよい。   The DVD / CD-ROM drive 36 reads data from the disk 41, loads it into the RAM 32, and performs arithmetic processing by the control unit 31. The type of the disc 41 is not limited to a DVD or a CD, but may be a Blu-ray (registered trademark) disc or other standards.

通信インタフェース37は無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース37を介して受信したデータは、ディスク41から読み込まれたデータと同様に、RAM32にロードされ、制御部31により演算処理が行われる。   The communication interface 37 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. Data received via the communication interface 37 is loaded into the RAM 32 in the same manner as data read from the disk 41, and arithmetic processing is performed by the control unit 31.

インタフェース部38は、主にディスプレイ装置201と接続され、コンピュータ装置203において処理又は生成された画像等のデータを送信することができる。   The interface unit 38 is mainly connected to the display device 201 and can transmit data such as an image processed or generated by the computer device 203.

なお、上述の説明において、ディスプレイ装置201とコンピュータ装置203とは別装置として記載したが、ディスプレイ装置201によりコンピュータ装置203の処理をすべて行うこととしてもよい。この場合には、コンピュータ装置203は不要となり、コントローラ204はディスプレイ装置201と通信により接続される。   In the above description, the display device 201 and the computer device 203 are described as separate devices. However, the display device 201 may perform all processing of the computer device 203. In this case, the computer device 203 is unnecessary, and the controller 204 is connected to the display device 201 by communication.

続いて、本発明の実施の形態における表示システムの構成について説明する。図7は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、角度情報測定部301、位置及び向き特定部302、情報送信部303、情報受信部304、視線特定部305、交差判定部306、計時部307、経過時間判定部308、オブジェクト重畳判定部309、サブウィンドウ位置変更部310、サブウィンドウ画像生成部311、表示画像生成部312、画像送信部313、画像受信部314、及び画像表示部315を少なくとも備える。   Next, the configuration of the display system in the embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes an angle information measuring unit 301, a position and orientation specifying unit 302, an information transmitting unit 303, an information receiving unit 304, a line-of-sight specifying unit 305, an intersection determining unit 306, a time measuring unit 307, an elapsed time determining unit 308, and an object superposition. At least a determination unit 309, a sub window position changing unit 310, a sub window image generation unit 311, a display image generation unit 312, an image transmission unit 313, an image reception unit 314, and an image display unit 315 are provided.

角度情報測定部301は、ディスプレイ装置201の姿勢から角度情報を測定する機能を有する。位置及び向き特定部302は、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知し、ディスプレイ装置201の位置及び向きを特定する機能を有する。情報送信部303は、ディスプレイ装置201において測定された角度情報と特定された位置及び向き情報とをコンピュータ装置203へ送信する機能を有する。   The angle information measurement unit 301 has a function of measuring angle information from the attitude of the display device 201. The position / orientation specifying unit 302 has a function in which an optical sensor mounted on the display device 201 senses a laser beam emitted from the irradiation device 202 and specifies the position and orientation of the display device 201. The information transmission unit 303 has a function of transmitting the angle information measured in the display device 201 and the specified position and orientation information to the computer device 203.

情報受信部304は、情報送信部303により送信された情報を受信する機能を有する。視線特定部305は、情報受信部304により受信された情報に基づいて、仮想空間におけるユーザの視線を特定する機能を有する。交差判定部306は、仮想空間内に配置されたオブジェクトと、視線特定部305により特定された視線とが交差するか否かを判定する機能を有する。   The information receiving unit 304 has a function of receiving information transmitted from the information transmitting unit 303. The line-of-sight specifying unit 305 has a function of specifying the user's line of sight in the virtual space based on the information received by the information receiving unit 304. The intersection determination unit 306 has a function of determining whether or not the object arranged in the virtual space and the line of sight specified by the line-of-sight specifying unit 305 intersect.

計時部307は、オブジェクトと視線とが交差したと判定されてから継続して交差していた時間を計時する機能を有する。経過時間判定部308は、計時部307により計時された時間が、所定の時間を経過したか否かを判定する機能を有する。オブジェクト重畳判定部309は、サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳するか否かを判定する機能を有する。   The time measuring unit 307 has a function of measuring the time during which the object and the line of sight have crossed continuously after it is determined that the object and the line of sight intersect. The elapsed time determination unit 308 has a function of determining whether or not the time measured by the time measuring unit 307 has passed a predetermined time. The object superimposition determination unit 309 has a function of determining whether or not the display area of the sub window and the object arranged in the virtual space are superimposed.

サブウィンドウ位置変更部310は、サブウィンドウの表示領域とオブジェクトとが重畳すると判定された場合に、サブウィンドウの表示位置を変更する機能を有する。サブウィンドウ画像生成部311は、サブウィンドウに表示する画像を生成する機能を有する。表示画像生成部312は、表示する画像を生成する機能を有する。   The sub window position changing unit 310 has a function of changing the display position of the sub window when it is determined that the display area of the sub window and the object overlap. The sub window image generation unit 311 has a function of generating an image to be displayed on the sub window. The display image generation unit 312 has a function of generating an image to be displayed.

画像送信部313は、表示画像生成部312により生成された表示画像をディスプレイ装置201へ送信する機能を有する。画像受信部314は、画像送信部313により送信された表示画像を受信する機能を有する。画像表示部315は、画像受信部314により受信された表示画像を表示画面17に表示する機能を有する。   The image transmission unit 313 has a function of transmitting the display image generated by the display image generation unit 312 to the display device 201. The image receiving unit 314 has a function of receiving the display image transmitted by the image transmitting unit 313. The image display unit 315 has a function of displaying the display image received by the image receiving unit 314 on the display screen 17.

続いて、本発明の第三の実施の形態における実行処理について説明する。本発明の第三の実施の形態の一例として、コンテンツを閲覧するシステムが挙げられる。より具体的には、コンテンツは複数枚の紙面から構成され、ストーリーの展開に応じて進行する漫画に関するデータであって、漫画の一コマ単位に、ユーザの操作により、漫画の一コマを表す仮想空間に入り込むことができる表示システムである。   Next, execution processing in the third embodiment of the present invention will be described. An example of the third embodiment of the present invention is a system for browsing content. More specifically, the content is composed of a plurality of sheets of paper, and is data related to a comic that progresses according to the development of the story, and is a virtual that represents a single comic by a user operation for each comic. It is a display system that can enter the space.

図8は、本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。図8(a)において、表示画面17には、漫画の一コマの状況が表示され、キャラクタ401と、サブウィンドウ402とが表示されている。サブウィンドウ402には、表示画面17に表示された画像を撮像する仮想カメラとは異なる仮想カメラにより撮像された画像が表示される。図8では、キャラクタ401の顔が拡大されて表示されている。   FIG. 8 is an example of an execution screen corresponding to at least one of the embodiments of the present invention. In FIG. 8A, the display screen 17 displays the status of one frame of a cartoon, and a character 401 and a sub window 402 are displayed. The sub window 402 displays an image captured by a virtual camera that is different from the virtual camera that captures the image displayed on the display screen 17. In FIG. 8, the face of the character 401 is enlarged and displayed.

図8(b)は、図8(a)の状況から、ユーザが視線(以下、視軸ともいう)を左方向へ動かしてディスプレイ装置201の向きを変更した実行画面の例である。ユーザが頭部を動かすことで、ユーザに対して図8(a)より左側の仮想空間が表示画面17に表示される。この場合に、サブウィンドウ402は、表示画面17における所定の領域に表示されたままであり、ユーザの頭部の動きに応じて位置が変化しない。所定の領域とは、表示画面17に含まれる一部の領域であればよく、表示画面17の右下には限定されない。   FIG. 8B is an example of an execution screen in which the user changes the direction of the display device 201 by moving the line of sight (hereinafter also referred to as the visual axis) to the left in the situation of FIG. As the user moves his / her head, the virtual space on the left side of FIG. 8A is displayed on the display screen 17 for the user. In this case, the sub window 402 remains displayed in a predetermined area on the display screen 17, and the position does not change according to the movement of the user's head. The predetermined area may be a partial area included in the display screen 17 and is not limited to the lower right of the display screen 17.

サブウィンドウ402は、漫画の一コマに関連付けて記憶されることで、漫画の一コマを表す仮想空間に入り込むと常に表示されるように設計してもよい。つまり、表示画面17に表示される画像が属性情報として、例えば、サブウィンドウ402を表示するフラグを有するようにしてもよい。あるいは、画像が示す内容が特定のシーンである場合に、サブウィンドウ402を表示するように、画像の内容に応じて表示するものであってもよい。   The sub-window 402 may be designed so that it is displayed in association with a single frame of a comic so that the sub-window 402 is displayed whenever a virtual space representing the single frame of the comic is entered. That is, the image displayed on the display screen 17 may have, for example, a flag for displaying the sub window 402 as attribute information. Or you may display according to the content of an image so that the subwindow 402 may be displayed when the content which an image shows is a specific scene.

サブウィンドウ402は、所定の条件を満たした場合に表示されるように設計してもよい。所定の条件とは、例えば、コントローラ204において入力操作を受け付けられた場合や、ディスプレイ装置201の姿勢から特定された向きと仮想カメラの視軸を対応させ、視軸が仮想空間内のオブジェクトと交差したと判定された場合等が挙げられる。   The sub window 402 may be designed to be displayed when a predetermined condition is satisfied. The predetermined condition is, for example, when an input operation is accepted by the controller 204, or by matching the direction specified from the orientation of the display device 201 with the visual axis of the virtual camera, and the visual axis intersects with an object in the virtual space. For example, it may be determined that it has been performed.

続いて、本発明の実施の形態における、表示画面に表示する画像の生成について説明する。プログラムが実行されると、コンピュータ装置203の制御部31は、プログラムによって定義される仮想空間をグラフィックス処理部35に出力させる。また、ディスプレイ装置201を頭に装着したユーザの位置、及び、コントローラ204の位置を、照射装置202から照射された光線を受光した位置及び方向に基づいて特定する。さらに、ディスプレイ装置201のセンサ部18の各種センサの測定値により、ディスプレイ装置201の姿勢を特定する。   Next, generation of an image to be displayed on the display screen in the embodiment of the present invention will be described. When the program is executed, the control unit 31 of the computer device 203 causes the graphics processing unit 35 to output a virtual space defined by the program. Further, the position of the user wearing the display device 201 on the head and the position of the controller 204 are specified based on the position and direction in which the light beam emitted from the irradiation device 202 is received. Further, the attitude of the display device 201 is specified by the measurement values of various sensors of the sensor unit 18 of the display device 201.

プログラムによって定義される仮想空間について説明する。図9は、本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。プログラムにより定義される仮想空間70が、図示するように半球状の空間で表される場合に、ディスプレイ装置201を頭部に装着したユーザ80の視野は、可視領域81に該当する。すなわち、可視領域81に該当する映像が、ディスプレイ装置201の表示画面17に表示される。例えば、ユーザ80が左を向けば、ユーザ80の動きにしたがって、可視領域81は左側に移動する。上下方向についても同様に、例えば、ユーザ80が上を向けば、ユーザ80の動きにしたがって、可視領域81は上側に移動する。   The virtual space defined by the program will be described. FIG. 9 is a diagram showing the concept of the virtual space corresponding to at least one of the embodiments of the present invention. When the virtual space 70 defined by the program is represented by a hemispherical space as illustrated, the visual field of the user 80 wearing the display device 201 on the head corresponds to the visible region 81. That is, an image corresponding to the visible region 81 is displayed on the display screen 17 of the display device 201. For example, when the user 80 turns to the left, the visible region 81 moves to the left according to the movement of the user 80. Similarly, in the vertical direction, for example, when the user 80 faces upward, the visible region 81 moves upward in accordance with the movement of the user 80.

[実行処理]
図10は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。最初に、ディスプレイ装置201は、ディスプレイ装置201の姿勢から角度情報を測定する(ステップS11)。角度情報は、ディスプレイ装置201のセンサ部18に含まれる各種センサにより測定される。
[Execution process]
FIG. 10 is a flowchart of execution processing corresponding to at least one of the embodiments of the present invention. First, the display apparatus 201 measures angle information from the attitude of the display apparatus 201 (step S11). The angle information is measured by various sensors included in the sensor unit 18 of the display device 201.

次に、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知することにより、ディスプレイ装置201は、ディスプレイ装置201の位置及び向きを特定する(ステップS12)。ステップS11及びステップS12の処理は、所定の間隔毎に行い、測定又は特定の都度、コンピュータ装置203へ送信して、ディスプレイ装置201の表示画面17において表示する表示用画像を生成してもよい。   Next, when the optical sensor mounted on the display device 201 senses the laser beam emitted from the irradiation device 202, the display device 201 specifies the position and orientation of the display device 201 (step S12). The processing of step S11 and step S12 may be performed at predetermined intervals, and may be transmitted to the computer device 203 at every measurement or specific time to generate a display image to be displayed on the display screen 17 of the display device 201.

次に、ディスプレイ装置201は、ステップS11において測定された角度情報、及び、ステップS12において特定された向き及び位置に関する情報をコンピュータ装置203へ送信する(ステップS13)。次に、コンピュータ装置203は、情報を受信し(ステップS14)、ステップS11において測定された角度情報、及び、ステップS12において特定された位置及び向きに関する情報に基づいて、仮想空間におけるユーザの視線を特定する(ステップS15)。   Next, the display apparatus 201 transmits the angle information measured in step S11 and the information related to the orientation and position specified in step S12 to the computer apparatus 203 (step S13). Next, the computer device 203 receives the information (step S14), and based on the angle information measured in step S11 and the information on the position and orientation specified in step S12, the computer device 203 displays the user's line of sight in the virtual space. Specify (step S15).

仮想空間におけるユーザの視線とは、ディスプレイ装置201の角度情報(水平面に対する傾きに関する情報)、位置に関する情報、及び向きに関する情報(水平面に平行な平面上でどの方向を向いているかに関する情報)に基づいて特定される可視領域81において、ユーザが仮想空間内で見ていると推測される方向である。つまり、特定された向きは、仮想空間内における仮想カメラの視軸に対応するものである。例えば、ディスプレイ装置201の位置に仮想カメラの視点を設定し、ディスプレイ装置201の向きをもとに、視点を始点として、仮想世界における水平面に平行な平面上でどの方向へ視線が向いているかを特定し、かつ、ディスプレイ装置201の姿勢情報をもとに、該水平面に対する視線の傾きを特定することができる。さらに、仮想カメラの視点から仮想スクリーン上へ透視変換することで、ユーザの視線に対応する画像を生成することができる。このようにすることで、ユーザに意識させることなく、仮想世界において、ユーザが見ていると推測される方向に存在するオブジェクトを、ディスプレイ装置201に表示させ、ユーザの利便性を向上させるとともに、より仮想世界に没入させることが可能となる。   The user's line of sight in the virtual space is based on the angle information (information about the tilt with respect to the horizontal plane), the information about the position, and the information about the direction (information about which direction on a plane parallel to the horizontal plane). This is the direction in which it is estimated that the user is looking in the virtual space in the visible region 81 specified in the above. That is, the specified direction corresponds to the visual axis of the virtual camera in the virtual space. For example, the viewpoint of the virtual camera is set at the position of the display device 201, and based on the orientation of the display device 201, the direction of the line of sight on the plane parallel to the horizontal plane in the virtual world is determined from the viewpoint. The inclination of the line of sight with respect to the horizontal plane can be specified based on the orientation information of the display device 201. Furthermore, by performing perspective transformation from the viewpoint of the virtual camera onto the virtual screen, an image corresponding to the user's line of sight can be generated. In this way, without causing the user to be conscious, in the virtual world, an object that exists in the direction that the user is assumed to be viewing is displayed on the display device 201, and the convenience of the user is improved. It becomes possible to immerse in the virtual world more.

ところで、ディスプレイ装置201が、ディスプレイ装置201を装着したユーザの視線を追跡することができる機能を有するようにしてもよい。この場合には、ユーザの眼球の動作から視線を算出することができる。   Incidentally, the display device 201 may have a function of tracking the line of sight of the user wearing the display device 201. In this case, the line of sight can be calculated from the movement of the user's eyeball.

次に、コンピュータ装置203は、ステップS15において特定されたユーザの視線と仮想空間内に配置されたオブジェクトとが交差するか否かを判定する(ステップS16)。オブジェクトとは、例えば、仮想空間内に配置され得るものであって、キャラクタ、敵キャラクタ、アイテム、あるいは、仮想空間に表示される物体等をいう。交差とは、視線と、オブジェクトを形成する境界面とが交差することをいい、線と面とが接することも含む概念である。三次元空間における線分と物体の交差判定には、例えば、レイトレーシング法において物体とレイ(光線)との交点を求めるための方法を用いることができる。その他の方法によっても可能であり、本発明の実施の形態においては、交差判定の方法が限定されるものではない。   Next, the computer device 203 determines whether or not the user's line of sight identified in step S15 intersects with the object arranged in the virtual space (step S16). The object is, for example, a character, an enemy character, an item, or an object displayed in the virtual space, which can be arranged in the virtual space. Crossing means that a line of sight intersects with a boundary surface forming an object, and is a concept including contact between a line and a surface. For the intersection determination between the line segment and the object in the three-dimensional space, for example, a method for obtaining the intersection of the object and the ray (ray) in the ray tracing method can be used. Other methods are also possible, and in the embodiment of the present invention, the method of intersection determination is not limited.

ユーザの視線が仮想空間内の所定のオブジェクトと交差していると判定された場合(ステップS16においてYES)には、コンピュータ装置203は、コンピュータ装置203の制御部31に備えられた内部タイマにより計時を開始する(ステップS17)。ユーザの視線が仮想空間内の所定のオブジェクトと交差していないと判定された場合(ステップS16においてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、視線と所定のオブジェクトとが交差しなくなったタイミングで、サブウィンドウを表示しないようにしてもよい。   If it is determined that the user's line of sight intersects with a predetermined object in the virtual space (YES in step S16), the computer device 203 counts time with an internal timer provided in the control unit 31 of the computer device 203. Is started (step S17). When it is determined that the user's line of sight does not intersect with a predetermined object in the virtual space (NO in step S16), the sub window is not displayed. When the sub window has already been displayed, the sub window may not be displayed at the timing when the line of sight and the predetermined object no longer intersect.

次に、コンピュータ装置203は、ステップS17において開始した計時により、所定のオブジェクトと視線との交差が継続している時間が所定の時間を経過したか否かを判定する(ステップS18)。所定時間が経過したと判定された場合(ステップS18にてYES)には、コンピュータ装置203は、サブウィンドウの表示領域が仮想空間内に配置された所定のオブジェクトと重畳するか否かを判定する(ステップS19)。ステップS19において判定される所定のオブジェクトとは、例えば、コンテンツに関して重要な意味を有するオブジェクトや、重畳することで視認性が悪くなるオブジェクト等をいう。所定時間が経過していない場合(ステップS18にてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、既存のサブウィンドウが表示されたままの状態を維持するようにしてもよい。   Next, the computer device 203 determines whether or not a predetermined time has elapsed after the predetermined object and the line of sight have continued to intersect based on the timing started in step S17 (step S18). If it is determined that the predetermined time has elapsed (YES in step S18), the computer apparatus 203 determines whether or not the display area of the sub window overlaps with a predetermined object arranged in the virtual space ( Step S19). The predetermined object determined in step S19 refers to, for example, an object having an important meaning with respect to content, an object whose visibility is deteriorated by being superimposed, and the like. If the predetermined time has not elapsed (NO in step S18), the sub window is not displayed. When the subwindow is already displayed, the existing subwindow may be kept displayed.

サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳すると判定された場合(ステップS19にてYES)には、コンピュータ装置203は、サブウィンドウの表示位置を変更する(ステップS20)。サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳しないと判定された場合(ステップS19にてNO)には、サブウィンドウの表示位置は変更されない。   If it is determined that the display area of the sub window and the object arranged in the virtual space are overlapped (YES in step S19), computer apparatus 203 changes the display position of the sub window (step S20). When it is determined that the display area of the sub window and the object arranged in the virtual space do not overlap (NO in step S19), the display position of the sub window is not changed.

ここで、サブウィンドウの表示位置について説明する。サブウィンドウは、表示画面17の所定の領域内に表示されることが予め設定されていて、サブウィンドウが表示される場合には所定の位置に表示されることが好ましい。図11は、本発明の実施の形態の少なくとも1つに対応する、サブウィンドウに表示される領域を説明する図である。表示画面17の中央に視軸が向いているとした場合に、視軸に対して所定の位置関係にある領域又は線上が所定の領域となる。   Here, the display position of the subwindow will be described. The subwindow is set in advance to be displayed in a predetermined area of the display screen 17, and is preferably displayed at a predetermined position when the subwindow is displayed. FIG. 11 is a diagram for explaining an area displayed in the sub-window corresponding to at least one of the embodiments of the invention. When it is assumed that the visual axis is directed to the center of the display screen 17, a region or a line having a predetermined positional relationship with respect to the visual axis is a predetermined region.

図11(a)は、所定の領域91が、視軸90を中心に、等分された領域の一つとして定められる場合を説明する図である。分割される領域は、図示されるように、四分割に限られない。つまり、所定の領域は、分割数及び領域の方向を指定して定められるようにしてもよい。   FIG. 11A is a diagram for explaining a case where the predetermined area 91 is defined as one of the equally divided areas around the visual axis 90. As illustrated, the area to be divided is not limited to four divisions. That is, the predetermined area may be determined by specifying the number of divisions and the direction of the area.

図11(b)は、所定の領域91が、視軸90を中心点として所定の角度αの範囲で定められる場合を説明する図である。ここで、αは任意の値である。つまり、所定の領域は、角度αを指定することにより定められるようにしてもよい。   FIG. 11B is a diagram illustrating a case where the predetermined region 91 is defined within a range of a predetermined angle α with the visual axis 90 as a center point. Here, α is an arbitrary value. That is, the predetermined area may be determined by designating the angle α.

図11(c)は、所定の領域91が、視軸90を中心点として、所定の距離β2の範囲で定められる場合を説明する図である。ここで、β1及びβ2は任意の値である。つまり、所定の領域は、長さを指定することにより定められてもよい。長さは、β1のみを指定してもよいし、β1及びβ2を指定して、図示するように、環形の領域を指定してもよい。   FIG. 11C is a diagram illustrating a case where the predetermined area 91 is defined within a predetermined distance β2 with the visual axis 90 as the center point. Here, β1 and β2 are arbitrary values. That is, the predetermined area may be determined by specifying the length. As for the length, only β1 may be designated, or β1 and β2 may be designated, and a ring-shaped region may be designated as illustrated.

図11(d)は、所定の直線92が、視軸90を起点としたベクトル95及び96の内積により算出される場合を説明する図である。つまり、所定の領域は、直線上のいずれかの点で定められるようにしてもよい。図11(d)では、一例として、ベクトルを用いて算出したが、三角関数等を用いて算出してもよい。   FIG. 11D is a diagram for explaining a case where the predetermined straight line 92 is calculated by the inner product of the vectors 95 and 96 starting from the visual axis 90. That is, the predetermined area may be determined by any point on the straight line. In FIG. 11D, the calculation is performed using a vector as an example, but the calculation may be performed using a trigonometric function or the like.

図示しないが、所定の領域は座標を指定することにより設定するようにしてもよい。例えば、表示画面17にXY座標系を設定し、画面の左上を座標(0,0)とした場合に、始点(100,100)から、終点(200,200)を指定すると、始点及び終点を対角線とする方形の範囲を所定の領域としてもよい。すなわち、所定の領域とは、視軸に対して定められる領域であって、ディスプレイ装置201の位置及び向きの変化によらない領域である。   Although not shown, the predetermined area may be set by designating coordinates. For example, when an XY coordinate system is set on the display screen 17 and the upper left corner of the screen is set to coordinates (0, 0), if the end point (200, 200) is specified from the start point (100, 100), the start point and end point are set. A rectangular range as a diagonal line may be set as the predetermined region. In other words, the predetermined area is an area defined with respect to the visual axis and is not dependent on a change in the position and orientation of the display device 201.

ステップS20におけるサブウィンドウの位置変更とは、例えば、仮想空間内に配置されたオブジェクトとサブウィンドウとが重畳しないように、サブウィンドウの位置を変更することをいう。より具体的には、例えば、サブウィンドウと仮想空間内のオブジェクトとが重畳することでユーザの視認性が悪化し、ストーリーの理解ができない等重大な影響があると考えられる場合等に有効である。サブウィンドウの位置変更は、所定の領域を変更し、サブウィンドウの表示位置を変更してもよい。例えば、画面の右下に表示されていたサブウィンドウを画面の右上に表示するようにしてもよい。また、所定の領域内で少しだけ位置をずらすことで、視認性を損なうことを回避してもよい。   The change of the position of the sub window in step S20 means, for example, changing the position of the sub window so that the object arranged in the virtual space and the sub window do not overlap. More specifically, it is effective when, for example, it is considered that there is a serious influence such that the visibility of the user deteriorates due to superimposition of the sub-window and the object in the virtual space, and the story cannot be understood. The sub window position may be changed by changing a predetermined area and changing the display position of the sub window. For example, the sub window displayed at the lower right of the screen may be displayed at the upper right of the screen. Moreover, you may avoid impairing visibility by shifting a position a little within a predetermined area | region.

次に、コンピュータ装置203は、サブウィンドウに表示する画像を生成する(ステップS21)。生成される画像は、任意の画像でよく、ステップS16において視線と交差していると判定されたオブジェクトに関する画像であってもよい。   Next, the computer apparatus 203 generates an image to be displayed on the subwindow (step S21). The generated image may be an arbitrary image, and may be an image related to the object determined to intersect the line of sight in step S16.

次に、コンピュータ装置203は、ステップS15で特定された視線の方向に対応する画像を生成する(ステップS22)。視線の方向に対応する画像とは、仮想カメラにより撮像された画像である。次に、コンピュータ装置203は、ステップS21において生成したサブウィンドウ画像と、ステップS22において生成した視線の方向に対応する画像とを、ディスプレイ装置201へ送信する(ステップS23)。   Next, the computer device 203 generates an image corresponding to the direction of the line of sight identified in step S15 (step S22). The image corresponding to the direction of the line of sight is an image captured by a virtual camera. Next, the computer apparatus 203 transmits the sub window image generated in step S21 and the image corresponding to the line-of-sight direction generated in step S22 to the display apparatus 201 (step S23).

ディスプレイ装置201は、ステップS23において送信された画像を受信する(ステップS24)。ディスプレイ装置201は、ステップS24において受信した画像を表示し(ステップS25)、終了する。   The display device 201 receives the image transmitted in step S23 (step S24). The display device 201 displays the image received in step S24 (step S25) and ends.

実行処理は、所定のタイミングで繰り返し実行されるものとしてもよい。所定のタイミングとは、例えば、画面のフレームレートごと、あるいは、フレームレートの倍数のタイミングで行うことができる。   The execution process may be repeatedly executed at a predetermined timing. The predetermined timing can be performed, for example, at every frame rate of the screen or at a multiple of the frame rate.

ステップS25において、ディスプレイ装置201は、受信したサブウィンドウ画像と、視線の方向に対応する画像とを重畳させて表示する。ここで、サブウィンドウ画像は、視線との関係により定められた位置に表示されるものであり、ステップS12において特定された位置及び向きに応じて変化しない。すなわち、ユーザが頭部を動かした場合でも、サブウィンドウ画像は頭部の動きと連動せず、画面上の所定の位置に固定されて表示されるよう制御される。   In step S25, the display apparatus 201 displays the received subwindow image and an image corresponding to the direction of the line of sight in a superimposed manner. Here, the sub-window image is displayed at a position determined by the relationship with the line of sight, and does not change according to the position and orientation specified in step S12. That is, even when the user moves the head, the subwindow image is controlled so as to be fixedly displayed at a predetermined position on the screen without being interlocked with the movement of the head.

ステップS25において、既にサブウィンドウが表示されている場合には、サブウィンドウに表示された画像を更新するようにしてもよい。   In step S25, when the sub window is already displayed, the image displayed in the sub window may be updated.

第三の実施の形態では、ディスプレイ装置201及びコントローラ204の位置を特定するための光線はレーザ光線であって、例えば、赤外線が挙げられるが、光線はこれに限定されず、可視光線であってもよいし、その他の不可視光線であってもよい。   In the third embodiment, the light beam for specifying the positions of the display device 201 and the controller 204 is a laser beam, for example, an infrared ray. However, the light beam is not limited to this, and is a visible ray. Alternatively, other invisible light may be used.

第三の実施の形態では、視線が所定のオブジェクトと所定の時間交差し続けた場合にサブウィンドウを表示することとしたが、所定の時間が経過したか否かを判定することなく、視線と所定のオブジェクトとの交差に関する判定のみでサブウィンドウを表示することとしてもよい。   In the third embodiment, the sub window is displayed when the line of sight continues to cross a predetermined object for a predetermined time. However, the line of sight and the predetermined line are not determined without determining whether the predetermined time has passed. The sub window may be displayed only by the determination regarding the intersection with the object.

第三の実施の形態では、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウの所定の領域と重畳していた場合には、サブウィンドウの位置を変更していたが、重畳していた場合にはサブウィンドウを表示しないようにしてもよい。   In the third embodiment, when the predetermined object in the image corresponding to the visual axis is superimposed on the predetermined area of the sub window, the position of the sub window is changed. May not display a subwindow.

第三の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しないサブウィンドウ画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the third embodiment, VR sickness of the user who uses the HMD can be reduced by displaying a sub-window image that does not change according to the specified orientation in a predetermined area of the display screen. .

第三の実施の形態の一側面として、所定の条件を満たすことにより第二画像を表示させることで、第一画像に対するユーザの視認性を損なうことなく、適切な場面で違和感なく第二画像を表示することができる。   As one aspect of the third embodiment, by displaying the second image by satisfying a predetermined condition, the second image can be displayed without an uncomfortable feeling in an appropriate scene without impairing the visibility of the user with respect to the first image. Can be displayed.

第三の実施の形態の一側面として、仮想空間内に配置された所定のオブジェクトと視線とが交差した場合にサブウィンドウ画像を表示することで、ユーザが入力操作をすることなくサブウィンドウ画像を表示することができ、ユーザの利便性を向上させることができる。   As one aspect of the third embodiment, a subwindow image is displayed without a user performing an input operation by displaying a subwindow image when a predetermined object arranged in the virtual space intersects the line of sight. And user convenience can be improved.

第三の実施の形態の一側面として、ユーザの視軸と所定のオブジェクトとが所定の時間継続して交差した場合にサブウィンドウ画像を表示することで、ユーザが意図しないサブウィンドウを表示することを抑制し、ユーザが表示させたいサブウィンドウだけを表示可能にして、利便性を向上させることができる。   As one aspect of the third embodiment, the sub-window image is displayed when the user's visual axis and the predetermined object continuously intersect for a predetermined time, thereby suppressing the display of the sub-window not intended by the user. In addition, it is possible to display only the subwindow that the user wants to display, thereby improving convenience.

第三の実施の形態の一側面として、ユーザの視軸と交差した所定のオブジェクトに関する画像をサブウィンドウに表示することにより、ユーザが入力操作をすることなく所定のオブジェクトに関する情報を知ることができる。また、ユーザの視軸が当たっている場所を認識することができるという利点もある。   As one aspect of the third embodiment, by displaying an image related to a predetermined object intersecting with the user's visual axis in a sub-window, the user can know information related to the predetermined object without performing an input operation. In addition, there is an advantage that a place where the user's visual axis is hit can be recognized.

第三の実施の形態の一側面として、視軸に対応する画像に関する情報が所定の条件を満たす場合にサブウィンドウ画像を表示することにより、視軸に対応する画像と関連付けたサブウィンドウ画像を表示することができ、画像を組み合わせた効果を生じさせることができる。例えば、漫画等のコンテンツにおいて、主人公が冷凍庫に閉じ込められた場合に、視軸に対応する画像として冷凍庫内の背景画像を表示し、サブウィンドウに温度計の画像を表示すると、背景画像のみを表示するよりもユーザに緊張感を与え、画像の組み合わせによる効果を生じさせることができる。   As one aspect of the third embodiment, displaying a subwindow image associated with an image corresponding to the visual axis by displaying the subwindow image when information about the image corresponding to the visual axis satisfies a predetermined condition. And the effect of combining images can be produced. For example, in the case of content such as comics, when the main character is locked in a freezer, the background image in the freezer is displayed as an image corresponding to the visual axis, and when the thermometer image is displayed in the subwindow, only the background image is displayed. It is possible to give the user a feeling of tension and to produce an effect by a combination of images.

第三の実施の形態の一側面として、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウが表示される所定の領域と重なる位置に存在する場合に、サブウィンドウを所定の領域とは異なる位置に表示することにより、ユーザの視認性を向上させることができる。   As one aspect of the third embodiment, when a predetermined object in an image corresponding to the visual axis exists at a position overlapping a predetermined area where the sub window is displayed, the sub window is positioned different from the predetermined area. By displaying on the screen, the visibility of the user can be improved.

第三の実施の形態の一側面として、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウの所定の領域と重なる位置に存在する場合に、サブウィンドウを表示しないことで、ユーザの視認性を向上させることができる。   As one aspect of the third embodiment, when a predetermined object in an image corresponding to the visual axis exists at a position overlapping a predetermined area of the sub window, the sub window is not displayed, thereby improving the visibility of the user. Can be improved.

第三の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「第二画像」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the third embodiment, “mounted on the head”, “display device”, “orientation”, “virtual space”, “first image”, and “second image” are the same as those in the first embodiment. The contents described in the form can be adopted within a necessary range.

第三の実施の形態において、「重なる」とは、例えば、線とオブジェクトとが交差することをいう。「第一画像に関する情報」とは、例えば、第一画像が表す内容の情報や第一画像の属性情報をいう。   In the third embodiment, “overlap” means, for example, that a line and an object intersect. “Information relating to the first image” refers to, for example, information on the content represented by the first image and attribute information of the first image.

[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Appendix]
The above description of the embodiments described the following invention so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.

[1] ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段と
を備える、表示システム。
[1] A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
A first image indicating the state of the virtual space is displayed on the display screen of the display device according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen A display system.

[2] 前記第二画像は、所定の条件を満たすことで表示される、[1]に記載の表示システム。 [2] The display system according to [1], wherein the second image is displayed by satisfying a predetermined condition.

[3] 前記特定手段により特定された向きが、仮想空間内における仮想カメラの視軸に対応するものであり、
前記第一画像が、仮想空間を、仮想カメラを視点として仮想スクリーン上に透視変換して生成されるものであり、
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なることである、
[2]に記載の表示システム。
[3] The direction specified by the specifying means corresponds to the visual axis of the virtual camera in the virtual space,
The first image is generated by perspective-transforming a virtual space on a virtual screen with a virtual camera as a viewpoint,
The predetermined condition is that the visual axis overlaps with a predetermined object in a virtual space.
The display system according to [2].

[4] 前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なった状態が所定の時間継続することである、[3]に記載の表示システム。 [4] The display system according to [3], wherein the predetermined condition is that a state in which the visual axis overlaps with a predetermined object in a virtual space continues for a predetermined time.

[5] 前記第二画像が、所定のオブジェクトに関する画像である、[3]又は[4]に記載の表示システム。 [5] The display system according to [3] or [4], wherein the second image is an image related to a predetermined object.

[6] 前記所定の条件が、前記第一画像に関する情報が所定の条件を満たすことである、[2]〜[5]のいずれかに記載の表示システム。 [6] The display system according to any one of [2] to [5], wherein the predetermined condition is that information regarding the first image satisfies a predetermined condition.

[7] 前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、[1]〜[6]のいずれかに記載の表示システム。 [7] The display means is configured to display the second image at a position different from the predetermined area when a predetermined object in the first image exists at a position overlapping the predetermined area. The display system according to any one of [1] to [6].

[8] 前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を表示しない、[1]〜[7]のいずれかに記載の表示システム。 [8] The display unit according to any one of [1] to [7], wherein the display unit does not display the second image when a predetermined object in the first image exists at a position overlapping the predetermined region. Display system.

[9] ユーザの頭部に装着することで利用される表示装置を備えるシステムにおける表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することと
を実行する表示方法。
[9] A display method in a system including a display device used by being worn on a user's head,
Identifying the orientation of the display device;
A first image indicating the state of the virtual space is displayed on the display screen of the display device according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen Display method to do and perform.

1 表示システム
11 制御部
12 RAM
13 ストレージ部
14 撮像部
15 グラフィックス処理部
16 表示部
17 表示画面
18 センサ部
18a センサ
18b 赤外線センサ
18c ジャイロセンサ
18d 加速度センサ
19 通信インタフェース
20 インタフェース部
201 ディスプレイ装置
202 照射装置
203 コンピュータ装置
204 コントローラ
21 レンズ
251 ディスプレイ装置
252 撮影装置
253 コンピュータ装置
254 コントローラ
31 制御部
32 RAM
33 ストレージ部
34 サウンド処理部
35 グラフィックス処理部
36 CD−ROMドライブ
37 通信インタフェース
38 インタフェース部
39 フレームメモリ
40 サウンド出力装置
41 ディスク
5 通信回線
1 Display System 11 Control Unit 12 RAM
DESCRIPTION OF SYMBOLS 13 Storage part 14 Imaging part 15 Graphics processing part 16 Display part 17 Display screen 18 Sensor part 18a Sensor 18b Infrared sensor 18c Gyro sensor 18d Acceleration sensor 19 Communication interface 20 Interface part 201 Display apparatus 202 Irradiation apparatus 203 Computer apparatus 204 Controller 21 Lens 251 Display device 252 Imaging device 253 Computer device 254 Controller 31 Control unit 32 RAM
33 Storage Unit 34 Sound Processing Unit 35 Graphics Processing Unit 36 CD-ROM Drive 37 Communication Interface 38 Interface Unit 39 Frame Memory 40 Sound Output Device 41 Disc 5 Communication Line

Claims (8)

表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段と
を備え、
前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、表示システム。
A display system comprising a display device,
Orientation specifying means for specifying the orientation of the display device;
A first image indicating the state of the virtual space is displayed on the display screen of the display device according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen Display means for
The display unit is configured to display a second image at a position different from the predetermined area when a predetermined object in the first image is present at a position overlapping the predetermined area.
前記第二画像は、所定の条件を満たすことで表示される、請求項1に記載の表示システム。 The display system according to claim 1, wherein the second image is displayed by satisfying a predetermined condition. 前記特定手段により特定された向きが、仮想空間内における仮想カメラの視軸に対応するものであり、
前記第一画像が、仮想空間を、仮想カメラを視点として仮想スクリーン上に透視変換して生成されるものであり、
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なることである、
請求項2に記載の表示システム。
The direction specified by the specifying means corresponds to the visual axis of the virtual camera in the virtual space,
The first image is generated by perspective-transforming a virtual space on a virtual screen with a virtual camera as a viewpoint,
The predetermined condition is that the visual axis overlaps with a predetermined object in a virtual space.
The display system according to claim 2.
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なった状態が所定の時間、継続することである、請求項3に記載の表示システム。 The display system according to claim 3, wherein the predetermined condition is that a state in which the visual axis overlaps with a predetermined object in a virtual space continues for a predetermined time. 前記第二画像が、所定のオブジェクトに関する画像である、請求項3又は4に記載の表示システム。 The display system according to claim 3 or 4, wherein the second image is an image related to a predetermined object. 前記所定の条件が、前記第一画像に関する情報が所定の条件を満たすことである、請求項2〜5のいずれかに記載の表示システム。 The display system according to claim 2, wherein the predetermined condition is that information regarding the first image satisfies a predetermined condition. 表示装置には、ジャイロセンサ及び加速度センサを含むセンサが搭載されており、
向き特定手段が、該センサにより測定された値を用いて、表示装置の向きを特定する、請求項1〜6のいずれかに記載の表示システム。
The display device is equipped with sensors including a gyro sensor and an acceleration sensor,
The display system according to any one of claims 1 to 6, wherein the orientation specifying unit specifies the orientation of the display device using a value measured by the sensor.
表示装置を備えるシステムにおいて実行される表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することと
を実行し、
第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示する、表示方法。
A display method executed in a system including a display device,
Identifying the orientation of the display device;
A first image indicating the state of the virtual space is displayed on the display screen of the display device according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen Do and do
A display method of displaying a second image at a position different from the predetermined area when a predetermined object in the first image is present at a position overlapping the predetermined area.
JP2019082141A 2019-04-23 2019-04-23 Display system and display method Active JP6670965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019082141A JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019082141A JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017234715A Division JP6522092B1 (en) 2017-12-06 2017-12-06 Display system and display method

Publications (2)

Publication Number Publication Date
JP2019174811A true JP2019174811A (en) 2019-10-10
JP6670965B2 JP6670965B2 (en) 2020-03-25

Family

ID=68166904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019082141A Active JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Country Status (1)

Country Link
JP (1) JP6670965B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114762353A (en) * 2019-11-29 2022-07-15 株式会社阿尔法空间 Device and method for playing virtual reality images input by multiple cameras in real time

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2005044102A (en) * 2003-07-28 2005-02-17 Canon Inc Image reproduction method and device
JP2006072669A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2005044102A (en) * 2003-07-28 2005-02-17 Canon Inc Image reproduction method and device
JP2006072669A (en) * 2004-09-01 2006-03-16 Sony Computer Entertainment Inc Image processor, game device, and image processing method
JP2015232783A (en) * 2014-06-09 2015-12-24 株式会社バンダイナムコエンターテインメント Program and image creating device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114762353A (en) * 2019-11-29 2022-07-15 株式会社阿尔法空间 Device and method for playing virtual reality images input by multiple cameras in real time
CN114762353B (en) * 2019-11-29 2023-01-24 株式会社阿尔法空间 Device and method for playing virtual reality images input by multiple cameras in real time

Also Published As

Publication number Publication date
JP6670965B2 (en) 2020-03-25

Similar Documents

Publication Publication Date Title
WO2018016553A1 (en) Method for providing virtual space, method for providing virtual experience, program, and recording medium
JP2019053392A (en) Information processing method, computer and program
KR20210087570A (en) Environmental interrupt in a head-mounted display and utilization of non field of view real estate
JP6200023B1 (en) Simulation control apparatus and simulation control program
CN108463839B (en) Information processing apparatus and user guide presenting method
JP6738641B2 (en) Simulation control device and simulation control program
JP6522092B1 (en) Display system and display method
JP6670965B2 (en) Display system and display method
US11980816B2 (en) Game processing program, game processing method, and game processing device
JP6625467B2 (en) Simulation control device and simulation control program
JP6496391B1 (en) Display system and display method
JP6416338B1 (en) Information processing method, information processing program, information processing system, and information processing apparatus
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
JP6853638B2 (en) Display system, display method, and computer equipment
JP6781324B2 (en) Simulation control device and simulation control program
JP7073228B2 (en) Information processing methods, computers, and programs
JP6403843B1 (en) Information processing method, information processing program, and information processing apparatus
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP6503407B2 (en) Content display program, computer device, content display method, and content display system
WO2017163647A1 (en) Head-mounted device
JP2020100912A (en) Image display system
JP7492497B2 (en) PROGRAM, INFORMATION PROCESSING METHOD, AND INFORMATION PROCESSING APPARATUS
JP6876639B2 (en) Display control device, display control method and program
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP2019083022A (en) Information processing method and program for causing computer to execute the method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6670965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250