JP6670965B2 - Display system and display method - Google Patents

Display system and display method Download PDF

Info

Publication number
JP6670965B2
JP6670965B2 JP2019082141A JP2019082141A JP6670965B2 JP 6670965 B2 JP6670965 B2 JP 6670965B2 JP 2019082141 A JP2019082141 A JP 2019082141A JP 2019082141 A JP2019082141 A JP 2019082141A JP 6670965 B2 JP6670965 B2 JP 6670965B2
Authority
JP
Japan
Prior art keywords
image
display
display device
displayed
predetermined
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019082141A
Other languages
Japanese (ja)
Other versions
JP2019174811A (en
Inventor
家栄 曹
家栄 曹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2019082141A priority Critical patent/JP6670965B2/en
Publication of JP2019174811A publication Critical patent/JP2019174811A/en
Application granted granted Critical
Publication of JP6670965B2 publication Critical patent/JP6670965B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、ユーザの頭部に装着する表示装置を用いた表示システム及び表示方法に関する。   The present invention relates to a display system and a display method using a display device mounted on a user's head.

近年、ヘッドマウントディスプレイ(以下、HMDという)等を用いたVR(Virtual Reality)技術がある。例えば、仮想カメラにより撮像された、仮想世界を構成する背景画像をHMDに表示し、ユーザに対して仮想世界に入り込んだような感覚(いわゆる没入感)を与えるものである。   In recent years, there is a VR (Virtual Reality) technology using a head-mounted display (hereinafter, referred to as an HMD) or the like. For example, a background image captured by a virtual camera and constituting a virtual world is displayed on the HMD to give the user a sense of entering the virtual world (so-called immersion).

また、前記仮想カメラとは異なる他の仮想カメラにより撮像された画像を、表示された背景画像とは別に、ユーザの視野に含まれるように、背景画像に重畳させて表示する技術もある。   There is also a technique of displaying an image captured by another virtual camera different from the virtual camera, separately from the displayed background image, so as to be superimposed on the background image so as to be included in the user's field of view.

しかし、従来の技術ではいわゆるVR酔いが生じていた。これは、ユーザの身体が動いていないにもかかわらず、HMDの動きに応じて、背景画像及び重畳させた画像が動くことで、ユーザの身体の感覚にずれが生じるためである。   However, in the related art, so-called VR sickness has occurred. This is because the background image and the superimposed image move in response to the movement of the HMD even though the user's body is not moving, causing a shift in the sense of the user's body.

本発明の少なくとも1つの実施の形態の目的は、HMDを使用するユーザのVR酔いを軽減させることが可能な表示システムを提供することである。   An object of at least one embodiment of the present invention is to provide a display system capable of reducing VR sickness of a user using an HMD.

非限定的な観点によると、本発明に係る表示システムは、表示装置を備える表示システムであって、表示装置の向きを特定する向き特定手段と、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段とを備え、前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、表示システムである。   According to a non-limiting aspect, a display system according to the present invention is a display system including a display device, a direction specifying unit that specifies a direction of the display device, and a display screen of the display device, the display screen having the specified direction. In response to displaying a first image indicating the state of the virtual space, in a predetermined area of the display screen, display means for displaying a second image that does not change according to the specified orientation, the display means, A display system for displaying a second image at a position different from the predetermined region when a predetermined object in the first image exists at a position overlapping the predetermined region.

非限定的な観点によると、本発明に係る表示方法は、表示装置を備えるシステムにおいて実行される表示方法であって、表示装置の向きを特定することと、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することとを実行し、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示する、表示方法である。   According to a non-limiting aspect, a display method according to the present invention is a display method that is executed in a system including a display device, and specifies an orientation of the display device, and specifies a display screen of the display device. Displaying a first image indicating the state of the virtual space in accordance with the orientation, and displaying a second image that does not change in accordance with the specified orientation in a predetermined area of the display screen. A display method for displaying a second image at a position different from the predetermined area when a predetermined object in the image is present at a position overlapping the predetermined area.

本発明の各実施形態により1または2以上の不足が解決される。   Each embodiment of the present invention resolves one or more deficiencies.

本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a display system corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。9 is a flowchart of an execution process corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a display system corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a display device corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。FIG. 3 is a diagram illustrating an orthogonal coordinate system for specifying a user's posture when a display device is mounted on a head, corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。FIG. 1 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。FIG. 1 is a block diagram illustrating a configuration of a display system corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。It is an example of an execution screen corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。FIG. 2 is a diagram illustrating a concept of a virtual space corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。9 is a flowchart of an execution process corresponding to at least one of the embodiments of the present invention. 本発明の実施の形態の少なくとも1つに対応する、サブウィンドウに表示される領域を説明する図である。FIG. 5 is a diagram illustrating a region displayed in a sub window, corresponding to at least one of the embodiments of the present invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。以下、効果に関する記載は、本発明の実施の形態の効果の一側面であり、ここに記載するものに限定されない。また、以下で説明するフローチャートを構成する各処理の順序は、処理内容に矛盾や不整合が生じない範囲で順不同である。   Hereinafter, embodiments of the present invention will be described with reference to the accompanying drawings. Hereinafter, the description related to the effect is one aspect of the effect of the embodiment of the present invention, and the present invention is not limited to this. In addition, the order of each process constituting the flowchart described below is not specified as long as no inconsistency or inconsistency occurs in the process contents.

[第一の実施の形態]
本発明の第一の実施の形態の概要について説明をする。以下では、本発明の第一の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[First embodiment]
An outline of the first embodiment of the present invention will be described. Hereinafter, as a first embodiment of the present invention, a display system including a display device used by being mounted on a user's head will be described as an example.

図1は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、向き特定部101、及び表示部102を少なくとも備える。   FIG. 1 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes at least an orientation identification unit 101 and a display unit 102.

向き特定部101は、表示装置の向きを特定する機能を有する。表示部102は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する機能を有する。   The direction specifying unit 101 has a function of specifying the direction of the display device. The display unit 102 displays the first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation, and does not change in a predetermined area of the display screen according to the specified orientation. It has a function of displaying the second image.

本発明の第一の実施の形態における実行処理について説明する。図2は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。   The execution process according to the first embodiment of the present invention will be described. FIG. 2 is a flowchart of an execution process corresponding to at least one of the embodiments of the present invention.

表示システム1は、向き特定部101により、ユーザの頭部に装着することで利用される表示装置の向きを特定する(ステップS1)。表示システム1は、表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示し(ステップS2)、終了する。   The display system 1 uses the orientation identification unit 101 to identify the orientation of the display device that is used by being worn on the head of the user (step S1). The display system 1 displays the first image indicating the state of the virtual space on the display screen of the display device according to the specified orientation, and does not change in a predetermined area of the display screen according to the specified orientation. The second image is displayed (step S2), and the process ends.

第一の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the first embodiment, by displaying a second image that does not change according to the specified orientation in a predetermined area of the display screen, it is possible to reduce VR sickness of a user using the HMD. it can.

第一の実施の形態において、「頭部に装着」とは、例えば、帽子のように頭に被ること、眼鏡のように顔に付けること、あるいは、その他頭部の一部に付着させることをいい、身体の一部から延長させて頭部を覆うような場合も含む概念である。「表示装置」とは、例えば、両眼あるいは単眼で画像を視認可能な表示装置であって、装着すると外の様子を見ることができない非透過型や、眼鏡のように透明な部材で外の様子を見ることが可能な透過型を含むものである。「向き」とは、例えば、単に物体の方向や角度だけでなく、加速度のような単位時間の変化量に関する方向を含む概念である。「仮想空間」とは、例えば、プログラム及びデータにより定義される空間であって、コンピュータにより生成される仮想的な空間をいう。「第一画像」とは、例えば、仮想空間の状態を示す画像をいう。「第二画像」とは、例えば、仮想空間の状態を示す画像とは異なる画像であって、表示装置により特定された向きに応じて変化しない画像をいう。   In the first embodiment, "wearing on the head" means, for example, putting on the head like a hat, putting on the face like glasses, or attaching to a part of the other head. It is a concept that includes a case where the head is extended from a part of the body. A "display device" is, for example, a display device that can visually recognize an image with both eyes or a single eye, and is a non-transmissive type in which the outside state cannot be seen when worn, or a transparent member such as eyeglasses. It includes a transmission type that can be seen. The “direction” is a concept including, for example, not only a direction and an angle of an object but also a direction related to a change amount per unit time such as acceleration. The “virtual space” is, for example, a space defined by programs and data, and is a virtual space generated by a computer. The “first image” refers to, for example, an image indicating the state of the virtual space. The “second image” is, for example, an image that is different from the image indicating the state of the virtual space and does not change according to the orientation specified by the display device.

[第二の実施の形態]
本発明の第二の実施の形態の概要について説明をする。以下では、本発明の第二の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Second embodiment]
An outline of a second embodiment of the present invention will be described. Hereinafter, as a second embodiment of the present invention, a display system including a display device used by being mounted on a user's head will be described as an example.

表示システムの構成に関しては、図1に記載された内容を必要な範囲で採用できる。実行処理のフローチャートに関しては、図2に記載された内容を必要な範囲で採用できる。   Regarding the configuration of the display system, the contents described in FIG. 1 can be adopted within a necessary range. Regarding the flowchart of the execution process, the contents described in FIG. 2 can be adopted within a necessary range.

第二の実施の形態の一例として、第二画像は、所定の条件を満たすことで表示されることが好ましい。   As an example of the second embodiment, it is preferable that the second image is displayed when a predetermined condition is satisfied.

第二の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the second embodiment, it is possible to reduce a VR sickness of a user using an HMD by displaying a second image that does not change according to the specified orientation in a predetermined area of a display screen. it can.

第二の実施の形態の一側面として、所定の条件を満たすことにより第二画像を表示させることで、第一画像に対するユーザの視認性を損なうことなく、適切な場面で違和感なく第二画像を表示することができる。   As one aspect of the second embodiment, by displaying the second image by satisfying a predetermined condition, without impairing the user's visibility to the first image, the second image can be displayed in an appropriate scene without discomfort. Can be displayed.

第二の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「第二画像」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the second embodiment, “attached to the head”, “display device”, “direction”, “virtual space”, “first image”, and “second image” are the same as in the first embodiment, respectively. The contents described in the embodiment can be adopted within a necessary range.

[第三の実施の形態]
次に、本発明の第三の実施の形態の概要について説明する。本発明の第三の実施の形態として、ユーザの頭部に装着することで利用される表示装置を備える表示システムを例示して説明をする。
[Third embodiment]
Next, an outline of a third embodiment of the present invention will be described. As a third embodiment of the present invention, a display system including a display device used by being mounted on a user's head will be described as an example.

図3は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。図3(a)は、表示システムの構成に関する1つの例を表す図である。表示システム1は、動きや向きを検知するためのセンサを搭載したディスプレイ装置201と、光線を照射する照射装置202と、ディスプレイ装置201にて表示される画像を生成又は処理するコンピュータ装置203と、センサを搭載したコントローラ204とから構成される。   FIG. 3 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. FIG. 3A is a diagram illustrating one example of the configuration of the display system. The display system 1 includes a display device 201 equipped with a sensor for detecting movement and orientation, an irradiation device 202 that irradiates light, a computer device 203 that generates or processes an image displayed on the display device 201, And a controller 204 equipped with a sensor.

ディスプレイ装置201は、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。また、ディスプレイ装置201は、搭載された複数のセンサを用いて、ユーザの姿勢を特定することができる。ディスプレイ装置201の構成については後述する。   The display device 201 is preferably a goggle-type display device that is mounted on the head so as to cover the field of view. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance. Further, the display device 201 can specify the posture of the user by using a plurality of mounted sensors. The configuration of the display device 201 will be described later.

照射装置202は、広範囲にレーザ光線を照射する装置である。照射装置202の周囲にレーザ光線が照射されると、ディスプレイ装置201及びコントローラ204に搭載された光センサによってレーザ光線が感知され、ディスプレイ装置201及びコントローラ204の位置を特定する。この位置特定方法は、「Lighthouse方式」と呼ばれるものである。照射装置202は、より正確に位置を特定するために、所定の間隔を空けて少なくとも2台設置されることが好ましい。   The irradiation device 202 is a device that irradiates a laser beam over a wide range. When a laser beam is irradiated around the irradiation device 202, the laser beam is sensed by an optical sensor mounted on the display device 201 and the controller 204, and the positions of the display device 201 and the controller 204 are specified. This position identification method is called a “Lighthouse method”. It is preferable that at least two irradiation devices 202 are provided at a predetermined interval to more accurately specify the position.

コンピュータ装置203は、ディスプレイ装置201及びコントローラ204と通信により接続可能である。通信は、有線又は無線によるものであってもよい。コンピュータ装置203は、ディスプレイ装置201と互いに独立した装置であってもよいし、ディスプレイ装置201に組み込まれた一体の装置であってもよい。   The computer device 203 can be connected to the display device 201 and the controller 204 by communication. Communication may be wired or wireless. The computer device 203 may be a device independent of the display device 201, or may be an integrated device incorporated in the display device 201.

コントローラ204は、ボタンとトリガを備え、ユーザの操作により入力を受け付ける入力装置である。また、光センサが搭載されており、照射装置202から照射されたレーザ光線を感知することができる。さらに、タッチセンサが搭載されており、ユーザの接触による入力を受け付けることができる。コントローラ204は、一対にして左右の手に把持して使用するものであるが、いずれか1つのみを使用するものであってもよい。   The controller 204 is an input device that includes a button and a trigger, and receives input by a user operation. In addition, an optical sensor is mounted, and can detect a laser beam emitted from the irradiation device 202. Furthermore, a touch sensor is mounted, and an input by a user's contact can be received. The controller 204 is used as a pair while being held by the left and right hands, but only one of them may be used.

図3(b)は、図3(a)に示す表示システムとは異なる表示システムの構成に関する1つの例を表す図である。図3(b)に示す表示システムは、光源となる発光部を備えるディスプレイ装置251と、ディスプレイ装置251やコントローラ254の光源となる発光部から発せられた光を撮影する撮影装置252と、ディスプレイ装置251にて表示される画像を生成又は処理するコンピュータ装置253と、光源となる発光部を備えるコントローラ254とから構成される。   FIG. 3B is a diagram illustrating an example of a configuration of a display system different from the display system illustrated in FIG. The display system illustrated in FIG. 3B includes a display device 251 including a light emitting unit serving as a light source, an imaging device 252 configured to capture light emitted from the light emitting unit serving as a light source of the display device 251 and the controller 254, and a display device. The image processing apparatus includes a computer device 253 that generates or processes an image displayed at 251 and a controller 254 that includes a light emitting unit serving as a light source.

ディスプレイ装置251は、ディスプレイ装置201と同様に、視界を覆うようにして頭部に装着するゴーグル型の表示装置であることが好ましい。ディスプレイは高い透過率を有する透過型ディスプレイであっても、低い透過率を有する非透過型ディスプレイであってもよい。   Like the display device 201, the display device 251 is preferably a goggle-type display device mounted on the head so as to cover the field of view. The display may be a transmissive display having a high transmittance or a non-transmissive display having a low transmittance.

撮影装置252は、ディスプレイ装置251及びコントローラ254の光源となる発光部から発せられた光を撮影することにより、ディスプレイ装置251及びコントローラ254の位置を特定するための装置である。   The photographing device 252 is a device for specifying the positions of the display device 251 and the controller 254 by photographing light emitted from a light emitting unit serving as a light source of the display device 251 and the controller 254.

コンピュータ装置253は、ディスプレイ装置251及びコントローラ254と通信により接続可能である。通信は、有線又は無線によるものであってもよい。   The computer device 253 can be connected to the display device 251 and the controller 254 by communication. Communication may be wired or wireless.

コントローラ254は、ボタンを備え、ユーザの操作により入力を受け付ける入力装置である。光源となる発光部を備え、コントローラ254から発せられた光を撮影装置252が撮影することにより、コントローラ254の位置を特定する。コントローラは手に把持するものであり、対にして使用することが好ましいが、1つのコントローラを使用するものとしてもよい。   The controller 254 is an input device that includes a button and receives an input by a user operation. A light emitting unit serving as a light source is provided, and the position of the controller 254 is specified by the image capturing device 252 capturing the light emitted from the controller 254. The controllers are gripped by hand and are preferably used in pairs, but a single controller may be used.

以下の説明において、本発明の実施の形態においては、図3(a)に示した方式により、ディスプレイ装置201及びコントローラ204の位置を特定するものとしたが、本発明はこの方式に限定されない。例えば、図3(b)に示した方式や、頭部以外の身体の一部に装着し、ディスプレイ装置201及びコントローラ204の位置を特定する方式であってもよい。   In the following description, in the embodiment of the present invention, the positions of the display device 201 and the controller 204 are specified by the method shown in FIG. 3A, but the present invention is not limited to this method. For example, the method shown in FIG. 3B or the method of attaching to a part of the body other than the head and specifying the positions of the display device 201 and the controller 204 may be used.

ディスプレイ装置201に表示される画像は、ディスプレイ装置201に搭載されたセンサにより測定された値、及び、コントローラ204へのユーザの入力操作に基づいて、コンピュータ装置203により生成又は処理された画像である。   The image displayed on the display device 201 is an image generated or processed by the computer device 203 based on a value measured by a sensor mounted on the display device 201 and a user input operation to the controller 204. .

ここで、ディスプレイ装置201の構成について説明する。図4は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置の構成を示すブロック図である。ディスプレイ装置201は、制御部11、RAM(Random Access Memory)12、ストレージ部13、撮像部14、グラフィックス処理部15、表示部16、センサ部18、通信インタフェース19、インタフェース部20、及びレンズ21からなり、それぞれ内部バスにより接続されている。   Here, the configuration of the display device 201 will be described. FIG. 4 is a block diagram showing a configuration of a display device corresponding to at least one of the embodiments of the present invention. The display device 201 includes a control unit 11, a RAM (Random Access Memory) 12, a storage unit 13, an imaging unit 14, a graphics processing unit 15, a display unit 16, a sensor unit 18, a communication interface 19, an interface unit 20, and a lens 21. And are connected by an internal bus.

制御部11は、CPU(Central Processing Unit)やROM(Read Only Memory)から構成される。制御部11は、ストレージ部13に格納されたプログラムを実行し、ディスプレイ装置201の制御を行う。RAM12は、制御部11のワークエリアである。ストレージ部13は、プログラムやデータを保存するための記憶領域である。   The control unit 11 includes a CPU (Central Processing Unit) and a ROM (Read Only Memory). The control unit 11 executes a program stored in the storage unit 13 and controls the display device 201. The RAM 12 is a work area of the control unit 11. The storage unit 13 is a storage area for storing programs and data.

制御部11は、プログラム及びデータをRAM12及びストレージ部13から読み出して処理を行う。制御部11は、RAM12にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部15に出力する。さらに、制御部11は、センサ部18において測定された各種の値に基づいて処理を行う、あるいは、インタフェース部20を介してコンピュータ装置3へデータを送信する。   The control unit 11 reads a program and data from the RAM 12 and the storage unit 13 and performs processing. The control unit 11 outputs a drawing command to the graphics processing unit 15 by processing the program and data loaded in the RAM 12. Further, the control unit 11 performs processing based on various values measured by the sensor unit 18, or transmits data to the computer device 3 via the interface unit 20.

撮像部14は、レンズ21を介して撮影した画像をグラフィックス処理部15へ出力する。ディスプレイ装置201を頭部に装着することによって視界が覆われる場合には、装置外部の情報を確認することができないため、後述する表示部16が備える表示画面17に、撮像部14により撮像された情報を表示させることで、ユーザは現実空間を認識することができ、安全性を確保することができる。   The imaging unit 14 outputs an image captured through the lens 21 to the graphics processing unit 15. When the field of view is covered by attaching the display device 201 to the head, information outside the device cannot be confirmed, and thus the image is captured by the imaging unit 14 on the display screen 17 provided in the display unit 16 described below. By displaying the information, the user can recognize the real space, and security can be ensured.

グラフィックス処理部15は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば30分の1秒である。グラフィックス処理部15は、描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。   The graphics processing unit 15 executes rendering of one image in frame units. One frame time of an image is, for example, 1/30 second. The graphics processing unit 15 has a role to handle a part of the arithmetic processing related to drawing and to distribute the load of the entire system.

表示部16は、表示画面17を備え、ユーザの視界を覆うディスプレイ装置201のゴーグル内部に設置される。表示画面17には、例えば、有機ELや無機ELが使用されるが、これに限定されるものではなく、スマートフォン等のディスプレイを備える端末装置を組み込むようにしてもよい。   The display unit 16 includes a display screen 17 and is installed inside goggles of the display device 201 that covers the field of view of the user. For example, an organic EL or an inorganic EL is used for the display screen 17, but the display screen 17 is not limited to this, and a terminal device having a display such as a smartphone may be incorporated.

センサ部18は、近接センサ18a、赤外線センサ18b、ジャイロセンサ18c、及び、加速度センサ18dを少なくとも備える。近接センサ18aは、ディスプレイ装置201のゴーグル部分に設置され、ユーザの顔部との接触有無を判定するために用いる。赤外線センサ18bは、ディスプレイ装置201に複数設置されるものであり、照射装置202から照射された光線を感知することで、ディスプレイ装置201の位置を特定するために用いる。ジャイロセンサ18c、及び加速度センサ18dは、ユーザの姿勢を特定するために用いる。   The sensor unit 18 includes at least a proximity sensor 18a, an infrared sensor 18b, a gyro sensor 18c, and an acceleration sensor 18d. The proximity sensor 18a is installed in a goggle portion of the display device 201, and is used to determine whether or not there is contact with a user's face. A plurality of infrared sensors 18b are provided in the display device 201, and are used to identify the position of the display device 201 by sensing light beams emitted from the irradiation device 202. The gyro sensor 18c and the acceleration sensor 18d are used to specify the posture of the user.

ここで、図を用いてユーザの姿勢の特定方法について説明する。図5は、本発明の実施の形態の少なくとも1つに対応する、ディスプレイ装置を頭部に装着した場合にユーザの姿勢を特定するための直交座標系を示す図である。   Here, a method of specifying the posture of the user will be described with reference to the drawings. FIG. 5 is a diagram illustrating an orthogonal coordinate system for specifying the posture of the user when the display device is mounted on the head, corresponding to at least one of the embodiments of the present invention.

図示するように、ディスプレイ装置201を装着したユーザの頭部を中心にして、XYZ座標を規定する。ユーザが直立する垂直方向をY軸(ヨー角)、Y軸と直交し、かつ、ディスプレイ装置201の表示画面17の中心とユーザの頭部とを結ぶ方向をZ軸(ロール角)、Y軸及びZ軸と直交する方向をX軸(ピッチ角)とする。ジャイロセンサ18cでは、各軸回りの角度(傾き)を検出し、加速度センサ18dでは、ディスプレイ装置201の動きを検知し、検出された角度及び検知された動きに応じて、表示画面17に表示される画像を変化させる。ディスプレイ装置201は、複数のセンサにより測定された値(以下、姿勢情報という)を用いて、ユーザの姿勢を特定することができる。   As shown in the drawing, XYZ coordinates are defined around the head of the user wearing the display device 201. The vertical direction in which the user stands upright is the Y axis (yaw angle), the direction orthogonal to the Y axis, and the direction connecting the center of the display screen 17 of the display device 201 to the user's head is the Z axis (roll angle), and the Y axis And a direction orthogonal to the Z axis is defined as an X axis (pitch angle). The gyro sensor 18c detects an angle (tilt) around each axis, and the acceleration sensor 18d detects the movement of the display device 201, and displays the movement on the display screen 17 according to the detected angle and the detected movement. Change the image. The display device 201 can specify the user's posture using values measured by a plurality of sensors (hereinafter, referred to as posture information).

続いて、通信インタフェース19は、無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース19を介して受信したデータは、RAM12にロードされ、制御部11により演算処理が行われる。   Subsequently, the communication interface 19 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. The data received via the communication interface 19 is loaded into the RAM 12, and the control unit 11 performs an arithmetic process.

インタフェース部20は、主にコンピュータ装置203と接続され、コンピュータ装置203において処理又は生成された画像等のデータを受信することができる。また、センサ部18において取得した各種センサの測定値をコンピュータ装置203へ送信することもできる。   The interface unit 20 is mainly connected to the computer device 203 and can receive data such as images processed or generated in the computer device 203. Further, the measurement values of various sensors acquired by the sensor unit 18 can be transmitted to the computer device 203.

続いて、コンピュータ装置203について説明する。図6は、本発明の実施の形態の少なくとも1つに対応する、コンピュータ装置の構成を示すブロック図である。コンピュータ装置203は、制御部31、RAM32、ストレージ部33、サウンド処理部34、グラフィックス処理部35、DVD/CD−ROMドライブ36、通信インタフェース37、インタフェース部38、及びフレームメモリ39からなり、それぞれ内部バスにより接続されている。   Next, the computer device 203 will be described. FIG. 6 is a block diagram showing a configuration of a computer device corresponding to at least one of the embodiments of the present invention. The computer device 203 includes a control unit 31, a RAM 32, a storage unit 33, a sound processing unit 34, a graphics processing unit 35, a DVD / CD-ROM drive 36, a communication interface 37, an interface unit 38, and a frame memory 39. Connected by internal bus.

制御部31は、CPUやROMから構成される。制御部31は、ストレージ部33に格納されたプログラムを実行し、コンピュータ装置203の制御を行う。また、制御部31は時間を計時する内部タイマを備えている。RAM32は、制御部31のワークエリアである。ストレージ部33は、プログラムやデータを保存するための記憶領域である。   The control unit 31 includes a CPU and a ROM. The control unit 31 executes a program stored in the storage unit 33 and controls the computer device 203. Further, the control unit 31 includes an internal timer that measures time. The RAM 32 is a work area of the control unit 31. The storage unit 33 is a storage area for storing programs and data.

制御部31は、プログラム及びデータをRAM32から読み出して処理を行なう。制御部31は、RAM32にロードされたプログラム及びデータを処理することで、描画命令をグラフィックス処理部35に出力する。   The control unit 31 reads a program and data from the RAM 32 and performs processing. The control unit 31 outputs a drawing command to the graphics processing unit 35 by processing the program and data loaded in the RAM 32.

サウンド処理部34は、サウンド出力装置40に接続されている。制御部31がサウンド出力の指示をサウンド処理部34に出力すると、サウンド処理部34はサウンド出力装置40にサウンド信号を出力する。サウンド出力装置40は、例えば、ヘッドフォンであり、ユーザがディスプレイ装置201とともに頭部に装着してもよいし、スピーカがディスプレイ装置201に組み込まれていてもよい。   The sound processing unit 34 is connected to the sound output device 40. When the control unit 31 outputs a sound output instruction to the sound processing unit 34, the sound processing unit 34 outputs a sound signal to the sound output device 40. The sound output device 40 is, for example, headphones, and may be worn by the user on the head together with the display device 201, or a speaker may be incorporated in the display device 201.

グラフィックス処理部35は、フレーム単位で1枚の画像の描画を実行する。画像の1フレーム時間は、例えば90分の1秒である。グラフィックス処理部35は描画に関する演算処理の一部を受け持ち、システム全体の負荷を分散させる役割を有する。コンピュータ装置203のグラフィックス処理部35は、ディスプレイ装置201の位置情報及び姿勢情報と、コントローラ204の位置情報とに基づいて、表示画面17に表示する画像を生成するため、ディスプレイ装置201に含まれるグラフィックス処理部15よりも高い性能を要する。   The graphics processing unit 35 executes drawing of one image in frame units. One frame time of an image is, for example, 1/90 second. The graphics processing unit 35 is responsible for a part of arithmetic processing related to drawing, and has a role of distributing the load of the entire system. The graphics processing unit 35 of the computer device 203 is included in the display device 201 to generate an image to be displayed on the display screen 17 based on the position information and orientation information of the display device 201 and the position information of the controller 204. It requires higher performance than the graphics processing unit 15.

DVD/CD−ROMドライブ36は、ディスク41からデータを読み込み、RAM32にロードされ、制御部31により演算処理が行われる。なお、ディスク41の種類はDVD又はCDに限らず、Blu−ray(登録商標)ディスクやその他の規格であってもよい。   The DVD / CD-ROM drive 36 reads data from the disk 41, loads the data into the RAM 32, and performs arithmetic processing by the control unit 31. The type of the disk 41 is not limited to a DVD or CD, but may be a Blu-ray (registered trademark) disk or another standard.

通信インタフェース37は無線又は有線により通信回線5に接続が可能であり、通信回線5を介してデータを受信することが可能である。通信インタフェース37を介して受信したデータは、ディスク41から読み込まれたデータと同様に、RAM32にロードされ、制御部31により演算処理が行われる。   The communication interface 37 can be connected to the communication line 5 wirelessly or by wire, and can receive data via the communication line 5. The data received via the communication interface 37 is loaded into the RAM 32 in the same manner as the data read from the disk 41, and the control unit 31 performs arithmetic processing.

インタフェース部38は、主にディスプレイ装置201と接続され、コンピュータ装置203において処理又は生成された画像等のデータを送信することができる。   The interface unit 38 is mainly connected to the display device 201 and can transmit data such as images processed or generated in the computer device 203.

なお、上述の説明において、ディスプレイ装置201とコンピュータ装置203とは別装置として記載したが、ディスプレイ装置201によりコンピュータ装置203の処理をすべて行うこととしてもよい。この場合には、コンピュータ装置203は不要となり、コントローラ204はディスプレイ装置201と通信により接続される。   In the above description, the display device 201 and the computer device 203 are described as separate devices. However, the display device 201 may perform all the processing of the computer device 203. In this case, the computer device 203 becomes unnecessary, and the controller 204 is connected to the display device 201 by communication.

続いて、本発明の実施の形態における表示システムの構成について説明する。図7は、本発明の実施の形態の少なくとも1つに対応する、表示システムの構成を示すブロック図である。表示システム1は、角度情報測定部301、位置及び向き特定部302、情報送信部303、情報受信部304、視線特定部305、交差判定部306、計時部307、経過時間判定部308、オブジェクト重畳判定部309、サブウィンドウ位置変更部310、サブウィンドウ画像生成部311、表示画像生成部312、画像送信部313、画像受信部314、及び画像表示部315を少なくとも備える。   Next, the configuration of the display system according to the embodiment of the present invention will be described. FIG. 7 is a block diagram showing a configuration of a display system corresponding to at least one of the embodiments of the present invention. The display system 1 includes an angle information measurement unit 301, a position and orientation identification unit 302, an information transmission unit 303, an information reception unit 304, a line-of-sight identification unit 305, an intersection determination unit 306, a clock unit 307, an elapsed time determination unit 308, and object superposition. It includes at least a determination unit 309, a sub-window position change unit 310, a sub-window image generation unit 311, a display image generation unit 312, an image transmission unit 313, an image reception unit 314, and an image display unit 315.

角度情報測定部301は、ディスプレイ装置201の姿勢から角度情報を測定する機能を有する。位置及び向き特定部302は、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知し、ディスプレイ装置201の位置及び向きを特定する機能を有する。情報送信部303は、ディスプレイ装置201において測定された角度情報と特定された位置及び向き情報とをコンピュータ装置203へ送信する機能を有する。   The angle information measurement unit 301 has a function of measuring angle information from the attitude of the display device 201. The position and orientation specifying unit 302 has a function of specifying a position and an orientation of the display device 201 by an optical sensor mounted on the display device 201 detecting a laser beam emitted from the irradiation device 202. The information transmitting unit 303 has a function of transmitting the angle information measured by the display device 201 and the specified position and orientation information to the computer device 203.

情報受信部304は、情報送信部303により送信された情報を受信する機能を有する。視線特定部305は、情報受信部304により受信された情報に基づいて、仮想空間におけるユーザの視線を特定する機能を有する。交差判定部306は、仮想空間内に配置されたオブジェクトと、視線特定部305により特定された視線とが交差するか否かを判定する機能を有する。   The information receiving unit 304 has a function of receiving the information transmitted by the information transmitting unit 303. The line-of-sight specifying unit 305 has a function of specifying the user's line of sight in the virtual space based on the information received by the information receiving unit 304. The intersection determining unit 306 has a function of determining whether or not the object arranged in the virtual space intersects with the line of sight specified by the line of sight specifying unit 305.

計時部307は、オブジェクトと視線とが交差したと判定されてから継続して交差していた時間を計時する機能を有する。経過時間判定部308は、計時部307により計時された時間が、所定の時間を経過したか否かを判定する機能を有する。オブジェクト重畳判定部309は、サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳するか否かを判定する機能を有する。   The timer 307 has a function of counting the time of continuous intersection after it is determined that the object and the line of sight intersect. The elapsed time determination unit 308 has a function of determining whether the time measured by the clock unit 307 has passed a predetermined time. The object superimposition determining unit 309 has a function of determining whether or not the display area of the subwindow and the object arranged in the virtual space are superimposed.

サブウィンドウ位置変更部310は、サブウィンドウの表示領域とオブジェクトとが重畳すると判定された場合に、サブウィンドウの表示位置を変更する機能を有する。サブウィンドウ画像生成部311は、サブウィンドウに表示する画像を生成する機能を有する。表示画像生成部312は、表示する画像を生成する機能を有する。   The subwindow position changing unit 310 has a function of changing the display position of the subwindow when it is determined that the display area of the subwindow and the object overlap. The sub-window image generation unit 311 has a function of generating an image to be displayed in the sub-window. The display image generation unit 312 has a function of generating an image to be displayed.

画像送信部313は、表示画像生成部312により生成された表示画像をディスプレイ装置201へ送信する機能を有する。画像受信部314は、画像送信部313により送信された表示画像を受信する機能を有する。画像表示部315は、画像受信部314により受信された表示画像を表示画面17に表示する機能を有する。   The image transmission unit 313 has a function of transmitting the display image generated by the display image generation unit 312 to the display device 201. The image receiving unit 314 has a function of receiving the display image transmitted by the image transmitting unit 313. The image display unit 315 has a function of displaying the display image received by the image receiving unit 314 on the display screen 17.

続いて、本発明の第三の実施の形態における実行処理について説明する。本発明の第三の実施の形態の一例として、コンテンツを閲覧するシステムが挙げられる。より具体的には、コンテンツは複数枚の紙面から構成され、ストーリーの展開に応じて進行する漫画に関するデータであって、漫画の一コマ単位に、ユーザの操作により、漫画の一コマを表す仮想空間に入り込むことができる表示システムである。   Next, an execution process according to the third embodiment of the present invention will be described. As an example of the third embodiment of the present invention, there is a system for browsing contents. More specifically, the content is composed of a plurality of sheets of paper, and is data relating to a manga that progresses in accordance with the development of the story. It is a display system that can enter the space.

図8は、本発明の実施の形態の少なくとも1つに対応する、実行画面の例である。図8(a)において、表示画面17には、漫画の一コマの状況が表示され、キャラクタ401と、サブウィンドウ402とが表示されている。サブウィンドウ402には、表示画面17に表示された画像を撮像する仮想カメラとは異なる仮想カメラにより撮像された画像が表示される。図8では、キャラクタ401の顔が拡大されて表示されている。   FIG. 8 is an example of an execution screen corresponding to at least one of the embodiments of the present invention. In FIG. 8A, the display screen 17 displays the state of one frame of a cartoon, and displays a character 401 and a sub window 402. In the sub window 402, an image captured by a virtual camera different from the virtual camera that captures the image displayed on the display screen 17 is displayed. In FIG. 8, the face of the character 401 is enlarged and displayed.

図8(b)は、図8(a)の状況から、ユーザが視線(以下、視軸ともいう)を左方向へ動かしてディスプレイ装置201の向きを変更した実行画面の例である。ユーザが頭部を動かすことで、ユーザに対して図8(a)より左側の仮想空間が表示画面17に表示される。この場合に、サブウィンドウ402は、表示画面17における所定の領域に表示されたままであり、ユーザの頭部の動きに応じて位置が変化しない。所定の領域とは、表示画面17に含まれる一部の領域であればよく、表示画面17の右下には限定されない。   FIG. 8B is an example of an execution screen in which the user moves the line of sight (hereinafter, also referred to as the visual axis) to the left to change the orientation of the display device 201 from the situation of FIG. 8A. When the user moves the head, the virtual space on the left side of FIG. 8A with respect to the user is displayed on the display screen 17. In this case, the sub-window 402 remains displayed in a predetermined area on the display screen 17, and its position does not change according to the movement of the user's head. The predetermined area may be a partial area included in the display screen 17 and is not limited to the lower right of the display screen 17.

サブウィンドウ402は、漫画の一コマに関連付けて記憶されることで、漫画の一コマを表す仮想空間に入り込むと常に表示されるように設計してもよい。つまり、表示画面17に表示される画像が属性情報として、例えば、サブウィンドウ402を表示するフラグを有するようにしてもよい。あるいは、画像が示す内容が特定のシーンである場合に、サブウィンドウ402を表示するように、画像の内容に応じて表示するものであってもよい。   The sub-window 402 may be designed to be stored in association with one frame of the comic so that it is always displayed when entering the virtual space representing one frame of the comic. That is, the image displayed on the display screen 17 may have, for example, a flag for displaying the sub window 402 as the attribute information. Alternatively, when the content indicated by the image is a specific scene, the sub-window 402 may be displayed according to the content of the image such that the sub-window 402 is displayed.

サブウィンドウ402は、所定の条件を満たした場合に表示されるように設計してもよい。所定の条件とは、例えば、コントローラ204において入力操作を受け付けられた場合や、ディスプレイ装置201の姿勢から特定された向きと仮想カメラの視軸を対応させ、視軸が仮想空間内のオブジェクトと交差したと判定された場合等が挙げられる。   The sub-window 402 may be designed to be displayed when a predetermined condition is satisfied. The predetermined condition is, for example, when an input operation is received by the controller 204, or the direction specified from the attitude of the display device 201 is associated with the visual axis of the virtual camera, and the visual axis intersects with the object in the virtual space. And the like.

続いて、本発明の実施の形態における、表示画面に表示する画像の生成について説明する。プログラムが実行されると、コンピュータ装置203の制御部31は、プログラムによって定義される仮想空間をグラフィックス処理部35に出力させる。また、ディスプレイ装置201を頭に装着したユーザの位置、及び、コントローラ204の位置を、照射装置202から照射された光線を受光した位置及び方向に基づいて特定する。さらに、ディスプレイ装置201のセンサ部18の各種センサの測定値により、ディスプレイ装置201の姿勢を特定する。   Next, generation of an image to be displayed on the display screen according to the embodiment of the present invention will be described. When the program is executed, the control unit 31 of the computer device 203 causes the graphics processing unit 35 to output the virtual space defined by the program. Further, the position of the user wearing the display device 201 on the head and the position of the controller 204 are specified based on the position and direction of the light beam emitted from the irradiation device 202. Further, the attitude of the display device 201 is specified based on the measured values of various sensors of the sensor unit 18 of the display device 201.

プログラムによって定義される仮想空間について説明する。図9は、本発明の実施の形態の少なくとも1つに対応する、仮想空間の概念を表す図である。プログラムにより定義される仮想空間70が、図示するように半球状の空間で表される場合に、ディスプレイ装置201を頭部に装着したユーザ80の視野は、可視領域81に該当する。すなわち、可視領域81に該当する映像が、ディスプレイ装置201の表示画面17に表示される。例えば、ユーザ80が左を向けば、ユーザ80の動きにしたがって、可視領域81は左側に移動する。上下方向についても同様に、例えば、ユーザ80が上を向けば、ユーザ80の動きにしたがって、可視領域81は上側に移動する。   The virtual space defined by the program will be described. FIG. 9 is a diagram illustrating a concept of a virtual space corresponding to at least one of the embodiments of the present invention. When the virtual space 70 defined by the program is represented by a hemispherical space as shown in the figure, the visual field of the user 80 wearing the display device 201 on the head corresponds to the visible region 81. That is, an image corresponding to the visible region 81 is displayed on the display screen 17 of the display device 201. For example, if the user 80 turns left, the visible area 81 moves to the left according to the movement of the user 80. Similarly, in the vertical direction, for example, when the user 80 faces upward, the visible area 81 moves upward according to the movement of the user 80.

[実行処理]
図10は、本発明の実施の形態の少なくとも1つに対応する、実行処理のフローチャートである。最初に、ディスプレイ装置201は、ディスプレイ装置201の姿勢から角度情報を測定する(ステップS11)。角度情報は、ディスプレイ装置201のセンサ部18に含まれる各種センサにより測定される。
[Execution process]
FIG. 10 is a flowchart of an execution process corresponding to at least one of the embodiments of the present invention. First, the display device 201 measures angle information from the attitude of the display device 201 (step S11). The angle information is measured by various sensors included in the sensor unit 18 of the display device 201.

次に、ディスプレイ装置201に搭載された光センサが、照射装置202から照射されたレーザ光線を感知することにより、ディスプレイ装置201は、ディスプレイ装置201の位置及び向きを特定する(ステップS12)。ステップS11及びステップS12の処理は、所定の間隔毎に行い、測定又は特定の都度、コンピュータ装置203へ送信して、ディスプレイ装置201の表示画面17において表示する表示用画像を生成してもよい。   Next, the display device 201 specifies the position and the orientation of the display device 201 by the optical sensor mounted on the display device 201 detecting the laser beam emitted from the irradiation device 202 (step S12). The processing in steps S11 and S12 may be performed at predetermined intervals, and may be transmitted to the computer device 203 at each measurement or at a specific time to generate a display image to be displayed on the display screen 17 of the display device 201.

次に、ディスプレイ装置201は、ステップS11において測定された角度情報、及び、ステップS12において特定された向き及び位置に関する情報をコンピュータ装置203へ送信する(ステップS13)。次に、コンピュータ装置203は、情報を受信し(ステップS14)、ステップS11において測定された角度情報、及び、ステップS12において特定された位置及び向きに関する情報に基づいて、仮想空間におけるユーザの視線を特定する(ステップS15)。   Next, the display device 201 transmits the angle information measured in step S11 and the information on the orientation and position specified in step S12 to the computer device 203 (step S13). Next, the computer device 203 receives the information (Step S14), and based on the angle information measured in Step S11 and the information on the position and orientation specified in Step S12, changes the user's gaze in the virtual space. It is specified (step S15).

仮想空間におけるユーザの視線とは、ディスプレイ装置201の角度情報(水平面に対する傾きに関する情報)、位置に関する情報、及び向きに関する情報(水平面に平行な平面上でどの方向を向いているかに関する情報)に基づいて特定される可視領域81において、ユーザが仮想空間内で見ていると推測される方向である。つまり、特定された向きは、仮想空間内における仮想カメラの視軸に対応するものである。例えば、ディスプレイ装置201の位置に仮想カメラの視点を設定し、ディスプレイ装置201の向きをもとに、視点を始点として、仮想世界における水平面に平行な平面上でどの方向へ視線が向いているかを特定し、かつ、ディスプレイ装置201の姿勢情報をもとに、該水平面に対する視線の傾きを特定することができる。さらに、仮想カメラの視点から仮想スクリーン上へ透視変換することで、ユーザの視線に対応する画像を生成することができる。このようにすることで、ユーザに意識させることなく、仮想世界において、ユーザが見ていると推測される方向に存在するオブジェクトを、ディスプレイ装置201に表示させ、ユーザの利便性を向上させるとともに、より仮想世界に没入させることが可能となる。   The user's line of sight in the virtual space is based on angle information (information on tilt with respect to a horizontal plane), information on position, and information on orientation (information on which direction on a plane parallel to the horizontal plane) of display device 201. This is the direction in which it is presumed that the user is looking in the virtual space in the visible area 81 specified by the user. That is, the specified direction corresponds to the visual axis of the virtual camera in the virtual space. For example, the viewpoint of the virtual camera is set at the position of the display device 201, and based on the orientation of the display device 201, from the viewpoint as a starting point, it is determined in which direction the line of sight is directed on a plane parallel to the horizontal plane in the virtual world. It is possible to specify and to determine the inclination of the line of sight with respect to the horizontal plane based on the posture information of the display device 201. Further, by performing perspective transformation from the viewpoint of the virtual camera onto the virtual screen, an image corresponding to the line of sight of the user can be generated. By doing so, the objects existing in the direction in which the user is supposed to be watching in the virtual world are displayed on the display device 201 without being conscious of the user, and the convenience of the user is improved. It becomes possible to be more immersed in a virtual world.

ところで、ディスプレイ装置201が、ディスプレイ装置201を装着したユーザの視線を追跡することができる機能を有するようにしてもよい。この場合には、ユーザの眼球の動作から視線を算出することができる。   By the way, the display device 201 may have a function of tracking the line of sight of the user wearing the display device 201. In this case, the line of sight can be calculated from the movement of the user's eyeball.

次に、コンピュータ装置203は、ステップS15において特定されたユーザの視線と仮想空間内に配置されたオブジェクトとが交差するか否かを判定する(ステップS16)。オブジェクトとは、例えば、仮想空間内に配置され得るものであって、キャラクタ、敵キャラクタ、アイテム、あるいは、仮想空間に表示される物体等をいう。交差とは、視線と、オブジェクトを形成する境界面とが交差することをいい、線と面とが接することも含む概念である。三次元空間における線分と物体の交差判定には、例えば、レイトレーシング法において物体とレイ(光線)との交点を求めるための方法を用いることができる。その他の方法によっても可能であり、本発明の実施の形態においては、交差判定の方法が限定されるものではない。   Next, the computer device 203 determines whether or not the line of sight of the user specified in step S15 intersects with the object arranged in the virtual space (step S16). The object is, for example, a character, an enemy character, an item, an object displayed in the virtual space, or the like, which can be arranged in the virtual space. The intersection means that the line of sight intersects with the boundary surface forming the object, and is a concept that also includes that the line and the surface are in contact with each other. The intersection between the line segment and the object in the three-dimensional space can be determined by, for example, a method for finding the intersection between the object and a ray (ray) in the ray tracing method. Other methods are also possible, and in the embodiment of the present invention, the method of intersection determination is not limited.

ユーザの視線が仮想空間内の所定のオブジェクトと交差していると判定された場合(ステップS16においてYES)には、コンピュータ装置203は、コンピュータ装置203の制御部31に備えられた内部タイマにより計時を開始する(ステップS17)。ユーザの視線が仮想空間内の所定のオブジェクトと交差していないと判定された場合(ステップS16においてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、視線と所定のオブジェクトとが交差しなくなったタイミングで、サブウィンドウを表示しないようにしてもよい。   If it is determined that the user's line of sight intersects with a predetermined object in the virtual space (YES in step S16), computer device 203 measures the time using an internal timer provided in control unit 31 of computer device 203. Is started (step S17). If it is determined that the user's line of sight does not intersect with the predetermined object in the virtual space (NO in step S16), the sub window is not displayed. If the sub-window is already displayed, the sub-window may not be displayed at the timing when the line of sight does not cross the predetermined object.

次に、コンピュータ装置203は、ステップS17において開始した計時により、所定のオブジェクトと視線との交差が継続している時間が所定の時間を経過したか否かを判定する(ステップS18)。所定時間が経過したと判定された場合(ステップS18にてYES)には、コンピュータ装置203は、サブウィンドウの表示領域が仮想空間内に配置された所定のオブジェクトと重畳するか否かを判定する(ステップS19)。ステップS19において判定される所定のオブジェクトとは、例えば、コンテンツに関して重要な意味を有するオブジェクトや、重畳することで視認性が悪くなるオブジェクト等をいう。所定時間が経過していない場合(ステップS18にてNO)には、サブウィンドウは表示されない。既にサブウィンドウが表示されている場合には、既存のサブウィンドウが表示されたままの状態を維持するようにしてもよい。   Next, the computer apparatus 203 determines whether or not the time during which the intersection between the predetermined object and the line of sight continues for a predetermined time has elapsed, based on the clocking started in step S17 (step S18). If it is determined that the predetermined time has elapsed (YES in step S18), computer device 203 determines whether or not the display area of the subwindow overlaps with a predetermined object arranged in the virtual space (step S18). Step S19). The predetermined object determined in step S19 refers to, for example, an object that has an important meaning with respect to the content, an object whose visibility becomes poor when superimposed, and the like. If the predetermined time has not elapsed (NO in step S18), the sub window is not displayed. When the sub-window is already displayed, the state where the existing sub-window remains displayed may be maintained.

サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳すると判定された場合(ステップS19にてYES)には、コンピュータ装置203は、サブウィンドウの表示位置を変更する(ステップS20)。サブウィンドウの表示領域と、仮想空間内に配置されたオブジェクトとが重畳しないと判定された場合(ステップS19にてNO)には、サブウィンドウの表示位置は変更されない。   If it is determined that the display area of the sub-window and the object arranged in the virtual space overlap (YES in step S19), computer device 203 changes the display position of the sub-window (step S20). If it is determined that the display area of the subwindow and the object arranged in the virtual space do not overlap (NO in step S19), the display position of the subwindow is not changed.

ここで、サブウィンドウの表示位置について説明する。サブウィンドウは、表示画面17の所定の領域内に表示されることが予め設定されていて、サブウィンドウが表示される場合には所定の位置に表示されることが好ましい。図11は、本発明の実施の形態の少なくとも1つに対応する、サブウィンドウに表示される領域を説明する図である。表示画面17の中央に視軸が向いているとした場合に、視軸に対して所定の位置関係にある領域又は線上が所定の領域となる。   Here, the display position of the sub window will be described. The sub-window is set in advance to be displayed in a predetermined area of the display screen 17, and it is preferable that the sub-window is displayed at a predetermined position when the sub-window is displayed. FIG. 11 is a diagram illustrating a region displayed in a sub window, corresponding to at least one of the embodiments of the present invention. Assuming that the visual axis is directed to the center of the display screen 17, an area or a line having a predetermined positional relationship with the visual axis is the predetermined area.

図11(a)は、所定の領域91が、視軸90を中心に、等分された領域の一つとして定められる場合を説明する図である。分割される領域は、図示されるように、四分割に限られない。つまり、所定の領域は、分割数及び領域の方向を指定して定められるようにしてもよい。   FIG. 11A is a diagram illustrating a case where the predetermined area 91 is determined as one of equally divided areas around the visual axis 90. The area to be divided is not limited to four as illustrated. That is, the predetermined area may be determined by designating the number of divisions and the direction of the area.

図11(b)は、所定の領域91が、視軸90を中心点として所定の角度αの範囲で定められる場合を説明する図である。ここで、αは任意の値である。つまり、所定の領域は、角度αを指定することにより定められるようにしてもよい。   FIG. 11B is a diagram illustrating a case where the predetermined area 91 is defined within a range of a predetermined angle α with the visual axis 90 as a center point. Here, α is an arbitrary value. That is, the predetermined area may be determined by designating the angle α.

図11(c)は、所定の領域91が、視軸90を中心点として、所定の距離β2の範囲で定められる場合を説明する図である。ここで、β1及びβ2は任意の値である。つまり、所定の領域は、長さを指定することにより定められてもよい。長さは、β1のみを指定してもよいし、β1及びβ2を指定して、図示するように、環形の領域を指定してもよい。   FIG. 11C is a diagram illustrating a case where the predetermined area 91 is defined within a range of a predetermined distance β2 around the visual axis 90 as a center point. Here, β1 and β2 are arbitrary values. That is, the predetermined area may be determined by designating the length. As the length, only β1 may be specified, or β1 and β2 may be specified, and a ring-shaped region may be specified as illustrated.

図11(d)は、所定の直線92が、視軸90を起点としたベクトル95及び96の内積により算出される場合を説明する図である。つまり、所定の領域は、直線上のいずれかの点で定められるようにしてもよい。図11(d)では、一例として、ベクトルを用いて算出したが、三角関数等を用いて算出してもよい。   FIG. 11D is a diagram illustrating a case where a predetermined straight line 92 is calculated by an inner product of vectors 95 and 96 starting from the visual axis 90. That is, the predetermined area may be determined at any point on the straight line. In FIG. 11D, the calculation is performed using a vector as an example, but the calculation may be performed using a trigonometric function or the like.

図示しないが、所定の領域は座標を指定することにより設定するようにしてもよい。例えば、表示画面17にXY座標系を設定し、画面の左上を座標(0,0)とした場合に、始点(100,100)から、終点(200,200)を指定すると、始点及び終点を対角線とする方形の範囲を所定の領域としてもよい。すなわち、所定の領域とは、視軸に対して定められる領域であって、ディスプレイ装置201の位置及び向きの変化によらない領域である。   Although not shown, the predetermined area may be set by designating coordinates. For example, if an XY coordinate system is set on the display screen 17 and the upper left corner of the screen is set to the coordinates (0, 0), when the start point (100, 100) and the end point (200, 200) are designated, the start point and the end point are set. A rectangular area that is a diagonal may be used as the predetermined area. That is, the predetermined area is an area determined with respect to the visual axis, and is an area that does not depend on a change in the position and orientation of the display device 201.

ステップS20におけるサブウィンドウの位置変更とは、例えば、仮想空間内に配置されたオブジェクトとサブウィンドウとが重畳しないように、サブウィンドウの位置を変更することをいう。より具体的には、例えば、サブウィンドウと仮想空間内のオブジェクトとが重畳することでユーザの視認性が悪化し、ストーリーの理解ができない等重大な影響があると考えられる場合等に有効である。サブウィンドウの位置変更は、所定の領域を変更し、サブウィンドウの表示位置を変更してもよい。例えば、画面の右下に表示されていたサブウィンドウを画面の右上に表示するようにしてもよい。また、所定の領域内で少しだけ位置をずらすことで、視認性を損なうことを回避してもよい。   Changing the position of the sub-window in step S20 means, for example, changing the position of the sub-window so that the object arranged in the virtual space does not overlap the sub-window. More specifically, this is effective, for example, when it is considered that there is a serious influence such as the user's visibility being deteriorated due to the superimposition of the sub-window and the object in the virtual space and the story cannot be understood. To change the position of the sub-window, a predetermined area may be changed to change the display position of the sub-window. For example, the sub window displayed at the lower right of the screen may be displayed at the upper right of the screen. Further, by slightly shifting the position within the predetermined area, the visibility may be prevented from being impaired.

次に、コンピュータ装置203は、サブウィンドウに表示する画像を生成する(ステップS21)。生成される画像は、任意の画像でよく、ステップS16において視線と交差していると判定されたオブジェクトに関する画像であってもよい。   Next, the computer device 203 generates an image to be displayed in the sub window (Step S21). The generated image may be an arbitrary image, and may be an image related to the object determined to intersect with the line of sight in step S16.

次に、コンピュータ装置203は、ステップS15で特定された視線の方向に対応する画像を生成する(ステップS22)。視線の方向に対応する画像とは、仮想カメラにより撮像された画像である。次に、コンピュータ装置203は、ステップS21において生成したサブウィンドウ画像と、ステップS22において生成した視線の方向に対応する画像とを、ディスプレイ装置201へ送信する(ステップS23)。   Next, the computer device 203 generates an image corresponding to the direction of the line of sight specified in step S15 (step S22). The image corresponding to the direction of the line of sight is an image captured by the virtual camera. Next, the computer device 203 transmits the sub-window image generated in step S21 and the image corresponding to the line of sight generated in step S22 to the display device 201 (step S23).

ディスプレイ装置201は、ステップS23において送信された画像を受信する(ステップS24)。ディスプレイ装置201は、ステップS24において受信した画像を表示し(ステップS25)、終了する。   The display device 201 receives the image transmitted in step S23 (step S24). The display device 201 displays the image received in step S24 (step S25), and ends.

実行処理は、所定のタイミングで繰り返し実行されるものとしてもよい。所定のタイミングとは、例えば、画面のフレームレートごと、あるいは、フレームレートの倍数のタイミングで行うことができる。   The execution process may be repeatedly executed at a predetermined timing. The predetermined timing can be set, for example, at each frame rate of the screen or at a timing that is a multiple of the frame rate.

ステップS25において、ディスプレイ装置201は、受信したサブウィンドウ画像と、視線の方向に対応する画像とを重畳させて表示する。ここで、サブウィンドウ画像は、視線との関係により定められた位置に表示されるものであり、ステップS12において特定された位置及び向きに応じて変化しない。すなわち、ユーザが頭部を動かした場合でも、サブウィンドウ画像は頭部の動きと連動せず、画面上の所定の位置に固定されて表示されるよう制御される。   In step S25, the display device 201 superimposes and displays the received sub-window image and the image corresponding to the line of sight. Here, the sub-window image is displayed at a position determined based on the relationship with the line of sight, and does not change according to the position and orientation specified in step S12. That is, even when the user moves his / her head, the sub-window image is controlled so as not to be linked to the movement of the head but to be fixedly displayed at a predetermined position on the screen.

ステップS25において、既にサブウィンドウが表示されている場合には、サブウィンドウに表示された画像を更新するようにしてもよい。   If the sub-window has already been displayed in step S25, the image displayed in the sub-window may be updated.

第三の実施の形態では、ディスプレイ装置201及びコントローラ204の位置を特定するための光線はレーザ光線であって、例えば、赤外線が挙げられるが、光線はこれに限定されず、可視光線であってもよいし、その他の不可視光線であってもよい。   In the third embodiment, the light beam for specifying the positions of the display device 201 and the controller 204 is a laser beam, for example, an infrared ray, but the light beam is not limited to this, and is a visible light beam. Or other invisible light rays.

第三の実施の形態では、視線が所定のオブジェクトと所定の時間交差し続けた場合にサブウィンドウを表示することとしたが、所定の時間が経過したか否かを判定することなく、視線と所定のオブジェクトとの交差に関する判定のみでサブウィンドウを表示することとしてもよい。   In the third embodiment, the sub-window is displayed when the line of sight continues to intersect with the predetermined object for a predetermined time. However, without determining whether or not the predetermined time has elapsed, the sub-window is displayed. The sub-window may be displayed only by determining the intersection with the object.

第三の実施の形態では、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウの所定の領域と重畳していた場合には、サブウィンドウの位置を変更していたが、重畳していた場合にはサブウィンドウを表示しないようにしてもよい。   In the third embodiment, when the predetermined object in the image corresponding to the visual axis is superimposed on the predetermined area of the subwindow, the position of the subwindow is changed. May not display the subwindow.

第三の実施の形態の一側面として、表示画面の所定の領域に、特定された向きに応じて変化しないサブウィンドウ画像を表示することで、HMDを使用するユーザのVR酔いを軽減させることができる。   As one aspect of the third embodiment, VR sickness of a user using the HMD can be reduced by displaying a sub-window image that does not change according to the specified orientation in a predetermined area of the display screen. .

第三の実施の形態の一側面として、所定の条件を満たすことにより第二画像を表示させることで、第一画像に対するユーザの視認性を損なうことなく、適切な場面で違和感なく第二画像を表示することができる。   As one aspect of the third embodiment, by displaying the second image by satisfying a predetermined condition, the second image is displayed in an appropriate scene without discomfort without impairing the user's visibility to the first image. Can be displayed.

第三の実施の形態の一側面として、仮想空間内に配置された所定のオブジェクトと視線とが交差した場合にサブウィンドウ画像を表示することで、ユーザが入力操作をすることなくサブウィンドウ画像を表示することができ、ユーザの利便性を向上させることができる。   As one aspect of the third embodiment, a sub-window image is displayed when a predetermined object arranged in a virtual space and a line of sight intersect, thereby displaying the sub-window image without performing an input operation by a user. And the convenience of the user can be improved.

第三の実施の形態の一側面として、ユーザの視軸と所定のオブジェクトとが所定の時間継続して交差した場合にサブウィンドウ画像を表示することで、ユーザが意図しないサブウィンドウを表示することを抑制し、ユーザが表示させたいサブウィンドウだけを表示可能にして、利便性を向上させることができる。   As one aspect of the third embodiment, when a visual axis of a user and a predetermined object continuously intersect for a predetermined time, a sub-window image is displayed to suppress display of a sub-window not intended by the user. However, it is possible to improve the convenience by enabling only the sub-window that the user wants to display.

第三の実施の形態の一側面として、ユーザの視軸と交差した所定のオブジェクトに関する画像をサブウィンドウに表示することにより、ユーザが入力操作をすることなく所定のオブジェクトに関する情報を知ることができる。また、ユーザの視軸が当たっている場所を認識することができるという利点もある。   As one aspect of the third embodiment, by displaying an image related to a predetermined object that intersects the visual axis of the user in the sub-window, the user can know information about the predetermined object without performing an input operation. There is also an advantage that a place where the user's visual axis is hit can be recognized.

第三の実施の形態の一側面として、視軸に対応する画像に関する情報が所定の条件を満たす場合にサブウィンドウ画像を表示することにより、視軸に対応する画像と関連付けたサブウィンドウ画像を表示することができ、画像を組み合わせた効果を生じさせることができる。例えば、漫画等のコンテンツにおいて、主人公が冷凍庫に閉じ込められた場合に、視軸に対応する画像として冷凍庫内の背景画像を表示し、サブウィンドウに温度計の画像を表示すると、背景画像のみを表示するよりもユーザに緊張感を与え、画像の組み合わせによる効果を生じさせることができる。   As one aspect of the third embodiment, displaying a sub-window image associated with an image corresponding to a visual axis by displaying a sub-window image when information about an image corresponding to the visual axis satisfies a predetermined condition. And an effect of combining images can be produced. For example, in the case of content such as cartoons, when the main character is trapped in a freezer, a background image in the freezer is displayed as an image corresponding to the visual axis, and an image of a thermometer is displayed in a sub window, and only the background image is displayed. Rather than giving the user a sense of tension, the effect of the combination of images can be produced.

第三の実施の形態の一側面として、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウが表示される所定の領域と重なる位置に存在する場合に、サブウィンドウを所定の領域とは異なる位置に表示することにより、ユーザの視認性を向上させることができる。   As one aspect of the third embodiment, when a predetermined object in an image corresponding to a visual axis is present at a position overlapping a predetermined area where a subwindow is displayed, the subwindow is located at a position different from the predetermined area. , The visibility of the user can be improved.

第三の実施の形態の一側面として、視軸に対応する画像中の所定のオブジェクトが、サブウィンドウの所定の領域と重なる位置に存在する場合に、サブウィンドウを表示しないことで、ユーザの視認性を向上させることができる。   As one aspect of the third embodiment, when a predetermined object in an image corresponding to the visual axis is present at a position overlapping a predetermined area of the subwindow, the visibility of the user is improved by not displaying the subwindow. Can be improved.

第三の実施の形態において、「頭部に装着」、「表示装置」、「向き」、「仮想空間」、「第一画像」、及び「第二画像」とは、それぞれ第一の実施の形態において記載した内容を必要な範囲で採用できる。   In the third embodiment, “attached to the head”, “display device”, “orientation”, “virtual space”, “first image”, and “second image” refer to the first embodiment, respectively. The contents described in the embodiment can be adopted within a necessary range.

第三の実施の形態において、「重なる」とは、例えば、線とオブジェクトとが交差することをいう。「第一画像に関する情報」とは、例えば、第一画像が表す内容の情報や第一画像の属性情報をいう。   In the third embodiment, “overlap” means, for example, that a line and an object intersect. “Information about the first image” refers to, for example, information of the content represented by the first image or attribute information of the first image.

[付記]
上で述べた実施の形態の説明は、下記の発明を、発明の属する分野における通常の知識を有する者がその実施をすることができるように記載した。
[Appendix]
In the above description of the embodiments, the following invention has been described so that a person having ordinary knowledge in the field to which the invention belongs can carry out the invention.

[1] ユーザの頭部に装着することで利用される表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段と
を備える、表示システム。
[1] A display system including a display device used by being worn on a user's head,
Orientation specifying means for specifying the orientation of the display device;
On the display screen of the display device, a first image indicating the state of the virtual space is displayed according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen. A display system comprising:

[2] 前記第二画像は、所定の条件を満たすことで表示される、[1]に記載の表示システム。 [2] The display system according to [1], wherein the second image is displayed when a predetermined condition is satisfied.

[3] 前記特定手段により特定された向きが、仮想空間内における仮想カメラの視軸に対応するものであり、
前記第一画像が、仮想空間を、仮想カメラを視点として仮想スクリーン上に透視変換して生成されるものであり、
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なることである、
[2]に記載の表示システム。
[3] The direction specified by the specifying unit corresponds to a visual axis of the virtual camera in the virtual space,
The first image is generated by performing a perspective transformation of a virtual space on a virtual screen with a virtual camera as a viewpoint,
The predetermined condition is that the visual axis overlaps a predetermined object in a virtual space,
The display system according to [2].

[4] 前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なった状態が所定の時間継続することである、[3]に記載の表示システム。 [4] The display system according to [3], wherein the predetermined condition is that a state in which the visual axis overlaps a predetermined object in a virtual space continues for a predetermined time.

[5] 前記第二画像が、所定のオブジェクトに関する画像である、[3]又は[4]に記載の表示システム。 [5] The display system according to [3] or [4], wherein the second image is an image related to a predetermined object.

[6] 前記所定の条件が、前記第一画像に関する情報が所定の条件を満たすことである、[2]〜[5]のいずれかに記載の表示システム。 [6] The display system according to any one of [2] to [5], wherein the predetermined condition is that information on the first image satisfies a predetermined condition.

[7] 前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、[1]〜[6]のいずれかに記載の表示システム。 [7] The display means displays the second image at a position different from the predetermined area when the predetermined object in the first image is present at a position overlapping the predetermined area. The display system according to any one of [1] to [6].

[8] 前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を表示しない、[1]〜[7]のいずれかに記載の表示システム。 [8] The display unit according to any one of [1] to [7], wherein the display unit does not display the second image when a predetermined object in the first image exists at a position overlapping the predetermined area. Display system.

[9] ユーザの頭部に装着することで利用される表示装置を備えるシステムにおける表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することと
を実行する表示方法。
[9] A display method in a system including a display device used by being worn on a user's head,
Determining the orientation of the display device;
On the display screen of the display device, a first image indicating the state of the virtual space is displayed according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen. How to do and display.

1 表示システム
11 制御部
12 RAM
13 ストレージ部
14 撮像部
15 グラフィックス処理部
16 表示部
17 表示画面
18 センサ部
18a センサ
18b 赤外線センサ
18c ジャイロセンサ
18d 加速度センサ
19 通信インタフェース
20 インタフェース部
201 ディスプレイ装置
202 照射装置
203 コンピュータ装置
204 コントローラ
21 レンズ
251 ディスプレイ装置
252 撮影装置
253 コンピュータ装置
254 コントローラ
31 制御部
32 RAM
33 ストレージ部
34 サウンド処理部
35 グラフィックス処理部
36 CD−ROMドライブ
37 通信インタフェース
38 インタフェース部
39 フレームメモリ
40 サウンド出力装置
41 ディスク
5 通信回線
DESCRIPTION OF SYMBOLS 1 Display system 11 Control part 12 RAM
Reference Signs List 13 storage unit 14 imaging unit 15 graphics processing unit 16 display unit 17 display screen 18 sensor unit 18a sensor 18b infrared sensor 18c gyro sensor 18d acceleration sensor 19 communication interface 20 interface unit 201 display device 202 irradiation device 203 computer device 204 controller 21 lens 251 display device 252 photographing device 253 computer device 254 controller 31 control unit 32 RAM
33 storage section 34 sound processing section 35 graphics processing section 36 CD-ROM drive 37 communication interface 38 interface section 39 frame memory 40 sound output device 41 disk 5 communication line

Claims (8)

表示装置を備える表示システムであって、
表示装置の向きを特定する向き特定手段と、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示する表示手段と
を備え、
前記表示手段は、第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示するものである、表示システム。
A display system including a display device,
Orientation specifying means for specifying the orientation of the display device;
On the display screen of the display device, a first image indicating the state of the virtual space is displayed according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen. Display means for performing
A display system, wherein the display means displays a second image at a position different from the predetermined area when a predetermined object in the first image is present at a position overlapping the predetermined area.
前記第二画像は、所定の条件を満たすことで表示される、請求項1に記載の表示システム。 The display system according to claim 1, wherein the second image is displayed when a predetermined condition is satisfied. 前記特定手段により特定された向きが、仮想空間内における仮想カメラの視軸に対応するものであり、
前記第一画像が、仮想空間を、仮想カメラを視点として仮想スクリーン上に透視変換して生成されるものであり、
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なることである、
請求項2に記載の表示システム。
The direction specified by the specifying unit corresponds to the visual axis of the virtual camera in the virtual space,
The first image is generated by performing a perspective transformation of a virtual space on a virtual screen with a virtual camera as a viewpoint,
The predetermined condition is that the visual axis overlaps a predetermined object in a virtual space,
The display system according to claim 2.
前記所定の条件が、前記視軸が仮想空間内の所定のオブジェクトと重なった状態が所定の時間、継続することである、請求項3に記載の表示システム。 The display system according to claim 3, wherein the predetermined condition is that a state in which the visual axis overlaps a predetermined object in a virtual space continues for a predetermined time. 前記第二画像が、所定のオブジェクトに関する画像である、請求項3又は4に記載の表示システム。 The display system according to claim 3, wherein the second image is an image related to a predetermined object. 前記所定の条件が、前記第一画像に関する情報が所定の条件を満たすことである、請求項2〜5のいずれかに記載の表示システム。 The display system according to claim 2, wherein the predetermined condition is that information on the first image satisfies a predetermined condition. 表示装置には、ジャイロセンサ及び加速度センサを含むセンサが搭載されており、
向き特定手段が、該センサにより測定された値を用いて、表示装置の向きを特定する、請求項1〜6のいずれかに記載の表示システム。
The display device is equipped with sensors including a gyro sensor and an acceleration sensor,
The display system according to any one of claims 1 to 6, wherein the direction specifying unit specifies the direction of the display device using a value measured by the sensor.
表示装置を備えるシステムにおいて実行される表示方法であって、
表示装置の向きを特定することと、
表示装置の表示画面に、特定された向きに応じて仮想空間の状態を示す第一画像を表示するとともに、表示画面の所定の領域に、特定された向きに応じて変化しない第二画像を表示することと
を実行し、
第一画像中の所定のオブジェクトが、前記所定の領域と重なる位置に存在する場合に、第二画像を前記所定の領域とは異なる位置に表示する、表示方法。
A display method executed in a system including a display device,
Determining the orientation of the display device;
On the display screen of the display device, a first image indicating the state of the virtual space is displayed according to the specified orientation, and a second image that does not change according to the specified orientation is displayed in a predetermined area of the display screen. Do and do
A display method, wherein a second image is displayed at a position different from the predetermined area when a predetermined object in the first image exists at a position overlapping the predetermined area.
JP2019082141A 2019-04-23 2019-04-23 Display system and display method Active JP6670965B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019082141A JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019082141A JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017234715A Division JP6522092B1 (en) 2017-12-06 2017-12-06 Display system and display method

Publications (2)

Publication Number Publication Date
JP2019174811A JP2019174811A (en) 2019-10-10
JP6670965B2 true JP6670965B2 (en) 2020-03-25

Family

ID=68166904

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019082141A Active JP6670965B2 (en) 2019-04-23 2019-04-23 Display system and display method

Country Status (1)

Country Link
JP (1) JP6670965B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102295265B1 (en) * 2019-11-29 2021-08-30 주식회사 알파서클 Apparaturs and method for real-time broardcasting of vr video filmed by several camera

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005038008A (en) * 2003-07-15 2005-02-10 Canon Inc Image processing method, image processor
JP2005044102A (en) * 2003-07-28 2005-02-17 Canon Inc Image reproduction method and device
JP4133976B2 (en) * 2004-09-01 2008-08-13 株式会社ソニー・コンピュータエンタテインメント Image processing apparatus, game apparatus, and image processing method
JP6355978B2 (en) * 2014-06-09 2018-07-11 株式会社バンダイナムコエンターテインメント Program and image generation apparatus

Also Published As

Publication number Publication date
JP2019174811A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
KR102374251B1 (en) Environmental interrupt in a head-mounted display and utilization of non field of view real estate
JP5981006B1 (en) Computer program for gaze guidance
US20210124415A1 (en) Eye-based activation and tool selection systems and methods
JP6177872B2 (en) I / O device, I / O program, and I / O method
JP6399692B2 (en) Head mounted display, image display method and program
US10488949B2 (en) Visual-field information collection method and system for executing the visual-field information collection method
JP6522092B1 (en) Display system and display method
WO2017051595A1 (en) Information processing device, information processing method and program
JP6348191B2 (en) Electronics
JP6250025B2 (en) I / O device, I / O program, and I / O method
JP6670965B2 (en) Display system and display method
JP6496391B1 (en) Display system and display method
JP6535699B2 (en) INFORMATION PROCESSING METHOD, INFORMATION PROCESSING PROGRAM, AND INFORMATION PROCESSING APPARATUS
US11422622B2 (en) Electronic device and operating method thereof
KR20180055637A (en) Electronic apparatus and method for controlling thereof
JP6449922B2 (en) Information processing method and program for causing computer to execute information processing method
JP6503407B2 (en) Content display program, computer device, content display method, and content display system
JP6853638B2 (en) Display system, display method, and computer equipment
KR102337907B1 (en) Augmented reality smart glass device
KR102339044B1 (en) Method and device for controlling emergency situation
CN114594855B (en) Multi-machine interaction method and system of head display equipment, terminal equipment and storage medium
JP6876639B2 (en) Display control device, display control method and program
KR102337908B1 (en) Method and device for assisting work
JP6941130B2 (en) Information processing method, information processing program and information processing device
JP2019020905A (en) Information processing method, information processing program and information processing device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190603

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200212

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200302

R150 Certificate of patent or registration of utility model

Ref document number: 6670965

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250