JP6623362B2 - Display control device and program - Google Patents

Display control device and program Download PDF

Info

Publication number
JP6623362B2
JP6623362B2 JP2018042421A JP2018042421A JP6623362B2 JP 6623362 B2 JP6623362 B2 JP 6623362B2 JP 2018042421 A JP2018042421 A JP 2018042421A JP 2018042421 A JP2018042421 A JP 2018042421A JP 6623362 B2 JP6623362 B2 JP 6623362B2
Authority
JP
Japan
Prior art keywords
view
virtual viewpoint
rotation
viewpoint
moving
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018042421A
Other languages
Japanese (ja)
Other versions
JP2019174853A (en
Inventor
小川 和宏
和宏 小川
洋二 水上
洋二 水上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2018042421A priority Critical patent/JP6623362B2/en
Priority to PCT/JP2019/003114 priority patent/WO2019171834A1/en
Publication of JP2019174853A publication Critical patent/JP2019174853A/en
Application granted granted Critical
Publication of JP6623362B2 publication Critical patent/JP6623362B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • AHUMAN NECESSITIES
    • A63SPORTS; GAMES; AMUSEMENTS
    • A63FCARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
    • A63F13/00Video games, i.e. games using an electronically generated display having two or more dimensions
    • A63F13/50Controlling the output signals based on the game progress
    • A63F13/52Controlling the output signals based on the game progress involving aspects of the displayed game scene
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics

Landscapes

  • Engineering & Computer Science (AREA)
  • General Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Human Computer Interaction (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Software Systems (AREA)
  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、表示制御装置及びプログラムに関する。   The present invention relates to a display control device and a program.

ヘッドマウントディスプレイ(HMD:Head Mounted Display)は、ユーザの頭部に装着し、該ユーザの眼前に配置されたディスプレイに仮想空間における画像を表示可能なものである。例えば、HMDを利用したゲームでは、頭部に装着するディスプレイの他、手に持って操作されるコントローラ等のデバイスを併用してゲームをプレイするものがある。しかしながら、ユーザは、視界がHMDによって覆われているため、手元を確認できない。そのため、ユーザは、コントローラから一旦指が離れた場合等で誤操作してしまうことがあった。このようなHMDには、頭部の傾き等の動きを検出して、選択肢の表示/非表示操作等を可能なものがある(例えば、特許文献1)。   A head-mounted display (HMD) is mounted on a user's head and can display an image in a virtual space on a display arranged in front of the user's eyes. For example, in a game using the HMD, there is a game in which a game such as a controller mounted on a hand is used in addition to a display mounted on a head and used together. However, the user cannot confirm the hand because the field of view is covered by the HMD. For this reason, the user sometimes performs an erroneous operation when the finger is once separated from the controller. Among such HMDs, there is an HMD capable of detecting a motion such as a tilt of a head and performing a display / non-display operation of options (for example, Patent Document 1).

また、近年、スマートフォン等の高性能化に伴いスマートフォン等を、例えばアタッチメントに装着することでHMDとして利用可能なものがある。この場合、頭部へ装着されることにより、スマートフォンに備えられているタッチパネル等の入力デバイスが利用できなくなる。このようなHMDには、例えばスマートフォンに内蔵されたジャイロ等のセンサを利用して頭部の動きを検出することで、HMDに表示される選択肢に対する操作を実現するものもある。   Further, in recent years, there is a device that can be used as an HMD by attaching a smartphone or the like to an attachment, for example, as the performance of the smartphone or the like increases. In this case, by being worn on the head, an input device such as a touch panel provided in the smartphone cannot be used. Some of such HMDs realize operations on options displayed on the HMD by detecting head movement using a sensor such as a gyro built in a smartphone, for example.

特許第5767386号公報Japanese Patent No. 57767386

上記のように、HMDを利用したゲームでは、コントローラによる操作の利便性が十分でなかったり、入力デバイスが利用できなかったりする場合があるため、HMDの傾きによる操作を行いたい場面が多い。しかしながら、HMDの方向情報は、視界画像の視界方向の操作に専ら利用されるため、それ以外の操作を行うことが難しかった。すなわち、HMDを利用したゲームでは、HMDの方向情報に基づく操作を多様化することが望まれている。   As described above, in the game using the HMD, there are cases where the convenience of the operation by the controller is not sufficient or the input device cannot be used. However, since the direction information of the HMD is exclusively used for the operation of the view direction of the view image, it is difficult to perform other operations. That is, in a game using the HMD, it is desired to diversify operations based on the direction information of the HMD.

本発明のいくつかの態様は、HMDの方向情報を用いた操作を多様化することができる表示制御装置及びプログラムを提供することを目的の一つとする。   It is an object of some aspects of the present invention to provide a display control device and a program capable of diversifying operations using HMD direction information.

また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする表示制御装置及びプログラムを提供することを目的の一つとする。   Another object of another aspect of the present invention is to provide a display control device and a program that can achieve the effects described in the embodiments described below.

上述した課題を解決するために、本発明の一態様は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置であって、自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更部と、自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記仮想視点を移動する視点変更部と、を備え、前記視点変更部は、前記視界方向に基づく方向に前記仮想視点を移動する、表示制御装置である。   In order to solve the above-described problem, one embodiment of the present invention is a display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. A view changing unit that changes the view direction based on own apparatus direction information related to the direction of the own apparatus, and the virtual viewpoint based on own apparatus rotation information related to rotation of the own apparatus about the view direction. A display control device, comprising: a viewpoint changing unit that moves; the viewpoint changing unit moves the virtual viewpoint in a direction based on the view direction.

また、本発明の一態様は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置のコンピュータに、自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更ステップと、自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記視界方向に基づく方向に前記仮想視点を移動する視点変更ステップと、を実行させるためのプログラムである。   Further, one embodiment of the present invention provides a computer of a display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. Based on own device direction information, a view change step of changing the view direction, and based on own device rotation information about rotation of the own device about the view direction, the virtual viewpoint is set in a direction based on the view direction. This is a program for executing a moving viewpoint changing step.

第1の実施形態に係るHMDシステムの構成の一例を示すシステム構成図である。FIG. 1 is a system configuration diagram illustrating an example of a configuration of an HMD system according to a first embodiment. 第1の実施形態に係る仮想空間の方向の定義の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a definition of a direction of a virtual space according to the first embodiment. 第1の実施形態に係る視界方向と仮想視点との関係の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a relationship between a viewing direction and a virtual viewpoint according to the first embodiment. 第1の実施形態に係る仮想視点の移動の一例を示す説明図である。FIG. 5 is an explanatory diagram illustrating an example of movement of a virtual viewpoint according to the first embodiment. 第1の実施形態に係る端末装置のハードウェア構成の一例を示すハードウェア構成図である。FIG. 3 is a hardware configuration diagram illustrating an example of a hardware configuration of a terminal device according to the first embodiment. 第1の実施形態に係る端末装置の機能構成の一例を示す機能ブロック図である。FIG. 2 is a functional block diagram illustrating an example of a functional configuration of the terminal device according to the first embodiment. 第1の実施形態に係る仮想視点の移動方向を表す画像を含む視界画像の一例を示す説明図である。FIG. 4 is an explanatory diagram illustrating an example of a view image including an image indicating a moving direction of a virtual viewpoint according to the first embodiment. 第1の実施形態に係る仮想視点の移動量または/および仮想視点の移動速度を表す画像を含む視界画像の一例を示す説明図である。FIG. 6 is an explanatory diagram illustrating an example of a view image including an image representing a moving amount of a virtual viewpoint and / or a moving speed of the virtual viewpoint according to the first embodiment. 第1の実施形態に係る視界変更処理及び仮想視点の視点移動処理の一例を示すフローチャートである。5 is a flowchart illustrating an example of a view change process and a viewpoint moving process of a virtual viewpoint according to the first embodiment. 第1の実施形態の変形例に係る視界変更処理の一例を示すフローチャートである。It is a flow chart which shows an example of a field-of-view change processing concerning a modification of a 1st embodiment. 第1の実施形態の変形例に係る仮想視点の視点移動処理の一例を示すフローチャートである。It is a flow chart which shows an example of viewpoint movement processing of a virtual viewpoint concerning a modification of a 1st embodiment.

[第1の実施形態]
以下、本発明の第1の実施形態について、図面を参照して説明する。
[First Embodiment]
Hereinafter, a first embodiment of the present invention will be described with reference to the drawings.

[端末装置10の概要]
図1は、本実施形態に係るHMD(Head Mounted Display)システム1の構成の一例を示すシステム構成図である。
HMDシステム1は、ユーザの頭部に装着され、仮想空間内の仮想視点からの視界を表す視界画像を表示可能である。仮想視点は、例えば、視界画像の生成に利用されるものであってもよい。例えば、HMDシステム1は、右目と左目との両眼視差を利用した立体視画像を表示可能である。また、HMDシステム1は、ジャイロ等のHMDシステム1の動きや傾き(姿勢)を検知するセンサを搭載する。HMDシステム1は、センサによりユーザの頭部の動きや傾きの変化等を検知する。以下の説明では、センサが検知する動きや傾きを示す情報を、センサ情報と称することがある。仮想空間には、例えば、オブジェクトを配置可能な水平面のフィールドが設けられている。
[Overview of Terminal Device 10]
FIG. 1 is a system configuration diagram illustrating an example of a configuration of an HMD (Head Mounted Display) system 1 according to the present embodiment.
The HMD system 1 is mounted on a user's head and can display a view image representing a view from a virtual viewpoint in a virtual space. The virtual viewpoint may be, for example, one used for generating a view image. For example, the HMD system 1 can display a stereoscopic image using binocular parallax between the right eye and the left eye. In addition, the HMD system 1 is equipped with a sensor that detects the movement and inclination (posture) of the HMD system 1 such as a gyro. The HMD system 1 detects a movement of the user's head, a change in inclination, and the like by using a sensor. In the following description, information indicating a movement or an inclination detected by a sensor may be referred to as sensor information. In the virtual space, for example, a horizontal plane field on which objects can be arranged is provided.

図示するHMDシステム1は、アタッチメント2を備える。アタッチメント2には、表示部120を備えた端末装置10を取り付け可能である。HMDシステム1は、端末装置10を、HMDシステム1の表示制御装置として利用可能である。アタッチメント2への端末装置10の取り付けは、ユーザの頭部にHDMシステム1が装着された状態でユーザの正面の視界を覆うように、かつ端末装置10の表示部120をユーザが視認可能に取り付け可能である。HDMシステム1は、取り付けられた端末装置10の表示部120を視認するための右目用レンズ3R及び左目用レンズ3Lと、HMDシステム1をユーザの頭部に装着・固定するためのストラップ5とを備える。ユーザは、HMDシステム1を頭部に装着することで、端末装置10の表示部120に表示される視界画像を、右目用レンズ3R及び左目用レンズ3Lを介して視認できる。   The illustrated HMD system 1 includes an attachment 2. The terminal device 10 including the display unit 120 can be attached to the attachment 2. The HMD system 1 can use the terminal device 10 as a display control device of the HMD system 1. The terminal device 10 is attached to the attachment 2 so as to cover the front view of the user with the HDM system 1 attached to the user's head and to allow the user to visually recognize the display unit 120 of the terminal device 10. It is possible. The HDM system 1 includes a right-eye lens 3R and a left-eye lens 3L for visually recognizing the display unit 120 of the attached terminal device 10, and a strap 5 for attaching and fixing the HMD system 1 to a user's head. Prepare. By mounting the HMD system 1 on the head, the user can visually recognize a view image displayed on the display unit 120 of the terminal device 10 via the right-eye lens 3R and the left-eye lens 3L.

[仮想空間の定義]
図2は、第1の実施形態に係る仮想空間の方向の定義の一例を示す説明図である。
本実施形態では、ユーザが直立する方向である垂直方向(鉛直方向)の軸をZ軸とする。また、本実施形態では、Z軸に直交する軸であって、ユーザとHMDシステム1の表示部120とを結ぶ方向の軸、すなわち、視界方向の軸をX軸とする。また、本実施形態では、Z軸及びX軸と直交する軸をY軸とする。
[Definition of virtual space]
FIG. 2 is an explanatory diagram illustrating an example of the definition of the direction of the virtual space according to the first embodiment.
In the present embodiment, the axis in the vertical direction (vertical direction) in which the user stands upright is defined as the Z axis. In the present embodiment, an axis orthogonal to the Z axis and in a direction connecting the user and the display unit 120 of the HMD system 1, that is, an axis in the field of view is set as the X axis. In the present embodiment, an axis orthogonal to the Z axis and the X axis is defined as a Y axis.

ここで、本実施形態では、Z軸を軸とした回転の回転方向をヨー方向(左右方向)とし、Y軸を軸とした回転の回転方向をピッチ方向(上下方向)とし、X軸を軸とした回転の回転方向をロール方向と称する。例えば、各センサは、各軸の回転方向(ヨー方向、ピッチ方向、及びロール方向)の角速度又は角加速度を検出する。なお、本実施形態では、ヨー方向を左右方向、ピッチ方向を上下方向(上向き、下向き)ということもある。また、仮想視点からX軸方向の距離を視界深度ともいうことがある。   Here, in the present embodiment, the rotation direction of rotation about the Z axis is the yaw direction (left-right direction), the rotation direction of rotation about the Y axis is the pitch direction (vertical direction), and the X axis is the axis. The rotation direction of the rotation described above is referred to as a roll direction. For example, each sensor detects the angular velocity or angular acceleration of each axis in the rotation direction (yaw direction, pitch direction, and roll direction). In the present embodiment, the yaw direction may be referred to as a left-right direction, and the pitch direction may be referred to as a vertical direction (upward, downward). Further, the distance in the X-axis direction from the virtual viewpoint may be referred to as the depth of field.

図3は、第1の実施形態に係る視界方向と仮想視点との関係の一例を示す説明図である。
図3において、仮想空間内の仮想視点K(ユーザの仮想視点)は、X軸、Y軸、及びZ軸の交点(原点)とし、ユーザの視界方向をX軸方向とする。仮想視点からの視界方向の視界画像の範囲(即ち、視界)は、視界方向(X軸方向)を中心としたヨー角α(破線aと破線bとの内角、及び破線cと破線dとの内角)とピッチ角β(破線aと破線dとの内角、及び破線bと破線cとの内角)とで定まる範囲である。ここで、ヨー角α及びピッチ角βは、HMDシステム1に表示させる仮想空間の視界画像の画角として予め設定された角度である。視界方向は、ユーザの頭部の方向がピッチ方向および/またはヨー方向に変化すると、その変化に応じてX軸方向からピッチ方向および/またはヨー方向に変化する。一方、ユーザの頭部の方向がロール方向に変化すると、視界方向は変化しないまま、仮想視点の位置が該視界方向(X軸方向))へ移動する。
FIG. 3 is an explanatory diagram illustrating an example of a relationship between a viewing direction and a virtual viewpoint according to the first embodiment.
In FIG. 3, a virtual viewpoint K (virtual viewpoint of the user) in the virtual space is an intersection (origin) of the X-axis, Y-axis, and Z-axis, and the direction of the user's view is the X-axis direction. The range of the view image in the view direction from the virtual viewpoint (that is, the view) is defined by the yaw angle α (the inner angle between the broken lines a and b, and the broken lines c and d) centered on the view direction (X-axis direction). And the pitch angle β (the inner angle between the broken lines a and d and the inner angle between the broken lines b and c). Here, the yaw angle α and the pitch angle β are angles set in advance as the angle of view of the view image in the virtual space displayed on the HMD system 1. When the direction of the user's head changes in the pitch direction and / or the yaw direction, the view direction changes from the X-axis direction to the pitch direction and / or the yaw direction according to the change. On the other hand, when the direction of the user's head changes in the roll direction, the position of the virtual viewpoint moves in the view direction (X-axis direction) without changing the view direction.

なお、以下では、説明を容易にするため、視界方向は端末装置10の表示面の法線方向であるとするが、アイトラッキングの技術を用いて、ユーザの目の動きから視界方向を特定してよい。   In the following, for the sake of simplicity, the view direction is assumed to be the normal direction of the display surface of the terminal device 10. However, using the eye tracking technique, the view direction is specified from the movement of the user's eyes. May be.

また、仮想空間内には、必要に応じて各種のオブジェクトが配置される。例えば、面L1は、仮想空間内においてオブジェクトが配置される面である。面L1には、視界方向に対応する注視点を視認可能とするためのオブジェクトである操作点オブジェクトPが配置される。換言すれば、操作点オブジェクトPは、視界方向を表すオブジェクトである。操作点オブジェクトPは、面L1を形成する視界方向の範囲を示す破線a、b、c、d上の点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の略中央(図示する例では、面L1とX軸の交点)に配置される。なお、操作点オブジェクトPが配置される位置は、面L1において、交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の中央部に限らず、面L1における他の位置に配置されてもよい。   Various objects are arranged in the virtual space as needed. For example, the plane L1 is a plane on which an object is arranged in the virtual space. An operation point object P, which is an object for making the gazing point corresponding to the viewing direction visible, is arranged on the plane L1. In other words, the operation point object P is an object representing the direction of the field of view. The operation point object P is substantially at the center of a range (view) surrounded by a rectangle having vertices at points a1, b1, c1, and d1 on dashed lines a, b, c, and d indicating the range in the view direction that forms the plane L1. (In the example shown, it is arranged at the intersection of the plane L1 and the X axis.) The position at which the operation point object P is arranged is not limited to the center of the range (view) surrounded by a rectangle having the vertices of the intersections a1, b1, c1, and d1 on the plane L1, but other positions on the plane L1. May be arranged.

ここで、視界方向は、上述のようにHMDシステム1を装着したユーザの頭部の方向がピッチ方向または/およびヨー方向に変化すると、その変化に応じてピッチ方向および/またはヨー方向に変化する。そのため、操作点オブジェクトPは、視界方向に対応する視界画像中の位置(例えば、視界画像の略中央)に表示されるように、視界方向に応じて移動する。   Here, when the direction of the head of the user wearing the HMD system 1 changes in the pitch direction and / or the yaw direction as described above, the view direction changes in the pitch direction and / or the yaw direction according to the change. . Therefore, the operation point object P moves according to the view direction so as to be displayed at a position in the view image corresponding to the view direction (for example, substantially at the center of the view image).

両眼視差を利用した立体視画像を表示する場合には、右目用の仮想視点に対応する視界方向と左目用の仮想視点に対応する視界方向がある。また、視界画像は、右目用の視界方向と左目用の視界方向のそれぞれの視界方向の視界画像とが存在する。各視界画像には、各種オブジェクトが含まれる。以下の説明では、説明を容易にするために右目用と左目用とを区別せずに説明する。   When displaying a stereoscopic image using binocular parallax, there is a view direction corresponding to the virtual viewpoint for the right eye and a view direction corresponding to the virtual viewpoint for the left eye. The view images include a view image for each of the view directions for the right eye and the left eye. Each view image includes various objects. In the following description, for the sake of simplicity, the description will be made without distinguishing between the right eye and the left eye.

ここで、仮想視点の移動と視界方向の変更とについて説明する。上述したように、視界方向は、HMDシステム1を装着したユーザの頭部の方向をピッチ方向または/およびヨー方向に回転させることで、該回転に応じて変更可能である。すなわち、視界方向の変更は、Z軸を回転軸とする回転方向および回転量(変化量)、または/およびY軸を回転軸とする回転方向および回転量(変化量)に応じて変更される。
一方、仮想視点は、HMDシステム1を装着したユーザの頭部の方向をロール方向に回転させることで、該回転に応じて視界方向へ移動可能である。すなわち、仮想視点の位置は、X軸を回転軸とする回転方向および回転量(変化量)に応じてX軸方向へ移動する。図4を参照して詳述する。
Here, the movement of the virtual viewpoint and the change of the view direction will be described. As described above, the direction of the field of view can be changed according to the rotation by rotating the direction of the head of the user wearing the HMD system 1 in the pitch direction and / or the yaw direction. That is, the view direction is changed according to the rotation direction and rotation amount (change amount) about the Z axis as the rotation axis or / and the rotation direction and rotation amount (change amount) about the Y axis as the rotation axis. .
On the other hand, the virtual viewpoint can be moved in the direction of the field of view according to the rotation by rotating the direction of the head of the user wearing the HMD system 1 in the roll direction. That is, the position of the virtual viewpoint moves in the X-axis direction according to the rotation direction and the rotation amount (change amount) with the X-axis as the rotation axis. This will be described in detail with reference to FIG.

図4は、第1の実施形態に係る仮想視点の移動の一例を示す説明図である。
仮想視点は、図3に図示した仮想視点Kが、視界方向を軸とした回転により移動する。例えば、仮想視点は、X軸を回転軸とし、HMDシステム1を装着したユーザの頭部の初期位置から右回転(例えば正方向に回転)させると、回転量に応じて仮想視点が仮想視点Kから仮想視点K1に移動する。ここでは、X軸、Y軸、及びZ軸の交点に仮想視点Kがあるときのユーザの頭部のロール方向への回転位置(ユーザが頭部をロール方向へ回転させていない0度の位置)を初期位置とする。このとき、X軸を回転軸とし、さらに右回転させると、仮想視点が仮想視点K1から仮想視点K2へと移動する。また、仮想視点の移動では、X軸を回転軸とし、初期位置から左回転(例えば負方向に回転)させると、その回転量に応じて仮想視点が仮想視点Kから仮想視点K3に移動する。このように、仮想視点は、視界方向を回転軸とした回転の回転方向や回転量に応じて移動される。
FIG. 4 is an explanatory diagram illustrating an example of movement of the virtual viewpoint according to the first embodiment.
The virtual viewpoint moves by rotating the virtual viewpoint K illustrated in FIG. 3 around the viewing direction. For example, when the virtual viewpoint is rotated rightward from the initial position of the head of the user wearing the HMD system 1 (for example, rotated in the positive direction) using the X axis as the rotation axis, the virtual viewpoint becomes the virtual viewpoint K according to the amount of rotation. To the virtual viewpoint K1. Here, the rotation position of the user's head in the roll direction when the virtual viewpoint K is at the intersection of the X axis, Y axis, and Z axis (the position at 0 degrees where the user does not rotate the head in the roll direction) ) Is the initial position. At this time, when the X axis is set as the rotation axis and further rotated right, the virtual viewpoint moves from the virtual viewpoint K1 to the virtual viewpoint K2. In the movement of the virtual viewpoint, when the X axis is used as the rotation axis and the counterclockwise rotation (for example, rotation in the negative direction) is performed from the initial position, the virtual viewpoint moves from the virtual viewpoint K to the virtual viewpoint K3 according to the amount of rotation. As described above, the virtual viewpoint is moved according to the rotation direction and the rotation amount of the rotation with the viewing direction as the rotation axis.

なお、仮想視点の移動は、いずれかの方向に仮想視点Kを移動させているときには、逆方向への仮想視点の移動を制限してもよいし、いずれかの方向に仮想視点Kを移動させているときには逆方向への仮想視点の移動を制限しなくてもよい。ここで言う制限は、例えば、仮想視点の移動(変更)を不可能にすることまたは仮想視点の移動(変更)を困難にすることである。   When the virtual viewpoint K is moved in any direction, the movement of the virtual viewpoint may be restricted in the opposite direction, or the virtual viewpoint K may be moved in any direction. , The movement of the virtual viewpoint in the reverse direction need not be restricted. The limitation here is, for example, making it impossible to move (change) the virtual viewpoint or making it difficult to move (change) the virtual viewpoint.

また、仮想視点の移動量は、例えば所定の最大値、例えば仮想空間内における10m等と上限値を設けてもよいし、上限値を設けなくてもよいし、ユーザ等の操作によって仮想視点の移動量、所定の最大値、上限値の有無のうちのいずれかまたは全てが設定可能であってもよい。   In addition, the movement amount of the virtual viewpoint may be provided with an upper limit, for example, a predetermined maximum value, for example, 10 m in the virtual space, or may not be provided with the upper limit, or the virtual viewpoint may be operated by a user or the like. Any or all of the movement amount, the predetermined maximum value, and the presence or absence of the upper limit value may be settable.

また、仮想視点の移動は、いずれかのロール方向の回転によっていずれかの方向に仮想視点を移動させているときには、他方のロール方向の回転による仮想視点の逆方向の移動を制限してもよい。具体的には、例えば、X軸を回転軸として初期位置から所定量分、右回転させて仮想視点を仮想視点Kから仮想視点K1に移動させたときに、X軸を回転軸とした左回転が生じたときには、仮想視点K1から仮想視点K方向への仮想視点の移動を無効として、仮想視点を仮想視点K1の位置に留まらせてもよい。   In addition, when the virtual viewpoint is moved in any direction by rotation in one roll direction, the movement of the virtual viewpoint in the opposite direction due to rotation in the other roll direction may be limited. . More specifically, for example, when the virtual viewpoint is rotated rightward by a predetermined amount from the initial position with the X axis as the rotation axis to move the virtual viewpoint from the virtual viewpoint K to the virtual viewpoint K1, a left rotation with the X axis as the rotation axis Occurs, the movement of the virtual viewpoint from the virtual viewpoint K1 in the direction of the virtual viewpoint K may be invalidated, and the virtual viewpoint may remain at the position of the virtual viewpoint K1.

また、仮想視点の移動には、閾値を設け、所定閾値以上のいずれかの方向への回転量の検出に応じて、仮想視点を移動させてもよい。   In addition, a threshold may be provided for the movement of the virtual viewpoint, and the virtual viewpoint may be moved in accordance with the detection of the rotation amount in any direction equal to or greater than the predetermined threshold.

また、仮想視点の移動は、端末装置10によるロール方向の回転量の検出に応じた仮想視点の移動量の制御に代えて、または該回転量の検出に応じた仮想視点の移動速度を制御してもよい。仮想視点の移動速度は、回転量(回転の変化量)にかかわらず一定速度であってもよいし、回転量に応じて異なっていてもよい。この場合、例えば、回転量が大きいときには、仮想視点の移動速度を回転量が小さいときよりも早くし、回転量が小さいときには、仮想視点の移動速度を回転量が大きいときよりも遅くするようにしてもよい。また、回転が検出されているときの時間を計時可能なタイマを設け、検出時間が所定時間よりも長い時には仮想視点の移動速度を早くしたり、検出時間が長くなるほど仮想視点の移動速度を早くしたりしてもよい。この場合、所定時間は、複数段階で設けてもよく、それぞれの所定時間に応じた移動速度を設定してもよい。   The movement of the virtual viewpoint is performed by controlling the moving speed of the virtual viewpoint in accordance with the detection of the rotation amount in the roll direction by the terminal device 10 or by controlling the moving speed of the virtual viewpoint in accordance with the detection of the rotation amount. May be. The moving speed of the virtual viewpoint may be a constant speed irrespective of the rotation amount (a change amount of the rotation), or may be different depending on the rotation amount. In this case, for example, when the rotation amount is large, the moving speed of the virtual viewpoint is made faster than when the rotation amount is small, and when the rotation amount is small, the moving speed of the virtual viewpoint is made slower than when the rotation amount is large. May be. In addition, a timer that can measure the time when rotation is detected is provided, and when the detection time is longer than a predetermined time, the moving speed of the virtual viewpoint is increased, and as the detection time is longer, the moving speed of the virtual viewpoint is increased. Or you may. In this case, the predetermined time may be provided in a plurality of stages, and a moving speed corresponding to each predetermined time may be set.

[ハードウェア構成]
端末装置10は、HMDシステム1の少なくとも一部として利用可能な携帯型のコンピュータ装置であり、スマートフォンやフィーチャーフォン等の携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、タブレットPC、家庭用ゲーム機、等が適用できる。本実施形態では、端末装置10がスマートフォンである場合の一例について説明する。なお、HMDシステム1は、ディスプレイや制御部などを一体として備えるコンピュータ装置であってもよい。
[Hardware configuration]
The terminal device 10 is a portable computer device that can be used as at least a part of the HMD system 1, such as a mobile phone such as a smartphone or a feature phone, a personal digital assistant (PDA), a tablet PC, and a home game. Machine, etc. can be applied. In the present embodiment, an example in which the terminal device 10 is a smartphone will be described. Note that the HMD system 1 may be a computer device integrally including a display, a control unit, and the like.

また、HMDシステム1は、端末装置10が表示装置とセンサとを少なくとも備えていればよく、端末装置10と有線または無線で接続された情報処理装置(非図示)によって生成された視界画像を表示可能なシステムであってもよい。すなわち、端末装置10は、表示装置や制御部を一体として備えるコンピュータ装置でなくてもよい。この場合、情報処理装置(例えば、PC、ゲーム機本体等)は、HDMシステム1としてユーザの頭部に装着されなくてもよい。換言すれば、ユーザの頭部に装着される端末装置10が表示装置とセンサとを少なくとも備え、端末装置10と有線または無線により接続され、ユーザの頭部に装着されない別のハードウェアによって端末装置10を制御(例えば、視界画像の変更する処理、仮想視点の移動する処理、視界画像の生成する処理等)してもよい。   In addition, the HMD system 1 only needs to include at least the display device and the sensor in the terminal device 10, and displays the view image generated by the information processing device (not illustrated) connected to the terminal device 10 by wire or wirelessly. A possible system may be used. That is, the terminal device 10 does not have to be a computer device integrally including the display device and the control unit. In this case, the information processing device (for example, a PC, a game machine body, or the like) does not need to be mounted on the head of the user as the HDM system 1. In other words, the terminal device 10 mounted on the user's head includes at least a display device and a sensor, is connected to the terminal device 10 by wire or wirelessly, and is connected to the terminal device by another hardware not mounted on the user's head. 10 may be controlled (for example, a process of changing a view image, a process of moving a virtual viewpoint, a process of generating a view image, and the like).

図5は、第1の実施形態に係る端末装置10のハードウェア構成の一例を示すハードウェア構成図である。
端末装置10は、例えば、表示装置12と、センサ13と、記憶装置15と、通信部16と、CPU(Central Processing Unit)17と、を備える。
FIG. 5 is a hardware configuration diagram illustrating an example of a hardware configuration of the terminal device 10 according to the first embodiment.
The terminal device 10 includes, for example, a display device 12, a sensor 13, a storage device 15, a communication unit 16, and a CPU (Central Processing Unit) 17.

表示装置12は、画像やテキスト等の情報を表示するディスプレイであり、例えば、液晶ディスプレイパネル、有機EL(ElectroLuminescence)ディスプレイパネル等を含んで構成される。例えば、表示装置12は、仮想空間内の仮想視点(HMDシステム1を装着しているユーザの眼)からの視界画像として、両眼視差を利用した立体視画像(右目用画像及び左目用画像)を表示する。また、表示装置12は、仮想空間内に配置された各種オブジェクトを視界画像とともに表示する。   The display device 12 is a display that displays information such as images and text, and includes, for example, a liquid crystal display panel, an organic EL (ElectroLuminescence) display panel, and the like. For example, the display device 12 uses a binocular parallax to provide a stereoscopic image (a right-eye image and a left-eye image) as a field-of-view image from a virtual viewpoint (the eyes of the user wearing the HMD system 1) in a virtual space. Is displayed. Further, the display device 12 displays various objects arranged in the virtual space together with the view image.

センサ13は、各種センサ情報を検知するセンサである。例えば、センサ13は、物体の角度、角速度、角加速度等を検知するジャイロセンサである。なお、センサ13は、方向の変化量を検知するセンサであってもよいし、方向そのものを検知するセンサであってもよい。また、センサ13は、ジャイロセンサに限られるものではなく、加速度センサ、傾斜センサ、地磁気センサ等であってもよい。   The sensor 13 is a sensor that detects various types of sensor information. For example, the sensor 13 is a gyro sensor that detects an angle, an angular velocity, an angular acceleration, and the like of an object. The sensor 13 may be a sensor that detects the amount of change in the direction, or may be a sensor that detects the direction itself. Further, the sensor 13 is not limited to a gyro sensor, but may be an acceleration sensor, a tilt sensor, a geomagnetic sensor, or the like.

記憶装置15は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read−Only Memory)、ROM(Read−Only Memory)、RAM(Random Access Memory)等を含み、仮想空間データ(画像データ)や、仮想空間内に配置されるオブジェクトのデータ、仮想空間を用いたゲームのプログラム等を記憶する。   The storage device 15 includes, for example, a hard disk drive (HDD), a solid state drive (SSD), an electrically erasable programmable read-only memory (ROM), a read-only memory (ROM), and a ROM (read-only memory). It stores virtual space data (image data), data of an object arranged in the virtual space, a program of a game using the virtual space, and the like.

通信部16は、例えば、情報処理装置(非図示)と端末装置10とを有線または無線により接続するための通信インタフェースである。なお、通信部16は、インターネット網に接続するための通信インタフェースとして機能してもよい。   The communication unit 16 is, for example, a communication interface for connecting an information processing device (not shown) and the terminal device 10 by wire or wirelessly. Note that the communication unit 16 may function as a communication interface for connecting to the Internet network.

CPU17は、端末装置10が備える各部を制御する制御中枢として機能する。例えば、CPU17は、記憶装置15に記憶された各種プログラムを実行することで、端末装置10の各部を制御する制御部として機能する。   The CPU 17 functions as a control center that controls each unit included in the terminal device 10. For example, the CPU 17 functions as a control unit that controls each unit of the terminal device 10 by executing various programs stored in the storage device 15.

上述した各構成は、バス(BUS)を介して相互に通信可能に接続されている。また、端末装置10は、スピーカ、音声出力端子、カメラ、GPS(Global Positioning System)受信モジュール、ユーザの操作入力を受け付ける操作ボタン又はタッチパネル、タイマ等(いずれも非図示)のハードウェア構成を含んで構成されてもよい。   Each of the above-described components is communicably connected to each other via a bus (BUS). In addition, the terminal device 10 includes a hardware configuration such as a speaker, an audio output terminal, a camera, a GPS (Global Positioning System) receiving module, an operation button or a touch panel that accepts a user's operation input, a timer, and the like (all not shown). It may be configured.

例えば、端末装置10は、HMDシステム1を利用したゲームのプログラムを実行する。このゲームは、ユーザがHMDシステム1を装着した状態で、表示装置12に表示される視界画像(ゲーム画面)の視野範囲を頭部の向き等を変えて変更しながらプレイするものである。   For example, the terminal device 10 executes a game program using the HMD system 1. In this game, the user wears the HMD system 1 and plays while changing the visual field range of the view image (game screen) displayed on the display device 12 by changing the direction of the head and the like.

端末装置10は、センサ13の検出結果に基づいて端末装置10の方向に関する方向情報を検出する。端末装置10は、検出結果に基づいて視界方向の視界画像(ゲーム画面)を表示装置12に表示させる。端末装置10の方向は、HMDシステム1を装着したユーザの頭部の方向に対応する。   The terminal device 10 detects direction information on the direction of the terminal device 10 based on the detection result of the sensor 13. The terminal device 10 causes the display device 12 to display a view image (game screen) in the view direction based on the detection result. The direction of the terminal device 10 corresponds to the direction of the head of the user wearing the HMD system 1.

[機能構成]
図6は、第1の実施形態に係る端末装置10の機能構成の一例を示す機能ブロック図である。
端末装置10は、記憶装置15から各種データやプログラムの書き込み、読み出しを行う機能構成として、記憶部150を備える。また、端末装置10は、表示装置12を制御する機能構成として、表示部120を備える。また、端末装置10は、センサ13による検出値を受け付ける機能構成として、センサ入力部130を備える。また、端末装置10は、記憶装置15に記憶されているプログラムをCPU17が実行することより実現される機能構成として、制御部110を備える。制御部110は、検出部111と、視界変更部112と、視点変更部113と、方向画像生成部115と、移動画像生成部116と、表示制御部117と、を備える。
[Function configuration]
FIG. 6 is a functional block diagram illustrating an example of a functional configuration of the terminal device 10 according to the first embodiment.
The terminal device 10 includes a storage unit 150 as a functional configuration for writing and reading various data and programs from the storage device 15. Further, the terminal device 10 includes a display unit 120 as a functional configuration for controlling the display device 12. In addition, the terminal device 10 includes a sensor input unit 130 as a functional configuration for receiving a detection value of the sensor 13. In addition, the terminal device 10 includes a control unit 110 as a functional configuration realized by the CPU 17 executing a program stored in the storage device 15. The control unit 110 includes a detection unit 111, a view change unit 112, a viewpoint change unit 113, a direction image generation unit 115, a moving image generation unit 116, and a display control unit 117.

検出部111は、センサ入力部130の検出結果に基づいて、端末装置10の方向情報を検出する。方向情報は、ヨー方向、ピッチ方向、ロール方向のそれぞれの回転方向及び回転量(変化量)を含む、端末装置10の方向を表す情報である。   The detection unit 111 detects the direction information of the terminal device 10 based on the detection result of the sensor input unit 130. The direction information is information indicating the direction of the terminal device 10 including the respective rotation directions and rotation amounts (change amounts) of the yaw direction, the pitch direction, and the roll direction.

視界変更部112は、検出部111が検出した端末装置10の方向情報に基づいて、仮想空間における視界方向を検出する。また、視界変更部112は、検出部111が検出する端末装置10の方向情報に基づいて視界方向を変更する。具体的には、視界変更部112は、ヨー方向の回転方向および回転量(傾き、変化量)、ピッチ方向の回転方向およびピッチ方向の回転量(傾き、変化量)に応じて視界方向を変更する。   The view change unit 112 detects the view direction in the virtual space based on the direction information of the terminal device 10 detected by the detection unit 111. Further, the view change unit 112 changes the view direction based on the direction information of the terminal device 10 detected by the detection unit 111. Specifically, the view changing unit 112 changes the view direction in accordance with the yaw direction of rotation and the amount of rotation (inclination, change), the pitch direction of rotation and the pitch direction of rotation (inclination, change). I do.

視点変更部113は、検出部111が検出した端末装置10の方向情報に基づいて、仮想空間における仮想視点の位置を検出する。また、視点変更部113は、検出部111が検出した端末装置10の方向情報に基づいて、仮想空間における仮想視点の位置を移動(変更)させる。具体的には、視点変更部113は、ロール方向の回転方向及び回転量(傾き量、変化量等ともいう)に応じて仮想視点を移動させる。   The viewpoint changing unit 113 detects the position of the virtual viewpoint in the virtual space based on the direction information of the terminal device 10 detected by the detecting unit 111. Further, the viewpoint changing unit 113 moves (changes) the position of the virtual viewpoint in the virtual space based on the direction information of the terminal device 10 detected by the detecting unit 111. Specifically, the viewpoint changing unit 113 moves the virtual viewpoint according to the rotation direction and the amount of rotation (also referred to as the amount of inclination, the amount of change, etc.) in the roll direction.

方向画像生成部115は、仮想空間における視界画像中の仮想視点の移動方向を表す画像(方向画像)を視界画像中に生成する。具体的には、方向画像生成部115は、仮想視点の移動方向を表す方向画像(オブジェクト)を生成し、仮想空間内に配置する。換言すれば、方向画像は、仮想空間内の視界画像中に配置される。方向画像生成部115が生成する画像例については、図7を用いて後述する。なお、端末装置10は、方向画像生成部115を備えなくてもよい。   The direction image generation unit 115 generates an image (direction image) representing the moving direction of the virtual viewpoint in the view image in the virtual space in the view image. Specifically, the direction image generation unit 115 generates a direction image (object) representing the moving direction of the virtual viewpoint, and arranges the direction image (object) in the virtual space. In other words, the direction image is arranged in the view image in the virtual space. An example of an image generated by the direction image generation unit 115 will be described later with reference to FIG. Note that the terminal device 10 may not include the direction image generation unit 115.

移動画像生成部116は、仮想空間における視界画像中の仮想視点の移動量または仮想視点の移動速度を表す画像(移動画像)を視界画像中に生成する。具体的には、移動画像生成部116は、仮想視点の移動量または仮想視点の移動速度を表す画像(オブジェクト)を生成し、仮想空間内に配置する。換言すれば、移動画像は、仮想空間内の視界画像中に配置される。移動画像生成部116が生成する画像例については、図8を用いて後述する。なお、端末装置10は、移動画像生成部116を備えなくてもよい。   The moving image generation unit 116 generates an image (moving image) representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint in the view image in the virtual space in the view image. Specifically, the moving image generation unit 116 generates an image (object) indicating the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint, and arranges the image (object) in the virtual space. In other words, the moving image is arranged in the view image in the virtual space. An example of an image generated by the moving image generation unit 116 will be described later with reference to FIG. Note that the terminal device 10 may not include the moving image generation unit 116.

表示制御部117は、視界変更部112が検出、変更した視界方向、視点変更部113が検出、移動させた仮想視点に応じて、仮想空間内の仮想視点からの視界方向の視界画像を表示部120に表示させる。また、表示制御部117は、視界変更部112が検出、変更した視界方向、視点変更部113が検出、移動させた仮想視点に応じて、仮想空間内の仮想視点からの視界方向の視界画像と、方向画像生成部115が生成した方向画像、移動画像生成部116が生成した移動画像を表示部120に表示させる。仮想空間内の各方向の視界画像のデータは、仮想空間データとして記憶部150が記憶する。表示制御部117は、視界方向に対応する視界画像を仮想空間データから取得して視界画像として表示部120に表示させる。   The display control unit 117 displays the view image in the view direction from the virtual viewpoint in the virtual space according to the view direction detected and changed by the view change unit 112 and the virtual viewpoint detected and moved by the viewpoint change unit 113. 120 is displayed. In addition, the display control unit 117 changes the view direction in the view direction from the virtual viewpoint in the virtual space according to the view direction detected and changed by the view change unit 112 and the virtual viewpoint detected and moved by the viewpoint change unit 113. The display unit 120 displays the direction image generated by the direction image generation unit 115 and the moving image generated by the moving image generation unit 116. The storage unit 150 stores the data of the view image in each direction in the virtual space as virtual space data. The display control unit 117 acquires a view image corresponding to the view direction from the virtual space data, and causes the display unit 120 to display the view image as the view image.

[方向画像]
図7は、第1の実施形態に係る仮想視点の移動方向を表す画像を含む視界画像の一例を示す説明図である。
図7に示す視界画像V1には、仮想視点の移動方向を表す操作点オブジェクトPが含まれる。例えば、操作点オブジェクトPは、視界画像V1の中央部に表示される。つまり、操作点オブジェクトPは、視界画像V1中に配置される。なお、操作点オブジェクトPは、例えば、ユーザが仮想視点の位置を移動するときに表示部120に表示されてもよい。
[Direction image]
FIG. 7 is an explanatory diagram illustrating an example of a view image including an image indicating the moving direction of the virtual viewpoint according to the first embodiment.
The view image V1 shown in FIG. 7 includes an operation point object P indicating the moving direction of the virtual viewpoint. For example, the operation point object P is displayed at the center of the view image V1. That is, the operation point object P is arranged in the view image V1. The operation point object P may be displayed on the display unit 120 when the user moves the position of the virtual viewpoint, for example.

例えば、端末装置10がロール方向の傾きを検知すると、仮想視点の位置は、視界画像V1の仮想空間における手前側から視界画像V1の仮想空間における奥方向、すなわち、操作点オブジェクトPの方向に移動する。換言すれば、操作点オブジェクトPは、仮想視点の移動方向、例えば図3で説明したX軸がいずれの方向であるかを表す画像である。   For example, when the terminal device 10 detects the inclination in the roll direction, the position of the virtual viewpoint moves from the near side in the virtual space of the view image V1 to the depth direction in the virtual space of the view image V1, that is, the direction of the operation point object P. I do. In other words, the operation point object P is an image indicating the moving direction of the virtual viewpoint, for example, the direction of the X axis described in FIG.

このように、仮想視点の移動方向を視界画像中に表示することで、仮想視点がどの方向に移動するのかをユーザが把握することができるため、ユーザの操作性を向上させることができる。また、ユーザは、仮想視点の移動方向を表す操作点オブジェクトPを見ながらロール方向の傾きやピッチ方向の傾きによって視界方向を調整することもできるため、頭部の動きのみで視界画像に対する多様な操作をすることができる。   In this way, by displaying the moving direction of the virtual viewpoint in the view image, the user can grasp in which direction the virtual viewpoint moves, so that the operability of the user can be improved. In addition, the user can adjust the view direction by tilting in the roll direction or the pitch direction while viewing the operation point object P representing the moving direction of the virtual viewpoint. Can operate.

[移動画像]
図8は、第1の実施形態に係る仮想視点の移動量または仮想視点の移動速度を表す画像を含む視界画像の一例を示す説明図である。
図8に示す視界画像V2には、仮想視点の移動量または仮想視点の移動速度を表す画像volが含まれる。
例えば、仮想視点の移動量または仮想視点の移動速度を表す画像volは、視界画像V2の中央部に表示される。例えば、仮想視点の移動量または仮想視点の移動速度を表す画像volは、仮想視点がどれだけ移動しているかの移動量および仮想視点の現在の移動速度がどれだけであるかを表す画像である。仮想視点の移動量または仮想視点の移動速度を表す画像volを含む視界画像V1は、例えば、ユーザが仮想視点の位置を移動するときに表示部120に表示される。
[Moving image]
FIG. 8 is an explanatory diagram illustrating an example of a view image including an image representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint according to the first embodiment.
The view image V2 illustrated in FIG. 8 includes an image vol representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint.
For example, an image vol representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint is displayed at the center of the view image V2. For example, the image vol indicating the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint is an image indicating the moving amount of the virtual viewpoint moving and the current moving speed of the virtual viewpoint. . The view image V1 including the image vol representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint is displayed on the display unit 120 when the user moves the position of the virtual viewpoint, for example.

仮想視点の移動量または仮想視点の移動速度を表す画像volは、例えば、C環状の形状で表示され、開始点(例えば、0)vol_sから終了点(例えば、最高速度、または最大移動量)vol_eまでのうち、現在値vol_nがどれだけであるかを表す画像である。   The image vol representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint is displayed in, for example, a C-shaped shape, and is shifted from a start point (for example, 0) vol_s to an end point (for example, a maximum speed or a maximum movement amount) vol_e. 12 is an image showing how much the current value vol_n is.

このように、仮想視点の移動量または仮想視点の移動速度を表す画像を視界画像中に表示することで、仮想視点がどれくらいの移動量であるかや、仮想視点の移動速度がどのくらいの移動速度であるかをユーザが把握することができる。また、仮想視点の移動量または仮想視点の移動速度を表す画像をみながら仮想視点を移動させることができるため、ユーザの操作性を向上させることができる。   In this way, by displaying an image representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint in the view image, the moving amount of the virtual viewpoint and the moving speed of the virtual viewpoint can be determined. Can be grasped by the user. In addition, since the virtual viewpoint can be moved while viewing the image indicating the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint, the operability of the user can be improved.

[端末装置10の動作]
図9は、第1の実施形態に係る視界方向変更処理及び仮想視点移動処理の一例を示すフローチャートである。
ステップS200において、端末装置10は、自装置の方向情報を検知する。その後、端末装置10は、ステップS202の処理を実行する。
ステップS202からステップS210において、端末装置10は、方向情報に基づいて仮想空間における仮想視点の位置を特定する。
[Operation of Terminal Device 10]
FIG. 9 is a flowchart illustrating an example of the view direction changing process and the virtual viewpoint moving process according to the first embodiment.
In step S200, the terminal device 10 detects direction information of the own device. After that, the terminal device 10 executes the process of step S202.
In steps S202 to S210, the terminal device 10 specifies the position of the virtual viewpoint in the virtual space based on the direction information.

ステップS202において、端末装置10は、方向情報に基づいてX軸を回転軸とする回転が検知されているか否かを判定する。端末装置10は、X軸を回転軸とする回転が検知されている場合(ステップS202;YES)、ステップS204の処理を実行する。
一方、端末装置10は、X軸を回転軸とする回転が検知されていない場合(ステップS202;NO)、ステップS214の処理を実行する。
In step S202, the terminal device 10 determines whether rotation about the X axis as a rotation axis is detected based on the direction information. When the rotation about the X axis as the rotation axis is detected (Step S202; YES), the terminal device 10 executes the process of Step S204.
On the other hand, when the rotation about the X axis as the rotation axis is not detected (Step S202; NO), the terminal device 10 executes the process of Step S214.

ステップS204において、端末装置10は、X軸を回転軸とする回転の回転量が閾値以上であるか否かを判定する。端末装置10は、X軸を回転軸とする回転の回転量が閾値以上である場合(ステップS204;YES)、ステップS206の処理を実行する。一方、端末装置10は、X軸を回転軸とする回転の回転量が閾値未満である場合(ステップS204;NO)、ステップS214の処理を実行する。   In step S204, the terminal device 10 determines whether the rotation amount of the rotation about the X axis as the rotation axis is equal to or larger than a threshold. When the rotation amount of the rotation about the X axis as the rotation axis is equal to or larger than the threshold (step S204; YES), the terminal device 10 executes the processing of step S206. On the other hand, when the rotation amount of the rotation about the X axis as the rotation axis is less than the threshold value (Step S204; NO), the terminal device 10 executes the process of Step S214.

ステップS206において、端末装置10は、X軸を回転軸とする回転の回転方向が正の方向であるか否かを判定する。端末装置10は、X軸を回転軸とする回転の回転方向が正の方向である場合(ステップS206;YES)、ステップS208の処理を実行する。一方、端末装置10は、X軸を回転軸とする回転の回転方向が正の方向でない場合(ステップS206;NO)、すなわち負の方向である場合、ステップS210の処理を実行する。   In step S206, the terminal device 10 determines whether the rotation direction of the rotation about the X axis as the rotation axis is a positive direction. If the rotation direction of the rotation about the X axis is the positive direction (step S206; YES), the terminal device 10 executes the process of step S208. On the other hand, if the rotation direction of the rotation about the X axis as the rotation axis is not the positive direction (step S206; NO), that is, if the rotation direction is the negative direction, the terminal device 10 executes the process of step S210.

ステップS208において、端末装置10は、正の方向(例えばユーザの視界方向前方)に仮想視点位置を、検知した変化量分移動させる。その後、端末装置10は、ステップS214の処理を実行する。
ステップS210において、端末装置10は、負の方向(例えばユーザの視界方向後方)に仮想視点位置を、検知した変化量分移動させる。その後、端末装置10は、ステップS214の処理を実行する。
In step S208, the terminal device 10 moves the virtual viewpoint position in the positive direction (for example, ahead of the user's view direction) by the detected change amount. After that, the terminal device 10 executes the process of step S214.
In step S210, the terminal device 10 moves the virtual viewpoint position in the negative direction (for example, behind the user's view direction) by the detected change amount. After that, the terminal device 10 executes the process of step S214.

ステップS214において、端末装置10は、方向情報に基づいてZ軸を回転軸とする回転が検知されているか否かを判定する。端末装置10は、Z軸を回転軸とする回転が検知されている場合(ステップS214;YES)、ステップS218の処理を実行する。
一方、端末装置10は、Z軸を回転軸とする回転が検知されていない場合(ステップS214;NO)、ステップS224の処理を実行する。
In step S214, the terminal device 10 determines whether rotation about the Z axis as a rotation axis is detected based on the direction information. When the rotation about the Z axis as the rotation axis is detected (Step S214; YES), the terminal device 10 executes the process of Step S218.
On the other hand, when the rotation about the Z axis as the rotation axis is not detected (Step S214; NO), the terminal device 10 executes the process of Step S224.

ステップS218において、端末装置10は、Z軸を回転軸とする回転の回転方向が正の方向であるか否かを判定する。端末装置10は、Z軸を回転軸とする回転の回転方向が正の方向である場合(ステップS218;YES)、ステップS220の処理を実行する。一方、端末装置10は、Z軸を回転軸とする回転の回転方向が正の方向でない場合(ステップS218;NO)、すなわち負の方向である場合、ステップS222の処理を実行する。   In step S218, the terminal device 10 determines whether the rotation direction of the rotation about the Z axis as the rotation axis is a positive direction. When the rotation direction of the rotation about the Z axis as the rotation axis is the positive direction (Step S218; YES), the terminal device 10 executes the process of Step S220. On the other hand, when the rotation direction of the rotation about the Z axis as the rotation axis is not the positive direction (step S218; NO), that is, when the rotation direction is the negative direction, the terminal device 10 executes the process of step S222.

ステップS220において、端末装置10は、正の方向(例えば左方向)に視界方向を、検知した変化量分移動させる。その後、端末装置10は、ステップS224の処理を実行する。
ステップS222において、端末装置10は、負の方向(例えば右方向)に視界方向を、検知した変化量分移動させる。その後、端末装置10は、ステップS224の処理を実行する。
In step S220, the terminal device 10 moves the view direction in the positive direction (for example, the left direction) by the detected change amount. Thereafter, the terminal device 10 executes the process of step S224.
In step S222, the terminal device 10 moves the view direction in the negative direction (for example, the right direction) by the detected change amount. Thereafter, the terminal device 10 executes the process of step S224.

ステップS224において、端末装置10は、方向情報に基づいてY軸を回転軸とする回転が検知されているか否かを判定する。端末装置10は、Y軸を回転軸とする回転が検知されている場合(ステップS224;YES)、ステップS228の処理を実行する。
一方、端末装置10は、Y軸を回転軸とする回転が検知されていない場合(ステップS224;NO)、ステップS234の処理を実行する。
In step S224, the terminal device 10 determines whether rotation about the Y axis as a rotation axis is detected based on the direction information. When the rotation about the Y axis as the rotation axis is detected (Step S224; YES), the terminal device 10 executes the process of Step S228.
On the other hand, when the rotation about the Y axis as the rotation axis is not detected (Step S224; NO), the terminal device 10 executes the process of Step S234.

ステップS228において、端末装置10は、Y軸を回転軸とする回転の回転方向が正の方向であるか否かを判定する。端末装置10は、Y軸を回転軸とする回転の回転方向が正の方向である場合(ステップS228;YES)、ステップS230の処理を実行する。一方、端末装置10は、Y軸を回転軸とする回転の回転方向が正の方向でない場合(ステップS228;NO)、すなわち負の方向である場合、ステップS232の処理を実行する。   In step S228, the terminal device 10 determines whether the rotation direction of the rotation about the Y axis as the rotation axis is a positive direction. If the rotation direction of the rotation about the Y axis as the rotation axis is the positive direction (Step S228; YES), the terminal device 10 executes the process of Step S230. On the other hand, when the rotation direction of the rotation about the Y axis as the rotation axis is not the positive direction (step S228; NO), that is, when the rotation direction is the negative direction, the terminal device 10 executes the process of step S232.

ステップS230において、端末装置10は、正の方向(例えば上方向)に視界方向を、検知した変化量分移動させる。その後、端末装置10は、ステップS233の処理を実行する。
ステップS232において、端末装置10は、負の方向(例えば下方向)に視界方向を、検知した変化量分移動させる。その後、端末装置10は、ステップS233の処理を実行する。
In step S230, the terminal device 10 moves the view direction in the positive direction (for example, upward) by the detected change amount. After that, the terminal device 10 executes the process of step S233.
In step S232, the terminal device 10 moves the view direction in the negative direction (for example, downward) by the detected change amount. After that, the terminal device 10 executes the process of step S233.

ステップS233において、端末装置10は、ステップS214からステップS232によって定まる視界方向を、仮想視点の移動方向として設定する。その後、端末装置10は、ステップS234の処理を実行する。
ステップS234において、端末装置10は、ステップS202からステップS210で特定した仮想視点の位置、およびステップS214からステップS230で特定した視界方向に基づいて、仮想視点の位置からの視界画像を生成する。その後、端末装置10は、ステップS200の処理を実行する。
In step S233, the terminal device 10 sets the view direction determined in steps S214 to S232 as the movement direction of the virtual viewpoint. Thereafter, the terminal device 10 executes the process of step S234.
In step S234, the terminal device 10 generates a view image from the position of the virtual viewpoint based on the position of the virtual viewpoint specified in steps S202 to S210 and the view direction specified in steps S214 to S230. After that, the terminal device 10 executes the process of step S200.

なお、ステップS204における回転量と閾値との比較判定は、しなくてもよい。この場合、端末装置10は、検知した回転量に応じて仮想視点を移動させたり、検知した回転量に応じて視界方向を変更したりすればよい。   The comparison between the rotation amount and the threshold in step S204 may not be performed. In this case, the terminal device 10 may move the virtual viewpoint according to the detected amount of rotation, or change the direction of the field of view according to the detected amount of rotation.

なお、本実施形態において、仮想視点を移動させている場合には、仮想視点の移動開始時の移動方向を維持してもよい。例えば、ステップS204において、仮想視点が移動している場合、端末装置10は、ステップS233によって定まる視界方向を、仮想視点の位置の移動が停止(例えば、ステップS202:NO)するまで維持してもよい。なお、ここで仮想視点が移動している場合とは、例えば、前回のステップS204において、X軸を回転軸とする回転の回転量が閾値以上であること(ステップS204;YES)であってもよい。ここで、前回のステップとは、ステップS200からステップS234までの各処理を実行するよりも前に実行されたステップS200からステップS234までの各処理のことである。
その後、ステップS204において、X軸を回転軸とする回転の回転量が閾値以上(ステップS204;YES)である間、端末装置10は、ステップS233の処理をスキップ、すなわちステップS233の処理を実行せずにステップS234の処理を実行する。
In the present embodiment, when the virtual viewpoint is moved, the moving direction at the start of the movement of the virtual viewpoint may be maintained. For example, in step S204, when the virtual viewpoint is moving, the terminal device 10 maintains the view direction determined in step S233 until the movement of the position of the virtual viewpoint stops (for example, step S202: NO). Good. Note that the case where the virtual viewpoint is moving here means that, for example, in the previous step S204, the rotation amount of the rotation about the X axis as the rotation axis is equal to or larger than the threshold (step S204; YES). Good. Here, the previous step is each process from step S200 to step S234 executed before executing each process from step S200 to step S234.
After that, in step S204, while the rotation amount of the rotation about the X axis as the rotation axis is equal to or larger than the threshold (step S204; YES), the terminal device 10 skips the processing of step S233, that is, executes the processing of step S233. Instead, the process of step S234 is executed.

このようにすることで、移動を開始した仮想視点は、移動が停止するまでその移動方向が維持されるため、ユーザは仮想視点の移動方向を気にすることなく自由に視界方向を変更することができる。   By doing so, the moving direction of the virtual viewpoint that has started moving is maintained until the movement stops, so that the user can freely change the view direction without worrying about the moving direction of the virtual viewpoint. Can be.

なお、本実施形態において、仮想視点を移動させている場合には、視界方向の変更とともに仮想視点の移動方向を変更してもよい。例えば、仮想視点の移動中であっても、端末装置10は、ステップS233の処理をスキップせず、すなわちステップS233の処理を実行し、ステップS214からステップS232によって視界方向が定まる毎に仮想視点の移動方向を更新してもよい。   In the present embodiment, when the virtual viewpoint is moved, the moving direction of the virtual viewpoint may be changed together with the change of the view direction. For example, even during the movement of the virtual viewpoint, the terminal device 10 does not skip the process of step S233, that is, executes the process of step S233, and changes the virtual viewpoint every time the view direction is determined from step S214 to step S232. The moving direction may be updated.

このようにすることで、ユーザは、仮想視点の移動中であっても、視界方向を変更することで仮想視点の移動方向を所望の方向に変更することができる。   By doing so, the user can change the moving direction of the virtual viewpoint to a desired direction by changing the view direction even while the virtual viewpoint is moving.

なお、上記説明では、仮想視点の位置を移動させる場合について説明したが、仮想視点を移動させる代わりに、視界範囲を変更させてもよい。つまり、仮想視点の位置を変更する代わりに、ズームインまたはズームアウトなどの処理を実行可能にしてもよい。
なお、上記説明では、移動画像をC環状の形状で表示する場合について説明したが、数値で表示してもよいし、矢印などの記号や記号の大きさ、表示させる記号数などによって示してもよいし、文字列によって示してもよいし、振動や音声などによって示してもよい。
なお、上記説明では、方向画像を点で表示する場合について説明したが、十字記号などによって表示させてもよいし、アイコンなどによって表示させてもよいし、範囲を示す画像を表示させてもよい。
In the above description, the case where the position of the virtual viewpoint is moved has been described. However, instead of moving the virtual viewpoint, the field of view may be changed. That is, instead of changing the position of the virtual viewpoint, processing such as zoom-in or zoom-out may be performed.
In the above description, the case where the moving image is displayed in the shape of a C ring is described. However, the moving image may be displayed numerically, or may be indicated by a symbol such as an arrow, the size of the symbol, the number of displayed symbols, or the like. It may be indicated by a character string or by vibration or sound.
In the above description, the case where the directional image is displayed as a point has been described. However, the directional image may be displayed using a cross mark, an icon, or the like, or an image indicating a range may be displayed. .

[第1の実施形態のまとめ]
(1)以上説明してきたように、本実施形態に係る表示制御装置(端末装置10、HMDシステム1など)は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置(端末装置10、HMDシステム1など)であって、自装置の方向に関する自装置方向情報(例えば、ヨー方向の回転(傾き)、ピッチ方向の回転(傾き)など)に基づいて、視界方向を変更する視界変更部112と、自装置の視界方向を軸とした回転に関する自装置回転情報(例えば、ロール方向の回転(傾き)等)などに基づいて、仮想視点を移動する視点変更部113と、を備え、視点変更部113は、視界方向に基づく方向に仮想視点を移動する。
[Summary of First Embodiment]
(1) As described above, the display control device (the terminal device 10, the HMD system 1, and the like) according to the present embodiment converts the view direction from the virtual viewpoint in the virtual space as a stereoscopic image using binocular parallax. Display device (terminal device 10, HMD system 1, etc.) that displays a view image representing the view of the user, and own device direction information (for example, rotation (tilt) in the yaw direction, rotation in the pitch direction) related to the direction of the own device. (Tilt), etc., based on the view change unit 112 that changes the view direction, and own device rotation information (for example, rotation (tilt) in the roll direction) related to rotation of the own device about the view direction. And a viewpoint changing unit 113 that moves the virtual viewpoint. The viewpoint changing unit 113 moves the virtual viewpoint in a direction based on the view direction.

これにより、端末装置10は、方向情報を用いて視界方向を変更したり、自装置回転情報を用いて仮想視点を移動させたりすることができる。また、端末装置10は、視界画像中で任意の位置に仮想視点を移動したり、視界方向を変更したりすることができるため、操作性を向上させることができる。したがって、端末装置10は、HDMの方向情報を用いた操作を多様化することができる。
また、端末装置10は、あらかじめ定められたオブジェクトでなく、視界画像中の任意の位置に仮想視点を移動させることもできるため、仮想空間を実環境に近く感じさせることができる。
Accordingly, the terminal device 10 can change the direction of the field of view using the direction information, or move the virtual viewpoint using the rotation information of the terminal device 10 itself. In addition, since the terminal device 10 can move the virtual viewpoint to an arbitrary position in the view image and change the view direction, the operability can be improved. Therefore, the terminal device 10 can diversify the operation using the HDM direction information.
In addition, the terminal device 10 can move the virtual viewpoint to an arbitrary position in the view image instead of a predetermined object, so that the virtual space can be made to feel closer to the real environment.

(2)また、本実施形態による表示制御装置(端末装置10)において、視点変更部113は、視界方向を軸とした回転と所定閾値とに基づいて、仮想視点を移動する。   (2) In the display control device (terminal device 10) according to the present embodiment, the viewpoint changing unit 113 moves the virtual viewpoint based on the rotation around the viewing direction and the predetermined threshold.

これにより、端末装置10は、ユーザが意図しない動きによって仮想視点が移動されることを防止することができる。ユーザが意図しない動きとは、ユーザが仮想視点を移動させることを目的とした動きでない動き、例えば、呼吸、鼓動などの生体運動に伴う動きなどである。また、端末装置10は、微動などによる仮想視点の移動を抑制することができるため、HDMシステム1を装着した状態での映像酔いを防止することができる。   Thus, the terminal device 10 can prevent the virtual viewpoint from being moved by a movement not intended by the user. The motion not intended by the user is a motion that is not a motion intended to move the virtual viewpoint by the user, for example, a motion accompanying a living body motion such as breathing or pulsation. In addition, since the terminal device 10 can suppress the movement of the virtual viewpoint due to fine movement or the like, it is possible to prevent video sickness when the HDM system 1 is mounted.

(3)また、本実施形態による表示制御装置(端末装置10)において、回転の軸に基づく方向を表す画像(例えば、図7に示す方向画像など)を、視界画像中に生成する方向画像生成部115をさらに備える。   (3) In the display control device (terminal device 10) according to the present embodiment, a direction image generation that generates an image (for example, the direction image illustrated in FIG. 7) representing the direction based on the axis of rotation in the view image. It further includes a unit 115.

これにより、端末装置10は、仮想視点の移動方向がいずれの方向であるかをユーザに把握させることができる。また、仮想視点の移動方向を視界画像中に表示することで、仮想視点がどの方向に移動するのかをユーザが把握することができるため、端末装置10は、ユーザの操作性を向上させることができる。また、ユーザは、仮想視点の移動方向を見ながらヨー方向の傾きやピッチ方向の傾きによって視界方向を調整することもできるため、頭部の動きのみで視界画像に対する多様な操作をすることができる。   Thereby, the terminal device 10 can make the user grasp which direction the moving direction of the virtual viewpoint is. In addition, by displaying the moving direction of the virtual viewpoint in the view image, the user can know in which direction the virtual viewpoint moves, so that the terminal device 10 can improve the operability of the user. it can. In addition, the user can adjust the view direction by tilting in the yaw direction or the pitch direction while viewing the moving direction of the virtual viewpoint, and thus can perform various operations on the view image only by moving the head. .

(4)また、本実施形態による表示制御装置(端末装置10)において、視点変更部113は、視界方向を軸とした回転の変化量に基づいて、仮想視点の位置を移動する。   (4) In the display control device (terminal device 10) according to the present embodiment, the viewpoint changing unit 113 moves the position of the virtual viewpoint based on the amount of change in rotation about the field of view.

これにより、端末装置10は、例えばユーザが大きく動作したときには、ユーザが小さく動作したよりも仮想視点の移動距離を大きくすることができる。また、端末装置10は、例えばユーザが小さく動作したときには、ユーザが大きく動作したよりも仮想視点の移動距離を小さくすることができる。これにより、ユーザは、その動作の大きさに応じて感覚的に仮想視点の移動を操作することができる。また、仮想視点を移動させすぎた場合や、仮想視点の移動が足りない場合等であっても、微調整することができるため、多様な操作をすることができる。   Thus, for example, when the user moves largely, the terminal device 10 can make the moving distance of the virtual viewpoint longer than when the user moves small. Further, for example, when the user operates small, the terminal device 10 can make the moving distance of the virtual viewpoint smaller than when the user largely operates. Thereby, the user can intuitively operate the movement of the virtual viewpoint according to the magnitude of the operation. Further, even when the virtual viewpoint is moved too much, or when the movement of the virtual viewpoint is insufficient, fine adjustment can be performed, so that various operations can be performed.

(5)また、本実施形態による表示制御装置(端末装置10)において、視点変更部113は、視界方向を軸とした回転の変化量に基づいて、前記仮想視点の移動速度を変更する。   (5) Further, in the display control device (terminal device 10) according to the present embodiment, the viewpoint changing unit 113 changes the moving speed of the virtual viewpoint based on the amount of change in rotation about the viewing direction.

これにより、端末装置10は、例えばユーザが大きく動作したときには、ユーザが小さく動作したときよりも仮想視点を速く移動させたりすることができる。また、端末装置10は、例えばユーザが小さく動作したときには、ユーザが大きく動作したよりも仮想視点を遅く移動させたりすることができる。これにより、ユーザの動作に応じて感覚的な操作をすることができる。また、仮想視点の移動が速すぎる場合や、仮想視点の移動が遅すぎる場合であっても、微調整することができるため、多様な操作をすることができる。また、仮想視点の移動距離が大きいときには仮想視点を速く移動させたりすることもできるため、ユーザ操作を多様化させることができる。また、回転の回転量に基づいて仮想視点の移動量を変更する場合に比べて、移動距離の上限なく仮想視点を移動させることができるため、仮想空間内をより自由に移動することができる。   Thus, the terminal device 10 can move the virtual viewpoint faster when, for example, the user moves largely than when the user moves small. In addition, the terminal device 10 can, for example, move the virtual viewpoint later when the user moves smaller than when the user moves larger. Thereby, an intuitive operation can be performed according to the user's operation. Further, even if the movement of the virtual viewpoint is too fast or the movement of the virtual viewpoint is too slow, fine adjustment can be performed, so that various operations can be performed. In addition, when the moving distance of the virtual viewpoint is large, the virtual viewpoint can be moved quickly, so that the user operation can be diversified. Further, since the virtual viewpoint can be moved without an upper limit of the moving distance as compared with a case where the moving amount of the virtual viewpoint is changed based on the rotation amount of the rotation, the virtual viewpoint can be moved more freely in the virtual space.

(6)また、本実施形態による表示制御装置(端末装置10)において、仮想視点の移動量を表す画像または/および仮想視点の移動速度を表す画像を、視界画像中に生成する移動画像生成部をさらに備える。   (6) In the display control device (terminal device 10) according to the present embodiment, a moving image generation unit that generates an image representing the moving amount of the virtual viewpoint and / or an image representing the moving speed of the virtual viewpoint in the view image. Is further provided.

これにより、端末装置10は、仮想視点の移動量または仮想視点の移動速度を表す画像を視界画像中に表示することで、仮想視点がどれくらいの移動量であるかや、仮想視点の移動速度がどのくらいの移動速度であるかをユーザに把握させることができる。また、ユーザが仮想視点の移動量または仮想視点の移動速度を表す画像をみながら仮想視点を移動させることができるため、ユーザの操作性を向上させることができる。   Accordingly, the terminal device 10 displays an image representing the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint in the view image, so that the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint is reduced. It is possible to make the user know how fast the moving speed is. In addition, since the user can move the virtual viewpoint while viewing the image indicating the moving amount of the virtual viewpoint or the moving speed of the virtual viewpoint, the operability of the user can be improved.

(7)また、本実施形態による表示制御装置(端末装置10)において、視点変更部113は、視界方向を軸とした回転が正の回転であるか負の回転であるかに応じて、仮想視点の移動方向を変更する。   (7) In the display control device (terminal device 10) according to the present embodiment, the viewpoint changing unit 113 determines whether the rotation around the viewing direction is a positive rotation or a negative rotation. Change the moving direction of the viewpoint.

これにより、端末装置10は、ユーザが意図する方向の回転に応じて仮想視点を移動させることができる。また、端末装置10は、ユーザの動作に応じた方向に仮想視点を移動させるため、ユーザによる感覚的な操作が可能となる。また、ある方向に仮想視点を動かしすぎた場合等であっても逆方向に仮想視点を移動させることもできるため、仮想視点を移動させる場合の操作性を向上させることができる。   Thereby, the terminal device 10 can move the virtual viewpoint according to the rotation in the direction intended by the user. In addition, since the terminal device 10 moves the virtual viewpoint in a direction according to the user's operation, the user can perform a sensible operation. Further, even if the virtual viewpoint is moved too much in a certain direction, the virtual viewpoint can be moved in the opposite direction, so that the operability when moving the virtual viewpoint can be improved.

(8)また、本実施形態による表示制御装置(端末装置10)において、視点変更部113は、仮想視点を移動させている場合、仮想視点の移動開始時の移動方向を維持する。   (8) In the display control device (terminal device 10) according to the present embodiment, when the virtual viewpoint is being moved, the viewpoint changing unit 113 maintains the moving direction at the start of the movement of the virtual viewpoint.

これにより、移動を開始した仮想視点は、移動が停止するまでその移動方向が維持されるため、ユーザは仮想視点の移動方向を気にすることなく自由に視界方向を変更することができる。また、端末装置10は、仮想視点の移動方向を維持することができるため、仮想視点を移動させる際のユーザの操作性を向上させることができる。   Thus, the moving direction of the virtual viewpoint that has started moving is maintained until the movement stops, so that the user can freely change the view direction without worrying about the moving direction of the virtual viewpoint. In addition, since the terminal device 10 can maintain the moving direction of the virtual viewpoint, the operability of the user when moving the virtual viewpoint can be improved.

(9)また、本実施形態における表示制御装置(端末装置10)において、視点変更部113は、仮想視点を移動させている場合、視界方向の変更とともに仮想視点の移動方向の変更をする。   (9) In the display control device (terminal device 10) according to the present embodiment, when the virtual viewpoint is moved, the viewpoint changing unit 113 changes the moving direction of the virtual viewpoint together with the change of the view direction.

これにより、ユーザは仮想視点の移動中であっても、視界方向を変更することで仮想視点の移動方向を所望の方向に変更することができる。
また、端末装置10は、仮想視点の移動方向とともに視界方向を自由に変更することができるため、ユーザの操作性を向上させることができる。
Thus, the user can change the moving direction of the virtual viewpoint to a desired direction by changing the view direction even while the virtual viewpoint is moving.
In addition, since the terminal device 10 can freely change the direction of the visual field together with the moving direction of the virtual viewpoint, the operability of the user can be improved.

[変形例]
なお、端末装置10は、視界方向変更モードと視点移動モードとの2つのモード(設定)を有してもよい。例えば、視界方向変更モードは、視界画像の視界方向を変更可能なモードとし、視点移動モードは、仮想視点の位置を変更可能なモードとすればよい。この場合、例えば、各モードの切り替えは、ユーザが所定の操作を行うことで可能である。また、各モードでは、いずれもセンサ情報に基づいて視界画像を変化させる処理が行われればよい。ただし、各モードでは、センサ情報、すなわち動きや傾きが同じであっても、視界画像の変化は異なる。
視界方向変更モードと視界方向変更モードとの切り替え可能に構成する場合、端末装置10は、例えば、以下のように構成されればよい。
[Modification]
Note that the terminal device 10 may have two modes (settings): a view direction change mode and a viewpoint movement mode. For example, the view direction change mode may be a mode in which the view direction of the view image can be changed, and the viewpoint moving mode may be a mode in which the position of the virtual viewpoint can be changed. In this case, for example, each mode can be switched by the user performing a predetermined operation. Further, in each mode, processing for changing the view image based on the sensor information may be performed. However, in each mode, even if the sensor information, that is, the movement and the inclination are the same, the change of the view image is different.
When configured to be switchable between the view direction change mode and the view direction change mode, the terminal device 10 may be configured as follows, for example.

表示制御部117は、視界画像の表示において、視界方向変更モードを提供するための視界方向変更処理と、視点移動モードを提供するための視点移動処理とを実行する。視界方向変更処理と視点移動処理とのいずれを実行するかは、例えば、モードを示すフラグ情報の設定値を参照することで特定されてよい。このフラグ情報は、記憶部150に記憶されていてよい。   The display control unit 117 executes a view direction change process for providing a view direction change mode and a viewpoint moving process for providing a view point movement mode in displaying the view image. Which of the view direction changing process and the viewpoint moving process is to be executed may be specified by referring to a setting value of flag information indicating a mode, for example. This flag information may be stored in the storage unit 150.

視界方向変更処理では、表示制御部117は、視界変更部112による視界方向の変更に応じて、表示部120に表示させる視界画像を変更する。
例えば、表示制御部117は、実空間で端末装置10の傾きがピッチ方向において変化した場合には、仮想空間における視界画像をピッチ方向において変化させる。同様に、表示制御部117は、実空間で端末装置10の傾きがヨー方向において変化した場合には仮想空間における視界画像をヨー方向において変化させる。他方、表示制御部117は、実空間において端末装置10の傾きがロール方向において変化した場合であっても、仮想空間における仮想視点の位置は変化させない。つまり、表示制御部117は、視界方向変更御処理では、仮想空間における仮想視点の位置の移動を制限する。ここで、ロール方向において端末装置10の傾きが変化した場合の視界画像は、ロール方向の傾きに応じて視界画像も回転した視界画像となる。具体的には、ロール方向において5度右に傾きが変化した場合、表示部120に表示される視界画像も右に5度回転したものとなる。
なお、視界画像は、ロール方向において傾きが変化した場合であっても、ロール方向の傾きに応じて回転しなくてもよい。
In the view direction changing process, the display control unit 117 changes the view image displayed on the display unit 120 according to the change in the view direction by the view change unit 112.
For example, when the inclination of the terminal device 10 changes in the pitch direction in the real space, the display control unit 117 changes the view image in the virtual space in the pitch direction. Similarly, when the inclination of the terminal device 10 changes in the yaw direction in the real space, the display control unit 117 changes the view image in the virtual space in the yaw direction. On the other hand, the display control unit 117 does not change the position of the virtual viewpoint in the virtual space even when the inclination of the terminal device 10 changes in the roll direction in the real space. That is, in the view direction change control processing, the display control unit 117 restricts the movement of the position of the virtual viewpoint in the virtual space. Here, the view image when the tilt of the terminal device 10 changes in the roll direction is a view image in which the view image is also rotated according to the tilt in the roll direction. Specifically, when the inclination changes rightward by 5 degrees in the roll direction, the view image displayed on the display unit 120 is also rotated rightward by 5 degrees.
It should be noted that the field of view image does not have to be rotated according to the inclination in the roll direction even when the inclination changes in the roll direction.

視点移動モードでは、表示制御部117は、視点変更部113による仮想視点の移動に応じて、表示部120に表示させる視界画像を変更する。
例えば、表示制御部117は、実空間で端末装置10の傾きがロール方向において変化した場合には、ロール方向の傾きの変化に応じて移動した仮想空間における仮想視点の位置からの視界画像に変化させる。他方、表示制御部117は、実空間において端末装置10の傾きがヨー方向に変化したり、ピッチ方向に変化したりした場合であっても、仮想空間における視界方向は変更しない。つまり、表示制御部117は、視点移動処理では、仮想空間における視界方向の変更を制限する。このとき、視界画像は、ロール方向の傾きに応じて回転させてもよいし、回転させなくてもよい。
In the viewpoint movement mode, the display control unit 117 changes the view image displayed on the display unit 120 in accordance with the movement of the virtual viewpoint by the viewpoint changing unit 113.
For example, when the tilt of the terminal device 10 changes in the roll direction in the real space, the display control unit 117 changes the view image from the position of the virtual viewpoint in the virtual space that has moved according to the change in the tilt in the roll direction. Let it. On the other hand, the display control unit 117 does not change the view direction in the virtual space even when the tilt of the terminal device 10 changes in the yaw direction or the pitch direction in the real space. That is, in the viewpoint moving process, the display control unit 117 restricts a change in the direction of the visual field in the virtual space. At this time, the view image may or may not be rotated according to the inclination in the roll direction.

図10は、第1の実施形態の変形例に係る視界変更処理の一例を示すフローチャートである。
ステップS100において、端末装置10は、自装置の方向情報を検知する。その後、端末装置10は、ステップS102の処理を実行する。
ステップS102において、端末装置10は、方向情報に基づいて仮想空間における視界方向を特定する。また、端末装置10は、方向情報に基づいて仮想空間における仮想視点の位置を特定する。その後、端末装置10は、ステップS104の処理を実行する。
ステップS104において、端末装置10は、ステップS102で特定した仮想視点の位置および視界方向に基づいて仮想視点からの視界画像を生成する。その後、端末装置10は、ステップS106の処理を実行する。
FIG. 10 is a flowchart illustrating an example of a view change process according to a modified example of the first embodiment.
In step S100, the terminal device 10 detects the direction information of the own device. After that, the terminal device 10 executes the process of step S102.
In step S102, the terminal device 10 specifies the view direction in the virtual space based on the direction information. In addition, the terminal device 10 specifies the position of the virtual viewpoint in the virtual space based on the direction information. Thereafter, the terminal device 10 executes the process of step S104.
In step S104, the terminal device 10 generates a view image from the virtual viewpoint based on the position and the view direction of the virtual viewpoint specified in step S102. After that, the terminal device 10 executes the process of step S106.

ステップS106において、端末装置10は、視点移動モードに遷移させるか否かを判定する。例えば、表示制御部117は、モード切り替えに関するユーザ操作を受け付けたか否かに応じて視点移動モードに遷移させるか否かを判定する。そして、端末装置10は、ユーザ操作を受け付けた場合(ステップS106;YES)、端末装置10は、図10に示す視界方向変更処理を終了し、図11に示す視点移動モードに遷移させる。つまり、端末装置10は、視界方向変更モードを解除して、視点移動処理を開始する。また、端末装置10は、ユーザ操作を受け付けいない場合(ステップS106;NO)、端末装置10は、ステップS100の処理を繰り返す。つまり、端末装置10は、視界方向変更モードを解除せず、視界方向変更処理を続行する。   In step S106, the terminal device 10 determines whether to shift to the viewpoint movement mode. For example, the display control unit 117 determines whether to shift to the viewpoint movement mode according to whether or not a user operation related to mode switching has been received. Then, when the terminal device 10 receives the user operation (Step S106; YES), the terminal device 10 ends the view direction changing process illustrated in FIG. 10 and shifts to the viewpoint movement mode illustrated in FIG. That is, the terminal device 10 cancels the view direction change mode and starts the viewpoint moving process. If the terminal device 10 has not received a user operation (step S106; NO), the terminal device 10 repeats the process of step S100. That is, the terminal device 10 continues the view direction changing process without releasing the view direction change mode.

なお、ステップS106の処理において、端末装置10は、例えば、自装置を振動させる操作を加速度センサで検出したり、ユーザの発声による指示操作をマイクで検出すること等に応じて、視界方向変更モードを解除したり、視点移動モードに遷移させたりしてよい。   In the process of step S106, the terminal device 10 changes the view direction change mode in response to, for example, detecting an operation of vibrating the terminal device with an acceleration sensor, or detecting an instruction operation by a user's voice with a microphone. May be canceled or the mode may be shifted to the viewpoint movement mode.

図11は、第1の実施形態の変形例に係る仮想視点の視点移動処理の一例を示すフローチャートである。
ステップS120において、端末装置10は、自装置の方向情報を検知する。その後、端末装置10は、ステップS122の処理を実行する。
ステップS122において、端末装置10は、方向情報に基づいて仮想空間における視界方向を特定する。また、端末装置10は、方向情報に基づいて仮想空間における仮想視点の位置を特定する。その後、端末装置10は、ステップS124の処理を実行する。
ステップS124において、端末装置10は、ステップS122で特定した仮想視点の位置および視界方向に基づいて仮想視点からの視界画像を生成する。その後、端末装置10は、ステップS126の処理を実行する。
FIG. 11 is a flowchart illustrating an example of a viewpoint moving process of a virtual viewpoint according to a modification of the first embodiment.
In step S120, the terminal device 10 detects the direction information of the own device. After that, the terminal device 10 executes the process of step S122.
In step S122, the terminal device 10 specifies the view direction in the virtual space based on the direction information. In addition, the terminal device 10 specifies the position of the virtual viewpoint in the virtual space based on the direction information. Thereafter, the terminal device 10 executes the process of step S124.
In step S124, the terminal device 10 generates a view image from the virtual viewpoint based on the position and the view direction of the virtual viewpoint specified in step S122. Thereafter, the terminal device 10 executes the process of step S126.

ステップS126において、端末装置10は、視界方向変更モードに遷移させるか否かを判定する。例えば、表示制御部117は、モード切り替えに関するユーザ操作を受け付けたか否かを判定する。そして、端末装置10は、モード切り替えに関するユーザ操作を受け付けた場合(ステップS126;YES)、端末装置10は、図11に示す視点移動処理を終了し、図10に示す視界方向変更モードに遷移させる。つまり、端末装置10は、視点移動モードを解除して、視界方向変更処理を開始する。また、端末装置10は、モード切り替えに関するユーザ操作を受け付けていない場合(ステップS126;NO)、端末装置10は、ステップS100の処理を繰り返す。つまり、端末装置10は、視点移動モードを解除せず、視点移動処理を続行する。   In step S126, the terminal device 10 determines whether to shift to the view direction change mode. For example, the display control unit 117 determines whether a user operation related to mode switching has been received. Then, when the terminal device 10 receives the user operation related to the mode switching (Step S126; YES), the terminal device 10 ends the viewpoint moving process illustrated in FIG. 11 and shifts to the view direction change mode illustrated in FIG. . That is, the terminal device 10 cancels the viewpoint movement mode and starts the view direction changing process. If the terminal device 10 has not received a user operation related to mode switching (step S126; NO), the terminal device 10 repeats the process of step S100. That is, the terminal device 10 continues the viewpoint moving process without releasing the viewpoint moving mode.

なお、ステップS126において、端末装置10は、例えば、自装置を振動させる操作を加速度センサで検出したり、ユーザの発声による指示操作をマイクで検出すること等に応じて、視点移動モードを解除したり、視界方向変更モードに遷移させたりしてよい。   In step S126, the terminal device 10 releases the viewpoint movement mode in response to, for example, detecting an operation of vibrating the terminal device using an acceleration sensor, or detecting an instruction operation by a user's voice using a microphone. Alternatively, the mode may be changed to the view direction change mode.

なお、視界方向変更モードへの遷移は、視点移動モードにおける仮想視点の移動させるための方向情報の入力、例えば、ロール方向の回転(傾き)が検知されなくなってから所定時間が経過したり、ロール方向の回転(傾き)が所定閾値以下となったり、ユーザ操作によるモード操作を検知したりした場合や、それらの組み合わせ等によって視界方向変更モードへの遷移や視点移動モードの解除を行ってもよい。   Note that the transition to the view direction change mode is performed by inputting direction information for moving the virtual viewpoint in the viewpoint movement mode, for example, when a predetermined time has elapsed since rotation (tilt) in the roll direction is no longer detected, or The transition to the view direction change mode or the release of the viewpoint movement mode may be performed when the rotation (inclination) of the direction is equal to or less than a predetermined threshold value, or when a mode operation by a user operation is detected, or a combination thereof. .

なお、本実施形態において、視点移動モードにて仮想視点を移動させている場合や、視点移動処理の各処理を実行しているときには、視界方向変更モードへの遷移や、視界方向変更モードの各処理を制限してもよい。   In the present embodiment, when the virtual viewpoint is moved in the viewpoint moving mode, or when each process of the viewpoint moving process is executed, the transition to the view direction changing mode, The processing may be restricted.

以上、この発明の実施形態や変形例について図面を参照して詳述してきたが、具体的な構成は上述の実施形態や変形例に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1の実施形態において説明した各構成は、任意の変形例等と組み合わせることができる。   As described above, the embodiments and the modified examples of the present invention have been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiments and the modified examples, and a range not departing from the gist of the present invention. Design etc. are also included. For example, each configuration described in the above-described first embodiment can be combined with any modification or the like.

また、上述の制御部110の一部または全部の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより制御部110としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、ユーザ端末で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後にユーザ端末で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, a program for realizing a part or all of the functions of the control unit 110 may be recorded on a computer-readable recording medium, and the program recorded on the recording medium may be read and executed by a computer system. May be performed by the control unit 110. Here, "to make the computer system read and execute the program recorded in the recording medium" includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, a WAN, a LAN, and a dedicated line. The “computer-readable recording medium” refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, and a CD-ROM, and a storage device such as a hard disk built in a computer system. Thus, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium accessible from the distribution server for distributing the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format executable by the user terminal. That is, any format can be stored in the distribution server as long as it can be downloaded from the distribution server and installed in a form executable by the terminal device. The program may be divided into a plurality of programs, downloaded at different timings, and then combined at the user terminal, or a distribution server that distributes each of the divided programs may be different. Further, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) in a computer system serving as a server or a client when the program is transmitted via a network. Shall be included. Further, the program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

[付記]
以上の記載から本発明は例えば以下のように把握される。なお、本発明の理解を容易にするために添付図面の参照符号を便宜的に括弧書きにて付記するが、それにより本発明が図示の態様に限定されるものではない。
[Appendix]
From the above description, the present invention can be grasped, for example, as follows. In order to facilitate understanding of the present invention, reference numerals in the accompanying drawings are added in parentheses for convenience, but the present invention is not limited to the illustrated embodiment.

(付記1)本発明の一態様に係る表示制御装置(端末装置10)は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置であって、自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更部(視界変更部112、S220、S222、S230、S232)と、自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記仮想視点を移動する視点変更部(視点変更部113、S208、S210)と、を備え、前記視点変更部(視点変更部113)は、前記視界方向に基づく方向に前記仮想視点を移動する。   (Supplementary Note 1) The display control device (terminal device 10) according to one embodiment of the present invention displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. A display control device, a view change unit (view change unit 112, S220, S222, S230, S232) for changing the view direction based on own device direction information related to the own device; and the view of the own device. A viewpoint changing unit (viewpoint changing unit 113, S208, S210) for moving the virtual viewpoint based on own device rotation information about rotation about a direction, wherein the viewpoint changing unit (viewpoint changing unit 113) And moving the virtual viewpoint in a direction based on the view direction.

付記1の構成によれば、表示制御装置は、方向情報を用いて視界方向を変更したり、自装置回転情報を用いて仮想視点を移動させたりすることができるため、操作性を向上させることができる。したがって、表示制御装置は、HDMの方向情報を用いた操作を多様化することができる。   According to the configuration of Supplementary Note 1, the display control device can change the direction of the field of view using the direction information or move the virtual viewpoint using the rotation information of the own device, thereby improving operability. Can be. Therefore, the display control device can diversify the operation using the HDM direction information.

(付記2)また、前記視点変更部(視点変更部113)は、前記視界方向を軸とした回転と所定閾値とに基づいて、前記仮想視点を移動する。   (Supplementary Note 2) Also, the viewpoint changing unit (viewpoint changing unit 113) moves the virtual viewpoint based on a rotation about the viewing direction as an axis and a predetermined threshold.

付記2の構成によれば、表示制御装置は、所定閾値によってユーザが意図しない動きによって仮想視点が移動されることを防止することができる。   According to the configuration of Supplementary Note 2, the display control device can prevent the virtual viewpoint from being moved by an unintended movement of the user by the predetermined threshold.

(付記3)また、本発明の一態様は、付記1または付記2に記載の表示制御装置(端末装置10)であって、前記回転の軸に基づく方向を表す画像を、前記視界画像中に生成する方向画像生成部(方向画像生成部115)をさらに備える。   (Supplementary Note 3) One embodiment of the present invention is the display control device (terminal device 10) according to Supplementary Note 1 or 2, wherein an image representing a direction based on the rotation axis is included in the view image. It further includes a direction image generation unit (direction image generation unit 115) for generating.

付記3の構成によれば、表示制御装置は、仮想視点の移動方向がいずれの方向であるかを提示することができる。   According to the configuration of Supplementary Note 3, the display control device can indicate which direction the moving direction of the virtual viewpoint is.

(付記4)また、本発明の一態様は、付記1から付記3のいずれか一項に記載の表示制御装置(端末装置10)であって、前記視点変更部(視点変更部113)は、前記視界方向を軸とした回転の変化量に基づいて、前記仮想視点の位置を移動する。   (Supplementary Note 4) One embodiment of the present invention is the display control device (the terminal device 10) according to any one of Supplementary Notes 1 to 3, wherein the viewpoint changing unit (the viewpoint changing unit 113) includes: The position of the virtual viewpoint is moved based on the amount of change in rotation about the viewing direction.

付記4の構成によれば、表示制御装置は、視界方向を軸とする回転の変化量に応じて仮想視点を移動させることができる。また、表示制御装置は、ユーザの動作に応じて仮想視点を移動させることができる。   According to the configuration of Supplementary Note 4, the display control device can move the virtual viewpoint in accordance with the amount of change in rotation about the direction of the field of view. In addition, the display control device can move the virtual viewpoint in accordance with the user's operation.

(付記5)また、本発明の一態様は、付記1から付記3のいずれか一項に記載の表示制御装置(端末装置10)であって、前記視点変更部(視点変更部113)は、前記視界方向を軸とした回転の変化量に基づいて、前記仮想視点の移動速度を変更する。   (Supplementary Note 5) One embodiment of the present invention is the display control device (the terminal device 10) according to any one of Supplementary Notes 1 to 3, wherein the viewpoint changing unit (the viewpoint changing unit 113) includes: The moving speed of the virtual viewpoint is changed based on the amount of change in rotation about the viewing direction.

付記5の構成によれば、表示制御装置は、視界方向を軸とする回転の変化量に応じて仮想視点の移動速度を変化させることができる。   According to the configuration of Supplementary Note 5, the display control device can change the moving speed of the virtual viewpoint in accordance with the amount of change in rotation about the field of view.

(付記6)また、本発明の一態様は、付記1から付記5のいずれか一項に記載の表示制御装置(端末装置10)であって、前記仮想視点の移動量を表す画像または/および前記仮想視点の移動速度を表す画像を、前記視界画像中に生成する移動画像生成部(移動画像生成部116)をさらに備える。   (Supplementary Note 6) One embodiment of the present invention is the display control device (terminal device 10) according to any one of Supplementary Notes 1 to 5, wherein an image or / and / or a moving amount of the virtual viewpoint is displayed. The image processing apparatus further includes a moving image generating unit (moving image generating unit 116) that generates an image representing the moving speed of the virtual viewpoint in the view image.

付記6の構成によれば、表示制御装置は、現在の仮想視点の移動量または/および現在の仮想視点の移動速度をユーザに提示することができる。   According to the configuration of Supplementary Note 6, the display control device can present the user with the current moving amount of the virtual viewpoint and / or the moving speed of the current virtual viewpoint.

(付記7)また、本発明の一態様は、付記1から付記6のいずれか一項に記載の表示制御装置(端末装置10)であって、前記視点変更部(視点変更部113)は、前記視界方向を軸とした回転が正の回転であるか負の回転であるかに応じて、前記仮想視点の移動方向を変更する。   (Supplementary Note 7) One embodiment of the present invention is the display control device (terminal device 10) according to any one of Supplementary Notes 1 to 6, wherein the viewpoint change unit (viewpoint change unit 113) includes: The moving direction of the virtual viewpoint is changed according to whether the rotation about the viewing direction is a positive rotation or a negative rotation.

付記7の構成によれば、表示制御装置は、ある方向に仮想視点を動かしすぎた場合等であっても逆方向に仮想視点を移動させることもできるため、仮想視点を移動させる場合の操作性を向上させることができる。   According to the configuration of Supplementary Note 7, since the display control device can move the virtual viewpoint in the opposite direction even if the virtual viewpoint is moved too much in a certain direction, the operability when moving the virtual viewpoint is changed. Can be improved.

(付記8)また、本発明の一態様は、付記1から付記7のいずれか一項に記載の表示制御装置(端末装置10)であって、前記視点変更部(視点変更部113)は、前記仮想視点を移動させている場合、前記仮想視点の移動開始時の移動方向を維持する。   (Supplementary Note 8) One embodiment of the present invention is the display control device (terminal device 10) according to any one of Supplementary Notes 1 to 7, wherein the viewpoint change unit (viewpoint change unit 113) includes: When the virtual viewpoint is moved, the moving direction at the start of the movement of the virtual viewpoint is maintained.

付記8の構成によれば、移動を開始した仮想視点は、移動が停止するまでその移動方向が維持されるため、ユーザは仮想視点の移動方向を気にすることなく自由に視界方向を変更することができる。また、表示制御装置は、仮想視点の移動方向を維持することができるため、仮想視点を移動させる際のユーザの操作性を向上させることができる。   According to the configuration of Supplementary Note 8, since the moving direction of the virtual viewpoint that has started moving is maintained until the movement stops, the user can freely change the view direction without worrying about the moving direction of the virtual viewpoint. be able to. Further, since the display control device can maintain the moving direction of the virtual viewpoint, the operability of the user when moving the virtual viewpoint can be improved.

(付記9)また、本発明の一態様は、付記1から付記7のいずれか一項に記載の表示制御装置(端末装置10)であって、前記視点変更部(視点変更部113)は、前記仮想視点を移動させている場合、前記視界方向の変更とともに前記仮想視点の移動方向を変更する。   (Supplementary Note 9) One embodiment of the present invention is the display control device (terminal device 10) according to any one of Supplementary Notes 1 to 7, wherein the viewpoint change unit (viewpoint change unit 113) includes: When the virtual viewpoint is being moved, the moving direction of the virtual viewpoint is changed together with the change of the view direction.

付記9の構成によれば、ユーザは、仮想視点の移動中であっても、視界方向を変更することで仮想視点の移動方向を所望の方向に変更することができる。
また、表示制御装置は、仮想視点の移動方向とともに視界方向を自由に変更することができるため、ユーザの操作性を向上させることができる。
According to the configuration of Supplementary Note 9, the user can change the moving direction of the virtual viewpoint to a desired direction by changing the viewing direction even while the virtual viewpoint is moving.
Further, the display control device can freely change the direction of the visual field together with the moving direction of the virtual viewpoint, so that the operability of the user can be improved.

(付記10)また、本発明の一態様に係るプログラムは、両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置のコンピュータに、自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更ステップと、自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記視界方向に基づく方向に前記仮想視点を移動する視点変更ステップと、を実行させる。   (Supplementary Note 10) The program according to an aspect of the present invention is a computer program of a display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. Based on own device direction information about the direction of the own device, a view changing step of changing the view direction, based on own device rotation information about rotation of the own device about the view direction, based on the view direction, A viewpoint changing step of moving the virtual viewpoint in a direction based on the virtual viewpoint.

付記10の構成によれば、方向情報を用いて視界方向を変更したり、自装置回転情報を用いて仮想視点を移動させたりすることができるため、操作性を向上させることができる。したがって、HDMの方向情報を用いた操作を多様化することができる。   According to the configuration of Supplementary Note 10, since the direction of the field of view can be changed using the direction information and the virtual viewpoint can be moved using the rotation information of the own apparatus, the operability can be improved. Therefore, the operation using the HDM direction information can be diversified.

10…端末装置、12…表示装置、13…センサ、15…記憶装置、16…通信部、110…制御部、111…検出部、112…視界変更部、113…視点変更部、114…判定部、115…方向画像生成部、116…移動画像生成部、117…表示制御部、120…表示部、130…センサ入力部、150…記憶部   Reference Signs List 10 terminal device, 12 display device, 13 sensor, 15 storage device, 16 communication unit, 110 control unit, 111 detection unit, 112 view change unit, 113 viewpoint change unit, 114 judgment unit 115, a direction image generation unit, 116, a moving image generation unit, 117, a display control unit, 120, a display unit, 130, a sensor input unit, 150, a storage unit

Claims (10)

両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置であって、
自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更部と、
自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記仮想視点を移動する視点変更部と、
を備え、
前記視点変更部は、前記視界方向に基づく方向に前記仮想視点を移動し、前記視界方向を軸とした回転の変化量に基づいて、前記仮想視点の移動速度を変更する、
表示制御装置。
A display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax,
A view change unit that changes the view direction based on the own device direction information regarding the direction of the own device,
A viewpoint changing unit that moves the virtual viewpoint, based on own device rotation information related to rotation of the own device around the view direction;
With
The viewpoint changing unit moves the virtual viewpoint in a direction based on the view direction, and changes a moving speed of the virtual viewpoint based on an amount of change in rotation about the view direction.
Display control device.
前記視点変更部は、前記仮想視点を移動させている場合、前記仮想視点の移動開始時の移動方向を維持する、
請求項1に記載の表示制御装置。
The viewpoint changing unit, when moving the virtual viewpoint, maintains a moving direction at the start of the movement of the virtual viewpoint,
The display control device according to claim 1 .
両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置であって、
自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更部と、
自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記仮想視点を移動する視点変更部と、
を備え、
前記視点変更部は、前記視界方向に基づく方向に前記仮想視点を移動し、前記仮想視点を移動させている場合、前記視界方向の変更とともに前記仮想視点の移動方向を変更する、
表示制御装置。
A display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax,
A view change unit that changes the view direction based on the own device direction information regarding the direction of the own device,
A viewpoint changing unit that moves the virtual viewpoint, based on own device rotation information related to rotation of the own device around the view direction;
With
The viewpoint changing unit moves the virtual viewpoint in a direction based on the view direction, and when moving the virtual viewpoint , changes the movement direction of the virtual viewpoint along with the change in the view direction.
Display control device.
前記視点変更部は、前記視界方向を軸とした回転と所定閾値とに基づいて、前記仮想視点を移動する、
請求項1から請求項3のいずれか一項に記載の表示制御装置。
The viewpoint changing unit moves the virtual viewpoint based on a rotation about the viewing direction and a predetermined threshold.
The display control device according to any one of claims 1 to 3.
前記回転の軸に基づく方向を表す画像を、前記視界画像中に生成する方向画像生成部をさらに備える、
請求項1から請求項のいずれか一項に記載の表示制御装置。
An image representing a direction based on the axis of rotation, further comprising a direction image generating unit that generates in the view image,
The display control device according to any one of claims 1 to 4.
前記視点変更部は、前記視界方向を軸とした回転の変化量に基づいて、前記仮想視点の位置を移動する、
請求項1から請求項のいずれか一項に記載の表示制御装置。
The viewpoint changing unit moves a position of the virtual viewpoint based on a rotation change amount around the view direction,
The display control device according to any one of claims 1 to 5.
前記仮想視点の移動量を表す画像または/および前記仮想視点の移動速度を表す画像を、前記視界画像中に生成する移動画像生成部をさらに備える、
請求項1から請求項のいずれか一項に記載の表示制御装置。
A moving image generating unit that generates an image representing the moving amount of the virtual viewpoint and / or an image representing the moving speed of the virtual viewpoint in the view image;
The display control device according to any one of claims 1 to 6.
前記視点変更部は、前記視界方向を軸とした回転が正の回転であるか負の回転であるかに応じて、前記仮想視点の移動方向を変更する、
請求項1から請求項のいずれか一項に記載の表示制御装置。
The viewpoint changing unit changes the moving direction of the virtual viewpoint, depending on whether the rotation around the view direction is a positive rotation or a negative rotation.
The display control device according to any one of claims 1 to 7.
両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置のコンピュータに、
自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更ステップと、
自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記視界方向に基づく方向に前記仮想視点を移動する視点変更ステップと、
前記視界方向を軸とした回転の変化量に基づいて、前記仮想視点の移動速度を変更する速度変更ステップと、
を実行させるためのプログラム。
As a stereoscopic image using binocular parallax, a computer of a display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space,
A view change step of changing the view direction based on own apparatus direction information regarding the own apparatus direction,
A viewpoint changing step of moving the virtual viewpoint in a direction based on the view direction, based on the own device rotation information related to rotation of the own device around the view direction;
A speed changing step of changing a moving speed of the virtual viewpoint based on an amount of change in rotation about the view direction;
The program to execute.
両眼視差を利用した立体視画像として、仮想空間内の仮想視点から視界方向の視界を表す視界画像を表示する表示制御装置のコンピュータに、
自装置の方向に関する自装置方向情報に基づいて、前記視界方向を変更する視界変更ステップと、
自装置の前記視界方向を軸とした回転に関する自装置回転情報に基づいて、前記視界方向に基づく方向に前記仮想視点を移動する視点変更ステップと、
前記仮想視点を移動させている場合、前記視界方向の変更とともに前記仮想視点の移動方向を変更する方向変更ステップと、
を実行させるためのプログラム。
As a stereoscopic image using binocular parallax, a computer of a display control device that displays a view image representing a view in a view direction from a virtual viewpoint in a virtual space,
A view change step of changing the view direction based on own apparatus direction information regarding the own apparatus direction,
A viewpoint changing step of moving the virtual viewpoint in a direction based on the view direction, based on the own device rotation information related to rotation of the own device around the view direction;
When moving the virtual viewpoint, a direction changing step of changing the moving direction of the virtual viewpoint with the change of the view direction;
The program to execute.
JP2018042421A 2018-03-08 2018-03-08 Display control device and program Active JP6623362B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018042421A JP6623362B2 (en) 2018-03-08 2018-03-08 Display control device and program
PCT/JP2019/003114 WO2019171834A1 (en) 2018-03-08 2019-01-30 Display control device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018042421A JP6623362B2 (en) 2018-03-08 2018-03-08 Display control device and program

Related Child Applications (2)

Application Number Title Priority Date Filing Date
JP2019157638A Division JP6788294B2 (en) 2019-08-30 2019-08-30 Display control device and program
JP2019157639A Division JP6788295B2 (en) 2019-08-30 2019-08-30 Display control device and program

Publications (2)

Publication Number Publication Date
JP2019174853A JP2019174853A (en) 2019-10-10
JP6623362B2 true JP6623362B2 (en) 2019-12-25

Family

ID=67846614

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018042421A Active JP6623362B2 (en) 2018-03-08 2018-03-08 Display control device and program

Country Status (2)

Country Link
JP (1) JP6623362B2 (en)
WO (1) WO2019171834A1 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20230164305A1 (en) * 2020-03-30 2023-05-25 Sony Group Corporation Information processing device, information processing method, and program

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009116609A (en) * 2007-11-06 2009-05-28 Sony Corp Operating device, information processing device, operating method, and information processing system
JP6110764B2 (en) * 2013-08-30 2017-04-05 Kddi株式会社 Glasses-type display device, display control device, display system, and computer program
JP6339887B2 (en) * 2014-07-24 2018-06-06 シャープ株式会社 Image display device
JP5876607B1 (en) * 2015-06-12 2016-03-02 株式会社コロプラ Floating graphical user interface
JP2017021461A (en) * 2015-07-08 2017-01-26 株式会社ソニー・インタラクティブエンタテインメント Operation input device and operation input method
JP2017162443A (en) * 2016-12-06 2017-09-14 株式会社コロプラ Method and program for controlling head-mounted display system

Also Published As

Publication number Publication date
WO2019171834A1 (en) 2019-09-12
JP2019174853A (en) 2019-10-10

Similar Documents

Publication Publication Date Title
CN112213856B (en) Wearable glasses and method of displaying image via wearable glasses
US20180321798A1 (en) Information processing apparatus and operation reception method
TWI610097B (en) Electronic system, portable display device and guiding device
US10642348B2 (en) Display device and image display method
EP3321776B1 (en) Operation input device and operation input method
JP6002286B1 (en) Head mounted display control method and head mounted display control program
JP7005161B2 (en) Electronic devices and their control methods
JP2015095802A (en) Display control apparatus, display control method and program
JP6201024B1 (en) Method for supporting input to application for providing content using head mounted device, program for causing computer to execute the method, and content display device
TWI671552B (en) Wearable glasses, displaying image method and non-transitory computer-readable storage medium
JP7259045B2 (en) Method, apparatus and computer program for viewing angle rotation
JP2017021824A (en) Head-mounted display control method and head-mounted display control program
JP6623362B2 (en) Display control device and program
JP6788295B2 (en) Display control device and program
JP6788294B2 (en) Display control device and program
JP6582302B2 (en) Display control apparatus and program
KR20190129982A (en) Electronic device and its control method
KR20180055637A (en) Electronic apparatus and method for controlling thereof
JP6442619B2 (en) Information processing device
JP2018147309A (en) Display control device and program
JP2018120331A (en) Program and display device
JP6746835B2 (en) Display control device and program
CN114556187B (en) Head mounted display device and display content control method
JP6332658B1 (en) Display control apparatus and program
JP6275809B1 (en) Display control method and program for causing a computer to execute the display control method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181127

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20181129

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20190116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190205

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190315

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20190604

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190830

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20190830

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20190905

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20190910

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191008

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191018

R150 Certificate of patent or registration of utility model

Ref document number: 6623362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250