JP2018010702A - Terminal device and program - Google Patents

Terminal device and program Download PDF

Info

Publication number
JP2018010702A
JP2018010702A JP2017206581A JP2017206581A JP2018010702A JP 2018010702 A JP2018010702 A JP 2018010702A JP 2017206581 A JP2017206581 A JP 2017206581A JP 2017206581 A JP2017206581 A JP 2017206581A JP 2018010702 A JP2018010702 A JP 2018010702A
Authority
JP
Japan
Prior art keywords
line
selection
selected object
terminal device
virtual space
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017206581A
Other languages
Japanese (ja)
Other versions
JP6312184B2 (en
Inventor
典明 原田
Noriaki Harada
典明 原田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2017206581A priority Critical patent/JP6312184B2/en
Publication of JP2018010702A publication Critical patent/JP2018010702A/en
Application granted granted Critical
Publication of JP6312184B2 publication Critical patent/JP6312184B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Position Input By Displaying (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To improve operation property when performing a selection operation to choices displayed on a HMD.SOLUTION: A terminal device which can be used as a head mount display system detects information related to a direction of a terminal device, arranges a visual line position object corresponding to a visual line direction from a virtual viewpoint in a virtual space, arranges plural selection objects having a determination area, in the virtual space in a prescribed direction, then, according to the detection result, displays at least some of the plural selection objects arranged in the virtual space and the visual line position object on a display part, then, based on a timing in which, a relative position of the visual line position and a determination area of the one selection object included in the plural selection objects, is in a specific state, determines presence/absence of selection of one selection object, and if it is determined that, a view direction is changed, moves the selection object while limiting movement of the plural selection object in an arrangement direction, based on change of the view direction.SELECTED DRAWING: Figure 11

Description

本発明は、端末装置、及びプログラムに関する。   The present invention relates to a terminal device and a program.

ユーザの頭部に装着し、該ユーザの眼前に配置されたディスプレイに仮想空間における画像を表示可能なヘッドマウントディスプレイ(HMD:Head Mounted Display)がある。例えば、HMDを利用したゲームでは、頭部に装着するディスプレイの他、手に持って操作されるコントローラ等のデバイスを併用してゲームをプレイするものがある。しかしながら、ユーザはHMDによって現実空間への視界が覆われており手元を観察できないため、コントローラから一旦指が離れた場合などに誤操作が発生することがあった。そこで、頭部の傾き等の動きを検出して、選択肢の表示/非表示操作などを行うHMDがある(例えば、特許文献1)。   There is a head mounted display (HMD) that can be mounted on a user's head and can display an image in a virtual space on a display arranged in front of the user's eyes. For example, in a game using HMD, there is a game that plays a game using a device such as a controller that is held and operated in addition to a display worn on the head. However, since the user can not observe the hand because the field of view of the real space is covered by the HMD, an erroneous operation may occur when the finger is once removed from the controller. In view of this, there is an HMD that detects a motion such as a tilt of the head and performs a display / non-display operation of options (for example, Patent Document 1).

また、近年、スマートフォンなどの高性能化に伴いスマートフォンなどをHMDとして利用するものがある。例えば、簡易的なアタッチメントを用いてスマートフォンを頭部に装着することで、HMDとして利用することができる。この場合、頭部へ装着されることにより、スマートフォンに備えられているタッチパネル等の入力デバイスが利用できなくなる。そのため、例えばスマートフォンに内蔵されたジャイロなどのセンサを利用して頭部の動きを検出することで、HMDに表示される選択肢に対する操作を実現する必要がある。   In recent years, some smartphones have been used as HMDs with higher performance. For example, it can be used as an HMD by attaching a smartphone to the head using a simple attachment. In this case, an input device such as a touch panel provided in the smartphone cannot be used by being worn on the head. For this reason, for example, it is necessary to realize an operation for an option displayed on the HMD by detecting the movement of the head using a sensor such as a gyro built in the smartphone.

特許第5767386号公報Japanese Patent No. 5767386

HMDに表示される選択肢に対して頭部の動きを用いて操作を行う場合、頭部の方向を特定の範囲内(選択肢の判定領域の範囲内)に向けておき、その状態で所定時間(例えば3秒など)経過した場合に選択が確定されるようにする操作方法がある。しかしながら、このような操作方法では、数多くの選択肢から選択しなければならないような場合、HMDに表示される一つ一つの選択肢の判定領域の範囲が小さなものとなるため、不安定な頭部の動きで操作を行うと、判定領域の範囲から意図せず外れてしまう等の誤入力が発生し、操作性が悪かった。   When performing an operation using the movement of the head for an option displayed on the HMD, the direction of the head is set within a specific range (within the range of the option determination area), and in that state, a predetermined time ( For example, there is an operation method for confirming the selection after elapse of 3 seconds. However, in such an operation method, when the selection must be made from a large number of options, the range of the determination area of each option displayed on the HMD becomes small, so that the unstable head When the operation is performed by movement, an erroneous input such as unintentional deviation from the range of the determination area occurs, and the operability is poor.

本発明のいくつかの態様は、HMDに表示される選択肢に対して選択操作する際の操作性を向上する端末装置、及びプログラムを提供することを目的の一つとする。   It is an object of some aspects of the present invention to provide a terminal device and a program that improve operability when performing a selection operation on options displayed on the HMD.

また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする端末装置、及びプログラムを提供することを目的の一つとする。   Another object of another aspect of the present invention is to provide a terminal device and a program that can achieve the effects described in the embodiments to be described later.

上述した課題を解決するために、本発明の一態様は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、前記端末装置の方向に関する情報を検出する検出部と、ユーザからの選択の有無を判定する判定領域を有する複数の選択オブジェクトを、前記仮想空間内において所定の方向に並べて配置するオブジェクト配置部と、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向に配置されている前記選択オブジェクトを表示部に表示させる表示制御部と、を備え、前記オブジェクト配置部は、前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、当該視界方向の変化に基づいて前記所定の方向への移動を制限しつつ前記選択オブジェクトを移動させる、端末装置である。   In order to solve the above-described problem, one aspect of the present invention provides at least a head-mounted display system capable of displaying a visual field image representing a visual field from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. A terminal device that can be used as a part, and a plurality of selection objects having a detection unit that detects information related to the direction of the terminal device and a determination region that determines whether or not there is a selection from the user, in the virtual space An object placement unit arranged side by side in a predetermined direction, and a display control unit that causes the display unit to display the selected object placed in the view direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit And the object placement unit has a visual field direction from the virtual viewpoint in the virtual space based on a detection result of the detection unit. If it is determined that the phased moves the selected object while limiting the movement to the predetermined direction based on the change of the viewing direction, a terminal device.

また、本発明の一態様は、コンピュータを、上記の端末装置として機能させるためのプログラムである。   One embodiment of the present invention is a program for causing a computer to function as the above terminal device.

第1の実施形態に係るHMDシステムの一例を示す外観図。1 is an external view showing an example of an HMD system according to a first embodiment. 第1の実施形態に係る端末装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware constitutions of the terminal device which concerns on 1st Embodiment. 第1の実施形態に係る仮想空間の方向の定義を示す図。The figure which shows the definition of the direction of the virtual space which concerns on 1st Embodiment. 第1の実施形態に係る視界方向と視線位置との説明図。Explanatory drawing of the visual field direction and gaze position which concern on 1st Embodiment. 選択メニュー画面の一例を示す図。The figure which shows an example of a selection menu screen. 視線位置が選択オブジェクトに重なった選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen in which the eyes | visual_axis position overlapped with the selection object. 判定領域が変化した選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen from which the determination area | region changed. 選択オブジェクトの選択が確定したときの選択メニュー画面例を示す図。The figure which shows the example of a selection menu screen when selection of a selection object is decided. 選択オブジェクトの数が多い場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen in case there are many selection objects. 視線位置が選択オブジェクトに重なった選択メニュー画面例を示す図。The figure which shows the example of a selection menu screen where the eyes | visual_axis position overlapped with the selection object. 第1の実施形態に係る端末装置の機能構成の一例を示すブロック図。The block diagram which shows an example of a function structure of the terminal device which concerns on 1st Embodiment. 第1の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。6 is a flowchart illustrating an example of object placement processing according to the first embodiment. 第1の実施形態に係る選択オブジェクトの判定処理の一例を示すフローチャート。6 is a flowchart illustrating an example of a selection object determination process according to the first embodiment. 視線位置と選択オブジェクトの判定領域とが重なっている選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen with which the eyes | visual_axis position and the determination area | region of the selection object overlap. 視線位置と選択オブジェクトの判定領域とが重ならない状態になった選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen used as the state by which a visual line position and the determination area | region of the selection object did not overlap. 第1の実施形態に係る選択オブジェクトの判定処理の一例を示すフローチャート。6 is a flowchart illustrating an example of a selection object determination process according to the first embodiment. 第2の実施形態に係る選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which concerns on 2nd Embodiment. ユーザの視界方向がピッチ方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when a user's visual field direction changes to a pitch direction. ユーザの視界方向がヨー方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when a user's visual field direction changes to a yaw direction. ユーザの視界方向がロール方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when a user's visual field direction changes to a roll direction. 第2の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。10 is a flowchart illustrating an example of object placement processing according to the second embodiment. 第3の実施形態に係る選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which concerns on 3rd Embodiment. 第3の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。10 is a flowchart illustrating an example of object placement processing according to the third embodiment.

以下、本発明の一実施形態について、図面を参照して説明する。
[第1の実施形態]
本発明の第1の実施形態について説明する。
図1は、本実施形態に係るHMD(Head Mounted Display)システムの一例を示す外観図である。HMDは、ユーザの頭部に装着され、仮想空間内の仮想視点からの視界を表す視界画像を表示可能である。例えば、HMDは、右目と左目との両眼視差を利用した立体視画像を表示可能である。また、HMDは、ジャイロ等のHMDの動きや傾きを検知するセンサを搭載しており、装着されているユーザの頭部の動きや傾きの変化などを検知し、その変化に応じてディスプレイに仮想空間の視界方向の視界画像を表示する。例えば、HMDに映し出される視界画像は、ユーザの頭部が右方向を向けば仮想空間内の右方向の視界画像に変化し、上をむけば仮想空間内の上方向の視界画像に変化し、あたかもその場にいるような没入感をユーザに与えることができる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First embodiment]
A first embodiment of the present invention will be described.
FIG. 1 is an external view showing an example of an HMD (Head Mounted Display) system according to the present embodiment. The HMD is worn on the user's head and can display a view image representing the view from a virtual viewpoint in the virtual space. For example, the HMD can display a stereoscopic image using binocular parallax between the right eye and the left eye. Also, the HMD is equipped with a sensor that detects the movement and tilt of the HMD such as a gyro, detects the movement of the head of the user who is wearing it, changes in the tilt, etc., and displays the virtual on the display according to the change. A view image in the view direction of the space is displayed. For example, the visual field image displayed on the HMD changes to a right visual field image in the virtual space if the user's head is directed to the right, and changes to an upward visual image in the virtual space if the user heads upward. It is possible to give the user an immersive feeling as if they were there.

図示するHMDシステム1は、表示部12を備えた端末装置10をアタッチメント2に取り付けることで、端末装置10をHMDとして利用可能な構成である。アタッチメント2は、ユーザの頭部に装着された状態でユーザの正面の視界を覆うように端末装置10が取り付け可能であり、取り付けられた端末装置10の表示部12を視認するための右目用レンズ3R及び左目用レンズ3Lと、HMDシステム1をユーザの頭部に装着するためのストラップ5とを備えている。ユーザは、HMDシステム1を頭部に装着することで、端末装置10に表示される視界画像を、右目用レンズ3R及び左目用レンズ3Lを介して視認できる。   The illustrated HMD system 1 is configured such that the terminal device 10 can be used as an HMD by attaching the terminal device 10 including the display unit 12 to the attachment 2. The attachment 2 can be attached to the terminal device 10 so as to cover the field of view of the front of the user while attached to the user's head, and the right-eye lens for visually recognizing the display unit 12 of the attached terminal device 10 3R and the left-eye lens 3L, and a strap 5 for mounting the HMD system 1 on the user's head. The user can visually recognize the visual field image displayed on the terminal device 10 via the right-eye lens 3R and the left-eye lens 3L by wearing the HMD system 1 on the head.

〔端末装置10のハードウェア構成〕
端末装置10は、HMDシステム1の少なくとも一部として利用可能な携帯型のコンピュータ装置であり、スマートフォンやフィーチャーフォン等の携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、タブレットPC、家庭用ゲーム機、等が適用できる。本実施形態では、端末装置10はスマートフォンであるとして説明する。
[Hardware Configuration of Terminal Device 10]
The terminal device 10 is a portable computer device that can be used as at least a part of the HMD system 1, and is a mobile phone such as a smartphone or a feature phone, a personal digital assistant (PDA), a tablet PC, or a home game. Machine, etc. can be applied. In the present embodiment, the terminal device 10 will be described as a smartphone.

図2は、端末装置10のハードウェア構成の一例を示す図である。端末装置10は、例えば、表示部12と、センサ13と、タイマ14と、記憶部15と、通信部16と、CPU(Central Processing Unit)17と、を備えている。   FIG. 2 is a diagram illustrating an example of a hardware configuration of the terminal device 10. The terminal device 10 includes, for example, a display unit 12, a sensor 13, a timer 14, a storage unit 15, a communication unit 16, and a CPU (Central Processing Unit) 17.

表示部12は、画像やテキスト等の情報を表示するディスプレイであり、例えば、液晶ディスプレイパネル、有機EL(ElectroLuminescence)ディスプレイパネルなどを含んで構成される。例えば、表示部12は、仮想空間内の仮想視点からの視界画像として、両眼視差を利用した立体視画像(右目用画像及び左目用画像)を表示する。また、表示部12は、仮想空間内に配置された各種オブジェクトを視界画像とともに表示する。各種オブジェクトとは、例えば、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)、仮想視点からの視線方向に対応する視線位置を視認可能とするためのオブジェクト等のユーザーインターフェース(UI)用として表示するためのオブジェクトである。   The display unit 12 is a display that displays information such as images and texts, and includes, for example, a liquid crystal display panel, an organic EL (ElectroLuminescence) display panel, and the like. For example, the display unit 12 displays a stereoscopic image (a right-eye image and a left-eye image) using binocular parallax as a view image from a virtual viewpoint in the virtual space. In addition, the display unit 12 displays various objects arranged in the virtual space together with the view field image. The various objects include, for example, a user interface such as a selection object (option) having a determination area for determining the presence / absence of selection by the user, and an object for enabling the visual line position corresponding to the visual line direction from the virtual viewpoint to be visible. This is an object to be displayed for UI).

センサ13は、端末装置10の方向に関する情報を検知するセンサである。例えば、センサ13は、物体の角度、角速度、角加速度等を検知するジャイロセンサである。なお、センサ13は、方向の変化を検知するセンサであってもよいし、方向そのものを検知するセンサであってもよい。例えば、センサ13は、ジャイロセンサに限られるものではなく、加速度センサ、傾斜センサ、地磁気センサ等であってもよい。   The sensor 13 is a sensor that detects information related to the direction of the terminal device 10. For example, the sensor 13 is a gyro sensor that detects an angle, an angular velocity, an angular acceleration, and the like of an object. The sensor 13 may be a sensor that detects a change in direction, or a sensor that detects the direction itself. For example, the sensor 13 is not limited to a gyro sensor, and may be an acceleration sensor, a tilt sensor, a geomagnetic sensor, or the like.

タイマ14は、時間を計測する計時機能を有する。   The timer 14 has a time measuring function for measuring time.

記憶部15は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、仮想空間データ(画像データ)や、仮想空間内に配置されるオブジェクトのデータ、仮想空間を用いたゲームのプログラム等を記憶する。   The storage unit 15 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmable Read-Only Memory), and a ROM (Read-Only Memory). Virtual space data (image data), data of objects arranged in the virtual space, game programs using the virtual space, and the like are stored.

通信部16は、ネットワークNWを介して、他の装置と通信を行う。   The communication unit 16 communicates with other devices via the network NW.

CPU17は、端末装置10が備える各部を制御する制御中枢として機能する。例えば、CPU17は、記憶部15に記憶された各種プログラムを実行することで、端末装置10の各部を制御する制御部として機能する。   The CPU 17 functions as a control center that controls each unit included in the terminal device 10. For example, the CPU 17 functions as a control unit that controls each unit of the terminal device 10 by executing various programs stored in the storage unit 15.

上述した各構成は、バス(Bus)を介して相互に通信可能に接続されている。また、端末装置10は、不図示のスピーカ、音声出力端子、カメラ、GPS(Global Positioning System)受信モジュール、ユーザの操作入力を受け付ける操作ボタンまたはタッチパネルなどのハードウェア構成を含んで構成されてもよい。   The above-described components are connected to each other via a bus so that they can communicate with each other. Further, the terminal device 10 may be configured to include a hardware configuration such as a speaker (not shown), an audio output terminal, a camera, a GPS (Global Positioning System) receiving module, an operation button that accepts a user operation input, or a touch panel. .

例えば、端末装置10は、HMDを利用したゲームのプログラムを実行する。このゲームは、ユーザがHMDシステム1を装着した状態で、表示部12に表示される視界画像(ゲーム画面)の視野範囲を頭部の向きなどを変えて変更しながらプレイするものである。端末装置10は、センサ13の検知結果に基づいて端末装置10の方向に関する情報を検出し、検出結果に基づいて視界方向の視界画像(ゲーム画面)を表示部12に表示させる。また、端末装置10は、ユーザによる選択操作の入力を受け付ける場合、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)を仮想空間内に配置し、視界画像とともに表示部12に表示させる。   For example, the terminal device 10 executes a game program using the HMD. This game is played with the user wearing the HMD system 1 while changing the visual field range of the field-of-view image (game screen) displayed on the display unit 12 by changing the direction of the head or the like. The terminal device 10 detects information related to the direction of the terminal device 10 based on the detection result of the sensor 13, and causes the display unit 12 to display a visual field image (game screen) in the visual field direction based on the detection result. In addition, when receiving an input of a selection operation by the user, the terminal device 10 arranges a selection object (option) having a determination region for determining whether or not there is a selection from the user in the virtual space, and displays it on the display unit 12 together with the view image. Display.

〔仮想空間における定義〕
図3は、本実施形態に係る仮想空間の方向の定義を示す図である。本実施形態では、ユーザが直立する方向である垂直方向をZ軸とし、Z軸に直交する軸であってユーザと表示部12とを結ぶ方向をX軸とし、Z軸及びX軸と直交する軸をY軸とする。
[Definition in virtual space]
FIG. 3 is a diagram showing the definition of the direction of the virtual space according to the present embodiment. In the present embodiment, the vertical direction in which the user stands upright is the Z axis, the direction orthogonal to the Z axis and connecting the user and the display unit 12 is the X axis, and is orthogonal to the Z axis and the X axis. The axis is the Y axis.

ここで、Z軸を軸とした回転方向への変化をヨー方向(左右方向)への変化ともいい、Y軸を軸とした回転方向への変化をピッチ方向(上下方向)への変化ともいい、X軸を軸とした回転方向への変化をロール方向への変化ともいう。例えば、上述したセンサ13は、各軸の回転方向(ヨー方向、ピッチ方向、およびロール方向)の角速度または角加速度を検知する。なお、ヨー方向への変化を左右方向への変化、ピッチ方向への変化を上下方向への変化、ともいうことがある。   Here, a change in the rotation direction around the Z axis is also referred to as a change in the yaw direction (left and right direction), and a change in the rotation direction around the Y axis is also referred to as a change in the pitch direction (vertical direction). A change in the rotation direction about the X axis is also referred to as a change in the roll direction. For example, the sensor 13 described above detects an angular velocity or an angular acceleration in the rotation direction (yaw direction, pitch direction, and roll direction) of each axis. Note that a change in the yaw direction may be referred to as a change in the left-right direction, and a change in the pitch direction may be referred to as a change in the vertical direction.

図4は、本実施形態に係る視界方向と視線位置との説明図である。この図において、仮想空間内の仮想視点K(ユーザの仮想視点)をX軸、Y軸、及びZ軸の交点(原点)とし、ユーザの視線方向をX軸方向とすると、仮想視点からの視界方向の視界画像の範囲(即ち、視界)は、視線方向(X軸方向)を中心としたヨー角α(破線aと破線bとの内角、及び破線cと破線dとの内角)とピッチ角β(破線aと破線dとの内角、及び破線bと破線cとの内角)とで定まる範囲である。ここで、ヨー角α及びピッチ角βは、HMDシステム1に表示させる仮想空間の視界画像の画角として予め設定された角度である。ユーザの頭部がピッチ方向またはヨー方向に変化すると、その変化に応じて視線方向がX軸方向からピッチ方向またはヨー方向に変化し、視界方向もピッチ方向またはヨー方向に変化する。また、ユーザの頭部がロール方向に変化すると、視線方向はX軸方向のまま、視界方向がロール方向に回転する。   FIG. 4 is an explanatory diagram of the viewing direction and the line-of-sight position according to the present embodiment. In this figure, when the virtual viewpoint K (user's virtual viewpoint) in the virtual space is the intersection (origin) of the X-axis, Y-axis, and Z-axis, and the user's line-of-sight direction is the X-axis direction, the view from the virtual viewpoint The range of the visual field image in the direction (that is, the visual field) is the yaw angle α (the internal angle between the broken line a and the broken line b and the internal angle between the broken line c and the broken line d) and the pitch angle around the visual line direction (X-axis direction). This is a range determined by β (inner angle between the broken line a and the broken line d and inner angle between the broken line b and the broken line c). Here, the yaw angle α and the pitch angle β are angles set in advance as the angle of view of the visual field image of the virtual space displayed on the HMD system 1. When the user's head changes in the pitch direction or the yaw direction, the line-of-sight direction changes from the X-axis direction to the pitch direction or the yaw direction according to the change, and the visual field direction also changes in the pitch direction or the yaw direction. When the user's head changes in the roll direction, the visual line direction rotates in the roll direction while the line-of-sight direction remains in the X-axis direction.

また、仮想空間内には、各種のオブジェクトが必要に応じて配置される。例えば、仮想空間内の視線方向に直交する同一面(同一レイヤ)に各種のオブジェクトが配置される。例えば、図示するように仮想空間内においてオブジェクトが配置される面を面L1とすると、視線位置を視認可能とするためのオブジェクトである視線位置P1が、この面L1において視界方向の範囲を示す破線a、b、c、dとの交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の中央(即ち、面L1とX軸の交点)に配置される。なお、視線位置P1が配置される位置は、面L1において、交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の中央に限らず、他の位置(例えば、中央より若干下の位置など)に配置されてもよい。また、仮想空間内の面L1に、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)が配置される。判定領域は、面(2次元形状)であってもよいし、立体(3次元形状)であってもよい。例えば、この面L1と破線a、b、c、dとの交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)に配置される選択オブジェクト(選択肢)と、視線位置P1とが視界画像とともに表示部12に表示されることになる。   In the virtual space, various objects are arranged as necessary. For example, various objects are arranged on the same plane (same layer) orthogonal to the line-of-sight direction in the virtual space. For example, when the surface on which the object is arranged in the virtual space is a surface L1 as illustrated, the line-of-sight position P1 that is an object for making the line-of-sight position visible is a broken line indicating the range of the visual field direction on the surface L1. It is arranged at the center (ie, the intersection of the plane L1 and the X axis) of the range (field of view) surrounded by a quadrangle having the intersections a1, b1, c1, d1 as the vertices with a, b, c, d. Note that the position at which the line-of-sight position P1 is arranged is not limited to the center of the range (field of view) surrounded by a rectangle having the intersections a1, b1, c1, and d1 as vertices on the plane L1, but other positions (for example, from the center It may be arranged at a slightly lower position or the like. In addition, a selection object (option) having a determination area for determining the presence / absence of selection from the user is arranged on the surface L1 in the virtual space. The determination area may be a surface (two-dimensional shape) or a solid (three-dimensional shape). For example, a selection object (option) arranged in a range (view) surrounded by a rectangle having vertexes of intersections a1, b1, c1, and d1 of the surface L1 and broken lines a, b, c, and d, and a line-of-sight position P1 Is displayed on the display unit 12 together with the view field image.

ユーザの頭部がピッチ方向またはヨー方向に変化すると、その変化に応じて視界方向及び視線方向がピッチ方向またはヨー方向に変化するため、視線位置P1は、視線方向に対応する位置(視界画像の中央)に表示されるように移動する。また、ユーザの頭部がロール方向に変化した場合、視線位置P1は、配置されている位置のままロール方向の変化に応じて回転する。一方、選択オブジェクトは、視界方向がピッチ方向、ヨー方向、またはロール方向に変化しても配置されている位置から移動しない。つまり、視界方向が変化した場合、変化した視界の中に配置されている選択オブジェクトが表示される。   When the user's head changes in the pitch direction or the yaw direction, the visual field direction and the visual line direction change in the pitch direction or the yaw direction according to the change, so the visual line position P1 is a position corresponding to the visual line direction (of the visual field image). Move so that it appears in the center. Further, when the user's head changes in the roll direction, the line-of-sight position P1 rotates according to the change in the roll direction with the position being arranged. On the other hand, the selected object does not move from the position where the selected object is arranged even if the visual field direction changes in the pitch direction, the yaw direction, or the roll direction. That is, when the view direction changes, the selected object arranged in the changed view is displayed.

なお、両眼視差を利用した立体視画像を表示する場合、右目用と左目用のそれぞれの仮想視点に対応する視界方向及び視線方向があり、それぞれの視界方向及び視線方向の視界画像と各種オブジェクトとが含まれる右目用画像と左目用画像が表示されるが、本実施形態では、説明を容易にするために右目用と左目用とを区別せずに説明する。   When displaying stereoscopic images using binocular parallax, there are field-of-view directions and line-of-sight directions corresponding to virtual viewpoints for the right eye and left-eye, respectively, and field-of-view images and various objects in the respective field-of-view directions and line-of-sight directions. The right-eye image and the left-eye image are displayed. In the present embodiment, the right-eye image and the left-eye image will be described without distinction in order to facilitate the description.

〔選択オブジェクトの表示例と操作例〕
次に、選択オブジェクトの表示例と操作例について説明する。以下において、複数の選択オブジェクトが選択可能に表示部12に表示される画面を「選択メニュー画面」ともいうこととする。選択メニュー画面は、仮想空間における視界方向の視界画像を背景画像として、同じく仮想空間に配置されている選択オブジェクトと、視線方向に対応する視線位置P1とが表示される画面である。
[Display example and operation example of selected object]
Next, a display example and an operation example of the selected object will be described. Hereinafter, a screen displayed on the display unit 12 so that a plurality of selected objects can be selected is also referred to as a “selection menu screen”. The selection menu screen is a screen on which a selection object arranged in the virtual space and a line-of-sight position P1 corresponding to the line-of-sight direction are displayed using a field-of-view image in the virtual space as a background image.

図5は、選択メニュー画面の一例を示す図である。図示する選択メニュー画面G10には、仮想空間内の視線方向に対応する視線位置に配置されているオブジェクトである視線位置P1が画面の中央に表示されている。また、仮想空間内に配置されているそれぞれ4つの選択オブジェクトがZ軸方向に並ぶ2つの列が左右に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、及び選択肢Gの4つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、及び選択肢Hの4つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。ここでは、選択オブジェクトの表示領域が、選択の有無を判定する判定領域であるものとする。なお、選択オブジェクトの表示領域と、選択の有無を判定する判定領域とは、異なる領域であってもよい。視線位置P1がいずれの選択オブジェクトの判定領域とも視線方向において重ならない位置関係にあるため、いずれの選択オブジェクト(選択肢)も選択されていない状態である。   FIG. 5 is a diagram illustrating an example of the selection menu screen. In the illustrated selection menu screen G10, a line-of-sight position P1, which is an object arranged at a line-of-sight position corresponding to the line-of-sight direction in the virtual space, is displayed at the center of the screen. In addition, two columns in which each of the four selected objects arranged in the virtual space are arranged in the Z-axis direction are displayed side by side with a predetermined interval. In the left column, four selection objects of option A, option C, option E, and option G are displayed side by side with a predetermined interval in the Z-axis direction. In the right column, four selection objects of option B, option D, option F, and option H are displayed side by side with a predetermined interval in the Z-axis direction. Here, it is assumed that the display area of the selected object is a determination area for determining the presence / absence of selection. Note that the display area of the selected object and the determination area for determining the presence / absence of selection may be different areas. Since the line-of-sight position P1 is in a positional relationship that does not overlap with the determination area of any selected object in the line-of-sight direction, no selected object (option) is selected.

図5に示す選択メニュー画面G10が表示されている状態で、ユーザの頭部の向きが変化すると、選択オブジェクトと視線位置P1との相対位置が変化する。視線位置P1は、頭部の向きの変化に応じて視線位置を保つように追従し移動するため、画面の中央に固定されて表示される。一方、選択オブジェクトは、頭部の向きの変化に応じて視界方向が変化するため、その視界方向の変化に応じて画面上では移動する。   If the orientation of the user's head changes while the selection menu screen G10 shown in FIG. 5 is displayed, the relative position between the selected object and the line-of-sight position P1 changes. The line-of-sight position P1 follows and moves so as to maintain the line-of-sight position in accordance with the change in the orientation of the head, so that it is fixed and displayed at the center of the screen. On the other hand, since the view direction changes according to the change in the orientation of the head, the selected object moves on the screen according to the change in the view direction.

図6は、視線位置P1が選択オブジェクトに重なった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G11では、視線位置P1と選択肢Cとが、視線方向において重なる位置関係となっている。視線位置P1が選択オブジェクトの判定領域に重なると、その選択オブジェクト(ここでは、選択肢C)の判定領域が変化する。   FIG. 6 is a diagram illustrating an example of a selection menu screen in which the line-of-sight position P1 overlaps the selected object. In the illustrated selection menu screen G11, the line-of-sight position P1 and the option C have a positional relationship in which they overlap in the line-of-sight direction. When the line-of-sight position P1 overlaps the determination area of the selected object, the determination area of the selected object (here, option C) changes.

図7は、判定領域が変化した選択メニュー画面の一例を示す図である。図示する選択メニュー画面G12において、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の判定領域が拡大されている。これにより、選択しようとしている選択オブジェクトの判定領域内に視線位置P1を維持しやすくなり、誤って判定領域外に視線位置P1を移動させてしまう誤操作を防止しやすくなる。   FIG. 7 is a diagram illustrating an example of a selection menu screen in which the determination area is changed. In the illustrated selection menu screen G12, the determination area of the selected object (here, option C) where the line-of-sight position P1 overlaps the determination area is enlarged. This makes it easy to maintain the line-of-sight position P1 within the determination area of the selected object to be selected, and to easily prevent an erroneous operation that erroneously moves the line-of-sight position P1 outside the determination area.

なお、選択オブジェクトの判定領域の拡大は、仮想空間内に配置する判定領域を拡大する方法でもよいし、判定領域の大きさはそのままで配置する位置をユーザ(仮想視点K)に近づけることで選択オブジェクトより相対的に拡大されて表示されるようにしてもよい。また、ここでは、選択肢Cの判定領域と同様に表示領域も拡大されているが、選択肢Cの判定領域のみ拡大し、表示領域は拡大されなくてもよい。   The determination area of the selected object may be enlarged by a method of enlarging the determination area arranged in the virtual space, or selected by moving the position of the determination area as it is to the user (virtual viewpoint K). You may make it display relatively enlarged rather than an object. In addition, here, the display area is enlarged as well as the determination area for option C, but only the determination area for option C is enlarged, and the display area may not be enlarged.

また、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の表示色が変更されてもよい。例えば、視線位置P1が判定領域に重なっていない選択オブジェクトの表示色が青であり、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の表示色が青から赤に変更してもよい。これにより、選択されていることがより視認しやすくなる。このように、選択オブジェクトの判定領域を拡大する場合、選択オブジェクトの表示態様を変更してもよい。   In addition, the display color of the selected object (here, option C) in which the line-of-sight position P1 overlaps the determination region may be changed. For example, the display color of the selected object whose line-of-sight position P1 does not overlap the determination area is blue, and the display color of the selection object (here, option C) where the line-of-sight position P1 overlaps the determination area is changed from blue to red. May be. This makes it easier to visually recognize that the item is selected. As described above, when the determination area of the selected object is enlarged, the display mode of the selected object may be changed.

また、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の近傍に、視線位置P1が判定領域に重なってからの経過時間を視認可能とするためのオブジェクトである経過時間ゲージT1が配置されて表示される。例えば、経過時間ゲージT1は、円形状のゲージであり、視線位置P1が判定領域に重なってから時間の経過と共に円状にバーが増加していき、所定時間以上経過するとこの円状に増加するバーが一周分に伸びる。ここで、上記の所定時間とは、選択オブジェクトの選択の有無を決定するための閾値として予め設定された判定時間であり、視線位置P1が判定領域に重なってからの経過時間が所定時間以上となった場合に、その判定領域の選択オブジェクトが選択されたとして決定される。一方、視線位置P1が判定領域に重なってからの経過時間が所定時間未満の場合には、その判定領域の選択オブジェクトはまだ選択されていないと判定される。例えば、この円状に増加するバーが一周分になる前に、視線位置P1が判定領域から外れた場合、その判定領域の選択オブジェクトは選択されていないものと判定され、計測時間(経過時間)がリセットされる。   In addition, an elapsed time that is an object for making it possible to visually recognize an elapsed time since the line-of-sight position P1 overlaps the determination area in the vicinity of the selected object (here, option C) where the line-of-sight position P1 overlaps the determination area. A gauge T1 is arranged and displayed. For example, the elapsed time gauge T1 is a circular gauge, and the bars increase in a circular shape with the passage of time after the line-of-sight position P1 overlaps the determination region, and increase in a circular shape when a predetermined time or more elapses. The bar extends for one lap. Here, the predetermined time is a determination time set in advance as a threshold for determining whether or not the selected object is selected, and the elapsed time after the line-of-sight position P1 overlaps the determination region is equal to or longer than the predetermined time. In such a case, it is determined that the selected object in the determination area is selected. On the other hand, if the elapsed time since the line-of-sight position P1 overlaps the determination area is less than the predetermined time, it is determined that the selected object in the determination area has not yet been selected. For example, when the line-of-sight position P1 deviates from the determination area before the circularly increasing bar reaches one round, it is determined that the selected object in the determination area is not selected, and the measurement time (elapsed time) Is reset.

一方、経過時間ゲージT1の円状に増加するバーが一周分になると、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の選択が確定する。
図8は、選択オブジェクトの選択が確定したときの選択メニュー画面の一例を示す図である。図示する選択メニュー画面G13において、経過時間ゲージT1の円状に増加するバーが一周分に伸び、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)が選択されたことが確定される。このとき、仮想空間内に配置されている他の選択オブジェクトは、消去されたり、透過率を上げて目立たないように表示されたりする。これにより、選択された選択オブジェクトが相対的に強調された表示となる。
On the other hand, when the bar of the elapsed time gauge T1 increases in a circle, the selection of the selected object (here, the option C) where the line-of-sight position P1 overlaps the determination region is confirmed.
FIG. 8 is a diagram illustrating an example of a selection menu screen when selection of a selected object is confirmed. In the selection menu screen G13 shown in the figure, a selection object (here, option C) in which the circularly increasing bar of the elapsed time gauge T1 extends for one round and the line-of-sight position P1 overlaps the determination region is selected. Confirmed. At this time, other selected objects arranged in the virtual space are erased or displayed inconspicuously by increasing the transmittance. As a result, the selected selected object is displayed in a relatively emphasized manner.

なお、上述した選択オブジェクトの判定領域の拡大は、他の選択オブジェクトの判定領域と視線方向において重ならない範囲での拡大となる。また、選択オブジェクトの判定領域の拡大は、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔空く範囲での拡大とであってもよい。そのため、選択オブジェクトの数が増えると、選択オブジェクトの判定領域を拡大しにくくなる。よって、端末装置10は、選択オブジェクトの判定領域を拡大する場合、他に配置されている選択オブジェクトの位置を変更してもよい。   Note that the above-described enlargement of the determination area of the selected object is an enlargement in a range that does not overlap with the determination areas of other selection objects in the line-of-sight direction. Further, the enlargement of the determination area of the selected object may be an enlargement within a predetermined interval in the direction orthogonal to the line-of-sight direction from the determination area of another selected object. Therefore, when the number of selected objects increases, it becomes difficult to enlarge the determination area of the selected object. Therefore, when expanding the determination area of the selected object, the terminal device 10 may change the position of the other selected object.

図9は、選択オブジェクトの数が多い場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G14においては、仮想空間内に配置されているそれぞれ5つの選択オブジェクトがZ軸方向に並ぶ2つの列が左右に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。また、仮想空間内に配置されている視線位置P1が画面の中央に表示されている。視線位置P1は、いずれの選択オブジェクトの判定領域とも視線方向において重ならない位置関係にある。   FIG. 9 is a diagram illustrating an example of a selection menu screen when the number of selected objects is large. In the selection menu screen G14 shown in the figure, two columns in which each of five selected objects arranged in the virtual space are arranged in the Z-axis direction are displayed side by side with a predetermined interval. In the left column, five selection objects of option A, option C, option E, option G, and option I are displayed side by side with a predetermined interval in the Z-axis direction. In the right column, five selection objects of option B, option D, option F, option H, and option J are displayed side by side with a predetermined interval in the Z-axis direction. In addition, the line-of-sight position P1 arranged in the virtual space is displayed at the center of the screen. The line-of-sight position P1 has a positional relationship that does not overlap with the determination area of any selected object in the line-of-sight direction.

図10は、図9に示す選択メニュー画面において、視線位置P1が選択オブジェクトに重なった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G15において、視線位置P1と選択肢Eとが、視線方向において重なる位置関係となっている。視線位置P1が選択オブジェクトの判定領域に重なると、その選択オブジェクト(ここでは、選択肢E)の判定領域が拡大するが、Z軸方向に隣接する選択オブジェクトとの配置間隔が狭い。そのため、選択オブジェクト(ここでは、選択肢E)の判定領域が拡大する場合に、その拡大する領域を確保するように、選択肢Eの上側の選択オブジェクト(ここでは、選択肢A、C)と下側の選択オブジェクト(ここでは、選択肢G、I)とのそれぞれが選択肢Eから離れる方向に移動する。   FIG. 10 is a diagram illustrating an example of the selection menu screen in which the line-of-sight position P1 overlaps the selected object on the selection menu screen illustrated in FIG. In the illustrated selection menu screen G15, the line-of-sight position P1 and the option E overlap with each other in the line-of-sight direction. When the line-of-sight position P1 overlaps the determination area of the selected object, the determination area of the selected object (here, option E) is enlarged, but the arrangement interval between the selection objects adjacent in the Z-axis direction is narrow. Therefore, when the determination area of the selected object (here, option E) is enlarged, the selection object above the option E (here, options A and C) and the lower side are secured so as to secure the area to be enlarged. Each of the selected objects (here, options G and I) moves in a direction away from option E.

なお、拡大された選択オブジェクトの表示領域には、他の情報が表示されてもよい。例えば、選択オブジェクトが購入アイテムの選択オブジェクトであった場合、通常は選択オブジェクトにアイテム名が表示されるが、選択した場合にはアイテム名に加え、購入価格等が表示されても良い。   Other information may be displayed in the enlarged display area of the selected object. For example, when the selection object is a selection object of a purchase item, the item name is normally displayed on the selection object, but when the selection object is selected, a purchase price or the like may be displayed in addition to the item name.

〔端末装置10の機能構成〕
次に、図11を参照して、端末装置10の機能構成について説明する。図11は、本実施形態に係る端末装置10の機能構成の一例を示すブロック図である。端末装置10は、記憶部15に記憶されているプログラムをCPU17が実行することにより実現される機能構成として、制御部110を備えている。制御部110は、検出部111と、判定部112と、オブジェクト配置部113と、表示制御部114と、を備えている。
[Functional Configuration of Terminal Device 10]
Next, the functional configuration of the terminal device 10 will be described with reference to FIG. FIG. 11 is a block diagram illustrating an example of a functional configuration of the terminal device 10 according to the present embodiment. The terminal device 10 includes a control unit 110 as a functional configuration realized by the CPU 17 executing a program stored in the storage unit 15. The control unit 110 includes a detection unit 111, a determination unit 112, an object placement unit 113, and a display control unit 114.

検出部111は、センサ13の検知結果に基づいて、端末装置10の方向に関する情報を検出する。例えば、検出部111は、センサ13が検知する方向、または方向の変化に関する情報に基づいて、端末装置10が取り付けられたHMDシステム1を装着したユーザの視界方向または視界方向の変化を、端末装置10が向いている方向によって検出する。なお、検出部111は、視界方向の変化速度に関する情報を検出してもよい。   The detection unit 111 detects information related to the direction of the terminal device 10 based on the detection result of the sensor 13. For example, the detection unit 111 detects the direction of view of the user wearing the HMD system 1 to which the terminal device 10 is attached or the change in the view direction based on the direction detected by the sensor 13 or information on the direction change. Detect by the direction in which 10 is facing. Note that the detection unit 111 may detect information related to the change speed of the visual field direction.

判定部112は、ユーザの視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの選択の有無を判定する。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってからの経過時間を計時するとともに、計時した経過時間に基づいて選択の有無を判定する。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから所定時間以上経過した場合に、その選択オブジェクトが判定された(選択有)と判定する。一方、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってからの経過時間が所定時間未満の場合に、その選択オブジェクトはまだ選択されていない(選択無)と判定する。   The determination unit 112 determines whether or not the selected object has been selected based on the positional relationship between the user's line-of-sight position P1 and the determination area of the selected object. For example, the determination unit 112 measures the elapsed time after the position relationship where the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction overlaps, and selects based on the measured elapsed time. Determine presence or absence. For example, the determination unit 112 determines that the selected object has been determined (selected) when a predetermined time or more has elapsed since the line-of-sight position P1 and the determination region of the selected object have overlapped. On the other hand, when the elapsed time after the line-of-sight position P1 and the determination area of the selected object overlap is less than a predetermined time, the determination unit 112 determines that the selected object has not yet been selected (not selected). judge.

オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、仮想空間内に配置する。また、オブジェクト配置部113は、仮想視点からの視線方向を検出部111の検出結果に基づいて定め、視線方向に対応する視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)を、仮想空間内に配置する。また、オブジェクト配置部113は、経過時間を視認可能とするためのオブジェクト(例えば、経過時間ゲージT1)を仮想空間内に配置する。例えば、オブジェクト配置部113は、上記の各種オブジェクトを仮想空間内において同一面(同一レイヤ)に配置してもよいし、複数の面(複数のレイヤ)に分けて配置してもよい。なお、オブジェクト配置部113は、経過時間等の時間情報を、タイマ14を用いて計時して取得する。   The object placement unit 113 places a selected object having a determination area for determining whether or not there is a selection from the user in the virtual space. Further, the object placement unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111, and an object (for example, the line-of-sight position P1) for enabling visual recognition of the line-of-sight position corresponding to the line-of-sight direction. Place in the virtual space. In addition, the object arrangement unit 113 arranges an object (for example, an elapsed time gauge T1) for enabling the elapsed time to be visually recognized in the virtual space. For example, the object placement unit 113 may place the above-described various objects on the same surface (same layer) in the virtual space, or may be placed on a plurality of surfaces (a plurality of layers). The object placement unit 113 acquires time information such as elapsed time by using the timer 14.

表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる。また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている各種オブジェクト(選択オブジェクト、視線位置、経過時間ゲージ等)を、表示部12に表示させる。なお、仮想空間内の各方向の視界画像のデータは、仮想空間データとして記憶部15に記憶されている。表示制御部114は、視界方向に対応する視界画像を仮想空間データから取得して視界画像として表示部12に表示させる。   The display control unit 114 causes the display unit 12 to display a visual field image in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Further, the display control unit 114 displays various objects (selected objects, line-of-sight positions, elapsed time gauges, etc.) arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. 12 is displayed. Note that the data of the view image in each direction in the virtual space is stored in the storage unit 15 as virtual space data. The display control unit 114 acquires a view image corresponding to the view direction from the virtual space data and causes the display unit 12 to display the view image as a view image.

〔オブジェクト配置処理の詳細〕
次に、本実施形態に係るオブジェクト配置処理について詳しく説明する。
オブジェクト配置部113は、仮想空間における仮想視点からの視線方向に対応する視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの判定領域を変更する。例えば、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になった場合、選択オブジェクトの判定領域を広くする。ここで、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域に視線方向において重ならない範囲で広くする。
[Details of object placement processing]
Next, the object arrangement processing according to the present embodiment will be described in detail.
The object placement unit 113 changes the determination area of the selected object based on the positional relationship between the line-of-sight position P1 corresponding to the line-of-sight direction from the virtual viewpoint in the virtual space and the determination area of the selected object. For example, the object placement unit 113 widens the determination area of the selected object when the line-of-sight position P1 and the determination area of the selection object overlap with each other from the position relation that does not overlap in the line-of-sight direction. Here, when the determination area of the selected object is widened, the object placement unit 113 widens the determination area so as not to overlap the determination area of another selected object in the line-of-sight direction.

なお、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔が空く範囲で広くする。また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他に配置されている選択オブジェクトの位置を変更してもよい。また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、選択オブジェクトの表示態様を変更してもよい。また、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってから所定の時間経過した後に、選択オブジェクトの判定領域または該判定領域に対応する表示領域を広くしてもよい。   Note that, when the selection area of the selected object is widened, the object placement unit 113 widens the selection object in a range where a predetermined interval is provided in a direction orthogonal to the determination area of the other selection objects. Further, the object placement unit 113 may change the position of the other selected object when the selection object determination area is widened. Moreover, the object arrangement | positioning part 113 may change the display mode of a selection object, when enlarging the determination area | region of a selection object. In addition, the object placement unit 113 may select the determination area of the selected object or the determination area after a predetermined time has elapsed since the position relationship where the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction has changed. The display area corresponding to may be widened.

次に、図12を参照して、本実施形態に係るオブジェクト配置処理の動作を説明する。図12は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。なお、表示部12には、視界方向の視界画像と視線位置P1とが表示されているものとする。まず、選択メニュー表示のトリガを受け付けると、制御部110は、複数の選択オブジェクトを仮想空間内に配置する(ステップS100)。これにより、表示部12には、視界画像と複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図5参照)が表示される。ここで、選択メニュー表示のトリガとは、ゲームが開始されたこと、ゲームが開始されて所定時間経過したこと、ゲーム内で特定の行為が行われたこと、等のように、ゲームにおいてユーザの意思確認が必要な場面で設定されたものである。   Next, with reference to FIG. 12, the operation of the object placement processing according to the present embodiment will be described. FIG. 12 is a flowchart illustrating an example of the object placement process according to the present embodiment. It is assumed that a visual field image in the visual field direction and a visual line position P1 are displayed on the display unit 12. First, upon receiving a selection menu display trigger, control unit 110 places a plurality of selected objects in the virtual space (step S100). Accordingly, a selection menu screen (for example, see FIG. 5) including the view field image and the plurality of selection objects is displayed on the display unit 12. Here, the trigger of the selection menu display is that the game is started, the game is started, a predetermined time has elapsed, a specific action is performed in the game, etc. It is set in situations where confirmation is required.

制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS102)。視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっている(例えば、図6参照)と判定された場合(YES)、制御部110は、選択オブジェクトの判定領域を拡大に設定する(例えば、図7参照)、即ち、判定領域を広くする(ステップS104)。なお、このとき制御部110は、視線位置P1が判定領域に重なっている選択オブジェクト(例えば、選択肢C)の近傍に、経過時間ゲージT1を配置する。   The control unit 110 determines whether or not the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (step S102). When it is determined that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (for example, see FIG. 6) (YES), the control unit 110 sets the determination area of the selected object to be enlarged (for example, , See FIG. 7), that is, the determination region is widened (step S104). At this time, the control unit 110 arranges the elapsed time gauge T1 in the vicinity of the selected object (for example, the option C) where the line-of-sight position P1 overlaps the determination region.

一方、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていない(例えば、図5参照)と判定された場合(NO)、制御部110は、選択オブジェクトの判定領域を初期値に設定する、即ち、判定領域を変更しない(ステップS106)。   On the other hand, when it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction (for example, see FIG. 5) (NO), the control unit 110 sets the determination area of the selected object to an initial value. That is, the determination area is not changed (step S106).

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS108)。ここで、選択メニューの表示オフのトリガとは、いずれかの選択オブジェクトが選択された場合、選択オブジェクトを表示させてから所定時間が経過した場合、選択メニューの表示をオフさせる選択肢が選択された場合、等である。選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS110)、オブジェクト配置処理を終了する。   Next, the control unit 110 determines whether or not a selection menu display-off trigger has been received (step S108). Here, the trigger for turning off the display of the selection menu means that when any selected object is selected, an option for turning off the display of the selection menu is selected when a predetermined time has elapsed since the selected object was displayed. If, etc. If it is determined that the trigger for turning off the display of the selection menu has been received (YES), the control unit 110 deletes the selected object arranged in the virtual space (step S110) and ends the object arrangement processing.

一方、選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS112)。そして、制御部110は、検出した角速度に基づいて、視界方向の変化があるか否かを判定する(ステップS114)。視界方向の変化がないと判定された場合(NO)、視線位置P1と選択オブジェクトの判定領域との相対位置に変化がないため、制御部110は、ステップS108の処理に戻し、選択メニューの表示オフのトリガを受け付けたか否かを判定する。一方、視界方向の変化があると判定された場合(YES)、視線位置P1と選択オブジェクトの判定領域との相対位置に変化が生じるため、制御部110は、ステップS102の処理に戻し、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する。継続して重なっている場合には選択オブジェクトの判定領域を拡大に設定したままとし、重なっていない状態から重なっている状態になった場合には選択オブジェクトの判定領域を初期値から拡大に変更し、重なっている状態から重なっていない状態になった場合には選択オブジェクトの判定領域を拡大から初期値に変更する。   On the other hand, when it is determined that the trigger for turning off the display of the selection menu is not received (NO), the control unit 110 detects the angular velocity based on the detection result of the sensor 13 (step S112). And the control part 110 determines whether there exists any change of a visual field direction based on the detected angular velocity (step S114). If it is determined that there is no change in the viewing direction (NO), since the relative position between the line-of-sight position P1 and the determination area of the selected object does not change, the control unit 110 returns to the process of step S108 and displays the selection menu. It is determined whether an off trigger is accepted. On the other hand, when it is determined that there is a change in the viewing direction (YES), a change occurs in the relative position between the line-of-sight position P1 and the determination area of the selected object. Therefore, the control unit 110 returns to the process of step S102, and the line-of-sight position It is determined whether P1 and the determination area of the selected object overlap in the line-of-sight direction. If it continues to overlap, leave the selected object's judgment area set to enlargement, and if it overlaps from the non-overlapping state, change the selection object's judgment area from the initial value to enlargement. When the overlapping state does not overlap, the determination area of the selected object is changed from enlarged to the initial value.

〔選択有無の判定処理の動作〕
次に、図13を参照して、本実施形態に係るオブジェクト配置処理において配置した選択オブジェクトの選択有無を判定する判定処理の動作を説明する。図13は、本実施形態に係る選択オブジェクトの選択有無を判定する判定処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、複数の選択オブジェクトを仮想空間内に配置することにより、表示部12に選択メニュー画面(例えば、図5参照)が表示される(ステップS200)。また、制御部110は、計測時間をリセットする(ステップS202)。
[Operation of selection judgment processing]
Next, with reference to FIG. 13, the operation of the determination process for determining whether or not the selected object arranged in the object arrangement process according to this embodiment is selected will be described. FIG. 13 is a flowchart illustrating an example of a determination process for determining whether or not a selected object is selected according to the present embodiment. First, upon receiving a selection menu display trigger, the control unit 110 displays a selection menu screen (for example, see FIG. 5) on the display unit 12 by arranging a plurality of selection objects in the virtual space (step 5). S200). Moreover, the control part 110 resets measurement time (step S202).

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS204)。視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていない(例えば、図5参照)と判定された場合(NO)、制御部110は、ステップS202に処理を戻す。一方、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっている(例えば、図6参照)と判定された場合(YES)、制御部110は、経過時間の計時を開始するとともに、計時した経過時間に応じたバーが表示される経過時間ゲージT1を、仮想空間内において、その重なったと判定された選択オブジェクトの近傍に配置する(ステップS206)。これにより、その選択オブジェクトの近傍に経過時間ゲージT1が表示される(例えば、図7参照)。   Next, the control unit 110 determines whether or not the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (step S204). When it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction (for example, see FIG. 5) (NO), the control unit 110 returns the process to step S202. On the other hand, when it is determined that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (for example, see FIG. 6) (YES), the control unit 110 starts measuring elapsed time and measures time The elapsed time gauge T1 on which a bar corresponding to the elapsed time is displayed is placed in the vicinity of the selected object determined to overlap in the virtual space (step S206). Thereby, the elapsed time gauge T1 is displayed in the vicinity of the selected object (see, for example, FIG. 7).

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが重なってからの所定時間以上経過したか否かを判定する(ステップS208)。所定時間以上経過していないと判定された場合(NO)、制御部110は、ステップS204の処理に戻し、重なってからの経過時間の計測を続ける。一方、視線位置P1と選択オブジェクトの判定領域とが重なってから所定時間以上経過したと判定された場合(YES)、制御部110は、その選択オブジェクトが選択されたと決定し(ステップS210)、判定処理を終了する。   Next, the control unit 110 determines whether or not a predetermined time has elapsed since the line-of-sight position P1 overlaps with the determination area of the selected object (step S208). When it is determined that the predetermined time or more has not elapsed (NO), the control unit 110 returns to the process of step S204 and continues to measure the elapsed time after overlapping. On the other hand, when it is determined that a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object overlap (YES), the control unit 110 determines that the selected object has been selected (step S210), and the determination The process ends.

〔選択有無の判定処理の他の例〕
上述の選択オブジェクトの選択有無を判定する判定処理では、視線位置P1と選択オブジェクトの判定領域とが重なってからの経過時間に基づいて選択有無を判定する例を説明したが、ここでは、経過時間の計時仕様について他の例を説明する。
図14は、視線位置P1と選択オブジェクトの判定領域とが重なっている選択メニュー画面の一例を示す図である。図示する選択メニュー画面G16では、視線位置P1と選択オブジェクト(ここでは、選択肢B)とが重なっており、重なってからの経過時間を示す経過時間ゲージT1が表示されている。この経過時間は、選択されたと決定する所定時間に達していない状態である。ここで、ユーザが左を向くと、視線位置P1に対して選択オブジェクトが相対的に右に移動する。
[Another example of selection processing]
In the determination process for determining whether or not the selected object is selected, the example in which the presence or absence of the selection is determined based on the elapsed time after the line-of-sight position P1 overlaps the determination area of the selected object has been described. Another example of the timing specification will be described.
FIG. 14 is a diagram illustrating an example of a selection menu screen in which the line-of-sight position P1 and the selection object determination area overlap. In the illustrated selection menu screen G16, the line-of-sight position P1 and the selected object (here, option B) overlap, and an elapsed time gauge T1 indicating the elapsed time since the overlap is displayed. This elapsed time is in a state where the predetermined time for determining that the time has been selected has not been reached. Here, when the user turns to the left, the selected object moves to the right relative to the line-of-sight position P1.

図15は、視線位置P1に対して選択オブジェクトが相対的に右に移動したことにより、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G17は、図14では重なっていた視線位置P1と選択オブジェクト(ここでは、選択肢B)の判定領域とが重ならない状態に変化していることを示している。視線位置P1と選択オブジェクトが重ならない状態になると、図13に示す判定処理では計測時間がリセットされて経過時間が0になるが、リセットせずに、経過時間の計時が停止されてもよい。例えば、図15に示す例では、経過時間の計時が停止され、経過時間ゲージT1のバーがそれまでの(視線位置P1と選択オブジェクトの判定領域とが重なっていたときの)経過時間を示す長さで止まっていることを示している。また、視線位置P1と選択オブジェクト判定領域とが重なっている状態から重ならない状態に変化した場合、重なっている状態の経過時間の計時よりも時間の進みを遅くしてもよいし、時間を後退させてもよい。このように、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係にある場合と重なる位置関係にある場合とで異なる計時を行うようにしてもよい。   FIG. 15 is a diagram illustrating an example of a selection menu screen in which the line-of-sight position P1 and the determination area of the selected object do not overlap with each other because the selected object has moved to the right relative to the line-of-sight position P1. . The selection menu screen G17 shown in the drawing shows that the line-of-sight position P1 and the determination area of the selected object (here, option B) that overlap in FIG. When the line-of-sight position P1 does not overlap the selected object, the measurement time is reset and the elapsed time becomes 0 in the determination process illustrated in FIG. 13, but the elapsed time may be stopped without being reset. For example, in the example shown in FIG. 15, the elapsed time is stopped, and the elapsed time gauge T1 bar indicates the elapsed time up to that point (when the line-of-sight position P1 overlaps the determination area of the selected object). It shows that it has stopped. In addition, when the line-of-sight position P1 and the selected object determination area change from the overlapping state to the non-overlapping state, the advance of the time may be delayed or the time may be set backward compared to the elapsed time measurement in the overlapping state. You may let them. In this manner, the determination unit 112 may perform different timing depending on whether the line-of-sight position P1 and the determination area of the selected object are in a positional relationship where they do not overlap in the line-of-sight direction.

この場合、視線位置P1が選択オブジェクトの判定領域から一旦外れても、再び同じ選択オブジェクトの判定領域内に視線を移すことで視線位置P1が重なると、経過時間の計時が続きから再開されるので、誤って一瞬判定領域から視線が外れてしまった場合であっても、経過時間を0から計時し直す必要がなくなる。   In this case, even if the line-of-sight position P1 deviates from the determination area of the selected object, if the line-of-sight position P1 overlaps by moving the line of sight again within the determination area of the same selected object, the elapsed time is restarted from the next time. Even if the line of sight is mistakenly deviated from the determination area for a moment, it is not necessary to re-measure the elapsed time from zero.

なお、視線位置P1が選択オブジェクトの判定領域から外れて所定の時間(例えば、10秒など)が経過した場合、ユーザに選択を継続する意思がないとみなして、計測時間がリセットされてもよい。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから計時した経過時間を、視線位置P1と選択オブジェクトの判定領域とが重ならない位置関係になって所定の時間が経過すると、計測時間(経過時間)をリセットしてもよい。   When a predetermined time (for example, 10 seconds) elapses when the line-of-sight position P1 is out of the selected object determination area, the measurement time may be reset assuming that the user does not intend to continue the selection. . For example, the determination unit 112 determines the elapsed time measured after the positional relationship where the line-of-sight position P1 overlaps the determination area of the selected object as the positional relationship where the line-of-sight position P1 does not overlap the determination area of the selected object. When the time elapses, the measurement time (elapsed time) may be reset.

また、他の選択オブジェクト(選択肢A、Cなど)の判定領域に視線位置P1が移った場合には、計時された計測時間(経過時間)がリセットされ、0から経過時間の計時が開始される。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから計時した経過時間を、視線位置P1と他の選択オブジェクトの判定領域とが重なる位置関係になった場合、計測時間(経過時間)をリセットする。   When the line-of-sight position P1 moves to the determination area of another selected object (option A, C, etc.), the measured time (elapsed time) is reset, and the elapsed time is started from 0. . For example, the determination unit 112 has a positional relationship in which the visual line position P1 overlaps the determination region of another selected object with respect to the elapsed time measured after the positional relationship of the visual line position P1 overlaps with the determination region of the selected object. If this is the case, the measurement time (elapsed time) is reset.

次に、図16を参照して、上述した経過時間の計時仕様に基づく選択オブジェクトの選択有無を判定する判定処理の動作を説明する。図16は、本実施形態に係る選択オブジェクトの選択有無を判定する判定処理の一例を示すフローチャートである。図示するステップS300、S302、S304.S306.S308、S310の各処理は、図13に示すステップS200、S202、S204.S206.S208、S210の各処理に対応し、ステップS308の処理でNOと判定された場合のその後の処理のみが、図13に示す判定処理と異なる。ここでは、図13に示す判定処理と異なる処理について説明し、同様の処理については、その説明を省略する。   Next, with reference to FIG. 16, the operation of a determination process for determining whether or not a selected object is selected based on the above-described elapsed time measurement specification will be described. FIG. 16 is a flowchart illustrating an example of a determination process for determining whether or not a selected object is selected according to the present embodiment. Steps S300, S302, S304. S306. Each process of S308 and S310 is performed in steps S200, S202, S204. S206. Corresponding to each process of S208 and S210, only the subsequent process when it is determined NO in the process of step S308 is different from the determination process shown in FIG. Here, processing different from the determination processing illustrated in FIG. 13 will be described, and description of similar processing will be omitted.

ステップS308において、視線位置P1と選択オブジェクトの判定領域とが重なってから所定時間以上経過していないと判定された場合(NO)、制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS312)。視線位置P1と選択オブジェクトの判定領域とが重なっていないと判定され多場合(NO)、制御部130は、経過時間の計時及び表示(経過時間ゲージT1のバー)を一時停止する(ステップS314)。なお、このとき、経過時間の計時及び表示を一時停止するのに代えて、時間の経過がゆっくり進むように計時及び表示してもよいし、時間の経過が後退するように計時及び表示してもよい。   If it is determined in step S308 that the predetermined time or more has not elapsed since the line-of-sight position P1 and the selection object determination area overlap (NO), the control unit 110 determines that the line-of-sight position P1 and the selection object determination area are It is determined whether or not they overlap in the line-of-sight direction (step S312). If it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap (NO), the control unit 130 temporarily stops counting and displaying the elapsed time (the bar of the elapsed time gauge T1) (step S314). . At this time, instead of temporarily measuring and displaying the elapsed time, it may be timed and displayed so that the passage of time progresses slowly, or timed and displayed so that the passage of time goes backward. Also good.

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になってから所定時間以上経過したか否かを判定する(ステップS316)。所定時間以上経過したと判定された場合(YES)、制御部110は、ユーザに選択を継続する意思がないとみなし、ステップS302に処理を戻して計測時間をリセットする。   Next, the control unit 110 determines whether or not a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object are not overlapped (step S316). When it is determined that the predetermined time or more has elapsed (YES), the control unit 110 considers that the user has no intention to continue the selection, returns the process to step S302, and resets the measurement time.

一方、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になってから所定時間以上経過していないと判定された場合(NO)、制御部110は、ステップS312に処理を戻し、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する。そして、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていると判定された場合(YES)、制御部110は、視線位置P1が重なっている選択オブジェクトが前回重なっていた選択オブジェクトであるか否かを判定する(ステップS318)。前回重なっていた選択オブジェクトであると判定された場合、制御部110は、ステップS308に処理を戻し、経過時間の計時及び表示を再開する。なお、制御部110は、ステップS314において、時間の経過がゆっくり進むような計時及び表示にした場合、または、時間の経過が後退するような計時及び表示にした場合には、元の計時及び表示に戻す。一方、視線位置P1が重なっている選択オブジェクトが他の選択オブジェクトであると判定された場合(NO)、制御部110は、ステップS302に処理を戻して計測時間をリセットする。   On the other hand, when it is determined that the predetermined time or more has not passed since the line-of-sight position P1 and the determination area of the selected object do not overlap (NO), the control unit 110 returns the process to step S312 and returns to the line-of-sight position It is determined whether P1 and the determination area of the selected object overlap in the line-of-sight direction. When it is determined that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (YES), the control unit 110 determines that the selection object that overlaps the line-of-sight position P1 is the selection object that previously overlapped. It is determined whether or not there is (step S318). If it is determined that the selected object overlapped last time, the control unit 110 returns the process to step S308 and restarts counting and displaying the elapsed time. In step S314, when the timekeeping and display are performed so that the passage of time progresses slowly, or when the timekeeping and display are performed such that the passage of time is retreated, the control unit 110 returns to the original timekeeping and display. Return to. On the other hand, when it is determined that the selected object on which the line-of-sight position P1 overlaps is another selected object (NO), the control unit 110 returns the process to step S302 and resets the measurement time.

〔第1の実施形態のまとめ〕
以上説明してきたように、本実施形態に係る端末装置10は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なHMDシステム1の少なくとも一部として利用可能な端末装置である。例えば、端末装置10は、検出部111と、オブジェクト配置部113と、表示制御部114と、を備えている。検出部111は、端末装置10の方向に関する情報を検出する。オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、仮想空間内に配置する。表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている選択オブジェクトを表示部12に表示させる。そして、オブジェクト配置部113は、仮想空間における仮想視点からの視線方向に対応する視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの判定領域を変更する。
[Summary of First Embodiment]
As described above, the terminal device 10 according to the present embodiment is at least the HMD system 1 capable of displaying a visual field image representing a visual field from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. It is a terminal device that can be used as a part. For example, the terminal device 10 includes a detection unit 111, an object placement unit 113, and a display control unit 114. The detection unit 111 detects information related to the direction of the terminal device 10. The object placement unit 113 places a selected object having a determination area for determining whether or not there is a selection from the user in the virtual space. The display control unit 114 causes the display unit 12 to display the selected object arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Then, the object placement unit 113 changes the determination area of the selected object based on the positional relationship between the line-of-sight position P1 corresponding to the line-of-sight direction from the virtual viewpoint in the virtual space and the determination area of the selection object.

ここで、判定領域の変更とは、判定領域の大きさの変更、例えば面積(広さ)の変更または体積の変更であってもよいし、判定領域が配置される位置の変更であってもよい。また、判定領域の変更とは、判定領域の形状の変更であってもよい。また、上記の位置関係とは、視線方向に投影した2次元の平面的な位置関係であってもよいし、オブジェクトが立体(3次元形状)である場合には3次元的な位置関係であってもよい。   Here, the change of the determination region may be a change in the size of the determination region, for example, a change in area (width) or a change in volume, or a change in the position where the determination region is arranged. Good. Further, the change of the determination area may be a change of the shape of the determination area. In addition, the above-described positional relationship may be a two-dimensional planar positional relationship projected in the line-of-sight direction, or a three-dimensional positional relationship when the object is a solid (three-dimensional shape). May be.

これにより、端末装置10は、視線位置P1と選択オブジェクトの判定領域との位置関係によって、該判定領域の大きさ(見かけ上の大きさ)を変更することができるため、選択肢に対して選択操作する際の操作性を向上することができる。なお、オブジェクト配置部113は、判定領域の色や明るさ等を変更することにより、選択されていることより視認しやすくしてもよい。   Thereby, the terminal device 10 can change the size (apparent size) of the determination region according to the positional relationship between the line-of-sight position P1 and the determination region of the selected object. The operability at the time of performing can be improved. Note that the object placement unit 113 may make it easier to visually recognize the selected area by changing the color or brightness of the determination area.

例えば、選択メニュー画面では、背景となる視界画像の表示をできるだけ邪魔したくない場合や、選択項目が多数ある場合に、一つの選択肢の判定領域を小さくせざるを得ない場合がある。このような場合、判定領域が小さいと、選択有無を判定する期間内に誤操作によって意図せず視線位置が判定領域外となってしまうといったように操作性に難があった。そこで、例えば、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になった場合、選択オブジェクトの判定領域を広くする。これにより、端末装置10は、視線位置P1が選択オブジェクトの判定領域に入った場合に判定領域を広げるので、ユーザが意図せずに視線位置P1が判定領域から外れてしまう誤操作の発生を抑制できる。   For example, on the selection menu screen, there is a case where it is necessary to reduce the determination area of one option when it is not desired to disturb the display of the view field image as a background or when there are many selection items. In such a case, if the determination area is small, the operability is difficult such that the line-of-sight position is unintentionally outside the determination area due to an erroneous operation within the period for determining whether or not to select. Therefore, for example, the object placement unit 113 widens the determination area of the selected object when the line-of-sight position P1 and the determination area of the selected object overlap with each other from the position relation that does not overlap in the line-of-sight direction. Thereby, since the terminal device 10 expands the determination area when the line-of-sight position P1 enters the determination area of the selected object, it is possible to suppress the occurrence of an erroneous operation that causes the line-of-sight position P1 to be out of the determination area without the user's intention. .

例えば、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域に視線方向において重ならない範囲で広くする。これにより、端末装置10は、ユーザが意図して他の選択オブジェクトの選択に変更する場合には、その選択が可能なように、視線位置P1が現在重なっている判定領域から外れてしまう誤操作の発生を抑制できる。また、端末装置10は、それぞれの選択オブジェクトの判定領域の独立性が保てるため、何れか一つの選択オブジェクトを選択したい場合に誤操作を防ぐことができる。   For example, in the case where the determination area of the selected object is widened, the object placement unit 113 widens the determination area so as not to overlap the determination area of another selected object in the line-of-sight direction. As a result, when the user intentionally changes to selection of another selected object, the terminal device 10 causes an erroneous operation that causes the line-of-sight position P1 to deviate from the currently overlapping determination region so that the selection can be made. Generation can be suppressed. Further, since the terminal device 10 can maintain the independence of the determination areas of the respective selected objects, it is possible to prevent an erroneous operation when it is desired to select any one selected object.

また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔が空く範囲で広くしてもよい。これにより、端末装置10は、ユーザが意図して他の選択オブジェクトに選択を変更する場合には、現在重なっている判定領域からすぐに視線位置P1を外すことができる。   Further, in the case where the determination area of the selected object is widened, the object arrangement unit 113 may widen the determination area of the selected object so that a predetermined interval is provided in a direction orthogonal to the line-of-sight direction. Accordingly, when the user intentionally changes the selection to another selected object, the terminal device 10 can immediately remove the line-of-sight position P1 from the currently overlapping determination area.

また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他に配置されている選択オブジェクトの位置を変更してもよい。これにより、端末装置10は、多数の選択オブジェクトがある場合でも、他の選択オブジェクトを移動することで、判定領域を拡大するための領域を確保できる。   Further, the object placement unit 113 may change the position of the other selected object when the selection object determination area is widened. Thereby, even when there are a large number of selected objects, the terminal device 10 can secure an area for expanding the determination area by moving other selected objects.

オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、選択オブジェクトの表示態様を変更する。例えば、オブジェクト配置部113は、拡大された選択オブジェクトに他の情報を表示してもよい。例えば、選択オブジェクトが購入アイテムの選択肢であった場合、視線位置P1が重なる前の通常の大きさの選択オブジェクトにはアイテム名が表示され、視線位置P1が重なって拡大した場合にはアイテム名に加え、購入価格等が表示されてもよい。これにより、端末装置10は、選択の意思決定に関わる情報を選択オブジェクトに表示できるので、ユーザが誤った選択を行わないようにすることができる。また、オブジェクト配置部113は、拡大中の選択オブジェクトの色を拡大前とは異なる色に変更してもよい。この場合、端末装置10は、選択しようとしている選択オブジェクトの視認性が向上することにより操作性を向上できる。   The object placement unit 113 changes the display mode of the selected object when widening the determination area of the selected object. For example, the object placement unit 113 may display other information on the enlarged selected object. For example, if the selected object is a purchase item option, the item name is displayed on the selection object having a normal size before the line-of-sight position P1 overlaps, and the item name is displayed when the line-of-sight position P1 overlaps and expands. In addition, a purchase price or the like may be displayed. Thereby, since the terminal device 10 can display the information related to the decision making of the selection on the selected object, the user can prevent erroneous selection. Further, the object placement unit 113 may change the color of the selected object being enlarged to a color different from that before enlargement. In this case, the terminal device 10 can improve operability by improving the visibility of the selected object to be selected.

また、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってから所定の時間経過した後に、選択オブジェクトの判定領域または該判定領域に対応する表示領域を広くしてもよい。つまり、端末装置10は、視線位置P1が選択オブジェクトの判定領域内に入った場合でも、すぐにその選択オブジェクトの判定領域を拡大するのではなく、所定の時間(例えば、0.2〜0.3秒程度)のタイムラグを設けてもよい。これにより、端末装置10は、選択する意思が無いのに視線位置P1が判定領域上を短時間で通過した場合に判定領域が拡大してしまうことを抑制できるため、選択操作を行う際の視認性を向上させることができる。例えば、視線位置P1が通過しただけでその都度、選択オブジェクトが拡大されると、鬱陶しく視認性が悪いものとなる。なお、タイムラグを設けるのは、選択オブジェクトの表示領域のみとし、判定領域についてはタイムラグを設けなくてもよい。また、選択オブジェクトの表示領域と判定領域とのいずれも同じようにタイムラグを設けてもよい。また、視線位置P1の判定領域への侵入速度によって、タイムラグが設定されてもよい。例えば、侵入速度が所定値以上場合にタイムラグを設け、侵入速度が所定値未満の場合にはタイムラグを設けなくてもよい。   In addition, the object placement unit 113 may select the determination area of the selected object or the determination area after a predetermined time has elapsed since the position relationship where the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction has changed. The display area corresponding to may be widened. That is, the terminal device 10 does not immediately expand the determination area of the selected object even when the line-of-sight position P1 enters the determination area of the selected object, but does not immediately expand the determination area of the selected object. A time lag of about 3 seconds) may be provided. Thereby, since the terminal device 10 can suppress the determination area from being enlarged when the line-of-sight position P1 passes over the determination area in a short time even though there is no intention to select, the visual recognition when the selection operation is performed. Can be improved. For example, if the selected object is enlarged each time the line-of-sight position P1 passes, it becomes annoying and poor visibility. Note that the time lag is provided only in the display area of the selected object, and the time lag may not be provided in the determination area. Also, a time lag may be provided in the same manner for both the display area and the determination area of the selected object. Also, a time lag may be set depending on the speed of entry of the line-of-sight position P1 into the determination area. For example, a time lag may be provided when the intrusion speed is greater than or equal to a predetermined value, and no time lag may be provided when the intrusion speed is less than a predetermined value.

また、オブジェクト配置部113は、仮想視点からの視線方向を、検出部111の検出結果に基づいて定め、視線位置P1を視認可能とするためのオブジェクトを、仮想空間内に配置する。これにより、端末装置10は、例えば、HMDシステム1が装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置P1を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置P1と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。   In addition, the object placement unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111, and places an object for enabling visual recognition of the line-of-sight position P1. Thereby, the terminal device 10 can determine, for example, the line-of-sight position P1 corresponding to the line-of-sight direction in the view image (for example, the center of the view image) according to the orientation of the head of the user wearing the HMD system 1. It is possible to improve operability by making it easier for the user to recognize the positional relationship between the line-of-sight position P1 and the selected object.

なお、本実施形態では、端末装置10の方向に基づいて視線方向を検出する例を説明したが、これに限られるものではなく、例えば、ユーザの眼球の向きを検知することで視線方向を検出(アイトラッキング)してもよい。その場合、視線方向は頭部の動きとは異なる検出に基づくため、視線位置P1は視界画像内の固定された位置ではなく、視界画像内で動くこととなる。   In the present embodiment, the example in which the line-of-sight direction is detected based on the direction of the terminal device 10 has been described. However, the present invention is not limited to this. For example, the line-of-sight direction is detected by detecting the direction of the user's eyeball. (Eye tracking) may be used. In this case, since the line-of-sight direction is based on detection different from the head movement, the line-of-sight position P1 moves in the view field image, not in a fixed position in the view field image.

また、端末装置10は、視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの選択の有無を判定する判定部112を備える。これにより、端末装置10は、HMDシステム1において、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。   Further, the terminal device 10 includes a determination unit 112 that determines whether or not a selected object is selected based on the positional relationship between the line-of-sight position P1 and the determination region of the selected object. Thereby, the terminal device 10 can perform an operation UI for selecting an option using the user's line of sight in the HMD system 1.

例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってからの経過時間を計時するとともに、計時した経過時間に基づいて選択の有無を判定する。これにより、端末装置10は、視線位置P1が選択オブジェクトの判定領域に重なってから所定の時間が経過することを条件として選択されたと判定するので、選択する意思が無いのに判定領域上を視線位置P1が通過するだけで、選択されてしまうことを防ぐことができる。   For example, the determination unit 112 measures the elapsed time after the position relationship where the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction overlaps, and selects based on the measured elapsed time. Determine presence or absence. As a result, the terminal device 10 determines that the line of sight position P1 has been selected on the condition that a predetermined time has elapsed since the line of sight position P1 overlaps the determination area of the selected object. It is possible to prevent the position P1 from being selected only by passing.

また、オブジェクト配置部113は、経過時間を視認可能とするためのオブジェクトを仮想空間内に配置する。これにより、端末装置10は、選択が確定されるタイミングをユーザが容易に認識可能なように提示できる。   Moreover, the object arrangement | positioning part 113 arrange | positions the object for enabling visual recognition of elapsed time in virtual space. Thereby, the terminal device 10 can present the timing when the selection is confirmed so that the user can easily recognize.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係にある場合と重なる位置関係にある場合とで異なる計時を行う。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係にある場合に計時を行い、重ならない位置関係なった場合には計時を停止する(0にリセットしないで経過時間を維持する)。なお、重ならない位置関係なった場合には計時を停止しなくとも、時間の経過がゆっくり進むように計時、または時間の経過が後退するように計時してもよい。これにより、端末装置10は、誤操作により視線位置P1が判定領域から外れてしまった場合でも、同じ判定領域に再び視線位置P1を移せば、0から計時し直すのではなく、続きから経過時間の計時が再開されるので、操作性を向上できる。   In addition, the determination unit 112 measures different times depending on whether the line-of-sight position P1 and the determination area of the selected object are in a positional relationship that does not overlap in the line-of-sight direction. For example, the determination unit 112 performs time counting when the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction, and stops time counting when they do not overlap (does not reset to 0). To maintain the elapsed time). Note that when the positions do not overlap, the time may be measured so that the time progresses slowly, or the time may be set backward, without stopping the time measurement. As a result, even if the line-of-sight position P1 deviates from the determination area due to an erroneous operation, the terminal device 10 does not start counting again from 0 and moves the elapsed time from the next time if the line-of-sight position P1 is moved again to the same determination area. Since the timing is resumed, operability can be improved.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係になってから計時した経過時間を、視線位置P1と他の選択オブジェクトの判定領域とが視線方向において重なる位置関係になった場合、リセットする。これにより、端末装置10は、視線位置P1が他の選択オブジェクトの判定領域に移った場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再び視線位置P1が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。   Further, the determination unit 112 determines the elapsed time measured after the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction. If the overlapping position relationship is reached, reset. As a result, the terminal device 10 assumes that the user does not intend to continue selection when the line-of-sight position P1 moves to the determination area of another selected object, and returns the elapsed time measured to 0 to the same. Even when the line-of-sight position P1 unintentionally moves again to the determination region, the measurement of the elapsed time is not resumed from the continuation, and an erroneous operation can be prevented.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係になってから計時した経過時間を、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係になって所定の時間が経過すると、リセットしてもよい。これにより、端末装置10は、視線位置P1が判定領域から外れて所定の時間(例えば、10秒など)経過した場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再び視線位置P1が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。   In addition, the determination unit 112 does not overlap the line-of-sight position P1 and the determination area of the selected object in the line-of-sight direction with respect to the elapsed time measured since the line-of-sight position P1 and the determination area of the selection object overlap in the line-of-sight direction. It may be reset when a predetermined time elapses due to the positional relationship. Thereby, the terminal device 10 considers that the user does not intend to continue the selection when a predetermined time (for example, 10 seconds) elapses after the line-of-sight position P1 deviates from the determination region, and the elapsed time measured. Therefore, even when the line-of-sight position P1 unintentionally moves again to the same determination area, the measurement of the elapsed time is not resumed and it is possible to prevent an erroneous operation from occurring.

また、判定部112は、視線方向において視線位置P1が選択オブジェクトの判定領域内のいずれの位置と重なるかによって、計時する速度を変更してもよい。例えば、判定部112は、判定領域の中心に近ければ近いほど、計時する速度を速くしてもよい。この場合、判定領域の中心に近いほど、経過時間ゲージT1のバーが一周分伸びる速度が速くなり、結果的に選択されたと判定される期間が短くなる。これにより、端末装置10は、誤動作防止のための判定時間を設けつつ、選択と判定されるまでの期間を短くする方法もユーザに提供することができる。なお、計時する速度を変更するのに代えて、選択されたと判定(決定)するための判定時間を変更してもよい。例えば、判定部112は、判定領域の中心に近ければ近いほど、判定時間を短くしてもよい。   Further, the determination unit 112 may change the speed of time measurement depending on which position in the determination area of the selected object the line-of-sight position P1 overlaps in the line-of-sight direction. For example, the determination unit 112 may increase the timing speed as it is closer to the center of the determination region. In this case, the closer to the center of the determination area, the faster the bar of the elapsed time gauge T1 extends by one turn, and the shorter the period during which it is determined that the bar has been selected as a result. Thereby, the terminal device 10 can also provide the user with a method of shortening the period until it is determined to be selected while providing a determination time for preventing malfunction. Note that, instead of changing the speed of timing, the determination time for determining (determining) selection may be changed. For example, the determination unit 112 may shorten the determination time as it is closer to the center of the determination region.

また、判定領域内に視線位置P1が入った後に、計時する速度(経過時間ゲージT1のバーが伸びる速度)が速くなる領域が設けられてもよい。その領域は、経過時間を必要としない領域(即ち、すぐに選択が決定される領域)であってもよい。その場合、この経過時間を必要としない領域は、ユーザが意図せずに視線位置P1が入ってしまうことがないように、判定領域内の視線位置P1が包含されない位置に設定される。   In addition, an area where the speed of time measurement (speed at which the bar of the elapsed time gauge T1 extends) is increased after the line-of-sight position P1 enters the determination area may be provided. The area may be an area that does not require elapsed time (that is, an area for which selection is immediately determined). In this case, the area that does not require the elapsed time is set to a position that does not include the line-of-sight position P1 in the determination area so that the line-of-sight position P1 does not enter the user unintentionally.

また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる。これにより、端末装置10は、HDMシステム1が装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。また、端末装置10は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。   In addition, the display control unit 114 causes the display unit 12 to display a visual field image in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Thereby, the terminal device 10 can provide a visual field image in the visual field direction in the virtual space so that the user can visually recognize it according to the movement of the head of the user wearing the HDM system 1. Further, since the terminal device 10 can simultaneously display the view field image and the selected object in the virtual space, the user can select the game device while referring to the game information in the virtual space.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。
本実施形態に係るHMDシステム1及び端末装置10の基本的な構成は、図1、図2、及び図11に示す各構成と同様であるので、本実施形態において特徴的な処理について説明する。本実施形態では、選択メニュー画面において視界方向を変更して選択操作を行う際に、視線位置に対する選択オブジェクトの相対位置の変化を所定の方向について制限する処理を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
Since the basic configurations of the HMD system 1 and the terminal device 10 according to the present embodiment are the same as the configurations illustrated in FIGS. 1, 2, and 11, characteristic processing in the present embodiment will be described. In the present embodiment, a process for restricting a change in the relative position of the selected object with respect to the line-of-sight position in a predetermined direction when changing the view direction on the selection menu screen and performing a selection operation will be described.

図17は、本実施形態に係る選択メニュー画面の一例を示す図である。図示する選択メニュー画面G20には、視線位置P1が画面の中央に表示され、また、仮想空間内にZ軸方向に並んで配置されている4つの選択オブジェクト(選択肢A、選択肢B、選択肢C、及び選択肢D)が表示されている。例えば、ユーザが選択肢Aを選択するために視界方向(視線方向)を選択オブジェクトの並び方向(Z軸方向)であるピッチ方向(上下方向)に変えると、その視界方向(視線方向)の変化に応じて、仮想空間内の視界画像がピッチ方向(上下方向)に変化する。また、仮想空間内に配置されている4つの選択オブジェクトは、視界画像がピッチ方向(上下方向)に変化することにより、視線位置P1に対して相対的にピッチ方向(上下方向)に変化する。   FIG. 17 is a diagram illustrating an example of a selection menu screen according to the present embodiment. In the illustrated selection menu screen G20, the line-of-sight position P1 is displayed at the center of the screen, and four selection objects (option A, option B, option C, and the like arranged in the Z-axis direction in the virtual space are arranged. And option D) are displayed. For example, if the user changes the viewing direction (gaze direction) to the pitch direction (vertical direction) that is the arrangement direction (Z-axis direction) of the selected objects in order to select option A, the viewing direction (gaze direction) changes. Accordingly, the visual field image in the virtual space changes in the pitch direction (vertical direction). Further, the four selected objects arranged in the virtual space change in the pitch direction (up and down direction) relative to the line-of-sight position P1 when the view field image changes in the pitch direction (up and down direction).

図18は、ユーザの視界方向(視線方向)がピッチ方向(上方向)に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G21では、ユーザが視界方向(視線方向)を上方向に変えたことにより、選択オブジェクトが視線位置P1に対して相対的に下方向に変化し、視線位置P1が選択肢Aの判定領域に重なっている状態を示している。   FIG. 18 is a diagram illustrating an example of a selection menu screen when the user's visual field direction (gaze direction) changes in the pitch direction (upward). In the illustrated selection menu screen G21, when the user changes the viewing direction (gaze direction) upward, the selected object changes downward relative to the gaze position P1, and the gaze position P1 is the option A. It shows a state where it overlaps the judgment area.

一方、選択オブジェクトの並び方向以外(ここでは、ピッチ方向以外)へのユーザの視界方向(視線方向)の変化に対しては、その変化に応じて選択オブジェクトを移動させることにより、視線位置P1に対する相対位置の変化を制限してもよい。
図19は、図17に示す選択メニュー画面において、ユーザの視界方向(視線方向)がヨー方向(右方向)に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G22では、ユーザが視界方向(視線方向)を右方向に変えたことにより視界画像が右方向に変化しているが、選択オブジェクトの視線位置P1に対する相対位置の変化は少ない。破線M1は、移動前の選択オブジェクトの位置(判定領域の中央の位置)を示している。一方、破線M2は、移動後の選択オブジェクトの位置(判定領域の中央の位置)を示している。つまり、オブジェクト配置部113は、ユーザの視界方向(視線方向)がヨー方向(右方向)に変化することにより、破線M1を中心とした位置から破線M2を中心とした位置へ選択オブジェクトを移動させる。
On the other hand, with respect to a change in the user's field of view direction (line-of-sight direction) other than the direction in which the selected objects are arranged (here, other than the pitch direction), the selected object is moved in accordance with the change, thereby You may restrict | limit the change of a relative position.
FIG. 19 is a diagram showing an example of the selection menu screen when the user's viewing direction (gaze direction) changes to the yaw direction (right direction) on the selection menu screen shown in FIG. In the selection menu screen G22 shown in the drawing, the visual field image changes to the right as the user changes the visual field direction (gaze direction) to the right, but the change in the relative position of the selected object with respect to the visual line position P1 is small. A broken line M1 indicates the position of the selected object before moving (the position at the center of the determination area). On the other hand, a broken line M2 indicates the position of the selected object after movement (the position at the center of the determination area). That is, the object placement unit 113 moves the selected object from the position centered on the broken line M1 to the position centered on the broken line M2 when the user's view direction (line of sight direction) changes to the yaw direction (right direction). .

また、オブジェクト配置部113は、ユーザの視界方向(視線方向)のロール方向への変化についても、選択オブジェクトの並び方向以外の方向への変化であるため、その変化に応じて選択オブジェクトを回転移動させる。図20は、ユーザの視界方向(視線方向)がロール方向に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G23では、ユーザの視界方向(視線方向)がロール方向(ここでは、X軸を中心に反時計回り)に角度θ変化した場合の選択オブジェクトの配置を示している。破線M1は、回転移動前の選択オブジェクトの位置(判定領域の中央の位置)を示している。一方、破線M2は、回転移動後の選択オブジェクトの位置(判定領域の中央の位置)を示している。つまり、オブジェクト配置部113は、ユーザの視界方向(視線方向)がロール方向(ここでは、X軸を中心に反時計回り)に角度θ変化した場合、視線位置P1と選択オブジェクトとの回転方向の相対位置が変化しないように、選択オブジェクトをロール方向(ここでは、X軸を中心に反時計回り)に角度θ回転移動させる。   The object placement unit 113 also rotates the selected object in response to the change because the change in the roll direction of the user's view direction (gaze direction) is also a change in a direction other than the arrangement direction of the selected objects. Let FIG. 20 is a diagram illustrating an example of a selection menu screen when the user's viewing direction (gaze direction) changes to the roll direction. The selection menu screen G23 shown in the drawing shows the arrangement of the selected object when the user's visual field direction (gaze direction) changes by the angle θ in the roll direction (here, counterclockwise about the X axis). A broken line M1 indicates the position of the selected object (the center position of the determination area) before the rotational movement. On the other hand, a broken line M2 indicates the position of the selected object after rotation (position at the center of the determination area). That is, the object placement unit 113 changes the rotation direction between the line-of-sight position P1 and the selected object when the user's line-of-sight direction (line-of-sight direction) changes by an angle θ in the roll direction (here, counterclockwise about the X axis). The selected object is moved in the roll direction (here, counterclockwise about the X axis) by rotating the angle θ so that the relative position does not change.

なお、ユーザの視界方向(視線方向)が変化した角度と、選択オブジェクトを回転移動させる角度とは、一致させてもよいし、一致させなくてもよい。例えば、選択オブジェクトを回転移動させる角度は、ユーザの視界方向(視線方向)が変化した角度に所定の割合を乗算した角度でもよいし、所定の角度を加算又は減算した角度でもよい。また、選択オブジェクトを回転移動させる角度に上限が設けられてもよい。   It should be noted that the angle at which the user's visual field direction (line-of-sight direction) has changed may or may not coincide with the angle by which the selected object is rotated. For example, the angle by which the selected object is rotated may be an angle obtained by multiplying the angle at which the user's visual field direction (gaze direction) is changed by a predetermined ratio, or an angle obtained by adding or subtracting a predetermined angle. In addition, an upper limit may be provided for the angle at which the selected object is rotated.

このように、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向(視線方向)が変化したと判定された場合、当該視界方向(視線方向)の変化に基づいて、選択オブジェクトの並び方向への移動を制限しつつ選択オブジェクトを移動させる。例えば、オブジェクト配置部113は、選択オブジェクトの並び方向以外の方向については視線位置P1と選択オブジェクトとの相対位置が変化しないように、視界方向(視線方向)の変化に応じて選択オブジェクトを移動させる。   As described above, when the object placement unit 113 determines that the view direction (gaze direction) from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object placement unit 113 changes the view direction (gaze direction). Based on the change, the selected object is moved while restricting the movement of the selected object in the arrangement direction. For example, the object placement unit 113 moves the selected object according to the change in the visual field direction (gaze direction) so that the relative position between the gaze position P1 and the selected object does not change in directions other than the arrangement direction of the selected objects. .

なお、オブジェクト配置部113は、選択オブジェクトの並び方向以外の方向については所定の範囲に視線位置P1が収まるように、視界方向(視線方向)の変化に応じて選択オブジェクトを移動させてもよい。ここで、所定の範囲とは、例えば、選択オブジェクトの判定領域の、選択オブジェクトの並び方向と直交する方向の幅(例えば、図19のWが示す幅)である。また、所定の範囲とは、例えば、視線方向を軸とした回転方向の角度の範囲であってもよい。   Note that the object placement unit 113 may move the selected object according to a change in the viewing direction (gaze direction) so that the gaze position P1 falls within a predetermined range in directions other than the arrangement direction of the selected objects. Here, the predetermined range is, for example, a width (for example, a width indicated by W in FIG. 19) of the determination area of the selected object in a direction orthogonal to the arrangement direction of the selected objects. Further, the predetermined range may be, for example, a range of angles in the rotation direction with the line-of-sight direction as an axis.

次に、図21を参照して、本実施形態に係るオブジェクト配置処理の動作を説明する。図21は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、仮想空間内において、複数の選択オブジェクトを所定の方向(例えば、Z軸方向)へ並べて配置する(ステップS400)。これにより、表示部12には、視界画像と複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図17参照)が表示される。   Next, the operation of the object placement process according to the present embodiment will be described with reference to FIG. FIG. 21 is a flowchart illustrating an example of the object placement process according to the present embodiment. First, upon receiving a selection menu display trigger, the control unit 110 arranges a plurality of selected objects in a predetermined direction (for example, the Z-axis direction) in the virtual space (step S400). Accordingly, a selection menu screen (for example, see FIG. 17) including the view field image and the plurality of selection objects is displayed on the display unit 12.

制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS402)。そして、制御部110は、検出した角速度に基づいて、視界方向(視線方向)の変化があるか否かを判定する(ステップS404)。   The controller 110 detects the angular velocity based on the detection result of the sensor 13 (step S402). And the control part 110 determines whether there exists a change of a visual field direction (gaze direction) based on the detected angular velocity (step S404).

視界方向(視線方向)の変化があると判定された場合(YES)、制御部110は、所定の方向(選択オブジェクトの並び方向、例えば、Z軸方向)への移動を制限しつつ、視界方向(視線方向)の変化に基づいて選択オブジェクトを移動させ(図18、19参照)、ステップS408の処理に進む(ステップS406)。一方、視界方向(視線方向)の変化がないと判定された場合(NO)、制御部110は、ステップS408の処理に進む。   When it is determined that there is a change in the viewing direction (gaze direction) (YES), the control unit 110 restricts the movement in a predetermined direction (the arrangement direction of the selected objects, for example, the Z-axis direction), and the viewing direction. The selected object is moved based on the change in the (sight line direction) (see FIGS. 18 and 19), and the process proceeds to step S408 (step S406). On the other hand, when it determines with there being no change of a visual field direction (gaze direction) (NO), the control part 110 progresses to the process of step S408.

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS408)。選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、ステップS402に処理を戻す。一方、選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS410)、オブジェクト配置処理を終了する。   Next, the control unit 110 determines whether or not a selection menu display-off trigger has been received (step S408). When it is determined that the trigger for turning off the display of the selection menu is not received (NO), the control unit 110 returns the process to step S402. On the other hand, when it is determined that the trigger for turning off the display of the selection menu has been received (YES), the control unit 110 deletes the selected object arranged in the virtual space (step S410) and ends the object arrangement processing. .

〔第2の実施形態のまとめ〕
以上説明したように、本実施形態に係る端末装置10は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なHMDシステム1の少なくとも一部として利用可能な端末装置である。例えば、端末装置10は、検出部111と、オブジェクト配置部113と、表示制御部114と、を備えている。検出部111は、端末装置10の方向に関する情報を検出する。オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する複数の選択オブジェクトを、仮想空間内において所定の方向に並べて配置する。表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている選択オブジェクトを表示部12に表示させる。そして、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、当該視界方向の変化に基づいて所定の方向への移動を制限しつつ、選択オブジェクトを移動させる。
[Summary of Second Embodiment]
As described above, the terminal device 10 according to the present embodiment is capable of displaying at least one of the HMD systems 1 capable of displaying a view image representing a view from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. It is a terminal device that can be used as a part. For example, the terminal device 10 includes a detection unit 111, an object placement unit 113, and a display control unit 114. The detection unit 111 detects information related to the direction of the terminal device 10. The object arrangement unit 113 arranges a plurality of selection objects having a determination area for determining whether or not there is a selection from the user in a predetermined direction in the virtual space. The display control unit 114 causes the display unit 12 to display the selected object arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Then, when it is determined that the view direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object placement unit 113 moves in a predetermined direction based on the change in the view direction. The selected object is moved while restricting.

これにより、端末装置10は、視線位置P1と選択オブジェクトの判定領域との相対位置が、選択に不必要な方向へ変化しないように制限することができるため、選択肢に対して選択操作する際の操作性を向上することができる。   As a result, the terminal device 10 can restrict the relative position between the line-of-sight position P1 and the determination area of the selected object so as not to change in a direction unnecessary for selection. Operability can be improved.

また、オブジェクト配置部113は、仮想視点からの視線方向を、検出部111の検出結果に基づいて定める。また、オブジェクト配置部113は、記仮想視点からの視線方向に対応する視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)を、仮想空間内に配置する。これにより、端末装置10は、例えば、HMDシステム1が装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置P1を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置P1と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。   Further, the object placement unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111. Moreover, the object arrangement | positioning part 113 arrange | positions the object (for example, gaze position P1) for enabling visual recognition of the gaze position corresponding to the gaze direction from the virtual viewpoint in virtual space. Thereby, the terminal device 10 can determine, for example, the line-of-sight position P1 corresponding to the line-of-sight direction in the view image (for example, the center of the view image) according to the orientation of the head of the user wearing the HMD system 1. It is possible to improve operability by making it easier for the user to recognize the positional relationship between the line-of-sight position P1 and the selected object.

例えば、オブジェクト配置部113は、視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)と選択オブジェクトとを仮想空間内の同一面に配置する。同一面とは、例えば、仮想空間内の視線方向に直交する面である。なお、上記の同一面とは、厳密に同一な面のみに限定されるものではなく、略同一な面であってもよい。また、この同一面は、視線方向に直交する面に限定されるものではなく、仮想空間内のいずれの方向の面であってもよいし、平面であっても曲面であってもよい。これにより、端末装置10は、視線位置P1と選択オブジェクトとの相対位置(位置関係)に基づく選択肢の選択操作UIを実現可能とすることができる。具体的には、端末装置10は、視線位置P1と選択オブジェクトを仮想空間内の同一面に配置することで、両眼視差を利用した立体視において、視線位置P1と選択オブジェクトとを同じ焦点距離とすることができるため、両者の位置関係を視認しやすくすることができる。   For example, the object placement unit 113 places an object (for example, the line-of-sight position P1) for making the line-of-sight position visible and the selected object on the same plane in the virtual space. The same plane is, for example, a plane orthogonal to the viewing direction in the virtual space. The same surface is not limited to exactly the same surface, and may be substantially the same surface. Further, the same surface is not limited to a surface orthogonal to the line-of-sight direction, and may be a surface in any direction in the virtual space, and may be a flat surface or a curved surface. Thereby, the terminal device 10 can realize an option selection operation UI based on the relative position (positional relationship) between the line-of-sight position P1 and the selected object. Specifically, the terminal device 10 arranges the line-of-sight position P1 and the selected object on the same plane in the virtual space, so that the line-of-sight position P1 and the selected object have the same focal length in stereoscopic vision using binocular parallax. Therefore, the positional relationship between the two can be easily recognized.

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、選択オブジェクトの並び方向以外の方向については、視線位置P1が選択オブジェクトの判定領域の並び方向と直交する方向の幅に視線位置が収まるように、該視界方向の変化に応じて選択オブジェクトを移動させる。これにより、端末装置10は、選択オブジェクトを選択するために必要な方向以外(即ち、操作に不必要な方向)については、視線位置P1が選択オブジェクトの判定領域の幅の範囲から外れないように制限するため、選択肢に対する選択操作を行いやすくすることできる。また、このように制限すると、選択オブジェクトを小さく(幅を狭める)しても操作への影響が少ないため、選択オブジェクトを小さく表示することで、選択オブジェクトが背景となる視界画像の表示の妨げとなることを軽減することもできる。   When it is determined that the view direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object placement unit 113 selects the line-of-sight position P1 for directions other than the arrangement direction of the selected objects. The selected object is moved according to the change in the viewing direction so that the line-of-sight position falls within the width in the direction orthogonal to the arrangement direction of the object determination regions. Thereby, the terminal device 10 prevents the line-of-sight position P1 from deviating from the range of the width of the determination area of the selected object in directions other than the direction necessary for selecting the selected object (that is, the direction unnecessary for the operation). In order to limit, it is possible to facilitate the selection operation for the options. In addition, with such a restriction, even if the selected object is made smaller (decreasing the width), there is little influence on the operation. Therefore, displaying the selected object in a small size prevents the display of the field-of-view image as the background of the selected object. Can also be reduced.

また、オブジェクト配置部113は、選択をキャンセルする(判定領域外に視線位置P1を外す)ためのキャンセル領域を残す意味で、上記選択オブジェクトの幅以上に視線位置P1が変化するようにしてもよい。   Further, the object placement unit 113 may change the line-of-sight position P1 beyond the width of the selected object in order to leave a cancel area for canceling the selection (the line-of-sight position P1 is removed from the determination area). .

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、選択オブジェクトの並び方向以外の方向については視線位置P1と選択オブジェクトとの相対位置が変化しないように、該視界方向の変化に応じて選択オブジェクトを移動させる。これにより、端末装置10は、選択オブジェクトを選択するために必要な視線位置P1を移動させる方向以外(即ち、操作に不必要な方向)については、視線位置P1と選択オブジェクトの判定領域との相対位置が変化しないように制限するため、選択肢に対する選択操作を行いやすくすることできる。また、このように制限すると、選択オブジェクトを小さく(幅を狭める)しても操作への影響が少ないため、選択オブジェクトを小さく表示することで、選択オブジェクトが背景となる視界画像の表示の妨げとなることを軽減することもできる。   When it is determined that the view direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object placement unit 113 determines the line-of-sight position P1 and the selected object for directions other than the arrangement direction of the selected objects. The selected object is moved in accordance with the change in the viewing direction so that the relative position with respect to does not change. As a result, the terminal device 10 makes the relative relationship between the line-of-sight position P1 and the determination area of the selected object other than the direction in which the line-of-sight position P1 necessary for selecting the selected object is moved (that is, the direction unnecessary for the operation). Since the position is restricted so as not to change, it is possible to facilitate the selection operation for the option. In addition, with such a restriction, even if the selected object is made smaller (decreasing the width), there is little influence on the operation. Therefore, displaying the selected object in a small size prevents the display of the field-of-view image as the background of the selected object. Can also be reduced.

また、端末装置10は、視線位置P1と選択オブジェクトの判定領域との相対位置(位置関係)に基づいて、選択オブジェクトの選択の有無を判定する判定部112を備える。これにより、端末装置10は、HMDシステム1において、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。   In addition, the terminal device 10 includes a determination unit 112 that determines whether or not a selected object is selected based on a relative position (positional relationship) between the line-of-sight position P1 and the determination region of the selected object. Thereby, the terminal device 10 can perform an operation UI for selecting an option using the user's line of sight in the HMD system 1.

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界が視線方向を軸とした回転方向に変化したと判定された場合、視線位置P1と選択オブジェクトとの回転方向の相対位置が変化しないように、選択オブジェクトを回転方向に回転させる。これにより、端末装置10は、ユーザがロール方向に頭部を傾けた場合でも、ユーザの頭部に対する上下左右方向と選択オブジェクトの並び方向との相対関係が保たれるので、選択肢に対する選択操作を行いやすくすることできる。   If the object placement unit 113 determines that the field of view from the virtual viewpoint in the virtual space has changed to the rotation direction about the line-of-sight direction based on the detection result of the detection unit 111, the object placement unit 113 determines the line-of-sight position P1 and the selected object. The selected object is rotated in the rotation direction so that the relative position in the rotation direction does not change. Thereby, even when the user tilts the head in the roll direction, the terminal device 10 maintains the relative relationship between the vertical and horizontal directions with respect to the user's head and the arrangement direction of the selected objects. Can make it easier to do.

なお、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界が視線方向を軸とした回転方向に変化したと判定された場合でも、選択オブジェクトを回転方向に回転させなくともよい。この場合、選択メニュー画面において、背景となる視界画像とともに、選択オブジェクトが回転方向に変化した分斜めに表示されることになる。   Note that the object placement unit 113 displays the selected object in the rotation direction even when it is determined that the field of view from the virtual viewpoint in the virtual space has changed to the rotation direction about the line-of-sight direction based on the detection result of the detection unit 111. It is not necessary to rotate it. In this case, on the selection menu screen, the selected object is displayed obliquely together with the visual field image as the background as the selected object is changed in the rotation direction.

また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる、これにより、端末装置10は、HDMシステム1が装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。また、端末装置10は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。   Further, the display control unit 114 causes the display unit 12 to display a field-of-view image from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111, whereby the terminal device 10 can display the HDM system 1. According to the movement of the head of the user wearing the, the view image in the view direction in the virtual space can be provided so that the user can visually recognize it. Further, since the terminal device 10 can simultaneously display the view field image and the selected object in the virtual space, the user can select the game device while referring to the game information in the virtual space.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。
本実施形態に係るHMDシステム1及び端末装置10の基本的な構成は、図1、図2、及び図11に示す各構成と同様であるので、本実施形態において特徴的な処理について説明する。本実施形態では、複数の選択オブジェクトがそれぞれ並ぶ複数の列が配置されているような場合に、ユーザの頭部の動きに基づいて、選択の有無の判定対象となる選択オブジェクトを列ごとに切り替える例を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
Since the basic configurations of the HMD system 1 and the terminal device 10 according to the present embodiment are the same as the configurations illustrated in FIGS. 1, 2, and 11, characteristic processing in the present embodiment will be described. In the present embodiment, when a plurality of columns in which a plurality of selection objects are arranged are arranged, the selection object to be determined for selection is switched for each column based on the movement of the user's head. An example will be described.

図22は、判定対象となる選択オブジェクトを列ごとに切り替え可能な選択メニュー画面の一例を示す図である。図示する選択メニュー画面G25には、5つの選択オブジェクトがZ軸方向に並ぶ2つの列(破線M1上に並ぶ左側の列と、破線M2上に並ぶ右側の列)が左右(Y軸方向)に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。この選択メニュー画面G25では、選択対象が列ごとに切り替わる仕様である。例えば、左側(A)の列が選択対象となっている場合には、選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトのうちの何れかを選択可能である。一方、右側(B)の列が選択対象となっている場合には、選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトのうちの何れかを選択可能である。   FIG. 22 is a diagram illustrating an example of a selection menu screen on which a selection object to be determined can be switched for each column. In the illustrated selection menu screen G25, two columns in which five selected objects are arranged in the Z-axis direction (the left column aligned on the broken line M1 and the right column aligned on the broken line M2) are arranged in the left-right direction (Y-axis direction). They are displayed side by side at a predetermined interval. In the left column, five selection objects of option A, option C, option E, option G, and option I are displayed side by side with a predetermined interval in the Z-axis direction. In the right column, five selection objects of option B, option D, option F, option H, and option J are displayed side by side with a predetermined interval in the Z-axis direction. The selection menu screen G25 has a specification in which the selection target is switched for each column. For example, when the left (A) column is a selection target, any one of the five selection objects of option A, option C, option E, option G, and option I can be selected. On the other hand, when the column on the right side (B) is a selection target, any one of the five selection objects of option B, option D, option F, option H, and option J can be selected.

例えば、ユーザの頭部の動きがX軸を中心とした回転方向(ロール方向)であった場合に、選択対象となる列が切り替わる。具体的には、ユーザの頭部の動きが右回転の場合、選択対象となる列が左の列から右の列に切り換わり、ユーザの頭部の動きが左回転の場合、選択対象となる列が右の列から左の列に切り換わる。なお、ユーザの頭部の動きの回転方向によらず、ユーザの頭部の動きが回転であれば、選択対象となる列が切り替わる。   For example, when the movement of the user's head is the rotation direction (roll direction) about the X axis, the column to be selected is switched. Specifically, when the user's head movement is a right rotation, the column to be selected is switched from the left column to the right column, and when the user's head movement is a left rotation, the column is a selection target. The column switches from the right column to the left column. Note that if the movement of the user's head is rotating, regardless of the rotation direction of the movement of the user's head, the column to be selected is switched.

また、単に回転方向のみでなく回転方向とその回転速度に関する情報に基づいて、選択対象となる列が切り替わってもよい。例えば、回転速度が所定値以上の場合には視界方向が回転するとともに選択対象となる列が切り替わり、回転速度が所定値未満の場合には視界方向が回転するのみで選択対象となる列が切り替わらないようにしてもよい。   Further, the column to be selected may be switched based not only on the rotation direction but also on the rotation direction and the rotation speed. For example, when the rotation speed is greater than or equal to a predetermined value, the view direction rotates and the column to be selected is switched. When the rotation speed is less than the predetermined value, the view direction is only rotated and the column to be selected is switched. It may not be possible.

図23は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、仮想空間内において、複数の選択オブジェクトを複数列に所定の方向(例えば、Z軸方向)へ並べて配置する(ステップS500)。これにより、表示部12には、視界画像と左右2列の複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図22参照)が表示される。   FIG. 23 is a flowchart illustrating an example of the object placement process according to the present embodiment. First, upon receiving a selection menu display trigger, the control unit 110 arranges a plurality of selected objects in a predetermined direction (for example, the Z-axis direction) in a plurality of columns in the virtual space (step S500). As a result, a selection menu screen (for example, see FIG. 22) including the view field image and a plurality of selection objects in two columns on the left and right is displayed on the display unit 12.

制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS502)。そして、制御部110は、検出した角速度に基づいて、視界方向(視線方向)の変化(X軸を軸とした回転方向への変化)があるか否かを判定する(ステップS504)。   The controller 110 detects the angular velocity based on the detection result of the sensor 13 (step S502). Then, based on the detected angular velocity, the control unit 110 determines whether or not there is a change in the visual field direction (gaze direction) (change in the rotation direction about the X axis) (step S504).

X軸を軸とした回転方向への変化があると判定された場合(YES)、制御部110は、回転方向の変化速度が所定値以上であるか否かを判定する(ステップS506)。そして、回転方向の変化速度が所定値以上であると判定された場合(YES)、制御部110は、判定対象とする選択オブジェクトの列を切り替える(ステップS508)。一方、回転方向の変化速度が所定値以上でないと判定された場合(NO)、制御部110は、判定対象とする選択オブジェクトの列の切り替えを行わない。   When it is determined that there is a change in the rotation direction about the X axis (YES), the control unit 110 determines whether or not the change speed in the rotation direction is equal to or greater than a predetermined value (step S506). If it is determined that the change speed in the rotation direction is equal to or greater than the predetermined value (YES), the control unit 110 switches the column of the selection objects to be determined (step S508). On the other hand, when it is determined that the speed of change in the rotation direction is not equal to or greater than the predetermined value (NO), the control unit 110 does not switch the column of the selected objects to be determined.

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS510)。選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、ステップS502に処理を戻す。一方、選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS512)、オブジェクト配置処理を終了する。   Next, control unit 110 determines whether or not a selection menu display-off trigger has been received (step S510). When it is determined that the trigger for turning off the display of the selection menu is not received (NO), the control unit 110 returns the process to step S502. On the other hand, when it is determined that the trigger for turning off the display of the selection menu has been received (YES), the control unit 110 deletes the selected object arranged in the virtual space (step S512) and ends the object arrangement processing. .

〔第3の実施形態のまとめ〕
以上説明したように、本実施形態に係る端末装置10において、オブジェクト配置部113は、仮想空間内において、複数の選択オブジェクトがそれぞれ並ぶ複数の列を配置する。判定部112は、選択オブジェクトの選択の有無を列ごとに判定するとともに、検出部111の検出結果に基づいて、判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、視界方向の変化に基づいて所定の方向への選択オブジェクトの移動を制限しつつも、ユーザが頭の向きを変えるだけで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。
[Summary of Third Embodiment]
As described above, in the terminal device 10 according to the present embodiment, the object placement unit 113 places a plurality of rows in which a plurality of selected objects are arranged in the virtual space. The determination unit 112 determines whether or not the selected object is selected for each column, and switches the determination column based on the detection result of the detection unit 111. Thereby, when the terminal device 10 selects an option for each of a plurality of columns, the user only changes the direction of the head while restricting the movement of the selected object in a predetermined direction based on the change in the viewing direction. Since the selection target column can be switched, the operability when performing a selection operation on the option can be improved.

例えば、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向に変化したと判定された場合、変化した回転方向に応じて前記判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きをロール方向に変えるだけで、選択対象の列を対応する方向の列に切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。   For example, if the determination unit 112 determines that the field of view from the virtual viewpoint has changed in the rotation direction about the line-of-sight direction from the virtual viewpoint, the determination unit 112 switches the determination column according to the changed rotation direction. Thereby, when the terminal device 10 selects an option for each of a plurality of columns, the user can switch the column to be selected to a column in the corresponding direction only by changing the head direction to the roll direction. It is possible to improve the operability when performing a selection operation on the.

検出部111は、端末装置10の方向に関する情報として、該方向の変化速度に関する情報を検出する。判定部112は、検出部111により所定値以上の変化速度に関する情報が検出された場合、判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きを所定値以上の速度で変化させることで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。   The detection unit 111 detects information related to the direction change speed as information related to the direction of the terminal device 10. The determination unit 112 switches the determination column when the detection unit 111 detects information related to a change rate equal to or greater than a predetermined value. Thereby, when the terminal device 10 selects an option for each of a plurality of columns, the user can switch the column to be selected by changing the head direction at a speed equal to or higher than a predetermined value. Therefore, the operability when performing the selection operation can be improved.

なお、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向の変化と、検出部111により所定値以上の変化速度に関する情報が検出された場合との両方に基づいて判定する列を切り替えてもよいし、いずれか一方に基づいて判定する列を切り替えてもよい。例えば、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向が右方向に変化したことのみで、判定する列を右側に切り替えてもよいし、右方向に変化し且つ所定値以上の変化速度が検出された場合に、判定する列を右側に切り替えてもよい。また、判定部112は、回転方向への変化に関わらず所定値以上の変化速度が検出された場合に、判定する列を右側または左側(例えば、2列であれば、一方から他方へ、3列以上であれば、予め設定されているが側の列)に切り替えてもよい。   Note that the determination unit 112 uses both the change in the rotation direction around the line of sight from the virtual viewpoint as the axis of view and the case where the detection unit 111 detects information about the change speed greater than or equal to the predetermined value. The column to be determined based on one may be switched, or the column to be determined based on either one may be switched. For example, the determination unit 112 may switch the determination column to the right side or to the right side only because the rotation direction around the visual line direction from the virtual viewpoint changes to the right direction. When a change speed that is greater than or equal to a predetermined value is detected, the determination column may be switched to the right side. In addition, the determination unit 112 determines the column to be determined on the right side or the left side (for example, if there are two columns, from one to the other 3) when a change speed of a predetermined value or more is detected regardless of the change in the rotation direction. If it is more than the column, it may be switched to the side column set in advance.

[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1〜3の実施形態において説明した各構成は、任意に組み合わせることができる。例えば、第2、第3の実施形態において、視線位置P1が判定領域に重なった後は、第1の実施形態と同様に、経過時間が計時され、経過時間ゲージT1が表示されるとともに、経過時間に基づいて選択の有無が判定(決定)される。
[Modification]
The embodiment of the present invention has been described in detail with reference to the drawings. However, the specific configuration is not limited to the above-described embodiment, and includes a design and the like within a scope not departing from the gist of the present invention. For example, the configurations described in the first to third embodiments can be arbitrarily combined. For example, in the second and third embodiments, after the line-of-sight position P1 overlaps the determination region, the elapsed time is measured and the elapsed time gauge T1 is displayed, as in the first embodiment. The presence or absence of selection is determined (determined) based on the time.

上記実施形態では、選択オブジェクトの並び方向がZ軸方向である例を説明したが、選択オブジェクトの並び方向は、Z軸方向に限られるものではなく、例えば、Y軸方向であってもよいし、Y軸成分とZ軸成分とを有する方向であってもよい。また、選択オブジェクトが3次元に配置されている場合、選択オブジェクトの並び方向は、X軸成分とY軸成分とZ軸成分とを有する方向であってもよい。また、図22に示す例では、複数の選択オブジェクトがZ軸方向に並ぶ複数の列が左右(Y軸方向)に並ぶ例を示したが、複数の選択オブジェクトがY軸方向に並ぶ複数の列が上下(Z軸方向)に並ぶ例であって、上下(Z軸方向)に列を切り替える構成としてもよい。   In the above embodiment, the example in which the arrangement direction of the selection objects is the Z-axis direction has been described. However, the arrangement direction of the selection objects is not limited to the Z-axis direction, and may be, for example, the Y-axis direction. The direction may have a Y-axis component and a Z-axis component. When the selected objects are arranged in three dimensions, the arrangement direction of the selected objects may be a direction having an X-axis component, a Y-axis component, and a Z-axis component. Further, in the example illustrated in FIG. 22, an example in which a plurality of columns in which a plurality of selection objects are arranged in the Z-axis direction is arranged in the left and right (Y-axis direction), but a plurality of columns in which a plurality of selection objects are arranged in the Y-axis direction. Are arranged in the vertical direction (Z-axis direction), and the column may be switched in the vertical direction (Z-axis direction).

なお、上記実施形態では、端末装置10をアタッチメント2に装着することでHMDとして利用できるHMDシステム1の構成を例に説明したが、これに限られるものではなく、例えば、端末装置10は、アタッチメント2を必要としなくともそれ自体で頭部に装着可能な形態、即ちHMDであってもよい。また、上記実施形態において、端末装置10が少なくとも一部に構成されるHMD(HMDシステム)として、ユーザの頭部に装着可能な構成例を説明したが、HMDは、頭部に完全に装着可能な形状の構成に限られるものではない。例えば、HMDとして利用可能な端末装置10は、アタッチメントの有無にかかわらず、ユーザが目の前に把持することで、ユーザの目と表示部12との位置関係を所定の関係に保ち、仮想空間内の視界画像や各種オブジェクトを視認可能とする装置(例えば、双眼鏡のような形状)であってもよい。   In the above-described embodiment, the configuration of the HMD system 1 that can be used as an HMD by attaching the terminal device 10 to the attachment 2 has been described as an example. However, the configuration is not limited thereto. Even if 2 is not required, it may be a form that can be mounted on the head itself, that is, an HMD. Moreover, in the said embodiment, although the terminal device 10 demonstrated the structural example which can be mounted | worn to a user's head as HMD (HMD system) by which at least one part is comprised, HMD can mount | wear to a head completely. The configuration is not limited to a simple shape. For example, the terminal device 10 that can be used as an HMD maintains the positional relationship between the user's eyes and the display unit 12 in a predetermined relationship by holding the user's eyes in front of the eyes regardless of whether or not there is an attachment. It may be a device (for example, a shape like binoculars) that makes it possible to visually recognize the view field image and various objects.

また、上記実施形態では、選択メニュー画面に表示される選択肢としての選択オブジェクトの例を説明したが、これに限られるものではない。例えば、選択オブジェクトは、端末装置10が実行するゲーム内の仮想空間において、判定領域を有するキャラクタ、アイテム等として配置されるオブジェクトであってもよい。一例として、第1の実施形態において説明した選択オブジェクトに関する処理を、ゲームの仮想空間内を飛び交う複数の敵オブジェクト(選択オブジェクト)に対する処理において適用してもよい。例えば、ユーザの視線位置に基づいて攻撃が照射され、敵オブジェクト(選択オブジェクト)に対しての照射(判定領域と視線位置とが重なる位置関係)が所定の時間経過すると敵オブジェクトを撃墜(選択オブジェクトの選択有)するといった処理において適用してもよい。   In the above embodiment, an example of a selection object as an option displayed on the selection menu screen has been described. However, the present invention is not limited to this. For example, the selected object may be an object arranged as a character, an item, or the like having a determination area in a virtual space in a game executed by the terminal device 10. As an example, the process related to the selected object described in the first embodiment may be applied to a process for a plurality of enemy objects (selected objects) flying in the virtual space of the game. For example, when an attack is irradiated based on the user's line-of-sight position and the irradiation to the enemy object (selected object) (positional relationship where the determination area and the line-of-sight position overlap) passes for a predetermined time, the enemy object is shot down (selected object) You may apply in the process of having selection.

また、上述の制御部110の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより制御部110としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。   Further, the control unit 110 is recorded by recording a program for realizing the functions of the control unit 110 on a computer-readable recording medium, causing the computer system to read and execute the program recorded on the recording medium. You may perform the process of. Here, “loading and executing a program recorded on a recording medium into a computer system” includes installing the program in the computer system. The “computer system” here includes an OS and hardware such as peripheral devices. Further, the “computer system” may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and dedicated line. The “computer-readable recording medium” refers to a storage device such as a flexible medium, a magneto-optical disk, a portable medium such as a ROM and a CD-ROM, and a hard disk incorporated in a computer system. As described above, the recording medium storing the program may be a non-transitory recording medium such as a CD-ROM. The recording medium also includes a recording medium provided inside or outside that is accessible from the distribution server in order to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program that can be executed by the terminal device. That is, the format stored in the distribution server is not limited as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device. Note that the program may be divided into a plurality of parts, downloaded at different timings, and combined in the terminal device, or the distribution server that distributes each of the divided programs may be different. Furthermore, the “computer-readable recording medium” holds a program for a certain period of time, such as a volatile memory (RAM) inside a computer system that becomes a server or a client when the program is transmitted via a network. Including things. The program may be for realizing a part of the functions described above. Furthermore, what can implement | achieve the function mentioned above in combination with the program already recorded on the computer system, and what is called a difference file (difference program) may be sufficient.

また、上述した制御部110の機能の一視線位置部または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。   Further, the one line-of-sight position part or all of the functions of the control unit 110 described above may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each function described above may be individually made into a processor, or a part or all of them may be integrated into a processor. Further, the method of circuit integration is not limited to LSI, and may be realized by a dedicated circuit or a general-purpose processor. In addition, when an integrated circuit technology that replaces LSI appears due to the advancement of semiconductor technology, an integrated circuit based on the technology may be used.

[付記]
以上の記載から本発明は例えば以下のように把握される。なお、本発明の理解を容易にするために添付図面の参照符号を便宜的に括弧書きにて付記するが、それにより本発明が図示の態様に限定されるものではない。
[Appendix]
From the above description, the present invention is grasped as follows, for example. In order to facilitate understanding of the present invention, reference numerals in the accompanying drawings are appended in parentheses for convenience, but the present invention is not limited to the illustrated embodiment.

(付記1)本発明の一態様に係る端末装置(10)は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、前記端末装置の方向に関する情報を検出する検出部(111、S112、S402、S502)と、ユーザからの選択の有無を判定する判定領域を有する複数の選択オブジェクトを、前記仮想空間内において所定の方向に並べて配置するオブジェクト配置部(113、S100、S200、S300、S400、S500)と、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向に配置されている前記選択オブジェクトを表示部に表示させる表示制御部(114、S100、S200、S300、S400、S500)と、を備え、前記オブジェクト配置部は、前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、当該視界方向の変化に基づいて前記所定の方向への移動を制限しつつ前記選択オブジェクトを移動させる(S406)。   (Additional remark 1) The terminal device (10) which concerns on 1 aspect of this invention is a head mounted display system which can display the visual field image showing the visual field from the virtual viewpoint in virtual space as a stereoscopic vision image using binocular parallax. A detection unit (111, S112, S402, S502) that detects information related to the direction of the terminal device, and a determination area that determines whether or not there is a selection from the user An object arrangement unit (113, S100, S200, S300, S400, S500) that arranges a plurality of selected objects in a predetermined direction in the virtual space, and the virtual space according to the detection result of the detection unit A display control unit (114, for displaying the selected object arranged in the view direction from the virtual viewpoint on the display unit) 100, S200, S300, S400, S500), and the object placement unit determines that the viewing direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit Then, the selected object is moved while restricting movement in the predetermined direction based on the change in the viewing direction (S406).

付記1の構成によれば、端末装置は、視線位置と選択オブジェクトの判定領域との相対位置が、選択に不必要な方向へ変化しないように制限することができるため、選択肢に対して選択操作する際の操作性を向上することができる。   According to the configuration of Supplementary Note 1, the terminal device can restrict the relative position between the line-of-sight position and the determination area of the selected object so that it does not change in a direction unnecessary for selection. The operability at the time of performing can be improved.

(付記2)また、本発明の一態様は、付記1に記載の端末装置であって、前記オブジェクト配置部は、前記仮想視点からの視線方向を、前記検出部の検出結果に基づいて定め、前記仮想視点からの視線方向に対応する視線位置を視認可能とするためのオブジェクトを、前記仮想空間内に配置する。   (Additional remark 2) Moreover, 1 aspect of this invention is a terminal device of Additional remark 1, Comprising: The said object arrangement | positioning part determines the gaze direction from the said virtual viewpoint based on the detection result of the said detection part, An object for enabling visual recognition of the visual line position corresponding to the visual line direction from the virtual viewpoint is arranged in the virtual space.

付記2の構成によれば、端末装置は、例えば、HMDシステムが装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。   According to the configuration of Supplementary Note 2, for example, the terminal device determines the line-of-sight position corresponding to the line-of-sight direction in the visual field image (for example, the center of the visual field image) according to the orientation of the head of the user wearing the HMD system. It is possible to improve the operability by making it easier for the user to recognize the positional relationship between the line-of-sight position and the selected object.

(付記3)また、本発明の一態様は、付記2に記載の端末装置であって、前記オブジェクト配置部は、前記視線位置を視認可能とするためのオブジェクトと前記選択オブジェクトとを前記仮想空間内の(前記視線方向に直交する)同一面に配置する。   (Additional remark 3) Moreover, 1 aspect of this invention is a terminal device of Additional remark 2, Comprising: The said object arrangement | positioning part makes the said virtual space the object for enabling the said visual line position to be visually recognized, and the said selection object. It arrange | positions in the same surface (perpendicular to the said visual line direction).

付記3の構成によれば、端末装置は、視線位置と選択オブジェクトとの相対位置(位置関係)に基づく選択肢の選択操作UIを実現可能とすることができる。具体的には、端末装置10は、視線位置P1と選択オブジェクトを仮想空間内の同一面に配置することで、両眼視差を利用した立体視において、視線位置P1と選択オブジェクトとを同じ焦点距離とすることができるため、両者の位置関係を視認しやすくすることができる。   According to the configuration of Supplementary Note 3, the terminal device can realize an option selection operation UI based on the relative position (positional relationship) between the line-of-sight position and the selected object. Specifically, the terminal device 10 arranges the line-of-sight position P1 and the selected object on the same plane in the virtual space, so that the line-of-sight position P1 and the selected object have the same focal length in stereoscopic vision using binocular parallax. Therefore, the positional relationship between the two can be easily recognized.

(付記4)また、本発明の一態様は、付記2または付記3に記載の端末装置であって、前記オブジェクト配置部は、前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、前記所定の方向以外の方向については前記視線位置が前記選択オブジェクトの判定領域の前記所定の方向と直交する方向の幅に前記視線位置が収まるように、該視界方向の変化に応じて前記選択オブジェクトを移動させる。   (Additional remark 4) Moreover, 1 aspect of this invention is a terminal device of Additional remark 2 or Additional remark 3, Comprising: The said object arrangement | positioning part is the said virtual viewpoint in the said virtual space based on the detection result of the said detection part. When it is determined that the viewing direction from the direction has changed, the line-of-sight position falls within the width of the direction perpendicular to the predetermined direction in the determination area of the selected object for directions other than the predetermined direction. In addition, the selected object is moved in accordance with the change in the viewing direction.

付記4の構成によれば、端末装置は、選択オブジェクトを選択するために必要な方向以外(即ち、操作に不必要な方向)については、視線位置が選択オブジェクトの判定領域の幅の範囲から外れないように制限するため、選択肢に対する選択操作を行いやすくすることできる。   According to the configuration of Supplementary Note 4, the terminal device deviates from the range of the width of the determination area of the selected object in directions other than the direction necessary for selecting the selected object (that is, the direction unnecessary for the operation). In order to limit the selection, it is possible to facilitate the selection operation for the options.

(付記5)また、本発明の一態様は、付記2から付記4のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、前記所定の方向以外の方向については前記視線位置と前記選択オブジェクトとの相対位置が変化しないように、該視界方向の変化に応じて前記選択オブジェクトを移動させる。   (Additional remark 5) Moreover, 1 aspect of this invention is a terminal device as described in any one of Additional remark 2 to Additional remark 4, Comprising: The said object arrangement | positioning part is based on the detection result of the said detection part. When it is determined that the viewing direction from the virtual viewpoint has changed, the direction of view other than the predetermined direction is changed according to the change in the viewing direction so that the relative position between the viewing position and the selected object does not change. To move the selected object.

付記5の構成によれば、端末装置は、選択オブジェクトを選択するために必要な視線位置を移動させる方向以外(即ち、操作に不必要な方向)については、視線位置と選択オブジェクトの判定領域との相対位置が変化しないように制限するため、選択肢に対する選択操作を行いやすくすることできる。   According to the configuration of Supplementary Note 5, the terminal device determines the line-of-sight position and the determination area of the selected object, except for the direction in which the line-of-sight position necessary for selecting the selected object is moved (that is, the direction unnecessary for the operation). Since the relative position is limited so as not to change, it is possible to facilitate the selection operation for the option.

(付記6)また、本発明の一態様は、付記2から付記5のいずれか一に記載の端末装置であって、前記視線位置と前記選択オブジェクトの判定領域との相対位置に基づいて、前記選択オブジェクトの選択の有無を判定する判定部(112、S204〜S210、S304〜S310)、を備える。   (Additional remark 6) Moreover, 1 aspect of this invention is a terminal device as described in any one of Additional remark 2 to Additional remark 5, Comprising: Based on the relative position of the said gaze position and the determination area | region of the said selection object, A determination unit (112, S204 to S210, S304 to S310) that determines whether or not the selected object is selected is provided.

付記6の構成によれば、端末装置は、HMDシステムにおいて、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。   According to the configuration of Supplementary Note 6, the terminal device can perform an operation UI for selecting an option using the user's line of sight in the HMD system.

(付記7)また、本発明の一態様は、付記6に記載の端末装置であって、前記オブジェクト配置部は、前記仮想空間内において、複数の前記選択オブジェクトがそれぞれ並ぶ複数の列を配置し、前記判定部は、前記選択オブジェクトの選択の有無を列ごとに判定するとともに、前記検出部の検出結果に基づいて、前記判定する列を切り替える(S508)。   (Additional remark 7) Moreover, 1 aspect of this invention is a terminal device of Additional remark 6, Comprising: The said object arrangement | positioning part arrange | positions the several row | line | column in which the said several selection object each arranges in the said virtual space. The determination unit determines whether the selected object is selected for each column, and switches the determination column based on the detection result of the detection unit (S508).

付記7の構成によれば、端末装置は、複数の列ごとに選択肢を選択する場合、視界方向の変化に基づいて所定の方向への選択オブジェクトの移動を制限しつつも、ユーザが頭の向きを変えるだけで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。   According to the configuration of Supplementary Note 7, when the terminal device selects an option for each of a plurality of columns, the terminal device restricts the movement of the selected object in a predetermined direction based on the change in the visual field direction, Since the selection target column can be switched simply by changing the operability, it is possible to improve the operability when performing the selection operation on the option.

(付記8)また、本発明の一態様は、付記7に記載の端末装置であって、前記判定部は、前記仮想視点からの視界が前記仮想視点からの視線方向を軸とした回転方向に変化したと判定された場合、変化した回転方向に応じて前記判定する列を切り替える(S504、S508)。   (Additional remark 8) Moreover, 1 aspect of this invention is a terminal device of Additional remark 7, Comprising: The said determination part is a rotation direction centering around the visual line direction from the said virtual viewpoint on the said visual field from the said virtual viewpoint. When it is determined that the change has occurred, the determination column is switched according to the changed rotation direction (S504, S508).

付記8の構成によれば、端末装置は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きをロール方向に変えるだけで、選択対象の列を対応する方向の列に切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。   According to the configuration of Supplementary Note 8, when the terminal device selects an option for each of a plurality of columns, the user can switch the column to be selected to a column in a corresponding direction simply by changing the head direction to the roll direction. Therefore, it is possible to improve the operability when performing a selection operation on the options.

(付記9)また、本発明の一態様は、付記7または付記8に記載の端末装置であって、前記検出部は、前記端末装置の方向に関する情報として、該方向の変化速度に関する情報を検出し、前記判定部は、前記検出部により所定値以上の前記変化速度に関する情報が検出された場合、前記判定する列を切り替える(S506、S508)。   (Additional remark 9) Moreover, 1 aspect of this invention is a terminal device of Additional remark 7 or Additional remark 8, Comprising: The said detection part detects the information regarding the change speed of this direction as information regarding the direction of the said terminal device. The determination unit switches the determination column when the detection unit detects information about the change rate that is equal to or greater than a predetermined value (S506, S508).

付記9の構成によれば、端末装置は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きを所定値以上の速度で変化させることで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。   According to the configuration of Supplementary Note 9, when the terminal device selects an option for each of a plurality of columns, the user can switch the column to be selected by changing the head direction at a speed equal to or higher than a predetermined value. Thus, it is possible to improve the operability when performing a selection operation on the options.

(付記10)また、本発明の一態様は、付記2から付記9のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界が前記視線方向を軸とした回転方向に変化したと判定された場合、前記視線位置と前記選択オブジェクトとの前記回転方向の相対位置が変化しないように、前記選択オブジェクトを前記回転方向に回転させる。   (Additional remark 10) Moreover, 1 aspect of this invention is a terminal device as described in any one of Additional remark 2 to Additional remark 9, Comprising: The said object arrangement | positioning part is in the said virtual space based on the detection result of the said detection part. The selected object so that the relative position in the rotation direction between the line-of-sight position and the selection object does not change when it is determined that the field of view from the virtual viewpoint changes in the rotation direction around the line-of-sight direction. Is rotated in the rotation direction.

付記10の構成によれば、端末装置は、ユーザがロール方向に頭部を傾けた場合でも、ユーザの頭部に対する上下左右方向と選択オブジェクトの並び方向との相対関係が保たれるので、選択肢に対する選択操作を行いやすくすることできる。   According to the configuration of Supplementary Note 10, even when the user tilts his / her head in the roll direction, the relative relationship between the up / down / left / right direction with respect to the user's head and the arrangement direction of the selected object is maintained. It is possible to facilitate the selection operation for.

(付記11)また、本発明の一態様は、付記1から付記10のいずれか一に記載の端末装置であって、前記表示制御部は、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向の視界画像を、前記表示部に表示させる。また、端末装置は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。   (Additional remark 11) Moreover, 1 aspect of this invention is a terminal device as described in any one of Additional remark 1 to Additional remark 10, Comprising: The said display control part is in the said virtual space according to the detection result of the said detection part. A visual field image in the visual field direction from the virtual viewpoint is displayed on the display unit. In addition, since the terminal device can simultaneously display the field-of-view image in the virtual space and the selected object, the user can select the game while referring to the game information in the virtual space.

付記11の構成によれば、端末装置は、HDMシステムが装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。   According to the configuration of Supplementary Note 11, the terminal device can provide a visual field image in the visual field direction in the virtual space so that the user can visually recognize the movement according to the movement of the head of the user wearing the HDM system.

(付記12)また、本発明の一態様に係るプログラムは、コンピュータを、請求項1から請求項11のいずれか一項に記載の端末装置として機能させるためのプログラムである。   (Additional remark 12) Moreover, the program which concerns on 1 aspect of this invention is a program for functioning a computer as a terminal device as described in any one of Claims 1-11.

付記12の構成によれば、プログラムは、視線位置と選択オブジェクトの判定領域との相対位置の変化を方向によって制限することができるため、選択肢に対して選択操作する際の操作性を向上することができる。   According to the configuration of Supplementary Note 12, since the program can limit the change in the relative position between the line-of-sight position and the determination area of the selected object depending on the direction, the operability when performing a selection operation on an option can be improved. Can do.

1 HMDシステム、2 アタッチメント、3R 右目用レンズ、3L 左目用レンズ、5 ストラップ、10 端末装置、11 入力部11、12 表示部、13 センサ、14 タイマ、15 記憶部、16 通信部、17 CPU、110 制御部、111 検出部、112 判定部、113 オブジェクト配置部、114 表示制御部   1 HMD system, 2 attachment, 3R lens for right eye, 3L lens for left eye, 5 strap, 10 terminal device, 11 input unit 11, 12 display unit, 13 sensor, 14 timer, 15 storage unit, 16 communication unit, 17 CPU, 110 control unit, 111 detection unit, 112 determination unit, 113 object placement unit, 114 display control unit

Claims (5)

両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、
前記端末装置の方向に関する情報を検出する検出部と、
前記仮想視点からの視線方向に対応する視線位置を視認可能とするための視線位置オブジェクトを前記仮想空間内に配置するとともに、ユーザからの選択の有無を判定する判定領域を有する複数の選択オブジェクトを前記仮想空間内において所定の方向に並べて配置するオブジェクト配置部と、
前記検出部の検出結果に応じて、前記仮想空間内に配置されている前記複数の選択オブジェクトの少なくとも一部と前記視線位置オブジェクトとを表示部に表示させる表示制御部と、
前記視線位置と前記複数の選択オブジェクトに含まれる一の選択オブジェクトの判定領域との相対位置が特定の状態であることの計時に基づいて、前記一の選択オブジェクトの選択の有無を判定する判定部、
を備え、
前記オブジェクト配置部は、
前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、当該視界方向の変化に基づいて前記複数の選択オブジェクトの並び方向への移動を制限しつつ前記選択オブジェクトを移動させる、
端末装置。
As a stereoscopic image using binocular parallax, a terminal device that can be used as at least a part of a head-mounted display system capable of displaying a visual field image representing a visual field from a virtual viewpoint in a virtual space,
A detection unit for detecting information on the direction of the terminal device;
A plurality of selection objects having a determination area for determining whether or not there is a selection from a user, while arranging a line-of-sight position object for enabling visual recognition of a line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint. An object arrangement unit arranged in a predetermined direction in the virtual space;
A display control unit that displays at least a part of the plurality of selection objects arranged in the virtual space and the line-of-sight position object on a display unit according to a detection result of the detection unit;
A determination unit that determines whether or not the one selected object is selected based on a time when the relative position between the line-of-sight position and the determination region of the one selected object included in the plurality of selected objects is in a specific state. ,
With
The object placement unit is
When it is determined that the view direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit, the plurality of selected objects are moved in the arrangement direction based on the change in the view direction. Moving the selected object while restricting,
Terminal device.
前記オブジェクト配置部は、
前記計時の状況を示すオブジェクトを前記仮想空間内に配置し、
前記表示制御部は、
前記検出部の検出結果に応じて前記仮想空間内に配置されている前記計時の状況を示すオブジェクトを前記表示部に表示させる、
請求項1に記載の端末装置。
The object placement unit is
An object indicating the timing situation is arranged in the virtual space,
The display control unit
According to the detection result of the detection unit, the display unit displays an object indicating the timing situation arranged in the virtual space.
The terminal device according to claim 1.
前記オブジェクト配置部は、
前記視線位置オブジェクトと前記複数の選択オブジェクトに含まれる一の選択オブジェクトとを前記仮想空間内の同一面に配置する、
請求項2に記載の端末装置。
The object placement unit is
Arranging the line-of-sight position object and one selection object included in the plurality of selection objects on the same plane in the virtual space;
The terminal device according to claim 2.
前記オブジェクト配置部は、
前記検出部の検出結果に基づいて前記仮想空間内の前記仮想視点からの視界方向が変化したと判定された場合、前記並び方向以外の方向については前記視線位置が前記選択オブジェクトの判定領域の前記並び方向と直交する方向の幅に収まるように、該視界方向の変化に応じて前記選択オブジェクトを移動させる、
請求項2または請求項3に記載の端末装置。
The object placement unit is
When it is determined that the view direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit, the line-of-sight position in the determination area of the selected object is the direction other than the arrangement direction. Moving the selected object according to the change in the viewing direction so as to be within the width of the direction orthogonal to the arrangement direction;
The terminal device according to claim 2 or claim 3.
コンピュータを、請求項1から請求項4のいずれか一項に記載の端末装置として機能させるためのプログラム。   The program for functioning a computer as a terminal device as described in any one of Claims 1-4.
JP2017206581A 2017-10-25 2017-10-25 Terminal device and program Active JP6312184B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017206581A JP6312184B2 (en) 2017-10-25 2017-10-25 Terminal device and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017206581A JP6312184B2 (en) 2017-10-25 2017-10-25 Terminal device and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2016130786A Division JP6238381B1 (en) 2016-06-30 2016-06-30 Terminal device and program

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2018042543A Division JP2018092672A (en) 2018-03-09 2018-03-09 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2018010702A true JP2018010702A (en) 2018-01-18
JP6312184B2 JP6312184B2 (en) 2018-04-18

Family

ID=60995573

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017206581A Active JP6312184B2 (en) 2017-10-25 2017-10-25 Terminal device and program

Country Status (1)

Country Link
JP (1) JP6312184B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235229A1 (en) * 2018-06-06 2019-12-12 ソニー株式会社 Information processing device and method, and program
JP2019215731A (en) * 2018-06-13 2019-12-19 富士通株式会社 Concentration evaluation program, device, and method
WO2020031490A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
JP2020149336A (en) * 2019-03-13 2020-09-17 株式会社リコー Information processor, display control method, and program

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (en) * 1997-02-10 1998-08-21 Sony Corp Information input device
JP2003280805A (en) * 2002-03-26 2003-10-02 Gen Tec:Kk Data inputting device
JP2008033891A (en) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd Display apparatus and control method thereof
JP5876607B1 (en) * 2015-06-12 2016-03-02 株式会社コロプラ Floating graphical user interface
JP2017510877A (en) * 2014-01-25 2017-04-13 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Menu navigation on head mounted display

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10222287A (en) * 1997-02-10 1998-08-21 Sony Corp Information input device
JP2003280805A (en) * 2002-03-26 2003-10-02 Gen Tec:Kk Data inputting device
JP2008033891A (en) * 2006-06-27 2008-02-14 Matsushita Electric Ind Co Ltd Display apparatus and control method thereof
JP2017510877A (en) * 2014-01-25 2017-04-13 ソニー インタラクティブ エンタテインメント アメリカ リミテッド ライアビリテイ カンパニー Menu navigation on head mounted display
JP5876607B1 (en) * 2015-06-12 2016-03-02 株式会社コロプラ Floating graphical user interface

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019235229A1 (en) * 2018-06-06 2019-12-12 ソニー株式会社 Information processing device and method, and program
JP2019215731A (en) * 2018-06-13 2019-12-19 富士通株式会社 Concentration evaluation program, device, and method
JP7139704B2 (en) 2018-06-13 2022-09-21 富士通株式会社 CONCENTRATION EVALUATION PROGRAM, APPARATUS, AND METHOD
WO2020031490A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
WO2020031493A1 (en) * 2018-08-08 2020-02-13 株式会社Nttドコモ Terminal device and method for controlling terminal device
JPWO2020031490A1 (en) * 2018-08-08 2021-08-02 株式会社Nttドコモ Terminal device and control method of terminal device
JPWO2020031493A1 (en) * 2018-08-08 2021-08-12 株式会社Nttドコモ Terminal device and control method of terminal device
JP6999822B2 (en) 2018-08-08 2022-01-19 株式会社Nttドコモ Terminal device and control method of terminal device
JP6999821B2 (en) 2018-08-08 2022-02-04 株式会社Nttドコモ Terminal device and control method of terminal device
JP2020149336A (en) * 2019-03-13 2020-09-17 株式会社リコー Information processor, display control method, and program
JP7215254B2 (en) 2019-03-13 2023-01-31 株式会社リコー Information processing device, display control method, and program

Also Published As

Publication number Publication date
JP6312184B2 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
JP6312184B2 (en) Terminal device and program
JP6236691B1 (en) Terminal device and program
JP6250592B2 (en) Head mounted display, information processing apparatus, display control method, and program
JP5981591B1 (en) Computer program and computer system for controlling object operations in an immersive virtual space
US20180321798A1 (en) Information processing apparatus and operation reception method
JP6238381B1 (en) Terminal device and program
US10609437B2 (en) Method for providing content using a head-mounted device, system for executing the method, and content display device
CN111052063B (en) Electronic device and control method thereof
CN110585704B (en) Object prompting method, device, equipment and storage medium in virtual scene
JP2017187952A (en) Display control method and program for causing computer to execute the method
JP6277567B1 (en) Terminal device and program
JP2006276748A (en) Information presenting device, information presenting method, and computer program
JP2012216073A (en) Image processor, image processor control method, and program
JP6284112B2 (en) Terminal device and program
JP5950701B2 (en) Image display system, puzzle game system, image display method, puzzle game method, image display device, puzzle game device, image display program, and puzzle game program
JP2018092672A (en) Terminal device and program
JP2016181302A (en) Computer program and computer system for controlling object operation in immersive virtual space
JP6935921B2 (en) Terminal devices and programs
JP6780865B2 (en) Terminal devices and programs
JP6159455B1 (en) Method, program, and recording medium for providing virtual space
US11861060B2 (en) Recording medium for selecting objects using head mounted display, information processing system, and information processing method
JP6383083B2 (en) Terminal device and program
JP6380963B2 (en) Terminal device and program
JP6332658B1 (en) Display control apparatus and program
JP6169462B2 (en) Information processing apparatus and information processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171122

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20171208

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20180206

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180220

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180314

R150 Certificate of patent or registration of utility model

Ref document number: 6312184

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250