JP6935921B2 - Terminal devices and programs - Google Patents

Terminal devices and programs Download PDF

Info

Publication number
JP6935921B2
JP6935921B2 JP2018008341A JP2018008341A JP6935921B2 JP 6935921 B2 JP6935921 B2 JP 6935921B2 JP 2018008341 A JP2018008341 A JP 2018008341A JP 2018008341 A JP2018008341 A JP 2018008341A JP 6935921 B2 JP6935921 B2 JP 6935921B2
Authority
JP
Japan
Prior art keywords
line
determination area
sight
selected object
terminal device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018008341A
Other languages
Japanese (ja)
Other versions
JP2018088268A (en
Inventor
淳一 谷口
淳一 谷口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Konami Digital Entertainment Co Ltd
Original Assignee
Konami Digital Entertainment Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2017195897A external-priority patent/JP6284112B2/en
Application filed by Konami Digital Entertainment Co Ltd filed Critical Konami Digital Entertainment Co Ltd
Priority to JP2018008341A priority Critical patent/JP6935921B2/en
Publication of JP2018088268A publication Critical patent/JP2018088268A/en
Application granted granted Critical
Publication of JP6935921B2 publication Critical patent/JP6935921B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Description

本発明は、端末装置、及びプログラムに関する。 The present invention relates to terminal devices and programs.

ユーザの頭部に装着し、該ユーザの眼前に配置されたディスプレイに仮想空間における画像を表示可能なヘッドマウントディスプレイ(HMD:Head Mounted Display)がある。例えば、HMDを利用したゲームでは、頭部に装着するディスプレイの他、手に持って操作されるコントローラ等のデバイスを併用してゲームをプレイするものがある。しかしながら、ユーザはHMDによって現実空間への視界が覆われており手元を観察できないため、コントローラから一旦指が離れた場合などに誤操作が発生することがあった。そこで、頭部の傾き等の動きを検出して、選択肢の表示/非表示操作などを行うHMDがある(例えば、特許文献1)。 There is a head-mounted display (HMD: Head Mounted Display) that can be worn on the user's head and displayed on a display arranged in front of the user's eyes to display an image in a virtual space. For example, in a game using an HMD, in addition to a display worn on the head, there is a game in which a device such as a controller that is held and operated by a hand is used in combination to play the game. However, since the user cannot observe the hand because the field of view to the real space is covered by the HMD, an erroneous operation may occur when the finger is once separated from the controller. Therefore, there is an HMD that detects a movement such as a tilt of the head and performs a display / non-display operation of options (for example, Patent Document 1).

また、近年、スマートフォンなどの高性能化に伴いスマートフォンなどをHMDとして利用するものがある。例えば、簡易的なアタッチメントを用いてスマートフォンを頭部に装着することで、HMDとして利用することができる。この場合、頭部へ装着されることにより、スマートフォンに備えられているタッチパネル等の入力デバイスが利用できなくなる。そのため、例えばスマートフォンに内蔵されたジャイロなどのセンサを利用して頭部の動きを検出することで、HMDに表示される選択肢に対する操作を実現する必要がある。 Further, in recent years, as the performance of smartphones and the like has improved, some smartphones and the like are used as HMDs. For example, by attaching a smartphone to the head using a simple attachment, it can be used as an HMD. In this case, when the smartphone is attached to the head, the input device such as the touch panel provided on the smartphone cannot be used. Therefore, for example, it is necessary to realize the operation for the options displayed on the HMD by detecting the movement of the head using a sensor such as a gyro built in the smartphone.

特許第5767386号公報Japanese Patent No. 5767386

HMDに表示される選択肢に対して頭部の動きを用いて操作を行う場合、頭部の方向を特定の範囲内(選択肢の判定領域の範囲内)に向けておき、その状態で所定時間(例えば3秒など)経過した場合に選択が確定されるようにする操作方法がある。しかしながら、このような操作方法では、数多くの選択肢から選択しなければならないような場合、HMDに表示される一つ一つの選択肢の判定領域の範囲が小さなものとなるため、不安定な頭部の動きで操作を行うと、判定領域の範囲から意図せず外れてしまう等の誤入力が発生し、操作性が悪かった。 When operating the options displayed on the HMD using the movement of the head, the direction of the head is set within a specific range (within the range of the determination area of the options), and in that state, a predetermined time ( For example, there is an operation method in which the selection is confirmed when 3 seconds have passed. However, in such an operation method, when it is necessary to select from a large number of options, the range of the judgment area of each option displayed on the HMD becomes small, so that the head is unstable. When the operation was performed by movement, erroneous input such as unintentionally deviating from the range of the judgment area occurred, and the operability was poor.

本発明のいくつかの態様は、HMDに表示される選択肢に対して選択操作する際の操作性を向上する端末装置、及びプログラムを提供することを目的の一つとする。 One of the objects of the present invention is to provide a terminal device and a program for improving operability when performing a selection operation on an option displayed on an HMD.

また、本発明の他の態様は、後述する実施形態に記載した作用効果を奏することを可能にする端末装置、及びプログラムを提供することを目的の一つとする。 Another object of the present invention is to provide a terminal device and a program capable of exerting the effects described in the embodiments described later.

上述した課題を解決するために、本発明の一態様は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、前記端末装置の方向に関する情報を検出する検出部と、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、前記仮想空間内に配置するオブジェクト配置部と、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向に配置されている前記選択オブジェクトを表示部に表示させる表示制御部と、を備え、前記オブジェクト配置部は、前記仮想空間における前記仮想視点からの視線方向に対応する視線位置と前記選択オブジェクトの判定領域との位置関係に基づいて、前記選択オブジェクトの判定領域を変更する、端末装置である。 In order to solve the above-mentioned problems, one aspect of the present invention is at least a head-mounted display system capable of displaying a view image representing a view from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. A terminal device that can be used as a part and has a detection unit that detects information about the direction of the terminal device and a selection object that has a determination area that determines whether or not there is a selection from the user is arranged in the virtual space. The object is provided with an object arranging unit and a display control unit for displaying the selected object arranged in the view direction from the virtual viewpoint in the virtual space on the display unit according to the detection result of the detection unit. The arrangement unit is a terminal device that changes the determination area of the selected object based on the positional relationship between the line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint in the virtual space and the determination area of the selected object.

また、本発明の一態様は、コンピュータを、上記の端末装置として機能させるためのプログラムである。 Further, one aspect of the present invention is a program for making a computer function as the above-mentioned terminal device.

第1の実施形態に係るHMDシステムの一例を示す外観図。The external view which shows an example of the HMD system which concerns on 1st Embodiment. 第1の実施形態に係る端末装置のハードウェア構成の一例を示す図。The figure which shows an example of the hardware configuration of the terminal apparatus which concerns on 1st Embodiment. 第1の実施形態に係る仮想空間の方向の定義を示す図。The figure which shows the definition of the direction of the virtual space which concerns on 1st Embodiment. 第1の実施形態に係る視界方向と視線位置との説明図。Explanatory drawing of a field of view direction and a line-of-sight position which concerns on 1st Embodiment. 選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen. 視線位置が選択オブジェクトに重なった選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which the line-of-sight position overlaps with the selection object. 判定領域が変化した選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which changed the judgment area. 選択オブジェクトの選択が確定したときの選択メニュー画面例を示す図。The figure which shows the selection menu screen example when the selection of a selection object is confirmed. 選択オブジェクトの数が多い場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when the number of selection objects is large. 視線位置が選択オブジェクトに重なった選択メニュー画面例を示す図。The figure which shows the selection menu screen example which the line-of-sight position overlaps with the selection object. 第1の実施形態に係る端末装置の機能構成の一例を示すブロック図。The block diagram which shows an example of the functional structure of the terminal apparatus which concerns on 1st Embodiment. 第1の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。The flowchart which shows an example of the object arrangement processing which concerns on 1st Embodiment. 第1の実施形態に係る選択オブジェクトの判定処理の一例を示すフローチャート。The flowchart which shows an example of the determination process of the selection object which concerns on 1st Embodiment. 視線位置と選択オブジェクトの判定領域とが重なっている選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen where the line-of-sight position and the judgment area of a selection object overlap. 視線位置と選択オブジェクトの判定領域とが重ならない状態になった選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen in which the line-of-sight position and the judgment area of a selection object do not overlap. 第1の実施形態に係る選択オブジェクトの判定処理の一例を示すフローチャート。The flowchart which shows an example of the determination process of the selection object which concerns on 1st Embodiment. 第2の実施形態に係る選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which concerns on 2nd Embodiment. ユーザの視界方向がピッチ方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when the user's field of view changes in the pitch direction. ユーザの視界方向がヨー方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when the user's field of view changes in the yaw direction. ユーザの視界方向がロール方向に変化した場合の選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen when the user's field of view changes to the roll direction. 第2の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。The flowchart which shows an example of the object arrangement processing which concerns on 2nd Embodiment. 第3の実施形態に係る選択メニュー画面の一例を示す図。The figure which shows an example of the selection menu screen which concerns on 3rd Embodiment. 第3の実施形態に係るオブジェクト配置処理の一例を示すフローチャート。The flowchart which shows an example of the object arrangement processing which concerns on 3rd Embodiment.

以下、本発明の一実施形態について、図面を参照して説明する。
[第1の実施形態]
本発明の第1の実施形態について説明する。
図1は、本実施形態に係るHMD(Head Mounted Display)システムの一例を示す外観図である。HMDは、ユーザの頭部に装着され、仮想空間内の仮想視点からの視界を表す視界画像を表示可能である。例えば、HMDは、右目と左目との両眼視差を利用した立体視画像を表示可能である。また、HMDは、ジャイロ等のHMDの動きや傾きを検知するセンサを搭載しており、装着されているユーザの頭部の動きや傾きの変化などを検知し、その変化に応じてディスプレイに仮想空間の視界方向の視界画像を表示する。例えば、HMDに映し出される視界画像は、ユーザの頭部が右方向を向けば仮想空間内の右方向の視界画像に変化し、上をむけば仮想空間内の上方向の視界画像に変化し、あたかもその場にいるような没入感をユーザに与えることができる。
Hereinafter, an embodiment of the present invention will be described with reference to the drawings.
[First Embodiment]
The first embodiment of the present invention will be described.
FIG. 1 is an external view showing an example of an HMD (Head Mounted Display) system according to the present embodiment. The HMD is attached to the user's head and can display a visual field image representing the visual field from a virtual viewpoint in the virtual space. For example, the HMD can display a stereoscopic image using the binocular parallax between the right eye and the left eye. In addition, the HMD is equipped with a sensor that detects the movement and tilt of the HMD such as a gyro, detects changes in the movement and tilt of the head of the user who is wearing it, and virtualizes it on the display according to the change. Display a view image in the view direction of space. For example, the visual field image projected on the HMD changes to a rightward visual field image in the virtual space when the user's head is turned to the right, and changes to an upward visual field image in the virtual space when the user's head is turned upward. You can give the user an immersive feeling as if you were there.

図示するHMDシステム1は、表示部12を備えた端末装置10をアタッチメント2に取り付けることで、端末装置10をHMDとして利用可能な構成である。アタッチメント2は、ユーザの頭部に装着された状態でユーザの正面の視界を覆うように端末装置10が取り付け可能であり、取り付けられた端末装置10の表示部12を視認するための右目用レンズ3R及び左目用レンズ3Lと、HMDシステム1をユーザの頭部に装着するためのストラップ5とを備えている。ユーザは、HMDシステム1を頭部に装着することで、端末装置10に表示される視界画像を、右目用レンズ3R及び左目用レンズ3Lを介して視認できる。 The illustrated HMD system 1 has a configuration in which the terminal device 10 can be used as an HMD by attaching the terminal device 10 provided with the display unit 12 to the attachment 2. The attachment 2 can be attached to the terminal device 10 so as to cover the front view of the user while being attached to the user's head, and is a lens for the right eye for visually recognizing the display unit 12 of the attached terminal device 10. It includes a 3R and a left eye lens 3L, and a strap 5 for attaching the HMD system 1 to the user's head. By attaching the HMD system 1 to the head, the user can visually recognize the field of view image displayed on the terminal device 10 through the right eye lens 3R and the left eye lens 3L.

〔端末装置10のハードウェア構成〕
端末装置10は、HMDシステム1の少なくとも一部として利用可能な携帯型のコンピュータ装置であり、スマートフォンやフィーチャーフォン等の携帯電話機、携帯情報端末(PDA:Personal Digital Assistant)、タブレットPC、家庭用ゲーム機、等が適用できる。本実施形態では、端末装置10はスマートフォンであるとして説明する。
[Hardware configuration of terminal device 10]
The terminal device 10 is a portable computer device that can be used as at least a part of the HMD system 1, and is a mobile phone such as a smartphone or a feature phone, a personal digital assistant (PDA), a tablet PC, or a home game. Machines, etc. can be applied. In the present embodiment, the terminal device 10 will be described as a smartphone.

図2は、端末装置10のハードウェア構成の一例を示す図である。端末装置10は、例えば、表示部12と、センサ13と、タイマ14と、記憶部15と、通信部16と、CPU(Central Processing Unit)17と、を備えている。 FIG. 2 is a diagram showing an example of the hardware configuration of the terminal device 10. The terminal device 10 includes, for example, a display unit 12, a sensor 13, a timer 14, a storage unit 15, a communication unit 16, and a CPU (Central Processing Unit) 17.

表示部12は、画像やテキスト等の情報を表示するディスプレイであり、例えば、液晶ディスプレイパネル、有機EL(ElectroLuminescence)ディスプレイパネルなどを含んで構成される。例えば、表示部12は、仮想空間内の仮想視点からの視界画像として、両眼視差を利用した立体視画像(右目用画像及び左目用画像)を表示する。また、表示部12は、仮想空間内に配置された各種オブジェクトを視界画像とともに表示する。各種オブジェクトとは、例えば、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)、仮想視点からの視線方向に対応する視線位置を視認可能とするためのオブジェクト等のユーザーインターフェース(UI)用として表示するためのオブジェクトである。 The display unit 12 is a display for displaying information such as an image or text, and includes, for example, a liquid crystal display panel, an organic EL (Electroluminescence) display panel, and the like. For example, the display unit 12 displays a stereoscopic image (right eye image and left eye image) using binocular parallax as a visual field image from a virtual viewpoint in the virtual space. In addition, the display unit 12 displays various objects arranged in the virtual space together with the field of view image. The various objects are, for example, user interfaces such as a selection object (choice) having a determination area for determining whether or not a user has selected, and an object for making it possible to visually recognize the line-of-sight position corresponding to the line-of-sight direction from a virtual viewpoint. It is an object to be displayed for UI).

センサ13は、端末装置10の方向に関する情報を検知するセンサである。例えば、センサ13は、物体の角度、角速度、角加速度等を検知するジャイロセンサである。なお、センサ13は、方向の変化を検知するセンサであってもよいし、方向そのものを検知するセンサであってもよい。例えば、センサ13は、ジャイロセンサに限られるものではなく、加速度センサ、傾斜センサ、地磁気センサ等であってもよい。 The sensor 13 is a sensor that detects information regarding the direction of the terminal device 10. For example, the sensor 13 is a gyro sensor that detects an angle, an angular velocity, an angular acceleration, or the like of an object. The sensor 13 may be a sensor that detects a change in direction, or may be a sensor that detects the direction itself. For example, the sensor 13 is not limited to the gyro sensor, but may be an acceleration sensor, an inclination sensor, a geomagnetic sensor, or the like.

タイマ14は、時間を計測する計時機能を有する。 The timer 14 has a timekeeping function for measuring time.

記憶部15は、例えば、HDD(Hard Disk Drive)やSSD(Solid State Drive)、EEPROM(Electrically Erasable Programmable Read-Only Memory)、ROM(Read-Only Memory)、RAM(Random Access Memory)などを含み、仮想空間データ(画像データ)や、仮想空間内に配置されるオブジェクトのデータ、仮想空間を用いたゲームのプログラム等を記憶する。 The storage unit 15 includes, for example, an HDD (Hard Disk Drive), an SSD (Solid State Drive), an EEPROM (Electrically Erasable Programmory), a ROM (Read-One Memory), a ROM (Read-One Memory), and a ROM (Read-One Memory). Stores virtual space data (image data), data of objects placed in the virtual space, game programs using the virtual space, and the like.

通信部16は、ネットワークNWを介して、他の装置と通信を行う。 The communication unit 16 communicates with another device via the network NW.

CPU17は、端末装置10が備える各部を制御する制御中枢として機能する。例えば、CPU17は、記憶部15に記憶された各種プログラムを実行することで、端末装置10の各部を制御する制御部として機能する。 The CPU 17 functions as a control center that controls each unit included in the terminal device 10. For example, the CPU 17 functions as a control unit that controls each unit of the terminal device 10 by executing various programs stored in the storage unit 15.

上述した各構成は、バス(Bus)を介して相互に通信可能に接続されている。また、端末装置10は、不図示のスピーカ、音声出力端子、カメラ、GPS(Global Positioning System)受信モジュール、ユーザの操作入力を受け付ける操作ボタンまたはタッチパネルなどのハードウェア構成を含んで構成されてもよい。 Each of the above-described configurations is communicably connected to each other via a bus. Further, the terminal device 10 may be configured to include a hardware configuration such as a speaker (not shown), an audio output terminal, a camera, a GPS (Global Positioning System) receiving module, an operation button for receiving a user's operation input, or a touch panel. ..

例えば、端末装置10は、HMDを利用したゲームのプログラムを実行する。このゲームは、ユーザがHMDシステム1を装着した状態で、表示部12に表示される視界画像(ゲーム画面)の視野範囲を頭部の向きなどを変えて変更しながらプレイするものである。端末装置10は、センサ13の検知結果に基づいて端末装置10の方向に関する情報を検出し、検出結果に基づいて視界方向の視界画像(ゲーム画面)を表示部12に表示させる。また、端末装置10は、ユーザによる選択操作の入力を受け付ける場合、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)を仮想空間内に配置し、視界画像とともに表示部12に表示させる。 For example, the terminal device 10 executes a game program using the HMD. This game is played while the user is wearing the HMD system 1 and changes the visual field range of the visual field image (game screen) displayed on the display unit 12 by changing the direction of the head or the like. The terminal device 10 detects information regarding the direction of the terminal device 10 based on the detection result of the sensor 13, and causes the display unit 12 to display a field of view image (game screen) in the field of view based on the detection result. Further, when the terminal device 10 accepts the input of the selection operation by the user, the terminal device 10 arranges a selection object (choice) having a determination area for determining the presence or absence of selection from the user in the virtual space, and displays the view image together with the display unit 12. Display it.

〔仮想空間における定義〕
図3は、本実施形態に係る仮想空間の方向の定義を示す図である。本実施形態では、ユーザが直立する方向である垂直方向をZ軸とし、Z軸に直交する軸であってユーザと表示部12とを結ぶ方向をX軸とし、Z軸及びX軸と直交する軸をY軸とする。
[Definition in virtual space]
FIG. 3 is a diagram showing a definition of the direction of the virtual space according to the present embodiment. In the present embodiment, the vertical direction in which the user stands upright is defined as the Z axis, the axis orthogonal to the Z axis and the direction connecting the user and the display unit 12 is defined as the X axis, and is orthogonal to the Z axis and the X axis. Let the axis be the Y axis.

ここで、Z軸を軸とした回転方向への変化をヨー方向(左右方向)への変化ともいい、Y軸を軸とした回転方向への変化をピッチ方向(上下方向)への変化ともいい、X軸を軸とした回転方向への変化をロール方向への変化ともいう。例えば、上述したセンサ13は、各軸の回転方向(ヨー方向、ピッチ方向、およびロール方向)の角速度または角加速度を検知する。なお、ヨー方向への変化を左右方向への変化、ピッチ方向への変化を上下方向への変化、ともいうことがある。 Here, a change in the rotation direction about the Z axis is also referred to as a change in the yaw direction (horizontal direction), and a change in the rotation direction about the Y axis is also referred to as a change in the pitch direction (vertical direction). , The change in the rotation direction about the X axis is also referred to as the change in the roll direction. For example, the sensor 13 described above detects the angular velocity or the angular acceleration in the rotation direction (yaw direction, pitch direction, and roll direction) of each axis. The change in the yaw direction may be referred to as a change in the left-right direction, and a change in the pitch direction may be referred to as a change in the up-down direction.

図4は、本実施形態に係る視界方向と視線位置との説明図である。この図において、仮想空間内の仮想視点K(ユーザの仮想視点)をX軸、Y軸、及びZ軸の交点(原点)とし、ユーザの視線方向をX軸方向とすると、仮想視点からの視界方向の視界画像の範囲(即ち、視界)は、視線方向(X軸方向)を中心としたヨー角α(破線aと破線bとの内角、及び破線cと破線dとの内角)とピッチ角β(破線aと破線dとの内角、及び破線bと破線cとの内角)とで定まる範囲である。ここで、ヨー角α及びピッチ角βは、HMDシステム1に表示させる仮想空間の視界画像の画角として予め設定された角度である。ユーザの頭部がピッチ方向またはヨー方向に変化すると、その変化に応じて視線方向がX軸方向からピッチ方向またはヨー方向に変化し、視界方向もピッチ方向またはヨー方向に変化する。また、ユーザの頭部がロール方向に変化すると、視線方向はX軸方向のまま、視界方向がロール方向に回転する。 FIG. 4 is an explanatory diagram of a field of view direction and a line of sight position according to the present embodiment. In this figure, assuming that the virtual viewpoint K (user's virtual viewpoint) in the virtual space is the intersection (origin) of the X-axis, the Y-axis, and the Z-axis, and the user's line-of-sight direction is the X-axis direction, the view from the virtual viewpoint is set. The range of the view image in the direction (that is, the view) is the yaw angle α (internal angle between the broken line a and the broken line b and the internal angle between the broken line c and the broken line d) and the pitch angle centered on the line-of-sight direction (X-axis direction). It is a range determined by β (internal angle between the broken line a and the broken line d and the internal angle between the broken line b and the broken line c). Here, the yaw angle α and the pitch angle β are angles set in advance as the angle of view of the visual field image of the virtual space to be displayed on the HMD system 1. When the user's head changes in the pitch direction or the yaw direction, the line-of-sight direction changes from the X-axis direction to the pitch direction or the yaw direction according to the change, and the line-of-sight direction also changes in the pitch direction or the yaw direction. Further, when the user's head changes in the roll direction, the line-of-sight direction remains in the X-axis direction and the line-of-sight direction rotates in the roll direction.

また、仮想空間内には、各種のオブジェクトが必要に応じて配置される。例えば、仮想空間内の視線方向に直交する同一面(同一レイヤ)に各種のオブジェクトが配置される。例えば、図示するように仮想空間内においてオブジェクトが配置される面を面L1とすると、視線位置を視認可能とするためのオブジェクトである視線位置P1が、この面L1において視界方向の範囲を示す破線a、b、c、dとの交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の中央(即ち、面L1とX軸の交点)に配置される。なお、視線位置P1が配置される位置は、面L1において、交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)の中央に限らず、他の位置(例えば、中央より若干下の位置など)に配置されてもよい。また、仮想空間内の面L1に、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクト(選択肢)が配置される。判定領域は、面(2次元形状)であってもよいし、立体(3次元形状)であってもよい。例えば、この面L1と破線a、b、c、dとの交点a1、b1、c1、d1を頂点とした四角形で囲まれる範囲(視界)に配置される選択オブジェクト(選択肢)と、視線位置P1とが視界画像とともに表示部12に表示されることになる。 In addition, various objects are arranged in the virtual space as needed. For example, various objects are arranged on the same plane (same layer) orthogonal to the line-of-sight direction in the virtual space. For example, assuming that the surface on which the object is arranged in the virtual space is a surface L1 as shown in the figure, the line-of-sight position P1 which is an object for making the line-of-sight position visible is a broken line indicating a range in the view direction on this surface L1. It is arranged at the center of the range (view) surrounded by the quadrangle with the intersections a, b, c, and d having a1, b1, c1, and d1 as the vertices (that is, the intersection of the plane L1 and the X axis). The position where the line-of-sight position P1 is arranged is not limited to the center of the range (field of view) surrounded by the quadrangle with the intersections a1, b1, c1, and d1 as the vertices on the surface L1, and is not limited to the center of other positions (for example, from the center). It may be placed at a position slightly below). Further, a selection object (choice) having a determination area for determining the presence / absence of selection from the user is arranged on the surface L1 in the virtual space. The determination region may be a surface (two-dimensional shape) or a three-dimensional shape (three-dimensional shape). For example, a selection object (choice) arranged in a range (field of view) surrounded by a quadrangle having the intersections a1, b1, c1, and d1 of the surface L1 and the broken lines a, b, c, and d1 as vertices, and a line-of-sight position P1. Will be displayed on the display unit 12 together with the field of view image.

ユーザの頭部がピッチ方向またはヨー方向に変化すると、その変化に応じて視界方向及び視線方向がピッチ方向またはヨー方向に変化するため、視線位置P1は、視線方向に対応する位置(視界画像の中央)に表示されるように移動する。また、ユーザの頭部がロール方向に変化した場合、視線位置P1は、配置されている位置のままロール方向の変化に応じて回転する。一方、選択オブジェクトは、視界方向がピッチ方向、ヨー方向、またはロール方向に変化しても配置されている位置から移動しない。つまり、視界方向が変化した場合、変化した視界の中に配置されている選択オブジェクトが表示される。 When the user's head changes in the pitch direction or the yaw direction, the line-of-sight direction and the line-of-sight direction change in the pitch direction or the yaw direction according to the change. Move so that it is displayed in the center). Further, when the user's head changes in the roll direction, the line-of-sight position P1 rotates according to the change in the roll direction while maintaining the arranged position. On the other hand, the selected object does not move from the arranged position even if the field of view changes in the pitch direction, the yaw direction, or the roll direction. That is, when the field of view changes, the selected objects placed in the changed field of view are displayed.

なお、両眼視差を利用した立体視画像を表示する場合、右目用と左目用のそれぞれの仮想視点に対応する視界方向及び視線方向があり、それぞれの視界方向及び視線方向の視界画像と各種オブジェクトとが含まれる右目用画像と左目用画像が表示されるが、本実施形態では、説明を容易にするために右目用と左目用とを区別せずに説明する。 When displaying a stereoscopic image using binocular parallax, there are a visual field direction and a visual field direction corresponding to each virtual viewpoint for the right eye and a left eye, and the visual field image and various objects in the respective visual field directions and the visual field directions. An image for the right eye and an image for the left eye including the above are displayed, but in the present embodiment, the image for the right eye and the image for the left eye will be described without distinction for the sake of simplicity.

〔選択オブジェクトの表示例と操作例〕
次に、選択オブジェクトの表示例と操作例について説明する。以下において、複数の選択オブジェクトが選択可能に表示部12に表示される画面を「選択メニュー画面」ともいうこととする。選択メニュー画面は、仮想空間における視界方向の視界画像を背景画像として、同じく仮想空間に配置されている選択オブジェクトと、視線方向に対応する視線位置P1とが表示される画面である。
[Display example and operation example of selected object]
Next, a display example and an operation example of the selected object will be described. In the following, a screen in which a plurality of selected objects can be selected and displayed on the display unit 12 is also referred to as a “selection menu screen”. The selection menu screen is a screen in which a selection object also arranged in the virtual space and a line-of-sight position P1 corresponding to the line-of-sight direction are displayed using a field-of-view image in the field-of-view direction in the virtual space as a background image.

図5は、選択メニュー画面の一例を示す図である。図示する選択メニュー画面G10には、仮想空間内の視線方向に対応する視線位置に配置されているオブジェクトである視線位置P1が画面の中央に表示されている。また、仮想空間内に配置されているそれぞれ4つの選択オブジェクトがZ軸方向に並ぶ2つの列が左右に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、及び選択肢Gの4つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、及び選択肢Hの4つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。ここでは、選択オブジェクトの表示領域が、選択の有無を判定する判定領域であるものとする。なお、選択オブジェクトの表示領域と、選択の有無を判定する判定領域とは、異なる領域であってもよい。視線位置P1がいずれの選択オブジェクトの判定領域とも視線方向において重ならない位置関係にあるため、いずれの選択オブジェクト(選択肢)も選択されていない状態である。 FIG. 5 is a diagram showing an example of the selection menu screen. On the illustrated selection menu screen G10, the line-of-sight position P1 which is an object arranged at the line-of-sight position corresponding to the line-of-sight direction in the virtual space is displayed in the center of the screen. In addition, two columns in which four selected objects arranged in the virtual space are arranged in the Z-axis direction are displayed side by side with a predetermined interval on the left and right. In the left column, four selection objects of option A, option C, option E, and option G are displayed side by side at predetermined intervals in the Z-axis direction. In the right column, four selection objects of option B, option D, option F, and option H are displayed side by side at predetermined intervals in the Z-axis direction. Here, it is assumed that the display area of the selected object is a determination area for determining the presence / absence of selection. The display area of the selected object and the determination area for determining the presence / absence of selection may be different areas. Since the line-of-sight position P1 does not overlap with the determination area of any of the selected objects in the line-of-sight direction, none of the selected objects (choices) is selected.

図5に示す選択メニュー画面G10が表示されている状態で、ユーザの頭部の向きが変化すると、選択オブジェクトと視線位置P1との相対位置が変化する。視線位置P1は、頭部の向きの変化に応じて視線位置を保つように追従し移動するため、画面の中央に固定されて表示される。一方、選択オブジェクトは、頭部の向きの変化に応じて視界方向が変化するため、その視界方向の変化に応じて画面上では移動する。 When the direction of the user's head changes while the selection menu screen G10 shown in FIG. 5 is displayed, the relative position between the selected object and the line-of-sight position P1 changes. The line-of-sight position P1 is fixed and displayed in the center of the screen because it follows and moves so as to maintain the line-of-sight position in response to a change in the direction of the head. On the other hand, since the viewing direction of the selected object changes according to the change in the direction of the head, the selected object moves on the screen according to the change in the viewing direction.

図6は、視線位置P1が選択オブジェクトに重なった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G11では、視線位置P1と選択肢Cとが、視線方向において重なる位置関係となっている。視線位置P1が選択オブジェクトの判定領域に重なると、その選択オブジェクト(ここでは、選択肢C)の判定領域が変化する。 FIG. 6 is a diagram showing an example of a selection menu screen in which the line-of-sight position P1 overlaps the selection object. In the illustrated selection menu screen G11, the line-of-sight position P1 and the option C have an overlapping positional relationship in the line-of-sight direction. When the line-of-sight position P1 overlaps the determination area of the selected object, the determination area of the selected object (here, option C) changes.

図7は、判定領域が変化した選択メニュー画面の一例を示す図である。図示する選択メニュー画面G12において、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の判定領域が拡大されている。これにより、選択しようとしている選択オブジェクトの判定領域内に視線位置P1を維持しやすくなり、誤って判定領域外に視線位置P1を移動させてしまう誤操作を防止しやすくなる。 FIG. 7 is a diagram showing an example of a selection menu screen in which the determination area has changed. In the illustrated selection menu screen G12, the determination area of the selection object (here, option C) in which the line-of-sight position P1 overlaps the determination area is expanded. As a result, it becomes easy to maintain the line-of-sight position P1 in the determination area of the selected object to be selected, and it becomes easy to prevent an erroneous operation of accidentally moving the line-of-sight position P1 out of the determination area.

なお、選択オブジェクトの判定領域の拡大は、仮想空間内に配置する判定領域を拡大する方法でもよいし、判定領域の大きさはそのままで配置する位置をユーザ(仮想視点K)に近づけることで選択オブジェクトより相対的に拡大されて表示されるようにしてもよい。また、ここでは、選択肢Cの判定領域と同様に表示領域も拡大されているが、選択肢Cの判定領域のみ拡大し、表示領域は拡大されなくてもよい。 The judgment area of the selected object may be expanded by expanding the judgment area to be arranged in the virtual space, or by moving the position to be arranged while keeping the size of the judgment area closer to the user (virtual viewpoint K). It may be displayed in a larger size than the object. Further, here, the display area is expanded in the same manner as the determination area of option C, but only the determination area of option C may be expanded and the display area may not be expanded.

また、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の表示色が変更されてもよい。例えば、視線位置P1が判定領域に重なっていない選択オブジェクトの表示色が青であり、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の表示色が青から赤に変更してもよい。これにより、選択されていることがより視認しやすくなる。このように、選択オブジェクトの判定領域を拡大する場合、選択オブジェクトの表示態様を変更してもよい。 Further, the display color of the selected object (here, option C) in which the line-of-sight position P1 overlaps the determination area may be changed. For example, the display color of the selected object whose line-of-sight position P1 does not overlap the determination area is blue, and the display color of the selected object whose line-of-sight position P1 overlaps the determination area (here, option C) is changed from blue to red. You may. This makes it easier to see what is selected. In this way, when expanding the determination area of the selected object, the display mode of the selected object may be changed.

また、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の近傍に、視線位置P1が判定領域に重なってからの経過時間を視認可能とするためのオブジェクトである経過時間ゲージT1が配置されて表示される。例えば、経過時間ゲージT1は、円形状のゲージであり、視線位置P1が判定領域に重なってから時間の経過と共に円状にバーが増加していき、所定時間以上経過するとこの円状に増加するバーが一周分に伸びる。ここで、上記の所定時間とは、選択オブジェクトの選択の有無を決定するための閾値として予め設定された判定時間であり、視線位置P1が判定領域に重なってからの経過時間が所定時間以上となった場合に、その判定領域の選択オブジェクトが選択されたとして決定される。一方、視線位置P1が判定領域に重なってからの経過時間が所定時間未満の場合には、その判定領域の選択オブジェクトはまだ選択されていないと判定される。例えば、この円状に増加するバーが一周分になる前に、視線位置P1が判定領域から外れた場合、その判定領域の選択オブジェクトは選択されていないものと判定され、計測時間(経過時間)がリセットされる。 Further, the elapsed time, which is an object for making it possible to visually recognize the elapsed time since the line-of-sight position P1 overlaps the determination area in the vicinity of the selected object (here, option C) in which the line-of-sight position P1 overlaps the determination area. The gauge T1 is arranged and displayed. For example, the elapsed time gauge T1 is a circular gauge, and the bars increase in a circular shape with the passage of time after the line-of-sight position P1 overlaps the determination region, and the bars increase in a circular shape when a predetermined time or more elapses. The bar stretches around. Here, the above-mentioned predetermined time is a determination time preset as a threshold value for determining whether or not the selected object is selected, and the elapsed time after the line-of-sight position P1 overlaps the determination area is the predetermined time or more. When becomes, it is determined that the selected object in the determination area is selected. On the other hand, when the elapsed time from the line-of-sight position P1 overlapping the determination area is less than a predetermined time, it is determined that the selected object in the determination area has not been selected yet. For example, if the line-of-sight position P1 deviates from the determination area before the bar increasing in a circle becomes one round, it is determined that the selected object in the determination area is not selected, and the measurement time (elapsed time). Is reset.

一方、経過時間ゲージT1の円状に増加するバーが一周分になると、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)の選択が確定する。
図8は、選択オブジェクトの選択が確定したときの選択メニュー画面の一例を示す図である。図示する選択メニュー画面G13において、経過時間ゲージT1の円状に増加するバーが一周分に伸び、視線位置P1が判定領域に重なっている選択オブジェクト(ここでは、選択肢C)が選択されたことが確定される。このとき、仮想空間内に配置されている他の選択オブジェクトは、消去されたり、透過率を上げて目立たないように表示されたりする。これにより、選択された選択オブジェクトが相対的に強調された表示となる。
On the other hand, when the circularly increasing bar of the elapsed time gauge T1 reaches one round, the selection of the selected object (here, option C) in which the line-of-sight position P1 overlaps the determination area is confirmed.
FIG. 8 is a diagram showing an example of a selection menu screen when the selection of the selected object is confirmed. In the illustrated selection menu screen G13, the circularly increasing bar of the elapsed time gauge T1 extends for one round, and the selection object (here, option C) in which the line-of-sight position P1 overlaps the determination area is selected. It will be confirmed. At this time, other selected objects arranged in the virtual space may be erased or may be displayed inconspicuously by increasing the transmittance. This results in a relatively highlighted display of the selected selected objects.

なお、上述した選択オブジェクトの判定領域の拡大は、他の選択オブジェクトの判定領域と視線方向において重ならない範囲での拡大となる。また、選択オブジェクトの判定領域の拡大は、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔空く範囲での拡大とであってもよい。そのため、選択オブジェクトの数が増えると、選択オブジェクトの判定領域を拡大しにくくなる。よって、端末装置10は、選択オブジェクトの判定領域を拡大する場合、他に配置されている選択オブジェクトの位置を変更してもよい。 The above-mentioned expansion of the determination area of the selected object is an expansion within a range that does not overlap with the determination area of another selected object in the line-of-sight direction. Further, the expansion of the determination area of the selected object may be an expansion within a range that is spaced apart from the determination area of another selected object in a direction orthogonal to the line-of-sight direction. Therefore, as the number of selected objects increases, it becomes difficult to expand the determination area of the selected objects. Therefore, when expanding the determination area of the selected object, the terminal device 10 may change the position of the selected object arranged elsewhere.

図9は、選択オブジェクトの数が多い場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G14においては、仮想空間内に配置されているそれぞれ5つの選択オブジェクトがZ軸方向に並ぶ2つの列が左右に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。また、仮想空間内に配置されている視線位置P1が画面の中央に表示されている。視線位置P1は、いずれの選択オブジェクトの判定領域とも視線方向において重ならない位置関係にある。 FIG. 9 is a diagram showing an example of a selection menu screen when the number of selected objects is large. In the illustrated selection menu screen G14, two columns in which five selection objects arranged in the virtual space are arranged in the Z-axis direction are displayed side by side with a predetermined interval on the left and right. In the left column, five selection objects of option A, option C, option E, option G, and option I are displayed side by side at predetermined intervals in the Z-axis direction. In the right column, five selection objects of option B, option D, option F, option H, and option J are displayed side by side at predetermined intervals in the Z-axis direction. Further, the line-of-sight position P1 arranged in the virtual space is displayed in the center of the screen. The line-of-sight position P1 has a positional relationship that does not overlap with the determination area of any of the selected objects in the line-of-sight direction.

図10は、図9に示す選択メニュー画面において、視線位置P1が選択オブジェクトに重なった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G15において、視線位置P1と選択肢Eとが、視線方向において重なる位置関係となっている。視線位置P1が選択オブジェクトの判定領域に重なると、その選択オブジェクト(ここでは、選択肢E)の判定領域が拡大するが、Z軸方向に隣接する選択オブジェクトとの配置間隔が狭い。そのため、選択オブジェクト(ここでは、選択肢E)の判定領域が拡大する場合に、その拡大する領域を確保するように、選択肢Eの上側の選択オブジェクト(ここでは、選択肢A、C)と下側の選択オブジェクト(ここでは、選択肢G、I)とのそれぞれが選択肢Eから離れる方向に移動する。 FIG. 10 is a diagram showing an example of the selection menu screen in which the line-of-sight position P1 overlaps the selection object in the selection menu screen shown in FIG. On the illustrated selection menu screen G15, the line-of-sight position P1 and the option E have an overlapping positional relationship in the line-of-sight direction. When the line-of-sight position P1 overlaps the determination area of the selected object, the determination area of the selected object (here, option E) is expanded, but the arrangement interval with the selected object adjacent in the Z-axis direction is narrow. Therefore, when the determination area of the selected object (here, option E) is expanded, the selected objects (here, options A and C) on the upper side of the option E and the lower side are secured so as to secure the expanded area. Each of the selected objects (here, options G and I) moves away from option E.

なお、拡大された選択オブジェクトの表示領域には、他の情報が表示されてもよい。例えば、選択オブジェクトが購入アイテムの選択オブジェクトであった場合、通常は選択オブジェクトにアイテム名が表示されるが、選択した場合にはアイテム名に加え、購入価格等が表示されても良い。 Other information may be displayed in the enlarged display area of the selected object. For example, when the selected object is the selected object of the purchased item, the item name is usually displayed in the selected object, but when selected, the purchase price or the like may be displayed in addition to the item name.

〔端末装置10の機能構成〕
次に、図11を参照して、端末装置10の機能構成について説明する。図11は、本実施形態に係る端末装置10の機能構成の一例を示すブロック図である。端末装置10は、記憶部15に記憶されているプログラムをCPU17が実行することにより実現される機能構成として、制御部110を備えている。制御部110は、検出部111と、判定部112と、オブジェクト配置部113と、表示制御部114と、を備えている。
[Functional configuration of terminal device 10]
Next, the functional configuration of the terminal device 10 will be described with reference to FIG. FIG. 11 is a block diagram showing an example of the functional configuration of the terminal device 10 according to the present embodiment. The terminal device 10 includes a control unit 110 as a functional configuration realized by the CPU 17 executing a program stored in the storage unit 15. The control unit 110 includes a detection unit 111, a determination unit 112, an object arrangement unit 113, and a display control unit 114.

検出部111は、センサ13の検知結果に基づいて、端末装置10の方向に関する情報を検出する。例えば、検出部111は、センサ13が検知する方向、または方向の変化に関する情報に基づいて、端末装置10が取り付けられたHMDシステム1を装着したユーザの視界方向または視界方向の変化を、端末装置10が向いている方向によって検出する。なお、検出部111は、視界方向の変化速度に関する情報を検出してもよい。 The detection unit 111 detects information regarding the direction of the terminal device 10 based on the detection result of the sensor 13. For example, the detection unit 111 determines the change in the visual field direction or the visual field direction of the user who wears the HMD system 1 to which the terminal device 10 is attached, based on the information regarding the direction detected by the sensor 13 or the change in the direction. It is detected according to the direction in which 10 is facing. The detection unit 111 may detect information regarding the rate of change in the visual field direction.

判定部112は、ユーザの視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの選択の有無を判定する。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってからの経過時間を計時するとともに、計時した経過時間に基づいて選択の有無を判定する。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから所定時間以上経過した場合に、その選択オブジェクトが判定された(選択有)と判定する。一方、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってからの経過時間が所定時間未満の場合に、その選択オブジェクトはまだ選択されていない(選択無)と判定する。 The determination unit 112 determines whether or not the selected object is selected based on the positional relationship between the user's line-of-sight position P1 and the determination area of the selected object. For example, the determination unit 112 measures the elapsed time from the positional relationship in which the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction to the overlapping positional relationship, and selects based on the measured elapsed time. Determine the presence or absence. For example, the determination unit 112 determines that the selected object has been determined (selected) when a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object overlap. On the other hand, the determination unit 112 states that the selected object has not yet been selected (no selection) when the elapsed time from the positional relationship in which the line-of-sight position P1 and the determination area of the selected object overlap is less than a predetermined time. judge.

オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、仮想空間内に配置する。また、オブジェクト配置部113は、仮想視点からの視線方向を検出部111の検出結果に基づいて定め、視線方向に対応する視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)を、仮想空間内に配置する。また、オブジェクト配置部113は、経過時間を視認可能とするためのオブジェクト(例えば、経過時間ゲージT1)を仮想空間内に配置する。例えば、オブジェクト配置部113は、上記の各種オブジェクトを仮想空間内において同一面(同一レイヤ)に配置してもよいし、複数の面(複数のレイヤ)に分けて配置してもよい。なお、オブジェクト配置部113は、経過時間等の時間情報を、タイマ14を用いて計時して取得する。 The object arrangement unit 113 arranges a selection object having a determination area for determining whether or not there is a selection from the user in the virtual space. Further, the object arranging unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111, and sets an object (for example, the line-of-sight position P1) for making the line-of-sight position corresponding to the line-of-sight direction visible. Place in virtual space. Further, the object arranging unit 113 arranges an object (for example, an elapsed time gauge T1) for making the elapsed time visible in the virtual space. For example, the object arranging unit 113 may arrange the above-mentioned various objects on the same surface (same layer) in the virtual space, or may arrange them separately on a plurality of surfaces (plural layers). The object arranging unit 113 obtains time information such as elapsed time by timing using a timer 14.

表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる。また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている各種オブジェクト(選択オブジェクト、視線位置、経過時間ゲージ等)を、表示部12に表示させる。なお、仮想空間内の各方向の視界画像のデータは、仮想空間データとして記憶部15に記憶されている。表示制御部114は、視界方向に対応する視界画像を仮想空間データから取得して視界画像として表示部12に表示させる。 The display control unit 114 causes the display unit 12 to display a field of view image in the field of view from a virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Further, the display control unit 114 displays various objects (selected objects, line-of-sight position, elapsed time gauge, etc.) arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Display on 12. The field of view image data in each direction in the virtual space is stored in the storage unit 15 as virtual space data. The display control unit 114 acquires a visual field image corresponding to the visual field direction from the virtual space data and displays it on the display unit 12 as a visual field image.

〔オブジェクト配置処理の詳細〕
次に、本実施形態に係るオブジェクト配置処理について詳しく説明する。
オブジェクト配置部113は、仮想空間における仮想視点からの視線方向に対応する視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの判定領域を変更する。例えば、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になった場合、選択オブジェクトの判定領域を広くする。ここで、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域に視線方向において重ならない範囲で広くする。
[Details of object placement processing]
Next, the object placement process according to the present embodiment will be described in detail.
The object arrangement unit 113 changes the determination area of the selected object based on the positional relationship between the line-of-sight position P1 corresponding to the line-of-sight direction from the virtual viewpoint in the virtual space and the determination area of the selected object. For example, the object arranging unit 113 widens the determination area of the selected object when the line-of-sight position P1 and the determination area of the selected object are overlapped from the positional relationship that does not overlap in the line-of-sight direction. Here, when the determination area of the selected object is widened, the object arranging unit 113 widens the determination area of another selected object within a range that does not overlap with the determination area in the line-of-sight direction.

なお、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔が空く範囲で広くする。また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他に配置されている選択オブジェクトの位置を変更してもよい。また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、選択オブジェクトの表示態様を変更してもよい。また、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってから所定の時間経過した後に、選択オブジェクトの判定領域または該判定領域に対応する表示領域を広くしてもよい。 When the determination area of the selected object is widened, the object arranging unit 113 widens the determination area of the selected object within a range that is spaced apart from the determination area of the other selected object in a direction orthogonal to the line-of-sight direction. Further, the object arranging unit 113 may change the position of another selected object when the determination area of the selected object is widened. Further, the object arranging unit 113 may change the display mode of the selected object when the determination area of the selected object is widened. Further, the object arranging unit 113 waits for a predetermined time from the positional relationship in which the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction to overlap, and then the determination area of the selected object or the determination area. The display area corresponding to may be widened.

次に、図12を参照して、本実施形態に係るオブジェクト配置処理の動作を説明する。図12は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。なお、表示部12には、視界方向の視界画像と視線位置P1とが表示されているものとする。まず、選択メニュー表示のトリガを受け付けると、制御部110は、複数の選択オブジェクトを仮想空間内に配置する(ステップS100)。これにより、表示部12には、視界画像と複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図5参照)が表示される。ここで、選択メニュー表示のトリガとは、ゲームが開始されたこと、ゲームが開始されて所定時間経過したこと、ゲーム内で特定の行為が行われたこと、等のように、ゲームにおいてユーザの意思確認が必要な場面で設定されたものである。 Next, the operation of the object placement process according to the present embodiment will be described with reference to FIG. FIG. 12 is a flowchart showing an example of the object arrangement process according to the present embodiment. It is assumed that the visual field image in the visual field direction and the visual field position P1 are displayed on the display unit 12. First, when the trigger for displaying the selection menu is received, the control unit 110 arranges a plurality of selection objects in the virtual space (step S100). As a result, the display unit 12 displays a selection menu screen (see, for example, FIG. 5) including the field of view image and the plurality of selection objects. Here, the trigger of the selection menu display is that the game is started, a predetermined time has passed since the game was started, a specific action has been performed in the game, and so on. It was set when it was necessary to confirm the intention.

制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS102)。視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっている(例えば、図6参照)と判定された場合(YES)、制御部110は、選択オブジェクトの判定領域を拡大に設定する(例えば、図7参照)、即ち、判定領域を広くする(ステップS104)。なお、このとき制御部110は、視線位置P1が判定領域に重なっている選択オブジェクト(例えば、選択肢C)の近傍に、経過時間ゲージT1を配置する。 The control unit 110 determines whether or not the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (step S102). When it is determined (YES) that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (for example, see FIG. 6), the control unit 110 sets the determination area of the selected object to be enlarged (for example). , FIG. 7), that is, the determination area is widened (step S104). At this time, the control unit 110 arranges the elapsed time gauge T1 in the vicinity of the selection object (for example, option C) whose line-of-sight position P1 overlaps the determination area.

一方、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていない(例えば、図5参照)と判定された場合(NO)、制御部110は、選択オブジェクトの判定領域を初期値に設定する、即ち、判定領域を変更しない(ステップS106)。 On the other hand, when it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction (for example, see FIG. 5) (NO), the control unit 110 sets the determination area of the selected object to the initial value. That is, the determination area is not changed (step S106).

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS108)。ここで、選択メニューの表示オフのトリガとは、いずれかの選択オブジェクトが選択された場合、選択オブジェクトを表示させてから所定時間が経過した場合、選択メニューの表示をオフさせる選択肢が選択された場合、等である。選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS110)、オブジェクト配置処理を終了する。 Next, the control unit 110 determines whether or not the trigger for turning off the display of the selection menu has been accepted (step S108). Here, the trigger for turning off the display of the selection menu is that when any of the selection objects is selected, the option to turn off the display of the selection menu is selected when a predetermined time has elapsed after displaying the selection object. If, etc. When it is determined that the trigger for turning off the display of the selection menu has been accepted (YES), the control unit 110 erases the selected objects arranged in the virtual space (step S110), and ends the object arrangement process.

一方、選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS112)。そして、制御部110は、検出した角速度に基づいて、視界方向の変化があるか否かを判定する(ステップS114)。視界方向の変化がないと判定された場合(NO)、視線位置P1と選択オブジェクトの判定領域との相対位置に変化がないため、制御部110は、ステップS108の処理に戻し、選択メニューの表示オフのトリガを受け付けたか否かを判定する。一方、視界方向の変化があると判定された場合(YES)、視線位置P1と選択オブジェクトの判定領域との相対位置に変化が生じるため、制御部110は、ステップS102の処理に戻し、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する。継続して重なっている場合には選択オブジェクトの判定領域を拡大に設定したままとし、重なっていない状態から重なっている状態になった場合には選択オブジェクトの判定領域を初期値から拡大に変更し、重なっている状態から重なっていない状態になった場合には選択オブジェクトの判定領域を拡大から初期値に変更する。 On the other hand, when it is determined that the trigger for turning off the display of the selection menu is not accepted (NO), the control unit 110 detects the angular velocity based on the detection result of the sensor 13 (step S112). Then, the control unit 110 determines whether or not there is a change in the viewing direction based on the detected angular velocity (step S114). When it is determined that there is no change in the viewing direction (NO), since there is no change in the relative position between the line-of-sight position P1 and the determination area of the selected object, the control unit 110 returns to the process of step S108 and displays the selection menu. Determines if an off trigger has been accepted. On the other hand, when it is determined that there is a change in the viewing direction (YES), the relative position between the line-of-sight position P1 and the determination area of the selected object changes. Therefore, the control unit 110 returns to the process of step S102 and returns to the line-of-sight position. It is determined whether or not P1 and the determination area of the selected object overlap in the line-of-sight direction. If it continues to overlap, the judgment area of the selected object is left set to enlarge, and if it changes from the non-overlapping state to the overlapping state, the judgment area of the selected object is changed from the initial value to the enlargement. , When the overlapping state is changed to the non-overlapping state, the judgment area of the selected object is changed from the expansion to the initial value.

〔選択有無の判定処理の動作〕
次に、図13を参照して、本実施形態に係るオブジェクト配置処理において配置した選択オブジェクトの選択有無を判定する判定処理の動作を説明する。図13は、本実施形態に係る選択オブジェクトの選択有無を判定する判定処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、複数の選択オブジェクトを仮想空間内に配置することにより、表示部12に選択メニュー画面(例えば、図5参照)が表示される(ステップS200)。また、制御部110は、計測時間をリセットする(ステップS202)。
[Operation of selection / non-selection judgment processing]
Next, with reference to FIG. 13, the operation of the determination process for determining whether or not the selected object arranged in the object arrangement process according to the present embodiment is selected will be described. FIG. 13 is a flowchart showing an example of a determination process for determining whether or not the selected object according to the present embodiment is selected. First, when the trigger for displaying the selection menu is received, the control unit 110 arranges a plurality of selection objects in the virtual space, so that the selection menu screen (for example, see FIG. 5) is displayed on the display unit 12 (step). S200). Further, the control unit 110 resets the measurement time (step S202).

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS204)。視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていない(例えば、図5参照)と判定された場合(NO)、制御部110は、ステップS202に処理を戻す。一方、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっている(例えば、図6参照)と判定された場合(YES)、制御部110は、経過時間の計時を開始するとともに、計時した経過時間に応じたバーが表示される経過時間ゲージT1を、仮想空間内において、その重なったと判定された選択オブジェクトの近傍に配置する(ステップS206)。これにより、その選択オブジェクトの近傍に経過時間ゲージT1が表示される(例えば、図7参照)。 Next, the control unit 110 determines whether or not the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (step S204). When it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction (see, for example, FIG. 5) (NO), the control unit 110 returns the process to step S202. On the other hand, when it is determined (YES) that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (for example, see FIG. 6), the control unit 110 starts timing the elapsed time and clocks the elapsed time. An elapsed time gauge T1 in which a bar corresponding to the elapsed elapsed time is displayed is arranged in the virtual space in the vicinity of the selected objects determined to overlap (step S206). As a result, the elapsed time gauge T1 is displayed in the vicinity of the selected object (see, for example, FIG. 7).

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが重なってからの所定時間以上経過したか否かを判定する(ステップS208)。所定時間以上経過していないと判定された場合(NO)、制御部110は、ステップS204の処理に戻し、重なってからの経過時間の計測を続ける。一方、視線位置P1と選択オブジェクトの判定領域とが重なってから所定時間以上経過したと判定された場合(YES)、制御部110は、その選択オブジェクトが選択されたと決定し(ステップS210)、判定処理を終了する。 Next, the control unit 110 determines whether or not a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object overlap (step S208). If it is determined that the predetermined time or more has not elapsed (NO), the control unit 110 returns to the process of step S204 and continues to measure the elapsed time since the overlap. On the other hand, when it is determined that a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object overlap (YES), the control unit 110 determines that the selected object has been selected (step S210), and determines. End the process.

〔選択有無の判定処理の他の例〕
上述の選択オブジェクトの選択有無を判定する判定処理では、視線位置P1と選択オブジェクトの判定領域とが重なってからの経過時間に基づいて選択有無を判定する例を説明したが、ここでは、経過時間の計時仕様について他の例を説明する。
図14は、視線位置P1と選択オブジェクトの判定領域とが重なっている選択メニュー画面の一例を示す図である。図示する選択メニュー画面G16では、視線位置P1と選択オブジェクト(ここでは、選択肢B)とが重なっており、重なってからの経過時間を示す経過時間ゲージT1が表示されている。この経過時間は、選択されたと決定する所定時間に達していない状態である。ここで、ユーザが左を向くと、視線位置P1に対して選択オブジェクトが相対的に右に移動する。
[Other examples of selection / non-selection determination processing]
In the above-mentioned determination process for determining the selection / non-selection of the selected object, an example of determining the selection / non-selection based on the elapsed time since the line-of-sight position P1 and the determination area of the selected object overlap has been described. Another example will be described for the timekeeping specification of.
FIG. 14 is a diagram showing an example of a selection menu screen in which the line-of-sight position P1 and the determination area of the selected object overlap. In the illustrated selection menu screen G16, the line-of-sight position P1 and the selection object (here, option B) overlap, and an elapsed time gauge T1 indicating the elapsed time since the overlap is displayed. This elapsed time is a state in which the predetermined time for determining the selection has not been reached. Here, when the user turns to the left, the selected object moves to the right relative to the line-of-sight position P1.

図15は、視線位置P1に対して選択オブジェクトが相対的に右に移動したことにより、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になった選択メニュー画面の一例を示す図である。図示する選択メニュー画面G17は、図14では重なっていた視線位置P1と選択オブジェクト(ここでは、選択肢B)の判定領域とが重ならない状態に変化していることを示している。視線位置P1と選択オブジェクトが重ならない状態になると、図13に示す判定処理では計測時間がリセットされて経過時間が0になるが、リセットせずに、経過時間の計時が停止されてもよい。例えば、図15に示す例では、経過時間の計時が停止され、経過時間ゲージT1のバーがそれまでの(視線位置P1と選択オブジェクトの判定領域とが重なっていたときの)経過時間を示す長さで止まっていることを示している。また、視線位置P1と選択オブジェクト判定領域とが重なっている状態から重ならない状態に変化した場合、重なっている状態の経過時間の計時よりも時間の進みを遅くしてもよいし、時間を後退させてもよい。このように、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係にある場合と重なる位置関係にある場合とで異なる計時を行うようにしてもよい。 FIG. 15 is a diagram showing an example of a selection menu screen in which the line-of-sight position P1 and the determination area of the selected object do not overlap because the selected object moves to the right relative to the line-of-sight position P1. .. The illustrated selection menu screen G17 shows that the line-of-sight position P1 and the determination area of the selection object (here, option B), which overlapped in FIG. 14, have changed to a state in which they do not overlap. When the line-of-sight position P1 and the selected object do not overlap, the measurement time is reset to 0 in the determination process shown in FIG. 13, but the time counting of the elapsed time may be stopped without resetting. For example, in the example shown in FIG. 15, the time counting of the elapsed time is stopped, and the bar of the elapsed time gauge T1 indicates the elapsed time (when the line-of-sight position P1 and the determination area of the selected object overlap). It shows that it has stopped. Further, when the line-of-sight position P1 and the selected object determination area change from the overlapping state to the non-overlapping state, the time may advance slower than the time of the elapsed time of the overlapping state, or the time may be set back. You may let me. As described above, the determination unit 112 may perform different timing depending on whether the line-of-sight position P1 and the determination area of the selected object are in a positional relationship that does not overlap or overlap in the line-of-sight direction.

この場合、視線位置P1が選択オブジェクトの判定領域から一旦外れても、再び同じ選択オブジェクトの判定領域内に視線を移すことで視線位置P1が重なると、経過時間の計時が続きから再開されるので、誤って一瞬判定領域から視線が外れてしまった場合であっても、経過時間を0から計時し直す必要がなくなる。 In this case, even if the line-of-sight position P1 once deviates from the judgment area of the selected object, if the line-of-sight position P1 overlaps by moving the line of sight to the judgment area of the same selected object again, the time counting of the elapsed time is restarted from the continuation. Even if the line of sight is accidentally removed from the determination area for a moment, it is not necessary to retime the elapsed time from 0.

なお、視線位置P1が選択オブジェクトの判定領域から外れて所定の時間(例えば、10秒など)が経過した場合、ユーザに選択を継続する意思がないとみなして、計測時間がリセットされてもよい。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから計時した経過時間を、視線位置P1と選択オブジェクトの判定領域とが重ならない位置関係になって所定の時間が経過すると、計測時間(経過時間)をリセットしてもよい。 When the line-of-sight position P1 deviates from the determination area of the selected object and a predetermined time (for example, 10 seconds) elapses, it may be considered that the user does not intend to continue the selection and the measurement time may be reset. .. For example, the determination unit 112 determines the elapsed time measured after the line-of-sight position P1 and the determination area of the selected object overlap each other so that the line-of-sight position P1 and the determination area of the selected object do not overlap. When the time elapses, the measurement time (elapsed time) may be reset.

また、他の選択オブジェクト(選択肢A、Cなど)の判定領域に視線位置P1が移った場合には、計時された計測時間(経過時間)がリセットされ、0から経過時間の計時が開始される。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが重なる位置関係になってから計時した経過時間を、視線位置P1と他の選択オブジェクトの判定領域とが重なる位置関係になった場合、計測時間(経過時間)をリセットする。 Further, when the line-of-sight position P1 moves to the determination area of another selected object (options A, C, etc.), the timed measurement time (elapsed time) is reset, and the timed time is started from 0. .. For example, the determination unit 112 has a positional relationship in which the line-of-sight position P1 and the determination area of another selected object overlap each other for the elapsed time measured after the line-of-sight position P1 and the determination area of the selected object overlap. If so, reset the measurement time (elapsed time).

次に、図16を参照して、上述した経過時間の計時仕様に基づく選択オブジェクトの選択有無を判定する判定処理の動作を説明する。図16は、本実施形態に係る選択オブジェクトの選択有無を判定する判定処理の一例を示すフローチャートである。図示するステップS300、S302、S304.S306.S308、S310の各処理は、図13に示すステップS200、S202、S204.S206.S208、S210の各処理に対応し、ステップS308の処理でNOと判定された場合のその後の処理のみが、図13に示す判定処理と異なる。ここでは、図13に示す判定処理と異なる処理について説明し、同様の処理については、その説明を省略する。 Next, with reference to FIG. 16, the operation of the determination process for determining whether or not the selected object is selected based on the timekeeping specification of the elapsed time described above will be described. FIG. 16 is a flowchart showing an example of a determination process for determining whether or not the selected object according to the present embodiment is selected. The illustrated steps S300, S302, S304. S306. Each process of S308 and S310 is performed in steps S200, S202 and S204 shown in FIG. S206. Corresponding to each process of S208 and S210, only the subsequent process when NO is determined in the process of step S308 is different from the determination process shown in FIG. Here, a process different from the determination process shown in FIG. 13 will be described, and the description of the same process will be omitted.

ステップS308において、視線位置P1と選択オブジェクトの判定領域とが重なってから所定時間以上経過していないと判定された場合(NO)、制御部110は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する(ステップS312)。視線位置P1と選択オブジェクトの判定領域とが重なっていないと判定され多場合(NO)、制御部130は、経過時間の計時及び表示(経過時間ゲージT1のバー)を一時停止する(ステップS314)。なお、このとき、経過時間の計時及び表示を一時停止するのに代えて、時間の経過がゆっくり進むように計時及び表示してもよいし、時間の経過が後退するように計時及び表示してもよい。 In step S308, when it is determined that a predetermined time or more has not elapsed since the line-of-sight position P1 and the determination area of the selected object overlap (NO), the control unit 110 determines that the line-of-sight position P1 and the determination area of the selected object are aligned with each other. It is determined whether or not they overlap in the line-of-sight direction (step S312). If it is determined that the line-of-sight position P1 and the determination area of the selected object do not overlap (NO), the control unit 130 temporarily stops the time counting and display (elapsed time gauge T1 bar) of the elapsed time (step S314). .. At this time, instead of pausing the time and display of the elapsed time, the time and display may be performed so that the passage of time progresses slowly, or the time and display may be displayed so that the passage of time recedes. May be good.

次に、制御部110は、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になってから所定時間以上経過したか否かを判定する(ステップS316)。所定時間以上経過したと判定された場合(YES)、制御部110は、ユーザに選択を継続する意思がないとみなし、ステップS302に処理を戻して計測時間をリセットする。 Next, the control unit 110 determines whether or not a predetermined time or more has elapsed since the line-of-sight position P1 and the determination area of the selected object do not overlap (step S316). If it is determined that the predetermined time or more has elapsed (YES), the control unit 110 considers that the user has no intention of continuing the selection, returns the process to step S302, and resets the measurement time.

一方、視線位置P1と選択オブジェクトの判定領域とが重ならない状態になってから所定時間以上経過していないと判定された場合(NO)、制御部110は、ステップS312に処理を戻し、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっているか否かを判定する。そして、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なっていると判定された場合(YES)、制御部110は、視線位置P1が重なっている選択オブジェクトが前回重なっていた選択オブジェクトであるか否かを判定する(ステップS318)。前回重なっていた選択オブジェクトであると判定された場合、制御部110は、ステップS308に処理を戻し、経過時間の計時及び表示を再開する。なお、制御部110は、ステップS314において、時間の経過がゆっくり進むような計時及び表示にした場合、または、時間の経過が後退するような計時及び表示にした場合には、元の計時及び表示に戻す。一方、視線位置P1が重なっている選択オブジェクトが他の選択オブジェクトであると判定された場合(NO)、制御部110は、ステップS302に処理を戻して計測時間をリセットする。 On the other hand, when it is determined that a predetermined time or more has not elapsed since the line-of-sight position P1 and the determination area of the selected object do not overlap (NO), the control unit 110 returns the process to step S312 and returns the process to the line-of-sight position. It is determined whether or not P1 and the determination area of the selected object overlap in the line-of-sight direction. Then, when it is determined that the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction (YES), the control unit 110 determines that the selected object in which the line-of-sight position P1 overlaps last time is the selected object. It is determined whether or not there is (step S318). If it is determined that the selected objects overlapped each other last time, the control unit 110 returns the process to step S308, and resumes the time counting and display of the elapsed time. In step S314, the control unit 110 sets the time and display so that the passage of time advances slowly, or sets the time and display so that the passage of time recedes, the original time and display. Return to. On the other hand, when it is determined that the selected object whose line-of-sight position P1 overlaps is another selected object (NO), the control unit 110 returns the process to step S302 to reset the measurement time.

〔第1の実施形態のまとめ〕
以上説明してきたように、本実施形態に係る端末装置10は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なHMDシステム1の少なくとも一部として利用可能な端末装置である。例えば、端末装置10は、検出部111と、オブジェクト配置部113と、表示制御部114と、を備えている。検出部111は、端末装置10の方向に関する情報を検出する。オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、仮想空間内に配置する。表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている選択オブジェクトを表示部12に表示させる。そして、オブジェクト配置部113は、仮想空間における仮想視点からの視線方向に対応する視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの判定領域を変更する。
[Summary of the first embodiment]
As described above, the terminal device 10 according to the present embodiment is at least the HMD system 1 capable of displaying a visual field image representing the visual field from a virtual viewpoint in the virtual space as a stereoscopic image using binocular parallax. It is a terminal device that can be used as a part. For example, the terminal device 10 includes a detection unit 111, an object arrangement unit 113, and a display control unit 114. The detection unit 111 detects information regarding the direction of the terminal device 10. The object arrangement unit 113 arranges a selection object having a determination area for determining whether or not there is a selection from the user in the virtual space. The display control unit 114 causes the display unit 12 to display the selected objects arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Then, the object arranging unit 113 changes the determination area of the selected object based on the positional relationship between the line-of-sight position P1 corresponding to the line-of-sight direction from the virtual viewpoint in the virtual space and the determination area of the selected object.

ここで、判定領域の変更とは、判定領域の大きさの変更、例えば面積(広さ)の変更または体積の変更であってもよいし、判定領域が配置される位置の変更であってもよい。また、判定領域の変更とは、判定領域の形状の変更であってもよい。また、上記の位置関係とは、視線方向に投影した2次元の平面的な位置関係であってもよいし、オブジェクトが立体(3次元形状)である場合には3次元的な位置関係であってもよい。 Here, the change of the determination area may be a change in the size of the determination area, for example, a change in the area (area) or a change in the volume, or a change in the position where the determination area is arranged. good. Further, the change of the determination area may be a change of the shape of the determination area. Further, the above-mentioned positional relationship may be a two-dimensional planar positional relationship projected in the line-of-sight direction, or may be a three-dimensional positional relationship when the object is a three-dimensional object (three-dimensional shape). You may.

これにより、端末装置10は、視線位置P1と選択オブジェクトの判定領域との位置関係によって、該判定領域の大きさ(見かけ上の大きさ)を変更することができるため、選択肢に対して選択操作する際の操作性を向上することができる。なお、オブジェクト配置部113は、判定領域の色や明るさ等を変更することにより、選択されていることより視認しやすくしてもよい。 As a result, the terminal device 10 can change the size (apparent size) of the determination area according to the positional relationship between the line-of-sight position P1 and the determination area of the selected object. It is possible to improve the operability when performing. The object arranging unit 113 may be easier to see because it is selected by changing the color, brightness, or the like of the determination area.

例えば、選択メニュー画面では、背景となる視界画像の表示をできるだけ邪魔したくない場合や、選択項目が多数ある場合に、一つの選択肢の判定領域を小さくせざるを得ない場合がある。このような場合、判定領域が小さいと、選択有無を判定する期間内に誤操作によって意図せず視線位置が判定領域外となってしまうといったように操作性に難があった。そこで、例えば、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になった場合、選択オブジェクトの判定領域を広くする。これにより、端末装置10は、視線位置P1が選択オブジェクトの判定領域に入った場合に判定領域を広げるので、ユーザが意図せずに視線位置P1が判定領域から外れてしまう誤操作の発生を抑制できる。 For example, on the selection menu screen, there are cases where it is not desired to interfere with the display of the field of view image as the background as much as possible, or when there are many selection items, it is necessary to reduce the determination area of one option. In such a case, if the determination area is small, there is a difficulty in operability such that the line-of-sight position is unintentionally out of the determination area due to an erroneous operation within the period for determining the presence or absence of selection. Therefore, for example, the object arranging unit 113 widens the determination area of the selected object when the line-of-sight position P1 and the determination area of the selected object are overlapped from the positional relationship that does not overlap in the line-of-sight direction. As a result, the terminal device 10 expands the determination area when the line-of-sight position P1 enters the determination area of the selected object, so that it is possible to suppress the occurrence of an erroneous operation in which the line-of-sight position P1 unintentionally deviates from the determination area. ..

例えば、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域に視線方向において重ならない範囲で広くする。これにより、端末装置10は、ユーザが意図して他の選択オブジェクトの選択に変更する場合には、その選択が可能なように、視線位置P1が現在重なっている判定領域から外れてしまう誤操作の発生を抑制できる。また、端末装置10は、それぞれの選択オブジェクトの判定領域の独立性が保てるため、何れか一つの選択オブジェクトを選択したい場合に誤操作を防ぐことができる。 For example, when the determination area of the selected object is widened, the object arranging unit 113 widens the determination area of another selected object within a range that does not overlap with the determination area in the line-of-sight direction. As a result, when the user intentionally changes to the selection of another selected object, the terminal device 10 is erroneously operated so that the line-of-sight position P1 deviates from the currently overlapping determination area so that the selection can be made. Occurrence can be suppressed. Further, since the terminal device 10 can maintain the independence of the determination area of each selected object, it is possible to prevent an erroneous operation when it is desired to select any one of the selected objects.

また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他の選択オブジェクトの判定領域と、視線方向に対して直交する方向に所定の間隔が空く範囲で広くしてもよい。これにより、端末装置10は、ユーザが意図して他の選択オブジェクトに選択を変更する場合には、現在重なっている判定領域からすぐに視線位置P1を外すことができる。 Further, when the determination area of the selected object is widened, the object arranging unit 113 may be widened within a range in which a predetermined interval is provided in a direction orthogonal to the line-of-sight direction with the determination area of another selected object. As a result, when the user intentionally changes the selection to another selected object, the terminal device 10 can immediately remove the line-of-sight position P1 from the currently overlapping determination area.

また、オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、他に配置されている選択オブジェクトの位置を変更してもよい。これにより、端末装置10は、多数の選択オブジェクトがある場合でも、他の選択オブジェクトを移動することで、判定領域を拡大するための領域を確保できる。 Further, the object arranging unit 113 may change the position of another selected object when the determination area of the selected object is widened. As a result, the terminal device 10 can secure an area for expanding the determination area by moving the other selected objects even when there are a large number of selected objects.

オブジェクト配置部113は、選択オブジェクトの判定領域を広くする場合、選択オブジェクトの表示態様を変更する。例えば、オブジェクト配置部113は、拡大された選択オブジェクトに他の情報を表示してもよい。例えば、選択オブジェクトが購入アイテムの選択肢であった場合、視線位置P1が重なる前の通常の大きさの選択オブジェクトにはアイテム名が表示され、視線位置P1が重なって拡大した場合にはアイテム名に加え、購入価格等が表示されてもよい。これにより、端末装置10は、選択の意思決定に関わる情報を選択オブジェクトに表示できるので、ユーザが誤った選択を行わないようにすることができる。また、オブジェクト配置部113は、拡大中の選択オブジェクトの色を拡大前とは異なる色に変更してもよい。この場合、端末装置10は、選択しようとしている選択オブジェクトの視認性が向上することにより操作性を向上できる。 When the determination area of the selected object is widened, the object arranging unit 113 changes the display mode of the selected object. For example, the object placement unit 113 may display other information on the enlarged selection object. For example, when the selected object is a selection of purchased items, the item name is displayed on the selected object of the normal size before the line-of-sight positions P1 overlap, and when the line-of-sight positions P1 overlap and expand, the item name is displayed. In addition, the purchase price and the like may be displayed. As a result, the terminal device 10 can display the information related to the selection decision on the selection object, so that the user can prevent the user from making an erroneous selection. Further, the object arranging unit 113 may change the color of the selected object being enlarged to a color different from that before the enlargement. In this case, the terminal device 10 can improve the operability by improving the visibility of the selected object to be selected.

また、オブジェクト配置部113は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってから所定の時間経過した後に、選択オブジェクトの判定領域または該判定領域に対応する表示領域を広くしてもよい。つまり、端末装置10は、視線位置P1が選択オブジェクトの判定領域内に入った場合でも、すぐにその選択オブジェクトの判定領域を拡大するのではなく、所定の時間(例えば、0.2〜0.3秒程度)のタイムラグを設けてもよい。これにより、端末装置10は、選択する意思が無いのに視線位置P1が判定領域上を短時間で通過した場合に判定領域が拡大してしまうことを抑制できるため、選択操作を行う際の視認性を向上させることができる。例えば、視線位置P1が通過しただけでその都度、選択オブジェクトが拡大されると、鬱陶しく視認性が悪いものとなる。なお、タイムラグを設けるのは、選択オブジェクトの表示領域のみとし、判定領域についてはタイムラグを設けなくてもよい。また、選択オブジェクトの表示領域と判定領域とのいずれも同じようにタイムラグを設けてもよい。また、視線位置P1の判定領域への入速度によって、タイムラグが設定されてもよい。例えば、入速度が所定値以上場合にタイムラグを設け、入速度が所定値未満の場合にはタイムラグを設けなくてもよい。
Further, the object arranging unit 113 waits for a predetermined time from the positional relationship in which the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction to overlap, and then the determination area of the selected object or the determination area. The display area corresponding to may be widened. That is, even when the line-of-sight position P1 enters the determination area of the selected object, the terminal device 10 does not immediately expand the determination area of the selected object, but instead expands the determination area for a predetermined time (for example, 0.2 to 0. A time lag of about 3 seconds) may be provided. As a result, the terminal device 10 can prevent the determination area from expanding when the line-of-sight position P1 passes over the determination area in a short time even though there is no intention to select, so that the terminal device 10 can visually recognize when performing the selection operation. The sex can be improved. For example, if the selected object is enlarged each time the line-of-sight position P1 passes, the visibility becomes annoying and poor. It should be noted that the time lag is provided only in the display area of the selected object, and the time lag may not be provided in the determination area. Further, a time lag may be provided in the same manner for both the display area of the selected object and the determination area. Further, by advancing input speed to determine regions of line-of-sight position P1, it may be a time lag is set. For example, advances provided a time lag when input speed is above the predetermined value, advance input speed may not be provided a time lag in the case of less than the predetermined value.

また、オブジェクト配置部113は、仮想視点からの視線方向を、検出部111の検出結果に基づいて定め、視線位置P1を視認可能とするためのオブジェクトを、仮想空間内に配置する。これにより、端末装置10は、例えば、HMDシステム1が装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置P1を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置P1と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。 Further, the object arranging unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111, and arranges an object for making the line-of-sight position P1 visible in the virtual space. As a result, the terminal device 10 can determine, for example, the line-of-sight position P1 corresponding to the line-of-sight direction in the field-of-view image (for example, the center of the field-of-view image) according to the direction of the head of the user wearing the HMD system 1. It is possible to improve the operability by making it easier for the user to recognize the positional relationship between the line-of-sight position P1 and the selected object.

なお、本実施形態では、端末装置10の方向に基づいて視線方向を検出する例を説明したが、これに限られるものではなく、例えば、ユーザの眼球の向きを検知することで視線方向を検出(アイトラッキング)してもよい。その場合、視線方向は頭部の動きとは異なる検出に基づくため、視線位置P1は視界画像内の固定された位置ではなく、視界画像内で動くこととなる。 In the present embodiment, an example of detecting the line-of-sight direction based on the direction of the terminal device 10 has been described, but the present invention is not limited to this, and for example, the line-of-sight direction is detected by detecting the direction of the user's eyeball. (Eye tracking) may be used. In that case, since the line-of-sight direction is based on detection different from the movement of the head, the line-of-sight position P1 moves in the field-of-view image, not in a fixed position in the field-of-view image.

また、端末装置10は、視線位置P1と選択オブジェクトの判定領域との位置関係に基づいて、選択オブジェクトの選択の有無を判定する判定部112を備える。これにより、端末装置10は、HMDシステム1において、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。 Further, the terminal device 10 includes a determination unit 112 that determines whether or not the selected object is selected based on the positional relationship between the line-of-sight position P1 and the determination area of the selected object. As a result, the terminal device 10 can provide an operation UI for selecting an option in the HMD system 1 by using the line of sight of the user.

例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係から重なる位置関係になってからの経過時間を計時するとともに、計時した経過時間に基づいて選択の有無を判定する。これにより、端末装置10は、視線位置P1が選択オブジェクトの判定領域に重なってから所定の時間が経過することを条件として選択されたと判定するので、選択する意思が無いのに判定領域上を視線位置P1が通過するだけで、選択されてしまうことを防ぐことができる。 For example, the determination unit 112 measures the elapsed time from the positional relationship in which the line-of-sight position P1 and the determination area of the selected object do not overlap in the line-of-sight direction to the overlapping positional relationship, and selects based on the measured elapsed time. Determine the presence or absence. As a result, the terminal device 10 determines that the selection is made on the condition that a predetermined time elapses after the line-of-sight position P1 overlaps the determination area of the selected object. It is possible to prevent the position P1 from being selected only by passing through it.

また、オブジェクト配置部113は、経過時間を視認可能とするためのオブジェクトを仮想空間内に配置する。これにより、端末装置10は、選択が確定されるタイミングをユーザが容易に認識可能なように提示できる。 Further, the object arranging unit 113 arranges an object in the virtual space so that the elapsed time can be visually recognized. As a result, the terminal device 10 can present the timing at which the selection is confirmed so that the user can easily recognize it.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係にある場合と重なる位置関係にある場合とで異なる計時を行う。例えば、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係にある場合に計時を行い、重ならない位置関係なった場合には計時を停止する(0にリセットしないで経過時間を維持する)。なお、重ならない位置関係なった場合には計時を停止しなくとも、時間の経過がゆっくり進むように計時、または時間の経過が後退するように計時してもよい。これにより、端末装置10は、誤操作により視線位置P1が判定領域から外れてしまった場合でも、同じ判定領域に再び視線位置P1を移せば、0から計時し直すのではなく、続きから経過時間の計時が再開されるので、操作性を向上できる。 Further, the determination unit 112 performs different timing depending on whether the line-of-sight position P1 and the determination area of the selected object are in a positional relationship that does not overlap or overlap in the line-of-sight direction. For example, the determination unit 112 performs timing when the line-of-sight position P1 and the determination area of the selected object have an overlapping positional relationship in the line-of-sight direction, and stops timing (does not reset to 0) when the positional relationship does not overlap. Keep the elapsed time with). In addition, when the positional relationship does not overlap, the time may be measured so that the passage of time progresses slowly or the passage of time recedes without stopping the timing. As a result, even if the line-of-sight position P1 is out of the determination area due to an erroneous operation, if the line-of-sight position P1 is moved to the same determination area again, the terminal device 10 does not retime from 0, but the elapsed time from the continuation. Since the timing is restarted, the operability can be improved.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係になってから計時した経過時間を、視線位置P1と他の選択オブジェクトの判定領域とが視線方向において重なる位置関係になった場合、リセットする。これにより、端末装置10は、視線位置P1が他の選択オブジェクトの判定領域に移った場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再び視線位置P1が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。 In addition, the determination unit 112 measures the elapsed time measured after the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction when the line-of-sight position P1 and the determination area of another selected object are in the line-of-sight direction. If there is an overlapping positional relationship, reset it. As a result, when the line-of-sight position P1 moves to the determination area of another selected object, the terminal device 10 considers that the user has no intention of continuing the selection and returns the timed elapsed time to 0, which is the same. Even if the line-of-sight position P1 is unintentionally moved to the determination area, the measurement of the elapsed time is not restarted from the continuation, and it is possible to prevent an erroneous operation from occurring.

また、判定部112は、視線位置P1と選択オブジェクトの判定領域とが視線方向において重なる位置関係になってから計時した経過時間を、視線位置P1と選択オブジェクトの判定領域とが視線方向において重ならない位置関係になって所定の時間が経過すると、リセットしてもよい。これにより、端末装置10は、視線位置P1が判定領域から外れて所定の時間(例えば、10秒など)経過した場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再び視線位置P1が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。 Further, the determination unit 112 does not overlap the line-of-sight position P1 and the determination area of the selected object in the line-of-sight direction with respect to the elapsed time measured since the line-of-sight position P1 and the determination area of the selected object overlap in the line-of-sight direction. It may be reset when a predetermined time elapses in the positional relationship. As a result, when the line-of-sight position P1 deviates from the determination area and a predetermined time (for example, 10 seconds) elapses, the terminal device 10 considers that the user has no intention of continuing the selection, and measures the elapsed time. Is returned to 0, so even if the line-of-sight position P1 is unintentionally moved to the same determination area, the measurement of the elapsed time is not restarted from the continuation, and it is possible to prevent an erroneous operation from occurring.

また、判定部112は、視線方向において視線位置P1が選択オブジェクトの判定領域内のいずれの位置と重なるかによって、計時する速度を変更してもよい。例えば、判定部112は、判定領域の中心に近ければ近いほど、計時する速度を速くしてもよい。この場合、判定領域の中心に近いほど、経過時間ゲージT1のバーが一周分伸びる速度が速くなり、結果的に選択されたと判定される期間が短くなる。これにより、端末装置10は、誤動作防止のための判定時間を設けつつ、選択と判定されるまでの期間を短くする方法もユーザに提供することができる。なお、計時する速度を変更するのに代えて、選択されたと判定(決定)するための判定時間を変更してもよい。例えば、判定部112は、判定領域の中心に近ければ近いほど、判定時間を短くしてもよい。 Further, the determination unit 112 may change the measuring speed depending on which position in the determination area of the selected object the line-of-sight position P1 overlaps in the line-of-sight direction. For example, the closer the determination unit 112 is to the center of the determination area, the faster the timing may be. In this case, the closer to the center of the determination area, the faster the bar of the elapsed time gauge T1 extends by one round, and the shorter the period for which it is determined that the bar has been selected as a result. As a result, the terminal device 10 can also provide the user with a method of shortening the period until the selection is determined while providing the determination time for preventing the malfunction. Instead of changing the timing speed, the determination time for determining (determining) that the clock has been selected may be changed. For example, the closer the determination unit 112 is to the center of the determination area, the shorter the determination time may be.

また、判定領域内に視線位置P1が入った後に、計時する速度(経過時間ゲージT1のバーが伸びる速度)が速くなる領域が設けられてもよい。その領域は、経過時間を必要としない領域(即ち、すぐに選択が決定される領域)であってもよい。その場合、この経過時間を必要としない領域は、ユーザが意図せずに視線位置P1が入ってしまうことがないように、判定領域内の視線位置P1が包含されない位置に設定される。 Further, after the line-of-sight position P1 is entered in the determination region, a region may be provided in which the speed of timing (the speed at which the bar of the elapsed time gauge T1 extends) becomes faster. The region may be a region that does not require elapsed time (ie, a region whose selection is determined immediately). In that case, the area that does not require this elapsed time is set to a position in the determination area that does not include the line-of-sight position P1 so that the line-of-sight position P1 is not unintentionally entered by the user.

また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる。これにより、端末装置10は、HDMシステム1が装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。また、端末装置10は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。 Further, the display control unit 114 causes the display unit 12 to display a field of view image in the field of view from a virtual viewpoint in the virtual space according to the detection result of the detection unit 111. As a result, the terminal device 10 can provide a visual field image in the visual field direction in the virtual space so that the user can see it according to the movement of the head of the user who is equipped with the HDM system 1. Further, since the terminal device 10 can simultaneously display the field of view image in the virtual space and the selected object, the user can make a selection while referring to the game information in the virtual space.

[第2の実施形態]
次に、本発明の第2の実施形態について説明する。
本実施形態に係るHMDシステム1及び端末装置10の基本的な構成は、図1、図2、及び図11に示す各構成と同様であるので、本実施形態において特徴的な処理について説明する。本実施形態では、選択メニュー画面において視界方向を変更して選択操作を行う際に、視線位置に対する選択オブジェクトの相対位置の変化を所定の方向について制限する処理を説明する。
[Second Embodiment]
Next, a second embodiment of the present invention will be described.
Since the basic configurations of the HMD system 1 and the terminal device 10 according to the present embodiment are the same as the configurations shown in FIGS. 1, 2, and 11, the processing characteristic of the present embodiment will be described. In the present embodiment, when the selection operation is performed by changing the viewing direction on the selection menu screen, a process of limiting the change in the relative position of the selected object with respect to the line-of-sight position in a predetermined direction will be described.

図17は、本実施形態に係る選択メニュー画面の一例を示す図である。図示する選択メニュー画面G20には、視線位置P1が画面の中央に表示され、また、仮想空間内にZ軸方向に並んで配置されている4つの選択オブジェクト(選択肢A、選択肢B、選択肢C、及び選択肢D)が表示されている。例えば、ユーザが選択肢Aを選択するために視界方向(視線方向)を選択オブジェクトの並び方向(Z軸方向)であるピッチ方向(上下方向)に変えると、その視界方向(視線方向)の変化に応じて、仮想空間内の視界画像がピッチ方向(上下方向)に変化する。また、仮想空間内に配置されている4つの選択オブジェクトは、視界画像がピッチ方向(上下方向)に変化することにより、視線位置P1に対して相対的にピッチ方向(上下方向)に変化する。 FIG. 17 is a diagram showing an example of a selection menu screen according to the present embodiment. On the illustrated selection menu screen G20, the line-of-sight position P1 is displayed in the center of the screen, and four selection objects (option A, option B, option C,) arranged side by side in the Z-axis direction in the virtual space. And option D) are displayed. For example, when the user changes the view direction (line-of-sight direction) to the pitch direction (vertical direction) which is the arrangement direction (Z-axis direction) of the selected objects in order to select option A, the view direction (line-of-sight direction) changes. Correspondingly, the field view image in the virtual space changes in the pitch direction (vertical direction). Further, the four selected objects arranged in the virtual space change in the pitch direction (vertical direction) relative to the line-of-sight position P1 by changing the visual field image in the pitch direction (vertical direction).

図18は、ユーザの視界方向(視線方向)がピッチ方向(上方向)に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G21では、ユーザが視界方向(視線方向)を上方向に変えたことにより、選択オブジェクトが視線位置P1に対して相対的に下方向に変化し、視線位置P1が選択肢Aの判定領域に重なっている状態を示している。 FIG. 18 is a diagram showing an example of a selection menu screen when the user's visual field direction (line-of-sight direction) changes to the pitch direction (upward direction). In the illustrated selection menu screen G21, when the user changes the visual field direction (line-of-sight direction) upward, the selected object changes downward relative to the line-of-sight position P1, and the line-of-sight position P1 is the option A. It shows the state where it overlaps the judgment area.

一方、選択オブジェクトの並び方向以外(ここでは、ピッチ方向以外)へのユーザの視界方向(視線方向)の変化に対しては、その変化に応じて選択オブジェクトを移動させることにより、視線位置P1に対する相対位置の変化を制限してもよい。
図19は、図17に示す選択メニュー画面において、ユーザの視界方向(視線方向)がヨー方向(右方向)に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G22では、ユーザが視界方向(視線方向)を右方向に変えたことにより視界画像が右方向に変化しているが、選択オブジェクトの視線位置P1に対する相対位置の変化は少ない。破線M1は、移動前の選択オブジェクトの位置(判定領域の中央の位置)を示している。一方、破線M2は、移動後の選択オブジェクトの位置(判定領域の中央の位置)を示している。つまり、オブジェクト配置部113は、ユーザの視界方向(視線方向)がヨー方向(右方向)に変化することにより、破線M1を中心とした位置から破線M2を中心とした位置へ選択オブジェクトを移動させる。
On the other hand, in response to a change in the user's visual field direction (line-of-sight direction) other than the arrangement direction of the selected objects (here, other than the pitch direction), the selected object is moved according to the change with respect to the line-of-sight position P1. The change in relative position may be restricted.
FIG. 19 is a diagram showing an example of a selection menu screen when the user's visual field direction (line-of-sight direction) changes to the yaw direction (right direction) in the selection menu screen shown in FIG. In the illustrated selection menu screen G22, the visual field image is changed to the right because the user changes the visual field direction (line-of-sight direction) to the right, but the change in the relative position of the selected object with respect to the line-of-sight position P1 is small. The broken line M1 indicates the position of the selected object (the position at the center of the determination area) before the movement. On the other hand, the broken line M2 indicates the position of the selected object (the position at the center of the determination area) after the movement. That is, the object arranging unit 113 moves the selected object from the position centered on the broken line M1 to the position centered on the broken line M2 by changing the user's visual field direction (line-of-sight direction) in the yaw direction (right direction). ..

また、オブジェクト配置部113は、ユーザの視界方向(視線方向)のロール方向への変化についても、選択オブジェクトの並び方向以外の方向への変化であるため、その変化に応じて選択オブジェクトを回転移動させる。図20は、ユーザの視界方向(視線方向)がロール方向に変化した場合の選択メニュー画面の一例を示す図である。図示する選択メニュー画面G23では、ユーザの視界方向(視線方向)がロール方向(ここでは、X軸を中心に反時計回り)に角度θ変化した場合の選択オブジェクトの配置を示している。破線M1は、回転移動前の選択オブジェクトの位置(判定領域の中央の位置)を示している。一方、破線M2は、回転移動後の選択オブジェクトの位置(判定領域の中央の位置)を示している。つまり、オブジェクト配置部113は、ユーザの視界方向(視線方向)がロール方向(ここでは、X軸を中心に反時計回り)に角度θ変化した場合、視線位置P1と選択オブジェクトとの回転方向の相対位置が変化しないように、選択オブジェクトをロール方向(ここでは、X軸を中心に反時計回り)に角度θ回転移動させる。 Further, since the object arranging unit 113 also changes the user's visual field direction (line-of-sight direction) in the roll direction in a direction other than the arrangement direction of the selected objects, the object arranging unit 113 rotates and moves the selected objects according to the change. Let me. FIG. 20 is a diagram showing an example of a selection menu screen when the user's visual field direction (line-of-sight direction) changes to the roll direction. The illustrated selection menu screen G23 shows the arrangement of the selection objects when the user's visual field direction (line-of-sight direction) changes by an angle θ in the roll direction (here, counterclockwise about the X-axis). The broken line M1 indicates the position of the selected object (the position at the center of the determination area) before the rotation movement. On the other hand, the broken line M2 indicates the position of the selected object (the position at the center of the determination area) after the rotational movement. That is, when the user's line-of-sight direction (line-of-sight direction) changes by an angle θ in the roll direction (here, counterclockwise about the X-axis), the object arrangement unit 113 is in the rotation direction between the line-of-sight position P1 and the selected object. The selected object is rotated by an angle θ in the roll direction (here, counterclockwise around the X axis) so that the relative position does not change.

なお、ユーザの視界方向(視線方向)が変化した角度と、選択オブジェクトを回転移動させる角度とは、一致させてもよいし、一致させなくてもよい。例えば、選択オブジェクトを回転移動させる角度は、ユーザの視界方向(視線方向)が変化した角度に所定の割合を乗算した角度でもよいし、所定の角度を加算又は減算した角度でもよい。また、選択オブジェクトを回転移動させる角度に上限が設けられてもよい。 The angle at which the user's visual field direction (line-of-sight direction) changes and the angle at which the selected object is rotated may or may not be matched. For example, the angle for rotating and moving the selected object may be an angle obtained by multiplying the angle at which the user's view direction (line-of-sight direction) has changed by a predetermined ratio, or an angle obtained by adding or subtracting a predetermined angle. Further, an upper limit may be provided for the angle at which the selected object is rotated and moved.

このように、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向(視線方向)が変化したと判定された場合、当該視界方向(視線方向)の変化に基づいて、選択オブジェクトの並び方向への移動を制限しつつ選択オブジェクトを移動させる。例えば、オブジェクト配置部113は、選択オブジェクトの並び方向以外の方向については視線位置P1と選択オブジェクトとの相対位置が変化しないように、視界方向(視線方向)の変化に応じて選択オブジェクトを移動させる。 In this way, when the object arranging unit 113 determines that the visual field direction (line-of-sight direction) from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object arrangement unit 113 has the visual field direction (line-of-sight direction). Based on the change, the selected objects are moved while restricting the movement of the selected objects in the alignment direction. For example, the object arranging unit 113 moves the selected object according to the change in the visual field direction (line-of-sight direction) so that the relative position between the line-of-sight position P1 and the selected object does not change in a direction other than the arrangement direction of the selected objects. ..

なお、オブジェクト配置部113は、選択オブジェクトの並び方向以外の方向については所定の範囲に視線位置P1が収まるように、視界方向(視線方向)の変化に応じて選択オブジェクトを移動させてもよい。ここで、所定の範囲とは、例えば、選択オブジェクトの判定領域の、選択オブジェクトの並び方向と直交する方向の幅(例えば、図19のWが示す幅)である。また、所定の範囲とは、例えば、視線方向を軸とした回転方向の角度の範囲であってもよい。 The object arranging unit 113 may move the selected object according to a change in the visual field direction (line-of-sight direction) so that the line-of-sight position P1 falls within a predetermined range in a direction other than the arrangement direction of the selected objects. Here, the predetermined range is, for example, the width of the determination area of the selected objects in the direction orthogonal to the arrangement direction of the selected objects (for example, the width indicated by W in FIG. 19). Further, the predetermined range may be, for example, a range of angles in the rotation direction about the line-of-sight direction.

次に、図21を参照して、本実施形態に係るオブジェクト配置処理の動作を説明する。図21は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、仮想空間内において、複数の選択オブジェクトを所定の方向(例えば、Z軸方向)へ並べて配置する(ステップS400)。これにより、表示部12には、視界画像と複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図17参照)が表示される。 Next, the operation of the object placement process according to the present embodiment will be described with reference to FIG. FIG. 21 is a flowchart showing an example of the object arrangement process according to the present embodiment. First, when the trigger for displaying the selection menu is received, the control unit 110 arranges a plurality of selected objects side by side in a predetermined direction (for example, the Z-axis direction) in the virtual space (step S400). As a result, the display unit 12 displays a selection menu screen (see, for example, FIG. 17) including the field of view image and the plurality of selection objects.

制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS402)。そして、制御部110は、検出した角速度に基づいて、視界方向(視線方向)の変化があるか否かを判定する(ステップS404)。 The control unit 110 detects the angular velocity based on the detection result of the sensor 13 (step S402). Then, the control unit 110 determines whether or not there is a change in the viewing direction (line-of-sight direction) based on the detected angular velocity (step S404).

視界方向(視線方向)の変化があると判定された場合(YES)、制御部110は、所定の方向(選択オブジェクトの並び方向、例えば、Z軸方向)への移動を制限しつつ、視界方向(視線方向)の変化に基づいて選択オブジェクトを移動させ(図18、19参照)、ステップS408の処理に進む(ステップS406)。一方、視界方向(視線方向)の変化がないと判定された場合(NO)、制御部110は、ステップS408の処理に進む。 When it is determined that there is a change in the viewing direction (line-of-sight direction) (YES), the control unit 110 limits the movement in a predetermined direction (arrangement direction of selected objects, for example, the Z-axis direction), and the viewing direction. The selected object is moved based on the change in (line-of-sight direction) (see FIGS. 18 and 19), and the process proceeds to step S408 (step S406). On the other hand, when it is determined that there is no change in the visual field direction (line-of-sight direction) (NO), the control unit 110 proceeds to the process of step S408.

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS408)。選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、ステップS402に処理を戻す。一方、選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS410)、オブジェクト配置処理を終了する。 Next, the control unit 110 determines whether or not the trigger for turning off the display of the selection menu has been accepted (step S408). If it is determined that the trigger for turning off the display of the selection menu is not accepted (NO), the control unit 110 returns the process to step S402. On the other hand, when it is determined that the trigger for turning off the display of the selection menu has been accepted (YES), the control unit 110 erases the selected objects arranged in the virtual space (step S410), and ends the object arrangement process. ..

〔第2の実施形態のまとめ〕
以上説明したように、本実施形態に係る端末装置10は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なHMDシステム1の少なくとも一部として利用可能な端末装置である。例えば、端末装置10は、検出部111と、オブジェクト配置部113と、表示制御部114と、を備えている。検出部111は、端末装置10の方向に関する情報を検出する。オブジェクト配置部113は、ユーザからの選択の有無を判定する判定領域を有する複数の選択オブジェクトを、仮想空間内において所定の方向に並べて配置する。表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向に配置されている選択オブジェクトを表示部12に表示させる。そして、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、当該視界方向の変化に基づいて所定の方向への移動を制限しつつ、選択オブジェクトを移動させる。
[Summary of the second embodiment]
As described above, the terminal device 10 according to the present embodiment is at least one of the HMD systems 1 capable of displaying a visual field image representing the visual field from a virtual viewpoint in the virtual space as a stereoscopic image using binocular parallax. It is a terminal device that can be used as a unit. For example, the terminal device 10 includes a detection unit 111, an object arrangement unit 113, and a display control unit 114. The detection unit 111 detects information regarding the direction of the terminal device 10. The object arranging unit 113 arranges a plurality of selected objects having a determination area for determining the presence / absence of selection from the user side by side in a predetermined direction in the virtual space. The display control unit 114 causes the display unit 12 to display the selected objects arranged in the visual field direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111. Then, when it is determined that the visual field direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detection unit 111, the object arranging unit 113 moves in a predetermined direction based on the change in the visual field direction. Move the selected object while limiting.

これにより、端末装置10は、視線位置P1と選択オブジェクトの判定領域との相対位置が、選択に不必要な方向へ変化しないように制限することができるため、選択肢に対して選択操作する際の操作性を向上することができる。 As a result, the terminal device 10 can limit the relative position between the line-of-sight position P1 and the determination area of the selected object so as not to change in a direction unnecessary for selection. Operability can be improved.

また、オブジェクト配置部113は、仮想視点からの視線方向を、検出部111の検出結果に基づいて定める。また、オブジェクト配置部113は、記仮想視点からの視線方向に対応する視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)を、仮想空間内に配置する。これにより、端末装置10は、例えば、HMDシステム1が装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置P1を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置P1と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。 Further, the object arranging unit 113 determines the line-of-sight direction from the virtual viewpoint based on the detection result of the detection unit 111. Further, the object arranging unit 113 arranges an object (for example, the line-of-sight position P1) for making the line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint visible in the virtual space. As a result, the terminal device 10 can determine, for example, the line-of-sight position P1 corresponding to the line-of-sight direction in the field-of-view image (for example, the center of the field-of-view image) according to the direction of the head of the user wearing the HMD system 1. It is possible to improve the operability by making it easier for the user to recognize the positional relationship between the line-of-sight position P1 and the selected object.

例えば、オブジェクト配置部113は、視線位置を視認可能とするためのオブジェクト(例えば、視線位置P1)と選択オブジェクトとを仮想空間内の同一面に配置する。同一面とは、例えば、仮想空間内の視線方向に直交する面である。なお、上記の同一面とは、厳密に同一な面のみに限定されるものではなく、略同一な面であってもよい。また、この同一面は、視線方向に直交する面に限定されるものではなく、仮想空間内のいずれの方向の面であってもよいし、平面であっても曲面であってもよい。これにより、端末装置10は、視線位置P1と選択オブジェクトとの相対位置(位置関係)に基づく選択肢の選択操作UIを実現可能とすることができる。具体的には、端末装置10は、視線位置P1と選択オブジェクトを仮想空間内の同一面に配置することで、両眼視差を利用した立体視において、視線位置P1と選択オブジェクトとを同じ焦点距離とすることができるため、両者の位置関係を視認しやすくすることができる。 For example, the object arranging unit 113 arranges an object (for example, the line-of-sight position P1) for making the line-of-sight position visible and a selected object on the same surface in the virtual space. The same plane is, for example, a plane orthogonal to the line-of-sight direction in the virtual space. The above-mentioned identical surface is not limited to exactly the same surface, and may be substantially the same surface. Further, the same plane is not limited to a plane orthogonal to the line-of-sight direction, and may be a plane in any direction in the virtual space, or may be a plane or a curved surface. As a result, the terminal device 10 can realize the selection operation UI of the options based on the relative position (positional relationship) between the line-of-sight position P1 and the selected object. Specifically, the terminal device 10 arranges the line-of-sight position P1 and the selected object on the same surface in the virtual space, so that the line-of-sight position P1 and the selected object have the same focal length in stereoscopic vision using binocular parallax. Therefore, it is possible to make it easier to visually recognize the positional relationship between the two.

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、選択オブジェクトの並び方向以外の方向については、視線位置P1が選択オブジェクトの判定領域の並び方向と直交する方向の幅に視線位置が収まるように、該視界方向の変化に応じて選択オブジェクトを移動させる。これにより、端末装置10は、選択オブジェクトを選択するために必要な方向以外(即ち、操作に不必要な方向)については、視線位置P1が選択オブジェクトの判定領域の幅の範囲から外れないように制限するため、選択肢に対する選択操作を行いやすくすることできる。また、このように制限すると、選択オブジェクトを小さく(幅を狭める)しても操作への影響が少ないため、選択オブジェクトを小さく表示することで、選択オブジェクトが背景となる視界画像の表示の妨げとなることを軽減することもできる。 When it is determined that the viewing direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detecting unit 111, the object arranging unit 113 selects the line-of-sight position P1 in a direction other than the arrangement direction of the selected objects. The selected object is moved according to the change in the visual field direction so that the line-of-sight position is within the width in the direction orthogonal to the arrangement direction of the determination area of the object. As a result, the terminal device 10 prevents the line-of-sight position P1 from deviating from the width of the determination area of the selected object except for the direction necessary for selecting the selected object (that is, the direction unnecessary for the operation). Since it is restricted, it is possible to facilitate the selection operation for the options. In addition, if the selection object is restricted in this way, even if the selection object is made smaller (narrowing the width), the effect on the operation is small. It can also be reduced.

また、オブジェクト配置部113は、選択をキャンセルする(判定領域外に視線位置P1を外す)ためのキャンセル領域を残す意味で、上記選択オブジェクトの幅以上に視線位置P1が変化するようにしてもよい。 Further, the object arranging unit 113 may change the line-of-sight position P1 beyond the width of the selected object in the sense of leaving a cancel area for canceling the selection (remove the line-of-sight position P1 outside the determination area). ..

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界方向が変化したと判定された場合、選択オブジェクトの並び方向以外の方向については視線位置P1と選択オブジェクトとの相対位置が変化しないように、該視界方向の変化に応じて選択オブジェクトを移動させる。これにより、端末装置10は、選択オブジェクトを選択するために必要な視線位置P1を移動させる方向以外(即ち、操作に不必要な方向)については、視線位置P1と選択オブジェクトの判定領域との相対位置が変化しないように制限するため、選択肢に対する選択操作を行いやすくすることできる。また、このように制限すると、選択オブジェクトを小さく(幅を狭める)しても操作への影響が少ないため、選択オブジェクトを小さく表示することで、選択オブジェクトが背景となる視界画像の表示の妨げとなることを軽減することもできる。 When it is determined that the viewing direction from the virtual viewpoint in the virtual space has changed based on the detection result of the detecting unit 111, the object arranging unit 113 sets the line-of-sight position P1 and the selected object in directions other than the arrangement direction of the selected objects. The selected object is moved according to the change in the field of view so that the relative position with the object does not change. As a result, the terminal device 10 is relative to the line-of-sight position P1 and the determination area of the selected object except for the direction in which the line-of-sight position P1 required for selecting the selected object is moved (that is, the direction unnecessary for the operation). Since the position is restricted so that it does not change, it is possible to facilitate the selection operation for the options. In addition, if the selection object is restricted in this way, even if the selection object is made smaller (narrowing the width), the effect on the operation is small. It can also be reduced.

また、端末装置10は、視線位置P1と選択オブジェクトの判定領域との相対位置(位置関係)に基づいて、選択オブジェクトの選択の有無を判定する判定部112を備える。これにより、端末装置10は、HMDシステム1において、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。 Further, the terminal device 10 includes a determination unit 112 that determines whether or not the selected object is selected based on the relative position (positional relationship) between the line-of-sight position P1 and the determination area of the selected object. As a result, the terminal device 10 can provide an operation UI for selecting an option in the HMD system 1 by using the line of sight of the user.

オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界が視線方向を軸とした回転方向に変化したと判定された場合、視線位置P1と選択オブジェクトとの回転方向の相対位置が変化しないように、選択オブジェクトを回転方向に回転させる。これにより、端末装置10は、ユーザがロール方向に頭部を傾けた場合でも、ユーザの頭部に対する上下左右方向と選択オブジェクトの並び方向との相対関係が保たれるので、選択肢に対する選択操作を行いやすくすることできる。 When the object arranging unit 113 determines that the field of view from the virtual viewpoint in the virtual space has changed in the rotation direction about the line-of-sight direction based on the detection result of the detection unit 111, the line-of-sight position P1 and the selected object Rotate the selected object in the direction of rotation so that the relative position in the direction of rotation does not change. As a result, even when the user tilts his / her head in the roll direction, the terminal device 10 maintains the relative relationship between the vertical / horizontal directions with respect to the user's head and the arrangement direction of the selected objects. It can be made easier to do.

なお、オブジェクト配置部113は、検出部111の検出結果に基づいて仮想空間内の仮想視点からの視界が視線方向を軸とした回転方向に変化したと判定された場合でも、選択オブジェクトを回転方向に回転させなくともよい。この場合、選択メニュー画面において、背景となる視界画像とともに、選択オブジェクトが回転方向に変化した分斜めに表示されることになる。 Note that the object arranging unit 113 rotates the selected object in the rotation direction even when it is determined that the field of view from the virtual viewpoint in the virtual space has changed in the rotation direction about the line-of-sight direction based on the detection result of the detection unit 111. It is not necessary to rotate it. In this case, on the selection menu screen, the selected object is displayed diagonally by the amount of change in the rotation direction together with the field of view image as the background.

また、表示制御部114は、検出部111の検出結果に応じて仮想空間内の仮想視点からの視界方向の視界画像を、表示部12に表示させる、これにより、端末装置10は、HDMシステム1が装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。また、端末装置10は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。 Further, the display control unit 114 causes the display unit 12 to display a field of view image in the field of view from the virtual viewpoint in the virtual space according to the detection result of the detection unit 111, whereby the terminal device 10 can display the HDM system 1 It is possible to provide a visual field image in the visual field direction in the virtual space so that the user can see it according to the movement of the head of the user wearing the. Further, since the terminal device 10 can simultaneously display the field of view image in the virtual space and the selected object, the user can make a selection while referring to the game information in the virtual space.

[第3の実施形態]
次に、本発明の第3の実施形態について説明する。
本実施形態に係るHMDシステム1及び端末装置10の基本的な構成は、図1、図2、及び図11に示す各構成と同様であるので、本実施形態において特徴的な処理について説明する。本実施形態では、複数の選択オブジェクトがそれぞれ並ぶ複数の列が配置されているような場合に、ユーザの頭部の動きに基づいて、選択の有無の判定対象となる選択オブジェクトを列ごとに切り替える例を説明する。
[Third Embodiment]
Next, a third embodiment of the present invention will be described.
Since the basic configurations of the HMD system 1 and the terminal device 10 according to the present embodiment are the same as the configurations shown in FIGS. 1, 2, and 11, the processing characteristic of the present embodiment will be described. In the present embodiment, when a plurality of columns in which a plurality of selected objects are lined up are arranged, the selected objects to be determined whether or not to be selected are switched for each column based on the movement of the user's head. An example will be described.

図22は、判定対象となる選択オブジェクトを列ごとに切り替え可能な選択メニュー画面の一例を示す図である。図示する選択メニュー画面G25には、5つの選択オブジェクトがZ軸方向に並ぶ2つの列(破線M1上に並ぶ左側の列と、破線M2上に並ぶ右側の列)が左右(Y軸方向)に所定の間隔を空けて並んで表示されている。左側の列には選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。右側の列には選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトがZ軸方向に所定の間隔を空けて並んで表示されている。この選択メニュー画面G25では、選択対象が列ごとに切り替わる仕様である。例えば、左側(A)の列が選択対象となっている場合には、選択肢A、選択肢C、選択肢E、選択肢G、及び選択肢Iの5つの選択オブジェクトのうちの何れかを選択可能である。一方、右側(B)の列が選択対象となっている場合には、選択肢B、選択肢D、選択肢F、選択肢H、及び選択肢Jの5つの選択オブジェクトのうちの何れかを選択可能である。 FIG. 22 is a diagram showing an example of a selection menu screen in which the selection object to be determined can be switched for each column. On the illustrated selection menu screen G25, two columns in which five selection objects are arranged in the Z-axis direction (the left column arranged on the broken line M1 and the right column arranged on the broken line M2) are left and right (Y-axis direction). They are displayed side by side with a predetermined interval. In the left column, five selection objects of option A, option C, option E, option G, and option I are displayed side by side at predetermined intervals in the Z-axis direction. In the right column, five selection objects of option B, option D, option F, option H, and option J are displayed side by side at predetermined intervals in the Z-axis direction. In this selection menu screen G25, the selection target is switched for each column. For example, when the column on the left side (A) is the selection target, any one of the five selection objects of option A, option C, option E, option G, and option I can be selected. On the other hand, when the column on the right side (B) is the selection target, any one of the five selection objects of option B, option D, option F, option H, and option J can be selected.

例えば、ユーザの頭部の動きがX軸を中心とした回転方向(ロール方向)であった場合に、選択対象となる列が切り替わる。具体的には、ユーザの頭部の動きが右回転の場合、選択対象となる列が左の列から右の列に切り換わり、ユーザの頭部の動きが左回転の場合、選択対象となる列が右の列から左の列に切り換わる。なお、ユーザの頭部の動きの回転方向によらず、ユーザの頭部の動きが回転であれば、選択対象となる列が切り替わる。 For example, when the movement of the user's head is in the rotation direction (roll direction) about the X axis, the columns to be selected are switched. Specifically, when the movement of the user's head is rotated to the right, the column to be selected is switched from the left column to the column to the right, and when the movement of the user's head is rotated to the left, the column to be selected is selected. The column switches from the right column to the left column. If the movement of the user's head is rotated regardless of the direction of rotation of the movement of the user's head, the column to be selected is switched.

また、単に回転方向のみでなく回転方向とその回転速度に関する情報に基づいて、選択対象となる列が切り替わってもよい。例えば、回転速度が所定値以上の場合には視界方向が回転するとともに選択対象となる列が切り替わり、回転速度が所定値未満の場合には視界方向が回転するのみで選択対象となる列が切り替わらないようにしてもよい。 Further, the columns to be selected may be switched based on the information on the rotation direction and the rotation speed as well as the rotation direction. For example, if the rotation speed is greater than or equal to a predetermined value, the viewing direction rotates and the columns to be selected are switched, and if the rotation speed is less than the predetermined value, the columns to be selected are switched only by rotating the viewing direction. You may not have it.

図23は、本実施形態に係るオブジェクト配置処理の一例を示すフローチャートである。まず、選択メニュー表示のトリガを受け付けると、制御部110は、仮想空間内において、複数の選択オブジェクトを複数列に所定の方向(例えば、Z軸方向)へ並べて配置する(ステップS500)。これにより、表示部12には、視界画像と左右2列の複数の選択オブジェクトとが含まれる選択メニュー画面(例えば、図22参照)が表示される。 FIG. 23 is a flowchart showing an example of the object arrangement process according to the present embodiment. First, upon receiving the trigger for displaying the selection menu, the control unit 110 arranges a plurality of selected objects in a plurality of columns in a predetermined direction (for example, in the Z-axis direction) in the virtual space (step S500). As a result, the display unit 12 displays a selection menu screen (see, for example, FIG. 22) including the field of view image and the plurality of selection objects in the left and right rows.

制御部110は、センサ13の検知結果に基づいて角速度を検出する(ステップS502)。そして、制御部110は、検出した角速度に基づいて、視界方向(視線方向)の変化(X軸を軸とした回転方向への変化)があるか否かを判定する(ステップS504)。 The control unit 110 detects the angular velocity based on the detection result of the sensor 13 (step S502). Then, the control unit 110 determines whether or not there is a change in the view direction (line-of-sight direction) (change in the rotation direction about the X-axis) based on the detected angular velocity (step S504).

X軸を軸とした回転方向への変化があると判定された場合(YES)、制御部110は、回転方向の変化速度が所定値以上であるか否かを判定する(ステップS506)。そして、回転方向の変化速度が所定値以上であると判定された場合(YES)、制御部110は、判定対象とする選択オブジェクトの列を切り替える(ステップS508)。一方、回転方向の変化速度が所定値以上でないと判定された場合(NO)、制御部110は、判定対象とする選択オブジェクトの列の切り替えを行わない。 When it is determined that there is a change in the rotation direction about the X axis (YES), the control unit 110 determines whether or not the change speed in the rotation direction is equal to or greater than a predetermined value (step S506). Then, when it is determined that the change speed in the rotation direction is equal to or greater than a predetermined value (YES), the control unit 110 switches the row of the selected objects to be determined (step S508). On the other hand, when it is determined that the change speed in the rotation direction is not equal to or more than a predetermined value (NO), the control unit 110 does not switch the column of the selected object to be determined.

次に、制御部110は、選択メニューの表示オフのトリガを受け付けたか否かを判定する(ステップS510)。選択メニューの表示オフのトリガを受け付けていないと判定された場合(NO)、制御部110は、ステップS502に処理を戻す。一方、選択メニューの表示オフのトリガを受け付けたと判定された場合(YES)、制御部110は、仮想空間内に配置している選択オブジェクトを消去して(ステップS512)、オブジェクト配置処理を終了する。 Next, the control unit 110 determines whether or not the trigger for turning off the display of the selection menu has been accepted (step S510). If it is determined that the trigger for turning off the display of the selection menu is not accepted (NO), the control unit 110 returns the process to step S502. On the other hand, when it is determined that the trigger for turning off the display of the selection menu has been accepted (YES), the control unit 110 erases the selected objects arranged in the virtual space (step S512), and ends the object arrangement process. ..

〔第3の実施形態のまとめ〕
以上説明したように、本実施形態に係る端末装置10において、オブジェクト配置部113は、仮想空間内において、複数の選択オブジェクトがそれぞれ並ぶ複数の列を配置する。判定部112は、選択オブジェクトの選択の有無を列ごとに判定するとともに、検出部111の検出結果に基づいて、判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、視界方向の変化に基づいて所定の方向への選択オブジェクトの移動を制限しつつも、ユーザが頭の向きを変えるだけで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。
[Summary of the third embodiment]
As described above, in the terminal device 10 according to the present embodiment, the object arranging unit 113 arranges a plurality of columns in which a plurality of selected objects are lined up in the virtual space. The determination unit 112 determines whether or not the selected object is selected for each column, and switches the determination column based on the detection result of the detection unit 111. As a result, when the terminal device 10 selects an option for each of a plurality of columns, the terminal device 10 only changes the direction of the head of the user while restricting the movement of the selected object in a predetermined direction based on the change in the viewing direction. , Since the column to be selected can be switched, the operability at the time of selecting the option can be improved.

例えば、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向に変化したと判定された場合、変化した回転方向に応じて前記判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きをロール方向に変えるだけで、選択対象の列を対応する方向の列に切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。 For example, when the determination unit 112 determines that the field of view from the virtual viewpoint has changed in the rotation direction about the line-of-sight direction from the virtual viewpoint, the determination unit 112 switches the determination column according to the changed rotation direction. As a result, when the terminal device 10 selects an option for each of a plurality of columns, the user can switch the selected column to the column in the corresponding direction simply by changing the direction of the head to the roll direction. It is possible to improve the operability at the time of the selection operation.

検出部111は、端末装置10の方向に関する情報として、該方向の変化速度に関する情報を検出する。判定部112は、検出部111により所定値以上の変化速度に関する情報が検出された場合、判定する列を切り替える。これにより、端末装置10は、複数の列ごとに選択肢を選択する場合、ユーザが頭の向きを所定値以上の速度で変化させることで、選択対象の列を切り替えることができるので、選択肢に対して選択操作する際の操作性を向上することができる。 The detection unit 111 detects the information regarding the rate of change in the direction as the information regarding the direction of the terminal device 10. When the detection unit 111 detects information on the rate of change equal to or higher than a predetermined value, the determination unit 112 switches the determination column. As a result, when the terminal device 10 selects an option for each of a plurality of columns, the user can switch the column to be selected by changing the direction of the head at a speed equal to or higher than a predetermined value. It is possible to improve the operability when performing the selection operation.

なお、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向の変化と、検出部111により所定値以上の変化速度に関する情報が検出された場合との両方に基づいて判定する列を切り替えてもよいし、いずれか一方に基づいて判定する列を切り替えてもよい。例えば、判定部112は、仮想視点からの視界が仮想視点からの視線方向を軸とした回転方向が右方向に変化したことのみで、判定する列を右側に切り替えてもよいし、右方向に変化し且つ所定値以上の変化速度が検出された場合に、判定する列を右側に切り替えてもよい。また、判定部112は、回転方向への変化に関わらず所定値以上の変化速度が検出された場合に、判定する列を右側または左側(例えば、2列であれば、一方から他方へ、3列以上であれば、予め設定されているが側の列)に切り替えてもよい。 In addition, the determination unit 112 can be used both in the case where the field of view from the virtual viewpoint changes in the rotation direction about the line-of-sight direction from the virtual viewpoint and in the case where the detection unit 111 detects information on the change speed of a predetermined value or more. The column to be judged based on may be switched, or the column to be judged based on either one may be switched. For example, the determination unit 112 may switch the determination column to the right or to the right only when the field of view from the virtual viewpoint changes to the right in the rotation direction about the line-of-sight direction from the virtual viewpoint. When a change and a change rate of a predetermined value or more are detected, the determination column may be switched to the right side. Further, the determination unit 112 sets the determination column on the right side or the left side (for example, in the case of two columns, from one to the other, 3) when a change speed of a predetermined value or more is detected regardless of the change in the rotation direction. If it is more than a column, it may be switched to a preset but side column).

[変形例]
以上、この発明の実施形態について図面を参照して詳述してきたが、具体的な構成は上述の実施形態に限られるものではなく、この発明の要旨を逸脱しない範囲の設計等も含まれる。例えば、上述の第1〜3の実施形態において説明した各構成は、任意に組み合わせることができる。例えば、第2、第3の実施形態において、視線位置P1が判定領域に重なった後は、第1の実施形態と同様に、経過時間が計時され、経過時間ゲージT1が表示されるとともに、経過時間に基づいて選択の有無が判定(決定)される。
[Modification example]
Although the embodiments of the present invention have been described in detail with reference to the drawings, the specific configuration is not limited to the above-described embodiments, and includes designs and the like within a range that does not deviate from the gist of the present invention. For example, the configurations described in the first to third embodiments described above can be arbitrarily combined. For example, in the second and third embodiments, after the line-of-sight position P1 overlaps the determination region, the elapsed time is timed, the elapsed time gauge T1 is displayed, and the elapsed time is elapsed, as in the first embodiment. Whether or not to select is determined (determined) based on the time.

上記実施形態では、選択オブジェクトの並び方向がZ軸方向である例を説明したが、選択オブジェクトの並び方向は、Z軸方向に限られるものではなく、例えば、Y軸方向であってもよいし、Y軸成分とZ軸成分とを有する方向であってもよい。また、選択オブジェクトが3次元に配置されている場合、選択オブジェクトの並び方向は、X軸成分とY軸成分とZ軸成分とを有する方向であってもよい。また、図22に示す例では、複数の選択オブジェクトがZ軸方向に並ぶ複数の列が左右(Y軸方向)に並ぶ例を示したが、複数の選択オブジェクトがY軸方向に並ぶ複数の列が上下(Z軸方向)に並ぶ例であって、上下(Z軸方向)に列を切り替える構成としてもよい。 In the above embodiment, the example in which the arrangement direction of the selected objects is the Z-axis direction has been described, but the arrangement direction of the selected objects is not limited to the Z-axis direction, and may be, for example, the Y-axis direction. , The direction may have a Y-axis component and a Z-axis component. Further, when the selected objects are arranged in three dimensions, the arrangement direction of the selected objects may be a direction having an X-axis component, a Y-axis component, and a Z-axis component. Further, in the example shown in FIG. 22, a plurality of columns in which a plurality of selected objects are arranged in the Z-axis direction are arranged in the left-right (Y-axis direction), but a plurality of columns in which a plurality of selected objects are arranged in the Y-axis direction are arranged. Is an example in which the columns are arranged vertically (Z-axis direction), and the columns may be switched vertically (Z-axis direction).

なお、上記実施形態では、端末装置10をアタッチメント2に装着することでHMDとして利用できるHMDシステム1の構成を例に説明したが、これに限られるものではなく、例えば、端末装置10は、アタッチメント2を必要としなくともそれ自体で頭部に装着可能な形態、即ちHMDであってもよい。また、上記実施形態において、端末装置10が少なくとも一部に構成されるHMD(HMDシステム)として、ユーザの頭部に装着可能な構成例を説明したが、HMDは、頭部に完全に装着可能な形状の構成に限られるものではない。例えば、HMDとして利用可能な端末装置10は、アタッチメントの有無にかかわらず、ユーザが目の前に把持することで、ユーザの目と表示部12との位置関係を所定の関係に保ち、仮想空間内の視界画像や各種オブジェクトを視認可能とする装置(例えば、双眼鏡のような形状)であってもよい。 In the above embodiment, the configuration of the HMD system 1 that can be used as an HMD by attaching the terminal device 10 to the attachment 2 has been described as an example, but the present invention is not limited to this, and for example, the terminal device 10 is an attachment. It may be a form that can be worn on the head by itself without requiring 2, that is, an HMD. Further, in the above embodiment, as an HMD (HMD system) in which the terminal device 10 is composed of at least a part thereof, a configuration example that can be attached to the user's head has been described, but the HMD can be completely attached to the head. It is not limited to the configuration of a different shape. For example, the terminal device 10 that can be used as an HMD maintains a predetermined positional relationship between the user's eyes and the display unit 12 by being held in front of the user regardless of the presence or absence of an attachment, and is a virtual space. It may be a device (for example, a shape like binoculars) that makes the visual field image and various objects visible inside.

また、上記実施形態では、選択メニュー画面に表示される選択肢としての選択オブジェクトの例を説明したが、これに限られるものではない。例えば、選択オブジェクトは、端末装置10が実行するゲーム内の仮想空間において、判定領域を有するキャラクタ、アイテム等として配置されるオブジェクトであってもよい。一例として、第1の実施形態において説明した選択オブジェクトに関する処理を、ゲームの仮想空間内を飛び交う複数の敵オブジェクト(選択オブジェクト)に対する処理において適用してもよい。例えば、ユーザの視線位置に基づいて攻撃が照射され、敵オブジェクト(選択オブジェクト)に対しての照射(判定領域と視線位置とが重なる位置関係)が所定の時間経過すると敵オブジェクトを撃墜(選択オブジェクトの選択有)するといった処理において適用してもよい。 Further, in the above embodiment, an example of a selection object as an option displayed on the selection menu screen has been described, but the present invention is not limited to this. For example, the selected object may be an object arranged as a character, an item, or the like having a determination area in the virtual space in the game executed by the terminal device 10. As an example, the process relating to the selected object described in the first embodiment may be applied to the process for a plurality of enemy objects (selected objects) flying in the virtual space of the game. For example, an attack is emitted based on the user's line-of-sight position, and when the irradiation of the enemy object (selected object) (the positional relationship where the judgment area and the line-of-sight position overlap) elapses for a predetermined time, the enemy object is shot down (selected object). It may be applied in a process such as (with selection).

また、上述の制御部110の機能を実現するためのプログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行することにより制御部110としての処理を行ってもよい。ここで、「記録媒体に記録されたプログラムをコンピュータシステムに読み込ませ、実行する」とは、コンピュータシステムにプログラムをインストールすることを含む。ここでいう「コンピュータシステム」とは、OSや周辺機器等のハードウェアを含むものとする。また、「コンピュータシステム」は、インターネットやWAN、LAN、専用回線等の通信回線を含むネットワークを介して接続された複数のコンピュータ装置を含んでもよい。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、ROM、CD−ROM等の可搬媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。このように、プログラムを記憶した記録媒体は、CD−ROM等の非一過性の記録媒体であってもよい。また、記録媒体には、当該プログラムを配信するために配信サーバからアクセス可能な内部または外部に設けられた記録媒体も含まれる。配信サーバの記録媒体に記憶されるプログラムのコードは、端末装置で実行可能な形式のプログラムのコードと異なるものでもよい。すなわち、配信サーバからダウンロードされて端末装置で実行可能な形でインストールができるものであれば、配信サーバで記憶される形式は問わない。なお、プログラムを複数に分割し、それぞれ異なるタイミングでダウンロードした後に端末装置で合体される構成や、分割されたプログラムのそれぞれを配信する配信サーバが異なっていてもよい。さらに「コンピュータ読み取り可能な記録媒体」とは、ネットワークを介してプログラムが送信された場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリ(RAM)のように、一定時間プログラムを保持しているものも含むものとする。また、上記プログラムは、上述した機能の一部を実現するためのものであってもよい。さらに、上述した機能をコンピュータシステムに既に記録されているプログラムとの組み合わせで実現できるもの、いわゆる差分ファイル(差分プログラム)であってもよい。 Further, the program for realizing the function of the control unit 110 described above is recorded on a computer-readable recording medium, and the program recorded on the recording medium is read by the computer system and executed to serve as the control unit 110. May be processed. Here, "loading and executing a program recorded on a recording medium into a computer system" includes installing the program in the computer system. The term "computer system" as used herein includes hardware such as an OS and peripheral devices. Further, the "computer system" may include a plurality of computer devices connected via a network including a communication line such as the Internet, WAN, LAN, and a dedicated line. Further, the "computer-readable recording medium" refers to a portable medium such as a flexible disk, a magneto-optical disk, a ROM, or a CD-ROM, or a storage device such as a hard disk built in a computer system. As described above, the recording medium in which the program is stored may be a non-transient recording medium such as a CD-ROM. The recording medium also includes an internal or external recording medium that can be accessed from the distribution server to distribute the program. The code of the program stored in the recording medium of the distribution server may be different from the code of the program in a format that can be executed by the terminal device. That is, the format stored in the distribution server does not matter as long as it can be downloaded from the distribution server and installed in a form that can be executed by the terminal device. The program may be divided into a plurality of parts, downloaded at different timings, and then combined by the terminal device, or the distribution server for distributing each of the divided programs may be different. Furthermore, a "computer-readable recording medium" is a volatile memory (RAM) inside a computer system that serves as a server or client when a program is transmitted via a network, and holds the program for a certain period of time. It shall also include things. Further, the above program may be for realizing a part of the above-mentioned functions. Further, it may be a so-called difference file (difference program) that can realize the above-mentioned function in combination with a program already recorded in the computer system.

また、上述した制御部110の機能の一視線位置部または全部を、LSI(Large Scale Integration)等の集積回路として実現してもよい。上述した各機能は個別にプロセッサ化してもよいし、一部、または全部を集積してプロセッサ化してもよい。また、集積回路化の手法はLSIに限らず専用回路、または汎用プロセッサで実現してもよい。また、半導体技術の進歩によりLSIに代替する集積回路化の技術が出現した場合、当該技術による集積回路を用いてもよい。 Further, the one-line-of-sight position portion or all of the functions of the control unit 110 described above may be realized as an integrated circuit such as an LSI (Large Scale Integration). Each of the above-mentioned functions may be made into a processor individually, or a part or all of them may be integrated into a processor. Further, the method of making an integrated circuit is not limited to the LSI, and may be realized by a dedicated circuit or a general-purpose processor. Further, when an integrated circuit technology that replaces an LSI appears due to advances in semiconductor technology, an integrated circuit based on this technology may be used.

[付記]
以上の記載から本発明は例えば以下のように把握される。なお、本発明の理解を容易にするために添付図面の参照符号を便宜的に括弧書きにて付記するが、それにより本発明が図示の態様に限定されるものではない。
[Additional Notes]
From the above description, the present invention can be grasped as follows, for example. Reference numerals in the accompanying drawings are added in parentheses for convenience in order to facilitate understanding of the present invention, but the present invention is not limited to the illustrated mode.

(付記1)本発明の一態様に係る端末装置(10)は、両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、前記端末装置の方向に関する情報を検出する検出部(111、S112、S402、S502)と、ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、前記仮想空間内に配置するオブジェクト配置部(113、S100、S200、S300、S400、S500)と、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向に配置されている前記選択オブジェクトを表示部に表示させる表示制御部(114、S100、S200、S300、S400、S500)と、を備え、前記オブジェクト配置部は、前記仮想空間における前記仮想視点からの視線方向に対応する視線位置と前記選択オブジェクトの判定領域との位置関係に基づいて、前記選択オブジェクトの判定領域を変更する(S104)。 (Appendix 1) The terminal device (10) according to one aspect of the present invention is a head-mounted display system capable of displaying a view image representing a view from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax. A terminal device that can be used as at least a part of the above, and has a detection unit (111, S112, S402, S502) that detects information about the direction of the terminal device, and a determination area that determines whether or not there is a selection from the user. Object placement units (113, S100, S200, S300, S400, S500) that place selected objects in the virtual space, and the viewing direction from the virtual viewpoint in the virtual space according to the detection result of the detection unit. The object arranging unit includes a display control unit (114, S100, S200, S300, S400, S500) for displaying the selected object arranged in the above on the display unit, and the object arranging unit is from the virtual viewpoint in the virtual space. The determination area of the selected object is changed based on the positional relationship between the line-of-sight position corresponding to the line-of-sight direction and the determination area of the selected object (S104).

付記1の構成によれば、端末装置は、仮想視点からの視線方向に対応する視線位置と選択オブジェクトの判定領域との位置関係によって、該判定領域の大きさ(見かけ上の大きさ)を変更することができるため、選択肢に対して選択操作する際の操作性を向上することができる。 According to the configuration of Appendix 1, the terminal device changes the size (apparent size) of the determination area according to the positional relationship between the line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint and the determination area of the selected object. Therefore, it is possible to improve the operability when performing a selection operation for an option.

(付記2)また、本発明の一態様は、付記1に記載の端末装置であって、前記オブジェクト配置部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係から重なる位置関係になった場合、前記選択オブジェクトの判定領域を広くする。 (Appendix 2) Further, one aspect of the present invention is the terminal device according to Appendix 1, in which the object arranging unit has a positional relationship in which the line-of-sight position and the determination area of the selected object do not overlap in the line-of-sight direction. When the positional relationship overlaps with the above, the determination area of the selected object is widened.

付記2の構成によれば、端末装置は、仮想視点からの視線方向に対応する視線位置が選択オブジェクトの判定領域に入った場合に判定領域を広げるので、ユーザが意図せずに視線位置が判定領域から外れてしまう誤操作の発生を抑制できる。 According to the configuration of Appendix 2, the terminal device expands the determination area when the line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint enters the determination area of the selected object, so that the line-of-sight position is unintentionally determined by the user. It is possible to suppress the occurrence of erroneous operations that deviate from the area.

(付記3)また、本発明の一態様は、付記2に記載の端末装置であって、前記オブジェクト配置部は、前記選択オブジェクトの判定領域を広くする場合、他の前記選択オブジェクトの判定領域に前記視線方向において重ならない範囲で広くする。 (Appendix 3) Further, one aspect of the present invention is the terminal device according to the appendix 2, and when the object arranging unit widens the determination area of the selected object, it can be used as a determination area of another selected object. Widen within a range that does not overlap in the line-of-sight direction.

付記3の構成によれば、端末装置は、ユーザが意図して他の選択オブジェクトの選択に変更する場合には、その選択が可能なように、視線位置が重なっている判定領域から外れてしまう誤操作の発生を抑制できる。また、端末装置は、それぞれの選択オブジェクトの判定領域の独立性が保てるため、何れか一つの選択オブジェクトを選択したい場合に誤操作を防ぐことができる。 According to the configuration of Appendix 3, when the user intentionally changes to the selection of another selected object, the terminal device deviates from the determination area where the line-of-sight positions overlap so that the selection can be made. The occurrence of erroneous operation can be suppressed. Further, since the terminal device can maintain the independence of the determination area of each selected object, it is possible to prevent an erroneous operation when it is desired to select any one of the selected objects.

(付記4)また、本発明の一態様は、付記3に記載の端末装置であって、前記オブジェクト配置部は、前記選択オブジェクトの判定領域を広くする場合、他の前記選択オブジェクトの判定領域と、前記視線方向に対して直交する方向に所定の間隔が空く範囲で広くする。 (Appendix 4) Further, one aspect of the present invention is the terminal device according to the appendix 3, and when the object arranging unit widens the determination area of the selected object, it is combined with the determination area of the other selected object. , Widen within a range with a predetermined interval in the direction orthogonal to the line-of-sight direction.

付記4の構成によれば、端末装置は、ユーザが意図して他の選択オブジェクトに選択を変更する場合には、現在重なっている判定領域からすぐに視線位置を外すことができる。 According to the configuration of Appendix 4, when the user intentionally changes the selection to another selected object, the terminal device can immediately remove the line-of-sight position from the currently overlapping determination area.

(付記5)また、本発明の一態様は、付記2から付記4のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記選択オブジェクトの判定領域を広くする場合、他に配置されている前記選択オブジェクトの位置を変更する。 (Supplementary Note 5) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 2 to Supplementary note 4, and the object arranging unit may be used when the determination area of the selected object is widened. The position of the selected object that has been placed is changed.

付記5の構成によれば、端末装置は、多数の選択オブジェクトがある場合でも、他の選択オブジェクトを移動することで、判定領域を拡大するための領域を確保できる。 According to the configuration of Appendix 5, the terminal device can secure an area for expanding the determination area by moving other selected objects even when there are a large number of selected objects.

(付記6)また、本発明の一態様は、付記2から付記5のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記選択オブジェクトの判定領域を広くする場合、前記選択オブジェクトの表示態様を変更する。 (Supplementary Note 6) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 2 to Supplementary note 5, and the object arranging unit is the selection when the determination area of the selection object is widened. Change the display mode of the object.

付記6の構成によれば、端末装置は、拡大中の選択オブジェクトに選択の意思決定に関わる情報を選択オブジェクトに表示できるので、ユーザが誤った選択を行わないようにすることができる。また、端末装置は、拡大中の選択オブジェクトの色を拡大前とは異なる色に変更することができるので、選択しようとしている選択オブジェクトの視認性が向上することにより操作性を向上できる。 According to the configuration of Appendix 6, since the terminal device can display the information related to the selection decision on the expanding selection object on the selection object, it is possible to prevent the user from making an erroneous selection. Further, since the terminal device can change the color of the selected object being enlarged to a color different from that before the enlargement, the operability can be improved by improving the visibility of the selected object to be selected.

(付記7)また、本発明の一態様は、付記2から付記6のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係から重なる位置関係になってから所定の時間経過した後に、前記選択オブジェクトの判定領域または該判定領域に対応する表示領域を広くする。 (Supplementary Note 7) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 2 to Supplementary note 6, wherein the object arranging unit has the line-of-sight position and the determination area of the selected object. After a predetermined time has elapsed from the positional relationship that does not overlap in the line-of-sight direction to the overlapping positional relationship, the determination area of the selected object or the display area corresponding to the determination area is widened.

付記7の構成によれば、端末装置は、選択する意思が無いのに視線位置が判定領域上を短時間で通過した場合に判定領域が拡大してしまうことを抑制できるため、選択操作を行う際の視認性を向上させることができる。 According to the configuration of Appendix 7, the terminal device can prevent the determination area from expanding when the line-of-sight position passes over the determination area in a short time even though there is no intention to select, so that the selection operation is performed. The visibility at the time can be improved.

(付記8)また、本発明の一態様は、付記1から付記7のいずれか一に記載の端末装置であって、前記オブジェクト配置部は、前記仮想視点からの視線方向を、前記検出部の検出結果に基づいて定め、前記視線位置を視認可能とするためのオブジェクトを、前記仮想空間内に配置する。 (Appendix 8) Further, one aspect of the present invention is the terminal device according to any one of Supplementary notes 1 to 7, wherein the object arranging unit determines the line-of-sight direction from the virtual viewpoint of the detecting unit. An object that is determined based on the detection result and makes the line-of-sight position visible is arranged in the virtual space.

付記8の構成によれば、端末装置は、例えば、HMDシステムが装着されたユーザの頭部の向きに応じて視線方向に対応する視線位置を視界画像内(例えば、視界画像の中央)に定めることができ、視線位置と選択オブジェクトの位置関係をユーザが認識し易くすることで操作性を向上することができる。 According to the configuration of Appendix 8, the terminal device determines, for example, the line-of-sight position corresponding to the line-of-sight direction in the view image (for example, the center of the view image) according to the direction of the head of the user equipped with the HMD system. It is possible to improve the operability by making it easier for the user to recognize the positional relationship between the line-of-sight position and the selected object.

(付記9)また、本発明の一態様は、付記1から付記8のいずれか一に記載の端末装置であって、前記視線位置と前記選択オブジェクトの判定領域との位置関係に基づいて、前記選択オブジェクトの選択の有無を判定する判定部(112、S204〜S210、S304〜S310)、を備える。 (Supplementary note 9) Further, one aspect of the present invention is the terminal device according to any one of Supplementary notes 1 to 8, based on the positional relationship between the line-of-sight position and the determination area of the selected object. A determination unit (112, S204 to S210, S304 to S310) for determining whether or not a selected object is selected is provided.

付記9の構成によれば、端末装置は、HMDシステムにおいて、ユーザの視線を利用して選択肢を選択させる操作UIが可能である。 According to the configuration of Appendix 9, the terminal device can be an operation UI that allows the user to select an option by using the line of sight of the user in the HMD system.

(付記10)また、本発明の一態様は、付記9に記載の端末装置であって、前記判定部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係から重なる位置関係になってからの経過時間を計時するとともに、計時した経過時間に基づいて選択の有無を判定する(S204〜S210、S304〜S310)。 (Appendix 10) Further, one aspect of the present invention is the terminal device according to the appendix 9, and the determination unit is based on a positional relationship in which the line-of-sight position and the determination area of the selected object do not overlap in the line-of-sight direction. The elapsed time from the overlapping positional relationship is measured, and the presence or absence of selection is determined based on the measured elapsed time (S204 to S210, S304 to S310).

付記10の構成によれば、端末装置は、視線位置が選択オブジェクトの判定領域に重なってから所定の時間が経過することを条件として選択されたと判定するので、選択する意思が無いのに判定領域上を視線位置が通過するだけで、選択されてしまうことを防ぐことができる。 According to the configuration of Appendix 10, the terminal device determines that the selection is made on the condition that a predetermined time elapses after the line-of-sight position overlaps the determination area of the selected object. It is possible to prevent selection by simply passing the line-of-sight position over the top.

(付記11)また、本発明の一態様は、付記10に記載の端末装置であって、前記オブジェクト配置部は、前記経過時間を視認可能とするためのオブジェクトを前記仮想空間内に配置する。 (Appendix 11) Further, one aspect of the present invention is the terminal device according to Appendix 10, in which the object arranging unit arranges an object for making the elapsed time visible in the virtual space.

付記11の構成によれば、端末装置は、選択が確定されるタイミングをユーザが容易に認識可能なように提示できる。 According to the configuration of Appendix 11, the terminal device can present the timing at which the selection is confirmed so that the user can easily recognize it.

(付記12)また、本発明の一態様は、付記10または付記11に記載の端末装置であって、前記判定部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係にある場合と重なる位置関係にある場合とで異なる計時を行う(S314)。 (Appendix 12) Further, one aspect of the present invention is the terminal device according to the appendix 10 or the appendix 11, and in the determination unit, the line-of-sight position and the determination area of the selected object do not overlap in the line-of-sight direction. Timekeeping is performed differently depending on whether there is a positional relationship or an overlapping positional relationship (S314).

付記12の構成によれば、端末装置は、誤操作により視線位置が判定領域から外れてしまった場合でも、同じ判定領域に再度視線位置を移せば、0から計時し直すのではなく、続きから経過時間の計時が再開されるので、操作性を向上できる。 According to the configuration of Appendix 12, even if the line-of-sight position deviates from the judgment area due to an erroneous operation, if the line-of-sight position is moved to the same judgment area again, the time is not restarted from 0, but the time is elapsed from the continuation. Since the time timing is restarted, the operability can be improved.

(付記13)また、本発明の一態様は、付記10から付記12のいずれか一に記載の端末装置であって、前記判定部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重なる位置関係になってから計時した経過時間を、前記視線位置と他の前記選択オブジェクトの判定領域とが前記視線方向において重なる位置関係になった場合、リセットする(S318)。 (Supplementary Note 13) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 10 to Supplementary note 12, and in the determination unit, the line-of-sight position and the determination area of the selected object are the line-of-sight. The elapsed time measured after the positional relationship overlaps in the direction is reset when the line-of-sight position and the determination area of the other selected object overlap in the line-of-sight direction (S318).

付記13の構成によれば、端末装置は、視線位置が他の選択オブジェクトの判定領域に移った場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再び視線位置が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。 According to the configuration of Appendix 13, when the line-of-sight position shifts to the determination area of another selected object, the terminal device considers that the user has no intention of continuing the selection and returns the timed elapsed time to 0. Therefore, even if the line-of-sight position is unintentionally moved to the same determination area, the measurement of the elapsed time is not restarted from the continuation, and it is possible to prevent an erroneous operation from occurring.

(付記14)また、本発明の一態様は、付記10から付記12のいずれか一に記載の端末装置であって、前記判定部は、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重なる位置関係になってから計時した経過時間を、前記視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係になって所定の時間が経過すると、リセットする(S316)。 (Supplementary note 14) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 10 to Supplementary note 12, and in the determination unit, the line-of-sight position and the determination area of the selected object are the line-of-sight. The elapsed time measured after the positional relationship overlaps in the direction is reset when a predetermined time elapses when the line-of-sight position and the determination area of the selected object do not overlap in the line-of-sight direction (S316). ..

付記14の構成によれば、端末装置は、視線位置が判定領域から外れて所定の時間(例えば、10秒など)経過した場合には、ユーザに選択を継続する意思がないとみなして、計時した経過時間を0に戻すため、同じ判定領域に再度視線位置が意図せず移った場合でも、続きから経過時間の計測が再開されることが無く、誤操作が生じてしまうことを防ぐことができる。 According to the configuration of Appendix 14, when the line-of-sight position deviates from the determination area and a predetermined time (for example, 10 seconds) elapses, the terminal device considers that the user has no intention of continuing the selection and clocks the time. Since the elapsed time is returned to 0, even if the line-of-sight position is unintentionally moved to the same determination area, the measurement of the elapsed time is not restarted from the continuation, and it is possible to prevent an erroneous operation from occurring. ..

(付記15)また、本発明の一態様は、付記10から付記12のいずれか一に記載の端末装置であって、前記判定部は、前記視線方向において前記視線位置が前記選択オブジェクトの判定領域内のいずれの位置と重なるかによって、計時する速度を変更する。 (Supplementary Note 15) Further, one aspect of the present invention is the terminal device according to any one of Supplementary note 10 to Supplementary note 12, wherein the determination unit has a determination area in which the line-of-sight position is the selection object in the line-of-sight direction. The speed to be measured is changed depending on which position in the position it overlaps with.

付記15の構成によれば、端末装置は、誤動作防止のための判定時間を設けつつ、選択と判定されるまでの期間を短くする方法もユーザに提供することができる。 According to the configuration of Appendix 15, the terminal device can also provide the user with a method of shortening the period until the determination is made while providing the determination time for preventing the malfunction.

(付記16)また、本発明の一態様は、付記1から付記15のいずれか一に記載の端末装置であって、前記表示制御部は、前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向の視界画像を、前記表示部に表示させる。 (Supplementary note 16) Further, one aspect of the present invention is the terminal device according to any one of Supplementary notes 1 to 15, and the display control unit is in the virtual space according to the detection result of the detection unit. The field of view image in the field of view from the virtual viewpoint is displayed on the display unit.

付記16の構成によれば、端末装置は、HDMシステムが装着されたユーザの頭部の動きに応じて、仮想空間内の視界方向の視界画像をユーザが視認可能なように提供できる。また、端末装置は、仮想空間内の視界画像と選択オブジェクトを同時に表示することができるため、ユーザが仮想空間内のゲーム情報を参考にしつつ選択できるようにすることができる。 According to the configuration of Appendix 16, the terminal device can provide a visual field image in the visual field direction in the virtual space so that the user can see it according to the movement of the head of the user who is equipped with the HDM system. Further, since the terminal device can simultaneously display the field of view image in the virtual space and the selected object, the user can select while referring to the game information in the virtual space.

(付記17)また、本発明の一態様に係るプログラムは、コンピュータを、付記1から付記16のいずれか一に記載の端末装置として機能させるためのプログラムである。 (Appendix 17) Further, the program according to one aspect of the present invention is a program for causing a computer to function as a terminal device according to any one of Supplementary notes 1 to 16.

付記17の構成によれば、プログラムは、仮想視点からの視線方向に対応する視線位置と選択オブジェクトの判定領域との位置関係によって、該判定領域の大きさ(見かけ上の大きさ)を変更することができるため、選択肢に対して選択操作する際の操作性を向上することができる。 According to the configuration of Appendix 17, the program changes the size (apparent size) of the determination area according to the positional relationship between the line-of-sight position corresponding to the line-of-sight direction from the virtual viewpoint and the determination area of the selected object. Therefore, it is possible to improve the operability when performing a selection operation for an option.

1 HMDシステム、2 アタッチメント、3R 右目用レンズ、3L 左目用レンズ、5 ストラップ、10 端末装置、12 表示部、13 センサ、14 タイマ、15 記憶部、16 通信部、17 CPU、110 制御部、111 検出部、112 判定部、113 オブジェクト配置部、114 表示制御部 1 HMD system, 2 attachment, 3R right eye lens, 3L left eye lens, 5 strap, 10 terminal device, 12 display unit, 13 sensor, 14 timer, 15 storage unit, 16 communication unit, 17 CPU, 110 control unit, 111 Detection unit, 112 judgment unit, 113 object placement unit, 114 display control unit

Claims (4)

両眼視差を利用した立体視画像として、仮想空間内の仮想視点からの視界を表す視界画像を表示可能なヘッドマウントディスプレイシステムの少なくとも一部として利用可能な端末装置であって、
前記端末装置の方向に関する情報を検出する検出部と、
ユーザからの選択の有無を判定する判定領域を有する選択オブジェクトを、前記仮想空間内に配置するオブジェクト配置部と、
前記検出部の検出結果に応じて前記仮想空間内の前記仮想視点からの視界方向に配置されている前記選択オブジェクトを表示部に表示させる表示制御部と、
を備え、
前記選択オブジェクトの選択の有無を決定するための閾値としての判定時間が予め設定されており、
前記オブジェクト配置部は、
前記仮想視点からの視線方向に対応する視線位置と前記選択オブジェクトの判定領域とが前記視線方向において重ならない位置関係から重なる位置関係になったときの前記視線位置の移動速度が所定値以上の場合には、当該位置関係になってから前記判定時間未満の所定の時間経過した後に前記選択オブジェクトの判定領域を変更し、前記視線位置の移動速度が前記所定値未満の場合には、当該位置関係になってから前記所定の時間が経過しなくとも前記選択オブジェクトの判定領域を変更する、
端末装置。
A terminal device that can be used as at least a part of a head-mounted display system capable of displaying a visual field image representing a visual field from a virtual viewpoint in a virtual space as a stereoscopic image using binocular parallax.
A detection unit that detects information about the direction of the terminal device, and
An object arranging unit for arranging a selected object having a determination area for determining whether or not a user has selected the object in the virtual space, and an object arranging unit.
A display control unit that displays the selected object arranged in the visual field direction from the virtual viewpoint in the virtual space on the display unit according to the detection result of the detection unit.
With
The determination time as a threshold value for determining whether or not the selected object is selected is set in advance.
The object arrangement part is
When the moving speed of the line-of-sight position when the line-of- sight position corresponding to the line-of-sight direction from the virtual viewpoint and the determination area of the selected object change from a positional relationship that does not overlap in the line-of-sight direction to an overlapping position is equal to or higher than a predetermined value. the changes the determination area before Symbol selected objects from getting to the positional relationship after the lapse of a predetermined time less than the judging time, when the moving speed of the line of sight position is smaller than the predetermined value, the The determination area of the selected object is changed even if the predetermined time has not elapsed since the positional relationship was established .
Terminal equipment.
前記オブジェクト配置部は、
前記選択オブジェクトの判定領域を変更する場合、前記選択オブジェクトの判定領域を広くする、
請求項1に記載の端末装置。
The object arrangement part is
When changing the determination area of the selected object, the determination area of the selected object is widened.
The terminal device according to claim 1.
前記オブジェクト配置部は、
前記仮想視点からの視線方向を、前記検出部の検出結果に基づいて定め、
前記視線位置を視認可能とするためのオブジェクトを、前記仮想空間内に配置する、
請求項1または請求項2に記載の端末装置。
The object arrangement part is
The line-of-sight direction from the virtual viewpoint is determined based on the detection result of the detection unit.
An object for making the line-of-sight position visible is arranged in the virtual space.
The terminal device according to claim 1 or 2.
コンピュータを、請求項1から請求項のいずれか一項に記載の端末装置として機能させるためのプログラム。 A program for causing a computer to function as the terminal device according to any one of claims 1 to 3.
JP2018008341A 2017-10-06 2018-01-22 Terminal devices and programs Active JP6935921B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018008341A JP6935921B2 (en) 2017-10-06 2018-01-22 Terminal devices and programs

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017195897A JP6284112B2 (en) 2017-10-06 2017-10-06 Terminal device and program
JP2018008341A JP6935921B2 (en) 2017-10-06 2018-01-22 Terminal devices and programs

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017195897A Division JP6284112B2 (en) 2017-10-06 2017-10-06 Terminal device and program

Publications (2)

Publication Number Publication Date
JP2018088268A JP2018088268A (en) 2018-06-07
JP6935921B2 true JP6935921B2 (en) 2021-09-15

Family

ID=62493708

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018008341A Active JP6935921B2 (en) 2017-10-06 2018-01-22 Terminal devices and programs

Country Status (1)

Country Link
JP (1) JP6935921B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2009093435A1 (en) * 2008-01-25 2009-07-30 Panasonic Corporation Brain wave interface system, brain wave interface device, method and computer program
JP2014142882A (en) * 2013-01-25 2014-08-07 Nikon Corp Line of sight input device
JP6127839B2 (en) * 2013-09-02 2017-05-17 ソニー株式会社 Information processing apparatus, information processing method, and program
JP6033804B2 (en) * 2014-02-18 2016-11-30 本田技研工業株式会社 In-vehicle device operation device
JP5876607B1 (en) * 2015-06-12 2016-03-02 株式会社コロプラ Floating graphical user interface
JP6630607B2 (en) * 2016-03-28 2020-01-15 株式会社バンダイナムコエンターテインメント Simulation control device and simulation control program

Also Published As

Publication number Publication date
JP2018088268A (en) 2018-06-07

Similar Documents

Publication Publication Date Title
JP6312184B2 (en) Terminal device and program
JP6236691B1 (en) Terminal device and program
JP6250592B2 (en) Head mounted display, information processing apparatus, display control method, and program
US9086724B2 (en) Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus
US9632314B2 (en) Head mounted display device displaying thumbnail image and method of controlling the same
JP6238381B1 (en) Terminal device and program
US10140002B2 (en) Information processing apparatus, information processing method, and program
JP6110893B2 (en) Virtual space location designation method, program, recording medium recording program, and apparatus
US20190294314A1 (en) Image display device, image display method, and computer readable recording device
US8708818B2 (en) Display control system, display control method, computer-readable storage medium having stored thereon display control program, and display control apparatus
JP6277567B1 (en) Terminal device and program
JP2016024752A (en) GUI device
JP6284112B2 (en) Terminal device and program
JP6935921B2 (en) Terminal devices and programs
JP2018092672A (en) Terminal device and program
JP6780865B2 (en) Terminal devices and programs
JP2017054320A (en) User interface program, advertisements, and device that utilize sensors of hmd device
JP2017049960A (en) User interface program and device using sensors of hmd device
JP6383083B2 (en) Terminal device and program
JP2016224595A (en) System, method, and program
JP6380963B2 (en) Terminal device and program
WO2017217375A1 (en) Image display device, image display method, and image display program
JP6169462B2 (en) Information processing apparatus and information processing method
JP6332658B1 (en) Display control apparatus and program
JP2022097359A (en) program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180131

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190527

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200204

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200131

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200401

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200512

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200806

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210420

C22 Notice of designation (change) of administrative judge

Free format text: JAPANESE INTERMEDIATE CODE: C22

Effective date: 20210608

C23 Notice of termination of proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C23

Effective date: 20210706

C03 Trial/appeal decision taken

Free format text: JAPANESE INTERMEDIATE CODE: C03

Effective date: 20210810

C30A Notification sent

Free format text: JAPANESE INTERMEDIATE CODE: C3012

Effective date: 20210810

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210819

R150 Certificate of patent or registration of utility model

Ref document number: 6935921

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150